아래 영문자막을 더블클릭하시면 영상이 재생됩니다. 번역된 자막은 기계 번역됩니다.
00:07
Dan: Hello and welcome to 6 Minute English.
0
7300
1640
Dan: 안녕하세요. 6 Minute English에 오신 것을 환영합니다.
00:08
I'm Dan and joining me today is Neil. Hi Neil.
1
8940
2519
나는 Dan이고 오늘 나와 함께하는 것은 Neil입니다. 안녕 닐.
00:11
Neil: Hi Dan. What’s with the protective
2
11459
2321
닐: 안녕 댄. 보호
00:13
gear and helmet?
3
13780
929
장비와 헬멧은 무엇입니까?
00:14
Dan: I’m just getting ready for the inevitable
4
14709
2676
Dan: 기계의 불가피한 부상에 대비하고 있습니다
00:17
rise of the machines. That’s the takeover
5
17385
2385
. 그것은
00:19
of the world by artificial intelligence, or
6
19770
3486
00:23
AI, which some people predict will happen.
7
23256
3404
일부 사람들이 일어날 것이라고 예측하는 인공 지능 또는 AI가 세상을 장악하는 것입니다.
00:26
Neil: Inevitable means cannot be avoided or
8
26660
2615
Neil: 피할 수 없는 수단은 피하거나
00:29
stopped. Rise of the machines? What do you mean?
9
29275
3555
멈출 수 없습니다. 기계의 부상? 무슨 뜻이에요?
00:32
Dan: It’s our topic in this 6 Minute English.
10
32830
2138
댄: 이번 6분 영어의 주제입니다.
00:34
We’ll be talking about that, giving you
11
34968
1852
우리는 그것에 대해 이야기하고
00:36
six related pieces of vocabulary and, of course,
12
36820
3055
6개의 관련 어휘와 물론
00:39
our regular quiz question.
13
39875
1655
우리의 일반 퀴즈 질문을 제공할 것입니다.
00:41
Neil: That’s the first thing you’ve said
14
41530
1907
닐: 그게 당신이 말한 첫 번째 말이군요
00:43
that makes any sense. What’s the question?
15
43437
2003
. 질문이 뭐야?
00:45
Dan: The word ‘robot’ as we use it today
16
45440
3218
댄: 오늘날 우리가 사용하는 '로봇'이라는 단어는
00:48
was first used in a 1920’s Czech play ‘Rossum’s
17
48658
3782
1920년대 체코 연극 '로섬의 만능 로봇'에서 처음 사용되었습니다
00:52
Universal Robots’. But before this, what
18
52440
3356
. 그러나 그 전에는
00:55
was its original meaning? a) forced labour
19
55796
3524
원래 의미가 무엇이었습니까? a) 강제 노동
00:59
b) metal man c) heartless thing
20
59320
3640
b) 금속 남자 c) 무자비한 것
01:02
Neil: I will go for a) forced labour
21
62960
3250
Neil: 나는 갈 것입니다 a) 강제 노동
01:06
Dan: We’ll find out if you were right or
22
66210
2335
Dan: 나중에 쇼에서 당신이 옳았는지 아닌지 알게 될 것입니다
01:08
not later in the show.
23
68545
1285
.
01:09
Neil: OK Dan. Tell me what’s going on.
24
69830
2310
닐: 알았어 댄. 무슨 일인지 말해줘.
01:12
Dan: I saw a news article written by BBC technology
25
72140
3431
Dan: BBC 기술
01:15
correspondent Rory Cellan-Jones about the
26
75571
2759
특파원 Rory Cellan-Jones가
01:18
recent CES technology show in Las Vegas. He
27
78330
3865
최근 라스베거스에서 열린 CES 기술 쇼에 대해 쓴 뉴스 기사를 봤습니다. 그는
01:22
interviewed David Hanson, founder of Hanson
28
82195
3865
Hanson Robotics의 설립자 David Hanson을 인터뷰했는데
01:26
Robotics, who said it was his ambition to
29
86060
3660
, 그는
01:29
achieve an AI that can beat humans at any
30
89720
3660
모든 지적 작업에서 인간을 능가할 수 있는 AI를 달성하는 것이 자신의 야망이라고 말했습니다
01:33
intellectual task.
31
93380
1500
.
01:34
Neil: Surely it’s a good thing! Better AI
32
94880
2655
닐: 확실히 좋은 일이야! 더 나은 AI
01:37
and robotics could take over many of the jobs
33
97535
2915
와 로봇 공학은
01:40
that we don’t want to do, or that are so
34
100450
2466
우리가 원하지 않거나
01:42
important to get 100% right… like air traffic
35
102916
2774
100% 제대로 하는 데 매우 중요한 항공 교통
01:45
control. We’d never have another plane crash.
36
105690
2566
관제와 같은 많은 작업을 대신할 수 있습니다. 우리는 또 다른 비행기 추락 사고를 겪지 않을 것입니다. 너무 영리하기
01:48
It would be infallible because it would be
37
108256
2394
때문에 오류가 없습니다
01:50
so clever.
38
110650
1190
.
01:51
Dan: Infallible means never failing. And that’s
39
111840
2767
Dan: Infallible은 결코 실패하지 않는다는 뜻입니다. 그리고 그것이
01:54
what bothers me. What happens when its intelligence
40
114607
3003
나를 괴롭히는 것입니다. 지능이
01:57
surpasses ours? Why should it do what
41
117610
2774
우리를 능가하면 어떻게 될까요? 왜 우리가 원하는 대로 해야 합니까
02:00
we want it to do?
42
120384
1275
?
02:01
Neil: To surpass something is to do or be
43
121659
2076
Neil: 무언가를 능가한다는 것은
02:03
better than it. Dan, you’ve been watching
44
123735
2075
그것보다 더 나은 것을 하거나 더 잘하는 것입니다. 댄, 당신은
02:05
too many movies. Robots fighting humanity
45
125810
2971
영화를 너무 많이 봤어요. 인류와 싸우는 로봇은
02:08
is a popular theme. Guess what… humanity
46
128781
2899
인기 있는 테마입니다. 맞춰보세요… 인류는
02:11
often wins. And besides, we would programme
47
131680
2498
종종 승리합니다. 게다가 우리는
02:14
the computer to be benevolent.
48
134178
1742
컴퓨터가 자비로워지도록 프로그래밍할 것입니다.
02:15
Dan: Benevolent means kind and helpful. But
49
135920
2805
Dan: Benevolent는 친절하고 도움이 된다는 뜻입니다. 그러나
02:18
that’s just it, once the intelligence becomes
50
138725
2935
일단 지능이
02:21
sentient, or able to think for itself, who
51
141660
2781
지각하거나 스스로 생각할 수 있게 되면
02:24
knows what it will do. We humans are not exactly
52
144441
3179
그것이 무엇을 할지 누가 알겠습니까? 우리 인간은 정확히 완벽하지 않습니다
02:27
perfect, you know. What happens if it decides
53
147620
2602
. 그것이
02:30
that it is better than us and wants us out
54
150222
2428
우리보다 낫다고 판단하고 우리를 방해하지 않기를 원하면 어떻게 됩니까
02:32
of the way?
55
152650
1000
?
02:33
Neil: Don’t worry. Asimov thought of that.
56
153650
2524
닐: 걱정 마세요. Asimov는 그것을 생각했습니다.
02:36
Isaac Asimov was an American science fiction
57
156174
2645
아이작 아시모프(Isaac Asimov)는
02:38
writer who, among other things, wrote about
58
158819
2747
무엇보다도 로봇에 관해 글을 쓴 미국 공상과학 작가였습니다
02:41
robots. He came up with three laws that every
59
161566
2874
. 그는 모든 로봇이 인류에 반하는 행동을 막기 위해 따라야 할 세 가지 법칙을 제시했습니다
02:44
robot would have to follow to stop it from
60
164440
2624
02:47
acting against humanity. So we’re safe!
61
167064
2436
. 그래서 우리는 안전합니다!
02:49
Dan: I’m not so sure. A sentient robot could
62
169500
2933
댄: 잘 모르겠습니다. 지각 있는 로봇은 법을
02:52
make up its own mind about how to interpret
63
172433
2867
해석하는 방법에 대해 스스로 결정할 수 있습니다
02:55
the laws. For example, imagine if we created
64
175300
3284
. 예를 들어
02:58
an AI system to protect all of humanity.
65
178584
2985
모든 인류를 보호하기 위해 AI 시스템을 만들었다고 상상해 보십시오.
03:01
Neil: Well, that’s great! No more war. No
66
181569
2195
닐: 음, 훌륭하네요! 더 이상 전쟁이 없습니다.
03:03
more murder. No more fighting.
67
183764
1606
더 이상 살인은 없습니다. 더 이상 싸우지 마세요.
03:05
Dan: Do you really think that humans can stop
68
185370
2694
댄: 정말 인간이 싸움을 멈출 수 있다고 생각하세요
03:08
fighting? What if the AI decides that the
69
188064
2455
? AI가
03:10
only way to stop us from hurting ourselves
70
190519
3286
우리 자신과 서로가 다치는 것을 막을 수 있는 유일한 방법은 우리가 하는
03:13
and each other is to control everything we
71
193805
3285
모든 일을 통제하는 것이라고 결정하고
03:17
do, so it takes over to protect us. Then we
72
197090
3507
우리를 보호하기 위해 대신한다면 어떨까요? 그렇다면 우리는 우리보다 더 똑똑하고 오류가 없는
03:20
would lose our freedom to a thing that we
73
200597
3343
우리가 창조한 것에게 우리의 자유를 잃게 될 것입니다
03:23
created that is infallible and more intelligent
74
203940
3377
03:27
than we are! That’s the end, Neil!
75
207317
2443
! 그게 끝이야, 닐!
03:29
Neil: I think that’s a little far-fetched,
76
209760
2216
Neil: 제 생각에는 조금 억지스러운 것 같습니다.
03:31
which means difficult to believe. I’m sure
77
211976
2215
믿기 어렵다는 뜻입니다.
03:34
others don’t think that way.
78
214191
1539
다른 사람들은 그렇게 생각하지 않을 것이라고 확신합니다.
03:35
Dan: OK. Let’s hear what the Learning English
79
215730
2523
댄: 알았어.
03:38
team say when I ask them if they are worried
80
218253
2467
03:40
that AI and robots could take over the world.
81
220720
3519
인공지능과 로봇이 세상을 지배할 수 있다고 걱정하느냐고 영어 학습팀이 묻는 말을 들어보자.
03:44
Phil: Well, it’s possible, but unlikely.
82
224240
3580
필: 음, 가능하지만 가능성은 낮습니다.
03:47
There will come a point where our technology
83
227820
1880
우리의 기술이 제한되는 시점이 올 것입니다.
03:49
will be limited – probably before real AI
84
229700
3125
아마도 실제 AI가
03:52
is achieved.
85
232825
1935
달성되기 전에 말입니다.
03:54
Sam: Never in a million years. First of all
86
234760
2360
샘: 백만 년 동안은 절대. 우선
03:57
we’d programme them so that they couldn’t,
87
237124
3306
우리는 그들이 할 수 없도록 프로그래밍하고
04:00
and secondly we’d beat them anyway. Haven’t
88
240430
3632
두 번째로 어쨌든 그들을 이길 것입니다.
04:04
you ever seen a movie?
89
244062
1858
영화 본 적 없어?
04:05
Kee: I totally think it could happen. We
90
245920
2371
키: 그럴 수도 있다고 생각해요. 우리는 스스로 생각할 수 있을 만큼
04:08
only have to make a robot that’s smart enough
91
248291
2668
똑똑한 로봇을 만들기만 하면 됩니다
04:10
to start thinking for itself. After that,
92
250959
2605
. 그 후,
04:13
who knows what it might do.
93
253564
2796
그것이 무엇을 할 수 있는지 누가 알겠습니까?
04:16
Neil: A mixed bag of opinions there, Dan.
94
256360
1796
Neil: 의견이 엇갈리네요, Dan.
04:18
It seems you aren’t alone.
95
258156
1823
당신은 혼자가 아닌 것 같습니다.
04:19
Dan: Nope. But I don’t exactly have an army
96
259979
2459
댄: 아니요. 그러나 나는 지원군도 정확히 가지고 있지 않습니다
04:22
of support either. I guess we’ll just have
97
262438
2402
.
04:24
to wait and see.
98
264840
1000
두고 봐야 할 것 같습니다.
04:25
Neil: Speak for yourself. I’ve waited long
99
265840
1949
닐: 스스로 말해 보세요. 나는 충분히 오래 기다렸습니다
04:27
enough – for our quiz question that is.
100
267789
1810
– 우리의 퀴즈 질문입니다.
04:29
Dan: Oh yeah! I asked you what the original
101
269599
2496
댄: 아 예!
04:32
meaning of the word ‘robot’ was before
102
272095
2205
로봇이라는 단어가
04:34
it was used in its modern form. a) forced
103
274300
3633
현대적으로 사용되기 전의 원래 의미가 무엇인지 물었습니다. a) 강제
04:37
labour b) metal man c) heartless thing
104
277933
3367
노동 b) 금속 인간 c) 무자비한 것
04:41
Neil: And I said a) forced labour
105
281300
1709
Neil: 그리고 내가 말했어요 a) 강제 노동
04:43
Dan: And you were… right!
106
283009
1971
Dan: 그리고 당신 말이... 맞아요!
04:44
Neil: Shall we take a look at the vocabulary then?
107
284980
2580
닐: 그럼 어휘를 살펴볼까요?
04:47
Dan: OK. First we had inevitable. If something
108
287569
3450
댄: 알았어. 먼저 우리는 불가피했습니다. 불가피한 일이라면
04:51
is inevitable then it cannot be avoided or
109
291019
3150
피하거나 멈출 수 없습니다
04:54
stopped. Can you think of something inevitable, Neil?
110
294169
2571
. 불가피한 일이 생각나나요, 닐?
04:56
Neil: It is inevitable that one day the Sun
111
296749
3005
Neil: 언젠가는 태양이
04:59
will stop burning. Then we had infallible,
112
299754
2936
타는 것을 멈출 수밖에 없습니다. 그런 다음 우리는
05:02
which means never failing. Give us an example, Dan.
113
302690
3050
결코 실패하지 않는다는 것을 의미하는 절대 오류가 없었습니다. 예를 들어보세요, 댄.
05:05
Dan: The vaccine for small pox is infallible.
114
305740
2332
Dan: 천연두 백신은 틀림이 없습니다.
05:08
The natural spread of that disease has been
115
308072
2228
그 질병의 자연적 확산은
05:10
completely stopped. After that was surpasses.
116
310300
3470
완전히 중단되었습니다. 그 후 능가했습니다.
05:13
If something surpasses something else then
117
313770
3239
어떤 것이 다른 것을 능가하면
05:17
it becomes better than it.
118
317009
1711
그것보다 더 나은 것이 된다.
05:18
Neil: Many parents across the world hope that
119
318720
2275
Neil: 전 세계의 많은 부모는
05:20
their children will surpass them in wealth,
120
320995
2174
자녀가 부,
05:23
status or achievement. After that we heard
121
323169
2662
지위 또는 성취에서 자신을 능가하기를 바랍니다. 그 후 우리는
05:25
benevolent, which means kind and helpful.
122
325831
2599
친절하고 도움이 된다는 뜻의 자비로운 말을 들었습니다.
05:28
Name a person famous for being benevolent, Dan.
123
328430
3019
자비로 유명한 사람을 말해보세요, Dan.
05:31
Dan: Father Christmas is a benevolent character.
124
331449
3216
댄: 파더 크리스마스는 자애로운 캐릭터다.
05:34
After that we heard sentient. If something
125
334665
2814
그 후 우리는 지각력을 들었습니다. 만약 어떤 것이
05:37
is sentient, it is able to think for itself.
126
337479
2720
지각이 있다면 그것은 스스로 생각할 수 있습니다.
05:40
Neil: Indeed. Many people wonder about the
127
340200
2340
닐: 과연. 많은 사람들이
05:42
possibility of sentient life on other planets.
128
342620
3060
다른 행성에 생명체가 존재할 가능성에 대해 궁금해합니다.
05:45
Finally we heard far-fetched, which means
129
345680
2176
마침내 우리는 믿기 어렵다는 뜻의 억지스러운 말을 들었습니다
05:47
difficult to believe. Like that far-fetched
130
347856
2283
.
05:50
story you told me the other day about being
131
350139
1932
저번에 당신이
05:52
late because of a dragon, Dan.
132
352071
1348
용 때문에 늦었다고 나에게 말했던 터무니없는 이야기처럼, 댄.
05:53
Dan: I swear it was real! It had big sharp
133
353419
2480
댄: 맹세컨데 진짜였어! 그것은 크고 날카로운
05:55
teeth and everything!
134
355899
1240
이빨과 모든 것을 가지고 있었습니다!
05:57
Neil: Yeah, yeah, yeah. And that’s the end
135
357139
1938
닐: 예, 예, 예. 이것으로
05:59
of this 6 Minute English. Don’t forget to
136
359077
1892
6분 영어가 끝났습니다.
06:00
check out our Facebook, Twitter, and YouTube
137
360969
2171
Facebook, Twitter 및 YouTube
06:03
pages. See you next time!
138
363140
1640
페이지를 확인하는 것을 잊지 마십시오. 다음에 만나요!
06:04
Dan: Bye!
139
364780
640
댄: 안녕!
06:05
Neil: Bye.
140
365420
860
닐: 안녕.
New videos
이 웹사이트 정보
이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.