아래 영문자막을 더블클릭하시면 영상이 재생됩니다.
번역: Yeonsoo Kwon
검토: Jihyeon J. Kim
00:12
When I was a kid,
I was the quintessential nerd.
0
12580
3840
제가 어렸을 적,
저는 전형적인 괴짜였습니다.
00:17
I think some of you were, too.
1
17140
2176
여러분 중 몇몇도 그랬을 거예요.
00:19
(Laughter)
2
19340
1216
(웃음)
00:20
And you, sir, who laughed the loudest,
you probably still are.
3
20580
3216
거기 가장 크게 웃으신 분은
여전히 그럴 것 같군요.
00:23
(Laughter)
4
23820
2256
(웃음)
00:26
I grew up in a small town
in the dusty plains of north Texas,
5
26100
3496
저는 북텍사스 황무지의 작은 마을에서
00:29
the son of a sheriff
who was the son of a pastor.
6
29620
3336
목사인 할아버지와
보안관인 아버지 밑에서 자랐습니다.
00:32
Getting into trouble was not an option.
7
32980
1920
말썽피우는 일은 생각도
할 수 없었습니다.
00:35
And so I started reading
calculus books for fun.
8
35860
3256
그래서 저는 미적분학 책을
재미로 읽었습니다.
00:39
(Laughter)
9
39140
1536
(웃음)
00:40
You did, too.
10
40700
1696
당신도 그랬잖아요.
00:42
That led me to building a laser
and a computer and model rockets,
11
42420
3736
그것으로 저는 레이저, 컴퓨터와
모델 로켓을 만들었지요.
00:46
and that led me to making
rocket fuel in my bedroom.
12
46180
3000
그러다 보니 제 방에
로켓 연료를 만들게 됐어요.
00:49
Now, in scientific terms,
13
49780
3656
현재, 과학적 관점에서
00:53
we call this a very bad idea.
14
53460
3256
우리는 이것을 매우
나쁜 생각이라고 하죠.
00:56
(Laughter)
15
56740
1216
(웃음)
00:57
Around that same time,
16
57980
2176
또한 그 시절에
01:00
Stanley Kubrick's "2001: A Space Odyssey"
came to the theaters,
17
60180
3216
스탠리 큐브릭의
"2001년: 스페이스 오디세이"가
01:03
and my life was forever changed.
18
63420
2200
개봉하였으며 제 삶은 완전히 바뀌었죠.
01:06
I loved everything about that movie,
19
66100
2056
저는 그 영화의 모든 것이 좋았습니다.
01:08
especially the HAL 9000.
20
68180
2536
특히 HAL 9000은 특별했죠.
01:10
Now, HAL was a sentient computer
21
70740
2056
HAL은 지각을 할 수 있는 컴퓨터로
01:12
designed to guide the Discovery spacecraft
22
72820
2456
디스커버리호가 지구에서 목성으로 가도록
01:15
from the Earth to Jupiter.
23
75300
2536
가이드하는 역할을 했습니다.
01:17
HAL was also a flawed character,
24
77860
2056
HAL은 또한 결함이 있어서
01:19
for in the end he chose
to value the mission over human life.
25
79940
4280
결국 끝엔 인간의 생명을 뒤로하고
주어진 임무를 택하게 됩니다.
01:24
Now, HAL was a fictional character,
26
84660
2096
HAL은 허구적 캐릭터이지만
01:26
but nonetheless he speaks to our fears,
27
86780
2656
그럼에도 불구하고
그는 우리에게 공포감을 선사합니다.
01:29
our fears of being subjugated
28
89460
2096
인류에게 냉담한 감정이 없는
인공적인 지능에게
01:31
by some unfeeling, artificial intelligence
29
91580
3016
01:34
who is indifferent to our humanity.
30
94620
1960
지배당하게 될 것이라는 공포죠.
01:37
I believe that such fears are unfounded.
31
97700
2576
저는 그러한 공포가
근거 없다고 생각합니다.
01:40
Indeed, we stand at a remarkable time
32
100300
2696
확실히 우리는 인간 역사에서
01:43
in human history,
33
103020
1536
매우 중요한 시기에 있습니다.
01:44
where, driven by refusal to accept
the limits of our bodies and our minds,
34
104580
4976
우리는 우리 몸과 정신의
한계를 받아들이길 거부하며
01:49
we are building machines
35
109580
1696
기계를 만들어내고 있습니다.
01:51
of exquisite, beautiful
complexity and grace
36
111300
3616
우아하고 복잡하면서도
아름답고 정교하게요.
01:54
that will extend the human experience
37
114940
2056
그리고 그것은 인간의 경험을
01:57
in ways beyond our imagining.
38
117020
1680
상상을 초월할만큼 확장시킬 것입니다.
01:59
After a career that led me
from the Air Force Academy
39
119540
2576
저는 공군사관학교에서
02:02
to Space Command to now,
40
122140
1936
현재 우주 사령부로 와서
02:04
I became a systems engineer,
41
124100
1696
시스템 엔지니어가 됐고
02:05
and recently I was drawn
into an engineering problem
42
125820
2736
최근 나사의 화성과 관련된
기술문제에 관여하고 있습니다.
02:08
associated with NASA's mission to Mars.
43
128580
2576
02:11
Now, in space flights to the Moon,
44
131180
2496
오늘날 우리는
휴스턴 우주 비행 관제센터를 통해
02:13
we can rely upon
mission control in Houston
45
133700
3136
달을 향한 우주 비행을
02:16
to watch over all aspects of a flight.
46
136860
1976
모든 측면에서 지켜볼 수 있습니다.
02:18
However, Mars is 200 times further away,
47
138860
3536
하지만 화성은
200배 멀리 떨어져 있으며
02:22
and as a result it takes
on average 13 minutes
48
142420
3216
신호가 지구에서 화성까지
평균적으로 13분 걸립니다.
02:25
for a signal to travel
from the Earth to Mars.
49
145660
3136
02:28
If there's trouble,
there's not enough time.
50
148820
3400
문제가 있다면
시간이 충분하지 않다는 것이지요.
02:32
And so a reasonable engineering solution
51
152660
2496
그리고 합당한 기술적 방안은
02:35
calls for us to put mission control
52
155180
2576
우주 비행 관제 센터를
02:37
inside the walls of the Orion spacecraft.
53
157780
3016
오리온 우주선 벽 안에 넣는 것이지요.
02:40
Another fascinating idea
in the mission profile
54
160820
2896
다른 흥미로운 임무 개요 아이디어는
02:43
places humanoid robots
on the surface of Mars
55
163740
2896
사람이 직접 도착하기 전에
02:46
before the humans themselves arrive,
56
166660
1856
인간형 로봇을 먼저 화성에 두어
02:48
first to build facilities
57
168540
1656
시설들을 먼저 짓게 한 후
02:50
and later to serve as collaborative
members of the science team.
58
170220
3360
과학팀의 협력 멤버로 두는 것입니다.
02:55
Now, as I looked at this
from an engineering perspective,
59
175220
2736
이제 제가 이것을 기술적 측면에서 보면
02:57
it became very clear to me
that what I needed to architect
60
177980
3176
제가 만들어야 하는 것이
03:01
was a smart, collaborative,
61
181180
2176
똑똑하고 협력적인
03:03
socially intelligent
artificial intelligence.
62
183380
2376
사회적 지능의 인공 지능임을
알 수 있습니다.
03:05
In other words, I needed to build
something very much like a HAL
63
185780
4296
다른 말로, 저는 살인하는 경향이 없는
03:10
but without the homicidal tendencies.
64
190100
2416
HAL을 만들어야 한다는 것입니다.
03:12
(Laughter)
65
192540
1360
(웃음)
03:14
Let's pause for a moment.
66
194740
1816
잠시만 멈추고 생각하여봅시다.
03:16
Is it really possible to build
an artificial intelligence like that?
67
196580
3896
그러한 인공지능을 만드는 것이
가능할까요?
03:20
Actually, it is.
68
200500
1456
사실, 가능합니다.
03:21
In many ways,
69
201980
1256
다양한 측면에서
03:23
this is a hard engineering problem
70
203260
1976
이것은 AI 요소가 있는
어려운 기술 문제이지
03:25
with elements of AI,
71
205260
1456
03:26
not some wet hair ball of an AI problem
that needs to be engineered.
72
206740
4696
가벼운 설계적 인공지능
문제가 아닙니다.
03:31
To paraphrase Alan Turing,
73
211460
2656
앨런 튜링의 말을 정리하여 보자면
03:34
I'm not interested
in building a sentient machine.
74
214140
2376
저는 감각이 있는 기계를 만드는 것에
흥미가 있는 것이 아닙니다.
03:36
I'm not building a HAL.
75
216540
1576
저는 HAL을 만드는 것이 아닙니다.
03:38
All I'm after is a simple brain,
76
218140
2416
저는 지능의 환상을 주는
03:40
something that offers
the illusion of intelligence.
77
220580
3120
간단한 두뇌를 만들려는 것일 뿐입니다.
03:44
The art and the science of computing
have come a long way
78
224820
3136
HAL이 상영된 후에
기계적 과학과 예술은 발전해왔으며
03:47
since HAL was onscreen,
79
227980
1496
03:49
and I'd imagine if his inventor
Dr. Chandra were here today,
80
229500
3216
만일 발명가 샨드라가
오늘 이곳에 있었더라면
03:52
he'd have a whole lot of questions for us.
81
232740
2336
우리에게 많은 질문이 있었을 거라고
저는 상상합니다.
03:55
Is it really possible for us
82
235100
2096
수많은 기계들중 하나의 시스템을 뽑아
03:57
to take a system of millions
upon millions of devices,
83
237220
4016
데이타의 흐름을 읽고
04:01
to read in their data streams,
84
241260
1456
그들의 실패를 예견하는게
04:02
to predict their failures
and act in advance?
85
242740
2256
정말 가능한 것일까요?
04:05
Yes.
86
245020
1216
네.
04:06
Can we build systems that converse
with humans in natural language?
87
246260
3176
우리와 자연스럽게 대화하는 시스템을
만들 수 있을까요?
04:09
Yes.
88
249460
1216
네.
04:10
Can we build systems
that recognize objects, identify emotions,
89
250700
2976
물건을 인식하고, 감정을 알아보며,
감정을 나타내고
04:13
emote themselves,
play games and even read lips?
90
253700
3376
게임을 하며, 입술을 읽는,
그런 시스템을 만들 수 있을까요?
04:17
Yes.
91
257100
1216
네.
04:18
Can we build a system that sets goals,
92
258340
2136
목표를 세워 그 목표를 향해 나아가며
04:20
that carries out plans against those goals
and learns along the way?
93
260500
3616
그 과정에서 학습하는
시스템을 만들 수 있을까요?
04:24
Yes.
94
264140
1216
네.
04:25
Can we build systems
that have a theory of mind?
95
265380
3336
마음 이론을 가지고 있는
시스템을 만들 수 있을까요?
04:28
This we are learning to do.
96
268740
1496
이것을 향해 우리는 나아가고 있습니다.
04:30
Can we build systems that have
an ethical and moral foundation?
97
270260
3480
윤리적, 도덕적 배경을 가지고 있는
시스템을 만들 수 있을까요?
04:34
This we must learn how to do.
98
274300
2040
우리가 해야만 하는 것입니다.
04:37
So let's accept for a moment
99
277180
1376
그러므로 이러한 사명을 가진
04:38
that it's possible to build
such an artificial intelligence
100
278580
2896
인공지능을 만드는 것이 가능하다는 것을
04:41
for this kind of mission and others.
101
281500
2136
받아들여 봅시다.
04:43
The next question
you must ask yourself is,
102
283660
2536
그렇다면 이 질문을
스스로에게 물어보세요.
04:46
should we fear it?
103
286220
1456
우리는 두려워해야 할까요?
04:47
Now, every new technology
104
287700
1976
오늘날 모든 새로운 기술은
04:49
brings with it
some measure of trepidation.
105
289700
2896
어느 정도의 두려움을 가져오지요.
04:52
When we first saw cars,
106
292620
1696
우리가 처음 차를 보았을 때
04:54
people lamented that we would see
the destruction of the family.
107
294340
4016
사람들은 그것이 가족들을
무너뜨릴까봐 걱정했었습니다.
04:58
When we first saw telephones come in,
108
298380
2696
우리가 처음 전화를 보았을 때
05:01
people were worried it would destroy
all civil conversation.
109
301100
2896
사람들은 그것이 대화를 없애버릴까봐
걱정했었습니다.
05:04
At a point in time we saw
the written word become pervasive,
110
304020
3936
글자를 쓰는것이 보편화 되어갈 때
05:07
people thought we would lose
our ability to memorize.
111
307980
2496
사람들은 기억력을 잃게
될 거라고 생각했었죠.
05:10
These things are all true to a degree,
112
310500
2056
어느 정도 맞는 말일 수 있지만
05:12
but it's also the case
that these technologies
113
312580
2416
기술이 사람의 삶을
더 깊게 해주는 경우도
05:15
brought to us things
that extended the human experience
114
315020
3376
05:18
in some profound ways.
115
318420
1880
있었다고 볼 수 있죠.
05:21
So let's take this a little further.
116
321660
2280
더 나아가봅시다.
05:24
I do not fear the creation
of an AI like this,
117
324940
4736
저는 인공지능이 우리의 가치를
궁극적으로 구현할 것이라고 믿기에
05:29
because it will eventually
embody some of our values.
118
329700
3816
인공지능의 발명을
두려워하지 않습니다.
05:33
Consider this: building a cognitive system
is fundamentally different
119
333540
3496
이것을 고려하세요:
인식적인 시스템을 만드는 것은
05:37
than building a traditional
software-intensive system of the past.
120
337060
3296
과거의 소프트웨어 중심 시스템을
만드는 것과 다릅니다.
05:40
We don't program them. We teach them.
121
340380
2456
우리는 그것을
프로그램하지 않고 가르칩니다.
05:42
In order to teach a system
how to recognize flowers,
122
342860
2656
꽃을 알아보는것을 시스템에게
가르치기 위해서는
05:45
I show it thousands of flowers
of the kinds I like.
123
345540
3016
수천 종류의 꽃을 보여주여야 합니다.
05:48
In order to teach a system
how to play a game --
124
348580
2256
시스템에게 게임하는 법을
가르치기 위해서는
05:50
Well, I would. You would, too.
125
350860
1960
저도 그러고 싶고,
여러분도 그러겠지요.
05:54
I like flowers. Come on.
126
354420
2040
저는 꽃을 좋아해요, 정말로요.
05:57
To teach a system
how to play a game like Go,
127
357260
2856
시스템에게 바둑같은 게임을
가르치기 위해서는
06:00
I'd have it play thousands of games of Go,
128
360140
2056
수천 번의 바둑 게임을
해주어야 할 것이며
06:02
but in the process I also teach it
129
362220
1656
그 과정에서 잘한 게임과 못한 게임을
06:03
how to discern
a good game from a bad game.
130
363900
2416
구별하는것도 가르쳐야겠지요.
06:06
If I want to create an artificially
intelligent legal assistant,
131
366340
3696
인공 지능에게 법률 보조일을
시키기 위해서는
06:10
I will teach it some corpus of law
132
370060
1776
대전 뿐만이 아니라
06:11
but at the same time I am fusing with it
133
371860
2856
자비와 정의등의 개념
역시 가르쳐야겠지요.
06:14
the sense of mercy and justice
that is part of that law.
134
374740
2880
06:18
In scientific terms,
this is what we call ground truth,
135
378380
2976
과학적으로, 우리가 말하는
근본적인 진실 및
06:21
and here's the important point:
136
381380
2016
중요한 사실이 여기 있습니다:
06:23
in producing these machines,
137
383420
1456
이러한 기계를 만들기 위해서는
06:24
we are therefore teaching them
a sense of our values.
138
384900
3416
우리는 우리의 가치를 그들에게
가르쳐야합니다.
06:28
To that end, I trust
an artificial intelligence
139
388340
3136
그 목적을 위해서, 저는 인공지능이
06:31
the same, if not more,
as a human who is well-trained.
140
391500
3640
잘 훈련받은 사람보다 같거나
더 대단하다고 믿습니다.
06:35
But, you may ask,
141
395900
1216
하지만 여러분
06:37
what about rogue agents,
142
397140
2616
잘 설립된 로그 에이전트와 같은
06:39
some well-funded
nongovernment organization?
143
399780
3336
비정부기관에 대하여 물을수 있겠죠?
06:43
I do not fear an artificial intelligence
in the hand of a lone wolf.
144
403140
3816
저는 외로운 늑대에게 있는
인공지능을 두려워하지 않습니다.
06:46
Clearly, we cannot protect ourselves
against all random acts of violence,
145
406980
4536
분명히, 우리는 마구잡이의 폭력에서
우리를 보호할 수 없지만
06:51
but the reality is such a system
146
411540
2136
실제적으로 보았을때
06:53
requires substantial training
and subtle training
147
413700
3096
이는 근본적인 트레이닝을 요구하고
06:56
far beyond the resources of an individual.
148
416820
2296
이것은 개인의 능력치
바깥에 있는 일입니다.
06:59
And furthermore,
149
419140
1216
더 나아가 이것은
07:00
it's far more than just injecting
an internet virus to the world,
150
420380
3256
인터넷 바이러스를 세상에 주입하여
07:03
where you push a button,
all of a sudden it's in a million places
151
423660
3096
하나의 버튼을 눌러
전세계 인터넷을 폭파시키는것보다
07:06
and laptops start blowing up
all over the place.
152
426780
2456
더 힘든 일입니다.
07:09
Now, these kinds of substances
are much larger,
153
429260
2816
이제 이러한 것들은 훨씬 커졌으며
07:12
and we'll certainly see them coming.
154
432100
1715
우리는 이것들이 다가오는것을
확실하게 볼 수 있죠.
07:14
Do I fear that such
an artificial intelligence
155
434340
3056
제가 인공지능이 인류를 위협할까봐
07:17
might threaten all of humanity?
156
437420
1960
두려워할까요?
07:20
If you look at movies
such as "The Matrix," "Metropolis,"
157
440100
4376
"메트릭스", "메트로폴리스",
"터미네이터" 같은
07:24
"The Terminator,"
shows such as "Westworld,"
158
444500
3176
서구의 영화들을 보면
07:27
they all speak of this kind of fear.
159
447700
2136
영화들은 이러한 두려움을
다루고 있습니다.
07:29
Indeed, in the book "Superintelligence"
by the philosopher Nick Bostrom,
160
449860
4296
철학자 닉보스트롬의
"초지능"이라는 책에서
07:34
he picks up on this theme
161
454180
1536
그는 이 주제를 다루며
07:35
and observes that a superintelligence
might not only be dangerous,
162
455740
4016
초지능이 위험할 뿐만 아니라
07:39
it could represent an existential threat
to all of humanity.
163
459780
3856
인류에 있어서 모든 위험을
대변한다고 합니다.
07:43
Dr. Bostrom's basic argument
164
463660
2216
필자의 근본적인 주장은
07:45
is that such systems will eventually
165
465900
2736
이러한 시스템이 결국
07:48
have such an insatiable
thirst for information
166
468660
3256
탐욕적으로 정보를 원하게 되어
07:51
that they will perhaps learn how to learn
167
471940
2896
인간의 필요와
07:54
and eventually discover
that they may have goals
168
474860
2616
반대되는 목적을
07:57
that are contrary to human needs.
169
477500
2296
이루게 될거라는 것이죠.
07:59
Dr. Bostrom has a number of followers.
170
479820
1856
보스트롬 교수를
따르는 사람들이 많습니다.
08:01
He is supported by people
such as Elon Musk and Stephen Hawking.
171
481700
4320
엘론머스크와 스티븐 호킹같은
사람들의 지지를 받고있죠.
08:06
With all due respect
172
486700
2400
천부적인 마음들에
08:09
to these brilliant minds,
173
489980
2016
외람된 말씀입니다만
08:12
I believe that they
are fundamentally wrong.
174
492020
2256
저는 그들이 근본적으로
틀렸다고 생각합니다.
08:14
Now, there are a lot of pieces
of Dr. Bostrom's argument to unpack,
175
494300
3176
보스트롬 교수의 주장에는
살펴보아야 할 것들이 많고
08:17
and I don't have time to unpack them all,
176
497500
2136
지금 이것을 다 다룰 시간은 없지만
08:19
but very briefly, consider this:
177
499660
2696
아주 간략하게, 이것을 생각하여보세요.
08:22
super knowing is very different
than super doing.
178
502380
3736
많이 아는 것은
많이 하는 것과 다릅니다.
08:26
HAL was a threat to the Discovery crew
179
506140
1896
HAL이 탐사팀에게
위협이 되었던 이유는
08:28
only insofar as HAL commanded
all aspects of the Discovery.
180
508060
4416
단지 HAL이 탐사의 모든 측면에서
명령을 내렸기 때문이죠.
08:32
So it would have to be
with a superintelligence.
181
512500
2496
초지능과 관련이 있습니다.
08:35
It would have to have dominion
over all of our world.
182
515020
2496
그것은 우리 세상의 지배권을
가지게 될것입니다.
08:37
This is the stuff of Skynet
from the movie "The Terminator"
183
517540
2816
초지능이 사람이 원하는것을
08:40
in which we had a superintelligence
184
520380
1856
명령받하게 되는것은
08:42
that commanded human will,
185
522260
1376
영화 "터미네이터"의
스카이넷을 통해 다뤄지는데
08:43
that directed every device
that was in every corner of the world.
186
523660
3856
이는 모든 기기들이
전세계에 다 있는 경우입니다.
08:47
Practically speaking,
187
527540
1456
솔직하게 얘기하여보자면,
08:49
it ain't gonna happen.
188
529020
2096
이것은 일어나지 않을 일입니다.
08:51
We are not building AIs
that control the weather,
189
531140
3056
우리는 날씨를 조정하거나,
파도를 이끌거나
08:54
that direct the tides,
190
534220
1336
예측할수 없고 혼란스러운
사람을 명령하는
08:55
that command us
capricious, chaotic humans.
191
535580
3376
인공지능을 만들고있는것이 아닙니다.
08:58
And furthermore, if such
an artificial intelligence existed,
192
538980
3896
그리고 이러한 인공지능이 있다면,
09:02
it would have to compete
with human economies,
193
542900
2936
그것은 자원을 위하여
09:05
and thereby compete for resources with us.
194
545860
2520
인류의 경제와 경쟁해야겠지요.
09:09
And in the end --
195
549020
1216
결국에는
09:10
don't tell Siri this --
196
550260
1240
시리에게는 말하지 마세요.
09:12
we can always unplug them.
197
552260
1376
우리는 언제나
전원을 빼버릴 수 있습니다.
09:13
(Laughter)
198
553660
2120
(웃음)
09:17
We are on an incredible journey
199
557180
2456
우리는 기계들과 공진화하는
09:19
of coevolution with our machines.
200
559660
2496
놀랄만한 여행을 하고 있습니다.
09:22
The humans we are today
201
562180
2496
미래의 인간들은
09:24
are not the humans we will be then.
202
564700
2536
오늘날의 인간들과 다르겠지요.
09:27
To worry now about the rise
of a superintelligence
203
567260
3136
초지능의 출현을 지금 걱정하는것은
09:30
is in many ways a dangerous distraction
204
570420
3056
기술의 발전이 우리에게
09:33
because the rise of computing itself
205
573500
2336
관심을 가져야만하는 많은
09:35
brings to us a number
of human and societal issues
206
575860
3016
사회적, 인류적 이슈를 가져오기에
09:38
to which we must now attend.
207
578900
1640
위험한 분산이라고 볼 수 있습니다.
09:41
How shall I best organize society
208
581180
2816
그럼 어떻게 해야 인간의 노동이
덜 중요해진 사회를
09:44
when the need for human labor diminishes?
209
584020
2336
잘 구성할 수 있을까요?
09:46
How can I bring understanding
and education throughout the globe
210
586380
3816
어떻게 해야 차이점을 존중하며
09:50
and still respect our differences?
211
590220
1776
교육과 이해를 세계적으로
가져올 수 있을까요?
09:52
How might I extend and enhance human life
through cognitive healthcare?
212
592020
4256
인식적인 건강관리 시스템으로
어떻게 인간의 삶을 발전시킬까요?
09:56
How might I use computing
213
596300
2856
어떻게 기술적인 것들을 이용하여
09:59
to help take us to the stars?
214
599180
1760
우리가 별을 따도록 도울 수 있을까요?
10:01
And that's the exciting thing.
215
601580
2040
그것이 이 일의 신나는 부분입니다.
10:04
The opportunities to use computing
216
604220
2336
이제 우리는
10:06
to advance the human experience
217
606580
1536
기계를 통한 인류
발전을 이룰 수 있으며
10:08
are within our reach,
218
608140
1416
10:09
here and now,
219
609580
1856
지금 이곳에서 우리는
시작하고 있습니다.
10:11
and we are just beginning.
220
611460
1680
10:14
Thank you very much.
221
614100
1216
감사합니다.
10:15
(Applause)
222
615340
4286
(박수)
New videos
이 웹사이트 정보
이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.