아래 영문자막을 더블클릭하시면 영상이 재생됩니다.
번역: Yoonkeun Ji
검토: Jeeyong Park
00:12
Chris Anderson: Help us understand
what machine learning is,
0
12904
2886
크리스 앤더슨: 머신러닝을 이해하는
데 도움을 주실 분을 모셨습니다.
00:15
because that seems to be the key driver
1
15814
2054
머신 러닝은 인공지능을 둘러싼
00:17
of so much of the excitement
and also of the concern
2
17892
2737
세간의 걱정과 기대의
00:20
around artificial intelligence.
3
20653
1494
중심에 있기 때문입니다.
00:22
How does machine learning work?
4
22171
1643
머신 러닝은 어떻게 작동하나요?
00:23
Sebastian Thrun: So, artificial
intelligence and machine learning
5
23838
3896
세바스찬: 인공지능과 머신 러닝은 사실
00:27
is about 60 years old
6
27758
2002
60년 정도 된 연구분야인데
00:29
and has not had a great day
in its past until recently.
7
29784
4269
최근까지는 큰 관심을 받지 못했습니다.
00:34
And the reason is that today,
8
34077
2924
최근에 들어서야
00:37
we have reached a scale
of computing and datasets
9
37025
3973
기계를 똑똑하게 만들 수 있을 만큼
00:41
that was necessary to make machines smart.
10
41022
2637
컴퓨팅, 데이터 기술의 발전이
이루어졌기 때문이죠.
00:43
So here's how it works.
11
43683
1751
작동 원리를 살펴보죠.
00:45
If you program a computer today,
say, your phone,
12
45458
3497
스마트폰을 위한 프로그램을
만든다고 가정해봅시다.
00:48
then you hire software engineers
13
48979
2335
그러면 소프트웨어 개발자를 고용해서
00:51
that write a very,
very long kitchen recipe,
14
51338
3854
아주, 아주 긴 음식
조리법을 적게 합니다.
00:55
like, "If the water is too hot,
turn down the temperature.
15
55216
3132
"만약 물이 너무 뜨거우면,
온도를 내려라.
00:58
If it's too cold, turn up
the temperature."
16
58372
2279
너무 차가우면, 온도를 올려라."
하는 식으로 말이죠.
01:00
The recipes are not just 10 lines long.
17
60675
2849
조리법은 열 줄 짜리가 아니죠.
01:03
They are millions of lines long.
18
63548
2603
수 백만 줄 정도는 되어야 할 겁니다.
01:06
A modern cell phone
has 12 million lines of code.
19
66175
4084
최신 스마트폰은 1,200만 줄의
소스 코드로 되어 있습니다.
01:10
A browser has five million lines of code.
20
70283
2646
하나의 브라우저는 5백만
줄 정도로 구성됩니다.
01:12
And each bug in this recipe
can cause your computer to crash.
21
72953
4969
조리법에 포함된 오류 하나 하나가
컴퓨터를 고장나게 할 수 있죠.
01:17
That's why a software engineer
makes so much money.
22
77946
3075
이러한 이유로 개발자가
돈을 많이 벌 수 밖에 없죠.
01:21
The new thing now is that computers
can find their own rules.
23
81953
3660
그런데 요즘은 컴퓨터가
스스로 규칙을 찾아냅니다.
01:25
So instead of an expert
deciphering, step by step,
24
85637
3606
기존에는 모든 만일의 사태를 대비해
01:29
a rule for every contingency,
25
89267
2148
전문가가 규칙을 일일이
해독해야 했습니다.
01:31
what you do now is you give
the computer examples
26
91439
3074
그러나 이제는 컴퓨터에게
예시만 던져주고
01:34
and have it infer its own rules.
27
94537
1581
스스로 규칙을 추론하게 합니다.
01:36
A really good example is AlphaGo,
which recently was won by Google.
28
96142
4306
최근 승리를 거둔 구글의 알파고가
좋은 예시가 되겠네요.
01:40
Normally, in game playing,
you would really write down all the rules,
29
100472
3687
보통 게임을 하려면
모든 규칙을 적어주어야 하겠죠.
01:44
but in AlphaGo's case,
30
104183
1785
그러나 알파고의 경우는 다릅니다.
01:45
the system looked over a million games
31
105992
2066
시스템이 백만 개도
넘는 기보를 공부해서
01:48
and was able to infer its own rules
32
108082
2192
스스로 규칙을 추론했고
01:50
and then beat the world's
residing Go champion.
33
110298
2738
그렇게 세계 최고의
바둑 기사를 이겼죠.
01:53
That is exciting, because it relieves
the software engineer
34
113853
3509
이 기술의 좋은 점은 소프트웨어를
개발하는 사람이
01:57
of the need of being super smart,
35
117386
1819
아주 똑똑해야 한다거나
01:59
and pushes the burden towards the data.
36
119229
2325
데이터를 잘 다루어야
한다는 부담을 덜어줍니다.
02:01
As I said, the inflection point
where this has become really possible --
37
121578
4534
말씀드렸듯이, 이것이
가능하게 된 계기는 --
02:06
very embarrassing, my thesis
was about machine learning.
38
126136
2746
부끄럽지만, 졸업 논문을
기계학습에 관해 썼습니다.
02:08
It was completely
insignificant, don't read it,
39
128906
2205
정말 시시한 논문이니
읽지는 말아주세요.
02:11
because it was 20 years ago
40
131135
1350
20년 전이었기 때문에
02:12
and back then, the computers
were as big as a cockroach brain.
41
132509
2907
그 때는 컴퓨터가 매우 컸지요.
02:15
Now they are powerful enough
to really emulate
42
135440
2331
지금은 특정 사고를
사람과 거의 비슷하게
02:17
kind of specialized human thinking.
43
137795
2076
해낼 수 있을만큼 똑똑하고 강력해졌죠.
02:19
And then the computers
take advantage of the fact
44
139895
2313
게다가 컴퓨터는 사람보다
더 많은 데이터를
02:22
that they can look at
much more data than people can.
45
142232
2500
처리할수 있다는 점에서
우위에 있습니다.
02:24
So I'd say AlphaGo looked at
more than a million games.
46
144756
3080
그래서 알파고가 백만 개 이상의
기보를 학습할 수 있었던 거죠.
02:27
No human expert can ever
study a million games.
47
147860
2839
백만 개의 기보를 공부하는 건
사람에겐 불가능한 일이지요.
02:30
Google has looked at over
a hundred billion web pages.
48
150723
3182
구글은 1천억 개가 넘는
웹 페이지를 살펴 봅니다.
02:33
No person can ever study
a hundred billion web pages.
49
153929
2650
이 역시 사람에게는 무리지요.
02:36
So as a result,
the computer can find rules
50
156603
2714
결과적으로 사람이
찾을 수 없던 규칙들을
02:39
that even people can't find.
51
159341
1755
컴퓨터는 찾아낼 수 있습니다.
02:41
CA: So instead of looking ahead
to, "If he does that, I will do that,"
52
161120
4312
크리스: "상대편이 이렇게 하면,
나는 저렇게 해야지" 라고
02:45
it's more saying, "Here is what
looks like a winning pattern,
53
165456
3072
내다보고 생각 하는 게 아니라
"이런 식으로 하면 이기는구나."
02:48
here is what looks like
a winning pattern."
54
168552
2079
"이런 식으로 하면 이기는구나."
라고 생각하는 거군요.
02:50
ST: Yeah. I mean, think about
how you raise children.
55
170655
2517
세바스찬: 그렇죠.
아이를 키울 때를 생각해보세요.
02:53
You don't spend the first 18 years
giving kids a rule for every contingency
56
173196
3644
18살이 될 때까지 모든 돌발 상황에
일일이 지시를 내리지는 않죠.
02:56
and set them free
and they have this big program.
57
176864
2347
그저 자연스럽게 두면
큰 프로그램을 갖게 되죠.
02:59
They stumble, fall, get up,
they get slapped or spanked,
58
179235
2719
흔들리고, 넘어지고,
다시 일어서고, 또 혼나기도 합니다.
03:01
and they have a positive experience,
a good grade in school,
59
181978
2884
학교에서 좋은 성적을 받는 등
긍정적인 경험도 할 겁니다.
03:04
and they figure it out on their own.
60
184886
1834
나름대로 살아가는 법을 알아내죠.
03:06
That's happening with computers now,
61
186744
1737
지금 컴퓨터가 이렇게 하고 있어요.
03:08
which makes computer programming
so much easier all of a sudden.
62
188505
3029
덕분에 컴퓨터 프로그래밍이
갑자기 너무 쉬워졌죠.
03:11
Now we don't have to think anymore.
We just give them lots of data.
63
191558
3175
그저 컴퓨터에게 많은 양의
정보를 넘겨주면 됩니다.
03:14
CA: And so, this has been key
to the spectacular improvement
64
194757
3422
크리스: 자율주행 자동차가
혁신적으로 발전하게 된 데에
03:18
in power of self-driving cars.
65
198203
3064
그런 배경이 있었군요.
03:21
I think you gave me an example.
66
201291
1739
예시를 가지고 오셨는데
03:23
Can you explain what's happening here?
67
203054
2685
영상으로 설명 해 주시겠어요?
03:25
ST: This is a drive of a self-driving car
68
205763
3564
세바스찬: 유다시티의 자율주행 자동차가
03:29
that we happened to have at Udacity
69
209351
1957
주행 중인 모습입니다.
03:31
and recently made
into a spin-off called Voyage.
70
211332
2398
최근에는 보야지(Voyage)라는
새 버전을 만들었죠.
03:33
We have used this thing
called deep learning
71
213754
2574
딥러닝 이라는 기술을 이용해서
03:36
to train a car to drive itself,
72
216352
1623
차가 스스로 주행하도록
훈련시켰습니다.
03:37
and this is driving
from Mountain View, California,
73
217999
2387
캘리포니아의 마운틴뷰에서 출발해서
03:40
to San Francisco
74
220410
1168
샌프란시스코까지
03:41
on El Camino Real on a rainy day,
75
221602
2259
비오는 날 '엘 카미노 리얼'을
따라 주행하며
03:43
with bicyclists and pedestrians
and 133 traffic lights.
76
223885
3524
자전거 타는 사람들, 보행자들,
133개의 신호등을 지나쳤죠.
03:47
And the novel thing here is,
77
227433
2636
여기서 대단한 점은
03:50
many, many moons ago, I started
the Google self-driving car team.
78
230093
3120
아주 오래전 제가 구글의
자율주행 자동차 팀에서 일했을 때
03:53
And back in the day, I hired
the world's best software engineers
79
233237
3181
저는 세계 최고의 개발자들을 고용해서
03:56
to find the world's best rules.
80
236442
1607
세계 최고의 규칙을 찾으려 했죠.
03:58
This is just trained.
81
238073
1754
그런데 이 자동차는
그냥 훈련을 받았습니다.
03:59
We drive this road 20 times,
82
239851
3336
도로 주행을 20번 한 후
04:03
we put all this data
into the computer brain,
83
243211
2447
그 정보를 컴퓨터의 뇌에 건네주고
04:05
and after a few hours of processing,
84
245682
2082
몇 시간동안 처리하도록 했더니
04:07
it comes up with behavior
that often surpasses human agility.
85
247788
3926
심지어 사람보다 더 능숙하게
운전하기도 하는 겁니다.
04:11
So it's become really easy to program it.
86
251738
2017
그러니까 프로그래밍하기가 쉬워졌죠.
04:13
This is 100 percent autonomous,
about 33 miles, an hour and a half.
87
253779
3803
실험에서는 53km를 한 시간 반
만에 사람의 도움없이 주행했습니다.
04:17
CA: So, explain it -- on the big part
of this program on the left,
88
257606
3630
크리스: 이제 영상을 설명 해 주시죠.
왼쪽에는 컴퓨터가 지각하는 모습이죠?
04:21
you're seeing basically what
the computer sees as trucks and cars
89
261260
3257
트럭이나 차로 보이는 점들이
04:24
and those dots overtaking it and so forth.
90
264541
2886
자율주행차를 추월 하고 있는 것 같네요.
04:27
ST: On the right side, you see the camera
image, which is the main input here,
91
267451
3762
세바스찬: 오른편에 카메라로 촬영된
영상이 컴퓨터의 메인 입력이죠.
04:31
and it's used to find lanes,
other cars, traffic lights.
92
271237
2676
이 영상을 통해 차선이나 다른 차,
신호등을 인식합니다.
04:33
The vehicle has a radar
to do distance estimation.
93
273937
2489
차량에는 거리를 추정하는
레이더도 달려있습니다.
04:36
This is very commonly used
in these kind of systems.
94
276450
2621
이런 자율주행차에
흔히 쓰이는 장비입니다.
04:39
On the left side you see a laser diagram,
95
279095
1992
왼편에 보이는 것은 레이저
도표입니다.
04:41
where you see obstacles like trees
and so on depicted by the laser.
96
281111
3200
나무 등의 장애물을 레이저로
그린 것을 보실 수 있습니다.
04:44
But almost all the interesting work
is centering on the camera image now.
97
284335
3436
하지만 정말 재밌는 건
카메라 영상 쪽 입니다.
04:47
We're really shifting over from precision
sensors like radars and lasers
98
287795
3476
레이더나 레이저 같은 정밀 감지기를
04:51
into very cheap, commoditized sensors.
99
291295
1842
값싸고 상용화된 감지기로
바꾸는 중입니다.
04:53
A camera costs less than eight dollars.
100
293161
1987
이제 8달러도 안되는 카메라를 씁니다.
04:55
CA: And that green dot
on the left thing, what is that?
101
295172
2793
크리스: 그런데 왼쪽에
초록점은 뭔가요?
04:57
Is that anything meaningful?
102
297989
1371
뭔가 의미있는 건가요?
04:59
ST: This is a look-ahead point
for your adaptive cruise control,
103
299384
3668
세바스찬: 앞 차와의 거리에 따라
속도를 조절하는 적응형 순항 장치가
05:03
so it helps us understand
how to regulate velocity
104
303076
2477
어디를 앞 차라고 인식하고
있는지 표시한 겁니다.
05:05
based on how far
the cars in front of you are.
105
305577
2634
우리가 보고 속도 조절 기재를
이해하도록 말이죠.
05:08
CA: And so, you've also
got an example, I think,
106
308235
2716
크리스: 제가 듣기로, 기계가
어떻게 학습을 하는지에 대한
05:10
of how the actual
learning part takes place.
107
310975
2381
예시도 오늘 준비하셨죠?
05:13
Maybe we can see that. Talk about this.
108
313380
2458
거기에 대해 듣고 싶군요.
05:15
ST: This is an example where we posed
a challenge to Udacity students
109
315862
3643
세바스찬: 유다시티에 자율주행
자동차 '나노디그리'라고 부르는
05:19
to take what we call
a self-driving car Nanodegree.
110
319529
3131
교육과정을 듣는 학생들이 있는데요.
05:22
We gave them this dataset
111
322684
1495
준비된 데이터셋을 주고
05:24
and said "Hey, can you guys figure out
how to steer this car?"
112
324203
3054
"이 차가 어떻게 방향을 조절하는지
알아낼 수 있겠니?" 라고 물었습니다.
05:27
And if you look at the images,
113
327281
1624
영상을 보시면 아시겠지만
05:28
it's, even for humans, quite impossible
to get the steering right.
114
328929
4073
사실 사람도 제대로
방향을 맞추기 힘듭니다.
05:33
And we ran a competition and said,
"It's a deep learning competition,
115
333026
3591
작은 대회를 열고, "이건 딥러닝
대회이고, AI 대회야."
05:36
AI competition,"
116
336641
1173
라고 얘기하고
05:37
and we gave the students 48 hours.
117
337838
1887
학생들에게 48시간을 주었습니다.
05:39
So if you are a software house
like Google or Facebook,
118
339749
4172
구글이나 페이스북같은
기업에서 같은 작업을 했다면
05:43
something like this costs you
at least six months of work.
119
343945
2717
최소한 여섯 달 정도는 걸렸을 겁니다.
05:46
So we figured 48 hours is great.
120
346686
2202
48시간이면 대단한거죠.
05:48
And within 48 hours, we got about
100 submissions from students,
121
348912
3467
결국 48시간 안에 100명의 학생들이
답안을 제출하였습니다.
05:52
and the top four got it perfectly right.
122
352403
3370
그중 가장 우수한 4명의
답안은 거의 완벽에 가까웠습니다.
05:55
It drives better than I could
drive on this imagery,
123
355797
2640
제가 운전한다고 해도
05:58
using deep learning.
124
358461
1189
딥러닝 보다 못할 겁니다.
05:59
And again, it's the same methodology.
125
359674
1799
다시 한 번 말씀드리지만
같은 방법론입니다.
06:01
It's this magical thing.
126
361497
1164
정말 마법같아요.
06:02
When you give enough data
to a computer now,
127
362685
2085
이제 컴퓨터에게 충분한 데이터를 주고
06:04
and give enough time
to comprehend the data,
128
364794
2140
데이터를 파악할 시간을 충분히 주면
06:06
it finds its own rules.
129
366958
1445
자신만의 규칙을 찾아냅니다.
06:09
CA: And so that has led to the development
of powerful applications
130
369339
4845
크리스: 이 기술이 좋은 서비스들이
많이 개발되는 데에
06:14
in all sorts of areas.
131
374208
1525
동력원이 되고 있군요.
06:15
You were talking to me
the other day about cancer.
132
375757
2668
암에 관련해서 얘기하실
게 있다고 하셨죠.
06:18
Can I show this video?
133
378449
1189
영상을 같이 볼까요?
06:19
ST: Yeah, absolutely, please.
CA: This is cool.
134
379662
2354
세바스찬: 네, 그러죠.
크리스: 대단한 영상이에요.
06:22
ST: This is kind of an insight
into what's happening
135
382040
3534
세바스찬: 완전히 다른 분야에서는
어떻게 인공지능이 활용 되는지
06:25
in a completely different domain.
136
385598
2429
이해를 돕는 영상입니다.
06:28
This is augmenting, or competing --
137
388051
3752
증가하고 경합하는 것들이 보입니다.
06:31
it's in the eye of the beholder --
138
391827
1749
보는 사람의 눈에는
06:33
with people who are being paid
400,000 dollars a year,
139
393600
3454
40만달러씩 연봉을 받는
06:37
dermatologists,
140
397078
1237
피부과 전문의의 작업처럼 보이죠.
06:38
highly trained specialists.
141
398339
1983
고도로 훈련받은 전문가들 말입니다.
06:40
It takes more than a decade of training
to be a good dermatologist.
142
400346
3561
제대로 된 피부과전문의가
되려면 10년이 넘게 걸립니다.
06:43
What you see here is
the machine learning version of it.
143
403931
3196
지금 보시는 것은 사실
머신러닝의 결과물 입니다.
06:47
It's called a neural network.
144
407151
1841
전문용어로 인공신경망이라고 하죠.
06:49
"Neural networks" is the technical term
for these machine learning algorithms.
145
409016
3742
이런 기계학습
알고리즘을 부르는 말입니다.
06:52
They've been around since the 1980s.
146
412782
1789
이 개념은 1980년대부터 있었죠.
06:54
This one was invented in 1988
by a Facebook Fellow called Yann LeCun,
147
414595
4640
이 프로그램은 1988년도 얀 르쿤
이라는 페이스북 개발자의 작품입니다.
06:59
and it propagates data stages
148
419259
3558
여러 단계에 걸쳐 데이터를 전달합니다.
07:02
through what you could think of
as the human brain.
149
422841
2578
마치 사람의 뇌가 하듯이 말이죠.
07:05
It's not quite the same thing,
but it emulates the same thing.
150
425443
2966
엄밀하게 말하면 다르지만,
비슷하게 모방한 것이죠.
07:08
It goes stage after stage.
151
428433
1302
여러 단계를 거칩니다.
07:09
In the very first stage, it takes
the visual input and extracts edges
152
429759
3637
맨 처음 단계에서는 시각 자료를
입력받은 후 그 안에서
07:13
and rods and dots.
153
433420
2612
모서리, 선, 점 등을 구분합니다.
07:16
And the next one becomes
more complicated edges
154
436056
3037
다음 단계에서는 더 복잡한 모서리나
07:19
and shapes like little half-moons.
155
439117
3191
작은 반달 같은 모양이 되죠.
07:22
And eventually, it's able to build
really complicated concepts.
156
442332
4443
그리고 마침내 정말 복잡한
개념들을 다룰 수 있어요.
07:26
Andrew Ng has been able to show
157
446799
2048
앤드류 응은 인공신경망을 이용해
07:28
that it's able to find
cat faces and dog faces
158
448871
3480
많은 사진 속에서
고양이와 개의 얼굴을
07:32
in vast amounts of images.
159
452375
1661
구별해 낼 수 있다는 것을 보여줬죠.
07:34
What my student team
at Stanford has shown is that
160
454060
2724
스탠퍼드 대학교에 제가
데리고있는 학생들은
07:36
if you train it on 129,000 images
of skin conditions,
161
456808
6073
흑색종과 피부암을 포함한 12만
9천 장의 피부 사진을 가지고
07:42
including melanoma and carcinomas,
162
462905
2565
인공지능을 훈련시키면
07:45
you can do as good a job
163
465494
3301
현존하는 최고의 실력을 가진
피부과 전문의 만큼의
07:48
as the best human dermatologists.
164
468819
2197
실력을 갖추게 할 수 있다는
것을 보여줬습니다.
07:51
And to convince ourselves
that this is the case,
165
471040
2549
이 프로그램 또한 그만큼 실력이
있다는 것을 증명하기 위해
07:53
we captured an independent dataset
that we presented to our network
166
473613
3990
인공지능 프로그램에서 뽑아낸
독립적인 데이터셋과
07:57
and to 25 board-certified
Stanford-level dermatologists,
167
477627
4342
스탠포드 수준으로 실력이 증명된
피부과 전문의들의 데이타셋을 모아서
08:01
and compared those.
168
481993
1672
결과를 비교 했습니다.
08:03
And in most cases,
169
483689
1504
대부분의 경우에
08:05
they were either on par or above
the performance classification accuracy
170
485217
3875
인공지능의 결과가 피부과 전문의가 내린
결과와 비슷하거나 더 뛰어난
08:09
of human dermatologists.
171
489116
1467
분류 정확도를 보였습니다.
08:10
CA: You were telling me an anecdote.
172
490607
1746
크리스: 할 이야기가 있으시죠.
08:12
I think about this image right here.
173
492377
1957
여기 있는 사진에 관한건데
08:14
What happened here?
174
494358
1484
어떤 얘기 였죠?
08:15
ST: This was last Thursday.
That's a moving piece.
175
495866
4008
세바스찬: 지난 목요일이었어요.
08:19
What we've shown before and we published
in "Nature" earlier this year
176
499898
3600
이전에 공개했고 올해 초 네이쳐
지에도 실린 내용인데요.
08:23
was this idea that we show
dermatologists images
177
503522
2484
피부과 의사와 컴퓨터에게
08:26
and our computer program images,
178
506030
1539
이미지를 보여준 뒤
08:27
and count how often they're right.
179
507593
1627
둘 중 누가 더 정확도가 높았는지
측정해보았죠.
08:29
But all these images are past images.
180
509244
1778
이 사진들은 모두
분류가 끝난 것들입니다.
08:31
They've all been biopsied to make sure
we had the correct classification.
181
511046
3460
정확한 분류를 위해 이미
생체 검사가 끝난 것들만 모았죠.
08:34
This one wasn't.
182
514530
1172
이 한 장만 빼고요.
08:35
This one was actually done at Stanford
by one of our collaborators.
183
515726
3179
이 사진은 우리 중 한 명이
스탠포드에서 찍은 사진이에요.
08:38
The story goes that our collaborator,
184
518929
2314
어떻게 된거냐면 우리 팀원 중 한 명이
피부과 의사인데요.
08:41
who is a world-famous dermatologist,
one of the three best, apparently,
185
521267
3391
전 세계에서 유명한,
세 손가락 중에 하나에 드는 사람이죠.
08:44
looked at this mole and said,
"This is not skin cancer."
186
524682
2935
이 반점을 보고는
"피부암이 아니다"고 했어요.
08:47
And then he had
a second moment, where he said,
187
527641
2476
하지만 잠시 뒤에 다시 이렇게 말했어요.
08:50
"Well, let me just check with the app."
188
530141
1866
"잠깐, 어플로 확인해보고 싶은데"
08:52
So he took out his iPhone
and ran our piece of software,
189
532031
2699
그리고는 자기 아이폰을 꺼내서
우리가 만든 소프트웨어
08:54
our "pocket dermatologist," so to speak,
190
534754
2121
말하자면 "주머니 속 피부 전문의"죠.
08:56
and the iPhone said: cancer.
191
536899
2994
그것을 꺼내서 확인해보니
암이라고 진단했어요.
08:59
It said melanoma.
192
539917
1306
흑색종이라고 했죠.
09:01
And then he was confused.
193
541849
1233
친구는 망설이다가 이렇게 말했죠.
09:03
And he decided, "OK, maybe I trust
the iPhone a little bit more than myself,"
194
543106
4551
"좋아, 아이폰을 한 번 믿어봐야겠어."
09:07
and he sent it out to the lab
to get it biopsied.
195
547681
2735
그리고 조직검사를 하기 위해
사진을 연구소로 보냈습니다.
09:10
And it came up as an aggressive melanoma.
196
550440
2469
그 결과 악성 흑색종으로 판명되었죠.
09:13
So I think this might be the first time
that we actually found,
197
553545
3067
이것이 우리가 딥러닝 기술을 적용해
09:16
in the practice of using deep learning,
198
556636
2487
흑색종이 발생했지만 놓칠 뻔했던 환자를
09:19
an actual person whose melanoma
would have gone unclassified,
199
559147
3372
딥러닝을 통해 찾아낸
09:22
had it not been for deep learning.
200
562543
2115
첫 번째 사례입니다.
09:24
CA: I mean, that's incredible.
201
564682
1560
크리스: 정말 대단하네요.
09:26
(Applause)
202
566266
1769
(박수)
09:28
It feels like there'd be an instant demand
for an app like this right now,
203
568059
3600
이 어플을 출시하자마자
어마어마한 숫자의 사람들이
09:31
that you might freak out a lot of people.
204
571683
1966
그 성능에 깜짝 놀라
이용하고 싶어할 것 같은데요.
09:33
Are you thinking of doing this,
making an app that allows self-checking?
205
573673
3527
자가 진단이 가능한 어플을
만들 계획을 갖고 있나요?
09:37
ST: So my in-box is flooded
about cancer apps,
206
577224
4973
세바스찬: 지금 제 이메일은 가슴
아픈 사연을 가진 사람들이 보낸
09:42
with heartbreaking stories of people.
207
582221
2303
어플 관련 메일로 폭주하는 상황인데요.
09:44
I mean, some people have had
10, 15, 20 melanomas removed,
208
584548
3204
어떤 사람들은 10개, 15개, 20개의
흑색종을 제거하고도
09:47
and are scared that one
might be overlooked, like this one,
209
587776
3952
지금처럼 놓친 흑색종이 하나라도 있을까
두려워합니다.
09:51
and also, about, I don't know,
210
591752
1741
또 저도 잘 모르지만
09:53
flying cars and speaker inquiries
these days, I guess.
211
593517
2732
날아다니는 자동차를 비롯해서
09:56
My take is, we need more testing.
212
596273
2738
아직 더 많은 시행착오가 필요합니다.
09:59
I want to be very careful.
213
599449
1778
신중하게 가고 싶어요.
10:01
It's very easy to give a flashy result
and impress a TED audience.
214
601251
3666
놀라운 결과로 TED의 청중들에게
깊은 인상을 심어주는 일은 쉽지만
10:04
It's much harder to put
something out that's ethical.
215
604941
2627
윤리적인 문제가 결부되어 있는만큼
섣불리 움직일 수 없습니다.
10:07
And if people were to use the app
216
607592
2394
만약 사람들이 의사와 상담하는 대신
10:10
and choose not to consult
the assistance of a doctor
217
610010
2797
우리 어플을 이용하고
10:12
because we get it wrong,
218
612831
1583
그 때문에 나쁜 결과가 발생한다면
10:14
I would feel really bad about it.
219
614438
1653
저는 굉장히 불편해질 것 같아요.
10:16
So we're currently doing clinical tests,
220
616115
1925
현재 우리는 임상 실험을 진행중입니다.
10:18
and if these clinical tests commence
and our data holds up,
221
618064
2798
임상 실험이 시작되고
10:20
we might be able at some point
to take this kind of technology
222
620886
2990
언젠가는 이 기술을
10:23
and take it out of the Stanford clinic
223
623900
1892
스탠포드 병원 뿐만 아니라
10:25
and bring it to the entire world,
224
625816
1658
스탠포드의 의사들이 찾아갈 수 없는
10:27
places where Stanford
doctors never, ever set foot.
225
627498
2456
전 세계에서 활용할 수 있게 되겠죠.
10:30
CA: And do I hear this right,
226
630617
2580
크리스: 제가 제대로 들은게 맞다면
10:33
that it seemed like what you were saying,
227
633221
1966
당신 말인즉슨,
10:35
because you are working
with this army of Udacity students,
228
635211
4254
유다시티의 학생들과
함께 작업하기 때문에
10:39
that in a way, you're applying
a different form of machine learning
229
639489
3221
당신은 기업이나 가능할 법한,
머신 러닝 기술과 집단 지성을
10:42
than might take place in a company,
230
642734
1735
결합해서 새로운 종류의 머신 러닝을
10:44
which is you're combining machine learning
with a form of crowd wisdom.
231
644493
3484
현실 분야에 적용하려고
한다는 말인가요?
10:48
Are you saying that sometimes you think
that could actually outperform
232
648001
3384
당신 말대로라면 언젠가 머신 러닝이
일개 회사, 심지어는 거대 회사의
능력을 앞설 수 있다고 보십니까?
10:51
what a company can do,
even a vast company?
233
651409
2050
10:53
ST: I believe there's now
instances that blow my mind,
234
653483
2940
세바스찬: 저 스스로도 감탄하는
순간들이 있죠.
10:56
and I'm still trying to understand.
235
656447
1758
아직도 이해하려고 노력해요.
10:58
What Chris is referring to
is these competitions that we run.
236
658229
3937
크리스는 우리가
진행하는 경연대회를 말하는 거에요.
11:02
We turn them around in 48 hours,
237
662190
2268
제한 시간이 48시간이구요.
11:04
and we've been able to build
a self-driving car
238
664482
2252
그 시간 내에 자율 주행
자동차를 만들 수 있습니다.
11:06
that can drive from Mountain View
to San Francisco on surface streets.
239
666758
3387
이 차는 평면 가로에서 마운틴 뷰부터
샌프란시스코까지 주행 가능합니다.
11:10
It's not quite on par with Google
after seven years of Google work,
240
670169
3584
7년이나 연구한 구글과
비교할 바는 아니지만
11:13
but it's getting there.
241
673777
2528
꽤 성공적이에요.
11:16
And it took us only two engineers
and three months to do this.
242
676329
3084
연구원 두 명이
고작 세 달만에 완성했죠.
11:19
And the reason is, we have
an army of students
243
679437
2856
그 이유인즉슨 우리에게는 대회에 참가한
11:22
who participate in competitions.
244
682317
1850
수 많은 학생들이 있거든요.
11:24
We're not the only ones
who use crowdsourcing.
245
684191
2220
크라우드소싱을 활용하는 것은
우리뿐만이 아닙니다.
11:26
Uber and Didi use crowdsource for driving.
246
686435
2223
우버와 디디도 주행에
크라우드소싱을 활용하죠.
11:28
Airbnb uses crowdsourcing for hotels.
247
688682
2759
에어비앤비도 크라우드소싱을
호텔에 적용했습니다.
11:31
There's now many examples
where people do bug-finding crowdsourcing
248
691465
4007
버그를 잡기 위해 크라우드소싱을
활용하는 예는 얼마든지 있습니다.
11:35
or protein folding, of all things,
in crowdsourcing.
249
695496
2804
단백질 중첩이나 모든 분야에서 말이죠.
11:38
But we've been able to build
this car in three months,
250
698324
2915
하지만 우리는 3달만에 차를 완성했고
11:41
so I am actually rethinking
251
701263
3655
저는 회사를 어떻게 구성해야 할지
11:44
how we organize corporations.
252
704942
2238
다시 구상중입니다.
11:47
We have a staff of 9,000 people
who are never hired,
253
707204
4696
지금 우리에게는 고용한 적도 없고
해고하지도 않는 직원이
11:51
that I never fire.
254
711924
1308
9천명 있습니다.
11:53
They show up to work
and I don't even know.
255
713256
2362
저도 모르는 새에 사람들은 일을 하고
11:55
Then they submit to me
maybe 9,000 answers.
256
715642
3058
9천 개의 응답이 저에게 전달됩니다.
11:58
I'm not obliged to use any of those.
257
718724
2176
그 중 어느 것을 사용해야만
한다는 규정도 없습니다.
12:00
I end up -- I pay only the winners,
258
720924
1991
답변 중 가장 좋은 것을 골라
댓가를 지불하죠.
12:02
so I'm actually very cheapskate here,
which is maybe not the best thing to do.
259
722939
3718
이 점에서는 꽤나 구두쇠처럼
행동하고 있습니다. 최선은 아니죠.
12:06
But they consider it part
of their education, too, which is nice.
260
726681
3185
하지만 응답자들에게도
경험이 될 거라고 생각합니다.
12:09
But these students have been able
to produce amazing deep learning results.
261
729890
4201
학생들도 딥러닝을 이용해
놀라운 결과물을 만들 수 있죠.
12:14
So yeah, the synthesis of great people
and great machine learning is amazing.
262
734115
3861
훌륭한 사람들과 훌륭한 머신 러닝이
만난 결과는 정말 놀랍습니다.
12:18
CA: I mean, Gary Kasparov said on
the first day [of TED2017]
263
738000
2814
크리스: 개리 카스파로프가
TED2017의 첫째날 한 말인데요.
12:20
that the winners of chess, surprisingly,
turned out to be two amateur chess players
264
740848
5412
체스 대회의 우승자가 사실은
두 명의 아마추어 체스 기사
12:26
with three mediocre-ish,
mediocre-to-good, computer programs,
265
746284
5371
세 가지의 중간, 혹은 중상급의
컴퓨터 프로그램을 이용하여
12:31
that could outperform one grand master
with one great chess player,
266
751679
3163
한 명의 그랜드 마스터, 한 명의
뛰어난 체스 기사를 이겼다는 거요.
12:34
like it was all part of the process.
267
754866
1743
이것도 역시 그 과정의 일부였던거죠.
12:36
And it almost seems like
you're talking about a much richer version
268
756633
3335
당신이 말하는 버전은
12:39
of that same idea.
269
759992
1200
이보다 더 상위호환 버전 같은데요.
12:41
ST: Yeah, I mean, as you followed
the fantastic panels yesterday morning,
270
761216
3857
세바스찬: 어제 아침에
들으셨던 것처럼
12:45
two sessions about AI,
271
765097
1994
두 번의 세션을 통해 인공지능
12:47
robotic overlords and the human response,
272
767115
2167
로봇에 의한 인간 지배과
사람들의 반응 등
12:49
many, many great things were said.
273
769306
1982
아주 훌륭한 주제들에 관해 이야기했죠.
12:51
But one of the concerns is
that we sometimes confuse
274
771312
2687
다만 사람들이 종종
우려를 표하는 부분은
12:54
what's actually been done with AI
with this kind of overlord threat,
275
774023
4062
우리가 만드는 AI가
갖는 자의식이 로봇의 인간 지배라는
12:58
where your AI develops
consciousness, right?
276
778109
3424
관점에서 비춰볼 때 어느 정도
수준까지 도달했냐하는 거죠.
13:01
The last thing I want
is for my AI to have consciousness.
277
781557
2971
제 마지막 목표는 AI에
의식을 심어주는 것입니다.
13:04
I don't want to come into my kitchen
278
784552
1716
저는 부엌에 들어갔을 때
13:06
and have the refrigerator fall in love
with the dishwasher
279
786292
4193
식기 세척기와 사랑에 빠진 냉장고가
13:10
and tell me, because I wasn't nice enough,
280
790509
2124
제가 친절하게 굴지 않아서
13:12
my food is now warm.
281
792657
1837
음식들이 녹게 내버려뒀다고
말하는 상황을 원하지 않아요.
13:14
I wouldn't buy these products,
and I don't want them.
282
794518
2891
이런 제품들은 사고 싶지도
않고 원하지도 않아요.
13:17
But the truth is, for me,
283
797825
1802
하지만 제 생각에 한가지 확실한 것은
13:19
AI has always been
an augmentation of people.
284
799651
2720
AI는 언제나 사람들을
돕기 위한 것이었습니다.
13:22
It's been an augmentation of us,
285
802893
1676
우리를 돕기 위한 것
13:24
to make us stronger.
286
804593
1457
더 나아지도록 도움을 주는 것이죠.
13:26
And I think Kasparov was exactly correct.
287
806074
2831
저는 카스파로프가 한 말이
정확했다고 생각해요.
13:28
It's been the combination
of human smarts and machine smarts
288
808929
3849
인간의 지능과 기계의 지능이 만나서
13:32
that make us stronger.
289
812802
1464
더 큰 힘이 되는 것이죠.
13:34
The theme of machines making us stronger
is as old as machines are.
290
814290
4587
기계가 탄생한 이후로 그 목적은 줄곧
인류를 위한 것이었습니다.
13:39
The agricultural revolution took
place because it made steam engines
291
819567
3758
농업 혁명은 증기기관과
13:43
and farming equipment
that couldn't farm by itself,
292
823349
2666
농작 기계들을 만들어 냈지만
이것들은 인간을 대체하지 않았고
13:46
that never replaced us;
it made us stronger.
293
826039
2122
오히려 우리의 농업 활동을
좀 더 용이하게 해주었습니다.
13:48
And I believe this new wave of AI
will make us much, much stronger
294
828185
3738
따라서 저는 지금의 새로운 인공지능
바람도 인류를 더욱
13:51
as a human race.
295
831947
1183
편리하게 해줄 것이라 믿습니다.
13:53
CA: We'll come on to that a bit more,
296
833765
1813
크리스: 이 점에 대해
좀 더 이야기할 것이 있는데요.
13:55
but just to continue with the scary part
of this for some people,
297
835602
3671
이 점에 두려움을 갖고 계신
분들을 위해서 말이죠.
13:59
like, what feels like it gets
scary for people is when you have
298
839297
3558
스스로 코드를 다시 만들 수
있는 컴퓨터를 만들고
14:02
a computer that can, one,
rewrite its own code,
299
842879
4618
이 컴퓨터가 자신과 동일한 컴퓨터를
재생산할 수 있는 능력은 물론
14:07
so, it can create
multiple copies of itself,
300
847521
3584
다른 버전의 코드를 가진
14:11
try a bunch of different code versions,
301
851129
1897
컴퓨터를 여러 대 만들어 보는 거죠.
14:13
possibly even at random,
302
853050
1775
심지어 무작위로요.
14:14
and then check them out and see
if a goal is achieved and improved.
303
854849
3632
그리고 목표가 달성되고 더 향상되었는지
확인하는 겁니다.
14:18
So, say the goal is to do better
on an intelligence test.
304
858505
3641
그 목표란 지능 시험에서 더 좋은 성적
을 내는 것이라고 치죠.
14:22
You know, a computer
that's moderately good at that,
305
862170
3894
컴퓨터는 그런 분야에서는
꽤 훌륭하잖아요.
14:26
you could try a million versions of that.
306
866088
2509
백만 개의 다른 버전을 시험해볼 수 있고
14:28
You might find one that was better,
307
868621
2090
좋은 것을 찾아내서
14:30
and then, you know, repeat.
308
870735
2004
그것들을 모아서 다시 위
과정을 반복하는 거죠.
14:32
And so the concern is that you get
some sort of runaway effect
309
872763
3040
사람들의 우려란 컴퓨터를 통제하지
못하는 상황과 마주치지 않을까 하는
14:35
where everything is fine
on Thursday evening,
310
875827
3008
건데요. 목요일 밤까지 모든 게 정상이었는데
14:38
and you come back into the lab
on Friday morning,
311
878859
2336
금요일 아침에 연구소에 들어오자
14:41
and because of the speed
of computers and so forth,
312
881219
2449
컴퓨터가 폭주하면서 문제를 일으키고
14:43
things have gone crazy, and suddenly --
313
883692
1903
상황이 통제불능으로 변해버리는
14:45
ST: I would say this is a possibility,
314
885619
2020
세바스찬: 가능성에 불과합니다.
14:47
but it's a very remote possibility.
315
887663
1916
하지만 아주 먼 미래에
일어날 가능성이죠.
14:49
So let me just translate
what I heard you say.
316
889603
3337
제 식대로 한 번 말해보겠습니다.
14:52
In the AlphaGo case,
we had exactly this thing:
317
892964
2704
알파고를 통해 우리는
다음 사실을 목격했습니다.
14:55
the computer would play
the game against itself
318
895692
2315
컴퓨터가 자기 자신을 상대로
바둑을 둘 수 있고
14:58
and then learn new rules.
319
898031
1250
새로운 규칙을 배울 수 있죠.
14:59
And what machine learning is
is a rewriting of the rules.
320
899305
3235
하지만 머신 러닝은 이미 존재하는
규칙을 다시 사용하는 것입니다.
15:02
It's the rewriting of code.
321
902564
1769
원래 있던 코드를 다시 사용하는 거구요.
15:04
But I think there was
absolutely no concern
322
904357
2845
저는 알파고가 지구를
지배할 거라는 걱정은
15:07
that AlphaGo would take over the world.
323
907226
2426
완전히 기우라고 생각합니다.
15:09
It can't even play chess.
324
909676
1464
알파고는 체스도 두지 못해요.
15:11
CA: No, no, no, but now,
these are all very single-domain things.
325
911164
5147
크리스: 하지만 우리는 지금 한 분야에
대해서만 이야기하고 있어요.
15:16
But it's possible to imagine.
326
916335
2879
가능할 법한 상황이라고 보는데요.
15:19
I mean, we just saw a computer
that seemed nearly capable
327
919238
3089
우리는 대학 입학 시험을
통과할 수 있을 정도의
15:22
of passing a university entrance test,
328
922351
2655
컴퓨터를 목격했습니다.
15:25
that can kind of -- it can't read
and understand in the sense that we can,
329
925030
3688
사람처럼 글을 읽고 이해할 수는 없지만
15:28
but it can certainly absorb all the text
330
928742
1987
대신 문장 자체를 통째로 흡수해버리죠.
15:30
and maybe see increased
patterns of meaning.
331
930753
2899
그리고 이해의 폭을 넓힐지도 모릅니다.
15:33
Isn't there a chance that,
as this broadens out,
332
933676
3694
그렇다면 그 영역을 점차 넓혀서
15:37
there could be a different
kind of runaway effect?
333
937394
2466
언젠가 통제가 불가능한
상황이 생길 수 있지 않을까요?
15:39
ST: That's where
I draw the line, honestly.
334
939884
2078
세바스찬: 그렇지
않다고 생각합니다.
15:41
And the chance exists --
I don't want to downplay it --
335
941986
2643
가능성은 있겠죠.
그것까지 부정하고 싶진 않아요.
15:44
but I think it's remote, and it's not
the thing that's on my mind these days,
336
944653
3672
하지만 현재로선 아주 먼 이야기이고
지금 염두에 두고 있는 문제는 아닙니다.
15:48
because I think the big revolution
is something else.
337
948349
2512
저는 진짜 혁명은 다른 곳에서
일아나고 있다고 생각해요.
15:50
Everything successful in AI
to the present date
338
950885
2922
지금까지 모든 성공적인 AI는
15:53
has been extremely specialized,
339
953831
2214
극도로 특수화, 전문화된
분야에 한정되어 있구요.
15:56
and it's been thriving on a single idea,
340
956069
2489
엄청난 양의 데이터를 기반으로
한다는 발상에 기대어
15:58
which is massive amounts of data.
341
958582
2739
지금까지 왔습니다.
16:01
The reason AlphaGo works so well
is because of massive numbers of Go plays,
342
961345
4147
알파고가 바둑을 잘 두는 이유는
엄청난 횟수의 대국을 두기 때문이죠.
16:05
and AlphaGo can't drive a car
or fly a plane.
343
965516
3255
알파고는 자동차를 운전하거나
비행기를 몰 수 없어요.
16:08
The Google self-driving car
or the Udacity self-driving car
344
968795
3031
구글이나 유다시티의 자율주행차는
16:11
thrives on massive amounts of data,
and it can't do anything else.
345
971850
3240
많은 양의 데이터를 활용할 뿐
그 이상의 것은 불가능합니다.
16:15
It can't even control a motorcycle.
346
975114
1727
오토바이도 운전할 수 없어요.
16:16
It's a very specific,
domain-specific function,
347
976865
2762
정말 특정 분야에 한정되어
활용 가능하고
16:19
and the same is true for our cancer app.
348
979651
1907
우리가 만든 암 진단 앱도
마찬가지입니다.
16:21
There has been almost no progress
on this thing called "general AI,"
349
981582
3236
인공지능에게 "상대성 이론이나
끈 이론을 만들어 봐"라고
16:24
where you go to an AI and say,
"Hey, invent for me special relativity
350
984842
4000
명령할 수 있는, 통칭 "일반 AI"
라고 하는 영역에서는
16:28
or string theory."
351
988866
1666
거의 진전이 없는 상태입니다.
16:30
It's totally in the infancy.
352
990556
1931
아직 유아기 단계죠.
16:32
The reason I want to emphasize this,
353
992511
2127
제가 이 점을 강조하는 이유는
16:34
I see the concerns,
and I want to acknowledge them.
354
994662
3838
사람들의 우려가 뭔지 알기에
제대로 확인시켜 주고 싶기 때문입니다.
16:38
But if I were to think about one thing,
355
998524
2886
저는 스스로에게 이런 질문을 던져봅니다.
16:41
I would ask myself the question,
"What if we can take anything repetitive
356
1001434
5563
"만약 우리가 어떤 반복 작업이든지
16:47
and make ourselves
100 times as efficient?"
357
1007021
3473
지금보다 100배 더 효율적으로
일할 수 있다면 어떻게 될까?"
16:51
It so turns out, 300 years ago,
we all worked in agriculture
358
1011170
4249
300년 전 인류는 모두 농사를 지으며
16:55
and did farming and did repetitive things.
359
1015443
2051
반복적인 작업을 했죠.
16:57
Today, 75 percent of us work in offices
360
1017518
2556
오늘날 우리 중 75%가
사무실에서 일하고
17:00
and do repetitive things.
361
1020098
2124
역시 반복 작업을 합니다.
17:02
We've become spreadsheet monkeys.
362
1022246
2183
스프레드시트만 만드는
원숭이처럼 되버렸어요.
17:04
And not just low-end labor.
363
1024453
2054
단순히 저소득 직장 뿐만이 아니에요.
17:06
We've become dermatologists
doing repetitive things,
364
1026531
2754
피부과 전문의도 같은 일을 반복하고
17:09
lawyers doing repetitive things.
365
1029309
1749
변호사도 같은 일을 반복하죠.
17:11
I think we are at the brink
of being able to take an AI,
366
1031082
3823
저는 우리가 AI를 이용해
17:14
look over our shoulders,
367
1034929
1718
지금까지의 자신을 넘어
17:16
and they make us maybe 10 or 50 times
as effective in these repetitive things.
368
1036671
4058
현재의 반복 작업에서 10배, 50배의
효율을 낼 수 있다고 생각합니다.
17:20
That's what is on my mind.
369
1040753
1275
그게 요즘 제가 하는 생각입니다.
17:22
CA: That sounds super exciting.
370
1042052
2450
크리스: 정말 멋진 이야기네요.
17:24
The process of getting there seems
a little terrifying to some people,
371
1044526
3530
그 수준까지 가는 일이 어떤
이들에게는 두려움으로 다가올 것 같아요.
17:28
because once a computer
can do this repetitive thing
372
1048080
3180
컴퓨터가 피부과 의사보다
17:31
much better than the dermatologist
373
1051284
3434
반복 작업을 더 잘 할
수 있게 된다면 말이죠.
17:34
or than the driver, especially,
is the thing that's talked about
374
1054742
3230
아니면 운전 기사들도 그렇죠.
자율주행 자동차 등으로
17:37
so much now,
375
1057996
1290
많이 언급했는데요.
17:39
suddenly millions of jobs go,
376
1059310
1958
갑자기 수백만 개의 일자리가 사라지지
않을까요?
17:41
and, you know, the country's in revolution
377
1061292
2695
우리가 AI를 통해 만날 수 있는
희망찬 미래에 도달하기 전에
17:44
before we ever get to the more
glorious aspects of what's possible.
378
1064011
4329
이런 일이 일어날 거 같은데요.
17:48
ST: Yeah, and that's an issue,
and it's a big issue,
379
1068364
2517
세바스찬: 네 문제죠.
정말 큰 문제입니다.
17:50
and it was pointed out yesterday morning
by several guest speakers.
380
1070905
4196
어제 아침에도 여러 초청 연사들이
그 점을 지적했어요.
17:55
Now, prior to me showing up onstage,
381
1075125
2754
제 의견을 말하기에 앞서
17:57
I confessed I'm a positive,
optimistic person,
382
1077903
3739
저는 긍정적이고 낙관적인
사람임을 고백합니다.
18:01
so let me give you an optimistic pitch,
383
1081666
2389
자 그럼 낙관적인 이야기를 하기 위해
18:04
which is, think of yourself
back 300 years ago.
384
1084079
4795
300년 전으로 돌아가 보죠.
18:08
Europe just survived 140 years
of continuous war,
385
1088898
3996
유럽은 140년간 지속적으로
전쟁에 시달렸고
18:12
none of you could read or write,
386
1092918
1711
누구도 읽거나 쓸 수 없었으며
18:14
there were no jobs that you hold today,
387
1094653
2945
현재 여러분이 갖고 있는 직업 중
아무것도 존재하지 않았습니다.
18:17
like investment banker
or software engineer or TV anchor.
388
1097622
4096
은행 투자가나 소프트웨어 엔지니어,
TV 앵커 같은 직업이요.
18:21
We would all be in the fields and farming.
389
1101742
2414
모두 논과 밭에 나가서 일을 했었죠.
18:24
Now here comes little Sebastian
with a little steam engine in his pocket,
390
1104180
3573
그 때 어린 세바스찬이 주머니 속에 있는
작은 증기 기관을 꺼내 보여주며
18:27
saying, "Hey guys, look at this.
391
1107777
1548
"얘들아 이것 좀 봐.
이 증기기관을 사용하면
18:29
It's going to make you 100 times
as strong, so you can do something else."
392
1109349
3595
100배나 효율적으로 일해서
남은 시간을 활용할 수 있어."
18:32
And then back in the day,
there was no real stage,
393
1112968
2470
다시 옛날로 돌아가서
18:35
but Chris and I hang out
with the cows in the stable,
394
1115462
2526
크리스와 제가 외양간의
소들을 둘러보는 동안
18:38
and he says, "I'm really
concerned about it,
395
1118012
2100
크리스가 말하겠죠. "요즘 생각하고
있는 게 하나 있는데
18:40
because I milk my cow every day,
and what if the machine does this for me?"
396
1120136
3652
만약 매일 우유 짜는 일을
기계가 대신해주면 어떨까?"
18:43
The reason why I mention this is,
397
1123812
1702
제가 이 말을 하는 이유는
18:46
we're always good in acknowledging
past progress and the benefit of it,
398
1126360
3603
우리는 항상 과거를 돌아보며
좋은 점을 취할 줄 알았어요.
18:49
like our iPhones or our planes
or electricity or medical supply.
399
1129987
3354
아이폰이나 비행기, 전기,
의료기기 같은 것들 말이에요.
18:53
We all love to live to 80,
which was impossible 300 years ago.
400
1133365
4245
우리는 모두 80세까지 살 수 있죠.
300년 전에는 불가능했던 일입니다.
18:57
But we kind of don't apply
the same rules to the future.
401
1137634
4156
하지만 미래에도 지금과
똑같으리라 가정할 수는 없겠죠.
19:02
So if I look at my own job as a CEO,
402
1142621
3207
CEO로서 제 일을 보면
19:05
I would say 90 percent
of my work is repetitive,
403
1145852
3140
일의 90%가 반복작업이고
19:09
I don't enjoy it,
404
1149016
1351
별로 좋아하지 않습니다.
19:10
I spend about four hours per day
on stupid, repetitive email.
405
1150391
3978
하루에 4시간을 바보같은,
똑같은 이메일 작성에 허비해요.
19:14
And I'm burning to have something
that helps me get rid of this.
406
1154393
3641
그리고 낭비하는 시간을 줄일 수
있다면 정말 좋겠다고 생각합니다.
19:18
Why?
407
1158058
1158
왜냐구요?
19:19
Because I believe all of us
are insanely creative;
408
1159240
3003
저는 우리가 모두가 놀라울 정도로
창의적이라고 믿으니까요.
19:22
I think the TED community
more than anybody else.
409
1162731
3194
특히 TED 커뮤니티의
여러분은 그럴거라 생각합니다.
19:25
But even blue-collar workers;
I think you can go to your hotel maid
410
1165949
3559
육체 노동자들도 마찬가지에요.
호텔의 종업원과 어울리며
19:29
and have a drink with him or her,
411
1169532
2402
한 잔 할 수도 있겠죠.
19:31
and an hour later,
you find a creative idea.
412
1171958
2717
그리고 1시간 뒤에,
창의적인 생각이 떠오르는 겁니다.
19:34
What this will empower
is to turn this creativity into action.
413
1174699
4140
AI의 도움으로 우리는 창의력을 실제
행동으로 옮길 수 있게 되는 겁니다.
19:39
Like, what if you could
build Google in a day?
414
1179265
3442
구글같은 회사를 하루만에
만들 수 있다면 어떨까요?
19:43
What if you could sit over beer
and invent the next Snapchat,
415
1183221
3316
맥주 한 잔을 마시며 또 다른
'스냅챗'을 발명하고
19:46
whatever it is,
416
1186561
1165
그게 무엇이든 간에
19:47
and tomorrow morning it's up and running?
417
1187750
2187
내일 아침은 또 다가오겠죠.
19:49
And that is not science fiction.
418
1189961
1773
그런 일은 공상과학이 아닙니다.
19:51
What's going to happen is,
419
1191758
1254
앞으로 일어날 일은
19:53
we are already in history.
420
1193036
1867
우리가 이미 역사의 일부가
될 것이라는 점입니다.
19:54
We've unleashed this amazing creativity
421
1194927
3228
우리는 농업에서 해방되면서
19:58
by de-slaving us from farming
422
1198179
1611
그리고 후에는 공장 작업에서 해방되면서
19:59
and later, of course, from factory work
423
1199814
3363
우리가 가진 놀라운 창의력을
해방시킬 수 있었고
20:03
and have invented so many things.
424
1203201
3162
많은 것들을 발명했습니다.
20:06
It's going to be even better,
in my opinion.
425
1206387
2178
저는 앞으로 더욱
나아질거라 생각합니다.
20:08
And there's going to be
great side effects.
426
1208589
2072
물론 부작용도 만만치 않겠죠.
20:10
One of the side effects will be
427
1210685
1489
그 중 하나는
20:12
that things like food and medical supply
and education and shelter
428
1212198
4795
음식과 의료 서비스, 교육,
주거, 운송수단등이
20:17
and transportation
429
1217017
1177
부자들뿐만 아니라
20:18
will all become much more
affordable to all of us,
430
1218218
2441
우리 모두에게 좀 더
20:20
not just the rich people.
431
1220683
1322
공평하게 주어질 것이라는 점입니다.
20:22
CA: Hmm.
432
1222029
1182
크리스: 으음...
20:23
So when Martin Ford argued, you know,
that this time it's different
433
1223235
4341
마틴 포드가 이번엔 상황이 조금
다르다고 했던 것 기억하시나요?
20:27
because the intelligence
that we've used in the past
434
1227600
3453
지금까지 우리가 새로운 길을
20:31
to find new ways to be
435
1231077
2483
찾기 위해 사용한 인공지능은
20:33
will be matched at the same pace
436
1233584
2279
같은 속도로 컴퓨터에 의해
20:35
by computers taking over those things,
437
1235887
2291
그 영역을 잃게 될 거라는 거였죠.
20:38
what I hear you saying
is that, not completely,
438
1238202
3078
당신은 인간이 가진 창조성 때문에
20:41
because of human creativity.
439
1241304
2951
완전히 빼앗기지는 않을거라는 거죠?
20:44
Do you think that that's fundamentally
different from the kind of creativity
440
1244279
3785
당신은 인간의 창의성이 컴퓨터의 그것과
20:48
that computers can do?
441
1248088
2696
근본적으로 다르다고 보십니까?
20:50
ST: So, that's my firm
belief as an AI person --
442
1250808
4434
세바스찬: 네 그것이 인공지능을 개발
하는 사람으로서 제가 가진 신념입니다.
20:55
that I haven't seen
any real progress on creativity
443
1255266
3803
창의력과 틀을 벗어난 독창성에서
20:59
and out-of-the-box thinking.
444
1259949
1407
AI는 아무런 진보도 이뤄내지 못했어요.
21:01
What I see right now -- and this is
really important for people to realize,
445
1261380
3623
인공 지능이라는 단어가 주는
위협적인 느낌과
21:05
because the word "artificial
intelligence" is so threatening,
446
1265027
2903
스티븐 스필버그가 만든 영화 속에서
21:07
and then we have Steve Spielberg
tossing a movie in,
447
1267954
2523
갑자기 기계가 세계를
지배하는 등의 설정 때문에
21:10
where all of a sudden
the computer is our overlord,
448
1270501
2413
사람들이 불안해 하는 것을 알지만
21:12
but it's really a technology.
449
1272938
1452
지금 제가 만드는 건
단순한 '기술'입니다.
21:14
It's a technology that helps us
do repetitive things.
450
1274414
2982
반복 작업에 드는 수고를
덜어주는 기술적 진보죠.
21:17
And the progress has been
entirely on the repetitive end.
451
1277420
2913
AI의 진보는 반복 작업과 연관된
분야에서만 이뤄졌습니다.
21:20
It's been in legal document discovery.
452
1280357
2228
법률 문서의 발견이나
21:22
It's been contract drafting.
453
1282609
1680
계약서 작성
21:24
It's been screening X-rays of your chest.
454
1284313
4223
흉부 X-ray촬영 같은 분야요.
21:28
And these things are so specialized,
455
1288560
1773
매우 전문화된 분야에
한정되어 있기 때문에
21:30
I don't see the big threat of humanity.
456
1290357
2391
인류에게 큰 위협을 줄 정도는
아닐 것 같습니다.
21:32
In fact, we as people --
457
1292772
1794
사실상 우리들은
21:34
I mean, let's face it:
we've become superhuman.
458
1294590
2385
솔직히 마주하죠.
우리는 이미 초인간입니다.
21:36
We've made us superhuman.
459
1296999
1764
우리 스스로 그 발전을 이뤄냈죠.
21:38
We can swim across
the Atlantic in 11 hours.
460
1298787
2632
대서양을 11시간만에
가로지를 수 있습니다.
21:41
We can take a device out of our pocket
461
1301443
2074
주머니에서 꺼낸 기기로
21:43
and shout all the way to Australia,
462
1303541
2147
호주에 사는 누군가와 연락할 수 있고
21:45
and in real time, have that person
shouting back to us.
463
1305712
2600
그 사람에게서 실시간으로
연락을 받는 것 역시 가능합니다.
21:48
That's physically not possible.
We're breaking the rules of physics.
464
1308336
3624
물리적으로는 불가능한 일이지만
우리는 물리법칙을 무너뜨리고 있어요.
21:51
When this is said and done,
we're going to remember everything
465
1311984
2943
제가 말한 것들이 이뤄질 때
여러분은 보고 들은
21:54
we've ever said and seen,
466
1314951
1213
모든 것을 기억하게 될 것입니다.
21:56
you'll remember every person,
467
1316188
1496
만났던 모든 사람을
기억하게 될 것이구요.
21:57
which is good for me
in my early stages of Alzheimer's.
468
1317708
2626
알츠하이머 초기인 저에게는
좋은 일이죠.
22:00
Sorry, what was I saying? I forgot.
469
1320358
1677
제가 뭐라고 말했었죠?
기억이 안 나네요.
22:02
CA: (Laughs)
470
1322059
1578
크리스: (웃음)
22:03
ST: We will probably have
an IQ of 1,000 or more.
471
1323661
3077
세바스찬: 우리의 아이큐는
1000이나 그 이상이 될 겁니다.
22:06
There will be no more
spelling classes for our kids,
472
1326762
3425
아이들은 더 이상 철자
수업을 듣지 않아도 됩니다.
22:10
because there's no spelling issue anymore.
473
1330211
2086
앞으로 철자 때문에 문제
생길 일이 없어질 거니까요.
22:12
There's no math issue anymore.
474
1332321
1832
수학 역시 마찬가지입니다.
22:14
And I think what really will happen
is that we can be super creative.
475
1334177
3510
대신 우리는 엄청나게
창의적인 인간이 될 수 있습니다.
22:17
And we are. We are creative.
476
1337711
1857
우리는 이미 창의적이죠.
22:19
That's our secret weapon.
477
1339592
1552
그것이 인간의 무기입니다.
22:21
CA: So the jobs that are getting lost,
478
1341168
2153
크리스: 일자리의 상실은 어느
정도 발생할 것이고
22:23
in a way, even though
it's going to be painful,
479
1343345
2494
그로인한 타격이 꽤 있겠지만
22:25
humans are capable
of more than those jobs.
480
1345863
2047
우리는 일자리의 상실보다
더 많은 것을 얻게 될 것이다.
22:27
This is the dream.
481
1347934
1218
꿈과 같은 이야기네요.
22:29
The dream is that humans can rise
to just a new level of empowerment
482
1349176
4247
인간에게 새로운 기회와
발견을 제공할 수 있는
22:33
and discovery.
483
1353447
1657
꿈입니다.
22:35
That's the dream.
484
1355128
1452
꿈이요.
22:36
ST: And think about this:
485
1356604
1643
세바스찬: 한 번 생각해 보세요.
22:38
if you look at the history of humanity,
486
1358271
2021
인류의 역사를 돌아보면
22:40
that might be whatever --
60-100,000 years old, give or take --
487
1360316
3328
6만년에서 10만년까지 거슬러 올라가지만
22:43
almost everything that you cherish
in terms of invention,
488
1363668
3726
우리에게 도움이 되는 발명품들
22:47
of technology, of things we've built,
489
1367418
2151
기술적 진보이든 건축이든간에
22:49
has been invented in the last 150 years.
490
1369593
3099
거의 대부분이 지난 150년 사이에
나온 것들입니다.
22:53
If you toss in the book and the wheel,
it's a little bit older.
491
1373756
3048
책이나 바퀴, 도끼 같은 것들은
22:56
Or the axe.
492
1376828
1169
좀 오래된 발명품들이죠.
22:58
But your phone, your sneakers,
493
1378021
2790
하지만 전화나 스니커즈 같은 신발
23:00
these chairs, modern
manufacturing, penicillin --
494
1380835
3551
의자, 공산품, 페니실린
23:04
the things we cherish.
495
1384410
1714
우리에게 꼭 필요한 것들은 전부 최근에
탄생한 것들입니다.
23:06
Now, that to me means
496
1386148
3658
이는 곧 저에게
23:09
the next 150 years will find more things.
497
1389830
3041
다음 150년간 인류는 더 많은
발명을 할 수 있다는 의미로 여겨집니다.
23:12
In fact, the pace of invention
has gone up, not gone down, in my opinion.
498
1392895
4154
저는 발명의 속도가 계속
빨라지고 있다고 생각합니다.
23:17
I believe only one percent of interesting
things have been invented yet. Right?
499
1397073
4905
훌륭한 물건의 발명은 아직
1%밖에 이뤄지지 않았다고 생각해요.
23:22
We haven't cured cancer.
500
1402002
1988
우리는 아직 암을 치료할 수 없습니다.
23:24
We don't have flying cars -- yet.
Hopefully, I'll change this.
501
1404014
3718
하늘을 나는 자동차도 멀었죠.
하지만 저는 계속 도전할 겁니다.
23:27
That used to be an example
people laughed about. (Laughs)
502
1407756
3257
사람들이 비웃던
발명의 전형적인 예죠. (웃음)
23:31
It's funny, isn't it?
Working secretly on flying cars.
503
1411037
2992
재밌는 발상 아닌가요? 남 몰래
하늘을 나는 자동차를 개발한다는 거요.
23:34
We don't live twice as long yet. OK?
504
1414053
2683
우리는 아직 평균 수명의
두 배만큼 살지도 못합니다.
23:36
We don't have this magic
implant in our brain
505
1416760
2785
우리가 원하는 정보를
바로 취득할 수 있도록
23:39
that gives us the information we want.
506
1419569
1832
뇌 속에 칩을 이식하는
일도 아직 멀었죠.
23:41
And you might be appalled by it,
507
1421425
1526
두려움을 가질 수도 있지요.
23:42
but I promise you,
once you have it, you'll love it.
508
1422975
2444
한 가지 약속할 수 있는 것은 여러분의
마음에 쏙 들게 될거라는 겁니다.
23:45
I hope you will.
509
1425443
1166
그러길 바랍니다.
23:46
It's a bit scary, I know.
510
1426633
1909
조금 무서운 일일수도 있지만요.
23:48
There are so many things
we haven't invented yet
511
1428566
2254
제 생각에 인류가 만들어낼 수 있다고
생각하는 것들 중에
23:50
that I think we'll invent.
512
1430844
1268
수많은 것들이 아직 발명되지 않았어요.
23:52
We have no gravity shields.
513
1432136
1306
예를들어 중력 쉴드 라던지,
23:53
We can't beam ourselves
from one location to another.
514
1433466
2553
레이저로 먼 거리를
순간이동 하는 장치 말입니다.
23:56
That sounds ridiculous,
515
1436043
1151
지금으로서는 터무니없는 소리죠.
23:57
but about 200 years ago,
516
1437218
1288
그러나 200여년 전에 전문가들은
23:58
experts were of the opinion
that flight wouldn't exist,
517
1438530
2667
사람을 태우는 비행기는
존재하지 못할거라 생각했고
24:01
even 120 years ago,
518
1441221
1324
120년 전 만해도 우리는
24:02
and if you moved faster
than you could run,
519
1442569
2582
사람이 달리는 것 보다
더 빠르게 움직이면
24:05
you would instantly die.
520
1445175
1520
즉사할 것이라고 믿었죠.
24:06
So who says we are correct today
that you can't beam a person
521
1446719
3569
그래서 지구에서 화성까지
순간이동을 할 수 없다 라는게
24:10
from here to Mars?
522
1450312
2249
사실이라고 누가 단정할 수 있죠?
24:12
CA: Sebastian, thank you so much
523
1452585
1569
크리스: 오늘 영감을 주는
혜안과 재능을 공유해 주셔서
24:14
for your incredibly inspiring vision
and your brilliance.
524
1454178
2682
정말 감사드립니다.
24:16
Thank you, Sebastian Thrun.
525
1456884
1323
세바스찬 쓰런님, 감사합니다.
24:18
That was fantastic. (Applause)
526
1458231
1895
정말 좋은 대담이었습니다. (박수)
New videos
이 웹사이트 정보
이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.