Jeff Dean: AI isn't as smart as you think -- but it could be | TED

253,042 views ・ 2022-01-12

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: 성준 안 검토: DK Kim
00:13
Hi, I'm Jeff.
0
13329
1583
안녕하세요, 제프입니다.
00:15
I lead AI Research and Health at Google.
1
15746
2833
구글에서 AI 연구와 의료 부서를 맡고 있습니다.
00:18
I joined Google more than 20 years ago,
2
18621
1875
20년도 전에 구글에 입사했는데
00:20
when we were all wedged into a tiny office space,
3
20538
3166
그때는 아주 좁은 사무실에서 일했습니다.
00:23
above what's now a T-Mobile store in downtown Palo Alto.
4
23704
2750
지금 팔로 알토 시내 티모바일 매장 위입니다.
00:27
I've seen a lot of computing transformations in that time,
5
27163
2875
그때부터 컴퓨터는 급격히 발전했으며
지난 10년 동안에는 AI가 큰 발전을 했습니다.
00:30
and in the last decade, we've seen AI be able to do tremendous things.
6
30079
3459
00:34
But we're still doing it all wrong in many ways.
7
34746
2542
하지만 여전히 여러 측면에서 완전히 잘못하고 있는 일들이 많습니다.
00:37
That's what I want to talk to you about today.
8
37329
2209
오늘은 이에 대해 이야기해보려 합니다.
00:39
But first, let's talk about what AI can do.
9
39579
2209
그에 앞서, 인공 지능으로 무엇을 할 수 있는지 보죠.
00:41
So in the last decade, we've seen tremendous progress
10
41829
3292
지난 10년간 인공 지능은 큰 발전을 이뤘는데,
00:45
in how AI can help computers see, understand language,
11
45121
4333
AI를 써서 컴퓨터가 보고 언어를 이해하며
00:49
understand speech better than ever before.
12
49496
2833
이전보다 말을 더 잘 분석할 수 있게 됐습니다.
00:52
Things that we couldn't do before, now we can do.
13
52329
2583
이전에는 할 수 없던 일을 할 수 있게 된 것입니다.
00:54
If you think about computer vision alone,
14
54954
2333
컴퓨터 시각 분야만 고려하면
00:57
just in the last 10 years,
15
57329
1583
겨우 10년 만에 컴퓨터는 효과적인 시각을 개발했습니다.
00:58
computers have effectively developed the ability to see;
16
58912
2792
01:01
10 years ago, they couldn't see, now they can see.
17
61746
2500
10년 전에는 시각이 없었지만 이제는 볼 수 있습니다.
01:04
You can imagine this has had a transformative effect
18
64287
2500
이러한 발전이 컴퓨터 활용 분야 확장에 큰 영향을 미쳤음을 알 수 있습니다.
01:06
on what we can do with computers.
19
66787
2209
대표적인 시각 활용 분야를 몇 가지 살펴봅시다.
01:08
So let's look at a couple of the great applications
20
68996
2500
01:11
enabled by these capabilities.
21
71496
2000
기계 학습으로 홍수를 보다 정확히 예측하고 안전을 지킬 수 있습니다.
01:13
We can better predict flooding, keep everyone safe,
22
73537
2417
01:15
using machine learning.
23
75996
1500
언어를 백 가지 이상 번역해서 의사 소통이 더 쉬워졌고,
01:17
We can translate over 100 languages so we all can communicate better,
24
77538
3250
보다 정확한 질병의 예측 및 진단으로
01:20
and better predict and diagnose disease,
25
80788
2000
01:22
where everyone gets the treatment that they need.
26
82788
2333
모든 사람이 필요한 치료를 받을 수 있게 됐습니다.
01:25
So let's look at two key components
27
85163
1916
다음으로 인공 지능의 발전을 가능케 한
01:27
that underlie the progress in AI systems today.
28
87121
2333
핵심 요소 두 가지를 살펴보겠습니다.
01:30
The first is neural networks,
29
90121
1542
첫 번째는 인공 신경망입니다.
01:31
a breakthrough approach to solving some of these difficult problems
30
91704
3417
몇몇 어려운 문제를 해결하는 획기적인 방법으로서,
01:35
that has really shone in the last 15 years.
31
95121
2833
지난 15년간 크게 유행했습니다.
01:37
But they're not a new idea.
32
97954
1625
하지만 새로운 건 아닙니다.
01:39
And the second is computational power.
33
99621
1833
두 번째는 연산 능력입니다.
01:41
It actually takes a lot of computational power
34
101454
2167
인공 신경망을 활용하려면 연산 능력이 많이 필요한데
01:43
to make neural networks able to really sing,
35
103663
2083
01:45
and in the last 15 years, we’ve been able to halve that,
36
105746
3375
지난 15년간 필요한 연산 능력을 반으로 낮출 수 있었으며
덕분에 인공 지능이 이만큼 발전했다 말할 수 있습니다.
01:49
and that's partly what's enabled all this progress.
37
109121
2458
01:51
But at the same time, I think we're doing several things wrong,
38
111954
3459
하지만 동시에 잘못하고 있는 것들도 몇 가지 있다고 봅니다.
01:55
and that's what I want to talk to you about
39
115413
2000
이에 관해서는 마지막에 말씀 드리겠습니다.
01:57
at the end of the talk.
40
117454
1167
01:58
First, a bit of a history lesson.
41
118663
1958
일단, 역사를 조금 보죠.
02:00
So for decades,
42
120663
1208
수십 년 동안, 컴퓨터를 이용한 거의 처음부터
02:01
almost since the very beginning of computing,
43
121913
2125
사람들은 보고 언어를 이해하고,
02:04
people have wanted to be able to build computers
44
124079
2250
02:06
that could see, understand language, understand speech.
45
126329
3917
말을 분석할 수 있는 컴퓨터를 만들길 원했습니다.
02:10
The earliest approaches to this, generally,
46
130579
2000
이를 위해 초창기에는 보통
어려운 작업을 수행할 명령어들을 하나하나 손수 입력했지만
02:12
people were trying to hand-code all the algorithms
47
132621
2333
02:14
that you need to accomplish those difficult tasks,
48
134996
2458
그리 성공적이지 못했습니다.
02:17
and it just turned out to not work very well.
49
137454
2375
02:19
But in the last 15 years, a single approach
50
139829
3250
그런데 지난 15년 동안 개발된 한 방법이
예기치 않게 모든 문제를 한 번에 해결했습니다.
02:23
unexpectedly advanced all these different problem spaces all at once:
51
143079
4167
02:27
neural networks.
52
147954
1542
바로 인공 신경망입니다.
02:29
So neural networks are not a new idea.
53
149538
1833
인공 신경망은 새로운 것이 아닙니다.
02:31
They're kind of loosely based
54
151371
1417
생물의 신경계 특성을 대략 유사하게 따온 것입니다.
02:32
on some of the properties that are in real neural systems.
55
152788
3041
02:35
And many of the ideas behind neural networks
56
155829
2084
신경망에 대한 수많은 연구가 1960, 70년대부터 있었습니다.
02:37
have been around since the 1960s and 70s.
57
157954
2250
02:40
A neural network is what it sounds like,
58
160204
2167
인공 신경망이란 말 그대로
02:42
a series of interconnected artificial neurons
59
162413
2708
인공 신경들이 서로 연결되어 있는 망으로
02:45
that loosely emulate the properties of your real neurons.
60
165121
3000
생물의 신경을 대략 비슷하게 따라한 것입니다.
02:48
An individual neuron in one of these systems
61
168163
2166
이 시스템에 있는 개별 신경은
02:50
has a set of inputs,
62
170371
1417
각각 가중치가 있는 입력값이 있고
02:51
each with an associated weight,
63
171788
2041
02:53
and the output of a neuron
64
173871
1833
신경의 결과값은
02:55
is a function of those inputs multiplied by those weights.
65
175704
3209
입력값에 가중치를 곱한 값입니다.
02:59
So pretty simple,
66
179288
1208
아주 간단합니다.
03:00
and lots and lots of these work together to learn complicated things.
67
180538
3666
이런 신경들이 아주 많이 모여서 복잡한 것을 학습합니다.
03:04
So how do we actually learn in a neural network?
68
184496
2833
그렇다면 인공 신경망은 실제로 어떻게 학습할까요?
03:07
It turns out the learning process
69
187371
1708
학습 과정에서는
03:09
consists of repeatedly making tiny little adjustments
70
189079
2792
반복적으로 가중치를 미세 조정하고
03:11
to the weight values,
71
191913
1208
03:13
strengthening the influence of some things,
72
193121
2042
특정 값의 영향력은 높이고 다른 값의 영향력은 낮춥니다.
03:15
weakening the influence of others.
73
195204
1959
03:17
By driving the overall system towards desired behaviors,
74
197204
3917
원하는 행동을 하도록 전체 시스템을 조정하면
03:21
these systems can be trained to do really complicated things,
75
201163
2916
이 시스템은 매우 복잡한 작업을 수행하도록 학습할 수 있습니다.
예를 들어 다른 언어로 번역을 하거나
03:24
like translate from one language to another,
76
204121
2875
사진 속 물체가 무엇인지 인식하는 등
03:27
detect what kind of objects are in a photo,
77
207038
3083
03:30
all kinds of complicated things.
78
210121
1875
온갖 복잡한 일을 할 수 있습니다.
인공 신경망에 처음으로 관심을 갖게 된 계기는
03:32
I first got interested in neural networks
79
212038
2000
03:34
when I took a class on them as an undergraduate in 1990.
80
214079
3042
1990년, 학부 때 들었던 수업이었습니다.
03:37
At that time,
81
217163
1125
당시엔
03:38
neural networks showed impressive results on tiny problems,
82
218329
3792
인공 신경망이 작은 규모의 문제는 수월히 해결할 수 있었지만
03:42
but they really couldn't scale to do real-world important tasks.
83
222121
4375
현실의 중요한 문제는 해결할 수 없었습니다.
03:46
But I was super excited.
84
226538
1500
그래도 정말 재미있었습니다.
03:48
(Laughter)
85
228079
2500
(웃음)
03:50
I felt maybe we just needed more compute power.
86
230579
2417
전에는 단순히 연산 능력만 더 있으면 되지 않을까 생각했었습니다.
03:52
And the University of Minnesota had a 32-processor machine.
87
232996
3625
당시 미네소타 대학엔 프로세서 32개짜리 컴퓨터가 있었는데,
03:56
I thought, "With more compute power,
88
236621
1792
계산을 더 빨리 할 수 있다면
03:58
boy, we could really make neural networks really sing."
89
238413
3000
인공 신경망을 제대로 활용할 수 있겠다고 생각했죠.
04:01
So I decided to do a senior thesis on parallel training of neural networks,
90
241454
3584
그래서 인공 신경망의 병렬 학습을 졸업 논문으로 하기로 했습니다.
한 컴퓨터나 여러 컴퓨터의 프로세서를 이용해서
04:05
the idea of using processors in a computer or in a computer system
91
245079
4000
04:09
to all work toward the same task,
92
249079
2125
모두가 인공 신경망의 학습이라는 같은 과제를 수행하는 거였습니다.
04:11
that of training neural networks.
93
251204
1584
04:12
32 processors, wow,
94
252829
1292
프로세서 32개로 말입니다!
04:14
we’ve got to be able to do great things with this.
95
254163
2833
이걸로 대단한 일을 해낼 수 있을 것이라 생각했습니다.
04:17
But I was wrong.
96
257496
1167
하지만 제 생각이 틀렸습니다.
04:20
Turns out we needed about a million times as much computational power
97
260038
3333
1990년 당시의 컴퓨터보다 연산 능력이 약 백만 배 좋아야
04:23
as we had in 1990
98
263371
1375
04:24
before we could actually get neural networks to do impressive things.
99
264788
3333
비로소 인공 신경망을 본격적으로 활용할 수 있던 것입니다.
04:28
But starting around 2005,
100
268121
2417
하지만 2005년 무렵부터는
04:30
thanks to the computing progress of Moore's law,
101
270579
2500
무어의 법칙에 따른 연산 능력의 발전으로
실제로 그 수준에 이르는 연산 능력을 갖추게 되었고
04:33
we actually started to have that much computing power,
102
273121
2625
04:35
and researchers in a few universities around the world started to see success
103
275746
4250
전 세계 몇몇 대학 연구진들은
인공 신경망을 다양한 문제 해결에 성공적으로 활용하기 시작했습니다.
04:40
in using neural networks for a wide variety of different kinds of tasks.
104
280038
4083
04:44
I and a few others at Google heard about some of these successes,
105
284121
3583
구글에 있던 저와 동료들은
이 소식을 듣고 아주 거대한 신경망을 학습시키는 과제를 시작했습니다.
04:47
and we decided to start a project to train very large neural networks.
106
287746
3333
04:51
One system that we trained,
107
291079
1459
우리가 학습시킨 한 시스템은
04:52
we trained with 10 million randomly selected frames
108
292538
3541
유튜브 영상 중 무작위로 선택한 장면 천만 개를 학습했습니다.
04:56
from YouTube videos.
109
296079
1292
04:57
The system developed the capability
110
297371
1750
이 시스템은 여러 종류의 사물을 인식할 수 있게 되었습니다.
04:59
to recognize all kinds of different objects.
111
299121
2583
05:01
And it being YouTube, of course,
112
301746
1542
물론 유튜브니까 고양이를 인식할 수 있었습니다.
05:03
it developed the ability to recognize cats.
113
303329
2500
05:05
YouTube is full of cats.
114
305829
1292
유튜브에는 고양이가 정말 많아요.
(웃음)
05:07
(Laughter)
115
307163
1416
05:08
But what made that so remarkable
116
308621
2208
여기서 주목할 만한 점은
05:10
is that the system was never told what a cat was.
117
310871
2417
인공 신경망한테 고양이가 무엇인지 알려주지 않았다는 것입니다.
05:13
So using just patterns in data,
118
313704
2500
단지 자료에 있는 특징만으로
05:16
the system honed in on the concept of a cat all on its own.
119
316204
3625
스스로 고양이라는 개념을 학습한 것입니다.
05:20
All of this occurred at the beginning of a decade-long string of successes,
120
320371
3750
이 전부가 구글 등의 기업에서 지난 10년간 인공 신경망을
05:24
of using neural networks for a huge variety of tasks,
121
324121
2500
여러 분야에 성공적으로 활용하기 시작한 초기에 이룬 성과입니다.
05:26
at Google and elsewhere.
122
326663
1166
05:27
Many of the things you use every day,
123
327871
2167
이 외에도 일상에서 접할 수 있는
스마트폰의 음성 인식 개선이나
05:30
things like better speech recognition for your phone,
124
330079
2500
05:32
improved understanding of queries and documents
125
332579
2209
검색 품질 개선을 위한 질문과 문서 이해 개선,
05:34
for better search quality,
126
334829
1459
05:36
better understanding of geographic information to improve maps,
127
336329
3042
정확한 지도 제공을 위한 지리 정보 학습 등이 있습니다.
05:39
and so on.
128
339413
1166
05:40
Around that time,
129
340621
1167
그 무렵 인공 신경망 계산에 특화된
05:41
we also got excited about how we could build hardware that was better tailored
130
341788
3750
컴퓨터 제작에 관심을 갖기 시작했습니다.
05:45
to the kinds of computations neural networks wanted to do.
131
345579
2792
인공 신경망 계산은 특징이 두 가지 있습니다.
05:48
Neural network computations have two special properties.
132
348371
2667
첫 번째는 정밀도가 낮아도 계산할 수 있다는 점입니다.
05:51
The first is they're very tolerant of reduced precision.
133
351079
2625
05:53
Couple of significant digits, you don't need six or seven.
134
353746
2750
여섯 개나 일곱 개가 아니라 중요한 숫자 두어 개면 충분합니다.
05:56
And the second is that all the algorithms are generally composed
135
356496
3458
두 번째는 보통 모든 알고리즘이
05:59
of different sequences of matrix and vector operations.
136
359996
3458
서로 다른 배열의 행렬과 벡터 연산으로 되어있다는 점입니다.
06:03
So if you can build a computer
137
363496
1750
정밀도가 낮은 행렬과 벡터 연산은 아주 잘 하지만
06:05
that is really good at low-precision matrix and vector operations
138
365246
3792
다른 분야는 별로인 컴퓨터가 있다면
06:09
but can't do much else,
139
369079
1709
06:10
that's going to be great for neural-network computation,
140
370829
2625
인공 신경망 계산에는 충분히 쓰일 수 있습니다.
06:13
even though you can't use it for a lot of other things.
141
373496
2667
여러분이 그런 컴퓨터를 만들면 사람들이 훌륭하게 사용할 것입니다.
06:16
And if you build such things, people will find amazing uses for them.
142
376163
3291
이것은 저희가 처음 만든 TPU v1입니다.
06:19
This is the first one we built, TPU v1.
143
379496
2083
06:21
"TPU" stands for Tensor Processing Unit.
144
381621
2542
TPU는 텐서 처리 장치의 약자입니다.
06:24
These have been used for many years behind every Google search,
145
384204
3042
지난 몇 년 간 구글의 검색과 번역을 비롯해
06:27
for translation,
146
387246
1167
딥마인드사의 알파고 대국에 쓰였으며
06:28
in the DeepMind AlphaGo matches,
147
388454
1917
06:30
so Lee Sedol and Ke Jie maybe didn't realize,
148
390413
2583
알파고와 대국한 이세돌과 커제는
TPU가 꽂힌 기계와 바둑을 뒀는지 모를 것입니다.
06:33
but they were competing against racks of TPU cards.
149
393038
2708
06:35
And we've built a bunch of subsequent versions of TPUs
150
395788
2583
이후엔 훨씬 빠른 여러 후속판을 만들었습니다.
06:38
that are even better and more exciting.
151
398371
1875
06:40
But despite all these successes,
152
400288
2083
하지만 이런 성공을 거뒀어도
06:42
I think we're still doing many things wrong,
153
402371
2208
여전히 잘못하고 있는 부분이 있다고 생각합니다.
핵심적인 것 세 가지와 개선 방법을 말씀드리려 합니다.
06:44
and I'll tell you about three key things we're doing wrong,
154
404621
2792
06:47
and how we'll fix them.
155
407454
1167
첫째로, 오늘날 대부분의 인공 신경망은
06:48
The first is that most neural networks today
156
408663
2083
06:50
are trained to do one thing, and one thing only.
157
410746
2250
단 한 가지 작업만을 학습했습니다.
중점을 둔 특정한 한 가지 과제를 학습시키는데
06:53
You train it for a particular task that you might care deeply about,
158
413038
3208
06:56
but it's a pretty heavyweight activity.
159
416288
1916
손이 상당히 많이 가는 일입니다.
자료들을 구성하고
06:58
You need to curate a data set,
160
418246
1667
06:59
you need to decide what network architecture you'll use
161
419913
3000
이 과제에 어떤 인공 신경망 구조를 사용할지 정하고,
07:02
for this problem,
162
422954
1167
가중치를 무작위 값으로 초기화하고,
07:04
you need to initialize the weights with random values,
163
424121
2708
07:06
apply lots of computation to make adjustments to the weights.
164
426871
2875
가중치를 조정하기 위해 수많은 계산을 해야 합니다.
07:09
And at the end, if you’re lucky, you end up with a model
165
429746
2750
그리고 운이 좋다면,
원하는 그 작업을 아주 잘 처리하는 모델을 만들 수 있습니다.
07:12
that is really good at that task you care about.
166
432538
2291
07:14
But if you do this over and over,
167
434871
1583
하지만 이 과정을 계속 하다 보면
07:16
you end up with thousands of separate models,
168
436496
2667
아주 유능한 개별 모델 수천 개가 생기겠지만
07:19
each perhaps very capable,
169
439204
1792
필요한 작업마다 다 따로 노는 셈입니다.
07:21
but separate for all the different tasks you care about.
170
441038
2791
07:23
But think about how people learn.
171
443829
1667
반면 사람이 학습하는 걸 보죠.
07:25
In the last year, many of us have picked up a bunch of new skills.
172
445538
3166
작년 동안 여러 공부를 하셨을 것입니다.
07:28
I've been honing my gardening skills,
173
448746
1792
저는 원예를 공부하면서 수직 수경 재배를 실험했습니다.
07:30
experimenting with vertical hydroponic gardening.
174
450579
2375
07:32
To do that, I didn't need to relearn everything I already knew about plants.
175
452954
3792
수경 재배를 연구하면서 이미 아는 것을 다시 공부할 필요는 없었습니다.
07:36
I was able to know how to put a plant in a hole,
176
456746
3375
식물을 심는 법이나 물을 주는 법,
07:40
how to pour water, that plants need sun,
177
460163
2291
식물은 햇빛이 필요하다는 사실을 알고 있고
07:42
and leverage that in learning this new skill.
178
462496
3583
새로운 것을 배울 때는 이걸 적절히 활용할 수 있었습니다.
07:46
Computers can work the same way, but they don’t today.
179
466079
3042
컴퓨터도 이런 식으로 할 수 있지만 아직은 아닙니다.
07:49
If you train a neural network from scratch,
180
469163
2583
아무것도 없는 상태에서 인공 신경망을 학습시킨다면
07:51
it's effectively like forgetting your entire education
181
471746
3542
이전에 가르쳤던 내용은 사실상 전부 잊어버릴 것입니다.
07:55
every time you try to do something new.
182
475288
1875
뭔가 새로운 걸 학습할 때마다 말입니다.
말도 안되죠?
07:57
That’s crazy, right?
183
477163
1000
07:58
So instead, I think we can and should be training
184
478788
3708
그래서 수천, 수백만 개의 작업을 처리할 수 있는
08:02
multitask models that can do thousands or millions of different tasks.
185
482538
3791
다중 작업 모델을 만들어야 한다고 생각했습니다.
08:06
Each part of that model would specialize in different kinds of things.
186
486329
3375
다중 작업 모델의 각 부분은 서로 다른 분야에 특화되어 있습니다.
08:09
And then, if we have a model that can do a thousand things,
187
489704
2792
천 가지의 과제를 처리할 수 있는 모델이 있다면
08:12
and the thousand and first thing comes along,
188
492538
2166
천한 번째 일이 생겼을 때
08:14
we can leverage the expertise we already have
189
494746
2125
관련 분야에 이미 갖고 있는 전문 지식을 적절히 활용해서
08:16
in the related kinds of things
190
496913
1541
08:18
so that we can more quickly be able to do this new task,
191
498496
2792
새로운 작업을 더 신속히 처리할 수 있습니다.
마치 여러분이 처음 보는 문제와 맞닥뜨렸을 때
08:21
just like you, if you're confronted with some new problem,
192
501288
2791
문제 해결에 도움이 될 이미 아는 것이 무엇인지
08:24
you quickly identify the 17 things you already know
193
504121
2625
08:26
that are going to be helpful in solving that problem.
194
506746
2542
빠르게 파악하듯이 말입니다.
08:29
Second problem is that most of our models today
195
509329
2709
둘째 문제는 오늘날 대부분의 모델이
08:32
deal with only a single modality of data --
196
512079
2125
한 가지 형태의 자료만 처리한다는 것입니다.
08:34
with images, or text or speech,
197
514204
3084
영상이나 문자, 음성 중 한 가지 형태만 처리할 뿐
08:37
but not all of these all at once.
198
517329
1709
모든 형태를 한 번에 처리하진 못합니다.
반면에 사람들은 어떻게 하는지 생각해보세요.
08:39
But think about how you go about the world.
199
519079
2042
08:41
You're continuously using all your senses
200
521121
2333
모든 감각을 끊임없이 활용해
08:43
to learn from, react to,
201
523454
3083
배우고, 반응하고,
08:46
figure out what actions you want to take in the world.
202
526579
2667
어떤 행동을 취해야 할지 알아냅니다.
이게 훨씬 더 합리적이고
08:49
Makes a lot more sense to do that,
203
529287
1667
08:50
and we can build models in the same way.
204
530954
2000
이 같은 방식의 모델을 만들 수 있습니다.
08:52
We can build models that take in these different modalities of input data,
205
532954
4042
다양한 형태의 입력을 처리하는 모델을 만들어
문자, 영상, 음성 등 형태와 상관없이 결합시켜
08:57
text, images, speech,
206
537037
1750
08:58
but then fuse them together,
207
538829
1417
09:00
so that regardless of whether the model sees the word "leopard,"
208
540329
3833
이 모델이 표범이라는 단어를 보거나
09:04
sees a video of a leopard or hears someone say the word "leopard,"
209
544204
4083
표범의 영상을 보거나 표범이라는 말을 들어도
09:08
the same response is triggered inside the model:
210
548329
2250
같은 처리를 하게 하는 것입니다.
09:10
the concept of a leopard
211
550621
1750
여기서 표범은
09:12
can deal with different kinds of input data,
212
552412
2250
다른 형태의 입력이 될 수 있는데,
09:14
even nonhuman inputs, like genetic sequences,
213
554662
3000
인간 외적인 방법일 수도 있습니다.
영상, 문자, 동영상뿐 아니라 유전자 서열, 3차원 점 구름처럼요.
09:17
3D clouds of points, as well as images, text and video.
214
557662
3209
09:20
The third problem is that today's models are dense.
215
560912
3625
세 번째 문제로 인공 지능 모델의 뉴런은 지금 조밀합니다.
09:24
There's a single model,
216
564579
1417
하나의 모델이
09:25
the model is fully activated for every task,
217
565996
2375
모든 작업과 예제에 신경망을 전부 동원하며
09:28
for every example that we want to accomplish,
218
568412
2125
09:30
whether that's a really simple or a really complicated thing.
219
570537
2917
작업이 아주 쉬운 것이든, 아주 복잡하든 상관하지 않습니다.
09:33
This, too, is unlike how our own brains work.
220
573496
2666
이것도 우리 뇌가 작동하는 방식과 다른 점입니다.
09:36
Different parts of our brains are good at different things,
221
576204
3000
뇌의 각 부분은 서로 다른 분야에 특화되어있고
09:39
and we're continuously calling upon the pieces of them
222
579246
3291
현재 과제에 연관된 부분에
09:42
that are relevant for the task at hand.
223
582579
2167
끊임없이 요청을 합니다.
09:44
For example, nervously watching a garbage truck
224
584787
2334
예를 들어 내 차를 향해 후진하는 청소차를 불안하게 보고 있는 상황이라면
09:47
back up towards your car,
225
587162
1875
셰익스피어의 소네트 감상을 담당하는 부분의 뇌는 아마 활동하지 않겠죠.
09:49
the part of your brain that thinks about Shakespearean sonnets
226
589037
2917
09:51
is probably inactive.
227
591996
1250
09:53
(Laughter)
228
593246
1625
(웃음)
09:54
AI models can work the same way.
229
594912
1750
AI 모델도 이런 식으로 움직이게 할 수 있습니다.
09:56
Instead of a dense model,
230
596662
1292
조밀한 모델 대신 띄엄띄엄 활성화하는 모델을 만들 수 있습니다.
09:57
we can have one that is sparsely activated.
231
597954
2250
10:00
So for particular different tasks, we call upon different parts of the model.
232
600204
4250
작업에 필요한 부분만 쓰는 방식입니다.
10:04
During training, the model can also learn which parts are good at which things,
233
604496
4375
학습하면서 어느 부분이 어떤 일을 잘 하는지 알 수 있기 때문에
10:08
to continuously identify what parts it wants to call upon
234
608871
3791
새로운 작업을 할 때 어느 부분이 필요한지 계속 알 수 있습니다.
10:12
in order to accomplish a new task.
235
612662
1834
10:14
The advantage of this is we can have a very high-capacity model,
236
614496
3541
이 모델은 아주 고성능이면서 동시에 효율도 높은데
10:18
but it's very efficient,
237
618037
1250
어떤 작업이든 필요한 부분만 사용하기 때문입니다.
10:19
because we're only calling upon the parts that we need
238
619329
2583
10:21
for any given task.
239
621954
1208
이 세 가지만 개선한다면
10:23
So fixing these three things, I think,
240
623162
2000
인공 지능이 더 유용해질 것이라 생각합니다.
10:25
will lead to a more powerful AI system:
241
625162
2209
10:27
instead of thousands of separate models,
242
627412
2000
따로 노는 수천 개의 모델 대신
10:29
train a handful of general-purpose models
243
629412
2000
수천, 수백만 가지의 일을 처리할 수 있는
10:31
that can do thousands or millions of things.
244
631454
2083
소수의 다목적 모델을 학습시켜야 합니다.
10:33
Instead of dealing with single modalities,
245
633579
2042
한 형태의 자료만 처리하는 것이 아니라
10:35
deal with all modalities,
246
635662
1334
모든 형태의 자료를 처리, 결합할 수 있어야 합니다.
10:36
and be able to fuse them together.
247
636996
1708
10:38
And instead of dense models, use sparse, high-capacity models,
248
638746
3458
뉴런이 조밀한 모델보다는 띄엄띄엄 있는 고성능 모델을 쓰고
10:42
where we call upon the relevant bits as we need them.
249
642246
2958
필요할 때 필요한 부분만 활용합니다.
10:45
We've been building a system that enables these kinds of approaches,
250
645246
3416
저희는 이런 방식을 실현할 수 있는 시스템을 준비해왔으며
10:48
and we’ve been calling the system “Pathways.”
251
648704
2542
그것을 ‘패스웨이’로 부릅니다.
10:51
So the idea is this model will be able to do
252
651287
3084
개념적으로 패스웨이는
작업 수천, 수만 개를 처리할 수 있고
10:54
thousands or millions of different tasks,
253
654412
2084
10:56
and then, we can incrementally add new tasks,
254
656537
2250
새 작업을 추가할 수 있으며,
10:58
and it can deal with all modalities at once,
255
658787
2125
모든 형태의 입력을 동시에 처리하고
11:00
and then incrementally learn new tasks as needed
256
660954
2958
필요에 따라 새 작업을 학습할 수 있고
11:03
and call upon the relevant bits of the model
257
663954
2083
각 예제 및 작업 처리에 필요한 부분만 사용합니다.
11:06
for different examples or tasks.
258
666037
1709
11:07
And we're pretty excited about this,
259
667787
1750
정말 재미있는 개념으로 AI에 일보 전진이 될 것이라 생각합니다.
11:09
we think this is going to be a step forward
260
669537
2042
11:11
in how we build AI systems.
261
671621
1333
11:12
But I also wanted to touch on responsible AI.
262
672954
3708
여기에 더해 책임감 있는 AI를 잠깐 이야기하고 싶습니다.
11:16
We clearly need to make sure that this vision of powerful AI systems
263
676662
4875
한 가지 명확한 점은
이 뛰어난 AI 개념이 분명 모두에게 유용할 것이라는 것입니다.
11:21
benefits everyone.
264
681579
1167
11:23
These kinds of models raise important new questions
265
683496
2458
패스웨이와 같은 모델은 인공 지능을 만들면서 유념해야 하는
11:25
about how do we build them with fairness,
266
685954
2458
공정성, 해석 가능성, 개인 정보 보호, 보안 등에 대해
11:28
interpretability, privacy and security,
267
688454
3208
11:31
for all users in mind.
268
691662
1459
새롭고도 중요한 의문을 제기합니다.
11:33
For example, if we're going to train these models
269
693621
2291
예를 들어 수천, 수백만 개의 작업을 훈련시킬 때는
11:35
on thousands or millions of tasks,
270
695954
2125
방대한 자료를 학습시킬 수 있어야 할 뿐만 아니라
11:38
we'll need to be able to train them on large amounts of data.
271
698079
2875
11:40
And we need to make sure that data is thoughtfully collected
272
700996
3250
용의주도하게 자료를 수집해야 하며
11:44
and is representative of different communities and situations
273
704287
3667
전 세계의 여러 집단과 상황을 아우를 수 있어야 합니다.
11:47
all around the world.
274
707954
1167
11:49
And data concerns are only one aspect of responsible AI.
275
709579
4000
하지만 자료 문제는 책임감 있는 AI의 일부일 뿐입니다.
11:53
We have a lot of work to do here.
276
713621
1583
해야 할 일이 굉장히 많습니다.
11:55
So in 2018, Google published this set of AI principles
277
715246
2666
2018년, 구글에서 AI의 원칙을 수립해
11:57
by which we think about developing these kinds of technology.
278
717912
3500
관련 기술의 발전을 다시 생각할 기회를 갖게 했습니다.
12:01
And these have helped guide us in how we do research in this space,
279
721454
3625
이 원칙은 앞으로 어떤 자세로 연구에 임해야 하고
제품에 어떻게 활용해야 하는지를 알려줍니다.
12:05
how we use AI in our products.
280
725121
1833
12:06
And I think it's a really helpful and important framing
281
726996
2750
AI를 사회에 적용하는 방법에 대한
12:09
for how to think about these deep and complex questions
282
729746
2875
깊고 복잡한 의문을 해결하는 데
12:12
about how we should be using AI in society.
283
732621
2833
큰 도움이 되리라 생각합니다.
12:15
We continue to update these as we learn more.
284
735454
3625
연구를 해나가면서 우리는 이 원칙을 계속 갱신하고 있습니다.
이런 원칙 대부분은 활발히 연구되고 있습니다.
12:19
Many of these kinds of principles are active areas of research --
285
739079
3458
12:22
super important area.
286
742537
1542
아주 중요한 부분이죠.
12:24
Moving from single-purpose systems that kind of recognize patterns in data
287
744121
4125
단순히 자료의 특성을 인식하는 단일 목적 시스템에서
12:28
to these kinds of general-purpose intelligent systems
288
748246
2750
사회를 더 잘 분석하는 다목적 지능 시스템으로 전환한다면
12:31
that have a deeper understanding of the world
289
751037
2292
12:33
will really enable us to tackle
290
753329
1583
인류가 직면한 심각한 문제 해결에 도움이 될 것입니다.
12:34
some of the greatest problems humanity faces.
291
754954
2500
12:37
For example,
292
757454
1167
예를 들면 인공 지능 모델에 화학과 물리학을 접목해
12:38
we’ll be able to diagnose more disease;
293
758662
2375
12:41
we'll be able to engineer better medicines
294
761079
2000
더 많은 질병을 진단하고 더 좋은 약을 개발할 수 있으며
12:43
by infusing these models with knowledge of chemistry and physics;
295
763079
3083
12:46
we'll be able to advance educational systems
296
766204
2667
교육 시스템과 접목한다면 개개인에게 맞춤형 수업을 제공해
12:48
by providing more individualized tutoring
297
768871
2041
12:50
to help people learn in new and better ways;
298
770912
2375
학생이 새롭고 더 나은 방법으로 공부할 수 있을 것입니다.
12:53
we’ll be able to tackle really complicated issues,
299
773287
2375
그리고 기후 변화나 청정 에너지 등
12:55
like climate change,
300
775704
1208
12:56
and perhaps engineering of clean energy solutions.
301
776954
2792
아주 복잡한 사회 문제 해결에도 도움이 될 것입니다.
12:59
So really, all of these kinds of systems
302
779787
2667
다시 말해, 이 시스템에는
13:02
are going to be requiring the multidisciplinary expertise
303
782496
2875
전 세계 사람들의 종합적인 전문 지식이 필요합니다.
13:05
of people all over the world.
304
785371
1875
13:07
So connecting AI with whatever field you are in,
305
787287
3542
어떤 분야에 종사하든, 발전하려면 인공 지능과 연계해야 합니다.
13:10
in order to make progress.
306
790829
1750
13:13
So I've seen a lot of advances in computing,
307
793579
2292
지난 수십 년간 컴퓨터의 성능과 연산 방법의 진전이
13:15
and how computing, over the past decades,
308
795912
2292
13:18
has really helped millions of people better understand the world around them.
309
798204
4167
전 세계 수백만 명이 서로를 이해하는 데에 큰 도움을 줬습니다.
13:22
And AI today has the potential to help billions of people.
310
802412
3000
오늘날 인공 지능은 수십억 명에게 도움을 줄 가능성이 있습니다.
13:26
We truly live in exciting times.
311
806204
2125
우리는 정말 재미있는 시대에 살고 있습니다.
13:28
Thank you.
312
808746
1166
감사합니다.
13:29
(Applause)
313
809912
7000
(박수)
13:39
Chris Anderson: Thank you so much.
314
819829
1667
CA: 말씀 감사합니다. 몇 가지 추가 질문을 드릴까 합니다.
13:41
I want to follow up on a couple things.
315
821537
2375
13:44
This is what I heard.
316
824454
2792
제가 알기로
13:47
Most people's traditional picture of AI
317
827287
4125
대부분의 사람들이 떠올리는 인공 지능은
13:51
is that computers recognize a pattern of information,
318
831412
3125
컴퓨터가 정보의 규칙을 인식하고
13:54
and with a bit of machine learning,
319
834579
2125
기계 학습으로 학습하기 때문에
13:56
they can get really good at that, better than humans.
320
836704
2625
사람보다 더 잘 처리하는 것입니다.
앞서 말씀하시면서
13:59
What you're saying is those patterns
321
839329
1792
그 규칙이 더 이상 인공 지능이 처리하는 개별적인 것이 아니라
14:01
are no longer the atoms that AI is working with,
322
841121
2875
14:04
that it's much richer-layered concepts
323
844037
2542
모든 방식과 형태를 아우르는
14:06
that can include all manners of types of things
324
846621
3458
훨씬 다층적인 개념이며,
14:10
that go to make up a leopard, for example.
325
850121
3000
모두 모여서 표범이 된다고 했습니다.
14:13
So what could that lead to?
326
853121
2916
그렇다면 다음은 어떻게 될까요?
14:16
Give me an example of when that AI is working,
327
856079
2750
그런 인공 지능이 언제 활용되는지,
14:18
what do you picture happening in the world
328
858829
2042
향후 5년 혹은 10년의 세계는 어떨지 예를 들어주시겠어요?
14:20
in the next five or 10 years that excites you?
329
860912
2209
14:23
Jeff Dean: I think the grand challenge in AI
330
863537
2500
JD: 인공 지능을 상용화할 때 가장 큰 문제는
14:26
is how do you generalize from a set of tasks
331
866079
2375
이미 아는 작업을 이용해 새로운 작업을 처리할 수 있도록
14:28
you already know how to do
332
868496
1416
14:29
to new tasks,
333
869954
1208
14:31
as easily and effortlessly as possible.
334
871204
2542
쉽고 편하게 일반화하는가입니다.
14:33
And the current approach of training separate models for everything
335
873746
3250
모든 작업에 각각 모델을 만드는 현재의 방법은
14:36
means you need lots of data about that particular problem,
336
876996
3166
한 문제에 많은 자료가 필요합니다.
14:40
because you're effectively trying to learn everything
337
880162
2542
사실상 세계나 문제를 처음부터 새로 배우는 것과 같기 때문입니다.
14:42
about the world and that problem, from nothing.
338
882746
2541
14:45
But if you can build these systems
339
885287
1667
하지만 수천, 수백만 개의 작업 처리 방법이 이미 합쳐진
14:46
that already are infused with how to do thousands and millions of tasks,
340
886996
4458
시스템을 제작할 수 있다면
14:51
then you can effectively teach them to do a new thing
341
891496
3791
비교적 적은 예제로도
새로운 것을 효과적으로 학습시킬 수 있을 것입니다.
14:55
with relatively few examples.
342
895329
1500
14:56
So I think that's the real hope,
343
896871
2083
진짜로 바라는 것은
14:58
that you could then have a system where you just give it five examples
344
898996
4083
해결하고 싶은 작업의 예제를
15:03
of something you care about,
345
903121
1541
다섯 개만 제시해도 새로운 작업을 학습할 수 있는 것입니다.
15:04
and it learns to do that new task.
346
904704
1917
15:06
CA: You can do a form of self-supervised learning
347
906662
2375
CA: 아주 소수의 예제로도 학습하는
15:09
that is based on remarkably little seeding.
348
909079
2542
자기 지도 학습을 할 수 있단 말씀이시죠?
15:11
JD: Yeah, as opposed to needing 10,000 or 100,000 examples
349
911662
2875
JD: 맞습니다.
예제가 만 개, 십만 개 필요했던 이전과는 다르게 말이죠.
15:14
to figure everything in the world out.
350
914579
1833
CA: 거기서 의도하지 않은 부적절한 결과도 있지 않나요?
15:16
CA: Aren't there kind of terrifying unintended consequences
351
916454
2792
15:19
possible, from that?
352
919287
1334
15:20
JD: I think it depends on how you apply these systems.
353
920621
2625
JD: 어떻게 활용하느냐에 따라 다르다 생각합니다.
15:23
It's very clear that AI can be a powerful system for good,
354
923287
4167
인공 지능은 좋은 곳에 적절하게 쓰일 수도 있고
15:27
or if you apply it in ways that are not so great,
355
927496
2333
부적절한 곳에 쓰여서
15:29
it can be a negative consequence.
356
929871
3375
부정적인 결과를 가져올 수도 있습니다.
15:33
So I think that's why it's important to have a set of principles
357
933287
3042
그렇기 때문에 앞서 말한 원칙이 매우 중요하다 생각합니다.
15:36
by which you look at potential uses of AI
358
936371
2250
인공 지능의 가능성과
15:38
and really are careful and thoughtful about how you consider applications.
359
938662
5125
인공 지능을 어떻게 활용할지
다시 생각할 기회를 주기 때문입니다.
15:43
CA: One of the things people worry most about
360
943787
2209
CA: 사람들이 가장 염려하는 것은
15:45
is that, if AI is so good at learning from the world as it is,
361
945996
3583
말씀하셨던 대로 인공 지능이 사회를 있는 그대로 학습을 잘 한다면
15:49
it's going to carry forward into the future
362
949621
2875
현재 사회의 잘못된 부분도
15:52
aspects of the world as it is that actually aren't right, right now.
363
952537
4375
그대로 학습할 것이라는 것입니다.
15:56
And there's obviously been a huge controversy about that
364
956954
2708
그리고 최근 구글에서 매우 큰 논란이 있었습니다.
15:59
recently at Google.
365
959662
2417
16:02
Some of those principles of AI development,
366
962121
3083
인공 지능 개발 원칙 일부를
16:05
you've been challenged that you're not actually holding to them.
367
965246
4708
사실상 준수하지 않았다고 합니다.
16:10
Not really interested to hear about comments on a specific case,
368
970329
3250
특정 지어서 묻고 싶지는 않지만
16:13
but ... are you really committed?
369
973621
2708
정말 잘 지키섰나요?
16:16
How do we know that you are committed to these principles?
370
976329
2750
구글이 원칙을 준수하는지 알 방법이 있나요?
16:19
Is that just PR, or is that real, at the heart of your day-to-day?
371
979079
4417
원칙은 단순히 홍보일 뿐인가요?
아니면 정말 중요한 것인가요?
16:23
JD: No, that is absolutely real.
372
983496
1541
JD: 원칙은 정말 중요합니다.
16:25
Like, we have literally hundreds of people
373
985079
2125
저희 부서에서 수백 명이
16:27
working on many of these related research issues,
374
987204
2333
관련 연구를 하고 있습니다.
16:29
because many of those things are research topics
375
989537
2417
원칙 자체만으로 연구 주제로서 합당하기 때문입니다.
16:31
in their own right.
376
991996
1166
16:33
How do you take data from the real world,
377
993162
2250
실제 사회를 토대로 데이터를 만들 때
16:35
that is the world as it is, not as we would like it to be,
378
995412
5000
어떻게 내가 원하는 대로가 아닌,
있는 그대로 반영할 수 있을까?
16:40
and how do you then use that to train a machine-learning model
379
1000412
3209
어떻게 기계 학습 모델을 학습시키고
16:43
and adapt the data bit of the scene
380
1003621
2500
현장의 자료를 적용하거나
16:46
or augment the data with additional data
381
1006162
2500
추가 자료로 기존 자료를 검증해서
16:48
so that it can better reflect the values we want the system to have,
382
1008704
3292
사회 자체에 있는 것이 아니라 원하는 가치를 반영할 수 있을까?
16:51
not the values that it sees in the world?
383
1011996
2208
16:54
CA: But you work for Google,
384
1014204
2417
CA: 하지만 구글에서 일하고 계시고,
16:56
Google is funding the research.
385
1016662
2084
구글이 연구에 자금을 지원합니다.
16:59
How do we know that the main values that this AI will build
386
1019371
4458
그렇다면 인공 지능을 만들 때 가장 중요하게 여기는 가치가
사회를 위한 것인지 어떻게 알죠?
17:03
are for the world,
387
1023871
1208
17:05
and not, for example, to maximize the profitability of an ad model?
388
1025121
4916
사회를 위해서가 아니라
광고 모델의 수익성을 최대화하려 할 수도 있잖아요.
17:10
When you know everything there is to know about human attention,
389
1030037
3084
사람들의 관심사가 어떤지 알게 되면
사람들이 숨기는 야릇하고 음습한 부분도 상당히 알게 될 텐데 말입니다.
17:13
you're going to know so much
390
1033121
1500
17:14
about the little wriggly, weird, dark parts of us.
391
1034621
2458
구글의 연구진 내에는
17:17
In your group, are there rules about how you hold off,
392
1037121
6167
사회 발전과 수익을 철저히 분리해서 생각하는,
17:23
church-state wall between a sort of commercial push,
393
1043329
3750
반드시 돈이 되야 한다는
금전적 압박 같은 것을 떠나
17:27
"You must do it for this purpose,"
394
1047079
2292
17:29
so that you can inspire your engineers and so forth,
395
1049413
2458
인공 지능 개발으로 사회 발전에 기여하도록 하는 규칙이 있나요?
17:31
to do this for the world, for all of us.
396
1051913
1916
17:33
JD: Yeah, our research group does collaborate
397
1053871
2125
JD: 네, 저희 연구진은 구글 전체에서 여러 팀과 협업합니다.
17:36
with a number of groups across Google,
398
1056038
1833
구글 광고, 검색, 지도 등이요.
17:37
including the Ads group, the Search group, the Maps group,
399
1057913
2750
협업뿐만 아니라 기본적 연구도 하고 공개합니다.
17:40
so we do have some collaboration, but also a lot of basic research
400
1060704
3209
17:43
that we publish openly.
401
1063954
1542
작년에는 각기 다른 주제로 논문을 천 개 이상 발표했으며
17:45
We've published more than 1,000 papers last year
402
1065538
3333
17:48
in different topics, including the ones you discussed,
403
1068871
2583
그중에는 앞서 말했던 것도 있고
기계 학습 모델의 공정성, 해석 가능성을 포함해
17:51
about fairness, interpretability of the machine-learning models,
404
1071454
3042
매우 중요한 주제들을 다뤘습니다.
17:54
things that are super important,
405
1074538
1791
17:56
and we need to advance the state of the art in this
406
1076371
2417
이렇게 원칙 관련 연구를 최첨단으로 발전시켜
17:58
in order to continue to make progress
407
1078829
2209
인공 지능을 개발할 때
18:01
to make sure these models are developed safely and responsibly.
408
1081079
3292
확실히 안전하고 책임감을 갖고 만들 수 있도록 하고 있습니다.
18:04
CA: It feels like we're at a time when people are concerned
409
1084788
3041
CA: 사람들이 거대 기술 회사의 영향력을
18:07
about the power of the big tech companies,
410
1087829
2042
염려하는 시대인 것 같습니다.
18:09
and it's almost, if there was ever a moment to really show the world
411
1089871
3750
더 나은 미래를 위해
18:13
that this is being done to make a better future,
412
1093663
3333
원칙을 지키는 모습을 보여주는 것이
18:17
that is actually key to Google's future,
413
1097038
2791
더 나은 미래, 구글의 미래를 위해
18:19
as well as all of ours.
414
1099871
1750
가장 중요한 것이 아닐까 생각합니다.
18:21
JD: Indeed.
415
1101663
1166
JD: 맞습니다. CA: 이렇게 말씀해주셔서 감사드리고,
18:22
CA: It's very good to hear you come and say that, Jeff.
416
1102871
2583
CA: TED에 나와주셔서 감사합니다.
18:25
Thank you so much for coming here to TED.
417
1105454
2042
JD: 감사합니다.
18:27
JD: Thank you.
418
1107538
1166
(박수)
18:28
(Applause)
419
1108704
1167
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7