How computers are learning to be creative | Blaise Agüera y Arcas

452,941 views ・ 2016-07-22

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: Seon-Gyu Choi 검토: Gemma Lee
00:12
So, I lead a team at Google that works on machine intelligence;
0
12800
3124
저는 구글에서 기계지능팀을 이끌고 있습니다.
00:15
in other words, the engineering discipline of making computers and devices
1
15948
4650
다르게 표현하면, 컴퓨터와 장치를 공학적으로 훈련시켜
00:20
able to do some of the things that brains do.
2
20622
2419
뇌가 하는 일을 할 수 있게 합니다.
00:23
And this makes us interested in real brains
3
23439
3099
그리고 이 일을 하면서 저희는 실제 뇌와 신경과학에
00:26
and neuroscience as well,
4
26562
1289
관심을 두게 되었습니다.
00:27
and especially interested in the things that our brains do
5
27875
4172
특히 관심 있는 부분은 우리의 뇌가 하는 일 중에
00:32
that are still far superior to the performance of computers.
6
32071
4042
아직 컴퓨터보다 훨씬 뛰어난 부분에 대한 것입니다.
00:37
Historically, one of those areas has been perception,
7
37209
3609
역사적으로 이런 부분 중에 하나로 인식이 언급돼 왔습니다.
00:40
the process by which things out there in the world --
8
40842
3039
세상에 존재하는
00:43
sounds and images --
9
43905
1584
소리나 이미지를 과정을 통해
00:45
can turn into concepts in the mind.
10
45513
2178
마음속에 개념화시키는 것입니다.
00:48
This is essential for our own brains,
11
48235
2517
이것은 우리 뇌에 필수적인 기능이고
00:50
and it's also pretty useful on a computer.
12
50776
2464
컴퓨터에도 꽤 유용합니다.
00:53
The machine perception algorithms, for example, that our team makes,
13
53636
3350
기계 인식 알고리즘의 예로 저희 팀에서 한 일은
00:57
are what enable your pictures on Google Photos to become searchable,
14
57010
3874
구글 포토스에 올린 사진을 뭐가 찍혔냐에 따라
01:00
based on what's in them.
15
60908
1397
검색이 가능하게 한 것이죠.
01:03
The flip side of perception is creativity:
16
63594
3493
인식의 반대말은 창의성입니다.
01:07
turning a concept into something out there into the world.
17
67111
3038
개념을 세상에 존재하는 것으로 바꾸는 것입니다.
01:10
So over the past year, our work on machine perception
18
70173
3555
지난 몇 년 동안 기계 인식에 대해 저희가 해온 일들은
01:13
has also unexpectedly connected with the world of machine creativity
19
73752
4859
뜻밖에도 기계의 창의력과 기계 예술을
01:18
and machine art.
20
78635
1160
연결했습니다.
01:20
I think Michelangelo had a penetrating insight
21
80556
3284
저는 미켈란젤로가 인식과 창의성 간의
01:23
into to this dual relationship between perception and creativity.
22
83864
3656
이중 관계를 꿰뚫어 보았다고 생각합니다.
01:28
This is a famous quote of his:
23
88023
2006
이것은 그의 유명한 인용구입니다.
01:30
"Every block of stone has a statue inside of it,
24
90053
3323
"모든 돌덩이는 그 안에 조각상을 가지고 있고
01:34
and the job of the sculptor is to discover it."
25
94036
3002
그것을 발견하는 것이 조각가의 과업이다."
01:38
So I think that what Michelangelo was getting at
26
98029
3216
그래서 저는 미켈란젤로의 생각은
01:41
is that we create by perceiving,
27
101269
3180
우리는 인식하는 것으로 창조하고
01:44
and that perception itself is an act of imagination
28
104473
3023
그 인식 자체가 상상하는 행위이며
01:47
and is the stuff of creativity.
29
107520
2461
창의성이라 여깁니다.
01:50
The organ that does all the thinking and perceiving and imagining,
30
110691
3925
생각하고 인식하고 상상하는 기관은
01:54
of course, is the brain.
31
114640
1588
물론 뇌입니다.
01:57
And I'd like to begin with a brief bit of history
32
117089
2545
그리고 저는 간략하게 뇌에 대한 연구의
01:59
about what we know about brains.
33
119658
2302
역사에 대해서 이야기하고 싶습니다.
02:02
Because unlike, say, the heart or the intestines,
34
122496
2446
왜냐하면 심장이나 장과 달리
02:04
you really can't say very much about a brain by just looking at it,
35
124966
3144
보기만 해선 뇌에 대해 이야기할 게 없기 때문입니다.
02:08
at least with the naked eye.
36
128134
1412
겉으로 보기에 말이죠.
02:09
The early anatomists who looked at brains
37
129983
2416
초기 해부학자들은 뇌를 보고
02:12
gave the superficial structures of this thing all kinds of fanciful names,
38
132423
3807
표면상의 구조에 온갖 기발한 이름을 붙였습니다.
02:16
like hippocampus, meaning "little shrimp."
39
136254
2433
해마같이 말이죠, 뜻은 "작은 새우"입니다.
02:18
But of course that sort of thing doesn't tell us very much
40
138711
2764
하지만 물론 이런 이름들이 실제로 무슨일을 하는지
02:21
about what's actually going on inside.
41
141499
2318
말해 주지는 않습니다.
02:24
The first person who, I think, really developed some kind of insight
42
144780
3613
제 생각에 최초로 뇌에서 무슨 일이 일어나는지에 대해
02:28
into what was going on in the brain
43
148417
1930
큰 공헌을 한 사람은
02:30
was the great Spanish neuroanatomist, Santiago Ramón y Cajal,
44
150371
3920
스페인의 위대한 신경 해부학자인 산티아고 라몬 이 카할입니다.
02:34
in the 19th century,
45
154315
1544
19세기에
02:35
who used microscopy and special stains
46
155883
3755
현미경 관찰과 특수한 착색을 이용해
02:39
that could selectively fill in or render in very high contrast
47
159662
4170
선택적으로 각각의 뇌세포를 채우거나
02:43
the individual cells in the brain,
48
163856
2008
높은 대비를 만들어 내
02:45
in order to start to understand their morphologies.
49
165888
3154
형태학적인 이해를 할 수 있게 한 사람입니다.
02:49
And these are the kinds of drawings that he made of neurons
50
169972
2891
이것들은 그가 신경 세포로 만든 그림들입니다.
02:52
in the 19th century.
51
172887
1209
19세기에 말이죠.
02:54
This is from a bird brain.
52
174120
1884
이것은 새의 뇌 그림입니다.
02:56
And you see this incredible variety of different sorts of cells,
53
176028
3057
그리고 굉장히 다양한 세포를 볼 수 있습니다.
02:59
even the cellular theory itself was quite new at this point.
54
179109
3435
심지어 세포이론도 알려진 지 얼마 안 된 때였습니다.
03:02
And these structures,
55
182568
1278
그리고 이 구조는
03:03
these cells that have these arborizations,
56
183870
2259
수지상부를 가지고 있는 세포들의
03:06
these branches that can go very, very long distances --
57
186153
2608
가지는 아주 멀리까지 뻗을 수 있는데
03:08
this was very novel at the time.
58
188785
1616
당시 매우 새로웠습니다.
03:10
They're reminiscent, of course, of wires.
59
190779
2903
이 구조는 전선을 연상시킵니다.
03:13
That might have been obvious to some people in the 19th century;
60
193706
3457
전선과 전기의 혁명이 일어나던 19세기 사람들은
03:17
the revolutions of wiring and electricity were just getting underway.
61
197187
4314
당연히 그렇게 볼 수 있었을 것입니다.
03:21
But in many ways,
62
201964
1178
하지만 여러 가지 면에서
03:23
these microanatomical drawings of Ramón y Cajal's, like this one,
63
203166
3313
이런 라몬 이 카할의 조직학적 그림은
03:26
they're still in some ways unsurpassed.
64
206503
2332
오늘날에도 최고로 여겨집니다.
03:28
We're still more than a century later,
65
208859
1854
우리는 지난 한 세기 동안
03:30
trying to finish the job that Ramón y Cajal started.
66
210737
2825
라몬 이 카할이 시작한 일을 끝내려고 노력하고 있습니다.
03:33
These are raw data from our collaborators
67
213586
3134
이것들은 막스플랑크 신경과학 연구소
03:36
at the Max Planck Institute of Neuroscience.
68
216744
2881
협력자들의 기초 데이타입니다.
03:39
And what our collaborators have done
69
219649
1790
그리고 저희 협력자들이 한 것은
03:41
is to image little pieces of brain tissue.
70
221463
5001
뇌세포의 작은 부분을 조명한 것 입니다.
03:46
The entire sample here is about one cubic millimeter in size,
71
226488
3326
이 샘플의 전체 크기는 대략 1 입방 밀리미터이고
03:49
and I'm showing you a very, very small piece of it here.
72
229838
2621
결과물의 아주 작은 부분을 보고 계신 것입니다.
03:52
That bar on the left is about one micron.
73
232483
2346
왼쪽에 있는 바는 1미크론 입니다.
03:54
The structures you see are mitochondria
74
234853
2409
보고 계신 구조는 미토콘드리아입니다.
03:57
that are the size of bacteria.
75
237286
2044
이는 박테리아만큼 작습니다.
03:59
And these are consecutive slices
76
239354
1551
이것은 아주 작은 조직으로
04:00
through this very, very tiny block of tissue.
77
240929
3148
자른 연속적인 단면입니다.
04:04
Just for comparison's sake,
78
244101
2403
비교를 하자면
04:06
the diameter of an average strand of hair is about 100 microns.
79
246528
3792
머리카락의 평균 지름은 100 미크론입니다.
04:10
So we're looking at something much, much smaller
80
250344
2274
저희가 보고 있는 것은 머리카락 한 가닥보다
04:12
than a single strand of hair.
81
252642
1398
훨씬 작은 것입니다.
04:14
And from these kinds of serial electron microscopy slices,
82
254064
4031
그리고 이런 전자현미경으로 나눈 일련의 조각들로
04:18
one can start to make reconstructions in 3D of neurons that look like these.
83
258119
5008
신경세포를 3D로 이렇게 복원할 수 있습니다.
04:23
So these are sort of in the same style as Ramón y Cajal.
84
263151
3157
이것은 라몬 이 카할의 방식과 어느 정도 같습니다.
04:26
Only a few neurons lit up,
85
266332
1492
일부 신경세포만 비추었죠.
04:27
because otherwise we wouldn't be able to see anything here.
86
267848
2781
그렇지 않으면 아무것도 구분할 수 없을 것입니다.
04:30
It would be so crowded,
87
270653
1312
사진 가득히
04:31
so full of structure,
88
271989
1330
신경세포끼리 서로 연결된
04:33
of wiring all connecting one neuron to another.
89
273343
2724
구조만 보일 것입니다.
04:37
So Ramón y Cajal was a little bit ahead of his time,
90
277293
2804
라몬 이 카할은 시대를 앞서나갔고
04:40
and progress on understanding the brain
91
280121
2555
그후 수십 년 동안 뇌의 이해에 대한 연구는
04:42
proceeded slowly over the next few decades.
92
282700
2271
서서히 발전했습니다.
04:45
But we knew that neurons used electricity,
93
285455
2853
그러나 우리는 신경세포가 전기를 이용하는 것을 알아냈고
04:48
and by World War II, our technology was advanced enough
94
288332
2936
제2차 세계대전 때 발전한 기술로
04:51
to start doing real electrical experiments on live neurons
95
291292
2806
실제로 신경세포에 전기 실험을 할 수 있게 되고
04:54
to better understand how they worked.
96
294122
2106
신경세포를 더 이해할 수 있었습니다.
04:56
This was the very same time when computers were being invented,
97
296631
4356
컴퓨터가 발명된 것도 바로 이때인데
05:01
very much based on the idea of modeling the brain --
98
301011
3100
뇌를 모델로 한 아이디어였죠.
05:04
of "intelligent machinery," as Alan Turing called it,
99
304135
3085
앨런 튜링은 "지능형 기계" 라고 불렀습니다.
05:07
one of the fathers of computer science.
100
307244
1991
컴퓨터 공학의 아버지 중에 한 명이죠.
05:09
Warren McCulloch and Walter Pitts looked at Ramón y Cajal's drawing
101
309923
4632
워렌 맥컬로흐와 월터 피츠는 어느날 라몬 이 카할의
05:14
of visual cortex,
102
314579
1317
시각 피질 그림을 보았습니다.
05:15
which I'm showing here.
103
315920
1562
지금 보고 계신 그림말이죠.
05:17
This is the cortex that processes imagery that comes from the eye.
104
317506
4442
이것은 눈을 통해 들어온 이미지를 처리하는 피질입니다.
05:22
And for them, this looked like a circuit diagram.
105
322424
3508
그리고 그들에겐 이 그림은 마치 회로도처럼 보였습니다.
05:26
So there are a lot of details in McCulloch and Pitts's circuit diagram
106
326353
3835
맥컬로흐와 피츠의 회로도에는 많은 세부사항이 있지만
05:30
that are not quite right.
107
330212
1352
정확하지는 않습니다.
05:31
But this basic idea
108
331588
1235
하지만 기본 아이디어인
05:32
that visual cortex works like a series of computational elements
109
332847
3992
시각 피질의 원리가 일련의 계산 요소를
05:36
that pass information one to the next in a cascade,
110
336863
2746
연속적으로 하나에서 다음으로 정보를 넘긴다는 것은
05:39
is essentially correct.
111
339633
1602
근본적으로 맞습니다.
05:41
Let's talk for a moment
112
341259
2350
조금 더 이야기해 보겠습니다.
05:43
about what a model for processing visual information would need to do.
113
343633
4032
시각 정보를 처리하는 모델이 해야 하는 일에 대해서 말이죠.
05:48
The basic task of perception
114
348228
2741
인식이 기본적으로 하는 일은
05:50
is to take an image like this one and say,
115
350993
4194
이런 이미지를 보고 이렇게 말하는 것 입니다.
05:55
"That's a bird,"
116
355211
1176
"이것은 새입니다"
05:56
which is a very simple thing for us to do with our brains.
117
356411
2874
우리에게는 매우 쉬운 일입니다.
05:59
But you should all understand that for a computer,
118
359309
3421
하지만 여러분 모두가 아셔야 하는 것이
06:02
this was pretty much impossible just a few years ago.
119
362754
3087
몇 년 전까지 컴퓨터로는 이런 것이 불가능했습니다.
06:05
The classical computing paradigm
120
365865
1916
고전적인 컴퓨팅 패러다임은
06:07
is not one in which this task is easy to do.
121
367805
2507
이런 일을 쉽게 할 수 있는 것이 아닙니다.
06:11
So what's going on between the pixels,
122
371366
2552
그래서 픽셀들 간의 관계와
06:13
between the image of the bird and the word "bird,"
123
373942
4028
만들어진 이미지와 "새"라는 단어의 관계는
06:17
is essentially a set of neurons connected to each other
124
377994
2814
근본적으로 신경세포들이 서로 연결되어
06:20
in a neural network,
125
380832
1155
신경망을 구축하고 있는 것입니다.
06:22
as I'm diagramming here.
126
382011
1223
제가 그린 도표처럼요.
06:23
This neural network could be biological, inside our visual cortices,
127
383258
3272
이 신경망은 시각피질 내부의 생물학적인 것이나
06:26
or, nowadays, we start to have the capability
128
386554
2162
오늘날에는 우리의 기술로
06:28
to model such neural networks on the computer.
129
388740
2454
컴퓨터를 통해 신경망을 그릴 수 있습니다.
06:31
And I'll show you what that actually looks like.
130
391834
2353
그리고 이것이 실제 모델입니다.
06:34
So the pixels you can think about as a first layer of neurons,
131
394211
3416
픽셀이 신경세포의 첫 번째 층입니다.
06:37
and that's, in fact, how it works in the eye --
132
397651
2239
그리고 이것은 실제로 눈으로 보는 과정으로 보면
06:39
that's the neurons in the retina.
133
399914
1663
픽셀이 망막인 것입니다.
06:41
And those feed forward
134
401601
1500
그리고 이 자극을
06:43
into one layer after another layer, after another layer of neurons,
135
403125
3403
신경세포의 한 층에서 다음 층으로 전달합니다.
06:46
all connected by synapses of different weights.
136
406552
3033
이는 각각 다른 농도의 시냅스로 모두 연결되어있습니다.
06:49
The behavior of this network
137
409609
1335
이 네트워크의 동작은
06:50
is characterized by the strengths of all of those synapses.
138
410968
3284
모든 시냅스의 강도에 의해 구분됩니다.
06:54
Those characterize the computational properties of this network.
139
414276
3288
이것으로 네트워크 내에서 계산되는 것을 특징짓습니다.
06:57
And at the end of the day,
140
417588
1470
그리고 마지막에
06:59
you have a neuron or a small group of neurons
141
419082
2447
신경 세포 하나 또는 한 무리가
07:01
that light up, saying, "bird."
142
421553
1647
반짝이며 "새"라고 말합니다.
07:03
Now I'm going to represent those three things --
143
423824
3132
이제 제가 이 세가지를
07:06
the input pixels and the synapses in the neural network,
144
426980
4696
입력된 픽셀, 신경망의 시넵스
07:11
and bird, the output --
145
431700
1585
그리고 결과물인 새를
07:13
by three variables: x, w and y.
146
433309
3057
세 변수 x, w, y라고 하겠습니다.
07:16
There are maybe a million or so x's --
147
436853
1811
픽셀이 백만 개는 있을테니 x는
07:18
a million pixels in that image.
148
438688
1953
이미지의 백만 개의 픽셀입니다.
07:20
There are billions or trillions of w's,
149
440665
2446
그리고 w는 수십억 혹은 수조 개가 있습니다.
07:23
which represent the weights of all these synapses in the neural network.
150
443135
3421
이는 신경망의 모든 시냅스의 농도를 말합니다.
07:26
And there's a very small number of y's,
151
446580
1875
그리고 적은 수의 y가 있습니다.
07:28
of outputs that that network has.
152
448479
1858
신경망의 결과물로써 말이죠.
07:30
"Bird" is only four letters, right?
153
450361
1749
"Bird"는 네 글자뿐이잖아요.
07:33
So let's pretend that this is just a simple formula,
154
453088
3426
그러면 이것을 간단한 공식이라고 해봅시다.
07:36
x "x" w = y.
155
456538
2163
x "x" w = y.
07:38
I'm putting the times in scare quotes
156
458725
2036
저는 곱하기를 큰따옴표 안에 넣었습니다.
07:40
because what's really going on there, of course,
157
460785
2280
실제로 저기서 일어나는 일은
07:43
is a very complicated series of mathematical operations.
158
463089
3046
매우 복잡한 일련의 수학적인 과정이기 때문입니다.
07:47
That's one equation.
159
467172
1221
이것은 한 공식입니다.
07:48
There are three variables.
160
468417
1672
세 개의 변수가 있습니다.
07:50
And we all know that if you have one equation,
161
470113
2726
그리고 우리가 알고 있는 것이 한 공식에서
07:52
you can solve one variable by knowing the other two things.
162
472863
3642
두 개의 변수를 알면 남은 한 개를 알 수 있다는 것입니다.
07:57
So the problem of inference,
163
477158
3380
그래서 추론해야 하는
08:00
that is, figuring out that the picture of a bird is a bird,
164
480562
2873
새의 사진을 보고 새를 구분하는 공식은
08:03
is this one:
165
483459
1274
바로 이것입니다.
08:04
it's where y is the unknown and w and x are known.
166
484757
3459
이 경우는 y는 알려지지 않고 w와 x는 알려진 경우이죠
08:08
You know the neural network, you know the pixels.
167
488240
2459
신경망과 픽셀이 무엇인지는 알고 있습니다.
08:10
As you can see, that's actually a relatively straightforward problem.
168
490723
3327
보시다시피 사실 상대적으로 간단한 문제입니다
08:14
You multiply two times three and you're done.
169
494074
2186
2 곱하기 3을 하면 끝나는 거죠
08:16
I'll show you an artificial neural network
170
496862
2123
여러분께 최근에 만든 인공 신경망이
08:19
that we've built recently, doing exactly that.
171
499009
2296
정확히 이것을 하는 것을 보여드리겠습니다
08:21
This is running in real time on a mobile phone,
172
501634
2860
이것은 휴대전화에서 실시간으로 돌아가는 것입니다.
08:24
and that's, of course, amazing in its own right,
173
504518
3313
그리고 물론 휴대전화에서
08:27
that mobile phones can do so many billions and trillions of operations
174
507855
3468
초당 수십억 수조 개의 동작을 한다는 것 자체만으로도
08:31
per second.
175
511347
1248
놀라운 일입니다
08:32
What you're looking at is a phone
176
512619
1615
여러분이 보고 있는 것은
08:34
looking at one after another picture of a bird,
177
514258
3547
휴대전화가 다른 새 사진을 보고
08:37
and actually not only saying, "Yes, it's a bird,"
178
517829
2715
“네, 이것은 새입니다.” 하고 끝나는 것이 아니라
08:40
but identifying the species of bird with a network of this sort.
179
520568
3411
네트워크 정보로 종까지 분류하는 모습입니다.
08:44
So in that picture,
180
524890
1826
사진을 보면
08:46
the x and the w are known, and the y is the unknown.
181
526740
3802
x와 w는 밝혀져 있고 y는 밝혀지지 않았습니다.
08:50
I'm glossing over the very difficult part, of course,
182
530566
2508
지금 몹시 어려운 부분을 얼버무리고 지나가고 있는데
08:53
which is how on earth do we figure out the w,
183
533098
3861
그것은 우리가 어떻게 w를 밝혀냈으며
08:56
the brain that can do such a thing?
184
536983
2187
뇌가 어떻게 그런 일을 하며
08:59
How would we ever learn such a model?
185
539194
1834
어떻게 이런 모델을 배울까입니다.
09:01
So this process of learning, of solving for w,
186
541418
3233
w를 배우고 해결하는 과정을
09:04
if we were doing this with the simple equation
187
544675
2647
간단한 공식으로 만들어
09:07
in which we think about these as numbers,
188
547346
2000
숫자를 대입해보면
09:09
we know exactly how to do that: 6 = 2 x w,
189
549370
2687
정확히 알 수 있습니다. 6=2 x w라고 하면
09:12
well, we divide by two and we're done.
190
552081
3312
양변을 2로 나누면 끝납니다.
09:16
The problem is with this operator.
191
556001
2220
문제점은 이 연산에서
09:18
So, division --
192
558823
1151
나눗셈을
09:19
we've used division because it's the inverse to multiplication,
193
559998
3121
우리가 나눗셈을 썼는데 곱셈을 역으로 계산한 것입니다.
09:23
but as I've just said,
194
563143
1440
하지만 방금 말한 대로
09:24
the multiplication is a bit of a lie here.
195
564607
2449
실제 연산은 곱하기가 아닙니다.
09:27
This is a very, very complicated, very non-linear operation;
196
567080
3326
이것은 매우 매우 복잡한 비선형 연산이고
09:30
it has no inverse.
197
570430
1704
역으로 계산할 수 없습니다.
09:32
So we have to figure out a way to solve the equation
198
572158
3150
그래서 우리는 이 공식을 나누지 않고 해결할 방법을
09:35
without a division operator.
199
575332
2024
찾아야 합니다.
09:37
And the way to do that is fairly straightforward.
200
577380
2343
그리고 그 방법은 매우 간단합니다.
09:39
You just say, let's play a little algebra trick,
201
579747
2671
대수학을 조금 이용해
09:42
and move the six over to the right-hand side of the equation.
202
582442
2906
6을 공식의 우변으로 옮기겠습니다.
09:45
Now, we're still using multiplication.
203
585372
1826
이러면 곱하기만 사용할 수 있습니다.
09:47
And that zero -- let's think about it as an error.
204
587675
3580
그리고 0은 오류라고 생각합시다.
09:51
In other words, if we've solved for w the right way,
205
591279
2515
다시 말해, 우리가 w를 해결해서 정답이 나오면
09:53
then the error will be zero.
206
593818
1656
오류가 0이 될 것이고
09:55
And if we haven't gotten it quite right,
207
595498
1938
우리가 잘못된 값을 구했다면
09:57
the error will be greater than zero.
208
597460
1749
오류가 0보다 커질 것입니다.
09:59
So now we can just take guesses to minimize the error,
209
599233
3366
이제 우리가 추측해서 오류를 최소화할 수 있습니다.
10:02
and that's the sort of thing computers are very good at.
210
602623
2687
그리고 이런 것은 컴퓨터가 아주 잘하는 일이죠.
10:05
So you've taken an initial guess:
211
605334
1593
그래서 최초의 추측으로
10:06
what if w = 0?
212
606951
1156
w가 0이라면
10:08
Well, then the error is 6.
213
608131
1240
오류는 6입니다.
10:09
What if w = 1? The error is 4.
214
609395
1446
w가 1이면 오류는 4입니다.
10:10
And then the computer can sort of play Marco Polo,
215
610865
2367
컴퓨터가 계속 마르코 폴로같이 여행하면
10:13
and drive down the error close to zero.
216
613256
2367
오류가 0에 가까워질 것입니다.
10:15
As it does that, it's getting successive approximations to w.
217
615647
3374
그러면서 컴퓨터가 성공적으로 w 값의 근사치를 얻어가는 것입니다.
10:19
Typically, it never quite gets there, but after about a dozen steps,
218
619045
3656
전형적으로 정확한 값을 얻진 못하지만 수십 단계가 지나면
10:22
we're up to w = 2.999, which is close enough.
219
622725
4624
w는 2.999를 얻게 되고 이는 충분히 근접한 값입니다.
10:28
And this is the learning process.
220
628302
1814
그리고 이것이 학습 과정입니다.
10:30
So remember that what's been going on here
221
630140
2730
지금까지 이야기한 것은
10:32
is that we've been taking a lot of known x's and known y's
222
632894
4378
수많은 x와 y 값을 알고 있고
10:37
and solving for the w in the middle through an iterative process.
223
637296
3454
가운데 w 값을 추론 과정에서 알아내고 있습니다.
10:40
It's exactly the same way that we do our own learning.
224
640774
3556
이는 우리의 뇌가 학습하는 과정과 같습니다.
10:44
We have many, many images as babies
225
644354
2230
우리는 어릴 적 수많은 이미지를 접하고
10:46
and we get told, "This is a bird; this is not a bird."
226
646608
2633
"이것은 새다, 이것은 새가 아니다" 라고 듣습니다.
10:49
And over time, through iteration,
227
649714
2098
그리고 시간이 흘러 반복하면서
10:51
we solve for w, we solve for those neural connections.
228
651836
2928
w를 알아내죠. 신경 연결을 해결하는 것입니다.
10:55
So now, we've held x and w fixed to solve for y;
229
655460
4086
이제 우리는 고정된 x와 w값으로 y를 구합니다.
10:59
that's everyday, fast perception.
230
659570
1847
이것은 매일 우리가 하는 인식입니다.
11:01
We figure out how we can solve for w,
231
661441
1763
w 값을 구하는 과정은
11:03
that's learning, which is a lot harder,
232
663228
1903
학습이고 더 어렵습니다.
11:05
because we need to do error minimization,
233
665155
1985
왜냐면 많은 훈련 예시를 통해
11:07
using a lot of training examples.
234
667164
1687
오류를 최소화 해야 하기 때문이죠.
11:08
And about a year ago, Alex Mordvintsev, on our team,
235
668875
3187
약 1년 전에 저희 팀의 알렉스 모드빈츠세프는
11:12
decided to experiment with what happens if we try solving for x,
236
672086
3550
우리가 x를 구하면 어떻게 되는지 실험하기로 했습니다.
11:15
given a known w and a known y.
237
675660
2037
w와 y 값을 알고 있다는 조건에서 말이죠.
11:18
In other words,
238
678124
1151
다시 말하자면
11:19
you know that it's a bird,
239
679299
1352
새라는 것을 알고
11:20
and you already have your neural network that you've trained on birds,
240
680675
3303
새라는 것을 인식할 수 있는 신경망이 구축된 상태에서
11:24
but what is the picture of a bird?
241
684002
2344
새의 모습을 알아내는 것입니다.
11:27
It turns out that by using exactly the same error-minimization procedure,
242
687034
5024
똑같은 오류 최소화 과정을 거쳐
11:32
one can do that with the network trained to recognize birds,
243
692082
3430
컴퓨터가 새를 인식할 수 있는 네트워크를 통해
11:35
and the result turns out to be ...
244
695536
3388
만들어낸 결과는
11:42
a picture of birds.
245
702400
1305
새의 그림입니다.
11:44
So this is a picture of birds generated entirely by a neural network
246
704814
3737
이 그림은 전적으로 새를 인식할 수 있는
11:48
that was trained to recognize birds,
247
708575
1826
신경 네트워크를 통해
11:50
just by solving for x rather than solving for y,
248
710425
3538
y 값을 구하는 대신 x 값을
11:53
and doing that iteratively.
249
713987
1288
추론하여 구현됬습니다.
11:55
Here's another fun example.
250
715732
1847
다른 재미있는 예를 보여드리면
11:57
This was a work made by Mike Tyka in our group,
251
717603
3437
이것은 저희 그룹의 마이크 티카의 작품입니다.
12:01
which he calls "Animal Parade."
252
721064
2308
이 작품의 제목은 "동물 행진"입니다.
12:03
It reminds me a little bit of William Kentridge's artworks,
253
723396
2876
이것을 보고 윌리엄 켄트리지의 작품이 떠올랐습니다.
12:06
in which he makes sketches, rubs them out,
254
726296
2489
그는 스케치를 그렸다가 지우고
12:08
makes sketches, rubs them out,
255
728809
1460
그렸다가 지워가며
12:10
and creates a movie this way.
256
730293
1398
이런 식으로 영상을 만들죠.
12:11
In this case,
257
731715
1151
이 경우에는
12:12
what Mike is doing is varying y over the space of different animals,
258
732890
3277
마이크가 한 것은 변수 y를 다양한 동물들로 설정했습니다.
12:16
in a network designed to recognize and distinguish
259
736191
2382
서로 다른 동물들을 구분할 수 있도록
12:18
different animals from each other.
260
738597
1810
설계된 네트워크 안에서 말이죠.
12:20
And you get this strange, Escher-like morph from one animal to another.
261
740431
3751
그렇게 이런 희안한 에셔 풍의 동물들이 변하는 그림이 나옵니다.
12:26
Here he and Alex together have tried reducing
262
746221
4614
여기서 마이크와 알렉스는
12:30
the y's to a space of only two dimensions,
263
750859
2759
y 값을 줄여 2차원 평면에 표현했습니다.
12:33
thereby making a map out of the space of all things
264
753642
3438
그렇게 이 네트워크가 인식할 수 있는
12:37
recognized by this network.
265
757104
1719
모든 종류를 나타내는 지도를 만들었습니다.
12:38
Doing this kind of synthesis
266
758847
2023
이런 종류의 이미지 통합
12:40
or generation of imagery over that entire surface,
267
760894
2382
혹은 생성은 표면 전반에 걸쳐
12:43
varying y over the surface, you make a kind of map --
268
763300
2846
y를 다르게 해서 이런 지도를 만듭니다.
12:46
a visual map of all the things the network knows how to recognize.
269
766170
3141
네트워크가 인식하는 모든 것의 시각적 지도입니다.
12:49
The animals are all here; "armadillo" is right in that spot.
270
769335
2865
모든 동물이 있습니다. 저기 "아르마딜로"가 있습니다.
12:52
You can do this with other kinds of networks as well.
271
772919
2479
이것을 다른 네트워크로 할 수 있습니다.
12:55
This is a network designed to recognize faces,
272
775422
2874
이 네트워크는 얼굴을 인식하도록 설계됬습니다.
12:58
to distinguish one face from another.
273
778320
2000
서로 다른 얼굴을 구분하도록 말이죠.
13:00
And here, we're putting in a y that says, "me,"
274
780344
3249
여기서 저희가 y에 "저"를 넣었습니다.
13:03
my own face parameters.
275
783617
1575
제 얼굴을 변수로 말이죠.
13:05
And when this thing solves for x,
276
785216
1706
그리고 이것이 x를 구하면
13:06
it generates this rather crazy,
277
786946
2618
이런 상당히 정신없고
13:09
kind of cubist, surreal, psychedelic picture of me
278
789588
4428
약간은 입체파, 초현실주의, 사이키델릭한 제 사진을 만듭니다.
13:14
from multiple points of view at once.
279
794040
1806
여러 모습을 한 번에 보여주면서요.
13:15
The reason it looks like multiple points of view at once
280
795870
2734
여러 모습을 한 번에 보여주는 이유는
13:18
is because that network is designed to get rid of the ambiguity
281
798628
3687
네트워크의 설계에서 얼굴의 한 모습에서 다른 모습으로
13:22
of a face being in one pose or another pose,
282
802339
2476
넘어가는 모호한 과정이 제거되었기 때문입니다.
13:24
being looked at with one kind of lighting, another kind of lighting.
283
804839
3376
특정 각도의 얼굴을 보는 것입니다.
13:28
So when you do this sort of reconstruction,
284
808239
2085
그래서 이것을 재구성할 때
13:30
if you don't use some sort of guide image
285
810348
2304
가이드 이미지나 통계를
13:32
or guide statistics,
286
812676
1211
사용하지 않으면
13:33
then you'll get a sort of confusion of different points of view,
287
813911
3765
이런 혼란스러운 시점들이 나옵니다.
13:37
because it's ambiguous.
288
817700
1368
모호하기 떄문이죠.
13:39
This is what happens if Alex uses his own face as a guide image
289
819786
4223
이것은 알렉스가 본인 얼굴을 가이드로 이용해
13:44
during that optimization process to reconstruct my own face.
290
824033
3321
최적화 과정을 거쳐 제 얼굴을 만든 것입니다.
13:48
So you can see it's not perfect.
291
828284
2328
보시다시피 완벽하진 않습니다.
13:50
There's still quite a lot of work to do
292
830636
1874
어떻게 최적화를 해야 할지
13:52
on how we optimize that optimization process.
293
832534
2453
아직도 갈 길이 멉니다.
13:55
But you start to get something more like a coherent face,
294
835011
2827
하지만 제 얼굴을 가이드로 쓰면
13:57
rendered using my own face as a guide.
295
837862
2014
더 일관된 얼굴을 구할 수 있습니다.
14:00
You don't have to start with a blank canvas
296
840892
2501
굳이 빈 캔버스로 시작하지 않아도 됩니다.
14:03
or with white noise.
297
843417
1156
혹은 백색 잡음으로요.
14:04
When you're solving for x,
298
844597
1304
x를 구할 때
14:05
you can begin with an x, that is itself already some other image.
299
845925
3889
이미 그려진 그림 위에 x를 구해도 됩니다.
14:09
That's what this little demonstration is.
300
849838
2556
이것이 바로 그 예입니다.
14:12
This is a network that is designed to categorize
301
852418
4122
이 네트워크는 온갖 물체를 구분하도록
14:16
all sorts of different objects -- man-made structures, animals ...
302
856564
3119
설계되었습니다. 인조물이나 동물 등을 말이죠.
14:19
Here we're starting with just a picture of clouds,
303
859707
2593
여기서 저희는 구름 사진을 이용했습니다.
14:22
and as we optimize,
304
862324
1671
그리고 저희가 최적화를 하면
14:24
basically, this network is figuring out what it sees in the clouds.
305
864019
4486
기본적으로 이 네트워크는 구름에서 무엇이 보이는지 구분합니다.
14:28
And the more time you spend looking at this,
306
868931
2320
그리고 이것을 더 자세히 보시면
14:31
the more things you also will see in the clouds.
307
871275
2753
구름에서 더 다양한 것을 볼 수 있습니다.
14:35
You could also use the face network to hallucinate into this,
308
875004
3375
여기서 얼굴을 인식하는 네트워크로 환각을 만들면
14:38
and you get some pretty crazy stuff.
309
878403
1812
꽤나 정신없는 그림이 나옵니다.
14:40
(Laughter)
310
880239
1150
(웃음)
14:42
Or, Mike has done some other experiments
311
882401
2744
혹은 마이크가 다른 시도를 했습니다.
14:45
in which he takes that cloud image,
312
885169
3905
바로 구름 그림을 이용해
14:49
hallucinates, zooms, hallucinates, zooms hallucinates, zooms.
313
889098
3507
환각을 만들고 확대하고 환각을 만들고 확대했습니다.
14:52
And in this way,
314
892629
1151
그리고 이렇게
14:53
you can get a sort of fugue state of the network, I suppose,
315
893804
3675
방황하는 것처럼 보이는 네트워크나
14:57
or a sort of free association,
316
897503
3680
자유 연상의 일종으로
15:01
in which the network is eating its own tail.
317
901207
2227
네트워크가 스스로 꼬리를 물게 됩니다.
15:03
So every image is now the basis for,
318
903458
3421
그래서 모든 이미지의 기본은 이렇습니다.
15:06
"What do I think I see next?
319
906903
1421
"다음에는 무엇이 보이지?
15:08
What do I think I see next? What do I think I see next?"
320
908348
2803
다음에는 무엇이 보이지? 다음에는 무엇이 보이지?"
15:11
I showed this for the first time in public
321
911487
2936
이것을 최초로 공개한 곳은
15:14
to a group at a lecture in Seattle called "Higher Education" --
322
914447
5437
시애틀의 "고등 교육"그룹의 강연에서였습니다.
15:19
this was right after marijuana was legalized.
323
919908
2437
마리화나가 합법화 된 직후에 말이죠.
15:22
(Laughter)
324
922369
2415
(웃음)
15:26
So I'd like to finish up quickly
325
926627
2104
그래서 정리를 짧게 하겠습니다.
15:28
by just noting that this technology is not constrained.
326
928755
4255
이 기술에 제약이 없다는 것을 말하면서 말이죠.
15:33
I've shown you purely visual examples because they're really fun to look at.
327
933034
3665
순전히 시각자료를 보여드린 이유는 흥미를 유발하기 위해서 입니다.
15:36
It's not a purely visual technology.
328
936723
2451
이것은 순전히 시각 기술만은 아닙니다.
15:39
Our artist collaborator, Ross Goodwin,
329
939198
1993
저희와 함께 일하는 아티스트 로스 굿윈은
15:41
has done experiments involving a camera that takes a picture,
330
941215
3671
실험을 했습니다. 사진을 찍는 사진기와
15:44
and then a computer in his backpack writes a poem using neural networks,
331
944910
4234
등에 매고 있는 컴퓨터로 신경 네트워크를 이용해 시를 썼습니다.
15:49
based on the contents of the image.
332
949168
1944
사진에 찍힌 내용을 보고 말이죠.
15:51
And that poetry neural network has been trained
333
951136
2947
그리고 시인 신경 네트워크는
15:54
on a large corpus of 20th-century poetry.
334
954107
2234
20세기 시의 집대성으로 훈련됬습니다.
15:56
And the poetry is, you know,
335
956365
1499
그리고 결과로 나온 시는 말이죠
15:57
I think, kind of not bad, actually.
336
957888
1914
사실 제 생각엔 나쁘지 않아 보입니다.
15:59
(Laughter)
337
959826
1384
(웃음)
16:01
In closing,
338
961234
1159
마지막으로
16:02
I think that per Michelangelo,
339
962417
2132
저는 미켈란젤로의 생각이
16:04
I think he was right;
340
964573
1234
옳았다고 생각합니다.
16:05
perception and creativity are very intimately connected.
341
965831
3436
인식과 창의성은 매우 밀접하게 연결되어 있습니다.
16:09
What we've just seen are neural networks
342
969611
2634
지금까지 보신 것은 신경 네트워크 입니다.
16:12
that are entirely trained to discriminate,
343
972269
2303
전적으로 훈련이 되어 구분하거나
16:14
or to recognize different things in the world,
344
974596
2242
혹은 다른 것들을 인식하거나
16:16
able to be run in reverse, to generate.
345
976862
3161
반대로 적용하여 만들어 낼 수 있습니다.
16:20
One of the things that suggests to me
346
980047
1783
이것을 보고 느낀 점 중에 하나는
16:21
is not only that Michelangelo really did see
347
981854
2398
미켈란젤로가 정말로 본 것은
16:24
the sculpture in the blocks of stone,
348
984276
2452
돌덩이 안에 있는 조각상뿐만 아니라
16:26
but that any creature, any being, any alien
349
986752
3638
어떤 생물, 생명 심지어 외계인도
16:30
that is able to do perceptual acts of that sort
350
990414
3657
인식행위를 할 수 있으면
16:34
is also able to create
351
994095
1375
창조할 수 있다는 것 입니다.
16:35
because it's exactly the same machinery that's used in both cases.
352
995494
3224
두 경우 모두 같은 조작과정을 사용하기 때문이죠.
16:38
Also, I think that perception and creativity are by no means
353
998742
4532
또한 저는 인식과 창의성은 결코 인간에 국한되지 않는다고
16:43
uniquely human.
354
1003298
1210
생각합니다.
16:44
We start to have computer models that can do exactly these sorts of things.
355
1004532
3708
저희는 똑같은 일을 할 수 있는 컴퓨터 모델을 만들었고
16:48
And that ought to be unsurprising; the brain is computational.
356
1008264
3328
그리고 그 뇌가 컴퓨터로 만들어 졌다는 것은 놀랄 일도 아닙니다.
16:51
And finally,
357
1011616
1657
그리고 마지막으로
16:53
computing began as an exercise in designing intelligent machinery.
358
1013297
4668
컴퓨터는 지능적 기계를 설계하면서 시작되었습니다.
16:57
It was very much modeled after the idea
359
1017989
2462
이것은 이런 생각을 따라 만들어졌습니다.
17:00
of how could we make machines intelligent.
360
1020475
3013
어떻게 하면 우리가 기계를 똑똑하게 만들지 말이죠.
17:03
And we finally are starting to fulfill now
361
1023512
2162
그리고 이제 선구자들과 한
17:05
some of the promises of those early pioneers,
362
1025698
2406
약속 중에 일부를 이뤄가고 있습니다.
17:08
of Turing and von Neumann
363
1028128
1713
튜링, 폰 노이만
17:09
and McCulloch and Pitts.
364
1029865
2265
매컬로크 그리고 피트에게 말이죠.
17:12
And I think that computing is not just about accounting
365
1032154
4098
그리고 저는 컴퓨터는 회계나 게임 할 때만 쓰는 것이
17:16
or playing Candy Crush or something.
366
1036276
2147
아니라고 생각합니다.
17:18
From the beginning, we modeled them after our minds.
367
1038447
2578
시작부터 인간을 본따 컴퓨터를 만들었고
17:21
And they give us both the ability to understand our own minds better
368
1041049
3269
그리고 그 과정에서 인간의 마음을 더 잘 이해하고
17:24
and to extend them.
369
1044342
1529
더 넓히게 되었습니다.
17:26
Thank you very much.
370
1046627
1167
감사합니다.
17:27
(Applause)
371
1047818
5939
(박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7