How computers are learning to be creative | Blaise Agüera y Arcas

448,067 views ・ 2016-07-22

TED


Dubbelklik op de Engelse ondertitels hieronder om de video af te spelen.

Vertaald door: Dries Van der Smissen Nagekeken door: Peter van de Ven
00:12
So, I lead a team at Google that works on machine intelligence;
0
12800
3124
Ik leid het onderzoeksteam naar machine-intelligentie bij Google.
00:15
in other words, the engineering discipline of making computers and devices
1
15948
4650
Dat is de wetenschap die computers en andere apparaten in staat wil stellen
00:20
able to do some of the things that brains do.
2
20622
2419
om dezelfde dingen te doen die onze hersenen kunnen.
00:23
And this makes us interested in real brains
3
23439
3099
Daarom zijn we geïnteresseerd in echte hersenen
00:26
and neuroscience as well,
4
26562
1289
en in neurowetenschappen.
00:27
and especially interested in the things that our brains do
5
27875
4172
We zijn zeer geïnteresseerd in alles wat onze hersenen kunnen,
00:32
that are still far superior to the performance of computers.
6
32071
4042
maar wat voor computers nog veel te ingewikkeld is.
00:37
Historically, one of those areas has been perception,
7
37209
3609
Eén van deze onderzoeksgebieden is altijd al waarneming geweest,
00:40
the process by which things out there in the world --
8
40842
3039
het proces waarbij dingen in de buitenwereld,
00:43
sounds and images --
9
43905
1584
zoals geluiden en beelden,
00:45
can turn into concepts in the mind.
10
45513
2178
in onze hersenen kunnen veranderen in concepten.
00:48
This is essential for our own brains,
11
48235
2517
Dat is een belangrijke taak van onze hersenen.
00:50
and it's also pretty useful on a computer.
12
50776
2464
Maar het is ook handig voor een computer.
00:53
The machine perception algorithms, for example, that our team makes,
13
53636
3350
De perceptie-algoritmes die we schrijven voor machines, bijvoorbeeld,
00:57
are what enable your pictures on Google Photos to become searchable,
14
57010
3874
maken het mogelijk om foto's op te zoeken in Google Photos,
01:00
based on what's in them.
15
60908
1397
volgens wat erop te zien is.
01:03
The flip side of perception is creativity:
16
63594
3493
De keerzijde van perceptie is creativiteit.
01:07
turning a concept into something out there into the world.
17
67111
3038
Hierbij worden concepten omgezet in iets in de echte wereld.
01:10
So over the past year, our work on machine perception
18
70173
3555
Het afgelopen jaar is ons werk over machinewaarneming
01:13
has also unexpectedly connected with the world of machine creativity
19
73752
4859
ook onverwacht in verband geraakt met de wereld van machine-creativiteit,
01:18
and machine art.
20
78635
1160
en machinekunst.
01:20
I think Michelangelo had a penetrating insight
21
80556
3284
Volgens mij had Michelangelo een diepzinnig inzicht
01:23
into to this dual relationship between perception and creativity.
22
83864
3656
in deze duale verhouding tussen waarneming en creativiteit.
01:28
This is a famous quote of his:
23
88023
2006
Dit is één van zijn beroemde citaten:
01:30
"Every block of stone has a statue inside of it,
24
90053
3323
"In iedere blok steen zit een standbeeld verborgen...
01:34
and the job of the sculptor is to discover it."
25
94036
3002
De taak van de beeldhouwer is om dat eruit te halen."
01:38
So I think that what Michelangelo was getting at
26
98029
3216
Ik denk dat Michelangelo bedoelde
01:41
is that we create by perceiving,
27
101269
3180
dat we door waar te nemen zelf gaan creëren.
01:44
and that perception itself is an act of imagination
28
104473
3023
En dat waarneming zelf een manier van inbeelding is.
01:47
and is the stuff of creativity.
29
107520
2461
En daar draait het om bij creativiteit.
01:50
The organ that does all the thinking and perceiving and imagining,
30
110691
3925
Het orgaan dat verantwoordelijk is voor de waarneming en inbeelding
01:54
of course, is the brain.
31
114640
1588
zijn de hersenen, natuurlijk.
01:57
And I'd like to begin with a brief bit of history
32
117089
2545
En ik zou willen beginnen met een korte geschiedenis
01:59
about what we know about brains.
33
119658
2302
van wat we weten over onze hersenen.
02:02
Because unlike, say, the heart or the intestines,
34
122496
2446
In tegenstelling tot het hart of de darmen
02:04
you really can't say very much about a brain by just looking at it,
35
124966
3144
zijn de hersenen niet veelzeggend als je er gewoon naar kijkt,
02:08
at least with the naked eye.
36
128134
1412
althans niet met het blote oog.
02:09
The early anatomists who looked at brains
37
129983
2416
De eerste anatomisten die de hersenen bestudeerden,
02:12
gave the superficial structures of this thing all kinds of fanciful names,
38
132423
3807
hebben veel namen gegeven aan de oppervlaktestructuren van de hersenen,
02:16
like hippocampus, meaning "little shrimp."
39
136254
2433
zoals de hippocampus, of 'kleine garnaal'.
02:18
But of course that sort of thing doesn't tell us very much
40
138711
2764
Maar die benamingen zeggen ons natuurlijk niet veel
02:21
about what's actually going on inside.
41
141499
2318
over wat er aan de binnenkant gebeurt.
02:24
The first person who, I think, really developed some kind of insight
42
144780
3613
De eerste persoon die, denk ik, een eerste inzicht bracht
02:28
into what was going on in the brain
43
148417
1930
over wat er echt gebeurt in de hersenen,
02:30
was the great Spanish neuroanatomist, Santiago Ramón y Cajal,
44
150371
3920
was de grote Spaanse neuro-anatomist, Santiago Ramón y Cajal,
02:34
in the 19th century,
45
154315
1544
in de negentiende eeuw.
02:35
who used microscopy and special stains
46
155883
3755
Hij gebruikte microscopen en speciale beitsen
02:39
that could selectively fill in or render in very high contrast
47
159662
4170
die individuele hersencellen selectief konden opvullen
02:43
the individual cells in the brain,
48
163856
2008
of in contrast konden weergeven,
02:45
in order to start to understand their morphologies.
49
165888
3154
zodat hij hun morfologie kon onderzoeken.
02:49
And these are the kinds of drawings that he made of neurons
50
169972
2891
Dit zijn de soort tekeningen die hij maakte van neuronen
02:52
in the 19th century.
51
172887
1209
in de negentiende eeuw.
02:54
This is from a bird brain.
52
174120
1884
Dit komt van de hersenen van een vogel.
02:56
And you see this incredible variety of different sorts of cells,
53
176028
3057
Je ziet hier de geweldige verscheidenheid aan soorten cellen.
02:59
even the cellular theory itself was quite new at this point.
54
179109
3435
Zelfs de cellentheorie was nogal nieuw op dat moment.
03:02
And these structures,
55
182568
1278
Deze structuren...
03:03
these cells that have these arborizations,
56
183870
2259
die cellen met hun boomstructuur,
03:06
these branches that can go very, very long distances --
57
186153
2608
en vertakkingen die zeer uitgestrekt kunnen zijn.
03:08
this was very novel at the time.
58
188785
1616
Dat was heel vernieuwend toen.
03:10
They're reminiscent, of course, of wires.
59
190779
2903
Ze doen ons natuurlijk denken aan kabels.
03:13
That might have been obvious to some people in the 19th century;
60
193706
3457
Misschien dachten enkele mensen dit ook al in de negentiende eeuw.
03:17
the revolutions of wiring and electricity were just getting underway.
61
197187
4314
De revolutie van de elektriciteit en de bedrading waren in volle gang.
03:21
But in many ways,
62
201964
1178
Maar in vele opzichten
03:23
these microanatomical drawings of Ramón y Cajal's, like this one,
63
203166
3313
zijn de micro-analytische tekeningen van Ramón y Calal, zoals deze,
03:26
they're still in some ways unsurpassed.
64
206503
2332
in veel opzichten nog steeds onovertroffen.
03:28
We're still more than a century later,
65
208859
1854
Meer dan een eeuw later
03:30
trying to finish the job that Ramón y Cajal started.
66
210737
2825
zetten we nog steeds het werk van Ramón y Cajal verder.
03:33
These are raw data from our collaborators
67
213586
3134
Dit zijn de ruwe gegevens van onze collega's
03:36
at the Max Planck Institute of Neuroscience.
68
216744
2881
in het Max Planck Institute of Neuroscience.
03:39
And what our collaborators have done
69
219649
1790
Daar hebben onze collega's
03:41
is to image little pieces of brain tissue.
70
221463
5001
kleine deeltjes van het hersenweefsel in beeld gebracht.
03:46
The entire sample here is about one cubic millimeter in size,
71
226488
3326
Het volledige monster is ongeveer één kubieke millimeter groot.
03:49
and I'm showing you a very, very small piece of it here.
72
229838
2621
En dit is een heel klein stukje daarvan.
03:52
That bar on the left is about one micron.
73
232483
2346
Het staafje links is ongeveer één micron groot.
03:54
The structures you see are mitochondria
74
234853
2409
Deze structuren hier, zijn mitochondriën.
03:57
that are the size of bacteria.
75
237286
2044
Ze zijn zowat de grootte van een bacterie.
03:59
And these are consecutive slices
76
239354
1551
En dit zijn de volgende plakken
04:00
through this very, very tiny block of tissue.
77
240929
3148
in dit zeer kleine blokje weefsel.
04:04
Just for comparison's sake,
78
244101
2403
Om even te vergelijken...
04:06
the diameter of an average strand of hair is about 100 microns.
79
246528
3792
De doorsnede van een haar is gemiddeld zo'n honderd micron.
04:10
So we're looking at something much, much smaller
80
250344
2274
Dit is dus veel, veel kleiner
04:12
than a single strand of hair.
81
252642
1398
dan één enkel haartje.
04:14
And from these kinds of serial electron microscopy slices,
82
254064
4031
Uit deze reeksen elektro- microscopische beelden
04:18
one can start to make reconstructions in 3D of neurons that look like these.
83
258119
5008
kunnen we 3D-modellen maken van neuronen, die er dan als volgt uitzien:
04:23
So these are sort of in the same style as Ramón y Cajal.
84
263151
3157
ze zijn gemaakt in dezelfde stijl als Ramón y Cajals tekeningen.
04:26
Only a few neurons lit up,
85
266332
1492
Je ziet maar een paar neuronen,
04:27
because otherwise we wouldn't be able to see anything here.
86
267848
2781
anders zou het zo druk worden dat je niets meer ziet.
04:30
It would be so crowded,
87
270653
1312
Het zou zo opeengepakt zijn,
04:31
so full of structure,
88
271989
1330
vol van structuren,
04:33
of wiring all connecting one neuron to another.
89
273343
2724
bekabeling die de neuronen met elkaar verbindt.
04:37
So Ramón y Cajal was a little bit ahead of his time,
90
277293
2804
Ramón y Cajal was zijn tijd wat vooruit
04:40
and progress on understanding the brain
91
280121
2555
en de vooruitgang van onze kennis van de hersenen
04:42
proceeded slowly over the next few decades.
92
282700
2271
evolueerde maar traag in de volgende decennia.
04:45
But we knew that neurons used electricity,
93
285455
2853
Maar we wisten dat neuronen elektriciteit gebruikten.
04:48
and by World War II, our technology was advanced enough
94
288332
2936
Tegen WO II was onze technologie geavanceerd genoeg
04:51
to start doing real electrical experiments on live neurons
95
291292
2806
om met elektriciteit te experimenteren op levende neuronen,
04:54
to better understand how they worked.
96
294122
2106
om beter te begrijpen hoe ze functioneren.
04:56
This was the very same time when computers were being invented,
97
296631
4356
In diezelfde periode werd de computer uitgevonden.
Computers zijn gebaseerd op het idee dat het brein moduleerbaar is.
05:01
very much based on the idea of modeling the brain --
98
301011
3100
05:04
of "intelligent machinery," as Alan Turing called it,
99
304135
3085
De 'intelligente machine', in termen van Alan Turing,
05:07
one of the fathers of computer science.
100
307244
1991
een grondlegger van de computerwetenschap.
05:09
Warren McCulloch and Walter Pitts looked at Ramón y Cajal's drawing
101
309923
4632
Warren McCulloch en Walter Pitts bestudeerden Ramón y Cayals tekening
05:14
of visual cortex,
102
314579
1317
van de visuele cortex,
05:15
which I'm showing here.
103
315920
1562
die je hier ziet.
05:17
This is the cortex that processes imagery that comes from the eye.
104
317506
4442
De cortex verwerkt de beelden die binnenkomen via het oog.
05:22
And for them, this looked like a circuit diagram.
105
322424
3508
Het zag er volgens hen uit als een schakelschema.
05:26
So there are a lot of details in McCulloch and Pitts's circuit diagram
106
326353
3835
Het schakelschema van McCullough en Pitt bevat veel details
05:30
that are not quite right.
107
330212
1352
die niet helemaal kloppen.
05:31
But this basic idea
108
331588
1235
Maar het basisidee
05:32
that visual cortex works like a series of computational elements
109
332847
3992
dat de visuele cortex werkt als een reeks computeronderdelen
05:36
that pass information one to the next in a cascade,
110
336863
2746
die informatie doorgeven van één niveau naar het andere
05:39
is essentially correct.
111
339633
1602
is in essentie correct.
05:41
Let's talk for a moment
112
341259
2350
Laat me het even hebben
05:43
about what a model for processing visual information would need to do.
113
343633
4032
over wat een model dat visuele info wil verwerken moet kunnen doen.
05:48
The basic task of perception
114
348228
2741
De kerntaak van perceptie
05:50
is to take an image like this one and say,
115
350993
4194
is om naar een afbeelding te kijken en te zeggen:
05:55
"That's a bird,"
116
355211
1176
"Dat is een vogel."
05:56
which is a very simple thing for us to do with our brains.
117
356411
2874
Dat is zeer eenvoudig voor onze hersenen,
05:59
But you should all understand that for a computer,
118
359309
3421
maar je moet begrijpen dat tot voor enkele jaren geleden,
06:02
this was pretty much impossible just a few years ago.
119
362754
3087
dit vrijwel onmogelijk was voor een computer.
06:05
The classical computing paradigm
120
365865
1916
Binnen het klassieke computermodel
06:07
is not one in which this task is easy to do.
121
367805
2507
is dat geen eenvoudige taak.
06:11
So what's going on between the pixels,
122
371366
2552
Wat gebeurt er nu tussen de pixels,
06:13
between the image of the bird and the word "bird,"
123
373942
4028
de afbeelding van een vogel, en het woord 'vogel'?
06:17
is essentially a set of neurons connected to each other
124
377994
2814
Een reeks neuronen zijn met elkaar verbonden
06:20
in a neural network,
125
380832
1155
in een neuraal netwerk,
zoals op deze schets hier.
06:22
as I'm diagramming here.
126
382011
1223
06:23
This neural network could be biological, inside our visual cortices,
127
383258
3272
Dit neuraal netwerk kan biologisch zijn, binnen onze visuele cortex,
06:26
or, nowadays, we start to have the capability
128
386554
2162
maar tegenwoordig zijn we in staat
06:28
to model such neural networks on the computer.
129
388740
2454
om neurale netwerken na te maken op de computer.
06:31
And I'll show you what that actually looks like.
130
391834
2353
Ik zal jullie laten zien hoe dat eruitziet.
06:34
So the pixels you can think about as a first layer of neurons,
131
394211
3416
De pixels kan je zien als de eerste laag neuronen.
06:37
and that's, in fact, how it works in the eye --
132
397651
2239
Hier zie je in feite de werking van het oog.
06:39
that's the neurons in the retina.
133
399914
1663
Dat zijn de neuronen in het netvlies.
06:41
And those feed forward
134
401601
1500
Deze geven hun informatie door
06:43
into one layer after another layer, after another layer of neurons,
135
403125
3403
naar de volgende lagen neuronen.
06:46
all connected by synapses of different weights.
136
406552
3033
Ze zijn verbonden met zenuwknopen van verschillende groottes.
06:49
The behavior of this network
137
409609
1335
Het gedrag van dit netwerk
06:50
is characterized by the strengths of all of those synapses.
138
410968
3284
wordt gekenmerkt door de kracht van al deze zenuwknopen.
06:54
Those characterize the computational properties of this network.
139
414276
3288
Zij bepalen de computationele eigenschappen van dat netwerk.
06:57
And at the end of the day,
140
417588
1470
Op het einde van de rit
06:59
you have a neuron or a small group of neurons
141
419082
2447
is er een neuron, of een kleine groep neuronen
07:01
that light up, saying, "bird."
142
421553
1647
die oplichten en zeggen: "Vogel."
07:03
Now I'm going to represent those three things --
143
423824
3132
Ik wil nu deze drie dingen,
07:06
the input pixels and the synapses in the neural network,
144
426980
4696
de pixels en de synaps van het neuronennetwerk, of de input,
07:11
and bird, the output --
145
431700
1585
en de vogel, of de output,
07:13
by three variables: x, w and y.
146
433309
3057
voorstellen door de variabelen x, w en y.
07:16
There are maybe a million or so x's --
147
436853
1811
Er zit misschien wel een miljoen x'en,
07:18
a million pixels in that image.
148
438688
1953
of pixels, in deze afbeelding.
07:20
There are billions or trillions of w's,
149
440665
2446
En een miljard, of triljard w's.
07:23
which represent the weights of all these synapses in the neural network.
150
443135
3421
Ze vertegenwoordigen al de zenuwknopen in het neurale netwerk.
07:26
And there's a very small number of y's,
151
446580
1875
En er zijn maar een klein aantal y's,
07:28
of outputs that that network has.
152
448479
1858
of output van het netwerk.
07:30
"Bird" is only four letters, right?
153
450361
1749
Het woord 'vogel' telt slechts vijf letters, niet?
07:33
So let's pretend that this is just a simple formula,
154
453088
3426
Laten we het even voorstellen als een simpele formule:
07:36
x "x" w = y.
155
456538
2163
x 'maal' w is gelijk aan y.
07:38
I'm putting the times in scare quotes
156
458725
2036
'Maal' staat tussen aanhalingstekens,
07:40
because what's really going on there, of course,
157
460785
2280
want in werkelijkheid gebeurt er natuurlijk
07:43
is a very complicated series of mathematical operations.
158
463089
3046
een hele reeks ingewikkelde wiskundige berekeningen.
07:47
That's one equation.
159
467172
1221
Dat is één vergelijking,
07:48
There are three variables.
160
468417
1672
met drie variabelen.
07:50
And we all know that if you have one equation,
161
470113
2726
We weten allemaal dat als je over twee variabelen beschikt
07:52
you can solve one variable by knowing the other two things.
162
472863
3642
je de derde variabele kan achterhalen.
07:57
So the problem of inference,
163
477158
3380
Dus het proces van gevolgtrekking,
08:00
that is, figuring out that the picture of a bird is a bird,
164
480562
2873
het uit de afbeelding afleiden dat dit een vogel is,
08:03
is this one:
165
483459
1274
is als volgt:
08:04
it's where y is the unknown and w and x are known.
166
484757
3459
wanneer de y de onbekende is en de w en x allebei gekend.
08:08
You know the neural network, you know the pixels.
167
488240
2459
Je hebt de neuronennetwerken en de pixels.
08:10
As you can see, that's actually a relatively straightforward problem.
168
490723
3327
Je kunt zien dat dit probleem relatief eenvoudig is.
Je vermenigvuldigt twee met drie en klaar.
08:14
You multiply two times three and you're done.
169
494074
2186
08:16
I'll show you an artificial neural network
170
496862
2123
Ik toon jullie nu een netwerk neuronen dat we gebouwd hebben
08:19
that we've built recently, doing exactly that.
171
499009
2296
om dit op te lossen.
08:21
This is running in real time on a mobile phone,
172
501634
2860
Dit werkt realtime op een mobiele telefoon.
08:24
and that's, of course, amazing in its own right,
173
504518
3313
Dat is op zich natuurlijk al verbazingwekkend,
08:27
that mobile phones can do so many billions and trillions of operations
174
507855
3468
dat een telefoon zoveel miljarden en biljarden bewerkingen kan uitvoeren
08:31
per second.
175
511347
1248
per seconde.
08:32
What you're looking at is a phone
176
512619
1615
Jullie zien hier een telefoon
08:34
looking at one after another picture of a bird,
177
514258
3547
waarop een reeks afbeeldingen verschijnen van vogels.
08:37
and actually not only saying, "Yes, it's a bird,"
178
517829
2715
Hij herkent ze niet alleen als vogels,
08:40
but identifying the species of bird with a network of this sort.
179
520568
3411
maar hij kan ook de soort identificeren met dit type netwerk.
08:44
So in that picture,
180
524890
1826
In die afbeelding
08:46
the x and the w are known, and the y is the unknown.
181
526740
3802
waren de x en de w gekend en was de y de onbekende.
08:50
I'm glossing over the very difficult part, of course,
182
530566
2508
Ik sla het ingewikkeldste deel over, natuurlijk,
08:53
which is how on earth do we figure out the w,
183
533098
3861
namelijk, hoe achterhalen we de w,
08:56
the brain that can do such a thing?
184
536983
2187
de hersenen die tot dit alles in staat zijn?
08:59
How would we ever learn such a model?
185
539194
1834
Hoe hebben we ooit zo'n model aangeleerd?
09:01
So this process of learning, of solving for w,
186
541418
3233
Dit leerproces, waarbij we de w willen oplossen,
09:04
if we were doing this with the simple equation
187
544675
2647
als we dit in een eenvoudige vergelijking gieten,
09:07
in which we think about these as numbers,
188
547346
2000
waarbij we getallen gebruiken,
09:09
we know exactly how to do that: 6 = 2 x w,
189
549370
2687
weten we wat we moeten doen: 6 is gelijk aan 2 maal w.
09:12
well, we divide by two and we're done.
190
552081
3312
We delen 6 door 2 en het zit erop.
09:16
The problem is with this operator.
191
556001
2220
Het probleem zit 'm bij deze bewerking.
09:18
So, division --
192
558823
1151
Deling...
09:19
we've used division because it's the inverse to multiplication,
193
559998
3121
We gebruiken deling, want dat is het omgekeerde van vermenigvuldiging.
09:23
but as I've just said,
194
563143
1440
Maar zoals ik zopas zei,
09:24
the multiplication is a bit of a lie here.
195
564607
2449
klopt de vermenigvuldiging hier niet echt.
09:27
This is a very, very complicated, very non-linear operation;
196
567080
3326
Dit is een zeer gecompliceerde, zeer non-lineaire bewerking,
09:30
it has no inverse.
197
570430
1704
die niet omgekeerd kan worden.
09:32
So we have to figure out a way to solve the equation
198
572158
3150
We moeten een manier vinden om die vergelijking op te lossen,
09:35
without a division operator.
199
575332
2024
zonder te moeten delen.
09:37
And the way to do that is fairly straightforward.
200
577380
2343
We doen dit op een zeer eenvoudige manier.
09:39
You just say, let's play a little algebra trick,
201
579747
2671
We spelen wat met de algebra
09:42
and move the six over to the right-hand side of the equation.
202
582442
2906
en verplaatsen de 6 naar de rechterkant van de vergelijking.
09:45
Now, we're still using multiplication.
203
585372
1826
We vermenigvuldigen nog steeds.
09:47
And that zero -- let's think about it as an error.
204
587675
3580
Maar laten we die nul de foutmarge noemen.
09:51
In other words, if we've solved for w the right way,
205
591279
2515
Met andere woorden, als we de w juist oplossen,
09:53
then the error will be zero.
206
593818
1656
dan zal die marge nul bedragen.
09:55
And if we haven't gotten it quite right,
207
595498
1938
En als de oplossing niet klopt,
09:57
the error will be greater than zero.
208
597460
1749
dan zal de marge groter zijn dan nul.
09:59
So now we can just take guesses to minimize the error,
209
599233
3366
Nu kunnen we beginnen te gokken en de foutmarge zo klein mogelijk maken,
10:02
and that's the sort of thing computers are very good at.
210
602623
2687
daar zijn computers zeer goed in.
Laten we eens gokken:
10:05
So you've taken an initial guess:
211
605334
1593
w = 0 misschien?
10:06
what if w = 0?
212
606951
1156
Dan zou de marge 6 bedragen.
10:08
Well, then the error is 6.
213
608131
1240
En als w gelijk zou zijn aan 1, dan zou de marge 4 zijn.
10:09
What if w = 1? The error is 4.
214
609395
1446
10:10
And then the computer can sort of play Marco Polo,
215
610865
2367
De computer kan blijven raden
10:13
and drive down the error close to zero.
216
613256
2367
en de foutmarge tot bijna nul reduceren.
10:15
As it does that, it's getting successive approximations to w.
217
615647
3374
En ondertussen komt hij steeds dichter bij w.
10:19
Typically, it never quite gets there, but after about a dozen steps,
218
619045
3656
Hij raakt nooit helemaal tot bij w, maar na zo'n twaalf stappen
10:22
we're up to w = 2.999, which is close enough.
219
622725
4624
zien we dat w gelijk is aan 2,999 en dat is precies genoeg.
10:28
And this is the learning process.
220
628302
1814
Dat is het leerproces.
10:30
So remember that what's been going on here
221
630140
2730
Vergeet niet wat we hier aan het doen zijn.
10:32
is that we've been taking a lot of known x's and known y's
222
632894
4378
We hebben zeer veel van die gekende x'en en y's genomen
10:37
and solving for the w in the middle through an iterative process.
223
637296
3454
en daar de w in het midden mee achterhaald door een iteratief proces.
10:40
It's exactly the same way that we do our own learning.
224
640774
3556
Wij leren op precies dezelfde manier.
10:44
We have many, many images as babies
225
644354
2230
Als baby hebben we zeer veel afbeeldingen.
10:46
and we get told, "This is a bird; this is not a bird."
226
646608
2633
Ze vertellen ons: "Dit is een vogel. Dat is geen vogel."
10:49
And over time, through iteration,
227
649714
2098
Wanneer we de bewerking eindeloos herhalen
10:51
we solve for w, we solve for those neural connections.
228
651836
2928
kunnen we de w achterhalen voor deze zenuwverbindingen.
10:55
So now, we've held x and w fixed to solve for y;
229
655460
4086
Nu hebben we naar de x en w gekeken om de y te achterhalen.
10:59
that's everyday, fast perception.
230
659570
1847
Dat is alledaagse, snelle waarneming.
11:01
We figure out how we can solve for w,
231
661441
1763
Nu willen we weten hoeveel w is.
11:03
that's learning, which is a lot harder,
232
663228
1903
Da's veel moeilijker, want dat is leren.
11:05
because we need to do error minimization,
233
665155
1985
Om de foutenmarge te beperken, hebben we veel voorbeelden nodig.
11:07
using a lot of training examples.
234
667164
1687
11:08
And about a year ago, Alex Mordvintsev, on our team,
235
668875
3187
Zo'n jaar geleden besloot iemand van ons team, Alex Mordvintsev,
11:12
decided to experiment with what happens if we try solving for x,
236
672086
3550
om eens te kijken wat er zou gebeuren als we de x probeerden op te lossen
11:15
given a known w and a known y.
237
675660
2037
als we de w en de y zouden kennen.
11:18
In other words,
238
678124
1151
Met andere woorden,
11:19
you know that it's a bird,
239
679299
1352
je weet dat het een vogel is
11:20
and you already have your neural network that you've trained on birds,
240
680675
3303
en je netwerk zenuwcellen kunnen al vogels herkennen.
11:24
but what is the picture of a bird?
241
684002
2344
Maar wat is nu een afbeelding van een vogel?
11:27
It turns out that by using exactly the same error-minimization procedure,
242
687034
5024
Blijkbaar kan je met dezelfde foutenminimalisatie-procedure,
11:32
one can do that with the network trained to recognize birds,
243
692082
3430
gebruik makend van het netwerk dat vogels kan herkennen,
11:35
and the result turns out to be ...
244
695536
3388
het volgende resultaat krijgen ...
11:42
a picture of birds.
245
702400
1305
een afbeelding van vogels.
11:44
So this is a picture of birds generated entirely by a neural network
246
704814
3737
Deze afbeelding van vogels is volledig gegenereerd door een neuraal netwerk
11:48
that was trained to recognize birds,
247
708575
1826
dat vogels kon herkennen,
11:50
just by solving for x rather than solving for y,
248
710425
3538
door simpelweg naar de x te zoeken in plaats van naar de y
11:53
and doing that iteratively.
249
713987
1288
en dat dan eindeloos te herhalen.
11:55
Here's another fun example.
250
715732
1847
Dit is nog een leuk voorbeeld.
11:57
This was a work made by Mike Tyka in our group,
251
717603
3437
Dit is het werk van Mike Tyka in onze groep.
12:01
which he calls "Animal Parade."
252
721064
2308
Hij noemt het 'Animal Parade'.
12:03
It reminds me a little bit of William Kentridge's artworks,
253
723396
2876
Het doet me wat denken aan William Kentridges' schilderijen.
12:06
in which he makes sketches, rubs them out,
254
726296
2489
Hij maakt schetsen en veegt ze uit,
12:08
makes sketches, rubs them out,
255
728809
1460
altijd maar opnieuw, en zo creëert hij een film.
12:10
and creates a movie this way.
256
730293
1398
12:11
In this case,
257
731715
1151
In dit geval probeert Mike
12:12
what Mike is doing is varying y over the space of different animals,
258
732890
3277
de y te laten variëren over de ruimte van de verschillende dieren
in een netwerk dat dieren van elkaar kan onderscheiden.
12:16
in a network designed to recognize and distinguish
259
736191
2382
12:18
different animals from each other.
260
738597
1810
En dan krijg je zo'n Escher-achtige overgang van het ene dier in het andere.
12:20
And you get this strange, Escher-like morph from one animal to another.
261
740431
3751
12:26
Here he and Alex together have tried reducing
262
746221
4614
Hier hebben hij en Alex geprobeerd om de y's terug te brengen
12:30
the y's to a space of only two dimensions,
263
750859
2759
tot een tweedimensionale ruimte.
12:33
thereby making a map out of the space of all things
264
753642
3438
De uitkomst daarvan was een kaart met daarop de ruimte van alle dingen
12:37
recognized by this network.
265
757104
1719
die dit netwerk kon herkennen.
12:38
Doing this kind of synthesis
266
758847
2023
Bij dit soort synthese
12:40
or generation of imagery over that entire surface,
267
760894
2382
of beeldweergave over die hele oppervlakte,
12:43
varying y over the surface, you make a kind of map --
268
763300
2846
waarbij de y varieert over het oppervlak,
creëer je een visuele kaart van alles wat het netwerk herkent.
12:46
a visual map of all the things the network knows how to recognize.
269
766170
3141
Alle dieren staan hierop aangeduid. Dat daar is een gordeldier.
12:49
The animals are all here; "armadillo" is right in that spot.
270
769335
2865
12:52
You can do this with other kinds of networks as well.
271
772919
2479
Dit werkt ook met andere netwerken.
12:55
This is a network designed to recognize faces,
272
775422
2874
Dit netwerk is ontwikkeld om gezichten te herkennen,
12:58
to distinguish one face from another.
273
778320
2000
om gezichten van elkaar te onderscheiden.
13:00
And here, we're putting in a y that says, "me,"
274
780344
3249
Hier hebben we de y ingevoerd die mij vertegenwoordigt.
13:03
my own face parameters.
275
783617
1575
Het zijn mijn gezichtsparameters.
13:05
And when this thing solves for x,
276
785216
1706
Als dit systeem naar x gaat zoeken,
13:06
it generates this rather crazy,
277
786946
2618
genereert het een absurd,
13:09
kind of cubist, surreal, psychedelic picture of me
278
789588
4428
nogal kubistisch, surreëel en psychedelisch beeld van mij,
13:14
from multiple points of view at once.
279
794040
1806
vanuit verschillende perspectieven.
13:15
The reason it looks like multiple points of view at once
280
795870
2734
Je ziet hier verschillende perspectieven tegelijkertijd,
13:18
is because that network is designed to get rid of the ambiguity
281
798628
3687
omdat ons netwerk zo ontworpen is dat het de dubbelzinnigheid tegengaat
13:22
of a face being in one pose or another pose,
282
802339
2476
van de verschillende mogelijke poses
13:24
being looked at with one kind of lighting, another kind of lighting.
283
804839
3376
of de verschillende mogelijke belichtingen.
13:28
So when you do this sort of reconstruction,
284
808239
2085
Als je zo'n reconstructie uitvoert
en je geen afbeelding of statistieken
13:30
if you don't use some sort of guide image
285
810348
2304
13:32
or guide statistics,
286
812676
1211
als richtlijnen gebruikt,
13:33
then you'll get a sort of confusion of different points of view,
287
813911
3765
dan krijg je een samenraapsel van 'n heleboel perspectieven,
13:37
because it's ambiguous.
288
817700
1368
want het is ambigue.
13:39
This is what happens if Alex uses his own face as a guide image
289
819786
4223
Dit is het resultaat wanneer Alex zijn eigen gezicht gebruikt als richtlijn
13:44
during that optimization process to reconstruct my own face.
290
824033
3321
tijdens het optimalisatieproces om mijn gezicht te reconstrueren.
13:48
So you can see it's not perfect.
291
828284
2328
Je ziet dat het niet perfect is.
13:50
There's still quite a lot of work to do
292
830636
1874
We hebben nog wat werk voor de boeg
13:52
on how we optimize that optimization process.
293
832534
2453
om het optimalisatieproces te optimaliseren.
13:55
But you start to get something more like a coherent face,
294
835011
2827
Maar je krijgt toch iets wat meer lijkt op een gezicht,
13:57
rendered using my own face as a guide.
295
837862
2014
met mijn gezicht als richtlijn.
14:00
You don't have to start with a blank canvas
296
840892
2501
Je hoeft niet meer te beginnen met een wit doek,
14:03
or with white noise.
297
843417
1156
of met 'witte ruis'.
14:04
When you're solving for x,
298
844597
1304
Wanneer je naar x zoekt,
14:05
you can begin with an x, that is itself already some other image.
299
845925
3889
kan je beginnen met een x die op zich al een afbeelding is.
14:09
That's what this little demonstration is.
300
849838
2556
Dat toont de volgende demo.
14:12
This is a network that is designed to categorize
301
852418
4122
Dit is een netwerk dat ontworpen is
om allerlei verschillende voorwerpen te categoriseren,
14:16
all sorts of different objects -- man-made structures, animals ...
302
856564
3119
zoals kunstmatige structuren, dieren...
14:19
Here we're starting with just a picture of clouds,
303
859707
2593
We vertrokken hier gewoon van een afbeelding van wolken.
14:22
and as we optimize,
304
862324
1671
Terwijl we het beeld optimaliseren,
14:24
basically, this network is figuring out what it sees in the clouds.
305
864019
4486
probeert het netwerk te bepalen wat het kan zien in de wolken.
14:28
And the more time you spend looking at this,
306
868931
2320
Hoe langer je hier naar kijkt,
14:31
the more things you also will see in the clouds.
307
871275
2753
hoe meer je ook gaat zien in deze wolken.
14:35
You could also use the face network to hallucinate into this,
308
875004
3375
Je kunt er ook hallucinaties van het gezichtsnetwerk in verwerken.
14:38
and you get some pretty crazy stuff.
309
878403
1812
Dat levert ook gekke beelden op.
14:40
(Laughter)
310
880239
1150
(Gelach)
14:42
Or, Mike has done some other experiments
311
882401
2744
Mike heeft nog enkele andere experimenten uitgevoerd,
14:45
in which he takes that cloud image,
312
885169
3905
waarbij hij de afbeelding van de wolken neemt,
14:49
hallucinates, zooms, hallucinates, zooms hallucinates, zooms.
313
889098
3507
een hallucinatie toevoegt, inzoomt, weer 'n hallucinatie toevoegt, inzoomt.
14:52
And in this way,
314
892629
1151
Op deze manier
14:53
you can get a sort of fugue state of the network, I suppose,
315
893804
3675
krijg je een soort dissociatieve vlucht, denk ik,
14:57
or a sort of free association,
316
897503
3680
of een soort vrije associatie,
15:01
in which the network is eating its own tail.
317
901207
2227
waarin het netwerk haar eigen staart opeet.
15:03
So every image is now the basis for,
318
903458
3421
Iedere afbeelding is de basis voor...
15:06
"What do I think I see next?
319
906903
1421
"Wat zie ik hierna?"
15:08
What do I think I see next? What do I think I see next?"
320
908348
2803
"En wat daarna? En wat daarna?"
15:11
I showed this for the first time in public
321
911487
2936
Ik heb dit voor het eerst getoond
15:14
to a group at a lecture in Seattle called "Higher Education" --
322
914447
5437
aan een groep in Seattle bij een lezing, genaamd 'Hoger Onderwijs'.
15:19
this was right after marijuana was legalized.
323
919908
2437
Marihuana was toen nog maar net gelegaliseerd.
15:22
(Laughter)
324
922369
2415
(Gelach)
15:26
So I'd like to finish up quickly
325
926627
2104
Ik zou snel willen afsluiten
15:28
by just noting that this technology is not constrained.
326
928755
4255
door te zeggen dat deze technologie geen grenzen kent.
Ik heb enkel visuele voorbeelden getoond, omdat die leuk zijn om naar te kijken.
15:33
I've shown you purely visual examples because they're really fun to look at.
327
933034
3665
15:36
It's not a purely visual technology.
328
936723
2451
Maar de technologie is niet enkel visueel.
15:39
Our artist collaborator, Ross Goodwin,
329
939198
1993
Ross Goodwin, een medewerker van ons,
15:41
has done experiments involving a camera that takes a picture,
330
941215
3671
heeft enkele experimenten gedaan waarbij hij foto's nam met een camera
15:44
and then a computer in his backpack writes a poem using neural networks,
331
944910
4234
en die dan gebruikte om een gedicht mee te schrijven, met z'n computer,
15:49
based on the contents of the image.
332
949168
1944
op basis van de inhoud van de afbeelding.
15:51
And that poetry neural network has been trained
333
951136
2947
Dat poëzienetwerk werd getraind
15:54
on a large corpus of 20th-century poetry.
334
954107
2234
op een groot corpus gedichten uit de 20e eeuw.
15:56
And the poetry is, you know,
335
956365
1499
En de gedichten zijn, weet je,
15:57
I think, kind of not bad, actually.
336
957888
1914
al bij al niet slecht, denk ik.
15:59
(Laughter)
337
959826
1384
(Gelach)
16:01
In closing,
338
961234
1159
Om af te sluiten...
16:02
I think that per Michelangelo,
339
962417
2132
Ik denk dat Michelangelo
16:04
I think he was right;
340
964573
1234
het bij het rechte eind had.
16:05
perception and creativity are very intimately connected.
341
965831
3436
Waarneming en creativiteit zijn zeer nauw met elkaar verbonden.
16:09
What we've just seen are neural networks
342
969611
2634
We hebben zopas gezien dat neurale netwerken
16:12
that are entirely trained to discriminate,
343
972269
2303
die getraind zijn om keuzes te maken
16:14
or to recognize different things in the world,
344
974596
2242
of om dingen in de wereld te herkennen,
16:16
able to be run in reverse, to generate.
345
976862
3161
ook andersom kunnen werken en kunst voortbrengen.
16:20
One of the things that suggests to me
346
980047
1783
Dit doet mij afleiden
16:21
is not only that Michelangelo really did see
347
981854
2398
dat Michelangelo
de kunstwerken kon zien uit massieve blokken steen,
16:24
the sculpture in the blocks of stone,
348
984276
2452
16:26
but that any creature, any being, any alien
349
986752
3638
maar ook dat eender welk wezen, van eender welke planeet
16:30
that is able to do perceptual acts of that sort
350
990414
3657
die in staat is om waar te nemen
16:34
is also able to create
351
994095
1375
ook in staat is om te creëren.
16:35
because it's exactly the same machinery that's used in both cases.
352
995494
3224
Want in beide gevallen wordt exact hetzelfde mechanisme gebruikt.
16:38
Also, I think that perception and creativity are by no means
353
998742
4532
Ik ben er ook van overtuigd dat waarneming en creativiteit
helemaal niet uniek zijn aan mensen.
16:43
uniquely human.
354
1003298
1210
16:44
We start to have computer models that can do exactly these sorts of things.
355
1004532
3708
Onze computermodellen kunnen deze dingen ook al.
En dat zou niet mogen verrassen, ons brein is immers computationeel.
16:48
And that ought to be unsurprising; the brain is computational.
356
1008264
3328
16:51
And finally,
357
1011616
1657
En ten slotte...
16:53
computing began as an exercise in designing intelligent machinery.
358
1013297
4668
Computertechnologie begon als een manier om intelligente machines te ontwikkelen.
16:57
It was very much modeled after the idea
359
1017989
2462
Het was gebaseerd op het idee
17:00
of how could we make machines intelligent.
360
1020475
3013
dat machines intelligent gemaakt konden worden.
17:03
And we finally are starting to fulfill now
361
1023512
2162
We beginnen nu eindelijk enkele van de beloftes waar te maken
17:05
some of the promises of those early pioneers,
362
1025698
2406
van vroege pioniers,
17:08
of Turing and von Neumann
363
1028128
1713
zoals Turing en von Neuman,
17:09
and McCulloch and Pitts.
364
1029865
2265
en McCulloch en Pitts.
17:12
And I think that computing is not just about accounting
365
1032154
4098
Ik denk dat het bij computers niet enkel draait om berekeningen,
17:16
or playing Candy Crush or something.
366
1036276
2147
of 'Candy Crush' of andere spelletjes.
17:18
From the beginning, we modeled them after our minds.
367
1038447
2578
We hebben ze steeds vormgegeven volgens onze hersenen.
17:21
And they give us both the ability to understand our own minds better
368
1041049
3269
Ze geven ons de mogelijkheid om onze hersenen beter te begrijpen
17:24
and to extend them.
369
1044342
1529
en om onze capaciteiten uit te breiden.
17:26
Thank you very much.
370
1046627
1167
Dankjewel.
17:27
(Applause)
371
1047818
5939
(Applaus)
Over deze website

Deze site laat u kennismaken met YouTube-video's die nuttig zijn om Engels te leren. U ziet Engelse lessen gegeven door topdocenten uit de hele wereld. Dubbelklik op de Engelse ondertitels op elke videopagina om de video af te spelen. De ondertitels scrollen synchroon met het afspelen van de video. Heeft u opmerkingen of verzoeken, neem dan contact met ons op via dit contactformulier.

https://forms.gle/WvT1wiN1qDtmnspy7