How computers are learning to be creative | Blaise Agüera y Arcas

453,602 views ・ 2016-07-22

TED


A videó lejátszásához kattintson duplán az alábbi angol feliratokra.

Fordító: Péter Pallós Lektor: Maria Ruzsane Cseresnyes
00:12
So, I lead a team at Google that works on machine intelligence;
0
12800
3124
A Google-nál a gépi intelligenciával foglalkozó részleget vezetem.
00:15
in other words, the engineering discipline of making computers and devices
1
15948
4650
Ez a mérnöki terület számítógépeket és készülékeket tesz alkalmassá arra,
00:20
able to do some of the things that brains do.
2
20622
2419
hogy az emberi agyéhoz hasonló tevékenységet végezzenek.
00:23
And this makes us interested in real brains
3
23439
3099
Ez sarkall bennünket arra, hogy az aggyal
00:26
and neuroscience as well,
4
26562
1289
és az idegtudománnyal foglalkozzunk,
00:27
and especially interested in the things that our brains do
5
27875
4172
különösen azzal, amiben agyunk egyelőre
00:32
that are still far superior to the performance of computers.
6
32071
4042
jócskán fölülmúlja a számítógépet.
00:37
Historically, one of those areas has been perception,
7
37209
3609
Történetileg az egyik ilyen terület az érzékelés folyamata,
00:40
the process by which things out there in the world --
8
40842
3039
amelyben a környezetünkben lévő dolgok
00:43
sounds and images --
9
43905
1584
– hangok és képek –
00:45
can turn into concepts in the mind.
10
45513
2178
agyunkban fogalommá alakulnak.
00:48
This is essential for our own brains,
11
48235
2517
Tudatunk számára ez nélkülözhetetlen,
00:50
and it's also pretty useful on a computer.
12
50776
2464
de igen hasznos a számítógépeknek is.
00:53
The machine perception algorithms, for example, that our team makes,
13
53636
3350
A gépi érzékelés algoritmusai – csoportunk ezen dolgozik –
00:57
are what enable your pictures on Google Photos to become searchable,
14
57010
3874
teszik az önök Google Photoson lévő fotóit kereshetővé annak alapján,
01:00
based on what's in them.
15
60908
1397
hogy mi látható rajtuk.
01:03
The flip side of perception is creativity:
16
63594
3493
Az érzékelés másik oldala az alkotókészség:
01:07
turning a concept into something out there into the world.
17
67111
3038
az elképzelések valóra váltása.
01:10
So over the past year, our work on machine perception
18
70173
3555
A gépi érzékeléssel végzett munkánk 2015-ben váratlanul
01:13
has also unexpectedly connected with the world of machine creativity
19
73752
4859
hozzákapcsolódott a gépi alkotókészséghez
01:18
and machine art.
20
78635
1160
és a gépi művészethez.
01:20
I think Michelangelo had a penetrating insight
21
80556
3284
Az hiszem, Michelangelo nagyon is beleérzett
01:23
into to this dual relationship between perception and creativity.
22
83864
3656
az érzékelés és az alkotókészség közötti kettős viszonyba.
01:28
This is a famous quote of his:
23
88023
2006
Van egy híres mondása:
01:30
"Every block of stone has a statue inside of it,
24
90053
3323
"Minden kőtömb szobrot rejt a belsejében,
01:34
and the job of the sculptor is to discover it."
25
94036
3002
és a szobrász dolga, hogy kiszabadítsa."
01:38
So I think that what Michelangelo was getting at
26
98029
3216
Azt hiszem, Michelangelo ezen azt értette,
01:41
is that we create by perceiving,
27
101269
3180
hogy érzékelés útján alkotunk,
01:44
and that perception itself is an act of imagination
28
104473
3023
és az érzékelés nem más, mint a képzelet folyamata
01:47
and is the stuff of creativity.
29
107520
2461
és az alkotókészség terméke.
01:50
The organ that does all the thinking and perceiving and imagining,
30
110691
3925
A gondolkodás, az érzékelés és a képzelet irányítója
01:54
of course, is the brain.
31
114640
1588
természetesen az agy.
01:57
And I'd like to begin with a brief bit of history
32
117089
2545
Egy történeti áttekintéssel szeretném kezdeni,
01:59
about what we know about brains.
33
119658
2302
hogy mit tudunk az agyunkról.
02:02
Because unlike, say, the heart or the intestines,
34
122496
2446
Mert eltérően a szívtől és a belektől,
02:04
you really can't say very much about a brain by just looking at it,
35
124966
3144
ránézésre nem sokat mondhatunk az agyról,
02:08
at least with the naked eye.
36
128134
1412
ha csupán szabad szemmel nézzük.
02:09
The early anatomists who looked at brains
37
129983
2416
Az agyat vizsgáló első anatómusok
02:12
gave the superficial structures of this thing all kinds of fanciful names,
38
132423
3807
a felszíni képleteknek furcsa neveket adtak,
02:16
like hippocampus, meaning "little shrimp."
39
136254
2433
pl. a hippokampusz csikóhalat jelent.
02:18
But of course that sort of thing doesn't tell us very much
40
138711
2764
Persze a nevek nem sokat árulnak el arról,
02:21
about what's actually going on inside.
41
141499
2318
hogy mi zajlik belül.
02:24
The first person who, I think, really developed some kind of insight
42
144780
3613
Az első, aki valóban sokat tett azért,
02:28
into what was going on in the brain
43
148417
1930
hogy megtudjuk, mi történik az agyban,
02:30
was the great Spanish neuroanatomist, Santiago Ramón y Cajal,
44
150371
3920
Santiago Ramón y Cajal, a nagy spanyol ideganatómus volt
02:34
in the 19th century,
45
154315
1544
a 19. században.
02:35
who used microscopy and special stains
46
155883
3755
Mikroszkópot használt, és különleges eljárást alkalmazott,
02:39
that could selectively fill in or render in very high contrast
47
159662
4170
amellyel szelektíven tudta megfesteni az egyes idegsejteket,
02:43
the individual cells in the brain,
48
163856
2008
jó kontrasztot érve el a megjelenítésben,
02:45
in order to start to understand their morphologies.
49
165888
3154
hogy alaktanuk érthetőbb legyen.
02:49
And these are the kinds of drawings that he made of neurons
50
169972
2891
Ilyesféle képeket készített az idegsejtekről
02:52
in the 19th century.
51
172887
1209
a 19. században:
02:54
This is from a bird brain.
52
174120
1884
Ezt egy madár agyáról készült.
02:56
And you see this incredible variety of different sorts of cells,
53
176028
3057
Látják, milyen hihetetlenül változatosak a különféle sejtek;
02:59
even the cellular theory itself was quite new at this point.
54
179109
3435
ekkor még maga a sejtelmélet is vadonatúj volt.
03:02
And these structures,
55
182568
1278
Ezek a képletek,
03:03
these cells that have these arborizations,
56
183870
2259
ezek a dendritnyúlványok a sejteken,
03:06
these branches that can go very, very long distances --
57
186153
2608
ezek az ágacskák, amelyek igen messze ki tudnak nyúlni,
03:08
this was very novel at the time.
58
188785
1616
akkoriban újdonságnak számítottak.
03:10
They're reminiscent, of course, of wires.
59
190779
2903
Vezetékekre emlékeztetnek.
03:13
That might have been obvious to some people in the 19th century;
60
193706
3457
Ez a 19. században némelyeknek kézenfekvőnek tűnt:
03:17
the revolutions of wiring and electricity were just getting underway.
61
197187
4314
éppen folyamatban volt a vezetékek és a villamosság forradalma.
03:21
But in many ways,
62
201964
1178
De több vonatkozásban
03:23
these microanatomical drawings of Ramón y Cajal's, like this one,
63
203166
3313
Ramón y Cajal mikroanatómiai rajzai,
03:26
they're still in some ways unsurpassed.
64
206503
2332
mint ez is, fölülmúlhatatlanok.
03:28
We're still more than a century later,
65
208859
1854
Még most, egy bő évszázaddal később is
03:30
trying to finish the job that Ramón y Cajal started.
66
210737
2825
csak törekszünk bevégezni a Cajal által megkezdett munkát.
03:33
These are raw data from our collaborators
67
213586
3134
Ezek a nyers adatok itt partnereinktől,
03:36
at the Max Planck Institute of Neuroscience.
68
216744
2881
a Max Planck Idegtudományi Intézetből származnak.
03:39
And what our collaborators have done
69
219649
1790
Partnereink képet készítettek
03:41
is to image little pieces of brain tissue.
70
221463
5001
az agyszövet pirinyó részeiről.
03:46
The entire sample here is about one cubic millimeter in size,
71
226488
3326
Az itt látható minta összességében is csupán 1 mm³,
03:49
and I'm showing you a very, very small piece of it here.
72
229838
2621
én pedig ennek is csak egy pici részét mutatom.
03:52
That bar on the left is about one micron.
73
232483
2346
A bal oldali vonás kb. 1 mikron.
03:54
The structures you see are mitochondria
74
234853
2409
Az itt látható képletek a mitokondriumok,
03:57
that are the size of bacteria.
75
237286
2044
ezek baktériumméretűek.
03:59
And these are consecutive slices
76
239354
1551
Ezek pedig a nagyon parányi szövetdarab
04:00
through this very, very tiny block of tissue.
77
240929
3148
folytatólagos metszetei.
04:04
Just for comparison's sake,
78
244101
2403
Csak összevetésül:
04:06
the diameter of an average strand of hair is about 100 microns.
79
246528
3792
egy átlagos hajszál átmérője kb. 100 mikron.
04:10
So we're looking at something much, much smaller
80
250344
2274
Ami szemünk előtt van, az sokkal-sokkal kisebb,
04:12
than a single strand of hair.
81
252642
1398
mint a hajszál vastagsága.
04:14
And from these kinds of serial electron microscopy slices,
82
254064
4031
Ha ezeknek az elektronmikroszkópos metszeteknek a sorozatából
04:18
one can start to make reconstructions in 3D of neurons that look like these.
83
258119
5008
3D-ben rekonstruáljuk az idegsejteket, valami ilyet kapunk.
04:23
So these are sort of in the same style as Ramón y Cajal.
84
263151
3157
Ezek jellegükben hasonlítanak Ramón y Cajal képeire.
04:26
Only a few neurons lit up,
85
266332
1492
Csak pár idegsejt van megvilágítva,
04:27
because otherwise we wouldn't be able to see anything here.
86
267848
2781
különben nem látnánk semmit,
04:30
It would be so crowded,
87
270653
1312
olyan zsúfolt lenne a kép
04:31
so full of structure,
88
271989
1330
az egy-egy idegsejtet
04:33
of wiring all connecting one neuron to another.
89
273343
2724
a többivel összekötő vezetékgubanctól.
04:37
So Ramón y Cajal was a little bit ahead of his time,
90
277293
2804
Ramón y Cajal egy kissé megelőzte korát;
04:40
and progress on understanding the brain
91
280121
2555
az agy megértésének folyamata csak lassan haladt
04:42
proceeded slowly over the next few decades.
92
282700
2271
a következő évtizedek során.
04:45
But we knew that neurons used electricity,
93
285455
2853
Tudtuk, hogy az idegsejtek az elektromosságot használják,
04:48
and by World War II, our technology was advanced enough
94
288332
2936
és a II. világháború idejére technológiánk elég fejlett volt ahhoz,
04:51
to start doing real electrical experiments on live neurons
95
291292
2806
hogy élő idegsejteken valódi kísérleteket végezzünk
04:54
to better understand how they worked.
96
294122
2106
villamos árammal, hogy működésüket megértsük.
04:56
This was the very same time when computers were being invented,
97
296631
4356
Ugyanebben az időben találták föl - az agy működését alapul véve -
05:01
very much based on the idea of modeling the brain --
98
301011
3100
a számítógépet, avagy az "értelmes szerkezetet",
05:04
of "intelligent machinery," as Alan Turing called it,
99
304135
3085
05:07
one of the fathers of computer science.
100
307244
1991
a számítástechnika egyik atyja nevezte,
05:09
Warren McCulloch and Walter Pitts looked at Ramón y Cajal's drawing
101
309923
4632
Warren McCulloch és Walter Pitts megvizsgálta
Cajalnak a látókéregről készített,
05:14
of visual cortex,
102
314579
1317
05:15
which I'm showing here.
103
315920
1562
itt látható rajzát.
05:17
This is the cortex that processes imagery that comes from the eye.
104
317506
4442
Ez az agykéreg dolgozza föl a szemünkből érkező képeket.
05:22
And for them, this looked like a circuit diagram.
105
322424
3508
Számukra ez olyan volt, mint egy kapcsolási rajz.
05:26
So there are a lot of details in McCulloch and Pitts's circuit diagram
106
326353
3835
Sok részlet McCulloch és Pitts kapcsolási rajzán
05:30
that are not quite right.
107
330212
1352
nem teljesen pontos.
05:31
But this basic idea
108
331588
1235
De az alapelv,
05:32
that visual cortex works like a series of computational elements
109
332847
3992
hogy a látókéreg úgy működik, mint számítási egységek sorozata,
05:36
that pass information one to the next in a cascade,
110
336863
2746
amelyek egymásnak adják tovább az információt,
05:39
is essentially correct.
111
339633
1602
alapvetően helyes.
05:41
Let's talk for a moment
112
341259
2350
Beszéljünk egy kicsit arról,
05:43
about what a model for processing visual information would need to do.
113
343633
4032
hogy mit kéne csinálnia egy képi információt földolgozó modellnek.
05:48
The basic task of perception
114
348228
2741
Az érzékelés fő feladata,
05:50
is to take an image like this one and say,
115
350993
4194
hogy rögzítse az ilyen képet, és jelentse ki:
05:55
"That's a bird,"
116
355211
1176
"ez egy madár",
05:56
which is a very simple thing for us to do with our brains.
117
356411
2874
ami agyunknak gyerekjáték.
05:59
But you should all understand that for a computer,
118
359309
3421
De mindannyiuknak tudnunk kell, hogy a számítógép számára ez
06:02
this was pretty much impossible just a few years ago.
119
362754
3087
néhány éve megoldhatatlan feladat volt.
06:05
The classical computing paradigm
120
365865
1916
A klasszikus számítási paradigma alapján
06:07
is not one in which this task is easy to do.
121
367805
2507
ez nem egykönnyen megoldható feladat.
06:11
So what's going on between the pixels,
122
371366
2552
Ami a pixelek között történik,
06:13
between the image of the bird and the word "bird,"
123
373942
4028
a madár képe és a "madár" szó között, lényegében annyi,
06:17
is essentially a set of neurons connected to each other
124
377994
2814
hogy az idegsejtek egy halmaza
összekapcsolódott egy ideghálózatban,
06:20
in a neural network,
125
380832
1155
06:22
as I'm diagramming here.
126
382011
1223
ahogy itt fölvázolom.
06:23
This neural network could be biological, inside our visual cortices,
127
383258
3272
Ez lehet egy élő sejtekből álló neuronhálózat a látókéregben,
06:26
or, nowadays, we start to have the capability
128
386554
2162
vagy annak egy számítógépe modellje,
06:28
to model such neural networks on the computer.
129
388740
2454
aminek elkészítésére ma már kezdünk képesek lenni.
06:31
And I'll show you what that actually looks like.
130
391834
2353
Megmutatom, hogy néz ez ki.
06:34
So the pixels you can think about as a first layer of neurons,
131
394211
3416
A képpontok fölfoghatók az idegsejtek első rétegeként,
06:37
and that's, in fact, how it works in the eye --
132
397651
2239
és valóban így működik ez a szemben;
06:39
that's the neurons in the retina.
133
399914
1663
ezek a recehártyán lévő idegsejtek.
06:41
And those feed forward
134
401601
1500
Aztán továbbadják a következő rétegnek,
06:43
into one layer after another layer, after another layer of neurons,
135
403125
3403
egyik a másiknak, egymás után, mindegyik a következőnek,
06:46
all connected by synapses of different weights.
136
406552
3033
ezek mind különböző súllyal szereplő szinapszissal vannak összekötve.
06:49
The behavior of this network
137
409609
1335
A hálózat viselkedését
06:50
is characterized by the strengths of all of those synapses.
138
410968
3284
a szinapszisok erőssége jellemzi.
06:54
Those characterize the computational properties of this network.
139
414276
3288
Ezek írják le a hálózat számítási tulajdonságait.
06:57
And at the end of the day,
140
417588
1470
A végeredmény
06:59
you have a neuron or a small group of neurons
141
419082
2447
egy idegsejt, vagy sejtek kis csoportja,
07:01
that light up, saying, "bird."
142
421553
1647
amelyek fölvillannak, és azt mondják: madár.
07:03
Now I'm going to represent those three things --
143
423824
3132
Ezt a három dolgot mutatom meg:
07:06
the input pixels and the synapses in the neural network,
144
426980
4696
a bemeneti képpontokat, az ideghálózat szinapszisait,
07:11
and bird, the output --
145
431700
1585
és a madarat, a kimenetet,
07:13
by three variables: x, w and y.
146
433309
3057
Három változó, az x, w és y segítségével.
07:16
There are maybe a million or so x's --
147
436853
1811
Talán milliónyi x,
07:18
a million pixels in that image.
148
438688
1953
milliónyi képpont van ezen a képen.
07:20
There are billions or trillions of w's,
149
440665
2446
Milliárdnyi vagy billiónyi w létezik,
07:23
which represent the weights of all these synapses in the neural network.
150
443135
3421
ami az ideghálózatban lévő szinapszisok súlyát jellemzi.
07:26
And there's a very small number of y's,
151
446580
1875
Az y-ok - a hálózati kimenetek - száma
07:28
of outputs that that network has.
152
448479
1858
viszont egy elég kis szám.
07:30
"Bird" is only four letters, right?
153
450361
1749
A "madár" csak öt betű, ugye?
07:33
So let's pretend that this is just a simple formula,
154
453088
3426
Tegyünk úgy, mintha ez az egyszerű képlet létezne:
07:36
x "x" w = y.
155
456538
2163
x "*" w = y
07:38
I'm putting the times in scare quotes
156
458725
2036
Idézőjelbe tettem a szorzásjelet,
07:40
because what's really going on there, of course,
157
460785
2280
mert persze ott egy sor
07:43
is a very complicated series of mathematical operations.
158
463089
3046
nagyon bonyolult matematikai művelet áll.
07:47
That's one equation.
159
467172
1221
Ez egy egyenlet.
07:48
There are three variables.
160
468417
1672
Három változója van.
07:50
And we all know that if you have one equation,
161
470113
2726
Tudjuk, hogy ha van egy egyenletünk,
07:52
you can solve one variable by knowing the other two things.
162
472863
3642
megoldhatjuk az egyik változóra, ha ismerjük a másik kettőt.
07:57
So the problem of inference,
163
477158
3380
A levezetés problémája,
08:00
that is, figuring out that the picture of a bird is a bird,
164
480562
2873
azaz hogy kiderítsük, hogy a madár képe egy madáré,
08:03
is this one:
165
483459
1274
így foglalható össze:
08:04
it's where y is the unknown and w and x are known.
166
484757
3459
az y az ismeretlen, w és x ismert.
08:08
You know the neural network, you know the pixels.
167
488240
2459
Ismerjük az ideghálózatot és a képpontokat.
08:10
As you can see, that's actually a relatively straightforward problem.
168
490723
3327
Látható, hogy a feladat viszonylag egyszerű.
08:14
You multiply two times three and you're done.
169
494074
2186
Összeszorozzuk a kettőt a hárommal, és kész.
08:16
I'll show you an artificial neural network
170
496862
2123
Mutatok egy mesterséges ideghálózatot,
08:19
that we've built recently, doing exactly that.
171
499009
2296
amit mostanában építettünk, és ami pontosan ezt csinálja.
08:21
This is running in real time on a mobile phone,
172
501634
2860
Valós időben működik mobilon,
08:24
and that's, of course, amazing in its own right,
173
504518
3313
és az már önmagában is csodálatos,
08:27
that mobile phones can do so many billions and trillions of operations
174
507855
3468
hogy a mobiltelefonok másodpercenként milliárdnyi vagy billiónyi
08:31
per second.
175
511347
1248
műveletre képesek.
08:32
What you're looking at is a phone
176
512619
1615
Előttünk egy telefon,
08:34
looking at one after another picture of a bird,
177
514258
3547
amely folyamatosan madárképeket pörget,
08:37
and actually not only saying, "Yes, it's a bird,"
178
517829
2715
és nemcsak azt mondja, hogy: "Igen, ez madár",
08:40
but identifying the species of bird with a network of this sort.
179
520568
3411
hanem a hálózat segítségével a madárfajt is fölismeri.
08:44
So in that picture,
180
524890
1826
A képen
08:46
the x and the w are known, and the y is the unknown.
181
526740
3802
x és w ismert, y az ismeretlen.
08:50
I'm glossing over the very difficult part, of course,
182
530566
2508
Átsiklok a legbonyolultabb részeken, nevezetesen:
08:53
which is how on earth do we figure out the w,
183
533098
3861
hogy a pokolba számoljuk ki w-t,
08:56
the brain that can do such a thing?
184
536983
2187
és hogyan képes erre az agy?
08:59
How would we ever learn such a model?
185
539194
1834
Hogyan hozhatunk létre ilyen modellt?
09:01
So this process of learning, of solving for w,
186
541418
3233
Tehát ez tanulási folyamat: megoldás keresése w-re.
09:04
if we were doing this with the simple equation
187
544675
2647
Ha ezt egy egyszerű egyenletre tesszük,
09:07
in which we think about these as numbers,
188
547346
2000
ahol az ismeretleneket számnak tekintjük,
09:09
we know exactly how to do that: 6 = 2 x w,
189
549370
2687
akkor pontosan tudjuk, miként kell a 6 = 2 * w -t megoldani.,
09:12
well, we divide by two and we're done.
190
552081
3312
mindkét oldalt 2-vel kell osztani.
09:16
The problem is with this operator.
191
556001
2220
A bökkenő ezzel az operátorral van.
09:18
So, division --
192
558823
1151
Osztás...
09:19
we've used division because it's the inverse to multiplication,
193
559998
3121
Azért osztást alkalmaztunk, mert ez a szorzás inverze,
09:23
but as I've just said,
194
563143
1440
de ahogy már mondtam,
09:24
the multiplication is a bit of a lie here.
195
564607
2449
itt nem igazi szorzásról van szó.
09:27
This is a very, very complicated, very non-linear operation;
196
567080
3326
Ez itt egy igen kacifántos, nemlineáris művelet;
09:30
it has no inverse.
197
570430
1704
és nincs inverze.
09:32
So we have to figure out a way to solve the equation
198
572158
3150
Rá kell jönnünk, milyen módszerrel oldható meg az egyenlet
09:35
without a division operator.
199
575332
2024
osztási művelet nélkül.
09:37
And the way to do that is fairly straightforward.
200
577380
2343
A módszer elég egyszerű.
09:39
You just say, let's play a little algebra trick,
201
579747
2671
Alkalmazzunk egy kis algebrai trükköt,
09:42
and move the six over to the right-hand side of the equation.
202
582442
2906
és vigyük át a 6-ost az egyenlet jobb oldalára.
09:45
Now, we're still using multiplication.
203
585372
1826
A szorzás továbbra is megvan.
09:47
And that zero -- let's think about it as an error.
204
587675
3580
A nullát meg tekintsük a hiba mértékének.
09:51
In other words, if we've solved for w the right way,
205
591279
2515
Azaz, ha w-re helyesen oldjuk meg az egyenletet,
09:53
then the error will be zero.
206
593818
1656
a hiba nulla lesz.
09:55
And if we haven't gotten it quite right,
207
595498
1938
Ha a megoldás nem teljesen helyes,
09:57
the error will be greater than zero.
208
597460
1749
a hiba nullánál nagyobb lesz.
09:59
So now we can just take guesses to minimize the error,
209
599233
3366
Most a hiba minimalizálása végett próbálgatnunk kell,
10:02
and that's the sort of thing computers are very good at.
210
602623
2687
ebben pedig a számítógép igen jó.
10:05
So you've taken an initial guess:
211
605334
1593
Kiinduló becslésnek ezt vettük:
10:06
what if w = 0?
212
606951
1156
mi a helyzet, ha w = 0?
10:08
Well, then the error is 6.
213
608131
1240
Akkor a hiba 6-tal egyenlő.
10:09
What if w = 1? The error is 4.
214
609395
1446
És ha w = 1? Akkor a hiba 4.
10:10
And then the computer can sort of play Marco Polo,
215
610865
2367
Akkor a gép játszhatja a Marco Polo-játékot,
10:13
and drive down the error close to zero.
216
613256
2367
és a hibát nullához közelítheti.
10:15
As it does that, it's getting successive approximations to w.
217
615647
3374
Így w fokozatos közelítéseit kapjuk.
10:19
Typically, it never quite gets there, but after about a dozen steps,
218
619045
3656
Általában nem kapunk pontos eredményt, de tucatnyi lépés után
10:22
we're up to w = 2.999, which is close enough.
219
622725
4624
w = 2,999-et kapunk, ami elég jó közelítés.
10:28
And this is the learning process.
220
628302
1814
Ez tanulási folyamat.
10:30
So remember that what's been going on here
221
630140
2730
Ne feledjük, hogy az történt,
10:32
is that we've been taking a lot of known x's and known y's
222
632894
4378
hogy vettünk egy csomó ismert x-et és ismert y-t,
10:37
and solving for the w in the middle through an iterative process.
223
637296
3454
és iterációs úton kerestünk w-re egy megoldást.
10:40
It's exactly the same way that we do our own learning.
224
640774
3556
Pontosan ilyen módszerrel tanulunk mi magunk is.
10:44
We have many, many images as babies
225
644354
2230
Kisbabakorunkban sok képet látunk,
10:46
and we get told, "This is a bird; this is not a bird."
226
646608
2633
és valaki azt mondja: "Ez madár, ez nem madár."
10:49
And over time, through iteration,
227
649714
2098
Idővel iteráció révén
10:51
we solve for w, we solve for those neural connections.
228
651836
2928
megoldjuk w-re, megtaláljuk az idegi kapcsolatokat.
10:55
So now, we've held x and w fixed to solve for y;
229
655460
4086
Most az y kiszámolásához ismert az x és a w;
10:59
that's everyday, fast perception.
230
659570
1847
ez a mindennapi, gyors érzékelés.
11:01
We figure out how we can solve for w,
231
661441
1763
Megoldást találni w-re,
11:03
that's learning, which is a lot harder,
232
663228
1903
ez tanulás, ami jóval nehezebb,
11:05
because we need to do error minimization,
233
665155
1985
mert a hibát minimalizálni kell,
11:07
using a lot of training examples.
234
667164
1687
sok gyakorlópélda segítségével.
11:08
And about a year ago, Alex Mordvintsev, on our team,
235
668875
3187
Alex Mordvintsev kollégánk kb. egy éve elhatározta, hogy kipróbálja,
11:12
decided to experiment with what happens if we try solving for x,
236
672086
3550
mi van, ha x-re próbálunk megoldást keresni
11:15
given a known w and a known y.
237
675660
2037
w és y ismeretében.
11:18
In other words,
238
678124
1151
Másként fogalmazva,
11:19
you know that it's a bird,
239
679299
1352
tudjuk, hogy ez egy madár,
11:20
and you already have your neural network that you've trained on birds,
240
680675
3303
és ideghálózatunk már be van tanítva madarakra,
11:24
but what is the picture of a bird?
241
684002
2344
de milyen is egy madár képe?
11:27
It turns out that by using exactly the same error-minimization procedure,
242
687034
5024
Kiderül, hogy ez is működik, ha ugyanazt a hibaminimalizáló eljárást alkalmazzuk
11:32
one can do that with the network trained to recognize birds,
243
692082
3430
a madarak fölismerésére betanított hálózatra,
11:35
and the result turns out to be ...
244
695536
3388
és az eredménye egy kép,
11:42
a picture of birds.
245
702400
1305
amelyen madarak láthatók.
11:44
So this is a picture of birds generated entirely by a neural network
246
704814
3737
Ezt a képet a madarak fölismerésére betanított
11:48
that was trained to recognize birds,
247
708575
1826
neurális hálózat hozta létre egyszerűen úgy,
11:50
just by solving for x rather than solving for y,
248
710425
3538
hogy x-re, nem pedig y-ra kerestük a megoldást
11:53
and doing that iteratively.
249
713987
1288
közelítő eljárással.
11:55
Here's another fun example.
250
715732
1847
Ez pedig egy másik érdekes példa.
11:57
This was a work made by Mike Tyka in our group,
251
717603
3437
Ezt egyik kollégánk, Mike Tyka csinálta,
12:01
which he calls "Animal Parade."
252
721064
2308
és az állatok fölvonulásának nevezte el.
12:03
It reminds me a little bit of William Kentridge's artworks,
253
723396
2876
Engem William Kentridge műalkotásaira emlékeztet:
12:06
in which he makes sketches, rubs them out,
254
726296
2489
vázlatokat készít, kitörli őket,
12:08
makes sketches, rubs them out,
255
728809
1460
vázlatokat készít, kitörli,
12:10
and creates a movie this way.
256
730293
1398
és így készít filmet.
12:11
In this case,
257
731715
1151
Ebben az esetben Mike
12:12
what Mike is doing is varying y over the space of different animals,
258
732890
3277
y-t futtatja végig különféle állatokon,
12:16
in a network designed to recognize and distinguish
259
736191
2382
egy állatok fölismerésére
12:18
different animals from each other.
260
738597
1810
és megkülönböztetésére tervezett hálózaton.
12:20
And you get this strange, Escher-like morph from one animal to another.
261
740431
3751
Így ilyen furcsán, Escher-szerűen tűnik át egyik állat a másikba.
12:26
Here he and Alex together have tried reducing
262
746221
4614
Itt Mike és Alex megpróbált az összes y alapján
12:30
the y's to a space of only two dimensions,
263
750859
2759
egyetlen kétdimenziós képet létrehozni,
12:33
thereby making a map out of the space of all things
264
753642
3438
a hálózat által felismert valamennyi tárgyat
12:37
recognized by this network.
265
757104
1719
a síkba leképezve.
12:38
Doing this kind of synthesis
266
758847
2023
Efféle szintézist elvégezve,
12:40
or generation of imagery over that entire surface,
267
760894
2382
a teljes felületet használva,
12:43
varying y over the surface, you make a kind of map --
268
763300
2846
y variálásával ilyesféle leképezést készítünk:
12:46
a visual map of all the things the network knows how to recognize.
269
766170
3141
a vizuális megjelenítését mindannak, amit a hálózat felismer.
12:49
The animals are all here; "armadillo" is right in that spot.
270
769335
2865
Minden állat itt van; ez itt az armadillo, azaz a tatu.
12:52
You can do this with other kinds of networks as well.
271
772919
2479
Ugyanez megtehető másfajta hálózatokkal is.
12:55
This is a network designed to recognize faces,
272
775422
2874
Ezt a hálózatot arcfölismerésre hozták létre,
12:58
to distinguish one face from another.
273
778320
2000
hogy képes legyen arcokat megkülönböztetni egymástól.
13:00
And here, we're putting in a y that says, "me,"
274
780344
3249
Itt az y jelentése: "én",
13:03
my own face parameters.
275
783617
1575
az én arcom paraméterei.
13:05
And when this thing solves for x,
276
785216
1706
Amikor ez megoldást keres x-re,
13:06
it generates this rather crazy,
277
786946
2618
az eredmény az én idétlen, kubista,
13:09
kind of cubist, surreal, psychedelic picture of me
278
789588
4428
szürreális és pszichedelikus képem,
13:14
from multiple points of view at once.
279
794040
1806
egyidejűleg különböző nézőpontokból.
13:15
The reason it looks like multiple points of view at once
280
795870
2734
Az egyidejű különböző nézőpontok indoka:
13:18
is because that network is designed to get rid of the ambiguity
281
798628
3687
a hálózatot úgy tervezték, hogy megszabaduljon a félreértésektől,
13:22
of a face being in one pose or another pose,
282
802339
2476
amelyek az arc eltérő helyzeteiből
13:24
being looked at with one kind of lighting, another kind of lighting.
283
804839
3376
vagy az eltérő megvilágításból adódhatnak.
13:28
So when you do this sort of reconstruction,
284
808239
2085
Ha ilyen rekonstrukciót végzünk,
13:30
if you don't use some sort of guide image
285
810348
2304
és nem használunk támpontul valamilyen képet
13:32
or guide statistics,
286
812676
1211
vagy statisztikát,
13:33
then you'll get a sort of confusion of different points of view,
287
813911
3765
akkor a különféle nézőpontok valami káosza keletkezik,
13:37
because it's ambiguous.
288
817700
1368
mert félreérthető.
13:39
This is what happens if Alex uses his own face as a guide image
289
819786
4223
Ez az eredmény, ha Alex támpontul tulajdon arcát használja
13:44
during that optimization process to reconstruct my own face.
290
824033
3321
az optimalizálás folyamán az én arcom rekonstruálásához.
13:48
So you can see it's not perfect.
291
828284
2328
Láthatóan nem tökéletes.
13:50
There's still quite a lot of work to do
292
830636
1874
Még sok a teendőnk
13:52
on how we optimize that optimization process.
293
832534
2453
a folyamat optimalizálásában.
13:55
But you start to get something more like a coherent face,
294
835011
2827
De a kapott arc már kivehetőbb,
13:57
rendered using my own face as a guide.
295
837862
2014
ha a támpontul az én arcom szolgált.
14:00
You don't have to start with a blank canvas
296
840892
2501
Nem szükséges
14:03
or with white noise.
297
843417
1156
nulláról kezdenünk.
14:04
When you're solving for x,
298
844597
1304
Ha x-et keressük,
14:05
you can begin with an x, that is itself already some other image.
299
845925
3889
kezdhetjük egy másik képhez tartozó x-szel,
14:09
That's what this little demonstration is.
300
849838
2556
ahogy ezen a kis bemutatón is látható.
14:12
This is a network that is designed to categorize
301
852418
4122
E hálózat különféle tárgyak - pl. állatok, ember alkotta struktúrák -
14:16
all sorts of different objects -- man-made structures, animals ...
302
856564
3119
14:19
Here we're starting with just a picture of clouds,
303
859707
2593
Itt egyszerűen felhők képével kezdünk,
14:22
and as we optimize,
304
862324
1671
és ahogy optimalizálunk,
14:24
basically, this network is figuring out what it sees in the clouds.
305
864019
4486
a hálózat eldönti, hogy mit lát bele a felhőkbe.
14:28
And the more time you spend looking at this,
306
868931
2320
Minél tovább nézzük,
14:31
the more things you also will see in the clouds.
307
871275
2753
annál több dolgot látunk beléjük.
14:35
You could also use the face network to hallucinate into this,
308
875004
3375
Használhatjuk az arcfölismerő hálózatot, hogy arcokat lássunk bele,
14:38
and you get some pretty crazy stuff.
309
878403
1812
és eléggé észbontó dolgokhoz jutunk.
14:40
(Laughter)
310
880239
1150
(Nevetés)
14:42
Or, Mike has done some other experiments
311
882401
2744
Mike végzett egy másik kísérletet:
14:45
in which he takes that cloud image,
312
885169
3905
vette ezt a felhős képet,
14:49
hallucinates, zooms, hallucinates, zooms hallucinates, zooms.
313
889098
3507
értelmeztette, zoomolt, értelmeztette, zoomolt, értelmeztette, zoomolt...
14:52
And in this way,
314
892629
1151
Ily módon
14:53
you can get a sort of fugue state of the network, I suppose,
315
893804
3675
szerintem a hálózatnak amolyan disszociatív fugaállapotához jutunk,
14:57
or a sort of free association,
316
897503
3680
vagy valamiféle szabad asszociációkhoz,
15:01
in which the network is eating its own tail.
317
901207
2227
amelyben a hálózat saját farkába harap.
15:03
So every image is now the basis for,
318
903458
3421
Mindegyik kép láttán az jár az eszünkben,
15:06
"What do I think I see next?
319
906903
1421
hogy vajon mit látok majd a következőn,
15:08
What do I think I see next? What do I think I see next?"
320
908348
2803
és a következőn, és a következőn.
15:11
I showed this for the first time in public
321
911487
2936
Ezt nyilvánosan először Seattle-ben
15:14
to a group at a lecture in Seattle called "Higher Education" --
322
914447
5437
egy Felsőoktatás c. előadáson mutattam be,
15:19
this was right after marijuana was legalized.
323
919908
2437
rögtön a marihuána legalizálása után.
15:22
(Laughter)
324
922369
2415
(Nevetés)
15:26
So I'd like to finish up quickly
325
926627
2104
Azzal a megjegyzéssel zárnám gyorsan,
15:28
by just noting that this technology is not constrained.
326
928755
4255
hogy a technológia lehetőségei beláthatatlanok.
15:33
I've shown you purely visual examples because they're really fun to look at.
327
933034
3665
Csupán vizuális példákat hoztam föl, mert ezek nagyon mutatósak.
15:36
It's not a purely visual technology.
328
936723
2451
Nemcsak képi technológia létezik.
15:39
Our artist collaborator, Ross Goodwin,
329
939198
1993
Művész munkatársunk, Ross Goodwin,
15:41
has done experiments involving a camera that takes a picture,
330
941215
3671
kísérleteihez fényképezőgépet használ, amely készít egy fölvételt,
15:44
and then a computer in his backpack writes a poem using neural networks,
331
944910
4234
majd a hátizsákjában lévő számítógép
e fénykép tartalmából ihletet merítve verset ír.
15:49
based on the contents of the image.
332
949168
1944
15:51
And that poetry neural network has been trained
333
951136
2947
E költői neurális hálózatot a 20.századi költészet
egy terjedelmes gyűjteménye alapján hozták létre.
15:54
on a large corpus of 20th-century poetry.
334
954107
2234
15:56
And the poetry is, you know,
335
956365
1499
Szerintem az így készült versek
15:57
I think, kind of not bad, actually.
336
957888
1914
nem is olyan rosszak.
15:59
(Laughter)
337
959826
1384
(Nevetés)
16:01
In closing,
338
961234
1159
Végezetül,
16:02
I think that per Michelangelo,
339
962417
2132
ami Michelangelót illeti,
16:04
I think he was right;
340
964573
1234
úgy vélem, igaza volt:
16:05
perception and creativity are very intimately connected.
341
965831
3436
az észlelés és az alkotókészség szorosan összefügg.
16:09
What we've just seen are neural networks
342
969611
2634
Amiket láttunk, azok olyan neurális hálózatok,
16:12
that are entirely trained to discriminate,
343
972269
2303
amelyeket arra tanítottak, hogy megkülönböztessenek
16:14
or to recognize different things in the world,
344
974596
2242
és fölismerjenek különböző tárgyakat,
16:16
able to be run in reverse, to generate.
345
976862
3161
és amelyek fordított irányú működésre, generálásra is képesek.
16:20
One of the things that suggests to me
346
980047
1783
Nemcsak azért gondolom ezt,
16:21
is not only that Michelangelo really did see
347
981854
2398
mert Michelangelo tényleg látta
16:24
the sculpture in the blocks of stone,
348
984276
2452
a szobrot a kőtömb belsejében,
16:26
but that any creature, any being, any alien
349
986752
3638
hanem mert bármely teremtmény, lény, Földön kívüli,
16:30
that is able to do perceptual acts of that sort
350
990414
3657
amely ilyen észlelésre képes,
16:34
is also able to create
351
994095
1375
képes alkotni is,
16:35
because it's exactly the same machinery that's used in both cases.
352
995494
3224
mert ezek mindkét esetben pontosan ugyanazon műveletek.
16:38
Also, I think that perception and creativity are by no means
353
998742
4532
Azt hiszem, hogy az észlelés és az alkotás semmi esetre sem
16:43
uniquely human.
354
1003298
1210
korlátozódik az emberre.
16:44
We start to have computer models that can do exactly these sorts of things.
355
1004532
3708
Kezdenek megjelenni olyan számítógépes modellek, amelyek képesek ugyanerre.
16:48
And that ought to be unsurprising; the brain is computational.
356
1008264
3328
Ez nem meglepő, hiszen az agy is egy sajátságos számítógép.
16:51
And finally,
357
1011616
1657
Végül, az informatika
16:53
computing began as an exercise in designing intelligent machinery.
358
1013297
4668
a mesterséges értelem létrehozására tett kísérletként indult.
16:57
It was very much modeled after the idea
359
1017989
2462
Jórészt azt modellezte le,
17:00
of how could we make machines intelligent.
360
1020475
3013
hogy miként tehetjük a gépeket okossá.
17:03
And we finally are starting to fulfill now
361
1023512
2162
Most kezdjük lassacskán beváltani
17:05
some of the promises of those early pioneers,
362
1025698
2406
az útkeresők bizonyos ígéreteit:
17:08
of Turing and von Neumann
363
1028128
1713
Turingét, Neumann Jánosét,
17:09
and McCulloch and Pitts.
364
1029865
2265
McCullochét és Pittsét.
17:12
And I think that computing is not just about accounting
365
1032154
4098
Azt hiszem, az informatika nem korlátozódik a könyvelésre,
17:16
or playing Candy Crush or something.
366
1036276
2147
a Candy Crush játékra vagy ilyesmikre.
17:18
From the beginning, we modeled them after our minds.
367
1038447
2578
A kezdetektől fogva agyunk alapján modelleztük.
17:21
And they give us both the ability to understand our own minds better
368
1041049
3269
Hozzájárul agyunk jobb megértéséhez,
és képességei kiterjesztéséhez.
17:24
and to extend them.
369
1044342
1529
17:26
Thank you very much.
370
1046627
1167
Köszönöm szépen.
17:27
(Applause)
371
1047818
5939
(Taps)
Erről a weboldalról

Ez az oldal olyan YouTube-videókat mutat be, amelyek hasznosak az angol nyelvtanuláshoz. A világ minden tájáról származó, kiváló tanárok által tartott angol leckéket láthatsz. Az egyes videók oldalán megjelenő angol feliratokra duplán kattintva onnan játszhatja le a videót. A feliratok a videó lejátszásával szinkronban gördülnek. Ha bármilyen észrevétele vagy kérése van, kérjük, lépjen kapcsolatba velünk ezen a kapcsolatfelvételi űrlapon.

https://forms.gle/WvT1wiN1qDtmnspy7