Jeff Hawkins: How brain science will change computing

207,135 views ・ 2007-05-23

TED


A videó lejátszásához kattintson duplán az alábbi angol feliratokra.

Fordító: Zalán Bodó Lektor: Krisztián Pintér
00:25
I do two things:
0
25476
1151
Két dolgot csinálok. Mobil számítógépeket tervezek és az agyat tanulmányozom.
00:26
I design mobile computers and I study brains.
1
26651
2118
00:28
Today's talk is about brains and -- (Audience member cheers)
2
28793
2930
A mai előadás pedig az agyról szól, és ...
00:31
Yay! I have a brain fan out there.
3
31747
1817
hurrá, valahol van egy agy-rajongó.
00:33
(Laughter)
4
33588
3147
(Nevetés)
Ha kérhetném az első slide-omat megjeleníteni,
00:36
If I could have my first slide,
5
36759
1555
látható lesz az előadásom címe és a két vállalatom.
00:38
you'll see the title of my talk and my two affiliations.
6
38338
2849
00:41
So what I'm going to talk about is why we don't have a good brain theory,
7
41211
3468
Amiről tehát beszélni fogok az, hogy miért is nincs egy jó agyelméletünk,
00:44
why it is important that we should develop one
8
44703
2277
miért lenne fontos ennek a kidolgozása, és mit tudunk tenni ennek érdekében.
00:47
and what we can do about it.
9
47004
1483
00:48
I'll try to do all that in 20 minutes.
10
48511
1824
És mindezt megpróbálom 20 perc alatt megtenni. Két vállalatom van.
00:50
I have two affiliations.
11
50359
1151
00:51
Most of you know me from my Palm and Handspring days,
12
51534
2532
A többség bizonyára a Palm és Handspring-es napjaimból ismer,
00:54
but I also run a nonprofit scientific research institute
13
54090
2683
de vezetek egy nonprofit tudományos kutatóintézetet is
00:56
called the Redwood Neuroscience Institute in Menlo Park.
14
56797
2632
a Menlo Parkban, Redwood Neuroscience Institute névvel,
00:59
We study theoretical neuroscience and how the neocortex works.
15
59453
3388
ahol elméleti idegtudománnyal foglalkozunk
és a neokortex működését tanulmányozzuk.
01:02
I'm going to talk all about that.
16
62865
1598
És erről fogok beszélni.
01:04
I have one slide on my other life, the computer life,
17
64487
2745
Van egy slide-om a másik életemről, a számítógépes életről, ez látható most.
01:07
and that's this slide here.
18
67256
1301
01:08
These are some of the products I've worked on over the last 20 years,
19
68581
3268
Ez itt néhány termék, amelyen az utóbbi 20 évben dolgoztam,
01:11
starting from the very original laptop
20
71873
1842
kezdve a laptoptól az első tablet pc-kig
01:13
to some of the first tablet computers
21
73739
1787
01:15
and so on, ending up most recently with the Treo,
22
75550
2298
és így tovább, egészen a legújabb Treo-ig,
01:17
and we're continuing to do this.
23
77872
1532
és ezt a továbbiakban is folytatjuk.
01:19
I've done this because I believe mobile computing
24
79428
2301
Tettem ezeket azért, mert hiszem, hogy a mobil számítástechnika
01:21
is the future of personal computing,
25
81753
1724
a személyi számítástechnika jövője, és ezeken dolgozva
01:23
and I'm trying to make the world a little bit better
26
83501
2454
megpróbálom a világot egy kicsivel jobbá tenni.
01:25
by working on these things.
27
85979
1296
01:27
But this was, I admit, all an accident.
28
87299
1874
De ez, be kell, hogy valljam, a véletlen műve volt.
01:29
I really didn't want to do any of these products.
29
89197
2308
Én valójában nem akartam egyik ilyen terméket sem kifejleszetni,
01:31
Very early in my career
30
91529
1382
és már a pályafutásom kezdetén elhatároztam,
01:32
I decided I was not going to be in the computer industry.
31
92935
2690
hogy nem szállok be a számítógépiparba.
01:35
Before that, I just have to tell you
32
95649
1721
Mielőtt ezt elmesélném, elmondom
01:37
about this picture of Graffiti I picked off the web the other day.
33
97394
3108
a kis Graffitis kép történetét, amit a minap szedtem le a webről.
01:40
I was looking for a picture for Graffiti that'll text input language.
34
100526
3253
A Graffitiről kerestem képet, a kézírásfelismerő programról,
01:43
I found a website dedicated to teachers who want to make script-writing things
35
103803
3689
és találtam egy tanároknak ajánlott weboldalt, akik ilyen
kezírásos betűket akarnak a tábla tetejére tenni,
01:47
across the top of their blackboard,
36
107516
1674
01:49
and they had added Graffiti to it, and I'm sorry about that.
37
109214
2833
és Graffitist is tettek hozzá, szóval bocsánatot kérek.
01:52
(Laughter)
38
112071
2247
(Nevetés)
01:54
So what happened was,
39
114342
1300
Tehát az történt, hogy amikor fiatal voltam és kijöttem a mérnökiről,
01:55
when I was young and got out of engineering school at Cornell in '79,
40
115666
4899
a Cornellről '79-ben, eldöntöttem, hogy elmegyek az Intelhez dolgozni.
02:00
I went to work for Intel and was in the computer industry,
41
120589
3187
02:03
and three months into that, I fell in love with something else.
42
123800
3402
A számítógépiparban voltam, és három hónap alatt
beleszerettem valami másba, és azt mondtam "rossz pályát választottam",
02:07
I said, "I made the wrong career choice here,"
43
127226
3044
02:10
and I fell in love with brains.
44
130294
2239
és beleszerettem az agyba.
02:12
This is not a real brain.
45
132557
1533
Ez nem egy igazi agy. Csak egynek a képe, egy vonalrajz.
02:14
This is a picture of one, a line drawing.
46
134114
2719
02:16
And I don't remember exactly how it happened,
47
136857
2119
Nem emlékszem, pontosan hogy is történt,
02:19
but I have one recollection, which was pretty strong in my mind.
48
139000
3515
de van egy emlékem, ami elég erősen megmaradt a fejemben.
02:22
In September of 1979,
49
142539
1610
1979 szeptemberében a Scientific American
02:24
Scientific American came out with a single-topic issue about the brain.
50
144173
3364
kijött egy tematikus számmal az agyról. És egész jó volt.
02:27
It was one of their best issues ever.
51
147561
1938
A valaha megjelent egyik legjobb szám volt. És beszéltek a neuronról,
02:29
They talked about the neuron, development, disease, vision
52
149523
2947
a fejlődésről, a betegségekről, a látásról és mindenről,
02:32
and all the things you might want to know about brains.
53
152494
2596
amit tudni szeretnénk az agyról. Teljesen lenyűgöző volt.
02:35
It was really quite impressive.
54
155114
1502
02:36
One might've had the impression we knew a lot about brains.
55
156640
2772
És azt a benyomást kelthették, hogy tényleg sokat tudunk az agyról.
02:39
But the last article in that issue was written by Francis Crick of DNA fame.
56
159436
4195
De a szám utolsó cikkét a DNS-ről elhíresült Francis Crick írta.
02:43
Today is, I think, the 50th anniversary of the discovery of DNA.
57
163655
3024
Ma, azt hiszem, a DNS felfedezésének 50-edik születésnapját ünnepeljük.
02:46
And he wrote a story basically saying, this is all well and good,
58
166703
3075
És ő írt egy történetet, amelyben alapjában véve azt mondja,
hogy ez mind nagyon szép és jó, de mondok valamit,
02:49
but you know, we don't know diddly squat about brains,
59
169802
2743
az égvilágon semmit sem tudunk az agyról
02:52
and no one has a clue how they work,
60
172569
1739
és halvány gőze sincs senkinek arról, hogyan működenek ezek a dolgok,
02:54
so don't believe what anyone tells you.
61
174332
1866
tehát ne higgyétek el, amit mások mondanak nektek.
02:56
This is a quote from that article, he says:
62
176222
2165
Egy idézet a cikkből. Azt mondta "Ami szembetűnően hiányzik,"
02:58
"What is conspicuously lacking" -- he's a very proper British gentleman --
63
178411
4293
ő egy valódi angol úriember, tehát "Ami szembetűnően hiányzik,
03:02
"What is conspicuously lacking is a broad framework of ideas
64
182728
2830
az egy átfogó keretrendszer, amelyben értelmeznénk ezeket az eltérő megközelítéseket."
03:05
in which to interpret these different approaches."
65
185582
2352
03:07
I thought the word "framework" was great.
66
187958
1968
Azt gondoltam, hogy a keretrendszer szó nagyszerű.
03:09
He didn't say we didn't have a theory.
67
189950
1817
Nem mondja, hogy még csak elméletünk sincs. Azt mondja,
03:11
He says we don't even know how to begin to think about it.
68
191791
2725
hogy még csak azt sem tudjuk, hogyan kezdjünk el gondolkozni róla,
még csak egy keretrendszerünk sincs.
03:14
We don't even have a framework.
69
194540
1492
Thomas Kuhn szavait használva, a pre-paradigma napjaiban élünk.
03:16
We are in the pre-paradigm days, if you want to use Thomas Kuhn.
70
196056
3050
És így beleszerettem ebbe, és azt mondtam, nézd,
03:19
So I fell in love with this.
71
199130
1339
03:20
I said, look: We have all this knowledge about brains -- how hard can it be?
72
200493
3575
ismerjük ezeket a dolgokat az agyról. Mennyire lehet ez nehéz?
03:24
It's something we can work on in my lifetime; I could make a difference.
73
204092
3438
Ezen egy életen át lehet dolgozni. Úgy éreztem, hogy itt tudnék valamit tenni,
03:27
So I tried to get out of the computer business, into the brain business.
74
207554
3619
ezért megpróbáltam átlépni a számítógépes üzletből az agy-üzletbe.
03:31
First, I went to MIT, the AI lab was there.
75
211197
2004
Először elmentem az MIT-hoz, az MI laboratóriumba,
03:33
I said, I want to build intelligent machines too,
76
213225
2395
és azt mondtam, hogy nos, én is intelligens gépeket akarok építeni,
03:35
but I want to study how brains work first.
77
215644
2517
de oly módon, hogy először az agy működését tanulmányozom.
03:38
And they said, "Oh, you don't need to do that.
78
218185
2306
És ők azt mondták, hogy ó, nincs arra szükség.
03:40
You're just going to program computers, that's all.
79
220515
2390
Mi csak számítógépeket programozunk, ennyi nekünk elég.
03:42
I said, you really ought to study brains.
80
222929
1963
Azt mondtam, tényleg tanulmányoznotok kellene az agyat. Ők azt mondták,
03:44
They said, "No, you're wrong."
81
224916
1432
03:46
I said, "No, you're wrong," and I didn't get in.
82
226372
2246
tévedsz. Erre én azt mondtam, ti tévedtek, és nem kerültem be.
03:48
(Laughter)
83
228642
1078
(Nevetés)
03:49
I was a little disappointed -- pretty young --
84
229744
2155
Egy kicsit csalódott voltam, és eléggé fiatal, de néhány évvel később
03:51
but I went back again a few years later,
85
231923
1936
visszamentem, ezúttal Kaliforniába, és elmentem a Berkeley-re.
03:53
this time in California, and I went to Berkeley.
86
233883
2359
És azt gondoltam, a biológiai oldalról fogom megközelíteni.
03:56
And I said, I'll go in from the biological side.
87
236266
2430
03:58
So I got in the PhD program in biophysics.
88
238720
3089
Tehát bejutottam a doktorátusra biofizikából, és azt gondoltam, rendben,
04:01
I was like, I'm studying brains now. Well, I want to study theory.
89
241833
3410
mostmár az agyat tanulmányozom. Az elméletet akartam tanulmányozni.
04:05
They said, "You can't study theory about brains.
90
245267
2269
Erre ők azt mondták, hogy ó, nem, nem tanulmányozhatod az agy elméletét.
04:07
You can't get funded for that.
91
247560
1995
Ezt nem fogod csinálni. Erre nem kapsz finanszírozást.
04:09
And as a graduate student, you can't do that."
92
249579
2155
És végzős hallgatóként ezt nem teheted. Erre azt gondoltam, ó, istenem.
04:11
So I said, oh my gosh.
93
251758
1218
04:13
I was depressed; I said, but I can make a difference in this field.
94
253000
3155
Nagyon szomorú lettem. Azt mondtam, én akkor is el tudok érni valamit.
Így azt tettem, hogy visszatértem a számítógépiparhoz,
04:16
I went back in the computer industry
95
256179
2008
04:18
and said, I'll have to work here for a while.
96
258211
2105
és azt mondtam magamnak, nos, itt kell dolgozz egy ideig, csinálj valamit.
04:20
That's when I designed all those computer products.
97
260340
2393
Ekkor terveztem azokat a számítógépes termékeket.
04:22
(Laughter)
98
262757
1301
(Nevetés)
04:24
I said, I want to do this for four years, make some money,
99
264082
2894
És azt mondtam, hogy négy évig csinálom ezt, szerzek egy kis pénzt,
04:27
I was having a family, and I would mature a bit,
100
267000
3976
mivel családom is volt, és kicsit érettebbé válok,
04:31
and maybe the business of neuroscience would mature a bit.
101
271000
2816
és hátha az idegtudomány is érettebbé válik egy kicsit.
04:33
Well, it took longer than four years. It's been about 16 years.
102
273840
3001
Hát, tovább tartott négy évnél. Körülbelül 16 évet.
04:36
But I'm doing it now, and I'm going to tell you about it.
103
276865
2716
De most ezt csinálom, és erről fogok beszélni.
04:39
So why should we have a good brain theory?
104
279605
2286
Miért lenne szükségünk egy jó agyelméletre?
04:41
Well, there's lots of reasons people do science.
105
281915
3102
Hát, elég sok oka van annak, hogy az emberek tudománnyal foglalkoznak.
04:45
The most basic one is, people like to know things.
106
285041
2917
Az egyik, a legalapvetőbb az, hogy az emberek szeretnek megtudni dolgokat.
04:47
We're curious, and we go out and get knowledge.
107
287982
2195
Kíváncsiak vagyunk, elmegyünk és megszerezzük a tudást.
04:50
Why do we study ants? It's interesting.
108
290201
1866
Miért tanulmányozzuk a hangyákat? Hát, mert érdekes.
04:52
Maybe we'll learn something useful, but it's interesting and fascinating.
109
292091
3466
Lehet, hogy megtudunk valami ténylegesen hasznosat is, de érdekes és lenyűgöző.
04:55
But sometimes a science has other attributes
110
295581
2057
De néha más sajátosságai
04:57
which makes it really interesting.
111
297662
1829
teszik a tudományt igazán érdekfeszítővé.
04:59
Sometimes a science will tell something about ourselves;
112
299515
2627
Egy tudomány olykor saját magunkról mond el valamit,
05:02
it'll tell us who we are.
113
302166
1224
megmondja, kik vagyunk.
05:03
Evolution did this and Copernicus did this,
114
303414
2752
Az evolúció megmagyarázta, Kopernikusz megmagyarázta,
05:06
where we have a new understanding of who we are.
115
306190
2334
és egy új magyarázatot kaptunk arra, hogy kik is vagyunk.
05:08
And after all, we are our brains. My brain is talking to your brain.
116
308548
3428
És elvégre mi a saját agyunk vagyunk. Az én agyam a te agyadhoz beszél.
05:12
Our bodies are hanging along for the ride,
117
312000
2030
A testünk is ott van, de az agyam beszél a te a agyadhoz.
05:14
but my brain is talking to your brain.
118
314054
1825
05:15
And if we want to understand who we are and how we feel and perceive,
119
315903
3248
És ha meg akarjuk érteni, kik vagyunk és hogyan érzünk és érzékelünk,
valójában az agyunkat akarjuk megérteni.
05:19
we need to understand brains.
120
319175
1391
05:20
Another thing is sometimes science leads to big societal benefits, technologies,
121
320590
3784
Másrészt a tudomány néha
nagy társadalmi haszonhoz, technológiához
05:24
or businesses or whatever.
122
324398
1291
vagy üzletekhez vezet, vagy akármihez. És ez is az,
05:25
This is one, too, because when we understand how brains work,
123
325713
2878
mivel ha megértjük, hogyan műküdik az agy, képesek leszünk
05:28
we'll be able to build intelligent machines.
124
328615
2064
intelligens gépeket építeni, és úgy gondolom, hogy ez egészében véve jó dolog,
05:30
That's a good thing on the whole,
125
330703
1698
05:32
with tremendous benefits to society,
126
332425
1858
és óriási hasznára válik a társadalomnak,
05:34
just like a fundamental technology.
127
334307
1669
mint egy alapvető technológia.
05:36
So why don't we have a good theory of brains?
128
336000
2850
Tehát miért is nincs egy jó elméletünk az agyról?
05:38
People have been working on it for 100 years.
129
338874
2168
Pedig 100 éve dolgoznak rajta az emberek.
05:41
Let's first take a look at what normal science looks like.
130
341066
2719
Először is nézzük meg, hogyan is néz ki egy normális tudomány.
05:43
This is normal science.
131
343809
1187
Ez egy normális tudomány.
05:45
Normal science is a nice balance between theory and experimentalists.
132
345020
4074
Egy normális tudomány egy szép egyensúly az elmélet és a kísérlet között.
05:49
The theorist guy says, "I think this is what's going on,"
133
349118
2691
Az elméleti fickók azt mondják, nos, azt hiszem ez megy végbe,
05:51
the experimentalist says, "You're wrong."
134
351833
1961
a kísérletezők pedig azt mondják, nem, tévedsz.
05:53
It goes back and forth, this works in physics, this in geology.
135
353818
3004
És ez így megy oda-vissza.
Ez működik a fizikában. Működik a geológiában. De ha ez a normális tudomány,
05:56
But if this is normal science, what does neuroscience look like?
136
356846
3009
hogyan néz ki az idegtudomány? Így néz ki az idegtudomány.
05:59
This is what neuroscience looks like.
137
359879
1795
Van ez a hegyoldalnyi adat, ami valójában anatómia, pszichológia és viselkedés.
06:01
We have this mountain of data,
138
361698
1442
06:03
which is anatomy, physiology and behavior.
139
363164
2070
06:05
You can't imagine how much detail we know about brains.
140
365258
3194
El sem tudják képzelni, mennyi részletet tudunk az agyról.
06:08
There were 28,000 people who went to the neuroscience conference this year,
141
368476
3592
Összesen 28000 ember vett részt az idei idegtudományi konferencián,
06:12
and every one of them is doing research in brains.
142
372092
2363
és mindegyikük az agyat kutatja.
06:14
A lot of data, but no theory.
143
374479
1694
Rengeteg adat. De nincs elmélet. Ott van egy kicsi tehetetlen doboz az egésznek a tetején.
06:16
There's a little wimpy box on top there.
144
376197
2000
06:18
And theory has not played a role in any sort of grand way
145
378221
3382
Az elmélet soha nem kapott nagy szerepet a idegtudományban.
06:21
in the neurosciences.
146
381627
1429
06:23
And it's a real shame.
147
383080
1240
És ez egy igazi szégyen. Miért történt mindez?
06:24
Now, why has this come about?
148
384344
1391
06:25
If you ask neuroscientists why is this the state of affairs,
149
385759
2988
Ha megkérdezzük a idegtudósokat, hogy miért ez a helyzet?
06:28
first, they'll admit it.
150
388771
1246
Először is bevallják, hogy így van. De ha megkérdezzük őket, azt fogják mondani,
06:30
But if you ask them, they say,
151
390041
1485
06:31
there's various reasons we don't have a good brain theory.
152
391550
2732
nos, többféle oka is van annak, hogy nincs egy jó agyelméletünk.
06:34
Some say we still don't have enough data,
153
394306
1969
Egyesek azt mondják, hogy még mindig nincs elég adatunk,
06:36
we need more information, there's all these things we don't know.
154
396299
3059
több információra van szükség, itt van ez a csomó dolog, amit nem tudunk.
06:39
Well, I just told you there's data coming out of your ears.
155
399382
2841
Nemrég mondtam, olyan sok adatunk van, hogy már a fülünkön is az folyik ki.
06:42
We have so much information, we don't even know how to organize it.
156
402247
3164
Nagyon sok információnk van, de nem tudjuk, hogyan rendezzük azokat.
06:45
What good is more going to do?
157
405435
1438
Mire lenne jó ennél is több?
06:46
Maybe we'll be lucky and discover some magic thing, but I don't think so.
158
406897
3448
Talán szerencsénk lesz és felfedezünk valamilyen mágikus dolgot, ezt nem igazán hiszem.
06:50
This is a symptom of the fact that we just don't have a theory.
159
410369
2973
Ez tulajdonképpen annak a tünete, hogy nincs elméletünk.
06:53
We don't need more data, we need a good theory.
160
413366
2610
Nincs szükségünk több adatra, egy jó elméletre van szükségünk azokra vonatkozóan.
06:56
Another one is sometimes people say,
161
416000
1798
Néha az emberek azt mondják, hogy az agy annyira bonyolult,
06:57
"Brains are so complex, it'll take another 50 years."
162
417822
3154
még 50 évbe beletelik.
07:01
I even think Chris said something like this yesterday, something like,
163
421000
3354
Azt hiszem, éppen Chris mondott valami hasonlót tegnap.
Nem vagyok benne biztos, hogy mit mondtál, Chris, de valami olyasmit,
07:04
it's one of the most complicated things in the universe.
164
424378
2627
hogy az egyik legbonyolultabb dolog a világegyetemben. Ez nem igaz.
07:07
That's not true -- you're more complicated than your brain.
165
427029
2790
Te sokkal bonyolultabb vagy az agyadnál. Neked részed az agyad.
07:09
You've got a brain.
166
429843
1151
És habár az agy nagyon bonyolultnak tűnik,
07:11
And although the brain looks very complicated,
167
431018
2150
a dolgok csak addig tűnnek bonyolultnak, amíg meg nem értjük őket.
07:13
things look complicated until you understand them.
168
433192
2336
07:15
That's always been the case.
169
435552
1335
Mindig is ez volt a helyzet. Mondhatjuk, hogy
07:16
So we can say, my neocortex, the part of the brain I'm interested in,
170
436911
3243
a neokortexem, az agyterület, ami engem érdekel, 30 milliárd sejtet tartalmaz.
07:20
has 30 billion cells.
171
440178
1152
07:21
But, you know what? It's very, very regular.
172
441354
2432
De mondjak valamit? Nagyon, de nagyon szabályos.
07:23
In fact, it looks like it's the same thing repeated over and over again.
173
443810
3394
Tulajdonképpen ugyanaz a dolog van megismételve sokszor egymás után.
07:27
It's not as complex as it looks. That's not the issue.
174
447228
2536
Nem olyan összetett, mint ahogy látszik. Nem ez a lényeg.
07:29
Some people say, brains can't understand brains.
175
449788
2287
Egyesek azt mondják, az agy nem tudja megérteni az agyat.
07:32
Very Zen-like. Woo.
176
452099
1988
Nagyon zenként hangzik. Úú. Tudják ...
07:34
(Laughter)
177
454111
2188
(Nevetés)
07:36
You know, it sounds good, but why? I mean, what's the point?
178
456323
2859
Hangzani jól hangzik, de miért? Úgy értem, mi az értelme?
07:39
It's just a bunch of cells. You understand your liver.
179
459206
2569
Csak egy halom sejt. A tündőnket értjük.
07:41
It's got a lot of cells in it too, right?
180
461799
1977
Abban is egy halom sejt van, igaz?
07:43
So, you know, I don't think there's anything to that.
181
463800
2494
Ezért én nem hiszem, hogy ennél több lenne.
07:46
And finally, some people say,
182
466318
2112
Erre egyes emberek azt mondják, hogy
07:48
"I don't feel like a bunch of cells -- I'm conscious.
183
468454
2983
én nem egy kupac sejtnek érzem magam. Én tudatos vagyok.
07:51
I've got this experience, I'm in the world.
184
471461
2069
Tudatos vagyok, a világon vagyok.
07:53
I can't be just a bunch of cells."
185
473554
1910
Nem lehetek csak egy kupac sejt. Nos,
07:55
Well, people used to believe there was a life force to be living,
186
475488
3223
az emberek hajlamosak azt hinni, hogy létezett egy bizonyos életerő, amely az életet létrehozta,
07:58
and we now know that's really not true at all.
187
478735
2409
de ma már tudjuk, hogy ez egyáltalán nem igaz.
08:01
And there's really no evidence,
188
481168
1898
És valójában nincs olyan bizonyíték, az emberek
08:03
other than that people just disbelieve that cells can do what they do.
189
483090
3374
hitetlenkedésén túl, hogy a sejtek képesek minderre.
08:06
So some people have fallen into the pit of metaphysical dualism,
190
486488
3041
Még ha néhányan bele is estek a metafizikai dualizmus vermébe,
08:09
some really smart people, too, but we can reject all that.
191
489553
2730
néhány igazán eszes ember is, elvethetjük ezt az egészet.
08:12
(Laughter)
192
492307
2895
(Nevetés)
Nem, én elmondom önöknek, hogy másról van szó,
08:15
No, there's something else,
193
495226
1741
08:16
something really fundamental, and it is:
194
496991
1985
egy nagyon alapvető dologról, és ez a következő:
08:19
another reason why we don't have a good brain theory
195
499000
2451
egy másik oka annak, hogy nincs egy jó agyelméletünk az,
08:21
is because we have an intuitive, strongly held but incorrect assumption
196
501475
5535
hogy egy intuitív, beidegződött
de helytelen feltevésünk meggátolt minket a válasz meglátásától.
08:27
that has prevented us from seeing the answer.
197
507034
2112
08:29
There's something we believe that just, it's obvious, but it's wrong.
198
509170
3788
Van valami, amit nyilvánvalónak tartunk, de helytelenül.
08:32
Now, there's a history of this in science and before I tell you what it is,
199
512982
3566
Ennek múltja van a tudományban, és mielőtt elmondanám, hogy mi is ez,
08:36
I'll tell you about the history of it in science.
200
516572
2299
elmondok egy keveset ennek múltjáról a tudományban.
08:38
Look at other scientific revolutions --
201
518895
1910
Most néhány forradalmi jelentőségű tudományos felfedezést láthatnak,
08:40
the solar system, that's Copernicus,
202
520829
1879
éspedig a naprendszert, ez Kopernikusz nevéhez fűződik,
08:42
Darwin's evolution, and tectonic plates, that's Wegener.
203
522732
2819
Darwin evolúcióelméletét és a lemeztektonikát, ami Wegener elmélete.
Mindegyik sok hasonlóságot mutat az agytudománnyal.
08:46
They all have a lot in common with brain science.
204
526059
2295
08:48
First, they had a lot of unexplained data. A lot of it.
205
528378
2666
Először is mindenhol nagyon sok tisztázatlan adat volt. Nagyon sok.
08:51
But it got more manageable once they had a theory.
206
531068
2794
De egyből kezelhetőbbé vált, amint volt egy elmélet.
08:53
The best minds were stumped -- really smart people.
207
533886
2807
A legnagyobb elméket, a nagyon de nagyon eszes embereket is zavarba ejtették.
08:56
We're not smarter now than they were then;
208
536717
2004
Mi sem vagyunk okosabbak, mint ők voltak akkor.
08:58
it just turns out it's really hard to think of things,
209
538745
2527
Rájövünk, hogy nagyon nehéz gondolkodni a dolgokról,
09:01
but once you've thought of them, it's easy to understand.
210
541296
2676
de ha egyszer gondolkoztunk, elég könnyen megértjük azokat.
09:03
My daughters understood these three theories,
211
543996
2106
A lányaim is megértették ezt a három elméletet
még óvodás korukban.
09:06
in their basic framework, in kindergarten.
212
546126
2518
09:08
It's not that hard -- here's the apple, here's the orange,
213
548668
3266
Nem olyan nehéz, tudják, itt az alma, itt a narancs,
09:11
the Earth goes around, that kind of stuff.
214
551958
2018
a Föld körbemegy, valahogy így.
09:14
Another thing is the answer was there all along,
215
554000
2586
Valójában a válasz mindvégig ott volt,
09:16
but we kind of ignored it because of this obvious thing.
216
556610
2779
de valahogy figyelmen kívül hagytuk emiatt a magától értetődőség miatt, és ez az a valami.
09:19
It was an intuitive, strongly held belief that was wrong.
217
559413
2850
Egy intuitív, beidegződött meggyőződés, ami helytelen volt.
09:22
In the case of the solar system,
218
562287
1690
A naprendszer esetében a gondolat, hogy a Föld forog,
09:24
the idea that the Earth is spinning,
219
564001
1760
09:25
the surface is going a thousand miles an hour,
220
565785
2191
és a Föld felülete körülbelül ezer mérföldes sebességgel mozog,
09:28
and it's going through the solar system at a million miles an hour --
221
568000
3249
és a Föld körülbelül egymillió mérföldes sebességgel száguld a naprendszeren keresztül.
09:31
this is lunacy; we all know the Earth isn't moving.
222
571273
2476
Ez őrültség. Mindannyian tudjuk, hogy a Föld nem mozog.
09:33
Do you feel like you're moving a thousand miles an hour?
223
573773
2877
Te úgy érzed, hogy ezer mérföldes sebességgel mozogsz?
Persze, hogy nem. Ha valaki azt mondta volna,
09:36
If you said Earth was spinning around in space and was huge --
224
576674
2919
hogy körbe forog az űrben és olyan hatalmas,
09:39
they would lock you up, that's what they did back then.
225
579617
2591
azt bezárták volna, és ezt meg is tették akkoriban.
(Nevetés)
09:42
So it was intuitive and obvious. Now, what about evolution?
226
582232
3275
Tehát intuitív és nyilvánvaló volt. Mi a helyzet az evolúcióval?
09:45
Evolution, same thing.
227
585531
1154
Az evolúció ugyanaz a mese. Azt tanítottuk a gyermekeinknek, hogy a Biblia azt mondja,
09:46
We taught our kids the Bible says God created all these species,
228
586709
3080
Isten teremtette az összes fajt, a macskák macskák, a kutyák kutyák,
09:49
cats are cats; dogs are dogs; people are people; plants are plants;
229
589813
3143
az emberek emberek, a növények növények, és ezek nem változnak.
09:52
they don't change.
230
592980
1241
Noé ilyen sorrendben vitte fel őket a bárkájára, bla, bla, bla. A helyzet az,
09:54
Noah put them on the ark in that order, blah, blah.
231
594245
2649
09:56
The fact is, if you believe in evolution, we all have a common ancestor.
232
596918
3395
hogy ha hiszünk az evolúciónak, akkor egyetlen közös őstől származunk,
10:00
We all have a common ancestor with the plant in the lobby!
233
600337
3282
és nekünk valamint az előszobai növénynek közös őseink vannak.
10:03
This is what evolution tells us. And it's true. It's kind of unbelievable.
234
603643
3686
Ezt mondja nekünk az evolúció. És ez az igazság. Mennyire hihetetlen.
10:07
And the same thing about tectonic plates.
235
607353
2557
És ugyanez a helyzet a tektonikai lemezekkel is.
10:09
All the mountains and the continents
236
609934
1722
Az összes hegy és kontinens valahogy
10:11
are kind of floating around on top of the Earth.
237
611680
2344
a Föld tetején úszik. Ennek sincs semmi értelme.
10:14
It doesn't make any sense.
238
614048
1246
10:15
So what is the intuitive, but incorrect assumption,
239
615318
4601
Tehát, mi az az intuitív de helytelen feltevés,
10:19
that's kept us from understanding brains?
240
619943
1967
ami meggátolt minket az agy megértésében?
10:21
I'll tell you. It'll seem obvious that it's correct. That's the point.
241
621934
3293
Ezt fogom most most elmondani, és nyilvánvaló lesz, hogy ez helyes,
és ez a lényeg, rendben? Ezután meg kell majd indokolnom,
10:25
Then I'll make an argument why you're incorrect on the other assumption.
242
625251
3434
hogy miért is tévednek a másik feltevéssel kapcsolatban.
10:28
The intuitive but obvious thing is:
243
628709
1682
Az intuitív, de nyilvánvaló dolog az, hogy valamilyen módon az intelligenciát
10:30
somehow, intelligence is defined by behavior;
244
630415
2314
a viselkedés határozza meg,
10:32
we're intelligent because of how we do things
245
632753
2350
vagyis intelligensek vagyunk, amiatt ahogyan teszünk dolgokat
10:35
and how we behave intelligently.
246
635127
1572
és mert intelligensen viselkedünk, de elárulom, hogy ez helytelen.
10:36
And I'm going to tell you that's wrong.
247
636723
1879
10:38
Intelligence is defined by prediction.
248
638626
2131
Valójában az intelligenciát a predikció határozza meg.
10:40
I'm going to work you through this in a few slides,
249
640781
2415
A következő néhány slide-on ezen fogunk végigmenni,
10:43
and give you an example of what this means.
250
643220
2094
és adok egy példát arra, hogy ez mit is jelent. Ez egy rendszer.
10:45
Here's a system.
251
645338
1301
10:46
Engineers and scientists like to look at systems like this.
252
646663
2908
A mérnökök szeretnek így tekinteni egy rendszerre. A tudósok szeretnek így tekinteni egy rendszerre.
10:49
They say, we have a thing in a box. We have its inputs and outputs.
253
649595
3163
Azt mondják, van valami egy dobozban, továbbá vannak bemeneteink es kimeneteink.
10:52
The AI people said, the thing in the box is a programmable computer,
254
652782
3240
Az MI-sek azt mondják, hogy a dolog a dobozban egy programozható számítógép,
10:56
because it's equivalent to a brain.
255
656046
1679
mivel az egyenértékű egy aggyal, adunk neki valamilyen bemenetet,
10:57
We'll feed it some inputs and get it to do something, have some behavior.
256
657749
3506
és az produkálni fog valamit, valamilyen viselkedést.
Alan Turing definiálta a Turing-tesztet, ami tulajdonképpen azt mondja,
11:01
Alan Turing defined the Turing test, which essentially says,
257
661279
2822
hogy valami intelligens, ha az emberhez hasonlóan viselkedik.
11:04
we'll know if something's intelligent if it behaves identical to a human --
258
664125
3553
Az intelligenciának egy viselkedési metrikája,
11:07
a behavioral metric of what intelligence is
259
667702
2106
11:09
that has stuck in our minds for a long time.
260
669832
2144
amely hosszú ideig megragadt az eszünkben.
11:12
Reality, though -- I call it real intelligence.
261
672000
2392
A valóságot azonban én az igazi intelligenciának nevezem.
11:14
Real intelligence is built on something else.
262
674416
2175
Az igazi intelligencia valami máson alapszik.
11:16
We experience the world through a sequence of patterns,
263
676615
3214
A világot minták sorozatán keresztül ismerjük meg, eltároljuk azokat,
11:19
and we store them, and we recall them.
264
679853
2149
majd visszaemlékezünk rájuk. És amikor visszaemlékszünk, összevetjük azokat
11:22
When we recall them, we match them up against reality,
265
682026
2545
a valósággal, és minden alkalommal jóslást végzünk.
11:24
and we're making predictions all the time.
266
684595
2251
11:26
It's an internal metric; there's an internal metric about us,
267
686870
2958
Ez egy állandó metrika. Van egy állandó metrika, amely valami olyasmit mond,
11:29
saying, do we understand the world, am I making predictions, and so on.
268
689852
3342
értjük mi a világot? Most jóslásokat végzek? És így tovább.
11:33
You're all being intelligent now, but you're not doing anything.
269
693218
3002
Mindenki önök közül intelligens, pedig nem is csinálnak semmit.
Lehet, hogy egyesek vakaróznak, piszkálják az orrukat,
11:36
Maybe you're scratching yourself, but you're not doing anything.
270
696244
3002
nem tudom, de épp most nem csinálnak semmit,
11:39
But you're being intelligent; you're understanding what I'm saying.
271
699270
3156
azonban intelligensek, értik, amit mondok.
11:42
Because you're intelligent and you speak English,
272
702450
2295
Mivel mindenki intelligens és beszél angolul,
11:44
you know the word at the end of this
273
704769
1751
ezért tudják, hogy milyen
szó lesz a végén ennek a ... mondatnak.
11:46
sentence.
274
706544
1159
11:47
The word came to you; you make these predictions all the time.
275
707727
3152
Megtalálták a szót, és ilyen predikciókat végeznek minden alkalommal.
11:50
What I'm saying is,
276
710903
1699
Az akarom mondani,
11:52
the internal prediction is the output in the neocortex,
277
712626
2631
hogy az állandó jóslás a neokortex kimenete.
És valahogyan a jóslás intelligens viselkedéshez vezet.
11:55
and somehow, prediction leads to intelligent behavior.
278
715281
2541
11:57
Here's how that happens:
279
717846
1151
És ez a következőképpen történik. Kezdjük egy nem-intelligens aggyal.
11:59
Let's start with a non-intelligent brain.
280
719021
1955
Egy nem-intelligens aggyal fogok érvelni, vegyünk egy régi agyat,
12:01
I'll argue a non-intelligent brain, we'll call it an old brain.
281
721000
3009
12:04
And we'll say it's a non-mammal, like a reptile,
282
724033
2871
mondjuk egy nem-emlős agyat, például hüllőt,
12:06
say, an alligator; we have an alligator.
283
726928
1985
például egy aligátort. Van egy aligátorunk.
12:08
And the alligator has some very sophisticated senses.
284
728937
3371
Az aligátornak nagyon kifinomult érzékei vannak.
12:12
It's got good eyes and ears and touch senses and so on,
285
732332
3206
Nagyon jó szeme van és hallása és tapintóérzéke és így tovább,
12:15
a mouth and a nose.
286
735562
1469
szája és orra. Nagyon bonyolult viselkedéssel rendelkezik.
12:17
It has very complex behavior.
287
737055
1991
12:19
It can run and hide. It has fears and emotions. It can eat you.
288
739070
3906
Tud szaladni és el tud rejtőzni. Vannak félelmei és érzelmei. Meg tudja enni önöket.
12:23
It can attack. It can do all kinds of stuff.
289
743000
3590
Tud támadni. Mindenféle dolgot tud csinálni.
12:27
But we don't consider the alligator very intelligent,
290
747193
2856
De mi nem igazán tekintjük az aligátort nagyon intelligensnek, legalábbis nem úgy mint az embereket.
12:30
not in a human sort of way.
291
750073
1676
12:31
But it has all this complex behavior already.
292
751773
2356
De akkor is rendelkezik ezzel a bonyolult viselkedéssel.
12:34
Now in evolution, what happened?
293
754510
1801
Mi történt az evolúció során?
12:36
First thing that happened in evolution with mammals
294
756335
2385
Az első dolog, ami az evolúció során történt az emlősökkel az,
12:38
is we started to develop a thing called the neocortex.
295
758744
2531
hogy elkezdtük kifejleszteni ezt a neokortexnek nevezett dolgot.
12:41
I'm going to represent the neocortex by this box on top of the old brain.
296
761299
3793
Itt a neokortexet ez a kis doboz
fogja ábrázolni, a régi agy tetejére illesztve.
12:45
Neocortex means "new layer." It's a new layer on top of your brain.
297
765116
3353
A neokortex egy új réteget jelent. Egy új réteget az agyunkon.
12:48
It's the wrinkly thing on the top of your head
298
768493
2343
Ha még nem ismerik, ez az a barázdás dolog a fejünk tetején, ami
12:50
that got wrinkly because it got shoved in there and doesn't fit.
299
770860
3084
azért lett barázdás, mert betuszkolták oda és nem fér el.
12:53
(Laughter)
300
773968
1008
(Nevetés)
12:55
Literally, it's about the size of a table napkin
301
775000
2242
Nem, tényleg, ez így van. Körülbelül egy asztalkendő méretű.
12:57
and doesn't fit, so it's wrinkly.
302
777266
1574
És nem fér el, tehát összegyűrődik. Most figyeljék meg, hogyan rajzoltam itt le.
12:58
Now, look at how I've drawn this.
303
778864
1745
13:00
The old brain is still there.
304
780633
1386
A régi agy még mindig itt van. Mindenkinek aligátoragya van.
13:02
You still have that alligator brain. You do. It's your emotional brain.
305
782043
3655
Mindenkinek. Ez az érzelmi agyunk.
13:05
It's all those gut reactions you have.
306
785722
2730
Mindezek a dolgok és az ösztönös reakcióink.
13:08
On top of it, we have this memory system called the neocortex.
307
788476
3270
És mindennek a tetején ott van ez a memóriarendszer, amit neokortexnek nevezünk.
13:11
And the memory system is sitting over the sensory part of the brain.
308
791770
4294
És a memóriarendszer az agy érzékelési részén ül.
13:16
So as the sensory input comes in and feeds from the old brain,
309
796088
3055
És így, amint az érzékelt dolog bejön majd továbbmegy a régi agyból,
13:19
it also goes up into the neocortex.
310
799167
2154
felmegy a neokortexbe is. És a neokortex csak tárol.
13:21
And the neocortex is just memorizing.
311
801345
1913
13:23
It's sitting there saying, I'm going to memorize all the things going on:
312
803282
3561
Ott ül és azt mondja, eltárolok minden dolgot amit történik,
13:26
where I've been, people I've seen, things I've heard, and so on.
313
806867
3019
ahol voltam, az embereket, akiket láttam, a dolgokat, amit hallottam, és így tovább.
13:29
And in the future, when it sees something similar to that again,
314
809910
3362
És a jövőben, ha valami ezekhez hasonlót lát,
13:33
in a similar environment, or the exact same environment,
315
813296
2635
tehát egy hasonló környezetben vagy ugyanabban a környezetben,
13:35
it'll start playing it back: "Oh, I've been here before,"
316
815955
3555
akkor visszajátssza. Elkezdi visszajátszani.
Ó, jártam én már itt. És amikor ezelőtt itt voltunk,
13:39
and when you were here before, this happened next.
317
819534
2364
ez történt ezután. Lehetővé teszi, hogy megjósoljuk a jövőt.
13:41
It allows you to predict the future.
318
821922
1726
13:43
It literally feeds back the signals into your brain;
319
823672
3396
Szó szerint visszacsatolja a jeleket az agyunkba,
13:47
they'll let you see what's going to happen next,
320
827092
2265
megmutatja mi fog történni a következő pillanatban,
13:49
will let you hear the word "sentence" before I said it.
321
829381
2595
megmondja a "mondat" szót, mielőtt én kimondanám.
13:52
And it's this feeding back into the old brain
322
832000
3185
És ez a régi agyba való visszacsatolás az,
13:55
that will allow you to make more intelligent decisions.
323
835209
2577
ami alapján sokkal intelligensebb döntésekre vagyunk képesek.
13:57
This is the most important slide of my talk, so I'll dwell on it a little.
324
837810
3489
Ez az előadásom legfontosabb slide-ja, ezért el fogok időzni kicsit ennél.
14:01
And all the time you say, "Oh, I can predict things,"
325
841323
3575
Tehát egyfolytában azt mondjuk, ó, meg tudom jósolni a dolgokat.
14:04
so if you're a rat and you go through a maze, and you learn the maze,
326
844922
3360
És ha egy patkány vagyok és keresztülmegyek egy labirintuson, és megtanulom a labirintust,
14:08
next time you're in one, you have the same behavior.
327
848306
2439
a következő alkalommal, amikor egy labirintusban leszek, ugyanúgy fogok viselkedni,
14:10
But suddenly, you're smarter; you say, "I recognize this maze,
328
850769
2991
de hirtelen sokkal okosabb leszek,
mert felismerem a labirintust, tudom, merre kell mennem,
14:13
I know which way to go; I've been here before; I can envision the future."
329
853784
3542
már jártam itt, előre tudom vetíteni a jövőt. És ez az mit csinál.
14:17
That's what it's doing.
330
857350
1168
14:18
This is true for all mammals --
331
858542
2840
Az emberek esetében, egyébként ez igaz minden emlősre,
14:21
in humans, it got a lot worse.
332
861406
2031
igaz más emlősökre, de az emberek esetén ez sokkal rosszabb lett.
14:23
Humans actually developed the front of the neocortex,
333
863461
2587
Mi, az emberek, kifejlesztettük a neokortex egy új részét,
14:26
called the anterior part of the neocortex.
334
866072
2221
amit a neokortex elülső részének hívunk. És a természet elkövetett egy csínyt.
14:28
And nature did a little trick.
335
868317
1438
14:29
It copied the posterior, the back part, which is sensory,
336
869779
2687
Lemásolta a hátsó, vagyis az érzékelő részt,
14:32
and put it in the front.
337
872490
1151
és betette az elülső részbe.
14:33
Humans uniquely have the same mechanism on the front,
338
873665
2480
És az emberekben egyedülálló módon ugyanaz a mechanizmus a frontális részben,
14:36
but we use it for motor control.
339
876169
1554
de ezt a motoros funckiókra használjuk.
14:37
So we're now able to do very sophisticated motor planning, things like that.
340
877747
3581
Így mostmár nagyon kifinomult mozgásterveket tudunk készíteni.
14:41
I don't have time to explain, but to understand how a brain works,
341
881352
3126
Nincs rá idő, hogy igazán belemenjek ezekbe, de ha meg akarjuk érteni, hogyan működik az agy,
14:44
you have to understand how the first part of the mammalian neocortex works,
342
884502
3537
meg kell értenünk, hogyan működik az emlősök neokortexének első része,
hogyan tároljuk a mintákat és hogyan jósolunk.
14:48
how it is we store patterns and make predictions.
343
888063
2293
Hadd mutassak be néhány jóslási példát.
14:50
Let me give you a few examples of predictions.
344
890380
2188
14:52
I already said the word "sentence."
345
892592
1676
Már elmondtam a mondatos dolgot. A zenében,
14:54
In music, if you've heard a song before,
346
894292
3206
ha hallottunk egy dalt valamikor, ha már hallottuk Jillt énekelni azokat a dalokat,
14:57
when you hear it, the next note pops into your head already --
347
897522
2909
amikor énekel, a rákövetkező hang egyből beugrik a fejünkbe,
15:00
you anticipate it.
348
900455
1151
előre halljuk menet közben. Ha egy zenealbumról van szó,
15:01
With an album, at the end of a song, the next song pops into your head.
349
901630
3354
a szám végén beugrik a következő dal.
15:05
It happens all the time, you make predictions.
350
905008
2305
És ezek a dolgok egyfolytában megtörténnek. Ilyen jóslásokat végzünk.
15:07
I have this thing called the "altered door" thought experiment.
351
907337
3039
Van ez a dolog, amit a megváltozott ajtó kísérletének hívunk.
15:10
It says, you have a door at home;
352
910400
2829
A megváltozott ajtó kísérlete úgy szól, hogy van egy ajtód otthon,
15:13
when you're here, I'm changing it --
353
913253
1755
és amíg te itt vagy, én megváltoztatom. Most épp ott van
15:15
I've got a guy back at your house right now, moving the door around,
354
915032
3196
egy fickó a házadnál, épp az ajtót piszkálgatja,
15:18
moving your doorknob over two inches.
355
918252
1769
majd le fogja venni a kilincsgombot és két hüvelykkel feljebb teszi.
15:20
When you go home tonight, you'll put your hand out, reach for the doorknob,
356
920045
3584
És amikor ma este hazamész, kinyújtod a kezed,
el akarod majd érni a kilincsgombot, és észreveszed,
15:23
notice it's in the wrong spot
357
923653
1514
hogy rossz helyen van, és azt mondod, várjunk csak, valami történt.
15:25
and go, "Whoa, something happened."
358
925191
1687
15:26
It may take a second, but something happened.
359
926902
2101
Beletelhet egy másodpercbe, hogy rágyere mi is az, de valami történt.
15:29
I can change your doorknob in other ways --
360
929027
2003
Sokféleképpen meg lehetne még változtatni a kilincsgombot.
15:31
make it larger, smaller, change its brass to silver, make it a lever,
361
931054
3241
Lehetne nagyobb vagy kisebb, rézből ezüst,
kicserélhetem fogantyúsra. Vagy magát az ajtót befesthetném,
15:34
I can change the door; put colors on, put windows in.
362
934319
2576
tehetnék rá ablakokat. Ezer dolgot megváltoztathatnék az ajtódon,
15:36
I can change a thousand things about your door
363
936919
2151
de a két másodperc alatt, amíg kinyitnád az ajtót
15:39
and in the two seconds you take to open it,
364
939094
2008
észrevennéd, hogy valami megváltozott.
15:41
you'll notice something has changed.
365
941126
1722
15:42
Now, the engineering approach, the AI approach to this,
366
942872
2584
A mérnöki megközelítése ennek, az MI megközelítés az
15:45
is to build a door database with all the door attributes.
367
945480
2675
hogy készítünk egy ajtóadatbázist. Ez minden ajtóattribútumot tartalmaz.
15:48
And as you go up to the door, we check them off one at time:
368
948179
2819
És ahogy az ajtó felé mész, megvizsgáljuk azokat, egyszerre csak egyet.
15:51
door, door, color ...
369
951022
1346
Ajtó, ajtó, ajtó, szín, értik, amit mondok.
15:52
We don't do that. Your brain doesn't do that.
370
952392
2100
Ilyet nem csinálunk. Az agyunk nem csinál ilyet.
15:54
Your brain is making constant predictions all the time
371
954516
2540
Amit az agyunk tesz az az állandó jóslás egész idő alatt
15:57
about what will happen in your environment.
372
957080
2034
arról, hogy mi fog történni a környezetünkben.
15:59
As I put my hand on this table, I expect to feel it stop.
373
959138
2746
Ahogy ráteszem a kezem erre az asztalra, azt várom, hogy érezzem, az megállítja.
16:01
When I walk, every step, if I missed it by an eighth of an inch,
374
961908
3019
Amikor megyek, minden egynyolcad hüvelykkel elvétett lépésnél
16:04
I'll know something has changed.
375
964951
1533
tudom, hogy valami megváltozott.
16:06
You're constantly making predictions about your environment.
376
966508
2820
Állandóan jóslásokat végzünk a környezetünkről.
16:09
I'll talk about vision, briefly.
377
969352
1593
Beszélek röviden a látásról is. Ez a kép egy hölgyet ábrázol.
16:10
This is a picture of a woman.
378
970969
1383
16:12
When we look at people, our eyes saccade over two to three times a second.
379
972376
3490
Amikor egy emberre nézünk, a szemünket másodpercenként
kétszer vagy háromszor elkapjuk.
16:15
We're not aware of it, but our eyes are always moving.
380
975890
2529
Nem vagyunk tudatában ennek, de a szemünk egyfolytában mozog.
Ha valakinek az arcát nézzük,
16:18
When we look at a face, we typically go from eye to eye to nose to mouth.
381
978443
3435
akkor az egyik szeméről a másikra, vissza, az orrára, a szájára nézünk.
16:21
When your eye moves from eye to eye,
382
981902
1869
Amikor a szemünk az egyik szemről a másikra megy,
16:23
if there was something else there like a nose,
383
983795
2158
ha ott valami mást talál, mondjuk egy orrot,
16:25
you'd see a nose where an eye is supposed to be and go, "Oh, shit!"
384
985977
3546
ha egy orrot látunk ott ahol egy szemnek kellene lennie,
akkor azt mondjuk, basszus ...
16:29
(Laughter)
385
989547
1396
16:30
"There's something wrong about this person."
386
990967
2109
(Nevetés)
Valami baj van ezzel az alakkal.
16:33
That's because you're making a prediction.
387
993100
2005
És ez azért van, mert jóslást végzünk.
16:35
It's not like you just look over and say, "What am I seeing? A nose? OK."
388
995129
3439
Nem úgy, hogy csak végigpillantunk és azt mondjuk, mit is látok én most?
Egy orrot, az rendben van. Nem, van egy elvárásunk, hogy mit kellene látnunk.
16:38
No, you have an expectation of what you're going to see.
389
998592
2634
(Nevetés)
16:41
Every single moment.
390
1001250
1151
Minden egyes pillanatban. Végül gondoljuk meg, hogyan vizsgáljuk az intelligenciát.
16:42
And finally, let's think about how we test intelligence.
391
1002425
2629
16:45
We test it by prediction: What is the next word in this ...?
392
1005078
3081
Jóslással vizsgáljuk. Mi a következő szó ebben a, ismerik?
16:48
This is to this as this is to this. What is the next number in this sentence?
393
1008183
3627
Ez ehhez, ahogy amaz ahhoz. Mi lesz a következő szám ebben a mondatban?
16:51
Here's three visions of an object. What's the fourth one?
394
1011834
2690
Itt van három tárgy képe.
Mi a negyedik? Így történik a vizsgálat. Minden a jóslásról szól.
16:54
That's how we test it. It's all about prediction.
395
1014548
2504
16:57
So what is the recipe for brain theory?
396
1017573
2194
Szóval mi lenne a recept az agyelméletre?
17:00
First of all, we have to have the right framework.
397
1020219
2366
Először is rendelkeznünk kell a megfelelő keretrendszerrel.
17:02
And the framework is a memory framework,
398
1022609
1913
És a keretrendszer egy memória-keretrendszer,
17:04
not a computational or behavior framework,
399
1024546
2024
nem egy számítási vagy viselkedési keretrendszer. Egy memória-keretrendszer.
17:06
it's a memory framework.
400
1026594
1163
17:07
How do you store and recall these sequences of patterns?
401
1027781
2623
Hogyan tároljuk és hívjuk vissza ezeket a mintaszekvenciákat? A tér- és időbeli mintákat.
17:10
It's spatiotemporal patterns.
402
1030428
1442
17:11
Then, if in that framework, you take a bunch of theoreticians --
403
1031894
3009
Ha megvan a keretrendszer, akkor veszünk egy halom teoretikust.
17:14
biologists generally are not good theoreticians.
404
1034927
2246
A biológusok általában nem jó teoretikusok.
Ez nem mindig igaz, de elmondható, hogy a biológiában az elméletnek nincs jó múltja.
17:17
Not always, but generally, there's not a good history of theory in biology.
405
1037197
3529
17:20
I've found the best people to work with are physicists,
406
1040750
2574
Rájöttem, hogy akikkel a legjobban lehet dolgozni azok a fizikusok,
17:23
engineers and mathematicians,
407
1043348
1383
mérnökök és matematikusok, akik hajlamosak algoritmikusan gondolkodni.
17:24
who tend to think algorithmically.
408
1044755
1696
17:26
Then they have to learn the anatomy and the physiology.
409
1046475
3264
Meg kell tanulják az anatómiát, és meg kell tanulják az élettant.
17:29
You have to make these theories very realistic in anatomical terms.
410
1049763
4496
Ezeket az elméleteket anatómiai értelemben nagyon realisztikussá kell tenni.
Bárki, aki kiáll és elmondja az elméletét az agy működéséről,
17:34
Anyone who tells you their theory about how the brain works
411
1054283
2765
17:37
and doesn't tell you exactly how it's working
412
1057072
2097
és nem mondja el, pontosan hogyan is működik az az agyban
17:39
and how the wiring works --
413
1059193
1303
és hogyan működnek a kapcsolatok az agyban, az nem elmélet.
17:40
it's not a theory.
414
1060520
1267
17:41
And that's what we do at the Redwood Neuroscience Institute.
415
1061811
2833
Ez az amit mi a Redwood Neuroscience Institute-nál csinálunk.
17:44
I'd love to tell you we're making fantastic progress in this thing,
416
1064668
3308
Szerettem volna, ha több időm van, hogy elmondjam milyen fantasztikusuan haladunk e téren,
17:48
and I expect to be back on this stage sometime in the not too distant future,
417
1068000
3662
de szeretnék visszatérni erre a színpadra,
talán valamikor a nem túl távoli jövőben és akkor elmondom önöknek.
17:51
to tell you about it.
418
1071686
1164
17:52
I'm really excited; this is not going to take 50 years.
419
1072874
2594
Teljesen, teljesen izgatott vagyok. Ez egyáltalán nem fog 50 évbe beletelni.
17:55
What will brain theory look like?
420
1075492
1578
Hogyan is fog kinézni az agyelmélet?
17:57
First of all, it's going to be about memory.
421
1077094
2055
Először is egy elmélet lesz, amely a memóriáról szól.
17:59
Not like computer memory -- not at all like computer memory.
422
1079173
2822
Nem olyanról, mint a számítógépes memória. Ez egyáltalán nem olyan, mint a számítógép memóriája.
18:02
It's very different.
423
1082019
1151
Nagyon, de nagyon különbözik attól. Egy memória ezekkel a
18:03
It's a memory of very high-dimensional patterns,
424
1083194
2257
nagyon nagydimenziós mintákkal, mint amilyenek a szemünkbe érkező dolgok.
18:05
like the things that come from your eyes.
425
1085475
1962
18:07
It's also memory of sequences:
426
1087461
1437
De egyúttal a egymásutániság memóriája is.
18:08
you cannot learn or recall anything outside of a sequence.
427
1088922
2730
Egymásutániság nélkül nem tudunk tanulni vagy visszaemlékezni.
18:11
A song must be heard in sequence over time,
428
1091676
2837
Egy dalt időbeni egymásutániságában kell meghallgatnunk,
18:14
and you must play it back in sequence over time.
429
1094537
2351
és időbeni egymásutániságában kell visszajátszanunk.
18:16
And these sequences are auto-associatively recalled,
430
1096912
2449
És ezek az egymásutániságok autoasszociatívan felidéződnek, így ha látok valamit,
18:19
so if I see something, I hear something, it reminds me of it,
431
1099385
2873
hallok valamit, az agyam eszembe juttatja és automatikusan visszajátssza.
18:22
and it plays back automatically.
432
1102282
1533
18:23
It's an automatic playback.
433
1103839
1294
Egy automatikus visszajátszás. Ahol a kívánt kimenetet a jövőbeli bemenetek képezik.
18:25
And prediction of future inputs is the desired output.
434
1105157
2548
18:27
And as I said, the theory must be biologically accurate,
435
1107729
2620
És ahogy már mondtam, az elméletnek biológiailag pontosnak kell lennie,
18:30
it must be testable and you must be able to build it.
436
1110373
2484
vizsgálhatónak kell lennie, és képesek kell legyünk azt felépíteni.
18:32
If you don't build it, you don't understand it.
437
1112881
2211
Ha nem tudjuk felépíteni, akkor nem is értjük. Hadd mutassak még egy slide-ot.
18:35
One more slide.
438
1115116
1532
18:36
What is this going to result in?
439
1116672
2309
Mi lesz ennek a következménye? Képesek leszünk valóban intelligens gépeket építeni?
18:39
Are we going to really build intelligent machines?
440
1119005
2348
Teljes mértékben. És különbözni fog attól, ahogy az emberek gondolják.
18:41
Absolutely. And it's going to be different than people think.
441
1121377
3798
Semmi kétségem afelől, hogy ez meg fog történni.
18:45
No doubt that it's going to happen, in my mind.
442
1125508
2392
18:47
First of all, we're going to build this stuff out of silicon.
443
1127924
3116
Meg fog épülni, meg fogjuk építeni ezt a dolgot szilikonból.
18:51
The same techniques we use to build silicon computer memories,
444
1131064
2912
Ugyanaz a módszer, amit a szilkon alapú számítógépes memóriánál használunk,
18:54
we can use here.
445
1134000
1151
használható itt is.
18:55
But they're very different types of memories.
446
1135175
2109
De ezek nagyon különböző típusú memóriák.
18:57
And we'll attach these memories to sensors,
447
1137308
2023
És ezeket a memóriákat szenzorokhoz fogjuk csatolni,
18:59
and the sensors will experience real-live, real-world data,
448
1139355
2777
és a szenzorok valós életbeli, valós világbeli adatokat fognak tapasztalni,
19:02
and learn about their environment.
449
1142156
1752
és ezek a dolgok tanulni fognak a környezetükből.
19:03
Now, it's very unlikely the first things you'll see are like robots.
450
1143932
3445
Elég valószínűtlen, hogy az első dolgok, amiket látni fogunk azok robotszerűek lesznek.
19:07
Not that robots aren't useful; people can build robots.
451
1147401
2575
Nem mintha a robotok ne lennének hasznosak, és az emberek tudnak robotokat építeni.
19:10
But the robotics part is the hardest part. That's old brain. That's really hard.
452
1150000
3767
De a robotikai rész a legnehezebb. Az a régi agy. Az nagyon nehéz.
19:13
The new brain is easier than the old brain.
453
1153791
2007
Az új agy kicsit egyszerűbb a régi agynál.
19:15
So first we'll do things that don't require a lot of robotics.
454
1155822
3082
Tehát az első dolog, amit csinálni fogunk, olyan lesz, ami nem igényel sok robotikát.
19:18
So you're not going to see C-3PO.
455
1158928
2179
Nem fogjuk látni C-3PO-t.
19:21
You're going to see things more like intelligent cars
456
1161131
2485
Inkább olyasmiket fogunk látni, mint az intelligens autók,
19:23
that really understand what traffic is, what driving is
457
1163640
2808
amelyek valóban értik, mit jelent a közlekedés, mit jelent a vezetés,
19:26
and have learned that cars with the blinkers on for half a minute
458
1166472
3278
és megtanulták, hogy bizonyos, fél percen keresztül jelzőlámpájukat villogtató autók
19:29
probably aren't going to turn.
459
1169774
1574
valószínűleg nem fognak befordulni, és hasonló dolgokat.
19:31
(Laughter)
460
1171372
1291
(Nevetés)
19:32
We can also do intelligent security systems.
461
1172687
2064
Készíthetünk intelligens biztonsági rendszereket is.
19:34
Anytime we're basically using our brain but not doing a lot of mechanics --
462
1174775
3573
Bárhol, ahol alapvetően az agyunkat használjuk, és nincs sok mechanika.
19:38
those are the things that will happen first.
463
1178372
2059
Ezek lesznek azok a dolgok, amelyeket először létrehozunk.
19:40
But ultimately, the world's the limit.
464
1180455
1820
De végső soron csak a képzelet szab határt ezeknek.
19:42
I don't know how this will turn out.
465
1182299
1732
Nem tudom, hogyan fog ez alakulni.
19:44
I know a lot of people who invented the microprocessor.
466
1184055
2591
Ismerek egy csomó embert, akik feltalálták a mikroprocesszort,
19:46
And if you talk to them,
467
1186670
2164
és ha megkérdezed tőlük, tudták, hogy amit csinálnak az nagy jelentőséggel bír,
19:48
they knew what they were doing was really significant,
468
1188858
2575
19:51
but they didn't really know what was going to happen.
469
1191457
2500
de nem igazán tudták, hogy mi fog utána történni.
19:53
They couldn't anticipate cell phones and the Internet
470
1193981
2768
Nem tudták megjósolni a mobiltelefont és az Internetet és ezeket a dolgokat.
19:56
and all this kind of stuff.
471
1196773
1735
19:58
They just knew like, "We're going to build calculators
472
1198532
2621
Csak olyasmit tudtak, hogy számológépeket fognak építeni
20:01
and traffic-light controllers.
473
1201177
1440
és forgalomirányító lámpákat. De valami nagy dolog lesz.
20:02
But it's going to be big!"
474
1202641
1299
20:03
In the same way, brain science and these memories
475
1203964
2341
Ugyanígy van ez az agytudománnyal is, és ezek a memóriák
20:06
are going to be a very fundamental technology,
476
1206329
2225
egy nagyon alapvető technológiát fognak képezni, és hihetetlen
20:08
and it will lead to unbelievable changes in the next 100 years.
477
1208578
3442
változásokhoz fognak vezetni az elkövetkezendő 100 évben.
20:12
And I'm most excited about how we're going to use them in science.
478
1212044
3405
És a legjobban aziránt vagyok izgatott, hogy hogyan fogjuk ezeket a tudományban felhasználni.
20:15
So I think that's all my time -- I'm over,
479
1215473
2837
Azt hiszem ennyi volt az én időm, túl is léptem, és itt
20:18
and I'm going to end my talk right there.
480
1218334
2277
be is fejezem az előadásomat.
Erről a weboldalról

Ez az oldal olyan YouTube-videókat mutat be, amelyek hasznosak az angol nyelvtanuláshoz. A világ minden tájáról származó, kiváló tanárok által tartott angol leckéket láthatsz. Az egyes videók oldalán megjelenő angol feliratokra duplán kattintva onnan játszhatja le a videót. A feliratok a videó lejátszásával szinkronban gördülnek. Ha bármilyen észrevétele vagy kérése van, kérjük, lépjen kapcsolatba velünk ezen a kapcsolatfelvételi űrlapon.

https://forms.gle/WvT1wiN1qDtmnspy7