A brain in a supercomputer | Henry Markram

512,041 views ・ 2009-10-15

TED


A videó lejátszásához kattintson duplán az alábbi angol feliratokra.

Fordító: Karina Palosi Lektor: Orsolya Szemere
00:18
Our mission is to build
0
18330
3000
Küldetésünk az, hogy létrehozzuk
00:21
a detailed, realistic
1
21330
2000
az emberi agy részletes és hiteles
00:23
computer model of the human brain.
2
23330
2000
számítógépes modelljét.
00:25
And we've done, in the past four years,
3
25330
3000
Az elmúlt 4 évben
00:28
a proof of concept
4
28330
2000
bizonyítottuk az elméletet
00:30
on a small part of the rodent brain,
5
30330
3000
a rágcsálóagy egy részén
00:33
and with this proof of concept we are now scaling the project up
6
33330
3000
és ebből a bizonyításból kiindulva most növeljük a léptéket
00:36
to reach the human brain.
7
36330
3000
eljutva így az emberi agyig.
00:39
Why are we doing this?
8
39330
2000
Mért csináljuk mindezt?
00:41
There are three important reasons.
9
41330
2000
Ennek három fontos oka van.
00:43
The first is, it's essential for us to understand the human brain
10
43330
4000
Először is nagyon fontos megértenünk az emberi agyat,
00:47
if we do want to get along in society,
11
47330
2000
ha boldogulni akarunk a társadalomban,
00:49
and I think that it is a key step in evolution.
12
49330
4000
és szerintem ez evolúciós szempontból is kulcsfontosságú lépés.
00:53
The second reason is,
13
53330
2000
A második ok az,
00:55
we cannot keep doing animal experimentation forever,
14
55330
6000
hogy nem végezhetünk örökké állatkísérleteket
01:01
and we have to embody all our data and all our knowledge
15
61330
4000
és testet kell öltsenek az adataink, a tudásunk
01:05
into a working model.
16
65330
3000
egy működőképes modell formájában.
01:08
It's like a Noah's Ark. It's like an archive.
17
68330
4000
Olyan ez, mint Noé bárkája. Mint egy levéltár.
01:12
And the third reason is that there are two billion people on the planet
18
72330
3000
A harmadik ok pedig az, hogy a földön két milliárd ember
01:15
that are affected by mental disorder,
19
75330
4000
valamilyen mentális zavarral él,
01:19
and the drugs that are used today
20
79330
2000
és a mai gyógyszerek
01:21
are largely empirical.
21
81330
2000
nagy része tapasztalaton alapszik.
01:23
I think that we can come up with very concrete solutions on
22
83330
3000
Azt gondolom, hogy elő tudunk állni konkrét megoldásokkal arra nézve,
01:26
how to treat disorders.
23
86330
3000
hogy hogyan kezeljük ezeket a zavarokat.
01:29
Now, even at this stage,
24
89330
3000
Már a mostani stádiumban
01:32
we can use the brain model
25
92330
2000
fel tudjuk használni az agy modellt
01:34
to explore some fundamental questions
26
94330
3000
néhány alapvető kérdés kutatására
01:37
about how the brain works.
27
97330
2000
az agyműködést illetően.
01:39
And here, at TED, for the first time,
28
99330
2000
És itt, a TED-en szeretném először
01:41
I'd like to share with you how we're addressing
29
101330
2000
megosztani a közönséggel, hogy hogyan közelítjük meg
01:43
one theory -- there are many theories --
30
103330
3000
az elméletek egyikét -- sok elmélet van ugyanis --
01:46
one theory of how the brain works.
31
106330
4000
az agy működéséről szóló egyik elméletet.
01:50
So, this theory is that the brain
32
110330
4000
E szerint az elmélet szerint, az agy
01:54
creates, builds, a version of the universe,
33
114330
6000
alkotja meg, építi fel az univerzum egy változatát.
02:00
and projects this version of the universe,
34
120330
3000
És az univerzum ezen változatát vetíti ki
02:03
like a bubble, all around us.
35
123330
4000
mint egy buborékot, körénk.
02:07
Now, this is of course a topic of philosophical debate for centuries.
36
127330
4000
Persze ez évszázados filozófiai viták tárgyát képzi.
02:11
But, for the first time, we can actually address this,
37
131330
3000
De most először megközelíthetjük ezt
02:14
with brain simulation,
38
134330
2000
agyszimulációval,
02:16
and ask very systematic and rigorous questions,
39
136330
4000
illetve módszeresen, pontos kérdésekkel felderíthetjük,
02:20
whether this theory could possibly be true.
40
140330
4000
vajon tényleg igaz lehet-e ez az elmélet?
02:24
The reason why the moon is huge on the horizon
41
144330
3000
Annak az oka, hogy a hold óriási a horizonton,
02:27
is simply because our perceptual bubble
42
147330
3000
az, hogy az észlelő-buborékunk
02:30
does not stretch out 380,000 kilometers.
43
150330
4000
nem ér el 380,000 km messzire.
02:34
It runs out of space.
44
154330
2000
Nincs elég helye.
02:36
And so what we do is we compare the buildings
45
156330
4000
Így inkább az épületekhez viszonyítunk
02:40
within our perceptual bubble,
46
160330
2000
az észlelő-buborékunkból nézve
02:42
and we make a decision.
47
162330
2000
és hozunk egy döntést.
02:44
We make a decision it's that big,
48
164330
2000
Úgy döntünk, hogy akkora,
02:46
even though it's not that big.
49
166330
2000
akkor is ha valójában nem akkora
02:48
And what that illustrates
50
168330
2000
és ez azt mutatja,
02:50
is that decisions are the key things
51
170330
2000
hogy a döntések kulcsfontosságúak ahhoz,
02:52
that support our perceptual bubble. It keeps it alive.
52
172330
5000
hogy az észlelő-buborékunkat támogassák. Ez tartja életben.
02:57
Without decisions you cannot see, you cannot think,
53
177330
2000
Döntések nélkül nem látunk, nem tudunk gondolkodni,
02:59
you cannot feel.
54
179330
2000
nem vagyunk képesek érezni.
03:01
And you may think that anesthetics work
55
181330
2000
És lehet hogy Önök azt gondolják, hogy az anesztézia úgy működik,
03:03
by sending you into some deep sleep,
56
183330
3000
hogy valamiféle mély álomba küld bennünket,
03:06
or by blocking your receptors so that you don't feel pain,
57
186330
3000
vagy azáltal, hogy nem engedi a receptoroknak a fájdalom érzékelését,
03:09
but in fact most anesthetics don't work that way.
58
189330
3000
de valójában a legtöbb altatás nem így működik.
03:12
What they do is they introduce a noise
59
192330
3000
Valójában altatáskor zörejt idéznek elő az agyban,
03:15
into the brain so that the neurons cannot understand each other.
60
195330
3000
hogy a neuronok ne értsék meg egymást!
03:18
They are confused,
61
198330
2000
Megzavarodnak,
03:20
and you cannot make a decision.
62
200330
3000
és képtelenek vagyunk döntést hozni.
03:23
So, while you're trying to make up your mind
63
203330
3000
Tehát mire mi végre kitaláljuk,
03:26
what the doctor, the surgeon, is doing
64
206330
2000
hogy mégis mit csinál az orvos vagy a sebész,
03:28
while he's hacking away at your body, he's long gone.
65
208330
2000
aki épp a testünket darabolja, addigra ő már rég hazament!
03:30
He's at home having tea.
66
210330
2000
És otthon teázgat.
03:32
(Laughter)
67
212330
2000
(nevetés)
03:34
So, when you walk up to a door and you open it,
68
214330
3000
Tehát amikor egy ajtóhoz lépünk és kinyitjuk
03:37
what you compulsively have to do to perceive
69
217330
3000
ami az észleléshez elengedhetetlen lesz,
03:40
is to make decisions,
70
220330
2000
az a döntéshozatal,
03:42
thousands of decisions about the size of the room,
71
222330
3000
több ezer döntés a szoba méretét,
03:45
the walls, the height, the objects in this room.
72
225330
3000
a falat, a magasságot, a szobában lévő tárgyakat illetően.
03:48
99 percent of what you see
73
228330
3000
99 százaléka annak, amit látunk
03:51
is not what comes in through the eyes.
74
231330
4000
nem a szemünkön át ér el hozzánk.
03:55
It is what you infer about that room.
75
235330
4000
Hanem amit arról a szobáról kikövetkeztetünk!
03:59
So I can say, with some certainty,
76
239330
4000
Tehát mondhatom azt, némi bizonyossággal,
04:03
"I think, therefore I am."
77
243330
3000
hogy "gondolkodom, tehát vagyok".
04:06
But I cannot say, "You think, therefore you are,"
78
246330
4000
De azt nem mondhatom, hogy "Te gondolkozol, tehát vagy",
04:10
because "you" are within my perceptual bubble.
79
250330
5000
mert "te" csak az én észlelő-buborékomban létezel!
04:15
Now, we can speculate and philosophize this,
80
255330
3000
Töprenghetünk és filozofálgathatunk ezen,
04:18
but we don't actually have to for the next hundred years.
81
258330
3000
de nem muszáj ezt tennünk az elkövetkező 100 évben.
04:21
We can ask a very concrete question.
82
261330
2000
Mert feltehetünk egy nagyon is konkrét kérdést.
04:23
"Can the brain build such a perception?"
83
263330
4000
"Tud-e az agy ilyen észlelést létrehozni?"
04:27
Is it capable of doing it?
84
267330
2000
Képes-e rá?
04:29
Does it have the substance to do it?
85
269330
2000
Van-e olyan anyag, amiből ezt létrehozza?
04:31
And that's what I'm going to describe to you today.
86
271330
3000
Éppen ezt fogom ma elmagyarázni Önöknek.
04:34
So, it took the universe 11 billion years to build the brain.
87
274330
4000
Tehát a világegyetemnek 11 milliárd évébe került megépíteni az agyat.
04:38
It had to improve it a little bit.
88
278330
2000
Kicsit javítania kellett rajta.
04:40
It had to add to the frontal part, so that you would have instincts,
89
280330
3000
Hozzá kellett toldani a elülső részhez, hogy legyenek ösztöneink,
04:43
because they had to cope on land.
90
283330
3000
mert a szárazföldön kellett boldoguljunk.
04:46
But the real big step was the neocortex.
91
286330
4000
De az igazán nagy lépés a neokortex, az agykéreg volt.
04:50
It's a new brain. You needed it.
92
290330
2000
Ez egy új agy. Szükség volt rá.
04:52
The mammals needed it
93
292330
2000
Az emlősöknek szükségük lett rá,
04:54
because they had to cope with parenthood,
94
294330
4000
mert meg kellett birkózni az utódneveléssel,
04:58
social interactions,
95
298330
2000
a társas interakcióval,
05:00
complex cognitive functions.
96
300330
3000
és az összetett kognitív funkciókkal.
05:03
So, you can think of the neocortex
97
303330
2000
Vagyis gondolhatunk úgy a neokortexre,
05:05
actually as the ultimate solution today,
98
305330
5000
mint a világegyetem legnagyobb vívmányára
05:10
of the universe as we know it.
99
310330
3000
amiről tudunk.
05:13
It's the pinnacle, it's the final product
100
313330
2000
Ez egy csúcspont, egy végső termék
05:15
that the universe has produced.
101
315330
4000
amit az univerzum létrehozott.
05:19
It was so successful in evolution
102
319330
2000
Annyira sikeres volt az evolúció során,
05:21
that from mouse to man it expanded
103
321330
2000
hogy az egértől az emberig terjeszkedve
05:23
about a thousandfold in terms of the numbers of neurons,
104
323330
3000
ezerszeresére nőtt a idegsejtek száma,
05:26
to produce this almost frightening
105
326330
3000
ezzel létrehozva ezt a szinte félelmetes
05:29
organ, structure.
106
329330
3000
szervet, rendszert.
05:32
And it has not stopped its evolutionary path.
107
332330
3000
És ez még nem az evolúciós út vége!
05:35
In fact, the neocortex in the human brain
108
335330
2000
Valójában a neokortex az emberi agyban
05:37
is evolving at an enormous speed.
109
337330
3000
a mai napig hatalmas sebességgel fejlődik.
05:40
If you zoom into the surface of the neocortex,
110
340330
2000
Ha közelebbről vizsgáljuk a neokortex felületét
05:42
you discover that it's made up of little modules,
111
342330
3000
látni, hogy kisebb modulokból áll,
05:45
G5 processors, like in a computer.
112
345330
2000
G5 processzorokból, mint a számítógép.
05:47
But there are about a million of them.
113
347330
3000
Csak itt több millió van belőlük.
05:50
They were so successful in evolution
114
350330
2000
Ezek olyan sikeresek voltak az evolúció során,
05:52
that what we did was to duplicate them
115
352330
2000
hogy sokszorosítottuk őket
05:54
over and over and add more and more of them to the brain
116
354330
2000
és egyre többet toldottunk az agyunkhoz belőlük,
05:56
until we ran out of space in the skull.
117
356330
3000
míg már nem volt több hely a koponyánkban.
05:59
And the brain started to fold in on itself,
118
359330
2000
És akkor az agy elkezdte összehajtogatni magát,
06:01
and that's why the neocortex is so highly convoluted.
119
361330
3000
ettől olyan tekervényes a neokortex.
06:04
We're just packing in columns,
120
364330
2000
Oszlopokat zsúfolunk be,
06:06
so that we'd have more neocortical columns
121
366330
3000
hogy még több agykérgi oszlopunk legyen
06:09
to perform more complex functions.
122
369330
3000
amik összetettebb feladatokra képesek.
06:12
So you can think of the neocortex actually as
123
372330
2000
Úgy is nézhetjük az új agykérget,
06:14
a massive grand piano,
124
374330
2000
mint egy versenyzongorát,
06:16
a million-key grand piano.
125
376330
3000
egy több millió billentyűs zongorát.
06:19
Each of these neocortical columns
126
379330
2000
Minden egyes agykérgi oszlop
06:21
would produce a note.
127
381330
2000
más hangot ad.
06:23
You stimulate it; it produces a symphony.
128
383330
3000
Ha ingereljük, létrehoz egy szimfóniát.
06:26
But it's not just a symphony of perception.
129
386330
3000
Ám ez nem csak az észlelés szimfóniája!
06:29
It's a symphony of your universe, your reality.
130
389330
3000
Ez a saját univerzumunk, valóságunk szimfóniája!
06:32
Now, of course it takes years to learn how
131
392330
3000
Persze évekbe telik megtanulni mesterien
06:35
to master a grand piano with a million keys.
132
395330
3000
játszani a több millió billentyűn.
06:38
That's why you have to send your kids to good schools,
133
398330
2000
Ezért kell a gyerekeket jó iskolákba küldenünk,
06:40
hopefully eventually to Oxford.
134
400330
2000
remélhetőleg végül eljutnak Oxford-ba.
06:42
But it's not only education.
135
402330
3000
De mindez nem csak nevelés kérdése.
06:45
It's also genetics.
136
405330
2000
Genetika is.
06:47
You may be born lucky,
137
407330
2000
Van, aki szerencsésnek születik,
06:49
where you know how to master your neocortical column,
138
409330
4000
vagy irányítani tudja az oszlopokat az agykérgében,
06:53
and you can play a fantastic symphony.
139
413330
2000
és nagyszerű szimfóniát hoz létre.
06:55
In fact, there is a new theory of autism
140
415330
3000
Van egy új elmélet az autizmusra
06:58
called the "intense world" theory,
141
418330
2000
amit "intenzív világ" elméletnek neveznek,
07:00
which suggests that the neocortical columns are super-columns.
142
420330
4000
és ami szerint az agykérgi oszlopok szuper-oszlopok.
07:04
They are highly reactive, and they are super-plastic,
143
424330
4000
Nagyon reaktívak és képlékenyek
07:08
and so the autists are probably capable of
144
428330
3000
vagyis az autisták valószínűleg képesek
07:11
building and learning a symphony
145
431330
2000
egy olyan szimfóniát létrehozni és megtanulni,
07:13
which is unthinkable for us.
146
433330
2000
ami számunkra elképzelhetetlen.
07:15
But you can also understand
147
435330
2000
De így az is érthetővé válik,
07:17
that if you have a disease
148
437330
2000
hogy ha betegség alakul ki
07:19
within one of these columns,
149
439330
2000
az egyik oszlopban,
07:21
the note is going to be off.
150
441330
2000
akkor az hang nem lesz tiszta.
07:23
The perception, the symphony that you create
151
443330
2000
Az észlelés, a szimfónia, ami így jön létre,
07:25
is going to be corrupted,
152
445330
2000
meg fog sérülni,
07:27
and you will have symptoms of disease.
153
447330
3000
és létrejönnek a betegség tünetei.
07:30
So, the Holy Grail for neuroscience
154
450330
4000
Vagyis az ideggyógyászat Szent Grálja
07:34
is really to understand the design of the neocoritical column --
155
454330
4000
az agykérgi oszlopok modelljének a feltárása --
07:38
and it's not just for neuroscience;
156
458330
2000
és ez nem csak az ideggyógyászat számára lesz jó;
07:40
it's perhaps to understand perception, to understand reality,
157
460330
3000
hanem talán hogy megértsük az érzékelést, a valóságot
07:43
and perhaps to even also understand physical reality.
158
463330
4000
és talán, hogy megértsük magát a fizikai valóságot is.
07:47
So, what we did was, for the past 15 years,
159
467330
3000
Az elmúlt 15 évben
07:50
was to dissect out the neocortex, systematically.
160
470330
4000
módszeresen kielemeztük az agykérget.
07:54
It's a bit like going and cataloging a piece of the rainforest.
161
474330
4000
Mintha az esőerdő egy részét katalogizáltuk volna.
07:58
How many trees does it have?
162
478330
2000
Hány fa van benne?
08:00
What shapes are the trees?
163
480330
2000
Milyen formájúak a fák?
08:02
How many of each type of tree do you have? Where are they positioned?
164
482330
3000
Melyik fajtából hány található ott? Hogyan helyezkednek el?
08:05
But it's a bit more than cataloging because you actually have to
165
485330
2000
De ez több, mint rendszerezés, mert le kell írni
08:07
describe and discover all the rules of communication,
166
487330
4000
és fel kell tárni a kommunikáció szabályait
08:11
the rules of connectivity,
167
491330
2000
a kapcsolódás szabályait,
08:13
because the neurons don't just like to connect with any neuron.
168
493330
3000
mert a neuronok nem szeretnek ám bármilyen neuronhoz kapcsolódni!
08:16
They choose very carefully who they connect with.
169
496330
3000
Nagy gonddal választják ki azt, akivel összekapcsolódnak.
08:19
It's also more than cataloging
170
499330
3000
Azért is több ez, mint rendszerezés,
08:22
because you actually have to build three-dimensional
171
502330
2000
mert egy három dimenziós
08:24
digital models of them.
172
504330
2000
digitális modellt kell belőle építenünk.
08:26
And we did that for tens of thousands of neurons,
173
506330
2000
És ezt meg is tettük több tízezer neuronnal,
08:28
built digital models of all the different types
174
508330
3000
digitálisan modelleztük a különböző
08:31
of neurons we came across.
175
511330
2000
idegeket, amikkel találkoztunk.
08:33
And once you have that, you can actually
176
513330
2000
És amint ez meglett, elkezdhettük
08:35
begin to build the neocortical column.
177
515330
4000
építeni az agykérgi oszlopot.
08:39
And here we're coiling them up.
178
519330
3000
És itt összetekerjük.
08:42
But as you do this, what you see
179
522330
3000
De miközben ezt tesszük, azt vesszük észre,
08:45
is that the branches intersect
180
525330
2000
hogy az ágak keresztezik egymást
08:47
actually in millions of locations,
181
527330
3000
valójában több millió helyen,
08:50
and at each of these intersections
182
530330
3000
és minden egyes kereszteződésnél
08:53
they can form a synapse.
183
533330
2000
szinapszisokat hozhatnak létre.
08:55
And a synapse is a chemical location
184
535330
2000
A szinapszis egy kémia hely,
08:57
where they communicate with each other.
185
537330
3000
ahol egymással kommunikálnak.
09:00
And these synapses together
186
540330
2000
És a szinapszisok összessége
09:02
form the network
187
542330
2000
hálózatot alkot
09:04
or the circuit of the brain.
188
544330
3000
vagyis az agy áramkörét.
09:07
Now, the circuit, you could also think of as
189
547330
4000
Namost erre az áramkörre gondolhatunk úgy is,
09:11
the fabric of the brain.
190
551330
2000
mint az agy anyagára.
09:13
And when you think of the fabric of the brain,
191
553330
3000
És ha az agy anyagára gondolunk,
09:16
the structure, how is it built? What is the pattern of the carpet?
192
556330
4000
a szerkezetére, hogy hogyan épül fel, hogy mi a szőnyeg mintázata,
09:20
You realize that this poses
193
560330
2000
rádöbbenünk, hogy ez
09:22
a fundamental challenge to any theory of the brain,
194
562330
4000
alapvető kihívás elé állít minden agy-elméletet,
09:26
and especially to a theory that says
195
566330
2000
főleg, ha az elmélet azt mondja ki,
09:28
that there is some reality that emerges
196
568330
2000
hogy valamiféle valóság kerekedik ki
09:30
out of this carpet, out of this particular carpet
197
570330
3000
a szőnyegből, ebből a bizonyos szőnyegből,
09:33
with a particular pattern.
198
573330
2000
aminek ez a bizonyos mintázata van.
09:35
The reason is because the most important design secret of the brain
199
575330
3000
Ennek oka pedig az, hogy az agy szerveződésének legfőbb titka
09:38
is diversity.
200
578330
2000
a változatosság.
09:40
Every neuron is different.
201
580330
2000
Minden egyes neuron más.
09:42
It's the same in the forest. Every pine tree is different.
202
582330
2000
Mint egy erdőben. Minden fenyő más benne.
09:44
You may have many different types of trees,
203
584330
2000
Sokféle fa lehet benne,
09:46
but every pine tree is different. And in the brain it's the same.
204
586330
3000
de minden fenyő is más. És az agy is ugyanilyen.
09:49
So there is no neuron in my brain that is the same as another,
205
589330
3000
Vagyis nincs az agyamban két egyforma neuron,
09:52
and there is no neuron in my brain that is the same as in yours.
206
592330
3000
és nincs olyan agyi neuronom, ami megegyezne a tiéddel.
09:55
And your neurons are not going to be oriented and positioned
207
595330
3000
És a te neuronjaid nem fognak teljesen ugyanúgy
09:58
in exactly the same way.
208
598330
2000
elhelyezkedni, és irányulni.
10:00
And you may have more or less neurons.
209
600330
2000
És lehet, hogy több, vagy kevesebb neuronnal rendelkezel.
10:02
So it's very unlikely
210
602330
2000
Vagyis igen valószínűtlen,
10:04
that you got the same fabric, the same circuitry.
211
604330
4000
hogy ugyanaz lenne a te anyagod vagy áramköröd.
10:08
So, how could we possibly create a reality
212
608330
2000
Tehát hogy vagyunk képesek olyan valóságot teremteni,
10:10
that we can even understand each other?
213
610330
3000
amiben egyáltalán értjük egymást?
10:13
Well, we don't have to speculate.
214
613330
2000
Nos, nem kell sokat töprengenünk ezen.
10:15
We can look at all 10 million synapses now.
215
615330
3000
Most már megvizsgálhatjuk mind a 10 millió szinapszist.
10:18
We can look at the fabric. And we can change neurons.
216
618330
3000
Megnézhetjük az anyagot. És megváltoztathatunk neuronokat.
10:21
We can use different neurons with different variations.
217
621330
2000
Használhatunk különböző neuronokat, különböző variációkban.
10:23
We can position them in different places,
218
623330
2000
Elhelyezhetjük őket máshova,
10:25
orient them in different places.
219
625330
2000
irányíthatjuk őket másfelé.
10:27
We can use less or more of them.
220
627330
2000
Növelhetjük vagy csökkentjük a számukat.
10:29
And when we do that
221
629330
2000
És amikor ezt megtettük,
10:31
what we discovered is that the circuitry does change.
222
631330
3000
felfedeztük, hogy az áramkör megváltozott.
10:34
But the pattern of how the circuitry is designed does not.
223
634330
7000
De a minta, ami alapján az áramkör készül, nem változott.
10:41
So, the fabric of the brain,
224
641330
2000
Vagyis az agy alapanyaga,
10:43
even though your brain may be smaller, bigger,
225
643330
2000
akár kisebb, akár nagyobb az agyunk térfogata,
10:45
it may have different types of neurons,
226
645330
3000
vagy más fajta idegsejtekből épül fel,
10:48
different morphologies of neurons,
227
648330
2000
más alakú neuronokból,
10:50
we actually do share
228
650330
3000
végső soron mindannyian
10:53
the same fabric.
229
653330
2000
ugyanabból az anyagból vagyunk.
10:55
And we think this is species-specific,
230
655330
2000
Szerintünk ez fajspecifikus,
10:57
which means that that could explain
231
657330
2000
ami megmagyarázná, hogy
10:59
why we can't communicate across species.
232
659330
2000
mért nem tudnak a fajok egymással kommunikálni.
11:01
So, let's switch it on. But to do it, what you have to do
233
661330
3000
Akkor kapcsoljuk be. De ahhoz, hogy ezt megtehessük,
11:04
is you have to make this come alive.
234
664330
2000
életre kell kelteni.
11:06
We make it come alive
235
666330
2000
Életre kelteni pedig
11:08
with equations, a lot of mathematics.
236
668330
2000
egyenletekkel és matematikával lehet.
11:10
And, in fact, the equations that make neurons into electrical generators
237
670330
4000
Az egyenleteket, amik a neuronokat elektromos generátorrá alakítják,
11:14
were discovered by two Cambridge Nobel Laureates.
238
674330
3000
két cambridge-i Nobel díjas fedezte fel.
11:17
So, we have the mathematics to make neurons come alive.
239
677330
3000
Vagyis megvan a matek, ami megeleveníti a neuronokat.
11:20
We also have the mathematics to describe
240
680330
2000
Vannak egyenleteink is, amik leírják,
11:22
how neurons collect information,
241
682330
3000
hogy hogyan gyűjt információt a neuron,
11:25
and how they create a little lightning bolt
242
685330
3000
és hogy hogyan keletkezik az a kis villám,
11:28
to communicate with each other.
243
688330
2000
aminek segítségével egymással kommunikálnak.
11:30
And when they get to the synapse,
244
690330
2000
És amikor a szinapszishoz érnek
11:32
what they do is they effectively,
245
692330
2000
gyakorlatilag annyit tesznek,
11:34
literally, shock the synapse.
246
694330
3000
hogy szó szerint, sokkolják a szinapszist.
11:37
It's like electrical shock
247
697330
2000
Ez olyan, mint egy elektromos sokk,
11:39
that releases the chemicals from these synapses.
248
699330
3000
amitől kémiai anyagokat bocsát ki a szinapszis.
11:42
And we've got the mathematics to describe this process.
249
702330
3000
És matematikailag le tudjuk írni a folyamatot.
11:45
So we can describe the communication between the neurons.
250
705330
4000
Vagyis le tudjuk írni a neuronok közti kommunikációt.
11:49
There literally are only a handful
251
709330
3000
Szó szerint csak egy maréknyi
11:52
of equations that you need to simulate
252
712330
2000
egyenletre van szükség, hogy szimulálni tudjuk
11:54
the activity of the neocortex.
253
714330
2000
a neokortex tevékenységét.
11:56
But what you do need is a very big computer.
254
716330
3000
Amire szükség van, az egy nagyon nagy számítógép.
11:59
And in fact you need one laptop
255
719330
2000
Pontosabban egy laptop-ra van szükség
12:01
to do all the calculations just for one neuron.
256
721330
3000
neurononként, ami elvégzi a számításokat.
12:04
So you need 10,000 laptops.
257
724330
2000
Vagyis 10 000 laptopra van szükség.
12:06
So where do you go? You go to IBM,
258
726330
2000
Hova forduljunk? Az IBM-hez,
12:08
and you get a supercomputer, because they know how to take
259
728330
2000
és ők adnak egy szupercomputert, mert ők tudják, hogy lehet berakni
12:10
10,000 laptops and put it into the size of a refrigerator.
260
730330
4000
10 000 laptopot egy hűtőládányi térfogatba.
12:14
So now we have this Blue Gene supercomputer.
261
734330
3000
Itt van tehát ez a Blue Gene szupercomputerünk.
12:17
We can load up all the neurons,
262
737330
2000
Betöltjük az összes neuront,
12:19
each one on to its processor,
263
739330
2000
mindet a saját processzorához,
12:21
and fire it up, and see what happens.
264
741330
4000
beindítjuk és lássuk mi történik.
12:25
Take the magic carpet for a ride.
265
745330
3000
Repülünk egy kört a varázsszőnyeggel!
12:28
Here we activate it. And this gives the first glimpse
266
748330
3000
Itt aktiváljuk. És ez az első bepillantás abba,
12:31
of what is happening in your brain
267
751330
2000
ami az agyban történik,
12:33
when there is a stimulation.
268
753330
2000
amikor inger éri.
12:35
It's the first view.
269
755330
2000
Ez az első nézet.
12:37
Now, when you look at that the first time, you think,
270
757330
2000
Elsőre talán azt gondolják, hogy
12:39
"My god. How is reality coming out of that?"
271
759330
5000
"Úristen, ebből hogyan áll elő a valóság?"
12:44
But, in fact, you can start,
272
764330
3000
De valójában be lehet indítani,
12:47
even though we haven't trained this neocortical column
273
767330
4000
annak ellenére, hogy nem tanítottuk ezt az oszlopot arra,
12:51
to create a specific reality.
274
771330
2000
hogy valamiféle jellegzetes valóságot teremtsen.
12:53
But we can ask, "Where is the rose?"
275
773330
4000
De feltehetjük a kérdést, hogy "Hol a rózsa?"
12:57
We can ask, "Where is it inside,
276
777330
2000
Vagy "Hol látszik az belül,
12:59
if we stimulate it with a picture?"
277
779330
3000
ha képpel ingereljük?"
13:02
Where is it inside the neocortex?
278
782330
2000
Hol található a neokortexen belül?
13:04
Ultimately it's got to be there if we stimulated it with it.
279
784330
4000
Mert végülis ott kell lennie, ha ezzel ingereltük.
13:08
So, the way that we can look at that
280
788330
2000
Vagyis nézhetjük úgy,
13:10
is to ignore the neurons, ignore the synapses,
281
790330
3000
hogy figyelmen kívül hagyjuk a neuronokat, és a szinapszisokat,
13:13
and look just at the raw electrical activity.
282
793330
2000
és csak a nyers elektromos tevékenységgel foglalkozunk.
13:15
Because that is what it's creating.
283
795330
2000
Ugyanis az az, amit létrehoz.
13:17
It's creating electrical patterns.
284
797330
2000
Elektromos mintákat hoz létre.
13:19
So when we did this,
285
799330
2000
Úgyhogy amikor ezt megcsináltuk,
13:21
we indeed, for the first time,
286
801330
2000
akkor tényleg, az életben először
13:23
saw these ghost-like structures:
287
803330
3000
megláttuk ezeket a szellemszerű szerkezeteket:
13:26
electrical objects appearing
288
806330
3000
elektromos tárgyak jelentek meg
13:29
within the neocortical column.
289
809330
3000
az agykérgi oszlopban.
13:32
And it's these electrical objects
290
812330
3000
És ezek az elektromos tárgyak
13:35
that are holding all the information about
291
815330
3000
tartalmazzák az információt az ingerről
13:38
whatever stimulated it.
292
818330
3000
ami létrehozta őket.
13:41
And then when we zoomed into this,
293
821330
2000
És amikor ráközelítettünk erre,
13:43
it's like a veritable universe.
294
823330
4000
ez egy valóságos univerzumnak bizonyult.
13:47
So the next step
295
827330
2000
Vagyis a következő lépés,
13:49
is just to take these brain coordinates
296
829330
4000
fogni ezeket az agyi koordinátákat,
13:53
and to project them into perceptual space.
297
833330
4000
és kivetíteni az észlelhető térbe.
13:57
And if you do that,
298
837330
2000
Ha ezt megtesszük,
13:59
you will be able to step inside
299
839330
2000
képesek leszünk belépni
14:01
the reality that is created
300
841330
2000
egy valóságba, aminek az alkotója
14:03
by this machine,
301
843330
2000
ez a gép,
14:05
by this piece of the brain.
302
845330
3000
ez a darabka agy.
14:08
So, in summary,
303
848330
2000
Összegezve,
14:10
I think that the universe may have --
304
850330
2000
azt gondolom, hogy a világegyetem, --
14:12
it's possible --
305
852330
2000
könnyen lehet, -- hogy azért hozta létre
14:14
evolved a brain to see itself,
306
854330
3000
az agyat, hogy lássa önmagát,
14:17
which may be a first step in becoming aware of itself.
307
857330
5000
ami lehet hogy az első lépés az öntudatosság felé.
14:22
There is a lot more to do to test these theories,
308
862330
2000
Még bőven akad mit vizsgálni az elméleten
14:24
and to test any other theories.
309
864330
3000
és más elméleteken is.
14:27
But I hope that you are at least partly convinced
310
867330
3000
De remélem, legalább részben meggyőztem Önöket arról,
14:30
that it is not impossible to build a brain.
311
870330
3000
hogy nem lehetetlen agyat építeni.
14:33
We can do it within 10 years,
312
873330
2000
10 év alatt elkészülünk
14:35
and if we do succeed,
313
875330
2000
és ha sikerül,
14:37
we will send to TED, in 10 years,
314
877330
2000
10 év múlva küldünk a TED konferenciára
14:39
a hologram to talk to you. Thank you.
315
879330
3000
egy beszélő hologrammot. Köszönöm.
14:42
(Applause)
316
882330
6000
(taps)
Erről a weboldalról

Ez az oldal olyan YouTube-videókat mutat be, amelyek hasznosak az angol nyelvtanuláshoz. A világ minden tájáról származó, kiváló tanárok által tartott angol leckéket láthatsz. Az egyes videók oldalán megjelenő angol feliratokra duplán kattintva onnan játszhatja le a videót. A feliratok a videó lejátszásával szinkronban gördülnek. Ha bármilyen észrevétele vagy kérése van, kérjük, lépjen kapcsolatba velünk ezen a kapcsolatfelvételi űrlapon.

https://forms.gle/WvT1wiN1qDtmnspy7