Gero Miesenboeck reengineers a brain

52,036 views ・ 2010-11-05

TED


A videó lejátszásához kattintson duplán az alábbi angol feliratokra.

Fordító: Péter Pallós Lektor: Edit Dr. Kósa
00:15
I have a doppelganger.
0
15260
3000
Van egy hasonmásom.
00:18
(Laughter)
1
18260
3000
(Nevetés)
00:21
Dr. Gero is a brilliant
2
21260
3000
Dr. Gero ragyogó,
00:24
but slightly mad scientist
3
24260
2000
de kissé őrült tudós
00:26
in the "Dragonball Z: Android Saga."
4
26260
3000
a Dragonball Z: Android Sagában.
00:29
If you look very carefully,
5
29260
2000
Ha figyelmesen megnézik,
00:31
you see that his skull has been replaced
6
31260
3000
észreveszik, hogy koponyája helyén
00:34
with a transparent Plexiglas dome
7
34260
2000
átlátszó plexi fejtető van,
00:36
so that the workings of his brain can be observed
8
36260
3000
hogy agyműködését megfigyelhessük,
00:39
and also controlled with light.
9
39260
3000
és fénnyel vezérelhessük.
00:42
That's exactly what I do --
10
42260
2000
Én is ezzel foglalkozom,
00:44
optical mind control.
11
44260
2000
az optikai agykontrollal.
00:46
(Laughter)
12
46260
2000
(Nevetés)
00:48
But in contrast to my evil twin
13
48260
2000
De gonosz ikertestvéremtől eltérően,
00:50
who lusts after world domination,
14
50260
3000
aki világuralomra vágyik,
00:53
my motives are not sinister.
15
53260
3000
indítékaim egyáltalán nem aljasak.
00:56
I control the brain
16
56260
2000
Azért vezérlem az agyat,
00:58
in order to understand how it works.
17
58260
2000
hogy megértsem a működését.
01:00
Now wait a minute, you may say,
18
60260
2000
De mondhatják: honnan veszi a bátorságot,
01:02
how can you go straight to controlling the brain
19
62260
3000
hogy az agyat vezérelje,
01:05
without understanding it first?
20
65260
2000
ha fogalma sincs a működéséről?
01:07
Isn't that putting the cart before the horse?
21
67260
3000
Csak nem a szekér után fogtuk be a lovat?
01:11
Many neuroscientists agree with this view
22
71260
3000
Sok idegtudós egyetért ezzel a nézettel,
01:14
and think that understanding will come
23
74260
3000
és úgy gondolja, hogy az értés
a részletes megfigyelésből és elemzésből következik.
01:17
from more detailed observation and analysis.
24
77260
3000
01:20
They say, "If we could record the activity of our neurons,
25
80260
4000
"Ha rögzítjük az idegsejtek tevékenységét,
01:24
we would understand the brain."
26
84260
3000
akkor megértjük az agyműködést" – vélik.
01:27
But think for a moment what that means.
27
87260
3000
De gondoljunk bele ennek az értelmébe.
01:30
Even if we could measure
28
90260
2000
Még ha meg tudnánk is mérni folyamatosan
01:32
what every cell is doing at all times,
29
92260
2000
az egyes sejtek tevékenységét,
01:34
we would still have to make sense
30
94260
2000
attól még hátravan
a rögzített tevékenységi mintázatok értelmezése.
01:36
of the recorded activity patterns,
31
96260
2000
01:38
and that's so difficult,
32
98260
2000
Az pedig annyira bonyolult,
01:40
chances are we'll understand these patterns
33
100260
2000
hogy a mintázatokat épp oly kevéssé értenénk,
01:42
just as little as the brains that produce them.
34
102260
3000
mint az agy, amely azokat előállítja.
01:45
Take a look at what brain activity might look like.
35
105260
3000
Nézzük az agytevékenységet!
01:48
In this simulation, each black dot
36
108260
2000
E szimulációban minden fekete pötty
01:50
is one nerve cell.
37
110260
2000
egy-egy idegsejtet jelképez.
01:52
The dot is visible
38
112260
2000
A pötty akkor látható,
01:54
whenever a cell fires an electrical impulse.
39
114260
2000
ha a sejt elektromos impulzust hoz létre.
01:56
There's 10,000 neurons here.
40
116260
2000
10 ezer idegsejttel van dolgunk.
01:58
So you're looking at roughly one percent
41
118260
2000
Tehát a csótány agyának
02:00
of the brain of a cockroach.
42
120260
3000
durván 1%-át látjuk.
02:04
Your brains are about 100 million times
43
124260
3000
Az emberi agy kb. 100 milliószor
02:07
more complicated.
44
127260
2000
bonyolultabb.
02:09
Somewhere, in a pattern like this,
45
129260
2000
Valahol az ilyen mintázatokban
02:11
is you,
46
131260
2000
vagyunk mi,
02:13
your perceptions,
47
133260
2000
észleléseink,
02:15
your emotions, your memories,
48
135260
3000
érzelmeink, emlékeink
02:18
your plans for the future.
49
138260
2000
és jövőbeni terveink.
02:20
But we don't know where,
50
140260
2000
De nem tudjuk, hogy hol,
02:22
since we don't know how to read the pattern.
51
142260
3000
mivel nem tudjuk olvasni a mintázatot.
02:25
We don't understand the code used by the brain.
52
145260
3000
Nem értjük az agy által használt kódot.
02:28
To make progress,
53
148260
2000
Hogy előbbre jussunk,
02:30
we need to break the code.
54
150260
2000
meg kell fejtenünk a kódot.
02:32
But how?
55
152260
2000
De hogyan?
02:35
An experienced code-breaker will tell you
56
155260
2000
Egy tapasztalt kódfejtő azt mondaná,
02:37
that in order to figure out what the symbols in a code mean,
57
157260
3000
hogy egy-egy kódjel megértéséhez az kell,
02:40
it's essential to be able to play with them,
58
160260
3000
hogy eljátszhassunk velük,
02:43
to rearrange them at will.
59
163260
2000
tetszés szerint átrendezhessük őket.
02:45
So in this situation too,
60
165260
2000
Az efféle mintázatokban lévő
02:47
to decode the information
61
167260
2000
információ dekódolásához
02:49
contained in patterns like this,
62
169260
2000
ez esetben sem elegendő
02:51
watching alone won't do.
63
171260
2000
csupán a nézegetés.
02:53
We need to rearrange the pattern.
64
173260
2000
Át kell rendeznünk a mintázatot,
02:55
In other words,
65
175260
2000
azaz,
02:57
instead of recording the activity of neurons,
66
177260
2000
az idegsejtet a működésének rögzítése helyett
02:59
we need to control it.
67
179260
2000
vezérelnünk kell.
03:01
It's not essential that we can control
68
181260
2000
Nem kell az agy minden idegsejtjét vezérelnünk,
03:03
the activity of all neurons in the brain, just some.
69
183260
3000
csupán némelyiket.
03:06
The more targeted our interventions, the better.
70
186260
2000
Minél többet célzunk meg a beavatkozással, annál jobb.
03:08
And I'll show you in a moment
71
188260
2000
Rögtön megmutatom,
03:10
how we can achieve the necessary precision.
72
190260
3000
hogyan érjük el a kívánt pontosságot.
03:13
And since I'm realistic, rather than grandiose,
73
193260
3000
Mivel inkább realista, semmint nagyratörő vagyok,
03:16
I don't claim that the ability to control the function of the nervous system
74
196260
3000
nem állítom, hogy az idegrendszer működésének vezérlése
03:19
will at once unravel all its mysteries.
75
199260
3000
rögtön valamennyi rejtélyét föltárja.
03:22
But we'll certainly learn a lot.
76
202260
3000
De bizonyosan sokat megtudhatunk.
03:27
Now, I'm by no means
77
207260
2000
Egyáltalán nem én vagyok az első,
03:29
the first person to realize
78
209260
2000
aki rájött, milyen hatékony eszköz
03:31
how powerful a tool intervention is.
79
211260
3000
a beavatkozás.
03:34
The history of attempts
80
214260
2000
Az idegrendszer működésével
03:36
to tinker with the function of the nervous system
81
216260
2000
való foglalatosság története
03:38
is long and illustrious.
82
218260
2000
hosszú és nevezetes.
03:40
It dates back at least 200 years,
83
220260
3000
Legalább 200 évre nyúlik vissza,
03:43
to Galvani's famous experiments
84
223260
2000
Galvani híres kísérleteiig,
03:45
in the late 18th century and beyond.
85
225260
3000
amelyeket a 18. században és később végeztek.
03:49
Galvani showed that a frog's legs twitched
86
229260
3000
Galvani kimutatta, hogy a békacombok összerándulnak,
03:52
when he connected the lumbar nerve
87
232260
2000
ha a gerincvelőt
03:54
to a source of electrical current.
88
234260
3000
villamos áram éri.
03:57
This experiment revealed the first, and perhaps most fundamental,
89
237260
3000
E kísérlet tárta föl az első – és talán alapvető – tényt
04:00
nugget of the neural code:
90
240260
2000
az idegi kódokról:
04:02
that information is written in the form
91
242260
2000
ezt az információt
04:04
of electrical impulses.
92
244260
3000
elektromos impulzusok tartalmazzák.
04:08
Galvani's approach
93
248260
2000
Galvani módszere,
04:10
of probing the nervous system with electrodes
94
250260
2000
hogy elektródákkal vizsgálja az idegrendszert,
04:12
has remained state-of-the-art until today,
95
252260
3000
egy sor hátránya ellenére
04:15
despite a number of drawbacks.
96
255260
3000
mindmáig korszerűnek számít.
04:18
Sticking wires into the brain is obviously rather crude.
97
258260
3000
Az agyba drótokat dugdosni elég durva dolog,
04:21
It's hard to do in animals that run around,
98
261260
2000
futkározó állatokéba különösen nehéz,
04:23
and there is a physical limit
99
263260
2000
és fizikai korlátja is van,
04:25
to the number of wires
100
265260
2000
hány drótot dughatunk
04:27
that can be inserted simultaneously.
101
267260
3000
egyidejűleg az agyba.
04:30
So around the turn of the last century,
102
270260
2000
A múlt század vége felé
04:32
I started to think,
103
272260
2000
gondoltam rá először:
04:34
"Wouldn't it be wonderful if one could take this logic
104
274260
3000
miért ne alkalmazhatnánk ezt a logikát,
04:37
and turn it upside down?"
105
277260
2000
csak épp fordítva?
04:39
So instead of inserting a wire
106
279260
2000
Ahelyett, hogy vezetéket dugnánk
04:41
into one spot of the brain,
107
281260
3000
az agy egyik helyére,
04:44
re-engineer the brain itself
108
284260
2000
változtassuk meg úgy magát az agyat,
04:46
so that some of its neural elements
109
286260
3000
hogy bizonyos idegsejtek reagáljanak
04:49
become responsive to diffusely broadcast signals
110
289260
3000
különböző diffúz jelekre,
04:52
such as a flash of light.
111
292260
3000
pl. fényvillanásokra.
04:55
Such an approach would literally, in a flash of light,
112
295260
3000
Az ilyen módszer szó szerint villámsebesen legyőzi
04:58
overcome many of the obstacles to discovery.
113
298260
3000
a felfedezés sok akadályát.
05:01
First, it's clearly a non-invasive,
114
301260
3000
Először, ez bizonyosan nem invazív,
05:04
wireless form of communication.
115
304260
3000
vezeték nélküli kapcsolati forma.
05:07
And second, just as in a radio broadcast,
116
307260
2000
Másodszor, mint a rádióközvetítésnél,
05:09
you can communicate with many receivers at once.
117
309260
3000
egyidejűleg több vevővel dolgozhatunk.
05:12
You don't need to know where these receivers are,
118
312260
3000
Nem kell ismernünk a vevők helyét,
05:15
and it doesn't matter if these receivers move --
119
315260
2000
és az sem számít, ha helyüket változtatják
05:17
just think of the stereo in your car.
120
317260
3000
– gondoljunk csak az autórádiónkra.
05:20
It gets even better,
121
320260
3000
De még jobb is lehet,
05:23
for it turns out that we can fabricate the receivers
122
323260
3000
mert a vevőket elkészíthetjük
05:26
out of materials that are encoded in DNA.
123
326260
3000
DNS-be kódolt anyagból is.
05:29
So each nerve cell
124
329260
2000
Minden idegsejt,
05:31
with the right genetic makeup
125
331260
2000
ha genetikailag megfelelően van kialakítva,
05:33
will spontaneously produce a receiver
126
333260
3000
spontán vevővé válik,
05:36
that allows us to control its function.
127
336260
3000
ezáltal vezérelhetjük a működését.
05:39
I hope you'll appreciate
128
339260
2000
Remélem, értékelik
05:41
the beautiful simplicity
129
341260
2000
az ötlet
csodás egyszerűségét.
05:43
of this concept.
130
343260
2000
05:45
There's no high-tech gizmos here,
131
345260
2000
Nincs benne semmi high-tech kütyü,
05:47
just biology revealed through biology.
132
347260
3000
csak a biológia szülte biológia.
05:51
Now let's take a look at these miraculous receivers up close.
133
351260
3000
Nézzük meg alaposabban ezeket a csodálatos vevőket!
05:54
As we zoom in on one of these purple neurons,
134
354260
3000
Ha ráközelítünk ezekre a lila idegsejtekre,
05:57
we see that its outer membrane
135
357260
2000
látható, hogy külső membránjuk
05:59
is studded with microscopic pores.
136
359260
2000
mikroszkopikus pórusokkal telített.
06:01
Pores like these conduct electrical current
137
361260
2000
E pórusok vezetik az áramot,
06:03
and are responsible
138
363260
2000
és rajtuk keresztül áramlik
06:05
for all the communication in the nervous system.
139
365260
2000
az információ az idegrendszerben.
06:07
But these pores here are special.
140
367260
2000
De a pórusok különlegesek.
06:09
They are coupled to light receptors
141
369260
2000
fényérzékelők vannak bennük,
06:11
similar to the ones in your eyes.
142
371260
3000
mint a szemünkben.
06:14
Whenever a flash of light hits the receptor,
143
374260
2000
Amikor a fölvillanó fény eléri az érzékelőt,
06:16
the pore opens, an electrical current is switched on,
144
376260
3000
a pórus megnyílik, áram kezd el folyni;
06:19
and the neuron fires electrical impulses.
145
379260
3000
és az idegsejt elektromos impulzust hoz létre.
06:22
Because the light-activated pore is encoded in DNA,
146
382260
3000
Mivel a fényérzékeny pórus a DNS-be van kódolva,
06:25
we can achieve incredible precision.
147
385260
3000
elképesztő pontosságot érhetünk el.
06:28
This is because,
148
388260
2000
Ennek a magyarázata,
06:30
although each cell in our bodies
149
390260
2000
hogy bár testünk minden sejtje
06:32
contains the same set of genes,
150
392260
2000
ugyanazt a génkészletet tartalmazza,
06:34
different mixes of genes get turned on and off
151
394260
2000
az egyes sejtekben
06:36
in different cells.
152
396260
2000
más-más génegyüttes kapcsolódik be és ki.
06:38
You can exploit this to make sure
153
398260
2000
Meggyőződhetünk róla,
06:40
that only some neurons
154
400260
2000
hogy csak bizonyos idegsejtekben vannak
06:42
contain our light-activated pore and others don't.
155
402260
3000
fényérzékeny pórusok, másokban nincsenek.
06:45
So in this cartoon, the bluish white cell
156
405260
2000
Ezen az ábrán a bal fölső sarokban lévő
06:47
in the upper-left corner
157
407260
2000
kékesfehér sejtek
06:49
does not respond to light
158
409260
2000
érzéketlenek a fényre,
06:51
because it lacks the light-activated pore.
159
411260
3000
mert nincsenek bennük fényérzékeny pórusok.
06:54
The approach works so well
160
414260
2000
A módszer olyan hatékony,
06:56
that we can write purely artificial messages
161
416260
2000
hogy teljesen mesterséges üzeneteket írhatunk
06:58
directly to the brain.
162
418260
2000
közvetlenül az agyba.
07:00
In this example, each electrical impulse,
163
420260
2000
Példánkban minden elektromos impulzust,
07:02
each deflection on the trace,
164
422260
3000
minden irányeltérést
07:05
is caused by a brief pulse of light.
165
425260
3000
rövid fényimpulzus vált ki.
07:08
And the approach, of course, also works
166
428260
2000
A módszer természetesen
07:10
in moving, behaving animals.
167
430260
3000
mozgó állatoknál is hatékony.
07:13
This is the first ever such experiment,
168
433260
2000
Ez az első ilyen kísérlet;
07:15
sort of the optical equivalent of Galvani's.
169
435260
3000
a Galvani-féle kísérlet optikai megfelelője.
07:18
It was done six or seven years ago
170
438260
2000
A kísérletet 6-7 éve végezte
07:20
by my then graduate student, Susana Lima.
171
440260
3000
Susana Lima, akkori végzős diákom.
07:23
Susana had engineered the fruit fly on the left
172
443260
3000
Susana az ecetmuslicát úgy módosította,
07:26
so that just two out of the 200,000 cells in its brain
173
446260
4000
hogy a muslica agyának 200 ezer sejtje közül csak kettőben
07:30
expressed the light-activated pore.
174
450260
3000
fejeződtek ki a fényérzékeny pórusok.
07:33
You're familiar with these cells
175
453260
2000
Önöknek is ismerősek ezek a sejtek,
07:35
because they are the ones that frustrate you
176
455260
2000
mert ezek akadályozzák meg,
07:37
when you try to swat the fly.
177
457260
2000
hogy agyoncsaphassuk a legyet.
07:39
They trained the escape reflex that makes the fly jump into the air
178
459260
3000
Kialakítják benne a menekülőreflexet, s a hatására röppen el,
07:42
and fly away whenever you move your hand in position.
179
462260
3000
amikor ütésre emeljük a kezünket.
07:46
And you can see here that the flash of light has exactly the same effect.
180
466260
3000
Látható, hogy a fény fölvillanásának ugyanaz a hatása.
07:49
The animal jumps, it spreads its wings, it vibrates them,
181
469260
3000
Az állat szökken egyet, kitárja szárnyát, rezegteti,
07:52
but it can't actually take off
182
472260
2000
de nem képes fölszállni,
07:54
because the fly is sandwiched between two glass plates.
183
474260
3000
mert be van zárva két üveglap közé.
07:58
Now to make sure that this was no reaction of the fly
184
478260
2000
Hogy meggyőződjön róla, a muslicának
08:00
to a flash it could see,
185
480260
3000
ez nem a látott villanásra adott reakciója volt,
08:03
Susana did a simple
186
483260
2000
Susana egyszerű,
08:05
but brutally effective experiment.
187
485260
2000
de brutális kísérletet végzett:
08:07
She cut the heads off of her flies.
188
487260
3000
levágta a muslicák fejét.
08:11
These headless bodies can live for about a day,
189
491260
3000
A fej nélküli testek kb. egy napig még életben maradnak,
08:14
but they don't do much.
190
494260
2000
de nem sokat tesznek.
08:16
They just stand around
191
496260
3000
Csak álldogálnak,
08:19
and groom excessively.
192
499260
3000
és serényen csinosítják magukat.
08:22
So it seems that the only trait that survives decapitation is vanity.
193
502260
3000
Tehát az egyetlen tulajdonság, amely a lefejezést túléli: a hiúság.
08:25
(Laughter)
194
505260
3000
(Nevetés) (Taps)
08:30
Anyway, as you'll see in a moment,
195
510260
2000
Rögtön meglátják,
08:32
Susana was able to turn on the flight motor
196
512260
3000
hogy Susana be tudta indítani a repülőmotort,
08:35
of what's the equivalent of the spinal cord of these flies
197
515260
3000
ami a muslicáknál a gerincvelőnek felel meg,
08:38
and get some of the headless bodies
198
518260
2000
s némely lefejezett testet
08:40
to actually take off and fly away.
199
520260
3000
felszállásra és röpülésre késztetett.
08:47
They didn't get very far, obviously.
200
527260
2000
Nyilván nem jutottak túl messzire.
08:50
Since we took these first steps,
201
530260
2000
Az első lépések megtétele után
08:52
the field of optogenetics has exploded.
202
532260
3000
az optogenetika gyors fejlődésnek indult.
08:55
And there are now hundreds of labs
203
535260
2000
Ma már több száz labor alkalmazza
08:57
using these approaches.
204
537260
2000
e módszereket.
08:59
And we've come a long way
205
539260
2000
Nagy utat tettünk meg
09:01
since Galvani's and Susana's first successes
206
541260
3000
Galvani és Susana első eredményei óta, amelyekkel rángatózásra
09:04
in making animals twitch or jump.
207
544260
2000
vagy szökellésre késztették az állatokat.
09:06
We can now actually interfere with their psychology
208
546260
3000
Most már kapcsolatba léphetünk a pszichikumukkal,
09:09
in rather profound ways,
209
549260
2000
eléggé alapvető módon.
09:11
as I'll show you in my last example,
210
551260
2000
Bemutatom az utolsó példámban,
09:13
which is directed at a familiar question.
211
553260
3000
amely ismerős kérdésre válaszol.
09:16
Life is a string of choices
212
556260
3000
Az életünk döntések láncolata;
09:19
creating a constant pressure to decide what to do next.
213
559260
3000
állandóan nyomaszt bennünket a "hogyan tovább".
09:23
We cope with this pressure by having brains,
214
563260
3000
Azért tudunk megbirkózni e feladattal, mert agyunk van
09:26
and within our brains, decision-making centers
215
566260
3000
és benne döntéshozó központok,
09:29
that I've called here the "Actor."
216
569260
3000
amelyeket itt Szereplőnek hívok.
09:33
The Actor implements a policy that takes into account
217
573260
3000
A Szereplő olyan intézkedést tesz, amely figyelembe veszi
09:36
the state of the environment
218
576260
2000
a környezet állapotát
09:38
and the context in which we operate.
219
578260
3000
és működésünk körülményeit.
09:41
Our actions change the environment, or context,
220
581260
3000
Tetteink módosítják a környezetet vagy a körülményeket,
09:44
and these changes are then fed back into the decision loop.
221
584260
3000
és e változások visszacsatolódnak a döntési ciklusban.
09:48
Now to put some neurobiological meat
222
588260
3000
Hogy egy kis neurobiológiai lényeget is vigyünk
09:51
on this abstract model,
223
591260
2000
ebbe az elvont modellbe,
09:53
we constructed a simple one-dimensional world
224
593260
2000
egydimenziós világot hoztunk létre
09:55
for our favorite subject, fruit flies.
225
595260
3000
kedvenc alanyunknak, a muslicának.
09:58
Each chamber in these two vertical stacks
226
598260
2000
A két függőleges oszlopban lévő kamrák mindegyikében
10:00
contains one fly.
227
600260
2000
egy-egy muslica van.
10:02
The left and the right halves of the chamber
228
602260
3000
A kamrák jobb és bal fele
10:05
are filled with two different odors,
229
605260
2000
különböző illatú.
10:07
and a security camera watches
230
607260
2000
Egy biztonsági kamera figyeli,
10:09
as the flies pace up and down between them.
231
609260
3000
ahogy a muslicák fel-alá mászkálnak közöttük.
10:12
Here's some such CCTV footage.
232
612260
2000
Ez afféle zárt láncú tévéadás.
10:14
Whenever a fly reaches the midpoint of the chamber
233
614260
3000
Amikor a muslica a kamra közepére ér,
10:17
where the two odor streams meet,
234
617260
2000
ahol a két szag összeér,
10:19
it has to make a decision.
235
619260
2000
döntenie kell.
10:21
It has to decide whether to turn around
236
621260
2000
Döntenie kell, hogy visszaforduljon
10:23
and stay in the same odor,
237
623260
2000
és maradjon-e ugyanabban a szagban,
10:25
or whether to cross the midline
238
625260
2000
vagy lépje át a felezővonalat,
10:27
and try something new.
239
627260
2000
és vágjon bele valami újba.
10:29
These decisions are clearly a reflection
240
629260
3000
E döntések nyilvánvalóan
a Szereplő stratégiájából adódnak.
10:32
of the Actor's policy.
241
632260
3000
10:36
Now for an intelligent being like our fly,
242
636260
3000
Intelligens lényeknél, mint a muslicánknál,
10:39
this policy is not written in stone
243
639260
3000
e stratégia nincs kőbe vésve,
10:42
but rather changes as the animal learns from experience.
244
642260
3000
hanem az állat tapasztalatától függően változik.
10:45
We can incorporate such an element
245
645260
2000
Az alkalmazkodó intelligencia ezen elemét
10:47
of adaptive intelligence into our model
246
647260
3000
beépíthetjük a modellünkbe, föltételezve,
10:50
by assuming that the fly's brain
247
650260
2000
hogy a muslica agya
10:52
contains not only an Actor,
248
652260
2000
nemcsak a Szereplőt tartalmazza,
10:54
but a different group of cells,
249
654260
2000
hanem egyéb sejtcsoportokat is,
10:56
a "Critic," that provides a running commentary
250
656260
3000
a Kritikust, amely folyamatosan bírálja
10:59
on the Actor's choices.
251
659260
2000
a Szereplő döntéseit.
11:01
You can think of this nagging inner voice
252
661260
3000
Úgy tekinthetik ezt a korholó belső hangot,
11:04
as sort of the brain's equivalent
253
664260
2000
mint a katolikus egyház
11:06
of the Catholic Church,
254
666260
2000
agyi megfelelőjét,
11:08
if you're an Austrian like me,
255
668260
3000
ha osztrákok, mint én;
11:11
or the super-ego, if you're Freudian,
256
671260
3000
vagy a felettes énnek, ha freudisták;
11:14
or your mother, if you're Jewish.
257
674260
2000
vagy az anyjuknak, ha zsidók.
11:16
(Laughter)
258
676260
4000
(Nevetés)
11:20
Now obviously,
259
680260
2000
Kétségtelenül
11:22
the Critic is a key ingredient
260
682260
3000
a kulcselem a Kritikus,
11:25
in what makes us intelligent.
261
685260
2000
tőle vagyunk intelligensek.
11:27
So we set out to identify
262
687260
2000
Ezért meg akartuk határozni,
11:29
the cells in the fly's brain
263
689260
2000
hogy a muslica agyában mely sejtek
11:31
that played the role of the Critic.
264
691260
2000
töltik be a Kritikus szerepkörét.
11:33
And the logic of our experiment was simple.
265
693260
3000
Kísérletünk logikája egyszerű volt.
11:36
We thought if we could use our optical remote control
266
696260
3000
Úgy véltük: ha az optikai távirányítás
11:39
to activate the cells of the Critic,
267
699260
3000
használható a Kritikus sejtjeinek beindítására,
11:42
we should be able, artificially, to nag the Actor
268
702260
3000
akkor mesterségesen rá tudjuk venni a Szereplőt
11:45
into changing its policy.
269
705260
2000
stratégiája megváltoztatására.
11:47
In other words,
270
707260
2000
Azaz,
a muslicának tanulnia kell a hibáiból,
11:49
the fly should learn from mistakes
271
709260
2000
11:51
that it thought it had made
272
711260
2000
amelyekről azt hiszi, hogy elkövetett,
11:53
but, in reality, it had not made.
273
713260
3000
de valójában nem követett el.
11:56
So we bred flies
274
716260
2000
Így olyan muslicákat tenyésztettünk,
11:58
whose brains were more or less randomly peppered
275
718260
3000
amelyek agya többé-kevésbé véletlenszerűen
12:01
with cells that were light addressable.
276
721260
2000
be van szórva fényérzékeny sejtekkel.
12:03
And then we took these flies
277
723260
2000
A muslicáknak lehetőséget adtunk
12:05
and allowed them to make choices.
278
725260
2000
a döntésre.
12:07
And whenever they made one of the two choices,
279
727260
2000
Amikor a két lehetőség közül választottak,
12:09
chose one odor,
280
729260
2000
kiválasztották a szagot,
12:11
in this case the blue one over the orange one,
281
731260
2000
esetünkben a kéket, és nem a narancsot,
12:13
we switched on the lights.
282
733260
2000
fölkapcsoltuk a fényt.
12:15
If the Critic was among the optically activated cells,
283
735260
3000
Ha a Kritikus a fényérzékeny sejtek között van,
12:18
the result of this intervention
284
738260
2000
beavatkozásunk eredményeként
12:20
should be a change in policy.
285
740260
3000
meg kell változnia a stratégiának.
12:23
The fly should learn to avoid
286
743260
2000
A muslicának meg kell tanulnia,
hogyan kerülje el az optikailag megerősített szagot.
12:25
the optically reinforced odor.
287
745260
2000
12:27
Here's what happened in two instances:
288
747260
3000
A két esetben ez történt:
12:30
We're comparing two strains of flies,
289
750260
3000
két muslicatörzset vetettünk össze;
12:33
each of them having
290
753260
2000
a muslicák mindegyikének agyában
12:35
about 100 light-addressable cells in their brains,
291
755260
2000
kb. 100 fényérzékeny sejt volt.
12:37
shown here in green on the left and on the right.
292
757260
3000
Ezeket zölddel jelöltük az ábrán.
12:40
What's common among these groups of cells
293
760260
3000
A sejtcsoportok közös tulajdonsága,
12:43
is that they all produce the neurotransmitter dopamine.
294
763260
3000
hogy mindegyikük a dopamin nevű neurotranszmittert termeli.
12:46
But the identities of the individual
295
766260
2000
De a jobb és a bal oldali dopamintermelő neuronok
12:48
dopamine-producing neurons
296
768260
2000
tulajdonságai
12:50
are clearly largely different on the left and on the right.
297
770260
3000
egyértelműen nagy mértékben eltérőek.
12:53
Optically activating
298
773260
2000
Ha optikailag gerjesztjük
12:55
these hundred or so cells
299
775260
2000
ezt a kb. 100-100 sejtet
12:57
into two strains of flies
300
777260
2000
mindkét törzsben,
12:59
has dramatically different consequences.
301
779260
2000
az eredmény teljesen eltérő lesz.
13:01
If you look first at the behavior
302
781260
2000
Nézzük először a jobb felőli muslicák
13:03
of the fly on the right,
303
783260
2000
viselkedését!
13:05
you can see that whenever it reaches the midpoint of the chamber
304
785260
3000
Amikor elérik a felezővonalat,
13:08
where the two odors meet,
305
788260
2000
ahol a két illat összeér,
13:10
it marches straight through, as it did before.
306
790260
3000
átmennek a másik oldalra, mint korábban.
13:13
Its behavior is completely unchanged.
307
793260
2000
Viselkedésük változatlan.
13:15
But the behavior of the fly on the left is very different.
308
795260
3000
A bal felőli muslicák egészen másként viselkednek.
13:18
Whenever it comes up to the midpoint,
309
798260
3000
Amikor elérik a felezővonalat,
13:21
it pauses,
310
801260
2000
lefékeznek,
13:23
it carefully scans the odor interface
311
803260
2000
tüzetesen megvizsgálják a szag határvonalát,
13:25
as if it was sniffing out its environment,
312
805260
2000
mintha szimatolnának,
13:27
and then it turns around.
313
807260
2000
aztán visszafordulnak.
13:29
This means that the policy that the Actor implements
314
809260
3000
Ez azt jelenti, hogy a Szereplő stratégiájának most már része
13:32
now includes an instruction to avoid the odor
315
812260
2000
a "kerüld a jobb oldali szagokat"
13:34
that's in the right half of the chamber.
316
814260
3000
utasítás.
13:37
This means that the Critic
317
817260
2000
Ez azt jelenti, hogy a Kritikusnak
13:39
must have spoken in that animal,
318
819260
2000
meg kellett szólalnia az állatban,
13:41
and that the Critic must be contained
319
821260
2000
tehát a Kritikusnak ott kellett lennie
13:43
among the dopamine-producing neurons on the left,
320
823260
3000
a bal oldali dopamintermelő idegsejtekben,
13:46
but not among the dopamine producing neurons on the right.
321
826260
3000
viszont nincs ott a jobb oldali dopamintermelő sejtekben.
13:49
Through many such experiments,
322
829260
3000
Sok-sok kísérlet során
13:52
we were able to narrow down
323
832260
2000
sikerült leszűkíteni
13:54
the identity of the Critic
324
834260
2000
a Kritikus helyét
13:56
to just 12 cells.
325
836260
2000
csupán 12 sejtre.
13:58
These 12 cells, as shown here in green,
326
838260
3000
Az itt zölddel jelölt 12 sejt
14:01
send the output to a brain structure
327
841260
2000
küldi a jelet a gombatest nevű
14:03
called the "mushroom body,"
328
843260
2000
agyi képletnek.
14:05
which is shown here in gray.
329
845260
2000
Ezt az ábrán szürkével jelöltük.
14:07
We know from our formal model
330
847260
2000
Formális modellünkből tudjuk,
14:09
that the brain structure
331
849260
2000
hogy az agyi képlet
14:11
at the receiving end of the Critic's commentary is the Actor.
332
851260
3000
a Kritikus megjegyzéseinek vevőoldalán: a Szereplő.
14:14
So this anatomy suggests
333
854260
2000
Ez az anatómia azt sejteti,
14:16
that the mushroom bodies have something to do
334
856260
3000
hogy a gombatesteknek közük van
14:19
with action choice.
335
859260
2000
a cselekvésre vonatkozó döntéshez.
14:21
Based on everything we know about the mushroom bodies,
336
861260
2000
A gombatestekkel kapcsolatos tudásunk alapján
14:23
this makes perfect sense.
337
863260
2000
ez teljesen logikus.
14:25
In fact, it makes so much sense
338
865260
2000
Olyannyira logikus,
14:27
that we can construct an electronic toy circuit
339
867260
3000
hogy ennek alapján létrehozhatjuk
14:30
that simulates the behavior of the fly.
340
870260
3000
a muslica viselkedését utánzó elektronikus játék áramkörét.
14:33
In this electronic toy circuit,
341
873260
3000
E játék áramkörében
14:36
the mushroom body neurons are symbolized
342
876260
2000
a gombatest idegsejtjeit
kék LED-ek függőleges sora szimbolizálja
14:38
by the vertical bank of blue LEDs
343
878260
3000
14:41
in the center of the board.
344
881260
3000
a lap közepén.
14:44
These LED's are wired to sensors
345
884260
2000
A LED-eket vezeték köti össze
14:46
that detect the presence of odorous molecules in the air.
346
886260
3000
a levegő szagmolekuláit jelző érzékelőkkel.
14:50
Each odor activates a different combination of sensors,
347
890260
3000
Minden szag az érzékelők más-más együttesét hozza működésbe,
14:53
which in turn activates
348
893260
2000
amely viszont a gombatestben
14:55
a different odor detector in the mushroom body.
349
895260
3000
más-más szagérzékelőt kapcsol be.
14:58
So the pilot in the cockpit of the fly,
350
898260
2000
A muslica pilótakabinjában
15:00
the Actor,
351
900260
2000
a Szereplő
15:02
can tell which odor is present
352
902260
2000
úgy érzékeli a szag jellegét,
15:04
simply by looking at which of the blue LEDs lights up.
353
904260
4000
hogy egyszerűen megnézi, melyik LED ég.
15:09
What the Actor does with this information
354
909260
2000
Hogy a Szereplő mit kezd az információval,
15:11
depends on its policy,
355
911260
2000
a stratégiájától függ,
15:13
which is stored in the strengths of the connection,
356
913260
2000
amelyet a szagérzékelők
15:15
between the odor detectors
357
915260
2000
és a motorok közti kapcsolatok
15:17
and the motors
358
917260
2000
tárolnak.
15:19
that power the fly's evasive actions.
359
919260
2000
A motorok késztetik a muslicát irányváltásra.
15:22
If the connection is weak, the motors will stay off
360
922260
2000
Ha a kapcsolat gyenge, a motor nem indul be,
15:24
and the fly will continue straight on its course.
361
924260
3000
és a muslica tartja az irányt.
15:27
If the connection is strong, the motors will turn on
362
927260
3000
Ha erős, a motor beindul,
15:30
and the fly will initiate a turn.
363
930260
3000
és a muslica elfordul.
15:33
Now consider a situation
364
933260
2000
Nézzük azt a helyzetet,
15:35
in which the motors stay off,
365
935260
2000
amikor a motor nem indul be,
15:37
the fly continues on its path
366
937260
3000
a muslica továbbrepül,
15:40
and it suffers some painful consequence
367
940260
2000
következésképp, fájdalmas hatás,
15:42
such as getting zapped.
368
942260
2000
pl. áramütés éri.
15:44
In a situation like this,
369
944260
2000
E helyzetben arra számítanánk,
15:46
we would expect the Critic to speak up
370
946260
2000
hogy a Kritikus azt tanácsolja
15:48
and to tell the Actor
371
948260
2000
a Szereplőnek,
15:50
to change its policy.
372
950260
2000
hogy változtasson stratégiáján.
15:52
We have created such a situation, artificially,
373
952260
3000
Mesterségesen úgy hoztunk létre ilyen helyzetet,
15:55
by turning on the critic with a flash of light.
374
955260
3000
hogy a Kritikusra rávillantottunk.
15:58
That caused a strengthening of the connections
375
958260
3000
Ez az aktív szagérzékelő
és a motorok közötti kapcsolat erősödését
16:01
between the currently active odor detector
376
961260
3000
16:04
and the motors.
377
964260
2000
vonta maga után.
16:06
So the next time
378
966260
2000
Ha legközelebb a muslica
16:08
the fly finds itself facing the same odor again,
379
968260
3000
ugyanezzel a szaggal találkozik,
16:11
the connection is strong enough to turn on the motors
380
971260
3000
a kapcsolat elég erős, hogy beindítsa a motorokat,
16:14
and to trigger an evasive maneuver.
381
974260
3000
és kiváltsa az elkerülő mozgást.
16:19
I don't know about you,
382
979260
3000
Nem tudom, ki hogy van vele,
16:22
but I find it exhilarating to see
383
982260
3000
de én elragadtatással figyelem,
16:25
how vague psychological notions
384
985260
3000
ahogy ködös pszichológiai fogalmak tovatűnnek,
16:28
evaporate and give rise
385
988260
2000
és az agy fizikai,
16:30
to a physical, mechanistic understanding of the mind,
386
990260
3000
mechanikai fölfogásának adják át helyüket,
16:33
even if it's the mind of the fly.
387
993260
3000
még ha csak a muslica agyáról van is szó.
16:36
This is one piece of good news.
388
996260
3000
Ez az egyik jó hír.
16:39
The other piece of good news,
389
999260
2000
A másik jó hírünk,
16:41
for a scientist at least,
390
1001260
2000
legalábbis a tudósoknak,
16:43
is that much remains to be discovered.
391
1003260
3000
hogy bőven van még fölfedeznivaló.
16:46
In the experiments I told you about,
392
1006260
2000
Az ismertetett kísérletekben
16:48
we have lifted the identity of the Critic,
393
1008260
3000
bebizonyítottuk a Kritikus létezését,
16:51
but we still have no idea
394
1011260
2000
de még fogalmunk sincs,
hogyan végzi a Kritikus a munkáját.
16:53
how the Critic does its job.
395
1013260
2000
16:55
Come to think of it, knowing when you're wrong
396
1015260
2000
Gondoljunk bele: ha tévedünk,
16:57
without a teacher, or your mother, telling you,
397
1017260
3000
s nincs, aki megmondja, sem a tanárunk, sem az anyánk...
17:00
is a very hard problem.
398
1020260
2000
ez megnehezíti a dolgunkat.
17:02
There are some ideas in computer science
399
1022260
2000
Van néhány elképzelés a számítástechnikában
17:04
and in artificial intelligence
400
1024260
2000
és a mesterséges értelemben
17:06
as to how this might be done,
401
1026260
2000
a megoldás lehetséges módjáról.
17:08
but we still haven't solved
402
1028260
2000
De még egyetlen esetben sem találtunk
17:10
a single example
403
1030260
2000
magyarázatot rá,
17:12
of how intelligent behavior
404
1032260
3000
hogy a fizikai kölcsönhatás eredményeként
17:15
springs from the physical interactions
405
1035260
2000
az élő szervezetben
17:17
in living matter.
406
1037260
2000
hogyan keletkezik intelligens viselkedés.
17:19
I think we'll get there in the not too distant future.
407
1039260
3000
Azt gondolom, hogy a nem túl távoli jövőben erre is rájövünk.
17:22
Thank you.
408
1042260
2000
Köszönöm.
17:24
(Applause)
409
1044260
4000
(Taps)
Erről a weboldalról

Ez az oldal olyan YouTube-videókat mutat be, amelyek hasznosak az angol nyelvtanuláshoz. A világ minden tájáról származó, kiváló tanárok által tartott angol leckéket láthatsz. Az egyes videók oldalán megjelenő angol feliratokra duplán kattintva onnan játszhatja le a videót. A feliratok a videó lejátszásával szinkronban gördülnek. Ha bármilyen észrevétele vagy kérése van, kérjük, lépjen kapcsolatba velünk ezen a kapcsolatfelvételi űrlapon.

https://forms.gle/WvT1wiN1qDtmnspy7