Gero Miesenboeck reengineers a brain

52,036 views ・ 2010-11-05

TED


Dubbelklik op de Engelse ondertitels hieronder om de video af te spelen.

Vertaald door: Tars Van hoof Nagekeken door: Els De Keyser
00:15
I have a doppelganger.
0
15260
3000
Ik heb een dubbelganger.
00:18
(Laughter)
1
18260
3000
(Gelach)
00:21
Dr. Gero is a brilliant
2
21260
3000
Dr. Gero is een brilliante
00:24
but slightly mad scientist
3
24260
2000
maar licht gestoorde wetenschapper
00:26
in the "Dragonball Z: Android Saga."
4
26260
3000
in de Dragonball Z "Android Saga."
00:29
If you look very carefully,
5
29260
2000
Als je goed kijkt,
00:31
you see that his skull has been replaced
6
31260
3000
zie je dat zijn hersenpan vervangen werd
00:34
with a transparent Plexiglas dome
7
34260
2000
door een transparante plexiglazen koepel
00:36
so that the workings of his brain can be observed
8
36260
3000
zodat de werking van zijn brein geobserveerd kan worden
00:39
and also controlled with light.
9
39260
3000
en ook met licht bestuurd kan worden.
00:42
That's exactly what I do --
10
42260
2000
Dat is exact wat ik doe --
00:44
optical mind control.
11
44260
2000
optische controle van de geest.
00:46
(Laughter)
12
46260
2000
(Gelach)
00:48
But in contrast to my evil twin
13
48260
2000
Maar in tegenstelling tot mijn kwaadaardige tweelingbroer,
00:50
who lusts after world domination,
14
50260
3000
die uit is op wereldoverheersing,
00:53
my motives are not sinister.
15
53260
3000
zijn mijn motieven niet duister.
00:56
I control the brain
16
56260
2000
Ik controleer het brein
00:58
in order to understand how it works.
17
58260
2000
om te begrijpen hoe het werkt.
01:00
Now wait a minute, you may say,
18
60260
2000
Wacht even, zou je kunnen zeggen,
01:02
how can you go straight to controlling the brain
19
62260
3000
hoe kan je meteen het brein controleren
01:05
without understanding it first?
20
65260
2000
zonder het eerst te begrijpen?
01:07
Isn't that putting the cart before the horse?
21
67260
3000
Is dat niet het paard achter de wagen spannen?
01:11
Many neuroscientists agree with this view
22
71260
3000
Veel neurowetenschappers zijn het daarmee eens
01:14
and think that understanding will come
23
74260
3000
en denken dat het begrip zal komen
01:17
from more detailed observation and analysis.
24
77260
3000
uit meer gedetailleerde observatie en analyse.
01:20
They say, "If we could record the activity of our neurons,
25
80260
4000
Ze zeggen, "Als we de activiteit van onze neuronen konden opnemen,
01:24
we would understand the brain."
26
84260
3000
zouden we het brein begrijpen."
01:27
But think for a moment what that means.
27
87260
3000
Maar bedenk even wat dat betekent.
01:30
Even if we could measure
28
90260
2000
Zelfs al konden we meten
01:32
what every cell is doing at all times,
29
92260
2000
wat elke cel doet op elk moment,
01:34
we would still have to make sense
30
94260
2000
dan zouden we nog wijs moeten worden
01:36
of the recorded activity patterns,
31
96260
2000
uit alle opgenomen activiteitspatronen,
01:38
and that's so difficult,
32
98260
2000
en dat is zo moeilijk,
01:40
chances are we'll understand these patterns
33
100260
2000
dat de kans groot is dat we de patronen evenmin begrijpen
01:42
just as little as the brains that produce them.
34
102260
3000
als de hersenen die ze produceren.
01:45
Take a look at what brain activity might look like.
35
105260
3000
Kijk hier hoe hersenactiviteit eruit zou kunnen zien.
01:48
In this simulation, each black dot
36
108260
2000
In deze simulatie stelt elk zwart punt
01:50
is one nerve cell.
37
110260
2000
een zenuwcel voor.
01:52
The dot is visible
38
112260
2000
Het punt is zichtbaar
01:54
whenever a cell fires an electrical impulse.
39
114260
2000
wanneer een cel een elektrische impuls afvuurt.
01:56
There's 10,000 neurons here.
40
116260
2000
Er zijn hier 10.000 neuronen.
01:58
So you're looking at roughly one percent
41
118260
2000
Dus je kijkt naar ruwweg één percent
02:00
of the brain of a cockroach.
42
120260
3000
van het brein van een kakkerlak.
02:04
Your brains are about 100 million times
43
124260
3000
Jouw hersenen zijn ongeveer
02:07
more complicated.
44
127260
2000
100 miljoen keer ingewikkelder.
02:09
Somewhere, in a pattern like this,
45
129260
2000
Ergens in een patroon zoals dit,
02:11
is you,
46
131260
2000
ben jij,
02:13
your perceptions,
47
133260
2000
jouw waarnemingen,
02:15
your emotions, your memories,
48
135260
3000
jouw emoties, jouw herinneringen,
02:18
your plans for the future.
49
138260
2000
jouw plannen voor de toekomst.
02:20
But we don't know where,
50
140260
2000
Maar we weten niet waar,
02:22
since we don't know how to read the pattern.
51
142260
3000
omdat we het patroon niet kunnen lezen.
02:25
We don't understand the code used by the brain.
52
145260
3000
We begrijpen de code van het brein niet.
02:28
To make progress,
53
148260
2000
Om vooruitgang te boeken,
02:30
we need to break the code.
54
150260
2000
moeten we de code breken.
02:32
But how?
55
152260
2000
Maar hoe?
02:35
An experienced code-breaker will tell you
56
155260
2000
Een ervaren code-breker zal je vertellen
02:37
that in order to figure out what the symbols in a code mean,
57
157260
3000
dat om te ontdekken wat de symbolen in een code betekenen,
02:40
it's essential to be able to play with them,
58
160260
3000
het essentieel is om ermee te kunnen spelen,
02:43
to rearrange them at will.
59
163260
2000
ze te herschikken naar believen.
02:45
So in this situation too,
60
165260
2000
Dus ook in dit geval,
02:47
to decode the information
61
167260
2000
om de informatie te decoderen
02:49
contained in patterns like this,
62
169260
2000
die vervat zit in patronen zoals deze,
02:51
watching alone won't do.
63
171260
2000
zal enkel toekijken niet volstaan;
02:53
We need to rearrange the pattern.
64
173260
2000
we moeten het patroon herschikken.
02:55
In other words,
65
175260
2000
In andere woorden,
02:57
instead of recording the activity of neurons,
66
177260
2000
in plaats van de activiteit van neuronen op te nemen,
02:59
we need to control it.
67
179260
2000
moeten we ze besturen.
03:01
It's not essential that we can control
68
181260
2000
Het is niet essentieel dat we de activiteit
03:03
the activity of all neurons in the brain, just some.
69
183260
3000
van alle neuronen in het brein kunnen besturen, slechts enkele.
03:06
The more targeted our interventions, the better.
70
186260
2000
Hoe meer gericht onze ingrepen, hoe beter.
03:08
And I'll show you in a moment
71
188260
2000
En ik laat zo zien
03:10
how we can achieve the necessary precision.
72
190260
3000
hoe we de benodigde precisie kunnen bereiken.
03:13
And since I'm realistic, rather than grandiose,
73
193260
3000
En omdat ik realistisch ben, eerder dan hoogmoedig,
03:16
I don't claim that the ability to control the function of the nervous system
74
196260
3000
beweer ik niet dat de mogelijkheid om de werking van het zenuwstelsel te besturen
03:19
will at once unravel all its mysteries.
75
199260
3000
meteen alle mysteries zal prijsgeven.
03:22
But we'll certainly learn a lot.
76
202260
3000
Maar we zullen zeker veel leren.
03:27
Now, I'm by no means
77
207260
2000
Nu, ik ben in geen geval
03:29
the first person to realize
78
209260
2000
de eerste persoon die beseft
03:31
how powerful a tool intervention is.
79
211260
3000
wat een krachtig werktuig interventie is.
03:34
The history of attempts
80
214260
2000
De geschiedenis van pogingen
03:36
to tinker with the function of the nervous system
81
216260
2000
om met de werking van het zenuwstelsel te prutsen
03:38
is long and illustrious.
82
218260
2000
is lang en illuster.
03:40
It dates back at least 200 years,
83
220260
3000
Ze gaat minstens 200 jaar terug,
03:43
to Galvani's famous experiments
84
223260
2000
naar de beroemde experimenten van Galvani
03:45
in the late 18th century and beyond.
85
225260
3000
in de late 18de eeuw en later.
03:49
Galvani showed that a frog's legs twitched
86
229260
3000
Galvani toonde aan dat de poten van een kikker samentrokken
03:52
when he connected the lumbar nerve
87
232260
2000
wanneer hij de lumbale zenuw verbond
03:54
to a source of electrical current.
88
234260
3000
met een elektrische stroombron.
03:57
This experiment revealed the first, and perhaps most fundamental,
89
237260
3000
Dit experiment onthulde het eerste, en misschien ook meest fundamentele
04:00
nugget of the neural code:
90
240260
2000
stukje van de neurale code:
04:02
that information is written in the form
91
242260
2000
informatie is geschreven in de form
04:04
of electrical impulses.
92
244260
3000
van elektrische impulsen.
04:08
Galvani's approach
93
248260
2000
Galvani's benadering
04:10
of probing the nervous system with electrodes
94
250260
2000
om het zenuwstelsel binnen te dringen met elektroden
04:12
has remained state-of-the-art until today,
95
252260
3000
is state-of-the-art gebleven tot vandaag,
04:15
despite a number of drawbacks.
96
255260
3000
met uitzondering van een aantal nadelen.
04:18
Sticking wires into the brain is obviously rather crude.
97
258260
3000
Draden in het brein steken is duidelijk nogal ruw.
04:21
It's hard to do in animals that run around,
98
261260
2000
Het is zeer moeilijk om te doen bij rondlopende dieren,
04:23
and there is a physical limit
99
263260
2000
en er is een fysische limiet
04:25
to the number of wires
100
265260
2000
voor het aantal draden
04:27
that can be inserted simultaneously.
101
267260
3000
die tegelijkertijd kunnen ingebracht worden.
04:30
So around the turn of the last century,
102
270260
2000
Dus rond de vorige eeuwwisseling,
04:32
I started to think,
103
272260
2000
begon ik te denken,
04:34
"Wouldn't it be wonderful if one could take this logic
104
274260
3000
zou het niet prachtig zijn als iemand deze logica nam
04:37
and turn it upside down?"
105
277260
2000
en ze ondersteboven draaide.
04:39
So instead of inserting a wire
106
279260
2000
Dus in plaats van een draad in te brengen
04:41
into one spot of the brain,
107
281260
3000
in één plek van het brein,
04:44
re-engineer the brain itself
108
284260
2000
herontwerp het brein zelf
04:46
so that some of its neural elements
109
286260
3000
zodat sommige van de neurale elementen
04:49
become responsive to diffusely broadcast signals
110
289260
3000
gevoelig worden aan diffuus uitgezonden signalen,
04:52
such as a flash of light.
111
292260
3000
zoals een lichtflits.
04:55
Such an approach would literally, in a flash of light,
112
295260
3000
Een dergelijke aanpak zou letterlijk, in een lichtflits,
04:58
overcome many of the obstacles to discovery.
113
298260
3000
vele van de obstakels tot de ontdekking overwinnen.
05:01
First, it's clearly a non-invasive,
114
301260
3000
Ten eerste, het is duidelijk een niet-invasieve,
05:04
wireless form of communication.
115
304260
3000
draadloze vorm van communicatie.
05:07
And second, just as in a radio broadcast,
116
307260
2000
En ten tweede, juist zoals in een radio-uitzending,
05:09
you can communicate with many receivers at once.
117
309260
3000
kan je communiceren met veel ontvangers tegelijk.
05:12
You don't need to know where these receivers are,
118
312260
3000
Je hoeft niet te weten waar die ontvangers zijn.
05:15
and it doesn't matter if these receivers move --
119
315260
2000
En het doet er niet toe of de ontvangers bewegen --
05:17
just think of the stereo in your car.
120
317260
3000
denk maar aan de stereo in je wagen.
05:20
It gets even better,
121
320260
3000
Het wordt nog beter,
05:23
for it turns out that we can fabricate the receivers
122
323260
3000
want het blijkt dat we de ontvangers kunnen fabriceren
05:26
out of materials that are encoded in DNA.
123
326260
3000
uit materialen die ge-encodeerd zijn in DNA.
05:29
So each nerve cell
124
329260
2000
Dus elke zenuwcel
05:31
with the right genetic makeup
125
331260
2000
met de juiste genetische opbouw
05:33
will spontaneously produce a receiver
126
333260
3000
zal spontaan een ontvanger produceren
05:36
that allows us to control its function.
127
336260
3000
die ons toelaat zijn werking te controleren.
05:39
I hope you'll appreciate
128
339260
2000
Ik hoop dat je kan appreciëren
05:41
the beautiful simplicity
129
341260
2000
hoe prachtig eenvoudig
05:43
of this concept.
130
343260
2000
dit concept is.
05:45
There's no high-tech gizmos here,
131
345260
2000
Er zijn geen high-tech gizmos hier,
05:47
just biology revealed through biology.
132
347260
3000
gewoon biologie verwezenlijkt door biologie.
05:51
Now let's take a look at these miraculous receivers up close.
133
351260
3000
Nu, laten we deze miraculeuze ontvangers dichter bekijken.
05:54
As we zoom in on one of these purple neurons,
134
354260
3000
Als we inzoomen op een van deze paarse neuronen,
05:57
we see that its outer membrane
135
357260
2000
zien we dat het buitenste membraan
05:59
is studded with microscopic pores.
136
359260
2000
bezaaid is met microscopische poriën.
06:01
Pores like these conduct electrical current
137
361260
2000
Zulke poriën geleiden elektrische stroom
06:03
and are responsible
138
363260
2000
and zijn verantwoordelijk
06:05
for all the communication in the nervous system.
139
365260
2000
voor alle communicatie in het zenuwstelsel.
06:07
But these pores here are special.
140
367260
2000
Maar deze poriën hier zijn speciaal.
06:09
They are coupled to light receptors
141
369260
2000
Ze zijn gekoppeld aan lichtreceptoren
06:11
similar to the ones in your eyes.
142
371260
3000
gelijkaardig aan die in je ogen.
06:14
Whenever a flash of light hits the receptor,
143
374260
2000
Wanneer een lichtflits de receptor bereikt,
06:16
the pore opens, an electrical current is switched on,
144
376260
3000
opent de porie en wordt de elektrische stroom aangezet,
06:19
and the neuron fires electrical impulses.
145
379260
3000
en het neuron vuurt elektrische impulsen af.
06:22
Because the light-activated pore is encoded in DNA,
146
382260
3000
Omdat de licht-geactiveerde porie in DNA ge-encodeerd is,
06:25
we can achieve incredible precision.
147
385260
3000
kunnen we een ongelooflijke precisie bereiken.
06:28
This is because,
148
388260
2000
Dit is omdat,
06:30
although each cell in our bodies
149
390260
2000
hoewel elke cel in ons lichaam
06:32
contains the same set of genes,
150
392260
2000
dezelfde set genen bevat,
06:34
different mixes of genes get turned on and off
151
394260
2000
worden verschillende combinaties van genen aan en uitgezet
06:36
in different cells.
152
396260
2000
in verschillende cellen.
06:38
You can exploit this to make sure
153
398260
2000
Je kan dit benutten om ervoor te zorgen
06:40
that only some neurons
154
400260
2000
dat slechts sommige neuronen
06:42
contain our light-activated pore and others don't.
155
402260
3000
onze licht-geactiveerde porie bevatten en andere niet.
06:45
So in this cartoon, the bluish white cell
156
405260
2000
Dus in deze tekening, is de blauwachtig-witte cel
06:47
in the upper-left corner
157
407260
2000
in de hoek linksboven
06:49
does not respond to light
158
409260
2000
niet gevoelig aan licht
06:51
because it lacks the light-activated pore.
159
411260
3000
omdat het de licht-geactiveerde porie niet bevat.
06:54
The approach works so well
160
414260
2000
De aanpak werk zo goed
06:56
that we can write purely artificial messages
161
416260
2000
dat we zuiver artificiële boodschappen rechtstreeks
06:58
directly to the brain.
162
418260
2000
in het brein kunnen invoeren.
07:00
In this example, each electrical impulse,
163
420260
2000
In dit voorbeeld is elke elektrische impuls,
07:02
each deflection on the trace,
164
422260
3000
elke uitwijking op het spoor
07:05
is caused by a brief pulse of light.
165
425260
3000
veroorzaakt door een korte lichtflits.
07:08
And the approach, of course, also works
166
428260
2000
En de aanpak werk ook
07:10
in moving, behaving animals.
167
430260
3000
in bewegende dieren.
07:13
This is the first ever such experiment,
168
433260
2000
Dit is het eerste experiment ooit in zijn soort,
07:15
sort of the optical equivalent of Galvani's.
169
435260
3000
een soort van optisch equivalent van Galvani's experiment.
07:18
It was done six or seven years ago
170
438260
2000
Het werd zes of zeven jaar geleden gedaan
07:20
by my then graduate student, Susana Lima.
171
440260
3000
door mijn toenmalig graduaatstudente, Susana Lima.
07:23
Susana had engineered the fruit fly on the left
172
443260
3000
Susana had de fruitvlieg links zo aangepast
07:26
so that just two out of the 200,000 cells in its brain
173
446260
4000
dat slechts twee van de 200.000 cellen in het brein
07:30
expressed the light-activated pore.
174
450260
3000
de licht-geactiveerde porie bevatten.
07:33
You're familiar with these cells
175
453260
2000
Je kent deze cellen
07:35
because they are the ones that frustrate you
176
455260
2000
want het zijn deze cellen die je kwaad maken
07:37
when you try to swat the fly.
177
457260
2000
wanneer je de vlieg probeert te meppen.
07:39
They trained the escape reflex that makes the fly jump into the air
178
459260
3000
Zij zorgen voor de ontsnappingreflex die de vlieg doet opspringen
07:42
and fly away whenever you move your hand in position.
179
462260
3000
en wegvliegen wanneer je je hand in de juiste positie brengt.
07:46
And you can see here that the flash of light has exactly the same effect.
180
466260
3000
En je kan hier zien dat een lichtflits exact hetzelfde effect heeft.
07:49
The animal jumps, it spreads its wings, it vibrates them,
181
469260
3000
Het dier springt, spreidt zijn vleugels, slaat ermee,
07:52
but it can't actually take off
182
472260
2000
maar het kan niet echt opstijgen,
07:54
because the fly is sandwiched between two glass plates.
183
474260
3000
want ze is gevangen tussen twee glazen platen.
07:58
Now to make sure that this was no reaction of the fly
184
478260
2000
Nu, om zeker te zijn dat dit geen reactie was van de vlieg
08:00
to a flash it could see,
185
480260
3000
doordat ze de lichtflits kon zien,
08:03
Susana did a simple
186
483260
2000
deed Susanna een simpel
08:05
but brutally effective experiment.
187
485260
2000
maar geweldig effectief experiment.
08:07
She cut the heads off of her flies.
188
487260
3000
Ze hakte de hoofden van haar vliegen.
08:11
These headless bodies can live for about a day,
189
491260
3000
Deze hoofdloze lichamen kunnen ongeveer een dag overleven,
08:14
but they don't do much.
190
494260
2000
maar ze doen niet veel.
08:16
They just stand around
191
496260
3000
Ze staan gewoon wat
08:19
and groom excessively.
192
499260
3000
en maken zichzelf overvloedig schoon.
08:22
So it seems that the only trait that survives decapitation is vanity.
193
502260
3000
Dus het blijkt dat de enige trek die onthoofding overleeft ijdelheid is.
08:25
(Laughter)
194
505260
3000
(Gelach)
08:30
Anyway, as you'll see in a moment,
195
510260
2000
In elk geval, zoals je zo meteen zal zien,
08:32
Susana was able to turn on the flight motor
196
512260
3000
was Susana in staat om de vluchtmotor aan te zetten
08:35
of what's the equivalent of the spinal cord of these flies
197
515260
3000
van wat het equivalent is van het ruggenmerg van deze vliegen
08:38
and get some of the headless bodies
198
518260
2000
en de hoofdloze lichamen
08:40
to actually take off and fly away.
199
520260
3000
werkelijk te doen wegvliegen.
08:47
They didn't get very far, obviously.
200
527260
2000
Ze kwamen vanzelfsprekend niet ver.
08:50
Since we took these first steps,
201
530260
2000
Sinds we deze eerste stappen namen,
08:52
the field of optogenetics has exploded.
202
532260
3000
is het gebied van optogenetica geëxplodeerd.
08:55
And there are now hundreds of labs
203
535260
2000
En er zijn nu honderden labo's
08:57
using these approaches.
204
537260
2000
die deze aanpak gebruiken.
08:59
And we've come a long way
205
539260
2000
En we zijn van ver gekomen
09:01
since Galvani's and Susana's first successes
206
541260
3000
sinds de eerste successen van Galvani en Susana
09:04
in making animals twitch or jump.
207
544260
2000
en dieren doen samentrekken of springen.
09:06
We can now actually interfere with their psychology
208
546260
3000
We kunnen nu werkelijk hun psychologie beïnvloeden
09:09
in rather profound ways,
209
549260
2000
op nogal grondige manieren
09:11
as I'll show you in my last example,
210
551260
2000
zoals ik je laat zien in mijn laatste voorbeeld,
09:13
which is directed at a familiar question.
211
553260
3000
dat toegewijd is aan een bekende vraag.
09:16
Life is a string of choices
212
556260
3000
Het leven is een aaneenrijging van keuzes
09:19
creating a constant pressure to decide what to do next.
213
559260
3000
met een constante druk om te beslissen wat de volgende stap is.
09:23
We cope with this pressure by having brains,
214
563260
3000
We gaan om met deze druk door hersenen te hebben,
09:26
and within our brains, decision-making centers
215
566260
3000
en in onze hersenen, centra die beslissingen maken
09:29
that I've called here the "Actor."
216
569260
3000
die ik de Actor heb genoemd.
09:33
The Actor implements a policy that takes into account
217
573260
3000
De Actor voert een beleid uit dat rekening houdt
09:36
the state of the environment
218
576260
2000
met de status van de omgeving
09:38
and the context in which we operate.
219
578260
3000
en de context waarin we opereren.
09:41
Our actions change the environment, or context,
220
581260
3000
Onze acties veranderen de omgeving, of context,
09:44
and these changes are then fed back into the decision loop.
221
584260
3000
en deze veranderingen worden dan teruggevoerd in de beslissingslus.
09:48
Now to put some neurobiological meat
222
588260
3000
Om een beetje neurobiologische vorm te geven
09:51
on this abstract model,
223
591260
2000
aan dit abstracte model,
09:53
we constructed a simple one-dimensional world
224
593260
2000
hebben we een simpele, eendimensionale wereld gecreëerd
09:55
for our favorite subject, fruit flies.
225
595260
3000
voor ons favoriete onderwerp, fruitvliegjes.
09:58
Each chamber in these two vertical stacks
226
598260
2000
Elke kamer in deze twee verticale stapels
10:00
contains one fly.
227
600260
2000
bevat één vlieg.
10:02
The left and the right halves of the chamber
228
602260
3000
De linkse en rechtse helften van de kamer
10:05
are filled with two different odors,
229
605260
2000
zijn gevuld met twee verschillende geuren,
10:07
and a security camera watches
230
607260
2000
en een veiligheidscamera kijkt toe
10:09
as the flies pace up and down between them.
231
609260
3000
hoe de vliegjes heen en weer lopen tussen de geuren.
10:12
Here's some such CCTV footage.
232
612260
2000
Hier is zulk videomateriaal.
10:14
Whenever a fly reaches the midpoint of the chamber
233
614260
3000
Wanneer een vlieg het middelpunt van de kamer bereikt
10:17
where the two odor streams meet,
234
617260
2000
waar de twee geuren elkaar ontmoeten,
10:19
it has to make a decision.
235
619260
2000
moet ze een beslissing maken.
10:21
It has to decide whether to turn around
236
621260
2000
Ze moet beslissen of ze terugkeert
10:23
and stay in the same odor,
237
623260
2000
en in dezelfde geur blijft,
10:25
or whether to cross the midline
238
625260
2000
of dat ze de middellijn oversteekt
10:27
and try something new.
239
627260
2000
en iets nieuws probeert.
10:29
These decisions are clearly a reflection
240
629260
3000
Deze beslissingen zijn duidelijk een reflectie
10:32
of the Actor's policy.
241
632260
3000
van het beleid van de Actor.
10:36
Now for an intelligent being like our fly,
242
636260
3000
Voor een intelligent wezen zoals onze vlieg,
10:39
this policy is not written in stone
243
639260
3000
is dit beleid niet uit steen gehouwen,
10:42
but rather changes as the animal learns from experience.
244
642260
3000
maar verandert wanneer het dier leert uit ervaringen.
10:45
We can incorporate such an element
245
645260
2000
We kunnen zulks een element
10:47
of adaptive intelligence into our model
246
647260
3000
van adaptieve intelligentie incorporeren in ons model
10:50
by assuming that the fly's brain
247
650260
2000
door aan te nemen dat het brein van de vlieg
10:52
contains not only an Actor,
248
652260
2000
niet enkel een Actor bevat,
10:54
but a different group of cells,
249
654260
2000
maar een verschillende groep cellen,
10:56
a "Critic," that provides a running commentary
250
656260
3000
een Criticus, die een constante commentaar voorziet
10:59
on the Actor's choices.
251
659260
2000
bij de keuzes van de Actor.
11:01
You can think of this nagging inner voice
252
661260
3000
Je kunt deze zeurende stem zien
11:04
as sort of the brain's equivalent
253
664260
2000
als een soort van equivalent van het brein
11:06
of the Catholic Church,
254
666260
2000
van de Katholieke Kerk,
11:08
if you're an Austrian like me,
255
668260
3000
als je een Oostenrijker bent als ik,
11:11
or the super-ego, if you're Freudian,
256
671260
3000
of het superego, als je Freudiaans bent,
11:14
or your mother, if you're Jewish.
257
674260
2000
of je moeder, als je Joods bent.
11:16
(Laughter)
258
676260
4000
(Gelach)
11:20
Now obviously,
259
680260
2000
Nu, klaarblijkelijk,
11:22
the Critic is a key ingredient
260
682260
3000
is de Criticus een sleutelingrediënt
11:25
in what makes us intelligent.
261
685260
2000
in wat ons intelligent maakt.
11:27
So we set out to identify
262
687260
2000
Dus we zijn uit op het indentificeren
11:29
the cells in the fly's brain
263
689260
2000
van de cellen in het brein van de vlieg
11:31
that played the role of the Critic.
264
691260
2000
die de rol van Criticus op zich nemen.
11:33
And the logic of our experiment was simple.
265
693260
3000
En de logica van ons experiment was simpel.
11:36
We thought if we could use our optical remote control
266
696260
3000
We dachten dat als we onze optische afstandsbediening konden gebruiken
11:39
to activate the cells of the Critic,
267
699260
3000
om de cellen van de Criticus te activeren,
11:42
we should be able, artificially, to nag the Actor
268
702260
3000
we artificieel zouden moeten kunnen de Actor ertoe zetten
11:45
into changing its policy.
269
705260
2000
zijn beleid te veranderen.
11:47
In other words,
270
707260
2000
Met andere woorden,
11:49
the fly should learn from mistakes
271
709260
2000
de vlieg zou moeten leren van fouten
11:51
that it thought it had made
272
711260
2000
die ze dacht gemaakt te hebben,
11:53
but, in reality, it had not made.
273
713260
3000
maar in werkelijkheid niet had gemaakt.
11:56
So we bred flies
274
716260
2000
Dus we kweekten vliegen
11:58
whose brains were more or less randomly peppered
275
718260
3000
wier brein min of meer willekeurig bezaaid was
12:01
with cells that were light addressable.
276
721260
2000
met cellen die lichtgevoelig waren.
12:03
And then we took these flies
277
723260
2000
En dan namen we de vliegen
12:05
and allowed them to make choices.
278
725260
2000
en lieten we hen keuzes maken.
12:07
And whenever they made one of the two choices,
279
727260
2000
En wanneer de vlieg één van de twee keuzes maakte,
12:09
chose one odor,
280
729260
2000
een geur koos,
12:11
in this case the blue one over the orange one,
281
731260
2000
in dit geval de blauwe boven de oranje,
12:13
we switched on the lights.
282
733260
2000
deden we de lichten aan.
12:15
If the Critic was among the optically activated cells,
283
735260
3000
Als de Criticus bij de optisch-geactiveerde cellen was,
12:18
the result of this intervention
284
738260
2000
zou het resultaat van de interventie
12:20
should be a change in policy.
285
740260
3000
een verandering in beleid moeten zijn.
12:23
The fly should learn to avoid
286
743260
2000
De vlieg zou moeten leren
12:25
the optically reinforced odor.
287
745260
2000
de geur die gelinkt is aan de lichten te mijden.
12:27
Here's what happened in two instances:
288
747260
3000
Hier is wat gebeurde in twee gevallen.
12:30
We're comparing two strains of flies,
289
750260
3000
We vergelijken twee verschillende soorten vliegen,
12:33
each of them having
290
753260
2000
elk van hen beschikkend over
12:35
about 100 light-addressable cells in their brains,
291
755260
2000
ongeveer 100 lichtgevoelige cellen in hun brein,
12:37
shown here in green on the left and on the right.
292
757260
3000
hier weergegeven in groen links en rechts.
12:40
What's common among these groups of cells
293
760260
3000
Wat gewoon is onder deze groepen cellen
12:43
is that they all produce the neurotransmitter dopamine.
294
763260
3000
is dat ze allemaal de neurotransmitter dopamine produceren.
12:46
But the identities of the individual
295
766260
2000
Maar de identiteiten van de individuele
12:48
dopamine-producing neurons
296
768260
2000
dopamine-producerende neuronen
12:50
are clearly largely different on the left and on the right.
297
770260
3000
zijn duidelijk zeer verschillend links en rechts.
12:53
Optically activating
298
773260
2000
Het optisch activeren
12:55
these hundred or so cells
299
775260
2000
van deze honderd cellen
12:57
into two strains of flies
300
777260
2000
in twee soorten vliegen,
12:59
has dramatically different consequences.
301
779260
2000
heeft dramatisch verschillende gevolgen.
13:01
If you look first at the behavior
302
781260
2000
Als je kijkt naar het gedrag
13:03
of the fly on the right,
303
783260
2000
van de vlieg rechts,
13:05
you can see that whenever it reaches the midpoint of the chamber
304
785260
3000
kan je zien dat wanneer ze het middelpunt van de kamer bereikt
13:08
where the two odors meet,
305
788260
2000
waar de twee geuren elkaar ontmoeten,
13:10
it marches straight through, as it did before.
306
790260
3000
ze rechtdoor loopt zoals ze ervoor deed.
13:13
Its behavior is completely unchanged.
307
793260
2000
Haar gedrag is volledig onveranderd.
13:15
But the behavior of the fly on the left is very different.
308
795260
3000
Maar het gedrag van de vlieg links is zeer verschillend.
13:18
Whenever it comes up to the midpoint,
309
798260
3000
Wanneer ze het middelpunt bereikt,
13:21
it pauses,
310
801260
2000
pauzeert ze,
13:23
it carefully scans the odor interface
311
803260
2000
ze ruikt voorzichtig aan het geurpatroon,
13:25
as if it was sniffing out its environment,
312
805260
2000
alsof ze haar omgeving besnuffelt,
13:27
and then it turns around.
313
807260
2000
en keert dan om.
13:29
This means that the policy that the Actor implements
314
809260
3000
Dit betekent dat het beleid dat de Actor voert
13:32
now includes an instruction to avoid the odor
315
812260
2000
nu een instructie bevat om de geur te mijden
13:34
that's in the right half of the chamber.
316
814260
3000
die zich in de rechterhelft van de kamer bevat.
13:37
This means that the Critic
317
817260
2000
Dit betekent dat de Criticus
13:39
must have spoken in that animal,
318
819260
2000
gesproken moet hebben in dat dier,
13:41
and that the Critic must be contained
319
821260
2000
en dat de Criticus moet vervat zitten
13:43
among the dopamine-producing neurons on the left,
320
823260
3000
bij de dopamine-producerende neuronen links,
13:46
but not among the dopamine producing neurons on the right.
321
826260
3000
maar niet bij de dopamine-producerende neuronen rechts.
13:49
Through many such experiments,
322
829260
3000
Door middel van veel experimenten als deze,
13:52
we were able to narrow down
323
832260
2000
waren we in staat om de indentiteit
13:54
the identity of the Critic
324
834260
2000
van de Criticus toe te schrijven
13:56
to just 12 cells.
325
836260
2000
aan slechts 12 cellen.
13:58
These 12 cells, as shown here in green,
326
838260
3000
Deze 12 cellen, hier weergegeven in het groen,
14:01
send the output to a brain structure
327
841260
2000
zenden de uitvoer naar een hersenstructuur
14:03
called the "mushroom body,"
328
843260
2000
de paddenstoelorganismen genoemd,
14:05
which is shown here in gray.
329
845260
2000
die hier in het grijs zijn weergegeven.
14:07
We know from our formal model
330
847260
2000
We weten van ons formele model
14:09
that the brain structure
331
849260
2000
dat de hersenstructuur aan het ontvangende eind
14:11
at the receiving end of the Critic's commentary is the Actor.
332
851260
3000
van de commentaar van de Criticus de Actor is.
14:14
So this anatomy suggests
333
854260
2000
Dus deze anatomie suggereert
14:16
that the mushroom bodies have something to do
334
856260
3000
dat de paddenstoel organismen iets te maken hebben
14:19
with action choice.
335
859260
2000
met keuze van actie.
14:21
Based on everything we know about the mushroom bodies,
336
861260
2000
Gebaseerd op alles dat we weten over de paddenstoelorganismen,
14:23
this makes perfect sense.
337
863260
2000
is dit perfect logisch.
14:25
In fact, it makes so much sense
338
865260
2000
Feitelijk is het zo logisch,
14:27
that we can construct an electronic toy circuit
339
867260
3000
dat we een elektronisch speelgoedcircuit kunnen bouwen
14:30
that simulates the behavior of the fly.
340
870260
3000
dat het gedrag van de vlieg simuleert.
14:33
In this electronic toy circuit,
341
873260
3000
In dit elektronisch circuit,
14:36
the mushroom body neurons are symbolized
342
876260
2000
zijn de paddenstoelorganismen gesymboliseerd
14:38
by the vertical bank of blue LEDs
343
878260
3000
door de verticale reeks blauwe LED's
14:41
in the center of the board.
344
881260
3000
in het centrum van het bord.
14:44
These LED's are wired to sensors
345
884260
2000
Deze LED's zijn verbonden aan sensoren
14:46
that detect the presence of odorous molecules in the air.
346
886260
3000
die de aanwezigheid van geurende moleculen in de lucht detecteren.
14:50
Each odor activates a different combination of sensors,
347
890260
3000
Elke geur activeert een verschillende combinatie van sensoren,
14:53
which in turn activates
348
893260
2000
die op zijn beurt een bepaalde
14:55
a different odor detector in the mushroom body.
349
895260
3000
geurdetector in het paddenstoelorganisme activeert.
14:58
So the pilot in the cockpit of the fly,
350
898260
2000
Dus de piloot in de cockpit van de vlieg,
15:00
the Actor,
351
900260
2000
de Actor,
15:02
can tell which odor is present
352
902260
2000
kan vertellen welke geur aanwezig is
15:04
simply by looking at which of the blue LEDs lights up.
353
904260
4000
door eenvoudigweg te kijken naar welke blauwe LED oplicht.
15:09
What the Actor does with this information
354
909260
2000
Wat de Actor doet met deze informatie
15:11
depends on its policy,
355
911260
2000
hangt af van zijn beleid,
15:13
which is stored in the strengths of the connection,
356
913260
2000
dat opgeslagen is in de sterkte van de verbinding,
15:15
between the odor detectors
357
915260
2000
tussen de geurdetectors
15:17
and the motors
358
917260
2000
en de motors
15:19
that power the fly's evasive actions.
359
919260
2000
die de ontwijkende acties van de vlieg aandrijven.
15:22
If the connection is weak, the motors will stay off
360
922260
2000
Als de verbinding zwak is, blijven de motoren uit
15:24
and the fly will continue straight on its course.
361
924260
3000
en blijft de vlieg op dezelfde koers.
15:27
If the connection is strong, the motors will turn on
362
927260
3000
Als de verbinding sterk is, slaan de motoren aan
15:30
and the fly will initiate a turn.
363
930260
3000
en begint de vlieg te draaien.
15:33
Now consider a situation
364
933260
2000
Nu beeld je een situatie in
15:35
in which the motors stay off,
365
935260
2000
waar de motoren uitblijven,
15:37
the fly continues on its path
366
937260
3000
de vlieg zijn weg voortzet op zijn pad
15:40
and it suffers some painful consequence
367
940260
2000
en een pijnlijk gevolg ondergaat
15:42
such as getting zapped.
368
942260
2000
zoals geëlektrocuteerd worden.
15:44
In a situation like this,
369
944260
2000
In een dergelijke situatie,
15:46
we would expect the Critic to speak up
370
946260
2000
zoude we verwachten dat de Criticus opspreekt
15:48
and to tell the Actor
371
948260
2000
en de Actor vertelt
15:50
to change its policy.
372
950260
2000
zijn beleid te veranderen.
15:52
We have created such a situation, artificially,
373
952260
3000
We hebben artificieel een dergelijke situatie gecreëerd
15:55
by turning on the critic with a flash of light.
374
955260
3000
door de Criticus aan te zetten met een lichtflits.
15:58
That caused a strengthening of the connections
375
958260
3000
Die zorgde voor een versterking van de verbindingen
16:01
between the currently active odor detector
376
961260
3000
tussen de momenteel actieve geurdetector
16:04
and the motors.
377
964260
2000
en de motoren.
16:06
So the next time
378
966260
2000
Dus de volgende keer
16:08
the fly finds itself facing the same odor again,
379
968260
3000
dat de vlieg zichzelf voor dezelfde geur bevindt,
16:11
the connection is strong enough to turn on the motors
380
971260
3000
is de verbinding sterk genoeg om de motoren aan te zetten
16:14
and to trigger an evasive maneuver.
381
974260
3000
en een ontwijkend manoeuvre in gang te zetten.
16:19
I don't know about you,
382
979260
3000
Ik weet niet wat jij denkt,
16:22
but I find it exhilarating to see
383
982260
3000
maar ik vind het fascinerend om te zien
16:25
how vague psychological notions
384
985260
3000
hoe vage psychologische begrippen
16:28
evaporate and give rise
385
988260
2000
verdwijnen en plaats maken
16:30
to a physical, mechanistic understanding of the mind,
386
990260
3000
voor een fysisch, mechanistisch begrip van de geest,
16:33
even if it's the mind of the fly.
387
993260
3000
zelfs al is het de geest van vliegen.
16:36
This is one piece of good news.
388
996260
3000
Dit is één goed punt.
16:39
The other piece of good news,
389
999260
2000
Het andere goede nieuws,
16:41
for a scientist at least,
390
1001260
2000
voor een wetenschapper tenminste,
16:43
is that much remains to be discovered.
391
1003260
3000
is dat er veel overblijft om te ontdekken.
16:46
In the experiments I told you about,
392
1006260
2000
In de experimenten waarover ik heb verteld,
16:48
we have lifted the identity of the Critic,
393
1008260
3000
hebben we de identiteit van de Criticus opgebracht,
16:51
but we still have no idea
394
1011260
2000
maar we hebben nog steeds geen idee
16:53
how the Critic does its job.
395
1013260
2000
hoe de Criticus zijn job doet.
16:55
Come to think of it, knowing when you're wrong
396
1015260
2000
Als je erover nadenkt, weten wanneer je verkeerd bent
16:57
without a teacher, or your mother, telling you,
397
1017260
3000
zonder een leraar, of je moeder, die het je vertelt,
17:00
is a very hard problem.
398
1020260
2000
is een zeer moeilijk probleem.
17:02
There are some ideas in computer science
399
1022260
2000
Er zijn sommige ideeën in computerwetenschap
17:04
and in artificial intelligence
400
1024260
2000
en in artificiële intelligentie
17:06
as to how this might be done,
401
1026260
2000
over hoe dit zou kunnen worden gedaan,
17:08
but we still haven't solved
402
1028260
2000
maar we hebben nog steeds
17:10
a single example
403
1030260
2000
geen enkel voorbeeld opgelost
17:12
of how intelligent behavior
404
1032260
3000
van hoe intelligent gedrag
17:15
springs from the physical interactions
405
1035260
2000
ontspringt van fysische interacties
17:17
in living matter.
406
1037260
2000
in levende materie.
17:19
I think we'll get there in the not too distant future.
407
1039260
3000
Ik denk dat we er zullen geraken in de niet al te verre toekomst.
17:22
Thank you.
408
1042260
2000
Dank u.
17:24
(Applause)
409
1044260
4000
(Applaus)
Over deze website

Deze site laat u kennismaken met YouTube-video's die nuttig zijn om Engels te leren. U ziet Engelse lessen gegeven door topdocenten uit de hele wereld. Dubbelklik op de Engelse ondertitels op elke videopagina om de video af te spelen. De ondertitels scrollen synchroon met het afspelen van de video. Heeft u opmerkingen of verzoeken, neem dan contact met ons op via dit contactformulier.

https://forms.gle/WvT1wiN1qDtmnspy7