A brain in a supercomputer | Henry Markram

512,041 views ・ 2009-10-15

TED


Dubbelklik op de Engelse ondertitels hieronder om de video af te spelen.

Vertaald door: Frans Kellner Nagekeken door: Els De Keyser
00:18
Our mission is to build
0
18330
3000
Het is onze missie om een
00:21
a detailed, realistic
1
21330
2000
gedetailleerd, realistisch computermodel
00:23
computer model of the human brain.
2
23330
2000
van het brein te bouwen.
00:25
And we've done, in the past four years,
3
25330
3000
We hebben in de afgelopen vier jaar
00:28
a proof of concept
4
28330
2000
een proof of concept gedaan
00:30
on a small part of the rodent brain,
5
30330
3000
op een klein deel van een rattenbrein,
00:33
and with this proof of concept we are now scaling the project up
6
33330
3000
en schalen het project nu op naar
00:36
to reach the human brain.
7
36330
3000
het menselijke brein.
00:39
Why are we doing this?
8
39330
2000
Waarom doen we dit?
00:41
There are three important reasons.
9
41330
2000
Er zijn drie belangrijke redenen.
00:43
The first is, it's essential for us to understand the human brain
10
43330
4000
Ten eerste is het voor ons essentieel om het menselijke brein te begrijpen
00:47
if we do want to get along in society,
11
47330
2000
als we in de samenleving willen vooruitkomen.
00:49
and I think that it is a key step in evolution.
12
49330
4000
Ik denk dat het een beslissende stap is in de evolutie.
00:53
The second reason is,
13
53330
2000
De tweede reden is
00:55
we cannot keep doing animal experimentation forever,
14
55330
6000
dat we niet altijd kunnen blijven experimenteren op dieren.
01:01
and we have to embody all our data and all our knowledge
15
61330
4000
We moeten al onze data en kennis verwerken
01:05
into a working model.
16
65330
3000
in een werkend model.
01:08
It's like a Noah's Ark. It's like an archive.
17
68330
4000
Het is een soort ark van Noach, een archief.
01:12
And the third reason is that there are two billion people on the planet
18
72330
3000
De derde reden is dat er twee miljard mensen op de planeet zijn
01:15
that are affected by mental disorder,
19
75330
4000
die te maken hebben met een geestelijke stoornis,
01:19
and the drugs that are used today
20
79330
2000
terwijl de medicijnen die vandaag de dag gebruikt worden
01:21
are largely empirical.
21
81330
2000
grotendeels empirisch zijn.
01:23
I think that we can come up with very concrete solutions on
22
83330
3000
Ik denk dat we met concrete oplossingen voor de dag kunnen komen
01:26
how to treat disorders.
23
86330
3000
om stoornissen te behandelen.
01:29
Now, even at this stage,
24
89330
3000
Zelfs in dit stadium
01:32
we can use the brain model
25
92330
2000
kunnen we het breinmodel gebruiken
01:34
to explore some fundamental questions
26
94330
3000
om enkele fundamentele vragen te onderzoeken
01:37
about how the brain works.
27
97330
2000
over hoe het brein werkt.
01:39
And here, at TED, for the first time,
28
99330
2000
Ik wil hier bij TED voor de eerste keer
01:41
I'd like to share with you how we're addressing
29
101330
2000
met jullie delen hoe wij één theorie benaderen --
01:43
one theory -- there are many theories --
30
103330
3000
er zijn vele theorieën –
01:46
one theory of how the brain works.
31
106330
4000
één theorie over hoe de hersenen werken.
01:50
So, this theory is that the brain
32
110330
4000
Deze theorie zegt dat het brein
01:54
creates, builds, a version of the universe,
33
114330
6000
een versie van het universum creëert
02:00
and projects this version of the universe,
34
120330
3000
en deze versie van het universum
02:03
like a bubble, all around us.
35
123330
4000
als een bel rondom ons projecteert.
02:07
Now, this is of course a topic of philosophical debate for centuries.
36
127330
4000
Dit is al eeuwen het onderwerp van filosofische debatten.
02:11
But, for the first time, we can actually address this,
37
131330
3000
Voor het eerst kunnen we dit aanpakken
02:14
with brain simulation,
38
134330
2000
met breinsimulatie.
02:16
and ask very systematic and rigorous questions,
39
136330
4000
We kunnen systematische en rigoureuze vragen stellen
02:20
whether this theory could possibly be true.
40
140330
4000
over de mogelijkheid van deze theorie.
02:24
The reason why the moon is huge on the horizon
41
144330
3000
De reden dat de maan enorm is aan de horizon
02:27
is simply because our perceptual bubble
42
147330
3000
is dat onze waarnemingsbel
02:30
does not stretch out 380,000 kilometers.
43
150330
4000
zich geen 380.000 km kan uitstrekken.
02:34
It runs out of space.
44
154330
2000
Ze komt ruimte te kort.
02:36
And so what we do is we compare the buildings
45
156330
4000
Wat we dus doen is dit: we vergelijken de gebouwen
02:40
within our perceptual bubble,
46
160330
2000
in onze waarnemingsbel
02:42
and we make a decision.
47
162330
2000
en we nemen een beslissing.
02:44
We make a decision it's that big,
48
164330
2000
We besluiten dat het zo groot is
02:46
even though it's not that big.
49
166330
2000
ook al is het niet zo groot.
02:48
And what that illustrates
50
168330
2000
Wat dit illustreert is
02:50
is that decisions are the key things
51
170330
2000
dat beslissingen de sleutelcomponenten zijn
02:52
that support our perceptual bubble. It keeps it alive.
52
172330
5000
waarop onze waarnemingsbel is gesteund. Ze houden ze in stand.
02:57
Without decisions you cannot see, you cannot think,
53
177330
2000
Zonder beslissingen kun je niet zien, kun je niet denken,
02:59
you cannot feel.
54
179330
2000
kun je niet voelen.
03:01
And you may think that anesthetics work
55
181330
2000
En je mag denken dat verdoving werkt
03:03
by sending you into some deep sleep,
56
183330
3000
door je diep in slaap te brengen
03:06
or by blocking your receptors so that you don't feel pain,
57
186330
3000
of door je receptoren te blokkeren zodat je geen pijn voelt,
03:09
but in fact most anesthetics don't work that way.
58
189330
3000
maar in feite werkt verdoving meestal niet op die manier.
03:12
What they do is they introduce a noise
59
192330
3000
Verdoving introduceert een ruis in de hersenen
03:15
into the brain so that the neurons cannot understand each other.
60
195330
3000
zodat de neuronen elkaar niet meer kunnen verstaan.
03:18
They are confused,
61
198330
2000
Ze zijn verward
03:20
and you cannot make a decision.
62
200330
3000
en je kan geen beslissing meer nemen.
03:23
So, while you're trying to make up your mind
63
203330
3000
Terwijl jij je probeert af te vragen
03:26
what the doctor, the surgeon, is doing
64
206330
2000
wat de dokter, de chirurg aan het doen is
03:28
while he's hacking away at your body, he's long gone.
65
208330
2000
terwijl hij aan het snijden is in jouw lichaam, is hij al lang weg.
03:30
He's at home having tea.
66
210330
2000
Hij zit thuis aan de thee.
03:32
(Laughter)
67
212330
2000
(Gelach)
03:34
So, when you walk up to a door and you open it,
68
214330
3000
Wanneer je naar een deur loopt en die opent
03:37
what you compulsively have to do to perceive
69
217330
3000
is dit wat je dwangmatig moet doen om te kunnen waarnemen:
03:40
is to make decisions,
70
220330
2000
je moet beslissingen nemen,
03:42
thousands of decisions about the size of the room,
71
222330
3000
duizenden beslissingen over de afmeting van de kamer,
03:45
the walls, the height, the objects in this room.
72
225330
3000
de muur, de hoogte, de voorwerpen in de kamer.
03:48
99 percent of what you see
73
228330
3000
99 procent van wat je ziet
03:51
is not what comes in through the eyes.
74
231330
4000
is niet wat door de ogen binnenkomt.
03:55
It is what you infer about that room.
75
235330
4000
Het is wat je besluit over die kamer.
03:59
So I can say, with some certainty,
76
239330
4000
Ik kan dus met enige stelligheid zeggen:
04:03
"I think, therefore I am."
77
243330
3000
“Ik denk en daarom ben ik.”
04:06
But I cannot say, "You think, therefore you are,"
78
246330
4000
Maar ik kan niet zeggen: “Jullie denken en daarom bestaan jullie,”
04:10
because "you" are within my perceptual bubble.
79
250330
5000
omdat "jullie" zich in mijn waarnemingsbel bevinden.
04:15
Now, we can speculate and philosophize this,
80
255330
3000
We kunnen hierover speculeren en filosoferen
04:18
but we don't actually have to for the next hundred years.
81
258330
3000
maar we hoeven dit eigenlijk niet te doen voor de komende honderd jaar.
04:21
We can ask a very concrete question.
82
261330
2000
We kunnen een heel concrete vraag stellen.
04:23
"Can the brain build such a perception?"
83
263330
4000
Kan het brein zo’n gewaarwording bouwen?
04:27
Is it capable of doing it?
84
267330
2000
Is het in staat om dit te doen?
04:29
Does it have the substance to do it?
85
269330
2000
Bezit het het vermogen om dit te doen?
04:31
And that's what I'm going to describe to you today.
86
271330
3000
En dat is wat ik vandaag voor jullie ga beschrijven.
04:34
So, it took the universe 11 billion years to build the brain.
87
274330
4000
Het kostte het universum 11 miljard jaar om het brein te bouwen.
04:38
It had to improve it a little bit.
88
278330
2000
Het moest het een beetje verbeteren.
04:40
It had to add to the frontal part, so that you would have instincts,
89
280330
3000
Het moest wat aan het frontale deel toevoegen zodat je instincten zou hebben
04:43
because they had to cope on land.
90
283330
3000
omdat de mens op het land moest kunnen overleven.
04:46
But the real big step was the neocortex.
91
286330
4000
Maar de echt grote stap was de neocortex.
04:50
It's a new brain. You needed it.
92
290330
2000
Het is een nieuw brein. Je had het nodig.
04:52
The mammals needed it
93
292330
2000
De zoogdieren hadden het nodig
04:54
because they had to cope with parenthood,
94
294330
4000
omdat zij het ouderschap moesten aankunnen,
04:58
social interactions,
95
298330
2000
en sociale interactie,
05:00
complex cognitive functions.
96
300330
3000
complexe cognitieve functies.
05:03
So, you can think of the neocortex
97
303330
2000
Dus kun je de neocortex eigenlijk zien
05:05
actually as the ultimate solution today,
98
305330
5000
als de ultieme oplossing van vandaag,
05:10
of the universe as we know it.
99
310330
3000
van het universum zoals wij dit kennen.
05:13
It's the pinnacle, it's the final product
100
313330
2000
Het is het toppunt, het is het uiteindelijke product
05:15
that the universe has produced.
101
315330
4000
dat het universum heeft geproduceerd.
05:19
It was so successful in evolution
102
319330
2000
Het was zo succesvol in de evolutie
05:21
that from mouse to man it expanded
103
321330
2000
dat het van muis tot mens duizendvoudig uitdijde,
05:23
about a thousandfold in terms of the numbers of neurons,
104
323330
3000
gerekend in termen van aantallen neuronen,
05:26
to produce this almost frightening
105
326330
3000
om te leiden tot dit haast angstaanjagende orgaan,
05:29
organ, structure.
106
329330
3000
tot deze structuur.
05:32
And it has not stopped its evolutionary path.
107
332330
3000
Het evolutionaire pad van het brein is nog niet ten einde.
05:35
In fact, the neocortex in the human brain
108
335330
2000
In feite ontwikkelt de neocortex van het menselijk brein
05:37
is evolving at an enormous speed.
109
337330
3000
zich met enorme snelheid.
05:40
If you zoom into the surface of the neocortex,
110
340330
2000
Als je inzoomt op het oppervlak van de neocortex
05:42
you discover that it's made up of little modules,
111
342330
3000
ontdek je dat het is opgebouwd uit kleine modules,
05:45
G5 processors, like in a computer.
112
345330
2000
G5-processors, zoals in een computer.
05:47
But there are about a million of them.
113
347330
3000
Er zijn er ongeveer een miljoen van.
05:50
They were so successful in evolution
114
350330
2000
Ze waren zo succesvol in de evolutie
05:52
that what we did was to duplicate them
115
352330
2000
dat we ze steeds weer gingen dupliceren
05:54
over and over and add more and more of them to the brain
116
354330
2000
en er meer en meer aan het brein toevoegden
05:56
until we ran out of space in the skull.
117
356330
3000
tot de ruimte in de schedel op was.
05:59
And the brain started to fold in on itself,
118
359330
2000
De hersenen begonnen zichzelf op te vouwen.
06:01
and that's why the neocortex is so highly convoluted.
119
361330
3000
Dat is de reden waarom de neocortex zo sterk opgerold is.
06:04
We're just packing in columns,
120
364330
2000
Wij zijn gewoon kolommen aan het inpakken
06:06
so that we'd have more neocortical columns
121
366330
3000
zo dat we meer neocorticale kolommen hebben
06:09
to perform more complex functions.
122
369330
3000
om meer complexe functies uit te voeren.
06:12
So you can think of the neocortex actually as
123
372330
2000
Je kan je de neocortex zien als
06:14
a massive grand piano,
124
374330
2000
een massieve grote piano,
06:16
a million-key grand piano.
125
376330
3000
een grote piano met een miljoen toetsen.
06:19
Each of these neocortical columns
126
379330
2000
Elk van deze neocorticale kolommen
06:21
would produce a note.
127
381330
2000
zou een noot doen klinken.
06:23
You stimulate it; it produces a symphony.
128
383330
3000
Als je het stimuleert klinkt er een symfonie.
06:26
But it's not just a symphony of perception.
129
386330
3000
Maar het is niet enkel een symfonie van gewaarwording.
06:29
It's a symphony of your universe, your reality.
130
389330
3000
Het is een symfonie van jouw universum, jouw werkelijkheid.
06:32
Now, of course it takes years to learn how
131
392330
3000
Het duurt natuurlijk jaren om een concertvleugel
06:35
to master a grand piano with a million keys.
132
395330
3000
met een miljoen toetsen onder de knie te krijgen.
06:38
That's why you have to send your kids to good schools,
133
398330
2000
Dat is waarom jullie je kinderen naar goede scholen moeten sturen,
06:40
hopefully eventually to Oxford.
134
400330
2000
hopelijk uiteindelijk naar Oxford.
06:42
But it's not only education.
135
402330
3000
Maar het gaat niet alleen om onderwijs,
06:45
It's also genetics.
136
405330
2000
het gaat ook om genetica.
06:47
You may be born lucky,
137
407330
2000
Je kan gelukkig zijn geboren,
06:49
where you know how to master your neocortical column,
138
409330
4000
of je weet hoe je jouw neocorticale kolom kan beheersen
06:53
and you can play a fantastic symphony.
139
413330
2000
en kan je een fantastische symfonie spelen.
06:55
In fact, there is a new theory of autism
140
415330
3000
Er is zelfs een nieuwe theorie over autisme,
06:58
called the "intense world" theory,
141
418330
2000
die de “intense wereld” theorie wordt genoemd,
07:00
which suggests that the neocortical columns are super-columns.
142
420330
4000
die veronderstelt dat de neocorticale kolommen superkolommen zijn.
07:04
They are highly reactive, and they are super-plastic,
143
424330
4000
Zij zijn zeer reactief, en zij zijn super elastisch,
07:08
and so the autists are probably capable of
144
428330
3000
en zo is de autist waarschijnlijk in staat
07:11
building and learning a symphony
145
431330
2000
een symfonie te bouwen en te leren
07:13
which is unthinkable for us.
146
433330
2000
die voor ons ondenkbaar is.
07:15
But you can also understand
147
435330
2000
Maar je kunt ook begrijpen
07:17
that if you have a disease
148
437330
2000
dat als je een ziekte hebt
07:19
within one of these columns,
149
439330
2000
in een van deze kolommen
07:21
the note is going to be off.
150
441330
2000
de noot dan vals is.
07:23
The perception, the symphony that you create
151
443330
2000
De gewaarwording, de symfonie die je schept
07:25
is going to be corrupted,
152
445330
2000
raakt verstoord
07:27
and you will have symptoms of disease.
153
447330
3000
en je krijgt ziektesymptomen.
07:30
So, the Holy Grail for neuroscience
154
450330
4000
De heilige graal voor de neurowetenschap
07:34
is really to understand the design of the neocoritical column --
155
454330
4000
is om het ontwerp te begrijpen van de neocorticale kolom.
07:38
and it's not just for neuroscience;
156
458330
2000
Het is niet alleen omwille van de neurowetenschap.
07:40
it's perhaps to understand perception, to understand reality,
157
460330
3000
Het is om gewaarwording te begrijpen, om de werkelijkheid te begrijpen,
07:43
and perhaps to even also understand physical reality.
158
463330
4000
en misschien zelfs ook om de fysieke werkelijkheid te begrijpen.
07:47
So, what we did was, for the past 15 years,
159
467330
3000
Dus wat we de afgelopen vijftien jaar deden
07:50
was to dissect out the neocortex, systematically.
160
470330
4000
was het systematisch uitpluizen van de neocortex.
07:54
It's a bit like going and cataloging a piece of the rainforest.
161
474330
4000
Het is een beetje als het catalogiseren van een stukje van het regenwoud.
07:58
How many trees does it have?
162
478330
2000
Hoeveel bomen zijn er?
08:00
What shapes are the trees?
163
480330
2000
Welke vormen hebben de bomen?
08:02
How many of each type of tree do you have? Where are they positioned?
164
482330
3000
Hoeveel van elk soort boom heb je? Waar zijn ze gelokaliseerd?
08:05
But it's a bit more than cataloging because you actually have to
165
485330
2000
Maar het is iets meer dan catalogiseren omdat je eigenlijk
08:07
describe and discover all the rules of communication,
166
487330
4000
alle regels van communicatie moet beschrijven en ontdekken,
08:11
the rules of connectivity,
167
491330
2000
de regels voor verbinding,
08:13
because the neurons don't just like to connect with any neuron.
168
493330
3000
omdat de neuronen zich niet met eender welk neuron willen verbinden.
08:16
They choose very carefully who they connect with.
169
496330
3000
Ze kiezen zeer zorgvuldig met wie ze zich verbinden.
08:19
It's also more than cataloging
170
499330
3000
Het is ook meer dan catalogiseren
08:22
because you actually have to build three-dimensional
171
502330
2000
omdat je driedimensionele
08:24
digital models of them.
172
504330
2000
digitale modellen van hen moet bouwen.
08:26
And we did that for tens of thousands of neurons,
173
506330
2000
En wij deden dat voor tienduizenden neuronen.
08:28
built digital models of all the different types
174
508330
3000
We bouwden digitale modellen van de verschillende types
08:31
of neurons we came across.
175
511330
2000
neuronen die we tegenkwamen.
08:33
And once you have that, you can actually
176
513330
2000
En wanneer je dat eenmaal hebt kun je
08:35
begin to build the neocortical column.
177
515330
4000
beginnen met het bouwen van de neocorticale kolom.
08:39
And here we're coiling them up.
178
519330
3000
En hier rollen we ze op.
08:42
But as you do this, what you see
179
522330
3000
Maar wanneer je dit doet zie je
08:45
is that the branches intersect
180
525330
2000
dat de vertakkingen elkaar snijden
08:47
actually in millions of locations,
181
527330
3000
op miljoenen plaatsen,
08:50
and at each of these intersections
182
530330
3000
en op elk van die snijpunten
08:53
they can form a synapse.
183
533330
2000
kunnen ze synapsen vormen.
08:55
And a synapse is a chemical location
184
535330
2000
Een synaps is een chemische plek
08:57
where they communicate with each other.
185
537330
3000
waar zij met elkaar communiceren.
09:00
And these synapses together
186
540330
2000
Deze synapsen vormen samen
09:02
form the network
187
542330
2000
het netwerk
09:04
or the circuit of the brain.
188
544330
3000
of de stroomkring van de hersenen.
09:07
Now, the circuit, you could also think of as
189
547330
4000
De stroomkring kun je ook zien als
09:11
the fabric of the brain.
190
551330
2000
het weefsel van het brein.
09:13
And when you think of the fabric of the brain,
191
553330
3000
Als je denkt aan het weefsel van het brein -
09:16
the structure, how is it built? What is the pattern of the carpet?
192
556330
4000
hoe het gebouwd is, wat het patroon van het tapijt is,
09:20
You realize that this poses
193
560330
2000
dan ontdek je dat dit een fundamentele uitdaging
09:22
a fundamental challenge to any theory of the brain,
194
562330
4000
stelt aan elke theorie van het brein
09:26
and especially to a theory that says
195
566330
2000
en speciaal aan die theorie die zegt
09:28
that there is some reality that emerges
196
568330
2000
dat er een werkelijkheid voortkomt
09:30
out of this carpet, out of this particular carpet
197
570330
3000
uit dit tapijt, uit dit specifieke tapijt
09:33
with a particular pattern.
198
573330
2000
met een specifiek patroon.
09:35
The reason is because the most important design secret of the brain
199
575330
3000
Dit komt omdat belangrijkste geheim van het ontwerp van het brein
09:38
is diversity.
200
578330
2000
verscheidenheid is.
09:40
Every neuron is different.
201
580330
2000
Iedere neuron is anders.
09:42
It's the same in the forest. Every pine tree is different.
202
582330
2000
Het is zoals in het bos. Iedere den is anders.
09:44
You may have many different types of trees,
203
584330
2000
Je kan verschillende soorten bomen hebben
09:46
but every pine tree is different. And in the brain it's the same.
204
586330
3000
maar elke den is verschillend. En in het brein is het hetzelfde.
09:49
So there is no neuron in my brain that is the same as another,
205
589330
3000
Er is geen neuron in mijn brein dat hetzelfde is als een ander,
09:52
and there is no neuron in my brain that is the same as in yours.
206
592330
3000
en er is geen neuron in mijn brein hetzelfde als in dat van jullie.
09:55
And your neurons are not going to be oriented and positioned
207
595330
3000
Jullie neuronen oriënteren en positioneren zich niet
09:58
in exactly the same way.
208
598330
2000
op precies dezelfde manier.
10:00
And you may have more or less neurons.
209
600330
2000
Je kunt meer of minder neuronen hebben.
10:02
So it's very unlikely
210
602330
2000
Het is zeer onwaarschijnlijk
10:04
that you got the same fabric, the same circuitry.
211
604330
4000
dat je hetzelfde materiaal hebt, dezelfde stroomkring.
10:08
So, how could we possibly create a reality
212
608330
2000
Hoe is het dan mogelijk dat we een realiteit scheppen,
10:10
that we can even understand each other?
213
610330
3000
dat we elkaar zelfs kunnen begrijpen?
10:13
Well, we don't have to speculate.
214
613330
2000
We hoeven niet te speculeren.
10:15
We can look at all 10 million synapses now.
215
615330
3000
We kunnen naar alle tien miljoen synapsen kijken.
10:18
We can look at the fabric. And we can change neurons.
216
618330
3000
We kunnen naar het weefsel kijken. We kunnen neuronen veranderen.
10:21
We can use different neurons with different variations.
217
621330
2000
We kunnen andere neuronen gebruiken met andere varianten.
10:23
We can position them in different places,
218
623330
2000
We kunnen ze op verschillende posities plaatsen,
10:25
orient them in different places.
219
625330
2000
ze naar verschillende plaatsen richten.
10:27
We can use less or more of them.
220
627330
2000
We kunnen er meer van gebruiken of minder.
10:29
And when we do that
221
629330
2000
Als we dat doen
10:31
what we discovered is that the circuitry does change.
222
631330
3000
ontdekken we dat de stroomkring wel verandert.
10:34
But the pattern of how the circuitry is designed does not.
223
634330
7000
Maar het patroon waarop de stroomkring is ontworpen verandert niet.
10:41
So, the fabric of the brain,
224
641330
2000
Voor het weefsel van de hersenen geldt:
10:43
even though your brain may be smaller, bigger,
225
643330
2000
zelfs als je hersenen kleiner zijn, groter,
10:45
it may have different types of neurons,
226
645330
3000
met verschillende types neuronen,
10:48
different morphologies of neurons,
227
648330
2000
verschillend gevormde neuronen,
10:50
we actually do share
228
650330
3000
wij delen hetzelfde
10:53
the same fabric.
229
653330
2000
weefsel.
10:55
And we think this is species-specific,
230
655330
2000
Wij denken dat dit soortafhankelijk is
10:57
which means that that could explain
231
657330
2000
wat betekent dat dit kan verklaren
10:59
why we can't communicate across species.
232
659330
2000
waarom we niet tussen soorten kunnen communiceren.
11:01
So, let's switch it on. But to do it, what you have to do
233
661330
3000
Laten we het aanzetten. Om dat te doen,
11:04
is you have to make this come alive.
234
664330
2000
moet je het tot leven roepen.
11:06
We make it come alive
235
666330
2000
We brengen het tot leven
11:08
with equations, a lot of mathematics.
236
668330
2000
met vergelijkingen, een heleboel wiskunde.
11:10
And, in fact, the equations that make neurons into electrical generators
237
670330
4000
De vergelijkingen die van neuronen elektrische generators maken
11:14
were discovered by two Cambridge Nobel Laureates.
238
674330
3000
werden ontdekt door twee Nobelprijswinnaars uit Cambridge.
11:17
So, we have the mathematics to make neurons come alive.
239
677330
3000
We hebben dus de vergelijkingen om de neuronen tot leven te doen komen.
11:20
We also have the mathematics to describe
240
680330
2000
We hebben ook de wiskunde om te beschrijven
11:22
how neurons collect information,
241
682330
3000
hoe neuronen informatie verzamelen,
11:25
and how they create a little lightning bolt
242
685330
3000
en hoe ze een kleine bliksemschicht opwekken
11:28
to communicate with each other.
243
688330
2000
om met elkaar te communiceren.
11:30
And when they get to the synapse,
244
690330
2000
Als ze de synaps raken
11:32
what they do is they effectively,
245
692330
2000
is het effect
11:34
literally, shock the synapse.
246
694330
3000
letterlijk een schok voor de synaps.
11:37
It's like electrical shock
247
697330
2000
Het is als een elektrische schok
11:39
that releases the chemicals from these synapses.
248
699330
3000
die de chemische stoffen van deze synapsen doet vrijkomen.
11:42
And we've got the mathematics to describe this process.
249
702330
3000
We hebben de wiskunde om dit proces te beschrijven.
11:45
So we can describe the communication between the neurons.
250
705330
4000
Dus we kunnen de communicatie tussen neuronen beschrijven.
11:49
There literally are only a handful
251
709330
3000
Er zijn letterlijk maar een handvol
11:52
of equations that you need to simulate
252
712330
2000
vergelijkingen nodig om de activiteit
11:54
the activity of the neocortex.
253
714330
2000
van de neocortex te simuleren.
11:56
But what you do need is a very big computer.
254
716330
3000
Maar je hebt wel een erg grote computer nodig.
11:59
And in fact you need one laptop
255
719330
2000
Je hebt één laptop nodig
12:01
to do all the calculations just for one neuron.
256
721330
3000
om alle berekeningen te doen voor één enkele neuron.
12:04
So you need 10,000 laptops.
257
724330
2000
Dus je hebt 10.000 laptops nodig.
12:06
So where do you go? You go to IBM,
258
726330
2000
Dus waar ga je heen? Je gaat naar IBM,
12:08
and you get a supercomputer, because they know how to take
259
728330
2000
en je krijgt een supercomputer, omdat zij in staat zijn om
12:10
10,000 laptops and put it into the size of a refrigerator.
260
730330
4000
10.000 laptops in een ruimte zo groot als een koelkast te plaatsen.
12:14
So now we have this Blue Gene supercomputer.
261
734330
3000
Nu hebben we dus deze Blue Gene Supercomputer.
12:17
We can load up all the neurons,
262
737330
2000
We kunnen alle neuronen opladen,
12:19
each one on to its processor,
263
739330
2000
elk op zijn eigen processor,
12:21
and fire it up, and see what happens.
264
741330
4000
ze aanzetten, en bekijken wat er gebeurt.
12:25
Take the magic carpet for a ride.
265
745330
3000
Welkom voor een ritje op het tovertapijt.
12:28
Here we activate it. And this gives the first glimpse
266
748330
3000
Hier activeren we het. Dit geeft de eerste glimp
12:31
of what is happening in your brain
267
751330
2000
van wat er in je brein gebeurt
12:33
when there is a stimulation.
268
753330
2000
als het wordt gestimuleerd.
12:35
It's the first view.
269
755330
2000
Het is het eerste gezicht.
12:37
Now, when you look at that the first time, you think,
270
757330
2000
Als je hier voor het eerst naar kijkt, denk je,
12:39
"My god. How is reality coming out of that?"
271
759330
5000
“Mijn God. Hoe komt de werkelijkheid daaruit?”
12:44
But, in fact, you can start,
272
764330
3000
In werkelijkheid kan je,
12:47
even though we haven't trained this neocortical column
273
767330
4000
ook al hebben we deze neocorticale kolom niet getraind,
12:51
to create a specific reality.
274
771330
2000
een speciale realiteit beginnen te scheppen.
12:53
But we can ask, "Where is the rose?"
275
773330
4000
We kunnen vragen: “Waar is de roos?”
12:57
We can ask, "Where is it inside,
276
777330
2000
We kunnen vragen: “Waar zit het van binnen,
12:59
if we stimulate it with a picture?"
277
779330
3000
als we het stimuleren met een plaatje?”
13:02
Where is it inside the neocortex?
278
782330
2000
Waar zit het in de neocortex?
13:04
Ultimately it's got to be there if we stimulated it with it.
279
784330
4000
Uiteindelijk moet het daar zitten als we het ermee stimuleren.
13:08
So, the way that we can look at that
280
788330
2000
De manier waarop we dat kunnen bekijken
13:10
is to ignore the neurons, ignore the synapses,
281
790330
3000
is door de neuronen te negeren, de synapsen te negeren
13:13
and look just at the raw electrical activity.
282
793330
2000
en gewoon op de ruwe, elektrische activiteit te letten.
13:15
Because that is what it's creating.
283
795330
2000
Omdat het dat is wat het tot stand brengt.
13:17
It's creating electrical patterns.
284
797330
2000
Het schept elektrische patronen.
13:19
So when we did this,
285
799330
2000
Toen we dat deden
13:21
we indeed, for the first time,
286
801330
2000
zagen we voor het eerst
13:23
saw these ghost-like structures:
287
803330
3000
deze spookachtige structuren:
13:26
electrical objects appearing
288
806330
3000
elektrische voorwerpen die verschijnen
13:29
within the neocortical column.
289
809330
3000
binnen de neocorticale kolom.
13:32
And it's these electrical objects
290
812330
3000
Het zijn deze elektrische objecten
13:35
that are holding all the information about
291
815330
3000
die alle informatie bevatten over
13:38
whatever stimulated it.
292
818330
3000
wat het ook stimuleerde.
13:41
And then when we zoomed into this,
293
821330
2000
Toen we hierop inzoomden
13:43
it's like a veritable universe.
294
823330
4000
was het als een echt universum.
13:47
So the next step
295
827330
2000
Dus de volgende stap
13:49
is just to take these brain coordinates
296
829330
4000
is om deze breincoördinaten
13:53
and to project them into perceptual space.
297
833330
4000
in waarneembare ruimte te projecteren.
13:57
And if you do that,
298
837330
2000
Als je dat doet,
13:59
you will be able to step inside
299
839330
2000
ben je in staat binnen een werkelijkheid
14:01
the reality that is created
300
841330
2000
te stappen die geschapen is
14:03
by this machine,
301
843330
2000
door deze machine,
14:05
by this piece of the brain.
302
845330
3000
door dit stukje van het brein.
14:08
So, in summary,
303
848330
2000
Samengevat
14:10
I think that the universe may have --
304
850330
2000
denk ik dat het universum zichzelf misschien –
14:12
it's possible --
305
852330
2000
het is mogelijk –
14:14
evolved a brain to see itself,
306
854330
3000
heeft ontwikkeld tot een brein om zichzelf te zien,
14:17
which may be a first step in becoming aware of itself.
307
857330
5000
wat een eerste stap kan zijn naar zelfbewustzijn.
14:22
There is a lot more to do to test these theories,
308
862330
2000
Er moet nog veel meer gebeuren om deze theorieën te testen,
14:24
and to test any other theories.
309
864330
3000
en om elke andere theorie te testen.
14:27
But I hope that you are at least partly convinced
310
867330
3000
Maar ik hoop dat jullie in ieder geval gedeeltelijk zijn overtuigd
14:30
that it is not impossible to build a brain.
311
870330
3000
dat het niet onmogelijk is om een brein te bouwen.
14:33
We can do it within 10 years,
312
873330
2000
We kunnen het doen binnen 10 jaar,
14:35
and if we do succeed,
313
875330
2000
en als we slagen
14:37
we will send to TED, in 10 years,
314
877330
2000
zullen we TED over 10 jaar
14:39
a hologram to talk to you. Thank you.
315
879330
3000
een hologram sturen om tot jullie te spreken. Dank jullie.
14:42
(Applause)
316
882330
6000
(Applaus)
Over deze website

Deze site laat u kennismaken met YouTube-video's die nuttig zijn om Engels te leren. U ziet Engelse lessen gegeven door topdocenten uit de hele wereld. Dubbelklik op de Engelse ondertitels op elke videopagina om de video af te spelen. De ondertitels scrollen synchroon met het afspelen van de video. Heeft u opmerkingen of verzoeken, neem dan contact met ons op via dit contactformulier.

https://forms.gle/WvT1wiN1qDtmnspy7