A brain in a supercomputer | Henry Markram

Henry Markram baut ein Gehirn in einem Super-Computer

512,041 views ・ 2009-10-15

TED


Bitte doppelklicken Sie auf die englischen Untertitel unten, um das Video abzuspielen.

Übersetzung: Sidney Francois Lektorat: Alex Boos
00:18
Our mission is to build
0
18330
3000
Unsere Mission ist es,
00:21
a detailed, realistic
1
21330
2000
ein detailiertes und realistisches
00:23
computer model of the human brain.
2
23330
2000
Computermodell des menschlichen Hirns zu bauen.
00:25
And we've done, in the past four years,
3
25330
3000
Und in den letzten vier Jahren
00:28
a proof of concept
4
28330
2000
haben wir die Durchführbarkeit
00:30
on a small part of the rodent brain,
5
30330
3000
in einem kleinen Teil des Hirnes bei Nagetieren nachgewiesen,
00:33
and with this proof of concept we are now scaling the project up
6
33330
3000
und mit diesem Machbarkeitsnachweis wollen wir das Projekt
00:36
to reach the human brain.
7
36330
3000
auf das menschliche Gehirn ausweiten.
00:39
Why are we doing this?
8
39330
2000
Warum wir das machen?
00:41
There are three important reasons.
9
41330
2000
Es gibt drei wichtige Gründe.
00:43
The first is, it's essential for us to understand the human brain
10
43330
4000
Zum Ersten, es ist unerlässlich das menschliche Gehirn zu verstehen,
00:47
if we do want to get along in society,
11
47330
2000
wenn wir als Gesellschaft zurechtkommen wollen,
00:49
and I think that it is a key step in evolution.
12
49330
4000
und ich denke das ist ein wichtiger Schritt in Evolution.
00:53
The second reason is,
13
53330
2000
Zum Zweiten,
00:55
we cannot keep doing animal experimentation forever,
14
55330
6000
wir können Tierversuche nicht ewig durchführen,
01:01
and we have to embody all our data and all our knowledge
15
61330
4000
und wir müssen all unsere Daten und all unser Wissen
01:05
into a working model.
16
65330
3000
in ein funktionierendes Modell einbauen.
01:08
It's like a Noah's Ark. It's like an archive.
17
68330
4000
Es ist wie Noah's Arche. Es ist wie ein Archiv.
01:12
And the third reason is that there are two billion people on the planet
18
72330
3000
Der dritte Grund ist, dass es zwei Billionen Leute auf diesem Planeten gibt,
01:15
that are affected by mental disorder,
19
75330
4000
die an einer psychischen Störung leiden,
01:19
and the drugs that are used today
20
79330
2000
und die Medikamente die heutzutage verwendet werden,
01:21
are largely empirical.
21
81330
2000
basieren grösstenteils auf Erhebungen.
01:23
I think that we can come up with very concrete solutions on
22
83330
3000
Ich denke, wir können ganz konkrete Lösungen schaffen,
01:26
how to treat disorders.
23
86330
3000
wie Störungen zu behandeln sind.
01:29
Now, even at this stage,
24
89330
3000
Nun, sogar in diesem Stadium,
01:32
we can use the brain model
25
92330
2000
lässt sich das Hirn Modell dazu verwenden
01:34
to explore some fundamental questions
26
94330
3000
fundamentale Fragen zu beantworten,
01:37
about how the brain works.
27
97330
2000
wie das Gehirn funktioniert.
01:39
And here, at TED, for the first time,
28
99330
2000
Und hier, bei TED, zum ersten Mal
01:41
I'd like to share with you how we're addressing
29
101330
2000
möchte ich euch mitteilen wie wir eine Theorie
01:43
one theory -- there are many theories --
30
103330
3000
-- es gibt viele Theorien -- addressieren,
01:46
one theory of how the brain works.
31
106330
4000
eine Theorie, wie das Gehirn funktioniert.
01:50
So, this theory is that the brain
32
110330
4000
Nun, diese Theorie besagt, dass das Gehirn
01:54
creates, builds, a version of the universe,
33
114330
6000
eine Version des Universum kreiert, erbaut.
02:00
and projects this version of the universe,
34
120330
3000
Und diese Version des Universums projiziert es,
02:03
like a bubble, all around us.
35
123330
4000
wie eine Seifenblase, um uns herum.
02:07
Now, this is of course a topic of philosophical debate for centuries.
36
127330
4000
Natürlich ist das eine philosophische Debatte für Jahrhunderte.
02:11
But, for the first time, we can actually address this,
37
131330
3000
Aber zum ersten Mal können wir dies
02:14
with brain simulation,
38
134330
2000
mit Gehirnsimulation wirklich addressieren,
02:16
and ask very systematic and rigorous questions,
39
136330
4000
und sehr systematische und rigorose Fragen stellen,
02:20
whether this theory could possibly be true.
40
140330
4000
ob diese Theorie möglicherweise wahr sein könnte.
02:24
The reason why the moon is huge on the horizon
41
144330
3000
Der Grund, warum der Mond so gross am Horizont erscheint,
02:27
is simply because our perceptual bubble
42
147330
3000
ist schlichtwegs dass unsere Wahrnehmungs Seifenblase
02:30
does not stretch out 380,000 kilometers.
43
150330
4000
sich nicht auf 380,000 Kilometer ausweitet.
02:34
It runs out of space.
44
154330
2000
Ihr geht der Platz aus.
02:36
And so what we do is we compare the buildings
45
156330
4000
Was wir also machen, ist die Strukturen in unserer
02:40
within our perceptual bubble,
46
160330
2000
Wahrnehmungs Seifenblase zu vergleichen,
02:42
and we make a decision.
47
162330
2000
und wir treffen eine Entscheidung.
02:44
We make a decision it's that big,
48
164330
2000
Wir entscheiden, dass er gross ist,
02:46
even though it's not that big.
49
166330
2000
obwohl er nicht so gross ist,
02:48
And what that illustrates
50
168330
2000
und was das illustriert, ist, dass unsere Entscheidungen
02:50
is that decisions are the key things
51
170330
2000
das Fundament sind, die unsere Wahrnehmungs Seifenblase
02:52
that support our perceptual bubble. It keeps it alive.
52
172330
5000
unterstützen. Sie halten sie am Leben.
02:57
Without decisions you cannot see, you cannot think,
53
177330
2000
Ohne Entscheidungen kannst du nicht sehen, kannst du nicht denken,
02:59
you cannot feel.
54
179330
2000
kannst du nicht fühlen.
03:01
And you may think that anesthetics work
55
181330
2000
Und du magst denken, dass Betäubungsmittel dadurch funktionieren,
03:03
by sending you into some deep sleep,
56
183330
3000
dass du in Tiefschlaf versetzt wirst,
03:06
or by blocking your receptors so that you don't feel pain,
57
186330
3000
oder dass deine Rezeptoren geblockt werden, damit du keinen Schmerz fühlst,
03:09
but in fact most anesthetics don't work that way.
58
189330
3000
aber tatsächlich funktionieren die meisten Betäubungsmittel nicht so.
03:12
What they do is they introduce a noise
59
192330
3000
Was sie machen ist, ein Störsignal in das Hirn
03:15
into the brain so that the neurons cannot understand each other.
60
195330
3000
zu senden, so dass Neuronen einander nicht mehr verstehen können.
03:18
They are confused,
61
198330
2000
Sie sind verwirrt,
03:20
and you cannot make a decision.
62
200330
3000
und du kannst keine Entscheidung treffen.
03:23
So, while you're trying to make up your mind
63
203330
3000
Während du versuchst zu begreifen,
03:26
what the doctor, the surgeon, is doing
64
206330
2000
was der Doktor, Chirurg macht,
03:28
while he's hacking away at your body, he's long gone.
65
208330
2000
während er sich an deinem Körper zu schaffen macht, ist er bereits weg.
03:30
He's at home having tea.
66
210330
2000
Er ist zuhause und trinkt Tee.
03:32
(Laughter)
67
212330
2000
(Gelächter)
03:34
So, when you walk up to a door and you open it,
68
214330
3000
Also, wenn du auf eine Türe zugehst, und sie öffnest,
03:37
what you compulsively have to do to perceive
69
217330
3000
musst du zwingendermassen, um wahrzunehmen zu können,
03:40
is to make decisions,
70
220330
2000
Entscheidungen treffen,
03:42
thousands of decisions about the size of the room,
71
222330
3000
tausende Entscheidungen über die Grösse des Raumes,
03:45
the walls, the height, the objects in this room.
72
225330
3000
die Wand, die Höhe, die Objekte in dem Raum.
03:48
99 percent of what you see
73
228330
3000
99 Prozent von dem was du siehst
03:51
is not what comes in through the eyes.
74
231330
4000
kommt nicht durch das Auge.
03:55
It is what you infer about that room.
75
235330
4000
Es basiert auf deiner Schlussfolgerung vom Raum.
03:59
So I can say, with some certainty,
76
239330
4000
Also kann ich mit gewisser Sicherheit sagen, dass
04:03
"I think, therefore I am."
77
243330
3000
"Ich denke, also bin ich."
04:06
But I cannot say, "You think, therefore you are,"
78
246330
4000
Aber ich kann nicht sagen, "Du bist, also bist du,"
04:10
because "you" are within my perceptual bubble.
79
250330
5000
weil "du" existierst innerhalb meiner Wahrnehmungs Seifenblase.
04:15
Now, we can speculate and philosophize this,
80
255330
3000
Nun, wir können darüber spekulieren und philosophieren,
04:18
but we don't actually have to for the next hundred years.
81
258330
3000
aber das müssen wir für die nächsten hundert Jahre eigentlich nicht.
04:21
We can ask a very concrete question.
82
261330
2000
Wir können eine sehr konkrete Frage stellen.
04:23
"Can the brain build such a perception?"
83
263330
4000
"Kann das Gehirn eine solche Wahrnehmung kreieren?"
04:27
Is it capable of doing it?
84
267330
2000
"Ist es imstande das zu tun?"
04:29
Does it have the substance to do it?
85
269330
2000
"Hat es die Fähigkeit das zu tun?"
04:31
And that's what I'm going to describe to you today.
86
271330
3000
Und das ist was ich euch heute beschreiben werde.
04:34
So, it took the universe 11 billion years to build the brain.
87
274330
4000
Das Universum brauchte 11 Billionen Jahre um das Gehirn zu erschaffen.
04:38
It had to improve it a little bit.
88
278330
2000
Es musste sich etwas verbessern.
04:40
It had to add to the frontal part, so that you would have instincts,
89
280330
3000
Es musste den vorderen Teil hinzufügen, damit man Instinkte hat,
04:43
because they had to cope on land.
90
283330
3000
weil man auf dem Land zurechtkommen mussten.
04:46
But the real big step was the neocortex.
91
286330
4000
Der wirklich grosse Schritt war der Neocortex.
04:50
It's a new brain. You needed it.
92
290330
2000
Es war ein neues Gehirn. Man hat es gebraucht.
04:52
The mammals needed it
93
292330
2000
Säugetiere brauchten es,
04:54
because they had to cope with parenthood,
94
294330
4000
weil sie Elternschaft bewältigen mussten,
04:58
social interactions,
95
298330
2000
soziale Interaktionen,
05:00
complex cognitive functions.
96
300330
3000
komplexe kognitive Funktionen.
05:03
So, you can think of the neocortex
97
303330
2000
Entsprechend kann man sich den Neocortex
05:05
actually as the ultimate solution today,
98
305330
5000
als die ultimative Lösung
05:10
of the universe as we know it.
99
310330
3000
des uns bekannten Universums vorstellen.
05:13
It's the pinnacle, it's the final product
100
313330
2000
Es ist der Höhepunkt, das Endprodukt,
05:15
that the universe has produced.
101
315330
4000
dass das Universum produziert hat.
05:19
It was so successful in evolution
102
319330
2000
Es war so erfolgreich in Evolution,
05:21
that from mouse to man it expanded
103
321330
2000
dass es sich von der Maus zum Mensch
05:23
about a thousandfold in terms of the numbers of neurons,
104
323330
3000
um ein Tausendfaches ausweitete, was die Nummern von Neuronen angeht,
05:26
to produce this almost frightening
105
326330
3000
und dieses fast furchterregende
05:29
organ, structure.
106
329330
3000
Organ, diese Struktur entwickelte.
05:32
And it has not stopped its evolutionary path.
107
332330
3000
Und die Entwicklung stoppt damit nicht.
05:35
In fact, the neocortex in the human brain
108
335330
2000
Tatsächlich entwickelt sich der Neocortex im menschlichen Hirn
05:37
is evolving at an enormous speed.
109
337330
3000
mit enormer Geschwindigkeit.
05:40
If you zoom into the surface of the neocortex,
110
340330
2000
Wenn man die Oberfläche des Neocortex näher beobachtet,
05:42
you discover that it's made up of little modules,
111
342330
3000
entdreckt man, dass es aus lauter kleinen Komponenten besteht.
05:45
G5 processors, like in a computer.
112
345330
2000
G5 Prozessoren, wie in einem Computer.
05:47
But there are about a million of them.
113
347330
3000
Aber hier befinden sich ungefähr eine Million davon.
05:50
They were so successful in evolution
114
350330
2000
Sie waren so erfolgreich in ihrer Entwicklung,
05:52
that what we did was to duplicate them
115
352330
2000
dass wir sie dupliziert haben,
05:54
over and over and add more and more of them to the brain
116
354330
2000
immer und immer wieder, und sie dem Gehirn hinzugefügt haben
05:56
until we ran out of space in the skull.
117
356330
3000
bis wir keinen Platz mehr im Schädel hatten.
05:59
And the brain started to fold in on itself,
118
359330
2000
Das Gehirn fing an sich zu falten,
06:01
and that's why the neocortex is so highly convoluted.
119
361330
3000
weshalb der Neocortex so verschachtelt ist.
06:04
We're just packing in columns,
120
364330
2000
Wir packen sie nur in Säulen,
06:06
so that we'd have more neocortical columns
121
366330
3000
so dass wir mehr neokortikalen Säulen besitzen,
06:09
to perform more complex functions.
122
369330
3000
um komplexere Funktionen durchzuführen.
06:12
So you can think of the neocortex actually as
123
372330
2000
Entsprechend kann man sich den Neocortex
06:14
a massive grand piano,
124
374330
2000
als einen grossen Flügel,
06:16
a million-key grand piano.
125
376330
3000
ein Millionen-tastigen Flügel vorstellen.
06:19
Each of these neocortical columns
126
379330
2000
Jede dieser neokortikalen Säulen
06:21
would produce a note.
127
381330
2000
würde eine Note produzieren.
06:23
You stimulate it; it produces a symphony.
128
383330
3000
Man stimuliert es; es kreiert eine Symphonie.
06:26
But it's not just a symphony of perception.
129
386330
3000
Aber es ist nicht nur eine Symphonie der Wahrnehmung.
06:29
It's a symphony of your universe, your reality.
130
389330
3000
Es ist die Symphonie eines Universums, deiner Realität.
06:32
Now, of course it takes years to learn how
131
392330
3000
Nun, natürlich dauert es Jahre zu lernen, wie
06:35
to master a grand piano with a million keys.
132
395330
3000
man einen Flügel mit Millionen Tasten meistert.
06:38
That's why you have to send your kids to good schools,
133
398330
2000
Das ist der Grund warum man seine Kinder an gute Schulen schickt,
06:40
hopefully eventually to Oxford.
134
400330
2000
hoffentlich schlussendlich nach Oxford.
06:42
But it's not only education.
135
402330
3000
Aber es kommt nicht nur auf die Bildung darauf an.
06:45
It's also genetics.
136
405330
2000
Auch auf die Genetik.
06:47
You may be born lucky,
137
407330
2000
Man mag mit Glück geboren sein,
06:49
where you know how to master your neocortical column,
138
409330
4000
oder wissen, wie man seine neokortikale Säule meistern kann,
06:53
and you can play a fantastic symphony.
139
413330
2000
und kann eine fantastische Symphonie spielen.
06:55
In fact, there is a new theory of autism
140
415330
3000
Tatsächlich gibt es eine neue Theorie über Autismus,
06:58
called the "intense world" theory,
141
418330
2000
auch die "Intense World" Theorie genannt,
07:00
which suggests that the neocortical columns are super-columns.
142
420330
4000
welche suggeriert, dass die neokortikalen Säulen, Super-Säulen sind.
07:04
They are highly reactive, and they are super-plastic,
143
424330
4000
Sie sind höchst reaktiv und äusserst formbar,
07:08
and so the autists are probably capable of
144
428330
3000
und so haben Autisten möglicherweise die Fähigkeit
07:11
building and learning a symphony
145
431330
2000
Symphonien zu erbauen und zu lernen,
07:13
which is unthinkable for us.
146
433330
2000
welche für uns undenkbar sind.
07:15
But you can also understand
147
435330
2000
Aber man kann auch verstehen,
07:17
that if you have a disease
148
437330
2000
dass wenn sich eine Krankheit
07:19
within one of these columns,
149
439330
2000
innerhalb dieser Säulen befindet,
07:21
the note is going to be off.
150
441330
2000
die Noten falsch sein werden.
07:23
The perception, the symphony that you create
151
443330
2000
Die Wahrnehmung, die Symphonie die man kreiert,
07:25
is going to be corrupted,
152
445330
2000
wird verfälscht,
07:27
and you will have symptoms of disease.
153
447330
3000
und man weist Symptome einer Krankheit auf.
07:30
So, the Holy Grail for neuroscience
154
450330
4000
Deshalb ist der Heilige Gral der Neurowissenschaft,
07:34
is really to understand the design of the neocoritical column --
155
454330
4000
das Design der neokortikalen Säulen wirklich zu verstehen --
07:38
and it's not just for neuroscience;
156
458330
2000
und dies nicht nur für die Neurowissenschaft;
07:40
it's perhaps to understand perception, to understand reality,
157
460330
3000
vielleicht ermöglicht es Wahrnehmung und die Realität zu verstehen,
07:43
and perhaps to even also understand physical reality.
158
463330
4000
und vielleicht sogar eine physikalische Realität.
07:47
So, what we did was, for the past 15 years,
159
467330
3000
So, was wir für die letzten 15 Jahre gemacht haben,
07:50
was to dissect out the neocortex, systematically.
160
470330
4000
war es, den Neocortex systematisch zerlegen.
07:54
It's a bit like going and cataloging a piece of the rainforest.
161
474330
4000
Es ist ähnlich wie ein Stück des Regenwaldes zu katalogisieren.
07:58
How many trees does it have?
162
478330
2000
Wieviele Bäume gibt es?
08:00
What shapes are the trees?
163
480330
2000
Welche Form haben die Bäume?
08:02
How many of each type of tree do you have? Where are they positioned?
164
482330
3000
Wieviele pro Typus Baum gibt es? Wo sind sie positioniert?
08:05
But it's a bit more than cataloging because you actually have to
165
485330
2000
Es ist ein bisschen mehr als Katalogisieren, da man eigentlich
08:07
describe and discover all the rules of communication,
166
487330
4000
alle Regeln der Kommunikation beschreiben und entdecken muss,
08:11
the rules of connectivity,
167
491330
2000
die Regeln der Konnektivität,
08:13
because the neurons don't just like to connect with any neuron.
168
493330
3000
weil die Neuronen nicht nur mit irgendeinem Neuron verknüpfen wollen.
08:16
They choose very carefully who they connect with.
169
496330
3000
Sie wählen sehr sorgfältig aus, mit wem sie sich verknüpfen.
08:19
It's also more than cataloging
170
499330
3000
Es ist auch mehr als Katalogisieren,
08:22
because you actually have to build three-dimensional
171
502330
2000
weil man ein drei-dimensionales
08:24
digital models of them.
172
504330
2000
digitales Modell von ihnen bauen muss.
08:26
And we did that for tens of thousands of neurons,
173
506330
2000
Und das machten wir für Tausende von Neuronen,
08:28
built digital models of all the different types
174
508330
3000
bauten digitale Modelle für alle verschiedenen Typen von Neuronen
08:31
of neurons we came across.
175
511330
2000
welche wir antrafen.
08:33
And once you have that, you can actually
176
513330
2000
Und sobald man das hat, kann man
08:35
begin to build the neocortical column.
177
515330
4000
beginnen eine neokortikale Kolumne zu kreieren.
08:39
And here we're coiling them up.
178
519330
3000
Und hier wickeln wir sie auf.
08:42
But as you do this, what you see
179
522330
3000
Aber während man das macht, sieht man,
08:45
is that the branches intersect
180
525330
2000
dass die Äste sich
08:47
actually in millions of locations,
181
527330
3000
in Millionen von Orten überschneiden,
08:50
and at each of these intersections
182
530330
3000
und an jeder dieser Überschneidung
08:53
they can form a synapse.
183
533330
2000
können sie eine Synapse formen.
08:55
And a synapse is a chemical location
184
535330
2000
Und eine Synapse ist ein chemischer Ort
08:57
where they communicate with each other.
185
537330
3000
an welchem sie miteinander kommunizieren.
09:00
And these synapses together
186
540330
2000
Und diese Synapsen miteinander
09:02
form the network
187
542330
2000
vom Netzwerk
09:04
or the circuit of the brain.
188
544330
3000
oder Schaltkreis des Hirns.
09:07
Now, the circuit, you could also think of as
189
547330
4000
Nun, diesen Schaltkreis kann man sich auch als
09:11
the fabric of the brain.
190
551330
2000
als Gewebe des Hirns vorstellen.
09:13
And when you think of the fabric of the brain,
191
553330
3000
Und wenn man sich das Gewebe des Hirns vorstellt,
09:16
the structure, how is it built? What is the pattern of the carpet?
192
556330
4000
die Struktur, wie ist es gebaut? Was ist das Muster des "Teppichs"?
09:20
You realize that this poses
193
560330
2000
Man realisiert, dass dies
09:22
a fundamental challenge to any theory of the brain,
194
562330
4000
eine fundamentale Herausforderung an jede Theorie des Hirns ist,
09:26
and especially to a theory that says
195
566330
2000
und insbesondere an eine Theorie die besagt,
09:28
that there is some reality that emerges
196
568330
2000
dass eine Art Realität
09:30
out of this carpet, out of this particular carpet
197
570330
3000
aus diesem "Teppich" hervorgeht, aus diesem bestimmten "Teppich"
09:33
with a particular pattern.
198
573330
2000
mit einem bestimmten Muster.
09:35
The reason is because the most important design secret of the brain
199
575330
3000
Der Grund ist, weil das wichtigste Design Geheimnis des Hirns
09:38
is diversity.
200
578330
2000
Vielfältigkeit ist.
09:40
Every neuron is different.
201
580330
2000
Jedes Neuron ist verschieden.
09:42
It's the same in the forest. Every pine tree is different.
202
582330
2000
Es ist das gleiche wie in einem Wald. Jede Kiefer ist anders.
09:44
You may have many different types of trees,
203
584330
2000
Man hat vielleicht viele verschiedene Arten von Bäumen,
09:46
but every pine tree is different. And in the brain it's the same.
204
586330
3000
aber jede Kiefer ist anders. Und im Gehirn ist es das gleiche.
09:49
So there is no neuron in my brain that is the same as another,
205
589330
3000
Also ist kein Neuron in meinem Gehirn gleich wie ein weiteres,
09:52
and there is no neuron in my brain that is the same as in yours.
206
592330
3000
und es es gibt kein Neuron in meinem Hirn, dass gleich ist wie in eurem.
09:55
And your neurons are not going to be oriented and positioned
207
595330
3000
Und eure Neuronen sind nicht in exakt gleicher Weise
09:58
in exactly the same way.
208
598330
2000
auf genau gleiche Art und Weise orientiert und positioniert.
10:00
And you may have more or less neurons.
209
600330
2000
Und ihr habt möglicherweise mehr oder weniger Neuronen.
10:02
So it's very unlikely
210
602330
2000
Entsprechend ist sehr unwahrscheinlich,
10:04
that you got the same fabric, the same circuitry.
211
604330
4000
dass ihr das gleiche Gewebe habt, die gleichen Schaltkreise.
10:08
So, how could we possibly create a reality
212
608330
2000
Nun, wie könnten wir möglicherweise eine Realität kreieren,
10:10
that we can even understand each other?
213
610330
3000
so dass wir einander verstehen können?
10:13
Well, we don't have to speculate.
214
613330
2000
Wir müssen nicht spekulieren.
10:15
We can look at all 10 million synapses now.
215
615330
3000
Wir können nun 10 Millionen Synapsen betrachten.
10:18
We can look at the fabric. And we can change neurons.
216
618330
3000
Wir können das Gewebe betrachten. Und wir können Neuronen verändern.
10:21
We can use different neurons with different variations.
217
621330
2000
Wir können verschiedene Neuronen mit verschiedenen Variationen verwenden.
10:23
We can position them in different places,
218
623330
2000
Wir können sie in verschiedenen Orten platzieren,
10:25
orient them in different places.
219
625330
2000
in verschiedenen Orten orientieren.
10:27
We can use less or more of them.
220
627330
2000
Wir können mehr von ihnen verwenden, oder weniger.
10:29
And when we do that
221
629330
2000
Und wenn wir das machen,
10:31
what we discovered is that the circuitry does change.
222
631330
3000
was wir entdeckt haben, ist, dass der Schaltkreis sich verändert.
10:34
But the pattern of how the circuitry is designed does not.
223
634330
7000
Aber das Muster wie die Schaltkreise gestaltet sind, nicht.
10:41
So, the fabric of the brain,
224
641330
2000
Also, das Gewebe des Hirns,
10:43
even though your brain may be smaller, bigger,
225
643330
2000
auch wenn eure Gehirne ein bisschen kleiner, grösser sind,
10:45
it may have different types of neurons,
226
645330
3000
vielleicht haben sie andere Arten von Neuronen,
10:48
different morphologies of neurons,
227
648330
2000
andere Morphologien von Neuronen,
10:50
we actually do share
228
650330
3000
tatsächlich teilen wir
10:53
the same fabric.
229
653330
2000
das gleiche Gewebe.
10:55
And we think this is species-specific,
230
655330
2000
Und wir denken dass dies Spezien-spezifisch ist,
10:57
which means that that could explain
231
657330
2000
was heisst, dass wir auch erklären könnten,
10:59
why we can't communicate across species.
232
659330
2000
warum wir nicht über Spezies hinweg kommunizieren können.
11:01
So, let's switch it on. But to do it, what you have to do
233
661330
3000
Nun, schalten wir es ein. Aber um das zu tun, was man machen muss,
11:04
is you have to make this come alive.
234
664330
2000
ist es, dies zum Leben zu erwecken.
11:06
We make it come alive
235
666330
2000
Wir erwecken es zum Leben
11:08
with equations, a lot of mathematics.
236
668330
2000
mit Gleichungen und viel Mathematik.
11:10
And, in fact, the equations that make neurons into electrical generators
237
670330
4000
Und diese Gleichungen, die Neuronen in elektrische Generatoren verwandeln,
11:14
were discovered by two Cambridge Nobel Laureates.
238
674330
3000
wurden von zwei Cambridge Nobel Preisträgern entdeckt.
11:17
So, we have the mathematics to make neurons come alive.
239
677330
3000
Nun, wir haben die Mathematik um die Neuronen zum Leben zu erwecken.
11:20
We also have the mathematics to describe
240
680330
2000
Wir haben auch die Mathematik um zu beschreiben,
11:22
how neurons collect information,
241
682330
3000
wie Neuronen Informationen sammeln,
11:25
and how they create a little lightning bolt
242
685330
3000
und wie sie kleine Blitze generieren,
11:28
to communicate with each other.
243
688330
2000
um miteinander zu kommunizieren.
11:30
And when they get to the synapse,
244
690330
2000
Und wenn sie zur Synapse gelangen,
11:32
what they do is they effectively,
245
692330
2000
was sie sehr effektiv machen, ist es,
11:34
literally, shock the synapse.
246
694330
3000
im wahrsten Sinne des Wortes, die Synapse zu schocken.
11:37
It's like electrical shock
247
697330
2000
Es ist wie ein elektrischer Schock,
11:39
that releases the chemicals from these synapses.
248
699330
3000
welcher Chemikalien von der Synapse freigibt.
11:42
And we've got the mathematics to describe this process.
249
702330
3000
Und wir haben die Mathematik um diesen Prozess zu beschreiben.
11:45
So we can describe the communication between the neurons.
250
705330
4000
Und so können wir die Kommunikation zwischen den Neuronen beschreiben.
11:49
There literally are only a handful
251
709330
3000
Es gibt buchstäblich nur eine Handvoll
11:52
of equations that you need to simulate
252
712330
2000
Gleichungen die benötigt werden,
11:54
the activity of the neocortex.
253
714330
2000
um die Aktivität des Neocortex zu simulieren.
11:56
But what you do need is a very big computer.
254
716330
3000
Aber was man braucht, ist ein sehr grosser Computer.
11:59
And in fact you need one laptop
255
719330
2000
In der Tat braucht man einen Laptop,
12:01
to do all the calculations just for one neuron.
256
721330
3000
der alle Berechnungen für nur ein Neuron durchführt.
12:04
So you need 10,000 laptops.
257
724330
2000
Entsprechend braucht man 10,000 Laptops.
12:06
So where do you go? You go to IBM,
258
726330
2000
Wohin geht man dann? Man geht zu IBM,
12:08
and you get a supercomputer, because they know how to take
259
728330
2000
und man bekommt einen Super-Computer, weil sie wissen wie man
12:10
10,000 laptops and put it into the size of a refrigerator.
260
730330
4000
10,000 Laptops in die Grösse eines Kühlschranks verwandeln kann.
12:14
So now we have this Blue Gene supercomputer.
261
734330
3000
Nun haben wir diesen "Blue Gene" Super-Computer.
12:17
We can load up all the neurons,
262
737330
2000
Wir können all diese Neuronen hochladen,
12:19
each one on to its processor,
263
739330
2000
jedes Einzelne in seinen eigenen Prozessor,
12:21
and fire it up, and see what happens.
264
741330
4000
es aktivieren, und beobachten, was passiert.
12:25
Take the magic carpet for a ride.
265
745330
3000
Eine Runde mit dem "magischen Teppich" drehen.
12:28
Here we activate it. And this gives the first glimpse
266
748330
3000
Hier aktivieren wir es. Und das gibt uns einen flüchtigen Eindruck davon,
12:31
of what is happening in your brain
267
751330
2000
was in eurem Hirn vor sich geht
12:33
when there is a stimulation.
268
753330
2000
wenn eine Stimulation erfolgt.
12:35
It's the first view.
269
755330
2000
Das ist die erste Betrachtung.
12:37
Now, when you look at that the first time, you think,
270
757330
2000
Nun, wenn man das das erste Mal sieht, fragt man sich,
12:39
"My god. How is reality coming out of that?"
271
759330
5000
"Oh mein Gott. Wie kann aus dem Realität hervorkommen?"
12:44
But, in fact, you can start,
272
764330
3000
Aber, tatsächlich, kann man anfangen,
12:47
even though we haven't trained this neocortical column
273
767330
4000
obwohl wir diese neokortikale Kolumne nicht trainiert haben,
12:51
to create a specific reality.
274
771330
2000
eine spezifische Realität zu kreieren.
12:53
But we can ask, "Where is the rose?"
275
773330
4000
Aber wir können fragen, "Wo ist die Rose?"
12:57
We can ask, "Where is it inside,
276
777330
2000
Wir können fragen, "Wo befindet sie sich,
12:59
if we stimulate it with a picture?"
277
779330
3000
wenn wir ihn mit einem Bild stimulieren?"
13:02
Where is it inside the neocortex?
278
782330
2000
Wo ist sie innerhalb des Neocortex?
13:04
Ultimately it's got to be there if we stimulated it with it.
279
784330
4000
Schlussendlich muss sie dort sein, wenn wir ihn damit stimuliert haben.
13:08
So, the way that we can look at that
280
788330
2000
Die Art und Weise wie wir das betrachten können,
13:10
is to ignore the neurons, ignore the synapses,
281
790330
3000
ist es, die Neuronen zu ignorieren, die Synapsen zu ignorieren,
13:13
and look just at the raw electrical activity.
282
793330
2000
und nur die raue elektrische Aktivität zu betrachten.
13:15
Because that is what it's creating.
283
795330
2000
Weil das ist, was wir kreieren.
13:17
It's creating electrical patterns.
284
797330
2000
Es ist das Kreieren elektrischer Muster.
13:19
So when we did this,
285
799330
2000
Wenn wir dies machen,
13:21
we indeed, for the first time,
286
801330
2000
haben wir in der Tat, zum ersten Mal
13:23
saw these ghost-like structures:
287
803330
3000
diese Geist-ähnlichen Strukturen gesehen:
13:26
electrical objects appearing
288
806330
3000
elektrische Objekte, welche innerhalb
13:29
within the neocortical column.
289
809330
3000
der neokortikalen Kolumne erscheinen.
13:32
And it's these electrical objects
290
812330
3000
Und es sind diese elektrischen Objekte,
13:35
that are holding all the information about
291
815330
3000
die all die Informationen über die
13:38
whatever stimulated it.
292
818330
3000
entsprechenden Stimuli beinhalten.
13:41
And then when we zoomed into this,
293
821330
2000
Und wenn wir näher reinzommen,
13:43
it's like a veritable universe.
294
823330
4000
ist es wie ein wahrhaftes Universum.
13:47
So the next step
295
827330
2000
Der nächste Schritt ist es,
13:49
is just to take these brain coordinates
296
829330
4000
diese Hirn Koordinaten zu nehmen,
13:53
and to project them into perceptual space.
297
833330
4000
und sie in wahrnehmbaren Raum zu projizieren.
13:57
And if you do that,
298
837330
2000
Und wenn man das macht,
13:59
you will be able to step inside
299
839330
2000
wird es möglich sein,
14:01
the reality that is created
300
841330
2000
in eine Realität zu schreiten,
14:03
by this machine,
301
843330
2000
die von dieser Maschine,
14:05
by this piece of the brain.
302
845330
3000
diesem Stück Hirn kreiert wurde.
14:08
So, in summary,
303
848330
2000
So, zusammenfassend,
14:10
I think that the universe may have --
304
850330
2000
Ich denke, dass dieses Universum möglicherweise --
14:12
it's possible --
305
852330
2000
es ist möglich --
14:14
evolved a brain to see itself,
306
854330
3000
ein Gehirn entwickelt hat, um sich selber zu betrachten,
14:17
which may be a first step in becoming aware of itself.
307
857330
5000
was vielleicht ein erster Schritt ist, um sich selber wahrzunehmen.
14:22
There is a lot more to do to test these theories,
308
862330
2000
Es gibt noch viel zu tun, um diese Theorien zu testen,
14:24
and to test any other theories.
309
864330
3000
und andere Theorien zu testen.
14:27
But I hope that you are at least partly convinced
310
867330
3000
Aber ich hoffe, dass ihr zumindest teilweise davon überzeugt seid,
14:30
that it is not impossible to build a brain.
311
870330
3000
dass es nicht unmöglich ist, ein Gehirn zu bauen.
14:33
We can do it within 10 years,
312
873330
2000
Wir können es innert 10 Jahre erreichen,
14:35
and if we do succeed,
313
875330
2000
und wenn wir Erfolg haben,
14:37
we will send to TED, in 10 years,
314
877330
2000
werden wir in 10 Jahren,
14:39
a hologram to talk to you. Thank you.
315
879330
3000
ein Hologramm zu TED schicken, um mit euch zu reden. Danke.
14:42
(Applause)
316
882330
6000
(Applaus)
Über diese Website

Auf dieser Seite finden Sie YouTube-Videos, die zum Englischlernen nützlich sind. Sie sehen Englischlektionen, die von hochkarätigen Lehrern aus der ganzen Welt unterrichtet werden. Doppelklicken Sie auf die englischen Untertitel, die auf jeder Videoseite angezeigt werden, um das Video von dort aus abzuspielen. Die Untertitel laufen synchron mit der Videowiedergabe. Wenn Sie irgendwelche Kommentare oder Wünsche haben, kontaktieren Sie uns bitte über dieses Kontaktformular.

https://forms.gle/WvT1wiN1qDtmnspy7