A brain in a supercomputer | Henry Markram

Henry Markram construit un cerveau dans un superordinateur

509,526 views

2009-10-15 ・ TED


New videos

A brain in a supercomputer | Henry Markram

Henry Markram construit un cerveau dans un superordinateur

509,526 views ・ 2009-10-15

TED


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

Traducteur: Louis-Philippe Thouin Relecteur: Jerome Faul
00:18
Our mission is to build
0
18330
3000
Notre mission est de construire
00:21
a detailed, realistic
1
21330
2000
de façon détaillée et réaliste,
00:23
computer model of the human brain.
2
23330
2000
un modèle informatique du cerveau humain.
00:25
And we've done, in the past four years,
3
25330
3000
Nous avons déjà réalisé, depuis 4 ans,
00:28
a proof of concept
4
28330
2000
une démonstration de faisabilité
00:30
on a small part of the rodent brain,
5
30330
3000
sur une petite partie d'un cerveau de rongeur
00:33
and with this proof of concept we are now scaling the project up
6
33330
3000
et, avec cette démonstration de faisabilité, nous faisons une mise en échelle
00:36
to reach the human brain.
7
36330
3000
pour atteindre le cerveau humain.
00:39
Why are we doing this?
8
39330
2000
Pourquoi faisons-nous cela ?
00:41
There are three important reasons.
9
41330
2000
Il y a 3 raisons importantes.
00:43
The first is, it's essential for us to understand the human brain
10
43330
4000
La première est qu'il est essentiel pour nous de comprendre le cerveau humain
00:47
if we do want to get along in society,
11
47330
2000
si nous voulons cohabiter harmonieusement en société,
00:49
and I think that it is a key step in evolution.
12
49330
4000
et je crois qu'il s'agit d'une étape clé de l'évolution.
00:53
The second reason is,
13
53330
2000
La deuxième raison est
00:55
we cannot keep doing animal experimentation forever,
14
55330
6000
que nous ne pouvons pas continuer à expérimenter sur des animaux éternellement.
01:01
and we have to embody all our data and all our knowledge
15
61330
4000
Nous devons donc réunir toutes nos données et toute notre connaissance
01:05
into a working model.
16
65330
3000
dans un modèle fonctionnel.
01:08
It's like a Noah's Ark. It's like an archive.
17
68330
4000
C'est comme l'Arche de Noé. C'est une sorte d'archive.
01:12
And the third reason is that there are two billion people on the planet
18
72330
3000
La troisième raison, c'est qu'il y a deux milliards de personnes sur la planète
01:15
that are affected by mental disorder,
19
75330
4000
qui sont atteintes d'un trouble mental
01:19
and the drugs that are used today
20
79330
2000
et que les drogues que nous utilisons présentement
01:21
are largely empirical.
21
81330
2000
sont en grande partie empiriques.
01:23
I think that we can come up with very concrete solutions on
22
83330
3000
Je crois qu'on peut en arriver à des solutions très concrètes
01:26
how to treat disorders.
23
86330
3000
sur comment traiter ces troubles.
01:29
Now, even at this stage,
24
89330
3000
Présentement, nous pouvons déjà
01:32
we can use the brain model
25
92330
2000
utiliser le modèle du cerveau
01:34
to explore some fundamental questions
26
94330
3000
pour explorer des questions fondamentales
01:37
about how the brain works.
27
97330
2000
sur le fonctionnement du cerveau.
01:39
And here, at TED, for the first time,
28
99330
2000
Et ici, chez TED, pour la première fois,
01:41
I'd like to share with you how we're addressing
29
101330
2000
j'aimerais partager avec vous notre approche
01:43
one theory -- there are many theories --
30
103330
3000
d'une théorie -- et il y a plusieurs théories --
01:46
one theory of how the brain works.
31
106330
4000
sur comment fonctionne le cerveau.
01:50
So, this theory is that the brain
32
110330
4000
Alors, cette théorie stipule que le cerveau
01:54
creates, builds, a version of the universe,
33
114330
6000
crée, construit, une version de l'Univers.
02:00
and projects this version of the universe,
34
120330
3000
Et projette cette version de l'Univers,
02:03
like a bubble, all around us.
35
123330
4000
comme une bulle, tout autour de nous.
02:07
Now, this is of course a topic of philosophical debate for centuries.
36
127330
4000
Il s'agit évidemment d'un sujet de débat philosophique depuis des siècles.
02:11
But, for the first time, we can actually address this,
37
131330
3000
Mais, pour la première fois, nous pouvons aborder ceci
02:14
with brain simulation,
38
134330
2000
avec une simulation du cerveau
02:16
and ask very systematic and rigorous questions,
39
136330
4000
et poser des questions rigoureuses et systématiques,
02:20
whether this theory could possibly be true.
40
140330
4000
à savoir si cette théorie peut s'avérer vraie.
02:24
The reason why the moon is huge on the horizon
41
144330
3000
La raison pour laquelle la Lune apparaît immense sur l'horizon,
02:27
is simply because our perceptual bubble
42
147330
3000
c'est simplement que notre bulle perceptive
02:30
does not stretch out 380,000 kilometers.
43
150330
4000
ne s'étend pas jusqu'à 380 000 kilomètres.
02:34
It runs out of space.
44
154330
2000
Elle manque d'espace.
02:36
And so what we do is we compare the buildings
45
156330
4000
Ce que nous faisons, c'est que nous comparons les édifices
02:40
within our perceptual bubble,
46
160330
2000
situés à l'intérieur de notre bulle perceptive,
02:42
and we make a decision.
47
162330
2000
et nous prenons une décision.
02:44
We make a decision it's that big,
48
164330
2000
Nous décidons qu'elle est aussi grosse,
02:46
even though it's not that big.
49
166330
2000
même si elle n'est pas aussi grosse,
02:48
And what that illustrates
50
168330
2000
et ce que ceci illustre
02:50
is that decisions are the key things
51
170330
2000
que les décisions sont les éléments clés
02:52
that support our perceptual bubble. It keeps it alive.
52
172330
5000
qui supportent notre bulle perceptive. Ça la garde en vie.
02:57
Without decisions you cannot see, you cannot think,
53
177330
2000
Sans décisions vous ne pouvez voir, vous ne pouvez penser,
02:59
you cannot feel.
54
179330
2000
vous ne pouvez ressentir.
03:01
And you may think that anesthetics work
55
181330
2000
Et vous pouvez penser que les anesthésiques fonctionnent
03:03
by sending you into some deep sleep,
56
183330
3000
en vous plongeant dans une sorte de sommeil profond,
03:06
or by blocking your receptors so that you don't feel pain,
57
186330
3000
ou en bloquant vos récepteurs pour empêcher de sentir la douleur
03:09
but in fact most anesthetics don't work that way.
58
189330
3000
mais en fait la plupart des anesthésiques ne fonctionnent pas de cette façon.
03:12
What they do is they introduce a noise
59
192330
3000
Ce qu'ils font c'est introduire un bruit
03:15
into the brain so that the neurons cannot understand each other.
60
195330
3000
dans le cerveau, empêchant les neurones de se comprendre.
03:18
They are confused,
61
198330
2000
Ils sont déroutés
03:20
and you cannot make a decision.
62
200330
3000
et vous ne pouvez plus prendre une décision.
03:23
So, while you're trying to make up your mind
63
203330
3000
De sorte que, pendant que vous êtes en train de vous faire une idée de
03:26
what the doctor, the surgeon, is doing
64
206330
2000
ce que le médecin, le chirurgien, est en train de faire
03:28
while he's hacking away at your body, he's long gone.
65
208330
2000
alors qu'il entaille votre corps, il vagabonde ailleurs.
03:30
He's at home having tea.
66
210330
2000
Il est chez lui en train de prendre le thé.
03:32
(Laughter)
67
212330
2000
(Rires)
03:34
So, when you walk up to a door and you open it,
68
214330
3000
Ainsi, lorsque vous marchez vers une porte et que vous l'ouvrez,
03:37
what you compulsively have to do to perceive
69
217330
3000
ce que vous faites de façon irrépressible afin de percevoir,
03:40
is to make decisions,
70
220330
2000
c'est de prendre des décisions,
03:42
thousands of decisions about the size of the room,
71
222330
3000
des milliers de décisions sur les dimensions de la pièce,
03:45
the walls, the height, the objects in this room.
72
225330
3000
le mur, la hauteur, les objets dans cette pièce.
03:48
99 percent of what you see
73
228330
3000
99% de ce que vous voyez
03:51
is not what comes in through the eyes.
74
231330
4000
n'est pas ce qui traverse vos yeux.
03:55
It is what you infer about that room.
75
235330
4000
C'est ce que vous déduisez par inférence au sujet de cette pièce.
03:59
So I can say, with some certainty,
76
239330
4000
De sorte que je puis dire, avec une certaine certitude,
04:03
"I think, therefore I am."
77
243330
3000
"Je pense donc je suis."
04:06
But I cannot say, "You think, therefore you are,"
78
246330
4000
mais je ne puis pas dire "Vous pensez, donc vous êtes"
04:10
because "you" are within my perceptual bubble.
79
250330
5000
parce que vous êtes à l'intérieur de ma bulle perceptive.
04:15
Now, we can speculate and philosophize this,
80
255330
3000
Bien sûr, nous pourrions spéculer et philosopher là-dessus,
04:18
but we don't actually have to for the next hundred years.
81
258330
3000
durant les100 prochaines années, mais nous n'y sommes pas obligés.
04:21
We can ask a very concrete question.
82
261330
2000
Nous pouvons poser une question bien concrète.
04:23
"Can the brain build such a perception?"
83
263330
4000
Le cerveau peut-il construire une telle perception ?
04:27
Is it capable of doing it?
84
267330
2000
Est-il capable de faire cela ?
04:29
Does it have the substance to do it?
85
269330
2000
Possède-t-il la matière pour faire cela ?
04:31
And that's what I'm going to describe to you today.
86
271330
3000
Et c'est ce que je vais vous décrire aujourd'hui.
04:34
So, it took the universe 11 billion years to build the brain.
87
274330
4000
Ca a pris à l'univers 11 milliards d'années pour construire le cerveau.
04:38
It had to improve it a little bit.
88
278330
2000
Il a fallu l'améliorer un peu.
04:40
It had to add to the frontal part, so that you would have instincts,
89
280330
3000
Il a fallu ajouter la partie frontale, nous permettant d'avoir des instincts
04:43
because they had to cope on land.
90
283330
3000
car il fallait faire face aux situations sur la terre ferme.
04:46
But the real big step was the neocortex.
91
286330
4000
Mais la vraie grande avancée fut le néocortex.
04:50
It's a new brain. You needed it.
92
290330
2000
C'est un nouveau cerveau. Vous en aviez besoin.
04:52
The mammals needed it
93
292330
2000
Les mammifères en avaient besoin
04:54
because they had to cope with parenthood,
94
294330
4000
parce qu'ils devaient s'occuper d'être parents,
04:58
social interactions,
95
298330
2000
d'interactions sociales,
05:00
complex cognitive functions.
96
300330
3000
de fonctions cognitives complexes.
05:03
So, you can think of the neocortex
97
303330
2000
De sorte que vous pouvez penser au néocortex
05:05
actually as the ultimate solution today,
98
305330
5000
comme étant l'ultime solution aujourd'hui
05:10
of the universe as we know it.
99
310330
3000
de l'univers tel que nous le connaissons.
05:13
It's the pinnacle, it's the final product
100
313330
2000
C'est le pinacle, c'est la production finale
05:15
that the universe has produced.
101
315330
4000
que l'univers a produit.
05:19
It was so successful in evolution
102
319330
2000
Il a si bien réussi dans l'évolution
05:21
that from mouse to man it expanded
103
321330
2000
que, de la souris à l'homme, il s'est agrandi
05:23
about a thousandfold in terms of the numbers of neurons,
104
323330
3000
environ mille fois en termes de nombre de neurones,
05:26
to produce this almost frightening
105
326330
3000
pour produire ce quasiment effrayant
05:29
organ, structure.
106
329330
3000
organe, cette structure.
05:32
And it has not stopped its evolutionary path.
107
332330
3000
Il n'a pas arrêté sa trajectoire évolutive.
05:35
In fact, the neocortex in the human brain
108
335330
2000
En fait, le néocortex du cerveau humain
05:37
is evolving at an enormous speed.
109
337330
3000
évolue à une immense vitesse.
05:40
If you zoom into the surface of the neocortex,
110
340330
2000
Si vous zoomez à la surface du néocortex,
05:42
you discover that it's made up of little modules,
111
342330
3000
vous découvrez qu'il est fait de petits modules,
05:45
G5 processors, like in a computer.
112
345330
2000
des processeurs G5, comme dans un ordinateur.
05:47
But there are about a million of them.
113
347330
3000
Mais il y a environ un million de ces processeurs.
05:50
They were so successful in evolution
114
350330
2000
Ils ont eu tellement de succès dans l'évolution
05:52
that what we did was to duplicate them
115
352330
2000
que nous nous sommes mis à les dupliquer
05:54
over and over and add more and more of them to the brain
116
354330
2000
maintes et maintes fois et à en ajouter de plus en plus au cerveau
05:56
until we ran out of space in the skull.
117
356330
3000
jusqu'à ce que nous épuisions l'espace dans le crâne.
05:59
And the brain started to fold in on itself,
118
359330
2000
Le cerveau a commencé à se replier sur lui-même,
06:01
and that's why the neocortex is so highly convoluted.
119
361330
3000
et c'est pourquoi le néocortex est si hautement tarabiscoté.
06:04
We're just packing in columns,
120
364330
2000
Nous ne faisons qu'empiler des colonnes
06:06
so that we'd have more neocortical columns
121
366330
3000
de façon à avoir encore plus de colonnes néocorticales
06:09
to perform more complex functions.
122
369330
3000
afin d'exécuter des fonctions plus complexes.
06:12
So you can think of the neocortex actually as
123
372330
2000
De sorte que vous pouvez penser au néocortex comme étant
06:14
a massive grand piano,
124
374330
2000
un énorme piano à queue,
06:16
a million-key grand piano.
125
376330
3000
un piano à queue ayant un million de touches.
06:19
Each of these neocortical columns
126
379330
2000
Chacune de ces colonnes néocorticales
06:21
would produce a note.
127
381330
2000
produirait une note.
06:23
You stimulate it; it produces a symphony.
128
383330
3000
Vous le stimulez ; il produit une symphonie.
06:26
But it's not just a symphony of perception.
129
386330
3000
Mais il ne s'agit pas seulement d'une symphonie de perception.
06:29
It's a symphony of your universe, your reality.
130
389330
3000
C'est une symphonie de votre univers, c'est votre réalité.
06:32
Now, of course it takes years to learn how
131
392330
3000
Mais, bien sûr, cela prend des années pour apprendre
06:35
to master a grand piano with a million keys.
132
395330
3000
à maîtriser un piano à queue d'un million de touches.
06:38
That's why you have to send your kids to good schools,
133
398330
2000
C'est pourquoi vous devez envoyer vos enfants à de bonnes écoles,
06:40
hopefully eventually to Oxford.
134
400330
2000
espérant finalement Oxford.
06:42
But it's not only education.
135
402330
3000
Mais il ne s'agit pas seulement d'éducation.
06:45
It's also genetics.
136
405330
2000
Il y a aussi de la génétique.
06:47
You may be born lucky,
137
407330
2000
Vous pouvez être né chanceux,
06:49
where you know how to master your neocortical column,
138
409330
4000
ou vous savez comment maîtriser votre colonne néocorticale,
06:53
and you can play a fantastic symphony.
139
413330
2000
et vous savez comment jouer une symphonie fantastique.
06:55
In fact, there is a new theory of autism
140
415330
3000
En fait, il y a une nouvelle théorie de l'autisme
06:58
called the "intense world" theory,
141
418330
2000
nommée la théorie du "monde intense",
07:00
which suggests that the neocortical columns are super-columns.
142
420330
4000
qui suggère que les colonnes néocorticales sont des supercolonnes.
07:04
They are highly reactive, and they are super-plastic,
143
424330
4000
Elles sont hautement réactives, et elles sont super-plastiques,
07:08
and so the autists are probably capable of
144
428330
3000
de sorte que les autistes sont probablement capables
07:11
building and learning a symphony
145
431330
2000
de construire et d'apprendre une symphonie
07:13
which is unthinkable for us.
146
433330
2000
qui serait impensable pour nous.
07:15
But you can also understand
147
435330
2000
Vous pouvez aussi comprendre
07:17
that if you have a disease
148
437330
2000
que si vous avez une maladie
07:19
within one of these columns,
149
439330
2000
à l'intérieur d'une de ces colonnes,
07:21
the note is going to be off.
150
441330
2000
que la note sonnera faux.
07:23
The perception, the symphony that you create
151
443330
2000
La perception, la symphonie que vous créez
07:25
is going to be corrupted,
152
445330
2000
sera donc corrompue
07:27
and you will have symptoms of disease.
153
447330
3000
et vous manifesterez des symptômes de maladies.
07:30
So, the Holy Grail for neuroscience
154
450330
4000
Ainsi, le Saint-Graal de la neuroscience
07:34
is really to understand the design of the neocoritical column --
155
454330
4000
est vraiment de comprendre le design de la colonne néocorticale --
07:38
and it's not just for neuroscience;
156
458330
2000
et ce n'est pas seulement pour les neurosciences ;
07:40
it's perhaps to understand perception, to understand reality,
157
460330
3000
c'est peut-être pour comprendre la perception, pour comprendre la réalité,
07:43
and perhaps to even also understand physical reality.
158
463330
4000
et peut-être même aussi pour comprendre la réalité physique.
07:47
So, what we did was, for the past 15 years,
159
467330
3000
Bref, ce que nous avons fait, durant les dernières 15 années,
07:50
was to dissect out the neocortex, systematically.
160
470330
4000
fut de disséquer le néocortex, systématiquement.
07:54
It's a bit like going and cataloging a piece of the rainforest.
161
474330
4000
C'est un peu comme si on allait cataloguer une partie de la forêt tropicale.
07:58
How many trees does it have?
162
478330
2000
Combien d'arbres y a-t-il ?
08:00
What shapes are the trees?
163
480330
2000
Quelles formes ont ces arbres ?
08:02
How many of each type of tree do you have? Where are they positioned?
164
482330
3000
Combien de chaque type d'arbres avons-nous ? Où sont-ils situés ?
08:05
But it's a bit more than cataloging because you actually have to
165
485330
2000
C'est un peu plus qu'un simple catalogage car vous devez en réalité
08:07
describe and discover all the rules of communication,
166
487330
4000
décrire et découvrir toutes les règles de communication,
08:11
the rules of connectivity,
167
491330
2000
les règles de connectivité,
08:13
because the neurons don't just like to connect with any neuron.
168
493330
3000
car les neurones n'aiment pas simplement s'interconnecter avec tout neurone.
08:16
They choose very carefully who they connect with.
169
496330
3000
Ils choisissent soigneusement avec lesquels ils se connectent.
08:19
It's also more than cataloging
170
499330
3000
C'est aussi plus qu'un catalogage
08:22
because you actually have to build three-dimensional
171
502330
2000
parce que vous devez en fait construire en trois dimensions
08:24
digital models of them.
172
504330
2000
des modèles numériques de neurones.
08:26
And we did that for tens of thousands of neurons,
173
506330
2000
Nous avons fait cela pour des dizaines de milliers de neurones,
08:28
built digital models of all the different types
174
508330
3000
bâtissant des modèles numériques de chaque différent type
08:31
of neurons we came across.
175
511330
2000
de neurone que nous avons rencontrés.
08:33
And once you have that, you can actually
176
513330
2000
Et une fois que vous avez fait cela, vous pouvez vraiment
08:35
begin to build the neocortical column.
177
515330
4000
entreprendre la construction de la colonne néocorticale.
08:39
And here we're coiling them up.
178
519330
3000
Et ici nous sommes en train de les assembler.
08:42
But as you do this, what you see
179
522330
3000
Ce faisant, ce que nous voyons,
08:45
is that the branches intersect
180
525330
2000
c'est que les branches sont intersectées
08:47
actually in millions of locations,
181
527330
3000
en fait à des millions d'emplacements,
08:50
and at each of these intersections
182
530330
3000
et qu'à chacune de ces intersections
08:53
they can form a synapse.
183
533330
2000
elles peuvent former une synapse.
08:55
And a synapse is a chemical location
184
535330
2000
Une synapse est un emplacement chimique
08:57
where they communicate with each other.
185
537330
3000
où ils communiquent entre eux.
09:00
And these synapses together
186
540330
2000
Et, ensemble, ces synapses
09:02
form the network
187
542330
2000
forment le réseau
09:04
or the circuit of the brain.
188
544330
3000
ou le circuit du cerveau.
09:07
Now, the circuit, you could also think of as
189
547330
4000
Le circuit, vous pouvez ausi le voir comme
09:11
the fabric of the brain.
190
551330
2000
le tissu du cerveau.
09:13
And when you think of the fabric of the brain,
191
553330
3000
Lorsque vous pensez au tissu du cerveau,
09:16
the structure, how is it built? What is the pattern of the carpet?
192
556330
4000
la structure, comment est-elle faite ? Quel est le patron du tapis ?
09:20
You realize that this poses
193
560330
2000
Vous réalisez que ceci pose
09:22
a fundamental challenge to any theory of the brain,
194
562330
4000
un défi fondamental à toute théorie du cerveau
09:26
and especially to a theory that says
195
566330
2000
et en particulier à une théorie affirmant
09:28
that there is some reality that emerges
196
568330
2000
qu'il y a une sorte de réalité qui émerge
09:30
out of this carpet, out of this particular carpet
197
570330
3000
de ce tapis, de ce tapis particulier
09:33
with a particular pattern.
198
573330
2000
avec son patron particulier.
09:35
The reason is because the most important design secret of the brain
199
575330
3000
La raison est que le plus important secret de design du cerveau
09:38
is diversity.
200
578330
2000
est sa diversité.
09:40
Every neuron is different.
201
580330
2000
Chaque neurone est différent.
09:42
It's the same in the forest. Every pine tree is different.
202
582330
2000
C'est la même chose dans la forêt. Chaque pin est différent.
09:44
You may have many different types of trees,
203
584330
2000
Vous pouvez avoir plusieurs différents types d'arbres
09:46
but every pine tree is different. And in the brain it's the same.
204
586330
3000
mais chaque pin est différent. Et dans le cerveau ,c'est pareil.
09:49
So there is no neuron in my brain that is the same as another,
205
589330
3000
Il n'y a donc aucun neurone dans mon cerveau qui soit identique à un autre,
09:52
and there is no neuron in my brain that is the same as in yours.
206
592330
3000
et il n'y a aucun neurone dans mon cerveau identique à un dans le vôtre.
09:55
And your neurons are not going to be oriented and positioned
207
595330
3000
Vos neurones ne seront pas orientés et positionnés
09:58
in exactly the same way.
208
598330
2000
exactement de la même manière.
10:00
And you may have more or less neurons.
209
600330
2000
Vous aurez peut-être plus ou moins de neurones.
10:02
So it's very unlikely
210
602330
2000
Il est donc très improbable
10:04
that you got the same fabric, the same circuitry.
211
604330
4000
que vous ayez le même tissu, le même circuit.
10:08
So, how could we possibly create a reality
212
608330
2000
Alors, comment pouvons-nous possiblement créer une réalité
10:10
that we can even understand each other?
213
610330
3000
nous permettant de nous comprendre l'un l'autre ?
10:13
Well, we don't have to speculate.
214
613330
2000
Eh bien, nul besoin de spéculer.
10:15
We can look at all 10 million synapses now.
215
615330
3000
Nous pouvons maintenant observer nos 10 millions de synapses.
10:18
We can look at the fabric. And we can change neurons.
216
618330
3000
Nous pouvons observer le tissu et nous pouvons changer les neurones.
10:21
We can use different neurons with different variations.
217
621330
2000
Nous pouvons utiliser différents neurones avec différentes variations.
10:23
We can position them in different places,
218
623330
2000
Nous pouvons les positionner à différents emplacements,
10:25
orient them in different places.
219
625330
2000
les orienter en différents emplacements.
10:27
We can use less or more of them.
220
627330
2000
Nous pouvons en utiliser plus ou moins.
10:29
And when we do that
221
629330
2000
Lorsque nous faisons cela,
10:31
what we discovered is that the circuitry does change.
222
631330
3000
ce que nous découvrons, c'est que le circuit change.
10:34
But the pattern of how the circuitry is designed does not.
223
634330
7000
Mais que le patron du design du circuit ne change pas.
10:41
So, the fabric of the brain,
224
641330
2000
De sorte que, le tissu du cerveau,
10:43
even though your brain may be smaller, bigger,
225
643330
2000
quoique votre cerveau peut être plus petit, plus grand,
10:45
it may have different types of neurons,
226
645330
3000
il peut avoir différents types de neurones,
10:48
different morphologies of neurons,
227
648330
2000
différentes morphologies de neurones.
10:50
we actually do share
228
650330
3000
Nous partageons en effet
10:53
the same fabric.
229
653330
2000
le même tissu.
10:55
And we think this is species-specific,
230
655330
2000
Et nous croyons que ceci est spécifique à chaque espèce,
10:57
which means that that could explain
231
657330
2000
ce qui expliquerait pourquoi
10:59
why we can't communicate across species.
232
659330
2000
nous ne pouvons communiquer d'une espèce à une autre.
11:01
So, let's switch it on. But to do it, what you have to do
233
661330
3000
Donc, mettons cela en marche. Mais pour l'allumer, vous devez
11:04
is you have to make this come alive.
234
664330
2000
donner la vie à tout cela.
11:06
We make it come alive
235
666330
2000
Nous rendons tout cela vivant
11:08
with equations, a lot of mathematics.
236
668330
2000
avec des équations, beaucoup de mathématiques.
11:10
And, in fact, the equations that make neurons into electrical generators
237
670330
4000
En fait, les équations transformant les neurones en générateurs électriques
11:14
were discovered by two Cambridge Nobel Laureates.
238
674330
3000
furent découvertes par deux prix Nobel de Cambridge.
11:17
So, we have the mathematics to make neurons come alive.
239
677330
3000
Nous avons donc les mathématiques pour donner vie aux neurones.
11:20
We also have the mathematics to describe
240
680330
2000
Nous avons aussi les mathématiques décrivant
11:22
how neurons collect information,
241
682330
3000
comment les neurones recueillent l'information
11:25
and how they create a little lightning bolt
242
685330
3000
et comment ils créent un petit éclair
11:28
to communicate with each other.
243
688330
2000
pour communiquer entre eux.
11:30
And when they get to the synapse,
244
690330
2000
Lorsqu'ils arrivent à la synapse,
11:32
what they do is they effectively,
245
692330
2000
ce qu'ils font est d'effectivement,
11:34
literally, shock the synapse.
246
694330
3000
littéralement, commotionner la synapse.
11:37
It's like electrical shock
247
697330
2000
C'est comme un choc électrique
11:39
that releases the chemicals from these synapses.
248
699330
3000
qui libère les produits chimiques de ces synapses.
11:42
And we've got the mathematics to describe this process.
249
702330
3000
Nous avons les mathématiques pour décrire ce processus.
11:45
So we can describe the communication between the neurons.
250
705330
4000
Nous pouvons ainsi décrire la communication entre ces neurones.
11:49
There literally are only a handful
251
709330
3000
Avec seulement une poignée d'équations,
11:52
of equations that you need to simulate
252
712330
2000
vous pouvez simuler
11:54
the activity of the neocortex.
253
714330
2000
l'activité du néocortex.
11:56
But what you do need is a very big computer.
254
716330
3000
Mais vous avez surtout besoin d'un très gros ordinateur.
11:59
And in fact you need one laptop
255
719330
2000
En fait, vous avez besoin d'un ordinateur portable
12:01
to do all the calculations just for one neuron.
256
721330
3000
pour effectuer tous les calculs de seulement un neurone.
12:04
So you need 10,000 laptops.
257
724330
2000
Vous avez donc besoin de 10 000 ordinateurs portables.
12:06
So where do you go? You go to IBM,
258
726330
2000
Où aller ? Vous allez chez IBM,
12:08
and you get a supercomputer, because they know how to take
259
728330
2000
et vous prenez un superordinateur car ils savent comment concentrer
12:10
10,000 laptops and put it into the size of a refrigerator.
260
730330
4000
10 000 ordinateurs portables dans les dimensions d'un réfrigérateur.
12:14
So now we have this Blue Gene supercomputer.
261
734330
3000
Nous avons donc maintenant ce superordinateur "Blue Gene".
12:17
We can load up all the neurons,
262
737330
2000
Nous pouvons charger tous les neurones,
12:19
each one on to its processor,
263
739330
2000
chacun sur son propre processeur,
12:21
and fire it up, and see what happens.
264
741330
4000
et allumer le tout, et observer ce qui arrive.
12:25
Take the magic carpet for a ride.
265
745330
3000
Embarquez sur le tapis volant pour une promenade !
12:28
Here we activate it. And this gives the first glimpse
266
748330
3000
Ici, nous l'avons activé. Et voici le premier coup d'oeil
12:31
of what is happening in your brain
267
751330
2000
de ce qui se passe dans votre cerveau
12:33
when there is a stimulation.
268
753330
2000
lorsqu'il y a une stimulation.
12:35
It's the first view.
269
755330
2000
C'est une première vue.
12:37
Now, when you look at that the first time, you think,
270
757330
2000
Lorsque vous regardez ça la première fois, vous pensez,
12:39
"My god. How is reality coming out of that?"
271
759330
5000
"Mon Dieu. Comment la réalité peut-elle sortir de ça ?"
12:44
But, in fact, you can start,
272
764330
3000
Mais, en fait, vous pouvez commencer,
12:47
even though we haven't trained this neocortical column
273
767330
4000
même si nous n'avons pas entraîné cette colonne néocorticale
12:51
to create a specific reality.
274
771330
2000
à créer une réalité spécifique.
12:53
But we can ask, "Where is the rose?"
275
773330
4000
Mais on peut demander "Où est la rose ?"
12:57
We can ask, "Where is it inside,
276
777330
2000
On peut demander "Où est-elle à l'intérieur,
12:59
if we stimulate it with a picture?"
277
779330
3000
si on le stimule avec une image ?"
13:02
Where is it inside the neocortex?
278
782330
2000
Où est-elle à l'intérieur du néocortex ?
13:04
Ultimately it's got to be there if we stimulated it with it.
279
784330
4000
Finalement, elle doit être là si on le stimule avec l'image.
13:08
So, the way that we can look at that
280
788330
2000
Ainsi, la manière qu'on peut considérer cela
13:10
is to ignore the neurons, ignore the synapses,
281
790330
3000
consiste à ignorer les neurones, ignorer les synapses,
13:13
and look just at the raw electrical activity.
282
793330
2000
et observer seulement l'activité électrique brute.
13:15
Because that is what it's creating.
283
795330
2000
Parce que c'est ce qu'il est en train de créer.
13:17
It's creating electrical patterns.
284
797330
2000
Il est en train de créer des patrons électriques.
13:19
So when we did this,
285
799330
2000
Donc lorsqu'on a fait cela,
13:21
we indeed, for the first time,
286
801330
2000
nous avons vraiment, pour la première fois,
13:23
saw these ghost-like structures:
287
803330
3000
vu ces structures évanescentes :
13:26
electrical objects appearing
288
806330
3000
des objets électriques apparaissant
13:29
within the neocortical column.
289
809330
3000
à l'intérieur de la colonne néocorticale.
13:32
And it's these electrical objects
290
812330
3000
Ce sont ces objets électriques
13:35
that are holding all the information about
291
815330
3000
qui détiennent toute l'information au sujet
13:38
whatever stimulated it.
292
818330
3000
la chose qui l'a stimulé - quelle qu'elle soit.
13:41
And then when we zoomed into this,
293
821330
2000
Et en faisant le zoom sur ceci,
13:43
it's like a veritable universe.
294
823330
4000
c'est comme un véritable univers.
13:47
So the next step
295
827330
2000
Alors, la prochaine étape,
13:49
is just to take these brain coordinates
296
829330
4000
c'est de prendre ces coordonnées du cerveau
13:53
and to project them into perceptual space.
297
833330
4000
et de les projeter dans l'espace perceptuel.
13:57
And if you do that,
298
837330
2000
Et si vous faites cela,
13:59
you will be able to step inside
299
839330
2000
vous pourrez pénétrer à l'intérieur
14:01
the reality that is created
300
841330
2000
de la réalité qui est créée
14:03
by this machine,
301
843330
2000
par cette machine,
14:05
by this piece of the brain.
302
845330
3000
par cette partie du cerveau.
14:08
So, in summary,
303
848330
2000
En résumé,
14:10
I think that the universe may have --
304
850330
2000
je crois que l'univers pourrait avoir évolué
14:12
it's possible --
305
852330
2000
-- c'est possible --
14:14
evolved a brain to see itself,
306
854330
3000
en un cerveau pouvant se voir lui-même,
14:17
which may be a first step in becoming aware of itself.
307
857330
5000
ce qui pourrait être le premier pas vers une prise de conscience de lui-même.
14:22
There is a lot more to do to test these theories,
308
862330
2000
Il y a encore beaucoup à faire pour tester ces théories,
14:24
and to test any other theories.
309
864330
3000
et pour tester plusieurs autres théories.
14:27
But I hope that you are at least partly convinced
310
867330
3000
Mais j'espère que vous êtes au moins en partie convaincus
14:30
that it is not impossible to build a brain.
311
870330
3000
qu'il n'est pas impossible de construire un cerveau.
14:33
We can do it within 10 years,
312
873330
2000
Nous pouvons le faire dans moins de 10 ans,
14:35
and if we do succeed,
313
875330
2000
et si nous réussissons à le faire,
14:37
we will send to TED, in 10 years,
314
877330
2000
nous enverrons à TED, dans 10 ans,
14:39
a hologram to talk to you. Thank you.
315
879330
3000
un hologramme pour vous parler. Merci.
14:42
(Applause)
316
882330
6000
(Applaudissements)
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7