Daniel Wolpert: The real reason for brains

Daniel Wolpert : La vraie raison d'être des cerveaux

341,413 views

2011-11-03 ・ TED


New videos

Daniel Wolpert: The real reason for brains

Daniel Wolpert : La vraie raison d'être des cerveaux

341,413 views ・ 2011-11-03

TED


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

Traducteur: Amélie Gourdon Relecteur: Joel Bomane
00:15
I'm a neuroscientist.
0
15260
2000
Je suis un neuroscientifique.
00:17
And in neuroscience,
1
17260
2000
Et en neurosciences,
00:19
we have to deal with many difficult questions about the brain.
2
19260
3000
nous devons répondre à nombre de questions difficiles à propos du cerveau.
00:22
But I want to start with the easiest question
3
22260
2000
Mais je veux commencer avec la question la plus facile
00:24
and the question you really should have all asked yourselves at some point in your life,
4
24260
3000
et la question que vous auriez vraiment dû tous vous être posés à un moment de votre vie,
00:27
because it's a fundamental question
5
27260
2000
parce que c'est une question fondamentale
00:29
if we want to understand brain function.
6
29260
2000
si nous voulons comprendre la fonction du cerveau.
00:31
And that is, why do we and other animals
7
31260
2000
Et il s'agit de pourquoi nous, et d'autres animaux,
00:33
have brains?
8
33260
2000
avons des cerveaux ?
00:35
Not all species on our planet have brains,
9
35260
3000
Toutes les espèces sur la planète n'ont pas un cerveau,
00:38
so if we want to know what the brain is for,
10
38260
2000
donc si nous voulons savoir à quoi sert le cerveau,
00:40
let's think about why we evolved one.
11
40260
2000
réfléchissons à pourquoi nous avons évolué pour en avoir un.
00:42
Now you may reason that we have one
12
42260
2000
Vous pouvez raisonner que nous en avons un
00:44
to perceive the world or to think,
13
44260
2000
pour percevoir le monde ou pour penser,
00:46
and that's completely wrong.
14
46260
2000
et ceci est totalement faux.
00:48
If you think about this question for any length of time,
15
48260
3000
Si vous pensez à cette question pendant un certain temps,
00:51
it's blindingly obvious why we have a brain.
16
51260
2000
ça saute aux yeux pourquoi nous avons un cerveau.
00:53
We have a brain for one reason and one reason only,
17
53260
3000
Nous avons un cerveau pour une raison et une seule,
00:56
and that's to produce adaptable and complex movements.
18
56260
3000
et c'est dans le but de produire des mouvements adaptables et complexes.
00:59
There is no other reason to have a brain.
19
59260
2000
Il n'y a pas d'autre raison pour avoir un cerveau.
01:01
Think about it.
20
61260
2000
Pensez-y.
01:03
Movement is the only way you have
21
63260
2000
Le mouvement est la seule façon que nous avons
01:05
of affecting the world around you.
22
65260
2000
d'avoir un effet sur le monde qui nous entoure.
01:07
Now that's not quite true. There's one other way, and that's through sweating.
23
67260
3000
Maintenant, ce n'est pas tout à fait exact. Il y a un autre moyen, et c'est par la sueur.
01:10
But apart from that,
24
70260
2000
Mais à part ceci,
01:12
everything else goes through contractions of muscles.
25
72260
2000
tout le reste passe par la contraction de muscles.
01:14
So think about communication --
26
74260
2000
Pensez à la communication,
01:16
speech, gestures, writing, sign language --
27
76260
3000
le discours, les gestes, écrire, le langage des signes,
01:19
they're all mediated through contractions of your muscles.
28
79260
3000
ils sont tous faits par l'intermédiaire de contractions musculaires.
01:22
So it's really important to remember
29
82260
2000
Donc il est vraiment important de se rappeler
01:24
that sensory, memory and cognitive processes are all important,
30
84260
4000
que les processus sensoriels, mnésiques et cognitifs sont tous importants,
01:28
but they're only important
31
88260
2000
mais ils sont importants seulement
01:30
to either drive or suppress future movements.
32
90260
2000
pour soit provoquer, soit supprimer de futurs mouvements.
01:32
There can be no evolutionary advantage
33
92260
2000
Il ne peut pas y avoir d'avantage évolutionnaire
01:34
to laying down memories of childhood
34
94260
2000
à abandonner des souvenirs d'enfance
01:36
or perceiving the color of a rose
35
96260
2000
ou à percevoir la couleur d'une rose
01:38
if it doesn't affect the way you're going to move later in life.
36
98260
3000
si cela n'affecte pas la façon dont nous allons nous mouvoir plus tard dans la vie.
01:41
Now for those who don't believe this argument,
37
101260
2000
Maintenant pour ceux qui ne croient pas en cette position,
01:43
we have trees and grass on our planet without the brain,
38
103260
2000
sur notre planète nous avons les arbres et l'herbe qui n'ont pas de cerveau,
01:45
but the clinching evidence is this animal here --
39
105260
2000
mais la preuve décisive est cet animal ici,
01:47
the humble sea squirt.
40
107260
2000
l'humble tunicier.
01:49
Rudimentary animal, has a nervous system,
41
109260
3000
Un animal rudimentaire, il a un système nerveux,
01:52
swims around in the ocean in its juvenile life.
42
112260
2000
nage dans l'océan dans sa jeunesse.
01:54
And at some point of its life,
43
114260
2000
Et à un moment de sa vie,
01:56
it implants on a rock.
44
116260
2000
il s'implante sur un rocher.
01:58
And the first thing it does in implanting on that rock, which it never leaves,
45
118260
3000
Et la première chose qu'il fait en s'implantant sur ce rocher, qu'il ne quitte jamais,
02:01
is to digest its own brain and nervous system
46
121260
3000
est de digérer son propre cerveau et système nerveux
02:04
for food.
47
124260
2000
pour nourriture.
02:06
So once you don't need to move,
48
126260
2000
Donc une fois que vous n'avez plus besoin de bouger,
02:08
you don't need the luxury of that brain.
49
128260
3000
vous n'avez pas besoin du luxe qu'est ce cerveau.
02:11
And this animal is often taken
50
131260
2000
Et cet animal est souvent pris
02:13
as an analogy to what happens at universities
51
133260
2000
comme analogie de ce qui se passe dans les universités
02:15
when professors get tenure,
52
135260
2000
quand les professeurs sont titularisés,
02:17
but that's a different subject.
53
137260
2000
mais c'est un autre sujet.
02:19
(Applause)
54
139260
2000
(Applaudissements)
02:21
So I am a movement chauvinist.
55
141260
3000
Donc je suis un patriote du mouvement.
02:24
I believe movement is the most important function of the brain --
56
144260
2000
Je crois que le mouvement est la fonction la plus importante du cerveau ;
02:26
don't let anyone tell you that it's not true.
57
146260
2000
ne laissez personne vous dire que cela n'est pas vrai.
02:28
Now if movement is so important,
58
148260
2000
Maintenant si le mouvement est si important,
02:30
how well are we doing
59
150260
2000
comment nous en sortons-nous
02:32
understanding how the brain controls movement?
60
152260
2000
à comprendre comment le cerveau contrôle le mouvement ?
02:34
And the answer is we're doing extremely poorly; it's a very hard problem.
61
154260
2000
Et la réponse est très très mal ; c'est un problème très difficile.
02:36
But we can look at how well we're doing
62
156260
2000
Mais nous pouvons déterminer comment nous nous en sortons
02:38
by thinking about how well we're doing building machines
63
158260
2000
en pensant à notre aptitude à construire des machines
02:40
which can do what humans can do.
64
160260
2000
qui peuvent faire ce que les humains font.
02:42
Think about the game of chess.
65
162260
2000
Pensez au jeu des échecs.
02:44
How well are we doing determining what piece to move where?
66
164260
3000
Comment parvenons-nous à déterminer quelle pièce bouger et où ?
02:47
If you pit Garry Kasparov here, when he's not in jail,
67
167260
3000
Si vous opposez Gary Kasparov ici, quand il n'est pas en prison,
02:50
against IBM's Deep Blue,
68
170260
2000
à la machine Deep Blue d'IBM,
02:52
well the answer is IBM's Deep Blue will occasionally win.
69
172260
3000
eh bien, la réponse est que Deep Blue gagnera à l'occasion.
02:55
And I think if IBM's Deep Blue played anyone in this room, it would win every time.
70
175260
3000
Et je pense que si Deep Blue jouait contre n'importe qui dans cette pièce, il gagnerait à tous les coups.
02:58
That problem is solved.
71
178260
2000
Ce problème est résolu.
03:00
What about the problem
72
180260
2000
Qu'en est-il du problème
03:02
of picking up a chess piece,
73
182260
2000
d'attraper une pièce d'échecs,
03:04
dexterously manipulating it and putting it back down on the board?
74
184260
3000
de la manipuler avec dextérité et de la reposer sur le plateau ?
03:07
If you put a five year-old child's dexterity against the best robots of today,
75
187260
3000
Si vous opposez la dextérité d'un enfant de 5 ans contre les meilleurs robots actuels,
03:10
the answer is simple:
76
190260
2000
la réponse est simple :
03:12
the child wins easily.
77
192260
2000
l'enfant gagne facilement.
03:14
There's no competition at all.
78
194260
2000
Il n'y a pas du tout de compétition.
03:16
Now why is that top problem so easy
79
196260
2000
Maintenant pourquoi ce problème en haut est si facile
03:18
and the bottom problem so hard?
80
198260
2000
et le problème en bas si difficile ?
03:20
One reason is a very smart five year-old
81
200260
2000
Une raison est qu'un très intelligent enfant de 5 ans
03:22
could tell you the algorithm for that top problem --
82
202260
2000
pourrait vous dire l'algorithme pour ce problème en haut :
03:24
look at all possible moves to the end of the game
83
204260
2000
regarder tous les mouvements possibles jusqu'à la fin du jeu
03:26
and choose the one that makes you win.
84
206260
2000
et choisir celui qui permet de gagner.
03:28
So it's a very simple algorithm.
85
208260
2000
Donc c'est un algorithme très simple.
03:30
Now of course there are other moves,
86
210260
2000
Bien sûr il y a d'autres mouvements,
03:32
but with vast computers we approximate
87
212260
2000
mais avec de puissants ordinateurs nous effleurons
03:34
and come close to the optimal solution.
88
214260
2000
et sommes proches de la solution optimale.
03:36
When it comes to being dexterous,
89
216260
2000
Quand on en vient à être adroit,
03:38
it's not even clear what the algorithm is you have to solve to be dexterous.
90
218260
2000
ce n'est même pas clair quel algorithme vous devez résoudre pour être adroit.
03:40
And we'll see you have to both perceive and act on the world,
91
220260
2000
Et nous allons voir que vous devez à la fois percevoir et agir sur le monde,
03:42
which has a lot of problems.
92
222260
2000
ce qui pose un tas de problèmes.
03:44
But let me show you cutting-edge robotics.
93
224260
2000
Mais laissez-moi vous montrer de la robotique de pointe.
03:46
Now a lot of robotics is very impressive,
94
226260
2000
Une grande part de la robotique est très impressionnante,
03:48
but manipulation robotics is really just in the dark ages.
95
228260
3000
mais la manipulation d'objet en est vraiment juste au Moyen-Âge.
03:51
So this is the end of a Ph.D. project
96
231260
2000
C'est le produit d'un projet de thèse
03:53
from one of the best robotics institutes.
97
233260
2000
d'un des meilleurs instituts de robotique.
03:55
And the student has trained this robot
98
235260
2000
Et l'étudiant a entraîné son robot
03:57
to pour this water into a glass.
99
237260
2000
à verser de l'eau dans un verre.
03:59
It's a hard problem because the water sloshes about, but it can do it.
100
239260
3000
C'est un problème difficile parce que l'eau se répand autour, mais il peut le faire.
04:02
But it doesn't do it with anything like the agility of a human.
101
242260
3000
Mais il ne fait aucunement avec l'agilité d'un humain.
04:05
Now if you want this robot to do a different task,
102
245260
3000
Maintenant si vous voulez que ce robot fasse une autre tâche,
04:08
that's another three-year Ph.D. program.
103
248260
3000
c'est une autre de thèse de trois ans.
04:11
There is no generalization at all
104
251260
2000
Il n'y a pas du tout de généralisation
04:13
from one task to another in robotics.
105
253260
2000
d'une tâche à l'autre en robotique.
04:15
Now we can compare this
106
255260
2000
Maintenant on peut comparer cela
04:17
to cutting-edge human performance.
107
257260
2000
à la performance humaine de pointe.
04:19
So what I'm going to show you is Emily Fox
108
259260
2000
Ce que je vais vous montrer est Emily Fox
04:21
winning the world record for cup stacking.
109
261260
3000
battant le record du monde d'empilement de tasses.
04:24
Now the Americans in the audience will know all about cup stacking.
110
264260
2000
Les Américains dans le public sauront ce qu'est l'empilement de tasses.
04:26
It's a high school sport
111
266260
2000
C'est un sport de lycée
04:28
where you have 12 cups you have to stack and unstack
112
268260
2000
où vous avez 12 tasses à empiler et dés-empiler
04:30
against the clock in a prescribed order.
113
270260
2000
dans un certain ordre et contre la montre.
04:32
And this is her getting the world record in real time.
114
272260
3000
Et ici c'est elle remportant son record mondial, en temps réel.
04:39
(Laughter)
115
279260
8000
(Rires)
04:47
(Applause)
116
287260
5000
(Applaudissements)
04:52
And she's pretty happy.
117
292260
2000
Et elle est plutôt contente.
04:54
We have no idea what is going on inside her brain when she does that,
118
294260
2000
Nous n'avons aucune idée de ce qui se passe dans son cerveau quand elle fait ça,
04:56
and that's what we'd like to know.
119
296260
2000
et c'est ce que nous aimerions savoir.
04:58
So in my group, what we try to do
120
298260
2000
Donc dans mon groupe, ce que nous essayons de faire
05:00
is reverse engineer how humans control movement.
121
300260
3000
est de recréer à l'envers comment les humains contrôlent leurs mouvements.
05:03
And it sounds like an easy problem.
122
303260
2000
Et cela semble un problème aisé.
05:05
You send a command down, it causes muscles to contract.
123
305260
2000
Vous envoyez une commande vers le bas, cela amènes les muscles à se contracter.
05:07
Your arm or body moves,
124
307260
2000
Votre bras ou votre corps bouge,
05:09
and you get sensory feedback from vision, from skin, from muscles and so on.
125
309260
3000
et vous recevez un feedback sensoriel par la vision, la peau, les muscles, etc.
05:12
The trouble is
126
312260
2000
Le problème est que
05:14
these signals are not the beautiful signals you want them to be.
127
314260
2000
ces signaux ne sont pas les beaux signaux que vous voudriez qu'ils soient.
05:16
So one thing that makes controlling movement difficult
128
316260
2000
Donc une chose qui rend le contrôle des mouvements difficiles
05:18
is, for example, sensory feedback is extremely noisy.
129
318260
3000
est par exemple que le feedback sensoriel est extrêmement bruyant.
05:21
Now by noise, I do not mean sound.
130
321260
3000
Par bruit, je n'entends pas son.
05:24
We use it in the engineering and neuroscience sense
131
324260
2000
Nous l'utilisons dans son acception en ingénierie et neurosciences,
05:26
meaning a random noise corrupting a signal.
132
326260
2000
au sens d'un son aléatoire qui corrompt un signal.
05:28
So the old days before digital radio when you were tuning in your radio
133
328260
3000
Dans le temps avant la radio digitale, quand vous allumiez votre radio
05:31
and you heard "crrcckkk" on the station you wanted to hear,
134
331260
2000
et entendiez "crrcckkk" au lieu de la station que vous vouliez écouter,
05:33
that was the noise.
135
333260
2000
c'était le bruit.
05:35
But more generally, this noise is something that corrupts the signal.
136
335260
3000
Mais plus généralement, le bruit est quelque chose qui corrompt le signal.
05:38
So for example, if you put your hand under a table
137
338260
2000
Donc par exemple, si vous mettez votre main sous la table
05:40
and try to localize it with your other hand,
138
340260
2000
et essayez le la localiser avec votre autre main,
05:42
you can be off by several centimeters
139
342260
2000
vous pouvez vous tromper de plusieurs centimètres
05:44
due to the noise in sensory feedback.
140
344260
2000
à cause du bruit dans le feedback sensoriel.
05:46
Similarly, when you put motor output on movement output,
141
346260
2000
De même, quand vous superposez un résultat moteur et un résultat de mouvement,
05:48
it's extremely noisy.
142
348260
2000
c'est extrêmement bruyant.
05:50
Forget about trying to hit the bull's eye in darts,
143
350260
2000
Oubliez d'essayer d'atteindre le cœur de la cible aux fléchettes,
05:52
just aim for the same spot over and over again.
144
352260
2000
visez juste le même endroit encore et encore.
05:54
You have a huge spread due to movement variability.
145
354260
3000
Vous avez une énorme écart à cause de la variabilité du mouvement.
05:57
And more than that, the outside world, or task,
146
357260
2000
Et plus encore, le monde extérieur, ou la tâche,
05:59
is both ambiguous and variable.
147
359260
2000
sont tous deux ambigus et variables.
06:01
The teapot could be full, it could be empty.
148
361260
2000
La théière pourrait être pleine, elle pourrait être vide.
06:03
It changes over time.
149
363260
2000
Cela change avec le temps.
06:05
So we work in a whole sensory movement task soup of noise.
150
365260
4000
Donc nous travaillons dans une tâche sensorimotrice qui est une pleine soupe de bruit.
06:09
Now this noise is so great
151
369260
2000
Maintenant le bruit est si grand
06:11
that society places a huge premium
152
371260
2000
que la société place une énorme importance
06:13
on those of us who can reduce the consequences of noise.
153
373260
3000
sur ceux d'entre nous qui peuvent réduire les conséquences du bruit.
06:16
So if you're lucky enough to be able to knock a small white ball
154
376260
3000
Donc si vous êtes assez chanceux pour pouvoir envoyer une petite balle blanche
06:19
into a hole several hundred yards away using a long metal stick,
155
379260
3000
à plusieurs centaines de mètres, avec un long bâton en métal,
06:22
our society will be willing to reward you
156
382260
2000
notre société sera prête à vous récompenser
06:24
with hundreds of millions of dollars.
157
384260
3000
avec des millions de dollars.
06:27
Now what I want to convince you of
158
387260
2000
Maintenant ce dont je veux vous convaincre
06:29
is the brain also goes through a lot of effort
159
389260
2000
est que le cerveau fait aussi beaucoup d'efforts
06:31
to reduce the negative consequences
160
391260
2000
pour réduire les conséquences négatives
06:33
of this sort of noise and variability.
161
393260
2000
de ce type de bruit et de variabilité.
06:35
And to do that, I'm going to tell you about a framework
162
395260
2000
Et pour faire cela, je vais vous parler d'un cadre théorique
06:37
which is very popular in statistics and machine learning of the last 50 years
163
397260
3000
très populaire en statistiques et en apprentissage automatique depuis 50 ans,
06:40
called Bayesian decision theory.
164
400260
2000
qu'on appelle la théorie bayésienne de la décision.
06:42
And it's more recently a unifying way
165
402260
3000
Récemment c'est devenu un moyen unificateur
06:45
to think about how the brain deals with uncertainty.
166
405260
3000
de penser à la façon dont le cerveau gère l'incertitude.
06:48
And the fundamental idea is you want to make inferences and then take actions.
167
408260
3000
Et l'idée fondamentale est que vous voulez faire des inférences et agir.
06:51
So let's think about the inference.
168
411260
2000
Donc pensons aux inférences.
06:53
You want to generate beliefs about the world.
169
413260
2000
Vous voulez générer des croyances sur le monde.
06:55
So what are beliefs?
170
415260
2000
Que sont les croyances ?
06:57
Beliefs could be: where are my arms in space?
171
417260
2000
Les croyances pourraient concerner la place de mes bras dans l'espace.
06:59
Am I looking at a cat or a fox?
172
419260
2000
Si je regarde un chat ou un renard.
07:01
But we're going to represent beliefs with probabilities.
173
421260
3000
Mais nous allons représenter les croyances par des probabilités.
07:04
So we're going to represent a belief
174
424260
2000
Donc on va représenter une croyance
07:06
with a number between zero and one --
175
426260
2000
avec un nombre compris entre 0 et 1 —
07:08
zero meaning I don't believe it at all, one means I'm absolutely certain.
176
428260
3000
0 signifiant que je ne crois pas du tout, 1 signifiant que je suis absolument certain.
07:11
And numbers in between give you the gray levels of uncertainty.
177
431260
3000
Et les nombres entre deux vous donnent les niveaux gris d'incertitude.
07:14
And the key idea to Bayesian inference
178
434260
2000
Et l'idée-clé de l'inférence bayésienne
07:16
is you have two sources of information
179
436260
2000
est que vous avez deux sources d'information
07:18
from which to make your inference.
180
438260
2000
à partir de laquelle faire votre inférence.
07:20
You have data,
181
440260
2000
Vous avez les données,
07:22
and data in neuroscience is sensory input.
182
442260
2000
et en neuroscience les données sont les informations sensorielles.
07:24
So I have sensory input, which I can take in to make beliefs.
183
444260
3000
Donc vous avez les informations sensorielles, que je peux intégrer pour élaborer des croyances.
07:27
But there's another source of information, and that's effectively prior knowledge.
184
447260
3000
Mais il y a une autre source d'information, et il s'agit en réalité du savoir préalable.
07:30
You accumulate knowledge throughout your life in memories.
185
450260
3000
Vous amassez du savoir au cours de votre existence, sous forme de souvenirs.
07:33
And the point about Bayesian decision theory
186
453260
2000
Et le concept de la théorie bayésienne de la décision
07:35
is it gives you the mathematics
187
455260
2000
est qu'elle vous fournit les mathématiques
07:37
of the optimal way to combine
188
457260
2000
supportant le moyen optimal de combiner
07:39
your prior knowledge with your sensory evidence
189
459260
2000
votre savoir préalable avec vos preuves sensorielles
07:41
to generate new beliefs.
190
461260
2000
pour générer de nouvelles croyances.
07:43
And I've put the formula up there.
191
463260
2000
J'ai mis la formule ici.
07:45
I'm not going to explain what that formula is, but it's very beautiful.
192
465260
2000
Je ne vais pas vous expliquer ce qu'est la formule, mais elle est très belle.
07:47
And it has real beauty and real explanatory power.
193
467260
3000
Elle a une réelle beauté et un réel pouvoir d'explication.
07:50
And what it really says, and what you want to estimate,
194
470260
2000
Et ce qu'elle dit vraiment, ce que vous voulez estimer,
07:52
is the probability of different beliefs
195
472260
2000
c'est la probabilité des différentes croyances
07:54
given your sensory input.
196
474260
2000
étant donné les informations sensorielles que vous avez.
07:56
So let me give you an intuitive example.
197
476260
2000
Laissez-moi vous donner un exemple intuitif.
07:58
Imagine you're learning to play tennis
198
478260
3000
imaginez que vous jouez au tennis
08:01
and you want to decide where the ball is going to bounce
199
481260
2000
et vous voulez décider où la balle va rebondir
08:03
as it comes over the net towards you.
200
483260
2000
alors qu'elle passe le filet dans votre direction.
08:05
There are two sources of information
201
485260
2000
Il y a deux sources d'information
08:07
Bayes' rule tells you.
202
487260
2000
d'après la loi de Bayes.
08:09
There's sensory evidence -- you can use visual information auditory information,
203
489260
3000
Il y a les preuves sensorielles : vous pouvez utiliser les informations visuelles et auditives,
08:12
and that might tell you it's going to land in that red spot.
204
492260
3000
et elles pourraient vous indiquer qu'elle va atterir sur ce point rouge.
08:15
But you know that your senses are not perfect,
205
495260
3000
Mais vous savez que vos sens ne sont pas parfaits,
08:18
and therefore there's some variability of where it's going to land
206
498260
2000
et qu'en conséquence là où la balle va atterrir est variable,
08:20
shown by that cloud of red,
207
500260
2000
comme indiqué par ce nuage de rouge,
08:22
representing numbers between 0.5 and maybe 0.1.
208
502260
3000
qui représente les nombres entre 0.5 et peut-être 1.
08:26
That information is available in the current shot,
209
506260
2000
Cette information est fournie par le coup actuel,
08:28
but there's another source of information
210
508260
2000
mais il y a une autre source d'information
08:30
not available on the current shot,
211
510260
2000
qui n'est pas fournie par le coup actuel,
08:32
but only available by repeated experience in the game of tennis,
212
512260
3000
mais seulement par une expérience répétée du jeu de tennis,
08:35
and that's that the ball doesn't bounce
213
515260
2000
et c'est que durant le match la balle ne rebondit pas
08:37
with equal probability over the court during the match.
214
517260
2000
avec la même probabilité à travers le court.
08:39
If you're playing against a very good opponent,
215
519260
2000
Si vous jouez contre de très bons adversaires,
08:41
they may distribute it in that green area,
216
521260
2000
il se peut qu'ils envoient dans cette zone verte,
08:43
which is the prior distribution,
217
523260
2000
qui est la distribution préalable,
08:45
making it hard for you to return.
218
525260
2000
rendant difficile pour vous de renvoyer.
08:47
Now both these sources of information carry important information.
219
527260
2000
Maintenant ces deux sources d'information fournissent d'importantes données.
08:49
And what Bayes' rule says
220
529260
2000
Et ce que la loi de Bayes dit
08:51
is that I should multiply the numbers on the red by the numbers on the green
221
531260
3000
est que je devrais multiplier les nombres de la zone rouge par les nombres de la zone verte
08:54
to get the numbers of the yellow, which have the ellipses,
222
534260
3000
pour obtenir les nombres de la zone jaune, qui a les ellipses,
08:57
and that's my belief.
223
537260
2000
et qui représentent ma croyance.
08:59
So it's the optimal way of combining information.
224
539260
3000
Donc c'est le moyen optimal de combiner les informations.
09:02
Now I wouldn't tell you all this if it wasn't that a few years ago,
225
542260
2000
Maintenant je ne vous dirais pas tout ça si ce n'était qu'il y a quelques années,
09:04
we showed this is exactly what people do
226
544260
2000
nous avons montré que c'est exactement ce que les gens font
09:06
when they learn new movement skills.
227
546260
2000
quand ils acquièrent de nouvelles habiletés motrices.
09:08
And what it means
228
548260
2000
Et ce que cela signifie
09:10
is we really are Bayesian inference machines.
229
550260
2000
est que nous sommes réellement des machines à inférences bayésiennes.
09:12
As we go around, we learn about statistics of the world and lay that down,
230
552260
4000
En circulant, nous apprenons à propos des statistiques du monde et en retenons les règles,
09:16
but we also learn
231
556260
2000
mais nous apprenons aussi
09:18
about how noisy our own sensory apparatus is,
232
558260
2000
à quel point notre propre système sensoriel est bruyant,
09:20
and then combine those
233
560260
2000
et combinons alors les deux
09:22
in a real Bayesian way.
234
562260
2000
dans un mode réellement bayésien.
09:24
Now a key part to the Bayesian is this part of the formula.
235
564260
3000
Maintenant une partie-clé du concept bayésien est cette partie de la formule.
09:27
And what this part really says
236
567260
2000
Ce que cette partie dit vraiment
09:29
is I have to predict the probability
237
569260
2000
est que je dois prédire la probabilité
09:31
of different sensory feedbacks
238
571260
2000
de différents feedbacks sensoriels
09:33
given my beliefs.
239
573260
2000
étant donné mes croyances.
09:35
So that really means I have to make predictions of the future.
240
575260
3000
Donc cela signifie vraiment que je dois faire des prédictions à propos du futur.
09:38
And I want to convince you the brain does make predictions
241
578260
2000
E je veux vous convaincre que le cerveau fait ces prédictions
09:40
of the sensory feedback it's going to get.
242
580260
2000
à propos du feedback sensoriel qu'il va recevoir.
09:42
And moreover, it profoundly changes your perceptions
243
582260
2000
De plus, il change profondément vos perceptions
09:44
by what you do.
244
584260
2000
par ce que vous faites.
09:46
And to do that, I'll tell you
245
586260
2000
Et pour faire cela, je vais vous dire
09:48
about how the brain deals with sensory input.
246
588260
2000
comment le cerveau gère l'information sensorielle.
09:50
So you send a command out,
247
590260
3000
Donc vous envoyez une commande,
09:53
you get sensory feedback back,
248
593260
2000
vous recevez du feedback en retour,
09:55
and that transformation is governed
249
595260
2000
et cette transformation est gouvernée
09:57
by the physics of your body and your sensory apparatus.
250
597260
3000
par la physique de votre corps et votre système sensoriel.
10:00
But you can imagine looking inside the brain.
251
600260
2000
Mais vous pouvez imaginer regarder à l'intérieur du cerveau.
10:02
And here's inside the brain.
252
602260
2000
Voici l'intérieur du cerveau.
10:04
You might have a little predictor, a neural simulator,
253
604260
2000
Vous pourriez avoir un petit prédicteur, un simulateur neuronal,
10:06
of the physics of your body and your senses.
254
606260
2000
de la physique de votre corps et de vos sens.
10:08
So as you send a movement command down,
255
608260
2000
Donc en envoyant une commande de mouvement vers le bas,
10:10
you tap a copy of that off
256
610260
2000
vous en tapez une copie
10:12
and run it into your neural simulator
257
612260
2000
et la rentrez dans votre simulateur neuronal
10:14
to anticipate the sensory consequences of your actions.
258
614260
4000
pour anticiper les conséquences sensorielles de vos actions.
10:18
So as I shake this ketchup bottle,
259
618260
2000
Donc alors que je secoue cette bouteille de ketchup,
10:20
I get some true sensory feedback as the function of time in the bottom row.
260
620260
3000
je reçois de réels feedbacks sensoriels en fonction du temps dans la ligne du bas.
10:23
And if I've got a good predictor, it predicts the same thing.
261
623260
3000
Et si j'ai un bon simulateur, il prédit la même chose.
10:26
Well why would I bother doing that?
262
626260
2000
Bien, pourquoi je m'embêterai à faire ça ?
10:28
I'm going to get the same feedback anyway.
263
628260
2000
Je vais recevoir le même feedback de toutes les façons.
10:30
Well there's good reasons.
264
630260
2000
Eh bien, il y a de bonnes raisons.
10:32
Imagine, as I shake the ketchup bottle,
265
632260
2000
Imaginez, alors que je secoue la bouteille de ketchup,
10:34
someone very kindly comes up to me and taps it on the back for me.
266
634260
3000
quelqu'un vient très gentiment à moi et tape le dessous de la bouteille pour moi.
10:37
Now I get an extra source of sensory information
267
637260
2000
Maintenant j'ai une source supplémentaire d'information
10:39
due to that external act.
268
639260
2000
à cause de cette action externe ;
10:41
So I get two sources.
269
641260
2000
Donc j'ai deux sources.
10:43
I get you tapping on it, and I get me shaking it,
270
643260
3000
J'ai vous, qui tapez la bouteille, et moi, qui la secoue,
10:46
but from my senses' point of view,
271
646260
2000
mais du point de vue de mes sens,
10:48
that is combined together into one source of information.
272
648260
3000
c'est combiné en une seule source d'information.
10:51
Now there's good reason to believe
273
651260
2000
Maintenant il y a de bonnes raisons de croire
10:53
that you would want to be able to distinguish external events from internal events.
274
653260
3000
que vous voudriez pouvoir distinguer les évènements externes des évènements internes.
10:56
Because external events are actually much more behaviorally relevant
275
656260
3000
Parce que les évènements externes sont en réalité bien plus pertinents du point de vue comportemental
10:59
than feeling everything that's going on inside my body.
276
659260
3000
que de sentir tout ce qui se passe à l'extérieur de mon corps.
11:02
So one way to reconstruct that
277
662260
2000
Donc une façon de reconstruire cela
11:04
is to compare the prediction --
278
664260
2000
est de comparer la prédiction —
11:06
which is only based on your movement commands --
279
666260
2000
seulement basée sur les commandes motrices —
11:08
with the reality.
280
668260
2000
avec la réalité.
11:10
Any discrepancy should hopefully be external.
281
670260
3000
Toute divergence devrait être externe, espérons.
11:13
So as I go around the world,
282
673260
2000
Donc alors que je circule dans le monde,
11:15
I'm making predictions of what I should get, subtracting them off.
283
675260
3000
je fais des prédictions de ce que devrais obtenir, et je les soustrais.
11:18
Everything left over is external to me.
284
678260
2000
Tout ce qui reste est externe pour moi.
11:20
What evidence is there for this?
285
680260
2000
Quelle preuve j'ai de ça ?
11:22
Well there's one very clear example
286
682260
2000
Eh bien, il y a un exemple très clair
11:24
where a sensation generated by myself feels very different
287
684260
2000
où une sensation générée par moi-même semble très différente
11:26
then if generated by another person.
288
686260
2000
d'une générée par une autre personne.
11:28
And so we decided the most obvious place to start
289
688260
2000
Donc nous avons décidé que le plus évident point de départ
11:30
was with tickling.
290
690260
2000
était le chatouillement.
11:32
It's been known for a long time, you can't tickle yourself
291
692260
2000
Il est connu depuis longtemps que vous ne pouvez pas vous chatouiller
11:34
as well as other people can.
292
694260
2000
aussi bien que les autres le peuvent.
11:36
But it hasn't really been shown, it's because you have a neural simulator,
293
696260
3000
Mais ça n'a pas vraiment été montré, c'est parce que vous avez un simulateur neuronal
11:39
simulating your own body
294
699260
2000
qui simule votre propre corps
11:41
and subtracting off that sense.
295
701260
2000
et soustrait cette sensation.
11:43
So we can bring the experiments of the 21st century
296
703260
3000
Donc nous pouvons apporter les expériences du 21ème siècle
11:46
by applying robotic technologies to this problem.
297
706260
3000
en appliquant la technologie robotique à ce problème.
11:49
And in effect, what we have is some sort of stick in one hand attached to a robot,
298
709260
3000
Et en effet, nous avons une sorte de bâton dans une main attachée à un robot,
11:52
and they're going to move that back and forward.
299
712260
2000
et ils vont bouger ça d'avant en arrière.
11:54
And then we're going to track that with a computer
300
714260
2000
Ensuite nous allons relever cela avec un ordinateur
11:56
and use it to control another robot,
301
716260
2000
et l'utiliser pour contrôler un autre robot,
11:58
which is going to tickle their palm with another stick.
302
718260
2000
qui va chatouiller leur paume avec un autre bâton.
12:00
And then we're going to ask them to rate a bunch of things
303
720260
2000
Ensuite on va leur demander d'évaluer un tas de chose,
12:02
including ticklishness.
304
722260
2000
inclus le chatouillement.
12:04
I'll show you just one part of our study.
305
724260
2000
Je vais vous montrer juste une partie de notre étude.
12:06
And here I've taken away the robots,
306
726260
2000
Ici j'ai enlevé les robots,
12:08
but basically people move with their right arm sinusoidally back and forward.
307
728260
3000
mais en gros les gens bougent leur bras droit dans un mouvement sinusoïdal d'avant en arrière.
12:11
And we replay that to the other hand with a time delay.
308
731260
3000
Nous refaisons ça sur l'autre main avec un délai temporel.
12:14
Either no time delay,
309
734260
2000
Soit pas de délai,
12:16
in which case light would just tickle your palm,
310
736260
2000
auquel cas la lumière chatouillerait votre paume,
12:18
or with a time delay of two-tenths of three-tenths of a second.
311
738260
4000
soit avec un délai de deux ou trois dixièmes de seconde.
12:22
So the important point here
312
742260
2000
ce qui est important ici
12:24
is the right hand always does the same things -- sinusoidal movement.
313
744260
3000
est que la main droite fait toujours la même chose, un mouvement sinusoïdal.
12:27
The left hand always is the same and puts sinusoidal tickle.
314
747260
3000
La main gauche fait toujours pareille et donne des chatouillements sinusoïdaux.
12:30
All we're playing with is a tempo causality.
315
750260
2000
La seule chose que nous manipulons est la causalité rythmique.
12:32
And as we go from naught to 0.1 second,
316
752260
2000
Et en passant de 0 à 0.1 seconde,
12:34
it becomes more ticklish.
317
754260
2000
ça chatouille plus.
12:36
As you go from 0.1 to 0.2,
318
756260
2000
En passant de 0.1 à 0.2 secondes,
12:38
it becomes more ticklish at the end.
319
758260
2000
ça chatouille plus à la fin.
12:40
And by 0.2 of a second,
320
760260
2000
Et une fois à 0.2 seconde,
12:42
it's equivalently ticklish
321
762260
2000
ça chatouille autant
12:44
to the robot that just tickled you without you doing anything.
322
764260
2000
le robot qui vient de vous chatouiller, sans que vous n'ayez rien fait.
12:46
So whatever is responsible for this cancellation
323
766260
2000
Donc quoi que ce soit responsable de cette annulation
12:48
is extremely tightly coupled with tempo causality.
324
768260
3000
est extrêmement lié à la causalité rythmique.
12:51
And based on this illustration, we really convinced ourselves in the field
325
771260
3000
Et à partir de cette illustration, nous nous sommes réellement convaincus dans le champ
12:54
that the brain's making precise predictions
326
774260
2000
que le cerveau fait des prédictions précises
12:56
and subtracting them off from the sensations.
327
776260
3000
et les soustrait des sensations.
12:59
Now I have to admit, these are the worst studies my lab has ever run.
328
779260
3000
Maintenant je dois admettre, ce sont les pires études que mon laboratoire n’ait jamais faites.
13:02
Because the tickle sensation on the palm comes and goes,
329
782260
2000
Parce que la sensation de chatouillement dur la paume vient et repart,
13:04
you need large numbers of subjects
330
784260
2000
vous avez besoin d'un grand nombre de sujets
13:06
with these stars making them significant.
331
786260
2000
avec ces étoiles qui les indiquent comme significatifs.
13:08
So we were looking for a much more objective way
332
788260
2000
Donc on cherchait un moyen bien plus objectif
13:10
to assess this phenomena.
333
790260
2000
d'évaluer ce phénomène.
13:12
And in the intervening years I had two daughters.
334
792260
2000
Et pendant ces années-là, j'ai eu deux filles.
13:14
And one thing you notice about children in backseats of cars on long journeys,
335
794260
3000
Et pendant de longs voyages, vous observez que les enfants dans les sièges-auto
13:17
they get into fights --
336
797260
2000
se battent ;
13:19
which started with one of them doing something to the other, the other retaliating.
337
799260
3000
ça commence avec l'un d'eux qui fait quelque chose à l'autre, et l'autre se venge.
13:22
It quickly escalates.
338
802260
2000
Ça escalade rapidement.
13:24
And children tend to get into fights which escalate in terms of force.
339
804260
3000
Et les enfants tendent à commencer des batailles qui montent en termes de force.
13:27
Now when I screamed at my children to stop,
340
807260
2000
Quand je criais à mes enfants d'arrêter,
13:29
sometimes they would both say to me
341
809260
2000
parfois toutes deux me disaient
13:31
the other person hit them harder.
342
811260
3000
que l'autre les avait frappées plus fort.
13:34
Now I happen to know my children don't lie,
343
814260
2000
Il s'avère que je sais que mes enfants ne mentent pas,
13:36
so I thought, as a neuroscientist,
344
816260
2000
donc j'ai pensé, comme neuroscientifique,
13:38
it was important how I could explain
345
818260
2000
qu'il était important de pouvoir expliquer
13:40
how they were telling inconsistent truths.
346
820260
2000
comment elles pouvaient dire des vérités inconsistantes.
13:42
And we hypothesize based on the tickling study
347
822260
2000
Nous avons suggéré, en nous basant sur l'étude du chatouillement,
13:44
that when one child hits another,
348
824260
2000
que quand un enfant en frappe un autre,
13:46
they generate the movement command.
349
826260
2000
ils génèrent une commande de mouvement.
13:48
They predict the sensory consequences and subtract it off.
350
828260
3000
Ils prédisent les conséquences sensorielles et les soustraient.
13:51
So they actually think they've hit the person less hard than they have --
351
831260
2000
Donc ils pensent qu'ils ont en fait frappé l'autre moins fort qu'en réalité,
13:53
rather like the tickling.
352
833260
2000
assez similaire au cas du chatouillement.
13:55
Whereas the passive recipient
353
835260
2000
Alors que le récipient passif,
13:57
doesn't make the prediction, feels the full blow.
354
837260
2000
ne faisant pas de prédiction, ressent la pleine force.
13:59
So if they retaliate with the same force,
355
839260
2000
Donc s'ils répondent avec la même force,
14:01
the first person will think it's been escalated.
356
841260
2000
le première personne pensera qu'ils ont escaladé.
14:03
So we decided to test this in the lab.
357
843260
2000
Nous avons donc décidé de tester ça en laboratoire.
14:05
(Laughter)
358
845260
3000
(Rires)
14:08
Now we don't work with children, we don't work with hitting,
359
848260
2000
Maintenant on ne travaille pas les enfants, on ne travaille pas avec les coups,
14:10
but the concept is identical.
360
850260
2000
mais le concept est identique.
14:12
We bring in two adults. We tell them they're going to play a game.
361
852260
3000
On fait venir deux adultes. On leur dit qu'ils vont jouer à un jeu.
14:15
And so here's player one and player two sitting opposite to each other.
362
855260
2000
Donc voici le joueur 1 et le joueur 2 assis l'une en face de l'autre.
14:17
And the game is very simple.
363
857260
2000
Le jeu est très simple.
14:19
We started with a motor
364
859260
2000
On a commencé avec un moteur
14:21
with a little lever, a little force transfuser.
365
861260
2000
avec un petit levier, un petit diffuseur de force.
14:23
And we use this motor to apply force down to player one's fingers
366
863260
2000
Et on utilise le moteur pour appliquer la force sur le doigt du joueur 1
14:25
for three seconds and then it stops.
367
865260
3000
pendant 3 secondes, avant d'arrêter.
14:28
And that player's been told, remember the experience of that force
368
868260
3000
Et on dit au joueur de se rappeler de l'expérience de cette force
14:31
and use your other finger
369
871260
2000
et d'utiliser son autre doigt
14:33
to apply the same force
370
873260
2000
pour appliquer la même force
14:35
down to the other subject's finger through a force transfuser -- and they do that.
371
875260
3000
sur le doigt de l'autre joueur, avec un diffuseur de force — et ils le font.
14:38
And player two's been told, remember the experience of that force.
372
878260
3000
Et on dit au joueur 2 de se rappeler l'expérience de cette force,
14:41
Use your other hand to apply the force back down.
373
881260
3000
et d'utiliser son autre main pour appliquer cette force.
14:44
And so they take it in turns
374
884260
2000
Donc ils prennent des tours
14:46
to apply the force they've just experienced back and forward.
375
886260
2000
pour appliquer la force qu'ils viennent d'expérimenter.
14:48
But critically,
376
888260
2000
Mais de façon importante,
14:50
they're briefed about the rules of the game in separate rooms.
377
890260
3000
on leur explique les règles du jeu dans des pièces séparées.
14:53
So they don't know the rules the other person's playing by.
378
893260
2000
Donc ils ne savent pas quelles sont les règles que l'autre joueur applique.
14:55
And what we've measured
379
895260
2000
Ce que nous avons mesuré
14:57
is the force as a function of terms.
380
897260
2000
est la force comme une fonction de termes.
14:59
And if we look at what we start with,
381
899260
2000
Si on regarde ce avec quoi nous commençons —
15:01
a quarter of a Newton there, a number of turns,
382
901260
2000
un quart de Newton ici, un nombre de tours —
15:03
perfect would be that red line.
383
903260
2000
cette ligne rouge serait parfaite.
15:05
And what we see in all pairs of subjects is this --
384
905260
3000
Mais ce qu'on observe dans toutes les paires de sujets est ceci :
15:08
a 70 percent escalation in force
385
908260
2000
une escalade de la force de 70%
15:10
on each go.
386
910260
2000
à chaque tour.
15:12
So it really suggests, when you're doing this --
387
912260
2000
Cela suggère vraiment, quand vous faites cela —
15:14
based on this study and others we've done --
388
914260
2000
basé sur cette étude et d'autres que nous avons faites —
15:16
that the brain is canceling the sensory consequences
389
916260
2000
que le cerveau annule les conséquences sensorielles
15:18
and underestimating the force it's producing.
390
918260
2000
et sous-estime la force qu'il produit.
15:20
So it re-shows the brain makes predictions
391
920260
2000
Donc ça montre encore que le cerveau fait des prédictions
15:22
and fundamentally changes the precepts.
392
922260
3000
et change fondamentalement les préceptes.
15:25
So we've made inferences, we've done predictions,
393
925260
3000
Donc nous avons fait des inférences, nous avons fait des prédictions,
15:28
now we have to generate actions.
394
928260
2000
maintenant nous devons générer des actions.
15:30
And what Bayes' rule says is, given my beliefs,
395
930260
2000
Et la loi de Bayes dit que, en fonction de mes croyances,
15:32
the action should in some sense be optimal.
396
932260
2000
l'action devrait dans un sens être optimale.
15:34
But we've got a problem.
397
934260
2000
Mais nous avons un problème.
15:36
Tasks are symbolic -- I want to drink, I want to dance --
398
936260
3000
Les tâches sont symboliques — je veux boire, je veux danser —
15:39
but the movement system has to contract 600 muscles
399
939260
2000
mais le système moteur doit contracter 600 muscles
15:41
in a particular sequence.
400
941260
2000
dans une séquence particulière.
15:43
And there's a big gap
401
943260
2000
Et il y a un grand écart
15:45
between the task and the movement system.
402
945260
2000
entre la tâche et le système moteur.
15:47
So it could be bridged in infinitely many different ways.
403
947260
2000
Donc il pourrait être comblé de façons infiniment différentes.
15:49
So think about just a point to point movement.
404
949260
2000
Pensez juste à un mouvement d'un point à un autre.
15:51
I could choose these two paths
405
951260
2000
Je pourrais choisir ces deux chemins
15:53
out of an infinite number of paths.
406
953260
2000
parmi une quantité infinie de chemins.
15:55
Having chosen a particular path,
407
955260
2000
Après avoir choisi un chemin particulier,
15:57
I can hold my hand on that path
408
957260
2000
je peux tenir ma main sur ce chemin
15:59
as infinitely many different joint configurations.
409
959260
2000
dans une infinité de configurations articulaires.
16:01
And I can hold my arm in a particular joint configuration
410
961260
2000
Et je peux tenir mon bras dans un configuration articulaire spécifique,
16:03
either very stiff or very relaxed.
411
963260
2000
soit très raide, soit très détendu.
16:05
So I have a huge amount of choice to make.
412
965260
3000
Donc j'ai une énorme quantité de choix à faire.
16:08
Now it turns out, we are extremely stereotypical.
413
968260
3000
Maintenant il s'avère que nous sommes très stéréotypiques.
16:11
We all move the same way pretty much.
414
971260
3000
Nous bougeons tous pour ainsi dire de la même façon.
16:14
And so it turns out we're so stereotypical,
415
974260
2000
Et il s'avère que nous sommes si stéréotypiques
16:16
our brains have got dedicated neural circuitry
416
976260
2000
que nos cerveaux ont un circuit neuronal dédié
16:18
to decode this stereotyping.
417
978260
2000
au décodage de ces stéréotypes.
16:20
So if I take some dots
418
980260
2000
Donc si je prends des points
16:22
and set them in motion with biological motion,
419
982260
3000
et je les fais bouger avec un mouvement biologique,
16:25
your brain's circuitry would understand instantly what's going on.
420
985260
3000
votre circuit cérébral comprendra immédiatement ce qui se passe.
16:28
Now this is a bunch of dots moving.
421
988260
2000
Voici un tas de points qui bougent.
16:30
You will know what this person is doing,
422
990260
3000
Vous saurez ce que cette personne fait,
16:33
whether happy, sad, old, young -- a huge amount of information.
423
993260
3000
si elle est heureuse, triste, vieille, jeune — une énorme quantité d'information.
16:36
If these dots were cars going on a racing circuit,
424
996260
2000
Si ces points étaient des voitures sur un circuit automobile,
16:38
you would have absolutely no idea what's going on.
425
998260
3000
vous n'auriez absolument aucune idée de ce qui se passe.
16:41
So why is it
426
1001260
2000
Donc pourquoi est-ce que
16:43
that we move the particular ways we do?
427
1003260
2000
nous bougeons de la façon particulière qu'est la nôtre ?
16:45
Well let's think about what really happens.
428
1005260
2000
Eh bien, pensons à ce qui se passe vraiment.
16:47
Maybe we don't all quite move the same way.
429
1007260
3000
Peut-être que nous ne bougeons pas vraiment tous de la même façon.
16:50
Maybe there's variation in the population.
430
1010260
2000
Peut-être qu'il y a de la variation dans la population.
16:52
And maybe those who move better than others
431
1012260
2000
Et peut-être que ceux qui bougent mieux que les autres
16:54
have got more chance of getting their children into the next generation.
432
1014260
2000
ont plus de chances d'amener leurs enfants jusqu'à la prochaine génération.
16:56
So in evolutionary scales, movements get better.
433
1016260
3000
Donc à l'échelle de l'évolution, les mouvements s'améliorent.
16:59
And perhaps in life, movements get better through learning.
434
1019260
3000
Et peut-être que dans la vie, les mouvements s'améliorent par l'apprentissage.
17:02
So what is it about a movement which is good or bad?
435
1022260
2000
Donc qu'est-ce qui fait qu'un mouvement est bon ou mauvais ?
17:04
Imagine I want to intercept this ball.
436
1024260
2000
Imaginez que je veux intercepter cette balle.
17:06
Here are two possible paths to that ball.
437
1026260
3000
Voici deux chemins possibles pour cette balle.
17:09
Well if I choose the left-hand path,
438
1029260
2000
Si je choisis le chemin de gauche,
17:11
I can work out the forces required
439
1031260
2000
je peux calculer les forces requises
17:13
in one of my muscles as a function of time.
440
1033260
2000
dans un de mes muscles en fonction du temps.
17:15
But there's noise added to this.
441
1035260
2000
Mais il y a le bruit ajouté à cela.
17:17
So what I actually get, based on this lovely, smooth, desired force,
442
1037260
3000
Donc ce que j'ai vraiment, basé sur cette adorable, douce force voulue,
17:20
is a very noisy version.
443
1040260
2000
est une version très bruyante.
17:22
So if I pick the same command through many times,
444
1042260
3000
Donc si je choisis la même commande de nombreuses fois,
17:25
I will get a different noisy version each time, because noise changes each time.
445
1045260
3000
j'obtiendrai une version bruyante différente à chaque fois, parce que le bruit change à chaque fois.
17:28
So what I can show you here
446
1048260
2000
Ce que je peux vous montrer ici
17:30
is how the variability of the movement will evolve
447
1050260
2000
est comment la variabilité du mouvement évolue
17:32
if I choose that way.
448
1052260
2000
si je choisis ce chemin.
17:34
If I choose a different way of moving -- on the right for example --
449
1054260
3000
Si je choisis une façon différente de bouger, sur la droite par exemple,
17:37
then I'll have a different command, different noise,
450
1057260
2000
alors j'aurai une commande différente, un bruit différent,
17:39
playing through a noisy system, very complicated.
451
1059260
3000
jouant via un système bruyant, très compliqué.
17:42
All we can be sure of is the variability will be different.
452
1062260
3000
Tout ce dont nous pouvons être sûrs est que la variabilité sera différente.
17:45
If I move in this particular way,
453
1065260
2000
Si je bouge de cette façon particulière,
17:47
I end up with a smaller variability across many movements.
454
1067260
3000
je finis avec une variabilité réduite à travers de nombreux mouvements.
17:50
So if I have to choose between those two,
455
1070260
2000
Donc si je dois choisir entre les deux,
17:52
I would choose the right one because it's less variable.
456
1072260
2000
je prendrais celui de droite parce qu'il est moins variable.
17:54
And the fundamental idea
457
1074260
2000
L'idée fondamentale
17:56
is you want to plan your movements
458
1076260
2000
est que vous voulez planifier vos mouvements
17:58
so as to minimize the negative consequence of the noise.
459
1078260
3000
pour minimiser les conséquences négatives du bruit.
18:01
And one intuition to get
460
1081260
2000
Et une intuition à avoir
18:03
is actually the amount of noise or variability I show here
461
1083260
2000
est qu'en réalité la quantité de bruit ou de variabilité que je montre ici
18:05
gets bigger as the force gets bigger.
462
1085260
2000
devient plus grande quand la force devient plus grande.
18:07
So you want to avoid big forces as one principle.
463
1087260
3000
Donc vous voulez éviter les grandes forces en tant que principe.
18:10
So we've shown that using this,
464
1090260
2000
Nous avons donc montré qu'en utilisant cela,
18:12
we can explain a huge amount of data --
465
1092260
2000
on peut expliquer une énorme quantité de données,
18:14
that exactly people are going about their lives planning movements
466
1094260
3000
que les gens vivent exactement leurs vies en planifiant des mouvements
18:17
so as to minimize negative consequences of noise.
467
1097260
3000
pour minimiser les conséquences négatives du bruit.
18:20
So I hope I've convinced you the brain is there
468
1100260
2000
J'espère que je vous ai convaincus que le cerveau est là
18:22
and evolved to control movement.
469
1102260
2000
et a évolué pour contrôler le mouvement.
18:24
And it's an intellectual challenge to understand how we do that.
470
1104260
3000
C'est un défi intellectuel de comprendre comment nous faisons cela.
18:27
But it's also relevant
471
1107260
2000
Mais c'est également pertinent
18:29
for disease and rehabilitation.
472
1109260
2000
pour les maladies et la rééducation.
18:31
There are many diseases which effect movement.
473
1111260
3000
Il y a de nombreuses maladies qui touchent le mouvement.
18:34
And hopefully if we understand how we control movement,
474
1114260
2000
Et j'espère que si nous comprenons comment nous contrôlons le mouvement,
18:36
we can apply that to robotic technology.
475
1116260
2000
nous pourrons appliquer cela à la technologie robotique.
18:38
And finally, I want to remind you,
476
1118260
2000
Finalement, je voulais vous rappeler que
18:40
when you see animals do what look like very simple tasks,
477
1120260
2000
quand vous voyez des animaux faire ce qui semble de très simples tâches,
18:42
the actual complexity of what is going on inside their brain
478
1122260
2000
la complexité réelle de ce qui se passe dans leurs cerveaux
18:44
is really quite dramatic.
479
1124260
2000
est en fait assez spectaculaire.
18:46
Thank you very much.
480
1126260
2000
Merci beaucoup.
18:48
(Applause)
481
1128260
8000
(Applaudissements)
18:56
Chris Anderson: Quick question for you, Dan.
482
1136260
2000
Chris Anderson : "Rapide question pour vous, Dan.
18:58
So you're a movement -- (DW: Chauvinist.) -- chauvinist.
483
1138260
4000
Donc vous êtes un" - DW : "patriote" - patriote du mouvement.
19:02
Does that mean that you think that the other things we think our brains are about --
484
1142260
3000
Cela veut-il dire que vous pensez que les autres choses que nous pensons être des fonctions de nos cerveaux,
19:05
the dreaming, the yearning, the falling in love and all these things --
485
1145260
3000
rêver, les aspirations, tomber amoureux et toutes ces choses,
19:08
are a kind of side show, an accident?
486
1148260
3000
sont une sorte de spectacle annexe, un accident ?"
19:11
DW: No, no, actually I think they're all important
487
1151260
2000
DW : "Non, non, en fait je pense qu'elles sont toutes très importantes
19:13
to drive the right movement behavior to get reproduction in the end.
488
1153260
3000
pour orienter le bon comportement moteur pour se reproduire au final.
19:16
So I think people who study sensation or memory
489
1156260
3000
Donc je pense que les gens étudient les sensations ou la mémoire
19:19
without realizing why you're laying down memories of childhood.
490
1159260
2000
sans réaliser pourquoi nous abandonnons des souvenirs d'enfance.
19:21
The fact that we forget most of our childhood, for example,
491
1161260
3000
Le fait que nous oublions la plupart de notre enfance, par exemple,
19:24
is probably fine, because it doesn't effect our movements later in life.
492
1164260
3000
n'est probablement pas un problème, parce que cela n'affecte pas nos mouvements plus tard dans la vie.
19:27
You only need to store things which are really going to effect movement.
493
1167260
3000
Vous avez seulement besoin de stocker des choses qui vont vraiment affecter le mouvement."
19:30
CA: So you think that people thinking about the brain, and consciousness generally,
494
1170260
3000
CA : "Donc vous pensez que les gens qui réfléchissent au cerveau, et à la conscience en général,
19:33
could get real insight
495
1173260
2000
pourrait bénéficier d'un réel apport
19:35
by saying, where does movement play in this game?
496
1175260
2000
en se demandant ce que le mouvement a à voir dans ce jeu ?"
19:37
DW: So people have found out for example
497
1177260
2000
DW : "On a découvert par exemple
19:39
that studying vision in the absence of realizing why you have vision
498
1179260
2000
qu'étudier la vision sans réaliser pourquoi nous avons la vision
19:41
is a mistake.
499
1181260
2000
est une erreur.
19:43
You have to study vision with the realization
500
1183260
2000
Nous devons étudier la vision en considérant
19:45
of how the movement system is going to use vision.
501
1185260
2000
comment le système moteur va utiliser la vision.
19:47
And it uses it very differently once you think about it that way.
502
1187260
2000
Et il l'utilise très différemment une fois que vous y pensez comme cela."
19:49
CA: Well that was quite fascinating. Thank you very much indeed.
503
1189260
3000
CA :"C'était vraiment fascinant. Merci beaucoup en effet."
19:52
(Applause)
504
1192260
2000
(Applaudissements)
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7