A headset that reads your brainwaves | Tan Le

Tan Le: un casque qui lit vos ondes cérébrales

376,987 views

2010-07-22 ・ TED


New videos

A headset that reads your brainwaves | Tan Le

Tan Le: un casque qui lit vos ondes cérébrales

376,987 views ・ 2010-07-22

TED


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

Traducteur: Elisabeth Buffard Relecteur: Shadia Ramsahye
00:16
Up until now, our communication with machines
0
16260
2000
Jusqu'à maintenant, notre communication avec les machines
00:18
has always been limited
1
18260
2000
a toujours été limitée
00:20
to conscious and direct forms.
2
20260
2000
à des formes conscientes et directes.
00:22
Whether it's something simple
3
22260
2000
Que ce soit quelque chose de simple
00:24
like turning on the lights with a switch,
4
24260
2000
comme allumer les lumières avec un interrupteur,
00:26
or even as complex as programming robotics,
5
26260
3000
ou même aussi complexe que la programmation robotique,
00:29
we have always had to give a command to a machine,
6
29260
3000
il nous a toujours fallu donner une commande à une machine,
00:32
or even a series of commands,
7
32260
2000
ou même une série de commandes,
00:34
in order for it to do something for us.
8
34260
3000
pour qu'elle fasse quelque chose pour nous.
00:37
Communication between people, on the other hand,
9
37260
2000
Par ailleurs,la communication entre les gens,
00:39
is far more complex and a lot more interesting
10
39260
3000
est beaucoup plus complexe et beaucoup plus intéressante,
00:42
because we take into account
11
42260
2000
parce que nous prenons en compte
00:44
so much more than what is explicitly expressed.
12
44260
3000
beaucoup plus que ce qui est exprimé explicitement.
00:47
We observe facial expressions, body language,
13
47260
3000
Nous observons les expressions faciales, le langage du corps,
00:50
and we can intuit feelings and emotions
14
50260
2000
et nous pouvons deviner intuitivement des sentiments et des émotions
00:52
from our dialogue with one another.
15
52260
3000
en dialoguant avec l'autre.
00:55
This actually forms a large part
16
55260
2000
Cela constitue en fait une grande partie
00:57
of our decision-making process.
17
57260
2000
de notre processus décisionnel.
00:59
Our vision is to introduce
18
59260
2000
Notre vision est d'introduire
01:01
this whole new realm of human interaction
19
61260
3000
ce tout nouveau domaine d'interaction humaine
01:04
into human-computer interaction
20
64260
2000
dans l'interaction homme-machine,
01:06
so that computers can understand
21
66260
2000
afin que l'ordinateur puisse comprendre
01:08
not only what you direct it to do,
22
68260
2000
non seulement ce que vous lui demandez de faire,
01:10
but it can also respond
23
70260
2000
mais il peut également réagir
01:12
to your facial expressions
24
72260
2000
à vos expressions faciales
01:14
and emotional experiences.
25
74260
2000
et aux expériences émotionnelles.
01:16
And what better way to do this
26
76260
2000
Et quelle meilleure façon de le faire
01:18
than by interpreting the signals
27
78260
2000
que par l'interprétation des signaux
01:20
naturally produced by our brain,
28
80260
2000
que notre cerveau produit naturellement,
01:22
our center for control and experience.
29
82260
3000
notre centre de contrôle et d'expérience.
01:25
Well, it sounds like a pretty good idea,
30
85260
2000
Eh bien, cela semble une bonne idée,
01:27
but this task, as Bruno mentioned,
31
87260
2000
mais cette tâche, comme Bruno l'a mentionné,
01:29
isn't an easy one for two main reasons:
32
89260
3000
n'est pas facile pour deux raisons principales:
01:32
First, the detection algorithms.
33
92260
3000
Tout d'abord, les algorithmes de détection.
01:35
Our brain is made up of
34
95260
2000
Notre cerveau est composé de
01:37
billions of active neurons,
35
97260
2000
milliards de neurones actifs,
01:39
around 170,000 km
36
99260
3000
environ 170 000 km
01:42
of combined axon length.
37
102260
2000
de long en combinant les axones.
01:44
When these neurons interact,
38
104260
2000
Lorsque ces neurones interagissent,
01:46
the chemical reaction emits an electrical impulse,
39
106260
2000
la réaction chimique émet une impulsion électrique
01:48
which can be measured.
40
108260
2000
qui peut être mesurée.
01:50
The majority of our functional brain
41
110260
3000
La majorité de notre cerveau fonctionnel
01:53
is distributed over
42
113260
2000
est répartie sur
01:55
the outer surface layer of the brain,
43
115260
2000
la couche superficielle externe du cerveau.
01:57
and to increase the area that's available for mental capacity,
44
117260
3000
Et pour augmenter la superficie disponible pour la capacité mentale,
02:00
the brain surface is highly folded.
45
120260
3000
la surface du cerveau est très repliée.
02:03
Now this cortical folding
46
123260
2000
Et ce plissement cortical
02:05
presents a significant challenge
47
125260
2000
présente un défi de taille
02:07
for interpreting surface electrical impulses.
48
127260
3000
pour l'interprétation des impulsions électriques superficielles.
02:10
Each individual's cortex
49
130260
2000
Le cortex de chaque individu
02:12
is folded differently,
50
132260
2000
est replié différemment,
02:14
very much like a fingerprint.
51
134260
2000
un peu comme une empreinte digitale.
02:16
So even though a signal
52
136260
2000
Ainsi, même si un signal
02:18
may come from the same functional part of the brain,
53
138260
3000
peut provenir de la même partie fonctionnelle du cerveau,
02:21
by the time the structure has been folded,
54
141260
2000
au moment où la structure a été pliée,
02:23
its physical location
55
143260
2000
son emplacement physique
02:25
is very different between individuals,
56
145260
2000
est très différente d'un individu à l'autre,
02:27
even identical twins.
57
147260
3000
même chez de vrais jumeaux.
02:30
There is no longer any consistency
58
150260
2000
Il n'y a plus de cohérence
02:32
in the surface signals.
59
152260
2000
dans les signaux superficiels.
02:34
Our breakthrough was to create an algorithm
60
154260
2000
Notre découverte a consisté à créer un algorithme
02:36
that unfolds the cortex,
61
156260
2000
qui déplie le cortex,
02:38
so that we can map the signals
62
158260
2000
afin que nous puissions cartographier les signaux
02:40
closer to its source,
63
160260
2000
plus près de leur source,
02:42
and therefore making it capable of working across a mass population.
64
162260
3000
et donc de pouvoir travailler sur une population de masse.
02:46
The second challenge
65
166260
2000
Le deuxième défi
02:48
is the actual device for observing brainwaves.
66
168260
3000
est le périphérique lui-même pour l'observation des ondes cérébrales.
02:51
EEG measurements typically involve
67
171260
2000
Des mesures EEG impliquent généralement
02:53
a hairnet with an array of sensors,
68
173260
3000
une résille avec un réseau de capteurs,
02:56
like the one that you can see here in the photo.
69
176260
3000
comme celui que vous pouvez voir ici sur la photo.
02:59
A technician will put the electrodes
70
179260
2000
Un technicien place les électrodes
03:01
onto the scalp
71
181260
2000
sur le cuir chevelu
03:03
using a conductive gel or paste
72
183260
2000
avec un gel conducteur ou de la pâte
03:05
and usually after a procedure of preparing the scalp
73
185260
3000
et le plus souvent après une procédure de préparation du cuir chevelu
03:08
by light abrasion.
74
188260
2000
par abrasion légère.
03:10
Now this is quite time consuming
75
190260
2000
Et c'est assez chronophage,
03:12
and isn't the most comfortable process.
76
192260
2000
et n'est pas le procédé le plus confortable.
03:14
And on top of that, these systems
77
194260
2000
Et pour couronner le tout, ces systèmes
03:16
actually cost in the tens of thousands of dollars.
78
196260
3000
coûtent en fait des dizaines de milliers de dollars.
03:20
So with that, I'd like to invite onstage
79
200260
3000
Donc, avec cela, je tiens à inviter sur scène
03:23
Evan Grant, who is one of last year's speakers,
80
203260
2000
Evan Grant, qui est l'un des orateurs de l'an dernier,
03:25
who's kindly agreed
81
205260
2000
qui a gentiment accepté
03:27
to help me to demonstrate
82
207260
2000
de m'aider à faire la démonstration
03:29
what we've been able to develop.
83
209260
2000
de ce que nous avons été en mesure de développer.
03:31
(Applause)
84
211260
6000
(Applaudissements)
03:37
So the device that you see
85
217260
2000
Ainsi, le dispositif que vous voyez
03:39
is a 14-channel, high-fidelity
86
219260
2000
est un système d'acquisition encéphalographique
03:41
EEG acquisition system.
87
221260
2000
à 14-canaux, haute-fidélité.
03:43
It doesn't require any scalp preparation,
88
223260
3000
Il ne nécessite aucune préparation du cuir chevelu,
03:46
no conductive gel or paste.
89
226260
2000
pas de gel ou de pâte conductrice.
03:48
It only takes a few minutes to put on
90
228260
3000
Cela ne prend que quelques minutes à mettre
03:51
and for the signals to settle.
91
231260
2000
et pour que les signaux se réglent.
03:53
It's also wireless,
92
233260
2000
Il est également sans fil,
03:55
so it gives you the freedom to move around.
93
235260
3000
il vous donne la liberté de vous déplacer.
03:58
And compared to the tens of thousands of dollars
94
238260
3000
Et par rapport aux dizaines de milliers de dollars
04:01
for a traditional EEG system,
95
241260
3000
pour un système traditionnel EEG,
04:04
this headset only costs
96
244260
2000
ce casque ne coûte que
04:06
a few hundred dollars.
97
246260
2000
quelques centaines de dollars.
04:08
Now on to the detection algorithms.
98
248260
3000
Passons maintenant aux algorithmes de détection.
04:11
So facial expressions --
99
251260
2000
Ainsi, les expressions du visage -
04:13
as I mentioned before in emotional experiences --
100
253260
2000
comme je l'ai mentionné auparavant dans des expériences émotionnelles -
04:15
are actually designed to work out of the box
101
255260
2000
sont en fait conçues pour fonctionner immédiatement
04:17
with some sensitivity adjustments
102
257260
2000
avec quelques ajustements de sensibilité
04:19
available for personalization.
103
259260
3000
disponibles pour la personnalisation.
04:22
But with the limited time we have available,
104
262260
2000
Mais avec le temps limité dont nous disposons,
04:24
I'd like to show you the cognitive suite,
105
264260
2000
je voudrais vous montrer la suite cognitive,
04:26
which is the ability for you
106
266260
2000
qui est vous donne la possibilité
04:28
to basically move virtual objects with your mind.
107
268260
3000
de déplacer des objets virtuels essentiellement avec votre esprit.
04:32
Now, Evan is new to this system,
108
272260
2000
Maintenant, Evan débute avec ce système,
04:34
so what we have to do first
109
274260
2000
donc nous devons commencer par
04:36
is create a new profile for him.
110
276260
2000
créer un nouveau profil pour lui.
04:38
He's obviously not Joanne -- so we'll "add user."
111
278260
3000
Il n'est évidemment pas Joanne - donc nous allons "Ajouter un utilisateur."
04:41
Evan. Okay.
112
281260
2000
Evan. Très bien.
04:43
So the first thing we need to do with the cognitive suite
113
283260
3000
Donc la première chose que nous devons faire avec la suite cognitive
04:46
is to start with training
114
286260
2000
est de commencer par la formation
04:48
a neutral signal.
115
288260
2000
d'un signal neutre.
04:50
With neutral, there's nothing in particular
116
290260
2000
Avec neutre, il n'y a rien de particulier
04:52
that Evan needs to do.
117
292260
2000
qu'Evan ait à faire.
04:54
He just hangs out. He's relaxed.
118
294260
2000
Il se contente d'être là. Il est détendu.
04:56
And the idea is to establish a baseline
119
296260
2000
Et l'idée est d'établir une base de référence
04:58
or normal state for his brain,
120
298260
2000
ou l'état normal de son cerveau,
05:00
because every brain is different.
121
300260
2000
parce que chaque cerveau est différent.
05:02
It takes eight seconds to do this,
122
302260
2000
Cela prend huit secondes.
05:04
and now that that's done,
123
304260
2000
Et maintenant que c'est fait,
05:06
we can choose a movement-based action.
124
306260
2000
on peut choisir une action de mouvement.
05:08
So Evan, choose something
125
308260
2000
Donc, Evan choisissez quelque chose
05:10
that you can visualize clearly in your mind.
126
310260
2000
que vous pouvez visualiser clairement dans votre esprit.
05:12
Evan Grant: Let's do "pull."
127
312260
2000
Evan Grant: "Tirer".
05:14
Tan Le: Okay, so let's choose "pull."
128
314260
2000
Tan Le: Très bien. Donc, nous choisissons "tirer".
05:16
So the idea here now
129
316260
2000
Donc, l'idée ici maintenant
05:18
is that Evan needs to
130
318260
2000
est que Evan doit
05:20
imagine the object coming forward
131
320260
2000
imaginer l'objet qui vient vers lui
05:22
into the screen,
132
322260
2000
dans l'écran.
05:24
and there's a progress bar that will scroll across the screen
133
324260
3000
Et il y a une barre de progression qui défile à l'écran
05:27
while he's doing that.
134
327260
2000
pendant qu'il le fait.
05:29
The first time, nothing will happen,
135
329260
2000
La première fois, rien ne se passera,
05:31
because the system has no idea how he thinks about "pull."
136
331260
3000
parce que le système n'a aucune idée de comment il pense à "tirer".
05:34
But maintain that thought
137
334260
2000
Mais si on garde cette pensée
05:36
for the entire duration of the eight seconds.
138
336260
2000
sur toute la durée de huit secondes.
05:38
So: one, two, three, go.
139
338260
3000
Donc: un, deux, trois, partez.
05:49
Okay.
140
349260
2000
Okay.
05:51
So once we accept this,
141
351260
2000
Donc, si nous acceptons cela,
05:53
the cube is live.
142
353260
2000
le cube est vivant.
05:55
So let's see if Evan
143
355260
2000
Donc, nous allons voir si Evan
05:57
can actually try and imagine pulling.
144
357260
3000
peut effectivement essayer d'imaginer qu'il le tire.
06:00
Ah, good job!
145
360260
2000
Ah, bravo!
06:02
(Applause)
146
362260
3000
(Applaudissements)
06:05
That's really amazing.
147
365260
2000
C'est assez incroyable.
06:07
(Applause)
148
367260
4000
(Applaudissements)
06:11
So we have a little bit of time available,
149
371260
2000
Nous avons donc un peu de temps,
06:13
so I'm going to ask Evan
150
373260
2000
alors je vais demander à Evan
06:15
to do a really difficult task.
151
375260
2000
d'accomplir une tâche vraiment difficile.
06:17
And this one is difficult
152
377260
2000
Et elle est difficile
06:19
because it's all about being able to visualize something
153
379260
3000
car il s'agit d'être capable de visualiser quelque chose
06:22
that doesn't exist in our physical world.
154
382260
2000
qui n'existe pas dans notre monde physique.
06:24
This is "disappear."
155
384260
2000
Il s'agit de "disparaître".
06:26
So what you want to do -- at least with movement-based actions,
156
386260
2000
Donc ce que vous voulez - du moins avec des actions de mouvement,
06:28
we do that all the time, so you can visualize it.
157
388260
3000
nous le faisons tout le temps, afin que vous puissiez le visualiser.
06:31
But with "disappear," there's really no analogies --
158
391260
2000
Mais avec "disparaître", il n'y a vraiment pas d'analogie.
06:33
so Evan, what you want to do here
159
393260
2000
Donc, Evan, ce que vous voulez faire ici
06:35
is to imagine the cube slowly fading out, okay.
160
395260
3000
c'est d'imaginer le cube qui s'efface lentement, d'accord.
06:38
Same sort of drill. So: one, two, three, go.
161
398260
3000
Même genre d'exercice. Donc: un, deux, trois, partez.
06:50
Okay. Let's try that.
162
410260
3000
Très bien. Essayons cela.
06:53
Oh, my goodness. He's just too good.
163
413260
3000
Oh, mon Dieu. Il est vraiment trop bon.
06:57
Let's try that again.
164
417260
2000
Essayons encore une fois.
07:04
EG: Losing concentration.
165
424260
2000
EG: Perte de concentration.
07:06
(Laughter)
166
426260
2000
(Rires)
07:08
TL: But we can see that it actually works,
167
428260
2000
TL: Mais nous pouvons voir que cela fonctionne réellement,
07:10
even though you can only hold it
168
430260
2000
même si vous ne pouvez tenir
07:12
for a little bit of time.
169
432260
2000
pendant peu de temps.
07:14
As I said, it's a very difficult process
170
434260
3000
Comme je le disais, c'est un processus très difficile
07:17
to imagine this.
171
437260
2000
d'imaginer cela.
07:19
And the great thing about it is that
172
439260
2000
Et ce qui est génial, c'est que
07:21
we've only given the software one instance
173
441260
2000
nous avons seulement donné au logiciel un exemple
07:23
of how he thinks about "disappear."
174
443260
3000
de la façon dont il pense à "disparaître".
07:26
As there is a machine learning algorithm in this --
175
446260
3000
Comme il y a un algorithme qui apprend mécaniquement dans ce --
07:29
(Applause)
176
449260
4000
(Applaudissements)
07:33
Thank you.
177
453260
2000
Merci.
07:35
Good job. Good job.
178
455260
3000
Bravo. Bravo.
07:38
(Applause)
179
458260
2000
(Applaudissements)
07:40
Thank you, Evan, you're a wonderful, wonderful
180
460260
3000
Merci, Evan, vous êtes un merveilleux, merveilleux
07:43
example of the technology.
181
463260
3000
exemple de technologie.
07:46
So, as you can see, before,
182
466260
2000
Donc comme vous avez pu le voir avant,
07:48
there is a leveling system built into this software
183
468260
3000
il existe un système de mise à niveau intégré dans ce logiciel
07:51
so that as Evan, or any user,
184
471260
2000
afin qu'Evan, ou tout autre utilisateur,
07:53
becomes more familiar with the system,
185
473260
2000
se familiarise avec le système,
07:55
they can continue to add more and more detections,
186
475260
3000
il peut continuer à ajouter de plus en plus de détections,
07:58
so that the system begins to differentiate
187
478260
2000
afin que le système commence à distinguer
08:00
between different distinct thoughts.
188
480260
3000
entre les différentes pensées distinctes.
08:04
And once you've trained up the detections,
189
484260
2000
Et une fois que vous avez entraîné les détections,
08:06
these thoughts can be assigned or mapped
190
486260
2000
ces pensées peuvent être attribuées ou cartographiées
08:08
to any computing platform,
191
488260
2000
pour toute plate-forme informatique,
08:10
application or device.
192
490260
2000
application ou un périphérique.
08:12
So I'd like to show you a few examples,
193
492260
2000
Donc, je voudrais vous montrer quelques exemples,
08:14
because there are many possible applications
194
494260
2000
parce qu'il y a beaucoup d'applications possibles
08:16
for this new interface.
195
496260
2000
pour cette nouvelle interface.
08:19
In games and virtual worlds, for example,
196
499260
2000
Dans les jeux et les mondes virtuels, par exemple,
08:21
your facial expressions
197
501260
2000
vos expressions faciales
08:23
can naturally and intuitively be used
198
503260
2000
peuvent naturellement et intuitivement être utilisées
08:25
to control an avatar or virtual character.
199
505260
3000
pour contrôler un avatar ou un personnage virtuel.
08:29
Obviously, you can experience the fantasy of magic
200
509260
2000
Évidemment, vous pouvez découvrir le fantastique de la magie
08:31
and control the world with your mind.
201
511260
3000
et contrôler le monde avec votre esprit.
08:36
And also, colors, lighting,
202
516260
3000
Et aussi, les couleurs, l'éclairage,
08:39
sound and effects
203
519260
2000
le son et les effets,
08:41
can dynamically respond to your emotional state
204
521260
2000
peuvent répondre dynamiquement à votre état émotionnel
08:43
to heighten the experience that you're having, in real time.
205
523260
3000
pour augmenter l'expérience que vous vivez, en temps réel.
08:47
And moving on to some applications
206
527260
2000
Et on passe à certaines applications
08:49
developed by developers and researchers around the world,
207
529260
3000
mises au point par les développeurs et les chercheurs du monde entier,
08:52
with robots and simple machines, for example --
208
532260
3000
avec des robots et des machines simples, par exemple -
08:55
in this case, flying a toy helicopter
209
535260
2000
Dans ce cas, le pilotage d'un hélicoptère jouet
08:57
simply by thinking "lift" with your mind.
210
537260
3000
tout simplement en pensant "soulever" dans votre esprit.
09:00
The technology can also be applied
211
540260
2000
La technologie peut également être appliquée
09:02
to real world applications --
212
542260
2000
dans le monde réel -
09:04
in this example, a smart home.
213
544260
2000
Dans cet exemple, une maison intelligente.
09:06
You know, from the user interface of the control system
214
546260
3000
Vous savez, de l'interface utilisateur du système de contrôle
09:09
to opening curtains
215
549260
2000
à l'ouverture des rideaux
09:11
or closing curtains.
216
551260
3000
ou la fermeture des rideaux.
09:22
And of course, also to the lighting --
217
562260
3000
Et bien sûr aussi pour l'éclairage -
09:25
turning them on
218
565260
3000
allumer
09:28
or off.
219
568260
2000
ou éteindre.
09:30
And finally,
220
570260
2000
Et enfin,
09:32
to real life-changing applications,
221
572260
2000
pour des applications qui changent vraiment la vie.
09:34
such as being able to control an electric wheelchair.
222
574260
3000
comme être en mesure de contrôler un fauteuil roulant électrique.
09:37
In this example,
223
577260
2000
Dans cet exemple,
09:39
facial expressions are mapped to the movement commands.
224
579260
3000
les expressions faciales sont cartographiées par rapport à la commande de mouvement.
09:42
Man: Now blink right to go right.
225
582260
3000
Homme: Maintenant cligne à droite pour aller à droite.
09:50
Now blink left to turn back left.
226
590260
3000
Maintenant cligne à gauche pour revenir en arrière gauche.
10:02
Now smile to go straight.
227
602260
3000
Maintenant souris pour aller tout droit.
10:08
TL: We really -- Thank you.
228
608260
2000
TL: En fait, nous -- Je vous remercie.
10:10
(Applause)
229
610260
5000
(Applaudissements)
10:15
We are really only scratching the surface of what is possible today,
230
615260
3000
En fait nous n'en sommes qu'à gratter la surface de ce qui est possible aujourd'hui.
10:18
and with the community's input,
231
618260
2000
Et avec la participation de la communauté,
10:20
and also with the involvement of developers
232
620260
2000
et aussi avec la participation des développeurs
10:22
and researchers from around the world,
233
622260
3000
et des chercheurs du monde entier,
10:25
we hope that you can help us to shape
234
625260
2000
Nous espérons que vous pouvez nous aider à façonner
10:27
where the technology goes from here. Thank you so much.
235
627260
3000
les futures applications de cette technologie. Je vous remercie beaucoup.
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7