A headset that reads your brainwaves | Tan Le

Tan Le: Una diadema que lee nuestras ondas cerebrales

377,164 views

2010-07-22 ・ TED


New videos

A headset that reads your brainwaves | Tan Le

Tan Le: Una diadema que lee nuestras ondas cerebrales

377,164 views ・ 2010-07-22

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Laura Monzon-Storey Revisor: Ricardo Aranguren
00:16
Up until now, our communication with machines
0
16260
2000
Hasta ahora, la comunicación con las máquinas
00:18
has always been limited
1
18260
2000
ha estado limitada
00:20
to conscious and direct forms.
2
20260
2000
a formas conscientes y directas.
00:22
Whether it's something simple
3
22260
2000
Ya sea algo simple
00:24
like turning on the lights with a switch,
4
24260
2000
como un interruptor de luz
00:26
or even as complex as programming robotics,
5
26260
3000
o complejos como la programación robótica.
00:29
we have always had to give a command to a machine,
6
29260
3000
Siempre hemos tenido que ingresar comandos
00:32
or even a series of commands,
7
32260
2000
mediante uno o varios pasos
00:34
in order for it to do something for us.
8
34260
3000
para que una computadora ejecutara alguna tarea.
00:37
Communication between people, on the other hand,
9
37260
2000
Por otro lado, la comunicación humana
00:39
is far more complex and a lot more interesting
10
39260
3000
es mucho más compleja y más interesante
00:42
because we take into account
11
42260
2000
porque tiene en cuenta
00:44
so much more than what is explicitly expressed.
12
44260
3000
mucho más de lo expresado explícitamente.
00:47
We observe facial expressions, body language,
13
47260
3000
Mediante las expresiones y el lenguaje del cuerpo
00:50
and we can intuit feelings and emotions
14
50260
2000
podemos intuir emociones
00:52
from our dialogue with one another.
15
52260
3000
que son parte de nuestro diálogo.
00:55
This actually forms a large part
16
55260
2000
Esto juega un importante rol
00:57
of our decision-making process.
17
57260
2000
en nuestra manera de tomar decisiones.
00:59
Our vision is to introduce
18
59260
2000
Hoy nuestro objetivo es introducir
01:01
this whole new realm of human interaction
19
61260
3000
este nuevo campo de interacción humana
01:04
into human-computer interaction
20
64260
2000
en la interacción entre el hombre y las computadoras
01:06
so that computers can understand
21
66260
2000
para que éstas puedan comprender
01:08
not only what you direct it to do,
22
68260
2000
no sólo los comandos que les ordenamos
01:10
but it can also respond
23
70260
2000
sino que también puedan responder
01:12
to your facial expressions
24
72260
2000
a nuestras expresiones faciales
01:14
and emotional experiences.
25
74260
2000
y nuestras emociones.
01:16
And what better way to do this
26
76260
2000
Y ¿qué mejor manera de lograr esto
01:18
than by interpreting the signals
27
78260
2000
que mediante la interpretación de señales
01:20
naturally produced by our brain,
28
80260
2000
emitidas naturalmente por el cerebro?
01:22
our center for control and experience.
29
82260
3000
Que es nuestro centro de control.
01:25
Well, it sounds like a pretty good idea,
30
85260
2000
Bien, parece una buena idea
01:27
but this task, as Bruno mentioned,
31
87260
2000
pero, como bien dijo Bruno,
01:29
isn't an easy one for two main reasons:
32
89260
3000
no es tarea fácil, por dos razones principales:
01:32
First, the detection algorithms.
33
92260
3000
primero, los algoritmos de detección.
01:35
Our brain is made up of
34
95260
2000
El cerebro esta conformado
01:37
billions of active neurons,
35
97260
2000
por miles de millones de neuronas activas
01:39
around 170,000 km
36
99260
3000
cuyos axones, combinados,
01:42
of combined axon length.
37
102260
2000
alcanzan una longitud de 170.000 km.
01:44
When these neurons interact,
38
104260
2000
Cuando las neuronas interactúan
01:46
the chemical reaction emits an electrical impulse,
39
106260
2000
la reacción química emite un impulso eléctrico
01:48
which can be measured.
40
108260
2000
el cual puede medirse.
01:50
The majority of our functional brain
41
110260
3000
La mayor parte de nuestro cerebro funcional
01:53
is distributed over
42
113260
2000
se encuentra distribuido
01:55
the outer surface layer of the brain,
43
115260
2000
en la capa externa del cerebro.
01:57
and to increase the area that's available for mental capacity,
44
117260
3000
Y para lograr mayor superficie con capacidad mental
02:00
the brain surface is highly folded.
45
120260
3000
la superficie cerebral está densamente plegada.
02:03
Now this cortical folding
46
123260
2000
Bien, los pliegues de esta corteza
02:05
presents a significant challenge
47
125260
2000
presentan un desafío no menor
02:07
for interpreting surface electrical impulses.
48
127260
3000
para interpretar impulsos eléctricos superficiales.
02:10
Each individual's cortex
49
130260
2000
La corteza de cada individuo
02:12
is folded differently,
50
132260
2000
está plegada de manera diferente,
02:14
very much like a fingerprint.
51
134260
2000
a la manera de huellas digitales.
02:16
So even though a signal
52
136260
2000
Por eso, si bien una señal
02:18
may come from the same functional part of the brain,
53
138260
3000
puede provenir de la misma parte funcional del cerebro,
02:21
by the time the structure has been folded,
54
141260
2000
la particular estructura de los pliegues
02:23
its physical location
55
143260
2000
hace que la posición física de esta señal
02:25
is very different between individuals,
56
145260
2000
varíe de individuo a individuo
02:27
even identical twins.
57
147260
3000
incluso entre hermanos gemelos.
02:30
There is no longer any consistency
58
150260
2000
Ya no existe coherencia
02:32
in the surface signals.
59
152260
2000
en la señales superficiales.
02:34
Our breakthrough was to create an algorithm
60
154260
2000
Nuestro descubrimiento fue la creación de un algoritmo
02:36
that unfolds the cortex,
61
156260
2000
que despliega la corteza
02:38
so that we can map the signals
62
158260
2000
de tal manera que las señales pueden localizarse
02:40
closer to its source,
63
160260
2000
cerca de su origen
02:42
and therefore making it capable of working across a mass population.
64
162260
3000
para poder aplicarse a la población en general.
02:46
The second challenge
65
166260
2000
El segundo desafío
02:48
is the actual device for observing brainwaves.
66
168260
3000
reside en el dispositivo para observar ondas cerebrales.
02:51
EEG measurements typically involve
67
171260
2000
La electroencefalografía requiere
02:53
a hairnet with an array of sensors,
68
173260
3000
de una red de sensores alrededor de la cabeza
02:56
like the one that you can see here in the photo.
69
176260
3000
como la que se ve en esta foto.
02:59
A technician will put the electrodes
70
179260
2000
Un técnico coloca los electrodos
03:01
onto the scalp
71
181260
2000
sobre el cuero cabelludo
03:03
using a conductive gel or paste
72
183260
2000
mediante un gel conductor o pasta
03:05
and usually after a procedure of preparing the scalp
73
185260
3000
habiendo antes preparado el cuero cabelludo
03:08
by light abrasion.
74
188260
2000
con abrasivos suaves.
03:10
Now this is quite time consuming
75
190260
2000
Pero esto lleva bastante tiempo
03:12
and isn't the most comfortable process.
76
192260
2000
y no es un método muy agradable.
03:14
And on top of that, these systems
77
194260
2000
Y, además, estos sistemas
03:16
actually cost in the tens of thousands of dollars.
78
196260
3000
cuestan decenas de miles de dólares.
03:20
So with that, I'd like to invite onstage
79
200260
3000
Por eso, quiero invitar a la tarima
03:23
Evan Grant, who is one of last year's speakers,
80
203260
2000
a Evan Grant, quien fuera conferencista el año pasado,
03:25
who's kindly agreed
81
205260
2000
y que muy amablemente ha aceptado
03:27
to help me to demonstrate
82
207260
2000
ayudarme a demostrar
03:29
what we've been able to develop.
83
209260
2000
ésto que desarrollamos.
03:31
(Applause)
84
211260
6000
(Aplauso)
03:37
So the device that you see
85
217260
2000
Este disposivo
03:39
is a 14-channel, high-fidelity
86
219260
2000
es un aparato de electroencefalografía
03:41
EEG acquisition system.
87
221260
2000
de 14 canales y alta fidelidad.
03:43
It doesn't require any scalp preparation,
88
223260
3000
No requiere de preparación del cuero cabelludo
03:46
no conductive gel or paste.
89
226260
2000
ni geles ni pastas.
03:48
It only takes a few minutes to put on
90
228260
3000
Se coloca en unos pocos minutos
03:51
and for the signals to settle.
91
231260
2000
y se espera a que aparezcan las señales.
03:53
It's also wireless,
92
233260
2000
También es inalámbrico
03:55
so it gives you the freedom to move around.
93
235260
3000
por lo que permite que nos movamos.
03:58
And compared to the tens of thousands of dollars
94
238260
3000
Y en comparación con las decenas de miles de dólares
04:01
for a traditional EEG system,
95
241260
3000
de los sistemas de electroencefalografía tradicionales
04:04
this headset only costs
96
244260
2000
este casco sólo cuesta
04:06
a few hundred dollars.
97
246260
2000
unos pocos cientos de dólares.
04:08
Now on to the detection algorithms.
98
248260
3000
Ahora, los algoritmos de detección.
04:11
So facial expressions --
99
251260
2000
Las expresiones faciales,
04:13
as I mentioned before in emotional experiences --
100
253260
2000
como lo mencioné antes mediante emociones,
04:15
are actually designed to work out of the box
101
255260
2000
están diseñadas para funcionar fuera de la caja
04:17
with some sensitivity adjustments
102
257260
2000
con algunos ajustes sensoriales
04:19
available for personalization.
103
259260
3000
disponibles para personalización.
04:22
But with the limited time we have available,
104
262260
2000
Pero como no tenemos mucho tiempo
04:24
I'd like to show you the cognitive suite,
105
264260
2000
les quiero mostrar el conjunto cognitivo
04:26
which is the ability for you
106
266260
2000
que es, básicamente,
04:28
to basically move virtual objects with your mind.
107
268260
3000
la capacidad de mover objetos virtuales con la mente.
04:32
Now, Evan is new to this system,
108
272260
2000
Bien, esta es la primera vez para Evan,
04:34
so what we have to do first
109
274260
2000
así que lo primero que tenemos que hacer
04:36
is create a new profile for him.
110
276260
2000
es crear un nuevo perfil para él.
04:38
He's obviously not Joanne -- so we'll "add user."
111
278260
3000
Obviamente no es Joanne, por lo que selecciono "agregar usuario".
04:41
Evan. Okay.
112
281260
2000
Evan. Bien.
04:43
So the first thing we need to do with the cognitive suite
113
283260
3000
Así que lo primero que tenemos que hacer con el conjunto cognitivo
04:46
is to start with training
114
286260
2000
es ejercitar
04:48
a neutral signal.
115
288260
2000
una señal neutral.
04:50
With neutral, there's nothing in particular
116
290260
2000
De esta manera, no hay nada en particular
04:52
that Evan needs to do.
117
292260
2000
que Evan tenga que hacer.
04:54
He just hangs out. He's relaxed.
118
294260
2000
Sólo relajarse.
04:56
And the idea is to establish a baseline
119
296260
2000
Y la idea es establecer un punto de partida
04:58
or normal state for his brain,
120
298260
2000
o estado normal de su cerebro,
05:00
because every brain is different.
121
300260
2000
porque cada cerebro es diferente.
05:02
It takes eight seconds to do this,
122
302260
2000
Esto lleva ocho segundos.
05:04
and now that that's done,
123
304260
2000
Ya está listo,
05:06
we can choose a movement-based action.
124
306260
2000
podemos seleccionar una acción, un movimiento.
05:08
So Evan, choose something
125
308260
2000
Evan, debes elegir algo
05:10
that you can visualize clearly in your mind.
126
310260
2000
que puedas visualizar claramente en tu mente.
05:12
Evan Grant: Let's do "pull."
127
312260
2000
Evan Grant: de acuerdo, "atraer".
05:14
Tan Le: Okay, so let's choose "pull."
128
314260
2000
Tan Le: Bien. Elijo entonces "atraer".
05:16
So the idea here now
129
316260
2000
Así que la idea aquí
05:18
is that Evan needs to
130
318260
2000
es que Evan debe imaginar
05:20
imagine the object coming forward
131
320260
2000
que el objeto se mueve hacia nosotros
05:22
into the screen,
132
322260
2000
dentro de la pantalla.
05:24
and there's a progress bar that will scroll across the screen
133
324260
3000
Una barra en la pantalla indica el progreso
05:27
while he's doing that.
134
327260
2000
mientras él se concentra.
05:29
The first time, nothing will happen,
135
329260
2000
La primera vez, nada va a suceder,
05:31
because the system has no idea how he thinks about "pull."
136
331260
3000
porque el sistema no tiene idea de como él imagina "atraer".
05:34
But maintain that thought
137
334260
2000
Pero intenta mantener esa idea
05:36
for the entire duration of the eight seconds.
138
336260
2000
durante los ocho segundos.
05:38
So: one, two, three, go.
139
338260
3000
Uno, dos, tres, cuatro, vamos.
05:49
Okay.
140
349260
2000
Bien.
05:51
So once we accept this,
141
351260
2000
Al seleccionar "aceptar"
05:53
the cube is live.
142
353260
2000
el cubo se mueve.
05:55
So let's see if Evan
143
355260
2000
Veamos si Evan
05:57
can actually try and imagine pulling.
144
357260
3000
puede imaginar "atraer".
06:00
Ah, good job!
145
360260
2000
Ah, ¡muy bien!
06:02
(Applause)
146
362260
3000
(Aplauso)
06:05
That's really amazing.
147
365260
2000
¡Sorprendente!
06:07
(Applause)
148
367260
4000
(Aplauso)
06:11
So we have a little bit of time available,
149
371260
2000
Aún tenemos un poquito de tiempo
06:13
so I'm going to ask Evan
150
373260
2000
así que le voy a pedir a Evan
06:15
to do a really difficult task.
151
375260
2000
que realice una tarea realmente complicada.
06:17
And this one is difficult
152
377260
2000
Y digo complicada
06:19
because it's all about being able to visualize something
153
379260
3000
porque se trata de visualizar algo
06:22
that doesn't exist in our physical world.
154
382260
2000
que no existe en el mundo físico.
06:24
This is "disappear."
155
384260
2000
Esto es "desaparecer".
06:26
So what you want to do -- at least with movement-based actions,
156
386260
2000
Las acciones de movimiento
06:28
we do that all the time, so you can visualize it.
157
388260
3000
son muy comunes, y es fácil visualizarlas.
06:31
But with "disappear," there's really no analogies --
158
391260
2000
Pero para "desaparecer" no existen analogías.
06:33
so Evan, what you want to do here
159
393260
2000
Así que, Evan, lo que tienes que hacer
06:35
is to imagine the cube slowly fading out, okay.
160
395260
3000
es imaginar el cubo esfumándose lentamente.
06:38
Same sort of drill. So: one, two, three, go.
161
398260
3000
Tal cual como antes. Uno, dos, tres, vamos.
06:50
Okay. Let's try that.
162
410260
3000
Bien, intentemos eso.
06:53
Oh, my goodness. He's just too good.
163
413260
3000
¡Oh, cielos! ¡Qué bien lo hace!
06:57
Let's try that again.
164
417260
2000
Intentemos otra vez.
07:04
EG: Losing concentration.
165
424260
2000
EG: Estoy perdiendo la concentración.
07:06
(Laughter)
166
426260
2000
(Risas)
07:08
TL: But we can see that it actually works,
167
428260
2000
TL: Pero vemos que funciona
07:10
even though you can only hold it
168
430260
2000
aunque sólo puedas mantenerlo
07:12
for a little bit of time.
169
432260
2000
por un tiempo corto.
07:14
As I said, it's a very difficult process
170
434260
3000
Como decía, imaginar ésto
07:17
to imagine this.
171
437260
2000
es un proceso complicado.
07:19
And the great thing about it is that
172
439260
2000
Y lo grandioso de esto es que
07:21
we've only given the software one instance
173
441260
2000
sólo le indicamos al sistema una única vez
07:23
of how he thinks about "disappear."
174
443260
3000
cómo Evan piensa en "desaparecer".
07:26
As there is a machine learning algorithm in this --
175
446260
3000
Ya que la máquina tiene un algoritmo de aprendizaje...---
07:29
(Applause)
176
449260
4000
(Aplauso)
07:33
Thank you.
177
453260
2000
Muchas gracias.
07:35
Good job. Good job.
178
455260
3000
Muy bien, buen trabajo.
07:38
(Applause)
179
458260
2000
(Aplauso)
07:40
Thank you, Evan, you're a wonderful, wonderful
180
460260
3000
Muchas gracias, Evan,
07:43
example of the technology.
181
463260
3000
eres un maravilloso ejemplo de la tecnología.
07:46
So, as you can see, before,
182
466260
2000
Así que como pueden ver
07:48
there is a leveling system built into this software
183
468260
3000
hay un progreso por niveles incorporado a este software
07:51
so that as Evan, or any user,
184
471260
2000
por lo que mientras Evan, u otro usuario,
07:53
becomes more familiar with the system,
185
473260
2000
se familiariza con el sistema,
07:55
they can continue to add more and more detections,
186
475260
3000
puede agregar más y más detecciones
07:58
so that the system begins to differentiate
187
478260
2000
que permiten al sistema diferenciar
08:00
between different distinct thoughts.
188
480260
3000
entre distintos pensamientos.
08:04
And once you've trained up the detections,
189
484260
2000
Y una vez que se han entrenado las detecciones
08:06
these thoughts can be assigned or mapped
190
486260
2000
estos pensamientos pueden ser asignados o
08:08
to any computing platform,
191
488260
2000
a cualquier sistema operativo,
08:10
application or device.
192
490260
2000
aplicación o dispositivo.
08:12
So I'd like to show you a few examples,
193
492260
2000
Así que quisiera mostarles algunos ejemplos
08:14
because there are many possible applications
194
494260
2000
de las muchas aplicaciones
08:16
for this new interface.
195
496260
2000
para esta nueva interfaz.
08:19
In games and virtual worlds, for example,
196
499260
2000
En juegos y el mundo virtual, por ejemplo,
08:21
your facial expressions
197
501260
2000
nuestras expresiones faciales
08:23
can naturally and intuitively be used
198
503260
2000
pueden ser utilizadas intuitivamente
08:25
to control an avatar or virtual character.
199
505260
3000
para controlar un avatar o personaje virtual.
08:29
Obviously, you can experience the fantasy of magic
200
509260
2000
Podemos experimentar la fantasía de la magia
08:31
and control the world with your mind.
201
511260
3000
y controlar el mundo con nuestra mente.
08:36
And also, colors, lighting,
202
516260
3000
Y también los colores, las luces,
08:39
sound and effects
203
519260
2000
los sonidos y efectos
08:41
can dynamically respond to your emotional state
204
521260
2000
pueden responder a nuestras emociones de manera dinámica
08:43
to heighten the experience that you're having, in real time.
205
523260
3000
para resaltar nuestras experiencias en tiempo real.
08:47
And moving on to some applications
206
527260
2000
Quiero mostrarles algunas aplicaciones
08:49
developed by developers and researchers around the world,
207
529260
3000
desarrolladas por ingenieros en todo el mundo,
08:52
with robots and simple machines, for example --
208
532260
3000
con robots y máquinas simples
08:55
in this case, flying a toy helicopter
209
535260
2000
como que un helicóptero de juguete pueda volar
08:57
simply by thinking "lift" with your mind.
210
537260
3000
con sólo pensar en "elevación".
09:00
The technology can also be applied
211
540260
2000
Pero esta tecnología también puede aplicarse
09:02
to real world applications --
212
542260
2000
a escenarios de la vida real.
09:04
in this example, a smart home.
213
544260
2000
En este ejemplo, una casa inteligente.
09:06
You know, from the user interface of the control system
214
546260
3000
Desde de
09:09
to opening curtains
215
549260
2000
para correr cortinas
09:11
or closing curtains.
216
551260
3000
y luego cerrarlas.
09:22
And of course, also to the lighting --
217
562260
3000
Y, por supuesto, para la iluminación:
09:25
turning them on
218
565260
3000
encender las luces
09:28
or off.
219
568260
2000
o apagarlas.
09:30
And finally,
220
570260
2000
Y finalmente,
09:32
to real life-changing applications,
221
572260
2000
aplicaciones para calidad de vida
09:34
such as being able to control an electric wheelchair.
222
574260
3000
como controlar una silla de ruedas.
09:37
In this example,
223
577260
2000
En este ejemplo
09:39
facial expressions are mapped to the movement commands.
224
579260
3000
las expresiones faciales controlan los movimientos.
09:42
Man: Now blink right to go right.
225
582260
3000
Voz: Guiña el ojo derecho para girar a la derecha.
09:50
Now blink left to turn back left.
226
590260
3000
Ahora el izquierdo para girar a la izquierda.
10:02
Now smile to go straight.
227
602260
3000
Ahora sonríe para avanzar.
10:08
TL: We really -- Thank you.
228
608260
2000
TL: Estamos... muchas gracias.
10:10
(Applause)
229
610260
5000
(Aplauso)
10:15
We are really only scratching the surface of what is possible today,
230
615260
3000
Estamos apenas comenzando a explorar las posibilidades.
10:18
and with the community's input,
231
618260
2000
Y con la contribución de la sociedad
10:20
and also with the involvement of developers
232
620260
2000
y el aporte de los ingenieros
10:22
and researchers from around the world,
233
622260
3000
e investigadores de todo el mundo
10:25
we hope that you can help us to shape
234
625260
2000
esperamos poder darle forma
10:27
where the technology goes from here. Thank you so much.
235
627260
3000
al nuevo rumbo de la tecnología. Muchas gracias.
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7