A headset that reads your brainwaves | Tan Le

376,987 views ・ 2010-07-22

TED


Por favor, faça duplo clique nas legendas em inglês abaixo para reproduzir o vídeo.

Tradutor: Henrique Carvalho Revisora: Sofia Nunes
00:16
Up until now, our communication with machines
0
16260
2000
Até agora, a nossa comunicação com máquinas
00:18
has always been limited
1
18260
2000
tem sido sempre limitada
00:20
to conscious and direct forms.
2
20260
2000
a formas conscientes e directas.
00:22
Whether it's something simple
3
22260
2000
Quer seja algo simples
00:24
like turning on the lights with a switch,
4
24260
2000
como ligar as luzes com um botão
00:26
or even as complex as programming robotics,
5
26260
3000
ou algo complexo como programar robôs,
00:29
we have always had to give a command to a machine,
6
29260
3000
tivemos de dar sempre um comando a uma máquina,
00:32
or even a series of commands,
7
32260
2000
ou até uma série de comandos,
00:34
in order for it to do something for us.
8
34260
3000
de forma a que ela fizesse algo para nós.
00:37
Communication between people, on the other hand,
9
37260
2000
A comunicação entre pessoas, por outro lado,
00:39
is far more complex and a lot more interesting
10
39260
3000
é muito mais complexa e também muito mais interessante,
00:42
because we take into account
11
42260
2000
porque temos em conta
00:44
so much more than what is explicitly expressed.
12
44260
3000
muito mais do que aquilo que é explicitamente expresso.
00:47
We observe facial expressions, body language,
13
47260
3000
Observamos expressões faciais, linguagem corporal,
00:50
and we can intuit feelings and emotions
14
50260
2000
e podemos intuir sentimentos e emoções
00:52
from our dialogue with one another.
15
52260
3000
do nosso diálogo com outra pessoa.
00:55
This actually forms a large part
16
55260
2000
Isto constitui, de facto, uma grande parte
00:57
of our decision-making process.
17
57260
2000
do nosso processo de tomada de decisão.
00:59
Our vision is to introduce
18
59260
2000
A nossa visão é introduzir
01:01
this whole new realm of human interaction
19
61260
3000
toda esta nova esfera de interação
01:04
into human-computer interaction
20
64260
2000
na interação humano-computador,
01:06
so that computers can understand
21
66260
2000
para que os computadores possam compreender
01:08
not only what you direct it to do,
22
68260
2000
não apenas o que lhes ordenamos,
01:10
but it can also respond
23
70260
2000
mas que possam também responder
01:12
to your facial expressions
24
72260
2000
às vossas expressões faciais
01:14
and emotional experiences.
25
74260
2000
e experiências emocionais.
01:16
And what better way to do this
26
76260
2000
E que melhor maneira de o fazer
01:18
than by interpreting the signals
27
78260
2000
que interpretar os sinais
01:20
naturally produced by our brain,
28
80260
2000
produzidos naturalmente nos nossos cérebros,
01:22
our center for control and experience.
29
82260
3000
o nosso centro de controlo e experiência.
01:25
Well, it sounds like a pretty good idea,
30
85260
2000
Bem, parece uma bela ideia,
01:27
but this task, as Bruno mentioned,
31
87260
2000
mas esta tarefa, como o Bruno mencionou,
01:29
isn't an easy one for two main reasons:
32
89260
3000
não é fácil por duas razões principais:
01:32
First, the detection algorithms.
33
92260
3000
Primeiro, os algoritmos de detecção.
01:35
Our brain is made up of
34
95260
2000
O nosso cérebro é constituído por
01:37
billions of active neurons,
35
97260
2000
milhares de milhões de neurónios,
01:39
around 170,000 km
36
99260
3000
cerca de 170 000 Km
01:42
of combined axon length.
37
102260
2000
de comprimento combinado de axónios.
01:44
When these neurons interact,
38
104260
2000
Quando estes neurónios interagem,
01:46
the chemical reaction emits an electrical impulse,
39
106260
2000
uma reacção química emite um pulso eléctrico
01:48
which can be measured.
40
108260
2000
que pode ser medido.
01:50
The majority of our functional brain
41
110260
3000
A maior parte do nosso cérebro funcional
01:53
is distributed over
42
113260
2000
está distribuído pela
01:55
the outer surface layer of the brain,
43
115260
2000
superfície da camada exterior do cérebro.
01:57
and to increase the area that's available for mental capacity,
44
117260
3000
E para aumentar a área disponível para a capacidade mental,
02:00
the brain surface is highly folded.
45
120260
3000
a superfície cerebral está altamente dobrada.
02:03
Now this cortical folding
46
123260
2000
Estas dobras corticais
02:05
presents a significant challenge
47
125260
2000
apresentam-se como um desafio significativo
02:07
for interpreting surface electrical impulses.
48
127260
3000
para interpretar os impulsos eléctricos da superfície.
02:10
Each individual's cortex
49
130260
2000
Cada cortéx individual
02:12
is folded differently,
50
132260
2000
está dobrado de maneira diferente,
02:14
very much like a fingerprint.
51
134260
2000
muito como uma impressão digital.
02:16
So even though a signal
52
136260
2000
Portanto, mesmo que um sinal
02:18
may come from the same functional part of the brain,
53
138260
3000
possa vir da mesma parte funcional do cerébro,
02:21
by the time the structure has been folded,
54
141260
2000
na altura desta ser dobrada,
02:23
its physical location
55
143260
2000
a sua localização física
02:25
is very different between individuals,
56
145260
2000
é bastante diferente entre indivíduos,
02:27
even identical twins.
57
147260
3000
até mesmo em gémeos verdadeiros.
02:30
There is no longer any consistency
58
150260
2000
Não há qualquer consistência
02:32
in the surface signals.
59
152260
2000
nos sinais de superfície.
02:34
Our breakthrough was to create an algorithm
60
154260
2000
A nossa descoberta consistiu em criar um algoritmo
02:36
that unfolds the cortex,
61
156260
2000
que desdobra o cortéx,
02:38
so that we can map the signals
62
158260
2000
para que possamos mapear os sinais
02:40
closer to its source,
63
160260
2000
mais perto da sua superfície,
02:42
and therefore making it capable of working across a mass population.
64
162260
3000
e portanto possibilitá-lo de trabalhar através de uma população em massa.
02:46
The second challenge
65
166260
2000
O segundo desafio
02:48
is the actual device for observing brainwaves.
66
168260
3000
é o próprio dispositivo para observar as ondas cerebrais.
02:51
EEG measurements typically involve
67
171260
2000
As medições de EEG (Eletroencefalografia) envolvem tipicamente
02:53
a hairnet with an array of sensors,
68
173260
3000
uma rede com uma série de sensores
02:56
like the one that you can see here in the photo.
69
176260
3000
como a que podem ver aqui na foto.
02:59
A technician will put the electrodes
70
179260
2000
Um técnico coloca os eléctrodos
03:01
onto the scalp
71
181260
2000
no couro cabeludo
03:03
using a conductive gel or paste
72
183260
2000
usando um gel condutor ou uma pasta
03:05
and usually after a procedure of preparing the scalp
73
185260
3000
e tipicamente após o procedimento de preparação do couro cabeludo
03:08
by light abrasion.
74
188260
2000
por abrasão suave.
03:10
Now this is quite time consuming
75
190260
2000
Ora, isto é muito moroso
03:12
and isn't the most comfortable process.
76
192260
2000
e não é o processo mais confortável.
03:14
And on top of that, these systems
77
194260
2000
E ainda por cima, estes sistemas
03:16
actually cost in the tens of thousands of dollars.
78
196260
3000
custam actualmente dezenas de milhares de dólares.
03:20
So with that, I'd like to invite onstage
79
200260
3000
E com isso, gostaria de convidar ao palco
03:23
Evan Grant, who is one of last year's speakers,
80
203260
2000
Evan Grant, que é um dos oradores do último ano,
03:25
who's kindly agreed
81
205260
2000
que gentilmente concordou
03:27
to help me to demonstrate
82
207260
2000
em ajudar-me a demonstrar
03:29
what we've been able to develop.
83
209260
2000
o que temos vindo a desenvolver.
03:31
(Applause)
84
211260
6000
(Aplausos)
03:37
So the device that you see
85
217260
2000
O dispositivo que vêem
03:39
is a 14-channel, high-fidelity
86
219260
2000
é um sistema de 14 canais, alta fidelidade
03:41
EEG acquisition system.
87
221260
2000
de aquisição de EEG.
03:43
It doesn't require any scalp preparation,
88
223260
3000
Não requer qualquer preparação do couro cabeludo,
03:46
no conductive gel or paste.
89
226260
2000
nenhum gel condutor ou pasta.
03:48
It only takes a few minutes to put on
90
228260
3000
Apenas leva alguns minutos para o colocar
03:51
and for the signals to settle.
91
231260
2000
e para os sinais estabilizarem.
03:53
It's also wireless,
92
233260
2000
Também é wireless,
03:55
so it gives you the freedom to move around.
93
235260
3000
dando a liberdade de movimentação.
03:58
And compared to the tens of thousands of dollars
94
238260
3000
E comparado às dezenas de milhares de dólares
04:01
for a traditional EEG system,
95
241260
3000
de um sistema EEG tradicional,
04:04
this headset only costs
96
244260
2000
este headset custa apenas
04:06
a few hundred dollars.
97
246260
2000
umas centenas de dólares.
04:08
Now on to the detection algorithms.
98
248260
3000
Agora em relação aos algoritmos de detecção.
04:11
So facial expressions --
99
251260
2000
Portanto, as expressões faciais --
04:13
as I mentioned before in emotional experiences --
100
253260
2000
como mencionei antes nas experiências emocionais --
04:15
are actually designed to work out of the box
101
255260
2000
estão, de facto, concebidos para funcionar fora da caixa
04:17
with some sensitivity adjustments
102
257260
2000
com alguns ajustes de sensibilidade
04:19
available for personalization.
103
259260
3000
e disponíveis para personalização.
04:22
But with the limited time we have available,
104
262260
2000
Mas com o tempo limitado que temos disponível,
04:24
I'd like to show you the cognitive suite,
105
264260
2000
Gostaria de vos mostrar a suite cognitiva,
04:26
which is the ability for you
106
266260
2000
que é a habilidade de vocês
04:28
to basically move virtual objects with your mind.
107
268260
3000
basicamente moverem objectos virtuais na vossa mente.
04:32
Now, Evan is new to this system,
108
272260
2000
O Evan é novo para este sistema,
04:34
so what we have to do first
109
274260
2000
portanto o que temos de fazer primeiro
04:36
is create a new profile for him.
110
276260
2000
é criar um novo perfil para ele.
04:38
He's obviously not Joanne -- so we'll "add user."
111
278260
3000
Ele não é obviamente a Joanne -- portanto vamos "adicionar utilizador."
04:41
Evan. Okay.
112
281260
2000
Evan. OK.
04:43
So the first thing we need to do with the cognitive suite
113
283260
3000
Portanto, a primeira coisa que precisamos de fazer com a suite cognitiva
04:46
is to start with training
114
286260
2000
é começar com o treino
04:48
a neutral signal.
115
288260
2000
um sinal neutro.
04:50
With neutral, there's nothing in particular
116
290260
2000
Com o neutro, não há nada em particular
04:52
that Evan needs to do.
117
292260
2000
que o Evan necessite de fazer.
04:54
He just hangs out. He's relaxed.
118
294260
2000
Ele apenas descontrai. Está relaxado.
04:56
And the idea is to establish a baseline
119
296260
2000
E a ideia é estabelecer uma linha de base
04:58
or normal state for his brain,
120
298260
2000
ou estado normal para o seu cérebro,
05:00
because every brain is different.
121
300260
2000
porque cada cérebro é diferente.
05:02
It takes eight seconds to do this,
122
302260
2000
Leva cerca de oito segundos para o fazer.
05:04
and now that that's done,
123
304260
2000
E agora que está feito,
05:06
we can choose a movement-based action.
124
306260
2000
podemos escolher uma acção baseada em movimento.
05:08
So Evan, choose something
125
308260
2000
Então Evan escolhe algo
05:10
that you can visualize clearly in your mind.
126
310260
2000
que possas visualizar claramente na tua mente.
05:12
Evan Grant: Let's do "pull."
127
312260
2000
Even Grant: Vamos fazer "puxar".
05:14
Tan Le: Okay, so let's choose "pull."
128
314260
2000
Tan Le: OK. Vamos então escolher "puxar".
05:16
So the idea here now
129
316260
2000
Portanto a ideia aqui é que
05:18
is that Evan needs to
130
318260
2000
o Evan precisa de
05:20
imagine the object coming forward
131
320260
2000
imaginar o objecto a vir para a frente
05:22
into the screen,
132
322260
2000
no ecrã.
05:24
and there's a progress bar that will scroll across the screen
133
324260
3000
E há uma barra de progresso que vai rolar pelo ecrã
05:27
while he's doing that.
134
327260
2000
enquanto ele o faz.
05:29
The first time, nothing will happen,
135
329260
2000
A primeira vez, não vai acontecer nada,
05:31
because the system has no idea how he thinks about "pull."
136
331260
3000
porque o sistema não faz ideia como é que ele pensa acerca sobre "puxar".
05:34
But maintain that thought
137
334260
2000
Mas mantém esse pensamento
05:36
for the entire duration of the eight seconds.
138
336260
2000
durante todo o tempo dos oito segundos.
05:38
So: one, two, three, go.
139
338260
3000
Agora: um, dois, três, vai.
05:49
Okay.
140
349260
2000
OK.
05:51
So once we accept this,
141
351260
2000
Portanto, uma vez que aceitamos isto,
05:53
the cube is live.
142
353260
2000
o cubo está vivo.
05:55
So let's see if Evan
143
355260
2000
Vamos então ver se o Evan
05:57
can actually try and imagine pulling.
144
357260
3000
consegue de facto tentar imaginar puxar.
06:00
Ah, good job!
145
360260
2000
Ah, bom trabalho!
06:02
(Applause)
146
362260
3000
(Aplausos)
06:05
That's really amazing.
147
365260
2000
Isto é fantástico.
06:07
(Applause)
148
367260
4000
(Aplausos)
06:11
So we have a little bit of time available,
149
371260
2000
Portanto, temos algum tempo disponível,
06:13
so I'm going to ask Evan
150
373260
2000
então vou pedir ao Evan
06:15
to do a really difficult task.
151
375260
2000
para fazer uma tarefa bastante difícil.
06:17
And this one is difficult
152
377260
2000
E esta é difícil
06:19
because it's all about being able to visualize something
153
379260
3000
porque envolve a capacidade de visualizar algo
06:22
that doesn't exist in our physical world.
154
382260
2000
que não existe no nosso mundo físico.
06:24
This is "disappear."
155
384260
2000
Isto é, "desaparecer".
06:26
So what you want to do -- at least with movement-based actions,
156
386260
2000
Portanto, o que querem -- pelo menos com acções baseadas em movimentos,
06:28
we do that all the time, so you can visualize it.
157
388260
3000
fazêmo-lo constantemente, portanto podemos visualizá-lo.
06:31
But with "disappear," there's really no analogies --
158
391260
2000
Mas com "desaparecer", não há de facto analogias.
06:33
so Evan, what you want to do here
159
393260
2000
Então Evan, o que queres fazer aqui
06:35
is to imagine the cube slowly fading out, okay.
160
395260
3000
é imaginar o cubo a desaparecer lentamente, OK.
06:38
Same sort of drill. So: one, two, three, go.
161
398260
3000
O mesmo tipo de exercício. Então: um, dois, três, vai.
06:50
Okay. Let's try that.
162
410260
3000
OK. Vamos tentar isso.
06:53
Oh, my goodness. He's just too good.
163
413260
3000
Oh, minha nossa. Ele é muito bom mesmo.
06:57
Let's try that again.
164
417260
2000
Vamos tentar de novo.
07:04
EG: Losing concentration.
165
424260
2000
EG: A perder concentração.
07:06
(Laughter)
166
426260
2000
(Risos)
07:08
TL: But we can see that it actually works,
167
428260
2000
TL: Mas podemos ver que funciona de facto,
07:10
even though you can only hold it
168
430260
2000
mesmo que apenas o possamos manter
07:12
for a little bit of time.
169
432260
2000
por um curto período de tempo.
07:14
As I said, it's a very difficult process
170
434260
3000
Tal como disse, é um processo muito difícil
07:17
to imagine this.
171
437260
2000
imaginar isto.
07:19
And the great thing about it is that
172
439260
2000
E a grande coisa acerca disto é que
07:21
we've only given the software one instance
173
441260
2000
demos apenas uma pequena instância ao software
07:23
of how he thinks about "disappear."
174
443260
3000
de como ele pensa sobre "desaparecer".
07:26
As there is a machine learning algorithm in this --
175
446260
3000
Uma vez que há algoritmos de aprendizagem de máguina nisto --
07:29
(Applause)
176
449260
4000
(Aplausos)
07:33
Thank you.
177
453260
2000
Obrigado.
07:35
Good job. Good job.
178
455260
3000
Bom trabalho. Bom trabalho.
07:38
(Applause)
179
458260
2000
(Aplausos)
07:40
Thank you, Evan, you're a wonderful, wonderful
180
460260
3000
Obrigado, Evan, foste um exemplo maravilhoso, maravilhoso
07:43
example of the technology.
181
463260
3000
exemplo de tecnologia.
07:46
So, as you can see, before,
182
466260
2000
Então, como puderam ver antes,
07:48
there is a leveling system built into this software
183
468260
3000
há um sistema de nivelamento construído neste software
07:51
so that as Evan, or any user,
184
471260
2000
para que quando o Evan, ou qualquer utilizador,
07:53
becomes more familiar with the system,
185
473260
2000
ficar familiarizado com o sistema,
07:55
they can continue to add more and more detections,
186
475260
3000
possa continuar a adicionar mais e mais detecções,
07:58
so that the system begins to differentiate
187
478260
2000
para que o sistema comece a diferenciar
08:00
between different distinct thoughts.
188
480260
3000
entre pensamentos diferentes.
08:04
And once you've trained up the detections,
189
484260
2000
E uma vez que tenham treinado as detecções,
08:06
these thoughts can be assigned or mapped
190
486260
2000
estes pensamentos podem ser atribuídos ou mapeados
08:08
to any computing platform,
191
488260
2000
para qualquer plataforma de computação,
08:10
application or device.
192
490260
2000
aplicação ou dispositivo.
08:12
So I'd like to show you a few examples,
193
492260
2000
Eu gostaria de vos mostrar alguns exemplos,
08:14
because there are many possible applications
194
494260
2000
porque há tantas aplicações possíveis
08:16
for this new interface.
195
496260
2000
com esta nova interface.
08:19
In games and virtual worlds, for example,
196
499260
2000
Em jogos e mundos virtuais, por exemplo,
08:21
your facial expressions
197
501260
2000
as vossas expressões faciais
08:23
can naturally and intuitively be used
198
503260
2000
podem naturalmente e intuitivamente ser usadas
08:25
to control an avatar or virtual character.
199
505260
3000
para controlar um avatar ou personagem virtual.
08:29
Obviously, you can experience the fantasy of magic
200
509260
2000
Obviamente, podem experimentar a fantasia da magia
08:31
and control the world with your mind.
201
511260
3000
e controlar o mundo com a vossa mente.
08:36
And also, colors, lighting,
202
516260
3000
E também, cores, iluminação,
08:39
sound and effects
203
519260
2000
sons e efeitos,
08:41
can dynamically respond to your emotional state
204
521260
2000
podem responder dinamicamente aos vossos estados emocionais
08:43
to heighten the experience that you're having, in real time.
205
523260
3000
para aumentar a experiência que estão a ter, em tempo real.
08:47
And moving on to some applications
206
527260
2000
E avançando para algumas aplicações
08:49
developed by developers and researchers around the world,
207
529260
3000
desenvolvidas por investigadores e programadores de todo o mundo,
08:52
with robots and simple machines, for example --
208
532260
3000
com robôs e máquinas simples, por exemplo --
08:55
in this case, flying a toy helicopter
209
535260
2000
neste caso, fazer voar um helicóptero de brinquedo
08:57
simply by thinking "lift" with your mind.
210
537260
3000
simplesmente ao pensar "levantar" com a vossa mente.
09:00
The technology can also be applied
211
540260
2000
A tecnologia pode também ser aplicada
09:02
to real world applications --
212
542260
2000
a aplicações do mundo real --
09:04
in this example, a smart home.
213
544260
2000
neste exemplo, uma casa inteligente.
09:06
You know, from the user interface of the control system
214
546260
3000
Desde a interface do utilizador do sistema de controlo
09:09
to opening curtains
215
549260
2000
a abrir cortinas
09:11
or closing curtains.
216
551260
3000
ou fechar cortinas.
09:22
And of course, also to the lighting --
217
562260
3000
E claro também em relação à iluminação --
09:25
turning them on
218
565260
3000
acender as luzes
09:28
or off.
219
568260
2000
ou desligá-las.
09:30
And finally,
220
570260
2000
E finalmente,
09:32
to real life-changing applications,
221
572260
2000
em aplicações radicais
09:34
such as being able to control an electric wheelchair.
222
574260
3000
tal como ser capaz de controlar uma cadeira de rodas eléctrica.
09:37
In this example,
223
577260
2000
Neste exemplo,
09:39
facial expressions are mapped to the movement commands.
224
579260
3000
as expressões faciais são mapeadas para os comandos de movimento.
09:42
Man: Now blink right to go right.
225
582260
3000
Homem: agora pisca o olho direito para ir para a direita.
09:50
Now blink left to turn back left.
226
590260
3000
Agora pisca o olho esquerdo para ir para a esquerda.
10:02
Now smile to go straight.
227
602260
3000
Agora sorri para ir em frente.
10:08
TL: We really -- Thank you.
228
608260
2000
TL: Nós de facto -- Obrigado.
10:10
(Applause)
229
610260
5000
(Aplausos)
10:15
We are really only scratching the surface of what is possible today,
230
615260
3000
Nós, de facto, estamos apenas a arranhar a superfície daquilo que é possível hoje.
10:18
and with the community's input,
231
618260
2000
E com a contribuição da comunidade,
10:20
and also with the involvement of developers
232
620260
2000
e também com o envolvimento de programadores
10:22
and researchers from around the world,
233
622260
3000
e investigadores de todo o mundo,
10:25
we hope that you can help us to shape
234
625260
2000
esperamos que possam ajudar-nos a moldar
10:27
where the technology goes from here. Thank you so much.
235
627260
3000
onde a tecnologia irá a partir daqui. Muito obrigada.
Sobre este site

Este sítio irá apresentar-lhe vídeos do YouTube que são úteis para a aprendizagem do inglês. Verá lições de inglês ensinadas por professores de primeira linha de todo o mundo. Faça duplo clique nas legendas em inglês apresentadas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas deslocam-se em sincronia com a reprodução do vídeo. Se tiver quaisquer comentários ou pedidos, por favor contacte-nos utilizando este formulário de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7