A headset that reads your brainwaves | Tan Le

Tan Le: Um fone que lê as suas ondas cerebrais

377,164 views ・ 2010-07-22

TED


Por favor, clique duas vezes nas legendas em inglês abaixo para reproduzir o vídeo.

Tradutor: Lisangelo Berti Revisor: Belucio Haibara
00:16
Up until now, our communication with machines
0
16260
2000
Até agora, nossa comunicação com máquinas
00:18
has always been limited
1
18260
2000
tem sido sempre limitada
00:20
to conscious and direct forms.
2
20260
2000
a formas conscientes e diretas.
00:22
Whether it's something simple
3
22260
2000
Seja algo simples
00:24
like turning on the lights with a switch,
4
24260
2000
como ligar as luzes no interruptor,
00:26
or even as complex as programming robotics,
5
26260
3000
ou complexo como programação robótica,
00:29
we have always had to give a command to a machine,
6
29260
3000
tivemos sempre que dar um comando para uma máquina,
00:32
or even a series of commands,
7
32260
2000
ou mesmo uma série de comandos,
00:34
in order for it to do something for us.
8
34260
3000
para que ela faça algo por nós.
00:37
Communication between people, on the other hand,
9
37260
2000
Comunicação entre pessoas por outro lado,
00:39
is far more complex and a lot more interesting
10
39260
3000
é ainda mais complexa e bem mais interessante,
00:42
because we take into account
11
42260
2000
porque levamos em conta
00:44
so much more than what is explicitly expressed.
12
44260
3000
muito mais do que está explicitamente expresso.
00:47
We observe facial expressions, body language,
13
47260
3000
Observamos expressões faciais, linguagem corporal,
00:50
and we can intuit feelings and emotions
14
50260
2000
e podemos intuir sentimentos e emoções
00:52
from our dialogue with one another.
15
52260
3000
de nosso diálogo com o outro.
00:55
This actually forms a large part
16
55260
2000
Na verdade isto forma grande parte
00:57
of our decision-making process.
17
57260
2000
de nosso processo decisório.
00:59
Our vision is to introduce
18
59260
2000
Nossa visão é introduzir
01:01
this whole new realm of human interaction
19
61260
3000
toda esta nova realidade da interação humana
01:04
into human-computer interaction
20
64260
2000
para a interação homem-máquina,
01:06
so that computers can understand
21
66260
2000
para que os computadores possam entender
01:08
not only what you direct it to do,
22
68260
2000
não só o que você lhes ordena,
01:10
but it can also respond
23
70260
2000
mas também respondam
01:12
to your facial expressions
24
72260
2000
a suas expressões faciais
01:14
and emotional experiences.
25
74260
2000
e experiências emocionais.
01:16
And what better way to do this
26
76260
2000
E qual jeito melhor de fazê-lo
01:18
than by interpreting the signals
27
78260
2000
do que interpretando os sinais
01:20
naturally produced by our brain,
28
80260
2000
naturalmente produzidos pelo nosso cérebro,
01:22
our center for control and experience.
29
82260
3000
nosso centro de controle e experiência.
01:25
Well, it sounds like a pretty good idea,
30
85260
2000
Bom, parece ser uma ideia muito boa,
01:27
but this task, as Bruno mentioned,
31
87260
2000
mas a tarefa, como Bruno mencionou,
01:29
isn't an easy one for two main reasons:
32
89260
3000
não é fácil por dois motivos:
01:32
First, the detection algorithms.
33
92260
3000
Primeiro, os algoritmos de detecção.
01:35
Our brain is made up of
34
95260
2000
Nosso cérebro é feito de
01:37
billions of active neurons,
35
97260
2000
bilhões de neurônios ativos,
01:39
around 170,000 km
36
99260
3000
cerca de 170.000 Km
01:42
of combined axon length.
37
102260
2000
da extensão combinada dos axônios.
01:44
When these neurons interact,
38
104260
2000
Quando estes neurônios interagem,
01:46
the chemical reaction emits an electrical impulse,
39
106260
2000
a reação química emite um impulso elétrico
01:48
which can be measured.
40
108260
2000
que pode ser medido.
01:50
The majority of our functional brain
41
110260
3000
A maior parte de nosso cérebro funcional
01:53
is distributed over
42
113260
2000
é distribuída pela
01:55
the outer surface layer of the brain,
43
115260
2000
superfície exterior do cérebro.
01:57
and to increase the area that's available for mental capacity,
44
117260
3000
E para aumentar a área disponível para a capacidade mental,
02:00
the brain surface is highly folded.
45
120260
3000
a superfície cerebral é toda dobrada.
02:03
Now this cortical folding
46
123260
2000
E essas dobras do córtex
02:05
presents a significant challenge
47
125260
2000
apresentam um desafio significativo
02:07
for interpreting surface electrical impulses.
48
127260
3000
na interpretação dos impulsos elétricos da superfície.
02:10
Each individual's cortex
49
130260
2000
Todo córtex de um invíduo
02:12
is folded differently,
50
132260
2000
é dobrado diferentemente,
02:14
very much like a fingerprint.
51
134260
2000
quase como uma digital.
02:16
So even though a signal
52
136260
2000
Assim, mesmo que um sinal
02:18
may come from the same functional part of the brain,
53
138260
3000
venha de uma mesma parte funcional do cérebro,
02:21
by the time the structure has been folded,
54
141260
2000
na época que a estrutura se dobrou,
02:23
its physical location
55
143260
2000
sua localização física
02:25
is very different between individuals,
56
145260
2000
é bem diferente entre indivíduos,
02:27
even identical twins.
57
147260
3000
mesmo gêmeos idênticos.
02:30
There is no longer any consistency
58
150260
2000
Não existe mais qualquer consistência
02:32
in the surface signals.
59
152260
2000
nos sinais da superfície.
02:34
Our breakthrough was to create an algorithm
60
154260
2000
Nosso avanço foi criar um algoritmo
02:36
that unfolds the cortex,
61
156260
2000
que estenda o córtex,
02:38
so that we can map the signals
62
158260
2000
para que possamos mapear os sinais
02:40
closer to its source,
63
160260
2000
mais próximos de sua origem,
02:42
and therefore making it capable of working across a mass population.
64
162260
3000
e portanto possibilitar trabalhar toda uma população em massa.
02:46
The second challenge
65
166260
2000
O segundo desafio
02:48
is the actual device for observing brainwaves.
66
168260
3000
é o dispositivo atual para observar ondas cerebrais.
02:51
EEG measurements typically involve
67
171260
2000
Medições de EEG tipicamente incluem
02:53
a hairnet with an array of sensors,
68
173260
3000
uma rede com vários sensores,
02:56
like the one that you can see here in the photo.
69
176260
3000
como essa que vocês podem ver na foto.
02:59
A technician will put the electrodes
70
179260
2000
Um técnico colocará os eletrodos
03:01
onto the scalp
71
181260
2000
sobre o couro cabeludo
03:03
using a conductive gel or paste
72
183260
2000
usando um gel ou pasta condutora
03:05
and usually after a procedure of preparing the scalp
73
185260
3000
e normalmente após uma preparação do couro cabeludo
03:08
by light abrasion.
74
188260
2000
com um abrasivo leve.
03:10
Now this is quite time consuming
75
190260
2000
Hoje esse processo consome tempo
03:12
and isn't the most comfortable process.
76
192260
2000
e não é dos mais confortáveis.
03:14
And on top of that, these systems
77
194260
2000
E acima de tudo, estes sistemas
03:16
actually cost in the tens of thousands of dollars.
78
196260
3000
na verdade custam dezenas de milhares de dólares.
03:20
So with that, I'd like to invite onstage
79
200260
3000
Assim, gostaria de convidar ao palco
03:23
Evan Grant, who is one of last year's speakers,
80
203260
2000
Evan Grant, que foi um dos oradores no ano passado
03:25
who's kindly agreed
81
205260
2000
que gentilmente concordou
03:27
to help me to demonstrate
82
207260
2000
em me ajudar a demonstrar
03:29
what we've been able to develop.
83
209260
2000
o que conseguimos desenvolver.
03:31
(Applause)
84
211260
6000
(Aplausos)
03:37
So the device that you see
85
217260
2000
O dispositivo que vêem
03:39
is a 14-channel, high-fidelity
86
219260
2000
é um sistema de 14 canais, com alta-fidelidade
03:41
EEG acquisition system.
87
221260
2000
para leitura de EEG.
03:43
It doesn't require any scalp preparation,
88
223260
3000
Não necessita nenhuma preparação para o couro cabeludo,
03:46
no conductive gel or paste.
89
226260
2000
nem gel ou pasta condutora.
03:48
It only takes a few minutes to put on
90
228260
3000
Leva apenas alguns minutos para colocá-lo
03:51
and for the signals to settle.
91
231260
2000
e prepará-lo para os sinais.
03:53
It's also wireless,
92
233260
2000
Também não usa fios,
03:55
so it gives you the freedom to move around.
93
235260
3000
o que dá a liberdade de se movimentar.
03:58
And compared to the tens of thousands of dollars
94
238260
3000
E comparado com as dezenas de milhares de dólares
04:01
for a traditional EEG system,
95
241260
3000
de um sistema tradicional de EEG,
04:04
this headset only costs
96
244260
2000
este aparelho custa somente
04:06
a few hundred dollars.
97
246260
2000
algumas centenas de dólares.
04:08
Now on to the detection algorithms.
98
248260
3000
Agora sobre os algoritmos de detecção.
04:11
So facial expressions --
99
251260
2000
As expressões faciais...
04:13
as I mentioned before in emotional experiences --
100
253260
2000
como mencionei antes em experiências emocionais...
04:15
are actually designed to work out of the box
101
255260
2000
na verdade foram projetadas para funcionar de imediato
04:17
with some sensitivity adjustments
102
257260
2000
com alguns ajustes de sensibilidade
04:19
available for personalization.
103
259260
3000
disponíveis para personalização.
04:22
But with the limited time we have available,
104
262260
2000
Com o tempo limitado que temos,
04:24
I'd like to show you the cognitive suite,
105
264260
2000
gostaria de mostrar a vocês o módulo cognitivo,
04:26
which is the ability for you
106
266260
2000
que é a habilidade de você
04:28
to basically move virtual objects with your mind.
107
268260
3000
basicamente mover objetos virtuais com a mente.
04:32
Now, Evan is new to this system,
108
272260
2000
Agora, Evan é novo para o sistema,
04:34
so what we have to do first
109
274260
2000
então temos que primeiro
04:36
is create a new profile for him.
110
276260
2000
criar um novo perfil para ele.
04:38
He's obviously not Joanne -- so we'll "add user."
111
278260
3000
Ele obviamente não é Joanne... então "Incluir usuário."
04:41
Evan. Okay.
112
281260
2000
Evan. Pronto.
04:43
So the first thing we need to do with the cognitive suite
113
283260
3000
A primeira coisa que temos de fazer com o módulo cognitivo
04:46
is to start with training
114
286260
2000
é iniciar com o treinamento
04:48
a neutral signal.
115
288260
2000
de um sinal neutro.
04:50
With neutral, there's nothing in particular
116
290260
2000
Para o neutro, não há nada de especial
04:52
that Evan needs to do.
117
292260
2000
que o Evan precise fazer.
04:54
He just hangs out. He's relaxed.
118
294260
2000
Ele só aguarda. Relaxado.
04:56
And the idea is to establish a baseline
119
296260
2000
A ideia é estabelecer uma linha inicial
04:58
or normal state for his brain,
120
298260
2000
ou um estado normal para seu cérebro,
05:00
because every brain is different.
121
300260
2000
porque cada cérebro é diferente.
05:02
It takes eight seconds to do this,
122
302260
2000
Leva oito segundos para fazer.
05:04
and now that that's done,
123
304260
2000
E agora que está feito,
05:06
we can choose a movement-based action.
124
306260
2000
podemos escolher uma ação relacionada a movimento.
05:08
So Evan, choose something
125
308260
2000
Então Evan escolha algo
05:10
that you can visualize clearly in your mind.
126
310260
2000
que possa visualizar com clareza em sua mente.
05:12
Evan Grant: Let's do "pull."
127
312260
2000
Evan Grant: Vamos de "puxar".
05:14
Tan Le: Okay, so let's choose "pull."
128
314260
2000
Tan Le: Certo, Vamos escolher "puxar".
05:16
So the idea here now
129
316260
2000
Agora a ideia aqui
05:18
is that Evan needs to
130
318260
2000
é que Evan precisa
05:20
imagine the object coming forward
131
320260
2000
imaginar o objeto avançando
05:22
into the screen,
132
322260
2000
na tela.
05:24
and there's a progress bar that will scroll across the screen
133
324260
3000
Há uma barra de progresso que se preencherá
05:27
while he's doing that.
134
327260
2000
enquanto ele faz isso.
05:29
The first time, nothing will happen,
135
329260
2000
A primeira vez, nada irá acontecer,
05:31
because the system has no idea how he thinks about "pull."
136
331260
3000
porque o sistema não tem ideia de como ele pensa "puxar".
05:34
But maintain that thought
137
334260
2000
Mas mantenha esse pensamento
05:36
for the entire duration of the eight seconds.
138
336260
2000
pela duração de oito segundos.
05:38
So: one, two, three, go.
139
338260
3000
Assim: um, dois, três, vai.
05:49
Okay.
140
349260
2000
Certo.
05:51
So once we accept this,
141
351260
2000
Uma vez que gravarmos isso,
05:53
the cube is live.
142
353260
2000
o cubo está vivo.
05:55
So let's see if Evan
143
355260
2000
Vamos ver se Evan
05:57
can actually try and imagine pulling.
144
357260
3000
pode mesmo tentar e imaginar puxando.
06:00
Ah, good job!
145
360260
2000
Ah, bom trabalho!
06:02
(Applause)
146
362260
3000
(Aplausos)
06:05
That's really amazing.
147
365260
2000
Isso foi incrível.
06:07
(Applause)
148
367260
4000
(Aplausos)
06:11
So we have a little bit of time available,
149
371260
2000
Temos mais um tempinho disponível,
06:13
so I'm going to ask Evan
150
373260
2000
então pedirei ao Evan
06:15
to do a really difficult task.
151
375260
2000
para fazer uma tarefa difícil de verdade.
06:17
And this one is difficult
152
377260
2000
E é difícil
06:19
because it's all about being able to visualize something
153
379260
3000
porque é sobre visualizar algo
06:22
that doesn't exist in our physical world.
154
382260
2000
que não existe em nosso mundo físico.
06:24
This is "disappear."
155
384260
2000
Esta é "desaparecer".
06:26
So what you want to do -- at least with movement-based actions,
156
386260
2000
O que você tem... pelo menos com ações baseadas em movimento,
06:28
we do that all the time, so you can visualize it.
157
388260
3000
que fazemos todo o tempo, você pode visualizar.
06:31
But with "disappear," there's really no analogies --
158
391260
2000
Mas com "desaparecer", não existem analogias.
06:33
so Evan, what you want to do here
159
393260
2000
Evan, o que você vai fazer aqui
06:35
is to imagine the cube slowly fading out, okay.
160
395260
3000
é imaginar o cubo lentamente desaparecendo.
06:38
Same sort of drill. So: one, two, three, go.
161
398260
3000
Algum tipo de ralo. Então: um, dois, três, vai.
06:50
Okay. Let's try that.
162
410260
3000
Certo. Vamos tentar assim.
06:53
Oh, my goodness. He's just too good.
163
413260
3000
Nossa, Ele é muito bom.
06:57
Let's try that again.
164
417260
2000
Vamos tentar de novo.
07:04
EG: Losing concentration.
165
424260
2000
EG: Perdendo concentração.
07:06
(Laughter)
166
426260
2000
(Risos)
07:08
TL: But we can see that it actually works,
167
428260
2000
TL: Mas podemos ver que funciona mesmo,
07:10
even though you can only hold it
168
430260
2000
mesmo que você consiga por
07:12
for a little bit of time.
169
432260
2000
apenas pouco tempo.
07:14
As I said, it's a very difficult process
170
434260
3000
Como eu disse, é um processo difícil
07:17
to imagine this.
171
437260
2000
imaginar isso.
07:19
And the great thing about it is that
172
439260
2000
E o melhor disso é que
07:21
we've only given the software one instance
173
441260
2000
nós somente oferecemos ao software um único exemplo
07:23
of how he thinks about "disappear."
174
443260
3000
do que ele pensa sobre "desaparecer".
07:26
As there is a machine learning algorithm in this --
175
446260
3000
Como há um algoritmo de aprendizado mecanizado nisto...
07:29
(Applause)
176
449260
4000
(Aplausos)
07:33
Thank you.
177
453260
2000
Obrigada.
07:35
Good job. Good job.
178
455260
3000
Bom trabalho, Bom trabalho.
07:38
(Applause)
179
458260
2000
(Aplausos)
07:40
Thank you, Evan, you're a wonderful, wonderful
180
460260
3000
Obrigada, Evan, você é um maravilhoso
07:43
example of the technology.
181
463260
3000
exemplo de tecnologia.
07:46
So, as you can see, before,
182
466260
2000
Como puderam ver,
07:48
there is a leveling system built into this software
183
468260
3000
existe um sistema de aprimoramento interno neste sofware
07:51
so that as Evan, or any user,
184
471260
2000
para que Evan, ou qualquer usuário
07:53
becomes more familiar with the system,
185
473260
2000
torne-se mais familiar com o sistema,
07:55
they can continue to add more and more detections,
186
475260
3000
eles podem continuar a adicionar mais e mais detecções,
07:58
so that the system begins to differentiate
187
478260
2000
para que o sistema comece a diferenciar
08:00
between different distinct thoughts.
188
480260
3000
entre diferentes e distintos pensamentos.
08:04
And once you've trained up the detections,
189
484260
2000
E uma vez que você tenha treinado as detecções,
08:06
these thoughts can be assigned or mapped
190
486260
2000
estes pensamentos podem ser associados ou mapeados
08:08
to any computing platform,
191
488260
2000
para qualquer plataforma computacional,
08:10
application or device.
192
490260
2000
aplicação ou dispositivo.
08:12
So I'd like to show you a few examples,
193
492260
2000
Gostaria de mostrar alguns poucos exemplos,
08:14
because there are many possible applications
194
494260
2000
porque existem muitas aplicações possíveis
08:16
for this new interface.
195
496260
2000
para esta nova interface.
08:19
In games and virtual worlds, for example,
196
499260
2000
Nos jogos e mundos virtuais, por exemplo,
08:21
your facial expressions
197
501260
2000
suas expressões faciais
08:23
can naturally and intuitively be used
198
503260
2000
podem naturalmente e intuitivamente ser usadas
08:25
to control an avatar or virtual character.
199
505260
3000
para controlar um avatar ou personagem virtual.
08:29
Obviously, you can experience the fantasy of magic
200
509260
2000
Obviamente, você pode experimentar a magia
08:31
and control the world with your mind.
201
511260
3000
de controlar o mundo com sua mente.
08:36
And also, colors, lighting,
202
516260
3000
E também, cores, luzes,
08:39
sound and effects
203
519260
2000
som e efeitos,
08:41
can dynamically respond to your emotional state
204
521260
2000
podem responder dinamicamente ao seu estado emocional
08:43
to heighten the experience that you're having, in real time.
205
523260
3000
e aprofundar a experiência que você está tendo, em tempo real.
08:47
And moving on to some applications
206
527260
2000
E indo para algumas outras aplicações
08:49
developed by developers and researchers around the world,
207
529260
3000
feitas por desenvolvedores e pesquisadores ao redor do mundo,
08:52
with robots and simple machines, for example --
208
532260
3000
com robôs e máquinas simples, por exemplo...
08:55
in this case, flying a toy helicopter
209
535260
2000
neste caso, voar com um helicóptero de brinquedo
08:57
simply by thinking "lift" with your mind.
210
537260
3000
só pensando em decolar com sua mente.
09:00
The technology can also be applied
211
540260
2000
A tecnologia pode também ser utilizada
09:02
to real world applications --
212
542260
2000
em aplicações do mundo real...
09:04
in this example, a smart home.
213
544260
2000
neste exemplo, uma casa inteligente.
09:06
You know, from the user interface of the control system
214
546260
3000
Sabe, a partir da interface de usuário do sistema de controle
09:09
to opening curtains
215
549260
2000
para abrir cortinas
09:11
or closing curtains.
216
551260
3000
ou fechar cortinas.
09:22
And of course, also to the lighting --
217
562260
3000
E é claro também as luzes...
09:25
turning them on
218
565260
3000
ligando-as
09:28
or off.
219
568260
2000
ou desligando.
09:30
And finally,
220
570260
2000
E finalmente,
09:32
to real life-changing applications,
221
572260
2000
aplicações que mudam a vida real
09:34
such as being able to control an electric wheelchair.
222
574260
3000
como ser capaz de controlar uma cadeira de rodas elétrica.
09:37
In this example,
223
577260
2000
Neste exemplo,
09:39
facial expressions are mapped to the movement commands.
224
579260
3000
expressões faciais são mapeadas para comandos de movimentação.
09:42
Man: Now blink right to go right.
225
582260
3000
Homem: Pisque o olho direito para ir à direita.
09:50
Now blink left to turn back left.
226
590260
3000
Agora o esquerdo para virar à esquerda.
10:02
Now smile to go straight.
227
602260
3000
Agora sorria para ir em frente.
10:08
TL: We really -- Thank you.
228
608260
2000
TL: De verdade... Muito obrigada.
10:10
(Applause)
229
610260
5000
(Aplausos)
10:15
We are really only scratching the surface of what is possible today,
230
615260
3000
Na verdade estamos apenas no começo do que é possível hoje.
10:18
and with the community's input,
231
618260
2000
E com o auxílio da comunidade,
10:20
and also with the involvement of developers
232
620260
2000
e também com o envolvimento de desenvolvedores
10:22
and researchers from around the world,
233
622260
3000
e pesquisadores de todo o mundo,
10:25
we hope that you can help us to shape
234
625260
2000
esperamos que vocês possam nos ajudar a moldar
10:27
where the technology goes from here. Thank you so much.
235
627260
3000
onde a tecnologia vai daqui para a frente. Muito obrigada mesmo.
Sobre este site

Este site apresentará a você vídeos do YouTube que são úteis para o aprendizado do inglês. Você verá aulas de inglês ministradas por professores de primeira linha de todo o mundo. Clique duas vezes nas legendas em inglês exibidas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas rolarão em sincronia com a reprodução do vídeo. Se você tiver algum comentário ou solicitação, por favor, entre em contato conosco usando este formulário de contato.

https://forms.gle/WvT1wiN1qDtmnspy7