A headset that reads your brainwaves | Tan Le

377,164 views ・ 2010-07-22

TED


Vă rugăm să faceți dublu clic pe subtitrările în limba engleză de mai jos pentru a reda videoclipul.

Traducător: Sebastian Hubati Corector: Dana Milea
00:16
Up until now, our communication with machines
0
16260
2000
Până acum, comunicarea noastră cu aparatele
00:18
has always been limited
1
18260
2000
a fost întotdeauna limitată
00:20
to conscious and direct forms.
2
20260
2000
la forme conştiente şi directe.
00:22
Whether it's something simple
3
22260
2000
Fie că este vorba despre ceva simplu
00:24
like turning on the lights with a switch,
4
24260
2000
precum aprinderea luminii folosind un întrerupător,
00:26
or even as complex as programming robotics,
5
26260
3000
sau chiar ceva atât de complex precum programarea roboţilor
00:29
we have always had to give a command to a machine,
6
29260
3000
întotdeauna i-am dat aparatului o comandă
00:32
or even a series of commands,
7
32260
2000
sau chiar o serie de comenzi
00:34
in order for it to do something for us.
8
34260
3000
pentru a face ceva pentru noi.
00:37
Communication between people, on the other hand,
9
37260
2000
Pe de altă parte, comunicarea între oameni
00:39
is far more complex and a lot more interesting
10
39260
3000
este cu mult mai complexă şi mai interesantă
00:42
because we take into account
11
42260
2000
pentru că luăm în calcul
00:44
so much more than what is explicitly expressed.
12
44260
3000
mult mai multe aspecte decât ce se exprimă explicit.
00:47
We observe facial expressions, body language,
13
47260
3000
Observăm expresiile feţei, limbajul trupului
00:50
and we can intuit feelings and emotions
14
50260
2000
şi putem intui sentimente şi emoţii
00:52
from our dialogue with one another.
15
52260
3000
din dialogul dintre noi.
00:55
This actually forms a large part
16
55260
2000
De fapt, acestea constituie o mare parte
00:57
of our decision-making process.
17
57260
2000
din procesul nostru de luare a deciziilor.
00:59
Our vision is to introduce
18
59260
2000
Viziunea noastră este să introducem
01:01
this whole new realm of human interaction
19
61260
3000
tot acest nou tărâm al interacţiunii umane
01:04
into human-computer interaction
20
64260
2000
în interacţiunea om-computer,
01:06
so that computers can understand
21
66260
2000
astfel încât computerele să poată înţelege
01:08
not only what you direct it to do,
22
68260
2000
nu doar ce îi comanzi să facă
01:10
but it can also respond
23
70260
2000
ci şi să poată răspunde
01:12
to your facial expressions
24
72260
2000
expresiilor feţei tale
01:14
and emotional experiences.
25
74260
2000
şi experienţelor emoţionale.
01:16
And what better way to do this
26
76260
2000
Şi cum faci mai bine asta
01:18
than by interpreting the signals
27
78260
2000
decât interpretând semnalele
01:20
naturally produced by our brain,
28
80260
2000
produse natural de creierul nostru,
01:22
our center for control and experience.
29
82260
3000
centrul nostru al controlului şi al experienţei.
01:25
Well, it sounds like a pretty good idea,
30
85260
2000
Ei bine, pare a fi o idee destul de bună,
01:27
but this task, as Bruno mentioned,
31
87260
2000
dar, aşa cum a menţionat Bruno, această misiune
01:29
isn't an easy one for two main reasons:
32
89260
3000
nu este una uşoară din două motive principale:
01:32
First, the detection algorithms.
33
92260
3000
Mai întâi, algoritmii de detecţie.
01:35
Our brain is made up of
34
95260
2000
Creierul nostru este format din
01:37
billions of active neurons,
35
97260
2000
miliarde de neuroni activi,
01:39
around 170,000 km
36
99260
3000
în jur de 170,000 km
01:42
of combined axon length.
37
102260
2000
este lungimea cumulată a axonilor.
01:44
When these neurons interact,
38
104260
2000
Când aceşti neuroni interacţionează,
01:46
the chemical reaction emits an electrical impulse,
39
106260
2000
reacţia chimică emite un impuls electric
01:48
which can be measured.
40
108260
2000
care poate fi măsurat.
01:50
The majority of our functional brain
41
110260
3000
Mare parte din creierul nostru funcţional
01:53
is distributed over
42
113260
2000
este distribuită spre
01:55
the outer surface layer of the brain,
43
115260
2000
stratul de suprafaţă al creierului.
01:57
and to increase the area that's available for mental capacity,
44
117260
3000
Iar pentru a creşte zona disponibilă capacităţii mentale,
02:00
the brain surface is highly folded.
45
120260
3000
suprafaţa creierului este extrem de cutată.
02:03
Now this cortical folding
46
123260
2000
Acum, această pliere corticală
02:05
presents a significant challenge
47
125260
2000
reprezintă o provocare semnificativă
02:07
for interpreting surface electrical impulses.
48
127260
3000
pentru interpretarea impulsurilor electrice de suprafaţă.
02:10
Each individual's cortex
49
130260
2000
Cortexul fiecărui individ
02:12
is folded differently,
50
132260
2000
este cutat diferit,
02:14
very much like a fingerprint.
51
134260
2000
aduce foarte mult cu o amprentă.
02:16
So even though a signal
52
136260
2000
Astfel, chiar dacă un semnal
02:18
may come from the same functional part of the brain,
53
138260
3000
poate veni din aceeaşi parte funcţională a creierului,
02:21
by the time the structure has been folded,
54
141260
2000
după ce structura a fost pliată,
02:23
its physical location
55
143260
2000
localizarea fizică a semnalului
02:25
is very different between individuals,
56
145260
2000
diferă foarte mult de la un individ la altul
02:27
even identical twins.
57
147260
3000
chiar şi la gemeni identici.
02:30
There is no longer any consistency
58
150260
2000
Nu mai există nicio consistenţă
02:32
in the surface signals.
59
152260
2000
a semnalelor de suprafaţă.
02:34
Our breakthrough was to create an algorithm
60
154260
2000
Progresul marcat de noi a fost crearea unui algoritm
02:36
that unfolds the cortex,
61
156260
2000
care netezeşte cortexul
02:38
so that we can map the signals
62
158260
2000
astfel încât să putem marca semnalele
02:40
closer to its source,
63
160260
2000
mai aproape de sursa lor
02:42
and therefore making it capable of working across a mass population.
64
162260
3000
şi astfel făcând posibilă funcţionarea la nivelul întregii populaţii.
02:46
The second challenge
65
166260
2000
A doua provocare
02:48
is the actual device for observing brainwaves.
66
168260
3000
este chiar aparatul pentru observarea undelor emise de creier.
02:51
EEG measurements typically involve
67
171260
2000
Măsurătorilor prin electroencefalogramă implică de obicei
02:53
a hairnet with an array of sensors,
68
173260
3000
o reţea fină cu un şir de senzori
02:56
like the one that you can see here in the photo.
69
176260
3000
precum cea pe care o puteţi vedea aici în imagine.
02:59
A technician will put the electrodes
70
179260
2000
Un tehnician va pune electrozii
03:01
onto the scalp
71
181260
2000
pe scalp
03:03
using a conductive gel or paste
72
183260
2000
folosind un gel sau o pastă conductibilă
03:05
and usually after a procedure of preparing the scalp
73
185260
3000
şi, de obicei, după o procedură de pregătire a scalpului
03:08
by light abrasion.
74
188260
2000
printr-o frecare uşoară.
03:10
Now this is quite time consuming
75
190260
2000
Ia destul de mult timp
03:12
and isn't the most comfortable process.
76
192260
2000
şi nu e nici pe departe cel mai confortabil proces.
03:14
And on top of that, these systems
77
194260
2000
Şi mai mult, aceste sisteme
03:16
actually cost in the tens of thousands of dollars.
78
196260
3000
costă de fapt în jurul a câteva zeci de mii de dolari.
03:20
So with that, I'd like to invite onstage
79
200260
3000
Aşa că, vreau să-l invit pe scenă
03:23
Evan Grant, who is one of last year's speakers,
80
203260
2000
pe Evan Grant, unul dintre vorbitorii de anul trecut,
03:25
who's kindly agreed
81
205260
2000
care a fost de acord
03:27
to help me to demonstrate
82
207260
2000
să mă ajute să demonstrez
03:29
what we've been able to develop.
83
209260
2000
ceea ce am reuşit să dezvoltăm.
03:31
(Applause)
84
211260
6000
(Aplauze)
03:37
So the device that you see
85
217260
2000
Aşadar, aparatul pe care îl vedeţi
03:39
is a 14-channel, high-fidelity
86
219260
2000
este un sistem cu 14 canale şi de înaltă fidelitate
03:41
EEG acquisition system.
87
221260
2000
în recepţia electroencefalogramelor.
03:43
It doesn't require any scalp preparation,
88
223260
3000
Nu necesită deloc pregătirea scalpului,
03:46
no conductive gel or paste.
89
226260
2000
nici gel sau pastă conductibilă.
03:48
It only takes a few minutes to put on
90
228260
3000
Durează doar câteva minute să-l pregăteşti
03:51
and for the signals to settle.
91
231260
2000
şi ca semnalele să se stabilizeze.
03:53
It's also wireless,
92
233260
2000
De asemenea, este wireless,
03:55
so it gives you the freedom to move around.
93
235260
3000
deci îţi dă libertate de mişcare.
03:58
And compared to the tens of thousands of dollars
94
238260
3000
Iar comparativ cu zecile de mii de dolari
04:01
for a traditional EEG system,
95
241260
3000
pentru un sistem tradiţional de electroencefalogramă
04:04
this headset only costs
96
244260
2000
aceste căşti costă doar
04:06
a few hundred dollars.
97
246260
2000
câteva sute de dolari.
04:08
Now on to the detection algorithms.
98
248260
3000
Acum legat de algoritmii de detecţie.
04:11
So facial expressions --
99
251260
2000
Expresiile feţei --
04:13
as I mentioned before in emotional experiences --
100
253260
2000
aşa cum am precizat mai devreme referitor la experienţele emoţionale --
04:15
are actually designed to work out of the box
101
255260
2000
sunt de fapt proiectate să funcţioneze atipic
04:17
with some sensitivity adjustments
102
257260
2000
prin câteva ajustări legate de senzitivitate
04:19
available for personalization.
103
259260
3000
şi care sunt disponibile spre personalizare.
04:22
But with the limited time we have available,
104
262260
2000
Mai având puţin timp la dispoziţie,
04:24
I'd like to show you the cognitive suite,
105
264260
2000
vreau să vă arăt întregul echipament cognitiv
04:26
which is the ability for you
106
266260
2000
care vă dă posibilitatea
04:28
to basically move virtual objects with your mind.
107
268260
3000
în esenţă, să mişcaţi obiecte virtual cu mintea.
04:32
Now, Evan is new to this system,
108
272260
2000
Acum, Evan n-a mai folosit sistemul,
04:34
so what we have to do first
109
274260
2000
aşa că, mai întâi trebuie
04:36
is create a new profile for him.
110
276260
2000
să-i creăm un nou profil.
04:38
He's obviously not Joanne -- so we'll "add user."
111
278260
3000
În mod evident, nu este Joanne -- aşa că vom "adăuga un utilizator".
04:41
Evan. Okay.
112
281260
2000
Evan. În regulă.
04:43
So the first thing we need to do with the cognitive suite
113
283260
3000
Primul lucru pe care trebuie să-l facem cu echipamentul cognitiv
04:46
is to start with training
114
286260
2000
este să începem antrenamentul
04:48
a neutral signal.
115
288260
2000
cu un semnal neutru.
04:50
With neutral, there's nothing in particular
116
290260
2000
Nu e nimic special
04:52
that Evan needs to do.
117
292260
2000
ce trebuie să facă Evan.
04:54
He just hangs out. He's relaxed.
118
294260
2000
Doar stă. Este relaxat.
04:56
And the idea is to establish a baseline
119
296260
2000
Iar ideea este să se stabilească un reper
04:58
or normal state for his brain,
120
298260
2000
sau o stare normală a creierului lui.
05:00
because every brain is different.
121
300260
2000
pentru că fiecare creier este diferit.
05:02
It takes eight seconds to do this,
122
302260
2000
Durează opt secunde.
05:04
and now that that's done,
123
304260
2000
Acum că am terminat,
05:06
we can choose a movement-based action.
124
306260
2000
putem alege o acţiune bazată pe mişcare.
05:08
So Evan, choose something
125
308260
2000
Aşadar, Evan alege ceva
05:10
that you can visualize clearly in your mind.
126
310260
2000
ce poţi vizualiza cu claritate în minte.
05:12
Evan Grant: Let's do "pull."
127
312260
2000
Evan Grant: Să zicem "trage".
05:14
Tan Le: Okay, so let's choose "pull."
128
314260
2000
Tan Le: Ok. Să alegem "trage".
05:16
So the idea here now
129
316260
2000
Acum ideea
05:18
is that Evan needs to
130
318260
2000
este că Evan trebuie
05:20
imagine the object coming forward
131
320260
2000
să-şi imagineze obiectul venind în faţă
05:22
into the screen,
132
322260
2000
înspre ecran.
05:24
and there's a progress bar that will scroll across the screen
133
324260
3000
Şi avem pe ecran o bară care marchează progresul
05:27
while he's doing that.
134
327260
2000
în timp ce face asta.
05:29
The first time, nothing will happen,
135
329260
2000
Prima dată nu se întâmplă nimic
05:31
because the system has no idea how he thinks about "pull."
136
331260
3000
pentru că sistemul habar n-are cum gândeşte el când "trage".
05:34
But maintain that thought
137
334260
2000
Dar gândul este menţinut
05:36
for the entire duration of the eight seconds.
138
336260
2000
pe întreaga durată de opt secunde.
05:38
So: one, two, three, go.
139
338260
3000
Aşadar: unu, doi, trei, începe.
05:49
Okay.
140
349260
2000
În regulă.
05:51
So once we accept this,
141
351260
2000
De îndată ce acceptăm
05:53
the cube is live.
142
353260
2000
cubul prinde viaţă.
05:55
So let's see if Evan
143
355260
2000
Să vedem dacă Evan
05:57
can actually try and imagine pulling.
144
357260
3000
chiar poate încerca şi să-şi imagineze că trage obiectul.
06:00
Ah, good job!
145
360260
2000
Ah, foarte bine!
06:02
(Applause)
146
362260
3000
(Aplauze)
06:05
That's really amazing.
147
365260
2000
E destul de uimitor.
06:07
(Applause)
148
367260
4000
(Aplauze)
06:11
So we have a little bit of time available,
149
371260
2000
Mai avem puţin timp la dispoziţie,
06:13
so I'm going to ask Evan
150
373260
2000
aşa că îl voi ruga pe Evan
06:15
to do a really difficult task.
151
375260
2000
să facă ceva foarte dificil.
06:17
And this one is difficult
152
377260
2000
Şi este greu
06:19
because it's all about being able to visualize something
153
379260
3000
pentru că ţine exclusiv de abilitatea de a vizualiza ceva
06:22
that doesn't exist in our physical world.
154
382260
2000
ce nu există în lumea noastră fizică.
06:24
This is "disappear."
155
384260
2000
Şi anume, "să dispară".
06:26
So what you want to do -- at least with movement-based actions,
156
386260
2000
Ceea ce vrem -- cel puţin prin acţiuni bazate pe mişcare,
06:28
we do that all the time, so you can visualize it.
157
388260
3000
facem tot timpul, deci putem vizualiza.
06:31
But with "disappear," there's really no analogies --
158
391260
2000
Dar cu a face ceva "să dispară", nu prea avem analogii.
06:33
so Evan, what you want to do here
159
393260
2000
Aşadar, Evan, ceea ce trebuie să faci
06:35
is to imagine the cube slowly fading out, okay.
160
395260
3000
este să-ţi imaginezi cubul dispărând treptat. În regulă?
06:38
Same sort of drill. So: one, two, three, go.
161
398260
3000
Acelaşi tip de exerciţiu. Deci: unu, doi, trei, începe.
06:50
Okay. Let's try that.
162
410260
3000
Ok. Să încercăm.
06:53
Oh, my goodness. He's just too good.
163
413260
3000
Oh, doamne. Este mult prea bun.
06:57
Let's try that again.
164
417260
2000
Să mai încercăm o dată.
07:04
EG: Losing concentration.
165
424260
2000
EG: Îmi pierd concentrarea.
07:06
(Laughter)
166
426260
2000
(Râsete)
07:08
TL: But we can see that it actually works,
167
428260
2000
TL: Dar putem vedea că funcţionează
07:10
even though you can only hold it
168
430260
2000
chiar dacă
07:12
for a little bit of time.
169
432260
2000
pentru puţin timp.
07:14
As I said, it's a very difficult process
170
434260
3000
După cum am spus, este un proces foarte dificil
07:17
to imagine this.
171
437260
2000
să-ţi imaginezi aşa ceva.
07:19
And the great thing about it is that
172
439260
2000
Şi este excepţional că
07:21
we've only given the software one instance
173
441260
2000
software-ul a avut acces doar pentru câteva momente
07:23
of how he thinks about "disappear."
174
443260
3000
la felul în care el se gândeşte să facă ceva "să dispară".
07:26
As there is a machine learning algorithm in this --
175
446260
3000
Pentru vorbim despre un algoritm care permite aparatului să înveţe.
07:29
(Applause)
176
449260
4000
(Aplauze)
07:33
Thank you.
177
453260
2000
Mulţumesc.
07:35
Good job. Good job.
178
455260
3000
Foarte bine. Foarte bine.
07:38
(Applause)
179
458260
2000
(Aplauze)
07:40
Thank you, Evan, you're a wonderful, wonderful
180
460260
3000
Mulţumesc, Evan, eşti minunat, excelent
07:43
example of the technology.
181
463260
3000
exemplu al tehnologiei.
07:46
So, as you can see, before,
182
466260
2000
Aşa cum aţi văzut mai devreme,
07:48
there is a leveling system built into this software
183
468260
3000
software-ul are construit un sistem de etalonare
07:51
so that as Evan, or any user,
184
471260
2000
astfel încât, pe măsură ce Evan sau oricare alt utilizator
07:53
becomes more familiar with the system,
185
473260
2000
se obişnuieşte cu sistemul
07:55
they can continue to add more and more detections,
186
475260
3000
ei pot continua să adauge tot mai multe detecţii
07:58
so that the system begins to differentiate
187
478260
2000
astfel încât sistemul începe să diferenţieze
08:00
between different distinct thoughts.
188
480260
3000
între gânduri distincte.
08:04
And once you've trained up the detections,
189
484260
2000
Iar odată ce detecţiile au fost repetate,
08:06
these thoughts can be assigned or mapped
190
486260
2000
aceste gânduri pot fi atribuite sau marcate
08:08
to any computing platform,
191
488260
2000
în orice platformă de calcul,
08:10
application or device.
192
490260
2000
aplicaţie sau aparat.
08:12
So I'd like to show you a few examples,
193
492260
2000
Vreau să vă arăt câteva exemple
08:14
because there are many possible applications
194
494260
2000
pentru că există multe posibile aplicaţii
08:16
for this new interface.
195
496260
2000
ale acestei noi interfeţe.
08:19
In games and virtual worlds, for example,
196
499260
2000
De exemplu, în jocuri şi lumi virtuale,
08:21
your facial expressions
197
501260
2000
expresiile feţei tale
08:23
can naturally and intuitively be used
198
503260
2000
pot fi folosite natural şi intuitiv
08:25
to control an avatar or virtual character.
199
505260
3000
pentru a controla un avatar sau un personaj virtual.
08:29
Obviously, you can experience the fantasy of magic
200
509260
2000
Evident, puteţi experimenta fantezia magiei
08:31
and control the world with your mind.
201
511260
3000
şi puteţi controla lumea cu mintea.
08:36
And also, colors, lighting,
202
516260
3000
Şi, de asemenea, culorile, lumina,
08:39
sound and effects
203
519260
2000
sunetul şi efectele
08:41
can dynamically respond to your emotional state
204
521260
2000
pot răspunde dinamic stărilor voastre emoţionale
08:43
to heighten the experience that you're having, in real time.
205
523260
3000
pentru a intensifica experienţa pe care o trăiţi, în timp real.
08:47
And moving on to some applications
206
527260
2000
Trecând la câteva aplicaţii
08:49
developed by developers and researchers around the world,
207
529260
3000
realizate de dezvoltatori şi cercetători din întreaga lume,
08:52
with robots and simple machines, for example --
208
532260
3000
cu roboţi şi aparate simple, de exemplu --
08:55
in this case, flying a toy helicopter
209
535260
2000
în acest caz, puteţi controla zborul unul elicopter de jucărie
08:57
simply by thinking "lift" with your mind.
210
537260
3000
doar gândindu-vă cum se ridică.
09:00
The technology can also be applied
211
540260
2000
Tehnologia poate fi aplicată
09:02
to real world applications --
212
542260
2000
şi pentru aplicaţiile din lumea reală --
09:04
in this example, a smart home.
213
544260
2000
în acest exemplu, o casă inteligentă.
09:06
You know, from the user interface of the control system
214
546260
3000
Ştiţi, de la interfaţa sistemului de control pe care o vede utilizatorul
09:09
to opening curtains
215
549260
2000
la deschiderea draperiilor
09:11
or closing curtains.
216
551260
3000
sau închiderea draperiilor.
09:22
And of course, also to the lighting --
217
562260
3000
Bineînţeles, şi pentru lumină --
09:25
turning them on
218
565260
3000
aprinderea ei
09:28
or off.
219
568260
2000
şi stingerea ei.
09:30
And finally,
220
570260
2000
Şi, în cele din urmă,
09:32
to real life-changing applications,
221
572260
2000
în cazul aplicaţiilor care chiar pot schimba cu adevărat viaţa
09:34
such as being able to control an electric wheelchair.
222
574260
3000
precum posibilitatea de a controla un scaun pe rotile electric.
09:37
In this example,
223
577260
2000
În acest exemplu,
09:39
facial expressions are mapped to the movement commands.
224
579260
3000
expresiile feţei sunt corelate cu comenzile de mişcare.
09:42
Man: Now blink right to go right.
225
582260
3000
Bărbat: Acum clipeşte din ochiul drept ca să mergi la dreapta.
09:50
Now blink left to turn back left.
226
590260
3000
Acum clipeşte din ochiul stâng ca să te întorci prin partea stângă.
10:02
Now smile to go straight.
227
602260
3000
Acum zâmbeşte ca să mergi drept înainte.
10:08
TL: We really -- Thank you.
228
608260
2000
TL: Doar -- Mulţumesc.
10:10
(Applause)
229
610260
5000
(Aplauze)
10:15
We are really only scratching the surface of what is possible today,
230
615260
3000
Doar tangenţial atingem adevăratul potenţial al acestei tehnologii, astăzi.
10:18
and with the community's input,
231
618260
2000
Iar prin părerile venite din partea comunităţii
10:20
and also with the involvement of developers
232
620260
2000
şi, de asemenea, cu implicarea dezvoltatorilor
10:22
and researchers from around the world,
233
622260
3000
şi a cercetătorilor din întreaga lume
10:25
we hope that you can help us to shape
234
625260
2000
sperăm că ne puteţi ajuta să modelăm
10:27
where the technology goes from here. Thank you so much.
235
627260
3000
viitorul acestei tehnologii. Vă mulţumesc foarte mult.
Despre acest site

Acest site vă va prezenta videoclipuri de pe YouTube care sunt utile pentru a învăța limba engleză. Veți vedea lecții de engleză predate de profesori de top din întreaga lume. Faceți dublu clic pe subtitrările în limba engleză afișate pe fiecare pagină video pentru a reda videoclipul de acolo. Subtitrările se derulează în sincron cu redarea videoclipului. Dacă aveți comentarii sau solicitări, vă rugăm să ne contactați folosind acest formular de contact.

https://forms.gle/WvT1wiN1qDtmnspy7