A headset that reads your brainwaves | Tan Le

377,362 views ・ 2010-07-22

TED


A videó lejátszásához kattintson duplán az alábbi angol feliratokra.

Fordító: Ildiko Szucsne Kozma Lektor: Júlia Martonosi
00:16
Up until now, our communication with machines
0
16260
2000
Máig a gépekkel való kommunikációnk
00:18
has always been limited
1
18260
2000
mindig is tudatos és közvetlen
00:20
to conscious and direct forms.
2
20260
2000
formákra korlátozódott.
00:22
Whether it's something simple
3
22260
2000
Akár valami olyan egyszerűről beszélünk,
00:24
like turning on the lights with a switch,
4
24260
2000
mint felkapcsolni egy villanyt egy kapcsolóval,
00:26
or even as complex as programming robotics,
5
26260
3000
vagy akár olyan komplex dologról, mint a robotok programozása,
00:29
we have always had to give a command to a machine,
6
29260
3000
mindig parancsot kellett adnunk egy gépnek,
00:32
or even a series of commands,
7
32260
2000
vagy akár egy sor parancsot is,
00:34
in order for it to do something for us.
8
34260
3000
azért, hogy valamit megtegyen számunkra.
00:37
Communication between people, on the other hand,
9
37260
2000
Az emberek közötti kommunikáció ugyanakkor
00:39
is far more complex and a lot more interesting
10
39260
3000
sokkal összetettebb és sokkal érdekesebb,
00:42
because we take into account
11
42260
2000
mert sokkal több mindent figyelembe veszünk,
00:44
so much more than what is explicitly expressed.
12
44260
3000
mint amit határozottan kifejezünk.
00:47
We observe facial expressions, body language,
13
47260
3000
Megfigyeljük az arckifejezéseket, a testbeszédet,
00:50
and we can intuit feelings and emotions
14
50260
2000
és ösztönösen megértünk érzéseket és érzelmeket
00:52
from our dialogue with one another.
15
52260
3000
az egymással való beszélgetésből.
00:55
This actually forms a large part
16
55260
2000
Valójában ez képezi
00:57
of our decision-making process.
17
57260
2000
a döntéshozatali folyamat nagy részét.
00:59
Our vision is to introduce
18
59260
2000
A mi elképzelésünk az, hogy bemutatjuk
01:01
this whole new realm of human interaction
19
61260
3000
az emberi kommunikáció új birodalmát
01:04
into human-computer interaction
20
64260
2000
az ember-számítógép kommunikációt,
01:06
so that computers can understand
21
66260
2000
ahol a számítógépek képesek megérteni
01:08
not only what you direct it to do,
22
68260
2000
nem csak azt, amire utasítjuk azokat,
01:10
but it can also respond
23
70260
2000
hanem válaszolni is tudnak
01:12
to your facial expressions
24
72260
2000
az arckifejezésekre
01:14
and emotional experiences.
25
74260
2000
és érzelmi tapasztalatokra.
01:16
And what better way to do this
26
76260
2000
És mi lehet jobb módja ennek,
01:18
than by interpreting the signals
27
78260
2000
mint azoknak a jeleknek a lefordítása,
01:20
naturally produced by our brain,
28
80260
2000
amiket természetes módon az agyunk állít elő,
01:22
our center for control and experience.
29
82260
3000
az irányításért és tapasztalatokért felelős központunk.
01:25
Well, it sounds like a pretty good idea,
30
85260
2000
Nos, ez nagyon jó ötletnek hangzik,
01:27
but this task, as Bruno mentioned,
31
87260
2000
de ez a feladat, ahogyan Bruno is említette,
01:29
isn't an easy one for two main reasons:
32
89260
3000
két fő okból sem könnyű:
01:32
First, the detection algorithms.
33
92260
3000
Először is a felismerő algoritmusok miatt.
01:35
Our brain is made up of
34
95260
2000
Az agyunk milliárdnyi
01:37
billions of active neurons,
35
97260
2000
aktív neuronból áll,
01:39
around 170,000 km
36
99260
3000
mintegy 170.000 km-nyi
01:42
of combined axon length.
37
102260
2000
kombinált axon hosszúsággal.
01:44
When these neurons interact,
38
104260
2000
Amikor ezek a neuronok kommunikálnak,
01:46
the chemical reaction emits an electrical impulse,
39
106260
2000
a kémiai reakció egy elektromos impulzust bocsát ki,
01:48
which can be measured.
40
108260
2000
ami mérhető formájú.
01:50
The majority of our functional brain
41
110260
3000
Agyunk funkcionális részének többsége
01:53
is distributed over
42
113260
2000
eloszlik
01:55
the outer surface layer of the brain,
43
115260
2000
az agy külső felületén.
01:57
and to increase the area that's available for mental capacity,
44
117260
3000
Annak érdekében, hogy növeljük a mentális kapacitás területét,
02:00
the brain surface is highly folded.
45
120260
3000
az agy felszíne erősen redőzött.
02:03
Now this cortical folding
46
123260
2000
Nos ez a kortikus redő
02:05
presents a significant challenge
47
125260
2000
nagy kihívást jelent
02:07
for interpreting surface electrical impulses.
48
127260
3000
a felszíni elektromos impulzusok fordítása során.
02:10
Each individual's cortex
49
130260
2000
Minden egyes ember cortex-e
02:12
is folded differently,
50
132260
2000
eltérően redőzött,
02:14
very much like a fingerprint.
51
134260
2000
akárcsak az ujjlenyomatunk.
02:16
So even though a signal
52
136260
2000
Így még akkor is, ha egy jel
02:18
may come from the same functional part of the brain,
53
138260
3000
érkezik a funkcionális részből,
02:21
by the time the structure has been folded,
54
141260
2000
mire a redőzött felületet eléri,
02:23
its physical location
55
143260
2000
a fizikai helye
02:25
is very different between individuals,
56
145260
2000
nagyon különböző lesz személyenként,
02:27
even identical twins.
57
147260
3000
még egypetéjű ikreknél is.
02:30
There is no longer any consistency
58
150260
2000
A felszíni jelek esetében
02:32
in the surface signals.
59
152260
2000
megszűnik a konzisztencia.
02:34
Our breakthrough was to create an algorithm
60
154260
2000
Az áttörésünk az volt, hogy létrehoztunk egy algoritmust
02:36
that unfolds the cortex,
61
156260
2000
ami kisimítja a cortex redőit,
02:38
so that we can map the signals
62
158260
2000
így feltérképezhetjük a jeleket
02:40
closer to its source,
63
160260
2000
és közelebb kerülünk azok forrásához,
02:42
and therefore making it capable of working across a mass population.
64
162260
3000
és ez teszi lehetővé a működését különböző emberek sokaságán is.
02:46
The second challenge
65
166260
2000
A második kihívást
02:48
is the actual device for observing brainwaves.
66
168260
3000
maga az agyhullámokat megfigyelő eszköz jelenti.
02:51
EEG measurements typically involve
67
171260
2000
Az EEG mérések esetében általában
02:53
a hairnet with an array of sensors,
68
173260
3000
egy szenzorokkal felszerelt hajhálót használnak,
02:56
like the one that you can see here in the photo.
69
176260
3000
amilyet ezen a fotón is láthatnak.
02:59
A technician will put the electrodes
70
179260
2000
A technikus a hajas fejbőrre
03:01
onto the scalp
71
181260
2000
helyezi az elektródákat,
03:03
using a conductive gel or paste
72
183260
2000
egy vezetőképes zselével vagy krémmel
03:05
and usually after a procedure of preparing the scalp
73
185260
3000
és mindezt azután teszi, hogy előkészítette a fejbőrt
03:08
by light abrasion.
74
188260
2000
enyhe dörzsöléssel.
03:10
Now this is quite time consuming
75
190260
2000
Nos ez eléggé időigényes,
03:12
and isn't the most comfortable process.
76
192260
2000
és nem a legkényelmesebb folyamat.
03:14
And on top of that, these systems
77
194260
2000
És mindezek felett, ezek a rendszerek
03:16
actually cost in the tens of thousands of dollars.
78
196260
3000
több tízezer dollárba kerülnek.
03:20
So with that, I'd like to invite onstage
79
200260
3000
Ezek után szeretném a színpadra hívni
03:23
Evan Grant, who is one of last year's speakers,
80
203260
2000
Evan Grant-et, aki az egyik tavalyi előadó volt,
03:25
who's kindly agreed
81
205260
2000
és készségesen beleegyezett
03:27
to help me to demonstrate
82
207260
2000
hogy segít nekem bemutatni
03:29
what we've been able to develop.
83
209260
2000
mit tudtunk kifejleszteni.
03:31
(Applause)
84
211260
6000
(Taps)
03:37
So the device that you see
85
217260
2000
Tehát az eszköz, amit látnak
03:39
is a 14-channel, high-fidelity
86
219260
2000
egy 14 csatornás, nagy pontosságú
03:41
EEG acquisition system.
87
221260
2000
EEG-vevő rendszer.
03:43
It doesn't require any scalp preparation,
88
223260
3000
Nem igényel semmilyen fejbőr előkészítést,
03:46
no conductive gel or paste.
89
226260
2000
nincs szükség vezetőképes gélre vagy krémre.
03:48
It only takes a few minutes to put on
90
228260
3000
Csak pár perc, amíg felvesszük,
03:51
and for the signals to settle.
91
231260
2000
és felismeri a jeleket.
03:53
It's also wireless,
92
233260
2000
Vezeték nélküli,
03:55
so it gives you the freedom to move around.
93
235260
3000
így megadja a mozgás szabadságát.
03:58
And compared to the tens of thousands of dollars
94
238260
3000
És a több tízezer dollárhoz képest,
04:01
for a traditional EEG system,
95
241260
3000
amibe egy hagyományos EEG rendszer kerül,
04:04
this headset only costs
96
244260
2000
ez a headset csupán
04:06
a few hundred dollars.
97
246260
2000
néhány száz dollárba kerül.
04:08
Now on to the detection algorithms.
98
248260
3000
Rátérek a felismerő algoritmusra.
04:11
So facial expressions --
99
251260
2000
Szóval az arckifejezések --
04:13
as I mentioned before in emotional experiences --
100
253260
2000
amint korábban már említettem az érzelmi tapasztalatokat --
04:15
are actually designed to work out of the box
101
255260
2000
tulajdonképpen hasonlóan működnek
04:17
with some sensitivity adjustments
102
257260
2000
néhány érzékenységi kiigazítással
04:19
available for personalization.
103
259260
3000
ahhoz, hogy személyessé tegyük ezeket.
04:22
But with the limited time we have available,
104
262260
2000
Mivel azonban szorít a rendelkezésre álló idő,
04:24
I'd like to show you the cognitive suite,
105
264260
2000
szeretném megmutatni az észlelő berendezést,
04:26
which is the ability for you
106
266260
2000
ami képessé tesz minket arra,
04:28
to basically move virtual objects with your mind.
107
268260
3000
hogy virtuális tárgyakat mozgassunk a gondolatainkkal.
04:32
Now, Evan is new to this system,
108
272260
2000
Nos, Evan új a rendszer használatában,
04:34
so what we have to do first
109
274260
2000
szóval amit először tennünk kell,
04:36
is create a new profile for him.
110
276260
2000
hogy létrehozunk egy új profilt neki.
04:38
He's obviously not Joanne -- so we'll "add user."
111
278260
3000
Ő természetesen nem Joanne - így "hozzáadunk egy felhasználót".
04:41
Evan. Okay.
112
281260
2000
Evan. OK.
04:43
So the first thing we need to do with the cognitive suite
113
283260
3000
Szóval az első, amit tennünk kell az észlelő berendezéssel,
04:46
is to start with training
114
286260
2000
hogy elkezdjük edzeni
04:48
a neutral signal.
115
288260
2000
egy semleges jellel.
04:50
With neutral, there's nothing in particular
116
290260
2000
A semleges jel esetében Evannak
04:52
that Evan needs to do.
117
292260
2000
semmi különöset nem kell csinálnia.
04:54
He just hangs out. He's relaxed.
118
294260
2000
Ő csak vár. Nyugodtan.
04:56
And the idea is to establish a baseline
119
296260
2000
Az ötlet az, hogy létrehozzunk egy alapot
04:58
or normal state for his brain,
120
298260
2000
avagy az agy normál állapotát,
05:00
because every brain is different.
121
300260
2000
mert minden agy más.
05:02
It takes eight seconds to do this,
122
302260
2000
Ez 8 másodpercbe telik.
05:04
and now that that's done,
123
304260
2000
És most, hogy ezt megcsináltuk,
05:06
we can choose a movement-based action.
124
306260
2000
választhatunk egy mozgásalapú cselekvést.
05:08
So Evan, choose something
125
308260
2000
Szóval Evan választ valamit
05:10
that you can visualize clearly in your mind.
126
310260
2000
amit világosan el tud képzelni az elméjében.
05:12
Evan Grant: Let's do "pull."
127
312260
2000
Evan Grant: Legyen a "húz" mozdulat.
05:14
Tan Le: Okay, so let's choose "pull."
128
314260
2000
Tan Le: OK. Szóval válasszuk a "húzás"-t.
05:16
So the idea here now
129
316260
2000
Szóval az az ötlet
05:18
is that Evan needs to
130
318260
2000
hogy Evannak el kell képzelnie
05:20
imagine the object coming forward
131
320260
2000
hogy a tárgy előre mozdul
05:22
into the screen,
132
322260
2000
a képernyőn.
05:24
and there's a progress bar that will scroll across the screen
133
324260
3000
Egy folyamatjelző fog megjelenni a képernyőn,
05:27
while he's doing that.
134
327260
2000
amint ezt csinálja.
05:29
The first time, nothing will happen,
135
329260
2000
Első alkalommal semmi sem fog történni,
05:31
because the system has no idea how he thinks about "pull."
136
331260
3000
mert a rendszernek fogalma sincs arról, hogy ő mit gondol a "húzás"-ról.
05:34
But maintain that thought
137
334260
2000
De tartsuk meg ezt a gondolatot
05:36
for the entire duration of the eight seconds.
138
336260
2000
a teljes 8 másodpercen keresztül.
05:38
So: one, two, three, go.
139
338260
3000
Szóval: egy, két, há', rajta.
05:49
Okay.
140
349260
2000
OK.
05:51
So once we accept this,
141
351260
2000
Szóval ha elfogadjuk ezt,
05:53
the cube is live.
142
353260
2000
akkor a kocka életre kel.
05:55
So let's see if Evan
143
355260
2000
Lássuk, hogy Evan
05:57
can actually try and imagine pulling.
144
357260
3000
megpróbálja-e elképzelni a húzást.
06:00
Ah, good job!
145
360260
2000
Á, jó munka!
06:02
(Applause)
146
362260
3000
(Taps)
06:05
That's really amazing.
147
365260
2000
Ez egészen elképesztő!
06:07
(Applause)
148
367260
4000
(Taps)
06:11
So we have a little bit of time available,
149
371260
2000
Szóval van még egy kis időnk,
06:13
so I'm going to ask Evan
150
373260
2000
ezért megkérem Evant
06:15
to do a really difficult task.
151
375260
2000
hogy valami igazán nehéz feladatot hajtson végre.
06:17
And this one is difficult
152
377260
2000
Ez azért lesz nehéz,
06:19
because it's all about being able to visualize something
153
379260
3000
mert valami olyat kell elképzelnie,
06:22
that doesn't exist in our physical world.
154
382260
2000
ami nem létezik a fizikai világunkban.
06:24
This is "disappear."
155
384260
2000
Ez az "eltűnés".
06:26
So what you want to do -- at least with movement-based actions,
156
386260
2000
Szóval a mozgásalapú cselekvéseket
06:28
we do that all the time, so you can visualize it.
157
388260
3000
állandóan csináljuk, ezért tudjuk vizualizálni is.
06:31
But with "disappear," there's really no analogies --
158
391260
2000
De mi a helyzet az "eltűnés"-sel?, igazából nincs analógia.
06:33
so Evan, what you want to do here
159
393260
2000
Szóval Evan, amit te csinálni akarsz,
06:35
is to imagine the cube slowly fading out, okay.
160
395260
3000
hogy elképzeled, amint a kocka lassan eltűnik, ok?
06:38
Same sort of drill. So: one, two, three, go.
161
398260
3000
Ugyanaz a gyakorlat. Szóval: egy, két, há', rajta.
06:50
Okay. Let's try that.
162
410260
3000
Ok. Próbáljuk meg ezt.
06:53
Oh, my goodness. He's just too good.
163
413260
3000
Ó, te jó ég. Ő egyszerűen túl jó!
06:57
Let's try that again.
164
417260
2000
Próbáljuk meg újra.
07:04
EG: Losing concentration.
165
424260
2000
EG: Nem tudok koncentrálni.
07:06
(Laughter)
166
426260
2000
(Nevetés)
07:08
TL: But we can see that it actually works,
167
428260
2000
TL: De látjuk, hogy igazából működik,
07:10
even though you can only hold it
168
430260
2000
még akkor is, ha csak kis időre
07:12
for a little bit of time.
169
432260
2000
tudod megtartani.
07:14
As I said, it's a very difficult process
170
434260
3000
És ahogy mondtam,
07:17
to imagine this.
171
437260
2000
ezt nagyon bonyolult elképzelni.
07:19
And the great thing about it is that
172
439260
2000
És a nagyszerű ebben az,
07:21
we've only given the software one instance
173
441260
2000
hogy a szoftvernek csak egyszer mondtuk meg,
07:23
of how he thinks about "disappear."
174
443260
3000
hogy ő hogyan gondolkodik az "eltűnés"-ről.
07:26
As there is a machine learning algorithm in this --
175
446260
3000
És egy tanulékony gépi algoritmus van emögött.
07:29
(Applause)
176
449260
4000
(Taps)
07:33
Thank you.
177
453260
2000
Köszönöm.
07:35
Good job. Good job.
178
455260
3000
Jó munka! Nagyszerű!
07:38
(Applause)
179
458260
2000
(Taps)
07:40
Thank you, Evan, you're a wonderful, wonderful
180
460260
3000
Köszönöm Evan, csodálatos vagy,
07:43
example of the technology.
181
463260
3000
lenyűgöző példa ez a technológiára.
07:46
So, as you can see, before,
182
466260
2000
Szóval ahogy látták korábban,
07:48
there is a leveling system built into this software
183
468260
3000
egy fokozatokat felismerő rendszer van a szoftverbe építve
07:51
so that as Evan, or any user,
184
471260
2000
azért, hogy Evan és bármilyen felhasználó,
07:53
becomes more familiar with the system,
185
473260
2000
ahogy egyre jobban megismeri a rendszert,
07:55
they can continue to add more and more detections,
186
475260
3000
képes legyen több és több felismerést hozzáadni,
07:58
so that the system begins to differentiate
187
478260
2000
hogy a rendszer elkezdje megkülönböztetni
08:00
between different distinct thoughts.
188
480260
3000
a különböző gondolatokat.
08:04
And once you've trained up the detections,
189
484260
2000
És amint megtanítottuk a felismerésekre,
08:06
these thoughts can be assigned or mapped
190
486260
2000
ezeket a gondolatokat továbbítani vagy térképezni lehet
08:08
to any computing platform,
191
488260
2000
bármilyen számítógépes platformnak,
08:10
application or device.
192
490260
2000
alkalmazásnak vagy eszköznek.
08:12
So I'd like to show you a few examples,
193
492260
2000
Szóval szeretnék Önöknek néhány példát mutatni,
08:14
because there are many possible applications
194
494260
2000
mert sok lehetséges alkalmazási lehetőség van
08:16
for this new interface.
195
496260
2000
ezzel az új interfésszel kapcsolatban.
08:19
In games and virtual worlds, for example,
196
499260
2000
Játékokban és a virtuális világokban, például,
08:21
your facial expressions
197
501260
2000
az arckifejezéseinket
08:23
can naturally and intuitively be used
198
503260
2000
természetesen és ösztönösen használjuk,
08:25
to control an avatar or virtual character.
199
505260
3000
hogy irányítsunk egy avatart vagy virtuálist karaktert.
08:29
Obviously, you can experience the fantasy of magic
200
509260
2000
Értelemszerűen megtapasztalhatjuk a varázslat fantasztikumát
08:31
and control the world with your mind.
201
511260
3000
és a világot az értelmünkkel irányíthatjuk.
08:36
And also, colors, lighting,
202
516260
3000
Sőt a színek, a világítás,
08:39
sound and effects
203
519260
2000
a hangok és effektek,
08:41
can dynamically respond to your emotional state
204
521260
2000
dinamikusan válaszolhatnak az érzelmi állapotunkra
08:43
to heighten the experience that you're having, in real time.
205
523260
3000
hogy mélyítsék a tapasztalatunkat, valós időben.
08:47
And moving on to some applications
206
527260
2000
Rátérve néhány konkrét alkalmazásra
08:49
developed by developers and researchers around the world,
207
529260
3000
amit fejlesztők és kutatók alkottak a világon,
08:52
with robots and simple machines, for example --
208
532260
3000
robotokkal és egyszerű gépekkel, például --
08:55
in this case, flying a toy helicopter
209
535260
2000
ebben az esetben: egy játék helikoptert
08:57
simply by thinking "lift" with your mind.
210
537260
3000
tudunk irányítani pusztán azzal, hogy az emelkedésre gondolunk.
09:00
The technology can also be applied
211
540260
2000
A technológiát alkalmazhatjuk
09:02
to real world applications --
212
542260
2000
a valódi világban használt eszközökre is --
09:04
in this example, a smart home.
213
544260
2000
ebben a példában egy okos otthont látunk.
09:06
You know, from the user interface of the control system
214
546260
3000
Tudják, a irányító rendszer felhasználói felületétől
09:09
to opening curtains
215
549260
2000
a függönyök elhúzásáig
09:11
or closing curtains.
216
551260
3000
vagy a függőnyök behúzásáig.
09:22
And of course, also to the lighting --
217
562260
3000
És persze a világításig --
09:25
turning them on
218
565260
3000
felkapcsolni
09:28
or off.
219
568260
2000
vagy lekapcsolni.
09:30
And finally,
220
570260
2000
És végül,
09:32
to real life-changing applications,
221
572260
2000
egészen életet megváltoztató alkalmazásokig
09:34
such as being able to control an electric wheelchair.
222
574260
3000
mint az, hogy képesek vagyunk irányítani egy elektromos tolószéket.
09:37
In this example,
223
577260
2000
Ebben a példában,
09:39
facial expressions are mapped to the movement commands.
224
579260
3000
az arckifejezéseket párosítottuk a mozgásparancsokkal.
09:42
Man: Now blink right to go right.
225
582260
3000
Férfi: Most pislogjon a jobb szemével, hogy jobbra forduljon.
09:50
Now blink left to turn back left.
226
590260
3000
Most pislogjon a bal szemével, hogy balra forduljon.
10:02
Now smile to go straight.
227
602260
3000
Most mosolyogjon, hogy egyenesen haladjon.
10:08
TL: We really -- Thank you.
228
608260
2000
TL: Mi igazán -- Köszönöm.
10:10
(Applause)
229
610260
5000
(Taps)
10:15
We are really only scratching the surface of what is possible today,
230
615260
3000
Mi tényleg csak súroljuk a felszínét annak, ami ma lehetséges.
10:18
and with the community's input,
231
618260
2000
És a közösség ötleteivel,
10:20
and also with the involvement of developers
232
620260
2000
és a fejlesztők és kutatók
10:22
and researchers from around the world,
233
622260
3000
bevonásával a világon,
10:25
we hope that you can help us to shape
234
625260
2000
reméljük, hogy tudnak segíteni formálni
10:27
where the technology goes from here. Thank you so much.
235
627260
3000
hová is halad a technológia innen. Nagyon köszönöm.
Erről a weboldalról

Ez az oldal olyan YouTube-videókat mutat be, amelyek hasznosak az angol nyelvtanuláshoz. A világ minden tájáról származó, kiváló tanárok által tartott angol leckéket láthatsz. Az egyes videók oldalán megjelenő angol feliratokra duplán kattintva onnan játszhatja le a videót. A feliratok a videó lejátszásával szinkronban gördülnek. Ha bármilyen észrevétele vagy kérése van, kérjük, lépjen kapcsolatba velünk ezen a kapcsolatfelvételi űrlapon.

https://forms.gle/WvT1wiN1qDtmnspy7