A headset that reads your brainwaves | Tan Le

377,362 views ・ 2010-07-22

TED


Proszę kliknąć dwukrotnie na poniższe angielskie napisy, aby odtworzyć film.

Tłumaczenie: Piotr Gołofit Korekta: Marcin Kasiak
00:16
Up until now, our communication with machines
0
16260
2000
Aż do teraz, nasza komunikacja z maszynami
00:18
has always been limited
1
18260
2000
ograniczona była zawsze
00:20
to conscious and direct forms.
2
20260
2000
do świadomych i bezpośrednich postaci.
00:22
Whether it's something simple
3
22260
2000
Czy jest to coś prostego
00:24
like turning on the lights with a switch,
4
24260
2000
jak włączenie światła włącznikiem
00:26
or even as complex as programming robotics,
5
26260
3000
lub nawet coś tak skomplikowanego jak programowanie robotów,
00:29
we have always had to give a command to a machine,
6
29260
3000
zawsze musimy dać polecenie maszynie,
00:32
or even a series of commands,
7
32260
2000
lub nawet serię poleceń,
00:34
in order for it to do something for us.
8
34260
3000
aby zrobiła ona coś dla nas.
00:37
Communication between people, on the other hand,
9
37260
2000
Z drugiej strony, komunikacja między ludźmi
00:39
is far more complex and a lot more interesting
10
39260
3000
jest dalece bardziej złożona i dużo bardziej interesująca,
00:42
because we take into account
11
42260
2000
ponieważ bierzemy pod uwagę
00:44
so much more than what is explicitly expressed.
12
44260
3000
o wiele więcej niż to co jest wyraźnie wyrażane.
00:47
We observe facial expressions, body language,
13
47260
3000
Obserwujemy mimikę twarzy, język ciała,
00:50
and we can intuit feelings and emotions
14
50260
2000
i możemy wyczuć uczucia i emocje
00:52
from our dialogue with one another.
15
52260
3000
z dialogu pomiędzy sobą.
00:55
This actually forms a large part
16
55260
2000
Odgrywa to właściwie dużą rolę
00:57
of our decision-making process.
17
57260
2000
w procesie podejmowania naszych decyzji.
00:59
Our vision is to introduce
18
59260
2000
Naszą wizją jest wprowadzenie
01:01
this whole new realm of human interaction
19
61260
3000
tego całego nowego wymiaru ludzkiej interakcji
01:04
into human-computer interaction
20
64260
2000
w interakcję pomiędzy człowiekiem a komputerem,
01:06
so that computers can understand
21
66260
2000
tak aby komputery mogły zrozumieć
01:08
not only what you direct it to do,
22
68260
2000
nie tylko to co każemy im zrobić,
01:10
but it can also respond
23
70260
2000
ale aby mogły też reagować
01:12
to your facial expressions
24
72260
2000
na wasz wyraz twarzy
01:14
and emotional experiences.
25
74260
2000
oraz doświadczenia emocjonalne.
01:16
And what better way to do this
26
76260
2000
A jaki jest lepszy sposób na zrobienie tego
01:18
than by interpreting the signals
27
78260
2000
niż poprzez interpretowanie sygnałów
01:20
naturally produced by our brain,
28
80260
2000
naturalnie produkowanych przez nasze mózgi,
01:22
our center for control and experience.
29
82260
3000
nasz ośrodek odpowiadający za kontrolę i doświadczenie.
01:25
Well, it sounds like a pretty good idea,
30
85260
2000
Cóż, to brzmi jak całkiem dobry pomysł,
01:27
but this task, as Bruno mentioned,
31
87260
2000
jednak to zadanie, jak wspomniał Bruno,
01:29
isn't an easy one for two main reasons:
32
89260
3000
nie jest tak prostym z dwóch powodów:
01:32
First, the detection algorithms.
33
92260
3000
Pierwszy, algorytmy odpowiadające za wykrywanie.
01:35
Our brain is made up of
34
95260
2000
Nasz mózg zbudowany jest z
01:37
billions of active neurons,
35
97260
2000
miliardów aktywnych neuronów,
01:39
around 170,000 km
36
99260
3000
około 170 000 km
01:42
of combined axon length.
37
102260
2000
połączonych ze sobą aksonów.
01:44
When these neurons interact,
38
104260
2000
Kiedy te neurony oddziałują ze sobą,
01:46
the chemical reaction emits an electrical impulse,
39
106260
2000
reakcje chemiczne emitują impuls elektryczny,
01:48
which can be measured.
40
108260
2000
który może być zmierzony.
01:50
The majority of our functional brain
41
110260
3000
Większość naszej funkcjonalnej części mózgu
01:53
is distributed over
42
113260
2000
rozmieszczona jest na
01:55
the outer surface layer of the brain,
43
115260
2000
powierzchni zewnętrznej warstwy mózgu.
01:57
and to increase the area that's available for mental capacity,
44
117260
3000
A aby zwiększyć obszar dostępny dla zdolności intelektualnych,
02:00
the brain surface is highly folded.
45
120260
3000
powierzchnia mózgu jest wysoce pofałdowana.
02:03
Now this cortical folding
46
123260
2000
To korowe pofałdowanie
02:05
presents a significant challenge
47
125260
2000
stanowi znaczące wyzwanie
02:07
for interpreting surface electrical impulses.
48
127260
3000
dla interpretowania impulsów elektrycznych powierzchni.
02:10
Each individual's cortex
49
130260
2000
Kora każdej osoby
02:12
is folded differently,
50
132260
2000
jest pofałdowana inaczej,
02:14
very much like a fingerprint.
51
134260
2000
bardzo podobnie do odcisku palca.
02:16
So even though a signal
52
136260
2000
Więc pomimo tego, że sygnał
02:18
may come from the same functional part of the brain,
53
138260
3000
może pochodzić z funkcjonalnie tej samej części mózgu,
02:21
by the time the structure has been folded,
54
141260
2000
ale kiedy struktura zostanie pofałdowana,
02:23
its physical location
55
143260
2000
jej umiejscowienie
02:25
is very different between individuals,
56
145260
2000
jest inne u każdej osoby,
02:27
even identical twins.
57
147260
3000
nawet u bliźniąt jednojajowych.
02:30
There is no longer any consistency
58
150260
2000
Nie ma już żadnej zgodności
02:32
in the surface signals.
59
152260
2000
w sygnałach powierzchni.
02:34
Our breakthrough was to create an algorithm
60
154260
2000
Naszym przełomem było stworzenie algorytmu,
02:36
that unfolds the cortex,
61
156260
2000
który rozwija korę,
02:38
so that we can map the signals
62
158260
2000
tak abyśmy mogli odczytać współrzędne sygnału
02:40
closer to its source,
63
160260
2000
bliżej jego źródła,
02:42
and therefore making it capable of working across a mass population.
64
162260
3000
aby przez to umożliwić pracę na większości populacji.
02:46
The second challenge
65
166260
2000
Drugim wyzwaniem
02:48
is the actual device for observing brainwaves.
66
168260
3000
jest samo urządzenie do zapisywania fal mózgowych.
02:51
EEG measurements typically involve
67
171260
2000
Pomiar EEG zazwyczaj wiąże się z
02:53
a hairnet with an array of sensors,
68
173260
3000
użyciem siatki na włosy z szeregiem sensorów,
02:56
like the one that you can see here in the photo.
69
176260
3000
takiej jak ta, którą możecie zobaczyć na tym zdjęciu.
02:59
A technician will put the electrodes
70
179260
2000
Technik założy elektrody
03:01
onto the scalp
71
181260
2000
na skórę głowy
03:03
using a conductive gel or paste
72
183260
2000
używając przewodzącego żelu lub pasty
03:05
and usually after a procedure of preparing the scalp
73
185260
3000
zazwyczaj po przygotowaniu skóry głowy
03:08
by light abrasion.
74
188260
2000
przez jej lekkie otarcie.
03:10
Now this is quite time consuming
75
190260
2000
Jest to dość czasochłonny
03:12
and isn't the most comfortable process.
76
192260
2000
i nie najprzyjemniejszy proces.
03:14
And on top of that, these systems
77
194260
2000
I na domiar tego, te systemy
03:16
actually cost in the tens of thousands of dollars.
78
196260
3000
kosztują dziesiątki tysięcy dolarów.
03:20
So with that, I'd like to invite onstage
79
200260
3000
Chciałabym więc zaprosić na scenę
03:23
Evan Grant, who is one of last year's speakers,
80
203260
2000
Evana Granta, który jest jednym z zeszłorocznych mówców,
03:25
who's kindly agreed
81
205260
2000
który zgodził się życzliwie
03:27
to help me to demonstrate
82
207260
2000
pomóc mi zademonstrować
03:29
what we've been able to develop.
83
209260
2000
co udało nam się opracować.
03:31
(Applause)
84
211260
6000
(Oklaski)
03:37
So the device that you see
85
217260
2000
Urządzenie, które widzicie
03:39
is a 14-channel, high-fidelity
86
219260
2000
jest 14-kanałowym, wysoko czułym
03:41
EEG acquisition system.
87
221260
2000
rejestrującym systemem EEG.
03:43
It doesn't require any scalp preparation,
88
223260
3000
Nie wymaga żadnego przygotowania skóry głowy,
03:46
no conductive gel or paste.
89
226260
2000
żadnego przewodzącego żelu czy pasty.
03:48
It only takes a few minutes to put on
90
228260
3000
Tylko kilka minut zajmuje założenie go
03:51
and for the signals to settle.
91
231260
2000
i regulacja sygnałów.
03:53
It's also wireless,
92
233260
2000
Jest również bezprzewodowy,
03:55
so it gives you the freedom to move around.
93
235260
3000
daje więc wolność poruszania się.
03:58
And compared to the tens of thousands of dollars
94
238260
3000
A w porównaniu do dziesiątek tysięcy dolarów
04:01
for a traditional EEG system,
95
241260
3000
za tradycyjny system EEG,
04:04
this headset only costs
96
244260
2000
ten zestaw kosztuje tylko
04:06
a few hundred dollars.
97
246260
2000
kilkaset dolarów.
04:08
Now on to the detection algorithms.
98
248260
3000
A teraz o algorytmach wykrywających.
04:11
So facial expressions --
99
251260
2000
Mimika twarzy --
04:13
as I mentioned before in emotional experiences --
100
253260
2000
jak wspomniałam wcześniej, w doświadczeniach emocjonalnych --
04:15
are actually designed to work out of the box
101
255260
2000
jest właściwie zaprojektowana do kreatywnej pracy
04:17
with some sensitivity adjustments
102
257260
2000
z pewną regulacją czułości
04:19
available for personalization.
103
259260
3000
dostępną dla personalizacji.
04:22
But with the limited time we have available,
104
262260
2000
Ale przy ograniczonym czasie jaki mamy,
04:24
I'd like to show you the cognitive suite,
105
264260
2000
chciałabym pokazać wam zestaw poznawczy,
04:26
which is the ability for you
106
266260
2000
którym jest możliwość
04:28
to basically move virtual objects with your mind.
107
268260
3000
poruszania wirtualnym przedmiotem przy pomocy waszego umysłu.
04:32
Now, Evan is new to this system,
108
272260
2000
Evan jest nowy dla tego systemu
04:34
so what we have to do first
109
274260
2000
więc co musimy najpierw zrobić
04:36
is create a new profile for him.
110
276260
2000
to stworzyć dla niego nowy profil.
04:38
He's obviously not Joanne -- so we'll "add user."
111
278260
3000
Nie jest oczywiście Joanne -- a więc klikniemy "dodaj użytkownika"
04:41
Evan. Okay.
112
281260
2000
Evan. OK.
04:43
So the first thing we need to do with the cognitive suite
113
283260
3000
Pierwszą rzeczą jaką musimy zrobić z zestawem poznawczym
04:46
is to start with training
114
286260
2000
to zacząć od treningu
04:48
a neutral signal.
115
288260
2000
sygnału neutralnego.
04:50
With neutral, there's nothing in particular
116
290260
2000
Z sygnałem neutralnym, nie ma nic szczególnego
04:52
that Evan needs to do.
117
292260
2000
co Evan musi robić.
04:54
He just hangs out. He's relaxed.
118
294260
2000
Jest po prostu zrelaksowany.
04:56
And the idea is to establish a baseline
119
296260
2000
Chodzi o to aby ustanowić linię odniesienia
04:58
or normal state for his brain,
120
298260
2000
normalnego stanu jego mózgu,
05:00
because every brain is different.
121
300260
2000
ponieważ każdy mózg jest inny.
05:02
It takes eight seconds to do this,
122
302260
2000
Zajmuje to osiem sekund.
05:04
and now that that's done,
123
304260
2000
Teraz, kiedy to już jest zrobione,
05:06
we can choose a movement-based action.
124
306260
2000
możemy wybrać opartą na ruchu akcję.
05:08
So Evan, choose something
125
308260
2000
Więc, Evan, wybierz coś
05:10
that you can visualize clearly in your mind.
126
310260
2000
co możesz zwizualizować jasno w swoim umyśle.
05:12
Evan Grant: Let's do "pull."
127
312260
2000
Evan Grant: Zróbmy "przyciągnij".
05:14
Tan Le: Okay, so let's choose "pull."
128
314260
2000
Tan Le: OK. Wybierzmy więc "przyciągnij".
05:16
So the idea here now
129
316260
2000
Chodzi więc o to, że
05:18
is that Evan needs to
130
318260
2000
Evan musi
05:20
imagine the object coming forward
131
320260
2000
wyobrazić sobie obiekt przybliżający się
05:22
into the screen,
132
322260
2000
w kierunku ekranu.
05:24
and there's a progress bar that will scroll across the screen
133
324260
3000
Jest tutaj pasek postępu, który przewinie się poprzez ekran
05:27
while he's doing that.
134
327260
2000
kiedy on będzie to robił.
05:29
The first time, nothing will happen,
135
329260
2000
Za pierwszym razem, nic się nie stanie,
05:31
because the system has no idea how he thinks about "pull."
136
331260
3000
ponieważ system nie ma pojęcia jak on myśli o "przyciągnij".
05:34
But maintain that thought
137
334260
2000
Utrzymuj jednak tę myśl
05:36
for the entire duration of the eight seconds.
138
336260
2000
przez cały czas trwania ośmiu sekund.
05:38
So: one, two, three, go.
139
338260
3000
A więc: raz, dwa, trzy, start.
05:49
Okay.
140
349260
2000
OK.
05:51
So once we accept this,
141
351260
2000
Kiedy więc zaakceptujemy to,
05:53
the cube is live.
142
353260
2000
kostka jest żywa.
05:55
So let's see if Evan
143
355260
2000
Zobaczmy więc, czy Evan
05:57
can actually try and imagine pulling.
144
357260
3000
jest w stanie spróbować wyobrazić sobie przyciąganie.
06:00
Ah, good job!
145
360260
2000
Dobra robota!
06:02
(Applause)
146
362260
3000
(Oklaski)
06:05
That's really amazing.
147
365260
2000
To jest niesamowite.
06:07
(Applause)
148
367260
4000
(Oklaski)
06:11
So we have a little bit of time available,
149
371260
2000
Zostało nam jeszcze trochę czasu,
06:13
so I'm going to ask Evan
150
373260
2000
poproszę więc Evana
06:15
to do a really difficult task.
151
375260
2000
o wykonanie naprawdę trudnego zadania.
06:17
And this one is difficult
152
377260
2000
To jest trudne
06:19
because it's all about being able to visualize something
153
379260
3000
ponieważ chodzi tu o zdolność do zwizualizowania czegoś
06:22
that doesn't exist in our physical world.
154
382260
2000
co nie istnieje w naszym rzeczywistym świecie.
06:24
This is "disappear."
155
384260
2000
To jest "zniknij".
06:26
So what you want to do -- at least with movement-based actions,
156
386260
2000
Jeśli chodzi o oparte na ruchu akcje,
06:28
we do that all the time, so you can visualize it.
157
388260
3000
robimy to cały czas, możemy więc sobie to wyobrazić.
06:31
But with "disappear," there's really no analogies --
158
391260
2000
Ale ze "zniknij", nie ma tak naprawdę analogii.
06:33
so Evan, what you want to do here
159
393260
2000
A więc Evan, to co chcesz tu zrobić
06:35
is to imagine the cube slowly fading out, okay.
160
395260
3000
to wyobrazić sobie, że kostka powoli gaśnie, OK.
06:38
Same sort of drill. So: one, two, three, go.
161
398260
3000
To samo: raz, dwa, trzy, start.
06:50
Okay. Let's try that.
162
410260
3000
Ok. Spróbujmy tego.
06:53
Oh, my goodness. He's just too good.
163
413260
3000
O, mój boże. On jest po prostu za dobry.
06:57
Let's try that again.
164
417260
2000
Spróbujmy jeszcze raz.
07:04
EG: Losing concentration.
165
424260
2000
EG: Tracę koncentrację.
07:06
(Laughter)
166
426260
2000
(Śmiech)
07:08
TL: But we can see that it actually works,
167
428260
2000
TL: Widzimy więc, że to faktycznie działa,
07:10
even though you can only hold it
168
430260
2000
pomimo tego, że możesz to utrzymać
07:12
for a little bit of time.
169
432260
2000
przez krótki okres czasu.
07:14
As I said, it's a very difficult process
170
434260
3000
Tak jak powiedziałam, jest to bardzo trudny proces
07:17
to imagine this.
171
437260
2000
aby sobie to wyobrazić.
07:19
And the great thing about it is that
172
439260
2000
Wspaniałe w tym jest to,
07:21
we've only given the software one instance
173
441260
2000
że daliśmy programowi tylko jeden przykład tego
07:23
of how he thinks about "disappear."
174
443260
3000
jak on myśli o "zniknij".
07:26
As there is a machine learning algorithm in this --
175
446260
3000
Wbudowany jest tu algorytm uczący się --
07:29
(Applause)
176
449260
4000
(Oklaski)
07:33
Thank you.
177
453260
2000
Dziękuję.
07:35
Good job. Good job.
178
455260
3000
Dobra robota. Dobra robota.
07:38
(Applause)
179
458260
2000
(Oklaski)
07:40
Thank you, Evan, you're a wonderful, wonderful
180
460260
3000
Dziękuję, Evan, jesteś cudownym, cudownym
07:43
example of the technology.
181
463260
3000
przykładem tej technologii.
07:46
So, as you can see, before,
182
466260
2000
Tak jak mogliście zobaczyć,
07:48
there is a leveling system built into this software
183
468260
3000
wbudowany jest w ten program system poziomów
07:51
so that as Evan, or any user,
184
471260
2000
tak aby, kiedy Evan lub inny użytkownik,
07:53
becomes more familiar with the system,
185
473260
2000
staje się bardziej obeznany z tym systemem,
07:55
they can continue to add more and more detections,
186
475260
3000
mógł kontynuować dodawanie coraz więcej detektorów,
07:58
so that the system begins to differentiate
187
478260
2000
tak aby system różnicował
08:00
between different distinct thoughts.
188
480260
3000
pomiędzy różnymi, odmiennymi myślami.
08:04
And once you've trained up the detections,
189
484260
2000
Kiedy zaś wytrenujecie detektory,
08:06
these thoughts can be assigned or mapped
190
486260
2000
te myśli mogą zostać przyporządkowane lub zmapowane
08:08
to any computing platform,
191
488260
2000
do jakiegokolwiek komputera,
08:10
application or device.
192
490260
2000
aplikacji czy urządzenia.
08:12
So I'd like to show you a few examples,
193
492260
2000
Chciałabym więc pokazać wam kilka przykładów,
08:14
because there are many possible applications
194
494260
2000
istnieje bowiem wiele możliwych aplikacji
08:16
for this new interface.
195
496260
2000
dla tego nowego interfejsu.
08:19
In games and virtual worlds, for example,
196
499260
2000
W grach i świecie wirtualnym, na przykład,
08:21
your facial expressions
197
501260
2000
wasza mimika twarzy
08:23
can naturally and intuitively be used
198
503260
2000
może naturalnie i intuicyjnie być wykorzystana
08:25
to control an avatar or virtual character.
199
505260
3000
do kontrolowania avatara lub postaci.
08:29
Obviously, you can experience the fantasy of magic
200
509260
2000
Oczywiście, możecie doświadczyć fantazji magii
08:31
and control the world with your mind.
201
511260
3000
i kontrolować świat za pomocą umysłu.
08:36
And also, colors, lighting,
202
516260
3000
Również, kolory, oświetlenie,
08:39
sound and effects
203
519260
2000
dźwięki i efekty,
08:41
can dynamically respond to your emotional state
204
521260
2000
mogą dynamicznie odzwierciedlać wasz stan emocjonalny
08:43
to heighten the experience that you're having, in real time.
205
523260
3000
aby spotęgować doświadczenie które przeżywacie, w rzeczywistości.
08:47
And moving on to some applications
206
527260
2000
Jeśli chodzi o aplikacje
08:49
developed by developers and researchers around the world,
207
529260
3000
rozwinięte przez deweloperów i badaczy na całym świecie,
08:52
with robots and simple machines, for example --
208
532260
3000
z robotami i prostymi maszynami, na przykład
08:55
in this case, flying a toy helicopter
209
535260
2000
tutaj, latanie zabawkowym helikopterem
08:57
simply by thinking "lift" with your mind.
210
537260
3000
po prostu myśląc "podnieś".
09:00
The technology can also be applied
211
540260
2000
Technologia ta może również być zastosowana
09:02
to real world applications --
212
542260
2000
do rzeczywistych programów,
09:04
in this example, a smart home.
213
544260
2000
w tym przypadku, inteligentny dom.
09:06
You know, from the user interface of the control system
214
546260
3000
Interfejs użytkownika systemu kontrolującego może
09:09
to opening curtains
215
549260
2000
rozsuwać zasłony
09:11
or closing curtains.
216
551260
3000
albo je zasuwać.
09:22
And of course, also to the lighting --
217
562260
3000
I oczywiście również oświetlenie,
09:25
turning them on
218
565260
3000
włączanie go
09:28
or off.
219
568260
2000
lub wyłączanie.
09:30
And finally,
220
570260
2000
I w końcu
09:32
to real life-changing applications,
221
572260
2000
do prawdziwie zmieniających życie programów
09:34
such as being able to control an electric wheelchair.
222
574260
3000
takich jak możliwość kontrolowania elektrycznego wózka.
09:37
In this example,
223
577260
2000
W tym przypadku,
09:39
facial expressions are mapped to the movement commands.
224
579260
3000
mimika twarzy jest przyporządkowana do komend ruchu.
09:42
Man: Now blink right to go right.
225
582260
3000
Mężczyzna: Mrugnij prawym okiem aby skręcić w prawo.
09:50
Now blink left to turn back left.
226
590260
3000
Teraz mrugnij lewym aby skręcić w lewo.
10:02
Now smile to go straight.
227
602260
3000
A teraz uśmiechnij się aby pojechać do przodu.
10:08
TL: We really -- Thank you.
228
608260
2000
TL: Naprawdę. Dziękujemy.
10:10
(Applause)
229
610260
5000
(Oklaski)
10:15
We are really only scratching the surface of what is possible today,
230
615260
3000
Dotykamy tylko powierzchni tego co jest dzisiaj dostępne.
10:18
and with the community's input,
231
618260
2000
A z wkładem społeczności,
10:20
and also with the involvement of developers
232
620260
2000
jak również z zaangażowaniem deweloperów
10:22
and researchers from around the world,
233
622260
3000
i badaczy z całego świata,
10:25
we hope that you can help us to shape
234
625260
2000
mamy nadzieje, że pomożecie nam ukształtować
10:27
where the technology goes from here. Thank you so much.
235
627260
3000
to jak dalej rozwinie się ta technologia. Dziękuję bardzo.
O tej stronie

Na tej stronie poznasz filmy z YouTube, które są przydatne do nauki języka angielskiego. Zobaczysz lekcje angielskiego prowadzone przez najlepszych nauczycieli z całego świata. Kliknij dwukrotnie na angielskie napisy wyświetlane na stronie każdego filmu, aby odtworzyć film od tego miejsca. Napisy przewijają się synchronicznie z odtwarzaniem filmu. Jeśli masz jakieś uwagi lub prośby, skontaktuj się z nami za pomocą formularza kontaktowego.

https://forms.gle/WvT1wiN1qDtmnspy7