A headset that reads your brainwaves | Tan Le

376,987 views ・ 2010-07-22

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: Sunphil Ga 검토: Seo Rim Kim
00:16
Up until now, our communication with machines
0
16260
2000
지금까지, 기계를 통한 우리의 커뮤니케이션은
00:18
has always been limited
1
18260
2000
의식, 분명한 형태 부분에서는
00:20
to conscious and direct forms.
2
20260
2000
언제나 한계가 있습니다.
00:22
Whether it's something simple
3
22260
2000
스위치로 불을 키는 것과 같이
00:24
like turning on the lights with a switch,
4
24260
2000
간다하거나 혹은 심지어
00:26
or even as complex as programming robotics,
5
26260
3000
로봇 프로그래밍과 같이 복잡합니다,
00:29
we have always had to give a command to a machine,
6
29260
3000
우리는 기계에 명령 체계를 줍니다
00:32
or even a series of commands,
7
32260
2000
우리를 위해 무언가를
00:34
in order for it to do something for us.
8
34260
3000
실행시키기 위한 것이죠.
00:37
Communication between people, on the other hand,
9
37260
2000
반대로 사람들 사이의 커뮤니케이션은 좀 더 복잡하거나
00:39
is far more complex and a lot more interesting
10
39260
3000
더욱더 흥미롭습니다,
00:42
because we take into account
11
42260
2000
왜냐하면 우리가 좀더
00:44
so much more than what is explicitly expressed.
12
44260
3000
뚜렷하게 감정을 고려하기 때문입니다.
00:47
We observe facial expressions, body language,
13
47260
3000
우리는 얼굴 표정, 몸의 움직임을 관찰합니다,
00:50
and we can intuit feelings and emotions
14
50260
2000
우리는 상대방과의 대화에서 오는
00:52
from our dialogue with one another.
15
52260
3000
감정과 느낌을 직관적으로 느낄 수 있습니다.
00:55
This actually forms a large part
16
55260
2000
실제로 우리의 의사결정에
00:57
of our decision-making process.
17
57260
2000
큰 부분을 차지고하고 있죠.
00:59
Our vision is to introduce
18
59260
2000
우리의 비젼은
01:01
this whole new realm of human interaction
19
61260
3000
큰 범위에서의 인간의 교류를
01:04
into human-computer interaction
20
64260
2000
인간-컴퓨터 교류에 소개하고 합니다,
01:06
so that computers can understand
21
66260
2000
그래서 컴퓨터가 바로 실행하고자 하는 것을
01:08
not only what you direct it to do,
22
68260
2000
이해할 뿐만 아니라,
01:10
but it can also respond
23
70260
2000
또한 얼굴 표정
01:12
to your facial expressions
24
72260
2000
감정 경험에
01:14
and emotional experiences.
25
74260
2000
응답할 수 있습니다.
01:16
And what better way to do this
26
76260
2000
신호를 해석하는 것보다
01:18
than by interpreting the signals
27
78260
2000
이것을 더 잘 실행시키는 방법은
01:20
naturally produced by our brain,
28
80260
2000
뇌를 통해 조종과 경험을
01:22
our center for control and experience.
29
82260
3000
할 수 있게 합니다.
01:25
Well, it sounds like a pretty good idea,
30
85260
2000
음, 정말 좋은 아이디어 같습니다,
01:27
but this task, as Bruno mentioned,
31
87260
2000
하지만 이 작업은, 부르노가 언급하신 것처럼,
01:29
isn't an easy one for two main reasons:
32
89260
3000
두 가지 주요 문제로 인해 쉽지는 않죠:
01:32
First, the detection algorithms.
33
92260
3000
첫 째, 알고리즘 추정입니다.
01:35
Our brain is made up of
34
95260
2000
우리의 뇌는 170,000km의
01:37
billions of active neurons,
35
97260
2000
축색돌기를 둘러싸고 있는
01:39
around 170,000 km
36
99260
3000
수십억개의 활동적인
01:42
of combined axon length.
37
102260
2000
뉴런으로 만들어졌습니다.
01:44
When these neurons interact,
38
104260
2000
이 뉴런들이 서로 신호를 보낼 때,
01:46
the chemical reaction emits an electrical impulse,
39
106260
2000
화학적인 반응이 전기적 신호를 방출합니다
01:48
which can be measured.
40
108260
2000
이 신호는 측정될 수 있습니다.
01:50
The majority of our functional brain
41
110260
3000
큰 기능을 당담하고 있는 뇌는
01:53
is distributed over
42
113260
2000
바깥쪽 부분에
01:55
the outer surface layer of the brain,
43
115260
2000
분포하고 있습니다.
01:57
and to increase the area that's available for mental capacity,
44
117260
3000
정신 수용이 가능한 이 영역을 증가시키기 위해,
02:00
the brain surface is highly folded.
45
120260
3000
뇌의 표면은 매우 접혀있는 상태입니다.
02:03
Now this cortical folding
46
123260
2000
이 접혀진 대뇌 피질은
02:05
presents a significant challenge
47
125260
2000
분명한 도전을 보여줍니다
02:07
for interpreting surface electrical impulses.
48
127260
3000
뇌 표면의 전기적 신호를 해석하기 위한 것이죠.
02:10
Each individual's cortex
49
130260
2000
개인의 피질은
02:12
is folded differently,
50
132260
2000
다르게 접혀있습니다,
02:14
very much like a fingerprint.
51
134260
2000
마치 지문과 같습니다.
02:16
So even though a signal
52
136260
2000
그래서 비록 하나의 신호가
02:18
may come from the same functional part of the brain,
53
138260
3000
접혀진 구조적 시간에 의해
02:21
by the time the structure has been folded,
54
141260
2000
기능적으로 같은 뇌 부분에서 왔다고 해도,
02:23
its physical location
55
143260
2000
물리적인 의치는
02:25
is very different between individuals,
56
145260
2000
개인마다 매우 다릅니다,
02:27
even identical twins.
57
147260
3000
심지어 쌍둥이도 다르죠.
02:30
There is no longer any consistency
58
150260
2000
표면의 신호가 더이상
02:32
in the surface signals.
59
152260
2000
지속적이지 않습니다.
02:34
Our breakthrough was to create an algorithm
60
154260
2000
우리의 도전은 피질을 나타내는 알고리즘을
02:36
that unfolds the cortex,
61
156260
2000
만들어 내는 것입니다,
02:38
so that we can map the signals
62
158260
2000
그래서 우리는 이 신호를
02:40
closer to its source,
63
160260
2000
지도화 할 수 있습니다,
02:42
and therefore making it capable of working across a mass population.
64
162260
3000
그래서 큰 많은 일들을 가능할 수 있도록 합니다.
02:46
The second challenge
65
166260
2000
두 번째 도전은
02:48
is the actual device for observing brainwaves.
66
168260
3000
뇌파를 관찰하는 실질적인 도구입니다.
02:51
EEG measurements typically involve
67
171260
2000
EEG 측정장치는 표준적으로
02:53
a hairnet with an array of sensors,
68
173260
3000
센서 병렬이 있는 헬멧을 포함하죠,
02:56
like the one that you can see here in the photo.
69
176260
3000
지금 사진에서 보시는 것과 같은 것입니다.
02:59
A technician will put the electrodes
70
179260
2000
기술자는 전극을 두피 위에
03:01
onto the scalp
71
181260
2000
올려놓습니다
03:03
using a conductive gel or paste
72
183260
2000
전도성의 젤 혹은 접착류를 사용합니다
03:05
and usually after a procedure of preparing the scalp
73
185260
3000
보통 두피에 작은 자극에 의한 준비과정 이후의
03:08
by light abrasion.
74
188260
2000
일이죠
03:10
Now this is quite time consuming
75
190260
2000
지금 이것은 꽤 시간을 소비하고 있습니다
03:12
and isn't the most comfortable process.
76
192260
2000
하지만 가장 좋은 프로세스는 아닙니다.
03:14
And on top of that, these systems
77
194260
2000
이 시스템은 실질적으로
03:16
actually cost in the tens of thousands of dollars.
78
196260
3000
수 만달러의 가격입니다.
03:20
So with that, I'd like to invite onstage
79
200260
3000
그래서 이 장치와 함께, 저는 에븐 그랜트씨를
03:23
Evan Grant, who is one of last year's speakers,
80
203260
2000
무대에 초대하고자 합니다, 그는 작년 연설자이셨고,
03:25
who's kindly agreed
81
205260
2000
친절하게도 우리가
03:27
to help me to demonstrate
82
207260
2000
개발했던 프로그램 시연을
03:29
what we've been able to develop.
83
209260
2000
도움 주시기로 허락 해주셨습니다.
03:31
(Applause)
84
211260
6000
(박수)
03:37
So the device that you see
85
217260
2000
보고계신 이 장치는
03:39
is a 14-channel, high-fidelity
86
219260
2000
14개의 채널, 고성능
03:41
EEG acquisition system.
87
221260
2000
EEG 수신 시스템입니다.
03:43
It doesn't require any scalp preparation,
88
223260
3000
두피 준비과정, 전도성의
03:46
no conductive gel or paste.
89
226260
2000
젤 혹은 접착률를 필요로 하지 않습니다.
03:48
It only takes a few minutes to put on
90
228260
3000
이 장치는 착용하고 신호가 정착되는데
03:51
and for the signals to settle.
91
231260
2000
짧은 시간이 걸립니다.
03:53
It's also wireless,
92
233260
2000
게다가 무선이죠,
03:55
so it gives you the freedom to move around.
93
235260
3000
그래서 우리에게 이동의 자유로움을 주죠.
03:58
And compared to the tens of thousands of dollars
94
238260
3000
수 만 달러가 드는 EEG 시스템과 비교해서
04:01
for a traditional EEG system,
95
241260
3000
이 헤드셋은
04:04
this headset only costs
96
244260
2000
오직 수백달러 정도
04:06
a few hundred dollars.
97
246260
2000
비용이 들죠.
04:08
Now on to the detection algorithms.
98
248260
3000
알고리즘 추적에 관해서 말이죠.
04:11
So facial expressions --
99
251260
2000
안면 표현력은 --
04:13
as I mentioned before in emotional experiences --
100
253260
2000
제가 이전에 언급했던 감정 표현들은 --
04:15
are actually designed to work out of the box
101
255260
2000
몇몇 장비와 함께 즉시 활용 가능하도록
04:17
with some sensitivity adjustments
102
257260
2000
만들어졌으며 개인화가
04:19
available for personalization.
103
259260
3000
가능합니다.
04:22
But with the limited time we have available,
104
262260
2000
하지만 지금 가능한 한정된 시간에,
04:24
I'd like to show you the cognitive suite,
105
264260
2000
저는 이 장치를 보여주고자 합니다,
04:26
which is the ability for you
106
266260
2000
기본적으로 실제 물체를
04:28
to basically move virtual objects with your mind.
107
268260
3000
여러분의 마음으로 움직이게 하는 능력이 있죠.
04:32
Now, Evan is new to this system,
108
272260
2000
에븐에게 이 시스템이 처음입니다,
04:34
so what we have to do first
109
274260
2000
우리가 처음으로 해야되는 것은
04:36
is create a new profile for him.
110
276260
2000
그의 새로운 프로필을 만드는 것입니다.
04:38
He's obviously not Joanne -- so we'll "add user."
111
278260
3000
분명하게 조안이 아니죠 -- 유저 등록을 하세요
04:41
Evan. Okay.
112
281260
2000
에븐: 네.
04:43
So the first thing we need to do with the cognitive suite
113
283260
3000
이 장치에 가장 먼저 필요한 것은
04:46
is to start with training
114
286260
2000
중립 신호 트레이닝을
04:48
a neutral signal.
115
288260
2000
시작하는 것입니다.
04:50
With neutral, there's nothing in particular
116
290260
2000
중립신호와 함께, 특별하게 에븐이
04:52
that Evan needs to do.
117
292260
2000
필요로 하는 행동은 없습니다.
04:54
He just hangs out. He's relaxed.
118
294260
2000
시작합니다. 이완된 상태이죠.
04:56
And the idea is to establish a baseline
119
296260
2000
이 아이디어는 에븐의 뇌를 위한
04:58
or normal state for his brain,
120
298260
2000
기본 혹은 보통의 상태를 만듭니다,
05:00
because every brain is different.
121
300260
2000
왜냐하면 모든 뇌가 다르기 때문입니다.
05:02
It takes eight seconds to do this,
122
302260
2000
이 작업을 위해 8초가 소요됩니다.
05:04
and now that that's done,
123
304260
2000
지금, 다 됐습니다,
05:06
we can choose a movement-based action.
124
306260
2000
우리는 운동기반의 동작을 선택할 수 있습니다.
05:08
So Evan, choose something
125
308260
2000
그래서 그는 마음 속에서
05:10
that you can visualize clearly in your mind.
126
310260
2000
시각화 할 수 있는 것을 선택합니다.
05:12
Evan Grant: Let's do "pull."
127
312260
2000
에븐 그랜트: 끌어 당기기로 하죠.
05:14
Tan Le: Okay, so let's choose "pull."
128
314260
2000
탄 리: 좋아요. 당기기를 선택하죠.
05:16
So the idea here now
129
316260
2000
여기있는 이 아이디어는
05:18
is that Evan needs to
130
318260
2000
그는 물체가
05:20
imagine the object coming forward
131
320260
2000
스크린 앞으로 나올 수 있도록
05:22
into the screen,
132
322260
2000
상상해야 합니다.
05:24
and there's a progress bar that will scroll across the screen
133
324260
3000
그가 그것을 실행하는 동안, 화면을 스크롤 하는
05:27
while he's doing that.
134
327260
2000
진행 바가 있습니다.
05:29
The first time, nothing will happen,
135
329260
2000
처음에는, 아무 것도 일어나지 않습니다,
05:31
because the system has no idea how he thinks about "pull."
136
331260
3000
왜냐하면 이 시스템이 '당기기'에 관해 그가 어떻게 생각하는지 모르기 때문입니다.
05:34
But maintain that thought
137
334260
2000
하지만 8초 동안
05:36
for the entire duration of the eight seconds.
138
336260
2000
당기기 생각을 유지하세요.
05:38
So: one, two, three, go.
139
338260
3000
그럼, 하나, 둘, 셋, 시작.
05:49
Okay.
140
349260
2000
좋아요.
05:51
So once we accept this,
141
351260
2000
이렇게 한번 더 이것을 승인하면,
05:53
the cube is live.
142
353260
2000
큐브는 살아있습니다.
05:55
So let's see if Evan
143
355260
2000
그럼, 에븐이 실제로
05:57
can actually try and imagine pulling.
144
357260
3000
당기기를 상상하고 시도하는지 봅시다.
06:00
Ah, good job!
145
360260
2000
아, 잘하셨어요!
06:02
(Applause)
146
362260
3000
(박수)
06:05
That's really amazing.
147
365260
2000
매우 놀랍습니다.
06:07
(Applause)
148
367260
4000
(박수)
06:11
So we have a little bit of time available,
149
371260
2000
이렇게 약간의 시간이 걸립니다,
06:13
so I'm going to ask Evan
150
373260
2000
이제 저는 에븐에게
06:15
to do a really difficult task.
151
375260
2000
좀 더 어려운 작업을 시키고자 합니다.
06:17
And this one is difficult
152
377260
2000
이 작업은 어렵습니다
06:19
because it's all about being able to visualize something
153
379260
3000
우리의 물질적인 세상에 존재하지 않는
06:22
that doesn't exist in our physical world.
154
382260
2000
무언가를 시각화 해야 되기 때문이죠.
06:24
This is "disappear."
155
384260
2000
"사라지기"입니다.
06:26
So what you want to do -- at least with movement-based actions,
156
386260
2000
적어도 운동을 기반한 행동을,
06:28
we do that all the time, so you can visualize it.
157
388260
3000
이것을 항상 실행하기 때문에 이것을 시각화 할 수 있습니다.
06:31
But with "disappear," there's really no analogies --
158
391260
2000
하지만 사라지기는, 실제로 유사성이 존재하지 않습니다.
06:33
so Evan, what you want to do here
159
393260
2000
그럼 에븐, 여기서 하고자 하는 것은
06:35
is to imagine the cube slowly fading out, okay.
160
395260
3000
큐브가 점차 사라지는 것을 상상하시는 것입니다, 아시겠죠.
06:38
Same sort of drill. So: one, two, three, go.
161
398260
3000
드릴 종류와 유사합니다. 하나, 둘, 셋, 시작.
06:50
Okay. Let's try that.
162
410260
3000
좋아요, 시도해보죠.
06:53
Oh, my goodness. He's just too good.
163
413260
3000
오, 맙소사. 너무 잘 하시네요.
06:57
Let's try that again.
164
417260
2000
다시 한번 더 시도하죠.
07:04
EG: Losing concentration.
165
424260
2000
EG: 집중력이 떨어졌어요.
07:06
(Laughter)
166
426260
2000
(웃음)
07:08
TL: But we can see that it actually works,
167
428260
2000
TL: 하지만 실제로 작동하는 것을 보실 수 있습니다,
07:10
even though you can only hold it
168
430260
2000
비록 이 상태를 짧은 시간
07:12
for a little bit of time.
169
432260
2000
유지할 수 있지만
07:14
As I said, it's a very difficult process
170
434260
3000
제가 말했던 것처럼, 이것을 상상하는 것은
07:17
to imagine this.
171
437260
2000
매우 어려운 과정입니다.
07:19
And the great thing about it is that
172
439260
2000
이 기기의 훌륭한점은
07:21
we've only given the software one instance
173
441260
2000
우리가 오직 '사라지기'에 관해 그가
07:23
of how he thinks about "disappear."
174
443260
3000
어떻게 생각하는지 소프트웨어화 할 수 있다는 점입니다.
07:26
As there is a machine learning algorithm in this --
175
446260
3000
이것에 관한 기계 학습 알고리즘이 존재할 때 --
07:29
(Applause)
176
449260
4000
(박수)
07:33
Thank you.
177
453260
2000
감사합니다.
07:35
Good job. Good job.
178
455260
3000
잘 했어요. 잘 했어요.
07:38
(Applause)
179
458260
2000
(박수)
07:40
Thank you, Evan, you're a wonderful, wonderful
180
460260
3000
감사합니다, 에븐, 훌륭합니다.
07:43
example of the technology.
181
463260
3000
기술의 발전의 예가 있습니다.
07:46
So, as you can see, before,
182
466260
2000
전에 보셨던 것처럼,
07:48
there is a leveling system built into this software
183
468260
3000
평준화 시스템이 이 소프트웨어에 만들어졌습니다
07:51
so that as Evan, or any user,
184
471260
2000
그래서 에븐처럼, 혹은 다른 사용자들은
07:53
becomes more familiar with the system,
185
473260
2000
이 시스템에 좀 더 익숙해질 때,
07:55
they can continue to add more and more detections,
186
475260
3000
계속 추가할 수 있고 추적할 수 있습니다,
07:58
so that the system begins to differentiate
187
478260
2000
그래서 이 시스템은 분명히 다른 생각 사이에서
08:00
between different distinct thoughts.
188
480260
3000
구분짓기 시작합니다.
08:04
And once you've trained up the detections,
189
484260
2000
추적 프로그램을 훈련했다면,
08:06
these thoughts can be assigned or mapped
190
486260
2000
이 생각들은 할당되면 지도화 됩니다
08:08
to any computing platform,
191
488260
2000
계산된 플램폼과
08:10
application or device.
192
490260
2000
어플리케인션 혹은 장치에 말이죠.
08:12
So I'd like to show you a few examples,
193
492260
2000
여러분께 몇몇 예를 보여주고자 합니다,
08:14
because there are many possible applications
194
494260
2000
실용화 되는 많은 어플리케인션이 있기 때문입니다
08:16
for this new interface.
195
496260
2000
새로운 인터페이스를 위한 것이죠.
08:19
In games and virtual worlds, for example,
196
499260
2000
게임 그리고 실제 세상에서, 예를들어,
08:21
your facial expressions
197
501260
2000
안면 표현은
08:23
can naturally and intuitively be used
198
503260
2000
자연스럽게 아바타 혹은 실제 캐릭터를
08:25
to control an avatar or virtual character.
199
505260
3000
통제하는데 사용됩니다.
08:29
Obviously, you can experience the fantasy of magic
200
509260
2000
분명하게, 마술과 같은 판타지를 경험하고
08:31
and control the world with your mind.
201
511260
3000
마음으로 세상을 통제할 수 있습니다.
08:36
And also, colors, lighting,
202
516260
3000
또한 색깔, 빛,
08:39
sound and effects
203
519260
2000
소리 그리고 효과는
08:41
can dynamically respond to your emotional state
204
521260
2000
크게 감정상태에 답변할 수 있습니다
08:43
to heighten the experience that you're having, in real time.
205
523260
3000
실제로 가지는 경험을 고취시키기 위해 말이죠.
08:47
And moving on to some applications
206
527260
2000
그리고 몇몇 어플리케이션으로 가면
08:49
developed by developers and researchers around the world,
207
529260
3000
전 세계의 개발자 그리고 연구원에 의해 로봇 그리고
08:52
with robots and simple machines, for example --
208
532260
3000
간단한 기계와 함께 발전 했습니다, 예를 들어 --
08:55
in this case, flying a toy helicopter
209
535260
2000
여기서는, 간단하게 올리는 생각으로
08:57
simply by thinking "lift" with your mind.
210
537260
3000
헬리콥터를 날리는 장면입니다.
09:00
The technology can also be applied
211
540260
2000
이 기술은 또한 실제 어플리케이션에
09:02
to real world applications --
212
542260
2000
적용할 수 있습니다 --
09:04
in this example, a smart home.
213
544260
2000
예를 들면, 작은 집입니다.
09:06
You know, from the user interface of the control system
214
546260
3000
알다시피, 통제 시스템의 사용자 인터페이스에서
09:09
to opening curtains
215
549260
2000
커튼을 열거나 혹은
09:11
or closing curtains.
216
551260
3000
닫습니다.
09:22
And of course, also to the lighting --
217
562260
3000
물론 불을 키는데도 적용되죠 --
09:25
turning them on
218
565260
3000
불을 키고
09:28
or off.
219
568260
2000
끄죠.
09:30
And finally,
220
570260
2000
그리고 마지막으로,
09:32
to real life-changing applications,
221
572260
2000
실제 삶을 변화시키는 어플리케이션은
09:34
such as being able to control an electric wheelchair.
222
574260
3000
전기 휠체어를 조종할 수 있습니다.
09:37
In this example,
223
577260
2000
예를 들어,
09:39
facial expressions are mapped to the movement commands.
224
579260
3000
안면 표현들은 운동 명령에 지도화 될 수 있습니다.
09:42
Man: Now blink right to go right.
225
582260
3000
남성: 오른쪽 눈을 깜빡이면 오른쪽으로 갑니다.
09:50
Now blink left to turn back left.
226
590260
3000
왼쪽은 뒤돌아 왼쪽으로 갑니다.
10:02
Now smile to go straight.
227
602260
3000
이제 웃으면 직진합니다.
10:08
TL: We really -- Thank you.
228
608260
2000
TL: 우리는 정말로 -- 감사합니다.
10:10
(Applause)
229
610260
5000
(박수)
10:15
We are really only scratching the surface of what is possible today,
230
615260
3000
우리는 오늘날 무엇이 가능한지 아주 작은 단면만을 연구했습니다.
10:18
and with the community's input,
231
618260
2000
사회의 조언,
10:20
and also with the involvement of developers
232
620260
2000
연계된 개발자,
10:22
and researchers from around the world,
233
622260
3000
그리고 전세계의 연구자들과 함께,
10:25
we hope that you can help us to shape
234
625260
2000
우리는 여러분께서 이 기술이 여기에서
10:27
where the technology goes from here. Thank you so much.
235
627260
3000
어디로 나아가는지에 대한 지표를 도와주시기를 바랍니다. 감사합니다.
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7