The Mind-Reading Potential of AI | Chin-Teng Lin | TED

67,529 views ・ 2025-01-07

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: Alvin Choi 검토: Ju-young Moon
00:04
How often are you frustrated by the time it takes
0
4020
5520
머릿속에 있는 것들을 컴퓨터로 정확하게 옮기는 데 걸리는
00:09
to accurately get things in your mind into a computer?
1
9580
5240
시간 때문에 얼마나 자주 답답함을 느끼시나요?
00:16
It is even worse for people like me,
2
16140
3560
저처럼 글자를 기반으로 하지 않는 모국어를 사용하는 사람들에게는
00:19
whose first language is not based on letters.
3
19700
4200
더 나쁜 상황입니다.
00:24
I live and work in Australia,
4
24740
3080
저는 호주에 거주하며 일하고 있지만 원래는 대만 출신입니다.
00:27
but I am originally from Taiwan.
5
27820
3280
00:32
I moved to Sydney eight years ago
6
32180
3280
시드니에는 8년 전에 이주했으며
00:35
and now run a university research center there.
7
35500
5360
지금은 이곳에서 대학 연구 센터를 운영하고 있습니다.
00:42
Most of us use keyboards every day
8
42300
3840
인간은 대부분 매일 머릿속에 떠오르는 것들을
00:46
to get things in our minds into the computer.
9
46180
3880
컴퓨터로 옮기기 위해 키보드를 사용하기 때문에
00:51
We have to learn to type.
10
51300
1760
타이핑하는 법을 배워야 합니다.
00:53
The fact that you have to learn to do some things
11
53740
4320
어떤 일을 하는 법을 배워야 한다는 사실은
00:58
shows how unnatural it is.
12
58100
3400
얼마나 부자연스러운 일인지 보여줍니다.
01:02
The finger-driven touch screen has been around for 60 years.
13
62740
5640
손가락으로 작동하는 터치스크린은 60여 년 동안 사용되어 왔으며
01:08
It's convenient, but it is also slow.
14
68780
3520
편리하지만 느리기도 하죠.
01:14
There are other ways to control computers --
15
74020
3920
컴퓨터를 제어하는 다른 방법으로는
01:17
joystick or gestures --
16
77980
2920
조이스틱이나 제스처가 있지만
01:20
but they are not very useful in capturing the words in your mind.
17
80940
6680
머릿속에 있는 단어를 포착하는 데에는 그다지 유용하지 않습니다.
01:28
And it is words --
18
88260
2680
그리고 단어는
01:30
they are critical to communication for human beings.
19
90980
4320
인간의 의사소통에 매우 중요하며
01:36
The problem is about to be over,
20
96980
4360
문제는 곧 해결될 것인데요
01:41
because of AI.
21
101380
2000
AI (인공지능) 덕분이죠.
01:43
Today, I will show you
22
103980
2360
오늘 강연을 통해 어떻게 AI가
01:46
how AI can turn the speech in your mind into words on screen.
23
106340
7000
여러분의 머릿속 말을 화면 속 단어로 바꿀 수 있는지 보여드리겠습니다.
01:55
Getting from the brain to the computer efficiently
24
115980
5560
두뇌에서 컴퓨터로 효율적으로 이동하는 것은
02:01
is a real bottleneck for any computer application.
25
121580
3920
모든 컴퓨터 응용 프로그램에서 실질적인 병목 현상으로써
02:06
It has been my passion for 25 years.
26
126460
3520
25년 동안 제가 쏟아부은 열정이었죠.
02:11
Many of you, or most of you,
27
131860
2160
여러분 중 많은 분은 혹은 여러분 대부분이
02:14
have heard of "brain-computer interface," BCI.
28
134060
5040
“뇌-컴퓨터 인터페이스”인 BCI에 대해 들어보셨을 겁니다.
02:20
I have been working on BCI,
29
140100
2400
저는 2004년부터
02:22
for the direct communication between the brain and machine,
30
142500
5080
뇌와 기계 사이의 직접적인 의사소통을 위한
02:27
since 2004.
31
147620
1920
BCI 연구를 통해서
02:30
I developed a series of EEG headsets that do this.
32
150460
6320
이런 기능을 하는 EEG 헤드셋 시리즈를 개발했는데
02:38
But they are not new.
33
158780
1680
획기적인 건 아니지만
02:41
What is new is an interface that works in a natural way,
34
161700
5560
뇌가 자연스럽게 작동하는 방식에 따라
02:47
based on how our brain is working naturally.
35
167300
4520
자연스럽게 작동하는 인터페이스는 새로운 점이죠.
02:53
Imagine reading words when someone is thinking,
36
173140
5520
인간의 생각만으로 단어를 읽고 뇌 신호를
02:58
translating the brain signals into words.
37
178700
3640
단어로 번역한다고 상상해 보세요.
03:03
Today, you will see this in action,
38
183220
3320
오늘날에는 입력 작업 없이도 실제로 이런 모습을 볼 수 있을 것입니다.
03:06
and with no implants.
39
186580
2080
03:09
We are using AI
40
189940
1480
우리는 AI를 사용하여
03:11
to decode the brain signals on the top of your head
41
191460
4200
인간 두뇌의 신호를 해독하고
03:15
and identify the biomarkers of speaking.
42
195660
3960
말하는 데 필요한 생체지표를 찾아내고 있습니다.
03:20
That means that you can send the words in your mind into the computer
43
200260
6200
즉, 웨어러블 기술을 통해 머릿속에 있는 단어를
03:26
with wearable technology.
44
206500
2400
컴퓨터로 보낼 수 있다는 뜻이죠.
03:29
It's exciting,
45
209540
1280
이는 정말 흥미로운 일이며
03:30
and I believe it will open up the bottleneck
46
210820
4600
우리가 컴퓨터를 사용하는 방식의 병목 현상을
03:35
of how we engage with computers.
47
215420
3640
없앨 수 있을 거로 생각합니다.
03:40
We are making exciting progress in decoding EEG to test this.
48
220940
5880
이를 시험하려고 뇌파 해독에 놀라운 진전을 이루고 있는데
03:47
It's natural.
49
227260
1120
당연한 결과죠.
03:48
We have had very promising results
50
228980
3600
우리는 누군가 큰 소리로 말할 때
03:52
in decoding EEG when someone is speaking aloud.
51
232620
4200
뇌파를 해독할 수 있다는 매우 유망한 결과를 얻었습니다.
03:57
The frontier we are working on now
52
237340
2600
우리가 현재 연구하고 있는 분야는
03:59
is to decode EEG when the speech is not spoken aloud,
53
239980
6200
음성이 없을 때도 뇌파를 해독하는 것인데
04:06
the words that flow in your mind when you are listening to others
54
246220
6120
이는 다른 사람의 말을 들을 때 혹은 자신에게
04:12
or when you are talking to yourself or thinking.
55
252380
4840
말하거나 생각할 때 머릿속에 떠오르는 단어들로써
04:18
We are well on the way to make it a reality.
56
258700
4240
우리는 그것을 현실화하는 데 순조롭게 진행하고 있죠.
04:24
Who would like to see this in action?
57
264500
1960
실제로 보고 싶은 분?
04:26
(Cheers and applause)
58
266780
6920
(환호와 박수)
04:33
Great, we are ready to demonstrate it to you.
59
273740
3600
좋아요, 이제 보여드릴 준비가 됐습니다.
04:37
I am going to invite two of my team, Charles and Daniel,
60
277740
4640
저희 팀원 중 찰스와 다니엘을 초대해서
04:42
to show it to us again.
61
282420
2360
다시 보여드릴게요.
04:45
This is the first world premiere for us,
62
285900
3120
이번이 세계 최초로 공개되는 것이니
04:49
so I hope you can be patient with us.
63
289060
3960
인내심을 갖고 기다려 주셨으면 좋겠습니다.
04:53
We are getting around 50 percent accuracy ...
64
293060
3800
정확도는 약 50% 정도이지만...
04:56
(Laughter)
65
296900
2280
(웃음)
04:59
in decoding the brain signals into words
66
299220
3960
누군가 조용히 말할 때
05:03
when someone is speaking silently.
67
303220
3680
뇌 신호를 말로 해독하는 거죠.
05:07
Here shows how it will work.
68
307860
2080
어떻게 작동하는지 보여드릴게요.
05:12
We have a collection of words that we have trained our technology with.
69
312860
5760
저희는 기술을 학습시키는 데 사용한 단어 모음을 가지고 있습니다.
05:20
They are combined into sentences.
70
320260
2640
이 두 문장이 합쳐져 문장으로 만들어집니다.
05:24
Charles will select one sentence,
71
324180
2760
찰스가 한 문장을 선택하면
05:26
and Daniel will read the sentence word by word, silently,
72
326940
5240
다니엘은 조용히 그 문장을 한 단어씩 읽고
05:32
and produce the brain signals that will be picked up by our sensors.
73
332180
5280
센서가 감지하는 뇌 신호를 생성합니다.
05:37
Our technology will decode the brain signals into words.
74
337460
4760
이 기술은 뇌 신호를 단어로 해독할 것입니다.
05:42
Charles, Daniel, are you ready to go ahead?
75
342940
2760
찰스, 다니엘 계속할 준비가 되셨나요?
05:48
This is the sentence
76
348460
3800
다니엘이 조용히 읽을 문장은
05:52
that Daniel is going to read silently.
77
352300
3560
이 단어입니다.
06:15
(Applause)
78
375860
5360
(박수)
06:21
Sorry, please keep silent. (Laughter)
79
381980
2800
죄송합니다. 조용히 해주세요. (웃음)
06:24
Here are the --
80
384820
1760
여기에...
06:27
decoded words.
81
387940
1520
해독된 단어들이 있어요.
06:29
They are likely the intended words.
82
389500
2320
의도된 단어일 가능성이 높습니다.
06:32
You can see the probability ranking
83
392540
2520
당사의 기술을 통해
06:35
of the decoded words by our technology.
84
395100
3080
디코딩된 단어의 확률 순위를 확인할 수 있는데요.
06:40
The pattern shows our predicted sentence ...
85
400540
3880
이 패턴은 저희 예측 문장을 보여주는데...
06:45
is not so correct.
86
405820
1680
정확하진 않죠.
06:47
(Laughter)
87
407540
3080
(웃음)
06:50
Sorry, you see the other 50 percent,
88
410620
4800
죄송합니다. 나머지 50% 는 보이는데
06:55
the system doesn't work.
89
415420
1240
시스템이 작동하지 않아요.
06:56
But actually, you still can see some keywords where we got it.
90
416660
3800
하지만 실제로 어디서 가져온 키워드도 몇 개 보일 수 있습니다.
07:01
Let's invite Charles and Daniel to do it again,
91
421180
3480
찰스와 다니엘을 초대해 다시 한번 해보죠.
07:04
but please keep silent when he's reading silently.
92
424700
4640
하지만 그가 조용히 글을 읽을 때는 조용히 있어 주세요.
07:10
Here is the sentence,
93
430660
1320
이 문장은 다니엘이 조용히 한 글자씩 읽을 또 다른 문장입니다.
07:12
another sentence that Daniel will read word by word, silently.
94
432020
4240
07:16
(Laughs)
95
436980
1160
(웃음)
07:45
Again, here are the decoded words.
96
465620
2480
다시 말씀드리지만 해독된 단어는 다음과 같습니다.
07:48
They are likely the intended words.
97
468100
2520
의도한 단어일 가능성이 높죠.
07:53
The pattern shows our predictive sentence
98
473260
3640
이 패턴은 저희가 예측한 문장이
07:56
is very close to the ground-truth sentence this time.
99
476940
3360
이번에는 실존 문장과 매우 비슷하다는 것을 보여줍니다.
08:00
(Cheers and applause)
100
480300
6920
(환호와 박수)
08:07
Thank you, thank you.
101
487620
1840
감사합니다, 감사합니다.
08:10
How does it work?
102
490340
1560
어떻게 작동하나요?
08:11
We pick up the brain signals with sensors
103
491940
4200
센서로 뇌 신호를
08:16
and amplify and filter them
104
496140
3560
포착하고, 증폭하고, 필터링하여
08:19
to reduce the noise and get the right biomarkers.
105
499700
4040
소음을 줄이고 적절한 바이오마커를 얻는데
08:24
We use AI for the task.
106
504460
2880
바로 이 작업에 AI를 사용하죠.
08:27
We use deep learning to decode the brain signals
107
507380
4080
우리는 딥러닝을 사용하여 뇌 신호를 의도한 단어로 해독한 후
08:31
into the intended words.
108
511460
2240
08:33
And then we use the large language model
109
513740
3600
대형 언어 모델을 사용하여 해독된 단어를 일치시키고
08:37
to make the match of the decoded words
110
517380
3280
08:40
and make up for the mistakes in EEG decoding.
111
520700
4320
뇌파 해독의 실수를 보완하는데
08:46
All of this is going on in the AI,
112
526380
3520
이 모든 과정은 AI에서 일어나고 있지만
08:49
but for the user, the interaction is natural,
113
529940
3720
사용자와는 생각과 자연어를 통한
08:53
through thoughts and natural language.
114
533700
3480
상호 작용이 자연스럽습니다.
08:57
We are very excited about the advances that we are making
115
537900
4960
단어와 문장을 이해하는 데 있어
09:02
in understanding words and sentences.
116
542860
2680
우리가 이룩하고 있는 발전이 정말 기대됩니다.
09:07
Another thing that is very natural to people
117
547420
4320
사람들이 매우 자연스럽게 느끼는 또 다른 일은
09:11
is looking at something that has their attention.
118
551780
4800
바로 관심을 끄는 대상을 바라보는 것입니다.
09:16
Imagine if you could select an item just by looking at it,
119
556580
6520
선반에서 물건을 고르거나
09:23
not by picking it off the shelf
120
563140
2800
자판기에 코드를 넣는 것이 아니라
09:25
or punching a code into the vending machine.
121
565940
3760
보기만 해서 물건을 선택할 수 있다고 상상해 보세요.
09:30
Two years ago,
122
570460
1440
2년 전
09:31
in a project about hands-free control of robots,
123
571900
6120
로봇의 핸즈프리 제어에 관한 프로젝트에서
09:38
we were very excited about robot control
124
578060
4360
저희는 손가락의 시각적 식별을 통한
09:42
via visual identification of the fingers.
125
582460
4120
로봇 제어에 대해 매우 흥미를 느꼈습니다.
09:47
We are now beyond that.
126
587060
2440
이제 그 이상을 넘어섰을 뿐 아니라 손가락 동작도 필요 없어졌죠.
09:49
We need not any fingers.
127
589540
2280
09:51
The AI is making it natural.
128
591860
2920
대신에 AI가 추가됐으니까요.
09:55
There are four objects on the table.
129
595660
2640
이 테이블 위에는 네 개의 물체가 있습니다.
09:59
Toy car,
130
599300
1960
장난감 자동차와 장난감 동물 그리고
10:01
toy animal,
131
601260
2520
10:03
plastic flower and some food,
132
603820
3560
플라스틱 꽃 그리고 오늘 아침 식사에서
10:07
which is also plastic,
133
607380
2880
10:10
not left over from the breakfast this morning.
134
610300
3480
안 먹은 플라스틱 음식까지
10:14
You can also see the four objects' photo on the screen.
135
614660
5400
화면에서 네 개의 물체 사진 역시 볼 수 있습니다.
10:20
Daniel is going to look at the photos,
136
620980
3680
다니엘은 사진을 보고 머릿속에 떠오르는
10:24
and select an item in his mind.
137
624700
3560
아이템을 하나 고르려고 합니다.
10:28
If it is working as it should,
138
628860
2920
만일 정상적으로 작동하면
10:31
you will see the selected item pop up on screen.
139
631820
4600
선택한 항목이 화면에 나타나는 것을 볼 수 있을 거예요.
10:37
We use photos for this because they are very controllable.
140
637540
3240
제어가 용이하기 때문에 저희는 사진을 사용합니다.
10:41
To show that this is not all just built into my presentation,
141
641900
6320
이 모든 것이 제 발표에만 포함되지 않다는 것을 보여주기 위해
10:48
Charles will pick up one item for Daniel to select in mind.
142
648220
6920
찰스는 다니엘이 염두에 두어야 할 항목 하나를 골라줄 것입니다.
10:55
Please, Charles.
143
655460
1240
찰스!
11:01
It's a car.
144
661900
2720
이건 차예요.
11:06
So, Daniel, select ...
145
666140
2160
다니엘, 선택해요...
11:11
the car in his mind.
146
671060
1440
머릿속에 있는 자동차...
11:18
(Laughter)
147
678260
2360
(웃음)
11:20
Hamburger.
148
680660
1200
햄버거.
11:21
(Laughter)
149
681860
1000
(웃음)
11:22
It's incorrect.
150
682900
1240
틀렸어요.
11:24
(Laughter)
151
684140
1960
(웃음)
11:26
It's unlucky that the 30-percent error rate came with us again.
152
686500
5960
다시 30%의 오류율이 나왔다는 건 불운한 일이죠.
11:32
Let's invite Charles and Daniel to show it again.
153
692780
2760
찰스와 다니엘을 초대해서 다시 한번 보여드릴게요.
11:40
It's a duck, a lovely duck.
154
700420
3720
오리예요, 사랑스럽죠.
11:44
(Laughter)
155
704140
2280
(웃음)
11:51
OK. Good.
156
711780
1320
자, 좋아요.
11:53
(Cheers and applause)
157
713100
6400
(환호와 박수)
11:59
Thank you. Thank you.
158
719500
1400
감사합니다. 고마워요.
12:01
Daniel did this for his PhD.
159
721580
3000
다니엘은 박사 학위를 위해 이 일을 했어요.
12:04
It's very impressive, isn't it?
160
724580
1720
정말 인상적이지 않나요?
12:06
When Daniel selects an item in his mind,
161
726660
3480
다니엘이 머릿속에서 어떤 항목을 선택하면
12:10
his brain recognizes and identifies the object and triggers his EEGs.
162
730180
6640
뇌가 그 물체를 인식하고 식별하여 뇌파를 작동시킵니다.
12:16
Our technology decodes the triggers.
163
736860
3240
저희 기술은 트리거를 해독합니다.
12:21
We are working on our way through the technical challenges.
164
741300
6320
저희는 기술적 난제를 극복하기 위해 노력하고 있습니다.
12:28
We will work on overcoming the interference issue.
165
748660
3960
그리고, 저희는 간섭 문제를 극복하기 위해 노력할 것입니다.
12:33
That's why I asked for the phones to be turned off.
166
753020
4040
그래서 전화기를 꺼달라고 요청한 거예요.
12:38
Different people have different neural signatures,
167
758900
4560
사람마다 신경 신호가 다르기 때문에
디코딩 정확도에 매우 중요합니다.
12:43
which are important to decoding accuracy.
168
763500
3440
12:46
One reason I brought Daniel along here
169
766980
3640
제가 다니엘을 여기에 데려온 한 가지 이유는
12:50
is because he can give off great neural signatures.
170
770660
5000
그가 훌륭한 신경 신호를 낼 수 있기 때문입니다.
12:55
(Laughter)
171
775700
3240
(웃음)
12:58
(Applause)
172
778980
6160
(박수)
13:05
Yeah, he can give us a great neural signature,
173
785180
2760
네, 그는 우리 기술과 관련되기만 하면 훌륭한 신경 신호를 줄 수 있어요.
13:07
as far as our technology is concerned.
174
787980
2600
13:11
They are still cables here as well.
175
791740
3120
여기 케이블이 여전히 있기도 하죠.
13:14
It is not yet very portable.
176
794900
2600
아직 휴대성이 그다지 좋지는 않습니다.
13:17
Probably one biggest barrier to people using this
177
797860
6200
이 제품을 사용하는 사람들에게 큰 장벽 중 하나는
13:24
will be: “How do I turn it off?”
178
804100
2960
아마도 “어떻게 전원을 끄나요?” 일 겁니다.
13:27
Any one of you will have had times when you are happy
179
807620
5600
여러분 중 누구라도 함께 있는 사람들이
13:33
that the people you are with don't know what you are really thinking.
180
813260
4280
자신이 진정 무슨 생각을 하는지 모른다면 기뻐할 겁니다.
13:37
(Laughter)
181
817580
1280
(웃음)
13:38
There are serious privacy and ethical issues
182
818900
2800
우리 주변에는 다루어야 할 심각한 사생활과
13:41
that will have to be dealt with.
183
821740
2120
윤리적 문제가 있습니다.
13:44
I am very passionate about how important this technology can be.
184
824700
6520
저는 이 기술이 얼마나 중요한지에 대해 매우 열정적입니다.
13:51
One exciting point is linking the brain-computer interface
185
831580
4960
흥미로운 점 중 하나는, 뇌-컴퓨터 인터페이스를
13:56
to wearable computers.
186
836580
2120
웨어러블 컴퓨터에 연결한다는 것입니다.
13:58
You already have a computer on your head.
187
838700
2720
여러분의 머리 위에는 이미 컴퓨터가 있습니다.
14:01
The brain will be a natural interface.
188
841780
3240
뇌는 자연스러운 인터페이스가 될 것입니다.
14:05
It is not only about controlling a computer.
189
845060
3800
컴퓨터 제어에만 국한되지 않습니다.
14:09
The natural BCI also provides
190
849780
3920
또한 자연스러운 BCI는 사람들이 서로 소통할 수 있는
14:13
another way for people to communicate with people.
191
853700
4040
또 다른 방법을 제공합니다.
14:18
For example, it allows people who are not able to speak
192
858700
5400
예를 들어, 말을 할 수 없는 사람이라도
14:24
to communicate with others,
193
864100
2680
다른 사람과 의사소통을 할 수 있습니다.
14:26
or such as when privacy or silence are required.
194
866780
6520
프라이버시나 침묵이 필요할 때 말이죠.
14:34
If your idea of nature is a lovely forest,
195
874420
6240
여러분이 자연을 아름다운 숲이라고 생각한다면
14:40
you could wonder how natural this could be.
196
880660
4680
이 숲이 얼마나 자연스러울지 궁금할 것입니다.
14:45
My answer is, it's natural language,
197
885980
4560
제 대답은 자연적인 말이고
14:50
it's the natural thought process that you are using.
198
890580
4200
여러분이 사용하고 있는 자연스러운 사고 과정이라는 것입니다.
14:54
There are no unnatural implants in your body.
199
894820
4720
여러분의 몸에는 부자연스러운 임플란트가 없습니다.
15:00
I am challenging you to think
200
900660
2200
저는 여러분이 생각하는 자연스러운 의사소통에 대해
15:02
about what you regard as natural communication.
201
902900
5240
생각해 보라고 권하고 싶습니다.
15:09
Turning the speech in your mind into words.
202
909100
5640
머릿속에 있는 말을 실제의 말로 바꾸세요.
15:14
There is a standard way to finish up when talking with people --
203
914780
5240
사람들과 대화를 끝맺는 보편적인 방법으로
15:20
you say: “Just think about it.”
204
920060
4040
“그냥 생각해 보세요.”라고 하세요.
15:24
I hope you are as excited as we are
205
924940
3960
여러분이 무언가를 생각하기만 하면
15:28
for the prospect of a future
206
928940
3400
머릿속에 있는 단어들이
15:32
in which, when you just think about something,
207
932380
4200
화면에 떠오르는 미래에 대한 전망이
15:36
the words in your mind appear on screen.
208
936620
4480
저희만큼이나 기대가 되셨으면 좋겠습니다.
15:41
Thank you.
209
941140
1160
감사합니다.
15:42
(Applause)
210
942340
1760
(박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7