How to Get Inside the "Brain" of AI | Alona Fyshe | TED

59,901 views ・ 2023-04-03

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: Seonghoon Lim 검토: DK Kim
00:04
People are funny.
0
4417
1127
인간은 흥미롭죠.
00:05
We're constantly trying to understand and interpret
1
5585
2544
자신을 둘러싼 세계를 끊임없이 이해하고 설명하려고 애씁니다.
00:08
the world around us.
2
8171
1460
00:10
I live in a house with two black cats, and let me tell you,
3
10090
2794
저는 검은 고양이 두 마리와 집에 함께 사는데
00:12
every time I see a black, bunched up sweater out of the corner of my eye,
4
12926
3462
구석에 검은색 스웨터 더미가 보이면 그때마다 고양이라고 생각합니다.
00:16
I think it's a cat.
5
16388
1209
(웃음)
00:18
It's not just the things we see.
6
18098
1585
눈에 보이는 게 다가 아니죠.
00:19
Sometimes we attribute more intelligence than might actually be there.
7
19724
3587
가끔 인간은 사물을 볼 때 실제보다 더 의미를 부여합니다.
00:23
Maybe you've seen the dogs on TikTok.
8
23770
1794
틱톡에 있는 강아지 영상에서
00:25
They have these little buttons that say things like "walk" or "treat."
9
25605
3379
‘산책’ , ‘간식’을 뜻하는 작은 단추들을 봤을 거예요.
강아지들은 그것으로 주인들과 소통할 수 있으며
00:29
They can push them to communicate some things with their owners,
10
29025
3128
00:32
and their owners think they use them
11
32195
1752
주인들도 그 단추로 강아지들과 꽤 잘 소통할 수 있다고 생각합니다.
00:33
to communicate some pretty impressive things.
12
33947
2169
00:36
But do the dogs know what they're saying?
13
36491
2002
그런데 강아지들이 정말 아는 걸까요?
00:39
Or perhaps you've heard the story of Clever Hans the horse,
14
39494
3462
산수를 할 줄 아는 말이라는 ‘영리한 한스’를 아실 거예요.
00:42
and he could do math.
15
42956
1376
00:44
And not just like, simple math problems, really complicated ones,
16
44374
3086
간단한 산수 문제가 아니라 정말 복잡한 문제를 압니다.
00:47
like, if the eighth day of the month falls on a Tuesday,
17
47460
3003
8일이 화요일이면 다음 주 금요일은 며칠인가 같은 문제 말이죠.
00:50
what's the date of the following Friday?
18
50463
1919
00:52
It's like, pretty impressive for a horse.
19
52841
2043
말치고는 정말 대단합니다.
00:55
Unfortunately, Hans wasn't doing math,
20
55927
2586
아쉽게도 한스가 산수를 하는 것은 아니었지만
00:58
but what he was doing was equally impressive.
21
58555
2586
그의 행동은 여전히 놀랍습니다.
01:01
Hans had learned to watch the people in the room
22
61182
2670
한스가 배운 것은
방안에 있는 사람들을 보면서 언제 발을 굴러야 할지였습니다.
01:03
to tell when he should tap his hoof.
23
63893
2002
01:05
So he communicated his answers by tapping his hoof.
24
65937
2461
때가 되면 발을 굴러서 답을 말했죠.
01:08
It turns out that if you know the answer
25
68982
1918
알고 보니 앞서 얘기한 복잡한 수학 문제의 답을 아는 사람들은
01:10
to "if the eighth day of the month falls on a Tuesday,
26
70942
2544
01:13
what's the date of the following Friday,"
27
73528
1960
한스가 발을 18번 굴러서 정답이 되면
01:15
you will subconsciously change your posture
28
75488
2044
01:17
once the horse has given the correct 18 taps.
29
77532
2169
무의식적으로 자세를 바꿨던 것이었습니다.
01:20
So Hans couldn't do math,
30
80493
1293
그러니까 한스는 수학은 못 했지만
01:21
but he had learned to watch the people in the room who could do math,
31
81786
3254
방 안에서 수학을 할 수 있는 사람을 보는 것을 학습한 겁니다.
01:25
which, I mean, still pretty impressive for a horse.
32
85081
2419
말치고는 여전히 놀랍죠.
01:28
But this is an old picture,
33
88418
1418
하지만 이건 오래된 이야기고 오늘날 우리는 안 속을 거예요.
01:29
and we would not fall for Clever Hans today.
34
89836
2252
01:32
Or would we?
35
92672
1168
아니면 속을까요?
(웃음)
01:34
Well, I work in AI,
36
94549
2169
저는 AI 분야에서 일하는데, 장담하건대 어렵습니다.
01:36
and let me tell you, things are wild.
37
96718
2002
01:38
There have been multiple examples of people being completely convinced
38
98720
3754
AI가 인간을 이해한다고 사람들이 전적으로 확신하는
01:42
that AI understands them.
39
102515
1502
사례가 여러 가지 있습니다.
01:44
In 2022,
40
104559
2711
2022년에 한 구글 엔지니어는
01:47
a Google engineer thought that Google’s AI was sentient.
41
107270
3337
구글 인공 지능이 지각이 있다고 생각했습니다.
01:50
And you may have had a really human-like conversation
42
110649
2752
여러분은 챗지피티 같은 것과 진짜 인간처럼 대화도 했을 겁니다.
01:53
with something like ChatGPT.
43
113401
1877
01:55
But models we're training today are so much better
44
115779
2377
그런데 저희가 현재 훈련 중인 모델은 5년 전 모델보다 훨씬 발전했으며
01:58
than the models we had even five years ago.
45
118198
2002
02:00
It really is remarkable.
46
120200
1710
정말 놀라운 성과죠.
02:02
So at this super crazy moment in time,
47
122744
2502
완전히 미친 듯한 이 시점에 정말 말이 안 되는 질문을 드릴게요.
02:05
let’s ask the super crazy question:
48
125288
2127
02:07
Does AI understand us,
49
127832
1293
AI는 인간을 이해할까요, 아니면 또 다른 영리한 한스일까요?
02:09
or are we having our own Clever Hans moment?
50
129167
2878
02:13
Some philosophers think that computers will never understand language.
51
133254
3462
어떤 철학자들은 컴퓨터가 절대로 언어를 이해하지 못할 거라고 합니다.
02:16
To illustrate this, they developed something they call
52
136716
2628
이를 증명하기 위해 그들은 ‘중국어 방 논증’을 만들었습니다.
02:19
the Chinese room argument.
53
139344
1460
02:21
In the Chinese room, there is a person, hypothetical person,
54
141429
3629
중국어 방에는 중국어를 모르는 사람이 있습니다.
02:25
who does not understand Chinese,
55
145100
1835
02:26
but he has along with him a set of instructions
56
146976
2211
그런데 그는 지침서가 있고
02:29
that tell him how to respond in Chinese to any Chinese sentence.
57
149229
4212
지침서에는 중국어 문장마다 어떻게 대응할지 적혀 있습니다.
02:33
Here's how the Chinese room works.
58
153983
1669
중국어 방은 이런 식으로 작동합니다.
02:35
A piece of paper comes in through a slot in the door,
59
155652
2502
문에 있는 구멍으로 종이 한 장이 들어오는데
그 종이에는 중국어로 무엇인가 적혀 있습니다.
02:38
has something written in Chinese on it.
60
158196
2461
[우리 개는 산수를 할 수 있어요]
02:40
The person uses their instructions to figure out how to respond.
61
160699
3003
사람은 설명서를 이용해서 어떻게 대답할지 알아냅니다.
02:43
They write the response down on a piece of paper
62
163702
2293
종이에 대답을 적고 문 밖으로 다시 내보냅니다.
02:46
and then send it back out through the door.
63
166037
2252
[개가 그렇다니 그거 정말 놀랍군요]
02:48
To somebody who speaks Chinese,
64
168331
1502
방 밖에 있는 중국어를 할 줄 아는 사람은
02:49
standing outside this room,
65
169833
1293
02:51
it might seem like the person inside the room speaks Chinese.
66
171167
3170
방 안에 있는 사람이 중국어를 할 줄 안다고 생각할 것입니다.
02:54
But we know they do not,
67
174337
2753
하지만, 저희는 그게 아닌 걸 알죠.
02:57
because no knowledge of Chinese is required to follow the instructions.
68
177090
4546
지침서를 보는 데는 중국어가 필요하지 않으니까요.
이 실험 결과는 그 사람이 중국어를 아는지 알려 주지 않습니다.
03:01
Performance on this task does not show that you know Chinese.
69
181636
2961
03:05
So what does that tell us about AI?
70
185807
2002
이 실험은 AI에 대해 무엇을 말해주나요?
03:08
Well, when you and I stand outside of the room,
71
188226
2753
여러분과 제가 방 밖에 있고
03:11
when we speak to one of these AIs like ChatGPT,
72
191020
4547
챗지피티 같은 AI 중에서 하나에게 말을 건다면
03:15
we are the person standing outside the room.
73
195567
2085
우리는 방 밖에 서 있는 사람이 되는 겁니다.
03:17
We're feeding in English sentences,
74
197652
1710
영어로 질문을 하면 영어로 대답을 받는 것이죠.
03:19
we're getting English sentences back.
75
199362
2127
03:21
It really looks like the models understand us.
76
201531
2419
그래서 정말로 인간을 이해하는 것처럼 보일 겁니다.
03:23
It really looks like they know English.
77
203992
2502
진짜로 영어를 아는 것처럼 보입니다.
03:27
But under the hood,
78
207203
1168
하지만 실상을 알고 보면 복잡한 지침을 따르는 것뿐입니다.
03:28
these models are just following a set of instructions, albeit complex.
79
208371
3754
03:32
How do we know if AI understands us?
80
212917
2795
AI가 그걸 이해하는지 어떻게 알까요?
03:36
To answer that question, let's go back to the Chinese room again.
81
216880
3086
이 질문에 답을 하려면 중국어 방으로 다시 돌아가서
03:39
Let's say we have two Chinese rooms.
82
219966
1794
중국어 방이 두 개 있다고 하죠.
03:41
In one Chinese room is somebody who actually speaks Chinese,
83
221801
3879
한 중국어 방에는, 실제로 중국어를 하는 사람이 있고,
다른 방에는 가짜가 있죠.
03:46
and in the other room is our impostor.
84
226014
1877
03:48
When the person who actually speaks Chinese gets a piece of paper
85
228224
3087
실제로 중국어를 하는 사람이 중국어로 써 있는 질문지를 받으면
중국어를 읽을 줄 아니까 문제가 없습니다.
03:51
that says something in Chinese in it, they can read it, no problem.
86
231311
3170
03:54
But when our imposter gets it again,
87
234522
1752
하지만, 다른 방에 있는 가짜가 질문지를 받으면,
03:56
he has to use his set of instructions to figure out how to respond.
88
236274
3170
어떻게 대답할지 지침서를 찾아봐야 하죠.
03:59
From the outside, it might be impossible to distinguish these two rooms,
89
239819
3671
밖에서는 두 방을 구분하는 게 불가능할지도 모르겠지만
04:03
but we know inside something really different is happening.
90
243531
3587
내부에서 어떤 다른 일들이 일어난다는 걸 우리는 압니다.
04:07
To illustrate that,
91
247660
1168
설명을 위해서 방에 있는 두 사람의 머리 속에
04:08
let's say inside the minds of our two people,
92
248870
2836
04:11
inside of our two rooms,
93
251748
1585
작은 메모장이 있다고 생각해 봅시다.
04:13
is a little scratch pad.
94
253374
1752
04:15
And everything they have to remember in order to do this task
95
255168
2878
이 작업을 하기 위해 기억해야 하는 모든 것들은
04:18
has to be written on that little scratch pad.
96
258046
2169
그 작은 메모장에 기록됩니다.
04:20
If we could see what was written on that scratch pad,
97
260757
2586
메모장에 무엇이 적혀 있는지 본다면
04:23
we would be able to tell how different their approach to the task is.
98
263384
3421
그들이 어떻게 다른 식으로 일하는지 알 수 있죠.
04:27
So though the input and the output of these two rooms
99
267514
2502
두 방의 질문과 대답이 정확히 같을지는 몰라도
04:30
might be exactly the same,
100
270016
1293
04:31
the process of getting from input to output -- completely different.
101
271309
3337
질문과 대답을 처리하는 과정은 완전히 다른 것이죠.
04:35
So again, what does that tell us about AI?
102
275897
2294
그러면 다시, 이것은 AI에 대해서 우리에게 무엇을 말해주나요?
04:38
Again, if AI, even if it generates completely plausible dialogue,
103
278691
3838
다시 말씀드리면, 우리가 기대하는 것과 같은
04:42
answers questions just like we would expect,
104
282529
2085
그럴싸한 대화와 대답을 구현하더라도 여전히 일종의 가짜일 수 있습니다.
04:44
it may still be an imposter of sorts.
105
284614
2377
만약 AI가 정말 우리처럼 언어를 이해하는지 알고 싶으면,
04:47
If we want to know if AI understands language like we do,
106
287033
3003
04:50
we need to know what it's doing.
107
290078
1835
AI가 하는 일을 알아야 합니다.
04:51
We need to get inside to see what it's doing.
108
291955
2335
내부로 들어가서 무엇을 하는지 봐야 합니다.
04:54
Is it an imposter or not?
109
294332
1585
사기꾼인가요, 아닌가요?
04:55
We need to see its scratch pad,
110
295959
1835
AI의 메모장을 확인한 후
04:57
and we need to be able to compare it
111
297794
1752
실제로 언어를 아는 사람의 메모장과 비교할 수 있어야 합니다.
04:59
to the scratch pad of somebody who actually understands language.
112
299587
3212
05:02
But like scratch pads in brains,
113
302841
1751
하지만 머릿속의 메모장은 실제로 확인할 수 없는 거죠?
05:04
that's not something we can actually see, right?
114
304634
2336
05:07
Well, it turns out that we can kind of see scratch pads in brains.
115
307720
3337
알고 보니 머릿속 메모장을 볼 수 있었습니다.
05:11
Using something like fMRI or EEG,
116
311099
2127
기능성 자기 공명 영상 촬영이나 뇌파계 같은 것으로
05:13
we can take what are like little snapshots of the brain while it’s reading.
117
313268
3712
글을 읽는 동안 사진과 비슷하게 머릿속을 살짝 엿볼 수 있습니다.
글이나 이야기를 읽게 하고 머릿속을 촬영합니다.
05:17
So have people read words or stories and then take pictures of their brain.
118
317021
4171
05:21
And those brain images are like fuzzy,
119
321192
2252
이러한 사진은 머릿속 메모장을 흐릿하고 초점이 빗나간 사진처럼 찍습니다.
05:23
out-of-focus pictures of the scratch pad of the brain.
120
323486
3253
05:26
They tell us a little bit about how the brain is processing
121
326739
3045
여러분이 글을 읽는 동안 머릿속에 어떠한 일이 일어나는지,
05:29
and representing information while you read.
122
329784
2461
어떤 정보를 나타내는지를 조금만 보여 주죠.
05:33
So here are three brain images taken while a person read the word "apartment,"
123
333079
4087
이 뇌 영상 세 가지는
‘아파트‘, ‘주택‘, ‘샐러리’를 읽을 때 뇌를 촬영한 것입니다.
05:37
"house" and "celery."
124
337208
1669
05:39
You can see just with your naked eye
125
339252
2002
그냥 맨눈으로 보시면
05:41
that the brain image for "apartment" and "house"
126
341296
2252
‘아파트‘와 ‘주택’은 ‘샐러리’보다
05:43
are more similar to each other
127
343548
1585
05:45
than they are to the brain image for "celery."
128
345133
2252
서로 더 비슷합니다.
05:47
And you know, of course that apartments and houses are more similar
129
347385
3170
당연히 아파트와 주택은 샐러리보다 의미가 비슷하잖아요.
05:50
than they are to celery, just the words.
130
350555
2210
05:52
So said another way,
131
352807
2544
다른 면에서 본다면,
05:55
the brain uses its scratchpad when reading the words "apartment" and "house"
132
355393
4296
뇌는 아파트와 주택을 읽을 때
샐러리를 읽을 때보다 뇌속의 메모장을 더 비슷하게 사용하죠.
05:59
in a way that's more similar than when you read the word "celery."
133
359731
3128
06:03
The scratch pad tells us a little bit
134
363693
1793
메모장은 머릿속에서 단어를 표현하는 방법을 살짝 보여줍니다.
06:05
about how the brain represents the language.
135
365486
2086
06:07
It's not a perfect picture of what the brain's doing,
136
367572
2502
뇌가 무엇을 하는지 완벽하게 보여주지는 않지만 충분하죠.
06:10
but it's good enough.
137
370074
1335
06:11
OK, so we have scratch pads for the brain.
138
371409
2169
인간의 메모장을 확인했으니까 AI의 메모장을 확인해 보죠.
06:13
Now we need a scratch pad for AI.
139
373620
2127
06:16
So inside a lot of AIs is a neural network.
140
376706
2878
AI의 내부에는 수많은 신경망이 있고
06:19
And inside of a neural network is a bunch of these little neurons.
141
379626
3253
신경망 내부에는 작은 신경 세포들이 많이 있습니다.
06:22
So here the neurons are like these little gray circles.
142
382921
2919
작은 회색 원이 신경 세포예요.
06:25
And we would like to know
143
385840
1210
어떤 것이 신경망의 메모장인지 궁금하실 거예요.
06:27
what is the scratch pad of a neural network?
144
387091
2086
06:29
Well, when we feed in a word into a neural network,
145
389177
4254
신경망에 단어를 입력하면
06:33
each of the little neurons computes a number.
146
393473
2794
작은 신경 세포들 하나하나가 숫자를 계산하죠.
06:36
Those little numbers I'm representing here with colors.
147
396893
2627
그 작은 숫자들을 색으로 나타냈습니다.
06:39
So every neuron computes this little number,
148
399562
2795
각 신경 세포는 이 숫자를 계산하고
06:42
and those numbers tell us something
149
402398
1710
이러한 숫자들로 신경망이 언어를 이해하는 방법을 알 수 있죠.
06:44
about how the neural network is processing language.
150
404108
2711
06:47
Taken together,
151
407862
1168
이 모든 것을 종합해 보면
06:49
all of those little circles paint us a picture
152
409030
2753
이 작은 원들은 신경 세포가 언어를 어떻게 이해하는지 보여주면서
06:51
of how the neural network is representing language,
153
411824
2419
06:54
and they give us the scratch pad of the neural network.
154
414243
2753
신경망의 메모장도 알려주죠.
06:57
OK, great.
155
417580
1168
인간의 뇌와 AI의 메모장, 둘 다 확인했는데요.
06:58
Now we have two scratch pads, one from the brain and one from AI.
156
418790
3086
07:01
And we want to know: Is AI doing something like what the brain is doing?
157
421876
3629
이제 AI가 인간의 뇌처럼 작동하는지 확인해보죠.
07:05
How can we test that?
158
425838
1377
어떻게 확인할 수 있을까요?
07:07
Here's what researchers have come up with.
159
427757
2002
연구자들은 이런 방법을 생각해냈습니다.
07:09
We're going to train a new model.
160
429801
1877
우리는 새 모델을 학습시킬 겁니다.
07:11
That new model is going to look at neural network scratch pad
161
431678
2877
이 새 모델은 특정 단어에 대한 신경망 메모장을 확인하고
07:14
for a particular word
162
434555
1168
07:15
and try to predict the brain scratch pad for the same word.
163
435723
3087
같은 단어에 대한 뇌 메모장을 예상해 볼 겁니다.
07:18
We can do it, by the way, around two.
164
438851
1919
참고로 두 방향 다 가능합니다.
07:20
So let's train a new model.
165
440812
2043
새 모델을 학습시켜 봅시다.
07:22
It’s going to look at the neural network scratch pad for a particular word
166
442897
3504
특정 단어의 신경망 메모장을 확인하고 두뇌 메모장을 예측하는 겁니다.
07:26
and try to predict the brain scratchpad.
167
446401
1918
두뇌와 AI의 행동에서 같은 점이 없거나
07:28
If the brain and AI are doing nothing alike,
168
448319
2586
07:30
have nothing in common,
169
450947
1168
공통점이 없다면 예측 실험을 못 하겠죠.
07:32
we won't be able to do this prediction task.
170
452115
2085
하나에서 다른 것을 예측하는 것이 불가능할 테니까요.
07:34
It won't be possible to predict one from the other.
171
454200
2461
07:36
So we've reached a fork in the road
172
456995
1710
우리는 갈림길에 이르렀고 제가 둘 중 하나를 말하리란 걸 아시겠죠.
07:38
and you can probably tell I'm about to tell you one of two things.
173
458705
3295
07:42
I’m going to tell you AI is amazing,
174
462458
2044
‘AI는 놀랍다’거나 아니면 ‘AI는 가짜다’이죠.
07:44
or I'm going to tell you AI is an imposter.
175
464544
2669
저와 같은 연구자들은 AI와 뇌는 다르다고 말하곤 합니다.
07:48
Researchers like me love to remind you
176
468047
2211
07:50
that AI is nothing like the brain.
177
470299
1627
07:51
And that is true.
178
471968
1501
그리고 그건 사실입니다.
07:53
But could it also be the AI and the brain share something in common?
179
473845
3253
그런데 AI와 뇌에 공통점이 있을 수도 있을까요?
07:58
So we’ve done this scratch pad prediction task,
180
478516
2211
그래서 메모장 예측 실험을 했고 결과는
08:00
and it turns out, 75 percent of the time
181
480727
2669
예측 실험 75%에서 특정 단어에 대한 신경망 메모장은
08:03
the predicted neural network scratchpad for a particular word
182
483438
3169
08:06
is more similar to the true neural network scratchpad for that word
183
486649
3754
무작위로 선정된 단어들에 대한 진짜 신경망 메모장보다
08:10
than it is to the neural network scratch pad
184
490403
2085
진짜 신경망과 더 비슷했습니다.
08:12
for some other randomly chosen word --
185
492488
1835
08:14
75 percent is much better than chance.
186
494323
2962
75%는 우연으로 보기 어렵죠.
08:17
What about for more complicated things,
187
497285
1918
단어가 아니라 더 복잡한 문장이나 이야기일 땐 어떨까요?
08:19
not just words, but sentences, even stories?
188
499203
2086
08:21
Again, this scratch pad prediction task works.
189
501330
2420
이때도 메모장 예측 실험은 통했죠.
08:23
We’re able to predict the neural network scratch pad from the brain and vice versa.
190
503791
4213
뇌의 신경망 메모장으로 신경망 메모장을 예측할 수 있고
반대도 가능합니다.
08:28
Amazing.
191
508838
1210
굉장하죠.
08:30
So does that mean
192
510548
1168
그렇다면 AI가 인간처럼 언어를 이해하다는 말일까요?
08:31
that neural networks and AI understand language just like we do?
193
511758
3378
08:35
Well, truthfully, no.
194
515511
1585
글쎄요, 실제로는 아닙니다.
08:37
Though these scratch pad prediction tasks show above-chance accuracy,
195
517513
4880
이러한 메모장 예측 실험은 우연을 넘는 정확성을 보여주지만
08:42
the underlying correlations are still pretty weak.
196
522393
2378
근본적인 상관관계는 상당히 빈약합니다.
08:45
And though neural networks are inspired by the brain,
197
525188
2502
또한 AI 신경망이 뇌를 모방했다 해도
08:47
they don't have the same kind of structure and complexity
198
527690
2711
거기에는 뇌에 있는 것 같은 구조와 복잡성이 없으며
08:50
that we see in the brain.
199
530401
1210
또 AI 신경망은 이 세상에 존재하는 것이 아닙니다.
08:52
Neural networks also don't exist in the world.
200
532028
2461
08:54
A neural network has never opened a door
201
534530
2086
문을 열거나 일몰을 보거나 아기 울음 소리를 들은 적이 없죠.
08:56
or seen a sunset, heard a baby cry.
202
536657
2962
09:00
Can a neural network that doesn't actually exist in the world,
203
540161
2961
실제로 존재하지도 않고 세상을 경험해보지 못한 AI 신경망이
09:03
hasn't really experienced the world,
204
543122
1794
09:04
really understand language about the world?
205
544916
2294
세상의 언어를 이해할 수 있을까요?
09:08
Still, these scratch pad prediction experiments have held up --
206
548169
2961
이 메모장 예측 실험, 즉, 다중 뇌 영상 실험, 다중 신경망은
09:11
multiple brain imaging experiments,
207
551130
1710
09:12
multiple neural networks.
208
552840
1418
그래도 성공했습니다.
09:14
We've also found that as the neural networks get more accurate,
209
554300
2961
우리는 또한 신경망이 더욱 정확해질수록
09:17
they also start to use their scratch pad in a way
210
557261
2711
메모장을 더욱 두뇌처럼 이용하기 시작한다는 것도 발견했죠.
09:20
that becomes more brain-like.
211
560014
2002
언어만이 아니고 길안내와 시각에서도 비슷한 결과를 보았습니다.
09:22
And it's not just language.
212
562058
1293
09:23
We've seen similar results in navigation and vision.
213
563392
2503
09:26
So AI is not doing exactly what the brain is doing,
214
566270
3879
따라서, AI는 정확하게 인간의 뇌처럼 작동하진 않지만
09:30
but it's not completely random either.
215
570191
2377
아주 동떨어진 것도 아닙니다.
09:34
So from where I sit,
216
574112
1835
그래서 제가 볼 때는
09:35
if we want to know if AI really understands language like we do,
217
575988
3337
정말로 AI가 인간처럼 언어를 이해하는지 알고 싶다면
09:39
we need to get inside of the Chinese room.
218
579325
2336
중국어 방 안으로 들어가 봐야 합니다.
09:41
We need to know what the AI is doing,
219
581702
1836
AI의 작동 원리를 알고 인간이 언어를 이해하는 방식과 비교해야겠죠.
09:43
and we need to be able to compare that to what people are doing
220
583579
2962
09:46
when they understand language.
221
586541
1751
09:48
AI is moving so fast.
222
588334
1877
AI는 아주 빠르게 변화합니다.
09:50
Today, I'm asking you, does AI understand language
223
590545
2377
그래서 여러분께 묻습니다. “AI는 언어를 이해할 수 있을까요?“
09:52
that might seem like a silly question in ten years.
224
592964
2460
지난 10년간 들어본 질문 중 가장 바보 같은 질문 같죠.
09:55
Or ten months.
225
595466
1168
10개월일 수도 있고요.
09:56
(Laughter)
226
596634
1919
(웃음)
09:58
But one thing will remain true.
227
598594
1544
하지만 한 가지 사실은 진실로 남을 겁니다.
10:00
We are meaning-making humans,
228
600179
1460
우리는 의미를 만드는 인간이며
10:01
and we are going to continue to look for meaning
229
601681
2878
계속해서 세상의 의미를 찾고 해석한다는 겁니다.
10:04
and interpret the world around us.
230
604559
1918
10:06
And we will need to remember
231
606477
2127
기억해야 할 것이 있습니다.
10:08
that if we only look at the input and output of AI,
232
608646
2794
AI에게 한 질문과 답만을 본다면 속아넘어가기가 아주 쉽습니다.
10:11
it's very easy to be fooled.
233
611440
2128
10:13
We need to get inside of the metaphorical room of AI
234
613609
3712
비유적인 AI의 방 안으로 들어가서
10:17
in order to see what's happening.
235
617363
1627
원리를 확인해야죠.
10:19
It's what's inside the counts.
236
619740
2461
중요한 것은 안에 들어 있는 것입니다.
10:22
Thank you.
237
622660
1168
감사합니다.
10:23
(Applause)
238
623828
4004
(박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7