아래 영문자막을 더블클릭하시면 영상이 재생됩니다.
번역: yu gang - hyun
검토: Jihyeon J. Kim
00:12
I have a question.
0
12881
1230
여러분께 묻고 싶습니다.
00:15
Can a computer write poetry?
1
15422
1943
컴퓨터가 시를 쓸 수 있을까요?
00:18
This is a provocative question.
2
18959
2077
도발적인 질문이지만
00:21
You think about it for a minute,
3
21715
1718
잠시 생각해 보신다면
00:23
and you suddenly have a bunch
of other questions like:
4
23457
2590
다른 의문이 갑자기 떠오를 것입니다.
00:26
What is a computer?
5
26769
1381
컴퓨터가 뭘까?
00:28
What is poetry?
6
28710
1575
시는 또 뭐지?
00:30
What is creativity?
7
30707
1689
창의성은 뭘까?
00:33
But these are questions
8
33650
1172
하지만 이런 질문들은
00:34
that people spend their entire
lifetime trying to answer,
9
34846
3070
인류가 평생을 바쳐 답을
찾아가는 질문들이지
00:37
not in a single TED Talk.
10
37940
2224
단순히 TED 강연 한 번으로
답할 수 있는게 아닙니다.
00:40
So we're going to have to try
a different approach.
11
40188
2445
그래서, 우리는 다른 방법으로
접근해 보려합니다.
00:42
So up here, we have two poems.
12
42657
2143
여기, 시가 두 편 있습니다.
00:45
One of them is written by a human,
13
45839
2276
하나는 사람이 썼고
00:48
and the other one's written by a computer.
14
48139
2102
다른 하나는 컴퓨터가 썼습니다.
00:50
I'm going to ask you to tell me
which one's which.
15
50754
2410
두 시를 보고 각각 누가
지었는지 알아내 보세요.
00:53
Have a go:
16
53858
1156
시작합니다!
00:55
Poem 1: Little Fly / Thy summer's play, /
My thoughtless hand / Has brush'd away.
17
55038
4056
시 1: 작은 파리야 / 너의 여름날 놀이를 /
내 부주의한 손이 / 쓸어 버렸구나.
00:59
Am I not / A fly like thee? /
Or art not thou / A man like me?
18
59118
3394
나는 너와 같은 파리가 아니냐?
아니면 너는 / 나와 같은 사람이 아니냐?
01:02
Poem 2: We can feel / Activist
through your life's / morning /
19
62536
3299
시 2 : 우리는 느낄 수 있네 /
네 삶의 아침을 통한 행동가를
01:05
Pauses to see, pope I hate the / Non
all the night to start a / great otherwise (...)
20
65859
4247
잠시 멈춰서 보시오, 교황이여.
나는 싫어하네/모든 아무 밤도 시작하는/위대한 (...)
좋아요, 시간이 다 되었습니다.
01:10
Alright, time's up.
21
70130
1359
01:11
Hands up if you think Poem 1
was written by a human.
22
71513
4096
1번 시가 사람이 쓴 시라고
생각하신다면 손을 들어보세요.
01:17
OK, most of you.
23
77547
1490
좋아요, 대부분이 손을 드셨네요.
01:19
Hands up if you think Poem 2
was written by a human.
24
79061
3023
그러면 2번을 사람이 썼다고
생각하시는 분 손 들어보세요.
01:23
Very brave of you,
25
83172
1190
대담하신 분들이네요.
01:24
because the first one was written
by the human poet William Blake.
26
84855
4285
첫 번째 시는 시인
윌리엄 블레이크의 시입니다.
01:29
The second one was written by an algorithm
27
89784
2949
두 번째 시는 알고리즘이 썼습니다.
01:32
that took all the language
from my Facebook feed on one day
28
92757
3692
제 페이스북 피드에 있는 모든 글자들을
01:36
and then regenerated it algorithmically,
29
96473
2763
알고리즘을 통해 재배열하는
방법이 이용됐죠.
01:39
according to methods that I'll describe
a little bit later on.
30
99260
3590
그 방법에 대해서는 조금 있다가
설명해 드리도록 하겠습니다.
01:43
So let's try another test.
31
103218
2404
그럼, 다른 문제를 내 보겠습니다.
01:46
Again, you haven't got ages to read this,
32
106398
2093
이번에도, 시들을 전부 다
읽어 볼 시간은 없습니다.
01:48
so just trust your gut.
33
108515
1612
그냥 여러분들의 직감을
믿으시면 됩니다.
01:50
Poem 1: A lion roars and a dog barks.
It is interesting / and fascinating
34
110151
4045
시 1 : 사자는 포효하고 개는 짖네.
흥미롭고 매력적인 것은
01:54
that a bird will fly and not / roar
or bark. Enthralling stories about animals
35
114220
4303
새는 포효하거나 짖지 않고 나는 것이네.
동물들의 놀라운 이야기는
01:58
are in my dreams and I will sing them all
if I / am not exhausted or weary.
36
118547
4060
내 꿈 속에 나오고 나는 그들을 노래하네
내가 지치거나 피곤하지 않다면.
02:02
Poem 2: Oh! kangaroos, sequins, chocolate
sodas! / You are really beautiful!
37
122631
3985
시 2 : 오! 캥거루, 세퀸장식, 초콜릿 소다!
/ 너는 참 아름답구나!
02:06
Pearls, / harmonicas, jujubes, aspirins!
All / the stuff they've always talked about (...)
38
126640
4358
진주/ 하모니카, 대추, 아스피린!
모두/ 사람들이 말하는 것이네. (...)
좋아요 시간이 다 되었네요.
02:11
Alright, time's up.
39
131022
1158
02:12
So if you think the first poem
was written by a human,
40
132204
3137
첫 번째 시가 사람이
쓴 시라고 생각하신다면
02:15
put your hand up.
41
135365
1215
손을 들어주세요.
02:17
OK.
42
137687
1154
좋습니다.
02:18
And if you think the second poem
was written by a human,
43
138865
2675
그럼 두 번째 시가 사람이
쓴 시라고 생각하시는 분
02:21
put your hand up.
44
141564
1155
손을 들어주세요.
02:23
We have, more or less, a 50/50 split here.
45
143779
3810
절반 정도로 나뉘었네요.
02:28
It was much harder.
46
148157
1436
이번 건 좀 더 어러우셨을겁니다.
02:29
The answer is,
47
149617
1712
답을 알려드리죠.
02:31
the first poem was generated
by an algorithm called Racter,
48
151353
3483
첫 번째 시는 랙터라고 불리는
알고리즘에 의해 지어졌습니다.
02:34
that was created back in the 1970s,
49
154860
3002
1970년대에 만들어진 알고리즘이죠.
02:37
and the second poem was written
by a guy called Frank O'Hara,
50
157886
3189
두 번째 시는 프랭크 오하라라는
사람이 지었습니다.
02:41
who happens to be
one of my favorite human poets.
51
161099
2668
제가 가장 좋아하는
'인간' 시인 중 한 명이죠.
02:44
(Laughter)
52
164631
3058
(웃음)
02:48
So what we've just done now
is a Turing test for poetry.
53
168046
3228
지금까지 우리는 시에 대한
'튜링 테스트'를 해 보았습니다.
02:52
The Turing test was first proposed
by this guy, Alan Turing, in 1950,
54
172018
4547
'튜링 테스트'는 1950년에
앨런 튜링이라는사람에 의해
02:56
in order to answer the question,
55
176589
1564
아래의 질문에 답하려고 제안되었습니다.
02:58
can computers think?
56
178177
1637
'컴퓨터가 생각을 할 수 있는가?'
03:00
Alan Turing believed that if
a computer was able
57
180245
2770
앨런 튜링은 만약 컴퓨터가 사람과
텍스트를 기반으로 대화를 할 때
03:03
to have a to have a text-based
conversation with a human,
58
183039
3078
상대방이 자신이 인간과 대화하고 있는지
03:06
with such proficiency
such that the human couldn't tell
59
186141
2770
아니면 컴퓨터와 대화하고 있는지를
알아내지 못할 정도의
03:08
whether they are talking
to a computer or a human,
60
188935
2966
언어 구사력을 가질 수 있다면
03:11
then the computer can be said
to have intelligence.
61
191925
2856
컴퓨터는 지능을 가질 수
있다고 믿었습니다.
03:15
So in 2013, my friend
Benjamin Laird and I,
62
195270
3295
그래서 2013년,
저와 제 친구 벤자민 럴드는
03:18
we created a Turing test
for poetry online.
63
198589
2988
시에 대한 '온라인 튜링 테스트 ' 를
만들었습니다.
03:21
It's called bot or not,
64
201601
1277
이름은 bot or not 이고
03:22
and you can go and play it for yourselves.
65
202902
2044
여러분 혼자 해 볼 수도 있습니다.
03:24
But basically, it's the game
we just played.
66
204970
2251
하지만, 기본적으로, 그것은 우리가
조금 전 한 게임과 같습니다.
03:27
You're presented with a poem,
67
207245
1528
여러분은 시를 보게 될 것이고
03:28
you don't know whether it was written
by a human or a computer
68
208797
3028
그 시를 사람이 지었는지,
컴퓨터가 지었는지 모릅니다.
그걸 추측해야만 하죠.
03:31
and you have to guess.
69
211849
1166
수많은 사람들이 테스트에
참가하였습니다.
03:33
So thousands and thousands
of people have taken this test online,
70
213039
3191
03:36
so we have results.
71
216254
1449
테스트 결과가 나왔죠.
03:37
And what are the results?
72
217727
1428
결과는 어땠을까요?
03:39
Well, Turing said that if a computer
could fool a human
73
219704
2879
글쎄요, 튜링은 만약
컴퓨터가 30% 확률로
03:42
30 percent of the time
that it was a human,
74
222607
3019
자신이 사람인 것처럼
상대방을 속일 수 있다면
03:45
then it passes the Turing test
for intelligence.
75
225650
2397
그 컴퓨터는 지능에 대한 튜링테스트를
통과한 것이라고 말했습니다.
03:48
We have poems on the bot or not database
76
228625
2438
'bot or not' 프로그램
데이터 베이스에는
03:51
that have fooled 65 percent
of human readers into thinking
77
231087
2979
65% 정도의 확룰로 사람들을 속인
03:54
it was written by a human.
78
234090
1395
시들이 존재합니다.
03:55
So, I think we have an answer
to our question.
79
235959
2817
자, 질문에 대한 답이 나온 것 같군요.
03:59
According to the logic of the Turing test,
80
239546
2348
'튜링 테스트'의 논리에 따르면
04:01
can a computer write poetry?
81
241918
1928
컴퓨터는 시를 쓸 수 있을까요?
04:03
Well, yes, absolutely it can.
82
243870
2351
네, 물론 쓸 수 있습니다.
04:07
But if you're feeling
a little bit uncomfortable
83
247782
2346
하지만 이 대답이 기분이 좀 나쁘시다면
04:10
with this answer, that's OK.
84
250152
1927
괜찮습니다, 그럴 수 있어요.
04:12
If you're having a bunch
of gut reactions to it,
85
252103
2316
만약 본능적으로 수많은
반응들이 나온다면
04:14
that's also OK because
this isn't the end of the story.
86
254443
3205
그것도 괜찮습니다.
왜냐하면 이게 끝이 아니기 때문이죠.
04:18
Let's play our third and final test.
87
258594
2324
그럼 마자막 테스트를 해 봅시다.
04:22
Again, you're going to have to read
88
262000
1750
다시 한번, 시를 읽으시고
04:23
and tell me which you think is human.
89
263774
1909
어떤 것이 사람이 쓴
시인지 말해 주세요.
04:25
Poem 1: Red flags the reason
for pretty flags. / And ribbons.
90
265707
3718
시 1 : 레그 깃발은 예쁜 깃발.
/ 그리고 리본들.
04:29
Ribbons of flags / And wearing material /
Reasons for wearing material. (...)
91
269449
4321
깃발의 리본들/ 착용하는 물건/
착용하는 물건들인 이유. (...)
04:33
Poem 2: A wounded deer leaps
highest, / I've heard the daffodil
92
273794
3918
시 2 : 다친 사슴이 가장 높이 뛴다,
/ 수선화의 소리가 들린다.
04:37
I've heard the flag to-day /
I've heard the hunter tell; /
93
277736
3446
지금까지 깃발의 소리를 듣는다
/ 나는 사냥꾼이 말하는 소리를 듣는다.
04:41
'Tis but the ecstasy of death, /
And then the brake is almost done (...)
94
281206
3702
이것은 죽음의 황홀함,
/ 그리고 나면 거의 끝난다.
04:44
OK, time is up.
95
284932
1599
좋아요 시간이 다 되었네요.
04:46
So hands up if you think Poem 1
was written by a human.
96
286555
3837
1번 시가 사람이 썼다고
생각하시면 손을 들어보세요.
04:51
Hands up if you think Poem 2
was written by a human.
97
291973
3038
그럼 두 번째 시라고
생각하시면 손 들어주세요.
04:55
Whoa, that's a lot more people.
98
295035
2331
오, 손을 많이 드셨네요
04:58
So you'd be surprised to find that Poem 1
99
298327
2968
그럼 여러분들은 첫 번째 시가
05:01
was written by the very
human poet Gertrude Stein.
100
301319
3993
사람 시인인 거트루드 슈타인이
썼다는 걸 알면 놀라시겠네요.
05:06
And Poem 2 was generated
by an algorithm called RKCP.
101
306100
5038
그리고 두 번째 시는 RKCP라고 불리는
알고리즘이 썼습니다.
05:11
Now before we go on, let me describe
very quickly and simply,
102
311162
3319
자 그럼 이야기를 이어가기 전에,
제가 짧고 단순하게
05:14
how RKCP works.
103
314505
1781
어떻게 RKCP가 작동하는지
알려드리겠습니다.
05:16
So RKCP is an algorithm
designed by Ray Kurzweil,
104
316873
3850
RKCP는 레이 커즈와일이
고안한 알고리즘입니다.
05:20
who's a director of engineering at Google
105
320747
2222
그는 구글에서
엔지니어 이사를 맡고 있고
05:22
and a firm believer
in artificial intelligence.
106
322993
2360
인공 지능에 대한
확고한 믿음을 가지고 있죠.
05:25
So, you give RKCP a source text,
107
325822
3991
RKCP에 원시 텍스트가 투입되면
05:29
it analyzes the source text in order
to find out how it uses language,
108
329837
4469
RKCP는 그것을 분석해
어떤 형식으로 쓰여졌는지 알아낸 후
05:34
and then it regenerates language
109
334330
1948
원시 텍스트을 모방하여
05:36
that emulates that first text.
110
336302
2528
새 문장을 만들어 냅니다.
05:38
So in the poem we just saw before,
111
338854
2113
우리가 전에 보았던 시들도
모두 그렇게 만들어졌습니다.
05:40
Poem 2, the one that you all
thought was human,
112
340991
2625
여러분들이 모두 사람이
쓴 것이라고 생각했던 두 번째 시 또한
05:43
it was fed a bunch of poems
113
343640
1550
시인 에밀이 디킨슨의 수많은 시들이
05:45
by a poet called Emily Dickinson
114
345214
2035
투입되었습니다.
05:47
it looked at the way she used language,
115
347273
2189
RKCP는 그녀의 문체를 알아냈고
05:49
learned the model,
116
349486
1165
그 문체를 학습하여
05:50
and then it regenerated a model
according to that same structure.
117
350675
4258
같은 형식의 문체를 이용해
시를 재생산했습니다.
05:56
But the important thing to know about RKCP
118
356732
2178
하지만 RKCP에 대해
알아야 할 중요한 것은
05:58
is that it doesn't know the meaning
of the words it's using.
119
358934
2838
RKCP는 시에 사용되는 어휘들의
뜻을 모른다는 것입니다.
06:02
The language is just raw material,
120
362359
2276
언어는 단지 원자재일 뿐입니다.
06:04
it could be Chinese,
it could be in Swedish,
121
364659
2160
중국어가 될 수도,
스웨덴어가 될 수도,
06:06
it could be the collected language
from your Facebook feed for one day.
122
366843
4179
여러분의 페이스북 피드에서
수집된 언어일 수도 있습니다.
06:11
It's just raw material.
123
371046
1652
그건 단지 원자재일 뿐이죠.
06:13
And nevertheless, it's able
to create a poem
124
373380
2697
그럼에도 불구하고, RKCP는 사람인
거트루드 슈타인의 시보다도
06:16
that seems more human
than Gertrude Stein's poem,
125
376101
3327
사람이 쓴 것 같은
06:19
and Gertrude Stein is a human.
126
379452
2153
시를 창조해 낼 수 있습니다.
06:22
So what we've done here is,
more or less, a reverse Turing test.
127
382846
4072
우리는 지금까지 '튜링테스트'를
역으로 생각해 보았습니다.
06:27
So Gertrude Stein, who's a human,
is able to write a poem
128
387940
5179
그러니까, 사람인 거트루드 슈타인은
06:33
that fools a majority
of human judges into thinking
129
393143
3738
자신의 시를 컴퓨터가 썼다고 믿게
06:36
that it was written by a computer.
130
396905
1826
대다수의 사람을 속인 겁니다.
06:39
Therefore, according to the logic
of the reverse Turing test,
131
399176
4141
그러므로, '튜링테스트'를 역으로
생각해 본 결과는,
06:43
Gertrude Stein is a computer.
132
403341
1916
거트루드 슈타인이 컴퓨터라는 거네요.
06:45
(Laughter)
133
405281
1462
(웃음)
06:47
Feeling confused?
134
407358
1294
혼란스러우신가요?
06:49
I think that's fair enough.
135
409193
1515
이 정도면 충분한 것 같습니다.
06:51
So far we've had humans
that write like humans,
136
411546
4116
지금까지 우리는
사람처럼 글을 쓰는 사람도
06:55
we have computers that write
like computers,
137
415686
3111
컴퓨터처럼 글을 쓰는 컴퓨터도
06:58
we have computers that write like humans,
138
418821
3055
사람처럼 글을 쓰는 컴퓨터도
07:01
but we also have,
perhaps most confusingly,
139
421900
3632
심지어 아마 가장 혼란스러우시겠지만
07:05
humans that write like computers.
140
425556
2375
컴퓨터처럼 글을 쓰는
사람도 보았습니다.
07:08
So what do we take from all of this?
141
428938
1766
그래서 우리가 이것들부터
얻을 수 있는게 도대체 뭘까요?
07:11
Do we take that William Blake
is somehow more of a human
142
431611
3157
윌리엄 블레이크가 거트루드 슈타인보다
07:14
than Gertrude Stein?
143
434792
1249
더 인간답다고 해야 하나요?
07:16
Or that Gertrude Stein is more
of a computer than William Blake?
144
436065
3046
아니면, 거트루드 슈타인이
윌리엄 블레이크보다 더 컴퓨터답다고요?
07:19
(Laughter)
145
439135
1552
(웃음)
07:20
These are questions
I've been asking myself
146
440711
2323
이 질문들은 거의 2년 동안
제가 제 자신에게
07:23
for around two years now,
147
443058
1465
묻고 있는 질문입니다.
07:24
and I don't have any answers.
148
444547
2309
그리고 저는 답을 얻지 못했습니다.
07:26
But what I do have are a bunch of insights
149
446880
2330
하지만 제가 한 질문들은
인간과 기술간의
07:29
about our relationship with technology.
150
449234
2534
관계에 대한 큰 통찰들입니다.
07:32
So my first insight is that,
for some reason,
151
452999
3609
제 첫 번째 통찰은, 어떤 이유에선지
07:36
we associate poetry with being human.
152
456632
3111
우리는 시를 '인간이라는 것'과
연관시킨다는 것입니다.
07:40
So that when we ask,
"Can a computer write poetry?"
153
460197
3715
우리가 '컴퓨터가 시를 쓸 수 있을까?'
라고 질문하는 것은
07:43
we're also asking,
154
463936
1193
다음 질문들과 같습니다.
07:45
"What does it mean to be human
155
465153
1798
'인간이라는 것'은 무엇인가?'
07:46
and how do we put boundaries
around this category?
156
466975
3172
'인간이라는 범주에
어떤 경계를 세워야 하는가?'
07:50
How do we say who or what
can be part of this category?"
157
470171
3658
어떻게 '누구 또는 무엇'이
이 범주에 속한다고 말할 수 있는가? '
07:54
This is an essentially
philosophical question, I believe,
158
474376
3351
이건 본질적으로 철학적 질문이라고
저는 믿습니다.
07:57
and it can't be answered
with a yes or no test,
159
477751
2229
그리고 이 질문들은 '튜링 테스트' 처럼
'예' 또는 '아니요' 테스트를 통해
08:00
like the Turing test.
160
480004
1327
답해질 수 있는 것이 아닙니다.
08:01
I also believe that Alan Turing
understood this,
161
481805
3045
저는 또한 앨런 튜링이
이것을 이해했었으며
08:04
and that when he devised
his test back in 1950,
162
484874
3305
1950년, 그가 '철학적 도발'로써
이 테스트를 고안했고,
08:08
he was doing it
as a philosophical provocation.
163
488203
2802
실행했다고 믿습니다.
08:13
So my second insight is that,
when we take the Turing test for poetry,
164
493124
5541
제 두번째 통찰에 대해 설명하자면,
우리는 시에 대해 튜링테스트를 할 때
08:18
we're not really testing
the capacity of the computers
165
498689
3460
컴퓨터의 역량을 시험하고
있는 것이 아닙니다.
08:22
because poetry-generating algorithms,
166
502173
2893
왜냐하면 시 - 생산 알고리즘들은
08:25
they're pretty simple and have existed,
more or less, since the 1950s.
167
505090
4563
매우 간단하고,
1950년대 정도부터 존재했으니까요.
08:31
What we are doing with the Turing
test for poetry, rather,
168
511055
3118
우리가 '튜링 테스트'를 통해
정말로 하고 있는 것은
08:34
is collecting opinions about what
constitutes humanness.
169
514197
4615
'무엇이 인간성을 구성하는가'에 대한
의견을 모으는 것입니다.
08:40
So, what I've figured out,
170
520313
2729
제가 알아낸 것은
08:43
we've seen this when earlier today,
171
523066
2972
우리가 좀 전에 알아낸 것과 같습니다.
08:46
we say that William Blake
is more of a human
172
526062
2478
우리는 윌리엄 블레이크가
거트루드 슈타인보다
08:48
than Gertrude Stein.
173
528564
1565
더 인간답다고 말했었습니다.
08:50
Of course, this doesn't mean
that William Blake
174
530153
2462
물론, 이건 정말로 윌리엄 블레이크가
08:52
was actually more human
175
532639
1828
더 인간답다는 의미는 아닙니다.
08:54
or that Gertrude Stein
was more of a computer.
176
534491
2327
또는, 거트루드 슈타인이
더 컴퓨터답다는 의미도 아닙니다.
08:57
It simply means that the category
of the human is unstable.
177
537533
4714
이건 단순히 '인간'이라는
범주가 불안정하다는 뜻입니다.
09:03
This has led me to understand
178
543450
2074
이것은 제가 '인간이라는 것' 이
09:05
that the human is not a cold, hard fact.
179
545548
2763
차갑고, 딱딱한 사실이 아닌
09:08
Rather, it is something
that's constructed with our opinions
180
548832
3132
우리의 의견들로 구성되어 있으며,
시간이 지남에 따라
09:11
and something that changes over time.
181
551988
2855
변하는 것이라는 것을
이해하게 해 주었습니다.
09:16
So my final insight is that
the computer, more or less,
182
556671
4479
제 마지막 통찰은 '컴퓨터'라는 것이
우리가 보여주는 인간의 생각을
반영하는 '거울' 처럼
09:21
works like a mirror
that reflects any idea of a human
183
561174
4006
09:25
that we show it.
184
565204
1375
작동한다는 것입니다.
09:26
We show it Emily Dickinson,
185
566958
1884
우리가 에밀리 디킨슨을 보여주면
09:28
it gives Emily Dickinson back to us.
186
568866
2321
그것은 우리에게
에밀리 디킨슨을 돌려줍니다.
09:31
We show it William Blake,
187
571768
1834
우리가 윌리엄 블레이크를 보여주면
09:33
that's what it reflects back to us.
188
573626
2285
그것은 우리에게
윌리엄 블레이크를 반영해 줍니다.
09:35
We show it Gertrude Stein,
189
575935
1839
우리가 거트루드 슈타인을 보여주면
09:37
what we get back is Gertrude Stein.
190
577798
2470
우리는 거트루드 슈타인을
다시 받습니다.
09:41
More than any other bit of technology,
191
581083
2368
어떠한 다른 기술보다도
09:43
the computer is a mirror that reflects
any idea of the human we teach it.
192
583475
5165
컴퓨터는 우리가 가르치는
인간의 생각을 반영하는 거울입니다.
09:50
So I'm sure a lot of you have been hearing
193
590061
2287
여러분은 아마도 최근 들어
09:52
a lot about artificial
intelligence recently.
194
592372
2862
인공지능에 대한 많은
이야기를 들었을 겁니다.
09:56
And much of the conversation is,
195
596694
2830
그리고 대부분 대화의 주제는
10:00
can we build it?
196
600292
1189
우리가 만들 수 있을까?
10:02
Can we build an intelligent computer?
197
602383
3135
우리가 지능적인 컴퓨터를
만들 수 있을까?
10:05
Can we build a creative computer?
198
605542
2763
우리가 창조적인 컴퓨터를
만들 수 있을까?
10:08
What we seem to be asking over and over
199
608329
2113
우리는 끝없이 인간 같은 컴퓨터를
만들 수 있을까?'
10:10
is can we build a human-like computer?
200
610466
2724
라고 질문하는 것처럼 보입니다.
10:13
But what we've seen just now
201
613961
1556
하지만 우리는 방금
10:15
is that the human
is not a scientific fact,
202
615541
3088
'인간이라는 것'이 과학적 사실이 아닌
10:18
that it's an ever-shifting,
concatenating idea
203
618653
3530
영원히 가변적인,
시간이 지남에 따라 변해가는
10:22
and one that changes over time.
204
622207
2531
사슬과 같은 생각이라는
사실을 보았습니다.
10:24
So that when we begin
to grapple with the ideas
205
624762
3152
그러므로 미래에
우리가 인공지능에 대해
10:27
of artificial intelligence in the future,
206
627938
2386
고심하기 시작할 때
10:30
we shouldn't only be asking ourselves,
207
630348
1905
우리는 단지 우리자신에게
'우리가 만들 수 있을까?'
10:32
"Can we build it?"
208
632277
1368
라고 질문해서는 안됩니다.
10:33
But we should also be asking ourselves,
209
633669
1894
우리는 자신에게
이 질문을 해야 합니다.
10:35
"What idea of the human
do we want to have reflected back to us?"
210
635587
3713
'우리는 컴퓨터가 인간의 어떤 생각을
반영해 나타내기를 원하는가? '
10:39
This is an essentially philosophical idea,
211
639820
2693
이것은 본질적으로 철학적 생각이며
10:42
and it's one that can't be answered
with software alone,
212
642537
2997
소프트웨어 만으로는
답할 수 없는 질문입니다.
10:45
but I think requires a moment
of species-wide, existential reflection.
213
645558
4977
저는 '인간'이라는 종의 존재적 반영의
순간이 필요하다고 믿습니다.
10:51
Thank you.
214
651040
1153
감사합니다.
10:52
(Applause)
215
652217
2695
(박수)
New videos
이 웹사이트 정보
이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.