아래 영문자막을 더블클릭하시면 영상이 재생됩니다.
번역: Jaewook Seol
검토: DK Kim
00:04
Since 2001, I have been working
on what we would now call
0
4334
3503
2001년부터 제가 일해 온 분야는
현재 일반 인공 지능 정렬 문제라고
부르는 분야입니다.
00:07
the problem of aligning artificial
general intelligence:
1
7879
3629
00:11
how to shape the preferences and behavior
2
11550
2085
즉, 어떻게 강력한 인공 정신의
행동과 선호도를 형성하여
00:13
of a powerful artificial mind
such that it does not kill everyone.
3
13677
4838
사람들을 죽이지 않게
만들 것인가 하는 문제입니다.
00:19
I more or less founded the field
two decades ago,
4
19224
3128
제가 20년 전에 이 분야의 기반을
사실상 다졌다고 할 수 있는데
00:22
when nobody else considered it
rewarding enough to work on.
5
22352
2794
그때는 그게 보람찬 일이라고
생각하는 사람이 아무도 없었죠.
00:25
I tried to get this very important
project started early
6
25146
2711
저는 이 굉장히 중요한 프로젝트가
일찍 시작되게 하려고 노력했습니다.
00:27
so we'd be in less
of a drastic rush later.
7
27899
2544
그러면 나중에 극단적으로 서두를
필요가 조금이라도 줄겠죠.
00:31
I consider myself to have failed.
8
31069
2044
저는 제가 실패했다고 봅니다.
00:33
(Laughter)
9
33154
1001
(웃음)
00:34
Nobody understands how modern
AI systems do what they do.
10
34197
3337
현대 AI가 어떻게 작동하는지
이해하는 사람은 아무도 없어요.
00:37
They are giant, inscrutable matrices
of floating point numbers
11
37576
2961
그들은 거대하고 불가해한
부동 소수점들 행렬로서
00:40
that we nudge in the direction
of better performance
12
40579
2460
더 나은 성능을 위해 그들을 밀어부쳐서
그들은 설명할 수 없는 방식으로
작동하는 지경에 이르렀습니다.
00:43
until they inexplicably start working.
13
43039
2044
00:45
At some point, the companies
rushing headlong to scale AI
14
45083
3378
AI를 확장하기 위해
저돌적으로 서두르는 기업들이
00:48
will cough out something
that's smarter than humanity.
15
48461
2670
인류보다 더 똑똑한 뭔가를
언젠가 뱉어내게 될 겁니다.
00:51
Nobody knows how to calculate
when that will happen.
16
51131
2544
그게 일어날 시점을
알 방법은 어디에도 없죠.
00:53
My wild guess is that it will happen
after zero to two more breakthroughs
17
53675
3712
제가 대략 추정한다면,
트랜스포머 규모에서
돌파구를 많아야 두 개 정도
더 찾은 뒤에 일어날 것 같습니다.
00:57
the size of transformers.
18
57429
1710
00:59
What happens if we build
something smarter than us
19
59139
2335
제대로 이해도 못 하면서 우리보다
똑똑한 걸 만들면 어떻게 될까요?
01:01
that we understand that poorly?
20
61516
2377
01:03
Some people find it obvious
that building something smarter than us
21
63935
3170
어떤 사람들은 우리가 이해도 못 하면서
우리보다 똑똑한 걸 만든다면
01:07
that we don't understand might go badly.
22
67105
2294
일이 잘못될 게 명백하다고 합니다.
01:09
Others come in with a very wide range
of hopeful thoughts
23
69441
3879
다른 사람들은 그게 어떻게
잘 될 수 있을지에 대해
01:13
about how it might possibly go well.
24
73361
2044
굉장히 광범위한 희망찬
생각들을 들고 오죠.
01:16
Even if I had 20 minutes for this talk
and months to prepare it,
25
76281
3337
20분짜리 이 강연을 위해
몇 달을 준비한다 해도
01:19
I would not be able to refute
all the ways people find to imagine
26
79659
3087
사람들이 AI가 잘 될 거라고
상상하는 모든 것들에 대해
01:22
that things might go well.
27
82746
1710
반박할 수는 없었을 겁니다.
01:24
But I will say that there is no
standard scientific consensus
28
84456
4546
하지만 저는 그게 어떻게
잘 될지에 대해서는
표준 과학계의 합의가
없다고 말씀 드리겠습니다.
01:29
for how things will go well.
29
89044
1668
01:30
There is no hope
that has been widely persuasive
30
90712
2252
광범위하게 설득적이면서도
회의론자들의 공격을 버텨낸
희망은 아직 없습니다.
01:33
and stood up to skeptical examination.
31
93006
1877
01:35
There is nothing resembling a real
engineering plan for us surviving
32
95592
4421
우리의 생존을 위한 진짜 공학적 계획과
비슷한 것도 없습니다.
제가 논할 수 있는 한은요.
01:40
that I could critique.
33
100013
1710
01:41
This is not a good place
in which to find ourselves.
34
101765
2752
지금 우리의 처지는
좋은 상황이 아닙니다.
01:44
If I had more time,
35
104517
1210
시간이 더 많았다면 몇 가지
그럴듯한 이유들을 말씀드렸을 것입니다.
01:45
I'd try to tell you
about the predictable reasons
36
105727
2294
01:48
why the current paradigm will not work
37
108063
1960
현재의 패러다임으로는
우리를 좋아하는 초지능,
또는 친구 같은 초지능이나
01:50
to build a superintelligence
that likes you
38
110065
2460
01:52
or is friends with you,
or that just follows orders.
39
112567
3378
지시를 그냥 따르는 초지능을
만들 수 없는 이유 말입니다.
01:56
Why, if you press "thumbs up"
when humans think that things went right
40
116613
4379
잘됐다고 인간이 생각할 떄
‘좋아요’를 누르거나,
잘못됐다고 다른 AI 시스템이
생각할 때 ‘싫어요’를 누른다면,
02:01
or "thumbs down" when another AI system
thinks that they went wrong,
41
121034
3712
02:04
you do not get a mind
that wants nice things
42
124788
3503
훈련 받지 않은 부분도 잘 일반화해서
02:08
in a way that generalizes well
outside the training distribution
43
128291
4004
훈련 교관보다 더 똑똑한 AI가 되어
02:12
to where the AI is smarter
than the trainers.
44
132337
2461
좋은 것만 원하는 인공 정신을
왜 얻을 수 없는 걸까요?
02:15
You can search for "Yudkowsky
list of lethalities" for more.
45
135674
5130
더 알고 싶으시면 ‘유드코스키
치명성 목록’을 검색해보세요.
02:20
(Laughter)
46
140804
1793
(웃음)
02:22
But to worry, you do not
need to believe me
47
142597
2169
걱정되시겠지만, 그렇다고
정확히 어떤 재난이 벌어질지
02:24
about exact predictions
of exact disasters.
48
144808
2878
제가 정확히 예측했다고
생각할 필요는 없습니다.
02:27
You just need to expect that things
are not going to work great
49
147727
2962
여러분은 그냥 진짜 진지하고
진짜 결정적인 최초 시도에서는
02:30
on the first really serious,
really critical try
50
150730
3045
일이 잘 되지 않을 거라고
생각하시면 됩니다.
02:33
because an AI system
smart enough to be truly dangerous
51
153817
3503
진정으로 위험할 정도로 똑똑한 AI는
02:37
was meaningfully different
from AI systems stupider than that.
52
157362
3503
그보다 더 멍청한 AI와는
아주 다를 것이기 때문입니다.
02:40
My prediction is that this ends up with us
facing down something smarter than us
53
160907
5005
제 예상으로는 이건 결국
우리가 원하는 걸 원하지도 않고,
우리가 가치를 두거나 의미있게 여기는
그 어떤 것도 원하지 않으면서도
02:45
that does not want what we want,
54
165954
1752
02:47
that does not want anything we recognize
as valuable or meaningful.
55
167706
4170
우리보다 똑똑한 뭔가를
대면하는 결과를 낳을 것입니다.
02:52
I cannot predict exactly how a conflict
between humanity and a smarter AI would go
56
172252
4588
똑똑한 AI와 인류 간에 어떤 갈등이
불거질지 저도 정확히 예상 못 합니다.
02:56
for the same reason I can't predict
exactly how you would lose a chess game
57
176881
3838
현재 최고 AI 체스 프로그램,
예컨대 스톡피시와 체스를 두면
03:00
to one of the current top
AI chess programs, let's say Stockfish.
58
180760
3671
여러분이 정확히 어떤 식으로 질지
예상할 수 없는 것과 같습니다.
03:04
If I could predict exactly
where Stockfish could move,
59
184973
3545
만약 스톡피시가 말을 어디로 움직일지
제가 정확히 예상할 수 있다면,
03:08
I could play chess that well myself.
60
188560
2544
제가 체스를 그 정도로 잘했겠죠.
03:11
I can't predict exactly
how you'll lose to Stockfish,
61
191146
2502
여러분이 스톡피시에게 어떻게 질지
제가 정확히 예상할 수는 없지만,
03:13
but I can predict who wins the game.
62
193648
2044
누가 경기에서 이길지는
예상할 수 있습니다.
03:16
I do not expect something actually smart
to attack us with marching robot armies
63
196401
4421
저는 진짜 똑똑한 뭔가가
붉은 눈을 번쩍거리며
진군하는 로봇 군단으로
우리를 공격하는 상황,
03:20
with glowing red eyes
64
200864
1543
03:22
where there could be a fun movie
about us fighting them.
65
202407
3086
우리가 그들과 싸우는 재밌는
영화 같은 상황을 예상하진 않습니다.
03:25
I expect an actually smarter
and uncaring entity
66
205535
2502
제가 예상하는 건,
진짜 더 똑똑하고 무정한 존재라면
03:28
will figure out strategies
and technologies
67
208079
2002
신속하고 확실하게 죽일 수 있는
기술을 알아낸 다음
03:30
that can kill us quickly
and reliably and then kill us.
68
210123
3545
우리를 죽일 거라는 겁니다.
03:34
I am not saying that the problem
of aligning superintelligence
69
214461
2919
저는 초지능을 정렬하는 문제가
원칙적으로 해결될 수 없다는
얘기를 하는 게 아닙니다.
03:37
is unsolvable in principle.
70
217422
1710
03:39
I expect we could figure it out
with unlimited time and unlimited retries,
71
219174
4879
시간이 무한히 있고 무한히 시도하면
알아낼 수 있을 겁니다.
03:44
which the usual process of science
assumes that we have.
72
224095
3796
일반적인 과학적 절차에서
가정하는 것이죠.
03:48
The problem here is the part
where we don't get to say,
73
228308
2836
문제는 우리가 이렇게
얘기할 수 없다는 점입니다.
03:51
“Ha ha, whoops, that sure didn’t work.
74
231186
2294
“하하, 아이고,
그건 확실히 안 통하네.
03:53
That clever idea that used to work
on earlier systems
75
233521
3837
초창기 시스템에서 통했던
그 기막힌 아이디어가
03:57
sure broke down when the AI
got smarter, smarter than us.”
76
237358
3504
AI가 우리보다 더 똑똑해지니까
확실히 소용없어졌군.”
04:01
We do not get to learn
from our mistakes and try again
77
241571
2544
우리는 실수에서 배우고
다시 시도해 볼 수 없을 겁니다.
04:04
because everyone is already dead.
78
244157
1960
벌써 모두 다 죽었으니까요.
무리한 요구일 수 있습니다.
04:07
It is a large ask
79
247076
2586
04:09
to get an unprecedented scientific
and engineering challenge
80
249704
3003
전례 없는 과학적, 공학적 과제를
04:12
correct on the first critical try.
81
252707
2002
한 방에 정확히 해결한다는 건 말이죠.
04:15
Humanity is not approaching
this issue with remotely
82
255084
3045
인류가 이 문제에 접근하는 방식은
합당한 심각성 수준에서
한참 동떨어져 있습니다.
04:18
the level of seriousness
that would be required.
83
258171
2711
04:20
Some of the people leading these efforts
84
260924
1918
이런 노력들을 이끄는 사람들 중 일부는
지난 십 년간 초지능을 만든다는 게
04:22
have spent the last decade not denying
85
262884
2502
04:25
that creating a superintelligence
might kill everyone,
86
265386
2920
모두를 죽일 거란 점을 부인하는 대신에
04:28
but joking about it.
87
268306
1376
그걸 농담거리로 삼았습니다.
04:30
We are very far behind.
88
270183
1877
우리는 굉장히 뒤처져 있어요.
04:32
This is not a gap
we can overcome in six months,
89
272101
2294
이건 6개월 유예 선언 같은 걸로
우리가 6개월 만에
극복할 수 있는 격차가 아닙니다.
04:34
given a six-month moratorium.
90
274437
1919
04:36
If we actually try
to do this in real life,
91
276689
2503
현실에서 이걸 진짜로 시도하려 한다면
우린 모두 죽을 거예요.
04:39
we are all going to die.
92
279234
1668
04:41
People say to me at this point,
what's your ask?
93
281402
2586
사람들은 이쯤에서 말하죠,
그래서 어쩌자고?
04:44
I do not have any realistic plan,
94
284697
1627
제겐 어떤 현실적인 계획도 없습니다.
04:46
which is why I spent the last two decades
95
286324
1960
그래서 지난 20년간 시도했지만
04:48
trying and failing to end up
anywhere but here.
96
288326
2586
아무런 성과 없이 여기까지 온 거죠.
04:51
My best bad take is that we need
an international coalition
97
291913
3670
대략 생각하기에는
거대 AI 훈련을 금지하는
국제 연대가 필요합니다.
04:55
banning large AI training runs,
98
295625
2252
04:57
including extreme
and extraordinary measures
99
297877
3379
그러한 금지가 실제적이고
보편적인 효과를 내도록 할
05:01
to have that ban be actually
and universally effective,
100
301256
3253
극단적이고 예외적인
조치까지 포함해서 말이죠.
05:04
like tracking all GPU sales,
101
304509
2377
모든 GPU 판매를 추적하거나,
05:06
monitoring all the data centers,
102
306928
2127
모든 데이터 센터를 감시하거나,
05:09
being willing to risk
a shooting conflict between nations
103
309055
2711
조약에 서명하지 않은 국가에 있는
05:11
in order to destroy
an unmonitored data center
104
311808
2711
감시받지 않는 데이터 센터를
파괴하기 위해
05:14
in a non-signatory country.
105
314561
1793
국가 간의 분쟁도 불사할
의지 같은 것 말이에요.
05:17
I say this, not expecting
that to actually happen.
106
317480
3170
이렇게 얘기는 해도
실제로 될 거라 기대하진 않습니다.
05:21
I say this expecting that we all just die.
107
321109
2919
그냥 모두 죽을 거라 생각하지만
얘기를 하는 거예요.
05:24
But it is not my place
to just decide on my own
108
324779
3295
그런데 인류가 다른 사람들에게
구태여 경고하지도 않고
05:28
that humanity will choose to die,
109
328074
2211
죽음을 선택할 것이라는 말은
05:30
to the point of not bothering
to warn anyone.
110
330326
2461
제 마음대로
그냥 하는 소리가 아닙니다.
05:33
I have heard that people
outside the tech industry
111
333204
2336
저는 기술 업계 외부인들이
업계 내부자들보다
05:35
are getting this point
faster than people inside it.
112
335582
2627
이 지점을 더 빨리
이해한다고 들었습니다.
05:38
Maybe humanity wakes up one morning
and decides to live.
113
338251
3712
인류는 어느 날 아침에 일어나서
살아야겠다고 정할지도 모릅니다.
05:43
Thank you for coming to my brief TED talk.
114
343006
2043
저의 간략한 TED 강연에
와주셔서 감사합니다.
05:45
(Laughter)
115
345049
1585
(웃음)
05:46
(Applause and cheers)
116
346676
6965
(박수)(환호)
05:56
Chris Anderson: So, Eliezer, thank you
for coming and giving that.
117
356102
4421
크리스 앤더슨: 네, 엘리에저,
오늘 강연 감사드립니다.
06:00
It seems like what you're raising
the alarm about is that like,
118
360523
3962
엘리에저 씨가 경종을 울리는 것은,
06:04
for this to happen, for an AI
to basically destroy humanity,
119
364527
3962
그런 일이 일어나려면,
AI가 인류를 없애려면,
06:08
it has to break out, escape controls
of the internet and, you know,
120
368489
5172
그게 인터넷의 통제에서
벗어나고 탈출해서,
06:13
start commanding actual
real-world resources.
121
373661
2920
실제로 현실 자원을 통제하기
시작해야 한다는 말이죠.
06:16
You say you can't predict
how that will happen,
122
376581
2210
그게 어떻게 벌어질지
예상할 수 없다고 하셨지만,
06:18
but just paint one or two possibilities.
123
378833
3462
그냥 한두 가지 가능성을 그려보시죠.
06:22
Eliezer Yudkowsky:
OK, so why is this hard?
124
382337
2794
엘리에저 유드코스키:
좋습니다, 이게 왜 어려울까요?
06:25
First, because you can't predict exactly
where a smarter chess program will move.
125
385131
3837
첫째, 더 똑똑한 체스 프로그램의
다음 수를 정확히 예상할 수 없거든요.
06:28
Maybe even more importantly than that,
126
388968
1877
어쩌면 그보다 더 중요한 건,
06:30
imagine sending the design
for an air conditioner
127
390887
2794
에어컨 설계도를 11세기로
보낸다고 상상해보세요.
06:33
back to the 11th century.
128
393723
1877
06:35
Even if they -- if it’s enough
detail for them to build it,
129
395642
3128
설령 그 시대 사람들이 그걸 만들 만큼
충분한 세부 사항을 담았다 해도,
06:38
they will be surprised
when cold air comes out
130
398811
2753
에어컨에서 찬 바람이 나오면
그들은 깜짝 놀랄 겁니다.
06:41
because the air conditioner will use
the temperature-pressure relation
131
401564
3670
왜냐하면 에어컨은 온도-압력
상관관계를 사용할 텐데
06:45
and they don't know
about that law of nature.
132
405276
2461
그들은 그 법칙을
아직 모르기 때문입니다.
06:47
So if you want me to sketch
what a superintelligence might do,
133
407779
4629
그래서 크리스 씨가 제게
초지능이 뭘 할지 그려보라 하신다면,
06:52
I can go deeper and deeper into places
134
412450
2336
우리가 아직 알지 못하지만
기술적 진보가 예측되는 분야에 대해
06:54
where we think there are predictable
technological advancements
135
414827
2962
점점 더 깊이 파고들어
볼 수 있을 겁니다.
06:57
that we haven't figured out yet.
136
417789
1626
06:59
And as I go deeper, it will get
harder and harder to follow.
137
419415
2836
또 제가 더 깊이 파고들수록
점점 더 따라가기 힘들어지겠죠.
이야기는 무척 설득적일 수 있습니다.
07:02
It could be super persuasive.
138
422251
1961
07:04
That's relatively easy to understand.
139
424253
1877
상대적으로 이해하기 쉬울 수도 있죠.
07:06
We do not understand exactly
how the brain works,
140
426130
2545
우리는 아직 뇌가 어떻게 작동하는지
정확히 이해하지 못합니다.
07:08
so it's a great place to exploit
laws of nature that we do not know about.
141
428716
3504
그래서 아직 우리가 모르는
자연 법칙을 뽑아내기 좋은 분야죠.
07:12
Rules of the environment,
142
432261
1502
환경 법칙이나 그걸 뛰어 넘는
신기술을 창안할 수 있어요.
07:13
invent new technologies beyond that.
143
433805
2669
07:16
Can you build a synthetic virus
that gives humans a cold
144
436808
3879
합성 바이러스를 만들어서
인간이 감기에 걸리게 만든 다음에
07:20
and then a bit of neurological change
and they're easier to persuade?
145
440728
4213
신경 회로를 약간 바꾸어서
더 설득하기 쉽게 만들 수 있을까요?
07:24
Can you build your own synthetic biology,
146
444941
3336
자신만의 합성 생명체,
합성 사이보그를 만들 수 있을까요?
07:28
synthetic cyborgs?
147
448319
1585
07:29
Can you blow straight past that
148
449946
2044
그걸 곧장 뛰어 넘어
07:31
to covalently bonded
equivalents of biology,
149
451990
4004
공유 결합으로 결합한 생명체로
넘어갈 수 있을까요?
07:36
where instead of proteins that fold up
and are held together by static cling,
150
456035
3754
단백질이 접혀져서
정적 결합에 의해 묶인 게 아니라
07:39
you've got things that go down
much sharper potential energy gradients
151
459789
3378
훨씬 더 급격한 에너지 차이를 두고
서로 결합된 그런 것 말입니다.
07:43
and are bonded together?
152
463209
1376
07:44
People have done advanced design work
about this sort of thing
153
464585
3546
사람들은 이런 종류의 것들에 대해
선행 설계 작업을 해왔습니다.
07:48
for artificial red blood cells
that could hold 100 times as much oxygen
154
468172
3879
산소를 100배나 운반할 수 있는
인공 적혈구 세포는
07:52
if they were using tiny
sapphire vessels to store the oxygen.
155
472093
3754
산소를 저장하기 위해
아주 작은 사파이어 용기를 씁니다.
07:55
There's lots and lots
of room above biology,
156
475888
2586
생물학 너머 많고 많은 영역이
더 있을 수 있지만
07:58
but it gets harder and harder
to understand.
157
478474
2211
점점 더 이해하기 어려워지죠.
08:01
CA: So what I hear you saying
158
481519
1543
크리스: 그럼 엘리에저 씨 말씀은
이런 무시무시한 가능성들이 있지만
08:03
is that these terrifying
possibilities there
159
483104
2294
08:05
but your real guess is that AIs will work
out something more devious than that.
160
485440
5130
엘리에저 씨가 진짜로 추측하는 건
AI들이 그것보다 훨씬 더
이상한 것도 만들어낼 거란 건가요?
08:10
Is that really a likely
pathway in your mind?
161
490570
3837
그게 진짜 엘리에저 씨 생각에
가능성 있는 경로인가요?
08:14
EY: Which part?
162
494407
1168
엘리에저: 어떤 부분이요?
08:15
That they're smarter
than I am? Absolutely.
163
495616
2002
그들이 저보다 더 똑똑하다는
부분 말이라면 그건 확실하죠.
08:17
CA: Not that they're smarter,
164
497660
1418
크리스: 그들이 더
똑똑하다는 것 말고요,
08:19
but why would they want
to go in that direction?
165
499078
3045
왜 그런 방향으로
가고 싶어할 건지 말입니다.
08:22
Like, AIs don't have our feelings of
sort of envy and jealousy and anger
166
502123
5422
그러니까, AI들은 우리처럼
시기와 질투와 분노 같은
감정이 없잖아요.
08:27
and so forth.
167
507587
1168
08:28
So why might they go in that direction?
168
508755
2460
그런데 왜 AI들이
그런 방향으로 가려고 하겠어요?
08:31
EY: Because it's convergently implied
by almost any of the strange,
169
511215
4296
엘리에저: 왜냐하면 그 이상하고
이해할 수 없는 거의 모든 것들이
08:35
inscrutable things that they
might end up wanting
170
515511
3379
이런 ‘좋아요‘와 ‘싫어요’
같은 것들에 대한
08:38
as a result of gradient descent
171
518931
1710
점진적인 선호도 때문에
08:40
on these "thumbs up"
and "thumbs down" things internally.
172
520683
2711
결국 그걸 원할 것임을
암시하고 있기 때문입니다.
08:44
If all you want is to make tiny
little molecular squiggles
173
524604
3920
당신이 원하는 게 그저 조그만
분자 뭉텅이를 만드는 게 전부거나
08:48
or that's like, one component
of what you want,
174
528566
2461
혹은 그게 당신이 원하는 것의
한 요소일 뿐이라 해도,
08:51
but it's a component that never saturates,
you just want more and more of it,
175
531069
3628
그건 절대 멈추지 않고
그저 계속 더 많이 원하게 됩니다.
08:54
the same way that we would want
more and more galaxies filled with life
176
534697
3337
우리가 점점 더 많은 은하들이
생명으로 가득 차길 바라고
사람들이 오래 오래 행복하게
살기를 원하는 것과 마찬가지죠.
08:58
and people living happily ever after.
177
538034
1793
08:59
Anything that just keeps going,
178
539869
1627
무엇이든 그렇게 멈추지 않고
09:01
you just want to use more
and more material for that,
179
541537
3045
그걸 위해 점점 더 많은 재료를
쓰는 것만을 원한다면,
09:04
that could kill everyone
on Earth as a side effect.
180
544624
2669
그 부작용으로 지구상의
모든 사람을 죽일 수도 있는 거예요.
09:07
It could kill us because it doesn't want
us making other superintelligences
181
547293
3545
AI는 그것과 경쟁할 다른 초지능을
우리가 만드는 걸 원치 않기 때문에
09:10
to compete with it.
182
550880
1168
우리를 죽일 수도 있습니다.
AI는 지구상의
모든 화학 에너지를 다 쓰고 나서
09:12
It could kill us because it's using up
all the chemical energy on earth
183
552048
4379
09:16
and we contain some
chemical potential energy.
184
556469
2586
인체의 화학적 위치 에너지 때문에
우리를 죽일 수도 있습니다.
09:19
CA: So some people in the AI world worry
that your views are strong enough
185
559055
6256
크리스: AI 업계에 있는
어떤 분들이 우려하는 점은
엘리에저 씨의 견해가 너무 강해서,
그분들 표현에 따르면
너무 극단적이라서,
09:25
and they would say extreme enough
186
565311
1585
09:26
that you're willing to advocate
extreme responses to it.
187
566896
3170
엘리에저 씨가 극단적인 대응을
지지한다는 점입니다.
09:30
And therefore, they worry
that you could be, you know,
188
570066
3462
따라서 그분들이 우려하는 점은
엘리에저 씨가
어떤 의미로는, 몹시 파괴적인
인물이 될 수 있다는 거예요.
09:33
in one sense, a very destructive figure.
189
573528
1918
09:35
Do you draw the line yourself
in terms of the measures
190
575488
3170
엘리에저 씨는 이 일이
일어나는 걸 막기 위해
09:38
that we should take
to stop this happening?
191
578699
2753
우리가 취할 조치에 한계를 두시나요?
09:41
Or is actually anything
justifiable to stop
192
581494
3253
아니면 엘리에저 씨가
일어날 거라고 말씀하신 예상을
09:44
the scenarios you're talking
about happening?
193
584747
2211
실제로 막을 수만 있다면
무엇이든 정당화할 수 있으신가요?
09:47
EY: I don't think that "anything" works.
194
587834
3253
엘리에저: 저는 ‘무엇이든’
통할 거라고 생각하진 않습니다.
제 생각에는 이는 국가 차원의 움직임과
09:51
I think that this takes state actors
195
591087
4379
09:55
and international agreements
196
595508
2753
국제 협정이 필요하다고 생각합니다.
09:58
and all international agreements
by their nature,
197
598302
3254
또 모든 국제 협정은 본질적으로
10:01
tend to ultimately be backed by force
198
601556
1876
서명 국가들과 비 서명 국가들에게
10:03
on the signatory countries
and on the non-signatory countries,
199
603474
3379
궁극적으로는 강제로 이행되게
해야 하는데 이건 더 극단적인 조치죠.
10:06
which is a more extreme measure.
200
606894
1794
10:09
I have not proposed that individuals
run out and use violence,
201
609856
2961
저는 개인들이 뛰쳐나가서 폭력을
사용할 것을 제안하진 않았습니다.
10:12
and I think that the killer argument
for that is that it would not work.
202
612859
4337
그에 대한 핵심 근거는 그게
쓸데없다고 생각하기 떼문입니다.
10:18
CA: Well, you are definitely not
the only person to propose
203
618489
2961
크리스: 네, 이 문제에 앞으로
어떻게 대처해야 할지에 대해
10:21
that what we need is some kind
of international reckoning here
204
621450
4004
일종의 국제적인 인식이 필요하다는 점을
10:25
on how to manage this going forward.
205
625496
2044
제안해주신 건 확실히
엘리에저 씨만은 아닙니다.
10:27
Thank you so much
for coming here to TED, Eliezer.
206
627540
2419
TED에 나와 주셔서
대단히 감사합니다, 엘리에저 씨.
(박수)
10:30
(Applause)
207
630001
2085
New videos
Original video on YouTube.com
이 웹사이트 정보
이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.