How civilization could destroy itself -- and 4 ways we could prevent it | Nick Bostrom
153,547 views ・ 2020-01-17
아래 영문자막을 더블클릭하시면 영상이 재생됩니다.
번역: Hajeong Kang
검토: DK Kim
크리스 앤더슨: 닉 보스트롬 박사님.
00:13
Chris Anderson: Nick Bostrom.
0
13000
1809
00:14
So, you have already given us
so many crazy ideas out there.
1
14833
3976
박사님은 여러 가지 놀라운 아이디어를
많이 내놨었잖아요.
00:18
I think a couple of decades ago,
2
18833
1726
몇십 년 전이었던 것 같은데
00:20
you made the case that we might
all be living in a simulation,
3
20583
2935
우리 모두가 가상공간 속에서
살지도 모른다고 주장했죠.
00:23
or perhaps probably were.
4
23542
1809
어쩌면 이미 살고 있을 수도 있고요.
00:25
More recently,
5
25375
1351
좀 더 최근에는
00:26
you've painted the most vivid examples
of how artificial general intelligence
6
26750
4601
인공지능이 어떻게 끔찍하게
잘못될 수 있는지에 대한
00:31
could go horribly wrong.
7
31375
1833
아주 생생한 예를 그렸습니다.
00:33
And now this year,
8
33750
1393
그리고 올해는
00:35
you're about to publish
9
35167
2226
곧 논문을 발표하실 거고요.
00:37
a paper that presents something called
the vulnerable world hypothesis.
10
37417
3934
취약한 세계 가설이라 부르는
것에 관한 논문 말입니다.
00:41
And our job this evening is to
give the illustrated guide to that.
11
41375
4583
오늘 저녁에는그 논문에 대해
설명을 좀 들어 보겠습니다.
00:46
So let's do that.
12
46417
1833
그럼, 시작해 볼까요?
00:48
What is that hypothesis?
13
48833
1792
그 가설은 어떤 것인가요?
00:52
Nick Bostrom: It's trying to think about
14
52000
2434
닉 보스트롬: 현재 인류의 상태에 대한
00:54
a sort of structural feature
of the current human condition.
15
54458
3084
일종의 구조적 특징에 대해
생각해 보려고 합니다.
00:59
You like the urn metaphor,
16
59125
2351
대표님은 항아리 은유법을 좋아하잖아요.
01:01
so I'm going to use that to explain it.
17
61500
1893
그래서 그걸로 설명해 보겠습니다.
01:03
So picture a big urn filled with balls
18
63417
4351
공이 가득 든 큰 항아리를
상상해 보세요.
01:07
representing ideas, methods,
possible technologies.
19
67792
3958
공은 아이디어, 방법들,
가능한 기술들을 나타내죠.
01:12
You can think of the history
of human creativity
20
72833
3726
인류의 창의성 역사를
01:16
as the process of reaching into this urn
and pulling out one ball after another,
21
76583
3810
이 항아리에 손을 넣어 공을 하나씩
뽑아내는 것으로 생각할 수 있습니다.
01:20
and the net effect so far
has been hugely beneficial, right?
22
80417
3226
지금까지 순 효과는 큰 득이 됐고요.
01:23
We've extracted a great many white balls,
23
83667
2726
우리가 뽑아낸 건 수많은 하얀 공과
01:26
some various shades of gray,
mixed blessings.
24
86417
2875
축복이자 저주일지 모르는
일부의 회색 빛깔 공이었습니다.
01:30
We haven't so far
pulled out the black ball --
25
90042
2958
지금까지 검은 공을 뽑은 적이 없었죠.
01:34
a technology that invariably destroys
the civilization that discovers it.
26
94292
5476
검은 공은 그것을 발견한 문명을
확실하게 파괴할 수 있는 기술입니다.
01:39
So the paper tries to think
about what could such a black ball be.
27
99792
3267
논문에선 무엇이 그런 검은 공이
될 수 있는지 생각해 보려고 합니다.
01:43
CA: So you define that ball
28
103083
1810
CA: 그러니까 박사님은 그 공을
01:44
as one that would inevitably
bring about civilizational destruction.
29
104917
3684
필연적으로 문명의 파괴를
초래하는 것으로 정의하는 군요.
01:48
NB: Unless we exit what I call
the semi-anarchic default condition.
30
108625
5309
NB: 이른바 반 무정부 상태를
벗어나지 않는다면 그렇겠죠.
01:53
But sort of, by default.
31
113958
1500
어떤 조치를 취하지 않는다면요.
01:56
CA: So, you make the case compelling
32
116333
3518
CA: 그러니까 박사님은
일종의 반증을 보여줌으로써
01:59
by showing some sort of counterexamples
33
119875
2018
이 주장을 설득력있게 만들었군요.
02:01
where you believe that so far
we've actually got lucky,
34
121917
2934
즉 우리는 지금까지 운이 좋았을 뿐이고
02:04
that we might have pulled out
that death ball
35
124875
2851
파멸의 공을 뽑았을지도
모른다고 생각하시는 거죠.
02:07
without even knowing it.
36
127750
1559
우리도 모르는 사이에 말이죠.
02:09
So there's this quote, what's this quote?
37
129333
2292
여기 인용문이 있는데,
이 인용문은 뭐죠?
[천체 물리학의 끝은 수소 폭탄이다.
뉴튼(이 아니고) 닉 보스트롬]
02:12
NB: Well, I guess
it's just meant to illustrate
38
132625
2684
NB: 제 생각엔 그건 단지
기본적인 발견이 어떤 결과를 가져올지
02:15
the difficulty of foreseeing
39
135333
2101
02:17
what basic discoveries will lead to.
40
137458
2685
예측하는 것의 어려움을 보인 겁니다.
02:20
We just don't have that capability.
41
140167
3059
우리는 그런 능력이 없습니다.
02:23
Because we have become quite good
at pulling out balls,
42
143250
3351
우리는 공을 뽑는 데는 능숙하지만
02:26
but we don't really have the ability
to put the ball back into the urn, right.
43
146625
3726
공을 다시 항아리에 넣는
능력은 정말 없거든요.
02:30
We can invent, but we can't un-invent.
44
150375
2167
우리는 발명을 할 순 있지만
발명한 걸 없던 걸로 할 순 없습니다.
02:33
So our strategy, such as it is,
45
153583
2768
그래서 우리 전략은 말 그대로
02:36
is to hope that there is
no black ball in the urn.
46
156375
2434
항아리에 검은 공이 없기를
바라는 겁니다.
02:38
CA: So once it's out, it's out,
and you can't put it back in,
47
158833
4060
CA: 일단 밖으로 나오면 나온 것이고
그걸 다시 넣을 수는 없는데
02:42
and you think we've been lucky.
48
162917
1517
그동안 운이 좋았다고 생각하는군요.
02:44
So talk through a couple
of these examples.
49
164458
2226
몇 가지 예를 살펴봅시다.
02:46
You talk about different
types of vulnerability.
50
166708
3101
박사님은 서로 다른 유형의
취약성에 대해 이야기합니다.
02:49
NB: So the easiest type to understand
51
169833
2435
NB: 가장 이해하기
쉬운 예는 기술이죠.
02:52
is a technology
that just makes it very easy
52
172292
3142
대량 파괴를 매우 쉽게
만드는 기술 말입니다.
02:55
to cause massive amounts of destruction.
53
175458
2125
[누구나 대량 파괴 수단을 쉽게 취득]
02:59
Synthetic biology might be a fecund
source of that kind of black ball,
54
179375
3518
합성 생물학은 그런 종류 검은 공의
풍부한 원천이 될 수 있습니다.
03:02
but many other possible things we could --
55
182917
2684
하지만 다른 많은 것들이 가능하죠.
03:05
think of geoengineering,
really great, right?
56
185625
2518
지구 공학에 대해 생각해 보십시오.
정말 대단합니다.
03:08
We could combat global warming,
57
188167
2226
지구 온난화와 싸울 수 있습니다.
03:10
but you don't want it
to get too easy either,
58
190417
2142
하지만 동시에 그게 너무
쉬워지길 원하진 않겠죠.
03:12
you don't want any random person
and his grandmother
59
192583
2476
어떤 사람이 순진한 사람들과 함께
03:15
to have the ability to radically
alter the earth's climate.
60
195083
3060
지구의 기후를 근본적으로 바꿀 수 있는
능력을 가지는 걸 원하진 않죠.
03:18
Or maybe lethal autonomous drones,
61
198167
3559
치명적인 무인 드론도 가능하죠.
03:21
massed-produced, mosquito-sized
killer bot swarms.
62
201750
3333
대량 생산된 모기 크기의
킬러 로봇 떼 말입니다.
03:26
Nanotechnology,
artificial general intelligence.
63
206500
2726
나노 기술이나 범용 인공 지능일
수도 있습니다.
03:29
CA: You argue in the paper
64
209250
1309
CA: 박사님은 논문에서
이렇게 주장했죠.
03:30
that it's a matter of luck
that when we discovered
65
210583
2893
핵 연쇄반응을 이용해서
폭탄을 만들 수 있다는 걸
03:33
that nuclear power could create a bomb,
66
213500
3434
우리가 알았을 때
그건 순전히 우연이었다.
03:36
it might have been the case
67
216958
1393
즉 누구나 쉽게 접할 수 있는
03:38
that you could have created a bomb
68
218375
1851
훨씬 다루기 쉬운 원료로
03:40
with much easier resources,
accessible to anyone.
69
220250
3559
폭탄을 만들 수도 있었을 것이다.
03:43
NB: Yeah, so think back to the 1930s
70
223833
3560
NB: 그렇습니다.
1930년대를 돌이켜보세요.
03:47
where for the first time we make
some breakthroughs in nuclear physics,
71
227417
4601
처음으로 핵물리학 분야에서
획기적인 발전을 이루었을 때
03:52
some genius figures out that it's possible
to create a nuclear chain reaction
72
232042
3684
어떤 천재가 핵 연쇄 반응을
일으킬 수도 있다는 걸 알아냈고
03:55
and then realizes
that this could lead to the bomb.
73
235750
3184
폭탄으로 이어질 수 있다는 걸 알았죠.
03:58
And we do some more work,
74
238958
1893
그리고 우리는 더 많은 연구를 했고
04:00
it turns out that what you require
to make a nuclear bomb
75
240875
2726
핵폭탄을 만들기 위해 필요한 것은
04:03
is highly enriched uranium or plutonium,
76
243625
2393
고농축 우라늄이나
플루토늄이라는 걸 알아냈는데
04:06
which are very difficult materials to get.
77
246042
2017
그건 구하기 매우 어려운 재료들이었죠.
04:08
You need ultracentrifuges,
78
248083
2268
초원심 분리기가 필요하며
04:10
you need reactors, like,
massive amounts of energy.
79
250375
3768
엄청난 양의 에너지와 같은
반응로도 필요합니다.
04:14
But suppose it had turned out instead
80
254167
1809
하지만 그 대신에 이랬었다 가정해보죠.
04:16
there had been an easy way
to unlock the energy of the atom.
81
256000
3976
원자 에너지를 방출하기 위한
쉬운 방법이 있었다고요.
04:20
That maybe by baking sand
in the microwave oven
82
260000
2768
어쩌면 전자레인지로 모래를 굽는 것이나
04:22
or something like that
83
262792
1267
아니면 그런 비슷한 것으로
04:24
you could have created
a nuclear detonation.
84
264083
2101
핵폭발을 일으킬 수도 있었다고요.
04:26
So we know that that's
physically impossible.
85
266208
2143
우리는 그게 물리적으로
불가능하다는 것을 알고 있습니다.
04:28
But before you did the relevant physics
86
268375
1893
하지만 관련 물리학
분야를 연구하기 전에
04:30
how could you have known
how it would turn out?
87
270292
2191
그게 어떻게 될지
어떻게 알 수 있겠습니까?
04:32
CA: Although, couldn't you argue
88
272507
1552
CA: 하지만 박사님은
04:34
that for life to evolve on Earth
89
274083
1935
생명체가 지구에서 진화하기 위해서는
04:36
that implied sort of stable environment,
90
276042
3267
어느 정도 안정된 환경이어야
한다고 주장하지 않았나요?
04:39
that if it was possible to create
massive nuclear reactions relatively easy,
91
279333
4185
만약 비교적 쉽게 대규모
핵반응을 일으킬 수 있었다면
04:43
the Earth would never have been stable,
92
283542
1858
지구는 결코 안정되지 않았을 겁니다.
04:45
that we wouldn't be here at all.
93
285424
1552
우리가 여기 있지도 않겠죠.
04:47
NB: Yeah, unless there were something
that is easy to do on purpose
94
287000
3393
NB: 그렇죠, 목적을 갖고
하기는 쉽지만
04:50
but that wouldn't happen by random chance.
95
290417
2851
우연히 일어나지는 않을 그런
무엇인가가 있는 게 아니라면요.
04:53
So, like things we can easily do,
96
293292
1579
우리가 쉽게 할 수 있는 일,
04:54
we can stack 10 blocks
on top of one another,
97
294896
2110
예를 들어 블록 열 개를
쌓는 것은 쉬운 일이지만
04:57
but in nature, you're not going to find,
like, a stack of 10 blocks.
98
297031
3197
자연에서 10개의 블록이
쌓여있는 걸 찾진 못할 겁니다.
05:00
CA: OK, so this is probably the one
99
300253
1673
CA: 그렇죠, 아마도 많은 사람들이
05:01
that many of us worry about most,
100
301950
1943
가장 걱정하는 것 중 하나일 겁니다.
05:03
and yes, synthetic biology
is perhaps the quickest route
101
303917
3517
합성 생물학은 가까운 미래에
인류를 거기에 이르게 할 것으로
05:07
that we can foresee
in our near future to get us here.
102
307458
3018
우리가 예상할 수 있는
가장 빠른 길일 것입니다.
05:10
NB: Yeah, and so think
about what that would have meant
103
310500
2934
NB: 네, 그러니까 그게
무슨 뜻일지 생각해보세요.
05:13
if, say, anybody by working
in their kitchen for an afternoon
104
313458
3643
아무나 부엌에서 한나절 작업하는 것으로
05:17
could destroy a city.
105
317125
1393
도시를 파괴할 수 있다면요.
05:18
It's hard to see how
modern civilization as we know it
106
318542
3559
우리가 알고 있는 현대 문명이
05:22
could have survived that.
107
322125
1434
어떻게 살아 남을지 알기 어렵습니다.
05:23
Because in any population
of a million people,
108
323583
2518
인구가 백만 명이라면
05:26
there will always be some
who would, for whatever reason,
109
326125
2684
어떤 이유로든 그 파괴력을 사용하는 걸
05:28
choose to use that destructive power.
110
328833
2084
선택할 사람이 항상 있게 마련이니까요.
05:31
So if that apocalyptic residual
111
331750
3143
따라서 그 종말론자가
05:34
would choose to destroy a city, or worse,
112
334917
1976
도시 하나를 파괴하기로 결정했다면
또는 더 나쁜 걸 원한다면
05:36
then cities would get destroyed.
113
336917
1559
도시 여러 개가 파괴될 겁니다.
05:38
CA: So here's another type
of vulnerability.
114
338500
2351
CA: 이건 다른 종류의 취약성이네요.
이것에 대해 얘기해 보죠.
05:40
Talk about this.
115
340875
1643
[2A 강대국들에 대한 부정적 유인]
05:42
NB: Yeah, so in addition to these
kind of obvious types of black balls
116
342542
3976
NB: 이런 명백한 검은 공으로
05:46
that would just make it possible
to blow up a lot of things,
117
346542
2810
많은 것들을 날려버릴 수 있는 외에도
05:49
other types would act
by creating bad incentives
118
349376
4433
다른 종류의 공들이 인간이
유해한 일을 하도록
05:53
for humans to do things that are harmful.
119
353833
2226
나쁜 동기를 부여하는
방식으로 작동할 겁니다.
05:56
So, the Type-2a, we might call it that,
120
356083
4101
우리가 2A 유형이라고 부르는 것은
06:00
is to think about some technology
that incentivizes great powers
121
360208
4518
강대국이 그 강력한 힘을
파괴에 사용하도록
06:04
to use their massive amounts of force
to create destruction.
122
364750
4476
동기부여하는 기술입니다.
06:09
So, nuclear weapons were actually
very close to this, right?
123
369250
2833
그러니까 핵무기는 사실
여기에 아주 가까운 거죠.
06:14
What we did, we spent
over 10 trillion dollars
124
374083
3060
우리가 한 일은
10조 달러 이상을 들여
06:17
to build 70,000 nuclear warheads
125
377167
2517
7만 개의 핵탄두를 만들어
06:19
and put them on hair-trigger alert.
126
379708
2435
일촉 즉발의 위태로운
경계 태세로 들어선 겁니다.
06:22
And there were several times
during the Cold War
127
382167
2267
냉전 기간 동안 우리는 여러 번이나
06:24
we almost blew each other up.
128
384458
1435
서로를 거의 파멸시킬
뻔한 적이 있었습니다.
06:25
It's not because a lot of people felt
this would be a great idea,
129
385917
3101
많은 사람들이 자신을 폭파시키기 위해
06:29
let's all spend 10 trillion dollars
to blow ourselves up,
130
389042
2684
10조 달러를 쏟아붓는 것을
졸은 생각으로 여겼기 때문이 아니고
06:31
but the incentives were such
that we were finding ourselves --
131
391750
2934
그 유인이 우리를 그렇게 만든 것이죠.
더 나쁜 경우도 가능했겠죠.
06:34
this could have been worse.
132
394708
1310
안전한 첫 번째 공격이
있었다고 상상해 보세요.
06:36
Imagine if there had been
a safe first strike.
133
396042
2434
06:38
Then it might have been very tricky,
134
398500
2309
그렇다면
06:40
in a crisis situation,
135
400833
1268
위기 상황에서
06:42
to refrain from launching
all their nuclear missiles.
136
402125
2477
모든 핵 미사일 발사를 억제하는 것은
매우 어려웠을지도 모릅니다.
06:44
If nothing else, because you would fear
that the other side might do it.
137
404626
3392
적어도 상대방이 그렇게 할까 봐
두려울 테니까요.
CA: 맞습니다. 상호 확증 파괴는
06:48
CA: Right, mutual assured destruction
138
408042
1809
06:49
kept the Cold War relatively stable,
139
409875
2726
냉전을 비교적 안정적으로 유지시켰고
06:52
without that, we might not be here now.
140
412625
1934
그게 없었다면 우린 지금
여기 없을지도 모릅니다.
06:54
NB: It could have been
more unstable than it was.
141
414583
2310
NB: 더 불안정할 수도 있었겠죠.
06:56
And there could be
other properties of technology.
142
416917
2351
그리고 기술의 다른 속성이
있을 수 있습니다.
무기 조약을 맺는 것은
어려웠을지도 모릅니다.
06:59
It could have been harder
to have arms treaties,
143
419292
2309
07:01
if instead of nuclear weapons
144
421625
1601
만약 무기가 핵보다 더 작거나
07:03
there had been some smaller thing
or something less distinctive.
145
423250
3018
성능이 떨어지는 것이었다면요.
07:06
CA: And as well as bad incentives
for powerful actors,
146
426292
2559
CA: 강대국들이 나쁜 동기를
갖는 것과 마찬가지로
07:08
you also worry about bad incentives
for all of us, in Type-2b here.
147
428875
3518
2B 유형처럼 모두가 나쁜 동기를
가지는 것도 우려하고 있네요.
07:12
NB: Yeah, so, here we might
take the case of global warming.
148
432417
4250
NB: 네, 지구온난화를 생각해봅시다.
07:18
There are a lot of little conveniences
149
438958
1893
각자가 지구온난화에 영향을
미치는 일을 하게 만드는
07:20
that cause each one of us to do things
150
440875
2184
작은 편의 시설들이 많이 있습니다.
07:23
that individually
have no significant effect, right?
151
443083
2851
그건 개별적으론 큰 영향이 없습니다만
07:25
But if billions of people do it,
152
445958
1976
수십억의 사람들이 그것을 한다면
07:27
cumulatively, it has a damaging effect.
153
447958
2060
누적이 되어 나쁜 영향을 끼칠 겁니다.
07:30
Now, global warming
could have been a lot worse than it is.
154
450042
2809
지구온난화는 지금보다 훨씬 더
심각할 수도 있었을 겁니다.
07:32
So we have the climate
sensitivity parameter, right.
155
452875
2976
[2B 일반 대중에 대한 부정적 유인]
기후민감도 매개변수가 있습니다.
07:35
It's a parameter that says
how much warmer does it get
156
455875
3643
일정량의 온실가스를 배출하면
얼마나 따뜻해지는지
07:39
if you emit a certain amount
of greenhouse gases.
157
459542
2684
알려주는 매개 변수 입니다.
07:42
But, suppose that it had been the case
158
462250
2393
하지만 가정해 봅시다.
07:44
that with the amount
of greenhouse gases we emitted,
159
464667
2517
우리가 배출한 온실가스의 양으로
07:47
instead of the temperature rising by, say,
160
467208
2060
2100년까지 3도에서 4.5도
사이의 온도 상승 대신에
07:49
between three and 4.5 degrees by 2100,
161
469292
3726
07:53
suppose it had been
15 degrees or 20 degrees.
162
473042
2500
15도 또는 20도의 온도 상승이
발생했다고 가정한다면요.
07:56
Like, then we might have been
in a very bad situation.
163
476375
2559
우리는 아마 매우 난처한 상황에
처했을 수도 있을 겁니다.
07:58
Or suppose that renewable energy
had just been a lot harder to do.
164
478958
3143
혹은 재생에너지의 실현이
훨씬 더 어려웠다거나
땅에 더 많은 화석연료가
있었다고 가정한다면요.
08:02
Or that there had been
more fossil fuels in the ground.
165
482125
2643
CA: 이런 경우는 어떤가요?
08:04
CA: Couldn't you argue
that if in that case of --
166
484792
2642
08:07
if what we are doing today
167
487458
1726
만약 우리가 오늘 하고 있는 것이
08:09
had resulted in 10 degrees difference
in the time period that we could see,
168
489208
4560
우리가 살아 있는 동안
10도나 변화시킨다면
08:13
actually humanity would have got
off its ass and done something about it.
169
493792
3684
사실 인류는 궁지에서 벗어나
뭔가 조치를 취했을 겁니다.
08:17
We're stupid, but we're not
maybe that stupid.
170
497500
2809
우리는 어리석지만
그 정도로 어리석진 않죠.
08:20
Or maybe we are.
171
500333
1268
아니면 그럴 지도 모르고요.
08:21
NB: I wouldn't bet on it.
172
501625
1268
NB: 장담하지 마세요.
08:22
(Laughter)
173
502917
2184
(웃음)
08:25
You could imagine other features.
174
505125
1684
다른 특징들에 대해
생각해볼 수 있습니다.
08:26
So, right now, it's a little bit difficult
to switch to renewables and stuff, right,
175
506833
5518
지금 당장은 재생 에너지 같은 것으로
바꾸기가 좀 어렵긴 하지만
08:32
but it can be done.
176
512375
1268
가능한 일입니다.
08:33
But it might just have been,
with slightly different physics,
177
513667
2976
하지만 약간의 물리적 차이가
있었을 수도 있어서
08:36
it could have been much more expensive
to do these things.
178
516667
2791
이런 것들을 하는 게 훨씬 더
돈이 많이 들었을 수는 있겠네요.
08:40
CA: And what's your view, Nick?
179
520375
1518
CA: 박사님의 생각은 어떤가요?
08:41
Do you think, putting
these possibilities together,
180
521917
2434
이런 가능성들을 종합해서 생각해보면
08:44
that this earth, humanity that we are,
181
524375
4268
이 지구와 인류가
08:48
we count as a vulnerable world?
182
528667
1559
취약한 세계라고 생각하세요?
08:50
That there is a death ball in our future?
183
530250
2417
인류의 미래에는 죽음의 공이 있을까요?
08:55
NB: It's hard to say.
184
535958
1268
NB : 그건 말하기 어렵지만
08:57
I mean, I think there might
well be various black balls in the urn,
185
537250
5059
항아리 안에는 다양한
검은 공들이 있을 것 같습니다.
09:02
that's what it looks like.
186
542333
1310
그렇게 보입니다.
09:03
There might also be some golden balls
187
543667
2392
어쩌면 황금 공도 들어 있어서
09:06
that would help us
protect against black balls.
188
546083
3476
우리를 검은 공으로부터 보호하는 데
도움이 될 수도 있을 거에요.
09:09
And I don't know which order
they will come out.
189
549583
2976
그런데 그게 어떤 순서로
나올지는 몰라요.
09:12
CA: I mean, one possible
philosophical critique of this idea
190
552583
3851
CA : 이 아이디어에 관해
할 수 있는 철학적 비판 중에는
09:16
is that it implies a view
that the future is essentially settled.
191
556458
5643
이런 생각이 미래는 본질적으로
정해져 있다고 본다는 점이 있겠죠.
09:22
That there either
is that ball there or it's not.
192
562125
2476
저기에 공이 있든지
없든지 둘 중 하나죠.
09:24
And in a way,
193
564625
3018
그리고 어떻게 보면
09:27
that's not a view of the future
that I want to believe.
194
567667
2601
그건 제가 믿고 싶은
미래의 관점이 아니에요.
09:30
I want to believe
that the future is undetermined,
195
570292
2351
미래가 결정되지 않았다고
믿고 싶습니다.
09:32
that our decisions today will determine
196
572667
1934
즉 오늘 우리가 내린 결정이
09:34
what kind of balls
we pull out of that urn.
197
574625
2208
항아리에서 어떤 종류의 공을
꺼낼지 결정하게 될 겁니다.
09:37
NB: I mean, if we just keep inventing,
198
577917
3767
NB: 제 말은, 우리가
계속 발명을 한다면
09:41
like, eventually we will
pull out all the balls.
199
581708
2334
결국에는 모든 공을 뽑을 거예요.
09:44
I mean, I think there's a kind
of weak form of technological determinism
200
584875
3393
제 말은, 약한 형태의 기술 결정론이
09:48
that is quite plausible,
201
588292
1267
꽤 그럴듯하다고 생각합니다.
09:49
like, you're unlikely
to encounter a society
202
589583
2643
제트기 안에서 부싯돌을 쓰는 사회가
09:52
that uses flint axes and jet planes.
203
592250
2833
있을 것 같지는 않습니다.
09:56
But you can almost think
of a technology as a set of affordances.
204
596208
4060
기술이 행동을 유도한다고
생각할 수도 있습니다.
10:00
So technology is the thing
that enables us to do various things
205
600292
3017
기술은 우리가 다양한
일을 할 수 있게 하고
10:03
and achieve various effects in the world.
206
603333
1976
그로 인해 세계에
다양한 효과를 가져옵니다.
그것을 어떻게 사용할지는
물론 우리 선택에 달려 있습니다.
10:05
How we'd then use that,
of course depends on human choice.
207
605333
2810
10:08
But if we think about these
three types of vulnerability,
208
608167
2684
하지만 이 세 가지 유형의
취약성에 대해 생각한다면
10:10
they make quite weak assumptions
about how we would choose to use them.
209
610875
3393
그것들을 어떻게 사용할 것인지에 대해
상당히 약한 가정을 합니다.
10:14
So a Type-1 vulnerability, again,
this massive, destructive power,
210
614292
3392
다시 말하지만 1유형의 취약성은
거대한 파괴력입니다.
10:17
it's a fairly weak assumption
211
617708
1435
이건 상당히 타당한 생각인데
10:19
to think that in a population
of millions of people
212
619167
2392
수백만 명의 인구 중에서 어떤 사람들은
10:21
there would be some that would choose
to use it destructively.
213
621583
2935
그걸 파괴적으로
사용하길 선택할 겁니다.
10:24
CA: For me, the most single
disturbing argument
214
624542
2434
CA: 제게 가장 혼란스러운 주장은
10:27
is that we actually might have
some kind of view into the urn
215
627000
4559
우리가 항아리에 대한
어떠한 견해를 가지는 것이
10:31
that makes it actually
very likely that we're doomed.
216
631583
3518
실제로 파멸할 가능성을
높게 만든다는 것입니다.
10:35
Namely, if you believe
in accelerating power,
217
635125
4643
즉, 만약 당신이 가속력을 믿는다면
10:39
that technology inherently accelerates,
218
639792
2267
그 기술은 본질적으로 가속화되며
10:42
that we build the tools
that make us more powerful,
219
642083
2435
우리를 더 강력하게 만드는
도구를 만든다는 것입니다.
10:44
then at some point you get to a stage
220
644542
2642
어느 순간 우리는
10:47
where a single individual
can take us all down,
221
647208
3060
개인이 우리 모두를 파멸시킬 수 있는
단계에 도달하게 될 것이고
10:50
and then it looks like we're screwed.
222
650292
2851
그러면 우리는 아마도 파멸하겠죠.
10:53
Isn't that argument quite alarming?
223
653167
2934
그 주장은 꽤 놀랍지 않나요?
10:56
NB: Ah, yeah.
224
656125
1750
NB: 아, 네.
10:58
(Laughter)
225
658708
1268
(웃음)
11:00
I think --
226
660000
1333
제 생각엔
11:02
Yeah, we get more and more power,
227
662875
1601
우리는 점점 더 많은 힘을 얻고
11:04
and [it's] easier and easier
to use those powers,
228
664500
3934
그 힘을 사용하는 것이
점점 더 쉬워질 겁니다.
11:08
but we can also invent technologies
that kind of help us control
229
668458
3560
하지만 우리는 사람들이 그러한 힘을
어떻게 사용하는지를 통제하는 데에
11:12
how people use those powers.
230
672042
2017
도움을 주는 기술도 만들 수 있습니다.
11:14
CA: So let's talk about that,
let's talk about the response.
231
674083
2851
CA: 그것에 대해 이야기해 보죠.
거기에 대한 대응에 대해서요.
11:16
Suppose that thinking
about all the possibilities
232
676958
2310
현존하는 모든 가능성에 대해
생각한다고 가정해봅시다.
11:19
that are out there now --
233
679292
2101
11:21
it's not just synbio,
it's things like cyberwarfare,
234
681417
3726
합성 생물학뿐 아니라 사이버 전쟁,
11:25
artificial intelligence, etc., etc. --
235
685167
3351
인공 지능 등과 같은 것들로
11:28
that there might be
serious doom in our future.
236
688542
4517
우리의 미래에 심각한 파멸이
있을지도 모릅니다.
11:33
What are the possible responses?
237
693083
1601
어떻게 해야 할까요?
11:34
And you've talked about
four possible responses as well.
238
694708
4893
네 가지 가능한 대응법에
대해서 이야기하셨는데요.
[대응 1: 기술 발전을 제한하기]
11:39
NB: Restricting technological development
doesn't seem promising,
239
699625
3643
NB: 기술 개발의 전면적인
중단을 말하는 것이라면
11:43
if we are talking about a general halt
to technological progress.
240
703292
3226
기술 발전을 제한하는 것이
유망하다고 생각되진 않네요.
11:46
I think neither feasible,
241
706542
1267
실현 가능하지도 않고 가능하다고 해도
바람직하지 않은 것 같아요.
11:47
nor would it be desirable
even if we could do it.
242
707833
2310
11:50
I think there might be very limited areas
243
710167
3017
기술 발전 속도를 늦추고 싶은 분야는
11:53
where maybe you would want
slower technological progress.
244
713208
2726
매우 제한적일 수 있습니다.
11:55
You don't, I think, want
faster progress in bioweapons,
245
715958
3393
예를 들어 생물학 무기나
동위 원소 분리에서는
11:59
or in, say, isotope separation,
246
719375
2059
더 빠른 발전을 원치 않을 겁니다.
12:01
that would make it easier to create nukes.
247
721458
2250
핵무기를 만들기가 더 쉬워질 테니까요.
12:04
CA: I mean, I used to be
fully on board with that.
248
724583
3310
CA: 저도 전에는
그렇게 생각했습니다만
12:07
But I would like to actually
push back on that for a minute.
249
727917
3267
조금 다른 견해를 살펴보죠.
12:11
Just because, first of all,
250
731208
1310
우선 지난 수십 년의 역사를 보면
12:12
if you look at the history
of the last couple of decades,
251
732542
2684
12:15
you know, it's always been
push forward at full speed,
252
735250
3559
아시다시피 항상 전속력으로 나아갔죠.
12:18
it's OK, that's our only choice.
253
738833
1851
그게 우리의 유일한 선택이었습니다.
12:20
But if you look at globalization
and the rapid acceleration of that,
254
740708
4268
하지만 세계화와 그 급속한 가속화를,
12:25
if you look at the strategy of
"move fast and break things"
255
745000
3434
'빨리 움직이고 무엇이든
혁파하십시오.'라는 전략과
12:28
and what happened with that,
256
748458
2060
그래서 무슨 일이 일어났는지,
12:30
and then you look at the potential
for synthetic biology,
257
750542
2767
그리고 합성 생물학의 잠재력을 본다면
12:33
I don't know that we should
move forward rapidly
258
753333
4435
모든 가정과 고등학교 실험실에서
12:37
or without any kind of restriction
259
757792
1642
빠른 속도로 아무 제약 없이
DNA 프린터를 가질 수 있는 세상으로
12:39
to a world where you could have
a DNA printer in every home
260
759458
3310
앞으로 나아가야만
하는 건지 의문입니다.
12:42
and high school lab.
261
762792
1333
12:45
There are some restrictions, right?
262
765167
1684
몇 가지 제약이 있습니다, 그렇죠?
12:46
NB: Possibly, there is
the first part, the not feasible.
263
766875
2643
NB: 아마도 첫째는
실현가능하지 않은 것입니다.
12:49
If you think it would be
desirable to stop it,
264
769542
2184
개발을 멈추는 게
바람직하다고 생각하더라도
12:51
there's the problem of feasibility.
265
771750
1726
실현가능성의 문제가 있습니다.
12:53
So it doesn't really help
if one nation kind of --
266
773500
2809
한 국가의 경우엔 소용이 없을 거예요.
12:56
CA: No, it doesn't help
if one nation does,
267
776333
2018
CA: 그렇죠, 한 국가가
그렇게 한다면 어쩔 수 없겠죠.
12:58
but we've had treaties before.
268
778375
2934
하지만 우린 전에 조약을
맺은 적이 있습니다.
13:01
That's really how we survived
the nuclear threat,
269
781333
3351
그게 우리가 핵 위협에서
살아남은 방법입니다.
13:04
was by going out there
270
784708
1268
그 자리에 나가서 고통스러운
협상 과정을 거치는 것이었습니다.
13:06
and going through
the painful process of negotiating.
271
786000
2518
13:08
I just wonder whether the logic isn't
that we, as a matter of global priority,
272
788542
5434
세계적으로 우선순위를 둬서
13:14
we shouldn't go out there and try,
273
794000
1684
우리가 그 곳에 나가서
13:15
like, now start negotiating
really strict rules
274
795708
2685
합성 생물 연구가 이루어지는 곳에 대한
아주 엄격한 규칙 마련을 위한
13:18
on where synthetic bioresearch is done,
275
798417
2684
협상을 시작하지 않으면
안되는 거 아닐까요?
13:21
that it's not something
that you want to democratize, no?
276
801125
2851
누구나 할 수 있도록 하고
싶은 건 아니잖나요?
13:24
NB: I totally agree with that --
277
804000
1809
NB: 저도 그렇게 생각합니다.
13:25
that it would be desirable, for example,
278
805833
4226
바람직하기로는 예를 들어
13:30
maybe to have DNA synthesis machines,
279
810083
3601
DNA 합성 장치는
13:33
not as a product where each lab
has their own device,
280
813708
3560
각자 실험실에서 소유하는 것이 아니라
13:37
but maybe as a service.
281
817292
1476
서비스로서 갖춰지는 거죠.
13:38
Maybe there could be
four or five places in the world
282
818792
2517
어쩌면 세계에 네다섯 곳 정도가 있어서
13:41
where you send in your digital blueprint
and the DNA comes back, right?
283
821333
3518
디지털 청사진을 받아서 DNA를
제작해주면 되지 않을까 합니다.
13:44
And then, you would have the ability,
284
824875
1768
그러면 그걸 통제할 수 있겠죠.
13:46
if one day it really looked
like it was necessary,
285
826667
2392
언젠가 진짜로 제한이 필요한 것 같으면
13:49
we would have like,
a finite set of choke points.
286
829083
2351
제한된 수의 지점에서
통제를 할 수 있겠죠.
13:51
So I think you want to look
for kind of special opportunities,
287
831458
3518
좀 더 엄격하게 통제할 수 있는
13:55
where you could have tighter control.
288
835000
2059
특별한 기회 같은 걸
원하는 거 같군요.
13:57
CA: Your belief is, fundamentally,
289
837083
1643
CA: 박사님은 근본적으로
13:58
we are not going to be successful
in just holding back.
290
838750
2893
우리가 스스로 자제하지
못할 거라고 생각하시네요.
14:01
Someone, somewhere --
North Korea, you know --
291
841667
2726
어딘가의 누군가가,
예를 들어 북한과 같은
14:04
someone is going to go there
and discover this knowledge,
292
844417
3517
누군가가 그곳에 가서
이 지식을 발견하게 된다는 거죠.
14:07
if it's there to be found.
293
847958
1268
만약 그것이 거기 있다면요.
14:09
NB: That looks plausible
under current conditions.
294
849250
2351
NB: 현재로서는 그렇게 보입니다.
14:11
It's not just synthetic biology, either.
295
851625
1934
단지 합성생물학만이 아닙니다.
14:13
I mean, any kind of profound,
new change in the world
296
853583
2518
제 말은, 세상 어떤 종류의
심오하고 새로운 변화도
14:16
could turn out to be a black ball.
297
856101
1626
검은 공이 될 수 있다는 겁니다.
14:17
CA: Let's look at
another possible response.
298
857727
2096
CA: 다른 대응법을 봅시다.
14:19
NB: This also, I think,
has only limited potential.
299
859823
2403
NB: 이것도 한정적이긴 합니다만
[대응 2: 불량 세력을 제거하기]
14:22
So, with the Type-1 vulnerability again,
300
862250
3559
1유형의 취약성에 대해서는
14:25
I mean, if you could reduce the number
of people who are incentivized
301
865833
4351
그런 수단을 손에 넣기만 한다면
세상을 파괴하고 싶어하는 사람의 수를
14:30
to destroy the world,
302
870208
1268
14:31
if only they could get
access and the means,
303
871500
2059
줄일 수 있다면
그건 괜찮을 것 같은데요.
14:33
that would be good.
304
873583
1268
14:34
CA: In this image that you asked us to do
305
874875
1976
CA: 박사님이 부탁한 이 영상에서는
14:36
you're imagining these drones
flying around the world
306
876875
2559
얼굴 인식 기능이 있는 드론이
전 세계를 날아다닙니다.
14:39
with facial recognition.
307
879458
1268
누군가가 반사회적 행동을 하려는
조짐이 보이는 것을 발견하면
14:40
When they spot someone
showing signs of sociopathic behavior,
308
880750
2893
14:43
they shower them with love, they fix them.
309
883667
2184
사랑을 쏟아붓고 그들을 치료합니다.
14:45
NB: I think it's like a hybrid picture.
310
885875
1893
NB: 복합적인 영상 같네요.
14:47
Eliminate can either mean,
like, incarcerate or kill,
311
887792
4017
제거는 감금 또는 살해와 같은
것을 의미할 수도 있고
14:51
or it can mean persuade them
to a better view of the world.
312
891833
3018
더 나은 세계관을 갖도록
설득하는 거일 수도 있습니다.
14:54
But the point is that,
313
894875
1726
하지만 요점은
14:56
suppose you were
extremely successful in this,
314
896625
2143
이러한 일이 매우 성공적이었고
14:58
and you reduced the number
of such individuals by half.
315
898792
3309
그런 사람들의 수를 절반으로
줄였다고 가정해보죠.
15:02
And if you want to do it by persuasion,
316
902125
1893
설득이라는 수단으로 이를 달성하려면
15:04
you are competing against
all other powerful forces
317
904042
2392
사람들을 설득하려고 하다가
정당, 종교, 교육시스템과 같은
15:06
that are trying to persuade people,
318
906458
1685
비슷한 목적을 갖는
모든 다른 강력한 세력과 겨루게 됩니다.
15:08
parties, religion, education system.
319
908167
1767
15:09
But suppose you could reduce it by half,
320
909958
1905
하지만 그 인원을 절반으로
줄였다고 하더라도
15:11
I don't think the risk
would be reduced by half.
321
911887
2256
그 위험이 절반으로
줄어들진 않을 겁니다.
15:14
Maybe by five or 10 percent.
322
914167
1559
대충 5%나 10% 정도겠죠.
15:15
CA: You're not recommending that we gamble
humanity's future on response two.
323
915750
4351
CA: 2번 대응법에 인간의 미래를
걸라고 권하는 건 아니네요.
15:20
NB: I think it's all good
to try to deter and persuade people,
324
920125
3018
NB: 저는 사람들을 단념시키고
설득하는 것이 좋다고 생각해요.
15:23
but we shouldn't rely on that
as our only safeguard.
325
923167
2976
하지만 그것을 유일한 안전장치로
의존해서는 안되겠지요.
15:26
CA: How about three?
326
926167
1267
CA: 세 번째는 뭐죠?
15:27
NB: I think there are two general methods
327
927458
2893
NB: 두 가지 일반적인
방법이 있을 것 같습니다.
[대응 3: 대중을 감시하기]
15:30
that we could use to achieve
the ability to stabilize the world
328
930375
3976
이 방법들을 사용해서 가능한
모든 범위의 취약성에 대해
15:34
against the whole spectrum
of possible vulnerabilities.
329
934375
2976
세상을 안정시킬 수 있을 것 같습니다.
15:37
And we probably would need both.
330
937375
1559
아마 둘 다 필요할 겁니다.
15:38
So, one is an extremely effective ability
331
938958
4518
하나는 매우 효과적인
15:43
to do preventive policing.
332
943500
1768
예방 정책입니다.
15:45
Such that you could intercept.
333
945292
1524
차단을 할 수 있는 거죠.
15:46
If anybody started to do
this dangerous thing,
334
946840
2761
누군가 위험한 일을 시작한다면
15:49
you could intercept them
in real time, and stop them.
335
949625
2684
중간에 실시간으로
막고 저지할 수 있습니다.
15:52
So this would require
ubiquitous surveillance,
336
952333
2476
그러기 위해서는 유비쿼터스 감시가
필요하게 될 것입니다.
15:54
everybody would be monitored all the time.
337
954833
2375
누구나 항상 감시당하고 있는 거죠.
15:58
CA: This is "Minority Report,"
essentially, a form of.
338
958333
2560
CA: 일종의 영화,
'마이너리티 리포트'네요.
16:00
NB: You would have maybe AI algorithms,
339
960917
1934
NB: 인공지능 알고리즘이나
16:02
big freedom centers
that were reviewing this, etc., etc.
340
962875
4417
여러 가지 사찰을 하는 자유센터 같은
것이 이용될지도 모릅니다.
16:08
CA: You know that mass surveillance
is not a very popular term right now?
341
968583
4393
CA: 대중감시가 지금 그렇게
인기 있는 용어는 아니라는 거 알죠?
16:13
(Laughter)
342
973000
1250
(웃음)
16:15
NB: Yeah, so this little device there,
343
975458
1810
NB: 그러니까 이 작은 장치,
16:17
imagine that kind of necklace
that you would have to wear at all times
344
977292
3601
다방향 카메라가 달린 목걸이를
항상 몸에 지니고 다니는 것을 상상해보세요.
16:20
with multidirectional cameras.
345
980917
2000
(웃음)
16:23
But, to make it go down better,
346
983792
1809
쉽게 받아들일 수 있도록
16:25
just call it the "freedom tag"
or something like that.
347
985625
2524
'자유의 표식' 같은
이름을 붙이면 좋겠네요.
16:28
(Laughter)
348
988173
2011
(웃음)
16:30
CA: OK.
349
990208
1268
CA: 알았어요.
16:31
I mean, this is the conversation, friends,
350
991500
2101
그러니까 이 대화가
16:33
this is why this is
such a mind-blowing conversation.
351
993625
3559
깜짝 놀랄만한 이야기라고
하는 겁니다, 여러분.
16:37
NB: Actually, there's
a whole big conversation on this
352
997208
2601
NB:이것에 관해서는
16:39
on its own, obviously.
353
999833
1310
당연히 많은 논란이 있습니다.
16:41
There are huge problems and risks
with that, right?
354
1001167
2476
엄청난 문제와 위험이 따릅니다.
16:43
We may come back to that.
355
1003667
1267
나중에 거기에 대해 다시 얘기해 보죠.
16:44
So the other, the final,
356
1004958
1268
다른 하나, 마지막으로
16:46
the other general stabilization capability
357
1006250
2559
일반적인 안정화 기능은
16:48
is kind of plugging
another governance gap.
358
1008833
2060
지배구조 격차를 막는 것입니다.
16:50
So the surveillance would be kind of
governance gap at the microlevel,
359
1010917
4184
[대응 4: 전 세계적 지배구조]
감시는 미시적인 수준의
지배구조 격차일 겁니다.
16:55
like, preventing anybody
from ever doing something highly illegal.
360
1015125
3101
어떤 개인이 불법적인 행동을
하지 못하게 하는 것처럼요.
16:58
Then, there's a corresponding
governance gap
361
1018250
2309
그러면 거시적 차원, 세계적 차원에서는
17:00
at the macro level, at the global level.
362
1020583
1935
그에 상응하는 지배구조
격차가 있습니다.
17:02
You would need the ability, reliably,
363
1022542
3934
이 능력은
17:06
to prevent the worst kinds
of global coordination failures,
364
1026500
2809
최악의 세계적 협력 실패에
대비하기 위한 겁니다.
17:09
to avoid wars between great powers,
365
1029333
3768
강대국 간의 전쟁,
17:13
arms races,
366
1033125
1333
무기 경쟁,
17:15
cataclysmic commons problems,
367
1035500
2208
공유자원이 파탄나는 문제,
17:19
in order to deal with
the Type-2a vulnerabilities.
368
1039667
4184
2A 유형의 취약성에 대한 대처입니다.
17:23
CA: Global governance is a term
369
1043875
1934
CA: 세계적 지배구조는
17:25
that's definitely way out
of fashion right now,
370
1045833
2226
확실히 시대에 뒤떨어진 용어지만
17:28
but could you make the case
that throughout history,
371
1048083
2518
역사 전체에 걸쳐,
17:30
the history of humanity
372
1050625
1268
인류 역사 전체에 걸쳐
17:31
is that at every stage
of technological power increase,
373
1051917
5434
기술력이 증대될 때마다
17:37
people have reorganized
and sort of centralized the power.
374
1057375
3226
사회는 재구성되고 그 힘은
집중되는 걸 볼 수 있습니다.
17:40
So, for example,
when a roving band of criminals
375
1060625
3434
예를 들어, 한 무리의 범죄자들이
17:44
could take over a society,
376
1064083
1685
한 사회를 장악할 수 있었을 때
17:45
the response was,
well, you have a nation-state
377
1065792
2239
그 결과는 민족 국가가 나타나고
17:48
and you centralize force,
a police force or an army,
378
1068055
2434
경찰이나 군대 같은
권력을 집중시키는 거죠.
17:50
so, "No, you can't do that."
379
1070513
1630
그러니 "그래서는 안됩니다"인 거죠.
17:52
The logic, perhaps, of having
a single person or a single group
380
1072167
4559
어쩌면 한 사람이나 한 그룹이
17:56
able to take out humanity
381
1076750
1643
인류를 파멸시킬 수 있다는 논리는
17:58
means at some point
we're going to have to go this route,
382
1078417
2726
어떤 시점에서는 이 길을 가고
만다는 걸 의미하는 거 아닌가요?
적어도 비슷한 형태로라도요.
18:01
at least in some form, no?
383
1081167
1434
18:02
NB: It's certainly true that the scale
of political organization has increased
384
1082625
3684
NB: 인류 역사에 걸쳐 정치 조직의
규모가 커진 것은 분명합니다.
18:06
over the course of human history.
385
1086333
2143
18:08
It used to be hunter-gatherer band, right,
386
1088500
2018
예전에는 수렵 채집 집단 정도였죠.
18:10
and then chiefdom, city-states, nations,
387
1090542
2934
그다음에는 군장사회,
도시국가나 국가가 출현하고
18:13
now there are international organizations
and so on and so forth.
388
1093500
3976
지금은 국제 조직 등등이 있습니다.
18:17
Again, I just want to make sure
389
1097500
1518
다시 한 번 제가 강조하고 싶은 건
18:19
I get the chance to stress
390
1099042
1642
18:20
that obviously there are huge downsides
391
1100708
1976
대중감시와 세계적 지배구조는 모두
18:22
and indeed, massive risks,
392
1102708
1518
18:24
both to mass surveillance
and to global governance.
393
1104250
3351
큰 단점과 엄청난 위험이
당연히 있다는 겁니다.
18:27
I'm just pointing out
that if we are lucky,
394
1107625
2559
제가 말씀드리고 싶은 건
우리가 운이 좋다면
18:30
the world could be such
that these would be the only ways
395
1110208
2685
이게 검은 공으로부터 살아남을 수 있는
유일한 방법일지도 모른다는 것입니다.
18:32
you could survive a black ball.
396
1112917
1517
18:34
CA: The logic of this theory,
397
1114458
2518
CA: 즉 이 말은,
제가 보기엔
18:37
it seems to me,
398
1117000
1268
18:38
is that we've got to recognize
we can't have it all.
399
1118292
3601
모든 것을 손에 넣을 수는 없다는 걸
인식해야 된다는 거군요.
18:41
That the sort of,
400
1121917
1833
18:45
I would say, naive dream
that many of us had
401
1125500
2976
많은 사람들이 갖고 있는
그런 종류의 순진한 꿈,
18:48
that technology is always
going to be a force for good,
402
1128500
3351
즉, 기술은 항상 선을 위한 힘이 되고
18:51
keep going, don't stop,
go as fast as you can
403
1131875
2976
계속 나아가고, 멈추지 않고,
가능한 한 빨리 나아가고
18:54
and not pay attention
to some of the consequences,
404
1134875
2351
결과에 주의를 기울이지
않아도 된다는 그런 꿈은
실제로 가능한 선택지가 아니라는 거죠.
18:57
that's actually just not an option.
405
1137250
1684
18:58
We can have that.
406
1138958
1935
우리가 그것을 가질 수는 있겠지만
19:00
If we have that,
407
1140917
1267
만약 그것을 얻는다면
다른 일들도 받아들여야만 하는 거죠.
19:02
we're going to have to accept
408
1142208
1435
19:03
some of these other
very uncomfortable things with it,
409
1143667
2559
그것과 함께 오는 아주 불편한 일들과
19:06
and kind of be in this
arms race with ourselves
410
1146250
2226
자신과의 무기 경쟁과 같은 것들이요.
19:08
of, you want the power,
you better limit it,
411
1148500
2268
힘을 갖고 싶다면
제한하는 것이 좋을 것이고
19:10
you better figure out how to limit it.
412
1150792
2142
어떻게 제한할 것인가에 대해
생각하는 것이 좋을 것입니다.
19:12
NB: I think it is an option,
413
1152958
3476
NB: 제 생각에 이건
아주 매력적인 선택사항입니다.
19:16
a very tempting option,
it's in a sense the easiest option
414
1156458
2768
어떤 의미에서는 가장 손쉬운
선택이고 잘 될 수도 있지만
19:19
and it might work,
415
1159250
1268
19:20
but it means we are fundamentally
vulnerable to extracting a black ball.
416
1160542
4809
본질적으로 검은 공을 꺼낼
위험성이 있다는 말입니다.
19:25
Now, I think with a bit of coordination,
417
1165375
2143
제 생각엔 약간 조정을 해서
19:27
like, if you did solve this
macrogovernance problem,
418
1167542
2726
거시적 지배구조와 미시적 지배구조의
문제를 해결한다면
19:30
and the microgovernance problem,
419
1170292
1601
19:31
then we could extract
all the balls from the urn
420
1171917
2309
항아리에서 모든 공을 빼낼 수 있고
큰 혜택을 얻을 수 있을 겁니다.
19:34
and we'd benefit greatly.
421
1174250
2268
19:36
CA: I mean, if we're living
in a simulation, does it matter?
422
1176542
3434
CA: 우리가 시뮬레이션 안에
살고 있다면 문제될 거 있나요?
19:40
We just reboot.
423
1180000
1309
그저 다시 시작하면 되죠.
19:41
(Laughter)
424
1181333
1268
(웃음)
19:42
NB: Then ... I ...
425
1182625
1643
NB: 그렇다면, 저는...
19:44
(Laughter)
426
1184292
2476
(웃음)
19:46
I didn't see that one coming.
427
1186792
1416
그건 생각해 보지 않았네요.
(웃음)
19:50
CA: So what's your view?
428
1190125
1268
CA: 어떻게 생각하십니까?
19:51
Putting all the pieces together,
how likely is it that we're doomed?
429
1191417
4809
모든 걸 고려했을 때
우리가 파멸할 가능성은요?
(웃음)
19:56
(Laughter)
430
1196250
1958
19:59
I love how people laugh
when you ask that question.
431
1199042
2392
이런 질문에 다들 웃으시니 좋네요.
NB: 개인적인 차원에서
20:01
NB: On an individual level,
432
1201458
1351
20:02
we seem to kind of be doomed anyway,
just with the time line,
433
1202833
3851
우리는 결국 종말을 맞이 하겠죠.
시간이 흐르면서 우리는
노화되고 쇠약해져갑니다.
20:06
we're rotting and aging
and all kinds of things, right?
434
1206708
2601
20:09
(Laughter)
435
1209333
1601
(웃음)
20:10
It's actually a little bit tricky.
436
1210958
1685
사실 약간 복잡합니다.
20:12
If you want to set up
so that you can attach a probability,
437
1212667
2767
확률을 내기 위해서 정해야 할 것은
먼저 우리는 누구인가입니다.
20:15
first, who are we?
438
1215458
1268
20:16
If you're very old,
probably you'll die of natural causes,
439
1216750
2726
고령이라면 자연적으로 죽을 겁니다.
아주 어리다면 100년은
더 살지도 모르죠.
20:19
if you're very young,
you might have a 100-year --
440
1219500
2351
20:21
the probability might depend
on who you ask.
441
1221875
2143
누구에게 물어보느냐에 따라
확률은 달라집니다.
그다음으로 문명 파괴의 기준은 뭘까요?
20:24
Then the threshold, like, what counts
as civilizational devastation?
442
1224042
4226
논문에서는 그걸 계산하기 위한
20:28
In the paper I don't require
an existential catastrophe
443
1228292
5642
대재해는 필요없었습니다.
20:33
in order for it to count.
444
1233958
1435
이건 단지 어떻게 정의하는가의 문제로서
20:35
This is just a definitional matter,
445
1235417
1684
예로서 10억 명 사망이나
세계 GDP 50% 감소를 들겠습니다.
20:37
I say a billion dead,
446
1237125
1309
20:38
or a reduction of world GDP by 50 percent,
447
1238458
2060
20:40
but depending on what
you say the threshold is,
448
1240542
2226
무엇을 한계치로 하느냐에 따라
20:42
you get a different probability estimate.
449
1242792
1976
확률 전망도 달라집니다.
20:44
But I guess you could
put me down as a frightened optimist.
450
1244792
4517
저를 겁에 질린 낙관론자로
몰아붙일 수도 있겠지만요.
20:49
(Laughter)
451
1249333
1101
(웃음)
20:50
CA: You're a frightened optimist,
452
1250458
1643
CA: 겁에 질린 낙관론자라고 하는데
20:52
and I think you've just created
a large number of other frightened ...
453
1252125
4268
다른 많은 사람들을
두려움에 떨게 만든 것 같네요.
20:56
people.
454
1256417
1267
(웃음)
20:57
(Laughter)
455
1257708
1060
20:58
NB: In the simulation.
456
1258792
1267
NB: 시뮬레이션 안에서요.
CA: 네, 시뮬레이션 안에서요.
21:00
CA: In a simulation.
457
1260083
1268
보스트롬 박사님의 식견에 탄복합니다.
21:01
Nick Bostrom, your mind amazes me,
458
1261375
1684
21:03
thank you so much for scaring
the living daylights out of us.
459
1263083
2893
우리를 겁에 질리게 해줘서
고맙습니다.
(박수)
21:06
(Applause)
460
1266000
2375
New videos
Original video on YouTube.com
이 웹사이트 정보
이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.