How civilization could destroy itself -- and 4 ways we could prevent it | Nick Bostrom

153,547 views ・ 2020-01-17

TED


Будь ласка, двічі клацніть на англійські субтитри нижче, щоб відтворити відео.

Перекладач: Sandra Alekseeva Утверджено: Inna Fedorenko
Кріс Андерсон: Нік Бостром.
00:13
Chris Anderson: Nick Bostrom.
0
13000
1809
00:14
So, you have already given us so many crazy ideas out there.
1
14833
3976
Ви вже встигли подати нам безліч божевільних ідей.
00:18
I think a couple of decades ago,
2
18833
1726
Десь два десятки років тому
00:20
you made the case that we might all be living in a simulation,
3
20583
2935
ви обстоювали думку, що ми всі живемо в симуляції,
00:23
or perhaps probably were.
4
23542
1809
чи то радше жили.
00:25
More recently,
5
25375
1351
А нещодавно
00:26
you've painted the most vivid examples of how artificial general intelligence
6
26750
4601
ви в дуже яскравих прикладах зобразили, до якого лиха може привести
00:31
could go horribly wrong.
7
31375
1833
загальний штучний інтелект.
00:33
And now this year,
8
33750
1393
Цього ж року ви збираєтеся видати статтю,
00:35
you're about to publish
9
35167
2226
00:37
a paper that presents something called the vulnerable world hypothesis.
10
37417
3934
в якій представлено таку собі гіпотезу вразливого світу.
00:41
And our job this evening is to give the illustrated guide to that.
11
41375
4583
І сьогодні ми маємо на меті презентувати ілюстрований посібник з цього питання.
Отже, почнімо.
00:46
So let's do that.
12
46417
1833
00:48
What is that hypothesis?
13
48833
1792
Що це за гіпотеза?
00:52
Nick Bostrom: It's trying to think about
14
52000
2434
Нік Бостром: Це спроба уявити таку собі
00:54
a sort of structural feature of the current human condition.
15
54458
3084
структурну властивість теперішнього стану людства.
Вам подобається метафора урни,
00:59
You like the urn metaphor,
16
59125
2351
01:01
so I'm going to use that to explain it.
17
61500
1893
тож її я й використаю для пояснення.
01:03
So picture a big urn filled with balls
18
63417
4351
Уявіть собі велику урну, наповнену кульками —
01:07
representing ideas, methods, possible technologies.
19
67792
3958
ідеями, методами, можливими технологіями.
Історію людської творчості можна показати як:
01:12
You can think of the history of human creativity
20
72833
3726
01:16
as the process of reaching into this urn and pulling out one ball after another,
21
76583
3810
ви запускаєте руку в цю урну та виймаєте з неї одну кульку за іншою.
01:20
and the net effect so far has been hugely beneficial, right?
22
80417
3226
Досі це приносило нам користь, так?
01:23
We've extracted a great many white balls,
23
83667
2726
Ми витягнули багато білих кульок,
01:26
some various shades of gray, mixed blessings.
24
86417
2875
декілька сірих — це сумнівні переваги.
Але ми ще не витягнули чорної кульки —
01:30
We haven't so far pulled out the black ball --
25
90042
2958
технологію, що неодмінно знищить цивілізацію, яка її винайде.
01:34
a technology that invariably destroys the civilization that discovers it.
26
94292
5476
Отже, в статті я розмірковую про те, чим саме може виявитись така чорна кулька.
01:39
So the paper tries to think about what could such a black ball be.
27
99792
3267
01:43
CA: So you define that ball
28
103083
1810
К.А.: Отже, цю кульку ви визначаєте
01:44
as one that would inevitably bring about civilizational destruction.
29
104917
3684
як таку, що неодмінно призведе до руйнації цивілізації.
01:48
NB: Unless we exit what I call the semi-anarchic default condition.
30
108625
5309
Н.Б.: Якщо тільки ми не вийдемо з усталеного напіванархічного стану.
01:53
But sort of, by default.
31
113958
1500
Але, так би мовити, за загальним принципом.
01:56
CA: So, you make the case compelling
32
116333
3518
К.А.: Отже, ви переконуєте,
01:59
by showing some sort of counterexamples
33
119875
2018
демонструючи щось на кшталт контрприкладів,
02:01
where you believe that so far we've actually got lucky,
34
121917
2934
і вважаєте, що досі нам просто щастило,
02:04
that we might have pulled out that death ball
35
124875
2851
ми могли б витягнути кульку смерті,
навіть не здогадуючись про це.
02:07
without even knowing it.
36
127750
1559
"Постійний прогрес механіки небесних тіл
02:09
So there's this quote, what's this quote?
37
129333
2292
створить водневу бомбу", Ісаак Ньютон (ні) Нік Бостром.
02:12
NB: Well, I guess it's just meant to illustrate
38
132625
2684
Ця цитата — що вона означає?
Н.Б.: Думаю, вона просто ілюструє,
02:15
the difficulty of foreseeing
39
135333
2101
як складно передбачити,
02:17
what basic discoveries will lead to.
40
137458
2685
до чого призведуть головні відкриття.
02:20
We just don't have that capability.
41
140167
3059
Ми просто не здатні на це.
02:23
Because we have become quite good at pulling out balls,
42
143250
3351
Бо ми непогано навчилися витягати кульки,
02:26
but we don't really have the ability to put the ball back into the urn, right.
43
146625
3726
але таки не вміємо покласти кульку назад до урни.
02:30
We can invent, but we can't un-invent.
44
150375
2167
Можемо винаходити, але не "розвинаходити".
02:33
So our strategy, such as it is,
45
153583
2768
Отже, наша стратегія, яка б вона не була —
02:36
is to hope that there is no black ball in the urn.
46
156375
2434
це сподіватися, що в урні немає чорної кульки.
02:38
CA: So once it's out, it's out, and you can't put it back in,
47
158833
4060
К.А.: Тобто, якщо її витягнено, то вже витягнено, і назад не повернеш,
02:42
and you think we've been lucky.
48
162917
1517
і на вашу думку, нам таланить.
02:44
So talk through a couple of these examples.
49
164458
2226
Поясніть декілька з цих прикладів.
02:46
You talk about different types of vulnerability.
50
166708
3101
Ви говорите про різні типи вразливості.
02:49
NB: So the easiest type to understand
51
169833
2435
Н.Б.: Цей тип найлегший для розуміння:
02:52
is a technology that just makes it very easy
52
172292
3142
технологія, яка значно полегшує
руйнування у величезних масштабах.
02:55
to cause massive amounts of destruction.
53
175458
2125
[Вразливість типу 1: Демократизація масового знищення]
02:59
Synthetic biology might be a fecund source of that kind of black ball,
54
179375
3518
Синтетична біологія може бути гарним ґрунтом для такої чорної кульки,
03:02
but many other possible things we could --
55
182917
2684
але можна згадати багато інших речей...
03:05
think of geoengineering, really great, right?
56
185625
2518
подумайте про геоінженерію — чудова річ, вірно?
03:08
We could combat global warming,
57
188167
2226
Можна боротися з глобальним потеплінням.
03:10
but you don't want it to get too easy either,
58
190417
2142
Але й не слід робити її занадто доступною,
03:12
you don't want any random person and his grandmother
59
192583
2476
адже тоді будь-хто, навіть чиясь бабуся,
03:15
to have the ability to radically alter the earth's climate.
60
195083
3060
матиме можливість радикально змінювати клімат Землі.
03:18
Or maybe lethal autonomous drones,
61
198167
3559
Або, скажімо, летальні автономні дрони,
03:21
massed-produced, mosquito-sized killer bot swarms.
62
201750
3333
убивчі, комашиного розміру рої, що виробляються масово.
03:26
Nanotechnology, artificial general intelligence.
63
206500
2726
Нанотехнології, загальний штучний інтелект.
03:29
CA: You argue in the paper
64
209250
1309
К.А.: Ви стверджуєте в статті,
03:30
that it's a matter of luck that when we discovered
65
210583
2893
що нам просто поталанило, адже коли ми з'ясували,
03:33
that nuclear power could create a bomb,
66
213500
3434
що ядерна енегрія дозволяє створити бомбу,
03:36
it might have been the case
67
216958
1393
а могло б так статися,
03:38
that you could have created a bomb
68
218375
1851
що створення бомби
03:40
with much easier resources, accessible to anyone.
69
220250
3559
вимагало би значно простіших, доступних ресурсів.
03:43
NB: Yeah, so think back to the 1930s
70
223833
3560
Р.Б.: Так, згадаймо 1930-ті,
03:47
where for the first time we make some breakthroughs in nuclear physics,
71
227417
4601
коли ми зробили перші прориви в ядерній фізиці.
03:52
some genius figures out that it's possible to create a nuclear chain reaction
72
232042
3684
От, якийсь геній зрозуміє, як можна створити ядерну ланцюгову реакцію,
03:55
and then realizes that this could lead to the bomb.
73
235750
3184
а потім усвідомлює, що це може призвести до появи бомби.
03:58
And we do some more work,
74
238958
1893
Ми працюємо ще трохи,
04:00
it turns out that what you require to make a nuclear bomb
75
240875
2726
і виявляється, що створення бомби
04:03
is highly enriched uranium or plutonium,
76
243625
2393
вимагає збагаченого урану чи плутонію,
04:06
which are very difficult materials to get.
77
246042
2017
а ці матеріали дістати дуже складно.
04:08
You need ultracentrifuges,
78
248083
2268
Потрібні ультрацентрифуги,
04:10
you need reactors, like, massive amounts of energy.
79
250375
3768
потрібні реактори та велетенські об'єми енергії.
04:14
But suppose it had turned out instead
80
254167
1809
Але уявімо собі, що натомість
знайшовся би значно легший спосіб вивільнити енергію атома.
04:16
there had been an easy way to unlock the energy of the atom.
81
256000
3976
Наприклад, випікаючи пісок в мікрохвильовій печі,
04:20
That maybe by baking sand in the microwave oven
82
260000
2768
04:22
or something like that
83
262792
1267
чи щось подібне,
04:24
you could have created a nuclear detonation.
84
264083
2101
можна було б викликати ядерний вибух.
04:26
So we know that that's physically impossible.
85
266208
2143
Зрозуміло, що це фізично неможливо.
04:28
But before you did the relevant physics
86
268375
1893
Та хіба можна таке передбачити,
04:30
how could you have known how it would turn out?
87
270292
2191
перш ніж дослідиш усі потрібні фізичні закони?
04:32
CA: Although, couldn't you argue
88
272507
1552
К.А.: Та чи не можна сказати,
04:34
that for life to evolve on Earth
89
274083
1935
що життя на Землі може розвиватися
04:36
that implied sort of stable environment,
90
276042
3267
тільки за певних стабільних умов,
04:39
that if it was possible to create massive nuclear reactions relatively easy,
91
279333
4185
і якби викликати потужну ядерну реакцію було відносно легко,
04:43
the Earth would never have been stable,
92
283542
1858
Земля ніколи б не була стабільною,
04:45
that we wouldn't be here at all.
93
285424
1552
і ми ніколи б не з'явились.
Н.Б.: Так, якщо тільки не йдеться про щось, що легко робиться навмисно,
04:47
NB: Yeah, unless there were something that is easy to do on purpose
94
287000
3393
04:50
but that wouldn't happen by random chance.
95
290417
2851
але випадково не трапляється.
04:53
So, like things we can easily do,
96
293292
1579
Наприклад, можна легко
04:54
we can stack 10 blocks on top of one another,
97
294896
2110
скласти у стос 10 цеглин,
04:57
but in nature, you're not going to find, like, a stack of 10 blocks.
98
297031
3197
але в природі стоси з 10-ти цеглин не зустрічаються.
05:00
CA: OK, so this is probably the one
99
300253
1673
К.А.: Отже, мабуть, саме це
05:01
that many of us worry about most,
100
301950
1943
турбує нас найбільше.
05:03
and yes, synthetic biology is perhaps the quickest route
101
303917
3517
Тож, синтетична біологія обіцяє в найближчому майбутньому,
05:07
that we can foresee in our near future to get us here.
102
307458
3018
ймовірно, стати найшвидшим шляхом до такого результату.
05:10
NB: Yeah, and so think about what that would have meant
103
310500
2934
Н.Б.: Так, уявіть собі, як би то було,
05:13
if, say, anybody by working in their kitchen for an afternoon
104
313458
3643
якщо будь-хто, скажімо, за день роботи на власній кухні,
05:17
could destroy a city.
105
317125
1393
міг би зруйнувати місто.
05:18
It's hard to see how modern civilization as we know it
106
318542
3559
Важко уявити, як сучасна цивілізація в її сьогоднішньому вигляді
05:22
could have survived that.
107
322125
1434
могла б таке пережити.
05:23
Because in any population of a million people,
108
323583
2518
Адже на будь-яке мільйонне населення
05:26
there will always be some who would, for whatever reason,
109
326125
2684
завжди знайдеться хтось, хто матиме свої причини
05:28
choose to use that destructive power.
110
328833
2084
скористатися такою руйнівною силою.
Отже, якщо цей апокаліптичний радикал
05:31
So if that apocalyptic residual
111
331750
3143
05:34
would choose to destroy a city, or worse,
112
334917
1976
вирішив би зруйнувати місто,
05:36
then cities would get destroyed.
113
336917
1559
то його було б зруйновано.
05:38
CA: So here's another type of vulnerability.
114
338500
2351
К.А.: Є й інший тип вразливості.
05:40
Talk about this.
115
340875
1643
Розкажіть про нього.
05:42
NB: Yeah, so in addition to these kind of obvious types of black balls
116
342542
3976
Н.Б.: Так, якщо ці очевидні типи чорних кульок
05:46
that would just make it possible to blow up a lot of things,
117
346542
2810
просто дозволяють багато чого винищити,
05:49
other types would act by creating bad incentives
118
349376
4433
то інші стимулюватимуть людей
до згубних учинків.
[Вразливість типу 2-А: Погані стимули для могутніх гравців]
05:53
for humans to do things that are harmful.
119
353833
2226
Цей інший тип, назвімо його тип 2-А,
05:56
So, the Type-2a, we might call it that,
120
356083
4101
06:00
is to think about some technology that incentivizes great powers
121
360208
4518
це певна технологія, що спонукає великі держави
06:04
to use their massive amounts of force to create destruction.
122
364750
4476
використовувати свою велетенську потужність для знищення.
06:09
So, nuclear weapons were actually very close to this, right?
123
369250
2833
Наприклад, ядерна зброя майже з цим впоралась, так?
06:14
What we did, we spent over 10 trillion dollars
124
374083
3060
Ми витратили більше 10 трильйонів доларів
06:17
to build 70,000 nuclear warheads
125
377167
2517
на побудову 70 000 ядерних боєголовок
06:19
and put them on hair-trigger alert.
126
379708
2435
та тримаємо їх у підвищеній готовності.
06:22
And there were several times during the Cold War
127
382167
2267
Кілька разів протягом холодної війни
06:24
we almost blew each other up.
128
384458
1435
ми майже знищили одне одного.
06:25
It's not because a lot of people felt this would be a great idea,
129
385917
3101
І не тому, що багатьом подобалась ідея
06:29
let's all spend 10 trillion dollars to blow ourselves up,
130
389042
2684
витратити 10 трильйонів на самознищення,
06:31
but the incentives were such that we were finding ourselves --
131
391750
2934
але ситуація склалась така, що ми опинилися...
06:34
this could have been worse.
132
394708
1310
все могло скінчитися гірше.
06:36
Imagine if there had been a safe first strike.
133
396042
2434
Уявіть, що перший удар не мав би великих наслідків.
06:38
Then it might have been very tricky,
134
398500
2309
Тоді в кризовій ситуації
06:40
in a crisis situation,
135
400833
1268
було б дуже важко
06:42
to refrain from launching all their nuclear missiles.
136
402125
2477
утриматися від запуску усіх наявних ядерних ракет.
06:44
If nothing else, because you would fear that the other side might do it.
137
404626
3392
Хоча б через страх, що супротивник встигне першим.
06:48
CA: Right, mutual assured destruction
138
408042
1809
К.А.: Так, гарантоване взаємне знищення
06:49
kept the Cold War relatively stable,
139
409875
2726
дещо стабілізувало холодну війну —
06:52
without that, we might not be here now.
140
412625
1934
без цього нас могло б уже й не бути.
06:54
NB: It could have been more unstable than it was.
141
414583
2310
Н.Б.: Рівновага могла би виявитися хиткішою.
06:56
And there could be other properties of technology.
142
416917
2351
Та й технологія могла б мати інші властивості.
06:59
It could have been harder to have arms treaties,
143
419292
2309
Укласти угоду про контроль над озброєнням
07:01
if instead of nuclear weapons
144
421625
1601
було б складніше,
07:03
there had been some smaller thing or something less distinctive.
145
423250
3018
якби замість ядерної була б менша за розміром чи менш помітна зброя.
07:06
CA: And as well as bad incentives for powerful actors,
146
426292
2559
К.А.: Крім поганих стимулів для потужних гравців
07:08
you also worry about bad incentives for all of us, in Type-2b here.
147
428875
3518
вас також непокоять погані стимули для нас усіх, як-от у типі 2-Б.
07:12
NB: Yeah, so, here we might take the case of global warming.
148
432417
4250
Н.Б.: Так, візьмемо, наприклад, проблему глобального потепління.
07:18
There are a lot of little conveniences
149
438958
1893
Існує безліч маленьких зручностей,
07:20
that cause each one of us to do things
150
440875
2184
які змушують нас робити маленькі справи,
07:23
that individually have no significant effect, right?
151
443083
2851
які самі по собі нічого не змінюють, так?
07:25
But if billions of people do it,
152
445958
1976
Але коли так роблять мільйони людей,
07:27
cumulatively, it has a damaging effect.
153
447958
2060
сукупно це призводить до шкоди.
07:30
Now, global warming could have been a lot worse than it is.
154
450042
2809
Втім глобальне потепління могло б бути значно гіршим.
07:32
So we have the climate sensitivity parameter, right.
155
452875
2976
Маємо параметр кліматичної чутливості.
07:35
It's a parameter that says how much warmer does it get
156
455875
3643
Він описує, наскільки теплішає,
якщо викидати певний об'єм парникових газів.
07:39
if you emit a certain amount of greenhouse gases.
157
459542
2684
[Вразливість типу 2-Б: Погані стимули для населення]
07:42
But, suppose that it had been the case
158
462250
2393
Але уявімо,
07:44
that with the amount of greenhouse gases we emitted,
159
464667
2517
що за такого ж об'єму парникових викидів
07:47
instead of the temperature rising by, say,
160
467208
2060
температура зростала б
07:49
between three and 4.5 degrees by 2100,
161
469292
3726
не, скажімо, на 4,5 градуси до 2100 року,
07:53
suppose it had been 15 degrees or 20 degrees.
162
473042
2500
а на 15 чи 20 градусів.
07:56
Like, then we might have been in a very bad situation.
163
476375
2559
Тоді б ми опинилися в дуже неприємному становищі.
07:58
Or suppose that renewable energy had just been a lot harder to do.
164
478958
3143
Або припустімо, що відновлювану енегрію було б складніше добути,
08:02
Or that there had been more fossil fuels in the ground.
165
482125
2643
або резерв корисних копалин був би більший.
08:04
CA: Couldn't you argue that if in that case of --
166
484792
2642
К.А.: Чи не можна в такому разі сказати,
08:07
if what we are doing today
167
487458
1726
що якби наші сьогоднішні дії
08:09
had resulted in 10 degrees difference in the time period that we could see,
168
489208
4560
призвели б до підвищення в 10 градусів за осяжний період часу,
08:13
actually humanity would have got off its ass and done something about it.
169
493792
3684
людство таки відірвало б сідниці від дивана і щось зробило.
08:17
We're stupid, but we're not maybe that stupid.
170
497500
2809
Ми, звісно, дурні, але, може, все ж таки не настільки.
08:20
Or maybe we are.
171
500333
1268
А може, і настільки.
08:21
NB: I wouldn't bet on it.
172
501625
1268
Н.Б.: Я б на це не сподівався.
08:22
(Laughter)
173
502917
2184
(Сміх)
08:25
You could imagine other features.
174
505125
1684
Можна уявити й інші особливості.
08:26
So, right now, it's a little bit difficult to switch to renewables and stuff, right,
175
506833
5518
Зараз, наприклад, важко перейти на відновлювану енегретику,
08:32
but it can be done.
176
512375
1268
але це можливо.
08:33
But it might just have been, with slightly different physics,
177
513667
2976
Але якби фізика процесів дещо різнилася,
08:36
it could have been much more expensive to do these things.
178
516667
2791
цей перехід міг би бути значно дорожчим.
08:40
CA: And what's your view, Nick?
179
520375
1518
К.А.: То як ви це бачите, Нік?
08:41
Do you think, putting these possibilities together,
180
521917
2434
Якщо скласти докупи всі ці можливості:
08:44
that this earth, humanity that we are,
181
524375
4268
нашу землю, людство — чи можна вважати
08:48
we count as a vulnerable world?
182
528667
1559
цей світ вразливим?
08:50
That there is a death ball in our future?
183
530250
2417
Чи в майбутньому на нас чекає чорна кулька?
08:55
NB: It's hard to say.
184
535958
1268
Н.Б.: Важко сказати.
08:57
I mean, I think there might well be various black balls in the urn,
185
537250
5059
Я вважаю, що в урні можуть опинитися кілька чорних кульок —
09:02
that's what it looks like.
186
542333
1310
скидається на те.
09:03
There might also be some golden balls
187
543667
2392
Там можуть бути і кілька золотих кульок,
09:06
that would help us protect against black balls.
188
546083
3476
що допоможуть захиститися від чорних.
09:09
And I don't know which order they will come out.
189
549583
2976
В якому порядку їх витягнуть — невідомо.
09:12
CA: I mean, one possible philosophical critique of this idea
190
552583
3851
К.А.: Одне з можливих критичних заперечень цієї ідеї полягає в тому,
09:16
is that it implies a view that the future is essentially settled.
191
556458
5643
що вона натякає на визначеність майбутнього.
09:22
That there either is that ball there or it's not.
192
562125
2476
Що кулька або є, або її немає.
09:24
And in a way,
193
564625
3018
У певному сенсі
09:27
that's not a view of the future that I want to believe.
194
567667
2601
не в таке майбутнє мені б хотілося вірити.
09:30
I want to believe that the future is undetermined,
195
570292
2351
Я б хотів вірити, що майбутнє невизначене,
09:32
that our decisions today will determine
196
572667
1934
що його визначають наші рішення,
09:34
what kind of balls we pull out of that urn.
197
574625
2208
те, які саме кульки ми витягнемо з тієї урни.
Н.Б.: Якщо ми й далі робитимемо винаходи,
09:37
NB: I mean, if we just keep inventing,
198
577917
3767
09:41
like, eventually we will pull out all the balls.
199
581708
2334
зрештою ми витягнемо всі кульки.
09:44
I mean, I think there's a kind of weak form of technological determinism
200
584875
3393
Я б сказав, що існує певна слабка форма технологічного детермінізму,
09:48
that is quite plausible,
201
588292
1267
яка є цілком слушною.
09:49
like, you're unlikely to encounter a society
202
589583
2643
Наприклад, навряд чи ви знайдете суспільство,
09:52
that uses flint axes and jet planes.
203
592250
2833
яке водночас використовує крем'яні сокири та реактивні літаки.
Технологію можна уявити набором дозволеностей.
09:56
But you can almost think of a technology as a set of affordances.
204
596208
4060
10:00
So technology is the thing that enables us to do various things
205
600292
3017
Тобто технологія — це те, що дає можливість робити певні речі
10:03
and achieve various effects in the world.
206
603333
1976
та досягати у світі певних результатів.
10:05
How we'd then use that, of course depends on human choice.
207
605333
2810
Як її зрештою використовувати, люди, звісно, обирають самі.
10:08
But if we think about these three types of vulnerability,
208
608167
2684
Але якщо подумати про ці три види вразливостей,
10:10
they make quite weak assumptions about how we would choose to use them.
209
610875
3393
дуже важко уявити, як саме ми їх вирішимо використати.
10:14
So a Type-1 vulnerability, again, this massive, destructive power,
210
614292
3392
У випадку вразливості типу один, цієї потужної нищівної сили,
10:17
it's a fairly weak assumption
211
617708
1435
припущення, що серед мільйонів людей знайдуться такі,
10:19
to think that in a population of millions of people
212
619167
2392
10:21
there would be some that would choose to use it destructively.
213
621583
2935
що захочуть використати її для знищення, не є переконливим.
10:24
CA: For me, the most single disturbing argument
214
624542
2434
К.А.: Мене найбільше непокоїть аргумент,
згідно якого ми таки маємо певну можливість зазирнути в урну,
10:27
is that we actually might have some kind of view into the urn
215
627000
4559
10:31
that makes it actually very likely that we're doomed.
216
631583
3518
і схоже на те, що ми таки приречені.
10:35
Namely, if you believe in accelerating power,
217
635125
4643
Наприклад, якщо вірити у прискорення потужності,
10:39
that technology inherently accelerates,
218
639792
2267
що технологія, по суті, прискорюється,
10:42
that we build the tools that make us more powerful,
219
642083
2435
і ми створюємо засоби, які роблять нас могутнішими,
10:44
then at some point you get to a stage
220
644542
2642
тоді в певний момент ми опинимося на етапі,
10:47
where a single individual can take us all down,
221
647208
3060
коли один окремий індивідуум зможе нас усіх знищити,
10:50
and then it looks like we're screwed.
222
650292
2851
і в такому разі нам кінець.
10:53
Isn't that argument quite alarming?
223
653167
2934
Надзвичайно бентежний аргумент, правда?
10:56
NB: Ah, yeah.
224
656125
1750
Н.Б.: О, так.
(Сміх)
10:58
(Laughter)
225
658708
1268
11:00
I think --
226
660000
1333
Я думаю...
11:02
Yeah, we get more and more power,
227
662875
1601
Так, ми стаємо могутнішими,
11:04
and [it's] easier and easier to use those powers,
228
664500
3934
і використовувати нашу могутність з часом стає все простіше,
11:08
but we can also invent technologies that kind of help us control
229
668458
3560
але ми також можемо винаходити технології, що допоможуть контролювати,
11:12
how people use those powers.
230
672042
2017
як саме люди використовують цю силу.
11:14
CA: So let's talk about that, let's talk about the response.
231
674083
2851
К.А.: Поговорімо про цю реакцію.
11:16
Suppose that thinking about all the possibilities
232
676958
2310
Припустімо, що враховуючи всі ті можливості,
11:19
that are out there now --
233
679292
2101
які є на сьогодні —
11:21
it's not just synbio, it's things like cyberwarfare,
234
681417
3726
не тільки синтетична біологія, це також кібервійна,
11:25
artificial intelligence, etc., etc. --
235
685167
3351
штучний інтелект і таке інше —
11:28
that there might be serious doom in our future.
236
688542
4517
на нас у майбутньому може чекати дійсно похмура доля.
11:33
What are the possible responses?
237
693083
1601
Що ми можемо вдіяти?
11:34
And you've talked about four possible responses as well.
238
694708
4893
[Реакція 1: Обмежити розвиток технології]
Ви говорили також і про чотири можливі реакції.
11:39
NB: Restricting technological development doesn't seem promising,
239
699625
3643
Н.Б.: Обмеження технологічного розвитку не видається перспективним,
11:43
if we are talking about a general halt to technological progress.
240
703292
3226
якщо ми говоримо про загальну зупинку технологічного прогресу.
11:46
I think neither feasible,
241
706542
1267
Не вважаю це ані можливим,
11:47
nor would it be desirable even if we could do it.
242
707833
2310
ані бажаним, навіть якби то було нам під силу.
11:50
I think there might be very limited areas
243
710167
3017
Небагато знайдеться сфер діяльності,
11:53
where maybe you would want slower technological progress.
244
713208
2726
де б захотілося сповільнити технологічний прогрес.
11:55
You don't, I think, want faster progress in bioweapons,
245
715958
3393
Не хотілося б, певно, пришвидшувати розвиток біологічної зброї
11:59
or in, say, isotope separation,
246
719375
2059
або, скажімо, ділення ізотопів,
12:01
that would make it easier to create nukes.
247
721458
2250
яке може спростити створення ядерної зброї.
К.А.: Раніше я б цілком з цим погодився.
12:04
CA: I mean, I used to be fully on board with that.
248
724583
3310
12:07
But I would like to actually push back on that for a minute.
249
727917
3267
Але спробую все ж таки трохи посперечатися.
12:11
Just because, first of all,
250
731208
1310
Оскільки, по-перше,
12:12
if you look at the history of the last couple of decades,
251
732542
2684
якщо розглянути історію останніх двох десятиріч,
12:15
you know, it's always been push forward at full speed,
252
735250
3559
курс завжди був такий: повний вперед, все гаразд,
12:18
it's OK, that's our only choice.
253
738833
1851
іншого шляху все одно немає.
12:20
But if you look at globalization and the rapid acceleration of that,
254
740708
4268
Але якщо поглянути на глобалізацію та її стрімке пришвидшення,
якщо поглянути на стратегію "роби швидко, ламай речі"
12:25
if you look at the strategy of "move fast and break things"
255
745000
3434
12:28
and what happened with that,
256
748458
2060
та її результатів,
12:30
and then you look at the potential for synthetic biology,
257
750542
2767
а потім подивитися на потеніцал синтетичної біології,
12:33
I don't know that we should move forward rapidly
258
753333
4435
то в мене з'являються сумніви в тому, чи потрібно так летіти вперед
12:37
or without any kind of restriction
259
757792
1642
без жодних обмежень
12:39
to a world where you could have a DNA printer in every home
260
759458
3310
у світ, де ДНК-принтер може опинитися в кожному домі
12:42
and high school lab.
261
762792
1333
та шкільній лабораторії.
12:45
There are some restrictions, right?
262
765167
1684
Адже є ж якісь обмеження, правда?
12:46
NB: Possibly, there is the first part, the not feasible.
263
766875
2643
Н.Б.: Можливо, в тій частині, що стосується "не можливо".
12:49
If you think it would be desirable to stop it,
264
769542
2184
Якщо ви вважаєте необхідним це зупинити,
12:51
there's the problem of feasibility.
265
771750
1726
лишається проблема здійсненності.
12:53
So it doesn't really help if one nation kind of --
266
773500
2809
Користі буде небагато, якщо якась одна нація...
12:56
CA: No, it doesn't help if one nation does,
267
776333
2018
К.А.: Ні, якщо одна нація, це не допоможе,
12:58
but we've had treaties before.
268
778375
2934
але ж ми й раніше підписували угоди.
13:01
That's really how we survived the nuclear threat,
269
781333
3351
Адже саме так ми пережили ядерну загрозу:
13:04
was by going out there
270
784708
1268
ми зібралися і пройшли
13:06
and going through the painful process of negotiating.
271
786000
2518
весь важкий шлях переговорів.
13:08
I just wonder whether the logic isn't that we, as a matter of global priority,
272
788542
5434
Я тільки думаю, чи не слід нам, керуючись глобальними пріоритетами,
зібратися і спробувати вже зараз
13:14
we shouldn't go out there and try,
273
794000
1684
13:15
like, now start negotiating really strict rules
274
795708
2685
почати перемовини про насправді жорсткі обмеження
13:18
on where synthetic bioresearch is done,
275
798417
2684
проведення біологічних дослідів,
13:21
that it's not something that you want to democratize, no?
276
801125
2851
адже якраз саме це не слід було б демократизувати.
Н.Б.: З цим я цілком згоден...
13:24
NB: I totally agree with that --
277
804000
1809
13:25
that it would be desirable, for example,
278
805833
4226
Було б, наприклад, бажано
13:30
maybe to have DNA synthesis machines,
279
810083
3601
перетворити синтез ДНК на сервіс,
13:33
not as a product where each lab has their own device,
280
813708
3560
адже зараз кожна лабораторія
13:37
but maybe as a service.
281
817292
1476
має свій апарат.
13:38
Maybe there could be four or five places in the world
282
818792
2517
Зробити чотири-п'ять таких місць на цілий світ,
13:41
where you send in your digital blueprint and the DNA comes back, right?
283
821333
3518
куди можна надіслати свій цифровий проєкт, а назад отримати ДНК, вірно?
13:44
And then, you would have the ability,
284
824875
1768
Тоді була б можливість...
13:46
if one day it really looked like it was necessary,
285
826667
2392
якщо колись з'явилася б така необхідність,
13:49
we would have like, a finite set of choke points.
286
829083
2351
ми б мали обмежену кількість стратегічних точок.
13:51
So I think you want to look for kind of special opportunities,
287
831458
3518
Отже, думаю, слід шукати певних особливих умов,
за яких можна було б підсилити констроль.
13:55
where you could have tighter control.
288
835000
2059
13:57
CA: Your belief is, fundamentally,
289
837083
1643
К.А.: Тобто, по суті, ви вважаєте,
13:58
we are not going to be successful in just holding back.
290
838750
2893
що самого стримування нам буде недостатньо.
14:01
Someone, somewhere -- North Korea, you know --
291
841667
2726
Хтось десь, якась, скажімо, Північна Корея,
14:04
someone is going to go there and discover this knowledge,
292
844417
3517
зрештою здобуде ці знання,
14:07
if it's there to be found.
293
847958
1268
якщо вони десь чекають.
14:09
NB: That looks plausible under current conditions.
294
849250
2351
Н.Б.: За теперішніх умов це здається ймовірним.
14:11
It's not just synthetic biology, either.
295
851625
1934
Йдеться не лише про синтетичну біологію.
14:13
I mean, any kind of profound, new change in the world
296
853583
2518
Адже будь-яка глибока нова зміна у світі
14:16
could turn out to be a black ball.
297
856101
1626
може виявитися чорною кулькою.
14:17
CA: Let's look at another possible response.
298
857727
2096
К.А.: Розгляньмо ще одну можливу реакцію.
14:19
NB: This also, I think, has only limited potential.
299
859823
2403
Н.Б.: Ця також, думаю, має обмежені можливості.
14:22
So, with the Type-1 vulnerability again,
300
862250
3559
Повернімося до вразливості першого типу: наприклад, якщо би можна було
14:25
I mean, if you could reduce the number of people who are incentivized
301
865833
4351
зменшити кількість людей,
[Реакція 2: Усунути правопорушників]
що можуть бажати знищити світ,
14:30
to destroy the world,
302
870208
1268
14:31
if only they could get access and the means,
303
871500
2059
якби вони мали для цього необхідні засоби,
14:33
that would be good.
304
873583
1268
то було б непогано.
14:34
CA: In this image that you asked us to do
305
874875
1976
К.А.: На цьому зображенні, яке ви попросили нас зробити,
14:36
you're imagining these drones flying around the world
306
876875
2559
бачимо дронів, що літають світом
14:39
with facial recognition.
307
879458
1268
і розпізнають обличчя.
14:40
When they spot someone showing signs of sociopathic behavior,
308
880750
2893
Помічаючи когось з ознаками соціопатичної поведінки,
14:43
they shower them with love, they fix them.
309
883667
2184
вони заливають його любов'ю і лагодять його.
14:45
NB: I think it's like a hybrid picture.
310
885875
1893
Н.Б.: Тут, мабуть, ідеться про гібридну картину.
14:47
Eliminate can either mean, like, incarcerate or kill,
311
887792
4017
"Усувати" може значити як ув'язнити чи вбити,
14:51
or it can mean persuade them to a better view of the world.
312
891833
3018
так і схилити до кращого бачення світу.
14:54
But the point is that,
313
894875
1726
Але справа ось у чому:
14:56
suppose you were extremely successful in this,
314
896625
2143
скажімо, цей сценарій є успішним,
14:58
and you reduced the number of such individuals by half.
315
898792
3309
нам вдається зменшити кількість таких людей наполовину.
15:02
And if you want to do it by persuasion,
316
902125
1893
Якщо ми обираємо шлях переконання,
15:04
you are competing against all other powerful forces
317
904042
2392
то маємо змагатися проти усіх інших могутніх сил,
15:06
that are trying to persuade people,
318
906458
1685
що намагаються переконувати людей:
15:08
parties, religion, education system.
319
908167
1767
партії, релігія, система освіти.
15:09
But suppose you could reduce it by half,
320
909958
1905
Але нехай вдалося-таки скоротити вдвічі.
15:11
I don't think the risk would be reduced by half.
321
911887
2256
Не думаю, що і ризик буде скорочено вдвічі.
15:14
Maybe by five or 10 percent.
322
914167
1559
Можливо, на відсотків 5 чи 10.
15:15
CA: You're not recommending that we gamble humanity's future on response two.
323
915750
4351
К.А.: Отже, ви не радите ставити майбутнє людства на другий спосіб.
15:20
NB: I think it's all good to try to deter and persuade people,
324
920125
3018
Н.Б.: Думаю, стримувати й переконувати — справа корисна,
15:23
but we shouldn't rely on that as our only safeguard.
325
923167
2976
та не варто покладатися лише на це.
15:26
CA: How about three?
326
926167
1267
К.А.: Як щодо третього?
15:27
NB: I think there are two general methods
327
927458
2893
Н.Б.: Думаю, є два основних способи,
які можна використовувати, аби стабілізувати світ
15:30
that we could use to achieve the ability to stabilize the world
328
930375
3976
[Реакція 3: Масове стеження]
15:34
against the whole spectrum of possible vulnerabilities.
329
934375
2976
проти цілого спектру можливих загроз.
15:37
And we probably would need both.
330
937375
1559
Нам, певно, знадобляться обидва.
15:38
So, one is an extremely effective ability
331
938958
4518
Отже, перший є надзвичайно ефективним
15:43
to do preventive policing.
332
943500
1768
для запобігання злочинам.
Йдеться про можливість втручання.
15:45
Such that you could intercept.
333
945292
1524
15:46
If anybody started to do this dangerous thing,
334
946840
2761
Якщо хтось почне робити щось небезпечне,
15:49
you could intercept them in real time, and stop them.
335
949625
2684
то їх можна буде зупинити у реальному часі.
15:52
So this would require ubiquitous surveillance,
336
952333
2476
Це б вимагало повсюдного стеження,
15:54
everybody would be monitored all the time.
337
954833
2375
коли кожен постійно знаходиться під контролем.
15:58
CA: This is "Minority Report," essentially, a form of.
338
958333
2560
К.А.: Це вже майже як у фільмі "Особлива думка".
16:00
NB: You would have maybe AI algorithms,
339
960917
1934
Н.Б.: Тут мав би бути залучений штучний інтелект,
16:02
big freedom centers that were reviewing this, etc., etc.
340
962875
4417
діяли б великі центри спостереження і таке інше.
16:08
CA: You know that mass surveillance is not a very popular term right now?
341
968583
4393
К.А.: Знаєте, сьогодні "масове стеження" не найпопулярніші слова.
(Сміх)
16:13
(Laughter)
342
973000
1250
16:15
NB: Yeah, so this little device there,
343
975458
1810
Н.Б.: Так, оцей маленький пристрій,
16:17
imagine that kind of necklace that you would have to wear at all times
344
977292
3601
таке собі намисто, яке потрібно мати на собі постійно,
16:20
with multidirectional cameras.
345
980917
2000
з різнонаправленими камерами.
Аби він краще сприймався,
16:23
But, to make it go down better,
346
983792
1809
16:25
just call it the "freedom tag" or something like that.
347
985625
2524
назвіть його, скажімо, "емблемою свободи".
16:28
(Laughter)
348
988173
2011
(Сміх)
16:30
CA: OK.
349
990208
1268
К.А.: Добре.
16:31
I mean, this is the conversation, friends,
350
991500
2101
Отака в нас розмова, друзі,
16:33
this is why this is such a mind-blowing conversation.
351
993625
3559
саме тому вона така захоплююча.
16:37
NB: Actually, there's a whole big conversation on this
352
997208
2601
Н.Б.: Насправді, про це можна говорити і говорити,
16:39
on its own, obviously.
353
999833
1310
це очевидно.
16:41
There are huge problems and risks with that, right?
354
1001167
2476
Та й проблем і ризиків тут повно, правда?
16:43
We may come back to that.
355
1003667
1267
Ми ще до цього, може, повернемось.
16:44
So the other, the final,
356
1004958
1268
Отже, остання можливість загальної стабілізації —
16:46
the other general stabilization capability
357
1006250
2559
[Реакція 4: Глобальне управління]
16:48
is kind of plugging another governance gap.
358
1008833
2060
це виправлення управлінських похибок.
16:50
So the surveillance would be kind of governance gap at the microlevel,
359
1010917
4184
Отже, нагляд стосувався б, скажімо, управлінських похибок на мікрорівні,
16:55
like, preventing anybody from ever doing something highly illegal.
360
1015125
3101
як-от не допустити дійсно протизаконних учинків.
16:58
Then, there's a corresponding governance gap
361
1018250
2309
І є відповідна управлінська похибка
17:00
at the macro level, at the global level.
362
1020583
1935
на макрорівні, на світовому рівні.
17:02
You would need the ability, reliably,
363
1022542
3934
Потрібна надійна можливість запобігти
17:06
to prevent the worst kinds of global coordination failures,
364
1026500
2809
найгіршим координаційним помилкам на світовому рівні,
17:09
to avoid wars between great powers,
365
1029333
3768
уникнути воєн між могутніми країнами,
17:13
arms races,
366
1033125
1333
гонки озброєнь,
катастрофічних спільних трагедій,
17:15
cataclysmic commons problems,
367
1035500
2208
17:19
in order to deal with the Type-2a vulnerabilities.
368
1039667
4184
аби впоратися з загрозами типу 2-А.
17:23
CA: Global governance is a term
369
1043875
1934
К.А.: Термін "глобальне управління"
17:25
that's definitely way out of fashion right now,
370
1045833
2226
зараз точно не на піку популярності,
17:28
but could you make the case that throughout history,
371
1048083
2518
але чи не можна стверджувати,
17:30
the history of humanity
372
1050625
1268
що за всю історію людства
17:31
is that at every stage of technological power increase,
373
1051917
5434
на кожному етапі зростання технологічної потужності
17:37
people have reorganized and sort of centralized the power.
374
1057375
3226
люди реорганізовувалися і, так би мовити, централізували владу.
17:40
So, for example, when a roving band of criminals
375
1060625
3434
Наприклад, коли з'являлася загроза, що владу може захопити
17:44
could take over a society,
376
1064083
1685
якесь мандрівне угрупування,
17:45
the response was, well, you have a nation-state
377
1065792
2239
у відповідь лунало: "Ні, цього не можна,
17:48
and you centralize force, a police force or an army,
378
1068055
2434
адже є держава і централізована влада,
17:50
so, "No, you can't do that."
379
1070513
1630
поліція чи армія."
17:52
The logic, perhaps, of having a single person or a single group
380
1072167
4559
Загроза того, що одна людина чи група людей
17:56
able to take out humanity
381
1076750
1643
зможуть знищити людство, означає,
17:58
means at some point we're going to have to go this route,
382
1078417
2726
що колись нам, можливо, доведеться хоч певною мірою
18:01
at least in some form, no?
383
1081167
1434
піти цим шляхом, хіба ні?
18:02
NB: It's certainly true that the scale of political organization has increased
384
1082625
3684
Н.Б.: Рівень політичної організації, звісно, зріс протягом історії людства,
18:06
over the course of human history.
385
1086333
2143
це правда.
18:08
It used to be hunter-gatherer band, right,
386
1088500
2018
Спочатку були групи мисливців-збирачів,
18:10
and then chiefdom, city-states, nations,
387
1090542
2934
потім племена, поліси, нації,
18:13
now there are international organizations and so on and so forth.
388
1093500
3976
а тепер міжнародні організації і так далі.
18:17
Again, I just want to make sure
389
1097500
1518
Але я хотів би знову наголосити,
18:19
I get the chance to stress
390
1099042
1642
безумовно існують
18:20
that obviously there are huge downsides
391
1100708
1976
великі недоліки і величезні ризики
18:22
and indeed, massive risks,
392
1102708
1518
як у випадку масового нагляду,
18:24
both to mass surveillance and to global governance.
393
1104250
3351
так і у випадку глобального управління.
18:27
I'm just pointing out that if we are lucky,
394
1107625
2559
Хочу відмітити, якщо нам пощастить, і світ буде таким,
18:30
the world could be such that these would be the only ways
395
1110208
2685
що тільки цими способами ми й зможемо захиститися
18:32
you could survive a black ball.
396
1112917
1517
від чорної кульки.
18:34
CA: The logic of this theory,
397
1114458
2518
К.А.: Логіка цієї теорії,
здається мені,
18:37
it seems to me,
398
1117000
1268
18:38
is that we've got to recognize we can't have it all.
399
1118292
3601
полягає в нашому визнанні неможливості отримати все.
18:41
That the sort of,
400
1121917
1833
Це, можна сказати, така наївна мрія,
яку багато з нас плекали,
18:45
I would say, naive dream that many of us had
401
1125500
2976
18:48
that technology is always going to be a force for good,
402
1128500
3351
що технологія завжди буде силою добра,
18:51
keep going, don't stop, go as fast as you can
403
1131875
2976
і треба йти вперед, не зупинятися, якнайшвидше,
18:54
and not pay attention to some of the consequences,
404
1134875
2351
не звертаючи уваги на певні наслідки.
18:57
that's actually just not an option.
405
1137250
1684
Та це насправді так не працює.
18:58
We can have that.
406
1138958
1935
Так не вийде.
19:00
If we have that,
407
1140917
1267
Якщо робити так,
19:02
we're going to have to accept
408
1142208
1435
то нам заодно доведеться прийняти
19:03
some of these other very uncomfortable things with it,
409
1143667
2559
деякі інші неприємні речі,
19:06
and kind of be in this arms race with ourselves
410
1146250
2226
почати таку собі гонку озброєння з самими собою:
19:08
of, you want the power, you better limit it,
411
1148500
2268
хочеш силу — навчись її обмежувати,
19:10
you better figure out how to limit it.
412
1150792
2142
знайди спосіб, як це зробити.
19:12
NB: I think it is an option,
413
1152958
3476
Н.Б.: Думаю, це варіант,
19:16
a very tempting option, it's in a sense the easiest option
414
1156458
2768
і то дуже спокусливий, можна сказати, найпростіший,
19:19
and it might work,
415
1159250
1268
і він може спрацювати,
19:20
but it means we are fundamentally vulnerable to extracting a black ball.
416
1160542
4809
але він означає, що ми, по суті, ризикуємо витягнути чорну кульку.
19:25
Now, I think with a bit of coordination,
417
1165375
2143
Думаю, за умови деякої координації,
19:27
like, if you did solve this macrogovernance problem,
418
1167542
2726
якщо ми вирішимо проблеми
19:30
and the microgovernance problem,
419
1170292
1601
макро- та мікроуправління,
19:31
then we could extract all the balls from the urn
420
1171917
2309
то зможемо витягнути з урни всі кульки
19:34
and we'd benefit greatly.
421
1174250
2268
та отримати від цього велику користь.
19:36
CA: I mean, if we're living in a simulation, does it matter?
422
1176542
3434
К.А.: Але якщо ми живемо в симуляції, то хіба це має значення?
Ми лише перезавантажимось і все.
19:40
We just reboot.
423
1180000
1309
19:41
(Laughter)
424
1181333
1268
(Сміх)
19:42
NB: Then ... I ...
425
1182625
1643
Н.Б.: Тоді... я...
19:44
(Laughter)
426
1184292
2476
(Сміх)
19:46
I didn't see that one coming.
427
1186792
1416
Цього я не чекав.
19:50
CA: So what's your view?
428
1190125
1268
К.А.: То як ви вважаєте?
19:51
Putting all the pieces together, how likely is it that we're doomed?
429
1191417
4809
Якщо скласти все докупи, чи велика вірогідність того, що ми приречені?
19:56
(Laughter)
430
1196250
1958
(Сміх)
Люблю, як люди сміються, коли питаєш про таке.
19:59
I love how people laugh when you ask that question.
431
1199042
2392
20:01
NB: On an individual level,
432
1201458
1351
Н.Б.: На індивідуальному рівні
20:02
we seem to kind of be doomed anyway, just with the time line,
433
1202833
3851
ми за будь-яких обставин приречені, тільки за певним графіком.
20:06
we're rotting and aging and all kinds of things, right?
434
1206708
2601
Ми ж усі чахнемо і старіємо, правда?
20:09
(Laughter)
435
1209333
1601
(Сміх)
20:10
It's actually a little bit tricky.
436
1210958
1685
Насправді, це дещо складно.
20:12
If you want to set up so that you can attach a probability,
437
1212667
2767
Якщо говорити про ймовірність, то спочатку треба визначитися,
20:15
first, who are we?
438
1215458
1268
хто є "ми".
20:16
If you're very old, probably you'll die of natural causes,
439
1216750
2726
Якщо ви дуже старий, то помрете, мабуть, природною смертю,
20:19
if you're very young, you might have a 100-year --
440
1219500
2351
якщо молодий, то можете мати 100 років...
20:21
the probability might depend on who you ask.
441
1221875
2143
все залежить від того, кого ви спитаєте.
20:24
Then the threshold, like, what counts as civilizational devastation?
442
1224042
4226
Далі, межі. Що вважати руйнуванням цивілізації?
20:28
In the paper I don't require an existential catastrophe
443
1228292
5642
В статті я говорю не лише про екзистенційну катастрофу.
20:33
in order for it to count.
444
1233958
1435
20:35
This is just a definitional matter,
445
1235417
1684
Тут справа у визначенні.
20:37
I say a billion dead,
446
1237125
1309
Я кажу: мільярд мертвих
20:38
or a reduction of world GDP by 50 percent,
447
1238458
2060
чи зниження світового ВВП на 50%,
20:40
but depending on what you say the threshold is,
448
1240542
2226
але оцінка вірогідності залежатиме
20:42
you get a different probability estimate.
449
1242792
1976
від визначеної вами межі.
20:44
But I guess you could put me down as a frightened optimist.
450
1244792
4517
Гадаю, мене можна віднести до наляканих оптимістів.
20:49
(Laughter)
451
1249333
1101
(Сміх)
20:50
CA: You're a frightened optimist,
452
1250458
1643
К.А.: Ви наляканий оптиміст,
20:52
and I think you've just created a large number of other frightened ...
453
1252125
4268
який щойно, думаю, створив багато інших наляканих...
20:56
people.
454
1256417
1267
людей.
20:57
(Laughter)
455
1257708
1060
(Сміх)
20:58
NB: In the simulation.
456
1258792
1267
Н.Б.: В симуляції.
21:00
CA: In a simulation.
457
1260083
1268
К.А.: В симуляції.
21:01
Nick Bostrom, your mind amazes me,
458
1261375
1684
Нік Бостром, ваш розум мене вражає.
21:03
thank you so much for scaring the living daylights out of us.
459
1263083
2893
Красно дякую, що нажахали нас усіх.
21:06
(Applause)
460
1266000
2375
(Оплески)
Про цей сайт

Цей сайт познайомить вас з відеороликами YouTube, корисними для вивчення англійської мови. Ви побачите уроки англійської мови, які проводять першокласні викладачі з усього світу. Двічі клацніть на англійських субтитрах, що відображаються на кожній сторінці відео, щоб відтворити відео з цієї сторінки. Субтитри прокручуються синхронно з відтворенням відео. Якщо у вас є коментарі або побажання, будь ласка, зв'яжіться з нами за допомогою цієї контактної форми.

https://forms.gle/WvT1wiN1qDtmnspy7