How civilization could destroy itself -- and 4 ways we could prevent it | Nick Bostrom

153,547 views ・ 2020-01-17

TED


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

Переводчик: Olia Francia Редактор: Natalia Ost
00:13
Chris Anderson: Nick Bostrom.
0
13000
1809
Крис Андерсон: Ник Бостром
00:14
So, you have already given us so many crazy ideas out there.
1
14833
3976
Вы уже делились с нами своими безумными идеями.
00:18
I think a couple of decades ago,
2
18833
1726
Пару десятилетий назад, как мне
00:20
you made the case that we might all be living in a simulation,
3
20583
2935
помнится, вы предположили, что мы будем жить в симуляции
00:23
or perhaps probably were.
4
23542
1809
или мы уже в ней.
00:25
More recently,
5
25375
1351
А относительно недавно
00:26
you've painted the most vivid examples of how artificial general intelligence
6
26750
4601
вы представили самый наглядный пример того, как может навредить
00:31
could go horribly wrong.
7
31375
1833
всеобщий искусственный интеллект.
00:33
And now this year,
8
33750
1393
И уже в этом году
00:35
you're about to publish
9
35167
2226
вы собираетесь издавать
00:37
a paper that presents something called the vulnerable world hypothesis.
10
37417
3934
книгу с самыми уязвимыми мировыми гипотезами.
00:41
And our job this evening is to give the illustrated guide to that.
11
41375
4583
И сегодняшний выпуск должен стать иллюстрированным руководством к ней.
00:46
So let's do that.
12
46417
1833
Давайте начнём.
00:48
What is that hypothesis?
13
48833
1792
Что это за гипотезы?
00:52
Nick Bostrom: It's trying to think about
14
52000
2434
Ник Бостром: Это попытка осмысления структурных компонентов
00:54
a sort of structural feature of the current human condition.
15
54458
3084
текущего состояния человечества.
00:59
You like the urn metaphor,
16
59125
2351
Вам нравится метафора про урну,
01:01
so I'm going to use that to explain it.
17
61500
1893
поэтому я использую её.
01:03
So picture a big urn filled with balls
18
63417
4351
Представьте большу́ю урну, наполненную шарами,
01:07
representing ideas, methods, possible technologies.
19
67792
3958
которые представляют собой идеи, методы
01:12
You can think of the history of human creativity
20
72833
3726
и всевозможные технологии. Всю творческую деятельность человечества
01:16
as the process of reaching into this urn and pulling out one ball after another,
21
76583
3810
можно сравнить с погружением в эту урну и вытаскиванием оттуда шариков.
01:20
and the net effect so far has been hugely beneficial, right?
22
80417
3226
И долгие годы мы всегда получали только пользу от этого, верно?
01:23
We've extracted a great many white balls,
23
83667
2726
Мы изъяли слишком много белых шаров,
01:26
some various shades of gray, mixed blessings.
24
86417
2875
несколько с оттенками серого, с неоднозначными последствиями.
01:30
We haven't so far pulled out the black ball --
25
90042
2958
Но нам так давно не попадался чёрный шар — технология,
01:34
a technology that invariably destroys the civilization that discovers it.
26
94292
5476
которая непременно уничтожит своих создателей.
01:39
So the paper tries to think about what could such a black ball be.
27
99792
3267
В книге содержатся версии того, что́ будет внутри чёрного шара.
01:43
CA: So you define that ball
28
103083
1810
КА: То есть, вы определяете этот шар
01:44
as one that would inevitably bring about civilizational destruction.
29
104917
3684
как причину гибели цивилизации.
01:48
NB: Unless we exit what I call the semi-anarchic default condition.
30
108625
5309
НБ: Пока мы не выйдем из своего стандартного состояния полуанархии,
01:53
But sort of, by default.
31
113958
1500
01:56
CA: So, you make the case compelling
32
116333
3518
КА: В качестве доказательства вы приводите
01:59
by showing some sort of counterexamples
33
119875
2018
несколько контрпримеров.
02:01
where you believe that so far we've actually got lucky,
34
121917
2934
Вы убеждены, что нам везло на протяжении многих лет.
02:04
that we might have pulled out that death ball
35
124875
2851
И возможно мы, сами того не подозревая,
02:07
without even knowing it.
36
127750
1559
уже вытянули этот шар смерти.
02:09
So there's this quote, what's this quote?
37
129333
2292
Также вы приводите цитату. Что она означает?
02:12
NB: Well, I guess it's just meant to illustrate
38
132625
2684
НБ: Она только показывает,
02:15
the difficulty of foreseeing
39
135333
2101
насколько сложно предусмотреть
02:17
what basic discoveries will lead to.
40
137458
2685
все последствия базовых открытий.
02:20
We just don't have that capability.
41
140167
3059
У нас нет такой возможности.
02:23
Because we have become quite good at pulling out balls,
42
143250
3351
Мы хорошо научились вытаскивать шары из урны,
02:26
but we don't really have the ability to put the ball back into the urn, right.
43
146625
3726
но не умеем возвращать их обратно.
02:30
We can invent, but we can't un-invent.
44
150375
2167
То есть, мы можем изобретать, но не наоборот.
02:33
So our strategy, such as it is,
45
153583
2768
В качестве стратегии у нас есть только надежда на то,
02:36
is to hope that there is no black ball in the urn.
46
156375
2434
что в урне нет шаров чёрного цвета.
02:38
CA: So once it's out, it's out, and you can't put it back in,
47
158833
4060
КА: Однажды мы его вытащим и не сможем вернуть обратно,
02:42
and you think we've been lucky.
48
162917
1517
и вы считаете нам пока везло.
02:44
So talk through a couple of these examples.
49
164458
2226
Прокомментируйте примеры, где вы упоминаете
02:46
You talk about different types of vulnerability.
50
166708
3101
несколько типов уязвимости.
02:49
NB: So the easiest type to understand
51
169833
2435
НБ: Самый простой тип для понимания —
02:52
is a technology that just makes it very easy
52
172292
3142
технология, которая сможет без особого труда
02:55
to cause massive amounts of destruction.
53
175458
2125
вызвать много массовых разрушений.
02:59
Synthetic biology might be a fecund source of that kind of black ball,
54
179375
3518
Синтетическая биология может стать богатым источником
03:02
but many other possible things we could --
55
182917
2684
чёрных шаров подобного рода.
03:05
think of geoengineering, really great, right?
56
185625
2518
Также стоит задуматься о продуктах геоинженерии.
03:08
We could combat global warming,
57
188167
2226
Мы можем бороться с глобальным потеплением,
03:10
but you don't want it to get too easy either,
58
190417
2142
но не нужно облегчать себе задачу.
03:12
you don't want any random person and his grandmother
59
192583
2476
Не нужно, чтобы случайный человек и его бабушка
03:15
to have the ability to radically alter the earth's climate.
60
195083
3060
имели возможность радикальным образом изменить климат на земле.
03:18
Or maybe lethal autonomous drones,
61
198167
3559
Или смертоносные беспилотные дроны размером с комара,
03:21
massed-produced, mosquito-sized killer bot swarms.
62
201750
3333
которые массово производят для уничтожения вредителей
03:26
Nanotechnology, artificial general intelligence.
63
206500
2726
Нанотехнологии, всеобщий искусственный интеллект.
03:29
CA: You argue in the paper
64
209250
1309
КА: В книге есть сомнение,
03:30
that it's a matter of luck that when we discovered
65
210583
2893
что нам повезло открыть ядерную энергию
03:33
that nuclear power could create a bomb,
66
213500
3434
для создания атомной бомбы.
03:36
it might have been the case
67
216958
1393
Возможно, это тот случай,
03:38
that you could have created a bomb
68
218375
1851
когда возможно создать бомбу
03:40
with much easier resources, accessible to anyone.
69
220250
3559
с помощью более лёгких ресурсов, доступных каждому.
03:43
NB: Yeah, so think back to the 1930s
70
223833
3560
НБ: Вернёмся в 30-е годы ХХ века,
03:47
where for the first time we make some breakthroughs in nuclear physics,
71
227417
4601
когда мы впервые достигли прогресса в ядерной физике.
03:52
some genius figures out that it's possible to create a nuclear chain reaction
72
232042
3684
Некоторые выдающиеся учёные выяснили, как создать цепную ядерную реакцию
03:55
and then realizes that this could lead to the bomb.
73
235750
3184
и потом довели её до бомбы.
03:58
And we do some more work,
74
238958
1893
Мы провели исследование.
04:00
it turns out that what you require to make a nuclear bomb
75
240875
2726
Выяснилось, что для создания атомной бомбы, содержащей
04:03
is highly enriched uranium or plutonium,
76
243625
2393
в огромном количестве уран и плутоний,
04:06
which are very difficult materials to get.
77
246042
2017
которые получить довольно трудно,
04:08
You need ultracentrifuges,
78
248083
2268
нужны ультрацентрифуги, нужны реакторы,
04:10
you need reactors, like, massive amounts of energy.
79
250375
3768
а также большое количество энергии.
04:14
But suppose it had turned out instead
80
254167
1809
Мы предполагаем, что вместо этого
04:16
there had been an easy way to unlock the energy of the atom.
81
256000
3976
существует более лёгкий способ высвободить энергию из атома.
04:20
That maybe by baking sand in the microwave oven
82
260000
2768
А что, если окажется возможным вызвать ядерный взрыв
04:22
or something like that
83
262792
1267
из песка в микроволновке
04:24
you could have created a nuclear detonation.
84
264083
2101
или более простым способом.
04:26
So we know that that's physically impossible.
85
266208
2143
Сейчас это невозможно с точки зрения физики.
04:28
But before you did the relevant physics
86
268375
1893
Но пока не проведены такие опыты,
04:30
how could you have known how it would turn out?
87
270292
2191
как узнать, что из этого выйдет?
04:32
CA: Although, couldn't you argue
88
272507
1552
КА: Согласитесь, для нормального
04:34
that for life to evolve on Earth
89
274083
1935
развития жизни на Земле необходима
04:36
that implied sort of stable environment,
90
276042
3267
стабильная среда.
04:39
that if it was possible to create massive nuclear reactions relatively easy,
91
279333
4185
И если бы имелся более лёгкий способ получения крупных ядерных реакций,
04:43
the Earth would never have been stable,
92
283542
1858
то стабильной среды на Земле бы не существовало,
04:45
that we wouldn't be here at all.
93
285424
1552
и нас здесь не было.
04:47
NB: Yeah, unless there were something that is easy to do on purpose
94
287000
3393
НБ: Да, если бы существовало что-то, созданное специально,
04:50
but that wouldn't happen by random chance.
95
290417
2851
а не само по себе.
04:53
So, like things we can easily do,
96
293292
1579
Так мы делаем многое.
04:54
we can stack 10 blocks on top of one another,
97
294896
2110
Мы можем уложить 10 блоков друг на друга,
04:57
but in nature, you're not going to find, like, a stack of 10 blocks.
98
297031
3197
но в природе такого не встретишь.
05:00
CA: OK, so this is probably the one
99
300253
1673
КА: А сейчас поговорим о том,
05:01
that many of us worry about most,
100
301950
1943
что волнует нас больше всего.
05:03
and yes, synthetic biology is perhaps the quickest route
101
303917
3517
На данный момент, из того, что мы можем предсказать,
05:07
that we can foresee in our near future to get us here.
102
307458
3018
синтетическая биология — кратчайший путь к самоуничтожению.
05:10
NB: Yeah, and so think about what that would have meant
103
310500
2934
НБ: И только представьте, как это будет выглядеть,
05:13
if, say, anybody by working in their kitchen for an afternoon
104
313458
3643
если сказать кому-то, что он может разнести город,
05:17
could destroy a city.
105
317125
1393
готовя что-то на кухне.
05:18
It's hard to see how modern civilization as we know it
106
318542
3559
Трудно представить, как современная цивилизация в привычном нам виде
05:22
could have survived that.
107
322125
1434
сможет пережить подобное.
05:23
Because in any population of a million people,
108
323583
2518
Потому что среди любого многомилионного населения
05:26
there will always be some who would, for whatever reason,
109
326125
2684
найдутся те, кто по непонятной причине
05:28
choose to use that destructive power.
110
328833
2084
захотят использовать эту разрушительную силу.
05:31
So if that apocalyptic residual
111
331750
3143
И если бы этот любитель апокалипсиса
05:34
would choose to destroy a city, or worse,
112
334917
1976
выбрал бы уничтожить город или, что-то хуже,
05:36
then cities would get destroyed.
113
336917
1559
то города были бы разрушены.
05:38
CA: So here's another type of vulnerability.
114
338500
2351
КА: Есть другой тип уязвимости.
05:40
Talk about this.
115
340875
1643
Расскажите о нём, пожалуйста.
05:42
NB: Yeah, so in addition to these kind of obvious types of black balls
116
342542
3976
НБ: Помимо простых для понимания чёрных шаров,
05:46
that would just make it possible to blow up a lot of things,
117
346542
2810
которые снесут всё на своем пути,
05:49
other types would act by creating bad incentives
118
349376
4433
другие будут создавать людям стимул для совершения плохих поступков
05:53
for humans to do things that are harmful.
119
353833
2226
и причинение вреда.
05:56
So, the Type-2a, we might call it that,
120
356083
4101
То есть, если подумать о так называемом Типе-2а, то это технология,
06:00
is to think about some technology that incentivizes great powers
121
360208
4518
которая подвигнет великие мировые державы
06:04
to use their massive amounts of force to create destruction.
122
364750
4476
на использование всей своей военной мощи для разрушения.
06:09
So, nuclear weapons were actually very close to this, right?
123
369250
2833
На самом деле, ядерное оружие очень близко к этому, да?
06:14
What we did, we spent over 10 trillion dollars
124
374083
3060
Что мы сделали: мы потратили более 10 триллионов долларов
06:17
to build 70,000 nuclear warheads
125
377167
2517
на создание 70 тыс. ядерных боеголовок
06:19
and put them on hair-trigger alert.
126
379708
2435
и держим их в состоянии повышенной боевой готовности.
06:22
And there were several times during the Cold War
127
382167
2267
Во время Холодной войны мы несколько раз
06:24
we almost blew each other up.
128
384458
1435
были на грани взаимоуничтожения.
06:25
It's not because a lot of people felt this would be a great idea,
129
385917
3101
Не потому, что люди считают замечательной идеей
06:29
let's all spend 10 trillion dollars to blow ourselves up,
130
389042
2684
спустить 10 миллионов долларов на самоуничтожение.
06:31
but the incentives were such that we were finding ourselves --
131
391750
2934
Стимулировало то, что мы только ищем себя,
06:34
this could have been worse.
132
394708
1310
и это могло быть худшим.
06:36
Imagine if there had been a safe first strike.
133
396042
2434
Представьте, если бы первый удар прошёл без особых последствий,
06:38
Then it might have been very tricky,
134
398500
2309
то было бы очень сложно
06:40
in a crisis situation,
135
400833
1268
в кризисной ситуации
06:42
to refrain from launching all their nuclear missiles.
136
402125
2477
воздержаться от запуска всех ядерных ракет.
06:44
If nothing else, because you would fear that the other side might do it.
137
404626
3392
Если не иначе, потому что вы боитесь, что это сделают с другой стороны.
06:48
CA: Right, mutual assured destruction
138
408042
1809
КА: Гарантированное взаимоуничтожение
06:49
kept the Cold War relatively stable,
139
409875
2726
поддерживало стабильность в период холодной войны.
06:52
without that, we might not be here now.
140
412625
1934
Иначе нас бы тут не было.
06:54
NB: It could have been more unstable than it was.
141
414583
2310
НБ: Да, это бы сделало её более нестабильной.
06:56
And there could be other properties of technology.
142
416917
2351
Тут могла бы проявиться другая сторона технологий.
06:59
It could have been harder to have arms treaties,
143
419292
2309
Было бы труднее достигнуть соглашений по вооружению,
07:01
if instead of nuclear weapons
144
421625
1601
если бы вместо ядерного оружия
07:03
there had been some smaller thing or something less distinctive.
145
423250
3018
существовал какой-нибудь мелкий предмет или менее заметный.
07:06
CA: And as well as bad incentives for powerful actors,
146
426292
2559
КА: Как и плохие мотивы влиятельных субъектов мира,
07:08
you also worry about bad incentives for all of us, in Type-2b here.
147
428875
3518
вы также переживаете из-за плохих побуждений каждого из нас в типе 2б.
07:12
NB: Yeah, so, here we might take the case of global warming.
148
432417
4250
НБ: Да, тут лучше взять в пример глобальное потепление.
07:18
There are a lot of little conveniences
149
438958
1893
Каждый из нас пользуется в быту
07:20
that cause each one of us to do things
150
440875
2184
какими-то современными удобствами,
07:23
that individually have no significant effect, right?
151
443083
2851
использование которых не имеет значительных последствий, так?
07:25
But if billions of people do it,
152
445958
1976
Но миллиарды людей делают то же самое,
07:27
cumulatively, it has a damaging effect.
153
447958
2060
что вместе имеет разрушительное действие
07:30
Now, global warming could have been a lot worse than it is.
154
450042
2809
сейчас проблема глобального потепления может усугубиться.
07:32
So we have the climate sensitivity parameter, right.
155
452875
2976
Существует параметр влияния на климат.
07:35
It's a parameter that says how much warmer does it get
156
455875
3643
Он показывает на сколько усилится потепление
07:39
if you emit a certain amount of greenhouse gases.
157
459542
2684
при выхлопе определённого количества парниковых газов.
07:42
But, suppose that it had been the case
158
462250
2393
Предположим, что при количестве парниковых газов,
07:44
that with the amount of greenhouse gases we emitted,
159
464667
2517
выпускаемых на данный момент,
07:47
instead of the temperature rising by, say,
160
467208
2060
к 2100 году вместо увеличения температуры
07:49
between three and 4.5 degrees by 2100,
161
469292
3726
всего на 3–4,5 градуса мы столкнёмся
07:53
suppose it had been 15 degrees or 20 degrees.
162
473042
2500
с увеличением на 15 или даже 20 градусов.
07:56
Like, then we might have been in a very bad situation.
163
476375
2559
То есть мы можем оказаться в очень плохом положении.
07:58
Or suppose that renewable energy had just been a lot harder to do.
164
478958
3143
Предположим, что очень сложно создать возобновляемый источник энергии
08:02
Or that there had been more fossil fuels in the ground.
165
482125
2643
или в земле есть больше ископаемых видов топлива
08:04
CA: Couldn't you argue that if in that case of --
166
484792
2642
КА: Утверждаете ли вы, что если тот образ жизни,
08:07
if what we are doing today
167
487458
1726
который мы ведём сегодня
08:09
had resulted in 10 degrees difference in the time period that we could see,
168
489208
4560
со временем приведёт к видимой разнице в 10 градусов,
08:13
actually humanity would have got off its ass and done something about it.
169
493792
3684
то люди бы уже засуетились и сделали что-нибудь с этим.
08:17
We're stupid, but we're not maybe that stupid.
170
497500
2809
Возможно, мы и глупы, но не настолько.
08:20
Or maybe we are.
171
500333
1268
Но кто знает.
08:21
NB: I wouldn't bet on it.
172
501625
1268
НБ: Я бы не был так уверен.
08:22
(Laughter)
173
502917
2184
(Смех)
08:25
You could imagine other features.
174
505125
1684
Подумайте и о других свойствах.
08:26
So, right now, it's a little bit difficult to switch to renewables and stuff, right,
175
506833
5518
На данный момент переключиться на возобновляемые энергоносители и подобные
08:32
but it can be done.
176
512375
1268
вещи сложно, но возможно.
08:33
But it might just have been, with slightly different physics,
177
513667
2976
Возможно с использованием немного других физических свойств
08:36
it could have been much more expensive to do these things.
178
516667
2791
осуществление этого выйдет намного дороже.
08:40
CA: And what's your view, Nick?
179
520375
1518
КА: А какое у вас мнение?
08:41
Do you think, putting these possibilities together,
180
521917
2434
Находится ли наша планета,
08:44
that this earth, humanity that we are,
181
524375
4268
человечество со всеми своими техническими возможностями,
08:48
we count as a vulnerable world?
182
528667
1559
в уязвимом положении?
08:50
That there is a death ball in our future?
183
530250
2417
Есть ли шар смерти в нашем будущем?
08:55
NB: It's hard to say.
184
535958
1268
НБ: Трудно сказать.
08:57
I mean, I think there might well be various black balls in the urn,
185
537250
5059
Я думаю, что в этой урне с большой вероятностью будут
09:02
that's what it looks like.
186
542333
1310
разнообразные чёрные шары.
09:03
There might also be some golden balls
187
543667
2392
Но также будут и золотые,
09:06
that would help us protect against black balls.
188
546083
3476
которые помогут нам в битве против чёрных шаров.
09:09
And I don't know which order they will come out.
189
549583
2976
Но я не знаю, в каком порядке они будут появляться.
09:12
CA: I mean, one possible philosophical critique of this idea
190
552583
3851
КА: Ваша идея слегка противоречит
09:16
is that it implies a view that the future is essentially settled.
191
556458
5643
философской мысли о том, что будущее предопределено и неизбежно,
09:22
That there either is that ball there or it's not.
192
562125
2476
независимо от цвета очередного шара
09:24
And in a way,
193
564625
3018
и в некоторой степени
09:27
that's not a view of the future that I want to believe.
194
567667
2601
мне не хочется верить в такое будущее.
09:30
I want to believe that the future is undetermined,
195
570292
2351
Я хочу верить, что будущее не предопределено,
09:32
that our decisions today will determine
196
572667
1934
что решения, принимаемые нами сегодня,
09:34
what kind of balls we pull out of that urn.
197
574625
2208
повлияют на цвет шара, который мы вытащим.
09:37
NB: I mean, if we just keep inventing,
198
577917
3767
НБ: Я думаю, если мы будем продолжать изобретать
09:41
like, eventually we will pull out all the balls.
199
581708
2334
в конечном итоге мы вытащим все шары.
09:44
I mean, I think there's a kind of weak form of technological determinism
200
584875
3393
Есть некая слабая форма технологического детерминизма,
которая имеет веские основания,
09:48
that is quite plausible,
201
588292
1267
09:49
like, you're unlikely to encounter a society
202
589583
2643
то есть вы вряд ли встретите сообщество,
09:52
that uses flint axes and jet planes.
203
592250
2833
где пользуются кремниевыми топорами и реактивными самолетами.
09:56
But you can almost think of a technology as a set of affordances.
204
596208
4060
Технологии можно считать пакетом возможностей.
10:00
So technology is the thing that enables us to do various things
205
600292
3017
Технологии позволяют нам делать различные вещи и достигать
10:03
and achieve various effects in the world.
206
603333
1976
разнообразных результатов в мире.
10:05
How we'd then use that, of course depends on human choice.
207
605333
2810
Как использовать их, зависит только от нашего выбора.
10:08
But if we think about these three types of vulnerability,
208
608167
2684
Но если задуматься об этих трёх типах уязвимости
10:10
they make quite weak assumptions about how we would choose to use them.
209
610875
3393
они могут пошатнуть представление об их использовании
10:14
So a Type-1 vulnerability, again, this massive, destructive power,
210
614292
3392
Напомню, первый тип уязвимости — огромная разрушительная сила
10:17
it's a fairly weak assumption
211
617708
1435
и предположение о том,
10:19
to think that in a population of millions of people
212
619167
2392
что среди многомиллионного населения найдутся те,
10:21
there would be some that would choose to use it destructively.
213
621583
2935
кто захотят использовать её для разрушения, довольно слабое.
10:24
CA: For me, the most single disturbing argument
214
624542
2434
КА: Меня больше всего беспокоит мысль о том,
10:27
is that we actually might have some kind of view into the urn
215
627000
4559
что мы на данный момент в некотором роде погрузились в эту урну настолько,
10:31
that makes it actually very likely that we're doomed.
216
631583
3518
чтобы понять, что мы обречены.
10:35
Namely, if you believe in accelerating power,
217
635125
4643
То есть, если вы верите в увеличение мощи,
10:39
that technology inherently accelerates,
218
639792
2267
в развитие технологий,
10:42
that we build the tools that make us more powerful,
219
642083
2435
в создание техники, которая сделает нас сильнее,
10:44
then at some point you get to a stage
220
644542
2642
то в какой-то момент вы доходите до мысли,
10:47
where a single individual can take us all down,
221
647208
3060
что отдельно взятый человек может уничтожить всех нас.
10:50
and then it looks like we're screwed.
222
650292
2851
И в таком случае нам всем конец.
10:53
Isn't that argument quite alarming?
223
653167
2934
Вас это не тревожит?
10:56
NB: Ah, yeah.
224
656125
1750
НБ: Ах, да
10:58
(Laughter)
225
658708
1268
(Смех)
11:00
I think --
226
660000
1333
Я считаю....
11:02
Yeah, we get more and more power,
227
662875
1601
Да, мы становимся всё сильнее,
11:04
and [it's] easier and easier to use those powers,
228
664500
3934
и применять эту силу становится всё легче,
11:08
but we can also invent technologies that kind of help us control
229
668458
3560
но мы также можем изобрести технологию, которая позволит нам контролировать
11:12
how people use those powers.
230
672042
2017
использование этой силы людьми
11:14
CA: So let's talk about that, let's talk about the response.
231
674083
2851
КА: Давайте обсудим это. Поговорим об ответных реакциях.
11:16
Suppose that thinking about all the possibilities
232
676958
2310
Предположим, размышляя о всех возможностях,
11:19
that are out there now --
233
679292
2101
которые мы имеем на сегодняшний день, —
11:21
it's not just synbio, it's things like cyberwarfare,
234
681417
3726
это не только синбиотехнологии, но и вещи вроде кибервойны,
11:25
artificial intelligence, etc., etc. --
235
685167
3351
искусственный интеллект и т.д. —
11:28
that there might be serious doom in our future.
236
688542
4517
за что, возможно, в будущем нас ожидает серьёзная расплата.
11:33
What are the possible responses?
237
693083
1601
Какими будут ответные реакции?
11:34
And you've talked about four possible responses as well.
238
694708
4893
Вы упомянули также четыре типа этих ответных реакций.
11:39
NB: Restricting technological development doesn't seem promising,
239
699625
3643
НБ: Ограничение в развитии технического прогресса не вселяет надежды,
11:43
if we are talking about a general halt to technological progress.
240
703292
3226
если мы все имеем в виду остановку технического прогресса в целом.
11:46
I think neither feasible,
241
706542
1267
Я думаю, у нас нет
11:47
nor would it be desirable even if we could do it.
242
707833
2310
ни желания, ни возможности сделать это.
11:50
I think there might be very limited areas
243
710167
3017
Или, возможно, только в некоторых областях
11:53
where maybe you would want slower technological progress.
244
713208
2726
вам захочется замедлить технический прогресс
11:55
You don't, I think, want faster progress in bioweapons,
245
715958
3393
Я думаю, вы не захотите быстрого развития биологического оружия
11:59
or in, say, isotope separation,
246
719375
2059
или разделения изотопов, что поспособствует
12:01
that would make it easier to create nukes.
247
721458
2250
более лёгкому созданию ядерного оружия
12:04
CA: I mean, I used to be fully on board with that.
248
724583
3310
КА: Я полностью согласен с вами,
12:07
But I would like to actually push back on that for a minute.
249
727917
3267
но я бы хотел заострить внимание на этом,
12:11
Just because, first of all,
250
731208
1310
во-первых, потому что,
12:12
if you look at the history of the last couple of decades,
251
732542
2684
если посмотреть на историю двух последних десятилетий,
12:15
you know, it's always been push forward at full speed,
252
735250
3559
мы продвигаемся вперёд на полной скорости,
12:18
it's OK, that's our only choice.
253
738833
1851
хорошо, что это только наш выбор,
12:20
But if you look at globalization and the rapid acceleration of that,
254
740708
4268
но если посмотреть на глобализацию и её стремительный рост,
12:25
if you look at the strategy of "move fast and break things"
255
745000
3434
на стратегию «двигайся быстрее и ломай преграды»
12:28
and what happened with that,
256
748458
2060
и во что это превратилось,
12:30
and then you look at the potential for synthetic biology,
257
750542
2767
а потом на весь потенциал синтетической биологии.
12:33
I don't know that we should move forward rapidly
258
753333
4435
Я не уверен, что нам стоит продвигаться настолько быстро,
12:37
or without any kind of restriction
259
757792
1642
без каких-либо ограничений,
12:39
to a world where you could have a DNA printer in every home
260
759458
3310
в мир, где ДНК-принтер будет в каждом доме и в лаборатории
12:42
and high school lab.
261
762792
1333
старшей школы
12:45
There are some restrictions, right?
262
765167
1684
Должны быть какие-то ограничения.
12:46
NB: Possibly, there is the first part, the not feasible.
263
766875
2643
НБ: Возможно, первая часть, не самая подходящая.
12:49
If you think it would be desirable to stop it,
264
769542
2184
Если люди всё же захотят остановить это,
12:51
there's the problem of feasibility.
265
771750
1726
то возникнут проблемы с реализацией.
12:53
So it doesn't really help if one nation kind of --
266
773500
2809
Ничего на деле не выйдет, если население одной страны...
12:56
CA: No, it doesn't help if one nation does,
267
776333
2018
КА: Нет, если действует только один народ,
12:58
but we've had treaties before.
268
778375
2934
но мы уже заключали международные соглашения ранее.
13:01
That's really how we survived the nuclear threat,
269
781333
3351
Благодаря этому нам удалось устранить ядерную угрозу
13:04
was by going out there
270
784708
1268
путём встреч
13:06
and going through the painful process of negotiating.
271
786000
2518
и длительных сложных переговоров.
13:08
I just wonder whether the logic isn't that we, as a matter of global priority,
272
788542
5434
Интересно, не будет ли нам более логично не выходить сюда по важному делу
13:14
we shouldn't go out there and try,
273
794000
1684
и пытаться обсуждать
13:15
like, now start negotiating really strict rules
274
795708
2685
строгие правила по вопросам
13:18
on where synthetic bioresearch is done,
275
798417
2684
синтетических биоисследований.
13:21
that it's not something that you want to democratize, no?
276
801125
2851
Разве не это вы хотите демократизировать?
13:24
NB: I totally agree with that --
277
804000
1809
НБ: Я полностью согласен.
13:25
that it would be desirable, for example,
278
805833
4226
Хотелось бы, например,
13:30
maybe to have DNA synthesis machines,
279
810083
3601
чтобы ДНК-синтезатор был не устройством,
13:33
not as a product where each lab has their own device,
280
813708
3560
которое будет стоять в каждой лаборатории,
13:37
but maybe as a service.
281
817292
1476
а, быть может, сервисом.
13:38
Maybe there could be four or five places in the world
282
818792
2517
Допустим, в мире будет всего четыре или пять мест,
13:41
where you send in your digital blueprint and the DNA comes back, right?
283
821333
3518
куда можно будет отправить электронный образец ДНК и вам придут результаты.
13:44
And then, you would have the ability,
284
824875
1768
А потом у вас будет возможность
13:46
if one day it really looked like it was necessary,
285
826667
2392
при необходимости
13:49
we would have like, a finite set of choke points.
286
829083
2351
получить конечное множество уязвимых мест.
13:51
So I think you want to look for kind of special opportunities,
287
831458
3518
Думаю, вы захотите узнать об особых ситуациях,
13:55
where you could have tighter control.
288
835000
2059
которые можно будет жёстко контролировать.
13:57
CA: Your belief is, fundamentally,
289
837083
1643
КА: По сути, ваше мнение в том,
13:58
we are not going to be successful in just holding back.
290
838750
2893
что ничего не выйдет, если мы просто замедлим прогресс .
14:01
Someone, somewhere -- North Korea, you know --
291
841667
2726
Кто-нибудь, где-нибудь, предположим в Северной Корее,
14:04
someone is going to go there and discover this knowledge,
292
844417
3517
найдётся тот, кто захочет добыть именно чёрный шар из урны,
14:07
if it's there to be found.
293
847958
1268
если там такой есть.
14:09
NB: That looks plausible under current conditions.
294
849250
2351
НБ: В текущих условиях — вполне вероятно.
14:11
It's not just synthetic biology, either.
295
851625
1934
И дело не в синтетической биологии.
14:13
I mean, any kind of profound, new change in the world
296
853583
2518
Чёрным шаром могут оказаться абсолютно любые
14:16
could turn out to be a black ball.
297
856101
1626
новые серьезные изменения в мире.
14:17
CA: Let's look at another possible response.
298
857727
2096
КА: Есть ещё вариант развития. [Ликвидация опасных людей]
14:19
NB: This also, I think, has only limited potential.
299
859823
2403
НБ: Но вероятность довольно мала.
14:22
So, with the Type-1 vulnerability again,
300
862250
3559
Касательно первого типа уязвимости.
14:25
I mean, if you could reduce the number of people who are incentivized
301
865833
4351
Если бы можно было уменьшить количество людей, заинтересованных
14:30
to destroy the world,
302
870208
1268
в уничтожении мира,
14:31
if only they could get access and the means,
303
871500
2059
будь у них доступ к оружию и средства,
14:33
that would be good.
304
873583
1268
то было бы прекрасно.
14:34
CA: In this image that you asked us to do
305
874875
1976
КА: Вы просили показать этот слайд,
14:36
you're imagining these drones flying around the world
306
876875
2559
с дронами с функцией распознавания лиц,
14:39
with facial recognition.
307
879458
1268
летающими по всему миру.
14:40
When they spot someone showing signs of sociopathic behavior,
308
880750
2893
И когда обнаружат людей с признаками асоциального поведения,
14:43
they shower them with love, they fix them.
309
883667
2184
они засыпят их любовью, «починят» так сказать
14:45
NB: I think it's like a hybrid picture.
310
885875
1893
НБ: Всё не так однозначно.
14:47
Eliminate can either mean, like, incarcerate or kill,
311
887792
4017
Под ликвидацией подразумевается также, например, лишение свободы или уничтожение,
14:51
or it can mean persuade them to a better view of the world.
312
891833
3018
или изменение их взглядов на жизнь на более правильные.
14:54
But the point is that,
313
894875
1726
Смысл в том, что,
14:56
suppose you were extremely successful in this,
314
896625
2143
допустим, вы справились с задачей,
14:58
and you reduced the number of such individuals by half.
315
898792
3309
сократили количество опасных людей вдвое.
15:02
And if you want to do it by persuasion,
316
902125
1893
Если делать ликвидацию путём убеждения,
15:04
you are competing against all other powerful forces
317
904042
2392
то вы столкнётесь с другими мощными факторами,
15:06
that are trying to persuade people,
318
906458
1685
влияющими на людей:
15:08
parties, religion, education system.
319
908167
1767
партиями, религией, образованием.
15:09
But suppose you could reduce it by half,
320
909958
1905
Если число опасных людей сократилось вдвое.
15:11
I don't think the risk would be reduced by half.
321
911887
2256
Мне кажется риск снизится не на 50%,
15:14
Maybe by five or 10 percent.
322
914167
1559
а только на 5 или 10%.
15:15
CA: You're not recommending that we gamble humanity's future on response two.
323
915750
4351
КА: Вы считаете, что мы не рискуем будущим человечества во втором варианте?
15:20
NB: I think it's all good to try to deter and persuade people,
324
920125
3018
НБ: Думаю нет ничего плохого в попытке разубедить людей,
15:23
but we shouldn't rely on that as our only safeguard.
325
923167
2976
но данный метод не сможет обеспечить безопасность в одиночку.
15:26
CA: How about three?
326
926167
1267
КА: А третий вариант?
15:27
NB: I think there are two general methods
327
927458
2893
НБ: Существует два основных метода,
15:30
that we could use to achieve the ability to stabilize the world
328
930375
3976
пользуясь которыми мы сможем укрепить наш мир
15:34
against the whole spectrum of possible vulnerabilities.
329
934375
2976
против целого комплекса возможных уязвимостей.
15:37
And we probably would need both.
330
937375
1559
Но, возможно, понадобятся оба.
15:38
So, one is an extremely effective ability
331
938958
4518
Первый — высоко эффективная правоохранительная деятельность полиции,
15:43
to do preventive policing.
332
943500
1768
[Способ 3. Тотальная слежка]
15:45
Such that you could intercept.
333
945292
1524
возможность перехвата.
15:46
If anybody started to do this dangerous thing,
334
946840
2761
Если кто-то захочет пойти на преступление,
15:49
you could intercept them in real time, and stop them.
335
949625
2684
то было бы возможно перехватить и остановить его.
15:52
So this would require ubiquitous surveillance,
336
952333
2476
В таком случае потребуется повсеместный надзор,
15:54
everybody would be monitored all the time.
337
954833
2375
каждый из нас будет находится под наблюдением.
15:58
CA: This is "Minority Report," essentially, a form of.
338
958333
2560
КА: Как в фильме «Особое мнение».
16:00
NB: You would have maybe AI algorithms,
339
960917
1934
НБ: В наблюдении нам могут помочь
16:02
big freedom centers that were reviewing this, etc., etc.
340
962875
4417
алгоритмы искусственного интеллекта, огромные центры свободы и т.д.
16:08
CA: You know that mass surveillance is not a very popular term right now?
341
968583
4393
КА: Вы знаете, термин «тотальная слежка» сейчас не очень популярен?
16:13
(Laughter)
342
973000
1250
(Смех)
16:15
NB: Yeah, so this little device there,
343
975458
1810
НБ: Это будет небольшое устройство
16:17
imagine that kind of necklace that you would have to wear at all times
344
977292
3601
с разнонаправленными камерами, встроенное в так называемый чокер,
16:20
with multidirectional cameras.
345
980917
2000
который нужно будет носить постоянно.
16:23
But, to make it go down better,
346
983792
1809
Чтобы это не казалось обременяющим,
16:25
just call it the "freedom tag" or something like that.
347
985625
2524
просто назовём его чем-то вроде «символа свободы».
16:28
(Laughter)
348
988173
2011
(Смех)
16:30
CA: OK.
349
990208
1268
КА: Хорошо
16:31
I mean, this is the conversation, friends,
350
991500
2101
Друзья, именно поэтому наша беседа
16:33
this is why this is such a mind-blowing conversation.
351
993625
3559
настолько увлекательная.
16:37
NB: Actually, there's a whole big conversation on this
352
997208
2601
НБ: На самом деле об этом можно долго разговаривать,
16:39
on its own, obviously.
353
999833
1310
что очевидно.
16:41
There are huge problems and risks with that, right?
354
1001167
2476
Мы обсуждали риски и проблемы, не так ли?
16:43
We may come back to that.
355
1003667
1267
Можем вернуться к этому.
16:44
So the other, the final,
356
1004958
1268
И четвёртая, [Глобальное управление]
16:46
the other general stabilization capability
357
1006250
2559
последняя возможность для стабилизации —
16:48
is kind of plugging another governance gap.
358
1008833
2060
заделать бреши в работе правительства.
16:50
So the surveillance would be kind of governance gap at the microlevel,
359
1010917
4184
Контроль стал бы недостатком в управлении на микроуровне,
16:55
like, preventing anybody from ever doing something highly illegal.
360
1015125
3101
мешая кому-либо совершить что-то противозаконное.
16:58
Then, there's a corresponding governance gap
361
1018250
2309
Конечно, такая же проблема наблюдается
17:00
at the macro level, at the global level.
362
1020583
1935
и на макроуровне, на глобальном уровне.
17:02
You would need the ability, reliably,
363
1022542
3934
Однозначно, потребуется компетенция для предотвращения
17:06
to prevent the worst kinds of global coordination failures,
364
1026500
2809
сбоев в глобальной координации,
17:09
to avoid wars between great powers,
365
1029333
3768
чтобы избежать войны между великими державами,
17:13
arms races,
366
1033125
1333
гонки вооружений,
17:15
cataclysmic commons problems,
367
1035500
2208
общих проблем с катаклизмами,
17:19
in order to deal with the Type-2a vulnerabilities.
368
1039667
4184
чтобы справится с уязвимостями типа 2а.
17:23
CA: Global governance is a term
369
1043875
1934
КА: Термин «глобальное управление»
17:25
that's definitely way out of fashion right now,
370
1045833
2226
сейчас явно не в моде,
17:28
but could you make the case that throughout history,
371
1048083
2518
но вы можете привести довод, что в ходе
17:30
the history of humanity
372
1050625
1268
истории человечества
17:31
is that at every stage of technological power increase,
373
1051917
5434
на каждой новой стадии развития технологическая мощь возрастает.
17:37
people have reorganized and sort of centralized the power.
374
1057375
3226
Люди преобразовали и сосредоточили эту мощь.
17:40
So, for example, when a roving band of criminals
375
1060625
3434
Например, когда бродячая преступная группировка
17:44
could take over a society,
376
1064083
1685
может возглавить общество
17:45
the response was, well, you have a nation-state
377
1065792
2239
ответ был, что у вас государство-нация
17:48
and you centralize force, a police force or an army,
378
1068055
2434
и вы сосредоточиваете силы — полицейских или армию
17:50
so, "No, you can't do that."
379
1070513
1630
и «Вы не можете так сделать».
17:52
The logic, perhaps, of having a single person or a single group
380
1072167
4559
Логика, возможно, в том, что если отдельно взятый человек или группа людей
17:56
able to take out humanity
381
1076750
1643
смогут уничтожить человечество,
17:58
means at some point we're going to have to go this route,
382
1078417
2726
когда-то мы встанем на этот путь, по крайней мере
18:01
at least in some form, no?
383
1081167
1434
в некоторых аспектах?
18:02
NB: It's certainly true that the scale of political organization has increased
384
1082625
3684
НБ: Однозначно, в ходе развития истории человечества
18:06
over the course of human history.
385
1086333
2143
масштабы политического аппарата увеличились.
18:08
It used to be hunter-gatherer band, right,
386
1088500
2018
Сначала была группа охотников-собирателей,
18:10
and then chiefdom, city-states, nations,
387
1090542
2934
потом глава племени, города-государства, нации,
18:13
now there are international organizations and so on and so forth.
388
1093500
3976
сейчас существуют международные организации и т.д.
18:17
Again, I just want to make sure
389
1097500
1518
Я просто хочу убедиться,
18:19
I get the chance to stress
390
1099042
1642
что мне удалось подчеркнуть
18:20
that obviously there are huge downsides
391
1100708
1976
большое количество негативных сторон
18:22
and indeed, massive risks,
392
1102708
1518
и риска
18:24
both to mass surveillance and to global governance.
393
1104250
3351
как в случае тотальной слежки, так и в глобальном управлении.
18:27
I'm just pointing out that if we are lucky,
394
1107625
2559
Просто хочу отметить, если нам повезёт, то мир может
18:30
the world could be such that these would be the only ways
395
1110208
2685
оказаться таким, что всё вышеперечисленное будет только
18:32
you could survive a black ball.
396
1112917
1517
спасением от чёрного шара.
18:34
CA: The logic of this theory,
397
1114458
2518
КА: Как я понимаю, логика данной теории в том, что,
18:37
it seems to me,
398
1117000
1268
надо понимать,
18:38
is that we've got to recognize we can't have it all.
399
1118292
3601
что все произойдёт не сразу.
18:41
That the sort of,
400
1121917
1833
Это что-то вроде
18:45
I would say, naive dream that many of us had
401
1125500
2976
наивной мечты, которая есть у многих из нас,
18:48
that technology is always going to be a force for good,
402
1128500
3351
что технологии всегда используются во благо.
18:51
keep going, don't stop, go as fast as you can
403
1131875
2976
Продолжай, не останавливайся, поторопись, если возможно,
18:54
and not pay attention to some of the consequences,
404
1134875
2351
и не думай о последствиях,
18:57
that's actually just not an option.
405
1137250
1684
которые могут даже не произойти.
18:58
We can have that.
406
1138958
1935
Это может случится.
19:00
If we have that,
407
1140917
1267
И если всё же произойдёт,
19:02
we're going to have to accept
408
1142208
1435
то нам придётся принять
19:03
some of these other very uncomfortable things with it,
409
1143667
2559
и другие сопутствующие обстоятельства,
19:06
and kind of be in this arms race with ourselves
410
1146250
2226
и стать частью гонки вооружений.
19:08
of, you want the power, you better limit it,
411
1148500
2268
Если хотите иметь мощь, лучше её ограничить,
19:10
you better figure out how to limit it.
412
1150792
2142
или выяснить, как её ограничить.
19:12
NB: I think it is an option,
413
1152958
3476
НБ: Думаю, это вариант,
19:16
a very tempting option, it's in a sense the easiest option
414
1156458
2768
причём очень хороший, в некотором смысле даже самый лёгкий
19:19
and it might work,
415
1159250
1268
и он может сработать.
19:20
but it means we are fundamentally vulnerable to extracting a black ball.
416
1160542
4809
Но это значит мы очень уязвимы перед появлением чёрного шара.
19:25
Now, I think with a bit of coordination,
417
1165375
2143
Думаю, что добавив немного координации,
19:27
like, if you did solve this macrogovernance problem,
418
1167542
2726
если бы мы разрешили все проблемы
19:30
and the microgovernance problem,
419
1170292
1601
на уровне макро- и микроуправления,
19:31
then we could extract all the balls from the urn
420
1171917
2309
то вытащили бы все шары из урны
19:34
and we'd benefit greatly.
421
1174250
2268
и извлекли немало выгоды.
19:36
CA: I mean, if we're living in a simulation, does it matter?
422
1176542
3434
КА: Какая разница, если мы живём в симуляции?
19:40
We just reboot.
423
1180000
1309
Мы просто перезагружаемся.
19:41
(Laughter)
424
1181333
1268
(Смех)
19:42
NB: Then ... I ...
425
1182625
1643
НБ: я...
19:44
(Laughter)
426
1184292
2476
(Смех)
19:46
I didn't see that one coming.
427
1186792
1416
Не думаю, что это настало.
19:50
CA: So what's your view?
428
1190125
1268
КА: Как вы считаете?
19:51
Putting all the pieces together, how likely is it that we're doomed?
429
1191417
4809
Если сложить всё вместе, какова вероятность, что мы обречены?
19:56
(Laughter)
430
1196250
1958
(Смех)
19:59
I love how people laugh when you ask that question.
431
1199042
2392
Мне нравится смех людей, когда звучит этот вопрос.
20:01
NB: On an individual level,
432
1201458
1351
НБ: На индивидуальном уровне
20:02
we seem to kind of be doomed anyway, just with the time line,
433
1202833
3851
нам придёт конец в любом случае, со временем мы стареем,
20:06
we're rotting and aging and all kinds of things, right?
434
1206708
2601
разлагаемся, и всё в этом духе, да?
20:09
(Laughter)
435
1209333
1601
(Смех)
20:10
It's actually a little bit tricky.
436
1210958
1685
На самом деле всй немного сложнее.
20:12
If you want to set up so that you can attach a probability,
437
1212667
2767
Если вы хотите посчитать вероятность того, что нам конец,
20:15
first, who are we?
438
1215458
1268
во-первых, кто «мы»?
20:16
If you're very old, probably you'll die of natural causes,
439
1216750
2726
Если вам много лет, то, возможно, умрёте своей смертью.
20:19
if you're very young, you might have a 100-year --
440
1219500
2351
Если вы молоды, то у вас может быть целых 100 лет.
20:21
the probability might depend on who you ask.
441
1221875
2143
Вероятность индивидуальна.
20:24
Then the threshold, like, what counts as civilizational devastation?
442
1224042
4226
Затем порог, то есть ограничить понятие разрушения цивилизации.
20:28
In the paper I don't require an existential catastrophe
443
1228292
5642
В своей книге я не считаю экзистенциальную катастрофу
20:33
in order for it to count.
444
1233958
1435
разрушением цивилизации.
20:35
This is just a definitional matter,
445
1235417
1684
Это всё вопрос определения.
20:37
I say a billion dead,
446
1237125
1309
Допустим, будет миллиард погибших
20:38
or a reduction of world GDP by 50 percent,
447
1238458
2060
или сокращение мирового ВВП на 50%,
20:40
but depending on what you say the threshold is,
448
1240542
2226
но от того, как вы обозначите порог,
20:42
you get a different probability estimate.
449
1242792
1976
вы получите разную степень вероятности.
20:44
But I guess you could put me down as a frightened optimist.
450
1244792
4517
Думаю, вы назовёте меня запуганным оптимистом.
20:49
(Laughter)
451
1249333
1101
(Смех)
20:50
CA: You're a frightened optimist,
452
1250458
1643
КА: Вы запуганный оптимист,
20:52
and I think you've just created a large number of other frightened ...
453
1252125
4268
и я думаю, сейчас вы создали немало себе подобных запуганных
20:56
people.
454
1256417
1267
...людей.
20:57
(Laughter)
455
1257708
1060
(Смех)
20:58
NB: In the simulation.
456
1258792
1267
НБ: Живущих в симуляции.
21:00
CA: In a simulation.
457
1260083
1268
КА: Точно.
21:01
Nick Bostrom, your mind amazes me,
458
1261375
1684
Ник Бостром, ваши идеи удивляют.
21:03
thank you so much for scaring the living daylights out of us.
459
1263083
2893
Спасибо, что запугали нас до смерти.
21:06
(Applause)
460
1266000
2375
(Аплодисменты)
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7