The 4 greatest threats to the survival of humanity

500,951 views ・ 2022-07-19

TED-Ed


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

Переводчик: Rostislav Golod Редактор: Anna Pecot
00:10
In January of 1995, Russia detected a nuclear missile headed its way.
0
10840
5964
В январе 1995 года Россия зафиксировала запуск ядерной ракеты в свою сторону.
00:16
The alert went all the way to the president,
1
16804
2836
Сигнал тревоги был передан по команде самому́ президенту,
00:19
who was deciding whether to strike back
2
19640
2962
которому предстояло принять решение о нанесении ответного удара.
00:22
when another system contradicted the initial warning.
3
22602
3378
Но тут поступила новая информация с опровержением.
00:26
What they thought was the first missile in a massive attack
4
26355
3796
То, что российские власти посчитали ядерной ракетой,
00:30
was actually a research rocket studying the Northern Lights.
5
30151
4338
был запуск в научных целях — для изучения северного сияния.
00:35
This incident happened after the end of the Cold War,
6
35156
3420
Этот инцидент произошёл вскоре после окончания Холодной войны,
00:38
but was nevertheless one of the closest calls we’ve had
7
38576
3504
но он существенно приблизил мир
00:42
to igniting a global nuclear war.
8
42080
2961
к началу глобальной ядерной войны.
00:45
With the invention of the atomic bomb,
9
45833
2169
С изобретением атомной бомбы
00:48
humanity gained the power to destroy itself for the first time in our history.
10
48002
5339
человечество впервые в истории оказалось на грани самоуничтожения.
00:53
Since then, our existential risk—
11
53341
3086
С тех пор угроза глобальной катастрофы —
00:56
risk of either extinction
12
56427
1835
полного вымирания
00:58
or the unrecoverable collapse of human civilization—
13
58262
3379
либо необратимого краха человеческой цивилизации —
01:01
has steadily increased.
14
61641
1918
только возрастала.
01:04
It’s well within our power to reduce this risk,
15
64060
2961
В наших силах снизить эти риски,
однако для этого необходимо разобраться,
01:07
but in order to do so,
16
67021
1585
01:08
we have to understand which of our activities
17
68606
2753
какая деятельность человека представляет угрозу глобальной катастрофы сегодня,
01:11
pose existential threats now, and which might in the future.
18
71359
4504
а какая окажется потенциально опасной в будущем.
01:16
So far, our species has survived 2,000 centuries,
19
76489
4379
На протяжении всей истории своего существования, —
а это уже более 2 000 столетий, —
01:20
each with some extinction risk from natural causes—
20
80868
3754
человечество находилось на грани исчезновения
в результате природных катаклизмов —
01:24
asteroid impacts, supervolcanoes, and the like.
21
84622
3128
падения астероида, извержения супервулканов и прочих явлений.
Прогнозирование глобальных катастроф
01:28
Assessing existential risk is an inherently uncertain business
22
88000
4338
по определению сопряжено с высокой долей неопределённости,
01:32
because usually when we try to figure out how likely something is,
23
92338
3921
потому что когда мы пытаемся установить вероятность какого-то явления,
01:36
we check how often it's happened before.
24
96259
2460
мы оцениваем, как часто подобное происходило в прошлом.
01:38
But the complete destruction of humanity has never happened before.
25
98719
4255
Однако полного вымирания человечества никогда не случалось.
01:43
While there’s no perfect method to determine our risk from natural threats,
26
103474
4004
Не существует достоверных методик
рассчёта вероятности нашего исчезновения в результате природных катаклизмов,
01:47
experts estimate it’s about 1 in 10,000 per century.
27
107478
4922
но, по оценкам экспертов, она составляет 1 к 10 000 в 100 лет.
01:52
Nuclear weapons were our first addition to that baseline.
28
112692
3503
С изобретением ядерного оружия появилась новая, техногенная угроза человечеству.
01:56
While there are many risks associated with nuclear weapons,
29
116612
3170
Ядерное оружие сопряжено с различными рисками, в том числе угрозой вымирания
01:59
the existential risk comes from the possibility
30
119782
3087
в результате глобальной ядерной войны.
02:02
of a global nuclear war that leads to a nuclear winter,
31
122869
4379
В случае ядерного конфликта неизбежно наступит ядерная зима —
из-за дыма и сажи на Земле образуется плотная завеса,
02:07
where soot from burning cities blocks out the sun for years,
32
127248
4171
которая на многие годы закроет планету от солнечных лучей.
02:11
causing the crops that humanity depends on to fail.
33
131419
3253
Погибнут сельскохозяйственные культуры — начнётся продовольственный кризис.
02:15
We haven't had a nuclear war yet,
34
135339
2253
Ядерной войны в истории планеты ещё не случалось,
02:17
but our track record is too short to tell if they’re inherently unlikely
35
137592
4421
однако прошло мало времени, чтобы делать выводы о том,
является ли это событие маловероятным
02:22
or we’ve simply been lucky.
36
142013
1710
или нам просто везло.
02:24
We also can’t say for sure
37
144307
1459
Мы также не можем утверждать,
02:25
whether a global nuclear war would cause a nuclear winter so severe
38
145766
4713
будет ли ядерная зима, которая последует за ядерной войной, настолько серьёзной,
02:30
it would pose an existential threat to humanity.
39
150479
2712
что она станет глобальной угрозой всему человечеству.
02:33
The next major addition to our existential risk was climate change.
40
153858
5047
Ещё одним опасным вызовом может стать изменение климата.
02:39
Like nuclear war, climate change could result
41
159322
2794
Подобно ядерной войне, эта проблема может привести
02:42
in a lot of terrible scenarios that we should be working hard to avoid,
42
162116
4880
ко множеству трагических сценариев, и мы обязаны предотвратить их любой ценой.
02:46
but that would stop short of causing extinction or unrecoverable collapse.
43
166996
4713
Однако есть вероятность, что климатическая угроза
не обернётся вымиранием либо необратимым крахом цивилизации.
Ожидается, что среднемировая температура вырастет на несколько градусов Цельсия,
02:52
We expect a few degrees Celsius of warming,
44
172043
2794
02:54
but can’t yet completely rule out 6 or even 10 degrees,
45
174837
4171
однако нельзя полностью исключать её повышения на 6 или даже 10 градусов,
02:59
which would cause a calamity of possibly unprecedented proportions.
46
179008
4338
что повлечёт за собой бедствие беспрецедентных масштабов.
03:03
Even in this worst-case scenario,
47
183596
2127
Но даже при самом неблагоприятном сценарии мы не можем утверждать,
03:05
it’s not clear whether warming would pose a direct existential risk,
48
185723
4046
что глобальное потепление обернётся глобальной катастрофой.
03:09
but the disruption it would cause would likely make us more vulnerable
49
189769
3378
Вероятнее всего, планете будет нанесёт урон,
в результате которого человечество станет более подвержено
03:13
to other existential risks.
50
193147
2002
другим глобальным рискам.
03:15
The greatest risks may come from technologies that are still emerging.
51
195566
4546
Серьёзнейшую угрозу могут представлять и развивающиеся технологии.
03:20
Take engineered pandemics.
52
200112
2294
Взять, к примеру, антропогенные пандемии.
03:22
The biggest catastrophes in human history have been from pandemics.
53
202406
4547
На протяжени всей истории человечества
крупнейшие катастрофы происходили в результате пандемий.
С развитием биотехнологий человек научился модифицировать и создавать микроорганизмы,
03:27
And biotechnology is enabling us to modify and create germs
54
207203
3670
03:30
that could be much more deadly than naturally occurring ones.
55
210873
3462
являющиеся гораздо более смертоносными, чем те, которые существуют в природе.
03:34
Such germs could cause pandemics through biowarfare and research accidents.
56
214752
4588
Пандемия может начаться
в результате биологической войны или утечки патогенов из лаборатории.
03:39
Decreased costs of genome sequencing and modification,
57
219340
3211
Снизилась стоимость технологий секвенирования и модификации генома,
03:42
along with increased availability of potentially dangerous information
58
222551
3921
стала более доступной потенциально опасная информация,
03:46
like the published genomes of deadly viruses,
59
226472
2544
например, были опубликованы геномы смертельных вирусов.
03:49
also increase the number of people and groups
60
229016
2711
Также выросло число биотехнологов и лабораторий,
03:51
who could potentially create such pathogens.
61
231727
2920
способных разработать опасные патогены.
Ещё одним поводом для беспокойства
03:55
Another concern is unaligned AI.
62
235564
2878
являются технологии искусственного интеллекта (ИИ).
03:58
Most AI researchers think this will be the century
63
238442
2586
Большинство специалистов по ИИ считают,
что уже в этом веке ИИ превзойдут способности человека
04:01
where we develop artificial intelligence that surpasses human abilities
64
241028
4338
во всех областях нашей деятельности.
04:05
across the board.
65
245366
1293
04:06
If we cede this advantage, we place our future in the hands
66
246659
4129
Смириться с этим превосходством
означает отдать наше будущее в руки технологий, которые мы создали.
04:10
of the systems we create.
67
250788
2002
04:12
Even if created solely with humanity’s best interests in mind,
68
252790
3712
Даже если разработка искусственного сверхинтеллекта
преследует самые благие цели,
04:16
superintelligent AI could pose an existential risk
69
256502
3504
ИИ будет нести в себе риск глобальной катастрофы,
04:20
if it isn’t perfectly aligned with human values—
70
260006
3420
если его деятельность не будет соответствовать человеческим ценностям.
04:23
a task scientists are finding extremely difficult.
71
263426
3503
Учёные предполагают, что добиться этого будет весьма непросто.
04:27
Based on what we know at this point,
72
267346
2044
Исходя из того, что нам известно сегодня,
04:29
some experts estimate the anthropogenic existential risk
73
269390
3837
эксперты считают, что антропогенные риски глобальных катастроф
04:33
is more than 100 times higher than the background rate of natural risk.
74
273227
4797
превосходят природные риски более чем в 100 раз.
04:38
But these odds depend heavily on human choices.
75
278482
4004
Но вероятность наступления этих рисков во многом зависит от нас самих.
04:42
Because most of the risk is from human action, and it’s within human control.
76
282486
5422
Поскольку большинство рисков связано с человеческой деятельностью,
в наших силах их предотвратить.
04:47
If we treat safeguarding humanity's future as the defining issue of our time,
77
287908
4755
Если обеспечение будущего человечества станет важнейшим вопросом нашего времени,
04:52
we can reduce this risk.
78
292663
2127
мы сможем снизить вероятность наступления этих рисков.
04:55
Whether humanity fulfils its potential—
79
295082
2836
Реализует ли человечество свой потенциал
04:57
or not—
80
297918
1168
или нет —
05:00
is in our hands.
81
300129
1793
решать нам.
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7