The 4 greatest threats to the survival of humanity

485,277 views ・ 2022-07-19

TED-Ed


Будь ласка, двічі клацніть на англійські субтитри нижче, щоб відтворити відео.

Перекладач: Dariia Berestiuk Утверджено: Олена Сьомак
00:10
In January of 1995, Russia detected a nuclear missile headed its way.
0
10840
5964
У січні 1995 року Росія зафіксувала ядерну ракету у своєму напрямку.
00:16
The alert went all the way to the president,
1
16804
2836
Сповіщення про тривогу дійшло до президента,
00:19
who was deciding whether to strike back
2
19640
2962
який приймав рішення, чи завдати удар у відповідь,
00:22
when another system contradicted the initial warning.
3
22602
3378
в той час як інша система суперечила початковому попередженню.
00:26
What they thought was the first missile in a massive attack
4
26355
3796
Те, що вони вважали першою ракетою масштабної атаки,
00:30
was actually a research rocket studying the Northern Lights.
5
30151
4338
насправді було метеорологічною ракетою для дослідження північного сяйва.
00:35
This incident happened after the end of the Cold War,
6
35156
3420
Цей інцидент стався після закінчення холодної війни,
00:38
but was nevertheless one of the closest calls we’ve had
7
38576
3504
але, незважаючи на це, він був одним із найкритичніших моментів,
00:42
to igniting a global nuclear war.
8
42080
2961
що міг спричинити глобальну ядерну війну.
00:45
With the invention of the atomic bomb,
9
45833
2169
З винаходом атомної бомби
00:48
humanity gained the power to destroy itself for the first time in our history.
10
48002
5339
вперше в історії людство отримало можливість знищити себе.
00:53
Since then, our existential risk—
11
53341
3086
Відтоді наш екзистенційний ризик —
00:56
risk of either extinction
12
56427
1835
ризик або вимирання
00:58
or the unrecoverable collapse of human civilization—
13
58262
3379
або безповоротного краху людської цивілізації —
01:01
has steadily increased.
14
61641
1918
неухильно зростає.
01:04
It’s well within our power to reduce this risk,
15
64060
2961
У наших силах зменшити цей ризик,
01:07
but in order to do so,
16
67021
1585
але для цього ми повинні розуміти,
01:08
we have to understand which of our activities
17
68606
2753
які види нашої діяльності
01:11
pose existential threats now, and which might in the future.
18
71359
4504
становлять екзистенційну загрозу зараз, а які можуть її нести у майбутньому.
01:16
So far, our species has survived 2,000 centuries,
19
76489
4379
Дотепер наш вид пережив 2 000 століть,
01:20
each with some extinction risk from natural causes—
20
80868
3754
кожне з яких було пов’язане з певним ризиком вимирання через природні причини —
01:24
asteroid impacts, supervolcanoes, and the like.
21
84622
3128
зіткнення з астероїдами, супервулкани, тощо.
01:28
Assessing existential risk is an inherently uncertain business
22
88000
4338
Оцінка ризику для існування — це за своєю суттю невизначена справа,
01:32
because usually when we try to figure out how likely something is,
23
92338
3921
тому що зазвичай, коли ми намагаємося з’ясувати, наскільки ймовірним щось є,
01:36
we check how often it's happened before.
24
96259
2460
ми перевіряємо, як часто це траплялося раніше.
01:38
But the complete destruction of humanity has never happened before.
25
98719
4255
Але повного знищення людства ще ніколи не траплялося.
01:43
While there’s no perfect method to determine our risk from natural threats,
26
103474
4004
Хоч не існує досконалого методу визначення ризику вимирання від природних загроз,
01:47
experts estimate it’s about 1 in 10,000 per century.
27
107478
4922
за оцінками експертів, він становить приблизно 1 до 10 000 на століття.
01:52
Nuclear weapons were our first addition to that baseline.
28
112692
3503
Ядерна зброя була нашим першим доповненням до цієї статистики.
01:56
While there are many risks associated with nuclear weapons,
29
116612
3170
І хоча існує багато ризиків, пов’язаних з ядерною зброєю,
01:59
the existential risk comes from the possibility
30
119782
3087
екзистенційний ризик пов’язаний з потенційною можливістю
02:02
of a global nuclear war that leads to a nuclear winter,
31
122869
4379
глобальної ядерної війни, яка призведе до ядерної зими.
02:07
where soot from burning cities blocks out the sun for years,
32
127248
4171
Тоді кіптява від палаючих міст роками закриватиме сонце,
02:11
causing the crops that humanity depends on to fail.
33
131419
3253
спричиняючи загибель врожаю, від якого залежить виживання людства.
02:15
We haven't had a nuclear war yet,
34
135339
2253
У нас ще не було ядерної війни,
02:17
but our track record is too short to tell if they’re inherently unlikely
35
137592
4421
але наш послужний список занадто короткий, щоб сказати,
чи є вона за своєю природою малоймовірною, чи нам просто пощастило.
02:22
or we’ve simply been lucky.
36
142013
1710
02:24
We also can’t say for sure
37
144307
1459
Також ми не впевнені у тому,
02:25
whether a global nuclear war would cause a nuclear winter so severe
38
145766
4713
чи спричинить глобальна ядерна війна настільки сувору ядерну зиму,
02:30
it would pose an existential threat to humanity.
39
150479
2712
що вона становитиме загрозу для існування людства.
02:33
The next major addition to our existential risk was climate change.
40
153858
5047
Наступним серйозним доповненням до нашого ризику для існування стала зміна клімату.
02:39
Like nuclear war, climate change could result
41
159322
2794
Як і ядерна війна, зміна клімату може призвести
02:42
in a lot of terrible scenarios that we should be working hard to avoid,
42
162116
4880
до безлічі жахливих сценаріїв, яких ми мусимо уникнути за будь-якої ціни,
02:46
but that would stop short of causing extinction or unrecoverable collapse.
43
166996
4713
але які не призведуть до вимирання або безповоротного колапсу.
02:52
We expect a few degrees Celsius of warming,
44
172043
2794
Ми очікуємо потепління на кілька градусів за Цельсієм,
02:54
but can’t yet completely rule out 6 or even 10 degrees,
45
174837
4171
але все ще не можемо повністю виключати ймовірність на 6 або навіть 10 градусів,
02:59
which would cause a calamity of possibly unprecedented proportions.
46
179008
4338
які спричинять катастрофу, можливо, безпрецедентних масштабів.
03:03
Even in this worst-case scenario,
47
183596
2127
Навіть за найгіршого сценарію не зрозуміло,
03:05
it’s not clear whether warming would pose a direct existential risk,
48
185723
4046
чи становитиме потепління пряму загрозу для існування,
03:09
but the disruption it would cause would likely make us more vulnerable
49
189769
3378
але руйнування, які воно спричинить, ймовірно, зроблять нас більш вразливими
03:13
to other existential risks.
50
193147
2002
до інших ризиків для існування.
03:15
The greatest risks may come from technologies that are still emerging.
51
195566
4546
Найбільші ризики можуть походити від технологій, які все ще розвиваються.
03:20
Take engineered pandemics.
52
200112
2294
Наприклад, штучно створені пандемії.
03:22
The biggest catastrophes in human history have been from pandemics.
53
202406
4547
Пандемії спричинили найбільші катастрофи в історії людства.
03:27
And biotechnology is enabling us to modify and create germs
54
207203
3670
А біотехнології дозволяють нам модифікувати і створювати мікроби,
03:30
that could be much more deadly than naturally occurring ones.
55
210873
3462
які можуть бути куди більш смертоносними, ніж ті, що зустрічаються в природі.
03:34
Such germs could cause pandemics through biowarfare and research accidents.
56
214752
4588
Ці мікроби можуть викликати пандемії через біологічну війну та дослідні експерименти.
03:39
Decreased costs of genome sequencing and modification,
57
219340
3211
Зниження вартості селекції та модифікації геномів,
03:42
along with increased availability of potentially dangerous information
58
222551
3921
а також зростання доступу до потенційно небезпечної інформації,
03:46
like the published genomes of deadly viruses,
59
226472
2544
такої як публікації даних про геноми смертельних вірусів,
03:49
also increase the number of people and groups
60
229016
2711
також збільшують кількість людей і груп,
03:51
who could potentially create such pathogens.
61
231727
2920
які потенційно можуть створювати такі патогени.
03:55
Another concern is unaligned AI.
62
235564
2878
Невпорядкований ШІ також викликає занепокоєння.
03:58
Most AI researchers think this will be the century
63
238442
2586
Більшість дослідників ШІ вважають, що саме в цьому столітті
04:01
where we develop artificial intelligence that surpasses human abilities
64
241028
4338
ми розробимо штучний інтелект, який перевершить людські здібності
04:05
across the board.
65
245366
1293
в усіх сферах життя.
04:06
If we cede this advantage, we place our future in the hands
66
246659
4129
Якщо ми поступимося цією перевагою, ми віддамо наше майбутнє в руки систем,
04:10
of the systems we create.
67
250788
2002
які ми створюємо.
04:12
Even if created solely with humanity’s best interests in mind,
68
252790
3712
Навіть якщо надрозумний ШІ буде створений виключно в інтересах людства,
04:16
superintelligent AI could pose an existential risk
69
256502
3504
він може становити екзистенційний ризик,
04:20
if it isn’t perfectly aligned with human values—
70
260006
3420
якщо він не буде ідеально узгоджений з людськими цінностями —
04:23
a task scientists are finding extremely difficult.
71
263426
3503
це завдання, яке вчені вважають надзвичайно складним.
04:27
Based on what we know at this point,
72
267346
2044
Виходячи з того, що ми знаємо на даний момент,
04:29
some experts estimate the anthropogenic existential risk
73
269390
3837
окремі фахівці оцінюють антропогенний екзистенційний ризик
04:33
is more than 100 times higher than the background rate of natural risk.
74
273227
4797
більш ніж у 100 разів вищим ніж фоновий рівень природного ризику.
04:38
But these odds depend heavily on human choices.
75
278482
4004
Проте ці показники значною мірою залежать від людського вибору.
04:42
Because most of the risk is from human action, and it’s within human control.
76
282486
5422
Тому що більша частина ризику походить від дій людини
і знаходиться в межах людського контролю.
04:47
If we treat safeguarding humanity's future as the defining issue of our time,
77
287908
4755
Якщо ми сприйматимемо захист майбутнього людства головним питанням нашого часу,
04:52
we can reduce this risk.
78
292663
2127
ми зможемо зменшити цей ризик.
04:55
Whether humanity fulfils its potential—
79
295082
2836
Те, чи реалізує людство свій потенціал —
04:57
or not—
80
297918
1168
чи ні —
05:00
is in our hands.
81
300129
1793
залежить від нас самих.
Про цей сайт

Цей сайт познайомить вас з відеороликами YouTube, корисними для вивчення англійської мови. Ви побачите уроки англійської мови, які проводять першокласні викладачі з усього світу. Двічі клацніть на англійських субтитрах, що відображаються на кожній сторінці відео, щоб відтворити відео з цієї сторінки. Субтитри прокручуються синхронно з відтворенням відео. Якщо у вас є коментарі або побажання, будь ласка, зв'яжіться з нами за допомогою цієї контактної форми.

https://forms.gle/WvT1wiN1qDtmnspy7