The most important century in human history

337,690 views ・ 2023-04-04

TED-Ed


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

Переводчик: Rostislav Golod Редактор: Anna Pecot
00:07
What's the most important century in human history?
0
7003
3587
Какой самый важный век в истории человечества?
00:11
Some might argue it’s a period of extensive military campaigning,
1
11049
3920
Возможно, кто-то скажет, это эпоха масштабных военных завоеваний,
00:14
like Alexander the Great’s in the 300s BCE,
2
14969
3545
например поход Александра Македонского в IV веке до нашей эры,
00:18
which reshaped political and cultural borders.
3
18848
3253
изменивший политические и культурные границы своего времени.
00:23
Others might cite the emergence of a major religion,
4
23936
3087
Кто-то предположит, что это время возникновения одной из основных религий,
00:27
such as Islam in the 7th century,
5
27023
2127
например, ислама в VII веке,
что позволило систематизировать и распространить религиозные ценности
00:29
which codified and spread values across such borders.
6
29525
3504
через установленные границы.
00:35
Or perhaps it’s the Industrial Revolution of the 1700s
7
35531
3462
А может быть, это промышленная революция XVIII века,
00:38
that transformed global commerce
8
38993
1752
благодаря которой изменились международная торговля
00:40
and redefined humanity's relationship with labor.
9
40745
3128
и рынок труда.
00:44
Whatever the answer, it seems like any century vying for that top spot
10
44165
4129
Как бы там ни было, похоже, что любой век, претендующий на звание самого важного,
00:48
is at a moment of great change—
11
48294
2377
совпал с эпохой великих перемен,
00:51
when the actions of our ancestors shifted humanity’s trajectory
12
51631
4171
когда действия наших предков изменили траекторию развития человечества
00:55
for centuries to come.
13
55802
1584
на многие века.
00:57
So if this is our metric, is it possible that right now—
14
57720
3921
Если руководствоваться этим принципом,
возможно, самым важным окажется наше столетие?
01:01
this century— is the most important one yet?
15
61641
3086
01:05
The 21st century has already proven to be a period of rapid technological growth.
16
65770
5213
XXI век уже можно назвать эпохой стремительного технического прогресса.
01:11
Phones and computers have accelerated the pace of life.
17
71234
3128
Благодаря телефонам и компьютерам заметно ускорился темп жизни.
01:14
And we’re likely on the cusp of developing new transformative technologies,
18
74403
4171
И, вероятно, мы стоим на пороге новых достижений в науке и технике,
01:18
like advanced artificial intelligence,
19
78574
2294
таких как передовой искусственный интеллект,
01:20
that could entirely change the way people live.
20
80868
2878
который может коренным образом изменить жизнь человека.
01:25
Meanwhile, many technologies we already have
21
85414
3045
Между тем из-за многих существующих технологий
01:28
contribute to humanity’s unprecedented levels of existential risk—
22
88459
4838
уже возникли беспрецедентные угрозы глобальной катастрофы
01:33
that’s the risk of our species going extinct
23
93381
2377
или серьёзных катаклизмов,
01:35
or experiencing some kind of disaster that permanently limits
24
95758
3420
чреватых полным вымиранием нашего вида
01:39
humanity’s ability to grow and thrive.
25
99178
2670
или лишением человечества возможности процветания.
01:43
The invention of the atomic bomb marked a major rise in existential risk,
26
103266
4629
Реальная угроза глобальной катастрофы появилась с изобретением атомной бомбы,
01:48
and since then we’ve only increased the odds against us.
27
108396
3879
и с тех пор риски уничтожения человечества продолжали расти.
01:52
It’s profoundly difficult to estimate the odds
28
112900
2628
Крайне сложно оценить вероятность того,
01:55
of an existential collapse occurring this century.
29
115528
2628
произойдёт ли глобальная катастрофа уже в этом столетии.
01:58
Very rough guesses put the risk of existential catastrophe
30
118239
3462
По самым приблизительным оценкам,
её риск вследствие наступления ядерной зимы
02:01
due to nuclear winter and climate change at around 0.1%,
31
121701
4880
и изменения климата составляет около 0,1%.
02:08
with the odds of a pandemic causing the same kind of collapse
32
128291
3211
При этом вероятность схожего по масштабам события, вызванного пандемией,
02:11
at a frightening 3%.
33
131502
1960
равен аж 3%.
02:14
Given that any of these disasters could mean the end of life as we know it,
34
134005
4880
Учитывая, что любая из этих катастроф
означает прекращение жизни в известных нам формах,
02:19
these aren’t exactly small figures,
35
139177
2127
это не такие уж маленькие числа.
02:21
And it’s possible this century could see the rise of new technologies
36
141304
4004
Не исключено, что в этом столетии появятся новые технологии,
которые создадут дополнительные угрозы глобальных катастроф.
02:25
that introduce more existential risks.
37
145308
2794
Эксперты в области искусственного интеллекта (ИИ)
02:29
AI experts have a wide range of estimates regarding
38
149103
2628
значительно расходятся во мнении относительно того,
02:31
when artificial general intelligence will emerge,
39
151731
2961
когда появится универсальный ИИ (УИИ).
02:34
but according to some surveys, many believe it could happen this century.
40
154734
4087
По мнению некоторых из них, это может произойти уже в нашем веке.
02:39
Currently, we have relatively narrow forms of artificial intelligence,
41
159655
3837
В настоящее время существуют лишь относительно слабые системы ИИ,
02:43
which are designed to do specific tasks like play chess or recognize faces.
42
163492
4588
предназначенные для решения конкретных задач,
например для игры в шахматы или распознавания лиц.
02:49
Even narrow AIs that do creative work are limited to their singular specialty.
43
169040
5213
Даже прикладные программы ИИ, выполняющие творческие задачи,
ограничены узкой специализацией.
02:54
But artificial general intelligences, or AGIs,
44
174503
3629
В отличие от них универсальный ИИ, или УИИ,
02:58
would be able to adapt to and perform any number of tasks,
45
178132
3837
сможет адаптироваться и выполнять любое число задач,
03:02
quickly outpacing their human counterparts.
46
182678
2878
быстро опережая интеллектуальные способности человека.
03:06
There are a huge variety of guesses about what AGI could look like,
47
186849
4088
Существует много гипотез относительного того,
что будет представлять собой УИИ и с чем столкнётся человечество,
03:11
and what it would mean for humanity to share the Earth
48
191646
2836
03:14
with another sentient entity.
49
194482
2127
когда на Земле появятся новые «братья по разуму».
03:18
AGIs might help us achieve our goals,
50
198653
2544
Программы УИИ или помогут нам в достижении целей,
03:21
they might regard us as inconsequential,
51
201197
2294
или решат, что наше существование не имеет для них значения,
03:23
or, they might see us as an obstacle to swiftly remove.
52
203491
3170
или посчитают нас помехами, которые нужно немедленно устранить.
03:26
So in terms of existential risk,
53
206869
2169
Поэтому во избежание глобальной угрозы человечеству необходимо,
03:29
it's imperative the values of this new technology align with our own.
54
209038
4087
чтобы общечеловеческие ценности распространялись и на новые технологии.
03:33
This is an incredibly difficult philosophical and engineering challenge
55
213501
3879
Это невероятно сложная философская и техническая задача,
для решения которой потребуются неимоверные интеллектуальные усилия.
03:37
that will require a lot of delicate, thoughtful work.
56
217380
3086
03:40
Yet, even if we succeed, AGI could still lead to another complicated outcome.
57
220967
5213
Но даже если мы в этом преуспеем,
последствия появления УИИ всё равно могут оказаться непредсказуемыми.
03:46
Let’s imagine an AGI emerges with deep respect for human life
58
226847
3796
Представим себе, что у нас есть УИИ,
в основе которого заложены глубокое уважение к человеческой жизни
03:50
and a desire to solve all humanity’s troubles.
59
230643
2961
и желание решить все проблемы человечества.
03:55
But to avoid becoming misaligned,
60
235231
2169
Чтобы избежать каких-либо разногласий,
03:57
it's been developed to be incredibly rigid about its beliefs.
61
237400
3628
алгоритмы УИИ разработаны так,
чтобы новые технологии жёстко придерживались заложенных убеждений.
04:01
If these machines became the dominant power on Earth,
62
241237
3086
Если бы эти машины стали доминирующей силой,
04:04
their strict values might become hegemonic,
63
244323
2711
строго придерживающейся определённых ценностей,
на Земле установилась бы гегемония,
04:07
locking humanity into one ideology that would be incredibly resistant to change.
64
247034
5214
а человечество оказалось бы в плену идеологии,
не терпящей каких бы то ни было изменений.
04:14
History has taught us that no matter how enlightened
65
254792
2503
История научила нас тому,
что какой бы просвещённой ни считала бы себя цивилизация,
04:17
a civilization thinks they are,
66
257295
1793
04:19
they are rarely up to the moral standards of later generations.
67
259088
3795
её моральные ценности редко соответствуют этическим нормам следующих поколений.
04:23
And this kind of value lock in could permanently distort or constrain
68
263009
4629
И подобная фиксация ценностей может навсегда исказить или ограничить
04:27
humanity’s moral growth.
69
267638
1919
нравственное развитие человечества.
Универсальный ИИ сопряжён с высокой долей неопределённости,
04:30
There's a ton of uncertainty around AGI,
70
270016
2585
04:32
and it’s profoundly difficult to predict how any existential risks
71
272601
3713
так что предвидеть все риски,
с которыми человечество столкнётся в будущем столетии,
04:36
will play out over the next century.
72
276314
2002
практически невозможно.
04:38
It’s also possible that new, more pressing concerns
73
278649
2920
Не исключено также, что появятся новые, более острые проблемы,
04:41
might render these risks moot.
74
281569
2002
на фоне которых все эти угрозы станут и вовсе неактуальны.
04:43
But even if we can't definitively say that ours is the most important century,
75
283904
4713
Но даже если мы не можем с уверенностью сказать, что наш век — самый важный,
велика вероятность, что решения, которые будут приняты нашим поколением,
04:48
it still seems like the decisions we make might have a major impact
76
288617
3754
окажут существенное влияние на будущее всего человечества.
04:52
on humanity’s future.
77
292371
1502
04:54
So maybe we should all live like the future depends on us—
78
294415
3211
Поэтому, возможно, нам следует жить, будто от нас зависит будущее,
04:57
because actually, it just might.
79
297626
2211
а так оно, скорее всего, и будет.
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7