Is AI the most important technology of the century?

365,293 views ・ 2023-04-04

TED-Ed


Моля, кликнете два пъти върху английските субтитри по-долу, за да пуснете видеото.

Translator: Nikolina Krasteva Reviewer: Anton Hikov
00:07
What's the most important century in human history?
0
7003
3587
Кой е най-важният век в човешката история?
00:11
Some might argue it’s a period of extensive military campaigning,
1
11049
3920
Някои твърдят, че това е период на мащабни военни кампании,
00:14
like Alexander the Great’s in the 300s BCE,
2
14969
3545
като на Александър Велики през 300-те години пр.н.е.,
00:18
which reshaped political and cultural borders.
3
18848
3253
които прекрояват политическите и културни граници.
00:23
Others might cite the emergence of a major religion,
4
23936
3087
Други могат да посочат появата на голяма религия,
00:27
such as Islam in the 7th century,
5
27023
2127
като исляма през VII век,
00:29
which codified and spread values across such borders.
6
29525
3504
която кодифицира и разпространява ценности през тези граници.
00:35
Or perhaps it’s the Industrial Revolution of the 1700s
7
35531
3462
А може би това е индустриалната революция през 1700-те години,
00:38
that transformed global commerce
8
38993
1752
която променя световната търговия
00:40
and redefined humanity's relationship with labor.
9
40745
3128
и преосмисля връзката на човечеството с труда.
00:44
Whatever the answer, it seems like any century vying for that top spot
10
44165
4129
Какъвто и да е отговорът, изглежда, че всеки век, борещ се за това първо място
00:48
is at a moment of great change—
11
48294
2377
се намира в момент на голяма промяна -
00:51
when the actions of our ancestors shifted humanity’s trajectory
12
51631
4171
когато действията на предците ни са променяли траекторията на човечеството
00:55
for centuries to come.
13
55802
1584
за векове напред.
00:57
So if this is our metric, is it possible that right now—
14
57720
3921
Ако това е нашият показател, възможно ли е точно сега -
01:01
this century— is the most important one yet?
15
61641
3086
този век - да е най-важният досега?
01:05
The 21st century has already proven to be a period of rapid technological growth.
16
65770
5213
21-ви век вече доказа, че е период на бърз технологичен растеж.
01:11
Phones and computers have accelerated the pace of life.
17
71234
3128
Телефоните и компютрите ускориха темпото на живот.
01:14
And we’re likely on the cusp of developing new transformative technologies,
18
74403
4171
И вероятно сме на прага на развитието на нови трансформиращи технологии,
01:18
like advanced artificial intelligence,
19
78574
2294
като напреднал изкуствен интелект,
01:20
that could entirely change the way people live.
20
80868
2878
което може да промени изцяло начина на живот на хората.
01:25
Meanwhile, many technologies we already have
21
85414
3045
Междувременно много технологии, които вече имаме
01:28
contribute to humanity’s unprecedented levels of existential risk—
22
88459
4838
допринасят за невижданите нива на екзистенциален риск за човечеството -
01:33
that’s the risk of our species going extinct
23
93381
2377
това е рискът нашият вид да изчезне
01:35
or experiencing some kind of disaster that permanently limits
24
95758
3420
или преживяване на някакво бедствие, което трайно ограничава
01:39
humanity’s ability to grow and thrive.
25
99178
2670
способността на човечеството да расте и процъфтява.
01:43
The invention of the atomic bomb marked a major rise in existential risk,
26
103266
4629
Изобретяването на атомната бомба бележи голямо нарастване на екзистенциалния риск,
01:48
and since then we’ve only increased the odds against us.
27
108396
3879
и оттогава само увеличаваме шансовете срещу нас.
01:52
It’s profoundly difficult to estimate the odds
28
112900
2628
Изключително трудно е да се оценят шансовете
01:55
of an existential collapse occurring this century.
29
115528
2628
на екзистенциален срив настъпващ през този век.
01:58
Very rough guesses put the risk of existential catastrophe
30
118239
3462
Много груби предположения поставят риска от екзистенциалната катастрофа
02:01
due to nuclear winter and climate change at around 0.1%,
31
121701
4880
поради ядрената зима и изменението на климата около 0,1%,
02:08
with the odds of a pandemic causing the same kind of collapse
32
128291
3211
с вероятността пандемия да причини същия вид срив
02:11
at a frightening 3%.
33
131502
1960
с плашещите 3%.
02:14
Given that any of these disasters could mean the end of life as we know it,
34
134005
4880
Предвид, че всяко от тези бедствия може да значи край на живота, какъвто го знаем,
02:19
these aren’t exactly small figures,
35
139177
2127
това не са съвсем малки цифри.
02:21
And it’s possible this century could see the rise of new technologies
36
141304
4004
И е възможно този век да види възходът на новите технологии,
02:25
that introduce more existential risks.
37
145308
2794
които носят повече екзистенциални рискове.
02:29
AI experts have a wide range of estimates regarding
38
149103
2628
Експертите по ИИ имат широк диапазон на оценките относно
02:31
when artificial general intelligence will emerge,
39
151731
2961
кога изкуственият общ интелект ще се появи,
02:34
but according to some surveys, many believe it could happen this century.
40
154734
4087
но според проучвания, мнозина вярват, че това може да се случи през този век.
02:39
Currently, we have relatively narrow forms of artificial intelligence,
41
159655
3837
В момента имаме сравнително тесни форми на изкуствения интелект,
02:43
which are designed to do specific tasks like play chess or recognize faces.
42
163492
4588
които са създадени за специфични задачи като игра на шах или разпознаване на лица.
02:49
Even narrow AIs that do creative work are limited to their singular specialty.
43
169040
5213
И тесните ИИ, които вършат творчески труд, са ограничени до своята специалност.
02:54
But artificial general intelligences, or AGIs,
44
174503
3629
Но изкуствените общи интелекти, или AGIs,
02:58
would be able to adapt to and perform any number of tasks,
45
178132
3837
ще могат да се адаптират и да изпълняват всякакъв брой задачи,
03:02
quickly outpacing their human counterparts.
46
182678
2878
бързо изпреварващи техните човешки двойници.
03:06
There are a huge variety of guesses about what AGI could look like,
47
186849
4088
Има огромно разнообразие от предположения за това как може да изглежда AGI,
03:11
and what it would mean for humanity to share the Earth
48
191646
2836
и какво би означавало човечеството да споделя Земята
03:14
with another sentient entity.
49
194482
2127
с друго съзнателно същество.
03:18
AGIs might help us achieve our goals,
50
198653
2544
AGIs могат да ни помогнат да постигнем целите си,
03:21
they might regard us as inconsequential,
51
201197
2294
те могат да ни смятат за незначителни,
03:23
or, they might see us as an obstacle to swiftly remove.
52
203491
3170
или пък да ни видят като пречка, която трябва бързо да отстранят.
03:26
So in terms of existential risk,
53
206869
2169
Така че по отношение на екзистенциалния риск,
03:29
it's imperative the values of this new technology align with our own.
54
209038
4087
наложително е ценностите на тази нова технология да съответстват на нашите.
03:33
This is an incredibly difficult philosophical and engineering challenge
55
213501
3879
Това е невероятно трудно философско и инженерно предизвикателство,
03:37
that will require a lot of delicate, thoughtful work.
56
217380
3086
което ще изисква много деликатна, задълбочена работа.
03:40
Yet, even if we succeed, AGI could still lead to another complicated outcome.
57
220967
5213
Но дори и да успеем, AGI все още може да доведе до друг сложен резултат.
03:46
Let’s imagine an AGI emerges with deep respect for human life
58
226847
3796
Да си представим, че се появи AGI с дълбоко уважение към човешкия живот
03:50
and a desire to solve all humanity’s troubles.
59
230643
2961
и желание за решаване всички беди на човечеството.
03:55
But to avoid becoming misaligned,
60
235231
2169
Но за да се избегне разминаване,
03:57
it's been developed to be incredibly rigid about its beliefs.
61
237400
3628
той е разработен да бъде изключително твърд по отношение на убежденията си.
04:01
If these machines became the dominant power on Earth,
62
241237
3086
Ако тези машини станат доминиращата сила на Земята,
04:04
their strict values might become hegemonic,
63
244323
2711
техните строги ценности могат да станат хегемонистични,
04:07
locking humanity into one ideology that would be incredibly resistant to change.
64
247034
5214
затваряйки човечеството в идеология, която ще бъде невероятно устойчива на промени.
04:14
History has taught us that no matter how enlightened
65
254792
2503
Историята ни учи, че без значение колко просветени
04:17
a civilization thinks they are,
66
257295
1793
една цивилизация ги смята,
04:19
they are rarely up to the moral standards of later generations.
67
259088
3795
те рядко отговарят на моралните стандарти на по-късните поколения.
04:23
And this kind of value lock in could permanently distort or constrain
68
263009
4629
И този вид ценностно блокиране може трайно да изкриви или ограничи
04:27
humanity’s moral growth.
69
267638
1919
моралното израстване на човечеството.
04:30
There's a ton of uncertainty around AGI,
70
270016
2585
Има много несигурност около AGI,
04:32
and it’s profoundly difficult to predict how any existential risks
71
272601
3713
и е много трудно да се предвиди как всички екзистенциални рискове
04:36
will play out over the next century.
72
276314
2002
ще се разиграят през следващия век.
04:38
It’s also possible that new, more pressing concerns
73
278649
2920
Възможно е също така нови, по-належащи проблеми
04:41
might render these risks moot.
74
281569
2002
да направят тези рискове спорни.
04:43
But even if we can't definitively say that ours is the most important century,
75
283904
4713
Но дори и да не можем да кажем категорично че нашият век е най-важният,
04:48
it still seems like the decisions we make might have a major impact
76
288617
3754
все още изглежда, че решенията които правим, могат да имат голямо влияние
04:52
on humanity’s future.
77
292371
1502
върху бъдещето на човечеството.
04:54
So maybe we should all live like the future depends on us—
78
294415
3211
Може би всички трябва да живеем сякаш бъдещето зависи от нас -
04:57
because actually, it just might.
79
297626
2211
защото всъщност може и да е така.
Относно този уебсайт

Този сайт ще ви запознае с видеоклипове в YouTube, които са полезни за изучаване на английски език. Ще видите уроци по английски език, преподавани от първокласни учители от цял свят. Кликнете два пъти върху английските субтитри, показани на всяка страница с видеоклипове, за да възпроизведете видеото оттам. Субтитрите се превъртат в синхрон с възпроизвеждането на видеото. Ако имате някакви коментари или искания, моля, свържете се с нас, като използвате тази форма за контакт.

https://forms.gle/WvT1wiN1qDtmnspy7