The most important century in human history

337,860 views ・ 2023-04-04

TED-Ed


A videó lejátszásához kattintson duplán az alábbi angol feliratokra.

Fordító: Zsuzsanna Sipos Lektor: Zsófia Herczeg
00:07
What's the most important century in human history?
0
7003
3587
Melyik az emberiség történelmének legfontosabb évszázada?
00:11
Some might argue it’s a period of extensive military campaigning,
1
11049
3920
Egyesek azt állíthatják, hogy a kiterjedt katonai hadjáratok időszaka,
00:14
like Alexander the Great’s in the 300s BCE,
2
14969
3545
mint például Nagy Sándor kora az i.e. 300-as években,
00:18
which reshaped political and cultural borders.
3
18848
3253
amely átformálta a politikai és kulturális határokat.
00:23
Others might cite the emergence of a major religion,
4
23936
3087
Mások talán egy kiemelkedő vallás megjelenését említenék,
00:27
such as Islam in the 7th century,
5
27023
2127
mint az iszlám a 7. században,
00:29
which codified and spread values across such borders.
6
29525
3504
amely határokon átívelő értékeket hirdetett és foglalt törvénybe.
00:35
Or perhaps it’s the Industrial Revolution of the 1700s
7
35531
3462
Vagy talán az 1700-as évekbeli ipari forradalmat emelhetnénk ki,
00:38
that transformed global commerce
8
38993
1752
mely átalakította a globális kereskedelmet,
00:40
and redefined humanity's relationship with labor.
9
40745
3128
és újradefiniálta az emberiség munkához való viszonyát.
00:44
Whatever the answer, it seems like any century vying for that top spot
10
44165
4129
Úgy tűnik, bármelyik század igyekszik is az első helyet megszerezni,
00:48
is at a moment of great change—
11
48294
2377
mind nagy változásokat hozott,
00:51
when the actions of our ancestors shifted humanity’s trajectory
12
51631
4171
és elődeink akkori cselekedetei évszázadokra megváltoztatták
00:55
for centuries to come.
13
55802
1584
az emberiség sorsának alakulását.
00:57
So if this is our metric, is it possible that right now—
14
57720
3921
Amennyiben helyes ez a meghatározás, lehetséges-e,
hogy a jelenlegi évszázad az eddigi legfontosabb?
01:01
this century— is the most important one yet?
15
61641
3086
01:05
The 21st century has already proven to be a period of rapid technological growth.
16
65770
5213
A 21. század bizonyítottan a gyors technikai fejlődés időszaka.
01:11
Phones and computers have accelerated the pace of life.
17
71234
3128
A telefonok és számítógépek felgyorsították életünk ütemét.
01:14
And we’re likely on the cusp of developing new transformative technologies,
18
74403
4171
Feltehetően olyan új,
mindent megváltoztató technika kifejlesztése áll előttünk,
01:18
like advanced artificial intelligence,
19
78574
2294
mint a fejlett mesterséges intelligencia, az AI,
01:20
that could entirely change the way people live.
20
80868
2878
amely teljesen megváltoztathatja az emberek életmódját.
01:25
Meanwhile, many technologies we already have
21
85414
3045
Eközben számos korábbi technikai vívmány is hozzájárul
01:28
contribute to humanity’s unprecedented levels of existential risk—
22
88459
4838
egy olyan, korábban elképzelhetetlen egzisztenciális válsághoz,
01:33
that’s the risk of our species going extinct
23
93381
2377
mely akár fajunk kihalásához
01:35
or experiencing some kind of disaster that permanently limits
24
95758
3420
vagy egy olyan katasztrófához vezethet, mely tartósan korlátozza majd
01:39
humanity’s ability to grow and thrive.
25
99178
2670
az emberiség növekedési és gyarapodási képességeit.
01:43
The invention of the atomic bomb marked a major rise in existential risk,
26
103266
4629
Az atombomba feltalálása jelentősen növelte ezt az egzisztenciális kockázatot,
01:48
and since then we’ve only increased the odds against us.
27
108396
3879
és azóta csak fokoztuk a minket fenyegető veszélyek számát.
01:52
It’s profoundly difficult to estimate the odds
28
112900
2628
Meglehetősen nehéz megjósolni,
01:55
of an existential collapse occurring this century.
29
115528
2628
mennyi esélye van századunkban egy egzisztenciális összeomlásnak.
01:58
Very rough guesses put the risk of existential catastrophe
30
118239
3462
Durva becslések szerint a nukleáris tél
02:01
due to nuclear winter and climate change at around 0.1%,
31
121701
4880
vagy a klímaváltozás okozta egzisztenciális katasztrófa esélye 0,1%,
02:08
with the odds of a pandemic causing the same kind of collapse
32
128291
3211
de egy világjárvány ezt az esélyt 3%-ra növeli.
02:11
at a frightening 3%.
33
131502
1960
02:14
Given that any of these disasters could mean the end of life as we know it,
34
134005
4880
Mivel az ilyen katasztrófák ma ismert világunk végét jelenthetik,
02:19
these aren’t exactly small figures,
35
139177
2127
ezek a számok nem jelentéktelenek.
02:21
And it’s possible this century could see the rise of new technologies
36
141304
4004
A technika jelenlegi térhódítása pedig
02:25
that introduce more existential risks.
37
145308
2794
még több egzisztenciális veszélyt jelenthet.
02:29
AI experts have a wide range of estimates regarding
38
149103
2628
Az AI szakértők csak nagy léptékben tudják megjósolni,
02:31
when artificial general intelligence will emerge,
39
151731
2961
mikor jelenik meg az általános mesterséges intelligencia,
02:34
but according to some surveys, many believe it could happen this century.
40
154734
4087
de néhány felmérés szerint már ebben a században.
02:39
Currently, we have relatively narrow forms of artificial intelligence,
41
159655
3837
Jelenleg leszűkített formában használjuk a mesterséges intelligenciát
02:43
which are designed to do specific tasks like play chess or recognize faces.
42
163492
4588
specifikus feladatok elvégzésére,
mint például a sakkozás vagy az arcfelismerés.
02:49
Even narrow AIs that do creative work are limited to their singular specialty.
43
169040
5213
Még a kreatív munkát végző szűk AI is egy bizonyos szakterületre korlátozódik.
02:54
But artificial general intelligences, or AGIs,
44
174503
3629
A mesterséges általános intelligenciák, vagy AGI-k,
02:58
would be able to adapt to and perform any number of tasks,
45
178132
3837
képesek lennének bármilyen feladathoz alkalmazkodni és végrehajtani azt,
03:02
quickly outpacing their human counterparts.
46
182678
2878
gyorsan megelőzve az embereket.
03:06
There are a huge variety of guesses about what AGI could look like,
47
186849
4088
Számtalan elképzelés létezik arról, hogyan nézhet majd ki az AGI,
03:11
and what it would mean for humanity to share the Earth
48
191646
2836
és mit jelentene az emberiség számára egy másik érző lény jelenléte a Földön.
03:14
with another sentient entity.
49
194482
2127
03:18
AGIs might help us achieve our goals,
50
198653
2544
Talán segítenének bennünket céljaink elérésében,
03:21
they might regard us as inconsequential,
51
201197
2294
talán jelentéktelennek minősítenének minket,
03:23
or, they might see us as an obstacle to swiftly remove.
52
203491
3170
vagy akár akadálynak, amit gyorsan el kell távolítani.
03:26
So in terms of existential risk,
53
206869
2169
Ami az egzisztenciális kockázatot illeti, rendkívül fontos,
03:29
it's imperative the values of this new technology align with our own.
54
209038
4087
hogy az új technika által képviselt értékek összhangban legyenek a mieinkkel.
03:33
This is an incredibly difficult philosophical and engineering challenge
55
213501
3879
Ez rendkívül nehéz filozófiai és mérnöki kihívás,
03:37
that will require a lot of delicate, thoughtful work.
56
217380
3086
amely alapos és átgondolt munkát igényel.
03:40
Yet, even if we succeed, AGI could still lead to another complicated outcome.
57
220967
5213
Ha sikerrel járunk is,
az AGI más bonyolult lehetőségeket is tartogathat számunkra.
03:46
Let’s imagine an AGI emerges with deep respect for human life
58
226847
3796
Képzeljünk el egy olyan AGI-t, amely mély tisztelettel van az ember iránt,
03:50
and a desire to solve all humanity’s troubles.
59
230643
2961
és vágyik arra, hogy megoldja az emberiség problémáit.
03:55
But to avoid becoming misaligned,
60
235231
2169
A zűrzavar elkerülése érdekében azonban úgy fejlesztették ki,
03:57
it's been developed to be incredibly rigid about its beliefs.
61
237400
3628
hogy nézeteit illetően szilárd álláspontja legyen.
04:01
If these machines became the dominant power on Earth,
62
241237
3086
Ha ezek a gépek uralnák a Földet,
04:04
their strict values might become hegemonic,
63
244323
2711
szigorú értékrendjük lenne az irányadó,
04:07
locking humanity into one ideology that would be incredibly resistant to change.
64
247034
5214
mely az emberiséget egy olyan ideológiába zárná,
amit nagyon nehéz lenne megváltoztatni.
04:14
History has taught us that no matter how enlightened
65
254792
2503
A történelemből kiderül:
bármilyen felvilágosultnak tartja magát egy civilizáció,
04:17
a civilization thinks they are,
66
257295
1793
04:19
they are rarely up to the moral standards of later generations.
67
259088
3795
ritkán képes megfelelni az elkövetkező generációk erkölcsi normáinak.
04:23
And this kind of value lock in could permanently distort or constrain
68
263009
4629
Ez a fajta értékzárolás véglegesen torzíthatná
04:27
humanity’s moral growth.
69
267638
1919
vagy korlátozhatná az emberiség morális fejlődését.
04:30
There's a ton of uncertainty around AGI,
70
270016
2585
Rengeteg a bizonytalanság az AGI körül,
04:32
and it’s profoundly difficult to predict how any existential risks
71
272601
3713
és rendkívül nehéz megjósolni,
hogyan alakulnak az egzisztenciális kockázatok a következő évszázadban.
04:36
will play out over the next century.
72
276314
2002
04:38
It’s also possible that new, more pressing concerns
73
278649
2920
Benne van a pakliban,
hogy új, sürgetőbb problémákkal találjuk szembe magunkat.
04:41
might render these risks moot.
74
281569
2002
04:43
But even if we can't definitively say that ours is the most important century,
75
283904
4713
Még akkor is, ha nem tudjuk biztosan, hogy a mi évszázadunk a legfontosabb,
04:48
it still seems like the decisions we make might have a major impact
76
288617
3754
úgy tűnik, minden döntés, amit hozunk,
nagy hatással lehet az emberiség jövőjére.
04:52
on humanity’s future.
77
292371
1502
04:54
So maybe we should all live like the future depends on us—
78
294415
3211
Talán mindannyian úgy kellene éljünk, mintha a jövő tőlünk függne -
04:57
because actually, it just might.
79
297626
2211
hiszen megtörténhet, hogy ez így is van.
Erről a weboldalról

Ez az oldal olyan YouTube-videókat mutat be, amelyek hasznosak az angol nyelvtanuláshoz. A világ minden tájáról származó, kiváló tanárok által tartott angol leckéket láthatsz. Az egyes videók oldalán megjelenő angol feliratokra duplán kattintva onnan játszhatja le a videót. A feliratok a videó lejátszásával szinkronban gördülnek. Ha bármilyen észrevétele vagy kérése van, kérjük, lépjen kapcsolatba velünk ezen a kapcsolatfelvételi űrlapon.

https://forms.gle/WvT1wiN1qDtmnspy7