The 4 greatest threats to the survival of humanity

500,951 views ・ 2022-07-19

TED-Ed


A videó lejátszásához kattintson duplán az alábbi angol feliratokra.

Fordító: Evelin Baji Lektor: Zsuzsanna Lőrincz
00:10
In January of 1995, Russia detected a nuclear missile headed its way.
0
10840
5964
1995 januárjában Oroszország észlelte egy nukleáris rakéta közeledését.
00:16
The alert went all the way to the president,
1
16804
2836
A riasztás eljutott egészen az elnökig,
00:19
who was deciding whether to strike back
2
19640
2962
akinek el kellett döntenie, hogy visszavágjon-e,
00:22
when another system contradicted the initial warning.
3
22602
3378
annak ellenére, hogy egy másik rendszer nem riasztott.
00:26
What they thought was the first missile in a massive attack
4
26355
3796
Amit egy nagy támadás első rakétájának véltek,
00:30
was actually a research rocket studying the Northern Lights.
5
30151
4338
valójában egy kutatási rakéta volt, amely az északi fényt vizsgálta.
00:35
This incident happened after the end of the Cold War,
6
35156
3420
Az incidens a hidegháború vége után történt,
00:38
but was nevertheless one of the closest calls we’ve had
7
38576
3504
de akkor álltunk a legközelebb
00:42
to igniting a global nuclear war.
8
42080
2961
egy globális nukleáris háború kirobbantásához.
00:45
With the invention of the atomic bomb,
9
45833
2169
Az atombomba feltalálásával
00:48
humanity gained the power to destroy itself for the first time in our history.
10
48002
5339
az emberiség megszerezte önmaga elpusztításának képességét.
00:53
Since then, our existential risk—
11
53341
3086
Azóta az egzisztenciális kockázat,
00:56
risk of either extinction
12
56427
1835
ami a teljes kihalást
00:58
or the unrecoverable collapse of human civilization—
13
58262
3379
vagy az emberi civilizáció helyrehozhatatlan végét is jelentheti,
01:01
has steadily increased.
14
61641
1918
fokozatosan nőtt.
01:04
It’s well within our power to reduce this risk,
15
64060
2961
Tudjuk csökkenteni ezt a kockázatot,
01:07
but in order to do so,
16
67021
1585
de ennek érdekében
01:08
we have to understand which of our activities
17
68606
2753
meg kell értenünk,
01:11
pose existential threats now, and which might in the future.
18
71359
4504
mi jelent most fenyegetést, és mi lesz a jövőben.
01:16
So far, our species has survived 2,000 centuries,
19
76489
4379
Eddig a fajunk túlélt kétezer évszázadot,
01:20
each with some extinction risk from natural causes—
20
80868
3754
és mindegyiknek megvolt a maga kockázata, ami természetes okokból eredt:
01:24
asteroid impacts, supervolcanoes, and the like.
21
84622
3128
például kisbolygó-becsapódások vagy szupervulkánok.
01:28
Assessing existential risk is an inherently uncertain business
22
88000
4338
Az egzisztenciális kockázat felmérése bizonytalan,
01:32
because usually when we try to figure out how likely something is,
23
92338
3921
mert amikor próbálunk rájönni, hogy mennyire valószínű valami,
01:36
we check how often it's happened before.
24
96259
2460
megnézzük, milyen gyakran következett be korábban.
01:38
But the complete destruction of humanity has never happened before.
25
98719
4255
Azonban az emberiség teljes kipusztulására még nem volt példa.
01:43
While there’s no perfect method to determine our risk from natural threats,
26
103474
4004
Bár nincs tökéletes módszer a természeti fenyegetések kockázatának kiszámítására,
01:47
experts estimate it’s about 1 in 10,000 per century.
27
107478
4922
a szakértők szerint nagyjából 1 a 10 ezerhez az esélye évszázadonként.
01:52
Nuclear weapons were our first addition to that baseline.
28
112692
3503
A nukleáris fegyverek voltak a kiindulópont.
01:56
While there are many risks associated with nuclear weapons,
29
116612
3170
Bár a nukleáris fegyverekkel is jár veszély,
01:59
the existential risk comes from the possibility
30
119782
3087
az egzisztenciális kockázatot az jelenti,
02:02
of a global nuclear war that leads to a nuclear winter,
31
122869
4379
hogy egy globális nukleáris háború nukleáris télhez vezethet,
02:07
where soot from burning cities blocks out the sun for years,
32
127248
4171
amely során a városok égése okozta korom évekig eltakarja a napot,
02:11
causing the crops that humanity depends on to fail.
33
131419
3253
így az élethez szükséges termények kipusztulnak.
02:15
We haven't had a nuclear war yet,
34
135339
2253
Eddig soha nem történt nukleáris háború,
02:17
but our track record is too short to tell if they’re inherently unlikely
35
137592
4421
viszont túl rövid a történelmünk, hogy megmondjuk, ez valószínűtlen-e,
02:22
or we’ve simply been lucky.
36
142013
1710
vagy csak szerencsések vagyunk.
02:24
We also can’t say for sure
37
144307
1459
Azt sem tudhatjuk biztosra,
02:25
whether a global nuclear war would cause a nuclear winter so severe
38
145766
4713
hogy egy nukleáris világháború olyan nukleáris telet okozna,
02:30
it would pose an existential threat to humanity.
39
150479
2712
ami veszélyes lenne az emberiségre.
02:33
The next major addition to our existential risk was climate change.
40
153858
5047
A következő nagy egzisztenciális kockázat a klímaváltozás.
02:39
Like nuclear war, climate change could result
41
159322
2794
Ahogyan a nukleáris háború, a klímaváltozás is
02:42
in a lot of terrible scenarios that we should be working hard to avoid,
42
162116
4880
sok szörnyű következménnyel járhat, amiket jobb lenne elkerülnünk,
02:46
but that would stop short of causing extinction or unrecoverable collapse.
43
166996
4713
hogy ne okozannak teljes, helyrehozhatatlan kipusztulást.
02:52
We expect a few degrees Celsius of warming,
44
172043
2794
Pár Celsius-fok melegedésre számítunk,
02:54
but can’t yet completely rule out 6 or even 10 degrees,
45
174837
4171
de a 6-10 fokos növekedést sem zárhatjuk ki,
02:59
which would cause a calamity of possibly unprecedented proportions.
46
179008
4338
ami példátlan következményekkel járna.
03:03
Even in this worst-case scenario,
47
183596
2127
A legrosszabb esetben sem egyértelmű,
03:05
it’s not clear whether warming would pose a direct existential risk,
48
185723
4046
hogy a felmelegedés közvetlen veszélyt jelentene-e,
03:09
but the disruption it would cause would likely make us more vulnerable
49
189769
3378
de a klímaváltozás okozta zavarok sebezhetőbbé tennének minket
03:13
to other existential risks.
50
193147
2002
más fenyegetésekkel szemben.
03:15
The greatest risks may come from technologies that are still emerging.
51
195566
4546
A legnagyobb veszélyt a fejlődő technológiák jelentik.
03:20
Take engineered pandemics.
52
200112
2294
Vegyük a mesterséges világjárványokat!
03:22
The biggest catastrophes in human history have been from pandemics.
53
202406
4547
A világjárványok okozták az emberiség legnagyobb katasztrófáit.
03:27
And biotechnology is enabling us to modify and create germs
54
207203
3670
A biotechnológia segítségével kórokozókat módosítanak és hoznak létre,
03:30
that could be much more deadly than naturally occurring ones.
55
210873
3462
amelyek sokkal halálosabbak lehetnek, mint a természetben előfordulók.
03:34
Such germs could cause pandemics through biowarfare and research accidents.
56
214752
4588
Az ilyen kórokozók biofegyverkezés és kutatás során járványokat okozhatnak.
03:39
Decreased costs of genome sequencing and modification,
57
219340
3211
A génmódosítás alacsony költsége
03:42
along with increased availability of potentially dangerous information
58
222551
3921
és a potenciálisan veszélyes információk,
03:46
like the published genomes of deadly viruses,
59
226472
2544
pl. a vírusok genomjának könnyű elérhetősége miatt
03:49
also increase the number of people and groups
60
229016
2711
egyre több ember és csoport
03:51
who could potentially create such pathogens.
61
231727
2920
tud ilyen kórokozókat létrehozni.
03:55
Another concern is unaligned AI.
62
235564
2878
A mesterséges intelligencia is probléma.
03:58
Most AI researchers think this will be the century
63
238442
2586
A legtöbb szakértő úgy gondolja, ebben az évszázadban jön létre
04:01
where we develop artificial intelligence that surpasses human abilities
64
241028
4338
az emberi képességeket felülmúló mesterséges intelligencia
04:05
across the board.
65
245366
1293
valamennyi területen.
04:06
If we cede this advantage, we place our future in the hands
66
246659
4129
Ha ez megtörténik, a jövőnket az általunk készített rendszerek
04:10
of the systems we create.
67
250788
2002
kezébe tesszük.
04:12
Even if created solely with humanity’s best interests in mind,
68
252790
3712
Még ha az emberiség érdekeit szem előtt tartva is jön létre,
04:16
superintelligent AI could pose an existential risk
69
256502
3504
a mesterséges intelligencia veszélyt jelenthet,
04:20
if it isn’t perfectly aligned with human values—
70
260006
3420
ha értékei nem egyeznek teljesen az emberekével.
04:23
a task scientists are finding extremely difficult.
71
263426
3503
Ezt pedig a tudósok nagyon nehéznek találják.
04:27
Based on what we know at this point,
72
267346
2044
Az eddig információk alapján
04:29
some experts estimate the anthropogenic existential risk
73
269390
3837
a kutatók szerint a mesterséges egzisztenciális veszély
04:33
is more than 100 times higher than the background rate of natural risk.
74
273227
4797
100-szor valószínűbb, mint a természetes.
04:38
But these odds depend heavily on human choices.
75
278482
4004
De ezek az esélyek erősen függnek az emberek döntéseitől.
04:42
Because most of the risk is from human action, and it’s within human control.
76
282486
5422
Hiszen a legtöbb kockázat az emberek cselekedeteiből fakad.
04:47
If we treat safeguarding humanity's future as the defining issue of our time,
77
287908
4755
Ha komolyan vesszük az emberiség jövőjének védelmét,
04:52
we can reduce this risk.
78
292663
2127
ez a kockázat csökkenhet.
04:55
Whether humanity fulfils its potential—
79
295082
2836
Az, hogy az emberiség kihozza-e magából a legtöbbet
04:57
or not—
80
297918
1168
vagy nem,
05:00
is in our hands.
81
300129
1793
csak rajtunk múlik.
Erről a weboldalról

Ez az oldal olyan YouTube-videókat mutat be, amelyek hasznosak az angol nyelvtanuláshoz. A világ minden tájáról származó, kiváló tanárok által tartott angol leckéket láthatsz. Az egyes videók oldalán megjelenő angol feliratokra duplán kattintva onnan játszhatja le a videót. A feliratok a videó lejátszásával szinkronban gördülnek. Ha bármilyen észrevétele vagy kérése van, kérjük, lépjen kapcsolatba velünk ezen a kapcsolatfelvételi űrlapon.

https://forms.gle/WvT1wiN1qDtmnspy7