The 4 greatest threats to the survival of humanity

485,277 views ・ 2022-07-19

TED-Ed


Vă rugăm să faceți dublu clic pe subtitrările în limba engleză de mai jos pentru a reda videoclipul.

Traducător: Ioana Dobre Corector: Cristina Nicolae
00:10
In January of 1995, Russia detected a nuclear missile headed its way.
0
10840
5964
În ianuarie 1995, Rusia a detectat o rachetă nucleară ce se îndrepta spre ei.
00:16
The alert went all the way to the president,
1
16804
2836
Alerta a ajuns până la președinte,
00:19
who was deciding whether to strike back
2
19640
2962
care se gândea dacă să riposteze,
00:22
when another system contradicted the initial warning.
3
22602
3378
când un alt sistem a contrazis avertismentul inițial.
00:26
What they thought was the first missile in a massive attack
4
26355
3796
Ceea ce au crezut că este prima rachetă dintr-un atac masiv
00:30
was actually a research rocket studying the Northern Lights.
5
30151
4338
s-a dovedit a fi de fapt o rachetă de cercetare care studia aurora boreală.
Incidentul a avut loc după ce Războiul Rece s-a încheiat,
00:35
This incident happened after the end of the Cold War,
6
35156
3420
00:38
but was nevertheless one of the closest calls we’ve had
7
38576
3504
dar a fost una dintre situațiile în care ne-am aflat cel mai aproape
00:42
to igniting a global nuclear war.
8
42080
2961
de izbucnirea unui război nuclear mondial.
00:45
With the invention of the atomic bomb,
9
45833
2169
Odată cu inventarea bombei atomice,
00:48
humanity gained the power to destroy itself for the first time in our history.
10
48002
5339
omenirea a dobândit puterea
de a se autodistruge pentru prima dată în istorie.
00:53
Since then, our existential risk—
11
53341
3086
De atunci, riscul nostru existențial —
00:56
risk of either extinction
12
56427
1835
riscul dispariției noastre
00:58
or the unrecoverable collapse of human civilization—
13
58262
3379
sau al colapsului irecuperabil al civilizației umane —
01:01
has steadily increased.
14
61641
1918
a crescut continuu.
01:04
It’s well within our power to reduce this risk,
15
64060
2961
Stă în puterea noastră să reducem acest risc,
01:07
but in order to do so,
16
67021
1585
dar pentru a face acest lucru,
01:08
we have to understand which of our activities
17
68606
2753
trebuie să înțelegem care dintre activitățile noastre
01:11
pose existential threats now, and which might in the future.
18
71359
4504
reprezintă riscuri existențiale acum, și care ar putea reprezenta în viitor.
01:16
So far, our species has survived 2,000 centuries,
19
76489
4379
Până acum, specia noastră a supraviețuit 2000 de secole,
01:20
each with some extinction risk from natural causes—
20
80868
3754
toate având un grad de risc de dispariție din cauze naturale —
01:24
asteroid impacts, supervolcanoes, and the like.
21
84622
3128
impacturi de asteroizi, super vulcani și alte asemenea.
Evaluarea riscului existențial e inerent ceva nesigur
01:28
Assessing existential risk is an inherently uncertain business
22
88000
4338
01:32
because usually when we try to figure out how likely something is,
23
92338
3921
deoarece, de obicei, când încercăm să ne dăm seama cât de probabil e ceva,
01:36
we check how often it's happened before.
24
96259
2460
verificăm cât de des s-a întâmplat înainte.
01:38
But the complete destruction of humanity has never happened before.
25
98719
4255
Dar distrugerea completă a omenirii nu s-a mai întâmplat înainte.
01:43
While there’s no perfect method to determine our risk from natural threats,
26
103474
4004
Deși nu există o metodă perfectă de a determina riscul din cauze naturale,
01:47
experts estimate it’s about 1 in 10,000 per century.
27
107478
4922
experții estimează că e în jur de 1 din 10,000 per secol.
01:52
Nuclear weapons were our first addition to that baseline.
28
112692
3503
Armele nucleare au fost primele contribuții la acea bază de referință.
01:56
While there are many risks associated with nuclear weapons,
29
116612
3170
Deși există multe riscuri asociate armelor nucleare,
01:59
the existential risk comes from the possibility
30
119782
3087
riscul nostru existențial vine din posibilitatea
02:02
of a global nuclear war that leads to a nuclear winter,
31
122869
4379
unui război nuclear mondial care va duce la o iarnă nucleară,
02:07
where soot from burning cities blocks out the sun for years,
32
127248
4171
în care cenușa din orașele în flăcări va bloca soarele ani de zile,
02:11
causing the crops that humanity depends on to fail.
33
131419
3253
nimicind recoltele de care omenirea depinde.
Nu am avut un război nuclear încă,
02:15
We haven't had a nuclear war yet,
34
135339
2253
02:17
but our track record is too short to tell if they’re inherently unlikely
35
137592
4421
dar istoria noastră e prea scurtă pentru a prezice
dacă acestea sunt inerent improbabile sau dacă am fost doar norocoși.
02:22
or we’ve simply been lucky.
36
142013
1710
02:24
We also can’t say for sure
37
144307
1459
De asemenea, nu putem ști sigur
02:25
whether a global nuclear war would cause a nuclear winter so severe
38
145766
4713
dacă un război nuclear mondial va cauza o iarnă nucleară atât de severă
02:30
it would pose an existential threat to humanity.
39
150479
2712
încât va fi o amenințare existențială pentru omenire.
02:33
The next major addition to our existential risk was climate change.
40
153858
5047
Următoarea contribuție majoră la riscul nostru existențial
a fost schimbarea climatică.
02:39
Like nuclear war, climate change could result
41
159322
2794
La fel ca războiul nuclear, aceasta ar putea avea ca rezultat
02:42
in a lot of terrible scenarios that we should be working hard to avoid,
42
162116
4880
multe scenarii groaznice pe care ar trebui să muncim din greu să le evităm
02:46
but that would stop short of causing extinction or unrecoverable collapse.
43
166996
4713
pentru a se opri chiar înainte de a cauza dispariție sau colaps irecuperabil.
02:52
We expect a few degrees Celsius of warming,
44
172043
2794
Ne așteptăm la o încălzire de câteva grade Celsius,
02:54
but can’t yet completely rule out 6 or even 10 degrees,
45
174837
4171
dar nu putem încă exclude complet 6 sau chiar 10 grade,
02:59
which would cause a calamity of possibly unprecedented proportions.
46
179008
4338
ceea ce ar cauza o calamitate de proporții nemaiîntâlnite.
03:03
Even in this worst-case scenario,
47
183596
2127
Chiar și în cel mai rău caz,
03:05
it’s not clear whether warming would pose a direct existential risk,
48
185723
4046
nu e clar dacă încălzirea ar reprezenta un risc existențial direct,
03:09
but the disruption it would cause would likely make us more vulnerable
49
189769
3378
dar perturbarea pe care ar cauza-o probabil că ne-ar face mai vulnerabili
03:13
to other existential risks.
50
193147
2002
la alte riscuri existențiale.
03:15
The greatest risks may come from technologies that are still emerging.
51
195566
4546
Cel mai mare risc ar putea veni de la tehnologiile care încă apar.
03:20
Take engineered pandemics.
52
200112
2294
Să luăm ca exemplu pandemiile create artificial.
03:22
The biggest catastrophes in human history have been from pandemics.
53
202406
4547
Cele mai mari catastrofe din istoria omenirii au fost cauzate de pandemii.
03:27
And biotechnology is enabling us to modify and create germs
54
207203
3670
Iar biotehnologia ne permite să modificăm și să creăm germeni
03:30
that could be much more deadly than naturally occurring ones.
55
210873
3462
care pot fi mult mai periculoși decât cei naturali.
03:34
Such germs could cause pandemics through biowarfare and research accidents.
56
214752
4588
Astfel de germeni pot cauza pandemii
prin războaie biologice și accidente de laborator.
03:39
Decreased costs of genome sequencing and modification,
57
219340
3211
Costuri reduse de secvențiere și modificare ale genomului
03:42
along with increased availability of potentially dangerous information
58
222551
3921
și disponibilitatea crescută a informaților potențial periculoase,
03:46
like the published genomes of deadly viruses,
59
226472
2544
ca genomurile virușilor mortali din domeniul public,
duc și la creșterea numărului de persoane și de grupuri
03:49
also increase the number of people and groups
60
229016
2711
03:51
who could potentially create such pathogens.
61
231727
2920
care ar putea crea acești patogeni.
03:55
Another concern is unaligned AI.
62
235564
2878
Altă problemă e IA nealiniată.
03:58
Most AI researchers think this will be the century
63
238442
2586
Majoritatea celor care studiază IA cred că acesta va fi secolul
04:01
where we develop artificial intelligence that surpasses human abilities
64
241028
4338
în care vom dezvolta inteligență artificială care va depăși abilități umane
04:05
across the board.
65
245366
1293
la toate nivelurile.
04:06
If we cede this advantage, we place our future in the hands
66
246659
4129
Dacă cedăm acest avantaj, ne punem viitorul în mâinile
04:10
of the systems we create.
67
250788
2002
sistemelor pe care le creăm.
04:12
Even if created solely with humanity’s best interests in mind,
68
252790
3712
Chiar dacă sunt create doar în interesul umanității,
04:16
superintelligent AI could pose an existential risk
69
256502
3504
IA super inteligentă poate reprezenta un risc existențial
04:20
if it isn’t perfectly aligned with human values—
70
260006
3420
dacă nu se aliniază perfect cu valorile umane —
04:23
a task scientists are finding extremely difficult.
71
263426
3503
o sarcină pe care cercetătorii o consideră extrem de dificilă.
04:27
Based on what we know at this point,
72
267346
2044
Din ce știm până acum,
04:29
some experts estimate the anthropogenic existential risk
73
269390
3837
unii experți estimează că riscul existențial antropogenic
04:33
is more than 100 times higher than the background rate of natural risk.
74
273227
4797
e de mai mult de 100 de ori mai mare
decât rata de dispariție de fond din cauze naturale.
04:38
But these odds depend heavily on human choices.
75
278482
4004
Dar acest coeficient depinde foarte mult de alegerile oamenilor.
04:42
Because most of the risk is from human action, and it’s within human control.
76
282486
5422
Pentru că mare parte din risc vine din acțiunea umană, e sub controlul nostru.
04:47
If we treat safeguarding humanity's future as the defining issue of our time,
77
287908
4755
Dacă tratăm protecția viitorului nostru ca problema esențială a timpurilor noastre,
04:52
we can reduce this risk.
78
292663
2127
putem reduce acest risc.
04:55
Whether humanity fulfils its potential—
79
295082
2836
Dacă omenirea își va atinge potențialul
04:57
or not—
80
297918
1168
sau nu
05:00
is in our hands.
81
300129
1793
depinde de noi.
Despre acest site

Acest site vă va prezenta videoclipuri de pe YouTube care sunt utile pentru a învăța limba engleză. Veți vedea lecții de engleză predate de profesori de top din întreaga lume. Faceți dublu clic pe subtitrările în limba engleză afișate pe fiecare pagină video pentru a reda videoclipul de acolo. Subtitrările se derulează în sincron cu redarea videoclipului. Dacă aveți comentarii sau solicitări, vă rugăm să ne contactați folosind acest formular de contact.

https://forms.gle/WvT1wiN1qDtmnspy7