The 4 greatest threats to the survival of humanity

500,951 views ・ 2022-07-19

TED-Ed


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

Traducteur: Cécilia Canal Relecteur: Elisabeth Buffard
00:10
In January of 1995, Russia detected a nuclear missile headed its way.
0
10840
5964
En janvier 1995,
la Russie a détecté un missile nucléaire allant dans sa direction.
00:16
The alert went all the way to the president,
1
16804
2836
L’alerte est remontée jusqu’au président,
00:19
who was deciding whether to strike back
2
19640
2962
qui réfléchissait à une éventuelle contre-attaque
00:22
when another system contradicted the initial warning.
3
22602
3378
lorsqu’un autre système a contredit l’alerte initiale.
00:26
What they thought was the first missile in a massive attack
4
26355
3796
Ce qu’ils pensaient être le premier missile d’une attaque massive
00:30
was actually a research rocket studying the Northern Lights.
5
30151
4338
était en réalité une sonde d’observation qui étudiait les aurores boréales.
00:35
This incident happened after the end of the Cold War,
6
35156
3420
Cet incident a eu lieu après la fin de la guerre froide,
00:38
but was nevertheless one of the closest calls we’ve had
7
38576
3504
mais néanmoins, il s’en est fallu de peu
00:42
to igniting a global nuclear war.
8
42080
2961
pour qu’une guerre nucléaire mondiale éclate.
00:45
With the invention of the atomic bomb,
9
45833
2169
Avec l’invention de la bombe atomique,
00:48
humanity gained the power to destroy itself for the first time in our history.
10
48002
5339
l’humanité a acquis le pouvoir de s’autodétruire
pour la première fois de son histoire.
00:53
Since then, our existential risk—
11
53341
3086
Depuis, la menace pour notre existence,
00:56
risk of either extinction
12
56427
1835
que ce soit l’extinction
00:58
or the unrecoverable collapse of human civilization—
13
58262
3379
ou l’effondrement irréversible de la civilisation humaine,
01:01
has steadily increased.
14
61641
1918
ne cesse d’augmenter.
01:04
It’s well within our power to reduce this risk,
15
64060
2961
Il est largement en notre pouvoir de réduire ce risque,
01:07
but in order to do so,
16
67021
1585
mais pour ce faire,
01:08
we have to understand which of our activities
17
68606
2753
nous devons comprendre parmi nos activités,
01:11
pose existential threats now, and which might in the future.
18
71359
4504
lesquelles représentent une menace immédiate, et celles qui le deviendront.
01:16
So far, our species has survived 2,000 centuries,
19
76489
4379
Jusqu’ici, notre espèce a survécu 2 000 siècles,
01:20
each with some extinction risk from natural causes—
20
80868
3754
et dans chaque siècle, à des risques d’extinctions naturelles :
01:24
asteroid impacts, supervolcanoes, and the like.
21
84622
3128
impacts d’astéroïdes, supervolcans, etc.
01:28
Assessing existential risk is an inherently uncertain business
22
88000
4338
Estimer un risque existentiel est fondamentalement hasardeux,
01:32
because usually when we try to figure out how likely something is,
23
92338
3921
car lorsque nous cherchons à déterminer la probabilité de quelque chose,
01:36
we check how often it's happened before.
24
96259
2460
nous vérifions combien de fois cela a déjà eu lieu.
01:38
But the complete destruction of humanity has never happened before.
25
98719
4255
Mais la destruction totale de l’humanité n’a jamais eu lieu auparavant.
01:43
While there’s no perfect method to determine our risk from natural threats,
26
103474
4004
Il n’existe pas de méthode parfaite pour établir le risque de menaces naturelles,
01:47
experts estimate it’s about 1 in 10,000 per century.
27
107478
4922
mais les experts l’estiment à environ 1 sur 10000 par siècle.
01:52
Nuclear weapons were our first addition to that baseline.
28
112692
3503
Les armes nucléaires ont été le premier ajout à ce point de référence.
01:56
While there are many risks associated with nuclear weapons,
29
116612
3170
Bien qu’il existe de nombreux risques liés aux armes nucléaires,
01:59
the existential risk comes from the possibility
30
119782
3087
la menace pour notre existence provient de la possibilité
02:02
of a global nuclear war that leads to a nuclear winter,
31
122869
4379
d’une guerre nucléaire mondiale entraînant un hiver nucléaire,
02:07
where soot from burning cities blocks out the sun for years,
32
127248
4171
où la suie des villes en feu bloquerait le soleil pendant des années,
02:11
causing the crops that humanity depends on to fail.
33
131419
3253
ce qui provoquerait la perte des récoltes dont l’humanité dépend.
02:15
We haven't had a nuclear war yet,
34
135339
2253
Nous n’avons pas encore eu de guerre nucléaire,
02:17
but our track record is too short to tell if they’re inherently unlikely
35
137592
4421
mais notre histoire est trop courte pour dire si c’est peu probable par nature
02:22
or we’ve simply been lucky.
36
142013
1710
ou si nous avons simplement eu de la chance.
02:24
We also can’t say for sure
37
144307
1459
Nous ne sommes pas non plus sûrs
02:25
whether a global nuclear war would cause a nuclear winter so severe
38
145766
4713
qu’une guerre nucléaire mondiale entraînerait un hiver nucléaire si grave
02:30
it would pose an existential threat to humanity.
39
150479
2712
qu’il constituerait une menace existentielle pour l’humanité.
02:33
The next major addition to our existential risk was climate change.
40
153858
5047
Le deuxième ajout important à cette menace a été le changement climatique.
02:39
Like nuclear war, climate change could result
41
159322
2794
Comme la guerre nucléaire,
le changement climatique pourrait créer de nombreux scénarios effrayants
02:42
in a lot of terrible scenarios that we should be working hard to avoid,
42
162116
4880
que nous devrions chercher à éviter à tout prix,
02:46
but that would stop short of causing extinction or unrecoverable collapse.
43
166996
4713
mais qui n’iraient pas jusqu’à provoquer une extinction
ou un effondrement irréversible.
02:52
We expect a few degrees Celsius of warming,
44
172043
2794
Nous nous attendons à un réchauffement de quelques degrés,
02:54
but can’t yet completely rule out 6 or even 10 degrees,
45
174837
4171
mais nous ne pouvons pas exclure une augmentation de 6, voire 10 degrés,
02:59
which would cause a calamity of possibly unprecedented proportions.
46
179008
4338
ce qui entraînerait un désastre d’une ampleur probablement sans précédent.
03:03
Even in this worst-case scenario,
47
183596
2127
Même dans le pire des cas,
03:05
it’s not clear whether warming would pose a direct existential risk,
48
185723
4046
il n’est pas certain que le réchauffement présente un risque existentiel direct,
03:09
but the disruption it would cause would likely make us more vulnerable
49
189769
3378
mais le bouleversement provoqué
nous rendrait sûrement plus vulnérables à d’autres risques existentiels.
03:13
to other existential risks.
50
193147
2002
03:15
The greatest risks may come from technologies that are still emerging.
51
195566
4546
Il se peut que le plus grand danger vienne des technologies émergentes.
03:20
Take engineered pandemics.
52
200112
2294
Prenons les pandémies créées par l’homme.
03:22
The biggest catastrophes in human history have been from pandemics.
53
202406
4547
Les plus grandes catastrophes de l’histoire humaine
résultent de pandémies.
03:27
And biotechnology is enabling us to modify and create germs
54
207203
3670
Et la biotechnologie nous permet de modifier et de créer des microbes
03:30
that could be much more deadly than naturally occurring ones.
55
210873
3462
qui pourraient être bien plus mortels que ceux d’origine naturelle.
03:34
Such germs could cause pandemics through biowarfare and research accidents.
56
214752
4588
Ils pourraient provoquer des pandémies par des guerres biologiques
et des accidents de laboratoire.
03:39
Decreased costs of genome sequencing and modification,
57
219340
3211
La diminution des coûts du séquençage et de la modification du génome,
03:42
along with increased availability of potentially dangerous information
58
222551
3921
ainsi que l’accès accru à des informations potentiellement dangereuses
03:46
like the published genomes of deadly viruses,
59
226472
2544
comme la publication des génomes de virus mortel,
03:49
also increase the number of people and groups
60
229016
2711
augmentent également le nombre de personnes et de groupes
03:51
who could potentially create such pathogens.
61
231727
2920
qui pourraient potentiellement créer de tels pathogènes.
03:55
Another concern is unaligned AI.
62
235564
2878
Une autre inquiétude est l’IA non alignée.
03:58
Most AI researchers think this will be the century
63
238442
2586
La plupart des chercheurs en IA pensent que ce siècle
verra le développement d’une intelligence artificielle
04:01
where we develop artificial intelligence that surpasses human abilities
64
241028
4338
qui surpasse les aptitudes humaines à tous les niveaux.
04:05
across the board.
65
245366
1293
04:06
If we cede this advantage, we place our future in the hands
66
246659
4129
Si nous cédons à cet avantage, nous mettons notre avenir entre les mains
04:10
of the systems we create.
67
250788
2002
des systèmes que nous créons.
04:12
Even if created solely with humanity’s best interests in mind,
68
252790
3712
Même créée uniquement dans l’intérêt de l’humanité,
04:16
superintelligent AI could pose an existential risk
69
256502
3504
une IA superintelligente pourrait représenter une menace existentielle
04:20
if it isn’t perfectly aligned with human values—
70
260006
3420
si elle n’est pas parfaitement alignée sur nos valeurs humaines,
04:23
a task scientists are finding extremely difficult.
71
263426
3503
ce que les scientifiques trouvent extrêmement difficile.
04:27
Based on what we know at this point,
72
267346
2044
Sur ce que nous savons à ce stade,
04:29
some experts estimate the anthropogenic existential risk
73
269390
3837
des experts estiment que le risque existentiel anthropique
04:33
is more than 100 times higher than the background rate of natural risk.
74
273227
4797
est plus de 100 fois plus important que le taux de risque naturel.
04:38
But these odds depend heavily on human choices.
75
278482
4004
Mais cette probabilité dépend fortement des choix humains.
04:42
Because most of the risk is from human action, and it’s within human control.
76
282486
5422
Car la plupart des risques viennent de l’action des hommes,
et sont sous leur contrôle.
04:47
If we treat safeguarding humanity's future as the defining issue of our time,
77
287908
4755
Si la protection de l’avenir de l’humanité est traitée
comme le problème majeur de notre temps,
04:52
we can reduce this risk.
78
292663
2127
nous pouvons réduire ce risque.
04:55
Whether humanity fulfils its potential—
79
295082
2836
Que l’humanité atteigne son plein potentiel...
04:57
or not—
80
297918
1168
ou pas...
05:00
is in our hands.
81
300129
1793
ne dépend que de nous.
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7