The 4 greatest threats to the survival of humanity

485,277 views ・ 2022-07-19

TED-Ed


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Miranda Almeida Revisor: Daniel García Romero
00:10
In January of 1995, Russia detected a nuclear missile headed its way.
0
10840
5964
En enero de 1995, Rusia detectó un misil nuclear en su dirección.
00:16
The alert went all the way to the president,
1
16804
2836
La señal de alarma llegó hasta el presidente,
00:19
who was deciding whether to strike back
2
19640
2962
que se estaba planteando contraatacar,
00:22
when another system contradicted the initial warning.
3
22602
3378
hasta que otro radar contradijo la alarma inicial.
00:26
What they thought was the first missile in a massive attack
4
26355
3796
Lo que se pensó era el primer misil de un ataque masivo
00:30
was actually a research rocket studying the Northern Lights.
5
30151
4338
resultó ser una sonda espacial que estudiaba la aurora boreal.
00:35
This incident happened after the end of the Cold War,
6
35156
3420
El incidente ocurrió tras el fin de la Guerra Fría.
00:38
but was nevertheless one of the closest calls we’ve had
7
38576
3504
Sin embargo, fue una de las veces que más cerca hemos estado
00:42
to igniting a global nuclear war.
8
42080
2961
de iniciar una guerra mundial nuclear.
00:45
With the invention of the atomic bomb,
9
45833
2169
Con la creación de la bomba atómica,
00:48
humanity gained the power to destroy itself for the first time in our history.
10
48002
5339
la humanidad ganó el poder de autodestruirse por primera vez.
00:53
Since then, our existential risk—
11
53341
3086
Desde entonces, la amenaza existencial,
00:56
risk of either extinction
12
56427
1835
el riesgo de extinguirse
00:58
or the unrecoverable collapse of human civilization—
13
58262
3379
o de un colapso irrecuperable de la civilización humana,
01:01
has steadily increased.
14
61641
1918
ha aumentado progresivamente.
01:04
It’s well within our power to reduce this risk,
15
64060
2961
Está en nuestras manos reducir tal riesgo,
01:07
but in order to do so,
16
67021
1585
pero para hacerlo,
01:08
we have to understand which of our activities
17
68606
2753
debemos comprender cuáles acciones representan una amenaza existencial
01:11
pose existential threats now, and which might in the future.
18
71359
4504
en el presente y cuáles en un futuro.
01:16
So far, our species has survived 2,000 centuries,
19
76489
4379
Hasta ahora, nuestra especie ha existido durante 2.000 siglos,
01:20
each with some extinction risk from natural causes—
20
80868
3754
cada uno con un riesgo de extinción por causas naturales:
01:24
asteroid impacts, supervolcanoes, and the like.
21
84622
3128
impactos de asteroides, supervolcanes, entre otros.
01:28
Assessing existential risk is an inherently uncertain business
22
88000
4338
Evaluar el riesgo existencial es algo incierto porque,
01:32
because usually when we try to figure out how likely something is,
23
92338
3921
cuando intentamos entender cuál es la probabilidad de un evento,
01:36
we check how often it's happened before.
24
96259
2460
solemos investigar cuántas veces ha sucedido antes.
01:38
But the complete destruction of humanity has never happened before.
25
98719
4255
Pero nunca se ha visto la destrucción total de la humanidad.
01:43
While there’s no perfect method to determine our risk from natural threats,
26
103474
4004
Si bien no hay un método perfecto para saber el riesgo por amenaza natural,
01:47
experts estimate it’s about 1 in 10,000 per century.
27
107478
4922
los expertos estiman que es de 1 en 10.000 por siglo.
01:52
Nuclear weapons were our first addition to that baseline.
28
112692
3503
Las armas nucleares fueron nuestra primera contribución a esa base.
01:56
While there are many risks associated with nuclear weapons,
29
116612
3170
Aunque existen varios riesgos relacionados con las armas nucleares,
01:59
the existential risk comes from the possibility
30
119782
3087
el riesgo existencial proviene de la posibilidad
02:02
of a global nuclear war that leads to a nuclear winter,
31
122869
4379
de una guerra mundial nuclear que resulte en un invierno nuclear,
02:07
where soot from burning cities blocks out the sun for years,
32
127248
4171
donde el hollín de las ciudades en llamas bloquee el sol durante años,
02:11
causing the crops that humanity depends on to fail.
33
131419
3253
causando la pérdida de cultivos de los que depende la humanidad.
02:15
We haven't had a nuclear war yet,
34
135339
2253
Aún no hemos tenido una guerra nuclear
02:17
but our track record is too short to tell if they’re inherently unlikely
35
137592
4421
y nuestro historial no es suficiente para saber si son poco probables
02:22
or we’ve simply been lucky.
36
142013
1710
o si solo hemos tenido suerte.
02:24
We also can’t say for sure
37
144307
1459
Tampoco podemos estar seguros
02:25
whether a global nuclear war would cause a nuclear winter so severe
38
145766
4713
de si una guerra nuclear mundial causaría un invierno nuclear tan severo
02:30
it would pose an existential threat to humanity.
39
150479
2712
que sería una amenaza existencial para la humanidad.
02:33
The next major addition to our existential risk was climate change.
40
153858
5047
Otra contribución al riesgo existencial fue el calentamiento global.
02:39
Like nuclear war, climate change could result
41
159322
2794
Como una guerra nuclear, el calentamiento global podría causar
02:42
in a lot of terrible scenarios that we should be working hard to avoid,
42
162116
4880
terribles escenarios que deberíamos intentar evitar,
02:46
but that would stop short of causing extinction or unrecoverable collapse.
43
166996
4713
pero que nos acercarían a la extinción o a un colapso irrecuperable.
02:52
We expect a few degrees Celsius of warming,
44
172043
2794
Esperamos el aumento de unos cuantos grados Celsius,
02:54
but can’t yet completely rule out 6 or even 10 degrees,
45
174837
4171
pero no podemos descartar que sean 6 o incluso 10 grados,
02:59
which would cause a calamity of possibly unprecedented proportions.
46
179008
4338
lo que causaría una calamidad de proporciones sin precedentes.
03:03
Even in this worst-case scenario,
47
183596
2127
Incluso en el peor de los casos,
03:05
it’s not clear whether warming would pose a direct existential risk,
48
185723
4046
no está claro si el calentamiento significaría una amenaza directa,
03:09
but the disruption it would cause would likely make us more vulnerable
49
189769
3378
pero tal disrupción invariablemente nos dejaría más vulnerables
03:13
to other existential risks.
50
193147
2002
a otros riesgos existenciales.
03:15
The greatest risks may come from technologies that are still emerging.
51
195566
4546
Los riesgos más grandes quizás provengan de las tecnologías emergentes.
03:20
Take engineered pandemics.
52
200112
2294
Por ejemplo, las pandemias fabricadas.
03:22
The biggest catastrophes in human history have been from pandemics.
53
202406
4547
Las catástrofes más grandes en la historia son resultado de pandemias.
03:27
And biotechnology is enabling us to modify and create germs
54
207203
3670
La biotecnología nos permite modificar y crear gérmenes
03:30
that could be much more deadly than naturally occurring ones.
55
210873
3462
que podrían ser mucho más mortales que los que ocurren naturalmente.
03:34
Such germs could cause pandemics through biowarfare and research accidents.
56
214752
4588
Podrían desatar pandemias a través de una guerra biológica o un accidente.
03:39
Decreased costs of genome sequencing and modification,
57
219340
3211
La reducción del costo de la secuenciación y modificación del genoma,
03:42
along with increased availability of potentially dangerous information
58
222551
3921
junto con la creciente disponibilidad de información peligrosa,
03:46
like the published genomes of deadly viruses,
59
226472
2544
como la publicación de genomas de virus letales,
03:49
also increase the number of people and groups
60
229016
2711
también incrementan el número de personas y grupos
03:51
who could potentially create such pathogens.
61
231727
2920
que podrían crear tales patógenos.
03:55
Another concern is unaligned AI.
62
235564
2878
Otra preocupación es la IA sin afiliaciones.
03:58
Most AI researchers think this will be the century
63
238442
2586
Muchos investigadores creen que este será el siglo
04:01
where we develop artificial intelligence that surpasses human abilities
64
241028
4338
en el que creemos inteligencia artificial que supere a los humanos
04:05
across the board.
65
245366
1293
en todas sus habilidades.
04:06
If we cede this advantage, we place our future in the hands
66
246659
4129
Si concedemos esta ventaja, ponemos nuestro futuro en las manos
04:10
of the systems we create.
67
250788
2002
de los sistemas que creamos.
04:12
Even if created solely with humanity’s best interests in mind,
68
252790
3712
Incluso si se crean con el beneficio de la humanidad en mente,
04:16
superintelligent AI could pose an existential risk
69
256502
3504
la IA superinteligente podría implicar un riesgo existencial
04:20
if it isn’t perfectly aligned with human values—
70
260006
3420
si no se apega perfectamente a los valores humanos,
04:23
a task scientists are finding extremely difficult.
71
263426
3503
Una tarea que los científicos consideran muy difícil de lograr.
04:27
Based on what we know at this point,
72
267346
2044
Con base en lo que sabemos hasta ahora,
04:29
some experts estimate the anthropogenic existential risk
73
269390
3837
algunos expertos estiman que el riesgo existencial antropogénico
04:33
is more than 100 times higher than the background rate of natural risk.
74
273227
4797
es más de 100 veces superior a la tasa de riesgo natural.
04:38
But these odds depend heavily on human choices.
75
278482
4004
Pero estas probabilidades dependen ampliamente de las decisiones humanas,
04:42
Because most of the risk is from human action, and it’s within human control.
76
282486
5422
porque la mayoría del riesgo se debe a los humanos y está dentro de su control.
04:47
If we treat safeguarding humanity's future as the defining issue of our time,
77
287908
4755
Si la protección de nuestro futuro se vuelve el tema principal del presente,
04:52
we can reduce this risk.
78
292663
2127
podemos reducir tal riesgo.
04:55
Whether humanity fulfils its potential—
79
295082
2836
Que la humanidad alcance su potencial,
04:57
or not—
80
297918
1168
o no,
05:00
is in our hands.
81
300129
1793
está en nuestras manos.
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7