The 4 greatest threats to the survival of humanity

500,951 views ・ 2022-07-19

TED-Ed


Por favor, clique duas vezes nas legendas em inglês abaixo para reproduzir o vídeo.

Tradutor: Gabriel Barros Revisor: Elisa Santos
00:10
In January of 1995, Russia detected a nuclear missile headed its way.
0
10840
5964
Em janeiro de 1995, a Rússia detectou um míssil nuclear indo em sua direção.
00:16
The alert went all the way to the president,
1
16804
2836
O alerta percoreu o caminho inteiro até o presidente,
00:19
who was deciding whether to strike back
2
19640
2962
que estava decidindo se iria retaliar
00:22
when another system contradicted the initial warning.
3
22602
3378
quando outro sistema contrariou o aviso inicial.
O que eles achavam que era o primeiro míssil em um ataque massivo
00:26
What they thought was the first missile in a massive attack
4
26355
3796
00:30
was actually a research rocket studying the Northern Lights.
5
30151
4338
era na verdade um foguete de pesquisa estudando a Aurora Boreal.
Esse incidente aconteceu após o final da Guerra Fria,
00:35
This incident happened after the end of the Cold War,
6
35156
3420
00:38
but was nevertheless one of the closest calls we’ve had
7
38576
3504
mas foi mesmo assim uma das situações mais próximas que já tivemos
00:42
to igniting a global nuclear war.
8
42080
2961
de iniciar uma guerra nuclear global.
00:45
With the invention of the atomic bomb,
9
45833
2169
Com a invenção da bomba atômica,
00:48
humanity gained the power to destroy itself for the first time in our history.
10
48002
5339
a humanidade ganhou o poder de se destruir pela primeira vez em nossa história.
00:53
Since then, our existential risk—
11
53341
3086
Desde então, nosso risco existencial—
00:56
risk of either extinction
12
56427
1835
risco de extinção
00:58
or the unrecoverable collapse of human civilization—
13
58262
3379
ou do colapso irrecuperável da civilização humana—
01:01
has steadily increased.
14
61641
1918
tem aumentado constantemente.
01:04
It’s well within our power to reduce this risk,
15
64060
2961
Está bem dentro de nosso poder diminuir esse risco,
01:07
but in order to do so,
16
67021
1585
mas para fazer isso
01:08
we have to understand which of our activities
17
68606
2753
nós temos que entender quais de nossas atividades
01:11
pose existential threats now, and which might in the future.
18
71359
4504
representam ameaças existenciais agora e possivelmente no futuro.
01:16
So far, our species has survived 2,000 centuries,
19
76489
4379
Até então, nossa espécie sobreviveu 2 mil séculos,
01:20
each with some extinction risk from natural causes—
20
80868
3754
cada um com algum risco de extinção por causas naturais—
01:24
asteroid impacts, supervolcanoes, and the like.
21
84622
3128
impactos de asteroides, supervulcões, entre outras.
01:28
Assessing existential risk is an inherently uncertain business
22
88000
4338
A avaliação de risco existencial é um negócio inerentemente incerto
01:32
because usually when we try to figure out how likely something is,
23
92338
3921
porque normalmente quando nós tentamos descobrir quão provável algo é,
01:36
we check how often it's happened before.
24
96259
2460
nós conferimos quão frequentemente aconteceu antes.
01:38
But the complete destruction of humanity has never happened before.
25
98719
4255
Mas a destruição completa da humanidade nunca aconteceu anteriormente.
01:43
While there’s no perfect method to determine our risk from natural threats,
26
103474
4004
Mesmo que não exista método perfeito para determinar o risco de ameaças naturais,
01:47
experts estimate it’s about 1 in 10,000 per century.
27
107478
4922
especialistas estimam que é cerca de 1 em 10 mil por século.
01:52
Nuclear weapons were our first addition to that baseline.
28
112692
3503
Armas nucleares foram nossa primeira adição a esse patamar.
01:56
While there are many risks associated with nuclear weapons,
29
116612
3170
Embora existam muitos riscos associados com armas nucleares,
01:59
the existential risk comes from the possibility
30
119782
3087
o risco existencial vem da possibilidade
02:02
of a global nuclear war that leads to a nuclear winter,
31
122869
4379
de uma guerra nuclear global que leva à um inverno nuclear,
02:07
where soot from burning cities blocks out the sun for years,
32
127248
4171
onde as cinzas de cidades em chamas bloqueiam o sol por anos,
02:11
causing the crops that humanity depends on to fail.
33
131419
3253
impedindo o crescimento das plantações das quais dependemos.
02:15
We haven't had a nuclear war yet,
34
135339
2253
Nós não tivemos uma guerra nuclear ainda,
02:17
but our track record is too short to tell if they’re inherently unlikely
35
137592
4421
mas nosso histórico é curto para dizer se elas são inerentemente improváveis
02:22
or we’ve simply been lucky.
36
142013
1710
ou se nós só tivemos sorte.
02:24
We also can’t say for sure
37
144307
1459
Nós também não podemos afirmar
02:25
whether a global nuclear war would cause a nuclear winter so severe
38
145766
4713
se uma guerra nuclear global causaria um inverno nuclear tão severo
02:30
it would pose an existential threat to humanity.
39
150479
2712
que iria representar uma ameaça para humanidade.
02:33
The next major addition to our existential risk was climate change.
40
153858
5047
A próxima maior adição para nosso risco existencial foi a mudança climática.
02:39
Like nuclear war, climate change could result
41
159322
2794
Como a guerra nuclear, a mudança climática poderia resultar
02:42
in a lot of terrible scenarios that we should be working hard to avoid,
42
162116
4880
em muitos cenários terríveis que deveríamos estar dando duro para evitar,
02:46
but that would stop short of causing extinction or unrecoverable collapse.
43
166996
4713
mas isso poderia impedir a extinção ou colapso irrecuperável.
02:52
We expect a few degrees Celsius of warming,
44
172043
2794
Nós esperamos um aquecimento de alguns graus Celsius,
02:54
but can’t yet completely rule out 6 or even 10 degrees,
45
174837
4171
mas ainda não podemos desconsiderar 6 ou até mesmo 10 graus,
02:59
which would cause a calamity of possibly unprecedented proportions.
46
179008
4338
que causariam uma calamidade de proporções possivelmente sem precedentes.
03:03
Even in this worst-case scenario,
47
183596
2127
Até mesmo no pior cenário,
03:05
it’s not clear whether warming would pose a direct existential risk,
48
185723
4046
não está claro se o aquecimento iria representar um risco existencial direto,
03:09
but the disruption it would cause would likely make us more vulnerable
49
189769
3378
mas a perturbação que causaria poderia nos deixar mais vulneráveis
03:13
to other existential risks.
50
193147
2002
a outros riscos existenciais.
03:15
The greatest risks may come from technologies that are still emerging.
51
195566
4546
Os maiores riscos podem ainda vir de tecnologias que ainda estão aparecendo.
03:20
Take engineered pandemics.
52
200112
2294
Pandemias projetadas, por exemplo.
03:22
The biggest catastrophes in human history have been from pandemics.
53
202406
4547
As maiores catástrofes na história humana foram por conta de pandemias.
03:27
And biotechnology is enabling us to modify and create germs
54
207203
3670
E a biotecnologia nos está possibilitando a modificar e criar germes
03:30
that could be much more deadly than naturally occurring ones.
55
210873
3462
que poderiam ser muito mais mortais do que os gerados naturalmente.
03:34
Such germs could cause pandemics through biowarfare and research accidents.
56
214752
4588
Tais germes poderiam causar pandemias por bioguerras e acidentes de pesquisa.
03:39
Decreased costs of genome sequencing and modification,
57
219340
3211
Custos diminuídos de sequenciamento e modificação do genoma,
03:42
along with increased availability of potentially dangerous information
58
222551
3921
junto com o aumento da disponibilidade de informação potencialmente perigosa
03:46
like the published genomes of deadly viruses,
59
226472
2544
como os genomas publicados de vírus mortais,
03:49
also increase the number of people and groups
60
229016
2711
também aumenta o número de pessoas e grupos
03:51
who could potentially create such pathogens.
61
231727
2920
que poderiam potencialmente criar tais patógenos.
03:55
Another concern is unaligned AI.
62
235564
2878
Outra preocupação é IA desalinhada.
03:58
Most AI researchers think this will be the century
63
238442
2586
A maioria dos cientistas de IA acham que neste século
04:01
where we develop artificial intelligence that surpasses human abilities
64
241028
4338
desenvolveremos a Inteligência Artificial que ultrapassa as habilidades humanas
04:05
across the board.
65
245366
1293
de maneira geral.
04:06
If we cede this advantage, we place our future in the hands
66
246659
4129
Se nós cedermos essa vantagem, nós colocamos nosso futuro nas mãos
04:10
of the systems we create.
67
250788
2002
dos sistemas que nós criamos.
04:12
Even if created solely with humanity’s best interests in mind,
68
252790
3712
Mesmo se criada somente com os melhores interesses da humanidade em mente,
04:16
superintelligent AI could pose an existential risk
69
256502
3504
a IA superinteligente poderia representar um risco existencial
04:20
if it isn’t perfectly aligned with human values—
70
260006
3420
se não for perfeitamente alinhada com os valores humanos—
04:23
a task scientists are finding extremely difficult.
71
263426
3503
uma tarefa que cientistas estão tendo dificuldade extrema.
04:27
Based on what we know at this point,
72
267346
2044
Baseado no que nós sabemos até este ponto,
04:29
some experts estimate the anthropogenic existential risk
73
269390
3837
alguns especialistas estimam que o risco existencial antropogênico
04:33
is more than 100 times higher than the background rate of natural risk.
74
273227
4797
é mais de 100 vezes maior que a taxa de base do risco natural.
04:38
But these odds depend heavily on human choices.
75
278482
4004
Mas essas chances dependem muito das escolhas humanas.
04:42
Because most of the risk is from human action, and it’s within human control.
76
282486
5422
Porque o maior risco vem da ação humana, e isso está dentro do controle humano.
04:47
If we treat safeguarding humanity's future as the defining issue of our time,
77
287908
4755
Se tratarmos de cuidar do futuro da humanidade como nosso problema atual,
04:52
we can reduce this risk.
78
292663
2127
nós podemos reduzir esse risco.
04:55
Whether humanity fulfils its potential—
79
295082
2836
Se a humanidade realizará seu potencial—
04:57
or not—
80
297918
1168
ou não—
05:00
is in our hands.
81
300129
1793
está em nossas mãos.
Sobre este site

Este site apresentará a você vídeos do YouTube que são úteis para o aprendizado do inglês. Você verá aulas de inglês ministradas por professores de primeira linha de todo o mundo. Clique duas vezes nas legendas em inglês exibidas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas rolarão em sincronia com a reprodução do vídeo. Se você tiver algum comentário ou solicitação, por favor, entre em contato conosco usando este formulário de contato.

https://forms.gle/WvT1wiN1qDtmnspy7