The 4 greatest threats to the survival of humanity

485,208 views ・ 2022-07-19

TED-Ed


Por favor, faça duplo clique nas legendas em inglês abaixo para reproduzir o vídeo.

Tradutor: Nadia Tira Revisora: Margarida Ferreira
00:10
In January of 1995, Russia detected a nuclear missile headed its way.
0
10840
5964
Em janeiro de 1995, a Rússia detetou um míssil nuclear a aproximar-se.
00:16
The alert went all the way to the president,
1
16804
2836
O alerta chegou ao presidente
00:19
who was deciding whether to strike back
2
19640
2962
que estava a decidir se devia ripostar,
00:22
when another system contradicted the initial warning.
3
22602
3378
quando outro sistema desmentiu o aviso inicial.
00:26
What they thought was the first missile in a massive attack
4
26355
3796
O que pensavam ser o primeiro míssil de um grande ataque,
00:30
was actually a research rocket studying the Northern Lights.
5
30151
4338
era, na realidade, um míssil de pesquisa a estudar Aurora boreal.
00:35
This incident happened after the end of the Cold War,
6
35156
3420
Este incidente aconteceu depois do fim da Guerra Fria,
00:38
but was nevertheless one of the closest calls we’ve had
7
38576
3504
mas, apesar disso, foi uma das vezes em que estivemos mais próximos
00:42
to igniting a global nuclear war.
8
42080
2961
de começar uma guerra nuclear mundial.
00:45
With the invention of the atomic bomb,
9
45833
2169
Com a invenção da bomba atómica,
00:48
humanity gained the power to destroy itself for the first time in our history.
10
48002
5339
a Humanidade ganhou o poder de se destruir a si mesma
pela primeira vez na história.
00:53
Since then, our existential risk—
11
53341
3086
Desde então, o nosso perigo existencial
00:56
risk of either extinction
12
56427
1835
— o perigo da extinção
00:58
or the unrecoverable collapse of human civilization—
13
58262
3379
ou do colapso irrecuperável da civilização humana —
01:01
has steadily increased.
14
61641
1918
tem aumentado progressivamente.
01:04
It’s well within our power to reduce this risk,
15
64060
2961
Está nas nossas mãos reduzir esse poder,
01:07
but in order to do so,
16
67021
1585
mas para o conseguir,
01:08
we have to understand which of our activities
17
68606
2753
temos de perceber quais são as nossas atividades
01:11
pose existential threats now, and which might in the future.
18
71359
4504
que apresentam perigos para a existência, no presente,
e quais as que os apresentarão no futuro.
01:16
So far, our species has survived 2,000 centuries,
19
76489
4379
Até agora, a nossa espécie sobreviveu 2000 séculos,
01:20
each with some extinction risk from natural causes—
20
80868
3754
cada um deles com alguns perigos por causa de causas naturais:
01:24
asteroid impacts, supervolcanoes, and the like.
21
84622
3128
impactos de asteroides, supervulcões e coisas dessas.
01:28
Assessing existential risk is an inherently uncertain business
22
88000
4338
Determinar o perigo existencial é uma tarefa intrinsecamente incerta,
01:32
because usually when we try to figure out how likely something is,
23
92338
3921
porque geralmente quando tentamos perceber o quão provável um coisa é,
01:36
we check how often it's happened before.
24
96259
2460
analisamos quantas vezes já aconteceu.
01:38
But the complete destruction of humanity has never happened before.
25
98719
4255
Mas a completa destruição da Humanidade nunca aconteceu.
01:43
While there’s no perfect method to determine our risk from natural threats,
26
103474
4004
Apesar de não existir um método perfeito
para determinar o perigo de ameaças naturais,
01:47
experts estimate it’s about 1 in 10,000 per century.
27
107478
4922
os peritos estimam que é cerca de 1 em 10 000 por século.
01:52
Nuclear weapons were our first addition to that baseline.
28
112692
3503
As armas nucleares foram o nosso primeiro contributo para esse parâmetro.
01:56
While there are many risks associated with nuclear weapons,
29
116612
3170
Apesar de existirem muitos riscos associados às armas nucleares,
01:59
the existential risk comes from the possibility
30
119782
3087
o perigo existencial resulta da possibilidade
02:02
of a global nuclear war that leads to a nuclear winter,
31
122869
4379
de que uma guerra nuclear mundial provoque um inverno nuclear,
02:07
where soot from burning cities blocks out the sun for years,
32
127248
4171
onde a fuligem das cidades a arder tape o sol durante anos,
02:11
causing the crops that humanity depends on to fail.
33
131419
3253
fazendo com que as colheitas de que a Humanidade depende falhem.
02:15
We haven't had a nuclear war yet,
34
135339
2253
Ainda não tivemos uma guerra nuclear,
02:17
but our track record is too short to tell if they’re inherently unlikely
35
137592
4421
mas os nossos registos são muito curtos para indicarem se elas são improváveis
02:22
or we’ve simply been lucky.
36
142013
1710
ou se simplesmente temos tido sorte.
02:24
We also can’t say for sure
37
144307
1459
Também não sabemos dizer com certeza
02:25
whether a global nuclear war would cause a nuclear winter so severe
38
145766
4713
se uma guerra nuclear mundial causaria um inverno nuclear tão forte
02:30
it would pose an existential threat to humanity.
39
150479
2712
que apresentasse um perigo existencial para a Humanidade.
02:33
The next major addition to our existential risk was climate change.
40
153858
5047
O outro importante contributo para o nosso perigo existencial
é a a alteração climática.
02:39
Like nuclear war, climate change could result
41
159322
2794
Tal como a guerra nuclear, a alteração climática pode provocar
02:42
in a lot of terrible scenarios that we should be working hard to avoid,
42
162116
4880
muitos cenários terríveis que devemos trabalhar arduamente para evitar,
02:46
but that would stop short of causing extinction or unrecoverable collapse.
43
166996
4713
mas isso será pouco para evitar a extinção ou o colapso irrecuperável.
Esperamos uma subida de temperatura de poucos graus Celsius,
02:52
We expect a few degrees Celsius of warming,
44
172043
2794
02:54
but can’t yet completely rule out 6 or even 10 degrees,
45
174837
4171
mas não podemos excluir completamente uma subida de 6 ou até 10 graus,
02:59
which would cause a calamity of possibly unprecedented proportions.
46
179008
4338
o que causará uma calamidade de proporções sem precedentes.
03:03
Even in this worst-case scenario,
47
183596
2127
Até neste pior cenário,
03:05
it’s not clear whether warming would pose a direct existential risk,
48
185723
4046
não é claro se o aquecimento será um perigo existencial direto,
03:09
but the disruption it would cause would likely make us more vulnerable
49
189769
3378
mas a disrupção que causaria provavelmente pôr-nos-ia mais vulneráveis
03:13
to other existential risks.
50
193147
2002
a outros perigos existenciais.
03:15
The greatest risks may come from technologies that are still emerging.
51
195566
4546
Os maiores perigos podem vir de tecnologias que ainda estão por surgir.
03:20
Take engineered pandemics.
52
200112
2294
Pensem em pandemias artificiais.
03:22
The biggest catastrophes in human history have been from pandemics.
53
202406
4547
As maiores catástrofes da história humana têm vindo de pandemias.
03:27
And biotechnology is enabling us to modify and create germs
54
207203
3670
E a biotecnologia tem-nos permitido modificar e criar germes
03:30
that could be much more deadly than naturally occurring ones.
55
210873
3462
que poderão ser muito mais letais do que os naturais.
03:34
Such germs could cause pandemics through biowarfare and research accidents.
56
214752
4588
Alguns germes podem causar pandemias
através de guerras biológicas e acidentes em laboratórios.
03:39
Decreased costs of genome sequencing and modification,
57
219340
3211
A diminuição de custos no sequenciamento e modificação de genomas,
03:42
along with increased availability of potentially dangerous information
58
222551
3921
bem como o aumento da disponibilidade de informação potencialmente perigosa,
03:46
like the published genomes of deadly viruses,
59
226472
2544
como a publicação de genomas de vírus letais,
03:49
also increase the number of people and groups
60
229016
2711
também aumenta o número de pessoas e de grupos
03:51
who could potentially create such pathogens.
61
231727
2920
que podem potencialmente criar estes elementos patogénicos.
03:55
Another concern is unaligned AI.
62
235564
2878
Outra preocupação é a inteligência artificial não-obediente.
03:58
Most AI researchers think this will be the century
63
238442
2586
A maioria dos estudiosos pensam que este será o século
04:01
where we develop artificial intelligence that surpasses human abilities
64
241028
4338
em que iremos criar uma inteligência artificial
que ultrapassará as capacidades humanas em todos os sentidos.
04:05
across the board.
65
245366
1293
04:06
If we cede this advantage, we place our future in the hands
66
246659
4129
Se abdicarmos desta vantagem,
colocamos o nosso futuro nas mãos dos sistemas que criamos.
04:10
of the systems we create.
67
250788
2002
04:12
Even if created solely with humanity’s best interests in mind,
68
252790
3712
Mesmo se for criada com os melhores interesses da Humanidade em mente,
04:16
superintelligent AI could pose an existential risk
69
256502
3504
a inteligência artificial superinteligente poderá ser um perigo existencial
04:20
if it isn’t perfectly aligned with human values—
70
260006
3420
se não estiver completamente alinhada com os valores humanos,
04:23
a task scientists are finding extremely difficult.
71
263426
3503
uma tarefa extremamente difícil para os cientistas.
04:27
Based on what we know at this point,
72
267346
2044
Tendo em conta o que sabemos nesta altura,
04:29
some experts estimate the anthropogenic existential risk
73
269390
3837
alguns peritos estimam que o perigo existencial antropogénico
04:33
is more than 100 times higher than the background rate of natural risk.
74
273227
4797
seja mais do que 100 vezes maior que o perigo natural.
04:38
But these odds depend heavily on human choices.
75
278482
4004
Mas estas probabilidades dependem muito de escolhas humanas.
04:42
Because most of the risk is from human action, and it’s within human control.
76
282486
5422
Porque a maioria do perigo vem de ações humanas e estão dentro do controlo humano.
04:47
If we treat safeguarding humanity's future as the defining issue of our time,
77
287908
4755
Se salvaguardarmos o futuro da Humanidade como o principal problema da nossa era,
04:52
we can reduce this risk.
78
292663
2127
podemos reduzir este perigo.
04:55
Whether humanity fulfils its potential—
79
295082
2836
Se a Humanidade atingirá o seu potencial, ou não,
04:57
or not—
80
297918
1168
05:00
is in our hands.
81
300129
1793
está nas nossas mãos.
Sobre este site

Este sítio irá apresentar-lhe vídeos do YouTube que são úteis para a aprendizagem do inglês. Verá lições de inglês ensinadas por professores de primeira linha de todo o mundo. Faça duplo clique nas legendas em inglês apresentadas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas deslocam-se em sincronia com a reprodução do vídeo. Se tiver quaisquer comentários ou pedidos, por favor contacte-nos utilizando este formulário de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7