The 4 greatest threats to the survival of humanity

485,277 views ・ 2022-07-19

TED-Ed


Silakan klik dua kali pada teks bahasa Inggris di bawah ini untuk memutar video.

Translator: Syifa Sabrina Reviewer: Faradila Zuchrina
00:10
In January of 1995, Russia detected a nuclear missile headed its way.
0
10840
5964
Pada Januari 1995, Rusia mendeteksi adanya rudal nuklir yang mengarah ke sana.
00:16
The alert went all the way to the president,
1
16804
2836
Peringatannya sampai kepada presiden
00:19
who was deciding whether to strike back
2
19640
2962
yang memutuskan untuk menyerang balik
00:22
when another system contradicted the initial warning.
3
22602
3378
ketika sistem lain menyatakan hal berlawanan dengan yang sebelumnya.
00:26
What they thought was the first missile in a massive attack
4
26355
3796
Apa yang mereka kira adalah rudal pertama untuk serangan besar,
00:30
was actually a research rocket studying the Northern Lights.
5
30151
4338
sebenarnya, adalah roket untuk meneliti aurora borealis.
00:35
This incident happened after the end of the Cold War,
6
35156
3420
Insiden ini terjadi setelah Perang Dingin berakhir.
00:38
but was nevertheless one of the closest calls we’ve had
7
38576
3504
Meskipun begitu, insiden itu merupakan salah satu panggilan
00:42
to igniting a global nuclear war.
8
42080
2961
yang nyaris memulai perang nuklir secara mendunia.
00:45
With the invention of the atomic bomb,
9
45833
2169
Dengan penemuan bom atom,
00:48
humanity gained the power to destroy itself for the first time in our history.
10
48002
5339
manusia memperoleh kekuatan merusak diri untuk pertama kali dalam sejarah.
00:53
Since then, our existential risk—
11
53341
3086
Sejak saat itu, risiko eksistensi kita—
00:56
risk of either extinction
12
56427
1835
baik risiko kepunahan
00:58
or the unrecoverable collapse of human civilization—
13
58262
3379
maupun jatuhnya peradaban manusia yang tidak dapat dipulihkan—
01:01
has steadily increased.
14
61641
1918
terus meningkat dengan stabil.
01:04
It’s well within our power to reduce this risk,
15
64060
2961
Kita memiliki kemampuan untuk mengurangi risiko ini,
01:07
but in order to do so,
16
67021
1585
tapi untuk melakukannya,
01:08
we have to understand which of our activities
17
68606
2753
kita harus memahami kegiatan kita yang mana
01:11
pose existential threats now, and which might in the future.
18
71359
4504
yang menimbulkan ancaman eksistensial, baik sekarang maupun masa depan.
01:16
So far, our species has survived 2,000 centuries,
19
76489
4379
Sejauh ini, spesies kita telah bertahan hidup selama 2.000 abad
01:20
each with some extinction risk from natural causes—
20
80868
3754
dengan beberapa ancaman kepunahan yang disebabkan oleh alam—
01:24
asteroid impacts, supervolcanoes, and the like.
21
84622
3128
tabrakan asteroid, gunung berapi, dan semacamnya.
01:28
Assessing existential risk is an inherently uncertain business
22
88000
4338
Menerka-nerka ancaman eksistensial merupakan hal yang tidak pasti
01:32
because usually when we try to figure out how likely something is,
23
92338
3921
karena biasanya ketika kita mencoba mengira seberapa mungkin sesuatu terjadi,
01:36
we check how often it's happened before.
24
96259
2460
kita memeriksa sesering apa itu terjadi sebelumnya.
01:38
But the complete destruction of humanity has never happened before.
25
98719
4255
Namun, kehancuran total pada umat manusia belum pernah terjadi sebelumnya.
01:43
While there’s no perfect method to determine our risk from natural threats,
26
103474
4004
Walaupun tidak ada cara sempurna untuk memastikan ancaman dari alam,
01:47
experts estimate it’s about 1 in 10,000 per century.
27
107478
4922
para ahli memperkirakan sekitar 1 dari 10.000 tiap abad.
01:52
Nuclear weapons were our first addition to that baseline.
28
112692
3503
Senjata nuklir merupakan contoh yang pertama.
01:56
While there are many risks associated with nuclear weapons,
29
116612
3170
Meskipun ada banyak ancaman yang berhubungan dengan senjata nuklir,
01:59
the existential risk comes from the possibility
30
119782
3087
ancaman eksistensial muncul
02:02
of a global nuclear war that leads to a nuclear winter,
31
122869
4379
dari kemungkinan perang nuklir dunia yang berujung pada musim dingin nuklir
02:07
where soot from burning cities blocks out the sun for years,
32
127248
4171
di mana jelaga dari kota yang terbakar menghalangi matahari selama bertahun-tahun
02:11
causing the crops that humanity depends on to fail.
33
131419
3253
dan menyebabkan hasil pertanian yang dibutuhkan manusia gagal panen.
02:15
We haven't had a nuclear war yet,
34
135339
2253
Kita belum pernah mengalami perang nuklir,
02:17
but our track record is too short to tell if they’re inherently unlikely
35
137592
4421
tapi rekam jejak kita terlalu pendek untuk memutuskan apakah sungguh tidak mungkin
02:22
or we’ve simply been lucky.
36
142013
1710
atau kita hanya sedang beruntung.
02:24
We also can’t say for sure
37
144307
1459
Kita juga tidak bisa yakin
02:25
whether a global nuclear war would cause a nuclear winter so severe
38
145766
4713
perang nuklir dunia akan menyebabkan musim dingin nuklir yang parah
02:30
it would pose an existential threat to humanity.
39
150479
2712
dan menyebabkan ancaman eksistensial bagi manusia.
02:33
The next major addition to our existential risk was climate change.
40
153858
5047
Hal besar lain yang menambah ancaman eksistensial adalah perubahan iklim.
02:39
Like nuclear war, climate change could result
41
159322
2794
Seperti perang nuklir, perubahan iklim dapat menghasilkan
02:42
in a lot of terrible scenarios that we should be working hard to avoid,
42
162116
4880
banyak skenario buruk yang kita harus bekerja keras untuk mencegahnya,
02:46
but that would stop short of causing extinction or unrecoverable collapse.
43
166996
4713
tapi itu hanya menunda penyebab kepunahan atau keruntuhan yang tidak terpulihkan.
02:52
We expect a few degrees Celsius of warming,
44
172043
2794
Kita memperkirakan kenaikan suhu beberapa derajat celcius,
02:54
but can’t yet completely rule out 6 or even 10 degrees,
45
174837
4171
tapi belum bisa benar-benar mencegah kenaikan 6 atau 10 derajat
yang akan menyebabkan bencana
02:59
which would cause a calamity of possibly unprecedented proportions.
46
179008
4338
dengan proporsi yang mungkin tak pernah terjadi sebelumnya
03:03
Even in this worst-case scenario,
47
183596
2127
Bahkan, pada skenario terburuk ini,
03:05
it’s not clear whether warming would pose a direct existential risk,
48
185723
4046
belum jelas apakah pemanasan akan berakibat risiko eksistensial langsung.
03:09
but the disruption it would cause would likely make us more vulnerable
49
189769
3378
Namun, kekacauan yang ditimbulkan dapat membuat kita semakin rentan
03:13
to other existential risks.
50
193147
2002
terhadap risiko eksistensial yang lain.
03:15
The greatest risks may come from technologies that are still emerging.
51
195566
4546
Risiko paling besar dapat datang dari teknologi yang masih bertumbuh.
03:20
Take engineered pandemics.
52
200112
2294
Contohnya pandemi buatan.
03:22
The biggest catastrophes in human history have been from pandemics.
53
202406
4547
Bencana terbesar dalam sejarah manusia berasal dari pandemi.
03:27
And biotechnology is enabling us to modify and create germs
54
207203
3670
Bioteknologi memungkinkan kita untuk memodifikasi dan membuat mikroba
03:30
that could be much more deadly than naturally occurring ones.
55
210873
3462
yang dapat lebih mematikan daripada yang terjadi secara alami.
03:34
Such germs could cause pandemics through biowarfare and research accidents.
56
214752
4588
Mikroba dapat menyebabkan pandemi lewat perang biologis dan kecelakaan penelitian.
03:39
Decreased costs of genome sequencing and modification,
57
219340
3211
Turunnya biaya dalam pengurutan dan modifikasi genom
03:42
along with increased availability of potentially dangerous information
58
222551
3921
serta naiknya ketersediaan informasi yang mungkin berbahaya,
03:46
like the published genomes of deadly viruses,
59
226472
2544
seperti genom virus mematikan yang dipublikasikan,
03:49
also increase the number of people and groups
60
229016
2711
juga menambah jumlah orang dan kelompok
03:51
who could potentially create such pathogens.
61
231727
2920
yang dapat berpotensi membuat patogen seperti itu.
03:55
Another concern is unaligned AI.
62
235564
2878
Kekhawatiran lainnya adalah kecerdasan buatan (AI) yang tidak selaras.
03:58
Most AI researchers think this will be the century
63
238442
2586
Sebagian besar peneliti AI berpikir ini adalah abad
04:01
where we develop artificial intelligence that surpasses human abilities
64
241028
4338
di mana kita mengembangkan kecerdasan buatan
yang melampaui kemampuan manusia di segala bidang.
04:05
across the board.
65
245366
1293
04:06
If we cede this advantage, we place our future in the hands
66
246659
4129
Kalau kita melepaskan keuntungan ini,
kita memberikan masa depan kepada tangan sistem yang kita buat.
04:10
of the systems we create.
67
250788
2002
04:12
Even if created solely with humanity’s best interests in mind,
68
252790
3712
Kalaupun kita menciptakan sesuatu hanya dengan memikirkan kepentingan manusia,
04:16
superintelligent AI could pose an existential risk
69
256502
3504
AI yang sangat cerdas dapat menyebabkan ancaman eksistensial
04:20
if it isn’t perfectly aligned with human values—
70
260006
3420
jika tidak benar-benar selaras dengan nilai-nilai kemanusiaan—
04:23
a task scientists are finding extremely difficult.
71
263426
3503
tugas yang dianggap sangat sulit oleh para ilmuwan.
04:27
Based on what we know at this point,
72
267346
2044
Dari yang kita ketahui sekarang,
04:29
some experts estimate the anthropogenic existential risk
73
269390
3837
beberapa ahli memperkirakan risiko eksistensial yang dibuat manusia
04:33
is more than 100 times higher than the background rate of natural risk.
74
273227
4797
lebih dari 100 kali lebih tinggi daripada risiko bencana alam.
04:38
But these odds depend heavily on human choices.
75
278482
4004
Namun, keganjilan ini sangat bergantung pada pilihan manusia.
04:42
Because most of the risk is from human action, and it’s within human control.
76
282486
5422
karena sebagian besar ancaman
berasal dari ulah manusia dan berada dalam kuasa manusia.
04:47
If we treat safeguarding humanity's future as the defining issue of our time,
77
287908
4755
Kalau kita memperlakukan penyelamatan masa depan manusia sebagai masalah serius,
04:52
we can reduce this risk.
78
292663
2127
kita dapat mengurangi risiko ini.
04:55
Whether humanity fulfils its potential—
79
295082
2836
Apakah manusia memenuhi potensi itu—
04:57
or not—
80
297918
1168
atau tidak—
05:00
is in our hands.
81
300129
1793
ada di tangan kita.
Tentang situs web ini

Situs ini akan memperkenalkan Anda pada video YouTube yang berguna untuk belajar bahasa Inggris. Anda akan melihat pelajaran bahasa Inggris yang diajarkan oleh guru-guru terbaik dari seluruh dunia. Klik dua kali pada subtitle bahasa Inggris yang ditampilkan di setiap halaman video untuk memutar video dari sana. Subtitle bergulir selaras dengan pemutaran video. Jika Anda memiliki komentar atau permintaan, silakan hubungi kami menggunakan formulir kontak ini.

https://forms.gle/WvT1wiN1qDtmnspy7