The 4 greatest threats to the survival of humanity

484,506 views ・ 2022-07-19

TED-Ed


ဗီဒီယိုကိုဖွင့်ရန် အောက်ပါ အင်္ဂလိပ်စာတန်းများကို နှစ်ချက်နှိပ်ပါ။

Translator: Sanntint Tint Reviewer: Myo Aung
00:10
In January of 1995, Russia detected a nuclear missile headed its way.
0
10840
5964
၁၉၉၅၊ ဇန်နဝါရီမှာ ရုရှားက နျူကလိယ ဒုံးကျည် တစ်စင်းလမ်းကြောင်းအတိုင်းသွားတာကိုတွေ့တယ်။
00:16
The alert went all the way to the president,
1
16804
2836
အခြားစနစ်က ကနဦး သတိပေးချက်ကို ဆန့်ကျင်နေချိန်မှာ
00:19
who was deciding whether to strike back
2
19640
2962
ပြန်လည် တိုက်ခိုက်သင့်မသင့်ကို ဆုံးဖြတ်ပေးရမယ့် သမ္မတဆီ
00:22
when another system contradicted the initial warning.
3
22602
3378
သတိပေးချက်က တိုက်ရိုက် ရောက်ရှိသွားခဲ့တယ်။
00:26
What they thought was the first missile in a massive attack
4
26355
3796
ကြီးမားတဲ့ တိုက်ခိုက်မှုမှာ ပထမဆုံး ဒုံးကျည်လို့ သူတို့ ထင်ခဲ့တာက
00:30
was actually a research rocket studying the Northern Lights.
5
30151
4338
တကယ်တော့ ဥတ္တရ အလင်းတွေကို လေ့လာတဲ့ သုတေသန ဒုံးပျံပါ။
00:35
This incident happened after the end of the Cold War,
6
35156
3420
ဒီအဖြစ်အပျက်က စစ်အေးတိုက်ပွဲ နောက်မှာ ဖြစ်ပျက်ခဲ့ပေမဲ့
00:38
but was nevertheless one of the closest calls we’ve had
7
38576
3504
ကမ္ဘာလုံးဆိုင်ရာ နျူကလိယ စစ်ပွဲကို အစပျိုးဖို့
00:42
to igniting a global nuclear war.
8
42080
2961
လက်မတင်ကလေးဖြစ်ခဲ့တာတစ်ခုပါ။
00:45
With the invention of the atomic bomb,
9
45833
2169
အဏုမြူဗုံး တီထွင်မှုနဲ့အတူ လူသားတွေဟာ
00:48
humanity gained the power to destroy itself for the first time in our history.
10
48002
5339
သမိုင်းမှာ ပထမဆုံး အကြိမ်အဖြစ် ကိုယ့်ဘာသာ ဖျက်ဆီးနိုင်တဲ့ စွမ်းအားကို ရရှိခဲ့တယ်။
00:53
Since then, our existential risk—
11
53341
3086
အဲဒီအချိန်ကတည်းက
00:56
risk of either extinction
12
56427
1835
မျိုးသုဉ်းခြင်း သို့မဟုတ်
00:58
or the unrecoverable collapse of human civilization—
13
58262
3379
ပြန်မရနိုင်တဲ့ လူ့ယဉ်ကျေးမှု ပြိုကွဲမယ့် အန္တရာယ်က
01:01
has steadily increased.
14
61641
1918
တဖြည်းဖြည်း တိုးလာခဲ့တယ်။
01:04
It’s well within our power to reduce this risk,
15
64060
2961
ဒီအန္တရာယ်ကို လျှော့ချဖို့ ကောင်းကောင်း လုပ်နိုင်စွမ်းရှိပေမဲ့
01:07
but in order to do so,
16
67021
1585
ဒီလိုလုပ်ဆောင်ဖို့ လူတွေရဲ့ အခု
01:08
we have to understand which of our activities
17
68606
2753
ဘယ်လုပ်ဆောင်မှုတွေက ဖြစ်တည်မှုဆိုင်ရာ ခြိမ်းခြောက်မှုကို
01:11
pose existential threats now, and which might in the future.
18
71359
4504
ဖြစ်စေတာလဲ၊ ဘာတွေက အနာဂတ်မှာ ဖြစ်နိုင်တာကိုနားလည်ဖို့ လိုအပ်ပါတယ်။
01:16
So far, our species has survived 2,000 centuries,
19
76489
4379
အခုအချိန်အထိ မျိုးစိတ်တွေဟာ ရာစုနှစ် ၂၀၀၀ ရှင်သန်ခဲ့ပြီး
01:20
each with some extinction risk from natural causes—
20
80868
3754
တစ်ခုစီမှာ သဘာဝ အကြောင်းတရားတွေဖြစ်တဲ့ ဂြိုဟ်သိမ်ဂြိုဟ်မွှား တိုက်မိတာတွေ၊
01:24
asteroid impacts, supervolcanoes, and the like.
21
84622
3128
ဆူပါမီးတောင်တွေလို အရာတွေကနေ မျိုးသုဉ်းမယ့် အန္တရာယ်ရှိပါတယ်။
01:28
Assessing existential risk is an inherently uncertain business
22
88000
4338
ဖြစ်တည်မှုအန္တရာယ်ကို အကဲဖြတ်တာက ပင်ကိုကကို မသေချာတဲ့ လုပ်ငန်းတစ်ခုဖြစ်ပြီး
01:32
because usually when we try to figure out how likely something is,
23
92338
3921
ပုံမှန်ကတော့ တစ်စုံတစ်ခု ဖြစ်နိုင်ခြေရှိတာကို ရှာဖွေတဲ့အခါ
01:36
we check how often it's happened before.
24
96259
2460
အရင် ဘယ်နှကြိမ် ဖြစ်ပျက်ခဲ့တာကို စစ်ဆေးတာပါ။
01:38
But the complete destruction of humanity has never happened before.
25
98719
4255
ဒါပေမဲ့ လူသားမျိုးနွယ် အလုံးစုံ ပျက်စီးမှုက အရင်က တစ်ခါမှ မဖြစ်ခဲ့ဖူးဘူး။
01:43
While there’s no perfect method to determine our risk from natural threats,
26
103474
4004
သဘာဝ ခြိမ်းခြောက်မှုတွေကနေ အန္တရာယ်ကို ဆုံးဖြတ်ဖို့ ပြည့်စုံတဲ့ နည်းလမ်းမရှိပေမဲ့
01:47
experts estimate it’s about 1 in 10,000 per century.
27
107478
4922
ကျွမ်းကျင်သူတွေကတော့ ဒါက ရာစုနှစ်တစ်ခုမှာ ၁၀၀၀၀ ပုံ ၁ ပုံ ခန့်လို့ ခန့်မှန်းတယ်။
01:52
Nuclear weapons were our first addition to that baseline.
28
112692
3503
နျူကလိယ လက်နက်တွေက အခြေခံအချက်အတွက် ပထမဆုံး ဖြည့်စွက်မှုပါ။
01:56
While there are many risks associated with nuclear weapons,
29
116612
3170
နျူကလိယ လက်နက်နဲ့ ဆက်စပ်တဲ့ အန္တရာယ်များစွာရှိပေမဲ့
01:59
the existential risk comes from the possibility
30
119782
3087
ဖြစ်တည်မှုအန္တရာယ်က ကမ္ဘာ့ နျူကလိယ စစ်ပွဲဖြစ်နိုင်ခြေကနေ လာပြီး
02:02
of a global nuclear war that leads to a nuclear winter,
31
122869
4379
နျူကလိယ ဆောင်းရာသီသို့ ဦတည်လာကာ၊
02:07
where soot from burning cities blocks out the sun for years,
32
127248
4171
မီးလောင်နေတဲ့ မြို့တွေကနေ ကျပ်ခိုးတွေဟာ နေကို နှစ်များစွာ ကြာအောင် ပိတ်ဆို့ကာ
02:11
causing the crops that humanity depends on to fail.
33
131419
3253
လူသားတွေ မှီခိုနေတဲ့ ကောက်ပဲသီးနှံတွေ မအောင်မမြင်ဖြစ်စေတာပါ။
02:15
We haven't had a nuclear war yet,
34
135339
2253
နျူကလိယ စစ်ပွဲ မဖြစ်ပွားသေးပေမဲ့
02:17
but our track record is too short to tell if they’re inherently unlikely
35
137592
4421
ဒါတွေက ပင်ကိုအရ မဖြစ်နိုင်တာ သို့မဟုတ် ကံကောင်း၊မကောင်းဆိုတာကို ပြောဖို့
02:22
or we’ve simply been lucky.
36
142013
1710
သမိုင်း မှတ်တမ်းက တိုလွန်းတယ်။
02:24
We also can’t say for sure
37
144307
1459
ကမ္ဘာ့ နျူကလိယ စစ်ပွဲက
02:25
whether a global nuclear war would cause a nuclear winter so severe
38
145766
4713
လူသားမျိုးနွယ်အပေါ် ဖြစ်တည်မှု အန္တရာယ်ကို ခြိမ်းခြောက်လောက်အောင် နျူကလိယ
02:30
it would pose an existential threat to humanity.
39
150479
2712
ဆောင်းရာသီကို ပြင်းထန်စေမလား ဆိုတာကိုလည်း အတိအကျ မပြောနိုင်ဘူး။
02:33
The next major addition to our existential risk was climate change.
40
153858
5047
ဖြစ်တည်မှု အန္တရာယ်အတွက် နောက်ထပ် အဓိကအချက်က ရာသီဥတုဖောက်ပြန်တာပါ။
02:39
Like nuclear war, climate change could result
41
159322
2794
နျူကလိယ စစ်ပွဲလိုပဲ ရာသီဥတု ဖောက်ပြန်မှုက ရှောင်လွှဲဖို့
02:42
in a lot of terrible scenarios that we should be working hard to avoid,
42
162116
4880
အပြင်းအထန်လု ပ်ဆောင်သင့်တဲ့ ကြောက်မက်ဖွယ် အခြေအနေများစွာကို ဖြစ်ပေါ်စေနိုင်ပေမဲ့
02:46
but that would stop short of causing extinction or unrecoverable collapse.
43
166996
4713
ဒါက မျိုးသုဉ်းပျောက်ကွယ်တာ သို့မဟုတ် ပြန်မရနိုင်တဲ့ပြိုကျမှုကို ရပ်တန့်စေမှာပါ။
02:52
We expect a few degrees Celsius of warming,
44
172043
2794
ပူနွေးလာမှု ဒီဂရီစင်တီဂရိတ် အနည်းငယ်ကို မျှော်လင့်ထားပေမဲ့
02:54
but can’t yet completely rule out 6 or even 10 degrees,
45
174837
4171
၆ သို့မဟုတ် ၁၀ ဒီဂရီကိုတောင် လုံးလုံး မဆုံးဖြတ်နိုင်သေးဘူး။
02:59
which would cause a calamity of possibly unprecedented proportions.
46
179008
4338
ဒါက တကယ့်ကို မကြုံဖူးတဲ့ အချိုးအစားတွေရဲ့ ကပ်ဘေးတစ်ခုကို ဖြစ်စေမှာပါ။
03:03
Even in this worst-case scenario,
47
183596
2127
ဒီအဆိုးရွားဆုံး အခြေအနေမှာတောင်
03:05
it’s not clear whether warming would pose a direct existential risk,
48
185723
4046
ပူနွေးလာမှုက တိုက်ရိုက် ဖြစ်တည်မှုအန္တရာယ် ဖြစ်စေမလားဆိုတာ ရှင်းရှင်းလင်းလင်းမသိပေမဲ့
03:09
but the disruption it would cause would likely make us more vulnerable
49
189769
3378
ဖြစ်ပေါ်လာမယ့် အနှောင့်အယှက်တွေကြောင့် အခြား ဖြစ်တည်မှု အန္တရာယ်တွေက
03:13
to other existential risks.
50
193147
2002
လူတွေကို ပိုထိခိုက်နိုင်ဖွယ်ရှိတယ်။
03:15
The greatest risks may come from technologies that are still emerging.
51
195566
4546
အကြီးမားဆုံး စွန့်စားရမှုတွေက ပေါ်ထွန်းဆဲ နည်းပညာတွေကနေ လာနိုင်တယ်။
03:20
Take engineered pandemics.
52
200112
2294
စီမံထားတဲ့ ကူးစက်ရောဂါတွေကို ကြည့်ပါ။
03:22
The biggest catastrophes in human history have been from pandemics.
53
202406
4547
လူ့သမိုင်းမှာ အကြီးမားဆုံး ကပ်ဆိုးတွေက ကပ်ရောဂါတွေကြောင့်ပါ။
03:27
And biotechnology is enabling us to modify and create germs
54
207203
3670
ဇီဝနည်းပညာက လူတွေကို သဘာဝအတိုင်း ဖြစ်ပေါ်နေတဲ့ ပိုးမွှားတွေထက်
03:30
that could be much more deadly than naturally occurring ones.
55
210873
3462
ပိုသေစေနိုင်တဲ့ ပိုးမွှားတွေကို ပြုပြင်ဖန်တီးနိုင်စေတယ်။
03:34
Such germs could cause pandemics through biowarfare and research accidents.
56
214752
4588
ဒီလိုပိုးမွှားတွေက ဇီဝစစ်နဲ့ သုတေသန မတော် တဆမှုတွေကနေ ကပ်ရောဂါတွေကို ဖြစ်စေနိုင်တယ်။
03:39
Decreased costs of genome sequencing and modification,
57
219340
3211
ဂျီနိုမ် စီစဉ်တာနဲ့ မွမ်းမံခြင်းဆိုင်ရာ ကုန်ကျစရိတ် ကျဆင်းလာတာ၊
03:42
along with increased availability of potentially dangerous information
58
222551
3921
သေစေတတ်တဲ့ ဗိုင်းရပ်စ်တွေရဲ့ ထုတ်ဝေထားတဲ့ မျိုးရိုးဗီဇများတွေလို အန္တရာယ်ရှိတဲ့
03:46
like the published genomes of deadly viruses,
59
226472
2544
အချက်အလက်တွေ ရရှိနိုင်မှု တိုးလာတာနဲ့အတူ
03:49
also increase the number of people and groups
60
229016
2711
ဒီလိုရောဂါပိုးတွေကို ဖန်တီးနိုင်တဲ့
03:51
who could potentially create such pathogens.
61
231727
2920
လူတွေနဲ့ အုပ်စုတွေရဲ့ အရေအတွက်ကလည်းတိုးလာတယ်။
03:55
Another concern is unaligned AI.
62
235564
2878
နောက်ထပ်စိုးရိမ်စရာတစ်ခုကတော့ ချိန်ညှိမထားတဲ့ AI ပါ။
03:58
Most AI researchers think this will be the century
63
238442
2586
AI သုတေသီအများစုက ယေဘုယျ လူသားစွမ်းရည်တွေကို သာလွန်တဲ့
04:01
where we develop artificial intelligence that surpasses human abilities
64
241028
4338
ဉာဏ်ရည်တုကို တီထွင်တဲ့ ရာစုနှစ်ဖြစ်မယ်လို့
04:05
across the board.
65
245366
1293
ယူဆကြတယ်။
04:06
If we cede this advantage, we place our future in the hands
66
246659
4129
ဒီအကျိုးကျေးဇူးကို စွန့်လွှတ်လိုက်ရင် အနာဂတ်ဟာ လူတွေ ဖန်တီးထားတဲ့ စနစ်တွေရဲ့
04:10
of the systems we create.
67
250788
2002
လက်ထဲမှာ ထားရှိတာပါ။
04:12
Even if created solely with humanity’s best interests in mind,
68
252790
3712
လူသားတွေရဲ့ အကောင်းဆုံး အကျိုးစီးပွား တွေကို စိတ်မှာသာ ဖန်တီးထားရင်တောင်
04:16
superintelligent AI could pose an existential risk
69
256502
3504
ဉာဏ်ရည်ထက်မြက်တဲ့ AI က လူ့တန်ဖိုးတွေနဲ့ လုံးလုံး မချိန်ညှိရင်
04:20
if it isn’t perfectly aligned with human values—
70
260006
3420
ဖြစ်တည်မှု အန္တရာယ်ကို ဖြစ်ပေါ်စေနိုင်တယ်။
04:23
a task scientists are finding extremely difficult.
71
263426
3503
သိပ္ပံပညာရှင်တွေ အလွန် ခက်ခဲတယ် ထင်နေတဲ့ အလုပ်တစ်ခုပါ။
04:27
Based on what we know at this point,
72
267346
2044
ဒီအချိန်မှာ သိထားတာကို အခြေခံပြီး
04:29
some experts estimate the anthropogenic existential risk
73
269390
3837
ပညာရှင်တချို့က မနုဿ ဇီဝဗေဒဆိုင်ရာ ဖြစ်တည်မှု အန္တရာယ်ဟာ
04:33
is more than 100 times higher than the background rate of natural risk.
74
273227
4797
သဘာဝအန္တရာယ်ရဲ့ နောက်ခံ နှုန်းထက် အဆ ၁၀၀ ပိုများတယ်လို့ ခန့်မှန်းကြတယ်။
04:38
But these odds depend heavily on human choices.
75
278482
4004
ဒါပေမဲ့ ဒီအလားအလာတွေက လူသားတွေရဲ့ ရွေးချယ်မှုအပေါ်မှာ အများကြီးမူတည်တယ်။
04:42
Because most of the risk is from human action, and it’s within human control.
76
282486
5422
အန္တရာယ်အများစုဟာ လူသားလုပ်ဆောင်မှုကြောင့် ၊ဒါက လူသားထိန်းချုပ်မှုအတွင်းမှာရှိလို့ပါ။
04:47
If we treat safeguarding humanity's future as the defining issue of our time,
77
287908
4755
လူသားမျိုးနွယ် အနာဂတ်ကို စောင့်ရှောက်တာကို အချိန်ရဲ့ အရေးတကြီးပြဿနာအဖြစ် သဘောထားရင်
04:52
we can reduce this risk.
78
292663
2127
ဒီအန္တရာယ်ကို လျှော့ချနိုင်ပါတယ်။
04:55
Whether humanity fulfils its potential—
79
295082
2836
လူသားမျိုးနွယ်က ၎င်းရဲ့ အလားအလာကို ဖြည့်ဆည်းပေးနိုင်မလား
04:57
or not—
80
297918
1168
ဆိုတာက
05:00
is in our hands.
81
300129
1793
ကျွန်ုပ်တို့ လက်ထဲမှာပါ။
ဤဝဘ်ဆိုဒ်အကြောင်း

ဤဆိုက်သည် သင့်အား အင်္ဂလိပ်စာလေ့လာရန်အတွက် အသုံးဝင်သော YouTube ဗီဒီယိုများနှင့် မိတ်ဆက်ပေးပါမည်။ ကမ္ဘာတစ်ဝှမ်းမှ ထိပ်တန်းဆရာများ သင်ကြားပေးသော အင်္ဂလိပ်စာသင်ခန်းစာများကို သင်တွေ့မြင်ရပါမည်။ ဗီဒီယိုစာမျက်နှာတစ်ခုစီတွင် ပြသထားသည့် အင်္ဂလိပ်စာတန်းထိုးများကို နှစ်ချက်နှိပ်ပါ။ စာတန်းထိုးများသည် ဗီဒီယိုပြန်ဖွင့်ခြင်းနှင့်အတူ ထပ်တူပြု၍ လှိမ့်သွားနိုင်သည်။ သင့်တွင် မှတ်ချက်များ သို့မဟုတ် တောင်းဆိုမှုများရှိပါက ဤဆက်သွယ်ရန်ပုံစံကို အသုံးပြု၍ ကျွန်ုပ်တို့ထံ ဆက်သွယ်ပါ။

https://forms.gle/WvT1wiN1qDtmnspy7