The 4 greatest threats to the survival of humanity

484,506 views ・ 2022-07-19

TED-Ed


โปรดดับเบิลคลิกที่คำบรรยายภาษาอังกฤษด้านล่างเพื่อเล่นวิดีโอ

Translator: Sitthikorn Surintham Reviewer: Natthapat Mardech
00:10
In January of 1995, Russia detected a nuclear missile headed its way.
0
10840
5964
ในปี 1995 รัสเซียตรวจจับได้ว่า มีจรวดนิวเคลียร์อยู่ในพิสัย
00:16
The alert went all the way to the president,
1
16804
2836
สัญญาณเตือนได้ถูกส่งไปถึงประธานาธิบดี
00:19
who was deciding whether to strike back
2
19640
2962
ผู้ที่กำลังตัดสินใจว่าจะโต้กลับหรือไม่
00:22
when another system contradicted the initial warning.
3
22602
3378
กระทั่งระบบอีกระบบหนึ่ง เกิดขัดแย้งกับการเตือนในตอนแรก
00:26
What they thought was the first missile in a massive attack
4
26355
3796
พวกเขาจึงได้รู้ว่า จรวดที่ถูกส่งออกมาโจมตีนั้น
00:30
was actually a research rocket studying the Northern Lights.
5
30151
4338
ที่จริงแล้วเป็นแค่จรวด ที่ใช้ในการศึกษาแสงเหนือเท่านั้น
00:35
This incident happened after the end of the Cold War,
6
35156
3420
เหตุการณ์นี้เกิดขึ้น ภายหลังจากสงครามเย็นจบลง
00:38
but was nevertheless one of the closest calls we’ve had
7
38576
3504
แต่ถึงอย่างนั้นก็ตาม นี่คือหนึ่งในเหตุการณ์ที่ใกล้ที่สุด
00:42
to igniting a global nuclear war.
8
42080
2961
ที่จะเกิดสงครามนิวเคลียร์ระดับโลก
00:45
With the invention of the atomic bomb,
9
45833
2169
ด้วยระเบิดปรมาณูที่ถูกคิดค้นขึ้นมา
00:48
humanity gained the power to destroy itself for the first time in our history.
10
48002
5339
มนุษยชาติจึงมีพลังที่จะทำลายตัวเองได้ เป็นครั้งแรกในประวัติศาสตร์
00:53
Since then, our existential risk—
11
53341
3086
ตั้งแต่เป็นต้นนั้นมา ความเสี่ยงต่อการคงอยู่ของเรา
00:56
risk of either extinction
12
56427
1835
ไม่ว่าจะเป็นความเสี่ยงต่อการสูญพันธุ์
00:58
or the unrecoverable collapse of human civilization—
13
58262
3379
หรือการล่มสลายของอารยธรรมมนุษย์
01:01
has steadily increased.
14
61641
1918
ก็ได้เพิ่มขึ้นอย่างต่อเนื่อง
01:04
It’s well within our power to reduce this risk,
15
64060
2961
เราสามารถลดความเสี่ยงนั้นได้ ด้วยกำลังของพวกเราเอง
01:07
but in order to do so,
16
67021
1585
แต่การจะทำเช่นนั้นได้
01:08
we have to understand which of our activities
17
68606
2753
เราต้องทำความเข้าใจก่อนว่า การกิจกรรมไหนของเราบ้าง
01:11
pose existential threats now, and which might in the future.
18
71359
4504
ที่เป็นภัยต่อการคงอยู่ของเราอยู่ตอนนี้ และสิ่งไหนอาจเป็นภัยในอนาคต
01:16
So far, our species has survived 2,000 centuries,
19
76489
4379
เผ่าพันธุ์ของเราคงอยู่มา กว่า 200,000 ปีแล้ว
01:20
each with some extinction risk from natural causes—
20
80868
3754
ผ่านความเสี่ยงต่อการสูญพันธุ์ จากหลากหลายมหันตภัยทางธรรมชาติ
01:24
asteroid impacts, supervolcanoes, and the like.
21
84622
3128
ไม่ว่าจะเป็นอุกกาบาตตก ภูเขาไฟระเบิด หรืออะไรทำนองนั้น
01:28
Assessing existential risk is an inherently uncertain business
22
88000
4338
แต่เราไม่สามารถประเมินภัยความเสี่ยง ต่อการคงอยู่ของเราได้เลย
01:32
because usually when we try to figure out how likely something is,
23
92338
3921
เพราะเมื่อเราหาความเป็นไปได้ ของสิ่งต่าง ๆ ที่จะเกิดขึ้น
01:36
we check how often it's happened before.
24
96259
2460
เราจะย้อนไปดูว่ามันเคยเกิดขึ้นบ่อยแค่ไหน
01:38
But the complete destruction of humanity has never happened before.
25
98719
4255
แต่การสูญสิ้นของมนุษยชาตินั้น ไม่เคยเกิดขึ้นมาก่อน
01:43
While there’s no perfect method to determine our risk from natural threats,
26
103474
4004
เรายังไม่มีวิธีที่จะประเมินความเสี่ยง ของภัยทางธรรมชาติได้อย่างสมบูรณ์
01:47
experts estimate it’s about 1 in 10,000 per century.
27
107478
4922
แต่ผู้เชี่ยวชาญประเมินเอาไว้ว่า มีโอกาส 1 ใน 10,000 ต่อหนึ่งร้อยปี
01:52
Nuclear weapons were our first addition to that baseline.
28
112692
3503
อาวุธนิวเคลียร์คือความเสี่ยงแรก ที่ถูกเพิ่มเข้ามา
01:56
While there are many risks associated with nuclear weapons,
29
116612
3170
มีความเสี่ยงมากมาย ที่เกี่ยวข้องกับอาวุธนิวเคลียร์
01:59
the existential risk comes from the possibility
30
119782
3087
แต่ความเสี่ยงต่อการคงอยู่ของเรานั้น ขึ้นอยู่กับความเป็นไปได้
02:02
of a global nuclear war that leads to a nuclear winter,
31
122869
4379
ของการเกิดสงครามนิวเคลียร์ระดับโลก ที่จะนำไปสู่ฤดูหนาวนิวเคลียร์
02:07
where soot from burning cities blocks out the sun for years,
32
127248
4171
ที่เขม่าจากบ้านเมืองที่ถูกเผา จะบดบังแสงอาทิตย์นานนับปี
02:11
causing the crops that humanity depends on to fail.
33
131419
3253
ทำให้พืชพันธุ์ที่มนุษยชาติพึ่งพาอยู่ ล้มตายหายไป
02:15
We haven't had a nuclear war yet,
34
135339
2253
สงครามนิวเคลียร์นั้นยังไม่เคยเกิดขึ้น
02:17
but our track record is too short to tell if they’re inherently unlikely
35
137592
4421
แต่รายงานที่เรามียังบอกไม่ได้ว่า มันจะไม่เกิดขึ้นอย่างแน่นอน
02:22
or we’ve simply been lucky.
36
142013
1710
หรือเราแค่อาจจะโชคดีเท่านั้นเอง
02:24
We also can’t say for sure
37
144307
1459
เราไม่สามารถรับปากได้เลยว่า
02:25
whether a global nuclear war would cause a nuclear winter so severe
38
145766
4713
สงครามนิวเคลียร์จะทำให้เกิด ฤดูหนาวนิวเคลียร์ที่ร้ายแรงได้หรือไม่
02:30
it would pose an existential threat to humanity.
39
150479
2712
และมันจะเป็นภัยคุกคามต่อการคงอยู่ ของมนุษยชาติหรือเปล่า
02:33
The next major addition to our existential risk was climate change.
40
153858
5047
ภัยความเสี่ยงต่อการคงอยู่ของเรา เรื่องถัดมาก็คือการเปลี่ยนแปลงภูมิอากาศ
02:39
Like nuclear war, climate change could result
41
159322
2794
เช่นเดียวกับสงครามนิวเคลียร์ สิ่งนี้อาจจะเป็นต้นเหตุ
02:42
in a lot of terrible scenarios that we should be working hard to avoid,
42
162116
4880
ของสถานการณ์เลวร้ายมากมาย ที่เราควรทำงานอย่างหนักเพื่อหลีกเลี่ยง
02:46
but that would stop short of causing extinction or unrecoverable collapse.
43
166996
4713
แต่ก็ทำได้แค่หยุดต้นเหตุบางอย่าง ของการสูญพันธุ์หรือการล่มสลายเพียงเท่านั้น
02:52
We expect a few degrees Celsius of warming,
44
172043
2794
เรายอมรับได้หากโลกร้อนขึ้น เพียงแค่ไม่กี่องศา
02:54
but can’t yet completely rule out 6 or even 10 degrees,
45
174837
4171
แต่เรายังไม่สามารถรับมือได้ หากโลกร้อนขึ้น 6 หรือ 10 องศา
02:59
which would cause a calamity of possibly unprecedented proportions.
46
179008
4338
ซึ่งนั่นจะทำให้เกิดหายนะ แบบที่ไม่เคยเกิดขึ้นมาก่อนในหลาย ๆ ส่วน
03:03
Even in this worst-case scenario,
47
183596
2127
แม้กระทั่งในสถาณการณ์ที่เลวร้ายที่สุด
03:05
it’s not clear whether warming would pose a direct existential risk,
48
185723
4046
ก็ยังไม่แน่ชัดว่าภาวะโลกร้อนนั้น จะเป็นภัยคุกคามโดยตรงต่อเราหรือเปล่า
03:09
but the disruption it would cause would likely make us more vulnerable
49
189769
3378
แต่สิ่งที่จะเกิดขึ้นนั้นจะไปเพิ่ม ความเสี่ยงในการสูญพันธ์ของเรา
03:13
to other existential risks.
50
193147
2002
จากมหันตภัยอื่น ๆ มากขึ้น
03:15
The greatest risks may come from technologies that are still emerging.
51
195566
4546
ความเสี่ยงร้ายแรงอาจจะมาจาก เทคโนโลยีที่ยังคงเพิ่มขึ้นเหล่านี้
03:20
Take engineered pandemics.
52
200112
2294
เทคโนโลยีการสร้างโรคระบาด
03:22
The biggest catastrophes in human history have been from pandemics.
53
202406
4547
หายนะครั้งยิ่งใหญ่ที่สุดในประวัติศาสตร์ ของมนุษยชาติเกิดจากโรคระบาด
03:27
And biotechnology is enabling us to modify and create germs
54
207203
3670
เทคโนโลยีชีวภาพทำให้เราสามารถ ปรับแต่งและสร้างเชื้อโรคขึ้นมาเองได้
03:30
that could be much more deadly than naturally occurring ones.
55
210873
3462
และมันอาจจะอันตรายกว่า โรคที่เกิดขึ้นตามธรรมชาติอย่างมาก
03:34
Such germs could cause pandemics through biowarfare and research accidents.
56
214752
4588
อาวุธชีวภาพหรืออุบัติเหตุจากการวิจัย ของเชื้อโรคอาจจะทำให้เกิดโรคระบาดได้
03:39
Decreased costs of genome sequencing and modification,
57
219340
3211
ด้วยต้นทุนที่ลดลง ของการปรับแต่งพันธุกรรม
03:42
along with increased availability of potentially dangerous information
58
222551
3921
ร่วมกับการเข้าถึงที่ง่ายขึ้น ของข้อมูลที่อาจเป็นอันตรายได้
03:46
like the published genomes of deadly viruses,
59
226472
2544
อย่างการเผยแพร่ข้อมูลรหัสพันธุกรรม ของเชื้อไวรัสมฤตยู
03:49
also increase the number of people and groups
60
229016
2711
และการเพิ่มขึ้นเหล่าผู้คน
03:51
who could potentially create such pathogens.
61
231727
2920
ที่อาจจะสร้างเชื้อโรคนี้ขึ้นมาได้
03:55
Another concern is unaligned AI.
62
235564
2878
อีกหนึ่งสิ่งที่น่ากังวลก็คือ เหล่าปัญญาประดิษฐ์ที่แตกแถว
03:58
Most AI researchers think this will be the century
63
238442
2586
นักวิจัยปัญญาประดิษฐ์ส่วนใหญ่ คิดว่านี่จะเป็นศตวรรษที่
04:01
where we develop artificial intelligence that surpasses human abilities
64
241028
4338
เราจะพัฒนาปัญญาประดิษฐ์ให้ก้าวข้าม ความสามารถของมนุยย์ไปได้
04:05
across the board.
65
245366
1293
ในทุก ๆ ด้าน
04:06
If we cede this advantage, we place our future in the hands
66
246659
4129
หากเรายอมรับผลประโยชน์นี้ ก็เท่ากับว่าเราได้ฝากอนาคตไว้กับ
04:10
of the systems we create.
67
250788
2002
ของระบบที่เราสร้างขึ้นมาเอง
04:12
Even if created solely with humanity’s best interests in mind,
68
252790
3712
ถึงแม้มันจะถูกสร้างด้วยปัญญา ที่เฉียบแหลมของมนุษย์เพียงอย่างเดียว
04:16
superintelligent AI could pose an existential risk
69
256502
3504
ปัญญาประดิษฐ์ที่ทรงภูมิปัญญา อาจจะเป็นภัยต่อการคงอยู่ของเราได้
04:20
if it isn’t perfectly aligned with human values—
70
260006
3420
หากมันไม่ได้เห็นพ้องกับ คุณค่าของมนุษย์ได้อย่างสมบูรณ์
04:23
a task scientists are finding extremely difficult.
71
263426
3503
ซึ่งเป็นงานที่ทำได้ยากมาก ของนักวิทยาศาสตร์
04:27
Based on what we know at this point,
72
267346
2044
อ้างอิงจากสิ่งที่เรารู้อยู่ในตอนนี้
04:29
some experts estimate the anthropogenic existential risk
73
269390
3837
ผู้เชี่ยวชาญประเมินไว้ว่าความเสี่ยง ต่อการสูญพันธุ์จากน้ำมือของเราเองนั้น
04:33
is more than 100 times higher than the background rate of natural risk.
74
273227
4797
มีมากกว่า 100 เท่า เมื่อเทียบกับความเสี่ยงจากภัยธรรมชาติ
04:38
But these odds depend heavily on human choices.
75
278482
4004
แต่ตัวเลขนี้ขึ้นอยู่กับ การเลือกของมนุษย์
04:42
Because most of the risk is from human action, and it’s within human control.
76
282486
5422
เพราะความเสี่ยงส่วนใหญ่เกิดจากมนุษย์ และมนุษย์สามารถควบคุมมันได้
04:47
If we treat safeguarding humanity's future as the defining issue of our time,
77
287908
4755
หากเราทำให้การปกป้องอนาคตของเรา เป็นเรื่องสำคัญในตอนนี้
04:52
we can reduce this risk.
78
292663
2127
เราจะลดความเสี่ยงนี้ได้
04:55
Whether humanity fulfils its potential—
79
295082
2836
มนุษยชาติจะทำได้
04:57
or not—
80
297918
1168
หรือไม่
05:00
is in our hands.
81
300129
1793
ขึ้นอยู่กับตัวเราเอง
เกี่ยวกับเว็บไซต์นี้

ไซต์นี้จะแนะนำคุณเกี่ยวกับวิดีโอ YouTube ที่เป็นประโยชน์สำหรับการเรียนรู้ภาษาอังกฤษ คุณจะได้เห็นบทเรียนภาษาอังกฤษที่สอนโดยอาจารย์ชั้นนำจากทั่วโลก ดับเบิลคลิกที่คำบรรยายภาษาอังกฤษที่แสดงในแต่ละหน้าของวิดีโอเพื่อเล่นวิดีโอจากที่นั่น คำบรรยายเลื่อนซิงค์กับการเล่นวิดีโอ หากคุณมีความคิดเห็นหรือคำขอใด ๆ โปรดติดต่อเราโดยใช้แบบฟอร์มการติดต่อนี้

https://forms.gle/WvT1wiN1qDtmnspy7