The 4 greatest threats to the survival of humanity

485,277 views ・ 2022-07-19

TED-Ed


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video.

Translator: lý hân Reviewer: My Den
00:10
In January of 1995, Russia detected a nuclear missile headed its way.
0
10840
5964
Tháng 1 năm 1995, nước Nga phát hiện tên lửa hạt nhân đang trên đường lao đến.
00:16
The alert went all the way to the president,
1
16804
2836
Cảnh báo được gửi đến tận tay tổng thống,
00:19
who was deciding whether to strike back
2
19640
2962
khi ông đang cân nhắc liệu có nên đánh trả
00:22
when another system contradicted the initial warning.
3
22602
3378
một hệ thống khác thông báo hoàn toàn ngược lại so với báo cáo ban đầu.
00:26
What they thought was the first missile in a massive attack
4
26355
3796
Thứ họ tưởng là tên lửa mở đường cho một cuộc tấn công vĩ mô
00:30
was actually a research rocket studying the Northern Lights.
5
30151
4338
thực chất chỉ là tên lửa nghiên cứu Bắc cực quang.
00:35
This incident happened after the end of the Cold War,
6
35156
3420
Sự việc xảy ra sau khi Chiến Tranh Lạnh đã kết thúc,
00:38
but was nevertheless one of the closest calls we’ve had
7
38576
3504
nhưng vẫn là một trong những hồi chuông báo động sớm nhất
00:42
to igniting a global nuclear war.
8
42080
2961
về khả năng bắt đầu một cuộc chiến tranh hạt nhân toàn cầu.
00:45
With the invention of the atomic bomb,
9
45833
2169
Với sự ra đời của bom nguyên tử,
00:48
humanity gained the power to destroy itself for the first time in our history.
10
48002
5339
lần đầu tiên trong lịch sử loài người có được sức mạnh tự hủy diệt.
00:53
Since then, our existential risk—
11
53341
3086
Từ đó, rủi ro về sự tồn tại của nhân loại—
00:56
risk of either extinction
12
56427
1835
dù là nguy cơ tuyệt chủng
00:58
or the unrecoverable collapse of human civilization—
13
58262
3379
hay sự sụp đổ không thể cứu vãn của nền văn minh nhân loại—
01:01
has steadily increased.
14
61641
1918
dần trở nên khả thi.
01:04
It’s well within our power to reduce this risk,
15
64060
2961
Ngăn chặn nguy cơ này hoàn toàn nằm trong khả năng con người,
01:07
but in order to do so,
16
67021
1585
nhưng để làm được điều đó,
01:08
we have to understand which of our activities
17
68606
2753
chúng ta phải hiểu những hoạt động nào của chúng ta
01:11
pose existential threats now, and which might in the future.
18
71359
4504
đặt ra các mối đe dọa hiện hữu ngay bây giờ, và có thể trong tương lai.
01:16
So far, our species has survived 2,000 centuries,
19
76489
4379
Cho đến nay, giống loài của ta đã tồn tại qua 2000 thế kỉ,
01:20
each with some extinction risk from natural causes—
20
80868
3754
mỗi thế kỉ đều có nguy cơ tuyệt chủng do tác động tự nhiên—
01:24
asteroid impacts, supervolcanoes, and the like.
21
84622
3128
chấn động từ các tiểu hành tinh, siêu núi lửa phun trào, và tương tự.
01:28
Assessing existential risk is an inherently uncertain business
22
88000
4338
Đánh giá rủi ro tồn tại là một công việc vốn không chắc chắn
01:32
because usually when we try to figure out how likely something is,
23
92338
3921
bởi vì thông thường khi chúng ta cố gắng tìm ra khả năng xảy ra một điều gì đó,
01:36
we check how often it's happened before.
24
96259
2460
chúng ta kiểm tra tần suất nó xảy ra trước đây.
01:38
But the complete destruction of humanity has never happened before.
25
98719
4255
Nhưng sự hủy diệt hoàn toàn của nhân loại chưa từng xảy ra trước đây.
01:43
While there’s no perfect method to determine our risk from natural threats,
26
103474
4004
Dù không có phương pháp hoàn hảo để xác định rủi ro trước các mối đe dọa tự nhiên,
01:47
experts estimate it’s about 1 in 10,000 per century.
27
107478
4922
các chuyên gia ước tính tỷ lệ này là khoảng 1/10000 mỗi thế kỷ.
01:52
Nuclear weapons were our first addition to that baseline.
28
112692
3503
Vũ khí hạt nhân là sự bổ sung đầu tiên vào khả năng ấy.
01:56
While there are many risks associated with nuclear weapons,
29
116612
3170
Trong khi có nhiều rủi ro bắt nguồn từ vũ khí hạt nhân,
01:59
the existential risk comes from the possibility
30
119782
3087
rủi ro sinh tồn đến từ khả năng diễn ra
02:02
of a global nuclear war that leads to a nuclear winter,
31
122869
4379
về một cuộc chiến tranh hạt nhân toàn cầu dẫn đến đến một mùa đông hạt nhân,
02:07
where soot from burning cities blocks out the sun for years,
32
127248
4171
khi khói đen từ các thành phố cháy rụi che mất mặt trời trong nhiều năm,
02:11
causing the crops that humanity depends on to fail.
33
131419
3253
khiến cho mùa màng mà loài người phụ thuộc vào thất bại.
02:15
We haven't had a nuclear war yet,
34
135339
2253
Chúng ta vẫn chưa gây ra cuộc chiến tranh hạt nhân nào,
02:17
but our track record is too short to tell if they’re inherently unlikely
35
137592
4421
nhưng dữ liệu của chúng ta quá ít để biết liệu chúng có khả năng xảy ra không
02:22
or we’ve simply been lucky.
36
142013
1710
hay đơn giản ta chỉ đang ăn may.
02:24
We also can’t say for sure
37
144307
1459
Chúng ta cũng không thể khẳng định
02:25
whether a global nuclear war would cause a nuclear winter so severe
38
145766
4713
liệu chiến tranh hạt nhân có dẫn đến mùa đông hạt nhân tồi tệ đến nỗi
02:30
it would pose an existential threat to humanity.
39
150479
2712
đe dọa sự tồn tại của nhân loại hay không.
02:33
The next major addition to our existential risk was climate change.
40
153858
5047
Nhân tố tiếp theo góp phần vào rủi ro tồn tại của con người là biến đổi khí hậu.
02:39
Like nuclear war, climate change could result
41
159322
2794
Như chiến tranh hạt nhân, biến đổi khí hẩu có thể dẫn đến
02:42
in a lot of terrible scenarios that we should be working hard to avoid,
42
162116
4880
nhiều viễn cảnh trầm trọng mà chúng ta nên nỗ lực tránh,
02:46
but that would stop short of causing extinction or unrecoverable collapse.
43
166996
4713
nhưng đó chỉ ngăn chặn tạm thời sự tuyệt chủng hoặc sụp đổ không thể xoay chuyển.
02:52
We expect a few degrees Celsius of warming,
44
172043
2794
Chúng tôi dự kiến ​​ấm lên vài độ C,
02:54
but can’t yet completely rule out 6 or even 10 degrees,
45
174837
4171
nhưng không thể hoàn toàn loại bỏ khả năng tăng 6 hoặc thậm chí 10 độ,
02:59
which would cause a calamity of possibly unprecedented proportions.
46
179008
4338
việc này có thể gây ra thảm họa với hậu quả chưa từng có.
03:03
Even in this worst-case scenario,
47
183596
2127
Trường hợp xấu nhất,
03:05
it’s not clear whether warming would pose a direct existential risk,
48
185723
4046
vẫn không thể chắc chắn việc ấm lên sẽ ảnh hưởng trực tiếp đến sự tồn tại của ta,
03:09
but the disruption it would cause would likely make us more vulnerable
49
189769
3378
nhưng sự gián đoạn mà nó gây ra có thể làm cho con người yếu thế hơn
03:13
to other existential risks.
50
193147
2002
trước một rủi ro tồn tại khác.
03:15
The greatest risks may come from technologies that are still emerging.
51
195566
4546
Rủi ro lớn nhất có lẽ đến từ các công nghệ vẫn đang trên đà phát triển.
03:20
Take engineered pandemics.
52
200112
2294
Như đại dịch nhân tạo.
03:22
The biggest catastrophes in human history have been from pandemics.
53
202406
4547
Những thảm họa lớn nhất trong lịch sử loài người đều bắt nguồn đại dịch bệnh.
03:27
And biotechnology is enabling us to modify and create germs
54
207203
3670
Và công nghệ sinh học đang cho phép ta chỉnh sửa và tạo ra các mầm bệnh
03:30
that could be much more deadly than naturally occurring ones.
55
210873
3462
còn có thể chết chóc hơn các mầm bệnh bắt nguồn từ tự nhiên.
03:34
Such germs could cause pandemics through biowarfare and research accidents.
56
214752
4588
Mầm bệnh trở thành đại dịch qua chiến tranh sinh học hoặc tai nạn nghiên cứu.
03:39
Decreased costs of genome sequencing and modification,
57
219340
3211
Giá cả của việc giải trình tự và chỉnh sửa bộ gen càng đi xuống,
03:42
along with increased availability of potentially dangerous information
58
222551
3921
ccùng với sự sẵn có ngày càng tăng của thông tin nguy hiểm tiềm ẩn
03:46
like the published genomes of deadly viruses,
59
226472
2544
như công bố về các bộ gen của các vi rút chết chóc,
03:49
also increase the number of people and groups
60
229016
2711
cũng góp phần gia tăng số cá nhân và nhóm người
03:51
who could potentially create such pathogens.
61
231727
2920
có thể tạo ra các dịch bệnh tương tự.
03:55
Another concern is unaligned AI.
62
235564
2878
Mâu thuẫn về AI là một mối lo khác.
03:58
Most AI researchers think this will be the century
63
238442
2586
Đa phần các nhà nghiên cứu AI cho rằng thế kỉ này
04:01
where we develop artificial intelligence that surpasses human abilities
64
241028
4338
là lúc ta phát triển trí tuệ nhân tạo vượt trội hơn cả khả năng con người
04:05
across the board.
65
245366
1293
trong mọi lĩnh vực.
04:06
If we cede this advantage, we place our future in the hands
66
246659
4129
Nếu chúng ta từ bỏ lợi thế này, chúng ta đặt tương lai của chính mình vào tay
04:10
of the systems we create.
67
250788
2002
các hệ thống mà chính chúng ta tạo nên.
04:12
Even if created solely with humanity’s best interests in mind,
68
252790
3712
Ngay cả khi được tạo ra chỉ vì lợi ích tốt nhất của con người,
04:16
superintelligent AI could pose an existential risk
69
256502
3504
AI siêu trí tuệ có thể đem lại nguy cơ tồn tại
04:20
if it isn’t perfectly aligned with human values—
70
260006
3420
nếu nó mẫu thuẫn với giá trị của con người-
04:23
a task scientists are finding extremely difficult.
71
263426
3503
một nhiệm vụ mà các nhà khoa học đang tìm kiếm vô cùng khó khăn.
Dựa trên những gì chúng tôi biết tại thời điểm này,
04:27
Based on what we know at this point,
72
267346
2044
04:29
some experts estimate the anthropogenic existential risk
73
269390
3837
một số chuyên gia ước tính nguy cơ tồn tại do thảm họa nhân tạo
04:33
is more than 100 times higher than the background rate of natural risk.
74
273227
4797
cao hơn 100 lần so với tỉ lệ thảm họa tự nhiên mà chúng ta đã biết.
04:38
But these odds depend heavily on human choices.
75
278482
4004
Nhưng những tỷ lệ cược này phụ thuộc nhiều vào sự lựa chọn của con người.
04:42
Because most of the risk is from human action, and it’s within human control.
76
282486
5422
Vì hầu hết rủi ro là từ hành động con người, và nằm trong tầm kiểm soát của ta.
04:47
If we treat safeguarding humanity's future as the defining issue of our time,
77
287908
4755
Nếu chúng ta xem việc bảo vệ tương lai của nhân loại
là vấn đề quan trọng của thời đại chúng ta,
04:52
we can reduce this risk.
78
292663
2127
chúng ta có thể giảm nguy cơ này.
04:55
Whether humanity fulfils its potential—
79
295082
2836
Liệu nhân loại có phát huy hết tiềm năng của mình—
04:57
or not—
80
297918
1168
hay không—
05:00
is in our hands.
81
300129
1793
phụ thuộc vào chúng ta.
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7