The 4 greatest threats to the survival of humanity

503,273 views ・ 2022-07-19

TED-Ed


下の英語字幕をダブルクリックすると動画を再生できます。

翻訳: Kumiko UGAJIN 校正: Tomoyuki Suzuki
00:10
In January of 1995, Russia detected a nuclear missile headed its way.
0
10840
5964
1995年1月 ロシアは1発の 核ミサイルの飛来を探知しました
00:16
The alert went all the way to the president,
1
16804
2836
警報は大統領まで伝えられ
00:19
who was deciding whether to strike back
2
19640
2962
反撃するかどうか検討されました
00:22
when another system contradicted the initial warning.
3
22602
3378
別のシステムが最初の警報と 矛盾していたからです
00:26
What they thought was the first missile in a massive attack
4
26355
3796
大規模攻撃の最初の1発だと 考えられたものは
00:30
was actually a research rocket studying the Northern Lights.
5
30151
4338
実際はオーロラを研究する 調査用ロケットでした
00:35
This incident happened after the end of the Cold War,
6
35156
3420
この事件は 冷戦終結後のことでしたが
00:38
but was nevertheless one of the closest calls we’ve had
7
38576
3504
地球規模の核戦争の引き金となりうる
00:42
to igniting a global nuclear war.
8
42080
2961
かつてないほど際どい出来事の ひとつとなりました
00:45
With the invention of the atomic bomb,
9
45833
2169
原爆の発明で
00:48
humanity gained the power to destroy itself for the first time in our history.
10
48002
5339
人類は 史上初めて 自らを滅ぼす力を手に入れました
00:53
Since then, our existential risk—
11
53341
3086
以来 人類の存続を脅かすリスク ―
00:56
risk of either extinction
12
56427
1835
つまり 人類滅亡のリスク
00:58
or the unrecoverable collapse of human civilization—
13
58262
3379
または 人類の文明を再生不能にまで 破壊するリスクですが―
01:01
has steadily increased.
14
61641
1918
これは 着々と増しています
01:04
It’s well within our power to reduce this risk,
15
64060
2961
このリスクを減らす能力を 人類は十分持っています
01:07
but in order to do so,
16
67021
1585
しかし そうするには
01:08
we have to understand which of our activities
17
68606
2753
人類の活動のうち 現在 脅威となっているのは何か
01:11
pose existential threats now, and which might in the future.
18
71359
4504
また 将来 脅威となりうるのは何か 理解する必要があります
01:16
So far, our species has survived 2,000 centuries,
19
76489
4379
これまで 人類は2,000世紀ほどを 生きており
01:20
each with some extinction risk from natural causes—
20
80868
3754
どの世紀にも自然が原因となる 滅亡のリスクを回避してきました
01:24
asteroid impacts, supervolcanoes, and the like.
21
84622
3128
小惑星の衝突 火山の大噴火などです
01:28
Assessing existential risk is an inherently uncertain business
22
88000
4338
人類の存続を脅かすリスクを見積もるのは 本来 不確実なことです
01:32
because usually when we try to figure out how likely something is,
23
92338
3921
何かが発生する確率を 計算するには 普通
01:36
we check how often it's happened before.
24
96259
2460
それが今まで発生した頻度を 調べるからです
01:38
But the complete destruction of humanity has never happened before.
25
98719
4255
しかし 人類の完全な破滅は 今まで起きたことがありません
01:43
While there’s no perfect method to determine our risk from natural threats,
26
103474
4004
自然の脅威によるリスクを判断する 完璧な方法は存在しない一方で
01:47
experts estimate it’s about 1 in 10,000 per century.
27
107478
4922
専門家はそれを 1世紀につき 約1万分の1と推定しています
01:52
Nuclear weapons were our first addition to that baseline.
28
112692
3503
核兵器は この基準値を 人類が初めて上昇させました
01:56
While there are many risks associated with nuclear weapons,
29
116612
3170
核兵器の直接的なリスクが 多くある一方で
01:59
the existential risk comes from the possibility
30
119782
3087
人類の存続を脅かすリスクが
02:02
of a global nuclear war that leads to a nuclear winter,
31
122869
4379
核の冬をもたらす 地球規模の核戦争の 可能性から生じます
02:07
where soot from burning cities blocks out the sun for years,
32
127248
4171
市街の火災で生じる すすが 何年も太陽をさえぎり
02:11
causing the crops that humanity depends on to fail.
33
131419
3253
人類が頼みにしている穀物が 実らなくなります
02:15
We haven't had a nuclear war yet,
34
135339
2253
人類に 核の冬の経験はありませんが
02:17
but our track record is too short to tell if they’re inherently unlikely
35
137592
4421
こうしたことはまず起きないのか 今まで幸運なだけなのか
02:22
or we’ve simply been lucky.
36
142013
1710
経験がとても不足していて 判断できません
02:24
We also can’t say for sure
37
144307
1459
また 断言できないのは
02:25
whether a global nuclear war would cause a nuclear winter so severe
38
145766
4713
地球規模の核戦争が 核の冬を厳しいものにするに留まるか
02:30
it would pose an existential threat to humanity.
39
150479
2712
人類存続の脅威となるのかです
02:33
The next major addition to our existential risk was climate change.
40
153858
5047
人類の存続を脅かすリスクで 次に加わる 大きなものは 気候変動です
02:39
Like nuclear war, climate change could result
41
159322
2794
核戦争と同様 気候変動も 何としても避けるべき
02:42
in a lot of terrible scenarios that we should be working hard to avoid,
42
162116
4880
様々な恐ろしい状況を もたらすかも知れませんが
02:46
but that would stop short of causing extinction or unrecoverable collapse.
43
166996
4713
滅亡や回復不能な破壊には 至らないでしょう
02:52
We expect a few degrees Celsius of warming,
44
172043
2794
私たちは数℃の 気温上昇を予想していますが
02:54
but can’t yet completely rule out 6 or even 10 degrees,
45
174837
4171
6℃もしくは10℃もの上昇も まだ 完全には除外できません
02:59
which would cause a calamity of possibly unprecedented proportions.
46
179008
4338
こうなるとおそらく 空前規模の 大災害を引き起こすでしょう
03:03
Even in this worst-case scenario,
47
183596
2127
この最悪のシナリオにおいてさえ
03:05
it’s not clear whether warming would pose a direct existential risk,
48
185723
4046
温暖化が人類の存続を脅かす 直接的なリスクとなるかは不透明ですが
03:09
but the disruption it would cause would likely make us more vulnerable
49
189769
3378
温暖化による破壊により 人類の存続を脅かすリスクに対して
03:13
to other existential risks.
50
193147
2002
一層 脆弱になることでしょう
03:15
The greatest risks may come from technologies that are still emerging.
51
195566
4546
最大のリスクは 今後登場する技術に あるかもしれません
03:20
Take engineered pandemics.
52
200112
2294
遺伝子操作による病気の大流行を例にします
03:22
The biggest catastrophes in human history have been from pandemics.
53
202406
4547
人類史上 最もひどい大災害は 病気の世界的な流行によるものです
03:27
And biotechnology is enabling us to modify and create germs
54
207203
3670
加えて 生物工学によって 自然発生のものより ずっと致命的な細菌を
03:30
that could be much more deadly than naturally occurring ones.
55
210873
3462
遺伝子操作により 作ることが可能になっています
03:34
Such germs could cause pandemics through biowarfare and research accidents.
56
214752
4588
こうした遺伝子は 生物兵器や研究上の事故で 病気の世界的流行を招くでしょう
03:39
Decreased costs of genome sequencing and modification,
57
219340
3211
ゲノムの配列決定と組換えの コストが下がったことに加え
03:42
along with increased availability of potentially dangerous information
58
222551
3921
致死性のウイルスの遺伝子が公表されるなど 潜在的に危険な情報が
03:46
like the published genomes of deadly viruses,
59
226472
2544
入手しやすくなってきていますし
03:49
also increase the number of people and groups
60
229016
2711
しかも こうした病原体を 作れる能力を秘めた ―
03:51
who could potentially create such pathogens.
61
231727
2920
人々や集団の数が増えています
03:55
Another concern is unaligned AI.
62
235564
2878
次の懸念事項は 人間の価値に沿わない人工知能です
03:58
Most AI researchers think this will be the century
63
238442
2586
人工知能の研究者のほとんどは 今世紀中に
04:01
where we develop artificial intelligence that surpasses human abilities
64
241028
4338
人間の能力を全面的に上回る 人工知能が開発されるだろうと
04:05
across the board.
65
245366
1293
考えています
04:06
If we cede this advantage, we place our future in the hands
66
246659
4129
人間が優位性を明け渡すと 自分たちの未来を 自らが開発したシステムに
04:10
of the systems we create.
67
250788
2002
委ねることになります
04:12
Even if created solely with humanity’s best interests in mind,
68
252790
3712
もっぱら人類の最善の利益になることを 念頭に置いて開発されたとしても
04:16
superintelligent AI could pose an existential risk
69
256502
3504
超知能を持つ人工知能が 人間の価値に完璧に沿っていなければ
04:20
if it isn’t perfectly aligned with human values—
70
260006
3420
人類の存続を脅かすリスクを もたらすかも知れません
04:23
a task scientists are finding extremely difficult.
71
263426
3503
そのような人工知能を作ることは 非常に困難だと科学者は気づきつつあります
04:27
Based on what we know at this point,
72
267346
2044
現時点での知識に基づいて
04:29
some experts estimate the anthropogenic existential risk
73
269390
3837
専門家の中には 人間由来の 人類破滅のリスクの程度は
04:33
is more than 100 times higher than the background rate of natural risk.
74
273227
4797
普段から存在する自然由来のものより 百倍以上も高いと推定する人がいます
04:38
But these odds depend heavily on human choices.
75
278482
4004
しかし こうした確率は 人類の選択に大きく依存します
04:42
Because most of the risk is from human action, and it’s within human control.
76
282486
5422
リスクのほとんどが人類の活動によるもので 人類の管理下にあるものだからです
04:47
If we treat safeguarding humanity's future as the defining issue of our time,
77
287908
4755
私たちが 人類の未来を護ることを 今の時代の決定的課題とするならば
04:52
we can reduce this risk.
78
292663
2127
このリスクを減らすことができます
04:55
Whether humanity fulfils its potential—
79
295082
2836
人類が 自らの潜在能力を発揮するのか―
04:57
or not—
80
297918
1168
それとも しないのか―
05:00
is in our hands.
81
300129
1793
私たちの手にかかっています
このウェブサイトについて

このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。

https://forms.gle/WvT1wiN1qDtmnspy7