下の英語字幕をダブルクリックすると動画を再生できます。
翻訳: Kumiko UGAJIN
校正: Tomoyuki Suzuki
00:10
In January of 1995, Russia detected
a nuclear missile headed its way.
0
10840
5964
1995年1月 ロシアは1発の
核ミサイルの飛来を探知しました
00:16
The alert went all the way
to the president,
1
16804
2836
警報は大統領まで伝えられ
00:19
who was deciding whether to strike back
2
19640
2962
反撃するかどうか検討されました
00:22
when another system contradicted
the initial warning.
3
22602
3378
別のシステムが最初の警報と
矛盾していたからです
00:26
What they thought was the first missile
in a massive attack
4
26355
3796
大規模攻撃の最初の1発だと
考えられたものは
00:30
was actually a research rocket
studying the Northern Lights.
5
30151
4338
実際はオーロラを研究する
調査用ロケットでした
00:35
This incident happened
after the end of the Cold War,
6
35156
3420
この事件は 冷戦終結後のことでしたが
00:38
but was nevertheless one of the closest
calls we’ve had
7
38576
3504
地球規模の核戦争の引き金となりうる
00:42
to igniting a global nuclear war.
8
42080
2961
かつてないほど際どい出来事の
ひとつとなりました
00:45
With the invention of the atomic bomb,
9
45833
2169
原爆の発明で
00:48
humanity gained the power to destroy
itself for the first time in our history.
10
48002
5339
人類は 史上初めて
自らを滅ぼす力を手に入れました
00:53
Since then, our existential risk—
11
53341
3086
以来 人類の存続を脅かすリスク ―
00:56
risk of either extinction
12
56427
1835
つまり 人類滅亡のリスク
00:58
or the unrecoverable collapse
of human civilization—
13
58262
3379
または 人類の文明を再生不能にまで
破壊するリスクですが―
01:01
has steadily increased.
14
61641
1918
これは 着々と増しています
01:04
It’s well within our power
to reduce this risk,
15
64060
2961
このリスクを減らす能力を
人類は十分持っています
01:07
but in order to do so,
16
67021
1585
しかし そうするには
01:08
we have to understand which
of our activities
17
68606
2753
人類の活動のうち
現在 脅威となっているのは何か
01:11
pose existential threats now,
and which might in the future.
18
71359
4504
また 将来 脅威となりうるのは何か
理解する必要があります
01:16
So far, our species has survived
2,000 centuries,
19
76489
4379
これまで 人類は2,000世紀ほどを
生きており
01:20
each with some extinction risk
from natural causes—
20
80868
3754
どの世紀にも自然が原因となる
滅亡のリスクを回避してきました
01:24
asteroid impacts, supervolcanoes,
and the like.
21
84622
3128
小惑星の衝突 火山の大噴火などです
01:28
Assessing existential risk is
an inherently uncertain business
22
88000
4338
人類の存続を脅かすリスクを見積もるのは
本来 不確実なことです
01:32
because usually when we try to figure out
how likely something is,
23
92338
3921
何かが発生する確率を
計算するには 普通
01:36
we check how often it's happened before.
24
96259
2460
それが今まで発生した頻度を
調べるからです
01:38
But the complete destruction of humanity
has never happened before.
25
98719
4255
しかし 人類の完全な破滅は
今まで起きたことがありません
01:43
While there’s no perfect method to
determine our risk from natural threats,
26
103474
4004
自然の脅威によるリスクを判断する
完璧な方法は存在しない一方で
01:47
experts estimate it’s about
1 in 10,000 per century.
27
107478
4922
専門家はそれを 1世紀につき
約1万分の1と推定しています
01:52
Nuclear weapons were our first
addition to that baseline.
28
112692
3503
核兵器は この基準値を
人類が初めて上昇させました
01:56
While there are many risks associated
with nuclear weapons,
29
116612
3170
核兵器の直接的なリスクが
多くある一方で
01:59
the existential risk comes
from the possibility
30
119782
3087
人類の存続を脅かすリスクが
02:02
of a global nuclear war that leads
to a nuclear winter,
31
122869
4379
核の冬をもたらす 地球規模の核戦争の
可能性から生じます
02:07
where soot from burning cities
blocks out the sun for years,
32
127248
4171
市街の火災で生じる すすが
何年も太陽をさえぎり
02:11
causing the crops that humanity
depends on to fail.
33
131419
3253
人類が頼みにしている穀物が
実らなくなります
02:15
We haven't had a nuclear war yet,
34
135339
2253
人類に 核の冬の経験はありませんが
02:17
but our track record is too short to tell
if they’re inherently unlikely
35
137592
4421
こうしたことはまず起きないのか
今まで幸運なだけなのか
02:22
or we’ve simply been lucky.
36
142013
1710
経験がとても不足していて
判断できません
02:24
We also can’t say for sure
37
144307
1459
また 断言できないのは
02:25
whether a global nuclear war
would cause a nuclear winter so severe
38
145766
4713
地球規模の核戦争が
核の冬を厳しいものにするに留まるか
02:30
it would pose an existential threat
to humanity.
39
150479
2712
人類存続の脅威となるのかです
02:33
The next major addition to our existential
risk was climate change.
40
153858
5047
人類の存続を脅かすリスクで 次に加わる
大きなものは 気候変動です
02:39
Like nuclear war,
climate change could result
41
159322
2794
核戦争と同様 気候変動も
何としても避けるべき
02:42
in a lot of terrible scenarios
that we should be working hard to avoid,
42
162116
4880
様々な恐ろしい状況を
もたらすかも知れませんが
02:46
but that would stop short of causing
extinction or unrecoverable collapse.
43
166996
4713
滅亡や回復不能な破壊には
至らないでしょう
02:52
We expect a few degrees
Celsius of warming,
44
172043
2794
私たちは数℃の
気温上昇を予想していますが
02:54
but can’t yet completely
rule out 6 or even 10 degrees,
45
174837
4171
6℃もしくは10℃もの上昇も
まだ 完全には除外できません
02:59
which would cause a calamity of possibly
unprecedented proportions.
46
179008
4338
こうなるとおそらく 空前規模の
大災害を引き起こすでしょう
03:03
Even in this worst-case scenario,
47
183596
2127
この最悪のシナリオにおいてさえ
03:05
it’s not clear whether warming would pose
a direct existential risk,
48
185723
4046
温暖化が人類の存続を脅かす
直接的なリスクとなるかは不透明ですが
03:09
but the disruption it would cause
would likely make us more vulnerable
49
189769
3378
温暖化による破壊により
人類の存続を脅かすリスクに対して
03:13
to other existential risks.
50
193147
2002
一層 脆弱になることでしょう
03:15
The greatest risks may come
from technologies that are still emerging.
51
195566
4546
最大のリスクは 今後登場する技術に
あるかもしれません
03:20
Take engineered pandemics.
52
200112
2294
遺伝子操作による病気の大流行を例にします
03:22
The biggest catastrophes in human history
have been from pandemics.
53
202406
4547
人類史上 最もひどい大災害は
病気の世界的な流行によるものです
03:27
And biotechnology is enabling
us to modify and create germs
54
207203
3670
加えて 生物工学によって
自然発生のものより ずっと致命的な細菌を
03:30
that could be much more deadly
than naturally occurring ones.
55
210873
3462
遺伝子操作により
作ることが可能になっています
03:34
Such germs could cause pandemics
through biowarfare and research accidents.
56
214752
4588
こうした遺伝子は 生物兵器や研究上の事故で
病気の世界的流行を招くでしょう
03:39
Decreased costs of genome sequencing
and modification,
57
219340
3211
ゲノムの配列決定と組換えの
コストが下がったことに加え
03:42
along with increased availability
of potentially dangerous information
58
222551
3921
致死性のウイルスの遺伝子が公表されるなど
潜在的に危険な情報が
03:46
like the published genomes
of deadly viruses,
59
226472
2544
入手しやすくなってきていますし
03:49
also increase the number of people
and groups
60
229016
2711
しかも こうした病原体を
作れる能力を秘めた ―
03:51
who could potentially create
such pathogens.
61
231727
2920
人々や集団の数が増えています
03:55
Another concern is unaligned AI.
62
235564
2878
次の懸念事項は
人間の価値に沿わない人工知能です
03:58
Most AI researchers think this will be
the century
63
238442
2586
人工知能の研究者のほとんどは
今世紀中に
04:01
where we develop artificial intelligence
that surpasses human abilities
64
241028
4338
人間の能力を全面的に上回る
人工知能が開発されるだろうと
04:05
across the board.
65
245366
1293
考えています
04:06
If we cede this advantage, we place
our future in the hands
66
246659
4129
人間が優位性を明け渡すと
自分たちの未来を 自らが開発したシステムに
04:10
of the systems we create.
67
250788
2002
委ねることになります
04:12
Even if created solely with humanity’s
best interests in mind,
68
252790
3712
もっぱら人類の最善の利益になることを
念頭に置いて開発されたとしても
04:16
superintelligent AI could pose
an existential risk
69
256502
3504
超知能を持つ人工知能が
人間の価値に完璧に沿っていなければ
04:20
if it isn’t perfectly aligned
with human values—
70
260006
3420
人類の存続を脅かすリスクを
もたらすかも知れません
04:23
a task scientists are finding
extremely difficult.
71
263426
3503
そのような人工知能を作ることは
非常に困難だと科学者は気づきつつあります
04:27
Based on what we know at this point,
72
267346
2044
現時点での知識に基づいて
04:29
some experts estimate the anthropogenic
existential risk
73
269390
3837
専門家の中には 人間由来の
人類破滅のリスクの程度は
04:33
is more than 100 times higher
than the background rate of natural risk.
74
273227
4797
普段から存在する自然由来のものより
百倍以上も高いと推定する人がいます
04:38
But these odds depend heavily
on human choices.
75
278482
4004
しかし こうした確率は
人類の選択に大きく依存します
04:42
Because most of the risk is from human
action, and it’s within human control.
76
282486
5422
リスクのほとんどが人類の活動によるもので
人類の管理下にあるものだからです
04:47
If we treat safeguarding humanity's future
as the defining issue of our time,
77
287908
4755
私たちが 人類の未来を護ることを
今の時代の決定的課題とするならば
04:52
we can reduce this risk.
78
292663
2127
このリスクを減らすことができます
04:55
Whether humanity fulfils its potential—
79
295082
2836
人類が 自らの潜在能力を発揮するのか―
04:57
or not—
80
297918
1168
それとも しないのか―
05:00
is in our hands.
81
300129
1793
私たちの手にかかっています
New videos
このウェブサイトについて
このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。