下の英語字幕をダブルクリックすると動画を再生できます。
翻訳: Nao Okazaki
校正: Tomoyuki Suzuki
00:07
What's the most important century
in human history?
0
7003
3587
歴史上 最も重要な世紀とは?
00:11
Some might argue it’s a period
of extensive military campaigning,
1
11049
3920
アレクサンダー大王による
軍事作戦が行われ
00:14
like Alexander the Great’s
in the 300s BCE,
2
14969
3545
政治や文化的な境界線が変更された ―
00:18
which reshaped political
and cultural borders.
3
18848
3253
紀元前300年代という人もいれば
00:23
Others might cite the emergence
of a major religion,
4
23936
3087
主要な宗教である
イスラム教が創始 成文化され
00:27
such as Islam in the 7th century,
5
27023
2127
国境を越えて
00:29
which codified and spread values
across such borders.
6
29525
3504
その価値観が広まった
7世紀という人もいます
00:35
Or perhaps it’s the Industrial Revolution
of the 1700s
7
35531
3462
もしくは産業革命が起きた
1700年代はどうでしょうか?
00:38
that transformed global commerce
8
38993
1752
産業革命は商業の在り方を
00:40
and redefined humanity's relationship
with labor.
9
40745
3128
世界的な規模で変革し
人類と労働の関係を再定義しました
00:44
Whatever the answer, it seems like
any century vying for that top spot
10
44165
4129
どの答えにしても
最重要世紀を狙う候補はいずれも
00:48
is at a moment of great change—
11
48294
2377
大きな変化が起きた時 ―
00:51
when the actions of our ancestors shifted
humanity’s trajectory
12
51631
4171
つまり 先祖の行動に変化が起き
その後の世紀に向けて
00:55
for centuries to come.
13
55802
1584
人類が歩む軌跡に変化が起きた時代です
00:57
So if this is our metric,
is it possible that right now—
14
57720
3921
それが基準ならば まさに今こそ ―
01:01
this century—
is the most important one yet?
15
61641
3086
今世紀こそ 最も重要だと
言えるでしょうか?
01:05
The 21st century has already proven to be
a period of rapid technological growth.
16
65770
5213
21世紀は 既に急速な技術革新を
成し遂げています
01:11
Phones and computers have accelerated
the pace of life.
17
71234
3128
電話やコンピュータは
人生のスピードを速めました
01:14
And we’re likely on the cusp of developing
new transformative technologies,
18
74403
4171
また 変革を起こすような新技術が
登場しようとしています
01:18
like advanced artificial intelligence,
19
78574
2294
例えば 進化した人工知能など
01:20
that could entirely change
the way people live.
20
80868
2878
人の生き方を大きく変える可能性を秘めた
新技術の登場です
01:25
Meanwhile, many technologies
we already have
21
85414
3045
一方で 既にある技術の多くは
01:28
contribute to humanity’s unprecedented
levels of existential risk—
22
88459
4838
過去最悪のレベルで
人類の存続を脅かしています
01:33
that’s the risk of our
species going extinct
23
93381
2377
つまり 人類を絶滅させたり
01:35
or experiencing some kind of disaster
that permanently limits
24
95758
3420
大災害が引き起こされることにより
01:39
humanity’s ability to grow and thrive.
25
99178
2670
人類の成長と繁栄が
恒久的に制限されるリスクです
01:43
The invention of the atomic bomb marked
a major rise in existential risk,
26
103266
4629
原子爆弾の発明は
人類存続に対する最たるリスクであり
01:48
and since then we’ve only increased
the odds against us.
27
108396
3879
それ以来 絶滅のリスクは
高まる一方です
01:52
It’s profoundly difficult
to estimate the odds
28
112900
2628
人類の崩壊が
今世紀中に起こる確率を
01:55
of an existential collapse
occurring this century.
29
115528
2628
推定することは
極めて困難です
01:58
Very rough guesses put the risk
of existential catastrophe
30
118239
3462
核の冬や気候変動による大惨事は
02:01
due to nuclear winter and climate change
at around 0.1%,
31
121701
4880
おおよそ0.1%の確率で起きると
見積もられており
02:08
with the odds of a pandemic causing
the same kind of collapse
32
128291
3211
パンデミックにより
同様の惨事が起こる確率は
02:11
at a frightening 3%.
33
131502
1960
なんと3%と見積もられています
02:14
Given that any of these disasters could
mean the end of life as we know it,
34
134005
4880
いずれの惨事も 今あるような世界の
終わりを意味するのならば
02:19
these aren’t exactly small figures,
35
139177
2127
決して低い確率とはいえません
02:21
And it’s possible this century could see
the rise of new technologies
36
141304
4004
今世紀中に 存在リスクを
更に高めるような新技術が
02:25
that introduce more existential risks.
37
145308
2794
生み出されるかもしれません
02:29
AI experts have a wide range
of estimates regarding
38
149103
2628
汎用人工知能の出現時期については
02:31
when artificial general intelligence
will emerge,
39
151731
2961
AIの専門家によって
大きなばらつきがありますが
02:34
but according to some surveys,
many believe it could happen this century.
40
154734
4087
いくつかの調査によると
多くの専門家は 今世紀だと考えています
02:39
Currently, we have relatively narrow forms
of artificial intelligence,
41
159655
3837
現在は AIは
限定的な機能しかもたず
02:43
which are designed to do specific tasks
like play chess or recognize faces.
42
163492
4588
“チェス”や “顔認識”といった
特定のタスクを行うように設計されています
02:49
Even narrow AIs that do creative work are
limited to their singular specialty.
43
169040
5213
クリエイティブなAIでさえ
専門外のことはできません
02:54
But artificial general intelligences,
or AGIs,
44
174503
3629
しかし AGIと呼ばれる汎用人工知能は
02:58
would be able to adapt to and
perform any number of tasks,
45
178132
3837
複数の課題に適応し
作業をこなすことが可能になり
03:02
quickly outpacing
their human counterparts.
46
182678
2878
迅速に人間を
超えていくことでしょう
03:06
There are a huge variety of guesses
about what AGI could look like,
47
186849
4088
AGIの外形や
人類が別の意識体と
03:11
and what it would mean
for humanity to share the Earth
48
191646
2836
地球上で共生することの
意味については
03:14
with another sentient entity.
49
194482
2127
様々な予測があります
03:18
AGIs might help us achieve our goals,
50
198653
2544
AGIは私たちの目的達成のために
役立つかもしれませんし
03:21
they might regard us as inconsequential,
51
201197
2294
私たちを つまらぬ者とみなしたり
03:23
or, they might see us as an obstacle
to swiftly remove.
52
203491
3170
邪魔者として さっさと
排除したりするかもしれません
03:26
So in terms of existential risk,
53
206869
2169
ですから 人類の存続のためには
03:29
it's imperative the values of this new
technology align with our own.
54
209038
4087
この新技術の価値を
上手く利用していかねばなりません
03:33
This is an incredibly difficult
philosophical and engineering challenge
55
213501
3879
これは 多くの繊細で緻密な
設計が求められる ―
03:37
that will require a lot
of delicate, thoughtful work.
56
217380
3086
哲学的にも工学的にも大変な難題です
03:40
Yet, even if we succeed, AGI could still
lead to another complicated outcome.
57
220967
5213
例え成功しても AGIは
別の問題を生じさせる可能性があります
03:46
Let’s imagine an AGI emerges
with deep respect for human life
58
226847
3796
人類を深く尊重し
03:50
and a desire to solve
all humanity’s troubles.
59
230643
2961
人類の諸課題の解決に努める
AIの登場を想像してみましょう
03:55
But to avoid becoming misaligned,
60
235231
2169
人の目的と整合的で
あろうとするばかりに
03:57
it's been developed to be incredibly
rigid about its beliefs.
61
237400
3628
その信念に対し
極めて厳格であるように作られます
04:01
If these machines became
the dominant power on Earth,
62
241237
3086
この機械が地球を支配すれば
04:04
their strict values might
become hegemonic,
63
244323
2711
厳格な価値観が支配的になり
04:07
locking humanity into one ideology that
would be incredibly resistant to change.
64
247034
5214
人類は一つの価値観に縛られ
変化は許されなくなるかもしれません
04:14
History has taught us that
no matter how enlightened
65
254792
2503
私たちが歴史から学んできたことは
自分たちの文明が
04:17
a civilization thinks they are,
66
257295
1793
いかに啓蒙的だと信じていても
04:19
they are rarely up to the moral standards
of later generations.
67
259088
3795
後世の倫理観に及ぶことは
滅多にないということです
04:23
And this kind of value lock in
could permanently distort or constrain
68
263009
4629
このように一つの価値観に固定してしまうと
人類の道徳観の成長を
04:27
humanity’s moral growth.
69
267638
1919
恒久的に捻じ曲げ
抑制するかもしれません
04:30
There's a ton of uncertainty around AGI,
70
270016
2585
AGIには まだ多くの不確実性があり
04:32
and it’s profoundly difficult to predict
how any existential risks
71
272601
3713
存続の危機が次の世紀に
どのように展開するか
04:36
will play out over the next century.
72
276314
2002
予測することは非常に困難です
04:38
It’s also possible that new,
more pressing concerns
73
278649
2920
このような議論も
新たな深刻な問題が生じることで
04:41
might render these risks moot.
74
281569
2002
無意味になるかもしれません
04:43
But even if we can't definitively say that
ours is the most important century,
75
283904
4713
しかし 今が最も重要な世紀だと
断言できなくても
04:48
it still seems like the decisions
we make might have a major impact
76
288617
3754
それでもなお 私たちの選択は
人類の未来に大きな影響を
04:52
on humanity’s future.
77
292371
1502
及ぼすように思われます
04:54
So maybe we should all live
like the future depends on us—
78
294415
3211
だから 未来は私たち次第だと思って
生きていくべきなのでしょう
04:57
because actually, it just might.
79
297626
2211
実際 そうなのかも
しれないのですから
New videos
このウェブサイトについて
このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。