Martin Rees: Can we prevent the end of the world?

サー・マーティン・リース: 今世紀 我々は人類の終わりを回避できるか

151,587 views

2014-08-25 ・ TED


New videos

Martin Rees: Can we prevent the end of the world?

サー・マーティン・リース: 今世紀 我々は人類の終わりを回避できるか

151,587 views ・ 2014-08-25

TED


下の英語字幕をダブルクリックすると動画を再生できます。

翻訳: Reiko Bovee 校正: Yuko Yoshida
00:12
Ten years ago, I wrote a book which I entitled
0
12485
2222
10年前 私は本を書きました
00:14
"Our Final Century?" Question mark.
1
14707
3093
題は『今世紀で人類は終わる?』 と疑問符がついたものでしたが
00:17
My publishers cut out the question mark. (Laughter)
2
17800
3577
出版社は疑問符を取りました (笑)
00:21
The American publishers changed our title
3
21377
1882
アメリカの出版社は それを
00:23
to "Our Final Hour."
4
23259
3909
『人類最後の日』と変えたのです
00:27
Americans like instant gratification and the reverse.
5
27168
3492
幸も不幸も待てないという アメリカ人気質なのでしょうか
00:30
(Laughter)
6
30660
1708
(笑)
00:32
And my theme was this:
7
32368
1750
今日のテーマは
00:34
Our Earth has existed for 45 million centuries,
8
34118
4166
4,500万世紀もの間 続いて来た地球の
00:38
but this one is special —
9
38284
2013
今世紀は特別で
00:40
it's the first where one species, ours,
10
40297
3016
人類が その手中に
00:43
has the planet's future in its hands.
11
43313
2802
地球の未来を 握っているという事です
00:46
Over nearly all of Earth's history,
12
46115
1990
地球は その誕生以来 ほぼずっと
00:48
threats have come from nature —
13
48105
1936
脅威は
00:50
disease, earthquakes, asteroids and so forth —
14
50041
3496
病気、地震、小惑星など 自然からのものでした
00:53
but from now on, the worst dangers come from us.
15
53537
5672
これからは 最悪の惨事を もたらすのは人類です
00:59
And it's now not just the nuclear threat;
16
59209
3271
それは何も核だとは限りません
01:02
in our interconnected world,
17
62480
1751
相互に繋がるこの世界では
01:04
network breakdowns can cascade globally;
18
64231
3163
ネットワークが断たれると 世界は瞬く間に崩壊し
01:07
air travel can spread pandemics worldwide within days;
19
67394
3956
疫病は人々の空の旅により 数日で世界中に広がり
01:11
and social media can spread panic and rumor
20
71350
3327
ソーシャルメディアは パニックと噂を拡げます
01:14
literally at the speed of light.
21
74677
3217
それも文字通り光速で
01:17
We fret too much about minor hazards —
22
77894
3225
我々はあまりに些細な問題—
01:21
improbable air crashes, carcinogens in food,
23
81119
4031
起こりそうもない飛行機事故 食物に含まれる発がん性物質
01:25
low radiation doses, and so forth —
24
85150
2226
僅かな放射線などに 動揺し過ぎです
01:27
but we and our political masters
25
87376
2825
しかし我々や政治家達は
01:30
are in denial about catastrophic scenarios.
26
90201
4203
壊滅的な筋書きには否定的です
01:34
The worst have thankfully not yet happened.
27
94404
3038
最悪のケースは 有り難い事に まだ起きてはいませんし
01:37
Indeed, they probably won't.
28
97442
2196
実際 多分起きない かもしれません
01:39
But if an event is potentially devastating,
29
99638
3185
しかし壊滅的可能性が ありそうなら
01:42
it's worth paying a substantial premium
30
102823
2868
対策を立てて
01:45
to safeguard against it, even if it's unlikely,
31
105691
3836
例え ありそうでなくても 予防策に投資する価値は十分あります
01:49
just as we take out fire insurance on our house.
32
109527
4513
家の火災保険に 入っておくようなものです
01:54
And as science offers greater power and promise,
33
114040
4997
科学の力は大きく 約束してくれるものは多い一方
01:59
the downside gets scarier too.
34
119037
3866
その否定的側面は空恐ろしく
02:02
We get ever more vulnerable.
35
122903
2239
人類はこれまでになく 危険に曝されています
02:05
Within a few decades,
36
125142
1838
この2、30年内に
02:06
millions will have the capability
37
126980
2230
何百万人が
02:09
to misuse rapidly advancing biotech,
38
129210
3121
急速に進歩しているバイオテク技術を 悪用できるようになるでしょう
02:12
just as they misuse cybertech today.
39
132331
3553
それは今日サイバーテクが 悪用される様なものです
02:15
Freeman Dyson, in a TED Talk,
40
135884
3199
フリーマン・ダイソン氏がTEDで
02:19
foresaw that children will design and create new organisms
41
139083
3596
彼の世代が化学実験セットで 遊んだように未来の子どもは
02:22
just as routinely as his generation played with chemistry sets.
42
142679
4511
新しい生命体をデザインして 作れるようになると予言しています
02:27
Well, this may be on the science fiction fringe,
43
147190
2528
SFの一端のようですが
02:29
but were even part of his scenario to come about,
44
149718
3183
これは彼のシナリオの 一部でもあり
02:32
our ecology and even our species
45
152901
2737
地球の生態系や人類は
02:35
would surely not survive long unscathed.
46
155638
3989
無傷では生き残れないだろう というものです
02:39
For instance, there are some eco-extremists
47
159627
3863
例えば この惑星 大地の神ガイアの為には
02:43
who think that it would be better for the planet,
48
163490
2509
人口は削減されるべきだ
02:45
for Gaia, if there were far fewer humans.
49
165999
3403
と主張するエコ過激派が
02:49
What happens when such people have mastered
50
169402
2717
2050年までには誰でも 入手できると思われる
02:52
synthetic biology techniques
51
172119
2137
合成生物学の技術を
02:54
that will be widespread by 2050?
52
174256
2852
習得したらどうなるでしょう
02:57
And by then, other science fiction nightmares
53
177108
3042
それまでに他のSF的悪夢が
03:00
may transition to reality:
54
180150
1710
現実となるかもしれません
03:01
dumb robots going rogue,
55
181860
2070
馬鹿なロボットが 勝手な事をし出したり
03:03
or a network that develops a mind of its own
56
183930
2417
自己作動し始めた ネットワークが
03:06
threatens us all.
57
186347
2589
我々を脅かし出すかもしれません
03:08
Well, can we guard against such risks by regulation?
58
188936
3270
そんなリスクから私たちを 法律で守れないでしょうか
03:12
We must surely try, but these enterprises
59
192206
2407
確かにやるだけの 価値はありますが
03:14
are so competitive, so globalized,
60
194613
3529
世界中で競争が激化し
03:18
and so driven by commercial pressure,
61
198142
1980
商業的圧力に左右されるので
03:20
that anything that can be done will be done somewhere,
62
200122
3285
法律がどうであれ 可能なことは
03:23
whatever the regulations say.
63
203407
2036
どこかで実現するでしょう
03:25
It's like the drug laws — we try to regulate, but can't.
64
205443
3487
薬取締法みたいなもので 規制しようとしても無駄です
03:28
And the global village will have its village idiots,
65
208930
3044
地球村には愚かな者がいて
03:31
and they'll have a global range.
66
211974
3496
彼らは 世界で幅を利かせるでしょう
03:35
So as I said in my book,
67
215470
2291
私が本に書きましたように
03:37
we'll have a bumpy ride through this century.
68
217761
2889
今世紀を乗り越えるのは たやすい事ではありません
03:40
There may be setbacks to our society —
69
220650
3490
何度も我々の社会は挫折し
03:44
indeed, a 50 percent chance of a severe setback.
70
224140
4115
実際 大きく挫折してしまう 可能性が半分でしょう
03:48
But are there conceivable events
71
228255
2914
最悪のケース
03:51
that could be even worse,
72
231169
2161
全人類を抹消する様な
03:53
events that could snuff out all life?
73
233330
3430
出来事があるでしょうか
03:56
When a new particle accelerator came online,
74
236760
2926
新しい粒子加速器が 誕生したとき
03:59
some people anxiously asked,
75
239686
1789
こう懸念する人がいました
04:01
could it destroy the Earth or, even worse,
76
241475
2250
「地球を破壊するか 宇宙構成組織を
04:03
rip apart the fabric of space?
77
243725
2659
バラバラにしてしまうのでは」と
04:06
Well luckily, reassurance could be offered.
78
246384
3543
幸運にも そうならないという 証拠があります
04:09
I and others pointed out that nature
79
249927
2044
他の人も指摘するように
04:11
has done the same experiments
80
251971
1933
宇宙線が他の原子核と衝突し
04:13
zillions of times already,
81
253904
2186
自然は何度も 同じ実験を
04:16
via cosmic ray collisions.
82
256090
1765
繰り返してきたからです
04:17
But scientists should surely be precautionary
83
257855
3054
しかし科学者は
04:20
about experiments that generate conditions
84
260909
2580
自然界に前例のない状態を 引き起こす実験には
04:23
without precedent in the natural world.
85
263489
2483
確かに慎重であるべきです
04:25
Biologists should avoid release of potentially devastating
86
265972
3423
生物学者は 遺伝子操作された 壊滅的影響を与えうる―
04:29
genetically modified pathogens.
87
269395
2715
病原体を世に放つべきではありません
04:32
And by the way, our special aversion
88
272110
3517
ところで我々が 実存し得る惨事に対して
04:35
to the risk of truly existential disasters
89
275627
3461
特に嫌悪するのは
04:39
depends on a philosophical and ethical question,
90
279088
3275
道徳的、哲学的な問いに依るものです
04:42
and it's this:
91
282363
1670
それはこうです
04:44
Consider two scenarios.
92
284033
2308
2つの筋書きがあるとします
04:46
Scenario A wipes out 90 percent of humanity.
93
286341
5236
筋書きAは 人類の90%を一掃する
04:51
Scenario B wipes out 100 percent.
94
291577
3896
筋書きBは 人類の100%を一掃する
04:55
How much worse is B than A?
95
295473
2918
Bの方がAより どれ程ひどいでしょうか?
04:58
Some would say 10 percent worse.
96
298391
3023
Bが10%だけひどいと 言われる方がいるでしょう
05:01
The body count is 10 percent higher.
97
301414
3150
BがAより 死亡率が10%高いのですが
05:04
But I claim that B is incomparably worse.
98
304564
2906
Bは 比較にならない程 悪いと私は思います
05:07
As an astronomer, I can't believe
99
307470
2629
天文学者として
05:10
that humans are the end of the story.
100
310099
2467
人類がこの物語の終わりだとは 信じられないのです
05:12
It is five billion years before the sun flares up,
101
312566
3323
太陽が赤色巨星となるまでに 後50億年
05:15
and the universe may go on forever,
102
315889
2711
宇宙は永遠に続いて
05:18
so post-human evolution,
103
318600
2292
ポストヒューマンの進化は
05:20
here on Earth and far beyond,
104
320892
2190
地球 そして 宇宙の彼方で
05:23
could be as prolonged as the Darwinian process
105
323082
2714
我々がここまで来たように ダーウィン的進化を続け
05:25
that's led to us, and even more wonderful.
106
325796
3281
もっと素晴らしい進化を 辿るかもしれません
05:29
And indeed, future evolution will happen much faster,
107
329077
2664
確かに未来の人類の進化は
05:31
on a technological timescale,
108
331741
2199
自然淘汰的ではなく 人工的な時間尺度に於いて
05:33
not a natural selection timescale.
109
333940
2299
その速度は急速なものでしょう
05:36
So we surely, in view of those immense stakes,
110
336239
4195
この莫大な賭けを考慮して
05:40
shouldn't accept even a one in a billion risk
111
340434
3386
これ程の可能性に幕を降ろす 人類滅亡のリスクが
05:43
that human extinction would foreclose
112
343820
2229
10億分の1だとしても
05:46
this immense potential.
113
346049
2310
決して それに甘んじるべき ではないと思います
05:48
Some scenarios that have been envisaged
114
348359
1772
予測されたシナリオは 中には確かに
05:50
may indeed be science fiction,
115
350131
1819
SFの話のようなのが あるかもしれません
05:51
but others may be disquietingly real.
116
351950
3386
しかし不気味に迫真性の あるものもあります
05:55
It's an important maxim that the unfamiliar
117
355336
2874
「知らない事と ありえそうもない事は 同じではない」
05:58
is not the same as the improbable,
118
358210
2697
ということわざ通りです
06:00
and in fact, that's why we at Cambridge University
119
360907
2398
これが 予測されるリスクを
06:03
are setting up a center to study how to mitigate
120
363305
3375
軽減する研究をするため 我々がケンブリッジ大学で
06:06
these existential risks.
121
366680
2032
センターを設置している理由です
06:08
It seems it's worthwhile just for a few people
122
368712
3063
このような惨事に関して 模索するのは
06:11
to think about these potential disasters.
123
371775
2316
少数の人だけに 価値があるようですが
06:14
And we need all the help we can get from others,
124
374091
3013
我々は皆様からのどんなサポートも 必要としています
06:17
because we are stewards of a precious
125
377104
2479
なぜならこの広大な宇宙の
06:19
pale blue dot in a vast cosmos,
126
379583
3483
貴重な青い一点の惑星では
06:23
a planet with 50 million centuries ahead of it.
127
383066
3378
これから5千万世紀もの間 全人類が乗組員だからです
06:26
And so let's not jeopardize that future.
128
386444
2556
だから未来を 台無しないようにしましょう
06:29
And I'd like to finish with a quote
129
389000
1795
ある引用で終わらせて頂きます
06:30
from a great scientist called Peter Medawar.
130
390795
3501
偉大なる科学者の ピーター・メダワーの言葉です
06:34
I quote, "The bells that toll for mankind
131
394296
3273
「人類のために鳴るベルは
06:37
are like the bells of Alpine cattle.
132
397569
2644
アルプスの牧牛のベルのように
06:40
They are attached to our own necks,
133
400213
2286
我々の首に掛かっている
06:42
and it must be our fault if they do not make
134
402499
2675
それが美しく鳴らなければ
06:45
a tuneful and melodious sound."
135
405174
2131
我々の責任である」
06:47
Thank you very much.
136
407305
2267
ありがとうございました
06:49
(Applause)
137
409572
2113
(拍手)
このウェブサイトについて

このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。

https://forms.gle/WvT1wiN1qDtmnspy7