下の英語字幕をダブルクリックすると動画を再生できます。
翻訳: Yumika Amemiya
校正: Tomoyuki Suzuki
00:12
After 13.8 billion years
of cosmic history,
0
12760
4416
宇宙の誕生後 138億年もの時を経て
00:17
our universe has woken up
1
17200
2096
私たちの世界は覚醒し
00:19
and become aware of itself.
2
19320
1520
自らを認識しました
00:21
From a small blue planet,
3
21480
1936
小さな青い惑星から
00:23
tiny, conscious parts of our universe
have begun gazing out into the cosmos
4
23440
4136
この世界のごく小さな領域の
意識あるものが 望遠鏡を使って
00:27
with telescopes,
5
27600
1376
この宇宙を見つめ始め
00:29
discovering something humbling.
6
29000
1480
自らの矮小さを発見しました
00:31
We've discovered that our universe
is vastly grander
7
31320
2896
この世界は 私たちの先祖が
想像していたものより
00:34
than our ancestors imagined
8
34240
1336
遥かに壮大であることと
00:35
and that life seems to be an almost
imperceptibly small perturbation
9
35600
4256
生命は感知できない程度の影響しか及ぼさず
それ以外は死んだも同然の
00:39
on an otherwise dead universe.
10
39880
1720
静的な世界であると発見したのです
00:42
But we've also discovered
something inspiring,
11
42320
3016
しかし 刺激的なことも発見しました
00:45
which is that the technology
we're developing has the potential
12
45360
2976
私たちが開発している技術が
今までにないほどに
00:48
to help life flourish like never before,
13
48360
2856
生命の繁栄を手助けをする
可能性を秘めていることです
00:51
not just for centuries
but for billions of years,
14
51240
3096
それは 何百年に限らず
何十億年と続き
00:54
and not just on earth but throughout
much of this amazing cosmos.
15
54360
4120
地球上だけではなく
この素晴らしい宇宙の大域に及ぶ繁栄なのです
00:59
I think of the earliest life as "Life 1.0"
16
59680
3336
私は一番最初の生命を
「ライフ 1.0」と考えます
01:03
because it was really dumb,
17
63040
1376
バクテリアのように馬鹿で
01:04
like bacteria, unable to learn
anything during its lifetime.
18
64440
4296
一生の間 何も学ぶことができません
01:08
I think of us humans as "Life 2.0"
because we can learn,
19
68760
3376
人類は「ライフ 2.0」と考えます
私たちは学習できるからです
01:12
which we in nerdy, geek speak,
20
72160
1496
それは オタクっぽく言えば
01:13
might think of as installing
new software into our brains,
21
73680
3216
言語や技能といった
新しいソフトウェアを
01:16
like languages and job skills.
22
76920
2120
脳にインストールすることです
01:19
"Life 3.0," which can design not only
its software but also its hardware
23
79680
4296
「ライフ 3.0」は ソフトウェアだけでなく
ハードウェアも設計できます
01:24
of course doesn't exist yet.
24
84000
1656
もちろんまだ存在していません
01:25
But perhaps our technology
has already made us "Life 2.1,"
25
85680
3776
しかし おそらく私たちは
人工膝関節 ペースメーカーや
01:29
with our artificial knees,
pacemakers and cochlear implants.
26
89480
4336
人口内耳といった技術によって
既に「ライフ2.1」になっているのでしょう
01:33
So let's take a closer look
at our relationship with technology, OK?
27
93840
3880
では 私たちと技術の関係性を
もっと詳しく見てみましょう
01:38
As an example,
28
98800
1216
例えば
01:40
the Apollo 11 moon mission
was both successful and inspiring,
29
100040
5296
アポロ11号による月への飛行計画は
成功しただけでなく刺激的でもありました
01:45
showing that when we humans
use technology wisely,
30
105360
3016
この計画が示したことは
人類が賢明なやり方で技術を使えば
01:48
we can accomplish things
that our ancestors could only dream of.
31
108400
3936
私たちの先祖がただ夢見ただけのことを
成し遂げられるということです
01:52
But there's an even more inspiring journey
32
112360
2976
しかし これよりさらに
刺激的な宇宙旅行があります
01:55
propelled by something
more powerful than rocket engines,
33
115360
2680
ロケットエンジンより強力な
推進力を得て
01:59
where the passengers
aren't just three astronauts
34
119200
2336
乗客は3人の宇宙飛行士にとどまらず
02:01
but all of humanity.
35
121560
1776
全人類なのです
02:03
Let's talk about our collective
journey into the future
36
123360
2936
人工知能を伴い 私たちが集団となって
未来に旅することについて
02:06
with artificial intelligence.
37
126320
2000
お話ししましょう
02:08
My friend Jaan Tallinn likes to point out
that just as with rocketry,
38
128960
4536
私の友人 ヤーン・タリンが好む議論ですが
ロケットの話と似ていて
02:13
it's not enough to make
our technology powerful.
39
133520
3160
技術が単に強力になれば
良いというものではなく
02:17
We also have to figure out,
if we're going to be really ambitious,
40
137560
3175
もし本当に野心的になろうとするなら
02:20
how to steer it
41
140759
1416
操縦の仕方と
02:22
and where we want to go with it.
42
142199
1681
どこへ向かうべきかも
理解しないといけません
02:24
So let's talk about all three
for artificial intelligence:
43
144880
2840
ではこの3つの要素を
人工知能についても議論しましょう
02:28
the power, the steering
and the destination.
44
148440
3056
推進力 操縦と目的地です
02:31
Let's start with the power.
45
151520
1286
推進力から話しましょう
02:33
I define intelligence very inclusively --
46
153600
3096
私は 知能をかなり広く
定義しています
02:36
simply as our ability
to accomplish complex goals,
47
156720
4336
単に 複雑な目標を
達成する能力という定義です
02:41
because I want to include both
biological and artificial intelligence.
48
161080
3816
何故なら 生物が備える知能と
人工知能の両方を含めたいからです
02:44
And I want to avoid
the silly carbon-chauvinism idea
49
164920
4016
肉でできていてはじめて
知的になりうるという
02:48
that you can only be smart
if you're made of meat.
50
168960
2360
有機物至上主義のような
馬鹿げた考え方を避けたいのです
02:52
It's really amazing how the power
of AI has grown recently.
51
172880
4176
最近のAI技術の発展には驚かされます
02:57
Just think about it.
52
177080
1256
考えてみてください
02:58
Not long ago, robots couldn't walk.
53
178360
3200
少し前まで ロボットは歩けませんでした
03:03
Now, they can do backflips.
54
183040
1720
今では バク転ができるのです
03:06
Not long ago,
55
186080
1816
少し前まで
03:07
we didn't have self-driving cars.
56
187920
1760
自動運転車はありませんでした
03:10
Now, we have self-flying rockets.
57
190920
2480
今では自動飛行するロケットがあります
03:15
Not long ago,
58
195960
1416
少し前まで
03:17
AI couldn't do face recognition.
59
197400
2616
AIは顔認証ができませんでした
03:20
Now, AI can generate fake faces
60
200040
2976
今では 偽の顔を生成し
03:23
and simulate your face
saying stuff that you never said.
61
203040
4160
あなたが話す言葉を勝手に作り出し
その時の表情までシミュレーションできます
03:28
Not long ago,
62
208400
1576
少し前まで
03:30
AI couldn't beat us at the game of Go.
63
210000
1880
AIは囲碁で私たちに勝てませんでしたが
03:32
Then, Google DeepMind's AlphaZero AI
took 3,000 years of human Go games
64
212400
5096
Google DeepMindのAlphaZero AIは
3千年に渡る 人間による
03:37
and Go wisdom,
65
217520
1256
囲碁の対局と戦略について
03:38
ignored it all and became the world's best
player by just playing against itself.
66
218800
4976
その成果を参照せず AI内部の対戦だけで
世界最強のプレイヤーになりました
03:43
And the most impressive feat here
wasn't that it crushed human gamers,
67
223800
3696
そして最も印象的な出来事は
人間の棋士を倒したことではなく
03:47
but that it crushed human AI researchers
68
227520
2576
何十年もの間 ゲームをプレーするソフトを
03:50
who had spent decades
handcrafting game-playing software.
69
230120
3680
自分の手で開発してきた
AI研究者たちを圧倒したことです
03:54
And AlphaZero crushed human AI researchers
not just in Go but even at chess,
70
234200
4656
そして AlphaZeroは囲碁だけでなく
1950年以来 AI研究者が取り組んできた
03:58
which we have been working on since 1950.
71
238880
2480
チェスでも圧倒しました
04:02
So all this amazing recent progress in AI
really begs the question:
72
242000
4240
すると AIの近年の驚くべき進歩によって
こんな疑問が生じます
04:07
How far will it go?
73
247280
1560
どこまで進歩するのか?
04:09
I like to think about this question
74
249800
1696
私はこの疑問を
04:11
in terms of this abstract
landscape of tasks,
75
251520
2976
タスクで構成された地形として
捉えるのが好きです
04:14
where the elevation represents
how hard it is for AI to do each task
76
254520
3456
標高で表しているのは
AIが人間並みに作業をする場合の
04:18
at human level,
77
258000
1216
難易度で
04:19
and the sea level represents
what AI can do today.
78
259240
2760
海面は現在のAIができる事を表します
04:23
The sea level is rising
as AI improves,
79
263120
2056
AIが進歩するに従い
海面は上昇していきます
04:25
so there's a kind of global warming
going on here in the task landscape.
80
265200
3440
このタスクの地形は
地球温暖化に似た状況になっています
04:30
And the obvious takeaway
is to avoid careers at the waterfront --
81
270040
3335
はっきりしているのは
水際にある職業は避ける事です
04:33
(Laughter)
82
273399
1257
(笑)
04:34
which will soon be
automated and disrupted.
83
274680
2856
間も無く自動化され消滅しますから
04:37
But there's a much
bigger question as well.
84
277560
2976
しかし もっと大きな疑問もあります
04:40
How high will the water end up rising?
85
280560
1810
水面はどこまで上昇するのか?
04:43
Will it eventually rise
to flood everything,
86
283440
3200
あらゆるタスクで
人間の知能レベルに追いつき
04:47
matching human intelligence at all tasks.
87
287840
2496
大地を完全に水没させるのでしょうか
04:50
This is the definition
of artificial general intelligence --
88
290360
3736
これが汎用人工知能—
04:54
AGI,
89
294120
1296
AGIの定義です
04:55
which has been the holy grail
of AI research since its inception.
90
295440
3080
これは AI研究が始まって以来の
究極の目標となっています
04:59
By this definition, people who say,
91
299000
1776
この定義によると
05:00
"Ah, there will always be jobs
that humans can do better than machines,"
92
300800
3416
「機械より 人間の方が上手くできる仕事は
無くならない」と言う人は
05:04
are simply saying
that we'll never get AGI.
93
304240
2920
AGIは実現不可能と
言っているのに過ぎないのです
05:07
Sure, we might still choose
to have some human jobs
94
307680
3576
確かに AGIができても
人間は仕事を選んだり
05:11
or to give humans income
and purpose with our jobs,
95
311280
3096
仕事から給料ややりがいを
得られるかもしれませんが
05:14
but AGI will in any case
transform life as we know it
96
314400
3736
皆さんがお分かりのとおり
いずれにしろ AGIは生活を変化させ
05:18
with humans no longer being
the most intelligent.
97
318160
2736
人間はもはや最も知的な存在とは
いえなくなることでしょう
05:20
Now, if the water level does reach AGI,
98
320920
3696
では もし水面が AGI まで到達すれば
05:24
then further AI progress will be driven
mainly not by humans but by AI,
99
324640
5296
その先のAIの進歩は 主に人間ではなく
AIによって進められます
05:29
which means that there's a possibility
100
329960
1856
ということは
05:31
that further AI progress
could be way faster
101
331840
2336
その先のAIの進歩は
05:34
than the typical human research
and development timescale of years,
102
334200
3376
通常何年もかかる人間による研究や開発より
かなり速くなる可能性があります
05:37
raising the controversial possibility
of an intelligence explosion
103
337600
4016
したがって 議論を呼ぶ「知能の爆発」が
起こる可能性が高まります
05:41
where recursively self-improving AI
104
341640
2296
再帰的に自己改善するAIによって
05:43
rapidly leaves human
intelligence far behind,
105
343960
3416
人間の知能がはるか後方に取り残され
05:47
creating what's known
as superintelligence.
106
347400
2440
「超知能」というものが造られるのです
05:51
Alright, reality check:
107
351800
2280
では 現実に起こり得るか
検討してみましょう
05:55
Are we going to get AGI any time soon?
108
355120
2440
AGIはすぐにでも作られるのでしょうか?
05:58
Some famous AI researchers,
like Rodney Brooks,
109
358360
2696
ロドニー・ブルックスのような
有名なAI研究者は
06:01
think it won't happen
for hundreds of years.
110
361080
2496
数百年以内には起こらないと言います
06:03
But others, like Google DeepMind
founder Demis Hassabis,
111
363600
3896
しかし Google DeepMind の創立者
デミス・ハサビスといった人たちは
06:07
are more optimistic
112
367520
1256
もっと楽観的で
06:08
and are working to try to make
it happen much sooner.
113
368800
2576
AGIをできるだけ早く
作るために努力しています
06:11
And recent surveys have shown
that most AI researchers
114
371400
3296
そして 最近の調査によると
ほとんどのAI研究者は
06:14
actually share Demis's optimism,
115
374720
2856
デミスの様に楽観的で
06:17
expecting that we will
get AGI within decades,
116
377600
3080
AGIは数十年以内に作れると予測しています
06:21
so within the lifetime of many of us,
117
381640
2256
つまり 私たちがまだ
生きているうちにできるのです
06:23
which begs the question -- and then what?
118
383920
1960
ここで疑問が生じます―
その後どうなるのか?
06:27
What do we want the role of humans to be
119
387040
2216
機械が私たちより
何でも安く上手にできるなら
06:29
if machines can do everything better
and cheaper than us?
120
389280
2680
人間はどんな役割を担えばよいのでしょう?
06:35
The way I see it, we face a choice.
121
395000
2000
私たちは選択を迫られると思います
06:38
One option is to be complacent.
122
398000
1576
1つ目は満足することです
06:39
We can say, "Oh, let's just build machines
that can do everything we can do
123
399600
3776
「じゃあ 私たちができる事なら
何でもできる機械を作って
06:43
and not worry about the consequences.
124
403400
1816
その後のことは心配しないでいい
06:45
Come on, if we build technology
that makes all humans obsolete,
125
405240
3256
ほら 人間を時代遅れの立場に置く
技術を開発したところで
06:48
what could possibly go wrong?"
126
408520
2096
何も問題ないだろう?」と言うのです
06:50
(Laughter)
127
410640
1656
(笑)
06:52
But I think that would be
embarrassingly lame.
128
412320
2760
しかし それは極めてまずいと思います
06:56
I think we should be more ambitious --
in the spirit of TED.
129
416080
3496
私は TEDの様に もっと野心的で
あるべきだと思います
06:59
Let's envision a truly inspiring
high-tech future
130
419600
3496
真に心を打つハイテクな未来を想像し
07:03
and try to steer towards it.
131
423120
1400
そちらへと向けて操縦してみましょう
07:05
This brings us to the second part
of our rocket metaphor: the steering.
132
425720
3536
ここから ロケットのたとえの第2部
「操縦」へと話を移します
07:09
We're making AI more powerful,
133
429280
1896
どんどん強力なAIが
作られていきますが
07:11
but how can we steer towards a future
134
431200
3816
AIが人類をまごつかせるのではなく
AIが人類の繁栄に役立つような
07:15
where AI helps humanity flourish
rather than flounder?
135
435040
3080
そんな未来に向かうには
どう操縦すればよいのでしょうか?
07:18
To help with this,
136
438760
1256
その問題解決のために
07:20
I cofounded the Future of Life Institute.
137
440040
1976
Future of Life Instituteを
共同設立しました
07:22
It's a small nonprofit promoting
beneficial technology use,
138
442040
2776
小さな非営利組織で
有益な技術を促進しており
07:24
and our goal is simply
for the future of life to exist
139
444840
2736
その目的はシンプルで
生命が存在できて
07:27
and to be as inspiring as possible.
140
447600
2056
できるだけ刺激的な
未来にすることです
07:29
You know, I love technology.
141
449680
3176
もちろん 私は技術を愛しています
07:32
Technology is why today
is better than the Stone Age.
142
452880
2920
現代が石器時代より良いのは
技術のおかげです
07:36
And I'm optimistic that we can create
a really inspiring high-tech future ...
143
456600
4080
そして真に刺激的なハイテクな未来を
作れると楽観的に考えています
07:41
if -- and this is a big if --
144
461680
1456
もし — 万が一の話ですが —
07:43
if we win the wisdom race --
145
463160
2456
もし人類が知恵の競争で勝ったら?
07:45
the race between the growing
power of our technology
146
465640
2856
これは 技術が生み出す能力の成長と
07:48
and the growing wisdom
with which we manage it.
147
468520
2200
人類が技術を管理するための
知恵の強化との間の競争です
07:51
But this is going to require
a change of strategy
148
471240
2296
しかし 勝つには戦略を
変えなければいけません
07:53
because our old strategy
has been learning from mistakes.
149
473560
3040
古い戦略とは
失敗から学ぶことだからです
07:57
We invented fire,
150
477280
1536
私たちは 火を発明し
07:58
screwed up a bunch of times --
151
478840
1536
幾度も失敗して
08:00
invented the fire extinguisher.
152
480400
1816
消火器を発明したのです
08:02
(Laughter)
153
482240
1336
(笑)
08:03
We invented the car,
screwed up a bunch of times --
154
483600
2416
私たちは車を発明し
幾度も失敗して
08:06
invented the traffic light,
the seat belt and the airbag,
155
486040
2667
信号とシートベルトと
エアバッグを発明したのです
08:08
but with more powerful technology
like nuclear weapons and AGI,
156
488731
3845
一方 核兵器やAGIのように
ずっと強力な技術の場合
08:12
learning from mistakes
is a lousy strategy,
157
492600
3376
失敗から学ぶというのは
お粗末な戦略だとは
08:16
don't you think?
158
496000
1216
思いませんか?
08:17
(Laughter)
159
497240
1016
(笑)
08:18
It's much better to be proactive
rather than reactive;
160
498280
2576
後手の対応より
先手を打つ方が ずっと良いのです
08:20
plan ahead and get things
right the first time
161
500880
2296
事前に計画して一発で成功させるのです
08:23
because that might be
the only time we'll get.
162
503200
2496
チャンスは一度だけかもしれませんから
08:25
But it is funny because
sometimes people tell me,
163
505720
2336
でも こう言われると変な感じがします
08:28
"Max, shhh, don't talk like that.
164
508080
2736
「マックス そんな風に言うなよ
そんなの―
08:30
That's Luddite scaremongering."
165
510840
1720
技術革新反対主義者のデマだぜ」と
08:34
But it's not scaremongering.
166
514040
1536
しかし デマではないのです
08:35
It's what we at MIT
call safety engineering.
167
515600
2880
MITではこれを安全工学と
呼んでいます
08:39
Think about it:
168
519200
1216
考えてみてください
08:40
before NASA launched
the Apollo 11 mission,
169
520440
2216
NASAがアポロ11号を打ち上げる前
08:42
they systematically thought through
everything that could go wrong
170
522680
3136
彼らは 起こり得るトラブルを
全て 系統的に検討しました
08:45
when you put people
on top of explosive fuel tanks
171
525840
2376
なにしろ 爆発しやすい燃料タンクの上に
人間を座らせて
08:48
and launch them somewhere
where no one could help them.
172
528240
2616
誰も助けられない所に向けて
打ち上げるからです
08:50
And there was a lot that could go wrong.
173
530880
1936
起こり得るトラブルは
たくさんありました
08:52
Was that scaremongering?
174
532840
1480
それはデマでしたか?
08:55
No.
175
535159
1217
いいえ
08:56
That's was precisely
the safety engineering
176
536400
2016
それこそが安全工学なのです
08:58
that ensured the success of the mission,
177
538440
1936
飛行の成功を保証したのです
09:00
and that is precisely the strategy
I think we should take with AGI.
178
540400
4176
私はまさにこの戦略をAGIでも
取るべきだと思います
09:04
Think through what can go wrong
to make sure it goes right.
179
544600
4056
成功を保証するために
起こりそうな問題を徹底的に考えるのです
09:08
So in this spirit,
we've organized conferences,
180
548680
2536
この精神をもって 会議を開きました
09:11
bringing together leading
AI researchers and other thinkers
181
551240
2816
一流のAI研究者や
その他の思想家と共に
09:14
to discuss how to grow this wisdom
we need to keep AI beneficial.
182
554080
3736
AIが有益であり続けるために必要な
知恵を身に付ける方法を議論しました
09:17
Our last conference
was in Asilomar, California last year
183
557840
3296
前回の会議はカリフォルニアの
アシロマで昨年開催され
09:21
and produced this list of 23 principles
184
561160
3056
23ヶ条の原則を作成しました
09:24
which have since been signed
by over 1,000 AI researchers
185
564240
2896
これは千人以上のAI研究者と
産業界の主な指導者によって
09:27
and key industry leaders,
186
567160
1296
署名されました
09:28
and I want to tell you
about three of these principles.
187
568480
3176
そのうちの3ヶ条についてお話しします
09:31
One is that we should avoid an arms race
and lethal autonomous weapons.
188
571680
4960
1つ目は軍拡競争と
自律型の殺人兵器を控えることです
09:37
The idea here is that any science
can be used for new ways of helping people
189
577480
3616
科学は 人を助けるため もしくは
人を傷つけるための
09:41
or new ways of harming people.
190
581120
1536
新たな方法として使えます
09:42
For example, biology and chemistry
are much more likely to be used
191
582680
3936
例えば 生物学と化学は
人を殺す方法としてではなく
09:46
for new medicines or new cures
than for new ways of killing people,
192
586640
4856
新薬や新たな治療法の開発のために
使われる可能性の方がずっと高いです
09:51
because biologists
and chemists pushed hard --
193
591520
2176
なぜなら 生物学者と化学者は
09:53
and successfully --
194
593720
1256
生物兵器と化学兵器の禁止を
09:55
for bans on biological
and chemical weapons.
195
595000
2176
強く推進し 成功したからです
09:57
And in the same spirit,
196
597200
1256
同じような考えで
09:58
most AI researchers want to stigmatize
and ban lethal autonomous weapons.
197
598480
4440
ほとんどのAI研究者は自律型の殺人兵器を
非難し禁止することを望んでいます
10:03
Another Asilomar AI principle
198
603600
1816
もう一つのアシロマでの原則は
10:05
is that we should mitigate
AI-fueled income inequality.
199
605440
3696
AIによって引き起こされる
所得格差を和らげることです
10:09
I think that if we can grow
the economic pie dramatically with AI
200
609160
4456
もしAIによって経済的な利益が
著しく増えても
10:13
and we still can't figure out
how to divide this pie
201
613640
2456
誰もが豊かになるように
増益分を配分する方法が
10:16
so that everyone is better off,
202
616120
1576
見つけられなければ
10:17
then shame on us.
203
617720
1256
私たちにとって恥です
10:19
(Applause)
204
619000
4096
(拍手)
10:23
Alright, now raise your hand
if your computer has ever crashed.
205
623120
3600
さて コンピューターが異常終了したことの
ある人は手をあげてください
10:27
(Laughter)
206
627480
1256
(笑)
10:28
Wow, that's a lot of hands.
207
628760
1656
ずいぶん 手が上がりましたね
10:30
Well, then you'll appreciate
this principle
208
630440
2176
それなら次の原則を
理解していただけるでしょう
10:32
that we should invest much more
in AI safety research,
209
632640
3136
AIの安全性の研究に
もっと投資するという原則です
10:35
because as we put AI in charge
of even more decisions and infrastructure,
210
635800
3656
なぜなら AIを意思決定や
インフラへ利用することが増えるにつれ
10:39
we need to figure out how to transform
today's buggy and hackable computers
211
639480
3616
バグが多く ハッキングされやすい
現在のコンピューターを 信頼度が高く
10:43
into robust AI systems
that we can really trust,
212
643120
2416
安定に動作するAIに変える方法を
見つける必要があります
10:45
because otherwise,
213
645560
1216
そうしなければ
10:46
all this awesome new technology
can malfunction and harm us,
214
646800
2816
この素晴らしい新技術は
誤動作を起こして被害を与え
10:49
or get hacked and be turned against us.
215
649640
1976
ハッキングされ
私たちを攻撃するかもしれません
10:51
And this AI safety work
has to include work on AI value alignment,
216
651640
5696
また安全性研究の一環として AIの価値観を
私たちの価値観と一致させる研究が必要です
10:57
because the real threat
from AGI isn't malice,
217
657360
2816
AGIの真の脅威は
馬鹿げたハリウッド映画のような
11:00
like in silly Hollywood movies,
218
660200
1656
人間への敵意などではなく
11:01
but competence --
219
661880
1736
その能力にあります
11:03
AGI accomplishing goals
that just aren't aligned with ours.
220
663640
3416
私たちの目標に合致しないことを
成し遂げてしまいかねないからです
11:07
For example, when we humans drove
the West African black rhino extinct,
221
667080
4736
例えば 私たち人間が 西アフリカの
クロサイを絶滅させたのは
11:11
we didn't do it because we were a bunch
of evil rhinoceros haters, did we?
222
671840
3896
私たちはサイを狩る邪悪な
集団だったからではないですよね?
11:15
We did it because
we were smarter than them
223
675760
2056
私たちは奴らより利口で
11:17
and our goals weren't aligned with theirs.
224
677840
2576
私たちの目的が相手と
一致しなかったからなのです
11:20
But AGI is by definition smarter than us,
225
680440
2656
しかし AGIは 定義上
私たちより利口なので
11:23
so to make sure that we don't put
ourselves in the position of those rhinos
226
683120
3576
私たちをサイの立場に置かないためには
11:26
if we create AGI,
227
686720
1976
AGIを作る時に
11:28
we need to figure out how
to make machines understand our goals,
228
688720
4176
機械に私たちの目的を理解させ
11:32
adopt our goals and retain our goals.
229
692920
3160
それを採用し 保持させる方法を
見出す必要があります
11:37
And whose goals should these be, anyway?
230
697320
2856
また これは誰の目的で
あるべきなのでしょうか?
11:40
Which goals should they be?
231
700200
1896
何を目的とすべきなのでしょうか?
11:42
This brings us to the third part
of our rocket metaphor: the destination.
232
702120
3560
これはロケットのたとえの第3部へと
つながります 目的地です
11:47
We're making AI more powerful,
233
707160
1856
AIを強化し
11:49
trying to figure out how to steer it,
234
709040
1816
操縦方法を見出そうとしていますが
11:50
but where do we want to go with it?
235
710880
1680
どこに行こうと
しているのでしょうか?
11:53
This is the elephant in the room
that almost nobody talks about --
236
713760
3656
これは ほとんど誰もが話題にすることを
避けている重大な問題です
11:57
not even here at TED --
237
717440
1856
ここTEDにいる人たちでもそうです
11:59
because we're so fixated
on short-term AI challenges.
238
719320
4080
短期的なAIの課題に
掛かり切りだからです
12:04
Look, our species is trying to build AGI,
239
724080
4656
さて 人類はAGIを
作ろうとしていて
12:08
motivated by curiosity and economics,
240
728760
3496
それは好奇心と経済的なことが
動機となっていますが
12:12
but what sort of future society
are we hoping for if we succeed?
241
732280
3680
もしAGIが成功したら 私たちは
どんな未来社会を望むのでしょう?
12:16
We did an opinion poll on this recently,
242
736680
1936
これについて 意識調査を
最近実施しましたが
12:18
and I was struck to see
243
738640
1216
私は 多くの人が
12:19
that most people actually
want us to build superintelligence:
244
739880
2896
「超知能」の創造を望んでいるという
意見に驚きました
12:22
AI that's vastly smarter
than us in all ways.
245
742800
3160
あらゆる面において私たちより
遥かに利口な知能を望んでいるのです
12:27
What there was the greatest agreement on
was that we should be ambitious
246
747120
3416
最も意見の一致を見た点は
私たちが大志を抱き
12:30
and help life spread into the cosmos,
247
750560
2016
生命を宇宙へと
拡散させるべきということでした
12:32
but there was much less agreement
about who or what should be in charge.
248
752600
4496
ただ 超知能を管理する主体については
意見が分かれました
12:37
And I was actually quite amused
249
757120
1736
面白いと思ったのは
12:38
to see that there's some some people
who want it to be just machines.
250
758880
3456
機械だけで管理すればよいと
考える人がいた事です
12:42
(Laughter)
251
762360
1696
(笑)
12:44
And there was total disagreement
about what the role of humans should be,
252
764080
3856
その上 人間の役割は何であるべきかに
ついては 最も基本的なレベルにおいても
12:47
even at the most basic level,
253
767960
1976
全く意見が一致しませんでした
12:49
so let's take a closer look
at possible futures
254
769960
2816
では 私たちが向かって行く可能性のある
12:52
that we might choose
to steer toward, alright?
255
772800
2736
未来を詳しく見てみましょう
12:55
So don't get me wrong here.
256
775560
1336
誤解しないでください
12:56
I'm not talking about space travel,
257
776920
2056
私は宇宙旅行について
語ろうとしているのではなく
12:59
merely about humanity's
metaphorical journey into the future.
258
779000
3200
人類の未来への道のりを
比喩的に言っているだけです
13:02
So one option that some
of my AI colleagues like
259
782920
3496
私のAI研究者仲間がお気に入りの
一つの選択肢は
13:06
is to build superintelligence
and keep it under human control,
260
786440
3616
超知能を造って
人間の支配下に置くというものです
13:10
like an enslaved god,
261
790080
1736
まるで奴隷にされた神の様であり
13:11
disconnected from the internet
262
791840
1576
インターネットへの接続もなく
13:13
and used to create unimaginable
technology and wealth
263
793440
3256
誰であれ それを制御できる人のために
想像すらできない様な技術と富を
13:16
for whoever controls it.
264
796720
1240
創造するために使われます
13:18
But Lord Acton warned us
265
798800
1456
しかしアクトン卿は
13:20
that power corrupts,
and absolute power corrupts absolutely,
266
800280
3616
権力は腐敗し 絶対的な権力は
絶対に腐敗すると警告しました
13:23
so you might worry that maybe
we humans just aren't smart enough,
267
803920
4056
だから 皆さんは この様なすごい力を
扱える程には人類は利口ではない
13:28
or wise enough rather,
268
808000
1536
もしくは十分に賢くはないと
13:29
to handle this much power.
269
809560
1240
憂慮されるかもしれません
13:31
Also, aside from any
moral qualms you might have
270
811640
2536
より優れた知性を
奴隷扱いするのは気がとがめるという
13:34
about enslaving superior minds,
271
814200
2296
道徳的なことはさておき
13:36
you might worry that maybe
the superintelligence could outsmart us,
272
816520
3976
超知能が 想像を超えた方法で
逃げ出し 優位に立つのではと
13:40
break out and take over.
273
820520
2240
心配になるかもしれません
13:43
But I also have colleagues
who are fine with AI taking over
274
823560
3416
しかし 私の同僚には
AIに乗っ取られてもいい
13:47
and even causing human extinction,
275
827000
2296
さらには人類を絶滅させても
いいと考える人もいます
13:49
as long as we feel the the AIs
are our worthy descendants,
276
829320
3576
それも AIのことを
自分たちの子供のように相応しい子孫と
13:52
like our children.
277
832920
1736
思えればの話です
13:54
But how would we know that the AIs
have adopted our best values
278
834680
5616
ただ AIが私たちの価値観を持ったことを
どうしたら確認できるでしょう?
14:00
and aren't just unconscious zombies
tricking us into anthropomorphizing them?
279
840320
4376
意識を持たないゾンビなのに
人間らしく見えるだけではないと?
14:04
Also, shouldn't those people
who don't want human extinction
280
844720
2856
それに 人類の絶滅を望まぬ人々にも
発言権が
14:07
have a say in the matter, too?
281
847600
1440
あるべきではないでしょうか?
14:10
Now, if you didn't like either
of those two high-tech options,
282
850200
3376
さて これらのハイテクな選択肢は
どちらもお望みでないとしても
14:13
it's important to remember
that low-tech is suicide
283
853600
3176
ローテクな選択肢は
宇宙的視野に立てば自殺行為であると
14:16
from a cosmic perspective,
284
856800
1256
知っておくことは大切です
14:18
because if we don't go far
beyond today's technology,
285
858080
2496
なぜなら 現在の技術レベルを
はるかに上回らない限り
14:20
the question isn't whether humanity
is going to go extinct,
286
860600
2816
人類が将来 絶滅するかどうかという
問題ではなく
14:23
merely whether
we're going to get taken out
287
863440
2016
技術が進んでいれば回避できるはずの
14:25
by the next killer asteroid, supervolcano
288
865480
2136
小惑星の衝突や
巨大な火山噴火といった事態で
14:27
or some other problem
that better technology could have solved.
289
867640
3096
人類は滅亡するのかという
問題になってしまうからです
14:30
So, how about having
our cake and eating it ...
290
870760
3576
それならば 長所を全て
生かしてはどうでしょうか
14:34
with AGI that's not enslaved
291
874360
1840
奴隷化されなくても
14:37
but treats us well because its values
are aligned with ours?
292
877120
3176
私たちと同じ価値観を持ち
人間を大事にするAGIを使うのです
14:40
This is the gist of what Eliezer Yudkowsky
has called "friendly AI,"
293
880320
4176
これはエリエゼル・ユドカウスキーが
「友好的なAI」と呼ぶものです
14:44
and if we can do this,
it could be awesome.
294
884520
2680
そして これができれば
素晴らしいことでしょう
14:47
It could not only eliminate negative
experiences like disease, poverty,
295
887840
4816
病気 貧困 犯罪など
苦痛というマイナスの経験を
14:52
crime and other suffering,
296
892680
1456
無くすことができるだけではなく
14:54
but it could also give us
the freedom to choose
297
894160
2816
様々な 新しいプラスの経験から
選択する自由を
14:57
from a fantastic new diversity
of positive experiences --
298
897000
4056
与えてくれるかもしれません
15:01
basically making us
the masters of our own destiny.
299
901080
3160
そうなれば私たちは
自分の手で運命を決められるのです
15:06
So in summary,
300
906280
1376
では まとめます
15:07
our situation with technology
is complicated,
301
907680
3096
技術に関する状況は
複雑ではありますが
15:10
but the big picture is rather simple.
302
910800
2416
全体像は 単純です
15:13
Most AI researchers
expect AGI within decades,
303
913240
3456
ほとんどのAI研究者はAGIが
数十年以内にできると期待しています
15:16
and if we just bumble
into this unprepared,
304
916720
3136
そして 準備がないままに
つまづきながら進んで行くと
15:19
it will probably be
the biggest mistake in human history --
305
919880
3336
おそらく人類史上最大の
間違いとなるでしょう
15:23
let's face it.
306
923240
1416
それは認めるべきです
15:24
It could enable brutal,
global dictatorship
307
924680
2576
冷酷な 全世界的独裁政権が可能になり
15:27
with unprecedented inequality,
surveillance and suffering,
308
927280
3536
前代未聞の差別 監視社会と
苦しみが産まれ
15:30
and maybe even human extinction.
309
930840
1976
さらに人類の絶滅さえ
起こるかもしれません
15:32
But if we steer carefully,
310
932840
2320
しかし注意深く操縦すれば
15:36
we could end up in a fantastic future
where everybody's better off:
311
936040
3896
誰もが裕福になれる
素晴らしい未来にたどり着くかもしれません
15:39
the poor are richer, the rich are richer,
312
939960
2376
貧乏人は金持ちになり
金持ちはさらに金持ちになり
15:42
everybody is healthy
and free to live out their dreams.
313
942360
3960
みんなが健康で 夢を追い求めながら
自由に人生を送れることでしょう
15:47
Now, hang on.
314
947000
1536
ちょっと考えてください
15:48
Do you folks want the future
that's politically right or left?
315
948560
4576
皆さんは 政治的に右寄りの未来と
左寄りの未来なら どちらがいいですか?
15:53
Do you want the pious society
with strict moral rules,
316
953160
2856
厳格な道徳的規則を持つ敬虔な社会と
15:56
or do you an hedonistic free-for-all,
317
956040
1816
快楽主義的で制約のない
15:57
more like Burning Man 24/7?
318
957880
2216
毎日がバーニングマンのような社会なら
どちらがいいですか?
16:00
Do you want beautiful beaches,
forests and lakes,
319
960120
2416
綺麗なビーチや森や湖がいいですか?
16:02
or would you prefer to rearrange
some of those atoms with the computers,
320
962560
3416
それともコンピューターで
原子を少し置き換えた
16:06
enabling virtual experiences?
321
966000
1715
バーチャル体験がいいですか?
16:07
With friendly AI, we could simply
build all of these societies
322
967739
3157
友好的なAIがあれば
どの社会でも作ることができ
16:10
and give people the freedom
to choose which one they want to live in
323
970920
3216
人々にどの社会に住むかの
自由を与えることができます
16:14
because we would no longer
be limited by our intelligence,
324
974160
3096
なぜなら 自分たちの知能に
縛られることはなくなるからです
16:17
merely by the laws of physics.
325
977280
1456
制約は物理法則だけです
16:18
So the resources and space
for this would be astronomical --
326
978760
4616
ですから このような世界の資源と空間は
天文学的になります
16:23
literally.
327
983400
1320
文字通りにです
16:25
So here's our choice.
328
985320
1200
我々は選択しなければなりません
16:27
We can either be complacent
about our future,
329
987880
2320
自分の未来に満足し
16:31
taking as an article of blind faith
330
991440
2656
新しいテクノロジーなら何でも
16:34
that any new technology
is guaranteed to be beneficial,
331
994120
4016
有益なことが保証されているという
根拠のない信条を持ち
16:38
and just repeat that to ourselves
as a mantra over and over and over again
332
998160
4136
まるで舵のない船が
衰退に向かって漂流するように
16:42
as we drift like a rudderless ship
towards our own obsolescence.
333
1002320
3680
それを自分の中で
何度も繰り返し唱え続けるのか
16:46
Or we can be ambitious --
334
1006920
1880
あるいは野心を持って
16:49
thinking hard about how
to steer our technology
335
1009840
2456
技術の操縦方法と目的地を
16:52
and where we want to go with it
336
1012320
1936
真剣に考え
16:54
to create the age of amazement.
337
1014280
1760
「素晴らしい時代」を築くのか
16:57
We're all here to celebrate
the age of amazement,
338
1017000
2856
私たちは 「素晴らしい時代」を
祝うためにここにいます
16:59
and I feel that its essence should lie
in becoming not overpowered
339
1019880
4440
私は その本質は
技術に圧倒されるのではなく
17:05
but empowered by our technology.
340
1025240
2616
技術から力を得ることだと思います
17:07
Thank you.
341
1027880
1376
ありがとうございました
17:09
(Applause)
342
1029280
3080
(拍手)
New videos
このウェブサイトについて
このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。