下の英語字幕をダブルクリックすると動画を再生できます。
翻訳: sola watanabe
校正: Eriko Tsukamoto
00:03
Five years ago,
0
3833
2461
5年前
00:06
I stood on the TED stage
1
6294
1752
私はTEDのステージに立ち
00:08
and warned about the dangers
of superintelligence.
2
8046
4379
超知能の危険性について
警告しましたが
00:13
I was wrong.
3
13051
1710
間違っていました
00:16
It went even worse than I thought.
4
16513
1752
想像以上に悪い方向へ
進んでいたのです
00:18
(Laughter)
5
18306
1752
(笑)
00:20
I never thought governments
would let AI companies get this far
6
20058
4379
有意義な規制もない状態で
政府がAI企業に
00:24
without any meaningful regulation.
7
24479
2294
ここまで成長を許すとは
思いもしませんでした
00:27
And the progress of AI
went even faster than I predicted.
8
27732
4880
AIの進歩は私の予測よりも
さらに速かったのです
00:32
Look, I showed this abstract
landscape of tasks
9
32654
3587
このような抽象的な風景を
お見せしました
00:36
where the elevation represented
how hard it was for AI
10
36241
3128
地理の高低は
人間の能力のレベルに対して
00:39
to do each task at human level.
11
39369
1919
AIが各タスクを成し遂げるのが
どれほど難しいかを示しています
00:41
And the sea level represented
what AI could be back then.
12
41288
3753
そして海面レベルは
当時のAIの可能性を表していました
00:45
And boy or boy, has the sea
been rising fast ever since.
13
45875
2962
なんとまあ それ以来
海面はどんどん上昇していますね
00:48
But a lot of these tasks have already
gone blub blub blub blub blub blub.
14
48878
3587
しかし 多くのタスクは
すでに水に浸かっています ブクブク
00:52
And the water is on track
to submerge all land,
15
52882
3921
そして
海水は陸地を水没させる勢いで
00:56
matching human intelligence
at all cognitive tasks.
16
56803
3420
あらゆる認知活動において
人間の知能に匹敵しました
01:00
This is a definition of artificial
general intelligence, AGI,
17
60849
5756
こちらは汎用人工知能(AGI)の定義です
01:06
which is the stated goal
of companies like OpenAI,
18
66605
3837
そしてこれは次のような企業が
掲げている目標です OpenAI社
01:10
Google DeepMind and Anthropic.
19
70442
2002
Google DeepMind社や
Anthropic社などです
01:12
And these companies are also trying
to build superintelligence,
20
72819
3587
また この企業は
人間の知能を遠く置き去りにして
01:16
leaving human intelligence far behind.
21
76448
2919
超知能を構築しようとしています
01:19
And many think it'll only be a few years,
maybe, from AGI to superintelligence.
22
79826
4379
AGIから超知能まで おそらく数年で
実現可能と多くの人が考えています
01:24
So when are we going to get AGI?
23
84539
2795
ではAGIはいつ実現するのでしょう?
01:27
Well, until recently, most AI researchers
thought it was at least decades away.
24
87375
5464
つい最近まで AI研究者のほとんどは
少なくとも数十年先のことだと考えていました
01:33
And now Microsoft is saying,
"Oh, it's almost here."
25
93214
3504
そして今 マイクロソフト社は
「もうすぐだ」と言及しています
01:36
We're seeing sparks of AGI in ChatGPT-4,
26
96760
3753
ChatGPT-4ではAGI誕生の
火花が散っていますね
01:40
and the Metaculus betting site
is showing the time left to AGI
27
100555
3796
Metaculusベッティングサイトでは
AGIが実現するまでの時間は
01:44
plummeting from 20 years away
to three years away
28
104351
4129
あと20年から3年にまで
急激に短くなっています
01:48
in the last 18 months.
29
108521
1544
この1年半の間にです
01:50
And leading industry people
are now predicting
30
110106
4922
そして業界の第一人者たちは
今 こう予測しています
01:55
that we have maybe two or three years left
until we get outsmarted.
31
115028
5047
私たちが出し抜かれるまでに
あと2~3年だろうと
02:00
So you better stop talking
about AGI as a long-term risk,
32
120116
4421
ですからAGIを長期的なリスクと考えるのは
やめたほうがいいでしょう
02:04
or someone might call you a dinosaur
stuck in the past.
33
124579
3170
さもなければ あなたは過去にとらわれた
恐竜だと言われても仕方ない
02:08
It's really remarkable
how AI has progressed recently.
34
128416
3837
最近のAIの進歩には
目を見張るものがあります
02:12
Not long ago, robots moved like this.
35
132921
2419
少し前までは
ロボットはこのように動いていました
02:15
(Music)
36
135382
2085
(音楽)
02:18
Now they can dance.
37
138551
1418
今では踊ることができます
02:20
(Music)
38
140804
2711
(音楽)
02:29
Just last year, Midjourney
produced this image.
39
149979
3295
ちょうど昨年 Midjourneyが
この画像を生成しました
02:34
This year, the exact
same prompt produces this.
40
154401
3253
今年 まったく同じプロンプトで
こちらを生成しました
02:39
Deepfakes are getting really convincing.
41
159656
2544
ディープフェイクの説得力が
格段に増しています
02:43
(Video) Deepfake Tom Cruise:
I’m going to show you some magic.
42
163201
2920
(動画) ディープフェイクのトム・クルーズ:
魔法をお見せしましょう
02:46
It's the real thing.
43
166913
1335
本物だよ
02:48
(Laughs)
44
168289
2086
(笑)
02:50
I mean ...
45
170375
1293
つまり...
02:53
It's all ...
46
173920
1835
全部は...
02:55
the real ...
47
175797
1710
本物の...
02:57
thing.
48
177549
1168
モノです
02:58
Max Tegmark: Or is it?
49
178717
1251
ホンモノでしょうか?
03:02
And Yoshua Bengio now argues
50
182387
2669
そして今 ヨシュア・ベンジオは
こう主張しています
03:05
that large language models
have mastered language
51
185056
3837
大規模な言語モデルは
チューリングテストに合格するほど
03:08
and knowledge to the point
that they pass the Turing test.
52
188893
2795
言語と知識を習得していると
03:12
I know some skeptics are saying,
53
192355
1585
懐疑論者がこう言うのも分かります
03:13
"Nah, they're just overhyped
stochastic parrots
54
193940
2711
「いや それは単なる確率によるオウム返しで
03:16
that lack a model of the world,"
55
196693
1877
世界のモデル的理解がない」
という人もいるでしょうが
03:18
but they clearly have
a representation of the world.
56
198611
2878
AIは明らかに世界を表現しています
03:21
In fact, we recently found that Llama-2
even has a literal map of the world in it.
57
201531
5839
実際 最近Llama-2が文字通りの
世界地図を内蔵していることが分かりました
03:28
And AI also builds
58
208121
3045
さらにAIは
03:31
geometric representations
of more abstract concepts
59
211207
3796
より抽象的な概念を
幾何学的に表現することもできます
03:35
like what it thinks is true and false.
60
215003
3754
「何が真で偽か」といった判断です
03:40
So what's going to happen
if we get AGI and superintelligence?
61
220467
5046
私たちがAGIと超知性を
手に入れたらどうなるのでしょう
03:46
If you only remember one thing
from my talk, let it be this.
62
226514
3879
このトークで
ひとつだけ覚えておいてください
03:51
AI godfather, Alan Turing predicted
63
231311
3462
AIの生みの親であるアラン・チューリングは
03:54
that the default outcome
is the machines take control.
64
234814
4797
機械が支配権を握ることは
既に決まっていると予言しました
04:00
The machines take control.
65
240528
2211
機械が支配権を握るのです
04:04
I know this sounds like science fiction,
66
244240
2336
SFのように聞こえるかもしれませんが
04:06
but, you know, having AI as smart as GPT-4
67
246618
3503
GPT-4のような賢いAIも
04:10
also sounded like science
fiction not long ago.
68
250163
2919
少し前まではSFのようでした
04:13
And if you think of AI,
69
253124
2378
もしあなたがAIについて考えて
04:15
if you think of superintelligence
in particular, as just another technology,
70
255502
6047
特に超知能については電気のような
単なるテクノロジーに過ぎないと考えれば
04:21
like electricity,
71
261591
2419
特に超知能については電気のような
単なるテクノロジーに過ぎないと考えれば
04:24
you're probably not very worried.
72
264052
2002
心配はしないでしょう
04:26
But you see,
73
266095
1168
でもほら
04:27
Turing thinks of superintelligence
more like a new species.
74
267263
3837
チューリングは超知能を
新しい種のようにとらえています
04:31
Think of it,
75
271142
1168
考えてみてください
04:32
we are building creepy, super capable,
76
272310
3879
私たちは不気味かつ
とても有能な
04:36
amoral psychopaths
77
276231
1585
非道徳的なサイコパスを作っていると
04:37
that don't sleep and think
much faster than us,
78
277857
2711
寝ずに
私たちよりはるかに速く思考し
04:40
can make copies of themselves
79
280610
1418
自分自身のコピーを作れます
04:42
and have nothing human about them at all.
80
282070
2002
人間らしさは全くないです
04:44
So what could possibly go wrong?
81
284072
1835
素晴らしいに決まってるでしょ?
04:45
(Laughter)
82
285949
1543
(笑)
04:47
And it's not just Turing.
83
287951
1585
チューリングだけではありません
04:49
OpenAI CEO Sam Altman,
who gave us ChatGPT,
84
289536
2919
ChatGPTを開発した
OpenAI社のCEO サム・アルトマンは
04:52
recently warned that it could
be "lights out for all of us."
85
292497
3837
最近 「私たち全員にとっての終焉」になると
警告しました
04:57
Anthropic CEO, Dario Amodei,
even put a number on this risk:
86
297126
3754
Anthropic社のCEOダリオ・アモデイは
このリスクについて
05:02
10-25 percent.
87
302090
2210
10-25%という数字まで出しています
05:04
And it's not just them.
88
304300
1335
そして それは彼らだけではない
05:05
Human extinction from AI
went mainstream in May
89
305677
3086
5月にAIによる人類の絶滅の話が
表に出たのは
05:08
when all the AGI CEOs
and who's who of AI researchers
90
308763
4922
AGIのCEOやAI研究者たちがこぞって
05:13
came on and warned about it.
91
313685
1376
警告を発したからです
05:15
And last month, even the number one
of the European Union
92
315061
2920
そして先月 欧州連合(EU)の
主要国のナンバーワンですら
05:18
warned about human extinction by AI.
93
318022
3295
AIによる人類絶滅を警告しました
05:21
So let me summarize
everything I've said so far
94
321359
2211
さて ここまでの話を
05:23
in just one slide of cat memes.
95
323611
2544
猫のミームのスライド1枚に
まとめてみましょう
05:27
Three years ago,
96
327282
1793
3年前
05:29
people were saying it's inevitable,
superintelligence,
97
329117
4129
人々はこう言っていました
超知能は避けられない
05:33
it'll be fine,
98
333288
1501
大丈夫だ
05:34
it's decades away.
99
334789
1210
何十年も先の話だと
05:35
Last year it was more like,
100
335999
1835
昨年はさらに
05:37
It's inevitable, it'll be fine.
101
337876
2043
避けられないが大丈夫
という感じでした
05:40
Now it's more like,
102
340295
2460
今は
05:42
It's inevitable.
103
342797
1251
避けられない
という状態です
05:44
(Laughter)
104
344090
1126
(笑)
05:47
But let's take a deep breath
and try to raise our spirits
105
347260
3962
でも 深呼吸をして
気楽に
05:51
and cheer ourselves up,
106
351264
1168
元気を出しましょう
05:52
because the rest of my talk
is going to be about the good news,
107
352473
3045
なぜなら
ここからは良い話だからです
05:55
that it's not inevitable,
and we can absolutely do better,
108
355560
2919
必然的ではなく
絶対にもっとうまくやれることです
05:58
alright?
109
358521
1168
よろしいですか?
06:00
(Applause)
110
360315
2002
(拍手)
06:02
So ...
111
362317
1209
つまり...
06:04
The real problem is that we lack
a convincing plan for AI safety.
112
364903
5296
本当の問題は AIの安全性について
納得のいく計画がないことです
06:10
People are working hard on evals
113
370700
3337
人々はAIが危険な行動をしないか
06:14
looking for risky AI behavior,
and that's good,
114
374037
4087
懸命に検証しています
これは良いことですが
06:18
but clearly not good enough.
115
378124
2044
十分とは到底いえません
06:20
They're basically training AI
to not say bad things
116
380209
4797
AIは基本的に悪いことを言わないように
訓練されています
06:25
rather than not do bad things.
117
385006
2502
悪事を働かないように
というよりも
06:28
Moreover, evals and debugging
are really just necessary,
118
388176
4212
さらに 検証とデバッグは
必要条件であって
06:32
not sufficient, conditions for safety.
119
392430
2002
安全性のためには
十分な条件とはいえません
06:34
In other words,
120
394474
1751
つまり
06:36
they can prove the presence of risk,
121
396225
3671
リスクの存在は証明できても
06:39
not the absence of risk.
122
399938
2168
リスクがない証明はできません
06:42
So let's up our game, alright?
123
402148
2544
ということで
もっと頑張りましょう
06:44
Try to see how we can make
provably safe AI that we can control.
124
404692
5631
管理ができて 安全が証明できるAIを
どうしたらつくれるかやってみましょう
06:50
Guardrails try to physically limit harm.
125
410323
5047
ガードレールは物理的に
被害を抑えるものです
06:55
But if your adversary is superintelligence
126
415828
2211
しかし もし敵が超知能生命体や
06:58
or a human using superintelligence
against you, right,
127
418081
2544
超知能生命体を利用する人間なら
07:00
trying is just not enough.
128
420625
1960
努力するだけでは足りません
07:02
You need to succeed.
129
422585
1877
成功は絶対必要です
07:04
Harm needs to be impossible.
130
424504
2169
危害がないようにする必要があります
07:06
So we need provably safe systems.
131
426714
2544
だから証明可能な安全システムが必要なのです
07:09
Provable, not in the weak sense
of convincing some judge,
132
429258
3838
証明可能というのは
裁判官を納得するという弱い意味ではなく
07:13
but in the strong sense of there being
something that's impossible
133
433137
3128
物理的に不可能だという
07:16
according to the laws of physics.
134
436265
1585
強い意味においてです
07:17
Because no matter how smart an AI is,
135
437892
2002
なぜなら AIがどんなに賢くても
07:19
it can't violate the laws of physics
and do what's provably impossible.
136
439936
4046
物理の法則に反し
おそらく不可能なことはできません
07:24
Steve Omohundro and I
wrote a paper about this,
137
444440
2836
スティーブ・オモハンドロと私は
このことについて論文を書き
07:27
and we're optimistic
that this vision can really work.
138
447318
5005
このビジョンが本当に機能すると
楽観的に考えています
07:32
So let me tell you a little bit about how.
139
452323
2169
では その方法について少しお話ししましょう
07:34
There's a venerable field
called formal verification,
140
454993
4421
形式的検証という由緒ある分野があります
07:39
which proves stuff about code.
141
459455
2127
これはコードの正誤を証明するものです
07:41
And I'm optimistic that AI will
revolutionize automatic proving business
142
461624
6548
そして私は
AIが自動の正誤証明を革新し
07:48
and also revolutionize program synthesis,
143
468214
3337
プログラム合成にも革命を起こすだろうと
楽観視しています
07:51
the ability to automatically
write really good code.
144
471592
3254
それは本当に良いコードを
自動で書くという能力です
07:54
So here is how our vision works.
145
474887
1585
私たちのビジョンはこうです
07:56
You, the human, write a specification
146
476472
4213
人間であるあなたは仕様を書きます
08:00
that your AI tool must obey,
147
480685
2711
それは AIツールが従うべきものです
08:03
that it's impossible to log in
to your laptop
148
483438
2127
正しいパスワードなしで
08:05
without the correct password,
149
485565
1793
ノートパソコンにログインできなくしたり
08:07
or that a DNA printer
cannot synthesize dangerous viruses.
150
487400
5714
DNAプリンターが危険なウイルスを
合成できないようにしたりします
08:13
Then a very powerful AI
creates both your AI tool
151
493156
5213
そうすると非常に強力なAIが
08:18
and a proof that your tool
meets your spec.
152
498369
3837
AIツールとツールが
仕様に合致している証拠の両方を生成します
08:22
Machine learning is uniquely good
at learning algorithms,
153
502540
4254
機械学習はアルゴリズムを
学習することに長けていますが
08:26
but once the algorithm has been learned,
154
506836
2169
一度 学習したアルゴリズムは
08:29
you can re-implement it in a different
computational architecture
155
509047
3169
検証しやすい別の計算機アーキテクチャで
08:32
that's easier to verify.
156
512216
1627
検証することができます
08:35
Now you might worry,
157
515344
1210
こう心配するかもしれません
08:36
how on earth am I going
to understand this powerful AI
158
516554
3921
この強力なAIとAIが構築したAIツールを
08:40
and the powerful AI tool it built
159
520475
1626
一体どのように理解すればいいのだろう
08:42
and the proof,
160
522143
1126
それが人間には理解できないほど
08:43
if they're all too complicated
for any human to grasp?
161
523311
2794
複雑だと思うかもしれません
08:46
Here is the really great news.
162
526147
2127
ここからが本当に素晴らしい話です
08:48
You don't have to understand
any of that stuff,
163
528316
2461
そんなものを理解する必要はないんです
08:50
because it's much easier to verify
a proof than to discover it.
164
530818
5297
証明を発見するより検証する方が
はるかに簡単だからです
08:56
So you only have to understand
or trust your proof-checking code,
165
536115
5089
つまり 理解や信頼が必要なのは
証明チェックのコードだけです
09:01
which could be just
a few hundred lines long.
166
541245
2211
数百行もの証明チェック・コードだけなのです
09:03
And Steve and I envision
167
543498
2252
スティーブと私はこう考えています
09:05
that such proof checkers get built
into all our compute hardware,
168
545750
4463
このようなデジタル校正ソフトウェアが全て
計算ハードウェアに組み込まれたら
09:10
so it just becomes impossible
to run very unsafe code.
169
550254
4213
危険なコードを実行できなくなります
09:14
What if the AI, though,
isn't able to write that AI tool for you?
170
554509
5505
もしAIがあなたにそのような
AIツールを書けなかったら
09:20
Then there's another possibility.
171
560056
3795
別の方法があります
09:23
You train an AI to first just learn
to do what you want
172
563851
3587
まずあなたが望むことを
AIに学習させます
09:27
and then you use a different AI
173
567480
3337
その後 別のAIを使用し
09:30
to extract out the learned algorithm
and knowledge for you,
174
570858
3963
学習したアルゴリズムや知識を
抽出してもらいます
09:34
like an AI neuroscientist.
175
574862
2086
AI神経科学者のように
09:37
This is in the spirit of the field
of mechanistic interpretability,
176
577281
3879
これは機械論的解釈可能性という
分野の精神に基づくもので
09:41
which is making really
impressive rapid progress.
177
581160
3253
実に素晴らしく
急速な進歩を遂げています
09:44
Provably safe systems
are clearly not impossible.
178
584455
3170
証明できる安全なシステムの構築は可能です
09:47
Let's look at a simple example
179
587625
1502
簡単な例を見てみましょう
09:49
of where we first machine-learn
an algorithm from data
180
589168
4630
まずデータからアルゴリズムを機械学習し
09:53
and then distill it out
in the form of code
181
593840
4254
それを仕様に沿った
09:58
that provably meets spec, OK?
182
598136
2252
コードという形で抽出します
10:00
Let’s do it with an algorithm
that you probably learned in first grade,
183
600888
4922
おそらく小学校1年生で習うような
アルゴリズムです
10:05
addition,
184
605810
1168
足し算は
10:07
where you loop over the digits
from right to left,
185
607019
2503
右から左へ桁を反復して
10:09
and sometimes you do a carry.
186
609564
1793
ときに桁上げします
10:11
We'll do it in binary,
187
611357
1752
2進数でやってみましょう
10:13
as if you were counting
on two fingers instead of ten.
188
613151
2752
あたかも10本ではなく
2本の指で数えるように
10:16
And we first train a recurrent
neural network,
189
616279
3378
リカレント・ニューラル・ネットワークを
次に訓練します
10:19
never mind the details,
190
619657
2211
細かいことは気にしないで
10:21
to nail the task.
191
621909
1418
このタスクに取り組みます
10:23
So now you have this algorithm
that you don't understand how it works
192
623828
3253
この仕組みを理解しなくていい
アルゴリズムは
10:27
in a black box
193
627123
2753
ブラックボックスに入っています
10:29
defined by a bunch of tables
of numbers that we, in nerd speak,
194
629917
4463
数字の表で定義させているもので
オタク用語で
10:34
call parameters.
195
634380
1502
パラメータと呼んでいます
10:35
Then we use an AI tool we built
to automatically distill out from this
196
635882
5297
次に私たちが開発したAIツールで
学習したアルゴリズムを
10:41
the learned algorithm
in the form of a Python program.
197
641179
3420
Pythonプログラムで自動的に抽出します
10:44
And then we use the formal
verification tool known as Daphne
198
644640
4838
次にDaphneという形式的検証の手法で
10:49
to prove that this program
correctly adds up any numbers,
199
649520
5422
このプログラムが
学習データにあった数字だけでなく
10:54
not just the numbers
that were in your training data.
200
654942
2503
どんな数字でも
正しく足し算できることを証明します
10:57
So in summary,
201
657778
1377
つまり
10:59
provably safe AI,
I'm convinced is possible,
202
659155
3962
証明可能で安全なAIはできると
私は確信していますが
11:03
but it's going to take time and work.
203
663117
3003
それには時間と労力がかかるということです
11:06
And in the meantime,
204
666162
1209
多くの人々が期待している
11:07
let's remember that all the AI benefits
205
667413
4254
AIの利点は
11:11
that most people are excited about
206
671709
3795
ほとんどの人が
楽しみなことでもありますが
11:15
actually don't require superintelligence.
207
675504
2628
実は超知能は必要しないと
覚えておきましょう
11:18
We can have a long
and amazing future with AI.
208
678758
5005
AIによって長く素晴らしい未来を
手に入れることができるのです
11:25
So let's not pause AI.
209
685014
2169
AIの開発は止めなくてもいいのです
11:28
Let's just pause the reckless
race to superintelligence.
210
688476
4129
止めないといけないのは
超知能への無謀な競争です
11:32
Let's stop obsessively training
ever-larger models
211
692980
4255
私たちが理解できない これまでになく
大きなモデルを執拗に訓練するのは
11:37
that we don't understand.
212
697276
1669
やめましょう
11:39
Let's heed the warning from ancient Greece
213
699737
3212
古代ギリシャからの警告に耳を傾け
11:42
and not get hubris,
like in the story of Icarus.
214
702949
3712
イカロスの物語のような
思い上がりはやめましょう
11:46
Because artificial intelligence
215
706702
2711
なぜなら 人工知能は
11:49
is giving us incredible intellectual wings
216
709455
4463
素晴らしい知の翼を授けてくれます
11:53
with which we can do things
beyond our wildest dreams
217
713960
4045
私たちの想像は超えられます
11:58
if we stop obsessively
trying to fly to the sun.
218
718047
4379
太陽に向かって
無理やり飛ぼうとしなければです
12:02
Thank you.
219
722802
1168
ありがとうございます
12:03
(Applause)
220
723970
5880
(拍手)
New videos
このウェブサイトについて
このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。