How to Keep AI Under Control | Max Tegmark | TED

168,285 views ・ 2023-11-02

TED


下の英語字幕をダブルクリックすると動画を再生できます。

翻訳: sola watanabe 校正: Eriko Tsukamoto
00:03
Five years ago,
0
3833
2461
5年前
00:06
I stood on the TED stage
1
6294
1752
私はTEDのステージに立ち
00:08
and warned about the dangers of superintelligence.
2
8046
4379
超知能の危険性について 警告しましたが
00:13
I was wrong.
3
13051
1710
間違っていました
00:16
It went even worse than I thought.
4
16513
1752
想像以上に悪い方向へ 進んでいたのです
00:18
(Laughter)
5
18306
1752
(笑)
00:20
I never thought governments would let AI companies get this far
6
20058
4379
有意義な規制もない状態で 政府がAI企業に
00:24
without any meaningful regulation.
7
24479
2294
ここまで成長を許すとは 思いもしませんでした
00:27
And the progress of AI went even faster than I predicted.
8
27732
4880
AIの進歩は私の予測よりも さらに速かったのです
00:32
Look, I showed this abstract landscape of tasks
9
32654
3587
このような抽象的な風景を お見せしました
00:36
where the elevation represented how hard it was for AI
10
36241
3128
地理の高低は 人間の能力のレベルに対して
00:39
to do each task at human level.
11
39369
1919
AIが各タスクを成し遂げるのが どれほど難しいかを示しています
00:41
And the sea level represented what AI could be back then.
12
41288
3753
そして海面レベルは 当時のAIの可能性を表していました
00:45
And boy or boy, has the sea been rising fast ever since.
13
45875
2962
なんとまあ それ以来 海面はどんどん上昇していますね
00:48
But a lot of these tasks have already gone blub blub blub blub blub blub.
14
48878
3587
しかし 多くのタスクは すでに水に浸かっています ブクブク
00:52
And the water is on track to submerge all land,
15
52882
3921
そして 海水は陸地を水没させる勢いで
00:56
matching human intelligence at all cognitive tasks.
16
56803
3420
あらゆる認知活動において 人間の知能に匹敵しました
01:00
This is a definition of artificial general intelligence, AGI,
17
60849
5756
こちらは汎用人工知能(AGI)の定義です
01:06
which is the stated goal of companies like OpenAI,
18
66605
3837
そしてこれは次のような企業が 掲げている目標です OpenAI社
01:10
Google DeepMind and Anthropic.
19
70442
2002
Google DeepMind社や Anthropic社などです
01:12
And these companies are also trying to build superintelligence,
20
72819
3587
また この企業は 人間の知能を遠く置き去りにして
01:16
leaving human intelligence far behind.
21
76448
2919
超知能を構築しようとしています
01:19
And many think it'll only be a few years, maybe, from AGI to superintelligence.
22
79826
4379
AGIから超知能まで おそらく数年で 実現可能と多くの人が考えています
01:24
So when are we going to get AGI?
23
84539
2795
ではAGIはいつ実現するのでしょう?
01:27
Well, until recently, most AI researchers thought it was at least decades away.
24
87375
5464
つい最近まで AI研究者のほとんどは 少なくとも数十年先のことだと考えていました
01:33
And now Microsoft is saying, "Oh, it's almost here."
25
93214
3504
そして今 マイクロソフト社は 「もうすぐだ」と言及しています
01:36
We're seeing sparks of AGI in ChatGPT-4,
26
96760
3753
ChatGPT-4ではAGI誕生の 火花が散っていますね
01:40
and the Metaculus betting site is showing the time left to AGI
27
100555
3796
Metaculusベッティングサイトでは AGIが実現するまでの時間は
01:44
plummeting from 20 years away to three years away
28
104351
4129
あと20年から3年にまで 急激に短くなっています
01:48
in the last 18 months.
29
108521
1544
この1年半の間にです
01:50
And leading industry people are now predicting
30
110106
4922
そして業界の第一人者たちは 今 こう予測しています
01:55
that we have maybe two or three years left until we get outsmarted.
31
115028
5047
私たちが出し抜かれるまでに あと2~3年だろうと
02:00
So you better stop talking about AGI as a long-term risk,
32
120116
4421
ですからAGIを長期的なリスクと考えるのは やめたほうがいいでしょう
02:04
or someone might call you a dinosaur stuck in the past.
33
124579
3170
さもなければ あなたは過去にとらわれた 恐竜だと言われても仕方ない
02:08
It's really remarkable how AI has progressed recently.
34
128416
3837
最近のAIの進歩には 目を見張るものがあります
02:12
Not long ago, robots moved like this.
35
132921
2419
少し前までは ロボットはこのように動いていました
02:15
(Music)
36
135382
2085
(音楽)
02:18
Now they can dance.
37
138551
1418
今では踊ることができます
02:20
(Music)
38
140804
2711
(音楽)
02:29
Just last year, Midjourney produced this image.
39
149979
3295
ちょうど昨年 Midjourneyが この画像を生成しました
02:34
This year, the exact same prompt produces this.
40
154401
3253
今年 まったく同じプロンプトで こちらを生成しました
02:39
Deepfakes are getting really convincing.
41
159656
2544
ディープフェイクの説得力が 格段に増しています
02:43
(Video) Deepfake Tom Cruise: I’m going to show you some magic.
42
163201
2920
(動画) ディープフェイクのトム・クルーズ: 魔法をお見せしましょう
02:46
It's the real thing.
43
166913
1335
本物だよ
02:48
(Laughs)
44
168289
2086
(笑)
02:50
I mean ...
45
170375
1293
つまり...
02:53
It's all ...
46
173920
1835
全部は...
02:55
the real ...
47
175797
1710
本物の...
02:57
thing.
48
177549
1168
モノです
02:58
Max Tegmark: Or is it?
49
178717
1251
ホンモノでしょうか?
03:02
And Yoshua Bengio now argues
50
182387
2669
そして今 ヨシュア・ベンジオは こう主張しています
03:05
that large language models have mastered language
51
185056
3837
大規模な言語モデルは チューリングテストに合格するほど
03:08
and knowledge to the point that they pass the Turing test.
52
188893
2795
言語と知識を習得していると
03:12
I know some skeptics are saying,
53
192355
1585
懐疑論者がこう言うのも分かります
03:13
"Nah, they're just overhyped stochastic parrots
54
193940
2711
「いや それは単なる確率によるオウム返しで
03:16
that lack a model of the world,"
55
196693
1877
世界のモデル的理解がない」 という人もいるでしょうが
03:18
but they clearly have a representation of the world.
56
198611
2878
AIは明らかに世界を表現しています
03:21
In fact, we recently found that Llama-2 even has a literal map of the world in it.
57
201531
5839
実際 最近Llama-2が文字通りの 世界地図を内蔵していることが分かりました
03:28
And AI also builds
58
208121
3045
さらにAIは
03:31
geometric representations of more abstract concepts
59
211207
3796
より抽象的な概念を 幾何学的に表現することもできます
03:35
like what it thinks is true and false.
60
215003
3754
「何が真で偽か」といった判断です
03:40
So what's going to happen if we get AGI and superintelligence?
61
220467
5046
私たちがAGIと超知性を 手に入れたらどうなるのでしょう
03:46
If you only remember one thing from my talk, let it be this.
62
226514
3879
このトークで ひとつだけ覚えておいてください
03:51
AI godfather, Alan Turing predicted
63
231311
3462
AIの生みの親であるアラン・チューリングは
03:54
that the default outcome is the machines take control.
64
234814
4797
機械が支配権を握ることは 既に決まっていると予言しました
04:00
The machines take control.
65
240528
2211
機械が支配権を握るのです
04:04
I know this sounds like science fiction,
66
244240
2336
SFのように聞こえるかもしれませんが
04:06
but, you know, having AI as smart as GPT-4
67
246618
3503
GPT-4のような賢いAIも
04:10
also sounded like science fiction not long ago.
68
250163
2919
少し前まではSFのようでした
04:13
And if you think of AI,
69
253124
2378
もしあなたがAIについて考えて
04:15
if you think of superintelligence in particular, as just another technology,
70
255502
6047
特に超知能については電気のような 単なるテクノロジーに過ぎないと考えれば
04:21
like electricity,
71
261591
2419
特に超知能については電気のような 単なるテクノロジーに過ぎないと考えれば
04:24
you're probably not very worried.
72
264052
2002
心配はしないでしょう
04:26
But you see,
73
266095
1168
でもほら
04:27
Turing thinks of superintelligence more like a new species.
74
267263
3837
チューリングは超知能を 新しい種のようにとらえています
04:31
Think of it,
75
271142
1168
考えてみてください
04:32
we are building creepy, super capable,
76
272310
3879
私たちは不気味かつ とても有能な
04:36
amoral psychopaths
77
276231
1585
非道徳的なサイコパスを作っていると
04:37
that don't sleep and think much faster than us,
78
277857
2711
寝ずに 私たちよりはるかに速く思考し
04:40
can make copies of themselves
79
280610
1418
自分自身のコピーを作れます
04:42
and have nothing human about them at all.
80
282070
2002
人間らしさは全くないです
04:44
So what could possibly go wrong?
81
284072
1835
素晴らしいに決まってるでしょ?
04:45
(Laughter)
82
285949
1543
(笑)
04:47
And it's not just Turing.
83
287951
1585
チューリングだけではありません
04:49
OpenAI CEO Sam Altman, who gave us ChatGPT,
84
289536
2919
ChatGPTを開発した OpenAI社のCEO サム・アルトマンは
04:52
recently warned that it could be "lights out for all of us."
85
292497
3837
最近 「私たち全員にとっての終焉」になると 警告しました
04:57
Anthropic CEO, Dario Amodei, even put a number on this risk:
86
297126
3754
Anthropic社のCEOダリオ・アモデイは このリスクについて
05:02
10-25 percent.
87
302090
2210
10-25%という数字まで出しています
05:04
And it's not just them.
88
304300
1335
そして それは彼らだけではない
05:05
Human extinction from AI went mainstream in May
89
305677
3086
5月にAIによる人類の絶滅の話が 表に出たのは
05:08
when all the AGI CEOs and who's who of AI researchers
90
308763
4922
AGIのCEOやAI研究者たちがこぞって
05:13
came on and warned about it.
91
313685
1376
警告を発したからです
05:15
And last month, even the number one of the European Union
92
315061
2920
そして先月 欧州連合(EU)の 主要国のナンバーワンですら
05:18
warned about human extinction by AI.
93
318022
3295
AIによる人類絶滅を警告しました
05:21
So let me summarize everything I've said so far
94
321359
2211
さて ここまでの話を
05:23
in just one slide of cat memes.
95
323611
2544
猫のミームのスライド1枚に まとめてみましょう
05:27
Three years ago,
96
327282
1793
3年前
05:29
people were saying it's inevitable, superintelligence,
97
329117
4129
人々はこう言っていました 超知能は避けられない
05:33
it'll be fine,
98
333288
1501
大丈夫だ
05:34
it's decades away.
99
334789
1210
何十年も先の話だと
05:35
Last year it was more like,
100
335999
1835
昨年はさらに
05:37
It's inevitable, it'll be fine.
101
337876
2043
避けられないが大丈夫 という感じでした
05:40
Now it's more like,
102
340295
2460
今は
05:42
It's inevitable.
103
342797
1251
避けられない という状態です
05:44
(Laughter)
104
344090
1126
(笑)
05:47
But let's take a deep breath and try to raise our spirits
105
347260
3962
でも 深呼吸をして 気楽に
05:51
and cheer ourselves up,
106
351264
1168
元気を出しましょう
05:52
because the rest of my talk is going to be about the good news,
107
352473
3045
なぜなら ここからは良い話だからです
05:55
that it's not inevitable, and we can absolutely do better,
108
355560
2919
必然的ではなく 絶対にもっとうまくやれることです
05:58
alright?
109
358521
1168
よろしいですか?
06:00
(Applause)
110
360315
2002
(拍手)
06:02
So ...
111
362317
1209
つまり...
06:04
The real problem is that we lack a convincing plan for AI safety.
112
364903
5296
本当の問題は AIの安全性について 納得のいく計画がないことです
06:10
People are working hard on evals
113
370700
3337
人々はAIが危険な行動をしないか
06:14
looking for risky AI behavior, and that's good,
114
374037
4087
懸命に検証しています これは良いことですが
06:18
but clearly not good enough.
115
378124
2044
十分とは到底いえません
06:20
They're basically training AI to not say bad things
116
380209
4797
AIは基本的に悪いことを言わないように 訓練されています
06:25
rather than not do bad things.
117
385006
2502
悪事を働かないように というよりも
06:28
Moreover, evals and debugging are really just necessary,
118
388176
4212
さらに 検証とデバッグは 必要条件であって
06:32
not sufficient, conditions for safety.
119
392430
2002
安全性のためには 十分な条件とはいえません
06:34
In other words,
120
394474
1751
つまり
06:36
they can prove the presence of risk,
121
396225
3671
リスクの存在は証明できても
06:39
not the absence of risk.
122
399938
2168
リスクがない証明はできません
06:42
So let's up our game, alright?
123
402148
2544
ということで もっと頑張りましょう
06:44
Try to see how we can make provably safe AI that we can control.
124
404692
5631
管理ができて 安全が証明できるAIを どうしたらつくれるかやってみましょう
06:50
Guardrails try to physically limit harm.
125
410323
5047
ガードレールは物理的に 被害を抑えるものです
06:55
But if your adversary is superintelligence
126
415828
2211
しかし もし敵が超知能生命体や
06:58
or a human using superintelligence against you, right,
127
418081
2544
超知能生命体を利用する人間なら
07:00
trying is just not enough.
128
420625
1960
努力するだけでは足りません
07:02
You need to succeed.
129
422585
1877
成功は絶対必要です
07:04
Harm needs to be impossible.
130
424504
2169
危害がないようにする必要があります
07:06
So we need provably safe systems.
131
426714
2544
だから証明可能な安全システムが必要なのです
07:09
Provable, not in the weak sense of convincing some judge,
132
429258
3838
証明可能というのは 裁判官を納得するという弱い意味ではなく
07:13
but in the strong sense of there being something that's impossible
133
433137
3128
物理的に不可能だという
07:16
according to the laws of physics.
134
436265
1585
強い意味においてです
07:17
Because no matter how smart an AI is,
135
437892
2002
なぜなら AIがどんなに賢くても
07:19
it can't violate the laws of physics and do what's provably impossible.
136
439936
4046
物理の法則に反し おそらく不可能なことはできません
07:24
Steve Omohundro and I wrote a paper about this,
137
444440
2836
スティーブ・オモハンドロと私は このことについて論文を書き
07:27
and we're optimistic that this vision can really work.
138
447318
5005
このビジョンが本当に機能すると 楽観的に考えています
07:32
So let me tell you a little bit about how.
139
452323
2169
では その方法について少しお話ししましょう
07:34
There's a venerable field called formal verification,
140
454993
4421
形式的検証という由緒ある分野があります
07:39
which proves stuff about code.
141
459455
2127
これはコードの正誤を証明するものです
07:41
And I'm optimistic that AI will revolutionize automatic proving business
142
461624
6548
そして私は AIが自動の正誤証明を革新し
07:48
and also revolutionize program synthesis,
143
468214
3337
プログラム合成にも革命を起こすだろうと 楽観視しています
07:51
the ability to automatically write really good code.
144
471592
3254
それは本当に良いコードを 自動で書くという能力です
07:54
So here is how our vision works.
145
474887
1585
私たちのビジョンはこうです
07:56
You, the human, write a specification
146
476472
4213
人間であるあなたは仕様を書きます
08:00
that your AI tool must obey,
147
480685
2711
それは AIツールが従うべきものです
08:03
that it's impossible to log in to your laptop
148
483438
2127
正しいパスワードなしで
08:05
without the correct password,
149
485565
1793
ノートパソコンにログインできなくしたり
08:07
or that a DNA printer cannot synthesize dangerous viruses.
150
487400
5714
DNAプリンターが危険なウイルスを 合成できないようにしたりします
08:13
Then a very powerful AI creates both your AI tool
151
493156
5213
そうすると非常に強力なAIが
08:18
and a proof that your tool meets your spec.
152
498369
3837
AIツールとツールが 仕様に合致している証拠の両方を生成します
08:22
Machine learning is uniquely good at learning algorithms,
153
502540
4254
機械学習はアルゴリズムを 学習することに長けていますが
08:26
but once the algorithm has been learned,
154
506836
2169
一度 学習したアルゴリズムは
08:29
you can re-implement it in a different computational architecture
155
509047
3169
検証しやすい別の計算機アーキテクチャで
08:32
that's easier to verify.
156
512216
1627
検証することができます
08:35
Now you might worry,
157
515344
1210
こう心配するかもしれません
08:36
how on earth am I going to understand this powerful AI
158
516554
3921
この強力なAIとAIが構築したAIツールを
08:40
and the powerful AI tool it built
159
520475
1626
一体どのように理解すればいいのだろう
08:42
and the proof,
160
522143
1126
それが人間には理解できないほど
08:43
if they're all too complicated for any human to grasp?
161
523311
2794
複雑だと思うかもしれません
08:46
Here is the really great news.
162
526147
2127
ここからが本当に素晴らしい話です
08:48
You don't have to understand any of that stuff,
163
528316
2461
そんなものを理解する必要はないんです
08:50
because it's much easier to verify a proof than to discover it.
164
530818
5297
証明を発見するより検証する方が はるかに簡単だからです
08:56
So you only have to understand or trust your proof-checking code,
165
536115
5089
つまり 理解や信頼が必要なのは 証明チェックのコードだけです
09:01
which could be just a few hundred lines long.
166
541245
2211
数百行もの証明チェック・コードだけなのです
09:03
And Steve and I envision
167
543498
2252
スティーブと私はこう考えています
09:05
that such proof checkers get built into all our compute hardware,
168
545750
4463
このようなデジタル校正ソフトウェアが全て 計算ハードウェアに組み込まれたら
09:10
so it just becomes impossible to run very unsafe code.
169
550254
4213
危険なコードを実行できなくなります
09:14
What if the AI, though, isn't able to write that AI tool for you?
170
554509
5505
もしAIがあなたにそのような AIツールを書けなかったら
09:20
Then there's another possibility.
171
560056
3795
別の方法があります
09:23
You train an AI to first just learn to do what you want
172
563851
3587
まずあなたが望むことを AIに学習させます
09:27
and then you use a different AI
173
567480
3337
その後 別のAIを使用し
09:30
to extract out the learned algorithm and knowledge for you,
174
570858
3963
学習したアルゴリズムや知識を 抽出してもらいます
09:34
like an AI neuroscientist.
175
574862
2086
AI神経科学者のように
09:37
This is in the spirit of the field of mechanistic interpretability,
176
577281
3879
これは機械論的解釈可能性という 分野の精神に基づくもので
09:41
which is making really impressive rapid progress.
177
581160
3253
実に素晴らしく 急速な進歩を遂げています
09:44
Provably safe systems are clearly not impossible.
178
584455
3170
証明できる安全なシステムの構築は可能です
09:47
Let's look at a simple example
179
587625
1502
簡単な例を見てみましょう
09:49
of where we first machine-learn an algorithm from data
180
589168
4630
まずデータからアルゴリズムを機械学習し
09:53
and then distill it out in the form of code
181
593840
4254
それを仕様に沿った
09:58
that provably meets spec, OK?
182
598136
2252
コードという形で抽出します
10:00
Let’s do it with an algorithm that you probably learned in first grade,
183
600888
4922
おそらく小学校1年生で習うような アルゴリズムです
10:05
addition,
184
605810
1168
足し算は
10:07
where you loop over the digits from right to left,
185
607019
2503
右から左へ桁を反復して
10:09
and sometimes you do a carry.
186
609564
1793
ときに桁上げします
10:11
We'll do it in binary,
187
611357
1752
2進数でやってみましょう
10:13
as if you were counting on two fingers instead of ten.
188
613151
2752
あたかも10本ではなく 2本の指で数えるように
10:16
And we first train a recurrent neural network,
189
616279
3378
リカレント・ニューラル・ネットワークを 次に訓練します
10:19
never mind the details,
190
619657
2211
細かいことは気にしないで
10:21
to nail the task.
191
621909
1418
このタスクに取り組みます
10:23
So now you have this algorithm that you don't understand how it works
192
623828
3253
この仕組みを理解しなくていい アルゴリズムは
10:27
in a black box
193
627123
2753
ブラックボックスに入っています
10:29
defined by a bunch of tables of numbers that we, in nerd speak,
194
629917
4463
数字の表で定義させているもので オタク用語で
10:34
call parameters.
195
634380
1502
パラメータと呼んでいます
10:35
Then we use an AI tool we built to automatically distill out from this
196
635882
5297
次に私たちが開発したAIツールで 学習したアルゴリズムを
10:41
the learned algorithm in the form of a Python program.
197
641179
3420
Pythonプログラムで自動的に抽出します
10:44
And then we use the formal verification tool known as Daphne
198
644640
4838
次にDaphneという形式的検証の手法で
10:49
to prove that this program correctly adds up any numbers,
199
649520
5422
このプログラムが 学習データにあった数字だけでなく
10:54
not just the numbers that were in your training data.
200
654942
2503
どんな数字でも 正しく足し算できることを証明します
10:57
So in summary,
201
657778
1377
つまり
10:59
provably safe AI, I'm convinced is possible,
202
659155
3962
証明可能で安全なAIはできると 私は確信していますが
11:03
but it's going to take time and work.
203
663117
3003
それには時間と労力がかかるということです
11:06
And in the meantime,
204
666162
1209
多くの人々が期待している
11:07
let's remember that all the AI benefits
205
667413
4254
AIの利点は
11:11
that most people are excited about
206
671709
3795
ほとんどの人が 楽しみなことでもありますが
11:15
actually don't require superintelligence.
207
675504
2628
実は超知能は必要しないと 覚えておきましょう
11:18
We can have a long and amazing future with AI.
208
678758
5005
AIによって長く素晴らしい未来を 手に入れることができるのです
11:25
So let's not pause AI.
209
685014
2169
AIの開発は止めなくてもいいのです
11:28
Let's just pause the reckless race to superintelligence.
210
688476
4129
止めないといけないのは 超知能への無謀な競争です
11:32
Let's stop obsessively training ever-larger models
211
692980
4255
私たちが理解できない これまでになく 大きなモデルを執拗に訓練するのは
11:37
that we don't understand.
212
697276
1669
やめましょう
11:39
Let's heed the warning from ancient Greece
213
699737
3212
古代ギリシャからの警告に耳を傾け
11:42
and not get hubris, like in the story of Icarus.
214
702949
3712
イカロスの物語のような 思い上がりはやめましょう
11:46
Because artificial intelligence
215
706702
2711
なぜなら 人工知能は
11:49
is giving us incredible intellectual wings
216
709455
4463
素晴らしい知の翼を授けてくれます
11:53
with which we can do things beyond our wildest dreams
217
713960
4045
私たちの想像は超えられます
11:58
if we stop obsessively trying to fly to the sun.
218
718047
4379
太陽に向かって 無理やり飛ぼうとしなければです
12:02
Thank you.
219
722802
1168
ありがとうございます
12:03
(Applause)
220
723970
5880
(拍手)
このウェブサイトについて

このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。

https://forms.gle/WvT1wiN1qDtmnspy7