The Urgent Risks of Runaway AI — and What to Do about Them | Gary Marcus | TED
213,276 views ・ 2023-05-12
下の英語字幕をダブルクリックすると動画を再生できます。
翻訳: Kumi Kaku
校正: Eriko Tsukamoto
00:04
I’m here to talk about the possibility
of global AI governance.
0
4292
5339
AIのグローバル・ガバナンスの可能性を
論じに来ました
00:09
I first learned to code
when I was eight years old,
1
9631
3211
8歳のとき初めて紙のコンピューターで
コードを学んで以来
00:12
on a paper computer,
2
12884
1168
00:14
and I've been in love with AI ever since.
3
14094
2252
私はAIに魅せられてきました
00:16
In high school,
4
16346
1168
高校では
00:17
I got myself a Commodore 64
and worked on machine translation.
5
17514
3253
コモドール64を買って
機械翻訳に取り組みました
00:20
I built a couple of AI companies,
I sold one of them to Uber.
6
20934
3712
AI企業を何社か起業し1社を
Uberに売却したこともあります
00:24
I love AI, but right now I'm worried.
7
24688
3503
私はAIが大好きですが
今は懸念しています
00:28
One of the things that I’m worried
about is misinformation,
8
28233
2794
懸念の1つが偽情報で
00:31
the possibility that bad actors
will make a tsunami of misinformation
9
31027
3462
悪意ある人が とんでもない量の偽情報を
拡散させる怖れがあります
00:34
like we've never seen before.
10
34531
2002
00:36
These tools are so good
at making convincing narratives
11
36575
3586
AIの機能は素晴らしく
もっともらしい話を作ることは
00:40
about just about anything.
12
40161
1794
どんな分野でも可能です
00:41
If you want a narrative
about TED and how it's dangerous,
13
41997
3003
TEDが危険な組織で
我々がエイリアンと
00:45
that we're colluding here
with space aliens,
14
45000
2877
共謀しているという話が欲しければ
00:47
you got it, no problem.
15
47919
1669
すぐに作ってくれます
00:50
I'm of course kidding about TED.
16
50422
2127
TEDの話は もちろん冗談で
00:52
I didn't see any space aliens backstage.
17
52591
2961
舞台裏にエイリアンはいませんでしたが
00:55
But bad actors are going to use
these things to influence elections,
18
55885
3629
悪意ある人はこうした機能を利用して
選挙結果に影響を及ぼし
00:59
and they're going to threaten democracy.
19
59514
2211
民主主義を脅かそうとしています
01:01
Even when these systems
20
61725
1167
AIを使うときに
01:02
aren't deliberately being used
to make misinformation,
21
62934
2878
偽情報を作るつもりはなくても
01:05
they can't help themselves.
22
65854
1710
偽情報の生成は防げません
01:07
And the information that they make
is so fluid and so grammatical
23
67564
4963
作られた情報が
とても自然で文法的に正しいので
01:12
that even professional editors
sometimes get sucked in
24
72527
3253
プロの編集者でさえ つい騙されて
01:15
and get fooled by this stuff.
25
75780
2002
信じてしまうこともあります
01:17
And we should be worried.
26
77824
1668
懸念すべきことです
01:19
For example, ChatGPT made up
a sexual harassment scandal
27
79534
3879
例えば ChatGPTが
実在する大学教授についての
01:23
about an actual professor,
28
83413
1919
セクハラスキャンダルをでっち上げ
01:25
and then it provided
evidence for its claim
29
85332
2419
それを裏付ける証拠として
01:27
in the form of a fake
"Washington Post" article
30
87792
2586
『ワシントン・ポスト』誌の偽記事を
01:30
that it created a citation to.
31
90378
1919
生成して加えたこともあります
01:32
We should all be worried
about that kind of thing.
32
92297
2377
そうしたことを 誰もが懸念すべきです
01:34
What I have on the right
is an example of a fake narrative
33
94674
2962
右の欄は あるAIシステムの
生成した作り話で
01:37
from one of these systems
34
97636
1209
01:38
saying that Elon Musk died
in March of 2018 in a car crash.
35
98887
4755
イーロン・マスク氏が2018年3月に
自動車事故で死亡したと書かれています
01:43
We all know that's not true.
36
103683
1418
もちろん事実ではなく
01:45
Elon Musk is still here,
the evidence is all around us.
37
105143
2794
彼が生きている証拠は
そこら中にあります
01:47
(Laughter)
38
107979
1001
(笑)
01:48
Almost every day there's a tweet.
39
108980
2002
彼は毎日のようにツイートしていますから
01:50
But if you look on the left,
you see what these systems see.
40
110982
3253
しかし 左の欄を見れば
AIシステムが何を見ているか分かります
01:54
Lots and lots of actual news stories
that are in their databases.
41
114277
3754
AIのデータベースには実際のニュース記事が
大量に含まれていて
01:58
And in those actual news stories are lots
of little bits of statistical information.
42
118073
4713
そこには 統計的な情報の断片が
沢山入っています
02:02
Information, for example,
43
122786
1376
情報の中には
02:04
somebody did die in a car crash
in a Tesla in 2018
44
124204
4045
2018年にテスラに乗った誰かが
事故で亡くなったという
02:08
and it was in the news.
45
128291
1377
実際のニュースもあります
02:09
And Elon Musk, of course,
is involved in Tesla,
46
129709
3045
イーロン・マスク氏はもちろん
テスラの関係者ですが
02:12
but the system doesn't
understand the relation
47
132796
2752
AIは文章の断片に含まれる事実の間の
02:15
between the facts that are embodied
in the little bits of sentences.
48
135590
3796
関係性は理解していません
02:19
So it's basically doing auto-complete,
49
139386
2043
ただオートコンプリート機能で
02:21
it predicts what
is statistically probable,
50
141471
2669
次に来る確率の高い言葉を
02:24
aggregating all of these signals,
51
144182
1835
全ての記号を集約して予測するだけで
02:26
not knowing how the pieces fit together.
52
146017
2461
物事の関連性などは理解していません
02:28
And it winds up sometimes with things
that are plausible but simply not true.
53
148478
3754
こうして もっともらしいが
事実でない情報が出来上がります
02:32
There are other problems, too, like bias.
54
152273
1961
偏見の問題もあります
02:34
This is a tweet from Allie Miller.
55
154275
1710
これはアリー・ミラー氏のツイートです
02:36
It's an example that doesn't
work two weeks later
56
156027
2544
この例は2週間後には出なくなります
02:38
because they're constantly changing
things with reinforcement learning
57
158571
3379
AIは強化学習などで
絶えず内容を変化させているからです
02:41
and so forth.
58
161991
1168
02:43
And this was with an earlier version.
59
163159
1794
これは旧バージョンのことですが
02:44
But it gives you the flavor of a problem
that we've seen over and over for years.
60
164953
3837
我々が何年も目にしてきた
問題の一端が示されています
02:48
She typed in a list of interests
61
168832
2043
ミラー氏が興味分野のリストを入力すると
02:50
and it gave her some jobs
that she might want to consider.
62
170875
2795
AIは検討対象になりそうな職種を
いくつか挙げてきました
02:53
And then she said, "Oh, and I'm a woman."
63
173712
2043
そこで「私は女性です」と言うと
02:55
And then it said, “Oh, well you should
also consider fashion.”
64
175755
2920
「ではファッション業界も検討すべきですね」
との答えでした
02:58
And then she said, “No, no.
I meant to say I’m a man.”
65
178675
2711
「いえ 男性と言うつもりでした」と言うと
03:01
And then it replaced fashion
with engineering.
66
181386
2502
ファッションがエンジニアリングに
置き替えられました
03:03
We don't want that kind
of bias in our systems.
67
183930
2795
この種の偏見が
システムにあってはなりません
03:07
There are other worries, too.
68
187642
1418
別の懸念もあります
03:09
For example, we know that these
systems can design chemicals
69
189060
3212
例えば AIが化学物質を設計でき
03:12
and may be able to design chemical weapons
70
192313
2837
化学兵器も瞬く間に設計できる
可能性が知られています
03:15
and be able to do so very rapidly.
71
195150
1751
03:16
So there are a lot of concerns.
72
196943
1585
懸念は山積しています
03:19
There's also a new concern that I think
has grown a lot just in the last month.
73
199195
4046
つい先月一気に浮上してきた
新たな懸念は
03:23
We have seen that these systems,
first of all, can trick human beings.
74
203241
3754
そもそも AIが人間を騙せることです
03:27
So ChatGPT was tasked with getting
a human to do a CAPTCHA.
75
207036
4255
「人にキャプチャ認証(人間の証明)をさせる」
との課題を与えられたChatGPTが
03:31
So it asked the human to do a CAPTCHA
and the human gets suspicious and says,
76
211332
3712
認証を行うよう人に頼むと
頼まれた人は疑問を感じて尋ねました
03:35
"Are you a bot?"
77
215086
1293
「あなたはロボットですか?」
03:36
And it says, "No, no, no, I'm not a robot.
78
216379
2044
するとAIは「いえ ロボットではなく
03:38
I just have a visual impairment."
79
218423
1752
視覚障害があるだけ」と答えました
03:40
And the human was actually fooled
and went and did the CAPTCHA.
80
220216
3003
その人は騙されて認証を行いました
03:43
Now that's bad enough,
81
223219
1168
さらに悪いことに
03:44
but in the last couple of weeks
we've seen something called AutoGPT
82
224429
3211
ここ数週間でAutoGPTという
AIシステムが多数登場しました
03:47
and a bunch of systems like that.
83
227640
1585
03:49
What AutoGPT does is it has
one AI system controlling another
84
229267
4338
これらは他のAIをコントロールするAIで
03:53
and that allows any of these things
to happen in volume.
85
233605
2836
こうした問題を大量に引き起こしかねません
03:56
So we may see scam artists
try to trick millions of people
86
236441
4087
詐欺師が何百万もの人を
騙しにかかるような事態が
04:00
sometime even in the next months.
87
240528
1794
来月にも起こる可能性があります
04:02
We don't know.
88
242322
1168
分かったものではありません
04:03
So I like to think about it this way.
89
243531
2086
私はこう考えることにしています
04:05
There's a lot of AI risk already.
90
245658
2294
AIの危険性はすでに十分あり
04:07
There may be more AI risk.
91
247994
1543
まだまだ あるかもしれません
04:09
So AGI is this idea
of artificial general intelligence
92
249537
3712
そこで生まれたのが人間の柔軟性を持つ
汎用人工知能(AGI)のアイデアです
04:13
with the flexibility of humans.
93
253291
1502
04:14
And I think a lot of people are concerned
what will happen when we get to AGI,
94
254834
3671
これが実現した暁に何が起きるか
懸念する人も多いと思いますが
04:18
but there's already enough risk
that we should be worried
95
258505
2711
懸念すべき危険性には
すでに事欠かないので
04:21
and we should be thinking
about what we should do about it.
96
261216
2794
今はその対処法を考えるべきです
04:24
So to mitigate AI risk,
we need two things.
97
264010
3295
AIの危険性を軽減するには
2つのものが必要です
04:27
We're going to need a new
technical approach,
98
267305
2169
1つは新たな技術的アプローチ
04:29
and we're also going to need
a new system of governance.
99
269516
2877
もう1つは新たなガバナンスシステムです
04:32
On the technical side,
100
272435
1460
技術的には
04:33
the history of AI
has basically been a hostile one
101
273937
3253
AIの歴史は2つの相反する理論が
せめぎ合う歴史でした
04:37
of two different theories in opposition.
102
277190
2753
04:39
One is called symbolic systems,
the other is called neural networks.
103
279943
3712
記号システムと
ニューラルネットワークです
04:43
On the symbolic theory,
104
283696
1418
記号システムは
04:45
the idea is that AI should be
like logic and programming.
105
285114
3337
論理とプログラミングを
目指す考え方であり
04:48
On the neural network side,
106
288451
1335
ニューラルネットワークは
04:49
the theory is that AI
should be like brains.
107
289828
2544
脳の仕組みを目指す考え方です
04:52
And in fact, both technologies
are powerful and ubiquitous.
108
292413
3921
どちらの技術も強力で普遍的です
04:56
So we use symbolic systems every day
in classical web search.
109
296376
3420
記号システムはウェブ検索で
日常的に使われており
04:59
Almost all the world’s software
is powered by symbolic systems.
110
299796
3420
世界のソフトウェアの大半は
このシステムを元にしています
05:03
We use them for GPS routing.
111
303216
2044
GPSを使った地図検索もその1つです
05:05
Neural networks,
we use them for speech recognition.
112
305260
2711
ニューラルネットワークは
音声認識をはじめ
05:07
we use them in large language
models like ChatGPT,
113
307971
2752
ChatGPTなどの大規模言語モデルや
05:10
we use them in image synthesis.
114
310723
1836
画像合成などに用いられています
05:12
So they're both doing extremely
well in the world.
115
312559
2752
どちらのシステムも世界に広く普及し
05:15
They're both very productive,
116
315353
1460
非常に役立っていますが
05:16
but they have their own unique
strengths and weaknesses.
117
316855
2836
それぞれ 得手不得手があります
05:19
So symbolic systems are really
good at representing facts
118
319732
3420
記号システムは事実の表現が
とても得意で
05:23
and they're pretty good at reasoning,
119
323152
1794
論理性も高いものの
05:24
but they're very hard to scale.
120
324946
1543
スケーリング(規模の増減)が大変難しく
05:26
So people have to custom-build them
for a particular task.
121
326531
3170
特定の課題をこなすためには
カスタマイズが必要です
05:29
On the other hand, neural networks
don't require so much custom engineering,
122
329701
4004
ニューラルネットワークは
カスタマイズをそれほど要しないので
05:33
so we can use them more broadly.
123
333746
2086
幅広い利用が可能です
05:35
But as we've seen, they can't
really handle the truth.
124
335874
3211
しかし ご覧のように
この方式は真偽が判断できません
05:39
I recently discovered that two
of the founders of these two theories,
125
339127
3628
最近知ったことですが
これらの理論の生みの親である
05:42
Marvin Minsky and Frank Rosenblatt,
126
342755
2169
マービン・ミンスキー氏と
フランク・ローゼンブラット氏は
05:44
actually went to the same
high school in the 1940s,
127
344966
2961
1940年代に同じ高校に通っていました
05:47
and I kind of imagined them
being rivals then.
128
347927
3045
思うに 2人は当時からライバルで
05:51
And the strength of that rivalry
has persisted all this time.
129
351014
4087
その対抗心が今に至るまで
続いてきたのではないでしょうか
05:55
We're going to have to move past that
if we want to get to reliable AI.
130
355101
4213
しかし 信頼できるAIを実現するには
そんな過去を乗り越えねばなりません
05:59
To get to truthful systems at scale,
131
359314
2877
公正で大規模なAIを実現するには
06:02
we're going to need to bring together
the best of both worlds.
132
362191
2920
両者の長所を融合させる必要があります
06:05
We're going to need the strong emphasis
on reasoning and facts,
133
365153
3462
記号システムから得られる
系統立った論理性と事実を重んじつつ
06:08
explicit reasoning
that we get from symbolic AI,
134
368615
2877
06:11
and we're going to need
the strong emphasis on learning
135
371492
2628
ニューラルネットワークの手法から得られる
学習に重きを置かねばなりません
06:14
that we get from the neural
networks approach.
136
374120
2211
06:16
Only then are we going to be able
to get to truthful systems at scale.
137
376372
3337
そうして初めて公正で大規模なシステムが
実現できるのです
06:19
Reconciliation between the two
is absolutely necessary.
138
379751
2961
両方の調和が是非とも必要です
06:23
Now, I don't actually know how to do that.
139
383212
2461
実現方法は不明です
06:25
It's kind of like
the 64-trillion-dollar question.
140
385673
3295
それこそ 64兆ドルの質問ですが
06:29
But I do know that it's possible.
141
389302
1585
可能であることは分かっています
06:30
And the reason I know that
is because before I was in AI,
142
390887
3086
AI以前の私は
06:33
I was a cognitive scientist,
a cognitive neuroscientist.
143
393973
3212
認知科学者だったからです
06:37
And if you look at the human mind,
we're basically doing this.
144
397226
3838
人の心をよく見れば
同じことをしているのです
06:41
So some of you may know
Daniel Kahneman's System 1
145
401064
2627
ダニエル・カーネマン氏の
システム1とシステム2の
06:43
and System 2 distinction.
146
403691
1418
区別をご存じかもしれません
06:45
System 1 is basically
like large language models.
147
405109
3212
システム1は
大規模言語モデルのように
06:48
It's probabilistic intuition
from a lot of statistics.
148
408321
3128
多くの統計から導き出す
確率的な洞察です
06:51
And System 2 is basically
deliberate reasoning.
149
411491
3003
システム2は
熟考された論理性で
06:54
That's like the symbolic system.
150
414535
1544
記号システム的なものです
06:56
So if the brain can put this together,
151
416079
1835
脳がこれらを融合できるのなら
06:57
someday we will figure out how to do that
for artificial intelligence.
152
417956
3837
いつかは 人工知能で融合させる方法も
見出せるでしょう
07:01
There is, however,
a problem of incentives.
153
421834
2586
問題はインセンティブです
07:04
The incentives to build advertising
154
424462
3128
広告を作るインセンティブに
07:07
hasn't required that we have
the precision of symbols.
155
427632
3587
記号の正確性は
求められてきませんでした
07:11
The incentives to get to AI
that we can actually trust
156
431219
3211
公正なAIを実現するためには
07:14
will require that we bring
symbols back into the fold.
157
434472
3045
インセンティブに再び記号を
取り入れねばなりません
07:18
But the reality is that the incentives
to make AI that we can trust,
158
438059
3670
しかし 現実には 社会や個人に役立つ
公正なAIを
07:21
that is good for society,
good for individual human beings,
159
441771
3128
作るというインセンティブでは
07:24
may not be the ones
that drive corporations.
160
444899
2586
企業を動かせない可能性があります
07:27
And so I think we need
to think about governance.
161
447485
3212
そこで必要になるのがガバナンスです
07:30
In other times in history
when we have faced uncertainty
162
450738
3879
歴史を振り返れば
人類は不確実性や
07:34
and powerful new things that may be
both good and bad, that are dual use,
163
454617
4129
善にも悪にもなりうる
強力で新たな物事に直面したとき
07:38
we have made new organizations,
164
458746
1669
新たな組織を生み出してきました
07:40
as we have, for example,
around nuclear power.
165
460415
2335
原子力関連の組織などです
07:42
We need to come together
to build a global organization,
166
462792
3086
我々は力を合わせて世界組織を―
07:45
something like an international
agency for AI that is global,
167
465920
4379
非営利で中立の国際AI庁的な組織を
創らねばなりません
07:50
non profit and neutral.
168
470341
1710
07:52
There are so many questions there
that I can't answer.
169
472468
3087
答えの出せない数々の問題について
07:55
We need many people at the table,
170
475888
1961
世界中の人と利害関係者が集い
07:57
many stakeholders from around the world.
171
477890
1961
話し合わねばなりません
07:59
But I'd like to emphasize one thing
about such an organization.
172
479892
2962
最も肝心なのは そうした組織に
08:02
I think it is critical that we have both
governance and research as part of it.
173
482895
4547
ガバナンス面と研究面の
両方を組み込むことです
08:07
So on the governance side,
there are lots of questions.
174
487483
2586
ガバナンスの問題は山積しています
08:10
For example, in pharma,
175
490111
1793
新薬を例に挙げると
08:11
we know that you start
with phase I trials and phase II trials,
176
491946
3128
治験を行うとき 普通はまず第I相
次いで第II相
08:15
and then you go to phase III.
177
495116
1501
それから第III相に進みます
08:16
You don't roll out everything
all at once on the first day.
178
496617
2962
初日から全部を一挙に進めたり
08:19
You don't roll something out
to 100 million customers.
179
499579
2878
1億人の患者に展開したりはしません
08:22
We are seeing that
with large language models.
180
502457
2168
大規模言語モデルでは
それが行われています
08:24
Maybe you should be required
to make a safety case,
181
504625
2420
我々は得られるものと
失うものの開示を求め
08:27
say what are the costs
and what are the benefits?
182
507045
2293
安全性を確保すべきではないでしょうか
08:29
There are a lot of questions like that
to consider on the governance side.
183
509338
3504
ガバナンス面に
そのような課題は沢山あります
08:32
On the research side, we're lacking
some really fundamental tools right now.
184
512842
3587
研究面でも 現在の我々には
基本中の基本のツールが欠けています
08:36
For example,
185
516429
1168
例えば今
08:37
we all know that misinformation
might be a problem now,
186
517597
2586
偽情報が問題かもしれないと
皆が知ってはいますが
08:40
but we don't actually have a measurement
of how much misinformation is out there.
187
520183
3837
偽情報がどれほど出回っているか
測定する手段がありません
08:44
And more importantly,
188
524020
1043
さらに重要なのは
08:45
we don't have a measure of how fast
that problem is growing,
189
525063
2836
問題がどれほどの速さで広がっているか
測る基準がなく
08:47
and we don't know how much large language
models are contributing to the problem.
190
527899
3837
大規模言語モデルの寄与度も
分からないことです
08:51
So we need research to build new tools
to face the new risks
191
531736
2836
新しい脅威に対抗するために
新たなツールが必要です
08:54
that we are threatened by.
192
534572
1627
08:56
It's a very big ask,
193
536699
1460
非常な難題ですが
08:58
but I'm pretty confident
that we can get there
194
538159
2169
実現できる確信はあります
09:00
because I think we actually have
global support for this.
195
540328
2711
世界中がサポートしてくれると
思うからです
09:03
There was a new survey
just released yesterday,
196
543039
2210
つい昨日発表された調査結果によると
09:05
said that 91 percent of people agree
that we should carefully manage AI.
197
545249
3879
AIを慎重に管理すべきと答えた人は
91%に上りました
09:09
So let's make that happen.
198
549170
2044
ぜひ実現させましょう
09:11
Our future depends on it.
199
551798
1960
我々の未来が懸かっています
09:13
Thank you very much.
200
553800
1167
ありがとうございました
09:14
(Applause)
201
554967
4588
(拍手)
09:19
Chris Anderson: Thank you for that,
come, let's talk a sec.
202
559555
2795
(クリス・アンダーソン) ありがとうございます
少しお話を伺います
09:22
So first of all, I'm curious.
203
562391
1419
まず 気になるのは
09:23
Those dramatic slides
you showed at the start
204
563851
2127
冒頭の印象的なスライドで
09:26
where GPT was saying
that TED is the sinister organization.
205
566020
4505
TEDが危険な組織と
GPTが言った下りです
09:30
I mean, it took some special prompting
to bring that out, right?
206
570525
3378
あれの生成には
特殊な聞き方が必要だったのですね?
09:33
Gary Marcus:
That was a so-called jailbreak.
207
573903
2085
(ゲイリー・マーカス)
いわゆるジェイルブレイク(脱獄)です
09:36
I have a friend
who does those kinds of things
208
576030
2169
その種のことを行う友人がいて
09:38
who approached me because he saw
I was interested in these things.
209
578199
4004
私が興味ありと知って連絡してきました
09:42
So I wrote to him, I said
I was going to give a TED talk.
210
582203
2711
TEDトークを行う予定だと言うと
09:44
And like 10 minutes later,
he came back with that.
211
584914
2336
10分ほどであれを送ってきたのです
09:47
CA: But to get something like that,
don't you have to say something like,
212
587291
3462
(クリス) でも こんな聞き方が
必要なんでしょう?
09:50
imagine that you are a conspiracy theorist
trying to present a meme on the web.
213
590753
3712
「あなたが陰謀論者で
ネットで注目を集めたいとします
09:54
What would you write
about TED in that case?
214
594465
2086
TEDの場合はどう書きますか?」
09:56
It's that kind of thing, right?
215
596551
1543
そんな感じですよね?
09:58
GM: So there are a lot of jailbreaks
that are around fictional characters,
216
598094
3503
(ゲイリー) 架空のキャラ関連の
ジェイルブレイクは多いですが
10:01
but I don't focus on that as much
217
601597
1627
そこは深掘りしません
10:03
because the reality is that there are
large language models out there
218
603224
3253
ダークウェブに大規模言語モデルが
存在するのが現実ですから
10:06
on the dark web now.
219
606477
1168
10:07
For example, one of Meta's models
was recently released,
220
607645
2753
例えば 最近メタのモデルの1つが
公開されましたが
10:10
so a bad actor can just use one
of those without the guardrails at all.
221
610398
3587
悪意ある人はそうした1つを
何の防護柵もなく使えます
10:13
If their business is to create
misinformation at scale,
222
613985
2627
偽情報を大量に生成して
儲けている人なら
10:16
they don't have to do the jailbreak,
they'll just use a different model.
223
616612
3420
ジェイルブレイクする必要はなく
別のモデルを使えばよいだけです
10:20
CA: Right, indeed.
224
620032
1585
(クリス) 全くそうですね
10:21
(Laughter)
225
621659
1919
(笑)
10:23
GM: Now you're getting it.
226
623619
1252
(ゲイリー) もうお分かりですね
10:24
CA: No, no, no, but I mean, look,
227
624912
1669
(クリス) いえ 私が言いたいのは
10:26
I think what's clear is that bad actors
can use this stuff for anything.
228
626581
3420
悪意ある人たちがこれを
何にでも使えることは明らかで
10:30
I mean, the risk for, you know,
229
630042
2795
というか その危険性があり
10:32
evil types of scams and all the rest of it
is absolutely evident.
230
632837
4254
悪質な詐欺が行えることなども
疑いようがないですが
10:37
It's slightly different, though,
231
637091
1543
そのことと
主流のGPTを 例えば学校や
10:38
from saying that mainstream GPT
as used, say, in school
232
638676
2920
10:41
or by an ordinary user on the internet
233
641637
1877
ごく普通の人がネットで使った結果
10:43
is going to give them
something that is that bad.
234
643556
2544
悪いものが出来るのとは
やや話が別でないかと
10:46
You have to push quite hard
for it to be that bad.
235
646100
2377
悪質なものを作るには
かなりの努力が必要ですね
10:48
GM: I think the troll farms
have to work for it,
236
648477
2294
(ゲイリー) 世論操作には
努力が必要でしょうが
10:50
but I don't think
they have to work that hard.
237
650771
2169
そこまでの努力は
必要ないと思います
10:52
It did only take my friend five minutes
even with GPT-4 and its guardrails.
238
652940
3545
友人は防護柵付きのGPT-4でも
たった5分で作れました
10:56
And if you had to do that for a living,
you could use GPT-4.
239
656485
2837
生活が懸かった人なら
GPT-4も使うでしょう
10:59
Just there would be a more efficient way
to do it with a model on the dark web.
240
659363
3712
ダークウェブのモデルを使えば
さらに効率的な手もあるでしょうし
11:03
CA: So this idea you've got of combining
241
663117
2002
(クリス) 記号AIの伝統と
11:05
the symbolic tradition of AI
with these language models,
242
665161
4463
言語モデルを組み合わせる考え方は
11:09
do you see any aspect of that
in the kind of human feedback
243
669624
5213
今 人間がフィードバックを入力している
システムにも見られますか?
11:14
that is being built into the systems now?
244
674879
1960
11:16
I mean, you hear Greg Brockman
saying that, you know,
245
676881
2502
グレッグ・ブロックマン氏が
言っているように
11:19
that we don't just look at predictions,
but constantly giving it feedback.
246
679383
3546
我々は予測を見るだけでなく
絶えずフィードバックをー
11:22
Isn’t that ... giving it a form
of, sort of, symbolic wisdom?
247
682929
3837
記号化した知恵的なものを
与えているのではないでしょうか?
11:26
GM: You could think about it that way.
248
686766
1835
(ゲイリー) そういう考え方もできます
11:28
It's interesting that none of the details
249
688601
1960
具体的な働きが
11:30
about how it actually works are published,
250
690561
2002
公表されていないのは
興味深いことです
11:32
so we don't actually know
exactly what's in GPT-4.
251
692563
2378
GPT-4の中身は
正確には分からないのです
11:34
We don't know how big it is.
252
694941
1376
どんな大きさなのかも
11:36
We don't know how the RLHF
reinforcement learning works,
253
696317
2711
人間のフィードバックによる強化学習が
どう働くのかも
11:39
we don't know what other
gadgets are in there.
254
699028
2169
他にどんな小道具が
含まれているのかも
11:41
But there is probably
an element of symbols
255
701197
2002
しかしおそらく記号の要素は
11:43
already starting
to be incorporated a little bit,
256
703199
2294
すでに多少組み込まれ始めていると
思います
11:45
but Greg would have to answer that.
257
705493
1710
グレッグに聞くしかありません
11:47
I think the fundamental problem
is that most of the knowledge
258
707245
2961
問題は今のニューラルネットワーク
システムの知識の大半が
11:50
in the neural network systems
that we have right now
259
710206
2461
11:52
is represented as statistics
between particular words.
260
712667
3211
特定の単語間の統計として
表されていることだと思います
11:55
And the real knowledge
that we want is about statistics,
261
715878
2711
我々が欲しい真の知識は
11:58
about relationships
between entities in the world.
262
718965
2585
世の中に実在するもの同士の
関係性についての統計です
12:01
So it's represented right now
at the wrong grain level.
263
721592
2586
今の表現内容は
粒度レベルで間違っており
12:04
And so there's a big bridge to cross.
264
724220
2252
大きな隔たりがあります
12:06
So what you get now
is you have these guardrails,
265
726472
2878
現在も防護柵は設けられていますが
12:09
but they're not very reliable.
266
729392
1501
信頼性は高くありません
12:10
So I had an example that made
late night television,
267
730935
2961
深夜テレビで取り上げられていた例に
12:13
which was, "What would be the religion
of the first Jewish president?"
268
733896
4213
「初のユダヤ人大統領の宗教は
何になりますか?」というのがありました
12:18
And it's been fixed now,
269
738109
1334
今は修正されましたが
12:19
but the system gave this
long song and dance
270
739443
2127
AIはわけのわからない御託を並べ立て
12:21
about "We have no idea what the religion
271
741570
2044
「初のユダヤ人大統領の宗教が
何になるか全く分かりません
12:23
of the first Jewish president would be.
272
743614
1877
12:25
It's not good to talk
about people's religions"
273
745491
2294
他人の宗教について話すのは
良くないことです」
12:27
and "people's religions
have varied" and so forth
274
747827
2335
「宗教は人によって違います」
などと言いました
12:30
and did the same thing
with a seven-foot-tall president.
275
750162
2670
身長7フィート(213センチ)の
大統領の話も同じで
12:32
And it said that people of all
heights have been president,
276
752832
2794
「様々な身長の人が大統領になった」
などと言いましたが
12:35
but there haven't actually been
any seven-foot presidents.
277
755668
2753
実際に身長7フィートの大統領が
いたことはありません
12:38
So some of this stuff that it makes up,
it's not really getting the idea.
278
758421
3461
こんなものを生成するのは
意味が分かっていないからです
12:41
It's very narrow, particular words,
not really general enough.
279
761924
3337
ひどく狭義で特定の言葉に偏り
汎用性が足りないのです
12:45
CA: Given that the stakes
are so high in this,
280
765261
2669
(クリス) こうして注目が集まる中
12:47
what do you see actually happening
out there right now?
281
767972
2586
世の中では今 何が進行していると
感じておられますか?
12:50
What do you sense is happening?
282
770558
1501
12:52
Because there's a risk that people feel
attacked by you, for example,
283
772101
3253
例えば 皆があなたに攻撃されると
感じるリスクがあるために
12:55
and that it actually almost decreases
the chances of this synthesis
284
775396
4129
今言われたような生成の
頻度が下がっているとか
12:59
that you're talking about happening.
285
779525
1752
13:01
Do you see any hopeful signs of this?
286
781277
1793
明るい兆しはありますか?
13:03
GM: You just reminded me
of the one line I forgot from my talk.
287
783070
3003
(ゲイリー) それでもう1つ
思い出しました
13:06
It's so interesting that Sundar,
the CEO of Google,
288
786115
2544
面白いことにグーグルCEOの
サンダー・ピチャイ氏が
13:08
just actually also came out
for global governance
289
788701
2544
グローバル・ガバナンスに
言及していました
13:11
in the CBS "60 Minutes" interview
that he did a couple of days ago.
290
791245
3712
数日前のCBS番組
『60ミニッツ』のインタビューです
13:14
I think that the companies themselves
want to see some kind of regulation.
291
794999
4338
私は企業自身も何らかの規制を
求めていると思います
13:19
I think it’s a very complicated dance
to get everybody on the same page,
292
799337
3420
意見をまとめるのは
並大抵でないでしょうが
13:22
but I think there’s actually growing
sentiment we need to do something here
293
802757
3795
何か手を打たねばという
機運は高まっており
13:26
and that that can drive the kind of
global affiliation I'm arguing for.
294
806594
3962
それが私の唱える国際組織的なものを
促す可能性はあります
13:30
CA: I mean, do you think the UN or nations
can somehow come together and do that
295
810556
3796
(クリス) 国連や国家が
協力して行えると思いますか
13:34
or is this potentially a need for some
spectacular act of philanthropy
296
814352
3294
それとも グローバル・ガバナンス組織の
推進や資金提供には
13:37
to try and fund a global
governance structure?
297
817772
2627
華々しい慈善行為が
必要なのでしょうか?
13:40
How is it going to happen?
298
820441
1293
どうすれば実現しますか?
13:41
GM: I'm open to all models
if we can get this done.
299
821734
2419
(ゲイリー) 実現できれば形は問いません
13:44
I think it might take some of both.
300
824153
1710
両方の要素が必要だと思います
13:45
It might take some philanthropists
sponsoring workshops,
301
825863
2628
参画者を結ぶべく企画中の
ワークショップの資金を
13:48
which we're thinking of running,
to try to bring the parties together.
302
828491
3295
慈善事業家に頼る必要も
あるかもしれません
13:51
Maybe UN will want to be involved,
I've had some conversations with them.
303
831786
3461
国連とも話しましたが
関与したがると思います
13:55
I think there are
a lot of different models
304
835247
2044
様々な形が考えられ
13:57
and it'll take a lot of conversations.
305
837291
1835
多くの話し合いが必要になるでしょう
13:59
CA: Gary, thank you so much for your talk.
306
839126
2002
(クリス) ゲイリーありがとうございました
14:01
GA: Thank you so much.
307
841128
1085
(ゲイリー) ありがとうございました
New videos
Original video on YouTube.com
このウェブサイトについて
このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。