The Inside Story of ChatGPT’s Astonishing Potential | Greg Brockman | TED

1,805,277 views ・ 2023-04-20

TED


下の英語字幕をダブルクリックすると動画を再生できます。

翻訳: Yasushi Aoki
00:03
We started OpenAI seven years ago
0
3875
2503
私たちは7年前に OpenAIを立ち上げました
00:06
because we felt like something really interesting was happening in AI
1
6378
3712
AIの分野で非常に 興味深いことが起きていて
00:10
and we wanted to help steer it in a positive direction.
2
10131
3170
それを良い方向に 進めたいと思ったからです
00:15
It's honestly just really amazing to see
3
15220
2085
それ以来AI分野が どれほど進歩したかは
00:17
how far this whole field has come since then.
4
17347
3086
驚くばかりです
00:20
And it's really gratifying to hear from people like Raymond
5
20433
3629
こちらのレイモンド氏のような人たちが 私たちの開発した技術を使い
様々な素晴らしいことをしているのは 喜ばしい限りです
00:24
who are using the technology we are building, and others,
6
24104
2836
00:26
for so many wonderful things.
7
26982
2127
[ChatGPTは辛抱強い友達のよう...]
00:29
We hear from people who are excited,
8
29150
2503
興奮している人たちもいれば
00:31
we hear from people who are concerned,
9
31653
1835
心配している人たち
00:33
we hear from people who feel both those emotions at once.
10
33530
2961
その両方を同時に 感じている人たちもいます
00:36
And honestly, that's how we feel.
11
36533
2252
私たち自身も 同じように感じています
00:40
Above all, it feels like we're entering an historic period right now
12
40245
4087
私たちは歴史的な時を 迎えていると感じます
00:44
where we as a world are going to define a technology
13
44374
4421
社会がどう進んでいくかを 決める技術を
00:48
that will be so important for our society going forward.
14
48795
3086
生み出そうとしているのだと
00:52
And I believe that we can manage this for good.
15
52924
2628
それを良い方向に進められると 私は信じています
00:56
So today, I want to show you the current state of that technology
16
56845
4171
今日はみなさんに 最先端の技術と
01:01
and some of the underlying design principles that we hold dear.
17
61016
3086
私たちが大切にしている 設計原則を紹介したいと思います
01:09
So the first thing I'm going to show you
18
69983
1918
最初にお見せするのは
01:11
is what it's like to build a tool for an AI
19
71943
2086
人間よりはむしろ AIのためのツールです
01:14
rather than building it for a human.
20
74029
1876
01:17
So we have a new DALL-E model, which generates images,
21
77574
3545
画像を生成するDALL-Eの 新しいモデルがあり
01:21
and we are exposing it as an app for ChatGPT to use on your behalf.
22
81161
4045
それをChatGPTのためのアプリとして 使えるようにしています
01:25
And you can do things like ask, you know,
23
85248
2461
これで例えば TEDの後の食事への おすすめを提案し
01:27
suggest a nice post-TED meal and draw a picture of it.
24
87751
6631
その画像を 描かせることができます
01:35
(Laughter)
25
95216
1419
(笑)
01:38
Now you get all of the, sort of, ideation and creative back-and-forth
26
98303
4671
ChatGPTでアイデア出しや クリエイティブなやり取りをし
01:43
and taking care of the details for you that you get out of ChatGPT.
27
103016
4004
詳細を詰めることができます
01:47
And here we go, it's not just the idea for the meal,
28
107062
2669
単なる案でなく
01:49
but a very, very detailed spread.
29
109773
3587
とても詳細な ご馳走の一覧が出てきました
01:54
So let's see what we're going to get.
30
114110
2044
どんなものか 見てみましょう
01:56
But ChatGPT doesn't just generate images in this case --
31
116154
3795
ChatGPTは文章を 生成するだけでなく
01:59
sorry, it doesn't generate text, it also generates an image.
32
119991
2836
画像を生成することもできます
02:02
And that is something that really expands the power
33
122827
2419
人間の意図を汲んで 何かをする能力が
02:05
of what it can do on your behalf in terms of carrying out your intent.
34
125246
3504
これにより 大きく拡張されます
02:08
And I'll point out, this is all a live demo.
35
128750
2085
これはライブのデモであることを 言っておきます
02:10
This is all generated by the AI as we speak.
36
130835
2169
AIがまさに今 生成しているもので
02:13
So I actually don't even know what we're going to see.
37
133046
2544
何が出てくるかは 私も知りません
02:16
This looks wonderful.
38
136216
2294
これは素敵なディナーですね
02:18
(Applause)
39
138510
3712
(拍手)
02:22
I'm getting hungry just looking at it.
40
142514
1877
見ていたら お腹が空いてきました
02:24
Now we've extended ChatGPT with other tools too,
41
144724
2753
ChatGPTを様々なツールで 拡張しています
02:27
for example, memory.
42
147519
1168
例えばメモリ機能で
02:28
You can say "save this for later."
43
148728
2795
「後で使えるよう保存」させるとか
02:33
And the interesting thing about these tools
44
153233
2043
そういったツールは
細かくチェック可能になっています
02:35
is they're very inspectable.
45
155318
1377
02:36
So you get this little pop up here that says "use the DALL-E app."
46
156695
3128
ここでは「DALL-Eアプリを使用」と 出ています
ちなみにこれは 今後数ヶ月内に 全ChatGPTユーザーに提供されます
02:39
And by the way, this is coming to you, all ChatGPT users, over upcoming months.
47
159823
3712
蓋を開けて見ると
02:43
And you can look under the hood and see that what it actually did
48
163535
3086
人間がするように プロンプトを書いています
02:46
was write a prompt just like a human could.
49
166621
2169
02:48
And so you sort of have this ability to inspect
50
168790
2628
マシンがツールを どのように使っているかチェックし
02:51
how the machine is using these tools,
51
171459
2086
02:53
which allows us to provide feedback to them.
52
173586
2086
フィードバックを 与えてやることができます
02:55
Now it's saved for later,
53
175714
1209
結果が保存されましたが
02:56
and let me show you what it's like to use that information
54
176965
2878
その情報を使って
02:59
and to integrate with other applications too.
55
179884
2503
さらに別のアプリに 繋げてみましょう
03:02
You can say,
56
182387
2210
「さっきのおいしそうな やつのための
03:04
“Now make a shopping list for the tasty thing
57
184639
5506
買い物リストを作って」
03:10
I was suggesting earlier.”
58
190186
1835
AIにはちょっと 難しい表現をしています
03:12
And make it a little tricky for the AI.
59
192021
2128
03:16
"And tweet it out for all the TED viewers out there."
60
196276
4337
「それをTEDを見ているみんなに ツイートして」
03:20
(Laughter)
61
200655
2252
(笑)
03:22
So if you do make this wonderful, wonderful meal,
62
202949
2461
この素敵な食事を作ったら どんな味がするのか
03:25
I definitely want to know how it tastes.
63
205410
2044
ぜひ知りたいです
03:28
But you can see that ChatGPT is selecting all these different tools
64
208496
3504
私が具体的に指定しなくとも
03:32
without me having to tell it explicitly which ones to use in any situation.
65
212000
4379
ChatGPTは自分で 適切なツールを選んでいます
03:37
And this, I think, shows a new way of thinking about the user interface.
66
217088
3879
これはユーザーインターフェースの 新しい形を示していると思います
03:40
Like, we are so used to thinking of, well, we have these apps,
67
220967
3796
私たちが慣れているのは
アプリをクリックし コピー&ペーストするというやり方で
03:44
we click between them, we copy/paste between them,
68
224763
2335
アプリのメニューや選択肢について よく知っているなら
03:47
and usually it's a great experience within an app
69
227098
2294
03:49
as long as you kind of know the menus and know all the options.
70
229434
2961
悪くない方法です
「このリストをツイートしますか?」
03:52
Yes, I would like you to.
71
232395
1293
03:53
Yes, please.
72
233730
1126
「お願いします」と
03:54
Always good to be polite.
73
234898
1251
誰にでも丁寧なのは 良いことです
03:56
(Laughter)
74
236149
2628
(笑)
04:00
And by having this unified language interface on top of tools,
75
240361
5464
ツールの上に統合された 言語的インタフェースによって
AIは細かな部分をユーザーが気にしなくて よいようにしています
04:05
the AI is able to sort of take away all those details from you.
76
245867
4630
04:10
So you don't have to be the one
77
250538
1543
どういう手順なのか
04:12
who spells out every single sort of little piece
78
252123
2294
事細かに指定する 必要はありません
04:14
of what's supposed to happen.
79
254459
1543
04:16
And as I said, this is a live demo,
80
256419
1710
これはライブのデモなので
04:18
so sometimes the unexpected will happen to us.
81
258129
3379
予想外のことが 起きることもあります
04:21
But let's take a look at the Instacart shopping list while we're at it.
82
261549
3420
食材宅配サイトのカートの中身を 見てみましょう
04:25
And you can see we sent a list of ingredients to Instacart.
83
265386
3254
材料のリストが 食材宅配サイトに 送られているのがわかります
04:29
Here's everything you need.
84
269349
1543
これが必要な材料です
04:30
And the thing that's really interesting
85
270892
1877
従来のユーザーインターフェースも 相変わらず役に立ちます
04:32
is that the traditional UI is still very valuable, right?
86
272811
2919
04:35
If you look at this,
87
275772
1877
中身を見て 数を調整したりできます
04:37
you still can click through it and sort of modify the actual quantities.
88
277690
4296
04:41
And that's something that I think shows
89
281986
1877
従来のユーザーインターフェースが なくなることはないと思います
04:43
that they're not going away, traditional UIs.
90
283863
3253
ユーザーインターフェースを作る 新たな拡張的な方法を手にしたというだけです
04:47
It's just we have a new, augmented way to build them.
91
287158
2795
04:49
And now we have a tweet that's been drafted for our review,
92
289994
2920
ツイートの文章を チェックすることができ
04:52
which is also a very important thing.
93
292956
1793
これは大切なことです
04:54
We can click “run,” and there we are, we’re the manager, we’re able to inspect,
94
294749
3712
「実行」をクリックします
望むならAIの作業をユーザーが監督者として 確認し 変更することもできます
04:58
we're able to change the work of the AI if we want to.
95
298461
2836
05:02
And so after this talk, you will be able to access this yourself.
96
302924
5964
このトークの後で 実際のツイートを ご覧になるといいでしょう
05:17
And there we go.
97
317647
1710
これがそうです
05:19
Cool.
98
319816
1126
いいですね
05:22
Thank you, everyone.
99
322485
1168
どうもありがとうございます
05:23
(Applause)
100
323653
3003
(拍手)
05:29
So we’ll cut back to the slides.
101
329367
1627
スライドに切り替えましょう
05:32
Now, the important thing about how we build this,
102
332954
3587
これを構築する上で重要なのは
05:36
it's not just about building these tools.
103
336583
2210
ツールを作るだけでなく
05:38
It's about teaching the AI how to use them.
104
338793
2252
AIにその使い方を 教えるということです
05:41
Like, what do we even want it to do
105
341087
1710
ああいう高次の 問いかけをしたとき
05:42
when we ask these very high-level questions?
106
342839
2419
AIにどうして欲しいのか?
05:45
And to do this, we use an old idea.
107
345258
2669
そのために私たちは 古いアイデアを使いました
05:48
If you go back to Alan Turing's 1950 paper on the Turing test, he says,
108
348261
3337
チューリングテストについての 1950年の論文の中でチューリングは
05:51
you'll never program an answer to this.
109
351598
2043
それはプログラムされるものでは ないだろうと言っています
05:53
Instead, you can learn it.
110
353683
1627
学ぶのだと
05:55
You could build a machine, like a human child,
111
355351
2169
人間の子供のような マシンを作り
05:57
and then teach it through feedback.
112
357520
2127
フィードバックを通して 教えるのです
05:59
Have a human teacher who provides rewards and punishments
113
359689
2711
マシンが色々試す 良いこと悪いことに対し
06:02
as it tries things out and does things that are either good or bad.
114
362400
3212
アメとムチを使って 人間の教師が教えます
06:06
And this is exactly how we train ChatGPT.
115
366237
2002
そうやってChatGPTにも 学ばせました
06:08
It's a two-step process.
116
368239
1168
2ステップあります
06:09
First, we produce what Turing would have called a child machine
117
369449
3086
まずチューリングが 赤ちゃんマシンと呼ぶだろうものを
教師なし学習によって作ります
06:12
through an unsupervised learning process.
118
372535
1960
世界の全て インターネットの全てを見せて
06:14
We just show it the whole world, the whole internet
119
374495
2461
06:16
and say, “Predict what comes next in text you’ve never seen before.”
120
376956
3212
初見の文章で 次に何がくるかを予測させます
このプロセスを通して 様々なスキルを獲得させます
06:20
And this process imbues it with all sorts of wonderful skills.
121
380168
3044
06:23
For example, if you're shown a math problem,
122
383212
2086
例えば 数学の問題を見せたとき
06:25
the only way to actually complete that math problem,
123
385298
2544
次に来るものが何か
上の例で 緑色の9を 当てるためには
06:27
to say what comes next,
124
387884
1334
06:29
that green nine up there,
125
389218
1293
06:30
is to actually solve the math problem.
126
390511
2294
数学の問題を 解くしかありません
06:34
But we actually have to do a second step, too,
127
394432
2169
次に必要なステップは
06:36
which is to teach the AI what to do with those skills.
128
396601
2544
そのスキルで何をするか AIに教えるということです
06:39
And for this, we provide feedback.
129
399187
1668
そのためにフィードバックを 与えます
06:40
We have the AI try out multiple things, give us multiple suggestions,
130
400855
3253
AIに複数のことを試させ 複数の提案をさせ
06:44
and then a human rates them, says “This one’s better than that one.”
131
404150
3212
それに対して人間が「こっちより こっちの方がいい」と評価を与えます
06:47
And this reinforces not just the specific thing that the AI said,
132
407362
3086
これによって AIが出した特定の答えだけでなく
06:50
but very importantly, the whole process that the AI used to produce that answer.
133
410448
3795
その答えを得るために用いた プロセス全体が強化されることになり
一般化ができるようになります
06:54
And this allows it to generalize.
134
414243
1585
06:55
It allows it to teach, to sort of infer your intent
135
415828
2419
それにより 意図を推しはかることや
06:58
and apply it in scenarios that it hasn't seen before,
136
418247
2503
フィードバックをもらったことのない 初めての状況に
07:00
that it hasn't received feedback.
137
420750
1585
適用することを学びます
07:02
Now, sometimes the things we have to teach the AI
138
422669
2460
意外なことをAIに 教えねばならないこともあります
07:05
are not what you'd expect.
139
425171
1543
07:06
For example, when we first showed GPT-4 to Khan Academy,
140
426756
3086
例えばGPT-4をカーン・アカデミーに 披露したときに言われました
07:09
they said, "Wow, this is so great,
141
429884
1627
「すごいね
07:11
We're going to be able to teach students wonderful things.
142
431552
2753
これで生徒に素晴らしい 教育ができる
07:14
Only one problem, it doesn't double-check students' math.
143
434347
3462
ひとつ問題なのは
生徒が出した数学の答えを ちゃんとチェックしないことだ
07:17
If there's some bad math in there,
144
437809
1626
計算間違いがあっても 1+1=3が 正しいかのように素通りしてしまう」
07:19
it will happily pretend that one plus one equals three and run with it."
145
439477
3462
07:23
So we had to collect some feedback data.
146
443523
2294
フィードバックするデータを 集める必要がありました
07:25
Sal Khan himself was very kind
147
445858
1544
カーン自身が 親切にも20時間を割いて
07:27
and offered 20 hours of his own time to provide feedback to the machine
148
447443
3337
私たちのチームと一緒に AIにフィードバックを与えてくれました
07:30
alongside our team.
149
450780
1501
07:32
And over the course of a couple of months we were able to teach the AI that,
150
452323
3587
数ヶ月かけてAIに 教えることができました
07:35
"Hey, you really should push back on humans
151
455910
2044
「このようなケースでは 人間を押し留めないとダメだよ」と
07:37
in this specific kind of scenario."
152
457954
2044
07:41
And we've actually made lots and lots of improvements to the models this way.
153
461416
4921
そのようにしてモデルに 多くの改良を施してきました
07:46
And when you push that thumbs down in ChatGPT,
154
466379
2544
ユーザーがChatGPTで NGボタンを押すとき
07:48
that actually is kind of like sending up a bat signal to our team to say,
155
468965
3462
「ここが弱いから フィードバックを集めて」と
開発チームに バットシグナルが送られます
07:52
“Here’s an area of weakness where you should gather feedback.”
156
472427
2919
これは私たちがユーザーに耳を傾け
07:55
And so when you do that,
157
475388
1168
07:56
that's one way that we really listen to our users
158
476597
2294
みんなの役に立つものを作っていると 確認するひとつの方法なのです
07:58
and make sure we're building something that's more useful for everyone.
159
478933
3378
08:02
Now, providing high-quality feedback is a hard thing.
160
482895
3754
質の高いフィードバックを与えるというのは 難しいことです
08:07
If you think about asking a kid to clean their room,
161
487025
2460
子供に部屋の片付けをさせるとき
08:09
if all you're doing is inspecting the floor,
162
489485
2711
床が散らかっているかしか 確認しないなら
08:12
you don't know if you're just teaching them to stuff all the toys in the closet.
163
492196
3796
全部押入れに突っ込むよう 教え込むことになるかもしれません
08:15
This is a nice DALL-E-generated image, by the way.
164
495992
2627
ちなみにこれは DALL-Eで生成した画像です
08:19
And the same sort of reasoning applies to AI.
165
499912
4713
同じことがAIについても言えます
08:24
As we move to harder tasks,
166
504667
1794
より難しいタスクに進むとき
08:26
we will have to scale our ability to provide high-quality feedback.
167
506502
3796
質の高いフィードバックを与える能力が さらに求められるようになりますが
08:30
But for this, the AI itself is happy to help.
168
510882
3879
それについてはAI自身が 助けてくれます
08:34
It's happy to help us provide even better feedback
169
514761
2335
より良いフィードバックを与え
08:37
and to scale our ability to supervise the machine as time goes on.
170
517138
3587
マシンを監督する能力を 伸ばしていけるように
08:40
And let me show you what I mean.
171
520767
1543
どういうことか お見せしましょう
08:42
For example, you can ask GPT-4 a question like this,
172
522810
4546
例えばGPT-4に聞いてみます
08:47
of how much time passed between these two foundational blogs
173
527356
3295
私たちのブログの 教師なし学習の記事と
08:50
on unsupervised learning
174
530693
1668
人間のフィードバックから 学ぶことの記事の間には
08:52
and learning from human feedback.
175
532403
1794
どれくらいの間があったか
08:54
And the model says two months passed.
176
534197
2460
モデルは2ヶ月だと 答えています
08:57
But is it true?
177
537075
1167
でも本当でしょうか?
08:58
Like, these models are not 100-percent reliable,
178
538284
2252
こういうモデルは100%当てに なるわけではありませんが
09:00
although they’re getting better every time we provide some feedback.
179
540536
3921
フィードバックを与えるごとに 改善していきます
09:04
But we can actually use the AI to fact-check.
180
544457
3086
AIに事実確認させることができ
09:07
And it can actually check its own work.
181
547543
1877
自分の出した答えだって チェックできます
09:09
You can say, fact-check this for me.
182
549462
1877
「事実確認してくれ」と
09:12
Now, in this case, I've actually given the AI a new tool.
183
552757
3670
ここでAIに 新たなツールを与えてやります
09:16
This one is a browsing tool
184
556427
1710
ブラウザツールで
09:18
where the model can issue search queries and click into web pages.
185
558137
3879
モデルは検索クエリーを出して ウェブページを取ってくることができます
09:22
And it actually writes out its whole chain of thought as it does it.
186
562016
3253
そうしながら 思考過程を書き出しています
「こちらを検索します」と言い 実際に検索を行います
09:25
It says, I’m just going to search for this and it actually does the search.
187
565269
3587
09:28
It then it finds the publication date and the search results.
188
568856
3128
検索結果から公開日を見つけます
それから別の検索を行い
09:32
It then is issuing another search query.
189
572026
1919
09:33
It's going to click into the blog post.
190
573945
1877
ブログ記事を取り出します
09:35
And all of this you could do, but it’s a very tedious task.
191
575822
2877
人間がやることもできますが 面倒な作業で
09:38
It's not a thing that humans really want to do.
192
578741
2211
あまりやりたいと 思うようなことではありません
09:40
It's much more fun to be in the driver's seat,
193
580952
2169
監督者の立場で 指図する方が楽しいです
09:43
to be in this manager's position where you can, if you want,
194
583162
2836
なんなら三重にチェックすることも できます
09:45
triple-check the work.
195
585998
1210
記事の名前と日付があり
09:47
And out come citations
196
587208
1501
09:48
so you can actually go
197
588709
1168
推論過程を容易に チェックできます
09:49
and very easily verify any piece of this whole chain of reasoning.
198
589919
3754
09:53
And it actually turns out two months was wrong.
199
593673
2210
2ヶ月というのは 間違いだとわかります
09:55
Two months and one week,
200
595883
2169
2ヶ月と1週間が 正しい答えです
09:58
that was correct.
201
598094
1251
10:00
(Applause)
202
600888
3837
(拍手)
10:07
And we'll cut back to the side.
203
607645
1502
スライドに戻りましょう
10:09
And so thing that's so interesting to me about this whole process
204
609147
3920
このプロセス全体で 特に興味深いのは
10:13
is that it’s this many-step collaboration between a human and an AI.
205
613067
3962
多くのステップを通して 人間とAIが協力するということです
10:17
Because a human, using this fact-checking tool
206
617029
2461
人間が事実確認ツールを使うのは
10:19
is doing it in order to produce data
207
619532
2210
別のAIのための データを作り
10:21
for another AI to become more useful to a human.
208
621742
3170
人間にとって より有用なものに するためです
10:25
And I think this really shows the shape of something
209
625454
2545
将来はそういうのが より一般的になるでしょう
10:28
that we should expect to be much more common in the future,
210
628040
3087
10:31
where we have humans and machines kind of very carefully
211
631127
2711
人間とマシンがそれぞれ 問題に対してどういう役割を果たし
10:33
and delicately designed in how they fit into a problem
212
633880
3503
どう問題を解くのか
10:37
and how we want to solve that problem.
213
637425
1918
とても注意深く 繊細にデザインされている世界です
10:39
We make sure that the humans are providing the management, the oversight,
214
639385
3462
人間が 管理し 監督し
フィードバックを与え
10:42
the feedback,
215
642847
1168
マシンが 検証可能で 信頼できる形で
10:44
and the machines are operating in a way that's inspectable
216
644015
2752
動作するようにすることで
10:46
and trustworthy.
217
646809
1126
より信頼できるマシンが 作り出せるのです
10:47
And together we're able to actually create even more trustworthy machines.
218
647977
3503
このプロセスを正しくやるなら
10:51
And I think that over time, if we get this process right,
219
651522
2711
私たちはやがて不可能に思える問題も 解決できるようになるでしょう
10:54
we will be able to solve impossible problems.
220
654233
2127
その度合いを イメージできるように言うなら
10:56
And to give you a sense of just how impossible I'm talking,
221
656360
3963
11:00
I think we're going to be able to rethink almost every aspect
222
660323
2878
人間とコンピューターのやり取りの あらゆる側面が
再考できるようになるでしょう
11:03
of how we interact with computers.
223
663242
2378
11:05
For example, think about spreadsheets.
224
665620
2502
例えばスプレッドシートです
11:08
They've been around in some form since, we'll say, 40 years ago with VisiCalc.
225
668122
4379
40年前のVisiCalc以来 私たちの身近にあるもので
11:12
I don't think they've really changed that much in that time.
226
672543
2878
そう大きくは 変わっていないと思います
11:16
And here is a specific spreadsheet of all the AI papers on the arXiv
227
676214
5922
こちらのスプレッドシートには
arXivにある 過去30年間の AI関連の論文が一覧されています
11:22
for the past 30 years.
228
682178
1168
11:23
There's about 167,000 of them.
229
683346
1960
167,000本あります
11:25
And you can see there the data right here.
230
685348
2878
どういうデータかは ご覧の通りです
11:28
But let me show you the ChatGPT take on how to analyze a data set like this.
231
688267
3837
こういうデータをChatGPTが どう分析するか見てみましょう
11:37
So we can give ChatGPT access to yet another tool,
232
697318
3837
ChatGPTにまた別の ツールを与えます
11:41
this one a Python interpreter,
233
701197
1460
Pythonインタプリタです
11:42
so it’s able to run code, just like a data scientist would.
234
702657
4004
データ科学者がやるように プログラムを実行できるようになります
11:46
And so you can just literally upload a file
235
706661
2335
スプレッドシートのデータを アップロードして
11:48
and ask questions about it.
236
708996
1335
質問することができます
11:50
And very helpfully, you know, it knows the name of the file and it's like,
237
710373
3545
ファイル名を見て
11:53
"Oh, this is CSV," comma-separated value file,
238
713960
2419
「これはCSVファイルですね
11:56
"I'll parse it for you."
239
716420
1335
構文解析しましょう」 と言っています
11:57
The only information here is the name of the file,
240
717755
2794
ここにある情報は
ファイル名と カラム名 それに実際のデータだけです
12:00
the column names like you saw and then the actual data.
241
720591
3671
12:04
And from that it's able to infer what these columns actually mean.
242
724262
4504
そこから各カラムの意味を 推測しています
12:08
Like, that semantic information wasn't in there.
243
728766
2294
ここに出ているカラムの説明は データの中にはなかったものです
12:11
It has to sort of, put together its world knowledge of knowing that,
244
731102
3211
自分の持っている世界の知識と 結び付け
12:14
“Oh yeah, arXiv is a site that people submit papers
245
734355
2502
「arXivは論文サイトだから
12:16
and therefore that's what these things are and that these are integer values
246
736857
3587
これは論文に関するデータで
著者のカラムが整数値なので きっと著者の人数だ」と
12:20
and so therefore it's a number of authors in the paper,"
247
740486
2628
人間がやるようなことですが
12:23
like all of that, that’s work for a human to do,
248
743114
2252
AIが喜んで手助けしてくれます
12:25
and the AI is happy to help with it.
249
745408
1751
何を聞いたものか 思いつかないので
12:27
Now I don't even know what I want to ask.
250
747159
2002
12:29
So fortunately, you can ask the machine,
251
749203
3003
「調べるためのグラフを いくつか描いて」と
12:32
"Can you make some exploratory graphs?"
252
752248
1877
頼んでみましょう
12:37
And once again, this is a super high-level instruction with lots of intent behind it.
253
757461
4004
これもまた いろいろな意図の絡んだ かなり高次の指示です
12:41
But I don't even know what I want.
254
761507
1668
私自身 何を見たいのか わかっておらず
12:43
And the AI kind of has to infer what I might be interested in.
255
763175
2920
AIは私が興味あるものを 推測する必要があります
アイデアをいくつか 考えついたようです
12:46
And so it comes up with some good ideas, I think.
256
766137
2294
論文の著者数のヒストグラム
12:48
So a histogram of the number of authors per paper,
257
768472
2336
年ごとの論文数の推移
12:50
time series of papers per year, word cloud of the paper titles.
258
770850
2961
論文タイトルのワードクラウド
12:53
All of that, I think, will be pretty interesting to see.
259
773853
2627
どれも興味深いと思います
ChatGPTはそれを実際に 行うことができます
12:56
And the great thing is, it can actually do it.
260
776522
2169
12:58
Here we go, a nice bell curve.
261
778691
1460
綺麗な釣鐘曲線になっています
13:00
You see that three is kind of the most common.
262
780151
2169
3人というのが 最も一般的なようです
13:02
It's going to then make this nice plot of the papers per year.
263
782320
5797
年ごとの論文数の グラフを描いています
13:08
Something crazy is happening in 2023, though.
264
788117
2294
2023年におかしなことが 起きていますね
13:10
Looks like we were on an exponential and it dropped off the cliff.
265
790411
3128
指数関数的に増えていたのが 突然下がっています
13:13
What could be going on there?
266
793539
1460
何が起きているのでしょう?
13:14
By the way, all this is Python code, you can inspect.
267
794999
2753
Pythonで実行されているので プログラムを確認できます
13:17
And then we'll see word cloud.
268
797752
1459
それからワードクラウドがあって
13:19
So you can see all these wonderful things that appear in these titles.
269
799253
3378
タイトルによく使われる 言葉がわかります
13:23
But I'm pretty unhappy about this 2023 thing.
270
803090
2127
さっきの2023年の件は 気に入りません
13:25
It makes this year look really bad.
271
805634
1711
2023年が不作かのようです
13:27
Of course, the problem is that the year is not over.
272
807345
2877
問題は 今年がまだ 終わっていないことで
13:30
So I'm going to push back on the machine.
273
810222
2878
マシンに文句を言いましょう
[おかしいぞ!!
13:33
[Waitttt that's not fair!!!
274
813142
1585
13:34
2023 isn't over.
275
814727
1293
2023年はまだ終わってない
4月13日までに出たのは 去年は何%だった?]
13:38
What percentage of papers in 2022 were even posted by April 13?]
276
818481
5088
13:44
So April 13 was the cut-off date I believe.
277
824695
2294
4月13日までの データしかないので
13:47
Can you use that to make a fair projection?
278
827656
4922
それで今年分の 予測ができないかと
13:54
So we'll see, this is the kind of ambitious one.
279
834747
2294
これはなかなか 難しい注文です
13:57
(Laughter)
280
837083
1126
(笑)
13:59
So you know,
281
839877
1251
マシンはもっとできることが あると感じたのです
14:01
again, I feel like there was more I wanted out of the machine here.
282
841128
3921
14:05
I really wanted it to notice this thing,
283
845049
2502
自分で気づいて ほしいところですが
14:07
maybe it's a little bit of an overreach for it
284
847593
3128
私の望むことを 魔法のように予想するというのは
14:10
to have sort of, inferred magically that this is what I wanted.
285
850763
3378
ちょっと期待しすぎ かもしれません
14:14
But I inject my intent,
286
854183
1627
でも私の希望を
14:15
I provide this additional piece of, you know, guidance.
287
855810
4754
参考になるよう 付け加えてやりました
14:20
And under the hood,
288
860564
1168
内側ではAIが プログラムを書き直していて
14:21
the AI is just writing code again, so if you want to inspect what it's doing,
289
861774
3629
望むなら 覗いてみることもできます
14:25
it's very possible.
290
865403
1251
14:26
And now, it does the correct projection.
291
866654
3628
今度はうまく予測しています
14:30
(Applause)
292
870282
5005
(拍手)
14:35
If you noticed, it even updates the title.
293
875287
2169
(2023年は予想だと) タイトルを 付け直してさえいます
14:37
I didn't ask for that, but it know what I want.
294
877498
2336
それは頼んでませんでしたが して欲しいだろうと知っているのです
14:41
Now we'll cut back to the slide again.
295
881794
2544
またスライドに戻りましょう
14:45
This slide shows a parable of how I think we ...
296
885714
4880
この逸話は 将来私たちがAIを どう使うようになるかを
14:51
A vision of how we may end up using this technology in the future.
297
891220
3212
垣間見せてくれると思います
14:54
A person brought his very sick dog to the vet,
298
894849
3712
ある人が病気の愛犬を 獣医に連れて行ったところ
14:58
and the veterinarian made a bad call to say, “Let’s just wait and see.”
299
898561
3336
誤診して「見守るしかありません」と 言われました
15:01
And the dog would not be here today had he listened.
300
901897
2795
その通りにしていたら 犬は死んでいたでしょう
15:05
In the meanwhile, he provided the blood test,
301
905401
2252
その人が血液検査結果を GPT-4に見せたところ
15:07
like, the full medical records, to GPT-4,
302
907653
2586
15:10
which said, "I am not a vet, you need to talk to a professional,
303
910281
3170
「私は獣医ではないので 専門家と話すべきですが
15:13
here are some hypotheses."
304
913492
1710
仮説は立てられます」と言い
15:15
He brought that information to a second vet
305
915786
2127
飼い主はその情報を 別の獣医に持ち込み
15:17
who used it to save the dog's life.
306
917913
1835
犬の命を救うことが できました
15:21
Now, these systems, they're not perfect.
307
921292
2252
このシステムは 完璧ではなく
15:23
You cannot overly rely on them.
308
923544
2336
過度に頼るべきでは ありませんが
15:25
But this story, I think, shows
309
925880
3712
このエピソードが 示しているのは
15:29
that a human with a medical professional
310
929592
3044
医療の専門家とChatGPTが ペアを組んで議論したなら
15:32
and with ChatGPT as a brainstorming partner
311
932678
2461
15:35
was able to achieve an outcome that would not have happened otherwise.
312
935181
3295
単独では出せなかった結果を 生み出せるということです
15:38
I think this is something we should all reflect on,
313
938476
2419
こういうシステムを 世界に どう組み込んでいくか考えるときに
15:40
think about as we consider how to integrate these systems
314
940895
2711
思い出すべきことでしょう
15:43
into our world.
315
943606
1167
15:44
And one thing I believe really deeply,
316
944815
1835
私が深く信じているのは
AIを良いものにするためには みんなの参加が必要だということです
15:46
is that getting AI right is going to require participation from everyone.
317
946650
4338
15:50
And that's for deciding how we want it to slot in,
318
950988
2377
AIは何をし 何をすべきでないのか
15:53
that's for setting the rules of the road,
319
953365
1961
15:55
for what an AI will and won't do.
320
955367
2044
ルールを決めるためです
15:57
And if there's one thing to take away from this talk,
321
957453
2502
今回の話でひとつ 覚えておいて欲しいのは
15:59
it's that this technology just looks different.
322
959997
2211
この技術は違って見える ということです
16:02
Just different from anything people had anticipated.
323
962208
2502
みんなが予想した 何物とも違います
16:04
And so we all have to become literate.
324
964710
1835
誰もが使えるようになる 必要があります
16:06
And that's, honestly, one of the reasons we released ChatGPT.
325
966587
2961
だからこそ私たちは ChatGPTを一般公開したのです
16:09
Together, I believe that we can achieve the OpenAI mission
326
969548
3128
みんなで力を合わせるなら
汎用人工知能を万人の役に立つものにする というOpenAIのミッションは
16:12
of ensuring that artificial general intelligence
327
972718
2252
16:14
benefits all of humanity.
328
974970
1877
実現可能だと信じています
16:16
Thank you.
329
976847
1168
ありがとうございました
16:18
(Applause)
330
978057
6965
(拍手)
16:33
(Applause ends)
331
993322
1168
(拍手終)
16:34
Chris Anderson: Greg.
332
994532
1334
(クリス・アンダーソン) グレッグ
16:36
Wow.
333
996242
1167
いやすごい
16:37
I mean ...
334
997868
1126
なんと言うか
16:39
I suspect that within every mind out here
335
999662
3753
この場にいる誰もが
めまいを感じているのではと 思います
16:43
there's a feeling of reeling.
336
1003457
2503
これを見た人の多くが 思っていることでしょう
16:46
Like, I suspect that a very large number of people viewing this,
337
1006001
3379
16:49
you look at that and you think, “Oh my goodness,
338
1009421
2419
「なんてこった 自分の仕事のやり方を すべて考え直さなきゃいけない」
16:51
pretty much every single thing about the way I work, I need to rethink."
339
1011882
3462
16:55
Like, there's just new possibilities there.
340
1015386
2002
「ここに新たな可能性がある」と
16:57
Am I right?
341
1017388
1168
そうでしょう?
16:58
Who thinks that they're having to rethink the way that we do things?
342
1018597
3337
物事のやり方を考え直さなければと 思っている人はどれくらいいますか?
17:01
Yeah, I mean, it's amazing,
343
1021976
1543
すごいと同時に
17:03
but it's also really scary.
344
1023561
2002
怖くもあります
17:05
So let's talk, Greg, let's talk.
345
1025604
1585
ちょっと話しましょう
17:08
I mean, I guess my first question actually is just
346
1028524
2377
私の最初の質問は
いったい どうやって やってのけたのか ということです
17:10
how the hell have you done this?
347
1030901
1585
17:12
(Laughter)
348
1032486
1251
(笑)
17:13
OpenAI has a few hundred employees.
349
1033737
2962
OpenAIは社員が 数百人の会社です
17:16
Google has thousands of employees working on artificial intelligence.
350
1036740
4755
Googleは AIに取り組んでいる 社員だけでも何千人もいます
17:21
Why is it you who's come up with this technology
351
1041996
3503
この世界を驚かせた技術を 作り出したのが
なぜあなた方だったのか?
17:25
that shocked the world?
352
1045541
1168
17:26
Greg Brockman: I mean, the truth is,
353
1046709
1751
(グレッグ・ブロックマン) 私たちが 巨人の肩に乗っているは確かです
17:28
we're all building on shoulders of giants, right, there's no question.
354
1048502
3295
コンピューターや アルゴリズムや
17:31
If you look at the compute progress,
355
1051797
1752
データの進歩というのは
業界全体でのことです
17:33
the algorithmic progress, the data progress,
356
1053549
2085
17:35
all of those are really industry-wide.
357
1055634
1835
ただOpenAIでは その初期から
多くの選択を 注意深くしてきました
17:37
But I think within OpenAI,
358
1057469
1252
17:38
we made a lot of very deliberate choices from the early days.
359
1058762
2878
ひとつは あるがままの現実に 向き合うということ
17:41
And the first one was just to confront reality as it lays.
360
1061640
2711
17:44
And that we just thought really hard about like:
361
1064393
2294
これを進めるために 何が必要か
17:46
What is it going to take to make progress here?
362
1066687
2210
試みてきたことには うまくいかなかったこともたくさんあり
17:48
We tried a lot of things that didn't work, so you only see the things that did.
363
1068939
3754
うまくいったものだけ 見えているにすぎません
最も重要なのは
17:52
And I think that the most important thing has been to get teams of people
364
1072693
3462
互いにとても違った人たちが うまく協力して働くということでしょう
17:56
who are very different from each other to work together harmoniously.
365
1076196
3254
17:59
CA: Can we have the water, by the way, just brought here?
366
1079450
2711
(クリス) 水をもらえるかしら
口が渇く話題なので きっと必要になる
18:02
I think we're going to need it, it's a dry-mouth topic.
367
1082202
3170
18:06
But isn't there something also just about the fact
368
1086665
2795
でも きっとこういう面も あるのでは?
18:09
that you saw something in these language models
369
1089501
4755
言語モデルに投資し 育てていくと
18:14
that meant that if you continue to invest in them and grow them,
370
1094256
3921
ある時点で何かが急に 現れるみたいな
18:18
that something at some point might emerge?
371
1098218
3129
18:21
GB: Yes.
372
1101847
1126
(グレッグ) そうですね
18:23
And I think that, I mean, honestly,
373
1103015
2836
いい例があります
18:25
I think the story there is pretty illustrative, right?
374
1105893
2544
私たちはずっと
18:28
I think that high level, deep learning,
375
1108437
2002
深層学習の研究機関に なりたいと思っていました
18:30
like we always knew that was what we wanted to be,
376
1110481
2335
18:32
was a deep learning lab, and exactly how to do it?
377
1112858
2419
どうすれば良いのか?
当初はわかりませんでした
18:35
I think that in the early days, we didn't know.
378
1115277
2211
様々なことを試み
18:37
We tried a lot of things,
379
1117529
1210
ある人は アマゾンのレビューの 次の文字を予測するモデルの
18:38
and one person was working on training a model
380
1118739
2336
18:41
to predict the next character in Amazon reviews,
381
1121075
2877
トレーニングに 取り組んでいました
18:43
and he got a result where -- this is a syntactic process,
382
1123994
4755
これは構文的な プロセスなので
コンマがどこに現れ 名詞や動詞がどこに現れるかを
18:48
you expect, you know, the model will predict where the commas go,
383
1128749
3086
予測しそうなものですが
18:51
where the nouns and verbs are.
384
1131835
1627
18:53
But he actually got a state-of-the-art sentiment analysis classifier out of it.
385
1133504
4337
彼は最先端の感情分析器を 作り出したのです
18:57
This model could tell you if a review was positive or negative.
386
1137883
2961
レビューが肯定的か否定的かを そのモデルは言い当てられました
19:00
I mean, today we are just like, come on, anyone can do that.
387
1140886
3378
今ではそんなこと誰でもできると 思うかもしれませんが
19:04
But this was the first time that you saw this emergence,
388
1144306
3087
それは私たちが予想外の現象の発現を 目にした最初の時でした
19:07
this sort of semantics that emerged from this underlying syntactic process.
389
1147434
5005
構文的なプロセスから 意味的なものが立ち現れたのです
19:12
And there we knew, you've got to scale this thing,
390
1152481
2336
これをもっと拡張して
何が起きるか 見なければと思いました
19:14
you've got to see where it goes.
391
1154858
1544
(クリス) それはChatGPTを見た人が みんな驚く謎を
19:16
CA: So I think this helps explain
392
1156402
1626
19:18
the riddle that baffles everyone looking at this,
393
1158028
2544
幾分説明してくれると 思います
19:20
because these things are described as prediction machines.
394
1160572
2753
予測マシンだとされるものから
ありえないと思うようなものが 出てくるのですから
19:23
And yet, what we're seeing out of them feels ...
395
1163367
2669
19:26
it just feels impossible that that could come from a prediction machine.
396
1166036
3420
19:29
Just the stuff you showed us just now.
397
1169456
2378
お話しいただいたような 発現というのは
19:31
And the key idea of emergence is that when you get more of a thing,
398
1171875
3838
大きくしていくと 突然 何か違うものが現れるということで
19:35
suddenly different things emerge.
399
1175754
1585
19:37
It happens all the time, ant colonies, single ants run around,
400
1177339
3045
様々なところに 見られることです
一匹のアリが動き回っていたのが たくさん集まると
19:40
when you bring enough of them together,
401
1180384
1877
巣を作り まったく異なる行動を 示すようになります
19:42
you get these ant colonies that show completely emergent, different behavior.
402
1182302
3629
19:45
Or a city where a few houses together, it's just houses together.
403
1185973
3086
都市にしても はじめは数軒の家が あるだけだったのが
家の数が増えていくと 様々な現象が現れます
19:49
But as you grow the number of houses,
404
1189059
1794
19:50
things emerge, like suburbs and cultural centers and traffic jams.
405
1190894
4588
郊外に 文化的中心に 渋滞
19:57
Give me one moment for you when you saw just something pop
406
1197276
3211
予想していなかったものが現れて たまげたという瞬間を
20:00
that just blew your mind
407
1200529
1668
20:02
that you just did not see coming.
408
1202197
1627
教えてください
20:03
GB: Yeah, well,
409
1203824
1209
(グレッグ) これはChatGPTで 試せますが
20:05
so you can try this in ChatGPT, if you add 40-digit numbers --
410
1205075
3462
40桁の数の足し算をさせると—
20:08
CA: 40-digit?
411
1208537
1168
(クリス) 40桁ですか?
20:09
GB: 40-digit numbers, the model will do it,
412
1209705
2169
(グレッグ) 40桁の足し算が できるようになります
20:11
which means it's really learned an internal circuit for how to do it.
413
1211915
3254
モデルがそのための内部的機構を 学ぶということです
20:15
And the really interesting thing is actually,
414
1215210
2127
興味深いのは
40桁と35桁の足し算だと
20:17
if you have it add like a 40-digit number plus a 35-digit number,
415
1217337
3212
20:20
it'll often get it wrong.
416
1220591
1710
よく間違うということです
20:22
And so you can see that it's really learning the process,
417
1222676
2795
本当にプロセスを 学んでいるけれど
20:25
but it hasn't fully generalized, right?
418
1225471
1876
十分に一般化されては いないということです
20:27
It's like you can't memorize the 40-digit addition table,
419
1227389
2711
40桁の足し算表を 記憶することなんてできません
20:30
that's more atoms than there are in the universe.
420
1230100
2294
宇宙の原子の数よりも たくさんありますから
20:32
So it had to have learned something general,
421
1232394
2086
一般化を学ぶ必要がありますが
まだ完全には学んでいません
20:34
but that it hasn't really fully yet learned that,
422
1234480
2377
20:36
Oh, I can sort of generalize this to adding arbitrary numbers
423
1236899
2961
ああ この足し算というやつは
任意の長さの任意の数に 一般化できるんだと
20:39
of arbitrary lengths.
424
1239902
1167
20:41
CA: So what's happened here
425
1241111
1335
(クリス) つまり拡大して
20:42
is that you've allowed it to scale up
426
1242488
1793
膨大なテキストを 見せてやることで
20:44
and look at an incredible number of pieces of text.
427
1244281
2419
20:46
And it is learning things
428
1246742
1209
学べるとは思ってなかったようなことを 学ぶようになると
20:47
that you didn't know that it was going to be capable of learning.
429
1247951
3379
20:51
GB Well, yeah, and it’s more nuanced, too.
430
1251371
2002
(グレッグ) 微妙なところがあって
20:53
So one science that we’re starting to really get good at
431
1253415
2878
私たちが身につけてきたのは
20:56
is predicting some of these emergent capabilities.
432
1256335
2586
そういう能力発現を 予測するということです
20:58
And to do that actually,
433
1258962
1335
この分野で十分評価されて いないと思うことに
21:00
one of the things I think is very undersung in this field
434
1260339
2711
エンジニアリングの質があります
21:03
is sort of engineering quality.
435
1263050
1501
21:04
Like, we had to rebuild our entire stack.
436
1264551
2044
私たちは全体を 作り直す必要がありました
21:06
When you think about building a rocket,
437
1266637
1877
ロケットを作る時には
21:08
every tolerance has to be incredibly tiny.
438
1268555
2211
各部の許容誤差は ごく小さなものですが
21:10
Same is true in machine learning.
439
1270766
1626
同じことは 機械学習にも言えます
21:12
You have to get every single piece of the stack engineered properly,
440
1272434
3212
各部を適切に設計することで
21:15
and then you can start doing these predictions.
441
1275646
2210
そういう予測が できるようになります
21:17
There are all these incredibly smooth scaling curves.
442
1277856
2503
成長曲線が ものすごく滑らかです
それは知性について根本的な何かを 語っていると思います
21:20
They tell you something deeply fundamental about intelligence.
443
1280359
2919
GPT-4のブログ記事に
21:23
If you look at our GPT-4 blog post,
444
1283320
1710
そういう曲線が出てきます
21:25
you can see all of these curves in there.
445
1285030
1960
21:26
And now we're starting to be able to predict.
446
1286990
2127
そうして予測ができるようになり
例えばプログラミング問題の性能を 予測できるようになりました
21:29
So we were able to predict, for example, the performance on coding problems.
447
1289117
3713
21:32
We basically look at some models
448
1292871
1585
千倍とか1万倍とか 小さなモデルからです
21:34
that are 10,000 times or 1,000 times smaller.
449
1294456
2461
21:36
And so there's something about this that is actually smooth scaling,
450
1296959
3211
初期段階においても
この滑らかな成長が 見られるんです
21:40
even though it's still early days.
451
1300170
2044
21:42
CA: So here is, one of the big fears then,
452
1302756
2544
(クリス) そこに大きな 懸念があります
21:45
that arises from this.
453
1305300
1252
21:46
If it’s fundamental to what’s happening here,
454
1306593
2127
拡大していくと
21:48
that as you scale up,
455
1308720
1210
ある程度は自信を持って 予測できても
21:49
things emerge that
456
1309930
2419
21:52
you can maybe predict in some level of confidence,
457
1312349
4171
驚くようなことを するようになるのなら
21:56
but it's capable of surprising you.
458
1316562
2544
22:00
Why isn't there just a huge risk of something truly terrible emerging?
459
1320816
4463
何か恐ろしいことが 発現するリスクはないのでしょうか?
22:05
GB: Well, I think all of these are questions of degree
460
1325320
2545
(グレッグ) それは程度と規模と 時間の問題だと思います
22:07
and scale and timing.
461
1327865
1209
みんな見落としているのは
22:09
And I think one thing people miss, too,
462
1329116
1877
22:10
is sort of the integration with the world is also this incredibly emergent,
463
1330993
3587
世界との統合もまた
不意に起きる 強力なことだということです
22:14
sort of, very powerful thing too.
464
1334621
1585
段階的に展開していくことが 重要だと考える理由です
22:16
And so that's one of the reasons that we think it's so important
465
1336248
3045
22:19
to deploy incrementally.
466
1339293
1167
今回のトークを見てもらうと 私が注力しているのは
22:20
And so I think that what we kind of see right now, if you look at this talk,
467
1340502
3629
高品質のフィードバックを 与えることだとわかるでしょう
22:24
a lot of what I focus on is providing really high-quality feedback.
468
1344131
3170
私たちの行う作業は 検査できます
22:27
Today, the tasks that we do, you can inspect them, right?
469
1347301
2711
数学の問題についてなら 簡単です
22:30
It's very easy to look at that math problem and be like, no, no, no,
470
1350012
3211
いやいや 正しい答えは7だよと
22:33
machine, seven was the correct answer.
471
1353265
1835
本の要約となると 監督するのが難しくなります
22:35
But even summarizing a book, like, that's a hard thing to supervise.
472
1355100
3212
その要約が良いか どうすればわかるのか?
22:38
Like, how do you know if this book summary is any good?
473
1358312
2586
本全体を読まなきゃいけない
22:40
You have to read the whole book.
474
1360939
1543
誰もやりたがりませんよ
22:42
No one wants to do that.
475
1362482
1168
(笑)
22:43
(Laughter)
476
1363692
1293
22:44
And so I think that the important thing will be that we take this step by step.
477
1364985
4296
一歩一歩進めるのが重要です
22:49
And that we say, OK, as we move on to book summaries,
478
1369323
2544
本の要約に進むので
22:51
we have to supervise this task properly.
479
1371867
1960
このタスクを適切に 監督しなければならないと
22:53
We have to build up a track record with these machines
480
1373827
2586
AIが私たちの意図した通りに 実行できるという
22:56
that they're able to actually carry out our intent.
481
1376413
2586
実績を積み重ねて いかなければなりません
そしてAIが人間に 合わせられるよう
22:59
And I think we're going to have to produce even better, more efficient,
482
1379041
3336
効率的に 高い信頼性で拡張していける よりうまい方法を
23:02
more reliable ways of scaling this,
483
1382419
1710
23:04
sort of like making the machine be aligned with you.
484
1384129
2878
生み出す必要があります
(クリス) このセッションの後の方で 聞くことになりますが
23:07
CA: So we're going to hear later in this session,
485
1387049
2294
23:09
there are critics who say that,
486
1389343
1543
23:10
you know, there's no real understanding inside,
487
1390928
4587
AIの中身を 誰も理解していないと
批判する人がいます
23:15
the system is going to always --
488
1395557
1627
間違いをしていないかとか 常識を持っているかとか
23:17
we're never going to know that it's not generating errors,
489
1397225
3212
23:20
that it doesn't have common sense and so forth.
490
1400479
2210
わかるようにはならないと
23:22
Is it your belief, Greg, that it is true at any one moment,
491
1402689
4088
あなたの言われた 規模の拡大と
人間のフィードバックによって
23:26
but that the expansion of the scale and the human feedback
492
1406818
3629
23:30
that you talked about is basically going to take it on that journey
493
1410489
4963
真実や知恵を 獲得するようになると
23:35
of actually getting to things like truth and wisdom and so forth,
494
1415494
3837
自信を持って 言えるのでしょうか?
23:39
with a high degree of confidence.
495
1419331
1627
23:40
Can you be sure of that?
496
1420999
1335
23:42
GB: Yeah, well, I think that the OpenAI, I mean, the short answer is yes,
497
1422334
3462
(グレッグ) 短い答えはイエスで
23:45
I believe that is where we're headed.
498
1425796
1793
OpenAIでは そこを目指しています
23:47
And I think that the OpenAI approach here has always been just like,
499
1427631
3211
OpenAIのアプローチはいつも
現実にビンタしてもらう ということです
23:50
let reality hit you in the face, right?
500
1430842
1877
23:52
It's like this field is the field of broken promises,
501
1432719
2503
この分野は 守られない約束ばかりです
23:55
of all these experts saying X is going to happen, Y is how it works.
502
1435263
3212
Xが起きるとか Yがその方法だとか
ニューラルネットは機能しないと 70年間言われ続けていました
23:58
People have been saying neural nets aren't going to work for 70 years.
503
1438475
3337
24:01
They haven't been right yet.
504
1441812
1376
まだ上手くいってなくとも
24:03
They might be right maybe 70 years plus one
505
1443188
2044
71年必要なだけ かもしれません
24:05
or something like that is what you need.
506
1445232
1918
私たちのアプローチは
24:07
But I think that our approach has always been,
507
1447192
2169
本当に機能するか技術の限界まで 推し進めるということで
24:09
you've got to push to the limits of this technology
508
1449361
2419
24:11
to really see it in action,
509
1451822
1293
新たなパラダイムに移れるものか そうやって知るのです
24:13
because that tells you then, oh, here's how we can move on to a new paradigm.
510
1453115
3670
私たちはまだここで やり尽くしていません
24:16
And we just haven't exhausted the fruit here.
511
1456785
2127
(クリス) あなた方が取ったのは 正しいやり方なのかと
24:18
CA: I mean, it's quite a controversial stance you've taken,
512
1458954
2794
24:21
that the right way to do this is to put it out there in public
513
1461748
2920
物議を醸しました
24:24
and then harness all this, you know,
514
1464710
1751
さっさと世に出して
開発チームだけで フィードバックを与えるのでなく
24:26
instead of just your team giving feedback,
515
1466461
2002
24:28
the world is now giving feedback.
516
1468463
2461
世界中からフィードバックを 与えてもらうということですが
24:30
But ...
517
1470924
1168
もしも
24:33
If, you know, bad things are going to emerge,
518
1473135
3753
何か悪いものが 発現するとしても
24:36
it is out there.
519
1476930
1168
もう世に 出てしまっています
24:38
So, you know, the original story that I heard on OpenAI
520
1478140
2919
私が聞いた話だと
非営利団体として OpenAIを設立したとき
24:41
when you were founded as a nonprofit,
521
1481101
1793
24:42
well you were there as the great sort of check on the big companies
522
1482894
4463
大企業がAIで隠れて悪いことしていないか チェックできるようにし
24:47
doing their unknown, possibly evil thing with AI.
523
1487399
3837
24:51
And you were going to build models that sort of, you know,
524
1491278
4755
彼らに責任を持たせ
必要なら分野をスローダウン させることもできるような
24:56
somehow held them accountable
525
1496033
1418
24:57
and was capable of slowing the field down, if need be.
526
1497492
4380
モデルを作るのだと
25:01
Or at least that's kind of what I heard.
527
1501872
1960
私はそのように 聞きましたが
25:03
And yet, what's happened, arguably, is the opposite.
528
1503832
2461
実際に起きたのは 逆のことで
25:06
That your release of GPT, especially ChatGPT,
529
1506334
5673
ChatGPTが公開され
技術分野全体に 衝撃をもたらし
25:12
sent such shockwaves through the tech world
530
1512049
2002
25:14
that now Google and Meta and so forth are all scrambling to catch up.
531
1514051
3795
GoogleやMetaなんかが 追いつこうと走り出した
25:17
And some of their criticisms have been,
532
1517888
2085
彼らの批判は あなた方のせいで
適切な安全策を講じることなく 世に出さざるを得なくなったんだと
25:20
you are forcing us to put this out here without proper guardrails or we die.
533
1520015
4963
あなた方のやったことは 無責任なことではなかったと
25:25
You know, how do you, like,
534
1525020
2794
25:27
make the case that what you have done is responsible here and not reckless.
535
1527814
3754
どう説明しますか
25:31
GB: Yeah, we think about these questions all the time.
536
1531568
3128
(グレッグ) その点については
絶えず考えています
25:34
Like, seriously all the time.
537
1534738
1418
25:36
And I don't think we're always going to get it right.
538
1536198
2711
私たちがいつも 正しくやるわけではありません
25:38
But one thing I think has been incredibly important,
539
1538909
2460
ただ最初の最初から すごく重要だったことは
25:41
from the very beginning, when we were thinking
540
1541411
2169
汎用人工知能が 全人類の益になるようにするには
25:43
about how to build artificial general intelligence,
541
1543580
2419
25:45
actually have it benefit all of humanity,
542
1545999
2002
どう作ればよいのか ということです
25:48
like, how are you supposed to do that, right?
543
1548001
2127
普通とされるやり方は
25:50
And that default plan of being, well, you build in secret,
544
1550170
2711
秘密裏にこの超強力なものを作り
25:52
you get this super powerful thing,
545
1552923
1626
安全性について確認し それから世に出して
25:54
and then you figure out the safety of it and then you push “go,”
546
1554549
3003
上手くいくことを祈る というものです
25:57
and you hope you got it right.
547
1557552
1460
どうすればそうできるのか 私にはわかりません
25:59
I don't know how to execute that plan.
548
1559012
1835
他の人は知りませんが
26:00
Maybe someone else does.
549
1560889
1168
私には正しいやり方に 思えません
26:02
But for me, that was always terrifying, it didn't feel right.
550
1562099
2877
私から見て唯一の道は
26:04
And so I think that this alternative approach
551
1564976
2128
26:07
is the only other path that I see,
552
1567104
2043
26:09
which is that you do let reality hit you in the face.
553
1569147
2503
現実にビンタしてもらう というものです
26:11
And I think you do give people time to give input.
554
1571691
2336
そして人々が意見できる 時間を取ること
マシンが完璧になる前に
26:14
You do have, before these machines are perfect,
555
1574027
2211
26:16
before they are super powerful, that you actually have the ability
556
1576279
3128
超強力になる前に
実際に動くところを 見られる必要があります
26:19
to see them in action.
557
1579407
1168
26:20
And we've seen it from GPT-3, right?
558
1580617
1752
みんなGPT-3を見ました
私たちが一番恐れていたのは
26:22
GPT-3, we really were afraid
559
1582369
1376
26:23
that the number one thing people were going to do with it
560
1583745
2711
みんながGPT-3を使って フェイクニュースを作ったり
26:26
was generate misinformation, try to tip elections.
561
1586456
2336
選挙を操作したりしないか ということでしたが
26:28
Instead, the number one thing was generating Viagra spam.
562
1588834
2711
実際の一番の悪用は バイアグラのスパムでした
26:31
(Laughter)
563
1591545
3169
(笑)
(クリス) バイアグラのスパムより 酷いこともあり得たわけですね
26:36
CA: So Viagra spam is bad, but there are things that are much worse.
564
1596007
3212
思考実験してみましょう
26:39
Here's a thought experiment for you.
565
1599219
1752
26:40
Suppose you're sitting in a room,
566
1600971
1710
部屋の中に箱が 置かれています
26:42
there's a box on the table.
567
1602681
1668
26:44
You believe that in that box is something that,
568
1604349
3003
箱の中には
家族やみんなにとって 素晴らしい贈り物が
26:47
there's a very strong chance it's something absolutely glorious
569
1607394
2961
26:50
that's going to give beautiful gifts to your family and to everyone.
570
1610397
3920
入っている可能性が高いが
26:54
But there's actually also a one percent thing in the small print there
571
1614359
3629
小さな但し書きで
「パンドラの箱」と書かれていて
26:58
that says: “Pandora.”
572
1618029
1877
26:59
And there's a chance
573
1619906
1669
世界にとんでもない災厄をもたらす 可能性もわずかにあります
27:01
that this actually could unleash unimaginable evils on the world.
574
1621616
4088
27:06
Do you open that box?
575
1626538
1543
その箱を開けますか?
27:08
GB: Well, so, absolutely not.
576
1628123
1460
(グレッグ) もちろん開けません
27:09
I think you don't do it that way.
577
1629624
1919
そういうやり方はしません
27:12
And honestly, like, I'll tell you a story that I haven't actually told before,
578
1632210
3796
前にしたことのない 話をしましょう
27:16
which is that shortly after we started OpenAI,
579
1636006
2586
OpenAIを始めたすぐ後
27:18
I remember I was in Puerto Rico for an AI conference.
580
1638592
2711
AIの会議でプエルトリコにいました
27:21
I'm sitting in the hotel room just looking out over this wonderful water,
581
1641344
3462
ホテルの部屋から
美しい海と 楽しんでいる人々を 眺めていました
27:24
all these people having a good time.
582
1644806
1752
そこでふと考えます
27:26
And you think about it for a moment,
583
1646558
1752
パンドラの箱が開くのが
27:28
if you could choose for basically that Pandora’s box
584
1648310
4504
5年後か 500年後か
27:32
to be five years away
585
1652814
2711
27:35
or 500 years away,
586
1655567
1585
選べるとしたら
27:37
which would you pick, right?
587
1657194
1501
どちらを選ぶだろう?
27:38
On the one hand you're like, well, maybe for you personally,
588
1658737
2836
個人的には5年で 手にできる方が
27:41
it's better to have it be five years away.
589
1661573
2002
いいかもと思う一方
27:43
But if it gets to be 500 years away and people get more time to get it right,
590
1663617
3628
500年あれば みんな正しくやるための 時間が得られます
27:47
which do you pick?
591
1667287
1168
どちらを選ぶか?
27:48
And you know, I just really felt it in the moment.
592
1668496
2336
その時 心から思いました
27:50
I was like, of course you do the 500 years.
593
1670874
2002
もちろん500年だと
当時弟は軍隊にいて
27:53
My brother was in the military at the time
594
1673293
2002
27:55
and like, he puts his life on the line in a much more real way
595
1675295
2961
コンピューターをたたいて 技術を開発している私たちよりも
27:58
than any of us typing things in computers
596
1678256
2628
28:00
and developing this technology at the time.
597
1680926
2585
本当の意味で 命をかけていました
28:03
And so, yeah, I'm really sold on the you've got to approach this right.
598
1683511
4547
正しくやるべきだと 強く信じています
28:08
But I don't think that's quite playing the field as it truly lies.
599
1688058
3628
でも 物事がそのようになっているとは 思っていません
28:11
Like, if you look at the whole history of computing,
600
1691686
2670
コンピューターの歴史を 振り返ると
28:14
I really mean it when I say that this is an industry-wide
601
1694397
4463
それは産業全体 あるいは人類の技術全体に
28:18
or even just almost like
602
1698902
1543
28:20
a human-development- of-technology-wide shift.
603
1700487
3336
変化をもたらすものでした
28:23
And the more that you sort of, don't put together the pieces
604
1703865
4088
そこにあるピースを 組み合わせなければ
28:27
that are there, right,
605
1707994
1293
28:29
we're still making faster computers,
606
1709329
1752
コンピューターも アルゴリズムも改善されず
28:31
we're still improving the algorithms, all of these things, they are happening.
607
1711081
3670
今ある素晴らしいことは 起きなかった
28:34
And if you don't put them together, you get an overhang,
608
1714793
2627
組み立てずにいても 脅威は存在し続けます
28:37
which means that if someone does,
609
1717420
1627
誰かがやったなら
回路を繋げた瞬間
28:39
or the moment that someone does manage to connect to the circuit,
610
1719089
3086
突然強力なものを手にし
28:42
then you suddenly have this very powerful thing,
611
1722175
2252
誰も調整する時間がなく
28:44
no one's had any time to adjust,
612
1724427
1544
どんな安全策があるかも わかりません
28:46
who knows what kind of safety precautions you get.
613
1726012
2336
28:48
And so I think that one thing I take away
614
1728390
1918
私がここから引き出すのは
28:50
is like, even you think about development of other sort of technologies,
615
1730308
3837
核兵器のような 別の技術の開発を考えても
28:54
think about nuclear weapons,
616
1734187
1376
28:55
people talk about being like a zero to one,
617
1735563
2002
人々は0を1にすること
28:57
sort of, change in what humans could do.
618
1737565
2628
人類にできることを 変える話をしますが
29:00
But I actually think that if you look at capability,
619
1740235
2461
能力について考えると
29:02
it's been quite smooth over time.
620
1742696
1585
進歩は滑らかだった ということです
29:04
And so the history, I think, of every technology we've developed
621
1744281
3670
人類の開発してきた技術は
29:07
has been, you've got to do it incrementally
622
1747993
2002
段階的に進歩し
それぞれの時点で
29:10
and you've got to figure out how to manage it
623
1750036
2127
どう管理したものかを 見出してきたのです
29:12
for each moment that you're increasing it.
624
1752163
2461
29:14
CA: So what I'm hearing is that you ...
625
1754666
2252
(クリス) あなたが望むモデルは
29:16
the model you want us to have
626
1756918
1668
人類を新たな地点にもたらす すごい力を持つ
29:18
is that we have birthed this extraordinary child
627
1758628
2795
29:21
that may have superpowers
628
1761423
2544
子供を生み出すということで
29:24
that take humanity to a whole new place.
629
1764009
2544
29:26
It is our collective responsibility to provide the guardrails
630
1766594
5005
その子供が道を 踏み外さないようにさせ
29:31
for this child
631
1771641
1210
賢く育って 人類に害をなさないようにさせるのは
29:32
to collectively teach it to be wise and not to tear us all down.
632
1772892
5047
私たちみんなの責任だと
29:37
Is that basically the model?
633
1777939
1377
そういうモデルでしょうか?
29:39
GB: I think it's true.
634
1779357
1168
(グレッグ) そう思います
29:40
And I think it's also important to say this may shift, right?
635
1780567
2878
モデルは変わりうるという点も 重要です
29:43
We've got to take each step as we encounter it.
636
1783445
3253
展開があるごとに 次の一歩を踏み出します
29:46
And I think it's incredibly important today
637
1786740
2002
みんながこの技術を よく理解し
29:48
that we all do get literate in this technology,
638
1788783
2878
どうフィードバックを 与えたらいいか見極め
29:51
figure out how to provide the feedback,
639
1791661
1919
それに何を望むか 決めるというのは
29:53
decide what we want from it.
640
1793621
1377
今日とても 重要なことだと思います
29:54
And my hope is that that will continue to be the best path,
641
1794998
3128
それが最良の道で あり続けることを望みますが
29:58
but it's so good we're honestly having this debate
642
1798168
2377
率直にこの議論ができたのも 良いことで
30:00
because we wouldn't otherwise if it weren't out there.
643
1800545
2628
他ではすることが なかったでしょう
30:03
CA: Greg Brockman, thank you so much for coming to TED and blowing our minds.
644
1803631
3629
(クリス) TEDに来て 度肝を抜いて いただき ありがとうございました
30:07
(Applause)
645
1807302
1626
(拍手)
このウェブサイトについて

このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。

https://forms.gle/WvT1wiN1qDtmnspy7