The Inside Story of ChatGPT’s Astonishing Potential | Greg Brockman | TED

1,768,604 views

2023-04-20 ・ TED


New videos

The Inside Story of ChatGPT’s Astonishing Potential | Greg Brockman | TED

1,768,604 views ・ 2023-04-20

TED


Dubbelklik op de Engelse ondertitels hieronder om de video af te spelen.

Vertaald door: Dorien Das
00:03
We started OpenAI seven years ago
0
3875
2503
We begonnen zeven jaar geleden met OpenAI
00:06
because we felt like something really interesting was happening in AI
1
6378
3712
omdat we dachten dat er iets heel interessant gebeurde in AI
00:10
and we wanted to help steer it in a positive direction.
2
10131
3170
we wilden helpen het in een positieve richting te sturen.
00:15
It's honestly just really amazing to see
3
15220
2085
Het is geweldig om te zien
00:17
how far this whole field has come since then.
4
17347
3086
hoever dit hele terrein nu is gekomen.
00:20
And it's really gratifying to hear from people like Raymond
5
20433
3629
Het is heel bevredigend om van mensen als Raymond te horen
00:24
who are using the technology we are building, and others,
6
24104
2836
die onze technologie gebruiken, en anderen,
00:26
for so many wonderful things.
7
26982
2127
voor zoveel geweldige dingen.
00:29
We hear from people who are excited,
8
29150
2503
We horen van enthousiaste mensen,
00:31
we hear from people who are concerned,
9
31653
1835
we horen van bezorgde mensen,
00:33
we hear from people who feel both those emotions at once.
10
33530
2961
we horen van mensen die beide emoties tegelijk voelen.
00:36
And honestly, that's how we feel.
11
36533
2252
En eerlijk gezegd, voelen wij ons ook zo.
00:40
Above all, it feels like we're entering an historic period right now
12
40245
4087
Het voelt vooral alsof we nu een een historische fase ingaan
00:44
where we as a world are going to define a technology
13
44374
4421
waar we als wereld een technologie zullen definiëren
00:48
that will be so important for our society going forward.
14
48795
3086
die heel belangrijk zal zijn voor onze toekomstige samenleving.
00:52
And I believe that we can manage this for good.
15
52924
2628
Ik geloof dat we dit voor altijd kunnen vastleggen.
00:56
So today, I want to show you the current state of that technology
16
56845
4171
Ik wil jullie de huidige status van die technologie laten zien
01:01
and some of the underlying design principles that we hold dear.
17
61016
3086
en enkele ontwerpprincipes die ons dierbaar zijn.
01:09
So the first thing I'm going to show you
18
69983
1918
Het eerste wat ik ga laten zien
01:11
is what it's like to build a tool for an AI
19
71943
2086
is hoe je een tool bouwt voor AI
in plaats van voor een mens.
01:14
rather than building it for a human.
20
74029
1876
01:17
So we have a new DALL-E model, which generates images,
21
77574
3545
We gebruiken een nieuw DALL-E-model, dat afbeeldingen genereert,
01:21
and we are exposing it as an app for ChatGPT to use on your behalf.
22
81161
4045
we geven het uit als een app voor ChatGPT.
01:25
And you can do things like ask, you know,
23
85248
2461
Je kunt nu dingen vragen,
01:27
suggest a nice post-TED meal and draw a picture of it.
24
87751
6631
stel een lekkere post-TED maaltijd voor en maak er een tekening van.
01:35
(Laughter)
25
95216
1419
(Gelach)
01:38
Now you get all of the, sort of, ideation and creative back-and-forth
26
98303
4671
Je krijgt nu allerlei bedenksels en creatieve ideeën.
01:43
and taking care of the details for you that you get out of ChatGPT.
27
103016
4004
ChatGPT zorgt voor de details.
01:47
And here we go, it's not just the idea for the meal,
28
107062
2669
Het is meer dan een idee voor een maaltijd,
01:49
but a very, very detailed spread.
29
109773
3587
maar een zeer, gedetailleerde spread.
01:54
So let's see what we're going to get.
30
114110
2044
Laten we zien wat we krijgen.
01:56
But ChatGPT doesn't just generate images in this case --
31
116154
3795
ChatGPT genereert niet alleen tekst,
01:59
sorry, it doesn't generate text, it also generates an image.
32
119991
2836
het genereert ook afbeeldingen.
02:02
And that is something that really expands the power
33
122827
2419
Dit breidt de kracht enorm uit
02:05
of what it can do on your behalf in terms of carrying out your intent.
34
125246
3504
wanneer het jouw intentie uitvoert.
02:08
And I'll point out, this is all a live demo.
35
128750
2085
Deze demo is volledig live.
02:10
This is all generated by the AI as we speak.
36
130835
2169
Dit wordt allemaal nu door de AI gegenereerd.
02:13
So I actually don't even know what we're going to see.
37
133046
2544
Dus ik weet niet wat we te zien krijgen.
02:16
This looks wonderful.
38
136216
2294
Dit ziet er fantastisch uit.
02:18
(Applause)
39
138510
3712
(Applaus)
02:22
I'm getting hungry just looking at it.
40
142514
1877
Ik krijg al honger als ik ernaar kijk.
02:24
Now we've extended ChatGPT with other tools too,
41
144724
2753
We hebben ChatGPT ook uitgebreid met andere tools,
02:27
for example, memory.
42
147519
1168
geheugen, bijvoorbeeld.
02:28
You can say "save this for later."
43
148728
2795
Je kunt zeggen "bewaar dit voor later".
02:33
And the interesting thing about these tools
44
153233
2043
Het interessante van deze tools is
dat ze te controleren zijn.
02:35
is they're very inspectable.
45
155318
1377
02:36
So you get this little pop up here that says "use the DALL-E app."
46
156695
3128
Deze pop-up zegt "gebruik de DALL-E-app".
Dit wordt binnenkort beschikbaar voor alle ChatGPT gebruikers.
02:39
And by the way, this is coming to you, all ChatGPT users, over upcoming months.
47
159823
3712
Hiermee kun je een kijkje nemen.
02:43
And you can look under the hood and see that what it actually did
48
163535
3086
Het heeft een prompt geschreven zoals een mens dat kan.
02:46
was write a prompt just like a human could.
49
166621
2169
02:48
And so you sort of have this ability to inspect
50
168790
2628
Je hebt deze mogelijkheden om te inspecteren
02:51
how the machine is using these tools,
51
171459
2086
hoe de machine deze tools gebruikt,
02:53
which allows us to provide feedback to them.
52
173586
2086
waardoor we ze feedback kunnen geven.
02:55
Now it's saved for later,
53
175714
1209
We hebben het opgeslagen
02:56
and let me show you what it's like to use that information
54
176965
2878
en ik zal je laten zien hoe je die informatie kunt gebruiken
02:59
and to integrate with other applications too.
55
179884
2503
en integreren in andere toepassingen.
03:02
You can say,
56
182387
2210
Je kunt nu zeggen
03:04
“Now make a shopping list for the tasty thing
57
184639
5506
"Maak nu een boodschappenlijstje voor het lekkers
03:10
I was suggesting earlier.”
58
190186
1835
dat ik eerder voorstelde".
03:12
And make it a little tricky for the AI.
59
192021
2128
Om het AI een beetje moeilijk te maken.
03:16
"And tweet it out for all the TED viewers out there."
60
196276
4337
"En tweet het naar alle TED-kijkers hier".
03:20
(Laughter)
61
200655
2252
(Gelach)
03:22
So if you do make this wonderful, wonderful meal,
62
202949
2461
Dus als je deze heerlijke maaltijd maakt,
03:25
I definitely want to know how it tastes.
63
205410
2044
wil ik zeker weten hoe het smaakt.
03:28
But you can see that ChatGPT is selecting all these different tools
64
208496
3504
Je ziet dat ChatGPT al deze verschillende tools selecteert
03:32
without me having to tell it explicitly which ones to use in any situation.
65
212000
4379
zonder dat ik specifiek vertel welke het in deze situatie moet gebruiken.
03:37
And this, I think, shows a new way of thinking about the user interface.
66
217088
3879
Dit toont een nieuwe manier van denken over de gebruikersinterface.
03:40
Like, we are so used to thinking of, well, we have these apps,
67
220967
3796
We zijn zo gewend aan de apps die we hebben,
03:44
we click between them, we copy/paste between them,
68
224763
2335
we klikken en kopiëren/plakken tussen apps
meestal geeft dit een prima ervaring
03:47
and usually it's a great experience within an app
69
227098
2294
zolang je de menu's en opties een beetje kent.
03:49
as long as you kind of know the menus and know all the options.
70
229434
2961
Ja, dat zou ik graag willen.
03:52
Yes, I would like you to.
71
232395
1293
03:53
Yes, please.
72
233730
1126
Ja, graag.
03:54
Always good to be polite.
73
234898
1251
Altijd beleefd blijven.
03:56
(Laughter)
74
236149
2628
(Gelach)
04:00
And by having this unified language interface on top of tools,
75
240361
5464
Door deze uniforme taalinterface bovenop de tools,
04:05
the AI is able to sort of take away all those details from you.
76
245867
4630
kan de AI al die details van je overnemen.
04:10
So you don't have to be the one
77
250538
1543
Jij hoeft dus niet zelf
04:12
who spells out every single sort of little piece
78
252123
2294
alle kleine stappen uit te leggen
04:14
of what's supposed to happen.
79
254459
1543
over wat er zou moeten gebeuren.
04:16
And as I said, this is a live demo,
80
256419
1710
Dit is een live demo,
04:18
so sometimes the unexpected will happen to us.
81
258129
3379
dus kan er iets onverwachts gebeuren.
04:21
But let's take a look at the Instacart shopping list while we're at it.
82
261549
3420
Laten we eens kijken naar de Instacart-boodschappenlijst.
04:25
And you can see we sent a list of ingredients to Instacart.
83
265386
3254
Kijk, we hebben een lijst met ingrediënten naar Instacart gestuurd.
04:29
Here's everything you need.
84
269349
1543
Dit is alles wat je nodig hebt.
04:30
And the thing that's really interesting
85
270892
1877
Wat echt interessant is,
04:32
is that the traditional UI is still very valuable, right?
86
272811
2919
is dat de traditionele UI nog steeds erg waardevol is.
04:35
If you look at this,
87
275772
1877
Kijk maar.
04:37
you still can click through it and sort of modify the actual quantities.
88
277690
4296
Je kunt er doorheen klikken en de hoeveelheden aanpassen.
04:41
And that's something that I think shows
89
281986
1877
Dat laat volgens mij zien
04:43
that they're not going away, traditional UIs.
90
283863
3253
dat traditionele UI's niet zullen verdwijnen.
04:47
It's just we have a new, augmented way to build them.
91
287158
2795
Ze worden op een nieuwe, betere manier gebouwd.
04:49
And now we have a tweet that's been drafted for our review,
92
289994
2920
Deze tweet is opgesteld voor onze beoordeling,
04:52
which is also a very important thing.
93
292956
1793
wat ook heel belangrijk is.
04:54
We can click “run,” and there we are, we’re the manager, we’re able to inspect,
94
294749
3712
Als we op " run" klikken, zijn we manager en we kunnen controleren.
04:58
we're able to change the work of the AI if we want to.
95
298461
2836
We kunnen het werk van de AI wijzigen als we dat willen.
05:02
And so after this talk, you will be able to access this yourself.
96
302924
5964
Dus na dit verhaal, kun je dit zelf proberen.
05:17
And there we go.
97
317647
1710
Daar gaan we.
05:19
Cool.
98
319816
1126
Gaaf.
05:22
Thank you, everyone.
99
322485
1168
Bedankt allemaal.
05:23
(Applause)
100
323653
3003
(Applaus)
05:29
So we’ll cut back to the slides.
101
329367
1627
We gaan terug naar de dia's.
05:32
Now, the important thing about how we build this,
102
332954
3587
Het belangrijkste over de manier waarop we dit bouwen,
05:36
it's not just about building these tools.
103
336583
2210
is dat het niet alleen om deze tools gaat.
05:38
It's about teaching the AI how to use them.
104
338793
2252
We willen AI leren hoe ze te gebruiken.
05:41
Like, what do we even want it to do
105
341087
1710
Wat willen we dat het doet
05:42
when we ask these very high-level questions?
106
342839
2419
wanneer we vragen van hoog niveau stellen?
05:45
And to do this, we use an old idea.
107
345258
2669
Laten we een oud idee gebruiken.
05:48
If you go back to Alan Turing's 1950 paper on the Turing test, he says,
108
348261
3337
Alan Turing zegt in zijn artikel over de Turingtest uit 1950,
05:51
you'll never program an answer to this.
109
351598
2043
dat er geen antwoord geprogrammeerd kan worden.
05:53
Instead, you can learn it.
110
353683
1627
Maar je kan het leren.
05:55
You could build a machine, like a human child,
111
355351
2169
Je kan een machine bouwen, zoals een kind
05:57
and then teach it through feedback.
112
357520
2127
en het dan via feedback dingen leren.
05:59
Have a human teacher who provides rewards and punishments
113
359689
2711
Met een menselijke leraar die beloningen en straffen geeft
06:02
as it tries things out and does things that are either good or bad.
114
362400
3212
terwijl het dingen uitprobeert die goed of slecht zijn.
06:06
And this is exactly how we train ChatGPT.
115
366237
2002
Zo trainen we ChatGPT ook.
06:08
It's a two-step process.
116
368239
1168
Het zijn twee stappen.
06:09
First, we produce what Turing would have called a child machine
117
369449
3086
We maken wat Turing een kindmachine genoemd zou hebben,
06:12
through an unsupervised learning process.
118
372535
1960
via een proces van leren zonder toezicht.
06:14
We just show it the whole world, the whole internet
119
374495
2461
We laten het op internet zien en zeggen:
06:16
and say, “Predict what comes next in text you’ve never seen before.”
120
376956
3212
"Voorspel wat hierna gebeurt in tekst die je niet kent".
Dit proces geeft het allerlei prachtige vaardigheden.
06:20
And this process imbues it with all sorts of wonderful skills.
121
380168
3044
06:23
For example, if you're shown a math problem,
122
383212
2086
Als je een wiskundig probleem hebt,
is de enige manier om het op te lossen,
06:25
the only way to actually complete that math problem,
123
385298
2544
06:27
to say what comes next,
124
387884
1334
te zeggen wat erna komt.
Die groene negen daarboven,
06:29
that green nine up there,
125
389218
1293
06:30
is to actually solve the math problem.
126
390511
2294
lost het probleem op.
06:34
But we actually have to do a second step, too,
127
394432
2169
Maar we moeten ook een tweede stap nemen,
06:36
which is to teach the AI what to do with those skills.
128
396601
2544
AI leren wat het met de vaardigheden moet doen.
Daarom geven we feedback.
06:39
And for this, we provide feedback.
129
399187
1668
06:40
We have the AI try out multiple things, give us multiple suggestions,
130
400855
3253
We laten de AI dingen uitproberen en suggesties geven.
Daarna zegt een mens: "Deze is beter dan die".
06:44
and then a human rates them, says “This one’s better than that one.”
131
404150
3212
Dit versterkt het specifieke ding dat AI zei
06:47
And this reinforces not just the specific thing that the AI said,
132
407362
3086
en het hele proces dat de AI gebruikte om tot dat antwoord te komen.
06:50
but very importantly, the whole process that the AI used to produce that answer.
133
410448
3795
Hierdoor kan het generaliseren.
06:54
And this allows it to generalize.
134
414243
1585
06:55
It allows it to teach, to sort of infer your intent
135
415828
2419
Hiermee kan het leren, om je intentie af te leiden
06:58
and apply it in scenarios that it hasn't seen before,
136
418247
2503
en het toepassen in scenario's die nieuw zijn,
07:00
that it hasn't received feedback.
137
420750
1585
waarop geen feedback is gegeven.
07:02
Now, sometimes the things we have to teach the AI
138
422669
2460
Soms moeten we AI dingen leren
07:05
are not what you'd expect.
139
425171
1543
die je niet verwacht.
07:06
For example, when we first showed GPT-4 to Khan Academy,
140
426756
3086
Toen we GPT-4 lieten zien aan Khan Academy,
07:09
they said, "Wow, this is so great,
141
429884
1627
zeiden ze: "Dit is geweldig,
07:11
We're going to be able to teach students wonderful things.
142
431552
2753
hiermee kunnen we studenten geweldige dingen leren.
07:14
Only one problem, it doesn't double-check students' math.
143
434347
3462
Er is één probleem, het controleert de wiskunde van de studenten niet.
07:17
If there's some bad math in there,
144
437809
1626
Als er slechte wiskunde in zit,
07:19
it will happily pretend that one plus one equals three and run with it."
145
439477
3462
doet het alsof één plus één drie is en gaat ermee aan de slag".
07:23
So we had to collect some feedback data.
146
443523
2294
We moesten feedback verzamelen.
07:25
Sal Khan himself was very kind
147
445858
1544
Sal Khan was heel aardig
07:27
and offered 20 hours of his own time to provide feedback to the machine
148
447443
3337
en gaf 20 uur van zijn eigen tijd om feedback te geven aan de machine,
07:30
alongside our team.
149
450780
1501
samen met ons team.
07:32
And over the course of a couple of months we were able to teach the AI that,
150
452323
3587
Binnen een paar maanden konden we AI leren:
07:35
"Hey, you really should push back on humans
151
455910
2044
"Je moet echt verzet bieden tegen mensen
07:37
in this specific kind of scenario."
152
457954
2044
in dit specifieke soort scenario's".
07:41
And we've actually made lots and lots of improvements to the models this way.
153
461416
4921
We hebben op deze manier veel modellen verbeterd.
07:46
And when you push that thumbs down in ChatGPT,
154
466379
2544
Als je 'duim omlaag' kiest in ChatGPT,
07:48
that actually is kind of like sending up a bat signal to our team to say,
155
468965
3462
stuur je ons team het signaal:
"Hier zit een zwakke plek waarop feedback moet komen".
07:52
“Here’s an area of weakness where you should gather feedback.”
156
472427
2919
07:55
And so when you do that,
157
475388
1168
Als je dat doet,
07:56
that's one way that we really listen to our users
158
476597
2294
luisteren we echt naar onze gebruikers
07:58
and make sure we're building something that's more useful for everyone.
159
478933
3378
en zorgen we ervoor dat we iets bouwen dat iedereen kan gebruiken.
08:02
Now, providing high-quality feedback is a hard thing.
160
482895
3754
Goede feedback geven is moeilijk.
08:07
If you think about asking a kid to clean their room,
161
487025
2460
Als je kinderen vraagt hun kamer schoon te maken
08:09
if all you're doing is inspecting the floor,
162
489485
2711
en je bekijkt alleen de vloer,
08:12
you don't know if you're just teaching them to stuff all the toys in the closet.
163
492196
3796
leren ze dat ze hun speelgoed gewoon in de kast kunnen stoppen.
08:15
This is a nice DALL-E-generated image, by the way.
164
495992
2627
Dit is een mooie door DALL-E gegenereerde afbeelding.
08:19
And the same sort of reasoning applies to AI.
165
499912
4713
Hetzelfde geldt voor AI.
08:24
As we move to harder tasks,
166
504667
1794
Hoe moeilijker de taken worden,
08:26
we will have to scale our ability to provide high-quality feedback.
167
506502
3796
hoe beter we onze feedback moeten leren schalen.
08:30
But for this, the AI itself is happy to help.
168
510882
3879
Ook hierbij kan AI ons helpen.
08:34
It's happy to help us provide even better feedback
169
514761
2335
Het helpt ons nog betere feedback te geven
08:37
and to scale our ability to supervise the machine as time goes on.
170
517138
3587
en ons toezicht op de machine met de tijd aan te passen.
08:40
And let me show you what I mean.
171
520767
1543
Ik zal het laten zien.
08:42
For example, you can ask GPT-4 a question like this,
172
522810
4546
Je kunt GPT-4 bijvoorbeeld vragen:
08:47
of how much time passed between these two foundational blogs
173
527356
3295
hoeveel tijd zit er tussen twee fundamentele blogs
08:50
on unsupervised learning
174
530693
1668
over leren zonder toezicht
08:52
and learning from human feedback.
175
532403
1794
en leren van menselijke feedback.
08:54
And the model says two months passed.
176
534197
2460
Het model zegt: twee maanden.
08:57
But is it true?
177
537075
1167
Is dat waar?
08:58
Like, these models are not 100-percent reliable,
178
538284
2252
Deze modellen zijn niet 100% betrouwbaar,
09:00
although they’re getting better every time we provide some feedback.
179
540536
3921
hoewel ze steeds beter worden wanneer we feedback geven.
09:04
But we can actually use the AI to fact-check.
180
544457
3086
We kunnen AI gebruiken om feiten te controleren.
09:07
And it can actually check its own work.
181
547543
1877
Het kan zijn eigen werk controleren.
09:09
You can say, fact-check this for me.
182
549462
1877
Je zegt: controleer dit op feiten.
09:12
Now, in this case, I've actually given the AI a new tool.
183
552757
3670
In dit geval heb ik eigenlijk de AI een nieuwe tool gegeven.
09:16
This one is a browsing tool
184
556427
1710
Dit is een browse-tool.
09:18
where the model can issue search queries and click into web pages.
185
558137
3879
Het model kan er zoekopdrachten aan geven en naar webpagina's klikken.
09:22
And it actually writes out its whole chain of thought as it does it.
186
562016
3253
Het schrijft zijn hele gedachtegang uit terwijl het dat doet.
09:25
It says, I’m just going to search for this and it actually does the search.
187
565269
3587
Het zegt "Ik ga hiernaar zoeken" en voert de zoekopdracht uit.
09:28
It then it finds the publication date and the search results.
188
568856
3128
Het vindt dan de publicatiedatum en zoekresultaten
09:32
It then is issuing another search query.
189
572026
1919
Daarna zoekt het verder.
09:33
It's going to click into the blog post.
190
573945
1877
Het klikt op de blogpost.
09:35
And all of this you could do, but it’s a very tedious task.
191
575822
2877
Dit kun je zelf doen, maar het is een vervelende taak.
09:38
It's not a thing that humans really want to do.
192
578741
2211
Het is niet iets wat mensen leuk vinden.
09:40
It's much more fun to be in the driver's seat,
193
580952
2169
Het is veel leuker om te sturen,
om manager te zijn, wanneer je kunt, als je wilt,
09:43
to be in this manager's position where you can, if you want,
194
583162
2836
09:45
triple-check the work.
195
585998
1210
check je het nogmaals.
Nu komen de citaten.
09:47
And out come citations
196
587208
1501
09:48
so you can actually go
197
588709
1168
Hiermee kun je
09:49
and very easily verify any piece of this whole chain of reasoning.
198
589919
3754
elk deel van de redenering gemakkelijk verifiëren.
09:53
And it actually turns out two months was wrong.
199
593673
2210
"Twee maanden" was dus fout.
09:55
Two months and one week,
200
595883
2169
"Twee maanden en één week",
09:58
that was correct.
201
598094
1251
was het juiste antwoord.
10:00
(Applause)
202
600888
3837
(Applaus)
10:07
And we'll cut back to the side.
203
607645
1502
We gaan terug naar de dia.
10:09
And so thing that's so interesting to me about this whole process
204
609147
3920
Wat ik zo interessant vind aan dit hele proces
10:13
is that it’s this many-step collaboration between a human and an AI.
205
613067
3962
is de uitgebreide samenwerking tussen een mens en AI.
10:17
Because a human, using this fact-checking tool
206
617029
2461
Een mens wil met deze controle
10:19
is doing it in order to produce data
207
619532
2210
gegevens produceren,
10:21
for another AI to become more useful to a human.
208
621742
3170
zodat een andere AI nuttiger wordt voor een mens.
10:25
And I think this really shows the shape of something
209
625454
2545
Ik denk dat dit echt de vorm laat zien
10:28
that we should expect to be much more common in the future,
210
628040
3087
van wat we in de toekomst steeds vaker gaan zien.
10:31
where we have humans and machines kind of very carefully
211
631127
2711
Waarbij mensen en machines heel zorgvuldig
10:33
and delicately designed in how they fit into a problem
212
633880
3503
en delicaat worden ontworpen om in een bepaald probleem te passen
10:37
and how we want to solve that problem.
213
637425
1918
en hoe we dat probleem willen oplossen.
10:39
We make sure that the humans are providing the management, the oversight,
214
639385
3462
We zorgen dat mensen het beheer, het toezicht
en de feedback leveren,
10:42
the feedback,
215
642847
1168
de machines werken zo dat ze controleerbaar
10:44
and the machines are operating in a way that's inspectable
216
644015
2752
en betrouwbaar zijn.
10:46
and trustworthy.
217
646809
1126
Samen kunnen we nog betrouwbaardere machines maken.
10:47
And together we're able to actually create even more trustworthy machines.
218
647977
3503
Ik denk dat wanneer we dit voor elkaar krijgen,
10:51
And I think that over time, if we get this process right,
219
651522
2711
we onmogelijke problemen kunnen oplossen.
10:54
we will be able to solve impossible problems.
220
654233
2127
Ik geef je een idee van dit onmogelijke:
10:56
And to give you a sense of just how impossible I'm talking,
221
656360
3963
11:00
I think we're going to be able to rethink almost every aspect
222
660323
2878
We moeten bijna elk aspect
11:03
of how we interact with computers.
223
663242
2378
van onze interactie met computers opnieuw bekijken.
11:05
For example, think about spreadsheets.
224
665620
2502
Denk eens aan spreadsheets.
11:08
They've been around in some form since, we'll say, 40 years ago with VisiCalc.
225
668122
4379
Ze bestaan al zo'n 40 jaar in een bepaalde vorm, die van VisiCalc.
11:12
I don't think they've really changed that much in that time.
226
672543
2878
Ze zijn in die tijd niet echt veranderd.
11:16
And here is a specific spreadsheet of all the AI papers on the arXiv
227
676214
5922
Dit is een concrete spreadsheet van alle AI-papers op de arXiv
11:22
for the past 30 years.
228
682178
1168
van de laatste 30 jaar.
11:23
There's about 167,000 of them.
229
683346
1960
Er zijn er ongeveer 167.000.
11:25
And you can see there the data right here.
230
685348
2878
Je kunt hier de gegevens zien.
11:28
But let me show you the ChatGPT take on how to analyze a data set like this.
231
688267
3837
Ik laat je de aanpak zien van ChatGPT van hoe je zo'n dataset analyseert.
11:37
So we can give ChatGPT access to yet another tool,
232
697318
3837
We geven ChatGPT nu toegang tot een andere tool,
11:41
this one a Python interpreter,
233
701197
1460
deze een Python-interpreter,
11:42
so it’s able to run code, just like a data scientist would.
234
702657
4004
zodat het code kan uitvoeren, net als een datawetenschapper.
11:46
And so you can just literally upload a file
235
706661
2335
Ik kan dus een bestand uploaden
11:48
and ask questions about it.
236
708996
1335
en er vragen over stellen.
11:50
And very helpfully, you know, it knows the name of the file and it's like,
237
710373
3545
Het is ook handig dat het de bestandsnaam weet, en zegt:
11:53
"Oh, this is CSV," comma-separated value file,
238
713960
2419
"Een CSV-bestand", de waarden zijn door komma's gescheiden,
11:56
"I'll parse it for you."
239
716420
1335
"Ik zal het parseren".
11:57
The only information here is the name of the file,
240
717755
2794
De enige informatie is de naam van het bestand,
12:00
the column names like you saw and then the actual data.
241
720591
3671
de kolomnamen en de eigenlijke gegevens.
12:04
And from that it's able to infer what these columns actually mean.
242
724262
4504
Daaruit kan het de betekenis van de kolommen afleiden.
12:08
Like, that semantic information wasn't in there.
243
728766
2294
De semanstische informatie staat er niet in.
Het stelt zijn wereldkennis samen door te redeneren dat:
12:11
It has to sort of, put together its world knowledge of knowing that,
244
731102
3211
12:14
“Oh yeah, arXiv is a site that people submit papers
245
734355
2502
"arXiv is een site waar mensen papers indienen,
12:16
and therefore that's what these things are and that these are integer values
246
736857
3587
daarom staan deze dingen hiervoor en dit zijn gehele waarden
12:20
and so therefore it's a number of authors in the paper,"
247
740486
2628
en betekent daarom het aantal auteurs".
Dat is mensenwerk,
12:23
like all of that, that’s work for a human to do,
248
743114
2252
en AI helpt daar graag bij.
12:25
and the AI is happy to help with it.
249
745408
1751
Ik weet niet wat ik moet vragen.
12:27
Now I don't even know what I want to ask.
250
747159
2002
12:29
So fortunately, you can ask the machine,
251
749203
3003
Nu kan ik de machine vragen:
12:32
"Can you make some exploratory graphs?"
252
752248
1877
"Kun je oriënterende grafieken maken?"
12:37
And once again, this is a super high-level instruction with lots of intent behind it.
253
757461
4004
Dit is een instructie op hoog niveau waar veel intentie achter zit.
12:41
But I don't even know what I want.
254
761507
1668
Nu weet ik niet eens wat ik wil.
12:43
And the AI kind of has to infer what I might be interested in.
255
763175
2920
AI moet nu afleiden waarin ik geïnteresseerd ben.
Het komt met een aantal goede ideeën.
12:46
And so it comes up with some good ideas, I think.
256
766137
2294
Een histogram met de auteurs per artikel,
12:48
So a histogram of the number of authors per paper,
257
768472
2336
een tijdreeks van papers per jaar, een woordwolk van de papertitels.
12:50
time series of papers per year, word cloud of the paper titles.
258
770850
2961
12:53
All of that, I think, will be pretty interesting to see.
259
773853
2627
Best interessant allemaal.
Gaaf dat dit echt kan.
12:56
And the great thing is, it can actually do it.
260
776522
2169
12:58
Here we go, a nice bell curve.
261
778691
1460
Een mooie normale verdeling.
Drie komt het meeste voor.
13:00
You see that three is kind of the most common.
262
780151
2169
Dan maakt het een grafiek van de papers per jaar.
13:02
It's going to then make this nice plot of the papers per year.
263
782320
5797
13:08
Something crazy is happening in 2023, though.
264
788117
2294
Er gebeurt iets geks in 2023.
13:10
Looks like we were on an exponential and it dropped off the cliff.
265
790411
3128
Er was een exponentiële koers en dan valt het weg.
Wat is hier aan de hand?
13:13
What could be going on there?
266
793539
1460
13:14
By the way, all this is Python code, you can inspect.
267
794999
2753
Alle Python-code kan worden gecontroleerd.
13:17
And then we'll see word cloud.
268
797752
1459
Nu de woordwolk.
13:19
So you can see all these wonderful things that appear in these titles.
269
799253
3378
Hierin zie je de dingen die in de titels voorkomen.
13:23
But I'm pretty unhappy about this 2023 thing.
270
803090
2127
Maar ik vind dit in 2023 maar niks.
13:25
It makes this year look really bad.
271
805634
1711
Nu lijkt dit een slecht jaar.
13:27
Of course, the problem is that the year is not over.
272
807345
2877
Het jaar is natuurlijk nog niet voorbij.
13:30
So I'm going to push back on the machine.
273
810222
2878
Ik ga even terugduwen.
13:33
[Waitttt that's not fair!!!
274
813142
1585
[Wacht. Dat is niet eerlijk.
13:34
2023 isn't over.
275
814727
1293
2023 is nog niet voorbij.
Welk percentage papers in 2022 was gepost vóór 13 april?]
13:38
What percentage of papers in 2022 were even posted by April 13?]
276
818481
5088
13:44
So April 13 was the cut-off date I believe.
277
824695
2294
13 april was geloof ik de sluitingsdatum.
13:47
Can you use that to make a fair projection?
278
827656
4922
[Kan je dat gebruiken voor een eerlijke projectie?]
13:54
So we'll see, this is the kind of ambitious one.
279
834747
2294
We zullen zien dat dit vrij ambitieus is.
13:57
(Laughter)
280
837083
1126
(Gelach)
13:59
So you know,
281
839877
1251
Dus je weet,
14:01
again, I feel like there was more I wanted out of the machine here.
282
841128
3921
ik wil hier meer uit de machine krijgen.
14:05
I really wanted it to notice this thing,
283
845049
2502
Ik wil dat het dit eruit pikt.
14:07
maybe it's a little bit of an overreach for it
284
847593
3128
Misschien is het teveel gevraagd
14:10
to have sort of, inferred magically that this is what I wanted.
285
850763
3378
dat het op magische wijze moest weten wat ik wilde.
14:14
But I inject my intent,
286
854183
1627
Ik heb mijn intentie ingevoerd
14:15
I provide this additional piece of, you know, guidance.
287
855810
4754
en nu voeg ik wat begeleiding toe.
14:20
And under the hood,
288
860564
1168
Achter de schermen
14:21
the AI is just writing code again, so if you want to inspect what it's doing,
289
861774
3629
schrijft AI weer code, dus als je wilt controleren wat het doet,
14:25
it's very possible.
290
865403
1251
is dat prima mogelijk.
14:26
And now, it does the correct projection.
291
866654
3628
Nu geeft het de juiste projectie.
14:30
(Applause)
292
870282
5005
(Applaus)
14:35
If you noticed, it even updates the title.
293
875287
2169
Kijk, het heeft de titel bijgewerkt.
14:37
I didn't ask for that, but it know what I want.
294
877498
2336
Dat vraag ik niet, het weet wat ik wil.
14:41
Now we'll cut back to the slide again.
295
881794
2544
We gaan terug naar de dia.
14:45
This slide shows a parable of how I think we ...
296
885714
4880
Hier zien we een parabel over hoe ik denk dat we...
14:51
A vision of how we may end up using this technology in the future.
297
891220
3212
een visie over hoe we technologie in de toekomst kunnen gebruiken.
14:54
A person brought his very sick dog to the vet,
298
894849
3712
Iemand brengt zijn zieke hond naar de dierenarts.
14:58
and the veterinarian made a bad call to say, “Let’s just wait and see.”
299
898561
3336
De dierenarts maakt een verkeerde keuze en zegt: "We kijken het aan".
15:01
And the dog would not be here today had he listened.
300
901897
2795
Als hij had geluisterd, zou de hond niet meer leven.
15:05
In the meanwhile, he provided the blood test,
301
905401
2252
Hij voert de bloedtest
15:07
like, the full medical records, to GPT-4,
302
907653
2586
met de medische gegevens in GPT-4 in
15:10
which said, "I am not a vet, you need to talk to a professional,
303
910281
3170
en deze zegt: "Ik ben geen dierenarts, die moet je raadplegen,
15:13
here are some hypotheses."
304
913492
1710
dit zijn hypotheses".
15:15
He brought that information to a second vet
305
915786
2127
Hij geeft dit door aan een tweede dierenarts,
15:17
who used it to save the dog's life.
306
917913
1835
die hiermee het leven van de hond redt.
15:21
Now, these systems, they're not perfect.
307
921292
2252
Deze systemen zijn niet perfect.
15:23
You cannot overly rely on them.
308
923544
2336
Je kunt er niet teveel op leunen.
15:25
But this story, I think, shows
309
925880
3712
Dit verhaal toont
15:29
that a human with a medical professional
310
929592
3044
dat een mens en een professional,
15:32
and with ChatGPT as a brainstorming partner
311
932678
2461
met ChatGPT als brainstormpartner
15:35
was able to achieve an outcome that would not have happened otherwise.
312
935181
3295
een resultaat heeft bereikt dat anders niet mogelijk was.
15:38
I think this is something we should all reflect on,
313
938476
2419
Hier zouden we allemaal over moeten nadenken,
15:40
think about as we consider how to integrate these systems
314
940895
2711
nu we deze systemen willen integreren
in de wereld.
15:43
into our world.
315
943606
1167
15:44
And one thing I believe really deeply,
316
944815
1835
Iets waar ik echt in geloof
15:46
is that getting AI right is going to require participation from everyone.
317
946650
4338
is dat iedereen moet meewerken om AI goed te implementeren
15:50
And that's for deciding how we want it to slot in,
318
950988
2377
Om te beslissen hoe we het willen inpassen,
15:53
that's for setting the rules of the road,
319
953365
1961
om de regels vast te stellen,
15:55
for what an AI will and won't do.
320
955367
2044
wat AI wel en niet mag doen.
15:57
And if there's one thing to take away from this talk,
321
957453
2502
Dit kun je alvast meenemen uit dit verhaal:
15:59
it's that this technology just looks different.
322
959997
2211
deze technologie ziet er vooral anders uit.
16:02
Just different from anything people had anticipated.
323
962208
2502
Anders dan mensen hadden verwacht.
16:04
And so we all have to become literate.
324
964710
1835
Dus we moeten de taal leren.
16:06
And that's, honestly, one of the reasons we released ChatGPT.
325
966587
2961
Dat is een van de redenen voor de release van ChatGPT.
16:09
Together, I believe that we can achieve the OpenAI mission
326
969548
3128
Samen kunnen we de OpenAI-missie waarmaken
16:12
of ensuring that artificial general intelligence
327
972718
2252
om ervoor te zorgen dat algemene AI
16:14
benefits all of humanity.
328
974970
1877
de hele mensheid ten goede komt.
16:16
Thank you.
329
976847
1168
Bedankt.
16:18
(Applause)
330
978057
6965
(Applaus)
16:33
(Applause ends)
331
993322
1168
(Applaus stopt)
16:34
Chris Anderson: Greg.
332
994532
1334
Chris Anderson: Greg.
16:36
Wow.
333
996242
1167
Wauw.
16:37
I mean ...
334
997868
1126
Ik bedoel...
16:39
I suspect that within every mind out here
335
999662
3753
Ik vermoed dat het iedereen hier
16:43
there's a feeling of reeling.
336
1003457
2503
naast dat het ons duizelt.
16:46
Like, I suspect that a very large number of people viewing this,
337
1006001
3379
Ik denk dat bij een groot aantal mensen die dit kijken,
16:49
you look at that and you think, “Oh my goodness,
338
1009421
2419
denken: "Oh mijn hemel,
16:51
pretty much every single thing about the way I work, I need to rethink."
339
1011882
3462
ik moet bijna mijn hele manier van werken herzien".
16:55
Like, there's just new possibilities there.
340
1015386
2002
Hier liggen nieuwe mogelijkheden. Toch?
16:57
Am I right?
341
1017388
1168
Wie denkt dat hun manier van werken zal moeten worden herzien?
16:58
Who thinks that they're having to rethink the way that we do things?
342
1018597
3337
17:01
Yeah, I mean, it's amazing,
343
1021976
1543
Het is geweldig
17:03
but it's also really scary.
344
1023561
2002
en ook heel eng.
17:05
So let's talk, Greg, let's talk.
345
1025604
1585
Dus laten we praten, Greg.
17:08
I mean, I guess my first question actually is just
346
1028524
2377
Mijn eerste vraag is:
17:10
how the hell have you done this?
347
1030901
1585
hoe heb je dit geflikt?
17:12
(Laughter)
348
1032486
1251
(Gelach)
17:13
OpenAI has a few hundred employees.
349
1033737
2962
OpenAI telt een paar honderd werknemers.
17:16
Google has thousands of employees working on artificial intelligence.
350
1036740
4755
Google heeft duizenden werknemers die aan AI werken.
17:21
Why is it you who's come up with this technology
351
1041996
3503
Hoe komt het dat jij met deze technologie komt
17:25
that shocked the world?
352
1045541
1168
die de wereld schokt?
17:26
Greg Brockman: I mean, the truth is,
353
1046709
1751
Greg Brockman: Nou,
we bouwen op de schouders van reuzen, zonder twijfel.
17:28
we're all building on shoulders of giants, right, there's no question.
354
1048502
3295
Kijk naar de rekenvoortgang,
17:31
If you look at the compute progress,
355
1051797
1752
algoritme-ontwikkeling, gegevensvoortgang,
17:33
the algorithmic progress, the data progress,
356
1053549
2085
die zijn echt allemaal sectorbreed.
17:35
all of those are really industry-wide.
357
1055634
1835
Maar met OpenAI,
hebben we vanaf het begin heel bewuste keuzes gemaakt.
17:37
But I think within OpenAI,
358
1057469
1252
17:38
we made a lot of very deliberate choices from the early days.
359
1058762
2878
De eerste was om de realiteit onder ogen zien.
17:41
And the first one was just to confront reality as it lays.
360
1061640
2711
We hebben goed nagedacht over:
17:44
And that we just thought really hard about like:
361
1064393
2294
17:46
What is it going to take to make progress here?
362
1066687
2210
hoe kunnen we vooruitgang boeken?
17:48
We tried a lot of things that didn't work, so you only see the things that did.
363
1068939
3754
We hebben veel geprobeerd, je ziet nu alleen wat werkt.
Het belangrijkste is geweest om teams van mensen
17:52
And I think that the most important thing has been to get teams of people
364
1072693
3462
die veel van elkaar verschillen harmonieus samen te laten werken.
17:56
who are very different from each other to work together harmoniously.
365
1076196
3254
17:59
CA: Can we have the water, by the way, just brought here?
366
1079450
2711
CA: Mogen we het water hier hebben?
We zullen het nodig hebben, we krijgen een droge mond van dit thema.
18:02
I think we're going to need it, it's a dry-mouth topic.
367
1082202
3170
18:06
But isn't there something also just about the fact
368
1086665
2795
Hoe kwam het
18:09
that you saw something in these language models
369
1089501
4755
dat je iets zag in de taalmodellen,
18:14
that meant that if you continue to invest in them and grow them,
370
1094256
3921
want als je in ze blijft investeren en ze laat groeien,
18:18
that something at some point might emerge?
371
1098218
3129
zal er op een gegeven moment iets tevoorschijn komen?
18:21
GB: Yes.
372
1101847
1126
GB: Ja.
18:23
And I think that, I mean, honestly,
373
1103015
2836
Eerlijk gezegd,
18:25
I think the story there is pretty illustrative, right?
374
1105893
2544
Het verhaal is vrij illustratief, toch?
18:28
I think that high level, deep learning,
375
1108437
2002
Deep learning op hoog niveau,
18:30
like we always knew that was what we wanted to be,
376
1110481
2335
we wisten altijd al dat het zo moest zijn, een deep learning-lab.
18:32
was a deep learning lab, and exactly how to do it?
377
1112858
2419
In het begin wisten we het niet.
18:35
I think that in the early days, we didn't know.
378
1115277
2211
We hebben veel geprobeerd.
18:37
We tried a lot of things,
379
1117529
1210
Een persoon werkte aan de training van een model
18:38
and one person was working on training a model
380
1118739
2336
om het volgende personage in Amazon-recensies te voorspellen.
18:41
to predict the next character in Amazon reviews,
381
1121075
2877
18:43
and he got a result where -- this is a syntactic process,
382
1123994
4755
Hij had succes. Het is een syntactisch proces.
18:48
you expect, you know, the model will predict where the commas go,
383
1128749
3086
Het model zou de plaats van de komma's voorspellen
18:51
where the nouns and verbs are.
384
1131835
1627
en zelfstandige naamwoorden en werkwoorden.
18:53
But he actually got a state-of-the-art sentiment analysis classifier out of it.
385
1133504
4337
Maar het was een indeler voor ultramoderne sentimentanalyse.
18:57
This model could tell you if a review was positive or negative.
386
1137883
2961
Dit model vertelt je of een recensie positief of negatief is.
19:00
I mean, today we are just like, come on, anyone can do that.
387
1140886
3378
Nu denken we: iedereen kan dat.
19:04
But this was the first time that you saw this emergence,
388
1144306
3087
Maar dit was voor het eerst
19:07
this sort of semantics that emerged from this underlying syntactic process.
389
1147434
5005
dat dit soort semantiek voortkwam uit dit onderliggende syntactische proces.
19:12
And there we knew, you've got to scale this thing,
390
1152481
2336
Het moest geschaald worden om te zien waar het naartoe leidt.
19:14
you've got to see where it goes.
391
1154858
1544
CA: Dit helpt verklaren
19:16
CA: So I think this helps explain
392
1156402
1626
wat iedereen die hier naar kijkt verbijstert,
19:18
the riddle that baffles everyone looking at this,
393
1158028
2544
19:20
because these things are described as prediction machines.
394
1160572
2753
want ze worden beschreven als voorspelmachines?
Toch lijkt het
19:23
And yet, what we're seeing out of them feels ...
395
1163367
2669
19:26
it just feels impossible that that could come from a prediction machine.
396
1166036
3420
of dit onmogelijk uit een voorspelmachine kan komen.
19:29
Just the stuff you showed us just now.
397
1169456
2378
Alleen al wat je ons hebt laten zien.
19:31
And the key idea of emergence is that when you get more of a thing,
398
1171875
3838
Emergentie werkt zo dat als je meer van iets hebt,
19:35
suddenly different things emerge.
399
1175754
1585
er iets ander uitkomt.
Het is gewoon. Individuele mieren lopen maar wat rond,
19:37
It happens all the time, ant colonies, single ants run around,
400
1177339
3045
als je er genoeg samenbrengt,
19:40
when you bring enough of them together,
401
1180384
1877
ontstaan er kolonies die volledig emergent, anders gedrag vertonen.
19:42
you get these ant colonies that show completely emergent, different behavior.
402
1182302
3629
19:45
Or a city where a few houses together, it's just houses together.
403
1185973
3086
Een stad met een enkel huis, is niks dan wat huizen bij elkaar.
Maar als het aantal huizen groeit,
19:49
But as you grow the number of houses,
404
1189059
1794
19:50
things emerge, like suburbs and cultural centers and traffic jams.
405
1190894
4588
onstaan er dingen, zoals buitenwijken, culturele centra en files.
19:57
Give me one moment for you when you saw just something pop
406
1197276
3211
Vertel eens over een moment dat je iets zag
20:00
that just blew your mind
407
1200529
1668
wat je versteld deed staan,
20:02
that you just did not see coming.
408
1202197
1627
dat je gewoon niet zag aankomen.
20:03
GB: Yeah, well,
409
1203824
1209
GB: Nou,
20:05
so you can try this in ChatGPT, if you add 40-digit numbers --
410
1205075
3462
probeer dit eens in ChatGPT, voeg getallen van 40 cijfers toe.
20:08
CA: 40-digit?
411
1208537
1168
CA: 40 cijfers?
20:09
GB: 40-digit numbers, the model will do it,
412
1209705
2169
GB: Ja, het model doet het,
20:11
which means it's really learned an internal circuit for how to do it.
413
1211915
3254
wat betekent dat het een intern circuit echt kent.
20:15
And the really interesting thing is actually,
414
1215210
2127
Het interessante is,
als je het een 40-cijferig getal plus een 35-cijferig getal laat toevoegen,
20:17
if you have it add like a 40-digit number plus a 35-digit number,
415
1217337
3212
20:20
it'll often get it wrong.
416
1220591
1710
het antwoord vaak fout is.
20:22
And so you can see that it's really learning the process,
417
1222676
2795
Zo zie je dat het echt een leerproces is,
20:25
but it hasn't fully generalized, right?
418
1225471
1876
maar het is nog niet algemeen geworden.
20:27
It's like you can't memorize the 40-digit addition table,
419
1227389
2711
Je kunt zo'n grote opteltabel niet uit je hoofd leren.
20:30
that's more atoms than there are in the universe.
420
1230100
2294
dat zijn meer atomen dan het universum telt.
20:32
So it had to have learned something general,
421
1232394
2086
Dus het moet iets algemeens geleerd hebben,
20:34
but that it hasn't really fully yet learned that,
422
1234480
2377
wat het nog niet volledig beheerst.
20:36
Oh, I can sort of generalize this to adding arbitrary numbers
423
1236899
2961
Het kan generaliseren door getallen toe te voegen
20:39
of arbitrary lengths.
424
1239902
1167
of lengtes.
20:41
CA: So what's happened here
425
1241111
1335
CA: Dus wat hier gebeurd
20:42
is that you've allowed it to scale up
426
1242488
1793
kan doordat je het laat opschalen,
20:44
and look at an incredible number of pieces of text.
427
1244281
2419
zodat het een enorm aantal teksten kan bekijken.
20:46
And it is learning things
428
1246742
1209
Het leert dingen
20:47
that you didn't know that it was going to be capable of learning.
429
1247951
3379
waarvan je niet wist dat het dat zou kunnen leren.
20:51
GB Well, yeah, and it’s more nuanced, too.
430
1251371
2002
GB: Het ligt nog genuanceerder.
20:53
So one science that we’re starting to really get good at
431
1253415
2878
Eén wetenschap waar we echt goed in beginnen te worden
20:56
is predicting some of these emergent capabilities.
432
1256335
2586
is het voorspellen van deze vaardigheden.
20:58
And to do that actually,
433
1258962
1335
Dat doen we met,
21:00
one of the things I think is very undersung in this field
434
1260339
2711
iets wat te weinig aandacht krijgt,
engineeringkwaliteit.
21:03
is sort of engineering quality.
435
1263050
1501
21:04
Like, we had to rebuild our entire stack.
436
1264551
2044
We moesten onze hele stack opnieuw bouwen.
21:06
When you think about building a rocket,
437
1266637
1877
Als je en raket wilt bouwen,
21:08
every tolerance has to be incredibly tiny.
438
1268555
2211
moet elke tolerantie heel klein zijn.
21:10
Same is true in machine learning.
439
1270766
1626
Zo ook bij machine learning.
21:12
You have to get every single piece of the stack engineered properly,
440
1272434
3212
Elk deeltje van de stack moet goed worden ontworpen,
21:15
and then you can start doing these predictions.
441
1275646
2210
dan kan je voorspellingen gaan doen.
21:17
There are all these incredibly smooth scaling curves.
442
1277856
2503
Er zijn ongelooflijk vloeiende schaalcurves.
Ze tonen iets fundamenteels over inteligentie.
21:20
They tell you something deeply fundamental about intelligence.
443
1280359
2919
Als je onze GPT-4-blogpost bekijkt,
21:23
If you look at our GPT-4 blog post,
444
1283320
1710
staan al de curves daarin.
21:25
you can see all of these curves in there.
445
1285030
1960
21:26
And now we're starting to be able to predict.
446
1286990
2127
Nu kunnen we beginnen te voorspellen.
Zoals bijvoorbeeld de prestaties bij codeerproblemen.
21:29
So we were able to predict, for example, the performance on coding problems.
447
1289117
3713
21:32
We basically look at some models
448
1292871
1585
We bekijken een paar modellen
21:34
that are 10,000 times or 1,000 times smaller.
449
1294456
2461
die 10.000 of 1.000 keer kleiner zijn.
21:36
And so there's something about this that is actually smooth scaling,
450
1296959
3211
Iets hierin is vloeiend schalen,
ook al is het nog vroeg.
21:40
even though it's still early days.
451
1300170
2044
21:42
CA: So here is, one of the big fears then,
452
1302756
2544
CA: Nu een grote angst
21:45
that arises from this.
453
1305300
1252
die hieruit voortkomt.
21:46
If it’s fundamental to what’s happening here,
454
1306593
2127
Als het essentieel hiervoor is,
21:48
that as you scale up,
455
1308720
1210
dat als je opschaald
21:49
things emerge that
456
1309930
2419
er dingen ontstaan
21:52
you can maybe predict in some level of confidence,
457
1312349
4171
die je met enige betrouwbaarheid kunt voorspellen,
21:56
but it's capable of surprising you.
458
1316562
2544
maar het kan je verrassen.
22:00
Why isn't there just a huge risk of something truly terrible emerging?
459
1320816
4463
Bestaat er niet een groot risico dat er iets verschrikkelijks ontstaat?
22:05
GB: Well, I think all of these are questions of degree
460
1325320
2545
GB: Dit zijn vragen over gradatie,
22:07
and scale and timing.
461
1327865
1209
schaal en timing.
Wat over het hoofd gezien wordt
22:09
And I think one thing people miss, too,
462
1329116
1877
22:10
is sort of the integration with the world is also this incredibly emergent,
463
1330993
3587
is dat de integratie met de wereld ook heel emergent is,
ook iets heel krachtigs.
22:14
sort of, very powerful thing too.
464
1334621
1585
Daarom vinden we het zo belangrijk
22:16
And so that's one of the reasons that we think it's so important
465
1336248
3045
om geleidelijk te implementeren.
22:19
to deploy incrementally.
466
1339293
1167
Wat we zien na deze presentatie,
22:20
And so I think that what we kind of see right now, if you look at this talk,
467
1340502
3629
waar ik me op richt is hele goede feedback geven.
22:24
a lot of what I focus on is providing really high-quality feedback.
468
1344131
3170
Momenteel kun je alle taken controleren.
22:27
Today, the tasks that we do, you can inspect them, right?
469
1347301
2711
Het is simpel om op dit wiskundeprobleem te antwoorden:
22:30
It's very easy to look at that math problem and be like, no, no, no,
470
1350012
3211
"Nee, zeven was het juiste antwoord".
22:33
machine, seven was the correct answer.
471
1353265
1835
Zelfs het samenvatten van een boek is moeilijk te overzien.
22:35
But even summarizing a book, like, that's a hard thing to supervise.
472
1355100
3212
Hoe weet je of de samenvatting klopt?
22:38
Like, how do you know if this book summary is any good?
473
1358312
2586
Dan moet je het hele boek lezen. Dat wil niemand.
22:40
You have to read the whole book.
474
1360939
1543
22:42
No one wants to do that.
475
1362482
1168
(Gelach)
22:43
(Laughter)
476
1363692
1293
22:44
And so I think that the important thing will be that we take this step by step.
477
1364985
4296
Het is belangrijk dat we dit stap voor stap doen.
22:49
And that we say, OK, as we move on to book summaries,
478
1369323
2544
Dus als we verdergaan met samenvattingen,
22:51
we have to supervise this task properly.
479
1371867
1960
moeten we de taak behoorlijk overzien.
22:53
We have to build up a track record with these machines
480
1373827
2586
We moeten een ervaring opbouwen met deze machines,
22:56
that they're able to actually carry out our intent.
481
1376413
2586
erop toezien dat ze onze intentie kunnen uitvoeren.
22:59
And I think we're going to have to produce even better, more efficient,
482
1379041
3336
We zullen betere, efficientere en betrouwbaardere manieren
23:02
more reliable ways of scaling this,
483
1382419
1710
moeten ontwikkelen om dit te schalen.
23:04
sort of like making the machine be aligned with you.
484
1384129
2878
De machine afgestemmen op jou.
23:07
CA: So we're going to hear later in this session,
485
1387049
2294
CA: Zoals we later zullen horen
dat critici zeggen dat
23:09
there are critics who say that,
486
1389343
1543
23:10
you know, there's no real understanding inside,
487
1390928
4587
het geen werkelijk begrip heeft,
23:15
the system is going to always --
488
1395557
1627
het systeem zal altijd...
23:17
we're never going to know that it's not generating errors,
489
1397225
3212
we zullen nooit weten of het geen fouten maakt,
23:20
that it doesn't have common sense and so forth.
490
1400479
2210
dat het geen verstand heeft, enzovoort.
23:22
Is it your belief, Greg, that it is true at any one moment,
491
1402689
4088
Geloof je dat het mogelijk zal zijn
23:26
but that the expansion of the scale and the human feedback
492
1406818
3629
dat de uitbreiding van de schaal en menselijke feedback
23:30
that you talked about is basically going to take it on that journey
493
1410489
4963
het op een traject brengt
23:35
of actually getting to things like truth and wisdom and so forth,
494
1415494
3837
om waarheid en wijsheid te genereren
23:39
with a high degree of confidence.
495
1419331
1627
met hoge betrouwbaarheid.
23:40
Can you be sure of that?
496
1420999
1335
Kun je dat zeker weten?
23:42
GB: Yeah, well, I think that the OpenAI, I mean, the short answer is yes,
497
1422334
3462
GB: Nou, OpenAI, het antwoord is ja,
23:45
I believe that is where we're headed.
498
1425796
1793
ik denk dat we die kant opgaan.
23:47
And I think that the OpenAI approach here has always been just like,
499
1427631
3211
De aanpak van OpenAI altijd zo is geweest,
de werkelijkheid onder ogen zien.
23:50
let reality hit you in the face, right?
500
1430842
1877
Dit lijkt het veld van de gebroken beloften,
23:52
It's like this field is the field of broken promises,
501
1432719
2503
experts die zeggen dat X zal gebeuren, Y is hoe het werkt
23:55
of all these experts saying X is going to happen, Y is how it works.
502
1435263
3212
Al 70 jaar zeggen ze: het neurale net gaat niet werken.
23:58
People have been saying neural nets aren't going to work for 70 years.
503
1438475
3337
Ze hebben nog steeds ongelijk.
24:01
They haven't been right yet.
504
1441812
1376
Misschien hebben ze gelijk over 70 plus één jaar
24:03
They might be right maybe 70 years plus one
505
1443188
2044
of zoiets.
24:05
or something like that is what you need.
506
1445232
1918
Onze aanpak is altijd geweest:
24:07
But I think that our approach has always been,
507
1447192
2169
je moet de grenzen opzoeken van deze technologie,
24:09
you've got to push to the limits of this technology
508
1449361
2419
het echt in actie zien.
24:11
to really see it in action,
509
1451822
1293
Dan zul je zien: zo kunnen we overgaan op een nieuw paradigma.
24:13
because that tells you then, oh, here's how we can move on to a new paradigm.
510
1453115
3670
We hebben het gewoon nog niet uitgeput.
24:16
And we just haven't exhausted the fruit here.
511
1456785
2127
CA: Je standpunt is nogal controversieel,
24:18
CA: I mean, it's quite a controversial stance you've taken,
512
1458954
2794
dat de juiste manier is om het openbaar te maken
24:21
that the right way to do this is to put it out there in public
513
1461748
2920
en dan dit alles inzetten.
24:24
and then harness all this, you know,
514
1464710
1751
Nu geeft niet alleen jouw team feedback,
24:26
instead of just your team giving feedback,
515
1466461
2002
24:28
the world is now giving feedback.
516
1468463
2461
de wereld geeft nu feedback.
24:30
But ...
517
1470924
1168
Maar...
24:33
If, you know, bad things are going to emerge,
518
1473135
3753
Als er slechte dingen uitkomen,
24:36
it is out there.
519
1476930
1168
is het al losgelaten.
Het oorspronkelijke verhaal dat ik hoorde over OpenAI
24:38
So, you know, the original story that I heard on OpenAI
520
1478140
2919
toen jullie als non-profit werden opgericht,
24:41
when you were founded as a nonprofit,
521
1481101
1793
24:42
well you were there as the great sort of check on the big companies
522
1482894
4463
jullie zouden de grote bedrijven gaan controleren,
24:47
doing their unknown, possibly evil thing with AI.
523
1487399
3837
terwijl ze hun onbekende, mogelijk gevaarlijke AI-ding doen.
24:51
And you were going to build models that sort of, you know,
524
1491278
4755
Jullie zouden het soort modellen bouwen
die ze verantwoordelijk moesten houden
24:56
somehow held them accountable
525
1496033
1418
24:57
and was capable of slowing the field down, if need be.
526
1497492
4380
en het veld kon vertragen, als dat nodig was.
25:01
Or at least that's kind of what I heard.
527
1501872
1960
Dat is wat ik heb gehoord.
25:03
And yet, what's happened, arguably, is the opposite.
528
1503832
2461
Er gebeurde juist het tegenovergestelde.
25:06
That your release of GPT, especially ChatGPT,
529
1506334
5673
Jullie release van GPT, vooral ChatGPT,
25:12
sent such shockwaves through the tech world
530
1512049
2002
zond zulke schokgolven door de techwereld
25:14
that now Google and Meta and so forth are all scrambling to catch up.
531
1514051
3795
dat nu Google en Meta en anderen bezig zijn met een inhaalslag.
25:17
And some of their criticisms have been,
532
1517888
2085
Deel van hun kritiek is geweest:
25:20
you are forcing us to put this out here without proper guardrails or we die.
533
1520015
4963
we moeten dit accepteren zonder de juiste bewaking of we sterven.
25:25
You know, how do you, like,
534
1525020
2794
Hoe maak je duidelijk
25:27
make the case that what you have done is responsible here and not reckless.
535
1527814
3754
dat wat je hebt gedaan verantwoordelijk is en niet roekeloos.
25:31
GB: Yeah, we think about these questions all the time.
536
1531568
3128
GB: Ja, we denken continue over deze vragen na.
25:34
Like, seriously all the time.
537
1534738
1418
Echt voortdurend.
25:36
And I don't think we're always going to get it right.
538
1536198
2711
Ik denk niet dat we het altijd goed zullen doen.
25:38
But one thing I think has been incredibly important,
539
1538909
2460
Wat heel belangrijk was vanaf het begin, we dachten na over
25:41
from the very beginning, when we were thinking
540
1541411
2169
hoe we AI konden bouwen, zodat het de mensheid helpt.
25:43
about how to build artificial general intelligence,
541
1543580
2419
25:45
actually have it benefit all of humanity,
542
1545999
2002
Hoe moet je dat aanpakken?
25:48
like, how are you supposed to do that, right?
543
1548001
2127
Het standaardplan is dat het geheim is.
25:50
And that default plan of being, well, you build in secret,
544
1550170
2711
25:52
you get this super powerful thing,
545
1552923
1626
Dan krijg je iets super krachtigs,
je onderzoekt de veiligheid en dan druk je op "go"
25:54
and then you figure out the safety of it and then you push “go,”
546
1554549
3003
Je hoopt dat het klopt.
25:57
and you hope you got it right.
547
1557552
1460
Hoe moet ik dat plan uitvoeren?
25:59
I don't know how to execute that plan.
548
1559012
1835
Weet iemand dat?
26:00
Maybe someone else does.
549
1560889
1168
Ik vond dat altijd doodeng, het voelde niet goed.
26:02
But for me, that was always terrifying, it didn't feel right.
550
1562099
2877
Dus denk ik dat deze alternatieve aanpak
26:04
And so I think that this alternative approach
551
1564976
2128
het andere pad is,
26:07
is the only other path that I see,
552
1567104
2043
de werkelijkheid zal het leren.
26:09
which is that you do let reality hit you in the face.
553
1569147
2503
26:11
And I think you do give people time to give input.
554
1571691
2336
Je geeft mensen de tijd om te reageren.
26:14
You do have, before these machines are perfect,
555
1574027
2211
Vóór deze machines perfect zijn,
26:16
before they are super powerful, that you actually have the ability
556
1576279
3128
voordat ze superkrachtig zijn, heb je de mogelijkheid
26:19
to see them in action.
557
1579407
1168
om ze in actie te zien.
26:20
And we've seen it from GPT-3, right?
558
1580617
1752
Dat hebben we gezien bij GPT-3.
26:22
GPT-3, we really were afraid
559
1582369
1376
Toen waren we echt bang dat mensen het vooral zouden gebruiken
26:23
that the number one thing people were going to do with it
560
1583745
2711
om desinformatie te creëren en verkiezingen te beïnvloeden.
26:26
was generate misinformation, try to tip elections.
561
1586456
2336
26:28
Instead, the number one thing was generating Viagra spam.
562
1588834
2711
Maar het belangrijkste gebruik was Viagra-spam maken.
26:31
(Laughter)
563
1591545
3169
(Gelach)
26:36
CA: So Viagra spam is bad, but there are things that are much worse.
564
1596007
3212
CA: Viagra-spam is slecht, maar er zijn ergere dingen.
26:39
Here's a thought experiment for you.
565
1599219
1752
Een gedachte-experiment.
26:40
Suppose you're sitting in a room,
566
1600971
1710
Stel, je zit in een kamer, er staat een doos op tafel.
26:42
there's a box on the table.
567
1602681
1668
26:44
You believe that in that box is something that,
568
1604349
3003
Je denkt dat in die doos,
26:47
there's a very strong chance it's something absolutely glorious
569
1607394
2961
de kans is groot dat het fantastisch is,
26:50
that's going to give beautiful gifts to your family and to everyone.
570
1610397
3920
prachtige geschenken voor je familie en iedereen.
26:54
But there's actually also a one percent thing in the small print there
571
1614359
3629
Er staat ook één procent kans, in de kleine lettertjes
26:58
that says: “Pandora.”
572
1618029
1877
waarin staat: "Pandora".
26:59
And there's a chance
573
1619906
1669
De kans bestaat
27:01
that this actually could unleash unimaginable evils on the world.
574
1621616
4088
dat dit onvoorstelbaar kwaad over de wereld kan afroepen.
27:06
Do you open that box?
575
1626538
1543
Maak je de doos open?
27:08
GB: Well, so, absolutely not.
576
1628123
1460
GB: Nee, absoluut niet.
27:09
I think you don't do it that way.
577
1629624
1919
Ik denk dat je het niet zo doet.
27:12
And honestly, like, I'll tell you a story that I haven't actually told before,
578
1632210
3796
Ik vertel je een verhaal dat ik nog niet eerder heb gedeeld.
27:16
which is that shortly after we started OpenAI,
579
1636006
2586
Na OpenAI opgestart te hebben
27:18
I remember I was in Puerto Rico for an AI conference.
580
1638592
2711
was ik in Puerto Rico op een AI-conferentie,
27:21
I'm sitting in the hotel room just looking out over this wonderful water,
581
1641344
3462
Ik zit in de hotelkamer en kijk uit over een prachtig water,
27:24
all these people having a good time.
582
1644806
1752
mensen die plezier maken.
Je staat er even bij stil,
27:26
And you think about it for a moment,
583
1646558
1752
als je kon kiezen voor de doos van Pandora
27:28
if you could choose for basically that Pandora’s box
584
1648310
4504
27:32
to be five years away
585
1652814
2711
over vijf jaar
27:35
or 500 years away,
586
1655567
1585
of over 500 jaar,
27:37
which would you pick, right?
587
1657194
1501
welke zou je dan kiezen?
27:38
On the one hand you're like, well, maybe for you personally,
588
1658737
2836
Misschien denk je, voor jou personlijk,
27:41
it's better to have it be five years away.
589
1661573
2002
is over vijf jaar beter.
27:43
But if it gets to be 500 years away and people get more time to get it right,
590
1663617
3628
Maar als het nog 500 jaar duurt, is er meer tijd om het te verbeteren.
Wat zou je kiezen?
27:47
which do you pick?
591
1667287
1168
27:48
And you know, I just really felt it in the moment.
592
1668496
2336
Ik voelde het echt op dat moment.
27:50
I was like, of course you do the 500 years.
593
1670874
2002
Natuurlijk kies je voor 500 jaar.
Mijn broer zat toen in het leger,
27:53
My brother was in the military at the time
594
1673293
2002
27:55
and like, he puts his life on the line in a much more real way
595
1675295
2961
hij waagt zijn leven op een veel echtere manier dan wij
27:58
than any of us typing things in computers
596
1678256
2628
terwijl we dingen in computers typen
28:00
and developing this technology at the time.
597
1680926
2585
en deze technologie ontwikkelen.
28:03
And so, yeah, I'm really sold on the you've got to approach this right.
598
1683511
4547
Ik ben er echt van overtuigd dat je dit goed moet aanpakken.
28:08
But I don't think that's quite playing the field as it truly lies.
599
1688058
3628
Maar ik denk niet dat het hierom draait.
28:11
Like, if you look at the whole history of computing,
600
1691686
2670
Als je de geschiedenis bekijkt van computers,
28:14
I really mean it when I say that this is an industry-wide
601
1694397
4463
dit is echt een sectorbrede
28:18
or even just almost like
602
1698902
1543
of zelfs
28:20
a human-development- of-technology-wide shift.
603
1700487
3336
een mens-ontwikkeling -van-technologie-brede verschuiving.
28:23
And the more that you sort of, don't put together the pieces
604
1703865
4088
Hoe minder je de delen samenbrengt
28:27
that are there, right,
605
1707994
1293
die er zijn, we maken steeds snellere computers,
28:29
we're still making faster computers,
606
1709329
1752
we verbeteren de algoritmes, al deze dingen gebeuren.
28:31
we're still improving the algorithms, all of these things, they are happening.
607
1711081
3670
28:34
And if you don't put them together, you get an overhang,
608
1714793
2627
Als je dit niet samenbrengt, krijg je een overhang.
Dus als iemand het wel doet,
28:37
which means that if someone does,
609
1717420
1627
of het moment dat iemand het circuit verbindt,
28:39
or the moment that someone does manage to connect to the circuit,
610
1719089
3086
dan ontstaat er ineens een heel krachtig ding,
28:42
then you suddenly have this very powerful thing,
611
1722175
2252
niemand heeft zich kunnen aanpassen,
28:44
no one's had any time to adjust,
612
1724427
1544
welke veiligheidsmaatregelen krijgt je dan?
28:46
who knows what kind of safety precautions you get.
613
1726012
2336
28:48
And so I think that one thing I take away
614
1728390
1918
Eén ding vind ik heel belangrijk.
28:50
is like, even you think about development of other sort of technologies,
615
1730308
3837
als je denkt aan de ontwikkeling van andere technologieën,
28:54
think about nuclear weapons,
616
1734187
1376
zoals kernwapens,
28:55
people talk about being like a zero to one,
617
1735563
2002
er wordt gezegd dat het een nul tot één,
28:57
sort of, change in what humans could do.
618
1737565
2628
verandering in wat mensen kunnen.
29:00
But I actually think that if you look at capability,
619
1740235
2461
Als je kijkt naar vermogen,
29:02
it's been quite smooth over time.
620
1742696
1585
is dat in de tijd vrij gelijkmatig gegaan.
29:04
And so the history, I think, of every technology we've developed
621
1744281
3670
De geschiedenis van elke ontwikkelde technologie
29:07
has been, you've got to do it incrementally
622
1747993
2002
is dat je het stapsgewijs moet doen.
Je moet uitzoeken hoe je ermee omgaat
29:10
and you've got to figure out how to manage it
623
1750036
2127
29:12
for each moment that you're increasing it.
624
1752163
2461
voor elk moment dat je het vergroot.
29:14
CA: So what I'm hearing is that you ...
625
1754666
2252
CA: Dus wat je nu zegt...
29:16
the model you want us to have
626
1756918
1668
het model dat je voor ons wilt
29:18
is that we have birthed this extraordinary child
627
1758628
2795
is dat we dit buitengewone kind hebben gebaard
29:21
that may have superpowers
628
1761423
2544
dat superkrachten kan hebben
29:24
that take humanity to a whole new place.
629
1764009
2544
die de mensheid in een nieuwe positie brengen.
29:26
It is our collective responsibility to provide the guardrails
630
1766594
5005
Het is onze gezamenlijke taak om te zorgen voor de beveiliging
29:31
for this child
631
1771641
1210
voor dit kind
29:32
to collectively teach it to be wise and not to tear us all down.
632
1772892
5047
om het te leren verstandig te zijn en ons niet kapot te maken.
29:37
Is that basically the model?
633
1777939
1377
Komt het model daarop neer?
29:39
GB: I think it's true.
634
1779357
1168
GB: Dat is waar.
29:40
And I think it's also important to say this may shift, right?
635
1780567
2878
We moeten onthouden dat dit nog kan verschuiven.
29:43
We've got to take each step as we encounter it.
636
1783445
3253
We moeten elke stap nemen wanneer we die tegenkomen.
29:46
And I think it's incredibly important today
637
1786740
2002
Vandaag is het heel belangrijk
29:48
that we all do get literate in this technology,
638
1788783
2878
dat we allemaal geletterd raken in deze technologie,
29:51
figure out how to provide the feedback,
639
1791661
1919
hoe kunnen we het feedback geven, wat willen we.
29:53
decide what we want from it.
640
1793621
1377
29:54
And my hope is that that will continue to be the best path,
641
1794998
3128
Ik hoop dat dat de beste weg zal blijken,
29:58
but it's so good we're honestly having this debate
642
1798168
2377
het is zo goed dat we dit eerlijk voeren
30:00
because we wouldn't otherwise if it weren't out there.
643
1800545
2628
en dat zouden we niet doen als het niet beschikbaar was.
30:03
CA: Greg Brockman, thank you so much for coming to TED and blowing our minds.
644
1803631
3629
CA: Greg Brockman, bedankt dat je bij TED was en ons hebt verrast.
30:07
(Applause)
645
1807302
1626
(Applaus)
Over deze website

Deze site laat u kennismaken met YouTube-video's die nuttig zijn om Engels te leren. U ziet Engelse lessen gegeven door topdocenten uit de hele wereld. Dubbelklik op de Engelse ondertitels op elke videopagina om de video af te spelen. De ondertitels scrollen synchroon met het afspelen van de video. Heeft u opmerkingen of verzoeken, neem dan contact met ons op via dit contactformulier.

https://forms.gle/WvT1wiN1qDtmnspy7