The Inside Story of ChatGPT’s Astonishing Potential | Greg Brockman | TED

1,768,093 views

2023-04-20 ・ TED


New videos

The Inside Story of ChatGPT’s Astonishing Potential | Greg Brockman | TED

1,768,093 views ・ 2023-04-20

TED


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

Traducteur: eric vautier Relecteur: Claire Ghyselen
00:03
We started OpenAI seven years ago
0
3875
2503
Nous avons lancé OpenAI il y a sept ans
00:06
because we felt like something really interesting was happening in AI
1
6378
3712
car nous sentions que quelque chose d’intéressant se produisait en IA
00:10
and we wanted to help steer it in a positive direction.
2
10131
3170
et que nous voulions contribuer à l’orienter dans un sens positif.
00:15
It's honestly just really amazing to see
3
15220
2085
Honnêtement, c’est incroyable de voir
00:17
how far this whole field has come since then.
4
17347
3086
à quel point ce domaine a progressé en sept ans.
00:20
And it's really gratifying to hear from people like Raymond
5
20433
3629
C’est très gratifiant d’entendre des gens comme Raymond,
00:24
who are using the technology we are building, and others,
6
24104
2836
une personne dyslexique dont la vie s’est améliorée grâce à ChatGPT.
00:26
for so many wonderful things.
7
26982
2127
00:29
We hear from people who are excited,
8
29150
2503
Nous entendons des gens enthousiastes,
00:31
we hear from people who are concerned,
9
31653
1835
des gens inquiets,
00:33
we hear from people who feel both those emotions at once.
10
33530
2961
des gens qui ressentent ces deux émotions à la fois.
00:36
And honestly, that's how we feel.
11
36533
2252
Et honnêtement, c’est ce que nous ressentons aussi.
00:40
Above all, it feels like we're entering an historic period right now
12
40245
4087
Et surtout, nous avons l’impression d’entrer dans une période historique
00:44
where we as a world are going to define a technology
13
44374
4421
où le monde entier va définir une technologie
00:48
that will be so important for our society going forward.
14
48795
3086
qui sera très importante pour notre société.
00:52
And I believe that we can manage this for good.
15
52924
2628
Et je crois que nous pouvons nous en servir pour faire le bien.
00:56
So today, I want to show you the current state of that technology
16
56845
4171
Aujourd’hui, je veux vous montrer l’état actuel de cette technologie
01:01
and some of the underlying design principles that we hold dear.
17
61016
3086
et certains des principes sous-jacents de conception qui nous sont chers.
01:09
So the first thing I'm going to show you
18
69983
1918
Je vais d’abord montrer comment construire un outil pour une IA
01:11
is what it's like to build a tool for an AI
19
71943
2086
plutôt que pour un humain.
01:14
rather than building it for a human.
20
74029
1876
01:17
So we have a new DALL-E model, which generates images,
21
77574
3545
Nous avons un nouveau modèle DALL-E, qui génère des images,
01:21
and we are exposing it as an app for ChatGPT to use on your behalf.
22
81161
4045
et nous l’exposons en tant qu’application que ChatGPT peut utiliser à votre place.
01:25
And you can do things like ask, you know,
23
85248
2461
Vous pouvez faire des choses comme...
01:27
suggest a nice post-TED meal and draw a picture of it.
24
87751
6631
suggérer un bon repas post-TED et en faire une image.
01:35
(Laughter)
25
95216
1419
(Rires)
01:38
Now you get all of the, sort of, ideation and creative back-and-forth
26
98303
4671
Vous bénéficiez ainsi de toute l’idéation et de l’enrichissement créatif,
01:43
and taking care of the details for you that you get out of ChatGPT.
27
103016
4004
ainsi que de la prise en charge des détails pour vous par ChatGPT.
01:47
And here we go, it's not just the idea for the meal,
28
107062
2669
La réponse n’est pas seulement une idée de repas,
01:49
but a very, very detailed spread.
29
109773
3587
mais d’une réponse très, très détaillée.
01:54
So let's see what we're going to get.
30
114110
2044
Voyons ce que nous allons obtenir.
01:56
But ChatGPT doesn't just generate images in this case --
31
116154
3795
Mais ChatGPT ne génère pas seulement des images dans ce cas -
01:59
sorry, it doesn't generate text, it also generates an image.
32
119991
2836
pardon, il ne génère pas du texte, mais aussi une image.
02:02
And that is something that really expands the power
33
122827
2419
C’est quelque chose qui étend vraiment la puissance
02:05
of what it can do on your behalf in terms of carrying out your intent.
34
125246
3504
de ce qu’il peut faire à votre place en comprenant votre intention.
02:08
And I'll point out, this is all a live demo.
35
128750
2085
Tout ceci est une démo en direct,
02:10
This is all generated by the AI as we speak.
36
130835
2169
entièrement généré par l’IA à la volée.
02:13
So I actually don't even know what we're going to see.
37
133046
2544
Je ne sais donc pas ce que nous allons voir.
02:16
This looks wonderful.
38
136216
2294
Cela semble merveilleux.
02:18
(Applause)
39
138510
3712
(Applaudissements)
02:22
I'm getting hungry just looking at it.
40
142514
1877
J’ai faim rien qu’en le regardant.
02:24
Now we've extended ChatGPT with other tools too,
41
144724
2753
Nous avons étendu ChatGPT à d’autres outils, par exemple la mémoire.
02:27
for example, memory.
42
147519
1168
02:28
You can say "save this for later."
43
148728
2795
Vous pouvez dire : « Sauvegarde ceci pour plus tard ».
02:33
And the interesting thing about these tools
44
153233
2043
L’intéressant avec ces outils est qu’ils sont faciles à inspecter.
02:35
is they're very inspectable.
45
155318
1377
02:36
So you get this little pop up here that says "use the DALL-E app."
46
156695
3128
Ce pop-up « Utilisez l’application DALL-E » -
ceci sera disponible aux utilisateurs de ChatGPT dans les mois à venir -
02:39
And by the way, this is coming to you, all ChatGPT users, over upcoming months.
47
159823
3712
vous pouvez voir ce qu’il a fait,
02:43
And you can look under the hood and see that what it actually did
48
163535
3086
en l’occurrence, écrire une commande comme un humain.
02:46
was write a prompt just like a human could.
49
166621
2169
02:48
And so you sort of have this ability to inspect
50
168790
2628
Vous avez donc la possibilité d'inspecter
02:51
how the machine is using these tools,
51
171459
2086
la façon dont la machine utilise ces outils,
02:53
which allows us to provide feedback to them.
52
173586
2086
ce qui nous permet de fournir un feedback.
02:55
Now it's saved for later,
53
175714
1209
C'est sauvegardé.
02:56
and let me show you what it's like to use that information
54
176965
2878
Je vais vous montrer comment utiliser ces informations
02:59
and to integrate with other applications too.
55
179884
2503
et les intégrer à d'autres applications.
03:02
You can say,
56
182387
2210
Vous pouvez dire :
03:04
“Now make a shopping list for the tasty thing
57
184639
5506
« Maintenant, fais la liste de courses
pour la chose savoureuse que j’ai suggérée tout à l’heure. »
03:10
I was suggesting earlier.”
58
190186
1835
03:12
And make it a little tricky for the AI.
59
192021
2128
Rendons les choses un peu plus compliquées.
03:16
"And tweet it out for all the TED viewers out there."
60
196276
4337
« Et tweete-la aux spectateurs de TED. »
03:20
(Laughter)
61
200655
2252
(Rires)
03:22
So if you do make this wonderful, wonderful meal,
62
202949
2461
Si vous préparez ce merveilleux repas, je veux absolument le goûter.
03:25
I definitely want to know how it tastes.
63
205410
2044
03:28
But you can see that ChatGPT is selecting all these different tools
64
208496
3504
Vous pouvez voir que ChatGPT sélectionne tous ces outils
03:32
without me having to tell it explicitly which ones to use in any situation.
65
212000
4379
sans que j’aie à lui dire explicitement lesquels utiliser.
03:37
And this, I think, shows a new way of thinking about the user interface.
66
217088
3879
Je pense que cela montre une nouvelle façon de penser l'interface utilisateur.
03:40
Like, we are so used to thinking of, well, we have these apps,
67
220967
3796
Nous sommes tellement habitués à avoir des applications,
03:44
we click between them, we copy/paste between them,
68
224763
2335
que nous copions/collons de l’une à l’autre.
Ça marche bien quand on connaît les menus et les options de l’application.
03:47
and usually it's a great experience within an app
69
227098
2294
03:49
as long as you kind of know the menus and know all the options.
70
229434
2961
Oui, j’aimerais que tu le fasses. Oui, s’il te plaît.
03:52
Yes, I would like you to.
71
232395
1293
03:53
Yes, please.
72
233730
1126
03:54
Always good to be polite.
73
234898
1251
C’est bien d’être poli.
03:56
(Laughter)
74
236149
2628
(Rires)
04:00
And by having this unified language interface on top of tools,
75
240361
5464
Grâce à cette interface en langage unifié qui se superpose aux outils,
04:05
the AI is able to sort of take away all those details from you.
76
245867
4630
l’IA vous affranchit en quelque sorte de tous ces détails.
04:10
So you don't have to be the one
77
250538
1543
Vous n’avez donc pas besoin d’expliquer chaque détail
04:12
who spells out every single sort of little piece
78
252123
2294
04:14
of what's supposed to happen.
79
254459
1543
de ce qui est censé se passer.
04:16
And as I said, this is a live demo,
80
256419
1710
Ma démo est en direct,
donc parfois l'inattendu nous arrive.
04:18
so sometimes the unexpected will happen to us.
81
258129
3379
04:21
But let's take a look at the Instacart shopping list while we're at it.
82
261549
3420
Mais jetons un œil à la liste de courses tant qu’on y est.
04:25
And you can see we sent a list of ingredients to Instacart.
83
265386
3254
Vous pouvez voir que nous avons envoyé une liste d’ingrédients.
04:29
Here's everything you need.
84
269349
1543
Voici ce dont vous avez besoin.
04:30
And the thing that's really interesting
85
270892
1877
Ce qui est vraiment intéressant,
04:32
is that the traditional UI is still very valuable, right?
86
272811
2919
c’est que l’interface utilisateur a encore de la valeur.
04:35
If you look at this,
87
275772
1877
Si vous regardez ceci,
04:37
you still can click through it and sort of modify the actual quantities.
88
277690
4296
vous pouvez toujours cliquer et modifier les quantités.
04:41
And that's something that I think shows
89
281986
1877
Je pense que cela montre
04:43
that they're not going away, traditional UIs.
90
283863
3253
que les interfaces utilisateur traditionnelles ne disparaîtront pas.
04:47
It's just we have a new, augmented way to build them.
91
287158
2795
C’est une façon augmentée de les construire.
04:49
And now we have a tweet that's been drafted for our review,
92
289994
2920
Voici le tweet qui a été rédigé pour validation, un point également important.
04:52
which is also a very important thing.
93
292956
1793
04:54
We can click “run,” and there we are, we’re the manager, we’re able to inspect,
94
294749
3712
On peut cliquer sur « Exécuter », et étant le décideur, on peut vérifier,
04:58
we're able to change the work of the AI if we want to.
95
298461
2836
et changer le travail de l’IA si on veut.
05:02
And so after this talk, you will be able to access this yourself.
96
302924
5964
Après ce talk, vous pourrez y accéder vous-mêmes.
05:17
And there we go.
97
317647
1710
Et voilà.
05:19
Cool.
98
319816
1126
C'est cool.
05:22
Thank you, everyone.
99
322485
1168
Merci à vous.
05:23
(Applause)
100
323653
3003
(Applaudissements)
05:29
So we’ll cut back to the slides.
101
329367
1627
Revenons à la présentation.
05:32
Now, the important thing about how we build this,
102
332954
3587
L’important dans ce développement
05:36
it's not just about building these tools.
103
336583
2210
n’est pas seulement de construire ces outils,
05:38
It's about teaching the AI how to use them.
104
338793
2252
mais aussi d’apprendre à l’IA à les utiliser.
05:41
Like, what do we even want it to do
105
341087
1710
Que voulons-nous qu’elle fasse
05:42
when we ask these very high-level questions?
106
342839
2419
lorsque nous posons ces questions abstraites ?
05:45
And to do this, we use an old idea.
107
345258
2669
Pour cela, nous utilisons une vieille idée.
05:48
If you go back to Alan Turing's 1950 paper on the Turing test, he says,
108
348261
3337
Alan Turing écrivait en 1950 qu’aucun programme ne saurait passer son test,
05:51
you'll never program an answer to this.
109
351598
2043
05:53
Instead, you can learn it.
110
353683
1627
à moins d’apprendre.
05:55
You could build a machine, like a human child,
111
355351
2169
Ce serait une machine, comme un enfant humain,
05:57
and then teach it through feedback.
112
357520
2127
qu’on éduquerait au fur et à mesure.
05:59
Have a human teacher who provides rewards and punishments
113
359689
2711
Un enseignant humain donnerait des récompenses et des punitions
06:02
as it tries things out and does things that are either good or bad.
114
362400
3212
selon des réponses bonnes ou mauvaises.
06:06
And this is exactly how we train ChatGPT.
115
366237
2002
Nous avons le même processus en deux étapes avec ChatGPT.
06:08
It's a two-step process.
116
368239
1168
06:09
First, we produce what Turing would have called a child machine
117
369449
3086
On a produit ce que Turing aurait appelé un enfant-machine
via un apprentissage non supervisé.
06:12
through an unsupervised learning process.
118
372535
1960
Nous lui montrons tout Internet et lui disons :
06:14
We just show it the whole world, the whole internet
119
374495
2461
06:16
and say, “Predict what comes next in text you’ve never seen before.”
120
376956
3212
« Prédis ce qui va arriver dans un texte que tu n’as jamais vu. »
Ce processus lui confère tout un tas de compétences extraordinaires.
06:20
And this process imbues it with all sorts of wonderful skills.
121
380168
3044
06:23
For example, if you're shown a math problem,
122
383212
2086
Par exemple, ce problème de maths.
La seule façon de dire ce qui vient ensuite -
06:25
the only way to actually complete that math problem,
123
385298
2544
06:27
to say what comes next,
124
387884
1334
la valeur « 9 » ici -
06:29
that green nine up there,
125
389218
1293
06:30
is to actually solve the math problem.
126
390511
2294
c’est de résoudre ce problème.
06:34
But we actually have to do a second step, too,
127
394432
2169
Mais il y a aussi une deuxième étape :
06:36
which is to teach the AI what to do with those skills.
128
396601
2544
expliquer à l’IA quoi faire de ces compétences.
D’où la nécessité d’un feedback.
06:39
And for this, we provide feedback.
129
399187
1668
06:40
We have the AI try out multiple things, give us multiple suggestions,
130
400855
3253
L’IA essaye plusieurs choses, fait plusieurs suggestions,
puis un humain les évalue, les compare.
06:44
and then a human rates them, says “This one’s better than that one.”
131
404150
3212
Cela renforce non seulement la chose spécifique que l’IA a dite,
06:47
And this reinforces not just the specific thing that the AI said,
132
407362
3086
mais aussi, et c’est important, le process utilisé par l’IA pour donner la réponse.
06:50
but very importantly, the whole process that the AI used to produce that answer.
133
410448
3795
Cela lui permet de généraliser, de déduire votre intention
06:54
And this allows it to generalize.
134
414243
1585
06:55
It allows it to teach, to sort of infer your intent
135
415828
2419
06:58
and apply it in scenarios that it hasn't seen before,
136
418247
2503
et de l’appliquer à des scénarios inconnus,
07:00
that it hasn't received feedback.
137
420750
1585
pour lesquels elle n’a pas reçu de feedback.
07:02
Now, sometimes the things we have to teach the AI
138
422669
2460
Parfois, ce que nous devons enseigner à l’IA
07:05
are not what you'd expect.
139
425171
1543
n’est pas ce à quoi on s’attend.
07:06
For example, when we first showed GPT-4 to Khan Academy,
140
426756
3086
Quand on a présenté GPT-4 pour la première fois à la Khan Academy,
07:09
they said, "Wow, this is so great,
141
429884
1627
ils ont dit : « Génial, on va pouvoir enseigner des choses merveilleuses.
07:11
We're going to be able to teach students wonderful things.
142
431552
2753
07:14
Only one problem, it doesn't double-check students' math.
143
434347
3462
Seul problème : ça ne vérifie pas les compétences des élèves en maths.
07:17
If there's some bad math in there,
144
437809
1626
On peut répondre que 5+7=15 et faire comme si de rien n’était. »
07:19
it will happily pretend that one plus one equals three and run with it."
145
439477
3462
07:23
So we had to collect some feedback data.
146
443523
2294
Nous avons donc recueilli des feedbacks.
07:25
Sal Khan himself was very kind
147
445858
1544
Sal Khan lui-même a été très aimable ; il a consacré 20 heures de son temps
07:27
and offered 20 hours of his own time to provide feedback to the machine
148
447443
3337
pour travailler avec notre équipe à éduquer à la machine.
07:30
alongside our team.
149
450780
1501
07:32
And over the course of a couple of months we were able to teach the AI that,
150
452323
3587
Er en quelques mois, nous avons pu apprendre à l’IA que,
07:35
"Hey, you really should push back on humans
151
455910
2044
dans ce type de scénario, il faut vraiment se méfier des humains.
07:37
in this specific kind of scenario."
152
457954
2044
07:41
And we've actually made lots and lots of improvements to the models this way.
153
461416
4921
Cette méthode nous a permis d'apporter de nombreuses améliorations aux modèles.
07:46
And when you push that thumbs down in ChatGPT,
154
466379
2544
Et lorsque vous cliquez sur le pouce vers le bas,
07:48
that actually is kind of like sending up a bat signal to our team to say,
155
468965
3462
cela revient à envoyer un signal à notre équipe :
« Voici un sujet sur lequel vous devriez recueillir des feedbacks. »
07:52
“Here’s an area of weakness where you should gather feedback.”
156
472427
2919
07:55
And so when you do that,
157
475388
1168
C’est une façon pour nous d’écouter nos utilisateurs
07:56
that's one way that we really listen to our users
158
476597
2294
07:58
and make sure we're building something that's more useful for everyone.
159
478933
3378
et de nous assurer que nous construisons quelque chose de plus utile.
08:02
Now, providing high-quality feedback is a hard thing.
160
482895
3754
Il n’est pas facile de fournir un feedback de qualité.
08:07
If you think about asking a kid to clean their room,
161
487025
2460
Si vous demandez à un enfant de ranger sa chambre,
08:09
if all you're doing is inspecting the floor,
162
489485
2711
si vous ne faites qu'inspecter le sol,
08:12
you don't know if you're just teaching them to stuff all the toys in the closet.
163
492196
3796
vous ne savez pas s’il apprend juste à cacher tous ses jouets dans le placard.
08:15
This is a nice DALL-E-generated image, by the way.
164
495992
2627
Il s'agit d'une belle image générée par DALL-E, soit dit en passant.
08:19
And the same sort of reasoning applies to AI.
165
499912
4713
Le même type de raisonnement s’applique à l’IA.
08:24
As we move to harder tasks,
166
504667
1794
Plus les tâches seront difficiles,
08:26
we will have to scale our ability to provide high-quality feedback.
167
506502
3796
plus la qualité de nos feedbacks devra s’améliorer.
08:30
But for this, the AI itself is happy to help.
168
510882
3879
Mais l’IA elle-même est heureuse de nous aider
08:34
It's happy to help us provide even better feedback
169
514761
2335
à fournir un feedback encore meilleur
08:37
and to scale our ability to supervise the machine as time goes on.
170
517138
3587
et à accroître notre capacité à la superviser au fil du temps.
08:40
And let me show you what I mean.
171
520767
1543
Je vais vous montrer ce que je veux dire.
08:42
For example, you can ask GPT-4 a question like this,
172
522810
4546
Par exemple, vous pouvez poser à GPT-4 ce type de question :
08:47
of how much time passed between these two foundational blogs
173
527356
3295
combien de temps s’est écoulé entre ces deux articles fondateurs
08:50
on unsupervised learning
174
530693
1668
sur l’apprentissage non supervisé et celui basé sur les feedbacks ?
08:52
and learning from human feedback.
175
532403
1794
08:54
And the model says two months passed.
176
534197
2460
Il répond qu’il s’est écoulé deux mois, mais est-ce vrai ?
08:57
But is it true?
177
537075
1167
08:58
Like, these models are not 100-percent reliable,
178
538284
2252
Ces modèles ne sont pas fiables à 100 %,
09:00
although they’re getting better every time we provide some feedback.
179
540536
3921
même s’ils s’améliorent à chaque fois que nous fournissons un feedback.
09:04
But we can actually use the AI to fact-check.
180
544457
3086
Mais nous pouvons utiliser l’IA pour vérifier,
09:07
And it can actually check its own work.
181
547543
1877
vérifier en fait son propre travail.
09:09
You can say, fact-check this for me.
182
549462
1877
Vous pouvez lui dire : « Vérifie pour moi. »
09:12
Now, in this case, I've actually given the AI a new tool.
183
552757
3670
Dans ce cas, j’ai donné à l’IA un nouvel outil,
09:16
This one is a browsing tool
184
556427
1710
un outil de navigation Internet
09:18
where the model can issue search queries and click into web pages.
185
558137
3879
qui lui permet d’effectuer des recherches et de cliquer sur des pages web.
09:22
And it actually writes out its whole chain of thought as it does it.
186
562016
3253
Et elle écrit le fil de ses pensées en même temps.
09:25
It says, I’m just going to search for this and it actually does the search.
187
565269
3587
Elle dit : « Je vais chercher ceci » et effectue la recherche.
09:28
It then it finds the publication date and the search results.
188
568856
3128
Elle trouve la date de publication dans les résultats.
Elle fait alors une autre recherche.
09:32
It then is issuing another search query.
189
572026
1919
09:33
It's going to click into the blog post.
190
573945
1877
Elle clique sur l’article.
09:35
And all of this you could do, but it’s a very tedious task.
191
575822
2877
Vous pouvez faire tout cela, mais c’est très fastidieux.
09:38
It's not a thing that humans really want to do.
192
578741
2211
Les humains n’en ont pas envie.
09:40
It's much more fun to be in the driver's seat,
193
580952
2169
Il est plus amusant d’être le patron,
d’être le gestionnaire qui va, si vous le souhaitez, vérifier le travail.
09:43
to be in this manager's position where you can, if you want,
194
583162
2836
09:45
triple-check the work.
195
585998
1210
Le résultat qui s’affiche vous permet de vérifier
09:47
And out come citations
196
587208
1501
09:48
so you can actually go
197
588709
1168
09:49
and very easily verify any piece of this whole chain of reasoning.
198
589919
3754
très facilement n’importe quel élément de la chaîne de raisonnement.
09:53
And it actually turns out two months was wrong.
199
593673
2210
Il s’est avéré que deux mois, c’était faux.
09:55
Two months and one week,
200
595883
2169
La bonne réponse est deux mois et une semaine.
09:58
that was correct.
201
598094
1251
10:00
(Applause)
202
600888
3837
(Applaudissements)
10:07
And we'll cut back to the side.
203
607645
1502
Revenons à la présentation.
10:09
And so thing that's so interesting to me about this whole process
204
609147
3920
Ce qui me paraît intéressant dans tout ce processus,
10:13
is that it’s this many-step collaboration between a human and an AI.
205
613067
3962
c’est qu’il s’agit d’une collaboration entre un humain et une IA.
10:17
Because a human, using this fact-checking tool
206
617029
2461
L’humain utilise cet outil de vérification des faits
10:19
is doing it in order to produce data
207
619532
2210
afin de produire des données pour une autre IA
10:21
for another AI to become more useful to a human.
208
621742
3170
afin que celle-ci devienne plus utile à l’humain.
10:25
And I think this really shows the shape of something
209
625454
2545
Je pense qu'il s'agit là d'un exemple
10:28
that we should expect to be much more common in the future,
210
628040
3087
de ce qui devrait être de plus en plus courant à l’avenir :
10:31
where we have humans and machines kind of very carefully
211
631127
2711
les humains et les machines mettent beaucoup de soin et de délicatesse
10:33
and delicately designed in how they fit into a problem
212
633880
3503
dans leur manière de collaborer pour résoudre un problème.
10:37
and how we want to solve that problem.
213
637425
1918
10:39
We make sure that the humans are providing the management, the oversight,
214
639385
3462
Les humains assurent la gestion, la supervision et le feedback,
10:42
the feedback,
215
642847
1168
les machines travaillent d’une manière inspectable et digne de confiance.
10:44
and the machines are operating in a way that's inspectable
216
644015
2752
10:46
and trustworthy.
217
646809
1126
Ensemble, nous sommes en mesure de créer des machines encore plus fiables.
10:47
And together we're able to actually create even more trustworthy machines.
218
647977
3503
Je pense que si on parvient à régler ce processus,
10:51
And I think that over time, if we get this process right,
219
651522
2711
nous serons en mesure de résoudre des problèmes impossibles.
10:54
we will be able to solve impossible problems.
220
654233
2127
Et pour vous donner une idée du degré d’impossibilité dont je parle,
10:56
And to give you a sense of just how impossible I'm talking,
221
656360
3963
11:00
I think we're going to be able to rethink almost every aspect
222
660323
2878
je pense qu’on saura repenser presque tous les aspects
11:03
of how we interact with computers.
223
663242
2378
de la façon d’interagir avec les ordinateurs.
11:05
For example, think about spreadsheets.
224
665620
2502
Pensez par exemple aux tableurs.
11:08
They've been around in some form since, we'll say, 40 years ago with VisiCalc.
225
668122
4379
Ils existent sous une forme ou une autre depuis, disons, 40 ans avec VisiCalc.
11:12
I don't think they've really changed that much in that time.
226
672543
2878
Je ne pense pas qu'ils aient beaucoup changé depuis.
11:16
And here is a specific spreadsheet of all the AI papers on the arXiv
227
676214
5922
Voici un tableur listant tous les articles sur l’IA publiés sur l’arXiv
11:22
for the past 30 years.
228
682178
1168
depuis 30 ans.
11:23
There's about 167,000 of them.
229
683346
1960
Il y en a environ 167 000.
11:25
And you can see there the data right here.
230
685348
2878
Vous pouvez voir les données ici.
11:28
But let me show you the ChatGPT take on how to analyze a data set like this.
231
688267
3837
Mais laissez-moi vous montrer comment ChatGPT analyse cet ensemble de données.
11:37
So we can give ChatGPT access to yet another tool,
232
697318
3837
Nous pouvons donner à ChatGPT l’accès à un autre outil,
11:41
this one a Python interpreter,
233
701197
1460
un interpréteur Python,
11:42
so it’s able to run code, just like a data scientist would.
234
702657
4004
afin qu’il puisse exécuter du code, comme le ferait un data scientist.
11:46
And so you can just literally upload a file
235
706661
2335
Vous pouvez littéralement télécharger un fichier puis poser des questions.
11:48
and ask questions about it.
236
708996
1335
11:50
And very helpfully, you know, it knows the name of the file and it's like,
237
710373
3545
Très pratique, il reconnaît le type de fichier -
11:53
"Oh, this is CSV," comma-separated value file,
238
713960
2419
un CSV, des valeurs séparées par des virgules -
11:56
"I'll parse it for you."
239
716420
1335
et va l’analyser pour vous.
11:57
The only information here is the name of the file,
240
717755
2794
La seule information est le nom du fichier,
12:00
the column names like you saw and then the actual data.
241
720591
3671
le nom des colonnes comme vous l’avez vu et les données elles-mêmes.
12:04
And from that it's able to infer what these columns actually mean.
242
724262
4504
Et de ça, il est capable de déduire ce que ces colonnes signifient réellement.
12:08
Like, that semantic information wasn't in there.
243
728766
2294
Il n’y avait pas d’informations sémantiques.
Elle rassemble sa connaissance du monde :
12:11
It has to sort of, put together its world knowledge of knowing that,
244
731102
3211
« Ah oui, arXiv est un site sur lequel les gens soumettent des articles
12:14
“Oh yeah, arXiv is a site that people submit papers
245
734355
2502
12:16
and therefore that's what these things are and that these are integer values
246
736857
3587
et donc ces valeurs entières sont le nombre d’auteurs dans l’article. »
12:20
and so therefore it's a number of authors in the paper,"
247
740486
2628
Tout cela, c’est du travail pour un humain,
12:23
like all of that, that’s work for a human to do,
248
743114
2252
et l’IA est heureuse d’aider à le faire.
12:25
and the AI is happy to help with it.
249
745408
1751
Maintenant, je ne sais même pas quoi demander.
12:27
Now I don't even know what I want to ask.
250
747159
2002
12:29
So fortunately, you can ask the machine,
251
749203
3003
Heureusement, vous pouvez demander à la machine :
12:32
"Can you make some exploratory graphs?"
252
752248
1877
« Peux-tu faire des graphiques exploratoires ? »
12:37
And once again, this is a super high-level instruction with lots of intent behind it.
253
757461
4004
Là encore, une instruction de haut niveau avec beaucoup d’intentions non dites.
12:41
But I don't even know what I want.
254
761507
1668
J’ignore ce que je veux.
L’IA doit déduire ce qui pourrait m’intéresser.
12:43
And the AI kind of has to infer what I might be interested in.
255
763175
2920
Et elle a trouvé de bonnes idées, je pense.
12:46
And so it comes up with some good ideas, I think.
256
766137
2294
Un diagramme du nombre d’auteurs par article,
12:48
So a histogram of the number of authors per paper,
257
768472
2336
une série chronologique d’articles par année, un nuage de mots des titres.
12:50
time series of papers per year, word cloud of the paper titles.
258
770850
2961
12:53
All of that, I think, will be pretty interesting to see.
259
773853
2627
Tout cela sera très intéressant à voir.
Et ce qui est génial, c’est qu’il peut vraiment le faire.
12:56
And the great thing is, it can actually do it.
260
776522
2169
12:58
Here we go, a nice bell curve.
261
778691
1460
Voici une courbe en cloche : trois est le nombre le plus courant.
13:00
You see that three is kind of the most common.
262
780151
2169
Il va ensuite établir ce joli graphique du nombre d’articles par année.
13:02
It's going to then make this nice plot of the papers per year.
263
782320
5797
13:08
Something crazy is happening in 2023, though.
264
788117
2294
Mais il se passe quelque chose de fou en 2023.
13:10
Looks like we were on an exponential and it dropped off the cliff.
265
790411
3128
C’était une exponentielle et elle s’est effondrée.
Que se passe-t-il ?
13:13
What could be going on there?
266
793539
1460
D'ailleurs, tout ceci est du code Python, vous pouvez l'inspecter.
13:14
By the way, all this is Python code, you can inspect.
267
794999
2753
13:17
And then we'll see word cloud.
268
797752
1459
Passons au nuage de mots.
13:19
So you can see all these wonderful things that appear in these titles.
269
799253
3378
Vous voyez toutes ces choses merveilleuses qui apparaissent dans les titres.
13:23
But I'm pretty unhappy about this 2023 thing.
270
803090
2127
Mais je suis mécontent de la courbe.
13:25
It makes this year look really bad.
271
805634
1711
Cela donne une mauvaise image de 2023.
13:27
Of course, the problem is that the year is not over.
272
807345
2877
Bien sûr, le problème est que l'année n'est pas terminée.
13:30
So I'm going to push back on the machine.
273
810222
2878
Je vais donc challenger la machine.
13:33
[Waitttt that's not fair!!!
274
813142
1585
[Attends, ce n’est pas juste ! L’année 2023 n’est pas terminée.]
13:34
2023 isn't over.
275
814727
1293
13:38
What percentage of papers in 2022 were even posted by April 13?]
276
818481
5088
[Quel est le pourcentage d’articles postés en 2022 avant le 13 avril ?]
13:44
So April 13 was the cut-off date I believe.
277
824695
2294
Le 13 avril était donc la date limite, je crois.
13:47
Can you use that to make a fair projection?
278
827656
4922
[Peux-tu utiliser cette date pour faire une projection juste ?]
13:54
So we'll see, this is the kind of ambitious one.
279
834747
2294
On va voir, la question est ambitieuse.
13:57
(Laughter)
280
837083
1126
(Rires)
13:59
So you know,
281
839877
1251
Vous savez,
14:01
again, I feel like there was more I wanted out of the machine here.
282
841128
3921
encore une fois, j’ai l’impression que j’attendais plus de la machine.
14:05
I really wanted it to notice this thing,
283
845049
2502
Je voulais vraiment qu’elle remarque cette erreur.
14:07
maybe it's a little bit of an overreach for it
284
847593
3128
C’est peut-être un peu exagéré
14:10
to have sort of, inferred magically that this is what I wanted.
285
850763
3378
d’attendre qu’elle déduise par magie que c’était ce que je voulais.
14:14
But I inject my intent,
286
854183
1627
Mais j’ai saisi mon intention,
14:15
I provide this additional piece of, you know, guidance.
287
855810
4754
j’ai fourni cet élément supplémentaire pour l’aider.
14:20
And under the hood,
288
860564
1168
Et sous le capot,
14:21
the AI is just writing code again, so if you want to inspect what it's doing,
289
861774
3629
l’IA écrit à nouveau du code, donc si vous voulez l’inspecter,
14:25
it's very possible.
290
865403
1251
c'est tout à fait possible.
14:26
And now, it does the correct projection.
291
866654
3628
Et maintenant, elle fait la projection correcte.
14:30
(Applause)
292
870282
5005
(Applaudissements)
14:35
If you noticed, it even updates the title.
293
875287
2169
Elle met même à jour le titre.
14:37
I didn't ask for that, but it know what I want.
294
877498
2336
Je ne l’avais pas demandé, mais elle sait ce que je veux.
14:41
Now we'll cut back to the slide again.
295
881794
2544
Nous allons maintenant revenir à la présentation.
14:45
This slide shows a parable of how I think we ...
296
885714
4880
Cette diapositive montre une parabole de la façon dont je pense que nous -
14:51
A vision of how we may end up using this technology in the future.
297
891220
3212
Une vision de la façon dont on pourrait utiliser cette technologie à l’avenir.
14:54
A person brought his very sick dog to the vet,
298
894849
3712
Quelqu’un a amené son chien très malade chez le vétérinaire,
qui a pris la mauvaise décision : « Attendons de voir. »
14:58
and the veterinarian made a bad call to say, “Let’s just wait and see.”
299
898561
3336
15:01
And the dog would not be here today had he listened.
300
901897
2795
Le chien ne serait pas là aujourd’hui si on l’avait écouté.
15:05
In the meanwhile, he provided the blood test,
301
905401
2252
Entre-temps, il a fourni l’analyse de sang,
15:07
like, the full medical records, to GPT-4,
302
907653
2586
le dossier médical complet, à GPT-4,
15:10
which said, "I am not a vet, you need to talk to a professional,
303
910281
3170
qui a dit : « Je ne suis pas vétérinaire, parlez à un professionnel,
15:13
here are some hypotheses."
304
913492
1710
mais voici quelques hypothèses. »
15:15
He brought that information to a second vet
305
915786
2127
Il a transmis cela à un second vétérinaire
15:17
who used it to save the dog's life.
306
917913
1835
qui a utilisé ces informations pour sauver la vie du chien.
15:21
Now, these systems, they're not perfect.
307
921292
2252
Ces systèmes ne sont pas parfaits.
15:23
You cannot overly rely on them.
308
923544
2336
Il ne faut pas trop s'y fier.
15:25
But this story, I think, shows
309
925880
3712
Mais cette histoire, je pense, montre
15:29
that a human with a medical professional
310
929592
3044
qu’un humain avec un professionnel de santé
15:32
and with ChatGPT as a brainstorming partner
311
932678
2461
et ChatGPT comme partenaire de réflexion
15:35
was able to achieve an outcome that would not have happened otherwise.
312
935181
3295
a pu obtenir un résultat qui ne se serait pas produit autrement.
15:38
I think this is something we should all reflect on,
313
938476
2419
Je pense qu’on doit tous y réfléchir
lorsque nous nous demandons comment intégrer ces systèmes dans notre monde.
15:40
think about as we consider how to integrate these systems
314
940895
2711
15:43
into our world.
315
943606
1167
15:44
And one thing I believe really deeply,
316
944815
1835
Je crois profondément
15:46
is that getting AI right is going to require participation from everyone.
317
946650
4338
que le bon usage de l’IA nécessitera la participation de tous.
15:50
And that's for deciding how we want it to slot in,
318
950988
2377
Il faut décider comment on veut qu’elle s’intègre,
15:53
that's for setting the rules of the road,
319
953365
1961
une sorte de code de la route qui dira ce qu’une IA fera et ne fera pas.
15:55
for what an AI will and won't do.
320
955367
2044
15:57
And if there's one thing to take away from this talk,
321
957453
2502
S’il y a une chose à retenir de ma conférence,
15:59
it's that this technology just looks different.
322
959997
2211
c’est que cette technologie est différente.
16:02
Just different from anything people had anticipated.
323
962208
2502
Différente de tout ce que les gens avaient prévu.
16:04
And so we all have to become literate.
324
964710
1835
Nous devons donc tous nous informer.
16:06
And that's, honestly, one of the reasons we released ChatGPT.
325
966587
2961
Honnêtement, c’est pourquoi nous avons lancé ChatGPT.
16:09
Together, I believe that we can achieve the OpenAI mission
326
969548
3128
Ensemble, je pense que nous pouvons réaliser la mission d’OpenAI,
16:12
of ensuring that artificial general intelligence
327
972718
2252
qui est de veiller à ce que l’IA générale profite à l’ensemble de l’humanité.
16:14
benefits all of humanity.
328
974970
1877
16:16
Thank you.
329
976847
1168
Je vous remercie.
16:18
(Applause)
330
978057
6965
(Applaudissements)
(Fin des applaudissements)
16:33
(Applause ends)
331
993322
1168
16:34
Chris Anderson: Greg.
332
994532
1334
Chris Anderson : Greg.
16:36
Wow.
333
996242
1167
Waouh !
16:37
I mean ...
334
997868
1126
Je veux dire...
16:39
I suspect that within every mind out here
335
999662
3753
Je soupçonne que chacun ici présent est en proie à un sentiment d’ébranlement,
16:43
there's a feeling of reeling.
336
1003457
2503
16:46
Like, I suspect that a very large number of people viewing this,
337
1006001
3379
qu’un très grand nombre de spectateurs
16:49
you look at that and you think, “Oh my goodness,
338
1009421
2419
se disent : « Oh mon Dieu,
16:51
pretty much every single thing about the way I work, I need to rethink."
339
1011882
3462
je dois repenser à peu près tout ce qui concerne ma façon de travailler. »
16:55
Like, there's just new possibilities there.
340
1015386
2002
Ce sont de nouvelles possibilités.
16:57
Am I right?
341
1017388
1168
Qui pense qu’il doit repenser sa façon de faire les choses ?
16:58
Who thinks that they're having to rethink the way that we do things?
342
1018597
3337
17:01
Yeah, I mean, it's amazing,
343
1021976
1543
Oui, c'est incroyable,
17:03
but it's also really scary.
344
1023561
2002
mais c'est aussi très effrayant.
17:05
So let's talk, Greg, let's talk.
345
1025604
1585
Alors parlons-en, Greg, parlons-en.
17:08
I mean, I guess my first question actually is just
346
1028524
2377
Ma première question est : comment vous avez fait ça ?
17:10
how the hell have you done this?
347
1030901
1585
(Rires)
17:12
(Laughter)
348
1032486
1251
17:13
OpenAI has a few hundred employees.
349
1033737
2962
OpenAI compte quelques centaines d'employés.
17:16
Google has thousands of employees working on artificial intelligence.
350
1036740
4755
Google a des milliers d’employés qui travaillent sur l’IA.
17:21
Why is it you who's come up with this technology
351
1041996
3503
Pourquoi est-ce vous qui êtes à l’origine de cette technologie
17:25
that shocked the world?
352
1045541
1168
qui a choqué le monde ?
17:26
Greg Brockman: I mean, the truth is,
353
1046709
1751
Greg Brockman : On est tous juchés sur les épaules de géants.
17:28
we're all building on shoulders of giants, right, there's no question.
354
1048502
3295
Les progrès du calcul, de l’algorithmie, des données,
17:31
If you look at the compute progress,
355
1051797
1752
c’est vrai dans toute l’industrie.
17:33
the algorithmic progress, the data progress,
356
1053549
2085
17:35
all of those are really industry-wide.
357
1055634
1835
Mais au sein d’OpenAI,
nous avons fait des choix délibérés dès les premiers jours.
17:37
But I think within OpenAI,
358
1057469
1252
17:38
we made a lot of very deliberate choices from the early days.
359
1058762
2878
Le premier a été de faire face à la réalité telle qu’elle se présente.
17:41
And the first one was just to confront reality as it lays.
360
1061640
2711
Nous avons réfléchi très sérieusement à des questions comme :
17:44
And that we just thought really hard about like:
361
1064393
2294
17:46
What is it going to take to make progress here?
362
1066687
2210
« Que faut-il faire pour progresser ? »
17:48
We tried a lot of things that didn't work, so you only see the things that did.
363
1068939
3754
Beaucoup de choses n’ont pas fonctionné, vous voyez le reste.
La chose la plus importante a été de réunir
17:52
And I think that the most important thing has been to get teams of people
364
1072693
3462
des personnes très différentes et de les faire travailler de manière harmonieuse.
17:56
who are very different from each other to work together harmoniously.
365
1076196
3254
17:59
CA: Can we have the water, by the way, just brought here?
366
1079450
2711
CA : Pourrions-nous avoir de l’eau ?
Je pense que nous allons en avoir besoin.
18:02
I think we're going to need it, it's a dry-mouth topic.
367
1082202
3170
18:06
But isn't there something also just about the fact
368
1086665
2795
Mais n’y a-t-il pas aussi quelque chose dans le fait
18:09
that you saw something in these language models
369
1089501
4755
que vous ayez vu quelque chose dans ces modèles linguistiques
18:14
that meant that if you continue to invest in them and grow them,
370
1094256
3921
qui a permis en continuant à investir dans ces modèles et à les développer,
18:18
that something at some point might emerge?
371
1098218
3129
Que quelque chose puisse émerger à un moment ou à un autre ?
18:21
GB: Yes.
372
1101847
1126
GB : Oui.
18:23
And I think that, I mean, honestly,
373
1103015
2836
Et honnêtement, je pense que l’histoire est assez édifiante.
18:25
I think the story there is pretty illustrative, right?
374
1105893
2544
L’apprentissage profond de haut niveau, comme nous savions ce que nous voulions,
18:28
I think that high level, deep learning,
375
1108437
2002
18:30
like we always knew that was what we wanted to be,
376
1110481
2335
c’était une expé.
18:32
was a deep learning lab, and exactly how to do it?
377
1112858
2419
Comment le faire exactement ?
Je pense qu'au début, nous ne le savions pas.
18:35
I think that in the early days, we didn't know.
378
1115277
2211
On a essayé plein de choses,
18:37
We tried a lot of things,
379
1117529
1210
Une personne travaillait sur l’entraînement d’un modèle
18:38
and one person was working on training a model
380
1118739
2336
18:41
to predict the next character in Amazon reviews,
381
1121075
2877
prédisant la lettre suivante dans les commentaires d’Amazon,
18:43
and he got a result where -- this is a syntactic process,
382
1123994
4755
et il a obtenu un résultat - c’est un processus syntaxique,
18:48
you expect, you know, the model will predict where the commas go,
383
1128749
3086
le modèle va prédire où vont les virgules,
18:51
where the nouns and verbs are.
384
1131835
1627
où sont les noms et les verbes.
18:53
But he actually got a state-of-the-art sentiment analysis classifier out of it.
385
1133504
4337
Mais il a en fait obtenu un logiciel d’analyse de sentiment.
18:57
This model could tell you if a review was positive or negative.
386
1137883
2961
Il pouvait dire si une critique était positive ou négative.
19:00
I mean, today we are just like, come on, anyone can do that.
387
1140886
3378
Aujourd’hui, tout le monde sait faire cela.
19:04
But this was the first time that you saw this emergence,
388
1144306
3087
Mais c’était la première fois que l’on voyait cette émergence,
19:07
this sort of semantics that emerged from this underlying syntactic process.
389
1147434
5005
cette sorte de sémantique qui émergeait de ce processus syntaxique sous-jacent.
19:12
And there we knew, you've got to scale this thing,
390
1152481
2336
On savait qu’il fallait passer à l’échelle, voir où ça allait.
19:14
you've got to see where it goes.
391
1154858
1544
CA : Cela permet d’expliquer
19:16
CA: So I think this helps explain
392
1156402
1626
l’énigme qui déconcerte ceux qui s’y intéressent.
19:18
the riddle that baffles everyone looking at this,
393
1158028
2544
Car ces objets sont décrits comme des machines à prédire.
19:20
because these things are described as prediction machines.
394
1160572
2753
Et pourtant, ce qui en sort donne l’impression...
19:23
And yet, what we're seeing out of them feels ...
395
1163367
2669
19:26
it just feels impossible that that could come from a prediction machine.
396
1166036
3420
Il semble impossible que cela vienne d’une machine à prédire,
19:29
Just the stuff you showed us just now.
397
1169456
2378
ce que vous nous avez montré tout à l’heure.
19:31
And the key idea of emergence is that when you get more of a thing,
398
1171875
3838
L’idée clé de l’émergence est que si on pousse le modèle encore plus loin,
19:35
suddenly different things emerge.
399
1175754
1585
quelque chose émerge.
On voit ça chez les fourmis : elles courent partout,
19:37
It happens all the time, ant colonies, single ants run around,
400
1177339
3045
mais lorsqu’on en réunit assez,
19:40
when you bring enough of them together,
401
1180384
1877
19:42
you get these ant colonies that show completely emergent, different behavior.
402
1182302
3629
on obtient un comportement émergent complètement différent.
19:45
Or a city where a few houses together, it's just houses together.
403
1185973
3086
Comme une ville où on n’a que quelques maisons au départ.
Mais plus le nombre augmente, des choses émergent,
19:49
But as you grow the number of houses,
404
1189059
1794
19:50
things emerge, like suburbs and cultural centers and traffic jams.
405
1190894
4588
comme des banlieues, des centres culturels et des embouteillages.
19:57
Give me one moment for you when you saw just something pop
406
1197276
3211
Racontez-nous quand vous avez vu surgir quelque chose
20:00
that just blew your mind
407
1200529
1668
qui vous a époustouflé
20:02
that you just did not see coming.
408
1202197
1627
et que vous n'aviez pas vu venir.
20:03
GB: Yeah, well,
409
1203824
1209
GB : Oui, eh bien...
20:05
so you can try this in ChatGPT, if you add 40-digit numbers --
410
1205075
3462
Essayez ceci dans ChatGPT : additionnez des nombres de 40 chiffres -
20:08
CA: 40-digit?
411
1208537
1168
CA : 40 chiffres ? GB : Oui.
20:09
GB: 40-digit numbers, the model will do it,
412
1209705
2169
Il saura le faire, ce qui signifie qu’il l’a appris.
20:11
which means it's really learned an internal circuit for how to do it.
413
1211915
3254
20:15
And the really interesting thing is actually,
414
1215210
2127
Mais si on lui demande d’additionner un nombre à 40 chiffres et un nombre à 35,
20:17
if you have it add like a 40-digit number plus a 35-digit number,
415
1217337
3212
20:20
it'll often get it wrong.
416
1220591
1710
il se trompe souvent.
20:22
And so you can see that it's really learning the process,
417
1222676
2795
Vous pouvez donc voir qu'il apprend vraiment le processus,
20:25
but it hasn't fully generalized, right?
418
1225471
1876
mais qu’il ne l’a pas généralisé.
20:27
It's like you can't memorize the 40-digit addition table,
419
1227389
2711
On ne peut pas retenir cette table - c’est plus qu’il n’y a d’atomes dans l’univers.
20:30
that's more atoms than there are in the universe.
420
1230100
2294
Il a donc appris quelque chose de général,
20:32
So it had to have learned something general,
421
1232394
2086
mais pas encore totalement appris
20:34
but that it hasn't really fully yet learned that,
422
1234480
2377
20:36
Oh, I can sort of generalize this to adding arbitrary numbers
423
1236899
2961
qu’il peut généraliser cela à l’addition de nombres arbitraires
20:39
of arbitrary lengths.
424
1239902
1167
de longueurs arbitraires.
CA : Vous lui avez permis de prendre une autre dimension
20:41
CA: So what's happened here
425
1241111
1335
20:42
is that you've allowed it to scale up
426
1242488
1793
20:44
and look at an incredible number of pieces of text.
427
1244281
2419
et d’ingurgiter un nombre incroyable de textes.
20:46
And it is learning things
428
1246742
1209
Et il apprend des choses
20:47
that you didn't know that it was going to be capable of learning.
429
1247951
3379
que vous ne le pensiez pas capable d’apprendre.
20:51
GB Well, yeah, and it’s more nuanced, too.
430
1251371
2002
GB Oui, mais c’est aussi plus nuancé.
20:53
So one science that we’re starting to really get good at
431
1253415
2878
Une science dans laquelle on commence à être vraiment bons,
20:56
is predicting some of these emergent capabilities.
432
1256335
2586
c’est prédire certaines de ces capacités émergentes.
20:58
And to do that actually,
433
1258962
1335
Et pour ce faire, une des choses très sous-estimées dans ce domaine,
21:00
one of the things I think is very undersung in this field
434
1260339
2711
c'est la qualité de l'ingénierie.
21:03
is sort of engineering quality.
435
1263050
1501
21:04
Like, we had to rebuild our entire stack.
436
1264551
2044
Nous avons dû reprogrammer presque tout.
21:06
When you think about building a rocket,
437
1266637
1877
Dans la construction d'une fusée,
21:08
every tolerance has to be incredibly tiny.
438
1268555
2211
les tolérances sont incroyablement faibles.
21:10
Same is true in machine learning.
439
1270766
1626
C’est pareil en apprentissage automatique, chaque programme doit être bien conçu
21:12
You have to get every single piece of the stack engineered properly,
440
1272434
3212
21:15
and then you can start doing these predictions.
441
1275646
2210
pour pouvoir commencer à prédire.
21:17
There are all these incredibly smooth scaling curves.
442
1277856
2503
Il existe des abaques incroyablement précis
qui renseignent sur cet aspect fondamental de l’intelligence.
21:20
They tell you something deeply fundamental about intelligence.
443
1280359
2919
Lisez notre blog sur GPT-4, vous y verrez toutes ces courbes.
21:23
If you look at our GPT-4 blog post,
444
1283320
1710
21:25
you can see all of these curves in there.
445
1285030
1960
21:26
And now we're starting to be able to predict.
446
1286990
2127
Et maintenant, on commence à prédire.
Par exemple, la performance sur les problèmes de codage.
21:29
So we were able to predict, for example, the performance on coding problems.
447
1289117
3713
21:32
We basically look at some models
448
1292871
1585
Nous examinons des modèles 10 000 ou 1 000 fois plus petits.
21:34
that are 10,000 times or 1,000 times smaller.
449
1294456
2461
21:36
And so there's something about this that is actually smooth scaling,
450
1296959
3211
On a donc un passage à l’échelle en douceur,
même si nous n’en sommes qu’aux balbutiements.
21:40
even though it's still early days.
451
1300170
2044
21:42
CA: So here is, one of the big fears then,
452
1302756
2544
CA : Voici l’une des grandes craintes que cela suscite.
21:45
that arises from this.
453
1305300
1252
21:46
If it’s fundamental to what’s happening here,
454
1306593
2127
S’il est clair qu’à mesure que vous développez ce modèle,
21:48
that as you scale up,
455
1308720
1210
21:49
things emerge that
456
1309930
2419
émergent des choses
21:52
you can maybe predict in some level of confidence,
457
1312349
4171
que vous pouvez peut-être prédire avec un certain niveau de confiance,
21:56
but it's capable of surprising you.
458
1316562
2544
mais qui sont capables de vous surprendre.
22:00
Why isn't there just a huge risk of something truly terrible emerging?
459
1320816
4463
Quel est le risque de voir émerger quelque chose de vraiment terrible ?
22:05
GB: Well, I think all of these are questions of degree
460
1325320
2545
GB : Tout est une question de degré, d’échelle et de timing.
22:07
and scale and timing.
461
1327865
1209
Une chose échappe aux gens :
22:09
And I think one thing people miss, too,
462
1329116
1877
l’intégration avec le monde est aussi incroyablement émergente,
22:10
is sort of the integration with the world is also this incredibly emergent,
463
1330993
3587
mais également très puissante.
22:14
sort of, very powerful thing too.
464
1334621
1585
C’est pourquoi il est si important de le déployer progressivement.
22:16
And so that's one of the reasons that we think it's so important
465
1336248
3045
22:19
to deploy incrementally.
466
1339293
1167
C’est ce que j’ai dit juste avant :
22:20
And so I think that what we kind of see right now, if you look at this talk,
467
1340502
3629
je mets tous mes efforts à obtenir un feedback de haute qualité.
22:24
a lot of what I focus on is providing really high-quality feedback.
468
1344131
3170
Les tâches qui sont effectuées peuvent être inspectées.
22:27
Today, the tasks that we do, you can inspect them, right?
469
1347301
2711
Comme pour le problème de maths, on sait dire :
22:30
It's very easy to look at that math problem and be like, no, no, no,
470
1350012
3211
« Non, non, machine, sept était la bonne réponse. »
22:33
machine, seven was the correct answer.
471
1353265
1835
Même résumer un livre est difficile à superviser.
22:35
But even summarizing a book, like, that's a hard thing to supervise.
472
1355100
3212
Comment savoir s’il est bon ? Il faut le lire en entier.
22:38
Like, how do you know if this book summary is any good?
473
1358312
2586
22:40
You have to read the whole book.
474
1360939
1543
Personne ne veut le faire.
22:42
No one wants to do that.
475
1362482
1168
(Rires)
22:43
(Laughter)
476
1363692
1293
22:44
And so I think that the important thing will be that we take this step by step.
477
1364985
4296
Il est donc important de procéder étape par étape.
22:49
And that we say, OK, as we move on to book summaries,
478
1369323
2544
Et nous décidons de passer aux résumés de livres,
22:51
we have to supervise this task properly.
479
1371867
1960
nous devons le superviser correctement.
22:53
We have to build up a track record with these machines
480
1373827
2586
Nous devons conserver la trace de ce qu’elles font
22:56
that they're able to actually carry out our intent.
481
1376413
2586
pour vérifier qu’elles peuvent réaliser nos objectifs.
22:59
And I think we're going to have to produce even better, more efficient,
482
1379041
3336
Nous devons trouver des façons encore meilleures, plus efficaces,
23:02
more reliable ways of scaling this,
483
1382419
1710
plus fiables pour passer à l’échelle,
23:04
sort of like making the machine be aligned with you.
484
1384129
2878
pour que la machine s’aligne sur vous.
23:07
CA: So we're going to hear later in this session,
485
1387049
2294
CA : Nous entendrons plus tard des critiques qui disent
23:09
there are critics who say that,
486
1389343
1543
23:10
you know, there's no real understanding inside,
487
1390928
4587
qu’il n’y a pas de véritable compréhension,
23:15
the system is going to always --
488
1395557
1627
que le système va toujours -
23:17
we're never going to know that it's not generating errors,
489
1397225
3212
que nous n’allons jamais savoir s’il ne génère pas d’erreurs,
23:20
that it doesn't have common sense and so forth.
490
1400479
2210
qu’il n’a pas de bon sens, etc.
23:22
Is it your belief, Greg, that it is true at any one moment,
491
1402689
4088
Pensez-vous, Greg - c’est vrai à un moment donné -
23:26
but that the expansion of the scale and the human feedback
492
1406818
3629
que le passage à l’échelle et le feedback humain dont vous avez parlé
23:30
that you talked about is basically going to take it on that journey
493
1410489
4963
vont fondamentalement l’emmener sur le chemin
23:35
of actually getting to things like truth and wisdom and so forth,
494
1415494
3837
de la vérité, de la sagesse, etc.,
23:39
with a high degree of confidence.
495
1419331
1627
avec un haut degré de confiance.
23:40
Can you be sure of that?
496
1420999
1335
Pouvez-vous en être sûr ?
23:42
GB: Yeah, well, I think that the OpenAI, I mean, the short answer is yes,
497
1422334
3462
GB : Je pense qu’OpenAI - La réponse courte est oui.
23:45
I believe that is where we're headed.
498
1425796
1793
Je crois qu’on se dirige vers ça.
23:47
And I think that the OpenAI approach here has always been just like,
499
1427631
3211
L’approche d’OpenAI a toujours été de nous confronter à la réalité.
23:50
let reality hit you in the face, right?
500
1430842
1877
23:52
It's like this field is the field of broken promises,
501
1432719
2503
Ce domaine est celui des promesses non tenues,
des experts qui prédisent une chose, alors qu’une autre arrive.
23:55
of all these experts saying X is going to happen, Y is how it works.
502
1435263
3212
On dit depuis 70 ans que les réseaux neuronaux ne fonctionnent pas - exact.
23:58
People have been saying neural nets aren't going to work for 70 years.
503
1438475
3337
24:01
They haven't been right yet.
504
1441812
1376
Peut-être qu’il faut encore attendre un an de plus.
24:03
They might be right maybe 70 years plus one
505
1443188
2044
24:05
or something like that is what you need.
506
1445232
1918
Mais notre approche, c’est :
24:07
But I think that our approach has always been,
507
1447192
2169
pour voir vraiment une technologie à l’œuvre, il faut en repousser les limites
24:09
you've got to push to the limits of this technology
508
1449361
2419
car c'est ainsi que l'on peut passer à un nouveau paradigme.
24:11
to really see it in action,
509
1451822
1293
24:13
because that tells you then, oh, here's how we can move on to a new paradigm.
510
1453115
3670
On n’en a pas encore exploré toutes les possibilités.
24:16
And we just haven't exhausted the fruit here.
511
1456785
2127
CA : Vous avez adopté une position controversée,
24:18
CA: I mean, it's quite a controversial stance you've taken,
512
1458954
2794
dire que la bonne façon de faire est de la rendre publique
24:21
that the right way to do this is to put it out there in public
513
1461748
2920
et de l’exploiter.
24:24
and then harness all this, you know,
514
1464710
1751
Au lieu que ce soit votre équipe,
24:26
instead of just your team giving feedback,
515
1466461
2002
24:28
the world is now giving feedback.
516
1468463
2461
c’est le monde entier qui donne un feedback.
24:30
But ...
517
1470924
1168
Mais,
24:33
If, you know, bad things are going to emerge,
518
1473135
3753
si de mauvaises choses doivent émerger, c’est trop tard.
24:36
it is out there.
519
1476930
1168
L’histoire originale que j’ai entendue sur OpenAI,
24:38
So, you know, the original story that I heard on OpenAI
520
1478140
2919
24:41
when you were founded as a nonprofit,
521
1481101
1793
fondée sans but non lucratif,
24:42
well you were there as the great sort of check on the big companies
522
1482894
4463
était que vous serviriez de contrôle sur les grandes entreprises
24:47
doing their unknown, possibly evil thing with AI.
523
1487399
3837
qui faisaient des choses inconnues, et peut-être maléfiques, avec l’IA.
24:51
And you were going to build models that sort of, you know,
524
1491278
4755
Vous alliez construire des modèles qui leur demanderaient des comptes
24:56
somehow held them accountable
525
1496033
1418
24:57
and was capable of slowing the field down, if need be.
526
1497492
4380
et seraient capables de freiner l’IA, si nécessaire.
25:01
Or at least that's kind of what I heard.
527
1501872
1960
C’est ce que j’ai entendu.
25:03
And yet, what's happened, arguably, is the opposite.
528
1503832
2461
Et pourtant, ce qui s’est passé, c’est le contraire.
25:06
That your release of GPT, especially ChatGPT,
529
1506334
5673
Votre lancement de GPT, et en particulier de ChatGPT,
25:12
sent such shockwaves through the tech world
530
1512049
2002
a provoqué une telle onde de choc
25:14
that now Google and Meta and so forth are all scrambling to catch up.
531
1514051
3795
que Google, Meta et d’autres essaient frénétiquement de rattraper leur retard.
25:17
And some of their criticisms have been,
532
1517888
2085
Certaines de leurs critiques ont été que
25:20
you are forcing us to put this out here without proper guardrails or we die.
533
1520015
4963
vous les forcez à sortir cela sans garde-fous appropriés, sinon ils meurent.
25:25
You know, how do you, like,
534
1525020
2794
Comment faites-vous pour démontrer
25:27
make the case that what you have done is responsible here and not reckless.
535
1527814
3754
que ce que vous avez fait est responsable et pas irréfléchi ?
25:31
GB: Yeah, we think about these questions all the time.
536
1531568
3128
GB : Nous réfléchissons à ces questions tout le temps.
25:34
Like, seriously all the time.
537
1534738
1418
Sérieusement, tout le temps.
25:36
And I don't think we're always going to get it right.
538
1536198
2711
Je ne pense pas que nous ayons toujours raison.
25:38
But one thing I think has been incredibly important,
539
1538909
2460
Mais une chose a été extrêmement importante,
depuis le début, quand on cherchait comment construire
25:41
from the very beginning, when we were thinking
540
1541411
2169
25:43
about how to build artificial general intelligence,
541
1543580
2419
une IA générale qui servirait à toute l’humanité.
25:45
actually have it benefit all of humanity,
542
1545999
2002
Comment est-on censé faire cela ?
25:48
like, how are you supposed to do that, right?
543
1548001
2127
D’ordinaire, on construit en secret,
25:50
And that default plan of being, well, you build in secret,
544
1550170
2711
on obtient cette chose super-puissante,
25:52
you get this super powerful thing,
545
1552923
1626
on en détermine la sécurité et on appuie sur « Go »
25:54
and then you figure out the safety of it and then you push “go,”
546
1554549
3003
en espérant que tout aille bien.
25:57
and you hope you got it right.
547
1557552
1460
Je ne sais pas comment faire ça, peut-être quelqu’un le sait.
25:59
I don't know how to execute that plan.
548
1559012
1835
26:00
Maybe someone else does.
549
1560889
1168
Mais pour moi, c’était terrifiant, ça ne m’allait pas.
26:02
But for me, that was always terrifying, it didn't feel right.
550
1562099
2877
C'est pourquoi je pense que cette approche alternative
26:04
And so I think that this alternative approach
551
1564976
2128
est la seule voie que je voie :
26:07
is the only other path that I see,
552
1567104
2043
il faut se confronter à la réalité.
26:09
which is that you do let reality hit you in the face.
553
1569147
2503
26:11
And I think you do give people time to give input.
554
1571691
2336
Il faut laisser aux gens le temps de donner leur avis.
26:14
You do have, before these machines are perfect,
555
1574027
2211
Avant que ces machines soient parfaites, qu’elles soient super-puissantes,
26:16
before they are super powerful, that you actually have the ability
556
1576279
3128
vous devez pouvoir les voir à l’œuvre.
26:19
to see them in action.
557
1579407
1168
26:20
And we've seen it from GPT-3, right?
558
1580617
1752
On l’a vu avec GPT-3, non ?
Avec GPT-3, nous craignions vraiment
26:22
GPT-3, we really were afraid
559
1582369
1376
26:23
that the number one thing people were going to do with it
560
1583745
2711
que les gens s’en servent en premier
pour générer de la désinformation pour influencer des élections.
26:26
was generate misinformation, try to tip elections.
561
1586456
2336
26:28
Instead, the number one thing was generating Viagra spam.
562
1588834
2711
Et non, en premier, ils ont généré des spams pour le Viagra.
26:31
(Laughter)
563
1591545
3169
(Rires)
26:36
CA: So Viagra spam is bad, but there are things that are much worse.
564
1596007
3212
CA : Ça, c’est mal, mais il y a bien pire.
Voici une expérience de pensée pour vous.
26:39
Here's a thought experiment for you.
565
1599219
1752
26:40
Suppose you're sitting in a room,
566
1600971
1710
Supposons que vous soyez dans une pièce avec une boîte sur une table.
26:42
there's a box on the table.
567
1602681
1668
26:44
You believe that in that box is something that,
568
1604349
3003
Vous pensez que dans cette boîte se trouve une chose
26:47
there's a very strong chance it's something absolutely glorious
569
1607394
2961
qui a de fortes chances d’être absolument glorieuse,
26:50
that's going to give beautiful gifts to your family and to everyone.
570
1610397
3920
qui va offrir de beaux cadeaux à votre famille et à tout le monde.
26:54
But there's actually also a one percent thing in the small print there
571
1614359
3629
Mais il est inscrit en tout petits caractères : « Pandore ».
26:58
that says: “Pandora.”
572
1618029
1877
26:59
And there's a chance
573
1619906
1669
Il y a une possibilité
27:01
that this actually could unleash unimaginable evils on the world.
574
1621616
4088
que cela puisse lâcher des maux inimaginables sur le monde.
27:06
Do you open that box?
575
1626538
1543
Ouvrez-vous cette boîte ?
27:08
GB: Well, so, absolutely not.
576
1628123
1460
GB : Absolument pas.
27:09
I think you don't do it that way.
577
1629624
1919
Je pense qu’il ne faut pas procéder ainsi.
27:12
And honestly, like, I'll tell you a story that I haven't actually told before,
578
1632210
3796
Et honnêtement -
Je vais vous raconter une histoire que je n’ai jamais racontée.
27:16
which is that shortly after we started OpenAI,
579
1636006
2586
Peu après la création d’OpenAI,
27:18
I remember I was in Puerto Rico for an AI conference.
580
1638592
2711
j’étais à Porto Rico pour une conférence sur l’IA.
27:21
I'm sitting in the hotel room just looking out over this wonderful water,
581
1641344
3462
J’étais dans ma chambre,
je regardais cette mer magnifique, tous ces gens qui s’amusaient.
27:24
all these people having a good time.
582
1644806
1752
Pensez-y un instant, si vous pouviez choisir
27:26
And you think about it for a moment,
583
1646558
1752
27:28
if you could choose for basically that Pandora’s box
584
1648310
4504
d’ouvrir cette boîte de Pandore,
27:32
to be five years away
585
1652814
2711
soit dans cinq ans, soit dans 500 ans,
27:35
or 500 years away,
586
1655567
1585
27:37
which would you pick, right?
587
1657194
1501
que choisiriez-vous ?
27:38
On the one hand you're like, well, maybe for you personally,
588
1658737
2836
D’un côté, on se dit que pour soi, il vaut mieux peut-être que ce soit dans cinq ans.
27:41
it's better to have it be five years away.
589
1661573
2002
27:43
But if it gets to be 500 years away and people get more time to get it right,
590
1663617
3628
Mais 500 ans, c’est mieux pour bien faire les choses,
que choisissez-vous ?
27:47
which do you pick?
591
1667287
1168
À cet instant-là, c’était clair :
27:48
And you know, I just really felt it in the moment.
592
1668496
2336
« Bien sûr que je choisis les 500 ans. »
27:50
I was like, of course you do the 500 years.
593
1670874
2002
Mon frère était dans l'armée à l'époque
27:53
My brother was in the military at the time
594
1673293
2002
27:55
and like, he puts his life on the line in a much more real way
595
1675295
2961
et il a risqué sa vie d'une manière bien plus réelle
27:58
than any of us typing things in computers
596
1678256
2628
que n’importe qui devant un ordinateur en train de développer une IA.
28:00
and developing this technology at the time.
597
1680926
2585
28:03
And so, yeah, I'm really sold on the you've got to approach this right.
598
1683511
4547
Donc, oui, je suis convaincu qu’il faut aborder les choses correctement.
28:08
But I don't think that's quite playing the field as it truly lies.
599
1688058
3628
Mais je ne pense pas pour autant que le problème soit celui-là.
28:11
Like, if you look at the whole history of computing,
600
1691686
2670
Si vous regardez l’histoire de l’informatique -
28:14
I really mean it when I say that this is an industry-wide
601
1694397
4463
je le pense vraiment - il s’agit d’un bouleversement de l’industrie
28:18
or even just almost like
602
1698902
1543
voire d’un changement technologique à l’échelle du développement humain.
28:20
a human-development- of-technology-wide shift.
603
1700487
3336
28:23
And the more that you sort of, don't put together the pieces
604
1703865
4088
Si on retarde le moment pour assembler les pièces du puzzle -
28:27
that are there, right,
605
1707994
1293
tout est là : les ordinateurs sont toujours plus rapides,
28:29
we're still making faster computers,
606
1709329
1752
les algorithmes s’améliorent, tout ça est en train d’arriver -
28:31
we're still improving the algorithms, all of these things, they are happening.
607
1711081
3670
28:34
And if you don't put them together, you get an overhang,
608
1714793
2627
on risque d’être mis un jour devant le fait accompli.
Donc, si quelqu’un le fait,
28:37
which means that if someone does,
609
1717420
1627
si quelqu’un parvient à tout assembler,
28:39
or the moment that someone does manage to connect to the circuit,
610
1719089
3086
on se retrouvera avec cette chose très puissante,
28:42
then you suddenly have this very powerful thing,
611
1722175
2252
personne n’aura pu s’adapter,
28:44
no one's had any time to adjust,
612
1724427
1544
et qui sait quels garde-fous seront en place.
28:46
who knows what kind of safety precautions you get.
613
1726012
2336
28:48
And so I think that one thing I take away
614
1728390
1918
Ce que je retiens de tout ça -
28:50
is like, even you think about development of other sort of technologies,
615
1730308
3837
Si on regarde d’autres technologies, comme les armes nucléaires,
28:54
think about nuclear weapons,
616
1734187
1376
28:55
people talk about being like a zero to one,
617
1735563
2002
on passe instantanément de zéro à un potentiel infini.
28:57
sort of, change in what humans could do.
618
1737565
2628
29:00
But I actually think that if you look at capability,
619
1740235
2461
Mais si on examine les capacités,
29:02
it's been quite smooth over time.
620
1742696
1585
elles ont évolué progressivement au fil du temps.
29:04
And so the history, I think, of every technology we've developed
621
1744281
3670
L’histoire de toutes les technologies qu’on a développées, c’est :
29:07
has been, you've got to do it incrementally
622
1747993
2002
procédons par étapes et trouvons le moyen de les gérer
29:10
and you've got to figure out how to manage it
623
1750036
2127
à chaque fois qu’on augmente leurs capacités.
29:12
for each moment that you're increasing it.
624
1752163
2461
29:14
CA: So what I'm hearing is that you ...
625
1754666
2252
CA : Ce que j’entends, c’est que vous -
29:16
the model you want us to have
626
1756918
1668
Le modèle que vous voulez voir adopté,
29:18
is that we have birthed this extraordinary child
627
1758628
2795
c’est que nous avons créé cet enfant extraordinaire
29:21
that may have superpowers
628
1761423
2544
qui pourrait avoir des super-pouvoirs
29:24
that take humanity to a whole new place.
629
1764009
2544
qui amèneraient l’humanité dans une nouvelle phase.
29:26
It is our collective responsibility to provide the guardrails
630
1766594
5005
Il est de notre responsabilité collective de fournir les garde-fous
29:31
for this child
631
1771641
1210
à cet enfant
29:32
to collectively teach it to be wise and not to tear us all down.
632
1772892
5047
pour lui apprendre à être sage et à ne pas nous anéantir.
29:37
Is that basically the model?
633
1777939
1377
C’est ça, votre modèle ?
29:39
GB: I think it's true.
634
1779357
1168
GB : Je pense que oui.
29:40
And I think it's also important to say this may shift, right?
635
1780567
2878
Mais il est important de dire qu’il peut aussi changer.
29:43
We've got to take each step as we encounter it.
636
1783445
3253
Nous devons avancer étape par étape.
29:46
And I think it's incredibly important today
637
1786740
2002
Il est extrêmement important aujourd’hui
29:48
that we all do get literate in this technology,
638
1788783
2878
de tous se familiariser avec cette technologie,
29:51
figure out how to provide the feedback,
639
1791661
1919
de savoir donner un feedback et de décider quoi en faire.
29:53
decide what we want from it.
640
1793621
1377
29:54
And my hope is that that will continue to be the best path,
641
1794998
3128
J’espère que cela continuera à être la bonne voie,
mais c’est bien que nous ayons ce débat,
29:58
but it's so good we're honestly having this debate
642
1798168
2377
30:00
because we wouldn't otherwise if it weren't out there.
643
1800545
2628
parce que nous ne l’aurions pas si on n’avait pas publié ChatGPT.
30:03
CA: Greg Brockman, thank you so much for coming to TED and blowing our minds.
644
1803631
3629
CA : Greg, merci beaucoup d’être venu à TED et de nous avoir époustouflés.
30:07
(Applause)
645
1807302
1626
(Applaudissements)
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7