Why AI Is Incredibly Smart and Shockingly Stupid | Yejin Choi | TED

383,445 views ・ 2023-04-28

TED


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

Traducteur: Amina Batsola Relecteur: Elisabeth Buffard
00:03
So I'm excited to share a few spicy thoughts on artificial intelligence.
0
3708
6257
Je suis ravie de partager mes rĂ©flexions sur l’intelligence artificielle.
00:10
But first, let's get philosophical
1
10799
3044
Mais tout d’abord, plongeons dans la philosophie
00:13
by starting with this quote by Voltaire,
2
13843
2545
en commençant par cette citation de Voltaire,
00:16
an 18th century Enlightenment philosopher,
3
16388
2252
un philosophe des LumiĂšres du 18e siĂšcle,
00:18
who said, "Common sense is not so common."
4
18682
2961
qui disait : « Le bon sens n’est pas monnaie courante ».
00:21
Turns out this quote couldn't be more relevant
5
21685
3128
Il s’avĂšre que cette citation ne pourrait pas ĂȘtre plus pertinente
00:24
to artificial intelligence today.
6
24854
2169
pour l’intelligence artificielle actuelle.
00:27
Despite that, AI is an undeniably powerful tool,
7
27065
3921
Toutefois, l’IA est un outil indĂ©niablement puissant,
00:31
beating the world-class "Go" champion,
8
31027
2586
qui permet de battre le champion mondial de Go,
00:33
acing college admission tests and even passing the bar exam.
9
33613
4088
de rĂ©ussir l’examen d’entrĂ©e Ă  l’universitĂ©
et mĂȘme de passer l’examen du barreau.
00:38
I’m a computer scientist of 20 years,
10
38118
2461
Je suis informaticienne depuis 20 ans
00:40
and I work on artificial intelligence.
11
40579
2419
et je me consacre à l’intelligence artificielle.
00:43
I am here to demystify AI.
12
43039
2586
Je suis ici pour dĂ©mystifier l’IA.
00:46
So AI today is like a Goliath.
13
46626
3462
L’IA de nos jours est comme un Goliath.
00:50
It is literally very, very large.
14
50130
3003
Elle est littéralement trÚs, trÚs vaste.
00:53
It is speculated that the recent ones are trained on tens of thousands of GPUs
15
53508
5839
Les modÚles récents seraient entraßnés
sur des dizaines de milliers de processeurs graphiques
00:59
and a trillion words.
16
59389
2544
et mille milliards de mots.
01:02
Such extreme-scale AI models,
17
62475
2086
Ces modĂšles d’IA Ă  Ă©chelle extrĂȘme,
01:04
often referred to as "large language models,"
18
64603
3128
appelĂ©s “grand modĂšles de langage”,
01:07
appear to demonstrate sparks of AGI,
19
67731
3879
semblent manifester des signes d’IGA,
01:11
artificial general intelligence.
20
71610
2627
l’intelligence gĂ©nĂ©rale artificielle.
01:14
Except when it makes small, silly mistakes,
21
74279
3837
Sauf quand elle commet de petites erreurs stupides,
01:18
which it often does.
22
78158
1585
ce qui est souvent le cas.
01:20
Many believe that whatever mistakes AI makes today
23
80368
3671
Beaucoup estiment que les erreurs de l’IA actuelle
01:24
can be easily fixed with brute force,
24
84080
2002
se rÚglent aisément par la force brute,
01:26
bigger scale and more resources.
25
86124
2127
une Ă©chelle accrue et plus de ressources.
01:28
What possibly could go wrong?
26
88585
1960
Qu’est-ce qui pourrait mal tourner ?
01:32
So there are three immediate challenges we face already at the societal level.
27
92172
5130
Au niveau sociétal, on est déjà confrontés à trois défis immédiats.
01:37
First, extreme-scale AI models are so expensive to train,
28
97886
6173
D’abord, l’entraĂźnement de modĂšles d’IA Ă  grande Ă©chelle est trĂšs cher,
01:44
and only a few tech companies can afford to do so.
29
104059
3461
et seules quelques entreprises technologiques peuvent se le permettre.
01:48
So we already see the concentration of power.
30
108104
3796
On y voit déjà une concentration de pouvoir.
01:52
But what's worse for AI safety,
31
112817
2503
Le pire pour la sĂ©curitĂ© de l’IA,
01:55
we are now at the mercy of those few tech companies
32
115320
3795
on est à la merci de ces quelques géants de la technologie
01:59
because researchers in the larger community
33
119115
3796
parce que la communauté de chercheurs
02:02
do not have the means to truly inspect and dissect these models.
34
122952
4755
est dans l’incapacitĂ© d’inspecter et d’analyser correctement ces modĂšles.
02:08
And let's not forget their massive carbon footprint
35
128416
3837
Et n’oublions pas leur Ă©norme empreinte carbone
02:12
and the environmental impact.
36
132295
1919
et leur impact sur l’environnement.
02:14
And then there are these additional intellectual questions.
37
134881
3253
Il y a aussi d’autres questions intellectuelles.
02:18
Can AI, without robust common sense, be truly safe for humanity?
38
138176
5214
L’IA, sans un bon sens solide, est-elle vraiment sĂ»re pour l’humanitĂ© ?
02:24
And is brute-force scale really the only way
39
144307
4463
Et l’échelle de force brute est-elle vraiment la seule
02:28
and even the correct way to teach AI?
40
148812
2919
et la meilleure façon d’entraüner l’IA ?
02:32
So I’m often asked these days
41
152232
1668
On me demande souvent ces temps-ci
02:33
whether it's even feasible to do any meaningful research
42
153900
2628
s’il est possible de faire une recherche significative
02:36
without extreme-scale compute.
43
156569
1961
sans calcul Ă  Ă©chelle extrĂȘme.
02:38
And I work at a university and nonprofit research institute,
44
158530
3795
Étant universitaire et membre d’un centre de recherche à but non lucratif,
02:42
so I cannot afford a massive GPU farm to create enormous language models.
45
162367
5630
je ne possĂšde pas de ferme gĂ©ante de GPU pour crĂ©er d’énormes modĂšles de langage.
02:48
Nevertheless, I believe that there's so much we need to do
46
168707
4462
Cependant, on doit s’occuper de plusieurs choses
02:53
and can do to make AI sustainable and humanistic.
47
173211
4004
pour rendre l’IA durable et humaniste.
02:57
We need to make AI smaller, to democratize it.
48
177799
3378
On doit rĂ©duire la taille de l’IA pour la dĂ©mocratiser
03:01
And we need to make AI safer by teaching human norms and values.
49
181177
4255
et rendre l’IA plus sĂ»re en lui inculquant des normes et des valeurs humaines.
03:06
Perhaps we can draw an analogy from "David and Goliath,"
50
186683
4713
On peut faire ici l’analogie avec “David et Goliath”,
03:11
here, Goliath being the extreme-scale language models,
51
191438
4587
Goliath Ă©tant les modĂšles de langage Ă  Ă©chelle extrĂȘme,
03:16
and seek inspiration from an old-time classic, "The Art of War,"
52
196067
5089
on peut s’inspirer d’un vieux classique, “L’art de la guerre”,
03:21
which tells us, in my interpretation,
53
201156
2419
qui parle, selon mon interprétation,
03:23
know your enemy, choose your battles, and innovate your weapons.
54
203575
4129
de connaütre son ennemi, choisir ses batailles et d’innover dans ses armes.
03:28
Let's start with the first, know your enemy,
55
208163
2669
Commençons par le premier, connaßtre son ennemi,
03:30
which means we need to evaluate AI with scrutiny.
56
210874
4129
ce qui signifie qu’on doit Ă©valuer l’IA avec rigeur.
03:35
AI is passing the bar exam.
57
215044
2169
L’IA rĂ©ussit l’examen du barreau.
03:38
Does that mean that AI is robust at common sense?
58
218089
3212
Cela signifie-t-il que l’IA maütrise le bon sens ?
03:41
You might assume so, but you never know.
59
221342
2795
On pourrait le croire, mais on ne sait jamais.
03:44
So suppose I left five clothes to dry out in the sun,
60
224429
4129
Supposons que je laisse cinq vĂȘtements sĂ©cher au soleil
03:48
and it took them five hours to dry completely.
61
228600
3003
et qu’ils mettent cinq heures pour sĂ©cher complĂštement.
03:51
How long would it take to dry 30 clothes?
62
231644
3379
Combien de temps faudra-t-il pour faire sĂ©cher 30 vĂȘtements ?
03:55
GPT-4, the newest, greatest AI system says 30 hours.
63
235315
4337
Selon GPT-4, la meilleure IA actuelle, cela nécessite environ 30 heures.
03:59
Not good.
64
239694
1502
C’est mauvais.
Une autre question.
04:01
A different one.
65
241196
1167
J’ai une cruche de 12 litres et une de six litres,
04:02
I have 12-liter jug and six-liter jug,
66
242405
2294
04:04
and I want to measure six liters.
67
244741
1626
et je veux mesurer six litres.
04:06
How do I do it?
68
246367
1252
Comment faire ?
04:07
Just use the six liter jug, right?
69
247660
2002
Utiliser la cruche de six litres ?
04:09
GPT-4 spits out some very elaborate nonsense.
70
249996
3754
GPT-4 sort une absurdité trÚs élaborée.
04:13
(Laughter)
71
253792
2919
(Rires)
04:17
Step one, fill the six-liter jug,
72
257212
2252
Un, remplir la cruche de six litres.
04:19
step two, pour the water from six to 12-liter jug,
73
259506
3044
Deux, verser l’eau de la cruche de six litres dans celle de 12,
04:22
step three, fill the six-liter jug again,
74
262550
3087
trois, remplir Ă  nouveau la cruche de six litres,
04:25
step four, very carefully, pour the water from six to 12-liter jug.
75
265637
4421
quatre, verser doucement l’eau de la cruche de six dans celle de 12.
04:30
And finally you have six liters of water in the six-liter jug
76
270099
4839
Enfin, vous obtenez six litres d’eau dans la cruche de six litres
04:34
that should be empty by now.
77
274979
1460
qui devrait ĂȘtre vide Ă  prĂ©sent.
04:36
(Laughter)
78
276439
1377
(Rires)
04:37
OK, one more.
79
277857
1126
Encore une autre.
04:39
Would I get a flat tire by bicycling over a bridge
80
279567
4088
Est-ce que je crÚverais en vélo en traversant un pont suspendu
04:43
that is suspended over nails, screws and broken glass?
81
283696
4630
au-dessus de clous, de vis et de morceaux de verre ?
04:48
Yes, highly likely, GPT-4 says,
82
288368
3086
Oui, absolument, selon GPT-4,
04:51
presumably because it cannot correctly reason
83
291454
2378
en raison de sa faible aptitude Ă  raisonner
04:53
that if a bridge is suspended over the broken nails and broken glass,
84
293873
4296
que si un pont est suspendu au-dessous de clous et de verre brisés,
04:58
then the surface of the bridge doesn't touch the sharp objects directly.
85
298211
4129
sa surface n’est pas en contact direct avec les objets pointus.
05:02
OK, so how would you feel about an AI lawyer that aced the bar exam
86
302340
6089
Que diriez-vous d’une IA avocate qui rĂ©ussit l’examen du barreau
05:08
yet randomly fails at such basic common sense?
87
308429
3546
mais Ă©choue sur des questions Ă©videntes de bon sens ?
05:12
AI today is unbelievably intelligent and then shockingly stupid.
88
312767
6131
L’IA actuelle est super intelligente mais incroyablement stupide.
05:18
(Laughter)
89
318898
1418
(Rires)
05:20
It is an unavoidable side effect of teaching AI through brute-force scale.
90
320316
5673
C’est un effet inhĂ©rent Ă  l’entraĂźnement de l’IA par l’échelle de la force brute.
05:26
Some scale optimists might say, “Don’t worry about this.
91
326447
3170
Ceux qui en sont optimistes rassurent : « Ne vous inquiétez pas.
05:29
All of these can be easily fixed by adding similar examples
92
329659
3962
On peut facilement corriger tout ça en ajoutant des exemples similaires
05:33
as yet more training data for AI."
93
333663
2753
pour enrichir les donnĂ©es d’entraĂźnement de l’IA. »
05:36
But the real question is this.
94
336916
2044
Mais en vérité,
05:39
Why should we even do that?
95
339460
1377
quel en est l’intĂ©rĂȘt ?
05:40
You are able to get the correct answers right away
96
340879
2836
Vous pouvez obtenir les bonnes réponses instantanément
05:43
without having to train yourself with similar examples.
97
343715
3295
sans entraĂźnement avec des exemples similaires.
05:48
Children do not even read a trillion words
98
348136
3378
Les enfants n’ont mĂȘme pas besoin de lire mille milliards de mots
05:51
to acquire such a basic level of common sense.
99
351556
3420
pour acquérir les bases du bon sens.
05:54
So this observation leads us to the next wisdom,
100
354976
3170
Ce constat nous amĂšne Ă  la sagesse suivante :
05:58
choose your battles.
101
358146
1710
choisir ses batailles.
06:00
So what fundamental questions should we ask right now
102
360148
4421
Quelles questions essentielles doit-on alors poser
06:04
and tackle today
103
364569
1918
et aborder aujourd’hui
06:06
in order to overcome this status quo with extreme-scale AI?
104
366529
4421
pour dĂ©passer ce statu quo d’IA Ă  Ă©chelle extrĂȘme ?
06:11
I'll say common sense is among the top priorities.
105
371534
3545
Je dirai que le bon sens est l’une des prioritĂ©s.
06:15
So common sense has been a long-standing challenge in AI.
106
375079
3921
Le bon sens est un problùme de longue date dans le domaine de l’IA.
06:19
To explain why, let me draw an analogy to dark matter.
107
379667
4088
Pour l’expliquer, laissez-moi faire une analogie avec la matiùre noire.
06:23
So only five percent of the universe is normal matter
108
383796
2878
Seuls 5% de l’univers sont de la matiùre normale
06:26
that you can see and interact with,
109
386716
2794
que l’on peut voir et avec laquelle on peut intĂ©ragir,
06:29
and the remaining 95 percent is dark matter and dark energy.
110
389552
4463
et les 95 % restants sont de la matiĂšre noire et de l’énergie noire.
06:34
Dark matter is completely invisible,
111
394390
1835
La matiĂšre noire est totalement invisible,
06:36
but scientists speculate that it's there because it influences the visible world,
112
396225
4630
mais les scientifiques estiment qu’elle influence le monde visible,
06:40
even including the trajectory of light.
113
400897
2627
y compris la trajectoire de la lumiĂšre.
06:43
So for language, the normal matter is the visible text,
114
403524
3629
Donc pour le langage, la matiĂšre normale est le texte visible,
06:47
and the dark matter is the unspoken rules about how the world works,
115
407195
4379
et la matiĂšre noire les rĂšgles tacites sur le fonctionnement du monde,
06:51
including naive physics and folk psychology,
116
411574
3212
y compris la physique de base et la psychologie populaire,
06:54
which influence the way people use and interpret language.
117
414827
3546
ce qui influe sur la façon dont les gens utilisent et interprÚtent le langage.
06:58
So why is this common sense even important?
118
418831
2503
Pourquoi ce bon sens est-il si important ?
07:02
Well, in a famous thought experiment proposed by Nick Bostrom,
119
422460
5464
Dans une célÚbre expérience mentale proposée par Nick Bostrom,
07:07
AI was asked to produce and maximize the paper clips.
120
427924
5881
l’IA Ă©tait chargĂ©e de maximiser la fabrication des trombones.
07:13
And that AI decided to kill humans to utilize them as additional resources,
121
433805
5964
L’IA a dĂ©cidĂ© de tuer des humains comme ressources supplĂ©mentaires,
07:19
to turn you into paper clips.
122
439769
2461
et les transformer en trombones.
07:23
Because AI didn't have the basic human understanding about human values.
123
443064
5505
L’IA n’avait pas la comprĂ©hension basique des valeurs humaines.
07:29
Now, writing a better objective and equation
124
449070
3295
MĂȘme Ă©crire un objectif meilleure et une Ă©quation
07:32
that explicitly states: “Do not kill humans”
125
452365
2919
qui spécifie : « Ne pas tuer les humains »
07:35
will not work either
126
455284
1210
ne marchera pas non plus,
07:36
because AI might go ahead and kill all the trees,
127
456494
3629
car l’IA pourrait tuer tous les arbres,
07:40
thinking that's a perfectly OK thing to do.
128
460123
2419
en pensant que c’est parfaitement acceptable.
07:42
And in fact, there are endless other things
129
462583
2002
En fait, il y a une infinité de choses
07:44
that AI obviously shouldn’t do while maximizing paper clips,
130
464585
2837
que l’IA devrait Ă©videmment Ă©viter en fabriquant les trombones, notamment :
07:47
including: “Don’t spread the fake news,” “Don’t steal,” “Don’t lie,”
131
467463
4255
ne pas diffuser de fausses nouvelles, ne pas voler, ne pas mentir.
07:51
which are all part of our common sense understanding about how the world works.
132
471759
3796
Tout ça relÚve de notre bon sens quant au fonctionnement du monde.
07:55
However, the AI field for decades has considered common sense
133
475930
4880
Or, depuis des lustres, le domaine de l’IA a considĂ©rĂ© le bon sens
08:00
as a nearly impossible challenge.
134
480810
2753
comme un défi quasi impossible à relever.
08:03
So much so that when my students and colleagues and I
135
483563
3837
À tel point que lorsque mes Ă©tudiants, mes collĂšgues et moi-mĂȘme
avons entrepris de travailler dessus il y a plusieurs années,
08:07
started working on it several years ago, we were very much discouraged.
136
487400
3754
nous étions trÚs découragés.
08:11
We’ve been told that it’s a research topic of ’70s and ’80s;
137
491195
3254
On nous a dit que c’était un sujet de recherche des annĂ©es 70 et 80,
08:14
shouldn’t work on it because it will never work;
138
494490
2419
de ne pas s’y ateler car ça ne marcherait jamais.
08:16
in fact, don't even say the word to be taken seriously.
139
496951
3378
En fait, cela ne mérite pas la moindre attention.
08:20
Now fast forward to this year,
140
500329
2128
Mais voilà que cette année,
08:22
I’m hearing: “Don’t work on it because ChatGPT has almost solved it.”
141
502498
4296
on me dit : « Inutile de s’en occuper, ChatGPT a presque rĂ©solu le problĂšme. »
08:26
And: “Just scale things up and magic will arise,
142
506836
2461
et « Passez Ă  l’échelle supĂ©rieure et le tour est jouĂ©,
08:29
and nothing else matters.”
143
509338
1794
c’est tout ce qui importe. »
08:31
So my position is that giving true common sense
144
511174
3545
Alors, selon moi, doter l’IA d’un vĂ©ritable bon sens
08:34
human-like robots common sense to AI, is still moonshot.
145
514761
3712
Ă  l’instar des humains demeure un rĂȘve lointain.
08:38
And you don’t reach to the Moon
146
518514
1502
Et on n’atteint pas la lune
08:40
by making the tallest building in the world one inch taller at a time.
147
520016
4212
en montant le plus haut bñtiment du monde d’un centimùtre à la fois.
08:44
Extreme-scale AI models
148
524270
1460
Les modĂšles d’IA Ă  Ă©chelle extrĂȘme
08:45
do acquire an ever-more increasing amount of commonsense knowledge,
149
525772
3169
accumulent une quantité considérable de connaissances de bon sens.
08:48
I'll give you that.
150
528983
1168
Je vous l’accorde.
08:50
But remember, they still stumble on such trivial problems
151
530193
4254
Mais notez qu’ils restent coincĂ©s sur des problĂšmes triviaux
08:54
that even children can do.
152
534489
2419
que des enfants peuvent résoudre.
08:56
So AI today is awfully inefficient.
153
536908
3879
L’IA actuelle est donc sacrĂ©ment mĂ©diocre.
09:00
And what if there is an alternative path or path yet to be found?
154
540787
4337
Et s’il y avait une alternative ou une voie non encore explorĂ©e ?
09:05
A path that can build on the advancements of the deep neural networks,
155
545166
4171
Une voie qui s’appuie sur les progrĂšs des rĂ©seaux neuronaux profonds,
09:09
but without going so extreme with the scale.
156
549378
2712
mais sans aller aussi loin dans l’échelle.
09:12
So this leads us to our final wisdom:
157
552465
3170
Cela nous amĂšne Ă  notre derniĂšre sagesse :
09:15
innovate your weapons.
158
555635
1710
innover dans ses armes.
09:17
In the modern-day AI context,
159
557345
1668
Dans le contexte moderne de l’IA,
09:19
that means innovate your data and algorithms.
160
559055
3086
cela implique d’innover dans les donnĂ©es et les algorithmes.
09:22
OK, so there are, roughly speaking, three types of data
161
562183
2628
Il existe, en gros, trois types de données
09:24
that modern AI is trained on:
162
564852
1961
sur lesquelles l’IA moderne est entraĂźnĂ©e :
09:26
raw web data,
163
566813
1376
les données web brutes,
09:28
crafted examples custom developed for AI training,
164
568231
4462
les Ă©chantillons sur mesure utilisĂ©s pour entraĂźner l’IA
09:32
and then human judgments,
165
572735
2044
et les Ă©valuations humaines,
09:34
also known as human feedback on AI performance.
166
574821
3211
ou retour d’information humain sur les performances de l’IA.
09:38
If the AI is only trained on the first type, raw web data,
167
578074
3962
EntraĂźner l’IA sur le premier type seulement, les donnĂ©es web brutes,
09:42
which is freely available,
168
582078
1710
librement accessibles,
09:43
it's not good because this data is loaded with racism and sexism
169
583788
4755
est problématique car ces données sont truffées de racisme, de sexisme
09:48
and misinformation.
170
588584
1126
et de désinformation.
09:49
So no matter how much of it you use, garbage in and garbage out.
171
589752
4171
Peu importe leur quantité, les résultats sont liés à la qualité des données.
09:54
So the newest, greatest AI systems
172
594507
2794
Les systùmes d’IA les plus performants
09:57
are now powered with the second and third types of data
173
597343
3337
sont donc alimentés par les deuxiÚme et troisiÚme types de données
10:00
that are crafted and judged by human workers.
174
600680
3378
qui sont conçues et évaluées par des humains.
10:04
It's analogous to writing specialized textbooks for AI to study from
175
604350
5422
C’est comme si l’IA recevait des manuels spĂ©cialisĂ©s Ă  Ă©tudier
10:09
and then hiring human tutors to give constant feedback to AI.
176
609814
4421
et qu’on sollicitait des tuteurs humains pour lui donner une Ă©valuation continue.
Il s’agit de donnĂ©es propriĂ©taires qui, dans l’ensemble,
10:15
These are proprietary data, by and large,
177
615027
2461
10:17
speculated to cost tens of millions of dollars.
178
617488
3420
coûteraient des dizaines de millions de dollars.
10:20
We don't know what's in this,
179
620908
1460
On ignore leur contenu,
10:22
but it should be open and publicly available
180
622410
2419
mais elles devraient ĂȘtre ouvertes au public,
10:24
so that we can inspect and ensure [it supports] diverse norms and values.
181
624829
4463
pour inspection et s’assurer de leur conformitĂ© aux normes et valeurs.
10:29
So for this reason, my teams at UW and AI2
182
629876
2711
Ainsi, mes Ă©quipes Ă  l’UW et Ă  AI2
10:32
have been working on commonsense knowledge graphs
183
632628
2461
ont élaboré des graphes de connaissances du bon sens
10:35
as well as moral norm repositories
184
635089
2086
ainsi que des recueils de normes morales
10:37
to teach AI basic commonsense norms and morals.
185
637216
3504
pour inculquer Ă  l’IA les normes et les valeurs morales Ă©lĂ©mentaires.
Nos donnĂ©es sont accessibles Ă  tous, ce qui permet d’explorer leur contenu
10:41
Our data is fully open so that anybody can inspect the content
186
641137
3336
10:44
and make corrections as needed
187
644473
1502
et de corriger ce qui doit l’ĂȘtre,
10:45
because transparency is the key for such an important research topic.
188
645975
4171
car la transparence est essentielle pour une recherche aussi importante.
10:50
Now let's think about learning algorithms.
189
650646
2545
Passons aux algorithmes d’apprentissage.
10:53
No matter how amazing large language models are,
190
653733
4629
Quelle que soit la puissance des grands modĂšles de langage,
10:58
by design
191
658404
1126
par conception,
10:59
they may not be the best suited to serve as reliable knowledge models.
192
659572
4755
leur fiabilitĂ© en tant que modĂšles de connaissances pourrait ĂȘtre limitĂ©e.
11:04
And these language models do acquire a vast amount of knowledge,
193
664368
4463
Ces modĂšles de langage possĂšdent certes une grande masse de connaissances,
11:08
but they do so as a byproduct as opposed to direct learning objective.
194
668831
4755
mais ils l’ont acquises en sous-produit et non en objectif d’apprentissage direct.
11:14
Resulting in unwanted side effects such as hallucinated effects
195
674503
4296
Cela engendre des effets indésirables tels que les hallucinations
11:18
and lack of common sense.
196
678841
2002
et l’absence de bon sens.
11:20
Now, in contrast,
197
680843
1210
En revanche,
11:22
human learning is never about predicting which word comes next,
198
682053
3170
l’apprentissage humain va au-delĂ  de la prĂ©diction de mots,
11:25
but it's really about making sense of the world
199
685223
2877
il s’agit de comprendre le monde
et d’apprendre comment il fonctionne.
11:28
and learning how the world works.
200
688142
1585
11:29
Maybe AI should be taught that way as well.
201
689727
2544
On devrait peut-ĂȘtre aussi l’enseigner Ă  l’IA.
11:33
So as a quest toward more direct commonsense knowledge acquisition,
202
693105
6090
Dans sa recherche d’une acquisition plus directe de connaissances
11:39
my team has been investigating potential new algorithms,
203
699195
3879
mon Ă©quipe explore de nouveaux algorithmes potentiels,
11:43
including symbolic knowledge distillation
204
703115
2628
y compris la distillation de connaissances symboliques
11:45
that can take a very large language model as shown here
205
705743
3795
qui prend un grand modÚle de langage, comme illustré ici.
11:49
that I couldn't fit into the screen because it's too large,
206
709538
3963
trop grand pour ĂȘtre affichĂ© Ă  l’écran,
11:53
and crunch that down to much smaller commonsense models
207
713501
4671
et le réduit en des modÚles de bon sens beaucoup plus petits
11:58
using deep neural networks.
208
718214
2252
Ă  l’aide des rĂ©seaux neuronaux profonds.
12:00
And in doing so, we also generate, algorithmically, human-inspectable,
209
720508
5380
Ainsi, nous générons également, grùce à cet algorithme,
12:05
symbolic, commonsense knowledge representation,
210
725888
3253
une représentation symbolique des connaissances de bon sens,
12:09
so that people can inspect and make corrections
211
729141
2211
afin que les gens l’inspectent et la corrigent,
12:11
and even use it to train other neural commonsense models.
212
731394
3545
et s’en servent mĂȘme pour entraĂźner d’autres modĂšles neuronaux de bon sens.
12:15
More broadly,
213
735314
1210
De maniÚre plus générale,
12:16
we have been tackling this seemingly impossible giant puzzle
214
736565
4630
on s’est attaquĂ© Ă  ce puzzle gĂ©ant apparemment impossible
12:21
of common sense, ranging from physical,
215
741237
2669
de bon sens, qui va de l’aspect physique,
12:23
social and visual common sense
216
743906
2169
social et visuel
Ă  la thĂ©orie de l’esprit, aux normes et Ă  la morale.
12:26
to theory of minds, norms and morals.
217
746117
2419
12:28
Each individual piece may seem quirky and incomplete,
218
748577
3796
Chaque élément individuel peut sembler étrange et incomplet,
12:32
but when you step back,
219
752415
1585
mais en prenant de la distance,
12:34
it's almost as if these pieces weave together into a tapestry
220
754041
4421
il semble que ces piùces s’entrelacent pour former une tapisserie
12:38
that we call human experience and common sense.
221
758504
3045
que nous appelons l’expĂ©rience humaine et le bon sens.
12:42
We're now entering a new era
222
762174
1961
On est à présent dans une nouvelle Úre
12:44
in which AI is almost like a new intellectual species
223
764176
5923
oĂč l’IA ressemble presque Ă  une nouvelle forme d’intelligence
12:50
with unique strengths and weaknesses compared to humans.
224
770099
3837
avec des forces et des faiblesses uniques par rapport à l’homme.
12:54
In order to make this powerful AI
225
774478
3546
Pour que cette IA puissante
12:58
sustainable and humanistic,
226
778065
2336
soit durable et humaniste,
13:00
we need to teach AI common sense, norms and values.
227
780401
4129
on doit lui enseigner le bon sens, les normes et les valeurs
13:04
Thank you.
228
784530
1376
Je vous remercie.
13:05
(Applause)
229
785906
6966
(Applaudissements)
13:13
Chris Anderson: Look at that.
230
793664
1460
Chris Anderson : Regardez !
13:15
Yejin, please stay one sec.
231
795124
1877
Yejin, restez une seconde, s’il vous plaüt.
13:18
This is so interesting,
232
798002
1418
C’est trĂšs intĂ©ressant,
13:19
this idea of common sense.
233
799462
2002
cette idée de bon sens.
13:21
We obviously all really want this from whatever's coming.
234
801505
3712
Quoi qu’il advienne, c’est notre objectif commun.
13:25
But help me understand.
235
805926
1168
Mais Ă©clairez-moi.
13:27
Like, so we've had this model of a child learning.
236
807094
4463
Imaginons ce modùle d’apprentissage chez un enfant.
13:31
How does a child gain common sense
237
811599
3044
Comment un enfant acquiert-il du bon sens
13:34
apart from the accumulation of more input
238
814685
3545
en dehors de l’accumulation d’informations
13:38
and some, you know, human feedback?
239
818230
3045
et d’une certaine Ă©valuation humaine ?
13:41
What else is there?
240
821317
1293
Qu’y a-t-il d’autre ?
13:42
Yejin Choi: So fundamentally, there are several things missing,
241
822610
3003
Yejin Choi : Fondamentalement, il manque plusieurs choses,
13:45
but one of them is, for example,
242
825613
1918
comme par exemple,
13:47
the ability to make hypothesis and make experiments,
243
827573
3796
la capacité de faire des hypothÚses et des expériences,
13:51
interact with the world and develop this hypothesis.
244
831369
4713
d’intĂ©ragir avec le monde et de dĂ©velopper cette hypothĂšse.
13:56
We abstract away the concepts about how the world works,
245
836123
3671
On fait abstraction des concepts relatifs au fonctionnement du monde,
13:59
and then that's how we truly learn,
246
839835
2044
et c’est ainsi qu’on apprend vraiment,
14:01
as opposed to today's language model.
247
841921
3003
par rapport aux modĂšles de langage actuel.
14:05
Some of them is really not there quite yet.
248
845424
2795
Certains d’entre eux ne sont pas encore tout à fait au point.
14:09
CA: You use the analogy that we can’t get to the Moon
249
849303
2669
CA : Vous dites qu’on ne peut pas aller sur la Lune
14:12
by extending a building a foot at a time.
250
852014
2544
en agrandissant un bĂątiment mĂštre par mĂštre.
14:14
But the experience that most of us have had
251
854558
2044
Mais notre expérience avec la plupart
14:16
of these language models is not a foot at a time.
252
856602
2336
de ces modĂšles de langage est loin d’ĂȘtre progressive
14:18
It's like, the sort of, breathtaking acceleration.
253
858938
2669
C’est plutĂŽt une accĂ©lĂ©ration stupĂ©fiante.
14:21
Are you sure that given the pace at which those things are going,
254
861607
3670
Êtes-vous sĂ»r qu’à la vitesse Ă  laquelle les choses avancent,
14:25
each next level seems to be bringing with it
255
865319
2711
chaque nouveau niveau semble nous apporter un peu plus
14:28
what feels kind of like wisdom and knowledge.
256
868072
4671
de sagesse et de connaissance ?
14:32
YC: I totally agree that it's remarkable how much this scaling things up
257
872785
5297
YC : Il est frappant de voir Ă  quel point cette accroissement de l’échelle
14:38
really enhances the performance across the board.
258
878124
3670
améliore vraiment les performances dans tous les aspects.
14:42
So there's real learning happening
259
882086
2544
Il se produit donc un réel apprentissage
14:44
due to the scale of the compute and data.
260
884630
4797
grĂące Ă  l’échelle de calcul et de donnĂ©es.
14:49
However, there's a quality of learning that is still not quite there.
261
889468
4171
Mais la qualitĂ© de l’apprentissage n’est pas toujours satisfaisante.
14:53
And the thing is,
262
893681
1168
En fait,
14:54
we don't yet know whether we can fully get there or not
263
894849
3712
on ne sait pas encore si on peut y parvenir
14:58
just by scaling things up.
264
898561
2335
en augmentant seulement l’échelle.
15:01
And if we cannot, then there's this question of what else?
265
901188
4213
Et si on n’y arrive pas, alors que faire d’autre ?
15:05
And then even if we could,
266
905401
1877
MĂȘme si nous le pouvons,
15:07
do we like this idea of having very, very extreme-scale AI models
267
907319
5214
l’idĂ©e d’avoir des modĂšles d’IA Ă  Ă©chelle tout Ă  fait extrĂȘme
15:12
that only a few can create and own?
268
912575
4337
que seuls quelques-uns peuvent créer et posséder nous convient-elle ?
15:18
CA: I mean, if OpenAI said, you know, "We're interested in your work,
269
918456
4587
CA : Je veux dire, si OpenAI disait, « Votre travail nous intéresse,
15:23
we would like you to help improve our model,"
270
923043
2837
nous aimerions votre aide pour améliorer notre modÚle »,
15:25
can you see any way of combining what you're doing
271
925921
2670
voyez-vous un moyen de combiner ce que vous faites
15:28
with what they have built?
272
928632
1710
avec ce qu’ils ont construit ?
15:30
YC: Certainly what I envision
273
930926
2336
YC : J’imagine qu’il faudra
15:33
will need to build on the advancements of deep neural networks.
274
933304
4171
s’appuyer sur les progrĂšs des rĂ©seaux neuronaux profonds.
15:37
And it might be that there’s some scale Goldilocks Zone,
275
937516
4213
Et il se peut qu’il y ait une zone Ă  Ă©chelle Boucles d’or
15:41
such that ...
276
941770
1168
comme ça...
15:42
I'm not imagining that the smaller is the better either, by the way.
277
942980
3212
D’ailleurs, je n’imagine pas que plus petit signifie meilleur.
15:46
It's likely that there's right amount of scale, but beyond that,
278
946233
4421
Il y a une bonne quantitĂ© d’échelle, mais au-delĂ ,
15:50
the winning recipe might be something else.
279
950696
2294
la recette gagnante pourrait ĂȘtre autre chose.
15:53
So some synthesis of ideas will be critical here.
280
953032
4838
Une synthĂšse d’idĂ©es sera donc critique ici.
15:58
CA: Yejin Choi, thank you so much for your talk.
281
958579
2294
CA : Yejin Choi, merci pour votre exposé.
16:00
(Applause)
282
960873
1585
(Applaudissements)
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7