Jeff Dean: AI isn't as smart as you think -- but it could be | TED

253,387 views ・ 2022-01-12

TED


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

Traducteur: Boris Bidal Relecteur: Elisabeth Buffard
00:13
Hi, I'm Jeff.
0
13329
1583
Salut, moi c’est Jeff.
00:15
I lead AI Research and Health at Google.
1
15746
2833
Je dirige Google AI et Google Health.
00:18
I joined Google more than 20 years ago,
2
18621
1875
Je suis chez Google depuis plus de 20 ans,
00:20
when we were all wedged into a tiny office space,
3
20538
3166
on était tous entassés dans des tout petits bureaux,
00:23
above what's now a T-Mobile store in downtown Palo Alto.
4
23704
2750
au-dessus de ce qui est devenu un magasin T-Mobile à Palo Alto.
00:27
I've seen a lot of computing transformations in that time,
5
27163
2875
Depuis, l’informatique s’est transformée de bien des manières,
00:30
and in the last decade, we've seen AI be able to do tremendous things.
6
30079
3459
et ces dernières décennies, l’IA a fait d’énormes progrès.
00:34
But we're still doing it all wrong in many ways.
7
34746
2542
Mais il y a encore beaucoup de choses à améliorer.
00:37
That's what I want to talk to you about today.
8
37329
2209
C’est de ça dont je veux vous parler aujourd’hui.
00:39
But first, let's talk about what AI can do.
9
39579
2209
Mais d’abord, parlons de ce que l’IA peut faire.
00:41
So in the last decade, we've seen tremendous progress
10
41829
3292
Ces dix dernières années, on a assisté à des progrès impressionnants,
00:45
in how AI can help computers see, understand language,
11
45121
4333
l’IA permet maintenant aux ordinateurs de voir, de comprendre le langage
00:49
understand speech better than ever before.
12
49496
2833
et la parole mieux que jamais.
00:52
Things that we couldn't do before, now we can do.
13
52329
2583
Des choses qui étaient impossibles avant.
00:54
If you think about computer vision alone,
14
54954
2333
Si on pense à la vue des ordinateurs,
00:57
just in the last 10 years,
15
57329
1583
durant les 10 dernières années,
00:58
computers have effectively developed the ability to see;
16
58912
2792
les ordinateurs ont développé la faculté de voir.
01:01
10 years ago, they couldn't see, now they can see.
17
61746
2500
Il y a 10 ans, ils ne pouvaient pas voir, maintenant si.
01:04
You can imagine this has had a transformative effect
18
64287
2500
Vous pouvez imaginez l’influence que ça a eu
01:06
on what we can do with computers.
19
66787
2209
sur ce qu’on peut faire avec les ordinateurs.
01:08
So let's look at a couple of the great applications
20
68996
2500
Regardons quelques unes des applications
01:11
enabled by these capabilities.
21
71496
2000
rendues possibles par ces facultés.
01:13
We can better predict flooding, keep everyone safe,
22
73537
2417
On prédit mieux les inondations pour protéger la population
01:15
using machine learning.
23
75996
1500
grâce à l’apprentissage machine.
01:17
We can translate over 100 languages so we all can communicate better,
24
77538
3250
On traduit plus de 100 langues, pour mieux communiquer,
01:20
and better predict and diagnose disease,
25
80788
2000
mieux prédire et diagnostiquer les maladies,
01:22
where everyone gets the treatment that they need.
26
82788
2333
pour que tout le monde ait son traitement.
01:25
So let's look at two key components
27
85163
1916
Donc jetons un œil à deux éléments-clés
01:27
that underlie the progress in AI systems today.
28
87121
2333
à la base des progrès en IA aujourd’hui.
01:30
The first is neural networks,
29
90121
1542
D’abord, les réseaux neuronaux,
01:31
a breakthrough approach to solving some of these difficult problems
30
91704
3417
une approche révolutionnaire pour résoudre certains de ces problèmes
01:35
that has really shone in the last 15 years.
31
95121
2833
qui a fait ses preuves au cours des 15 dernières années.
01:37
But they're not a new idea.
32
97954
1625
Ce n’est pas une idée nouvelle.
01:39
And the second is computational power.
33
99621
1833
L’autre élément, c’est la puissance de calcul.
01:41
It actually takes a lot of computational power
34
101454
2167
Il faut une grande puissance de calcul
01:43
to make neural networks able to really sing,
35
103663
2083
pour faire tourner ces réseaux neuronaux,
01:45
and in the last 15 years, we’ve been able to halve that,
36
105746
3375
et en 15 ans, on a pu réduire la puissance de calcul nécessaire par deux,
01:49
and that's partly what's enabled all this progress.
37
109121
2458
c’est en partie ce qui a rendu possible tous ces progrès.
01:51
But at the same time, I think we're doing several things wrong,
38
111954
3459
Mais je pense qu’il y a plusieurs choses qu’on devrait améliorer,
01:55
and that's what I want to talk to you about
39
115413
2000
et c’est de ça dont je veux vous parler
01:57
at the end of the talk.
40
117454
1167
à la fin de cette conférence.
01:58
First, a bit of a history lesson.
41
118663
1958
D’abord, un peu d’Histoire.
02:00
So for decades,
42
120663
1208
Pendant des décennies,
02:01
almost since the very beginning of computing,
43
121913
2125
pratiquement depuis le début de l’informatique,
02:04
people have wanted to be able to build computers
44
124079
2250
on a voulu faire des ordinateurs
02:06
that could see, understand language, understand speech.
45
126329
3917
capables de voir, de comprendre les langues et la parole.
02:10
The earliest approaches to this, generally,
46
130579
2000
Au tout début, on essayait souvent
02:12
people were trying to hand-code all the algorithms
47
132621
2333
d’écrire à la main tous les algorithmes
02:14
that you need to accomplish those difficult tasks,
48
134996
2458
dont on avait besoin pour effectuer ces tâches complexes,
02:17
and it just turned out to not work very well.
49
137454
2375
et ça ne marchait pas vraiment.
02:19
But in the last 15 years, a single approach
50
139829
3250
Mais durant ces 15 dernières années, une seule approche a permis
02:23
unexpectedly advanced all these different problem spaces all at once:
51
143079
4167
d’avancer de manière inattendue dans tous ces problèmes :
02:27
neural networks.
52
147954
1542
les réseaux neuronaux.
02:29
So neural networks are not a new idea.
53
149538
1833
Ce n’est pas une idée nouvelle.
02:31
They're kind of loosely based
54
151371
1417
C’est basé, grosso modo,
02:32
on some of the properties that are in real neural systems.
55
152788
3041
sur certaines propriétés de réseaux neuronaux réels.
02:35
And many of the ideas behind neural networks
56
155829
2084
Et beaucoup des idées derrière ces réseaux
02:37
have been around since the 1960s and 70s.
57
157954
2250
circulent depuis les années 60 et 70.
02:40
A neural network is what it sounds like,
58
160204
2167
Un réseau neuronal, comme le nom le suggère,
02:42
a series of interconnected artificial neurons
59
162413
2708
est une série de neurones artificiels interconnectés
02:45
that loosely emulate the properties of your real neurons.
60
165121
3000
qui imitent approximativement les propriétés des vrais neurones.
02:48
An individual neuron in one of these systems
61
168163
2166
Un neurone individuel de ces systèmes
02:50
has a set of inputs,
62
170371
1417
reçoit un ensemble d’entrées,
02:51
each with an associated weight,
63
171788
2041
avec chacune un poids associé,
02:53
and the output of a neuron
64
173871
1833
puis il renvoie un résultat qui est
02:55
is a function of those inputs multiplied by those weights.
65
175704
3209
une fonction des ces entrées multiplié par le poids.
02:59
So pretty simple,
66
179288
1208
C’est assez simple,
03:00
and lots and lots of these work together to learn complicated things.
67
180538
3666
mais en très grande quantité, ils peuvent apprendre des choses compliquées.
03:04
So how do we actually learn in a neural network?
68
184496
2833
Alors, comment marche un réseau neuronal ?
03:07
It turns out the learning process
69
187371
1708
Le processus d’apprentissage consiste
03:09
consists of repeatedly making tiny little adjustments
70
189079
2792
à ajuster continuellement
03:11
to the weight values,
71
191913
1208
les valeurs de poids,
03:13
strengthening the influence of some things,
72
193121
2042
pour donner plus d’influence
03:15
weakening the influence of others.
73
195204
1959
à certaines choses, en enlever à d’autres.
03:17
By driving the overall system towards desired behaviors,
74
197204
3917
Pour conduire l’ensemble du système vers les comportements désirés,
ces systèmes peuvent être entraînés à faire des choses vraiment compliquées,
03:21
these systems can be trained to do really complicated things,
75
201163
2916
03:24
like translate from one language to another,
76
204121
2875
comme traduire d’une langue à une autre,
03:27
detect what kind of objects are in a photo,
77
207038
3083
détecter le type d’objets présents dans une photo,
03:30
all kinds of complicated things.
78
210121
1875
toutes sortes de choses compliquées.
03:32
I first got interested in neural networks
79
212038
2000
J’ai commencé à m’y intéresser
03:34
when I took a class on them as an undergraduate in 1990.
80
214079
3042
quand j’ai eu un cours à ce sujet dans les années 1990.
03:37
At that time,
81
217163
1125
À l’époque,
03:38
neural networks showed impressive results on tiny problems,
82
218329
3792
ils obtenaient d’impressionnants résultats sur des petits problèmes,
03:42
but they really couldn't scale to do real-world important tasks.
83
222121
4375
mais ils ne pouvaient pas traiter d’importantes tâches du monde réel.
03:46
But I was super excited.
84
226538
1500
Mais j’étais super enthousiaste.
03:48
(Laughter)
85
228079
2500
(Rires)
03:50
I felt maybe we just needed more compute power.
86
230579
2417
J’ai pensé qu’on avait juste besoin de plus de puissance.
03:52
And the University of Minnesota had a 32-processor machine.
87
232996
3625
Et l’Université du Minnesota avait une machine à 32 processeurs.
03:56
I thought, "With more compute power,
88
236621
1792
J’ai pensé, qu’avec plus de puissance on pourrait vraiment faire
03:58
boy, we could really make neural networks really sing."
89
238413
3000
de grandes choses avec les réseaux neuronaux.
04:01
So I decided to do a senior thesis on parallel training of neural networks,
90
241454
3584
J’ai décidé de faire ma thèse sur l’entraînement parallèle des réseaux,
04:05
the idea of using processors in a computer or in a computer system
91
245079
4000
l’idée était de faire travailler l’ensemble des processeurs
d’un système d’ordinateurs sur une seule tâche,
04:09
to all work toward the same task,
92
249079
2125
celle d’entraîner des réseaux neuronaux.
04:11
that of training neural networks.
93
251204
1584
04:12
32 processors, wow,
94
252829
1292
32 processeurs, waouh,
04:14
we’ve got to be able to do great things with this.
95
254163
2833
on doit pouvoir faire tellement de choses avec ça.
04:17
But I was wrong.
96
257496
1167
Je me suis trompé.
En fait, on avait besoin d’à peu près un million de fois plus de puissance
04:20
Turns out we needed about a million times as much computational power
97
260038
3333
04:23
as we had in 1990
98
263371
1375
que ce qu’on avait en 1990
04:24
before we could actually get neural networks to do impressive things.
99
264788
3333
avant de pouvoir faire faire de grandes choses aux réseaux neuronaux.
04:28
But starting around 2005,
100
268121
2417
Mais vers 2005,
04:30
thanks to the computing progress of Moore's law,
101
270579
2500
grâce aux progrès en informatique et à la loi de Moore,
04:33
we actually started to have that much computing power,
102
273121
2625
on a commencé à avoir suffisamment de puissance de calcul,
04:35
and researchers in a few universities around the world started to see success
103
275746
4250
quelques chercheurs un peu partout dans le monde ont réussi à utiliser
04:40
in using neural networks for a wide variety of different kinds of tasks.
104
280038
4083
les réseaux neuronaux pour accomplir des tâches très diverses.
04:44
I and a few others at Google heard about some of these successes,
105
284121
3583
Chez Google, on a entendu parler de certaines de ces réussites,
04:47
and we decided to start a project to train very large neural networks.
106
287746
3333
et on a monté un projet pour entraîner de très grands réseaux neuronaux.
04:51
One system that we trained,
107
291079
1459
On a entraîné un de nos systèmes
04:52
we trained with 10 million randomly selected frames
108
292538
3541
en utilisant 10 millions d’images tirées aléatoirement
04:56
from YouTube videos.
109
296079
1292
de vidéos YouTube.
04:57
The system developed the capability
110
297371
1750
Le système a développé la capacité
04:59
to recognize all kinds of different objects.
111
299121
2583
à reconnaître toutes sortes d’objets différents.
05:01
And it being YouTube, of course,
112
301746
1542
On parle de YouTube, bien sûr,
05:03
it developed the ability to recognize cats.
113
303329
2500
donc il a développé la capacité à reconnaître les chats.
05:05
YouTube is full of cats.
114
305829
1292
YouTube est plein de chats.
05:07
(Laughter)
115
307163
1416
(Rires)
05:08
But what made that so remarkable
116
308621
2208
Mais le plus remarquable,
05:10
is that the system was never told what a cat was.
117
310871
2417
c’est qu’on a jamais dit au système ce qu’était un chat.
05:13
So using just patterns in data,
118
313704
2500
Donc juste en observant des récurrences dans les données,
05:16
the system honed in on the concept of a cat all on its own.
119
316204
3625
le système a reconstitué le concept de chat par lui-même.
05:20
All of this occurred at the beginning of a decade-long string of successes,
120
320371
3750
Ça a été le début de dix ans de succès
dans l’utilisation de réseaux neuronaux pour traiter toutes sortes de tâches,
05:24
of using neural networks for a huge variety of tasks,
121
324121
2500
05:26
at Google and elsewhere.
122
326663
1166
chez Google et ailleurs.
05:27
Many of the things you use every day,
123
327871
2167
Beaucoup de choses que vous utilisez quotidiennement,
05:30
things like better speech recognition for your phone,
124
330079
2500
comme la reconnaissance vocale de votre téléphone,
05:32
improved understanding of queries and documents
125
332579
2209
le compréhension des requêtes et des documents
05:34
for better search quality,
126
334829
1459
pour une recherche plus efficace,
05:36
better understanding of geographic information to improve maps,
127
336329
3042
l’amélioration du traitement des données géographiques
05:39
and so on.
128
339413
1166
pour de meilleures cartes, etc.
05:40
Around that time,
129
340621
1167
À ce moment-là,
05:41
we also got excited about how we could build hardware that was better tailored
130
341788
3750
on cherchait aussi à produire du matériel mieux adapté
05:45
to the kinds of computations neural networks wanted to do.
131
345579
2792
aux types de calculs dont les réseaux neuronaux avaient besoin.
05:48
Neural network computations have two special properties.
132
348371
2667
Ces calculs ont deux propriétés spéciales.
La première, c’est qu’ils tolèrent facilement une précision moindre.
05:51
The first is they're very tolerant of reduced precision.
133
351079
2625
05:53
Couple of significant digits, you don't need six or seven.
134
353746
2750
Seulement quelques chiffres, pas besoin de 6 ou 7.
05:56
And the second is that all the algorithms are generally composed
135
356496
3458
La seconde, c’est que les algorithmes sont en général composés
05:59
of different sequences of matrix and vector operations.
136
359996
3458
de différentes séquences d’opérations sur des matrices et des vecteurs.
06:03
So if you can build a computer
137
363496
1750
Donc si on peut construire un ordinateur qui fonctionne vraiment bien
06:05
that is really good at low-precision matrix and vector operations
138
365246
3792
sur ce type d’opérations et à faible précision
06:09
but can't do much else,
139
369079
1709
sans pouvoir faire beaucoup plus,
06:10
that's going to be great for neural-network computation,
140
370829
2625
c’est impeccable pour les calculs des réseaux neuronaux,
06:13
even though you can't use it for a lot of other things.
141
373496
2667
même si vous ne pouvez pas en faire grand-chose d’autre.
06:16
And if you build such things, people will find amazing uses for them.
142
376163
3291
Des gens trouveront tout un tas de choses géniales à faire avec ça.
06:19
This is the first one we built, TPU v1.
143
379496
2083
C’est le premier qu’on a produit, le TPU v1.
06:21
"TPU" stands for Tensor Processing Unit.
144
381621
2542
« TPU » veut dire Unité de Traitement de Tenseur.
06:24
These have been used for many years behind every Google search,
145
384204
3042
On les a utilisés pendant des années chez Google, pour toutes nos recherches,
06:27
for translation,
146
387246
1167
pour la traduction, pour l’AlphaGo de DeepMind,
06:28
in the DeepMind AlphaGo matches,
147
388454
1917
06:30
so Lee Sedol and Ke Jie maybe didn't realize,
148
390413
2583
Lee Sedol et Ke Jie ne s’en sont peut-être même pas redus compte,
06:33
but they were competing against racks of TPU cards.
149
393038
2708
mais ils affrontaient des racks de cartes TPU.
06:35
And we've built a bunch of subsequent versions of TPUs
150
395788
2583
On a produit d’autres versions de TPUs
06:38
that are even better and more exciting.
151
398371
1875
qui sont encore meilleures.
06:40
But despite all these successes,
152
400288
2083
Mais malgré tous ces succès,
06:42
I think we're still doing many things wrong,
153
402371
2208
je pense qu’il y a encore des progrès à faire,
06:44
and I'll tell you about three key things we're doing wrong,
154
404621
2792
je vais vous parler de trois éléments-clés qu’on peut améliorer,
06:47
and how we'll fix them.
155
407454
1167
et comment le faire.
06:48
The first is that most neural networks today
156
408663
2083
D’abord, la plupart des réseaux neuronaux
06:50
are trained to do one thing, and one thing only.
157
410746
2250
ne sont entraînés que pour faire une seule chose.
06:53
You train it for a particular task that you might care deeply about,
158
413038
3208
Vous pouvez les entraîner pour traiter une tâche en particulier,
06:56
but it's a pretty heavyweight activity.
159
416288
1916
mais c’est une activité assez lourde.
06:58
You need to curate a data set,
160
418246
1667
Vous avez besoin d’organiser un ensemble de données,
06:59
you need to decide what network architecture you'll use
161
419913
3000
décider de l’architecture de réseau que vous utiliserez
07:02
for this problem,
162
422954
1167
pour ce problème,
07:04
you need to initialize the weights with random values,
163
424121
2708
initialiser les valeurs de poids aléatoirement,
07:06
apply lots of computation to make adjustments to the weights.
164
426871
2875
ajuster ces valeurs avec tout un tas de calculs.
07:09
And at the end, if you’re lucky, you end up with a model
165
429746
2750
Et à la fin, avec un peu de chance, vous aurez un modèle
07:12
that is really good at that task you care about.
166
432538
2291
qui est très bon pour cette tâche spécifique.
07:14
But if you do this over and over,
167
434871
1583
Mais si vous faites ça plein de fois,
07:16
you end up with thousands of separate models,
168
436496
2667
vous finirez avec des milliers de modèles séparés,
07:19
each perhaps very capable,
169
439204
1792
sans doute tous très efficaces,
mais séparés, pour chacune des tâches à effectuer.
07:21
but separate for all the different tasks you care about.
170
441038
2791
07:23
But think about how people learn.
171
443829
1667
Mais réfléchissez à comment on apprend.
07:25
In the last year, many of us have picked up a bunch of new skills.
172
445538
3166
Cette année, beaucoup d’entre nous avons appris de nouvelles choses.
07:28
I've been honing my gardening skills,
173
448746
1792
J’ai parfait mes talents de jardinier,
07:30
experimenting with vertical hydroponic gardening.
174
450579
2375
en m’essayant à la culture hydroponique verticale.
07:32
To do that, I didn't need to relearn everything I already knew about plants.
175
452954
3792
Pour ça, il faut réapprendre tout ce que vous savez sur les plantes.
07:36
I was able to know how to put a plant in a hole,
176
456746
3375
Je savais déjà mettre une plante dans un trou
07:40
how to pour water, that plants need sun,
177
460163
2291
et l’arroser, qu’elle a besoin de soleil,
07:42
and leverage that in learning this new skill.
178
462496
3583
et exploiter tout ça pour apprendre cette nouvelle compétence.
Les ordinateurs peuvent faire pareil, mais ne le font pas encore.
07:46
Computers can work the same way, but they don’t today.
179
466079
3042
07:49
If you train a neural network from scratch,
180
469163
2583
Si vous entraînez un réseau neuronal de A à Z,
07:51
it's effectively like forgetting your entire education
181
471746
3542
c’est comme oublier toute votre éducation
à chaque fois que vous essayer de faire quelque chose de nouveau.
07:55
every time you try to do something new.
182
475288
1875
07:57
That’s crazy, right?
183
477163
1000
Ça paraît fou, non ?
07:58
So instead, I think we can and should be training
184
478788
3708
À la place, je pense qu’on devrait entraîner des modèles multitâches
08:02
multitask models that can do thousands or millions of different tasks.
185
482538
3791
qui peuvent faire des millier ou des millions de choses.
08:06
Each part of that model would specialize in different kinds of things.
186
486329
3375
Chaque partie de ce modèle se spécialiserait
dans différentes choses.
08:09
And then, if we have a model that can do a thousand things,
187
489704
2792
Ainsi, si on a un modèle qui peut faire mille choses,
08:12
and the thousand and first thing comes along,
188
492538
2166
et qu’on veut qu’il fasse une mille et unième,
08:14
we can leverage the expertise we already have
189
494746
2125
on peut utiliser l’expertise déjà acquise
08:16
in the related kinds of things
190
496913
1541
dans des domaines connexes
08:18
so that we can more quickly be able to do this new task,
191
498496
2792
pour pouvoir traiter cette nouvelle tâche plus rapidement,
08:21
just like you, if you're confronted with some new problem,
192
501288
2791
un peu comme quand on est confronté à un nouveau problème,
08:24
you quickly identify the 17 things you already know
193
504121
2625
et qu’on identifie 17 choses qu’on sait déjà
08:26
that are going to be helpful in solving that problem.
194
506746
2542
et qui seront utilses pour résoudre ce nouveau problème.
08:29
Second problem is that most of our models today
195
509329
2709
Le deuxième problème, c’est que la plupart de nos modèles
08:32
deal with only a single modality of data --
196
512079
2125
ne fonctionnent que sur une seule modalité de données –
08:34
with images, or text or speech,
197
514204
3084
sur des images, du texte ou la parole,
08:37
but not all of these all at once.
198
517329
1709
mais pas tout ça à la fois.
Mais pensez à la manière dont vous explorez le monde.
08:39
But think about how you go about the world.
199
519079
2042
08:41
You're continuously using all your senses
200
521121
2333
Vous utilisez tous vos sens en permanence
08:43
to learn from, react to,
201
523454
3083
pour apprendre, réagir,
08:46
figure out what actions you want to take in the world.
202
526579
2667
agir de manière appropriée.
08:49
Makes a lot more sense to do that,
203
529287
1667
C’est évident,
08:50
and we can build models in the same way.
204
530954
2000
et on peut construire des modèles qui font pareil.
08:52
We can build models that take in these different modalities of input data,
205
532954
4042
On peut faire des modèles qui acceptent toutes ces modalités,
08:57
text, images, speech,
206
537037
1750
texte, image, parole,
08:58
but then fuse them together,
207
538829
1417
et les fusionnent,
09:00
so that regardless of whether the model sees the word "leopard,"
208
540329
3833
et peu importe si le modèle voit le mot « léopard »,
09:04
sees a video of a leopard or hears someone say the word "leopard,"
209
544204
4083
voit une vidéo de léopard ou entend quelqu’un dire « léopard »,
09:08
the same response is triggered inside the model:
210
548329
2250
la même réponse sera donnée par le modèle :
09:10
the concept of a leopard
211
550621
1750
le concept de léopard
09:12
can deal with different kinds of input data,
212
552412
2250
peut accepter différents types d’entrées,
09:14
even nonhuman inputs, like genetic sequences,
213
554662
3000
même des entrées non-humaines, comme des séquences de génétiques,
09:17
3D clouds of points, as well as images, text and video.
214
557662
3209
des nuages de points en 3D, ou bien des images, textes et vidéos.
09:20
The third problem is that today's models are dense.
215
560912
3625
Le troisième problème, c’est que nos modèles actuels sont denses.
09:24
There's a single model,
216
564579
1417
Il y a un seul modèle,
09:25
the model is fully activated for every task,
217
565996
2375
et la totalité du modèle est activé pour toutes les tâches,
09:28
for every example that we want to accomplish,
218
568412
2125
pour chaque exemplaire qu’on veut faire,
09:30
whether that's a really simple or a really complicated thing.
219
570537
2917
peu importe qu’il soit très simple ou très compliqué.
09:33
This, too, is unlike how our own brains work.
220
573496
2666
C’est pas du tout comme ça que notre cerveau fonctionne.
09:36
Different parts of our brains are good at different things,
221
576204
3000
Différentes parties du cerveau sont bonnes à différentes choses,
09:39
and we're continuously calling upon the pieces of them
222
579246
3291
et on est continuellement en train de faire appel aux parties
09:42
that are relevant for the task at hand.
223
582579
2167
qui sont pertinentes selon le besoin immédiat.
09:44
For example, nervously watching a garbage truck
224
584787
2334
Par exemple, si vous voyez un camion-poubelle
09:47
back up towards your car,
225
587162
1875
reculer sur votre voiture,
la partie de votre cerveau qui pense aux sonnets de Shakespeare
09:49
the part of your brain that thinks about Shakespearean sonnets
226
589037
2917
09:51
is probably inactive.
227
591996
1250
est probablement inactive.
09:53
(Laughter)
228
593246
1625
(Rires)
09:54
AI models can work the same way.
229
594912
1750
L’IA peut faire pareil.
09:56
Instead of a dense model,
230
596662
1292
À la place d’un modèle dense,
09:57
we can have one that is sparsely activated.
231
597954
2250
on peut en avoir un qui s’active plus faiblement.
10:00
So for particular different tasks, we call upon different parts of the model.
232
600204
4250
Pour différentes tâches, on fait appel à différentes parties du modèle.
10:04
During training, the model can also learn which parts are good at which things,
233
604496
4375
Le modèle peut aussi apprendre quelle partie est bonne à quelles choses,
10:08
to continuously identify what parts it wants to call upon
234
608871
3791
pour identifier en permanence quelles parties il souhaite mobiliser
10:12
in order to accomplish a new task.
235
612662
1834
pour apprendre une nouvelle tâche.
10:14
The advantage of this is we can have a very high-capacity model,
236
614496
3541
L’avantage avec ça, c’est qu’on peut avoir un modèle de haute capacité,
10:18
but it's very efficient,
237
618037
1250
mais très efficace,
10:19
because we're only calling upon the parts that we need
238
619329
2583
car on appelle seulement les parties dont on a besoin
10:21
for any given task.
239
621954
1208
pour une tâche donnée.
10:23
So fixing these three things, I think,
240
623162
2000
Je pense qu’en réglant ces trois problèmes,
10:25
will lead to a more powerful AI system:
241
625162
2209
on pourra atteindre une IA plus puissante :
10:27
instead of thousands of separate models,
242
627412
2000
à la place de milliers de modèles séparés,
10:29
train a handful of general-purpose models
243
629412
2000
on entraîne quelque modèles généralistes
10:31
that can do thousands or millions of things.
244
631454
2083
qui peuvent faire des millions de choses.
10:33
Instead of dealing with single modalities,
245
633579
2042
Au lieu de traiter une modalité à la fois,
10:35
deal with all modalities,
246
635662
1334
on en traite plusieurs,
10:36
and be able to fuse them together.
247
636996
1708
et on les fusionne.
10:38
And instead of dense models, use sparse, high-capacity models,
248
638746
3458
Et au lieu de modèles denses, on utilise des modèles plus épars,
10:42
where we call upon the relevant bits as we need them.
249
642246
2958
dans lesquels on mobilise les parties pertinentes dont on a besoin.
10:45
We've been building a system that enables these kinds of approaches,
250
645246
3416
On a produit un système qui combine ces approches,
10:48
and we’ve been calling the system “Pathways.”
251
648704
2542
et on l’a appelé « Pathways ».
10:51
So the idea is this model will be able to do
252
651287
3084
L’idée derrière ce modèle, c’est d’être capable de faire
10:54
thousands or millions of different tasks,
253
654412
2084
des milliers ou des millions de tâches,
10:56
and then, we can incrementally add new tasks,
254
656537
2250
et ensuite de pouvoir rajouter de nouvelles tâches,
10:58
and it can deal with all modalities at once,
255
658787
2125
pouvoir traiter toutes les modalités en même temps,
11:00
and then incrementally learn new tasks as needed
256
660954
2958
et apprendre de nouvelles tâches quand on en a besoin
11:03
and call upon the relevant bits of the model
257
663954
2083
en faisant appelle aux parties du modèle
11:06
for different examples or tasks.
258
666037
1709
les plus pertinentes selon la tâche.
11:07
And we're pretty excited about this,
259
667787
1750
On est plutôt enthousiastes,
11:09
we think this is going to be a step forward
260
669537
2042
on pense que ce sera un pas en avant,
11:11
in how we build AI systems.
261
671621
1333
dans la conception des systèmes d’IA.
11:12
But I also wanted to touch on responsible AI.
262
672954
3708
Je voudrais aussi dire un mot sur le volet éthique de l’IA.
11:16
We clearly need to make sure that this vision of powerful AI systems
263
676662
4875
Il est important qu’on soit sûrs que cette idée d’une IA puissante.
11:21
benefits everyone.
264
681579
1167
soit bénéfique à tous.
11:23
These kinds of models raise important new questions
265
683496
2458
Ce genre de modèles soulèvent d’importantes questions
11:25
about how do we build them with fairness,
266
685954
2458
concernant leur conception : il faut garantir
11:28
interpretability, privacy and security,
267
688454
3208
équité, compréhensibilité, confidentialité et sécurité,
11:31
for all users in mind.
268
691662
1459
pour tous les utilisateurs.
11:33
For example, if we're going to train these models
269
693621
2291
Par exemple, pour entraîner ces modèles
11:35
on thousands or millions of tasks,
270
695954
2125
à faire des milliers ou des millions de tâches,
11:38
we'll need to be able to train them on large amounts of data.
271
698079
2875
on aura besoin d’une très grande quantité de données.
11:40
And we need to make sure that data is thoughtfully collected
272
700996
3250
Et on doit être attentifs à la manière dont ces données sont collectées
11:44
and is representative of different communities and situations
273
704287
3667
pour qu’elles soient représentatives
des différentes communautés et situations du monde.
11:47
all around the world.
274
707954
1167
11:49
And data concerns are only one aspect of responsible AI.
275
709579
4000
Et la question des données n’est qu’une facette du problème éthique.
11:53
We have a lot of work to do here.
276
713621
1583
La tâche est conséquente.
11:55
So in 2018, Google published this set of AI principles
277
715246
2666
En 2018, Google a publié ces principes concernant l’IA
11:57
by which we think about developing these kinds of technology.
278
717912
3500
auxquels on prête attention en développant ces technologies.
12:01
And these have helped guide us in how we do research in this space,
279
721454
3625
Cela nous a guidé pour mener nos recherches dans ce domaine,
12:05
how we use AI in our products.
280
725121
1833
et utiliser l’IA dans nos produits.
12:06
And I think it's a really helpful and important framing
281
726996
2750
Et je pense que c’est un cadre utile dont nous avons besoin
12:09
for how to think about these deep and complex questions
282
729746
2875
pour penser ces questions profondes et complexes
12:12
about how we should be using AI in society.
283
732621
2833
concernant notre usage de l’IA dans notre société.
12:15
We continue to update these as we learn more.
284
735454
3625
On continue à mettre à jour ces principes au fur et à mesure qu’on en apprend plus.
12:19
Many of these kinds of principles are active areas of research --
285
739079
3458
Beaucoup de ces principes sont des domaines de recherche très actifs –
12:22
super important area.
286
742537
1542
des domaines très importants.
12:24
Moving from single-purpose systems that kind of recognize patterns in data
287
744121
4125
Passer d’un système à usage unique qui reconnaît des récurrences dans les données
12:28
to these kinds of general-purpose intelligent systems
288
748246
2750
à un système intelligent à usage plus général
12:31
that have a deeper understanding of the world
289
751037
2292
avec une compréhension plus profonde du monde
12:33
will really enable us to tackle
290
753329
1583
nous permettra de nous attaquer
12:34
some of the greatest problems humanity faces.
291
754954
2500
aux plus grands problèmes de l’humanité.
12:37
For example,
292
757454
1167
Par exemple,
12:38
we’ll be able to diagnose more disease;
293
758662
2375
on pourra diagnostiquer plus de maladies,
12:41
we'll be able to engineer better medicines
294
761079
2000
concevoir de meilleurs médicaments
en imprégnant des modèles de nos savoirs en physique et chimie ;
12:43
by infusing these models with knowledge of chemistry and physics;
295
763079
3083
12:46
we'll be able to advance educational systems
296
766204
2667
on pourra améliorer nos systèmes scolaires
12:48
by providing more individualized tutoring
297
768871
2041
en prodiguant un enseignement individualisé
12:50
to help people learn in new and better ways;
298
770912
2375
grâce à de nouvelles méthodes plus efficaces ;
12:53
we’ll be able to tackle really complicated issues,
299
773287
2375
on pourra s’attaquer à des problèmes complexes,
12:55
like climate change,
300
775704
1208
comme le changement climatique,
12:56
and perhaps engineering of clean energy solutions.
301
776954
2792
et avancer dans le domaine des énergies propres.
12:59
So really, all of these kinds of systems
302
779787
2667
Pour tous ces systèmes,
13:02
are going to be requiring the multidisciplinary expertise
303
782496
2875
il nous faudra une approche interdisciplinaire et faire appel
13:05
of people all over the world.
304
785371
1875
à des experts du monde entier.
13:07
So connecting AI with whatever field you are in,
305
787287
3542
Connecter l’IA avec votre domaine d’expertise
13:10
in order to make progress.
306
790829
1750
afin de progresser.
13:13
So I've seen a lot of advances in computing,
307
793579
2292
J’ai vu les grands progrès accomplis en informatique,
13:15
and how computing, over the past decades,
308
795912
2292
et comment ça a pu aider, ces dernières décennies,
13:18
has really helped millions of people better understand the world around them.
309
798204
4167
des millions de personnes à mieux comprendre le monde autour d’eux.
13:22
And AI today has the potential to help billions of people.
310
802412
3000
Et aujourd’hui, l’IA a le potentiel d’aider des milliards de personnes.
13:26
We truly live in exciting times.
311
806204
2125
On vit vraiment une époque excitante.
13:28
Thank you.
312
808746
1166
Merci.
13:29
(Applause)
313
809912
7000
(Applaudissements)
13:39
Chris Anderson: Thank you so much.
314
819829
1667
Chris Anderson : Merci beaucoup.
13:41
I want to follow up on a couple things.
315
821537
2375
J’aimerais revenir sur certains points
13:44
This is what I heard.
316
824454
2792
Je crois que
13:47
Most people's traditional picture of AI
317
827287
4125
l’image que la plupart des gens ont de l’IA,
13:51
is that computers recognize a pattern of information,
318
831412
3125
c’est que les ordinateurs peuvent reconnaître des récurrences,
13:54
and with a bit of machine learning,
319
834579
2125
et avec un peu d’apprentissage machine,
13:56
they can get really good at that, better than humans.
320
836704
2625
il peuvent devenir bons, meilleurs que les humains.
13:59
What you're saying is those patterns
321
839329
1792
vous dites que ces récurrences
14:01
are no longer the atoms that AI is working with,
322
841121
2875
ne sont plus des atomes avec lesquels l’IA travaille,
14:04
that it's much richer-layered concepts
323
844037
2542
mais des concepts multifacettes
14:06
that can include all manners of types of things
324
846621
3458
qui peuvent inclure tout ce qui peut faire un léopard, par exemple.
14:10
that go to make up a leopard, for example.
325
850121
3000
14:13
So what could that lead to?
326
853121
2916
Qu’est-ce que ça peut donner ?
14:16
Give me an example of when that AI is working,
327
856079
2750
Donnez-moi un exemple d’application,
14:18
what do you picture happening in the world
328
858829
2042
qu’est-ce que vous imaginez possible
14:20
in the next five or 10 years that excites you?
329
860912
2209
dans 10 ans ? Quelque chose qui vous emballe.
14:23
Jeff Dean: I think the grand challenge in AI
330
863537
2500
Jeff Dean : Je pense que le grand défi de l’IA,
14:26
is how do you generalize from a set of tasks
331
866079
2375
c’est de généraliser un ensemble de tâches
14:28
you already know how to do
332
868496
1416
que vous savez déjà faire
14:29
to new tasks,
333
869954
1208
à de nouvelles tâches.
14:31
as easily and effortlessly as possible.
334
871204
2542
aussi facilement que possible.
14:33
And the current approach of training separate models for everything
335
873746
3250
Et avec l’approche actuelle d’entraîner séparément des modèles pour tout,
14:36
means you need lots of data about that particular problem,
336
876996
3166
pour chaque problème,
14:40
because you're effectively trying to learn everything
337
880162
2542
parce que vous êtes en train de tout réapprendre
14:42
about the world and that problem, from nothing.
338
882746
2541
sur le monde et ce problème depuis zéro.
14:45
But if you can build these systems
339
885287
1667
Mais si vous pouvez concevoir des systèmes
14:46
that already are infused with how to do thousands and millions of tasks,
340
886996
4458
qui savent déjà traiter des millions de tâches,
14:51
then you can effectively teach them to do a new thing
341
891496
3791
vous pouvez leur apprendre efficacement comment faire de nouvelles choses
14:55
with relatively few examples.
342
895329
1500
avec relativement peu d’exemples.
14:56
So I think that's the real hope,
343
896871
2083
Donc j’ai l’espoir
14:58
that you could then have a system where you just give it five examples
344
898996
4083
qu’on pourra avoir un système auquel on pourra donner 5 exemples
15:03
of something you care about,
345
903121
1541
d’une tâche importante,
15:04
and it learns to do that new task.
346
904704
1917
et il apprendra à traiter cette nouvelle tâche.
15:06
CA: You can do a form of self-supervised learning
347
906662
2375
CA : Donc on peut avoir un apprentissage autonome
15:09
that is based on remarkably little seeding.
348
909079
2542
avec peu d’entrées.
15:11
JD: Yeah, as opposed to needing 10,000 or 100,000 examples
349
911662
2875
JD : C’est ça, au lieu d’avoir besoin de 10 000 ou 100 000 exemples
15:14
to figure everything in the world out.
350
914579
1833
pour tout comprendre.
15:16
CA: Aren't there kind of terrifying unintended consequences
351
916454
2792
CA : Ne pourrait-il pas y avoir
15:19
possible, from that?
352
919287
1334
des conséquences involontaires ?
15:20
JD: I think it depends on how you apply these systems.
353
920621
2625
JD : Je pense que ça dépend de l’utilisation qu’on en fait.
15:23
It's very clear that AI can be a powerful system for good,
354
923287
4167
L’IA peut avoir beaucoup d’effets positifs,
15:27
or if you apply it in ways that are not so great,
355
927496
2333
ou si vous ne faites pas attention à comment vous l’utilisez,
15:29
it can be a negative consequence.
356
929871
3375
elle peut avoir de mauvaises conséquences.
15:33
So I think that's why it's important to have a set of principles
357
933287
3042
C’est pour ça qu’il est important d’avoir en tête ces principes
15:36
by which you look at potential uses of AI
358
936371
2250
quand vous cherchez à utiliser l’IA
15:38
and really are careful and thoughtful about how you consider applications.
359
938662
5125
et de faire très attention à la manière dont vous abordez ses applications.
15:43
CA: One of the things people worry most about
360
943787
2209
CA : Il y a une chose qui inquiète beaucoup les gens,
15:45
is that, if AI is so good at learning from the world as it is,
361
945996
3583
c’est que si l’IA apprend si bien du monde tel qu’il est,
15:49
it's going to carry forward into the future
362
949621
2875
elle risque de conserver, dans le futur,
15:52
aspects of the world as it is that actually aren't right, right now.
363
952537
4375
les mauvais aspects du monde actuel.
15:56
And there's obviously been a huge controversy about that
364
956954
2708
Et il y eu une grande controverse
15:59
recently at Google.
365
959662
2417
concernant Google, récemment.
16:02
Some of those principles of AI development,
366
962121
3083
On vous a accusé de ne pas respecter
16:05
you've been challenged that you're not actually holding to them.
367
965246
4708
certains de ces principes.
16:10
Not really interested to hear about comments on a specific case,
368
970329
3250
Il ne s’agit pas de commenter un exemple spécifique,
16:13
but ... are you really committed?
369
973621
2708
mais... vous engagez vous vraiment ?
16:16
How do we know that you are committed to these principles?
370
976329
2750
Comment être sûr que vous respectez ces principes ?
16:19
Is that just PR, or is that real, at the heart of your day-to-day?
371
979079
4417
Est-ce une stratégie médiatique ou est-ce au centre de vos pratiques ?
16:23
JD: No, that is absolutely real.
372
983496
1541
JD : Non, c’est tout à fait réel.
16:25
Like, we have literally hundreds of people
373
985079
2125
On a des centaines de personnes
16:27
working on many of these related research issues,
374
987204
2333
qui travaillent sur ces sujets,
16:29
because many of those things are research topics
375
989537
2417
car beaucoup de ces choses sont des sujets de recherche à part entière.
16:31
in their own right.
376
991996
1166
16:33
How do you take data from the real world,
377
993162
2250
Comment récupérer des données du monde réel,
16:35
that is the world as it is, not as we would like it to be,
378
995412
5000
le monde tel qu’il est, et pas comme vous voulez qu’il soit,
16:40
and how do you then use that to train a machine-learning model
379
1000412
3209
et comment les utiliser ensuite pour entraîner un modèle,
16:43
and adapt the data bit of the scene
380
1003621
2500
comment adapter les données
16:46
or augment the data with additional data
381
1006162
2500
ou leur adjoindre d’autres données
16:48
so that it can better reflect the values we want the system to have,
382
1008704
3292
pour que ça reflète au mieux les valeurs que l’on veut que le système ait,
16:51
not the values that it sees in the world?
383
1011996
2208
et pas les valeurs qu’il voit dans le monde ?
16:54
CA: But you work for Google,
384
1014204
2417
CA : Mais vous travailler pour Google,
16:56
Google is funding the research.
385
1016662
2084
c’est Google qui finance ces recherches.
16:59
How do we know that the main values that this AI will build
386
1019371
4458
Comment être sûr que les valeurs que cette IA a construites
17:03
are for the world,
387
1023871
1208
sont pour le monde,
17:05
and not, for example, to maximize the profitability of an ad model?
388
1025121
4916
et pas pour maximiser les profits d’un modèle publicitaire par exemple ?
17:10
When you know everything there is to know about human attention,
389
1030037
3084
Quand vous saurez tout sur l’attention de l’être humain,
17:13
you're going to know so much
390
1033121
1500
vous en saurez tellement
17:14
about the little wriggly, weird, dark parts of us.
391
1034621
2458
sur nos côtés sombres et bizarres.
17:17
In your group, are there rules about how you hold off,
392
1037121
6167
Dans votre groupe, est-ce qu’il y a des règles pour que vous puissiez tenir
17:23
church-state wall between a sort of commercial push,
393
1043329
3750
une frontière franche entre une pratique commerciale
17:27
"You must do it for this purpose,"
394
1047079
2292
et un enjeu plus commun et collectif
17:29
so that you can inspire your engineers and so forth,
395
1049413
2458
pour que vos ingénieurs et ceux qui travaillent avec vous
17:31
to do this for the world, for all of us.
396
1051913
1916
aspirent à le faire pour le monde.
17:33
JD: Yeah, our research group does collaborate
397
1053871
2125
JD : Notre groupe de recherche collabore
17:36
with a number of groups across Google,
398
1056038
1833
avec beaucoup d’autres groupes de Google
17:37
including the Ads group, the Search group, the Maps group,
399
1057913
2750
dont Ads, Search et Maps,
17:40
so we do have some collaboration, but also a lot of basic research
400
1060704
3209
mais on fait aussi beaucoup de recherche fondamentale
17:43
that we publish openly.
401
1063954
1542
en publication ouverte.
17:45
We've published more than 1,000 papers last year
402
1065538
3333
On a publié plus de 1 000 articles l’année passée
17:48
in different topics, including the ones you discussed,
403
1068871
2583
sur différents sujets, dont ceux dont on a discuté,
17:51
about fairness, interpretability of the machine-learning models,
404
1071454
3042
sur l’équité, l’intelligibilité des modèles d’apprentissage machine,
17:54
things that are super important,
405
1074538
1791
c’est super important,
17:56
and we need to advance the state of the art in this
406
1076371
2417
et on a besoin d’avancer dans ces domaines
17:58
in order to continue to make progress
407
1078829
2209
pour continuer à progresser
et être sûrs que ce ces modèles soient développés de manière sûre et responsable.
18:01
to make sure these models are developed safely and responsibly.
408
1081079
3292
18:04
CA: It feels like we're at a time when people are concerned
409
1084788
3041
CA : Je pense qu’on vit un époque pendant laquelle les gens s’inquiètent
18:07
about the power of the big tech companies,
410
1087829
2042
du pouvoir que prennent les grandes entreprises de tech,
18:09
and it's almost, if there was ever a moment to really show the world
411
1089871
3750
et c’est comme si c’était vraiment le bon moment pour montrer
18:13
that this is being done to make a better future,
412
1093663
3333
qu’on fait ça pour un avenir meilleur,
18:17
that is actually key to Google's future,
413
1097038
2791
que c’est essentiel aussi bien pour le futur de Google,
18:19
as well as all of ours.
414
1099871
1750
que pour le nôtre.
18:21
JD: Indeed.
415
1101663
1166
JD : En effet.
18:22
CA: It's very good to hear you come and say that, Jeff.
416
1102871
2583
CA : Je suis heureux que vous soyez soyez venus pour parler de ça.
18:25
Thank you so much for coming here to TED.
417
1105454
2042
Merci beaucoup d’être venus à TED.
18:27
JD: Thank you.
418
1107538
1166
JD : Merci à vous.
18:28
(Applause)
419
1108704
1167
(Applaudissements)
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7