How AI Is Unlocking the Secrets of Nature and the Universe | Demis Hassabis | TED

392,106 views

2024-04-29 ・ TED


New videos

How AI Is Unlocking the Secrets of Nature and the Universe | Demis Hassabis | TED

392,106 views ・ 2024-04-29

TED


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

Traducteur: Claire Ghyselen Relecteur: Anne-Sophie Matichard
00:04
Chris Anderson: Demis, so good to have you here.
0
4376
2335
Chris Anderson : Demis, heureux de t’accueillir.
00:06
Demis Hassabis: It's fantastic to be here, thanks, Chris.
1
6711
2711
Demis Hassabis : C’est fantastique d’être ici.
CA : Vous avez dit à Time Magazine :
00:09
Now, you told Time Magazine,
2
9422
2128
00:11
"I want to understand the big questions,
3
11591
2044
« Je veux comprendre les grandes questions,
00:13
the really big ones that you normally go into philosophy or physics
4
13635
3295
celles que l’on aborde normalement en philosophie ou en physique
00:16
if you're interested in them.
5
16972
1793
quand on s’y intéresse.
00:18
I thought building AI
6
18807
2502
J’ai pensé que développer l’IA
00:21
would be the fastest route to answer some of those questions."
7
21351
3420
serait le moyen le plus rapide de résoudre certaines de ces questions. »
00:25
Why did you think that?
8
25730
1460
Pourquoi avez-vous pensé ça ?
00:27
DH: (Laughs)
9
27232
1293
DH : (Rires)
00:28
Well, I guess when I was a kid,
10
28567
2210
Eh bien, quand j’étais enfant,
00:30
my favorite subject was physics,
11
30819
1877
ma matière préférée était la physique,
00:32
and I was interested in all the big questions,
12
32696
2752
et je m’intéressais à toutes les grandes questions :
00:35
fundamental nature of reality,
13
35490
1960
la nature fondamentale de la réalité,
00:37
what is consciousness,
14
37492
1335
ce qu'est la conscience,
00:38
you know, all the big ones.
15
38827
1752
ce genre de grandes questions.
00:40
And usually you go into physics, if you're interested in that.
16
40579
2961
Et cette curiosité nous dirige vers la physique.
00:43
But I read a lot of the great physicists,
17
43540
1960
Mais j’ai lu beaucoup de grands physiciens,
00:45
some of my all-time scientific heroes like Feynman and so on.
18
45542
2961
certains de mes héros scientifiques absolus, comme Feynman.
00:48
And I realized, in the last, sort of 20, 30 years,
19
48503
2377
Et je me suis aperçu que ces 20 ou 30 dernières années,
00:50
we haven't made much progress
20
50880
1669
nous avions peu progressé
00:52
in understanding some of these fundamental laws.
21
52591
2335
dans la compréhension de certaines de ces lois fondamentales.
00:54
So I thought, why not build the ultimate tool to help us,
22
54926
4672
Alors je me suis dit : pourquoi ne pas créer l’outil ultime pour nous y aider,
00:59
which is artificial intelligence.
23
59639
1710
l’intelligence artificielle.
01:01
And at the same time,
24
61391
1668
Et en même temps,
nous pourrions peut-être mieux nous comprendre
01:03
we could also maybe better understand ourselves
25
63101
2211
01:05
and the brain better, by doing that too.
26
65312
1918
et mieux comprendre notre cerveau.
Non seulement est-ce un outil incroyable,
01:07
So not only was it incredible tool,
27
67272
1710
01:08
it was also useful for some of the big questions itself.
28
68982
3170
mais c’est aussi utile pour certaines de ces grandes questions.
01:12
CA: Super interesting.
29
72152
1209
CA : Très intéressant.
01:13
So obviously AI can do so many things,
30
73403
2669
Il est évident que l’IA peut faire tellement de choses,
01:16
but I think for this conversation,
31
76072
1669
mais dans notre conversation,
01:17
I'd love to focus in on this theme of what it might do
32
77782
3754
je souhaite me concentrer sur le thème de ce qu’elle pourrait apporter
01:21
to unlock the really big questions, the giant scientific breakthroughs,
33
81536
4004
pour résoudre les grandes questions, les avancées scientifiques géantes,
01:25
because it's been such a theme driving you and your company.
34
85582
3462
car c’est un thème qui vous anime, vous et votre entreprise.
01:29
DH: So I mean, one of the big things AI can do,
35
89044
2794
DH : L’une des grandes choses que l’IA peut faire,
01:31
and I've always thought about,
36
91880
1460
et à laquelle j’ai toujours pensé,
01:33
is we're getting, you know, even back 20, 30 years ago,
37
93340
3295
et c’était déjà le cas il y a 20 ou 30 ans,
01:36
the beginning of the internet era and computer era,
38
96676
3087
au début de l’ère d'Internet et de l’ère de l'informatique,
01:39
the amount of data that was being produced
39
99804
3170
la quantité de données produites et aussi des données scientifiques,
01:43
and also scientific data,
40
103016
1877
01:44
just too much for the human mind to comprehend in many cases.
41
104934
3671
est souvent trop importante pour que l’esprit humain puisse les appréhender.
01:48
And I think one of the uses of AI is to find patterns and insights
42
108605
4046
Et selon moi, une des utilisations de l’IA est de trouver des modèles et des indices
01:52
in huge amounts of data and then surface that
43
112692
2169
dans d’énormes quantités de données puis de les présenter aux scientifiques
01:54
to the human scientists to make sense of
44
114861
2461
qui peuvent leur donner sens et émettre de nouvelles hypothèses.
01:57
and make new hypotheses and conjectures.
45
117364
2294
01:59
So it seems to me very compatible with the scientific method.
46
119699
3504
Cela me semble donc très compatible avec la méthode scientifique.
02:03
CA: Right.
47
123203
1334
CA : C'est vrai.
02:04
But game play has played a huge role in your own journey
48
124579
3128
Le jeu fut important dans votre propre parcours
02:07
in figuring this thing out.
49
127749
1293
pour comprendre ça.
02:09
Who is this young lad on the left there?
50
129793
2961
Qui est ce jeune garçon sur la gauche ?
02:12
Who is that?
51
132796
1167
C'est qui ?
02:13
DH: So that was me, I think I must have been about around nine years old.
52
133963
3504
DH : C'était donc moi, je pense que je devais avoir environ neuf ans.
02:17
I'm captaining the England Under 11 team,
53
137467
3045
J’étais le capitaine de l’équipe d’Angleterre des moins de 11 ans,
02:20
and we're playing in a Four Nations tournament,
54
140553
2461
et nous participions à un tournoi des Quatre Nations.
02:23
that's why we're all in red.
55
143056
1376
Nous sommes tous en rouge.
02:24
I think we're playing France, Scotland and Wales, I think it was.
56
144432
3087
Nous jouions contre la France, l’Écosse et le Pays de Galles.
02:27
CA: That is so weird, because that happened to me too.
57
147519
4546
CA : C’est vraiment étrange car cela m’est arrivé à moi aussi,
02:32
In my dreams.
58
152107
1167
mais dans mes rêves.
02:33
(Laughter)
59
153274
1168
(Rires)
02:34
And it wasn't just chess,
60
154818
3378
Et il n'y avait pas que les échecs,
02:38
you loved all kinds of games.
61
158238
1418
vous aimiez toutes sortes de jeux.
02:39
DH: I loved all kinds of games, yeah.
62
159656
1793
DH : Oui, en effet.
02:41
CA: And when you launched DeepMind,
63
161449
1710
CA : Et quand vous avez lancé DeepMind,
02:43
pretty quickly, you started having it tackle game play.
64
163159
4088
assez rapidement, vous l’avez confrontée à des jeux.
02:47
Why?
65
167288
1210
Pourquoi ?
02:48
DH: Well, look, I mean, games actually got me into AI in the first place
66
168498
3420
DH : Eh bien, le jeu m’a fait découvrir l’IA ;
02:51
because while we were doing things like,
67
171918
2294
en fait, nous avions l’habitude de participer
02:54
we used to go on training camps with the England team and so on.
68
174254
3044
à des camps de formation avec l’équipe d’Angleterre.
02:57
And actually back then,
69
177298
1669
Et à l’époque,
02:58
I guess it was in the mid '80s,
70
178967
2711
je suppose que c’était au milieu des années 1980,
03:01
we would use the very early chess computers,
71
181678
2169
nous utilisions les tout premiers ordinateurs d’échecs,
03:03
if you remember them, to train against,
72
183888
2419
pour nous entraîner contre les machines,
03:06
as well as playing against each other.
73
186349
1835
tout comme nous jouions entre nous.
Et il y avait de gros blocs de plastique,
03:08
And they were big lumps of plastic,
74
188184
1877
03:10
you know, physical boards that you used to,
75
190103
2002
de vraies planches que l’on utilisait
03:12
some of you remember, used to actually press the squares down
76
192105
3086
certains d’entre vous s’en souviennent, pour appuyer sur les cases
03:15
and there were LED lights, came on.
77
195233
1752
et des lumières LED s'allumaient.
03:17
And I remember actually, not just thinking about the chess,
78
197026
2795
Et je me souviens, pas seulement en pensant aux échecs,
03:19
I was actually just fascinated by the fact that this lump of plastic,
79
199821
3545
j’étais fasciné par le fait que quelqu’un avait programmé ce morceau de plastique
03:23
someone had programmed it to be smart
80
203408
3378
pour qu’il soit intelligent
03:26
and actually play chess to a really high standard.
81
206828
2669
et qu'il joue aux échecs à un niveau très élevé.
03:29
And I was just amazed by that.
82
209497
1877
J’étais en admiration.
03:31
And that got me thinking about thinking.
83
211374
2461
Et cela m'a fait réfléchir.
03:33
And how does the brain come up with these thought processes,
84
213877
3461
Comment le cerveau arrive-t-il à ces processus de pensée,
03:37
these ideas,
85
217380
1168
à ces idées ?
03:38
and then maybe how we could mimic that with computers.
86
218548
3337
Et peut-être comment nous pourrions l’imiter avec des ordinateurs.
03:42
So yeah, it's been a whole theme for my whole life, really.
87
222218
3921
Donc oui, c’est un thème qui marque toute ma vie.
03:46
CA: But you raised all this money to launch DeepMind,
88
226139
3170
CA : Mais vous avez collecté tous ces fonds pour lancer DeepMind,
03:49
and pretty soon you were using it to do, for example, this.
89
229350
4922
et très vite, vous vous en êtes servi pour faire, par exemple, ceci.
03:55
I mean, this is an odd use of it.
90
235190
1960
C’est une utilisation étrange.
03:57
What was going on here?
91
237192
1209
Que se passe-t-il ici ?
03:58
DH: Well, we started off with games at the beginning of DeepMind.
92
238443
3086
DH : Nous avons commencé par les jeux au début de DeepMind.
04:01
This was back in 2010, so this is from about 10 years ago,
93
241529
2711
C’était en 2010, il y a environ 10 ans,
c'était notre première grande avancée.
04:04
it was our first big breakthrough.
94
244240
1710
04:05
Because we started off with classic Atari games from the 1970s,
95
245992
3253
Car nous avons commencé avec les jeux Atari des années 1970,
04:09
the simplest kind of computer games there are out there.
96
249287
3504
le type de jeu informatique le plus simple qui soit.
04:12
And one of the reasons we used games is they're very convenient
97
252832
2962
L’une des raisons pour lesquelles nous avons utilisé les jeux
04:15
to test out your ideas and your algorithms.
98
255835
3796
est qu’ils sont très pratiques pour tester vos idées et vos algorithmes.
04:19
They're really fast to test.
99
259672
1544
Ils sont très rapides à tester.
04:21
And also, as your systems get more powerful,
100
261674
2711
Et à mesure que nos systèmes deviennent plus puissants,
04:24
you can choose harder and harder games.
101
264385
2336
on peut choisir des jeux de plus en plus difficiles.
04:26
And this was actually the first time ever that our machine surprised us,
102
266721
4004
Et c’était la première fois que notre machine nous surprenait,
04:30
the first of many times,
103
270767
1293
la première d’une longue série,
04:32
which, it figured out in this game called Breakout,
104
272060
2419
où elle a compris dans ce jeu, Breakout,
04:34
that you could send the ball round the back of the wall,
105
274479
2627
qu’on pouvait envoyer la balle de l’autre côté du mur
04:37
and actually, it would be much safer way to knock out all the tiles of the wall.
106
277148
3796
et que c’était un moyen plus sûr d’éliminer toutes les briques du mur.
04:40
It's a classic Atari game there.
107
280944
1543
C’est un jeu Atari classique.
Et ce fut notre première révélation.
04:42
And that was our first real aha moment.
108
282529
1876
04:44
CA: So this thing was not programmed to have any strategy.
109
284405
2962
CA : Ce truc n’a donc pas été programmé pour avoir une stratégie.
04:47
It was just told, try and figure out a way of winning.
110
287408
3671
On lui avait juste demandé de trouver un moyen de gagner.
04:51
You just move the bat at the bottom and see if you can find a way of winning.
111
291120
3713
Il faut déplacer la batte en bas et trouver un moyen de gagner.
04:54
DH: It was a real revolution at the time.
112
294833
2002
DH : Ce fut révolutionnaire à l’époque.
04:56
So this was in 2012, 2013
113
296835
1376
On est en 2012, 2013,
04:58
where we coined these terms "deep reinforcement learning."
114
298211
3337
quand on a inventé le terme d’apprentissage par renforcement profond.
05:01
And the key thing about them is that those systems were learning
115
301548
3044
Et l’essentiel sur ces systèmes, c’est qu’ils apprenaient
05:04
directly from the pixels, the raw pixels on the screen,
116
304634
2586
directement à partir des pixels, les pixels bruts sur l’écran,
05:07
but they weren't being told anything else.
117
307262
2085
et on ne leur disait rien d’autre.
05:09
So they were being told, maximize the score,
118
309389
2169
On leur demandait de maximiser le score,
05:11
here are the pixels on the screen,
119
311558
1668
on leur donnait les pixels, 30 000 pixels.
05:13
30,000 pixels.
120
313268
2085
05:15
The system has to make sense on its own from first principles
121
315395
3420
Le système doit comprendre par lui-même à partir des principes de base :
05:18
what’s going on, what it’s controlling,
122
318857
1876
ce qui se passe, ce qu'il contrôle, comment obtenir des points.
05:20
how to get points.
123
320733
1168
05:21
And that's the other nice thing about using games to begin with.
124
321901
3003
Et c’est l’autre avantage d’utiliser des jeux.
Ils ont des objectifs clairs : gagner, marquer des points.
05:24
They have clear objectives, to win, to get scores.
125
324946
2377
05:27
So you can kind of measure very easily that your systems are improving.
126
327323
3587
On peut donc mesurer très facilement l’amélioration de nos systèmes.
05:30
CA: But there was a direct line from that to this moment
127
330910
2628
CA : Mais il y a eu un fil direct entre ce moment,
05:33
a few years later,
128
333580
1459
et celui, quelques années plus tard,
05:35
where country of South Korea and many other parts of Asia
129
335081
4129
où la Corée du Sud et de nombreuses autres régions d'Asie
05:39
and in fact the world went crazy over -- over what?
130
339252
3045
et en fait le monde, sont devenus fous de quoi ?
05:42
DH: Yeah, so this was the pinnacle of -- this is in 2016 --
131
342589
3712
DH : Oui, c’était le point culminant de notre travail en matière de jeux vidéo,
05:46
the pinnacle of our games-playing work,
132
346342
2586
en 2016,
05:48
where, so we'd done Atari,
133
348970
1793
alors qu’Atari était le passé,
05:50
we'd done some more complicated games.
134
350763
2169
et nous avions créé des jeux plus compliqués.
05:52
And then we reached the pinnacle, which was the game of Go,
135
352974
3295
Puis nous avons atteint le sommet, le jeu de go,
05:56
which is what they play in Asia instead of chess,
136
356311
2961
la version asiatique du jeu d’échec,
05:59
but it's actually more complex than chess.
137
359272
2085
mais qui est en fait plus complexe que les échecs.
06:01
And the actual brute force algorithms
138
361357
4171
Et la force brute des algorithmes
06:05
that were used to kind of crack chess were not possible with Go
139
365528
4671
utilisés pour vaincre aux échecs n’étaient plus suffisante pour le go,
06:10
because it's a much more pattern-based game,
140
370241
2419
car c'est un jeu beaucoup plus basé sur des modèles,
06:12
much more intuitive game.
141
372702
1293
beaucoup plus intuitif.
06:14
So even though Deep Blue beat Garry Kasparov in the '90s,
142
374037
3503
Même si Deep Blue a battu Garry Kasparov dans les années 90,
06:17
it took another 20 years for our program, AlphaGo,
143
377582
4129
il a fallu encore 20 ans pour que notre programme, AlphaGo,
06:21
to beat the world champion at Go.
144
381753
1710
batte le champion du monde de Go.
06:23
And we always thought,
145
383504
1168
Nous pensons depuis le début,
06:24
myself and the people working on this project for many years,
146
384714
2878
moi et ceux qui travaillent sur ce projet,
06:27
if you could build a system that could beat the world champion at Go,
147
387634
3920
qui si on peut créer un système capable de battre le champion du monde de Go,
06:31
it would have had to have done something very interesting.
148
391596
2711
ce serait un exploit vraiment intéressant.
06:34
And in this case, what we did with AlphaGo,
149
394349
2043
Et ici, on a fait de sorte qu’AlphaGo apprenne par lui-même,
06:36
is it basically learned for itself,
150
396392
1710
en jouant à des millions de parties contre lui-même,
06:38
by playing millions and millions of games against itself,
151
398102
2711
06:40
ideas about Go, the right strategies.
152
400813
1794
des idées sur le go et les bonnes stratégies.
06:42
And in fact invented its own new strategies
153
402607
2461
Et en fait, il a inventé ses propres nouvelles stratégies
06:45
that the Go world had never seen before,
154
405068
2002
totalement inédites dans le monde du Go,
06:47
even though we've played Go for more than,
155
407070
2627
même si nous jouons au go depuis plus de 2 000 ans,
06:49
you know, 2,000 years,
156
409697
1460
06:51
it's the oldest board game in existence.
157
411199
2753
c’est le plus vieux jeu de plateau au monde.
Donc, c’était impressionnant.
06:54
So, you know, it was pretty astounding.
158
414327
1918
Non seulement il a gagné le match,
06:56
Not only did it win the match,
159
416245
1627
06:57
it also came up with brand new strategies.
160
417872
2836
mais il a aussi proposé de toutes nouvelles stratégies.
07:01
CA: And you continued this with a new strategy
161
421125
2169
CA : C’est devenu la base d’une nouvelle stratégie
07:03
of not even really teaching it anything about Go,
162
423336
2294
consistant à ne pas donner d’instruction sur le go,
07:05
but just setting up systems
163
425630
1877
mais à mettre en place des systèmes
07:07
that just from first principles would play
164
427548
3254
qui peuvent jouer sur base de quelques principes de base,
07:10
so that they could teach themselves from scratch, Go or chess.
165
430802
5088
et apprendre en partant de rien, qu’il s’agisse du go ou des échecs.
07:15
Talk about AlphaZero and the amazing thing that happened in chess then.
166
435932
5714
Dites-nous en davantage sur AlphaZero
et la chose incroyable qui s’est produite aux échecs à l’époque.
07:21
DH: So following this, we started with AlphaGo
167
441646
3045
DH : Après cet événement, nous avons commencé avec AlphaGo
07:24
by giving it all of the human games that are being played on the internet.
168
444691
3920
en le nourrissant de tous les jeux humains qui se jouent sur Internet.
07:28
So it started that as a basic starting point for its knowledge.
169
448611
3587
Il a démarré avec cela comme point de départ pour ses connaissances.
07:32
And then we wanted to see what would happen if we started from scratch,
170
452240
3587
Ensuite, nous avons voulu voir ce qui se passerait si nous partions de zéro,
07:35
from literally random play.
171
455868
1669
en jouant littéralement au hasard.
07:37
So this is what AlphaZero was.
172
457537
1501
C'est ce qu'était AlphaZero.
07:39
That's why it's the zero in the name,
173
459038
1835
C’est la raison du zéro dans le nom,
07:40
because it started with zero prior knowledge
174
460873
3170
parce qu’il a commencé sans aucune connaissance préalable.
07:44
And the reason we did that is because then we would build a system
175
464085
3128
Et notre raison était que nous allions développer un système plus général.
07:47
that was more general.
176
467213
1251
07:48
So AlphaGo could only play Go,
177
468464
1919
Là où AlphaGo ne pouvait jouer qu’au Go,
07:50
but AlphaZero could play any two-player game,
178
470425
2836
AlphaZero pouvait jouer à n’importe quel jeu à deux joueurs.
07:53
and it did it by playing initially randomly
179
473302
4088
Il le faisait en jouant d’abord au hasard,
07:57
and then slowly, incrementally improving.
180
477432
1960
puis lentement, en s’améliorant graduellement.
07:59
Well, not very slowly, actually, within the course of 24 hours,
181
479434
2961
En fait, pas si lentement que cela, mais en 24 heures :
08:02
going from random to better than world-champion level.
182
482395
3045
il est passé d’un niveau aléatoire à supérieur à celui de champion du monde.
08:06
CA: And so this is so amazing to me.
183
486315
1752
CA : Ça me paraît tellement incroyable.
08:08
So I'm more familiar with chess than with Go.
184
488067
2127
Je connais mieux les échecs que le go.
08:10
And for decades,
185
490194
1335
Et pendant des décennies,
08:11
thousands and thousands of AI experts worked on building
186
491571
3462
des milliers de spécialistes en IA ont travaillé à la conception
d’incroyables ordinateurs d’échecs.
08:15
incredible chess computers.
187
495033
1334
08:16
Eventually, they got better than humans.
188
496367
2544
Et au final, ils sont devenus meilleurs que les humains.
08:18
You had a moment a few years ago,
189
498953
2211
Il y a quelques années,
08:21
where in nine hours,
190
501205
2628
en l’espace de neuf heures,
08:23
AlphaZero taught itself to play chess better than any of those systems ever did.
191
503875
6590
AlphaZero a appris par lui-même à jouer aux échecs
mieux qu’aucun autre système ne l’a jamais fait.
08:30
Talk about that.
192
510923
1252
Parlez-nous en.
08:32
DH: It was a pretty incredible moment, actually.
193
512175
2294
DH : Ce fut un moment vraiment incroyable.
08:34
So we set it going on chess.
194
514510
2211
Nous lui avions donc demandé de jouer aux échecs.
Vous l’avez évoqué, il y a un riche passé entre les échecs et l’IA
08:38
And as you said, there's this rich history of chess and AI
195
518056
2752
08:40
where there are these expert systems that have been programmed
196
520808
2920
avec des systèmes spécialisés spécifiquement programmés
08:43
with these chess ideas, chess algorithms.
197
523770
2294
avec des algorithmes d’échecs.
08:46
And you have this amazing, you know,
198
526105
2044
Et vous avez cette incroyable journée -
08:48
I remember this day very clearly, where you sort of sit down with the system
199
528191
3837
je me souviens très bien de cette journée, où l’on s’assoit avec le système,
08:52
starting off random, you know, in the morning,
200
532070
2919
on le démarre au hasard, comme ça, le matin,
08:55
you go for a cup of coffee, you come back.
201
535031
2002
on va se chercher un café.
08:57
I can still just about beat it by lunchtime, maybe just about.
202
537075
3503
Je peux encore le battre à l’heure du déjeuner, pas beaucoup plus tard.
09:00
And then you let it go for another four hours.
203
540620
2210
Puis on le laisse travailler pendant 4 heures.
09:02
And by dinner,
204
542830
1168
Et à l'heure du dîner,
09:03
it's the greatest chess-playing entity that's ever existed.
205
543998
2795
c'est la meilleure entité de jeu d'échecs qui ait jamais existé.
09:06
And, you know, it's quite amazing,
206
546834
1669
Et, c’est vraiment incroyable :
09:08
like, looking at that live on something that you know well,
207
548503
3211
on regarde ça en direct sur une machine que l’on connaît bien,
09:11
you know, like chess, and you're expert in
208
551714
2044
alors qu’on est soi-même un pro aux échecs,
09:13
and actually just seeing that in front of your eyes.
209
553800
2460
et on voit la machine se développer devant nos yeux.
09:16
And then you extrapolate to what it could then do in science or something else,
210
556260
3963
Alors, on extrapole à ce que cela pourrait faire en sciences par exemple,
09:20
which of course, games were only a means to an end.
211
560264
2878
car le jeu n’était qu’un moyen pour d’atteindre une fin.
09:23
They were never the end in themselves.
212
563184
1835
Ça n’a jamais été une fin en soi.
C’était le terrain d’entraînement pour nos idées
09:25
They were just the training ground for our ideas
213
565019
2461
09:27
and to make quick progress in a matter of, you know,
214
567522
2877
et pour progresser rapidement,
09:30
less than five years actually went from Atari to Go.
215
570441
4046
en moins de cinq ans, entre l’Atari et le go.
09:34
CA: I mean, this is why people are in awe of AI
216
574529
3295
CA : C’est pourquoi les gens sont à la fois émerveillés par l’IA
09:37
and also kind of terrified by it.
217
577865
2127
et terrifiés par elle.
Ce n’est pas qu’une simple une amélioration graduelle.
09:40
I mean, it's not just incremental improvement.
218
580034
2169
09:42
The fact that in a few hours you can achieve
219
582245
2919
Le fait qu’en quelques heures, on puisse réaliser
09:45
what millions of humans over centuries have not been able to achieve.
220
585206
4796
ce que des millions d’humains n’ont pas pu réaliser au fil des siècles.
09:50
That gives you pause for thought.
221
590044
2586
Cela donne matière à réfléchir.
09:53
DH: It does, I mean, it's a hugely powerful technology.
222
593214
2836
DH : Certes, c’est une technologie extrêmement puissante.
09:56
It's going to be incredibly transformative.
223
596092
2044
Cela va être incroyablement transformateur.
09:58
And we have to be very thoughtful about how we use that capability.
224
598136
4004
Et nous devons être très attentifs
à la manière dont nous utilisons cette capacité.
10:02
CA: So talk about this use of it because this is again,
225
602181
2586
CA : Parlez donc de cette utilisation,
10:04
this is another extension of the work you've done,
226
604767
3754
car il s’agit d’un autre embranchement du travail que vous avez fait,
10:08
where now you're turning it to something incredibly useful for the world.
227
608563
4129
où vous rendez l’IA incroyablement utile pour le monde entier.
10:12
What are all the letters on the left, and what’s on the right?
228
612733
2920
Quelles sont les lettres à gauche et celles à droite ?
10:15
DH: This was always my aim with AI from a kid,
229
615695
4129
DH : Depuis que je suis enfant, je nourris le même objectif :
10:19
which is to use it to accelerate scientific discovery.
230
619866
3169
utiliser l’IA pour accélérer les découvertes scientifiques.
10:23
And actually, ever since doing my undergrad at Cambridge,
231
623035
2962
Et en fait, depuis mes études à l’université de Cambridge,
10:26
I had this problem in mind one day for AI,
232
626038
2545
j’avais envie de confier un jour ce problème à l’IA :
10:28
it's called the protein-folding problem.
233
628624
1919
le problème du repliement des protéines.
10:30
And it's kind of like a 50-year grand challenge in biology.
234
630543
2794
C’est un peu le grand défi en biologie, vieux de 50 ans.
10:33
And it's very simple to explain.
235
633337
1919
Et c'est très simple à expliquer.
10:35
Proteins are essential to life.
236
635256
2461
Les protéines sont essentielles à la vie, ce sont ses éléments constitutifs.
10:38
They're the building blocks of life.
237
638009
1751
10:39
Everything in your body depends on proteins.
238
639760
2086
Tout dans votre corps dépend des protéines.
10:41
A protein is sort of described by its amino acid sequence,
239
641846
5380
Une protéine est en quelque sorte décrite par sa séquence d'acides aminés,
10:47
which you can think of as roughly the genetic sequence
240
647226
2544
que l’on peut considérer comme étant la séquence génétique
10:49
describing the protein, so that are the letters.
241
649812
2252
qui décrit la protéine : les lettres.
CA : Chacune de ces lettres représente donc une molécule complexe ?
10:52
CA: And each of those letters represents in itself a complex molecule?
242
652064
3295
10:55
DH: That's right, each of those letters is an amino acid.
243
655401
2711
DH : En effet, chaque lettre est un acide aminé.
10:58
And you can think of them as a kind of string of beads
244
658112
2544
Et on peut les voir comme une sorte de chaîne de perles,
11:00
there at the bottom, left, right?
245
660698
1919
en bas, à gauche.
11:02
But in nature, in your body or in an animal,
246
662658
3420
Mais dans la nature, dans notre corps ou chez un animal,
11:06
this string, a sequence,
247
666078
1794
cette chaîne, une séquence, prend cette belle forme sur la droite.
11:07
turns into this beautiful shape on the right.
248
667914
2544
11:10
That's the protein.
249
670458
1209
C'est la protéine.
11:11
Those letters describe that shape.
250
671709
2586
Ces lettres décrivent cette forme.
11:14
And that's what it looks like in nature.
251
674295
2294
Et c’est ce à quoi cela ressemble dans la nature.
11:16
And the important thing about that 3D structure is
252
676589
2502
L’important à propos de cette structure 3D des protéines,
11:19
the 3D structure of the protein goes a long way to telling you
253
679133
3170
c’est qu’elle contribue grandement à nous informer
11:22
what its function is in the body, what it does.
254
682345
2210
sur sa fonction dans le corps, sur ce qu’elle fait.
11:24
And so the protein-folding problem is:
255
684597
2252
Le problème du repliement des protéines est donc
11:26
Can you directly predict the 3D structure just from the amino acid sequence?
256
686891
4963
de pouvoir prédire directement la structure 3D
uniquement à partir de la séquence d’acides aminés.
11:31
So literally if you give the machine, the AI system,
257
691854
2544
Donc, si on nourrit la machine, le système d’IA,
11:34
the letters on the left,
258
694440
1502
des lettres sur la gauche,
11:35
can it produce the 3D structure on the right?
259
695983
2253
peut-elle produire la structure 3D sur la droite ?
11:38
And that's what AlphaFold does, our program does.
260
698277
2336
Et c’est ce que fait AlphaFold, notre programme.
11:40
CA: It's not calculating it from the letters,
261
700613
2169
CA : La machine ne calcule pas à partir des lettres,
11:42
it's looking at patterns of other folded proteins that are known about
262
702823
4922
mais examine les modèles d’autres protéines repliées connues
11:47
and somehow learning from those patterns
263
707745
2628
et apprend à partir de ces modèles que c'est peut-être la façon de procéder ?
11:50
that this may be the way to do this?
264
710414
1752
11:52
DH: So when we started this project, actually straight after AlphaGo,
265
712166
3295
DH : Quand nous avons lancé ce projet, juste après AlphaGo,
je pensais que nous étions prêts.
11:55
I thought we were ready.
266
715503
1168
11:56
Once we'd cracked Go,
267
716712
1168
Une fois le go résolu, je sentais que nous étions enfin prêts,
11:57
I felt we were finally ready after, you know,
268
717880
2711
au bout de presque 20 ans de travail sur ce sujet,
12:00
almost 20 years of working on this stuff
269
720591
1919
12:02
to actually tackle some scientific problems,
270
722551
2586
à aborder sérieusement des problèmes scientifiques,
12:05
including protein folding.
271
725179
1335
dont le repliement des protéines.
12:06
And what we start with is painstakingly,
272
726514
3044
Nous avons commencé par le travail de bénédictin
que les biologistes ont réalisé ces 40 dernières années
12:09
over the last 40-plus years,
273
729600
1794
12:11
experimental biologists have pieced together
274
731435
3420
en reconstituant minutieusement environ 150 000 structures protéiques
12:14
around 150,000 protein structures
275
734855
2670
12:17
using very complicated, you know, X-ray crystallography techniques
276
737566
3671
à l’aide de techniques très compliquées, comme la cristallographie aux rayons X
12:21
and other complicated experimental techniques.
277
741237
2794
et d’autres techniques expérimentales complexes.
12:24
And the rule of thumb is
278
744031
2086
Et en règle générale,
12:26
that it takes one PhD student their whole PhD,
279
746117
3628
un doctorant consacre tout son doctorat,
12:29
so four or five years, to uncover one structure.
280
749787
3420
soit quatre ou cinq ans, pour découvrir une structure.
12:33
But there are 200 million proteins known to nature.
281
753207
2961
Mais il existe 200 millions de protéines connues dans la nature.
12:36
So you could just, you know, take forever to do that.
282
756210
3170
Donc ça pourrait prendre l’éternité pour les découvrir toutes.
12:39
And so we managed to actually fold, using AlphaFold, in one year,
283
759422
4337
Nous avons donc réussi à plier, à l'aide d'AlphaFold, en un an,
12:43
all those 200 million proteins known to science.
284
763801
2419
les 200 millions de protéines connues de la science.
12:46
So that's a billion years of PhD time saved.
285
766262
2711
Ça représente un milliard d’années de temps de doctorat.
12:49
(Applause)
286
769015
3837
(Applaudissements)
12:52
CA: So it's amazing to me just how reliably it works.
287
772893
2503
CA : Je trouve extraordinaire la fiabilité du système.
12:55
I mean, this shows, you know,
288
775396
2669
En quelque sorte,
on vous donne le modèle et vous faites l’expérience.
12:58
here's the model and you do the experiment.
289
778107
2044
13:00
And sure enough, the protein turns out the same way.
290
780151
3044
Et de façon très fiable, la protéine se révèle être identique.
13:03
Times 200 million.
291
783195
1210
200 millions de fois.
13:04
DH: And the more deeply you go into proteins,
292
784447
2669
DH : Et plus on s’intéresse aux protéines,
13:07
you just start appreciating how exquisite they are.
293
787158
2711
plus on apprécie à quel point elles sont délicates.
13:09
I mean, look at how beautiful these proteins are.
294
789910
2294
Regardez comme elles sont belles.
13:12
And each of these things do a special function in nature.
295
792246
2711
Et chacune a une fonction précise dans la nature.
13:14
And they're almost like works of art.
296
794957
1794
Ce sont presque des œuvres d’art.
13:16
And it's still astounds me today that AlphaFold can predict,
297
796751
2836
Je reste toujours étonné qu’AlphaFold puisse prédire -
13:19
the green is the ground truth, and the blue is the prediction,
298
799587
2961
le vert étant la vérité fondamentale et le bleu la prédiction,
13:22
how well it can predict, is to within the width of an atom on average,
299
802548
4254
si correctement, on parle de la largeur d’un atome,
13:26
is how accurate the prediction is,
300
806802
2044
si précisément,
13:28
which is what is needed for biologists to use it,
301
808888
2627
à un niveau indispensable pour être utile aux biologistes
13:31
and for drug design and for disease understanding,
302
811557
2836
pour concevoir des médicaments et comprendre les maladies.
13:34
which is what AlphaFold unlocks.
303
814435
2502
AlphaFold permet cela.
13:36
CA: You made a surprising decision,
304
816979
1710
CA : Vous avez pris une décision surprenante
13:38
which was to give away the actual results of your 200 million proteins.
305
818731
5964
en dévoilant les résultats réels de vos 200 millions de protéines.
13:44
DH: We open-sourced AlphaFold and gave everything away
306
824737
3003
DH : AlphaFold et les résultats sont désormais en code source ouvert
13:47
on a huge database with our wonderful colleagues,
307
827782
2294
sur une énorme base de données
avec nos collègues formidables de l’Institut européen de bioinformatique.
13:50
the European Bioinformatics Institute.
308
830117
1835
13:51
(Applause)
309
831952
3170
(Applaudissements)
13:55
CA: I mean, you're part of Google.
310
835122
2378
CA : Vous travaillez pour Google.
13:57
Was there a phone call saying, "Uh, Demis, what did you just do?"
311
837541
3963
Vous ont-ils contacté pour vous demander :
« Euh, Demis, qu’est-ce que tu viens de faire là ? »
14:01
DH: You know, I'm lucky we have very supportive,
312
841879
2753
DH : J’ai de la chance d’avoir beaucoup de soutien.
14:04
Google's really supportive of science
313
844673
1794
Google soutient vraiment la science
14:06
and understand the benefits this can bring to the world.
314
846509
4337
et comprend les avantages que cela peut apporter au monde.
14:10
And, you know, the argument here
315
850888
1543
Et l’argument avancé
14:12
was that we could only ever have even scratched the surface
316
852473
3211
était que nous ne pouvions qu’effleurer la surface du potentiel
14:15
of the potential of what we could do with this.
317
855726
2211
de ce que nous pouvions faire.
14:17
This, you know, maybe like a millionth
318
857937
1877
Cela représente peut-être un millionième
14:19
of what the scientific community is doing with it.
319
859814
2377
de ce que la communauté scientifique accomplit grâce à ça.
14:22
There's over a million and a half biologists around the world
320
862233
3336
Plus d'un million et demi de biologistes du monde entier
14:25
have used AlphaFold and its predictions.
321
865569
1919
utilisent AlphaFold et ses prédictions.
14:27
We think that's almost every biologist in the world
322
867530
2419
Nous pensons que presque tous les biologistes du monde l’utilisent,
14:29
is making use of this now, every pharma company.
323
869949
2252
toutes les sociétés pharmaceutiques.
14:32
So we'll never know probably what the full impact of it all is.
324
872243
3086
Nous ne saurons probablement jamais quel est l’impact total.
14:35
CA: But you're continuing this work in a new company
325
875329
2461
CA : Mais vous poursuivez ce travail dans une nouvelle spin-off de Google,
14:37
that's spinning out of Google called Isomorph.
326
877832
2544
appelée Isomorph.
14:40
DH: Isomorphic.
327
880376
1251
DH : Isomorphic.
14:41
CA: Isomorphic.
328
881627
1376
CA : Isomorphic.
14:43
Give us just a sense of the vision there.
329
883879
2002
Donnez-nous juste une idée de votre vision.
14:45
What's the vision?
330
885881
1168
Quelle est la vision ?
14:47
DH: AlphaFold is a sort of fundamental biology tool.
331
887091
2961
DH : AlphaFold est un outil pour la biologie fondamentale.
14:50
Like, what are these 3D structures,
332
890094
2627
Pour des questions comme ce que sont ces structures 3D,
14:52
and then what might they do in nature?
333
892763
2795
et ce qu’elles pourraient faire dans la nature.
14:55
And then if you, you know,
334
895975
1334
Et puis, vous savez,
14:57
the reason I thought about this and was so excited about this,
335
897309
2962
si j’y ai pensé et si j’étais si enthousiaste,
15:00
is that this is the beginnings of understanding disease
336
900271
3545
c’est parce que c’est le début de la compréhension des maladies
15:03
and also maybe helpful for designing drugs.
337
903816
3086
et peut-être aussi que ça peut être utile pour développer des médicaments.
15:06
So if you know the shape of the protein,
338
906944
2503
Car si on connaît la forme de la protéine,
15:09
and then you can kind of figure out
339
909488
2378
on peut en quelque sorte déterminer quelle partie de sa surface
15:11
which part of the surface of the protein
340
911907
1919
15:13
you're going to target with your drug compound.
341
913826
2377
on va cibler avec un composé médicamenteux.
15:16
And Isomorphic is extending this work we did in AlphaFold
342
916245
3670
Et Isomorphic étend les travaux que nous avons effectués dans AlphaFold
15:19
into the chemistry space,
343
919957
1585
au domaine de la chimie,
15:21
where we can design chemical compounds
344
921542
3003
où nous pouvons concevoir des composés chimiques
15:24
that will bind exactly to the right spot on the protein
345
924587
2878
qui se lieront exactement au bon endroit de la protéine
15:27
and also, importantly, to nothing else in the body.
346
927465
3086
et, surtout, à rien d’autre dans le corps.
15:30
So it doesn't have any side effects and it's not toxic and so on.
347
930593
4296
Il n’a donc aucun effet secondaire, et ce n’est pas toxique, entre autres.
15:34
And we're building many other AI models,
348
934930
2169
Nous construisons aussi d’autres modèles d’IA,
15:37
sort of sister models to AlphaFold
349
937141
2336
des modèles frères d’AlphaFold,
15:39
to help predict,
350
939477
1710
pour aider à faire des prédictions dans le domaine de la chimie.
15:41
make predictions in chemistry space.
351
941228
2294
15:43
CA: So we can expect to see
352
943564
1293
CA : Nous pouvons donc nous attendre à des avancées assez spectaculaires
15:44
some pretty dramatic health medicine breakthroughs
353
944899
3128
dans la médecine et la santé les prochaines années.
15:48
in the coming few years.
354
948027
1209
15:49
DH: I think we'll be able to get down drug discovery
355
949278
2711
DH : Nous pourrons sans doute réduire le développement de médicaments
15:51
from years to maybe months.
356
951989
2127
à quelques mois.
15:54
CA: OK. Demis, I'd like to change direction a bit.
357
954158
2919
CA : Demis, j'aimerais changer un peu de sujet.
15:58
Our mutual friend, Liv Boeree, gave a talk last year at TEDAI
358
958329
3962
Notre amie commune, Liv Boeree, a donné une conférence l'année dernière à TEDAI,
16:02
that she called the “Moloch Trap.”
359
962291
2044
qu'elle a baptisée le « piège du Moloch »,
16:04
The Moloch Trap is a situation
360
964835
1877
qui est une situation dans laquelle les organisations et entreprises
16:06
where organizations,
361
966754
2836
16:09
companies in a competitive situation can be driven to do things
362
969632
5130
en situation de concurrence, peuvent être amenées à faire des choses
16:14
that no individual running those companies would by themselves do.
363
974762
4629
qu'aucun dirigeant de ces entreprises ne ferait seul.
16:19
I was really struck by this talk,
364
979391
2294
J'ai été vraiment frappé par ce talk
16:21
and it's felt, as a sort of layperson observer,
365
981685
3587
et j'ai eu l'impression, en tant qu'observateur profane,
16:25
that the Moloch Trap has been shockingly in effect in the last couple of years.
366
985272
5089
qu'on retrouve le piège du Moloch partout ces dernières années et c'est choquant.
16:30
So here you are with DeepMind,
367
990402
2044
Vous voici donc avec DeepMind,
16:32
sort of pursuing these amazing medical breakthroughs
368
992488
3170
en train de poursuivre ces incroyables avancées médicales et scientifiques,
16:35
and scientific breakthroughs,
369
995699
1418
puis tout à coup, de façon inopinée,
16:37
and then suddenly, kind of out of left field,
370
997117
4004
16:41
OpenAI with Microsoft releases ChatGPT.
371
1001163
5381
OpenAI et Microsoft lancent ChatGPT.
16:46
And the world goes crazy and suddenly goes, “Holy crap, AI is ...”
372
1006585
3879
Et le monde devient fou et pense : « Bon sang, l'IA c'est... »
16:50
you know, everyone can use it.
373
1010464
2586
De fait, tout le monde peut l'utiliser.
16:54
And there’s a sort of, it felt like the Moloch Trap in action.
374
1014260
4045
Cela ressemble ...
au piège du Moloch en action.
16:58
I think Microsoft CEO Satya Nadella actually said,
375
1018347
5130
Je pense que le PDG de Microsoft, Satya Nadella, a effectivement déclaré :
17:03
"Google is the 800-pound gorilla in the search space.
376
1023477
4838
« Google est le gorille de 500 kilos des moteurs de recherche.
17:08
We wanted to make Google dance."
377
1028357
2836
Nous voulions faire danser Google. »
17:12
How ...?
378
1032319
1293
Comment... ?
17:14
And it did, Google did dance.
379
1034613
1877
Et oui, Google a dansé.
17:16
There was a dramatic response.
380
1036490
1960
Il y a eu une réaction spectaculaire.
17:18
Your role was changed,
381
1038993
1167
Vous avez eu un nouveau rôle
17:20
you took over the whole Google AI effort.
382
1040160
3879
pour devenir responsable de l'ensemble des efforts de Google AI.
17:24
Products were rushed out.
383
1044456
1627
Les produits sont sortis dans la précipitation.
17:27
You know, Gemini, some part amazing, part embarrassing.
384
1047251
3003
Gemini, à la fois incroyable et néanmoins un peu embarrassant.
17:30
I’m not going to ask you about Gemini because you’ve addressed it elsewhere.
385
1050296
3628
Pas de questions sur Gemini, parce que vous en avez parlé ailleurs.
17:33
But it feels like this was the Moloch Trap happening,
386
1053924
3295
Mais j'ai l'impression que le piège du Moloch est en train de se produire,
17:37
that you and others were pushed to do stuff
387
1057261
2753
que vous et d'autres avez été poussés à faire des choses
17:40
that you wouldn't have done without this sort of catalyzing competitive thing.
388
1060055
5047
que vous n'auriez pas faites sans ce type de catalyseur de la concurrence.
17:45
Meta did something similar as well.
389
1065102
2169
Meta a aussi fait quelque chose de similaire.
17:47
They rushed out an open-source version of AI,
390
1067313
3336
Ils ont publié à la hâte une version open source de l'IA,
17:50
which is arguably a reckless act in itself.
391
1070691
3295
ce qui est sans doute un acte imprudent en soi.
17:55
This seems terrifying to me.
392
1075613
1459
Cela me semble terrifiant.
17:57
Is it terrifying?
393
1077072
1835
Est-ce terrifiant ?
17:59
DH: Look, it's a complicated topic, of course.
394
1079617
2252
DH : C'est un sujet complexe, bien sûr.
18:01
And, first of all, I mean, there are many things to say about it.
395
1081869
3879
Et il y a beaucoup de choses à dire à ce sujet.
18:05
First of all, we were working on many large language models.
396
1085789
4421
Mais tout d'abord, nous travaillions sur de nombreux grands modèles linguistiques.
18:10
And in fact, obviously, Google research actually invented Transformers,
397
1090252
3337
Et en fait, de toute évidence, Google Research a inventé Transformers,
18:13
as you know,
398
1093589
1168
comme vous le savez,
18:14
which was the architecture that allowed all this to be possible,
399
1094798
3045
c'est l'architecture qui a permis que tout cela soit possible,
18:17
five, six years ago.
400
1097885
1251
il y a cinq ou six ans.
18:19
And so we had many large models internally.
401
1099178
2669
Nous avions donc de nombreux grands modèles en interne.
18:21
The thing was, I think what the ChatGPT moment did that changed was,
402
1101847
3879
En fait, selon moi, avec le moment ChatGPT,
18:25
and fair play to them to do that, was they demonstrated,
403
1105768
3128
et chapeau bas de l'avoir fait, ils ont démontré,
18:28
I think somewhat surprisingly to themselves as well,
404
1108937
2795
de manière quelque peu surprenante, pour eux-mêmes également,
18:31
that the public were ready to,
405
1111732
2502
que le public était prêt,
18:34
you know, the general public were ready to embrace these systems
406
1114276
3003
le public était prêt à adopter ces systèmes
18:37
and actually find value in these systems.
407
1117279
1960
et à y trouver de la valeur.
18:39
Impressive though they are, I guess, when we're working on these systems,
408
1119281
3962
Aussi impressionnants qu’ils soient, quand nous travaillons sur ces systèmes,
18:43
mostly you're focusing on the flaws and the things they don't do
409
1123243
3003
on se concentre sur les failles, les choses qu’ils ne font pas,
18:46
and hallucinations and things you're all familiar with now.
410
1126288
2836
les hallucinations et ces choses devenues familières.
18:49
We're thinking, you know,
411
1129124
1377
Nous nous demandons
18:50
would anyone really find that useful given that it does this and that?
412
1130501
3587
si quelqu’un trouvera vraiment cela utile étant donné tel ou tel comportement.
Et nous voulons améliorer ces points en priorité,
18:54
And we would want them to improve those things first,
413
1134129
2503
18:56
before putting them out.
414
1136674
1418
avant de publier les systèmes.
18:58
But interestingly, it turned out that even with those flaws,
415
1138133
3754
Mais il est intéressant de noter que malgré les failles,
19:01
many tens of millions of people still find them very useful.
416
1141929
2919
des dizaines de millions de personnes les trouvent toujours très utiles.
19:04
And so that was an interesting update on maybe the convergence of products
417
1144848
4922
C’était une mise à jour intéressante
sur la convergence des produits et de la science,
19:09
and the science that actually,
418
1149770
3712
alors que toutes ces choses incroyables développées en laboratoire dirons-nous,
19:13
all of these amazing things we've been doing in the lab, so to speak,
419
1153524
3253
19:16
are actually ready for prime time for general use,
420
1156819
3003
sont prêtes à être utilisées largement par le grand public,
19:19
beyond the rarefied world of science.
421
1159822
2002
au-delà du monde restreint de la science.
19:21
And I think that's pretty exciting in many ways.
422
1161824
2627
Et je pense que c'est très excitant à bien des égards.
19:24
CA: So at the moment, we've got this exciting array of products
423
1164910
2961
CA : Donc, pour le moment, nous avons cette gamme passionnante de produits
19:27
which we're all enjoying.
424
1167913
1210
que nous apprécions tous.
19:29
And, you know, all this generative AI stuff is amazing.
425
1169164
2586
Et tous ces trucs d’IA générative sont incroyables.
19:31
But let's roll the clock forward a bit.
426
1171750
2086
Mais avançons un peu dans le temps.
19:34
Microsoft and OpenAI are reported to be building
427
1174503
3962
Microsoft et OpenAI seraient en train de construire
19:38
or investing like 100 billion dollars
428
1178507
2336
ou d’investir environ 100 milliards de dollars
19:40
into an absolute monster database supercomputer
429
1180884
5005
dans un superordinateur de base de données monstrueux
19:45
that can offer compute at orders of magnitude
430
1185889
3212
capable d’offrir des capacités de calcul bien supérieures
19:49
more than anything we have today.
431
1189143
2544
à tout ce que nous avons aujourd’hui.
19:52
It takes like five gigawatts of energy to drive this, it's estimated.
432
1192104
3920
Il faudrait environ cinq gigawatts d’énergie pour le faire fonctionner.
19:56
That's the energy of New York City to drive a data center.
433
1196066
4254
C'est l'énergie de New York pour faire fonctionner un centre de données.
20:00
So we're pumping all this energy into this giant, vast brain.
434
1200612
3420
Nous pompons donc toute cette énergie dans ce cerveau géant et vaste.
20:04
Google, I presume is going to match this type of investment, right?
435
1204658
4046
Google, je suppose, va investir de manière proportionnelle, n’est-ce pas ?
20:09
DH: Well, I mean, we don't talk about our specific numbers,
436
1209037
2795
DH : Eh bien, nous ne divulguons pas nos chiffres spécifiques,
20:11
but you know, I think we're investing more than that over time.
437
1211874
3336
mais je pense que nous investissons bien davantage au fil du temps.
20:15
So, and that's one of the reasons
438
1215252
1960
Et c’est l’une des raisons pour lesquelles
20:17
we teamed up with Google back in 2014,
439
1217212
2169
nous avons fait équipe avec Google en 2014,
20:19
is kind of we knew that in order to get to AGI,
440
1219381
3921
c’est que nous allions avoir besoin de beaucoup de calcul
20:23
we would need a lot of compute.
441
1223343
1502
pour atteindre l’IAG.
20:24
And that's what's transpired.
442
1224887
1501
Et c'est ce qui s'est passé.
20:26
And Google, you know, had and still has the most computers.
443
1226430
3420
Et Google, possédait et possède toujours le plus d’ordinateurs.
20:30
CA: So Earth is building these giant computers
444
1230309
2961
CA : La Terre construit donc ces ordinateurs géants
20:33
that are going to basically, these giant brains,
445
1233270
2294
qui vont essentiellement, ces cerveaux géants,
20:35
that are going to power so much of the future economy.
446
1235564
2878
qui alimenteront une grande partie de l'économie future.
20:38
And it's all by companies that are in competition with each other.
447
1238484
3878
Et tout cela provient d’entreprises en concurrence les unes avec les autres.
20:42
How will we avoid the situation where someone is getting a lead,
448
1242362
5589
Comment éviter la situation où l’une d’elles fait une grande avancée
20:47
someone else has got 100 billion dollars invested in their thing.
449
1247993
4213
et quelqu’un d’autre investit 100 milliards de dollars dans ça ?
20:52
Isn't someone going to go, "Wait a sec.
450
1252206
2085
Quelqu’un ne dira-t-il pas : « Une minute !
20:54
If we used reinforcement learning here
451
1254333
3378
En utilisant l’apprentissage par renforcement,
20:57
to maybe have the AI tweak its own code
452
1257753
2919
pour peut-être permettre à l’IA de modifier son propre code,
21:00
and rewrite itself and make it so [powerful],
453
1260714
2252
de le réécrire et de le rendre si [puissant],
21:03
we might be able to catch up in nine hours over the weekend
454
1263008
3212
nous pourrions peut-être rattraper notre retard en neuf heures le week-end.
21:06
with what they're doing.
455
1266220
1167
21:07
Roll the dice, dammit, we have no choice.
456
1267429
1960
Jetons les dés, bon sang, on n’a pas le choix.
21:09
Otherwise we're going to lose a fortune for our shareholders."
457
1269431
2920
Sinon, nous allons perdre une fortune pour nos actionnaires. »
21:12
How are we going to avoid that?
458
1272351
1835
Comment allons-nous éviter cela ?
21:14
DH: Yeah, well, we must avoid that, of course, clearly.
459
1274228
2627
DH : Oui, eh bien, clairement, nous devons éviter cela.
21:16
And my view is that as we get closer to AGI,
460
1276855
3587
Et je pense qu’à mesure que nous nous rapprochons de l’IAG,
21:20
we need to collaborate more.
461
1280442
2378
nous devrons collaborer davantage.
21:22
And the good news is that most of the scientists involved in these labs
462
1282820
4879
La bonne nouvelle, c’est que la plupart des scientifiques impliqués
21:27
know each other very well.
463
1287741
1376
se connaissent très bien.
21:29
And we talk to each other a lot at conferences and other things.
464
1289117
3546
Et nous nous parlons beaucoup lors de conférences, par exemple.
21:32
And this technology is still relatively nascent.
465
1292704
2503
Et cette technologie en est encore à ses balbutiements.
21:35
So probably it's OK what's happening at the moment.
466
1295249
2419
Donc, ce qui se passe en ce moment est acceptable.
21:37
But as we get closer to AGI, I think as a society,
467
1297709
4421
Mais à mesure que nous nous rapprochons de l’IAG, je pense qu’en tant que société,
21:42
we need to start thinking about the types of architectures that get built.
468
1302172
4713
nous devons commencer à réfléchir aux types d’architectures développées.
21:46
So I'm very optimistic, of course,
469
1306927
1793
Je suis très optimiste, bien sûr,
21:48
that's why I spent my whole life working on AI and working towards AGI.
470
1308762
4838
c’est pourquoi j’ai consacré ma vie à travailler sur l’IA et l’IAG.
21:53
But I suspect there are many ways to build the architecture safely, robustly,
471
1313600
6507
Mais je pense qu’il existe de nombreuses façons
de construire l’architecture de manière sûre, robuste,
22:00
reliably and in an understandable way.
472
1320148
3170
fiable et compréhensible.
22:03
And I think there are almost certainly going to be ways of building architectures
473
1323318
3837
Et je pense qu'il y aura certainement des moyens de construire des architectures
22:07
that are unsafe or risky in some form.
474
1327155
1836
dangereuses ou risquées.
Je vois donc une sorte de goulot d’étranglement
22:09
So I see a sort of,
475
1329032
2127
22:11
a kind of bottleneck that we have to get humanity through,
476
1331201
3087
que nous devons faire traverser à l’humanité,
22:14
which is building safe architectures as the first types of AGI systems.
477
1334329
6340
à savoir la création d’architectures sûres
en tant que premiers types de systèmes AGI.
22:20
And then after that, we can have a sort of,
478
1340711
2502
Et après ça, nous pouvons avoir une sorte
22:23
a flourishing of many different types of systems
479
1343255
2753
de floraison de nombreux types de systèmes différents,
22:26
that are perhaps sharded off those safe architectures
480
1346049
3712
des éclats distincts de ces architectures sûres,
22:29
that ideally have some mathematical guarantees
481
1349761
3337
qui, idéalement, auront des garanties mathématiques
22:33
or at least some practical guarantees around what they do.
482
1353140
3003
ou du moins des garanties pratiques sur leur fonctionnement.
22:36
CA: Do governments have an essential role here
483
1356143
2252
CA : Les États ont-ils un rôle essentiel
22:38
to define what a level playing field looks like
484
1358437
2210
à cet égard pour définir des règles équitables
22:40
and what is absolutely taboo?
485
1360647
1418
et ce qui est absolument tabou ?
DH : Oui, et il ne s’agit pas seulement de -
22:42
DH: Yeah, I think it's not just about --
486
1362107
1919
22:44
actually I think government and civil society
487
1364067
2127
Je pense que les États, la société civile,
22:46
and academia and all parts of society have a critical role to play here
488
1366194
3379
les universités et tous les secteurs de la société ont un rôle essentiel
22:49
to shape, along with industry labs,
489
1369573
2878
pour définir, avec les laboratoires industriels,
22:52
what that should look like as we get closer to AGI
490
1372451
2711
ce à quoi cela devrait ressembler à mesure que l’IAG devient réalité,
22:55
and the cooperation needed and the collaboration needed,
491
1375203
3546
et que la coopération est indispensable
22:58
to prevent that kind of runaway race dynamic happening.
492
1378749
2669
pour empêcher ce type de dynamique de fuite en avant.
23:01
CA: OK, well, it sounds like you remain optimistic.
493
1381752
2419
CA : OK, je vous sens optimiste malgré tout.
23:04
What's this image here?
494
1384171
1168
Quelle est cette image ?
23:05
DH: That's one of my favorite images, actually.
495
1385380
2461
DH : C’est l’une de mes images préférées.
23:07
I call it, like, the tree of all knowledge.
496
1387841
2044
Je l'appelle l'arbre de toutes les connaissances.
23:09
So, you know, we've been talking a lot about science,
497
1389885
2544
Nous avons beaucoup parlé de science,
23:12
and a lot of science can be boiled down to
498
1392471
3128
et une grande partie de la science peut se résumer
23:15
if you imagine all the knowledge that exists in the world
499
1395599
2711
à imaginer toutes les connaissances dans le monde
23:18
as a tree of knowledge,
500
1398310
1543
sous la forme d’un arbre,
23:19
and then maybe what we know today as a civilization is some, you know,
501
1399853
4797
où la somme de nos connaissances actuelles en tant que civilisation
23:24
small subset of that.
502
1404691
1418
n’est qu’un petit sous-ensemble.
23:26
And I see AI as this tool that allows us,
503
1406109
2962
Et pour moi, l’IA est un outil qui nous permet,
23:29
as scientists, to explore, potentially, the entire tree one day.
504
1409071
3920
en tant que scientifiques, d’explorer, éventuellement, l’arbre entier un jour.
23:33
And we have this idea of root node problems
505
1413033
3503
Et pour tous les problèmes fondamentaux,
23:36
that, like AlphaFold, the protein-folding problem,
506
1416578
2336
comme AlphaFold avec le repliement des protéines,
23:38
where if you could crack them,
507
1418956
1459
si on arrive à les percer,
23:40
it unlocks an entire new branch of discovery or new research.
508
1420415
4713
cela ouvrira les portes à de nouvelles branches de découvertes ou recherches.
23:45
And that's what we try and focus on at DeepMind
509
1425629
2252
C'est ce sur quoi nous essayons de nous concentrer chez DeepMind
23:47
and Google DeepMind to crack those.
510
1427923
2377
et Google DeepMind : résoudre ses problèmes.
23:50
And if we get this right, then I think we could be, you know,
511
1430300
3545
Et si nous réussissons, je pense que nous pourrions entrer
23:53
in this incredible new era of radical abundance,
512
1433887
2711
dans cette nouvelle ère incroyable d’abondance radicale,
23:56
curing all diseases,
513
1436640
1543
de guérison de toutes les maladies,
23:58
spreading consciousness to the stars.
514
1438225
2210
de diffusion de la conscience dans l’univers.
24:01
You know, maximum human flourishing.
515
1441144
1919
L’épanouissement humain maximal.
24:03
CA: We're out of time,
516
1443063
1168
CA : Le temps nous manque,
24:04
but what's the last example of like, in your dreams,
517
1444272
2461
mais quel est le dernier exemple, dans vos rêves,
24:06
this dream question that you think there is a shot
518
1446733
2962
cette question onirique à laquelle, l’IA pourrait trouver une solution
24:09
that in your lifetime AI might take us to?
519
1449736
2670
de votre vivant, selon vous ?
24:12
DH: I mean, once AGI is built,
520
1452447
2294
DH : Une fois que l’IAG sera construite,
24:14
what I'd like to use it for is to try and use it to understand
521
1454783
3295
j’aimerais l’utiliser pour essayer de comprendre
24:18
the fundamental nature of reality.
522
1458120
2252
la nature fondamentale de la réalité.
24:20
So do experiments at the Planck scale.
523
1460372
2836
Faire les expériences à l’échelle de Planck.
24:23
You know, the smallest possible scale, theoretical scale,
524
1463250
3295
Vous savez, l'échelle la plus petite possible, l'échelle théorique,
24:26
which is almost like the resolution of reality.
525
1466586
2253
qui est presque la résolution de la réalité.
24:29
CA: You know, I was brought up religious.
526
1469798
2002
CA : J’ai été élevé dans la foi.
24:31
And in the Bible, there’s a story about the tree of knowledge
527
1471800
2878
Et dans la Bible, il y a une histoire à propos de l’arbre de la connaissance
24:34
that doesn't work out very well.
528
1474720
1543
qui ne se termine pas très bien.
24:36
(Laughter)
529
1476304
1544
(Rires)
24:37
Is there any scenario
530
1477848
3628
Existe-t-il un scénario
24:41
where we discover knowledge that the universe says,
531
1481518
5297
dans lequel nous découvrons des connaissances et que l’univers nous dise :
24:46
"Humans, you may not know that."
532
1486815
2753
« Humains, vous n’êtes pas autorisés à comprendre ça. »
24:49
DH: Potentially.
533
1489943
1210
DH : Théoriquement.
Il y a sans doute des choses impossible à comprendre.
24:51
I mean, there might be some unknowable things.
534
1491153
2210
24:53
But I think scientific method is the greatest sort of invention
535
1493363
5089
Mais je pense que la méthode scientifique est la meilleure invention
24:58
humans have ever come up with.
536
1498493
1460
jamais inventée par les humains.
24:59
You know, the enlightenment and scientific discovery.
537
1499995
3545
Les Lumières et les découvertes scientifiques.
25:03
That's what's built this incredible modern civilization around us
538
1503582
3336
C’est ce qui a construit cette incroyable civilisation moderne autour de nous
25:06
and all the tools that we use.
539
1506960
2002
et les outils que nous utilisons.
25:08
So I think it's the best technique we have
540
1508962
2669
Je pense donc que c’est la meilleure technique dont nous disposons
25:11
for understanding the enormity of the universe around us.
541
1511673
3545
pour comprendre l’immensité de l’univers qui nous entoure.
25:15
CA: Well, Demis, you've already changed the world.
542
1515677
2378
CA : Eh bien, Demis, vous avez déjà changé le monde.
25:18
I think probably everyone here will be cheering you on
543
1518055
3211
Je pense que tout le monde ici présent vous encouragera
25:21
in your efforts to ensure that we continue to accelerate
544
1521266
3086
dans vos efforts pour que nous continuions à accélérer
25:24
in the right direction.
545
1524352
1252
dans la bonne direction.
25:25
DH: Thank you.
546
1525645
1168
DH : Merci.
25:26
CA: Demis Hassabis.
547
1526813
1210
CA : Demis Hassabis.
25:28
(Applause)
548
1528065
5338
(Applaudissements)
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7