How to Keep AI Under Control | Max Tegmark | TED

155,402 views ・ 2023-11-02

TED


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

Traducteur: Elisabeth Buffard Relecteur: Claire Ghyselen
00:03
Five years ago,
0
3833
2461
Il y a cinq ans,
00:06
I stood on the TED stage
1
6294
1752
j’étais sur la scène de TED
00:08
and warned about the dangers of superintelligence.
2
8046
4379
et j’ai mis en garde contre les dangers de la superintelligence.
00:13
I was wrong.
3
13051
1710
J'ai eu tort.
00:16
It went even worse than I thought.
4
16513
1752
Ce fut pire que je ne le pensais.
00:18
(Laughter)
5
18306
1752
(Rires)
00:20
I never thought governments would let AI companies get this far
6
20058
4379
Je n’ai jamais pensé que les gouvernements
laisseraient les entreprises d’IA aller aussi loin
00:24
without any meaningful regulation.
7
24479
2294
sans aucune réglementation significative.
00:27
And the progress of AI went even faster than I predicted.
8
27732
4880
Et les progrès de l'IA ont été encore plus rapides que je ne l'avais prévu.
00:32
Look, I showed this abstract landscape of tasks
9
32654
3587
J’ai montré ce paysage abstrait de tâches
00:36
where the elevation represented how hard it was for AI
10
36241
3128
où l’altitude représentait à quel point il était difficile pour l’IA
00:39
to do each task at human level.
11
39369
1919
d’accomplir chaque tâche au niveau humain.
00:41
And the sea level represented what AI could be back then.
12
41288
3753
Et le niveau de la mer représentait ce que pouvait être l'IA à l'époque.
00:45
And boy or boy, has the sea been rising fast ever since.
13
45875
2962
Et bon sang, la mer n’a cessé de monter rapidement depuis.
00:48
But a lot of these tasks have already gone blub blub blub blub blub blub.
14
48878
3587
Mais bon nombre de ces tâches ont déjà coulé.
00:52
And the water is on track to submerge all land,
15
52882
3921
Et l’eau est en passe de submerger toutes les terres,
00:56
matching human intelligence at all cognitive tasks.
16
56803
3420
égalant l’intelligence humaine pour toutes les tâches cognitives.
01:00
This is a definition of artificial general intelligence, AGI,
17
60849
5756
Voilà une définition de l’intelligence générale artificielle, ou IAG,
01:06
which is the stated goal of companies like OpenAI,
18
66605
3837
qui est l'objectif déclaré de sociétés comme OpenAI,
01:10
Google DeepMind and Anthropic.
19
70442
2002
Google DeepMind et Anthropic.
01:12
And these companies are also trying to build superintelligence,
20
72819
3587
Ces entreprises essaient également de développer une superintelligence,
01:16
leaving human intelligence far behind.
21
76448
2919
laissant loin derrière l’intelligence humaine.
01:19
And many think it'll only be a few years, maybe, from AGI to superintelligence.
22
79826
4379
Beaucoup pensent qu’il ne faudra que quelques années
pour passer de l’IAG à la superintelligence.
01:24
So when are we going to get AGI?
23
84539
2795
Alors, quand allons-nous avoir l’IAG ?
01:27
Well, until recently, most AI researchers thought it was at least decades away.
24
87375
5464
Jusqu’à récemment,
la plupart des chercheurs en IA pensaient que ça prendrait au moins des décennies.
01:33
And now Microsoft is saying, "Oh, it's almost here."
25
93214
3504
Et maintenant, Microsoft dit : « Oh, on y est presque ».
01:36
We're seeing sparks of AGI in ChatGPT-4,
26
96760
3753
On voit des éclairs d’IAG dans ChatGPT-4,
01:40
and the Metaculus betting site is showing the time left to AGI
27
100555
3796
et le site de paris Metaculus montre que le temps restant avant d’avoir l’IAG
01:44
plummeting from 20 years away to three years away
28
104351
4129
s’est radicalement réduit de vingt ans à trois ans
01:48
in the last 18 months.
29
108521
1544
au cours des 18 derniers mois.
01:50
And leading industry people are now predicting
30
110106
4922
Et les principaux acteurs de l'industrie prédisent aujourd'hui
01:55
that we have maybe two or three years left until we get outsmarted.
31
115028
5047
qu'il nous reste peut-être deux ou trois ans avant d'être dépassés.
02:00
So you better stop talking about AGI as a long-term risk,
32
120116
4421
Vous feriez donc mieux d’arrêter de parler de l’IAG comme d’un risque à long terme,
02:04
or someone might call you a dinosaur stuck in the past.
33
124579
3170
sinon quelqu'un pourrait vous traiter de dinosaure coincé dans le passé.
02:08
It's really remarkable how AI has progressed recently.
34
128416
3837
Les progrès récents de l’IA sont vraiment remarquables.
02:12
Not long ago, robots moved like this.
35
132921
2419
Il n’y a pas si longtemps, les robots se déplaçaient ainsi.
02:15
(Music)
36
135382
2085
(Musique)
02:18
Now they can dance.
37
138551
1418
Maintenant, ils savent danser.
02:20
(Music)
38
140804
2711
(Musique)
02:29
Just last year, Midjourney produced this image.
39
149979
3295
L’année dernière, Midjourney a produit cette image.
02:34
This year, the exact same prompt produces this.
40
154401
3253
Cette année, c’est exactement la même consigne qui produit ce résultat.
02:39
Deepfakes are getting really convincing.
41
159656
2544
Les deepfakes sont de plus en plus convaincants.
02:43
(Video) Deepfake Tom Cruise: I’m going to show you some magic.
42
163201
2920
(Vidéo) Deepfake de Tom Cruise : Voilà un tour de magie.
02:46
It's the real thing.
43
166913
1335
C’est une vraie.
02:48
(Laughs)
44
168289
2086
(Rire)
02:50
I mean ...
45
170375
1293
Je veux dire...
02:53
It's all ...
46
173920
1835
Tout ça…
02:55
the real ...
47
175797
1710
est…
02:57
thing.
48
177549
1168
vrai.
02:58
Max Tegmark: Or is it?
49
178717
1251
Max Tegmark : Vraiment ?
03:02
And Yoshua Bengio now argues
50
182387
2669
Yoshua Bengio soutient aujourd’hui
03:05
that large language models have mastered language
51
185056
3837
que les grands modèles de langue maîtrisent le langage
03:08
and knowledge to the point that they pass the Turing test.
52
188893
2795
et les connaissances au point de réussir le test de Turing.
03:12
I know some skeptics are saying,
53
192355
1585
Certains sceptiques disent :
03:13
"Nah, they're just overhyped stochastic parrots
54
193940
2711
« Non, ce ne sont que des perroquets stochastiques surestimés
03:16
that lack a model of the world,"
55
196693
1877
sans modèle du monde »,
03:18
but they clearly have a representation of the world.
56
198611
2878
mais ils ont clairement une représentation du monde.
03:21
In fact, we recently found that Llama-2 even has a literal map of the world in it.
57
201531
5839
En fait, on a découvert récemment
que Llama-2 a même une carte littérale du monde.
03:28
And AI also builds
58
208121
3045
L’IA crée aussi des représentations géométriques de concepts plus abstraits
03:31
geometric representations of more abstract concepts
59
211207
3796
03:35
like what it thinks is true and false.
60
215003
3754
tels que ce qu’elle pense être vrai et faux.
03:40
So what's going to happen if we get AGI and superintelligence?
61
220467
5046
Alors, que se passera-t-il si on obtient l’IAG et la superintelligence ?
03:46
If you only remember one thing from my talk, let it be this.
62
226514
3879
Si vous ne retenez qu’une chose de mon exposé, c’est celle-ci :
03:51
AI godfather, Alan Turing predicted
63
231311
3462
le parrain de l’IA, Alan Turing, a prédit
03:54
that the default outcome is the machines take control.
64
234814
4797
que le résultat par défaut serait que les machines prennent le contrôle.
04:00
The machines take control.
65
240528
2211
Les machines prennent le contrôle.
04:04
I know this sounds like science fiction,
66
244240
2336
Je sais que ça ressemble à de la science-fiction,
04:06
but, you know, having AI as smart as GPT-4
67
246618
3503
mais avoir une IA aussi intelligente que le GPT-4
ressemblait aussi à de la science-fiction il n’y a pas si longtemps.
04:10
also sounded like science fiction not long ago.
68
250163
2919
04:13
And if you think of AI,
69
253124
2378
Et si pour vous, l’IA,
04:15
if you think of superintelligence in particular, as just another technology,
70
255502
6047
la superintelligence en particulier, n’est qu’une technologie parmi d’autres,
04:21
like electricity,
71
261591
2419
comme l'électricité,
04:24
you're probably not very worried.
72
264052
2002
vous n'êtes probablement pas très inquiet.
04:26
But you see,
73
266095
1168
Mais vous voyez,
04:27
Turing thinks of superintelligence more like a new species.
74
267263
3837
Turing pense que la superintelligence ressemble davantage à une nouvelle espèce.
04:31
Think of it,
75
271142
1168
Réfléchissez-y,
04:32
we are building creepy, super capable,
76
272310
3879
nous sommes en train de construire des psychopathes effrayants,
04:36
amoral psychopaths
77
276231
1585
super capables et amoraux
04:37
that don't sleep and think much faster than us,
78
277857
2711
qui ne dorment pas et pensent bien plus vite que nous,
04:40
can make copies of themselves
79
280610
1418
peuvent faire des copies d’eux-mêmes et qui n’ont rien d’humain.
04:42
and have nothing human about them at all.
80
282070
2002
04:44
So what could possibly go wrong?
81
284072
1835
Qu’est-ce qui pourrait mal tourner ?
04:45
(Laughter)
82
285949
1543
(Rires)
04:47
And it's not just Turing.
83
287951
1585
Et il n'y a pas que Turing.
04:49
OpenAI CEO Sam Altman, who gave us ChatGPT,
84
289536
2919
Le PDG d’OpenAI, Sam Altman, qui nous a donné ChatGPT,
04:52
recently warned that it could be "lights out for all of us."
85
292497
3837
a récemment averti que ce pourrait être « l’extinction des feux pour nous tous ».
04:57
Anthropic CEO, Dario Amodei, even put a number on this risk:
86
297126
3754
Le PDG d'Anthropic, Dario Amodei, a même chiffré ce risque :
05:02
10-25 percent.
87
302090
2210
10 à 25 %.
05:04
And it's not just them.
88
304300
1335
Et il n'y a pas qu'eux.
05:05
Human extinction from AI went mainstream in May
89
305677
3086
L’extinction de l’humanité due à l’IA s’est généralisée en mai
05:08
when all the AGI CEOs and who's who of AI researchers
90
308763
4922
lorsque tous les PDG de l’IAG et les principaux chercheurs en IA
05:13
came on and warned about it.
91
313685
1376
sont venus nous mettre en garde.
05:15
And last month, even the number one of the European Union
92
315061
2920
Le mois dernier, même le numéro un de l’Union européenne
05:18
warned about human extinction by AI.
93
318022
3295
a mis en garde contre l’extinction de l’homme par l’IA.
05:21
So let me summarize everything I've said so far
94
321359
2211
Je vais résumer tout ce que j’ai dit jusqu’à présent
05:23
in just one slide of cat memes.
95
323611
2544
en une seule diapositive de mèmes sur les chats.
05:27
Three years ago,
96
327282
1793
Il y a trois ans,
05:29
people were saying it's inevitable, superintelligence,
97
329117
4129
les gens disaient que c’est inévitable,
que tout irait bien avec la superintelligence,
05:33
it'll be fine,
98
333288
1501
05:34
it's decades away.
99
334789
1210
pas avant dans des décennies.
05:35
Last year it was more like,
100
335999
1835
L’an dernier, ils disaient plutôt
05:37
It's inevitable, it'll be fine.
101
337876
2043
que c’était inévitable, tout irait bien.
05:40
Now it's more like,
102
340295
2460
Maintenant, ils disent plutôt
05:42
It's inevitable.
103
342797
1251
que c’est inévitable.
05:44
(Laughter)
104
344090
1126
(Rires)
05:47
But let's take a deep breath and try to raise our spirits
105
347260
3962
Mais prenons une profonde respiration
et essayons de nous remonter le moral,
05:51
and cheer ourselves up,
106
351264
1168
05:52
because the rest of my talk is going to be about the good news,
107
352473
3045
car le reste de mon exposé portera sur la bonne nouvelle,
05:55
that it's not inevitable, and we can absolutely do better,
108
355560
2919
que ce n’est pas inévitable et qu’on peut absolument faire mieux, d’accord ?
05:58
alright?
109
358521
1168
06:00
(Applause)
110
360315
2002
(Applaudissements)
06:02
So ...
111
362317
1209
Alors...
06:04
The real problem is that we lack a convincing plan for AI safety.
112
364903
5296
Le vrai problème est
que nous n’avons pas de plan convaincant pour la sécurité de l’IA.
06:10
People are working hard on evals
113
370700
3337
Les gens travaillent dur sur les évaluations
06:14
looking for risky AI behavior, and that's good,
114
374037
4087
pour identifier les comportements risqués de l’IA, et c’est une bonne chose,
06:18
but clearly not good enough.
115
378124
2044
mais ce n'est clairement pas suffisant.
06:20
They're basically training AI to not say bad things
116
380209
4797
Ils entraînent essentiellement l’IA à ne pas dire de mauvaises choses
06:25
rather than not do bad things.
117
385006
2502
plutôt qu’à ne pas faire de mauvaises choses.
06:28
Moreover, evals and debugging are really just necessary,
118
388176
4212
De plus, les évaluations et le débogage ne sont en fait
que des conditions de sécurité nécessaires et non suffisantes.
06:32
not sufficient, conditions for safety.
119
392430
2002
06:34
In other words,
120
394474
1751
En d'autres termes,
06:36
they can prove the presence of risk,
121
396225
3671
elles peuvent prouver la présence d’un risque,
06:39
not the absence of risk.
122
399938
2168
et non l’absence de risque.
06:42
So let's up our game, alright?
123
402148
2544
Alors passons au niveau supérieur.
06:44
Try to see how we can make provably safe AI that we can control.
124
404692
5631
Essayons de voir comment on peut créer une IA dont la sécurité est prouvée
et que nous pouvons contrôler.
06:50
Guardrails try to physically limit harm.
125
410323
5047
Les garde-fous tentent de limiter physiquement les dégâts.
06:55
But if your adversary is superintelligence
126
415828
2211
Mais si votre adversaire est une superintelligence
06:58
or a human using superintelligence against you, right,
127
418081
2544
ou un humain qui utilise une superintelligence contre vous,
07:00
trying is just not enough.
128
420625
1960
il ne suffit pas d’essayer.
07:02
You need to succeed.
129
422585
1877
Il faut réussir.
07:04
Harm needs to be impossible.
130
424504
2169
Il faut qu’il soit impossible de faire du mal.
07:06
So we need provably safe systems.
131
426714
2544
Il faut donc des systèmes à la sécurité prouvée.
07:09
Provable, not in the weak sense of convincing some judge,
132
429258
3838
Prouvée, non pas dans le sens faible de convaincre un juge,
07:13
but in the strong sense of there being something that's impossible
133
433137
3128
mais dans le sens fort qu'il existe quelque chose d'impossible
07:16
according to the laws of physics.
134
436265
1585
selon les lois de la physique.
07:17
Because no matter how smart an AI is,
135
437892
2002
Car quelle que soit l’intelligence d’une IA,
07:19
it can't violate the laws of physics and do what's provably impossible.
136
439936
4046
elle ne peut pas violer les lois de la physique
et faire ce qui est manifestement impossible.
07:24
Steve Omohundro and I wrote a paper about this,
137
444440
2836
Steve Omohundro et moi avons écrit un article à ce sujet,
07:27
and we're optimistic that this vision can really work.
138
447318
5005
et nous croyons fermement que cette vision peut réellement fonctionner.
07:32
So let me tell you a little bit about how.
139
452323
2169
Je vais vous expliquer un peu comment.
07:34
There's a venerable field called formal verification,
140
454993
4421
Il existe un domaine vénérable appelé vérification formelle,
07:39
which proves stuff about code.
141
459455
2127
qui prouve des choses sur le code.
07:41
And I'm optimistic that AI will revolutionize automatic proving business
142
461624
6548
J’ai bon espoir que l’IA révolutionnera le secteur des preuves automatiques
07:48
and also revolutionize program synthesis,
143
468214
3337
et révolutionnera aussi la synthèse de programmes, c’est-à-dire
07:51
the ability to automatically write really good code.
144
471592
3254
la capacité à écrire automatiquement du très bon code.
07:54
So here is how our vision works.
145
474887
1585
Voici comment fonctionne notre vision : vous, humain,
07:56
You, the human, write a specification
146
476472
4213
rédigez une spécification
08:00
that your AI tool must obey,
147
480685
2711
à laquelle votre outil d’IA doit se conformer,
08:03
that it's impossible to log in to your laptop
148
483438
2127
pour empêcher l’accès à votre ordinateur sans le bon mot de passe
08:05
without the correct password,
149
485565
1793
08:07
or that a DNA printer cannot synthesize dangerous viruses.
150
487400
5714
ou empêcher une imprimante à ADN de synthétiser des virus dangereux.
08:13
Then a very powerful AI creates both your AI tool
151
493156
5213
Ensuite, une IA très puissante crée à la fois votre outil d’IA
08:18
and a proof that your tool meets your spec.
152
498369
3837
et la preuve que votre outil répond à vos spécifications.
08:22
Machine learning is uniquely good at learning algorithms,
153
502540
4254
L’apprentissage automatique est le seul bon moyen d’apprendre des algorithmes,
08:26
but once the algorithm has been learned,
154
506836
2169
mais une fois l’algorithme appris,
08:29
you can re-implement it in a different computational architecture
155
509047
3169
on peut le réimplémenter dans une autre architecture informatique,
08:32
that's easier to verify.
156
512216
1627
plus facile à vérifier.
08:35
Now you might worry,
157
515344
1210
Maintenant, vous vous demandez peut-être comment comprendre cette puissante IA
08:36
how on earth am I going to understand this powerful AI
158
516554
3921
08:40
and the powerful AI tool it built
159
520475
1626
et le puissant outil d’IA qu’elle a créé et les preuves,
08:42
and the proof,
160
522143
1126
08:43
if they're all too complicated for any human to grasp?
161
523311
2794
s’ils sont trop compliqués à comprendre pour un humain ?
08:46
Here is the really great news.
162
526147
2127
Voici la très bonne nouvelle.
08:48
You don't have to understand any of that stuff,
163
528316
2461
Pas besoin de comprendre tout ça,
08:50
because it's much easier to verify a proof than to discover it.
164
530818
5297
car il est beaucoup plus facile de vérifier une preuve que de la découvrir.
08:56
So you only have to understand or trust your proof-checking code,
165
536115
5089
Il vous suffit de comprendre ou de se fier à votre code de vérification des preuves,
09:01
which could be just a few hundred lines long.
166
541245
2211
qui peut n’être que quelques centaines de lignes.
09:03
And Steve and I envision
167
543498
2252
Steve et moi pensons
09:05
that such proof checkers get built into all our compute hardware,
168
545750
4463
que de tels vérificateurs de preuves
seront intégrés à tout notre matériel informatique,
09:10
so it just becomes impossible to run very unsafe code.
169
550254
4213
ce qui rendra tout simplement impossible d’exécuter du code très dangereux.
09:14
What if the AI, though, isn't able to write that AI tool for you?
170
554509
5505
Et si l’IA n’était pas capable de créer cet outil d’IA pour vous ?
09:20
Then there's another possibility.
171
560056
3795
Il y a alors une autre possibilité.
09:23
You train an AI to first just learn to do what you want
172
563851
3587
On entraîne une IA pour qu’elle apprenne d’abord à faire ce qu’on veut,
09:27
and then you use a different AI
173
567480
3337
puis on utilise une autre IA
09:30
to extract out the learned algorithm and knowledge for you,
174
570858
3963
pour extraire l’algorithme et les connaissances appris à votre place,
09:34
like an AI neuroscientist.
175
574862
2086
comme un neuroscientifique spécialisé dans l’IA.
09:37
This is in the spirit of the field of mechanistic interpretability,
176
577281
3879
C’est dans l’esprit du domaine de l’interprétabilité mécanistique,
09:41
which is making really impressive rapid progress.
177
581160
3253
qui connaît des progrès rapides vraiment impressionnants.
09:44
Provably safe systems are clearly not impossible.
178
584455
3170
Des systèmes à sécurité prouvée ne sont clairement pas impossibles.
09:47
Let's look at a simple example
179
587625
1502
Prenons un exemple simple :
09:49
of where we first machine-learn an algorithm from data
180
589168
4630
on apprend d’abord à la machine un algorithme à partir de données,
09:53
and then distill it out in the form of code
181
593840
4254
puis on le distille sous forme de code
09:58
that provably meets spec, OK?
182
598136
2252
qui répond de manière prouvable aux spécifications.
10:00
Let’s do it with an algorithm that you probably learned in first grade,
183
600888
4922
Faisons-le avec un algorithme
que vous avez probablement appris en CP, l’addition,
10:05
addition,
184
605810
1168
où on passe en boucle les chiffres de droite à gauche,
10:07
where you loop over the digits from right to left,
185
607019
2503
10:09
and sometimes you do a carry.
186
609564
1793
et parfois vous posez une retenue.
10:11
We'll do it in binary,
187
611357
1752
Nous allons le faire en binaire,
10:13
as if you were counting on two fingers instead of ten.
188
613151
2752
comme si vous comptiez sur deux doigts au lieu de dix.
10:16
And we first train a recurrent neural network,
189
616279
3378
Et nous entraînons d’abord un réseau neuronal récurrent,
10:19
never mind the details,
190
619657
2211
peu importe les détails,
10:21
to nail the task.
191
621909
1418
pour réussir la tâche.
10:23
So now you have this algorithm that you don't understand how it works
192
623828
3253
Vous avez cet algorithme et vous ne comprenez pas
10:27
in a black box
193
627123
2753
comment il fonctionne dans une boîte noire
10:29
defined by a bunch of tables of numbers that we, in nerd speak,
194
629917
4463
définie par un tas de tableaux de chiffres que nous, en langage nerd,
10:34
call parameters.
195
634380
1502
appelons des paramètres.
10:35
Then we use an AI tool we built to automatically distill out from this
196
635882
5297
Ensuite, on utilise un outil d’IA qu’on a créé pour en extraire automatiquement
10:41
the learned algorithm in the form of a Python program.
197
641179
3420
l’algorithme appris sous la forme d’un programme Python.
10:44
And then we use the formal verification tool known as Daphne
198
644640
4838
Ensuite, on utilise l’outil de vérification formel appelé Daphne
10:49
to prove that this program correctly adds up any numbers,
199
649520
5422
pour prouver que ce programme additionne correctement tous les chiffres
10:54
not just the numbers that were in your training data.
200
654942
2503
et pas que ceux des données d’entraînement.
10:57
So in summary,
201
657778
1377
Donc, en résumé,
10:59
provably safe AI, I'm convinced is possible,
202
659155
3962
je suis convaincu qu’une IA à sécurité prouvée est possible,
11:03
but it's going to take time and work.
203
663117
3003
mais ça prendra du temps et du travail.
11:06
And in the meantime,
204
666162
1209
En attendant,
11:07
let's remember that all the AI benefits
205
667413
4254
rappelons-nous que tous les avantages de l’IA
11:11
that most people are excited about
206
671709
3795
qui enthousiasment la plupart des gens
11:15
actually don't require superintelligence.
207
675504
2628
ne nécessitent en fait pas une superintelligence.
11:18
We can have a long and amazing future with AI.
208
678758
5005
Nous pouvons avoir un avenir long et prometteur grâce à l'IA.
11:25
So let's not pause AI.
209
685014
2169
Ne suspendons donc pas l'IA.
11:28
Let's just pause the reckless race to superintelligence.
210
688476
4129
Arrêtons la course effrénée vers la superintelligence.
11:32
Let's stop obsessively training ever-larger models
211
692980
4255
Arrêtons cette obsession d’entrainer des modèles de plus en plus grands
11:37
that we don't understand.
212
697276
1669
que nous ne comprenons pas.
11:39
Let's heed the warning from ancient Greece
213
699737
3212
Suivons l’avertissement de la Grèce antique
11:42
and not get hubris, like in the story of Icarus.
214
702949
3712
et ne faisons pas preuve d’orgueil, comme dans l’histoire d’Icare.
11:46
Because artificial intelligence
215
706702
2711
Parce que l’intelligence artificielle
11:49
is giving us incredible intellectual wings
216
709455
4463
nous donne des ailes intellectuelles incroyables
11:53
with which we can do things beyond our wildest dreams
217
713960
4045
avec lesquelles on peut faire des choses au-delà de nos rêves les plus fous
11:58
if we stop obsessively trying to fly to the sun.
218
718047
4379
si on cesse d’e s’obstiner à essayer de voler vers le Soleil.
12:02
Thank you.
219
722802
1168
Merci.
12:03
(Applause)
220
723970
5880
(Applaudissements)
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7