AI Is Dangerous, but Not for the Reasons You Think | Sasha Luccioni | TED

1,167,750 views ・ 2023-11-06

TED


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

Traducteur: Claire Ghyselen Relecteur: eric vautier
00:04
So I've been an AI researcher for over a decade.
0
4292
3504
Je fais de la recherche sur l’IA depuis plus de dix ans.
00:07
And a couple of months ago, I got the weirdest email of my career.
1
7796
3503
Et il y a quelques mois, j'ai reçu l'e-mail le plus étrange de ma carrière.
00:11
A random stranger wrote to me
2
11925
1668
Un total inconnu m’écrivait
00:13
saying that my work in AI is going to end humanity.
3
13635
3420
pour dire que mon travail dans le domaine de l’IA allait mettre fin à l’humanité.
00:18
Now I get it, AI, it's so hot right now.
4
18598
3754
Je comprends, l’AI est au centre de l’attention.
00:22
(Laughter)
5
22352
1627
(Rires)
Elle fait la une tous les jours,
00:24
It's in the headlines pretty much every day,
6
24020
2086
00:26
sometimes because of really cool things
7
26106
1918
parfois pour des choses super cool,
00:28
like discovering new molecules for medicine
8
28066
2169
la découverte de nouvelles molécules en médecine,
00:30
or that dope Pope in the white puffer coat.
9
30235
2252
ou notre bon Pape en doudoune blanche.
00:33
But other times the headlines have been really dark,
10
33446
2461
Mais d’autres fois, la une est crépusculaire,
00:35
like that chatbot telling that guy that he should divorce his wife
11
35907
3671
comme ce chatbot qui dit à un type qu’il doit divorcer, par exemple,
00:39
or that AI meal planner app proposing a crowd pleasing recipe
12
39619
4088
ou cette appli de planification de menus basée sur l’IA qui propose une recette
00:43
featuring chlorine gas.
13
43707
2002
très populaire mais à base de chlore gazeux.
00:46
And in the background,
14
46376
1418
Et en bruit de fond,
00:47
we've heard a lot of talk about doomsday scenarios,
15
47836
2419
on entend beaucoup de scénarios apocalyptiques,
00:50
existential risk and the singularity,
16
50255
1918
de risques existentiels et de singularité,
00:52
with letters being written and events being organized
17
52215
2503
avec des lettres ouvertes et des événements organisés
00:54
to make sure that doesn't happen.
18
54718
2002
pour éviter que cela ne se produise.
00:57
Now I'm a researcher who studies AI's impacts on society,
19
57637
4630
Mes recherches portent sur les impacts de l’IA sur la société
01:02
and I don't know what's going to happen in 10 or 20 years,
20
62267
2836
et je ne sais pas ce qui se passera dans 10 ou 20 ans,
01:05
and nobody really does.
21
65145
2461
d’ailleurs, personne ne le sait vraiment.
01:07
But what I do know is that there's some pretty nasty things going on right now,
22
67981
4546
Par contre, je sais qu’il y a actuellement des choses pernicieuses,
01:12
because AI doesn't exist in a vacuum.
23
72527
2878
car l'IA n'existe pas dans le vide.
01:15
It is part of society, and it has impacts on people and the planet.
24
75447
3920
Elle fait partie de la société
et a des répercussions sur les personnes et la planète.
01:20
AI models can contribute to climate change.
25
80160
2502
Les modèles d’IA favorisent le changement climatique.
01:22
Their training data uses art and books created by artists
26
82704
3462
Les données utilisées pour l’apprentissage automatique utilisent des œuvres
01:26
and authors without their consent.
27
86207
1710
sans leur consentement des auteurs et artistes.
01:27
And its deployment can discriminate against entire communities.
28
87959
3837
Enfin, l’IA peut être discriminatoire à l’encontre de communautés entières.
01:32
But we need to start tracking its impacts.
29
92797
2127
Nous devons vraiment tracer ses impacts.
01:34
We need to start being transparent and disclosing them and creating tools
30
94966
3587
Nous devons veiller à être transparent, à les déclarer et à créer des outils
01:38
so that people understand AI better,
31
98595
2419
pour que les gens comprennent mieux l'IA,
01:41
so that hopefully future generations of AI models
32
101056
2335
afin que, je l’espère, les générations futures d’IA
01:43
are going to be more trustworthy, sustainable,
33
103433
2836
soient plus dignes de confiance, durables,
01:46
maybe less likely to kill us, if that's what you're into.
34
106269
2836
peut-être moins susceptibles de nous tuer, si c’est ça votre trip.
01:50
But let's start with sustainability,
35
110148
1752
Commençons par la durabilité.
01:51
because that cloud that AI models live on is actually made out of metal, plastic,
36
111900
5756
Le cloud sur lequel reposent les IA est en fait composé de métal, de plastique
01:57
and powered by vast amounts of energy.
37
117656
2460
et alimenté par de grandes quantités d’énergie.
02:00
And each time you query an AI model, it comes with a cost to the planet.
38
120116
4463
Chaque fois que vous interrogez un modèle d’IA, cela a un coût pour la planète.
02:05
Last year, I was part of the BigScience initiative,
39
125789
3044
L'année dernière, j'ai participé à l'initiative BigScience,
02:08
which brought together a thousand researchers
40
128833
2127
qui a réuni un millier de chercheurs du monde entier pour créer Bloom,
02:10
from all over the world to create Bloom,
41
130960
2503
02:13
the first open large language model, like ChatGPT,
42
133505
4337
le premier grand modèle de langage en source ouverte, comme ChatGPT,
02:17
but with an emphasis on ethics, transparency and consent.
43
137842
3546
mais qui met l’accent sur l’éthique, la transparence et le consentement.
02:21
And the study I led that looked at Bloom's environmental impacts
44
141721
3253
Et l’étude que j’ai menée sur les impacts environnementaux de Bloom
02:25
found that just training it used as much energy
45
145016
3253
a révélé que le seul apprentissage automatique consommait
02:28
as 30 homes in a whole year
46
148311
2211
autant d’énergie que 30 maisons par an
02:30
and emitted 25 tons of carbon dioxide,
47
150563
2419
et émettait 25 tonnes de dioxyde de carbone,
02:33
which is like driving your car five times around the planet
48
153024
3253
ce qui revient à faire cinq fois le tour de la planète en voiture,
02:36
just so somebody can use this model to tell a knock-knock joke.
49
156319
3170
juste pour que quelqu’un puisse l’utiliser pour raconter une blague.
02:39
And this might not seem like a lot,
50
159489
2169
Et cela peut sembler dérisoire,
02:41
but other similar large language models,
51
161700
2460
mais d’autres LLM similaires,
02:44
like GPT-3,
52
164202
1126
comme le GPT-3,
02:45
emit 20 times more carbon.
53
165370
2544
émettent 20 fois plus de carbone.
02:47
But the thing is, tech companies aren't measuring this stuff.
54
167956
2878
Le problème, c’est que les entreprises tech ne mesurent,
02:50
They're not disclosing it.
55
170875
1252
ni ne le divulguent ces facteurs.
02:52
And so this is probably only the tip of the iceberg,
56
172168
2461
Il ne s’agit donc de la partie visible de l’iceberg,
02:54
even if it is a melting one.
57
174629
1418
fût-il en train de fondre.
02:56
And in recent years we've seen AI models balloon in size
58
176798
3629
Or récemment, la taille des modèles IA grandit exponentiellement
03:00
because the current trend in AI is "bigger is better."
59
180468
3462
car la tendance en matière d’IA est : « Plus c’est gros, mieux c’est ».
03:04
But please don't get me started on why that's the case.
60
184305
2795
Mais ne me laissez pas expliquer pourquoi c’est le cas.
03:07
In any case, we've seen large language models in particular
61
187100
3003
Quoi qu’il en soit, la taille des grands modèles de langage en particulier
03:10
grow 2,000 times in size over the last five years.
62
190103
3211
a été multipliée par 2 000 ces cinq dernières années.
03:13
And of course, their environmental costs are rising as well.
63
193314
3045
Naturellement, leurs coûts environnementaux augmentent d’autant.
03:16
The most recent work I led, found that switching out a smaller,
64
196401
3795
Mes recherches les plus récentes ont révélé que le remplacement d’un modèle
03:20
more efficient model for a larger language model
65
200238
3337
plus petit et plus efficace par un modèle de langage plus grand
03:23
emits 14 times more carbon for the same task.
66
203616
3754
émet 14 fois plus de carbone pour la même tâche,
03:27
Like telling that knock-knock joke.
67
207412
1877
comme dans une blague « toc toc, qui est là ? »
03:29
And as we're putting in these models into cell phones and search engines
68
209289
3462
Plus nous intégrons ces modèles dans nos portables,
03:32
and smart fridges and speakers,
69
212792
2836
les moteurs de recherche, les frigos intelligents, les amplis,
03:35
the environmental costs are really piling up quickly.
70
215628
2628
plus les coûts environnementaux s’accumulent rapidement.
03:38
So instead of focusing on some future existential risks,
71
218840
3754
Donc, au lieu de nous concentrer sur certains risques existentiels futurs,
03:42
let's talk about current tangible impacts
72
222635
2753
parlons des impacts concrets actuels
03:45
and tools we can create to measure and mitigate these impacts.
73
225388
3629
et des outils que nous pouvons créer pour mesurer et atténuer ces impacts.
03:49
I helped create CodeCarbon,
74
229893
1668
J’ai épaulé la création de CodeCarbon,
03:51
a tool that runs in parallel to AI training code
75
231603
2961
un outil qui tourne en parallèle à l’apprentissage automatique
03:54
that estimates the amount of energy it consumes
76
234564
2211
qui estime la quantité d’énergie consommée
03:56
and the amount of carbon it emits.
77
236775
1668
et la quantité de carbone émise.
03:58
And using a tool like this can help us make informed choices,
78
238485
2877
L’usage d’un tel outil nous aide à faire des choix éclairés,
04:01
like choosing one model over the other because it's more sustainable,
79
241404
3253
en choisissant un modèle plutôt qu’un autre parce que plus durable,
04:04
or deploying AI models on renewable energy,
80
244657
2920
ou en déployant des modèles d'IA sur les énergies renouvelables,
04:07
which can drastically reduce their emissions.
81
247619
2544
ce qui peut réduire considérablement leurs émissions.
04:10
But let's talk about other things
82
250163
2085
Mais parlons d’autres impacts de l’IA que la durabilité.
04:12
because there's other impacts of AI apart from sustainability.
83
252290
2961
04:15
For example, it's been really hard for artists and authors
84
255627
3128
Par exemple, il est très difficile pour les artistes et les auteurs
04:18
to prove that their life's work has been used for training AI models
85
258797
4212
de prouver que leur œuvre a été utilisée sans leur consentement
pour entraîner des modèles d’IA.
04:23
without their consent.
86
263051
1209
04:24
And if you want to sue someone, you tend to need proof, right?
87
264302
3170
Or pour poursuivre quelqu’un, on a souvent besoin de preuves, non ?
04:27
So Spawning.ai, an organization that was founded by artists,
88
267806
3920
Et donc, Spawning.ai, une organisation fondée par des artistes,
04:31
created this really cool tool called “Have I Been Trained?”
89
271726
3337
a créé un outil vraiment cool intitulé « Have I Been Trained ? »
04:35
And it lets you search these massive data sets
90
275104
2461
Ça permet de faire des recherches dans ces énormes ensembles de données
04:37
to see what they have on you.
91
277607
2085
et voir ce qu’elles incluent de vous.
04:39
Now, I admit it, I was curious.
92
279734
1668
Je l’avoue, j’étais curieuse, j’ai fait une recherche sur LAION-5B,
04:41
I searched LAION-5B,
93
281444
1627
04:43
which is this huge data set of images and text,
94
283112
2461
un énorme ensemble de données d’images et de textes,
04:45
to see if any images of me were in there.
95
285615
2711
pour voir s’il y avait des images de moi.
04:49
Now those two first images,
96
289285
1585
Ces deux premières images,
04:50
that's me from events I've spoken at.
97
290870
2169
c’est moi lors des événements auxquels j’ai pris la parole.
04:53
But the rest of the images, none of those are me.
98
293081
2753
Mais le reste, ce n’est pas moi.
04:55
They're probably of other women named Sasha
99
295875
2002
Sans doute d’autres femmes nommées Sasha
04:57
who put photographs of themselves up on the internet.
100
297919
2628
qui ont publié des photos d’elles-mêmes sur Internet.
05:01
And this can probably explain why,
101
301047
1627
Et cela peut expliquer pourquoi,
05:02
when I query an image generation model
102
302715
1836
quand je fais une recherche,
05:04
to generate a photograph of a woman named Sasha,
103
304551
2294
pour générer une photo d’une femme nommée Sasha,
05:06
more often than not I get images of bikini models.
104
306886
2753
j’obtiens souvent des images de modèles de bikini.
05:09
Sometimes they have two arms,
105
309681
1626
Parfois, elles ont deux bras,
05:11
sometimes they have three arms,
106
311349
2294
parfois trois,
05:13
but they rarely have any clothes on.
107
313685
2043
mais elles sont rarement vêtues.
05:16
And while it can be interesting for people like you and me
108
316563
2794
Il est certes intéressant pour des personnes comme vous et moi
05:19
to search these data sets,
109
319357
2127
de faire de telles recherches,
05:21
for artists like Karla Ortiz,
110
321526
2044
pour des artistes comme Karla Ortiz,
05:23
this provides crucial evidence that her life's work, her artwork,
111
323570
3753
cela fournit des preuves cruciales que son œuvre
05:27
was used for training AI models without her consent,
112
327365
2961
a été utilisée sans son consentement pour former des modèles d’IA.
05:30
and she and two artists used this as evidence
113
330326
2336
Avec deux artistes, elle a utilisé cela comme preuve
05:32
to file a class action lawsuit against AI companies
114
332704
2794
pour intenter un recours collectif pour violation du droit d'auteur.
05:35
for copyright infringement.
115
335540
1960
05:37
And most recently --
116
337542
1168
Et plus récemment -
05:38
(Applause)
117
338710
3378
(Applaudissements)
05:42
And most recently Spawning.ai partnered up with Hugging Face,
118
342130
3044
Et plus récemment, Spawning.ai s'est associé à Hugging Face,
05:45
the company where I work at,
119
345216
1585
la société où je travaille,
05:46
to create opt-in and opt-out mechanisms for creating these data sets.
120
346801
4922
pour créer des mécanismes d’activation et de désactivation de ces données,
05:52
Because artwork created by humans shouldn’t be an all-you-can-eat buffet
121
352098
3587
car les œuvres créées par des humains ne devraient pas être un buffet à volonté
05:55
for training AI language models.
122
355727
1793
destiné à la formation de modèles de langage.
05:58
(Applause)
123
358313
4254
(Applaudissements)
06:02
The very last thing I want to talk about is bias.
124
362567
2336
J’aimerais enfin évoquer la partialité.
06:04
You probably hear about this a lot.
125
364944
1919
On en entend beaucoup parler.
06:07
Formally speaking, it's when AI models encode patterns and beliefs
126
367196
3713
C’est quand les modèles d’IA encodent des modèles et des croyances
06:10
that can represent stereotypes or racism and sexism.
127
370950
3128
qui peuvent représenter des stéréotypes, du racisme ou du sexisme.
06:14
One of my heroes, Dr. Joy Buolamwini, experienced this firsthand
128
374412
3212
L’une de mes héroïnes, le docteur Joy Buolamwini, a vécu cela
06:17
when she realized that AI systems wouldn't even detect her face
129
377665
3045
quand les IA ne détectèrent pas son visage
06:20
unless she was wearing a white-colored mask.
130
380752
2169
à moins de porter un masque blanc.
06:22
Digging deeper, she found that common facial recognition systems
131
382962
3754
En approfondissant, elle a découvert que les systèmes de reconnaissance faciale
06:26
were vastly worse for women of color compared to white men.
132
386758
3253
étaient pires pour les femmes de couleur que pour les hommes blancs.
06:30
And when biased models like this are deployed in law enforcement settings,
133
390428
5297
Quand des modèles biaisés sont déployés
dans les structures en charge du maintien de l’ordre
06:35
this can result in false accusations, even wrongful imprisonment,
134
395767
4296
on peut aboutir à de fausses accusations, voire à des emprisonnements injustifiés,
06:40
which we've seen happen to multiple people in recent months.
135
400063
3920
comme nous l’avons constaté pour de nombreuses personnes ces derniers mois.
06:44
For example, Porcha Woodruff was wrongfully accused of carjacking
136
404025
3086
Par exemple, Porcha Woodruff, enceinte de huit mois,
a été accusée à tort de carjacking
06:47
at eight months pregnant
137
407111
1252
06:48
because an AI system wrongfully identified her.
138
408363
2961
parce qu’une IA s’est trompée sur son identification.
06:52
But sadly, these systems are black boxes,
139
412325
2002
Hélas, ces systèmes sont des boîtes noires,
06:54
and even their creators can't say exactly why they work the way they do.
140
414369
5964
et même leurs créateurs ignorent pourquoi elles fonctionnent comme elles le font.
07:00
And for example, for image generation systems,
141
420917
3462
Par exemple, les systèmes de génération d’images.
07:04
if they're used in contexts like generating a forensic sketch
142
424379
4129
Utilisés dans des contextes tels que la génération d’un dossier médico-légal
07:08
based on a description of a perpetrator,
143
428549
2711
basé sur la description d'un agresseur,
07:11
they take all those biases and they spit them back out
144
431260
3587
ils reprennent tous ces biais et les recrachent,
07:14
for terms like dangerous criminal, terrorists or gang member,
145
434889
3462
des termes comme dangereux criminel, terroriste ou membre de gang.
07:18
which of course is super dangerous
146
438393
2168
C’est évidemment très dangereux
07:20
when these tools are deployed in society.
147
440603
4421
lorsque ces outils sont déployés dans la société.
07:25
And so in order to understand these tools better,
148
445566
2294
C'est pourquoi, afin de mieux comprendre ces outils,
07:27
I created this tool called the Stable Bias Explorer,
149
447902
3212
j’ai créé « Stable Bias Explorer »,
07:31
which lets you explore the bias of image generation models
150
451155
3379
qui permet d’explorer les biais dans les modèles de génération d’images
07:34
through the lens of professions.
151
454575
1669
à travers le prisme des professions.
07:37
So try to picture a scientist in your mind.
152
457370
3045
Imaginez un scientifique.
07:40
Don't look at me.
153
460456
1168
Ne me regardez pas.
07:41
What do you see?
154
461666
1335
Qu’est-ce que vous voyez ?
07:43
A lot of the same thing, right?
155
463835
1501
Toutes ces images se ressemblent.
07:45
Men in glasses and lab coats.
156
465378
2377
Des hommes avec des lunettes et en blouse blanche.
07:47
And none of them look like me.
157
467797
1710
Aucun d’entre eux ne me ressemble.
07:50
And the thing is,
158
470174
1460
Le fait est :
07:51
is that we looked at all these different image generation models
159
471676
3253
nous avons examiné tous ces modèles de génération d’images
07:54
and found a lot of the same thing:
160
474929
1627
et avons découvert la même chose :
07:56
significant representation of whiteness and masculinity
161
476597
2586
une représentation significative de l’homme blanc
07:59
across all 150 professions that we looked at,
162
479225
2127
dans les 150 professions examinées,
08:01
even if compared to the real world,
163
481352
1794
même comparé au monde réel,
08:03
the US Labor Bureau of Statistics.
164
483187
1836
selon le Bureau des statistiques du travail.
08:05
These models show lawyers as men,
165
485023
3044
Dans ces modèles, les avocats sont des hommes
08:08
and CEOs as men, almost 100 percent of the time,
166
488109
3462
les PDG sont des hommes, presque 100 % du temps,
08:11
even though we all know not all of them are white and male.
167
491571
3170
même si personne n’ignore qu’ils ne sont pas tous blancs et hommes.
08:14
And sadly, my tool hasn't been used to write legislation yet.
168
494782
4380
Malheureusement, mon outil n'a pas encore été utilisé pour rédiger des lois.
08:19
But I recently presented it at a UN event about gender bias
169
499203
3963
Mais je l’ai présenté lors d’un événement de l’ONU sur les préjugés sexistes,
08:23
as an example of how we can make tools for people from all walks of life,
170
503166
3879
pour illustrer quels outils peuvent éveiller la curiosité
des personnes de tous horizons, même celles qui ne savent pas coder,
08:27
even those who don't know how to code,
171
507086
2252
08:29
to engage with and better understand AI because we use professions,
172
509380
3253
afin de mieux comprendre l’IA,
08:32
but you can use any terms that are of interest to you.
173
512633
3087
car on la sollicite pour tout et dans toutes les professions.
08:36
And as these models are being deployed,
174
516596
2752
Au fur et à mesure que ces modèles sont déployés,
08:39
are being woven into the very fabric of our societies,
175
519390
3128
et intégrés au tissu même de nos sociétés,
08:42
our cell phones, our social media feeds,
176
522518
2044
nos téléphones portables, nos réseaux sociaux,
08:44
even our justice systems and our economies have AI in them.
177
524604
3211
même nos systèmes judiciaires et nos économies, intègrent l’IA.
08:47
And it's really important that AI stays accessible
178
527815
3879
Et il est très essentiel que l’IA reste accessible
08:51
so that we know both how it works and when it doesn't work.
179
531736
4713
afin de déterminer comment elle fonctionne et quand elle ne fonctionne pas.
08:56
And there's no single solution for really complex things like bias
180
536908
4296
Et il n’existe pas de solution unique pour des problèmes vraiment complexes
tels que les préjugés, le droit d’auteur ou le changement climatique.
09:01
or copyright or climate change.
181
541245
2419
09:03
But by creating tools to measure AI's impact,
182
543664
2711
Mais en créant des outils pour mesurer l'impact de l'IA,
09:06
we can start getting an idea of how bad they are
183
546375
3337
nous pouvons commencer à nous faire une idée de leur toxicité
09:09
and start addressing them as we go.
184
549754
2502
et commencer à y remédier progressivement.
09:12
Start creating guardrails to protect society and the planet.
185
552256
3337
D’abord en créant des garde-corps pour protéger la société et la planète.
09:16
And once we have this information,
186
556177
2336
Quand ces informations seront disponibles,
09:18
companies can use it in order to say,
187
558513
1835
les entreprises pourront choisir :
09:20
OK, we're going to choose this model because it's more sustainable,
188
560389
3170
« OK, nous allons choisir ce modèle parce qu’il est plus durable,
09:23
this model because it respects copyright.
189
563601
2044
ou celui-ci parce qu’il respecte le droit d’auteur ».
09:25
Legislators who really need information to write laws,
190
565686
3087
Pour rédiger les lois, le politique a besoin d’informations.
09:28
can use these tools to develop new regulation mechanisms
191
568773
3462
ces outils lui sont utiles pour développer de nouveaux mécanismes de régulation
09:32
or governance for AI as it gets deployed into society.
192
572276
3796
ou de gouvernance pour l’IA alors qu’elle se déploie dans la société.
09:36
And users like you and me can use this information
193
576114
2377
Et les utilisateurs, vous et moi, pouvons les utiliser
09:38
to choose AI models that we can trust,
194
578491
3337
pour choisir des modèles d’IA dignes de confiance,
09:41
not to misrepresent us and not to misuse our data.
195
581869
2920
qui ne vont pas nous déformer ou utiliser nos données à mauvais escient.
09:45
But what did I reply to that email
196
585790
1918
Mais qu’ai-je répondu à ce courriel sur la destruction de l’humanité ?
09:47
that said that my work is going to destroy humanity?
197
587750
2961
09:50
I said that focusing on AI's future existential risks
198
590711
4046
J’ai dit que le fait de se concentrer sur les risques existentiels futurs de l’IA
09:54
is a distraction from its current,
199
594799
2044
est une distraction par rapport à ses impacts actuels très concrets
09:56
very tangible impacts
200
596843
1835
09:58
and the work we should be doing right now, or even yesterday,
201
598719
4004
et que le travail que nous devrions faire aujourd’hui, voire depuis hier,
10:02
for reducing these impacts.
202
602723
1919
est de réduire ces impacts.
10:04
Because yes, AI is moving quickly, but it's not a done deal.
203
604684
4045
Car certes, l’IA évolue rapidement, mais la messe n’est pas encore dite.
10:08
We're building the road as we walk it,
204
608771
2503
Nous construisons la route au fur et à mesure,
10:11
and we can collectively decide what direction we want to go in together.
205
611274
3795
et nous pouvons décider ensemble dans quelle direction nous voulons aller.
10:15
Thank you.
206
615069
1210
Merci.
10:16
(Applause)
207
616279
2002
(Applaudissements)
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7