How to Govern AI — Even If It’s Hard to Predict | Helen Toner | TED

61,506 views ・ 2024-05-01

TED


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

Traducteur: Laure Veyrier Relecteur: Alix Aebi
00:03
When I talk to people about artificial intelligence,
0
3583
3963
Quand je parle aux gens d’intelligence artificielle,
00:07
something I hear a lot from non-experts is “I don’t understand AI.”
1
7546
5255
j’entends souvent les non-spécialistes dire : « Je ne comprends pas l’IA. »
00:13
But when I talk to experts, a funny thing happens.
2
13260
2794
Mais quand je parle à des experts,
chose amusante, ils disent :
00:16
They say, “I don’t understand AI, and neither does anyone else.”
3
16096
4546
« Je ne comprends pas l’IA, comme tout le monde d’ailleurs. »
00:21
This is a pretty strange state of affairs.
4
21393
3503
Cette situation est assez étrange.
00:24
Normally, the people building a new technology
5
24896
3295
Normalement, ceux qui développent une nouvelle technologie
00:28
understand how it works inside and out.
6
28233
2669
en comprennent tous les rouages.
00:31
But for AI, a technology that's radically reshaping the world around us,
7
31695
4546
Mais pour l’IA, une technologie qui peut modifier radicalement
le monde qui nous entoure,
00:36
that's not so.
8
36283
1167
ça n’est pas le cas.
00:37
Experts do know plenty about how to build and run AI systems, of course.
9
37492
4588
Les experts savent bien sûr comment créer et exploiter des systèmes d’IA.
00:42
But when it comes to how they work on the inside,
10
42455
2503
Mais quant à leur fonctionnement interne, nos connaissances sont très limitées.
00:45
there are serious limits to how much we know.
11
45000
2877
00:48
And this matters because without deeply understanding AI,
12
48420
3879
Et c’est important,
car sans une connaissance approfondie de l’IA,
00:52
it's really difficult for us to know what it will be able to do next,
13
52340
4255
il est très difficile pour nous de savoir ce dont elle sera capable à l’avenir,
00:56
or even what it can do now.
14
56636
2336
ou même ce dont elle est capable aujourd’hui.
00:59
And the fact that we have such a hard time understanding
15
59556
3378
Et le fait d’avoir tant de mal à comprendre cette technologie
01:02
what's going on with the technology and predicting where it will go next,
16
62976
3837
et à prévoir son évolution est l’un des plus gros obstacles
01:06
is one of the biggest hurdles we face in figuring out how to govern AI.
17
66855
4629
pour déterminer comment réglementer l’IA.
01:12
But AI is already all around us,
18
72861
2294
Mais l’IA est déjà partout autour de nous,
01:15
so we can't just sit around and wait for things to become clearer.
19
75155
4254
on ne peut donc pas juste attendre que la situation s’éclaircisse.
01:19
We have to forge some kind of path forward anyway.
20
79826
3170
Nous devons au moins essayer de tracer une voie à suivre.
01:24
I've been working on these AI policy and governance issues
21
84080
3629
Je travaille sur ces questions de politique et de gouvernance de l’IA
01:27
for about eight years,
22
87751
1167
depuis environ huit ans.
01:28
First in San Francisco, now in Washington, DC.
23
88918
3170
J’ai travaillé d’abord à San Francisco, puis à Washington.
01:32
Along the way, I've gotten an inside look
24
92922
2753
Tout au long de mon parcours, j’ai pu voir de l’intérieur
01:35
at how governments are working to manage this technology.
25
95717
3754
comment les gouvernements s’efforcent de gérer cette technologie.
01:39
And inside the industry, I've seen a thing or two as well.
26
99471
4421
Et au sein des entreprises, j’ai également eu un aperçu de ce qui se passait.
01:45
So I'm going to share a couple of ideas
27
105852
3170
Je vais donc partager avec vous quelques idées sur la manière
01:49
for what our path to governing AI could look like.
28
109022
3629
dont nous pourrions encadrer l’IA.
01:53
But first, let's talk about what actually makes AI so hard to understand
29
113026
4421
Mais d’abord, parlons de ce qui rend l’IA si difficile à comprendre et à prévoir.
01:57
and predict.
30
117489
1251
01:59
One huge challenge in building artificial "intelligence"
31
119616
3837
L’un des grands défis quand on crée une « intelligence » artificielle,
02:03
is that no one can agree on what it actually means
32
123495
3086
c’est que personne ne s’accorde sur ce qu’être intelligent veut dire.
02:06
to be intelligent.
33
126623
1752
02:09
This is a strange place to be in when building a new tech.
34
129000
3170
Étrange situation pour mettre au point une nouvelle technologie.
02:12
When the Wright brothers started experimenting with planes,
35
132212
3295
Quand les frères Wright ont commencé leurs tests avec des avions,
02:15
they didn't know how to build one,
36
135507
1668
ils ne savaient pas en construire,
02:17
but everyone knew what it meant to fly.
37
137175
3128
mais tout le monde savait ce que voler signifiait.
02:21
With AI on the other hand,
38
141596
1794
En revanche, dans le cas de l’IA,
02:23
different experts have completely different intuitions
39
143431
3295
différents experts ont des visions totalement divergentes
02:26
about what lies at the heart of intelligence.
40
146726
2920
sur ce qu’est vraiment l’intelligence.
02:29
Is it problem solving?
41
149646
2210
Est-ce la capacité à résoudre des problèmes ?
02:31
Is it learning and adaptation,
42
151898
2711
À apprendre et à s’adapter ?
02:34
are emotions,
43
154651
1418
Les émotions ou le fait d’avoir un corps jouent-ils un rôle quelconque ?
02:36
or having a physical body somehow involved?
44
156111
3128
02:39
We genuinely don't know.
45
159698
1459
Honnêtement, on n’en sait rien.
02:41
But different answers lead to radically different expectations
46
161157
4338
Mais selon les réponses, les attentes sont radicalement différentes
02:45
about where the technology is going and how fast it'll get there.
47
165537
4254
sur la direction que prend la technologie et la vitesse à laquelle elle y arrivera.
02:50
An example of how we're confused is how we used to talk
48
170834
2586
Un exemple de cette confusion est la façon dont nous parlions
02:53
about narrow versus general AI.
49
173461
2294
de l’IA étroite versus l’IA générale.
02:55
For a long time, we talked in terms of two buckets.
50
175797
3795
Pendant longtemps, nous en parlions comme de deux catégories.
02:59
A lot of people thought we should just be dividing between narrow AI,
51
179634
4129
Beaucoup pensaient que nous devions simplement distinguer
l’IA étroite, conçue pour effectuer une tâche bien spécifique,
03:03
trained for one specific task,
52
183763
1919
03:05
like recommending the next YouTube video,
53
185724
2669
comme recommander votre prochaine vidéo YouTube,
03:08
versus artificial general intelligence, or AGI,
54
188435
3795
de l’intelligence artificielle générale ou IAG,
03:12
that could do everything a human could do.
55
192272
2586
capable de tout faire comme un humain.
03:15
We thought of this distinction, narrow versus general,
56
195859
2919
On considérait cette distinction, étroite versus générale,
03:18
as a core divide between what we could build in practice
57
198778
3963
comme un clivage fondamental entre ce qu’on peut faire en pratique
03:22
and what would actually be intelligent.
58
202782
2252
et une technologie réellement intelligente.
03:25
But then a year or two ago, along came ChatGPT.
59
205952
4963
Mais il y a un an ou deux, ChatGPT est apparu.
03:31
If you think about it,
60
211541
1543
Quand on y pense,
03:33
you know, is it narrow AI, trained for one specific task?
61
213126
3712
s’agit-il d’une IA étroite, entraînée à effectuer une tâche spécifique
03:36
Or is it AGI and can do everything a human can do?
62
216838
3170
ou d’une IAG capable de reproduire tout ce qu’un humain peut faire ?
03:41
Clearly the answer is neither.
63
221092
1502
La réponse est claire, ni l’un ni l’autre. L’IA est assurément polyvalente.
03:42
It's certainly general purpose.
64
222635
1919
03:44
It can code, write poetry,
65
224554
2920
Elle peut coder, écrire de la poésie,
03:47
analyze business problems, help you fix your car.
66
227515
3045
analyser des problèmes commerciaux, vous aider à réparer votre voiture.
03:51
But it's a far cry from being able to do everything
67
231352
2795
Mais elle est loin d’être capable de tout faire aussi bien que vous et moi.
03:54
as well as you or I could do it.
68
234189
2419
03:56
So it turns out this idea of generality
69
236608
2043
Il s’avère donc que cette idée de généralité
03:58
doesn't actually seem to be the right dividing line
70
238651
2711
n’est pas la bonne frontière
04:01
between intelligent and not.
71
241404
2127
entre ce qui est intelligent et ce qui ne l’est pas.
04:04
And this kind of thing
72
244073
1335
Ce type de question constitue actuellement un énorme défi pour le secteur de l’IA.
04:05
is a huge challenge for the whole field of AI right now.
73
245450
2794
04:08
We don't have any agreement on what we're trying to build
74
248286
2836
Nous ne nous accordons ni sur ce que nous tentons de bâtir
04:11
or on what the road map looks like from here.
75
251164
2419
ni sur la feuille de route à adopter à ce stade.
04:13
We don't even clearly understand the AI systems that we have today.
76
253625
3962
Nous ne comprenons même pas clairement nos systèmes d’IA actuels.
Comment cela se fait-il ?
04:18
Why is that?
77
258004
1251
04:19
Researchers sometimes describe deep neural networks,
78
259297
3003
Les chercheurs décrivent parfois les réseaux neuronaux profonds,
04:22
the main kind of AI being built today,
79
262300
2085
le principal type d’IA développée aujourd’hui, comme une boîte noire.
04:24
as a black box.
80
264427
1460
04:26
But what they mean by that is not that it's inherently mysterious
81
266304
3670
Ce qu’ils entendent par là, ça n’est pas qu’ils sont intrinsèquement mystérieux
04:29
and we have no way of looking inside the box.
82
269974
2711
et qu’on n’a aucun moyen de regarder à l’intérieur de cette boîte.
04:33
The problem is that when we do look inside,
83
273228
2669
Le problème c’est que quand on regarde à l’intérieur,
04:35
what we find are millions,
84
275939
2335
on trouve des millions, des milliards, voire des billions de nombres
04:38
billions or even trillions of numbers
85
278316
2878
04:41
that get added and multiplied together in a particular way.
86
281194
3462
qui sont additionnés et multipliés d’une manière particulière.
04:45
What makes it hard for experts to know what's going on
87
285031
2544
Les experts ont du mal à savoir ce qui se passe,
04:47
is basically just, there are too many numbers,
88
287617
3086
car il y a trop de chiffres
04:50
and we don't yet have good ways of teasing apart what they're all doing.
89
290745
3962
et que l’on n’a pas encore les bons outils pour déterminer ce qu’ils font.
04:54
There's a little bit more to it than that, but not a lot.
90
294707
3003
C’est un peu plus compliqué que ça, mais pas énormément.
04:58
So how do we govern this technology
91
298545
3003
Alors, comment encadrer cette technologie
05:01
that we struggle to understand and predict?
92
301589
2628
que nous peinons à comprendre et à prévoir ?
05:04
I'm going to share two ideas.
93
304717
1502
Voici deux idées.
05:06
One for all of us and one for policymakers.
94
306261
3253
Une pour nous et une pour les décideurs politiques.
05:10
First, don't be intimidated.
95
310932
2711
La première : ne soyez pas intimidé.
05:14
Either by the technology itself
96
314102
2461
Ni par la technologie en elle-même
05:16
or by the people and companies building it.
97
316563
3086
ni par les gens et les sociétés qui la développent.
05:20
On the technology,
98
320400
1168
Si l’IA est déroutante sur le plan technologique, elle n’est pas magique.
05:21
AI can be confusing, but it's not magical.
99
321568
2502
05:24
There are some parts of AI systems we do already understand well,
100
324070
3504
Nous comprenons déjà bien certains pans des systèmes d’IA
05:27
and even the parts we don't understand won't be opaque forever.
101
327574
4045
et ceux que nous ne comprenons pas ne resteront pas éternellement obscurs.
05:31
An area of research known as “AI interpretability”
102
331619
3295
Un champ de recherche connu comme « l’interprétabilité de l’IA »
05:34
has made quite a lot of progress in the last few years
103
334956
3128
a beaucoup progressé ces dernières années
05:38
in making sense of what all those billions of numbers are doing.
104
338084
3504
pour donner un sens à ce que font ces milliards de nombres.
05:42
One team of researchers, for example,
105
342463
2169
Un groupe de chercheurs, par exemple,
05:44
found a way to identify different parts of a neural network
106
344674
3420
a trouvé un moyen d’identifier les différentes zones d’un réseau neuronal
05:48
that they could dial up or dial down
107
348136
2335
qu’il était possible d’activer ou de désactiver
05:50
to make the AI's answers happier or angrier,
108
350513
3754
pour rendre les réponses de l’IA plus positives ou négatives,
05:54
more honest,
109
354309
1418
plus honnêtes, plus machiavéliques et ainsi de suite.
05:55
more Machiavellian, and so on.
110
355768
2545
05:58
If we can push forward this kind of research further,
111
358771
2503
Si on réussit à faire avancer ce type de recherche,
06:01
then five or 10 years from now,
112
361316
2210
dans 5 ou 10 ans,
06:03
we might have a much clearer understanding of what's going on
113
363526
3003
nous pourrions bien mieux comprendre le fonctionnement
06:06
inside the so-called black box.
114
366571
2669
de ce que l’on appelle la « boîte noire ».
06:10
And when it comes to those building the technology,
115
370325
2669
Quant à ceux qui développent la technologie, ils agissent parfois
06:13
technologists sometimes act as though
116
373036
1918
06:14
if you're not elbows deep in the technical details,
117
374996
3420
comme si ceux qui ne maîtrisaient pas les détails techniques
06:18
then you're not entitled to an opinion on what we should do with it.
118
378458
3420
n’avaient pas le droit d’avoir un avis sur ce que nous devrions en faire.
06:22
Expertise has its place, of course,
119
382337
2294
L’expertise a sa place, bien sûr,
06:24
but history shows us how important it is
120
384672
2169
mais l’histoire nous a montré à quel point il est important
06:26
that the people affected by a new technology
121
386883
3003
que les gens affectés par une nouvelle technologie
06:29
get to play a role in shaping how we use it.
122
389886
2753
puissent jouer un rôle dans la manière dont on l’utilise.
06:32
Like the factory workers in the 20th century who fought for factory safety,
123
392639
4629
Comme les ouvriers du XXe siècle qui ont lutté
pour la sécurité dans les usines
06:37
or the disability advocates
124
397310
2127
ou les défenseurs des personnes handicapées qui ont veillé
06:39
who made sure the world wide web was accessible.
125
399437
3003
à ce que le World Wide Web leur soit accessible.
06:42
You don't have to be a scientist or engineer to have a voice.
126
402982
3963
Vous n’avez pas à être scientifique ou ingénieur pour vous exprimer.
06:48
(Applause)
127
408821
4547
(Applaudissements)
06:53
Second, we need to focus on adaptability, not certainty.
128
413868
5464
Deuxièmement, plutôt que de certitudes, nous avons besoin de flexibilité.
06:59
A lot of conversations about how to make policy for AI
129
419749
3128
Nombre de discussions sur l’élaboration d’une politique de l’IA
07:02
get bogged down in fights between, on the one side,
130
422919
2711
s’enlisent dans des luttes entre, d’un côté, les gens qui disent :
07:05
people saying, "We have to regulate AI really hard right now
131
425672
3003
« Il faut réglementer sévèrement l’IA dès maintenant à cause de sa dangerosité »
07:08
because it's so risky."
132
428716
1585
07:10
And on the other side, people saying,
133
430301
1794
et ceux qui disent :
« La réglementation va tuer l’innovation, et ces risques ne sont pas réels. »
07:12
“But regulation will kill innovation, and those risks are made up anyway.”
134
432136
4129
07:16
But the way I see it,
135
436307
1168
Mais de mon point de vue, il ne s’agit pas juste de choisir entre freiner
07:17
it’s not just a choice between slamming on the brakes
136
437475
2961
07:20
or hitting the gas.
137
440478
1502
ou appuyer sur l’accélérateur.
07:22
If you're driving down a road with unexpected twists and turns,
138
442313
3962
Si vous conduisez sur une route pleine de détours et virages inattendus,
07:26
then two things that will help you a lot
139
446275
2503
deux choses vous seront très utiles :
07:28
are having a clear view out the windshield
140
448778
2794
une vue dégagée à travers le pare-brise et un excellent système de direction.
07:31
and an excellent steering system.
141
451614
2419
Pour l’IA, ça signifie avoir une vision claire de l’état de la technologie
07:34
In AI, this means having a clear picture of where the technology is
142
454033
5005
07:39
and where it's going,
143
459080
1627
et de son évolution,
07:40
and having plans in place for what to do in different scenarios.
144
460707
3628
et mettre au point une stratégie pour faire face à différents scénarios.
07:44
Concretely, this means things like investing in our ability to measure
145
464752
4338
Concrètement, cela signifie investir dans notre capacité à mesurer
07:49
what AI systems can do.
146
469132
1877
ce que les systèmes d’IA peuvent faire.
07:51
This sounds nerdy, but it really matters.
147
471342
3212
Ça peut paraître bizarre, mais c’est très important.
07:54
Right now, if we want to figure out
148
474595
2044
Actuellement, si on veut savoir si une IA est capable de faire un truc grave,
07:56
whether an AI can do something concerning,
149
476681
2002
07:58
like hack critical infrastructure
150
478725
2377
comme hacker une infrastructure sensible
08:01
or persuade someone to change their political beliefs,
151
481102
4671
ou persuader quelqu’un de changer ses opinions politiques,
08:05
our methods of measuring that are rudimentary.
152
485773
2544
nos méthodes de mesure sont très basiques.
08:08
We need better.
153
488317
1210
Il nous en faut de meilleurs.
08:10
We should also be requiring AI companies,
154
490319
2545
On doit aussi exiger des sociétés spécialisées dans l’IA,
08:12
especially the companies building the most advanced AI systems,
155
492905
3420
notamment celles qui développent les systèmes d’IA les plus avancés,
08:16
to share information about what they're building,
156
496367
3170
qu’elles partagent les informations relatives à leurs travaux,
08:19
what their systems can do
157
499537
1710
aux capacités de leurs systèmes et à la gestion des risques.
08:21
and how they're managing risks.
158
501289
2127
08:23
And they should have to let in external AI auditors to scrutinize their work
159
503458
5589
Et elles devraient être tenues de faire appel
à des auditeurs indépendants pour contrôler leur activité,
08:29
so that the companies aren't just grading their own homework.
160
509088
3128
afin qu’elles ne se contentent pas d’évaluer elles-mêmes leurs travaux.
08:33
(Applause)
161
513801
4213
(Applaudissements)
08:38
A final example of what this can look like
162
518014
2461
Un dernier exemple de ce à quoi ça peut ressembler
08:40
is setting up incident reporting mechanisms,
163
520475
3503
consiste à mettre en place des procédures de signalement des incidents
pour que, quand des problèmes surgissent dans la réalité,
08:44
so that when things do go wrong in the real world,
164
524020
2753
08:46
we have a way to collect data on what happened
165
526814
2962
nous ayons un outil de collecte de données sur ce qui est arrivé
08:49
and how we can fix it next time.
166
529817
2002
et sur comment y remédier dans le futur.
08:51
Just like the data we collect on plane crashes and cyber attacks.
167
531819
4421
Comme les données que nous recueillons lors des crashs aériens et cyberattaques.
08:57
None of these ideas are mine,
168
537158
1668
Ces idées ne sont pas les miennes,
08:58
and some of them are already starting to be implemented in places like Brussels,
169
538868
4504
et certaines sont déjà mises en œuvre dans des villes comme Bruxelles,
09:03
London, even Washington.
170
543372
2128
Londres et même Washington.
09:06
But the reason I'm highlighting these ideas,
171
546042
2627
Mais la raison pour laquelle je mets en avant ces idées,
09:08
measurement, disclosure, incident reporting,
172
548669
4046
quantification, divulgation d’informations et notification des incidents,
09:12
is that they help us navigate progress in AI
173
552757
2794
c’est qu’elles nous aident à orienter les progrès de l’IA
09:15
by giving us a clearer view out the windshield.
174
555593
3086
en nous donnant une meilleure visibilité.
09:18
If AI is progressing fast in dangerous directions,
175
558721
3712
Si l’IA évolue rapidement dans des directions dangereuses,
09:22
these policies will help us see that.
176
562475
2377
ces mesures nous aideront à le voir.
09:25
And if everything is going smoothly, they'll show us that too,
177
565436
3545
Et si tout se passe bien, elles nous le montreront aussi
09:28
and we can respond accordingly.
178
568981
2211
et nous pourrons réagir en conséquence.
09:33
What I want to leave you with
179
573569
1502
Ce que je veux vous dire,
09:35
is that it's both true that there's a ton of uncertainty
180
575071
4629
c’est qu’il est vrai qu’il y a beaucoup d’incertitudes
09:39
and disagreement in the field of AI.
181
579742
2961
et de désaccords dans le domaine de l’IA,
09:42
And that companies are already building and deploying AI
182
582745
4046
et que les entreprises sont déjà en train de la développer et la déployer
09:46
all over the place anyway in ways that affect all of us.
183
586833
4462
un peu partout de toute façon, d’une manière qui nous affecte tous.
09:52
Left to their own devices,
184
592004
1544
Livrées à elles-mêmes, les sociétés du secteur de l’IA
09:53
it looks like AI companies might go in a similar direction
185
593548
3169
risquent de prendre la même direction que celles des médias sociaux,
09:56
to social media companies,
186
596717
1961
09:58
spending most of their resources on building web apps
187
598678
2627
consacrant leurs ressources à la création d’applications
10:01
and for users' attention.
188
601305
1836
et luttant pour capter l’attention des utilisateurs.
10:04
And by default, it looks like the enormous power of more advanced AI systems
189
604016
4463
Et par défaut, il semble que l’énorme puissance
des systèmes d’IA les plus avancés
10:08
might stay concentrated in the hands of a small number of companies,
190
608479
4046
pourrait rester aux mains d’un petit nombre d’entreprises
10:12
or even a small number of individuals.
191
612567
1918
ou même d’un petit nombre d’individus.
10:15
But AI's potential goes so far beyond that.
192
615278
3253
Mais le potentiel de l’IA va bien au-delà de ça.
10:18
AI already lets us leap over language barriers
193
618531
2711
Elle nous permet déjà de franchir des barrières linguistiques
10:21
and predict protein structures.
194
621284
2252
et de prédire la structure des protéines.
10:23
More advanced systems could unlock clean, limitless fusion energy
195
623536
4504
Des systèmes plus avancés
permettraient de découvrir une énergie de fusion propre et illimitée
10:28
or revolutionize how we grow food
196
628082
2503
ou de révolutionner la façon de cultiver les aliments,
10:30
or 1,000 other things.
197
630626
1835
ou mille autres choses encore.
10:32
And we each have a voice in what happens.
198
632962
2586
Et nous avons tous notre mot à dire.
10:35
We're not just data sources,
199
635548
2002
Nous ne sommes pas que des sources de données, nous sommes
10:37
we are users,
200
637592
2043
des utilisateurs,
10:39
we're workers,
201
639635
1502
des travailleurs,
10:41
we're citizens.
202
641137
1209
des citoyens.
10:43
So as tempting as it might be,
203
643514
2961
Aussi tentant que cela puisse être,
10:46
we can't wait for clarity or expert consensus
204
646475
4672
on ne peut pas attendre plus de clarté ou un consensus parmi les experts
10:51
to figure out what we want to happen with AI.
205
651147
3378
pour savoir ce que l’on veut qu’il advienne de l’IA.
10:54
AI is already happening to us.
206
654525
2586
L’IA nous concerne déjà.
10:57
What we can do is put policies in place
207
657737
3211
Ce que nous pouvons faire, c’est élaborer des règles
11:00
to give us as clear a picture as we can get
208
660948
2670
qui nous donnent une image aussi claire que possible
11:03
of how the technology is changing,
209
663618
2460
de l’évolution de cette technologie,
11:06
and then we can get in the arena and push for futures we actually want.
210
666078
5089
puis nous pourrons descendre dans l’arène et créer un avenir
qui soit à la hauteur de nos attentes.
11:11
Thank you.
211
671751
1126
Merci.
11:12
(Applause)
212
672919
3378
(Applaudissements)
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7