Your Right to Repair AI Systems | Rumman Chowdhury | TED

44,028 views ・ 2024-06-05

TED


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

Traducteur: Claire Ghyselen Relecteur: eric vautier
00:04
I want to tell you a story
0
4543
1835
Je voudrais vous raconter une histoire
00:06
about artificial intelligence and farmers.
1
6419
4171
sur l’intelligence artificielle et les agriculteurs.
00:10
Now, what a strange combination, right?
2
10966
3044
Certes, une étrange combinaison.
00:14
Two topics could not sound more different from each other.
3
14010
4088
Ces deux sujets ne peuvent pas sembler plus éloignés l’un de l’autre.
00:18
But did you know that modern farming actually involves a lot of technology?
4
18431
5047
Mais saviez-vous que l’agriculture moderne implique en fait beaucoup de technologie ?
00:23
So computer vision is used to predict crop yields.
5
23478
3796
La vision par ordinateur est utilisée pour prévoir les rendements des cultures,
00:27
And artificial intelligence is used to find,
6
27315
2836
et l’intelligence artificielle est utilisée pour trouver,
00:30
identify and get rid of insects.
7
30151
2878
identifier et éliminer les insectes.
00:33
Predictive analytics helps figure out extreme weather conditions
8
33071
4129
L’analyse prédictive permet de déterminer les conditions météorologiques extrêmes,
00:37
like drought or hurricanes.
9
37242
1960
telles que la sécheresse ou les ouragans.
00:39
But this technology is also alienating to farmers.
10
39744
4547
Cependant cette technologie a aussi un effet aliénant pour les agriculteurs.
00:44
And this all came to a head in 2017
11
44291
3003
Et tout cela a atteint son paroxysme en 2017
00:47
with the tractor company John Deere when they introduced smart tractors.
12
47335
4922
quand l’entreprise de tracteurs John Deere a lancé ses tracteurs intelligents.
00:52
So before then, if a farmer's tractor broke,
13
52299
2961
Avant cette date, si le tracteur d'un fermier tombait en panne,
00:55
they could just repair it themselves or take it to a mechanic.
14
55302
3920
il pouvait simplement le réparer lui-même ou le confier à un mécanicien.
00:59
Well, the company actually made it illegal
15
59222
2961
Eh bien, l’entreprise a dorénavant interdit aux agriculteurs
01:02
for farmers to fix their own equipment.
16
62225
2586
de réparer leur propre équipement.
01:04
You had to use a licensed technician
17
64811
2836
Les agriculteurs doivent maintenant faire appel à un technicien agréé
01:07
and farmers would have to wait for weeks
18
67689
2628
et attendre des semaines,
01:10
while their crops rot and pests took over.
19
70317
3044
laissant leurs récoltes pourrir, ou être dévorées par les insectes.
01:14
So they took matters into their own hands.
20
74279
3170
Les fermiers ont donc pris les choses en main.
01:17
Some of them learned to program,
21
77490
1544
Certains ont appris à programmer
01:19
and they worked with hackers to create patches to repair their own systems.
22
79075
4922
et ont créé des correctifs pour leurs systèmes avec des hackers.
01:23
In 2022,
23
83997
1418
En 2022,
01:25
at one of the largest hacker conferences in the world, DEFCON,
24
85457
3712
lors de l’une des plus grandes conférences de hackers au monde, la DEFCON,
01:29
a hacker named Sick Codes and his team
25
89210
2586
un hacker du nom de Sick Codes et son équipe ont montré à tout le monde
01:31
showed everybody how to break into a John Deere tractor,
26
91838
3212
comment pirater le système d’un tracteur John Deere,
01:35
showing that, first of all, the technology was vulnerable,
27
95091
3629
prouvant que, tout d’abord, la technologie est vulnérable,
01:38
but also that you can and should own your own equipment.
28
98762
4337
mais aussi que l’on peut, et doit, posséder son propre équipement.
01:43
To be clear, this is illegal,
29
103683
2836
Pour être clair, c'est illégal,
01:46
but there are people trying to change that.
30
106561
2795
mais il y a des gens qui essaient de changer cela.
01:49
Now that movement is called the “right to repair.”
31
109689
3796
Aujourd’hui, ce mouvement s’appelle le « droit à la réparation ».
01:53
The right to repair goes something like this.
32
113526
2169
Illustrons le droit à la réparation.
01:55
If you own a piece of technology,
33
115737
1668
Si on possède une technologie,
01:57
it could be a tractor, a smart toothbrush,
34
117405
2544
un tracteur, une brosse à dents intelligente,
01:59
a washing machine,
35
119991
1377
ou une machine à laver,
02:01
you should have the right to repair it if it breaks.
36
121368
3086
on devrait avoir le droit de la réparer si elle tombe en panne.
02:05
So why am I telling you this story?
37
125246
2253
Pourquoi vous raconter cette histoire ?
02:08
The right to repair needs to extend to artificial intelligence.
38
128541
5214
Le droit à la réparation doit s’étendre à l’intelligence artificielle.
02:14
Now it seems like every week
39
134214
2127
Chaque semaine semble apporter son lot
02:16
there is a new and mind-blowing innovation in AI.
40
136383
3336
de nouvelles innovations époustouflantes dans le domaine de l’IA.
02:19
But did you know that public confidence is actually declining?
41
139719
4880
Mais saviez-vous que la confiance du public est en train de diminuer ?
02:24
A recent Pew poll showed that more Americans are concerned
42
144599
4963
Pew a réalisé un sondage récemment qui met en lumière le fait
que l’IA inquiète davantage les Américains qu’elle ne les enthousiasme.
02:29
than they are excited about the technology.
43
149604
2503
02:32
This is echoed throughout the world.
44
152148
2211
Le monde entier reflète le même sentiment.
02:34
The World Risk Poll shows
45
154401
1418
Dans le World Risk Poll,
02:35
that respondents from Central and South America and Africa
46
155860
3462
les personnes interrogées en Amérique centrale et du Sud et en Afrique
02:39
all said that they felt AI would lead to more harm than good for their people.
47
159322
6090
déclarent toutes qu’elles pensent que l’IA fera plus de mal que de bien
à leur population.
02:46
As a social scientist and an AI developer,
48
166287
2503
En tant que sociologue et développeuse d’IA, cela me frustre.
02:48
this frustrates me.
49
168790
1585
02:50
I'm a tech optimist
50
170417
1293
Je suis une optimiste de la technologie
02:51
because I truly believe this technology can lead to good.
51
171751
4338
parce que je crois sincèrement que l’IA peut agir pour le bien supérieur.
02:56
So what's the disconnect?
52
176464
1919
Alors, où se situe la faille ?
02:58
Well, I've talked to hundreds of people over the last few years.
53
178758
3754
Eh bien, j’ai parlé à des centaines de personnes ces dernières années.
03:02
Architects and scientists, journalists and photographers,
54
182554
3670
Architectes et scientifiques, journalistes et photographes,
03:06
ride-share drivers and doctors,
55
186224
1710
chauffeurs VTC et médecins,
03:07
and they all say the same thing.
56
187976
2961
tous disent la même chose.
03:12
People feel like an afterthought.
57
192272
3795
Les gens ont l’impression d’être quantité négligeable.
03:17
They all know that their data is harvested often without their permission
58
197485
4338
Ils savent tous que leurs données sont collectées souvent sans leur autorisation
03:21
to create these sophisticated systems.
59
201823
2461
pour créer ces systèmes sophistiqués.
03:24
They know that these systems are determining their life opportunities.
60
204325
4171
Ils savent que ces systèmes déterminent leur quotidien.
03:28
They also know that nobody ever bothered to ask them
61
208496
3545
Ils savent également que personne n’a jamais pris la peine de les consulter
03:32
how the system should be built,
62
212083
1502
sur l’architecture du système,
03:33
and they certainly have no idea where to go if something goes wrong.
63
213585
5964
et ils ignorent certainement où s’adresser en cas de problème.
03:40
We may not own AI systems,
64
220383
2336
Nous ne possédons certes pas les IA,
03:42
but they are slowly dominating our lives.
65
222761
2794
mais elles dominent progressivement nos vies.
03:45
We need a better feedback loop
66
225597
1501
Il faut une meilleure boucle de rétroaction
03:47
between the people who are making these systems,
67
227140
2961
entre les personnes qui fabriquent ces systèmes
03:50
and the people who are best determined to tell us
68
230101
3337
et les personnes les plus à même de nous dire
03:53
how these AI systems should interact in their world.
69
233480
3628
comment ces IA devraient interagir dans leur monde.
03:57
One step towards this is a process called red teaming.
70
237609
3837
Une étape dans ce sens est un processus appelé « red team ».
04:01
Now, red teaming is a practice that was started in the military,
71
241821
3003
La red team est une pratique née dans l’armée
04:04
and it's used in cybersecurity.
72
244866
1919
et utilisée aussi dans la cybersécurité.
04:06
In a traditional red-teaming exercise,
73
246826
2628
Dans un exercice traditionnel d’une red team,
04:09
external experts are brought in to break into a system,
74
249454
3920
des spécialistes externes sont recrutés pour pénétrer un système,
04:13
sort of like what Sick Codes did with tractors, but legal.
75
253374
4338
un peu comme Sick Codes l’a fait pour les tracteurs, mais en toute légalité.
04:17
So red teaming acts as a way of testing your defenses
76
257712
3670
La red team est donc un moyen de tester nos défenses,
04:21
and when you can figure out where something will go wrong,
77
261424
3545
car quand on peut déterminer où quelque chose va mal tourner,
04:25
you can figure out how to fix it.
78
265011
3003
on peut trouver des solutions pour y remédier.
04:28
But when AI systems go rogue,
79
268056
2377
Mais quand des IA deviennent corrompues,
04:30
it's more than just a hacker breaking in.
80
270433
2920
ce n’est pas simplement un hacker qui s’introduit par effraction.
04:33
The model could malfunction or misrepresent reality.
81
273394
3754
Le modèle peut mal fonctionner ou déformer la réalité.
04:37
So, for example, not too long ago,
82
277190
2044
Ainsi, par exemple, il y a peu de temps,
04:39
we saw an AI system attempting diversity
83
279234
2627
nous avons vu la tentative d’une IA de promouvoir la diversité
04:41
by showing historically inaccurate photos.
84
281903
3503
en affichant des photos historiquement inexactes.
04:45
Anybody with a basic understanding of Western history
85
285406
2670
N’importe qui connaissant l’histoire occidentale
04:48
could have told you that neither the Founding Fathers
86
288076
2502
aurait pu dire que les Nazis n’étaient pas noirs.
04:50
nor Nazi-era soldiers would have been Black.
87
290620
2169
04:54
In that case, who qualifies as an expert?
88
294123
3629
Dans ce cas, qui peut être qualifié de spécialiste ?
04:58
You.
89
298670
1168
Vous.
05:00
I'm working with thousands of people all around the world
90
300380
2836
Je travaille avec des milliers de personnes dans le monde
05:03
on large and small red-teaming exercises,
91
303258
2252
sur des exercices en mode red team à grande et petite échelle.
05:05
and through them we found and fixed mistakes in AI models.
92
305552
4629
Grâce à elles, nous avons découvert et corrigé des erreurs dans les modèles d’IA.
05:10
We also work with some of the biggest tech companies in the world:
93
310181
3587
Je travaille aussi avec les plus grandes entreprises technologiques du monde :
05:13
OpenAI, Meta, Anthropic, Google.
94
313810
2753
OpenAI, Meta, Anthropic, Google.
05:16
And through this, we've made models work better for more people.
95
316604
4630
Grâce à ça, nous améliorons les modèles pour un plus grand nombre de personnes.
05:22
Here's a bit of what we've learned.
96
322277
2168
Voici un aperçu de ce que nous avons appris.
05:24
We partnered with the Royal Society in London to do a scientific,
97
324988
3670
Avec la société royale de Londres,
nous avons organisé un événement scientifique
05:28
mis- and disinformation event with disease scientists.
98
328658
3545
sur la propagande et la désinformation avec des pathologistes.
05:32
What these scientists found
99
332203
1335
Ces scientifiques ont découvert
05:33
is that AI models actually had a lot of protections
100
333580
2794
que les modèles d’IA offraient de nombreuses protections
05:36
against COVID misinformation.
101
336416
2294
contre la désinformation sur le COVID.
05:38
But for other diseases like measles, mumps and the flu,
102
338751
3546
Mais pour d’autres maladies comme la rougeole, les oreillons ou la grippe,
05:42
the same protections didn't apply.
103
342297
2460
les mêmes protections ne s’appliquaient pas.
05:44
We reported these changes,
104
344757
1293
Nous avons signalé ces différences
05:46
they’re fixed and now we are all better protected
105
346050
3170
qui sont corrigées depuis et nous sommes désormais mieux protégés
05:49
against scientific mis- and disinformation.
106
349220
2670
contre la propagande et la désinformation scientifiques.
05:52
We did a really similar exercise with architects at Autodesk University,
107
352724
4838
Nous avons fait un exercice très similaire
avec des architectes de l’université Autodesk
05:57
and we asked them a simple question:
108
357562
1877
en leur posant une question simple :
05:59
Will AI put them out of a job?
109
359439
2961
l’IA va-t-elle les mettre au chômage ?
06:02
Or more specifically,
110
362442
2169
Ou plus précisément,
06:04
could they imagine a modern AI system
111
364611
2043
pourraient-ils imaginer une IA
06:06
that would be able to design the specs of a modern art museum?
112
366696
3670
capable de concevoir les spécifications d’un musée d’art moderne ?
06:10
The answer, resoundingly, was no.
113
370408
3962
La réponse a été catégorique : non.
06:14
Here's why, architects do more than just draw buildings.
114
374787
3629
Pourquoi ? Parce que les architectes ne se contentent pas de dessiner des bâtiments.
06:18
They have to understand physics and material science.
115
378458
3336
Ils doivent comprendre la physique et la science des matériaux.
06:21
They have to know building codes,
116
381836
1585
Ils doivent connaître la réglementation,
06:23
and they have to do that
117
383463
1251
tout en créant des espaces qui éveillent des émotions.
06:24
while making something that evokes emotion.
118
384756
2794
06:28
What the architects wanted was an AI system
119
388426
2169
Les architectes souhaitaient une IA
06:30
that interacted with them, that would give them feedback,
120
390595
2753
qui interagisse avec eux, qui leur donne des commentaires,
06:33
maybe proactively offer design recommendations.
121
393389
2753
voire propose des recommandations de conception proactivement.
06:36
And today's AI systems, not quite there yet.
122
396142
3670
Mais les IA actuelles ne sont pas encore au point,
06:39
But those are technical problems.
123
399854
1752
pour des raisons techniques.
06:41
People building AI are incredibly smart,
124
401648
2043
Les développeurs d’IA sont très intelligents,
06:43
and maybe they could solve all that in a few years.
125
403733
2753
et peut-être pourront-ils résoudre ça en quelques années.
06:46
But that wasn't their biggest concern.
126
406527
1961
Mais là n’était pas leur plus grande préoccupation.
06:48
Their biggest concern was trust.
127
408529
2795
Leur problème, c’est la confiance.
06:51
Now architects are liable if something goes wrong with their buildings.
128
411991
4546
Les architectes sont responsables en cas de problème avec leurs bâtiments.
06:56
They could lose their license,
129
416537
1669
Ils risquent de perdre leur licence,
06:58
they could be fined, they could even go to prison.
130
418206
3211
de se voir infliger une amende, voire d’être incarcérés.
07:01
And failures can happen in a million different ways.
131
421459
3086
Or les défaillances peuvent se produire de mille manières différentes.
07:04
For example, exit doors that open the wrong way,
132
424545
3045
Par exemple, des portes qui s’ouvrent dans le mauvais sens,
07:07
leading to people being crushed in an evacuation crisis,
133
427632
4296
causant l’écrasement de personnes lors d’une évacuation,
07:11
or broken glass raining down onto pedestrians in the street
134
431928
4129
ou des vitres brisées qui tombent sur les piétons dans la rue
07:16
because the wind blows too hard and shatters windows.
135
436099
3837
parce que le vent souffle trop fort et fait voler les vitres en éclats.
07:20
So why would an architect trust an AI system with their job,
136
440311
3921
Alors pourquoi un architecte confierait-il son travail à une IA,
07:24
with their literal freedom,
137
444273
2670
sa liberté, au sens premier,
07:26
if they couldn't go in and fix a mistake if they found it?
138
446943
3628
s’il ne peut pas intervenir et corriger une erreur s’il en trouve ?
07:31
So we need to figure out these problems today, and I'll tell you why.
139
451030
4171
Nous devons donc résoudre ces problèmes aujourd’hui,
et je vais vous expliquer pourquoi.
07:35
The next wave of artificial intelligence systems, called agentic AI,
140
455201
5047
La prochaine vague d’IA, reposant sur des agents « intelligents »,
07:40
is a true tipping point
141
460289
1335
constitue un point de bascule
07:41
between whether or not we retain human agency,
142
461624
4213
entre la question de savoir si nous conservons le libre-arbitre humain,
07:45
or whether or not AI systems make our decisions for us.
143
465837
3795
ou si les IA prennent des décisions à notre place.
07:50
Imagine an AI agent as kind of like a personal assistant.
144
470008
3211
Imaginez un agent d’IA comme une sorte d’assistant personnel.
07:53
So, for example, a medical agent might determine
145
473261
3712
Ainsi, par exemple, un agent médical peut déterminer
si votre famille a besoin d’un rendez-vous chez le médecin.
07:57
whether or not your family needs doctor's appointments,
146
477015
2585
07:59
it might refill prescription medications, or in case of an emergency,
147
479642
3379
Il peut renouveler vos prescriptions, ou, en cas d’urgence,
08:03
send medical records to the hospital.
148
483062
2586
envoyer des dossiers médicaux à l'hôpital.
08:05
But AI agents can't and won't exist
149
485690
2836
Mais les agents d’IA ne peuvent pas exister et n’existeront pas
08:08
unless we have a true right to repair.
150
488568
2210
sans que nous n’ayons de véritable droit de réparation.
08:10
What parent would trust their child's health to an AI system
151
490820
4922
Quel parent confierait la santé de son enfant à une IA
08:15
unless you could run some basic diagnostics?
152
495783
2795
sans pouvoir effectuer quelques diagnostics de base ?
08:18
What professional would trust an AI system with job decisions,
153
498619
4213
Quel professionnel ferait confiance à une IA
pour prendre des décisions,
08:22
unless you could retrain it the way you might a junior employee?
154
502874
4296
à moins de pouvoir le former, exactement comme un employé junior ?
08:28
Now, a right to repair might look something like this.
155
508129
2878
Le droit de réparation pourrait ressembler à ceci.
08:31
You could have a diagnostics board
156
511007
2210
Cela pourrait être un tableau de diagnostic
08:33
where you run basic tests that you design,
157
513259
3003
sur lequel exécuter les tests de base que l’on conçoit,
08:36
and if something's wrong, you could report it to the company
158
516304
2836
et s’il y a un bug, on peut le signaler à l’entreprise
et recevoir une réponse après la correction.
08:39
and hear back when it's fixed.
159
519140
1585
08:40
Or you could work with third parties like ethical hackers
160
520725
3128
On peut travailler avec des tiers, tels que des hackers éthiques,
08:43
who make patches for systems like we do today.
161
523895
2586
qui créent des correctifs, comme nous le faisons déjà.
08:46
You can download them and use them to improve your system
162
526481
2711
On les télécharge pour améliorer notre système
08:49
the way you want it to be improved.
163
529233
1919
exactement comme on le souhaite.
08:51
Or you could be like these intrepid farmers and learn to program
164
531194
3628
On peut être comme ces fermiers intrépides et apprendre à programmer
08:54
and fine-tune your own systems.
165
534864
3003
et à ajuster nos propres systèmes.
08:58
We won't achieve the promised benefits of artificial intelligence
166
538618
4171
Nous n'obtiendrons pas les avantages promis de l'intelligence artificielle
09:02
unless we figure out how to bring people into the development process.
167
542789
5046
sans trouver comment associer les gens au processus de développement.
09:08
I've dedicated my career to responsible AI,
168
548377
3504
J'ai consacré ma carrière à l'IA responsable,
09:11
and in that field we ask the question,
169
551923
3253
et dans ce domaine, nous nous posons la question suivante :
09:15
what can companies build to ensure that people trust AI?
170
555218
4963
quel système développer pour s’assurer que les gens font confiance à l’IA ?
09:20
Now, through these red-teaming exercises, and by talking to you,
171
560723
3837
Grâce à ces exercices avec les red team, et en m’adressant à vous,
09:24
I've come to realize that we've been asking the wrong question all along.
172
564602
5339
je m’aperçois que nous nous posions la mauvaise question.
09:30
What we should have been asking is what tools can we build
173
570566
3921
Nous devrions nous demander quels outils développer
09:34
so people can make AI beneficial for them?
174
574529
4045
pour que les gens puissent tirer parti de l’IA, pour eux-mêmes.
09:39
Technologists can't do it alone.
175
579117
2460
Les technologues ne peuvent pas y parvenir seuls.
09:41
We can only do it with you.
176
581619
2419
Nous ne pouvons le faire qu'avec vous.
09:44
Thank you.
177
584080
1168
Merci.
09:45
(Applause)
178
585248
2794
(Applaudissements)
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7