How I'm fighting bias in algorithms | Joy Buolamwini

308,224 views ・ 2017-03-29

TED


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

Traducteur: Marie P Relecteur: eric vautier
00:12
Hello, I'm Joy, a poet of code,
0
12861
3134
Bonjour, je suis Joy, une poète du code
00:16
on a mission to stop an unseen force that's rising,
1
16019
4993
en mission pour arrêter une force invisible qui prend de l'ampleur
00:21
a force that I called "the coded gaze,"
2
21036
2856
une force que j'appelle « le regard codé »,
00:23
my term for algorithmic bias.
3
23916
3309
mon terme pour le biais algorithmique.
00:27
Algorithmic bias, like human bias, results in unfairness.
4
27249
4300
Le biais algorithmique, comme le biais cognitif, crée de l'injustice.
00:31
However, algorithms, like viruses, can spread bias on a massive scale
5
31573
6022
Mais les algorithmes, comme les virus, peuvent massivement générer un biais
00:37
at a rapid pace.
6
37619
1582
et ce, très rapidement.
00:39
Algorithmic bias can also lead to exclusionary experiences
7
39763
4387
Le biais algorithmique peut aussi créer des sentiments d'exclusion
00:44
and discriminatory practices.
8
44174
2128
et mener à des pratiques discriminatoires.
00:46
Let me show you what I mean.
9
46326
2061
Laissez-moi vous montrer ce que je veux dire.
00:48
(Video) Joy Buolamwini: Hi, camera. I've got a face.
10
48800
2436
(Video) Joy Boulamwini : Salut webcam. J'ai un visage.
00:51
Can you see my face?
11
51982
1864
Est-ce que tu peux le voir?
00:53
No-glasses face?
12
53871
1625
Et sans lunettes ?
00:55
You can see her face.
13
55521
2214
Tu peux voir son visage à elle.
00:58
What about my face?
14
58057
2245
Et le mien ?
01:03
I've got a mask. Can you see my mask?
15
63710
3750
J'ai un masque. Est-ce que tu peux voir mon masque ?
01:08
Joy Buolamwini: So how did this happen?
16
68294
2365
Joy Boulamwini : Ça, comment est-ce arrivé ?
01:10
Why am I sitting in front of a computer
17
70683
3141
Pourquoi est-ce que je me retrouve assise devant un ordinateur
01:13
in a white mask,
18
73848
1424
portant un masque blanc
01:15
trying to be detected by a cheap webcam?
19
75296
3650
pour essayer d'être détectée par une webcam premier prix ?
01:18
Well, when I'm not fighting the coded gaze
20
78970
2291
Quand je ne me bats pas contre le regard codé
01:21
as a poet of code,
21
81285
1520
en tant que poète du code,
01:22
I'm a graduate student at the MIT Media Lab,
22
82829
3272
Je suis doctorante au Media Lab du MIT
01:26
and there I have the opportunity to work on all sorts of whimsical projects,
23
86125
4917
et j'ai l'opportunité de plancher sur plein de projets fantaisistes
01:31
including the Aspire Mirror,
24
91066
2027
dont le Miroir Aspire
01:33
a project I did so I could project digital masks onto my reflection.
25
93117
5134
que j'ai construit pour pouvoir projeter des masques digitaux sur mon reflet.
01:38
So in the morning, if I wanted to feel powerful,
26
98275
2350
Comme ça le matin, pour me sentir plus forte,
01:40
I could put on a lion.
27
100649
1434
je pouvais projeter un lion.
01:42
If I wanted to be uplifted, I might have a quote.
28
102107
3496
Si j'avais besoin d'encouragements, je pouvais choisir une citation.
01:45
So I used generic facial recognition software
29
105627
2989
J'ai donc utilisé un logiciel de reconnaissance faciale
01:48
to build the system,
30
108640
1351
pour construire le système,
01:50
but found it was really hard to test it unless I wore a white mask.
31
110015
5103
mais j'ai réalisé que je ne pouvais pas le tester à moins de porter un masque.
01:56
Unfortunately, I've run into this issue before.
32
116102
4346
Malheureusement, j'avais déjà rencontré ce problème.
02:00
When I was an undergraduate at Georgia Tech studying computer science,
33
120472
4303
Quand j'étais étudiante en informatique à Georgia Tech,
02:04
I used to work on social robots,
34
124799
2055
je travaillais sur les robots sociaux
02:06
and one of my tasks was to get a robot to play peek-a-boo,
35
126878
3777
et l'un de mes devoirs était de programmer un robot pour qu'il joue à « Caché »,
02:10
a simple turn-taking game
36
130679
1683
un jeu qui se joue à tour de rôle
02:12
where partners cover their face and then uncover it saying, "Peek-a-boo!"
37
132386
4321
dans lequel chacun couvre son visage, puis le découvre en disant « Coucou ! »
02:16
The problem is, peek-a-boo doesn't really work if I can't see you,
38
136731
4429
Le problème, c'est que ce jeu ne peut pas marcher si je ne peux pas vous voir
02:21
and my robot couldn't see me.
39
141184
2499
et mon robot ne pouvait pas me voir.
02:23
But I borrowed my roommate's face to get the project done,
40
143707
3950
Mais j'ai emprunté le visage de ma colocataire pour finir le projet,
02:27
submitted the assignment,
41
147681
1380
j'ai rendu le devoir,
02:29
and figured, you know what, somebody else will solve this problem.
42
149085
3753
et je me suis dit que quelqu'un d'autre résoudrait le problème.
02:33
Not too long after,
43
153489
2003
Peu de temps après,
02:35
I was in Hong Kong for an entrepreneurship competition.
44
155516
4159
j'étais à Hong Kong pour une compétition d'entrepreneuriat.
02:40
The organizers decided to take participants
45
160159
2694
Les organisateurs ont décidé d'emmener les participants
02:42
on a tour of local start-ups.
46
162877
2372
faire le tour des start-up locales.
02:45
One of the start-ups had a social robot,
47
165273
2715
L'une d'elles avait un robot social, ils ont décidé de faire une démonstration.
02:48
and they decided to do a demo.
48
168012
1912
02:49
The demo worked on everybody until it got to me,
49
169948
2980
Ça a marché avec tout le monde jusqu'à ce que vienne mon tour,
02:52
and you can probably guess it.
50
172952
1923
et vous pouvez sans doute deviner.
02:54
It couldn't detect my face.
51
174899
2965
Le robot ne pouvait pas détecter mon visage.
02:57
I asked the developers what was going on,
52
177888
2511
J'ai demandé aux développeurs ce qu'il se passait,
03:00
and it turned out we had used the same generic facial recognition software.
53
180423
5533
et en fait nous avions utilisé le même outil de reconnaissance faciale.
03:05
Halfway around the world,
54
185980
1650
À l'autre bout du monde,
03:07
I learned that algorithmic bias can travel as quickly
55
187654
3852
j'avais appris que le biais algorithmique peut voyager aussi rapidement
03:11
as it takes to download some files off of the internet.
56
191530
3170
qu'un téléchargement de fichiers.
03:15
So what's going on? Why isn't my face being detected?
57
195565
3076
Qu'est-ce qui se passe ? Pourquoi mon visage n'est pas détecté ?
03:18
Well, we have to look at how we give machines sight.
58
198665
3356
Pour répondre, il faut comprendre comment on donne la vue aux machines.
03:22
Computer vision uses machine learning techniques
59
202045
3409
La vision informatique utilise des techniques de machine learning
03:25
to do facial recognition.
60
205478
1880
pour reconnaître des visages.
03:27
So how this works is, you create a training set with examples of faces.
61
207382
3897
Pour que ça marche, vous créez un ensemble de formation avec des exemples.
03:31
This is a face. This is a face. This is not a face.
62
211303
2818
Ceci est un visage. Ceci est un visage. Mais pas ça.
03:34
And over time, you can teach a computer how to recognize other faces.
63
214145
4519
Au fur et à mesure, l'ordinateur apprend comment reconnaître d'autres visages.
03:38
However, if the training sets aren't really that diverse,
64
218688
3989
Mais si les jeux de tests ne sont pas très variés,
03:42
any face that deviates too much from the established norm
65
222701
3349
n'importe quel visage qui dévie trop de la norme établie
03:46
will be harder to detect,
66
226074
1649
sera plus compliqué à détecter,
03:47
which is what was happening to me.
67
227747
1963
et c'était ce qui se passait avec moi.
03:49
But don't worry -- there's some good news.
68
229734
2382
Mais pas d'angoisse -- il y a de bonnes nouvelles.
03:52
Training sets don't just materialize out of nowhere.
69
232140
2771
Les jeux de tests n'apparaissent pas par magie.
03:54
We actually can create them.
70
234935
1788
On peut les créer nous-mêmes.
03:56
So there's an opportunity to create full-spectrum training sets
71
236747
4176
Il y a la possibilité de créer des jeux de tests plus variés
04:00
that reflect a richer portrait of humanity.
72
240947
3824
qui offrent un portrait plus riche de l'humanité.
04:04
Now you've seen in my examples
73
244795
2221
Vous avez vu dans mes exemples
04:07
how social robots
74
247040
1768
que c'est via les robots sociaux
04:08
was how I found out about exclusion with algorithmic bias.
75
248832
4611
que je me suis rendu compte de l'existence du biais algorithmique.
04:13
But algorithmic bias can also lead to discriminatory practices.
76
253467
4815
Mais le biais algorithmique peut aussi mener à des pratiques discriminatoires.
04:19
Across the US,
77
259257
1453
Aux États-Unis,
04:20
police departments are starting to use facial recognition software
78
260734
4198
la police commence à utiliser des logiciels de reconnaissance faciale
04:24
in their crime-fighting arsenal.
79
264956
2459
dans son arsenal contre le crime.
04:27
Georgetown Law published a report
80
267439
2013
Georgetown Law a publié un rapport
04:29
showing that one in two adults in the US -- that's 117 million people --
81
269476
6763
montrant qu'un adulte sur deux aux États-Unis - 117 millions de personnes--
04:36
have their faces in facial recognition networks.
82
276263
3534
ont leur visage dans un système de reconnaissance faciale.
04:39
Police departments can currently look at these networks unregulated,
83
279821
4552
La police peut en ce moment consulter ces systèmes non régulés,
04:44
using algorithms that have not been audited for accuracy.
84
284397
4286
en utilisant des algorithmes dont la fiabilité n'a pas été testée.
04:48
Yet we know facial recognition is not fail proof,
85
288707
3864
Mais on sait que la reconnaissance faciale a des failles,
04:52
and labeling faces consistently remains a challenge.
86
292595
4179
et que correctement étiqueter un visage reste un défi.
04:56
You might have seen this on Facebook.
87
296798
1762
Vous l'avez sûrement vu sur Facebook.
04:58
My friends and I laugh all the time when we see other people
88
298584
2988
Avec mes amis, on rit souvent quand on voit d'autres personnes
05:01
mislabeled in our photos.
89
301596
2458
mal identifiées dans nos photos.
05:04
But misidentifying a suspected criminal is no laughing matter,
90
304078
5591
Mais mal identifier un suspect comme étant un criminel n'est pas drôle,
05:09
nor is breaching civil liberties.
91
309693
2827
et porter atteinte aux libertés civiles non plus.
05:12
Machine learning is being used for facial recognition,
92
312544
3205
Le machine learning est utilisé pour la reconnaissance faciale,
05:15
but it's also extending beyond the realm of computer vision.
93
315773
4505
mais s'utilise dans d'autres domaines que la vision informatique.
05:21
In her book, "Weapons of Math Destruction,"
94
321086
4016
Dans son livre « Weapons of Math Destruction »,
05:25
data scientist Cathy O'Neil talks about the rising new WMDs --
95
325126
6681
la data scientist Cathy O'Neil parle des risques de ces nouvelles armes,
05:31
widespread, mysterious and destructive algorithms
96
331831
4353
des algorithmes répandus, mystérieux et destructeurs
05:36
that are increasingly being used to make decisions
97
336208
2964
qui sont de plus en plus utilisés dans des prises de décision
05:39
that impact more aspects of our lives.
98
339196
3177
qui ont un impact sur nos vies.
05:42
So who gets hired or fired?
99
342397
1870
Qui est embauché ou renvoyé ?
05:44
Do you get that loan? Do you get insurance?
100
344291
2112
Aurez-vous ce prêt ? Une assurance ?
05:46
Are you admitted into the college you wanted to get into?
101
346427
3503
Serez-vous admis dans cette université que vous voulez vraiment ?
05:49
Do you and I pay the same price for the same product
102
349954
3509
Est-ce que vous et moi payons le même prix pour le même produit
05:53
purchased on the same platform?
103
353487
2442
acheté sur la même plateforme ?
05:55
Law enforcement is also starting to use machine learning
104
355953
3759
Les autorités policières commencent à utiliser le machine learning
05:59
for predictive policing.
105
359736
2289
dans le cadre de la prévention policière.
06:02
Some judges use machine-generated risk scores to determine
106
362049
3494
Certains juges utilisent des scores générés par des machines
06:05
how long an individual is going to spend in prison.
107
365567
4402
pour déterminer combien de temps un individu passera derrière les barreaux.
06:09
So we really have to think about these decisions.
108
369993
2454
Nous devons donc réfléchir à ces décisions.
06:12
Are they fair?
109
372471
1182
Sont-elles justes ?
06:13
And we've seen that algorithmic bias
110
373677
2890
Et nous avons vu que le biais algorithmique
06:16
doesn't necessarily always lead to fair outcomes.
111
376591
3374
ne mène pas forcément à des décisions justes.
06:19
So what can we do about it?
112
379989
1964
Que pouvons-nous faire ?
06:21
Well, we can start thinking about how we create more inclusive code
113
381977
3680
Nous pouvons commencer à penser à une manière de coder plus inclusivement
06:25
and employ inclusive coding practices.
114
385681
2990
et à utiliser des pratiques de code plus inclusives.
06:28
It really starts with people.
115
388695
2309
Tout commence avec les gens.
06:31
So who codes matters.
116
391528
1961
Qui code a une importance.
06:33
Are we creating full-spectrum teams with diverse individuals
117
393513
4119
Créons-nous des équipes composées d'individus variés
06:37
who can check each other's blind spots?
118
397656
2411
qui puissent vérifier mutuellement leurs travaux ?
06:40
On the technical side, how we code matters.
119
400091
3545
D'un point de vue technique, comment on code a de l'importance.
06:43
Are we factoring in fairness as we're developing systems?
120
403660
3651
Ajoutons-nous la justice à l'équation quand nous développons des systèmes ?
06:47
And finally, why we code matters.
121
407335
2913
Finalement, pourquoi on code a une importance.
06:50
We've used tools of computational creation to unlock immense wealth.
122
410605
5083
Nous avons utilisé des outils numériques pour générer d'immenses richesses.
06:55
We now have the opportunity to unlock even greater equality
123
415712
4447
Nous avons maintenant l'opportunité de créer encore plus d'égalité
07:00
if we make social change a priority
124
420183
2930
si nous faisons du changement social une priorité.
07:03
and not an afterthought.
125
423137
2170
et pas une préoccupation secondaire.
07:05
And so these are the three tenets that will make up the "incoding" movement.
126
425828
4522
Ceci seront les trois piliers du mouvement « incoding ».
07:10
Who codes matters,
127
430374
1652
Qui code a de l'importance,
07:12
how we code matters
128
432050
1543
la manière dont on code aussi
07:13
and why we code matters.
129
433617
2023
et pourquoi on code également.
07:15
So to go towards incoding, we can start thinking about
130
435664
3099
Pour aller vers l'incoding, nous pouvons commencer à réfléchir
07:18
building platforms that can identify bias
131
438787
3164
à comment construire des outils pouvant identifier ce biais
07:21
by collecting people's experiences like the ones I shared,
132
441975
3078
via la collecte de témoignages comme celui que j'ai partagé,
07:25
but also auditing existing software.
133
445077
3070
mais qui pourraient aussi tester des logiciels existants.
07:28
We can also start to create more inclusive training sets.
134
448171
3765
Nous pouvons commencer à créer des jeux de tests plus complets.
07:31
Imagine a "Selfies for Inclusion" campaign
135
451960
2803
Imaginez une campagne « Selfies pour l'inclusion »,
07:34
where you and I can help developers test and create
136
454787
3655
où vous et moi pourrions aider les développeurs à tester et créer
07:38
more inclusive training sets.
137
458466
2093
ces jeux de tests plus variés.
07:41
And we can also start thinking more conscientiously
138
461122
2828
Nous pouvons commencer à penser plus consciencieusement
07:43
about the social impact of the technology that we're developing.
139
463974
5391
à l'impact social des technologies que nous développons.
07:49
To get the incoding movement started,
140
469389
2393
Pour commencer le mouvement incoding,
07:51
I've launched the Algorithmic Justice League,
141
471806
2847
J'ai lancé l'Algorithmic Justice League,
07:54
where anyone who cares about fairness can help fight the coded gaze.
142
474677
5872
où n'importe qui se souciant du problème peut aider à combattre le regard codé.
08:00
On codedgaze.com, you can report bias,
143
480573
3296
Sur codedgaze.com, vous pouvez dénoncer des biais,
08:03
request audits, become a tester
144
483893
2445
demander des tests, être testeur vous-même
08:06
and join the ongoing conversation,
145
486362
2771
et rejoindre la conversation,
08:09
#codedgaze.
146
489157
2287
#codedgaze.
08:12
So I invite you to join me
147
492562
2487
Donc je vous invite à me rejoindre
08:15
in creating a world where technology works for all of us,
148
495073
3719
pour créer un monde où la technologie marche pour nous tous,
08:18
not just some of us,
149
498816
1897
pas seulement pour certains,
08:20
a world where we value inclusion and center social change.
150
500737
4588
un monde où l'inclusion et le changement social ont de la valeur.
08:25
Thank you.
151
505349
1175
Merci.
08:26
(Applause)
152
506548
4271
(Applaudissements)
08:32
But I have one question:
153
512693
2854
Mais j'ai une question :
08:35
Will you join me in the fight?
154
515571
2059
Me rejoindrez-vous dans ce combat?
08:37
(Laughter)
155
517654
1285
(Rires)
08:38
(Applause)
156
518963
3687
(Applaudissements)
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7