The era of blind faith in big data must end | Cathy O'Neil

232,156 views

2017-09-07 ・ TED


New videos

The era of blind faith in big data must end | Cathy O'Neil

232,156 views ・ 2017-09-07

TED


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

Traducteur: Pauline Forêt Relecteur: Shadia Ramsahye
00:12
Algorithms are everywhere.
0
12795
1596
Les algorithmes sont partout.
00:15
They sort and separate the winners from the losers.
1
15931
3125
Ils trient et séparent les vainqueurs des perdants.
00:19
The winners get the job
2
19839
2264
Les vainqueurs obtiennent le poste
00:22
or a good credit card offer.
3
22127
1743
ou une bonne offre de carte de crédit.
00:23
The losers don't even get an interview
4
23894
2651
Les perdants n'obtiennent même pas un entretien
00:27
or they pay more for insurance.
5
27410
1777
ou paient leur assurance plus cher.
00:30
We're being scored with secret formulas that we don't understand
6
30017
3549
On nous classe avec des formules secrètes que nous ne comprenons pas
00:34
that often don't have systems of appeal.
7
34495
3217
qui n'offrent pas souvent de systèmes de recours.
00:39
That begs the question:
8
39060
1296
La question se pose donc :
00:40
What if the algorithms are wrong?
9
40380
2913
et si les algorithmes sont faux ?
00:44
To build an algorithm you need two things:
10
44920
2040
Deux choses constituent un algorithme :
00:46
you need data, what happened in the past,
11
46984
1981
des données historiques,
00:48
and a definition of success,
12
48989
1561
et une définition du succès,
00:50
the thing you're looking for and often hoping for.
13
50574
2457
ce que l'on espère trouver.
00:53
You train an algorithm by looking, figuring out.
14
53055
5037
On forme un algorithme en observant, en comprenant,
00:58
The algorithm figures out what is associated with success.
15
58116
3419
l'algorithme trouve ce que l'on associe au succès,
01:01
What situation leads to success?
16
61559
2463
la situation qui mène au succès.
01:04
Actually, everyone uses algorithms.
17
64701
1762
En fait, tout le monde utilise des algorithmes
01:06
They just don't formalize them in written code.
18
66487
2718
sans forcément les formaliser en les écrivant.
01:09
Let me give you an example.
19
69229
1348
Voici un exemple :
01:10
I use an algorithm every day to make a meal for my family.
20
70601
3316
chaque jour, en cuisinant je me sers d'un algorithme.
01:13
The data I use
21
73941
1476
Les données que j'utilise
sont les ingrédients à disposition,
01:16
is the ingredients in my kitchen,
22
76214
1659
01:17
the time I have,
23
77897
1527
le temps dont je dispose,
01:19
the ambition I have,
24
79448
1233
l'ambition que j'ai,
01:20
and I curate that data.
25
80705
1709
et je conserve ces données.
01:22
I don't count those little packages of ramen noodles as food.
26
82438
4251
Je ne considère pas les paquets de ramen comme de la nourriture.
01:26
(Laughter)
27
86713
1869
(Rires)
01:28
My definition of success is:
28
88606
1845
Ma définition du succès est :
01:30
a meal is successful if my kids eat vegetables.
29
90475
2659
un repas est réussi si mes enfants mangent des légumes.
Si mon fils était aux commandes, ce serait différent.
01:34
It's very different from if my youngest son were in charge.
30
94001
2854
01:36
He'd say success is if he gets to eat lots of Nutella.
31
96879
2788
Pour lui, le succès serait de manger plein de Nutella.
01:40
But I get to choose success.
32
100999
2226
Mais c'est moi qui choisis ce qu'est le succès.
01:43
I am in charge. My opinion matters.
33
103249
2707
Je commande. C'est mon avis qui compte.
01:45
That's the first rule of algorithms.
34
105980
2675
C'est la première règle des algorithmes.
01:48
Algorithms are opinions embedded in code.
35
108679
3180
Les algorithmes sont des opinions intégrées dans du code.
01:53
It's really different from what you think most people think of algorithms.
36
113382
3663
C'est très différent de ce que les gens pensent des algorithmes.
01:57
They think algorithms are objective and true and scientific.
37
117069
4504
Ils pensent que les algorithmes sont objectifs, vrais et scientifiques.
02:02
That's a marketing trick.
38
122207
1699
C'est une astuce marketing.
02:05
It's also a marketing trick
39
125089
2125
C'en est une autre
02:07
to intimidate you with algorithms,
40
127238
3154
de vous intimider avec des algorithmes,
02:10
to make you trust and fear algorithms
41
130416
3661
de vous faire croire et craindre les algorithmes,
car vous croyez et craignez les mathématiques.
02:14
because you trust and fear mathematics.
42
134101
2018
02:17
A lot can go wrong when we put blind faith in big data.
43
137387
4830
Tout peut mal tourner quand on a une foi aveugle dans le Big Data.
Voici Kiri Soares. Elle est directrice d'un lycée à Brooklyn.
02:23
This is Kiri Soares. She's a high school principal in Brooklyn.
44
143504
3373
02:26
In 2011, she told me her teachers were being scored
45
146901
2586
En 2011, elle m'a dit que ses professeurs étaient classés
02:29
with a complex, secret algorithm
46
149511
2727
par un algorithme complexe et secret
02:32
called the "value-added model."
47
152262
1489
appelé le « modèle de valeur ajoutée ».
02:34
I told her, "Well, figure out what the formula is, show it to me.
48
154325
3092
Je lui ai dit : « Trouve la formule, montre-la moi,
02:37
I'm going to explain it to you."
49
157441
1541
et je vais te l'expliquer. »
02:39
She said, "Well, I tried to get the formula,
50
159006
2141
Elle m'a dit : « J'ai essayé de la trouver,
02:41
but my Department of Education contact told me it was math
51
161171
2772
mais le Ministère de l'éducation m'a dit que c'était des "maths"
02:43
and I wouldn't understand it."
52
163967
1546
et que je ne comprendrais pas. »
Il y a pire.
02:47
It gets worse.
53
167086
1338
02:48
The New York Post filed a Freedom of Information Act request,
54
168448
3530
Le New York Post a invoqué la loi sur la liberté d'information,
02:52
got all the teachers' names and all their scores
55
172002
2959
a obtenu les noms des enseignants ainsi que leur classement,
02:54
and they published them as an act of teacher-shaming.
56
174985
2782
et les ont publiés pour humilier les enseignants.
02:58
When I tried to get the formulas, the source code, through the same means,
57
178904
3860
Quand j'ai tenté d'avoir les formules, le code source, par les mêmes moyens,
03:02
I was told I couldn't.
58
182788
2149
on m'a dit que je ne pouvais pas.
03:04
I was denied.
59
184961
1236
On me les a refusés.
03:06
I later found out
60
186221
1174
Plus tard, j'ai découvert
03:07
that nobody in New York City had access to that formula.
61
187419
2866
que personne à New York n'avait accès à cette formule.
03:10
No one understood it.
62
190309
1305
Personne ne la comprenait.
03:13
Then someone really smart got involved, Gary Rubinstein.
63
193749
3224
Puis quelqu'un de très malin s'en est mêlé, Gary Rubinstein.
03:16
He found 665 teachers from that New York Post data
64
196997
3621
Il a trouvé 665 enseignants des données du New York Post
03:20
that actually had two scores.
65
200642
1866
qui avaient deux notes.
03:22
That could happen if they were teaching
66
202532
1881
Cela peut arriver s'ils enseignaient
03:24
seventh grade math and eighth grade math.
67
204437
2439
les maths en cinquième et en quatrième.
03:26
He decided to plot them.
68
206900
1538
Il a décidé d'en faire un graphique.
03:28
Each dot represents a teacher.
69
208462
1993
Chaque point représente un enseignant.
03:30
(Laughter)
70
210924
2379
(Rires)
03:33
What is that?
71
213327
1521
Qu'est-ce que c'est ?
03:34
(Laughter)
72
214872
1277
(Rires)
03:36
That should never have been used for individual assessment.
73
216173
3446
Ça n'aurait jamais dû être utilisé pour des évaluations individuelles.
03:39
It's almost a random number generator.
74
219643
1926
On dirait presque un générateur aléatoire.
03:41
(Applause)
75
221593
2946
(Applaudissements)
03:44
But it was.
76
224563
1162
Mais ça l'a été.
03:45
This is Sarah Wysocki.
77
225749
1176
Voici Sarah Wysocki.
03:46
She got fired, along with 205 other teachers,
78
226949
2175
Elle a été virée avec 205 autres enseignants
03:49
from the Washington, DC school district,
79
229148
2662
du secteur scolaire de Washington,
03:51
even though she had great recommendations from her principal
80
231834
2909
malgré les excellentes recommandations de son directeur
03:54
and the parents of her kids.
81
234767
1428
et des parents de ses élèves.
03:57
I know what a lot of you guys are thinking,
82
237210
2032
Je sais ce que bon nombre d'entre vous pensent,
03:59
especially the data scientists, the AI experts here.
83
239266
2487
surtout les scientifiques de données,
04:01
You're thinking, "Well, I would never make an algorithm that inconsistent."
84
241777
4226
vous vous dites que vous ne feriez jamais un algorithme aussi incohérent.
04:06
But algorithms can go wrong,
85
246673
1683
Mais les algorithmes peuvent mal tourner,
04:08
even have deeply destructive effects with good intentions.
86
248380
4598
voire avoir des effets destructeurs avec de bonnes intentions.
04:14
And whereas an airplane that's designed badly
87
254351
2379
Alors que quand un avion mal conçu s'écrase,
04:16
crashes to the earth and everyone sees it,
88
256754
2001
tout le monde le voit,
04:18
an algorithm designed badly
89
258779
1850
un algorithme mal conçu, lui,
04:22
can go on for a long time, silently wreaking havoc.
90
262065
3865
peut continuer longtemps à faire des ravages en silence.
04:27
This is Roger Ailes.
91
267568
1570
Voici Roger Ailes.
04:29
(Laughter)
92
269162
2000
(Rires)
04:32
He founded Fox News in 1996.
93
272344
2388
Il a fondé Fox News en 1996.
04:35
More than 20 women complained about sexual harassment.
94
275256
2581
Plus de 20 femmes se sont plaintes de harcèlement sexuel,
04:37
They said they weren't allowed to succeed at Fox News.
95
277861
3235
elles ont dit ne pas avoir eu le droit de réussir chez Fox News.
04:41
He was ousted last year, but we've seen recently
96
281120
2520
Il a été viré l'an dernier, mais on a vu récemment
04:43
that the problems have persisted.
97
283664
2670
que ces problèmes persistent.
04:47
That begs the question:
98
287474
1400
On peut se demander :
04:48
What should Fox News do to turn over another leaf?
99
288898
2884
que devrait faire Fox News pour tourner la page ?
04:53
Well, what if they replaced their hiring process
100
293065
3041
Et s'ils remplaçaient leur procédure de recrutement
04:56
with a machine-learning algorithm?
101
296130
1654
par un algorithme ?
04:57
That sounds good, right?
102
297808
1595
Ça a l'air bien, non ?
04:59
Think about it.
103
299427
1300
Pensez-y.
05:00
The data, what would the data be?
104
300751
2105
Les données, quelles seraient les données ?
05:02
A reasonable choice would be the last 21 years of applications to Fox News.
105
302880
4947
Un choix raisonnable serait les candidatures des 21 dernières années.
05:07
Reasonable.
106
307851
1502
Raisonnable.
05:09
What about the definition of success?
107
309377
1938
Et la définition du succès ?
05:11
Reasonable choice would be,
108
311741
1324
Le choix raisonnable serait,
05:13
well, who is successful at Fox News?
109
313089
1778
mais qui a du succès chez Fox News ?
05:14
I guess someone who, say, stayed there for four years
110
314891
3580
À mon avis, quelqu'un qui y est resté au moins quatre ans,
05:18
and was promoted at least once.
111
318495
1654
qui a été promu au moins une fois.
05:20
Sounds reasonable.
112
320636
1561
Ça m'a l'air raisonnable.
05:22
And then the algorithm would be trained.
113
322221
2354
Et puis l'algorithme serait mis au point.
05:24
It would be trained to look for people to learn what led to success,
114
324599
3877
Mis au point pour sonder les gens, apprendre ce qui les a conduits au succès,
05:29
what kind of applications historically led to success
115
329039
4318
quels types de candidatures ont historiquement mené au succès
05:33
by that definition.
116
333381
1294
par cette définition.
05:36
Now think about what would happen
117
336020
1775
Pensez à ce qu'il pourrait se passer
05:37
if we applied that to a current pool of applicants.
118
337819
2555
si on appliquait cela à un groupe actuel de candidats.
05:40
It would filter out women
119
340939
1629
Le filtrage éliminerait les femmes
05:43
because they do not look like people who were successful in the past.
120
343483
3930
car elles ne ressemblent pas aux gens qui ont eu du succès dans le passé.
05:51
Algorithms don't make things fair
121
351572
2537
Les algorithmes ne rendent pas les choses équitables
05:54
if you just blithely, blindly apply algorithms.
122
354133
2694
si on les applique aveuglément, avec négligence.
05:56
They don't make things fair.
123
356851
1482
Ils n'instaurent pas l'équité.
05:58
They repeat our past practices,
124
358357
2128
Ils reproduisent nos pratiques du passé,
06:00
our patterns.
125
360509
1183
nos habitudes.
06:01
They automate the status quo.
126
361716
1939
Ils automatisent le statu quo.
06:04
That would be great if we had a perfect world,
127
364538
2389
Cela aurait été bien si nous avions un monde parfait,
06:07
but we don't.
128
367725
1312
mais ce n'est pas le cas.
06:09
And I'll add that most companies don't have embarrassing lawsuits,
129
369061
4102
De plus, la plupart des sociétés ne font pas l'objet de poursuites honteuses
06:14
but the data scientists in those companies
130
374266
2588
mais les scientifiques de données dans ces sociétés
06:16
are told to follow the data,
131
376878
2189
sont invités à suivre les données,
06:19
to focus on accuracy.
132
379091
2143
à se concentrer sur la précision.
06:22
Think about what that means.
133
382093
1381
Imaginez ce que ça veut dire :
06:23
Because we all have bias, it means they could be codifying sexism
134
383498
4027
parce que nous avons tous un parti pris, cela veut dire qu'ils pourraient coder
06:27
or any other kind of bigotry.
135
387549
1836
des idées sexistes, entre autres.
06:31
Thought experiment,
136
391308
1421
Petit exercice de réflexion
06:32
because I like them:
137
392753
1509
parce que j'aime en faire :
06:35
an entirely segregated society --
138
395394
2975
une société entièrement en proie à la ségrégation --
06:40
racially segregated, all towns, all neighborhoods
139
400067
3328
à la ségrégation raciale, dans toutes les villes, tous les voisinages
06:43
and where we send the police only to the minority neighborhoods
140
403419
3037
et où la police va seulement dans les quartiers de minorité
06:46
to look for crime.
141
406480
1193
à la recherche de crimes.
06:48
The arrest data would be very biased.
142
408271
2219
Les données policières seraient complètement biaisées.
06:51
What if, on top of that, we found the data scientists
143
411671
2575
Et si, en plus, on trouvait des experts en données
06:54
and paid the data scientists to predict where the next crime would occur?
144
414270
4161
et qu'on les payait pour qu'ils nous prédisent le lieu du prochain crime ?
06:59
Minority neighborhood.
145
419095
1487
Le quartier des minorités.
07:01
Or to predict who the next criminal would be?
146
421105
3125
Ou encore qu'ils prédisent qui serait le prochain criminel ?
07:04
A minority.
147
424708
1395
Un membre d'une minorité.
07:07
The data scientists would brag about how great and how accurate
148
427769
3541
Les experts en données se vanteraient de l'excellence et de l'exactitude
07:11
their model would be,
149
431334
1297
de leur modèle,
07:12
and they'd be right.
150
432655
1299
et ils auraient raison.
07:15
Now, reality isn't that drastic, but we do have severe segregations
151
435771
4615
Bien sûr, la réalité n'est pas comme ça, mais la ségrégation existe tout de même
07:20
in many cities and towns,
152
440410
1287
dans beaucoup d'endroits,
07:21
and we have plenty of evidence
153
441721
1893
et nous avons assez de preuves
07:23
of biased policing and justice system data.
154
443638
2688
que les données policières et judiciaires sont biaisées.
07:27
And we actually do predict hotspots,
155
447452
2815
Et nous prédisons vraiment les zones sensibles,
07:30
places where crimes will occur.
156
450291
1530
là où les crimes seront commis,
07:32
And we do predict, in fact, the individual criminality,
157
452221
3866
et nous prédisons aussi, en fait, les infractions individuelles,
07:36
the criminality of individuals.
158
456111
1770
commises par un seul individu.
07:38
The news organization ProPublica recently looked into
159
458792
3963
L'agence de presse « ProPublica » s'est récemment penchée
07:42
one of those "recidivism risk" algorithms,
160
462779
2024
sur l'un de ces algorithmes de « risque de récidive »,
07:44
as they're called,
161
464827
1163
comme on les appelle,
utilisé par les juges en Floride pendant la détermination de la peine.
07:46
being used in Florida during sentencing by judges.
162
466014
3194
07:50
Bernard, on the left, the black man, was scored a 10 out of 10.
163
470231
3585
Bernard, à gauche, l'homme noir, a obtenu un 10 sur 10.
07:54
Dylan, on the right, 3 out of 10.
164
474999
2007
Dylan, à droite, 3 sur 10.
07:57
10 out of 10, high risk. 3 out of 10, low risk.
165
477030
2501
10 sur 10 risque élevé, 3 sur 10, risque faible.
08:00
They were both brought in for drug possession.
166
480418
2385
Tous deux ont été jugés pour possession de drogue.
08:02
They both had records,
167
482827
1154
Tous deux avaient un casier,
08:04
but Dylan had a felony
168
484005
2806
mais Dylan avait déjà commis un crime,
08:06
but Bernard didn't.
169
486835
1176
ce qui n'était pas le cas de Bernard.
08:09
This matters, because the higher score you are,
170
489638
3066
C'est important, car plus le score est élevé,
08:12
the more likely you're being given a longer sentence.
171
492728
3473
plus il est probable que la sentence soit longue.
08:18
What's going on?
172
498114
1294
Qu'est-ce qu'il se passe ?
08:20
Data laundering.
173
500346
1332
Un blanchiment de données.
08:22
It's a process by which technologists hide ugly truths
174
502750
4427
C'est un processus de technologues pour cacher des vérités gênantes
08:27
inside black box algorithms
175
507201
1821
dans des algorithmes « boîte noire »
08:29
and call them objective;
176
509046
1290
soi-disant objectifs,
08:31
call them meritocratic.
177
511140
1568
soi-disant méritocratiques.
08:34
When they're secret, important and destructive,
178
514938
2385
Quand ces algorithmes sont secrets, importants et destructifs,
08:37
I've coined a term for these algorithms:
179
517347
2487
je leur ai inventé un nom :
08:39
"weapons of math destruction."
180
519858
1999
« armes de destruction math-ive ».
08:41
(Laughter)
181
521881
1564
(Rires)
08:43
(Applause)
182
523469
3054
(Applaudissements)
08:46
They're everywhere, and it's not a mistake.
183
526547
2354
Ils sont partout, et ce n'est pas une erreur !
08:49
These are private companies building private algorithms
184
529515
3723
Il s'agit de compagnie privées, qui créent des algorithmes privés,
08:53
for private ends.
185
533262
1392
à des fins privées.
08:55
Even the ones I talked about for teachers and the public police,
186
535034
3214
Même ceux dont j'ai parlé, pour les professeurs et la police,
08:58
those were built by private companies
187
538272
1869
ont été mis au point par des sociétés privées
09:00
and sold to the government institutions.
188
540165
2231
et vendus au gouvernement.
09:02
They call it their "secret sauce" --
189
542420
1873
Ils appellent ça leur « recette secrète »,
09:04
that's why they can't tell us about it.
190
544317
2128
et donc ne peuvent pas nous en parler.
09:06
It's also private power.
191
546469
2220
C'est aussi du pouvoir privé.
09:09
They are profiting for wielding the authority of the inscrutable.
192
549744
4695
Ils tirent profit en donnant de l'autorité à ce qu'on ne comprend pas.
09:16
Now you might think, since all this stuff is private
193
556934
2934
Vous pourriez penser, puisque tout ceci est privé,
09:19
and there's competition,
194
559892
1158
et qu'il y a concurrence,
09:21
maybe the free market will solve this problem.
195
561074
2306
que le marché libre pourrait résoudre ce problème.
09:23
It won't.
196
563404
1249
Eh bien non.
09:24
There's a lot of money to be made in unfairness.
197
564677
3120
Il y a beaucoup d'argent à gagner grâce à l'injustice.
09:28
Also, we're not economic rational agents.
198
568947
3369
De plus, nous ne sommes pas des acteurs économiques rationnels.
09:32
We all are biased.
199
572851
1292
Nous sommes tous partiaux.
09:34
We're all racist and bigoted in ways that we wish we weren't,
200
574780
3377
Nous sommes tous racistes et intolérants sans le vouloir,
09:38
in ways that we don't even know.
201
578181
2019
sans parfois même le savoir.
09:41
We know this, though, in aggregate,
202
581172
3081
Globalement, pourtant, nous le savons,
09:44
because sociologists have consistently demonstrated this
203
584277
3220
car les sociologues l'ont sans cesse démontré
09:47
with these experiments they build,
204
587521
1665
avec ces expériences
09:49
where they send a bunch of applications to jobs out,
205
589210
2568
où ils envoient des candidatures à qualifications égales
09:51
equally qualified but some have white-sounding names
206
591802
2501
mais certaines avec des noms « blancs »
09:54
and some have black-sounding names,
207
594327
1706
et d'autres avec des noms « noirs » :
09:56
and it's always disappointing, the results -- always.
208
596057
2694
les résultats sont toujours décevants. Toujours.
09:59
So we are the ones that are biased,
209
599330
1771
Donc, nous sommes porteurs de préjugés,
10:01
and we are injecting those biases into the algorithms
210
601125
3429
et nous les injectons dans les algorithmes
10:04
by choosing what data to collect,
211
604578
1812
en choisissant les données à collecter
10:06
like I chose not to think about ramen noodles --
212
606414
2743
comme quand j'ai choisi de mettre les ramen de côté,
10:09
I decided it was irrelevant.
213
609181
1625
car ce n'était pas pertinent.
10:10
But by trusting the data that's actually picking up on past practices
214
610830
5684
Mais en se basant sur des données qui reprennent des pratiques passées
10:16
and by choosing the definition of success,
215
616538
2014
et en définissant soi-même la réussite,
10:18
how can we expect the algorithms to emerge unscathed?
216
618576
3983
comment peut-on s'attendre à ce que les algorithmes en sortent indemnes ?
10:22
We can't. We have to check them.
217
622583
2356
On ne peut pas. On doit les contrôler.
10:25
We have to check them for fairness.
218
625985
1709
On doit contrôler leur équité.
10:27
The good news is, we can check them for fairness.
219
627718
2711
La bonne nouvelle, c'est qu'on peut contrôler leur équité.
10:30
Algorithms can be interrogated,
220
630453
3352
Les algorithmes peuvent être interrogés,
10:33
and they will tell us the truth every time.
221
633829
2034
et ils diront la vérité à chaque fois.
10:35
And we can fix them. We can make them better.
222
635887
2493
Et on peut les corriger, les améliorer.
10:38
I call this an algorithmic audit,
223
638404
2375
J'appelle ça un « audit algorithmique »,
10:40
and I'll walk you through it.
224
640803
1679
et je vais vous l'expliquer.
10:42
First, data integrity check.
225
642506
2196
D'abord, vérification de l'intégrité des données.
10:45
For the recidivism risk algorithm I talked about,
226
645952
2657
Pour l'algorithme « risque de récidive » dont j'ai parlé,
10:49
a data integrity check would mean we'd have to come to terms with the fact
227
649402
3573
cette vérification impliquera qu'il faudra se rendre compte du fait
10:52
that in the US, whites and blacks smoke pot at the same rate
228
652999
3526
qu'aux États-Unis, blancs et noirs fument la même quantité de joints,
10:56
but blacks are far more likely to be arrested --
229
656549
2485
mais que les noirs ont bien plus de chance d'être arrêtés,
10:59
four or five times more likely, depending on the area.
230
659058
3184
quatre ou cinq fois plus selon la région.
11:03
What is that bias looking like in other crime categories,
231
663137
2826
A quoi ressemble ce préjugé dans les autres catégories de crime,
11:05
and how do we account for it?
232
665987
1451
et comment en tient-on compte ?
11:07
Second, we should think about the definition of success,
233
667982
3039
Ensuite, on doit réfléchir à la définition du succès,
11:11
audit that.
234
671045
1381
la contrôler.
11:12
Remember -- with the hiring algorithm? We talked about it.
235
672450
2752
Vous vous souvenez, l'algorithme de recrutement ?
11:15
Someone who stays for four years and is promoted once?
236
675226
3165
Quelqu'un qui reste plus de quatre ans et est promu une fois ?
11:18
Well, that is a successful employee,
237
678415
1769
Eh bien, cet employé est performant,
11:20
but it's also an employee that is supported by their culture.
238
680208
3079
mais cet aussi un employé soutenu par sa culture.
11:23
That said, also it can be quite biased.
239
683909
1926
Cela peut donc aussi être biaisé.
11:25
We need to separate those two things.
240
685859
2065
Nous devons séparer ces deux idées.
11:27
We should look to the blind orchestra audition
241
687948
2426
Nous devrions prendre les auditions à l'aveugle
11:30
as an example.
242
690398
1196
comme exemple.
11:31
That's where the people auditioning are behind a sheet.
243
691618
2756
Celles où les gens auditionnent derrière un drap.
11:34
What I want to think about there
244
694766
1931
Ce à quoi je pense ici,
11:36
is the people who are listening have decided what's important
245
696721
3417
c'est que les gens qui écoutent ont décidé de ce qui est important,
11:40
and they've decided what's not important,
246
700162
2029
et de ce qui ne l'est pas,
et ils ne se laissent pas distraire par cela.
11:42
and they're not getting distracted by that.
247
702215
2059
11:44
When the blind orchestra auditions started,
248
704781
2749
Quand les auditions d'orchestre à l'aveugle ont commencé,
11:47
the number of women in orchestras went up by a factor of five.
249
707554
3444
le nombre de femmes dans les orchestres s'est multiplié par 5.
11:52
Next, we have to consider accuracy.
250
712073
2015
Ensuite, nous devons tenir compte de la précision.
11:55
This is where the value-added model for teachers would fail immediately.
251
715053
3734
Le modèle de « valeur-ajoutée » pour professeurs échouerait dans ce cas-là.
11:59
No algorithm is perfect, of course,
252
719398
2162
Aucun algorithme n'est parfait, évidemment,
12:02
so we have to consider the errors of every algorithm.
253
722440
3605
donc nous devons examiner les erreurs de tous les algorithmes.
12:06
How often are there errors, and for whom does this model fail?
254
726656
4359
Reviennent-elles souvent, et pour qui est-ce que le modèle échoue ?
12:11
What is the cost of that failure?
255
731670
1718
Quel est le coût de cet échec ?
12:14
And finally, we have to consider
256
734254
2207
Enfin, nous devons prendre en compte
12:17
the long-term effects of algorithms,
257
737793
2186
l'effet à long terme des algorithmes,
12:20
the feedback loops that are engendering.
258
740686
2207
les boucles de réactions qu'ils engendrent.
12:23
That sounds abstract,
259
743406
1236
Cela semble abstrait,
12:24
but imagine if Facebook engineers had considered that
260
744666
2664
mais imaginez, si les ingénieurs de Facebook y avaient pensé
12:28
before they decided to show us only things that our friends had posted.
261
748090
4855
avant de décider de nous montrer seulement les publications de nos amis.
12:33
I have two more messages, one for the data scientists out there.
262
753581
3234
J'ai encore deux messages, un pour les scientifiques de données ici.
12:37
Data scientists: we should not be the arbiters of truth.
263
757270
3409
Nous ne devrions pas être les arbitres de la vérité.
12:41
We should be translators of ethical discussions that happen
264
761340
3783
Nous devrions être les traducteurs des discussions d'ordre éthique
12:45
in larger society.
265
765147
1294
de la société en général.
12:47
(Applause)
266
767399
2133
(Applaudissements)
12:49
And the rest of you,
267
769556
1556
Et pour le reste d'entre vous,
12:51
the non-data scientists:
268
771831
1396
qui n'êtes pas du milieu,
12:53
this is not a math test.
269
773251
1498
ceci n'est pas un test de math.
12:55
This is a political fight.
270
775452
1348
C'est une bataille politique.
12:58
We need to demand accountability for our algorithmic overlords.
271
778407
3907
Nous devons réclamer des comptes à nos souverains algorithmiques.
13:03
(Applause)
272
783938
1499
(Applaudissements)
13:05
The era of blind faith in big data must end.
273
785461
4225
L'ère de la confiance absolue dans le Big Data doit prendre fin.
13:09
Thank you very much.
274
789710
1167
Merci beaucoup.
13:10
(Applause)
275
790901
5303
(Applaudissements)
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7