The era of blind faith in big data must end | Cathy O'Neil

232,156 views ・ 2017-09-07

TED


Dubbelklik op de Engelse ondertitels hieronder om de video af te spelen.

Vertaald door: Lisette Feenstra Nagekeken door: Peter van de Ven
00:12
Algorithms are everywhere.
0
12795
1596
Algoritmes zijn overal.
00:15
They sort and separate the winners from the losers.
1
15931
3125
Ze scheiden de winnaars van de verliezers.
00:19
The winners get the job
2
19839
2264
De winnaars krijgen de baan
00:22
or a good credit card offer.
3
22127
1743
of een goede creditcard-aanbieding.
00:23
The losers don't even get an interview
4
23894
2651
De verliezers mogen niet eens op gesprek komen
00:27
or they pay more for insurance.
5
27410
1777
of betalen meer voor hun verzekering.
00:30
We're being scored with secret formulas that we don't understand
6
30017
3549
Onze score wordt berekend met geheime formules die we niet begrijpen
00:34
that often don't have systems of appeal.
7
34495
3217
en waar je vaak niet tegen in beroep kan gaan.
00:39
That begs the question:
8
39060
1296
Hierdoor rijst de vraag:
00:40
What if the algorithms are wrong?
9
40380
2913
wat als algoritmes fouten maken?
00:44
To build an algorithm you need two things:
10
44920
2040
Een algoritme vraagt om twee dingen:
00:46
you need data, what happened in the past,
11
46984
1981
data, wat in het verleden gebeurd is,
00:48
and a definition of success,
12
48989
1561
en een definitie voor succes,
00:50
the thing you're looking for and often hoping for.
13
50574
2457
dat wat je hoopt te vinden.
00:53
You train an algorithm by looking, figuring out.
14
53055
5037
Je laat een algoritme data bestuderen
om te ontcijferen wat leidt tot succes.
00:58
The algorithm figures out what is associated with success.
15
58116
3419
01:01
What situation leads to success?
16
61559
2463
Welke factoren spelen daarin mee?
01:04
Actually, everyone uses algorithms.
17
64701
1762
Iedereen gebruikt algoritmes.
01:06
They just don't formalize them in written code.
18
66487
2718
Alleen zetten ze het niet om in computercode.
01:09
Let me give you an example.
19
69229
1348
Een voorbeeld.
01:10
I use an algorithm every day to make a meal for my family.
20
70601
3316
Ik gebruik elke dag een algoritme om een maaltijd te koken voor mijn gezin.
01:13
The data I use
21
73941
1476
De gegevens die ik gebruik
01:16
is the ingredients in my kitchen,
22
76214
1659
zijn de ingrediënten in huis, de hoeveelheid tijd die ik heb,
01:17
the time I have,
23
77897
1527
01:19
the ambition I have,
24
79448
1233
de gewenste inspanning,
01:20
and I curate that data.
25
80705
1709
en daarna orden ik die data.
01:22
I don't count those little packages of ramen noodles as food.
26
82438
4251
Kleine pakjes ramen noedels reken ik niet mee als voedsel.
01:26
(Laughter)
27
86713
1869
(Gelach)
01:28
My definition of success is:
28
88606
1845
Mijn definitie voor succes is:
01:30
a meal is successful if my kids eat vegetables.
29
90475
2659
een maaltijd is succesvol als mijn kinderen groenten eten.
Als mijn zoontje de baas was, zou hij iets heel anders zeggen.
01:34
It's very different from if my youngest son were in charge.
30
94001
2854
01:36
He'd say success is if he gets to eat lots of Nutella.
31
96879
2788
Voor hem is succes als hij onbeperkt Nutella mag eten.
(Gelach)
01:40
But I get to choose success.
32
100999
2226
Maar ik bepaal wat succes is.
01:43
I am in charge. My opinion matters.
33
103249
2707
Ik ben de baas. Mijn mening is belangrijk.
01:45
That's the first rule of algorithms.
34
105980
2675
Dat is de eerste regel van algoritmes.
01:48
Algorithms are opinions embedded in code.
35
108679
3180
Algoritmes zijn meningen vastgelegd in code.
01:53
It's really different from what you think most people think of algorithms.
36
113382
3663
Dat is heel iets anders dan wat de meeste mensen denken dat het zijn.
01:57
They think algorithms are objective and true and scientific.
37
117069
4504
Zij denken dat algoritmes objectief, waar en wetenschappelijk zijn.
02:02
That's a marketing trick.
38
122207
1699
Dat is een marketingtruc.
(Gelach)
02:05
It's also a marketing trick
39
125089
2125
Het is ook een marketingtruc
02:07
to intimidate you with algorithms,
40
127238
3154
om je te intimideren met algoritmes,
02:10
to make you trust and fear algorithms
41
130416
3661
om te zorgen dat je algoritmes vertrouwt én er bang voor bent,
02:14
because you trust and fear mathematics.
42
134101
2018
net zoals je op wiskunde vertrouwt en er bang voor bent.
02:17
A lot can go wrong when we put blind faith in big data.
43
137387
4830
Het kan flink misgaan als we blind vertrouwen op Big Data.
02:23
This is Kiri Soares. She's a high school principal in Brooklyn.
44
143504
3373
Dit is Kiri Soares. Ze is directrice van een middelbare school in Brooklyn.
02:26
In 2011, she told me her teachers were being scored
45
146901
2586
In 2011 werden haar docenten beoordeeld
02:29
with a complex, secret algorithm
46
149511
2727
met behulp van een complex, geheim algoritme,
02:32
called the "value-added model."
47
152262
1489
het zogeheten 'meerwaardemodel'.
02:34
I told her, "Well, figure out what the formula is, show it to me.
48
154325
3092
Ik zei: "Probeer achter de formule te komen, dan leg ik het je uit."
02:37
I'm going to explain it to you."
49
157441
1541
Ze zei: "Dat heb ik geprobeerd,
02:39
She said, "Well, I tried to get the formula,
50
159006
2141
maar op het Ministerie van Onderwijs zeiden ze het wiskunde was
02:41
but my Department of Education contact told me it was math
51
161171
2772
02:43
and I wouldn't understand it."
52
163967
1546
en dat ik dat toch niet zou begrijpen."
(Gelach)
02:47
It gets worse.
53
167086
1338
Het wordt nog erger.
02:48
The New York Post filed a Freedom of Information Act request,
54
168448
3530
De New York Post deed een beroep op de vrijheid van informatie,
02:52
got all the teachers' names and all their scores
55
172002
2959
verzamelde alle namen van docenten en hun scores
02:54
and they published them as an act of teacher-shaming.
56
174985
2782
en publiceerde die om ze publiekelijk terecht te wijzen.
02:58
When I tried to get the formulas, the source code, through the same means,
57
178904
3860
Toen ik zelf probeerde de formules, de broncode, te bemachtigen,
03:02
I was told I couldn't.
58
182788
2149
werd gezegd dat dat onmogelijk was.
03:04
I was denied.
59
184961
1236
Ik werd geweigerd.
Pas later kwam ik erachter
03:06
I later found out
60
186221
1174
03:07
that nobody in New York City had access to that formula.
61
187419
2866
dat niemand in New York toegang had tot de formule.
03:10
No one understood it.
62
190309
1305
Niemand begreep het.
03:13
Then someone really smart got involved, Gary Rubinstein.
63
193749
3224
Toen raakte de intelligente Gary Rubinstein bij de zaak betrokken.
03:16
He found 665 teachers from that New York Post data
64
196997
3621
In de gegevens van de New York Post vond hij 665 docenten
03:20
that actually had two scores.
65
200642
1866
die twee scores bleken te hebben.
03:22
That could happen if they were teaching
66
202532
1881
Dat gebeurde als ze wiskunde gaven aan de brugklas en de tweede klas.
03:24
seventh grade math and eighth grade math.
67
204437
2439
03:26
He decided to plot them.
68
206900
1538
Hij besloot ze in kaart te brengen.
03:28
Each dot represents a teacher.
69
208462
1993
Elke stip is een docent.
03:30
(Laughter)
70
210924
2379
(Gelach)
03:33
What is that?
71
213327
1521
Wat is dat?
03:34
(Laughter)
72
214872
1277
(Gelach)
03:36
That should never have been used for individual assessment.
73
216173
3446
Dat hadden ze nooit mogen gebruiken voor individuele beoordeling.
03:39
It's almost a random number generator.
74
219643
1926
Het lijkt meer op een toevalsgenerator.
03:41
(Applause)
75
221593
2946
(Applaus)
03:44
But it was.
76
224563
1162
En dat was ook zo.
03:45
This is Sarah Wysocki.
77
225749
1176
Dit is Sarah Wysocki.
03:46
She got fired, along with 205 other teachers,
78
226949
2175
Samen met 205 andere docenten werd ze ontslagen
03:49
from the Washington, DC school district,
79
229148
2662
in het schooldistrict van Washington,
03:51
even though she had great recommendations from her principal
80
231834
2909
ondanks de lovende aanbevelingen van de schoolleiding
03:54
and the parents of her kids.
81
234767
1428
en de ouders van haar leerlingen.
03:57
I know what a lot of you guys are thinking,
82
237210
2032
Ik hoor jullie al denken,
vooral de datawetenschappers, de KI-experts hier:
03:59
especially the data scientists, the AI experts here.
83
239266
2487
04:01
You're thinking, "Well, I would never make an algorithm that inconsistent."
84
241777
4226
zo'n onbetrouwbaar algoritme zou ik nooit maken.
04:06
But algorithms can go wrong,
85
246673
1683
Maar het kan fout gaan met algoritmes,
04:08
even have deeply destructive effects with good intentions.
86
248380
4598
soms zelfs met desastreuze gevolgen, ondanks goede bedoelingen.
04:14
And whereas an airplane that's designed badly
87
254351
2379
Maar als een slecht ontworpen vliegtuig neerstort, dan ziet iedereen dat,
04:16
crashes to the earth and everyone sees it,
88
256754
2001
04:18
an algorithm designed badly
89
258779
1850
maar een slecht ontworpen algoritme
04:22
can go on for a long time, silently wreaking havoc.
90
262065
3865
kan lange tijd ongemerkt schade aanrichten.
04:27
This is Roger Ailes.
91
267568
1570
Dit is Roger Ailes.
04:29
(Laughter)
92
269162
2000
(Gelach)
04:32
He founded Fox News in 1996.
93
272344
2388
Hij richtte in 1996 Fox News op.
04:35
More than 20 women complained about sexual harassment.
94
275256
2581
Meer dan 20 vrouwen klaagden over seksuele intimidatie.
04:37
They said they weren't allowed to succeed at Fox News.
95
277861
3235
Ze zeiden dat ze geen promotie kregen bij Fox News.
04:41
He was ousted last year, but we've seen recently
96
281120
2520
Hij is vorig jaar afgezet, maar het blijkt nu
04:43
that the problems have persisted.
97
283664
2670
dat het probleem nog steeds niet is opgelost.
04:47
That begs the question:
98
287474
1400
Dan rijst de vraag:
04:48
What should Fox News do to turn over another leaf?
99
288898
2884
wat moet Fox News doen om dit te veranderen?
04:53
Well, what if they replaced their hiring process
100
293065
3041
Wat als ze voortaan mensen zouden werven met behulp van een zelflerend algoritme?
04:56
with a machine-learning algorithm?
101
296130
1654
04:57
That sounds good, right?
102
297808
1595
Klinkt goed, toch?
04:59
Think about it.
103
299427
1300
Maar wat houdt dat in?
05:00
The data, what would the data be?
104
300751
2105
Welke data ga je gebruiken?
05:02
A reasonable choice would be the last 21 years of applications to Fox News.
105
302880
4947
De sollicitaties van de afgelopen 21 jaar zou redelijk zijn.
05:07
Reasonable.
106
307851
1502
Redelijk.
05:09
What about the definition of success?
107
309377
1938
En wanneer is het een succes?
05:11
Reasonable choice would be,
108
311741
1324
Een redelijke keuze zou zijn:
05:13
well, who is successful at Fox News?
109
313089
1778
wie is succesvol bij Fox News?
05:14
I guess someone who, say, stayed there for four years
110
314891
3580
Iemand die er al vier jaar werkt
05:18
and was promoted at least once.
111
318495
1654
en minstens een keer promotie heeft gemaakt.
05:20
Sounds reasonable.
112
320636
1561
Klinkt redelijk.
05:22
And then the algorithm would be trained.
113
322221
2354
En dan wordt het algoritme getraind.
05:24
It would be trained to look for people to learn what led to success,
114
324599
3877
Het leert zoeken naar mensen om te weten wat tot succes leidt,
05:29
what kind of applications historically led to success
115
329039
4318
welke sollicitaties in het verleden succesvol waren
05:33
by that definition.
116
333381
1294
volgens die definitie.
05:36
Now think about what would happen
117
336020
1775
Wat zou er gebeuren
05:37
if we applied that to a current pool of applicants.
118
337819
2555
als we dit zouden toepassen op de huidige kandidaten?
05:40
It would filter out women
119
340939
1629
Het zou vrouwen eruit filteren,
05:43
because they do not look like people who were successful in the past.
120
343483
3930
want zo te zien waren zij niet succesvol in het verleden.
05:51
Algorithms don't make things fair
121
351572
2537
Algoritmes maken dingen niet eerlijker
05:54
if you just blithely, blindly apply algorithms.
122
354133
2694
als je ze klakkeloos toepast.
05:56
They don't make things fair.
123
356851
1482
Ze maken het niet eerlijker.
05:58
They repeat our past practices,
124
358357
2128
Ze herhalen onze eerdere ervaringen,
06:00
our patterns.
125
360509
1183
onze patronen.
06:01
They automate the status quo.
126
361716
1939
Ze automatiseren de status quo.
06:04
That would be great if we had a perfect world,
127
364538
2389
Dat werkt goed als de wereld perfect zou zijn,
06:07
but we don't.
128
367725
1312
maar dat is niet zo.
06:09
And I'll add that most companies don't have embarrassing lawsuits,
129
369061
4102
Ook hebben de meeste bedrijven geen pijnlijke rechtszaken lopen,
06:14
but the data scientists in those companies
130
374266
2588
maar hun datawetenschappers
06:16
are told to follow the data,
131
376878
2189
worden gedwongen de data te volgen,
06:19
to focus on accuracy.
132
379091
2143
met nadruk op nauwkeurigheid.
06:22
Think about what that means.
133
382093
1381
En wat betekent dat?
06:23
Because we all have bias, it means they could be codifying sexism
134
383498
4027
Want onze vooroordelen zorgen ervoor dat seksisme het systeem binnendringt,
06:27
or any other kind of bigotry.
135
387549
1836
net als andere vormen van onverdraagzaamheid.
06:31
Thought experiment,
136
391308
1421
Even een gedachte-experiment,
06:32
because I like them:
137
392753
1509
want die zijn leuk:
06:35
an entirely segregated society --
138
395394
2975
een volledig gesegregeerde samenleving --
06:40
racially segregated, all towns, all neighborhoods
139
400067
3328
naar ras gescheiden, alle steden, alle wijken --
06:43
and where we send the police only to the minority neighborhoods
140
403419
3037
waar we de politie alleen op wijken met minderheden afsturen
06:46
to look for crime.
141
406480
1193
om criminaliteit op te sporen.
06:48
The arrest data would be very biased.
142
408271
2219
De arrestatiedata zouden sterk bevooroordeeld zijn.
06:51
What if, on top of that, we found the data scientists
143
411671
2575
Wat zou er gebeuren als we datawetenschappers betaalden
06:54
and paid the data scientists to predict where the next crime would occur?
144
414270
4161
om te voorspellen waar de volgende misdaad zou plaatsvinden?
06:59
Minority neighborhood.
145
419095
1487
In de wijk met minderheden.
07:01
Or to predict who the next criminal would be?
146
421105
3125
Of wie de volgende crimineel zou zijn?
07:04
A minority.
147
424708
1395
Iemand uit een minderheidsgroep.
07:07
The data scientists would brag about how great and how accurate
148
427769
3541
De datawetenschappers zouden opscheppen
over hoe geweldig en nauwkeurig hun model was
07:11
their model would be,
149
431334
1297
07:12
and they'd be right.
150
432655
1299
en ze zouden gelijk hebben.
07:15
Now, reality isn't that drastic, but we do have severe segregations
151
435771
4615
Zo erg is het nog niet,
maar ernstige segregatie vindt in de meeste steden plaats
07:20
in many cities and towns,
152
440410
1287
07:21
and we have plenty of evidence
153
441721
1893
en we hebben genoeg bewijzen
07:23
of biased policing and justice system data.
154
443638
2688
van bevooroordeelde politie en rechtssysteem.
07:27
And we actually do predict hotspots,
155
447452
2815
We voorspellen daadwerkelijk gebieden waar zich criminaliteit zal voordoen.
07:30
places where crimes will occur.
156
450291
1530
07:32
And we do predict, in fact, the individual criminality,
157
452221
3866
En ook waar criminele eenmansacties zullen plaatsvinden.
07:36
the criminality of individuals.
158
456111
1770
07:38
The news organization ProPublica recently looked into
159
458792
3963
De nieuwsorganisatie ProPublica
onderzocht onlangs zo'n zogeheten 'recidive risico'-algoritme
07:42
one of those "recidivism risk" algorithms,
160
462779
2024
07:44
as they're called,
161
464827
1163
dat in Florida wordt gebruikt tijdens de veroordeling door de rechter.
07:46
being used in Florida during sentencing by judges.
162
466014
3194
07:50
Bernard, on the left, the black man, was scored a 10 out of 10.
163
470231
3585
Bernard, links, de zwarte man, scoorde tien uit tien.
07:54
Dylan, on the right, 3 out of 10.
164
474999
2007
Dylan, rechts, drie uit tien.
07:57
10 out of 10, high risk. 3 out of 10, low risk.
165
477030
2501
Tien uit tien, hoog risico. Drie uit tien, laag risico.
08:00
They were both brought in for drug possession.
166
480418
2385
Ze werden allebei opgepakt voor drugsbezit.
08:02
They both had records,
167
482827
1154
Ze hadden allebei een strafblad,
08:04
but Dylan had a felony
168
484005
2806
maar Dylan voor een misdrijf
08:06
but Bernard didn't.
169
486835
1176
en Bernard niet.
08:09
This matters, because the higher score you are,
170
489638
3066
Dat maakt uit, want hoe hoger de score,
08:12
the more likely you're being given a longer sentence.
171
492728
3473
des te zwaarder je gestraft wordt.
08:18
What's going on?
172
498114
1294
Hoe kan dit?
08:20
Data laundering.
173
500346
1332
Door het witwassen van data.
08:22
It's a process by which technologists hide ugly truths
174
502750
4427
Dit gebeurt als technologen de lelijke waarheid
08:27
inside black box algorithms
175
507201
1821
in een zwarte doos van algoritmes verbergen
08:29
and call them objective;
176
509046
1290
en ze objectief noemen,
08:31
call them meritocratic.
177
511140
1568
ze meritocratisch noemen.
08:34
When they're secret, important and destructive,
178
514938
2385
Geheime, essentiële en destructieve algoritmes
08:37
I've coined a term for these algorithms:
179
517347
2487
krijgen van mij de naam
08:39
"weapons of math destruction."
180
519858
1999
'datavernietigingswapens'.
08:41
(Laughter)
181
521881
1564
(Gelach)
08:43
(Applause)
182
523469
3054
(Applaus)
08:46
They're everywhere, and it's not a mistake.
183
526547
2354
Ze zijn overal, echt waar.
08:49
These are private companies building private algorithms
184
529515
3723
Dit zijn particuliere bedrijven die eigen algoritmes maken
08:53
for private ends.
185
533262
1392
voor eigen gebruik.
08:55
Even the ones I talked about for teachers and the public police,
186
535034
3214
Zelfs die waar ik het over had voor docenten en politie,
08:58
those were built by private companies
187
538272
1869
kwamen van particuliere bedrijven
en werden verkocht aan overheidsinstellingen.
09:00
and sold to the government institutions.
188
540165
2231
09:02
They call it their "secret sauce" --
189
542420
1873
Ze noemen het hun 'geheime recept' --
09:04
that's why they can't tell us about it.
190
544317
2128
daarom willen ze er niets over zeggen.
09:06
It's also private power.
191
546469
2220
Het gaat ook om private macht.
09:09
They are profiting for wielding the authority of the inscrutable.
192
549744
4695
Ze maken handig gebruik van hun gezag over dingen die onbegrijpelijk zijn.
09:16
Now you might think, since all this stuff is private
193
556934
2934
Omdat alles in particuliere handen is
09:19
and there's competition,
194
559892
1158
en er concurrentie is,
denk je wellicht dat de vrije markt dit probleem wel oplost.
09:21
maybe the free market will solve this problem.
195
561074
2306
09:23
It won't.
196
563404
1249
Onjuist.
09:24
There's a lot of money to be made in unfairness.
197
564677
3120
Er wordt grof geld verdiend met oneerlijke praktijken.
09:28
Also, we're not economic rational agents.
198
568947
3369
Ook zijn wij geen economisch rationele wezens.
09:32
We all are biased.
199
572851
1292
We zijn bevooroordeeld.
09:34
We're all racist and bigoted in ways that we wish we weren't,
200
574780
3377
We zijn racistisch en onverdraagzaam, erger dan we willen toegeven
09:38
in ways that we don't even know.
201
578181
2019
en vaak zonder dat we het doorhebben.
09:41
We know this, though, in aggregate,
202
581172
3081
Dit weten we
09:44
because sociologists have consistently demonstrated this
203
584277
3220
doordat sociologen keer op keer met hun onderzoeken hebben bewezen
09:47
with these experiments they build,
204
587521
1665
09:49
where they send a bunch of applications to jobs out,
205
589210
2568
dat als je sollicitaties verstuurt met dezelfde opleiding,
09:51
equally qualified but some have white-sounding names
206
591802
2501
maar met deels 'witte' namen deels 'zwarte' namen,
09:54
and some have black-sounding names,
207
594327
1706
dat de resultaten altijd zullen tegenvallen.
09:56
and it's always disappointing, the results -- always.
208
596057
2694
09:59
So we are the ones that are biased,
209
599330
1771
Wij zijn degenen met vooroordelen
10:01
and we are injecting those biases into the algorithms
210
601125
3429
en daar injecteren we de algoritmes mee
10:04
by choosing what data to collect,
211
604578
1812
door te kiezen welke data worden verzameld,
10:06
like I chose not to think about ramen noodles --
212
606414
2743
zoals ik besloot ramen noedels uit te sluiten --
10:09
I decided it was irrelevant.
213
609181
1625
omdat ik het niet relevant vond.
10:10
But by trusting the data that's actually picking up on past practices
214
610830
5684
Maar als we vertrouwen op data die uitgaan van eerder gedrag
10:16
and by choosing the definition of success,
215
616538
2014
en een definitie voor succes hanteren,
10:18
how can we expect the algorithms to emerge unscathed?
216
618576
3983
waarom denken we dan dat de algoritmes daar ongeschonden uitkomen?
10:22
We can't. We have to check them.
217
622583
2356
Onmogelijk.
We moeten controleren of ze redelijk zijn.
10:25
We have to check them for fairness.
218
625985
1709
10:27
The good news is, we can check them for fairness.
219
627718
2711
Gelukkig is het mogelijk ze op redelijkheid te testen.
10:30
Algorithms can be interrogated,
220
630453
3352
Algoritmes kan je ondervragen
10:33
and they will tell us the truth every time.
221
633829
2034
en ze zullen steeds eerlijk antwoord geven.
10:35
And we can fix them. We can make them better.
222
635887
2493
We kunnen ze herstellen. We kunnen ze verbeteren.
10:38
I call this an algorithmic audit,
223
638404
2375
Dit noem ik een algoritme-inspectie
10:40
and I'll walk you through it.
224
640803
1679
en ik leg even uit hoe dat werkt.
10:42
First, data integrity check.
225
642506
2196
Allereerst, een data-integriteitscontrole.
10:45
For the recidivism risk algorithm I talked about,
226
645952
2657
Voor het 'recidive risico'-algoritme dat ik eerder noemde,
10:49
a data integrity check would mean we'd have to come to terms with the fact
227
649402
3573
betekent een data-integriteitscontrole dat we moeten accepteren
10:52
that in the US, whites and blacks smoke pot at the same rate
228
652999
3526
dat in de VS
de witte en de zwarte bevolking net zoveel marihuana roken
10:56
but blacks are far more likely to be arrested --
229
656549
2485
maar de zwarte bevolking vaker wordt gearresteerd --
10:59
four or five times more likely, depending on the area.
230
659058
3184
vier tot vijf keer vaker zelfs, afhankelijk van de buurt.
11:03
What is that bias looking like in other crime categories,
231
663137
2826
Hoe ziet die vertekening eruit in andere misdrijfcategorieën
11:05
and how do we account for it?
232
665987
1451
en hoe verantwoorden we dat?
11:07
Second, we should think about the definition of success,
233
667982
3039
Ten tweede, we moeten kijken naar onze definitie voor succes
11:11
audit that.
234
671045
1381
en dat checken.
11:12
Remember -- with the hiring algorithm? We talked about it.
235
672450
2752
Weet je nog het wervingsalgoritme waar we het over hadden?
11:15
Someone who stays for four years and is promoted once?
236
675226
3165
Iemand die vier jaar in dienst is en één keer promotie maakt?
11:18
Well, that is a successful employee,
237
678415
1769
Dat is een succesvolle werknemer,
maar het is ook een werknemer
11:20
but it's also an employee that is supported by their culture.
238
680208
3079
die de goedkeuring krijgt van de bedrijfscultuur.
11:23
That said, also it can be quite biased.
239
683909
1926
Kortom, vooroordelen.
11:25
We need to separate those two things.
240
685859
2065
We moeten die twee dingen uit elkaar houden.
11:27
We should look to the blind orchestra audition
241
687948
2426
Laten we het voorbeeld nemen van de blinde orkestauditie.
11:30
as an example.
242
690398
1196
11:31
That's where the people auditioning are behind a sheet.
243
691618
2756
De mensen die auditie doen, zitten daarbij achter een laken.
11:34
What I want to think about there
244
694766
1931
Wat volgens mij relevant is,
11:36
is the people who are listening have decided what's important
245
696721
3417
is dat de toehoorders hebben besloten wat belangrijk is
11:40
and they've decided what's not important,
246
700162
2029
en daar zullen ze niet vanaf wijken.
11:42
and they're not getting distracted by that.
247
702215
2059
11:44
When the blind orchestra auditions started,
248
704781
2749
Toen de blinde orkestaudities begonnen,
11:47
the number of women in orchestras went up by a factor of five.
249
707554
3444
schoot het aantal vrouwen in orkesten met factor vijf omhoog.
11:52
Next, we have to consider accuracy.
250
712073
2015
Ook moeten we kijken naar nauwkeurigheid.
11:55
This is where the value-added model for teachers would fail immediately.
251
715053
3734
Hier zou het meerwaardemodel voor docenten direct falen.
11:59
No algorithm is perfect, of course,
252
719398
2162
Geen enkel algoritme is perfect,
12:02
so we have to consider the errors of every algorithm.
253
722440
3605
dus we moeten rekening houden met de fouten van ieder algoritme.
12:06
How often are there errors, and for whom does this model fail?
254
726656
4359
Hoe vaak worden fouten gemaakt en wie is daar het slachtoffer van?
12:11
What is the cost of that failure?
255
731670
1718
Wat zijn de gevolgen?
12:14
And finally, we have to consider
256
734254
2207
En tot slot moeten we stilstaan
12:17
the long-term effects of algorithms,
257
737793
2186
bij de gevolgen van algoritmes op de lange termijn,
12:20
the feedback loops that are engendering.
258
740686
2207
de terugkoppeling die het met zich meebrengt.
12:23
That sounds abstract,
259
743406
1236
Dat klinkt vaag,
12:24
but imagine if Facebook engineers had considered that
260
744666
2664
maar stel dat de Facebookontwerpers daar aan hadden gedacht
12:28
before they decided to show us only things that our friends had posted.
261
748090
4855
voordat ze besloten ons alleen te laten zien wat onze vrienden hadden gepost.
12:33
I have two more messages, one for the data scientists out there.
262
753581
3234
Ik wil nog twee dingen kwijt. Allereerst aan de datawetenschappers:
12:37
Data scientists: we should not be the arbiters of truth.
263
757270
3409
wij zijn niet de scheidsrechters die bepalen wat waar is.
12:41
We should be translators of ethical discussions that happen
264
761340
3783
Wij moeten de ethische discussies die zich voordoen,
begrijpelijk maken voor de hele samenleving.
12:45
in larger society.
265
765147
1294
12:47
(Applause)
266
767399
2133
(Applaus)
12:49
And the rest of you,
267
769556
1556
En tegen alle niet-datawetenschappers zeg ik:
12:51
the non-data scientists:
268
771831
1396
12:53
this is not a math test.
269
773251
1498
dit is geen wiskundetest.
12:55
This is a political fight.
270
775452
1348
Dit is een politiek gevecht.
12:58
We need to demand accountability for our algorithmic overlords.
271
778407
3907
We moeten onze algoritmebazen ter verantwoording roepen.
13:03
(Applause)
272
783938
1499
(Applaus)
13:05
The era of blind faith in big data must end.
273
785461
4225
Het wordt tijd dat er een eind komt aan het blinde vertrouwen in Big Data.
13:09
Thank you very much.
274
789710
1167
Dank jullie wel.
13:10
(Applause)
275
790901
5303
(Applaus)
Over deze website

Deze site laat u kennismaken met YouTube-video's die nuttig zijn om Engels te leren. U ziet Engelse lessen gegeven door topdocenten uit de hele wereld. Dubbelklik op de Engelse ondertitels op elke videopagina om de video af te spelen. De ondertitels scrollen synchroon met het afspelen van de video. Heeft u opmerkingen of verzoeken, neem dan contact met ons op via dit contactformulier.

https://forms.gle/WvT1wiN1qDtmnspy7