The era of blind faith in big data must end | Cathy O'Neil

240,040 views ・ 2017-09-07

TED


Dubbelklicka på de engelska undertexterna nedan för att spela upp videon.

Översättare: Anette Smedberg Granskare: Annika Bidner
00:12
Algorithms are everywhere.
0
12795
1596
Algoritmer finns överallt.
00:15
They sort and separate the winners from the losers.
1
15931
3125
De sorterar ut vinnarna från förlorarna.
00:19
The winners get the job
2
19839
2264
Vinnarna får jobbet
00:22
or a good credit card offer.
3
22127
1743
eller ett bra kreditkortserbjudande.
00:23
The losers don't even get an interview
4
23894
2651
Förlorarna får inte ens en intervju
00:27
or they pay more for insurance.
5
27410
1777
eller så får de en dyrare försäkring.
00:30
We're being scored with secret formulas that we don't understand
6
30017
3549
Vi poängsätts av hemliga formler som vi inte förstår
00:34
that often don't have systems of appeal.
7
34495
3217
och som oftast inte går att överklaga.
00:39
That begs the question:
8
39060
1296
Det väcker frågan:
00:40
What if the algorithms are wrong?
9
40380
2913
Tänk om algoritmerna har fel?
00:44
To build an algorithm you need two things:
10
44920
2040
För att bygga en algoritm krävs två saker:
00:46
you need data, what happened in the past,
11
46984
1981
man behöver data, vad har hänt tidigare,
00:48
and a definition of success,
12
48989
1561
och en definition av framgång,
00:50
the thing you're looking for and often hoping for.
13
50574
2457
det man letar efter och ofta hoppas på.
00:53
You train an algorithm by looking, figuring out.
14
53055
5037
Man lär en algoritm genom att titta och fundera.
00:58
The algorithm figures out what is associated with success.
15
58116
3419
Algoritmen räknar ut vad som associeras med framgång.
01:01
What situation leads to success?
16
61559
2463
Vilken situation leder till framgång?
01:04
Actually, everyone uses algorithms.
17
64701
1762
Faktum är att alla använder algoritmer.
01:06
They just don't formalize them in written code.
18
66487
2718
De formulerar dem bara inte i skriftlig kod.
01:09
Let me give you an example.
19
69229
1348
Låt mig ge ett exempel.
01:10
I use an algorithm every day to make a meal for my family.
20
70601
3316
Jag använder en algoritm varje dag för att laga mat.
01:13
The data I use
21
73941
1476
Datan jag använder
01:16
is the ingredients in my kitchen,
22
76214
1659
är ingredienserna jag har hemma,
01:17
the time I have,
23
77897
1527
den tid jag har på mig,
01:19
the ambition I have,
24
79448
1233
min ambitionsnivå,
01:20
and I curate that data.
25
80705
1709
och jag granskar den datan.
01:22
I don't count those little packages of ramen noodles as food.
26
82438
4251
Jag räknar inte småpåsarna med nudlar som mat.
01:26
(Laughter)
27
86713
1869
(Skratt)
01:28
My definition of success is:
28
88606
1845
Min definition av framgång är:
01:30
a meal is successful if my kids eat vegetables.
29
90475
2659
En måltid är lyckad om barnen äter grönsakerna.
01:34
It's very different from if my youngest son were in charge.
30
94001
2854
Den skiljer sig ifrån min yngste sons definition.
01:36
He'd say success is if he gets to eat lots of Nutella.
31
96879
2788
Han skulle säga att framgång är om han får äta mycket Nutella.
01:40
But I get to choose success.
32
100999
2226
Men jag definierar vad framgången är.
01:43
I am in charge. My opinion matters.
33
103249
2707
Jag bestämmer. Mina åsikter har betydelse.
01:45
That's the first rule of algorithms.
34
105980
2675
Det här är den första regeln för en algoritm.
01:48
Algorithms are opinions embedded in code.
35
108679
3180
Algoritmer är åsikter inbäddade i kod.
01:53
It's really different from what you think most people think of algorithms.
36
113382
3663
Det är stor skillnad mot vad man tror att folk tror om algoritmer.
01:57
They think algorithms are objective and true and scientific.
37
117069
4504
Folk tror att algoritmer är objektiva, sanna och vetenskapligt underbyggda.
02:02
That's a marketing trick.
38
122207
1699
Det är ett marknadsföringstrick.
02:05
It's also a marketing trick
39
125089
2125
Det är också ett marknadsföringstrick
02:07
to intimidate you with algorithms,
40
127238
3154
för att skrämma dig med algoritmer,
02:10
to make you trust and fear algorithms
41
130416
3661
få dig att lita på och frukta algoritmerna
02:14
because you trust and fear mathematics.
42
134101
2018
eftersom du litar på och fruktar matematik.
02:17
A lot can go wrong when we put blind faith in big data.
43
137387
4830
Mycket kan gå fel när vi tror blint på big data.
02:23
This is Kiri Soares. She's a high school principal in Brooklyn.
44
143504
3373
Det här är Kiri Soares. Hon är gymnasierektor i Brooklyn.
02:26
In 2011, she told me her teachers were being scored
45
146901
2586
2011 berättade hon att hennes lärare poängsattes
02:29
with a complex, secret algorithm
46
149511
2727
med en komplicerad, hemlig algoritm
02:32
called the "value-added model."
47
152262
1489
som kallades "mervärdesmodellen."
02:34
I told her, "Well, figure out what the formula is, show it to me.
48
154325
3092
Jag sade, "Fundera ut vilken formeln är, och visa mig den.
02:37
I'm going to explain it to you."
49
157441
1541
Jag ska förklara den för dig."
Hon svarade,"Jag försökte få fram formeln,
02:39
She said, "Well, I tried to get the formula,
50
159006
2141
men min kontakt på skolmyndigheten sade att det var matte
02:41
but my Department of Education contact told me it was math
51
161171
2772
02:43
and I wouldn't understand it."
52
163967
1546
och att jag inte skulle förstå."
02:47
It gets worse.
53
167086
1338
Det blir värre.
02:48
The New York Post filed a Freedom of Information Act request,
54
168448
3530
New York Post krävde ut resultatet med stöd av lagen om informationsfrihet,
02:52
got all the teachers' names and all their scores
55
172002
2959
fick alla lärares namn och poäng
02:54
and they published them as an act of teacher-shaming.
56
174985
2782
och publicerade det för att skämma ut lärarna.
02:58
When I tried to get the formulas, the source code, through the same means,
57
178904
3860
När jag försökte få tag i formlerna, källkoden, på samma vis,
03:02
I was told I couldn't.
58
182788
2149
fick jag höra att det inte gick.
03:04
I was denied.
59
184961
1236
Jag nekades.
03:06
I later found out
60
186221
1174
Senare upptäckte jag
03:07
that nobody in New York City had access to that formula.
61
187419
2866
att ingen i New York hade tillgång till formeln.
03:10
No one understood it.
62
190309
1305
Ingen förstod den.
03:13
Then someone really smart got involved, Gary Rubinstein.
63
193749
3224
Sedan blev någon som var riktigt smart inblandad, Gary Rubenstein.
03:16
He found 665 teachers from that New York Post data
64
196997
3621
Han upptäckte att 665 lärare i New York Posts reportage
03:20
that actually had two scores.
65
200642
1866
egentligen hade två resultat.
03:22
That could happen if they were teaching
66
202532
1881
Det kunde hända om de undervisade både sjunde- och åttondeklassare
03:24
seventh grade math and eighth grade math.
67
204437
2439
i matematik.
03:26
He decided to plot them.
68
206900
1538
Han gjorde ett diagram.
03:28
Each dot represents a teacher.
69
208462
1993
Varje prick representerar en lärare.
03:30
(Laughter)
70
210924
2379
(Skratt)
03:33
What is that?
71
213327
1521
Vad är det här?
03:34
(Laughter)
72
214872
1277
(Skratt)
03:36
That should never have been used for individual assessment.
73
216173
3446
Det här skulle aldrig ha använts för individuella bedömningar.
03:39
It's almost a random number generator.
74
219643
1926
Det är nästan som en slumpgenerator.
03:41
(Applause)
75
221593
2946
(Applåder)
03:44
But it was.
76
224563
1162
Men det gjordes.
03:45
This is Sarah Wysocki.
77
225749
1176
Detta är Sarah Wysocki.
03:46
She got fired, along with 205 other teachers,
78
226949
2175
Hon och 205 andra lärare fick sparken,
03:49
from the Washington, DC school district,
79
229148
2662
från Washington DCs skoldistrikt,
03:51
even though she had great recommendations from her principal
80
231834
2909
trots att hon hade strålande omdömen från sin rektor och elevernas föräldrar.
03:54
and the parents of her kids.
81
234767
1428
03:57
I know what a lot of you guys are thinking,
82
237210
2032
Jag vet vad många av er tänker nu,
särskilt dataanalytikerna, AI-experterna här inne.
03:59
especially the data scientists, the AI experts here.
83
239266
2487
04:01
You're thinking, "Well, I would never make an algorithm that inconsistent."
84
241777
4226
Ni tänker, "Jag skulle aldrig skriva en sådan inkonsekvent algoritm."
04:06
But algorithms can go wrong,
85
246673
1683
Men algoritmer kan bli fel,
04:08
even have deeply destructive effects with good intentions.
86
248380
4598
till och med ha djupt destruktiva effekter även om intentionerna är goda.
04:14
And whereas an airplane that's designed badly
87
254351
2379
Medan ett illa konstruerat flygplan
04:16
crashes to the earth and everyone sees it,
88
256754
2001
kraschar och alla kan se det,
04:18
an algorithm designed badly
89
258779
1850
kan en illa skriven algoritm
04:22
can go on for a long time, silently wreaking havoc.
90
262065
3865
användas under lång tid, och i tysthet skapa kaos.
04:27
This is Roger Ailes.
91
267568
1570
Det här är Roger Ailes.
04:29
(Laughter)
92
269162
2000
(Skratt)
04:32
He founded Fox News in 1996.
93
272344
2388
Han grundade Fox News 1996.
04:35
More than 20 women complained about sexual harassment.
94
275256
2581
Fler än tjugo kvinnor anmälde sexuella trakasserier.
04:37
They said they weren't allowed to succeed at Fox News.
95
277861
3235
De menade att de inte tilläts att lyckas på Fox News.
04:41
He was ousted last year, but we've seen recently
96
281120
2520
Han fick sparken förra året, men nyligen såg vi
04:43
that the problems have persisted.
97
283664
2670
att problemen har fortsatt.
04:47
That begs the question:
98
287474
1400
Det leder oss in på frågan:
04:48
What should Fox News do to turn over another leaf?
99
288898
2884
Vad ska Fox News göra för att vända blad?
04:53
Well, what if they replaced their hiring process
100
293065
3041
Tänk om de bytte ut sin anställningsprocess
04:56
with a machine-learning algorithm?
101
296130
1654
med en maskininlärningsalgoritm?
04:57
That sounds good, right?
102
297808
1595
Det låter väl bra?
04:59
Think about it.
103
299427
1300
Fundera på det.
05:00
The data, what would the data be?
104
300751
2105
Data, vilken data skulle användas?
05:02
A reasonable choice would be the last 21 years of applications to Fox News.
105
302880
4947
Ett rimligt val skulle vara de senaste 21 årens ansökningar
till Fox News.
05:07
Reasonable.
106
307851
1502
Det låter rimligt.
05:09
What about the definition of success?
107
309377
1938
Hur skulle framgång definieras?
05:11
Reasonable choice would be,
108
311741
1324
Ett rimligt val vore,
05:13
well, who is successful at Fox News?
109
313089
1778
ja, vem är framgångsrik på Fox News?
05:14
I guess someone who, say, stayed there for four years
110
314891
3580
Jag gissar på någon som, låt säga, stannat där i fyra år
05:18
and was promoted at least once.
111
318495
1654
och befordrats minst en gång.
05:20
Sounds reasonable.
112
320636
1561
Det låter rimligt.
05:22
And then the algorithm would be trained.
113
322221
2354
Därefter skulle algoritmen tränas.
05:24
It would be trained to look for people to learn what led to success,
114
324599
3877
Den skulle tränas i att hitta personer för att lära sig vad som lett till framgång,
05:29
what kind of applications historically led to success
115
329039
4318
vilken typ av ansökningar som historiskt lett till framgång
05:33
by that definition.
116
333381
1294
utifrån den definitionen.
05:36
Now think about what would happen
117
336020
1775
Fundera nu på vad som skulle hända
05:37
if we applied that to a current pool of applicants.
118
337819
2555
om vi applicerade det här på jobbsökare idag.
05:40
It would filter out women
119
340939
1629
Den skulle välja bort kvinnor
05:43
because they do not look like people who were successful in the past.
120
343483
3930
för de liknar inte personer som varit framgångsrika historiskt.
05:51
Algorithms don't make things fair
121
351572
2537
Algoritmer gör inte saker rättvisa
05:54
if you just blithely, blindly apply algorithms.
122
354133
2694
om man tillämpar dem tanklöst och blint.
05:56
They don't make things fair.
123
356851
1482
De skapar inte rättvisa.
05:58
They repeat our past practices,
124
358357
2128
De repeterar det vi gjort tidigare,
06:00
our patterns.
125
360509
1183
våra mönster.
06:01
They automate the status quo.
126
361716
1939
De automatiserar rådande läge.
06:04
That would be great if we had a perfect world,
127
364538
2389
Det skulle vara toppen om världen vore perfekt,
06:07
but we don't.
128
367725
1312
men det är den inte.
06:09
And I'll add that most companies don't have embarrassing lawsuits,
129
369061
4102
Och jag kan tillägga att de flesta företag inte har blivit stämda,
06:14
but the data scientists in those companies
130
374266
2588
men dataanalytikerna i de här företagen
06:16
are told to follow the data,
131
376878
2189
är ålagda att använda datan,
06:19
to focus on accuracy.
132
379091
2143
för att få tillförlitliga resultat.
06:22
Think about what that means.
133
382093
1381
Fundera på vad det betyder.
06:23
Because we all have bias, it means they could be codifying sexism
134
383498
4027
Eftersom vi alla har fördomar, betyder det att de skulle kunna koda in sexism
06:27
or any other kind of bigotry.
135
387549
1836
eller något annat trångsynt.
06:31
Thought experiment,
136
391308
1421
Ett tankeexperiment,
06:32
because I like them:
137
392753
1509
eftersom jag gillar såna:
06:35
an entirely segregated society --
138
395394
2975
Tänk er ett helt segregerat samhälle -
06:40
racially segregated, all towns, all neighborhoods
139
400067
3328
rassegregerat, i alla städer, i alla områden
06:43
and where we send the police only to the minority neighborhoods
140
403419
3037
och där vi bara skickar polisen till minoritetsområdena
06:46
to look for crime.
141
406480
1193
för brottsbekämpning.
06:48
The arrest data would be very biased.
142
408271
2219
Arresteringarna skulle vara väldigt fördomsfulla.
06:51
What if, on top of that, we found the data scientists
143
411671
2575
Tänk om, till råga på allt, vi fann dataanalytikerna
06:54
and paid the data scientists to predict where the next crime would occur?
144
414270
4161
och betalade dem för att tala om var nästa brott skulle ske?
06:59
Minority neighborhood.
145
419095
1487
I minoritetsområdena.
07:01
Or to predict who the next criminal would be?
146
421105
3125
Eller förutspå vem nästa brottsling är?
07:04
A minority.
147
424708
1395
Någon från en minoritet.
07:07
The data scientists would brag about how great and how accurate
148
427769
3541
Dataanalytikerna skulle skryta om hur bra och tillförlitlig
07:11
their model would be,
149
431334
1297
deras modell skulle vara,
07:12
and they'd be right.
150
432655
1299
och de skulle ha rätt.
07:15
Now, reality isn't that drastic, but we do have severe segregations
151
435771
4615
Nu är verkligheten inte så drastisk, men vi har allvarlig segregation
07:20
in many cities and towns,
152
440410
1287
i många städer och områden,
07:21
and we have plenty of evidence
153
441721
1893
och vi har gott om bevis
07:23
of biased policing and justice system data.
154
443638
2688
om fördomsfullt polisarbete och skev straffrättslig data.
07:27
And we actually do predict hotspots,
155
447452
2815
Vi förutspår faktiskt hotspots,
07:30
places where crimes will occur.
156
450291
1530
platser där brott kan ske.
07:32
And we do predict, in fact, the individual criminality,
157
452221
3866
Faktum är, att vi förutspår individers kriminalitet,
07:36
the criminality of individuals.
158
456111
1770
individers brottsbenägenhet.
07:38
The news organization ProPublica recently looked into
159
458792
3963
Nyhetsorganisationen ProPublica undersökte för en tid sedan
07:42
one of those "recidivism risk" algorithms,
160
462779
2024
en av algoritmerna för "återfallsrisk",
07:44
as they're called,
161
464827
1163
som de kallas,
07:46
being used in Florida during sentencing by judges.
162
466014
3194
och som används i Florida när domar ska avkunnas.
07:50
Bernard, on the left, the black man, was scored a 10 out of 10.
163
470231
3585
Bernard, mannen till vänster, fick 10 poäng av 10 möjliga.
07:54
Dylan, on the right, 3 out of 10.
164
474999
2007
Dylan, till höger, 3 poäng av 10 möjliga.
07:57
10 out of 10, high risk. 3 out of 10, low risk.
165
477030
2501
10 av 10, hög risk. 3 av 10, låg risk.
08:00
They were both brought in for drug possession.
166
480418
2385
Båda anhölls för droginnehav.
08:02
They both had records,
167
482827
1154
Båda var dömda tidigare,
08:04
but Dylan had a felony
168
484005
2806
men Dylan hade begått ett grovt brott
08:06
but Bernard didn't.
169
486835
1176
vilket Bernard inte hade.
08:09
This matters, because the higher score you are,
170
489638
3066
Det här har betydelse, för ju högre poäng man har,
08:12
the more likely you're being given a longer sentence.
171
492728
3473
desto troligare är det att man får ett längre straff.
08:18
What's going on?
172
498114
1294
Vad är det som händer?
08:20
Data laundering.
173
500346
1332
Datatvätt.
08:22
It's a process by which technologists hide ugly truths
174
502750
4427
Det är en process där tekniker gömmer fula sanningar
08:27
inside black box algorithms
175
507201
1821
inuti automatiska algoritmer
08:29
and call them objective;
176
509046
1290
som de kallar objektiva;
08:31
call them meritocratic.
177
511140
1568
kallar meritokratiska.
08:34
When they're secret, important and destructive,
178
514938
2385
När de är hemliga, viktiga och destruktiva,
08:37
I've coined a term for these algorithms:
179
517347
2487
myntade jag ett begrepp för dem:
08:39
"weapons of math destruction."
180
519858
1999
"matte-förstörelsevapen."
08:41
(Laughter)
181
521881
1564
(Skratt)
08:43
(Applause)
182
523469
3054
(Applåder)
08:46
They're everywhere, and it's not a mistake.
183
526547
2354
De finns överallt, och det är inte ett misstag.
08:49
These are private companies building private algorithms
184
529515
3723
Det här är privata företag som skapar privata algoritmer
08:53
for private ends.
185
533262
1392
för privata syften.
08:55
Even the ones I talked about for teachers and the public police,
186
535034
3214
Även de för lärare och poliser som jag pratat om,
08:58
those were built by private companies
187
538272
1869
byggdes av privata företag
09:00
and sold to the government institutions.
188
540165
2231
och såldes till statliga myndigheter.
09:02
They call it their "secret sauce" --
189
542420
1873
De kallar dem "hemliga recept" -
09:04
that's why they can't tell us about it.
190
544317
2128
det är därför de inte kan berätta om dem.
09:06
It's also private power.
191
546469
2220
Det är också privat makt.
09:09
They are profiting for wielding the authority of the inscrutable.
192
549744
4695
De skor sig genom att utöva sin ogenomträngliga makt.
09:16
Now you might think, since all this stuff is private
193
556934
2934
Nu kanske du tänker att eftersom allt det här är privat
09:19
and there's competition,
194
559892
1158
och fri konkurrens råder,
09:21
maybe the free market will solve this problem.
195
561074
2306
kommer marknaden kanske lösa problemen.
09:23
It won't.
196
563404
1249
Det gör den inte.
09:24
There's a lot of money to be made in unfairness.
197
564677
3120
Det finns mycket pengar att tjäna på orättvisa.
09:28
Also, we're not economic rational agents.
198
568947
3369
Dessutom, är vi inte ekonomiskt rationella varelser.
09:32
We all are biased.
199
572851
1292
Alla har vi fördomar.
09:34
We're all racist and bigoted in ways that we wish we weren't,
200
574780
3377
Alla är vi rasister och bigotta på sätt som vi önskar att vi inte var,
09:38
in ways that we don't even know.
201
578181
2019
på sätt vi inte ens vet att vi är.
09:41
We know this, though, in aggregate,
202
581172
3081
Det här vet vi dock,
09:44
because sociologists have consistently demonstrated this
203
584277
3220
eftersom sociologer konsekvent visat det
09:47
with these experiments they build,
204
587521
1665
genom olika expriment,
09:49
where they send a bunch of applications to jobs out,
205
589210
2568
där de skickar jobbansökningar,
09:51
equally qualified but some have white-sounding names
206
591802
2501
alla lika kvalificerade men några har "vita" namn
09:54
and some have black-sounding names,
207
594327
1706
och några har "svarta" namn,
09:56
and it's always disappointing, the results -- always.
208
596057
2694
och resultaten är alltid en besvikelse - alltid.
09:59
So we are the ones that are biased,
209
599330
1771
Vi är alltså de som är fördomsfulla,
10:01
and we are injecting those biases into the algorithms
210
601125
3429
och vi lägger in fördomarna i algoritmerna
10:04
by choosing what data to collect,
211
604578
1812
genom att välja datan vi samlar in,
10:06
like I chose not to think about ramen noodles --
212
606414
2743
så som jag valde att inte ta med japanska nudlar.
10:09
I decided it was irrelevant.
213
609181
1625
Jag bestämde att de var oviktiga.
10:10
But by trusting the data that's actually picking up on past practices
214
610830
5684
Men genom att lita på data som bygger på tidigare erfarenheter
10:16
and by choosing the definition of success,
215
616538
2014
och välja definitionen av framgång,
10:18
how can we expect the algorithms to emerge unscathed?
216
618576
3983
hur kan vi då förvänta oss att algoritmerna är harmlösa?
10:22
We can't. We have to check them.
217
622583
2356
Det kan vi inte. Vi måste kontrollera dem.
10:25
We have to check them for fairness.
218
625985
1709
Vi måste kolla att de är rättvisa.
10:27
The good news is, we can check them for fairness.
219
627718
2711
Den goda nyheten är att vi kan kolla rättvisan i dem.
10:30
Algorithms can be interrogated,
220
630453
3352
Algoritmer kan ifrågasättas,
10:33
and they will tell us the truth every time.
221
633829
2034
och de talar om sanningen varenda gång.
10:35
And we can fix them. We can make them better.
222
635887
2493
Vi kan rätta till dem. Vi kan förbättra dem.
10:38
I call this an algorithmic audit,
223
638404
2375
Jag kallar det för revision av algoritmer,
10:40
and I'll walk you through it.
224
640803
1679
och jag ska förklara.
10:42
First, data integrity check.
225
642506
2196
Först, integritetskontroll av datat.
10:45
For the recidivism risk algorithm I talked about,
226
645952
2657
För algoritmen för återfallsrisk som jag pratade om,
10:49
a data integrity check would mean we'd have to come to terms with the fact
227
649402
3573
skulle en integritetstest betyda att vi behöver ta tag i det faktum
10:52
that in the US, whites and blacks smoke pot at the same rate
228
652999
3526
att i USA, röker vita och svarta maruijana i samma utsträckning
10:56
but blacks are far more likely to be arrested --
229
656549
2485
men svarta löper större risk att arresteras -
10:59
four or five times more likely, depending on the area.
230
659058
3184
fyra till fem gånger högre risk beroende på område.
11:03
What is that bias looking like in other crime categories,
231
663137
2826
Hur ser den fördomen ut i andra brottskategorier
11:05
and how do we account for it?
232
665987
1451
och hur hanterar vi det?
11:07
Second, we should think about the definition of success,
233
667982
3039
Två, vi borde tänka över hur vi definierar framgång,
11:11
audit that.
234
671045
1381
granska det.
11:12
Remember -- with the hiring algorithm? We talked about it.
235
672450
2752
Kommer ni ihåg -
anställningsalgoritmen vi pratade om?
11:15
Someone who stays for four years and is promoted once?
236
675226
3165
Någon som stannar fyra år och befordras en gång?
11:18
Well, that is a successful employee,
237
678415
1769
Ja, det är en framgångsrik person,
11:20
but it's also an employee that is supported by their culture.
238
680208
3079
men det är också någon som stöttas av företagskulturen.
11:23
That said, also it can be quite biased.
239
683909
1926
Som sagt, även det kan vara partiskt.
11:25
We need to separate those two things.
240
685859
2065
Vi måste skilja på de här två sakerna.
11:27
We should look to the blind orchestra audition
241
687948
2426
Vi bör titta på blindrekrytering till orkestrar som ett exempel.
11:30
as an example.
242
690398
1196
11:31
That's where the people auditioning are behind a sheet.
243
691618
2756
I en sådan är den sökande bakom en skärm.
11:34
What I want to think about there
244
694766
1931
Det jag vill framhålla är
11:36
is the people who are listening have decided what's important
245
696721
3417
att de som lyssnar har bestämt vad som är viktigt
11:40
and they've decided what's not important,
246
700162
2029
och vad som är oviktigt
11:42
and they're not getting distracted by that.
247
702215
2059
och de distraheras inte av det.
11:44
When the blind orchestra auditions started,
248
704781
2749
När den här typen av rekryteringar startade,
11:47
the number of women in orchestras went up by a factor of five.
249
707554
3444
steg andelen kvinnor i orkestrarna femfalt.
11:52
Next, we have to consider accuracy.
250
712073
2015
Sen måste vi överväga tillförlitligheten.
11:55
This is where the value-added model for teachers would fail immediately.
251
715053
3734
Det är här mervärdesmodellen för lärare skulle misslyckas omedelbart.
11:59
No algorithm is perfect, of course,
252
719398
2162
Självklart är ingen algoritm perfekt,
12:02
so we have to consider the errors of every algorithm.
253
722440
3605
så vi måste överväga felen i varje algoritm.
12:06
How often are there errors, and for whom does this model fail?
254
726656
4359
Hur ofta förekommer fel och för vem misslyckas modellen?
12:11
What is the cost of that failure?
255
731670
1718
Vad är kostnaden för de felen?
12:14
And finally, we have to consider
256
734254
2207
Slutligen, måste vi överväga
12:17
the long-term effects of algorithms,
257
737793
2186
de långsiktiga effekterna av algoritmerna,
12:20
the feedback loops that are engendering.
258
740686
2207
och feedbacken som de medför.
12:23
That sounds abstract,
259
743406
1236
Det låter abstrakt,
12:24
but imagine if Facebook engineers had considered that
260
744666
2664
men tänk om Facebooks ingenjörer övervägt det här
12:28
before they decided to show us only things that our friends had posted.
261
748090
4855
innan de bestämde sig för att bara visa oss det våra vänner lagt upp.
12:33
I have two more messages, one for the data scientists out there.
262
753581
3234
Jag har ytterligare två budskap, ett för dataanalytikerna där ute.
12:37
Data scientists: we should not be the arbiters of truth.
263
757270
3409
Dataanalytiker: Vi bör inte vara sanningens skiljedomare.
12:41
We should be translators of ethical discussions that happen
264
761340
3783
Vi bör vara översättare av de etiska diskussioner som sker
12:45
in larger society.
265
765147
1294
i samhället i stort.
12:47
(Applause)
266
767399
2133
(Applåder)
12:49
And the rest of you,
267
769556
1556
Och ni andra,
12:51
the non-data scientists:
268
771831
1396
som inte är dataanalytiker:
12:53
this is not a math test.
269
773251
1498
Det här är inte ett matteprov.
12:55
This is a political fight.
270
775452
1348
Det här är en politisk kamp.
12:58
We need to demand accountability for our algorithmic overlords.
271
778407
3907
Vi måste kräva ansvarsskyldighet från våra algoritmiska överherrar.
13:03
(Applause)
272
783938
1499
(Applåder)
13:05
The era of blind faith in big data must end.
273
785461
4225
Tiden när vi trodde blint på big data måste få ett slut.
13:09
Thank you very much.
274
789710
1167
Tack så mycket.
13:10
(Applause)
275
790901
5303
(Applåder)
Om denna webbplats

På den här webbplatsen hittar du YouTube-videor som är användbara för att lära sig engelska. Du kommer att få se engelska lektioner som ges av förstklassiga lärare från hela världen. Dubbelklicka på de engelska undertexterna som visas på varje videosida för att spela upp videon därifrån. Undertexterna rullar i takt med videouppspelningen. Om du har några kommentarer eller önskemål kan du kontakta oss via detta kontaktformulär.

https://forms.gle/WvT1wiN1qDtmnspy7