How I'm fighting bias in algorithms | Joy Buolamwini

312,131 views ・ 2017-03-29

TED


Dubbelklicka på de engelska undertexterna nedan för att spela upp videon.

Översättare: Anette Smedberg Granskare: Lisbeth Pekkari
00:12
Hello, I'm Joy, a poet of code,
0
12861
3134
Hej, jag är Joy, jag är poet i kod,
00:16
on a mission to stop an unseen force that's rising,
1
16019
4993
med uppdrag att stoppa en osynlig kraft som vaknat,
00:21
a force that I called "the coded gaze,"
2
21036
2856
en kraft som jag kallar "den kodade blicken,"
00:23
my term for algorithmic bias.
3
23916
3309
min term för fördomar i algoritmer.
00:27
Algorithmic bias, like human bias, results in unfairness.
4
27249
4300
Algoritmiska fördomar, precis som mänskliga, resulterar i orättvisa.
00:31
However, algorithms, like viruses, can spread bias on a massive scale
5
31573
6022
Men, algoritmer kan, precis som virus, sprida fördomar i stor skala
00:37
at a rapid pace.
6
37619
1582
och i snabb takt.
00:39
Algorithmic bias can also lead to exclusionary experiences
7
39763
4387
Fördomar i algoritmer kan också leda till att människor sållas bort
00:44
and discriminatory practices.
8
44174
2128
och till diskriminerande praxis.
00:46
Let me show you what I mean.
9
46326
2061
Låt mig visa vad jag menar.
00:48
(Video) Joy Buolamwini: Hi, camera. I've got a face.
10
48800
2436
(Video) Joy Buolamwini: Hej, kamera. Jag har ett ansikte.
00:51
Can you see my face?
11
51982
1864
Kan du se mitt ansikte?
00:53
No-glasses face?
12
53871
1625
Utan glasögon?
00:55
You can see her face.
13
55521
2214
Du kan se hennes ansikte.
00:58
What about my face?
14
58057
2245
Mitt ansikte då?
01:03
I've got a mask. Can you see my mask?
15
63710
3750
Jag har en mask. Kan du se min mask?
01:08
Joy Buolamwini: So how did this happen?
16
68294
2365
Joy Buolamwini: Hur hände det här?
01:10
Why am I sitting in front of a computer
17
70683
3141
Varför sitter jag framför en dator
01:13
in a white mask,
18
73848
1424
med en vit mask,
01:15
trying to be detected by a cheap webcam?
19
75296
3650
och försöker få en billig webbkamera att upptäcka mig?
01:18
Well, when I'm not fighting the coded gaze
20
78970
2291
Jo, när jag inte slåss mot den kodade blicken,
01:21
as a poet of code,
21
81285
1520
som en poet i kod,
01:22
I'm a graduate student at the MIT Media Lab,
22
82829
3272
är jag doktorand på MIT Media Lab,
01:26
and there I have the opportunity to work on all sorts of whimsical projects,
23
86125
4917
och där har jag möjlighet att arbeta i en massa egendomliga projekt,
01:31
including the Aspire Mirror,
24
91066
2027
inklusive Aspire Mirror,
01:33
a project I did so I could project digital masks onto my reflection.
25
93117
5134
ett projekt jag startade för att projicera digitala masker på min spegelbild.
01:38
So in the morning, if I wanted to feel powerful,
26
98275
2350
Så på morgonen, när jag ville känna mig stark,
01:40
I could put on a lion.
27
100649
1434
kunde jag projicera ett lejon,
01:42
If I wanted to be uplifted, I might have a quote.
28
102107
3496
Om jag ville peppa mig själv, projicerade jag kanske ett citat.
01:45
So I used generic facial recognition software
29
105627
2989
Jag använde mjukvara för generisk ansiktsigenkänning
01:48
to build the system,
30
108640
1351
för att bygga systemet,
01:50
but found it was really hard to test it unless I wore a white mask.
31
110015
5103
men upptäckte att det var väldigt svårt att testa om jag inte bar en vit mask.
01:56
Unfortunately, I've run into this issue before.
32
116102
4346
Tyvärr har jag upplevt det här bekymret tidigare.
02:00
When I was an undergraduate at Georgia Tech studying computer science,
33
120472
4303
När jag studerade datavetenskap på Georgia Institute of Technology,
02:04
I used to work on social robots,
34
124799
2055
brukade jag arbeta med mänskliga robotar,
02:06
and one of my tasks was to get a robot to play peek-a-boo,
35
126878
3777
och en av mina uppgifter var att få roboten att leka tittut,
02:10
a simple turn-taking game
36
130679
1683
en enkel lek mellan två personer
02:12
where partners cover their face and then uncover it saying, "Peek-a-boo!"
37
132386
4321
där man täcker sina ansikten och sedan visar dem och säger "Tittut!"
02:16
The problem is, peek-a-boo doesn't really work if I can't see you,
38
136731
4429
Problemet är att tittut inte fungerar om man inte ser varandra,
02:21
and my robot couldn't see me.
39
141184
2499
och min robot kunde inte se mig.
02:23
But I borrowed my roommate's face to get the project done,
40
143707
3950
Men jag lånade min rumskamrats ansikte för att göra klart projektet,
02:27
submitted the assignment,
41
147681
1380
lämnade in uppgiften,
02:29
and figured, you know what, somebody else will solve this problem.
42
149085
3753
och tänkte, vet ni vad, någon annan kommer att lösa problemet.
02:33
Not too long after,
43
153489
2003
Inte så långt därefter,
02:35
I was in Hong Kong for an entrepreneurship competition.
44
155516
4159
var jag i Hong Kong och deltog i en tävling för entreprenörer.
02:40
The organizers decided to take participants
45
160159
2694
Organisatörerna tog med deltagarna
02:42
on a tour of local start-ups.
46
162877
2372
på en rundtur bland lokala startup-företag.
02:45
One of the start-ups had a social robot,
47
165273
2715
Ett av dessa hade en mänsklig robot,
02:48
and they decided to do a demo.
48
168012
1912
och de ville köra en demo.
02:49
The demo worked on everybody until it got to me,
49
169948
2980
Demon fungerade på alla tills den kom till mig,
02:52
and you can probably guess it.
50
172952
1923
och ni kan säkert gissa varför.
02:54
It couldn't detect my face.
51
174899
2965
Den kunde inte upptäcka mitt ansikte.
02:57
I asked the developers what was going on,
52
177888
2511
Jag frågade utvecklarna vad som hänt,
03:00
and it turned out we had used the same generic facial recognition software.
53
180423
5533
och det visade sig att de använt samma mjukvara för ansiktsigenkänning som jag.
03:05
Halfway around the world,
54
185980
1650
På andra sidan jordklotet,
03:07
I learned that algorithmic bias can travel as quickly
55
187654
3852
lärde jag mig att fördomsfulla algoritmer kan färdas lika snabbt
03:11
as it takes to download some files off of the internet.
56
191530
3170
som det tar att ladda ner några filer från internet.
03:15
So what's going on? Why isn't my face being detected?
57
195565
3076
Vad är det som pågår? Varför upptäcks inte mitt ansikte?
03:18
Well, we have to look at how we give machines sight.
58
198665
3356
Jo, vi måste titta på hur vi ger maskinerna syn.
03:22
Computer vision uses machine learning techniques
59
202045
3409
Datorigenkänning använder maskininlärningsteknik
03:25
to do facial recognition.
60
205478
1880
för att känna igen ansikten.
03:27
So how this works is, you create a training set with examples of faces.
61
207382
3897
Så här fungerar det, du skapar en modell med exempel på olika ansikten.
03:31
This is a face. This is a face. This is not a face.
62
211303
2818
Här är ett ansikte, och ett till. Detta är inte ett ansikte.
03:34
And over time, you can teach a computer how to recognize other faces.
63
214145
4519
Över tid, kan du lära datorn att upptäcka andra ansikten.
03:38
However, if the training sets aren't really that diverse,
64
218688
3989
Men, om modellen inte speglar mångfalden tillräckligt mycket,
03:42
any face that deviates too much from the established norm
65
222701
3349
kommer ansikten som skiljer sig för mycket från den fastställda normen
03:46
will be harder to detect,
66
226074
1649
bli svårare att upptäcka,
03:47
which is what was happening to me.
67
227747
1963
vilket var det som hände mig.
03:49
But don't worry -- there's some good news.
68
229734
2382
Men oroa er inte - det finns något gott i det.
03:52
Training sets don't just materialize out of nowhere.
69
232140
2771
Träningsmodellerna kommer inte från ingenstans.
03:54
We actually can create them.
70
234935
1788
Vi kan faktiskt skapa dem.
03:56
So there's an opportunity to create full-spectrum training sets
71
236747
4176
Det finns möjligheter att skapa heltäckande modeller
04:00
that reflect a richer portrait of humanity.
72
240947
3824
som skapar en djupare bild av mänskligheten.
04:04
Now you've seen in my examples
73
244795
2221
Som ni sett i mina exempel
04:07
how social robots
74
247040
1768
var mänskliga robotar anledningen
04:08
was how I found out about exclusion with algorithmic bias.
75
248832
4611
till att jag upptäckte exkluderingen med fördomsfulla algoritmer.
04:13
But algorithmic bias can also lead to discriminatory practices.
76
253467
4815
Men fördomar i algoritmer kan också leda till diskriminerande normer.
04:19
Across the US,
77
259257
1453
Över hela USA,
04:20
police departments are starting to use facial recognition software
78
260734
4198
har polismyndigheterna börjat använda mjukvara för ansiktsigenkänning
04:24
in their crime-fighting arsenal.
79
264956
2459
som ett bland andra redskap för brottsbekämpning.
04:27
Georgetown Law published a report
80
267439
2013
Georgetown Law publicerade en rapport
04:29
showing that one in two adults in the US -- that's 117 million people --
81
269476
6763
som visade att varannan vuxen i USA - det är 117 miljoner människor -
04:36
have their faces in facial recognition networks.
82
276263
3534
har sina ansikten registrerade i nätverk för ansiktsigenkänning.
04:39
Police departments can currently look at these networks unregulated,
83
279821
4552
Polisyndigheterna kan använda de här nätverken helt oreglerat,
04:44
using algorithms that have not been audited for accuracy.
84
284397
4286
genom att använda algoritmer vars tillförlitlighet inte granskats.
04:48
Yet we know facial recognition is not fail proof,
85
288707
3864
Trots att vi vet att ansiktsigenkänning inte är tillförlitlig,
04:52
and labeling faces consistently remains a challenge.
86
292595
4179
och att kunna kategorisera ansikten fortfarande är en utmaning.
04:56
You might have seen this on Facebook.
87
296798
1762
Du har kanske sett det på Facebook.
04:58
My friends and I laugh all the time when we see other people
88
298584
2988
Mina vänner och jag skrattar varje gång vi ser andra
05:01
mislabeled in our photos.
89
301596
2458
som blivit felaktigt taggade i våra bilder.
05:04
But misidentifying a suspected criminal is no laughing matter,
90
304078
5591
Men att felaktigt identifiera en misstänkt kriminell är inget att skratta åt,
05:09
nor is breaching civil liberties.
91
309693
2827
inte heller att åsidosätta de mänskliga rättigheterna.
05:12
Machine learning is being used for facial recognition,
92
312544
3205
Maskininlärning används för ansiktsigenkänning,
05:15
but it's also extending beyond the realm of computer vision.
93
315773
4505
men den används också inom andra områden.
05:21
In her book, "Weapons of Math Destruction,"
94
321086
4016
I boken "Weapons of Math Destruction,"
05:25
data scientist Cathy O'Neil talks about the rising new WMDs --
95
325126
6681
skriver forskaren Cathy O´Neil om de framväxande UMD:na -
05:31
widespread, mysterious and destructive algorithms
96
331831
4353
utbredda, mystiska och destruktiva algoritmer
05:36
that are increasingly being used to make decisions
97
336208
2964
som i ökande utsträckning används för att ta beslut
05:39
that impact more aspects of our lives.
98
339196
3177
som påverkar fler och fler aspekter i våra liv.
05:42
So who gets hired or fired?
99
342397
1870
Vem blir anställd eller sparkad?
05:44
Do you get that loan? Do you get insurance?
100
344291
2112
Får du ta lån? Får du teckna försäkringar?
05:46
Are you admitted into the college you wanted to get into?
101
346427
3503
Kommer du in på det universitet du vill?
05:49
Do you and I pay the same price for the same product
102
349954
3509
Betalar du och jag samma pris för samma produkt
05:53
purchased on the same platform?
103
353487
2442
köpt på samma sätt?
05:55
Law enforcement is also starting to use machine learning
104
355953
3759
Lagstiftningen börjar också använda maskininlärning
05:59
for predictive policing.
105
359736
2289
i förebyggande polisarbete.
06:02
Some judges use machine-generated risk scores to determine
106
362049
3494
Vissa domare använder maskingenererade riskbedömningar för att besluta
06:05
how long an individual is going to spend in prison.
107
365567
4402
hur långa fängelsestraff som ska utdömas.
06:09
So we really have to think about these decisions.
108
369993
2454
Vi behöver verkligen fundera över de här besluten.
06:12
Are they fair?
109
372471
1182
Är de rättvisa?
06:13
And we've seen that algorithmic bias
110
373677
2890
Vi har sett att fördomarna i algoritmerna
06:16
doesn't necessarily always lead to fair outcomes.
111
376591
3374
inte nödvändigtvis leder till rättvisa resultat.
06:19
So what can we do about it?
112
379989
1964
Så vad kan vi göra?
06:21
Well, we can start thinking about how we create more inclusive code
113
381977
3680
Tja, vi kan börja fundera på hur vi skapar en mer inkluderande kod
06:25
and employ inclusive coding practices.
114
385681
2990
och använda en mer inkluderande praxis.
06:28
It really starts with people.
115
388695
2309
Det börjar med människor.
06:31
So who codes matters.
116
391528
1961
Så vem som programmerar har betydelse.
06:33
Are we creating full-spectrum teams with diverse individuals
117
393513
4119
Bygger vi arbetsgrupper med individer olika erfarenheter
06:37
who can check each other's blind spots?
118
397656
2411
som kan se utanför varandras skygglappar?
06:40
On the technical side, how we code matters.
119
400091
3545
På den tekniska sidan har det betydelse hur vi programmerar.
06:43
Are we factoring in fairness as we're developing systems?
120
403660
3651
Har vi med rättviseperspektivet när vi utvecklar system?
06:47
And finally, why we code matters.
121
407335
2913
Slutligen, varför vi programmerar har betydelse.
06:50
We've used tools of computational creation to unlock immense wealth.
122
410605
5083
Vi har använt datorkraft för beräkningar som skapat enorma rikedomar.
06:55
We now have the opportunity to unlock even greater equality
123
415712
4447
Nu har vi möjlighet att skapa ännu större jämlikhet
07:00
if we make social change a priority
124
420183
2930
om vi prioriterar sociala förändringar
07:03
and not an afterthought.
125
423137
2170
och inte tar dem i efterhand.
07:05
And so these are the three tenets that will make up the "incoding" movement.
126
425828
4522
De här tre principerna kommer att utgöra "inkodnings"-rörelsen.
07:10
Who codes matters,
127
430374
1652
Vem som kodar har betydelse,
07:12
how we code matters
128
432050
1543
hur vi kodar har betydelse
07:13
and why we code matters.
129
433617
2023
och varför vi kodar har betydelse.
07:15
So to go towards incoding, we can start thinking about
130
435664
3099
Så för att komma närmare inkodning kan vi börja fundera på
07:18
building platforms that can identify bias
131
438787
3164
att bygga plattformar som kan identifiera fördomar
07:21
by collecting people's experiences like the ones I shared,
132
441975
3078
genom att samla in folks erfarenheter som den jag pratade om,
07:25
but also auditing existing software.
133
445077
3070
men också genom att granska existerande mjukvara.
07:28
We can also start to create more inclusive training sets.
134
448171
3765
Vi kan också börja skapa mer inkluderande modeller.
07:31
Imagine a "Selfies for Inclusion" campaign
135
451960
2803
Tänk er en kampanj för "Selfies för inkludering"
07:34
where you and I can help developers test and create
136
454787
3655
där du och jag kan hjälpa utvecklarna testa och skapa
07:38
more inclusive training sets.
137
458466
2093
mer inkluderande modeller.
07:41
And we can also start thinking more conscientiously
138
461122
2828
Vi kan också börja tänka mer samvetsgrant
07:43
about the social impact of the technology that we're developing.
139
463974
5391
kring de sociala effekterna av tekniken som vi utvecklar.
07:49
To get the incoding movement started,
140
469389
2393
För att få fart på "inkodnings"-rörelsen,
07:51
I've launched the Algorithmic Justice League,
141
471806
2847
har jag lanserat Algorithmic Justice League,
07:54
where anyone who cares about fairness can help fight the coded gaze.
142
474677
5872
där alla som bryr sig om rättvisa kan hjälpa till att kämpa mot fördomsfull kod.
08:00
On codedgaze.com, you can report bias,
143
480573
3296
På www.codegaze.com, kan du rapportera partisk kod,
08:03
request audits, become a tester
144
483893
2445
begära granskningar, bli testare
08:06
and join the ongoing conversation,
145
486362
2771
och delta i den pågående diskussionen,
08:09
#codedgaze.
146
489157
2287
#codedgaze
08:12
So I invite you to join me
147
492562
2487
Jag bjuder in er till att ansluta er till mig
08:15
in creating a world where technology works for all of us,
148
495073
3719
i skapandet av en värld där tekniken fungerar för oss alla,
08:18
not just some of us,
149
498816
1897
inte bara för några av oss,
08:20
a world where we value inclusion and center social change.
150
500737
4588
en värld där vi värdesätter inkludering och fokuserar på social förändring.
08:25
Thank you.
151
505349
1175
Tack.
08:26
(Applause)
152
506548
4271
(Applåder)
08:32
But I have one question:
153
512693
2854
Men jag har en fråga:
08:35
Will you join me in the fight?
154
515571
2059
Kommer ni att ansluta er till kampen?
08:37
(Laughter)
155
517654
1285
(Skratt)
08:38
(Applause)
156
518963
3687
(Applåder)
Om denna webbplats

På den här webbplatsen hittar du YouTube-videor som är användbara för att lära sig engelska. Du kommer att få se engelska lektioner som ges av förstklassiga lärare från hela världen. Dubbelklicka på de engelska undertexterna som visas på varje videosida för att spela upp videon därifrån. Undertexterna rullar i takt med videouppspelningen. Om du har några kommentarer eller önskemål kan du kontakta oss via detta kontaktformulär.

https://forms.gle/WvT1wiN1qDtmnspy7