How I'm fighting bias in algorithms | Joy Buolamwini

312,131 views ・ 2017-03-29

TED


Bitte doppelklicken Sie auf die englischen Untertitel unten, um das Video abzuspielen.

Übersetzung: Angelika Lueckert Leon
00:12
Hello, I'm Joy, a poet of code,
0
12861
3134
Hallo, ich bin Joy, eine Poetin des Codes,
00:16
on a mission to stop an unseen force that's rising,
1
16019
4993
auf einer Mission, eine unbemerkte, aufstrebende Macht aufzuhalten.
00:21
a force that I called "the coded gaze,"
2
21036
2856
Diese Macht nannte ich den "programmierten Blick".
00:23
my term for algorithmic bias.
3
23916
3309
Das ist mein Begriff für algorithmische Vorurteile.
00:27
Algorithmic bias, like human bias, results in unfairness.
4
27249
4300
Algorithmische sowie menschliche Vorurteile führen zu Ungerechtigkeit.
00:31
However, algorithms, like viruses, can spread bias on a massive scale
5
31573
6022
Trotzdem können Algorithmen, wie Viren, Vorurteile massiv verbreiten,
00:37
at a rapid pace.
6
37619
1582
mit rasanter Geschwindigkeit.
00:39
Algorithmic bias can also lead to exclusionary experiences
7
39763
4387
Algorithmische Vorurteile können auch zu Erfahrungen des Ausschlusses
00:44
and discriminatory practices.
8
44174
2128
und diskriminierendem Verhalten führen.
00:46
Let me show you what I mean.
9
46326
2061
Ich zeige Ihnen, was ich meine.
00:48
(Video) Joy Buolamwini: Hi, camera. I've got a face.
10
48800
2436
(Video) Joy Buolamwini: Hi, Kamera. Ich habe ein Gesicht.
00:51
Can you see my face?
11
51982
1864
Kannst du mein Gesicht sehen?
00:53
No-glasses face?
12
53871
1625
Mein Gesicht ohne Brille?
00:55
You can see her face.
13
55521
2214
Du kannst ihr Gesicht sehen.
00:58
What about my face?
14
58057
2245
Was ist mit meinem Gesicht?
01:03
I've got a mask. Can you see my mask?
15
63710
3750
Ich habe eine Maske. Kannst du meine Maske sehen?
01:08
Joy Buolamwini: So how did this happen?
16
68294
2365
JB: Wie konnte das passieren?
01:10
Why am I sitting in front of a computer
17
70683
3141
Wieso sitze ich vor einem Computer,
01:13
in a white mask,
18
73848
1424
trage eine weiße Maske und versuche,
01:15
trying to be detected by a cheap webcam?
19
75296
3650
von einer billigen Webcam erkannt zu werden?
01:18
Well, when I'm not fighting the coded gaze
20
78970
2291
Wenn ich nicht gerade den programmierten Blick
01:21
as a poet of code,
21
81285
1520
als Poetin des Codes bekämpfe,
01:22
I'm a graduate student at the MIT Media Lab,
22
82829
3272
dann bin ich Masterstudentin am MIT Media Lab
01:26
and there I have the opportunity to work on all sorts of whimsical projects,
23
86125
4917
und habe dort die Möglichkeit, an verschiedensten, wunderlichen Projekten,
01:31
including the Aspire Mirror,
24
91066
2027
u. a. dem "Aspire Mirror", zu arbeiten,
01:33
a project I did so I could project digital masks onto my reflection.
25
93117
5134
einem Projekt, das digitale Masken auf mein Spiegelbild projiziert.
01:38
So in the morning, if I wanted to feel powerful,
26
98275
2350
Wenn ich mich in der Früh mächtig fühlen wollte,
01:40
I could put on a lion.
27
100649
1434
projizierte ich einen Löwen.
01:42
If I wanted to be uplifted, I might have a quote.
28
102107
3496
Wenn ich aufgemuntert werden wollte, erschien vielleicht ein Zitat.
01:45
So I used generic facial recognition software
29
105627
2989
Deshalb verwendete ich eine gewöhnliche Software für Gesichtserkennung,
01:48
to build the system,
30
108640
1351
um das System zu erstellen.
01:50
but found it was really hard to test it unless I wore a white mask.
31
110015
5103
Es war aber sehr schwierig zu testen, außer wenn ich eine weiße Maske trug.
01:56
Unfortunately, I've run into this issue before.
32
116102
4346
Unglücklicherweise ist mir dieses Problem schon einmal begegnet.
02:00
When I was an undergraduate at Georgia Tech studying computer science,
33
120472
4303
Als ich Informatik im Bachelor an der Georgia Tech studierte,
02:04
I used to work on social robots,
34
124799
2055
arbeitete ich mit sozialen Robotern.
02:06
and one of my tasks was to get a robot to play peek-a-boo,
35
126878
3777
Eine meiner Aufgaben war es, mit einem Roboter Kuckuck zu spielen.
02:10
a simple turn-taking game
36
130679
1683
Das ist ein einfaches Wechselspiel,
02:12
where partners cover their face and then uncover it saying, "Peek-a-boo!"
37
132386
4321
bei dem man das Gesicht zudeckt und beim Aufdecken "Kuckuck!" sagt.
02:16
The problem is, peek-a-boo doesn't really work if I can't see you,
38
136731
4429
Allerdings funktioniert das Kuckuckspiel nicht, wenn man sich nicht sieht,
02:21
and my robot couldn't see me.
39
141184
2499
und mein Roboter konnte mich nicht sehen.
02:23
But I borrowed my roommate's face to get the project done,
40
143707
3950
Um das Projekt abzuschließen, verwendete ich das Gesicht meines Mitbewohners,
02:27
submitted the assignment,
41
147681
1380
schickte die Aufgabe ab
02:29
and figured, you know what, somebody else will solve this problem.
42
149085
3753
und dachte mir: "Weißt du was, jemand anderes wird das Problem lösen."
02:33
Not too long after,
43
153489
2003
Relativ kurz danach
02:35
I was in Hong Kong for an entrepreneurship competition.
44
155516
4159
war ich in Hongkong für einen Unternehmer-Wettbewerb.
02:40
The organizers decided to take participants
45
160159
2694
Die Organisatoren beschlossen,
02:42
on a tour of local start-ups.
46
162877
2372
den Teilnehmenden örtliche Start-ups zu zeigen.
02:45
One of the start-ups had a social robot,
47
165273
2715
Eines dieser Start-ups hatte einen sozialen Roboter,
02:48
and they decided to do a demo.
48
168012
1912
den sie demonstrieren wollten.
02:49
The demo worked on everybody until it got to me,
49
169948
2980
Die Demonstration funktionierte bei jedem bis auf mich.
02:52
and you can probably guess it.
50
172952
1923
Sie können wahrscheinlich erraten wieso.
02:54
It couldn't detect my face.
51
174899
2965
Er konnte mein Gesicht nicht erkennen.
02:57
I asked the developers what was going on,
52
177888
2511
Ich fragte die Entwickler, was los sei.
03:00
and it turned out we had used the same generic facial recognition software.
53
180423
5533
Es zeigte sich, dass wir dieselbe Software zur Gesichtserkennung benutzt hatten.
03:05
Halfway around the world,
54
185980
1650
Auf der anderen Seite der Welt erkannte ich,
03:07
I learned that algorithmic bias can travel as quickly
55
187654
3852
dass sich algorithmische Voreingenommenheit
03:11
as it takes to download some files off of the internet.
56
191530
3170
bereits während eines simplen Downloads verbreiten kann.
03:15
So what's going on? Why isn't my face being detected?
57
195565
3076
Also was ist da los? Warum wird mein Gesicht nicht erkannt?
03:18
Well, we have to look at how we give machines sight.
58
198665
3356
Wir müssen uns anschauen, wie wir Maschinen das Sehen beibringen.
03:22
Computer vision uses machine learning techniques
59
202045
3409
Computergestütztes Sehen verwendet maschinelles Lernen,
03:25
to do facial recognition.
60
205478
1880
um Gesichter zu erkennen.
03:27
So how this works is, you create a training set with examples of faces.
61
207382
3897
Dabei erstellt man ein Trainingsset mit Gesichterbeispielen.
03:31
This is a face. This is a face. This is not a face.
62
211303
2818
Das ist ein Gesicht. Das auch. Das ist kein Gesicht.
03:34
And over time, you can teach a computer how to recognize other faces.
63
214145
4519
Im Laufe der Zeit kann man einem Computer beibringen, andere Gesichter zu erkennen.
03:38
However, if the training sets aren't really that diverse,
64
218688
3989
Wenn die Trainingssets allerdings nicht sehr diversifiziert sind,
03:42
any face that deviates too much from the established norm
65
222701
3349
dann sind Gesichter, die zu stark von der erstellten Norm abweichen,
03:46
will be harder to detect,
66
226074
1649
schwieriger zu erkennen.
03:47
which is what was happening to me.
67
227747
1963
Das ist genau das, was mir passiert ist.
03:49
But don't worry -- there's some good news.
68
229734
2382
Aber machen Sie sich keine Sorgen -- es gibt gute Nachrichten.
03:52
Training sets don't just materialize out of nowhere.
69
232140
2771
Trainingssets tauchen nicht aus dem Nichts auf.
03:54
We actually can create them.
70
234935
1788
Wir erstellen sie.
03:56
So there's an opportunity to create full-spectrum training sets
71
236747
4176
Also gibt es die Möglichkeit, inklusive Trainingssets zu erstellen,
04:00
that reflect a richer portrait of humanity.
72
240947
3824
die ein breitgefächerteres Bild der Menschheit widerspiegeln.
04:04
Now you've seen in my examples
73
244795
2221
Jetzt haben Sie anhand meiner Beispiele gesehen,
04:07
how social robots
74
247040
1768
wie soziale Roboter dazu geführt haben,
04:08
was how I found out about exclusion with algorithmic bias.
75
248832
4611
dass ich von der Exklusion durch algorithmische Vorurteile erfuhr.
04:13
But algorithmic bias can also lead to discriminatory practices.
76
253467
4815
Algorithmische Vorurteile können zu diskriminierendem Verhalten führen.
04:19
Across the US,
77
259257
1453
Überall in den USA beginnt die Polizei, als Teil ihrer Kriminalitätsbekäpfung
04:20
police departments are starting to use facial recognition software
78
260734
4198
04:24
in their crime-fighting arsenal.
79
264956
2459
Software zur Gesichtserkennung zu verwenden.
04:27
Georgetown Law published a report
80
267439
2013
Georgetown Law zeigte in einem Bericht,
04:29
showing that one in two adults in the US -- that's 117 million people --
81
269476
6763
dass einer von zwei erwachsenen US-Bürgern -- das sind 117 Mio. Menschen --
04:36
have their faces in facial recognition networks.
82
276263
3534
bereits in Datenbanken zur Gesichtserkennung erfasst ist.
04:39
Police departments can currently look at these networks unregulated,
83
279821
4552
Polizeikommissariate können zurzeit uneingeschränkt auf diese zugreifen
04:44
using algorithms that have not been audited for accuracy.
84
284397
4286
und benutzen dabei Algorithmen, die nicht auf Genauigkeit überprüft wurden.
04:48
Yet we know facial recognition is not fail proof,
85
288707
3864
Dennoch wissen wir, dass Gesichtserkennung nicht fehlerfrei ist
04:52
and labeling faces consistently remains a challenge.
86
292595
4179
und dass Gesichter zuzuordnen immer noch eine Herausforderung ist.
04:56
You might have seen this on Facebook.
87
296798
1762
Vielleicht haben Sie das auf Facebook gesehen.
04:58
My friends and I laugh all the time when we see other people
88
298584
2988
Meine Freund und ich lachen immer, wenn andere Leute
05:01
mislabeled in our photos.
89
301596
2458
fälschlicherweise auf unseren Fotos markiert werden.
05:04
But misidentifying a suspected criminal is no laughing matter,
90
304078
5591
Aber jemanden fälschlicherweise zu verdächtigen, ist nicht zum Lachen,
05:09
nor is breaching civil liberties.
91
309693
2827
sondern verstößt gegen Bürgerrechte.
05:12
Machine learning is being used for facial recognition,
92
312544
3205
Maschinelles Lernen wird für Gesichtserkennung,
05:15
but it's also extending beyond the realm of computer vision.
93
315773
4505
aber auch über den Bereich von computergestütztem Sehen hinaus verwendet.
05:21
In her book, "Weapons of Math Destruction,"
94
321086
4016
In ihrem Buch "Waffen der Mathezerstörung"
05:25
data scientist Cathy O'Neil talks about the rising new WMDs --
95
325126
6681
schreibt Datenforscherin Cathy O'Neil über neue Massenvernichtungswaffen --
05:31
widespread, mysterious and destructive algorithms
96
331831
4353
verbreitete, mysteriöse und zerstörerische Algorithmen,
05:36
that are increasingly being used to make decisions
97
336208
2964
die zunehmend dazu verwendet werden, Entscheidungen zu treffen,
05:39
that impact more aspects of our lives.
98
339196
3177
die viele Teile unseres Lebens betreffen.
05:42
So who gets hired or fired?
99
342397
1870
Etwa wer eingestellt oder gefeuert wird.
05:44
Do you get that loan? Do you get insurance?
100
344291
2112
Bekommen Sie einen Kredit? Oder eine Versicherung?
05:46
Are you admitted into the college you wanted to get into?
101
346427
3503
Werden Sie an der Uni, an der Sie studieren wollen, angenommen?
05:49
Do you and I pay the same price for the same product
102
349954
3509
Bezahlen Sie und ich denselben Preis für dasselbe Produkt,
05:53
purchased on the same platform?
103
353487
2442
das wir auf derselben Website gekauft haben?
05:55
Law enforcement is also starting to use machine learning
104
355953
3759
Die Strafverfolgung beginnt auch, maschinelles Lernen
05:59
for predictive policing.
105
359736
2289
für Predictive Policing einzusetzen.
Manche Richter benutzen maschinell generierte Risikoraten, um festzusetzen,
06:02
Some judges use machine-generated risk scores to determine
106
362049
3494
06:05
how long an individual is going to spend in prison.
107
365567
4402
wie lange eine bestimmte Person im Gefängnis bleiben wird.
06:09
So we really have to think about these decisions.
108
369993
2454
Deshalb müssen wir wirklich über diese Entscheidungen nachdenken.
06:12
Are they fair?
109
372471
1182
Sind sie fair?
06:13
And we've seen that algorithmic bias
110
373677
2890
Wir haben gesehen, dass algorithmische Vorurteile
06:16
doesn't necessarily always lead to fair outcomes.
111
376591
3374
nicht unbedingt zu fairen Ergebnissen führen.
06:19
So what can we do about it?
112
379989
1964
Was können wir dagegen tun?
06:21
Well, we can start thinking about how we create more inclusive code
113
381977
3680
Wir können darüber nachdenken, wie man inklusiveren Code schreibt
06:25
and employ inclusive coding practices.
114
385681
2990
und Programmiertechniken nutzt, die inklusiver sind.
06:28
It really starts with people.
115
388695
2309
Es fängt bei den Menschen an.
06:31
So who codes matters.
116
391528
1961
Es spielt eine Rolle, wer programmiert.
06:33
Are we creating full-spectrum teams with diverse individuals
117
393513
4119
Erstellen wir inklusive Teams aus diversifizierten Individuen,
06:37
who can check each other's blind spots?
118
397656
2411
die gegenseitig ihre toten Winkel überprüfen können?
06:40
On the technical side, how we code matters.
119
400091
3545
In Hinblick auf die Technik spielt es eine Rolle, wie programmiert wird.
06:43
Are we factoring in fairness as we're developing systems?
120
403660
3651
Berücksichtigen wir Fairness beim Entwickeln von Systemen?
06:47
And finally, why we code matters.
121
407335
2913
"Warum" wir programmieren, spielt auch eine Rolle.
06:50
We've used tools of computational creation to unlock immense wealth.
122
410605
5083
Wir haben durch computergestütztes Design enormen Wohlstand geschaffen.
06:55
We now have the opportunity to unlock even greater equality
123
415712
4447
Nun haben wir die Möglichkeit, noch größere Gleichheit zu schaffen,
07:00
if we make social change a priority
124
420183
2930
wenn wir sozialen Wandel als Priorität
07:03
and not an afterthought.
125
423137
2170
und nicht als Nachtrag behandeln.
07:05
And so these are the three tenets that will make up the "incoding" movement.
126
425828
4522
Das sind also die drei Grundsätze der "Incoding"-Bewegung.
07:10
Who codes matters,
127
430374
1652
Es ist wichtig, wer programmiert,
07:12
how we code matters
128
432050
1543
wie programmiert wird,
07:13
and why we code matters.
129
433617
2023
und warum wir programmieren.
07:15
So to go towards incoding, we can start thinking about
130
435664
3099
Auf dem Weg zu "Incoding" müssen wir darüber nachdenken,
07:18
building platforms that can identify bias
131
438787
3164
Plattformen, die Vorurteile erkennen können, zu schaffen,
07:21
by collecting people's experiences like the ones I shared,
132
441975
3078
mit Hilfe von Erfahrungen, wie z. B. meinen,
07:25
but also auditing existing software.
133
445077
3070
aber auch bereits existierende Software zu überprüfen.
07:28
We can also start to create more inclusive training sets.
134
448171
3765
Wir können auch damit beginnen, inklusivere Trainingssets zu erstellen.
07:31
Imagine a "Selfies for Inclusion" campaign
135
451960
2803
Stellen Sie sich etwa eine Kampagne "Selfies für Inklusion" vor,
07:34
where you and I can help developers test and create
136
454787
3655
bei der Sie und ich den Entwicklern beim Testen und Entwickeln
07:38
more inclusive training sets.
137
458466
2093
inklusiverer Trainingssets helfen können.
07:41
And we can also start thinking more conscientiously
138
461122
2828
Wir können auch bewusster über die sozialen Auswirkungen
07:43
about the social impact of the technology that we're developing.
139
463974
5391
der Technologien, die wir entwickeln, nachdenken.
Um die "Incoding"-Bewegung zu starten,
07:49
To get the incoding movement started,
140
469389
2393
07:51
I've launched the Algorithmic Justice League,
141
471806
2847
gründete ich die "Algorithmic Justice Leage".
07:54
where anyone who cares about fairness can help fight the coded gaze.
142
474677
5872
Jeder kann dabei helfen, den programmierten Blick zu bekämpfen.
08:00
On codedgaze.com, you can report bias,
143
480573
3296
Auf codedgaze.com können Sie über Voreingenommenheit berichten,
08:03
request audits, become a tester
144
483893
2445
Überprüfungen verlangen, zum Tester werden
08:06
and join the ongoing conversation,
145
486362
2771
und bei laufenden Debatten mitreden,
08:09
#codedgaze.
146
489157
2287
#codedgaze.
08:12
So I invite you to join me
147
492562
2487
Ich lade Sie dazu ein, sich mir anzuschließen
08:15
in creating a world where technology works for all of us,
148
495073
3719
und eine Welt zu schaffen, in der Technologie für uns alle,
08:18
not just some of us,
149
498816
1897
und nicht nur für manche, funktioniert,
08:20
a world where we value inclusion and center social change.
150
500737
4588
eine Welt, in der Inklusion wertgeschätzt und soziale Veränderung im Zentrum steht.
08:25
Thank you.
151
505349
1175
Danke.
08:26
(Applause)
152
506548
4271
(Applaus)
08:32
But I have one question:
153
512693
2854
Ich habe eine Frage:
08:35
Will you join me in the fight?
154
515571
2059
Werden Sie sich mir anschließen?
08:37
(Laughter)
155
517654
1285
(Gelächter)
08:38
(Applause)
156
518963
3687
(Applaus)
Über diese Website

Auf dieser Seite finden Sie YouTube-Videos, die zum Englischlernen nützlich sind. Sie sehen Englischlektionen, die von hochkarätigen Lehrern aus der ganzen Welt unterrichtet werden. Doppelklicken Sie auf die englischen Untertitel, die auf jeder Videoseite angezeigt werden, um das Video von dort aus abzuspielen. Die Untertitel laufen synchron mit der Videowiedergabe. Wenn Sie irgendwelche Kommentare oder Wünsche haben, kontaktieren Sie uns bitte über dieses Kontaktformular.

https://forms.gle/WvT1wiN1qDtmnspy7