How I'm fighting bias in algorithms | Joy Buolamwini

312,131 views ・ 2017-03-29

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: esra alantepe Gözden geçirme: Suleyman Cengiz
00:12
Hello, I'm Joy, a poet of code,
0
12861
3134
Merhaba ben kodlar şairi Joy
00:16
on a mission to stop an unseen force that's rising,
1
16019
4993
görünmez bir gücün yükselişini durdurma görevindeyim,
00:21
a force that I called "the coded gaze,"
2
21036
2856
algoritmik yanlılık için kullandığım
00:23
my term for algorithmic bias.
3
23916
3309
"kodlu bakış" adını verdiğim bir güç.
00:27
Algorithmic bias, like human bias, results in unfairness.
4
27249
4300
Algoritmik yanlılık, insan yanlılığı gibi, adaletsizlikle sonuçlanır.
00:31
However, algorithms, like viruses, can spread bias on a massive scale
5
31573
6022
Ama algoritmalar virüsler gibi büyük çapta
00:37
at a rapid pace.
6
37619
1582
ve hızda yanlılığı yayabilirler.
00:39
Algorithmic bias can also lead to exclusionary experiences
7
39763
4387
Algoritmik yanlılık dışlayıcı deneyimlere
00:44
and discriminatory practices.
8
44174
2128
ve ayrımcı uygulamalara yol açabilir.
00:46
Let me show you what I mean.
9
46326
2061
Ne demek istediğimi göstereyim.
00:48
(Video) Joy Buolamwini: Hi, camera. I've got a face.
10
48800
2436
(Video) Joy Boulamwini: Selam kamera. Bir yüzüm var.
00:51
Can you see my face?
11
51982
1864
Yüzümü görebiliyor musunuz?
00:53
No-glasses face?
12
53871
1625
Gözlüksüz yüzüm?
00:55
You can see her face.
13
55521
2214
Onun yüzünü görebilirsin.
00:58
What about my face?
14
58057
2245
Ya benimkini?
01:03
I've got a mask. Can you see my mask?
15
63710
3750
Maskem var. Maskemi görebiliyor musun?
01:08
Joy Buolamwini: So how did this happen?
16
68294
2365
Joy Boulamwini: Bu nasıl oldu?
01:10
Why am I sitting in front of a computer
17
70683
3141
Neden bilgisayarın önünde bir beyaz maske
01:13
in a white mask,
18
73848
1424
ile oturuyor ve ucuz bir kamera
01:15
trying to be detected by a cheap webcam?
19
75296
3650
tarafından algılanmaya çalışıyorum?
01:18
Well, when I'm not fighting the coded gaze
20
78970
2291
Kod şairi olarak kodlu bakış ile
01:21
as a poet of code,
21
81285
1520
savaşmadığımda
01:22
I'm a graduate student at the MIT Media Lab,
22
82829
3272
MIT Medya Lab'ında lisanüstü öğrencisiyim
01:26
and there I have the opportunity to work on all sorts of whimsical projects,
23
86125
4917
ve her tür garip projede çalışma şansım var.
01:31
including the Aspire Mirror,
24
91066
2027
Buna yaptığım Aspire Mirror da dâhil.
01:33
a project I did so I could project digital masks onto my reflection.
25
93117
5134
Sayesinde yansımamın üzerine dijital maskeler tasarlayabilirim.
01:38
So in the morning, if I wanted to feel powerful,
26
98275
2350
Sabah eğer güçlü hissetmek istersem,
01:40
I could put on a lion.
27
100649
1434
bir aslanı takabilirim.
01:42
If I wanted to be uplifted, I might have a quote.
28
102107
3496
Sevinçli olmak istiyorsam, bir alıntı yapabilirim.
01:45
So I used generic facial recognition software
29
105627
2989
Sistemi oluşturmak için genel yüz tanıma
01:48
to build the system,
30
108640
1351
yazılımını kullandım.
01:50
but found it was really hard to test it unless I wore a white mask.
31
110015
5103
Ama beyaz bir maske takmadıkça sistemi test etmek gerçekten zordu.
01:56
Unfortunately, I've run into this issue before.
32
116102
4346
Maalesef bu sorunla daha önce karşılaştım.
02:00
When I was an undergraduate at Georgia Tech studying computer science,
33
120472
4303
Georgia Tech de bilgisayar bilimleri okurken,
02:04
I used to work on social robots,
34
124799
2055
sosyal robotlar üzerinde çalıştım
02:06
and one of my tasks was to get a robot to play peek-a-boo,
35
126878
3777
ve görevlerimden biri ce-ee oynayan bir robot yapmaktı.
02:10
a simple turn-taking game
36
130679
1683
Partnerlerinizin yüzlerini kapayıp
02:12
where partners cover their face and then uncover it saying, "Peek-a-boo!"
37
132386
4321
sonra açıp ce-ee dedikleri bir oyun.
02:16
The problem is, peek-a-boo doesn't really work if I can't see you,
38
136731
4429
Problem şu ki sizi göremezsem ce-ee işe yaramaz
02:21
and my robot couldn't see me.
39
141184
2499
ve robotum beni göremiyordu.
02:23
But I borrowed my roommate's face to get the project done,
40
143707
3950
Projeyi tamamlamak için arkadaşımın yüzünü ödünç aldım,
02:27
submitted the assignment,
41
147681
1380
ödevimi sundum ve bu sorunu
02:29
and figured, you know what, somebody else will solve this problem.
42
149085
3753
başkasının çözeceğini varsaydım.
02:33
Not too long after,
43
153489
2003
Daha sonra Hong Kong'da
02:35
I was in Hong Kong for an entrepreneurship competition.
44
155516
4159
bir girişimcilik yarışmasına katıldım.
02:40
The organizers decided to take participants
45
160159
2694
Organizatörler yarışmacıların başlangıç
02:42
on a tour of local start-ups.
46
162877
2372
turuna katılmasına karar verdi.
02:45
One of the start-ups had a social robot,
47
165273
2715
Yarışmacılardan birinin sosyal robotu vardı
02:48
and they decided to do a demo.
48
168012
1912
ve demo yapmaya karar verdi.
02:49
The demo worked on everybody until it got to me,
49
169948
2980
Demo bana gelene kadar işe yaradı
02:52
and you can probably guess it.
50
172952
1923
ve ne olduğunu tahmin edebilirsiniz.
02:54
It couldn't detect my face.
51
174899
2965
Robot yüzümü algılayamadı.
02:57
I asked the developers what was going on,
52
177888
2511
Geliştiricisine ne olduğunu sordum
03:00
and it turned out we had used the same generic facial recognition software.
53
180423
5533
ve fark ettik ki aynı genel yüz tanıma yazılımını kullanıyormuşuz.
03:05
Halfway around the world,
54
185980
1650
Dünyanın öbür ucunda
03:07
I learned that algorithmic bias can travel as quickly
55
187654
3852
algoritmik yanlılığın internetten dosya indirmek kadar
03:11
as it takes to download some files off of the internet.
56
191530
3170
hızlı yolculuk yaptığını öğrendim.
03:15
So what's going on? Why isn't my face being detected?
57
195565
3076
Yani ne oluyor? Neden beni algılamıyor?
03:18
Well, we have to look at how we give machines sight.
58
198665
3356
Makinelere nasıl görme yetisi verdiğimize göz atmalıyız.
03:22
Computer vision uses machine learning techniques
59
202045
3409
Bilgisayar görüşü yüzü tanımlamak için
03:25
to do facial recognition.
60
205478
1880
makine öğrenme tekniklerini kullanır.
03:27
So how this works is, you create a training set with examples of faces.
61
207382
3897
Bunun çalışma şekli sizin yüz örnekleriyle eğitim seti oluşturmanızdır.
03:31
This is a face. This is a face. This is not a face.
62
211303
2818
Bu bir yüz. Bu bir yüz. Bu bir yüz değil.
03:34
And over time, you can teach a computer how to recognize other faces.
63
214145
4519
Zamanla bilgisayara diğer yüzleri nasıl tanımlayacağını öğretirsiniz.
03:38
However, if the training sets aren't really that diverse,
64
218688
3989
Fakat eğitim seti kapsamlı değilse
03:42
any face that deviates too much from the established norm
65
222701
3349
sabit normdan çok fazla sapan bir yüzü
03:46
will be harder to detect,
66
226074
1649
tanımlamak zor olacaktır.
03:47
which is what was happening to me.
67
227747
1963
Bana olduğu gibi.
03:49
But don't worry -- there's some good news.
68
229734
2382
Ama merak etmeyin - iyi haberlerim var.
03:52
Training sets don't just materialize out of nowhere.
69
232140
2771
Eğitim setleri bir anda ortaya çıkmaz.
03:54
We actually can create them.
70
234935
1788
Aslında biz onları yaratabiliriz.
03:56
So there's an opportunity to create full-spectrum training sets
71
236747
4176
Yani insanlığın daha zengin portresini
04:00
that reflect a richer portrait of humanity.
72
240947
3824
çıkaran tam spektrumlu eğitim seti oluşturabiliriz.
04:04
Now you've seen in my examples
73
244795
2221
Şimdi örneklerimde sosyal robotlar
04:07
how social robots
74
247040
1768
sayesinde algoritmik dışlanmayı
04:08
was how I found out about exclusion with algorithmic bias.
75
248832
4611
nasıl ortaya çıkardığımı gördünüz.
04:13
But algorithmic bias can also lead to discriminatory practices.
76
253467
4815
Ama algoritmik yanlılık ayrımcı uygulamalara da yol açabilir.
04:19
Across the US,
77
259257
1453
ABD çapında, polis merkezleri
04:20
police departments are starting to use facial recognition software
78
260734
4198
suçla mücadele cephaneliklerinde
04:24
in their crime-fighting arsenal.
79
264956
2459
yüz tanıma yazılımını kullanmaya başladı.
04:27
Georgetown Law published a report
80
267439
2013
Georgetown Yasası ABD'de iki yetişkinden
04:29
showing that one in two adults in the US -- that's 117 million people --
81
269476
6763
birinin - 117 milyon insanın- yüz tanıma
04:36
have their faces in facial recognition networks.
82
276263
3534
ağında yüzlerinin bulunduğunu açıkladı.
04:39
Police departments can currently look at these networks unregulated,
83
279821
4552
Polis merkezleri doğrulukları denetlenmemiş
04:44
using algorithms that have not been audited for accuracy.
84
284397
4286
algoritmalar kullanarak bu ağları izinsiz görebilir.
04:48
Yet we know facial recognition is not fail proof,
85
288707
3864
Biliyoruz ki yüz tanıma yanılmaz değil
04:52
and labeling faces consistently remains a challenge.
86
292595
4179
ve yüzlerin tutarlı etiketlenmesi hâlâ bir sorun.
04:56
You might have seen this on Facebook.
87
296798
1762
Bunu Facebook da görmüş olabilirsiniz.
04:58
My friends and I laugh all the time when we see other people
88
298584
2988
Arkadaşlarımla diğer insanların yanlış
05:01
mislabeled in our photos.
89
301596
2458
etiketlendiğini gördüğümüzde gülüyoruz.
05:04
But misidentifying a suspected criminal is no laughing matter,
90
304078
5591
Şüpheli bir suçluyu yanlış tanımlamak gülünç bir mesele
05:09
nor is breaching civil liberties.
91
309693
2827
veya sivil özgürlükleri ihlal değil.
05:12
Machine learning is being used for facial recognition,
92
312544
3205
Makine öğrenme yüz tanımada kullanılır
05:15
but it's also extending beyond the realm of computer vision.
93
315773
4505
ama bilgisayar görüş alanının ötesine de uzanıyor.
05:21
In her book, "Weapons of Math Destruction,"
94
321086
4016
Veri bilimcisi Cathy O'Neil
05:25
data scientist Cathy O'Neil talks about the rising new WMDs --
95
325126
6681
"Matemetiksel İmha Silahları" kitabında, hayatımızın
05:31
widespread, mysterious and destructive algorithms
96
331831
4353
daha çok boyutunu etkileyen kararlar
05:36
that are increasingly being used to make decisions
97
336208
2964
almak için kullanılan yaygın, gizemli ve yıkıcı
05:39
that impact more aspects of our lives.
98
339196
3177
algoritmalarla KİS'lerden bahsediyor.
05:42
So who gets hired or fired?
99
342397
1870
Peki işe alınan ya da kovulan kim?
05:44
Do you get that loan? Do you get insurance?
100
344291
2112
O krediyi alıyor musun? Sigortan var mı?
05:46
Are you admitted into the college you wanted to get into?
101
346427
3503
Girmek istediğin üniversiteye kabul edildin mi?
05:49
Do you and I pay the same price for the same product
102
349954
3509
Aynı platformda satın alınan aynı ürün için
05:53
purchased on the same platform?
103
353487
2442
sen ve ben aynı fiyatı mı ödüyoruz?
05:55
Law enforcement is also starting to use machine learning
104
355953
3759
Güvenlik polisi öngörücü polislik için
05:59
for predictive policing.
105
359736
2289
otomatik öğrenmeyi kullanmaya başlıyor.
06:02
Some judges use machine-generated risk scores to determine
106
362049
3494
Bazı hakimler hapis cezasını
06:05
how long an individual is going to spend in prison.
107
365567
4402
belirlemek için makine üretimli risk puanlarını kullanıyor.
06:09
So we really have to think about these decisions.
108
369993
2454
Bu kararları gerçekten düşünmek zorundayız.
06:12
Are they fair?
109
372471
1182
Adiller mi?
06:13
And we've seen that algorithmic bias
110
373677
2890
Gördük ki algoritmik yanlılık her zaman
06:16
doesn't necessarily always lead to fair outcomes.
111
376591
3374
adil sonuçlar getirmez.
06:19
So what can we do about it?
112
379989
1964
Peki biz ne yapabiliriz?
06:21
Well, we can start thinking about how we create more inclusive code
113
381977
3680
Daha kapsamlı kod oluşturup kapsamlı kod uygulamalarını
06:25
and employ inclusive coding practices.
114
385681
2990
nasıl kullandığımızı düşünebiliriz.
06:28
It really starts with people.
115
388695
2309
Bu, insanlarla başlar.
06:31
So who codes matters.
116
391528
1961
Yani kimin kodladığı önemlidir.
06:33
Are we creating full-spectrum teams with diverse individuals
117
393513
4119
Birbirlerinin kör noktalarını görebilen farklı kişilerle tam spektrumlu
06:37
who can check each other's blind spots?
118
397656
2411
takımlar oluşturabiliyor muyuz?
06:40
On the technical side, how we code matters.
119
400091
3545
Teknik olarak, nasıl kodladığımız önemli.
06:43
Are we factoring in fairness as we're developing systems?
120
403660
3651
Sistemi geliştirirken adaletle mi oluşturuyoruz?
06:47
And finally, why we code matters.
121
407335
2913
Son olarak niçin kodladığımız önemlidir.
06:50
We've used tools of computational creation to unlock immense wealth.
122
410605
5083
Harika zenginliğin kilidini açmak için işlemsel yaratma araçlarını kullandık.
06:55
We now have the opportunity to unlock even greater equality
123
415712
4447
Sosyal değişimi sonraki düşünce değil,
07:00
if we make social change a priority
124
420183
2930
öncelik hâline getirirsek daha geniş
07:03
and not an afterthought.
125
423137
2170
eşitliği açma fırsatımız olur.
07:05
And so these are the three tenets that will make up the "incoding" movement.
126
425828
4522
"Incoding" hareketini oluşturan gerekli üç ilke var:
07:10
Who codes matters,
127
430374
1652
Kimin kodladığı,
07:12
how we code matters
128
432050
1543
nasıl kodladığı
07:13
and why we code matters.
129
433617
2023
ve niçin kodladığı.
07:15
So to go towards incoding, we can start thinking about
130
435664
3099
Incoding'e yönelmek için benim paylaştıklarım
07:18
building platforms that can identify bias
131
438787
3164
gibi insanların deneyimlerini toplayarak
07:21
by collecting people's experiences like the ones I shared,
132
441975
3078
yanlılığı belirleyen ve var olan yazılımı
07:25
but also auditing existing software.
133
445077
3070
denetleyen platformlar oluşturmayı düşünmeye başlayabiliriz.
07:28
We can also start to create more inclusive training sets.
134
448171
3765
Ayrıca daha kapsamlı eğitim setleri hazırlayabiliriz.
07:31
Imagine a "Selfies for Inclusion" campaign
135
451960
2803
Geliştiricilerin daha kapsamlı eğitim setleri oluşturmasına
07:34
where you and I can help developers test and create
136
454787
3655
ve deneyebilmesine yardım ettiğimiz "Kaynaşmak için Özçekimler"
07:38
more inclusive training sets.
137
458466
2093
kampanyasını düşünün.
07:41
And we can also start thinking more conscientiously
138
461122
2828
Ve şu an geliştirdiğimiz teknolojinin toplumsal etkileri
07:43
about the social impact of the technology that we're developing.
139
463974
5391
konusunda daha vicdani düşünmeye başlayabiliriz.
07:49
To get the incoding movement started,
140
469389
2393
Incoding hareketini başlatmak için
07:51
I've launched the Algorithmic Justice League,
141
471806
2847
adaletle ilgilenen birinin kodlu bakışla savaşabileceği
07:54
where anyone who cares about fairness can help fight the coded gaze.
142
474677
5872
Algoritmik Adalet Ligi'ni başlattım.
08:00
On codedgaze.com, you can report bias,
143
480573
3296
codedgaze.com'da yanlılığı bildirebilir,
08:03
request audits, become a tester
144
483893
2445
denetleme isteyebilir, deneyen olabilir,
08:06
and join the ongoing conversation,
145
486362
2771
süren tartışmalara katılabilirsiniz,
08:09
#codedgaze.
146
489157
2287
#codedgaze
08:12
So I invite you to join me
147
492562
2487
Sizi dâhil olmaya ve merkez sosyal değişime
değer verdiğimiz ve teknolojinin sadece bir kısım için değil,
08:15
in creating a world where technology works for all of us,
148
495073
3719
08:18
not just some of us,
149
498816
1897
herkes için işe yaradığı
08:20
a world where we value inclusion and center social change.
150
500737
4588
bir dünyaya davet ediyorum.
08:25
Thank you.
151
505349
1175
Teşekkürler.
08:26
(Applause)
152
506548
4271
(Alkış)
08:32
But I have one question:
153
512693
2854
Bir sorum var.
08:35
Will you join me in the fight?
154
515571
2059
Bu savaşta benimle misiniz?
08:37
(Laughter)
155
517654
1285
(Gülüşmeler)
08:38
(Applause)
156
518963
3687
(Alkış)
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7