The era of blind faith in big data must end | Cathy O'Neil

240,040 views ・ 2017-09-07

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Nail Kaplan Gözden geçirme: Cihan Ekmekçi
00:12
Algorithms are everywhere.
0
12795
1596
Algoritmalar her yerde.
00:15
They sort and separate the winners from the losers.
1
15931
3125
Kazananları kaybedenlerden ayırıyor.
00:19
The winners get the job
2
19839
2264
Kazananlar ya işi alıyor
00:22
or a good credit card offer.
3
22127
1743
ya da iyi bir kredi kartı teklifi.
00:23
The losers don't even get an interview
4
23894
2651
Kaybedenler iş görüşmesine bile çağrılmaz
00:27
or they pay more for insurance.
5
27410
1777
veya sigorta primi için daha fazla ödeme yaparlar.
00:30
We're being scored with secret formulas that we don't understand
6
30017
3549
Doğrulama sistemi olmayan, anlamadığımız
00:34
that often don't have systems of appeal.
7
34495
3217
gizli formülasyonlar ile puanlanıyoruz.
Burada şu soru akla geliyor:
00:39
That begs the question:
8
39060
1296
00:40
What if the algorithms are wrong?
9
40380
2913
Peki ya algoritmalar hatalıysa?
00:44
To build an algorithm you need two things:
10
44920
2040
Algoritma oluşturmak için 2 şey gerekli:
00:46
you need data, what happened in the past,
11
46984
1981
Geçmişte ne olduğunu gösteren veri,
00:48
and a definition of success,
12
48989
1561
o her zaman aradığınız
00:50
the thing you're looking for and often hoping for.
13
50574
2457
ve bulmayı umduğunuz başarı tanımına.
00:53
You train an algorithm by looking, figuring out.
14
53055
5037
Sonuca ulaşmak için algoritma çalıştırırsınız.
00:58
The algorithm figures out what is associated with success.
15
58116
3419
Algoritma başarı ile nelerin bağlantılı olduğunu keşfeder.
01:01
What situation leads to success?
16
61559
2463
Hangi durum başarıya ulaştırır?
01:04
Actually, everyone uses algorithms.
17
64701
1762
Aslında herkes algoritma kullanır.
01:06
They just don't formalize them in written code.
18
66487
2718
Sadece yazılı olarak formüle etmezler.
01:09
Let me give you an example.
19
69229
1348
Size bir örnek vereyim.
01:10
I use an algorithm every day to make a meal for my family.
20
70601
3316
Aileme yemek yapmak için her gün algoritma kullanırım.
01:13
The data I use
21
73941
1476
Kullandığım veri
01:16
is the ingredients in my kitchen,
22
76214
1659
mutfağımdaki malzemeler,
01:17
the time I have,
23
77897
1527
zaman,
01:19
the ambition I have,
24
79448
1233
tutkudur
01:20
and I curate that data.
25
80705
1709
ve bu verileri düzene koyarım.
01:22
I don't count those little packages of ramen noodles as food.
26
82438
4251
Bu arada, Japon erişte paketlerini yemekten saymıyorum.
01:26
(Laughter)
27
86713
1869
(Kahkahalar)
01:28
My definition of success is:
28
88606
1845
Başarı tanımım şudur:
01:30
a meal is successful if my kids eat vegetables.
29
90475
2659
Çocuklarım sebzeleri yerse yemeğim başarılıdır.
01:34
It's very different from if my youngest son were in charge.
30
94001
2854
En küçük oğluma sorulsaydı bu tanım farklı olurdu.
01:36
He'd say success is if he gets to eat lots of Nutella.
31
96879
2788
Onun başarı tanımı çok miktarda Nutella yemek.
01:40
But I get to choose success.
32
100999
2226
Ama başarıya ben ulaşmalıyım.
01:43
I am in charge. My opinion matters.
33
103249
2707
Bu iş benim sorumluluğumda. Görüşüm önemli.
01:45
That's the first rule of algorithms.
34
105980
2675
Bu, algoritmaların ilk kuralı.
01:48
Algorithms are opinions embedded in code.
35
108679
3180
Algoritmalar, kodların içine gömülmüş fikirlerdir.
01:53
It's really different from what you think most people think of algorithms.
36
113382
3663
İnsanların algoritmalar hakkındaki görüşlerinden farklı bir şey bu.
01:57
They think algorithms are objective and true and scientific.
37
117069
4504
İnsanlar algoritmaların tarafsız, doğru ve bilimsel olduğunu düşünür.
02:02
That's a marketing trick.
38
122207
1699
Bu bir pazarlama hilesi.
02:05
It's also a marketing trick
39
125089
2125
Algoritmalara güvenmeniz
02:07
to intimidate you with algorithms,
40
127238
3154
ve onlardan korkmanız için
02:10
to make you trust and fear algorithms
41
130416
3661
bir pazarlama hilesidir çünkü matematikten de korkarsınız
02:14
because you trust and fear mathematics.
42
134101
2018
ama sayılara güvenirsiniz.
02:17
A lot can go wrong when we put blind faith in big data.
43
137387
4830
Büyük veriye körü körüne inanırsak çok şey yanlış gidebilir.
02:23
This is Kiri Soares. She's a high school principal in Brooklyn.
44
143504
3373
Bu Kiri Soares. Brooklyn'de okul müdürü.
02:26
In 2011, she told me her teachers were being scored
45
146901
2586
2011'de öğretmenlerin 'katma değer modeli' adında
02:29
with a complex, secret algorithm
46
149511
2727
gizli, karışık bir algoritma ile
02:32
called the "value-added model."
47
152262
1489
puanlandıklarını söyledi.
02:34
I told her, "Well, figure out what the formula is, show it to me.
48
154325
3092
"Formülasyonu bana göster, sana içeriğini açıklayayım" dedim.
02:37
I'm going to explain it to you."
49
157441
1541
Cevap verdi: "Doğrusu formülasyonu almaya çalıştım
02:39
She said, "Well, I tried to get the formula,
50
159006
2141
02:41
but my Department of Education contact told me it was math
51
161171
2772
fakat eğitim birimi bana bunun matematiksel olduğunu
02:43
and I wouldn't understand it."
52
163967
1546
ve içeriğini anlamayacağımı söyledi".
02:47
It gets worse.
53
167086
1338
Daha kötüye gidiyor.
02:48
The New York Post filed a Freedom of Information Act request,
54
168448
3530
The New York Post, "Bilgiye Özgürlük Hareketi" kapsamındaki
02:52
got all the teachers' names and all their scores
55
172002
2959
talebi sonucu öğretmenlerin isim ve puanlarını temin edip
02:54
and they published them as an act of teacher-shaming.
56
174985
2782
adeta öğretmen ayıplama eylemi olarak sonuçları yayımladı.
02:58
When I tried to get the formulas, the source code, through the same means,
57
178904
3860
Aynı yollarla formül ve kaynak kodunu almaya çalıştığımda
03:02
I was told I couldn't.
58
182788
2149
bunu alamayacağım söylendi. Talebim reddedildi.
03:04
I was denied.
59
184961
1236
03:06
I later found out
60
186221
1174
Sonra New York'ta hiç kimsenin
03:07
that nobody in New York City had access to that formula.
61
187419
2866
bu formüle erişimi olmadığını öğrendim.
03:10
No one understood it.
62
190309
1305
Kimse içeriğini bilmiyor, anlamıyor.
03:13
Then someone really smart got involved, Gary Rubinstein.
63
193749
3224
Sonra Gary Rubinstein adında zeki biri olaya dâhil oldu.
03:16
He found 665 teachers from that New York Post data
64
196997
3621
Rubinstein, New York Post verisindeki 665 öğretmenin aslında iki tane
03:20
that actually had two scores.
65
200642
1866
yani mükerrer puanı olduğunu keşfetti.
03:22
That could happen if they were teaching
66
202532
1881
Bu ancak, öğretmenler 7 ve 8'inci sınıflara
03:24
seventh grade math and eighth grade math.
67
204437
2439
ders veriyor olsaydı oluşabilirdi.
03:26
He decided to plot them.
68
206900
1538
Rubinstein, sonuçların grafiğini çizdi.
03:28
Each dot represents a teacher.
69
208462
1993
Her nokta bir öğretmeni temsil ediyor.
03:30
(Laughter)
70
210924
2379
(Kahkahalar)
03:33
What is that?
71
213327
1521
Nedir bu?
03:34
(Laughter)
72
214872
1277
(Kahkahalar)
03:36
That should never have been used for individual assessment.
73
216173
3446
Bu asla kişileri değerlendirmek için kullanılmamalıydı.
03:39
It's almost a random number generator.
74
219643
1926
Tıpkı rasgele bir sayı üreticisi gibi.
03:41
(Applause)
75
221593
2946
(Alkışlar)
03:44
But it was.
76
224563
1162
Ama kullanıldı.
03:45
This is Sarah Wysocki.
77
225749
1176
Bu Sarah Wysocki.
03:46
She got fired, along with 205 other teachers,
78
226949
2175
Diğer 205 öğretmen ile birlikte
03:49
from the Washington, DC school district,
79
229148
2662
Washington'ta görevine son verildi.
03:51
even though she had great recommendations from her principal
80
231834
2909
Oysa okul müdürü ve veliler
03:54
and the parents of her kids.
81
234767
1428
kendisinden çok memnundu.
03:57
I know what a lot of you guys are thinking,
82
237210
2032
Burada başta yapay zeka uzmanları
03:59
especially the data scientists, the AI experts here.
83
239266
2487
ve veri bilimciler olmak üzere ne düşündüğünüzü biliyorum.
04:01
You're thinking, "Well, I would never make an algorithm that inconsistent."
84
241777
4226
Muhtemelen "Böyle tutarsız bir algoritma oluşturmazdım" diyorsunuz.
04:06
But algorithms can go wrong,
85
246673
1683
Oysa algoritmalar hatalı kurulabilir
04:08
even have deeply destructive effects with good intentions.
86
248380
4598
ve kötü niyetle oluşturulmasalar da yıkıcı sonuçları olabilir.
04:14
And whereas an airplane that's designed badly
87
254351
2379
Kötü tasarlanmış bir uçak
04:16
crashes to the earth and everyone sees it,
88
256754
2001
kaza yapar ve herkes hatayı görür,
04:18
an algorithm designed badly
89
258779
1850
oysa algoritma kötü tasarlandığında
04:22
can go on for a long time, silently wreaking havoc.
90
262065
3865
zarar vermeye sessizce, uzun süre devam edebilir.
04:27
This is Roger Ailes.
91
267568
1570
Bu Roger Ailes.
04:29
(Laughter)
92
269162
2000
(Kahkahalar)
04:32
He founded Fox News in 1996.
93
272344
2388
Fox News kanalını 1996'da kurdu.
04:35
More than 20 women complained about sexual harassment.
94
275256
2581
Kanalda 20'den fazla kadın taciz iddiasıyla şikayetçi oldu.
04:37
They said they weren't allowed to succeed at Fox News.
95
277861
3235
Haber kanalında başarıya ulaşmalarının engellendiğini söylediler.
04:41
He was ousted last year, but we've seen recently
96
281120
2520
Görevi geçen sene sonlandırıldı
04:43
that the problems have persisted.
97
283664
2670
ama problemlerin devam ettiğini öğrendik.
04:47
That begs the question:
98
287474
1400
Bu, şu soruyu akla getiriyor:
04:48
What should Fox News do to turn over another leaf?
99
288898
2884
Fox News, temiz bir sayfa açmak için ne yapmalı?
İşe alım süreçlerini makine öğrenmesine dayalı
04:53
Well, what if they replaced their hiring process
100
293065
3041
bir algoritma ile değiştirseler ne olur?
04:56
with a machine-learning algorithm?
101
296130
1654
04:57
That sounds good, right?
102
297808
1595
Kulağa iyi geliyor, değil mi?
04:59
Think about it.
103
299427
1300
Bir düşünün.
05:00
The data, what would the data be?
104
300751
2105
Veri ne olurdu?
05:02
A reasonable choice would be the last 21 years of applications to Fox News.
105
302880
4947
Son 21 yılda kanala yapılan iş başvuruları veri seçimi için
05:07
Reasonable.
106
307851
1502
mantıklı olur.
05:09
What about the definition of success?
107
309377
1938
Peki ya buradaki 'başarının tanımı' nedir?
05:11
Reasonable choice would be,
108
311741
1324
Makul bir karar şöyle olurdu;
05:13
well, who is successful at Fox News?
109
313089
1778
Fox News'da kim başarılı?
05:14
I guess someone who, say, stayed there for four years
110
314891
3580
Diyelim ki 4 sene orada kalmış,
05:18
and was promoted at least once.
111
318495
1654
en az 1 kez terfi almış kişiler.
05:20
Sounds reasonable.
112
320636
1561
Kulağa mantıklı geliyor.
05:22
And then the algorithm would be trained.
113
322221
2354
Sonra algoritma oluşturulurdu.
05:24
It would be trained to look for people to learn what led to success,
114
324599
3877
Kimlerin başarıya ulaştığını öğrenmek,
05:29
what kind of applications historically led to success
115
329039
4318
geçmişte ne tür başvuruların başarıya ulaştığını görmek için
05:33
by that definition.
116
333381
1294
algoritma oluşturulurdu.
Mevcut iş başvurularının bulunduğu havuza
05:36
Now think about what would happen
117
336020
1775
05:37
if we applied that to a current pool of applicants.
118
337819
2555
bu yöntem uygulansa ne olabilirdi, düşünün.
05:40
It would filter out women
119
340939
1629
Geçmişte başarılı olanlar gibi görünmeyen
05:43
because they do not look like people who were successful in the past.
120
343483
3930
kadınları filtreleyebilirdi.
05:51
Algorithms don't make things fair
121
351572
2537
Eğer sadece umarsızca
05:54
if you just blithely, blindly apply algorithms.
122
354133
2694
kör bir şekilde kullanırsanız
05:56
They don't make things fair.
123
356851
1482
algoritmalar süreçleri daha adil hale getirmez.
05:58
They repeat our past practices,
124
358357
2128
Geçmişteki uygulamalarımızı,
06:00
our patterns.
125
360509
1183
kalıplarımızı tekrarlar durur.
06:01
They automate the status quo.
126
361716
1939
Otomatikmen kalıcı hale gelir.
06:04
That would be great if we had a perfect world,
127
364538
2389
Mükemmel bir dünyada yaşasaydık bu iyi olurdu
06:07
but we don't.
128
367725
1312
fakat dünya mükemmel değil.
06:09
And I'll add that most companies don't have embarrassing lawsuits,
129
369061
4102
Şunu da söyleyeyim, pek çok şirketin yüz kızartıcı davası yoktur
06:14
but the data scientists in those companies
130
374266
2588
fakat veriyi takip etmeleri
06:16
are told to follow the data,
131
376878
2189
ve veriye odaklanmaları söylenen
06:19
to focus on accuracy.
132
379091
2143
veri bilimcileri vardır.
Bunun ne anlama geldiğini düşünün.
06:22
Think about what that means.
133
382093
1381
06:23
Because we all have bias, it means they could be codifying sexism
134
383498
4027
Çünkü hepimizin ön yargıları var, ki bu cinsiyetçiliği veya başka bir
06:27
or any other kind of bigotry.
135
387549
1836
ayrımcılığın kodlanabileceği anlamına gelebilir.
06:31
Thought experiment,
136
391308
1421
Düşünce deneyi yapalım
06:32
because I like them:
137
392753
1509
çünkü bunu seviyorum:
06:35
an entirely segregated society --
138
395394
2975
Tüm şehirler ve mahallelerinin ırk bakımından
06:40
racially segregated, all towns, all neighborhoods
139
400067
3328
ötekileştirildiği bir toplumda
06:43
and where we send the police only to the minority neighborhoods
140
403419
3037
polisler suç aramak için
06:46
to look for crime.
141
406480
1193
sadece azınlık mahallelerine gidiyor.
06:48
The arrest data would be very biased.
142
408271
2219
Yakalamalar epey taraflı olurdu.
06:51
What if, on top of that, we found the data scientists
143
411671
2575
Bu sürecin yönetiminde gelecek suçların nerede olacağını öngören
06:54
and paid the data scientists to predict where the next crime would occur?
144
414270
4161
ve maaş ödenen veri bilimcileri olsa ne olurdu?
06:59
Minority neighborhood.
145
419095
1487
Azınlık mahalleleri.
07:01
Or to predict who the next criminal would be?
146
421105
3125
Veya bir sonraki suçlunun kim olacağını öngörmek için?
07:04
A minority.
147
424708
1395
Bir azınlık.
07:07
The data scientists would brag about how great and how accurate
148
427769
3541
Veri bilimcileri, modellerinin ne kadar
iyi ve uygulanabilir olduğu konusunda
07:11
their model would be,
149
431334
1297
07:12
and they'd be right.
150
432655
1299
övünürlerdi ve haklı olurlardı da.
07:15
Now, reality isn't that drastic, but we do have severe segregations
151
435771
4615
Şu an gerçeklik bu kadar keskin değil, ama pek çok bölgede
07:20
in many cities and towns,
152
440410
1287
taraflı davranıldığını gösteren
07:21
and we have plenty of evidence
153
441721
1893
polis ve hukuk sistemi verisi
07:23
of biased policing and justice system data.
154
443638
2688
ayrımcılık yapıldığını gösteriyor.
07:27
And we actually do predict hotspots,
155
447452
2815
Aslına bakılırsa suçların meydana geleceği
07:30
places where crimes will occur.
156
450291
1530
sıcak bölgeleri öngörüyoruz.
07:32
And we do predict, in fact, the individual criminality,
157
452221
3866
Hatta bireysel suçluluk konusunda da
07:36
the criminality of individuals.
158
456111
1770
öngörü yapıyoruz.
07:38
The news organization ProPublica recently looked into
159
458792
3963
ProPublica isimli organizasyon
07:42
one of those "recidivism risk" algorithms,
160
462779
2024
Florida'da hakimlerce kullanılan,
07:44
as they're called,
161
464827
1163
'suçun tekrarlama riski' adı verilen
07:46
being used in Florida during sentencing by judges.
162
466014
3194
algoritmaya baktılar.
07:50
Bernard, on the left, the black man, was scored a 10 out of 10.
163
470231
3585
Algoritmada Bernard, soldaki siyah kişi, 10 üzerinden 10 puan aldı.
07:54
Dylan, on the right, 3 out of 10.
164
474999
2007
Dylan, sağdaki kişi, 10 üzerinden 3 puan.
07:57
10 out of 10, high risk. 3 out of 10, low risk.
165
477030
2501
10 üzerinden 10 yüksek risk. 10 üzerinden 3 düşük risk.
Her ikisi de uyuşturucu bulundurmaktan göz altına alındı.
08:00
They were both brought in for drug possession.
166
480418
2385
08:02
They both had records,
167
482827
1154
Her ikisinin de sabıka kaydı var.
08:04
but Dylan had a felony
168
484005
2806
Ama Dylan'ın ağır suçu varken
08:06
but Bernard didn't.
169
486835
1176
Bernard'ın yoktu.
08:09
This matters, because the higher score you are,
170
489638
3066
Bu önemli çünkü puan yükseldikçe
08:12
the more likely you're being given a longer sentence.
171
492728
3473
uzun süreli ceza alma ihtimali artıyor.
08:18
What's going on?
172
498114
1294
Neler oluyor?
08:20
Data laundering.
173
500346
1332
Veri manipülasyonu.
08:22
It's a process by which technologists hide ugly truths
174
502750
4427
Bu, teknoloji uzmanlarının çirkin gerçekleri kara kutulu algoritmalarla
08:27
inside black box algorithms
175
507201
1821
gizledikleri bir süreç.
08:29
and call them objective;
176
509046
1290
Bunun objektif
08:31
call them meritocratic.
177
511140
1568
ve ideal olduğunu söylüyorlar.
08:34
When they're secret, important and destructive,
178
514938
2385
Gizli, önemli ve yıkıcı sonuçları olan
08:37
I've coined a term for these algorithms:
179
517347
2487
algoritmalar için bir deyim türettim:
08:39
"weapons of math destruction."
180
519858
1999
"Matematiksel yıkım silahları"
08:41
(Laughter)
181
521881
1564
(Kahkahalar)
08:43
(Applause)
182
523469
3054
(Alkışlar)
08:46
They're everywhere, and it's not a mistake.
183
526547
2354
Bunlar her yerdeler ve her yerde olmaları hata sonucu değil.
08:49
These are private companies building private algorithms
184
529515
3723
Bunlar özel amaç için özel algoritmalar üreten
08:53
for private ends.
185
533262
1392
özel şirketler.
08:55
Even the ones I talked about for teachers and the public police,
186
535034
3214
Öğretmenler ve polisler ile ilgili söylediklerim bile
08:58
those were built by private companies
187
538272
1869
özel şirketler tarafından üretilip
09:00
and sold to the government institutions.
188
540165
2231
kamu kurumlarına satıldı.
09:02
They call it their "secret sauce" --
189
542420
1873
Buna onların "özel tarifi" diyorlar
09:04
that's why they can't tell us about it.
190
544317
2128
ve bu yüzden içeriği ile ilgili konuşmuyorlar.
09:06
It's also private power.
191
546469
2220
Bu bir tür özel güç.
09:09
They are profiting for wielding the authority of the inscrutable.
192
549744
4695
Kamu otoritesini kullanarak kar ediyorlar.
09:16
Now you might think, since all this stuff is private
193
556934
2934
Tüm bunların özel sektörde olduğu
09:19
and there's competition,
194
559892
1158
ve sektörde rekabet olduğu için serbest piyasanın
09:21
maybe the free market will solve this problem.
195
561074
2306
bu sorunu çözeceğini düşünüyorsanız
09:23
It won't.
196
563404
1249
sorunu çözmeyecek.
09:24
There's a lot of money to be made in unfairness.
197
564677
3120
Adaletsizlik ile elde edilen önemli miktarda para var.
09:28
Also, we're not economic rational agents.
198
568947
3369
Ayrıca ekonomik olarak rasyonel karar alıcılar değiliz.
09:32
We all are biased.
199
572851
1292
Farkında olmadığımız ön yargılarımız var.
09:34
We're all racist and bigoted in ways that we wish we weren't,
200
574780
3377
Farkında olmasak ve öyle olmayı dilemesek bile
09:38
in ways that we don't even know.
201
578181
2019
kafa tasçı ve dar kafalıyız.
09:41
We know this, though, in aggregate,
202
581172
3081
Bunun böyle olduğunuz biliyoruz,
09:44
because sociologists have consistently demonstrated this
203
584277
3220
çünkü sosyologlar yaptıkları deneyler ile
09:47
with these experiments they build,
204
587521
1665
öyle olduğumuzu gösterdiler.
09:49
where they send a bunch of applications to jobs out,
205
589210
2568
Deneyde aynı yeteneklere sahip insanların
09:51
equally qualified but some have white-sounding names
206
591802
2501
çok sayıda iş başvurusu vardı. Kimi başvurular siyah,
09:54
and some have black-sounding names,
207
594327
1706
kimi başvurular beyaz insanı andıran isimlerle yapıldı.
09:56
and it's always disappointing, the results -- always.
208
596057
2694
Sonuç her zaman hayal kırıklığıydı.
09:59
So we are the ones that are biased,
209
599330
1771
Bizler farkında olmasak da taraflıyız
10:01
and we are injecting those biases into the algorithms
210
601125
3429
ve taraflılığımızı, seçtiğimiz veriler ile
10:04
by choosing what data to collect,
211
604578
1812
algoritmalara dahil ediyoruz.
10:06
like I chose not to think about ramen noodles --
212
606414
2743
Mesela ben erişteleri es geçtim.
10:09
I decided it was irrelevant.
213
609181
1625
Onların yemek olmadığını düşündüm.
10:10
But by trusting the data that's actually picking up on past practices
214
610830
5684
Ancak geçmiş deneyimleri
ve başarı tanımlarını baz alarak seçtiğimiz veriye
10:16
and by choosing the definition of success,
215
616538
2014
10:18
how can we expect the algorithms to emerge unscathed?
216
618576
3983
nasıl güvenebiliriz ve algoritmaların sağlıklı olacağını nasıl bekleyebiliriz?
10:22
We can't. We have to check them.
217
622583
2356
Bunu yapamayız. Algoritmaları test etmemiz gerekir.
10:25
We have to check them for fairness.
218
625985
1709
Algoritmaların doğruluklarını test etmeliyiz.
10:27
The good news is, we can check them for fairness.
219
627718
2711
İyi haber şu ki bunu yapabiliriz.
10:30
Algorithms can be interrogated,
220
630453
3352
Algoritmalar kontrol edilebilir
10:33
and they will tell us the truth every time.
221
633829
2034
ve kontroller bize gerçeği söyleyebilir.
10:35
And we can fix them. We can make them better.
222
635887
2493
Algoritmaların hatalarını giderebiliriz.
10:38
I call this an algorithmic audit,
223
638404
2375
Ben buna, 'algoritma denetimi' adını veriyorum
10:40
and I'll walk you through it.
224
640803
1679
ve size bundan bahsedeyim.
10:42
First, data integrity check.
225
642506
2196
Öncelikle verinin doğruluğu testi.
10:45
For the recidivism risk algorithm I talked about,
226
645952
2657
Bahsettiğim suçun tekrarlama riski algoritmasında
10:49
a data integrity check would mean we'd have to come to terms with the fact
227
649402
3573
verinin doğruluğu testi şu anlama gelir:
Amerika'da beyaz ve siyahlar arasında esrar tüketimi aynı ölçüde yaygın,
10:52
that in the US, whites and blacks smoke pot at the same rate
228
652999
3526
10:56
but blacks are far more likely to be arrested --
229
656549
2485
oysa siyahların tutuklanma ihtimalleri
10:59
four or five times more likely, depending on the area.
230
659058
3184
bölgeye bağlı olarak dört veya beş kat fazla.
11:03
What is that bias looking like in other crime categories,
231
663137
2826
Diğer suçlarda bu tür bir taraflılık nasıldır
11:05
and how do we account for it?
232
665987
1451
ve bunu nasıl inceleriz?
11:07
Second, we should think about the definition of success,
233
667982
3039
İkincisi başarının tanımı hakkında düşünüp
11:11
audit that.
234
671045
1381
onu gözden geçirmeliyiz.
11:12
Remember -- with the hiring algorithm? We talked about it.
235
672450
2752
İşe alım algoritmasından bahsetmiştim, hatırlayın.
11:15
Someone who stays for four years and is promoted once?
236
675226
3165
Şirkette 4 yıl kalıp en az bir kez terfi alan kişi.
11:18
Well, that is a successful employee,
237
678415
1769
Kendisini başarılı tanımlamıştık
11:20
but it's also an employee that is supported by their culture.
238
680208
3079
ama kendisi ayrıca kültürlerince desteklenen bir kişi.
11:23
That said, also it can be quite biased.
239
683909
1926
Bu da aslında bir taraflılık olabilir.
11:25
We need to separate those two things.
240
685859
2065
Bu iki şeyi ayırmamız gerekiyor.
11:27
We should look to the blind orchestra audition
241
687948
2426
Mesela orkestralara yönelik 'kör seçim'
11:30
as an example.
242
690398
1196
adı verilen seçimlere bakalım.
11:31
That's where the people auditioning are behind a sheet.
243
691618
2756
Bu uygulamada ses sınavında olan kişiler
11:34
What I want to think about there
244
694766
1931
perdenin arkasında bulunduğundan görünmüyor.
11:36
is the people who are listening have decided what's important
245
696721
3417
Sadece dinlediği konusunda
11:40
and they've decided what's not important,
246
700162
2029
bir sonuca ulaşan insanları düşünün.
11:42
and they're not getting distracted by that.
247
702215
2059
Herhangi bir şeyden dikkatleri dağılmıyor.
11:44
When the blind orchestra auditions started,
248
704781
2749
Orkestra için 'kör seçim' başladığından beri
11:47
the number of women in orchestras went up by a factor of five.
249
707554
3444
orkestralardaki kadın sayısı 5 kat arttı.
Sonra kesinliği göz önünde bulundurmalıyız.
11:52
Next, we have to consider accuracy.
250
712073
2015
Bu öğretmenlere için katma değer modelinin anında başarısız olacağı aşama olurdu.
11:55
This is where the value-added model for teachers would fail immediately.
251
715053
3734
11:59
No algorithm is perfect, of course,
252
719398
2162
Elbette hiçbir algoritma mükemmel değil,
12:02
so we have to consider the errors of every algorithm.
253
722440
3605
bu yüzden her algoritmanın hatalarını dikkate almalıyız.
12:06
How often are there errors, and for whom does this model fail?
254
726656
4359
Bu hatalar ne sıklıkla oluşuyor, hangileri modeli başarısız kılıyor?
12:11
What is the cost of that failure?
255
731670
1718
Başarısızlığın maliyeti ne?
12:14
And finally, we have to consider
256
734254
2207
Son aşamada
12:17
the long-term effects of algorithms,
257
737793
2186
algoritmaların uzun dönemli etkilerini,
12:20
the feedback loops that are engendering.
258
740686
2207
geri besleme döngülerini göz önünde bulundurmalıyız.
Kulağa soyut geliyor ama Facebook yazılımcıları
12:23
That sounds abstract,
259
743406
1236
12:24
but imagine if Facebook engineers had considered that
260
744666
2664
sadece arkadaşlarımızın paylaşımını görmemize karar vermeden önce
12:28
before they decided to show us only things that our friends had posted.
261
748090
4855
bunun üzerinde düşünseydi nasıl olurdu, hayal edin.
12:33
I have two more messages, one for the data scientists out there.
262
753581
3234
İki mesajım var. Birincisi veri bilimciler için:
12:37
Data scientists: we should not be the arbiters of truth.
263
757270
3409
Bizler neyin doğru olduğuna karar verenler olmamalıyız.
12:41
We should be translators of ethical discussions that happen
264
761340
3783
Bizler toplumlarda meydana gelen etik tartışmaların
12:45
in larger society.
265
765147
1294
tercümanları olmalıyız.
12:47
(Applause)
266
767399
2133
(Alkışlar)
12:49
And the rest of you,
267
769556
1556
Ve geri kalanlar,
12:51
the non-data scientists:
268
771831
1396
veri bilimci olmayanlar:
12:53
this is not a math test.
269
773251
1498
Bu herhangi bir matematik testi değil.
12:55
This is a political fight.
270
775452
1348
Bu bir politik mücadele.
12:58
We need to demand accountability for our algorithmic overlords.
271
778407
3907
Bizler algoritma amirlerinden sorumluluk talep etmeliyiz.
13:03
(Applause)
272
783938
1499
(Alkışlar)
13:05
The era of blind faith in big data must end.
273
785461
4225
Büyük verideki kör inanç dönemi bitmeli.
13:09
Thank you very much.
274
789710
1167
Teşekkür ederim.
13:10
(Applause)
275
790901
5303
(Alkışlar)
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7