Machine intelligence makes human morals more important | Zeynep Tufekci

180,762 views ・ 2016-11-11

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Selda Yener Gözden geçirme: Cihan Ekmekçi
00:12
So, I started my first job as a computer programmer
0
12739
4122
Bilgisayar programcısı olarak ilk çalışmaya başladığımda
00:16
in my very first year of college --
1
16885
1956
üniversite birinci sınıftaydım,
00:18
basically, as a teenager.
2
18865
1507
yani yeni yetme sayılırdım.
00:20
Soon after I started working,
3
20889
1732
Bir şirkette program yazma göreviyle
00:22
writing software in a company,
4
22645
1610
işe girdikten kısa süre sonra
00:24
a manager who worked at the company came down to where I was,
5
24799
3635
şirkette çalışan bir müdür yanıma geldi
00:28
and he whispered to me,
6
28458
1268
ve fısıltıyla sordu:
00:30
"Can he tell if I'm lying?"
7
30229
2861
"Yalan söylediğimi anlayabilir mi?"
00:33
There was nobody else in the room.
8
33806
2077
Odada başka kimse yoktu.
"Yalanı kim anlayabilir mi? Ayrıca neden fısıldaşıyoruz?" dedim.
00:37
"Can who tell if you're lying? And why are we whispering?"
9
37032
4389
00:42
The manager pointed at the computer in the room.
10
42266
3107
Müdür, odada bulunan bilgisayarı gösterdi.
00:45
"Can he tell if I'm lying?"
11
45397
3096
"Yalan söyleyip söylemediğimi anlar mı?"
00:49
Well, that manager was having an affair with the receptionist.
12
49613
4362
Bu müdür danışmada çalışan biriyle ilişki yaşıyordu.
00:53
(Laughter)
13
53999
1112
(Gülüşmeler)
Ben de yeni yetmeyim tabii.
00:55
And I was still a teenager.
14
55135
1766
00:57
So I whisper-shouted back to him,
15
57447
2019
Fısıltıyla bağırır gibi cevap verdim:
00:59
"Yes, the computer can tell if you're lying."
16
59490
3624
"Evet, yalan söylerseniz bilgisayar anlar." dedim.
(Gülüşmeler)
01:03
(Laughter)
17
63138
1806
01:04
Well, I laughed, but actually, the laugh's on me.
18
64968
2923
Gülüyordum ama aslında gülünmesi gereken bendim.
01:07
Nowadays, there are computational systems
19
67915
3268
Günümüzde insan yüzlerini
01:11
that can suss out emotional states and even lying
20
71207
3548
işlemden geçirerek ruh hâlini ve hatta yalan söylediğini
01:14
from processing human faces.
21
74779
2044
tespit eden bilgisayar programları var.
01:17
Advertisers and even governments are very interested.
22
77248
4153
Reklamcılar, hatta devletler de çok ilgi duyuyor.
01:22
I had become a computer programmer
23
82319
1862
Matematik ve fen bilgisini çok seven
01:24
because I was one of those kids crazy about math and science.
24
84205
3113
bir çocuk olduğum için bilgisayar programcısı olmuştum.
01:27
But somewhere along the line I'd learned about nuclear weapons,
25
87942
3108
Fakat o sıralarda nükleer silahlara dair bilgi edinmiş
ve bilim etiğine de çok ilgi duymaya başlamıştım.
01:31
and I'd gotten really concerned with the ethics of science.
26
91074
2952
Sorunlarım vardı.
01:34
I was troubled.
27
94050
1204
01:35
However, because of family circumstances,
28
95278
2641
Ne yazık ki ailevi durumlar yüzünden
01:37
I also needed to start working as soon as possible.
29
97943
3298
mümkün olduğu kadar çabuk işe girmem gerekiyordu.
01:41
So I thought to myself, hey, let me pick a technical field
30
101265
3299
Kendi kendime düşündüm; kolaylıkla iş bulabileceğim
01:44
where I can get a job easily
31
104588
1796
teknik bir alan seçeyim ki
01:46
and where I don't have to deal with any troublesome questions of ethics.
32
106408
4018
sıkıcı etik problemlerle uğraşmak zorunda kalmayayım dedim.
Böylelikle bilgisayarı seçtim.
01:51
So I picked computers.
33
111022
1529
01:52
(Laughter)
34
112575
1104
(Gülüşmeler)
01:53
Well, ha, ha, ha! All the laughs are on me.
35
113703
3410
Ha, ha, ha! Herkes bana gülüyordur.
Günümüzde bilgisayar uzmanları her gün milyarlarca insanın
01:57
Nowadays, computer scientists are building platforms
36
117137
2754
01:59
that control what a billion people see every day.
37
119915
4209
göreceği şeyleri kontrol eden programlar kuruyor.
Kime çarpacağına karar verebilecek arabalar geliştiriyorlar.
02:05
They're developing cars that could decide who to run over.
38
125052
3822
02:09
They're even building machines, weapons,
39
129707
3213
Savaşta insanları öldürecek türden
02:12
that might kill human beings in war.
40
132944
2285
makineler, silahlar bile geliştiriyorlar.
02:15
It's ethics all the way down.
41
135253
2771
Etik tamamen ortadan kalkıyor.
02:19
Machine intelligence is here.
42
139183
2058
Makine zekâsı işin içinde.
02:21
We're now using computation to make all sort of decisions,
43
141823
3474
Artık herhangi bir karar verirken bilgisayar kullanıyoruz,
02:25
but also new kinds of decisions.
44
145321
1886
üstelik yeni kararlar alırken bile.
02:27
We're asking questions to computation that have no single right answers,
45
147231
5172
Bilgisayara tek bir doğru cevabı olmayan, öznel,
02:32
that are subjective
46
152427
1202
açık uçlu ve değer yüklü
02:33
and open-ended and value-laden.
47
153653
2325
sorular soruyoruz.
Mesela şu gibi sorular:
02:36
We're asking questions like,
48
156002
1758
02:37
"Who should the company hire?"
49
157784
1650
"Şirket kimi işe almalı?"
"Hangi arkadaştan hangi güncellemeyi görmelisiniz?"
02:40
"Which update from which friend should you be shown?"
50
160096
2759
02:42
"Which convict is more likely to reoffend?"
51
162879
2266
"Hangi mahkûm tekrar suç işlemeye yatkın?"
02:45
"Which news item or movie should be recommended to people?"
52
165514
3054
"İnsanlara hangi haber ya da film tavsiye edilmeli?"
02:48
Look, yes, we've been using computers for a while,
53
168592
3372
Bakın, evet bir süredir bilgisayar kullanıyoruz,
02:51
but this is different.
54
171988
1517
ama bu farklı bir durum.
02:53
This is a historical twist,
55
173529
2067
Bu tarihi bir hata,
02:55
because we cannot anchor computation for such subjective decisions
56
175620
5337
çünkü böyle öznel kararlarda bilgisayara güvenemeyiz,
03:00
the way we can anchor computation for flying airplanes, building bridges,
57
180981
5420
bilgisayara uçak uçurmada, köprü inşa etmede, aya gitmede
03:06
going to the moon.
58
186425
1259
güvendiğimiz gibi güvenemeyiz.
03:08
Are airplanes safer? Did the bridge sway and fall?
59
188449
3259
Uçaklar daha güvenli mi? Köprü sallanıp çöker miydi?
03:11
There, we have agreed-upon, fairly clear benchmarks,
60
191732
4498
Burada üzerinde anlaşılan, açık ölçütler ve bize yol gösteren doğa kanunları
03:16
and we have laws of nature to guide us.
61
196254
2239
olduğu konusunda hemfikiriz.
03:18
We have no such anchors and benchmarks
62
198517
3394
Karmaşık insan ilişkilerinde karar verirken
03:21
for decisions in messy human affairs.
63
201935
3963
bu tür dayanak ve ölçütler yok.
03:25
To make things more complicated, our software is getting more powerful,
64
205922
4237
İşleri daha çetrefilli hâle getirmek için yazılımımız gittikçe güçleniyor,
03:30
but it's also getting less transparent and more complex.
65
210183
3773
fakat aynı zamanda daha az şeffaflaşıp daha karmaşık oluyor.
03:34
Recently, in the past decade,
66
214542
2040
Son on yıl içerisinde,
03:36
complex algorithms have made great strides.
67
216606
2729
kompleks algoritmalar büyük aşamalar katetti.
03:39
They can recognize human faces.
68
219359
1990
İnsan yüzlerini tanıyabiliyorlar.
03:41
They can decipher handwriting.
69
221985
2055
El yazılarını çözebiliyorlar.
03:44
They can detect credit card fraud
70
224436
2066
Kredi kartı dolandırıcılığını tespit edip
03:46
and block spam
71
226526
1189
spam postaları engelliyor
03:47
and they can translate between languages.
72
227739
2037
ve diller arası çeviri yapabiliyorlar.
03:49
They can detect tumors in medical imaging.
73
229800
2574
Tıbbi görüntülemelerde tümörleri teşhis edebiliyorlar.
03:52
They can beat humans in chess and Go.
74
232398
2205
Go ve satrançta insanları yenebiliyorlar.
03:55
Much of this progress comes from a method called "machine learning."
75
235264
4504
Bu gelişmelerin çoğu "makine öğrenimi" denilen bir yöntemden geliyor.
Makine öğrenimi, bilgisayara detaylı, doğru ve itinalı
04:00
Machine learning is different than traditional programming,
76
240175
3187
04:03
where you give the computer detailed, exact, painstaking instructions.
77
243386
3585
talimatlar verdiğiniz geleneksel programlamadan farklıdır.
04:07
It's more like you take the system and you feed it lots of data,
78
247378
4182
Daha çok sistemi kavrayıp onu dijital yaşamlarımızda ürettiğimiz türden
04:11
including unstructured data,
79
251584
1656
yapısal olmayan veri dahil
04:13
like the kind we generate in our digital lives.
80
253264
2278
bir sürü veriyle desteklemeniz gibidir.
04:15
And the system learns by churning through this data.
81
255566
2730
Sistem bu bilgileri baştan sona karıştırarak öğrenir.
04:18
And also, crucially,
82
258669
1526
Ayrıca en önemlisi
04:20
these systems don't operate under a single-answer logic.
83
260219
4380
bu sistemlerin tek cevaplı mantıkla çalışmadığıdır.
04:24
They don't produce a simple answer; it's more probabilistic:
84
264623
2959
Tek bir cevap üretmezler, daha çok olasılık vardır:
04:27
"This one is probably more like what you're looking for."
85
267606
3483
"Belki de aradığınız şey bu olabilir."
Şimdi avantajı şu: Bu yöntem gerçekten çok güçlüdür.
04:32
Now, the upside is: this method is really powerful.
86
272023
3070
Google'ın Yapay Zeka'sının dediği gibi
04:35
The head of Google's AI systems called it,
87
275117
2076
04:37
"the unreasonable effectiveness of data."
88
277217
2197
"verinin akıl almaz etkinliği"dir.
04:39
The downside is,
89
279791
1353
Dezavantajı ise,
04:41
we don't really understand what the system learned.
90
281738
3071
sistemin ne öğrendiğini tam olarak anlamıyor olmamızdır.
04:44
In fact, that's its power.
91
284833
1587
Aslında bu onun gücü.
04:46
This is less like giving instructions to a computer;
92
286946
3798
Bu, bir bilgisayara talimat vermek gibi değildir;
04:51
it's more like training a puppy-machine-creature
93
291200
4064
nasıl kontrol edeceğimizi bilmediğimiz bir içecek sıkma makinesini
04:55
we don't really understand or control.
94
295288
2371
çalıştırmak gibidir.
04:58
So this is our problem.
95
298362
1551
Yani sorunumuz bu.
05:00
It's a problem when this artificial intelligence system gets things wrong.
96
300427
4262
Yapay zeka sistemi bir şeyleri yanlış anladığında problem olur.
05:04
It's also a problem when it gets things right,
97
304713
3540
Aynı zamanda doğru anladığında da problem olur,
05:08
because we don't even know which is which when it's a subjective problem.
98
308277
3628
çünkü öznel bir problem olduğunda hangisinin hangisi olduğunu bilmiyoruz.
05:11
We don't know what this thing is thinking.
99
311929
2339
Bu şeyin ne düşündüğünü bile bilmiyoruz.
05:15
So, consider a hiring algorithm --
100
315493
3683
Şimdi, insanları işe almak için kullanılan
makine öğrenimi sistemlerinden yararlanan bir işe alım algoritma sistemi düşünün.
05:20
a system used to hire people, using machine-learning systems.
101
320123
4311
Böyle bir sistem önceki çalışanların verilerine ayarlı
05:25
Such a system would have been trained on previous employees' data
102
325052
3579
05:28
and instructed to find and hire
103
328655
2591
ve şirketteki yüksek performansı olan
05:31
people like the existing high performers in the company.
104
331270
3038
çalışanlar gibi insanlar bulmaya ve işe almaya kurulmuş olmalı.
05:34
Sounds good.
105
334814
1153
İyi fikir.
05:35
I once attended a conference
106
335991
1999
Bir keresinde bir konferansa katıldım,
işe alımda bu sistemi kullanan insan kaynakları uzmanları ile
05:38
that brought together human resources managers and executives,
107
338014
3125
yöneticileri,
05:41
high-level people,
108
341163
1206
05:42
using such systems in hiring.
109
342393
1559
üst düzey insanları buluşturuyordu.
05:43
They were super excited.
110
343976
1646
Çok heyecanlıydılar.
05:45
They thought that this would make hiring more objective, less biased,
111
345646
4653
Bu yöntemin işe alımı daha nesnel, daha az ön yargılı yapacağını
05:50
and give women and minorities a better shot
112
350323
3000
ve kadın ve azınlıkları ön yargılı insan kaynakları karşısında
05:53
against biased human managers.
113
353347
2188
daha şanslı hâle getireceğini düşünüyorlardı.
05:55
And look -- human hiring is biased.
114
355559
2843
İşe alımda ön yargılı davranılır.
Biliyorum.
05:59
I know.
115
359099
1185
06:00
I mean, in one of my early jobs as a programmer,
116
360308
3005
Yani, programcı olarak çalıştığım ilk işlerimden birinde
06:03
my immediate manager would sometimes come down to where I was
117
363337
3868
ilk patronum bazen sabah çok erken ya da
06:07
really early in the morning or really late in the afternoon,
118
367229
3753
öğleden sonra çok geç saatlerde yanıma gelir
ve "Zeynep, hadi yemeğe çıkalım!" derdi.
06:11
and she'd say, "Zeynep, let's go to lunch!"
119
371006
3062
06:14
I'd be puzzled by the weird timing.
120
374724
2167
Garip zamanlamasına şaşırırdım.
06:16
It's 4pm. Lunch?
121
376915
2129
Saat dört. Öğle yemeği mi?
Param yoktu, bedava öğle yemeği vardı. Her zaman giderdim.
06:19
I was broke, so free lunch. I always went.
122
379068
3094
06:22
I later realized what was happening.
123
382618
2067
Neler olduğunu daha sonraları anladım.
06:24
My immediate managers had not confessed to their higher-ups
124
384709
4546
Amirlerim kendi üst düzey müdürlerine çok ciddi bir iş için
06:29
that the programmer they hired for a serious job was a teen girl
125
389279
3113
işe aldıkları programcının kot pantolon ve spor ayakkabı giyen
06:32
who wore jeans and sneakers to work.
126
392416
3930
yeni yetme bir kız olduğunu söylememişlerdi.
İyi iş çıkarıyordum, ama yanlış görünüyordum,
06:37
I was doing a good job, I just looked wrong
127
397174
2202
06:39
and was the wrong age and gender.
128
399400
1699
yanlış yaşta ve cinsiyetteydim.
Dolayısıyla cinsiyet ve ırk gözetilmeksizin işe alım
06:41
So hiring in a gender- and race-blind way
129
401123
3346
06:44
certainly sounds good to me.
130
404493
1865
bence kesinlikle iyi fikir.
Ancak bu sistemlerle konu daha karmaşık oluyor, nedeni şu:
06:47
But with these systems, it is more complicated, and here's why:
131
407031
3341
06:50
Currently, computational systems can infer all sorts of things about you
132
410968
5791
Şimdilerde bilgisayar sistemleri paylaşmadığınız şeyler bile olsa
06:56
from your digital crumbs,
133
416783
1872
dijital kırıntılarınızdan
06:58
even if you have not disclosed those things.
134
418679
2333
hakkınızda birçok çıkarım yapabilir.
07:01
They can infer your sexual orientation,
135
421506
2927
Cinsel yöneliminizi,
07:04
your personality traits,
136
424994
1306
kişilik özelliklerinizi,
07:06
your political leanings.
137
426859
1373
siyasi görüşünüzü anlayabiliyor.
07:08
They have predictive power with high levels of accuracy.
138
428830
3685
Yüksek doğruluk oranlı öngörü güçleri var.
07:13
Remember -- for things you haven't even disclosed.
139
433362
2578
Unutmayın - paylaşmadığınız şeyleri bile.
07:15
This is inference.
140
435964
1591
Bu, çıkarımda bulunmaktır.
07:17
I have a friend who developed such computational systems
141
437579
3261
Sosyal medya verilerinden klinik depresyon veya
07:20
to predict the likelihood of clinical or postpartum depression
142
440864
3641
doğum sonrası depresyon ihtimalini öngören sayısal sistemler geliştiren
07:24
from social media data.
143
444529
1416
bir arkadaşım var.
07:26
The results are impressive.
144
446676
1427
Sonuçlar etkileyici.
07:28
Her system can predict the likelihood of depression
145
448492
3357
Sistem depresyon ihtimalini semptomların başlamasından
07:31
months before the onset of any symptoms --
146
451873
3903
aylar öncesinden öngörebiliyor,
07:35
months before.
147
455800
1373
aylar öncesinden.
07:37
No symptoms, there's prediction.
148
457197
2246
Hiçbir semptom yok, ama öngörü var.
07:39
She hopes it will be used for early intervention. Great!
149
459467
4812
Erken müdahalede kullanılacağını umuyor. Muhteşem!
07:44
But now put this in the context of hiring.
150
464911
2040
Şimdi de bunu işe alım kavramına uygulayın.
Bu insan kaynakları yöneticileri konferansında
07:48
So at this human resources managers conference,
151
468027
3046
büyük bir şirketin üst düzey bir yöneticisiyle görüştüm.
07:51
I approached a high-level manager in a very large company,
152
471097
4709
07:55
and I said to her, "Look, what if, unbeknownst to you,
153
475830
4578
Ona, "Peki sisteminiz size bildirmeden
08:00
your system is weeding out people with high future likelihood of depression?
154
480432
6549
gelecekte yüksek depresyon ihtimali olan insanları ayıklıyorsa?
08:07
They're not depressed now, just maybe in the future, more likely.
155
487761
3376
Şu an psikolojik bozuklukları yok, ancak belki ileride olabilir.
08:11
What if it's weeding out women more likely to be pregnant
156
491923
3406
Peki şu an hamile olmayan ancak gelecek bir ya da iki yıl içinde
08:15
in the next year or two but aren't pregnant now?
157
495353
2586
hamile kalma ihtimali olan kadınları ayıklıyorsa?
08:18
What if it's hiring aggressive people because that's your workplace culture?"
158
498844
5636
İş yeri kültürünüz öyle olduğu için agresif insanları işe alıyorsa?" dedim.
Bunu cinsiyet analizlerine bakarak anlayamazsınız.
08:25
You can't tell this by looking at gender breakdowns.
159
505173
2691
08:27
Those may be balanced.
160
507888
1502
Dengelenmiş olabilirler.
08:29
And since this is machine learning, not traditional coding,
161
509414
3557
Ayrıca bu geleneksel kodlama değil makine öğrenimi olduğu için
08:32
there is no variable there labeled "higher risk of depression,"
162
512995
4907
"yüksek depresyon riski", "yüksek hamilelik riski",
08:37
"higher risk of pregnancy,"
163
517926
1833
"agresiflik ölçümü" gibi
08:39
"aggressive guy scale."
164
519783
1734
etiket taşıyan değişkenler yok.
08:41
Not only do you not know what your system is selecting on,
165
521995
3679
Sadece sisteminizin neyi seçtiğini değil,
08:45
you don't even know where to begin to look.
166
525698
2323
nereden bakmaya başlayacağınızı bile bilmiyorsunuz.
Bir kara kutu.
08:48
It's a black box.
167
528045
1246
08:49
It has predictive power, but you don't understand it.
168
529315
2807
Tahmin gücüne sahip ancak onu anlamıyorsunuz.
08:52
"What safeguards," I asked, "do you have
169
532486
2369
"Ne güvenlikleri var?" diye sordum, "kara kutunuzun
08:54
to make sure that your black box isn't doing something shady?"
170
534879
3673
gizli bir şey yapmadığından emin olmak için?"
09:00
She looked at me as if I had just stepped on 10 puppy tails.
171
540863
3878
Kuyruğuna basmışım gibi bakakaldı.
09:04
(Laughter)
172
544765
1248
(Gülüşmeler)
Dik dik baktı ve
09:06
She stared at me and she said,
173
546037
2041
09:08
"I don't want to hear another word about this."
174
548556
4333
"buna dair başka bir şey duymak istemiyorum." dedi.
09:13
And she turned around and walked away.
175
553458
2034
Arkasını dönüp gitti.
Gerçi kaba değildi.
09:16
Mind you -- she wasn't rude.
176
556064
1486
09:17
It was clearly: what I don't know isn't my problem, go away, death stare.
177
557574
6308
Açıklaması şu: Bilmediğim şey benim sorunum değil, bas git, öldürücü bakış.
09:23
(Laughter)
178
563906
1246
(Gülüşmeler)
09:25
Look, such a system may even be less biased
179
565862
3839
Bakın böyle bir sistem bazı açılardan insan yöneticilerden
09:29
than human managers in some ways.
180
569725
2103
daha az ön yargılı olabilir.
09:31
And it could make monetary sense.
181
571852
2146
Parasal anlam taşıyabilir.
09:34
But it could also lead
182
574573
1650
Ancak depresyon riski
09:36
to a steady but stealthy shutting out of the job market
183
576247
4748
yüksek olan insanların iş piyasasına istikrarlı ve gizli olarak girmesini
engellemeye sebep olabilir.
09:41
of people with higher risk of depression.
184
581019
2293
09:43
Is this the kind of society we want to build,
185
583753
2596
Ne yapmış olduğumuzu bile bilmeden
09:46
without even knowing we've done this,
186
586373
2285
kurmak istediğimiz toplum modeli bu mu?
09:48
because we turned decision-making to machines we don't totally understand?
187
588682
3964
Çünkü karar verme işini tam olarak anlamadığımız makinelere bırakıyoruz.
09:53
Another problem is this:
188
593265
1458
Diğer bir problemse şu:
09:55
these systems are often trained on data generated by our actions,
189
595314
4452
Bu sistemler çoğunlukla bizim davranışlarımızla; insan izleri tarafından
09:59
human imprints.
190
599790
1816
üretilen bilgilerle test edilir.
10:02
Well, they could just be reflecting our biases,
191
602188
3808
Ön yargılarımızı yansıtıyor olabilirler.
Bu sistemler ön yargılarımıza dönüp
10:06
and these systems could be picking up on our biases
192
606020
3593
10:09
and amplifying them
193
609637
1313
onları büyütüp
10:10
and showing them back to us,
194
610974
1418
bize tekrar gösteriyor olabilir,
10:12
while we're telling ourselves,
195
612416
1462
biz ise bu arada kendimize
10:13
"We're just doing objective, neutral computation."
196
613902
3117
"Sadece nesnel, tarafsız hesap yapıyoruz." diyoruz.
10:18
Researchers found that on Google,
197
618314
2677
Araştırmacılar Google'da yüksek maaşlı iş ilanlarını
kadınların görme ihtimalinin erkeklerden daha az olduğunu tespit etti.
10:22
women are less likely than men to be shown job ads for high-paying jobs.
198
622134
5313
10:28
And searching for African-American names
199
628463
2530
Afro-Amerikan isimleri araştırırken
alakası olmasa bile sabıka geçmişi ile ilgili ilanları
10:31
is more likely to bring up ads suggesting criminal history,
200
631017
4706
10:35
even when there is none.
201
635747
1567
öne sürmesi daha muhtemeldir.
10:38
Such hidden biases and black-box algorithms
202
638693
3549
Araştırmacıların bazen ortaya çıkardığı ancak bazen bizim bilmediğimiz
10:42
that researchers uncover sometimes but sometimes we don't know,
203
642266
3973
bu tür gizli ön yargıların ve kara kutu algoritmalarının
10:46
can have life-altering consequences.
204
646263
2661
hayat değiştiren sonuçları var.
10:49
In Wisconsin, a defendant was sentenced to six years in prison
205
649958
4159
Wisconsin'de bir sanık, altı yıl hapse mahkûm edildi,
polisten kaçtığı için.
10:54
for evading the police.
206
654141
1355
10:56
You may not know this,
207
656824
1186
Belki bilmiyorsunuzdur,
algoritmaların şartlı tahliye ve ceza kararlarında kullanımı giderek artıyor.
10:58
but algorithms are increasingly used in parole and sentencing decisions.
208
658034
3998
Şunu öğrenmek istiyordu: Bu sonuç nasıl hesaplanmıştı?
11:02
He wanted to know: How is this score calculated?
209
662056
2955
11:05
It's a commercial black box.
210
665795
1665
Ticari bir kara kutu.
11:07
The company refused to have its algorithm be challenged in open court.
211
667484
4205
Şirket, halka açık duruşmada işlemlerinin sorgulanmasını reddetmişti.
11:12
But ProPublica, an investigative nonprofit, audited that very algorithm
212
672396
5532
Kâr amacı gütmeyen araştırmacı kurum ProPublica, bu algoritmayı
11:17
with what public data they could find,
213
677952
2016
bulabildiği kamusal verilerle inceledi
11:19
and found that its outcomes were biased
214
679992
2316
ve sonuçlarının ön yargılı olduğunu,
11:22
and its predictive power was dismal, barely better than chance,
215
682332
3629
öngörü gücününse kötü, olasılıktan biraz iyi olduğunu
11:25
and it was wrongly labeling black defendants as future criminals
216
685985
4416
ve siyahi sanıkları haksız yere beyaz sanıklardan iki kat fazla bir oranla
11:30
at twice the rate of white defendants.
217
690425
3895
geleceğin suçluları olarak etiketlediğini bulguladı.
11:35
So, consider this case:
218
695891
1564
Şu olayı göz önüne alın:
Bu kadın, vaftiz kardeşini Florida'nın Broward bölgesindeki bir okuldan
11:38
This woman was late picking up her godsister
219
698103
3852
11:41
from a school in Broward County, Florida,
220
701979
2075
almaya geç kalmış,
11:44
running down the street with a friend of hers.
221
704757
2356
bir arkadaşıyla caddede ilerliyorlar.
Verandada duran kilitsiz bir çocuk bisikleti ve bir kaydırak görüyor
11:47
They spotted an unlocked kid's bike and a scooter on a porch
222
707137
4099
11:51
and foolishly jumped on it.
223
711260
1632
ve düşünmeden biniyorlar.
11:52
As they were speeding off, a woman came out and said,
224
712916
2599
Tam yola koyulacakken kadının biri çıkıyor ve
11:55
"Hey! That's my kid's bike!"
225
715539
2205
"Hey! Bu benim çocuğumun bisikleti!" diyor.
11:57
They dropped it, they walked away, but they were arrested.
226
717768
3294
Bırakıp gidiyorlar, ancak tutuklanıyorlar.
Haksızdı, aptalca davranmıştı, ama henüz 18 yaşındaydı.
12:01
She was wrong, she was foolish, but she was also just 18.
227
721086
3637
12:04
She had a couple of juvenile misdemeanors.
228
724747
2544
Çocukken ciddi olmayan bir iki suç işlemişti.
12:07
Meanwhile, that man had been arrested for shoplifting in Home Depot --
229
727808
5185
Bu arada, adam da Home Depot'da hırsızlık yapmaktan tutuklanmıştı.
85 dolar değerinde, benzeri bir hafif suç.
12:13
85 dollars' worth of stuff, a similar petty crime.
230
733017
2924
12:16
But he had two prior armed robbery convictions.
231
736766
4559
Ama öncesinde iki silahlı soygun sabıkası vardı.
12:21
But the algorithm scored her as high risk, and not him.
232
741955
3482
Ancak algoritma, adamı değil kadını yüksek riskli olarak işaretledi.
12:26
Two years later, ProPublica found that she had not reoffended.
233
746746
3874
İki yıl sonra ProPublica kadının tekrar suç işlemediğini tespit etti.
12:30
It was just hard to get a job for her with her record.
234
750644
2550
Sabıka puanıyla iş bulması çok zordu.
12:33
He, on the other hand, did reoffend
235
753218
2076
Öte yandan adam tekrar suç işlemişti
12:35
and is now serving an eight-year prison term for a later crime.
236
755318
3836
ve şimdi daha sonra işlediği bir suç yüzünden sekiz yıllık hapis cezasında.
Belli ki kara kutularımızı kontrol etmemiz
12:40
Clearly, we need to audit our black boxes
237
760088
3369
12:43
and not have them have this kind of unchecked power.
238
763481
2615
ve onlara böyle kontrolsüz güç vermememiz gerekiyor.
(Alkışlar)
12:46
(Applause)
239
766120
2879
Kontroller önemli ve etkili, ancak tüm sorunlarımızı çözmüyorlar.
12:50
Audits are great and important, but they don't solve all our problems.
240
770087
4242
12:54
Take Facebook's powerful news feed algorithm --
241
774353
2748
Facebook'un muhteşem haber akışı algoritmasına bakın,
yani takip ettiğiniz tüm arkadaşlarınız ve sayfalardan her şeyi sıralayıp
12:57
you know, the one that ranks everything and decides what to show you
242
777125
4843
13:01
from all the friends and pages you follow.
243
781992
2284
size ne göstereceğine karar veren algoritma.
13:04
Should you be shown another baby picture?
244
784898
2275
Başka bir bebek fotoğrafı görmeli misiniz?
13:07
(Laughter)
245
787197
1196
(Gülüşmeler)
13:08
A sullen note from an acquaintance?
246
788417
2596
Bir tanıdıktan somurtkan bir not?
13:11
An important but difficult news item?
247
791449
1856
Önemli ama üzücü haberler?
13:13
There's no right answer.
248
793329
1482
Doğru bir cevap yok.
13:14
Facebook optimizes for engagement on the site:
249
794835
2659
Facebook meşgul olacaklarınızı en uygun hâle getiriyor:
13:17
likes, shares, comments.
250
797518
1415
Beğeniler, paylaşımlar, yorumlar.
Ağustos 2014'te,
13:20
In August of 2014,
251
800168
2696
13:22
protests broke out in Ferguson, Missouri,
252
802888
2662
Missouri, Ferguson'da Afro-Amerikan bir gencin
13:25
after the killing of an African-American teenager by a white police officer,
253
805574
4417
beyaz bir polis tarafından şüpheli bir şekilde öldürülmesi sonrası
protestolar başladı.
13:30
under murky circumstances.
254
810015
1570
13:31
The news of the protests was all over
255
811974
2007
Protesto haberleri
algoritmik olarak filtrelenmeyen Twitter akışımda vardı
13:34
my algorithmically unfiltered Twitter feed,
256
814005
2685
13:36
but nowhere on my Facebook.
257
816714
1950
ancak Facebook'ta hiçbir yerde yoktu.
13:39
Was it my Facebook friends?
258
819182
1734
Facebook arkadaşlarım ne hâldeydi?
13:40
I disabled Facebook's algorithm,
259
820940
2032
Facebook'un algoritmasını devre dışı bıraktım,
13:43
which is hard because Facebook keeps wanting to make you
260
823472
2848
ki bu çok zordur, çünkü Facebook sizi algoritmanın
13:46
come under the algorithm's control,
261
826344
2036
kontrolü altında tutmak ister.
13:48
and saw that my friends were talking about it.
262
828404
2238
Baktım ki arkadaşlarım da bunu konuşuyor.
13:50
It's just that the algorithm wasn't showing it to me.
263
830666
2509
Bunu bana göstermeyen algoritmanın ta kendisiydi.
13:53
I researched this and found this was a widespread problem.
264
833199
3042
Bunu araştırdım ve yaygın bir problem olduğunu gördüm.
13:56
The story of Ferguson wasn't algorithm-friendly.
265
836265
3813
Ferguson haberi algoritma dostu değildi.
"Beğenilebilir" değildi.
14:00
It's not "likable."
266
840102
1171
14:01
Who's going to click on "like?"
267
841297
1552
Kim "beğen"e tıklayacaktı?
14:03
It's not even easy to comment on.
268
843500
2206
Yorum yapılması bile kolay değildi.
14:05
Without likes and comments,
269
845730
1371
Beğeniler ve yorumlar olmayınca
14:07
the algorithm was likely showing it to even fewer people,
270
847125
3292
algoritma bunu daha az insana gösteriyor olmalıydı,
14:10
so we didn't get to see this.
271
850441
1542
dolayısıyla görmüyorduk.
14:12
Instead, that week,
272
852946
1228
Onun yerine, o hafta
14:14
Facebook's algorithm highlighted this,
273
854198
2298
Facebook'un algoritması şunu ön plana çıkardı:
14:16
which is the ALS Ice Bucket Challenge.
274
856520
2226
ALS Buz Kovası Düellosu.
14:18
Worthy cause; dump ice water, donate to charity, fine.
275
858770
3742
İyi bir sebep; buzlu su dök, bağış yap, tamam.
14:22
But it was super algorithm-friendly.
276
862536
1904
Fakat süper algoritma dostuydu.
14:25
The machine made this decision for us.
277
865219
2613
Makine bu kararı bizim için almıştı.
14:27
A very important but difficult conversation
278
867856
3497
Facebook tek kanal olsaydı çok önemli ancak
14:31
might have been smothered,
279
871377
1555
etkili bir sohbet
14:32
had Facebook been the only channel.
280
872956
2696
engellenmiş olabilirdi.
Şimdi sonuç olarak bu sistemler insan sistemlerine
14:36
Now, finally, these systems can also be wrong
281
876117
3797
14:39
in ways that don't resemble human systems.
282
879938
2736
benzememesi bakımından da yanlış olabilir.
14:42
Do you guys remember Watson, IBM's machine-intelligence system
283
882698
2922
Watson'ı hatırlıyor musunuz? IBM'in Riziko'da
14:45
that wiped the floor with human contestants on Jeopardy?
284
885644
3128
insan rakiplerini yenilgiye uğratan makine zekâsı sistemini?
Harika bir oyuncuydu.
14:49
It was a great player.
285
889131
1428
14:50
But then, for Final Jeopardy, Watson was asked this question:
286
890583
3569
Ancak o zaman, Riziko'nun finalinde Watson'a şu soru soruldu:
14:54
"Its largest airport is named for a World War II hero,
287
894659
2932
"En büyük havaalanı adını İkinci Dünya Savaşı kahramanından alır,
14:57
its second-largest for a World War II battle."
288
897615
2252
ikincisi İkinci Dünya Savaşı savaşından.
14:59
(Hums Final Jeopardy music)
289
899891
1378
(Final Riziko müziği çalar)
15:01
Chicago.
290
901582
1182
Chicago.
15:02
The two humans got it right.
291
902788
1370
İki insan soruyu doğru anladı.
15:04
Watson, on the other hand, answered "Toronto" --
292
904697
4348
Buna karşın Watson, Birleşik Devletler şehri olarak
"Toronto" cevabını verdi.
15:09
for a US city category!
293
909069
1818
15:11
The impressive system also made an error
294
911596
2901
Bu etkileyici sistem
15:14
that a human would never make, a second-grader wouldn't make.
295
914521
3651
bir insanın, ikinci sınıfa giden birinin asla yapmayacağı bir hata yapmıştı.
15:18
Our machine intelligence can fail
296
918823
3109
Makine zekâmız
15:21
in ways that don't fit error patterns of humans,
297
921956
3100
insanların hata şekline uymayan şekilde,
beklemediğimiz ve hazırlıksız olduğumuz şekilde hata yapabilir.
15:25
in ways we won't expect and be prepared for.
298
925080
2950
Kalifiye biri için işe alınmamak kötü olabilirdi,
15:28
It'd be lousy not to get a job one is qualified for,
299
928054
3638
15:31
but it would triple suck if it was because of stack overflow
300
931716
3727
fakat bu, bazı alt programlarda bellek dolu dediği için oluyorsa
15:35
in some subroutine.
301
935467
1432
üç kat daha kötü olurdu.
15:36
(Laughter)
302
936923
1579
(Gülüşmeler)
15:38
In May of 2010,
303
938526
2786
Mayıs 2010'da
15:41
a flash crash on Wall Street fueled by a feedback loop
304
941336
4044
Wall Steet'te olan Wall Street'in "satış" algoritmalarını
15:45
in Wall Street's "sell" algorithm
305
945404
3028
bir geri bildirim döngüsünün körüklediği ani bir düşüş
15:48
wiped a trillion dollars of value in 36 minutes.
306
948456
4184
36 dakika içinde trilyon dolarları sildi.
15:53
I don't even want to think what "error" means
307
953722
2187
Ölümcül otonom silahlar bağlamında
15:55
in the context of lethal autonomous weapons.
308
955933
3589
"hata yapmak" ne demek bunu düşünmek bile istemiyorum.
16:01
So yes, humans have always made biases.
309
961894
3790
Evet, insanlar her zaman ön yargıda bulunur.
16:05
Decision makers and gatekeepers,
310
965708
2176
Karar vericiler ve geçit deneticiler
16:07
in courts, in news, in war ...
311
967908
3493
mahkemelerde, haberlerde, savaşlarda...
16:11
they make mistakes; but that's exactly my point.
312
971425
3038
Hata yaparlar; işte benim asıl dikkat çekmek istediğim bu.
16:14
We cannot escape these difficult questions.
313
974487
3521
Bu zor sorulardan kaçamayız.
16:18
We cannot outsource our responsibilities to machines.
314
978596
3516
Kendi sorumluluklarımızı makinelere yaptıramayız.
16:22
(Applause)
315
982676
4208
(Alkışlar)
Yapay zekâ bize "etikten kurtul geç" kartı vermiyor.
16:29
Artificial intelligence does not give us a "Get out of ethics free" card.
316
989089
4447
16:34
Data scientist Fred Benenson calls this math-washing.
317
994742
3381
Veri uzmanı Fred Benenson buna matematiksel yıkama diyor.
Tam tersine ihtiyacımız var.
16:38
We need the opposite.
318
998147
1389
16:39
We need to cultivate algorithm suspicion, scrutiny and investigation.
319
999560
5388
Algoritmayı şüphe, gözlem ve inceleme ile desteklemeliyiz.
16:45
We need to make sure we have algorithmic accountability,
320
1005380
3198
Algoritmik izlenebilirlik, denetim ve
16:48
auditing and meaningful transparency.
321
1008602
2445
anlamlı şeffaflığımız olduğundan emin olmamız gerek.
16:51
We need to accept that bringing math and computation
322
1011380
3234
Matematik ve programlamayı karmaşık, değer yüklü
16:54
to messy, value-laden human affairs
323
1014638
2970
insani ilişkilere uygulamanın
16:57
does not bring objectivity;
324
1017632
2384
nesnellik getirmeyeceğini kabul etmemiz gerekiyor;
aksine, insan ilişkilerinin karmaşıklığı algoritmaları ele geçiriyor.
17:00
rather, the complexity of human affairs invades the algorithms.
325
1020040
3633
Tabii ki daha iyi kararlar almamız için bilgisayar kullanabiliriz,
17:04
Yes, we can and we should use computation
326
1024148
3487
17:07
to help us make better decisions.
327
1027659
2014
kullanmalıyız da.
17:09
But we have to own up to our moral responsibility to judgment,
328
1029697
5332
Ancak doğru karar vermek için, ahlaki sorumluluk alıp
algoritmaları bu çerçevede kullanmak zorundayız,
17:15
and use algorithms within that framework,
329
1035053
2818
17:17
not as a means to abdicate and outsource our responsibilities
330
1037895
4935
insan olarak birbirimize karşı olan sorumluluklarımızı üstümüzden atıp
17:22
to one another as human to human.
331
1042854
2454
dış kaynaktan temin etmenin bir yolu gibi görmemeliyiz.
17:25
Machine intelligence is here.
332
1045807
2609
Makine zekâsı işte böyledir.
17:28
That means we must hold on ever tighter
333
1048440
3421
Bu demektir ki, insani değerlere ve etiğe
17:31
to human values and human ethics.
334
1051885
2147
hiç olmadığı kadar sıkı sarılmamız gerekiyor.
Teşekkür ederim.
17:34
Thank you.
335
1054056
1154
17:35
(Applause)
336
1055234
5020
(Alkışlar)
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7