We're building a dystopia just to make people click on ads | Zeynep Tufekci

739,815 views ・ 2017-11-17

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Cihan Ekmekçi Gözden geçirme: Gizem Dumlu
00:12
So when people voice fears of artificial intelligence,
0
12760
3536
İnsanlar yapay zekayla ilgili korkularını dile getirdiğinde
00:16
very often, they invoke images of humanoid robots run amok.
1
16320
3976
genellikle kontrolden çıkmış insansı robotları hayal ederler.
00:20
You know? Terminator?
2
20320
1240
Terminatör gibi.
00:22
You know, that might be something to consider,
3
22400
2336
Düşünmeye değer olsa da
00:24
but that's a distant threat.
4
24760
1856
uzak bir tehdit bu.
00:26
Or, we fret about digital surveillance
5
26640
3456
Bazen de geçmişe özgü benzetmelerle
00:30
with metaphors from the past.
6
30120
1776
dijital gözetlenme kaygısı taşıyoruz.
00:31
"1984," George Orwell's "1984,"
7
31920
2656
George Orwell'in ''1984'' adlı eseri
00:34
it's hitting the bestseller lists again.
8
34600
2280
şu an yine en çok satanlar listesinde.
00:37
It's a great book,
9
37960
1416
Harika bir kitap
00:39
but it's not the correct dystopia for the 21st century.
10
39400
3880
ama 21. yüzyıl için doğru distopya değil.
00:44
What we need to fear most
11
44080
1416
En çok korkmamız gereken şey
00:45
is not what artificial intelligence will do to us on its own,
12
45520
4776
yapay zekanın kendi başına bize ne yapacağı değil,
00:50
but how the people in power will use artificial intelligence
13
50320
4736
güç sahibi insanların bizi kontrol ve manipüle etmek adına
00:55
to control us and to manipulate us
14
55080
2816
yeni, bazen saklı,
00:57
in novel, sometimes hidden,
15
57920
3136
bazen de belirsiz ve beklenmeyen şekilde
01:01
subtle and unexpected ways.
16
61080
3016
bunu nasıl kullanacakları.
01:04
Much of the technology
17
64120
1856
Yakın gelecekteki bağımsızlığımızı
01:06
that threatens our freedom and our dignity in the near-term future
18
66000
4336
ve itibarımızı tehdit eden teknolojinin büyük kısmı
01:10
is being developed by companies
19
70360
1856
verilerimizi ve dikkatimizi toplayıp
01:12
in the business of capturing and selling our data and our attention
20
72240
4936
reklamcı ve benzerlerine satan
01:17
to advertisers and others:
21
77200
2256
şirketler tarafından geliştiriliyor:
01:19
Facebook, Google, Amazon,
22
79480
3416
Facebook, Google, Amazon,
01:22
Alibaba, Tencent.
23
82920
1880
Alibaba, Tencent.
01:26
Now, artificial intelligence has started bolstering their business as well.
24
86040
5496
Şimdi yapay zeka da onların işlerine katkıda bulunmaya başladı.
01:31
And it may seem like artificial intelligence
25
91560
2096
Yapay zeka, internet reklamcılığından sonra gelen
01:33
is just the next thing after online ads.
26
93680
2856
yeni bir teknoloji gibi görünse de
01:36
It's not.
27
96560
1216
durum farklı.
01:37
It's a jump in category.
28
97800
2456
Söz konusu olan, ilgili alanda yepyeni bir açılım.
01:40
It's a whole different world,
29
100280
2576
Tamamen farklı bir dünya
01:42
and it has great potential.
30
102880
2616
ve büyük potansiyeli var.
01:45
It could accelerate our understanding of many areas of study and research.
31
105520
6920
Araştırma ve inceleme alanlarındaki kavrayışımızı hızlandırabilir.
01:53
But to paraphrase a famous Hollywood philosopher,
32
113120
3496
Ancak ünlü bir Hollywood filozofundan alıntı yapacak olursam,
01:56
"With prodigious potential comes prodigious risk."
33
116640
3640
''Muhteşem potansiyel muhteşem riskler barındırır.''
02:01
Now let's look at a basic fact of our digital lives, online ads.
34
121120
3936
Dijital hayatlarımızdaki temel bir gerçeğe bakalım.
İnternet reklamları. Öyle değil mi? Onları yok sayıyoruz.
02:05
Right? We kind of dismiss them.
35
125080
2896
02:08
They seem crude, ineffective.
36
128000
1976
Basit ve dikkat dağıtıcı görünüyorlar.
02:10
We've all had the experience of being followed on the web
37
130000
4256
Okuduğumuz veya arattığımız bir konuyla ilgili reklamlar tarafından
02:14
by an ad based on something we searched or read.
38
134280
2776
internette takip edilme tecrübesini hepimiz yaşadık.
02:17
You know, you look up a pair of boots
39
137080
1856
Hani bir çift botun fiyatına bakarsınız
02:18
and for a week, those boots are following you around everywhere you go.
40
138960
3376
ve sonra bütün hafta girdiğiniz her sayfada botlar sizi takip eder.
02:22
Even after you succumb and buy them, they're still following you around.
41
142360
3656
Karşı koyamayıp satın aldıktan sonra bile sizi takip ederler.
02:26
We're kind of inured to that kind of basic, cheap manipulation.
42
146040
3016
Bu basit ve ucuz manipülasyonu adeta kanıksamış durumdayız.
02:29
We roll our eyes and we think, "You know what? These things don't work."
43
149080
3400
Göz devirip kendi kendimize ''İşe yaramıyor bunlar.'' diyoruz.
02:33
Except, online,
44
153720
2096
Ne var ki internet ortamında,
02:35
the digital technologies are not just ads.
45
155840
3600
dijital teknolojiler reklamlardan ibaret değil.
02:40
Now, to understand that, let's think of a physical world example.
46
160240
3120
Bunu anlamak için fiziksel bir dünya örneği ele alalım.
02:43
You know how, at the checkout counters at supermarkets, near the cashier,
47
163840
4656
Süpermarketlerde kasaların hemen yanında
02:48
there's candy and gum at the eye level of kids?
48
168520
3480
çocukların göz hizasında şekerleme ve sakız olur.
02:52
That's designed to make them whine at their parents
49
172800
3496
İlgili düzenek, aileler tam marketten çıkmak üzereyken
02:56
just as the parents are about to sort of check out.
50
176320
3080
çocuklarının bunları ısrarla istemeleri için tasarlanmıştır.
03:00
Now, that's a persuasion architecture.
51
180040
2640
Bu bir ikna mimarisi.
03:03
It's not nice, but it kind of works.
52
183160
3096
Pek hoş değil ama işe yarıyor.
03:06
That's why you see it in every supermarket.
53
186280
2040
Bu yüzden de her süpermarkette görüyoruz.
03:08
Now, in the physical world,
54
188720
1696
Fiziksel dünyada,
03:10
such persuasion architectures are kind of limited,
55
190440
2496
bu ikna mimarileri sınırlıdır,
03:12
because you can only put so many things by the cashier. Right?
56
192960
4816
çünkü kasiyerin yanına koyabileceğiniz şeylerin bir sınırı var, değil mi?
03:17
And the candy and gum, it's the same for everyone,
57
197800
4296
Şeker ve sakız herkes için aynı,
03:22
even though it mostly works
58
202120
1456
her ne kadar yanında
03:23
only for people who have whiny little humans beside them.
59
203600
4040
sızlanan çocuklar olan aileler için işe yarasa da.
03:29
In the physical world, we live with those limitations.
60
209160
3920
Fiziksel dünyada bu sınırlarla yaşıyoruz.
03:34
In the digital world, though,
61
214280
1936
Ancak dijital dünyada,
03:36
persuasion architectures can be built at the scale of billions
62
216240
4320
ikna mimarisi, milyarlara erişecek şekilde inşa edilebilir
03:41
and they can target, infer, understand
63
221840
3856
ve bu reklamlar aynı zamanda
03:45
and be deployed at individuals
64
225720
2896
bireyleri teker teker hedef alarak anlayabilir,
03:48
one by one
65
228640
1216
zayıf noktalarını tespit ederek
03:49
by figuring out your weaknesses,
66
229880
2136
onlara kişisel seviyede nüfuz edebilir
03:52
and they can be sent to everyone's phone private screen,
67
232040
5616
hatta herkesin kişisel telefon ekranına bile gönderilebilir,
03:57
so it's not visible to us.
68
237680
2256
böylelikle bizler görmeyiz.
03:59
And that's different.
69
239960
1256
Ve bu oldukça farklı.
04:01
And that's just one of the basic things that artificial intelligence can do.
70
241240
3576
Bu, yapay zekanın yapabileceği temel şeylerden yalnızca biri.
04:04
Now, let's take an example.
71
244840
1336
Bir örnek verelim.
04:06
Let's say you want to sell plane tickets to Vegas. Right?
72
246200
2696
Diyelim ki Las Vegas'a uçak bileti satmak istiyorsunuz.
04:08
So in the old world, you could think of some demographics to target
73
248920
3496
Eski düzende, deneyim ve öngörülerinize dayanarak
04:12
based on experience and what you can guess.
74
252440
2520
hedef bir demografik kesim belirlersiniz.
04:15
You might try to advertise to, oh,
75
255560
2816
Reklam yapmayı da deneyebilirsiniz,
04:18
men between the ages of 25 and 35,
76
258400
2496
25-35 yaş aralığındaki erkekler
04:20
or people who have a high limit on their credit card,
77
260920
3936
veya kredi kartı limiti yüksek olan insanlar
04:24
or retired couples. Right?
78
264880
1376
veya emekli çiftler, değil mi?
04:26
That's what you would do in the past.
79
266280
1816
Geçmişte böyle yapardınız.
04:28
With big data and machine learning,
80
268120
2896
Şimdi büyük veri ve makine öğrenimi ile
04:31
that's not how it works anymore.
81
271040
1524
işler artık böyle yürümüyor.
04:33
So to imagine that,
82
273320
2176
Bunu anlamak için
04:35
think of all the data that Facebook has on you:
83
275520
3856
Facebook'un sizinle ilgili sahip olduğu tüm verileri düşünün:
04:39
every status update you ever typed,
84
279400
2536
Yazdığınız her durum bildirisi,
04:41
every Messenger conversation,
85
281960
2016
her bir Messenger sohbeti,
04:44
every place you logged in from,
86
284000
1880
oturum açtığınız her konum,
04:48
all your photographs that you uploaded there.
87
288400
3176
yüklediğiniz tüm fotoğraflar.
04:51
If you start typing something and change your mind and delete it,
88
291600
3776
Bir şey yazmaya başlayıp sonra vazgeçip silerseniz
04:55
Facebook keeps those and analyzes them, too.
89
295400
3200
Facebook bu silinenleri de saklayıp analiz ediyor.
04:59
Increasingly, it tries to match you with your offline data.
90
299160
3936
Çevrimdışı verilerinizle sizi gitgide eşleştirmeye çalışıyor.
05:03
It also purchases a lot of data from data brokers.
91
303120
3176
Ayrıca veri acentalarından da çok fazla veri satın alıyor.
05:06
It could be everything from your financial records
92
306320
3416
Finansal kayıtlarınızdan tarama geçmişinize kadar
05:09
to a good chunk of your browsing history.
93
309760
2120
her şey bu veri setinde olabilir.
05:12
Right? In the US, such data is routinely collected,
94
312360
5416
ABD'de bu tür veriler rutin olarak toplanıyor,
05:17
collated and sold.
95
317800
1960
karşılaştırılıyor ve satılıyor.
05:20
In Europe, they have tougher rules.
96
320320
2440
Avrupa'da daha sıkı kurallar var.
05:23
So what happens then is,
97
323680
2200
Yani aslında olan şey,
05:26
by churning through all that data, these machine-learning algorithms --
98
326920
4016
tüm bu veriler harmanlanarak bu makine öğrenimli algoritmalar -
05:30
that's why they're called learning algorithms --
99
330960
2896
onlara bu yüzden öğrenen algoritmalar deniyor -
05:33
they learn to understand the characteristics of people
100
333880
4096
daha önce Las Vegas'a gitmek için uçak bileti alan insanların
05:38
who purchased tickets to Vegas before.
101
338000
2520
özelliklerini nasıl ayrıştıracaklarını öğreniyorlar.
05:41
When they learn this from existing data,
102
341760
3536
Var olan verilerden bunu öğrendiklerinde
05:45
they also learn how to apply this to new people.
103
345320
3816
bunu yeni insanlara uygulamayı da öğreniyorlar.
05:49
So if they're presented with a new person,
104
349160
3056
Böylece, yeni bir bireyle karşılaştıklarında
05:52
they can classify whether that person is likely to buy a ticket to Vegas or not.
105
352240
4640
onun Vegas'a bilet alıp almayacağını sınıflandırabiliyorlar.
05:57
Fine. You're thinking, an offer to buy tickets to Vegas.
106
357720
5456
Olsun diye düşünüyorsunuz, alt tarafı Vegas'a uçak bileti teklifi.
06:03
I can ignore that.
107
363200
1456
Görmezden gelebilirim.
06:04
But the problem isn't that.
108
364680
2216
Ancak asıl sorun bu değil.
06:06
The problem is,
109
366920
1576
Asıl sorun şu ki
06:08
we no longer really understand how these complex algorithms work.
110
368520
4136
biz bu karmaşık algoritmaların nasıl çalıştığını artık anlamıyoruz.
06:12
We don't understand how they're doing this categorization.
111
372680
3456
Bu sınıflandırmayı nasıl yaptıklarını artık anlamıyoruz.
06:16
It's giant matrices, thousands of rows and columns,
112
376160
4416
Dev matematik matrisleri, binlerce sıra ve sütun,
06:20
maybe millions of rows and columns,
113
380600
1960
belki de milyonlarcası...
06:23
and not the programmers
114
383320
2640
Ve tüm verilere sahip olsalar bile,
06:26
and not anybody who looks at it,
115
386760
1680
ne programcılar,
06:29
even if you have all the data,
116
389440
1496
ne de bunları inceleyen biri
06:30
understands anymore how exactly it's operating
117
390960
4616
bunun tam olarak nasıl işlediğini anlayabiliyor.
06:35
any more than you'd know what I was thinking right now
118
395600
3776
Tıpkı size beynimden bir kesit göstersem
06:39
if you were shown a cross section of my brain.
119
399400
3960
ne düşündüğümü anlayamayacağınız gibi.
06:44
It's like we're not programming anymore,
120
404360
2576
Sanki artık programlama yapmıyoruz,
06:46
we're growing intelligence that we don't truly understand.
121
406960
4400
tam olarak anlayamadığımız bir bilinç geliştiriyoruz.
06:52
And these things only work if there's an enormous amount of data,
122
412520
3976
Üstelik bu mekanizmalar yalnızca müthiş miktarda veri varsa çalışıyor,
06:56
so they also encourage deep surveillance on all of us
123
416520
5096
dolayısı ile hepimizin üzerinde kapsamlı bir gözetleme de teşvik ediliyor ki
07:01
so that the machine learning algorithms can work.
124
421640
2336
makine öğrenimli algoritmalar işini yapabilsin.
07:04
That's why Facebook wants to collect all the data it can about you.
125
424000
3176
Bu yüzden Facebook, hakkınızda toplayabildiği tüm veriyi istiyor.
07:07
The algorithms work better.
126
427200
1576
Algoritmalar daha iyi çalışıyor.
07:08
So let's push that Vegas example a bit.
127
428800
2696
Şu Vegas örneğinin biraz üstüne gidelim.
07:11
What if the system that we do not understand
128
431520
3680
Ya anlamadığımız bu sistem
07:16
was picking up that it's easier to sell Vegas tickets
129
436200
5136
mani döneme geçmek üzere olan bipolar insanlara
07:21
to people who are bipolar and about to enter the manic phase.
130
441360
3760
Vegas bileti satmanın daha kolay olduğunu anlarsa?
07:25
Such people tend to become overspenders, compulsive gamblers.
131
445640
4920
Bu insanlar çok para harcamaya ve dürtüsel kumarbazlığa meyilli oluyor.
07:31
They could do this, and you'd have no clue that's what they were picking up on.
132
451280
4456
Bunu yapabilirler ve söz konusu kriteri seçtiklerinden haberiniz bile olmaz.
07:35
I gave this example to a bunch of computer scientists once
133
455760
3616
Bu örneği bir grup bilgisayar bilimcisine verdim,
07:39
and afterwards, one of them came up to me.
134
459400
2056
sonra içlerinden biri yanıma geldi.
07:41
He was troubled and he said, "That's why I couldn't publish it."
135
461480
3520
Rahatsız olmuştu ve şöyle dedi: ''İşte bu yüzden yayınlayamadım.''
07:45
I was like, "Couldn't publish what?"
136
465600
1715
''Neyi yayınlayamadın?'' dedim.
07:47
He had tried to see whether you can indeed figure out the onset of mania
137
467800
5856
Mani halinin ön belirtilerinin klinik semptomlardan önce
07:53
from social media posts before clinical symptoms,
138
473680
3216
sosyal medya paylaşımlarından anlaşılabilirliğini incelemişti
07:56
and it had worked,
139
476920
1776
ve işe yaramıştı,
07:58
and it had worked very well,
140
478720
2056
gerçekten işe yaramıştı
08:00
and he had no idea how it worked or what it was picking up on.
141
480800
4880
ama nasıl işe yaradığı veya ne tür bilgi topladığını o da bilmiyordu.
08:06
Now, the problem isn't solved if he doesn't publish it,
142
486840
4416
Yayınlamadığı zaman problem çözülmüyor
08:11
because there are already companies
143
491280
1896
çünkü zaten bu teknolojiyi geliştiren
08:13
that are developing this kind of technology,
144
493200
2536
halihazırda şirketler var.
08:15
and a lot of the stuff is just off the shelf.
145
495760
2800
Bunun pek çoğu satışa hazır.
08:19
This is not very difficult anymore.
146
499240
2576
Artık bunu yapmak çok zor değil.
08:21
Do you ever go on YouTube meaning to watch one video
147
501840
3456
Tek bir video izlemek için YouTube'a girip
08:25
and an hour later you've watched 27?
148
505320
2360
bir saat sonra 27 video izlediğiniz oluyor mu hiç?
08:28
You know how YouTube has this column on the right
149
508760
2496
YouTube'ta sağ tarafta
08:31
that says, "Up next"
150
511280
2216
''Sıradaki'' diye bir sütun var
08:33
and it autoplays something?
151
513520
1816
ve otomatik yeni video başlatıyor.
08:35
It's an algorithm
152
515360
1216
Bu bir algoritma,
08:36
picking what it thinks that you might be interested in
153
516600
3616
ilgilendiğinizi ve kendi başınıza bulamayacağınızı düşündüğü
08:40
and maybe not find on your own.
154
520240
1536
videoları seçiyor.
08:41
It's not a human editor.
155
521800
1256
Editör bir insan değil.
08:43
It's what algorithms do.
156
523080
1416
Algoritmaların işi bu.
08:44
It picks up on what you have watched and what people like you have watched,
157
524520
4736
Sizin ve sizin gibi insanların izlediklerini derliyor,
08:49
and infers that that must be what you're interested in,
158
529280
4216
ilgi alanlarınızın bunlar olduğu
ve daha fazlasını görmek istediğiniz çıkarımını yapıyor,
08:53
what you want more of,
159
533520
1255
08:54
and just shows you more.
160
534799
1336
daha fazlasını gösteriyor.
08:56
It sounds like a benign and useful feature,
161
536159
2201
İyi, faydalı bir özelllik gibi görünüyor
08:59
except when it isn't.
162
539280
1200
ama öyle değil.
09:01
So in 2016, I attended rallies of then-candidate Donald Trump
163
541640
6960
2016'da o zaman aday olan Trump'ın toplantılarına
09:09
to study as a scholar the movement supporting him.
164
549840
3336
destekçilerini araştırmak üzere akademisyen olarak katıldım.
09:13
I study social movements, so I was studying it, too.
165
553200
3456
İşim gereği sosyal akımları inceliyorum, yani araştırıyordum da.
09:16
And then I wanted to write something about one of his rallies,
166
556680
3336
Sonra toplantılarından biri hakkında yazmak istedim,
09:20
so I watched it a few times on YouTube.
167
560040
1960
o yüzden de toplantıyı YouTube'da birkaç kez izledim.
09:23
YouTube started recommending to me
168
563240
3096
YouTube, beyaz ırk üstünlüğü ile ilgili
09:26
and autoplaying to me white supremacist videos
169
566360
4256
radikallik seviyesi giderek artan videolar önermeye
09:30
in increasing order of extremism.
170
570640
2656
ve onları otomatik oynatmaya başladı.
09:33
If I watched one,
171
573320
1816
Eğer bir tane izlediysem
09:35
it served up one even more extreme
172
575160
2976
YouTube daha marjinal bir tanesini buldu
09:38
and autoplayed that one, too.
173
578160
1424
ve onu da otomatik yürüttü.
09:40
If you watch Hillary Clinton or Bernie Sanders content,
174
580320
4536
Hillary Clinton veya Bernie Sanders ile ilgili içerikler izlerseniz
09:44
YouTube recommends and autoplays conspiracy left,
175
584880
4696
YouTube komplocu solcuları öneriyor ve oynatıyor,
09:49
and it goes downhill from there.
176
589600
1760
ondan sonra da gittikçe kötüleşiyor.
09:52
Well, you might be thinking, this is politics, but it's not.
177
592480
3056
Bunun yalnızca siyaset olduğunu düşünebilirsiniz ama değil.
09:55
This isn't about politics.
178
595560
1256
Bu siyasetle ilgili değil.
09:56
This is just the algorithm figuring out human behavior.
179
596840
3096
Bu sadece insan davranışını anlayan algoritma.
09:59
I once watched a video about vegetarianism on YouTube
180
599960
4776
Bir kez YouTube'ta vejeteryanlıkla ilgili bir video izledim
10:04
and YouTube recommended and autoplayed a video about being vegan.
181
604760
4936
ve YouTube vegan olmak hakkında bir video önerip oynattı.
10:09
It's like you're never hardcore enough for YouTube.
182
609720
3016
YouTube için hiçbir zaman yeteri kadar cüretkar olamıyoruz.
10:12
(Laughter)
183
612760
1576
(Gülüşmeler)
10:14
So what's going on?
184
614360
1560
Peki aslında ne oluyor?,
10:16
Now, YouTube's algorithm is proprietary,
185
616520
3536
YouTube algoritması patentli,
10:20
but here's what I think is going on.
186
620080
2360
yine de şöyle olduğunu düşünüyorum.
10:23
The algorithm has figured out
187
623360
2096
Algoritma şunu fark etti ki
10:25
that if you can entice people
188
625480
3696
insanları etkilemek için
10:29
into thinking that you can show them something more hardcore,
189
629200
3736
onlara daha cüretkar videolar sunarsan,
10:32
they're more likely to stay on the site
190
632960
2416
muhtemelen sitede daha fazla kalacak,
10:35
watching video after video going down that rabbit hole
191
635400
4416
o anlaşılmaz yola girerek ardı ardına video izleyecek,
10:39
while Google serves them ads.
192
639840
1680
bu esnada Google da reklam sunacak.
10:43
Now, with nobody minding the ethics of the store,
193
643760
3120
Hazır, işin etik kısmını önemseyen kimse de yokken,
10:47
these sites can profile people
194
647720
4240
bu siteler,
Yahudiler aleyhine paylaşım yapan
10:53
who are Jew haters,
195
653680
1920
10:56
who think that Jews are parasites
196
656360
2480
ve onların parazit olduğunu düşünen
11:00
and who have such explicit anti-Semitic content,
197
660320
4920
radikal Yahudi düşmanları özelinde profilleme yapabiliyor
11:06
and let you target them with ads.
198
666080
2000
ve reklamlarla onları hedeflemenizi sağlıyor.
11:09
They can also mobilize algorithms
199
669200
3536
Ayrıca algoritmaları genişleterek,
11:12
to find for you look-alike audiences,
200
672760
3136
sizin için benzer kitleler bulup
11:15
people who do not have such explicit anti-Semitic content on their profile
201
675920
5576
profillerinde bu tip, Yahudi karşıtı, aykırı içerik bulunmayan
11:21
but who the algorithm detects may be susceptible to such messages,
202
681520
6176
fakat algoritmanın bu tür mesajlara karşı
duyarlı olabileceğini belirlediği kişileri yakalıyor
11:27
and lets you target them with ads, too.
203
687720
1920
ve onları da reklamlarla hedeflemenize izin veriyor.
11:30
Now, this may sound like an implausible example,
204
690680
2736
İnanılmaz bir örnek gibi gelebilir
11:33
but this is real.
205
693440
1320
ama bu gerçek.
11:35
ProPublica investigated this
206
695480
2136
ProPublica bunu soruşturdu
11:37
and found that you can indeed do this on Facebook,
207
697640
3616
ve Facebook'ta bunu gerçekten yapabileceğinizi ortaya koydu,
11:41
and Facebook helpfully offered up suggestions
208
701280
2416
Facebook ilgili kitleyi genişletmede
11:43
on how to broaden that audience.
209
703720
1600
öneriler sunarak yardımcı oldu.
11:46
BuzzFeed tried it for Google, and very quickly they found,
210
706720
3016
BuzzFeed bunu Google için denedi ve hızla anladılar ki
11:49
yep, you can do it on Google, too.
211
709760
1736
bunu Google'da da yapabiliyoruz.
11:51
And it wasn't even expensive.
212
711520
1696
Pahalı bile değildi.
11:53
The ProPublica reporter spent about 30 dollars
213
713240
4416
ProPublica habercisi bu kategoriyi hedeflemek için
11:57
to target this category.
214
717680
2240
30 dolar kadar harcadı.
12:02
So last year, Donald Trump's social media manager disclosed
215
722600
5296
Geçen sene Trump'ın sosyal medya yetkilisi kargaşayı sona erdirmek için
12:07
that they were using Facebook dark posts to demobilize people,
216
727920
5336
gizli Facebook paylaşımları kullandıklarını açıkladı,
12:13
not to persuade them,
217
733280
1376
insanları ikna için değil,
12:14
but to convince them not to vote at all.
218
734680
2800
hiç oy vermemelerini sağlamak için.
12:18
And to do that, they targeted specifically,
219
738520
3576
Bunu yapmak için özel olarak hedef belirlediler,
12:22
for example, African-American men in key cities like Philadelphia,
220
742120
3896
mesela önemli Philadelphia kentlerindeki Afro Amerikalı erkekler,
12:26
and I'm going to read exactly what he said.
221
746040
2456
hatta tam olarak ne dediğini okuyacağım.
12:28
I'm quoting.
222
748520
1216
Alıntı yapıyorum.
12:29
They were using "nonpublic posts
223
749760
3016
''Görülebilirliğini siyasi kampanyanın kontrol ettiği
12:32
whose viewership the campaign controls
224
752800
2176
böylece sadece görmesini istediğimiz insanların görebileceği
12:35
so that only the people we want to see it see it.
225
755000
3776
herkese açık olmayan paylaşımlar.
12:38
We modeled this.
226
758800
1216
Bunu biz tasarladık.
12:40
It will dramatically affect her ability to turn these people out."
227
760040
4720
Bu, onun söz konusu insanları
kazanma yetisini önemli ölçüde etkileyecektir.''
12:45
What's in those dark posts?
228
765720
2280
Bu gizli paylaşımlarda ne var peki?
12:48
We have no idea.
229
768480
1656
Hiçbir fikrimiz yok.
12:50
Facebook won't tell us.
230
770160
1200
Facebook bize açıklamıyor.
12:52
So Facebook also algorithmically arranges the posts
231
772480
4376
Facebook ayrıca algoritmik bir şekilde arkadaşlarınızın paylaşımlarını
12:56
that your friends put on Facebook, or the pages you follow.
232
776880
3736
ve takip ettiğiniz sayfaları düzenliyor.
13:00
It doesn't show you everything chronologically.
233
780640
2216
Size her şeyi kronolojik olarak göstermiyor.
13:02
It puts the order in the way that the algorithm thinks will entice you
234
782880
4816
Algoritmanın, sitede daha fazla kalmanızı sağlayacak şekilde
13:07
to stay on the site longer.
235
787720
1840
kurduğu düzeni uyguluyor.
13:11
Now, so this has a lot of consequences.
236
791040
3376
Bunun pek çok sonucu var.
13:14
You may be thinking somebody is snubbing you on Facebook.
237
794440
3800
Facebook'ta birinin takipçiniz olduğunu düşünüyor olabiliirsiniz.
13:18
The algorithm may never be showing your post to them.
238
798800
3256
Oysa algoritma sizin paylaşımınızı asla onlara göstermiyor olabilir.
13:22
The algorithm is prioritizing some of them and burying the others.
239
802080
5960
Algoritma kimini öne çıkarırken kimini ortadan kaldırıyor.
13:29
Experiments show
240
809320
1296
Deneyler gösteriyor ki
13:30
that what the algorithm picks to show you can affect your emotions.
241
810640
4520
algoritmanın sizin için seçtikleri duygularınızı etkileyebilir.
13:36
But that's not all.
242
816600
1200
Bununla da bitmiyor.
13:38
It also affects political behavior.
243
818280
2360
Siyasi davranışınızı da etkiliyor.
13:41
So in 2010, in the midterm elections,
244
821360
4656
2010 yılı orta dönem seçimlerinde,
13:46
Facebook did an experiment on 61 million people in the US
245
826040
5896
Facebook, ABD'deki 61 milyon insan üstünde
13:51
that was disclosed after the fact.
246
831960
1896
daha sonra açıklanan bir deney yaptı.
13:53
So some people were shown, "Today is election day,"
247
833880
3416
Bir grup insana ''Bugün seçim günü'' yazısı gösterildi,
13:57
the simpler one,
248
837320
1376
bu daha basit olandı,
13:58
and some people were shown the one with that tiny tweak
249
838720
3896
diğer bir gruba ise aynı şey, küçük bir farkla gösterildi:
14:02
with those little thumbnails
250
842640
2096
''Oy verdim'' butonuna tıklayan arkadaşlarının
14:04
of your friends who clicked on "I voted."
251
844760
2840
küçük fotoğraflarının bulunduğu versiyon.
14:09
This simple tweak.
252
849000
1400
Bu kadar basit bir nüans.
14:11
OK? So the pictures were the only change,
253
851520
4296
Değişen tek şey fotoğraflardı
14:15
and that post shown just once
254
855840
3256
ve seçmen kütüğünce de onaylandığı üzere,
bu araştırmaya istinaden
14:19
turned out an additional 340,000 voters
255
859120
6056
yalnızca bir kez gösterilen bu paylaşım
o seçimde
14:25
in that election,
256
865200
1696
14:26
according to this research
257
866920
1696
340.000 ek seçmen olarak sonuçlandı.
14:28
as confirmed by the voter rolls.
258
868640
2520
14:32
A fluke? No.
259
872920
1656
Şans eseri mi? Hayır.
14:34
Because in 2012, they repeated the same experiment.
260
874600
5360
Çünkü 2012'de aynı deneyi tekrarladılar.
14:40
And that time,
261
880840
1736
O zaman,
14:42
that civic message shown just once
262
882600
3296
yalnızca bir kez gösterilen sivil mesaj
14:45
turned out an additional 270,000 voters.
263
885920
4440
270.000 ek seçmen olarak geri döndü.
14:51
For reference, the 2016 US presidential election
264
891160
5216
Hatırlatayım, 2016 ABD başkanlık seçimleri
14:56
was decided by about 100,000 votes.
265
896400
3520
yaklaşık 100.000 oy farkıyla belirlendi.
15:01
Now, Facebook can also very easily infer what your politics are,
266
901360
4736
Yani Facebook kolaylıkla politikanız hakkında çıkarım yapabiliyor,
15:06
even if you've never disclosed them on the site.
267
906120
2256
siz bunu sitede hiç açıklamamış olsanız bile.
15:08
Right? These algorithms can do that quite easily.
268
908400
2520
Bu algoritmalar bunu oldukça kolay başarabiliyorlar.
15:11
What if a platform with that kind of power
269
911960
3896
Peki ya bu güce sahip bir platform
15:15
decides to turn out supporters of one candidate over the other?
270
915880
5040
bunu adaylardan birinin destekçilerini arttırmak için kullanırsa?
15:21
How would we even know about it?
271
921680
2440
Bundan haberimiz olur mu?
15:25
Now, we started from someplace seemingly innocuous --
272
925560
4136
Masum gibi görünen bir yerden başladık:
15:29
online adds following us around --
273
929720
2216
Bizi takip eden reklamlardan...
15:31
and we've landed someplace else.
274
931960
1840
şimdiyse çok farklı bir yerdeyiz.
15:35
As a public and as citizens,
275
935480
2456
Hem halk hem de vatandaş olarak
15:37
we no longer know if we're seeing the same information
276
937960
3416
artık aynı bilgileri görüp görmediğimizi
15:41
or what anybody else is seeing,
277
941400
1480
ve başkalarının ne gördüğünü bilmiyoruz
15:43
and without a common basis of information,
278
943680
2576
ve ortak bir bilgi tabanı olmadan,
15:46
little by little,
279
946280
1616
adım adım,
15:47
public debate is becoming impossible,
280
947920
3216
toplumsal tartışma imkansız hale geliyor,
15:51
and we're just at the beginning stages of this.
281
951160
2976
biz bunun sadece başlangıç aşamasındayız.
15:54
These algorithms can quite easily infer
282
954160
3456
Bu algoritmalar kolaylıkla
15:57
things like your people's ethnicity,
283
957640
3256
insanların etnik özelliklerini,
16:00
religious and political views, personality traits,
284
960920
2336
dini ve siyasi görüşlerini, kişilik özelliklerini,
16:03
intelligence, happiness, use of addictive substances,
285
963280
3376
zekasını, mutluluğunu, madde kullanıp kullanmadığını,
16:06
parental separation, age and genders,
286
966680
3136
ailesinin durumunu, yaş ve cinsiyetini
16:09
just from Facebook likes.
287
969840
1960
sadece Facebook beğenilerinden tahmin edebilir.
16:13
These algorithms can identify protesters
288
973440
4056
Bu algoritmalar, yüzleri kısmen gizlenmiş olsa da
16:17
even if their faces are partially concealed.
289
977520
2760
protestocuların kimliğini belirleyebilir.
16:21
These algorithms may be able to detect people's sexual orientation
290
981720
6616
Hatta bu algoritmalar insanların cinsel yönelimini
16:28
just from their dating profile pictures.
291
988360
3200
sadece tanışma uygulamalarındaki profil fotoğraflarından anlayabilir.
16:33
Now, these are probabilistic guesses,
292
993560
2616
Tabii bunlar olasılıksal tahminler,
16:36
so they're not going to be 100 percent right,
293
996200
2896
%100 doğru olamazlar
16:39
but I don't see the powerful resisting the temptation to use these technologies
294
999120
4896
ama insanlar sadece bazı sonuçlar yanlış olduğu için
bu teknolojileri kullanma arzularına direnmeyecekler,
16:44
just because there are some false positives,
295
1004040
2176
16:46
which will of course create a whole other layer of problems.
296
1006240
3256
bu da beraberinde bir yığın farklı sorun getirecek.
16:49
Imagine what a state can do
297
1009520
2936
Devletlerin vatandaşları hakkında sahip oldukları
16:52
with the immense amount of data it has on its citizens.
298
1012480
3560
müthiş miktarda veriyle neler yapabileceklerini düşünün.
16:56
China is already using face detection technology
299
1016680
4776
Çin, insanları tespit etmek ve tutuklamak için
17:01
to identify and arrest people.
300
1021480
2880
yüz tanıma teknolojisini kullanıyor bile.
17:05
And here's the tragedy:
301
1025280
2136
İşin acı kısmı şu ki biz,
17:07
we're building this infrastructure of surveillance authoritarianism
302
1027440
5536
gözetlemeye dayalı bu otoriter altyapıyı
17:13
merely to get people to click on ads.
303
1033000
2960
yalnızca insanların reklamlara tıklaması için geliştiriyoruz.
17:17
And this won't be Orwell's authoritarianism.
304
1037240
2576
Bu Orwell'in otoriter rejimi olmayacak.
17:19
This isn't "1984."
305
1039839
1897
Bu ''1984'' değil.
17:21
Now, if authoritarianism is using overt fear to terrorize us,
306
1041760
4576
Eğer otoriterlik bizi paniğe sürüklemek için aleni korku kullanacaksa
17:26
we'll all be scared, but we'll know it,
307
1046359
2897
hepimiz korkacağız ama bundan haberimiz olacak,
17:29
we'll hate it and we'll resist it.
308
1049280
2200
nefret duyacağız ve karşı koyacağız.
17:32
But if the people in power are using these algorithms
309
1052880
4416
Ancak mevki sahibi insanlar bu algoritmaları
17:37
to quietly watch us,
310
1057319
3377
bizi sessizce izlemek,
17:40
to judge us and to nudge us,
311
1060720
2080
yargılamak ve dürtmek,
17:43
to predict and identify the troublemakers and the rebels,
312
1063720
4176
sorun çıkaranlar ve asileri önceden tahmin etmek ve kimliğini belirlemek,
17:47
to deploy persuasion architectures at scale
313
1067920
3896
üzerimizde ikna mimarisi oluşturmak
17:51
and to manipulate individuals one by one
314
1071840
4136
ve tek tek bireyleri manipüle etmek için
17:56
using their personal, individual weaknesses and vulnerabilities,
315
1076000
5440
kişisel zayıf ve hassas noktalarımızdan yararlanarak kullanırlarsa,
18:02
and if they're doing it at scale
316
1082720
2200
dahası bunu ölçeklendirip
18:06
through our private screens
317
1086080
1736
özel ekranlarımızdan
18:07
so that we don't even know
318
1087840
1656
çevremizdeki insanların
18:09
what our fellow citizens and neighbors are seeing,
319
1089520
2760
ne gördüklerini bilemeyeceğimiz bir şekilde yaparlarsa,
18:13
that authoritarianism will envelop us like a spider's web
320
1093560
4816
bu otoriter rejim bizi bir örümcek ağı gibi kıstırır
18:18
and we may not even know we're in it.
321
1098400
2480
ve biz yakalandığımızı bile anlamayız.
18:22
So Facebook's market capitalization
322
1102440
2936
Facebook'un piyasa değeri
18:25
is approaching half a trillion dollars.
323
1105400
3296
yarım trilyon dolara yaklaşıyor.
18:28
It's because it works great as a persuasion architecture.
324
1108720
3120
Bunun sebebi ikna mimarisi olarak harika çalışıyor olması.
18:33
But the structure of that architecture
325
1113760
2816
Ancak bu mimari yapı
18:36
is the same whether you're selling shoes
326
1116600
3216
ayakkabı satıyor olsanız da aynı
18:39
or whether you're selling politics.
327
1119840
2496
siyaset satıyor olsanız da.
18:42
The algorithms do not know the difference.
328
1122360
3120
Algoritmalar farkı anlamıyor.
18:46
The same algorithms set loose upon us
329
1126240
3296
Reklamlara karşı bizi sabırlı kılmak için
18:49
to make us more pliable for ads
330
1129560
3176
üzerimize salınan bu algoritmalar,
18:52
are also organizing our political, personal and social information flows,
331
1132760
6736
aynı zamanda siyasi, kişisel ve sosyal bilgi akışımızı da düzenliyor
18:59
and that's what's got to change.
332
1139520
1840
ve bu değişmek zorunda.
19:02
Now, don't get me wrong,
333
1142240
2296
Beni yanlış anlamayın,
19:04
we use digital platforms because they provide us with great value.
334
1144560
3680
bize büyük fayda sağladıkları için dijital platformları kullanıyoruz.
19:09
I use Facebook to keep in touch with friends and family around the world.
335
1149120
3560
Facebook ile dünyanın her yerinden aile ve arkadaşlarımla görüşebiliyorum.
19:14
I've written about how crucial social media is for social movements.
336
1154000
5776
Sosyal medyanın, sosyal hareketler için ne kadar önemli olduğu hakkında yazdım.
19:19
I have studied how these technologies can be used
337
1159800
3016
Bu teknolojilerin dünyadaki sansür uygulamalarını aşmak için
19:22
to circumvent censorship around the world.
338
1162840
2480
nasıl kullanılabileceği üzerine çalıştım.
19:27
But it's not that the people who run, you know, Facebook or Google
339
1167280
6416
Facebook ve Google yöneticilerinin
19:33
are maliciously and deliberately trying
340
1173720
2696
kasten ve kötü niyetli bir şekilde
19:36
to make the country or the world more polarized
341
1176440
4456
ülkeyi ve dünyayı kutuplaştırmaya
veya radikalliği teşvik etmeye çalıştığını söylemiyorum.
19:40
and encourage extremism.
342
1180920
1680
19:43
I read the many well-intentioned statements
343
1183440
3976
Bu insanların yayınladığı
19:47
that these people put out.
344
1187440
3320
pek çok iyi niyetli yazı okudum.
19:51
But it's not the intent or the statements people in technology make that matter,
345
1191600
6056
Ancak bu konuda niyet veya ifadelerin bir önemi yok.
19:57
it's the structures and business models they're building.
346
1197680
3560
Sorun, inşa ettikleri bu yapı ve iş modelleri.
20:02
And that's the core of the problem.
347
1202360
2096
Sorunun kökeninde bu var.
20:04
Either Facebook is a giant con of half a trillion dollars
348
1204480
4720
Ya Facebook yarım trilyon değerinde dev bir yapı
20:10
and ads don't work on the site,
349
1210200
1896
ve reklamlar bu sitede çalışmıyor,
20:12
it doesn't work as a persuasion architecture,
350
1212120
2696
ikna mimarisi olarak faaliyet göstermiyor
20:14
or its power of influence is of great concern.
351
1214840
4120
ya da etki gücü dehşet verici.
20:20
It's either one or the other.
352
1220560
1776
İkisinden biri.
20:22
It's similar for Google, too.
353
1222360
1600
Google için de aynısı söz konusu.
20:24
So what can we do?
354
1224880
2456
Peki ne yapabiliriz?
20:27
This needs to change.
355
1227360
1936
Bunun değişmesi gerekiyor.
20:29
Now, I can't offer a simple recipe,
356
1229320
2576
Basit bir formül öneremem
20:31
because we need to restructure
357
1231920
2256
çünkü dijital teknolojimizin çalışma şeklini
20:34
the whole way our digital technology operates.
358
1234200
3016
yeniden inşa etmemiz gerekiyor.
20:37
Everything from the way technology is developed
359
1237240
4096
Teknolojinin geliştirilme biçiminden,
20:41
to the way the incentives, economic and otherwise,
360
1241360
3856
ekonomik ve diğer alanlardaki teşviklerin
20:45
are built into the system.
361
1245240
2280
sisteme taşınmasına kadar her şey...
20:48
We have to face and try to deal with
362
1248480
3456
Tescilli algoritmalar tarafından yaratılan şeffaflık noksanlığı,
20:51
the lack of transparency created by the proprietary algorithms,
363
1251960
4656
makine öğrenimi anlaşılmazlığının yapısal zorluğu
20:56
the structural challenge of machine learning's opacity,
364
1256640
3816
ve hakkımızda toplanan tüm bu rastgele veri sorunlarıyla yüzleşmek
21:00
all this indiscriminate data that's being collected about us.
365
1260480
3400
ve bunların üstesinden gelmeye çalışmak zorundayız.
21:05
We have a big task in front of us.
366
1265000
2520
Bize büyük bir görev düşüyor.
21:08
We have to mobilize our technology,
367
1268160
2680
Teknolojimizi, yaratıcılığımızı
21:11
our creativity
368
1271760
1576
ve evet, siyasetimizi
21:13
and yes, our politics
369
1273360
1880
harekete geçirmemiz lazım,
21:16
so that we can build artificial intelligence
370
1276240
2656
böylece kişisel amaçlarımızda bizi destekleyen
21:18
that supports us in our human goals
371
1278920
3120
21:22
but that is also constrained by our human values.
372
1282800
3920
fakat insani değerlere de bağlı
yapay zekayı inşa edebiliriz.
21:27
And I understand this won't be easy.
373
1287600
2160
Bunun kolay olmayacağını biliyorum.
21:30
We might not even easily agree on what those terms mean.
374
1290360
3600
Bu terimlerin ne anlama geldiği konusunda bile kolayca anlaşamayabiliriz.
21:34
But if we take seriously
375
1294920
2400
Ancak bu kadar çok faaliyet konusunda
21:38
how these systems that we depend on for so much operate,
376
1298240
5976
sürekli ihtiyaç duyduğumuz bu sistemlerin çalışma şeklini ciddiye alırsak,
21:44
I don't see how we can postpone this conversation anymore.
377
1304240
4120
bu konuşmayı ertelemek için hiçbir sebep göremiyorum.
21:49
These structures
378
1309200
2536
Bu yapılar,
21:51
are organizing how we function
379
1311760
4096
bizim işleyişimizi düzenliyor
21:55
and they're controlling
380
1315880
2296
ve ne yapıp ne yapamayacağımızı kontrol ediyor.
21:58
what we can and we cannot do.
381
1318200
2616
22:00
And many of these ad-financed platforms,
382
1320840
2456
Reklamla finanse edilen bu platformların çoğu
22:03
they boast that they're free.
383
1323320
1576
ücretsiz olmakla övünüyorlar.
22:04
In this context, it means that we are the product that's being sold.
384
1324920
4560
Bu bağlamda, bunun anlamı şu: Satılmakta olan ürün biziz.
22:10
We need a digital economy
385
1330840
2736
Veri ve dikkatimizin
22:13
where our data and our attention
386
1333600
3496
en yüksek ücreti veren otoriter veya demagoga satılmadığı
22:17
is not for sale to the highest-bidding authoritarian or demagogue.
387
1337120
5080
bir dijital ekonomiye ihtiyacımız var.
22:23
(Applause)
388
1343160
3800
(Alkışlar)
22:30
So to go back to that Hollywood paraphrase,
389
1350480
3256
Şu Hollywood sözüne geri dönmek gerekirse,
22:33
we do want the prodigious potential
390
1353760
3736
yapay zeka ve dijital teknolojinin müthiş potansiyelinin
22:37
of artificial intelligence and digital technology to blossom,
391
1357520
3200
çiçek açmasını elbette istiyoruz
22:41
but for that, we must face this prodigious menace,
392
1361400
4936
fakat bunun olması için bu müthiş tehditle yüzleşmemiz lazım,
22:46
open-eyed and now.
393
1366360
1936
gözlerimiz tamamen açık ve şimdi.
22:48
Thank you.
394
1368320
1216
Teşekkür ederim.
22:49
(Applause)
395
1369560
4640
(Alkışlar)
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7