Beware online "filter bubbles" | Eli Pariser

Eli: Paraser: Çevrim içi "Filtre baloncukları" 'na dikkat ediniz.

1,588,934 views

2011-05-02 ・ TED


New videos

Beware online "filter bubbles" | Eli Pariser

Eli: Paraser: Çevrim içi "Filtre baloncukları" 'na dikkat ediniz.

1,588,934 views ・ 2011-05-02

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Alim Baytekin Gözden geçirme: Sancak Gülgen
00:15
Mark Zuckerberg,
0
15260
2000
Mark Zuckerberg,
00:17
a journalist was asking him a question about the news feed.
1
17260
3000
bir gazateci ona haber yayınlayıcı hakkında bır soru soruyordu.
00:20
And the journalist was asking him,
2
20260
2000
Ve gazeteci ona soruyordu,
00:22
"Why is this so important?"
3
22260
2000
"Niçin bu çok önemli?"
00:24
And Zuckerberg said,
4
24260
2000
Ve Zeckeberg dediki,
00:26
"A squirrel dying in your front yard
5
26260
2000
"Afrika'da ölen insanlardansa,
00:28
may be more relevant to your interests right now
6
28260
3000
belki bir sincabın önümüzdeki bahçede ölmesi
00:31
than people dying in Africa."
7
31260
3000
şu an belki daha ilgi alanımız içindedir."
00:34
And I want to talk about
8
34260
2000
Ve konuşmak istediğim
00:36
what a Web based on that idea of relevance might look like.
9
36260
3000
Web tabanlı içeriğin ne gibi bu konu hakkında ilgili olacağı.
00:40
So when I was growing up
10
40260
2000
Gerçekten kırsal alan olan
00:42
in a really rural area in Maine,
11
42260
2000
Maine'de büyürken,
00:44
the Internet meant something very different to me.
12
44260
3000
İnternetin manası bana çok farklı geliyordu.
00:47
It meant a connection to the world.
13
47260
2000
Dünya ile bağlantı anlamına geliyordu.
00:49
It meant something that would connect us all together.
14
49260
3000
Hep birimizi birbirine bağlayabilmek anlamına geliyordu.
00:52
And I was sure that it was going to be great for democracy
15
52260
3000
Ve kesinlikle emindim ki, demokrasi
00:55
and for our society.
16
55260
3000
ve bizim topluma mükemmel olacaktı.
00:58
But there's this shift
17
58260
2000
Fakat bilginin çevrimiçi dolaşımında
01:00
in how information is flowing online,
18
60260
2000
bir kayma var.
01:02
and it's invisible.
19
62260
3000
ve bu gözle görünmüyor.
01:05
And if we don't pay attention to it,
20
65260
2000
Ve eğer bizler buna dikkat etmez isek,
01:07
it could be a real problem.
21
67260
3000
bu bir gerçek sorun olabilir.
01:10
So I first noticed this in a place I spend a lot of time --
22
70260
3000
Böylece ilk olarak çok zaman harcadığım yerde
01:13
my Facebook page.
23
73260
2000
benim Facebook sayfamda farkına vardım.
01:15
I'm progressive, politically -- big surprise --
24
75260
3000
Ben yenilikçi, politlik olarak --büyük sürpriz --
01:18
but I've always gone out of my way to meet conservatives.
25
78260
2000
fakat ben herzaman tutucu kesimle tanışmak için kendi yolumun dışına çıkıyordum.
01:20
I like hearing what they're thinking about;
26
80260
2000
Onların ne düşündüklerini dinlemek benim hoşuma gider;
01:22
I like seeing what they link to;
27
82260
2000
Onların nelere bağlandılarını görmek benim hoşuma gider;
01:24
I like learning a thing or two.
28
84260
2000
Bir iki şey öğrenmek benim hoşuma gider.
01:26
And so I was surprised when I noticed one day
29
86260
3000
Ve bir gün tutucu kesimin benim Facebook yayınından
01:29
that the conservatives had disappeared from my Facebook feed.
30
89260
3000
yok olduğunu farkedince şaşırmıştım.
01:33
And what it turned out was going on
31
93260
2000
Ve karşıma çıkan bu gelişen olayda,
01:35
was that Facebook was looking at which links I clicked on,
32
95260
4000
Facebook'un benim hangi bağlantılara tıkladığıma bakıyor olmasıydı,
01:39
and it was noticing that, actually,
33
99260
2000
ve o ,aslında, benim özgürlükçü arkadaşlarımın
01:41
I was clicking more on my liberal friends' links
34
101260
2000
linklerine tutucu kesimin linklerinden daha fazla
01:43
than on my conservative friends' links.
35
103260
3000
tıkladığımın farkına varıyordu.
01:46
And without consulting me about it,
36
106260
2000
Ve bana bu konu hakkında danışmadan,
01:48
it had edited them out.
37
108260
2000
onları düzenliyordu.
01:50
They disappeared.
38
110260
3000
Onlar yok oldu.
01:54
So Facebook isn't the only place
39
114260
2000
Böylelikle Facebook sadece
01:56
that's doing this kind of invisible, algorithmic
40
116260
2000
görünmeyen gibi, algoritmik düzenlemeler
01:58
editing of the Web.
41
118260
3000
yapan Web'te tek bir yer değildi.
02:01
Google's doing it too.
42
121260
2000
Google'da bunu yapıyor.
02:03
If I search for something, and you search for something,
43
123260
3000
Eğer ben birşey ararsam, ve sen bir sey arasan,
02:06
even right now at the very same time,
44
126260
2000
şuanda aynı zaman içerisinde bile,
02:08
we may get very different search results.
45
128260
3000
biz çok farklı arama sonuçları alabiliriz.
02:11
Even if you're logged out, one engineer told me,
46
131260
3000
Eğer çıkış yaptıysanız bile, bir mühendis bana söyledi ki,
02:14
there are 57 signals
47
134260
2000
Google'ın baktıkları
02:16
that Google looks at --
48
136260
3000
57 tane sinyaller var --
02:19
everything from what kind of computer you're on
49
139260
3000
hangi tür bilgisyarın başında olduğundan
02:22
to what kind of browser you're using
50
142260
2000
hangi tür tarayıcı kullandığıdan
02:24
to where you're located --
51
144260
2000
nerede olduğuna kadar herşey --
02:26
that it uses to personally tailor your query results.
52
146260
3000
şu sizlerin kişisel sorgulama terzinizinin...
02:29
Think about it for a second:
53
149260
2000
... sonuçlarını kullanıyor. Bir saniye için düşünün:
02:31
there is no standard Google anymore.
54
151260
4000
Artık bir standard Google yok.
02:35
And you know, the funny thing about this is that it's hard to see.
55
155260
3000
Ve bildiğiniz üzere, bunun komik tarafıda bunun zor görünmesi.
02:38
You can't see how different your search results are
56
158260
2000
Siz başkalarının arama sonuçları ile
02:40
from anyone else's.
57
160260
2000
kedinizikinin ne kadar farklı olduğunu göremezsiniz.
02:42
But a couple of weeks ago,
58
162260
2000
Fakat bir kaç hafta önce,
02:44
I asked a bunch of friends to Google "Egypt"
59
164260
3000
Bir çok arkadaşıma ''Mısır 'ı '' Google'lamasını
02:47
and to send me screen shots of what they got.
60
167260
3000
ve bana ekran görüntülerini göndermesini söyledim.
02:50
So here's my friend Scott's screen shot.
61
170260
3000
Buradaki benim arkadaşım Scott' ın ekran görüntüsü.
02:54
And here's my friend Daniel's screen shot.
62
174260
3000
Ve buradaki benim arkadaşım Daniel' in ekran görüntüsü
02:57
When you put them side-by-side,
63
177260
2000
Bunları yanyana koyduğumuzda,
02:59
you don't even have to read the links
64
179260
2000
iki sayfanın farklılığını okumak için
03:01
to see how different these two pages are.
65
181260
2000
bağlantıları bile okumak zorunda değilsiniz.
03:03
But when you do read the links,
66
183260
2000
Fakat bağlantıları okuduğunuzda,
03:05
it's really quite remarkable.
67
185260
3000
bu gerçekten oldukça kayda değer.
03:09
Daniel didn't get anything about the protests in Egypt at all
68
189260
3000
Daniel Google sonuçlarının ilk sayfasında
03:12
in his first page of Google results.
69
192260
2000
Mısır'daki protestolarla ilgli hiç bir şey almadı.
03:14
Scott's results were full of them.
70
194260
2000
Scott'ın sonuçlarını onlarla doluydu.
03:16
And this was the big story of the day at that time.
71
196260
2000
Ve bu o zaman için günün hikayesiydi.
03:18
That's how different these results are becoming.
72
198260
3000
Bu sonuçların ne kadar faklılaşmakta olduklarını gösteriyor.
03:21
So it's not just Google and Facebook either.
73
201260
3000
Böylece bu sadace Google'da ve Facebook'da değiller.
03:24
This is something that's sweeping the Web.
74
204260
2000
Bu Web'i süpüren bir şeydir.
03:26
There are a whole host of companies that are doing this kind of personalization.
75
206260
3000
Bu tür kişileştirmeyi yapan birçok sunucu firmaları bulunmaktadır.
03:29
Yahoo News, the biggest news site on the Internet,
76
209260
3000
Yahoo Haberleri, Internet'teki enbüyük haber sitesi,
03:32
is now personalized -- different people get different things.
77
212260
3000
kişileştirilmiştir -- farklı kişiler farklı seyler alıyorlar.
03:36
Huffington Post, the Washington Post, the New York Times --
78
216260
3000
Huffington Post, the Washington Post, the New York Times --
03:39
all flirting with personalization in various ways.
79
219260
3000
Farklı yönlerle bu kişiselleştirilmekle oynaşıyorlar.
03:42
And this moves us very quickly
80
222260
3000
Ve bu bizi internetin düşündüğü ile bizim
03:45
toward a world in which
81
225260
2000
ne görmek istediğimizi gösteren
03:47
the Internet is showing us what it thinks we want to see,
82
227260
4000
tarafa doğru çok çabuk taşıyor,
03:51
but not necessarily what we need to see.
83
231260
3000
fakat bizim gerekli görmemiz gerekenleri değil.
03:54
As Eric Schmidt said,
84
234260
3000
Eric Schmidt'in dediği gibi,
03:57
"It will be very hard for people to watch or consume something
85
237260
3000
''Birşeyin bir his çerçevesince uygun hale getirilmedikçe
04:00
that has not in some sense
86
240260
2000
insanlar için bir şey izlemek
04:02
been tailored for them."
87
242260
3000
veya tüketmek çok zor olacak.''
04:05
So I do think this is a problem.
88
245260
2000
Bundan dolayı, bence bu bir problem.
04:07
And I think, if you take all of these filters together,
89
247260
3000
Ve bence, eğer tüm bu filtreleri bir araya alırsanız,
04:10
you take all these algorithms,
90
250260
2000
tüm bu algoritmaları alırsanız,
04:12
you get what I call a filter bubble.
91
252260
3000
Benim dediğim filtre baloncuğu elde derseniz.
04:16
And your filter bubble is your own personal,
92
256260
3000
Ve sizin filtre baloncuğu sizin kişisel
04:19
unique universe of information
93
259260
2000
çevrimiçi yaşadığınız
04:21
that you live in online.
94
261260
2000
özel evrensel bilginizdir.
04:23
And what's in your filter bubble
95
263260
3000
Ve filtle boloncuğunuzdaki ne olduğu
04:26
depends on who you are, and it depends on what you do.
96
266260
3000
sizin kim olduğunuza, ve sizin ne yaptığına bağlıdır.
04:29
But the thing is that you don't decide what gets in.
97
269260
4000
Fakat neyin alınıp neyin alınmadığına sizin karar vermediğinizdir.
04:33
And more importantly,
98
273260
2000
Ve en önemlisi ise, neyin düzenlenip
04:35
you don't actually see what gets edited out.
99
275260
3000
neyin düzenlenmediğini sizin görmediğinizdir.
04:38
So one of the problems with the filter bubble
100
278260
2000
Böylelikle, Netflix'deki bazı araştırmacılar
04:40
was discovered by some researchers at Netflix.
101
280260
3000
filtre boloncuğundaki problemlerden birini keşfettiler.
04:43
And they were looking at the Netflix queues, and they noticed something kind of funny
102
283260
3000
Ve Netflix'deki sıralanmalara bakıyorlardı, ve bir çoğumuzunda
04:46
that a lot of us probably have noticed,
103
286260
2000
farkına vardığı komik bir şeyin farkına vardılar,
04:48
which is there are some movies
104
288260
2000
bizim evlerdeki bazı filmler
04:50
that just sort of zip right up and out to our houses.
105
290260
3000
düzeniğinde hızlıca girer ve çıkar.
04:53
They enter the queue, they just zip right out.
106
293260
3000
Onlar sıranlamaya girerler, düzenekten hızlıca çıkarlar.
04:56
So "Iron Man" zips right out,
107
296260
2000
Böylece ''Iron Man'' düzenekten hızlıca çıkar,
04:58
and "Waiting for Superman"
108
298260
2000
ve ''Süpermeni Beklerken''
05:00
can wait for a really long time.
109
300260
2000
uzun bir süre bekleyebilir.
05:02
What they discovered
110
302260
2000
Netflix'teki sıralanmamızda
05:04
was that in our Netflix queues
111
304260
2000
buldukları efsane bir mücadelenin
05:06
there's this epic struggle going on
112
306260
3000
bizim gelecek tutkulu raflarla
05:09
between our future aspirational selves
113
309260
3000
teşvik edici rafların arasında
05:12
and our more impulsive present selves.
114
312260
3000
yaşandığını keşfettiler.
05:15
You know we all want to be someone
115
315260
2000
Biliyorsunuz ki bizim tüm sitediğimiz
05:17
who has watched "Rashomon,"
116
317260
2000
''Rashomon' u'' izlemiş olan bir kişi olmaktır,
05:19
but right now
117
319260
2000
fakat şu an için
05:21
we want to watch "Ace Ventura" for the fourth time.
118
321260
3000
dördüncü defa ''Ace Ventura' yı'' izlemek istiyoruz.
05:24
(Laughter)
119
324260
3000
(Kahkaha)
05:27
So the best editing gives us a bit of both.
120
327260
2000
Böylelikle en iyi düzenleme bize biraz her ikisinden verir.
05:29
It gives us a little bit of Justin Bieber
121
329260
2000
Bize biraz Justin Bieber
05:31
and a little bit of Afghanistan.
122
331260
2000
ve biraz Afganistan verir.
05:33
It gives us some information vegetables;
123
333260
2000
Bize biraz sebzeler hakkında bilgi verir,
05:35
it gives us some information dessert.
124
335260
3000
bize biraz tatlılar hakkında bilgi verir.
05:38
And the challenge with these kinds of algorithmic filters,
125
338260
2000
Ve buradaki algoritmik türünde filtrelerdeki
05:40
these personalized filters,
126
340260
2000
buralardaki kişiselleştirilmiş filtrelerdeki,
05:42
is that, because they're mainly looking
127
342260
2000
zorlanma bulunmaktadır. Çünkü sizin
05:44
at what you click on first,
128
344260
4000
genelde neye ilk tıkladığınıza bakıyorlar,
05:48
it can throw off that balance.
129
348260
4000
Dengenin dışına çıkabilir.
05:52
And instead of a balanced information diet,
130
352260
3000
Ve diet hakkında dengelenmiş bir bilgi yerine,
05:55
you can end up surrounded
131
355260
2000
abur cubur hakkında bilgi ile
05:57
by information junk food.
132
357260
2000
sizleri kuşatmış halde bırakabilir.
05:59
What this suggests
133
359260
2000
Hatalı internet hakkındaki gerçekten tavsiye
06:01
is actually that we may have the story about the Internet wrong.
134
361260
3000
edilmiş hikayeye sahip olabiliriz.
06:04
In a broadcast society --
135
364260
2000
Bir yayın ve yayımlama topluluğunun içindeki --
06:06
this is how the founding mythology goes --
136
366260
2000
bu mitoloji buluşunun nasıl ilerlediğidir --
06:08
in a broadcast society,
137
368260
2000
Bir yayın ve yayımlama topluluğunun içindeki,
06:10
there were these gatekeepers, the editors,
138
370260
2000
Kapıcılar, düzenlemeciler vardı,
06:12
and they controlled the flows of information.
139
372260
3000
ve onlar bilgi akışlarını kontrol ettiler.
06:15
And along came the Internet and it swept them out of the way,
140
375260
3000
Ve İnternetin gelişi ile oları ortalıktan süpürüp attı,
06:18
and it allowed all of us to connect together,
141
378260
2000
ve hep birimizi birbirimize bağlamamızı sağladı,
06:20
and it was awesome.
142
380260
2000
ve tapılacak gibiydi.
06:22
But that's not actually what's happening right now.
143
382260
3000
Fakat şu an gerçekte olan bu değil.
06:26
What we're seeing is more of a passing of the torch
144
386260
3000
Bizim gördüğümüz insan kapıcılarından
06:29
from human gatekeepers
145
389260
2000
daha fazla algoritmiklere
06:31
to algorithmic ones.
146
391260
3000
meşalenin el değişimidir.
06:34
And the thing is that the algorithms
147
394260
3000
Ve olay şu ki, algoritmalarda içeyerleşik
06:37
don't yet have the kind of embedded ethics
148
397260
3000
düzenlemeciler olduğu gibi ahlak
06:40
that the editors did.
149
400260
3000
kurallarına benzer şeyler henüz yok.
06:43
So if algorithms are going to curate the world for us,
150
403260
3000
Bizim için eğer algoritmalar dünyaya papaz yardımcılığı yapacaklarsa,
06:46
if they're going to decide what we get to see and what we don't get to see,
151
406260
3000
eğer bizim ne görebildiklerimizi ve görmediklerimizin kararını vereceklerse,
06:49
then we need to make sure
152
409260
2000
o halde bizim emin olmamız gereken
06:51
that they're not just keyed to relevance.
153
411260
3000
onların sadece uygunluk konumunda bulundurulmamalı.
06:54
We need to make sure that they also show us things
154
414260
2000
Bizim emin olmamız gereken onların aynı zamanda
06:56
that are uncomfortable or challenging or important --
155
416260
3000
rahatsızlık verici veya zorlayacı veya önemli olanlarıda göstermeleri --
06:59
this is what TED does --
156
419260
2000
TED'in yaptığı budur --
07:01
other points of view.
157
421260
2000
diğer düşüncelerin yönleri.
07:03
And the thing is, we've actually been here before
158
423260
2000
Ve toplum olarak bizim daha önceden
07:05
as a society.
159
425260
2000
bulunduğumuz konum.
07:08
In 1915, it's not like newspapers were sweating a lot
160
428260
3000
1915'de, gazetelerin yurtdaşlık sorumlukları ile
07:11
about their civic responsibilities.
161
431260
3000
çok terledikleri gibi değil.
07:14
Then people noticed
162
434260
2000
O halde insanların farkına vardıkları
07:16
that they were doing something really important.
163
436260
3000
onların çok önemli işler yapıyorlardı.
07:19
That, in fact, you couldn't have
164
439260
2000
Konu olarak doğrusu, eğer vatandaşlar
07:21
a functioning democracy
165
441260
2000
iyi akan bir bilgi almazlarsa
07:23
if citizens didn't get a good flow of information,
166
443260
4000
işleyen bir demokrasi sahibi olamazlar.
07:28
that the newspapers were critical because they were acting as the filter,
167
448260
3000
Şu gazeteler eleştirilsel idi, çünkü onlar filtre rölünde idiler,
07:31
and then journalistic ethics developed.
168
451260
2000
ve sonradan gazetecilik ahlakı geliştirildi.
07:33
It wasn't perfect,
169
453260
2000
O mükemmel değildi,
07:35
but it got us through the last century.
170
455260
3000
fakat geçmiş yüzyılda bize geçirdi.
07:38
And so now,
171
458260
2000
Ve böylelikle şimdi,
07:40
we're kind of back in 1915 on the Web.
172
460260
3000
Biz şu anda Web'te 1915'e dönmüş bulunmakta gibiyiz.
07:44
And we need the new gatekeepers
173
464260
3000
Ve bizim şifreleştirme de sorumlulukları
07:47
to encode that kind of responsibility
174
467260
2000
yazdıkları program kodlara
07:49
into the code that they're writing.
175
469260
2000
yazacak yeni kapıcılara ihtiyacımız var.
07:51
I know that there are a lot of people here from Facebook and from Google --
176
471260
3000
Biliyorum ki, burada Facebook'tan ve Google'dan bir çok kişi var --
07:54
Larry and Sergey --
177
474260
2000
Larry ve Sergey --
07:56
people who have helped build the Web as it is,
178
476260
2000
Web'in olduğu gibi inşasından yardım edenler,
07:58
and I'm grateful for that.
179
478260
2000
ve buna çok minnettarım.
08:00
But we really need you to make sure
180
480260
3000
Fakat bizim gerçekten sizinlerin
08:03
that these algorithms have encoded in them
181
483260
3000
bir umumi hayat hissine, bir yurtdaşlık sorumlulukları ile ilişkin
08:06
a sense of the public life, a sense of civic responsibility.
182
486260
3000
bu algoritimlerdeki içlerini şifrelenmesinden emin olmanızdır.
08:09
We need you to make sure that they're transparent enough
183
489260
3000
Bizim sizlerden emin olmanızı istediğimiz, filtrelerden
08:12
that we can see what the rules are
184
492260
2000
geçenlerin kararlaştırılmasında
08:14
that determine what gets through our filters.
185
494260
3000
kuralların görünebilecek kadar şeffaf olması gerekmesidir.
08:17
And we need you to give us some control
186
497260
2000
Ve biz sizlerden bizlere biraz control vermenizi istiyoruz ki,
08:19
so that we can decide
187
499260
2000
böylece neyin geçiğ neyin geçmediğinin
08:21
what gets through and what doesn't.
188
501260
3000
kararını biz verebilelim.
08:24
Because I think
189
504260
2000
Çünkü bence
08:26
we really need the Internet to be that thing
190
506260
2000
biz gerçekten Internetin hepimizin hayallerini kurduğumuz
08:28
that we all dreamed of it being.
191
508260
2000
bir şey olmasını istiyoruz.
08:30
We need it to connect us all together.
192
510260
3000
Bizim birbirimize hep beraber bağlanmaya ihitiyacımız var.
08:33
We need it to introduce us to new ideas
193
513260
3000
Bizim yeni fikirleri tanıtılmamız
08:36
and new people and different perspectives.
194
516260
3000
ve yeni insanlar ve farklı düşünce yönleri.
08:40
And it's not going to do that
195
520260
2000
Ve Web'in birliği isole edilmiş halde bize bırakılırsa
08:42
if it leaves us all isolated in a Web of one.
196
522260
3000
o bunları hiç yapmayacak.
08:45
Thank you.
197
525260
2000
Teşekkür Ederim.
08:47
(Applause)
198
527260
11000
(Alkış)
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7