Beware online "filter bubbles" | Eli Pariser

1,585,118 views ・ 2011-05-02

TED


Silakan klik dua kali pada teks bahasa Inggris di bawah ini untuk memutar video.

Translator: Amir Sudjono Reviewer: Irma Amelia
00:15
Mark Zuckerberg,
0
15260
2000
Mark Zuckerberg,
00:17
a journalist was asking him a question about the news feed.
1
17260
3000
seorang wartawan menanyakan padanya pertanyaan tentang feed berita.
00:20
And the journalist was asking him,
2
20260
2000
Dan wartawan itu menanyakan kepadanya,
00:22
"Why is this so important?"
3
22260
2000
"Mengapa ini sangat penting?"
00:24
And Zuckerberg said,
4
24260
2000
Dan Zuckerberg menjawab,
00:26
"A squirrel dying in your front yard
5
26260
2000
"Seekor tupai yang sekarat di halaman depan Anda
00:28
may be more relevant to your interests right now
6
28260
3000
mungkin lebih relevan dengan minat Anda sekarang
00:31
than people dying in Africa."
7
31260
3000
dibandingkan orang-orang sekarat di Afrika."
00:34
And I want to talk about
8
34260
2000
Dan saya ingin berbicara tentang
00:36
what a Web based on that idea of relevance might look like.
9
36260
3000
bagaimana sebuah Web yang didasari pemikiran relevansi itu akan terlihat.
00:40
So when I was growing up
10
40260
2000
Ketika saya tumbuh dewasa
00:42
in a really rural area in Maine,
11
42260
2000
di daerah yang sangat pedesaan di Maine,
00:44
the Internet meant something very different to me.
12
44260
3000
Internet berarti sangat berbeda bagi saya.
00:47
It meant a connection to the world.
13
47260
2000
Ia berarti koneksi ke dunia.
00:49
It meant something that would connect us all together.
14
49260
3000
Ia berarti sesuatu yang dapat menghubungkan kita semua.
00:52
And I was sure that it was going to be great for democracy
15
52260
3000
Dan saya yakin Internet akan sangat bagus untuk demokrasi
00:55
and for our society.
16
55260
3000
dan untuk masyarakat kita.
00:58
But there's this shift
17
58260
2000
Tetapi ada perubahan
01:00
in how information is flowing online,
18
60260
2000
dalam bagaimana informasi mengalir online,
01:02
and it's invisible.
19
62260
3000
dan ini tidak terlihat.
01:05
And if we don't pay attention to it,
20
65260
2000
Dan jika kita tidak memperhatikannya,
01:07
it could be a real problem.
21
67260
3000
ini dapat menjadi masalah nyata.
01:10
So I first noticed this in a place I spend a lot of time --
22
70260
3000
Jadi pertama kali saya memperhatikan ini di tempat saya menghabiskan banyak waktu --
01:13
my Facebook page.
23
73260
2000
halaman Facebook saya.
01:15
I'm progressive, politically -- big surprise --
24
75260
3000
Saya progresif secara politik -- kejutan besar --
01:18
but I've always gone out of my way to meet conservatives.
25
78260
2000
tetapi saya selalu berusaha untuk bertemu dengan para konservatif
01:20
I like hearing what they're thinking about;
26
80260
2000
Saya suka mendengar apa yang mereka pikirkan;
01:22
I like seeing what they link to;
27
82260
2000
Saya suka melihat yang mereka tautkan;
01:24
I like learning a thing or two.
28
84260
2000
Saya suka belajar satu dua hal.
01:26
And so I was surprised when I noticed one day
29
86260
3000
Dan saya terkejut waktu satu hari saya perhatikan
01:29
that the conservatives had disappeared from my Facebook feed.
30
89260
3000
bahwa para konservatif telah menghilang dari Facebook feed saya.
01:33
And what it turned out was going on
31
93260
2000
Dan ternyata yang terjadi
01:35
was that Facebook was looking at which links I clicked on,
32
95260
4000
adalah bahwa Facebook melihat tautan mana yang saya klik,
01:39
and it was noticing that, actually,
33
99260
2000
dan FB mengetahui bahwa, sebenarnya,
01:41
I was clicking more on my liberal friends' links
34
101260
2000
Saya mengklik lebih banyak tautan dari teman-teman liberal saya
01:43
than on my conservative friends' links.
35
103260
3000
dibanding tautan dari teman-teman konservatif saya.
01:46
And without consulting me about it,
36
106260
2000
Dan tanpa menanyakan saya tentang itu,
01:48
it had edited them out.
37
108260
2000
mereka telah diedit.
01:50
They disappeared.
38
110260
3000
Tautan ini menghilang.
01:54
So Facebook isn't the only place
39
114260
2000
Jadi Facebook bukanlah tempat satu-satunya
01:56
that's doing this kind of invisible, algorithmic
40
116260
2000
yang melakukan pengeditan secara tidak terlihat, secara algoritmik
01:58
editing of the Web.
41
118260
3000
terhadap Web.
02:01
Google's doing it too.
42
121260
2000
Google juga melakukannya.
02:03
If I search for something, and you search for something,
43
123260
3000
Jika saya mencari sesuatu, dan Anda mencari sesuatu,
02:06
even right now at the very same time,
44
126260
2000
bahkan sekarang pada saat yang bersamaan,
02:08
we may get very different search results.
45
128260
3000
kita akan mendapatkan hasil pencarian yang sangat berbeda.
02:11
Even if you're logged out, one engineer told me,
46
131260
3000
Bahkan jika Anda telah keluar, seorang insinyur mengatakan kepada saya,
02:14
there are 57 signals
47
134260
2000
ada 57 sinyal
02:16
that Google looks at --
48
136260
3000
yang Google lihat --
02:19
everything from what kind of computer you're on
49
139260
3000
semua dari komputer apa yang Anda dipakai,
02:22
to what kind of browser you're using
50
142260
2000
dari browser apa yang dipakai Anda,
02:24
to where you're located --
51
144260
2000
dimana Anda berada --
02:26
that it uses to personally tailor your query results.
52
146260
3000
yang dipakai untuk menyesuaikan hasil pertanyaan Anda.
02:29
Think about it for a second:
53
149260
2000
Pikirkanlah sebentar:
02:31
there is no standard Google anymore.
54
151260
4000
sudah tidak ada Google standar lagi.
02:35
And you know, the funny thing about this is that it's hard to see.
55
155260
3000
Dan tahukah Anda, yang lucu dari hal ini adalah ini sulit untuk dilihat.
02:38
You can't see how different your search results are
56
158260
2000
Anda tidak dapat melihat bagaimana hasil pencarian Anda berbeda
02:40
from anyone else's.
57
160260
2000
dari orang lain.
02:42
But a couple of weeks ago,
58
162260
2000
Tetapi dua minggu lalu,
02:44
I asked a bunch of friends to Google "Egypt"
59
164260
3000
Saya tanya beberapa orang untuk mencari "Mesir" di Google
02:47
and to send me screen shots of what they got.
60
167260
3000
dan mengirimkan saya gambar layar yang mereka dapatkan.
02:50
So here's my friend Scott's screen shot.
61
170260
3000
Jadi ini gambar layar milik Scott teman saya.
02:54
And here's my friend Daniel's screen shot.
62
174260
3000
Dan ini gambar layar milik teman saya Daniel.
02:57
When you put them side-by-side,
63
177260
2000
Jika Anda letakan mereka berdekatan,
02:59
you don't even have to read the links
64
179260
2000
Anda tidak harus melihat tautannya
03:01
to see how different these two pages are.
65
181260
2000
untuk melihat bagaimana dua halaman ini berbeda.
03:03
But when you do read the links,
66
183260
2000
Tapi jika Anda membaca tautannya,
03:05
it's really quite remarkable.
67
185260
3000
ini sangat luar biasa.
03:09
Daniel didn't get anything about the protests in Egypt at all
68
189260
3000
Daniel tidak mendapatkan apapun tentang protes di Mesir
03:12
in his first page of Google results.
69
192260
2000
di halaman pertama hasil pencarian Googlenya.
03:14
Scott's results were full of them.
70
194260
2000
Di hasil Scott ada banyak sekali.
03:16
And this was the big story of the day at that time.
71
196260
2000
Dan inilah cerita besar di hari itu.
03:18
That's how different these results are becoming.
72
198260
3000
Itulah bagaimana hasil pencarian ini menjadi berbeda.
03:21
So it's not just Google and Facebook either.
73
201260
3000
Jadi ini bukan hanya Google dan Facebook saja.
03:24
This is something that's sweeping the Web.
74
204260
2000
Ini adalah sesuatu yang melanda seluruh Web.
03:26
There are a whole host of companies that are doing this kind of personalization.
75
206260
3000
Ada banyak perusahaan yang melakukan personalisasi semacam ini.
03:29
Yahoo News, the biggest news site on the Internet,
76
209260
3000
Yahoo News, portal berita terbesar di Internet,
03:32
is now personalized -- different people get different things.
77
212260
3000
sekarang sudah dipersonalisasi -- orang berbeda mendapat hasil berbeda.
03:36
Huffington Post, the Washington Post, the New York Times --
78
216260
3000
Huffington Post, Washington Post, New York Times --
03:39
all flirting with personalization in various ways.
79
219260
3000
semuanya melakukan personalisasi dengan bermacam cara.
03:42
And this moves us very quickly
80
222260
3000
Dan ini mengantarkan kita dengan sangat cepat
03:45
toward a world in which
81
225260
2000
ke dunia dimana
03:47
the Internet is showing us what it thinks we want to see,
82
227260
4000
Internet memperlihatkan ke kita apa yang ia pikir kita mau lihat,
03:51
but not necessarily what we need to see.
83
231260
3000
tetapi bukan berarti yang kita perlu lihat.
03:54
As Eric Schmidt said,
84
234260
3000
Seperti yang Eric Schmidt katakan,
03:57
"It will be very hard for people to watch or consume something
85
237260
3000
"Akan sangat sulit bagi orang-orang untuk melihat atau mengkonsumsi sesuatu
04:00
that has not in some sense
86
240260
2000
yang dalam arti tertentu belum
04:02
been tailored for them."
87
242260
3000
disesuaikan untuk mereka."
04:05
So I do think this is a problem.
88
245260
2000
Jadi saya pikir ini adalah suatu masalah.
04:07
And I think, if you take all of these filters together,
89
247260
3000
Dan saya pikir, jika Anda ambil semua filter ini,
04:10
you take all these algorithms,
90
250260
2000
Anda ambil semua algoritma ini,
04:12
you get what I call a filter bubble.
91
252260
3000
Anda mendapatkan yang saya sebut gelembung filter.
04:16
And your filter bubble is your own personal,
92
256260
3000
Dan gelembung filter Anda adalah dunia informasi milik Anda sendiri
04:19
unique universe of information
93
259260
2000
yang unik
04:21
that you live in online.
94
261260
2000
yang anda tinggali waktu online.
04:23
And what's in your filter bubble
95
263260
3000
Dan apa yang ada di gelembung filter Anda
04:26
depends on who you are, and it depends on what you do.
96
266260
3000
tergantung dari siapa Anda, dan tergantung pada apa yang Anda lakukan.
04:29
But the thing is that you don't decide what gets in.
97
269260
4000
Tetapi masalahnya Anda tidak memutuskan apa yang masuk.
04:33
And more importantly,
98
273260
2000
Dan lebih penting lagi,
04:35
you don't actually see what gets edited out.
99
275260
3000
Anda tidak melihat apa yang disunting keluar.
04:38
So one of the problems with the filter bubble
100
278260
2000
Jadi salah satu masalah dari gelembung filter
04:40
was discovered by some researchers at Netflix.
101
280260
3000
ditemukan oleh beberapa peneliti di Netflix.
04:43
And they were looking at the Netflix queues, and they noticed something kind of funny
102
283260
3000
Mereka melihat antrian Netflix, dan mereka menemukan sesuatu yang lucu
04:46
that a lot of us probably have noticed,
103
286260
2000
yang banyak dari kita mungkin perhatikan,
04:48
which is there are some movies
104
288260
2000
yaitu ada beberapa film
04:50
that just sort of zip right up and out to our houses.
105
290260
3000
yang sepertinya langsung terkirim ke rumah kita.
04:53
They enter the queue, they just zip right out.
106
293260
3000
Mereka masuk ke antrian, dan mereka langsung terkirim.
04:56
So "Iron Man" zips right out,
107
296260
2000
Jadi "Iron Man" langsung terkirim,
04:58
and "Waiting for Superman"
108
298260
2000
dan "Waiting for Superman"
05:00
can wait for a really long time.
109
300260
2000
dapat menunggu untuk waktu yang sangat lama.
05:02
What they discovered
110
302260
2000
Yang mereka temukan
05:04
was that in our Netflix queues
111
304260
2000
adalah di antrian Netflix kami
05:06
there's this epic struggle going on
112
306260
3000
ada perjuangan hebat yang terjadi
05:09
between our future aspirational selves
113
309260
3000
antara diri kita yang aspiratif di masa mendatang
05:12
and our more impulsive present selves.
114
312260
3000
dan diri kita yang impulsif di masa sekarang.
05:15
You know we all want to be someone
115
315260
2000
Anda tahu kita semua mau untuk menjadi seseorang
05:17
who has watched "Rashomon,"
116
317260
2000
yang telah menonton "Rashomon,"
05:19
but right now
117
319260
2000
tetapi sekarang
05:21
we want to watch "Ace Ventura" for the fourth time.
118
321260
3000
kita ingin menonton "Ace Ventura" untuk keempat kalinya.
05:24
(Laughter)
119
324260
3000
(Tawa)
05:27
So the best editing gives us a bit of both.
120
327260
2000
Jadi pengeditan yang terbaik memberi kita keduanya.
05:29
It gives us a little bit of Justin Bieber
121
329260
2000
Ia memberi kita sedikit Justin Beiber
05:31
and a little bit of Afghanistan.
122
331260
2000
dan sedikit Afghanistan.
05:33
It gives us some information vegetables;
123
333260
2000
Ia memberi kita beberapa sayuran informasi,
05:35
it gives us some information dessert.
124
335260
3000
Ia memberi kita beberapa makanan penutup informasi.
05:38
And the challenge with these kinds of algorithmic filters,
125
338260
2000
Dan tantangannya dengan sejenis filter algoritmik ini,
05:40
these personalized filters,
126
340260
2000
filter yang telah disesuaikan seperti ini,
05:42
is that, because they're mainly looking
127
342260
2000
adalah, karena mereka pada dasarnya mencari
05:44
at what you click on first,
128
344260
4000
apa yang Anda klik pertama kali,
05:48
it can throw off that balance.
129
348260
4000
itu akan menjadikannya tidak seimbang.
05:52
And instead of a balanced information diet,
130
352260
3000
Dan bukannya informasi diet seimbang,
05:55
you can end up surrounded
131
355260
2000
Anda akhirnya dapat terkepung
05:57
by information junk food.
132
357260
2000
oleh informasi junk food.
05:59
What this suggests
133
359260
2000
Apa yang ini tunjukkan
06:01
is actually that we may have the story about the Internet wrong.
134
361260
3000
adalah nyatanya kita mungkin telah mendapatkan cerita tentang Internet dengan salah.
06:04
In a broadcast society --
135
364260
2000
Di masyarakat penyiaran --
06:06
this is how the founding mythology goes --
136
366260
2000
ini adalah bagaimana mitologi pendiri mengatakan --
06:08
in a broadcast society,
137
368260
2000
di masyarakat siaran,
06:10
there were these gatekeepers, the editors,
138
370260
2000
ada penjaga gerbang, sang editor,
06:12
and they controlled the flows of information.
139
372260
3000
dan mereka mengkontrol aliran informasi.
06:15
And along came the Internet and it swept them out of the way,
140
375260
3000
Dan akhirnya datang Internet dan ia menyapu mereka keluar,
06:18
and it allowed all of us to connect together,
141
378260
2000
dan ia memungkinkan kita untuk terhubung satu sama lain,
06:20
and it was awesome.
142
380260
2000
dan ini sangat luar biasa.
06:22
But that's not actually what's happening right now.
143
382260
3000
Tetapi ini bukanlah apa yang nyatanya terjadi sekarang.
06:26
What we're seeing is more of a passing of the torch
144
386260
3000
Apa yang kita lihat adalah pemindahan obor
06:29
from human gatekeepers
145
389260
2000
dari penjaga gerbang manusia
06:31
to algorithmic ones.
146
391260
3000
ke penjaga gawang algoritmik.
06:34
And the thing is that the algorithms
147
394260
3000
Dan masalahnya adalah algoritma
06:37
don't yet have the kind of embedded ethics
148
397260
3000
belum memiliki etika yang tersirat
06:40
that the editors did.
149
400260
3000
yang para editor punya.
06:43
So if algorithms are going to curate the world for us,
150
403260
3000
Jadi jika algoritma akan menyediakan dunia untuk kita,
06:46
if they're going to decide what we get to see and what we don't get to see,
151
406260
3000
jika mereka akan memutuskan apa yang dapat kita lihat dan apa yang tidak bisa kita lihat,
06:49
then we need to make sure
152
409260
2000
jadi kita perlu untuk memastikan
06:51
that they're not just keyed to relevance.
153
411260
3000
bahwa mereka bukan saja diprogram untuk relevansi.
06:54
We need to make sure that they also show us things
154
414260
2000
Kita perlu pastikan bahwa mereka juga menunjukan kita hal-hal
06:56
that are uncomfortable or challenging or important --
155
416260
3000
yang tidak nyaman atau menantang atau penting --
06:59
this is what TED does --
156
419260
2000
inilah yang TED lakukan --
07:01
other points of view.
157
421260
2000
sudut pandang orang lain.
07:03
And the thing is, we've actually been here before
158
423260
2000
Dan sebenarnya kita pernah berada disini sebelumnya
07:05
as a society.
159
425260
2000
sebagai sebuah masyarakat.
07:08
In 1915, it's not like newspapers were sweating a lot
160
428260
3000
Di 1915, tidaklah seperti koran memikirkan banyak
07:11
about their civic responsibilities.
161
431260
3000
tentang tanggung jawab mereka sebagai warna negara.
07:14
Then people noticed
162
434260
2000
Lalu orang-orang memperhatikan
07:16
that they were doing something really important.
163
436260
3000
Bahwa mereka melakukan sesuatu yang sangat penting.
07:19
That, in fact, you couldn't have
164
439260
2000
Bahwa, sesungguhnya, Anda tidak bisa mendapatkan
07:21
a functioning democracy
165
441260
2000
demokrasi yang berfungsi
07:23
if citizens didn't get a good flow of information,
166
443260
4000
jika warga negaranya tidak mendapatkan aliran informasi yang baik.
07:28
that the newspapers were critical because they were acting as the filter,
167
448260
3000
Koran sangat penting, karena mereka bertindak sebagai filter,
07:31
and then journalistic ethics developed.
168
451260
2000
dan akhirnya etika wartawan terbentuk.
07:33
It wasn't perfect,
169
453260
2000
Itu tidak sempurna,
07:35
but it got us through the last century.
170
455260
3000
tetap berhasil membawa kita melewati seabad terakhir.
07:38
And so now,
171
458260
2000
Dan sekarang,
07:40
we're kind of back in 1915 on the Web.
172
460260
3000
kita seperti kembali di tahun 1915 di Web.
07:44
And we need the new gatekeepers
173
464260
3000
Dan kita perlu penjaga gerbang baru
07:47
to encode that kind of responsibility
174
467260
2000
untuk mengkode tanggung jawab seperti ini
07:49
into the code that they're writing.
175
469260
2000
menjadi kode yang mereka tulis.
07:51
I know that there are a lot of people here from Facebook and from Google --
176
471260
3000
Saya tahu banyak orang di sini dari Facebook atau Google --
07:54
Larry and Sergey --
177
474260
2000
Larry dan Sergey --
07:56
people who have helped build the Web as it is,
178
476260
2000
orang-orang yang telah membantu kita membangun Web seperti sekarang,
07:58
and I'm grateful for that.
179
478260
2000
dan saya berterima kasih untuk itu.
08:00
But we really need you to make sure
180
480260
3000
Tetapi kami sangat memerlukan Anda untuk memastikan
08:03
that these algorithms have encoded in them
181
483260
3000
bahwa algoritma-algoritma ini memiliki kode
08:06
a sense of the public life, a sense of civic responsibility.
182
486260
3000
rasa dari kehidupan publik, rasa tanggung jawab kewarganegaraan.
08:09
We need you to make sure that they're transparent enough
183
489260
3000
Kita perlu Anda untuk memastikan bahwa mereka cukup transparan
08:12
that we can see what the rules are
184
492260
2000
sehingga kita dapat melihat aturan-aturan
08:14
that determine what gets through our filters.
185
494260
3000
yang menentukan apa yang bisa melewati filter kita.
08:17
And we need you to give us some control
186
497260
2000
Dan kita butuh Anda untuk memberi kita kontrol,
08:19
so that we can decide
187
499260
2000
sehingga kita bisa memutuskan
08:21
what gets through and what doesn't.
188
501260
3000
apa yang bisa lewat dan apa yang tidak.
08:24
Because I think
189
504260
2000
Karena saya pikir
08:26
we really need the Internet to be that thing
190
506260
2000
kita sangat membutuhkan Internet untuk menjadi sesuatu
08:28
that we all dreamed of it being.
191
508260
2000
yang kita impikan.
08:30
We need it to connect us all together.
192
510260
3000
Kita membutuhkannya untuk menghubungkan kita semua.
08:33
We need it to introduce us to new ideas
193
513260
3000
Kita membutuhkannya untuk memperkenalkan kita kepada pemikiran baru
08:36
and new people and different perspectives.
194
516260
3000
dan orang-orang baru dan perspektif berbeda.
08:40
And it's not going to do that
195
520260
2000
Dan itu tidak akan terjadi
08:42
if it leaves us all isolated in a Web of one.
196
522260
3000
jika kita menjadi terisolasi di satu Web.
08:45
Thank you.
197
525260
2000
Terima kasih.
08:47
(Applause)
198
527260
11000
(Tepuk tangan)
Tentang situs web ini

Situs ini akan memperkenalkan Anda pada video YouTube yang berguna untuk belajar bahasa Inggris. Anda akan melihat pelajaran bahasa Inggris yang diajarkan oleh guru-guru terbaik dari seluruh dunia. Klik dua kali pada subtitle bahasa Inggris yang ditampilkan di setiap halaman video untuk memutar video dari sana. Subtitle bergulir selaras dengan pemutaran video. Jika Anda memiliki komentar atau permintaan, silakan hubungi kami menggunakan formulir kontak ini.

https://forms.gle/WvT1wiN1qDtmnspy7