Beware online "filter bubbles" | Eli Pariser

1,585,118 views ・ 2011-05-02

TED


Norėdami paleisti vaizdo įrašą, dukart spustelėkite žemiau esančius angliškus subtitrus.

Translator: Monika Ciurlionyte Reviewer: Laura Bojarskaitė
00:15
Mark Zuckerberg,
0
15260
2000
Mark Zuckerberg,
00:17
a journalist was asking him a question about the news feed.
1
17260
3000
žurnalistas jo klausinėjo apie naujienų srautą.
00:20
And the journalist was asking him,
2
20260
2000
Ir žurnalistas jo paklausė,
00:22
"Why is this so important?"
3
22260
2000
"Kodėl tai taip svarbu?"
00:24
And Zuckerberg said,
4
24260
2000
Ir Zuckerberg atsakė,
00:26
"A squirrel dying in your front yard
5
26260
2000
"Voverė, dvesianti tavo kieme
00:28
may be more relevant to your interests right now
6
28260
3000
šią akimirką tau ko gero aktualesnė,
00:31
than people dying in Africa."
7
31260
3000
nei žmonės, mirštantys Afrikoje."
00:34
And I want to talk about
8
34260
2000
Taigi aš norėčiau pakalbėti apie tai,
00:36
what a Web based on that idea of relevance might look like.
9
36260
3000
kaip atrodytų žiniatinklis paremtas tokia aktualumo idėja.
00:40
So when I was growing up
10
40260
2000
Kai aš augau
00:42
in a really rural area in Maine,
11
42260
2000
atitolusoje kaimo vietovėje Maine,
00:44
the Internet meant something very different to me.
12
44260
3000
internetas man reiškė kažką visai kitko.
00:47
It meant a connection to the world.
13
47260
2000
Jis reiškė ryšį su pasauliu.
00:49
It meant something that would connect us all together.
14
49260
3000
Jis reiškė kažką, kas mus visus sujungia.
00:52
And I was sure that it was going to be great for democracy
15
52260
3000
Ir aš buvau įsitikinęs, kad tai bus labai naudinga demokratijai
00:55
and for our society.
16
55260
3000
ir mūsų visuomenei.
00:58
But there's this shift
17
58260
2000
Bet yra vienas pasikeitimas
01:00
in how information is flowing online,
18
60260
2000
informacijos sklidime internetu,
01:02
and it's invisible.
19
62260
3000
ir jis yra nematomas.
01:05
And if we don't pay attention to it,
20
65260
2000
Ir jei mes į jį nekreipsime dėmesio,
01:07
it could be a real problem.
21
67260
3000
tai gali tapti tikra problema.
01:10
So I first noticed this in a place I spend a lot of time --
22
70260
3000
Pirmą kartą aš tai pastebėjau ten, kur praleidžiu labai daug laiko -
01:13
my Facebook page.
23
73260
2000
savo Facebook puslapyje.
01:15
I'm progressive, politically -- big surprise --
24
75260
3000
Politiškai aš esu progresyvių pažiūrų - nieko čia keisto -
01:18
but I've always gone out of my way to meet conservatives.
25
78260
2000
bet visada specialiai stengiuosi susipažinti su konservatoriais.
01:20
I like hearing what they're thinking about;
26
80260
2000
Man patinka klausytis, apie ką jie galvoja;
01:22
I like seeing what they link to;
27
82260
2000
mėgstu stebėti, kokias nuorodas jie siunčia;
01:24
I like learning a thing or two.
28
84260
2000
man patinka šį bei tą išmokti.
01:26
And so I was surprised when I noticed one day
29
86260
3000
Todėl buvau labai nustebęs, kai vieną dieną pastebėjau,
01:29
that the conservatives had disappeared from my Facebook feed.
30
89260
3000
kad konservatoriai dingo iš mano Facebook naujienų.
01:33
And what it turned out was going on
31
93260
2000
Paaiškėjo, kad
01:35
was that Facebook was looking at which links I clicked on,
32
95260
4000
Facebook stebėjo, kurias nuorodas aš spausdavau,
01:39
and it was noticing that, actually,
33
99260
2000
ir matė, kad iš tiesų
01:41
I was clicking more on my liberal friends' links
34
101260
2000
aš dažniau spausdavau savo liberaliųjų draugų nuorodas,
01:43
than on my conservative friends' links.
35
103260
3000
o ne draugų konservatorių.
01:46
And without consulting me about it,
36
106260
2000
Ir su manimi nepasitarę,
01:48
it had edited them out.
37
108260
2000
jie išmetė nuorodas lauk.
01:50
They disappeared.
38
110260
3000
Jos dingo.
01:54
So Facebook isn't the only place
39
114260
2000
Taigi Facebook nėra vienintelė vieta,
01:56
that's doing this kind of invisible, algorithmic
40
116260
2000
kur vyksta toks nematomas, algoritminis
01:58
editing of the Web.
41
118260
3000
tinklo redagavimas.
02:01
Google's doing it too.
42
121260
2000
Google tai irgi daro.
02:03
If I search for something, and you search for something,
43
123260
3000
Jei aš kažko ieškosiu, ir tu kažko ieškosi,
02:06
even right now at the very same time,
44
126260
2000
net ir dabar, visiškai tuo pačiu metu,
02:08
we may get very different search results.
45
128260
3000
mes ko gero gausim labai skirtingus rezultatus.
02:11
Even if you're logged out, one engineer told me,
46
131260
3000
Net jei esi išsiregistravęs, kaip vienas inžinierius man sakė,
02:14
there are 57 signals
47
134260
2000
yra 57 signalai,
02:16
that Google looks at --
48
136260
3000
kuriuos Google vertina -
02:19
everything from what kind of computer you're on
49
139260
3000
nuo to, kokį kompiuterį tu naudoji,
02:22
to what kind of browser you're using
50
142260
2000
iki to, kokia naršykle naudojiesi,
02:24
to where you're located --
51
144260
2000
kur esi geografiškai -
02:26
that it uses to personally tailor your query results.
52
146260
3000
ši informacija naudojama asmeniškai adaptuoti tavo užklausos rezultatus.
02:29
Think about it for a second:
53
149260
2000
Pamastykite apie tai minutėlę:
02:31
there is no standard Google anymore.
54
151260
4000
standartiškas Google nebeegzistuoja.
02:35
And you know, the funny thing about this is that it's hard to see.
55
155260
3000
Ir žinot, keisčiausia tai, kad tai labai sunku pastebėti.
02:38
You can't see how different your search results are
56
158260
2000
Jūs nematote, kiek jūsų paieškos rezultatai skiriasi
02:40
from anyone else's.
57
160260
2000
nuo bet kurio kito žmogaus.
02:42
But a couple of weeks ago,
58
162260
2000
Bet prieš porą savaičių
02:44
I asked a bunch of friends to Google "Egypt"
59
164260
3000
aš paprašiau savo draugų "pagooglinti" "Egiptas"
02:47
and to send me screen shots of what they got.
60
167260
3000
ir atsiųsti man gautų rezultatų ekrano nuotraukas.
02:50
So here's my friend Scott's screen shot.
61
170260
3000
Štai mano draugo Scott ekrano nuotrauka.
02:54
And here's my friend Daniel's screen shot.
62
174260
3000
Ir štai mano draugo Daniel ekrano nuotrauka.
02:57
When you put them side-by-side,
63
177260
2000
Kai sudedi abi vieną šalia kitos,
02:59
you don't even have to read the links
64
179260
2000
net nereikia skaityti nuorodų,
03:01
to see how different these two pages are.
65
181260
2000
kad pamatytum, kiek daug skiriasi šie du puslapiai.
03:03
But when you do read the links,
66
183260
2000
Bet kai vis dėlto paskaitai nuorodas,
03:05
it's really quite remarkable.
67
185260
3000
tai yra tikrai gana neįtikėtina.
03:09
Daniel didn't get anything about the protests in Egypt at all
68
189260
3000
Daniel pirmame Google rezultatų puslapyje negavo jokių nuorodų
03:12
in his first page of Google results.
69
192260
2000
apie Egipte vykstančius protestus.
03:14
Scott's results were full of them.
70
194260
2000
Scott rezultatuose buvo daugybė informacijos apie tai.
03:16
And this was the big story of the day at that time.
71
196260
2000
O ši istorija tada buvo tikrai populiari.
03:18
That's how different these results are becoming.
72
198260
3000
Štai kokie skirtingi tampa paieškos rezultatai.
03:21
So it's not just Google and Facebook either.
73
201260
3000
Ir tai ne vien tik Google ir Facebook.
03:24
This is something that's sweeping the Web.
74
204260
2000
Tai vyksta visame žiniatinklyje.
03:26
There are a whole host of companies that are doing this kind of personalization.
75
206260
3000
Yra spiečius kompanijų, kurios taiko tokią personalizaciją.
03:29
Yahoo News, the biggest news site on the Internet,
76
209260
3000
Yahoo News, didžiausias naujienų puslapis internete,
03:32
is now personalized -- different people get different things.
77
212260
3000
dabar taip pat yra personalizuotas -- skirtingi žmonės gauna skirtingas naujienas.
03:36
Huffington Post, the Washington Post, the New York Times --
78
216260
3000
Huffington Post, Washington Post, New York Times --
03:39
all flirting with personalization in various ways.
79
219260
3000
visi vienaip ar kitaip koketuoja su personalizacijos idėja.
03:42
And this moves us very quickly
80
222260
3000
Ir tai mus labai greitai veda
03:45
toward a world in which
81
225260
2000
link pasaulio, kuriame
03:47
the Internet is showing us what it thinks we want to see,
82
227260
4000
internetas rodo mums tik tai, ką jis galvoja mes norime matyti,
03:51
but not necessarily what we need to see.
83
231260
3000
bet nebūtinai tai, ką mes turėtume pamatyti.
03:54
As Eric Schmidt said,
84
234260
3000
Kaip Eric Schmidt pasakė,
03:57
"It will be very hard for people to watch or consume something
85
237260
3000
"Žmonėms bus labai sunku kažką žiūrėti ir vartoti
04:00
that has not in some sense
86
240260
2000
kas kažkuria prasme
04:02
been tailored for them."
87
242260
3000
nebuvo pritaikytas būtent jiems."
04:05
So I do think this is a problem.
88
245260
2000
Aš tikrai manau, kad tai yra problema.
04:07
And I think, if you take all of these filters together,
89
247260
3000
Ir aš manau, kad jeigu paimtume visus šiuos filtrus,
04:10
you take all these algorithms,
90
250260
2000
visus algoritmus,
04:12
you get what I call a filter bubble.
91
252260
3000
susidurtumėte su filtro burbulu, kaip aš tai vadinu.
04:16
And your filter bubble is your own personal,
92
256260
3000
Ir jūsų filtro burbulas yra asmeninė,
04:19
unique universe of information
93
259260
2000
unikali informacijos visata,
04:21
that you live in online.
94
261260
2000
kurioje gyvenate, kai būnate internete.
04:23
And what's in your filter bubble
95
263260
3000
Ir kas yra jūsų filtro burbule
04:26
depends on who you are, and it depends on what you do.
96
266260
3000
priklauso nuo to, kas jūs esate ir priklauso nuo to, ką jus veikiate.
04:29
But the thing is that you don't decide what gets in.
97
269260
4000
Bet dalykas yra tas, kad jūs negalite nuspręsti, kas į jį patenka.
04:33
And more importantly,
98
273260
2000
Ir svarbiausia,
04:35
you don't actually see what gets edited out.
99
275260
3000
jūs iš tiesų net nematote, kas yra išredaguota.
04:38
So one of the problems with the filter bubble
100
278260
2000
Taigi vieną iš šio filtro burbulo problemų
04:40
was discovered by some researchers at Netflix.
101
280260
3000
atrado keli Netflix mokslininkai.
04:43
And they were looking at the Netflix queues, and they noticed something kind of funny
102
283260
3000
Jie stebėjo Netflix filmų eiles ir pastebėjo kai ką šiek tiek juokingo,
04:46
that a lot of us probably have noticed,
103
286260
2000
ką dauguma mūsų turbūt irgi pastebėjo,
04:48
which is there are some movies
104
288260
2000
o tai yra, kad kai kurie filmai
04:50
that just sort of zip right up and out to our houses.
105
290260
3000
tiesiog atsiranda ir dingsta iš mūsų namų eilės.
04:53
They enter the queue, they just zip right out.
106
293260
3000
Jie įeina į eilę ir joje neužsibūna.
04:56
So "Iron Man" zips right out,
107
296260
2000
Taigi "Geležinis žmogus" peržiūrėtas,
04:58
and "Waiting for Superman"
108
298260
2000
o "Belaukiant Supermeno" eilės
05:00
can wait for a really long time.
109
300260
2000
gali tekti laukti gana ilgai.
05:02
What they discovered
110
302260
2000
Ką Netflix mokslininkai atrado
05:04
was that in our Netflix queues
111
304260
2000
buvo tai, kad Netflix filmų eilėse
05:06
there's this epic struggle going on
112
306260
3000
vyksta epinė kova
05:09
between our future aspirational selves
113
309260
3000
tarp mūsų siekiamo ateities savęs
05:12
and our more impulsive present selves.
114
312260
3000
ir mūsų labiau impulsyvaus dabartinio savęs.
05:15
You know we all want to be someone
115
315260
2000
Žinot, mes visi norime tapti tais,
05:17
who has watched "Rashomon,"
116
317260
2000
kurie žiūri "Rasiomonas",
05:19
but right now
117
319260
2000
bet dabar
05:21
we want to watch "Ace Ventura" for the fourth time.
118
321260
3000
mes norime ketvirtą kartą peržiūrėti "Eisas Ventura".
05:24
(Laughter)
119
324260
3000
(Juokas)
05:27
So the best editing gives us a bit of both.
120
327260
2000
Taigi geriausias redagavimas leidžia mums pabūti abiem savimis.
05:29
It gives us a little bit of Justin Bieber
121
329260
2000
Tai mums suteikia truputį informacijos apie Justin Bieber
05:31
and a little bit of Afghanistan.
122
331260
2000
ir truputį Afganistano naujienų.
05:33
It gives us some information vegetables;
123
333260
2000
Tai mums suteikia informacijos "daržovių"
05:35
it gives us some information dessert.
124
335260
3000
ir informacijos "desertui".
05:38
And the challenge with these kinds of algorithmic filters,
125
338260
2000
Ir didžiausias sunkumas su šiais algoritminiais filtrais,
05:40
these personalized filters,
126
340260
2000
šiais personalizuotais filtrais,
05:42
is that, because they're mainly looking
127
342260
2000
yra susijęs su tuo, kad filtrai daugiausiai
05:44
at what you click on first,
128
344260
4000
kreipia dėmesį į tai, ką jūs paspaudžiate primiausia,
05:48
it can throw off that balance.
129
348260
4000
o tai gali tą filtrą išbalansuoti.
05:52
And instead of a balanced information diet,
130
352260
3000
Ir tuomet vietoje subalansuotos informacijos dietos
05:55
you can end up surrounded
131
355260
2000
jums gali tekti
05:57
by information junk food.
132
357260
2000
greitas, nesveikas informacijos maistas.
05:59
What this suggests
133
359260
2000
Ką tai sako,
06:01
is actually that we may have the story about the Internet wrong.
134
361260
3000
yra tai, kad išties mes suprantame internetą neteisingai.
06:04
In a broadcast society --
135
364260
2000
Transliacijų visuomenėje --
06:06
this is how the founding mythology goes --
136
366260
2000
štai kokia išties etologinio mito istorija --
06:08
in a broadcast society,
137
368260
2000
transliacijų visuomenėje
06:10
there were these gatekeepers, the editors,
138
370260
2000
buvo žmonės atsakingi už priėjimą prie informacijos, redaktoriai
06:12
and they controlled the flows of information.
139
372260
3000
ir jie kontroliavo informacijos srautus.
06:15
And along came the Internet and it swept them out of the way,
140
375260
3000
Ir tada atsirado internetas ir nušlavė juos nuo kelio,
06:18
and it allowed all of us to connect together,
141
378260
2000
o tai leido mums susijungti,
06:20
and it was awesome.
142
380260
2000
kas buvo labai jėga.
06:22
But that's not actually what's happening right now.
143
382260
3000
Tačiau tai nėra, kas išties dabar vyksta.
06:26
What we're seeing is more of a passing of the torch
144
386260
3000
Ką mes dabar matome yra daugiau deglo perdavinėjimas
06:29
from human gatekeepers
145
389260
2000
iš žmonių, atsakingų už priėjimą prie informacijos
06:31
to algorithmic ones.
146
391260
3000
algoritmams.
06:34
And the thing is that the algorithms
147
394260
3000
Ir esmė yra ta, kad algoritmai
06:37
don't yet have the kind of embedded ethics
148
397260
3000
dar neturi įtvirtintos etikos,
06:40
that the editors did.
149
400260
3000
kurią turi redaktoriai.
06:43
So if algorithms are going to curate the world for us,
150
403260
3000
Taigi, jeigu algoritmai kuruos mums pasaulį,
06:46
if they're going to decide what we get to see and what we don't get to see,
151
406260
3000
jeigu jie spręs, ką mes galime matyti ir ko ne,
06:49
then we need to make sure
152
409260
2000
tuomet mums reikia užsitikrinti,
06:51
that they're not just keyed to relevance.
153
411260
3000
kad jų pagrindas nėra aktualumas.
06:54
We need to make sure that they also show us things
154
414260
2000
Mums reikia užtikrinti, kad jie taip pat mums parodys dalykus,
06:56
that are uncomfortable or challenging or important --
155
416260
3000
kurie yra nesmagūs, sudėtingi arba svarbūs --
06:59
this is what TED does --
156
419260
2000
tai būtent ką daro TED --
07:01
other points of view.
157
421260
2000
rodo kitus požiūrius.
07:03
And the thing is, we've actually been here before
158
423260
2000
O svarbiausia, kad mes tokioje situacijoje jau buvome
07:05
as a society.
159
425260
2000
patekę kaip visuomenė.
07:08
In 1915, it's not like newspapers were sweating a lot
160
428260
3000
1915 laikraščiai tikrai neliejo daug prakaito
07:11
about their civic responsibilities.
161
431260
3000
dėl savo pilietinės atsakomybės.
07:14
Then people noticed
162
434260
2000
Tuomet žmonės pastebėjo,
07:16
that they were doing something really important.
163
436260
3000
kad jie darė kažką labai svarbaus.
07:19
That, in fact, you couldn't have
164
439260
2000
Tai, faktiškai, yra negalėjimas
07:21
a functioning democracy
165
441260
2000
turėti funkcionuojančią demokratiją,
07:23
if citizens didn't get a good flow of information,
166
443260
4000
jeigu piliečiai negauna tinkamo informacijos srauto.
07:28
that the newspapers were critical because they were acting as the filter,
167
448260
3000
Žmonės suprato, kad laikraščiai buvo kritiškai svarbūs, nes jie
07:31
and then journalistic ethics developed.
168
451260
2000
buvo kaip filtrai, o tada susiformavo žurnalistinė etika.
07:33
It wasn't perfect,
169
453260
2000
Tai nebuvo puiku,
07:35
but it got us through the last century.
170
455260
3000
bet mes taip pragyvenom paskutinį amžių.
07:38
And so now,
171
458260
2000
Ir taip dabar
07:40
we're kind of back in 1915 on the Web.
172
460260
3000
mes lyg ir grįžom į 1915 metus tinkle.
07:44
And we need the new gatekeepers
173
464260
3000
Ir mums reikia naujų žmonių, nuo kurių priklauso priėjimas prie informacijos,
07:47
to encode that kind of responsibility
174
467260
2000
kurie koduotų tą atsakomybę
07:49
into the code that they're writing.
175
469260
2000
į kodą, kurį jie dabar kuria.
07:51
I know that there are a lot of people here from Facebook and from Google --
176
471260
3000
Aš žinau, kad čia yra daug žmonių iš Facebook ir iš Google --
07:54
Larry and Sergey --
177
474260
2000
Larry ir Sergey --
07:56
people who have helped build the Web as it is,
178
476260
2000
žmonės, kurie padėjo sukurti žiniatinklį tokį, koks jis dabar yra,
07:58
and I'm grateful for that.
179
478260
2000
ir aš esu dėl to dėkingas.
08:00
But we really need you to make sure
180
480260
3000
Bet mums reikia, kad jūs užtikrintumėte,
08:03
that these algorithms have encoded in them
181
483260
3000
kad šie algoritmai turėtų įkoduotą
08:06
a sense of the public life, a sense of civic responsibility.
182
486260
3000
viešo gyvenimo jausmą ir pilietinės atsakomybės jausmą.
08:09
We need you to make sure that they're transparent enough
183
489260
3000
Mums reikia, kad jūs užtikrintumėt, kad jie yra pakankamai skaidrūs,
08:12
that we can see what the rules are
184
492260
2000
kad mes galėtume matyti kokios yra taisyklės,
08:14
that determine what gets through our filters.
185
494260
3000
kurios nustato, kas pereina pro mūsų filtrus.
08:17
And we need you to give us some control
186
497260
2000
Ir mums reikia, kad duotumėte mums šiek tiek kontrolės,
08:19
so that we can decide
187
499260
2000
kad galėtume nuspręsti,
08:21
what gets through and what doesn't.
188
501260
3000
kas praeina pro filtrą ir kas ne.
08:24
Because I think
189
504260
2000
Nes aš manau,
08:26
we really need the Internet to be that thing
190
506260
2000
kad mums reikia interneto būtent tokio,
08:28
that we all dreamed of it being.
191
508260
2000
apie kokį ir svajojome.
08:30
We need it to connect us all together.
192
510260
3000
Mums reikia kad jis mus sujungtų.
08:33
We need it to introduce us to new ideas
193
513260
3000
Mums reikia, kad jis mums pristatytų naujų idėjų
08:36
and new people and different perspectives.
194
516260
3000
ir supažindintų su naujais žmonėmis ir naujomis perspektyvomis.
08:40
And it's not going to do that
195
520260
2000
Ir jis to neatliks,
08:42
if it leaves us all isolated in a Web of one.
196
522260
3000
jeigu mes liksime izoliuoti vieno žmogaus žiniatinklyje.
08:45
Thank you.
197
525260
2000
Ačiū.
08:47
(Applause)
198
527260
11000
(Plojimai)
Apie šią svetainę

Šioje svetainėje rasite "YouTube" vaizdo įrašų, naudingų mokantis anglų kalbos. Pamatysite anglų kalbos pamokas, kurias veda aukščiausio lygio mokytojai iš viso pasaulio. Dukart spustelėkite angliškus subtitrus, rodomus kiekvieno vaizdo įrašo puslapyje, kad iš ten paleistumėte vaizdo įrašą. Subtitrai slenka sinchroniškai su vaizdo įrašo atkūrimu. Jei turite pastabų ar pageidavimų, susisiekite su mumis naudodami šią kontaktinę formą.

https://forms.gle/WvT1wiN1qDtmnspy7