Beware online "filter bubbles" | Eli Pariser

1,551,917 views ・ 2011-05-02

TED


Моля, кликнете два пъти върху английските субтитри по-долу, за да пуснете видеото.

Translator: Anton Hikov Reviewer: Darina Stoyanova
00:15
Mark Zuckerberg,
0
15260
2000
Марк Зукерберг,
00:17
a journalist was asking him a question about the news feed.
1
17260
3000
журналист го питал въпрос за емисиите с новини.
00:20
And the journalist was asking him,
2
20260
2000
И журналиста го попитал:
00:22
"Why is this so important?"
3
22260
2000
"Защо е толкова важно това?"
00:24
And Zuckerberg said,
4
24260
2000
И Зукерберг отговорил:
00:26
"A squirrel dying in your front yard
5
26260
2000
"Катерица умираща във вашия двор
00:28
may be more relevant to your interests right now
6
28260
3000
може да бъде по-важна за вашите интереси в момента,
00:31
than people dying in Africa."
7
31260
3000
отколкото хората, които умират в Африка."
00:34
And I want to talk about
8
34260
2000
И аз искам да говоря за това,
00:36
what a Web based on that idea of relevance might look like.
9
36260
3000
как може да изглежда Уеб базиран на тази идея за значимост.
00:40
So when I was growing up
10
40260
2000
И така, когато израствах
00:42
in a really rural area in Maine,
11
42260
2000
в един наистина селски район в щата Мейн,
00:44
the Internet meant something very different to me.
12
44260
3000
Интернет означаваше нещо много различно за мен.
00:47
It meant a connection to the world.
13
47260
2000
Означаваше връзка към света.
00:49
It meant something that would connect us all together.
14
49260
3000
Означаваше нещо, което можеше да ни свърже всички заедно.
00:52
And I was sure that it was going to be great for democracy
15
52260
3000
И бях сигурен, че щеше да бъде страхотен за демокрацията
00:55
and for our society.
16
55260
3000
и за нашето общество.
00:58
But there's this shift
17
58260
2000
Но има промяна
01:00
in how information is flowing online,
18
60260
2000
в това как информацията тече онлайн,
01:02
and it's invisible.
19
62260
3000
и тя е невидима.
01:05
And if we don't pay attention to it,
20
65260
2000
И ако не обърнем внимание на това,
01:07
it could be a real problem.
21
67260
3000
то може да бъде реален проблем.
01:10
So I first noticed this in a place I spend a lot of time --
22
70260
3000
За първи път забелязах това на място, където прекарвам много време --
01:13
my Facebook page.
23
73260
2000
моята Фейсбук страница.
01:15
I'm progressive, politically -- big surprise --
24
75260
3000
Аз съм прогресивен, политически -- голяма изненада --
01:18
but I've always gone out of my way to meet conservatives.
25
78260
2000
но винаги съм се стремял да изслушвам консерваторите.
01:20
I like hearing what they're thinking about;
26
80260
2000
Обичам да изслушвам това, за което мислят,
01:22
I like seeing what they link to;
27
82260
2000
обичам да гледам линковете, които изпращат,
01:24
I like learning a thing or two.
28
84260
2000
обичам да научавам нещо или друго.
01:26
And so I was surprised when I noticed one day
29
86260
3000
И така, аз бях изненадан, когато забелязах един ден,
01:29
that the conservatives had disappeared from my Facebook feed.
30
89260
3000
че консерваторите изчезнаха от моя Фейсбук фийд.
01:33
And what it turned out was going on
31
93260
2000
И това, което се оказа че става бе,
01:35
was that Facebook was looking at which links I clicked on,
32
95260
4000
че Фейсбук следеше линковете, върху които съм щракал,
01:39
and it was noticing that, actually,
33
99260
2000
и беше забелязал, че всъщност,
01:41
I was clicking more on my liberal friends' links
34
101260
2000
съм щракал повече върху линковете на моите либерални приятели,
01:43
than on my conservative friends' links.
35
103260
3000
отколкото върху линковете на моите консервативни приятели.
01:46
And without consulting me about it,
36
106260
2000
И без да се консултират с мен за това,
01:48
it had edited them out.
37
108260
2000
ги бяха редактирали.
01:50
They disappeared.
38
110260
3000
Те изчезнаха.
01:54
So Facebook isn't the only place
39
114260
2000
И така, Фейсбук не е единственото място,
01:56
that's doing this kind of invisible, algorithmic
40
116260
2000
което прави това невидимо, алгоритмично
01:58
editing of the Web.
41
118260
3000
редактиране на Уеба.
02:01
Google's doing it too.
42
121260
2000
Гугъл го правят също.
02:03
If I search for something, and you search for something,
43
123260
3000
Ако аз търся нещо, и вие търсите нещо,
02:06
even right now at the very same time,
44
126260
2000
дори в този момент, по едно и също време,
02:08
we may get very different search results.
45
128260
3000
ние можем да получим много различни резултати от търсенето.
02:11
Even if you're logged out, one engineer told me,
46
131260
3000
Дори и когато не сте се разписали, един инженер ми каза,
02:14
there are 57 signals
47
134260
2000
има 57 сигнали,
02:16
that Google looks at --
48
136260
3000
които Гугъл следи --
02:19
everything from what kind of computer you're on
49
139260
3000
всичко от какъв компютър имате,
02:22
to what kind of browser you're using
50
142260
2000
до какъв браузър използвате,
02:24
to where you're located --
51
144260
2000
до мястото, където се намирате --
02:26
that it uses to personally tailor your query results.
52
146260
3000
които използва за персонализиране на вашите резултатите от търсенето.
02:29
Think about it for a second:
53
149260
2000
Помислете си за това за секунда:
02:31
there is no standard Google anymore.
54
151260
4000
повече няма стандартен Гугъл.
02:35
And you know, the funny thing about this is that it's hard to see.
55
155260
3000
И знаете ли, странното нещо за това е, че е трудно да се види.
02:38
You can't see how different your search results are
56
158260
2000
Не можете да видите колко различни са резултатите от търсенето ви,
02:40
from anyone else's.
57
160260
2000
от тези на някой друг.
02:42
But a couple of weeks ago,
58
162260
2000
Но преди няколко седмици,
02:44
I asked a bunch of friends to Google "Egypt"
59
164260
3000
помолих няколко приятели да търсят за "Египет" в Гугъл,
02:47
and to send me screen shots of what they got.
60
167260
3000
и да ми изпратят скрийншоти от това, което виждат.
02:50
So here's my friend Scott's screen shot.
61
170260
3000
Така че тук е скрийншота на моя приятел Скот.
02:54
And here's my friend Daniel's screen shot.
62
174260
3000
А тук е скрийншота на моя приятел Даниел.
02:57
When you put them side-by-side,
63
177260
2000
Когато ги поставите една до друга,
02:59
you don't even have to read the links
64
179260
2000
дори не трябва да четете линковете,
03:01
to see how different these two pages are.
65
181260
2000
за да забележите колко различни са тези две страници.
03:03
But when you do read the links,
66
183260
2000
Но когато зачетете линковете,
03:05
it's really quite remarkable.
67
185260
3000
е наистина доста забележително.
03:09
Daniel didn't get anything about the protests in Egypt at all
68
189260
3000
Даниел не получил никаква информация за протестите в Египет, въобще,
03:12
in his first page of Google results.
69
192260
2000
в първата страница с резултати от търсенето в Гугъл.
03:14
Scott's results were full of them.
70
194260
2000
Резултатите на Скот бяха пълни с тях.
03:16
And this was the big story of the day at that time.
71
196260
2000
И това беше голямата история на деня по това време.
03:18
That's how different these results are becoming.
72
198260
3000
Ето колко различни стават тези резултати.
03:21
So it's not just Google and Facebook either.
73
201260
3000
Но това не е само Гугъл и Фейсбук.
03:24
This is something that's sweeping the Web.
74
204260
2000
Това е нещо, което се простира в мрежата.
03:26
There are a whole host of companies that are doing this kind of personalization.
75
206260
3000
Има цял куп от компании, които правят този вид персонализация.
03:29
Yahoo News, the biggest news site on the Internet,
76
209260
3000
Yahoo News, най-големият новинарски сайт в интернет,
03:32
is now personalized -- different people get different things.
77
212260
3000
сега е персонализиран -- различни хора получават различни неща.
03:36
Huffington Post, the Washington Post, the New York Times --
78
216260
3000
Хъфингтън Пост, Вашингтон пост, Ню Йорк Таймс --
03:39
all flirting with personalization in various ways.
79
219260
3000
всички флиртуват с персонализацията по различни начини.
03:42
And this moves us very quickly
80
222260
3000
И това ни пренася много бързо
03:45
toward a world in which
81
225260
2000
към един свят, в който
03:47
the Internet is showing us what it thinks we want to see,
82
227260
4000
Интернет ни показва това, което той смята, че искаме да видим,
03:51
but not necessarily what we need to see.
83
231260
3000
но не непременно това, което ние искаме да видим.
03:54
As Eric Schmidt said,
84
234260
3000
Както Ерик Шмид казва:
03:57
"It will be very hard for people to watch or consume something
85
237260
3000
"Ще бъде много трудно за хората да гледат или консумират нещо,
04:00
that has not in some sense
86
240260
2000
което не е по някакъв начин
04:02
been tailored for them."
87
242260
3000
пригодено за тях."
04:05
So I do think this is a problem.
88
245260
2000
И аз мисля, че това е проблем.
04:07
And I think, if you take all of these filters together,
89
247260
3000
Мисля, че ако вземем всички тези филтри заедно,
04:10
you take all these algorithms,
90
250260
2000
ако вземем всички тези алгоритми,
04:12
you get what I call a filter bubble.
91
252260
3000
ще получим това, което наричам балонен филтър.
04:16
And your filter bubble is your own personal,
92
256260
3000
И вашия балонен филтър е вашата лична
04:19
unique universe of information
93
259260
2000
уникална вселена от информация,
04:21
that you live in online.
94
261260
2000
с която живеете онлайн.
04:23
And what's in your filter bubble
95
263260
3000
И какво има във вашия балонен филтър
04:26
depends on who you are, and it depends on what you do.
96
266260
3000
зависи от това кой сте, и зависи от това какво правите.
04:29
But the thing is that you don't decide what gets in.
97
269260
4000
Но важното е, че вие не решавате какво влиза вътре.
04:33
And more importantly,
98
273260
2000
И по-важното е, че
04:35
you don't actually see what gets edited out.
99
275260
3000
вие всъщност не виждате това, което е редактирано.
04:38
So one of the problems with the filter bubble
100
278260
2000
Така че един от проблемите с балонния филтър
04:40
was discovered by some researchers at Netflix.
101
280260
3000
беше открит от някои изследователи от Нетфликс.
04:43
And they were looking at the Netflix queues, and they noticed something kind of funny
102
283260
3000
Гледайки времената за чакане в Нетфликс, те забелязали нещо странно,
04:46
that a lot of us probably have noticed,
103
286260
2000
което много от нас вероятно са забелязали,
04:48
which is there are some movies
104
288260
2000
което е, че някои филми
04:50
that just sort of zip right up and out to our houses.
105
290260
3000
преминават мигновено през нашите домове.
04:53
They enter the queue, they just zip right out.
106
293260
3000
Те влизат в опашката и се свалят веднага.
04:56
So "Iron Man" zips right out,
107
296260
2000
Например "Железния човек" се сваля веднага,
04:58
and "Waiting for Superman"
108
298260
2000
а "В очакване на Супермен"
05:00
can wait for a really long time.
109
300260
2000
може да чака доста дълго време.
05:02
What they discovered
110
302260
2000
Това, което открили
05:04
was that in our Netflix queues
111
304260
2000
било, че в нашите Нетфликс опашки
05:06
there's this epic struggle going on
112
306260
3000
се води тази епична борба
05:09
between our future aspirational selves
113
309260
3000
между нашите бъдещи пожелателни личности,
05:12
and our more impulsive present selves.
114
312260
3000
и нашите по-импулсивни настоящи личности.
05:15
You know we all want to be someone
115
315260
2000
Знаете ли, ние всички искаме да бъдем някой,
05:17
who has watched "Rashomon,"
116
317260
2000
който е гледал "Рашомон,"
05:19
but right now
117
319260
2000
но точно сега
05:21
we want to watch "Ace Ventura" for the fourth time.
118
321260
3000
искаме да гледаме "Ейс Вентура" за четвърти път.
05:24
(Laughter)
119
324260
3000
(Смях)
05:27
So the best editing gives us a bit of both.
120
327260
2000
Затова най-доброто редактиране ни дава малко и от двете.
05:29
It gives us a little bit of Justin Bieber
121
329260
2000
Дава ни малко от Джъстин Бийбър
05:31
and a little bit of Afghanistan.
122
331260
2000
и малко от Афганистан.
05:33
It gives us some information vegetables;
123
333260
2000
Дава ни информационни зеленчуци,
05:35
it gives us some information dessert.
124
335260
3000
дава ни информационни десерти.
05:38
And the challenge with these kinds of algorithmic filters,
125
338260
2000
И предизвикателството с тези алгоритмични филтри,
05:40
these personalized filters,
126
340260
2000
с тези персонализирани филтри
05:42
is that, because they're mainly looking
127
342260
2000
е, че понеже те основно гледат
05:44
at what you click on first,
128
344260
4000
това, върху което щракате първо,
05:48
it can throw off that balance.
129
348260
4000
това може да наруши баланса.
05:52
And instead of a balanced information diet,
130
352260
3000
И вместо една балансирана информационна диета,
05:55
you can end up surrounded
131
355260
2000
може да се окажете заобиколени
05:57
by information junk food.
132
357260
2000
от информационни хранителни боклуци.
05:59
What this suggests
133
359260
2000
Това намеква,
06:01
is actually that we may have the story about the Internet wrong.
134
361260
3000
че всъщност може да не сме разбрали правилно историята на Интернет.
06:04
In a broadcast society --
135
364260
2000
В информационно общество --
06:06
this is how the founding mythology goes --
136
366260
2000
така е поне в основополагащата митология --
06:08
in a broadcast society,
137
368260
2000
в информационното общество,
06:10
there were these gatekeepers, the editors,
138
370260
2000
имаше пазители, редактори,
06:12
and they controlled the flows of information.
139
372260
3000
и те контролираха потока на информация.
06:15
And along came the Internet and it swept them out of the way,
140
375260
3000
И тогава се появи Интернет и ги помете настрани,
06:18
and it allowed all of us to connect together,
141
378260
2000
и ни позволи да се свържем заедно,
06:20
and it was awesome.
142
380260
2000
и беше страхотно.
06:22
But that's not actually what's happening right now.
143
382260
3000
Но това не е нещото, което се случва в момента.
06:26
What we're seeing is more of a passing of the torch
144
386260
3000
Това, което виждаме е по-скоро предаване на факлата
06:29
from human gatekeepers
145
389260
2000
от човешки контрольори
06:31
to algorithmic ones.
146
391260
3000
на алгоритмични такива.
06:34
And the thing is that the algorithms
147
394260
3000
И проблемът е, че алгоритмите
06:37
don't yet have the kind of embedded ethics
148
397260
3000
все още не разполагат с вградената етика,
06:40
that the editors did.
149
400260
3000
която имаха редакторите.
06:43
So if algorithms are going to curate the world for us,
150
403260
3000
Така че, ако алгоритмите ще ни превеждат през света,
06:46
if they're going to decide what we get to see and what we don't get to see,
151
406260
3000
ако те ще решават какво можем да видим и какво не можем да видим,
06:49
then we need to make sure
152
409260
2000
тогава трябва да се уверим,
06:51
that they're not just keyed to relevance.
153
411260
3000
че те не са настроени само за уместност.
06:54
We need to make sure that they also show us things
154
414260
2000
Трябва да се уверим, че те също ще ни показват неща,
06:56
that are uncomfortable or challenging or important --
155
416260
3000
които са неудобни, или предизвикателни, или важни --
06:59
this is what TED does --
156
419260
2000
това, което прави TED --
07:01
other points of view.
157
421260
2000
други гледни точки.
07:03
And the thing is, we've actually been here before
158
423260
2000
И въпросът е, че ние всъщност сме били тук преди
07:05
as a society.
159
425260
2000
като общество.
07:08
In 1915, it's not like newspapers were sweating a lot
160
428260
3000
През 1915 година, не че вестниците не са се потили много
07:11
about their civic responsibilities.
161
431260
3000
за гражданските си задължения.
07:14
Then people noticed
162
434260
2000
Тогава хората забелязали,
07:16
that they were doing something really important.
163
436260
3000
че те правели нещо наистина важно.
07:19
That, in fact, you couldn't have
164
439260
2000
Че всъщност не може да има
07:21
a functioning democracy
165
441260
2000
функционираща демокрация,
07:23
if citizens didn't get a good flow of information,
166
443260
4000
ако гражданите не получават добър приток от информация.
07:28
that the newspapers were critical because they were acting as the filter,
167
448260
3000
Че вестниците били жизнено важни, защото те действали като филтър,
07:31
and then journalistic ethics developed.
168
451260
2000
и после журналистическата етика се развила.
07:33
It wasn't perfect,
169
453260
2000
Това не беше съвършено,
07:35
but it got us through the last century.
170
455260
3000
но ни свърши работа през миналия век.
07:38
And so now,
171
458260
2000
И така, сега,
07:40
we're kind of back in 1915 on the Web.
172
460260
3000
ние сме един вид обратно в 1915 година с Уеба.
07:44
And we need the new gatekeepers
173
464260
3000
И ние се нуждаем от нови пазители,
07:47
to encode that kind of responsibility
174
467260
2000
които да кодират този вид отговорност
07:49
into the code that they're writing.
175
469260
2000
в кода, който пишат.
07:51
I know that there are a lot of people here from Facebook and from Google --
176
471260
3000
Знам, че има много хора тук от Фейсбук и от Гугъл --
07:54
Larry and Sergey --
177
474260
2000
Лари и Сергей --
07:56
people who have helped build the Web as it is,
178
476260
2000
хора, които са помогнали да построят Уеба в сегашната му форма,
07:58
and I'm grateful for that.
179
478260
2000
и аз съм им благодарен за това.
08:00
But we really need you to make sure
180
480260
3000
Но ние наистина трябва да се уверим,
08:03
that these algorithms have encoded in them
181
483260
3000
че тези алгоритми имат закодирано в тях
08:06
a sense of the public life, a sense of civic responsibility.
182
486260
3000
чувство за обществения живот, чувството за гражданска отговорност.
08:09
We need you to make sure that they're transparent enough
183
489260
3000
Трябва да се уверите, че те са достатъчно прозрачни,
08:12
that we can see what the rules are
184
492260
2000
че можем да видим какви са правилата,
08:14
that determine what gets through our filters.
185
494260
3000
които определят какво преминава през нашите филтри.
08:17
And we need you to give us some control
186
497260
2000
И вие трябва да ни дадете някакъв контрол,
08:19
so that we can decide
187
499260
2000
така че да можем да решим
08:21
what gets through and what doesn't.
188
501260
3000
какво преминава и какво не.
08:24
Because I think
189
504260
2000
Защото мисля,
08:26
we really need the Internet to be that thing
190
506260
2000
че наистина имаме нужда Интернет да бъде това нещо,
08:28
that we all dreamed of it being.
191
508260
2000
което всички ние мечтаем да бъде.
08:30
We need it to connect us all together.
192
510260
3000
Необходимо е той да ни свързва всички заедно.
08:33
We need it to introduce us to new ideas
193
513260
3000
Необходимо е той да ни запознава с нови идеи
08:36
and new people and different perspectives.
194
516260
3000
и нови хора, с различни гледни точки.
08:40
And it's not going to do that
195
520260
2000
И той няма да постигне това,
08:42
if it leaves us all isolated in a Web of one.
196
522260
3000
ако ни остави всички нас изолирани в Уеб от един.
08:45
Thank you.
197
525260
2000
Благодаря ви.
08:47
(Applause)
198
527260
11000
(Ръкопляскане)
Относно този уебсайт

Този сайт ще ви запознае с видеоклипове в YouTube, които са полезни за изучаване на английски език. Ще видите уроци по английски език, преподавани от първокласни учители от цял свят. Кликнете два пъти върху английските субтитри, показани на всяка страница с видеоклипове, за да възпроизведете видеото оттам. Субтитрите се превъртат в синхрон с възпроизвеждането на видеото. Ако имате някакви коментари или искания, моля, свържете се с нас, като използвате тази форма за контакт.

https://forms.gle/WvT1wiN1qDtmnspy7