Beware online "filter bubbles" | Eli Pariser

Эли Парайзер: Остерегайтесь онлайн "фильтров-пузырей"

1,593,210 views

2011-05-02 ・ TED


New videos

Beware online "filter bubbles" | Eli Pariser

Эли Парайзер: Остерегайтесь онлайн "фильтров-пузырей"

1,593,210 views ・ 2011-05-02

TED


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

Переводчик: Galina Vyday Редактор: Andriy Prischenko
00:15
Mark Zuckerberg,
0
15260
2000
Марк Цукерберг,
00:17
a journalist was asking him a question about the news feed.
1
17260
3000
журналист задал ему вопрос о ленте новостей.
00:20
And the journalist was asking him,
2
20260
2000
И журналист спросил его,
00:22
"Why is this so important?"
3
22260
2000
"Почему это так важно?"
00:24
And Zuckerberg said,
4
24260
2000
На что Цукерберг ответил,
00:26
"A squirrel dying in your front yard
5
26260
2000
"Белка, сдохшая у вас во дворе,
00:28
may be more relevant to your interests right now
6
28260
3000
может быть куда более релевантной для вас на данный момент,
00:31
than people dying in Africa."
7
31260
3000
чем люди, умирающие в Африке."
00:34
And I want to talk about
8
34260
2000
А я хочу поговорить о том,
00:36
what a Web based on that idea of relevance might look like.
9
36260
3000
как может выглядеть Сеть, основанная на идее релевантности.
00:40
So when I was growing up
10
40260
2000
Когда я рос
00:42
in a really rural area in Maine,
11
42260
2000
в глубокой сельской местности в штате Мэн,
00:44
the Internet meant something very different to me.
12
44260
3000
Интернет значил для меня совершенно другое.
00:47
It meant a connection to the world.
13
47260
2000
Он означал связь с миром.
00:49
It meant something that would connect us all together.
14
49260
3000
Он представлял что-то, что может соединить нас всех вместе.
00:52
And I was sure that it was going to be great for democracy
15
52260
3000
И я был уверен, что это будет очень важно для демократии
00:55
and for our society.
16
55260
3000
и для нашего общества.
00:58
But there's this shift
17
58260
2000
Но происходят изменения
01:00
in how information is flowing online,
18
60260
2000
в том, как информация передаётся в Интернете,
01:02
and it's invisible.
19
62260
3000
и они незаметны.
01:05
And if we don't pay attention to it,
20
65260
2000
И если мы не придадим этому значения,
01:07
it could be a real problem.
21
67260
3000
это может стать реальной проблемой.
01:10
So I first noticed this in a place I spend a lot of time --
22
70260
3000
Впервые я заметил это там, где провожу много времени –
01:13
my Facebook page.
23
73260
2000
на моей странице в Facebook.
01:15
I'm progressive, politically -- big surprise --
24
75260
3000
У меня прогрессивные политические взгляды – на удивление –
01:18
but I've always gone out of my way to meet conservatives.
25
78260
2000
но я всегда старался общаться с консерваторами.
01:20
I like hearing what they're thinking about;
26
80260
2000
Мне хочется услышать то, о чем они думают;
01:22
I like seeing what they link to;
27
82260
2000
хочется увидеть то, что их притягивает;
01:24
I like learning a thing or two.
28
84260
2000
хочется узнать пару новых вещей.
01:26
And so I was surprised when I noticed one day
29
86260
3000
И однажды я очень удивился, заметив,
01:29
that the conservatives had disappeared from my Facebook feed.
30
89260
3000
что консерваторы исчезли из моей ленты новостей на Facebook.
01:33
And what it turned out was going on
31
93260
2000
И на самом деле оказалось,
01:35
was that Facebook was looking at which links I clicked on,
32
95260
4000
что Facebook отслеживал ссылки, на которые я нажимал,
01:39
and it was noticing that, actually,
33
99260
2000
и замечал, что фактически
01:41
I was clicking more on my liberal friends' links
34
101260
2000
я чаще нажимал на ссылки моих друзей-либералов,
01:43
than on my conservative friends' links.
35
103260
3000
чем на ссылки моих друзей-консерваторов.
01:46
And without consulting me about it,
36
106260
2000
И не посовещавшись со мной,
01:48
it had edited them out.
37
108260
2000
он их исключил.
01:50
They disappeared.
38
110260
3000
Они исчезли.
01:54
So Facebook isn't the only place
39
114260
2000
Но Facebook – не единственное место,
01:56
that's doing this kind of invisible, algorithmic
40
116260
2000
где практикуется такое невидимое, алгоритмическое
01:58
editing of the Web.
41
118260
3000
редактирование Сети.
02:01
Google's doing it too.
42
121260
2000
Google делает тоже самое.
02:03
If I search for something, and you search for something,
43
123260
3000
Если вы и я используем поиск, чтобы найти что-то
02:06
even right now at the very same time,
44
126260
2000
даже совершенно одновременно,
02:08
we may get very different search results.
45
128260
3000
мы можем получить очень разные результаты.
02:11
Even if you're logged out, one engineer told me,
46
131260
3000
Даже если вы выйдете из системы, как пояснил мне один инженер,
02:14
there are 57 signals
47
134260
2000
останутся 57 сигналов,
02:16
that Google looks at --
48
136260
3000
которые обработает Google –
02:19
everything from what kind of computer you're on
49
139260
3000
всё, начиная с разновидности вашего компьютера
02:22
to what kind of browser you're using
50
142260
2000
до вида вашего веб-обозревателя
02:24
to where you're located --
51
144260
2000
и вашего месторасположения –
02:26
that it uses to personally tailor your query results.
52
146260
3000
которые он использует для индивидуализации результатов.
02:29
Think about it for a second:
53
149260
2000
Задумайтесь на секунду:
02:31
there is no standard Google anymore.
54
151260
4000
стандартный Google больше не существует.
02:35
And you know, the funny thing about this is that it's hard to see.
55
155260
3000
И знаете, смешнее всего, что это практически не заметно.
02:38
You can't see how different your search results are
56
158260
2000
Вы не видите, насколько ваши поисковые результаты отличаются
02:40
from anyone else's.
57
160260
2000
от результатов других людей.
02:42
But a couple of weeks ago,
58
162260
2000
Но пару недель назад
02:44
I asked a bunch of friends to Google "Egypt"
59
164260
3000
я попросил своих друзей погуглить "Египет"
02:47
and to send me screen shots of what they got.
60
167260
3000
и прислать мне снимки экрана того, что у них получилось.
02:50
So here's my friend Scott's screen shot.
61
170260
3000
Итак, вот снимок экрана моего друга Скотта.
02:54
And here's my friend Daniel's screen shot.
62
174260
3000
А вот снимок экрана моего друга Даниэля.
02:57
When you put them side-by-side,
63
177260
2000
Когда их сопоставляешь,
02:59
you don't even have to read the links
64
179260
2000
не надо даже читать ссылки,
03:01
to see how different these two pages are.
65
181260
2000
чтобы понять, насколько эти страницы различаются.
03:03
But when you do read the links,
66
183260
2000
Но если начать читать ссылки,
03:05
it's really quite remarkable.
67
185260
3000
то это просто поразительно.
03:09
Daniel didn't get anything about the protests in Egypt at all
68
189260
3000
Даниель на своей первой странице поисковых результатов
03:12
in his first page of Google results.
69
192260
2000
вообще ничего не нашёл о протестах в Египте
03:14
Scott's results were full of them.
70
194260
2000
А у Скотта, наоборот, всё было ими переполнено.
03:16
And this was the big story of the day at that time.
71
196260
2000
А это было тогда ключевым событием в мире.
03:18
That's how different these results are becoming.
72
198260
3000
Вот на сколько разными становятся результаты нашего поиска.
03:21
So it's not just Google and Facebook either.
73
201260
3000
Но тут дело даже не в Google и Facebook.
03:24
This is something that's sweeping the Web.
74
204260
2000
Это стремительно охватываеь всю Сеть.
03:26
There are a whole host of companies that are doing this kind of personalization.
75
206260
3000
Множество компаний применяют персонализацию такого рода.
03:29
Yahoo News, the biggest news site on the Internet,
76
209260
3000
Новости Yahoo, одной из самых крупных страниц новостей в Интернете,
03:32
is now personalized -- different people get different things.
77
212260
3000
теперь персонализированы: у разных людей разные новости.
03:36
Huffington Post, the Washington Post, the New York Times --
78
216260
3000
Huffington Post, the Washington Post, the New York Times –
03:39
all flirting with personalization in various ways.
79
219260
3000
все так или иначе балуются персонализацией.
03:42
And this moves us very quickly
80
222260
3000
И всё это стремительно развивается
03:45
toward a world in which
81
225260
2000
в направлении мира, в котором
03:47
the Internet is showing us what it thinks we want to see,
82
227260
4000
Интернет будет показывать нам то, что он думает нам интересно,
03:51
but not necessarily what we need to see.
83
231260
3000
но не обязательно то, что нам необходимо.
03:54
As Eric Schmidt said,
84
234260
3000
Как сказал Эрик Шмидт,
03:57
"It will be very hard for people to watch or consume something
85
237260
3000
"Людям будет очень сложно увидеть или приобрести что-то,
04:00
that has not in some sense
86
240260
2000
что так или иначе не было
04:02
been tailored for them."
87
242260
3000
под них подобрано."
04:05
So I do think this is a problem.
88
245260
2000
И я считаю это проблемой.
04:07
And I think, if you take all of these filters together,
89
247260
3000
И я считаю, что если соединить вместе все эти фильтры,
04:10
you take all these algorithms,
90
250260
2000
взять все эти алгоритмы,
04:12
you get what I call a filter bubble.
91
252260
3000
получится то, что я называю фильтром-пузырём.
04:16
And your filter bubble is your own personal,
92
256260
3000
И ваш фильтр-пузырь будет вашей личной
04:19
unique universe of information
93
259260
2000
уникальной информационной вселенной,
04:21
that you live in online.
94
261260
2000
в который вы будете жить в сети.
04:23
And what's in your filter bubble
95
263260
3000
А что будет включать ваш фильтр-пузырь,
04:26
depends on who you are, and it depends on what you do.
96
266260
3000
будет зависеть от того, кто вы и чем вы занимаетесь.
04:29
But the thing is that you don't decide what gets in.
97
269260
4000
Но загвоздка вот в чём: не вы решаете, что в него входит.
04:33
And more importantly,
98
273260
2000
И важней всего то,
04:35
you don't actually see what gets edited out.
99
275260
3000
что вы даже и не увидите, что будет вырезано.
04:38
So one of the problems with the filter bubble
100
278260
2000
Итак, одна из проблем с фильтрами-пузырями
04:40
was discovered by some researchers at Netflix.
101
280260
3000
была обнаружена исследователями в Netflix.
04:43
And they were looking at the Netflix queues, and they noticed something kind of funny
102
283260
3000
Они изучали очереди в Netflix и заметили такую забавную закономерность,
04:46
that a lot of us probably have noticed,
103
286260
2000
что, наверное, многие из нас замечают,
04:48
which is there are some movies
104
288260
2000
что есть некоторые фильмы,
04:50
that just sort of zip right up and out to our houses.
105
290260
3000
которые со свистом залетают и вылетают из домов.
04:53
They enter the queue, they just zip right out.
106
293260
3000
Они попадают в очередь и сразу вылетают.
04:56
So "Iron Man" zips right out,
107
296260
2000
Итак "Железный Человек" молниеносно вылетает,
04:58
and "Waiting for Superman"
108
298260
2000
а "В ожидании Супермена"
05:00
can wait for a really long time.
109
300260
2000
может ждать очень долгое время.
05:02
What they discovered
110
302260
2000
Они обнаружили,
05:04
was that in our Netflix queues
111
304260
2000
что в очередях Netfix
05:06
there's this epic struggle going on
112
306260
3000
происходит грандиозная борьба
05:09
between our future aspirational selves
113
309260
3000
между теми, кем мы стремимся быть,
05:12
and our more impulsive present selves.
114
312260
3000
и более импульсивными сегодняшними нами.
05:15
You know we all want to be someone
115
315260
2000
Вы знаете, мы все хотим быть теми,
05:17
who has watched "Rashomon,"
116
317260
2000
кто посмотрел "Расёмон,"
05:19
but right now
117
319260
2000
но на данный момент
05:21
we want to watch "Ace Ventura" for the fourth time.
118
321260
3000
нам хочется в четвертый раз пересмотреть "Эйс Вентура."
05:24
(Laughter)
119
324260
3000
(Смех в зале)
05:27
So the best editing gives us a bit of both.
120
327260
2000
Наилучшее редактирование даёт нам и то и другое.
05:29
It gives us a little bit of Justin Bieber
121
329260
2000
Оно даёт нам немного Джастина Бибера
05:31
and a little bit of Afghanistan.
122
331260
2000
и немного Афганистана.
05:33
It gives us some information vegetables;
123
333260
2000
Оно даёт нам немного информационных овощей
05:35
it gives us some information dessert.
124
335260
3000
и немного информационного десерта.
05:38
And the challenge with these kinds of algorithmic filters,
125
338260
2000
И проблема этих алгоритмических фильтров,
05:40
these personalized filters,
126
340260
2000
этих персонализированных фильтров,
05:42
is that, because they're mainly looking
127
342260
2000
в том, что они в основном следят за тем,
05:44
at what you click on first,
128
344260
4000
куда мы нажимаем первым делом,
05:48
it can throw off that balance.
129
348260
4000
поэтому они нарушают баланс.
05:52
And instead of a balanced information diet,
130
352260
3000
И вместо сбалансированного информационного питания
05:55
you can end up surrounded
131
355260
2000
можно оказаться окружённым
05:57
by information junk food.
132
357260
2000
нездоровой информационной пищей.
05:59
What this suggests
133
359260
2000
Все это наводит на мысль,
06:01
is actually that we may have the story about the Internet wrong.
134
361260
3000
что фактически у нас может быть недостоверное представление об Интернете.
06:04
In a broadcast society --
135
364260
2000
В обществе телерадиовещания –
06:06
this is how the founding mythology goes --
136
366260
2000
так гласит первоначальная мифология –
06:08
in a broadcast society,
137
368260
2000
в обществе телерадиовещания
06:10
there were these gatekeepers, the editors,
138
370260
2000
были привратники – редакторы,
06:12
and they controlled the flows of information.
139
372260
3000
которые контролировали потоки информации.
06:15
And along came the Internet and it swept them out of the way,
140
375260
3000
Но тут пришёл Интернет и убрал их со своего пути,
06:18
and it allowed all of us to connect together,
141
378260
2000
что позволило нам всем соединиться,
06:20
and it was awesome.
142
380260
2000
и все было потрясающе.
06:22
But that's not actually what's happening right now.
143
382260
3000
Но это не то, что в действительности происходит сейчас.
06:26
What we're seeing is more of a passing of the torch
144
386260
3000
То, что мы видим, больше похоже на передачу факела
06:29
from human gatekeepers
145
389260
2000
из рук человеческих привратников
06:31
to algorithmic ones.
146
391260
3000
в руки алгоритмических.
06:34
And the thing is that the algorithms
147
394260
3000
И дело в том, что алгоритмы
06:37
don't yet have the kind of embedded ethics
148
397260
3000
пока ещё не наделены встроенной этикой,
06:40
that the editors did.
149
400260
3000
какой обладали редакторы.
06:43
So if algorithms are going to curate the world for us,
150
403260
3000
И если алгоритмы будут курировать наш мир,
06:46
if they're going to decide what we get to see and what we don't get to see,
151
406260
3000
если они будут решать, на что нам стоит или не стоит смотреть,
06:49
then we need to make sure
152
409260
2000
тогда надо сделать так,
06:51
that they're not just keyed to relevance.
153
411260
3000
чтобы они не опирались на одну лишь релевантность.
06:54
We need to make sure that they also show us things
154
414260
2000
Мы должны убедиться, что они будут нам также показывать вещи,
06:56
that are uncomfortable or challenging or important --
155
416260
3000
которые неприятны, бросают нам вызов или являются значимыми –
06:59
this is what TED does --
156
419260
2000
именно это делает TED –
07:01
other points of view.
157
421260
2000
другие точки зрения.
07:03
And the thing is, we've actually been here before
158
423260
2000
И интересно то, что мы уже это проходили
07:05
as a society.
159
425260
2000
как общество.
07:08
In 1915, it's not like newspapers were sweating a lot
160
428260
3000
В 1915 г. газеты не особенно утруждали себя
07:11
about their civic responsibilities.
161
431260
3000
мыслями о гражданской ответственности.
07:14
Then people noticed
162
434260
2000
А потом люди стали замечать,
07:16
that they were doing something really important.
163
436260
3000
что они делают что-то действительно важное.
07:19
That, in fact, you couldn't have
164
439260
2000
Что, по сути, демократия
07:21
a functioning democracy
165
441260
2000
не сможет работать,
07:23
if citizens didn't get a good flow of information,
166
443260
4000
если у граждан нет доступа к хорошему потоку информации.
07:28
that the newspapers were critical because they were acting as the filter,
167
448260
3000
Что газеты имеют решающую роль, потому что они работают как фильтры,
07:31
and then journalistic ethics developed.
168
451260
2000
и из этого выросла практика журналистской этики.
07:33
It wasn't perfect,
169
453260
2000
Она не была идеальной,
07:35
but it got us through the last century.
170
455260
3000
но она позволила нам пережить весь прошлый век.
07:38
And so now,
171
458260
2000
А сейчас
07:40
we're kind of back in 1915 on the Web.
172
460260
3000
мы как бы вернулись в 1915 год в Сети.
07:44
And we need the new gatekeepers
173
464260
3000
И нам нужны новые привратники,
07:47
to encode that kind of responsibility
174
467260
2000
которые впишут такую ответственность
07:49
into the code that they're writing.
175
469260
2000
в код своих разработок.
07:51
I know that there are a lot of people here from Facebook and from Google --
176
471260
3000
Я знаю, здесь присутствует много людей и из Facebook и из Google –
07:54
Larry and Sergey --
177
474260
2000
Ларри и Сергей –
07:56
people who have helped build the Web as it is,
178
476260
2000
люди, которые помогали строить существующую Сеть,
07:58
and I'm grateful for that.
179
478260
2000
и я очень благодарен за это.
08:00
But we really need you to make sure
180
480260
3000
Но нам очень нужно, чтобы вы позаботились о том,
08:03
that these algorithms have encoded in them
181
483260
3000
чтобы эти алгоритмы включали в себя
08:06
a sense of the public life, a sense of civic responsibility.
182
486260
3000
ощущение общественной жизни, чувства гражданской ответственности.
08:09
We need you to make sure that they're transparent enough
183
489260
3000
Нам нужно, чтобы вы обеспечили достаточную прозрачность,
08:12
that we can see what the rules are
184
492260
2000
чтобы нам были понятны правила,
08:14
that determine what gets through our filters.
185
494260
3000
определяющие то, что проходит через наши фильтры.
08:17
And we need you to give us some control
186
497260
2000
И нам нужно, чтобы вы дали нам некоторую свободу
08:19
so that we can decide
187
499260
2000
самим решать,
08:21
what gets through and what doesn't.
188
501260
3000
что проходит, а что остается.
08:24
Because I think
189
504260
2000
Потому что, мне кажется,
08:26
we really need the Internet to be that thing
190
506260
2000
для нас очень важно, чтобы Интернет был той вещью,
08:28
that we all dreamed of it being.
191
508260
2000
о которой мы всегда мечтали.
08:30
We need it to connect us all together.
192
510260
3000
Нам нужно, чтобы он нас объединял.
08:33
We need it to introduce us to new ideas
193
513260
3000
Чтобы он приносил нам новые идеи,
08:36
and new people and different perspectives.
194
516260
3000
новых людей, новые перспективы.
08:40
And it's not going to do that
195
520260
2000
Но он не сможет этого делать,
08:42
if it leaves us all isolated in a Web of one.
196
522260
3000
если он будет изолировать нас в Сети.
08:45
Thank you.
197
525260
2000
Спасибо.
08:47
(Applause)
198
527260
11000
(Аплодисменты)
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7