Beware online "filter bubbles" | Eli Pariser

1,551,917 views ・ 2011-05-02

TED


Будь ласка, двічі клацніть на англійські субтитри нижче, щоб відтворити відео.

Перекладач: Dmitriy Baykov Утверджено: Kato Despati
00:15
Mark Zuckerberg,
0
15260
2000
Марк Цукерберг,
00:17
a journalist was asking him a question about the news feed.
1
17260
3000
журналіст ставив йому питання про стрічку новин.
00:20
And the journalist was asking him,
2
20260
2000
Журналіст запитував його:
00:22
"Why is this so important?"
3
22260
2000
"Чому це так важливо?"
00:24
And Zuckerberg said,
4
24260
2000
Цукерберг відповів:
00:26
"A squirrel dying in your front yard
5
26260
2000
"Білка, що помирає у вашому дворі
00:28
may be more relevant to your interests right now
6
28260
3000
може бути більш релевантною до ваших інтересів просто зараз
00:31
than people dying in Africa."
7
31260
3000
ніж люди, що гинуть в Африці".
00:34
And I want to talk about
8
34260
2000
Я хочу поговорити про те,
00:36
what a Web based on that idea of relevance might look like.
9
36260
3000
як Інтернет, що базується на цій ідеї релевантності може виглядати.
00:40
So when I was growing up
10
40260
2000
В той час коли я підростав
00:42
in a really rural area in Maine,
11
42260
2000
в насправді сільській місцевості штату Мен,
00:44
the Internet meant something very different to me.
12
44260
3000
Інтернет означав для мене щось зовсім інше.
00:47
It meant a connection to the world.
13
47260
2000
Він означав зв'язок з усім світом.
00:49
It meant something that would connect us all together.
14
49260
3000
Він означав дещо таке, що мало поєднати нас всіх разом.
00:52
And I was sure that it was going to be great for democracy
15
52260
3000
І я був упевнений, що це буде чудово для демокрітії
00:55
and for our society.
16
55260
3000
і для нашого суспільства.
00:58
But there's this shift
17
58260
2000
Але існує цей зсув
01:00
in how information is flowing online,
18
60260
2000
в тому, як інформація тече онлайн,
01:02
and it's invisible.
19
62260
3000
і він невидимий.
01:05
And if we don't pay attention to it,
20
65260
2000
І якщо ми не звернемо увагу на нього,
01:07
it could be a real problem.
21
67260
3000
він може стати реальною проблемою.
01:10
So I first noticed this in a place I spend a lot of time --
22
70260
3000
Я вперше помітив це в місці, де я проводжу доволі багато часу -
01:13
my Facebook page.
23
73260
2000
моя сторінка у Facebook.
01:15
I'm progressive, politically -- big surprise --
24
75260
3000
Я прогресивний, політично -- великий сюрприз --
01:18
but I've always gone out of my way to meet conservatives.
25
78260
2000
але я завжди відходив від моїх переконань, щоб зустрітися з консерваторами.
01:20
I like hearing what they're thinking about;
26
80260
2000
Мені подобається чути про що вони думають;
01:22
I like seeing what they link to;
27
82260
2000
Мені подобається бачити посилання, якими вони діляться;
01:24
I like learning a thing or two.
28
84260
2000
Мені подобається дізнаватись певні речі.
01:26
And so I was surprised when I noticed one day
29
86260
3000
Я був здивований коли одного дня помітив,
01:29
that the conservatives had disappeared from my Facebook feed.
30
89260
3000
що консерватори зникли з моєї стрічки новин на Facebook.
01:33
And what it turned out was going on
31
93260
2000
Виявилося, що відбувалося те,
01:35
was that Facebook was looking at which links I clicked on,
32
95260
4000
що Facebook вивчав, на які посилання я натискав,
01:39
and it was noticing that, actually,
33
99260
2000
і він помітив, що власне,
01:41
I was clicking more on my liberal friends' links
34
101260
2000
я натискав частіше на посилання від моїх друзів лібералів
01:43
than on my conservative friends' links.
35
103260
3000
ніж на посилання моїх друзів консерваторів.
01:46
And without consulting me about it,
36
106260
2000
І не радячись зі мною,
01:48
it had edited them out.
37
108260
2000
він відсіяв їх.
01:50
They disappeared.
38
110260
3000
Вони зникли.
01:54
So Facebook isn't the only place
39
114260
2000
Але Facebook не єдине місце
01:56
that's doing this kind of invisible, algorithmic
40
116260
2000
де провадять такого роду невидиме, алгоритмічне
01:58
editing of the Web.
41
118260
3000
редагування Інтернету.
02:01
Google's doing it too.
42
121260
2000
Google також це робить.
02:03
If I search for something, and you search for something,
43
123260
3000
Якщо я шукаю дещо, і ви шукаєте те саме,
02:06
even right now at the very same time,
44
126260
2000
навіть просто зараз, в той самиий час,
02:08
we may get very different search results.
45
128260
3000
ми можемо отримати дуже різні результати нашого пошуку.
02:11
Even if you're logged out, one engineer told me,
46
131260
3000
Навіть якщо ви вилогувались, один інженер сказав мені,
02:14
there are 57 signals
47
134260
2000
- існує 57 сигналів
02:16
that Google looks at --
48
136260
3000
які зчитує Google --
02:19
everything from what kind of computer you're on
49
139260
3000
все, починаючи з того який комп'ютер ви використовуєте,
02:22
to what kind of browser you're using
50
142260
2000
який браузер ви використовуєте
02:24
to where you're located --
51
144260
2000
закінчуючи тим де ви знаходитеся --
02:26
that it uses to personally tailor your query results.
52
146260
3000
Все це він використовує, щоб персоналізувати результати вашого пошуку.
02:29
Think about it for a second:
53
149260
2000
Замисліться про це на мить:
02:31
there is no standard Google anymore.
54
151260
4000
більше не існує стандартного Google.
02:35
And you know, the funny thing about this is that it's hard to see.
55
155260
3000
І ви знаєте, найсмішніше в цьому те, що це важко побачити.
02:38
You can't see how different your search results are
56
158260
2000
Ви не можете побачити, наскільки відрізняються ваші результати пошуку
02:40
from anyone else's.
57
160260
2000
від результатів когось іншого.
02:42
But a couple of weeks ago,
58
162260
2000
Але пару тижнів тому,
02:44
I asked a bunch of friends to Google "Egypt"
59
164260
3000
Я попросив декількох свої друзів загуглити "Єгипет"
02:47
and to send me screen shots of what they got.
60
167260
3000
і надіслати мені скріншоти того, що вони отримали.
02:50
So here's my friend Scott's screen shot.
61
170260
3000
Ось скріншот мого друга Скотта.
02:54
And here's my friend Daniel's screen shot.
62
174260
3000
А ось скріншот мого друга Денієла.
02:57
When you put them side-by-side,
63
177260
2000
Коли ви поставите їх поруч,
02:59
you don't even have to read the links
64
179260
2000
вам навіть не потрібно читати посилання
03:01
to see how different these two pages are.
65
181260
2000
щоб, побачити які відмінні ці дві сторінки.
03:03
But when you do read the links,
66
183260
2000
Але коли ви прочитаєте посилання,
03:05
it's really quite remarkable.
67
185260
3000
це просто дивовижно.
03:09
Daniel didn't get anything about the protests in Egypt at all
68
189260
3000
Данієль зовсім не отримав результатів стосовно протестів у Єгипті
03:12
in his first page of Google results.
69
192260
2000
на першій сторінці результатів пошуку в Google.
03:14
Scott's results were full of them.
70
194260
2000
Результати Скотта були переповнені ними.
03:16
And this was the big story of the day at that time.
71
196260
2000
І це була велика новина на той час.
03:18
That's how different these results are becoming.
72
198260
3000
Ось наскільки різними стають результати пошуку.
03:21
So it's not just Google and Facebook either.
73
201260
3000
Але це стосується не тільки Google та Facebook.
03:24
This is something that's sweeping the Web.
74
204260
2000
Це щось таке, що пронизує Інтернет.
03:26
There are a whole host of companies that are doing this kind of personalization.
75
206260
3000
Існує ціла низка компаній, які роблять такого роду персоналізацію.
03:29
Yahoo News, the biggest news site on the Internet,
76
209260
3000
Yahoo News, найбільший сайт новин в Інтернеті,
03:32
is now personalized -- different people get different things.
77
212260
3000
тепер персоналізовано -- різні люди отримують різні новини.
03:36
Huffington Post, the Washington Post, the New York Times --
78
216260
3000
Huffington Post, Washington Post, New York Times --
03:39
all flirting with personalization in various ways.
79
219260
3000
всі вони "фліртують" з персоналізацією по-різному.
03:42
And this moves us very quickly
80
222260
3000
І це дуже швидко скеровує нас
03:45
toward a world in which
81
225260
2000
до світу, в якому
03:47
the Internet is showing us what it thinks we want to see,
82
227260
4000
Інтернет показує нам те, що, на його думку, ми хочемо бачити,
03:51
but not necessarily what we need to see.
83
231260
3000
але не обов'язково те, що нам потрібно бачити.
03:54
As Eric Schmidt said,
84
234260
3000
Як Ерік Шмідт сказав:
03:57
"It will be very hard for people to watch or consume something
85
237260
3000
"Це стане дуже складним для людей, подивитися або спожити щось
04:00
that has not in some sense
86
240260
2000
що не було, певною мірою,
04:02
been tailored for them."
87
242260
3000
підігнане під них."
04:05
So I do think this is a problem.
88
245260
2000
Отже я вважаю, що це проблема.
04:07
And I think, if you take all of these filters together,
89
247260
3000
І я вважаю, що якщо взяти всі ці фільтри разом,
04:10
you take all these algorithms,
90
250260
2000
взяти всі ці алгоритми,
04:12
you get what I call a filter bubble.
91
252260
3000
ви отримаєте те що я називаю "фільтрова бульбашка".
04:16
And your filter bubble is your own personal,
92
256260
3000
І ваша фільтрова бульбашка є вашою власною, персональною,
04:19
unique universe of information
93
259260
2000
унікальною підмножиною інформації
04:21
that you live in online.
94
261260
2000
в якій ви живете онлайн.
04:23
And what's in your filter bubble
95
263260
3000
І те, що в середини вашої бульбашки
04:26
depends on who you are, and it depends on what you do.
96
266260
3000
залежить від того, хто ви і що ви робите.
04:29
But the thing is that you don't decide what gets in.
97
269260
4000
Але справа в тому, що ви не вирішуєте, що потрапить всередину.
04:33
And more importantly,
98
273260
2000
І набагато важливіше,
04:35
you don't actually see what gets edited out.
99
275260
3000
- ви навіть не бачити ту інформацію яка відфільтровується.
04:38
So one of the problems with the filter bubble
100
278260
2000
Отже одна з проблем з "фільтровою бульбашкою"
04:40
was discovered by some researchers at Netflix.
101
280260
3000
була виявлена дослідниками Netflix.
04:43
And they were looking at the Netflix queues, and they noticed something kind of funny
102
283260
3000
А вони спостерігали черги відтворення в Netflix і помітили щось цікаве.
04:46
that a lot of us probably have noticed,
103
286260
2000
те, що, вірогідно, помічали багато з нас,
04:48
which is there are some movies
104
288260
2000
існують деякі фільми
04:50
that just sort of zip right up and out to our houses.
105
290260
3000
вони просто прослизають в наші будинки.
04:53
They enter the queue, they just zip right out.
106
293260
3000
Вони стають у чергу, і просто вистрілюють.
04:56
So "Iron Man" zips right out,
107
296260
2000
Отже "Iron Man" вистрілює,
04:58
and "Waiting for Superman"
108
298260
2000
а "Waiting for Superman"
05:00
can wait for a really long time.
109
300260
2000
може дійсно довго чекати.
05:02
What they discovered
110
302260
2000
Що вони виявили,
05:04
was that in our Netflix queues
111
304260
2000
це те, що в наший чергах Netfix
05:06
there's this epic struggle going on
112
306260
3000
відбувається ця епічна боротьба
05:09
between our future aspirational selves
113
309260
3000
між бажаними нами в майбутньому
05:12
and our more impulsive present selves.
114
312260
3000
і між більш імпульсивними нами теперішніми.
05:15
You know we all want to be someone
115
315260
2000
Ви знаєте, ми всі хочемо бути кимось
05:17
who has watched "Rashomon,"
116
317260
2000
хто дивився "Rashomon" (японський художній чорно-білий фільм 1950 року)
05:19
but right now
117
319260
2000
але саме зараз
05:21
we want to watch "Ace Ventura" for the fourth time.
118
321260
3000
ми хочемо, переглянути "Ейс Вентура" вчетверте.
05:24
(Laughter)
119
324260
3000
(Сміх)
05:27
So the best editing gives us a bit of both.
120
327260
2000
Тому ліпша редакція дає нам те, і інше.
05:29
It gives us a little bit of Justin Bieber
121
329260
2000
Воно дає нам трохи Джастіна Бібера
05:31
and a little bit of Afghanistan.
122
331260
2000
і трохи Афганістану.
05:33
It gives us some information vegetables;
123
333260
2000
Воно дає нам трохи "інформаційних овочів";
05:35
it gives us some information dessert.
124
335260
3000
воно дає нам трішки "інформаційного десерту".
05:38
And the challenge with these kinds of algorithmic filters,
125
338260
2000
І проблема з цими видами алгоритмічних фільтрів,
05:40
these personalized filters,
126
340260
2000
цих персоналізованих фільтрів,
05:42
is that, because they're mainly looking
127
342260
2000
в тім, що вони, переважно, беруть до уваги
05:44
at what you click on first,
128
344260
4000
те, на що ви натисли першим,
05:48
it can throw off that balance.
129
348260
4000
що може порушувати той баланс.
05:52
And instead of a balanced information diet,
130
352260
3000
І замість збалансованої "інформаційної дієти",
05:55
you can end up surrounded
131
355260
2000
ви можете опинитися в оточенні
05:57
by information junk food.
132
357260
2000
інформаційного фаст-фуду.
05:59
What this suggests
133
359260
2000
Це свідчить про те,
06:01
is actually that we may have the story about the Internet wrong.
134
361260
3000
що ми, направду, хибно зрозуміли цю історію про Інтернет.
06:04
In a broadcast society --
135
364260
2000
У "трансляційному" суспільстві --
06:06
this is how the founding mythology goes --
136
366260
2000
ось якою є його міфологія --
06:08
in a broadcast society,
137
368260
2000
у "трансляційному" суспільстві,
06:10
there were these gatekeepers, the editors,
138
370260
2000
були ті вартові, редактори,
06:12
and they controlled the flows of information.
139
372260
3000
і вони контролювали потоки інформації.
06:15
And along came the Internet and it swept them out of the way,
140
375260
3000
Та з'явився Інтернет, і змів їх зі свого шляху,
06:18
and it allowed all of us to connect together,
141
378260
2000
й це дозволило всім нам об'єднатися,
06:20
and it was awesome.
142
380260
2000
і це було дивовижно.
06:22
But that's not actually what's happening right now.
143
382260
3000
Але насправді це не зовсім те, що відбувається зараз.
06:26
What we're seeing is more of a passing of the torch
144
386260
3000
Що ми бачимо, більшою мірою - передача факелу
06:29
from human gatekeepers
145
389260
2000
від людей-брамарів
06:31
to algorithmic ones.
146
391260
3000
до алгоритмічних вартових.
06:34
And the thing is that the algorithms
147
394260
3000
І справа в тому, що алгоритми
06:37
don't yet have the kind of embedded ethics
148
397260
3000
ще не мають, чогось на зразок вбудованої етики
06:40
that the editors did.
149
400260
3000
яку мали редактори.
06:43
So if algorithms are going to curate the world for us,
150
403260
3000
Отже, якщо алгоритми будуть коригувати світ для нас,
06:46
if they're going to decide what we get to see and what we don't get to see,
151
406260
3000
якщо вони будуть вирішувати, що ми зможемо побачити, а що ні
06:49
then we need to make sure
152
409260
2000
тоді ми повинні упевнитися,
06:51
that they're not just keyed to relevance.
153
411260
3000
що вони не просто прив'язані до релевантності.
06:54
We need to make sure that they also show us things
154
414260
2000
Ми повинні пересвідчитись, що вони також покажуть нам речі
06:56
that are uncomfortable or challenging or important --
155
416260
3000
які є незручними, кидають виклик або просто важливі --
06:59
this is what TED does --
156
419260
2000
це те що робить TED --
07:01
other points of view.
157
421260
2000
інші точки зору.
07:03
And the thing is, we've actually been here before
158
423260
2000
А справа в тому, що ми насправді були тут раніше
07:05
as a society.
159
425260
2000
як суспільство.
07:08
In 1915, it's not like newspapers were sweating a lot
160
428260
3000
У 1915 році, не те щоб газети багато писали про
07:11
about their civic responsibilities.
161
431260
3000
громадські обов'язки.
07:14
Then people noticed
162
434260
2000
Тоді люди помітили
07:16
that they were doing something really important.
163
436260
3000
що вони роблять щось насправді дуже важливе.
07:19
That, in fact, you couldn't have
164
439260
2000
Насправді неможливо отримати
07:21
a functioning democracy
165
441260
2000
функціюючу демократію
07:23
if citizens didn't get a good flow of information,
166
443260
4000
якщо громадяни не отримають гарний потік інформації,
07:28
that the newspapers were critical because they were acting as the filter,
167
448260
3000
газети були критичними, тому що вони виступали в якості фільтру,
07:31
and then journalistic ethics developed.
168
451260
2000
а тоді розвинулася журналістська етика.
07:33
It wasn't perfect,
169
453260
2000
Вона не була досконалою,
07:35
but it got us through the last century.
170
455260
3000
але вона провела нас крізь минуле сторіччя.
07:38
And so now,
171
458260
2000
Тож тепер,
07:40
we're kind of back in 1915 on the Web.
172
460260
3000
ми, в якомусь сенсі, в Інтернеті ми знов опинилися в 1915 році.
07:44
And we need the new gatekeepers
173
464260
3000
І нам потрібні нові вартові,
07:47
to encode that kind of responsibility
174
467260
2000
котрі закодують той різновид відповідальність
07:49
into the code that they're writing.
175
469260
2000
в код який вони пишуть.
07:51
I know that there are a lot of people here from Facebook and from Google --
176
471260
3000
Я знаю, що тут є багато людей з Facebook і Google --
07:54
Larry and Sergey --
177
474260
2000
Ларрі і Сергій -
07:56
people who have helped build the Web as it is,
178
476260
2000
люди, які допомогли побудувати Інтернет в тому вигляді, який існує зараз,
07:58
and I'm grateful for that.
179
478260
2000
і я вдячний за це.
08:00
But we really need you to make sure
180
480260
3000
Але ми дійсно повинні переконатися,
08:03
that these algorithms have encoded in them
181
483260
3000
що в цих алгоритмах закодовано
08:06
a sense of the public life, a sense of civic responsibility.
182
486260
3000
відчуття публічного життя, відчуття громадської відповідальності.
08:09
We need you to make sure that they're transparent enough
183
489260
3000
Ми хочемо, щоб ви впевнились, що вони достатньо прозорі,
08:12
that we can see what the rules are
184
492260
2000
і ми можемо побачити які правила вони використовують,
08:14
that determine what gets through our filters.
185
494260
3000
обумовлюючи те, що проривається крізь наші фільтри.
08:17
And we need you to give us some control
186
497260
2000
І нам потрібно, щоб ви дали нам певний контроль,
08:19
so that we can decide
187
499260
2000
так, щоб ми могли вирішувати
08:21
what gets through and what doesn't.
188
501260
3000
що проходить крізь фільтри, а що ні.
08:24
Because I think
189
504260
2000
Бо я вважаю
08:26
we really need the Internet to be that thing
190
506260
2000
нам дійсно потрібно, щоб Інтернет був тим,
08:28
that we all dreamed of it being.
191
508260
2000
про що ми всі мріяли.
08:30
We need it to connect us all together.
192
510260
3000
Нам потрібно, щоб він всіх нас поєднав.
08:33
We need it to introduce us to new ideas
193
513260
3000
Нам потрібно, щоб він представляв нам нові ідеї,
08:36
and new people and different perspectives.
194
516260
3000
нових людей і відмінні перспективи.
08:40
And it's not going to do that
195
520260
2000
Але він не зможе цьог о зробити,
08:42
if it leaves us all isolated in a Web of one.
196
522260
3000
якщо залишить нас в ізоляції "Мережі на одну особу".
08:45
Thank you.
197
525260
2000
Дякую за увагу.
08:47
(Applause)
198
527260
11000
(Оплески)
Про цей сайт

Цей сайт познайомить вас з відеороликами YouTube, корисними для вивчення англійської мови. Ви побачите уроки англійської мови, які проводять першокласні викладачі з усього світу. Двічі клацніть на англійських субтитрах, що відображаються на кожній сторінці відео, щоб відтворити відео з цієї сторінки. Субтитри прокручуються синхронно з відтворенням відео. Якщо у вас є коментарі або побажання, будь ласка, зв'яжіться з нами за допомогою цієї контактної форми.

https://forms.gle/WvT1wiN1qDtmnspy7