Beware online "filter bubbles" | Eli Pariser

1,551,917 views ・ 2011-05-02

TED


Dubbelklik op de Engelse ondertitels hieronder om de video af te spelen.

Vertaald door: Christel Foncke Nagekeken door: Erik Renes
00:15
Mark Zuckerberg,
0
15260
2000
Mark Zuckerberg,
00:17
a journalist was asking him a question about the news feed.
1
17260
3000
een journalist stelde hem een ​​vraag over de nieuwsfeed.
00:20
And the journalist was asking him,
2
20260
2000
De journalist vroeg hem,
00:22
"Why is this so important?"
3
22260
2000
"Waarom is dit zo belangrijk?"
00:24
And Zuckerberg said,
4
24260
2000
Zuckerberg zei,
00:26
"A squirrel dying in your front yard
5
26260
2000
"Een stervende eekhoorn in je voortuin
00:28
may be more relevant to your interests right now
6
28260
3000
is voor jou op dit moment soms meer relevant
00:31
than people dying in Africa."
7
31260
3000
dan mensen die sterven in Afrika."
00:34
And I want to talk about
8
34260
2000
Ik wil het hebben over hoe een Web
00:36
what a Web based on that idea of relevance might look like.
9
36260
3000
gebaseerd op dat idee over relevantie eruit zou kunnen zien.
00:40
So when I was growing up
10
40260
2000
Toen ik opgroeide
00:42
in a really rural area in Maine,
11
42260
2000
in een zeer landelijk gebied in Maine,
00:44
the Internet meant something very different to me.
12
44260
3000
betekende het internet iets heel anders voor mij.
00:47
It meant a connection to the world.
13
47260
2000
Het betekende een verbinding met de wereld.
00:49
It meant something that would connect us all together.
14
49260
3000
Het betekende iets dat ons allemaal zou verbinden.
00:52
And I was sure that it was going to be great for democracy
15
52260
3000
Ik was ervan overtuigd dat het geweldig zou zijn voor de democratie
00:55
and for our society.
16
55260
3000
en voor onze samenleving.
00:58
But there's this shift
17
58260
2000
Maar er is een verschuiving
01:00
in how information is flowing online,
18
60260
2000
in de manier waarop informatie online stroomt
01:02
and it's invisible.
19
62260
3000
en het is onzichtbaar.
01:05
And if we don't pay attention to it,
20
65260
2000
En als we niet opletten,
01:07
it could be a real problem.
21
67260
3000
kan het een echt probleem worden.
01:10
So I first noticed this in a place I spend a lot of time --
22
70260
3000
Ik merkte het voor het eerst op in een plaats waar ik veel tijd besteed --
01:13
my Facebook page.
23
73260
2000
mijn Facebook-pagina.
01:15
I'm progressive, politically -- big surprise --
24
75260
3000
Ik ben progressief, politiek - grote verrassing -
01:18
but I've always gone out of my way to meet conservatives.
25
78260
2000
maar ik heb er altijd alles aan gedaan om ook conservatieven te ontmoeten.
01:20
I like hearing what they're thinking about;
26
80260
2000
Ik wil horen waaraan ze denken;
01:22
I like seeing what they link to;
27
82260
2000
Ik wil zien waarnaar ze verwijzen;
01:24
I like learning a thing or two.
28
84260
2000
Ik leer graag een paar dingen bij.
01:26
And so I was surprised when I noticed one day
29
86260
3000
Dus was ik verrast toen ik op een dag merkte
01:29
that the conservatives had disappeared from my Facebook feed.
30
89260
3000
dat de conservatieven verdwenen waren uit mijn Facebookfeed.
01:33
And what it turned out was going on
31
93260
2000
Wat er aan de hand bleek te zijn
01:35
was that Facebook was looking at which links I clicked on,
32
95260
4000
was dat Facebook bijhield op welke links ik klikte,
01:39
and it was noticing that, actually,
33
99260
2000
en het merkte op
01:41
I was clicking more on my liberal friends' links
34
101260
2000
dat ik meer op de links van mijn liberale vrienden klikte
01:43
than on my conservative friends' links.
35
103260
3000
dan op die van mijn conservatieve vrienden.
01:46
And without consulting me about it,
36
106260
2000
En zonder mij te raadplegen
01:48
it had edited them out.
37
108260
2000
werden deze links gewist.
01:50
They disappeared.
38
110260
3000
Ze verdwenen.
01:54
So Facebook isn't the only place
39
114260
2000
Facebook is niet de enige plek
01:56
that's doing this kind of invisible, algorithmic
40
116260
2000
die dit soort onzichtbare, algoritmische
01:58
editing of the Web.
41
118260
3000
bewerking doet op het Web.
02:01
Google's doing it too.
42
121260
2000
Google doet het ook.
02:03
If I search for something, and you search for something,
43
123260
3000
Als ik naar iets zoek en jij zoekt iets,
02:06
even right now at the very same time,
44
126260
2000
zelfs nu, op precies hetzelfde moment,
02:08
we may get very different search results.
45
128260
3000
krijgen we waarschijnlijk heel andere resultaten.
02:11
Even if you're logged out, one engineer told me,
46
131260
3000
Zelfs als je uitgelogd bent, vertelde een ingenieur me,
02:14
there are 57 signals
47
134260
2000
zijn er 57 signalen
02:16
that Google looks at --
48
136260
3000
waar Google naar kijkt -
02:19
everything from what kind of computer you're on
49
139260
3000
alles van wat voor soort computer je op werkt
02:22
to what kind of browser you're using
50
142260
2000
tot welke browser je gebruikt
02:24
to where you're located --
51
144260
2000
tot de plaats waar je je bevindt -
02:26
that it uses to personally tailor your query results.
52
146260
3000
gebruikt het om persoonlijke zoekresultaten weer te geven.
02:29
Think about it for a second:
53
149260
2000
Denk er eens een moment over na:
02:31
there is no standard Google anymore.
54
151260
4000
er is geen standaard Google meer.
02:35
And you know, the funny thing about this is that it's hard to see.
55
155260
3000
En weet je, het grappige hiervan is dat het moeilijk te zien is.
02:38
You can't see how different your search results are
56
158260
2000
Je kunt niet zien hoeveel jouw zoekresultaten verschillen
02:40
from anyone else's.
57
160260
2000
van die van iemand anders.
02:42
But a couple of weeks ago,
58
162260
2000
Een paar weken geleden,
02:44
I asked a bunch of friends to Google "Egypt"
59
164260
3000
vroeg ik een stel vrienden "Egypte" te googelen
02:47
and to send me screen shots of what they got.
60
167260
3000
en mij screenshots te sturen van wat ze kregen.
02:50
So here's my friend Scott's screen shot.
61
170260
3000
Dus hier is de screenshot van mijn vriend Scott.
02:54
And here's my friend Daniel's screen shot.
62
174260
3000
En hier die van mijn vriend Daniel.
02:57
When you put them side-by-side,
63
177260
2000
Als je ze naast elkaar zet,
02:59
you don't even have to read the links
64
179260
2000
hoef je niet eens de links te lezen
03:01
to see how different these two pages are.
65
181260
2000
om te zien hoe verschillend deze twee pagina's zijn.
03:03
But when you do read the links,
66
183260
2000
Maar als je de links leest,
03:05
it's really quite remarkable.
67
185260
3000
is het echt heel opmerkelijk.
03:09
Daniel didn't get anything about the protests in Egypt at all
68
189260
3000
Daniel kreeg helemaal niets over de protesten in Egypte
03:12
in his first page of Google results.
69
192260
2000
in zijn eerste pagina met Google resultaten.
03:14
Scott's results were full of them.
70
194260
2000
Scotts resultaten stonden er vol van.
03:16
And this was the big story of the day at that time.
71
196260
2000
En dit was het grote nieuws van de dag op dat moment.
03:18
That's how different these results are becoming.
72
198260
3000
Dat is hoe verschillend de resultaten kunnen worden.
03:21
So it's not just Google and Facebook either.
73
201260
3000
Het is niet alleen Google of Facebook.
03:24
This is something that's sweeping the Web.
74
204260
2000
Dit is iets dat rondgaat op het Web.
03:26
There are a whole host of companies that are doing this kind of personalization.
75
206260
3000
Er zijn een hele reeks bedrijven die aan dit soort van personalisatie doen.
03:29
Yahoo News, the biggest news site on the Internet,
76
209260
3000
Yahoo News, de grootste nieuwssite op het internet,
03:32
is now personalized -- different people get different things.
77
212260
3000
is nu gepersonaliseerd - verschillende mensen krijgen verschillende dingen.
03:36
Huffington Post, the Washington Post, the New York Times --
78
216260
3000
Huffington Post, de Washington Post, de New York Times -
03:39
all flirting with personalization in various ways.
79
219260
3000
allen flirten ze met personalisatie op verschillende manieren.
03:42
And this moves us very quickly
80
222260
3000
En dit brengt ons zeer snel
03:45
toward a world in which
81
225260
2000
naar een wereld waarin
03:47
the Internet is showing us what it thinks we want to see,
82
227260
4000
het internet ons toont wat het denkt dat we willen zien,
03:51
but not necessarily what we need to see.
83
231260
3000
maar niet noodzakelijkerwijs wat we nodig hebben.
03:54
As Eric Schmidt said,
84
234260
3000
Zoals Eric Schmidt zei,
03:57
"It will be very hard for people to watch or consume something
85
237260
3000
"Het zal heel moeilijk worden voor mensen om naar iets te kijken
04:00
that has not in some sense
86
240260
2000
of te consumeren dat niet op een bepaalde manier
04:02
been tailored for them."
87
242260
3000
op maat gemaakt is voor hen."
04:05
So I do think this is a problem.
88
245260
2000
Ik denk dat dit een probleem is.
04:07
And I think, if you take all of these filters together,
89
247260
3000
En ik denk dat, als je al deze filters samenvoegt,
04:10
you take all these algorithms,
90
250260
2000
al deze algoritmen,
04:12
you get what I call a filter bubble.
91
252260
3000
je iets krijgt wat ik een filterbubble noem.
04:16
And your filter bubble is your own personal,
92
256260
3000
En je filterbubble is je eigen persoonlijke
04:19
unique universe of information
93
259260
2000
unieke universum aan informatie
04:21
that you live in online.
94
261260
2000
waarin je online leeft.
04:23
And what's in your filter bubble
95
263260
3000
En wat er in jouw filterbubble zit
04:26
depends on who you are, and it depends on what you do.
96
266260
3000
hangt af van wie je bent en wat je doet.
04:29
But the thing is that you don't decide what gets in.
97
269260
4000
Maar zelf kan je niet bepalen wat er in komt.
04:33
And more importantly,
98
273260
2000
En nog belangrijker,
04:35
you don't actually see what gets edited out.
99
275260
3000
je ziet niet echt wat er eruit wordt geknipt.
04:38
So one of the problems with the filter bubble
100
278260
2000
Een van de problemen van de filterbubble
04:40
was discovered by some researchers at Netflix.
101
280260
3000
werd ontdekt door enkele onderzoekers bij Netflix.
04:43
And they were looking at the Netflix queues, and they noticed something kind of funny
102
283260
3000
Ze keken naar de Netflix wachtrijen en ze merkten iets grappigs op
04:46
that a lot of us probably have noticed,
103
286260
2000
dat velen van ons waarschijnlijk al opgemerkt hadden,
04:48
which is there are some movies
104
288260
2000
dat er een aantal films zijn
04:50
that just sort of zip right up and out to our houses.
105
290260
3000
die gewoon opduiken en in onze huizen terecht komen.
04:53
They enter the queue, they just zip right out.
106
293260
3000
Ze komen in de wachtrij en ritsen er weer onmiddellijk uit.
04:56
So "Iron Man" zips right out,
107
296260
2000
"Iron Man" ritst er onmiddellijk uit,
04:58
and "Waiting for Superman"
108
298260
2000
en "Waiting for Superman"
05:00
can wait for a really long time.
109
300260
2000
kan een hele lange tijd wachten.
05:02
What they discovered
110
302260
2000
Wat ze ontdekten
05:04
was that in our Netflix queues
111
304260
2000
was dat in onze Netflix wachtrijen
05:06
there's this epic struggle going on
112
306260
3000
een epische strijd gaande is
05:09
between our future aspirational selves
113
309260
3000
tussen ons toekomstige te bereiken zelf
05:12
and our more impulsive present selves.
114
312260
3000
en ons meer impulsieve huidige zelf.
05:15
You know we all want to be someone
115
315260
2000
We willen allemaal iemand zijn
05:17
who has watched "Rashomon,"
116
317260
2000
die "Rashomon" gezien heeft
05:19
but right now
117
319260
2000
maar nu
05:21
we want to watch "Ace Ventura" for the fourth time.
118
321260
3000
willen we voor de vierde keer naar "Ace Ventura" kijken.
05:24
(Laughter)
119
324260
3000
(Gelach)
05:27
So the best editing gives us a bit of both.
120
327260
2000
De beste editing geeft ons een beetje van beide.
05:29
It gives us a little bit of Justin Bieber
121
329260
2000
Het geeft ons een beetje Justin Bieber
05:31
and a little bit of Afghanistan.
122
331260
2000
en een beetje Afghanistan.
05:33
It gives us some information vegetables;
123
333260
2000
Het geeft ons wat informatie als groenten,
05:35
it gives us some information dessert.
124
335260
3000
het geeft ons wat informatie als dessert.
05:38
And the challenge with these kinds of algorithmic filters,
125
338260
2000
En de uitdaging aan deze vormen van algoritmische filters,
05:40
these personalized filters,
126
340260
2000
deze gepersonaliseerde filters,
05:42
is that, because they're mainly looking
127
342260
2000
omdat ze vooral op zoek zijn
05:44
at what you click on first,
128
344260
4000
naar waar je het eerst op klikt,
05:48
it can throw off that balance.
129
348260
4000
is dat er geen evenwicht meer is.
05:52
And instead of a balanced information diet,
130
352260
3000
In plaats van een evenwichtig informatiedieet,
05:55
you can end up surrounded
131
355260
2000
eindig je omgeven
05:57
by information junk food.
132
357260
2000
door informatie junkfood.
05:59
What this suggests
133
359260
2000
Wat dit suggereert
06:01
is actually that we may have the story about the Internet wrong.
134
361260
3000
is eigenlijk dat we het internetverhaal verkeerd hebben begrepen.
06:04
In a broadcast society --
135
364260
2000
In een televisie samenleving -
06:06
this is how the founding mythology goes --
136
366260
2000
is dit hoe de oprichters mythologie klinkt -
06:08
in a broadcast society,
137
368260
2000
In een televisie samenleving -
06:10
there were these gatekeepers, the editors,
138
370260
2000
waren er poortwachters, de redactie,
06:12
and they controlled the flows of information.
139
372260
3000
en ze beheersten de stromen van informatie.
06:15
And along came the Internet and it swept them out of the way,
140
375260
3000
Toen kwam het internet en veegde ze uit de weg,
06:18
and it allowed all of us to connect together,
141
378260
2000
en liet ons toe met elkaar te verbinden,
06:20
and it was awesome.
142
380260
2000
en het was geweldig.
06:22
But that's not actually what's happening right now.
143
382260
3000
Maar dat is eigenlijk niet wat er nu gebeurt.
06:26
What we're seeing is more of a passing of the torch
144
386260
3000
Wat we zien is meer een doorgeven van de fakkel
06:29
from human gatekeepers
145
389260
2000
van menselijke poortwachters
06:31
to algorithmic ones.
146
391260
3000
naar algoritmische.
06:34
And the thing is that the algorithms
147
394260
3000
En deze algoritmes
06:37
don't yet have the kind of embedded ethics
148
397260
3000
hebben nog niet de geïntegreerde ethiek
06:40
that the editors did.
149
400260
3000
dat de redactie had.
06:43
So if algorithms are going to curate the world for us,
150
403260
3000
Dus als algoritmes de wereld voor ons gaan indelen,
06:46
if they're going to decide what we get to see and what we don't get to see,
151
406260
3000
als ze gaan beslissen wat we wel of niet te zien krijgen,
06:49
then we need to make sure
152
409260
2000
dan moeten we ervoor zorgen
06:51
that they're not just keyed to relevance.
153
411260
3000
dat ze niet alleen ingesteld zijn op relevantie.
06:54
We need to make sure that they also show us things
154
414260
2000
We moeten ervoor zorgen dat zij ons ook dingen laten zien
06:56
that are uncomfortable or challenging or important --
155
416260
3000
die ongemakkelijk of uitdagend of belangrijk zijn -
06:59
this is what TED does --
156
419260
2000
dit is wat TED doet -
07:01
other points of view.
157
421260
2000
andere standpunten.
07:03
And the thing is, we've actually been here before
158
423260
2000
We waren hier al eerder
07:05
as a society.
159
425260
2000
als samenleving.
07:08
In 1915, it's not like newspapers were sweating a lot
160
428260
3000
In 1915, het is niet alsof kranten veel zweet lieten
07:11
about their civic responsibilities.
161
431260
3000
over hun maatschappelijke verantwoordelijkheden.
07:14
Then people noticed
162
434260
2000
Dan viel het mensen op
07:16
that they were doing something really important.
163
436260
3000
dat ze iets echt belangrijks deden.
07:19
That, in fact, you couldn't have
164
439260
2000
Dat je in feite geen
07:21
a functioning democracy
165
441260
2000
functionerende democratie kon hebben
07:23
if citizens didn't get a good flow of information,
166
443260
4000
als burgers geen goede doorstroming van informatie krijgen.
07:28
that the newspapers were critical because they were acting as the filter,
167
448260
3000
Dat de kranten kritisch waren omdat zij functioneerden als filter,
07:31
and then journalistic ethics developed.
168
451260
2000
en dan ontwikkelde de journalistieke ethiek zich.
07:33
It wasn't perfect,
169
453260
2000
Het was niet perfect,
07:35
but it got us through the last century.
170
455260
3000
maar we kwamen er de vorige eeuw mee door.
07:38
And so now,
171
458260
2000
En dus nu,
07:40
we're kind of back in 1915 on the Web.
172
460260
3000
zijn we terug in 1915 op het web.
07:44
And we need the new gatekeepers
173
464260
3000
De nieuwe poortwachters moeten
07:47
to encode that kind of responsibility
174
467260
2000
dat soort van verantwoordelijkheid coderen
07:49
into the code that they're writing.
175
469260
2000
in de code die ze schrijven.
07:51
I know that there are a lot of people here from Facebook and from Google --
176
471260
3000
Ik weet dat er hier een heleboel mensen zijn van Facebook en van Google -
07:54
Larry and Sergey --
177
474260
2000
Larry en Sergey --
07:56
people who have helped build the Web as it is,
178
476260
2000
mensen die hebben geholpen het Web op te bouwen zoals het is,
07:58
and I'm grateful for that.
179
478260
2000
en ik ben er dankbaar voor.
08:00
But we really need you to make sure
180
480260
3000
Maar het is nodig dat jullie ervoor zorgen
08:03
that these algorithms have encoded in them
181
483260
3000
dat in deze algoritmen een gevoel voor het openbare leven
08:06
a sense of the public life, a sense of civic responsibility.
182
486260
3000
en maatschappelijke verantwoordelijkheid wordt gecodeerd.
08:09
We need you to make sure that they're transparent enough
183
489260
3000
We hebben het nodig dat jullie ervoor zorgen dat ze transparant genoeg zijn
08:12
that we can see what the rules are
184
492260
2000
dat we kunnen zien wat de regels zijn
08:14
that determine what gets through our filters.
185
494260
3000
die bepalen wat er door onze filters komt.
08:17
And we need you to give us some control
186
497260
2000
We hebben het nodig dat jullie ons enige controle geven,
08:19
so that we can decide
187
499260
2000
zodat we kunnen beslissen
08:21
what gets through and what doesn't.
188
501260
3000
wat erdoor komt en wat niet.
08:24
Because I think
189
504260
2000
Omdat ik denk dat
08:26
we really need the Internet to be that thing
190
506260
2000
we het nodig hebben dat het internet dat wordt
08:28
that we all dreamed of it being.
191
508260
2000
waar we allemaal van gedroomd hebben.
08:30
We need it to connect us all together.
192
510260
3000
We hebben het nodig om ons allemaal te verbinden.
08:33
We need it to introduce us to new ideas
193
513260
3000
We hebben het nodig om ons nieuwe ideeën te introduceren
08:36
and new people and different perspectives.
194
516260
3000
en nieuwe mensen en verschillende perspectieven.
08:40
And it's not going to do that
195
520260
2000
Dat zal niet gebeuren als
08:42
if it leaves us all isolated in a Web of one.
196
522260
3000
het ons isoleert in een Web van één.
08:45
Thank you.
197
525260
2000
Dank je wel
08:47
(Applause)
198
527260
11000
(Applaus)
Over deze website

Deze site laat u kennismaken met YouTube-video's die nuttig zijn om Engels te leren. U ziet Engelse lessen gegeven door topdocenten uit de hele wereld. Dubbelklik op de Engelse ondertitels op elke videopagina om de video af te spelen. De ondertitels scrollen synchroon met het afspelen van de video. Heeft u opmerkingen of verzoeken, neem dan contact met ons op via dit contactformulier.

https://forms.gle/WvT1wiN1qDtmnspy7