Beware online "filter bubbles" | Eli Pariser

1,551,917 views ・ 2011-05-02

TED


Dubbelklicka på de engelska undertexterna nedan för att spela upp videon.

Översättare: Anders Björk Granskare: Daniel Lundberg
00:15
Mark Zuckerberg,
0
15260
2000
Mark Zuckerberg,
00:17
a journalist was asking him a question about the news feed.
1
17260
3000
utfrågades av en journalist om nyhetsströmmen (feeden).
00:20
And the journalist was asking him,
2
20260
2000
Och journalisten frågade honom,
00:22
"Why is this so important?"
3
22260
2000
"Varför är denna så viktig?"
00:24
And Zuckerberg said,
4
24260
2000
Och Zuckerberg svarade,
00:26
"A squirrel dying in your front yard
5
26260
2000
"En ekorre som dör framför din trappa
00:28
may be more relevant to your interests right now
6
28260
3000
kan vara mer relevant för vad du föredrar just nu
00:31
than people dying in Africa."
7
31260
3000
än människor som dör i Afrika."
00:34
And I want to talk about
8
34260
2000
Och vad jag vill prata om är
00:36
what a Web based on that idea of relevance might look like.
9
36260
3000
hur en webbaserad idé för relevans kan se ut.
00:40
So when I was growing up
10
40260
2000
Så när jag växte upp
00:42
in a really rural area in Maine,
11
42260
2000
i ett verkligen lantligt område i Maine,
00:44
the Internet meant something very different to me.
12
44260
3000
så betydde verkligen Internet något väldigt speciellt för mig.
00:47
It meant a connection to the world.
13
47260
2000
Det innebar en anslutning ut i världen.
00:49
It meant something that would connect us all together.
14
49260
3000
Det betydde någonting som skulle sammanbinda oss alla.
00:52
And I was sure that it was going to be great for democracy
15
52260
3000
Och jag var säker att det skulle vara positivt för demokratin
00:55
and for our society.
16
55260
3000
och för vårt samhälle.
00:58
But there's this shift
17
58260
2000
Men det håller på skifta,
01:00
in how information is flowing online,
18
60260
2000
på vilket sätt information flödar på nätet,
01:02
and it's invisible.
19
62260
3000
och det sker utan att vi ser det.
01:05
And if we don't pay attention to it,
20
65260
2000
Och om vi inte lägger till märke till detta,
01:07
it could be a real problem.
21
67260
3000
så skulle detta kunna bli ett verkligt problem.
01:10
So I first noticed this in a place I spend a lot of time --
22
70260
3000
Jag märkte detta första gången på en plats jag spendera mycket tid på
01:13
my Facebook page.
23
73260
2000
-- på min Facebooksida.
01:15
I'm progressive, politically -- big surprise --
24
75260
3000
Jag är progressiv, politisk, -- stor överraskning --
01:18
but I've always gone out of my way to meet conservatives.
25
78260
2000
men jag alltid försökt på mitt sätt att möta konservativa
01:20
I like hearing what they're thinking about;
26
80260
2000
Jag tycker om att höra vad de funderar kring;
01:22
I like seeing what they link to;
27
82260
2000
Jag vill se vad de länkar till;
01:24
I like learning a thing or two.
28
84260
2000
Jag gillar att lära mig saker.
01:26
And so I was surprised when I noticed one day
29
86260
3000
Så jag vart väldigt förvånad när jag en dag förstod
01:29
that the conservatives had disappeared from my Facebook feed.
30
89260
3000
att de konservativa hade försvunnit från min Facebook-nyhetsström (feed).
01:33
And what it turned out was going on
31
93260
2000
Och visade sig
01:35
was that Facebook was looking at which links I clicked on,
32
95260
4000
att Facebook tittade på vilka länkar jag klickade på
01:39
and it was noticing that, actually,
33
99260
2000
och siten noterade i själva verket,
01:41
I was clicking more on my liberal friends' links
34
101260
2000
att jag klickade mer på min liberala vänners länkar
01:43
than on my conservative friends' links.
35
103260
3000
än på mina konservativa vänners länkar.
01:46
And without consulting me about it,
36
106260
2000
Och utan att tillfråga mig,
01:48
it had edited them out.
37
108260
2000
hade siten tagit bort dem.
01:50
They disappeared.
38
110260
3000
De hade försvunnit.
01:54
So Facebook isn't the only place
39
114260
2000
Och Facebook är inte ensam om
01:56
that's doing this kind of invisible, algorithmic
40
116260
2000
att göra detta osynligt med algoritmer,
01:58
editing of the Web.
41
118260
3000
att redigera webben.
02:01
Google's doing it too.
42
121260
2000
Även Google gör det.
02:03
If I search for something, and you search for something,
43
123260
3000
Om jag söker något och du söker desamma,
02:06
even right now at the very same time,
44
126260
2000
samtidigt i denna stund,
02:08
we may get very different search results.
45
128260
3000
så kan vi få väldigt olika sökresultat.
02:11
Even if you're logged out, one engineer told me,
46
131260
3000
Detta även om du är utloggad, en ingenjör berättade för mig
02:14
there are 57 signals
47
134260
2000
att det finns 57 signaler
02:16
that Google looks at --
48
136260
3000
som Google tittar på --
02:19
everything from what kind of computer you're on
49
139260
3000
allt i från vilken typ av dator du använder
02:22
to what kind of browser you're using
50
142260
2000
till vilken webbläsare du använder
02:24
to where you're located --
51
144260
2000
till vart du är lokaliserad --
02:26
that it uses to personally tailor your query results.
52
146260
3000
detta används för att skräddarsy just dina sökresultat.
02:29
Think about it for a second:
53
149260
2000
Betänk detta för en sekund:
02:31
there is no standard Google anymore.
54
151260
4000
det finns inget standard-Google längre.
02:35
And you know, the funny thing about this is that it's hard to see.
55
155260
3000
Och vet du, det lustiga är att det är svårt att se det.
02:38
You can't see how different your search results are
56
158260
2000
Du kan inte se hur olika dina sökresultat är
02:40
from anyone else's.
57
160260
2000
jämfört med någon annans.
02:42
But a couple of weeks ago,
58
162260
2000
Men för ett par veckor sedan,
02:44
I asked a bunch of friends to Google "Egypt"
59
164260
3000
så bad jag några vänner att Googla "Egypt"
02:47
and to send me screen shots of what they got.
60
167260
3000
och skicka mig några skärmdumpar på vad de fick.
02:50
So here's my friend Scott's screen shot.
61
170260
3000
Här är min vän Scotts skärmdump-
02:54
And here's my friend Daniel's screen shot.
62
174260
3000
Och här är min vän Daniels skärmdump.
02:57
When you put them side-by-side,
63
177260
2000
När man lägger dem sida vid sida,
02:59
you don't even have to read the links
64
179260
2000
så behöver du inte ens läsa länkarna
03:01
to see how different these two pages are.
65
181260
2000
för se hur olika dessa två sidor är.
03:03
But when you do read the links,
66
183260
2000
Men när du läser länkarna,
03:05
it's really quite remarkable.
67
185260
3000
är det verkligen anmärkningsvärt.
03:09
Daniel didn't get anything about the protests in Egypt at all
68
189260
3000
Daniel fick ingenting om protesterna i Egypten överhuvudtaget
03:12
in his first page of Google results.
69
192260
2000
på sin första sida med Google-resultat.
03:14
Scott's results were full of them.
70
194260
2000
Scotts resultat var full av dem.
03:16
And this was the big story of the day at that time.
71
196260
2000
Och detta var den stora nyheten den dagen vid den tiden på dagen.
03:18
That's how different these results are becoming.
72
198260
3000
Sökresultaten håller på att bli så olika.
03:21
So it's not just Google and Facebook either.
73
201260
3000
Och det är inte bara Google och Facebook heller.
03:24
This is something that's sweeping the Web.
74
204260
2000
Det är något som sprider sig över hela webben.
03:26
There are a whole host of companies that are doing this kind of personalization.
75
206260
3000
Det är en mängd företag som håller på med den typ av personalisering.
03:29
Yahoo News, the biggest news site on the Internet,
76
209260
3000
Yahoo News, den största nyhetssiten på Internet,
03:32
is now personalized -- different people get different things.
77
212260
3000
är nu personaliserad -- olika människor får olika saker.
03:36
Huffington Post, the Washington Post, the New York Times --
78
216260
3000
Huffington Post, the Washington Post, the New York Times --
03:39
all flirting with personalization in various ways.
79
219260
3000
lockar med personalisering på flera olika sätt.
03:42
And this moves us very quickly
80
222260
3000
Och leder oss mycket snabbt
03:45
toward a world in which
81
225260
2000
mot en värld där
03:47
the Internet is showing us what it thinks we want to see,
82
227260
4000
Internet visar oss vad det tror vi vill se,
03:51
but not necessarily what we need to see.
83
231260
3000
men inte nödvändigtvis vad vi behöver se.
03:54
As Eric Schmidt said,
84
234260
3000
Som Eric Schmidt sa,
03:57
"It will be very hard for people to watch or consume something
85
237260
3000
"Det kommer bli väldigt svårt att få se något eller konsumera något
04:00
that has not in some sense
86
240260
2000
som inte i någon mening
04:02
been tailored for them."
87
242260
3000
skräddarsytts"
04:05
So I do think this is a problem.
88
245260
2000
Så jag anser detta är ett problem.
04:07
And I think, if you take all of these filters together,
89
247260
3000
Och jag anser, om du lägger samman alla dessa filter,
04:10
you take all these algorithms,
90
250260
2000
och du tar alla dessa algoritmer,
04:12
you get what I call a filter bubble.
91
252260
3000
får du vad jag kallar en "filterbubbla".
04:16
And your filter bubble is your own personal,
92
256260
3000
Och din egen "filterbubbla" är ditt egna
04:19
unique universe of information
93
259260
2000
unika universum av information
04:21
that you live in online.
94
261260
2000
som du lever i på nätet.
04:23
And what's in your filter bubble
95
263260
3000
Och vad som är i din Filterbubbla
04:26
depends on who you are, and it depends on what you do.
96
266260
3000
beror på vem du är och den beror vad du gör.
04:29
But the thing is that you don't decide what gets in.
97
269260
4000
Men grejen är det är inte du som bestämmer vad som kommer in.
04:33
And more importantly,
98
273260
2000
Än viktigare,
04:35
you don't actually see what gets edited out.
99
275260
3000
är att du verkligen inte ser vad som klipps bort.
04:38
So one of the problems with the filter bubble
100
278260
2000
Så ett av problemen med "Filterbubblor"
04:40
was discovered by some researchers at Netflix.
101
280260
3000
vilket upptäcktes av några forskare på Netflix.
04:43
And they were looking at the Netflix queues, and they noticed something kind of funny
102
283260
3000
Och de tittade på Netflix-köerna och de märkte något väldigt märkligt
04:46
that a lot of us probably have noticed,
103
286260
2000
något som en hel del av oss märkt,
04:48
which is there are some movies
104
288260
2000
vilket är att det är några filmer
04:50
that just sort of zip right up and out to our houses.
105
290260
3000
som far direkt upp och ut till hushållen.
04:53
They enter the queue, they just zip right out.
106
293260
3000
De går in i kön, och viner direkt ut.
04:56
So "Iron Man" zips right out,
107
296260
2000
Så "Iron Man" viner rätt ut,
04:58
and "Waiting for Superman"
108
298260
2000
och "Waiting for Superman"
05:00
can wait for a really long time.
109
300260
2000
kan få vänta ganska lång tid.
05:02
What they discovered
110
302260
2000
Vad de upptäckte
05:04
was that in our Netflix queues
111
304260
2000
var att i våra Netflix-köer
05:06
there's this epic struggle going on
112
306260
3000
pågår en episk kamp
05:09
between our future aspirational selves
113
309260
3000
mellan vårt framtida strävande jag
05:12
and our more impulsive present selves.
114
312260
3000
och vår mer impulsiva jag i nuet.
05:15
You know we all want to be someone
115
315260
2000
Du vet att vi alla vill vara någon
05:17
who has watched "Rashomon,"
116
317260
2000
som tittat på "Rashomon"
05:19
but right now
117
319260
2000
men just nu
05:21
we want to watch "Ace Ventura" for the fourth time.
118
321260
3000
vill vi bara se "Ace Ventura" för fjärde gången.
05:24
(Laughter)
119
324260
3000
(Skratt)
05:27
So the best editing gives us a bit of both.
120
327260
2000
Så det bästa urvalet ger oss lite av varje.
05:29
It gives us a little bit of Justin Bieber
121
329260
2000
Det ger oss en lite del av Justin Bieber
05:31
and a little bit of Afghanistan.
122
331260
2000
och en liten del av Afghanistan.
05:33
It gives us some information vegetables;
123
333260
2000
Och det ger oss lite "informationsgrönsaker"
05:35
it gives us some information dessert.
124
335260
3000
och det ger oss lite "informationsefterrätter".
05:38
And the challenge with these kinds of algorithmic filters,
125
338260
2000
Och utmaningarna med dessa typer av algoritmiska filter,
05:40
these personalized filters,
126
340260
2000
dessa personaliserade filter,
05:42
is that, because they're mainly looking
127
342260
2000
är att de på grund av att de tittar mest på
05:44
at what you click on first,
128
344260
4000
vad du klickat först på,
05:48
it can throw off that balance.
129
348260
4000
kan dessa komma ur balans.
05:52
And instead of a balanced information diet,
130
352260
3000
Och istället för en balanserad informationsdiet,
05:55
you can end up surrounded
131
355260
2000
kan du tillslut vara omgiven
05:57
by information junk food.
132
357260
2000
med informationsskräpmat.
05:59
What this suggests
133
359260
2000
Vad detta pekar på
06:01
is actually that we may have the story about the Internet wrong.
134
361260
3000
är att vi helt enkelt skrivit sagan om Internet felaktigt.
06:04
In a broadcast society --
135
364260
2000
I ett etermediasamhället --
06:06
this is how the founding mythology goes --
136
366260
2000
låter den grundande mytologin på detta sätt --
06:08
in a broadcast society,
137
368260
2000
i ett etermediasamhälle
06:10
there were these gatekeepers, the editors,
138
370260
2000
fanns dessa grindvakter, dessa redaktörer,
06:12
and they controlled the flows of information.
139
372260
3000
och de kontrollerade informationsflödet.
06:15
And along came the Internet and it swept them out of the way,
140
375260
3000
Och så kom Internet och sköljde bort dem,
06:18
and it allowed all of us to connect together,
141
378260
2000
och tillät oss att kommunicera tillsammans,
06:20
and it was awesome.
142
380260
2000
och det var underbart.
06:22
But that's not actually what's happening right now.
143
382260
3000
Men det är sannerligen inte vad som händer just nu.
06:26
What we're seeing is more of a passing of the torch
144
386260
3000
Vad vi ser är att facklan skickas vidare
06:29
from human gatekeepers
145
389260
2000
från mänskliga grindvakter
06:31
to algorithmic ones.
146
391260
3000
till algoritmiska vakter.
06:34
And the thing is that the algorithms
147
394260
3000
Och saken med algoritmerna är att
06:37
don't yet have the kind of embedded ethics
148
397260
3000
de har inte än har någon typ av inbyggd etik
06:40
that the editors did.
149
400260
3000
som redaktörerna hade.
06:43
So if algorithms are going to curate the world for us,
150
403260
3000
Så om algoritmerna ska kunna skapa en värld för oss,
06:46
if they're going to decide what we get to see and what we don't get to see,
151
406260
3000
om de ska kunna bestämma vad vi ska få se och vi inte ska få se,
06:49
then we need to make sure
152
409260
2000
då bör vi säkerställa
06:51
that they're not just keyed to relevance.
153
411260
3000
att de inte bara har relevans som enda måttet.
06:54
We need to make sure that they also show us things
154
414260
2000
Vi behöver säkerställa att de visar oss saker
06:56
that are uncomfortable or challenging or important --
155
416260
3000
som är obehagliga eller utmanande eller viktiga --
06:59
this is what TED does --
156
419260
2000
det är vad TED gör --
07:01
other points of view.
157
421260
2000
en annan synvinkel.
07:03
And the thing is, we've actually been here before
158
423260
2000
Och saken är den att vi varit där förut
07:05
as a society.
159
425260
2000
som samhället.
07:08
In 1915, it's not like newspapers were sweating a lot
160
428260
3000
Det är inte som 1915 när tidningarna hade det tufft
07:11
about their civic responsibilities.
161
431260
3000
kring sitt samhällsansvar.
07:14
Then people noticed
162
434260
2000
Då märkte folk
07:16
that they were doing something really important.
163
436260
3000
att de gjorde något verkligt viktigt.
07:19
That, in fact, you couldn't have
164
439260
2000
Faktum är de kunde inte blivit
07:21
a functioning democracy
165
441260
2000
en fungerande demokrati
07:23
if citizens didn't get a good flow of information,
166
443260
4000
om inte medborgarna hade fått ett bra informationsflöde.
07:28
that the newspapers were critical because they were acting as the filter,
167
448260
3000
Att tidningarna var kritiska för att de agerade som filtret,
07:31
and then journalistic ethics developed.
168
451260
2000
och att den journalistiska etiken utvecklades.
07:33
It wasn't perfect,
169
453260
2000
Den var inte perfekt.
07:35
but it got us through the last century.
170
455260
3000
men den tog oss genom förra seklet.
07:38
And so now,
171
458260
2000
Och nu är,
07:40
we're kind of back in 1915 on the Web.
172
460260
3000
vi typ tillbaka på 1915-års nivån på webben.
07:44
And we need the new gatekeepers
173
464260
3000
Och vi behöver de nya grindvakterna
07:47
to encode that kind of responsibility
174
467260
2000
för att koda den typen av ansvar
07:49
into the code that they're writing.
175
469260
2000
in i programkoden de skriver.
07:51
I know that there are a lot of people here from Facebook and from Google --
176
471260
3000
Jag vet det är en hel del människor från Facebook och från Google här --
07:54
Larry and Sergey --
177
474260
2000
Larry och Sergey --
07:56
people who have helped build the Web as it is,
178
476260
2000
människor som hjälpt till att bygga upp webben som den är,
07:58
and I'm grateful for that.
179
478260
2000
och jag är tacksam för detta.
08:00
But we really need you to make sure
180
480260
3000
Men vad vi verkligen måste försäkra oss om
08:03
that these algorithms have encoded in them
181
483260
3000
är att dessa algoritmer har inbyggt
08:06
a sense of the public life, a sense of civic responsibility.
182
486260
3000
en känsla för det offentliga livet, en känsla av medborgerligt ansvar.
08:09
We need you to make sure that they're transparent enough
183
489260
3000
Vi måste se till att de är tillräckligt transparenta
08:12
that we can see what the rules are
184
492260
2000
så vi kan se vilka reglerna är
08:14
that determine what gets through our filters.
185
494260
3000
som bestämmer vad som passerar vårt filter.
08:17
And we need you to give us some control
186
497260
2000
Och vi att ni ger oss lite kontroll över dessa,
08:19
so that we can decide
187
499260
2000
så att vi kan bestämma
08:21
what gets through and what doesn't.
188
501260
3000
vad som går igenom och vad som inte går igenom.
08:24
Because I think
189
504260
2000
För att jag anser
08:26
we really need the Internet to be that thing
190
506260
2000
det är viktigt för oss att Internet blir det
08:28
that we all dreamed of it being.
191
508260
2000
som det vi alla drömde om att det skulle vara.
08:30
We need it to connect us all together.
192
510260
3000
Vi behöver detta för att binda oss samman.
08:33
We need it to introduce us to new ideas
193
513260
3000
Vi behöver det för att introducerar oss till nya idéer
08:36
and new people and different perspectives.
194
516260
3000
och nya människor och olika perspektiv.
08:40
And it's not going to do that
195
520260
2000
Och det kommer inte att göra detta
08:42
if it leaves us all isolated in a Web of one.
196
522260
3000
om det lämnar oss alla i en isolerad personspecifik webb.
08:45
Thank you.
197
525260
2000
Tack så mycket.
08:47
(Applause)
198
527260
11000
(Applåder)
Om denna webbplats

På den här webbplatsen hittar du YouTube-videor som är användbara för att lära sig engelska. Du kommer att få se engelska lektioner som ges av förstklassiga lärare från hela världen. Dubbelklicka på de engelska undertexterna som visas på varje videosida för att spela upp videon därifrån. Undertexterna rullar i takt med videouppspelningen. Om du har några kommentarer eller önskemål kan du kontakta oss via detta kontaktformulär.

https://forms.gle/WvT1wiN1qDtmnspy7