Beware online "filter bubbles" | Eli Pariser

1,593,210 views ・ 2011-05-02

TED


Dobbeltklik venligst på de engelske undertekster nedenfor for at afspille videoen.

Translator: David J. Kreps Finnemann Reviewer: Anders Finn Jørgensen
00:15
Mark Zuckerberg,
0
15260
2000
Mark Zuckerberg,
00:17
a journalist was asking him a question about the news feed.
1
17260
3000
en journalist stillede ham spørgsmål om nyheds feeds.
00:20
And the journalist was asking him,
2
20260
2000
Og journalisten spurgte ham,
00:22
"Why is this so important?"
3
22260
2000
"Hvorfor er det her så vigtigt?"
00:24
And Zuckerberg said,
4
24260
2000
Og Zuckerberg svarede,
00:26
"A squirrel dying in your front yard
5
26260
2000
"Et egern der dør i din have,
00:28
may be more relevant to your interests right now
6
28260
3000
er nok mere relevant for dine interesser lige nu,
00:31
than people dying in Africa."
7
31260
3000
end folk der dør i Afrika".
00:34
And I want to talk about
8
34260
2000
Og jeg vil tale om
00:36
what a Web based on that idea of relevance might look like.
9
36260
3000
hvordan et internet baseret på den ide om relevans kunne se ud.
00:40
So when I was growing up
10
40260
2000
Så da jeg voksede op
00:42
in a really rural area in Maine,
11
42260
2000
I et virkelig landligt område i Maine,
00:44
the Internet meant something very different to me.
12
44260
3000
betød internettet noget helt andet for mig.
00:47
It meant a connection to the world.
13
47260
2000
Det betød en forbindelse til verden.
00:49
It meant something that would connect us all together.
14
49260
3000
Det betød, at noget forbandt os alle sammen.
00:52
And I was sure that it was going to be great for democracy
15
52260
3000
Og jeg var sikker på, at det ville være rigtig godt for demokratiet
00:55
and for our society.
16
55260
3000
og for vores samfund.
00:58
But there's this shift
17
58260
2000
Men der er et skift på vej
01:00
in how information is flowing online,
18
60260
2000
i hvordan information er tilgængelig online,
01:02
and it's invisible.
19
62260
3000
og det er usynligt.
01:05
And if we don't pay attention to it,
20
65260
2000
Og hvis vi ikke er opmærksomme på det,
01:07
it could be a real problem.
21
67260
3000
kunne det blive et reelt problem.
01:10
So I first noticed this in a place I spend a lot of time --
22
70260
3000
Så jeg lagde først mærke til det her, et sted hvor jeg bruger meget tid --
01:13
my Facebook page.
23
73260
2000
min Facebook side.
01:15
I'm progressive, politically -- big surprise --
24
75260
3000
Jeg er progresiv, politisk set -- stor overraskelse --
01:18
but I've always gone out of my way to meet conservatives.
25
78260
2000
men jeg har altid sørget for at interessere mig for at møde konservative.
01:20
I like hearing what they're thinking about;
26
80260
2000
Jeg kan godt lide at høre hvad de tænker på;
01:22
I like seeing what they link to;
27
82260
2000
jeg kan godt lide at se hvad de linker til;
01:24
I like learning a thing or two.
28
84260
2000
jeg kan godt lide at lære en ting eller to.
01:26
And so I was surprised when I noticed one day
29
86260
3000
Så jeg blev overrasket en dag, da jeg lagde mærke til,
01:29
that the conservatives had disappeared from my Facebook feed.
30
89260
3000
at de konservative var forsvundet fra mit Facebook feed.
01:33
And what it turned out was going on
31
93260
2000
Og det der viste sig at ske,
01:35
was that Facebook was looking at which links I clicked on,
32
95260
4000
var at Facebook kiggede på hvilke link jeg klikkede på,
01:39
and it was noticing that, actually,
33
99260
2000
og det lagde mærke til, faktisk,
01:41
I was clicking more on my liberal friends' links
34
101260
2000
at jeg klikkede mere på mine liberale venners links
01:43
than on my conservative friends' links.
35
103260
3000
end på mine konservative venners links.
01:46
And without consulting me about it,
36
106260
2000
Og uden at spørge mig om det,
01:48
it had edited them out.
37
108260
2000
havde den fjernet dem.
01:50
They disappeared.
38
110260
3000
De forsvandt.
01:54
So Facebook isn't the only place
39
114260
2000
Men Facebook er ikke det eneste sted
01:56
that's doing this kind of invisible, algorithmic
40
116260
2000
der udfører denne slags usynlig, algoritmisk
01:58
editing of the Web.
41
118260
3000
redigering af nettet.
02:01
Google's doing it too.
42
121260
2000
Google gør det også.
02:03
If I search for something, and you search for something,
43
123260
3000
Hvis jeg søger efter noget, og du søger efter noget,
02:06
even right now at the very same time,
44
126260
2000
selv lige nu, på præcis det samme tidspunkt,
02:08
we may get very different search results.
45
128260
3000
får vi måske vidt forskellige resultater.
02:11
Even if you're logged out, one engineer told me,
46
131260
3000
Selv hvis man er logget ud, fortalte en ingeniør mig,
02:14
there are 57 signals
47
134260
2000
er der 57 signaler
02:16
that Google looks at --
48
136260
3000
som Google kigger efter --
02:19
everything from what kind of computer you're on
49
139260
3000
alt fra hvilken slags computer man sidder ved,
02:22
to what kind of browser you're using
50
142260
2000
til hvilken browser man benytter,
02:24
to where you're located --
51
144260
2000
til hvor man sidder --
02:26
that it uses to personally tailor your query results.
52
146260
3000
som den bruger til at skræddersy ens søgeresultater.
02:29
Think about it for a second:
53
149260
2000
Tænk lige på det et øjeblik:
02:31
there is no standard Google anymore.
54
151260
4000
Der er ikke nogen standard Google mere.
02:35
And you know, the funny thing about this is that it's hard to see.
55
155260
3000
Og I ved, det sjove ved det er, at det er virkelig svært at se.
02:38
You can't see how different your search results are
56
158260
2000
Man kan ikke se hvor forskellige ens søgeresultater er
02:40
from anyone else's.
57
160260
2000
fra nogle andres.
02:42
But a couple of weeks ago,
58
162260
2000
Men for et par uger siden,
02:44
I asked a bunch of friends to Google "Egypt"
59
164260
3000
bad jeg en flok venner at Google "Ægypten"
02:47
and to send me screen shots of what they got.
60
167260
3000
og at sende mig screenshots af resultatet.
02:50
So here's my friend Scott's screen shot.
61
170260
3000
Så her er min ven Scotts screenshot.
02:54
And here's my friend Daniel's screen shot.
62
174260
3000
Og her er min ven Daniels screenshot.
02:57
When you put them side-by-side,
63
177260
2000
Når man stiller dem op ved siden af hinanden,
02:59
you don't even have to read the links
64
179260
2000
behøver man ikke engang at læse linksene,
03:01
to see how different these two pages are.
65
181260
2000
for at se hvor forskellige de to sider er.
03:03
But when you do read the links,
66
183260
2000
Men hvis man læser linksene,
03:05
it's really quite remarkable.
67
185260
3000
er det ret opsigtsvækkende.
03:09
Daniel didn't get anything about the protests in Egypt at all
68
189260
3000
Daniel fik ikke noget om protesterne i Ægypten overhovedet,
03:12
in his first page of Google results.
69
192260
2000
på den første side af Google resultater.
03:14
Scott's results were full of them.
70
194260
2000
Scotts resultater var fyldt med dem.
03:16
And this was the big story of the day at that time.
71
196260
2000
Og det her var dagens store historie på det tidspunkt.
03:18
That's how different these results are becoming.
72
198260
3000
Så forskellige begynder resultaterne at blive.
03:21
So it's not just Google and Facebook either.
73
201260
3000
Men det er heller ikke kun Google og Facebook.
03:24
This is something that's sweeping the Web.
74
204260
2000
Det er noget der indtager nettet.
03:26
There are a whole host of companies that are doing this kind of personalization.
75
206260
3000
Der er en hel række af firmaer der laver denne slags personliggørelse.
03:29
Yahoo News, the biggest news site on the Internet,
76
209260
3000
Yahoo News, det største nyhedssite på internettet,
03:32
is now personalized -- different people get different things.
77
212260
3000
er nu personliggjort -- forskellige mennesker får forskellige ting.
03:36
Huffington Post, the Washington Post, the New York Times --
78
216260
3000
Huffington Post, Washington Post, New York Times --
03:39
all flirting with personalization in various ways.
79
219260
3000
er alle i gang med at personliggøre på forskellige måder.
03:42
And this moves us very quickly
80
222260
3000
Og det flytter os rigtig hurtigt
03:45
toward a world in which
81
225260
2000
imod en verden hvor
03:47
the Internet is showing us what it thinks we want to see,
82
227260
4000
internettet viser os hvad det tror vi vil se,
03:51
but not necessarily what we need to see.
83
231260
3000
men ikke nødvendigvis hvad vi har brug for at se.
03:54
As Eric Schmidt said,
84
234260
3000
Som Eric Schmidt sagde,
03:57
"It will be very hard for people to watch or consume something
85
237260
3000
"Det vil blive rigtig svært for mennesker at se eller forbruge noget
04:00
that has not in some sense
86
240260
2000
der ikke på den ene eller anden måde
04:02
been tailored for them."
87
242260
3000
er blevet skræddersyet til dem".
04:05
So I do think this is a problem.
88
245260
2000
Så jeg mener det her er et problem.
04:07
And I think, if you take all of these filters together,
89
247260
3000
Og jeg mener, at hvis man kigger på alle disse filtre,
04:10
you take all these algorithms,
90
250260
2000
hvis man kigger på alle disse algoritmer,
04:12
you get what I call a filter bubble.
91
252260
3000
får man det jeg kalder en filterboble.
04:16
And your filter bubble is your own personal,
92
256260
3000
Og ens filterboble er ens egen, personlige,
04:19
unique universe of information
93
259260
2000
unikke univers med information
04:21
that you live in online.
94
261260
2000
som man lever i online.
04:23
And what's in your filter bubble
95
263260
3000
Og hvad der er i ens filterboble,
04:26
depends on who you are, and it depends on what you do.
96
266260
3000
afhænger af hvem man er, og det afhænger af hvad man gør.
04:29
But the thing is that you don't decide what gets in.
97
269260
4000
Men det der er ved det er, at man ikke kan bestemme hvad der er i den.
04:33
And more importantly,
98
273260
2000
Og endnu vigtigere,
04:35
you don't actually see what gets edited out.
99
275260
3000
man kan ikke se hvad der bliver redigeret væk.
04:38
So one of the problems with the filter bubble
100
278260
2000
Så en af problemerne med filterboblen
04:40
was discovered by some researchers at Netflix.
101
280260
3000
blev opdaget af nogle forskere ved Netflix.
04:43
And they were looking at the Netflix queues, and they noticed something kind of funny
102
283260
3000
Og de kiggede på køerne ved Netflix, og de lagde mærke til noget ret spøjst,
04:46
that a lot of us probably have noticed,
103
286260
2000
noget som mange af os sikkert har lagt mærke til,
04:48
which is there are some movies
104
288260
2000
hvilket er at der er nogle film
04:50
that just sort of zip right up and out to our houses.
105
290260
3000
der egentlig bare suser afsted til vores hjem.
04:53
They enter the queue, they just zip right out.
106
293260
3000
De kommer i køen, og de suser bare afsted.
04:56
So "Iron Man" zips right out,
107
296260
2000
Så "Iron Man" suser afsted,
04:58
and "Waiting for Superman"
108
298260
2000
og "Waiting for Superman"
05:00
can wait for a really long time.
109
300260
2000
kan vente i rigtig lang tid.
05:02
What they discovered
110
302260
2000
Det de fandt ud af var
05:04
was that in our Netflix queues
111
304260
2000
at i vores Netflix kø
05:06
there's this epic struggle going on
112
306260
3000
foregår der en episk kamp mellem
05:09
between our future aspirational selves
113
309260
3000
vores fremtidige, ideelle selv
05:12
and our more impulsive present selves.
114
312260
3000
og vores mere impulsive nutidige selv.
05:15
You know we all want to be someone
115
315260
2000
I ved, vi vil alle gerne være en person
05:17
who has watched "Rashomon,"
116
317260
2000
der har set "Rashomon",
05:19
but right now
117
319260
2000
men lige nu
05:21
we want to watch "Ace Ventura" for the fourth time.
118
321260
3000
vil vi gerne se "Ace Venture" en fjerde gang.
05:24
(Laughter)
119
324260
3000
(Latter)
05:27
So the best editing gives us a bit of both.
120
327260
2000
Så den bedste redigering, giver os en smule af hvert.
05:29
It gives us a little bit of Justin Bieber
121
329260
2000
Det giver os en smule Justin Bieber,
05:31
and a little bit of Afghanistan.
122
331260
2000
og en smule Afghanistan.
05:33
It gives us some information vegetables;
123
333260
2000
Det giver os nogle informationsgrøntsager;
05:35
it gives us some information dessert.
124
335260
3000
det giver os noget informationsdessert.
05:38
And the challenge with these kinds of algorithmic filters,
125
338260
2000
Og udfordringen med denne slags algoritmiske filtre,
05:40
these personalized filters,
126
340260
2000
disse personaliserede filtre,
05:42
is that, because they're mainly looking
127
342260
2000
er at, fordi de hovedsageligt kigger
05:44
at what you click on first,
128
344260
4000
på hvad man klikker på først,
05:48
it can throw off that balance.
129
348260
4000
kan det forstyrre balancen.
05:52
And instead of a balanced information diet,
130
352260
3000
Og i stedet for en balanceret informationskost,
05:55
you can end up surrounded
131
355260
2000
kan det ende med at man er omgivet
05:57
by information junk food.
132
357260
2000
af informations junk food.
05:59
What this suggests
133
359260
2000
Hvad dette indeholder
06:01
is actually that we may have the story about the Internet wrong.
134
361260
3000
er egentlig, at vi måske har misforstået historien om internettet.
06:04
In a broadcast society --
135
364260
2000
I et online samfund --
06:06
this is how the founding mythology goes --
136
366260
2000
sådan her er skabelses mytologien --
06:08
in a broadcast society,
137
368260
2000
i et online samfund,
06:10
there were these gatekeepers, the editors,
138
370260
2000
var der de her kontrollører, redaktørerne,
06:12
and they controlled the flows of information.
139
372260
3000
og de kontrollerede informationsstrømmen.
06:15
And along came the Internet and it swept them out of the way,
140
375260
3000
Og pludselig kom internettet og fjernede dem,
06:18
and it allowed all of us to connect together,
141
378260
2000
og det tillod os alle at blive forbundet med hinanden,
06:20
and it was awesome.
142
380260
2000
og det var fedt.
06:22
But that's not actually what's happening right now.
143
382260
3000
Men det er faktisk ikke det der foregår lige nu.
06:26
What we're seeing is more of a passing of the torch
144
386260
3000
Det vi ser nu, er mere end slags videregiven
06:29
from human gatekeepers
145
389260
2000
fra de menneskelige kontrollører
06:31
to algorithmic ones.
146
391260
3000
til de algoritmiske.
06:34
And the thing is that the algorithms
147
394260
3000
Og det der er med de algoritmiske er,
06:37
don't yet have the kind of embedded ethics
148
397260
3000
at de har endnu ikke den slags medfødte etik
06:40
that the editors did.
149
400260
3000
som redaktørerne havde.
06:43
So if algorithms are going to curate the world for us,
150
403260
3000
Så hvis algoritmerne vil organisere verden for os,
06:46
if they're going to decide what we get to see and what we don't get to see,
151
406260
3000
hvis de skal beslutte hvad vi kommer til at se, og hvad vi ikke kommer til at se
06:49
then we need to make sure
152
409260
2000
så må vi være sikre på
06:51
that they're not just keyed to relevance.
153
411260
3000
at de ikke udelukkende kigger på relevans.
06:54
We need to make sure that they also show us things
154
414260
2000
Vi må sørge for, at de også viser os ting
06:56
that are uncomfortable or challenging or important --
155
416260
3000
der er ubehagelige eller udfordrende, eller vigtige --
06:59
this is what TED does --
156
419260
2000
det er hvad TED gør --
07:01
other points of view.
157
421260
2000
andre synspunkter.
07:03
And the thing is, we've actually been here before
158
423260
2000
Og det der er ved det er, at vi faktisk har været her før
07:05
as a society.
159
425260
2000
som samfund.
07:08
In 1915, it's not like newspapers were sweating a lot
160
428260
3000
I 1915, var det ikke fordi aviserne svedte
07:11
about their civic responsibilities.
161
431260
3000
over deres borgerlige pligter.
07:14
Then people noticed
162
434260
2000
Så lagde folk mærke til
07:16
that they were doing something really important.
163
436260
3000
at de gjorde noget rigtig vigtigt.
07:19
That, in fact, you couldn't have
164
439260
2000
At man, faktisk, ikke kunne have
07:21
a functioning democracy
165
441260
2000
et velfungerende demokrati
07:23
if citizens didn't get a good flow of information,
166
443260
4000
hvis borgerne ikke fik en god informationsstrøm,
07:28
that the newspapers were critical because they were acting as the filter,
167
448260
3000
at aviserne var afgørende, fordi de opførte sig som filteret,
07:31
and then journalistic ethics developed.
168
451260
2000
og så udviklede journalisternes etik sig.
07:33
It wasn't perfect,
169
453260
2000
Det var ikke perfekt,
07:35
but it got us through the last century.
170
455260
3000
men det første os gennem det sidste århundrede.
07:38
And so now,
171
458260
2000
Så nu,
07:40
we're kind of back in 1915 on the Web.
172
460260
3000
er vi på en måde tilbage i 1915 med nettet.
07:44
And we need the new gatekeepers
173
464260
3000
Og vi har brug for at de nye kontrollører
07:47
to encode that kind of responsibility
174
467260
2000
koder den form for ansvar ind
07:49
into the code that they're writing.
175
469260
2000
i den kode de skriver.
07:51
I know that there are a lot of people here from Facebook and from Google --
176
471260
3000
Jeg ved at der er mange mennesker fra Facebook og Google til stede --
07:54
Larry and Sergey --
177
474260
2000
Larry og Sergey --
07:56
people who have helped build the Web as it is,
178
476260
2000
mennesker der har hjulpet os med at bygge nettet som det er,
07:58
and I'm grateful for that.
179
478260
2000
og det er jeg taknemmelig for.
08:00
But we really need you to make sure
180
480260
3000
Men vi skal virkelig være sikre på
08:03
that these algorithms have encoded in them
181
483260
3000
at disse algoritmer har indkodet
08:06
a sense of the public life, a sense of civic responsibility.
182
486260
3000
en sans for det offentlige liv, en sans for de borgerlige pligter.
08:09
We need you to make sure that they're transparent enough
183
489260
3000
Vi må være sikre på, at de er gennemsigtige nok
08:12
that we can see what the rules are
184
492260
2000
til at vi kan se hvad reglerne er
08:14
that determine what gets through our filters.
185
494260
3000
der afgører hvad der kommer gennem vores filtre.
08:17
And we need you to give us some control
186
497260
2000
Og der er brug for at I giver os den samme kontrol
08:19
so that we can decide
187
499260
2000
så vi kan afgøre
08:21
what gets through and what doesn't.
188
501260
3000
hvad der kommer igennem og hvad der ikke gør.
08:24
Because I think
189
504260
2000
Fordi jeg mener
08:26
we really need the Internet to be that thing
190
506260
2000
at vi virkelig har brug for at internettet er den ting
08:28
that we all dreamed of it being.
191
508260
2000
som vi alle har brug for det er.
08:30
We need it to connect us all together.
192
510260
3000
Vi har brug for, at det forbinder os alle sammen.
08:33
We need it to introduce us to new ideas
193
513260
3000
Vi har brug for at det introducerer os for nye ideer
08:36
and new people and different perspectives.
194
516260
3000
og nye mennesker og forskellige synsvinkler.
08:40
And it's not going to do that
195
520260
2000
Og det kommer det ikke til at gøre
08:42
if it leaves us all isolated in a Web of one.
196
522260
3000
hvis det efterlader os alle sammen i et net bestående af én.
08:45
Thank you.
197
525260
2000
Tak.
08:47
(Applause)
198
527260
11000
(Bifald)
Om denne hjemmeside

På dette websted kan du se YouTube-videoer, der er nyttige til at lære engelsk. Du vil se engelskundervisning, der er udført af førsteklasses lærere fra hele verden. Dobbeltklik på de engelske undertekster, der vises på hver videoside, for at afspille videoen derfra. Underteksterne ruller i takt med videoafspilningen. Hvis du har kommentarer eller ønsker, bedes du kontakte os ved hjælp af denne kontaktformular.

https://forms.gle/WvT1wiN1qDtmnspy7