Beware online "filter bubbles" | Eli Pariser

1,588,934 views ・ 2011-05-02

TED


Vennligst dobbeltklikk på de engelske undertekstene nedenfor for å spille av videoen.

Translator: Fredrik Randsborg Bølstad Reviewer: Martin Hassel
00:15
Mark Zuckerberg,
0
15260
2000
Mark Zuckerberg,
00:17
a journalist was asking him a question about the news feed.
1
17260
3000
en journalist spurte ham et spørsmål om nyhetsstrømmen.
00:20
And the journalist was asking him,
2
20260
2000
Og det journalisten spurte var,
00:22
"Why is this so important?"
3
22260
2000
"Hvorfor er dette så viktig?"
00:24
And Zuckerberg said,
4
24260
2000
Og Zuckerberg svarte,
00:26
"A squirrel dying in your front yard
5
26260
2000
"Et ekorn som dør i din hage
00:28
may be more relevant to your interests right now
6
28260
3000
kan være mer relevant for dine interesser akkurat nå
00:31
than people dying in Africa."
7
31260
3000
enn at folk dør i Afrika."
00:34
And I want to talk about
8
34260
2000
Og jeg vil snakke om
00:36
what a Web based on that idea of relevance might look like.
9
36260
3000
hvordan et Internett basert på den idéen om relevanse kan se ut.
00:40
So when I was growing up
10
40260
2000
Da jeg vokste opp
00:42
in a really rural area in Maine,
11
42260
2000
i et virkelig øde område i Maine,
00:44
the Internet meant something very different to me.
12
44260
3000
betydde Internett noe veldig annet for meg.
00:47
It meant a connection to the world.
13
47260
2000
Det betydde en forbindelse til verden.
00:49
It meant something that would connect us all together.
14
49260
3000
Det betydde noe som ville koble oss alle sammen.
00:52
And I was sure that it was going to be great for democracy
15
52260
3000
Og jeg var sikker på at det kom til å være flott for demokratiet
00:55
and for our society.
16
55260
3000
og for vårt samfunn.
00:58
But there's this shift
17
58260
2000
Men det er denne endringen
01:00
in how information is flowing online,
18
60260
2000
i hvordan informasjon beveger seg på nettet,
01:02
and it's invisible.
19
62260
3000
og den er usynlig.
01:05
And if we don't pay attention to it,
20
65260
2000
Og hvis vi ikke holder øye med den,
01:07
it could be a real problem.
21
67260
3000
kan det bli et virkelig problem.
01:10
So I first noticed this in a place I spend a lot of time --
22
70260
3000
Først la jeg merke til dette på et sted der jeg tilbringer mye tid –
01:13
my Facebook page.
23
73260
2000
Facebook-siden min.
01:15
I'm progressive, politically -- big surprise --
24
75260
3000
Politisk er jeg progressiv – stor overraskelse –
01:18
but I've always gone out of my way to meet conservatives.
25
78260
2000
men jeg har alltid gjort mitt beste for å treffe konservative.
01:20
I like hearing what they're thinking about;
26
80260
2000
Jeg liker å høre hva de tenker på;
01:22
I like seeing what they link to;
27
82260
2000
jeg liker å se hva de linker til;
01:24
I like learning a thing or two.
28
84260
2000
jeg liker å lære en ting eller to.
01:26
And so I was surprised when I noticed one day
29
86260
3000
Så jeg ble overrasket da jeg en dag oppdaget
01:29
that the conservatives had disappeared from my Facebook feed.
30
89260
3000
at de konservative hadde forsvunnet fra nyhetsstrømmen min på Facebook.
01:33
And what it turned out was going on
31
93260
2000
Og det som viste seg å være årsaken
01:35
was that Facebook was looking at which links I clicked on,
32
95260
4000
var at Facebook registrerte hvilke lenker jeg klikket på,
01:39
and it was noticing that, actually,
33
99260
2000
og la merke til at jeg faktisk
01:41
I was clicking more on my liberal friends' links
34
101260
2000
klikket mer på mine liberale venners lenker
01:43
than on my conservative friends' links.
35
103260
3000
enn mine konservative venners lenker.
01:46
And without consulting me about it,
36
106260
2000
Og uten å rådføre seg med meg om det,
01:48
it had edited them out.
37
108260
2000
filtrerte de dem ut.
01:50
They disappeared.
38
110260
3000
De forsvant.
01:54
So Facebook isn't the only place
39
114260
2000
Facebook er ikke de eneste
01:56
that's doing this kind of invisible, algorithmic
40
116260
2000
som driver med denne usynlige, algoritmiske
01:58
editing of the Web.
41
118260
3000
filtreringen av Internett.
02:01
Google's doing it too.
42
121260
2000
Google gjør det også.
02:03
If I search for something, and you search for something,
43
123260
3000
Hvis jeg søker etter noe og du søker etter noe,
02:06
even right now at the very same time,
44
126260
2000
selv akkurat nå på nøyaktig samme tidspunkt,
02:08
we may get very different search results.
45
128260
3000
kan vi få veldig forskjellige resultater.
02:11
Even if you're logged out, one engineer told me,
46
131260
3000
Selv når du er logget ut, fortalte en utvikler meg,
02:14
there are 57 signals
47
134260
2000
er det 57 signaler
02:16
that Google looks at --
48
136260
3000
som Google ser på –
02:19
everything from what kind of computer you're on
49
139260
3000
alt fra hva slags datamaskin du bruker,
02:22
to what kind of browser you're using
50
142260
2000
til hvilken nettleser du bruker,
02:24
to where you're located --
51
144260
2000
til hvor du befinner deg –
02:26
that it uses to personally tailor your query results.
52
146260
3000
som blir brukt til å personlig skreddersy dine søkeresultater.
02:29
Think about it for a second:
53
149260
2000
Tenk på det et øyeblikk:
02:31
there is no standard Google anymore.
54
151260
4000
det er ingen standard Google lengre.
02:35
And you know, the funny thing about this is that it's hard to see.
55
155260
3000
Og du vet, det rare med dette er at det er vanskelig å se.
02:38
You can't see how different your search results are
56
158260
2000
Du kan ikke se hvor annerledes dine søkeresultater er
02:40
from anyone else's.
57
160260
2000
i forhold til alle andre sine.
02:42
But a couple of weeks ago,
58
162260
2000
Men for et par uker siden,
02:44
I asked a bunch of friends to Google "Egypt"
59
164260
3000
spurte jeg en gruppe venner om å Google "Egypt"
02:47
and to send me screen shots of what they got.
60
167260
3000
og sende meg skjermbilder av resultatene sine.
02:50
So here's my friend Scott's screen shot.
61
170260
3000
Her er min venn Scott sitt skjermbilde.
02:54
And here's my friend Daniel's screen shot.
62
174260
3000
Og her er min venn Daniel sitt skjermbilde.
02:57
When you put them side-by-side,
63
177260
2000
Når du plasserer dem side om side,
02:59
you don't even have to read the links
64
179260
2000
trenger du ikke en gang lese lenkene
03:01
to see how different these two pages are.
65
181260
2000
for å se hvor forskjellig disse to sidene er.
03:03
But when you do read the links,
66
183260
2000
Men når du leser lenkene,
03:05
it's really quite remarkable.
67
185260
3000
er det faktisk veldig oppsiktsvekkende.
03:09
Daniel didn't get anything about the protests in Egypt at all
68
189260
3000
Daniel fikk ikke noen treff om protestene i Egypt
03:12
in his first page of Google results.
69
192260
2000
på sin første side med Google-resultater.
03:14
Scott's results were full of them.
70
194260
2000
Scott sine resultater var fulle av dem.
03:16
And this was the big story of the day at that time.
71
196260
2000
Og dette var den store nyhetssaken på dette tidspunktet.
03:18
That's how different these results are becoming.
72
198260
3000
Det er såpass forskjellig disse resultatene er i ferd med å bli.
03:21
So it's not just Google and Facebook either.
73
201260
3000
Dette gjelder ikke bare Google og Facebook heller.
03:24
This is something that's sweeping the Web.
74
204260
2000
Dette er en trend som går igjen på Internett.
03:26
There are a whole host of companies that are doing this kind of personalization.
75
206260
3000
Det er en hel rekke av bedrifter som bedriver denne type personalisering.
03:29
Yahoo News, the biggest news site on the Internet,
76
209260
3000
Yahoo News, den største nyhetssiden på Internett,
03:32
is now personalized -- different people get different things.
77
212260
3000
er nå personalisert – forskjellige folk ser forskjellige ting.
03:36
Huffington Post, the Washington Post, the New York Times --
78
216260
3000
Huffington Post, the Washington Post, the New York Times –
03:39
all flirting with personalization in various ways.
79
219260
3000
alle flørter med personalisering på forskjellige måter.
03:42
And this moves us very quickly
80
222260
3000
Og det beveger oss veldig raskt
03:45
toward a world in which
81
225260
2000
mot en verden der
03:47
the Internet is showing us what it thinks we want to see,
82
227260
4000
Internett viser oss hva det tror vi ønsker å se,
03:51
but not necessarily what we need to see.
83
231260
3000
men ikke nødvendigvis det vi trenger å se.
03:54
As Eric Schmidt said,
84
234260
3000
Som Eric Schmidt sa,
03:57
"It will be very hard for people to watch or consume something
85
237260
3000
"Det kommer til å bli veldig vanskelig for folk å se eller konsumere noe
04:00
that has not in some sense
86
240260
2000
som ikke på noen måte
04:02
been tailored for them."
87
242260
3000
er blitt skreddersydd til dem."
04:05
So I do think this is a problem.
88
245260
2000
Jeg syntes at dette er et problem.
04:07
And I think, if you take all of these filters together,
89
247260
3000
Og jeg tror at dersom du kombinerer alle disse filtrene,
04:10
you take all these algorithms,
90
250260
2000
alle disse algoritmene,
04:12
you get what I call a filter bubble.
91
252260
3000
så får du det jeg kaller en filterboble.
04:16
And your filter bubble is your own personal,
92
256260
3000
Din filterboble er ditt eget personlige,
04:19
unique universe of information
93
259260
2000
unike univers av informasjon
04:21
that you live in online.
94
261260
2000
som du lever i på nettet.
04:23
And what's in your filter bubble
95
263260
3000
Hva som finnes i din filterboble
04:26
depends on who you are, and it depends on what you do.
96
266260
3000
kommer an på hvem du er og det kommer an på hva du gjør.
04:29
But the thing is that you don't decide what gets in.
97
269260
4000
Men greia er at du får ikke bestemme hva som får komme inn.
04:33
And more importantly,
98
273260
2000
Og enda viktigere,
04:35
you don't actually see what gets edited out.
99
275260
3000
du får faktisk ikke se hva som blir filtrert ut.
04:38
So one of the problems with the filter bubble
100
278260
2000
Så et av problemene med filterboblen
04:40
was discovered by some researchers at Netflix.
101
280260
3000
ble oppdaget av noen forskere hos Netflix.
04:43
And they were looking at the Netflix queues, and they noticed something kind of funny
102
283260
3000
De så på Netflix-køen, og la merke til noe litt rart
04:46
that a lot of us probably have noticed,
103
286260
2000
som mange av oss antakeligvis har lagt merke til,
04:48
which is there are some movies
104
288260
2000
nemlig at det er noen filmer
04:50
that just sort of zip right up and out to our houses.
105
290260
3000
som bare sklir til topps og sendes direkte ut.
04:53
They enter the queue, they just zip right out.
106
293260
3000
De kommer inn i køen og sklir rett til topps.
04:56
So "Iron Man" zips right out,
107
296260
2000
Så "Iron Man" sklir rett til topps,
04:58
and "Waiting for Superman"
108
298260
2000
og "Waiting for Superman"
05:00
can wait for a really long time.
109
300260
2000
kan vente veldig lenge.
05:02
What they discovered
110
302260
2000
Det de oppdaget
05:04
was that in our Netflix queues
111
304260
2000
var at i vår Netflix-kø
05:06
there's this epic struggle going on
112
306260
3000
foregår det en storslått kamp
05:09
between our future aspirational selves
113
309260
3000
mellom vår fremtidige ambisiøse selv
05:12
and our more impulsive present selves.
114
312260
3000
og vår mer impulsive nåværende selv.
05:15
You know we all want to be someone
115
315260
2000
Dere vet at vi alle ønsker å være en
05:17
who has watched "Rashomon,"
116
317260
2000
som har sett "Rashomon,"
05:19
but right now
117
319260
2000
men akkurat nå
05:21
we want to watch "Ace Ventura" for the fourth time.
118
321260
3000
vil vi heller se "Ace Ventura" for fjerde gang.
05:24
(Laughter)
119
324260
3000
(Latter)
05:27
So the best editing gives us a bit of both.
120
327260
2000
Så det beste filteret gir oss litt av begge deler.
05:29
It gives us a little bit of Justin Bieber
121
329260
2000
Det gir oss en liten bit av Justin Bieber
05:31
and a little bit of Afghanistan.
122
331260
2000
og en liten bit av Afghanistan.
05:33
It gives us some information vegetables;
123
333260
2000
Det gir oss noe informasjon om grønnsaker;
05:35
it gives us some information dessert.
124
335260
3000
det gir oss noe informasjon om dessert.
05:38
And the challenge with these kinds of algorithmic filters,
125
338260
2000
Og utfordringen med denne type algoritmiske filtre,
05:40
these personalized filters,
126
340260
2000
disse personaliserte filtrene,
05:42
is that, because they're mainly looking
127
342260
2000
er at, fordi de hovedsakelig ser
05:44
at what you click on first,
128
344260
4000
på hva du klikker på først,
05:48
it can throw off that balance.
129
348260
4000
kan de sette denne balansen ute av spill.
05:52
And instead of a balanced information diet,
130
352260
3000
Og i stedet for en balansert informasjonsdiett
05:55
you can end up surrounded
131
355260
2000
kan du ende opp omringet
05:57
by information junk food.
132
357260
2000
av informasjonssøppelmat.
05:59
What this suggests
133
359260
2000
Det dette antyder
06:01
is actually that we may have the story about the Internet wrong.
134
361260
3000
er at vi faktisk kan ha fått historien om Internett feil.
06:04
In a broadcast society --
135
364260
2000
I et kringkastingssamfunn –
06:06
this is how the founding mythology goes --
136
366260
2000
dette er slik grunnleggingsmytologien går –
06:08
in a broadcast society,
137
368260
2000
I et kringkastingssamfunn,
06:10
there were these gatekeepers, the editors,
138
370260
2000
der var det disse portvaktene, redaktørene,
06:12
and they controlled the flows of information.
139
372260
3000
og de kontrollerte informasjonsflyten.
06:15
And along came the Internet and it swept them out of the way,
140
375260
3000
Og så kom Internett på banen og feide dem ut av veien,
06:18
and it allowed all of us to connect together,
141
378260
2000
og det tillot oss alle å koble oss sammen,
06:20
and it was awesome.
142
380260
2000
og det var fantastisk.
06:22
But that's not actually what's happening right now.
143
382260
3000
Men det er ikke akkurat det som skjer nå.
06:26
What we're seeing is more of a passing of the torch
144
386260
3000
Det vi ser er snarere en videreføring av ansvaret
06:29
from human gatekeepers
145
389260
2000
vekk fra menneskelige portvakter
06:31
to algorithmic ones.
146
391260
3000
til algoritmiske.
06:34
And the thing is that the algorithms
147
394260
3000
Og greia er at algoritmer
06:37
don't yet have the kind of embedded ethics
148
397260
3000
ikke enda har den formen for innebygd etikk
06:40
that the editors did.
149
400260
3000
som redaktørene hadde.
06:43
So if algorithms are going to curate the world for us,
150
403260
3000
Så hvis algoritmer skal håndplukke verden for oss,
06:46
if they're going to decide what we get to see and what we don't get to see,
151
406260
3000
hvis de skal få bestemme hva vi får se og hva vi ikke får se,
06:49
then we need to make sure
152
409260
2000
da er vi nødt til å sørge for
06:51
that they're not just keyed to relevance.
153
411260
3000
at de ikke kun er knyttet til relevans.
06:54
We need to make sure that they also show us things
154
414260
2000
Vi må sørge for at de også viser oss ting
06:56
that are uncomfortable or challenging or important --
155
416260
3000
som er ubehagelig eller utfordrende eller viktig –
06:59
this is what TED does --
156
419260
2000
det er dette TED gjør –
07:01
other points of view.
157
421260
2000
andre synspunkter.
07:03
And the thing is, we've actually been here before
158
423260
2000
Det spesielle er at vi faktisk har vært i denne situasjonen før
07:05
as a society.
159
425260
2000
som et samfunn.
07:08
In 1915, it's not like newspapers were sweating a lot
160
428260
3000
I 1915 hadde ikke akkurat avisene et anstrengt forhold
07:11
about their civic responsibilities.
161
431260
3000
til sitt samfunnsansvar.
07:14
Then people noticed
162
434260
2000
Så la folk merke til
07:16
that they were doing something really important.
163
436260
3000
at de gjorde noe veldig viktig.
07:19
That, in fact, you couldn't have
164
439260
2000
At man faktisk ikke kunne ha
07:21
a functioning democracy
165
441260
2000
et fungerende demokrati
07:23
if citizens didn't get a good flow of information,
166
443260
4000
hvis borgerne ikke fikk en god strøm av informasjon,
07:28
that the newspapers were critical because they were acting as the filter,
167
448260
3000
at avisene var viktige fordi de opptrådte som filteret,
07:31
and then journalistic ethics developed.
168
451260
2000
og så ble journalistisk etikk utviklet.
07:33
It wasn't perfect,
169
453260
2000
Det var ikke perfekt,
07:35
but it got us through the last century.
170
455260
3000
men det fikk oss gjennom det forrige århundret.
07:38
And so now,
171
458260
2000
Så nå,
07:40
we're kind of back in 1915 on the Web.
172
460260
3000
er vi på en måte tilbake i 1915 på Internett.
07:44
And we need the new gatekeepers
173
464260
3000
Og vi trenger de nye portvaktene
07:47
to encode that kind of responsibility
174
467260
2000
til å hardkode et slikt ansvar
07:49
into the code that they're writing.
175
469260
2000
inn i koden de skriver.
07:51
I know that there are a lot of people here from Facebook and from Google --
176
471260
3000
Jeg vet at det er mange mennesker her fra Facebook og fra Google –
07:54
Larry and Sergey --
177
474260
2000
Larry og Sergey –
07:56
people who have helped build the Web as it is,
178
476260
2000
mennesker som har hjulpet med å bygge Internett slik det er,
07:58
and I'm grateful for that.
179
478260
2000
og jeg er takknemlig for det.
08:00
But we really need you to make sure
180
480260
3000
Men vi trenger virkelig at dere sørger for
08:03
that these algorithms have encoded in them
181
483260
3000
at disse algoritmene har kodet inn i seg
08:06
a sense of the public life, a sense of civic responsibility.
182
486260
3000
en oppfatning av det offentlige liv, en forstand for et samfunnsansvar.
08:09
We need you to make sure that they're transparent enough
183
489260
3000
Vi trenger at dere sørger for at de er såpass åpne
08:12
that we can see what the rules are
184
492260
2000
slik at vi kan se hva reglene er
08:14
that determine what gets through our filters.
185
494260
3000
for å avgjøre hva som kommer gjennom våre filtre.
08:17
And we need you to give us some control
186
497260
2000
Og vi trenger at dere gir oss noe kontroll
08:19
so that we can decide
187
499260
2000
så vi kan få bestemme
08:21
what gets through and what doesn't.
188
501260
3000
hva som kommer gjennom og hva som stoppes.
08:24
Because I think
189
504260
2000
Fordi jeg tror
08:26
we really need the Internet to be that thing
190
506260
2000
at vi virkelig trenger at Internett blir den tingen
08:28
that we all dreamed of it being.
191
508260
2000
vi alle drømte at det skulle bli.
08:30
We need it to connect us all together.
192
510260
3000
Vi trenger at det kobler oss alle sammen.
08:33
We need it to introduce us to new ideas
193
513260
3000
Vi trenger det for å introdusere oss for nye idéer
08:36
and new people and different perspectives.
194
516260
3000
og nye mennesker og forskjellige perspektiver.
08:40
And it's not going to do that
195
520260
2000
Og det kommer ikke til å gjøre det
08:42
if it leaves us all isolated in a Web of one.
196
522260
3000
om det etterlater oss alle isolert i et nett av en.
08:45
Thank you.
197
525260
2000
Takk.
08:47
(Applause)
198
527260
11000
(Applaus)
Om denne nettsiden

Denne siden vil introdusere deg til YouTube-videoer som er nyttige for å lære engelsk. Du vil se engelsktimer undervist av førsteklasses lærere fra hele verden. Dobbeltklikk på de engelske undertekstene som vises på hver videoside for å spille av videoen derfra. Undertekstene ruller synkronisert med videoavspillingen. Hvis du har kommentarer eller forespørsler, vennligst kontakt oss ved å bruke dette kontaktskjemaet.

https://forms.gle/WvT1wiN1qDtmnspy7