Beware online "filter bubbles" | Eli Pariser

1,585,118 views ・ 2011-05-02

TED


Please double-click on the English subtitles below to play the video.

Translator: Xavi Ivars Reviewer: Pol Monsó Purtí
00:15
Mark Zuckerberg,
0
15260
2000
Mark Zuckerberg,
00:17
a journalist was asking him a question about the news feed.
1
17260
3000
un periodista li feia una pregunta referent al "mur de notícies".
00:20
And the journalist was asking him,
2
20260
2000
El periodista li estava preguntant:
00:22
"Why is this so important?"
3
22260
2000
"Per què és el "mur" tan important?"
00:24
And Zuckerberg said,
4
24260
2000
I Zuckerberg va dir,
00:26
"A squirrel dying in your front yard
5
26260
2000
"Un esquirol morint davant de ta casa
00:28
may be more relevant to your interests right now
6
28260
3000
pot ser més rellevant per al teu interès en aquest moment
00:31
than people dying in Africa."
7
31260
3000
que gent morint a l'Àfrica."
00:34
And I want to talk about
8
34260
2000
I vull parlar sobre
00:36
what a Web based on that idea of relevance might look like.
9
36260
3000
com seria una Web basada en eixa idea de rellevància.
00:40
So when I was growing up
10
40260
2000
Quan estava creixent
00:42
in a really rural area in Maine,
11
42260
2000
en una àrea rural a Maine,
00:44
the Internet meant something very different to me.
12
44260
3000
'Internet' significava una cosa molt diferent per mi.
00:47
It meant a connection to the world.
13
47260
2000
Significava una connexió amb el món.
00:49
It meant something that would connect us all together.
14
49260
3000
Significava quelcom per connectar-nos a tots.
00:52
And I was sure that it was going to be great for democracy
15
52260
3000
I estava segur que anava a ser quelcom molt bo per a la democràcia
00:55
and for our society.
16
55260
3000
i per a la nostra societat.
00:58
But there's this shift
17
58260
2000
Però ha aparegut aquest desplaçament
01:00
in how information is flowing online,
18
60260
2000
respecte a com circula la informació a la xarxa,
01:02
and it's invisible.
19
62260
3000
i que és invisible.
01:05
And if we don't pay attention to it,
20
65260
2000
I que si no hi estem atents
01:07
it could be a real problem.
21
67260
3000
podria ser un problema real.
01:10
So I first noticed this in a place I spend a lot of time --
22
70260
3000
El primer lloc on em vaig adonar d'això va ser en un lloc on passe molt de temps --
01:13
my Facebook page.
23
73260
2000
la meva pàgina a Facebook.
01:15
I'm progressive, politically -- big surprise --
24
75260
3000
Sóc progressista, ideològicament -- gran sorpresa --
01:18
but I've always gone out of my way to meet conservatives.
25
78260
2000
però sempre m'he preocupat per trobar-me amb conservadors.
01:20
I like hearing what they're thinking about;
26
80260
2000
M'agrada escoltar de què parlem;
01:22
I like seeing what they link to;
27
82260
2000
m'agrada veure què enllancen;
01:24
I like learning a thing or two.
28
84260
2000
m'agrada aprendre coses d'ells.
01:26
And so I was surprised when I noticed one day
29
86260
3000
I per això em vaig sorprendre el dia que em vaig adonar
01:29
that the conservatives had disappeared from my Facebook feed.
30
89260
3000
que els conservadors havien desaparegut del meu mur de Facebook.
01:33
And what it turned out was going on
31
93260
2000
I el què havia ocorregut era
01:35
was that Facebook was looking at which links I clicked on,
32
95260
4000
que Facebook estava controlant sobre quins enllaços feia clic,
01:39
and it was noticing that, actually,
33
99260
2000
i estava descobrint que, de fet,
01:41
I was clicking more on my liberal friends' links
34
101260
2000
feia més clics als enllaços dels meus amics progressistes
01:43
than on my conservative friends' links.
35
103260
3000
que als enllaços dels meus amics conservadors.
01:46
And without consulting me about it,
36
106260
2000
I sense preguntar-m'ho,
01:48
it had edited them out.
37
108260
2000
els havia eliminat.
01:50
They disappeared.
38
110260
3000
Havien desaparegut.
01:54
So Facebook isn't the only place
39
114260
2000
Però Facebook no és l'únic lloc
01:56
that's doing this kind of invisible, algorithmic
40
116260
2000
que està fent aquesta mena d'edició algorítmica invisible
01:58
editing of the Web.
41
118260
3000
de la Web.
02:01
Google's doing it too.
42
121260
2000
Google també ho està fent.
02:03
If I search for something, and you search for something,
43
123260
3000
Si jo cerque alguna cosa, i vosaltres cerqueu el mateix,
02:06
even right now at the very same time,
44
126260
2000
fins i tot ara mateix, simultàniament,
02:08
we may get very different search results.
45
128260
3000
podríem obtenir resultats molt diferents.
02:11
Even if you're logged out, one engineer told me,
46
131260
3000
Fins i tot amb la sessió tancada, segons em va dir un enginyer,
02:14
there are 57 signals
47
134260
2000
hi ha 57 senyals
02:16
that Google looks at --
48
136260
3000
que Google té en compte --
02:19
everything from what kind of computer you're on
49
139260
3000
des d'allò relacionat amb el tipus d'ordinador en el què esteu
02:22
to what kind of browser you're using
50
142260
2000
fins al tipus de navegador que utilitzeu
02:24
to where you're located --
51
144260
2000
o on esteu físicament --
02:26
that it uses to personally tailor your query results.
52
146260
3000
i utilitza aquesta informació per confeccionar els resultats de la vostra cerca.
02:29
Think about it for a second:
53
149260
2000
Penseu-ho un moment:
02:31
there is no standard Google anymore.
54
151260
4000
ja no hi ha un Google estàndar.
02:35
And you know, the funny thing about this is that it's hard to see.
55
155260
3000
I el pitjor d'això és que és complicat de veure.
02:38
You can't see how different your search results are
56
158260
2000
No podeu veure la diferència entre els vostres resultats
02:40
from anyone else's.
57
160260
2000
i els de qualsevol altra persona.
02:42
But a couple of weeks ago,
58
162260
2000
Però fa un parell de setmanes,
02:44
I asked a bunch of friends to Google "Egypt"
59
164260
3000
els vaig demanar a un grapat d'amics que cercaren "Egipte" al Google
02:47
and to send me screen shots of what they got.
60
167260
3000
i que m'enviaren en una captura de pantalla del què havien obtingut.
02:50
So here's my friend Scott's screen shot.
61
170260
3000
Ací podeu veure la captura del meu amic Scott.
02:54
And here's my friend Daniel's screen shot.
62
174260
3000
I aci la del meu amic Daniel.
02:57
When you put them side-by-side,
63
177260
2000
Si les poseu una al costat de l'altra
02:59
you don't even have to read the links
64
179260
2000
no cal ni que llegiu els enllaços
03:01
to see how different these two pages are.
65
181260
2000
per a observar com de diferents són ambdues pàgines.
03:03
But when you do read the links,
66
183260
2000
Però si llegiu els enllaços
03:05
it's really quite remarkable.
67
185260
3000
és realment molt gran la diferència.
03:09
Daniel didn't get anything about the protests in Egypt at all
68
189260
3000
Daniel no va rebre res relatiu a les protestes d'Egipte
03:12
in his first page of Google results.
69
192260
2000
en la primera pàgina de resultats de Google.
03:14
Scott's results were full of them.
70
194260
2000
Els resultats de Scott n'estaven plens.
03:16
And this was the big story of the day at that time.
71
196260
2000
I aquesta era la història del dia en aquell moment.
03:18
That's how different these results are becoming.
72
198260
3000
Així és com de diferents s'estan convertint aquestos resultats.
03:21
So it's not just Google and Facebook either.
73
201260
3000
I tampoc passa només amb Google i Facebook.
03:24
This is something that's sweeping the Web.
74
204260
2000
Açò és una cosa que està arrasant la web.
03:26
There are a whole host of companies that are doing this kind of personalization.
75
206260
3000
Hi ha tot un munt d'empreses que estan fent aquest tipus de personalització.
03:29
Yahoo News, the biggest news site on the Internet,
76
209260
3000
Yahoo News, la major web de notícies a Internet,
03:32
is now personalized -- different people get different things.
77
212260
3000
és ara personalitzada -- diferents persones reben diferents notícies.
03:36
Huffington Post, the Washington Post, the New York Times --
78
216260
3000
Huffington Post, el Washington Post, el New York Times --
03:39
all flirting with personalization in various ways.
79
219260
3000
tots juguen amb la personalització d'alguna manera.
03:42
And this moves us very quickly
80
222260
3000
I açó ens duu molt ràpidament
03:45
toward a world in which
81
225260
2000
cap a un mon en què
03:47
the Internet is showing us what it thinks we want to see,
82
227260
4000
Internet ens mostra el que creu que volem veure,
03:51
but not necessarily what we need to see.
83
231260
3000
però no necessàriament el que necessitem veure.
03:54
As Eric Schmidt said,
84
234260
3000
Tal i com va dir Eric Schmidt,
03:57
"It will be very hard for people to watch or consume something
85
237260
3000
"Serà molt complicat per a la gent veure o consumir alguna cosa
04:00
that has not in some sense
86
240260
2000
que no ha estat, d'alguna manera,
04:02
been tailored for them."
87
242260
3000
preparat per a ells."
04:05
So I do think this is a problem.
88
245260
2000
I jo crec que açò és un problema.
04:07
And I think, if you take all of these filters together,
89
247260
3000
I pense que, si unim tots aquestos filtres,
04:10
you take all these algorithms,
90
250260
2000
si agafem tots aquestos algoritmes,
04:12
you get what I call a filter bubble.
91
252260
3000
aconseguim el que jo anomene "bombolla de filtres".
04:16
And your filter bubble is your own personal,
92
256260
3000
I la vostra "bombolla de filtres" és el vostre personal
04:19
unique universe of information
93
259260
2000
i únic univers d'informació
04:21
that you live in online.
94
261260
2000
en el què viviu en la xarxa.
04:23
And what's in your filter bubble
95
263260
3000
I el que hi ha en la vostra bombolla de filtres
04:26
depends on who you are, and it depends on what you do.
96
266260
3000
depén de qui sou, i depén de què feu.
04:29
But the thing is that you don't decide what gets in.
97
269260
4000
Però la cosa més important és que no decidiu que entra.
04:33
And more importantly,
98
273260
2000
I més important,
04:35
you don't actually see what gets edited out.
99
275260
3000
no veieu què es queda fora.
04:38
So one of the problems with the filter bubble
100
278260
2000
Un dels problemes de la bombolla de filtres
04:40
was discovered by some researchers at Netflix.
101
280260
3000
va ser descobert per uns investigadors a Netflix.
04:43
And they were looking at the Netflix queues, and they noticed something kind of funny
102
283260
3000
I quan estaven mirant les cues a Netflix, es van adonar d'una cosa graciosa
04:46
that a lot of us probably have noticed,
103
286260
2000
que probablement molts ja havíem notat,
04:48
which is there are some movies
104
288260
2000
i és que hi ha algunes pel·lícules
04:50
that just sort of zip right up and out to our houses.
105
290260
3000
que entren i de seguida ixen de les nostres cases.
04:53
They enter the queue, they just zip right out.
106
293260
3000
Entren a la cua, i ixen de seguida.
04:56
So "Iron Man" zips right out,
107
296260
2000
Per exemple, "Iron Man" ix de seguida
04:58
and "Waiting for Superman"
108
298260
2000
i "Esperant a Superman"
05:00
can wait for a really long time.
109
300260
2000
pot estar esperant molt de temps.
05:02
What they discovered
110
302260
2000
El que han descobert
05:04
was that in our Netflix queues
111
304260
2000
és que a les cues de Netflix
05:06
there's this epic struggle going on
112
306260
3000
hi ha aquesta batalla èpica
05:09
between our future aspirational selves
113
309260
3000
entre les nostres aspiracions futures
05:12
and our more impulsive present selves.
114
312260
3000
i els nostres impulsos presents.
05:15
You know we all want to be someone
115
315260
2000
Tots volem ser algú
05:17
who has watched "Rashomon,"
116
317260
2000
que ha vist "Rashomon",
05:19
but right now
117
319260
2000
però ara mateix
05:21
we want to watch "Ace Ventura" for the fourth time.
118
321260
3000
volem veure per quarta vegada "Ace Ventura".
05:24
(Laughter)
119
324260
3000
(Rises)
05:27
So the best editing gives us a bit of both.
120
327260
2000
La millor edició ens dóna una mica de cada.
05:29
It gives us a little bit of Justin Bieber
121
329260
2000
Ens dona un poc de Justin Bieber
05:31
and a little bit of Afghanistan.
122
331260
2000
i una miqueta d'Afganistan.
05:33
It gives us some information vegetables;
123
333260
2000
Ens dóna certa informació sobre verdures;
05:35
it gives us some information dessert.
124
335260
3000
ens dona també informació sobre les postres.
05:38
And the challenge with these kinds of algorithmic filters,
125
338260
2000
I la part complicada d'aquest tipus de filtres algorítmics,
05:40
these personalized filters,
126
340260
2000
d'aquestos filtres personalitzats,
05:42
is that, because they're mainly looking
127
342260
2000
és que, degut a que principalment es fixen
05:44
at what you click on first,
128
344260
4000
en què cliqueu primer,
05:48
it can throw off that balance.
129
348260
4000
poden trencar aquest equilibri.
05:52
And instead of a balanced information diet,
130
352260
3000
I en lloc d'informació per a una dieta equilibrada,
05:55
you can end up surrounded
131
355260
2000
podeu acabar rodejats
05:57
by information junk food.
132
357260
2000
d'informació de menjar escombraria.
05:59
What this suggests
133
359260
2000
El que açò suggereix
06:01
is actually that we may have the story about the Internet wrong.
134
361260
3000
és que potser ens hem equivocat en la història sobre Internet.
06:04
In a broadcast society --
135
364260
2000
En una societat de la transmissió --
06:06
this is how the founding mythology goes --
136
366260
2000
així és com es funda una mitologia --
06:08
in a broadcast society,
137
368260
2000
en una societat de la transmissió,
06:10
there were these gatekeepers, the editors,
138
370260
2000
hi havia aquestos guardians, els editors,
06:12
and they controlled the flows of information.
139
372260
3000
i ells controlaven els fluxes d'informació.
06:15
And along came the Internet and it swept them out of the way,
140
375260
3000
I quan va arribar Internet i els va apartar,
06:18
and it allowed all of us to connect together,
141
378260
2000
i ens va permetre connectar-nos junts,
06:20
and it was awesome.
142
380260
2000
va ser increïble.
06:22
But that's not actually what's happening right now.
143
382260
3000
Però no és el que està passant ara mateixa.
06:26
What we're seeing is more of a passing of the torch
144
386260
3000
El que estem veient és més una substitució
06:29
from human gatekeepers
145
389260
2000
dels guardians humans
06:31
to algorithmic ones.
146
391260
3000
a guardians algorítmics.
06:34
And the thing is that the algorithms
147
394260
3000
I el que passa és que els algorítmics
06:37
don't yet have the kind of embedded ethics
148
397260
3000
encara no tenen integrats els conceptes ètics
06:40
that the editors did.
149
400260
3000
que si que tenien els editors.
06:43
So if algorithms are going to curate the world for us,
150
403260
3000
De manera que si els algoritmes van a administrar-nos el món,
06:46
if they're going to decide what we get to see and what we don't get to see,
151
406260
3000
si van a decidir que anem a veure i què no,
06:49
then we need to make sure
152
409260
2000
hem d'estar segurs
06:51
that they're not just keyed to relevance.
153
411260
3000
que no són programats només per a la rellevància.
06:54
We need to make sure that they also show us things
154
414260
2000
Hem d'estar segurs que també ens mostren coses
06:56
that are uncomfortable or challenging or important --
155
416260
3000
que són incòmodes o qüestionables o importants --
06:59
this is what TED does --
156
419260
2000
açò és el que fa TED --
07:01
other points of view.
157
421260
2000
altres punts de vista.
07:03
And the thing is, we've actually been here before
158
423260
2000
I, a més, resulta que ja hem estat ací
07:05
as a society.
159
425260
2000
com a societat.
07:08
In 1915, it's not like newspapers were sweating a lot
160
428260
3000
El 1915 els periòdics no estaven massa implicats
07:11
about their civic responsibilities.
161
431260
3000
amb les seues responsabilitats cíviques.
07:14
Then people noticed
162
434260
2000
Aleshores la gent es va adonar
07:16
that they were doing something really important.
163
436260
3000
que feien una cosa realment important.
07:19
That, in fact, you couldn't have
164
439260
2000
Que, de fet, no podia existir
07:21
a functioning democracy
165
441260
2000
una democràcia que funcionara
07:23
if citizens didn't get a good flow of information,
166
443260
4000
si els ciutadans no rebien un bon fluxe d'informació,
07:28
that the newspapers were critical because they were acting as the filter,
167
448260
3000
i que els periòdics eren crucials degut a que actuaven com a filtre,
07:31
and then journalistic ethics developed.
168
451260
2000
i l'ètica periodística es va desenvolupar.
07:33
It wasn't perfect,
169
453260
2000
No era perfecte,
07:35
but it got us through the last century.
170
455260
3000
però ens va acompanyar tot el segle passat.
07:38
And so now,
171
458260
2000
I ara,
07:40
we're kind of back in 1915 on the Web.
172
460260
3000
tornem a estar al 1915 a la xarxa.
07:44
And we need the new gatekeepers
173
464260
3000
I necessitem els guardians
07:47
to encode that kind of responsibility
174
467260
2000
amb aquesta responsabilitat
07:49
into the code that they're writing.
175
469260
2000
dins del codi que estan escrivint.
07:51
I know that there are a lot of people here from Facebook and from Google --
176
471260
3000
Sé que hi ha molta gent ací de Facebook i de Google --
07:54
Larry and Sergey --
177
474260
2000
Larry i Sergey --
07:56
people who have helped build the Web as it is,
178
476260
2000
gent que ha ajudat a construir la Web com és ara,
07:58
and I'm grateful for that.
179
478260
2000
i els estic agraït.
08:00
But we really need you to make sure
180
480260
3000
Però realment necessitem assegurar-nos
08:03
that these algorithms have encoded in them
181
483260
3000
que aquests algoritmes contenen
08:06
a sense of the public life, a sense of civic responsibility.
182
486260
3000
un sentit de la vida pública, un sentit de la reponsabilitat cívica.
08:09
We need you to make sure that they're transparent enough
183
489260
3000
Necessitem que ens assegurem que són suficientment transparents
08:12
that we can see what the rules are
184
492260
2000
que podem veure quines regles són
08:14
that determine what gets through our filters.
185
494260
3000
les que determinen què passa a través dels filtres.
08:17
And we need you to give us some control
186
497260
2000
I necessitem que ens doneu una mica de control
08:19
so that we can decide
187
499260
2000
per a que puguem decidir
08:21
what gets through and what doesn't.
188
501260
3000
què passa i què no.
08:24
Because I think
189
504260
2000
Perquè crec que
08:26
we really need the Internet to be that thing
190
506260
2000
necessitem que Internet siga
08:28
that we all dreamed of it being.
191
508260
2000
allò que tots hem somniat que siga.
08:30
We need it to connect us all together.
192
510260
3000
Necessitem connectar-nos tots junts.
08:33
We need it to introduce us to new ideas
193
513260
3000
Necessitem que ens presente noves idees
08:36
and new people and different perspectives.
194
516260
3000
i nova gent i perspectives diferents.
08:40
And it's not going to do that
195
520260
2000
I açò no passarà
08:42
if it leaves us all isolated in a Web of one.
196
522260
3000
si ens deixa sols en una web d'un.
08:45
Thank you.
197
525260
2000
Gràcies
08:47
(Applause)
198
527260
11000
(Aplaudiments)
About this website

This site will introduce you to YouTube videos that are useful for learning English. You will see English lessons taught by top-notch teachers from around the world. Double-click on the English subtitles displayed on each video page to play the video from there. The subtitles scroll in sync with the video playback. If you have any comments or requests, please contact us using this contact form.

https://forms.gle/WvT1wiN1qDtmnspy7