Beware online "filter bubbles" | Eli Pariser

Eli Pariser: cuidado con la "burbuja de filtros" en la red

1,552,127 views

2011-05-02 ・ TED


New videos

Beware online "filter bubbles" | Eli Pariser

Eli Pariser: cuidado con la "burbuja de filtros" en la red

1,552,127 views ・ 2011-05-02

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Sebastian Betti Revisor: Eduardo Sierra
00:15
Mark Zuckerberg,
0
15260
2000
A Mark Zuckerberg
00:17
a journalist was asking him a question about the news feed.
1
17260
3000
un periodista le preguntó sobre la redifusión de contenidos web.
00:20
And the journalist was asking him,
2
20260
2000
La pregunta era:
00:22
"Why is this so important?"
3
22260
2000
¿por qué es tan importante?
00:24
And Zuckerberg said,
4
24260
2000
Y Zuckerberg le contestó:
00:26
"A squirrel dying in your front yard
5
26260
2000
"Saber que una ardilla se muere en tu jardín
00:28
may be more relevant to your interests right now
6
28260
3000
puede ser más relevante en este momento para tus intereses
00:31
than people dying in Africa."
7
31260
3000
que saber que muere gente en África".
00:34
And I want to talk about
8
34260
2000
Quiero hablar de
00:36
what a Web based on that idea of relevance might look like.
9
36260
3000
cómo sería la Red si se basara en esa idea de relevancia.
00:40
So when I was growing up
10
40260
2000
Crecí
00:42
in a really rural area in Maine,
11
42260
2000
en una zona rural de Maine
00:44
the Internet meant something very different to me.
12
44260
3000
y entonces, para mí, Internet era algo muy distinto.
00:47
It meant a connection to the world.
13
47260
2000
Era una conexión con el mundo.
00:49
It meant something that would connect us all together.
14
49260
3000
Era algo que nos conectaba a todos.
00:52
And I was sure that it was going to be great for democracy
15
52260
3000
Y estaba seguro de que sería genial para la democracia
00:55
and for our society.
16
55260
3000
y para nuestra sociedad.
00:58
But there's this shift
17
58260
2000
Pero ha cambiado la manera
01:00
in how information is flowing online,
18
60260
2000
en la que circula la información en la red
01:02
and it's invisible.
19
62260
3000
y este cambio es imperceptible.
01:05
And if we don't pay attention to it,
20
65260
2000
Y si no prestamos atención
01:07
it could be a real problem.
21
67260
3000
puede convertirse en un problema grave.
01:10
So I first noticed this in a place I spend a lot of time --
22
70260
3000
Noté el cambio por primera vez en una página en la que paso mucho tiempo:
01:13
my Facebook page.
23
73260
2000
Facebook.
01:15
I'm progressive, politically -- big surprise --
24
75260
3000
En política soy progresista (¡vaya sorpresa!)
01:18
but I've always gone out of my way to meet conservatives.
25
78260
2000
pero siempre estoy abierto a las ideas de los conservadores.
01:20
I like hearing what they're thinking about;
26
80260
2000
Me gusta escuchar sus ideas;
01:22
I like seeing what they link to;
27
82260
2000
me gusta ver los enlaces que comparten;
01:24
I like learning a thing or two.
28
84260
2000
me gusta enterarme de algunas cosas.
01:26
And so I was surprised when I noticed one day
29
86260
3000
Por eso me sorprendió darme cuenta un día
01:29
that the conservatives had disappeared from my Facebook feed.
30
89260
3000
de que los conservadores habían desaparecido de las novedades de Facebook.
01:33
And what it turned out was going on
31
93260
2000
Lo que había pasado
01:35
was that Facebook was looking at which links I clicked on,
32
95260
4000
era que Facebook estaba controlando en qué enlaces hacía clic
01:39
and it was noticing that, actually,
33
99260
2000
y que se había dado cuenta de que, realmente,
01:41
I was clicking more on my liberal friends' links
34
101260
2000
hacia clic con más frecuencia en los enlaces de mis amigos progresistas
01:43
than on my conservative friends' links.
35
103260
3000
que en los de mis amigos conservadores.
01:46
And without consulting me about it,
36
106260
2000
Y sin consultarme
01:48
it had edited them out.
37
108260
2000
excluyó a los últimos.
01:50
They disappeared.
38
110260
3000
Desaparecieron.
01:54
So Facebook isn't the only place
39
114260
2000
Pero Facebook no es la única página
01:56
that's doing this kind of invisible, algorithmic
40
116260
2000
que hace esta edición invisible
01:58
editing of the Web.
41
118260
3000
y algorítmica de la Red.
02:01
Google's doing it too.
42
121260
2000
Google también lo hace.
02:03
If I search for something, and you search for something,
43
123260
3000
Si yo realizo una búsqueda y ustedes realizan una búsqueda,
02:06
even right now at the very same time,
44
126260
2000
incluso si lo hacemos al mismo tiempo,
02:08
we may get very different search results.
45
128260
3000
podríamos obtener resultados de búsqueda muy diferentes.
02:11
Even if you're logged out, one engineer told me,
46
131260
3000
Un ingeniero me contó que, incluso sin estar conectado,
02:14
there are 57 signals
47
134260
2000
hay 57 indicios
02:16
that Google looks at --
48
136260
3000
que Google tiene en cuenta
02:19
everything from what kind of computer you're on
49
139260
3000
-desde el tipo de computadora y explorador
02:22
to what kind of browser you're using
50
142260
2000
que se está usando,
02:24
to where you're located --
51
144260
2000
hasta la ubicación-
02:26
that it uses to personally tailor your query results.
52
146260
3000
para personalizar los resultados.
02:29
Think about it for a second:
53
149260
2000
Piénsenlo durante un segundo,
02:31
there is no standard Google anymore.
54
151260
4000
ya no existe un Google estándar.
02:35
And you know, the funny thing about this is that it's hard to see.
55
155260
3000
¿Y saben qué? Lo más gracioso es que es difícil de ver.
02:38
You can't see how different your search results are
56
158260
2000
Uno no puede ver lo diferentes que son sus búsquedas
02:40
from anyone else's.
57
160260
2000
de las de los demás.
02:42
But a couple of weeks ago,
58
162260
2000
Pero hace un par de semanas
02:44
I asked a bunch of friends to Google "Egypt"
59
164260
3000
le pedí a un puñado de amigos que googlearan "Egipto"
02:47
and to send me screen shots of what they got.
60
167260
3000
y que me enviaran capturas de pantalla de los resultados.
02:50
So here's my friend Scott's screen shot.
61
170260
3000
Esta es la captura de pantalla de mi amigo Scott.
02:54
And here's my friend Daniel's screen shot.
62
174260
3000
Y esta la de mi amigo Daniel.
02:57
When you put them side-by-side,
63
177260
2000
Si las ponemos lado a lado
02:59
you don't even have to read the links
64
179260
2000
ni siquiera tenemos que leer los enlaces
03:01
to see how different these two pages are.
65
181260
2000
para ver lo diferentes que son.
03:03
But when you do read the links,
66
183260
2000
Pero si leemos los enlaces
03:05
it's really quite remarkable.
67
185260
3000
es muy notable.
03:09
Daniel didn't get anything about the protests in Egypt at all
68
189260
3000
A Daniel no le aparece nada de las protestas en Egipto
03:12
in his first page of Google results.
69
192260
2000
en su portada de resultados de Google.
03:14
Scott's results were full of them.
70
194260
2000
En los resultados de Scott aparece mucho.
03:16
And this was the big story of the day at that time.
71
196260
2000
Y esa era la historia del día en ese momento.
03:18
That's how different these results are becoming.
72
198260
3000
Así de diferentes se están volviendo los resultados.
03:21
So it's not just Google and Facebook either.
73
201260
3000
Y no se trata sólo de Google y Facebook.
03:24
This is something that's sweeping the Web.
74
204260
2000
Esto está arrasando la Red.
03:26
There are a whole host of companies that are doing this kind of personalization.
75
206260
3000
Hay toda una serie de empresas que están haciendo este tipo de personalización.
03:29
Yahoo News, the biggest news site on the Internet,
76
209260
3000
Yahoo News, el sitio más grande de noticias de Internet,
03:32
is now personalized -- different people get different things.
77
212260
3000
ahora es personalizado; distintas personas obtienen distintas cosas.
03:36
Huffington Post, the Washington Post, the New York Times --
78
216260
3000
Huffington Post, Washington Post, New York Times
03:39
all flirting with personalization in various ways.
79
219260
3000
todos coquetean con algún tipo de personalización.
03:42
And this moves us very quickly
80
222260
3000
Y esto marcha muy rápido
03:45
toward a world in which
81
225260
2000
hacia un mundo en el cual
03:47
the Internet is showing us what it thinks we want to see,
82
227260
4000
Internet nos va a mostrar lo que piense que queremos ver
03:51
but not necessarily what we need to see.
83
231260
3000
y no necesariamente lo que tenemos que ver.
03:54
As Eric Schmidt said,
84
234260
3000
Como dijo Eric Schmidt:
03:57
"It will be very hard for people to watch or consume something
85
237260
3000
"Va a ser muy difícil que las personas miren o consuman algo
04:00
that has not in some sense
86
240260
2000
que en alguna medida no haya
04:02
been tailored for them."
87
242260
3000
sido hecho a medida para ellas".
04:05
So I do think this is a problem.
88
245260
2000
Creo que esto es un problema.
04:07
And I think, if you take all of these filters together,
89
247260
3000
Si uno junta todos estos filtros,
04:10
you take all these algorithms,
90
250260
2000
todos estos algoritmos,
04:12
you get what I call a filter bubble.
91
252260
3000
obtiene lo que llamo la «burbuja de filtros».
04:16
And your filter bubble is your own personal,
92
256260
3000
La burbuja de filtros es el universo propio,
04:19
unique universe of information
93
259260
2000
personal, único, de información
04:21
that you live in online.
94
261260
2000
que uno vive en la red.
04:23
And what's in your filter bubble
95
263260
3000
Y lo que haya en la burbuja de filtros
04:26
depends on who you are, and it depends on what you do.
96
266260
3000
depende de quién uno es, y de lo que uno hace.
04:29
But the thing is that you don't decide what gets in.
97
269260
4000
Pero la cosa es que uno no decide que es lo que entra.
04:33
And more importantly,
98
273260
2000
Y, más importante aún,
04:35
you don't actually see what gets edited out.
99
275260
3000
no vemos qué es lo que se elimina.
04:38
So one of the problems with the filter bubble
100
278260
2000
Unos investigadores de Netflix
04:40
was discovered by some researchers at Netflix.
101
280260
3000
detectaron problemas con la burbuja de filtros.
04:43
And they were looking at the Netflix queues, and they noticed something kind of funny
102
283260
3000
Estaban mirando las listas de Netflix y notaron algo gracioso,
04:46
that a lot of us probably have noticed,
103
286260
2000
que a muchos seguro nos ha pasado,
04:48
which is there are some movies
104
288260
2000
y es que algunas películas
04:50
that just sort of zip right up and out to our houses.
105
290260
3000
aparecen y desaparecen de nuestras listas.
04:53
They enter the queue, they just zip right out.
106
293260
3000
Entran a la lista y desaparecen enseguida.
04:56
So "Iron Man" zips right out,
107
296260
2000
"Iron Man" desaparece
04:58
and "Waiting for Superman"
108
298260
2000
y "Esperando a Súperman"
05:00
can wait for a really long time.
109
300260
2000
puede quedar mucho tiempo.
05:02
What they discovered
110
302260
2000
Lo que descubrieron
05:04
was that in our Netflix queues
111
304260
2000
es que en nuestras listas de Netflix
05:06
there's this epic struggle going on
112
306260
3000
ocurren estas batallas épicas
05:09
between our future aspirational selves
113
309260
3000
entre nuestras aspiraciones futuras
05:12
and our more impulsive present selves.
114
312260
3000
y nuestro yo impulsivo del momento.
05:15
You know we all want to be someone
115
315260
2000
Ya saben, a todos nos gustaría
05:17
who has watched "Rashomon,"
116
317260
2000
haber visto "Rashōmon"
05:19
but right now
117
319260
2000
pero en este momento
05:21
we want to watch "Ace Ventura" for the fourth time.
118
321260
3000
queremos ver "Ace Ventura" por cuarta vez.
05:24
(Laughter)
119
324260
3000
(Risas)
05:27
So the best editing gives us a bit of both.
120
327260
2000
Por eso la mejor edición nos da lo mejor de ambas cosas.
05:29
It gives us a little bit of Justin Bieber
121
329260
2000
Nos da un poco de Justin Bieber
05:31
and a little bit of Afghanistan.
122
331260
2000
y un poco de Afganistán.
05:33
It gives us some information vegetables;
123
333260
2000
Nos da algunos vegetales informativos
05:35
it gives us some information dessert.
124
335260
3000
y nos da algunos postres informativos.
05:38
And the challenge with these kinds of algorithmic filters,
125
338260
2000
El desafío de estos filtros algorítmicos,
05:40
these personalized filters,
126
340260
2000
de estos filtros personalizados,
05:42
is that, because they're mainly looking
127
342260
2000
es que al basarse principalmente
05:44
at what you click on first,
128
344260
4000
en lo que uno cliquea primero
05:48
it can throw off that balance.
129
348260
4000
pueden alterar ese equilibrio.
05:52
And instead of a balanced information diet,
130
352260
3000
Y en vez de tener una dieta informativa balanceada
05:55
you can end up surrounded
131
355260
2000
uno termine rodeado
05:57
by information junk food.
132
357260
2000
de comida chatarra informativa.
05:59
What this suggests
133
359260
2000
Esto sugiere
06:01
is actually that we may have the story about the Internet wrong.
134
361260
3000
que quizá hemos interpretado mal la historia de Internet.
06:04
In a broadcast society --
135
364260
2000
En una sociedad de la difusión
06:06
this is how the founding mythology goes --
136
366260
2000
-eso dice el mito fundador-
06:08
in a broadcast society,
137
368260
2000
en una sociedad de la difusión
06:10
there were these gatekeepers, the editors,
138
370260
2000
estaban estos porteros, los editores,
06:12
and they controlled the flows of information.
139
372260
3000
que controlaban el flujo de la información.
06:15
And along came the Internet and it swept them out of the way,
140
375260
3000
Y luego aparece Internet y arrasa con ellos
06:18
and it allowed all of us to connect together,
141
378260
2000
y nos permite a todos nosotros conectarnos unos a otros,
06:20
and it was awesome.
142
380260
2000
y eso fue genial.
06:22
But that's not actually what's happening right now.
143
382260
3000
Pero eso no es lo que está sucediendo ahora.
06:26
What we're seeing is more of a passing of the torch
144
386260
3000
Lo que estamos viendo se parece más a un pasaje de antorcha
06:29
from human gatekeepers
145
389260
2000
entre los porteros humanos
06:31
to algorithmic ones.
146
391260
3000
y los algorítmicos.
06:34
And the thing is that the algorithms
147
394260
3000
Y el problema es que los algoritmos
06:37
don't yet have the kind of embedded ethics
148
397260
3000
todavía no tienen incorporados los principios éticos
06:40
that the editors did.
149
400260
3000
que tenían los editores.
06:43
So if algorithms are going to curate the world for us,
150
403260
3000
Entonces, si los algoritmos nos van a seleccionar el contenido,
06:46
if they're going to decide what we get to see and what we don't get to see,
151
406260
3000
si van a decidir qué veremos y qué no,
06:49
then we need to make sure
152
409260
2000
entonces tenemos que asegurarnos
06:51
that they're not just keyed to relevance.
153
411260
3000
de que no sólo se guían por la relevancia.
06:54
We need to make sure that they also show us things
154
414260
2000
Tenemos que asegurarnos de que también nos muestran cosas
06:56
that are uncomfortable or challenging or important --
155
416260
3000
incómodas, estimulantes o importantes
06:59
this is what TED does --
156
419260
2000
-eso hace TED-
07:01
other points of view.
157
421260
2000
otros puntos de vista.
07:03
And the thing is, we've actually been here before
158
423260
2000
El punto es que hemos pasado por esto antes
07:05
as a society.
159
425260
2000
como sociedad.
07:08
In 1915, it's not like newspapers were sweating a lot
160
428260
3000
No es que en 1915 los periódicos se preocuparan mucho
07:11
about their civic responsibilities.
161
431260
3000
por sus responsabilidades cívicas.
07:14
Then people noticed
162
434260
2000
Después, la gente se dio cuenta
07:16
that they were doing something really important.
163
436260
3000
de que servían para algo muy importante.
07:19
That, in fact, you couldn't have
164
439260
2000
Que, de hecho, no se puede tener
07:21
a functioning democracy
165
441260
2000
una democracia que funcione
07:23
if citizens didn't get a good flow of information,
166
443260
4000
si los ciudadanos no acceden a un buen flujo de información.
07:28
that the newspapers were critical because they were acting as the filter,
167
448260
3000
Que los periódicos eran críticos porque actuaban de filtro
07:31
and then journalistic ethics developed.
168
451260
2000
y entonces nace la ética periodística.
07:33
It wasn't perfect,
169
453260
2000
No era perfecta
07:35
but it got us through the last century.
170
455260
3000
pero con eso pudimos atravesar el siglo pasado.
07:38
And so now,
171
458260
2000
Y ahora
07:40
we're kind of back in 1915 on the Web.
172
460260
3000
es como que estamos en el 1915 de la Red.
07:44
And we need the new gatekeepers
173
464260
3000
Y necesitamos que los nuevos porteros
07:47
to encode that kind of responsibility
174
467260
2000
incluyan este tipo de responsabilidad
07:49
into the code that they're writing.
175
469260
2000
en el código que están escribiendo.
07:51
I know that there are a lot of people here from Facebook and from Google --
176
471260
3000
Sé que entre los presentes hay gente de Facebook y Google
07:54
Larry and Sergey --
177
474260
2000
-Larry y Sergey-
07:56
people who have helped build the Web as it is,
178
476260
2000
personas que han ayudado a construir la Red tal como es
07:58
and I'm grateful for that.
179
478260
2000
y les agradezco eso.
08:00
But we really need you to make sure
180
480260
3000
Pero realmente necesitamos que nos aseguren
08:03
that these algorithms have encoded in them
181
483260
3000
que estos algoritmos contienen
08:06
a sense of the public life, a sense of civic responsibility.
182
486260
3000
un sentido de la vida pública, un sentido de responsabilidad cívica.
08:09
We need you to make sure that they're transparent enough
183
489260
3000
Necesitamos que nos aseguren que son suficientemente transparentes,
08:12
that we can see what the rules are
184
492260
2000
que podemos ver cuáles son las reglas
08:14
that determine what gets through our filters.
185
494260
3000
que determinan lo que pasa por nuestros filtros.
08:17
And we need you to give us some control
186
497260
2000
Y necesitamos que nos den algún control
08:19
so that we can decide
187
499260
2000
para poder decidir
08:21
what gets through and what doesn't.
188
501260
3000
qué pasa y que no pasa.
08:24
Because I think
189
504260
2000
Porque creo
08:26
we really need the Internet to be that thing
190
506260
2000
que realmente necesitamos que Internet sea eso
08:28
that we all dreamed of it being.
191
508260
2000
que todos soñamos que fuera.
08:30
We need it to connect us all together.
192
510260
3000
Necesitamos que nos conecte a todos.
08:33
We need it to introduce us to new ideas
193
513260
3000
Necesitamos que nos presente nuevas ideas,
08:36
and new people and different perspectives.
194
516260
3000
nuevas personas y distintas perspectivas.
08:40
And it's not going to do that
195
520260
2000
Y esto no va a ser posible
08:42
if it leaves us all isolated in a Web of one.
196
522260
3000
si nos aísla en una Red unipersonal.
08:45
Thank you.
197
525260
2000
Gracias.
08:47
(Applause)
198
527260
11000
(Aplausos)
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7