Beware online "filter bubbles" | Eli Pariser

1,551,917 views ・ 2011-05-02

TED


Fare doppio clic sui sottotitoli in inglese per riprodurre il video.

Traduttore: Daniele Buratti Revisore: Elena Montrasio
00:15
Mark Zuckerberg,
0
15260
2000
Mark Zuckerberg,
00:17
a journalist was asking him a question about the news feed.
1
17260
3000
un giornalista gli aveva posto una domanda sulla logica delle notizie proposte.
00:20
And the journalist was asking him,
2
20260
2000
La domanda era,
00:22
"Why is this so important?"
3
22260
2000
"Perché è tanto importante?"
00:24
And Zuckerberg said,
4
24260
2000
E Zuckerberg,
00:26
"A squirrel dying in your front yard
5
26260
2000
"Uno scoiattolo morente nel tuo giardino
00:28
may be more relevant to your interests right now
6
28260
3000
potrebbe essere più vicino ai tuoi interessi, in questo momento,
00:31
than people dying in Africa."
7
31260
3000
di quanto lo sia la gente che muore in Africa."
00:34
And I want to talk about
8
34260
2000
Io vi voglio parlare di quali risvolti
00:36
what a Web based on that idea of relevance might look like.
9
36260
3000
potrebbe avere una Rete che si basi sull'aspetto di rilevanza delle notizie.
00:40
So when I was growing up
10
40260
2000
Durante la mia adolescenza
00:42
in a really rural area in Maine,
11
42260
2000
in una zona rurale del Maine,
00:44
the Internet meant something very different to me.
12
44260
3000
Internet aveva per me un significato molto diverso.
00:47
It meant a connection to the world.
13
47260
2000
Era una connessione con il mondo.
00:49
It meant something that would connect us all together.
14
49260
3000
Qualcosa che ci avrebbe unito tutti.
00:52
And I was sure that it was going to be great for democracy
15
52260
3000
Ero sicuro che sarebbe stato grandioso per la democrazia
00:55
and for our society.
16
55260
3000
e per la società.
00:58
But there's this shift
17
58260
2000
Ma ora c'è questo cambiamento
01:00
in how information is flowing online,
18
60260
2000
del modo in cui le informazioni vengono fornite,
01:02
and it's invisible.
19
62260
3000
ed è impercettibile.
01:05
And if we don't pay attention to it,
20
65260
2000
Se non gli prestiamo attenzione
01:07
it could be a real problem.
21
67260
3000
ci potremmo trovare presto nei guai.
01:10
So I first noticed this in a place I spend a lot of time --
22
70260
3000
Ho cominciato a rendermene conto in un luogo in cui passo molto tempo --
01:13
my Facebook page.
23
73260
2000
la mia pagina di Facebook.
01:15
I'm progressive, politically -- big surprise --
24
75260
3000
Politicamente -- senti senti -- sono progressista --
01:18
but I've always gone out of my way to meet conservatives.
25
78260
2000
ma sono sempre stato aperto alle idee dei conservatori.
01:20
I like hearing what they're thinking about;
26
80260
2000
Mi piace ascoltare come la pensino;
01:22
I like seeing what they link to;
27
82260
2000
vedere i loro riferimenti;
01:24
I like learning a thing or two.
28
84260
2000
mi piace sempre imparare qualcosa.
01:26
And so I was surprised when I noticed one day
29
86260
3000
Perciò un giorno sono rimasto sorpreso nel vedere
01:29
that the conservatives had disappeared from my Facebook feed.
30
89260
3000
che i conservatori erano scomparsi dal mio aggregatore di notizie su Facebook.
01:33
And what it turned out was going on
31
93260
2000
E quello che ho scoperto
01:35
was that Facebook was looking at which links I clicked on,
32
95260
4000
è che Facebook prendeva nota dei siti che visitavo
01:39
and it was noticing that, actually,
33
99260
2000
determinando che, effettivamente,
01:41
I was clicking more on my liberal friends' links
34
101260
2000
visitavo maggiormente i siti dei miei amici liberali
01:43
than on my conservative friends' links.
35
103260
3000
rispetto a quelli degli amici conservatori.
01:46
And without consulting me about it,
36
106260
2000
E senza alcun preavviso
01:48
it had edited them out.
37
108260
2000
li ha esclusi dal mio mondo.
01:50
They disappeared.
38
110260
3000
Scomparsi.
01:54
So Facebook isn't the only place
39
114260
2000
Ma Facebook non è l'unico
01:56
that's doing this kind of invisible, algorithmic
40
116260
2000
a operare questa selezione algoritmica e invisibile
01:58
editing of the Web.
41
118260
3000
dei contenuti della Rete.
02:01
Google's doing it too.
42
121260
2000
Anche Google lo fa.
02:03
If I search for something, and you search for something,
43
123260
3000
Se io e te facciamo una ricerca,
02:06
even right now at the very same time,
44
126260
2000
proprio adesso e contemporaneamente,
02:08
we may get very different search results.
45
128260
3000
potremmo ottenere risultati molto diversi.
02:11
Even if you're logged out, one engineer told me,
46
131260
3000
Anche se non sei connesso, mi ha detto un ingegnere,
02:14
there are 57 signals
47
134260
2000
ci sono 57 segnali
02:16
that Google looks at --
48
136260
3000
che vengono analizzati da Google --
02:19
everything from what kind of computer you're on
49
139260
3000
qualsiasi cosa, dal computer che stai utilizzando
02:22
to what kind of browser you're using
50
142260
2000
al tuo programma di navigazione,
02:24
to where you're located --
51
144260
2000
e anche dove ti trovi --
02:26
that it uses to personally tailor your query results.
52
146260
3000
li usa per adattare a te i risultati della ricerca.
02:29
Think about it for a second:
53
149260
2000
Pensateci un attimo:
02:31
there is no standard Google anymore.
54
151260
4000
non c'è più un Google uguale per tutti.
02:35
And you know, the funny thing about this is that it's hard to see.
55
155260
3000
E sapete, la cosa divertente è che non è facile accorgersene.
02:38
You can't see how different your search results are
56
158260
2000
Voi non potete vedere quanto i risultati della vostra ricerca
02:40
from anyone else's.
57
160260
2000
siano diversi da quelli degli altri.
02:42
But a couple of weeks ago,
58
162260
2000
Un paio di settimane fa
02:44
I asked a bunch of friends to Google "Egypt"
59
164260
3000
ho chiesto ad alcuni amici di Google "Egitto"
02:47
and to send me screen shots of what they got.
60
167260
3000
di inviarmi le loro schermate della pagina principale del sito.
02:50
So here's my friend Scott's screen shot.
61
170260
3000
Questa è quella del mio amico Scott.
02:54
And here's my friend Daniel's screen shot.
62
174260
3000
E questa è quella di Daniel.
02:57
When you put them side-by-side,
63
177260
2000
Se le confrontate
02:59
you don't even have to read the links
64
179260
2000
non c'è nemmeno bisogno di leggere i collegamenti
03:01
to see how different these two pages are.
65
181260
2000
per notare quanto siano diverse.
03:03
But when you do read the links,
66
183260
2000
Ma se poi leggete i collegamenti
03:05
it's really quite remarkable.
67
185260
3000
scoprirete qualcosa di interessante.
03:09
Daniel didn't get anything about the protests in Egypt at all
68
189260
3000
Sul sito di Daniel non c'erano riferimenti alle proteste in Egitto
03:12
in his first page of Google results.
69
192260
2000
nella prima pagina di risultati.
03:14
Scott's results were full of them.
70
194260
2000
Mentre quella di Scott ne era piena.
03:16
And this was the big story of the day at that time.
71
196260
2000
Questa era la notizia del giorno all'epoca.
03:18
That's how different these results are becoming.
72
198260
3000
Ecco quanto possono essere diversi i risultati.
03:21
So it's not just Google and Facebook either.
73
201260
3000
E non è limitato a Google e Facebook.
03:24
This is something that's sweeping the Web.
74
204260
2000
Sta succedendo dappertutto nella Rete.
03:26
There are a whole host of companies that are doing this kind of personalization.
75
206260
3000
C'è un gran numero di aziende che sta operando questa personalizzazione.
03:29
Yahoo News, the biggest news site on the Internet,
76
209260
3000
Yahoo News, il maggiore sito di notizie di Internet
03:32
is now personalized -- different people get different things.
77
212260
3000
ora è personalizzato -- persone diverse ottengono informazioni diverse.
03:36
Huffington Post, the Washington Post, the New York Times --
78
216260
3000
L'Huffington Post, il Wasihngton Post, il New York Times --
03:39
all flirting with personalization in various ways.
79
219260
3000
tutti, in vari modi, civettano con la personalizzazione.
03:42
And this moves us very quickly
80
222260
3000
E ci troveremo presto
03:45
toward a world in which
81
225260
2000
in un mondo in cui
03:47
the Internet is showing us what it thinks we want to see,
82
227260
4000
Internet ci mostrerà ciò che pensa noi vogliamo vedere,
03:51
but not necessarily what we need to see.
83
231260
3000
ma non necessariamente quello che dovremmo vedere.
03:54
As Eric Schmidt said,
84
234260
3000
Come ha detto Eric Schmidt,
03:57
"It will be very hard for people to watch or consume something
85
237260
3000
"Sarà molto difficile per le persone vedere o consumare qualcosa
04:00
that has not in some sense
86
240260
2000
che non sia stato in qualche modo
04:02
been tailored for them."
87
242260
3000
fatto su misura per loro."
04:05
So I do think this is a problem.
88
245260
2000
E penso che questo sia un problema.
04:07
And I think, if you take all of these filters together,
89
247260
3000
Penso che, se mettiamo insieme tutti questi filtri,
04:10
you take all these algorithms,
90
250260
2000
tutti gli algoritmi,
04:12
you get what I call a filter bubble.
91
252260
3000
otteniamo qualcosa che chiamo "gabbia di filtri".
04:16
And your filter bubble is your own personal,
92
256260
3000
E la vostra gabbia rappresenta il vostro universo
04:19
unique universe of information
93
259260
2000
personale e unico di informazioni
04:21
that you live in online.
94
261260
2000
che vivete online.
04:23
And what's in your filter bubble
95
263260
3000
Ciò che troverete nella vostra gabbia
04:26
depends on who you are, and it depends on what you do.
96
266260
3000
dipende da chi siete e da che cosa fate.
04:29
But the thing is that you don't decide what gets in.
97
269260
4000
Il problema è che voi non prendete decisioni su cosa debba entrare.
04:33
And more importantly,
98
273260
2000
Ancora più importante,
04:35
you don't actually see what gets edited out.
99
275260
3000
non riuscite a vedere cosa ne resta fuori.
04:38
So one of the problems with the filter bubble
100
278260
2000
Dunque uno dei problemi di questa gabbia
04:40
was discovered by some researchers at Netflix.
101
280260
3000
è stato scoperto da alcuni ricercatori di Netflix.
04:43
And they were looking at the Netflix queues, and they noticed something kind of funny
102
283260
3000
Analizzando le richieste di noleggio di film degli utenti si sono accorti di qualcosa di strano
04:46
that a lot of us probably have noticed,
103
286260
2000
che forse hanno notato anche molti di voi,
04:48
which is there are some movies
104
288260
2000
ossia che ci sono alcuni titoli
04:50
that just sort of zip right up and out to our houses.
105
290260
3000
che appaiono o scompaiono dalle nostre liste.
04:53
They enter the queue, they just zip right out.
106
293260
3000
Entrano in lista ma all'improvviso vengono tolti.
04:56
So "Iron Man" zips right out,
107
296260
2000
E magari "Iron Man" scompare
04:58
and "Waiting for Superman"
108
298260
2000
mentre "Aspettando Superman"
05:00
can wait for a really long time.
109
300260
2000
ci rimane per molto tempo.
05:02
What they discovered
110
302260
2000
Si sono accorti
05:04
was that in our Netflix queues
111
304260
2000
che tra le liste di Netflix
05:06
there's this epic struggle going on
112
306260
3000
è in corso una battaglia epica
05:09
between our future aspirational selves
113
309260
3000
tra le nostre aspirazioni future
05:12
and our more impulsive present selves.
114
312260
3000
e quello che vogliamo impulsivamente adesso.
05:15
You know we all want to be someone
115
315260
2000
Sapete, noi tutti vorremmo
05:17
who has watched "Rashomon,"
116
317260
2000
aver visto "Rashomon",
05:19
but right now
117
319260
2000
ma in questo momento
05:21
we want to watch "Ace Ventura" for the fourth time.
118
321260
3000
vogliamo guardare "Ace Ventura" per la quarta volta.
05:24
(Laughter)
119
324260
3000
(Risate)
05:27
So the best editing gives us a bit of both.
120
327260
2000
Certo il massimo sarebbe avere un po' di entrambi.
05:29
It gives us a little bit of Justin Bieber
121
329260
2000
Un po' di Justin Bieber
05:31
and a little bit of Afghanistan.
122
331260
2000
e un po' di Afghanistan.
05:33
It gives us some information vegetables;
123
333260
2000
Un po' di contorno
05:35
it gives us some information dessert.
124
335260
3000
e un po' di dessert.
05:38
And the challenge with these kinds of algorithmic filters,
125
338260
2000
La sfida con questo tipo di filtri algoritmici,
05:40
these personalized filters,
126
340260
2000
questi filtri personalizzati,
05:42
is that, because they're mainly looking
127
342260
2000
è che, dato che rilevano prevalentemente
05:44
at what you click on first,
128
344260
4000
cosa viene cliccato per primo,
05:48
it can throw off that balance.
129
348260
4000
possono alterare questo equilibrio.
05:52
And instead of a balanced information diet,
130
352260
3000
E invece di informazioni equilibrate
05:55
you can end up surrounded
131
355260
2000
alla fine avrete
05:57
by information junk food.
132
357260
2000
informazioni spazzatura.
05:59
What this suggests
133
359260
2000
Questo ci suggerisce
06:01
is actually that we may have the story about the Internet wrong.
134
361260
3000
che forse abbiamo interpretato male la storia di Internet.
06:04
In a broadcast society --
135
364260
2000
In una società di trasmisisoni --
06:06
this is how the founding mythology goes --
136
366260
2000
è così che nascono i miti --
06:08
in a broadcast society,
137
368260
2000
in una società di trasmissioni --
06:10
there were these gatekeepers, the editors,
138
370260
2000
c'erano i guardiani, gli editori,
06:12
and they controlled the flows of information.
139
372260
3000
che controllavano i flussi di informazioni.
06:15
And along came the Internet and it swept them out of the way,
140
375260
3000
E poi venne Internet che li spazzò via
06:18
and it allowed all of us to connect together,
141
378260
2000
e permise a tutti noi di collegarci l'un l'altro,
06:20
and it was awesome.
142
380260
2000
ed era fantastico.
06:22
But that's not actually what's happening right now.
143
382260
3000
Ma non è quello che sta succedendo adesso.
06:26
What we're seeing is more of a passing of the torch
144
386260
3000
Ciò a cui stiamo assistendo è più che altro il passaggio del testimone
06:29
from human gatekeepers
145
389260
2000
dai guardiani umani
06:31
to algorithmic ones.
146
391260
3000
a quelli algoritmici.
06:34
And the thing is that the algorithms
147
394260
3000
Il problema è che gli algoritmi
06:37
don't yet have the kind of embedded ethics
148
397260
3000
non hanno ancora incorporato i principi etici
06:40
that the editors did.
149
400260
3000
propri degli editori.
06:43
So if algorithms are going to curate the world for us,
150
403260
3000
Dunque se gli algoritmi dovranno prendersi cura del mondo in nostra vece,
06:46
if they're going to decide what we get to see and what we don't get to see,
151
406260
3000
se ci diranno cosa vedere e cosa non vedere,
06:49
then we need to make sure
152
409260
2000
allora dobbiamo assicurarci
06:51
that they're not just keyed to relevance.
153
411260
3000
che non siano guidati unicamente dalla rilevanza.
06:54
We need to make sure that they also show us things
154
414260
2000
Dobbiamo far sì che ci mostrino anche cose
06:56
that are uncomfortable or challenging or important --
155
416260
3000
scomode o stimolanti o importanti --
06:59
this is what TED does --
156
419260
2000
è quello che fa TED --
07:01
other points of view.
157
421260
2000
punti di vista differenti.
07:03
And the thing is, we've actually been here before
158
423260
2000
Abbiamo già vissuto questa esperienza
07:05
as a society.
159
425260
2000
come società.
07:08
In 1915, it's not like newspapers were sweating a lot
160
428260
3000
Nel 1915 non è che i giornali si preoccupassero molto
07:11
about their civic responsibilities.
161
431260
3000
della loro responsabilità civile.
07:14
Then people noticed
162
434260
2000
Ma poi la gente si accorse
07:16
that they were doing something really important.
163
436260
3000
che svolgevano un ruolo davvero importante.
07:19
That, in fact, you couldn't have
164
439260
2000
Che, in effetti, non si può avere
07:21
a functioning democracy
165
441260
2000
una democrazia che funzioni
07:23
if citizens didn't get a good flow of information,
166
443260
4000
se i cittadini non hanno accesso all'informazione.
07:28
that the newspapers were critical because they were acting as the filter,
167
448260
3000
Che i giornali erano fondamentali perché agivano da filtro,
07:31
and then journalistic ethics developed.
168
451260
2000
e poi è nata l'etica del giornalismo.
07:33
It wasn't perfect,
169
453260
2000
Non era perfetta,
07:35
but it got us through the last century.
170
455260
3000
ma ci ha fatto attraversare lo scorso secolo.
07:38
And so now,
171
458260
2000
Ed ora
07:40
we're kind of back in 1915 on the Web.
172
460260
3000
ci troviamo nel 1915 della Rete.
07:44
And we need the new gatekeepers
173
464260
3000
Abbiamo bisogno di nuovi guardiani
07:47
to encode that kind of responsibility
174
467260
2000
che incorporino quel tipo di responsabilità
07:49
into the code that they're writing.
175
469260
2000
nel codice che stanno scrivendo.
07:51
I know that there are a lot of people here from Facebook and from Google --
176
471260
3000
So che tra i presenti c'è gente di Facebook e Google --
07:54
Larry and Sergey --
177
474260
2000
Larry e Sergey --
07:56
people who have helped build the Web as it is,
178
476260
2000
gente che ha contribuito a costruire la Rete come è oggi,
07:58
and I'm grateful for that.
179
478260
2000
e sono loro grato per questo.
08:00
But we really need you to make sure
180
480260
3000
Ma c'è davvero bisogno di far sì che
08:03
that these algorithms have encoded in them
181
483260
3000
questi algoritmi contengano
08:06
a sense of the public life, a sense of civic responsibility.
182
486260
3000
un senso di vita pubblica, di responsabilità civile.
08:09
We need you to make sure that they're transparent enough
183
489260
3000
Dovete fare in modo che siano abbastanza trasparenti
08:12
that we can see what the rules are
184
492260
2000
da consentirci di vedere le regole
08:14
that determine what gets through our filters.
185
494260
3000
che determinano cosa può passare attraverso i filtri.
08:17
And we need you to give us some control
186
497260
2000
E dovete darci la facoltà di controllo,
08:19
so that we can decide
187
499260
2000
per decidere
08:21
what gets through and what doesn't.
188
501260
3000
cosa può passare e cosa deve essere bloccato.
08:24
Because I think
189
504260
2000
Perché penso
08:26
we really need the Internet to be that thing
190
506260
2000
che abbiamo bisogno che Internet sia davvero
08:28
that we all dreamed of it being.
191
508260
2000
quella cosa che abbiamo sempre sognato.
08:30
We need it to connect us all together.
192
510260
3000
Ne abbiamo bisogno per essere connessi tra di noi.
08:33
We need it to introduce us to new ideas
193
513260
3000
Perché ci presenti nuove idee,
08:36
and new people and different perspectives.
194
516260
3000
nuove persone e prospettive differenti.
08:40
And it's not going to do that
195
520260
2000
E questo non sarà possibile
08:42
if it leaves us all isolated in a Web of one.
196
522260
3000
se rimarremo isolati in una Rete individuale.
08:45
Thank you.
197
525260
2000
Grazie.
08:47
(Applause)
198
527260
11000
(Applausi)
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7