Beware online "filter bubbles" | Eli Pariser

Eli Pariser nous met en garde contre "les bulles de filtres" en ligne.

1,585,118 views

2011-05-02 ・ TED


New videos

Beware online "filter bubbles" | Eli Pariser

Eli Pariser nous met en garde contre "les bulles de filtres" en ligne.

1,585,118 views ・ 2011-05-02

TED


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

Traducteur: Amélie Gourdon Relecteur: Elaine Green
00:15
Mark Zuckerberg,
0
15260
2000
Mark Zuckerberg [créateur de Facebook],
00:17
a journalist was asking him a question about the news feed.
1
17260
3000
un journaliste lui posait une question à propos du fil d’actualité.
00:20
And the journalist was asking him,
2
20260
2000
Et le journaliste lui demandait
00:22
"Why is this so important?"
3
22260
2000
"Pourquoi est-ce si important ?"
00:24
And Zuckerberg said,
4
24260
2000
Et Zuckerberg a dit,
00:26
"A squirrel dying in your front yard
5
26260
2000
"Un écureuil mourant dans votre jardin
00:28
may be more relevant to your interests right now
6
28260
3000
peut être plus pertinent pour vos intérêts du moment
00:31
than people dying in Africa."
7
31260
3000
que les gens qui meurent en Afrique."
00:34
And I want to talk about
8
34260
2000
Et je veux parler
00:36
what a Web based on that idea of relevance might look like.
9
36260
3000
de ce à quoi ressemblerait un internet basé sur cette idée de pertinence.
00:40
So when I was growing up
10
40260
2000
Alors, pendant que je grandissais
00:42
in a really rural area in Maine,
11
42260
2000
dans une région vraiment rurale du Maine [États-Unis],
00:44
the Internet meant something very different to me.
12
44260
3000
l'internet signifiait quelque chose de vraiment différent pour moi.
00:47
It meant a connection to the world.
13
47260
2000
Cela signifiait une connexion avec le monde.
00:49
It meant something that would connect us all together.
14
49260
3000
Ça signifiait quelque chose qui nous connecterait tous ensemble.
00:52
And I was sure that it was going to be great for democracy
15
52260
3000
Et j'étais sûr que ça allait être formidable pour la démocratie
00:55
and for our society.
16
55260
3000
et pour notre société.
00:58
But there's this shift
17
58260
2000
Mais il y a ce changement
01:00
in how information is flowing online,
18
60260
2000
dans la façon dont l'information circule en ligne,
01:02
and it's invisible.
19
62260
3000
et c'est invisible.
01:05
And if we don't pay attention to it,
20
65260
2000
Et si nous n'y prêtons pas attention,
01:07
it could be a real problem.
21
67260
3000
cela pourrait être un réel problème.
01:10
So I first noticed this in a place I spend a lot of time --
22
70260
3000
Alors, j'ai d'abord remarqué cela dans un espace où je passe beaucoup de temps --
01:13
my Facebook page.
23
73260
2000
ma page Facebook.
01:15
I'm progressive, politically -- big surprise --
24
75260
3000
Je suis progressiste, politiquement -- grande surprise --
01:18
but I've always gone out of my way to meet conservatives.
25
78260
2000
mais je me suis toujours démené pour rencontrer des conservateurs.
01:20
I like hearing what they're thinking about;
26
80260
2000
J'aime écouter ce qu'ils pensent ;
01:22
I like seeing what they link to;
27
82260
2000
j'aime voir à quoi ils se connectent ;
01:24
I like learning a thing or two.
28
84260
2000
j'aime apprendre une chose ou deux.
01:26
And so I was surprised when I noticed one day
29
86260
3000
Et donc j'ai été surpris quand un jour j'ai remarqué
01:29
that the conservatives had disappeared from my Facebook feed.
30
89260
3000
que les conservateurs avaient disparu de mon fil Facebook.
01:33
And what it turned out was going on
31
93260
2000
Et ce qu'il apparut qu'il se passait
01:35
was that Facebook was looking at which links I clicked on,
32
95260
4000
est que Facebook regardait chaque lien que je cliquais,
01:39
and it was noticing that, actually,
33
99260
2000
et s'apercevait qu'en fait,
01:41
I was clicking more on my liberal friends' links
34
101260
2000
je cliquais plus souvent les liens de mes amis libéraux
01:43
than on my conservative friends' links.
35
103260
3000
que les liens de mes amis conservateurs.
01:46
And without consulting me about it,
36
106260
2000
Et sans me consulter à ce propos,
01:48
it had edited them out.
37
108260
2000
Facebook les avait éliminés.
01:50
They disappeared.
38
110260
3000
Ils avaient disparus.
01:54
So Facebook isn't the only place
39
114260
2000
Alors Facebook n'est pas le seul espace
01:56
that's doing this kind of invisible, algorithmic
40
116260
2000
à opérer ce genre d'algorithme invisible
01:58
editing of the Web.
41
118260
3000
triant l'internet.
02:01
Google's doing it too.
42
121260
2000
Google le fait aussi.
02:03
If I search for something, and you search for something,
43
123260
3000
Si je cherche quelque chose et que vous cherchez quelque chose,
02:06
even right now at the very same time,
44
126260
2000
quand même maintenant exactement au même moment,
02:08
we may get very different search results.
45
128260
3000
nous pourrions obtenir des résultats différents.
02:11
Even if you're logged out, one engineer told me,
46
131260
3000
Même si vous êtes déconnectés, un ingénieur m'a dit,
02:14
there are 57 signals
47
134260
2000
il y a 57 indicateurs
02:16
that Google looks at --
48
136260
3000
que Google regarde --
02:19
everything from what kind of computer you're on
49
139260
3000
tout du type d'ordinateur depuis lequel vous surfez
02:22
to what kind of browser you're using
50
142260
2000
jusqu'au type de navigateur que vous utilisez
02:24
to where you're located --
51
144260
2000
en passant par votre location géographique --
02:26
that it uses to personally tailor your query results.
52
146260
3000
et qui sont utilisés pour personnaliser vos résultats de recherche.
02:29
Think about it for a second:
53
149260
2000
Pensez-y une seconde :
02:31
there is no standard Google anymore.
54
151260
4000
il n'y a plus de Google générique.
02:35
And you know, the funny thing about this is that it's hard to see.
55
155260
3000
Et vous savez, ce qui est drôle dans cette histoire, c'est que c'est difficile à percevoir.
02:38
You can't see how different your search results are
56
158260
2000
Vous ne pouvez pas voir à quel point vos résultats de recherche sont différents
02:40
from anyone else's.
57
160260
2000
de ceux de n'importe qui d'autre.
02:42
But a couple of weeks ago,
58
162260
2000
Mais il y a quelques semaines,
02:44
I asked a bunch of friends to Google "Egypt"
59
164260
3000
j'ai demandé à quelques amis de chercher "Égypte" sur Google
02:47
and to send me screen shots of what they got.
60
167260
3000
et de m'envoyer des captures d'écrans de ce qu'ils avaient obtenu.
02:50
So here's my friend Scott's screen shot.
61
170260
3000
Donc, voici ce que mon ami Scott a obtenu.
02:54
And here's my friend Daniel's screen shot.
62
174260
3000
Et voilà ce que mon ami Daniel a trouvé.
02:57
When you put them side-by-side,
63
177260
2000
Quand vous mettez leurs résultats côte-à-côte,
02:59
you don't even have to read the links
64
179260
2000
vous n'avez même pas besoin de lire les liens
03:01
to see how different these two pages are.
65
181260
2000
pour voir à quel point ces deux pages sont différentes.
03:03
But when you do read the links,
66
183260
2000
Mais si vous lisez les liens,
03:05
it's really quite remarkable.
67
185260
3000
c'est tout à fait remarquable.
03:09
Daniel didn't get anything about the protests in Egypt at all
68
189260
3000
Daniel n'a rien obtenu du tout concernant les manifestations en Égypte
03:12
in his first page of Google results.
69
192260
2000
sur sa première page de résultats donnés par Google.
03:14
Scott's results were full of them.
70
194260
2000
Les résultats de Scott en étaient pleins.
03:16
And this was the big story of the day at that time.
71
196260
2000
Et ça faisait les gros titres chaque jour à l'époque.
03:18
That's how different these results are becoming.
72
198260
3000
C'est à ce point que les résultats deviennent différents.
03:21
So it's not just Google and Facebook either.
73
201260
3000
Alors, ce n'est pas juste Google et Facebook.
03:24
This is something that's sweeping the Web.
74
204260
2000
Il s'agit de quelque chose qui balaye l'internet.
03:26
There are a whole host of companies that are doing this kind of personalization.
75
206260
3000
Il y a tout un tas d'entreprises qui pratiquent ce genre de personnalisation.
03:29
Yahoo News, the biggest news site on the Internet,
76
209260
3000
Yahoo Actualités, le plus grand site d'actualité sur internet,
03:32
is now personalized -- different people get different things.
77
212260
3000
est maintenant personnalisé -- différentes personnes voient différentes choses.
03:36
Huffington Post, the Washington Post, the New York Times --
78
216260
3000
Le Huffington Post, le Washington Post, le New York Times --
03:39
all flirting with personalization in various ways.
79
219260
3000
tous flirtent avec la personnalisation d'une façon ou d'une autre.
03:42
And this moves us very quickly
80
222260
3000
Et cela nous emmène très rapidement
03:45
toward a world in which
81
225260
2000
vers un monde dans lequel
03:47
the Internet is showing us what it thinks we want to see,
82
227260
4000
l'internet nous montre ce qu'il pense que nous voulons voir,
03:51
but not necessarily what we need to see.
83
231260
3000
mais pas nécessairement ce que nous avons besoin de voir.
03:54
As Eric Schmidt said,
84
234260
3000
Comme l'a dit Eric Schmidt [président de Google],
03:57
"It will be very hard for people to watch or consume something
85
237260
3000
"Il sera très difficile pour les gens de regarder ou de consommer
04:00
that has not in some sense
86
240260
2000
ce qui n'a pas d'une certaine façon
04:02
been tailored for them."
87
242260
3000
été fait sur mesure pour eux."
04:05
So I do think this is a problem.
88
245260
2000
Donc je pense que c'est un réel problème.
04:07
And I think, if you take all of these filters together,
89
247260
3000
Et je pense que, si vous prenez tous ces filtres ensemble,
04:10
you take all these algorithms,
90
250260
2000
si vous prenez tous ces algorithmes,
04:12
you get what I call a filter bubble.
91
252260
3000
vous obtenez ce que j'appelle une bulle de filtres.
04:16
And your filter bubble is your own personal,
92
256260
3000
Et votre bulle de filtres est votre propre, personnel,
04:19
unique universe of information
93
259260
2000
unique univers d'information
04:21
that you live in online.
94
261260
2000
dans lequel vous vivez en ligne.
04:23
And what's in your filter bubble
95
263260
3000
Et ce qui est dans votre bulle de filtres
04:26
depends on who you are, and it depends on what you do.
96
266260
3000
dépend de qui vous êtes, et dépend de que vous faites.
04:29
But the thing is that you don't decide what gets in.
97
269260
4000
Mais le truc, c'est que vous ne décidez pas ce qui entre dedans.
04:33
And more importantly,
98
273260
2000
Et plus important,
04:35
you don't actually see what gets edited out.
99
275260
3000
vous ne voyez pas en fait ce qui se trouve rejeté.
04:38
So one of the problems with the filter bubble
100
278260
2000
Donc l'un des problèmes de la bulle de filtres
04:40
was discovered by some researchers at Netflix.
101
280260
3000
a été découvert par des chercheurs de chez Netflix [site de vidéo à la demande].
04:43
And they were looking at the Netflix queues, and they noticed something kind of funny
102
283260
3000
Ils étudiaient les files d'attentes Netflix, et ont remarqué une chose assez drôle,
04:46
that a lot of us probably have noticed,
103
286260
2000
que beaucoup d'entre nous ont certainement remarqué,
04:48
which is there are some movies
104
288260
2000
et qui est qu'il y a certains films
04:50
that just sort of zip right up and out to our houses.
105
290260
3000
qui semblent juste remonter la file très vite pour entrer dans nos foyers.
04:53
They enter the queue, they just zip right out.
106
293260
3000
Ils entrent dans la file, et ils la remontent immédiatement.
04:56
So "Iron Man" zips right out,
107
296260
2000
Donc "Iron Man" arrive aussitôt,
04:58
and "Waiting for Superman"
108
298260
2000
et "Waiting for Superman"
05:00
can wait for a really long time.
109
300260
2000
peut attendre vraiment très longtemps.
05:02
What they discovered
110
302260
2000
Ce qu'ils ont découvert
05:04
was that in our Netflix queues
111
304260
2000
c'est que dans les files d'attente de Netflix,
05:06
there's this epic struggle going on
112
306260
3000
il y a une bataille épique qui se joue
05:09
between our future aspirational selves
113
309260
3000
entre ce que nous aspirons à être dans le futur
05:12
and our more impulsive present selves.
114
312260
3000
et ce que nous sommes plus impulsivement dans le présent.
05:15
You know we all want to be someone
115
315260
2000
Vous savez, nous voulons tous être quelqu'un
05:17
who has watched "Rashomon,"
116
317260
2000
qui a vu "Rashōmon",
05:19
but right now
117
319260
2000
mais pour le moment
05:21
we want to watch "Ace Ventura" for the fourth time.
118
321260
3000
nous voulons voir "Ace Ventura, détective chiens et chats" pour la quatrième fois.
05:24
(Laughter)
119
324260
3000
(Rires)
05:27
So the best editing gives us a bit of both.
120
327260
2000
Donc la meilleure des éditions nous donne un peu des deux.
05:29
It gives us a little bit of Justin Bieber
121
329260
2000
Il nous donne un petit peu de Justin Bieber
05:31
and a little bit of Afghanistan.
122
331260
2000
et un petit peu d'Afghanistan.
05:33
It gives us some information vegetables;
123
333260
2000
Il nous donne de l'information "légumes",
05:35
it gives us some information dessert.
124
335260
3000
il nous donne de l'information "dessert".
05:38
And the challenge with these kinds of algorithmic filters,
125
338260
2000
Et le défi avec ce genre de filtres algorithmiques,
05:40
these personalized filters,
126
340260
2000
ces filtres personnalisés,
05:42
is that, because they're mainly looking
127
342260
2000
c'est que, parce qu'ils observent principalement
05:44
at what you click on first,
128
344260
4000
ce que vous cliquez en premier,
05:48
it can throw off that balance.
129
348260
4000
ça peut déstabiliser cet équilibre.
05:52
And instead of a balanced information diet,
130
352260
3000
Et au lieu d'un régime d'information équilibré,
05:55
you can end up surrounded
131
355260
2000
vous pouvez finir entouré
05:57
by information junk food.
132
357260
2000
d'information "malbouffe".
05:59
What this suggests
133
359260
2000
Ce que cela suggère
06:01
is actually that we may have the story about the Internet wrong.
134
361260
3000
c'est en fait que nous pourrions avoir fait fausse route à propos d'internet.
06:04
In a broadcast society --
135
364260
2000
Dans une société de diffusion --
06:06
this is how the founding mythology goes --
136
366260
2000
comme disent les mythes fondateurs --
06:08
in a broadcast society,
137
368260
2000
dans une société de diffusion,
06:10
there were these gatekeepers, the editors,
138
370260
2000
il y avait ces gardiens du temple, les éditeurs,
06:12
and they controlled the flows of information.
139
372260
3000
et ils contrôlaient les flux d'information.
06:15
And along came the Internet and it swept them out of the way,
140
375260
3000
Et puis l'internet est arrivé et les a balayé du chemin,
06:18
and it allowed all of us to connect together,
141
378260
2000
nous permettant tous de nous connecter,
06:20
and it was awesome.
142
380260
2000
et c'était génial.
06:22
But that's not actually what's happening right now.
143
382260
3000
Mais ce n'est pas ce qui se passe en fait à l'heure actuelle.
06:26
What we're seeing is more of a passing of the torch
144
386260
3000
Ce que nous voyons est plus un passage de témoin
06:29
from human gatekeepers
145
389260
2000
des gardiens humains
06:31
to algorithmic ones.
146
391260
3000
aux gardiens algorithmiques.
06:34
And the thing is that the algorithms
147
394260
3000
Et le problème c'est que les algorithmes
06:37
don't yet have the kind of embedded ethics
148
397260
3000
n'ont pas encore le genre d'éthique intégrée
06:40
that the editors did.
149
400260
3000
que les éditeurs avaient.
06:43
So if algorithms are going to curate the world for us,
150
403260
3000
Donc si les algorithmes vont inventorier le monde pour nous,
06:46
if they're going to decide what we get to see and what we don't get to see,
151
406260
3000
s'ils vont décider ce que nous pouvons voir et ce que nous ne pouvons pas voir,
06:49
then we need to make sure
152
409260
2000
alors nous devons nous assurer
06:51
that they're not just keyed to relevance.
153
411260
3000
qu'ils ne se sont pas basés uniquement sur la pertinence.
06:54
We need to make sure that they also show us things
154
414260
2000
Nous devons nous assurer qu'ils nous montrent aussi des choses
06:56
that are uncomfortable or challenging or important --
155
416260
3000
qui sont inconfortables ou stimulantes ou importantes --
06:59
this is what TED does --
156
419260
2000
c'est ce que TED fait --
07:01
other points of view.
157
421260
2000
d'autres points de vue.
07:03
And the thing is, we've actually been here before
158
423260
2000
Et le fait est que nous avons déjà été dans cette situation auparavant,
07:05
as a society.
159
425260
2000
en tant que société.
07:08
In 1915, it's not like newspapers were sweating a lot
160
428260
3000
En 1915, ce n'est pas comme si les journaux avaient des suées
07:11
about their civic responsibilities.
161
431260
3000
à propos de leurs responsabilités civiques.
07:14
Then people noticed
162
434260
2000
Et alors les gens ont remarqué
07:16
that they were doing something really important.
163
436260
3000
qu'ils faisaient quelque chose de vraiment important.
07:19
That, in fact, you couldn't have
164
439260
2000
Qu'en fait, vous ne pourriez pas avoir
07:21
a functioning democracy
165
441260
2000
une démocratie qui fonctionne
07:23
if citizens didn't get a good flow of information,
166
443260
4000
si les citoyens n'avaient pas accès à un bon flot d'information.
07:28
that the newspapers were critical because they were acting as the filter,
167
448260
3000
Que les journaux étaient cruciaux, parce qu'ils agissaient en tant que filtre,
07:31
and then journalistic ethics developed.
168
451260
2000
et alors l'éthique journalistique s'est développée.
07:33
It wasn't perfect,
169
453260
2000
Ce n'était pas parfait,
07:35
but it got us through the last century.
170
455260
3000
mais ça nous a menés à travers le siècle dernier.
07:38
And so now,
171
458260
2000
Et donc maintenant,
07:40
we're kind of back in 1915 on the Web.
172
460260
3000
on est en sorte retourné en 1915 sur internet.
07:44
And we need the new gatekeepers
173
464260
3000
Et nous avons besoin que les nouveaux gardiens
07:47
to encode that kind of responsibility
174
467260
2000
incorporent cette espèce de responsabilité
07:49
into the code that they're writing.
175
469260
2000
dans le code qu'ils sont en train d'écrire.
07:51
I know that there are a lot of people here from Facebook and from Google --
176
471260
3000
Je sais qu'il y a beaucoup de gens ici de Facebook et Google --
07:54
Larry and Sergey --
177
474260
2000
Larry et Sergey --
07:56
people who have helped build the Web as it is,
178
476260
2000
des gens qui ont contribué à construire internet tel qu'il est,
07:58
and I'm grateful for that.
179
478260
2000
et j'ai de la gratitude pour ça.
08:00
But we really need you to make sure
180
480260
3000
Mais nous avons vraiment besoin que vous vous assuriez
08:03
that these algorithms have encoded in them
181
483260
3000
que ces algorithmes incorporent
08:06
a sense of the public life, a sense of civic responsibility.
182
486260
3000
une sensibilité pour la vie publique, sensibilité pour la responsabilité civique.
08:09
We need you to make sure that they're transparent enough
183
489260
3000
Nous avons besoin que vous vous assuriez qu'ils sont suffisamment transparents
08:12
that we can see what the rules are
184
492260
2000
pour que nous puissions voir quelles sont les règles
08:14
that determine what gets through our filters.
185
494260
3000
qui déterminent ce qui passe à travers les filtres.
08:17
And we need you to give us some control
186
497260
2000
Et nous avons besoin que vous nous donniez du contrôle,
08:19
so that we can decide
187
499260
2000
pour que nous puissions décider
08:21
what gets through and what doesn't.
188
501260
3000
ce qui passe les filtres et ce qui ne les passe pas.
08:24
Because I think
189
504260
2000
Parce que je pense
08:26
we really need the Internet to be that thing
190
506260
2000
que nous avons vraiment besoin qu'internet soit cette chose
08:28
that we all dreamed of it being.
191
508260
2000
que nous avons tous rêvée qu'il serait.
08:30
We need it to connect us all together.
192
510260
3000
Nous avons besoin qu'il nous connecte tous ensemble.
08:33
We need it to introduce us to new ideas
193
513260
3000
Nous avons besoin qu'il nous fasse connaître de nouvelles idées
08:36
and new people and different perspectives.
194
516260
3000
et de nouvelles personnes, de différentes perspectives.
08:40
And it's not going to do that
195
520260
2000
Et il ne va pas faire cela
08:42
if it leaves us all isolated in a Web of one.
196
522260
3000
s’il nous laisse isolés dans un réseau fait d'une personne.
08:45
Thank you.
197
525260
2000
Merci.
08:47
(Applause)
198
527260
11000
(Applaudissements)
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7