Dear Facebook, this is how you're breaking democracy | Yael Eisenstat

113,619 views ・ 2020-09-24

TED


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

Traducteur: Lucien Cauchy Relecteur: Claire Ghyselen
00:13
Around five years ago,
0
13000
2018
Il y a environ cinq ans,
00:15
it struck me that I was losing the ability
1
15042
2392
je me suis rendue compte que je devenais incapable
00:17
to engage with people who aren't like-minded.
2
17458
2500
de dialoguer avec les gens qui ne pensaient pas comme moi.
00:20
The idea of discussing hot-button issues with my fellow Americans
3
20917
3642
L'idée de débattre des sujets sensibles avec mes compatriotes Américains
00:24
was starting to give me more heartburn
4
24583
2393
commençait à devenir plus rebutante
que d'aller dialoguer avec de présumés extrémistes étrangers.
00:27
than the times that I engaged with suspected extremists overseas.
5
27000
4125
00:31
It was starting to leave me feeling more embittered and frustrated.
6
31750
3601
Cela commençait à me rendre de plus en plus amère et frustrée.
00:35
And so just like that,
7
35375
1434
Et d'un seul coup,
00:36
I shifted my entire focus
8
36833
1810
mon attention s'est portée
00:38
from global national security threats
9
38667
2434
des problèmes de sécurité nationale
00:41
to trying to understand what was causing this push
10
41125
3226
à essayer de comprendre
ce qui poussait notre pays vers une polarisation extrême.
00:44
towards extreme polarization at home.
11
44375
3226
00:47
As a former CIA officer and diplomat
12
47625
2351
En tant qu'ancienne agent de la CIA et diplomate
qui a travaillé des années sur les problématiques extrémistes,
00:50
who spent years working on counterextremism issues,
13
50000
3434
00:53
I started to fear that this was becoming a far greater threat to our democracy
14
53458
3851
j'ai commencé à craindre que ces divisions soient plus dangereuses pour la démocratie
00:57
than any foreign adversary.
15
57333
2518
que n'importe quelle menace étrangère.
00:59
And so I started digging in,
16
59875
1809
J'ai donc commencé à me renseigner,
01:01
and I started speaking out,
17
61708
1518
et j'ai commencé à m'exprimer,
01:03
which eventually led me to being hired at Facebook
18
63250
2809
ce qui m'a conduit à être engagée par Facebook
01:06
and ultimately brought me here today
19
66083
2685
et finalement amenée ici, aujourd'hui,
01:08
to continue warning you about how these platforms
20
68792
2809
pour continuer à vous prévenir de la façon dont ces plateformes
01:11
are manipulating and radicalizing so many of us
21
71625
4018
manipulent et radicalisent tant d'entre nous,
01:15
and to talk about how to reclaim our public square.
22
75667
2958
et pour parler de la reconquête de notre espace public.
01:19
I was a foreign service officer in Kenya
23
79625
1976
En tant que diplomate, j'ai été envoyée au Kenya,
01:21
just a few years after the September 11 attacks,
24
81625
3059
quelques années après les attaques du 11 septembre,
01:24
and I led what some call "hearts and minds" campaigns
25
84708
2560
et j'ai dirigé ces opérations appelées « cœurs et âmes, »
01:27
along the Somalia border.
26
87292
1934
près de la frontière somalienne.
01:29
A big part of my job was to build trust with communities
27
89250
3309
La gros de mon travail était d'établir la confiance
entre les communautés jugées plus sensibles aux discours extrémistes.
01:32
deemed the most susceptible to extremist messaging.
28
92583
2709
01:36
I spent hours drinking tea with outspoken anti-Western clerics
29
96125
4184
J'ai passé des heures à boire le thé
avec de fervents religieux anti-occidentaux
01:40
and even dialogued with some suspected terrorists,
30
100333
3226
et même à discuter avec quelques terroristes présumés,
01:43
and while many of these engagements began with mutual suspicion,
31
103583
3393
et bien que ces rencontres commençaient dans la suspicion mutuelle,
je ne me rappelle d'aucun finissant dans un haussement du ton ou des insultes,
01:47
I don't recall any of them resulting in shouting or insults,
32
107000
3809
01:50
and in some case we even worked together on areas of mutual interest.
33
110833
4084
et parfois,
nous avons même travaillé ensemble sur des centres d'intérêt communs.
01:56
The most powerful tools we had were to simply listen, learn
34
116000
4143
L'outil le plus efficace que nous avions était de simplement écouter, apprendre,
02:00
and build empathy.
35
120167
1726
et développer de l'empathie.
02:01
This is the essence of hearts and minds work,
36
121917
3059
C'est l'essence du travail du cœur et de l'âme,
car j'ai constaté de nombreuses fois que la plupart des gens désirent
02:05
because what I found again and again is that what most people wanted
37
125000
3268
02:08
was to feel heard, validated and respected.
38
128292
3767
se sentir écoutés, validés et respectés.
02:12
And I believe that's what most of us want.
39
132083
2643
Et je crois que la plupart d'entre nous désirons cela.
02:14
So what I see happening online today is especially heartbreaking
40
134750
3309
Donc ce que je vois en ligne aujourd'hui me touche particulièrement
02:18
and a much harder problem to tackle.
41
138083
2084
et s'avère être un problème bien plus difficile à résoudre.
02:20
We are being manipulated by the current information ecosystem
42
140917
3767
Nous sommes manipulés par cet écosystème d'information actuel
02:24
entrenching so many of us so far into absolutism
43
144708
3768
qui nous pousse tellement à nous retrancher dans l'absolutisme,
02:28
that compromise has become a dirty word.
44
148500
2976
que « compromis » est devenu un gros mot.
02:31
Because right now,
45
151500
1309
Parce qu'en ce moment même,
02:32
social media companies like Facebook
46
152833
2143
les entreprises de réseaux sociaux comme Facebook
02:35
profit off of segmenting us and feeding us personalized content
47
155000
3851
tirent profit à nous diviser et à nous procurer des contenus personnalisés
02:38
that both validates and exploits our biases.
48
158875
3851
qui valident et exploitent nos préjugés.
02:42
Their bottom line depends on provoking a strong emotion
49
162750
3434
Leurs profits dépendent de leur capacité à provoquer de fortes émotions
02:46
to keep us engaged,
50
166208
1685
pour nous garder captivés,
02:47
often incentivizing the most inflammatory and polarizing voices,
51
167917
4267
souvent en mettant en avant les personnes les plus provocatrices et polarisantes,
02:52
to the point where finding common ground no longer feels possible.
52
172208
4435
au point que trouver un terrain d'entente ne semble plus possible.
02:56
And despite a growing chorus of people crying out for the platforms to change,
53
176667
4226
Et malgré une communauté croissante demandant désespérément du changement,
03:00
it's clear they will not do enough on their own.
54
180917
3309
il est évident que les plateformes ne feront pas assez par eux-mêmes.
03:04
So governments must define the responsibility
55
184250
2893
Les gouvernement doivent donc définir la responsabilité
03:07
for the real-world harms being caused by these business models
56
187167
3809
des dommages causés dans le monde physique par ce modèle économique
et imposer un coût réel
03:11
and impose real costs on the damaging effects
57
191000
2768
aux effets néfastes affectant notre santé publique,
03:13
they're having to our public health, our public square and our democracy.
58
193792
5309
notre espace public et notre démocratie.
03:19
But unfortunately, this won't happen in time for the US presidential election,
59
199125
4643
Malheureusement, cela ne sera pas en place à temps pour l'élection présidentielle,
03:23
so I am continuing to raise this alarm,
60
203792
2767
alors je continue de sonner l'alarme,
03:26
because even if one day we do have strong rules in place,
61
206583
3060
car même si un jour nous établissons de très bonnes lois,
03:29
it will take all of us to fix this.
62
209667
2750
nous aurons besoin de tout le monde pour s'occuper de ce problème.
03:33
When I started shifting my focus from threats abroad
63
213417
2601
Quand j'ai porté mon attention des problèmes étrangers
03:36
to the breakdown in civil discourse at home,
64
216042
2142
à la défaillance des débats civiques chez nous,
03:38
I wondered if we could repurpose some of these hearts and minds campaigns
65
218208
4060
je me suis demandée s'il était possible d'utiliser ces opérations « cœur et âme »
03:42
to help heal our divides.
66
222292
2101
pour aider à réparer nos divisions.
03:44
Our more than 200-year experiment with democracy works
67
224417
3809
Notre expérience démocratique sur plus de 200 ans fonctionne
03:48
in large part because we are able to openly and passionately
68
228250
3893
en grande partie grâce à la possibilité
de débattre ouvertement et passionnément jusqu'à trouver la bonne solution.
03:52
debate our ideas for the best solutions.
69
232167
2809
Mais bien que je crois intimement
03:55
But while I still deeply believe
70
235000
1809
03:56
in the power of face-to-face civil discourse,
71
236833
2268
dans l’intérêt d'un débat public en face-à-face,
03:59
it just cannot compete
72
239125
1643
il ne peut plus rivaliser
04:00
with the polarizing effects and scale of social media right now.
73
240792
3809
avec les effets polarisants à l'échelle des réseaux sociaux d'aujourd'hui.
04:04
The people who are sucked down these rabbit holes
74
244625
2351
Les gens qui sont pris dans ces pièges de l'indignation sur les réseaux sociaux
04:07
of social media outrage
75
247000
1309
04:08
often feel far harder to break of their ideological mindsets
76
248333
3643
ont souvent plus de mal à casser leurs points de vue idéologiques
04:12
than those vulnerable communities I worked with ever were.
77
252000
3476
que toutes les communautés vulnérables avec lesquelles j'ai travaillé.
04:15
So when Facebook called me in 2018
78
255500
2309
Alors, quand Facebook m'a appelée en 2018,
04:17
and offered me this role
79
257833
1310
et m'a offert ce poste
04:19
heading its elections integrity operations for political advertising,
80
259167
3976
pour superviser la gestion déontologique des publicités politiques,
04:23
I felt I had to say yes.
81
263167
2017
je me suis sentie obligée de l'accepter.
04:25
I had no illusions that I would fix it all,
82
265208
2726
Je me doutais bien que je ne pourrais pas tout arranger,
04:27
but when offered the opportunity
83
267958
1643
mais avec une telle opportunité
04:29
to help steer the ship in a better direction,
84
269625
2184
de pouvoir mettre les choses dans le droit chemin,
04:31
I had to at least try.
85
271833
1542
il fallait au moins que j'essaie.
04:34
I didn't work directly on polarization,
86
274667
2267
Je n'ai pas pu travailler sur la polarisation,
04:36
but I did look at which issues were the most divisive in our society
87
276958
4435
mais j'ai pu voir quels étaient les sujets les plus clivants dans notre société,
04:41
and therefore the most exploitable in elections interference efforts,
88
281417
3809
et donc les plus exploitables par ceux qui veulent interférer dans les élections,
04:45
which was Russia's tactic ahead of 2016.
89
285250
2583
ce qui était déjà la tactique des Russes en 2016.
04:48
So I started by asking questions.
90
288583
2351
J'ai donc commencé à poser des questions.
04:50
I wanted to understand the underlying systemic issues
91
290958
2893
Je voulais comprendre les problèmes inhérents et systémiques
04:53
that were allowing all of this to happen,
92
293875
2434
qui permettaient à tout cela d'arriver,
04:56
in order to figure out how to fix it.
93
296333
2084
afin de comprendre comment les réparer.
04:59
Now I still do believe in the power of the internet
94
299625
2559
Je crois toujours dans la force d'Internet pour amener plus de gens à débattre,
05:02
to bring more voices to the table,
95
302208
2518
05:04
but despite their stated goal of building community,
96
304750
3101
mais malgré leur but avoué de construire une communauté,
05:07
the largest social media companies as currently constructed
97
307875
3309
les plus grandes entreprises de réseaux sociaux, actuellement,
05:11
are antithetical to the concept of reasoned discourse.
98
311208
3601
sont bâties à l'opposé du concept de débat raisonné.
05:14
There's no way to reward listening,
99
314833
2518
Il n'y a aucun moyen de récompenser l'écoute,
05:17
to encourage civil debate
100
317375
1601
d'encourager le débat public,
05:19
and to protect people who sincerely want to ask questions
101
319000
3643
et de protéger les gens qui veulent sincèrement poser des questions,
05:22
in a business where optimizing engagement and user growth
102
322667
3351
dans un business où optimiser l'implication et le nombre d'utilisateurs
05:26
are the two most important metrics for success.
103
326042
3226
sont les deux principales mesures du succès.
05:29
There's no incentive to help people slow down,
104
329292
3434
Rien n'est fait pour aider les gens à prendre du recul,
05:32
to build in enough friction that people have to stop,
105
332750
3226
pour construire un frein qui leur permette de s'arrêter,
de reconnaitre leurs réactions émotionnelles,
05:36
recognize their emotional reaction to something,
106
336000
2601
05:38
and question their own assumptions before engaging.
107
338625
2667
et de questionner leurs propres avis avant de discuter.
05:42
The unfortunate reality is:
108
342625
1976
Malheureusement, en réalité,
05:44
lies are more engaging online than truth,
109
344625
2893
les mensonges sont plus captivants que la vérité,
05:47
and salaciousness beats out wonky, fact-based reasoning
110
347542
3726
et le licencieux l'emporte sur le raisonnement basé sur les faits
05:51
in a world optimized for frictionless virality.
111
351292
3041
dans un monde optimisé pour la viralité sans contrôle.
05:55
As long as algorithms' goals are to keep us engaged,
112
355167
3434
Tant que le but des algorithmes est de nous garder captivés,
05:58
they will continue to feed us the poison that plays to our worst instincts
113
358625
4059
ils continueront à nous donner le poison
qui joue sur nos pires instincts et faiblesses humaines.
06:02
and human weaknesses.
114
362708
1459
06:04
And yes, anger, mistrust,
115
364958
3018
Et oui, la colère, la défiance,
la culture de la peur, la haine :
06:08
the culture of fear, hatred:
116
368000
1726
06:09
none of this is new in America.
117
369750
2851
aucune n'est nouvelle aux États-Unis.
06:12
But in recent years, social media has harnessed all of that
118
372625
3351
Mais ces dernières années, les réseaux sociaux s'en sont emparés
et, de mon point de vue, ont dramatiquement démesuré les échelles.
06:16
and, as I see it, dramatically tipped the scales.
119
376000
3601
06:19
And Facebook knows it.
120
379625
2393
Et Facebook le sait.
06:22
A recent "Wall Street Journal" article
121
382042
1892
Un article récent du « Wall Street Journal » dénonce
06:23
exposed an internal Facebook presentation from 2018
122
383958
4143
un rapport interne de Facebook de 2018,
06:28
that specifically points to the companies' own algorithms
123
388125
3768
dans lequel était démontré que les algorithmes de l'entreprise
06:31
for growing extremist groups' presence on their platform
124
391917
3517
rendaient les groupes extrémistes plus visibles sur leur plateforme,
06:35
and for polarizing their users.
125
395458
2167
et polarisaient leurs utilisateurs.
06:38
But keeping us engaged is how they make their money.
126
398708
3685
Mais nous garder captivés est leur manière de gagner de l'argent.
06:42
The modern information environment is crystallized around profiling us
127
402417
4226
Le modèle économique de l'information consiste en l'établissement de nos profils
06:46
and then segmenting us into more and more narrow categories
128
406667
2976
et de nous ranger dans des catégories de plus en plus précises
06:49
to perfect this personalization process.
129
409667
3309
afin de parfaire ce processus de personnalisation.
Nous sommes ensuite bombardés d'informations confirmant nos pensées,
06:53
We're then bombarded with information confirming our views,
130
413000
3809
06:56
reinforcing our biases,
131
416833
1851
renforçant nos préjugés,
06:58
and making us feel like we belong to something.
132
418708
3518
et qui nous donne l'impression d'appartenir à quelque chose.
07:02
These are the same tactics we would see terrorist recruiters
133
422250
3393
Ce sont les mêmes tactiques qu'utilisent des recruteurs terroristes
07:05
using on vulnerable youth,
134
425667
2184
sur la jeunesse vulnérable,
07:07
albeit in smaller, more localized ways before social media,
135
427875
3851
bien qu'à plus petite échelle comparées aux réseaux sociaux,
07:11
with the ultimate goal of persuading their behavior.
136
431750
3268
le but ultime étant d'entraîner un comportement particulier.
07:15
Unfortunately, I was never empowered by Facebook to have an actual impact.
137
435042
5267
Malheureusement,
Facebook ne m'a jamais donné assez de pouvoir pour avoir un véritable impact.
07:20
In fact, on my second day, my title and job description were changed
138
440333
3768
En fait, à mon deuxième jour, le nom et le rôle de mon poste ont été changés,
07:24
and I was cut out of decision-making meetings.
139
444125
2976
et on m'a éloigné des réunions de prises de décision.
07:27
My biggest efforts,
140
447125
1309
Mes plus grands efforts,
07:28
trying to build plans
141
448458
1393
essayer de bâtir un plan pour lutter contre la désinformation
07:29
to combat disinformation and voter suppression in political ads,
142
449875
3601
et l'incitation à ne pas aller voter via les publicités ciblées ont été rejetés.
07:33
were rejected.
143
453500
1559
07:35
And so I lasted just shy of six months.
144
455083
2500
Et donc j'ai tenu à peine six mois.
07:38
But here is my biggest takeaway from my time there.
145
458125
3601
Mais voilà la plus grande chose que j'ai apprise là-bas.
07:41
There are thousands of people at Facebook
146
461750
2476
Il y a des milliers d'employés à Facebook
07:44
who are passionately working on a product
147
464250
2018
qui travaillent passionnément sur un produit
07:46
that they truly believe makes the world a better place,
148
466292
3684
en pensant véritablement qu'il rend le monde meilleur,
mais tant que cette entreprise continue à littéralement bricoler
07:50
but as long as the company continues to merely tinker around the margins
149
470000
3684
07:53
of content policy and moderation,
150
473708
2726
aux frontières de la politique de contenu et de la modération,
07:56
as opposed to considering
151
476458
1310
et ne pas considérer comment l'entièreté de la machine est pensée et monétisée,
07:57
how the entire machine is designed and monetized,
152
477792
3226
ils ne vont jamais vraiment remédier à la façon dont la plateforme contribue
08:01
they will never truly address how the platform is contributing
153
481042
3351
08:04
to hatred, division and radicalization.
154
484417
4184
à la haine, aux divisions, et à la radicalisation.
08:08
And that's the one conversation I never heard happen during my time there,
155
488625
4268
Et c'est précisément cette conversation que je n'ai jamais entendue là-bas,
08:12
because that would require fundamentally accepting
156
492917
3059
parce que cela reviendrait à devoir accepter fondamentalement
que leur construction
08:16
that the thing you built might not be the best thing for society
157
496000
4143
pourrait ne pas contribuer au bien commun social
08:20
and agreeing to alter the entire product and profit model.
158
500167
3125
et d'accepter de modifier ce produit et de changer de modèle économique.
08:24
So what can we do about this?
159
504500
1833
Alors, qu'est-ce que nous pouvons y faire ?
08:27
I'm not saying that social media bears the sole responsibility
160
507042
3601
Je ne dis pas que les réseaux sociaux portent toute la responsabilité
08:30
for the state that we're in today.
161
510667
2142
de l'état du monde actuel.
08:32
Clearly, we have deep-seated societal issues that we need to solve.
162
512833
5435
Clairement, il y a de profonds problèmes de société
qu'il nous faut résoudre.
08:38
But Facebook's response, that it is just a mirror to society,
163
518292
4142
Mais la réponse de Facebook, qui n'est qu'un miroir de notre société,
08:42
is a convenient attempt to deflect any responsibility
164
522458
3018
est une tentative un peu facile pour éviter toute responsabilité
08:45
from the way their platform is amplifying harmful content
165
525500
4268
de la manière dont leur plateforme accentue le contenu néfaste
08:49
and pushing some users towards extreme views.
166
529792
3041
et pousse certains utilisateurs vers des points de vue extrêmes.
08:53
And Facebook could, if they wanted to,
167
533583
2851
Et Facebook pourrait, s'il le voulait,
08:56
fix some of this.
168
536458
1851
résoudre certains de ces problèmes.
08:58
They could stop amplifying and recommending the conspiracy theorists,
169
538333
3851
Ils pourraient arrêter d'amplifier
et recommander les théories conspirationnistes,
09:02
the hate groups, the purveyors of disinformation
170
542208
2685
les groupes de haine, les pourvoyeurs de désinformation,
09:04
and, yes, in some cases even our president.
171
544917
3851
et, oui, dans certains cas, même notre président.
09:08
They could stop using the same personalization techniques
172
548792
3392
Ils pourraient arrêter d'utiliser les mêmes techniques de personnalisation
09:12
to deliver political rhetoric that they use to sell us sneakers.
173
552208
4226
pour diffuser un discours politique que celles pour nous vendre des chaussures.
09:16
They could retrain their algorithms
174
556458
1726
Ils pourraient apprendre à leurs algorithmes,
09:18
to focus on a metric other than engagement,
175
558208
2185
à se baser sur une autre mesure que l'implication
09:20
and they could build in guardrails to stop certain content from going viral
176
560417
4309
et ils pourraient mettre en place des protocoles
pour empêcher certains contenus de devenir viraux avant leur modération.
09:24
before being reviewed.
177
564750
1667
09:26
And they could do all of this
178
566875
2268
Et ils pourraient faire tout cela
09:29
without becoming what they call the arbiters of truth.
179
569167
4184
sans devenir ce qu'ils appellent des arbitres de la vérité.
09:33
But they've made it clear that they will not go far enough
180
573375
2809
Mais ils ont bien fait comprendre qu'ils ne sont pas prêts
09:36
to do the right thing without being forced to,
181
576208
2810
à faire les choses justes sans y être forcés,
09:39
and, to be frank, why should they?
182
579042
2934
et, honnêtement, pourquoi le feraient-ils ?
Leurs affaires ne cessent de les conforter,
09:42
The markets keep rewarding them, and they're not breaking the law.
183
582000
3934
et ils n'enfreignent pas la loi.
09:45
Because as it stands,
184
585958
1310
Parce qu’actuellement, il n'y a aucune loi aux États-Unis obligeant Facebook,
09:47
there are no US laws compelling Facebook, or any social media company,
185
587292
4892
ou n'importe quelle entreprise de réseaux sociaux,
09:52
to protect our public square,
186
592208
1768
à protéger notre espace public,
09:54
our democracy
187
594000
1309
notre démocratie,
09:55
and even our elections.
188
595333
2435
ou même nos élections.
09:57
We have ceded the decision-making on what rules to write and what to enforce
189
597792
4101
Nous avons cédé notre pouvoir de décision sur quelles règles écrire ou appliquer
10:01
to the CEOs of for-profit internet companies.
190
601917
3083
aux PDGs d'entreprises lucratives sur Internet.
10:05
Is this what we want?
191
605750
2018
Est-ce que c'est ce que nous voulons ?
10:07
A post-truth world where toxicity and tribalism
192
607792
3226
Un monde post-vérité où la toxicité et le tribalisme
10:11
trump bridge-building and consensus-seeking?
193
611042
2625
coupent les ponts et la recherche de consensus ?
10:14
I do remain optimistic that we still have more in common with each other
194
614667
4101
Je demeure optimiste sur le fait que nous avons toujours plus en commun
10:18
than the current media and online environment portray,
195
618792
3642
que ce que les médias actuels et l'environnement en ligne dépeignent,
10:22
and I do believe that having more perspective surface
196
622458
3101
et je crois qu'avoir une plus grande variété de perspectives
10:25
makes for a more robust and inclusive democracy.
197
625583
3601
permet une démocratie plus robuste et plus inclusive.
10:29
But not the way it's happening right now.
198
629208
2810
Mais pas de cette manière-là.
10:32
And it bears emphasizing, I do not want to kill off these companies.
199
632042
4226
Et cela mérite d'insister, je ne veux pas détruire ces entreprises.
10:36
I just want them held to a certain level of accountability,
200
636292
3226
Je veux juste qu'elles portent une certaine part de responsabilité,
10:39
just like the rest of society.
201
639542
1916
tout comme le reste de la société.
10:42
It is time for our governments to step up and do their jobs
202
642542
4351
Il est temps pour nos gouvernements de s'élever et de faire leur travail
10:46
of protecting our citizenry.
203
646917
1642
en protégeant notre citoyenneté.
10:48
And while there isn't one magical piece of legislation
204
648583
3060
Et bien qu'il n'y aura pas de loi miracle
10:51
that will fix this all,
205
651667
1476
qui remettrait tout en ordre,
10:53
I do believe that governments can and must find the balance
206
653167
4684
je crois que les gouvernements peuvent, et doivent trouver l'équilibre
10:57
between protecting free speech
207
657875
2143
entre protéger la liberté d'expression,
11:00
and holding these platforms accountable for their effects on society.
208
660042
4309
et tenir ces plateformes responsables de leurs conséquences sur la société.
11:04
And they could do so in part by insisting on actual transparency
209
664375
4309
Et ils pourraient le faire, en partie, en demandant une vraie transparence
11:08
around how these recommendation engines are working,
210
668708
3143
sur la façon dont ces moteurs de recommandations fonctionnent,
11:11
around how the curation, amplification and targeting are happening.
211
671875
4643
et comment le traitement, l'amplification et le ciblage se fait.
11:16
You see, I want these companies held accountable
212
676542
2434
Je veux que ces compagnies soient tenues responsables
11:19
not for if an individual posts misinformation
213
679000
3101
non pas si un individu poste de la désinformation
11:22
or extreme rhetoric,
214
682125
1476
ou des discours extrémistes,
11:23
but for how their recommendation engines spread it,
215
683625
3851
mais pour la manière dont leurs moteurs de recommandation les propagent,
11:27
how their algorithms are steering people towards it,
216
687500
3226
dont leurs algorithmes amènent les gens vers ces contenus,
11:30
and how their tools are used to target people with it.
217
690750
3292
et dont leurs outils sont utilisés pour cibler les gens avec ces contenus.
11:35
I tried to make change from within Facebook and failed,
218
695417
3684
J'ai essayé de changer Facebook de l’intérieur, et j'ai échoué,
11:39
and so I've been using my voice again for the past few years
219
699125
3143
alors j'ai de nouveau utilisé ma voix ces dernières années
11:42
to continue sounding this alarm
220
702292
2226
pour continuer à sonner cette alarme,
11:44
and hopefully inspire more people to demand this accountability.
221
704542
4392
dans l'espoir d'inspirer plus de gens à réclamer cette responsabilité.
11:48
My message to you is simple:
222
708958
2643
Mon message pour vous est simple :
11:51
pressure your government representatives
223
711625
2184
faites pression sur votre gouvernement pour qu'il s'élève et ne cède plus
11:53
to step up and stop ceding our public square to for-profit interests.
224
713833
5435
notre espace public aux intérêts commerciaux.
11:59
Help educate your friends and family
225
719292
1851
Éduquez vos amis et votre famille
12:01
about how they're being manipulated online.
226
721167
3142
sur la manière dont ils sont manipulés en ligne.
12:04
Push yourselves to engage with people who aren't like-minded.
227
724333
3518
Obligez-vous à vous discuter avec ceux qui ne pensent pas comme vous.
12:07
Make this issue a priority.
228
727875
2643
Faites de ce problème une priorité.
12:10
We need a whole-society approach to fix this.
229
730542
3416
Nous avons besoin de l'ensemble de la société pour résoudre ce problème.
12:15
And my message to the leaders of my former employer Facebook is this:
230
735250
5559
Et mon message aux dirigeants
de mon ancien employeur Facebook est celui-ci :
12:20
right now, people are using your tools exactly as they were designed
231
740833
5810
en ce moment même,
les gens utilisent vos outils exactement comme ils ont été pensés :
12:26
to sow hatred, division and distrust,
232
746667
2601
pour planter la haine, la division et la défiance,
12:29
and you're not just allowing it, you are enabling it.
233
749292
4142
et vous ne faites pas que le permettre, vous le favorisez.
12:33
And yes, there are lots of great stories
234
753458
2476
Et oui, il y a beaucoup de belles histoires, de choses positives
12:35
of positive things happening on your platform around the globe,
235
755958
3685
sur votre plateforme qui viennent du monde entier,
12:39
but that doesn't make any of this OK.
236
759667
3226
mais cela n'excuse en rien tout le reste.
12:42
And it's only getting worse as we're heading into our election,
237
762917
2976
Et cela ne fait qu'empirer à l'approche des élections,
12:45
and even more concerning,
238
765917
1767
et encore plus concernant,
12:47
face our biggest potential crisis yet,
239
767708
2476
nous faisons face à notre plus grande crise potentielle,
12:50
if the results aren't trusted, and if violence breaks out.
240
770208
4143
si les résultats ne sont pas acceptés, et si la violence éclate.
12:54
So when in 2021 you once again say, "We know we have to do better,"
241
774375
5018
Donc quand, en 2021, vous direz encore une fois :
« Nous savons que nous allons devoir faire mieux, »
12:59
I want you to remember this moment,
242
779417
2684
je veux que vous vous rappeliez ce moment,
13:02
because it's no longer just a few outlier voices.
243
782125
3226
parce que ce n'est plus seulement quelques voix isolées.
13:05
Civil rights leaders, academics,
244
785375
2268
Militants des droits civiques, intellectuels,
13:07
journalists, advertisers, your own employees,
245
787667
2976
journalistes, publicitaires, vos propres employés,
13:10
are shouting from the rooftops
246
790667
2059
vous crient de toutes parts
13:12
that your policies and your business practices
247
792750
2601
que vos politiques et vos pratiques commerciales
13:15
are harming people and democracy.
248
795375
2417
sont néfastes pour les gens et pour la démocratie.
13:18
You own your decisions,
249
798875
2351
Vos décisions vous appartiennent,
13:21
but you can no longer say that you couldn't have seen it coming.
250
801250
3667
vous ne pourrez plus dire que vous ne l'aviez pas vu venir.
13:26
Thank you.
251
806167
1250
Merci.
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7