How we can protect truth in the age of misinformation | Sinan Aral

235,868 views ・ 2020-01-16

TED


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

00:00
Translator: Ivana Korom Reviewer: Krystian Aparta
0
0
7000
Traducteur: Morgane Quilfen Relecteur: Claire Ghyselen
00:13
So, on April 23 of 2013,
1
13468
5222
Le 23 avril 2013,
00:18
the Associated Press put out the following tweet on Twitter.
2
18714
5514
l'Associated Press a publié le tweet suivant sur Twitter.
00:24
It said, "Breaking news:
3
24252
2397
Il disait : « Flash info :
00:26
Two explosions at the White House
4
26673
2571
deux explosions à la Maison-Blanche
00:29
and Barack Obama has been injured."
5
29268
2333
et Barack Obama a été blessé. »
00:32
This tweet was retweeted 4,000 times in less than five minutes,
6
32212
5425
Ce tweet a été retweeté 4 000 fois en moins de cinq minutes
00:37
and it went viral thereafter.
7
37661
2217
et est ensuite devenu viral.
00:40
Now, this tweet wasn't real news put out by the Associated Press.
8
40760
4350
Ce tweet n'était pas une vraie info publiée par l'Associated Press.
00:45
In fact it was false news, or fake news,
9
45134
3333
C'était une fausse info, ou une infox,
00:48
that was propagated by Syrian hackers
10
48491
2825
qui a été propagée par des pirates syriens
00:51
that had infiltrated the Associated Press Twitter handle.
11
51340
4694
qui avaient piraté le compte de l'Associated Press sur Twitter.
00:56
Their purpose was to disrupt society, but they disrupted much more.
12
56407
3889
Leur objectif était de perturber la société,
mais ils ont perturbé bien plus que cela.
01:00
Because automated trading algorithms
13
60320
2476
Car les algorithmes automatisés de trading
01:02
immediately seized on the sentiment on this tweet,
14
62820
3360
ont immédiatement saisi le sentiment de ce tweet
01:06
and began trading based on the potential
15
66204
2968
et ont commencé à faire des opérations basées sur la possibilité
01:09
that the president of the United States had been injured or killed
16
69196
3381
que le président des États-Unis ait été blessé ou tué
01:12
in this explosion.
17
72601
1200
dans une explosion.
01:14
And as they started tweeting,
18
74188
1992
Alors qu'ils ont commencé à tweeter,
01:16
they immediately sent the stock market crashing,
19
76204
3349
ils ont immédiatement causé l’écroulement du cours de la bourse,
01:19
wiping out 140 billion dollars in equity value in a single day.
20
79577
5167
anéantissant 140 milliards de dollars de valeur de fonds propres en un jour.
01:25
Robert Mueller, special counsel prosecutor in the United States,
21
85062
4476
Robert Mueller, procureur spécial aux États-Unis,
01:29
issued indictments against three Russian companies
22
89562
3892
a prononcé des chefs d'accusation contre trois entreprises russes
01:33
and 13 Russian individuals
23
93478
2619
et 13 ressortissants russes
01:36
on a conspiracy to defraud the United States
24
96121
3167
au sujet d'un complot pour escroquer les États-Unis
01:39
by meddling in the 2016 presidential election.
25
99312
3780
via une ingérence durant les élections présidentielles de 2016.
01:43
And what this indictment tells as a story
26
103855
3564
L'histoire que raconte ce chef d'accusation
01:47
is the story of the Internet Research Agency,
27
107443
3142
est celle de l'Internet Research Agency,
01:50
the shadowy arm of the Kremlin on social media.
28
110609
3594
le bras armé du Kremlin sur les réseaux sociaux.
01:54
During the presidential election alone,
29
114815
2777
Durant les élections présidentielles uniquement,
01:57
the Internet Agency's efforts
30
117616
1889
les efforts de l'Internet Agency
01:59
reached 126 million people on Facebook in the United States,
31
119529
5167
ont touché 126 millions de personnes sur Facebook aux États-Unis,
02:04
issued three million individual tweets
32
124720
3277
ont publié trois millions de tweets
02:08
and 43 hours' worth of YouTube content.
33
128021
3842
et 43 heures de contenu sur YouTube.
02:11
All of which was fake --
34
131887
1652
Tout cela était faux --
02:13
misinformation designed to sow discord in the US presidential election.
35
133563
6323
de la désinformation conçue pour semer la discorde
au sein des élections présidentielles américaines.
02:20
A recent study by Oxford University
36
140996
2650
Une étude récente de l'université d'Oxford
02:23
showed that in the recent Swedish elections,
37
143670
3270
a montré que durant les récentes élections suédoises,
02:26
one third of all of the information spreading on social media
38
146964
4375
un tiers de toutes les informations se propageant sur les réseaux sociaux
02:31
about the election
39
151363
1198
au sujet des élections
02:32
was fake or misinformation.
40
152585
2087
étaient fausses ou de la désinformation.
02:35
In addition, these types of social-media misinformation campaigns
41
155037
5078
De plus, ce genre de campagne de désinformation sur les réseaux sociaux
02:40
can spread what has been called "genocidal propaganda,"
42
160139
4151
peut propager ce qu’on en est venu à appeler de la « propagande génocidaire »,
02:44
for instance against the Rohingya in Burma,
43
164314
3111
par exemple contre les Rohingyas en Birmanie,
02:47
triggering mob killings in India.
44
167449
2303
ou entraînant des massacres collectifs en Inde.
02:49
We studied fake news
45
169776
1494
Nous avons étudié l'infox
02:51
and began studying it before it was a popular term.
46
171294
3219
et avons commencé à l'étudier avant que ce ne soit un terme populaire.
02:55
And we recently published the largest-ever longitudinal study
47
175030
5040
Nous avons récemment publié la plus longue étude longitudinale qui soit
03:00
of the spread of fake news online
48
180094
2286
sur la propagation de l'infox en ligne
03:02
on the cover of "Science" in March of this year.
49
182404
3204
en couverture de « Science » en mars cette année.
03:06
We studied all of the verified true and false news stories
50
186523
4161
Nous avons étudié toutes les infos confirmées comme étant vraies ou fausses
03:10
that ever spread on Twitter,
51
190708
1753
qui se sont propagées sur Twitter,
03:12
from its inception in 2006 to 2017.
52
192485
3818
depuis son lancement en 2006 jusqu'à 2017.
03:16
And when we studied this information,
53
196612
2314
Quand nous avons étudié ces informations,
03:18
we studied verified news stories
54
198950
2876
nous avons étudié des informations
03:21
that were verified by six independent fact-checking organizations.
55
201850
3918
qui avaient été vérifiées
par six organisations de vérification indépendantes.
03:25
So we knew which stories were true
56
205792
2762
Nous savions donc quelles informations étaient vraies
03:28
and which stories were false.
57
208578
2126
et quelles informations étaient fausses.
03:30
We can measure their diffusion,
58
210728
1873
Nous pouvons mesurer leur diffusion,
03:32
the speed of their diffusion,
59
212625
1651
la vitesse de leur diffusion,
03:34
the depth and breadth of their diffusion,
60
214300
2095
la portée et l'ampleur de leur diffusion,
03:36
how many people become entangled in this information cascade and so on.
61
216419
4142
combien de gens se sont empêtrés dans cette cascade d'informations, etc.
03:40
And what we did in this paper
62
220942
1484
Dans cette publication,
03:42
was we compared the spread of true news to the spread of false news.
63
222450
3865
nous avons comparé la propagation d'informations vraies et d'infox.
03:46
And here's what we found.
64
226339
1683
Voici ce que nous avons découvert.
03:48
We found that false news diffused further, faster, deeper
65
228046
3979
Nous avons découvert
que l'infox se diffusait plus loin, plus vite, plus profondément
03:52
and more broadly than the truth
66
232049
1806
et plus largement que la vérité
03:53
in every category of information that we studied,
67
233879
3003
dans chacune des catégories d'informations que nous avons étudiées,
03:56
sometimes by an order of magnitude.
68
236906
2499
la différence étant parfois d'un ordre de grandeur.
03:59
And in fact, false political news was the most viral.
69
239842
3524
Les infox politiques étaient les plus virales.
04:03
It diffused further, faster, deeper and more broadly
70
243390
3147
Elles se diffusaient plus loin, vite, profondément et largement
04:06
than any other type of false news.
71
246561
2802
que n'importe quel autre type d'infox.
04:09
When we saw this,
72
249387
1293
Quand nous avons vu cela,
04:10
we were at once worried but also curious.
73
250704
2841
nous étions à la fois inquiets mais aussi curieux.
04:13
Why?
74
253569
1151
Pourquoi ?
04:14
Why does false news travel so much further, faster, deeper
75
254744
3373
Pourquoi est-ce que l'infox circule tellement plus loin, vite, profondément
04:18
and more broadly than the truth?
76
258141
1864
et largement que la vérité ?
04:20
The first hypothesis that we came up with was,
77
260339
2961
Notre première hypothèse était :
04:23
"Well, maybe people who spread false news have more followers or follow more people,
78
263324
4792
« Peut-être que les gens diffusant de l'infox
ont plus de suiveurs ou suivent plus de monde,
04:28
or tweet more often,
79
268140
1557
tweetent plus souvent,
04:29
or maybe they're more often 'verified' users of Twitter, with more credibility,
80
269721
4126
peut-être sont-ils plus souvent des utilisateurs « vérifiés » de Twitter,
avec plus de crédibilité,
04:33
or maybe they've been on Twitter longer."
81
273871
2182
ou sont-ils là depuis plus longtemps. »
04:36
So we checked each one of these in turn.
82
276077
2298
Nous avons vérifié chacune de ces hypothèses.
04:38
And what we found was exactly the opposite.
83
278691
2920
Nous avons découvert exactement le contraire.
04:41
False-news spreaders had fewer followers,
84
281635
2436
Les diffuseurs d'infox avaient moins de suiveurs,
04:44
followed fewer people, were less active,
85
284095
2254
suivaient moins de gens, étaient moins actifs,
04:46
less often "verified"
86
286373
1460
moins souvent « vérifiés »
04:47
and had been on Twitter for a shorter period of time.
87
287857
2960
et étaient sur Twitter depuis moins longtemps.
04:50
And yet,
88
290841
1189
Et pourtant,
04:52
false news was 70 percent more likely to be retweeted than the truth,
89
292054
5033
les infox avaient 70% de probabilités de plus
d'être retweetées par rapport à la vérité,
04:57
controlling for all of these and many other factors.
90
297111
3363
en contrôlant ces facteurs et de nombreux autres.
05:00
So we had to come up with other explanations.
91
300498
2690
Nous devions trouver d'autres explications.
05:03
And we devised what we called a "novelty hypothesis."
92
303212
3467
Nous avons formulé
ce que nous avons appelé « l'hypothèse de la nouveauté ».
05:07
So if you read the literature,
93
307038
1960
Si vous lisez la littérature,
05:09
it is well known that human attention is drawn to novelty,
94
309022
3754
il est bien connu que l'attention humaine est attirée par la nouveauté,
05:12
things that are new in the environment.
95
312800
2519
les choses nouvelles dans l'environnement.
05:15
And if you read the sociology literature,
96
315343
1985
Si vous lisez la littérature sociologique,
05:17
you know that we like to share novel information.
97
317352
4300
vous savez que nous aimons partager des informations nouvelles.
05:21
It makes us seem like we have access to inside information,
98
321676
3838
Cela nous donne l'impression d'avoir un accès privilégié à des informations
05:25
and we gain in status by spreading this kind of information.
99
325538
3785
et nous gagnons en statut en diffusant ce genre d'informations.
05:29
So what we did was we measured the novelty of an incoming true or false tweet,
100
329792
6452
Nous avons alors mesuré la nouveauté d'un tweet, qu'il soit vrai ou faux,
05:36
compared to the corpus of what that individual had seen
101
336268
4055
l'avons comparé au corpus de ce que l'individu avait vu
05:40
in the 60 days prior on Twitter.
102
340347
2952
sur Twitter les 60 derniers jours.
05:43
But that wasn't enough, because we thought to ourselves,
103
343323
2659
Mais cela ne suffisait pas car nous avons pensé :
05:46
"Well, maybe false news is more novel in an information-theoretic sense,
104
346006
4208
« Peut-être que l'infox représente plus de nouveauté
dans un sens théorique,
05:50
but maybe people don't perceive it as more novel."
105
350238
3258
mais peut-être que les gens n'y perçoivent pas plus de nouveauté. »
05:53
So to understand people's perceptions of false news,
106
353849
3927
Pour comprendre la perception que les gens avaient des infox,
05:57
we looked at the information and the sentiment
107
357800
3690
nous avons considéré l'information et le sentiment
06:01
contained in the replies to true and false tweets.
108
361514
4206
que les réponses des tweets vrais et faux incluaient.
06:06
And what we found
109
366022
1206
Nous avons découvert
06:07
was that across a bunch of different measures of sentiment --
110
367252
4214
que parmi tout un tas de mesures différentes des sentiments --
06:11
surprise, disgust, fear, sadness,
111
371490
3301
la surprise, le dégoût, la peur, la tristesse,
06:14
anticipation, joy and trust --
112
374815
2484
l'anticipation, la joie et la confiance --
06:17
false news exhibited significantly more surprise and disgust
113
377323
5857
les infox présentaient notablement plus de surprise et de dégoût
06:23
in the replies to false tweets.
114
383204
2806
dans les réponses aux tweets.
06:26
And true news exhibited significantly more anticipation,
115
386392
3789
Les informations avérées présentaient notablement plus d'anticipation,
06:30
joy and trust
116
390205
1547
de joie et de confiance
06:31
in reply to true tweets.
117
391776
2547
dans les réponses aux tweets.
06:34
The surprise corroborates our novelty hypothesis.
118
394347
3786
La surprise corrobore notre hypothèse de la nouveauté.
06:38
This is new and surprising, and so we're more likely to share it.
119
398157
4609
C'est nouveau et surprenant,
nous allons donc plus probablement le partager.
06:43
At the same time, there was congressional testimony
120
403092
2925
En même temps, il y avait un témoignage au Congrès,
06:46
in front of both houses of Congress in the United States,
121
406041
3036
devant les deux chambres du Congrès des États-Unis,
06:49
looking at the role of bots in the spread of misinformation.
122
409101
3738
considérant le rôle des robots dans la diffusion de la désinformation.
06:52
So we looked at this too --
123
412863
1354
Nous l'avons envisagé --
06:54
we used multiple sophisticated bot-detection algorithms
124
414241
3598
nous avons utilisé
de multiples algorithmes sophistiqués de détection de robots
06:57
to find the bots in our data and to pull them out.
125
417863
3074
pour trouver les robots dans nos données et les en extraire.
07:01
So we pulled them out, we put them back in
126
421347
2659
Nous les en avons extraits, les avons inclus à nouveau
07:04
and we compared what happens to our measurement.
127
424030
3119
et avons comparé ce qu'il arrivait à nos mesures.
07:07
And what we found was that, yes indeed,
128
427173
2293
Nous avons découvert que oui, en effet,
07:09
bots were accelerating the spread of false news online,
129
429490
3682
les robots accéléraient la diffusion d'infox en ligne,
07:13
but they were accelerating the spread of true news
130
433196
2651
mais ils accéléraient la diffusion d'informations avérées
07:15
at approximately the same rate.
131
435871
2405
approximativement au même rythme.
07:18
Which means bots are not responsible
132
438300
2858
Ce que signifie que les robots ne sont pas responsables
07:21
for the differential diffusion of truth and falsity online.
133
441182
4713
pour l'écart dans la diffusion de la vérité et de la fausseté en ligne.
07:25
We can't abdicate that responsibility,
134
445919
2849
Nous ne pouvons pas refuser cette responsabilité
07:28
because we, humans, are responsible for that spread.
135
448792
4259
car nous, êtres humains, sommes responsables de cette diffusion.
07:34
Now, everything that I have told you so far,
136
454472
3334
Tout ce que je vous ai dit jusqu'ici,
07:37
unfortunately for all of us,
137
457830
1754
malheureusement pour nous tous,
07:39
is the good news.
138
459608
1261
ce sont les bonnes nouvelles.
07:42
The reason is because it's about to get a whole lot worse.
139
462670
4450
La raison en est que cela va bientôt devenir bien pire.
07:47
And two specific technologies are going to make it worse.
140
467850
3682
Deux technologies en particulier vont rendre cela bien pire.
07:52
We are going to see the rise of a tremendous wave of synthetic media.
141
472207
5172
Nous allons voir la montée d'une énorme vague de média synthétiques :
07:57
Fake video, fake audio that is very convincing to the human eye.
142
477403
6031
de fausses vidéos, de faux enregistrements très convaincants pour l’œil humain.
08:03
And this will powered by two technologies.
143
483458
2754
Cela sera propulsé par deux technologies.
08:06
The first of these is known as "generative adversarial networks."
144
486236
3833
La première est connue sous le nom de « réseaux adverses génératifs ».
08:10
This is a machine-learning model with two networks:
145
490093
2563
C'est un modèle d'apprentissage automatique avec deux réseaux :
08:12
a discriminator,
146
492680
1547
un discriminateur,
08:14
whose job it is to determine whether something is true or false,
147
494251
4200
dont le rôle est de déterminer si quelque chose est vrai ou faux,
08:18
and a generator,
148
498475
1167
et un générateur,
08:19
whose job it is to generate synthetic media.
149
499666
3150
dont le rôle est de générer des médias synthétiques.
08:22
So the synthetic generator generates synthetic video or audio,
150
502840
5102
Le générateur synthétique génère une vidéo ou un enregistrement audio synthétique
08:27
and the discriminator tries to tell, "Is this real or is this fake?"
151
507966
4675
et le discriminateur essaye de dire s'il est réel ou falsifié.
08:32
And in fact, it is the job of the generator
152
512665
2874
La tâche du générateur
08:35
to maximize the likelihood that it will fool the discriminator
153
515563
4435
consiste à maximiser la probabilité de faire croire au discriminateur
08:40
into thinking the synthetic video and audio that it is creating
154
520022
3587
que la vidéo et l'enregistrement audio qu'il crée sont réels.
08:43
is actually true.
155
523633
1730
08:45
Imagine a machine in a hyperloop,
156
525387
2373
Imaginez une machine dans une boucle infinie
08:47
trying to get better and better at fooling us.
157
527784
2803
et essayant d'améliorer sa capacité à nous tromper.
08:51
This, combined with the second technology,
158
531114
2500
Cela, en combinaison avec la deuxième technologie,
08:53
which is essentially the democratization of artificial intelligence to the people,
159
533638
5722
qui est essentiellement la démocratisation de l'intelligence artificielle,
08:59
the ability for anyone,
160
539384
2189
la capacité offerte à tous,
09:01
without any background in artificial intelligence
161
541597
2830
sans aucune formation en intelligence artificielle
09:04
or machine learning,
162
544451
1182
ou en apprentissage automatique,
09:05
to deploy these kinds of algorithms to generate synthetic media
163
545657
4103
de déployer ce genre d'algorithmes pour générer des médias synthétiques
09:09
makes it ultimately so much easier to create videos.
164
549784
4547
rendant cela tellement plus simple de créer des vidéos.
09:14
The White House issued a false, doctored video
165
554355
4421
La Maison-Blanche a publié une vidéo falsifiée, truquée
09:18
of a journalist interacting with an intern who was trying to take his microphone.
166
558800
4288
d'un journaliste interagissant avec une stagiaire
et essayant de prendre son micro.
09:23
They removed frames from this video
167
563427
1999
Ils ont enlevé des images de cette vidéo
09:25
in order to make his actions seem more punchy.
168
565450
3287
afin que ces actes paraissent plus percutants.
09:29
And when videographers and stuntmen and women
169
569157
3385
Quand des vidéastes, des cascadeurs et des cascadeuses
09:32
were interviewed about this type of technique,
170
572566
2427
ont été interrogés sur ce genre de technique,
09:35
they said, "Yes, we use this in the movies all the time
171
575017
3828
ils ont dit : « Oui, nous utilisons constamment cela dans les films
09:38
to make our punches and kicks look more choppy and more aggressive."
172
578869
4763
pour que nos coups de poing et de pied paraissent plus musclés et agressifs. »
09:44
They then put out this video
173
584268
1867
Ils ont ensuite publié cette vidéo
09:46
and partly used it as justification
174
586159
2500
l'ont utilisée comme justification partielle
09:48
to revoke Jim Acosta, the reporter's, press pass
175
588683
3999
pour révoquer la carte de presse de Jim Acosta, le journaliste,
09:52
from the White House.
176
592706
1339
pour la Maison-Blanche.
09:54
And CNN had to sue to have that press pass reinstated.
177
594069
4809
CNN a dû aller en justice pour faire rétablir cette carte de presse.
10:00
There are about five different paths that I can think of that we can follow
178
600538
5603
Il y a environ cinq chemins différents
que je peux imaginer et que nous pourrions suivre
10:06
to try and address some of these very difficult problems today.
179
606165
3739
pour essayer de remédier à ces problèmes très difficiles.
10:10
Each one of them has promise,
180
610379
1810
Chacun est prometteur
10:12
but each one of them has its own challenges.
181
612213
2999
mais chacun a des défis qui lui sont propres.
10:15
The first one is labeling.
182
615236
2008
Le premier est l'étiquetage.
10:17
Think about it this way:
183
617268
1357
Réfléchissez-y :
10:18
when you go to the grocery store to buy food to consume,
184
618649
3611
quand vous allez au supermarché pour acheter de la nourriture,
10:22
it's extensively labeled.
185
622284
1904
elle est amplement étiquetée.
10:24
You know how many calories it has,
186
624212
1992
Vous savez combien de calories elle contient,
10:26
how much fat it contains --
187
626228
1801
combien de graisses --
10:28
and yet when we consume information, we have no labels whatsoever.
188
628053
4278
et pourtant, quand nous consommons des informations,
nous n'avons pas d'étiquettes.
10:32
What is contained in this information?
189
632355
1928
Que contient cette information ?
10:34
Is the source credible?
190
634307
1453
La source est-elle crédible ?
10:35
Where is this information gathered from?
191
635784
2317
Où cette information a-t-elle été recueillie ?
10:38
We have none of that information
192
638125
1825
Nous n'avons aucune de ces informations
10:39
when we are consuming information.
193
639974
2103
quand nous consommons des informations.
10:42
That is a potential avenue, but it comes with its challenges.
194
642101
3238
C'est une solution potentielle, mais elle a ses défis.
10:45
For instance, who gets to decide, in society, what's true and what's false?
195
645363
6451
Par exemple, qui décide, dans la société, ce qui est vrai et ce qui est faux ?
10:52
Is it the governments?
196
652387
1642
Est-ce que ce sont les gouvernements ?
10:54
Is it Facebook?
197
654053
1150
Est-ce Facebook ?
10:55
Is it an independent consortium of fact-checkers?
198
655601
3762
Est-ce un consortium indépendant de vérificateurs d'informations ?
10:59
And who's checking the fact-checkers?
199
659387
2466
Et qui contrôle ceux qui vérifient les informations ?
11:02
Another potential avenue is incentives.
200
662427
3084
Une autre option possible, ce sont les incitations.
11:05
We know that during the US presidential election
201
665535
2634
Nous savons que durant les élections présidentielles américaines,
11:08
there was a wave of misinformation that came from Macedonia
202
668193
3690
il y a eu une vague de désinformation venue de Macédoine du Nord
11:11
that didn't have any political motive
203
671907
2337
qui n'avait aucun mobile politique
11:14
but instead had an economic motive.
204
674268
2460
mais avait un mobile économique.
11:16
And this economic motive existed,
205
676752
2148
Ce mobile économique existait
11:18
because false news travels so much farther, faster
206
678924
3524
car l'infox circule tellement plus loin, plus vite
11:22
and more deeply than the truth,
207
682472
2010
et plus profondément que la vérité
11:24
and you can earn advertising dollars as you garner eyeballs and attention
208
684506
4960
et vous pouvez gagner de l'argent dans la publicité
alors que vous recueillez les regards et l'attention
11:29
with this type of information.
209
689490
1960
avec ce genre d'informations.
11:31
But if we can depress the spread of this information,
210
691474
3833
Mais si nous pouvons réduire la diffusion de ces informations,
11:35
perhaps it would reduce the economic incentive
211
695331
2897
peut-être cela réduirait-il l'incitation économique à les produire.
11:38
to produce it at all in the first place.
212
698252
2690
11:40
Third, we can think about regulation,
213
700966
2500
Troisièmement, nous pouvons réfléchir à une réglementation
11:43
and certainly, we should think about this option.
214
703490
2325
et nous devrions réfléchir à cette option.
11:45
In the United States, currently,
215
705839
1611
Actuellement aux États-Unis,
11:47
we are exploring what might happen if Facebook and others are regulated.
216
707474
4848
nous explorons ce qu'il pourrait se passer
si Facebook et les autres étaient réglementés.
11:52
While we should consider things like regulating political speech,
217
712346
3801
Si nous devrions considérer des choses comme réglementer le discours politique,
11:56
labeling the fact that it's political speech,
218
716171
2508
l'étiqueter comme étant du discours politique,
11:58
making sure foreign actors can't fund political speech,
219
718703
3819
nous assurer que les acteurs étrangers
ne puissent pas financer un discours politique,
12:02
it also has its own dangers.
220
722546
2547
cela a aussi ses dangers.
12:05
For instance, Malaysia just instituted a six-year prison sentence
221
725522
4878
Par exemple, la Malaisie vient d'instituer une peine de prison de six ans
12:10
for anyone found spreading misinformation.
222
730424
2734
pour quiconque diffusant de la désinformation.
12:13
And in authoritarian regimes,
223
733696
2079
Dans les régimes autoritaires,
12:15
these kinds of policies can be used to suppress minority opinions
224
735799
4666
ce genre de politiques peuvent être utilisées
pour étouffer les opinions minoritaires
12:20
and to continue to extend repression.
225
740489
3508
et continuer à accroître la répression.
12:24
The fourth possible option is transparency.
226
744680
3543
La quatrième option possible est la transparence.
12:28
We want to know how do Facebook's algorithms work.
227
748843
3714
Nous voulons savoir comment fonctionnent les algorithmes de Facebook.
12:32
How does the data combine with the algorithms
228
752581
2880
Comment les données se combinent-elles aux algorithmes
12:35
to produce the outcomes that we see?
229
755485
2838
pour générer les résultats que nous observons ?
12:38
We want them to open the kimono
230
758347
2349
Nous voulons qu'ils ouvrent le kimono
12:40
and show us exactly the inner workings of how Facebook is working.
231
760720
4214
et nous montrent les rouages internes du fonctionnement de Facebook.
12:44
And if we want to know social media's effect on society,
232
764958
2779
Pour connaître les effets des réseaux sociaux sur la société,
12:47
we need scientists, researchers
233
767761
2086
il faut que les scientifiques, les chercheurs
12:49
and others to have access to this kind of information.
234
769871
3143
et les autres aient accès à ce genre d'informations.
12:53
But at the same time,
235
773038
1547
Mais en même temps,
12:54
we are asking Facebook to lock everything down,
236
774609
3801
nous demandons à Facebook de tout verrouiller
12:58
to keep all of the data secure.
237
778434
2173
pour assurer la sécurité des données.
13:00
So, Facebook and the other social media platforms
238
780631
3159
Facebook et les autres plateformes de réseaux sociaux
13:03
are facing what I call a transparency paradox.
239
783814
3134
font face à ce que j'appelle un paradoxe de la transparence.
13:07
We are asking them, at the same time,
240
787266
2674
Nous leur demandons à la fois
13:09
to be open and transparent and, simultaneously secure.
241
789964
4809
d'être ouverts et transparents et, simultanément, d'être sécurisés.
13:14
This is a very difficult needle to thread,
242
794797
2691
Cela est difficile à accomplir,
13:17
but they will need to thread this needle
243
797512
1913
mais ils devront le faire
13:19
if we are to achieve the promise of social technologies
244
799449
3787
si nous voulons
que les technologies sociales tiennent leurs promesses
13:23
while avoiding their peril.
245
803260
1642
tout en évitant les risques.
13:24
The final thing that we could think about is algorithms and machine learning.
246
804926
4691
Pour finir, nous pourrions réfléchir
aux algorithmes et à l'apprentissage automatique.
13:29
Technology devised to root out and understand fake news, how it spreads,
247
809641
5277
Une technologie conçue pour éradiquer et comprendre l'infox, sa diffusion,
13:34
and to try and dampen its flow.
248
814942
2331
et essayer d'atténuer sa circulation.
13:37
Humans have to be in the loop of this technology,
249
817824
2897
Les êtres humains doivent jouer un rôle dans cette technologie
13:40
because we can never escape
250
820745
2278
car nous ne pourrons jamais échapper au fait
13:43
that underlying any technological solution or approach
251
823047
4038
que pour toute solution ou approche technologie,
13:47
is a fundamental ethical and philosophical question
252
827109
4047
il y a une question éthique et philosophique fondamentale
13:51
about how do we define truth and falsity,
253
831180
3270
quant à notre définition du vrai et du faux,
13:54
to whom do we give the power to define truth and falsity
254
834474
3180
à qui nous donnons le pouvoir de définir le vrai et le faux
13:57
and which opinions are legitimate,
255
837678
2460
et quelles opinions sont légitimes,
14:00
which type of speech should be allowed and so on.
256
840162
3706
une rapidité de quel ordre de grandeur devrait être autorisée et ainsi de suite.
14:03
Technology is not a solution for that.
257
843892
2328
La technologie n'est pas la solution.
14:06
Ethics and philosophy is a solution for that.
258
846244
3698
L'éthique et la philosophie le sont.
14:10
Nearly every theory of human decision making,
259
850950
3318
Presque toutes les théories sur la prise de décision humaine,
14:14
human cooperation and human coordination
260
854292
2761
la coopération humaine et la coordination humaine
14:17
has some sense of the truth at its core.
261
857077
3674
ont une part de vérité en elles.
14:21
But with the rise of fake news,
262
861347
2056
Mais avec l'essor des infox,
14:23
the rise of fake video,
263
863427
1443
l'essor des vidéos truquées,
14:24
the rise of fake audio,
264
864894
1882
l'essor des enregistrements audios truqués,
14:26
we are teetering on the brink of the end of reality,
265
866800
3924
nous vacillons au bord de la fin de la réalité,
14:30
where we cannot tell what is real from what is fake.
266
870748
3889
où nous ne pouvons pas discerner ce qui est réel et ce qui est faux.
14:34
And that's potentially incredibly dangerous.
267
874661
3039
Cela est potentiellement incroyablement dangereux.
14:38
We have to be vigilant in defending the truth
268
878931
3948
Nous devons être vigilants dans la défense de la vérité
14:42
against misinformation.
269
882903
1534
face à la désinformation.
14:44
With our technologies, with our policies
270
884919
3436
Avec nos technologies, avec nos politiques
14:48
and, perhaps most importantly,
271
888379
1920
et, peut-être surtout, individuellement,
14:50
with our own individual responsibilities,
272
890323
3214
avec nos responsabilités, nos décisions,
14:53
decisions, behaviors and actions.
273
893561
3555
nos comportements et nos actions.
14:57
Thank you very much.
274
897553
1437
Merci beaucoup.
14:59
(Applause)
275
899014
3517
(Applaudissements)
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7