How deepfakes undermine truth and threaten democracy | Danielle Citron

85,268 views ・ 2019-10-07

TED


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

Traducteur: eric vautier Relecteur: Claire Ghyselen
00:12
[This talk contains mature content]
0
12535
2767
[Cette intervention comporte du contenu réservé aux adultes]
00:17
Rana Ayyub is a journalist in India
1
17762
2992
Rana Ayyub est journaliste en Inde.
00:20
whose work has exposed government corruption
2
20778
2602
Elle a exposé la corruption du gouvernement
00:24
and human rights violations.
3
24411
2157
et des violations des droits de l'homme.
00:26
And over the years,
4
26990
1167
Et au fil des années,
00:28
she's gotten used to vitriol and controversy around her work.
5
28181
3303
elle s'est habituée à la critique et à la controverse sur son travail.
00:32
But none of it could have prepared her for what she faced in April 2018.
6
32149
5109
Mais rien n'aurait pu la préparer à ce qu'il s'est passé en avril 2018.
00:38
She was sitting in a café with a friend when she first saw it:
7
38125
3651
Elle était dans un café avec un ami quand elle a vu la vidéo :
00:41
a two-minute, 20-second video of her engaged in a sex act.
8
41800
4943
une vidéo de deux minutes vingt la montrant en plein ébat sexuel.
00:47
And she couldn't believe her eyes.
9
47188
2349
Elle n'en croyait pas ses yeux.
00:49
She had never made a sex video.
10
49561
2273
Elle n'avait jamais tourné une telle vidéo.
00:52
But unfortunately, thousands upon thousands of people
11
52506
3465
Mais malheureusement, des milliers de gens
00:55
would believe it was her.
12
55995
1666
ont cru que c'était elle.
00:58
I interviewed Ms. Ayyub about three months ago,
13
58673
2944
J'ai interviewé Mme Ayyub il y a trois mois,
01:01
in connection with my book on sexual privacy.
14
61641
2504
dans le cadre de mon livre sur la protection de l'intimité sexuelle.
01:04
I'm a law professor, lawyer and civil rights advocate.
15
64681
3198
Je suis professeur de droit, juriste et avocate en droit civil.
01:08
So it's incredibly frustrating knowing that right now,
16
68204
4611
Il est incroyablement frustrant, sachant tout cela,
01:12
law could do very little to help her.
17
72839
2238
que la loi ne puisse pas beaucoup l'aider.
01:15
And as we talked,
18
75458
1547
Lors de notre conversation,
01:17
she explained that she should have seen the fake sex video coming.
19
77029
4512
elle m'a expliqué qu'elle aurait dû voir venir cette fausse vidéo porno.
01:22
She said, "After all, sex is so often used to demean and to shame women,
20
82038
5596
Elle m'a dit : « Après tout, le sexe est si souvent utilisé
pour rabaisser les femmes ou leur faire honte,
01:27
especially minority women,
21
87658
2428
surtout les femmes issues des minorités,
01:30
and especially minority women who dare to challenge powerful men,"
22
90110
4312
et surtout les femmes des minorités qui osent défier des hommes puissants » -
01:34
as she had in her work.
23
94446
1533
ce qu'elle avait fait par son travail.
01:37
The fake sex video went viral in 48 hours.
24
97191
3976
En 48 heures, la vidéo truquée est devenue virale.
01:42
All of her online accounts were flooded with screenshots of the video,
25
102064
5307
Tous ses comptes ont été bombardés d'images de cette vidéo,
01:47
with graphic rape and death threats
26
107395
2627
accompagnées de menaces de viol, de menaces de mort,
01:50
and with slurs about her Muslim faith.
27
110046
2533
et d'insultes à sa foi de musulmane.
01:53
Online posts suggested that she was "available" for sex.
28
113426
4564
Des posts en ligne suggéraient qu'elle était « disponible » sexuellement.
01:58
And she was doxed,
29
118014
1610
Et elle a été « doxée » :
01:59
which means that her home address and her cell phone number
30
119648
2778
son adresse personnelle et son numéro de portable
02:02
were spread across the internet.
31
122450
1746
ont été dévoilés sur Internet.
02:04
The video was shared more than 40,000 times.
32
124879
4084
La vidéo a été partagée plus de 40 000 fois.
02:09
Now, when someone is targeted with this kind of cybermob attack,
33
129760
3936
Quand quelqu'un est visé par ce genre de cyber-harcèlement,
02:13
the harm is profound.
34
133720
2063
les conséquences sont immensément douloureuses.
02:16
Rana Ayyub's life was turned upside down.
35
136482
3039
La vie de Rana Ayyub a été chamboulée.
02:20
For weeks, she could hardly eat or speak.
36
140211
3334
Pendant des semaines, elle arrivait à peine à manger ou à parler.
02:23
She stopped writing and closed all of her social media accounts,
37
143919
3689
Elle a arrêté d'écrire et a fermé tous ses comptes sur les réseaux sociaux,
02:27
which is, you know, a tough thing to do when you're a journalist.
38
147632
3158
ce qui, vous savez, est un acte difficile quand vous êtes journaliste.
02:31
And she was afraid to go outside her family's home.
39
151188
3484
Elle avait peur de sortir de chez elle.
02:34
What if the posters made good on their threats?
40
154696
3022
Et si les harceleurs voulaient mettre leurs menaces à exécution ?
02:38
The UN Council on Human Rights confirmed that she wasn't being crazy.
41
158395
4365
Le Conseil de l'ONU pour les droits de l'homme ont confirmé qu'elle avait raison.
02:42
It issued a public statement saying that they were worried about her safety.
42
162784
4637
Il a publié une déclaration disant qu'il s'inquiétait pour sa sécurité.
02:48
What Rana Ayyub faced was a deepfake:
43
168776
4229
Rana Ayyub a été la cible de ce qu'on appelle un deepfake :
02:53
machine-learning technology
44
173029
2540
une technologie basée sur l'apprentissage automatique
02:55
that manipulates or fabricates audio and video recordings
45
175593
4111
qui manipule ou fabrique des enregistrements audio et vidéo
02:59
to show people doing and saying things
46
179728
2723
qui montrent des gens faisant ou disant des choses
03:02
that they never did or said.
47
182475
1866
qu'ils n'ont jamais faites ou dites.
03:04
Deepfakes appear authentic and realistic, but they're not;
48
184807
3361
Les deepfakes semblent authentiques et réalistes, mais ne le sont pas ;
03:08
they're total falsehoods.
49
188192
1772
ce sont des falsifications complètes.
03:11
Although the technology is still developing in its sophistication,
50
191228
3794
Bien que la technologie soit encore dans une phase d'amélioration,
03:15
it is widely available.
51
195046
1614
elle est déjà largement accessible.
03:17
Now, the most recent attention to deepfakes arose,
52
197371
3072
les deepfakes ont tout récemment attiré l'attention,
03:20
as so many things do online,
53
200467
2161
comme tant de choses sur Internet,
03:22
with pornography.
54
202652
1255
grâce à la pornographie.
03:24
In early 2018,
55
204498
2111
Début 2018,
03:26
someone posted a tool on Reddit
56
206633
2468
quelqu'un a posté un outil sur Reddit
03:29
to allow users to insert faces into porn videos.
57
209125
4412
permettant à ses utilisateurs d'intégrer des visages dans des vidéos pornos.
03:33
And what followed was a cascade of fake porn videos
58
213561
3440
S'en est suivi un déluge de fausses vidéos pornos
03:37
featuring people's favorite female celebrities.
59
217025
2797
mettant en scène les célébrités féminines préférées du public.
03:40
And today, you can go on YouTube and pull up countless tutorials
60
220712
3477
Aujourd'hui, vous pouvez faire défiler sur Youtube les nombreux tutoriels
03:44
with step-by-step instructions
61
224213
2286
montrant pas à pas
03:46
on how to make a deepfake on your desktop application.
62
226523
3163
comment créer un deepfake sur votre ordinateur personnel.
03:50
And soon we may be even able to make them on our cell phones.
63
230260
3706
On dit qu'on pourrait même bientôt le faire sur nos téléphones.
03:55
Now, it's the interaction of some of our most basic human frailties
64
235072
5382
On est là au croisement de certaines des plus basiques fragilités humaines
04:00
and network tools
65
240478
1682
et des outils technologiques
04:02
that can turn deepfakes into weapons.
66
242184
2666
qui peuvent transformer les deepfakes en armes.
04:04
So let me explain.
67
244874
1200
Laissez-moi préciser.
04:06
As human beings, we have a visceral reaction to audio and video.
68
246875
4566
Les êtres humains ont une réaction instinctive à l'audio et la vidéo.
04:11
We believe they're true,
69
251860
1488
On croit que c'est vrai,
04:13
on the notion that of course you can believe
70
253372
2078
car, par principe, nous croyons évidemment
04:15
what your eyes and ears are telling you.
71
255474
2478
ce que nos yeux et nos oreilles nous disent.
04:18
And it's that mechanism
72
258476
1699
Et c'est ce mécanisme
04:20
that might undermine our shared sense of reality.
73
260199
3698
qui peut saper notre sens partagé de la réalité.
04:23
Although we believe deepfakes to be true, they're not.
74
263921
3147
Bien que nous pensions que les deepfakes soient vrais, ils ne le sont pas.
04:27
And we're attracted to the salacious, the provocative.
75
267604
4157
Et nous sommes attirés par ce qui est salace, provoquant.
04:32
We tend to believe and to share information
76
272365
3047
On a tendance à croire et à diffuser des informations
04:35
that's negative and novel.
77
275436
2023
qui sont négatives et nouvelles.
04:37
And researchers have found that online hoaxes spread 10 times faster
78
277809
5019
Des chercheurs ont trouvé que les canulars en ligne se répandent dix fois plus vite
04:42
than accurate stories.
79
282852
1627
que les histoires vraies.
04:46
Now, we're also drawn to information
80
286015
4380
De plus, nous sommes aussi attirés par l'information
04:50
that aligns with our viewpoints.
81
290419
1892
qui coïncide avec notre point de vue.
04:52
Psychologists call that tendency "confirmation bias."
82
292950
3561
Les psychologues appellent cela un biais de confirmation.
04:57
And social media platforms supercharge that tendency,
83
297300
4387
Les réseaux sociaux amplifient cette tendance,
05:01
by allowing us to instantly and widely share information
84
301711
3881
en nous permettant de partager une information instantanément et largement,
05:05
that accords with our viewpoints.
85
305616
1792
si elle correspond à notre point de vue.
05:08
Now, deepfakes have the potential to cause grave individual and societal harm.
86
308735
5568
Mais les deepfakes ont le potentiel
de causer de graves dommages individuels et sociétaux.
05:15
So, imagine a deepfake
87
315204
2024
Imaginez un deepfake
05:17
that shows American soldiers in Afganistan burning a Koran.
88
317252
4182
qui montrerait des soldats américains brûlant un Coran en Afghanistan.
05:22
You can imagine that that deepfake would provoke violence
89
322807
3024
On imagine bien qu'une telle vidéo déclencherait des violences
05:25
against those soldiers.
90
325855
1533
contre ces soldats.
05:27
And what if the very next day
91
327847
2873
Et imaginons que le lendemain
05:30
there's another deepfake that drops,
92
330744
2254
tombe un nouveau deepfake
05:33
that shows a well-known imam based in London
93
333022
3317
montrant un imam de Londres bien connu
05:36
praising the attack on those soldiers?
94
336363
2467
appelant à attaquer ces soldats.
05:39
We might see violence and civil unrest,
95
339617
3163
Ça pourrait déclencher des violences et des troubles civils,
05:42
not only in Afganistan and the United Kingdom,
96
342804
3249
pas seulement en Afghanistan ou au Royaume-Uni,
05:46
but across the globe.
97
346077
1515
mais partout dans le monde.
05:48
And you might say to me,
98
348251
1158
Vous pourriez me répondre : « Allons, c'est tiré par les cheveux. »
05:49
"Come on, Danielle, that's far-fetched."
99
349433
2247
05:51
But it's not.
100
351704
1150
Mais ce n'est pas le cas.
05:53
We've seen falsehoods spread
101
353293
2191
On a vu des mensonges se répandre
05:55
on WhatsApp and other online message services
102
355508
2722
sur WhatsApp et d'autres services de messagerie en ligne
05:58
lead to violence against ethnic minorities.
103
358254
2761
et mener à des violences envers des minorités ethniques.
06:01
And that was just text --
104
361039
1887
Et ce n'était que du texte -
06:02
imagine if it were video.
105
362950
2024
imaginez si ça avait été des vidéos.
06:06
Now, deepfakes have the potential to corrode the trust that we have
106
366593
5357
Les deepfakes ont le potentiel d'entamer la confiance que nous avons
06:11
in democratic institutions.
107
371974
1992
dans les institutions démocratiques.
06:15
So, imagine the night before an election.
108
375006
2667
Imaginez qu'à la veille d'une élection,
06:17
There's a deepfake showing one of the major party candidates
109
377996
3238
on voit un deepfake montrant un des candidats du parti majoritaire
06:21
gravely sick.
110
381258
1150
gravement malade.
06:23
The deepfake could tip the election
111
383202
2333
Ce deepfake pourrait faire basculer l'élection
06:25
and shake our sense that elections are legitimate.
112
385559
3375
et mettre en doute la légitimité qu'on attribue à l'élection.
06:30
Imagine if the night before an initial public offering
113
390515
3326
Imaginez qu'à la veille de l'entrée en bourse
06:33
of a major global bank,
114
393865
2333
d'une banque importante,
06:36
there was a deepfake showing the bank's CEO
115
396222
3149
il y ait un deepfake montrant le PDG de la banque
06:39
drunkenly spouting conspiracy theories.
116
399395
2697
complètement saoûl, soutenant des théories complotistes.
06:42
The deepfake could tank the IPO,
117
402887
3047
Ce deepfake pourrait couler cette introduction en bourse,
06:45
and worse, shake our sense that financial markets are stable.
118
405958
4115
et pire encore, nous faire douter de la stabilité des marchés financiers.
06:51
So deepfakes can exploit and magnify the deep distrust that we already have
119
411385
6989
Les deepfakes savent exploiter et amplifier
la méfiance profonde que nous avons déjà
06:58
in politicians, business leaders and other influential leaders.
120
418398
4214
dans les politiciens, les patrons et les autres leaders influents.
07:02
They find an audience primed to believe them.
121
422945
3284
Ils rencontrent un public tout prêt à les croire.
07:07
And the pursuit of truth is on the line as well.
122
427287
2765
La recherche de la vérité est en danger également.
07:11
Technologists expect that with advances in AI,
123
431077
3564
Les experts en technologie s'attendent à ce qu'avec les avancées de l'IA,
07:14
soon it may be difficult if not impossible
124
434665
3682
il soit bientôt difficile, sinon impossible,
07:18
to tell the difference between a real video and a fake one.
125
438371
3769
de faire la différence entre une vraie et une fausse vidéo.
07:23
So how can the truth emerge in a deepfake-ridden marketplace of ideas?
126
443022
5341
Comment la vérité pourrait donc émerger
sur une scène des idées contaminée par les deepfakes ?
07:28
Will we just proceed along the path of least resistance
127
448752
3420
Suivrons-nous juste la voie de moindre résistance
07:32
and believe what we want to believe,
128
452196
2437
pour croire ce que nous voulons croire,
07:34
truth be damned?
129
454657
1150
et au diable la vérité ?
07:36
And not only might we believe the fakery,
130
456831
3175
Non seulement nous risquons de croire les mensonges,
07:40
we might start disbelieving the truth.
131
460030
3326
mais aussi de douter de la vérité.
07:43
We've already seen people invoke the phenomenon of deepfakes
132
463887
4079
Nous avons déjà vu des gens utiliser ce phénomène des deepfakes
07:47
to cast doubt on real evidence of their wrongdoing.
133
467990
3920
pour mettre en doute des preuves tangibles de leurs agissements.
07:51
We've heard politicians say of audio of their disturbing comments,
134
471934
5969
Nous avons entendu des politiciens dire de certains enregistrements :
07:57
"Come on, that's fake news.
135
477927
1746
« Allez, ce sont des fake news.
07:59
You can't believe what your eyes and ears are telling you."
136
479697
3920
Vous ne pouvez pas croire ce que vos yeux et vos oreilles vous disent. »
08:04
And it's that risk
137
484402
1731
Et c'est ce risque
08:06
that professor Robert Chesney and I call the "liar's dividend":
138
486157
5436
que le professeur Robert Chesney et moi appelons le « dividende du menteur » :
08:11
the risk that liars will invoke deepfakes
139
491617
3357
le risque qu'un menteur invoque les deepfakes
08:14
to escape accountability for their wrongdoing.
140
494998
2905
pour échapper aux conséquences de ses malversations.
08:18
So we've got our work cut out for us, there's no doubt about it.
141
498963
3071
Nous avons donc du pain sur la planche, sans aucun doute.
08:22
And we're going to need a proactive solution
142
502606
3325
Nous allons avoir besoin d'une solution proactive
08:25
from tech companies, from lawmakers,
143
505955
3511
de la part des sociétés de technologie, des législateurs,
08:29
law enforcers and the media.
144
509490
1984
des forces de l'ordre et des media.
08:32
And we're going to need a healthy dose of societal resilience.
145
512093
4016
Et nous allons avoir besoin d'une bonne dose de résilience sociale.
08:37
So now, we're right now engaged in a very public conversation
146
517506
3896
Nous sommes déjà engagés en ce moment dans une large conversation publique
08:41
about the responsibility of tech companies.
147
521426
2913
sur la responsabilité des sociétés de technologies.
08:44
And my advice to social media platforms
148
524926
3032
J'ai déjà suggéré aux réseaux sociaux
08:47
has been to change their terms of service and community guidelines
149
527982
3873
de changer leurs conditions d'utilisation et leurs règles d'usage
08:51
to ban deepfakes that cause harm.
150
531879
2336
pour interdire ces deepfakes dangereux.
08:54
That determination, that's going to require human judgment,
151
534712
3960
Cette détermination va nécessiter une évaluation par des humains
08:58
and it's expensive.
152
538696
1571
et va coûter cher.
09:00
But we need human beings
153
540673
2285
Mais il faut que des humains
09:02
to look at the content and context of a deepfake
154
542982
3873
étudient le contenu et le contexte d'un deepfake
09:06
to figure out if it is a harmful impersonation
155
546879
3682
pour déterminer s'il s'agit une utilisation dangereuse
09:10
or instead, if it's valuable satire, art or education.
156
550585
4382
ou, au contraire, d'une satire, d'une œuvre d'art ou d'un contenu éducatif.
09:16
So now, what about the law?
157
556118
1495
Et au fait, que dit la loi ?
09:18
Law is our educator.
158
558666
2349
Nous devons apprendre de la loi.
09:21
It teaches us about what's harmful and what's wrong.
159
561515
4038
Elle nous dit ce qui est dangereux et ce qui est mal.
09:25
And it shapes behavior it deters by punishing perpetrators
160
565577
4555
Et elle réprime les comportements interdits en punissant les coupables
09:30
and securing remedies for victims.
161
570156
2267
et en prenant soin des victimes.
09:33
Right now, law is not up to the challenge of deepfakes.
162
573148
4280
A ce jour, la loi n'est pas à la hauteur du défi posé par les deepfakes.
09:38
Across the globe,
163
578116
1390
Dans le monde entier,
09:39
we lack well-tailored laws
164
579530
2444
on manque de lois adaptées
09:41
that would be designed to tackle digital impersonations
165
581998
3570
qui permettraient d'empêcher ces mises en scène numériques
09:45
that invade sexual privacy,
166
585592
2231
qui violent l'intimité,
09:47
that damage reputations
167
587847
1387
qui détruisent des réputations
09:49
and that cause emotional distress.
168
589258
1951
et qui causent des dommages émotionnels.
09:51
What happened to Rana Ayyub is increasingly commonplace.
169
591725
3873
Ce qui est arrivé à Rana Ayyub devient de plus en plus courant.
09:56
Yet, when she went to law enforcement in Delhi,
170
596074
2214
Quand elle s'est rendue à la police à Delhi,
09:58
she was told nothing could be done.
171
598312
2135
on lui a dit qu'on ne pouvait rien faire.
10:01
And the sad truth is that the same would be true
172
601101
3183
Et la triste vérité est que c'est la même chose
10:04
in the United States and in Europe.
173
604308
2266
aux États-Unis et en Europe.
10:07
So we have a legal vacuum that needs to be filled.
174
607300
4356
Il y a là un vide juridique qu'il faut combler.
10:12
My colleague Dr. Mary Anne Franks and I are working with US lawmakers
175
612292
4092
Ma collègue le Dr Mary Anne Franks et moi travaillons avec le législateur étasunien
10:16
to devise legislation that would ban harmful digital impersonations
176
616408
4804
pour mettre sur pied des lois
qui interdiraient ces mises en scène numériques blessantes
10:21
that are tantamount to identity theft.
177
621236
2533
qui s'apparentent à du vol d'identité.
10:24
And we've seen similar moves
178
624252
2126
On constate des démarches similaires
10:26
in Iceland, the UK and Australia.
179
626402
3301
en Islande, au Royaume-Uni et en Australie.
10:30
But of course, that's just a small piece of the regulatory puzzle.
180
630157
3259
Mais bien sûr, il ne s'agit que d'une petite pièce dans le puzzle réglementaire.
10:34
Now, I know law is not a cure-all. Right?
181
634911
3169
Je sais bien que la loi n'est pas la panacée.
10:38
It's a blunt instrument.
182
638104
1600
C'est un instrument brutal.
10:40
And we've got to use it wisely.
183
640346
1539
Nous devons nous en servir subtilement.
10:42
It also has some practical impediments.
184
642411
2812
Il y a également quelques problèmes pratiques.
10:45
You can't leverage law against people you can't identify and find.
185
645657
5044
On ne peut pas exercer de sanctions contre quelqu'un
qu'on ne peut pas identifier ni trouver.
10:51
And if a perpetrator lives outside the country
186
651463
3286
Et si un coupable vit en dehors du pays
10:54
where a victim lives,
187
654773
1754
où vit la victime,
10:56
then you may not be able to insist
188
656551
1629
il pourrait être impossible
10:58
that the perpetrator come into local courts
189
658204
2349
que le coupable comparaisse devant la justice
11:00
to face justice.
190
660577
1150
dans le pays de la victime.
11:02
And so we're going to need a coordinated international response.
191
662236
4063
Nous allons donc avoir besoin d'une réponse internationale coordonnée.
11:07
Education has to be part of our response as well.
192
667819
3333
Sans oublier l'éducation.
11:11
Law enforcers are not going to enforce laws
193
671803
3731
Les forces de l'ordre n'interviendront pas si elles ne connaissent pas ces lois
11:15
they don't know about
194
675558
1458
11:17
and proffer problems they don't understand.
195
677040
2596
et ne régleront pas des problèmes qu'elles ne comprennent pas.
11:20
In my research on cyberstalking,
196
680376
2191
Dans mes recherches sur le cyberharcèlement,
11:22
I found that law enforcement lacked the training
197
682591
3499
j'ai constaté que les forces de l'ordre n'avaient pas la formation
11:26
to understand the laws available to them
198
686114
2582
pour comprendre les lois dont elles disposent
11:28
and the problem of online abuse.
199
688720
2349
et les problèmes sur Internet.
11:31
And so often they told victims,
200
691093
2682
Et elles disent souvent aux victimes :
11:33
"Just turn your computer off. Ignore it. It'll go away."
201
693799
3971
« Éteignez votre ordinateur. Ignorez ça. Ça va disparaître. »
11:38
And we saw that in Rana Ayyub's case.
202
698261
2466
C'est qu'on a vu dans le cas de Rana Ayyub.
11:41
She was told, "Come on, you're making such a big deal about this.
203
701102
3468
On lui a dit : « Allez, vous faites toute une histoire.
11:44
It's boys being boys."
204
704594
1743
C'est juste des garçons qui s'amusent. »
11:47
And so we need to pair new legislation with efforts at training.
205
707268
5252
Il faut donc accompagner les nouvelles lois avec de la formation.
11:54
And education has to be aimed on the media as well.
206
714053
3429
Cette formation doit aussi être dispensée aux media.
11:58
Journalists need educating about the phenomenon of deepfakes
207
718180
4260
Les journalistes doivent être formés au phénomène des deepfakes,
12:02
so they don't amplify and spread them.
208
722464
3039
pour qu'ils ne relaient pas, ni ne les amplifient.
12:06
And this is the part where we're all involved.
209
726583
2168
Et c'est là où nous sommes tous concernés.
12:08
Each and every one of us needs educating.
210
728775
3855
Chacun d'entre nous doit être formé.
12:13
We click, we share, we like, and we don't even think about it.
211
733375
3675
On clique, on partage, on like sans même y réfléchir.
12:17
We need to do better.
212
737551
1547
Nous devons nous améliorer.
12:19
We need far better radar for fakery.
213
739726
2809
Nous avons besoin de meilleurs radars contre les faux.
12:25
So as we're working through these solutions,
214
745744
3841
Et pendant que nous essayerons d'y voir clair,
12:29
there's going to be a lot of suffering to go around.
215
749609
2563
il y aura encore beaucoup de souffrance générée.
12:33
Rana Ayyub is still wrestling with the fallout.
216
753093
2746
Rana Ayyub se bat toujours contre les conséquences du deepfake.
12:36
She still doesn't feel free to express herself on- and offline.
217
756669
4189
Elle ne se sent toujours pas libre de s'exprimer -
en ligne et dans la vraie vie.
12:41
And as she told me,
218
761566
1365
Elle m'a dit
12:42
she still feels like there are thousands of eyes on her naked body,
219
762955
5074
qu'elle avait toujours l'impression que des milliers d'yeux la voyaient nue,
12:48
even though, intellectually, she knows it wasn't her body.
220
768053
3661
même si, intellectuellement, elle sait que ce n'était pas son corps.
12:52
And she has frequent panic attacks,
221
772371
2349
Elle a souvent des crises de panique,
12:54
especially when someone she doesn't know tries to take her picture.
222
774744
4100
surtout quand quelqu'un qu'elle ne connaît pas essaie de la prendre en photo.
12:58
"What if they're going to make another deepfake?" she thinks to herself.
223
778868
3511
« Est-ce qu'ils vont en faire un autre deepfake ? » se demande-t-elle.
13:03
And so for the sake of individuals like Rana Ayyub
224
783082
3921
Et donc, pour le bien de personnes comme Rana Ayyub,
13:07
and the sake of our democracy,
225
787027
2306
et pour le bien de nos démocraties,
13:09
we need to do something right now.
226
789357
2182
nous devons agir maintenant.
13:11
Thank you.
227
791563
1151
Merci.
13:12
(Applause)
228
792738
2508
(Applaudissements)
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7