How deepfakes undermine truth and threaten democracy | Danielle Citron

86,286 views ・ 2019-10-07

TED


Fare doppio clic sui sottotitoli in inglese per riprodurre il video.

Traduttore: Laura Comand Revisore: Stefania Betti
00:12
[This talk contains mature content]
0
12535
2767
[Questo discorso contiene materiale per adulti]
00:17
Rana Ayyub is a journalist in India
1
17762
2992
Rana Ayyub è un giornalista indiana
00:20
whose work has exposed government corruption
2
20778
2602
che, grazie alle sue inchieste, ha svelato la corruzione del governo
00:24
and human rights violations.
3
24411
2157
e le violazioni dei diritti umani.
00:26
And over the years,
4
26990
1167
Con il tempo,
00:28
she's gotten used to vitriol and controversy around her work.
5
28181
3303
si è abituata alle aspre critiche e alle polemiche sul suo lavoro.
00:32
But none of it could have prepared her for what she faced in April 2018.
6
32149
5109
Ma niente di tutto ciò poteva prepararla a ciò che successe nell'aprile del 2018.
00:38
She was sitting in a café with a friend when she first saw it:
7
38125
3651
Era seduta al bar con un'amica, quando lo vide per la prima volta:
00:41
a two-minute, 20-second video of her engaged in a sex act.
8
41800
4943
un video di due minuti e 20 secondi dove era protagonista di un atto sessuale.
00:47
And she couldn't believe her eyes.
9
47188
2349
Non poteva credere ai suoi occhi.
00:49
She had never made a sex video.
10
49561
2273
Non aveva mai fatto un video a sfondo sessuale.
00:52
But unfortunately, thousands upon thousands of people
11
52506
3465
Sfortunatamente, però, migliaia e migliaia di persone
00:55
would believe it was her.
12
55995
1666
credevano che fosse lei.
00:58
I interviewed Ms. Ayyub about three months ago,
13
58673
2944
Ho intervistato Ayyub circa tre mesi fa,
01:01
in connection with my book on sexual privacy.
14
61641
2504
in tema con il mio libro sulla privacy sessuale.
01:04
I'm a law professor, lawyer and civil rights advocate.
15
64681
3198
Sono una docente di legge, avvocato e sostenitrice dei diritti civili.
01:08
So it's incredibly frustrating knowing that right now,
16
68204
4611
È incredibilmente frustante sapere che al momento
01:12
law could do very little to help her.
17
72839
2238
la legge può fare ben poco per aiutarla.
01:15
And as we talked,
18
75458
1547
Mentre parlavamo,
01:17
she explained that she should have seen the fake sex video coming.
19
77029
4512
mi spiegò che si sarebbe dovuta aspettare un finto video a sfondo sessuale.
01:22
She said, "After all, sex is so often used to demean and to shame women,
20
82038
5596
Mi disse: "Si sa, il sesso è spesso usato per umiliare e infamare le donne,
01:27
especially minority women,
21
87658
2428
specialmente donne della minoranza,
01:30
and especially minority women who dare to challenge powerful men,"
22
90110
4312
e soprattutto donne della minoranza che osano sfidare uomini di potere”,
01:34
as she had in her work.
23
94446
1533
come aveva fatto lei nel suo lavoro.
01:37
The fake sex video went viral in 48 hours.
24
97191
3976
Il finto video sessuale è diventato virale in 48 ore.
01:42
All of her online accounts were flooded with screenshots of the video,
25
102064
5307
Tutti i suoi account online erano invasi da screenshot del video,
01:47
with graphic rape and death threats
26
107395
2627
da minacce di stupro e di morte descritte nel dettaglio
01:50
and with slurs about her Muslim faith.
27
110046
2533
e da offese circa la sua fede islamica.
01:53
Online posts suggested that she was "available" for sex.
28
113426
4564
I post online suggerivano che fosse "disponibile" al sesso.
01:58
And she was doxed,
29
118014
1610
Fu vittima di "doxing",
01:59
which means that her home address and her cell phone number
30
119648
2778
ovvero il suo indirizzo di casa e il suo numero di telefono
02:02
were spread across the internet.
31
122450
1746
furono diffusi sul web.
02:04
The video was shared more than 40,000 times.
32
124879
4084
Il video fu condiviso più di 40.000 volte.
02:09
Now, when someone is targeted with this kind of cybermob attack,
33
129760
3936
Quando qualcuno è preso di mira da questo tipo di attacco virtuale,
02:13
the harm is profound.
34
133720
2063
il danno è profondo.
02:16
Rana Ayyub's life was turned upside down.
35
136482
3039
La vita di Rana Ayyub è stata stravolta.
02:20
For weeks, she could hardly eat or speak.
36
140211
3334
Per settimane, riuscì a malapena a mangiare o a parlare.
02:23
She stopped writing and closed all of her social media accounts,
37
143919
3689
Smise di scrivere e chiuse tutti i suoi account social,
02:27
which is, you know, a tough thing to do when you're a journalist.
38
147632
3158
cosa molto difficile per una giornalista.
02:31
And she was afraid to go outside her family's home.
39
151188
3484
Aveva paura di uscire di casa.
02:34
What if the posters made good on their threats?
40
154696
3022
E se gli utenti fossero seri nelle loro minacce?
02:38
The UN Council on Human Rights confirmed that she wasn't being crazy.
41
158395
4365
Il Consiglio dei diritti umani ONU confermò che non era pazza.
02:42
It issued a public statement saying that they were worried about her safety.
42
162784
4637
Si dichiararono pubblicamente preoccupati per la sua incolumità.
02:48
What Rana Ayyub faced was a deepfake:
43
168776
4229
Rana Ayyub ha subito un deepfake:
02:53
machine-learning technology
44
173029
2540
un sistema di intelligenza artificiale
02:55
that manipulates or fabricates audio and video recordings
45
175593
4111
che manipola o fabbrica registrazioni audio e video
02:59
to show people doing and saying things
46
179728
2723
per mostrare persone che fanno o dicono cose
03:02
that they never did or said.
47
182475
1866
che non hanno mai fatto o detto.
03:04
Deepfakes appear authentic and realistic, but they're not;
48
184807
3361
I deepfake sembrano autentici e realistici, ma non lo sono:
03:08
they're total falsehoods.
49
188192
1772
sono dei clamorosi falsi.
03:11
Although the technology is still developing in its sophistication,
50
191228
3794
Anche se questa tecnologia è ancora in fase di perfezionamento,
03:15
it is widely available.
51
195046
1614
è largamente disponibile.
03:17
Now, the most recent attention to deepfakes arose,
52
197371
3072
La più recente attenzione ai deepfake è scaturita,
03:20
as so many things do online,
53
200467
2161
così come fanno molte cose online,
03:22
with pornography.
54
202652
1255
dalla pornografia.
03:24
In early 2018,
55
204498
2111
All'inizio del 2018
03:26
someone posted a tool on Reddit
56
206633
2468
qualcuno rese disponibile su Reddit uno strumento
03:29
to allow users to insert faces into porn videos.
57
209125
4412
che permetteva agli utenti di inserire volti all'interno di video porno.
03:33
And what followed was a cascade of fake porn videos
58
213561
3440
Ne seguì una valanga di finti video porno
03:37
featuring people's favorite female celebrities.
59
217025
2797
con le celebrità femminili più amate dal pubblico.
03:40
And today, you can go on YouTube and pull up countless tutorials
60
220712
3477
Oggi su YouTube si possono trovare tantissimi tutorial
03:44
with step-by-step instructions
61
224213
2286
con precise istruzioni
03:46
on how to make a deepfake on your desktop application.
62
226523
3163
su come creare un deepfake dalla propria applicazione desktop.
03:50
And soon we may be even able to make them on our cell phones.
63
230260
3706
Presto sarà forse possibile farli anche dai nostri telefoni.
03:55
Now, it's the interaction of some of our most basic human frailties
64
235072
5382
È l'interazione tra alcune delle nostre più intime fragilità umane
04:00
and network tools
65
240478
1682
e gli strumenti della rete
04:02
that can turn deepfakes into weapons.
66
242184
2666
che può trasformare i deepfake in armi.
04:04
So let me explain.
67
244874
1200
Lasciatemi spiegare.
04:06
As human beings, we have a visceral reaction to audio and video.
68
246875
4566
In quanto essere umani, si scatena in noi una reazione viscerale ad audio e video.
04:11
We believe they're true,
69
251860
1488
Crediamo siano veri,
04:13
on the notion that of course you can believe
70
253372
2078
partendo dal presupposto che puoi fidarti
04:15
what your eyes and ears are telling you.
71
255474
2478
di ciò che i tuoi occhi e le tue orecchie ti stanno dicendo.
04:18
And it's that mechanism
72
258476
1699
Questo è il meccanismo
04:20
that might undermine our shared sense of reality.
73
260199
3698
che potrebbe minare il nostro comune senso della realtà.
04:23
Although we believe deepfakes to be true, they're not.
74
263921
3147
Nonostante giudichiamo i deepfake come reali, non lo sono.
04:27
And we're attracted to the salacious, the provocative.
75
267604
4157
Siamo attratti dal volgare e dal provocante.
04:32
We tend to believe and to share information
76
272365
3047
Tendiamo a credere e a condividere informazioni
04:35
that's negative and novel.
77
275436
2023
che sono negative e romanzate.
04:37
And researchers have found that online hoaxes spread 10 times faster
78
277809
5019
Alcuni ricercatori hanno scoperto che le bufale online si diffondono
10 volte più velocemente delle storie vere.
04:42
than accurate stories.
79
282852
1627
04:46
Now, we're also drawn to information
80
286015
4380
Inoltre, siamo attirati verso informazioni
04:50
that aligns with our viewpoints.
81
290419
1892
che si allineano ai nostri punti di vista.
04:52
Psychologists call that tendency "confirmation bias."
82
292950
3561
Gli psicologi chiamano questa propensione il "bias di conferma".
04:57
And social media platforms supercharge that tendency,
83
297300
4387
Le piattaforme social amplificano questa tendenza,
05:01
by allowing us to instantly and widely share information
84
301711
3881
consentendoci di condividere notizie in modo istantaneo e su scala globale,
05:05
that accords with our viewpoints.
85
305616
1792
che sono fedeli alle nostre opinioni.
05:08
Now, deepfakes have the potential to cause grave individual and societal harm.
86
308735
5568
I deepfake hanno il potenziale di causare gravi danni individuali e comunitari.
05:15
So, imagine a deepfake
87
315204
2024
Immaginatevi un deepfake
05:17
that shows American soldiers in Afganistan burning a Koran.
88
317252
4182
che mostri dei soldati Americani, in Afghanistan, bruciare il Corano.
05:22
You can imagine that that deepfake would provoke violence
89
322807
3024
Viene immediato pensare che quel video possa provocare violenza
05:25
against those soldiers.
90
325855
1533
contro quei soldati.
05:27
And what if the very next day
91
327847
2873
E cosa succederebbe se, il giorno immediatamente successivo,
05:30
there's another deepfake that drops,
92
330744
2254
arrivasse un nuovo deepfake
05:33
that shows a well-known imam based in London
93
333022
3317
che mostrasse un famoso imam di Londra
05:36
praising the attack on those soldiers?
94
336363
2467
elogiare l'attacco a quei soldati?
05:39
We might see violence and civil unrest,
95
339617
3163
Il risultato potrebbe sfociare in violenza e malcontento civile,
05:42
not only in Afganistan and the United Kingdom,
96
342804
3249
non solo in Afghanistan o nel Regno Unito,
05:46
but across the globe.
97
346077
1515
ma in tutto il mondo.
05:48
And you might say to me,
98
348251
1158
E voi potreste dirmi:
05:49
"Come on, Danielle, that's far-fetched."
99
349433
2247
"Dai, Danielle, è impossibile".
05:51
But it's not.
100
351704
1150
Ma non lo è.
05:53
We've seen falsehoods spread
101
353293
2191
Abbiamo visto che il diffondersi di bufale
05:55
on WhatsApp and other online message services
102
355508
2722
su WhatsApp e su altri servizi di messaggistica online
05:58
lead to violence against ethnic minorities.
103
358254
2761
ha portato all'accanimento contro le minoranze etniche.
06:01
And that was just text --
104
361039
1887
E si trattava solo di messaggi.
06:02
imagine if it were video.
105
362950
2024
Pensate se fossero stati video.
06:06
Now, deepfakes have the potential to corrode the trust that we have
106
366593
5357
I deepfake hanno il potenziale di distruggere la fiducia che riponiamo
06:11
in democratic institutions.
107
371974
1992
nelle istituzioni democratiche.
06:15
So, imagine the night before an election.
108
375006
2667
Immaginatevi la sera prima di un'elezione.
06:17
There's a deepfake showing one of the major party candidates
109
377996
3238
C'è un deepfake che mostra uno dei principali candidati
06:21
gravely sick.
110
381258
1150
gravemente malato.
06:23
The deepfake could tip the election
111
383202
2333
Il deepfake potrebbe rovesciare le elezioni
06:25
and shake our sense that elections are legitimate.
112
385559
3375
e scuotere la nostra convinzione per cui le elezioni siano legittime.
06:30
Imagine if the night before an initial public offering
113
390515
3326
Immaginate che la sera prima di un'offerta pubblica iniziale
06:33
of a major global bank,
114
393865
2333
di un'importante banca internazionale
06:36
there was a deepfake showing the bank's CEO
115
396222
3149
ci fosse un deepfake che rappresenta l'amministratore delegato
06:39
drunkenly spouting conspiracy theories.
116
399395
2697
che declama teorie complottistiche mentre è ubriaco.
06:42
The deepfake could tank the IPO,
117
402887
3047
Quel deepfake potrebbe far perdere l'offerta
06:45
and worse, shake our sense that financial markets are stable.
118
405958
4115
e, ancora peggio, far vacillare la nostra percezione sulla stabilità dei mercati.
06:51
So deepfakes can exploit and magnify the deep distrust that we already have
119
411385
6989
I deepfake sono in grado di sfruttare e amplificare la sfiducia che già proviamo
06:58
in politicians, business leaders and other influential leaders.
120
418398
4214
nei confronti dei politici, dei leader economici e di altri leader influenti.
07:02
They find an audience primed to believe them.
121
422945
3284
Trovano un pubblico propenso a crederci.
07:07
And the pursuit of truth is on the line as well.
122
427287
2765
La ricerca della verità è messa a rischio.
07:11
Technologists expect that with advances in AI,
123
431077
3564
Gli esperti prevedono che con i progressi nell'intelligenza artificiale
07:14
soon it may be difficult if not impossible
124
434665
3682
presto sarà difficile, se non impossibile,
07:18
to tell the difference between a real video and a fake one.
125
438371
3769
distinguere un video autentico da uno falso.
07:23
So how can the truth emerge in a deepfake-ridden marketplace of ideas?
126
443022
5341
Come può, quindi, emergere la verità in un mondo oppresso dai deepfake?
07:28
Will we just proceed along the path of least resistance
127
448752
3420
Continueremo a procedere lungo la strada della minima resistenza
07:32
and believe what we want to believe,
128
452196
2437
e a credere quello che vogliamo,
07:34
truth be damned?
129
454657
1150
a sfavore della verità?
07:36
And not only might we believe the fakery,
130
456831
3175
E non solo potremmo credere al falso,
07:40
we might start disbelieving the truth.
131
460030
3326
ma potremmo iniziare a dubitare della realtà.
07:43
We've already seen people invoke the phenomenon of deepfakes
132
463887
4079
Abbiamo già visto persone appellarsi al fenomeno dei deepfake
07:47
to cast doubt on real evidence of their wrongdoing.
133
467990
3920
per gettare dubbi sulle evidenti prove delle loro colpe.
07:51
We've heard politicians say of audio of their disturbing comments,
134
471934
5969
Abbiamo sentito i politici negare gli audio dei propri spiacevoli commenti:
07:57
"Come on, that's fake news.
135
477927
1746
"Dai, sono fake news.
07:59
You can't believe what your eyes and ears are telling you."
136
479697
3920
Non potete credere a ciò che i vostri occhi ed orecchie vi dicono".
08:04
And it's that risk
137
484402
1731
Questa è la minaccia
08:06
that professor Robert Chesney and I call the "liar's dividend":
138
486157
5436
che io e il professor Robert Chasney chiamiamo "il dividendo del bugiardo":
08:11
the risk that liars will invoke deepfakes
139
491617
3357
è il rischio che i bugiardi si appellino ai deepfake
08:14
to escape accountability for their wrongdoing.
140
494998
2905
per non assumersi la responsabilità delle proprie azioni.
08:18
So we've got our work cut out for us, there's no doubt about it.
141
498963
3071
È indubbio il fatto che ci sia moltissimo lavoro da fare.
08:22
And we're going to need a proactive solution
142
502606
3325
Abbiamo bisogno di una soluzione proattiva
08:25
from tech companies, from lawmakers,
143
505955
3511
da aziende tecnologiche, da legislatori,
08:29
law enforcers and the media.
144
509490
1984
dagli organi di polizia e dai media.
08:32
And we're going to need a healthy dose of societal resilience.
145
512093
4016
Abbiamo anche bisogno di una sana dose di resilienza sociale.
08:37
So now, we're right now engaged in a very public conversation
146
517506
3896
Oggi, proprio adesso, siamo coinvolti in un dibattito molto aperto
08:41
about the responsibility of tech companies.
147
521426
2913
sulle responsabilità dell'industria tecnologica.
08:44
And my advice to social media platforms
148
524926
3032
Il mio consiglio per le piattaforme social
08:47
has been to change their terms of service and community guidelines
149
527982
3873
è stato di modificare i termini d'uso e le linee guida comunitarie,
08:51
to ban deepfakes that cause harm.
150
531879
2336
al fine di bandire i deepfake pericolosi.
08:54
That determination, that's going to require human judgment,
151
534712
3960
Questa soluzione richiederà il giudizio umano
08:58
and it's expensive.
152
538696
1571
ed è costosa.
09:00
But we need human beings
153
540673
2285
Ma abbiamo bisogno di esseri umani
09:02
to look at the content and context of a deepfake
154
542982
3873
che guardino il contenuto e il contesto di un deepfake
09:06
to figure out if it is a harmful impersonation
155
546879
3682
per capire se si tratti di un'imitazione dannosa
09:10
or instead, if it's valuable satire, art or education.
156
550585
4382
o se, al contrario, si tratti di satira, arte o informazioni valide.
09:16
So now, what about the law?
157
556118
1495
Ma cosa ci dice la legge?
09:18
Law is our educator.
158
558666
2349
La legge è maestra.
09:21
It teaches us about what's harmful and what's wrong.
159
561515
4038
Ci insegna cos'è dannoso e cos'è sbagliato.
09:25
And it shapes behavior it deters by punishing perpetrators
160
565577
4555
Determina il comportamento, scoraggia i responsabili punendoli
09:30
and securing remedies for victims.
161
570156
2267
e garantendo tutele alle vittime.
09:33
Right now, law is not up to the challenge of deepfakes.
162
573148
4280
Ad oggi, la legge non è pronta a fronteggiare la sfida dei deepfake.
09:38
Across the globe,
163
578116
1390
In tutto il mondo
09:39
we lack well-tailored laws
164
579530
2444
mancano leggi studiate su misura
09:41
that would be designed to tackle digital impersonations
165
581998
3570
che sarebbero deputate a combattere le imitazioni digitali
09:45
that invade sexual privacy,
166
585592
2231
che invadono la privacy sessuale,
09:47
that damage reputations
167
587847
1387
danneggiano la reputazione
09:49
and that cause emotional distress.
168
589258
1951
e provocano squilibri emotivi.
09:51
What happened to Rana Ayyub is increasingly commonplace.
169
591725
3873
Quello che è capitato a Rana Ayyub sta diventando sempre più comune.
09:56
Yet, when she went to law enforcement in Delhi,
170
596074
2214
Ma quando lei è andata dalla polizia a Delhi,
09:58
she was told nothing could be done.
171
598312
2135
le hanno detto che non si poteva fare nulla.
10:01
And the sad truth is that the same would be true
172
601101
3183
La triste verità è che ciò potrebbe valere
10:04
in the United States and in Europe.
173
604308
2266
anche negli Stati Uniti e in Europa.
10:07
So we have a legal vacuum that needs to be filled.
174
607300
4356
Abbiamo un vuoto legale che dobbiamo colmare.
10:12
My colleague Dr. Mary Anne Franks and I are working with US lawmakers
175
612292
4092
Io e la dottoressa Mary Anne Franks lavoriamo con legislatori americani
10:16
to devise legislation that would ban harmful digital impersonations
176
616408
4804
allo scopo di concepire una legislazione che vieti imitazioni digitali dannose,
10:21
that are tantamount to identity theft.
177
621236
2533
equivalenti al furto d'identità.
10:24
And we've seen similar moves
178
624252
2126
Abbiamo riscontrato azioni simili
10:26
in Iceland, the UK and Australia.
179
626402
3301
in Islanda, Regno Unito e Australia.
10:30
But of course, that's just a small piece of the regulatory puzzle.
180
630157
3259
Ma questo è solo un piccolo pezzo nel puzzle normativo.
10:34
Now, I know law is not a cure-all. Right?
181
634911
3169
Sono consapevole che la legge non sia una panacea, giusto?
10:38
It's a blunt instrument.
182
638104
1600
È uno strumento poco affilato.
10:40
And we've got to use it wisely.
183
640346
1539
Dobbiamo usarlo saggiamente.
10:42
It also has some practical impediments.
184
642411
2812
Ha anche alcuni impedimenti pratici.
10:45
You can't leverage law against people you can't identify and find.
185
645657
5044
Non è possibile usare la legge contro chi non si può identificare e trovare.
10:51
And if a perpetrator lives outside the country
186
651463
3286
E se il colpevole vive fuori dallo Stato
10:54
where a victim lives,
187
654773
1754
in cui vive la vittima,
10:56
then you may not be able to insist
188
656551
1629
potrebbe non essere possibile esigere
10:58
that the perpetrator come into local courts
189
658204
2349
che il responsabile si presenti ai tribunali locali
11:00
to face justice.
190
660577
1150
per l'udienza.
11:02
And so we're going to need a coordinated international response.
191
662236
4063
Ci servirà una reazione condivisa a livello internazionale.
11:07
Education has to be part of our response as well.
192
667819
3333
L'informazione deve essere parte integrante di questo processo.
11:11
Law enforcers are not going to enforce laws
193
671803
3731
Gli organi di polizia non possono far rispettare le leggi
11:15
they don't know about
194
675558
1458
se non le conoscono
11:17
and proffer problems they don't understand.
195
677040
2596
e non possono gestire problemi che non comprendono.
11:20
In my research on cyberstalking,
196
680376
2191
Durante le mie ricerche sul cyberstalking
11:22
I found that law enforcement lacked the training
197
682591
3499
ho appreso che agli organi di polizia mancava la formazione adeguata
11:26
to understand the laws available to them
198
686114
2582
per capire le leggi di quel settore
11:28
and the problem of online abuse.
199
688720
2349
e i pericoli dell'abuso di internet.
11:31
And so often they told victims,
200
691093
2682
Per questo spesso dicevano alle vittime:
11:33
"Just turn your computer off. Ignore it. It'll go away."
201
693799
3971
"Spegnete il computer. Ignorateli. Spariranno".
11:38
And we saw that in Rana Ayyub's case.
202
698261
2466
Nel caso di Rana Ayyub è successo così.
11:41
She was told, "Come on, you're making such a big deal about this.
203
701102
3468
Le fu detto: "Forza, ne stai facendo una tragedia.
11:44
It's boys being boys."
204
704594
1743
Sono semplicemente maschi che si comportano da maschi".
11:47
And so we need to pair new legislation with efforts at training.
205
707268
5252
Alla legislazione dobbiamo abbinare l'impegno nella formazione.
11:54
And education has to be aimed on the media as well.
206
714053
3429
La conoscenza deve essere un obiettivo anche per i media.
11:58
Journalists need educating about the phenomenon of deepfakes
207
718180
4260
I giornalisti necessitano di istruzione sul fenomeno dei deepfake
12:02
so they don't amplify and spread them.
208
722464
3039
affinché non lo intensifichino o lo diffondano.
12:06
And this is the part where we're all involved.
209
726583
2168
Qui è dove entriamo in gioco tutti quanti.
12:08
Each and every one of us needs educating.
210
728775
3855
Ciascuno di noi ha bisogno di istruzione.
12:13
We click, we share, we like, and we don't even think about it.
211
733375
3675
Clicchiamo, condividiamo, mettiamo "mi piace" senza nemmeno pensarci.
12:17
We need to do better.
212
737551
1547
Dobbiamo fare di meglio.
12:19
We need far better radar for fakery.
213
739726
2809
Ci serve un radar più sofisticato per rilevare le bufale.
12:25
So as we're working through these solutions,
214
745744
3841
Mentre ci occupiamo delle possibili soluzioni,
12:29
there's going to be a lot of suffering to go around.
215
749609
2563
dovremo superare innumerevoli difficoltà.
12:33
Rana Ayyub is still wrestling with the fallout.
216
753093
2746
Rana Ayyub sta tutt'ora lottando contro i risvolti del fatto.
12:36
She still doesn't feel free to express herself on- and offline.
217
756669
4189
Non si sente ancora libera di esprimersi online e offline.
12:41
And as she told me,
218
761566
1365
Mi ha detto che
12:42
she still feels like there are thousands of eyes on her naked body,
219
762955
5074
avverte ancora la sensazione di avere mille occhi puntati sul suo corpo nudo,
12:48
even though, intellectually, she knows it wasn't her body.
220
768053
3661
anche se, razionalmente, sa che non era il suo vero corpo.
12:52
And she has frequent panic attacks,
221
772371
2349
Ha frequenti attacchi di panico
12:54
especially when someone she doesn't know tries to take her picture.
222
774744
4100
specialmente quando uno sconosciuto tenta di fotografarla.
12:58
"What if they're going to make another deepfake?" she thinks to herself.
223
778868
3511
"E se faranno un altro deepfake?" pensa fra sé e sé.
13:03
And so for the sake of individuals like Rana Ayyub
224
783082
3921
Per il bene di persone come Rana Ayyub
13:07
and the sake of our democracy,
225
787027
2306
e per il bene della nostra democrazia,
13:09
we need to do something right now.
226
789357
2182
dobbiamo agire immediatamente.
13:11
Thank you.
227
791563
1151
Grazie.
13:12
(Applause)
228
792738
2508
(Applausi)
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7