How deepfakes undermine truth and threaten democracy | Danielle Citron

87,053 views ・ 2019-10-07

TED


Por favor, faça duplo clique nas legendas em inglês abaixo para reproduzir o vídeo.

Tradutor: Luanne Araujo Revisora: Bianca Goulart
00:12
[This talk contains mature content]
0
12535
2767
[Esta palestra apresenta conteúdo adulto]
00:17
Rana Ayyub is a journalist in India
1
17762
2992
Rana Ayyub é uma jornalista na Índia
00:20
whose work has exposed government corruption
2
20778
2602
que denunciou no seu trabalho a corrupção governamental
00:24
and human rights violations.
3
24411
2157
e violações dos direitos humanos.
00:26
And over the years,
4
26990
1167
E, ao longo dos anos,
00:28
she's gotten used to vitriol and controversy around her work.
5
28181
3303
habituou-se à crítica corrosiva e à controvérsia sobre o seu trabalho.
00:32
But none of it could have prepared her for what she faced in April 2018.
6
32149
5109
Mas nada disso a podia preparar para o que aconteceu em abril de 2018.
00:38
She was sitting in a café with a friend when she first saw it:
7
38125
3651
Ela estava num café com um amigo quando viu pela primeira vez
00:41
a two-minute, 20-second video of her engaged in a sex act.
8
41800
4943
um vídeo de dois minutos e vinte segundos em que ela aparecia numa relação sexual.
00:47
And she couldn't believe her eyes.
9
47188
2349
Ela não podia acreditar no que via.
00:49
She had never made a sex video.
10
49561
2273
Nunca havia feito um vídeo de sexo.
00:52
But unfortunately, thousands upon thousands of people
11
52506
3465
Mas, infelizmente, milhares de pessoas
00:55
would believe it was her.
12
55995
1666
iam acreditar que era ela.
00:58
I interviewed Ms. Ayyub about three months ago,
13
58673
2944
Eu entrevistei Ayyub há cerca de três meses,
01:01
in connection with my book on sexual privacy.
14
61641
2504
para o meu livro sobre privacidade sexual.
01:04
I'm a law professor, lawyer and civil rights advocate.
15
64681
3198
Sou professora de Direito, advogada e porta-voz dos direitos civis.
01:08
So it's incredibly frustrating knowing that right now,
16
68204
4611
É incrivelmente frustrante saber que, neste exato momento,
01:12
law could do very little to help her.
17
72839
2238
a lei pouco pode fazer para ajudá-la.
01:15
And as we talked,
18
75458
1547
Enquanto conversávamos,
01:17
she explained that she should have seen the fake sex video coming.
19
77029
4512
ela explicou-me que devia ter previsto aquele vídeo sexual forjado e disse:
01:22
She said, "After all, sex is so often used to demean and to shame women,
20
82038
5596
"Afinal, o sexo é frequentemente usado para humilhar as mulheres,
01:27
especially minority women,
21
87658
2428
"especialmente as que fazem parte de minorias,
01:30
and especially minority women who dare to challenge powerful men,"
22
90110
4312
"e mais ainda aquelas que se atrevem a desafiar homens poderosos",
01:34
as she had in her work.
23
94446
1533
como ela havia feito.
01:37
The fake sex video went viral in 48 hours.
24
97191
3976
Esse vídeo de sexo forjado tornou-se viral em 48 horas.
01:42
All of her online accounts were flooded with screenshots of the video,
25
102064
5307
Todas as suas contas "online"
foram inundadas com imagens retiradas desse vídeo,
01:47
with graphic rape and death threats
26
107395
2627
com ameaças gráficas de violação e de morte
01:50
and with slurs about her Muslim faith.
27
110046
2533
e com insultos em relação à fé muçulmana dela.
01:53
Online posts suggested that she was "available" for sex.
28
113426
4564
Publicações "online" sugeriam que ela estava "disponível" para sexo.
01:58
And she was doxed,
29
118014
1610
E ela foi "doxed",
01:59
which means that her home address and her cell phone number
30
119648
2778
o que significa que o endereço e o número do telemóvel dela
02:02
were spread across the internet.
31
122450
1746
foram divulgados na Internet.
02:04
The video was shared more than 40,000 times.
32
124879
4084
O vídeo foi partilhado mais de 40 000 vezes.
02:09
Now, when someone is targeted with this kind of cybermob attack,
33
129760
3936
Quando alguém é alvo deste tipo de ataque cibernético,
02:13
the harm is profound.
34
133720
2063
os danos são profundos.
02:16
Rana Ayyub's life was turned upside down.
35
136482
3039
A vida de Rana Ayyub virou-se de pernas para o ar.
02:20
For weeks, she could hardly eat or speak.
36
140211
3334
Durante semanas, ela mal conseguia comer ou falar.
02:23
She stopped writing and closed all of her social media accounts,
37
143919
3689
Deixou de escrever e fechou todas as contas nas redes sociais,
02:27
which is, you know, a tough thing to do when you're a journalist.
38
147632
3158
o que é uma coisa muito difícil para uma jornalista.
02:31
And she was afraid to go outside her family's home.
39
151188
3484
Tinha medo de sair de casa.
02:34
What if the posters made good on their threats?
40
154696
3022
E se quem escrevia cumprisse as suas ameaças?
02:38
The UN Council on Human Rights confirmed that she wasn't being crazy.
41
158395
4365
O Conselho dos Direitos Humanos da ONU confirmou que ela não estava paranoica.
02:42
It issued a public statement saying that they were worried about her safety.
42
162784
4637
Emitiram uma declaração pública dizendo
que estavam preocupados com a sua segurança.
02:48
What Rana Ayyub faced was a deepfake:
43
168776
4229
O que Rana Ayyub enfrentava era um "deepfake",
02:53
machine-learning technology
44
173029
2540
uma tecnologia de aprendizagem automática
02:55
that manipulates or fabricates audio and video recordings
45
175593
4111
que manipula ou fabrica gravações de áudio e vídeo
02:59
to show people doing and saying things
46
179728
2723
para mostrar pessoas a fazer ou a dizer
03:02
that they never did or said.
47
182475
1866
coisas que nunca fizeram ou disseram.
03:04
Deepfakes appear authentic and realistic, but they're not;
48
184807
3361
Os "deepfakes" parecem autênticos e reais, mas não são,
03:08
they're total falsehoods.
49
188192
1772
são puras mentiras.
03:11
Although the technology is still developing in its sophistication,
50
191228
3794
Embora esta tecnologia ainda esteja a aperfeiçoar-se.
03:15
it is widely available.
51
195046
1614
já está amplamente disponível.
03:17
Now, the most recent attention to deepfakes arose,
52
197371
3072
O interesse atual em "deepfakes" surgiu
03:20
as so many things do online,
53
200467
2161
— como com muitas coisas "online" —
03:22
with pornography.
54
202652
1255
com a pornografia.
03:24
In early 2018,
55
204498
2111
No início de 2018,
03:26
someone posted a tool on Reddit
56
206633
2468
alguém publicou uma ferramenta no Reddit
03:29
to allow users to insert faces into porn videos.
57
209125
4412
que permite às pessoas colocar rostos em vídeos pornográficos.
03:33
And what followed was a cascade of fake porn videos
58
213561
3440
O que se seguiu foi uma enxurrada de vídeos pornográficos falsos
03:37
featuring people's favorite female celebrities.
59
217025
2797
protagonizados pelas celebridades preferidas do público.
03:40
And today, you can go on YouTube and pull up countless tutorials
60
220712
3477
E hoje é possível achar no YouTube inúmeros tutoriais
03:44
with step-by-step instructions
61
224213
2286
com instruções passo-a-passo
03:46
on how to make a deepfake on your desktop application.
62
226523
3163
para criar um "deepfake" num aplicativo do computador.
03:50
And soon we may be even able to make them on our cell phones.
63
230260
3706
Em breve, talvez seja possível criá-los nos nossos telemóveis.
03:55
Now, it's the interaction of some of our most basic human frailties
64
235072
5382
Mas é a interação das fraquezas humanas mais básicas
04:00
and network tools
65
240478
1682
com ferramentas na Internet
04:02
that can turn deepfakes into weapons.
66
242184
2666
que pode transformar os "deepfakes" em armas.
04:04
So let me explain.
67
244874
1200
Passo a explicar.
04:06
As human beings, we have a visceral reaction to audio and video.
68
246875
4566
Enquanto seres humanos, temos uma reação visceral aos áudios e vídeos.
04:11
We believe they're true,
69
251860
1488
Acreditamos que são verdadeiros,
04:13
on the notion that of course you can believe
70
253372
2078
baseando-nos na noção de que podemos acreditar
04:15
what your eyes and ears are telling you.
71
255474
2478
no que os nossos olhos e ouvidos estão a dizer.
04:18
And it's that mechanism
72
258476
1699
É esse mecanismo
04:20
that might undermine our shared sense of reality.
73
260199
3698
que pode enfraquecer o nosso sentido de realidade comum.
04:23
Although we believe deepfakes to be true, they're not.
74
263921
3147
Embora acreditemos que os "deepfakes" sejam reais, não são.
04:27
And we're attracted to the salacious, the provocative.
75
267604
4157
E somos atraídos por aquilo que é obsceno, provocador.
04:32
We tend to believe and to share information
76
272365
3047
Temos a tendência a acreditar e a partilhar informações
04:35
that's negative and novel.
77
275436
2023
que sejam negativas, que sejam novidade.
04:37
And researchers have found that online hoaxes spread 10 times faster
78
277809
5019
Os investigadores descobriram que as aldrabices "online"
propagam-se dez vezes mais depressa
04:42
than accurate stories.
79
282852
1627
do que histórias verdadeiras.
04:46
Now, we're also drawn to information
80
286015
4380
Também somos atraídos por informações
04:50
that aligns with our viewpoints.
81
290419
1892
alinhadas com o nosso ponto de vista.
04:52
Psychologists call that tendency "confirmation bias."
82
292950
3561
Os psicólogos chamam a essa tendência de "preconceito de confirmação".
04:57
And social media platforms supercharge that tendency,
83
297300
4387
As plataformas das redes sociais superalimentam essa tendência,
05:01
by allowing us to instantly and widely share information
84
301711
3881
quando nos permitem partilhar, instantânea e amplamente,
05:05
that accords with our viewpoints.
85
305616
1792
informações de acordo com os nossos pontos de vista.
05:08
Now, deepfakes have the potential to cause grave individual and societal harm.
86
308735
5568
Os "deepfakes" podem causar graves danos pessoais e sociais.
05:15
So, imagine a deepfake
87
315204
2024
Imaginem um "deepfake"
05:17
that shows American soldiers in Afganistan burning a Koran.
88
317252
4182
que mostre soldados americanos a incendiar um Alcorão no Afeganistão.
05:22
You can imagine that that deepfake would provoke violence
89
322807
3024
É fácil imaginar que este "deepfake" provocaria violência
05:25
against those soldiers.
90
325855
1533
contra esses soldados.
05:27
And what if the very next day
91
327847
2873
E se, no dia seguinte,
05:30
there's another deepfake that drops,
92
330744
2254
surgisse um outro "deepfake",
05:33
that shows a well-known imam based in London
93
333022
3317
a mostrar um conhecido imã de Londres
05:36
praising the attack on those soldiers?
94
336363
2467
a pregar o ataque a esses soldados?
05:39
We might see violence and civil unrest,
95
339617
3163
Poderíamos ver a violência e a desordem civil
05:42
not only in Afganistan and the United Kingdom,
96
342804
3249
não só no Afeganistão e no Reino Unido,
05:46
but across the globe.
97
346077
1515
mas pelo mundo inteiro.
05:48
And you might say to me,
98
348251
1158
Vocês poderiam dizer:
05:49
"Come on, Danielle, that's far-fetched."
99
349433
2247
"Por favor, Danielle, isso é rebuscado".
05:51
But it's not.
100
351704
1150
Mas não é.
05:53
We've seen falsehoods spread
101
353293
2191
Já vimos que a propagação de mentiras
05:55
on WhatsApp and other online message services
102
355508
2722
no WhatsApp e noutros mensageiros "online"
05:58
lead to violence against ethnic minorities.
103
358254
2761
resultou em violência contra minorias étnicas.
06:01
And that was just text --
104
361039
1887
E foi apenas texto,
06:02
imagine if it were video.
105
362950
2024
imaginem se fosse um vídeo.
06:06
Now, deepfakes have the potential to corrode the trust that we have
106
366593
5357
Os "deepfakes" têm a capacidade de destruir a confiança que temos
06:11
in democratic institutions.
107
371974
1992
nas instituições democráticas.
06:15
So, imagine the night before an election.
108
375006
2667
Então, imaginem que, na noite antes dumas eleições,
06:17
There's a deepfake showing one of the major party candidates
109
377996
3238
temos um "deepfake" que mostra um dos candidatos do principal partido
06:21
gravely sick.
110
381258
1150
gravemente doente.
06:23
The deepfake could tip the election
111
383202
2333
Esse "deepfake" pode decidir as eleições
06:25
and shake our sense that elections are legitimate.
112
385559
3375
e abalar o nosso sentido de que as eleições são legítimas.
06:30
Imagine if the night before an initial public offering
113
390515
3326
Imaginem se, na noite anterior a uma oferta pública
06:33
of a major global bank,
114
393865
2333
de um importante banco global,
06:36
there was a deepfake showing the bank's CEO
115
396222
3149
aparecesse um "deepfake" a mostrar o CEO do banco embriagado,
06:39
drunkenly spouting conspiracy theories.
116
399395
2697
a vomitar teorias da conspiração.
06:42
The deepfake could tank the IPO,
117
402887
3047
O "deepfake" pode afundar a oferta pública,
06:45
and worse, shake our sense that financial markets are stable.
118
405958
4115
e pior, pode abalar a nossa noção de que o mercado financeiro é estável.
06:51
So deepfakes can exploit and magnify the deep distrust that we already have
119
411385
6989
Os "deepfakes" podem explorar e expandir
a profunda desconfiança que já temos
06:58
in politicians, business leaders and other influential leaders.
120
418398
4214
nos políticos, nos líderes de negócios e noutros líderes influentes.
07:02
They find an audience primed to believe them.
121
422945
3284
Eles encontram uma audiência pronta para acreditar neles.
07:07
And the pursuit of truth is on the line as well.
122
427287
2765
A procura da verdade também está em jogo.
07:11
Technologists expect that with advances in AI,
123
431077
3564
Tecnólogos esperam que, com o avanço da inteligência artificial,
07:14
soon it may be difficult if not impossible
124
434665
3682
em breve será difícil, se não impossível,
07:18
to tell the difference between a real video and a fake one.
125
438371
3769
dizer a diferença entre um vídeo real e um vídeo falso.
07:23
So how can the truth emerge in a deepfake-ridden marketplace of ideas?
126
443022
5341
Então, como pode a verdade surgir
num mercado de ideias movido a "deepfakes"?
07:28
Will we just proceed along the path of least resistance
127
448752
3420
Será que vamos seguir pelo caminho de menor resistência,
07:32
and believe what we want to believe,
128
452196
2437
acreditar no que queremos acreditar,
07:34
truth be damned?
129
454657
1150
e a verdade que se dane?
07:36
And not only might we believe the fakery,
130
456831
3175
Não só acreditaríamos no falso,
07:40
we might start disbelieving the truth.
131
460030
3326
como podíamos começar a descrer da verdade.
07:43
We've already seen people invoke the phenomenon of deepfakes
132
463887
4079
Já vimos pessoas invocar o fenómeno dos "deepfakes"
07:47
to cast doubt on real evidence of their wrongdoing.
133
467990
3920
para provocar dúvidas sobre indícios reais das suas más ações.
07:51
We've heard politicians say of audio of their disturbing comments,
134
471934
5969
Ouvimos políticos dizer sobre áudios com comentários seus perturbadores:
07:57
"Come on, that's fake news.
135
477927
1746
"Por favor, isso são notícias falsas.
07:59
You can't believe what your eyes and ears are telling you."
136
479697
3920
"Vocês não podem acreditar no que os vossos olhos e ouvidos estão a dizer."
08:04
And it's that risk
137
484402
1731
É esse o risco
08:06
that professor Robert Chesney and I call the "liar's dividend":
138
486157
5436
a que o professor Robert Chesney e eu chamamos "dividendo do mentiroso":
08:11
the risk that liars will invoke deepfakes
139
491617
3357
o risco de que os mentirosos venham a invocar os "deepfakes"
08:14
to escape accountability for their wrongdoing.
140
494998
2905
para escapar à responsabilidade das suas más ações.
08:18
So we've got our work cut out for us, there's no doubt about it.
141
498963
3071
Temos um trabalho difícil a fazer, não há dúvidas quanto a isso.
08:22
And we're going to need a proactive solution
142
502606
3325
E vamos precisar de uma solução proativa
08:25
from tech companies, from lawmakers,
143
505955
3511
das empresas de tecnologia, dos legisladores,
08:29
law enforcers and the media.
144
509490
1984
dos agentes da lei e dos "media".
08:32
And we're going to need a healthy dose of societal resilience.
145
512093
4016
E vamos precisar de uma boa dose de resiliência da sociedade.
08:37
So now, we're right now engaged in a very public conversation
146
517506
3896
Neste momento, estamos empenhados numa conversa pública
08:41
about the responsibility of tech companies.
147
521426
2913
sobre a responsabilidade das empresas de tecnologia.
08:44
And my advice to social media platforms
148
524926
3032
O meu conselho para as plataformas de redes sociais
08:47
has been to change their terms of service and community guidelines
149
527982
3873
tem sido mudar os termos do serviço e as orientações para a comunidade
08:51
to ban deepfakes that cause harm.
150
531879
2336
para impedir "deepfakes" que causem danos.
08:54
That determination, that's going to require human judgment,
151
534712
3960
Esta determinação vai requerer a avaliação humana,
08:58
and it's expensive.
152
538696
1571
e isso é caro.
09:00
But we need human beings
153
540673
2285
Mas precisamos que haja seres humanos
09:02
to look at the content and context of a deepfake
154
542982
3873
que olhem para o conteúdo e o contexto de um "deepfake"
09:06
to figure out if it is a harmful impersonation
155
546879
3682
para perceberem se é uma representação prejudicial
09:10
or instead, if it's valuable satire, art or education.
156
550585
4382
ou se, pelo contrário, tem valor como sátira, arte ou educação.
09:16
So now, what about the law?
157
556118
1495
E quanto à lei?
09:18
Law is our educator.
158
558666
2349
A lei é a nossa educadora.
09:21
It teaches us about what's harmful and what's wrong.
159
561515
4038
Ensina-nos o que é prejudicial e o que é errado.
09:25
And it shapes behavior it deters by punishing perpetrators
160
565577
4555
E configura o comportamento que inibe, punindo os criminosos,
09:30
and securing remedies for victims.
161
570156
2267
e que assegura indemnizações às vítimas.
09:33
Right now, law is not up to the challenge of deepfakes.
162
573148
4280
Neste momento, a lei não está apta a desafiar os "deepfakes".
09:38
Across the globe,
163
578116
1390
No mundo inteiro,
09:39
we lack well-tailored laws
164
579530
2444
temos falta de leis bem feitas
09:41
that would be designed to tackle digital impersonations
165
581998
3570
com o objetivo de enfrentar falsificações digitais
09:45
that invade sexual privacy,
166
585592
2231
que invadam a privacidade sexual,
09:47
that damage reputations
167
587847
1387
que prejudiquem reputações
09:49
and that cause emotional distress.
168
589258
1951
e que causem sofrimento emocional.
09:51
What happened to Rana Ayyub is increasingly commonplace.
169
591725
3873
O que aconteceu a Rana Ayyub é um lugar comum cada vez mais frequente.
09:56
Yet, when she went to law enforcement in Delhi,
170
596074
2214
Mesmo assim, quando recorreu à lei em Deli,
09:58
she was told nothing could be done.
171
598312
2135
disseram-lhe que não podiam fazer nada.
10:01
And the sad truth is that the same would be true
172
601101
3183
A triste verdade é que o mesmo aconteceria
10:04
in the United States and in Europe.
173
604308
2266
nos EUA e na Europa.
10:07
So we have a legal vacuum that needs to be filled.
174
607300
4356
Temos um vácuo legal que precisa de ser preenchido.
10:12
My colleague Dr. Mary Anne Franks and I are working with US lawmakers
175
612292
4092
A Dra. Mary Anne Franks e eu estamos a trabalhar com legisladores americanos
10:16
to devise legislation that would ban harmful digital impersonations
176
616408
4804
na elaboração de leis capazes de proibir falsificações digitais nocivas,
10:21
that are tantamount to identity theft.
177
621236
2533
comparáveis a roubo de identidade.
10:24
And we've seen similar moves
178
624252
2126
Temos visto movimentos parecidos
10:26
in Iceland, the UK and Australia.
179
626402
3301
na Islândia, no Reino Unido e na Austrália.
10:30
But of course, that's just a small piece of the regulatory puzzle.
180
630157
3259
Claro, esta é apenas uma pequena peça no "puzzle" regulatório.
10:34
Now, I know law is not a cure-all. Right?
181
634911
3169
Eu sei que a lei não resolve tudo.
10:38
It's a blunt instrument.
182
638104
1600
É um instrumento pouco preciso
10:40
And we've got to use it wisely.
183
640346
1539
e temos de usá-lo com sabedoria.
10:42
It also has some practical impediments.
184
642411
2812
Também tem alguns inconvenientes práticos.
10:45
You can't leverage law against people you can't identify and find.
185
645657
5044
Não podemos aplicar a lei contra pessoas sem as identificar e achar.
10:51
And if a perpetrator lives outside the country
186
651463
3286
Se um criminoso viver fora do país em que a vítima vive,
10:54
where a victim lives,
187
654773
1754
10:56
then you may not be able to insist
188
656551
1629
pode ser difícil conseguir
10:58
that the perpetrator come into local courts
189
658204
2349
que ele compareça no tribunal local
11:00
to face justice.
190
660577
1150
para responder à justiça.
11:02
And so we're going to need a coordinated international response.
191
662236
4063
Assim, precisamos de uma resposta internacional coordenada.
11:07
Education has to be part of our response as well.
192
667819
3333
A educação também tem de fazer parte da nossa resposta.
11:11
Law enforcers are not going to enforce laws
193
671803
3731
As autoridades legais não vão impor leis que desconhecem
11:15
they don't know about
194
675558
1458
11:17
and proffer problems they don't understand.
195
677040
2596
e aconselhar problemas que não entendem.
11:20
In my research on cyberstalking,
196
680376
2191
Na minha pesquisa sobre perseguição cibernética
11:22
I found that law enforcement lacked the training
197
682591
3499
descobri que os agentes da polícia não têm formação
11:26
to understand the laws available to them
198
686114
2582
para entender as leis disponíveis
11:28
and the problem of online abuse.
199
688720
2349
e o problema da violência "online".
11:31
And so often they told victims,
200
691093
2682
Frequentemente diziam às vítimas:
11:33
"Just turn your computer off. Ignore it. It'll go away."
201
693799
3971
"Desligue o computador. Ignore. Isso passa".
11:38
And we saw that in Rana Ayyub's case.
202
698261
2466
Vimos isso no caso de Rana Ayyub.
11:41
She was told, "Come on, you're making such a big deal about this.
203
701102
3468
Disseram-lhe: "Você está a fazer uma tempestade num copo de água."
11:44
It's boys being boys."
204
704594
1743
"Isso é coisa de rapaziada".
11:47
And so we need to pair new legislation with efforts at training.
205
707268
5252
Por isso, precisamos de combinar novas leis com ações de formação.
11:54
And education has to be aimed on the media as well.
206
714053
3429
Os "media" também têm de ser alvo de educação.
11:58
Journalists need educating about the phenomenon of deepfakes
207
718180
4260
Os jornalistas precisam de ter formação quanto ao fenómeno dos "deepfakes"
12:02
so they don't amplify and spread them.
208
722464
3039
para não os ampliarem e espalharem.
12:06
And this is the part where we're all involved.
209
726583
2168
E é aqui que estamos todos envolvidos.
12:08
Each and every one of us needs educating.
210
728775
3855
Cada um de nós precisa de se educar.
12:13
We click, we share, we like, and we don't even think about it.
211
733375
3675
Clicamos, partilhamos, gostamos, sem sequer pensar nisso.
12:17
We need to do better.
212
737551
1547
Temos de melhorar isso.
12:19
We need far better radar for fakery.
213
739726
2809
Precisamos de ficar muito mais atentos às falsificações.
12:25
So as we're working through these solutions,
214
745744
3841
Enquanto trabalhamos nestas soluções,
12:29
there's going to be a lot of suffering to go around.
215
749609
2563
ainda haverá muito sofrimento.
12:33
Rana Ayyub is still wrestling with the fallout.
216
753093
2746
Rana Ayyub ainda está a lidar com as consequências.
12:36
She still doesn't feel free to express herself on- and offline.
217
756669
4189
Ela ainda não se sente à vontade para se exprimir "online" e "offline".
12:41
And as she told me,
218
761566
1365
E como me disse,
12:42
she still feels like there are thousands of eyes on her naked body,
219
762955
5074
ela ainda sente milhares de olhos sobre o seu corpo nu
12:48
even though, intellectually, she knows it wasn't her body.
220
768053
3661
embora, intelectualmente, saiba que aquele não era o corpo dela.
12:52
And she has frequent panic attacks,
221
772371
2349
Ela tem ataques de pânico frequentes,
12:54
especially when someone she doesn't know tries to take her picture.
222
774744
4100
especialmente quando algum desconhecido tenta tirar-lhe uma fotografia.
12:58
"What if they're going to make another deepfake?" she thinks to herself.
223
778868
3511
"E se eles fizerem outro 'deepfake'?" pensa consigo mesma.
13:03
And so for the sake of individuals like Rana Ayyub
224
783082
3921
Então, a bem de pessoas como Rana Ayyub
13:07
and the sake of our democracy,
225
787027
2306
e a bem da nossa democracia,
13:09
we need to do something right now.
226
789357
2182
precisamos de fazer algo já.
13:11
Thank you.
227
791563
1151
Obrigada.
13:12
(Applause)
228
792738
2508
(Aplausos)
Sobre este site

Este sítio irá apresentar-lhe vídeos do YouTube que são úteis para a aprendizagem do inglês. Verá lições de inglês ensinadas por professores de primeira linha de todo o mundo. Faça duplo clique nas legendas em inglês apresentadas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas deslocam-se em sincronia com a reprodução do vídeo. Se tiver quaisquer comentários ou pedidos, por favor contacte-nos utilizando este formulário de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7