How deepfakes undermine truth and threaten democracy | Danielle Citron

85,268 views ・ 2019-10-07

TED


Por favor, clique duas vezes nas legendas em inglês abaixo para reproduzir o vídeo.

Tradutor: Carolina Aguirre Revisor: Maricene Crus
00:12
[This talk contains mature content]
0
12535
2767
[Esta palestra apresenta conteúdo adulto]
00:17
Rana Ayyub is a journalist in India
1
17762
2992
Rana Ayyub é uma jornalista na Índia
00:20
whose work has exposed government corruption
2
20778
2602
cujo trabalho expôs a corrupção do governo
00:24
and human rights violations.
3
24411
2157
e violações de direitos humanos.
00:26
And over the years,
4
26990
1167
E ao longo dos anos,
ela se acostumou com criticismo severo e controvérsia em torno de seu trabalho.
00:28
she's gotten used to vitriol and controversy around her work.
5
28181
3303
00:32
But none of it could have prepared her for what she faced in April 2018.
6
32149
5109
Mas nada disso poderia tê-la preparado para o que enfrentou em abril de 2018.
00:38
She was sitting in a café with a friend when she first saw it:
7
38125
3651
Ela estava num café com um amigo quando viu pela primeira vez
00:41
a two-minute, 20-second video of her engaged in a sex act.
8
41800
4943
um vídeo de dois minutos e vinte segundos dela num ato sexual.
00:47
And she couldn't believe her eyes.
9
47188
2349
Não acreditou no que estava vendo.
00:49
She had never made a sex video.
10
49561
2273
Ela nunca fez um vídeo de sexo.
00:52
But unfortunately, thousands upon thousands of people
11
52506
3465
Mas, infelizmente, milhares de pessoas
00:55
would believe it was her.
12
55995
1666
acreditaram que era ela.
00:58
I interviewed Ms. Ayyub about three months ago,
13
58673
2944
Entrevistei a Sra. Ayyub cerca de três meses atrás,
01:01
in connection with my book on sexual privacy.
14
61641
2504
em conexão com meu livro sobre privacidade sexual.
01:04
I'm a law professor, lawyer and civil rights advocate.
15
64681
3198
Sou professora de direito, advogada e defensora dos direitos civis.
01:08
So it's incredibly frustrating knowing that right now,
16
68204
4611
É incrivelmente frustrante saber que agora
01:12
law could do very little to help her.
17
72839
2238
a lei pode fazer muito pouco pra ajudá-la.
01:15
And as we talked,
18
75458
1547
E enquanto conversávamos,
01:17
she explained that she should have seen the fake sex video coming.
19
77029
4512
ela explicou que deveria ter previsto o vídeo de sexo falso.
01:22
She said, "After all, sex is so often used to demean and to shame women,
20
82038
5596
Ela disse: "Afinal, sexo costuma ser usado para humilhar e envergonhar as mulheres,
01:27
especially minority women,
21
87658
2428
especialmente mulheres de minorias,
01:30
and especially minority women who dare to challenge powerful men,"
22
90110
4312
e especialmente as que ousam desafiar homens poderosos",
01:34
as she had in her work.
23
94446
1533
como ela fazia em seu trabalho.
01:37
The fake sex video went viral in 48 hours.
24
97191
3976
O vídeo de sexo falso se tornou viral em 48 horas.
01:42
All of her online accounts were flooded with screenshots of the video,
25
102064
5307
Todas as suas contas on-line foram inundadas com capturas de tela do vídeo,
01:47
with graphic rape and death threats
26
107395
2627
ameaças explícitas de estupro e morte
01:50
and with slurs about her Muslim faith.
27
110046
2533
e com insultos à sua fé muçulmana.
01:53
Online posts suggested that she was "available" for sex.
28
113426
4564
Postagens on-line sugeriam que ela estava "disponível" para o sexo.
01:58
And she was doxed,
29
118014
1610
E ela tinha sido "doxed",
01:59
which means that her home address and her cell phone number
30
119648
2778
ou seja, o número de celular e o endereço residencial dela
02:02
were spread across the internet.
31
122450
1746
foram espalhados pela internet.
02:04
The video was shared more than 40,000 times.
32
124879
4084
O vídeo foi compartilhado mais de 40 mil vezes.
02:09
Now, when someone is targeted with this kind of cybermob attack,
33
129760
3936
Quando alguém é alvo desse tipo de ataque cibernético,
02:13
the harm is profound.
34
133720
2063
o dano é profundo.
02:16
Rana Ayyub's life was turned upside down.
35
136482
3039
A vida de Rana Ayyub virou de cabeça para baixo.
02:20
For weeks, she could hardly eat or speak.
36
140211
3334
Por semanas, ela mal podia comer ou falar.
02:23
She stopped writing and closed all of her social media accounts,
37
143919
3689
Ela parou de escrever e cancelou todas as contas de rede social,
02:27
which is, you know, a tough thing to do when you're a journalist.
38
147632
3158
algo difícil de fazer quando se é jornalista.
02:31
And she was afraid to go outside her family's home.
39
151188
3484
Ela tinha medo de sair da casa de sua família.
02:34
What if the posters made good on their threats?
40
154696
3022
E se aquelas ameaças fossem cumpridas?
02:38
The UN Council on Human Rights confirmed that she wasn't being crazy.
41
158395
4365
O Conselho de Direitos Humanos da ONU confirmou que ela não estava exagerando.
02:42
It issued a public statement saying that they were worried about her safety.
42
162784
4637
Emitiu uma declaração pública dizendo que estavam preocupados com a segurança dela.
02:48
What Rana Ayyub faced was a deepfake:
43
168776
4229
Rana Ayyub enfrentou um "deepfake":
02:53
machine-learning technology
44
173029
2540
tecnologia de aprendizado de máquina
02:55
that manipulates or fabricates audio and video recordings
45
175593
4111
que manipula ou fabrica gravações de áudio e vídeo
02:59
to show people doing and saying things
46
179728
2723
mostrando pessoas fazendo e dizendo coisas
03:02
that they never did or said.
47
182475
1866
que elas nunca fizeram ou disseram.
03:04
Deepfakes appear authentic and realistic, but they're not;
48
184807
3361
Deepfakes parecem autênticos e realistas, mas não são,
03:08
they're total falsehoods.
49
188192
1772
são falsidades totais.
03:11
Although the technology is still developing in its sophistication,
50
191228
3794
Embora a tecnologia ainda esteja se desenvolvendo em sofisticação,
03:15
it is widely available.
51
195046
1614
ela está amplamente disponível.
03:17
Now, the most recent attention to deepfakes arose,
52
197371
3072
O interesse mais recente aos deepfakes surgiu,
03:20
as so many things do online,
53
200467
2161
como muitas coisas on-line,
03:22
with pornography.
54
202652
1255
com a pornografia.
03:24
In early 2018,
55
204498
2111
No início de 2018,
03:26
someone posted a tool on Reddit
56
206633
2468
alguém postou uma ferramenta no Reddit
03:29
to allow users to insert faces into porn videos.
57
209125
4412
permitindo que os usuários pusessem rostos em vídeos pornográficos.
03:33
And what followed was a cascade of fake porn videos
58
213561
3440
E o que se seguiu foi uma cascata de vídeos pornográficos falsos
03:37
featuring people's favorite female celebrities.
59
217025
2797
apresentando as celebridades femininas favoritas das pessoas.
03:40
And today, you can go on YouTube and pull up countless tutorials
60
220712
3477
E hoje, podemos acessar o YouTube e assistir a inúmeros tutoriais
03:44
with step-by-step instructions
61
224213
2286
com instruções passo a passo
03:46
on how to make a deepfake on your desktop application.
62
226523
3163
de como fazer um deepfake no computador.
03:50
And soon we may be even able to make them on our cell phones.
63
230260
3706
Em breve poderemos fazê-lo em nosso telefone celular.
03:55
Now, it's the interaction of some of our most basic human frailties
64
235072
5382
A interação de algumas de nossas fragilidades humanas mais básicas
04:00
and network tools
65
240478
1682
com ferramentas de rede
04:02
that can turn deepfakes into weapons.
66
242184
2666
podem transformar deepfakes em armas.
04:04
So let me explain.
67
244874
1200
Deixem-me explicar.
04:06
As human beings, we have a visceral reaction to audio and video.
68
246875
4566
Como seres humanos, temos uma reação visceral ao áudio e vídeo.
04:11
We believe they're true,
69
251860
1488
Acreditamos que são verdadeiros,
04:13
on the notion that of course you can believe
70
253372
2078
já que é claro que podemos acreditar
04:15
what your eyes and ears are telling you.
71
255474
2478
no que nossos olhos e ouvidos estão nos dizendo.
04:18
And it's that mechanism
72
258476
1699
E é esse mecanismo
04:20
that might undermine our shared sense of reality.
73
260199
3698
que pode comprometer nosso senso comum de realidade.
04:23
Although we believe deepfakes to be true, they're not.
74
263921
3147
Embora acreditemos que deepfakes sejam verdadeiros, eles não são.
04:27
And we're attracted to the salacious, the provocative.
75
267604
4157
E nós somos atraídos pelo obsceno e provocante.
04:32
We tend to believe and to share information
76
272365
3047
Tendemos a acreditar e compartilhar informações
04:35
that's negative and novel.
77
275436
2023
negativas e novas.
04:37
And researchers have found that online hoaxes spread 10 times faster
78
277809
5019
Pesquisadores descobriram que os boatos on-line se espalham dez vezes mais rápido
04:42
than accurate stories.
79
282852
1627
do que histórias verdadeiras.
04:46
Now, we're also drawn to information
80
286015
4380
Também somos atraídos por informações
04:50
that aligns with our viewpoints.
81
290419
1892
alinhadas com nossos pontos de vista.
04:52
Psychologists call that tendency "confirmation bias."
82
292950
3561
Psicólogos chamam essa tendência de "viés de confirmação".
04:57
And social media platforms supercharge that tendency,
83
297300
4387
E as plataformas de rede social sobrecarregam essa tendência,
05:01
by allowing us to instantly and widely share information
84
301711
3881
permitindo compartilhar informações, instantaneamente e amplamente,
05:05
that accords with our viewpoints.
85
305616
1792
que estejam de acordo com nossa opinião.
05:08
Now, deepfakes have the potential to cause grave individual and societal harm.
86
308735
5568
Deepfakes têm o potencial de causar graves danos individuais e sociais.
05:15
So, imagine a deepfake
87
315204
2024
Então, imaginem um deepfake
05:17
that shows American soldiers in Afganistan burning a Koran.
88
317252
4182
que mostre soldados norte-americanos no Afeganistão queimando um Alcorão.
05:22
You can imagine that that deepfake would provoke violence
89
322807
3024
Podem imaginar que esse deepfake provocaria violência contra eles.
05:25
against those soldiers.
90
325855
1533
05:27
And what if the very next day
91
327847
2873
E se no dia seguinte
05:30
there's another deepfake that drops,
92
330744
2254
há outro deepfake,
05:33
that shows a well-known imam based in London
93
333022
3317
mostrando um imame que mora em Londres enaltecendo o ataque a esses soldados?
05:36
praising the attack on those soldiers?
94
336363
2467
05:39
We might see violence and civil unrest,
95
339617
3163
Poderíamos ver violência e agitação civil,
05:42
not only in Afganistan and the United Kingdom,
96
342804
3249
não só no Afeganistão e no Reino Unido,
05:46
but across the globe.
97
346077
1515
mas em todo o mundo.
05:48
And you might say to me,
98
348251
1158
E vocês podem me dizer: "Deixe disso, Danielle, é exagero".
05:49
"Come on, Danielle, that's far-fetched."
99
349433
2247
05:51
But it's not.
100
351704
1150
Mas não é.
05:53
We've seen falsehoods spread
101
353293
2191
Vimos mentiras espalhadas
05:55
on WhatsApp and other online message services
102
355508
2722
no WhatsApp e outros serviços de mensagens on-line
05:58
lead to violence against ethnic minorities.
103
358254
2761
levarem à violência contra minorias étnicas.
06:01
And that was just text --
104
361039
1887
E isso era apenas um texto!
06:02
imagine if it were video.
105
362950
2024
imaginem se fosse um vídeo.
06:06
Now, deepfakes have the potential to corrode the trust that we have
106
366593
5357
Deepfakes têm o potencial de corroer a confiança que temos
06:11
in democratic institutions.
107
371974
1992
em instituições democráticas.
06:15
So, imagine the night before an election.
108
375006
2667
Imaginem a véspera de uma eleição.
06:17
There's a deepfake showing one of the major party candidates
109
377996
3238
Há um deepfake mostrando um dos principais candidatos do partido
06:21
gravely sick.
110
381258
1150
gravemente doente.
06:23
The deepfake could tip the election
111
383202
2333
O deepfake pode derrubar a eleição
06:25
and shake our sense that elections are legitimate.
112
385559
3375
e abalar nossa noção de que as eleições são legítimas.
06:30
Imagine if the night before an initial public offering
113
390515
3326
Imaginem se na véspera de uma oferta pública inicial, ou OPI,
06:33
of a major global bank,
114
393865
2333
de um grande banco global
06:36
there was a deepfake showing the bank's CEO
115
396222
3149
há um deepfake mostrando o CEO do banco dizendo embriagado teorias de conspiração.
06:39
drunkenly spouting conspiracy theories.
116
399395
2697
06:42
The deepfake could tank the IPO,
117
402887
3047
O deepfake pode detonar a OPI,
06:45
and worse, shake our sense that financial markets are stable.
118
405958
4115
e pior, abalar nossa noção de que os mercados financeiros são estáveis.
06:51
So deepfakes can exploit and magnify the deep distrust that we already have
119
411385
6989
Deepfakes podem explorar e ampliar a profunda desconfiança que já temos
06:58
in politicians, business leaders and other influential leaders.
120
418398
4214
de políticos, líderes empresariais e outros líderes influentes.
07:02
They find an audience primed to believe them.
121
422945
3284
Eles encontram uma plateia preparada para acreditar neles.
07:07
And the pursuit of truth is on the line as well.
122
427287
2765
A busca pela verdade também está em jogo.
07:11
Technologists expect that with advances in AI,
123
431077
3564
Tecnólogos preveem que, com os avanços na IA,
07:14
soon it may be difficult if not impossible
124
434665
3682
logo poderá ser difícil, senão impossível,
07:18
to tell the difference between a real video and a fake one.
125
438371
3769
distinguir um vídeo real de um falso.
07:23
So how can the truth emerge in a deepfake-ridden marketplace of ideas?
126
443022
5341
Então, como a verdade pode emergir num mercado repleto de deepfakes?
07:28
Will we just proceed along the path of least resistance
127
448752
3420
Vamos então apenas pegar o caminho de menor resistência,
07:32
and believe what we want to believe,
128
452196
2437
acreditar no que quisermos acreditar,
07:34
truth be damned?
129
454657
1150
e dane-se a verdade?
07:36
And not only might we believe the fakery,
130
456831
3175
E podemos não apenas acreditar na mentira,
07:40
we might start disbelieving the truth.
131
460030
3326
mas começar a não acreditar na verdade.
07:43
We've already seen people invoke the phenomenon of deepfakes
132
463887
4079
Já vimos pessoas recorrendo ao fenômeno dos deepfakes
07:47
to cast doubt on real evidence of their wrongdoing.
133
467990
3920
para lançar dúvidas em evidências reais de suas transgressões.
07:51
We've heard politicians say of audio of their disturbing comments,
134
471934
5969
Vimos políticos falarem sobre o áudio de seus comentários constrangedores:
07:57
"Come on, that's fake news.
135
477927
1746
"Vamos lá, são notícias falsas.
07:59
You can't believe what your eyes and ears are telling you."
136
479697
3920
Não podem acreditar no que seus olhos e ouvidos estão dizendo a você".
08:04
And it's that risk
137
484402
1731
E é esse perigo
08:06
that professor Robert Chesney and I call the "liar's dividend":
138
486157
5436
que o professor Robert Chesney e eu chamamos de "dividendo do mentiroso":
08:11
the risk that liars will invoke deepfakes
139
491617
3357
o risco de que os mentirosos recorram a deepfakes
08:14
to escape accountability for their wrongdoing.
140
494998
2905
para escapar da responsabilização por seus erros.
08:18
So we've got our work cut out for us, there's no doubt about it.
141
498963
3071
Nosso trabalho ficou mais difícil, não há dúvida sobre isso.
08:22
And we're going to need a proactive solution
142
502606
3325
E vamos precisar de uma solução proativa
08:25
from tech companies, from lawmakers,
143
505955
3511
de empresas de tecnologia, legisladores,
08:29
law enforcers and the media.
144
509490
1984
agentes da lei e da mídia.
08:32
And we're going to need a healthy dose of societal resilience.
145
512093
4016
Também de uma dose saudável de resiliência social.
08:37
So now, we're right now engaged in a very public conversation
146
517506
3896
Estamos agora envolvidos numa discussão muito pública
08:41
about the responsibility of tech companies.
147
521426
2913
sobre a responsabilidade das empresas de tecnologia.
08:44
And my advice to social media platforms
148
524926
3032
E meu conselho para plataformas de rede social
08:47
has been to change their terms of service and community guidelines
149
527982
3873
tem sido alterar os termos de serviço e as diretrizes da comunidade
08:51
to ban deepfakes that cause harm.
150
531879
2336
para proibir deepfakes que causem danos.
08:54
That determination, that's going to require human judgment,
151
534712
3960
Essa determinação exigirá julgamento humano
08:58
and it's expensive.
152
538696
1571
e ela é cara.
09:00
But we need human beings
153
540673
2285
Mas precisamos de seres humanos
09:02
to look at the content and context of a deepfake
154
542982
3873
para examinar o conteúdo e o contexto de um deepfake
09:06
to figure out if it is a harmful impersonation
155
546879
3682
e descobrir se é uma falsificação danosa
09:10
or instead, if it's valuable satire, art or education.
156
550585
4382
ou uma sátira válida, arte ou educação.
09:16
So now, what about the law?
157
556118
1495
E quanto à lei?
09:18
Law is our educator.
158
558666
2349
A lei é nosso educador.
09:21
It teaches us about what's harmful and what's wrong.
159
561515
4038
Nos ensina o que é prejudicial e o que está errado.
09:25
And it shapes behavior it deters by punishing perpetrators
160
565577
4555
Modela o comportamento, punindo os autores e garantindo soluções para as vítimas.
09:30
and securing remedies for victims.
161
570156
2267
09:33
Right now, law is not up to the challenge of deepfakes.
162
573148
4280
No momento, a lei não está à altura do desafio dos deepfakes.
09:38
Across the globe,
163
578116
1390
Em todo o mundo,
09:39
we lack well-tailored laws
164
579530
2444
nos faltam leis adequadas
09:41
that would be designed to tackle digital impersonations
165
581998
3570
para enfrentar falsificações digitais
09:45
that invade sexual privacy,
166
585592
2231
que invadem a privacidade sexual,
09:47
that damage reputations
167
587847
1387
prejudicam reputações
09:49
and that cause emotional distress.
168
589258
1951
e causam sofrimento emocional.
09:51
What happened to Rana Ayyub is increasingly commonplace.
169
591725
3873
O que aconteceu com Rana Ayyub é cada vez mais comum.
09:56
Yet, when she went to law enforcement in Delhi,
170
596074
2214
Mas quando ela procurou as autoridades em Deli,
09:58
she was told nothing could be done.
171
598312
2135
lhe foi dito que nada poderia ser feito.
10:01
And the sad truth is that the same would be true
172
601101
3183
E o triste é que aconteceria o mesmo nos Estados Unidos e na Europa.
10:04
in the United States and in Europe.
173
604308
2266
10:07
So we have a legal vacuum that needs to be filled.
174
607300
4356
Portanto, temos um vácuo legal que precisa ser preenchido.
10:12
My colleague Dr. Mary Anne Franks and I are working with US lawmakers
175
612292
4092
A Dra. Mary Anne Franks e eu trabalhamos com legisladores norte-americanos
10:16
to devise legislation that would ban harmful digital impersonations
176
616408
4804
para criar uma legislação que proíba falsificações digitais nocivas,
10:21
that are tantamount to identity theft.
177
621236
2533
equiparáveis a roubo de identidade.
10:24
And we've seen similar moves
178
624252
2126
E temos visto movimentos semelhantes
10:26
in Iceland, the UK and Australia.
179
626402
3301
na Islândia, Reino Unido e Austrália.
10:30
But of course, that's just a small piece of the regulatory puzzle.
180
630157
3259
Mas é claro, é apenas uma pequena parte do quebra-cabeça regulatório.
10:34
Now, I know law is not a cure-all. Right?
181
634911
3169
Sei que a lei não é uma panaceia, certo?
10:38
It's a blunt instrument.
182
638104
1600
É um instrumento contundente.
10:40
And we've got to use it wisely.
183
640346
1539
E temos que usá-la com sabedoria.
10:42
It also has some practical impediments.
184
642411
2812
Ela também tem impedimentos práticos.
10:45
You can't leverage law against people you can't identify and find.
185
645657
5044
Não podemos aplicar a lei contra pessoas que não podemos identificar e encontrar.
10:51
And if a perpetrator lives outside the country
186
651463
3286
E se um criminoso não mora no mesmo país que a vítima,
10:54
where a victim lives,
187
654773
1754
10:56
then you may not be able to insist
188
656551
1629
talvez não consigamos fazer com que venha enfrentar a justiça num tribunal local.
10:58
that the perpetrator come into local courts
189
658204
2349
11:00
to face justice.
190
660577
1150
11:02
And so we're going to need a coordinated international response.
191
662236
4063
E assim vamos precisar de uma resposta internacional coordenada.
11:07
Education has to be part of our response as well.
192
667819
3333
A educação também deve fazer parte da nossa resposta.
11:11
Law enforcers are not going to enforce laws
193
671803
3731
Agentes não aplicarão leis
11:15
they don't know about
194
675558
1458
que eles não conhecem,
11:17
and proffer problems they don't understand.
195
677040
2596
nem resolverão problemas que eles não entendem.
11:20
In my research on cyberstalking,
196
680376
2191
Na minha pesquisa sobre perseguição cibernética,
11:22
I found that law enforcement lacked the training
197
682591
3499
descobri que os agentes não tinham treinamento
11:26
to understand the laws available to them
198
686114
2582
para entender as leis disponíveis
11:28
and the problem of online abuse.
199
688720
2349
e o problema do abuso on-line.
11:31
And so often they told victims,
200
691093
2682
E tantas vezes eles disseram às vítimas:
11:33
"Just turn your computer off. Ignore it. It'll go away."
201
693799
3971
"Apenas desligue o computador. Ignore. Vai passar".
11:38
And we saw that in Rana Ayyub's case.
202
698261
2466
E vimos isso no caso de Rana Ayyub.
11:41
She was told, "Come on, you're making such a big deal about this.
203
701102
3468
Foi-lhe dito: "Você está fazendo o maior drama sobre isso.
11:44
It's boys being boys."
204
704594
1743
São meninos sendo meninos".
11:47
And so we need to pair new legislation with efforts at training.
205
707268
5252
E então precisamos emparelhar a nova legislação com esforços no treinamento.
11:54
And education has to be aimed on the media as well.
206
714053
3429
E a educação também deve ser destinada para a mídia.
11:58
Journalists need educating about the phenomenon of deepfakes
207
718180
4260
Jornalistas precisam aprender sobre o fenômeno dos deepfakes
12:02
so they don't amplify and spread them.
208
722464
3039
para que não os amplifiquem e espalhem.
12:06
And this is the part where we're all involved.
209
726583
2168
Esta é a parte em que estamos todos envolvidos.
12:08
Each and every one of us needs educating.
210
728775
3855
Cada um de nós precisa de educação.
12:13
We click, we share, we like, and we don't even think about it.
211
733375
3675
Clicamos, compartilhamos, curtimos algo e nem pensamos nisso.
12:17
We need to do better.
212
737551
1547
Nós precisamos fazer melhor.
12:19
We need far better radar for fakery.
213
739726
2809
Precisamos de um radar muito melhor para mentira.
12:25
So as we're working through these solutions,
214
745744
3841
Enquanto trabalharmos nessas soluções,
12:29
there's going to be a lot of suffering to go around.
215
749609
2563
haverá muito sofrimento para superar.
12:33
Rana Ayyub is still wrestling with the fallout.
216
753093
2746
Rana Ayyub ainda está enfrentando as consequências.
12:36
She still doesn't feel free to express herself on- and offline.
217
756669
4189
Ainda não se sente livre para se expressar on-line e off-line.
12:41
And as she told me,
218
761566
1365
E como me disse,
12:42
she still feels like there are thousands of eyes on her naked body,
219
762955
5074
ela ainda sente como se houvesse milhares de olhos observando seu corpo nu,
12:48
even though, intellectually, she knows it wasn't her body.
220
768053
3661
embora, racionalmente, saiba que não era o corpo dela.
12:52
And she has frequent panic attacks,
221
772371
2349
E ela tem ataques de pânico frequentes,
12:54
especially when someone she doesn't know tries to take her picture.
222
774744
4100
especialmente quando alguém que ela não conhece tenta tirar uma foto dela.
12:58
"What if they're going to make another deepfake?" she thinks to herself.
223
778868
3511
"E se fizerem outro deepfake?", ela pensa.
13:03
And so for the sake of individuals like Rana Ayyub
224
783082
3921
Então, pelo bem de pessoas como Rana Ayyub
13:07
and the sake of our democracy,
225
787027
2306
e pelo bem da nossa democracia,
13:09
we need to do something right now.
226
789357
2182
precisamos fazer algo agora.
13:11
Thank you.
227
791563
1151
Obrigada.
13:12
(Applause)
228
792738
2508
(Aplausos)
Sobre este site

Este site apresentará a você vídeos do YouTube que são úteis para o aprendizado do inglês. Você verá aulas de inglês ministradas por professores de primeira linha de todo o mundo. Clique duas vezes nas legendas em inglês exibidas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas rolarão em sincronia com a reprodução do vídeo. Se você tiver algum comentário ou solicitação, por favor, entre em contato conosco usando este formulário de contato.

https://forms.gle/WvT1wiN1qDtmnspy7