How deepfakes undermine truth and threaten democracy | Danielle Citron

86,369 views ・ 2019-10-07

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Elisa Tortosa Revisor: Sebastian Betti
00:12
[This talk contains mature content]
0
12535
2767
[Esta charla tiene contenido adulto]
00:17
Rana Ayyub is a journalist in India
1
17762
2992
Rana Ayyub es periodista en India
00:20
whose work has exposed government corruption
2
20778
2602
y ha destapado casos de corrupción del gobierno
00:24
and human rights violations.
3
24411
2157
y violaciones de los derechos humanos.
00:26
And over the years,
4
26990
1167
Con los años
00:28
she's gotten used to vitriol and controversy around her work.
5
28181
3303
se acostumbró a la fuerte crítica y a la polémica de su trabajo.
00:32
But none of it could have prepared her for what she faced in April 2018.
6
32149
5109
Pero nada podría haberla preparado para lo que enfrentó en abril de 2018.
00:38
She was sitting in a café with a friend when she first saw it:
7
38125
3651
Ella estaba en una cafetería con una amiga la primera vez que lo vio.
00:41
a two-minute, 20-second video of her engaged in a sex act.
8
41800
4943
Un vídeo de 2 minutos y 20 segundos de ella en un acto sexual.
00:47
And she couldn't believe her eyes.
9
47188
2349
Y ella no se lo podía creer.
00:49
She had never made a sex video.
10
49561
2273
Ella nunca había hecho un vídeo sexual.
00:52
But unfortunately, thousands upon thousands of people
11
52506
3465
Pero por desgracia miles y miles de personas
00:55
would believe it was her.
12
55995
1666
creerían que era ella.
00:58
I interviewed Ms. Ayyub about three months ago,
13
58673
2944
Entrevisté a Ayyub hace tres meses
01:01
in connection with my book on sexual privacy.
14
61641
2504
en relación con mi libro de privacidad sexual.
01:04
I'm a law professor, lawyer and civil rights advocate.
15
64681
3198
Soy catedrática en Derecho, abogada y defensora de los derechos civiles,
01:08
So it's incredibly frustrating knowing that right now,
16
68204
4611
así que es frustra mucho saber que ahora mismo
01:12
law could do very little to help her.
17
72839
2238
la ley podría hacer muy poco para ayudarla.
01:15
And as we talked,
18
75458
1547
Y mientras hablábamos
01:17
she explained that she should have seen the fake sex video coming.
19
77029
4512
me explicó que nunca vio venir el falso vídeo sexual.
01:22
She said, "After all, sex is so often used to demean and to shame women,
20
82038
5596
Dijo "el sexo se usa muchas veces para menospreciar y avergonzar a las mujeres
01:27
especially minority women,
21
87658
2428
en particular a las mujeres minoritarias
01:30
and especially minority women who dare to challenge powerful men,"
22
90110
4312
y sobre todo a las que se atreven a desafiar a hombres poderosos",
01:34
as she had in her work.
23
94446
1533
como los de su trabajo.
01:37
The fake sex video went viral in 48 hours.
24
97191
3976
El vídeo se hizo viral en 48 horas.
01:42
All of her online accounts were flooded with screenshots of the video,
25
102064
5307
Todas sus redes sociales se llenaron de capturas del vídeo
01:47
with graphic rape and death threats
26
107395
2627
con amenazas de violación y amenazas de muerte
01:50
and with slurs about her Muslim faith.
27
110046
2533
insultando su fe musulmana.
01:53
Online posts suggested that she was "available" for sex.
28
113426
4564
Había publicaciones online que insinuaban que ella estaba "disponible" para sexo.
01:58
And she was doxed,
29
118014
1610
Revelaron su información personal,
01:59
which means that her home address and her cell phone number
30
119648
2778
es decir, su dirección y su número de teléfono
02:02
were spread across the internet.
31
122450
1746
se difundió por Internet.
02:04
The video was shared more than 40,000 times.
32
124879
4084
El vídeo se compartió más de 40 000 veces.
02:09
Now, when someone is targeted with this kind of cybermob attack,
33
129760
3936
Cuando alguien es el objetivo de este tipo de ataques de mafias online
02:13
the harm is profound.
34
133720
2063
la herida es profunda.
02:16
Rana Ayyub's life was turned upside down.
35
136482
3039
La vida de Rana Ayyub se puso patas arriba.
02:20
For weeks, she could hardly eat or speak.
36
140211
3334
Durante semanas, apenas podía comer y hablar.
02:23
She stopped writing and closed all of her social media accounts,
37
143919
3689
Dejó de escribir y cerró todas sus cuentas de las redes sociales,
02:27
which is, you know, a tough thing to do when you're a journalist.
38
147632
3158
algo muy duro cuando eres periodista.
02:31
And she was afraid to go outside her family's home.
39
151188
3484
Y tenía miedo de salir de su casa.
02:34
What if the posters made good on their threats?
40
154696
3022
¿Y si cumplían con las amenazas?
02:38
The UN Council on Human Rights confirmed that she wasn't being crazy.
41
158395
4365
El Consejo de Derechos Humanos de la ONU afirmó que no estaba loca.
02:42
It issued a public statement saying that they were worried about her safety.
42
162784
4637
Publicó una declaración que decía que estaban preocupados por su seguridad.
02:48
What Rana Ayyub faced was a deepfake:
43
168776
4229
Rana Ayyub se enfrentaba a un deepfake:
02:53
machine-learning technology
44
173029
2540
Tecnología de aprendizaje automático
02:55
that manipulates or fabricates audio and video recordings
45
175593
4111
que manipula o fabrica audio y vídeos
02:59
to show people doing and saying things
46
179728
2723
que muestran personas diciendo o haciendo cosas
03:02
that they never did or said.
47
182475
1866
que nunca han dicho o hecho.
03:04
Deepfakes appear authentic and realistic, but they're not;
48
184807
3361
Los deepfakes parecen auténticos y realistas, pero no lo son;
03:08
they're total falsehoods.
49
188192
1772
son mentiras absolutas.
03:11
Although the technology is still developing in its sophistication,
50
191228
3794
Si bien es una tecnología en desarrollo,
03:15
it is widely available.
51
195046
1614
es de fácil acceso.
03:17
Now, the most recent attention to deepfakes arose,
52
197371
3072
Y como tantas cosas en Internet,
03:20
as so many things do online,
53
200467
2161
los deepfakes llaman ahora la atención
03:22
with pornography.
54
202652
1255
por la pornografía.
03:24
In early 2018,
55
204498
2111
A principios del 2018
03:26
someone posted a tool on Reddit
56
206633
2468
alguien publicó una herramienta en Reddit
03:29
to allow users to insert faces into porn videos.
57
209125
4412
que permitía a los usuarios insertar caras en vídeos porno.
03:33
And what followed was a cascade of fake porn videos
58
213561
3440
A esto le siguió una lluvia de falsos vídeos porno protagonizados
03:37
featuring people's favorite female celebrities.
59
217025
2797
por las celebridades favoritas de las personas.
03:40
And today, you can go on YouTube and pull up countless tutorials
60
220712
3477
Y hoy en YouTube se pueden encontrar infinitos tutoriales
03:44
with step-by-step instructions
61
224213
2286
con instrucciones que enseñan paso a paso
03:46
on how to make a deepfake on your desktop application.
62
226523
3163
a hacer un deepfake en tu computadora.
03:50
And soon we may be even able to make them on our cell phones.
63
230260
3706
Y quizás pronto podamos hacerlos en nuestros móviles.
03:55
Now, it's the interaction of some of our most basic human frailties
64
235072
5382
Ahora, la interacción de algunas de nuestras debilidades humanas más básicas
04:00
and network tools
65
240478
1682
con las herramientas de la red
04:02
that can turn deepfakes into weapons.
66
242184
2666
pueden convertir estos vídeos en armas.
04:04
So let me explain.
67
244874
1200
Les explicaré.
04:06
As human beings, we have a visceral reaction to audio and video.
68
246875
4566
Los seres humanos tenemos una respuesta instintiva a los audios y vídeos.
04:11
We believe they're true,
69
251860
1488
Creemos que son verdad
04:13
on the notion that of course you can believe
70
253372
2078
ya que pensamos que obviamente podemos creer
04:15
what your eyes and ears are telling you.
71
255474
2478
lo que dicen los ojos y los oídos.
04:18
And it's that mechanism
72
258476
1699
Y este mecanismo
04:20
that might undermine our shared sense of reality.
73
260199
3698
puede debilitar nuestro sentido de la realidad.
04:23
Although we believe deepfakes to be true, they're not.
74
263921
3147
Aunque creamos que los deepfakes son verdad, no lo son.
04:27
And we're attracted to the salacious, the provocative.
75
267604
4157
Nos atrae lo lascivo, lo provocativo.
04:32
We tend to believe and to share information
76
272365
3047
Tendemos a creer y compartir información
04:35
that's negative and novel.
77
275436
2023
negativa y novedosa.
04:37
And researchers have found that online hoaxes spread 10 times faster
78
277809
5019
Los expertos dicen que online las falacias se difunden diez veces más rápido
04:42
than accurate stories.
79
282852
1627
que las historias verídicas.
04:46
Now, we're also drawn to information
80
286015
4380
Además, nos atrae la información
04:50
that aligns with our viewpoints.
81
290419
1892
más afín a nuestro punto de vista.
04:52
Psychologists call that tendency "confirmation bias."
82
292950
3561
Los psicólogos llaman a esta tendencia "sesgo de confirmación".
04:57
And social media platforms supercharge that tendency,
83
297300
4387
Y las redes sociales sobrecargan esta tendencia
05:01
by allowing us to instantly and widely share information
84
301711
3881
al permitirnos compartir información afín a nuestra idea
05:05
that accords with our viewpoints.
85
305616
1792
de una manera amplia e instantánea.
05:08
Now, deepfakes have the potential to cause grave individual and societal harm.
86
308735
5568
Pero los deepfakes tienen la posibilidad de causar un gran daño individual y social.
05:15
So, imagine a deepfake
87
315204
2024
Imaginen uno que muestre
05:17
that shows American soldiers in Afganistan burning a Koran.
88
317252
4182
a los soldados estadounidenses quemando un Corán en Afganistán.
05:22
You can imagine that that deepfake would provoke violence
89
322807
3024
Podemos imaginar que este vídeo puede causar violencia
05:25
against those soldiers.
90
325855
1533
contra esos soldados.
05:27
And what if the very next day
91
327847
2873
¿Y si justo al día siguiente
05:30
there's another deepfake that drops,
92
330744
2254
aparece otro deepfake
05:33
that shows a well-known imam based in London
93
333022
3317
que muestra a un conocido imán de Londres
05:36
praising the attack on those soldiers?
94
336363
2467
instando a atacar a esos soldados?
05:39
We might see violence and civil unrest,
95
339617
3163
Veríamos violencia y disturbios civiles.
05:42
not only in Afganistan and the United Kingdom,
96
342804
3249
no solo en Afganistán y en Reino Unido
05:46
but across the globe.
97
346077
1515
sino en todo el mundo.
05:48
And you might say to me,
98
348251
1158
Podrán decirme
05:49
"Come on, Danielle, that's far-fetched."
99
349433
2247
"Ya, Danielle, qué rebuscado".
05:51
But it's not.
100
351704
1150
Pero no lo es.
05:53
We've seen falsehoods spread
101
353293
2191
Hemos visto difusiones de mentiras
05:55
on WhatsApp and other online message services
102
355508
2722
por WhatsApp y por otros servicios de mensajería online
05:58
lead to violence against ethnic minorities.
103
358254
2761
que han llevado a la violencia contra las minorías étnicas.
06:01
And that was just text --
104
361039
1887
Y solo era un texto.
06:02
imagine if it were video.
105
362950
2024
Imaginen si fuese un vídeo.
06:06
Now, deepfakes have the potential to corrode the trust that we have
106
366593
5357
Los deepfakes tienen el potencial de corroer la confianza
que tenemos en las instituciones democráticas.
06:11
in democratic institutions.
107
371974
1992
06:15
So, imagine the night before an election.
108
375006
2667
Imaginen la noche de antes de unas elecciones.
06:17
There's a deepfake showing one of the major party candidates
109
377996
3238
Un deepfake muestra a uno de los candidatos de un partido principal
06:21
gravely sick.
110
381258
1150
muy enfermo.
06:23
The deepfake could tip the election
111
383202
2333
El vídeo podría modificar las elecciones
06:25
and shake our sense that elections are legitimate.
112
385559
3375
y cambiar nuestra opinión sobre la validez de las elecciones.
06:30
Imagine if the night before an initial public offering
113
390515
3326
Imaginen si la noche anterior a una oferta pública de venta
06:33
of a major global bank,
114
393865
2333
de un gran banco mundial
06:36
there was a deepfake showing the bank's CEO
115
396222
3149
hubiese un deepfake mostrando al director ejecutivo
06:39
drunkenly spouting conspiracy theories.
116
399395
2697
hablando borracho sobre teorías conspirativas.
06:42
The deepfake could tank the IPO,
117
402887
3047
El vídeo podría hundir la venta
06:45
and worse, shake our sense that financial markets are stable.
118
405958
4115
y peor, cambiar nuestra opinión sobre la estabilidad del mercado financiero.
06:51
So deepfakes can exploit and magnify the deep distrust that we already have
119
411385
6989
Los deepfakes pueden aprovecharse para aumentar la gran desconfianza
que ya tenemos en los políticos, líderes de empresas y otros influyentes.
06:58
in politicians, business leaders and other influential leaders.
120
418398
4214
07:02
They find an audience primed to believe them.
121
422945
3284
Encuentran a un público listo para creérselos.
07:07
And the pursuit of truth is on the line as well.
122
427287
2765
La búsqueda de la verdad también está en peligro.
07:11
Technologists expect that with advances in AI,
123
431077
3564
Expertos en tecnología creen
07:14
soon it may be difficult if not impossible
124
434665
3682
que con los avances de Inteligencia Artificial
07:18
to tell the difference between a real video and a fake one.
125
438371
3769
pronto será casi imposible diferenciar un vídeo real de uno falso.
07:23
So how can the truth emerge in a deepfake-ridden marketplace of ideas?
126
443022
5341
¿Cómo podría emerger la verdad en un mercado lleno de deepfakes?
07:28
Will we just proceed along the path of least resistance
127
448752
3420
Si seguimos por el camino de no poner resistencia
07:32
and believe what we want to believe,
128
452196
2437
creyendo lo que queramos creer
07:34
truth be damned?
129
454657
1150
¿será el fin de la verdad?
07:36
And not only might we believe the fakery,
130
456831
3175
Quizás no solo creamos lo falso,
07:40
we might start disbelieving the truth.
131
460030
3326
quizás pongamos en duda la verdad.
07:43
We've already seen people invoke the phenomenon of deepfakes
132
463887
4079
Ya hemos visto a personas que usan este fenómeno de deepfakes
07:47
to cast doubt on real evidence of their wrongdoing.
133
467990
3920
para cuestionar la evidencia tangible de sus acciones.
07:51
We've heard politicians say of audio of their disturbing comments,
134
471934
5969
Hemos oído a políticos decir sobre audios de comentarios alarmantes
07:57
"Come on, that's fake news.
135
477927
1746
"Son noticias falsas.
07:59
You can't believe what your eyes and ears are telling you."
136
479697
3920
No podemos creer los que nos dicen nuestros ojos y oídos".
08:04
And it's that risk
137
484402
1731
El profesor Robert Chesney y yo
08:06
that professor Robert Chesney and I call the "liar's dividend":
138
486157
5436
llamamos a este peligro "recompensa del mentiroso"
08:11
the risk that liars will invoke deepfakes
139
491617
3357
El temor de que los mentirosos usen deepfakes
08:14
to escape accountability for their wrongdoing.
140
494998
2905
para escapar de la culpabilidad del delito.
08:18
So we've got our work cut out for us, there's no doubt about it.
141
498963
3071
Tenemos mucho trabajo por delante, de eso no hay duda.
08:22
And we're going to need a proactive solution
142
502606
3325
Vamos a necesitar una solución proactiva
08:25
from tech companies, from lawmakers,
143
505955
3511
de parte de empresas tecnológicas, legisladores,
08:29
law enforcers and the media.
144
509490
1984
poder judicial y medios de comunicación.
08:32
And we're going to need a healthy dose of societal resilience.
145
512093
4016
Necesitaremos una dosis saludable de resistencia social.
08:37
So now, we're right now engaged in a very public conversation
146
517506
3896
Así que ahora estamos inmersos en una conversación muy pública
08:41
about the responsibility of tech companies.
147
521426
2913
sobre las responsabilidades de las empresas tecnológicas,
08:44
And my advice to social media platforms
148
524926
3032
mi consejo para las redes sociales
08:47
has been to change their terms of service and community guidelines
149
527982
3873
es que cambien sus términos de uso y las normas comunitarias
08:51
to ban deepfakes that cause harm.
150
531879
2336
para prohibir deepfakes dañinos.
08:54
That determination, that's going to require human judgment,
151
534712
3960
Esta resolución requerirá el juicio humano
08:58
and it's expensive.
152
538696
1571
y será costoso.
09:00
But we need human beings
153
540673
2285
Pero necesitamos supervisión humana
09:02
to look at the content and context of a deepfake
154
542982
3873
del contenido y el contexto de un deepfake
09:06
to figure out if it is a harmful impersonation
155
546879
3682
para ver si es una imitación perjudicial
09:10
or instead, if it's valuable satire, art or education.
156
550585
4382
o si tiene un valor satírico, artístico o educativo.
09:16
So now, what about the law?
157
556118
1495
Y, ¿qué pasa con la ley?
09:18
Law is our educator.
158
558666
2349
Debemos aprender de la ley.
09:21
It teaches us about what's harmful and what's wrong.
159
561515
4038
Nos enseña qué es perjudicial y qué es incorrecto.
09:25
And it shapes behavior it deters by punishing perpetrators
160
565577
4555
Reprime comportamientos prohibidos castigando a los responsables
09:30
and securing remedies for victims.
161
570156
2267
y cuidando a las víctimas.
09:33
Right now, law is not up to the challenge of deepfakes.
162
573148
4280
Ahora mismo la ley no está preparada para el desafío de los deepfakes.
09:38
Across the globe,
163
578116
1390
En todo el mundo
09:39
we lack well-tailored laws
164
579530
2444
necesitamos leyes hechas a medida
09:41
that would be designed to tackle digital impersonations
165
581998
3570
diseñadas para destruir las suplantaciones digitales
09:45
that invade sexual privacy,
166
585592
2231
que invaden la privacidad sexual,
09:47
that damage reputations
167
587847
1387
que dañan reputaciones
09:49
and that cause emotional distress.
168
589258
1951
y causan perjuicio emocional.
09:51
What happened to Rana Ayyub is increasingly commonplace.
169
591725
3873
Lo que le ocurrió a Rana Ayyub cada vez es más común.
09:56
Yet, when she went to law enforcement in Delhi,
170
596074
2214
Incluso cuando fue a la policía en Delhi
09:58
she was told nothing could be done.
171
598312
2135
le dijeron que no podía hacer nada.
10:01
And the sad truth is that the same would be true
172
601101
3183
Y es triste pero verdad que ocurriría lo mismo
10:04
in the United States and in Europe.
173
604308
2266
en Estados Unidos y en Europa.
10:07
So we have a legal vacuum that needs to be filled.
174
607300
4356
Así que hay un vacío legal por llenar.
10:12
My colleague Dr. Mary Anne Franks and I are working with US lawmakers
175
612292
4092
Mi compañera la doctora Mary Anne Franks y yo trabajamos con legisladores de EE.UU.
10:16
to devise legislation that would ban harmful digital impersonations
176
616408
4804
para crear leyes que prohíban las suplantaciones digitales dañinas
10:21
that are tantamount to identity theft.
177
621236
2533
equivalentes a la suplantación de identidad.
10:24
And we've seen similar moves
178
624252
2126
Y hemos visto los mismos movimientos
10:26
in Iceland, the UK and Australia.
179
626402
3301
en Islandia, Reino Unido y Australia.
10:30
But of course, that's just a small piece of the regulatory puzzle.
180
630157
3259
Pero por supuesto, esto es solo una gota en el mar.
10:34
Now, I know law is not a cure-all. Right?
181
634911
3169
Sé que la ley no es el remedio universal.
10:38
It's a blunt instrument.
182
638104
1600
Es un instrumento contundente.
10:40
And we've got to use it wisely.
183
640346
1539
Y tenemos que usarlo con cabeza.
10:42
It also has some practical impediments.
184
642411
2812
También tiene algunos impedimentos prácticos.
10:45
You can't leverage law against people you can't identify and find.
185
645657
5044
No se puede sancionar a alguien si no se lo puede identificar ni encontrar.
10:51
And if a perpetrator lives outside the country
186
651463
3286
Y si el infractor vive en otro país
10:54
where a victim lives,
187
654773
1754
diferente al de la víctima
10:56
then you may not be able to insist
188
656551
1629
quizás no se le pueda exigir
10:58
that the perpetrator come into local courts
189
658204
2349
al infractor que acceda a cumplir las leyes
11:00
to face justice.
190
660577
1150
de su país.
11:02
And so we're going to need a coordinated international response.
191
662236
4063
Así que necesitaremos una respuesta internacional coordinada.
11:07
Education has to be part of our response as well.
192
667819
3333
La educación tiene que ser también parte de nuestra respuesta.
11:11
Law enforcers are not going to enforce laws
193
671803
3731
Las fuerzas del orden no van a imponer leyes
11:15
they don't know about
194
675558
1458
que no conozcan
11:17
and proffer problems they don't understand.
195
677040
2596
y juzgar problemas que no entiendan.
11:20
In my research on cyberstalking,
196
680376
2191
En mi investigación sobre el ciberacoso
11:22
I found that law enforcement lacked the training
197
682591
3499
he descubierto que el poder judicial carece de experiencia
11:26
to understand the laws available to them
198
686114
2582
para entender las leyes
11:28
and the problem of online abuse.
199
688720
2349
y el problema del acoso online.
11:31
And so often they told victims,
200
691093
2682
Y muy a menudo le dicen a las víctimas
11:33
"Just turn your computer off. Ignore it. It'll go away."
201
693799
3971
"Simplemente apaga la computadora. Ignóralo. Ya pasará".
11:38
And we saw that in Rana Ayyub's case.
202
698261
2466
Y eso se ve en el caso de Rana Ayyub.
11:41
She was told, "Come on, you're making such a big deal about this.
203
701102
3468
Le dijeron "Estás haciendo una montaña de un grano de arena.
11:44
It's boys being boys."
204
704594
1743
Son solo niños siendo niños".
11:47
And so we need to pair new legislation with efforts at training.
205
707268
5252
Así que tenemos que unir la nueva legislación con la experiencia.
11:54
And education has to be aimed on the media as well.
206
714053
3429
Y los medios de comunicación tienen que animar a la educación.
11:58
Journalists need educating about the phenomenon of deepfakes
207
718180
4260
Los periodistas necesitan instruirse en el fenómeno de deepfakes
12:02
so they don't amplify and spread them.
208
722464
3039
para que no aumenten ni se difundan.
12:06
And this is the part where we're all involved.
209
726583
2168
Y aquí todos estamos involucrados.
12:08
Each and every one of us needs educating.
210
728775
3855
Cada uno de nosotros necesita educación.
12:13
We click, we share, we like, and we don't even think about it.
211
733375
3675
Hacemos clic, compartimos, damos me gusta sin pensar en ello.
12:17
We need to do better.
212
737551
1547
Necesitamos hacerlo mejor.
12:19
We need far better radar for fakery.
213
739726
2809
Necesitamos un radar más rápido y mejor contra la falsificación.
12:25
So as we're working through these solutions,
214
745744
3841
Así que mientras trabajamos en estas soluciones
12:29
there's going to be a lot of suffering to go around.
215
749609
2563
habrá bastante sufrimiento.
12:33
Rana Ayyub is still wrestling with the fallout.
216
753093
2746
Rana Ayyub sigue lidiando con los efectos secundarios.
12:36
She still doesn't feel free to express herself on- and offline.
217
756669
4189
Aún no se siente libre de expresarse online y offline.
12:41
And as she told me,
218
761566
1365
Y ella me ha dicho
12:42
she still feels like there are thousands of eyes on her naked body,
219
762955
5074
que aún se siente como si miles de ojos mirasen su cuerpo desnudo
12:48
even though, intellectually, she knows it wasn't her body.
220
768053
3661
sabiendo perfectamente que no es su cuerpo.
12:52
And she has frequent panic attacks,
221
772371
2349
Y sufre frecuentes ataques de pánico
12:54
especially when someone she doesn't know tries to take her picture.
222
774744
4100
en concreto cuando alguien que no conoce intenta tomarle una foto.
12:58
"What if they're going to make another deepfake?" she thinks to herself.
223
778868
3511
"¿Y si van a hacer otro deepfake?" es lo que piensa.
13:03
And so for the sake of individuals like Rana Ayyub
224
783082
3921
Así que por personas como Rana Ayyub
13:07
and the sake of our democracy,
225
787027
2306
y por la democracia
13:09
we need to do something right now.
226
789357
2182
tenemos que hacer algo ahora mismo.
13:11
Thank you.
227
791563
1151
Gracias.
13:12
(Applause)
228
792738
2508
(Aplausos)
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7