When AI Can Fake Reality, Who Can You Trust? | Sam Gregory | TED

122,054 views ・ 2023-12-26

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Claudia Botero Revisor: Sebastian Betti
00:03
It's getting harder, isn't it, to spot real from fake,
0
3583
3879
Cada vez es más difícil diferenciar lo real de lo falso,
00:07
AI-generated from human-generated.
1
7504
2252
lo generado por IA o por humanos.
Con la IA generativa,
00:10
With generative AI,
2
10340
1126
00:11
along with other advances in deep fakery,
3
11508
2419
junto con otros avances en deepfake,
00:13
it doesn't take many seconds of your voice,
4
13969
2252
no se necesitan muchos segundos de voz
00:16
many images of your face,
5
16263
1459
ni muchas imágenes de su rostro para falsearlo,
00:17
to fake you,
6
17764
1251
y el realismo no deja de aumentar.
00:19
and the realism keeps increasing.
7
19015
2628
00:21
I first started working on deepfakes in 2017,
8
21685
3086
Empecé a trabajar en deepfakes en 2017,
00:24
when the threat to our trust in information was overhyped,
9
24813
3962
cuando se exagera la amenaza a nuestra confianza en la información
00:28
and the big harm, in reality, was falsified sexual images.
10
28775
3670
y el gran daño eran las imágenes sexuales falsificadas.
00:32
Now that problem keeps growing, harming women and girls worldwide.
11
32904
4171
Ese problema sigue creciendo, perjudicando a mujeres y niñas del mundo.
00:38
But also, with advances in generative AI, we're now also approaching a world
12
38159
4713
Pero con los avances de la IA generativa, ahora nos acercamos a un mundo
00:42
where it's broadly easier to make fake reality,
13
42872
3462
en el que es más fácil falsificar la realidad,
00:46
but also to dismiss reality as possibly faked.
14
46376
3879
pero también descartar la realidad por ser una posible falsificación.
00:50
Now, deceptive and malicious audiovisual AI
15
50755
3420
Ahora bien, la IA audiovisual engañosa y malintencionada
00:54
is not the root of our societal problems,
16
54217
2669
no es la raíz de nuestros problemas sociales,
00:56
but it's likely to contribute to them.
17
56928
2252
pero es probable que contribuya a ellos.
00:59
Audio clones are proliferating in a range of electoral contexts.
18
59180
4213
Los clones de audio están proliferando en diversos contextos electorales.
01:03
"Is it, isn't it" claims cloud human-rights evidence from war zones,
19
63435
5130
Las afirmaciones «son o no son» enturbian los derechos humanos en zonas de guerra,
01:08
sexual deepfakes target women in public and in private,
20
68565
4129
los deepfakes sexuales tienen por objetivo las mujeres en público y en privado,
01:12
and synthetic avatars impersonate news anchors.
21
72736
3336
y los avatares sintéticos se hacen pasar por presentadores de noticias.
01:16
I lead WITNESS.
22
76656
1460
Dirijo WITNESS.
Somos un grupo de derechos humanos
01:18
We're a human-rights group
23
78116
1376
01:19
that helps people use video and technology to protect and defend their rights.
24
79492
3671
que ayuda a usar vídeos y tecnología para proteger y defender sus derechos.
01:23
And for the last five years, we've coordinated a global effort,
25
83163
3003
«Prepárate, no te asustes», es la iniciativa mundial que coordinamos
01:26
"Prepare, Don't Panic,"
26
86333
1167
01:27
around these new ways to manipulate and synthesize reality,
27
87500
3045
en estos 5 años sobre estas formas de manipular
01:30
and on how to fortify the truth
28
90587
2377
y sintetizar la realidad de los periodistas de primera línea
01:32
of critical frontline journalists and human-rights defenders.
29
92964
3420
y defensores de derechos humanos.
01:37
Now, one element in that is a deepfakes rapid-response task force,
30
97218
5423
Ahora, uno de los elementos es respuesta rápida sobre deepfakes,
01:42
made up of media-forensics experts
31
102641
2127
compuesto por expertos en medios forenses
01:44
and companies who donate their time and skills
32
104768
2168
y compañías que donan su tiempo y habilidades
01:46
to debunk deepfakes and claims of deepfakes.
33
106978
3087
para desacreditar los deepfakes y las afirmaciones sobre estos.
01:50
The task force recently received three audio clips,
34
110899
3211
El grupo de trabajo recibió recientemente tres clips de audio
01:54
from Sudan, West Africa and India.
35
114110
2670
desde Sudán, el oeste de África e India.
01:57
People were claiming that the clips were deepfaked, not real.
36
117155
3879
La gente afirmaba que los clips eran falsos, no reales.
02:01
In the Sudan case,
37
121451
1210
En el caso de Sudán, expertos usaron un algoritmo
02:02
experts used a machine-learning algorithm
38
122702
2002
basado en más de un millón de ejemplos de lenguaje sintético
02:04
trained on over a million examples of synthetic speech
39
124746
2628
02:07
to prove, almost without a shadow of a doubt,
40
127374
2294
para demostrar, casi sin lugar a dudas,
02:09
that it was authentic.
41
129709
1335
que era auténtico.
02:11
In the West Africa case,
42
131586
1835
En el caso del oeste de África,
no pudieron llegar a una conclusión definitiva debido a las dificultades
02:13
they couldn't reach a definitive conclusion
43
133463
2002
02:15
because of the challenges of analyzing audio from Twitter,
44
135507
2794
que suponía analizar con ruido de fondo.
02:18
and with background noise.
45
138301
1752
02:20
The third clip was leaked audio of a politician from India.
46
140095
3712
El tercer clip fue un audio filtrado de un político de la India.
02:23
Nilesh Christopher of “Rest of World” brought the case to the task force.
47
143848
3796
Nilesh Christopher, de «Rest of World», presentó el caso al grupo de trabajo.
02:27
The experts used almost an hour of samples
48
147644
2961
Expertos usaron casi una hora de muestras
02:30
to develop a personalized model of the politician's authentic voice.
49
150605
3879
para desarrollar un modelo personalizado de la voz auténtica del político.
02:35
Despite his loud and fast claims that it was all falsified with AI,
50
155151
4380
Pese de sus fuertes y rápidas demandas de que todo había sido falsificado con IA,
02:39
experts concluded that it at least was partially real, not AI.
51
159572
4255
los expertos concluyeron que, al menos, era parcialmente real, no IA.
02:44
As you can see,
52
164369
1335
Como puede ver,
02:45
even experts cannot rapidly and conclusively separate true from false,
53
165745
5089
aún los expertos no separan rápida y concluyentemente lo verdadero de lo falso,
02:50
and the ease of calling "that's deepfaked" on something real
54
170875
4421
y cada vez es más fácil llamar «falso» a algo real.
02:55
is increasing.
55
175296
1168
va en aumento.
02:57
The future is full of profound challenges,
56
177132
2002
El futuro está lleno de retos profundos,
02:59
both in protecting the real and detecting the fake.
57
179175
3420
tanto para proteger lo real como para detectar lo falso.
03:03
We're already seeing the warning signs
58
183888
1919
Estamos viendo los signos del desafío de discernir la realidad de la ficción
03:05
of this challenge of discerning fact from fiction.
59
185807
2711
03:08
Audio and video deepfakes have targeted politicians,
60
188560
3128
Los deepfakes de audio y vídeo han sido dirigidos a líderes políticos
03:11
major political leaders in the EU, Turkey and Mexico,
61
191688
3587
de la UE, Turquía y México y candidatos a alcaldes de EE. UU.
03:15
and US mayoral candidates.
62
195316
1710
03:17
Political ads are incorporating footage of events that never happened,
63
197444
3503
Los anuncios políticos usan imágenes de eventos que no han ocurrido;
03:20
and people are sharing AI-generated imagery from crisis zones,
64
200947
4546
y la gente comparte imágenes generadas por la IA desde zonas en crisis,
03:25
claiming it to be real.
65
205535
1418
afirmando que son reales.
03:27
Now, again, this problem is not entirely new.
66
207454
3211
Ahora, una vez más, este problema no es del todo nuevo.
03:31
The human-rights defenders and journalists I work with
67
211207
2628
Los defensores de derechos humanos y los periodistas
03:33
are used to having their stories dismissed,
68
213835
2794
se acostumbraron a difundir ampliamente
03:36
and they're used to widespread, deceptive, shallow fakes,
69
216671
3462
falsificaciones superficiales y falsas,
03:40
videos and images taken from one context or time or place
70
220175
3670
vídeos e imágenes sacados de contexto, momento o lugar
03:43
and claimed as if they're in another,
71
223887
2460
y asegurando que están en otro,
03:46
used to share confusion and spread disinformation.
72
226347
3129
para compartir confusión y difundir desinformación.
03:49
And of course, we live in a world that is full of partisanship
73
229934
3170
Además, vivimos en un mundo lleno de parcialidad
03:53
and plentiful confirmation bias.
74
233146
2127
.y abundantes sesgos de confirmación
03:57
Given all that,
75
237317
1209
En vista de todo esto,
03:58
the last thing we need is a diminishing baseline
76
238526
3045
lo que menos necesitamos es una base cada vez menor,
04:01
of the shared, trustworthy information upon which democracies thrive,
77
241613
3962
de información creíble compartida sobre la que prosperen las democracias,
04:05
where the specter of AI
78
245617
1418
donde se usa el espectro de IA para creer en cosas que se quieren cree
04:07
is used to plausibly believe things you want to believe,
79
247076
3462
04:10
and plausibly deny things you want to ignore.
80
250538
2336
y negar, así mismo, lo que se quiere ignorar.
04:15
But I think there's a way we can prevent that future,
81
255084
2628
Pero creo que hay una manera de prevenir ese futuro,
04:17
if we act now;
82
257754
1501
si actuamos ahora;
04:19
that if we "Prepare, Don't Panic,"
83
259255
2211
o sea, "Prepárate, no te asustes",
04:21
we'll kind of make our way through this somehow.
84
261508
3253
de alguna manera nos las arreglaremos para salir adelante.
04:25
Panic won't serve us well.
85
265929
2627
El pánico no nos servirá de nada.
04:28
[It] plays into the hands of governments and corporations
86
268681
2711
Le hace el favor a los gobiernos y las empresas,
04:31
who will abuse our fears,
87
271392
1669
que abusarán de nuestros miedos,
04:33
and into the hands of people who want a fog of confusion
88
273102
3045
y a las personas que quieren crear confusión
04:36
and will use AI as an excuse.
89
276147
2461
y usarán la IA como excusa.
04:40
How many people were taken in, just for a minute,
90
280610
2419
¿Cuántas personas fueron engañadas por el Papa,
con su chaqueta acolchada que goteaba?
04:43
by the Pope in his dripped-out puffer jacket?
91
283029
2336
04:45
You can admit it.
92
285406
1168
Puede admitirlo.
04:46
(Laughter)
93
286574
1210
(Risas)
04:47
More seriously,
94
287784
1209
En serio, ¿cuántos de ustedes conocen a alguien que ha sido estafado
04:49
how many of you know someone who's been scammed
95
289035
2503
04:51
by an audio that sounds like their kid?
96
291579
2044
por un audio que suena como su hijo?
04:54
And for those of you who are thinking "I wasn't taken in,
97
294624
2920
Y para los que están pensando: «No me engañaron,
04:57
I know how to spot a deepfake,"
98
297544
1584
sé cómo detectar un deepfake»,
04:59
any tip you know now is already outdated.
99
299170
3003
cualquier consejo que conozcan ya es viejo
05:02
Deepfakes didn't blink, they do now.
100
302757
2544
Los Deepfakes no parpadeaban, ahora sí.
05:06
Six-fingered hands were more common in deepfake land than real life --
101
306177
3587
En tierra de deepfakes son más comunes manos de seis dedos,
05:09
not so much.
102
309806
1126
aunque no tanto.
05:11
Technical advances erase those visible and audible clues
103
311307
3754
Los avances técnicos borran esas pistas visibles y audibles,
05:15
that we so desperately want to hang on to
104
315061
2002
a lo que con desespero queremos aferrarnos
05:17
as proof we can discern real from fake.
105
317105
2252
mostrando que distinguimos real y falso.
05:20
But it also really shouldn’t be on us to make that guess without any help.
106
320191
4713
Pero no debe ser nuestra responsabilidad hacer esa conjetura sin ayuda alguna.
05:24
Between real deepfakes and claimed deepfakes,
107
324946
2127
Entre los deepfakes reales y los pretendidos,
05:27
we need big-picture, structural solutions.
108
327073
2961
se necesita soluciones estructurales con un panorama general.
05:30
We need robust foundations
109
330034
1502
Necesitamos bases sólidas
05:31
that enable us to discern authentic from simulated,
110
331578
3128
que nos permitan distinguir lo auténtico de lo simulado y
05:34
tools to fortify the credibility of critical voices and images,
111
334747
3921
herramientas que refuercen la credibilidad de las voces e imágenes críticas
05:38
and powerful detection technology
112
338668
2336
y una tecnología de detección potente
05:41
that doesn't raise more doubts than it fixes.
113
341045
2670
que no suscite más dudas de las que solucione.
05:45
There are three steps we need to take to get to that future.
114
345091
3045
Hay tres pasos que debemos tomar para llegar a ese futuro.
05:48
Step one is to ensure that the detection skills and tools
115
348887
3712
El primer paso es garantizar que los mecanismos y herramientas de detección
05:52
are in the hands of the people who need them.
116
352599
2168
estén en manos de quien los necesita.1
05:54
I've talked to hundreds of journalists,
117
354767
2253
He hablado con cientos de periodistas,
05:57
community leaders and human-rights defenders,
118
357020
2252
líderes comunitarios
y defensores de derechos humanos que están en las mismas que tú, yo y nosotros.
05:59
and they're in the same boat as you and me and us.
119
359272
2919
06:02
They're listening to the audio, trying to think, "Can I spot a glitch?"
120
362191
3421
Al escuchar el audio pensarán: «¿Puedo hallar una falla técnica?»
06:05
Looking at the image, saying, "Oh, does that look right or not?"
121
365612
3295
Mirando la imagen, diciendo: «Oh, ¿se ve bien o no?»
06:08
Or maybe they're going online to find a detector.
122
368907
3336
O tal vez estén buscando un detector en Internet.
06:12
And the detector they find,
123
372285
1335
Y el que encuentran,
06:13
they don't know whether they're getting a false positive, a false negative,
124
373661
3545
no saben si están obteniendo un falso positivo, falso negativo
06:17
or a reliable result.
125
377248
1251
o un resultado fiable.
06:18
Here's an example.
126
378541
1168
He aquí un ejemplo.
06:19
I used a detector, which got the Pope in the puffer jacket right.
127
379751
3712
Usé un detector, se hizo que el Papa llevara la chaqueta acolchada.
06:23
But then, when I put in the Easter bunny image that I made for my kids,
128
383796
4255
Luego, puse la imagen del conejo de Pascua que hice para mis hijos,
06:28
it said that it was human-generated.
129
388092
1961
decía que era generada por humanos.
06:30
This is because of some big challenges in deepfake detection.
130
390637
3253
Esto se debe a desafíos importantes en la detección de deepfake.
06:34
Detection tools often only work on one single way to make a deepfake,
131
394474
3295
Las herramientas solo funcionan en una dirección para crear deepfakes,
06:37
so you need multiple tools,
132
397769
1543
así que se necesitan varias y no funcionan bien con contenido
06:39
and they don't work well on low-quality social media content.
133
399354
4337
de redes sociales de baja calidad.
06:43
Confidence score, 0.76-0.87,
134
403691
3337
Nivel de confianza, 0,76-0,87,
06:47
how do you know whether that's reliable,
135
407028
1919
¿cómo sabe si es fiable,
06:48
if you don't know if the underlying technology is reliable,
136
408988
2795
si no sabe si la tecnología subyacente es fiable
06:51
or whether it works on the manipulation that is being used?
137
411824
2795
o si funciona en la manipulación que se está utilizando?
06:54
And tools to spot an AI manipulation don't spot a manual edit.
138
414661
5046
Las herramientas que detectan manipulación de IA no detectan una edición manual.
Estas herramientas no serán disponibles para todo el mundo.
07:00
These tools also won't be available to everyone.
139
420583
3587
Hay un equilibrio entre seguridad y acceso,
07:04
There's a trade-off between security and access,
140
424212
3128
si los ponemos a disposición de cualquier persona,
07:07
which means if we make them available to anyone,
141
427382
2544
07:09
they become useless to everybody,
142
429926
2586
serán inútiles para todos,
07:12
because the people designing the new deception techniques
143
432512
2711
porque quienes diseñen las nuevas técnicas de engaño
07:15
will test them on the publicly available detectors
144
435264
3087
las pondrán a prueba en los detectores disponibles al público
07:18
and evade them.
145
438393
1209
y las evadirán.
07:20
But we do need to make sure these are available
146
440061
2920
Sin embargo, debemos asegurarnos de que estén disponibles
07:22
to the journalists, the community leaders,
147
442981
2085
para periodistas, líderes comunitarios,
07:25
the election officials, globally, who are our first line of defense,
148
445108
3628
funcionarios electorales del mundo, que son nuestra primera línea de defensa,
07:28
thought through with attention to real-world accessibility and use.
149
448736
3254
pensada con atención en su accesibilidad y uso en el mundo real.
07:32
Though at the best circumstances,
150
452991
2544
Si bien, en el mejor de los casos,
07:35
detection tools will be 85 to 95 percent effective,
151
455576
3003
las herramientas serán eficaces del 85 al 95 %,
07:38
they have to be in the hands of that first line of defense,
152
458579
2795
tienen que estar en manos de la primera línea de defensa,
07:41
and they're not, right now.
153
461374
1543
y no lo están ahora.
07:43
So for step one, I've been talking about detection after the fact.
154
463710
3128
Para el primer paso, he hablado de la detección después de los hechos.
07:46
Step two -- AI is going to be everywhere in our communication,
155
466838
4462
Paso dos: la IA estará presente en todas partes en nuestra comunicación,
07:51
creating, changing, editing.
156
471300
2169
creando, cambiando, editando.
07:53
It's not going to be a simple binary of "yes, it's AI" or "phew, it's not."
157
473469
4755
No será una simple combinación binaria de «sí, es IA» o «siquiera, no es».
07:58
AI is part of all of our communication,
158
478224
3086
la comunicación tiene como parte la IA,
08:01
so we need to better understand the recipe of what we're consuming.
159
481352
4046
por lo que necesitamos entender mejor la receta de lo que consumimos.
08:06
Some people call this content provenance and disclosure.
160
486232
3754
Algunas personas llaman a este contenido procedencia y divulgación.
08:10
Technologists have been building ways to add invisible watermarking
161
490028
3503
Los tecnólogos han creado formas de añadir marcas de agua a los medios con IA.
08:13
to AI-generated media.
162
493573
1877
08:15
They've also been designing ways --
163
495491
1752
También han estado diseñando formas,
08:17
and I've been part of these efforts --
164
497243
1877
y yo he sido parte de estos esfuerzos,
08:19
within a standard called the C2PA,
165
499162
1710
que con de estándar C2PA, añade criptogramas con metadatos.
08:20
to add cryptographically signed metadata to files.
166
500872
2669
08:24
This means data that provides details about the content,
167
504125
4379
Esto significa datos que proporcionan detalles sobre el contenido,
08:28
cryptographically signed in a way that reinforces our trust
168
508546
3712
firmados criptográficamente para reforzar nuestra confianza
08:32
in that information.
169
512300
1501
en esa información.
08:33
It's an updating record of how AI was used to create or edit it,
170
513801
5297
Es un registro actualizado de cómo se usó la IA para crearlo o editarlo,
08:39
where humans and other technologies were involved,
171
519098
2670
dónde participaron los humanos y otras tecnologías
08:41
and how it was distributed.
172
521809
1919
y cómo se distribuyó.
08:43
It's basically a recipe and serving instructions
173
523770
3003
Básicamente, se trata de una receta con instrucciones
08:46
for the mix of AI and human
174
526814
1961
para la mezcla de inteligencia artificial y el humano que hay en lo que ves y oyes.
08:48
that's in what you're seeing and hearing.
175
528816
2336
08:51
And it's a critical part of a new AI-infused media literacy.
176
531903
4462
Y es una parte fundamental de una nueva alfabetización mediática basada en la IA.
08:57
And this actually shouldn't sound that crazy.
177
537116
2461
Y esto, no debería sonar tan descabellado. La comunicación avanza en esta dirección.
08:59
Our communication is moving in this direction already.
178
539577
3212
09:02
If you're like me -- you can admit it --
179
542789
2002
Si es como yo, puede admitirlo,
09:04
you browse your TikTok “For You” page,
180
544832
2419
navega por la página «Para ti» de TikTok
09:07
and you're used to seeing videos that have an audio source,
181
547251
4213
y está acostumbrado a ver vídeos con una fuente de audio,
09:11
an AI filter, a green screen, a background,
182
551464
2419
un filtro de IA, una pantalla verde, un fondo,
09:13
a stitch with another edit.
183
553883
1752
una puntada con otra edición.
09:15
This, in some sense, is the alpha version of this transparency
184
555676
3337
En cierto sentido, esta es la versión alfa de esta transparencia
09:19
in some of the major platforms we use today.
185
559055
2377
en una de las plataformas que se usan. Es solo que todavía no viaja por Internet,
09:21
It's just that it does not yet travel across the internet,
186
561474
2753
09:24
it’s not reliable, updatable, and it’s not secure.
187
564268
3128
no es confiable, actualizable y no es segura
09:27
Now, there are also big challenges
188
567980
2628
Además, se presenta grandes desafíos en cuanto a la autenticidad.
09:30
in this type of infrastructure for authenticity.
189
570650
2544
09:34
As we create these durable signs of how AI and human were mixed,
190
574278
4088
Mientras creamos estas señales duraderas de la mezcla entre la IA y los humanos,
09:38
that carry across the trajectory of how media is made,
191
578366
3086
que sigan la trayectoria de la
creación de los medios
09:41
we need to ensure they don't compromise privacy or backfire globally.
192
581494
4129
y asegurarnos que no comprometan la privacidad ni hagan daño a nivel mundial.
09:46
We have to get this right.
193
586249
1710
Tenemos que hacerlo bien.
09:48
We can't oblige a citizen journalist filming in a repressive context
194
588584
4255
No podemos obligar a un periodista que filma en un contexto represivo
09:52
or a satirical maker using novel gen-AI tools
195
592839
3169
o a un creador satírico que usa las nuevas herramientas hechas con IA
09:56
to parody the powerful ...
196
596008
1252
y parodia los poderosos... para revelar su identidad
09:58
to have to disclose their identity or personally identifiable information
197
598845
4879
o información personal y así usar su cámara o ChatGPT.
10:03
in order to use their camera or ChatGPT.
198
603766
2961
10:08
Because it's important they be able to retain their ability to have anonymity,
199
608312
3712
Porque es importante que puedan conservar su anonimato y, al mismo tiempo,
10:12
at the same time as the tool to create is transparent.
200
612066
3378
que la herramienta de creación sea transparente.
10:16
This needs to be about the how of AI-human media making,
201
616112
4171
Esto tiene que ver con el cómo se crean los medios entre la IA y los humanos,
10:20
not the who.
202
620283
1167
no con el quién.
10:22
This brings me to the final step.
203
622952
2211
Esto me lleva al último paso.
10:25
None of this works without a pipeline of responsibility
204
625163
4462
Nada de esto funciona sin una cartera de responsabilidades
10:29
that runs from the foundation models and the open-source projects
205
629667
4254
que va desde los modelos básicos y los proyectos de código abierto
10:33
through to the way that is deployed into systems, APIs and apps,
206
633963
4213
hasta la forma en que se implementan en sistemas, API y aplicaciones,
10:38
to the platforms where we consume media and communicate.
207
638217
3379
hasta las plataformas en las que consumimos medios y nos comunicamos.
10:43
I've spent much of the last 15 years fighting, essentially, a rearguard action,
208
643139
4171
He pasado de los últimos 15 años luchando,
como acción de retaguardia,
10:47
like so many of my colleagues in the human rights world,
209
647310
2919
como muchos de mis colegas del mundo de los derechos humanos,
10:50
against the failures of social media.
210
650229
2169
contra los fracasos de las redes sociales.
10:52
We can't make those mistakes again in this next generation of technology.
211
652899
5380
No podemos volver a cometer esos errores en la próxima generación de tecnología.
10:59
What this means is that governments
212
659572
1835
Lo que esto significa que los gobiernos deben garantizar que
11:01
need to ensure that within this pipeline of responsibility for AI,
213
661449
4254
dentro de la responsabilidad para la IA,
11:05
there is transparency, accountability and liability.
214
665703
3253
haya transparencia, rendición de cuentas y responsabilidad.
11:10
Without these three steps --
215
670666
2086
Sin estos tres pasos:
11:12
detection for the people who need it most,
216
672793
3129
detectar las personas que lo necesitan,
11:15
provenance that is rights-respecting
217
675922
2502
procedencia que respete los derechos
11:18
and that pipeline of responsibility,
218
678466
2169
y canalizar la responsabilidad,
11:20
we're going to get stuck looking in vain for the six-fingered hand,
219
680635
3545
nos vamos a quedar atrapados buscando en vano la mano de seis dedos
11:24
or the eyes that don't blink.
220
684222
1543
o los ojos que no parpadean.
11:26
We need to take these steps.
221
686390
1836
Tenemos que tomar estas medidas.
11:28
Otherwise, we risk a world where it gets easier and easier
222
688226
3294
Podemos correr el riesgo de un mundo
en el que sea más fácil fingir la realidad y descartarla por ser posiblemente falsa.
11:31
to both fake reality
223
691520
1502
11:33
and dismiss reality as potentially faked.
224
693064
2669
11:36
And that is a world that the political philosopher Hannah Arendt
225
696234
3086
Y ese es un mundo que la filósofa política Hannah Arendt
11:39
described in these terms:
226
699320
1460
describió en estos términos:
11:40
"A people that no longer can believe anything
227
700821
2628
«Un pueblo que ya no puede creer en nada
11:43
cannot make up its own mind.
228
703491
2294
no puede tomar una decisión propia.
11:45
It is deprived not only of its capacity to act
229
705785
3211
Está privado no solo de su capacidad de actuar
11:48
but also of its capacity to think and to judge.
230
708996
3504
sino también de su capacidad de pensar y juzgar.
11:52
And with such a people you can then do what you please."
231
712959
3211
Y con una gente así, puedes hacer lo que quieras».
11:56
That's a world I know none of us want,
232
716712
2044
Sé que ese es un mundo que no queremos
11:58
that I think we can prevent.
233
718798
2002
y creo que podemos evitarlo.
12:00
Thanks.
234
720800
1168
Gracias.
12:02
(Cheers and applause)
235
722009
2544
(Vítores y aplausos)
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7