How a Deepfake Almost Ruined My Political Career | Cara Hunter | TED

8,921 views ・ 2024-12-18

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Sebastian Betti
00:03
This talk contains mature language
0
3620
3720
[Esta charla contiene lenguaje para adultos]
00:08
“You’re a little whore,
1
8700
1840
«Eres una putita
00:10
and we've all seen your little video."
2
10540
2560
y todos hemos visto tu videíto».
Ese fue el mensaje de texto que me enviaron en abril de 2022.
00:14
That was the text message that was sent to me in April of 2022.
3
14300
5280
00:20
I'm sitting in my grandmother's living room
4
20300
2480
Estoy sentada en la sala de estar de mi abuela
00:22
in what is her 90th birthday,
5
22820
2640
cuando cumple 90 años,
00:25
surrounded by family and friends
6
25460
2360
rodeada de familiares y amigos
00:27
as my phone blows up with messages from strangers
7
27820
4480
mientras mi teléfono explota con mensajes de desconocidos
00:32
right across the country
8
32300
1840
de todo el país
que dicen haber visto un video en el que
00:34
who say they have seen a video of me
9
34140
3160
00:37
engaging in hardcore pornographic activity with a man.
10
37340
4720
participé en actividades pornográficas intensas con un hombre.
00:42
I knew this was impossible.
11
42740
1600
Sabía que esto era imposible.
00:44
With just three weeks out from my election,
12
44900
2000
Cuando faltaban solo tres semanas para mi elección,
00:46
I felt as though my career was crumbling before my very eyes.
13
46940
4080
sentí que mi carrera se estaba desmoronando ante mis propios ojos.
00:51
My heart pounded,
14
51420
1440
Mi corazón latía con fuerza,
00:52
my mind raced, sweat beaded on my skin.
15
52860
3160
mi mente se aceleraba y el sudor recorría mi piel.
00:56
And then I watched the video, and my worst fear was realized.
16
56380
4880
Luego vi el video y mi peor temor se hizo realidad.
01:01
Although this woman in the video was not me,
17
61980
3560
Aunque la mujer del vídeo no era yo,
01:05
she looked exactly like me.
18
65540
2720
se parecía exactamente a mí.
01:09
Impossibly like me.
19
69020
2360
Imposible, pero se parecía.
01:11
Eerily like me.
20
71380
1200
Extrañamente era como yo.
01:13
I had so many questions running through my mind.
21
73140
3040
Tenía muchas preguntas en la cabeza.
01:16
Was this AI?
22
76500
1360
¿Era IA?
01:17
Was it not?
23
77900
1280
¿No lo era?
01:19
Who made this?
24
79220
1160
¿Quién lo hizo?
01:20
How did they make it?
25
80420
1360
¿Cómo lo hicieron?
01:21
Why did they make it?
26
81820
1320
¿Por qué lo hicieron?
01:23
So I did what anyone would do,
27
83140
2360
Así que hice lo que haría cualquiera,
01:25
and I approached my local police service to ask for advice, for guidance.
28
85500
4680
y me acerqué al servicio de policía local para pedir consejo, orientación.
01:30
And really, where did I go from there?
29
90220
2280
Y realmente, ¿a dónde fui a partir de ahí?
01:32
But they informed me that they wouldn't have the cybercrime technology to assist,
30
92540
4280
Pero me dijeron que no dispondrían de la tecnología informática necesaria
01:36
to find out where this video came from.
31
96860
2240
para averiguar de dónde venía este vídeo.
01:39
And it was from that moment I knew that I was on my own.
32
99140
3520
Y fue a partir de ese momento que supe que estaba sola.
Ahora, para sentar las bases, como probablemente puedan ver,
01:43
Now to set the stage, as you can probably tell,
33
103380
2440
01:45
I’m from Ireland,
34
105820
1240
soy de Irlanda
01:47
and to be exact, I'm from Northern Ireland,
35
107100
2480
y, para ser exactos, soy de Irlanda del Norte,
01:49
which is an even smaller place.
36
109580
2000
que es un lugar aún más pequeño.
01:51
We have just 1.8 million people,
37
111620
2680
Solo tenemos 1,8 millones de personas,
01:54
very similar to the size of Vienna.
38
114340
2840
un tamaño muy similar al de Viena.
01:57
So you can imagine a rumor of this sinister nature,
39
117180
3440
Así que pueden imaginarse que un rumor de esta naturaleza siniestra,
02:00
particularly in the world of politics, can go very far, very fast.
40
120620
5920
sobre todo en el mundo de la política, puede llegar muy lejos, muy rápido.
02:06
And that old saying, “seeing is believing” began to haunt me.
41
126540
4480
Y ese viejo refrán, «ver para creer», empezó a obsesionarme.
02:11
And in the weeks leading up to my election,
42
131060
2520
Y en las semanas previas a mi elección,
02:13
this video, this false video,
43
133620
1920
este vídeo, este vídeo falso,
02:15
was shared thousands and thousands of times across WhatsApp.
44
135540
4240
se compartió miles y miles de veces en WhatsApp.
02:20
And attached to this video was photos of me at work,
45
140260
3720
Y en este vídeo había fotos mías trabajando,
02:24
smiling, campaigning,
46
144020
2760
sonriendo, haciendo campaña
02:26
building a sense of trust with my constituents.
47
146820
2680
y creando un sentimiento de confianza con mis electores.
02:29
And as the weeks went on,
48
149540
1480
Y conforme pasaban las semanas,
02:31
messages flooded in faster and faster,
49
151020
3920
los mensajes llegaban cada vez más rápido,
02:34
and they were of a very vile and sexual nature.
50
154980
3040
y eran de una naturaleza muy vil y sexual.
02:38
Ding!
51
158340
1200
¡Muere!
02:39
"We've all seen your little video."
52
159540
2000
«Todos hemos visto tu videíto».
02:41
Ding!
53
161940
1120
¡Ding!
02:43
"You should be ashamed of yourself."
54
163100
2480
«Deberías avergonzarte».
02:45
Ding!
55
165620
1200
¡Ding!
02:46
"Ah, now I see how you got your position in politics."
56
166820
4280
«Ah, ahora veo cómo obtuviste tu posición en la política».
02:53
It was very difficult.
57
173100
1960
Era muy difícil.
02:55
And having been in politics since the age of 23,
58
175540
3160
Me dedico a la política desde los 23 años,
02:58
and at this point I've been in it for about four to five years,
59
178740
3560
y en este momento llevo entre 4 y 5 años en ella,
y soy de Irlanda del Norte, una sociedad que ha salido de un conflicto
03:02
and I'm from Northern Ireland, which is a post-conflict society,
60
182300
3280
03:05
still very deeply divided.
61
185620
1920
y que todavía está profundamente dividida.
03:07
So I anticipated challenges,
62
187580
2600
Así que anticipé los desafíos,
03:10
I anticipated disagreements,
63
190220
2600
anticipé los desacuerdos,
03:12
I even anticipated attacks, is politics after all.
64
192860
2800
incluso anticipé los ataques; al fin y al cabo, es política.
03:16
But what I did not anticipate was this moment.
65
196100
3520
Pero lo que no esperaba era este momento.
03:19
This was different.
66
199660
1400
Este era diferente.
03:21
This was the moment where misogyny meets the misuse of technology,
67
201060
5800
Este fue el momento en el que la misoginia se unió al uso indebido de la tecnología,
03:26
and even had the potential to impact the outcome of a democratic election.
68
206900
5560
e incluso tuvo el potencial de afectar el resultado de una elección democrática.
03:32
And the sad thing for me was this lie became so far spread,
69
212820
5080
Y lo triste para mí fue que esta mentira se difundió tanto,
03:37
so far, so fast,
70
217940
1840
tan lejos y tan rápido,
03:39
that even my own family started to believe it.
71
219820
2880
que incluso mi propia familia empezó a creerla.
03:42
Some would say that they'd heard it at a golf club,
72
222700
2760
Algunos decían que lo escucharon en un club de golf,
03:45
others would say they heard it at the bar,
73
225500
2520
otros que lo escucharon en el bar
03:48
and of course, some even said they heard it in a locker room.
74
228060
4320
y, por supuesto, algunos incluso dijeron que lo escucharon en un vestuario.
03:52
A really good example of how far this went
75
232420
2480
Un muy buen ejemplo de lo lejos que llegó
03:54
was people that I knew my entire life
76
234900
2520
fue que la gente que conocí de toda la vida
03:57
would pass me in the street without whispering a word.
77
237460
3000
se cruzaba conmigo en la calle sin susurrar una palabra.
Personas como los profesores de escuela,
04:00
People like school teachers,
78
240460
1360
04:01
people I had a sense of trust with
79
241860
1720
personas con las que tenía confianza
04:03
and, you know, an affinity with.
80
243620
2360
y con las que sentía afinidad.
04:05
And that was really hard.
81
245980
1320
Y eso fue muy difícil.
04:07
It felt like overnight I was wearing a scarlet letter.
82
247300
3920
De la noche a la mañana sentí que llevaba puesta una letra escarlata.
04:11
And as things moved on
83
251660
1320
Y conforme avanzaban las cosas
04:12
and were about two, three weeks out from the election,
84
252980
2880
y faltaban dos o tres semanas para las elecciones,
04:15
I kept receiving messages, and it got wider and wider.
85
255900
3120
seguí recibiendo mensajes, y todo se amplificó.
04:19
It was global.
86
259060
1160
Era global.
04:20
Not only was I receiving messages from Dublin and from London,
87
260220
3680
No solo recibía mensajes de Dublín y Londres,
04:23
but I was also receiving messages from Massachusetts, Manhattan,
88
263900
4040
sino que también recibía mensajes de Massachusetts y Manhattan,
04:27
and I was getting so many follows on my political social media,
89
267940
3920
y tenía muchísimos seguidores en mis redes sociales políticas,
04:31
predominantly from men hungry for more of this scandal.
90
271900
3920
sobre todo de hombres ávidos de seguir con este escándalo.
04:35
And this intersection of online harms impacting my real life
91
275860
5120
Y esta intersección de daños en Internet que afectan a mi vida real
04:40
was something I found utterly strange and surreal.
92
280980
4000
fue algo que me pareció absolutamente extraño y surrealista.
04:45
But it got to the point where I was recognized on the street
93
285500
3800
Pero llegué al punto en que me reconocieron en la calle
04:49
and approached by a stranger who asked me for a sexual favor.
94
289340
6040
y se me acercó un extraño que me pidió un favor sexual.
04:55
And it was just, for me, it was like in the blink of an eye,
95
295420
3080
Y fue que, para mí, fue como si en un abrir y cerrar de ojos
04:58
everything had just changed,
96
298500
2640
todo hubiera cambiado, y fue absolutamente humillante.
05:01
and it was utterly humiliating.
97
301140
1600
05:02
I didn't want to leave the house,
98
302780
1680
No quería salir de casa
y había desactivado las notificaciones del teléfono
05:04
and I had turned notifications off in my phone
99
304460
2880
para poder recuperar el aliento,
05:07
just so I could kind of catch my breath,
100
307380
1920
pero esto no era lo ideal
05:09
but this wasn't ideal in the lead up, of course, to an election.
101
309340
4280
en vísperas, por supuesto, de las elecciones.
05:13
And for me, I think that was the purpose of this false video, was to do just that.
102
313620
4960
Creo que ese era el propósito de este vídeo falso:
hacer precisamente eso.
05:19
But what hurt the most for me
103
319660
2440
Pero lo que más me dolió fue sentar a mi padre
05:22
was sitting down my father
104
322140
2720
05:24
and having to explain to him this strange, surreal situation.
105
324860
5760
y tener que explicarle esta situación extraña y surrealista.
05:30
My father is an Irishman,
106
330620
1760
Mi padre es irlandés,
está completamente desconectado de la tecnología,
05:32
completely disconnected from tech,
107
332420
2160
por lo que tener que explicarle
05:34
and so having to explain
108
334620
1920
que esta situación horrible fue un invento total,
05:36
this horrific situation was an entire fabrication
109
336580
4320
05:40
was very hard to do.
110
340940
1600
eso fue algo muy difícil.
05:42
This was this strange moment
111
342860
2120
Fue un momento extraño en el que el mundo de Internet
05:45
where the online world met my life, my reality.
112
345020
4880
se unió a mi vida, a mi realidad.
05:50
Not only having the impact to ruin my reputation,
113
350460
4520
No solo tiene el impacto de arruinar mi reputación,
05:54
but have the capacity to change the outcome
114
354980
2800
sino que también puede cambiar el resultado
05:57
of a democratic election.
115
357820
2200
de una elección democrática.
06:00
And, you know,
116
360500
1160
Y, ya saben,
06:01
for years I spent so much time building trust with my constituents.
117
361700
4040
durante años dediqué mucho tiempo a fomentar la confianza de mis electores.
06:05
I mean, we all know how much people like politicians.
118
365780
3360
Es decir, todos sabemos lo mucho que le gustan los políticos a la gente.
06:09
You know, we’re as likeable as the tax man.
119
369180
2000
Somos tan simpáticos como el recaudador de impuestos.
06:11
So for me, it was hard.
120
371220
2880
Así que para mí, fue difícil.
06:14
It was really hard
121
374100
1200
Fue muy difícil
06:15
because it was years of hard work.
122
375300
2280
porque fueron años de arduo trabajo.
06:18
You know, I’m so passionate about my job,
123
378100
2160
Me apasiona mi trabajo,
06:20
and this video, this complete falsehood,
124
380260
2920
y este vídeo, esta completa falsedad,
06:23
had the ability to just undermine years of hard work in mere seconds.
125
383180
4600
podía socavar años de arduo trabajo en cuestión de segundos.
06:28
But instead of succumbing entirely to victimhood,
126
388220
3200
Pero en lugar de sucumbir por completo a la victimización,
06:31
I ask myself today,
127
391420
1360
hoy me pregunto,
06:32
you know, where do we go from here?
128
392820
2280
¿a dónde vamos a partir de ahora?
06:35
And how can AI evolve to prevent something like this happening again?
129
395140
5560
¿Cómo puede evolucionar la IA para evitar que algo así vuelva a ocurrir?
06:40
Not only has it happened to me,
130
400740
1480
No solo me ha ocurrido a mí,
sino que queremos prepararnos para el futuro
06:42
but we want to future-proof and ensure that this doesn't happen
131
402220
3000
y asegurarnos de que esto no les suceda
06:45
to the women of tomorrow.
132
405260
1760
a las mujeres del mañana.
06:47
How can we, you and I, people who care about people,
133
407060
4280
¿Cómo podemos nosotros, tú y yo, personas que nos preocupamos por las personas,
06:51
ensure that this is a tech for good?
134
411380
2400
asegurarnos de que se trata de una tecnología para siempre?
06:54
How can we, the policymakers, the creators, the consumers,
135
414300
4680
¿Cómo podemos nosotros, los responsables políticos,
los creadores y los consumidores,
06:58
ensure we regulate AI and things like social media,
136
418980
3480
garantizar que regulamos la IA y las redes sociales,
07:02
putting humans and humanity at the center of artificial intelligence?
137
422500
5320
poniendo a los seres humanos y a la humanidad en el centro de la IA?
07:08
AI can change the world.
138
428740
2280
La IA puede cambiar el mundo.
07:11
In fact, as we've heard today, it already has.
139
431060
2880
De hecho, como hemos escuchado hoy, ya lo ha hecho.
07:13
In a matter of seconds,
140
433940
1520
En cuestión de segundos,
07:15
people who speak completely different languages
141
435460
2240
las personas que hablan idiomas completamente diferentes
07:17
can connect and understand one another.
142
437700
2160
pueden conectarse y entenderse entre sí.
07:19
And we've even seen the Pope as a style icon in a puffer jacket.
143
439860
3960
E incluso hemos visto al Papa
como un ícono de estilo con una chaqueta acolchada.
07:24
So some really important uses right there.
144
444180
2240
Así que ahí están algunos usos realmente importantes.
07:27
But then in my case as well,
145
447220
1600
Pero también en mi caso,
07:28
we can also see how it is weaponized against the truth.
146
448860
3440
podemos ver cómo se utiliza como arma contra la verdad.
07:32
And good examples of this would be art that appears like reality,
147
452620
4120
Y buenos ejemplos de ello serían el arte que parece real, las reseñas
07:36
AI-generated reviews unfairly boosting certain products
148
456740
3840
generadas por la IA que promocionan injustamente ciertos productos
07:40
and things like chatbot propaganda.
149
460580
2760
y cosas como la propaganda de los chatbots.
07:43
And then, politically speaking,
150
463340
1760
Además, desde el punto de vista político,
07:45
we've seen over the years deepfakes of Nancy Pelosi slurring,
151
465140
4320
hemos visto a lo largo de los años imágenes falsas
de Nancy Pelosi balbucenado,
07:49
Joe Biden cursing
152
469500
1480
de Joe Biden maldiciendo
e incluso del presidente Zelensky
07:51
and even President Zelensky
153
471020
1760
07:52
asking his soldiers to surrender their weapons.
154
472820
3160
pidiendo a sus soldados que depongan las armas.
07:57
So when AI is used like this, to manipulate,
155
477220
3560
Por lo tanto, cuando la IA se usa de esta manera, para manipular,
08:00
it can be a threat to our democracy.
156
480780
2960
puede ser una amenaza para nuestra democracia.
08:03
And the tech is becoming so advanced
157
483740
2680
Y la tecnología se está volviendo tan avanzada
08:06
that it's hard to differentiate fact from fiction.
158
486460
3400
que es difícil diferenciar la realidad de la ficción.
08:10
So how does AI interfere with politics?
159
490660
4000
Entonces, ¿cómo interfiere la IA en la política?
08:14
And for us as politicians, what should we be worried about?
160
494660
3840
Y para nosotros, como políticos, ¿qué debería preocuparnos?
08:18
Could truth and democracy become shattered by AI?
161
498820
3760
¿La IA podría destruir la verdad y la democracia?
08:22
Has it already?
162
502580
1320
¿Ya lo ha hecho?
08:24
Well, to dive a little deeper here,
163
504300
2160
Bueno, para profundizar un poco más aquí,
08:26
I think firstly we need to talk about the concept of truth.
164
506500
3440
creo que primero tenemos que hablar sobre el concepto de verdad.
08:30
Without truth, democracy collapses.
165
510300
2920
Sin la verdad, la democracia se derrumba.
08:33
Truth allows us to make informed decisions,
166
513700
3520
La verdad nos permite tomar decisiones informadas,
08:37
it enables us to hold leaders accountable, which is very important.
167
517220
4040
nos permite hacer que los líderes rindan cuentas, lo cual es muy importante.
08:41
And it also allows us, as political representatives,
168
521300
3400
Y también nos permite, como representantes políticos,
08:44
to create a sense of trust with our citizens and our constituents.
169
524700
3840
crear un sentimiento de confianza entre nuestros ciudadanos y electores.
08:49
But without that truth,
170
529020
1680
Pero sin esa verdad,
08:50
democracy is vulnerable to misinformation,
171
530740
3280
la democracia es vulnerable a la desinformación,
08:54
manipulation, and, of course, corruption.
172
534020
3400
la manipulación y, por supuesto, la corrupción.
08:57
When AI erodes truth,
173
537940
2920
Cuando la IA erosiona la verdad,
09:00
it erodes trust,
174
540860
2000
erosiona la confianza
09:02
and it undermines our democracy.
175
542860
2240
y socava nuestra democracia.
09:05
And for me, in my experience with a deepfake,
176
545500
3760
Y en mi caso, en mi experiencia con los deepfake,
09:09
I've seen what a fantastic distortion tool that deepfakes really are.
177
549260
4960
he visto la fantástica herramienta de distorsión
que son en realidad los deepfakes.
09:14
So how can we safeguard democracy from this ever-advancing technology?
178
554220
5080
¿Cómo podemos proteger la democracia
frente a esta tecnología cada vez más avanzada?
09:19
It's becoming ever harder to distinguish between real and synthetic content.
179
559620
4960
Cada vez es más difícil distinguir entre contenido real y sintético.
09:24
And politically, what role does AI play in the future?
180
564620
4160
Y desde el punto de vista político, ¿qué papel desempeña la IA en el futuro?
09:28
And I can't talk about politics without talking about media as well.
181
568820
4080
Y no puedo hablar de política sin hablar también de los medios.
09:32
They're undeniably linked, they're intertwined.
182
572900
2360
Están innegablemente vinculados, están entrelazados.
09:35
And I think journalism has its own battle here as well.
183
575300
3600
Y creo que el periodismo también tiene su propia batalla aquí.
Desde algoritmos de IA que promocionan artículos injustamente
09:39
From AI algorithms boosting articles unfairly
184
579220
3600
09:42
to clickbait headlines,
185
582860
1520
hasta titulares que provocan clics,
09:44
and then also moments where they can manipulate the public as well.
186
584420
4800
pasando por momentos en los que también pueden manipular al público.
Sin embargo, desde el punto de vista político,
09:49
But politically speaking,
187
589220
1240
09:50
we've seen AI-tailored political messaging
188
590500
3000
hemos visto cómo los mensajes políticos diseñados por la IA
09:53
influencing voters,
189
593540
1160
influyen en los votantes
09:54
we’ve seen it adding to existing bias.
190
594740
3240
hemos visto que esto aumenta el sesgo existente.
Y definitivamente creo que todos tenemos esa tía que está en Facebook
09:58
And definitely I think we all have that aunt that’s on Facebook
191
598020
2960
10:00
and kind of believes anything.
192
600980
1840
y se cree cualquier cosa.
10:02
So for me, as a politician,
193
602860
1440
Así que para mí, como político,
10:04
I think it's really important we dive a little deeper
194
604340
2480
creo que es muy importante que profundicemos un poco más
10:06
into the relationship of AI, journalism and media.
195
606820
3880
en la relación entre la IA, el periodismo y los medios de comunicación.
10:11
But it also puts us at risk
196
611220
1840
Pero también nos pone en riesgo
10:13
of creating a more divided and reactionary society,
197
613100
4000
de crear una sociedad más dividida y reaccionaria,
10:17
because falsehoods can create a lot of reaction.
198
617140
3000
porque las falsedades pueden generar mucha reacción.
10:20
And for myself, coming from Northern Ireland,
199
620140
2320
En cuanto a mí, al venir de Irlanda del Norte,
10:22
which is that post-conflict society,
200
622500
2320
que es esa sociedad que ha salido de un conflicto,
10:24
I do have concerns about how it could shape our political landscape
201
624860
3960
me preocupa la forma en que esto podría moldear nuestro panorama político
10:28
and other places across the globe.
202
628820
2320
y otros lugares del mundo.
10:32
Sadly, this deepfake video
203
632060
2320
Lamentablemente, este vídeo de deepfake
10:34
is not the only instance of me having experienced abuse with AI.
204
634380
5400
no es el único caso en el que he sufrido abusos con la IA.
10:39
Just six months ago,
205
639780
1280
Hace solo seis meses,
10:41
I received 15 deepfake images of myself in lingerie
206
641100
5400
recibí 15 imágenes deepfake de mí misma en lencería
10:46
posing provocatively.
207
646540
1640
posando de manera provocativa.
10:48
And I thought to myself, here we go again.
208
648620
3240
Y pensé para mis adentros: aquí vamos otra vez.
10:52
And you know, I spoke with some other female politicians.
209
652460
3720
Y ya saben, hablé con otras mujeres políticas.
10:56
Thankfully, where I represent, we have more women getting into politics.
210
656980
4280
Afortunadamente, en los lugares donde represento,
hay más mujeres que se dedican a la política.
11:01
But I had a really good conversation with them,
211
661300
2200
Pero tuve una conversación muy buena con ellas,
11:03
and it’s around, if this is happening to you now,
212
663500
2320
y es que si esto te está pasando a ti ahora,
11:05
what happens to me tomorrow?
213
665860
1760
¿qué me pasará a mí mañana?
11:07
And I think this really strikes at the heart of the climate of fear
214
667660
3960
Y creo que esto realmente atenta contra el núcleo del clima de miedo
11:11
that AI can create for those in public life.
215
671660
3840
que la IA puede crear en quienes participan en la vida pública.
Y no culpo a las mujeres.
11:15
And I don't blame women.
216
675500
1160
11:16
It's very sad.
217
676700
1160
Es muy triste.
11:17
I don't blame women for not wanting to get into politics
218
677860
2640
No culpo a las mujeres por no querer entrar en la política
11:20
when they see this kind of technology come forward,
219
680540
2400
cuando ven que este tipo de tecnología se presenta,
11:22
so that's so important that we safeguard it.
220
682940
2480
por eso es tan importante que la protejamos.
11:25
What also concerned me was the position of elderly voters
221
685420
4680
Lo que también me preocupaba era la posición de los votantes de edad avanzada
y, quizás, su conocimiento de los medios
11:30
and perhaps their media literacy,
222
690100
1880
11:32
their comprehension of this technology.
223
692020
2200
y su comprensión de esta tecnología.
11:34
People who don't use the internet,
224
694260
2120
Personas que no usan Internet,
11:36
who perhaps are not aware of AI and its many, many uses.
225
696420
3920
que quizás no conozcan la IA y sus muchos, muchos usos.
11:40
So that was really concerning as well.
226
700340
2400
Así que eso también fue muy preocupante.
11:43
But it doesn't have to be this way.
227
703060
1800
Pero no tiene por qué ser así.
11:44
We can be part of the change.
228
704900
1760
Podemos ser parte del cambio.
11:47
For me and my video,
229
707260
1920
En cuanto a mí y a mi vídeo,
11:49
I still don't know, to this day, who did this.
230
709220
3520
todavía no sé, hasta el día de hoy, quién hizo esto.
11:52
I can imagine why they did it, but I don't know who did it.
231
712780
3400
Me imagino por qué lo hicieron, pero no sé quién lo hizo.
11:56
And sadly for me and for across the globe,
232
716180
3200
Y lamentablemente para mí y para todo el mundo,
11:59
it still wouldn't be considered a crime.
233
719420
2920
todavía no se consideraría un delito.
12:03
So from being the enemy of fair, transparent,
234
723260
2840
Por eso, la IA sigue siendo motivo de preocupación,
12:06
good-natured politics,
235
726100
1600
ya sea enemiga de una política justa, transparente y bondadosa,
12:07
to warfare, to international interference,
236
727740
3240
12:11
despite its beauty and its potential,
237
731020
2880
pasando por la guerra y la interferencia internacional,
12:13
AI is still a cause for concern.
238
733940
2880
a pesar de su belleza y su potencial.
12:16
But it doesn't have to be this way.
239
736820
2080
Pero no tiene por qué ser así.
12:19
I feel passionately that AI can be a humanistic technology
240
739260
3720
Creo apasionadamente que la IA puede ser una tecnología humanista
12:23
with human values
241
743020
1560
con valores humanos
12:24
that complements the lives that we live
242
744620
2640
que complemente las vidas que vivimos
12:27
to make us the very best versions of ourselves.
243
747300
3440
para convertirnos en las mejores versiones de nosotros mismos.
12:31
But to do that,
244
751100
1560
Pero para ello,
12:32
I think we need to embed ethics into this technology,
245
752700
3920
creo que necesitamos integrar la ética en esta tecnología,
12:36
to eliminate bias, to install empathy
246
756620
4160
eliminar los prejuicios, fomentar la empatía
12:40
and make sure it is aligned with human values and human principles.
247
760820
4760
y asegurarnos de que está alineada con los valores y principios humanos.
12:45
Who knows, our democracy could depend on it.
248
765900
3400
Quién sabe, nuestra democracia podría depender de ello.
12:49
And today I know we have some of the brightest minds in this room.
249
769300
3840
Y hoy sé que tenemos algunas de las mentes más brillantes en esta sala.
12:53
I heard some of the talks earlier, and I'm certain of that.
250
773180
4120
Escuché algunas de las conversaciones antes, y estoy segura de ello.
12:57
And I know each and every one of you have weight on your shoulders
251
777340
3120
Sé que todos y cada uno de vosotros tenéis un peso sobre los hombros
13:00
when looking to the future.
252
780500
1680
cuando miráis hacia el futuro.
13:02
But I also know each and every one of you want to see this tech for good.
253
782220
5400
Pero también sé que todos y cada uno quiere ver esta tecnología para siempre.
13:07
And what gives me hope
254
787980
1800
Y lo que me da esperanza
13:09
is witnessing the movement right across the globe
255
789780
3320
es presenciar el movimiento que se extiende por todo el mundo
13:13
to see this hard journey begin,
256
793140
2800
para que comience este arduo viaje,
13:15
to regulate this ever-advancing technology,
257
795940
2840
para regular esta tecnología cada vez más avanzada,
13:18
which can be used for bad or for good.
258
798780
3000
que puede usarse para bien o para mal.
13:22
But perhaps we, each and every one of us in this room,
259
802140
3720
Pero quizás nosotros, todos y cada uno de los presentes en esta sala,
13:25
can be part of finding the solution.
260
805860
2360
podamos ser parte de la búsqueda de la solución.
13:28
(Applause)
261
808860
2200
(Aplausos)
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7