AI Is Dangerous, but Not for the Reasons You Think | Sasha Luccioni | TED

894,823 views ・ 2023-11-06

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Sebastian Betti Revisor: Anna Sobota
00:04
So I've been an AI researcher for over a decade.
0
4292
3504
He estado investigando sobre la IA durante más de una década
00:07
And a couple of months ago, I got the weirdest email of my career.
1
7796
3503
y hace unos meses recibí el correo más extraño de mi carrera.
00:11
A random stranger wrote to me
2
11925
1668
Un extraño al azar me escribió
00:13
saying that my work in AI is going to end humanity.
3
13635
3420
diciéndome que mi trabajo en IA acabaría con la humanidad.
00:18
Now I get it, AI, it's so hot right now.
4
18598
3754
Lo entiendo, la IA está tan de moda en este momento.
00:22
(Laughter)
5
22352
1627
(Risas)
Aparece en los titulares casi todos los días,
00:24
It's in the headlines pretty much every day,
6
24020
2086
00:26
sometimes because of really cool things
7
26106
1918
a veces por cosas realmente interesantes,
00:28
like discovering new molecules for medicine
8
28066
2169
como descubrir nuevas moléculas para la medicina
00:30
or that dope Pope in the white puffer coat.
9
30235
2252
o por ese Papa drogado vistiendo un abrigo de plumas blanco.
00:33
But other times the headlines have been really dark,
10
33446
2461
Pero otras veces los titulares han sido muy oscuros,
00:35
like that chatbot telling that guy that he should divorce his wife
11
35907
3671
como el chatbot que le dice a un muchacho que debe divorciarse de su mujer
00:39
or that AI meal planner app proposing a crowd pleasing recipe
12
39619
4088
o esa aplicación de planificación de comidas basada en IA
00:43
featuring chlorine gas.
13
43707
2002
que propone una receta con cloro gaseoso para complacer al público.
00:46
And in the background,
14
46376
1418
En segundo plano,
00:47
we've heard a lot of talk about doomsday scenarios,
15
47836
2419
hemos oído hablar mucho sobre los escenarios apocalípticos,
00:50
existential risk and the singularity,
16
50255
1918
el riesgo existencial y la singularidad,
00:52
with letters being written and events being organized
17
52215
2503
y se han escrito cartas y se han organizado eventos
00:54
to make sure that doesn't happen.
18
54718
2002
para asegurarnos de que eso no suceda.
00:57
Now I'm a researcher who studies AI's impacts on society,
19
57637
4630
Soy investigadora y estudio los impactos de la IA en la sociedad,
01:02
and I don't know what's going to happen in 10 or 20 years,
20
62267
2836
y no sé qué va a pasar dentro de 10 o 20 años,
01:05
and nobody really does.
21
65145
2461
y nadie lo sabe realmente.
01:07
But what I do know is that there's some pretty nasty things going on right now,
22
67981
4546
Pero lo que sí sé es que están ocurriendo cosas bastante feas ahora mismo,
01:12
because AI doesn't exist in a vacuum.
23
72527
2878
porque la IA no existe en el vacío.
01:15
It is part of society, and it has impacts on people and the planet.
24
75447
3920
Forma parte de la sociedad
y tiene un impacto en las personas y en el planeta.
Los modelos de IA pueden contribuir al cambio climático.
01:20
AI models can contribute to climate change.
25
80160
2502
01:22
Their training data uses art and books created by artists
26
82704
3462
Sus datos de entrenamiento utilizan obras de arte y libros creados
por artistas y escritores sin su consentimiento.
01:26
and authors without their consent.
27
86207
1710
01:27
And its deployment can discriminate against entire communities.
28
87959
3837
Y su despliegue puede discriminar a comunidades enteras.
Sin embargo, debemos empezar a rastrear sus impactos.
01:32
But we need to start tracking its impacts.
29
92797
2127
01:34
We need to start being transparent and disclosing them and creating tools
30
94966
3587
Tenemos que empezar a ser transparentes, divulgarlos y crear herramientas
01:38
so that people understand AI better,
31
98595
2419
para que las personas entiendan mejor la IA,
de modo que, con suerte, las generaciones futuras de modelos de IA
01:41
so that hopefully future generations of AI models
32
101056
2335
01:43
are going to be more trustworthy, sustainable,
33
103433
2836
sean más confiables y sostenibles y, tal vez, tengan menos probabilidades
01:46
maybe less likely to kill us, if that's what you're into.
34
106269
2836
de acabar con nosotros, si eso es lo que nos gusta.
Pero empecemos por la sostenibilidad,
01:50
But let's start with sustainability,
35
110148
1752
01:51
because that cloud that AI models live on is actually made out of metal, plastic,
36
111900
5756
porque la nube en la que viven los modelos de IA está hecha de metal y plástico
01:57
and powered by vast amounts of energy.
37
117656
2460
y funciona con enormes cantidades de energía.
02:00
And each time you query an AI model, it comes with a cost to the planet.
38
120116
4463
Además, cada vez que consultas un modelo de IA,
ello supone un coste para el planeta.
02:05
Last year, I was part of the BigScience initiative,
39
125789
3044
El año pasado formé parte de la iniciativa BigScience,
02:08
which brought together a thousand researchers
40
128833
2127
que reunió a mil investigadores
02:10
from all over the world to create Bloom,
41
130960
2503
de todo el mundo para crear Bloom,
02:13
the first open large language model, like ChatGPT,
42
133505
4337
el primer modelo de lenguaje amplio y abierto, como ChatGPT,
02:17
but with an emphasis on ethics, transparency and consent.
43
137842
3546
pero con énfasis en la ética, la transparencia y el consentimiento.
02:21
And the study I led that looked at Bloom's environmental impacts
44
141721
3253
Y el estudio que dirigí para analizar los impactos ambientales de Bloom
descubrió que solo entrenarlo consumía tanta energía
02:25
found that just training it used as much energy
45
145016
3253
02:28
as 30 homes in a whole year
46
148311
2211
como 30 hogares en un año entero
02:30
and emitted 25 tons of carbon dioxide,
47
150563
2419
y emitía 25 toneladas de dióxido de carbono,
lo que es como conducir un automóvil cinco veces alrededor del planeta
02:33
which is like driving your car five times around the planet
48
153024
3253
02:36
just so somebody can use this model to tell a knock-knock joke.
49
156319
3170
para que alguien pueda usar este modelo para contar un chiste.
02:39
And this might not seem like a lot,
50
159489
2169
Y puede que no parezca mucho,
02:41
but other similar large language models,
51
161700
2460
pero otros modelos similares de lenguaje extenso,
02:44
like GPT-3,
52
164202
1126
como el GPT-3,
02:45
emit 20 times more carbon.
53
165370
2544
emiten 20 veces más carbono.
02:47
But the thing is, tech companies aren't measuring this stuff.
54
167956
2878
Pero la cuestión es que las empresas de tecnología no están midiendo estas cosas.
02:50
They're not disclosing it.
55
170875
1252
No lo están revelando.
02:52
And so this is probably only the tip of the iceberg,
56
172168
2461
Esto es probablemente solo la punta del iceberg,
02:54
even if it is a melting one.
57
174629
1418
aunque se esté derritiendo.
02:56
And in recent years we've seen AI models balloon in size
58
176798
3629
Y en los últimos años hemos visto cómo los modelos de IA han aumentado de tamaño
03:00
because the current trend in AI is "bigger is better."
59
180468
3462
porque la tendencia actual de la IA es que “cuanto más grande, mejor”.
03:04
But please don't get me started on why that's the case.
60
184305
2795
Pero, por favor, no me hagan explicar por qué es así.
03:07
In any case, we've seen large language models in particular
61
187100
3003
Hemos visto cómo los grandes modelos lingüísticos, en particular,
03:10
grow 2,000 times in size over the last five years.
62
190103
3211
han crecido 2000 veces en los últimos cinco años.
03:13
And of course, their environmental costs are rising as well.
63
193314
3045
Y sus costes medioambientales también están aumentando.
03:16
The most recent work I led, found that switching out a smaller,
64
196401
3795
El trabajo más reciente que dirigí descubrió que cambiar un modelo
03:20
more efficient model for a larger language model
65
200238
3337
más pequeño y eficiente por un modelo lingüístico más grande
03:23
emits 14 times more carbon for the same task.
66
203616
3754
emite 14 veces más carbono para la misma tarea.
03:27
Like telling that knock-knock joke.
67
207412
1877
Como contar ese chiste.
03:29
And as we're putting in these models into cell phones and search engines
68
209289
3462
Conforme incorporamos estos modelos a móviles, motores de búsqueda,
03:32
and smart fridges and speakers,
69
212792
2836
frigoríficos y altavoces inteligentes,
03:35
the environmental costs are really piling up quickly.
70
215628
2628
los costes ambientales se están acumulando rápidamente.
03:38
So instead of focusing on some future existential risks,
71
218840
3754
Así que, en lugar de centrarnos en algunos riesgos existenciales futuros,
03:42
let's talk about current tangible impacts
72
222635
2753
hablemos de los impactos tangibles actuales
03:45
and tools we can create to measure and mitigate these impacts.
73
225388
3629
y de las herramientas que podemos crear para medirlos y mitigarlos.
03:49
I helped create CodeCarbon,
74
229893
1668
Ayudé a crear CodeCarbon,
03:51
a tool that runs in parallel to AI training code
75
231603
2961
una herramienta que funciona en paralelo al código de entrenamiento de la IA
03:54
that estimates the amount of energy it consumes
76
234564
2211
que estima la cantidad de energía que consume
03:56
and the amount of carbon it emits.
77
236775
1668
y la cantidad de carbono que emite.
03:58
And using a tool like this can help us make informed choices,
78
238485
2877
Una herramienta así puede ayudarnos a tomar decisiones informadas,
04:01
like choosing one model over the other because it's more sustainable,
79
241404
3253
como elegir un modelo en lugar de otro porque es más sostenible,
04:04
or deploying AI models on renewable energy,
80
244657
2920
o implementar modelos de IA basados en energía renovable,
04:07
which can drastically reduce their emissions.
81
247619
2544
que pueden reducir drásticamente sus emisiones.
04:10
But let's talk about other things
82
250163
2085
Pero hablemos de otras cosas,
04:12
because there's other impacts of AI apart from sustainability.
83
252290
2961
porque la IA tiene otros impactos además de la sostenibilidad.
04:15
For example, it's been really hard for artists and authors
84
255627
3128
Por ejemplo, a los artistas y escritores les ha costado mucho
04:18
to prove that their life's work has been used for training AI models
85
258797
4212
demostrar que el trabajo de toda su vida
se ha utilizado para entrenar modelos de IA sin su consentimiento.
04:23
without their consent.
86
263051
1209
04:24
And if you want to sue someone, you tend to need proof, right?
87
264302
3170
Y si quieres demandar a alguien, sueles necesitar pruebas, ¿verdad?
04:27
So Spawning.ai, an organization that was founded by artists,
88
267806
3920
Así que Spawning.ai, una organización que fue fundada por artistas,
04:31
created this really cool tool called “Have I Been Trained?”
89
271726
3337
creó esta herramienta realmente genial llamada “¿Me han entrenado?”
Y te permite buscar en estos enormes conjuntos de datos
04:35
And it lets you search these massive data sets
90
275104
2461
04:37
to see what they have on you.
91
277607
2085
para ver lo que tienen sobre ti.
04:39
Now, I admit it, I was curious.
92
279734
1668
Ahora, lo admito, tenía curiosidad.
04:41
I searched LAION-5B,
93
281444
1627
Busqué en el LAION-5B,
04:43
which is this huge data set of images and text,
94
283112
2461
que es un enorme conjunto de datos de imágenes y texto,
04:45
to see if any images of me were in there.
95
285615
2711
para ver si había alguna imagen mía en él.
Esas dos primeras imágenes son mías de los eventos
04:49
Now those two first images,
96
289285
1585
04:50
that's me from events I've spoken at.
97
290870
2169
en los que he hablado.
04:53
But the rest of the images, none of those are me.
98
293081
2753
Pero el resto de las imágenes, ninguna de ellas es mía.
04:55
They're probably of other women named Sasha
99
295875
2002
Probablemente sean de otras mujeres llamadas Sasha
04:57
who put photographs of themselves up on the internet.
100
297919
2628
que publicaron fotografías suyas en Internet.
Y esto probablemente explique por qué,
05:01
And this can probably explain why,
101
301047
1627
05:02
when I query an image generation model
102
302715
1836
cuando consulto un modelo de generación de imágenes
05:04
to generate a photograph of a woman named Sasha,
103
304551
2294
para generar una fotografía de una mujer llamada Sasha,
05:06
more often than not I get images of bikini models.
104
306886
2753
la mayoría de las veces obtengo imágenes de modelos en bikini.
05:09
Sometimes they have two arms,
105
309681
1626
A veces tienen dos brazos,
05:11
sometimes they have three arms,
106
311349
2294
a veces tienen tres brazos,
05:13
but they rarely have any clothes on.
107
313685
2043
pero rara vez llevan ropa puesta.
05:16
And while it can be interesting for people like you and me
108
316563
2794
Aunque puede resultar interesante para personas como tú y yo
05:19
to search these data sets,
109
319357
2127
buscar en estos conjuntos de datos,
05:21
for artists like Karla Ortiz,
110
321526
2044
para artistas como Karla Ortiz, esto proporciona una prueba crucial
05:23
this provides crucial evidence that her life's work, her artwork,
111
323570
3753
de que el trabajo de toda su vida, su obra de arte,
05:27
was used for training AI models without her consent,
112
327365
2961
se utilizó para entrenar a modelos de IA sin su consentimiento,
05:30
and she and two artists used this as evidence
113
330326
2336
y ella y dos artistas lo utilizaron como prueba
05:32
to file a class action lawsuit against AI companies
114
332704
2794
para presentar una demanda colectiva contra empresas de IA
05:35
for copyright infringement.
115
335540
1960
por infracción de derechos de autor.
05:37
And most recently --
116
337542
1168
Y más recientemente...
05:38
(Applause)
117
338710
3378
(Aplausos)
05:42
And most recently Spawning.ai partnered up with Hugging Face,
118
342130
3044
Y, más recientemente, Spawning.ai se asoció con Hugging Face,
05:45
the company where I work at,
119
345216
1585
la empresa en la que trabajo,
05:46
to create opt-in and opt-out mechanisms for creating these data sets.
120
346801
4922
para crear mecanismos de aceptación y exclusión
para crear estos conjuntos de datos.
Porque las obras de arte creadas por humanos
05:52
Because artwork created by humans shouldn’t be an all-you-can-eat buffet
121
352098
3587
no deberían servir de base para entrenar modelos lingüísticos basados en IA.
05:55
for training AI language models.
122
355727
1793
05:58
(Applause)
123
358313
4254
(Aplausos)
06:02
The very last thing I want to talk about is bias.
124
362567
2336
Lo último de lo que quiero hablar es de los prejuicios.
06:04
You probably hear about this a lot.
125
364944
1919
Probablemente oigan hablar mucho de esto.
06:07
Formally speaking, it's when AI models encode patterns and beliefs
126
367196
3713
Formalmente hablando,
es cuando los modelos de IA codifican patrones y creencias
06:10
that can represent stereotypes or racism and sexism.
127
370950
3128
que pueden representar estereotipos o racismo y sexismo.
Una de mis heroínas, la Dra. Joy Buolamwini,
06:14
One of my heroes, Dr. Joy Buolamwini, experienced this firsthand
128
374412
3212
lo experimentó de primera mano
06:17
when she realized that AI systems wouldn't even detect her face
129
377665
3045
cuando notó que los sistemas de IA ni siquiera detectaban su rostro
06:20
unless she was wearing a white-colored mask.
130
380752
2169
a menos que llevara puesta una máscara blanca.
06:22
Digging deeper, she found that common facial recognition systems
131
382962
3754
Profundizando más, descubrió que los sistemas comunes de reconocimiento facial
06:26
were vastly worse for women of color compared to white men.
132
386758
3253
eran mucho peores para las mujeres de color que para los hombres blancos.
06:30
And when biased models like this are deployed in law enforcement settings,
133
390428
5297
Y cuando se utilizan modelos sesgados como este en las fuerzas del orden,
06:35
this can result in false accusations, even wrongful imprisonment,
134
395767
4296
esto puede dar lugar a acusaciones falsas e incluso a encarcelamientos injustos,
06:40
which we've seen happen to multiple people in recent months.
135
400063
3920
algo que hemos visto ocurrir a varias personas en los últimos meses.
Por ejemplo, Porcha Woodruff fue acusada injustamente de robo
06:44
For example, Porcha Woodruff was wrongfully accused of carjacking
136
404025
3086
de vehículos cuando estaba embarazada de ocho meses
06:47
at eight months pregnant
137
407111
1252
06:48
because an AI system wrongfully identified her.
138
408363
2961
porque un sistema de IA la identificó erróneamente.
06:52
But sadly, these systems are black boxes,
139
412325
2002
Pero, lamentablemente, estos sistemas son cajas negras,
06:54
and even their creators can't say exactly why they work the way they do.
140
414369
5964
y ni siquiera sus creadores pueden decir exactamente
por qué funcionan de la manera en que lo hacen.
07:00
And for example, for image generation systems,
141
420917
3462
Y, por ejemplo, en el caso de los sistemas de generación de imágenes,
07:04
if they're used in contexts like generating a forensic sketch
142
424379
4129
si se utilizan en contextos como generar un bosquejo forense
a partir de la descripción de un agresor, toman todos esos sesgos
07:08
based on a description of a perpetrator,
143
428549
2711
07:11
they take all those biases and they spit them back out
144
431260
3587
y los vuelven a incluir en términos como criminal peligroso,
07:14
for terms like dangerous criminal, terrorists or gang member,
145
434889
3462
terrorista o miembro de una banda, lo que, por supuesto, es muy peligroso
07:18
which of course is super dangerous
146
438393
2168
cuando estas herramientas se utilizan en la sociedad.
07:20
when these tools are deployed in society.
147
440603
4421
07:25
And so in order to understand these tools better,
148
445566
2294
Por eso, para entender mejor estas herramientas,
07:27
I created this tool called the Stable Bias Explorer,
149
447902
3212
creé una herramienta llamada Stable Bias Explorer,
07:31
which lets you explore the bias of image generation models
150
451155
3379
que permite explorar el sesgo de los modelos de generación de imágenes
07:34
through the lens of professions.
151
454575
1669
desde la perspectiva de las profesiones.
07:37
So try to picture a scientist in your mind.
152
457370
3045
Intenten imaginar a un científico.
07:40
Don't look at me.
153
460456
1168
No me miren.
07:41
What do you see?
154
461666
1335
¿Qué ven?
07:43
A lot of the same thing, right?
155
463835
1501
Más de lo mismo, ¿verdad?
07:45
Men in glasses and lab coats.
156
465378
2377
Hombres con gafas y batas de laboratorio.
07:47
And none of them look like me.
157
467797
1710
Y ninguno se parece a mí.
Analizamos todos estos modelos de generación de imágenes diferentes
07:50
And the thing is,
158
470174
1460
07:51
is that we looked at all these different image generation models
159
471676
3253
y encontramos prácticamente lo mismo: una representación
07:54
and found a lot of the same thing:
160
474929
1627
07:56
significant representation of whiteness and masculinity
161
476597
2586
significativa de la blancura y la masculinidad
en las 150 profesiones que analizamos, incluso si las comparamos
07:59
across all 150 professions that we looked at,
162
479225
2127
08:01
even if compared to the real world,
163
481352
1794
con el mundo real, la Oficina de Estadísticas Laborales de EE. UU.
08:03
the US Labor Bureau of Statistics.
164
483187
1836
08:05
These models show lawyers as men,
165
485023
3044
Estos modelos muestran a los abogados como hombres
08:08
and CEOs as men, almost 100 percent of the time,
166
488109
3462
y a los directores ejecutivos como hombres, casi el 100 % de las veces,
08:11
even though we all know not all of them are white and male.
167
491571
3170
aunque todos sabemos que no todos son hombres y blancos.
08:14
And sadly, my tool hasn't been used to write legislation yet.
168
494782
4380
Lamentablemente, mi herramienta aún no se ha usado para redactar leyes.
Sin embargo, hace poco la presenté en un evento de la ONU
08:19
But I recently presented it at a UN event about gender bias
169
499203
3963
sobre los prejuicios de género
08:23
as an example of how we can make tools for people from all walks of life,
170
503166
3879
como ejemplo de cómo crear herramientas
para que personas de todos los ámbitos sociales,
08:27
even those who don't know how to code,
171
507086
2252
incluso aquellas que no saben programar,
08:29
to engage with and better understand AI because we use professions,
172
509380
3253
interactúen con la IA y la entiendan mejor, ya que utilizamos profesiones,
08:32
but you can use any terms that are of interest to you.
173
512633
3087
pero pueden usar cualquier término que les interese.
08:36
And as these models are being deployed,
174
516596
2752
Y a medida que estos modelos se despliegan,
08:39
are being woven into the very fabric of our societies,
175
519390
3128
se van integrando en la estructura misma de nuestras sociedades,
08:42
our cell phones, our social media feeds,
176
522518
2044
nuestros teléfonos móviles, redes sociales
08:44
even our justice systems and our economies have AI in them.
177
524604
3211
e incluso nuestros sistemas de justicia y economías tienen IA.
08:47
And it's really important that AI stays accessible
178
527815
3879
Y es muy importante que la IA siga siendo accesible
08:51
so that we know both how it works and when it doesn't work.
179
531736
4713
para que sepamos cómo funciona y cuándo no funciona.
08:56
And there's no single solution for really complex things like bias
180
536908
4296
Y no existe una solución única para problemas realmente complejos
como los prejuicios, los derechos de autor o el cambio climático.
09:01
or copyright or climate change.
181
541245
2419
09:03
But by creating tools to measure AI's impact,
182
543664
2711
Sin embargo, al crear herramientas para medir el impacto de la IA,
09:06
we can start getting an idea of how bad they are
183
546375
3337
podemos empezar a hacernos una idea de lo graves que son
09:09
and start addressing them as we go.
184
549754
2502
y empezar a abordarlos conforme avanzamos.
09:12
Start creating guardrails to protect society and the planet.
185
552256
3337
Empecemos creando barreras para proteger a la sociedad y al planeta.
Y una vez que dispongamos de esta información,
09:16
And once we have this information,
186
556177
2336
09:18
companies can use it in order to say,
187
558513
1835
las empresas podrán utilizarla para decir:
09:20
OK, we're going to choose this model because it's more sustainable,
188
560389
3170
De acuerdo, vamos a elegir este modelo porque es más sostenible,
09:23
this model because it respects copyright.
189
563601
2044
este modelo porque respeta los derechos de autor.
09:25
Legislators who really need information to write laws,
190
565686
3087
Los legisladores que necesitan información para redactar leyes
09:28
can use these tools to develop new regulation mechanisms
191
568773
3462
pueden utilizar estas herramientas
para desarrollar nuevos mecanismos de regulación
09:32
or governance for AI as it gets deployed into society.
192
572276
3796
o gobernanza para la IA a medida que se vaya implantando en la sociedad.
09:36
And users like you and me can use this information
193
576114
2377
Y los usuarios como tú y yo podemos usar esta información
09:38
to choose AI models that we can trust,
194
578491
3337
para elegir modelos de IA en los que podamos confiar,
09:41
not to misrepresent us and not to misuse our data.
195
581869
2920
no para tergiversarnos y hacer uso indebido de nuestros datos.
09:45
But what did I reply to that email
196
585790
1918
¿Qué respondí a ese correo electrónico
09:47
that said that my work is going to destroy humanity?
197
587750
2961
en el que se decía que mi trabajo destruiría a la humanidad?
09:50
I said that focusing on AI's future existential risks
198
590711
4046
Dije que centrarse en los riesgos existenciales futuros de la IA
09:54
is a distraction from its current,
199
594799
2044
es distraer la atención de sus impactos actuales,
09:56
very tangible impacts
200
596843
1835
que son muy tangibles,
09:58
and the work we should be doing right now, or even yesterday,
201
598719
4004
y del trabajo que deberíamos hacer ahora mismo, o incluso ayer,
10:02
for reducing these impacts.
202
602723
1919
para reducir estos impactos.
10:04
Because yes, AI is moving quickly, but it's not a done deal.
203
604684
4045
Porque sí, la IA avanza con rapidez, pero no es un acuerdo cerrado.
10:08
We're building the road as we walk it,
204
608771
2503
Construimos el camino a medida que lo recorremos
10:11
and we can collectively decide what direction we want to go in together.
205
611274
3795
y podemos decidir colectivamente en qué dirección queremos ir juntos.
10:15
Thank you.
206
615069
1210
Gracias.
10:16
(Applause)
207
616279
2002
(Aplausos)
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7