How to Keep AI Under Control | Max Tegmark | TED

167,367 views ・ 2023-11-02

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Aitana Soler C Revisor: Sebastian Sanchez
00:03
Five years ago,
0
3833
2461
Hace cinco años,
00:06
I stood on the TED stage
1
6294
1752
subí al escenario de TED
00:08
and warned about the dangers of superintelligence.
2
8046
4379
y advertí sobre los peligros de la superinteligencia.
00:13
I was wrong.
3
13051
1710
Estaba equivocado.
00:16
It went even worse than I thought.
4
16513
1752
Salió aún peor de lo que pensaba.
00:18
(Laughter)
5
18306
1752
(Risas)
00:20
I never thought governments would let AI companies get this far
6
20058
4379
No pensé que los gobiernos permitirían que las empresas de inteligencia artificial
00:24
without any meaningful regulation.
7
24479
2294
llegaran tan lejos sin regulaciones fijas.
00:27
And the progress of AI went even faster than I predicted.
8
27732
4880
Y el progreso de la IA fue incluso más rápido de lo que había previsto.
00:32
Look, I showed this abstract landscape of tasks
9
32654
3587
Miren, mostré este panorama abstracto de tareas,
00:36
where the elevation represented how hard it was for AI
10
36241
3128
en el que la elevación representaba lo difícil que era para la IA
00:39
to do each task at human level.
11
39369
1919
realizar cada tarea a nivel humano.
00:41
And the sea level represented what AI could be back then.
12
41288
3753
El nivel del mar representaba lo que la IA podía ser en aquel momento.
00:45
And boy or boy, has the sea been rising fast ever since.
13
45875
2962
Y vaya que el nivel del mar ha estado subiendo rápidamente desde entonces.
00:48
But a lot of these tasks have already gone blub blub blub blub blub blub.
14
48878
3587
Muchas de estas tareas ya se han hundido más y más.
00:52
And the water is on track to submerge all land,
15
52882
3921
El agua va en camino a sumergir toda la tierra,
00:56
matching human intelligence at all cognitive tasks.
16
56803
3420
igualando la inteligencia humana en todas las tareas cognitivas.
01:00
This is a definition of artificial general intelligence, AGI,
17
60849
5756
Esta es una definición de inteligencia general artificial (IGA),
01:06
which is the stated goal of companies like OpenAI,
18
66605
3837
que es el objetivo declarado de empresas como OpenAI,
01:10
Google DeepMind and Anthropic.
19
70442
2002
Google, DeepMind y Anthropic.
01:12
And these companies are also trying to build superintelligence,
20
72819
3587
Estas empresas también están intentando desarrollar una superinteligencia,
01:16
leaving human intelligence far behind.
21
76448
2919
dejando por detrás a la inteligencia humana.
01:19
And many think it'll only be a few years, maybe, from AGI to superintelligence.
22
79826
4379
Y muchos piensan que solo faltan unos pocos años
para que la IA pase a la superinteligencia
01:24
So when are we going to get AGI?
23
84539
2795
Entonces, ¿cuándo vamos a tener la IGA?
01:27
Well, until recently, most AI researchers thought it was at least decades away.
24
87375
5464
Bueno, hasta hace poco, la mayoría de los investigadores pensaban
que faltaban por lo menos unas décadas.
01:33
And now Microsoft is saying, "Oh, it's almost here."
25
93214
3504
Y ahora Microsoft dice, “ya está por llegar.”
01:36
We're seeing sparks of AGI in ChatGPT-4,
26
96760
3753
En ChatGPT-4 se vislumbran destellos de la IGA,
01:40
and the Metaculus betting site is showing the time left to AGI
27
100555
3796
y el sitio de apuestas Metaculus muestra que el tiempo que falta para que la IGA
01:44
plummeting from 20 years away to three years away
28
104351
4129
se implemente ha caído en picada, pasando de 20 años a tan solo tres
01:48
in the last 18 months.
29
108521
1544
durante los últimos 18 meses.
01:50
And leading industry people are now predicting
30
110106
4922
Además, los líderes del sector predicen que nos quedan unos dos o tres años
01:55
that we have maybe two or three years left until we get outsmarted.
31
115028
5047
hasta que nos ganen en astucia.
02:00
So you better stop talking about AGI as a long-term risk,
32
120116
4421
Así que más vale que dejen de hablar de la AGI como un riesgo a largo plazo,
02:04
or someone might call you a dinosaur stuck in the past.
33
124579
3170
o parecerán un dinosaurio atrapado en el pasado.
02:08
It's really remarkable how AI has progressed recently.
34
128416
3837
Es realmente sorprendente cómo ha progresado la IA recientemente.
02:12
Not long ago, robots moved like this.
35
132921
2419
Hace no mucho, los robots se movían así.
02:15
(Music)
36
135382
2085
(Música)
02:18
Now they can dance.
37
138551
1418
Ahora pueden bailar.
02:20
(Music)
38
140804
2711
(Música)
02:29
Just last year, Midjourney produced this image.
39
149979
3295
El año pasado, Midjourney produjo esta imagen.
02:34
This year, the exact same prompt produces this.
40
154401
3253
Este año, el mismo mensaje produce esto.
02:39
Deepfakes are getting really convincing.
41
159656
2544
Los Deepfakes se están volviendo realmente convincentes.
02:43
(Video) Deepfake Tom Cruise: I’m going to show you some magic.
42
163201
2920
(Vídeo) Tom Cruise de Deepfake: Te mostraré un poco de magia.
02:46
It's the real thing.
43
166913
1335
Esto es real.
02:48
(Laughs)
44
168289
2086
(Risas)
02:50
I mean ...
45
170375
1293
Es decir...
02:53
It's all ...
46
173920
1835
Todo esto
02:55
the real ...
47
175797
1710
es...
02:57
thing.
48
177549
1168
real.
02:58
Max Tegmark: Or is it?
49
178717
1251
Max Tegmark: ¿lo es?
03:02
And Yoshua Bengio now argues
50
182387
2669
Yoshua Bengio ahora sostiene
03:05
that large language models have mastered language
51
185056
3837
que los grandes modelos lingüísticos han dominado el lenguaje y conocimiento
03:08
and knowledge to the point that they pass the Turing test.
52
188893
2795
hasta el punto de lograr pasar la prueba de Turing.
03:12
I know some skeptics are saying,
53
192355
1585
Sé que algunos escépticos dicen:
03:13
"Nah, they're just overhyped stochastic parrots
54
193940
2711
“No son más que loros impredicibles y sobrevalorados
03:16
that lack a model of the world,"
55
196693
1877
que carecen de un modelo del mundo.”
03:18
but they clearly have a representation of the world.
56
198611
2878
Pero es evidente que sí tienen una representación del mundo.
03:21
In fact, we recently found that Llama-2 even has a literal map of the world in it.
57
201531
5839
De hecho, hace poco se descubrió que Llama-2 contiene un mapa real del mundo.
03:28
And AI also builds
58
208121
3045
Además, la IA también crea representaciones
03:31
geometric representations of more abstract concepts
59
211207
3796
geométricas de conceptos más abstractos,
03:35
like what it thinks is true and false.
60
215003
3754
como lo que cree que es verdadero y falso.
03:40
So what's going to happen if we get AGI and superintelligence?
61
220467
5046
Entonces, ¿qué pasará si obtenemos la IA y la superinteligencia?
03:46
If you only remember one thing from my talk, let it be this.
62
226514
3879
Si solo se llevan una cosa de mi charla, que sea esto:
03:51
AI godfather, Alan Turing predicted
63
231311
3462
El padrino de la IA, Alan Turing, predijo
03:54
that the default outcome is the machines take control.
64
234814
4797
que el resultado predeterminado es que las máquinas tomen el control.
04:00
The machines take control.
65
240528
2211
Las máquinas tomarán el control.
04:04
I know this sounds like science fiction,
66
244240
2336
Sé que suena a ciencia ficción,
04:06
but, you know, having AI as smart as GPT-4
67
246618
3503
pero sabrán que tener una IA tan inteligente como la GPT-4
04:10
also sounded like science fiction not long ago.
68
250163
2919
también sonaba a ciencia ficción hace no mucho.
04:13
And if you think of AI,
69
253124
2378
Y si piensan en la IA,
04:15
if you think of superintelligence in particular, as just another technology,
70
255502
6047
si piensan en la superinteligencia como solo una tecnología más,
04:21
like electricity,
71
261591
2419
así como la electricidad,
probablemente no estén muy preocupados.
04:24
you're probably not very worried.
72
264052
2002
04:26
But you see,
73
266095
1168
Pero verán,
04:27
Turing thinks of superintelligence more like a new species.
74
267263
3837
Turing piensa en la superinteligencia más como una nueva especie.
04:31
Think of it,
75
271142
1168
Piénsenlo.
04:32
we are building creepy, super capable,
76
272310
3879
Estamos creando psicópatas espeluznantes,
supercapaces y amorales
04:36
amoral psychopaths
77
276231
1585
04:37
that don't sleep and think much faster than us,
78
277857
2711
que no duermen y piensan mucho más rápido que nosotros,
04:40
can make copies of themselves
79
280610
1418
pueden hacer copias de sí mismos
04:42
and have nothing human about them at all.
80
282070
2002
y no tienen nada de humano.
04:44
So what could possibly go wrong?
81
284072
1835
Así que, ¿qué podría salir mal?
04:45
(Laughter)
82
285949
1543
(Risas)
04:47
And it's not just Turing.
83
287951
1585
Y no es solo Turing.
04:49
OpenAI CEO Sam Altman, who gave us ChatGPT,
84
289536
2919
El director ejecutivo de OpenAI, Sam Altman, quien nos regaló ChatGPT,
04:52
recently warned that it could be "lights out for all of us."
85
292497
3837
advirtió recientemente que “podría ser el fin de todos”.
04:57
Anthropic CEO, Dario Amodei, even put a number on this risk:
86
297126
3754
El CEO de Anthropic, Darío Amodei, incluso calculó este riesgo con una cifra:
05:02
10-25 percent.
87
302090
2210
del 10 al 25 por ciento.
05:04
And it's not just them.
88
304300
1335
Y no son solo ellos.
05:05
Human extinction from AI went mainstream in May
89
305677
3086
La extinción humana a causa de la IA se generalizó en mayo,
05:08
when all the AGI CEOs and who's who of AI researchers
90
308763
4922
cuando todos los directores ejecutivos de IGA
y todos los investigadores importantes de la IA
05:13
came on and warned about it.
91
313685
1376
nos advirtieron al respecto.
05:15
And last month, even the number one of the European Union
92
315061
2920
Y el mes pasado, incluso la número uno de la Unión Europea
05:18
warned about human extinction by AI.
93
318022
3295
advirtió sobre la extinción humana a causa de la IA.
05:21
So let me summarize everything I've said so far
94
321359
2211
Permítanme resumir todo lo que he dicho hasta ahora
05:23
in just one slide of cat memes.
95
323611
2544
con una sola diapositiva de memes sobre gatos.
05:27
Three years ago,
96
327282
1793
Hace tres años,
05:29
people were saying it's inevitable, superintelligence,
97
329117
4129
la gente decía que era inevitable la superinteligencia,
05:33
it'll be fine,
98
333288
1501
pero que todo iba a estar bien,
05:34
it's decades away.
99
334789
1210
que aún faltaban décadas.
05:35
Last year it was more like,
100
335999
1835
El año pasado fue más bien como:
05:37
It's inevitable, it'll be fine.
101
337876
2043
“Es inevitable, todo estará bien”.
05:40
Now it's more like,
102
340295
2460
Y ahora es más bien:
05:42
It's inevitable.
103
342797
1251
“Es inevitable.”
05:44
(Laughter)
104
344090
1126
(Risas)
05:47
But let's take a deep breath and try to raise our spirits
105
347260
3962
Pero respiremos profundo e intentemos levantarnos el ánimo
05:51
and cheer ourselves up,
106
351264
1168
y ponernos de buen humor,
05:52
because the rest of my talk is going to be about the good news,
107
352473
3045
porque el resto de mi charla tratará de las buenas noticias,
05:55
that it's not inevitable, and we can absolutely do better,
108
355560
2919
que no es inevitable, y que podemos hacerlo mejor,
05:58
alright?
109
358521
1168
¿de acuerdo?
06:00
(Applause)
110
360315
2002
(Aplausos)
06:02
So ...
111
362317
1209
Así que...
06:04
The real problem is that we lack a convincing plan for AI safety.
112
364903
5296
El verdadero problema es que carecemos de un plan convincente para la seguridad
de la IA.
06:10
People are working hard on evals
113
370700
3337
La gente está trabajando arduamente en las evaluaciones que
06:14
looking for risky AI behavior, and that's good,
114
374037
4087
buscan comportamientos riesgosos en materia de IA, y eso es bueno,
06:18
but clearly not good enough.
115
378124
2044
pero claramente no lo suficientemente bueno.
06:20
They're basically training AI to not say bad things
116
380209
4797
Básicamente, están entrenando a la IA para que no diga cosas malas
06:25
rather than not do bad things.
117
385006
2502
en lugar de no hacer cosas malas.
06:28
Moreover, evals and debugging are really just necessary,
118
388176
4212
Además, las evaluaciones y la optimización son solo las condiciones de seguridad
06:32
not sufficient, conditions for safety.
119
392430
2002
necesarias, no las suficientes.
06:34
In other words,
120
394474
1751
En otras palabras,
06:36
they can prove the presence of risk,
121
396225
3671
pueden demostrar la presencia de riesgo,
06:39
not the absence of risk.
122
399938
2168
no la ausencia de riesgo.
06:42
So let's up our game, alright?
123
402148
2544
Así que mejoremos en eso, ¿de acuerdo?
06:44
Try to see how we can make provably safe AI that we can control.
124
404692
5631
Intenten pensar cómo podemos crear una IA que sea demostrablemente segura y que
podamos controlar.
06:50
Guardrails try to physically limit harm.
125
410323
5047
Los barandales intentan limitar físicamente el daño,
06:55
But if your adversary is superintelligence
126
415828
2211
pero si tu oponente es la superinteligencia,
o un humano que usa la superinteligencia en tu contra,
06:58
or a human using superintelligence against you, right,
127
418081
2544
07:00
trying is just not enough.
128
420625
1960
entonces intentarlo no es suficiente.
07:02
You need to succeed.
129
422585
1877
Debes tener éxito.
07:04
Harm needs to be impossible.
130
424504
2169
El daño tiene que ser imposible.
07:06
So we need provably safe systems.
131
426714
2544
Por lo tanto, necesitamos sistemas que se demuestre que son seguros.
07:09
Provable, not in the weak sense of convincing some judge,
132
429258
3838
Demostrables, no en el sentido débil de convencer a un juez,
07:13
but in the strong sense of there being something that's impossible
133
433137
3128
sino en el sentido de que hay algo que es literalmente imposible
07:16
according to the laws of physics.
134
436265
1585
según las leyes de la física.
07:17
Because no matter how smart an AI is,
135
437892
2002
Porque, por muy inteligente que sea una IA,
07:19
it can't violate the laws of physics and do what's provably impossible.
136
439936
4046
no puede violar las leyes de la física y hacer lo que es científicamente imposible.
07:24
Steve Omohundro and I wrote a paper about this,
137
444440
2836
Steve Omohundro y yo escribimos un artículo sobre esto,
07:27
and we're optimistic that this vision can really work.
138
447318
5005
y nos sentimos optimistas que esta visión podrá funcionar muy bien.
07:32
So let me tell you a little bit about how.
139
452323
2169
Así que permítanme contarles un poco sobre cómo hacerlo.
07:34
There's a venerable field called formal verification,
140
454993
4421
Hay un campo venerable llamado verificación formal,
07:39
which proves stuff about code.
141
459455
2127
que prueba cosas sobre el código.
07:41
And I'm optimistic that AI will revolutionize automatic proving business
142
461624
6548
Y tengo esperanzas de que la IA revolucionará el negocio de
las pruebas automáticas, al igual que la síntesis de programas,
07:48
and also revolutionize program synthesis,
143
468214
3337
es decir, la capacidad de escribir automáticamente código realmente bueno.
07:51
the ability to automatically write really good code.
144
471592
3254
07:54
So here is how our vision works.
145
474887
1585
Así es como funciona nuestra visión:
07:56
You, the human, write a specification
146
476472
4213
Tú, el ser humano, escribes una especificación
08:00
that your AI tool must obey,
147
480685
2711
que tu herramienta de inteligencia artificial debe cumplir,
08:03
that it's impossible to log in to your laptop
148
483438
2127
que es imposible iniciar sesión en tu computadora portátil
08:05
without the correct password,
149
485565
1793
sin la contraseña correcta,
08:07
or that a DNA printer cannot synthesize dangerous viruses.
150
487400
5714
o que una impresora de ADN no puede sintetizar virus peligrosos.
08:13
Then a very powerful AI creates both your AI tool
151
493156
5213
Entonces, una IA muy poderosa crea tu herramienta de IA
08:18
and a proof that your tool meets your spec.
152
498369
3837
y una prueba de que tu herramienta cumple con tus especificaciones.
08:22
Machine learning is uniquely good at learning algorithms,
153
502540
4254
El aprendizaje automático es especialmente bueno para aprenderse algoritmos,
08:26
but once the algorithm has been learned,
154
506836
2169
pero una vez que se ha aprendido,
puedes volver a implementarlo en una arquitectura computacional diferente
08:29
you can re-implement it in a different computational architecture
155
509047
3169
08:32
that's easier to verify.
156
512216
1627
que sea más fácil de verificar.
08:35
Now you might worry,
157
515344
1210
Quizás piensen,
08:36
how on earth am I going to understand this powerful AI
158
516554
3921
¿cómo diablos voy a entender esta poderosa IA,
08:40
and the powerful AI tool it built
159
520475
1626
la poderosa herramienta de IA que creó
08:42
and the proof,
160
522143
1126
y la prueba,
08:43
if they're all too complicated for any human to grasp?
161
523311
2794
si son demasiado complicadas para que cualquier humano las comprenda?
08:46
Here is the really great news.
162
526147
2127
Aquí están las noticias realmente buenas.
08:48
You don't have to understand any of that stuff,
163
528316
2461
No tienes que entender nada de eso,
08:50
because it's much easier to verify a proof than to discover it.
164
530818
5297
porque es mucho más fácil verificar una prueba que descubrirla.
08:56
So you only have to understand or trust your proof-checking code,
165
536115
5089
Por lo tanto, solo tiene que entender o confiar en su código de verificación,
09:01
which could be just a few hundred lines long.
166
541245
2211
que puede tener solo unos cientos de líneas.
09:03
And Steve and I envision
167
543498
2252
Steve y yo prevemos que esos verificadores de pruebas
09:05
that such proof checkers get built into all our compute hardware,
168
545750
4463
estén integrados en todo nuestro hardware de cómputo,
09:10
so it just becomes impossible to run very unsafe code.
169
550254
4213
por lo que será imposible ejecutar código muy inseguro.
09:14
What if the AI, though, isn't able to write that AI tool for you?
170
554509
5505
Sin embargo, ¿qué pasa si la IA no es capaz de escribir esa herramienta por ti?
09:20
Then there's another possibility.
171
560056
3795
Entonces hay otra posibilidad.
09:23
You train an AI to first just learn to do what you want
172
563851
3587
Entrenas a una IA para que primero aprenda a hacer lo que quieres
09:27
and then you use a different AI
173
567480
3337
y, después, utilizas una IA diferente
09:30
to extract out the learned algorithm and knowledge for you,
174
570858
3963
para extraer el algoritmo y los conocimientos aprendidos,
09:34
like an AI neuroscientist.
175
574862
2086
como un neurocientífico de IA.
09:37
This is in the spirit of the field of mechanistic interpretability,
176
577281
3879
Esto es el fundamento del campo de la interpretabilidad mecanicista,
09:41
which is making really impressive rapid progress.
177
581160
3253
que está progresando a una velocidad realmente impresionante.
09:44
Provably safe systems are clearly not impossible.
178
584455
3170
Evidentemente, los sistemas seguros y demostrables no son imposibles.
09:47
Let's look at a simple example
179
587625
1502
Veamos un ejemplo sencillo en el que primero
09:49
of where we first machine-learn an algorithm from data
180
589168
4630
aprendemos automáticamente un algoritmo a partir de los datos
09:53
and then distill it out in the form of code
181
593840
4254
y luego lo destilamos en forma de código
09:58
that provably meets spec, OK?
182
598136
2252
que cumple con las especificaciones, ¿sí?
10:00
Let’s do it with an algorithm that you probably learned in first grade,
183
600888
4922
Hagámoslo con un algoritmo que probablemente aprendiste en primer grado,
10:05
addition,
184
605810
1168
la adición,
10:07
where you loop over the digits from right to left,
185
607019
2503
donde recorres los dígitos de derecha a izquierda
10:09
and sometimes you do a carry.
186
609564
1793
y a veces sumas el dígito de la décima.
10:11
We'll do it in binary,
187
611357
1752
Lo haremos en binario,
10:13
as if you were counting on two fingers instead of ten.
188
613151
2752
como si contaras con dos dedos en lugar de con diez.
10:16
And we first train a recurrent neural network,
189
616279
3378
Y primero entrenamos una red neuronal recurrente,
10:19
never mind the details,
190
619657
2211
sin importar los detalles,
10:21
to nail the task.
191
621909
1418
para completar la tarea.
10:23
So now you have this algorithm that you don't understand how it works
192
623828
3253
Así que ahora tenemos este algoritmo que no entiendes cómo funciona
10:27
in a black box
193
627123
2753
en una caja negra
10:29
defined by a bunch of tables of numbers that we, in nerd speak,
194
629917
4463
definida por un grupo de tablas a las que nosotros los nerds
10:34
call parameters.
195
634380
1502
llamamos parámetros.
10:35
Then we use an AI tool we built to automatically distill out from this
196
635882
5297
Luego utilizamos una herramienta de IA creada para extraer automáticamente de ahí
10:41
the learned algorithm in the form of a Python program.
197
641179
3420
el algoritmo aprendido en forma de un programa de Python.
10:44
And then we use the formal verification tool known as Daphne
198
644640
4838
Y luego utilizamos la herramienta de verificación formal conocida como Daphne
10:49
to prove that this program correctly adds up any numbers,
199
649520
5422
para demostrar que este programa suma correctamente cualquier número,
10:54
not just the numbers that were in your training data.
200
654942
2503
no solo los números que estaban en tus datos de entrenamiento.
10:57
So in summary,
201
657778
1377
En resumen,
estoy convencido de que la IA demostrablemente segura es posible,
10:59
provably safe AI, I'm convinced is possible,
202
659155
3962
11:03
but it's going to take time and work.
203
663117
3003
pero va a llevar tiempo y trabajo.
11:06
And in the meantime,
204
666162
1209
Mientras tanto,
11:07
let's remember that all the AI benefits
205
667413
4254
recordemos que todos los beneficios
11:11
that most people are excited about
206
671709
3795
de la IA que entusiasman a la mayoría de la gente
11:15
actually don't require superintelligence.
207
675504
2628
en realidad no requieren la superinteligencia.
11:18
We can have a long and amazing future with AI.
208
678758
5005
Podemos tener un futuro largo y sorprendente con la IA.
11:25
So let's not pause AI.
209
685014
2169
Así que no hagamos una pausa en la IA.
11:28
Let's just pause the reckless race to superintelligence.
210
688476
4129
Solo hagamos una pausa en la peligrosa carrera hacia la superinteligencia.
11:32
Let's stop obsessively training ever-larger models
211
692980
4255
Dejemos de entrenar obsesivamente a modelos cada vez más grandes
11:37
that we don't understand.
212
697276
1669
que no entendemos.
11:39
Let's heed the warning from ancient Greece
213
699737
3212
Prestemos atención a la advertencia de la antigua Grecia
11:42
and not get hubris, like in the story of Icarus.
214
702949
3712
y no nos dejemos llevar por la arrogancia, como en la historia de Ícaro.
11:46
Because artificial intelligence
215
706702
2711
Porque la inteligencia artificial
11:49
is giving us incredible intellectual wings
216
709455
4463
nos está dando unas alas intelectuales increíbles
11:53
with which we can do things beyond our wildest dreams
217
713960
4045
con las que podemos hacer cosas más allá de nuestros sueños más descabellados
11:58
if we stop obsessively trying to fly to the sun.
218
718047
4379
si dejamos de intentar volar obsesivamente hacia el sol.
12:02
Thank you.
219
722802
1168
Gracias.
12:03
(Applause)
220
723970
5880
(Aplausos)
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7