Will Superintelligent AI End the World? | Eliezer Yudkowsky | TED

280,597 views ・ 2023-07-11

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Ines Izquierdo Revisor: Sebastian Betti
00:04
Since 2001, I have been working on what we would now call
0
4334
3503
Desde 2001, he estado trabajando en lo que hoy llamaríamos
00:07
the problem of aligning artificial general intelligence:
1
7879
3629
el problema de la alineación de la inteligencia artificial general:
00:11
how to shape the preferences and behavior
2
11550
2085
cómo moldear las preferencias y la conducta
00:13
of a powerful artificial mind such that it does not kill everyone.
3
13677
4838
de una poderosa mente artificial de tal manera que no mate a todo el mundo.
00:19
I more or less founded the field two decades ago,
4
19224
3128
Fundé este campo hace dos décadas, más o menos,
cuando nadie más consideraba que trabajar en ello valiera la pena.
00:22
when nobody else considered it rewarding enough to work on.
5
22352
2794
Intenté poner en marcha este proyecto tan importante pronto
00:25
I tried to get this very important project started early
6
25146
2711
00:27
so we'd be in less of a drastic rush later.
7
27899
2544
así tendríamos menos prisas después.
00:31
I consider myself to have failed.
8
31069
2044
Me considero un fracasado.
00:33
(Laughter)
9
33154
1001
(Risas)
00:34
Nobody understands how modern AI systems do what they do.
10
34197
3337
Nadie entiende cómo los sistemas de IA modernos hacen lo que hacen.
00:37
They are giant, inscrutable matrices of floating point numbers
11
37576
2961
Son matrices gigantescas e inescrutables de números en coma flotantes
00:40
that we nudge in the direction of better performance
12
40579
2460
que impulsamos hacia un mejor rendimiento
hasta que inexplicablemente empiezan a funcionar.
00:43
until they inexplicably start working.
13
43039
2044
00:45
At some point, the companies rushing headlong to scale AI
14
45083
3378
En algún punto, las empresas que se lanza de cabeza a la IA
00:48
will cough out something that's smarter than humanity.
15
48461
2670
producirán algo que será más inteligente que la humanidad.
00:51
Nobody knows how to calculate when that will happen.
16
51131
2544
Nadie sabe cómo calcular cuándo va a ocurrir.
00:53
My wild guess is that it will happen after zero to two more breakthroughs
17
53675
3712
Mi suposición más descabellada es que ocurrirá después de uno o dos avances más
00:57
the size of transformers.
18
57429
1710
del tamaño de los Transformers.
00:59
What happens if we build something smarter than us
19
59139
2335
¿Y si creamos algo más inteligente que nosotros
01:01
that we understand that poorly?
20
61516
2377
sin apenas entenderlo?
01:03
Some people find it obvious that building something smarter than us
21
63935
3170
A algunos les resulta obvio que crear algo más inteligente que nosotros
sin entenderlo podría terminar muy mal.
01:07
that we don't understand might go badly.
22
67105
2294
01:09
Others come in with a very wide range of hopeful thoughts
23
69441
3879
Otros vienen con una gama muy amplia de pensamientos esperanzadores
01:13
about how it might possibly go well.
24
73361
2044
sobre cómo podría salir bien.
Aunque tuviera 20 minutos para dar esta charla
01:16
Even if I had 20 minutes for this talk and months to prepare it,
25
76281
3337
01:19
I would not be able to refute all the ways people find to imagine
26
79659
3087
no sería capaz de refutar todas las formas
que la gente halla para imaginar
01:22
that things might go well.
27
82746
1710
que las cosas pueden ir bien.
01:24
But I will say that there is no standard scientific consensus
28
84456
4546
Pero diré que no existe un consenso científico uniforme
sobre cómo irán bien las cosas.
01:29
for how things will go well.
29
89044
1668
01:30
There is no hope that has been widely persuasive
30
90712
2252
No hay ninguna esperanza que haya sido ampliamente persuasiva
01:33
and stood up to skeptical examination.
31
93006
1877
y vaya más allá del puro escepticismo.
01:35
There is nothing resembling a real engineering plan for us surviving
32
95592
4421
No hay nada parecido a un verdadero plan de ingeniería para que sobrevivamos
01:40
that I could critique.
33
100013
1710
al que podría criticar.
01:41
This is not a good place in which to find ourselves.
34
101765
2752
Este no es un buen lugar en el que encontrarnos.
01:44
If I had more time,
35
104517
1210
Si tuviera más tiempo,
01:45
I'd try to tell you about the predictable reasons
36
105727
2294
trataría de hablarles sobre las razones predecibles
01:48
why the current paradigm will not work
37
108063
1960
de por qué el paradigma actual no servirá
01:50
to build a superintelligence that likes you
38
110065
2460
para crear una superinteligencia a la que le caigas bien
01:52
or is friends with you, or that just follows orders.
39
112567
3378
o sea tu amiga, o que simplemente siga órdenes.
01:56
Why, if you press "thumbs up" when humans think that things went right
40
116613
4379
¿Por qué si pulsas “pulgares arriba” cuando los humanos piensan
02:01
or "thumbs down" when another AI system thinks that they went wrong,
41
121034
3712
o “pulgares abajo” cuando otro sistema de IA piensa que fueron mal
02:04
you do not get a mind that wants nice things
42
124788
3503
no consigues una mente que quiera cosas buenas
02:08
in a way that generalizes well outside the training distribution
43
128291
4004
de forma que se generalice bien fuera de la distribución de entrenamiento
hasta donde la IA es más inteligente que los entrenadores?
02:12
to where the AI is smarter than the trainers.
44
132337
2461
02:15
You can search for "Yudkowsky list of lethalities" for more.
45
135674
5130
Puedes buscar: “lista de formas en que podemos morir de Yudkowsky”
para más información.
02:20
(Laughter)
46
140804
1793
(Risas)
02:22
But to worry, you do not need to believe me
47
142597
2169
Pero, para preocuparse, no hace falta que me crean
02:24
about exact predictions of exact disasters.
48
144808
2878
en lo de predicciones exactas de catástrofes exactas.
02:27
You just need to expect that things are not going to work great
49
147727
2962
Sólo tienen que esperar que las cosas no van a funcionar muy bien
02:30
on the first really serious, really critical try
50
150730
3045
en el primer intento realmente serio y crítico
02:33
because an AI system smart enough to be truly dangerous
51
153817
3503
porque un sistema de IA lo bastante listo como para ser ciertamente peligroso
02:37
was meaningfully different from AI systems stupider than that.
52
157362
3503
era significativamente distinto a los sistemas de IA más estúpidos que él.
02:40
My prediction is that this ends up with us facing down something smarter than us
53
160907
5005
Mi predicción es que esto acaba con nosotros enfrentándonos a algo
más inteligente que nosotros
02:45
that does not want what we want,
54
165954
1752
que no quiere lo que nosotros queremos,
02:47
that does not want anything we recognize as valuable or meaningful.
55
167706
4170
que no quiere nada que reconozcamos como valioso o significativo.
No puedo predecir exactamente cómo sería un conflicto
02:52
I cannot predict exactly how a conflict between humanity and a smarter AI would go
56
172252
4588
entre la humanidad y una IA más inteligente
02:56
for the same reason I can't predict exactly how you would lose a chess game
57
176881
3838
por la misma razón por la que no puedo predecir exactamente
cómo perderías una partida de ajedrez
03:00
to one of the current top AI chess programs, let's say Stockfish.
58
180760
3671
contra uno de los mejores programas de ajedrez de IA actuales, como Stockfish.
03:04
If I could predict exactly where Stockfish could move,
59
184973
3545
Si pudiera predecir exactamente dónde podría mover Stockfish,
03:08
I could play chess that well myself.
60
188560
2544
yo mismo podría jugar así de bien al ajedrez.
No puedo predecir exactamente cómo perderás contra Stockfish,
03:11
I can't predict exactly how you'll lose to Stockfish,
61
191146
2502
03:13
but I can predict who wins the game.
62
193648
2044
pero sí quién ganará la partida.
No espero que algo realmente inteligente nos ataque con ejércitos de robots
03:16
I do not expect something actually smart to attack us with marching robot armies
63
196401
4421
marchando con ojos rojos incandescentes
03:20
with glowing red eyes
64
200864
1543
donde podría haber una película divertida sobre nosotros luchando contra ellos.
03:22
where there could be a fun movie about us fighting them.
65
202407
3086
03:25
I expect an actually smarter and uncaring entity
66
205535
2502
Espero que una entidad verdaderamente más inteligente e insensible
03:28
will figure out strategies and technologies
67
208079
2002
descubra estrategias y tecnologías
03:30
that can kill us quickly and reliably and then kill us.
68
210123
3545
que puedan matarnos de forma rápida y fiable y entonces nos mate.
03:34
I am not saying that the problem of aligning superintelligence
69
214461
2919
No estoy diciendo que el problema de alinear superinteligencias
03:37
is unsolvable in principle.
70
217422
1710
sea irresoluble por principio.
03:39
I expect we could figure it out with unlimited time and unlimited retries,
71
219174
4879
Supongo que podríamos averiguarlo con tiempo ilimitado
y reintentos ilimitados,
03:44
which the usual process of science assumes that we have.
72
224095
3796
algo que el proceso habitual de la ciencia supone que tenemos.
03:48
The problem here is the part where we don't get to say,
73
228308
2836
El problema aquí es la parte en la que no podemos decir,
03:51
“Ha ha, whoops, that sure didn’t work.
74
231186
2294
“Ja, ja, vaya, seguro que no ha funcionado”.
03:53
That clever idea that used to work on earlier systems
75
233521
3837
Esa idea inteligente que solía funcionar en sistemas anteriores
03:57
sure broke down when the AI got smarter, smarter than us.”
76
237358
3504
seguro que se vino abajo cuando la IA
se hizo más lista, más lista que nosotros”.
04:01
We do not get to learn from our mistakes and try again
77
241571
2544
No podemos aprender de nuestros errores e intentarlo de nuevo
04:04
because everyone is already dead.
78
244157
1960
porque ya están todos muertos.
04:07
It is a large ask
79
247076
2586
Es mucho pedir que
04:09
to get an unprecedented scientific and engineering challenge
80
249704
3003
un reto científico y de ingeniería sin precedentes
04:12
correct on the first critical try.
81
252707
2002
salga bien al primer intento crítico.
04:15
Humanity is not approaching this issue with remotely
82
255084
3045
La humanidad no está abordando esta cuestión ni remotamente
04:18
the level of seriousness that would be required.
83
258171
2711
con el nivel de seriedad que sería necesario.
04:20
Some of the people leading these efforts
84
260924
1918
Algunas de las personas que lideran estos esfuerzos
04:22
have spent the last decade not denying
85
262884
2502
se han pasado la última década no negando
04:25
that creating a superintelligence might kill everyone,
86
265386
2920
que la creación de una superinteligencia podría matarnos a todos,
04:28
but joking about it.
87
268306
1376
sino bromeando al respecto.
04:30
We are very far behind.
88
270183
1877
Nos estamos quedando muy atrás.
No es una brecha que podamos superar en seis meses,
04:32
This is not a gap we can overcome in six months,
89
272101
2294
04:34
given a six-month moratorium.
90
274437
1919
dada una moratoria de seis meses.
04:36
If we actually try to do this in real life,
91
276689
2503
Si realmente lo intentamos hacer esto en la vida real,
04:39
we are all going to die.
92
279234
1668
moriremos todos.
04:41
People say to me at this point, what's your ask?
93
281402
2586
La gente me dice a estas alturas, ¿cuál es tu pregunta?
04:44
I do not have any realistic plan,
94
284697
1627
No tengo ningún plan realista,
04:46
which is why I spent the last two decades
95
286324
1960
por eso pasé las últimas dos décadas
04:48
trying and failing to end up anywhere but here.
96
288326
2586
intentando y no consiguiendo acabar en cualquier lugar salvo aquí.
04:51
My best bad take is that we need an international coalition
97
291913
3670
Mi mejor mala opinión es que necesitamos una coalición internacional
04:55
banning large AI training runs,
98
295625
2252
que prohíba las grandes carreras de entrenamiento de la IA,
04:57
including extreme and extraordinary measures
99
297877
3379
incluyendo medidas extremas y extraordinarias
05:01
to have that ban be actually and universally effective,
100
301256
3253
para que esa prohibición sea realmente y universalmente eficaz,
05:04
like tracking all GPU sales,
101
304509
2377
como rastrear todas las ventas de GPU,
05:06
monitoring all the data centers,
102
306928
2127
monitorizar todos los centros de datos,
estar dispuesto a arriesgar un conflicto de bélico entre naciones
05:09
being willing to risk a shooting conflict between nations
103
309055
2711
05:11
in order to destroy an unmonitored data center
104
311808
2711
para destruir un centro de datos no vigilado
05:14
in a non-signatory country.
105
314561
1793
en un país no signatario.
05:17
I say this, not expecting that to actually happen.
106
317480
3170
Digo esto, sin esperar que realmente suceda.
05:21
I say this expecting that we all just die.
107
321109
2919
Digo esto esperando que todos muramos.
05:24
But it is not my place to just decide on my own
108
324779
3295
Pero no me corresponde a mí decidir por mi cuenta
05:28
that humanity will choose to die,
109
328074
2211
que la humanidad decidirá morir,
05:30
to the point of not bothering to warn anyone.
110
330326
2461
hasta el punto de no molestarme en avisar a nadie.
He oído que la gente de fuera de la industria tecnológica
05:33
I have heard that people outside the tech industry
111
333204
2336
05:35
are getting this point faster than people inside it.
112
335582
2627
está entendiendo este punto más rápido que la gente de dentro.
05:38
Maybe humanity wakes up one morning and decides to live.
113
338251
3712
Quizás la humanidad despierte una mañana y decida vivir.
05:43
Thank you for coming to my brief TED talk.
114
343006
2043
Gracias por venir a mi breve charla TED.
05:45
(Laughter)
115
345049
1585
(Risas)
05:46
(Applause and cheers)
116
346676
6965
(Aplausos y ovaciones)
05:56
Chris Anderson: So, Eliezer, thank you for coming and giving that.
117
356102
4421
Chris Anderson: Eliezer, gracias por venir y darla.
06:00
It seems like what you're raising the alarm about is that like,
118
360523
3962
Parece que sobre lo que estás levantado la alarma es que,
06:04
for this to happen, for an AI to basically destroy humanity,
119
364527
3962
para que esto suceda, para que un IA destruya básicamente a la humanidad,
06:08
it has to break out, escape controls of the internet and, you know,
120
368489
5172
tiene que fugarse, escapar de los controles de Internet y,
ya sabes,
06:13
start commanding actual real-world resources.
121
373661
2920
empezar a controlar los recursos propios del mundo real.
06:16
You say you can't predict how that will happen,
122
376581
2210
Dices que no puedes predecir cómo sucederá
06:18
but just paint one or two possibilities.
123
378833
3462
pero tan sólo dibuja una o dos posibilidades.
Eliezer Yudkowsky: OK, ¿por qué es tan difícil?
06:22
Eliezer Yudkowsky: OK, so why is this hard?
124
382337
2794
En primer lugar, porque no se puede predecir con exactitud
06:25
First, because you can't predict exactly where a smarter chess program will move.
125
385131
3837
dónde moverá un programa de ajedrez más inteligente.
06:28
Maybe even more importantly than that,
126
388968
1877
Quizás aún más importante que eso,
06:30
imagine sending the design for an air conditioner
127
390887
2794
Imagínense enviar el diseño de un aparato de aire acondicionado
06:33
back to the 11th century.
128
393723
1877
al siglo XI.
06:35
Even if they -- if it’s enough detail for them to build it,
129
395642
3128
Incluso si... si son suficientes detalles para que lo construyan,
06:38
they will be surprised when cold air comes out
130
398811
2753
se sorprenderán cuando salga aire frío
06:41
because the air conditioner will use the temperature-pressure relation
131
401564
3670
porque el aire acondicionado utilizará la relación temperatura-presión
06:45
and they don't know about that law of nature.
132
405276
2461
y ellos no conocen esa ley de la naturaleza.
06:47
So if you want me to sketch what a superintelligence might do,
133
407779
4629
Así que si quieres que esboce lo que una superinteligencia podría hacer,
06:52
I can go deeper and deeper into places
134
412450
2336
puedo ahondar cada vez más en espacios
06:54
where we think there are predictable technological advancements
135
414827
2962
donde creemos que hay avances tecnológicos predecibles
06:57
that we haven't figured out yet.
136
417789
1626
que aún no hemos imaginado.
06:59
And as I go deeper, it will get harder and harder to follow.
137
419415
2836
Y a medida que profundice, será cada vez más difícil de seguir.
07:02
It could be super persuasive.
138
422251
1961
Podría ser muy persuasivo.
Eso es relativamente fácil de entender.
07:04
That's relatively easy to understand.
139
424253
1877
No entendemos con exactitud cómo funciona el cerebro,
07:06
We do not understand exactly how the brain works,
140
426130
2545
07:08
so it's a great place to exploit laws of nature that we do not know about.
141
428716
3504
es un gran espacio para aprovechar leyes de la naturaleza desconocidas
07:12
Rules of the environment,
142
432261
1502
Normativa sobre el medio ambiente,
07:13
invent new technologies beyond that.
143
433805
2669
inventad nuevas tecnologías más allá de eso.
07:16
Can you build a synthetic virus that gives humans a cold
144
436808
3879
¿Se puede construir un virus sintético que cause un resfriado a los humanos
07:20
and then a bit of neurological change and they're easier to persuade?
145
440728
4213
y después un pequeño de cambio neurológico para que sean más fáciles de persuadir?
07:24
Can you build your own synthetic biology,
146
444941
3336
¿Puedes construir tu propia biología sintética,
07:28
synthetic cyborgs?
147
448319
1585
ciborgs sintéticos?
07:29
Can you blow straight past that
148
449946
2044
¿Puedes pasar directamente
07:31
to covalently bonded equivalents of biology,
149
451990
4004
a los equivalentes con enlace covalente de la biología,
donde en lugar de proteínas que se pliegan se mantienen unidos
07:36
where instead of proteins that fold up and are held together by static cling,
150
456035
3754
por aferramiento estático?
07:39
you've got things that go down much sharper potential energy gradients
151
459789
3378
¿disponemos de algo que descienda gradientes de la energía potencial
07:43
and are bonded together?
152
463209
1376
mucho más agudos y están unidas entre sí?
07:44
People have done advanced design work about this sort of thing
153
464585
3546
La gente ha hecho trabajo de diseño avanzado sobre este tipo de cosas
07:48
for artificial red blood cells that could hold 100 times as much oxygen
154
468172
3879
para glóbulos rojos artificiales que podría contener 100 veces más oxígeno
07:52
if they were using tiny sapphire vessels to store the oxygen.
155
472093
3754
si utilizaban pequeños recipientes de zafiro para almacenar el oxígeno.
07:55
There's lots and lots of room above biology,
156
475888
2586
Hay mucho, mucho espacio por encima de la biología,
07:58
but it gets harder and harder to understand.
157
478474
2211
pero cada vez es más difícil de entender.
08:01
CA: So what I hear you saying
158
481519
1543
CA: Así que lo que te oigo decir
08:03
is that these terrifying possibilities there
159
483104
2294
es que estas aterradoras posibilidades existen,
08:05
but your real guess is that AIs will work out something more devious than that.
160
485440
5130
pero tu suposición real es que las IAs idearán algo más enrevesado que eso.
08:10
Is that really a likely pathway in your mind?
161
490570
3837
¿Crees realmente que es una vía probable?
08:14
EY: Which part?
162
494407
1168
EY: ¿Qué parte?
08:15
That they're smarter than I am? Absolutely.
163
495616
2002
¿Que son más listos que yo? Por supuesto.
08:17
CA: Not that they're smarter,
164
497660
1418
CA: No es que sean más inteligentes,
08:19
but why would they want to go in that direction?
165
499078
3045
pero ¿por qué querrían ir en esa dirección?
08:22
Like, AIs don't have our feelings of sort of envy and jealousy and anger
166
502123
5422
Las IAs no tienen nuestros sentimientos de envidia, celos e ira...
08:27
and so forth.
167
507587
1168
etcétera.
08:28
So why might they go in that direction?
168
508755
2460
Entonces, ¿por qué podrían ir en esa dirección?
08:31
EY: Because it's convergently implied by almost any of the strange,
169
511215
4296
EY: Porque está implícito de forma convergente en casi cualquiera
de las cosas extrañas
08:35
inscrutable things that they might end up wanting
170
515511
3379
e inescrutables que podrían acabar queriendo
08:38
as a result of gradient descent
171
518931
1710
como resultado del descenso gradual
08:40
on these "thumbs up" and "thumbs down" things internally.
172
520683
2711
en esto de “pulgares arriba” y “pulgares abajo” a nivel interno.
08:44
If all you want is to make tiny little molecular squiggles
173
524604
3920
Si todo lo que quieres es hacer pequeños garabatos moleculares
08:48
or that's like, one component of what you want,
174
528566
2461
o eso es como un componente de lo que quieres,
08:51
but it's a component that never saturates, you just want more and more of it,
175
531069
3628
pero es un componente que nunca satura, sólo quieres más y más de eso,
08:54
the same way that we would want more and more galaxies filled with life
176
534697
3337
de la misma manera que querríamos más y más galaxias llenas de vida
08:58
and people living happily ever after.
177
538034
1793
y gente viviendo feliz para siempre.
08:59
Anything that just keeps going,
178
539869
1627
Cualquier cosa que siga avanzando,
09:01
you just want to use more and more material for that,
179
541537
3045
sólo quieres consumir más y más material para eso,
09:04
that could kill everyone on Earth as a side effect.
180
544624
2669
que podría matarnos a todos en la Tierra como efecto secundario.
09:07
It could kill us because it doesn't want us making other superintelligences
181
547293
3545
Podría matarnos porque no quiere que creemos otras superinteligencias
09:10
to compete with it.
182
550880
1168
que compitan con ella.
09:12
It could kill us because it's using up all the chemical energy on earth
183
552048
4379
Podría matarnos porque está agotando toda la energía química de la Tierra
09:16
and we contain some chemical potential energy.
184
556469
2586
y nosotros contenemos energía potencial química.
09:19
CA: So some people in the AI world worry that your views are strong enough
185
559055
6256
CA: Así que, algunas personas dentro del mundo de la IA
se preocupan de que tus opiniones son lo bastante firmes
09:25
and they would say extreme enough
186
565311
1585
e incluso extremistas
09:26
that you're willing to advocate extreme responses to it.
187
566896
3170
que estás dispuesto a proponer respuestas extremistas.
09:30
And therefore, they worry that you could be, you know,
188
570066
3462
Y por lo tanto, les preocupa que puedas ser, ya sabes,
09:33
in one sense, a very destructive figure.
189
573528
1918
en cierto sentido, una figura muy destructiva.
09:35
Do you draw the line yourself in terms of the measures
190
575488
3170
¿Trazas tú mismo la línea con respecto a las medidas
09:38
that we should take to stop this happening?
191
578699
2753
que deberíamos tomar para evitar que esto ocurra?
09:41
Or is actually anything justifiable to stop
192
581494
3253
¿O hay algo realmente justificable para impedir
09:44
the scenarios you're talking about happening?
193
584747
2211
que se produzcan los escenarios de los que hablas?
09:47
EY: I don't think that "anything" works.
194
587834
3253
EY: No creo que “nada” funcione.
09:51
I think that this takes state actors
195
591087
4379
Creo que esto requiere entidades públicas
09:55
and international agreements
196
595508
2753
y acuerdos internacionales
09:58
and all international agreements by their nature,
197
598302
3254
y todos los acuerdos internacionales, por su naturaleza,
10:01
tend to ultimately be backed by force
198
601556
1876
tienden a ser respaldados en última instancia por la fuerza
10:03
on the signatory countries and on the non-signatory countries,
199
603474
3379
sobre los países signatarios y sobre los países no signatarios,
10:06
which is a more extreme measure.
200
606894
1794
lo que constituye una medida más extrema.
10:09
I have not proposed that individuals run out and use violence,
201
609856
2961
No he propuesto que los individuos salgan corriendo y utilicen la violencia,
10:12
and I think that the killer argument for that is that it would not work.
202
612859
4337
y creo que el argumento asesino para ello es que no funcionaría.
10:18
CA: Well, you are definitely not the only person to propose
203
618489
2961
CA: Bueno, no es usted la única persona que propone
10:21
that what we need is some kind of international reckoning here
204
621450
4004
que lo que necesitamos es algún tipo de ajuste de cuentas internacional
10:25
on how to manage this going forward.
205
625496
2044
sobre cómo gestionar esto de ahora en adelante.
10:27
Thank you so much for coming here to TED, Eliezer.
206
627540
2419
Muchas gracias por venir a TED, Eliezer.
10:30
(Applause)
207
630001
2085
(Aplausos)
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7