Ray Kurzweil: Get ready for hybrid thinking

Ray Kurzweil: Prepárate para el pensamiento híbrido

521,726 views

2014-06-02 ・ TED


New videos

Ray Kurzweil: Get ready for hybrid thinking

Ray Kurzweil: Prepárate para el pensamiento híbrido

521,726 views ・ 2014-06-02

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Alejandra Guerrero Revisor: Máximo Hdez
00:12
Let me tell you a story.
0
12988
2316
Permítanme contarles una historia.
00:15
It goes back 200 million years.
1
15304
1799
Se remonta a hace 200 millones de años.
00:17
It's a story of the neocortex,
2
17103
1984
Es la historia del neocórtex,
00:19
which means "new rind."
3
19087
1974
que significa "nueva cáscara".
00:21
So in these early mammals,
4
21061
2431
Es en estos mamíferos primitivos,
00:23
because only mammals have a neocortex,
5
23492
2055
porque solo los mamíferos tienen neocórtex,
00:25
rodent-like creatures.
6
25547
1664
parecidos a los roedores.
00:27
It was the size of a postage stamp and just as thin,
7
27211
3579
Era del tamaño y tan delgado como una estampilla,
00:30
and was a thin covering around
8
30790
1439
y era una cobertura fina alrededor
00:32
their walnut-sized brain,
9
32229
2264
de su cerebro del tamaño de una nuez,
00:34
but it was capable of a new type of thinking.
10
34493
3701
pero era capaz de un nuevo tipo de pensamiento.
00:38
Rather than the fixed behaviors
11
38194
1567
En vez de los comportamientos fijos
00:39
that non-mammalian animals have,
12
39761
1992
que los animales no-mamíferos tienen,
00:41
it could invent new behaviors.
13
41753
2692
podía inventar nuevas conductas.
00:44
So a mouse is escaping a predator,
14
44445
2553
Entonces, si un ratón está escapando de un depredador,
00:46
its path is blocked,
15
46998
1540
y su camino está bloqueado,
00:48
it'll try to invent a new solution.
16
48538
2129
tratará de inventar una nueva solución.
00:50
That may work, it may not,
17
50667
1266
Puede funcionar o no,
00:51
but if it does, it will remember that
18
51933
1910
pero si funciona, lo recordará,
00:53
and have a new behavior,
19
53843
1292
tendrá una nueva conducta,
00:55
and that can actually spread virally
20
55135
1457
y se puede esparcir viralmente
00:56
through the rest of the community.
21
56592
2195
en el resto de su comunidad.
00:58
Another mouse watching this could say,
22
58787
1609
Otro ratón que vea esto dirá,
01:00
"Hey, that was pretty clever, going around that rock,"
23
60396
2704
"Hey, fue muy inteligente rodear esa roca",
01:03
and it could adopt a new behavior as well.
24
63100
3725
y puede adoptar esta nueva conducta también.
01:06
Non-mammalian animals
25
66825
1717
Los animales no-mamíferos
01:08
couldn't do any of those things.
26
68542
1713
no podían hacer esas cosas.
01:10
They had fixed behaviors.
27
70255
1215
Tenían conductas fijas.
01:11
Now they could learn a new behavior
28
71470
1331
Aprendían nuevas conductas,
01:12
but not in the course of one lifetime.
29
72801
2576
pero no en el transcurso de una vida.
01:15
In the course of maybe a thousand lifetimes,
30
75377
1767
En el transcurso de miles de vidas,
01:17
it could evolve a new fixed behavior.
31
77144
3330
podía evolucionar una nueva conducta fija.
01:20
That was perfectly okay 200 million years ago.
32
80474
3377
Eso estaba muy bien 200 millones de años atrás.
01:23
The environment changed very slowly.
33
83851
1981
Los cambios eran lentos.
01:25
It could take 10,000 years for there to be
34
85832
1554
Podía tomar 10 mil años que hubiera
01:27
a significant environmental change,
35
87386
2092
un cambio ambiental significativo,
01:29
and during that period of time
36
89478
1382
y durante ese tiempo
01:30
it would evolve a new behavior.
37
90860
2929
evolucionaría una nueva conducta.
01:33
Now that went along fine,
38
93789
1521
Eso funcionó bastante bien,
01:35
but then something happened.
39
95310
1704
pero luego algo ocurrió.
01:37
Sixty-five million years ago,
40
97014
2246
65 millones de años atrás,
01:39
there was a sudden, violent change to the environment.
41
99260
2615
hubo un cambio ambiental repentino y violento.
01:41
We call it the Cretaceous extinction event.
42
101875
3505
llamado la extinción masiva del Cretácico.
01:45
That's when the dinosaurs went extinct,
43
105380
2293
Fue cuando los dinosaurios se extinguieron,
01:47
that's when 75 percent of the
44
107673
3449
cuando el 75 % de
01:51
animal and plant species went extinct,
45
111122
2746
los animales y plantas se extinguieron,
01:53
and that's when mammals
46
113868
1745
y fue cuando los mamíferos
01:55
overtook their ecological niche,
47
115613
2152
dominaron su nicho ecológico,
01:57
and to anthropomorphize, biological evolution said,
48
117765
3654
y para antropomorfizarlo, la evolución dijo,
02:01
"Hmm, this neocortex is pretty good stuff,"
49
121419
2025
"Mmm, este neocórtex es algo muy bueno",
02:03
and it began to grow it.
50
123444
1793
y comenzó a hacerlo crecer.
02:05
And mammals got bigger,
51
125237
1342
Y los mamíferos crecieron,
02:06
their brains got bigger at an even faster pace,
52
126579
2915
sus cerebros crecieron aún más rápido,
02:09
and the neocortex got bigger even faster than that
53
129494
3807
y el neocórtex creció aún más rápido que eso
02:13
and developed these distinctive ridges and folds
54
133301
2929
y desarrolló sus arrugas y pliegues característicos
02:16
basically to increase its surface area.
55
136230
2881
básicamente para aumentar su área superficial.
02:19
If you took the human neocortex
56
139111
1819
Si tomaran el neocórtex humano
02:20
and stretched it out,
57
140930
1301
y lo estiraran,
02:22
it's about the size of a table napkin,
58
142231
1713
es como del tamaño de una servilleta,
02:23
and it's still a thin structure.
59
143944
1306
es una estructura delgada.
02:25
It's about the thickness of a table napkin.
60
145250
1980
Es como del grosor de una servilleta.
02:27
But it has so many convolutions and ridges
61
147230
2497
Pero tiene tantas arrugas
02:29
it's now 80 percent of our brain,
62
149727
3075
que ahora es el 80 % de nuestro cerebro,
02:32
and that's where we do our thinking,
63
152802
2461
y ahí es donde pensamos,
02:35
and it's the great sublimator.
64
155263
1761
y es el gran sublimador.
Aún tenemos el viejo cerebro,
02:37
We still have that old brain
65
157024
1114
02:38
that provides our basic drives and motivations,
66
158138
2764
que provee nuestras motivaciones e impulsos básicos,
02:40
but I may have a drive for conquest,
67
160902
2716
pero puedo tener un impulso de conquista
02:43
and that'll be sublimated by the neocortex
68
163618
2715
y será sublimado por el neocórtex
02:46
into writing a poem or inventing an app
69
166333
2909
en escribir un poema o inventar una app
02:49
or giving a TED Talk,
70
169242
1509
o dar una charla TED,
02:50
and it's really the neocortex that's where
71
170751
3622
y es realmente en el neocórtex
02:54
the action is.
72
174373
1968
donde está esa acción.
02:56
Fifty years ago, I wrote a paper
73
176341
1717
50 años atrás, escribí un artículo
02:58
describing how I thought the brain worked,
74
178058
1918
describiendo cómo creía que funcionaba el cerebro,
02:59
and I described it as a series of modules.
75
179976
3199
y lo describí como una serie de módulos.
03:03
Each module could do things with a pattern.
76
183175
2128
Cada módulo podía hacer cosas según un patrón.
03:05
It could learn a pattern. It could remember a pattern.
77
185303
2746
Podía aprender un patrón. Podía recordar un patrón.
03:08
It could implement a pattern.
78
188049
1407
Podía implementar un patrón.
03:09
And these modules were organized in hierarchies,
79
189456
2679
Y estos módulos estaban organizados en jerarquías,
03:12
and we created that hierarchy with our own thinking.
80
192135
2954
y creábamos la jerarquía con nuestro propio pensamiento.
03:15
And there was actually very little to go on
81
195089
3333
Y realmente había muy poco con lo que seguir
03:18
50 years ago.
82
198422
1562
50 años atrás.
03:19
It led me to meet President Johnson.
83
199984
2115
Me llevó a conocer al presidente Johnson.
03:22
I've been thinking about this for 50 years,
84
202099
2173
He estado pensando en esto por 50 años,
03:24
and a year and a half ago I came out with the book
85
204272
2828
y hace un año y medio escribí un libro
03:27
"How To Create A Mind,"
86
207100
1265
"Cómo crear una mente",
03:28
which has the same thesis,
87
208365
1613
que tiene la misma tesis,
03:29
but now there's a plethora of evidence.
88
209978
2812
pero ahora hay una plétora de evidencia.
03:32
The amount of data we're getting about the brain
89
212790
1814
La información que obtenemos sobre el cerebro
03:34
from neuroscience is doubling every year.
90
214604
2203
en neurociencia se duplica cada año.
03:36
Spatial resolution of brainscanning of all types
91
216807
2654
La resolución espacial de los escáneres cerebrales de todo tipo
03:39
is doubling every year.
92
219461
2285
se duplica cada año.
03:41
We can now see inside a living brain
93
221746
1717
Ahora podemos ver dentro de un cerebro vivo
03:43
and see individual interneural connections
94
223463
2870
y ver conexiones interneurales individuales
03:46
connecting in real time, firing in real time.
95
226333
2703
conectándose en tiempo real, disparando en tiempo real.
03:49
We can see your brain create your thoughts.
96
229036
2419
Podemos ver su cerebro crear sus pensamientos.
03:51
We can see your thoughts create your brain,
97
231455
1575
Podemos ver sus pensamientos crear su cerebro,
03:53
which is really key to how it works.
98
233030
1999
que es clave para cómo funciona.
03:55
So let me describe briefly how it works.
99
235029
2219
Así que déjenme describir cómo funciona brevemente.
03:57
I've actually counted these modules.
100
237248
2275
He contado estos módulos.
03:59
We have about 300 million of them,
101
239523
2046
Tenemos cerca de 300 millones de ellos,
04:01
and we create them in these hierarchies.
102
241569
2229
y los creamos en estas jerarquías.
04:03
I'll give you a simple example.
103
243798
2082
Les daré un ejemplo simple.
04:05
I've got a bunch of modules
104
245880
2805
Tengo un montón de módulos
04:08
that can recognize the crossbar to a capital A,
105
248685
3403
que pueden reconocer la barra cruzada de la letra A,
04:12
and that's all they care about.
106
252088
1914
y eso es todo lo que les interesa.
04:14
A beautiful song can play,
107
254002
1578
Puede sonar una linda canción,
04:15
a pretty girl could walk by,
108
255580
1434
puede pasar una linda chica,
04:17
they don't care, but they see a crossbar to a capital A,
109
257014
2846
no les importa, pero ven la barra de la letra A,
04:19
they get very excited and they say "crossbar,"
110
259860
3021
se entusiasman mucho y dicen "barra cruzada",
04:22
and they put out a high probability
111
262881
2112
y ponen una alta probabilidad
04:24
on their output axon.
112
264993
1634
en su axón de salida.
04:26
That goes to the next level,
113
266627
1333
Eso va al siguiente nivel,
04:27
and these layers are organized in conceptual levels.
114
267960
2750
y estas capas están organizadas en niveles conceptuales.
04:30
Each is more abstract than the next one,
115
270710
1856
Cada una es más abstracta que la anterior,
04:32
so the next one might say "capital A."
116
272566
2418
así, la siguiente puede decir "A mayúscula".
04:34
That goes up to a higher level that might say "Apple."
117
274984
2891
Eso sube a un nivel más alto que puede decir "Alce".
04:37
Information flows down also.
118
277875
2167
La información fluye hacia abajo también.
04:40
If the apple recognizer has seen A-P-P-L,
119
280042
2936
Si el reconocedor de alce ha visto A-L-C,
04:42
it'll think to itself, "Hmm, I think an E is probably likely,"
120
282978
3219
pensará, "Mmm, creo que una E es probable",
04:46
and it'll send a signal down to all the E recognizers
121
286197
2564
y enviará una señal a los reconocedores de E
04:48
saying, "Be on the lookout for an E,
122
288761
1619
diciendo, "Estén atentos a una E,
04:50
I think one might be coming."
123
290380
1556
creo que puede venir una".
04:51
The E recognizers will lower their threshold
124
291936
2843
Los reconocedores de E bajarán su umbral
04:54
and they see some sloppy thing, could be an E.
125
294779
1945
y ven algo borroso, que podría ser una E.
04:56
Ordinarily you wouldn't think so,
126
296724
1490
Normalmente no pensarían eso,
04:58
but we're expecting an E, it's good enough,
127
298214
2009
pero esperamos una E, es bastante buena,
05:00
and yeah, I've seen an E, and then apple says,
128
300223
1817
y sí, vi una E, y luego alce dice,
05:02
"Yeah, I've seen an Apple."
129
302040
1728
"Sí, vi un alce".
05:03
Go up another five levels,
130
303768
1746
Sube otros cinco niveles,
05:05
and you're now at a pretty high level
131
305514
1353
ya estás a un nivel bastante alto
05:06
of this hierarchy,
132
306867
1569
de jerarquía,
05:08
and stretch down into the different senses,
133
308436
2353
y acércate hacia los distintos sentidos,
05:10
and you may have a module that sees a certain fabric,
134
310789
2655
y puedes encontrar un módulo que ve una cierta tela,
05:13
hears a certain voice quality, smells a certain perfume,
135
313444
2844
escucha un cierto tipo de voz, huele cierto perfume,
05:16
and will say, "My wife has entered the room."
136
316288
2513
y dirá, "Mi esposa ha entrado en la habitación".
05:18
Go up another 10 levels, and now you're at
137
318801
1895
Sube otros 10 niveles, y estás ahora a
05:20
a very high level.
138
320696
1160
un nivel muy alto.
05:21
You're probably in the frontal cortex,
139
321856
1937
Probablemente estás en la corteza frontal,
05:23
and you'll have modules that say, "That was ironic.
140
323793
3767
y tendrás los módulos que dicen, "Eso fue irónico.
05:27
That's funny. She's pretty."
141
327560
2370
Eso es divertido. Ella es linda".
05:29
You might think that those are more sophisticated,
142
329930
2105
Podrías pensar que ésos son más sofisticados,
05:32
but actually what's more complicated
143
332035
1506
pero lo que es más complicado
05:33
is the hierarchy beneath them.
144
333541
2669
es la jerarquía bajo ellos.
05:36
There was a 16-year-old girl, she had brain surgery,
145
336210
2620
Había una niña de 16 años, tuvo una cirugía en el cerebro,
05:38
and she was conscious because the surgeons
146
338830
2051
y estuvo consciente porque los cirujanos
05:40
wanted to talk to her.
147
340881
1537
querían hablar con ella.
05:42
You can do that because there's no pain receptors
148
342418
1822
Se puede hacer porque no hay receptores de dolor
05:44
in the brain.
149
344240
1038
en el cerebro.
05:45
And whenever they stimulated particular,
150
345278
1800
Y cada vez que estimulaban
05:47
very small points on her neocortex,
151
347078
2463
pequeños puntos particulares en su neocórtex,
05:49
shown here in red, she would laugh.
152
349541
2665
los que se ven aquí en rojo, ella se reía.
05:52
So at first they thought they were triggering
153
352206
1440
Así creyeron que disparaban
05:53
some kind of laugh reflex,
154
353646
1720
algún tipo de reflejo de risa,
05:55
but no, they quickly realized they had found
155
355366
2519
pero no, se dieron cuenta de que habían encontrado
05:57
the points in her neocortex that detect humor,
156
357885
3044
los puntos en su neocórtex que detectan humor,
06:00
and she just found everything hilarious
157
360929
1969
y ella pensaba que todo era divertidísimo
06:02
whenever they stimulated these points.
158
362898
2437
cada vez que estimulaban esos puntos.
06:05
"You guys are so funny just standing around,"
159
365335
1925
"Uds. son tan divertidos parados ahí",
06:07
was the typical comment,
160
367260
1738
era el comentario típico,
06:08
and they weren't funny,
161
368998
2302
y ellos no eran divertidos,
06:11
not while doing surgery.
162
371300
3247
no mientras hacían la cirugía.
06:14
So how are we doing today?
163
374547
4830
Entonces, ¿cómo vamos hoy?
06:19
Well, computers are actually beginning to master
164
379377
3054
Los computadores están comenzando a dominar
06:22
human language with techniques
165
382431
2001
el lenguaje humano con técnicas
06:24
that are similar to the neocortex.
166
384432
2867
similares a las del neocórtex.
06:27
I actually described the algorithm,
167
387299
1514
Yo describí el algoritmo,
06:28
which is similar to something called
168
388813
2054
que es similar a algo llamado
06:30
a hierarchical hidden Markov model,
169
390867
2233
un modelo jerárquico oculto de Markov,
06:33
something I've worked on since the '90s.
170
393100
3241
algo en lo que he trabajado desde los 90.
06:36
"Jeopardy" is a very broad natural language game,
171
396341
3238
"Jeopardy" es un juego de lenguaje natural muy extenso,
06:39
and Watson got a higher score
172
399579
1892
y Watson alcanzó un puntaje más alto
06:41
than the best two players combined.
173
401471
2000
que los dos mejores jugadores combinados.
06:43
It got this query correct:
174
403471
2499
Logró acertar a esta pregunta:
06:45
"A long, tiresome speech
175
405970
2085
"Un largo, aburrido discurso
06:48
delivered by a frothy pie topping,"
176
408055
2152
dicho por una espumosa cobertura de pastel",
06:50
and it quickly responded, "What is a meringue harangue?"
177
410207
2796
y rápidamente respondió, "Qué es una arenga de merengue?"
06:53
And Jennings and the other guy didn't get that.
178
413003
2635
Y Jennings y el otro tipo no acertaron ésa.
06:55
It's a pretty sophisticated example of
179
415638
1926
Es un ejemplo bastante sofisticado de
06:57
computers actually understanding human language,
180
417564
1914
computadores entendiendo lenguaje humano,
06:59
and it actually got its knowledge by reading
181
419478
1652
y obtuvo su conocimiento leyendo
07:01
Wikipedia and several other encyclopedias.
182
421130
3785
Wikipedia y muchas otras enciclopedias.
07:04
Five to 10 years from now,
183
424915
2133
En 5 a 10 años,
07:07
search engines will actually be based on
184
427048
2184
los motores de búsqueda estarán basados en
07:09
not just looking for combinations of words and links
185
429232
2794
no solo buscar combinaciones de palabras y links
07:12
but actually understanding,
186
432026
1914
sino en realmente entender,
07:13
reading for understanding the billions of pages
187
433940
2411
leer para entender miles de millones de páginas
07:16
on the web and in books.
188
436351
2733
en la red y los libros.
07:19
So you'll be walking along, and Google will pop up
189
439084
2616
Así que estarás caminando, y Google aparecerá
07:21
and say, "You know, Mary, you expressed concern
190
441700
3081
y dirá, "Sabes, Mary, estabas preocupada
07:24
to me a month ago that your glutathione supplement
191
444781
3019
hace un mes de que tu suplemento de glutatión
07:27
wasn't getting past the blood-brain barrier.
192
447800
2231
no traspasaba la barrera hematoencefálica.
07:30
Well, new research just came out 13 seconds ago
193
450031
2593
Bien, una investigación apareció hace 13 segundos
07:32
that shows a whole new approach to that
194
452624
1711
que muestra un nuevo enfoque
07:34
and a new way to take glutathione.
195
454335
1993
y una nueva forma de tomar glutatión.
07:36
Let me summarize it for you."
196
456328
2562
Permíteme resumirla para ti".
07:38
Twenty years from now, we'll have nanobots,
197
458890
3684
En 20 años, tendremos nanobots,
07:42
because another exponential trend
198
462574
1627
porque otra tendencia exponencial
07:44
is the shrinking of technology.
199
464201
1615
es el encogimiento de la tecnología.
07:45
They'll go into our brain
200
465816
2370
Irán a nuestro cerebro
07:48
through the capillaries
201
468186
1703
a través de los capilares
07:49
and basically connect our neocortex
202
469889
2477
y básicamente conectarán nuestro neocórtex
07:52
to a synthetic neocortex in the cloud
203
472366
3185
a un neocórtex sintético en la nube
07:55
providing an extension of our neocortex.
204
475551
3591
dando una extensión a nuestro neocórtex.
07:59
Now today, I mean,
205
479142
1578
Hoy, quiero decir,
08:00
you have a computer in your phone,
206
480720
1530
tienen un computador en su teléfono,
08:02
but if you need 10,000 computers for a few seconds
207
482250
2754
pero si necesitan 10 000 computadores por unos segundos
08:05
to do a complex search,
208
485004
1495
para hacer una búsqueda compleja,
08:06
you can access that for a second or two in the cloud.
209
486499
3396
pueden acceder a ellos por 1 o 2 segundos en la nube
08:09
In the 2030s, if you need some extra neocortex,
210
489895
3095
En los 2030, si necesitan un poco de neocórtex extra,
08:12
you'll be able to connect to that in the cloud
211
492990
2273
podrán conectarse a él en la nube
08:15
directly from your brain.
212
495263
1648
directamente desde su cerebro.
08:16
So I'm walking along and I say,
213
496911
1543
Así que estoy caminando y digo,
08:18
"Oh, there's Chris Anderson.
214
498454
1363
"Ahí está Chris Anderson.
08:19
He's coming my way.
215
499817
1525
Viene hacia mí.
08:21
I'd better think of something clever to say.
216
501342
2335
Mejor pienso algo inteligente que decir.
08:23
I've got three seconds.
217
503677
1524
Tengo 3 segundos.
08:25
My 300 million modules in my neocortex
218
505201
3097
Mis 300 millones de módulos en mi neocórtex
08:28
isn't going to cut it.
219
508298
1240
no serán suficientes.
08:29
I need a billion more."
220
509538
1246
Necesito mil millones más".
08:30
I'll be able to access that in the cloud.
221
510784
3323
Podré acceder a ellos en la nube.
08:34
And our thinking, then, will be a hybrid
222
514107
2812
Y nuestro pensamiento, entonces, será un híbrido
08:36
of biological and non-biological thinking,
223
516919
3522
de pensamiento biológico y no-biológico,
08:40
but the non-biological portion
224
520441
1898
pero la porción no-biológica
08:42
is subject to my law of accelerating returns.
225
522339
2682
está sujeta a mi ley de retornos acelerados.
08:45
It will grow exponentially.
226
525021
2239
Crecerá exponencialmente.
08:47
And remember what happens
227
527260
2016
¿Y recuerdan qué paso
08:49
the last time we expanded our neocortex?
228
529276
2645
la última vez que expandimos nuestro neocórtex?
08:51
That was two million years ago
229
531921
1426
Eso fue hace 2 millones de años
08:53
when we became humanoids
230
533347
1236
cuando nos volvimos humanoides
08:54
and developed these large foreheads.
231
534583
1594
y desarrollamos estas grandes frentes.
08:56
Other primates have a slanted brow.
232
536177
2583
Otros primates tienen una frente inclinada.
08:58
They don't have the frontal cortex.
233
538760
1745
No tienen la corteza frontal.
09:00
But the frontal cortex is not really qualitatively different.
234
540505
3685
Pero la corteza frontal no es realmente cuantitativamente diferente.
09:04
It's a quantitative expansion of neocortex,
235
544190
2743
Es una expansión cuantitativa de nuestro neocórtex,
09:06
but that additional quantity of thinking
236
546933
2703
pero esa cantidad adicional de pensamiento
09:09
was the enabling factor for us to take
237
549636
1779
permitió que diéramos
09:11
a qualitative leap and invent language
238
551415
3346
un salto cualitativo e inventáramos el lenguaje
09:14
and art and science and technology
239
554761
1967
y el arte y la ciencia y la tecnología
09:16
and TED conferences.
240
556728
1454
y las conferencias TED.
09:18
No other species has done that.
241
558182
2131
Ninguna otra especie ha hecho esto.
09:20
And so, over the next few decades,
242
560313
2075
Y así, durante las próximas décadas,
09:22
we're going to do it again.
243
562388
1760
lo haremos de nuevo.
09:24
We're going to again expand our neocortex,
244
564148
2274
Expandiremos nuevamente nuestro neocórtex,
09:26
only this time we won't be limited
245
566422
1756
solo que esta vez no estaremos limitados
09:28
by a fixed architecture of enclosure.
246
568178
4280
por una arquitectura o envoltorio fijos.
09:32
It'll be expanded without limit.
247
572458
3304
Se expandirá sin límites.
09:35
That additional quantity will again
248
575762
2243
La cantidad adicional será nuevamente
09:38
be the enabling factor for another qualitative leap
249
578005
3005
el factor habilitante para otro salto cualitativo
09:41
in culture and technology.
250
581010
1635
en cultura y tecnología.
09:42
Thank you very much.
251
582645
2054
Muchas gracias.
09:44
(Applause)
252
584699
3086
(Aplausos)
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7