Anil Seth: How your brain invents your "self" | TED

109,651 views ・ 2021-11-24

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

00:00
Transcriber:
0
0
7000
Traductor: Miki Murakami Revisor: Sebastian Betti
00:04
Who am I? Who is anyone, really?
1
4700
2960
¿Quién soy? ¿Quiénes somos en realidad?
Cuando me despierto en la mañana y abro mis ojos,
00:09
When I wake up in the morning and open my eyes,
2
9100
2240
00:11
a world appears.
3
11340
1480
aparece un mundo.
00:12
These days, since I've hardly been anywhere,
4
12860
2080
Últimamente, dado que casi no he salido,
00:14
it's a very familiar world:
5
14980
1360
es un mundo muy conocido:
00:16
there's the wardrobe beyond the end of the bed,
6
16380
2400
está el armario frente a la cama,
00:18
the shuttered windows and the shrieking of seagulls,
7
18780
2840
las ventanas cerradas y los gritos de las gaviotas,
00:21
which drives Brighton residents like me absolutely crazy.
8
21660
3560
que, como a mí, sin duda vuelven locos a los habitantes de Brighton.
00:26
But even more familiar is the experience of being a self,
9
26100
3600
Pero la experiencia de ser una persona es incluso más conocida,
00:29
of being me,
10
29740
1520
de ser yo,
00:31
that glides into existence at almost the same time.
11
31260
3840
lo cual fluye en la existencia casi al mismo tiempo.
00:35
Now this experience of selfhood is so mundane
12
35620
3600
Esta experiencia de ser uno mismo es tan trivial
00:39
that its appearance, usually, just happens without us noticing at all.
13
39260
5320
que, normalmente, solo aparece sin que nos demos cuenta.
00:45
We take our selves for granted,
14
45100
2240
Damos por sentado nuestro ser,
00:47
but we shouldn't.
15
47340
1160
aunque no deberíamos.
00:49
How things seem is not how they are.
16
49220
2840
Las cosas no son lo que parecen.
00:52
For most of us, most of the time,
17
52700
1600
Casi siempre, para la mayoría,
00:54
it seems as though the self, your self, is an enduring and unified entity --
18
54300
6160
parece que el ser, tu ser, fuese una entidad duradera y unificada.
01:00
in essence, a unique identity.
19
60500
2320
En esencia, una identidad única.
01:03
Perhaps it seems as though the self is the recipient
20
63220
2560
Quizás parece que el ser es el recipiente
01:05
of wave upon wave of perceptions,
21
65820
3200
de oleadas y oleadas de percepciones,
01:09
as if the world just pours itself into the mind
22
69020
3120
como si el mundo se vertiera en la mente
01:12
through the transparent windows of the senses.
23
72180
2600
a través de las ventanas transparentes de los sentidos.
01:14
Perhaps it seems as though the self is the decision-maker in chief,
24
74780
4760
Quizás parece que el ser es el responsable de tomar decisiones,
01:19
deciding what to do next and then doing it,
25
79580
2440
que decide qué hacer después y lo hace;
01:22
or, as the case may be, doing something else.
26
82020
2520
o, según sea el caso, hace otra cosa.
01:25
We sense, we think and we act.
27
85140
3160
Nosotros sentimos, pensamos y actuamos.
01:28
This is how things seem.
28
88780
1600
Así es como se ven las cosas.
01:31
How things are is very different,
29
91660
2640
La realidad es muy diferente.
01:34
and the story of how and why this is so
30
94340
2320
La historia del cómo y por qué
01:36
is what I want to give you a flavor of today.
31
96700
2720
es lo que quiero compartirles hoy.
01:40
In this story, the self is not the thing that does the perceiving.
32
100260
5000
En esta historia, el ser no es lo que percibe.
01:45
The self is a perception too,
33
105260
1680
El ser también es una percepción,
01:46
or rather, it's the collection of related perceptions.
34
106980
3680
o, mejor dicho, es una colección de percepciones relacionadas.
01:51
Experiences of the self and of the world
35
111580
3240
Las experiencias del ser y el mundo
01:54
turn out to be kinds of controlled hallucinations,
36
114820
3600
resultan ser tipos de alucinaciones controladas.
01:58
brain-based best guesses
37
118460
1600
Son las mejores suposiciones del cerebro,
02:00
that remain tied to the world and the body
38
120100
2600
que permanecen atadas al mundo y al cuerpo
02:02
in ways determined not by their accuracy,
39
122740
3160
de formas que no se determinan por su precisión,
02:05
but by their utility,
40
125940
1720
sino por su uso
02:07
by their usefulness for the organism in the business of staying alive.
41
127700
4720
y la utilidad del organismo en su trabajo de mantenerse vivo.
02:13
Now the basic idea is quite simple,
42
133860
1960
La idea principal es bastante simple
02:15
and it goes back a very long way in both science and philosophy --
43
135860
3160
y se remonta muy en el pasado en la ciencia y la filosofía.
De hecho, se remonta hasta Platón
02:19
all the way back, in fact, to Plato
44
139020
2480
02:21
and to the shadows cast by firelight on the walls of a cave,
45
141540
4040
y las sombras de la luz del fuego en las paredes de una cueva,
02:25
shadows which the prisoners within took to be the real world.
46
145620
3680
las cuales los prisioneros aceptaron como el mundo real.
02:30
Raw sensory signals,
47
150380
1920
Las señales sensoriales sin procesar,
02:32
the electromagnetic waves that impinge upon our retinas,
48
152300
2880
las ondas electromagnéticas que afectan nuestras retinas,
02:35
the pressure waves that assault our eardrums, and so on,
49
155220
3560
las ondas de presión que asaltan nuestros tímpanos, etcétera,
02:38
well, they're always ambiguous and uncertain.
50
158780
3080
siempre son ambiguas e inciertas.
02:41
Although they reflect really existing things in the world,
51
161900
3880
A pesar de que reflejan cosas que existen en el mundo,
02:45
they do so only indirectly.
52
165820
2280
lo hacen solo de forma indirecta.
02:48
The eyes are not transparent windows from a self out onto a world,
53
168700
4080
Los ojos no son ventanas transparentes de un ser hacia un mundo,
02:52
nor are the ears,
54
172820
1240
ni las orejas,
ni ninguno de nuestros sentidos.
02:54
nor are any of our senses.
55
174060
1920
02:55
The perceptual world that arises for us in each conscious moment --
56
175980
4120
El mundo perceptivo que surge en cada momento de consciencia,
03:00
a world full of objects and people,
57
180140
2240
un mundo lleno de objetos y personas
03:02
with properties like shape, color and position --
58
182380
3680
con características como las formas, los colores y las posiciones,
03:06
is always and everywhere created by the brain,
59
186100
3240
lo crea el cerebro en todo momento y lugar
03:09
through a process of what we can call “inference,”
60
189380
3520
mediante un proceso al que llamamos “inferencia”,
03:12
of under-the-hood, neurally implemented brain-based best guessing.
61
192900
4080
de las mejores suposiciones implementadas neurológicamente en el cerebro.
03:17
Now ...
62
197780
1240
Ahora...
03:19
Here's a red coffee cup.
63
199060
1720
Esta es una taza roja de café.
03:22
When I see this red coffee cup, when I consciously see it,
64
202380
4360
Cuando veo esta taza roja de café, de forma consciente,
03:26
that's because "red coffee cup" is my brain's best guess
65
206780
3600
lo hago porque “taza roja de café” es la mejor suposición de mi cerebro
03:30
of the hidden and ultimately unknowable sensory signals that reach my eyes.
66
210420
5120
de las señales sensoriales escondidas y desconocidas que llegan a mis ojos.
03:36
And just think about the redness itself, for a moment.
67
216580
3200
Solo piensen en el color rojo por un momento.
03:39
Does the color red exist in the world?
68
219820
2440
¿El color rojo existe en el mundo?
03:42
No, it doesn't.
69
222300
1200
No, y no necesitamos la neurociencia para saberlo.
03:43
And we don't need neuroscience to tell us this.
70
223500
2200
Newton descubrió hace mucho que todos los colores que experimentamos,
03:45
Newton discovered long ago that all the colors we experience,
71
225740
2920
03:48
the rainbow of the visible spectrum,
72
228700
1840
el arcoíris del espectro visible,
03:50
are based on just a few wavelengths of electromagnetic radiation,
73
230540
3720
se basan solo en un par de frecuencias de radiación electromagnética,
03:54
which itself is, of course, entirely colorless.
74
234260
3240
que, en sí, por supuesto, es completamente incoloro.
Para el ser humano,
03:58
For us humans,
75
238060
1160
un completo universo de colores se genera a partir de solo tres de estas frecuencias
03:59
a whole universe of color is generated from just three of these wavelengths,
76
239220
6040
04:05
corresponding to the three types of cells in our retinas.
77
245580
3200
que corresponden a tres tipos de células cono en nuestras retinas.
04:09
Color-wise, this thin slice of reality, this is where we live.
78
249580
5240
En cuanto al color, es en este fino pedazo de realidad donde vivimos.
04:14
Our experience of color --
79
254860
1400
Nuestra experiencia con el color,
04:16
indeed, our experience of anything --
80
256300
2680
de hecho, nuestra experiencia con cualquier cosa,
04:18
is both less than and more than whatever the real world really is.
81
258980
4840
es menos y más de lo que sea que el mundo real es.
04:25
Now what's happening when we experience color
82
265220
2200
Lo que sucede cuando experimentamos colores
04:27
is that the brain is tracking an invariance,
83
267420
2200
es que el cerebro rastrea una invariabilidad,
04:29
a regularity in how objects and surfaces reflect light.
84
269660
6480
una regularidad en la forma en que los objetos y superficies reflejan la luz.
04:36
It's making a best guess,
85
276140
1280
Se hace la mejor suposición, de arriba abajo y de adentro a afuera,
04:37
a top-down, inside-out prediction,
86
277420
2240
04:39
about the causes of the relevant sensory signals,
87
279660
2360
de lo que causa las señales sensoriales relevantes y su contenido.
04:42
and the content of that prediction --
88
282020
2000
04:44
that's what we experience as red.
89
284060
2600
Eso es lo que experimentamos como rojo.
04:48
Does this mean that red is in the brain, rather than the world?
90
288180
4160
¿Esto significa que el rojo está en el cerebro y no en el mundo?
04:52
Well, no.
91
292380
1880
Bueno, no.
04:54
The experience of redness requires both the world and a brain,
92
294260
4120
Esa experiencia del rojo requiere tanto del mundo como de un cerebro.
04:58
unless you're dreaming, but let's not worry about that for now.
93
298420
3080
A menos que estés soñando, pero no nos preocupemos por eso ahora.
05:01
Nothing in the brain is actually red.
94
301540
2480
Nada en el cerebro es rojo.
05:04
Cézanne, the great impressionist painter,
95
304780
2040
Cézanne, el gran pintor impresionista,
05:06
once said that color is where the brain and the universe meet.
96
306860
4320
una vez dijo que el color es donde el cerebro y el universo se encuentran.
05:11
Now the upshot of all this
97
311900
1280
Como resultado,
05:13
is that perceptual experience is what I've come to call,
98
313180
2720
la experiencia perceptiva es lo que he terminado llamando,
05:15
drawing on the words of others,
99
315940
1600
basándome en las palabras de otros,
05:17
a “controlled hallucination.”
100
317540
2120
una “alucinación controlada”.
05:20
Now this is a tricky term, prone to misunderstandings,
101
320300
3080
Este es un término complicado que tiende a malentenderse,
05:23
so let me be clear.
102
323380
1280
así que lo dejaré en claro.
05:24
What I mean is that the brain is continuously generating predictions
103
324700
4320
Lo que quiero decir es que el cerebro genera predicciones de forma continua
05:29
about the causes of sensory signals,
104
329060
2320
sobre las causas de las señales sensoriales,
05:31
whether these come from the world or from the body,
105
331380
3200
ya sea si provienen del mundo o del cuerpo.
05:34
and the sensory signals themselves serve as prediction errors,
106
334580
3720
Estas mismas señales sensoriales sirven como errores de predicción.
05:38
reporting a difference
107
338340
1160
Reportan una diferencia
05:39
between what the brain expects and what it gets,
108
339500
3280
entre lo que el cerebro espera y lo que recibe
05:42
so that the predictions can be continuously updated.
109
342820
3520
para que las predicciones puedan actualizarse de forma continua.
05:47
Perception isn't a process of reading out sensory signals
110
347500
4080
La percepción no es un proceso en el que se leen señales sensoriales
05:51
in a bottom-up or outside-in direction.
111
351580
3120
de abajo hacia arriba y de afuera hacia adentro.
05:54
It's always an active construction,
112
354700
2440
Siempre es una construcción activa:
05:57
an inside-out, top-down neuronal fantasy
113
357180
3560
una fantasía neuronal que va de adentro a afuera y de arriba abajo,
06:00
that is yoked to reality
114
360780
1320
y que se une a la realidad
06:02
in a never-ending dance of prediction and prediction error.
115
362100
4000
en un baile interminable de predicciones y errores de predicción.
06:07
Now I call this process controlled hallucination
116
367100
2400
Yo llamo a este proceso alucinación controlada
06:09
to emphasize just this point.
117
369540
1920
para enfatizar solo este punto.
Todas nuestras experiencias son construcciones activas
06:12
All of our experiences are active constructions
118
372020
2520
06:14
arising from within,
119
374540
1360
que surgen desde adentro.
06:15
and there's a continuity here,
120
375900
1560
Y hay una continuidad aquí,
06:17
between normal perception and what we typically call hallucination,
121
377460
4240
entre las percepciones normales y lo que normalmente llamamos alucinación,
06:21
where, for example, people might see or hear things that others don't.
122
381740
4800
en la cual las personas podrían ver u oír cosas que otras no pueden.
06:26
But in normal perception,
123
386580
1800
En la percepción normal,
06:28
the control is just as important as the hallucination.
124
388380
4400
el control es tan importante como la alucinación.
06:32
Our perceptual experiences are not arbitrary.
125
392820
3000
Nuestras experiencias perceptivas no son arbitrarias.
06:35
The mind doesn't make up reality.
126
395860
2520
La mente no inventa la realidad.
06:38
While experienced colors need a mind to exist,
127
398940
4680
Mientras que los colores necesitan una mente para existir,
06:43
physical things, like the coffee cup itself,
128
403660
2640
las cosas físicas, como la taza de café,
06:46
exist in the world whether we're perceiving them or not --
129
406300
2800
existen en el mundo, ya sea si lo percibimos o no.
06:49
it’s the way in which these things appear in our conscious experience
130
409140
4440
Es la forma en que estas cosas aparecen en nuestra experiencia consciente
06:53
that is always a construction,
131
413620
1880
que siempre es una construcción
06:55
always a creative act of brain-based best guessing.
132
415500
3480
y un acto creativo de la mejor suposición basada en el cerebro.
07:00
And because we all have different brains,
133
420060
2520
Y dado que todos tenemos cerebros diferentes,
07:02
we will each inhabit our own distinctive, personalized inner universe.
134
422580
5320
cada uno habitará en su propio, distintivo y personalizado universo interior.
07:09
Now I've digressed quite far from where we began,
135
429220
2400
Me he desviado bastante de donde comenzamos,
07:11
so let me end by returning to the self,
136
431620
2480
así que permítanme regresar al ser;
07:14
to the experience of being you,
137
434140
2040
a las experiencias de ser tú
07:16
or being me.
138
436220
1120
o ser yo.
07:17
They key idea here is that the experience of being a self,
139
437980
3360
La idea clave aquí es que la experiencia de ser una persona,
07:21
being any self,
140
441380
1160
cualquier persona,
07:22
is also a controlled hallucination, but of a very special kind.
141
442580
4120
también es una alucinación controlada, pero de un tipo muy especial.
07:27
Instead of being about the external world,
142
447020
2760
En lugar de ser acerca del mundo exterior,
07:29
experiences of selfhood are fundamentally about regulating and controlling the body.
143
449820
6600
las experiencias de ser uno mismo son sobre regular y controlar el cuerpo.
07:37
And what’s important here is that the experiences of being a self
144
457300
4200
Lo importante aquí es que las experiencias de ser una persona
07:41
are composed of many different parts
145
461500
1760
se componen de muchas partes diferentes
07:43
that normally hang together in a unified way,
146
463260
3080
que normalmente se mantienen juntos de forma unificada,
07:46
but which can come apart in, for instance, psychological or neurological disorders,
147
466380
6000
pero que se pueden separar, por ejemplo, en trastornos psicológicos o neurológicos.
07:52
There are experiences of being a continuous person over time,
148
472420
4080
Existen las experiencias de ser, con el tiempo, una persona
07:56
with a name and a set of memories
149
476500
2000
con un nombre y conjunto de recuerdos,
07:58
shaped by our social and cultural environments.
150
478540
3040
los cuales nuestro entorno social y cultural moldean.
08:02
There are experiences of free will,
151
482180
2800
Existen las experiencias de libre albedrío,
de intentar hacer algo
08:05
of intending to do something,
152
485020
1440
08:06
or of being the cause of things that happen.
153
486500
2080
o ser la causa de las cosas que suceden.
08:09
There are experiences of perceiving the world
154
489220
2240
Existen las experiencias de percibir el mundo
08:11
from a particular perspective, a first-person point of view.
155
491460
3640
desde una perspectiva particular: el punto de vista en primera persona.
08:15
And then, there are deeply embodied experiences,
156
495860
3400
Y también existen las experiencias profundamente incorporadas,
08:19
for instance of identifying with an object in the world
157
499260
2800
por ejemplo, la de identificarse con un objeto en el mundo
08:22
that is my body.
158
502100
1160
que sería mi cuerpo.
08:23
These hands, they're my hands.
159
503300
2160
Estas manos son mis manos.
08:25
And then, of emotion and mood.
160
505940
2680
Y también las de emociones y estados de ánimo.
08:28
And at the deepest-lying, most basal levels,
161
508660
3200
Y en el nivel más básico, en el más profundo,
08:31
experiences of simply being a living body,
162
511860
4160
está la experiencia de ser simplemente un cuerpo viviente,
08:36
of being alive.
163
516060
1360
de estar vivo.
08:38
Now my contention is that all these aspects of being a self
164
518540
4400
Mi opinión es que todos estos aspectos de ser una persona
08:42
are all perceptual predictions of various kinds.
165
522980
3600
son predicciones perceptivas de varios tipos.
08:46
And the most basic aspect of being any self
166
526620
2840
Y el aspecto más básico de ser cualquier persona
08:49
is that part of perception
167
529500
1720
es aquella parte de la percepción
08:51
which serves to regulate the interior of the body to keep you alive.
168
531260
5320
que sirve para regular el interior del cuerpo para mantenerse vivo.
08:57
And when you pull on this thread, many things follow.
169
537460
3200
Y cuando tiras de este hilo, muchas cosas suceden.
09:01
Everything that arises in consciousness is a perceptual prediction,
170
541500
4400
Todo lo que surge en la consciencia es una predicción perceptiva.
09:05
and all of our conscious experiences,
171
545900
2600
Todas nuestras experiencias conscientes,
09:08
whether of the self or of the world,
172
548540
2560
ya sean del ser o del mundo,
09:11
are all deeply rooted in our nature, as living machines.
173
551100
4320
tienen sus raíces profundas en nuestra naturaleza, como máquinas vivientes.
09:16
We experience the world around us and ourselves within it,
174
556020
4400
Experimentamos el mundo que nos rodea y a nosotros mismos en él
09:20
with, through and because of our living bodies.
175
560420
4200
con, mediante y debido a nuestros cuerpos que están vivos.
09:25
So who are you, really?
176
565980
1520
Así que, ¿quién eres en realidad?
09:28
Think of yourself as being like the color red.
177
568860
3280
Piensa en ti mismo como si fueras el color rojo.
09:32
You exist, but you might not be what you think you are.
178
572860
4080
Existes, pero podrías no ser quien crees que eres.
09:38
Thank you.
179
578820
1520
Gracias.
09:40
David Biello: A stand-in for the audience. Anil Seth: David is clapping.
180
580380
3480
David Biello: Un reemplazo del público. Anil Seth: David está aplaudiendo.
09:43
(Laughter)
181
583900
1280
(Risas)
09:45
AS: That makes me feel better. DB: It was great. Thank you for that.
182
585220
4120
AS: Eso me hace sentir mejor. DB: Fue genial, gracias.
09:49
I have to say that the thought of my brain floating around in a bony prison
183
589380
3720
Debo decir que la idea de mi cerebro flotando en una prisión de hueso
09:53
is a disturbing one.
184
593140
2000
es una idea perturbadora.
09:55
But how do all those billions and trillions of neurons
185
595180
6680
Pero, ¿cómo es que todos esos mil millones y billones de neuronas
10:01
give rise to this experience of consciousness,
186
601860
4080
dan lugar a esta experiencia de consciencia,
10:05
in your view?
187
605940
1160
en tu opinión?
10:07
AS: First, I mean, consciousness is experience,
188
607500
2400
AS: Primero, la consciencia es experiencia,
10:09
so I'd use the two terms synonymously there.
189
609940
3080
así que usaría los dos términos como sinónimos.
10:13
It's the same thing.
190
613060
2840
Son lo mismo.
10:15
And by the way,
191
615940
1480
Por cierto,
10:17
the idea of your brain wobbling around in its bony vault of a skull
192
617420
4560
la idea de tu cerebro tambaleándose en su bóveda de hueso, el cráneo,
10:21
is presumably less disturbing than it doing something else
193
621980
2760
es menos perturbador que si estuviese haciendo otra cosa
10:24
and doing something outside of the skull. (Laughter)
194
624780
2800
y estuviese haciendo algo fuera del cráneo. (Risas)
10:27
That would be the more worrying situation.
195
627580
2120
Esa sería una situación muy preocupante.
10:29
But the question, of course, this is the big question.
196
629740
2640
Pero esta es la gran pregunta.
Empezaste con una pregunta simple: “¿Cómo ocurre todo esto?”
10:32
You start off with a simple question, "How does it all happen?"
197
632420
2960
10:35
And this is why there is a long way to go here.
198
635420
3920
Esta es la razón por la que nos falta un largo camino por recorrer.
10:40
And there are, I think, two ways to approach this mystery.
199
640060
2760
Y hay, creo yo, dos formas de abordar este misterio.
10:42
So the fundamental question here is ...
200
642860
2320
La pregunta fundamental aquí es:
10:45
What is it about a physical mechanism,
201
645820
2320
¿Qué tiene el mecanismo físico,
10:48
in this case, a neurobiological mechanism,
202
648180
3000
en este caso, un mecanismo neurobiológico,
10:51
86 billion neurons and trillions of connections,
203
651180
3560
86 mil millones de neuronas y billones de conexiones,
10:54
that can generate any conscious experience?
204
654740
2840
que puede generar cualquier experiencia consciente?
10:57
Put that way, it seems extremely hard,
205
657580
1960
Dicho así, parece ser muy difícil,
10:59
because conscious experiences seem to be the kinds of things
206
659580
3160
porque las experiencias conscientes parecen ser el tipo de cosas
11:02
that cannot be explained in terms of mechanisms,
207
662780
2880
que no pueden ser explicadas en términos de mecanismos.
11:05
however complicated those mechanisms might be.
208
665660
2280
Sin importar la complejidad de esos mecanismos.
11:07
This is the intuition that David Chalmers famously called "the hard problem."
209
667980
5000
Esta es la intuición que David Chalmers famosamente llamó “el problema difícil”.
11:13
But my approach, as hinted at in this talk,
210
673020
3080
Pero mi enfoque, como se insinuó en esta charla,
11:16
is that we can characterize different properties of consciousness --
211
676100
4680
es que podemos describir diferentes propiedades de la consciencia:
11:20
what a perceptual experience is like,
212
680820
1960
cómo es la experiencia perceptiva,
11:22
what an experience of self is like,
213
682820
2920
cómo es la experiencia de un ser,
11:25
what the difference between sleep and wakefulness is like.
214
685740
3440
cuál es la diferencia entre el sueño y el insomnio.
11:29
And in each of those cases, we can tell a story
215
689180
2280
En cada caso, podemos contar una historia
11:31
about how neural mechanisms explain those properties.
216
691460
4640
sobre cómo los mecanismos neuronales explican esas propiedades.
11:36
In the part of the story we've touched on today,
217
696460
3480
En la parte de la historia de la que hablamos hoy,
11:39
it's all about predictive processing,
218
699980
1840
todo trata del procesamiento predictivo.
11:41
so the idea is that the brain really does encode within it
219
701820
3600
La idea es que el cerebro de verdad codifica en su interior
11:45
a sort of predictive generative model of the causes of signals from the world,
220
705460
4680
un tipo de modelo generador predictivo de las causas de las señales del mundo
11:50
and it's the content of those predictions
221
710180
2280
y es el contenido de esas predicciones
11:52
that constitutes our perceptual experience.
222
712460
3360
el que continúa nuestra experiencia perceptiva.
11:55
And as we sort of develop and test explanations like this,
223
715820
4520
Mientras más o menos desarrollamos y evaluamos explicaciones como esta,
12:00
the intuition is that this hard problem
224
720380
2640
la intuición es que este difícil problema, de cómo y porqué las neuronas,
12:03
of how and why neurons, or whatever it is, in the brain,
225
723060
3600
o lo que haya en el cerebro, puede generar experiencias conscientes.
12:06
can generate a conscious experience,
226
726660
1760
12:08
won't be solved directly -- it will be dissolved.
227
728460
2840
No se resolverá directamente, se disolverá.
12:11
It will gradually fade away and eventually vanish
228
731340
3520
Se desvanecerá gradualmente y al final desaparecerá
12:14
in a puff of metaphysical smoke.
229
734900
1680
en una nube de humo metafísica.
12:16
DB: Katarina wants to talk about anesthesia,
230
736580
4320
DB: Katarina quiere hablar sobre la anestesia,
12:20
that experience of having your consciousness kind of turned off.
231
740900
4480
la experiencia en la que tu consciencia está como apagada.
12:25
What do we know about this ability to switch a person off,
232
745420
3000
¿Qué sabemos sobre esta habilidad de desconectar a una persona
12:28
in a matter of seconds?
233
748420
1600
en cuestión de segundos?
12:30
What is actually happening there, do you think?
234
750020
2640
¿Qué piensas que ocurre aquí?
12:33
AS: Firstly, I think it's one of the best inventions of humanity, ever.
235
753140
4520
AS: Primero, pienso que es uno de los mejores inventos del ser humano.
12:37
The ability to turn people into objects and then back again into people --
236
757700
4160
La habilidad de convertir a las personas en objetos y luego de vuelta a personas.
12:41
I wouldn't want to live at a time in history without it.
237
761900
2960
No me gustaría vivir en un momento de la historia donde no existiese.
12:44
Whenever we have this, like,
238
764860
1360
Cuando alguien dice:
12:46
"Wouldn't it be nice to live in Greek antiquity or something,
239
766260
2880
“¿No sería bonito vivir en la antigua Grecia o algo así,
12:49
when people swum around, philosophizing, drinking wine?"
240
769180
2840
cuando la gente nadaba por ahí, filosofando y bebiendo vino?”
12:52
Yes, but what about anesthesia?
241
772020
2240
Sí, pero ¿y la anestesia? (Risas)
12:54
(Laughs)
242
774260
1000
Esa es mi respuesta.
12:55
That's my response.
243
775300
1240
12:56
It does work, this is a fantastic thing.
244
776580
2040
Funciona, es algo increíble.
12:58
How?
245
778660
1160
¿Cómo?
12:59
Here's an enormous opportunity for consciousness science,
246
779860
2840
Esta es una gran oportunidad para la ciencia de la consciencia,
13:02
because we know what anesthetics do at a very local level.
247
782740
4840
porque sabemos lo que los anestésicos hacen a un nivel muy local.
13:07
We know how they act on different molecules and receptors in the brain.
248
787580
5920
Sabemos cómo actúan sobre diferentes moléculas y receptores en el cerebro.
13:13
And of course, we know what ultimately happens,
249
793500
3200
Y, por supuesto, sabemos lo que sucede al final:
13:16
which is that people get knocked out.
250
796740
2000
las personas quedan inconscientes.
13:18
And by the way, it's not like going to sleep.
251
798740
2120
Por cierto, no es igual a dormir.
13:20
Under general anesthesia, you're really not there.
252
800860
2520
Bajo anestesia general, realmente no estás allí.
13:23
It's an oblivion comparable with the oblivion before birth
253
803420
4480
Es una inconsciencia similar con la de antes del nacimiento
13:27
or after death.
254
807900
1760
y después de la muerte.
13:30
So the real question is, "What is happening?"
255
810740
2320
La verdadera pregunta es: “¿Qué está pasando?”
13:33
How is the local action of anesthetics affect global brain dynamics
256
813060
5840
¿Cómo es que su acción local afecta la dinámica global del cerebro
13:38
so as to explain this disappearance of consciousness?
257
818940
3800
a fin de explicar la desaparición de la consciencia?
13:42
And to cut a long story very short, what seems to be happening
258
822780
4800
Para acortar la historia, lo que parece que sucede es que
13:47
is that the different parts of the brain
259
827620
3000
las distintas partes del cerebro
13:50
become functionally disconnected from each other,
260
830620
3200
se desconectan funcionalmente unas de otras,
13:53
and by that I mean, they speak to each other less.
261
833860
3800
y con ello me refiero a que hablan menos entre sí.
13:57
The brain is still active,
262
837660
1920
El cerebro sigue activo,
13:59
but communication between brain areas becomes disrupted in specific ways.
263
839620
5320
pero se interrumpe de formas específicas la comunicación entre áreas del cerebro.
14:04
and there’s still a lot we need to learn
264
844980
1920
Y todavía hay mucho por aprender
14:06
about the precise ways in which this disconnection happens --
265
846900
3840
sobre las formas precisas en las que esta desconexión ocurre.
14:10
what are the signatures of the loss of consciousness?
266
850780
3320
¿Cuáles son las señales de la pérdida de consciencia?
Existen diferentes tipos de anestésicos,
14:15
There are many different kinds of anesthetic,
267
855020
2240
pero no importa la variedad de anestésico que tomes,
14:17
but whichever variety of anesthetic you take,
268
857300
2120
14:19
when it works, this is what you see.
269
859420
2040
esto es lo que pasa cuando funciona.
14:21
DB: I think some folks such as Jasmine and more anonymous folks
270
861500
3920
DB: Creo que mucha gente como Jasmine y otras personas anónimas
14:25
are troubled by this idea that what I call red
271
865420
5160
están preocupadas por la idea de que lo que yo llamo rojo
14:30
might be a different color for you and for everyone else.
272
870580
3680
podría ser un color diferente para ti y para todos los demás.
14:34
Is there a way of knowing if we're all hallucinating reality
273
874300
5080
¿Existe una forma de saber si todos alucinamos la realidad
14:39
in a similar way or not?
274
879420
2720
de forma similar o no?
14:42
AS: Again, this is a lovely topic,
275
882620
1960
AS: De nuevo, este es un bonito tema
14:44
and it really gets to the heart of how I've been thinking
276
884620
4200
y realmente llega al fondo de
14:48
about perception,
277
888860
1160
cómo he estado pensando sobre la percepción, porque uno de sus aspectos
14:50
because one of the aspects of perception that I think is easy to overlook
278
890020
3480
que parece fácil de olvidar
14:53
is that the contents of perception seem real, right?
279
893500
5520
es que el contenido de la percepción parece real, ¿verdad?
14:59
The redness of this coffee cup,
280
899020
1760
El rojo de esta taza de café,
15:00
it seems to be a mind-independent,
281
900820
2920
parece ser una cualidad
15:03
really existing property of the external world.
282
903740
3200
independiente de la mente y que realmente existe en el mundo exterior.
15:07
Now, certain aspects of this coffee cup are mind-independent.
283
907340
3840
Algunos aspectos de esta taza de café son independientes de la mente.
15:11
Its solidity is mind-independent.
284
911180
2040
Su solidez es independiente de la mente.
15:13
If I throw it at you, David, across the Atlantic,
285
913260
3160
Si a ti, David, te lo lanzo al otro lado del Atlántico
15:16
and you don't see it coming, it will hit you in the head, it will hurt.
286
916420
3480
y no lo esperas, te va a caer en la cabeza y te va a doler.
15:19
That doesn't depend on you seeing it,
287
919940
1880
No depende de ti que lo veas,
15:21
but the redness does depend on a mind.
288
921820
3080
pero el rojo sí depende de la mente.
15:25
And to the extent that things depend on a mind,
289
925220
3400
Y en la medida en que las cosas dependen de la mente,
15:28
they're going to be different for each of us.
290
928660
3160
estas van a ser diferentes para cada uno de nosotros.
15:31
Now, they may not be that different.
291
931820
2120
Ahora, también podrían no ser tan diferentes.
15:33
In philosophy, there's this argument of the inverted spectrum,
292
933940
4480
En filosofía, existe una discusión sobre el espectro invertido.
15:38
so if I see red, is that the same as you seeing green or blue, let's say?
293
938420
4480
Si yo veo rojo, ¿es como si tú vieras verde o azul?
15:42
And we might never know.
294
942940
1320
Podríamos nunca saberlo.
15:44
I don't have that much truck with that particular thought experiment.
295
944300
3440
No tengo mucha noción con aquel particular experimento mental.
15:47
Like many thought experiments, it pushes things a little bit too far.
296
947740
4400
Al igual que muchos experimentos mentales, lleva las cosas un poco lejos.
15:52
I think the reality is that we see things like colors,
297
952180
3760
La realidad es que vemos cosas como los colores.
15:55
maybe we see them similar, but not exactly the same,
298
955980
3920
Tal vez los veamos de forma similar, pero no exactamente igual.
15:59
and we probably overestimate the degree of similarity
299
959900
4680
Y probablemente sobreestimamos el grado de similitud
16:04
between our perceptual worlds,
300
964620
1440
entre mundos perceptivos,
dado que están filtrados por el lenguaje.
16:06
because they're all filtered through language.
301
966100
3200
16:09
I mean, I just used the word “red,” and there are many shades of red;
302
969300
3240
Yo acabo de usar la palabra “rojo”, y hay otros tonos de rojo.
16:12
painters would say, "What red?"
303
972580
1920
Los pintores dirían: “¿Qué rojo?”
16:14
I remember when I was decorating my house,
304
974500
2080
Recuerdo cuando decoraba mi casa,
16:16
it's like, "I want to paint the walls white."
305
976580
2400
decía: “¿Quiero pintar las paredes de blanco?”
16:19
How many shades of white are there?
306
979020
2560
¿Cuántos tonos de blanco existen?
16:21
This is too many.
307
981620
1680
Son demasiados.
16:23
And they have weird names, which doesn't help.
308
983340
2160
Y tienen nombres extraños, lo cual no ayuda.
16:25
We will overestimate the similarity of our universe.
309
985540
3920
Sobreestimaremos la similitud de nuestros universos.
16:29
And I think it's a really interesting question,
310
989460
2360
Una pregunta bastante interesante es:
16:31
how much they do indeed diverge.
311
991820
1800
¿Qué tanto difieren?
16:33
You will probably remember this famous dress,
312
993620
2720
Probablemente, recordarás este famoso vestido.
16:36
this photo of a dress half the world saw as blue and black,
313
996380
3680
La foto de este vestido que la mitad del mundo vio como azul y negro,
16:40
and the other half saw as white and gold.
314
1000060
2640
y la otra mitad como blanco y dorado.
16:42
AS: You're a white and gold person? DB: Yeah, yeah.
315
1002700
4680
AS: ¿Tú lo viste blanco y dorado? DB: Sí, sí.
16:47
AS: I'm a blue and black person.
316
1007380
1600
AS: Yo, azul y negro.
Yo estaba en lo cierto. El vestido real es azul y negro.
16:49
I was right, the real dress is actually blue and black.
317
1009020
2640
16:51
(Laughter)
318
1011660
1200
(Risas)
16:52
AS: Never mind ...
319
1012860
1800
AS: No importa...
16:55
DB: We could argue about that.
320
1015180
2240
DB: Podríamos discutirlo...
16:57
AS: We couldn't. It really is blue and black.
321
1017460
2240
AS: No, de verdad es azul y negro.
16:59
I talked to the dress designer. The actual one is blue and black.
322
1019700
3320
Hablé con el diseñador del vestido. El vestido real es azul y negro.
17:03
There's no argument there.
323
1023020
1920
No hay nada de que discutir.
17:05
But the thing that made that so weird
324
1025980
2920
Lo que hizo que fuera tan raro
17:08
is that it's not that we vaguely see it as one color or the other,
325
1028940
4600
no fue que lo veamos ligeramente de un color u otro.
17:13
we really see that blueness and blackness or whiteness and goldness
326
1033540
3760
Sino que de verdad vemos el azul y negro o el blanco y dorado
17:17
as really existing in the world.
327
1037300
1640
como si de verdad existieran.
17:18
And that was an interesting lever
328
1038940
2800
Ese fue un interesante incentivo
17:21
into a recognition of how different our perceptual universes might be.
329
1041780
5000
para reconocer lo diferente que pueden ser nuestros universos perceptivos.
17:26
And in fact, a study we're doing at Sussex over the next year or two,
330
1046820
3840
De hecho, en un estudio que haremos en los próximos uno o dos años en Sussex,
17:30
we're trying to characterize the amount of perceptual diversity
331
1050660
5680
estamos intentando determinar la cantidad de diversidad perceptiva
17:36
that is just there to be discovered.
332
1056380
3120
que está justo aquí para ser descubierta.
17:39
We're usually only aware of it at the extremes,
333
1059500
2280
Normalmente, solo lo notamos en casos extremos.
17:41
people call things like neurodiversity,
334
1061820
2640
La gente habla de cosas como la neurodiversidad,
17:44
where people have experiences that are so different,
335
1064500
2880
que es cuando las personas experimentan cosas tan diferentes
17:47
they manifest in different behaviors.
336
1067380
2240
que muestran diferentes comportamientos.
17:49
But I think there's this, sort of, big dark matter
337
1069660
2480
Pero pienso que existe esta gran materia negra
17:52
of individual diversity in perception that we know very little about,
338
1072140
3400
de diversidad individual en la percepción y de la que sabemos muy poco,
17:55
but it's there.
339
1075540
1200
pero existe.
17:56
DB: I'm glad we could put to rest a major internet debate
340
1076740
3680
DB: Me alegra que hayamos podido darle fin a un gran debate de internet
18:00
and come down firmly on the blue and black side of things.
341
1080460
4880
y concluir firmemente que era azul y negro.
18:05
Daniella wants to know,
342
1085380
1240
Daniella pregunta:
18:06
"Could you explain how memory is involved in this perception of a self?"
343
1086660
4880
“¿Podría explicar cómo se involucra la memoria en la percepción del ser?”
AS: Al igual que existen varios aspectos diferentes de ser uno mismo,
18:13
AS: Just as there are many different aspects of selfhood,
344
1093060
3160
18:16
there are many different kinds of memory, too.
345
1096260
2440
también existen varios tipos diferentes de memoria.
18:18
I think colloquially, in everyday language,
346
1098740
2400
Creo que coloquialmente, en el lenguaje cotidiano,
18:21
when we talk about memory,
347
1101140
1360
al hablar de la memoria,
18:22
we often talk about autobiographical memory or episodic memory,
348
1102500
5320
a menudo hablamos de la memoria autobiográfica o memoria episódica.
18:27
like "What did I have for breakfast?"
349
1107860
1840
Por ejemplo: “¿Qué desayuné?”
18:29
"When did I last go for a walk?"
350
1109740
2800
“¿Cuándo fue la última vez que salí a caminar?”
18:32
These kinds of things.
351
1112540
1440
Este tipo de cosas.
“¿Cuándo fue la última vez que tuve el placer de hablar con David?”
18:34
"When did I last have the pleasure of talking to David?"
352
1114020
3320
18:37
These are the memories of things that pertain to me
353
1117340
3240
Estos son los recuerdos que forman parte de mí
18:40
as a continuous individual over time.
354
1120620
3120
como un individuo constante, con el tiempo.
18:43
That's one way in which memory plays into self,
355
1123740
3240
Esa es una manera en la que la memoria forma parte del ser.
18:47
and that part of memory can go away, and self remains --
356
1127020
4640
Esa parte de la memoria puede irse y el ser se queda.
18:51
back to the earlier point.
357
1131700
1240
En el punto anterior,
18:52
There's a famous case I talk about in the book,
358
1132940
2240
hay un caso conocido del que hablo en el libro.
18:55
of a guy called Clive Wearing,
359
1135220
1920
Es de un chico llamado Clive Wearing,
18:57
who had a brain disease, an encephalopathy,
360
1137180
4480
quien tuvo una enfermedad cerebral, una encefalopatía,
19:01
which basically obliterated his ability to lay down new autobiographical memories.
361
1141700
6600
que destruyó su habilidad para establecer nuevos recuerdos autobiográficos.
19:08
He lost his hippocampus,
362
1148660
1840
Perdió su hipocampo,
19:10
which is a brain region very important for this function.
363
1150540
3480
que es una región muy importante del cerebro para esta función.
19:14
His wife described it as him living in a permanent present tense,
364
1154020
5160
Su esposa lo describió como si él viviese permanentemente en el presente,
19:19
of between seven to 30 seconds.
365
1159220
2800
de entre siete a treinta segundos.
19:22
And then, everything was new.
366
1162060
1400
De ahí, todo era nuevo.
19:23
It's very, very difficult to put yourself in the shoes of somebody like that.
367
1163500
3720
Es muy, muy difícil ponerse en los zapatos de alguien así.
19:27
But other aspects of his self remained.
368
1167220
3200
Pero otros aspectos de su ser permanecieron.
19:30
But then, there are all sorts of other aspects of memory
369
1170980
2920
Pero también hay todo tipo de otros aspectos de la memoria
19:33
that probably also play into what it is to be you or to be me.
370
1173940
5720
que probablemente forman parte de lo que es ser tú o yo.
19:39
We have semantic memory.
371
1179700
2960
Nosotros tenemos memoria semántica. Simplemente sabemos cosas,
19:42
We just know things,
372
1182700
1240
19:43
like we know what the capital of France is, who the president is,
373
1183940
4520
por ejemplo, la capital de Francia o quién es el presidente.
19:48
I hope so, I don't know.
374
1188500
2080
O eso espero, no lo sé.
19:50
Sometimes, that's a good thing. Sometimes, that's not a good thing.
375
1190980
3160
A veces, es algo bueno. A veces, no es algo bueno.
Todas estas cosas que se codifican en la memoria
19:54
And all of these things that get encoded in memory
376
1194180
3280
19:57
shape our self too.
377
1197460
2320
moldean nuestro ser también.
19:59
And then finally, there's perceptual memory.
378
1199780
3640
Luego, finalmente, existe la memoria perceptiva.
20:03
It's not that experience is like a video recording that we can replay,
379
1203420
4720
La experiencia no es como un video que podamos reproducir,
20:08
but everything we experience changes the way we perceive things in the future,
380
1208180
4400
sino que lo que vivimos cambia la forma en que percibimos las cosas en el futuro;
20:12
and the way we perceive things is also, in my view,
381
1212620
2400
y pienso que la forma en que percibimos las cosas,
20:15
part of what it is to be a self.
382
1215060
1840
forma parte de ser una persona.
20:16
Actually, I just want to say,
383
1216940
1480
Solo decir,
una de las preguntas realmente interesantes
20:18
one of the really interesting questions here,
384
1218460
2120
20:20
and one of the things we're working on --
385
1220580
3120
y una de las cosas en la que trabajamos es-
20:23
Imagine a typical day.
386
1223700
4000
Imagina un día común.
20:27
You go through your typical day,
387
1227740
2720
Vives un día normal,
estás experimentando una oleada constante de información.
20:30
you're experiencing a continuous stream of inputs.
388
1230500
2640
20:33
Now you blink, of course, and so on, but more or less,
389
1233140
2800
Parpadeas, por supuesto, etcétera, pero más o menos
20:35
there's this continuous stream of inputs.
390
1235980
2040
existe una oleada continua de información.
20:38
Yet when we remember a day,
391
1238020
2160
Pero cuando recordamos un día,
20:40
it's usually in chunks, these autobiographical chunks:
392
1240220
3640
es usualmente en fragmentos, fragmentos autobiográficos:
20:43
"I did this, I did that, I did the other, this happened."
393
1243900
3000
“Hice esto, hice aquello, hice lo otro, esto pasó“.
20:46
So a really important question
394
1246940
2240
Una pregunta muy importante es:
20:49
is, "How does this chunking process happen?"
395
1249180
3400
“¿Cómo es que este proceso de fragmentación ocurre?”
20:52
"How does the brain extract meaningful episodes
396
1252620
3720
“¿Cómo es que el cerebro extrae episodios importantes
20:56
from a relatively continuous flow of data?"
397
1256380
3560
de un flujo de datos relativamente continuo?”
20:59
And it's kind of disturbing,
398
1259980
1520
Es algo inquietante
21:01
how little of any given day we remember.
399
1261540
3240
lo poco que recordamos de cada día.
21:04
So it's a very selective process,
400
1264820
2000
Es un proceso muy selectivo
21:06
and that's something that I think is going to be useful
401
1266820
2640
y creo que es algo que será bastante útil no solo para la neurociencia básica,
21:09
not only for basic neuroscience,
402
1269500
1600
21:11
but, for instance, in helping people with memory loss and impairments,
403
1271100
3960
sino, por ejemplo, para ayudar a aquellos con pérdida o trastornos de memoria.
21:15
because you could, for instance, have a camera,
404
1275060
2200
Porque tú podrías tener una cámara
21:17
and then, you could predict what aspects of their day would constitute a memory,
405
1277300
3880
y podrías predecir los elementos del día que constituirían una memoria.
21:21
and that can be very, very useful for them and for their carers.
406
1281180
3200
Eso podría ser muy, muy útil para ellos y sus cuidadores.
21:24
DB: The brain clearly has a good editor.
407
1284420
3640
DB: El cerebro claramente tiene un buen editor.
21:28
You call us, people, "feeling machines" in your book.
408
1288100
5080
Tú nos llamas a las personas “máquinas que sienten” en tu libro.
21:33
Care to expand on that?
409
1293180
2320
¿Podrías profundizar en esto?
21:35
AS: Yeah, that's right.
410
1295540
1200
AS: Sí, así es.
21:36
Well, we're not cognitive computers, we are feeling machines.
411
1296740
3280
No somos ordenadores cognitivos, somos máquinas que sienten.
21:40
And I think this is true at the level of making decisions,
412
1300020
3360
Y creo que esto es cierto cuando se trata de tomar decisiones,
21:43
but for me, it's really at the heart of how to understand life,
413
1303420
5600
pero para mí, es el núcleo de cómo entender la vida,
21:49
mind and consciousness.
414
1309020
2160
la mente y la consciencia.
21:51
And this, really, is the idea that --
415
1311180
4000
Y esta es la idea en que...
21:55
In consciousness science, we tended to think things like vision --
416
1315180
3960
En la ciencia de la consciencia, solíamos pensar en cosas como la visión.
21:59
Vision as being the royal road to understanding consciousness.
417
1319180
3400
La visión es el camino real para entender la consciencia.
22:02
Vision is easy to study, and we're very visual creatures.
418
1322620
2720
La visión es fácil de estudiar y somos criaturas muy visuales.
22:05
But fundamentally,
419
1325820
1200
Pero, en esencia,
los cerebros evolucionan, se desarrollan y operan de momento en momento
22:07
brains evolved and develop and operate from moment to moment
420
1327020
4080
22:11
to keep the body alive,
421
1331140
1480
para mantener el cuerpo vivo.
22:12
always in light of this deep physiological imperative
422
1332620
3640
Siempre tiene en cuenta este profundo imperativo fisiológico
22:16
to help the organism persist in remaining an organism,
423
1336300
6000
para ayudar a que el organismo persista en mantener el organismo,
22:22
in remaining alive.
424
1342340
1720
en mantenerse vivo.
22:24
And that fundamental role of brains,
425
1344100
5640
Ese papel fundamental de los cerebros,
22:29
that's what, in my view, gave rise to any kind of perception.
426
1349780
4760
en mi opinión, eso es lo que produce cualquier tipo de percepción.
22:34
In order to regulate something,
427
1354540
1560
A fin de regular algo,
22:36
you need to be able to predict what happens to it.
428
1356100
2480
necesitas poder predecir lo que va a pasar.
22:38
It's this whole apparatus of prediction and prediction error
429
1358620
3520
Es todo este aparato de predicciones y errores de predicción
22:42
that undergirds all of our perceptual experiences,
430
1362180
2400
que sostiene todas nuestras experiencias perceptivas.
22:44
including the self,
431
1364580
1400
Incluso el ser
22:46
has its origin in this role
432
1366020
2800
tiene su origen en este papel
22:48
that's tightly coupled to the physiology of the body.
433
1368820
2920
que se asocia firmemente a la fisiología del cuerpo.
22:51
And that's why, I think, we're feeling machines,
434
1371740
2320
Por ello, pienso que somos máquinas que sienten.
22:54
we're not just computers
435
1374060
1960
No somos solo computadoras
22:56
that happen to be implemented on meat machines.
436
1376060
3360
que resultaron implementadas en máquinas de carne.
22:59
DB: Thank you, Anil, for chatting with us today.
437
1379460
2920
DB: Gracias, Anil, por conversar con nosotros hoy.
23:02
AS: Really enjoyed it.
438
1382380
1160
AS: Lo disfruté. Muchas gracias. DB: Gracias.
23:03
AS: Thanks a lot, David. DB: Thank you.
439
1383580
1840
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7