Daniel Wolpert: The real reason for brains

Daniel Wolpert: La verdadera razón del cerebro

342,126 views

2011-11-03 ・ TED


New videos

Daniel Wolpert: The real reason for brains

Daniel Wolpert: La verdadera razón del cerebro

342,126 views ・ 2011-11-03

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Andrea Pisera Revisor: Lidia Cámara de la Fuente
00:15
I'm a neuroscientist.
0
15260
2000
Soy neurocientífico.
00:17
And in neuroscience,
1
17260
2000
Y en neurociencia,
00:19
we have to deal with many difficult questions about the brain.
2
19260
3000
abordamos interrogantes muy complejos acerca del cerebro.
00:22
But I want to start with the easiest question
3
22260
2000
Pero quiero comenzar con el más sencillo,
00:24
and the question you really should have all asked yourselves at some point in your life,
4
24260
3000
es una pregunta que seguramente, alguna vez, se habrán hecho,
00:27
because it's a fundamental question
5
27260
2000
porque es una cuestión fundamental,
00:29
if we want to understand brain function.
6
29260
2000
si queremos comprender la función del cerebro.
00:31
And that is, why do we and other animals
7
31260
2000
Y es, ¿por qué nosotros y los demás animales
00:33
have brains?
8
33260
2000
tenemos cerebro?
00:35
Not all species on our planet have brains,
9
35260
3000
No todas las especies del planeta tienen cerebro,
00:38
so if we want to know what the brain is for,
10
38260
2000
entonces si queremos saber para qué sirven los cerebros,
00:40
let's think about why we evolved one.
11
40260
2000
pensemos por qué evolucionó el nuestro.
00:42
Now you may reason that we have one
12
42260
2000
Podrían plantear que esto se produjo
00:44
to perceive the world or to think,
13
44260
2000
para percibir el mundo y para pensar,
00:46
and that's completely wrong.
14
46260
2000
y eso es totalmente erróneo.
00:48
If you think about this question for any length of time,
15
48260
3000
Si lo piensan bien,
00:51
it's blindingly obvious why we have a brain.
16
51260
2000
es claramente evidente por qué tenemos un cerebro.
00:53
We have a brain for one reason and one reason only,
17
53260
3000
Tenemos cerebro por una razón y solo una razón.
00:56
and that's to produce adaptable and complex movements.
18
56260
3000
Y es para producir movimientos adaptativos y complejos.
00:59
There is no other reason to have a brain.
19
59260
2000
No hay otra razón para tener un cerebro.
01:01
Think about it.
20
61260
2000
Piénsenlo.
01:03
Movement is the only way you have
21
63260
2000
El movimiento es la única manera que tenemos
01:05
of affecting the world around you.
22
65260
2000
de modificar el mundo que nos rodea.
01:07
Now that's not quite true. There's one other way, and that's through sweating.
23
67260
3000
Eso no es del todo cierto; otra forma es a través del sudor.
01:10
But apart from that,
24
70260
2000
Pero además de eso,
01:12
everything else goes through contractions of muscles.
25
72260
2000
todo sucede a través de las contracciones musculares.
01:14
So think about communication --
26
74260
2000
Piensen en la comunicación:
01:16
speech, gestures, writing, sign language --
27
76260
3000
el habla, los gestos, la escritura, el lenguaje de señas;
01:19
they're all mediated through contractions of your muscles.
28
79260
3000
todos se deben a contracciones musculares.
01:22
So it's really important to remember
29
82260
2000
Por lo tanto, es muy importante recordar
01:24
that sensory, memory and cognitive processes are all important,
30
84260
4000
que todos los procesos de la memoria, sensoriales, y cognitivos son importantes,
01:28
but they're only important
31
88260
2000
pero sólo son importantes
01:30
to either drive or suppress future movements.
32
90260
2000
en la medida que impulsan o suprimen futuros movimientos.
01:32
There can be no evolutionary advantage
33
92260
2000
No podría tener una ventaja evolutiva
01:34
to laying down memories of childhood
34
94260
2000
poder establecer los recuerdos infantiles
01:36
or perceiving the color of a rose
35
96260
2000
o percibir el color de una rosa,
01:38
if it doesn't affect the way you're going to move later in life.
36
98260
3000
si no influyeran en las acciones futuras.
01:41
Now for those who don't believe this argument,
37
101260
2000
Para aquellos que no creen en esta argumentación,
01:43
we have trees and grass on our planet without the brain,
38
103260
2000
tenemos árboles y hierba sin cerebros,
01:45
but the clinching evidence is this animal here --
39
105260
2000
pero la evidencia contundente es este animal de aquí:
01:47
the humble sea squirt.
40
107260
2000
la humilde ascidia.
01:49
Rudimentary animal, has a nervous system,
41
109260
3000
Es un animal rudimentario; posee un sistema nervioso,
01:52
swims around in the ocean in its juvenile life.
42
112260
2000
y nada en el océano durante su juventud.
01:54
And at some point of its life,
43
114260
2000
Y en un momento de su vida,
01:56
it implants on a rock.
44
116260
2000
se implanta en una roca, a la que nunca más abandonará,
01:58
And the first thing it does in implanting on that rock, which it never leaves,
45
118260
3000
y lo primero que hace al implantarse,
02:01
is to digest its own brain and nervous system
46
121260
3000
es comerse su cerebro y el sistema nervioso,
02:04
for food.
47
124260
2000
para alimentarse.
02:06
So once you don't need to move,
48
126260
2000
Dado que no necesita moverse,
02:08
you don't need the luxury of that brain.
49
128260
3000
tampoco necesita el lujo de un cerebro.
02:11
And this animal is often taken
50
131260
2000
Y a este animal a menudo se lo suele comparar
02:13
as an analogy to what happens at universities
51
133260
2000
con los profesores universitarios
02:15
when professors get tenure,
52
135260
2000
cuando logran el puesto vitalicio,
02:17
but that's a different subject.
53
137260
2000
pero ese es otro tema.
02:19
(Applause)
54
139260
2000
(Aplausos)
02:21
So I am a movement chauvinist.
55
141260
3000
Soy un chovinista del movimiento.
02:24
I believe movement is the most important function of the brain --
56
144260
2000
Creo que el movimiento es la función más importante del cerebro,
02:26
don't let anyone tell you that it's not true.
57
146260
2000
y que nadie les diga lo contrario.
02:28
Now if movement is so important,
58
148260
2000
Entonces, si el movimiento es tan importante,
02:30
how well are we doing
59
150260
2000
¿comprendemos bien
02:32
understanding how the brain controls movement?
60
152260
2000
cómo el cerebro controla el movimiento?
02:34
And the answer is we're doing extremely poorly; it's a very hard problem.
61
154260
2000
Y la respuesta es, que lo comprendemos muy mal. Es un problema muy difícil.
02:36
But we can look at how well we're doing
62
156260
2000
Sin embargo, podemos observar lo bien que lo hacemos
02:38
by thinking about how well we're doing building machines
63
158260
2000
cuando fabricamos máquinas
02:40
which can do what humans can do.
64
160260
2000
que hacen tareas humanas.
02:42
Think about the game of chess.
65
162260
2000
Piensen en el ajedrez.
02:44
How well are we doing determining what piece to move where?
66
164260
3000
¿Cómo de bien determinamos qué pieza mover?
02:47
If you pit Garry Kasparov here, when he's not in jail,
67
167260
3000
Y si enfrentan a Gary Kasparov, cuando no está en prisión,
02:50
against IBM's Deep Blue,
68
170260
2000
cotra la computadora Azul Profundo de IBM,
02:52
well the answer is IBM's Deep Blue will occasionally win.
69
172260
3000
ésta ganará ocasionalmente.
02:55
And I think if IBM's Deep Blue played anyone in this room, it would win every time.
70
175260
3000
Y si Azul Profundo de IBM jugara con cualquiera de Uds., ganaría siempre.
02:58
That problem is solved.
71
178260
2000
Ese problema está resuelto.
03:00
What about the problem
72
180260
2000
Ahora otro problema, ¿qué sucede
03:02
of picking up a chess piece,
73
182260
2000
si tomamos una pieza de ajedrez, la manipulamos con destreza,
03:04
dexterously manipulating it and putting it back down on the board?
74
184260
3000
y la ponemos nuevamente sobre el tablero?
03:07
If you put a five year-old child's dexterity against the best robots of today,
75
187260
3000
Si se desafía la destreza de un niño de cinco años con los mejores robots actuales,
03:10
the answer is simple:
76
190260
2000
la respuesta es simple:
03:12
the child wins easily.
77
192260
2000
el niño gana fácilmente.
03:14
There's no competition at all.
78
194260
2000
No hay competencia en absoluto.
03:16
Now why is that top problem so easy
79
196260
2000
¿Por qué entonces el problema de arriba es tan sencillo
03:18
and the bottom problem so hard?
80
198260
2000
y el de abajo tan difícil?
03:20
One reason is a very smart five year-old
81
200260
2000
Una de las razones es que un niño inteligente de 5 años
03:22
could tell you the algorithm for that top problem --
82
202260
2000
podría resolver el algoritmo para el problema de arriba:
03:24
look at all possible moves to the end of the game
83
204260
2000
observa todos las ejecuciones posibles y hacia el final del juego,
03:26
and choose the one that makes you win.
84
206260
2000
elige la jugada ganadora.
03:28
So it's a very simple algorithm.
85
208260
2000
Es un algoritmo muy sencillo.
03:30
Now of course there are other moves,
86
210260
2000
Por supuesto que hay otros movimientos,
03:32
but with vast computers we approximate
87
212260
2000
pero con la mayoría de las computadoras
03:34
and come close to the optimal solution.
88
214260
2000
nos acercamos a la solución óptima.
03:36
When it comes to being dexterous,
89
216260
2000
Cuando se trata de ser hábil,
03:38
it's not even clear what the algorithm is you have to solve to be dexterous.
90
218260
2000
tampoco está claro cuál es el algoritmo a resolver para llegar a serlo.
03:40
And we'll see you have to both perceive and act on the world,
91
220260
2000
Y al mismo tiempo, se tiene que percibir y actuar en el mundo,
03:42
which has a lot of problems.
92
222260
2000
lo que acarrea muchos problemas.
03:44
But let me show you cutting-edge robotics.
93
224260
2000
Pero permítanme mostrarles la vanguardia en robótica.
03:46
Now a lot of robotics is very impressive,
94
226260
2000
La mayoría de la robótica es muy impresionante,
03:48
but manipulation robotics is really just in the dark ages.
95
228260
3000
pero la manipulación robótica, aún se encuentra en la Edad Media.
03:51
So this is the end of a Ph.D. project
96
231260
2000
Este es un proyecto de una tesis doctoral
03:53
from one of the best robotics institutes.
97
233260
2000
de uno de los mejores institutos en robótica.
03:55
And the student has trained this robot
98
235260
2000
Y un alumno ha entrenado a este robot
03:57
to pour this water into a glass.
99
237260
2000
para verter el agua en el vaso.
03:59
It's a hard problem because the water sloshes about, but it can do it.
100
239260
3000
Es una tarea difícil, porque el agua se esparce, pero lo logra.
04:02
But it doesn't do it with anything like the agility of a human.
101
242260
3000
Pero no lo hace con la agilidad de un humano.
04:05
Now if you want this robot to do a different task,
102
245260
3000
Ahora, si quieren que este robot haga otra tarea,
04:08
that's another three-year Ph.D. program.
103
248260
3000
ese es otro doctorado de tres años.
04:11
There is no generalization at all
104
251260
2000
En robótica, no hay en absoluto
04:13
from one task to another in robotics.
105
253260
2000
generalización de una tarea a otra.
04:15
Now we can compare this
106
255260
2000
Ahora podemos comparar esto
04:17
to cutting-edge human performance.
107
257260
2000
con un rendimiento humano de vanguardia.
04:19
So what I'm going to show you is Emily Fox
108
259260
2000
Y voy a mostrarles a Emily Fox,
04:21
winning the world record for cup stacking.
109
261260
3000
récord mundial de apilamiento de vasos.
04:24
Now the Americans in the audience will know all about cup stacking.
110
264260
2000
Los estadounidenses aquí presentes conocen muy bien el apilamiento de vasos.
04:26
It's a high school sport
111
266260
2000
Es un deporte de la escuela secundaria,
04:28
where you have 12 cups you have to stack and unstack
112
268260
2000
en el que hay 12 vasos para apilar y desapilar,
04:30
against the clock in a prescribed order.
113
270260
2000
a contra reloj y en un orden determinado.
04:32
And this is her getting the world record in real time.
114
272260
3000
Y aquí está logrando el récord mundial en tiempo real.
04:39
(Laughter)
115
279260
8000
(Risas)
04:47
(Applause)
116
287260
5000
(Aplausos)
04:52
And she's pretty happy.
117
292260
2000
Y está muy feliz.
04:54
We have no idea what is going on inside her brain when she does that,
118
294260
2000
No sabemos qué sucede en su mente al hacerlo,
04:56
and that's what we'd like to know.
119
296260
2000
y eso es lo que nos gustaría saber.
04:58
So in my group, what we try to do
120
298260
2000
Para eso, lo que hacemos con mi equipo
05:00
is reverse engineer how humans control movement.
121
300260
3000
es realizar ingeniería inversa a cómo los humanos controlan el movimiento.
05:03
And it sounds like an easy problem.
122
303260
2000
Y parece un problema sencillo.
05:05
You send a command down, it causes muscles to contract.
123
305260
2000
Se envía una orden que hace que los músculos se contraigan.
05:07
Your arm or body moves,
124
307260
2000
Cuando se mueve un brazo o el cuerpo,
05:09
and you get sensory feedback from vision, from skin, from muscles and so on.
125
309260
3000
se obtiene retroalimentación sensorial de la visión, de la piel, de los músculos, y etc.
05:12
The trouble is
126
312260
2000
El problema es que estas señales
05:14
these signals are not the beautiful signals you want them to be.
127
314260
2000
no son tan perfectas como desearíamos que fueran.
05:16
So one thing that makes controlling movement difficult
128
316260
2000
Y una cosa que dificulta el control del movimiento es,
05:18
is, for example, sensory feedback is extremely noisy.
129
318260
3000
que la retroalimentación es extremadamente ruidosa.
05:21
Now by noise, I do not mean sound.
130
321260
3000
Pero cuando digo ruido, no me refiero al sonido.
05:24
We use it in the engineering and neuroscience sense
131
324260
2000
Nosotros lo utilizamos en ingeniería y neurociencia,
05:26
meaning a random noise corrupting a signal.
132
326260
2000
en el sentido de aquel ruido aleatorio que altera una señal.
05:28
So the old days before digital radio when you were tuning in your radio
133
328260
3000
Así que antes de la era digital, cuando se sintonizaba la radio
05:31
and you heard "crrcckkk" on the station you wanted to hear,
134
331260
2000
y se escuchaba “crrcckkk” en la emisora de radio deseada,
05:33
that was the noise.
135
333260
2000
eso significaba ruido.
05:35
But more generally, this noise is something that corrupts the signal.
136
335260
3000
Pero en un sentido mas amplio, este sonido es algo que corrompe la señal.
05:38
So for example, if you put your hand under a table
137
338260
2000
Por ejemplo, si colocan una mano debajo de la mesa
05:40
and try to localize it with your other hand,
138
340260
2000
y tratan de localizarla con la otra mano,
05:42
you can be off by several centimeters
139
342260
2000
podrían errar por varios centímetros
05:44
due to the noise in sensory feedback.
140
344260
2000
debido al ruido en la retroalimentación sensorial.
05:46
Similarly, when you put motor output on movement output,
141
346260
2000
Lo mismo sucede al estimular el movimiento en los efectores,
05:48
it's extremely noisy.
142
348260
2000
es extremadamente ruidoso.
05:50
Forget about trying to hit the bull's eye in darts,
143
350260
2000
Olvídense de dar en el blanco con los dardos
05:52
just aim for the same spot over and over again.
144
352260
2000
una y otra vez.
05:54
You have a huge spread due to movement variability.
145
354260
3000
Hay una enorme propagación debido a la variabilidad del movimiento.
05:57
And more than that, the outside world, or task,
146
357260
2000
Y mas aún, en el mundo exterior o en una tarea,
05:59
is both ambiguous and variable.
147
359260
2000
son ambos ambiguos y variables.
06:01
The teapot could be full, it could be empty.
148
361260
2000
La tetera puede llenarse y puede vaciarse;
06:03
It changes over time.
149
363260
2000
cambia con el tiempo.
06:05
So we work in a whole sensory movement task soup of noise.
150
365260
4000
Por lo tanto, trabajamos en tareas de desempeño motor inmersas en ruidos.
06:09
Now this noise is so great
151
369260
2000
Ahora bien, el ruido es tan grandioso
06:11
that society places a huge premium
152
371260
2000
que la sociedad le otorga un lugar destacado
06:13
on those of us who can reduce the consequences of noise.
153
373260
3000
a aquellos que reducimos las consecuencias del mismo.
06:16
So if you're lucky enough to be able to knock a small white ball
154
376260
3000
Entonces, si se tiene la suerte de embocar una pequeña bola blanca en un agujero
06:19
into a hole several hundred yards away using a long metal stick,
155
379260
3000
a cientos de metros de distancia empleando una vara de metal,
06:22
our society will be willing to reward you
156
382260
2000
nuestra sociedad estará dispuesta a premiarlo
06:24
with hundreds of millions of dollars.
157
384260
3000
con cientos de millones de dólares.
06:27
Now what I want to convince you of
158
387260
2000
De lo que quiero convencerlos
06:29
is the brain also goes through a lot of effort
159
389260
2000
es de que el cerebro también hace un gran esfuerzo
06:31
to reduce the negative consequences
160
391260
2000
en reducir las consecuencias negativas
06:33
of this sort of noise and variability.
161
393260
2000
de esta clase de ruidos y sus variantes.
06:35
And to do that, I'm going to tell you about a framework
162
395260
2000
Y para hacerlo, voy a darles un marco teórico
06:37
which is very popular in statistics and machine learning of the last 50 years
163
397260
3000
muy usado los últimos 50 años en estadística y en aprendizaje automático,
06:40
called Bayesian decision theory.
164
400260
2000
llamado teoría de la decisión bayesiana.
06:42
And it's more recently a unifying way
165
402260
3000
Y actualmente, hay una manera unificadora
06:45
to think about how the brain deals with uncertainty.
166
405260
3000
de pensar cómo el cerebro aborda lo incierto.
06:48
And the fundamental idea is you want to make inferences and then take actions.
167
408260
3000
Y la idea fundamental es que primero se hacen deducciones y luego se toman decisiones.
06:51
So let's think about the inference.
168
411260
2000
Así que pensemos en la deducción.
06:53
You want to generate beliefs about the world.
169
413260
2000
Uno genera creencias sobre el mundo.
06:55
So what are beliefs?
170
415260
2000
Pero ¿qué son las creencias?
06:57
Beliefs could be: where are my arms in space?
171
417260
2000
Creencias pueden ser: ¿dónde están mis brazos en el espacio?
06:59
Am I looking at a cat or a fox?
172
419260
2000
¿Veo un gato o un zorro?
07:01
But we're going to represent beliefs with probabilities.
173
421260
3000
Representaremos las creencias con probabilidades.
07:04
So we're going to represent a belief
174
424260
2000
Representemos entonces una creencia
07:06
with a number between zero and one --
175
426260
2000
con un número entre cero y uno,
07:08
zero meaning I don't believe it at all, one means I'm absolutely certain.
176
428260
3000
con el que 0 significa, no creo en absoluto y 1 significa, estoy absolutamente seguro.
07:11
And numbers in between give you the gray levels of uncertainty.
177
431260
3000
Y los números intermedios les darán los niveles grises de incertidumbre.
07:14
And the key idea to Bayesian inference
178
434260
2000
Y la idea clave de la inferencia bayesiana
07:16
is you have two sources of information
179
436260
2000
es que hay dos fuentes de información
07:18
from which to make your inference.
180
438260
2000
de donde hacer deducciones.
07:20
You have data,
181
440260
2000
Se dispone de datos
07:22
and data in neuroscience is sensory input.
182
442260
2000
y datos en neurociencia es la percepción sensorial
07:24
So I have sensory input, which I can take in to make beliefs.
183
444260
3000
Así, tengo la percepción sensorial, de la que parto para crear mis creencias.
07:27
But there's another source of information, and that's effectively prior knowledge.
184
447260
3000
Pero hay otra fuente de información y es, efectivamente, el conocimiento previo.
07:30
You accumulate knowledge throughout your life in memories.
185
450260
3000
Se acumula conocimiento en la memoria a lo largo de la vida.
07:33
And the point about Bayesian decision theory
186
453260
2000
Y respecto a la teoría de decisión bayesiana,
07:35
is it gives you the mathematics
187
455260
2000
ésta aporta las matemáticas
07:37
of the optimal way to combine
188
457260
2000
de la mejor manera para combinar
07:39
your prior knowledge with your sensory evidence
189
459260
2000
los conocimientos previos con la evidencia sensorial,
07:41
to generate new beliefs.
190
461260
2000
para generar nuevas creencias.
07:43
And I've put the formula up there.
191
463260
2000
Y puse la fórmula allí arriba
07:45
I'm not going to explain what that formula is, but it's very beautiful.
192
465260
2000
No explicaré esa fórmula, pero es muy hermosa.
07:47
And it has real beauty and real explanatory power.
193
467260
3000
Y tiene una belleza y un poder explicativo real.
07:50
And what it really says, and what you want to estimate,
194
470260
2000
Y lo que realmente dice y lo que queremos estimar,
07:52
is the probability of different beliefs
195
472260
2000
es la probabilidad de diferentes creencias
07:54
given your sensory input.
196
474260
2000
dado el receptor sensorial.
07:56
So let me give you an intuitive example.
197
476260
2000
Les daré un ejemplo intuitivo.
07:58
Imagine you're learning to play tennis
198
478260
3000
Imaginen que están aprendiendo a jugar al tenis
08:01
and you want to decide where the ball is going to bounce
199
481260
2000
y tienen que decidir donde rebotará la pelota,
08:03
as it comes over the net towards you.
200
483260
2000
mientras viene hacia Uds. al pasar la red.
08:05
There are two sources of information
201
485260
2000
Hay dos fuentes de información
08:07
Bayes' rule tells you.
202
487260
2000
según la regla de Bayes.
08:09
There's sensory evidence -- you can use visual information auditory information,
203
489260
3000
Hay evidencia sensorial: se puede usar información visual y auditiva,
08:12
and that might tell you it's going to land in that red spot.
204
492260
3000
lo que le dirá que reconozca ese espacio rojo.
08:15
But you know that your senses are not perfect,
205
495260
3000
Pero sabemos que los sentidos no son perfectos, y por lo tanto,
08:18
and therefore there's some variability of where it's going to land
206
498260
2000
habrá cierto grado de variabilidad en donde caerá la pelota,
08:20
shown by that cloud of red,
207
500260
2000
graficado por la nube roja
08:22
representing numbers between 0.5 and maybe 0.1.
208
502260
3000
y representado por números entre 0,5 y tal vez 0,1.
08:26
That information is available in the current shot,
209
506260
2000
Esa información esta disponible en este tiro,
08:28
but there's another source of information
210
508260
2000
pero hay otra fuente de información
08:30
not available on the current shot,
211
510260
2000
que no se presenta en este tiro
08:32
but only available by repeated experience in the game of tennis,
212
512260
3000
y que sólo se obtiene al repetirse la experiencia durante el partido,
08:35
and that's that the ball doesn't bounce
213
515260
2000
porque la pelota no rebota en la cancha durante el partido
08:37
with equal probability over the court during the match.
214
517260
2000
con igual probabilidad.
08:39
If you're playing against a very good opponent,
215
519260
2000
Si juega contra un gran rival,
08:41
they may distribute it in that green area,
216
521260
2000
distribuirá las pelotas por el área verde,
08:43
which is the prior distribution,
217
523260
2000
siendo ése el espacio a priori,
08:45
making it hard for you to return.
218
525260
2000
porque es más difícil que desde allí la devuelva.
08:47
Now both these sources of information carry important information.
219
527260
2000
Ahora, ambas fuentes de información contienen información importante.
08:49
And what Bayes' rule says
220
529260
2000
Y lo que dice la regla de Bayes es que,
08:51
is that I should multiply the numbers on the red by the numbers on the green
221
531260
3000
tendría que multiplicar los números del área roja por los números del área verde
08:54
to get the numbers of the yellow, which have the ellipses,
222
534260
3000
para obtener los números del área amarilla,
08:57
and that's my belief.
223
537260
2000
que es la que posee las elipses, y que es mi creencia.
08:59
So it's the optimal way of combining information.
224
539260
3000
Por lo tanto, es la manera óptima de combinar información.
09:02
Now I wouldn't tell you all this if it wasn't that a few years ago,
225
542260
2000
Pero no les diría todo esto si no fuera porque hace unos años,
09:04
we showed this is exactly what people do
226
544260
2000
demostramos que esto es exactamente lo que la gente hace
09:06
when they learn new movement skills.
227
546260
2000
cuando aprende nuevas habilidades de movimiento.
09:08
And what it means
228
548260
2000
Y significa
09:10
is we really are Bayesian inference machines.
229
550260
2000
que somos verdaderamente máquinas de inferencia bayesiana.
09:12
As we go around, we learn about statistics of the world and lay that down,
230
552260
4000
A medida que avanzamos, aprendemos las estadísticas del mundo y las utilizamos,
09:16
but we also learn
231
556260
2000
pero también aprendemos
09:18
about how noisy our own sensory apparatus is,
232
558260
2000
que nuestro sistema sensorial es muy ruidoso
09:20
and then combine those
233
560260
2000
y entonces combinamos ambos
09:22
in a real Bayesian way.
234
562260
2000
de una manera muy bayesiana.
09:24
Now a key part to the Bayesian is this part of the formula.
235
564260
3000
Y el punto clave de esta regla, es ésta parte de la fórmula.
09:27
And what this part really says
236
567260
2000
Y lo que dice realmente esta fórmula es que,
09:29
is I have to predict the probability
237
569260
2000
dadas mis creencias,
09:31
of different sensory feedbacks
238
571260
2000
tengo que predecir la probabilidad
09:33
given my beliefs.
239
573260
2000
de diferentes reacciones sensoriales.
09:35
So that really means I have to make predictions of the future.
240
575260
3000
Lo que significa, que tengo que predecir el futuro.
09:38
And I want to convince you the brain does make predictions
241
578260
2000
Y quiero convencerlos de que el cerebro hace predicciones.
09:40
of the sensory feedback it's going to get.
242
580260
2000
de la información sensorial que va a obtener.
09:42
And moreover, it profoundly changes your perceptions
243
582260
2000
Y además, esto cambia profundamente su percepción
09:44
by what you do.
244
584260
2000
de lo que hace.
09:46
And to do that, I'll tell you
245
586260
2000
Y para hacer eso, les explicaré
09:48
about how the brain deals with sensory input.
246
588260
2000
cómo el cerebro maneja la percepción sensorial.
09:50
So you send a command out,
247
590260
3000
Entonces, se envía una orden
09:53
you get sensory feedback back,
248
593260
2000
y se obtiene retroalimentación sensorial.
09:55
and that transformation is governed
249
595260
2000
Y esa transformación se rige
09:57
by the physics of your body and your sensory apparatus.
250
597260
3000
por la física del cuerpo y el sistema sensorial.
10:00
But you can imagine looking inside the brain.
251
600260
2000
Pero imaginen el interior del cerebro.
10:02
And here's inside the brain.
252
602260
2000
Y aquí lo tienen.
10:04
You might have a little predictor, a neural simulator,
253
604260
2000
Y es posible que exista un factor predictivo, como un simulador neuronal
10:06
of the physics of your body and your senses.
254
606260
2000
de la física corporal y de los sentidos.
10:08
So as you send a movement command down,
255
608260
2000
Así, cuando se ordena un movimiento,
10:10
you tap a copy of that off
256
610260
2000
éste se copia
10:12
and run it into your neural simulator
257
612260
2000
y se ejecuta en el simulador neuronal
10:14
to anticipate the sensory consequences of your actions.
258
614260
4000
para anticipar las consecuencias sensoriales de las acciones.
10:18
So as I shake this ketchup bottle,
259
618260
2000
De esta manera, al agitar la botella de ketchup,
10:20
I get some true sensory feedback as the function of time in the bottom row.
260
620260
3000
obtengo una retroalimentación sensorial, como la función de tiempo en la parte de abajo.
10:23
And if I've got a good predictor, it predicts the same thing.
261
623260
3000
Y si tengo un buen predictor, predice lo mismo.
10:26
Well why would I bother doing that?
262
626260
2000
Pues bien, ¿por qué me molesto en hacer esto?
10:28
I'm going to get the same feedback anyway.
263
628260
2000
Voy a lograr la misma retroalimentación de todos modos.
10:30
Well there's good reasons.
264
630260
2000
Hay buenas razones.
10:32
Imagine, as I shake the ketchup bottle,
265
632260
2000
Imaginen si mientras agito la botella de ketchup,
10:34
someone very kindly comes up to me and taps it on the back for me.
266
634260
3000
alguien se acerca muy amablemente y la golpetea.
10:37
Now I get an extra source of sensory information
267
637260
2000
Ahora obtengo una fuente de información sensorial adicional,
10:39
due to that external act.
268
639260
2000
debido a la acción externa.
10:41
So I get two sources.
269
641260
2000
Entonces hay dos fuentes:
10:43
I get you tapping on it, and I get me shaking it,
270
643260
3000
el golpeteo de la otra persona y yo agitándola.
10:46
but from my senses' point of view,
271
646260
2000
Pero desde el punto de vista de mis sentidos,
10:48
that is combined together into one source of information.
272
648260
3000
ambas se combinan en una sola fuente de información.
10:51
Now there's good reason to believe
273
651260
2000
Pero hay una buena razón para creer
10:53
that you would want to be able to distinguish external events from internal events.
274
653260
3000
que queremos ser capaces de distinguir los hechos externos de los internos.
10:56
Because external events are actually much more behaviorally relevant
275
656260
3000
Porque los acontecimientos externos, son de hecho, mucho más relevantes en términos de la conducta,
10:59
than feeling everything that's going on inside my body.
276
659260
3000
que las sensaciones internas del cuerpo.
11:02
So one way to reconstruct that
277
662260
2000
Entonces, una manera de reconstruir eso,
11:04
is to compare the prediction --
278
664260
2000
es comparando la predicción,
11:06
which is only based on your movement commands --
279
666260
2000
--que se basa en las órdenes de movimiento--
11:08
with the reality.
280
668260
2000
con la realidad.
11:10
Any discrepancy should hopefully be external.
281
670260
3000
Cualquier discrepancia debería, afortunadamente, ser externa.
11:13
So as I go around the world,
282
673260
2000
Así, mientras transito por el mundo,
11:15
I'm making predictions of what I should get, subtracting them off.
283
675260
3000
hago predicciones de lo que puedo obtener, sustrayéndolas.
11:18
Everything left over is external to me.
284
678260
2000
Todo lo restante, es externo para mí.
11:20
What evidence is there for this?
285
680260
2000
¿Qué pruebas hay de ello?
11:22
Well there's one very clear example
286
682260
2000
Pues, hay un ejemplo muy claro.
11:24
where a sensation generated by myself feels very different
287
684260
2000
Y es que se siente diferente si una sensación es generada por mí
11:26
then if generated by another person.
288
686260
2000
que si es generada por otra persona.
11:28
And so we decided the most obvious place to start
289
688260
2000
Y decidimos que el lugar más indicado para comenzar
11:30
was with tickling.
290
690260
2000
fueran las cosquillas.
11:32
It's been known for a long time, you can't tickle yourself
291
692260
2000
Se sabe desde hace mucho tiempo que es imposible hacerse cosquillas a uno mismo
11:34
as well as other people can.
292
694260
2000
tan bien como a otras personas.
11:36
But it hasn't really been shown, it's because you have a neural simulator,
293
696260
3000
Pero si no ha sido demostrado realmente, es porque existe
11:39
simulating your own body
294
699260
2000
un simulador neuronal que simula el propio cuerpo humano
11:41
and subtracting off that sense.
295
701260
2000
y sustrae ese sentido.
11:43
So we can bring the experiments of the 21st century
296
703260
3000
Y podemos traer los experimentos del siglo XXI
11:46
by applying robotic technologies to this problem.
297
706260
3000
aplicando tecnologías robóticas a este problema.
11:49
And in effect, what we have is some sort of stick in one hand attached to a robot,
298
709260
3000
Y, en efecto, lo que tenemos es una especie de palo en una mano, unido a un robot,
11:52
and they're going to move that back and forward.
299
712260
2000
y lo moverán de atrás para adelante.
11:54
And then we're going to track that with a computer
300
714260
2000
Luego lo rastrearemos con una computadora
11:56
and use it to control another robot,
301
716260
2000
y lo usaremos para controlar a otro robot,
11:58
which is going to tickle their palm with another stick.
302
718260
2000
quien se hará cosquillas en la palma con otro palo.
12:00
And then we're going to ask them to rate a bunch of things
303
720260
2000
Luego les pediremos que evalúen una serie de cosas,
12:02
including ticklishness.
304
722260
2000
incluyendo el cosquilleo.
12:04
I'll show you just one part of our study.
305
724260
2000
Les mostraré sólo una parte de nuestro estudio.
12:06
And here I've taken away the robots,
306
726260
2000
Y aquí he quitado a los robots,
12:08
but basically people move with their right arm sinusoidally back and forward.
307
728260
3000
pero básicamente, la gente mueve su brazo derecho hacia atrás y adelante sinuosamente.
12:11
And we replay that to the other hand with a time delay.
308
731260
3000
Repetimos eso con el otro brazo con una demora.
12:14
Either no time delay,
309
734260
2000
Y sin retraso,
12:16
in which case light would just tickle your palm,
310
736260
2000
una luz haría cosquillas en la mano,
12:18
or with a time delay of two-tenths of three-tenths of a second.
311
738260
4000
o con una demora de dos a tres décimas de segundo.
12:22
So the important point here
312
742260
2000
El punto importante aquí
12:24
is the right hand always does the same things -- sinusoidal movement.
313
744260
3000
es que la mano derecha siempre hace el mismo movimiento sinusoidal.
12:27
The left hand always is the same and puts sinusoidal tickle.
314
747260
3000
La mano izquierda, lo mismo, hace cosquillas sinusoidales.
12:30
All we're playing with is a tempo causality.
315
750260
2000
Lo que hacemos es jugar con una causalidad de tiempo.
12:32
And as we go from naught to 0.1 second,
316
752260
2000
Y a medida que van de 0 a 0,1 segundos,
12:34
it becomes more ticklish.
317
754260
2000
se vuelve mas cosquilloso.
12:36
As you go from 0.1 to 0.2,
318
756260
2000
A medida que va de 0,1 a 0,2,
12:38
it becomes more ticklish at the end.
319
758260
2000
se vuelve mas cosquilloso al final.
12:40
And by 0.2 of a second,
320
760260
2000
Y a 0,2 de segundos,
12:42
it's equivalently ticklish
321
762260
2000
es igualmente cosquilloso
12:44
to the robot that just tickled you without you doing anything.
322
764260
2000
que el robot que le hizo cosquillas sin que Ud. hiciera nada.
12:46
So whatever is responsible for this cancellation
323
766260
2000
Aquello esponsable de esta cancelación,
12:48
is extremely tightly coupled with tempo causality.
324
768260
3000
está sumamente conectado con la causalidad de tiempo.
12:51
And based on this illustration, we really convinced ourselves in the field
325
771260
3000
Y basados en esta representación, en nuestro ámbito, estamos convencidos
12:54
that the brain's making precise predictions
326
774260
2000
de que el cerebro hace predicciones precisas
12:56
and subtracting them off from the sensations.
327
776260
3000
que sustrae de las sensaciones.
12:59
Now I have to admit, these are the worst studies my lab has ever run.
328
779260
3000
Pero tengo que admitir, que estos han sido los peores estudios hechos en mi laboratorio.
13:02
Because the tickle sensation on the palm comes and goes,
329
782260
2000
Dado que la sensación de cosquillas en la palma de la mano va y viene,
13:04
you need large numbers of subjects
330
784260
2000
se necesita un número mayor de sujetos
13:06
with these stars making them significant.
331
786260
2000
con este desempeño para que sea significativo.
13:08
So we were looking for a much more objective way
332
788260
2000
Estuvimos buscando una manera mucho más objetiva
13:10
to assess this phenomena.
333
790260
2000
de evaluar este fenómeno.
13:12
And in the intervening years I had two daughters.
334
792260
2000
Y en el transcurso de esos años tuve dos hijas.
13:14
And one thing you notice about children in backseats of cars on long journeys,
335
794260
3000
Y lo que notas en los niños cuando van sentados en el asiento trasero
13:17
they get into fights --
336
797260
2000
durante viajes prolongados, es que se pelean,
13:19
which started with one of them doing something to the other, the other retaliating.
337
799260
3000
que comienza uno haciéndole algo al otro, y el otro contraatacando.
13:22
It quickly escalates.
338
802260
2000
Se intensifican rápidamente.
13:24
And children tend to get into fights which escalate in terms of force.
339
804260
3000
Y los niños tienden a desatan peleas que se desarrollan en términos de fuerza.
13:27
Now when I screamed at my children to stop,
340
807260
2000
Así, cuando gritaba a mis hijas para que pararan,
13:29
sometimes they would both say to me
341
809260
2000
a veces me decían
13:31
the other person hit them harder.
342
811260
3000
que la otra la había golpeado más fuerte.
13:34
Now I happen to know my children don't lie,
343
814260
2000
Ahora, sé que mis hijas no mienten,
13:36
so I thought, as a neuroscientist,
344
816260
2000
entonces como neurocientífico, pensé
13:38
it was important how I could explain
345
818260
2000
que sería importante poder explicar
13:40
how they were telling inconsistent truths.
346
820260
2000
cómo podrían decir verdades contradictorias.
13:42
And we hypothesize based on the tickling study
347
822260
2000
Y basados en el estudio del cosquilleo, planteamos la hipótesis de que
13:44
that when one child hits another,
348
824260
2000
cuando un niño golpea a otro,
13:46
they generate the movement command.
349
826260
2000
genera la orden del movimiento.
13:48
They predict the sensory consequences and subtract it off.
350
828260
3000
Ellos predicen las consecuencias sensoriales y las sustraen.
13:51
So they actually think they've hit the person less hard than they have --
351
831260
2000
Es así que creen de verdad que no han golpeado tan fuerte como en realidad han hecho,
13:53
rather like the tickling.
352
833260
2000
algo así como el cosquilleo.
13:55
Whereas the passive recipient
353
835260
2000
Mientras que el receptor pasivo no hace la predicción
13:57
doesn't make the prediction, feels the full blow.
354
837260
2000
y siente el golpe de lleno.
13:59
So if they retaliate with the same force,
355
839260
2000
Y si se contraataca con la misma fuerza,
14:01
the first person will think it's been escalated.
356
841260
2000
la primera persona piensa que ha aumentado.
14:03
So we decided to test this in the lab.
357
843260
2000
Fue así que decidimos comprobar esto en el laboratorio.
14:05
(Laughter)
358
845260
3000
(Risas)
14:08
Now we don't work with children, we don't work with hitting,
359
848260
2000
Ahora, no trabajamos con niños ni con golpes,
14:10
but the concept is identical.
360
850260
2000
pero el concepto es idéntico.
14:12
We bring in two adults. We tell them they're going to play a game.
361
852260
3000
Trabajamos con dos adultos y les hacemos jugar a un juego.
14:15
And so here's player one and player two sitting opposite to each other.
362
855260
2000
Los jugadores se sientan uno frente a otro
14:17
And the game is very simple.
363
857260
2000
y el juego es muy simple.
14:19
We started with a motor
364
859260
2000
Comenzamos con un motor,
14:21
with a little lever, a little force transfuser.
365
861260
2000
con una pequeña palanca, y un transfusor de poca fuerza.
14:23
And we use this motor to apply force down to player one's fingers
366
863260
2000
Y usamos ese motor para aplicar fuerza en uno de los dedos de los jugadores
14:25
for three seconds and then it stops.
367
865260
3000
durante tres segundos y luego se detiene.
14:28
And that player's been told, remember the experience of that force
368
868260
3000
Entonces, se le dice a ese jugador que recuerde la fuerza experimentada
14:31
and use your other finger
369
871260
2000
y que use otro dedo
14:33
to apply the same force
370
873260
2000
para aplicar la misma fuerza sobre el dedo del otro sujeto,
14:35
down to the other subject's finger through a force transfuser -- and they do that.
371
875260
3000
a través del transfusor de fuerza, y lo hacen.
14:38
And player two's been told, remember the experience of that force.
372
878260
3000
Luego, se le pide al otro jugador que recuerde la fuerza experimentada
14:41
Use your other hand to apply the force back down.
373
881260
3000
y que utilice la otra mano para aplicar la fuerza.
14:44
And so they take it in turns
374
884260
2000
Por turnos,
14:46
to apply the force they've just experienced back and forward.
375
886260
2000
aplican la fuerza que han experimentado una y otra vez.
14:48
But critically,
376
888260
2000
Pero para ser más precisos,
14:50
they're briefed about the rules of the game in separate rooms.
377
890260
3000
ellos han recibido las reglas en salas separadas,
14:53
So they don't know the rules the other person's playing by.
378
893260
2000
por lo tanto, no saben con qué reglas juega el otro.
14:55
And what we've measured
379
895260
2000
Y lo que hemos medido
14:57
is the force as a function of terms.
380
897260
2000
es la fuerza en función de los términos.
14:59
And if we look at what we start with,
381
899260
2000
Y si observamos con lo que comenzamos,
15:01
a quarter of a Newton there, a number of turns,
382
901260
2000
un cuarto de Newton allí, la cantidad de turnos,
15:03
perfect would be that red line.
383
903260
2000
perfecto sería la línea roja.
15:05
And what we see in all pairs of subjects is this --
384
905260
3000
Y lo que hemos observado en todas las parejas de jugadores es esto:
15:08
a 70 percent escalation in force
385
908260
2000
un 70% de intensificación de la fuerza
15:10
on each go.
386
910260
2000
en cada turno.
15:12
So it really suggests, when you're doing this --
387
912260
2000
Entonces, lo que demostramos con esto,
15:14
based on this study and others we've done --
388
914260
2000
basados en este estudio y otros realizados,
15:16
that the brain is canceling the sensory consequences
389
916260
2000
es que el cerebro cancela las consecuencias sensoriales
15:18
and underestimating the force it's producing.
390
918260
2000
y subestima la fuerza que produce.
15:20
So it re-shows the brain makes predictions
391
920260
2000
Por lo tanto, esto vuelve a demostrar que el cerebro hace predicciones,
15:22
and fundamentally changes the precepts.
392
922260
3000
y fundamentalmente, cambia los preceptos.
15:25
So we've made inferences, we've done predictions,
393
925260
3000
Es así que hemos hecho inferencias, predicciones,
15:28
now we have to generate actions.
394
928260
2000
ahora tenemos que generar acciones.
15:30
And what Bayes' rule says is, given my beliefs,
395
930260
2000
Y lo que la regla de Bayes dice es que, teniendo en cuenta mis creencias,
15:32
the action should in some sense be optimal.
396
932260
2000
la acción debe ser en algún sentido óptima.
15:34
But we've got a problem.
397
934260
2000
Pero tenemos un problema,
15:36
Tasks are symbolic -- I want to drink, I want to dance --
398
936260
3000
las tareas son simbólicas: quiero beber, quiero danzar,
15:39
but the movement system has to contract 600 muscles
399
939260
2000
pero el sistema motor tiene que contraer 600 músculos
15:41
in a particular sequence.
400
941260
2000
en una secuencia determinada
15:43
And there's a big gap
401
943260
2000
Y hay una gran brecha
15:45
between the task and the movement system.
402
945260
2000
entre la tarea y el sistema motor.
15:47
So it could be bridged in infinitely many different ways.
403
947260
2000
Y esa brecha podría salvarse de infinitas maneras.
15:49
So think about just a point to point movement.
404
949260
2000
Piensen sólo en el movimiento punto por punto.
15:51
I could choose these two paths
405
951260
2000
Podría elegir estos dos caminos
15:53
out of an infinite number of paths.
406
953260
2000
entre un número infinito de posibilidades.
15:55
Having chosen a particular path,
407
955260
2000
Habiendo elegido un camino en particular
15:57
I can hold my hand on that path
408
957260
2000
puedo sostener mi mano en ese camino
15:59
as infinitely many different joint configurations.
409
959260
2000
como un número infinito de configuraciones de uniones diferentes.
16:01
And I can hold my arm in a particular joint configuration
410
961260
2000
Y puedo sostener mi brazo en una configuración de conexión en particular
16:03
either very stiff or very relaxed.
411
963260
2000
o muy rígidos o muy relajados.
16:05
So I have a huge amount of choice to make.
412
965260
3000
Así que tengo un montón de opciones para hacer.
16:08
Now it turns out, we are extremely stereotypical.
413
968260
3000
Ahora resulta que somos muy estereotipados.
16:11
We all move the same way pretty much.
414
971260
3000
Todos nos movemos más a o menos de la misma manera.
16:14
And so it turns out we're so stereotypical,
415
974260
2000
Y resulta que somos tan estereotipados,
16:16
our brains have got dedicated neural circuitry
416
976260
2000
que nuestro cerebro tiene circuitos neuronales
16:18
to decode this stereotyping.
417
978260
2000
dedicados a descifrar este estereotipo.
16:20
So if I take some dots
418
980260
2000
Y si tomo algunos puntos
16:22
and set them in motion with biological motion,
419
982260
3000
y los pongo en marcha con movimiento biológico,
16:25
your brain's circuitry would understand instantly what's going on.
420
985260
3000
los circuitos cerebrales entenderían instantáneamente lo que está pasando.
16:28
Now this is a bunch of dots moving.
421
988260
2000
Ese es un conjunto de puntos en movimiento.
16:30
You will know what this person is doing,
422
990260
3000
Uds. sabrán lo que esta persona hace,
16:33
whether happy, sad, old, young -- a huge amount of information.
423
993260
3000
si está feliz o triste, si es vieja o joven. Una gran cantidad de información.
16:36
If these dots were cars going on a racing circuit,
424
996260
2000
Si éstos puntos fueran autos en un circuito de carreras,
16:38
you would have absolutely no idea what's going on.
425
998260
3000
no tendrían la menor idea de lo que pasa.
16:41
So why is it
426
1001260
2000
Entonces, ¿por qué
16:43
that we move the particular ways we do?
427
1003260
2000
nos movemos de la manera singular que lo hacemos?
16:45
Well let's think about what really happens.
428
1005260
2000
Pensemos en lo que realmente sucede.
16:47
Maybe we don't all quite move the same way.
429
1007260
3000
Tal vez no todos nos movemos de la misma manera.
16:50
Maybe there's variation in the population.
430
1010260
2000
Tal vez haya una variación en la población.
16:52
And maybe those who move better than others
431
1012260
2000
Y quizá, los que se mueven mejor que otros
16:54
have got more chance of getting their children into the next generation.
432
1014260
2000
tienen más posibilidades de lograr que sus hijos se inserten en la nueva generación.
16:56
So in evolutionary scales, movements get better.
433
1016260
3000
Así, en escalas evolutivas, los movimientos mejoran.
16:59
And perhaps in life, movements get better through learning.
434
1019260
3000
Y quizá en la vida, los movimientos mejoran a través del aprendizaje.
17:02
So what is it about a movement which is good or bad?
435
1022260
2000
Entonces, ¿qué tiene un movimiento para que sea bueno o malo?
17:04
Imagine I want to intercept this ball.
436
1024260
2000
Imaginen que quiero atrapar esta pelota.
17:06
Here are two possible paths to that ball.
437
1026260
3000
Aquí hay dos caminos posibles para hacerlo.
17:09
Well if I choose the left-hand path,
438
1029260
2000
Si elijo hacerlo con la izquierda,
17:11
I can work out the forces required
439
1031260
2000
puedo trabajar las fuerzas requeridas
17:13
in one of my muscles as a function of time.
440
1033260
2000
con uno de mis músculos en función del tiempo.
17:15
But there's noise added to this.
441
1035260
2000
Pero hay ruido añadido a esto.
17:17
So what I actually get, based on this lovely, smooth, desired force,
442
1037260
3000
Así que lo que consigo realmente, basado en esta agraciada, suave y deseada fuerza,
17:20
is a very noisy version.
443
1040260
2000
es una versión muy ruidosa.
17:22
So if I pick the same command through many times,
444
1042260
3000
Entonces, si reiteradamente elijo la misma orden,
17:25
I will get a different noisy version each time, because noise changes each time.
445
1045260
3000
obtendré una versión ruidosa diferente, porque el ruido cambia constantemente.
17:28
So what I can show you here
446
1048260
2000
Lo que puedo mostrarles aquí
17:30
is how the variability of the movement will evolve
447
1050260
2000
es cómo la variabilidad del movimiento evolucionará
17:32
if I choose that way.
448
1052260
2000
si escojo esa manera.
17:34
If I choose a different way of moving -- on the right for example --
449
1054260
3000
Si opto por una forma de movimiento diferente, por ejemplo, a la derecha,
17:37
then I'll have a different command, different noise,
450
1057260
2000
entonces tendré una orden y ruido distinto,
17:39
playing through a noisy system, very complicated.
451
1059260
3000
jugando a través de un sistema ruidoso; muy complicado.
17:42
All we can be sure of is the variability will be different.
452
1062260
3000
De lo que podemos estar seguros es de que la variabilidad será diferente.
17:45
If I move in this particular way,
453
1065260
2000
Si me muevo de esta manera en particular,
17:47
I end up with a smaller variability across many movements.
454
1067260
3000
acabaré con una movilidad menor a través de los movimientos.
17:50
So if I have to choose between those two,
455
1070260
2000
Y si tengo que elegir entre esos dos,
17:52
I would choose the right one because it's less variable.
456
1072260
2000
elegiría el de la derecha, porque es menos variable.
17:54
And the fundamental idea
457
1074260
2000
Y la idea principal
17:56
is you want to plan your movements
458
1076260
2000
es que Ud. quiere planificar sus movimientos
17:58
so as to minimize the negative consequence of the noise.
459
1078260
3000
a fin de minimizar las consecuencias negativas del ruido.
18:01
And one intuition to get
460
1081260
2000
Y algo intuitivo que muestro aquí
18:03
is actually the amount of noise or variability I show here
461
1083260
2000
es de hecho la cantidad de ruido o la variabilidad
18:05
gets bigger as the force gets bigger.
462
1085260
2000
que aumenta a medida que aumenta la fuerza.
18:07
So you want to avoid big forces as one principle.
463
1087260
3000
Por tanto, como principio, querrán evitar grandes esfuerzos.
18:10
So we've shown that using this,
464
1090260
2000
Hemos demostrado que usando esto,
18:12
we can explain a huge amount of data --
465
1092260
2000
podemos explicar una gran cantidad de información,
18:14
that exactly people are going about their lives planning movements
466
1094260
3000
y que precisamente, la gente va por la vida planeando sus movimientos
18:17
so as to minimize negative consequences of noise.
467
1097260
3000
para minimizar las consecuencias negativas del ruido.
18:20
So I hope I've convinced you the brain is there
468
1100260
2000
Así que, espero haberlos convencido de que sus cerebros están ahí
18:22
and evolved to control movement.
469
1102260
2000
y han evolucionado para controlar el movimiento.
18:24
And it's an intellectual challenge to understand how we do that.
470
1104260
3000
Y es un reto intelectual comprender cómo lo hacemos.
18:27
But it's also relevant
471
1107260
2000
Pero es relevante también,
18:29
for disease and rehabilitation.
472
1109260
2000
para la enfermedad y la rehabilitación.
18:31
There are many diseases which effect movement.
473
1111260
3000
Hay muchas enfermedades que afectan el movimiento.
18:34
And hopefully if we understand how we control movement,
474
1114260
2000
Y afortunadamente, si comprendemos cómo controlamos el movimiento,
18:36
we can apply that to robotic technology.
475
1116260
2000
podremos aplicar eso a la tecnología en robótica.
18:38
And finally, I want to remind you,
476
1118260
2000
Y por último, quisiera recordarles que,
18:40
when you see animals do what look like very simple tasks,
477
1120260
2000
cuando ven animales haciendo tareas que parecen muy simples,
18:42
the actual complexity of what is going on inside their brain
478
1122260
2000
la verdadera complejidad de lo que sucede en sus cerebros,
18:44
is really quite dramatic.
479
1124260
2000
es realmente espectacular.
18:46
Thank you very much.
480
1126260
2000
Muchas gracias.
18:48
(Applause)
481
1128260
8000
(Aplausos)
18:56
Chris Anderson: Quick question for you, Dan.
482
1136260
2000
Chris Anderson: Una pregunta rápida, Dan.
18:58
So you're a movement -- (DW: Chauvinist.) -- chauvinist.
483
1138260
4000
Entonces, tú eres un…del movimiento (DW: Chovinista)…chovinista.
19:02
Does that mean that you think that the other things we think our brains are about --
484
1142260
3000
¿Con eso quieres decir que las otras cosas relacionadas con nuestro cerebro, p. ej.:
19:05
the dreaming, the yearning, the falling in love and all these things --
485
1145260
3000
soñar, bostezar, enamorarse, y todo eso
19:08
are a kind of side show, an accident?
486
1148260
3000
¿son funciones secundarias, son casualidades?
19:11
DW: No, no, actually I think they're all important
487
1151260
2000
DW: No, no, en realidad creo que todas son importantes
19:13
to drive the right movement behavior to get reproduction in the end.
488
1153260
3000
para conducir el comportamiento del movimiento apropiadamente para lograr la reproducción.
19:16
So I think people who study sensation or memory
489
1156260
3000
Así que creo que la gente que estudia la sensibilidad o la memoria,
19:19
without realizing why you're laying down memories of childhood.
490
1159260
2000
lo hacen sin darse cuenta por qué se establecen los recuerdos de la infancia.
19:21
The fact that we forget most of our childhood, for example,
491
1161260
3000
El hecho de que nos olvidamos de la mayor parte de nuestra infancia, por ejemplo,
19:24
is probably fine, because it doesn't effect our movements later in life.
492
1164260
3000
probablemente esté bien, porque no afectan nuestros movimientos en el futuro.
19:27
You only need to store things which are really going to effect movement.
493
1167260
3000
Solo necesitas almacenar aquellas cosas que realmente afectarán el movimiento.
19:30
CA: So you think that people thinking about the brain, and consciousness generally,
494
1170260
3000
CA: Entonces crees que la gente, pensando en el cerebro y en la conciencia, en general,
19:33
could get real insight
495
1173260
2000
podría lograr una comprensión real
19:35
by saying, where does movement play in this game?
496
1175260
2000
preguntándose: ¿dónde está involucrado el movimiento en este juego?
19:37
DW: So people have found out for example
497
1177260
2000
DW: La gente ha descubierto, por ejemplo,
19:39
that studying vision in the absence of realizing why you have vision
498
1179260
2000
que estudiar la visión sin atender a comprender por qué se posee la visión,
19:41
is a mistake.
499
1181260
2000
es un error.
19:43
You have to study vision with the realization
500
1183260
2000
Se debe estudiar la visión comprendiendo
19:45
of how the movement system is going to use vision.
501
1185260
2000
cómo el sistema motor la usará.
19:47
And it uses it very differently once you think about it that way.
502
1187260
2000
Y la usa de manera diferente cuando lo piensas de esa manera.
19:49
CA: Well that was quite fascinating. Thank you very much indeed.
503
1189260
3000
CA: Realmente fascinante. Muchas gracias de verdad.
19:52
(Applause)
504
1192260
2000
(Aplausos)
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7