Daniel Wolpert: The real reason for brains

342,104 views ・ 2011-11-03

TED


Por favor, faça duplo clique nas legendas em inglês abaixo para reproduzir o vídeo.

Tradutor: Ilona Bastos Revisora: Miguel Cabral de Pinho
00:15
I'm a neuroscientist.
0
15260
2000
Sou neurocientista.
00:17
And in neuroscience,
1
17260
2000
E, em neurociência,
00:19
we have to deal with many difficult questions about the brain.
2
19260
3000
temos que lidar com muitas questões difíceis sobre o cérebro.
00:22
But I want to start with the easiest question
3
22260
2000
Mas quero começar com a pergunta mais fácil,
00:24
and the question you really should have all asked yourselves at some point in your life,
4
24260
3000
sobre a qual todos vocês já se terão interrogado,
00:27
because it's a fundamental question
5
27260
2000
porque é uma questão fundamental
00:29
if we want to understand brain function.
6
29260
2000
se queremos compreender a função cerebral.
00:31
And that is, why do we and other animals
7
31260
2000
Essa pergunta é:
00:33
have brains?
8
33260
2000
Porque é que nós e outros animais temos cérebro?
00:35
Not all species on our planet have brains,
9
35260
3000
Nem todas as espécies do nosso planeta têm cérebro.
00:38
so if we want to know what the brain is for,
10
38260
2000
Se queremos saber para que serve o cérebro,
00:40
let's think about why we evolved one.
11
40260
2000
pensemos no motivo por que desenvolvemos um.
00:42
Now you may reason that we have one
12
42260
2000
Pode-se julgar que temos um cérebro
00:44
to perceive the world or to think,
13
44260
2000
para compreender o mundo ou para pensar,
00:46
and that's completely wrong.
14
46260
2000
e isso está completamente errado.
00:48
If you think about this question for any length of time,
15
48260
3000
Se pensarem nesta questão durante algum tempo,
00:51
it's blindingly obvious why we have a brain.
16
51260
2000
é incrivelmente óbvia a razão por que temos cérebro.
00:53
We have a brain for one reason and one reason only,
17
53260
3000
Temos cérebro por uma razão e por uma razão apenas,
00:56
and that's to produce adaptable and complex movements.
18
56260
3000
que é para produzir movimentos adaptáveis e complexos.
00:59
There is no other reason to have a brain.
19
59260
2000
Não há outra razão para termos um cérebro.
01:01
Think about it.
20
61260
2000
Pensem nisto.
01:03
Movement is the only way you have
21
63260
2000
O movimento é a única forma que temos
01:05
of affecting the world around you.
22
65260
2000
de afetar o mundo à nossa volta.
01:07
Now that's not quite true. There's one other way, and that's through sweating.
23
67260
3000
Isso não é inteiramente verdade.
01:10
But apart from that,
24
70260
2000
Mas, fora isso, tudo o resto passa pela contração de músculos.
01:12
everything else goes through contractions of muscles.
25
72260
2000
01:14
So think about communication --
26
74260
2000
Pensem na comunicação
01:16
speech, gestures, writing, sign language --
27
76260
3000
— fala, gestos, escrita, linguagem gestual —
01:19
they're all mediated through contractions of your muscles.
28
79260
3000
tudo é mediado por contrações dos músculos.
01:22
So it's really important to remember
29
82260
2000
Por isso, é muito importante lembrarmo-nos
01:24
that sensory, memory and cognitive processes are all important,
30
84260
4000
de que os processos sensoriais, cognitivos e de memória são todos importantes,
01:28
but they're only important
31
88260
2000
mas apenas são importantes
01:30
to either drive or suppress future movements.
32
90260
2000
para causar ou suprimir movimentos futuros.
01:32
There can be no evolutionary advantage
33
92260
2000
Não pode haver qualquer vantagem evolutiva
01:34
to laying down memories of childhood
34
94260
2000
em renunciar às memórias de infância,
01:36
or perceiving the color of a rose
35
96260
2000
ou distinguir a cor de uma rosa,
01:38
if it doesn't affect the way you're going to move later in life.
36
98260
3000
se isso não afetar o modo como nos moveremos mais tarde.
01:41
Now for those who don't believe this argument,
37
101260
2000
Para quem não acreditar neste argumento,
01:43
we have trees and grass on our planet without the brain,
38
103260
2000
há árvores e relva no planeta, que não têm cérebro,
01:45
but the clinching evidence is this animal here --
39
105260
2000
mas a prova irrefutável é este animal aqui — a modesta ascídia.
01:47
the humble sea squirt.
40
107260
2000
01:49
Rudimentary animal, has a nervous system,
41
109260
3000
Um animal rudimentar, tem um sistema nervoso,
01:52
swims around in the ocean in its juvenile life.
42
112260
2000
nada pelo oceano na sua juventude.
01:54
And at some point of its life,
43
114260
2000
A dada altura da sua vida, implanta-se numa rocha.
01:56
it implants on a rock.
44
116260
2000
01:58
And the first thing it does in implanting on that rock, which it never leaves,
45
118260
3000
E a primeira coisa que faz quando se implanta nessa rocha,
02:01
is to digest its own brain and nervous system
46
121260
3000
da qual nunca sai, é digerir o seu cérebro
02:04
for food.
47
124260
2000
e sistema nervoso, para se alimentar.
02:06
So once you don't need to move,
48
126260
2000
Quando não temos de nos mexer,
02:08
you don't need the luxury of that brain.
49
128260
3000
não precisamos do luxo que é ter um cérebro.
02:11
And this animal is often taken
50
131260
2000
Este animal é frequentemente usado
02:13
as an analogy to what happens at universities
51
133260
2000
como uma analogia para o que acontece nas universidades
02:15
when professors get tenure,
52
135260
2000
quando os professores são promovidos na carreira,
02:17
but that's a different subject.
53
137260
2000
mas isso é outra história.
02:19
(Applause)
54
139260
2000
(Aplausos)
02:21
So I am a movement chauvinist.
55
141260
3000
Portanto, eu sou um fanático do movimento.
02:24
I believe movement is the most important function of the brain --
56
144260
2000
Acredito que o movimento é a função mais importante do cérebro
02:26
don't let anyone tell you that it's not true.
57
146260
2000
— não deixem que ninguém vos diga o contrário.
02:28
Now if movement is so important,
58
148260
2000
Sendo o movimento tão importante,
02:30
how well are we doing
59
150260
2000
o que sabemos quanto à forma
02:32
understanding how the brain controls movement?
60
152260
2000
de como o cérebro controla o movimento?
02:34
And the answer is we're doing extremely poorly; it's a very hard problem.
61
154260
2000
Pouco sabemos, é um problema muito difícil.
02:36
But we can look at how well we're doing
62
156260
2000
Mas podemos avaliar o nosso sucesso
02:38
by thinking about how well we're doing building machines
63
158260
2000
pensando em como construímos máquinas
02:40
which can do what humans can do.
64
160260
2000
que fazer o que as pessoas fazem.
02:42
Think about the game of chess.
65
162260
2000
Pensem no jogo de xadrez.
02:44
How well are we doing determining what piece to move where?
66
164260
3000
Como estamos a sair-nos na decisão da peça a mover para onde?
02:47
If you pit Garry Kasparov here, when he's not in jail,
67
167260
3000
Se desafiarem o Gary Kasparov, quando não está na prisão,
02:50
against IBM's Deep Blue,
68
170260
2000
a jogar contra o Deep Blue da IBM,
02:52
well the answer is IBM's Deep Blue will occasionally win.
69
172260
3000
a resposta é que o Deep Blue ganhará de vez em quando.
02:55
And I think if IBM's Deep Blue played anyone in this room, it would win every time.
70
175260
3000
Se o Deep Blue jogasse contra qualquer das pessoas aqui,
02:58
That problem is solved.
71
178260
2000
ganharia sempre, problema resolvido.
03:00
What about the problem
72
180260
2000
Que tal o problema de pegar numa peça de xadrez,
03:02
of picking up a chess piece,
73
182260
2000
03:04
dexterously manipulating it and putting it back down on the board?
74
184260
3000
manipulá-la com destreza e voltar a colocá-la no tabuleiro?
03:07
If you put a five year-old child's dexterity against the best robots of today,
75
187260
3000
Se compararem a destreza de uma criança de cinco anos
03:10
the answer is simple:
76
190260
2000
com a dos melhores robôs da atualidade, a resposta é simples:
03:12
the child wins easily.
77
192260
2000
a criança vence facilmente.
03:14
There's no competition at all.
78
194260
2000
Não há qualquer competição.
03:16
Now why is that top problem so easy
79
196260
2000
Porque é que o problema de cima é tão fácil
03:18
and the bottom problem so hard?
80
198260
2000
e o de baixo é tão difícil?
03:20
One reason is a very smart five year-old
81
200260
2000
Uma criança inteligente de cinco anos
03:22
could tell you the algorithm for that top problem --
82
202260
2000
pode dizer o algoritmo para o problema de cima
03:24
look at all possible moves to the end of the game
83
204260
2000
analisar todas as jogadas possíveis até ao fim do jogo
03:26
and choose the one that makes you win.
84
206260
2000
e escolher a que fará ganhar.
03:28
So it's a very simple algorithm.
85
208260
2000
Portanto, é um algoritmo muito simples.
03:30
Now of course there are other moves,
86
210260
2000
Claro que há outras jogadas,
03:32
but with vast computers we approximate
87
212260
2000
mas, com grandes computadores,
03:34
and come close to the optimal solution.
88
214260
2000
aproximamo-nos e quase alcançamos a melhor solução.
03:36
When it comes to being dexterous,
89
216260
2000
Se a questão é a destreza, nem sequer é claro
03:38
it's not even clear what the algorithm is you have to solve to be dexterous.
90
218260
2000
qual o algoritmo a resolver para sermos ágeis.
03:40
And we'll see you have to both perceive and act on the world,
91
220260
2000
Temos que perceber e que atuar no mundo,
03:42
which has a lot of problems.
92
222260
2000
o que implica muitos problemas.
03:44
But let me show you cutting-edge robotics.
93
224260
2000
Vou mostrar-vos o estado da arte da robótica.
03:46
Now a lot of robotics is very impressive,
94
226260
2000
Grande parte da robótica é impressionante,
03:48
but manipulation robotics is really just in the dark ages.
95
228260
3000
mas a robótica de manipulação ainda está na idade das trevas.
03:51
So this is the end of a Ph.D. project
96
231260
2000
Este é o resultado de um doutoramento
03:53
from one of the best robotics institutes.
97
233260
2000
de um dos melhores institutos de robótica.
03:55
And the student has trained this robot
98
235260
2000
O estudante treinou este robô para deitar água num copo.
03:57
to pour this water into a glass.
99
237260
2000
03:59
It's a hard problem because the water sloshes about, but it can do it.
100
239260
3000
É um problema difícil, porque a água salpica,
mas o robô consegue resolvê-lo.
04:02
But it doesn't do it with anything like the agility of a human.
101
242260
3000
Mas não o faz, minimamente, com a agilidade de uma pessoa.
04:05
Now if you want this robot to do a different task,
102
245260
3000
Se quiserem que este robô desempenhe uma tarefa diferente,
04:08
that's another three-year Ph.D. program.
103
248260
3000
é outro programa de doutoramento de três anos.
04:11
There is no generalization at all
104
251260
2000
(Risos)
Não há qualquer generalização
04:13
from one task to another in robotics.
105
253260
2000
de uma tarefa para outra, em robótica.
04:15
Now we can compare this
106
255260
2000
Podemos comparar isto com o desempenho humano mais evoluído.
04:17
to cutting-edge human performance.
107
257260
2000
04:19
So what I'm going to show you is Emily Fox
108
259260
2000
Vou mostrar-vos Emily Fox
04:21
winning the world record for cup stacking.
109
261260
3000
a bater o recorde mundial de empilhamento de copos.
04:24
Now the Americans in the audience will know all about cup stacking.
110
264260
2000
Os americanos, aqui, sabem tudo sobre o empilhamento de copos.
04:26
It's a high school sport
111
266260
2000
É um desporto de liceu.
04:28
where you have 12 cups you have to stack and unstack
112
268260
2000
Há 12 copos, para empilhar e desempilhar
04:30
against the clock in a prescribed order.
113
270260
2000
em contrarrelógio, numa determinada ordem.
04:32
And this is her getting the world record in real time.
114
272260
3000
Aqui está ela a bater o recorde mundial, em tempo real.
04:39
(Laughter)
115
279260
8000
(Risos)
04:47
(Applause)
116
287260
5000
(Aplausos)
04:52
And she's pretty happy.
117
292260
2000
Ela está muito feliz.
04:54
We have no idea what is going on inside her brain when she does that,
118
294260
2000
Não fazemos ideia do que se passa no cérebro dela, quando faz aquilo.
04:56
and that's what we'd like to know.
119
296260
2000
É o que gostaríamos de saber.
04:58
So in my group, what we try to do
120
298260
2000
No meu grupo, tentamos fazer engenharia invertida
05:00
is reverse engineer how humans control movement.
121
300260
3000
sobre como as pessoas controlam o movimento.
05:03
And it sounds like an easy problem.
122
303260
2000
Isto até parece um problema simples.
05:05
You send a command down, it causes muscles to contract.
123
305260
2000
Enviamos um sinal de comando, ele causa a contração muscular.
05:07
Your arm or body moves,
124
307260
2000
O braço ou o corpo move-se e recebemos uma resposta sensorial
05:09
and you get sensory feedback from vision, from skin, from muscles and so on.
125
309260
3000
da visão, da pele, dos músculos, etc.
05:12
The trouble is
126
312260
2000
O problema é que estes sinais
05:14
these signals are not the beautiful signals you want them to be.
127
314260
2000
não são os belos sinais que queremos que sejam.
05:16
So one thing that makes controlling movement difficult
128
316260
2000
O que torna o controlo dos movimentos difícil
05:18
is, for example, sensory feedback is extremely noisy.
129
318260
3000
é o facto de a resposta sensorial ser extremamente ruidosa.
05:21
Now by noise, I do not mean sound.
130
321260
3000
Por ruído, não quero dizer som.
05:24
We use it in the engineering and neuroscience sense
131
324260
2000
Usamos o termo no sentido da engenharia e da neurociência,
05:26
meaning a random noise corrupting a signal.
132
326260
2000
ou seja, um ruído aleatório que corrompe um sinal.
05:28
So the old days before digital radio when you were tuning in your radio
133
328260
3000
Antigamente, antes do rádio digital, sintonizávamos o rádio,
05:31
and you heard "crrcckkk" on the station you wanted to hear,
134
331260
2000
ouvíamos um "crrcckkk", isso era o ruído.
05:33
that was the noise.
135
333260
2000
05:35
But more generally, this noise is something that corrupts the signal.
136
335260
3000
Mas, mais genericamente, este ruído é algo que corrompe um sinal.
05:38
So for example, if you put your hand under a table
137
338260
2000
Por exemplo, se pusermos a mão debaixo da mesa
05:40
and try to localize it with your other hand,
138
340260
2000
e tentarmos localizá-la com a outra mão,
05:42
you can be off by several centimeters
139
342260
2000
podemos errar por vários centímetros
05:44
due to the noise in sensory feedback.
140
344260
2000
devido ao ruído na resposta sensorial.
05:46
Similarly, when you put motor output on movement output,
141
346260
2000
Quando ligamos a saída de um motor à saída de um movimento,
05:48
it's extremely noisy.
142
348260
2000
fica muito ruidosa.
05:50
Forget about trying to hit the bull's eye in darts,
143
350260
2000
Esqueçam tentar acertar no centro do alvo,
05:52
just aim for the same spot over and over again.
144
352260
2000
visem apenas o mesmo ponto, vezes sem conta.
05:54
You have a huge spread due to movement variability.
145
354260
3000
Há uma enorme dispersão devido à variabilidade do movimento.
05:57
And more than that, the outside world, or task,
146
357260
2000
O mundo exterior, ou a tarefa,
05:59
is both ambiguous and variable.
147
359260
2000
é simultaneamente ambíguo e variável.
06:01
The teapot could be full, it could be empty.
148
361260
2000
O bule pode estar cheio, ou estar vazio.
06:03
It changes over time.
149
363260
2000
Muda ao longo do tempo.
06:05
So we work in a whole sensory movement task soup of noise.
150
365260
4000
Trabalhamos numa tarefa de movimento sensorial que está cheia de ruído
06:09
Now this noise is so great
151
369260
2000
Este ruído é tão grande
06:11
that society places a huge premium
152
371260
2000
que a sociedade concede uma recompensa avultada
06:13
on those of us who can reduce the consequences of noise.
153
373260
3000
aos que conseguem reduzir as consequências do ruído.
06:16
So if you're lucky enough to be able to knock a small white ball
154
376260
3000
Se conseguirmos enfiar uma bolinha branca num buraco
06:19
into a hole several hundred yards away using a long metal stick,
155
379260
3000
a várias centenas de metros de distância, usando um longo taco de metal
06:22
our society will be willing to reward you
156
382260
2000
a sociedade está disposta a recompensar-nos
06:24
with hundreds of millions of dollars.
157
384260
3000
com centenas de milhões de dólares.
06:27
Now what I want to convince you of
158
387260
2000
Aquilo de que vos quero convencer
06:29
is the brain also goes through a lot of effort
159
389260
2000
é de que o cérebro também despende muito esforço
06:31
to reduce the negative consequences
160
391260
2000
a reduzir as consequências negativas
06:33
of this sort of noise and variability.
161
393260
2000
deste tipo de ruído e variabilidade.
06:35
And to do that, I'm going to tell you about a framework
162
395260
2000
Para isso, vou falar-vos de uma ferramenta
06:37
which is very popular in statistics and machine learning of the last 50 years
163
397260
3000
popular na estatística e na aprendizagem de máquinas nos últimos 50 anos,
06:40
called Bayesian decision theory.
164
400260
2000
chamada Teoria de Decisão de Bayes.
06:42
And it's more recently a unifying way
165
402260
3000
É hoje uma forma unificadora
06:45
to think about how the brain deals with uncertainty.
166
405260
3000
de pensar em como o cérebro lida com a incerteza.
06:48
And the fundamental idea is you want to make inferences and then take actions.
167
408260
3000
A ideia fundamental é que queremos fazer inferências e depois executar ações.
06:51
So let's think about the inference.
168
411260
2000
Pensemos na inferência.
06:53
You want to generate beliefs about the world.
169
413260
2000
Queremos gerar crenças sobre o mundo.
06:55
So what are beliefs?
170
415260
2000
Mas o que são crenças?
06:57
Beliefs could be: where are my arms in space?
171
417260
2000
Podem ser: onde estão os meus braços no espaço?
06:59
Am I looking at a cat or a fox?
172
419260
2000
Estou a olhar para um gato ou para uma raposa?
07:01
But we're going to represent beliefs with probabilities.
173
421260
3000
Mas vamos representar as crenças com probabilidades,
07:04
So we're going to represent a belief
174
424260
2000
representar uma crença com um número entre zero e um
07:06
with a number between zero and one --
175
426260
2000
— zero: "não acredito de todo"
07:08
zero meaning I don't believe it at all, one means I'm absolutely certain.
176
428260
3000
e um: "estou absolutamente convencido".
07:11
And numbers in between give you the gray levels of uncertainty.
177
431260
3000
Os números intermédios dão os níveis cinzentos de incerteza.
07:14
And the key idea to Bayesian inference
178
434260
2000
A ideia-chave da inferência de Bayes.
07:16
is you have two sources of information
179
436260
2000
é que temos duas fontes de informação
07:18
from which to make your inference.
180
438260
2000
a partir das quais fazemos a nossa inferência.
07:20
You have data,
181
440260
2000
Temos dados que, em neurociência,
07:22
and data in neuroscience is sensory input.
182
442260
2000
são as entradas sensoriais.
07:24
So I have sensory input, which I can take in to make beliefs.
183
444260
3000
Tenho uma entrada sensorial, para produzir crenças.
07:27
But there's another source of information, and that's effectively prior knowledge.
184
447260
3000
Mas há uma outra fonte de informação, que é o conhecimento anterior.
07:30
You accumulate knowledge throughout your life in memories.
185
450260
3000
Acumulamos conhecimento ao longo da vida através de memórias.
07:33
And the point about Bayesian decision theory
186
453260
2000
A vantagem da Teoria de Decisão de Bayes.
07:35
is it gives you the mathematics
187
455260
2000
é que nos fornece a parte matemática da forma de otimizar
07:37
of the optimal way to combine
188
457260
2000
07:39
your prior knowledge with your sensory evidence
189
459260
2000
o nosso conhecimento anterior com as evidências sensoriais
07:41
to generate new beliefs.
190
461260
2000
para a formação de novas crenças.
07:43
And I've put the formula up there.
191
463260
2000
Coloquei a fórmula ali em cima.
07:45
I'm not going to explain what that formula is, but it's very beautiful.
192
465260
2000
Não vou explicar aquela fórmula, mas é muito bela.
07:47
And it has real beauty and real explanatory power.
193
467260
3000
Tem uma real beleza e um real poder explicativo.
07:50
And what it really says, and what you want to estimate,
194
470260
2000
O que diz e o que queremos estimar,
07:52
is the probability of different beliefs
195
472260
2000
é a probabilidade de diferentes crenças
07:54
given your sensory input.
196
474260
2000
em função da entrada sensorial.
07:56
So let me give you an intuitive example.
197
476260
2000
Vou dar-vos um exemplo intuitivo.
07:58
Imagine you're learning to play tennis
198
478260
3000
Imaginem que estão a aprender a jogar ténis
e querem decidir onde é que a bola vai bater
08:01
and you want to decide where the ball is going to bounce
199
481260
2000
08:03
as it comes over the net towards you.
200
483260
2000
quando passa sobre a rede na vossa direção.
08:05
There are two sources of information
201
485260
2000
Há duas fontes de informação.
08:07
Bayes' rule tells you.
202
487260
2000
é o que diz a Lei de Bayes.
08:09
There's sensory evidence -- you can use visual information auditory information,
203
489260
3000
Há a evidência sensorial — podem usar a informação visual, auditiva,
08:12
and that might tell you it's going to land in that red spot.
204
492260
3000
e ela pode dizer-vos que a bola vai aterrar no ponto vermelho.
08:15
But you know that your senses are not perfect,
205
495260
3000
Mas sabem que os sentidos não são perfeitos,
08:18
and therefore there's some variability of where it's going to land
206
498260
2000
e, assim, há variabilidade no local onde vai aterrar
08:20
shown by that cloud of red,
207
500260
2000
mostrada por aquela nuvem a vermelho,
08:22
representing numbers between 0.5 and maybe 0.1.
208
502260
3000
que representa números entre 0,5 e talvez 0,1.
08:26
That information is available in the current shot,
209
506260
2000
Essa informação está disponível nesta jogada,
08:28
but there's another source of information
210
508260
2000
mas existe outra fonte de informação
08:30
not available on the current shot,
211
510260
2000
não disponível nesta jogada,
08:32
but only available by repeated experience in the game of tennis,
212
512260
3000
mas apenas disponível pela experiência repetida no jogo do ténis.
08:35
and that's that the ball doesn't bounce
213
515260
2000
É que a bola não bate com igual probabilidade
08:37
with equal probability over the court during the match.
214
517260
2000
em todo o campo durante o jogo.
08:39
If you're playing against a very good opponent,
215
519260
2000
Se estão a jogar contra um adversário muito bom,
08:41
they may distribute it in that green area,
216
521260
2000
ele pode distribuí-la naquela área verde,
08:43
which is the prior distribution,
217
523260
2000
que é a distribuição anterior,
08:45
making it hard for you to return.
218
525260
2000
tornando-a difícil de devolver.
08:47
Now both these sources of information carry important information.
219
527260
2000
Ambas as fontes de informação trazem informação importante.
08:49
And what Bayes' rule says
220
529260
2000
A Lei de Bayes diz que devemos multiplicar
08:51
is that I should multiply the numbers on the red by the numbers on the green
221
531260
3000
os números a vermelho pelos números a verde
08:54
to get the numbers of the yellow, which have the ellipses,
222
534260
3000
para obter os números a amarelo, que têm as elipses,
08:57
and that's my belief.
223
537260
2000
e essa é a minha crença.
08:59
So it's the optimal way of combining information.
224
539260
3000
Portanto, é a maneira perfeita de combinar as informações.
09:02
Now I wouldn't tell you all this if it wasn't that a few years ago,
225
542260
2000
Não vos contaria tudo isto, se não fosse que, há uns anos,
09:04
we showed this is exactly what people do
226
544260
2000
mostrámos que isto é o que as pessoas fazem
09:06
when they learn new movement skills.
227
546260
2000
quando aprendem novas capacidades motoras.
09:08
And what it means
228
548260
2000
Isto significa que somos máquinas de inferência bayesianas.
09:10
is we really are Bayesian inference machines.
229
550260
2000
09:12
As we go around, we learn about statistics of the world and lay that down,
230
552260
4000
Quando andamos por aí, conhecemos as estatísticas mundiais
09:16
but we also learn
231
556260
2000
e guardamo-las, mas também aprendemos
09:18
about how noisy our own sensory apparatus is,
232
558260
2000
como o nosso sistema sensorial é ruidoso,
09:20
and then combine those
233
560260
2000
e depois combinamos isso
09:22
in a real Bayesian way.
234
562260
2000
de uma forma verdadeiramente bayesiana.
09:24
Now a key part to the Bayesian is this part of the formula.
235
564260
3000
A chave para a Teoria de Bayes é esta parte da fórmula.
09:27
And what this part really says
236
567260
2000
O que esta parte nos diz
09:29
is I have to predict the probability
237
569260
2000
é que temos de prever a probabilidade
09:31
of different sensory feedbacks
238
571260
2000
de diferentes respostas sensoriais
09:33
given my beliefs.
239
573260
2000
dadas as nossas crenças.
09:35
So that really means I have to make predictions of the future.
240
575260
3000
Isso significa que tenho de fazer previsões sobre o futuro.
09:38
And I want to convince you the brain does make predictions
241
578260
2000
E quero convencer-vos de que o cérebro faz previsões
09:40
of the sensory feedback it's going to get.
242
580260
2000
da resposta sensorial que vai obter.
09:42
And moreover, it profoundly changes your perceptions
243
582260
2000
E, além disso, ele altera profundamente
09:44
by what you do.
244
584260
2000
as perceções, através daquilo que fazemos.
09:46
And to do that, I'll tell you
245
586260
2000
Para isso, vou contar-vos
09:48
about how the brain deals with sensory input.
246
588260
2000
como o cérebro lida com a entrada de informação sensorial.
09:50
So you send a command out,
247
590260
3000
Enviamos um sinal de comando,
09:53
you get sensory feedback back,
248
593260
2000
obtemos uma resposta sensorial,
09:55
and that transformation is governed
249
595260
2000
e essa transformação é gerida
09:57
by the physics of your body and your sensory apparatus.
250
597260
3000
pela física do corpo e pelo sistema sensorial.
10:00
But you can imagine looking inside the brain.
251
600260
2000
Mas podemos imaginar, olhando para dentro do cérebro...
10:02
And here's inside the brain.
252
602260
2000
— e aqui está o interior do cérebro.
10:04
You might have a little predictor, a neural simulator,
253
604260
2000
Podemos ter um pequeno preditor, um simulador neuronal
10:06
of the physics of your body and your senses.
254
606260
2000
da física do nosso corpo e dos nossos sentidos.
10:08
So as you send a movement command down,
255
608260
2000
Quando enviamos um sinal de comando de movimento
10:10
you tap a copy of that off
256
610260
2000
fazemos uma cópia.
10:12
and run it into your neural simulator
257
612260
2000
e corremos a cópia no nosso simulador neuronal
10:14
to anticipate the sensory consequences of your actions.
258
614260
4000
para prevermos as consequências sensoriais das nossas ações.
10:18
So as I shake this ketchup bottle,
259
618260
2000
Quando agito este frasco de ketchup,
10:20
I get some true sensory feedback as the function of time in the bottom row.
260
620260
3000
recebo uma real resposta sensorial em função de tempo, na linha de baixo.
10:23
And if I've got a good predictor, it predicts the same thing.
261
623260
3000
Se tiver um bom preditor, ele prevê a mesma coisa.
10:26
Well why would I bother doing that?
262
626260
2000
Por que razão me hei de incomodar a fazer isso?
10:28
I'm going to get the same feedback anyway.
263
628260
2000
Vou obter a mesma resposta de qualquer maneira.
10:30
Well there's good reasons.
264
630260
2000
Mas há boas razões.
10:32
Imagine, as I shake the ketchup bottle,
265
632260
2000
Imaginem que, enquanto agito o frasco de ketchup,
10:34
someone very kindly comes up to me and taps it on the back for me.
266
634260
3000
alguém se aproxima de mim e lhe dá umas pancadas na base.
10:37
Now I get an extra source of sensory information
267
637260
2000
Agora tenho uma fonte de informação sensorial adicional
10:39
due to that external act.
268
639260
2000
devido a esse ato externo.
10:41
So I get two sources.
269
641260
2000
Portanto, tenho duas fontes.
10:43
I get you tapping on it, and I get me shaking it,
270
643260
3000
Alguém a bater no frasco, e eu a agitá-lo,
10:46
but from my senses' point of view,
271
646260
2000
mas, do ponto de vista dos meus sentidos,
10:48
that is combined together into one source of information.
272
648260
3000
isso combina-se numa única fonte de informação.
10:51
Now there's good reason to believe
273
651260
2000
Há uma boa razão para acreditar que gostaríamos
10:53
that you would want to be able to distinguish external events from internal events.
274
653260
3000
de poder distinguir os acontecimentos externos dos internos.
10:56
Because external events are actually much more behaviorally relevant
275
656260
3000
Porque os acontecimentos externos são muito mais relevantes
10:59
than feeling everything that's going on inside my body.
276
659260
3000
a nível comportamental do que sentirmos tudo o que se passa dentro do corpo.
11:02
So one way to reconstruct that
277
662260
2000
Para reconstruirmos isso, comparamos a previsão
11:04
is to compare the prediction --
278
664260
2000
11:06
which is only based on your movement commands --
279
666260
2000
— que se baseia apenas nos nossos comandos de movimento
11:08
with the reality.
280
668260
2000
com a realidade.
11:10
Any discrepancy should hopefully be external.
281
670260
3000
Qualquer discrepância deverá, esperamos, ser externa.
11:13
So as I go around the world,
282
673260
2000
Portanto, enquanto ando pelo mundo,
11:15
I'm making predictions of what I should get, subtracting them off.
283
675260
3000
estou a fazer predições sobre o que devo obter, subtraindo-as.
11:18
Everything left over is external to me.
284
678260
2000
Tudo o que resta é-me externo.
11:20
What evidence is there for this?
285
680260
2000
Que provas existem disto?
11:22
Well there's one very clear example
286
682260
2000
Há um exemplo muito claro em que a sensação gerada por mim
11:24
where a sensation generated by myself feels very different
287
684260
2000
11:26
then if generated by another person.
288
686260
2000
é sentida de uma maneira muito diferente
11:28
And so we decided the most obvious place to start
289
688260
2000
daquela que seria, se fosse gerada por outra pessoa.
11:30
was with tickling.
290
690260
2000
O sítio mais óbvio para começar eram as cócegas.
11:32
It's been known for a long time, you can't tickle yourself
291
692260
2000
Sabe-se que não conseguimos fazer cócegas a nós mesmos.
11:34
as well as other people can.
292
694260
2000
11:36
But it hasn't really been shown, it's because you have a neural simulator,
293
696260
3000
Mas nunca foi demonstrado que isso acontece
11:39
simulating your own body
294
699260
2000
porque temos um simulador neuronal, a simular o nosso corpo
11:41
and subtracting off that sense.
295
701260
2000
e a subtrair essa sensação.
11:43
So we can bring the experiments of the 21st century
296
703260
3000
Podemos ir buscar as experiências do séc. XXI
11:46
by applying robotic technologies to this problem.
297
706260
3000
aplicando as tecnologias da robótica a este problema.
11:49
And in effect, what we have is some sort of stick in one hand attached to a robot,
298
709260
3000
Com efeito, temos uma espécie de pau numa mão ligada a um robô
11:52
and they're going to move that back and forward.
299
712260
2000
que vai ser movimentado para trás e para a frente.
11:54
And then we're going to track that with a computer
300
714260
2000
Depois vamos segui-lo com um computador
11:56
and use it to control another robot,
301
716260
2000
e usar o computador para controlar outro robô,
11:58
which is going to tickle their palm with another stick.
302
718260
2000
que vai fazer cócegas na mão com outro pau.
12:00
And then we're going to ask them to rate a bunch of things
303
720260
2000
Depois pedimos-lhes para avaliarem uma série de coisas, incluindo as cócegas
12:02
including ticklishness.
304
722260
2000
12:04
I'll show you just one part of our study.
305
724260
2000
Vou mostrar só uma parte do nosso estudo.
12:06
And here I've taken away the robots,
306
726260
2000
Aqui retirei os robôs.
As pessoas movem o braço direito para a frente e para trás sinusoidalmente.
12:08
but basically people move with their right arm sinusoidally back and forward.
307
728260
3000
12:11
And we replay that to the other hand with a time delay.
308
731260
3000
Repetimos isso com a outra mão com um certo atraso.
12:14
Either no time delay,
309
734260
2000
Quer sem atraso, caso em que a luz apenas faria cócegas na palma da mão,
12:16
in which case light would just tickle your palm,
310
736260
2000
12:18
or with a time delay of two-tenths of three-tenths of a second.
311
738260
4000
quer com um atraso de 2 ou 3 décimos de segundo.
12:22
So the important point here
312
742260
2000
O importante aqui é que a mão direita
12:24
is the right hand always does the same things -- sinusoidal movement.
313
744260
3000
faz sempre a mesma coisa — movimento sinusoidal.
12:27
The left hand always is the same and puts sinusoidal tickle.
314
747260
3000
A mão esquerda, a mesma coisa, faz cócegas sinusoidais
12:30
All we're playing with is a tempo causality.
315
750260
2000
Estamos só a jogar com uma causalidade temporal.
12:32
And as we go from naught to 0.1 second,
316
752260
2000
Quando passamos de 0 para 0,1 segundos, provoca mais cócegas.
12:34
it becomes more ticklish.
317
754260
2000
12:36
As you go from 0.1 to 0.2,
318
756260
2000
Quando passamos de 0,1 para 0,2, provoca mais cócegas no final.
12:38
it becomes more ticklish at the end.
319
758260
2000
12:40
And by 0.2 of a second,
320
760260
2000
E pelos 2 décimos de segundo,
12:42
it's equivalently ticklish
321
762260
2000
faz cócegas equivalentes às provocadas pelo robô
12:44
to the robot that just tickled you without you doing anything.
322
764260
2000
que apenas nos fez cócegas sem fazermos nada.
12:46
So whatever is responsible for this cancellation
323
766260
2000
Seja o que for responsável por esta anulação
12:48
is extremely tightly coupled with tempo causality.
324
768260
3000
está estreitamente ligado à causalidade temporal.
12:51
And based on this illustration, we really convinced ourselves in the field
325
771260
3000
Com base nesta ilustração, convencemo-nos
12:54
that the brain's making precise predictions
326
774260
2000
de que o cérebro faz predições precisas e subtrai-as às sensações.
12:56
and subtracting them off from the sensations.
327
776260
3000
12:59
Now I have to admit, these are the worst studies my lab has ever run.
328
779260
3000
Reconheço que estes são os piores estudos que o meu laboratório já realizou.
13:02
Because the tickle sensation on the palm comes and goes,
329
782260
2000
Como a sensação de cócegas na palma da mão vem e vai,
13:04
you need large numbers of subjects
330
784260
2000
precisamos de muitos sujeitos para torná-los significativos.
13:06
with these stars making them significant.
331
786260
2000
13:08
So we were looking for a much more objective way
332
788260
2000
Andámos à procura de uma maneira mais objetiva
13:10
to assess this phenomena.
333
790260
2000
de avaliar este fenómeno.
13:12
And in the intervening years I had two daughters.
334
792260
2000
Durante esses anos tive duas filhas.
13:14
And one thing you notice about children in backseats of cars on long journeys,
335
794260
3000
Sabemos que as crianças, durante viagens longas, põem-se a lutar
13:17
they get into fights --
336
797260
2000
— começa com uma a implicar e a outra a retaliar
13:19
which started with one of them doing something to the other, the other retaliating.
337
799260
3000
Rapidamente toma outras proporções.
13:22
It quickly escalates.
338
802260
2000
As crianças tendem a meter-se em lutas que acabam numa escalada de força.
13:24
And children tend to get into fights which escalate in terms of force.
339
804260
3000
13:27
Now when I screamed at my children to stop,
340
807260
2000
Quando eu gritava às minhas filhas para pararem,
13:29
sometimes they would both say to me
341
809260
2000
ambas me diziam que a outra lhe tinha batido com mais força.
13:31
the other person hit them harder.
342
811260
3000
13:34
Now I happen to know my children don't lie,
343
814260
2000
Eu sei que as minhas filhas não mentem,
13:36
so I thought, as a neuroscientist,
344
816260
2000
pelo que pensei, como neurocientista,
13:38
it was important how I could explain
345
818260
2000
que era importante poder explicar
13:40
how they were telling inconsistent truths.
346
820260
2000
porque é que elas diziam verdades inconsistentes.
13:42
And we hypothesize based on the tickling study
347
822260
2000
Pusemos a hipótese, baseados no estudo das cócegas,
13:44
that when one child hits another,
348
824260
2000
de que, quando uma criança bate na outra,
13:46
they generate the movement command.
349
826260
2000
estão a gerar o comando de movimento.
13:48
They predict the sensory consequences and subtract it off.
350
828260
3000
Preveem as consequências sensoriais e subtraem-nas.
13:51
So they actually think they've hit the person less hard than they have --
351
831260
2000
Por isso, acreditam que bateram com menos força do que fizeram
13:53
rather like the tickling.
352
833260
2000
— tal como as cócegas.
13:55
Whereas the passive recipient
353
835260
2000
Ao passo que o recetor passivo,
13:57
doesn't make the prediction, feels the full blow.
354
837260
2000
sente a pancada com toda a força.
13:59
So if they retaliate with the same force,
355
839260
2000
Se retaliarem com a mesma força,
14:01
the first person will think it's been escalated.
356
841260
2000
a primeira achará que houve uma intensificação.
14:03
So we decided to test this in the lab.
357
843260
2000
Decidimos testar isto no laboratório.
14:05
(Laughter)
358
845260
3000
(Risos)
14:08
Now we don't work with children, we don't work with hitting,
359
848260
2000
Não trabalhamos com crianças, não trabalhamos com pancada,
14:10
but the concept is identical.
360
850260
2000
mas o conceito é idêntico.
14:12
We bring in two adults. We tell them they're going to play a game.
361
852260
3000
Arranjamos dois adultos. Dizemos-lhes que vão jogar um jogo.
14:15
And so here's player one and player two sitting opposite to each other.
362
855260
2000
Temos aqui o jogador 1 e o jogador 2 em frente um do outro.
14:17
And the game is very simple.
363
857260
2000
O jogo é muito simples.
14:19
We started with a motor
364
859260
2000
Começámos com um motor
14:21
with a little lever, a little force transfuser.
365
861260
2000
com uma pequena alavanca, transmissora de força.
14:23
And we use this motor to apply force down to player one's fingers
366
863260
2000
Usamos este motor para exercer força sobre os dedos do jogador 1
14:25
for three seconds and then it stops.
367
865260
3000
durante 3 segundos, e depois paramos.
14:28
And that player's been told, remember the experience of that force
368
868260
3000
Dizemos a esse jogador: "Recorde a experiência daquela força
14:31
and use your other finger
369
871260
2000
"e use outro dedo para exercer a mesma força
14:33
to apply the same force
370
873260
2000
"no dedo do outro através do transmissor de força".
14:35
down to the other subject's finger through a force transfuser -- and they do that.
371
875260
3000
E ele faz isso.
14:38
And player two's been told, remember the experience of that force.
372
878260
3000
Dizemos ao segundo jogador: "Recorde a experiência daquela força.
14:41
Use your other hand to apply the force back down.
373
881260
3000
Use a outra mão para exercer a força para baixo.
14:44
And so they take it in turns
374
884260
2000
Fazem isto, alternadamente,
para exercer a força que acabaram de sentir para trás e para a frente.
14:46
to apply the force they've just experienced back and forward.
375
886260
2000
14:48
But critically,
376
888260
2000
Mas, e é fundamental,
14:50
they're briefed about the rules of the game in separate rooms.
377
890260
3000
as regras do jogo são-lhes transmitidas em salas separadas.
14:53
So they don't know the rules the other person's playing by.
378
893260
2000
Não conhecem as regras com que a outra pessoa está a jogar.
14:55
And what we've measured
379
895260
2000
Medimos a força como uma função de termos.
14:57
is the force as a function of terms.
380
897260
2000
14:59
And if we look at what we start with,
381
899260
2000
Se observarmos aquilo com que começamos,
15:01
a quarter of a Newton there, a number of turns,
382
901260
2000
um quarto de um Newton, uma série de turnos,
15:03
perfect would be that red line.
383
903260
2000
a perfeição seria aquela linha vermelha.
15:05
And what we see in all pairs of subjects is this --
384
905260
3000
Mas observamos isto em todos os pares de pessoas:
15:08
a 70 percent escalation in force
385
908260
2000
um aumento de força de 70% em cada turno.
15:10
on each go.
386
910260
2000
15:12
So it really suggests, when you're doing this --
387
912260
2000
Portanto, quando fazem isto, há a sugestão
15:14
based on this study and others we've done --
388
914260
2000
— com base neste estudo e noutros —
15:16
that the brain is canceling the sensory consequences
389
916260
2000
de que o cérebro está a anular as consequências sensoriais
15:18
and underestimating the force it's producing.
390
918260
2000
e a menosprezar a força que produz.
15:20
So it re-shows the brain makes predictions
391
920260
2000
Isto mostra mais uma vez que o cérebro faz previsões
15:22
and fundamentally changes the precepts.
392
922260
3000
e altera as perceções.
15:25
So we've made inferences, we've done predictions,
393
925260
3000
Portanto, fizemos inferências, fizemos predições,
15:28
now we have to generate actions.
394
928260
2000
agora temos que gerar ações.
15:30
And what Bayes' rule says is, given my beliefs,
395
930260
2000
A Lei de Bayes diz que, dadas as minhas crenças,
15:32
the action should in some sense be optimal.
396
932260
2000
a ação deve, de algum modo, ser ótima.
15:34
But we've got a problem.
397
934260
2000
Mas temos um problema.
15:36
Tasks are symbolic -- I want to drink, I want to dance --
398
936260
3000
As tarefas são simbólicas — quero beber, quero dançar —
15:39
but the movement system has to contract 600 muscles
399
939260
2000
mas o sistema de movimento tem de contrair 600 músculos
15:41
in a particular sequence.
400
941260
2000
numa determinada sequência.
15:43
And there's a big gap
401
943260
2000
E há um fosso enorme entre a tarefa e o sistema de movimento,
15:45
between the task and the movement system.
402
945260
2000
15:47
So it could be bridged in infinitely many different ways.
403
947260
2000
que pode ser ultrapassado de imensas maneiras diferentes.
15:49
So think about just a point to point movement.
404
949260
2000
Pensem num movimento ponto-a-ponto.
15:51
I could choose these two paths
405
951260
2000
Eu podia escolher estes dois caminhos
15:53
out of an infinite number of paths.
406
953260
2000
entre um número infinito de caminhos.
15:55
Having chosen a particular path,
407
955260
2000
Tendo escolhido um caminho em particular, podia segurar a minha mão
15:57
I can hold my hand on that path
408
957260
2000
15:59
as infinitely many different joint configurations.
409
959260
2000
num número infinito de configurações conjuntas,
16:01
And I can hold my arm in a particular joint configuration
410
961260
2000
segurar o meu braço numa dada configuração conjunta
16:03
either very stiff or very relaxed.
411
963260
2000
ou muito tensa, ou muito relaxada.
16:05
So I have a huge amount of choice to make.
412
965260
3000
Portanto, tenho uma enorme quantidade de escolhas a fazer.
16:08
Now it turns out, we are extremely stereotypical.
413
968260
3000
Acontece que nós somos extremamente estereotipados.
16:11
We all move the same way pretty much.
414
971260
3000
Todos nos movemos praticamente da mesma maneira.
16:14
And so it turns out we're so stereotypical,
415
974260
2000
Portanto, sendo nós tão estereotipados,
16:16
our brains have got dedicated neural circuitry
416
976260
2000
os nossos cérebros têm um circuito neuronal dedicado
16:18
to decode this stereotyping.
417
978260
2000
à descodificação deste estereótipo.
16:20
So if I take some dots
418
980260
2000
Se eu pegasse nalguns pontos
16:22
and set them in motion with biological motion,
419
982260
3000
e lhes conferisse movimento, movimento biológico,
16:25
your brain's circuitry would understand instantly what's going on.
420
985260
3000
o circuito cerebral compreenderia imediatamente o que se estava a passar.
16:28
Now this is a bunch of dots moving.
421
988260
2000
Isto é um monte de pontos em movimento.
16:30
You will know what this person is doing,
422
990260
3000
Saberão o que esta pessoa está a fazer,
16:33
whether happy, sad, old, young -- a huge amount of information.
423
993260
3000
se é feliz ou triste, se é velha ou jovem — uma enorme quantidade de informação.
16:36
If these dots were cars going on a racing circuit,
424
996260
2000
Se estes pontos fossem carros a correr numa pista,
16:38
you would have absolutely no idea what's going on.
425
998260
3000
não teríamos ideia do que estava a acontecer.
16:41
So why is it
426
1001260
2000
Porque é que nos movemos da forma como nos movemos?
16:43
that we move the particular ways we do?
427
1003260
2000
16:45
Well let's think about what really happens.
428
1005260
2000
Pensemos no que realmente acontece.
16:47
Maybe we don't all quite move the same way.
429
1007260
3000
Talvez não nos movamos todos exatamente da mesma maneira.
16:50
Maybe there's variation in the population.
430
1010260
2000
Talvez haja uma variação dentro da população.
16:52
And maybe those who move better than others
431
1012260
2000
Talvez os que se movem melhor que os outros
16:54
have got more chance of getting their children into the next generation.
432
1014260
2000
tenham mais hipóteses de passar os filhos à geração seguinte.
16:56
So in evolutionary scales, movements get better.
433
1016260
3000
À escala evolutiva, os movimentos melhoram.
16:59
And perhaps in life, movements get better through learning.
434
1019260
3000
Talvez, na vida, os movimentos melhorem através da aprendizagem.
17:02
So what is it about a movement which is good or bad?
435
1022260
2000
O que é isto de um movimento ser bom ou mau?
17:04
Imagine I want to intercept this ball.
436
1024260
2000
Imaginem que quero intercetar esta bola.
17:06
Here are two possible paths to that ball.
437
1026260
3000
Aqui há dois caminhos possíveis para aquela bola.
17:09
Well if I choose the left-hand path,
438
1029260
2000
Se eu escolher o caminho da esquerda,
17:11
I can work out the forces required
439
1031260
2000
posso organizar as forças requeridas
17:13
in one of my muscles as a function of time.
440
1033260
2000
num dos meus músculos como uma função do tempo.
17:15
But there's noise added to this.
441
1035260
2000
Mas há ruído associado.
17:17
So what I actually get, based on this lovely, smooth, desired force,
442
1037260
3000
Por isso, o que consigo, com base nesta força desejada, suave e encantadora,
17:20
is a very noisy version.
443
1040260
2000
é uma versão muito ruidosa.
17:22
So if I pick the same command through many times,
444
1042260
3000
Se eu escolher muitas vezes o mesmo sinal de comando,
17:25
I will get a different noisy version each time, because noise changes each time.
445
1045260
3000
obterei sempre uma versão diferente do ruído,
porque o ruído está sempre a mudar.
17:28
So what I can show you here
446
1048260
2000
Posso mostrar-vos aqui
17:30
is how the variability of the movement will evolve
447
1050260
2000
como a variabilidade do movimento vai evoluir,
17:32
if I choose that way.
448
1052260
2000
se eu escolher aquela maneira.
17:34
If I choose a different way of moving -- on the right for example --
449
1054260
3000
Se escolher uma forma diferente de movimento — à direita, por exemplo —
17:37
then I'll have a different command, different noise,
450
1057260
2000
terei um sinal de comando diferente, ruído diferente,
17:39
playing through a noisy system, very complicated.
451
1059260
3000
jogando num sistema ruidoso, muito complicado.
17:42
All we can be sure of is the variability will be different.
452
1062260
3000
Só podemos ter a certeza de que a variabilidade será diferente.
17:45
If I move in this particular way,
453
1065260
2000
Se eu me mover desta forma particular,
17:47
I end up with a smaller variability across many movements.
454
1067260
3000
acabo com uma menor variabilidade ao longo de muitos movimentos.
17:50
So if I have to choose between those two,
455
1070260
2000
Se tivesse que escolher entre aqueles dois,
17:52
I would choose the right one because it's less variable.
456
1072260
2000
escolheria o da direita porque é menos variável.
17:54
And the fundamental idea
457
1074260
2000
A ideia fundamental é que queremos planear os nossos movimentos
17:56
is you want to plan your movements
458
1076260
2000
17:58
so as to minimize the negative consequence of the noise.
459
1078260
3000
de forma a minimizar a consequência negativa do ruído.
18:01
And one intuition to get
460
1081260
2000
Temos a intuição
18:03
is actually the amount of noise or variability I show here
461
1083260
2000
que a quantidade de ruído ou variabilidade que aqui mostro
18:05
gets bigger as the force gets bigger.
462
1085260
2000
aumenta à medida que a força aumenta.
18:07
So you want to avoid big forces as one principle.
463
1087260
3000
Por isso, por princípio, queremos evitar grandes forças.
18:10
So we've shown that using this,
464
1090260
2000
Portanto, mostrámos que, usando isto,
18:12
we can explain a huge amount of data --
465
1092260
2000
podemos explicar uma grande quantidade de dados,
18:14
that exactly people are going about their lives planning movements
466
1094260
3000
que as pessoas vivem a sua vida planeiam os movimentos
18:17
so as to minimize negative consequences of noise.
467
1097260
3000
de forma a minimizar as consequências negativas do ruído.
18:20
So I hope I've convinced you the brain is there
468
1100260
2000
Espero ter-vos convencido de que o cérebro existe e evoluiu
18:22
and evolved to control movement.
469
1102260
2000
18:24
And it's an intellectual challenge to understand how we do that.
470
1104260
3000
para controlar o movimento.
É um desafio intelectual compreender como fazemos isso.
18:27
But it's also relevant
471
1107260
2000
Mas também é relevante
18:29
for disease and rehabilitation.
472
1109260
2000
para a doença e para a reabilitação.
18:31
There are many diseases which effect movement.
473
1111260
3000
Há muitas doenças que afetam o movimento.
18:34
And hopefully if we understand how we control movement,
474
1114260
2000
Se compreendermos como controlamos o movimento,
18:36
we can apply that to robotic technology.
475
1116260
2000
podemos aplicar isso à tecnologia robótica.
18:38
And finally, I want to remind you,
476
1118260
2000
Por fim, quero recordar-vos de que,
18:40
when you see animals do what look like very simple tasks,
477
1120260
2000
quando veem os animais fazer tarefas muito simples,
18:42
the actual complexity of what is going on inside their brain
478
1122260
2000
a real complexidade do que acontece dentro do cérebro
18:44
is really quite dramatic.
479
1124260
2000
é, de facto, bastante dramática.
18:46
Thank you very much.
480
1126260
2000
Muito obrigado.
18:48
(Applause)
481
1128260
8000
(Aplausos)
18:56
Chris Anderson: Quick question for you, Dan.
482
1136260
2000
Chris Anderson: Uma pergunta rápida, Dan.
18:58
So you're a movement -- (DW: Chauvinist.) -- chauvinist.
483
1138260
4000
Quanto ao movimento, és um...
DW: ... fanático.
19:02
Does that mean that you think that the other things we think our brains are about --
484
1142260
3000
CA: Significará isso que pensas que as outras coisas
que julgamos dependentes do cérebro
19:05
the dreaming, the yearning, the falling in love and all these things --
485
1145260
3000
o sonho, a saudade, a paixão e todas essas coisas —
19:08
are a kind of side show, an accident?
486
1148260
3000
são uma espécie de atividade secundária, de um acidente?
19:11
DW: No, no, actually I think they're all important
487
1151260
2000
DW: Não. Penso que todas elas são importantes
19:13
to drive the right movement behavior to get reproduction in the end.
488
1153260
3000
para conduzir ao correto comportamento dos movimentos.
19:16
So I think people who study sensation or memory
489
1156260
3000
Penso que as pessoas que estudam as sensações ou a memória
19:19
without realizing why you're laying down memories of childhood.
490
1159260
2000
sem se aperceberem da razão
19:21
The fact that we forget most of our childhood, for example,
491
1161260
3000
por que esquecemos memórias da infância, por exemplo
provavelmente está correto, porque isso não afeta os nossos movimentos mais tarde.
19:24
is probably fine, because it doesn't effect our movements later in life.
492
1164260
3000
19:27
You only need to store things which are really going to effect movement.
493
1167260
3000
Só precisamos de armazenar coisas que vão afetar os movimentos.
19:30
CA: So you think that people thinking about the brain, and consciousness generally,
494
1170260
3000
CA: Achas que as pessoas que estudam o cérebro e a consciência,
19:33
could get real insight
495
1173260
2000
podiam compreender melhor, dizendo:
19:35
by saying, where does movement play in this game?
496
1175260
2000
"Onde é que entra o movimento, neste jogo?"
19:37
DW: So people have found out for example
497
1177260
2000
DW: As pessoas descobriram que é um erro estudar a visão
19:39
that studying vision in the absence of realizing why you have vision
498
1179260
2000
ignorando o motivo por que temos visão.
19:41
is a mistake.
499
1181260
2000
19:43
You have to study vision with the realization
500
1183260
2000
Temos que estudar a visão com a perceção
19:45
of how the movement system is going to use vision.
501
1185260
2000
de como o sistema motor vai usar a visão.
19:47
And it uses it very differently once you think about it that way.
502
1187260
2000
Usa-a de uma forma muito diferente quando pensamos nele dessa forma.
19:49
CA: Well that was quite fascinating. Thank you very much indeed.
503
1189260
3000
CA: Foi realmente fascinante. Muito obrigado.
19:52
(Applause)
504
1192260
2000
(Aplausos)
Sobre este site

Este sítio irá apresentar-lhe vídeos do YouTube que são úteis para a aprendizagem do inglês. Verá lições de inglês ensinadas por professores de primeira linha de todo o mundo. Faça duplo clique nas legendas em inglês apresentadas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas deslocam-se em sincronia com a reprodução do vídeo. Se tiver quaisquer comentários ou pedidos, por favor contacte-nos utilizando este formulário de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7