Daniel Wolpert: The real reason for brains

341,413 views ・ 2011-11-03

TED


Fare doppio clic sui sottotitoli in inglese per riprodurre il video.

Traduttore: Anna Cristiana Minoli Revisore: Ana María Pérez
00:15
I'm a neuroscientist.
0
15260
2000
Sono un neuroscienziato.
00:17
And in neuroscience,
1
17260
2000
E in neuroscienza,
00:19
we have to deal with many difficult questions about the brain.
2
19260
3000
abbiamo a che fare con molte domande difficili sul cervello.
00:22
But I want to start with the easiest question
3
22260
2000
Ma voglio cominciare con la domanda più facile
00:24
and the question you really should have all asked yourselves at some point in your life,
4
24260
3000
e la domanda che avreste dovuto tutti chiedervi a un certo punto della vostra vita,
00:27
because it's a fundamental question
5
27260
2000
perché è una domanda fondamentale
00:29
if we want to understand brain function.
6
29260
2000
se vogliamo capire il funzionamento del cervello.
00:31
And that is, why do we and other animals
7
31260
2000
Ed è, perché noi e altri animali
00:33
have brains?
8
33260
2000
abbiamo un cervello?
00:35
Not all species on our planet have brains,
9
35260
3000
Non tutte le specie sul pianeta hanno un cervello,
00:38
so if we want to know what the brain is for,
10
38260
2000
quindi se vogliamo capire a cosa serve il cervello,
00:40
let's think about why we evolved one.
11
40260
2000
cerchiamo di pensare a perché il nostro si è evoluto.
00:42
Now you may reason that we have one
12
42260
2000
Potreste pensare che ce l'abbiamo
00:44
to perceive the world or to think,
13
44260
2000
per percepire il mondo o per pensare,
00:46
and that's completely wrong.
14
46260
2000
ed è totalmente sbagliato.
00:48
If you think about this question for any length of time,
15
48260
3000
Se pensate a questa domanda per un momento
00:51
it's blindingly obvious why we have a brain.
16
51260
2000
è assolutamente ovvio il perché abbiamo un cervello.
00:53
We have a brain for one reason and one reason only,
17
53260
3000
Abbiamo un cervello per una ragione ed una sola,
00:56
and that's to produce adaptable and complex movements.
18
56260
3000
ed è per produrre movimenti complessi ed adattabili.
00:59
There is no other reason to have a brain.
19
59260
2000
Non ci sono altri motivi per avere un cervello.
01:01
Think about it.
20
61260
2000
Pensateci.
01:03
Movement is the only way you have
21
63260
2000
Il movimento è l'unico modo che abbiamo
01:05
of affecting the world around you.
22
65260
2000
di influenzare il mondo che abbiamo intorno a noi.
01:07
Now that's not quite true. There's one other way, and that's through sweating.
23
67260
3000
Non è proprio vero. C'è un altro modo, ed è attraverso il sudore.
01:10
But apart from that,
24
70260
2000
Ma a parte questo,
01:12
everything else goes through contractions of muscles.
25
72260
2000
tutto il resto passa attraverso la contrazione dei muscoli.
01:14
So think about communication --
26
74260
2000
Pensate alla comunicazione -
01:16
speech, gestures, writing, sign language --
27
76260
3000
linguaggio, gesti, scrittura, linguaggio dei segni -
01:19
they're all mediated through contractions of your muscles.
28
79260
3000
passano tutti dalla contrazione dei muscoli.
01:22
So it's really important to remember
29
82260
2000
È quindi molto importante ricordare
01:24
that sensory, memory and cognitive processes are all important,
30
84260
4000
che i processi sensoriali, mnemonici e cognitivi sono tutti importanti,
01:28
but they're only important
31
88260
2000
ma sono importanti solo
01:30
to either drive or suppress future movements.
32
90260
2000
per guidare o sopprimere futuri movimenti.
01:32
There can be no evolutionary advantage
33
92260
2000
Non ci può essere nessun vantaggio evolutivo
01:34
to laying down memories of childhood
34
94260
2000
nell'abbandonare ricordi d'infanzia
01:36
or perceiving the color of a rose
35
96260
2000
o percepire il colore di una rosa
01:38
if it doesn't affect the way you're going to move later in life.
36
98260
3000
se non influisce sul modo in cui ci muoveremo più avanti nella vita.
01:41
Now for those who don't believe this argument,
37
101260
2000
Per coloro che non credono a questo ragionamento,
01:43
we have trees and grass on our planet without the brain,
38
103260
2000
ci sono alberi ed erba sul nostro pianeta senza cervello,
01:45
but the clinching evidence is this animal here --
39
105260
2000
ma la prova evidente è questo animale qui -
01:47
the humble sea squirt.
40
107260
2000
l'umile ascidia.
01:49
Rudimentary animal, has a nervous system,
41
109260
3000
Animali primitivi, con un sistema nervoso,
01:52
swims around in the ocean in its juvenile life.
42
112260
2000
nuotano nell'oceano nei primi anni di vita.
01:54
And at some point of its life,
43
114260
2000
A un certo punto della loro vita,
01:56
it implants on a rock.
44
116260
2000
si impiantano su uno scoglio.
01:58
And the first thing it does in implanting on that rock, which it never leaves,
45
118260
3000
E la prima cosa che fanno impiantandosi su uno scoglio, che non lasciano più,
02:01
is to digest its own brain and nervous system
46
121260
3000
è digerire il proprio cervello e il proprio sistema nervoso
02:04
for food.
47
124260
2000
per alimentarsi.
02:06
So once you don't need to move,
48
126260
2000
Quindi una volta che non c'è più bisogno di muoversi,
02:08
you don't need the luxury of that brain.
49
128260
3000
non c'è più necessità del lusso di un cervello.
02:11
And this animal is often taken
50
131260
2000
E questo animale viene spesso preso
02:13
as an analogy to what happens at universities
51
133260
2000
come analogia a quello che succede nelle università
02:15
when professors get tenure,
52
135260
2000
quando i professori ottengono la cattedra,
02:17
but that's a different subject.
53
137260
2000
ma questo è un altro discorso.
02:19
(Applause)
54
139260
2000
(Applausi)
02:21
So I am a movement chauvinist.
55
141260
3000
Sono fanatico del movimento.
02:24
I believe movement is the most important function of the brain --
56
144260
2000
Credo che il movimento sia la funzione più importante del cervello,
02:26
don't let anyone tell you that it's not true.
57
146260
2000
e non fatevi dire il contrario da nessuno.
02:28
Now if movement is so important,
58
148260
2000
Se il movimento è così importante,
02:30
how well are we doing
59
150260
2000
quanto siamo bravi
02:32
understanding how the brain controls movement?
60
152260
2000
nel capire come il cervello controlla i movimenti?
02:34
And the answer is we're doing extremely poorly; it's a very hard problem.
61
154260
2000
E la risposta è che siamo pessimi; è un problema molto difficile.
02:36
But we can look at how well we're doing
62
156260
2000
Ma possiamo vedere quanto siamo bravi
02:38
by thinking about how well we're doing building machines
63
158260
2000
pensando a quanto siamo bravi nel costruire macchine
02:40
which can do what humans can do.
64
160260
2000
che possono fare quello che fanno gli esseri umani.
02:42
Think about the game of chess.
65
162260
2000
Pensate al gioco degli scacchi.
02:44
How well are we doing determining what piece to move where?
66
164260
3000
Quanto siamo bravi a determinare che pezzo muovere e dove?
02:47
If you pit Garry Kasparov here, when he's not in jail,
67
167260
3000
Se fate sfidare Gary Kasparov, quando non è in galera,
02:50
against IBM's Deep Blue,
68
170260
2000
contro l'IBM Deep Blue,
02:52
well the answer is IBM's Deep Blue will occasionally win.
69
172260
3000
la risposta è che l'IBM Deep Blue vincerà di tanto in tanto.
02:55
And I think if IBM's Deep Blue played anyone in this room, it would win every time.
70
175260
3000
E credo che se l'IBM Deep Blue giocasse con chiunque in questa stanza, vincerebbe sempre.
02:58
That problem is solved.
71
178260
2000
Quel problema è risolto.
03:00
What about the problem
72
180260
2000
E che ne dite del problema
03:02
of picking up a chess piece,
73
182260
2000
di afferrare un pezzo degli scacchi,
03:04
dexterously manipulating it and putting it back down on the board?
74
184260
3000
maneggiarlo abilmente e rimetterlo sulla scacchiera?
03:07
If you put a five year-old child's dexterity against the best robots of today,
75
187260
3000
Se mettete di fronte l'abilità di un bambino di cinque anni contro i migliori robot di oggi,
03:10
the answer is simple:
76
190260
2000
la risposta è semplice:
03:12
the child wins easily.
77
192260
2000
il bambino vince con facilità.
03:14
There's no competition at all.
78
194260
2000
Non c'è gara.
03:16
Now why is that top problem so easy
79
196260
2000
Perché questo problema è così facile
03:18
and the bottom problem so hard?
80
198260
2000
e l'altro problema è così difficile?
03:20
One reason is a very smart five year-old
81
200260
2000
Un motivo è che un bambino di cinque anni molto sveglio
03:22
could tell you the algorithm for that top problem --
82
202260
2000
potrebbe dirvi l'algoritmo di quel problema -
03:24
look at all possible moves to the end of the game
83
204260
2000
cercare tutte le possibili mosse fino alla fine del gioco
03:26
and choose the one that makes you win.
84
206260
2000
e scegliere quella che vi fa vincere.
03:28
So it's a very simple algorithm.
85
208260
2000
È un algoritmo molto semplice.
03:30
Now of course there are other moves,
86
210260
2000
Ovviamente ci sono altre mosse,
03:32
but with vast computers we approximate
87
212260
2000
ma con grandi computer è approssimativo
03:34
and come close to the optimal solution.
88
214260
2000
e si avvicina alla soluzione ottimale.
03:36
When it comes to being dexterous,
89
216260
2000
Quando si tratta di abilità,
03:38
it's not even clear what the algorithm is you have to solve to be dexterous.
90
218260
2000
non è chiaro quale sia l'algoritmo da seguire per essere abili.
03:40
And we'll see you have to both perceive and act on the world,
91
220260
2000
E ci accorgiamo che si deve sia percepire che agire sul mondo,
03:42
which has a lot of problems.
92
222260
2000
cosa che comporta molti problemi.
03:44
But let me show you cutting-edge robotics.
93
224260
2000
Ma lasciate che vi mostri una robotica d'avanguardia.
03:46
Now a lot of robotics is very impressive,
94
226260
2000
Molta robotica è assai impressionante,
03:48
but manipulation robotics is really just in the dark ages.
95
228260
3000
ma la robotica di manipolazione è ancora in un periodo buio.
03:51
So this is the end of a Ph.D. project
96
231260
2000
Questa è la conclusione del progetto di un dottorato
03:53
from one of the best robotics institutes.
97
233260
2000
che viene da uno dei migliori istituti di robotica.
03:55
And the student has trained this robot
98
235260
2000
Lo studente ha formato questo robot
03:57
to pour this water into a glass.
99
237260
2000
per versare l'acqua in un bicchiere.
03:59
It's a hard problem because the water sloshes about, but it can do it.
100
239260
3000
È un problema difficile perché l'acqua fuoriesce, ma riesce a farlo.
04:02
But it doesn't do it with anything like the agility of a human.
101
242260
3000
Ma non lo fa neanche lontanamente con l'agilità di un essere umano.
04:05
Now if you want this robot to do a different task,
102
245260
3000
Se volete che questo robot faccia un lavoro diverso
04:08
that's another three-year Ph.D. program.
103
248260
3000
ci vuole un altro programma di dottorato di tre anni.
04:11
There is no generalization at all
104
251260
2000
In robotica, da un compito ad un altro
04:13
from one task to another in robotics.
105
253260
2000
non è possibile generalizzare.
04:15
Now we can compare this
106
255260
2000
Possiamo confrontare questo
04:17
to cutting-edge human performance.
107
257260
2000
con l'esecuzione all'avanguardia di un essere umano.
04:19
So what I'm going to show you is Emily Fox
108
259260
2000
Vi mostrerò Emily Fox
04:21
winning the world record for cup stacking.
109
261260
3000
che realizza il record del mondo di impilamento dei bicchierini.
04:24
Now the Americans in the audience will know all about cup stacking.
110
264260
2000
Gli americani tra il pubblico sapranno tutto di impilamento dei bicchierini.
04:26
It's a high school sport
111
266260
2000
È uno sport che si pratica al liceo
04:28
where you have 12 cups you have to stack and unstack
112
268260
2000
dove ci sono 12 bicchierini da impilare e disimpilare
04:30
against the clock in a prescribed order.
113
270260
2000
in ordine preciso e contro il tempo.
04:32
And this is her getting the world record in real time.
114
272260
3000
E questa è lei mentre realizza il record del mondo in tempo reale.
04:39
(Laughter)
115
279260
8000
(Risate)
04:47
(Applause)
116
287260
5000
(Applausi)
04:52
And she's pretty happy.
117
292260
2000
Ed è abbastanza contenta.
04:54
We have no idea what is going on inside her brain when she does that,
118
294260
2000
Non abbiamo nessuna idea di quello che succede nel suo cervello mentre lo fa,
04:56
and that's what we'd like to know.
119
296260
2000
ed è quello che vorremmo sapere.
04:58
So in my group, what we try to do
120
298260
2000
Quindi nel mio gruppo, quello che cerchiamo di fare
05:00
is reverse engineer how humans control movement.
121
300260
3000
è l'ingegneria inversa di come gli esseri umani controllano il movimento.
05:03
And it sounds like an easy problem.
122
303260
2000
E sembra un problema facile.
05:05
You send a command down, it causes muscles to contract.
123
305260
2000
Si manda giù un comando, che causa contrazione muscolare.
05:07
Your arm or body moves,
124
307260
2000
Il braccio o il corpo si muovono,
05:09
and you get sensory feedback from vision, from skin, from muscles and so on.
125
309260
3000
e si ottiene una reazione sensoriale dalla vista, dalla pelle, dai muscoli e così via.
05:12
The trouble is
126
312260
2000
Il problema è
05:14
these signals are not the beautiful signals you want them to be.
127
314260
2000
che questi segnali non sono i bei segnali che vorreste.
05:16
So one thing that makes controlling movement difficult
128
316260
2000
Quindi una cosa che rende difficile il controllo del movimento
05:18
is, for example, sensory feedback is extremely noisy.
129
318260
3000
è, per esempio, che il riscontro sensoriale è estremamente rumoroso.
05:21
Now by noise, I do not mean sound.
130
321260
3000
Con rumoroso non intendo sonoro.
05:24
We use it in the engineering and neuroscience sense
131
324260
2000
Usiamo il termine in ingegneria e neuroscieza
05:26
meaning a random noise corrupting a signal.
132
326260
2000
con il significato di rumore casuale che altera il segnale.
05:28
So the old days before digital radio when you were tuning in your radio
133
328260
3000
Ai vecchi tempi prima della radio digitale quando sintonizzavate la radio
05:31
and you heard "crrcckkk" on the station you wanted to hear,
134
331260
2000
e sentivate "crrrrckkk" sulla frequenza che volevate sentire,
05:33
that was the noise.
135
333260
2000
quello era il rumore.
05:35
But more generally, this noise is something that corrupts the signal.
136
335260
3000
Ma in linea generale, questo rumore è qualcosa che altera il segnale.
05:38
So for example, if you put your hand under a table
137
338260
2000
Quindi per esempio, se mettete le mani sotto un tavolo
05:40
and try to localize it with your other hand,
138
340260
2000
e cercate di localizzarla con l'altra mano,
05:42
you can be off by several centimeters
139
342260
2000
potete discostarvi di parecchi centimetri
05:44
due to the noise in sensory feedback.
140
344260
2000
a causa del rumore del riscontro sensoriale.
05:46
Similarly, when you put motor output on movement output,
141
346260
2000
Allo stesso modo, quando gli effettori vengono stimolati,
05:48
it's extremely noisy.
142
348260
2000
è estremamente rumoroso.
05:50
Forget about trying to hit the bull's eye in darts,
143
350260
2000
Dimenticatevi di colpire il bersaglio con le freccette,
05:52
just aim for the same spot over and over again.
144
352260
2000
puntando allo stesso punto più e più volte.
05:54
You have a huge spread due to movement variability.
145
354260
3000
C'è una grossa differenza dovuta alla variabilità del movimento.
05:57
And more than that, the outside world, or task,
146
357260
2000
E non solo, il mondo esterno, o il compito,
05:59
is both ambiguous and variable.
147
359260
2000
sono entrambi ambigui e variabili.
06:01
The teapot could be full, it could be empty.
148
361260
2000
Il bicchiere può essere pieno, può essere vuoto.
06:03
It changes over time.
149
363260
2000
Cambia col tempo.
06:05
So we work in a whole sensory movement task soup of noise.
150
365260
4000
Lavoriamo quindi in un calderone di rumore da movimento sensoriale.
06:09
Now this noise is so great
151
369260
2000
Questo rumore è così fantastico
06:11
that society places a huge premium
152
371260
2000
che la società offre una grossa ricompensa
06:13
on those of us who can reduce the consequences of noise.
153
373260
3000
a coloro che riescono a ridurre le conseguenze del rumore.
06:16
So if you're lucky enough to be able to knock a small white ball
154
376260
3000
Se siete abbastanza fortunati da riuscire a infilare una pallina bianca
06:19
into a hole several hundred yards away using a long metal stick,
155
379260
3000
in un buco a centinaia di metri di distanza utilizzando una stecca di metallo,
06:22
our society will be willing to reward you
156
382260
2000
la nostra società è disposta a ricompensarvi
06:24
with hundreds of millions of dollars.
157
384260
3000
con centinaia di milioni di dollari.
06:27
Now what I want to convince you of
158
387260
2000
Ciò di cui voglio convincervi
06:29
is the brain also goes through a lot of effort
159
389260
2000
è che il cervello fa molti sforzi
06:31
to reduce the negative consequences
160
391260
2000
per ridurre le conseguenze negative
06:33
of this sort of noise and variability.
161
393260
2000
di questo rumore e variabilità.
06:35
And to do that, I'm going to tell you about a framework
162
395260
2000
E per fare questo, vi racconterò di una struttura
06:37
which is very popular in statistics and machine learning of the last 50 years
163
397260
3000
molto popolare in statistica e nell'apprendimento automatico degli ultimi 50 anni
06:40
called Bayesian decision theory.
164
400260
2000
che si chiama Teoria Decisionale Bayesiana.
06:42
And it's more recently a unifying way
165
402260
3000
E oggi è un sistema unificante
06:45
to think about how the brain deals with uncertainty.
166
405260
3000
per pensare a come il cervello tratta l'incertezza.
06:48
And the fundamental idea is you want to make inferences and then take actions.
167
408260
3000
E l'idea fondamentale è che si vogliono fare deduzioni e poi intraprendere azioni.
06:51
So let's think about the inference.
168
411260
2000
Pensiamo alla deduzione.
06:53
You want to generate beliefs about the world.
169
413260
2000
Si vuole generare una convinzione sul mondo.
06:55
So what are beliefs?
170
415260
2000
Quali sono le vostre convinzioni?
06:57
Beliefs could be: where are my arms in space?
171
417260
2000
Le convinzioni possono essere: dove sono le mie braccia nello spazio?
06:59
Am I looking at a cat or a fox?
172
419260
2000
Assomiglio a un gatto o a una volpe?
07:01
But we're going to represent beliefs with probabilities.
173
421260
3000
Ma rappresenteremo le convinzioni con le probabilità.
07:04
So we're going to represent a belief
174
424260
2000
Rappresenteremo una convinzione
07:06
with a number between zero and one --
175
426260
2000
con un numero tra zero e uno -
07:08
zero meaning I don't believe it at all, one means I'm absolutely certain.
176
428260
3000
zero significa che non ci credo per niente, uno significa che sono assolutamente certo.
07:11
And numbers in between give you the gray levels of uncertainty.
177
431260
3000
E i numeri in mezzo vi danno i livelli di incertezza.
07:14
And the key idea to Bayesian inference
178
434260
2000
E l'idea chiave della deduzione bayesiana
07:16
is you have two sources of information
179
436260
2000
è avere due fonti di informazioni
07:18
from which to make your inference.
180
438260
2000
da cui fare la vostra deduzione.
07:20
You have data,
181
440260
2000
Avete i dati,
07:22
and data in neuroscience is sensory input.
182
442260
2000
e i dati in neuroscienza è uno stimolo sensoriale.
07:24
So I have sensory input, which I can take in to make beliefs.
183
444260
3000
Quindi ho uno stimolo sensoriale da cui partire per creare le mie convinzioni.
07:27
But there's another source of information, and that's effectively prior knowledge.
184
447260
3000
Ma c'è un'altra fonte di informazione, e sono in realtà le conoscenze precedenti.
07:30
You accumulate knowledge throughout your life in memories.
185
450260
3000
Accumulate conoscenza in memoria durante la vita.
07:33
And the point about Bayesian decision theory
186
453260
2000
E il punto della Teoria Decisionale Bayesiana
07:35
is it gives you the mathematics
187
455260
2000
è che vi dà la matematica
07:37
of the optimal way to combine
188
457260
2000
della maniera ottimale per combinare
07:39
your prior knowledge with your sensory evidence
189
459260
2000
le vostre conoscenze precedenti con le vostre prove sensoriali
07:41
to generate new beliefs.
190
461260
2000
per generare nuove convinzioni.
07:43
And I've put the formula up there.
191
463260
2000
E ho messo qui la formula.
07:45
I'm not going to explain what that formula is, but it's very beautiful.
192
465260
2000
Non starò qui a spiegarvi cos'è questa formula, ma è molto bella.
07:47
And it has real beauty and real explanatory power.
193
467260
3000
Ed è veramente bella e ha un reale potere esplicativo.
07:50
And what it really says, and what you want to estimate,
194
470260
2000
Quello che dice veramente, e quello che volete stimare,
07:52
is the probability of different beliefs
195
472260
2000
è la probabilità di diverse convinzioni
07:54
given your sensory input.
196
474260
2000
dati i vostri stimoli sensoriali.
07:56
So let me give you an intuitive example.
197
476260
2000
Lasciatemi fare un esempio intuitivo.
07:58
Imagine you're learning to play tennis
198
478260
3000
Immaginate di imparare a giocare a tennis
08:01
and you want to decide where the ball is going to bounce
199
481260
2000
e volete decidere dove rimbalzerà la palla
08:03
as it comes over the net towards you.
200
483260
2000
mentre si avvicina dalla rete verso di voi.
08:05
There are two sources of information
201
485260
2000
Ci sono due fonti di informazioni.
08:07
Bayes' rule tells you.
202
487260
2000
La regola di Baye ve lo dice.
08:09
There's sensory evidence -- you can use visual information auditory information,
203
489260
3000
Ci sono prove sensoriali - potete usare l'informazione visiva, l'informazione uditiva,
08:12
and that might tell you it's going to land in that red spot.
204
492260
3000
e potrebbe darvi quell'area rossa.
08:15
But you know that your senses are not perfect,
205
495260
3000
Ma sapete che i vostri sensi non sono perfetti,
08:18
and therefore there's some variability of where it's going to land
206
498260
2000
e quindi c'è una certa dose di variabilità sul punto in cui atterrerà
08:20
shown by that cloud of red,
207
500260
2000
evidenziata da quell'area rossa,
08:22
representing numbers between 0.5 and maybe 0.1.
208
502260
3000
che rappresenta numeri tra 0,5 e forse 0,1.
08:26
That information is available in the current shot,
209
506260
2000
Quell'informazione è disponibile per il colpo in corso,
08:28
but there's another source of information
210
508260
2000
ma c'è un'altra fonte di informazione
08:30
not available on the current shot,
211
510260
2000
non disponibile nel colpo in corso,
08:32
but only available by repeated experience in the game of tennis,
212
512260
3000
ma solo disponibile da esperienze ripetute nel tennis,
08:35
and that's that the ball doesn't bounce
213
515260
2000
ed è che la pallina non rimbalza
08:37
with equal probability over the court during the match.
214
517260
2000
con la stessa probabilità sul campo durante la partita.
08:39
If you're playing against a very good opponent,
215
519260
2000
Se giocate contro un avversario molto bravo,
08:41
they may distribute it in that green area,
216
521260
2000
potrebbe distribuirsi su quest'area verde,
08:43
which is the prior distribution,
217
523260
2000
che è la distribuzione precedente,
08:45
making it hard for you to return.
218
525260
2000
mettendovi in difficoltà nel rispondere.
08:47
Now both these sources of information carry important information.
219
527260
2000
Entrambe le fonti di informazioni contengono informazioni importanti.
08:49
And what Bayes' rule says
220
529260
2000
E quello che dice la regola di Bayes
08:51
is that I should multiply the numbers on the red by the numbers on the green
221
531260
3000
è che dovreste moltiplicare i numeri sull'area rossa per i numeri sull'area verde
08:54
to get the numbers of the yellow, which have the ellipses,
222
534260
3000
per ottenere i numeri del giallo, che hanno le ellissi,
08:57
and that's my belief.
223
537260
2000
e questa è la mia convinzione.
08:59
So it's the optimal way of combining information.
224
539260
3000
È la maniera ottimale di combinare l'informazione.
09:02
Now I wouldn't tell you all this if it wasn't that a few years ago,
225
542260
2000
Non vi direi tutto questo se non fosse che qualche anno fa,
09:04
we showed this is exactly what people do
226
544260
2000
abbiamo mostrato che questo è esattamente quello fa la gente
09:06
when they learn new movement skills.
227
546260
2000
quando impara nuovi movimenti.
09:08
And what it means
228
548260
2000
E ciò che significa
09:10
is we really are Bayesian inference machines.
229
550260
2000
è che siamo veramente delle macchine di deduzione bayesiana.
09:12
As we go around, we learn about statistics of the world and lay that down,
230
552260
4000
Mentre andiamo in giro, impariamo le statistiche del mondo e le mettiamo giù,
09:16
but we also learn
231
556260
2000
ma impariamo anche
09:18
about how noisy our own sensory apparatus is,
232
558260
2000
quanto sia rumoroso il nostro apparato sensoriale,
09:20
and then combine those
233
560260
2000
e combiniamo le due cose
09:22
in a real Bayesian way.
234
562260
2000
in maniera bayesiana.
09:24
Now a key part to the Bayesian is this part of the formula.
235
564260
3000
Un elemento chiave della deduzione bayesiana è questa parte della formula.
09:27
And what this part really says
236
567260
2000
E quello che dice questa parte
09:29
is I have to predict the probability
237
569260
2000
è che devo prevedere la probabilità
09:31
of different sensory feedbacks
238
571260
2000
dei diversi riscontri sensoriali
09:33
given my beliefs.
239
573260
2000
date le mie convinzioni.
09:35
So that really means I have to make predictions of the future.
240
575260
3000
Questo significa quindi che devo fare delle previsioni sul futuro.
09:38
And I want to convince you the brain does make predictions
241
578260
2000
E voglio convincerci che il cervello fa veramente delle previsioni
09:40
of the sensory feedback it's going to get.
242
580260
2000
dai riscontri sensoriali che recepirà.
09:42
And moreover, it profoundly changes your perceptions
243
582260
2000
Inoltre, cambia profondamente le vostre percezioni
09:44
by what you do.
244
584260
2000
a seconda di quello che fate.
09:46
And to do that, I'll tell you
245
586260
2000
E per fare questo, vi spiegherò
09:48
about how the brain deals with sensory input.
246
588260
2000
come il cervello si interfaccia con gli stimoli sensoriali.
09:50
So you send a command out,
247
590260
3000
Allora, inviate un comando,
09:53
you get sensory feedback back,
248
593260
2000
e avete in cambio un riscontro sensoriale,
09:55
and that transformation is governed
249
595260
2000
e quella trasformazione viene gestita
09:57
by the physics of your body and your sensory apparatus.
250
597260
3000
dalla fisica del vostro corpo e dal vostro apparato sensoriale.
10:00
But you can imagine looking inside the brain.
251
600260
2000
Ma potete immaginarlo guardando all'interno del cervello.
10:02
And here's inside the brain.
252
602260
2000
Ecco l'interno del cervello.
10:04
You might have a little predictor, a neural simulator,
253
604260
2000
Potreste avere un piccolo indovino, un simulatore neurale,
10:06
of the physics of your body and your senses.
254
606260
2000
della fisica del vostro corpo e dei vostri sensi.
10:08
So as you send a movement command down,
255
608260
2000
Quindi mentre inviate un comando di movimento,
10:10
you tap a copy of that off
256
610260
2000
ne registrate una copia
10:12
and run it into your neural simulator
257
612260
2000
e la fate girare nel vostro simulatore neurale
10:14
to anticipate the sensory consequences of your actions.
258
614260
4000
per anticipare le conseguenze sensoriali delle vostre azioni.
10:18
So as I shake this ketchup bottle,
259
618260
2000
Quindi, mentre agito questa bottiglia di ketchup,
10:20
I get some true sensory feedback as the function of time in the bottom row.
260
620260
3000
ne ricavo dei riscontri sensoriali in funzione del tempo del risultato.
10:23
And if I've got a good predictor, it predicts the same thing.
261
623260
3000
E se il mio sistema prevede bene, prevede la stessa cosa.
10:26
Well why would I bother doing that?
262
626260
2000
Perché dovrei disturbarmi a fare tutto ciò?
10:28
I'm going to get the same feedback anyway.
263
628260
2000
Otterrò comunque lo stesso riscontro.
10:30
Well there's good reasons.
264
630260
2000
Ci sono buone ragioni.
10:32
Imagine, as I shake the ketchup bottle,
265
632260
2000
Immaginate, mentre agito la bottiglia di ketchup,
10:34
someone very kindly comes up to me and taps it on the back for me.
266
634260
3000
appare qualcuno che gentilmente dà qualche colpetto per me.
10:37
Now I get an extra source of sensory information
267
637260
2000
Ricevo una fonte extra di informazioni sensoriali
10:39
due to that external act.
268
639260
2000
dovute ad un atto esterno.
10:41
So I get two sources.
269
641260
2000
Ho quindi due fonti.
10:43
I get you tapping on it, and I get me shaking it,
270
643260
3000
Ci siete voi che date colpetti e io che agito,
10:46
but from my senses' point of view,
271
646260
2000
entrambi dal punto di vista dei miei sensi,
10:48
that is combined together into one source of information.
272
648260
3000
che si combinano in un'unica fonte di informazione.
10:51
Now there's good reason to believe
273
651260
2000
Ci sono buone ragioni per credere
10:53
that you would want to be able to distinguish external events from internal events.
274
653260
3000
che vorreste essere in grado di distinguere eventi esterni da eventi interni.
10:56
Because external events are actually much more behaviorally relevant
275
656260
3000
Perché gli eventi esterni sono molto più rilevanti dal punto di vista comportamentale
10:59
than feeling everything that's going on inside my body.
276
659260
3000
del sentire tutto ciò che accade all'interno del mio corpo.
11:02
So one way to reconstruct that
277
662260
2000
Un modo per ricostruirlo
11:04
is to compare the prediction --
278
664260
2000
è confrontare la previsione -
11:06
which is only based on your movement commands --
279
666260
2000
che è basato solo sui vostri comandi di movimento -
11:08
with the reality.
280
668260
2000
con la realtà.
11:10
Any discrepancy should hopefully be external.
281
670260
3000
Qualunque discrepanza dovrebbe, se tutto va bene, essere esterna.
11:13
So as I go around the world,
282
673260
2000
Mentre me ne vado in giro,
11:15
I'm making predictions of what I should get, subtracting them off.
283
675260
3000
faccio previsioni di quello che dovrebbe succedere e le sottraggo.
11:18
Everything left over is external to me.
284
678260
2000
Tutto ciò che rimane mi è esterno.
11:20
What evidence is there for this?
285
680260
2000
Quali prove ci sono di tutto ciò?
11:22
Well there's one very clear example
286
682260
2000
C'è un esempio molto chiaro
11:24
where a sensation generated by myself feels very different
287
684260
2000
dove una sensazione generata da me stesso sembra molto diversa
11:26
then if generated by another person.
288
686260
2000
da quella generata da un'altra persona.
11:28
And so we decided the most obvious place to start
289
688260
2000
Abbiamo quindi deciso il punto più ovvio da cui cominciare
11:30
was with tickling.
290
690260
2000
ossia il solletico.
11:32
It's been known for a long time, you can't tickle yourself
291
692260
2000
È noto da tempo che non si può solleticare sé stessi
11:34
as well as other people can.
292
694260
2000
così come riescono a fare gli altri.
11:36
But it hasn't really been shown, it's because you have a neural simulator,
293
696260
3000
Ma non è stato veramente dimostrato, è perché avete un simulatore neurale,
11:39
simulating your own body
294
699260
2000
che simula il vostro corpo
11:41
and subtracting off that sense.
295
701260
2000
e sottrae quel senso.
11:43
So we can bring the experiments of the 21st century
296
703260
3000
Possiamo allora avviare l'esperimento del 21° secolo
11:46
by applying robotic technologies to this problem.
297
706260
3000
applicando la robotica a questo problema.
11:49
And in effect, what we have is some sort of stick in one hand attached to a robot,
298
709260
3000
E in effetti, abbiamo questo bastoncino attaccato alla mano di un robot,
11:52
and they're going to move that back and forward.
299
712260
2000
che lo muoverà avanti e indietro.
11:54
And then we're going to track that with a computer
300
714260
2000
E lo tracceremo con un computer
11:56
and use it to control another robot,
301
716260
2000
e lo useremo per controllare un altro robot,
11:58
which is going to tickle their palm with another stick.
302
718260
2000
che gli farà il solletico sul palmo della mano con un altro bastoncino.
12:00
And then we're going to ask them to rate a bunch of things
303
720260
2000
E poi si chiederà loro di valutare tutta una serie di cose
12:02
including ticklishness.
304
722260
2000
incluso il solletico.
12:04
I'll show you just one part of our study.
305
724260
2000
Vi mostrerò solo una parte dello studio.
12:06
And here I've taken away the robots,
306
726260
2000
E qui ho tolto i robot,
12:08
but basically people move with their right arm sinusoidally back and forward.
307
728260
3000
ma sostanzialmente le persone muovono il braccio destro avanti e indietro.
12:11
And we replay that to the other hand with a time delay.
308
731260
3000
E lo replichiamo dall'altra parte con un certo ritardo.
12:14
Either no time delay,
309
734260
2000
O senza ritardo,
12:16
in which case light would just tickle your palm,
310
736260
2000
nel qual caso la luce semplicemente vi solletica il palmo,
12:18
or with a time delay of two-tenths of three-tenths of a second.
311
738260
4000
o con un certo ritardo di 2 decimi o 3 decimi di secondo.
12:22
So the important point here
312
742260
2000
Il punto importante qui
12:24
is the right hand always does the same things -- sinusoidal movement.
313
744260
3000
è che la mano destra fa sempre le stesse cose - lo stesso movimento ondeggiante.
12:27
The left hand always is the same and puts sinusoidal tickle.
314
747260
3000
La mano sinistra è sempre la stessa e fa un solletico ondeggiante.
12:30
All we're playing with is a tempo causality.
315
750260
2000
Tutto quello con cui stiamo giocando è la causalità temporale.
12:32
And as we go from naught to 0.1 second,
316
752260
2000
E mentre passiamo da niente a 0,1 secondo,
12:34
it becomes more ticklish.
317
754260
2000
comincia a soffrire il solletico.
12:36
As you go from 0.1 to 0.2,
318
756260
2000
Mentre passiamo da 0,1 a 0,2,
12:38
it becomes more ticklish at the end.
319
758260
2000
soffre ancora di più il solletico.
12:40
And by 0.2 of a second,
320
760260
2000
E a 0,2 secondi,
12:42
it's equivalently ticklish
321
762260
2000
soffre il solletico come quando
12:44
to the robot that just tickled you without you doing anything.
322
764260
2000
il robot faceva il solletico e lui non faceva niente.
12:46
So whatever is responsible for this cancellation
323
766260
2000
Qualunque cosa sia responsabile di questa cancellazione
12:48
is extremely tightly coupled with tempo causality.
324
768260
3000
è estremamente legato alla casualità temporale.
12:51
And based on this illustration, we really convinced ourselves in the field
325
771260
3000
E basandoci su questa illustrazione, ci siamo veramente convinti in questo campo
12:54
that the brain's making precise predictions
326
774260
2000
che il cervello fa previsioni precise
12:56
and subtracting them off from the sensations.
327
776260
3000
e le sottrae dalle sensazioni.
12:59
Now I have to admit, these are the worst studies my lab has ever run.
328
779260
3000
Devo ammettere, questi sono gli studi peggiori che il mio laboratorio abbia mai fatto.
13:02
Because the tickle sensation on the palm comes and goes,
329
782260
2000
Perché la sensazione di solletico sul palmo va e viene,
13:04
you need large numbers of subjects
330
784260
2000
bisogna avere un numero più ampio di soggetti
13:06
with these stars making them significant.
331
786260
2000
con queste stelle che li rendono più significativi.
13:08
So we were looking for a much more objective way
332
788260
2000
Stiamo quindi cercando un modo più obiettivo
13:10
to assess this phenomena.
333
790260
2000
di valutare il fenomeno.
13:12
And in the intervening years I had two daughters.
334
792260
2000
E nel frattempo ho avuto due bambine.
13:14
And one thing you notice about children in backseats of cars on long journeys,
335
794260
3000
E una cosa che si nota nei bambini nei sedili posteriori delle macchine nei viaggi lunghi,
13:17
they get into fights --
336
797260
2000
litigano -
13:19
which started with one of them doing something to the other, the other retaliating.
337
799260
3000
cominciano con uno che fa qualcosa all'altro, l'altro che si vendica.
13:22
It quickly escalates.
338
802260
2000
Si intensifica rapidamente.
13:24
And children tend to get into fights which escalate in terms of force.
339
804260
3000
E i bambini tendono a innescare litigi che si intensificano.
13:27
Now when I screamed at my children to stop,
340
807260
2000
Quando urlo alle mie figlie di smettere,
13:29
sometimes they would both say to me
341
809260
2000
qualche volta mi dicono entrambe
13:31
the other person hit them harder.
342
811260
3000
che l'altra l'ha colpita più forte.
13:34
Now I happen to know my children don't lie,
343
814260
2000
Per fortuna so che le mie bambine non mentono.
13:36
so I thought, as a neuroscientist,
344
816260
2000
quindi ho pensato, in quanto neuroscienziato,
13:38
it was important how I could explain
345
818260
2000
che fosse importante cercare di spiegare
13:40
how they were telling inconsistent truths.
346
820260
2000
come potessero raccontare verità incoerenti.
13:42
And we hypothesize based on the tickling study
347
822260
2000
E ipotizziamo, basandoci sugli studi sul solletico,
13:44
that when one child hits another,
348
824260
2000
che quando un bambino ne colpisce un altro,
13:46
they generate the movement command.
349
826260
2000
generano un comando di movimento.
13:48
They predict the sensory consequences and subtract it off.
350
828260
3000
Prevedono le conseguenze sensoriali e le sottraggono.
13:51
So they actually think they've hit the person less hard than they have --
351
831260
2000
Quindi in realtà pensano di avere colpito la persona meno forte di loro -
13:53
rather like the tickling.
352
833260
2000
un po' come nel solletico.
13:55
Whereas the passive recipient
353
835260
2000
Mentre il destinatario passivo
13:57
doesn't make the prediction, feels the full blow.
354
837260
2000
non fa previsioni, sente tutta l'intensità della botta.
13:59
So if they retaliate with the same force,
355
839260
2000
Quindi se reagiscono con la stessa forza,
14:01
the first person will think it's been escalated.
356
841260
2000
la prima persona penserà che è stata intensificata.
14:03
So we decided to test this in the lab.
357
843260
2000
Allora abbiamo deciso di testarlo in laboratorio.
14:05
(Laughter)
358
845260
3000
(Risate)
14:08
Now we don't work with children, we don't work with hitting,
359
848260
2000
Non lavoriamo con i bambini, non lavoriamo con la forza,
14:10
but the concept is identical.
360
850260
2000
ma il concetto è identico.
14:12
We bring in two adults. We tell them they're going to play a game.
361
852260
3000
Portiamo due adulti. Diciamo loro che giocheranno a un gioco.
14:15
And so here's player one and player two sitting opposite to each other.
362
855260
2000
E quindi ecco il giocatore uno e il giocatore due seduti l'uno di fronte all'altro.
14:17
And the game is very simple.
363
857260
2000
E il gioco è molto semplice.
14:19
We started with a motor
364
859260
2000
Abbiamo cominciato con un motore
14:21
with a little lever, a little force transfuser.
365
861260
2000
con una piccola leva, che trasmetta forza.
14:23
And we use this motor to apply force down to player one's fingers
366
863260
2000
E usiamo questo motore per imprimere la forza sulle dita del giocatore uno
14:25
for three seconds and then it stops.
367
865260
3000
per tre secondi e poi si ferma.
14:28
And that player's been told, remember the experience of that force
368
868260
3000
E a quel giocatore viene detto, ricordati l'esperienza di quella forza
14:31
and use your other finger
369
871260
2000
e usa l'altro dito
14:33
to apply the same force
370
873260
2000
per imprimere la stessa forza
14:35
down to the other subject's finger through a force transfuser -- and they do that.
371
875260
3000
sulle dita dell'altro soggetto con una trasmissione della forza - e lo fanno.
14:38
And player two's been told, remember the experience of that force.
372
878260
3000
E al giocatore due viene detto, ricordati l'esperienza di quella forza.
14:41
Use your other hand to apply the force back down.
373
881260
3000
Usa l'altra mano per restituire la stessa forza.
14:44
And so they take it in turns
374
884260
2000
E quindi a turno
14:46
to apply the force they've just experienced back and forward.
375
886260
2000
applicano la stessa forza che hanno risentito avanti e indietro.
14:48
But critically,
376
888260
2000
Importante però,
14:50
they're briefed about the rules of the game in separate rooms.
377
890260
3000
è che vengono istruiti sulle regole del gioco in stanze separate.
14:53
So they don't know the rules the other person's playing by.
378
893260
2000
Quindi non sanno le regole con cui sta giocando l'altra persona.
14:55
And what we've measured
379
895260
2000
E quello che abbiamo misurato
14:57
is the force as a function of terms.
380
897260
2000
è la forza in funzione delle regole.
14:59
And if we look at what we start with,
381
899260
2000
E se guardiamo quello con cui abbiamo iniziato,
15:01
a quarter of a Newton there, a number of turns,
382
901260
2000
lì un quarto di Newton, un numero di giri,
15:03
perfect would be that red line.
383
903260
2000
l'ideale sarebbe quella linea rossa.
15:05
And what we see in all pairs of subjects is this --
384
905260
3000
E quello che vediamo in ogni coppia è questo -
15:08
a 70 percent escalation in force
385
908260
2000
un aumento del 70% della forza
15:10
on each go.
386
910260
2000
ad ogni passaggio.
15:12
So it really suggests, when you're doing this --
387
912260
2000
Suggerisce quindi, quando lo facciamo -
15:14
based on this study and others we've done --
388
914260
2000
basandoci su questi studi e altri che abbiamo fatto -
15:16
that the brain is canceling the sensory consequences
389
916260
2000
che il cervello cancella le conseguenze sensoriali
15:18
and underestimating the force it's producing.
390
918260
2000
e sottovaluta la forza che produce.
15:20
So it re-shows the brain makes predictions
391
920260
2000
Quindi mostra di nuovo che il cervello fa previsioni
15:22
and fundamentally changes the precepts.
392
922260
3000
e in sostanza cambia le regole.
15:25
So we've made inferences, we've done predictions,
393
925260
3000
Quindi abbiamo fatto delle deduzioni, abbiamo fatto delle previsioni,
15:28
now we have to generate actions.
394
928260
2000
ora dobbiamo generare delle azioni.
15:30
And what Bayes' rule says is, given my beliefs,
395
930260
2000
E quello che dice la regola di Baye è, date le mie convinzioni,
15:32
the action should in some sense be optimal.
396
932260
2000
l'azione dovrebbe in qualche modo essere ottimale.
15:34
But we've got a problem.
397
934260
2000
Ma c'è un problema.
15:36
Tasks are symbolic -- I want to drink, I want to dance --
398
936260
3000
I compiti sono simbolici - voglio bere, voglio ballare -
15:39
but the movement system has to contract 600 muscles
399
939260
2000
ma il sistema motorio deve contrarre 600 muscoli
15:41
in a particular sequence.
400
941260
2000
in una particolare sequenza.
15:43
And there's a big gap
401
943260
2000
E c'è una grossa differenza
15:45
between the task and the movement system.
402
945260
2000
tra il compito e il sistema motorio.
15:47
So it could be bridged in infinitely many different ways.
403
947260
2000
Potrebbe quindi essere colmato in infiniti modi diversi.
15:49
So think about just a point to point movement.
404
949260
2000
Pensate a un solo punto a cui indirizzare il movimento.
15:51
I could choose these two paths
405
951260
2000
Potrei scegliere questi due percorsi
15:53
out of an infinite number of paths.
406
953260
2000
da un infinito numero di percorsi.
15:55
Having chosen a particular path,
407
955260
2000
Avendo scelto un particolare tracciato,
15:57
I can hold my hand on that path
408
957260
2000
posso tenere la mano su quel tracciato
15:59
as infinitely many different joint configurations.
409
959260
2000
con infinite differenti configurazioni dell'articolazione.
16:01
And I can hold my arm in a particular joint configuration
410
961260
2000
E posso tenere il mio braccio in una particolare configurazione congiunta
16:03
either very stiff or very relaxed.
411
963260
2000
molto rigida o molto rilassata.
16:05
So I have a huge amount of choice to make.
412
965260
3000
Ho una grande quantità di scelte da fare.
16:08
Now it turns out, we are extremely stereotypical.
413
968260
3000
Scopriamo che siamo estremamente stereotipati.
16:11
We all move the same way pretty much.
414
971260
3000
Ci muoviamo più o meno tutti nello stesso modo.
16:14
And so it turns out we're so stereotypical,
415
974260
2000
Si scopre che siamo così stereotipati,
16:16
our brains have got dedicated neural circuitry
416
976260
2000
che i nostri cervelli hanno un circuito neurale dedicato
16:18
to decode this stereotyping.
417
978260
2000
per decodificare questi stereotipi.
16:20
So if I take some dots
418
980260
2000
Con qualche puntino
16:22
and set them in motion with biological motion,
419
982260
3000
che metto in movimento con un movimento biologico,
16:25
your brain's circuitry would understand instantly what's going on.
420
985260
3000
i circuiti del vostro cervello capiscono istantaneamente cosa sta succedendo.
16:28
Now this is a bunch of dots moving.
421
988260
2000
Questa è una serie di puntini in movimento.
16:30
You will know what this person is doing,
422
990260
3000
Sapete cosa sta facendo questa persona,
16:33
whether happy, sad, old, young -- a huge amount of information.
423
993260
3000
se è felice, triste, vecchia, giovane - tantissime informazioni.
16:36
If these dots were cars going on a racing circuit,
424
996260
2000
Se questi puntini fossero auto in un circuito di gara,
16:38
you would have absolutely no idea what's going on.
425
998260
3000
non avreste assolutamente idea di quello che sta succedendo.
16:41
So why is it
426
1001260
2000
Allora perché
16:43
that we move the particular ways we do?
427
1003260
2000
ci muoviamo in quel modo particolare?
16:45
Well let's think about what really happens.
428
1005260
2000
Pensiamo a quello che succede veramente.
16:47
Maybe we don't all quite move the same way.
429
1007260
3000
Magari non ci muoviamo tutti nello stesso modo.
16:50
Maybe there's variation in the population.
430
1010260
2000
Magari c'è qualche differenza tra la popolazione.
16:52
And maybe those who move better than others
431
1012260
2000
E forse coloro che si muovono meglio di altri
16:54
have got more chance of getting their children into the next generation.
432
1014260
2000
hanno più possibilità di mandare avanti la propria prole nella generazione successiva.
16:56
So in evolutionary scales, movements get better.
433
1016260
3000
Quindi sulla scala dell'evoluzione, i movimenti migliorano.
16:59
And perhaps in life, movements get better through learning.
434
1019260
3000
E forse nella vita, i movimenti migliorano imparando.
17:02
So what is it about a movement which is good or bad?
435
1022260
2000
Allora com'è un buon movimento e uno cattivo?
17:04
Imagine I want to intercept this ball.
436
1024260
2000
Immaginate che voglia intercettare questa palla.
17:06
Here are two possible paths to that ball.
437
1026260
3000
Ci sono due possibili percorsi per prendere la palla.
17:09
Well if I choose the left-hand path,
438
1029260
2000
Se scelgo la mano sinista,
17:11
I can work out the forces required
439
1031260
2000
posso tirare fuori la forza richiesta
17:13
in one of my muscles as a function of time.
440
1033260
2000
in uno dei miei muscoli in funzione del tempo.
17:15
But there's noise added to this.
441
1035260
2000
Ma a questo si aggiunge rumore.
17:17
So what I actually get, based on this lovely, smooth, desired force,
442
1037260
3000
Quello che si ottiene, basandoci su questa splendida e regolare forza desiderata,
17:20
is a very noisy version.
443
1040260
2000
è una versione molto rumorosa.
17:22
So if I pick the same command through many times,
444
1042260
3000
Se do lo stesso comando molte volte,
17:25
I will get a different noisy version each time, because noise changes each time.
445
1045260
3000
otterrò una versione rumorosa ogni volta, perché il rumore cambia ogni volta.
17:28
So what I can show you here
446
1048260
2000
Quello che posso mostrarvi
17:30
is how the variability of the movement will evolve
447
1050260
2000
è come la variabilità del movimento si evolve
17:32
if I choose that way.
448
1052260
2000
se scelgo quella strada.
17:34
If I choose a different way of moving -- on the right for example --
449
1054260
3000
Se scelgo un diverso modo di muovermi - quello a destra per esempio -
17:37
then I'll have a different command, different noise,
450
1057260
2000
avrò un comando diverso, un rumore diverso,
17:39
playing through a noisy system, very complicated.
451
1059260
3000
giocando in un sistema molto rumoroso, molto complicato.
17:42
All we can be sure of is the variability will be different.
452
1062260
3000
E quello di cui possiamo essere certi è che la variabilità sarà diversa.
17:45
If I move in this particular way,
453
1065260
2000
Se mi muovo in questo particolare modo,
17:47
I end up with a smaller variability across many movements.
454
1067260
3000
finisco con una variabilità più piccola tra tanti movimenti.
17:50
So if I have to choose between those two,
455
1070260
2000
Quindi se scelgo tra questi due,
17:52
I would choose the right one because it's less variable.
456
1072260
2000
sceglierei quello di destra perché è meno variabile.
17:54
And the fundamental idea
457
1074260
2000
E l'idea fondamentale
17:56
is you want to plan your movements
458
1076260
2000
è che volete pianificare i vostri movimenti
17:58
so as to minimize the negative consequence of the noise.
459
1078260
3000
allo scopo di minimizzare le conseguenze negative del rumore.
18:01
And one intuition to get
460
1081260
2000
E un'intuizione da recepire
18:03
is actually the amount of noise or variability I show here
461
1083260
2000
in realtà è che la quantità di rumore o di variabilità che vi mostro qui
18:05
gets bigger as the force gets bigger.
462
1085260
2000
diventa sempre più grande al crescere della forza.
18:07
So you want to avoid big forces as one principle.
463
1087260
3000
Quindi per principio volete evitare le grandi forze.
18:10
So we've shown that using this,
464
1090260
2000
Abbiamo mostrato che usando questo,
18:12
we can explain a huge amount of data --
465
1092260
2000
possiamo spiegare molti dati -
18:14
that exactly people are going about their lives planning movements
466
1094260
3000
che la gente gestisce la vita pianficando i movimenti
18:17
so as to minimize negative consequences of noise.
467
1097260
3000
in modo da minimizzare le conseguenze del rumore.
18:20
So I hope I've convinced you the brain is there
468
1100260
2000
Spero di avervi convinto che il cervello esiste
18:22
and evolved to control movement.
469
1102260
2000
e si è evoluto per controllare il movimento.
18:24
And it's an intellectual challenge to understand how we do that.
470
1104260
3000
Ed è una sfida intellettuale capire come farlo.
18:27
But it's also relevant
471
1107260
2000
Ma è anche rilevante
18:29
for disease and rehabilitation.
472
1109260
2000
per le malattie e la riabilitazione.
18:31
There are many diseases which effect movement.
473
1111260
3000
Ci sono molte malattie che compromettono il movimento.
18:34
And hopefully if we understand how we control movement,
474
1114260
2000
E se tutto va bene se capiamo come controllare il movimento,
18:36
we can apply that to robotic technology.
475
1116260
2000
possiamo applicarlo alla robotica.
18:38
And finally, I want to remind you,
476
1118260
2000
E infine, voglio ricordarvi,
18:40
when you see animals do what look like very simple tasks,
477
1120260
2000
quando vedete animali fare compiti che sembrano molto facili,
18:42
the actual complexity of what is going on inside their brain
478
1122260
2000
la reale complessità di quello che succede nel loro cervello
18:44
is really quite dramatic.
479
1124260
2000
in realtà è impressionante.
18:46
Thank you very much.
480
1126260
2000
Grazie infinite.
18:48
(Applause)
481
1128260
8000
(Applausi)
18:56
Chris Anderson: Quick question for you, Dan.
482
1136260
2000
Chris Anderson: Una domanda veloce, Dan.
18:58
So you're a movement -- (DW: Chauvinist.) -- chauvinist.
483
1138260
4000
Quindi lei è un fanatico - DW: fanatico del movimento
19:02
Does that mean that you think that the other things we think our brains are about --
484
1142260
3000
Questo significa che pensa che le altre cose che pensiamo sia il cervello -
19:05
the dreaming, the yearning, the falling in love and all these things --
485
1145260
3000
sognare, desiderare, innamorarsi e tutte quelle cose -
19:08
are a kind of side show, an accident?
486
1148260
3000
sono solo un effetto collaterale, un incidente?
19:11
DW: No, no, actually I think they're all important
487
1151260
2000
DW: No, no, in realtà credo che siano tutte importanti
19:13
to drive the right movement behavior to get reproduction in the end.
488
1153260
3000
per guidare il comportamento giusto per portare a termine la riproduzione.
19:16
So I think people who study sensation or memory
489
1156260
3000
Credo quindi che la gente che studia le sensazioni o la memoria
19:19
without realizing why you're laying down memories of childhood.
490
1159260
2000
senza rendersi conto perché consolidiamo le memorie dell'infanzia.
19:21
The fact that we forget most of our childhood, for example,
491
1161260
3000
Il fatto che dimentichiamo molto della nostra infanzia, per esempio,
19:24
is probably fine, because it doesn't effect our movements later in life.
492
1164260
3000
probabilmente va bene, perché non influisce sui nostri movimenti più avanti nella vita.
19:27
You only need to store things which are really going to effect movement.
493
1167260
3000
Dobbiamo solo memorizzare le cose che influiranno veramente sul movimento.
19:30
CA: So you think that people thinking about the brain, and consciousness generally,
494
1170260
3000
CA: Crede quindi che la gente che pensa al cervello e alla consapevolezza in generale,
19:33
could get real insight
495
1173260
2000
potrebbe avere veri indizi
19:35
by saying, where does movement play in this game?
496
1175260
2000
dicendo, che ruolo ha il movimento in questo gioco?
19:37
DW: So people have found out for example
497
1177260
2000
DW: Si è scoperto per esempio
19:39
that studying vision in the absence of realizing why you have vision
498
1179260
2000
che studiare la vista senza rendersi conto del perché abbiamo la vista
19:41
is a mistake.
499
1181260
2000
è un errore.
19:43
You have to study vision with the realization
500
1183260
2000
Bisogna studiare la vista avendo presente
19:45
of how the movement system is going to use vision.
501
1185260
2000
come il sistema motorio utilizzerà la vista.
19:47
And it uses it very differently once you think about it that way.
502
1187260
2000
E la usa in modi diversi una volta che la pensate in quel modo.
19:49
CA: Well that was quite fascinating. Thank you very much indeed.
503
1189260
3000
CA: È stato appassionante. Grazie molte.
19:52
(Applause)
504
1192260
2000
(Applausi)
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7