Daniel Wolpert: The real reason for brains

342,104 views ・ 2011-11-03

TED


Proszę kliknąć dwukrotnie na poniższe angielskie napisy, aby odtworzyć film.

Tłumaczenie: Agata Leśnicka Korekta: Rysia Wand
00:15
I'm a neuroscientist.
0
15260
2000
Jestem neurobiologiem.
00:17
And in neuroscience,
1
17260
2000
W neurobiologii
00:19
we have to deal with many difficult questions about the brain.
2
19260
3000
stajemy wobec wielu trudnych pytań nt. mózgu.
00:22
But I want to start with the easiest question
3
22260
2000
Chcę zacząć od najłatwiejszego pytania,
00:24
and the question you really should have all asked yourselves at some point in your life,
4
24260
3000
które każdy powinien sobie kiedyś zadać,
00:27
because it's a fundamental question
5
27260
2000
ponieważ jest to pytanie fundamentalne,
00:29
if we want to understand brain function.
6
29260
2000
jeśli chcemy zrozumieć funkcję mózgu.
00:31
And that is, why do we and other animals
7
31260
2000
Brzmi ono: dlaczego my i inne zwierzęta
00:33
have brains?
8
33260
2000
mamy mózgi?
00:35
Not all species on our planet have brains,
9
35260
3000
Nie wszystkie gatunki mają mózgi,
00:38
so if we want to know what the brain is for,
10
38260
2000
więc jeśli chcemy wiedzieć po co jest mózg,
00:40
let's think about why we evolved one.
11
40260
2000
pomyślmy, po co powstał w toku ewolucji.
00:42
Now you may reason that we have one
12
42260
2000
Możecie pomyśleć, że mamy go,
00:44
to perceive the world or to think,
13
44260
2000
by postrzegać świat lub myśleć,
00:46
and that's completely wrong.
14
46260
2000
a to kompletnie nie tak.
00:48
If you think about this question for any length of time,
15
48260
3000
Jeśli się nad tym dłużej zastanowić,
00:51
it's blindingly obvious why we have a brain.
16
51260
2000
staje się oczywiste, po co nam mózg.
00:53
We have a brain for one reason and one reason only,
17
53260
3000
Mamy mózg z jednego, jedynego powodu:
00:56
and that's to produce adaptable and complex movements.
18
56260
3000
do wykonywania przystosowawczych, złożonych ruchów.
00:59
There is no other reason to have a brain.
19
59260
2000
Nie ma innego powodu posiadania mózgu.
01:01
Think about it.
20
61260
2000
Pomyślcie o tym.
01:03
Movement is the only way you have
21
63260
2000
Ruch to jedyny sposób,
01:05
of affecting the world around you.
22
65260
2000
w jaki możemy wpływać na świat.
01:07
Now that's not quite true. There's one other way, and that's through sweating.
23
67260
3000
Może nie do końca. Można też przez pocenie się.
01:10
But apart from that,
24
70260
2000
Ale oprócz tego
01:12
everything else goes through contractions of muscles.
25
72260
2000
wszystko inne zachodzi dzięki skurczom mięśni.
01:14
So think about communication --
26
74260
2000
Pomyślcie o porozumiewaniu się,
01:16
speech, gestures, writing, sign language --
27
76260
3000
mowie, gestach, piśmie, języku migowym,
01:19
they're all mediated through contractions of your muscles.
28
79260
3000
wszystkie zachodzą dzięki skurczom mięśni.
01:22
So it's really important to remember
29
82260
2000
Musimy więc pamiętać,
01:24
that sensory, memory and cognitive processes are all important,
30
84260
4000
że zmysły, pamięć i procesy poznawcze są ważne,
01:28
but they're only important
31
88260
2000
ale ważne tylko na tyle,
01:30
to either drive or suppress future movements.
32
90260
2000
na ile wywołują albo hamują przyszłe ruchy.
01:32
There can be no evolutionary advantage
33
92260
2000
Niewiele korzyści ewolucyjnych płynie
01:34
to laying down memories of childhood
34
94260
2000
ze wspomnień z dzieciństwa
01:36
or perceiving the color of a rose
35
96260
2000
lub postrzegania koloru róży,
01:38
if it doesn't affect the way you're going to move later in life.
36
98260
3000
jeśli nie wpływają na późniejszy sposób poruszania się.
01:41
Now for those who don't believe this argument,
37
101260
2000
Dla tych, którzy nie wierzą w ten argument,
01:43
we have trees and grass on our planet without the brain,
38
103260
2000
drzewa i trawa na naszej planecie nie mają mózgu,
01:45
but the clinching evidence is this animal here --
39
105260
2000
ale najdobitniejszym dowodem jest to zwierzę:
01:47
the humble sea squirt.
40
107260
2000
skromna żachwa.
01:49
Rudimentary animal, has a nervous system,
41
109260
3000
Prymitywne zwierzę, ma układ nerwowy,
01:52
swims around in the ocean in its juvenile life.
42
112260
2000
z początku pływa w oceanie.
01:54
And at some point of its life,
43
114260
2000
W pewnym momencie
01:56
it implants on a rock.
44
116260
2000
przyczepia się do skały,
01:58
And the first thing it does in implanting on that rock, which it never leaves,
45
118260
3000
której już nigdy nie opuszcza.
02:01
is to digest its own brain and nervous system
46
121260
3000
I natychmiast trawi własny mózg i układ nerwowy.
02:04
for food.
47
124260
2000
I natychmiast trawi własny mózg i układ nerwowy.
02:06
So once you don't need to move,
48
126260
2000
Kiedy nie trzeba się ruszać,
02:08
you don't need the luxury of that brain.
49
128260
3000
mózg staje się zbyteczny.
02:11
And this animal is often taken
50
131260
2000
Żachwa często służy jako analogia do tego,
02:13
as an analogy to what happens at universities
51
133260
2000
co dzieje się na uniwersytetach,
02:15
when professors get tenure,
52
135260
2000
kiedy profesorowie dostają stały etat,
02:17
but that's a different subject.
53
137260
2000
ale to inny temat.
02:19
(Applause)
54
139260
2000
(Brawa)
02:21
So I am a movement chauvinist.
55
141260
3000
Jestem ruchowym szowinistą.
02:24
I believe movement is the most important function of the brain --
56
144260
2000
Wierzę, że ruch jest najważniejszą funkcją mózgu
02:26
don't let anyone tell you that it's not true.
57
146260
2000
i nie dajcie sobie wmówić inaczej.
02:28
Now if movement is so important,
58
148260
2000
Skoro ruch jest tak ważny,
02:30
how well are we doing
59
150260
2000
to czy dobrze rozumiemy,
02:32
understanding how the brain controls movement?
60
152260
2000
jak mózg kontroluje ruchy?
02:34
And the answer is we're doing extremely poorly; it's a very hard problem.
61
154260
2000
Odpowiedź brzmi: bardzo źle.
02:36
But we can look at how well we're doing
62
156260
2000
Można ocenić naszą wiedzę
02:38
by thinking about how well we're doing building machines
63
158260
2000
na przykładzie budowania maszyn,
02:40
which can do what humans can do.
64
160260
2000
które mogą naśladować ludzi.
02:42
Think about the game of chess.
65
162260
2000
Pomyślcie o grze w szachy.
02:44
How well are we doing determining what piece to move where?
66
164260
3000
Jak idzie nam decyzja którym pionkiem ruszyć?
02:47
If you pit Garry Kasparov here, when he's not in jail,
67
167260
3000
Jeśli Gary Kasparov nie siedzi akurat w więzieniu
02:50
against IBM's Deep Blue,
68
170260
2000
i gra przeciwko Deep Blue IBM,
02:52
well the answer is IBM's Deep Blue will occasionally win.
69
172260
3000
Deep Blue IBM czasami wygra.
02:55
And I think if IBM's Deep Blue played anyone in this room, it would win every time.
70
175260
3000
Sądzę, że Deep Blue IBM wygrałby z każdym na sali.
02:58
That problem is solved.
71
178260
2000
Ten problem jest rozwiązany.
03:00
What about the problem
72
180260
2000
A co z problemem
03:02
of picking up a chess piece,
73
182260
2000
podnoszenia pionka szachowego,
03:04
dexterously manipulating it and putting it back down on the board?
74
184260
3000
manipulowania nim i odstawiania na szachownicę?
03:07
If you put a five year-old child's dexterity against the best robots of today,
75
187260
3000
Prównując zręczność 5-latka z najlepszymi robotami
03:10
the answer is simple:
76
190260
2000
odpowiedź jest prosta:
03:12
the child wins easily.
77
192260
2000
dziecko wygrywa z łatwością.
03:14
There's no competition at all.
78
194260
2000
W ogóle nie ma porównania.
03:16
Now why is that top problem so easy
79
196260
2000
Dlaczego problem na górze jest taki łatwy,
03:18
and the bottom problem so hard?
80
198260
2000
a ten na dole taki trudny?
03:20
One reason is a very smart five year-old
81
200260
2000
Otóż bardzo bystry pięciolatek
03:22
could tell you the algorithm for that top problem --
82
202260
2000
mógłby podać algorytm dla problemu na górze:
03:24
look at all possible moves to the end of the game
83
204260
2000
spójrz na wszystkie możliwe ruchy do końca gry
03:26
and choose the one that makes you win.
84
206260
2000
i wybierz ten, dzięki któremu wygrasz.
03:28
So it's a very simple algorithm.
85
208260
2000
To bardzo prosty algorytm.
03:30
Now of course there are other moves,
86
210260
2000
Oczywiście są inne ruchy,
03:32
but with vast computers we approximate
87
212260
2000
ale z wielkimi komputerami zaokrąglamy
03:34
and come close to the optimal solution.
88
214260
2000
i zbliżamy się do optymalnego rozwiązania.
03:36
When it comes to being dexterous,
89
216260
2000
Jeśli chodzi o zręczność,
03:38
it's not even clear what the algorithm is you have to solve to be dexterous.
90
218260
2000
nie wiemy nawet, jaki algorytm nią kieruje.
03:40
And we'll see you have to both perceive and act on the world,
91
220260
2000
Świat należy zarówno postrzegać jak i na niego oddziaływać.
03:42
which has a lot of problems.
92
222260
2000
co pociąga za sobą wiele trudności.
03:44
But let me show you cutting-edge robotics.
93
224260
2000
Pozwólcie, że pokażę przełomową robotykę.
03:46
Now a lot of robotics is very impressive,
94
226260
2000
Wiele rzeczy w robotyce robi wielkie wrażenie,
03:48
but manipulation robotics is really just in the dark ages.
95
228260
3000
ale robotyka manipulacji jest bardzo zacofana.
03:51
So this is the end of a Ph.D. project
96
231260
2000
Oto koniec projektu doktorskiego
03:53
from one of the best robotics institutes.
97
233260
2000
z jednego z najlepszych instytutów robotyki.
03:55
And the student has trained this robot
98
235260
2000
Student nauczył tego robota
03:57
to pour this water into a glass.
99
237260
2000
nalewania wody do szklanki.
03:59
It's a hard problem because the water sloshes about, but it can do it.
100
239260
3000
To trudne, bo woda się przelewa, ale daje radę.
04:02
But it doesn't do it with anything like the agility of a human.
101
242260
3000
Jednak nie robi tego ze zręcznością człowieka.
04:05
Now if you want this robot to do a different task,
102
245260
3000
Żeby robot wykonał inne zadanie,
04:08
that's another three-year Ph.D. program.
103
248260
3000
potrzebny jest inny trzyletni program doktorski.
04:11
There is no generalization at all
104
251260
2000
W ogóle nie ma w robotyce uogólniania
04:13
from one task to another in robotics.
105
253260
2000
z jednego zadania do innego.
04:15
Now we can compare this
106
255260
2000
Możemy to porównać
04:17
to cutting-edge human performance.
107
257260
2000
do przełomowych dokonań człowieka.
04:19
So what I'm going to show you is Emily Fox
108
259260
2000
Chcę wam pokazać Emily Fox
04:21
winning the world record for cup stacking.
109
261260
3000
bijącą światowy rekord w ustawianiu kubków.
04:24
Now the Americans in the audience will know all about cup stacking.
110
264260
2000
Widzowie z USA wiedzą wszystko o ustawianiu kubków.
04:26
It's a high school sport
111
266260
2000
To sport ze szkoły średniej,
04:28
where you have 12 cups you have to stack and unstack
112
268260
2000
mamy 12 kubków, które trzeba poprzestawiać
04:30
against the clock in a prescribed order.
113
270260
2000
na czas w ustalonym porządku.
04:32
And this is her getting the world record in real time.
114
272260
3000
Oto światowy rekord w czasie rzeczywistym.
04:39
(Laughter)
115
279260
8000
(Śmiech)
04:47
(Applause)
116
287260
5000
(Oklaski)
04:52
And she's pretty happy.
117
292260
2000
I jest całkiem szczęśliwa.
04:54
We have no idea what is going on inside her brain when she does that,
118
294260
2000
Nie mamy pojęcia, co się wtedy dzieje w jej mózgu,
04:56
and that's what we'd like to know.
119
296260
2000
a chcielibyśmy wiedzieć.
04:58
So in my group, what we try to do
120
298260
2000
Moja grupa zajmuje się wsteczną inżynierią tego,
05:00
is reverse engineer how humans control movement.
121
300260
3000
w jaki sposób ludzie kontrolują ruchy.
05:03
And it sounds like an easy problem.
122
303260
2000
Brzmi to jak łatwy problem.
05:05
You send a command down, it causes muscles to contract.
123
305260
2000
Wysyłamy polecenie, które powoduje skurcz męśni.
05:07
Your arm or body moves,
124
307260
2000
Porusza się ramię lub ciało,
05:09
and you get sensory feedback from vision, from skin, from muscles and so on.
125
309260
3000
dostajemy informację zwrotną od wzroku, skóry, mięśni itd.
05:12
The trouble is
126
312260
2000
Problem polega na tym,
05:14
these signals are not the beautiful signals you want them to be.
127
314260
2000
że te sygnały nie są tak piękne, jak byśmy chcieli.
05:16
So one thing that makes controlling movement difficult
128
316260
2000
Kontrola ruchu jest trudna,
05:18
is, for example, sensory feedback is extremely noisy.
129
318260
3000
bo sensoryczne sprzężenie zwrotne jest bardzo głośne.
05:21
Now by noise, I do not mean sound.
130
321260
3000
Nie mam tu na myśli dźwięku.
05:24
We use it in the engineering and neuroscience sense
131
324260
2000
Używamy tego pojęcia w inżynierii i neurobiologii
05:26
meaning a random noise corrupting a signal.
132
326260
2000
mając na myśli hałas zakłócający sygnał.
05:28
So the old days before digital radio when you were tuning in your radio
133
328260
3000
W czasach przed radiem cyfrowym, włączając radio
05:31
and you heard "crrcckkk" on the station you wanted to hear,
134
331260
2000
słyszało się "crrcckkk" w stacji, której chcieliśmy słuchać,
05:33
that was the noise.
135
333260
2000
to był ten hałas.
05:35
But more generally, this noise is something that corrupts the signal.
136
335260
3000
Ale bardziej ogólnie: ten hałas zakłóca sygnał.
05:38
So for example, if you put your hand under a table
137
338260
2000
Np. jeśli podłożycie rękę pod blatem
05:40
and try to localize it with your other hand,
138
340260
2000
i spróbujecie zlokalizować ją drugą ręką,
05:42
you can be off by several centimeters
139
342260
2000
możecie chybić o kilka centymetrów
05:44
due to the noise in sensory feedback.
140
344260
2000
z powodu hałasu w dotykowym sprzężeniu zwrotnym.
05:46
Similarly, when you put motor output on movement output,
141
346260
2000
Nakładanie się motoryki na ruch
05:48
it's extremely noisy.
142
348260
2000
jest to także bardzo głośne.
05:50
Forget about trying to hit the bull's eye in darts,
143
350260
2000
Nie chodzi o trafienie w środek tarczy,
05:52
just aim for the same spot over and over again.
144
352260
2000
celujcie tylko ciągle w to samo miejsce.
05:54
You have a huge spread due to movement variability.
145
354260
3000
Powstanie duży rozrzut z powodu zmienności ruchu.
05:57
And more than that, the outside world, or task,
146
357260
2000
Ponadto, świat zewnętrzny, czyli zadanie,
05:59
is both ambiguous and variable.
147
359260
2000
jest zarówno dwuznaczny jak i zmienny.
06:01
The teapot could be full, it could be empty.
148
361260
2000
Czajniczek może być pełny, może być pusty.
06:03
It changes over time.
149
363260
2000
Zmienia się to z czasem.
06:05
So we work in a whole sensory movement task soup of noise.
150
365260
4000
Pracujemy w całej tej zupie hałasu.
06:09
Now this noise is so great
151
369260
2000
Hałas jest tak wielki,
06:11
that society places a huge premium
152
371260
2000
że społeczeństwo bardzo docenia tych,
06:13
on those of us who can reduce the consequences of noise.
153
373260
3000
którzy umieją zmniejszyć konsekwencje hałasu.
06:16
So if you're lucky enough to be able to knock a small white ball
154
376260
3000
Jeśli uda ci się trafić małą białą piłeczką
06:19
into a hole several hundred yards away using a long metal stick,
155
379260
3000
do odległej dziurki przy użyciu długiego metalowego kija,
06:22
our society will be willing to reward you
156
382260
2000
społeczeństwo chętnie cię wynagrodzi
06:24
with hundreds of millions of dollars.
157
384260
3000
setkami milionów dolarów.
06:27
Now what I want to convince you of
158
387260
2000
Chcę was przekonać,
06:29
is the brain also goes through a lot of effort
159
389260
2000
że mózg także dokłada wielu starań,
06:31
to reduce the negative consequences
160
391260
2000
by zmniejszyć negatywne konsekwencje
06:33
of this sort of noise and variability.
161
393260
2000
tego rodzaju hałasu i zmienności.
06:35
And to do that, I'm going to tell you about a framework
162
395260
2000
Opowiem o schemacie, który od 50 lat
06:37
which is very popular in statistics and machine learning of the last 50 years
163
397260
3000
jest bardzo popularny w statystyce i uczeniu maszyn.
06:40
called Bayesian decision theory.
164
400260
2000
To teoria podejmowania decyzji Bayesa.
06:42
And it's more recently a unifying way
165
402260
3000
Od niedawna stosuje się ją do analizy tego,
06:45
to think about how the brain deals with uncertainty.
166
405260
3000
jak mózg radzi sobie z niepewnością.
06:48
And the fundamental idea is you want to make inferences and then take actions.
167
408260
3000
Z zasady wolimy najpierw wnioskować, a potem działać.
06:51
So let's think about the inference.
168
411260
2000
Pomyślmy więc o wnioskowaniu.
06:53
You want to generate beliefs about the world.
169
413260
2000
Chcecie tworzyć poglądy o świecie.
06:55
So what are beliefs?
170
415260
2000
Czym są te przekonania?
06:57
Beliefs could be: where are my arms in space?
171
417260
2000
Np. gdzie w przestrzeni są moje ręce?
06:59
Am I looking at a cat or a fox?
172
419260
2000
Czy patrzę na kota czy lisa?
07:01
But we're going to represent beliefs with probabilities.
173
421260
3000
Chcemy pokazać przekonania za pomocą prawdopodobieństw.
07:04
So we're going to represent a belief
174
424260
2000
Przedstawimy przekonanie
07:06
with a number between zero and one --
175
426260
2000
jako liczbę między 0 a 1:
07:08
zero meaning I don't believe it at all, one means I'm absolutely certain.
176
428260
3000
0 znaczy "nie wierzę", a 1 - "jestem pewien".
07:11
And numbers in between give you the gray levels of uncertainty.
177
431260
3000
Liczby pośrednie dają szary obszar niepewności.
07:14
And the key idea to Bayesian inference
178
434260
2000
Wnioskowanie Bayesa polega na tym,
07:16
is you have two sources of information
179
436260
2000
że masz dwa źródła informacji,
07:18
from which to make your inference.
180
438260
2000
z których wyciągasz wnioski.
07:20
You have data,
181
440260
2000
Masz dane, które w neurobiologii
07:22
and data in neuroscience is sensory input.
182
442260
2000
są czuciowymi danymi wejściowymi.
07:24
So I have sensory input, which I can take in to make beliefs.
183
444260
3000
Przetwarzam dane sensoryczne na przekonania.
07:27
But there's another source of information, and that's effectively prior knowledge.
184
447260
3000
Jest jeszcze jedno źródło informacji: wcześniejsza wiedza.
07:30
You accumulate knowledge throughout your life in memories.
185
450260
3000
Akumulujemy wiedzę przez całe życie we wspomnieniach.
07:33
And the point about Bayesian decision theory
186
453260
2000
Teoria decyzji Bayesa
07:35
is it gives you the mathematics
187
455260
2000
daje podstawę matematyczną
07:37
of the optimal way to combine
188
457260
2000
dla optymalnego sposobu połączenia
07:39
your prior knowledge with your sensory evidence
189
459260
2000
wcześniejszej wiedzy z doznaniami zmysłowymi
07:41
to generate new beliefs.
190
461260
2000
by tworzyć nowe przekonania.
07:43
And I've put the formula up there.
191
463260
2000
Zamieściłem tutaj wzór.
07:45
I'm not going to explain what that formula is, but it's very beautiful.
192
465260
2000
Nie będę go tłumaczył, ale jest bardzo piękny.
07:47
And it has real beauty and real explanatory power.
193
467260
3000
Ma prawdziwe piękno i prawdziwą moc wyjaśniającą.
07:50
And what it really says, and what you want to estimate,
194
470260
2000
Mówi o tym, co chcemy określić,
07:52
is the probability of different beliefs
195
472260
2000
czyli o prawdopodobieństwie różnych przekonań,
07:54
given your sensory input.
196
474260
2000
w zależności od odczuć zmysłowych.
07:56
So let me give you an intuitive example.
197
476260
2000
Podam intuicyjny przykład.
07:58
Imagine you're learning to play tennis
198
478260
3000
Wyobraź sobie, że uczysz się gry w tenisa
08:01
and you want to decide where the ball is going to bounce
199
481260
2000
i chcesz zdecydować, gdzie odbije się piłka
08:03
as it comes over the net towards you.
200
483260
2000
lecąca nad siatką w twoją stronę.
08:05
There are two sources of information
201
485260
2000
Są dwa źródła informacji,
08:07
Bayes' rule tells you.
202
487260
2000
mówi reguła Bayesa.
08:09
There's sensory evidence -- you can use visual information auditory information,
203
489260
3000
Są dane czuciowe: informacje wzrokowe, słuchowe
08:12
and that might tell you it's going to land in that red spot.
204
492260
3000
co może pozwolić na trafienie w czerwone pole.
08:15
But you know that your senses are not perfect,
205
495260
3000
Jednak wiadomo, że zmysły nie są idealne,
08:18
and therefore there's some variability of where it's going to land
206
498260
2000
i mamy pewną zmienność co do miejsca lądowania piłki,
08:20
shown by that cloud of red,
207
500260
2000
pokazane przez tę czerwoną chmurę,
08:22
representing numbers between 0.5 and maybe 0.1.
208
502260
3000
reprezentująca liczby między 0,5 i 0,1.
08:26
That information is available in the current shot,
209
506260
2000
Ta informacja jest dostępna w bieżącym serwie,
08:28
but there's another source of information
210
508260
2000
ale jest jeszcze inne źródło informacji,
08:30
not available on the current shot,
211
510260
2000
niedostępne w bieżącym serwie,
08:32
but only available by repeated experience in the game of tennis,
212
512260
3000
ale dostępne przez wielokrotne doświadczenie gry w tenisa,
08:35
and that's that the ball doesn't bounce
213
515260
2000
mianowicie, że piłka nie odbija się od kortu
08:37
with equal probability over the court during the match.
214
517260
2000
z jednakowym prawdopodobieństwem.
08:39
If you're playing against a very good opponent,
215
519260
2000
Bardzo dobry przeciwnik
08:41
they may distribute it in that green area,
216
521260
2000
może ją odbić na to zielone pole,
08:43
which is the prior distribution,
217
523260
2000
które oznacza uprzenie rozmieszczenie
08:45
making it hard for you to return.
218
525260
2000
sprawiając, że piłkę trudno odbić.
08:47
Now both these sources of information carry important information.
219
527260
2000
Oba źródła informacji niosą ważne dane.
08:49
And what Bayes' rule says
220
529260
2000
Wg. reguły Bayesa powinienem pomnożyć
08:51
is that I should multiply the numbers on the red by the numbers on the green
221
531260
3000
liczby na czerwonym przez numery na zielonym,
08:54
to get the numbers of the yellow, which have the ellipses,
222
534260
3000
by otrzymać liczby na żółtym, które mają elipsy,
08:57
and that's my belief.
223
537260
2000
czyli moje przekonanie.
08:59
So it's the optimal way of combining information.
224
539260
3000
Jest to optymalny sposób łączenia informacji.
09:02
Now I wouldn't tell you all this if it wasn't that a few years ago,
225
542260
2000
Nie mówiłbym o tym, gdybyśmy kilka lat temu
09:04
we showed this is exactly what people do
226
544260
2000
nie wykazali, że właśnie tak robią ludzie
09:06
when they learn new movement skills.
227
546260
2000
podczas nauki nowych umiejętności ruchowych.
09:08
And what it means
228
548260
2000
I oznacza to,
09:10
is we really are Bayesian inference machines.
229
550260
2000
że naprawdę wnioskujemy zgodnie z reguła Bayesa.
09:12
As we go around, we learn about statistics of the world and lay that down,
230
552260
4000
Uczymy się statystyki świata i zapamiętujemy to,
09:16
but we also learn
231
556260
2000
ale uczymy się także,
09:18
about how noisy our own sensory apparatus is,
232
558260
2000
jak hałaśliwe są nasze narządy czuciowe,
09:20
and then combine those
233
560260
2000
co łączymy potem
09:22
in a real Bayesian way.
234
562260
2000
w naprawdę bayesowski sposób.
09:24
Now a key part to the Bayesian is this part of the formula.
235
564260
3000
Sednem reguły Bayesa jest ta część wzoru.
09:27
And what this part really says
236
567260
2000
która mówi, że muszę przewidzieć prawdopodobieństwo
09:29
is I have to predict the probability
237
569260
2000
która mówi, że muszę przewidzieć prawdopodobieństwo
09:31
of different sensory feedbacks
238
571260
2000
różnych czuciowych informacji zwrotnych
09:33
given my beliefs.
239
573260
2000
wziąwszy pod uwagę moje przekonania.
09:35
So that really means I have to make predictions of the future.
240
575260
3000
W zasadzie: muszę przewidywać przyszłość.
09:38
And I want to convince you the brain does make predictions
241
578260
2000
Chcę was przekonać, że mózg przewiduje,
09:40
of the sensory feedback it's going to get.
242
580260
2000
jaka czuciową informację zwrotną otrzyma.
09:42
And moreover, it profoundly changes your perceptions
243
582260
2000
Ponadto głęboko zmienia postrzeganie
09:44
by what you do.
244
584260
2000
przez to, co robisz.
09:46
And to do that, I'll tell you
245
586260
2000
W tym celu opowiem o tym,
09:48
about how the brain deals with sensory input.
246
588260
2000
jak mózg radzi sobie z wejściem czuciowym.
09:50
So you send a command out,
247
590260
3000
Wysyłacie polecenie,
09:53
you get sensory feedback back,
248
593260
2000
otrzymujecie czuciową informację zwrotną,
09:55
and that transformation is governed
249
595260
2000
To przekształcenie podlega fizyce ciała
09:57
by the physics of your body and your sensory apparatus.
250
597260
3000
i mechanizmowi czuciowemu.
10:00
But you can imagine looking inside the brain.
251
600260
2000
Wyobraźmy sobie, że zaglądamy do mózgu.
10:02
And here's inside the brain.
252
602260
2000
A to wnętrze mózgu.
10:04
You might have a little predictor, a neural simulator,
253
604260
2000
Możecie mieć mały predyktor, neuronalny symulator,
10:06
of the physics of your body and your senses.
254
606260
2000
fizyki naszego ciała i zmysłów.
10:08
So as you send a movement command down,
255
608260
2000
Wysyłając polecenie ruchu,
10:10
you tap a copy of that off
256
610260
2000
kopiujecie je
10:12
and run it into your neural simulator
257
612260
2000
i zamieniacie w neuronalny symulator,
10:14
to anticipate the sensory consequences of your actions.
258
614260
4000
by przewidzieć czuciowe konsekwencje czynów.
10:18
So as I shake this ketchup bottle,
259
618260
2000
Kiedy potrząsam butelką keczupu,
10:20
I get some true sensory feedback as the function of time in the bottom row.
260
620260
3000
odbieram czuciową informację zwrotną jako funkcję czasu w dolnej linijce.
10:23
And if I've got a good predictor, it predicts the same thing.
261
623260
3000
Dobry predyktor przewidzi to samo.
10:26
Well why would I bother doing that?
262
626260
2000
Po co sobie tym zawracać głowę?
10:28
I'm going to get the same feedback anyway.
263
628260
2000
Przecież dostanę tą samą informację zwrotną.
10:30
Well there's good reasons.
264
630260
2000
Jest na to dobry powód.
10:32
Imagine, as I shake the ketchup bottle,
265
632260
2000
Powiedzmy, że gdy trzęsę butelką keczupu,
10:34
someone very kindly comes up to me and taps it on the back for me.
266
634260
3000
ktoś uprzejmie podchodzi i puka ją w denko.
10:37
Now I get an extra source of sensory information
267
637260
2000
Mam dodatkowe źródło informacji sensorycznych
10:39
due to that external act.
268
639260
2000
z powodu tego zewnętrznego wydarzenia.
10:41
So I get two sources.
269
641260
2000
Więc mam dwa źródła.
10:43
I get you tapping on it, and I get me shaking it,
270
643260
3000
Mam czyjeś pukanie i swoje potrząsanie,
10:46
but from my senses' point of view,
271
646260
2000
ale z punktu widzenia moich zmysłów,
10:48
that is combined together into one source of information.
272
648260
3000
jest to połączone w jedno źródło informacji.
10:51
Now there's good reason to believe
273
651260
2000
Przypuszczam, że chcielibyście odróżniać
10:53
that you would want to be able to distinguish external events from internal events.
274
653260
3000
wydarzenia zewnętrzne od wewnętrznych.
10:56
Because external events are actually much more behaviorally relevant
275
656260
3000
Wydarzenia zewnętrzne mają większy wpływ na zachowanie,
10:59
than feeling everything that's going on inside my body.
276
659260
3000
niż odczuwanie wszystkich procesów wewnątrz ciała.
11:02
So one way to reconstruct that
277
662260
2000
Można to np. odtworzyć
11:04
is to compare the prediction --
278
664260
2000
przez porównanie przewidywania
11:06
which is only based on your movement commands --
279
666260
2000
opartego tylko na poleceniach ruchu
11:08
with the reality.
280
668260
2000
z rzeczywistością.
11:10
Any discrepancy should hopefully be external.
281
670260
3000
Wszelka rozbieżność powinna pochodzić z zewnątrz.
11:13
So as I go around the world,
282
673260
2000
Kiedy chodzę po świecie,
11:15
I'm making predictions of what I should get, subtracting them off.
283
675260
3000
przewiduję wyniki odejmując rozbieżności.
11:18
Everything left over is external to me.
284
678260
2000
To co zostaje uznaję za zewnętrzne.
11:20
What evidence is there for this?
285
680260
2000
Jakie są na to dowody?
11:22
Well there's one very clear example
286
682260
2000
Jest przykład wielkiej różnicy
11:24
where a sensation generated by myself feels very different
287
684260
2000
między odczuciem spowodowanym przeze mnie
11:26
then if generated by another person.
288
686260
2000
a odczuciem spowodowanym przez kogoś innego.
11:28
And so we decided the most obvious place to start
289
688260
2000
Uznaliśmy, że najlepiej będzie zacząć od łaskotania.
11:30
was with tickling.
290
690260
2000
Uznaliśmy, że najlepiej będzie zacząć od łaskotania.
11:32
It's been known for a long time, you can't tickle yourself
291
692260
2000
Wiadomo, że nie można się samemu połaskotać tak,
11:34
as well as other people can.
292
694260
2000
jak łaskoczą nas inni ludzie.
11:36
But it hasn't really been shown, it's because you have a neural simulator,
293
696260
3000
Jednak nie pokazano, że powodem jest neuronalny symulator,
11:39
simulating your own body
294
699260
2000
symulujący nasze własne ciało
11:41
and subtracting off that sense.
295
701260
2000
i odejmujący to odczucie.
11:43
So we can bring the experiments of the 21st century
296
703260
3000
Możemy prowadzić eksperymenty XXI wieku
11:46
by applying robotic technologies to this problem.
297
706260
3000
dzięki użyciu technologii robotycznych.
11:49
And in effect, what we have is some sort of stick in one hand attached to a robot,
298
709260
3000
Badany trzyma rodzaj patyka podłączonego do robota
11:52
and they're going to move that back and forward.
299
712260
2000
i porusza nim w przód i w tył.
11:54
And then we're going to track that with a computer
300
714260
2000
Śledzimy to drugim komputerem
11:56
and use it to control another robot,
301
716260
2000
kontrolującym kolejny komputer,
11:58
which is going to tickle their palm with another stick.
302
718260
2000
który będzie łaskotał drugą dłoń innym patykiem.
12:00
And then we're going to ask them to rate a bunch of things
303
720260
2000
A potem poprosimy ich o ocenę kilku rzeczy,
12:02
including ticklishness.
304
722260
2000
łącznie z łaskotkami.
12:04
I'll show you just one part of our study.
305
724260
2000
Pokażę tylko jedną część naszego badania.
12:06
And here I've taken away the robots,
306
726260
2000
Zabrałem roboty.
12:08
but basically people move with their right arm sinusoidally back and forward.
307
728260
3000
Badani poruszają prawą ręką sinusoidalne w przód i tył.
12:11
And we replay that to the other hand with a time delay.
308
731260
3000
Odtwarzamy to drugiej ręce z opóźnieniem czasowym.
12:14
Either no time delay,
309
734260
2000
Jeśli nie ma opóźnienia,
12:16
in which case light would just tickle your palm,
310
736260
2000
światło tylko połaskocze dłoń,
12:18
or with a time delay of two-tenths of three-tenths of a second.
311
738260
4000
albo z opóźnieniem 0,2 lub 0,3 sekundy.
12:22
So the important point here
312
742260
2000
Prawa ręka zawsze robi to samo: ruch sinusoidalny.
12:24
is the right hand always does the same things -- sinusoidal movement.
313
744260
3000
Prawa ręka zawsze robi to samo: ruch sinusoidalny.
12:27
The left hand always is the same and puts sinusoidal tickle.
314
747260
3000
Lewa ręka jest zawsze łaskotana sinusoidalnie.
12:30
All we're playing with is a tempo causality.
315
750260
2000
Manipulujemy tylko z zależnością czasową.
12:32
And as we go from naught to 0.1 second,
316
752260
2000
Kiedy przyspieszamy od 0 do 0,1 sekundy
12:34
it becomes more ticklish.
317
754260
2000
łaskocze bardziej.
12:36
As you go from 0.1 to 0.2,
318
756260
2000
Między 0,1 a 0,2 sekundy
12:38
it becomes more ticklish at the end.
319
758260
2000
łaskocze tym bardziej, im większe opóźnienie.
12:40
And by 0.2 of a second,
320
760260
2000
Powyżej 0,2 sekundy
12:42
it's equivalently ticklish
321
762260
2000
łaskotliwość jest taka sama jak wtedy,
12:44
to the robot that just tickled you without you doing anything.
322
764260
2000
gdy robot zrobił to bez aktywności badanego.
12:46
So whatever is responsible for this cancellation
323
766260
2000
Cokolwiek odpowiada za to anulowanie,
12:48
is extremely tightly coupled with tempo causality.
324
768260
3000
jest ściśle związane z przyczynowością czasową.
12:51
And based on this illustration, we really convinced ourselves in the field
325
771260
3000
Dzięki temu przekonaliśmy się w praktyce,
12:54
that the brain's making precise predictions
326
774260
2000
że mózg tworzy precyzyjne przewidywania
12:56
and subtracting them off from the sensations.
327
776260
3000
i odejmuje je od odczuć.
12:59
Now I have to admit, these are the worst studies my lab has ever run.
328
779260
3000
To najgorsze z moich badań.
13:02
Because the tickle sensation on the palm comes and goes,
329
782260
2000
Ponieważ swędzenie dłoni pojawia się i znika,
13:04
you need large numbers of subjects
330
784260
2000
trzeba dużej ilości badanych
13:06
with these stars making them significant.
331
786260
2000
z tymi gwiazdkami oznaczającymi istotność statystyczną.
13:08
So we were looking for a much more objective way
332
788260
2000
Szukaliśmy obiektywniejszej drogi
13:10
to assess this phenomena.
333
790260
2000
do oceny tych zjawisk.
13:12
And in the intervening years I had two daughters.
334
792260
2000
W międzyczasie urodziły mi się dwie córki.
13:14
And one thing you notice about children in backseats of cars on long journeys,
335
794260
3000
Podczas długich podróży na tylnym siedzeniu
13:17
they get into fights --
336
797260
2000
dzieci zaczynają się kłócić.
13:19
which started with one of them doing something to the other, the other retaliating.
337
799260
3000
Jedna robi coś drugiej, druga się mści.
13:22
It quickly escalates.
338
802260
2000
Szybko się to zaostrza.
13:24
And children tend to get into fights which escalate in terms of force.
339
804260
3000
Kłótnie dzieci zaostrzają się pod względem siły.
13:27
Now when I screamed at my children to stop,
340
807260
2000
Kiedy krzyczałem, by przestały,
13:29
sometimes they would both say to me
341
809260
2000
czasem obie mówiły mi,
13:31
the other person hit them harder.
342
811260
3000
że ta druga uderzyła mocniej.
13:34
Now I happen to know my children don't lie,
343
814260
2000
Wiem, że moje dzieci nie kłamią,
13:36
so I thought, as a neuroscientist,
344
816260
2000
więc jako neurobiolog pomyślałem,
13:38
it was important how I could explain
345
818260
2000
że muszę wyjaśnić,
13:40
how they were telling inconsistent truths.
346
820260
2000
dlaczego ich prawdy nie przystają do siebie.
13:42
And we hypothesize based on the tickling study
347
822260
2000
Wysnuliśmy hipotezę z badań o łaskotaniu,
13:44
that when one child hits another,
348
824260
2000
że kiedy jedno dziecko bije drugie,
13:46
they generate the movement command.
349
826260
2000
generuje polecenie ruchu.
13:48
They predict the sensory consequences and subtract it off.
350
828260
3000
Dzieci przewidują czuciowe konsekwencje i odejmują je.
13:51
So they actually think they've hit the person less hard than they have --
351
831260
2000
Czyli wydaje im się, że uderzają słabiej niż w rzeczywistości,
13:53
rather like the tickling.
352
833260
2000
tak jak przy łaskotaniu.
13:55
Whereas the passive recipient
353
835260
2000
Bierny odbiorca tego nie przewiduje
13:57
doesn't make the prediction, feels the full blow.
354
837260
2000
i odczuwa pełny cios.
13:59
So if they retaliate with the same force,
355
839260
2000
Jeśli oddaje z tą samą siłą,
14:01
the first person will think it's been escalated.
356
841260
2000
pierwsza osoba pomyśli, że dostała mocniej.
14:03
So we decided to test this in the lab.
357
843260
2000
Postanowiliśmy to sprawdzić w laboratorium.
14:05
(Laughter)
358
845260
3000
(Śmiech)
14:08
Now we don't work with children, we don't work with hitting,
359
848260
2000
Nie pracujemy z dziećmi, nie stosujemy bicia,
14:10
but the concept is identical.
360
850260
2000
ale koncepcja jest identyczna.
14:12
We bring in two adults. We tell them they're going to play a game.
361
852260
3000
Wprowadzamy dwóch dorosłych. Mówimy im, że zagrają w grę.
14:15
And so here's player one and player two sitting opposite to each other.
362
855260
2000
Gracz nr 1 i nr 2 siedzą naprzeciwko siebie.
14:17
And the game is very simple.
363
857260
2000
A gra jest bardzo prosta.
14:19
We started with a motor
364
859260
2000
Zaczęliśmy od silniczka
14:21
with a little lever, a little force transfuser.
365
861260
2000
z małą dźwignią, małym przekaźnikiem siły.
14:23
And we use this motor to apply force down to player one's fingers
366
863260
2000
Silniczek pomaga naciskać palce gracza nr 1
14:25
for three seconds and then it stops.
367
865260
3000
na trzy sekundy, a potem się zatrzymuje.
14:28
And that player's been told, remember the experience of that force
368
868260
3000
Gracz miał zapamiętać odczucie tej siły
14:31
and use your other finger
369
871260
2000
i użyć drugiego palca
14:33
to apply the same force
370
873260
2000
by przyłożyć tą samą siłę
14:35
down to the other subject's finger through a force transfuser -- and they do that.
371
875260
3000
do palca gracza nr 2 przez przekaźnik siły.
14:38
And player two's been told, remember the experience of that force.
372
878260
3000
Graczowi nr 2 kazano zapamiętać odczucie tej siły.
14:41
Use your other hand to apply the force back down.
373
881260
3000
Ma użyć drugiej ręki by znów przyłożyć siłę.
14:44
And so they take it in turns
374
884260
2000
Na zmianę przykładają siłę
14:46
to apply the force they've just experienced back and forward.
375
886260
2000
której właśnie doświadczyli.
14:48
But critically,
376
888260
2000
Co bardzo ważne,
14:50
they're briefed about the rules of the game in separate rooms.
377
890260
3000
zasady gry dostają w osobnych pokojach.
14:53
So they don't know the rules the other person's playing by.
378
893260
2000
Nie znają reguł, wg których gra druga osoba.
14:55
And what we've measured
379
895260
2000
Mierzyliśmy siłę jako funkcję rund.
14:57
is the force as a function of terms.
380
897260
2000
Mierzyliśmy siłę jako funkcję rund.
14:59
And if we look at what we start with,
381
899260
2000
I jeśli spojrzymy na początek,
15:01
a quarter of a Newton there, a number of turns,
382
901260
2000
ćwierć niutona tutaj, kilka rund,
15:03
perfect would be that red line.
383
903260
2000
ideałem byłaby ta czerwona linia.
15:05
And what we see in all pairs of subjects is this --
384
905260
3000
U wszystkich par badanych
15:08
a 70 percent escalation in force
385
908260
2000
widać zwiększenie siły o 70%
15:10
on each go.
386
910260
2000
w każdej rundzie.
15:12
So it really suggests, when you're doing this --
387
912260
2000
Takie wyniki sugerują,
15:14
based on this study and others we've done --
388
914260
2000
na podstawie tego i innych naszych badań,
15:16
that the brain is canceling the sensory consequences
389
916260
2000
że mózg wyklucza czuciowe konsekwencje
15:18
and underestimating the force it's producing.
390
918260
2000
i nie docenia siły, którą wytwarza.
15:20
So it re-shows the brain makes predictions
391
920260
2000
Więc znów pokazuje to, że mózg robi przewidywania
15:22
and fundamentally changes the precepts.
392
922260
3000
i znacznie zmienia polecenia.
15:25
So we've made inferences, we've done predictions,
393
925260
3000
Wywoływalismy zakłócenia, przewidywaliśmy,
15:28
now we have to generate actions.
394
928260
2000
teraz musimy stworzyć działanie.
15:30
And what Bayes' rule says is, given my beliefs,
395
930260
2000
Reguła Bayesa mówi, na podstawie moich przekoanń,
15:32
the action should in some sense be optimal.
396
932260
2000
działanie w pewnym sensie powinno być optymalne.
15:34
But we've got a problem.
397
934260
2000
Ale mamy problem.
15:36
Tasks are symbolic -- I want to drink, I want to dance --
398
936260
3000
Zadania są symboliczne: chcę pić, chcę tańczyć,
15:39
but the movement system has to contract 600 muscles
399
939260
2000
ale układ ruchowy musi kurczyć 600 mieśni
15:41
in a particular sequence.
400
941260
2000
w określonej kolejności.
15:43
And there's a big gap
401
943260
2000
I jest duża rozbieżność
15:45
between the task and the movement system.
402
945260
2000
między zadaniem i układem ruchowy.
15:47
So it could be bridged in infinitely many different ways.
403
947260
2000
Można to połączyć na nieskończenie wiele sposobów.
15:49
So think about just a point to point movement.
404
949260
2000
Pomyślcie tylko o ruchu z punktu do punktu.
15:51
I could choose these two paths
405
951260
2000
Mógłbym wybrać te dwie ścieżki
15:53
out of an infinite number of paths.
406
953260
2000
z nieskończonej liczby ścieżek.
15:55
Having chosen a particular path,
407
955260
2000
Po wybraniu danej ścieżki,
15:57
I can hold my hand on that path
408
957260
2000
mogę trzymać rękę na tej ścieżce
15:59
as infinitely many different joint configurations.
409
959260
2000
jako nieskończenie wielu różnych konfiguracjach ustawienia stawów.
16:01
And I can hold my arm in a particular joint configuration
410
961260
2000
I mogę trzymać rękę w szczególnym układzie stawów
16:03
either very stiff or very relaxed.
411
963260
2000
albo bardzo sztywno albo luźno.
16:05
So I have a huge amount of choice to make.
412
965260
3000
Muszę dokonać wielu wyborów.
16:08
Now it turns out, we are extremely stereotypical.
413
968260
3000
Okazuje się, że jesteśmy bardzo stereotypowi.
16:11
We all move the same way pretty much.
414
971260
3000
Wszyscy ruszamy się właściwie tak samo.
16:14
And so it turns out we're so stereotypical,
415
974260
2000
Jesteśmy tak stereotypowi,
16:16
our brains have got dedicated neural circuitry
416
976260
2000
że nasze mózgi mają specjalny obwód nerwowy
16:18
to decode this stereotyping.
417
978260
2000
który dekoduje tworzenie stereotypów.
16:20
So if I take some dots
418
980260
2000
Jeśli wezmę parę kropek
16:22
and set them in motion with biological motion,
419
982260
3000
i wprawię je w ruch na podobieństwo organizmów,
16:25
your brain's circuitry would understand instantly what's going on.
420
985260
3000
wasze obwody mózgowe natychmiast to zrozumieją.
16:28
Now this is a bunch of dots moving.
421
988260
2000
To tylko poruszające się kropki.
16:30
You will know what this person is doing,
422
990260
3000
Będziecie wiedzieli, co robi ta osoba,
16:33
whether happy, sad, old, young -- a huge amount of information.
423
993260
3000
czy jest szczęśliwa, smutna, stara, młoda - masa informacji.
16:36
If these dots were cars going on a racing circuit,
424
996260
2000
Gdyby te kropki były samochodami na wyścigach,
16:38
you would have absolutely no idea what's going on.
425
998260
3000
nie mielibyście pojęcia, co się dzieje.
16:41
So why is it
426
1001260
2000
Więc dlaczego
16:43
that we move the particular ways we do?
427
1003260
2000
poruszamy się w ten, a nie inny sposób?
16:45
Well let's think about what really happens.
428
1005260
2000
Pomyślmy, co naprawdę się dzieje.
16:47
Maybe we don't all quite move the same way.
429
1007260
3000
Może nie wszyscy poruszamy się tak samo.
16:50
Maybe there's variation in the population.
430
1010260
2000
Może jest zróżnicowanie populacji.
16:52
And maybe those who move better than others
431
1012260
2000
Może ci, którzy poruszają się lepiej niż inni,
16:54
have got more chance of getting their children into the next generation.
432
1014260
2000
mają większe szanse na następne pokolenia dzieci.
16:56
So in evolutionary scales, movements get better.
433
1016260
3000
W skali ewolucyjnej, ruchy się polepszają.
16:59
And perhaps in life, movements get better through learning.
434
1019260
3000
W życiu ruchy usprawniają się przez naukę.
17:02
So what is it about a movement which is good or bad?
435
1022260
2000
Co w ruchu jest dobre lub złe?
17:04
Imagine I want to intercept this ball.
436
1024260
2000
Powiedzmy, że chcę przechwycić tę piłkę.
17:06
Here are two possible paths to that ball.
437
1026260
3000
Tu są dwa możliwe tory.
17:09
Well if I choose the left-hand path,
438
1029260
2000
Jeśli wybiorę tor po lewej,
17:11
I can work out the forces required
439
1031260
2000
mogę określić potrzebne siły mięśni
17:13
in one of my muscles as a function of time.
440
1033260
2000
jako funkcję czasu.
17:15
But there's noise added to this.
441
1035260
2000
Ale do tego dochodzi hałas.
17:17
So what I actually get, based on this lovely, smooth, desired force,
442
1037260
3000
Zamiast pięknej, płynnej, oczekiwanej siły,
17:20
is a very noisy version.
443
1040260
2000
dostaję bardzo hałaśliwą wersję.
17:22
So if I pick the same command through many times,
444
1042260
3000
Jeśli wydam to samo polecenie wiele razy,
17:25
I will get a different noisy version each time, because noise changes each time.
445
1045260
3000
dostanę wiele hałaśliwych wersji, bo hałas ciągle się zmienia.
17:28
So what I can show you here
446
1048260
2000
Tutaj mogę wam pokazać,
17:30
is how the variability of the movement will evolve
447
1050260
2000
jak rozwinie się zmienność ruchu,
17:32
if I choose that way.
448
1052260
2000
jeśli wybiorę tą drogę.
17:34
If I choose a different way of moving -- on the right for example --
449
1054260
3000
Jeśli wybiorę inny sposób, np. ten po prawej,
17:37
then I'll have a different command, different noise,
450
1057260
2000
będę miał inne polecenie, inny hałas,
17:39
playing through a noisy system, very complicated.
451
1059260
3000
w hałaśliwym systemie; to bardzo skomplikowane.
17:42
All we can be sure of is the variability will be different.
452
1062260
3000
Wiemy na pewno, że zmienność będzie inna.
17:45
If I move in this particular way,
453
1065260
2000
Jeśli poruszam się dany sposób,
17:47
I end up with a smaller variability across many movements.
454
1067260
3000
napotkam mniejszą zmienność w wielu ruchach.
17:50
So if I have to choose between those two,
455
1070260
2000
Jeśli muszę wybrać między tymi dwoma,
17:52
I would choose the right one because it's less variable.
456
1072260
2000
wybiorę prawy, ponieważ jest mniej zmienny.
17:54
And the fundamental idea
457
1074260
2000
Fundamentalną zasadą
17:56
is you want to plan your movements
458
1076260
2000
jest planowanie swoich ruchów tak,
17:58
so as to minimize the negative consequence of the noise.
459
1078260
3000
by zminimalizować negatywne konsekwencje hałasu.
18:01
And one intuition to get
460
1081260
2000
Intuicyjnie zrozumiałe jest,
18:03
is actually the amount of noise or variability I show here
461
1083260
2000
że w rzeczywistości pokazywana zmienność hałasu
18:05
gets bigger as the force gets bigger.
462
1085260
2000
zwiększa się wraz ze wzrostem siły.
18:07
So you want to avoid big forces as one principle.
463
1087260
3000
Chcemy unikać dużej siły dla zasady.
18:10
So we've shown that using this,
464
1090260
2000
Wykazaliśmy, że tą metodą
18:12
we can explain a huge amount of data --
465
1092260
2000
możemy wytłumaczyć bardzo wiele danych;
18:14
that exactly people are going about their lives planning movements
466
1094260
3000
że ludzie całe życie planują swoje ruchy tak,
18:17
so as to minimize negative consequences of noise.
467
1097260
3000
by zminimalizować negatywne konsekwencje hałasu.
18:20
So I hope I've convinced you the brain is there
468
1100260
2000
Mam nadzieję, że przekonałem was,
18:22
and evolved to control movement.
469
1102260
2000
że mózg wyewoluował po to, by kontrolować ruch.
18:24
And it's an intellectual challenge to understand how we do that.
470
1104260
3000
Zrozumienie jak to robimy, stanowi intelektualne wyzwanie.
18:27
But it's also relevant
471
1107260
2000
Jest to także ważne
18:29
for disease and rehabilitation.
472
1109260
2000
dla schorzeń i rehabilitacji.
18:31
There are many diseases which effect movement.
473
1111260
3000
Jest wiele chorób, które wpływają na ruch.
18:34
And hopefully if we understand how we control movement,
474
1114260
2000
Mam nadzieję, że jeśli zrozumiemy kontrolę ruchu,
18:36
we can apply that to robotic technology.
475
1116260
2000
da się ją zastosować do robotyki.
18:38
And finally, I want to remind you,
476
1118260
2000
Na koniec chcę przypomnieć,
18:40
when you see animals do what look like very simple tasks,
477
1120260
2000
że u zwierząt, robiących coś z pozoru prostego,
18:42
the actual complexity of what is going on inside their brain
478
1122260
2000
rzeczywista złożoność pracy mózgu
18:44
is really quite dramatic.
479
1124260
2000
jest naprawdę dramatyczna.
18:46
Thank you very much.
480
1126260
2000
Dziękuję bardzo.
18:48
(Applause)
481
1128260
8000
(Brawa)
18:56
Chris Anderson: Quick question for you, Dan.
482
1136260
2000
Chris Anderson: Krótkie pytanie.
18:58
So you're a movement -- (DW: Chauvinist.) -- chauvinist.
483
1138260
4000
Jesteś ruchowym szowinistą.
19:02
Does that mean that you think that the other things we think our brains are about --
484
1142260
3000
Czyli sprawy, którymi, zdawałoby się, zajmuje się mózg:
19:05
the dreaming, the yearning, the falling in love and all these things --
485
1145260
3000
marzenia, tęsknota, miłość itp
19:08
are a kind of side show, an accident?
486
1148260
3000
są skutkiem ubocznym, przypadkiem?
19:11
DW: No, no, actually I think they're all important
487
1151260
2000
DW: Nie. Wszystko to jest ważne,
19:13
to drive the right movement behavior to get reproduction in the end.
488
1153260
3000
by odpowiednimi ruchami doprowadzić do reprodukcji.
19:16
So I think people who study sensation or memory
489
1156260
3000
Sądzę, że badacze odczuć lub pamięci
19:19
without realizing why you're laying down memories of childhood.
490
1159260
2000
nie wiedzą, czemu przechowujemy wspomnienia z dzieciństwa.
19:21
The fact that we forget most of our childhood, for example,
491
1161260
3000
Zapominamy większość naszego dzieciństwa
19:24
is probably fine, because it doesn't effect our movements later in life.
492
1164260
3000
ale nie wpływa to na nasze ruchy w późniejszym życiu.
19:27
You only need to store things which are really going to effect movement.
493
1167260
3000
Trzeba przechowywać tylko to, co naprawdę wpłynie na ruch.
19:30
CA: So you think that people thinking about the brain, and consciousness generally,
494
1170260
3000
CA: Czyli ludzie mogliby zgłębić mózg
19:33
could get real insight
495
1173260
2000
i ogólnie świadomość określając,
19:35
by saying, where does movement play in this game?
496
1175260
2000
jaką rolę odgrywa ruch?
19:37
DW: So people have found out for example
497
1177260
2000
DW: Ludzie odkryli np.,
19:39
that studying vision in the absence of realizing why you have vision
498
1179260
2000
że badanie wzroku bez świadomości, po co nam wzrok
19:41
is a mistake.
499
1181260
2000
jest pomyłką.
19:43
You have to study vision with the realization
500
1183260
2000
Trzeba badać wzrok pamiętając o tym,
19:45
of how the movement system is going to use vision.
501
1185260
2000
jak układ ruchowy skorzysta z tego zmysłu.
19:47
And it uses it very differently once you think about it that way.
502
1187260
2000
Używa na wiele sposobów, jeśli tak na to spojrzeć.
19:49
CA: Well that was quite fascinating. Thank you very much indeed.
503
1189260
3000
CA: To było fascynujące. Naprawdę bardzo dziękuję.
19:52
(Applause)
504
1192260
2000
(Brawa)
O tej stronie

Na tej stronie poznasz filmy z YouTube, które są przydatne do nauki języka angielskiego. Zobaczysz lekcje angielskiego prowadzone przez najlepszych nauczycieli z całego świata. Kliknij dwukrotnie na angielskie napisy wyświetlane na stronie każdego filmu, aby odtworzyć film od tego miejsca. Napisy przewijają się synchronicznie z odtwarzaniem filmu. Jeśli masz jakieś uwagi lub prośby, skontaktuj się z nami za pomocą formularza kontaktowego.

https://forms.gle/WvT1wiN1qDtmnspy7