Daniel Wolpert: The real reason for brains

341,413 views ・ 2011-11-03

TED


Ве молиме кликнете двапати на англискиот титл подолу за да го репродуцирате видеото.

Translator: ALEKSANDAR MITEVSKI Reviewer: Dejan Spaseski
00:15
I'm a neuroscientist.
0
15260
2000
Јас сум невролог.
00:17
And in neuroscience,
1
17260
2000
Во неврологијата,
00:19
we have to deal with many difficult questions about the brain.
2
19260
3000
се справуваме со многу тешки прашања кои се однесуваат на мозокот.
00:22
But I want to start with the easiest question
3
22260
2000
Меѓутоа сакам да започнам со најлесното прашање
00:24
and the question you really should have all asked yourselves at some point in your life,
4
24260
3000
кое што веројатно си го имате поставено во одреден период од вашиот живот,
00:27
because it's a fundamental question
5
27260
2000
бидејќи е суштинско прашање
00:29
if we want to understand brain function.
6
29260
2000
доколку сакаме да разбереме како функционира мозокот.
00:31
And that is, why do we and other animals
7
31260
2000
А тоа е, зошто ние и другите животни
00:33
have brains?
8
33260
2000
имаме мозоци?
00:35
Not all species on our planet have brains,
9
35260
3000
Сите видови од нашата планета немаат мозоци,
00:38
so if we want to know what the brain is for,
10
38260
2000
и ако сакаме да знаеме за што служи мозокот,
00:40
let's think about why we evolved one.
11
40260
2000
да размислиме зошто настанал кај нас.
00:42
Now you may reason that we have one
12
42260
2000
Ќе помислите дека имаме мозок за
00:44
to perceive the world or to think,
13
44260
2000
да го перцепираме светот или за да мислиме,
00:46
and that's completely wrong.
14
46260
2000
а тоа е потполно погрешно.
00:48
If you think about this question for any length of time,
15
48260
3000
Ако размислите за ова прашање,
00:51
it's blindingly obvious why we have a brain.
16
51260
2000
очигледна е причината за настанокот на мозокот.
00:53
We have a brain for one reason and one reason only,
17
53260
3000
Ние имаме мозок од една и единствена причина,
00:56
and that's to produce adaptable and complex movements.
18
56260
3000
а тоа е да правиме адаптабилни и сложени движења.
00:59
There is no other reason to have a brain.
19
59260
2000
Не постои друга причина за мозокот.
01:01
Think about it.
20
61260
2000
Размислете за ова.
01:03
Movement is the only way you have
21
63260
2000
Движењето е единствениот начин што го имате
01:05
of affecting the world around you.
22
65260
2000
за да влијаете врз светот околу вас.
01:07
Now that's not quite true. There's one other way, and that's through sweating.
23
67260
3000
Тоа и не е баш точно. Постои друг начин, а тоа е преку потењето.
01:10
But apart from that,
24
70260
2000
Но освен тоа,
01:12
everything else goes through contractions of muscles.
25
72260
2000
сето друго влијание се одвива преку контракција на мускулите.
01:14
So think about communication --
26
74260
2000
Еве размислете за комуникацијата,
01:16
speech, gestures, writing, sign language --
27
76260
3000
говорот, гестовите, пишувањето, знаковниот јазик,
01:19
they're all mediated through contractions of your muscles.
28
79260
3000
сите тие се возможни благодарение на контракцијата на мускулите.
01:22
So it's really important to remember
29
82260
2000
Значи навистина е важно да запаметите
01:24
that sensory, memory and cognitive processes are all important,
30
84260
4000
дека сетилните, мемориските и сознајните процеси се важни,
01:28
but they're only important
31
88260
2000
но тие се важни само доколку
01:30
to either drive or suppress future movements.
32
90260
2000
ги поттикнуваат или поттиснуваат идните движења.
01:32
There can be no evolutionary advantage
33
92260
2000
Не може да постои еволуциска предност
01:34
to laying down memories of childhood
34
94260
2000
за зачувување на детските сеќавања
01:36
or perceiving the color of a rose
35
96260
2000
или за перцепирање на бојата на розата
01:38
if it doesn't affect the way you're going to move later in life.
36
98260
3000
доколку тоа не влијае врз вашето движење подоцна во животот.
01:41
Now for those who don't believe this argument,
37
101260
2000
За оние кои не веруваат во овој аргумент,
01:43
we have trees and grass on our planet without the brain,
38
103260
2000
ги имаме дрвјата и тревата кои се без мозок,
01:45
but the clinching evidence is this animal here --
39
105260
2000
но непобитниот доказ е ова животно овде,
01:47
the humble sea squirt.
40
107260
2000
скромното морско прасе.
01:49
Rudimentary animal, has a nervous system,
41
109260
3000
Рудиментирано животно, има нервен систем,
01:52
swims around in the ocean in its juvenile life.
42
112260
2000
плива низ океанот додека е во раната возраст.
01:54
And at some point of its life,
43
114260
2000
И во одреден период од животот,
01:56
it implants on a rock.
44
116260
2000
се закачува на карпа.
01:58
And the first thing it does in implanting on that rock, which it never leaves,
45
118260
3000
И веднаш по закачувањето за карпата, која никогаш не ја напушта,
02:01
is to digest its own brain and nervous system
46
121260
3000
го јаде сопствениот мозок и нервен систем
02:04
for food.
47
124260
2000
како храна.
02:06
So once you don't need to move,
48
126260
2000
Значи доколку не се движите,
02:08
you don't need the luxury of that brain.
49
128260
3000
тогаш не ви треба мозокот како луксуз.
02:11
And this animal is often taken
50
131260
2000
Ова животно често пати се зема
02:13
as an analogy to what happens at universities
51
133260
2000
како аналогија за она што се случува на универзитетите
02:15
when professors get tenure,
52
135260
2000
откако професорите ќе добијат позиција,
02:17
but that's a different subject.
53
137260
2000
но тоа е друга тема.
02:19
(Applause)
54
139260
2000
(Аплауз)
02:21
So I am a movement chauvinist.
55
141260
3000
Значи јас сум шовинист за движењето.
02:24
I believe movement is the most important function of the brain --
56
144260
2000
Верувам дека движењето е најважната функција на мозокот,
02:26
don't let anyone tell you that it's not true.
57
146260
2000
и не дозволувајте некој да ви каже дека не е така.
02:28
Now if movement is so important,
58
148260
2000
Доколку движењето е толку важно,
02:30
how well are we doing
59
150260
2000
тогаш колку добро
02:32
understanding how the brain controls movement?
60
152260
2000
разбираме како мозокот ги контролира движењата?
02:34
And the answer is we're doing extremely poorly; it's a very hard problem.
61
154260
2000
Одговорот е многу слабо; тоа е навистина тежок проблем.
02:36
But we can look at how well we're doing
62
156260
2000
Колку го разбираме овој процес се гледа
02:38
by thinking about how well we're doing building machines
63
158260
2000
преку тоа колку сме добри во правењето машини
02:40
which can do what humans can do.
64
160260
2000
кои можат да прават она што и луѓето.
02:42
Think about the game of chess.
65
162260
2000
Помислете за играта шах.
02:44
How well are we doing determining what piece to move where?
66
164260
3000
Колку сме добри во одлучувањето која фигура каде да ја поместиме?
02:47
If you pit Garry Kasparov here, when he's not in jail,
67
167260
3000
Доколку го спротивставите Гари Каспаров, кога не е во затвор,
02:50
against IBM's Deep Blue,
68
170260
2000
наспроти Дип Блу на IBM,
02:52
well the answer is IBM's Deep Blue will occasionally win.
69
172260
3000
одговорот е дека IBM-овата Дип Блу понекогаш ќе победи.
02:55
And I think if IBM's Deep Blue played anyone in this room, it would win every time.
70
175260
3000
Мислам дека, ако IBM-овата Дип Блу игра со било кој од овде, ќе победи секој пат.
02:58
That problem is solved.
71
178260
2000
Тој проблем е решен.
03:00
What about the problem
72
180260
2000
А што правиме со
03:02
of picking up a chess piece,
73
182260
2000
подигање на шаховската фигура,
03:04
dexterously manipulating it and putting it back down on the board?
74
184260
3000
нејзиното манипулирање со рака и повторно ставање на таблата?
03:07
If you put a five year-old child's dexterity against the best robots of today,
75
187260
3000
Ако спротивставите едно петгодишно дете со најдобриот робот,
03:10
the answer is simple:
76
190260
2000
одговорот е едноставен:
03:12
the child wins easily.
77
192260
2000
детето лесно победува.
03:14
There's no competition at all.
78
194260
2000
Воопшто не постои натпревар.
03:16
Now why is that top problem so easy
79
196260
2000
Зошто горниот проблем е толку лесен
03:18
and the bottom problem so hard?
80
198260
2000
додека пак долниот толку тежок?
03:20
One reason is a very smart five year-old
81
200260
2000
Причината е што многу паметно петгодишно
03:22
could tell you the algorithm for that top problem --
82
202260
2000
ќе ви го каже алгоритамот за првиот проблем,
03:24
look at all possible moves to the end of the game
83
204260
2000
ќе ги предвиди сите можни потези до крајот на играта
03:26
and choose the one that makes you win.
84
206260
2000
и ќе го избере оној што е победнички.
03:28
So it's a very simple algorithm.
85
208260
2000
Алгоритамот е многу едноставен.
03:30
Now of course there are other moves,
86
210260
2000
Се разбира постојат и други потези,
03:32
but with vast computers we approximate
87
212260
2000
но со големи компјутери се приближуваме
03:34
and come close to the optimal solution.
88
214260
2000
и доаѓаме близу до оптималното решение.
03:36
When it comes to being dexterous,
89
216260
2000
Кога станува збор за рачната флексибилност,
03:38
it's not even clear what the algorithm is you have to solve to be dexterous.
90
218260
2000
дури и не знаеме кој алгоритам треба да го решите.
03:40
And we'll see you have to both perceive and act on the world,
91
220260
2000
А истовремено треба и да го перцепирате и да влијаете врз светот,
03:42
which has a lot of problems.
92
222260
2000
што е навистина проблематично.
03:44
But let me show you cutting-edge robotics.
93
224260
2000
Но, да ви ја покажам најсовршената роботика.
03:46
Now a lot of robotics is very impressive,
94
226260
2000
Голем дел од роботиката е импресивна,
03:48
but manipulation robotics is really just in the dark ages.
95
228260
3000
но манипулациската роботика е сè уште во мрачната доба.
03:51
So this is the end of a Ph.D. project
96
231260
2000
Ова е завршетокот на еден докторат
03:53
from one of the best robotics institutes.
97
233260
2000
во еден од најдобрите институти за роботика.
03:55
And the student has trained this robot
98
235260
2000
Студентот го има тренирано овој робот
03:57
to pour this water into a glass.
99
237260
2000
да сипува вода во чаша.
03:59
It's a hard problem because the water sloshes about, but it can do it.
100
239260
3000
Ова е сложен проблем бидејќи водата е нестабилна, но некако успева.
04:02
But it doesn't do it with anything like the agility of a human.
101
242260
3000
Меѓутоа сипувањето не го прави онака агилно како човек.
04:05
Now if you want this robot to do a different task,
102
245260
3000
Ако сакате овој робот да извршува поинаква задача,
04:08
that's another three-year Ph.D. program.
103
248260
3000
тоа е веќе друг тригодишен докторат.
04:11
There is no generalization at all
104
251260
2000
Не постои генерализација воопшто
04:13
from one task to another in robotics.
105
253260
2000
во роботиката од една на друга задача.
04:15
Now we can compare this
106
255260
2000
Можеме да го споредиме ова
04:17
to cutting-edge human performance.
107
257260
2000
со совршената човечка изведба.
04:19
So what I'm going to show you is Emily Fox
108
259260
2000
Она што ќе ви го покажам е Емили Фокс
04:21
winning the world record for cup stacking.
109
261260
3000
како постигнува светски рекорд во редење чаши.
04:24
Now the Americans in the audience will know all about cup stacking.
110
264260
2000
Американците во публиката знаат сè за редењето на чаши.
04:26
It's a high school sport
111
266260
2000
Тоа е средношколски спорт,
04:28
where you have 12 cups you have to stack and unstack
112
268260
2000
имате 12 чаши кои што треба да ги наместите и разместите
04:30
against the clock in a prescribed order.
113
270260
2000
што побрзо по одреден редослед.
04:32
And this is her getting the world record in real time.
114
272260
3000
Еве је како го постигнува светскиот рекорд.
04:39
(Laughter)
115
279260
8000
(Смеа)
04:47
(Applause)
116
287260
5000
(Аплауз)
04:52
And she's pretty happy.
117
292260
2000
Прилично е среќна.
04:54
We have no idea what is going on inside her brain when she does that,
118
294260
2000
Не знаеме што се случува во нејзиниот мозок во тој момент,
04:56
and that's what we'd like to know.
119
296260
2000
а тоа сакаме да го дознаеме.
04:58
So in my group, what we try to do
120
298260
2000
Во мојата група, се обидуваме преку
05:00
is reverse engineer how humans control movement.
121
300260
3000
анализа да откриеме како луѓето го контролираат движењето.
05:03
And it sounds like an easy problem.
122
303260
2000
Звучи како лесен проблем.
05:05
You send a command down, it causes muscles to contract.
123
305260
2000
Испраќате наредба, а тоа предизвикува мускулна контракција
05:07
Your arm or body moves,
124
307260
2000
Вашата рака или тело се движат,
05:09
and you get sensory feedback from vision, from skin, from muscles and so on.
125
309260
3000
а потоа добивате сетилен фидбек од вашиот вид, кожа, од мускулите итн.
05:12
The trouble is
126
312260
2000
Проблемот е
05:14
these signals are not the beautiful signals you want them to be.
127
314260
2000
што овие сигнали не се онолку убави колку што би сакале.
05:16
So one thing that makes controlling movement difficult
128
316260
2000
Една работа што ја отежнува контролата на движењето
05:18
is, for example, sensory feedback is extremely noisy.
129
318260
3000
е фактот што сетилниот фидбек е екстремно бучен.
05:21
Now by noise, I do not mean sound.
130
321260
3000
Кога велам бучава, не мислам на звук.
05:24
We use it in the engineering and neuroscience sense
131
324260
2000
За неа зборуваме во инжинерска и невролошка смисла
05:26
meaning a random noise corrupting a signal.
132
326260
2000
подразбирајќи случајна бучава што го оневозможува сигналот.
05:28
So the old days before digital radio when you were tuning in your radio
133
328260
3000
Порано пред да се појави дигиталното радио кога го подесувавте радиото
05:31
and you heard "crrcckkk" on the station you wanted to hear,
134
331260
2000
и слушавте "ххрркк" на станицата што ја баравте
05:33
that was the noise.
135
333260
2000
токму за таква бучава зборувам.
05:35
But more generally, this noise is something that corrupts the signal.
136
335260
3000
Во основа, оваа бучава е нешто што го оневозможува сигналот.
05:38
So for example, if you put your hand under a table
137
338260
2000
На пример, ако ја ставите раката под маса
05:40
and try to localize it with your other hand,
138
340260
2000
и се обидете да ја лоцирате со другата рака,
05:42
you can be off by several centimeters
139
342260
2000
може да промашите за неколку сантиметри
05:44
due to the noise in sensory feedback.
140
344260
2000
поради бучавата во сетилниот фидбек.
05:46
Similarly, when you put motor output on movement output,
141
346260
2000
Слично, влијанието на моторниот аутпут врз движењето,
05:48
it's extremely noisy.
142
348260
2000
е екстремно бучно.
05:50
Forget about trying to hit the bull's eye in darts,
143
350260
2000
Не мора да се обидувате да го погодите центарот
05:52
just aim for the same spot over and over again.
144
352260
2000
на пикадото, само целете кон истата точка постојано.
05:54
You have a huge spread due to movement variability.
145
354260
3000
Ќе добиете голема распрсканост поради варијабилноста на движењето.
05:57
And more than that, the outside world, or task,
146
357260
2000
Уште поважно, надворешниот свет, или задача,
05:59
is both ambiguous and variable.
147
359260
2000
се истовремено и нејасни и варијабилни.
06:01
The teapot could be full, it could be empty.
148
361260
2000
Чајникот може да биде полн, или празен.
06:03
It changes over time.
149
363260
2000
Се менува со тек на време.
06:05
So we work in a whole sensory movement task soup of noise.
150
365260
4000
Значи ние изведуваме сензорно-движечки задачи опкружени со огромна бучава.
06:09
Now this noise is so great
151
369260
2000
Оваа бучава е толку голема
06:11
that society places a huge premium
152
371260
2000
што општеството ги вреднува оние
06:13
on those of us who can reduce the consequences of noise.
153
373260
3000
од нас кои можат да ги намалат последиците од бучавата.
06:16
So if you're lucky enough to be able to knock a small white ball
154
376260
3000
Доколку сте доволно среќни да успеете да уфрлите мала бела топка
06:19
into a hole several hundred yards away using a long metal stick,
155
379260
3000
во дупка оддалечена неколку стотици метри користејќи долг метален стап,
06:22
our society will be willing to reward you
156
382260
2000
нашето општество со задоволство ќе ве награди
06:24
with hundreds of millions of dollars.
157
384260
3000
со стотици милиони долари.
06:27
Now what I want to convince you of
158
387260
2000
Она што сакам да ве убедам е
06:29
is the brain also goes through a lot of effort
159
389260
2000
дека мозокот исто така вложува многу напор
06:31
to reduce the negative consequences
160
391260
2000
за да ги намали негативните последици
06:33
of this sort of noise and variability.
161
393260
2000
од овој вид на бучава и варијабилност.
06:35
And to do that, I'm going to tell you about a framework
162
395260
2000
Затоа, ќе зборувам за една концепција што е многу
06:37
which is very popular in statistics and machine learning of the last 50 years
163
397260
3000
популарна во статистиката и машинското учење во изминативе 50 години
06:40
called Bayesian decision theory.
164
400260
2000
и се вика Бејзијанска теорија на одлучување.
06:42
And it's more recently a unifying way
165
402260
3000
И од неодамна стана консензуален начин
06:45
to think about how the brain deals with uncertainty.
166
405260
3000
за објаснување како мозокот се справува со неизвесноста.
06:48
And the fundamental idea is you want to make inferences and then take actions.
167
408260
3000
Основната идеја е дека најпрвин донесувате заклучоци а потоа превземате акции.
06:51
So let's think about the inference.
168
411260
2000
Ајде да размислиме за заклучувањето.
06:53
You want to generate beliefs about the world.
169
413260
2000
Сакате да создадете верувања за светот.
06:55
So what are beliefs?
170
415260
2000
Што се верувањата?
06:57
Beliefs could be: where are my arms in space?
171
417260
2000
Верувања можат да бидат: каде ми се рацете во просторот?
06:59
Am I looking at a cat or a fox?
172
419260
2000
Гледам во мачка или во лисица?
07:01
But we're going to represent beliefs with probabilities.
173
421260
3000
Но ние ќе ги претставиме верувањата како веројатности.
07:04
So we're going to represent a belief
174
424260
2000
Ќе го претставиме верувањето
07:06
with a number between zero and one --
175
426260
2000
со број од нула до еден,
07:08
zero meaning I don't believe it at all, one means I'm absolutely certain.
176
428260
3000
нула означува не верувам воопшто, еден означува потполно сум сигурен.
07:11
And numbers in between give you the gray levels of uncertainty.
177
431260
3000
Броевите во средината ги претставуваат сивите нивоа на неизвесноста.
07:14
And the key idea to Bayesian inference
178
434260
2000
Клучната идеја во Бејзијанското заклучување
07:16
is you have two sources of information
179
436260
2000
е дека имате два извора на информации
07:18
from which to make your inference.
180
438260
2000
врз чија основа ги донесувате заклучоците.
07:20
You have data,
181
440260
2000
Имате податоци,
07:22
and data in neuroscience is sensory input.
182
442260
2000
а податоци во неврологијата се сетилните инпути.
07:24
So I have sensory input, which I can take in to make beliefs.
183
444260
3000
Имам сетилен инпут, а врз негова основа ги градам моите верувања.
07:27
But there's another source of information, and that's effectively prior knowledge.
184
447260
3000
Но, има друг извор на информации, а тоа е претходното знаење.
07:30
You accumulate knowledge throughout your life in memories.
185
450260
3000
Вие собирате знаење во текот на животот во сеќавањата.
07:33
And the point about Bayesian decision theory
186
453260
2000
Важното за Бејзијанската теорија на одлучување
07:35
is it gives you the mathematics
187
455260
2000
е дека ви ја дава математиката
07:37
of the optimal way to combine
188
457260
2000
за оптималниот начин на комбинирање
07:39
your prior knowledge with your sensory evidence
189
459260
2000
на вашето претходно знаење со вашиот сетилен доказ
07:41
to generate new beliefs.
190
461260
2000
како би изградиле нови верувања.
07:43
And I've put the formula up there.
191
463260
2000
Овде ја напишав формулата.
07:45
I'm not going to explain what that formula is, but it's very beautiful.
192
465260
2000
Нема да објаснувам што значи формулата, но е многу убава.
07:47
And it has real beauty and real explanatory power.
193
467260
3000
Има вистинска убавина и вистинска поучна моќ.
07:50
And what it really says, and what you want to estimate,
194
470260
2000
Со оваа формула можете да ја пресметате
07:52
is the probability of different beliefs
195
472260
2000
веројатноста на различните верувања
07:54
given your sensory input.
196
474260
2000
земајќи го во предвид сетилниот инпут.
07:56
So let me give you an intuitive example.
197
476260
2000
Да ви дадам еден секојдневен пример.
07:58
Imagine you're learning to play tennis
198
478260
3000
Замислете дека учите да играте тенис
08:01
and you want to decide where the ball is going to bounce
199
481260
2000
и сакате да утврдите каде ќе отскокне топчето
08:03
as it comes over the net towards you.
200
483260
2000
додека се движи од мрежата кон вас.
08:05
There are two sources of information
201
485260
2000
Постојат два извори на информации
08:07
Bayes' rule tells you.
202
487260
2000
Бејзијанското правило вели.
08:09
There's sensory evidence -- you can use visual information auditory information,
203
489260
3000
Постои сетилен доказ - може да ги користите визуелните, аудиторните информации,
08:12
and that might tell you it's going to land in that red spot.
204
492260
3000
и тоа ќе ви каже да се насочите кон црвената област.
08:15
But you know that your senses are not perfect,
205
495260
3000
Но вие знаете дека вашите сетила не се совршени,
08:18
and therefore there's some variability of where it's going to land
206
498260
2000
и дека постои одредена варијабилност за тоа каде ќе падне топчето,
08:20
shown by that cloud of red,
207
500260
2000
тоа го гледаме во црвениот облак,
08:22
representing numbers between 0.5 and maybe 0.1.
208
502260
3000
претставувајќи ги броевите од 0.5 до можеби 0.1.
08:26
That information is available in the current shot,
209
506260
2000
Таа информација е достапна на сегашната снимка,
08:28
but there's another source of information
210
508260
2000
но има друг извор на информација
08:30
not available on the current shot,
211
510260
2000
кој не е достапен на оваа снимка,
08:32
but only available by repeated experience in the game of tennis,
212
512260
3000
туку само преку искуството стекнато од повеќекратно играње на тенис,
08:35
and that's that the ball doesn't bounce
213
515260
2000
а тоа е дека топчето не отскокнува
08:37
with equal probability over the court during the match.
214
517260
2000
со еднаква веројатност низ теренот за време на мечот.
08:39
If you're playing against a very good opponent,
215
519260
2000
Ако играте против многу добар противник,
08:41
they may distribute it in that green area,
216
521260
2000
топчињата можеби ќе паѓаат во зелената област,
08:43
which is the prior distribution,
217
523260
2000
претходниот приказ,
08:45
making it hard for you to return.
218
525260
2000
отежнувајќи ви го повратниот удар.
08:47
Now both these sources of information carry important information.
219
527260
2000
Овие два извори на информации носат важна информација.
08:49
And what Bayes' rule says
220
529260
2000
Бејзијанското правило вели
08:51
is that I should multiply the numbers on the red by the numbers on the green
221
531260
3000
дека треба да ги помножам броевите во црвеното со броевите во зеленото
08:54
to get the numbers of the yellow, which have the ellipses,
222
534260
3000
за да ги добијам броевите во жолтото, елипсата,
08:57
and that's my belief.
223
537260
2000
и тоа е моето верување.
08:59
So it's the optimal way of combining information.
224
539260
3000
Тоа е оптималниот начин за комбинирање на информации.
09:02
Now I wouldn't tell you all this if it wasn't that a few years ago,
225
542260
2000
Пред неколку години, покажавме дека
09:04
we showed this is exactly what people do
226
544260
2000
луѓето всушност на овој начин
09:06
when they learn new movement skills.
227
546260
2000
ги учат новите вештини т.е. движења.
09:08
And what it means
228
548260
2000
Тоа значи дека
09:10
is we really are Bayesian inference machines.
229
550260
2000
сме Бејзијански инференцијални машини.
09:12
As we go around, we learn about statistics of the world and lay that down,
230
552260
4000
Движејќи се наоколу, учиме за статистиките на светот и ги зачувуваме,
09:16
but we also learn
231
556260
2000
но исто така учиме
09:18
about how noisy our own sensory apparatus is,
232
558260
2000
колку е непрецизен нашиот сетилен апарат,
09:20
and then combine those
233
560260
2000
и потоа ова го комбинираме
09:22
in a real Bayesian way.
234
562260
2000
на вистински Бејзијански начин.
09:24
Now a key part to the Bayesian is this part of the formula.
235
564260
3000
Клучниот дел кога станува збор за Бејзијан е овој дел од формулата.
09:27
And what this part really says
236
567260
2000
Она што всушност вели овој дел
09:29
is I have to predict the probability
237
569260
2000
е дека морам да ја предвидам веројатноста
09:31
of different sensory feedbacks
238
571260
2000
на различни сетилни фидбеци врз
09:33
given my beliefs.
239
573260
2000
основа на моите верувања
09:35
So that really means I have to make predictions of the future.
240
575260
3000
Тоа значи дека морам да правам предвидувања за иднината.
09:38
And I want to convince you the brain does make predictions
241
578260
2000
Сакам да ве убедам дека мозокот навистина го предвидува
09:40
of the sensory feedback it's going to get.
242
580260
2000
сензорниот фидбек што подоцна ќе го добие.
09:42
And moreover, it profoundly changes your perceptions
243
582260
2000
Уште повеќе, тоа суштински ја менува вашата прецепција
09:44
by what you do.
244
584260
2000
на она што го правите.
09:46
And to do that, I'll tell you
245
586260
2000
За да ве убедам, ќе ви кажам
09:48
about how the brain deals with sensory input.
246
588260
2000
за тоа како мозокот се справува со сетилниот инпут.
09:50
So you send a command out,
247
590260
3000
Значи праќате наредба надвор,
09:53
you get sensory feedback back,
248
593260
2000
а добивате сетилен фидбек за возврат,
09:55
and that transformation is governed
249
595260
2000
а таа трансформација е водена
09:57
by the physics of your body and your sensory apparatus.
250
597260
3000
од физиката на вашето тело и вашиот сетилен апарат.
10:00
But you can imagine looking inside the brain.
251
600260
2000
Замислете дека гледате внатре во мозокот.
10:02
And here's inside the brain.
252
602260
2000
Ова е внатре во мозокот.
10:04
You might have a little predictor, a neural simulator,
253
604260
2000
Замислете дека имате мал предвидувач, нервен симулатор,
10:06
of the physics of your body and your senses.
254
606260
2000
за физиката на вашето тело и вашите сетила.
10:08
So as you send a movement command down,
255
608260
2000
Како што праќате наредба за движење,
10:10
you tap a copy of that off
256
610260
2000
правите копија од тоа
10:12
and run it into your neural simulator
257
612260
2000
и ја одигрувате во вашиот нервен симулатор
10:14
to anticipate the sensory consequences of your actions.
258
614260
4000
со цел да ги антиципирате сетилните последици од вашите движења.
10:18
So as I shake this ketchup bottle,
259
618260
2000
Значи додека го тресам ова шише кечап,
10:20
I get some true sensory feedback as the function of time in the bottom row.
260
620260
3000
добивам вистински сетилен фидбек како функција на времето.
10:23
And if I've got a good predictor, it predicts the same thing.
261
623260
3000
Ако имам добар предвидувач, тој ќе го предвиде истото.
10:26
Well why would I bother doing that?
262
626260
2000
Тогаш зошто морам да го правам ова?
10:28
I'm going to get the same feedback anyway.
263
628260
2000
И онака ќе го добијам истиот фидбек.
10:30
Well there's good reasons.
264
630260
2000
Па, има добри причини.
10:32
Imagine, as I shake the ketchup bottle,
265
632260
2000
Замислете дека, тресејќи го шишето кечап,
10:34
someone very kindly comes up to me and taps it on the back for me.
266
634260
3000
некој тивко доаѓа до мене и го удира шишето отпозади наместо мене.
10:37
Now I get an extra source of sensory information
267
637260
2000
Овој пат добивам дополнителна сетилна информација
10:39
due to that external act.
268
639260
2000
поради овој надворешен акт.
10:41
So I get two sources.
269
641260
2000
Значи имам два извора.
10:43
I get you tapping on it, and I get me shaking it,
270
643260
3000
Некој од надвор го удира, и јас го тресам,
10:46
but from my senses' point of view,
271
646260
2000
но од гледна точка на моите сетила,
10:48
that is combined together into one source of information.
272
648260
3000
ова се комбинира во еден извор на информации.
10:51
Now there's good reason to believe
273
651260
2000
Има добра причина да веруваме
10:53
that you would want to be able to distinguish external events from internal events.
274
653260
3000
дека сакате да правите разлика помеѓу надворешни и внатрешни настани.
10:56
Because external events are actually much more behaviorally relevant
275
656260
3000
Бидејќи надворешните настани се многу порелевантни за однесувањето
10:59
than feeling everything that's going on inside my body.
276
659260
3000
одошто чувствата кои доаѓаат од внатрешноста на телото.
11:02
So one way to reconstruct that
277
662260
2000
Еден начин за реконструкција на тоа
11:04
is to compare the prediction --
278
664260
2000
е да се спореди предвидувањето,
11:06
which is only based on your movement commands --
279
666260
2000
кое што единствено се базира на наредбите за движење,
11:08
with the reality.
280
668260
2000
со реалноста.
11:10
Any discrepancy should hopefully be external.
281
670260
3000
И разликата ќе претставува она што доаѓа од надвор.
11:13
So as I go around the world,
282
673260
2000
Значи, движејќи се низ светот,
11:15
I'm making predictions of what I should get, subtracting them off.
283
675260
3000
правам предвидувања за фидбеците што треба да ги добијам, потоа ги одземам.
11:18
Everything left over is external to me.
284
678260
2000
Она што останува е надвор од мене.
11:20
What evidence is there for this?
285
680260
2000
Какви се доказите за ова?
11:22
Well there's one very clear example
286
682260
2000
Има еден многу очигледен пример,
11:24
where a sensation generated by myself feels very different
287
684260
2000
чувството што јас сум го предизвикал се доживува поинаку
11:26
then if generated by another person.
288
686260
2000
од чувството предизвикано од некој друг.
11:28
And so we decided the most obvious place to start
289
688260
2000
Одлучивме дека најочигледното место за почеток
11:30
was with tickling.
290
690260
2000
е скокоткањето.
11:32
It's been known for a long time, you can't tickle yourself
291
692260
2000
Се знае дека не можете да се скокоткате онака
11:34
as well as other people can.
292
694260
2000
како што можат другите да ве скокоткаат.
11:36
But it hasn't really been shown, it's because you have a neural simulator,
293
696260
3000
Но не беше покажано зошто, а тоа е бидејќи имате нервен симулатор,
11:39
simulating your own body
294
699260
2000
кој го симулира вашето тело
11:41
and subtracting off that sense.
295
701260
2000
и кој го намалува тоа чувство.
11:43
So we can bring the experiments of the 21st century
296
703260
3000
Сега можеме да ги спроведеме експериментите
11:46
by applying robotic technologies to this problem.
297
706260
3000
со примена на роботска технологија врз овој проблем.
11:49
And in effect, what we have is some sort of stick in one hand attached to a robot,
298
709260
3000
Во експериментот, имаме еден стап во едната рака прикачен за робот,
11:52
and they're going to move that back and forward.
299
712260
2000
субјектот ќе го движи стапот напред-назад.
11:54
And then we're going to track that with a computer
300
714260
2000
Движењето ќе го следиме со компјутер
11:56
and use it to control another robot,
301
716260
2000
а ќе го користиме за да контролираме друг робот,
11:58
which is going to tickle their palm with another stick.
302
718260
2000
кој што ќе ја скокотка неговата дланка со друг стап.
12:00
And then we're going to ask them to rate a bunch of things
303
720260
2000
Потоа ќе го замолиме да изврши рангирање на многу нешта,
12:02
including ticklishness.
304
722260
2000
а тука е и скокотливоста.
12:04
I'll show you just one part of our study.
305
724260
2000
Ќе ви покажам само еден дел.
12:06
And here I've taken away the robots,
306
726260
2000
Овде ги отстранив роботите,
12:08
but basically people move with their right arm sinusoidally back and forward.
307
728260
3000
но во основа луѓето ја движат десната рака синусоидно напред-назад.
12:11
And we replay that to the other hand with a time delay.
308
731260
3000
Тоа го повторуваме на другата рака со временско задоцнување.
12:14
Either no time delay,
309
734260
2000
Или без временско задоцнување,
12:16
in which case light would just tickle your palm,
310
736260
2000
при што светлина ќе ви ја скокотка дланката,
12:18
or with a time delay of two-tenths of three-tenths of a second.
311
738260
4000
или со временско задоцнување од две десетини, три десетини од секундата.
12:22
So the important point here
312
742260
2000
Важното овде е
12:24
is the right hand always does the same things -- sinusoidal movement.
313
744260
3000
дека десната рака секогаш го прави истото - синусоидно движење.
12:27
The left hand always is the same and puts sinusoidal tickle.
314
747260
3000
Левата рака е статична и добива синусоидно скокоткање.
12:30
All we're playing with is a tempo causality.
315
750260
2000
Она што манипулираме е временската-каузалност.
12:32
And as we go from naught to 0.1 second,
316
752260
2000
Како што одиме од нула до 0.1 секунда,
12:34
it becomes more ticklish.
317
754260
2000
скокотливоста се зголемува.
12:36
As you go from 0.1 to 0.2,
318
756260
2000
Како што одиме од 0.1 до 0.2,
12:38
it becomes more ticklish at the end.
319
758260
2000
скокотливоста се зголемува на крајот.
12:40
And by 0.2 of a second,
320
760260
2000
И на 0.2 од секундата,
12:42
it's equivalently ticklish
321
762260
2000
скокотливоста е еднаква
12:44
to the robot that just tickled you without you doing anything.
322
764260
2000
на онаа кога роботот ве скокоткаше, а вие бевте статични.
12:46
So whatever is responsible for this cancellation
323
766260
2000
Било што да е одговорно за ова одложување
12:48
is extremely tightly coupled with tempo causality.
324
768260
3000
тоа е екстремно тесно поврзано со временската поврзаност.
12:51
And based on this illustration, we really convinced ourselves in the field
325
771260
3000
Врз основа на оваа илустрација, бевме убедени дека
12:54
that the brain's making precise predictions
326
774260
2000
мозоците прават прецизни предвидувања
12:56
and subtracting them off from the sensations.
327
776260
3000
и истите нив ги одземаат од сензациите.
12:59
Now I have to admit, these are the worst studies my lab has ever run.
328
779260
3000
Морам да признаам, овие ми се едни од најлошите истражувања.
13:02
Because the tickle sensation on the palm comes and goes,
329
782260
2000
Бидејќи скокоткањето на дланката доаѓа и си оди,
13:04
you need large numbers of subjects
330
784260
2000
затоа ви требаат голем број на субјекти
13:06
with these stars making them significant.
331
786260
2000
за наодот да биде статистички значаен.
13:08
So we were looking for a much more objective way
332
788260
2000
Затоа баравме пообјективен начин
13:10
to assess this phenomena.
333
790260
2000
за да го истражиме овој феномен.
13:12
And in the intervening years I had two daughters.
334
792260
2000
Имам две ќерки.
13:14
And one thing you notice about children in backseats of cars on long journeys,
335
794260
3000
За време на долгите патувања на задните седишта од колата честопати
13:17
they get into fights --
336
797260
2000
тие се препираат,
13:19
which started with one of them doing something to the other, the other retaliating.
337
799260
3000
тоа започнува така што едната и прави нешто на другата, а другата враќа.
13:22
It quickly escalates.
338
802260
2000
Тоа брзо ескалира.
13:24
And children tend to get into fights which escalate in terms of force.
339
804260
3000
Децата влегуваат во закачки кои ескалираат до употреба на сила.
13:27
Now when I screamed at my children to stop,
340
807260
2000
Кога ќе им викнев да престанат,
13:29
sometimes they would both say to me
341
809260
2000
понекогаш и двете ќе речеа
13:31
the other person hit them harder.
342
811260
3000
дека другата ги удрила посилно.
13:34
Now I happen to know my children don't lie,
343
814260
2000
Знам дека моите деца не лажат,
13:36
so I thought, as a neuroscientist,
344
816260
2000
така си мислев, како невролог,
13:38
it was important how I could explain
345
818260
2000
дека е важно да објаснам
13:40
how they were telling inconsistent truths.
346
820260
2000
зошто кажуваат неконзистентни вистини.
13:42
And we hypothesize based on the tickling study
347
822260
2000
Врз основа на студијата за скокоткање претпоставивме
13:44
that when one child hits another,
348
824260
2000
дека кога едното дете ќе го удри другото,
13:46
they generate the movement command.
349
826260
2000
тие создаваат наредба за движење.
13:48
They predict the sensory consequences and subtract it off.
350
828260
3000
Тие ги предвидуваат сетилните последици и ги одземаат.
13:51
So they actually think they've hit the person less hard than they have --
351
831260
2000
Значи тие мислат дека го удриле лицето со помала сила одошто е случајот,
13:53
rather like the tickling.
352
833260
2000
слично на скокоткањето.
13:55
Whereas the passive recipient
353
835260
2000
Додека пак удрениот
13:57
doesn't make the prediction, feels the full blow.
354
837260
2000
не прави предвидување, го чувствува целиот удар.
13:59
So if they retaliate with the same force,
355
839260
2000
И ако удрениот врати со истата сила,
14:01
the first person will think it's been escalated.
356
841260
2000
првото лице ќе мисли дека всушност ударот е посилен.
14:03
So we decided to test this in the lab.
357
843260
2000
Ова го тестиравме во лабораторија.
14:05
(Laughter)
358
845260
3000
(Смеа)
14:08
Now we don't work with children, we don't work with hitting,
359
848260
2000
Не работиме со деца, не работиме со удирање,
14:10
but the concept is identical.
360
850260
2000
но концептот е идентичен.
14:12
We bring in two adults. We tell them they're going to play a game.
361
852260
3000
Имаме двајца возрасни. Им кажуваме дека ќе играат игра.
14:15
And so here's player one and player two sitting opposite to each other.
362
855260
2000
Двајцата играчи седат на спротивни страни еден од друг.
14:17
And the game is very simple.
363
857260
2000
Играта е многу едноставна.
14:19
We started with a motor
364
859260
2000
Користевме мотор
14:21
with a little lever, a little force transfuser.
365
861260
2000
со мала полуга, мал пренесувач на сила.
14:23
And we use this motor to apply force down to player one's fingers
366
863260
2000
Овој мотор служи за да примениме сила врз прстите на првиот играч
14:25
for three seconds and then it stops.
367
865260
3000
околу три секунди и потоа прекинуваме.
14:28
And that player's been told, remember the experience of that force
368
868260
3000
На тој играч му е кажано, запамети го доживувањето од таа сила
14:31
and use your other finger
369
871260
2000
и со другиот прст
14:33
to apply the same force
370
873260
2000
примени ја истата сила
14:35
down to the other subject's finger through a force transfuser -- and they do that.
371
875260
3000
врз прстите на другиот субјект со помош на преносникот на сила - и тие тоа и го прават.
14:38
And player two's been told, remember the experience of that force.
372
878260
3000
На вториот играч му е кажано, запамети го доживувањето од таа сила.
14:41
Use your other hand to apply the force back down.
373
881260
3000
Со другата рака примени ја истата сила за возврат.
14:44
And so they take it in turns
374
884260
2000
Така во неколку наврати
14:46
to apply the force they've just experienced back and forward.
375
886260
2000
ја применуваат силата што ја доживеале во моментот.
14:48
But critically,
376
888260
2000
Но важно е
14:50
they're briefed about the rules of the game in separate rooms.
377
890260
3000
дека правилата за игра ги добиваат во различни соби.
14:53
So they don't know the rules the other person's playing by.
378
893260
2000
Значи тие не ги знаат правилата по кои другото лице игра.
14:55
And what we've measured
379
895260
2000
Она што меревме
14:57
is the force as a function of terms.
380
897260
2000
е силата како функција на овие правила.
14:59
And if we look at what we start with,
381
899260
2000
Да го погледнеме графикот, почнува
15:01
a quarter of a Newton there, a number of turns,
382
901260
2000
со четвртина од Њутн, неколку обиди,
15:03
perfect would be that red line.
383
903260
2000
иделното би била оваа црвена линија.
15:05
And what we see in all pairs of subjects is this --
384
905260
3000
Кај сите парови на субјекти го видовме ова,
15:08
a 70 percent escalation in force
385
908260
2000
70 процентно ескалирање на силата
15:10
on each go.
386
910260
2000
во секој наврат.
15:12
So it really suggests, when you're doing this --
387
912260
2000
Ова ни кажува,
15:14
based on this study and others we've done --
388
914260
2000
врз основа на ова истражување и другите,
15:16
that the brain is canceling the sensory consequences
389
916260
2000
дека мозокот ги поништува сетилните последици
15:18
and underestimating the force it's producing.
390
918260
2000
и ја потценува силата што ја создава.
15:20
So it re-shows the brain makes predictions
391
920260
2000
И повторно покажува дека мозокот предвидува
15:22
and fundamentally changes the precepts.
392
922260
3000
и суштински ја менува перцепцијата.
15:25
So we've made inferences, we've done predictions,
393
925260
3000
Донесовме заклучоци, направивме предвидувања,
15:28
now we have to generate actions.
394
928260
2000
сега треба да создадеме движења.
15:30
And what Bayes' rule says is, given my beliefs,
395
930260
2000
Бејзовото правило вели, имајќи ги во предвид верувањата,
15:32
the action should in some sense be optimal.
396
932260
2000
движењата треба да бидат оптимални.
15:34
But we've got a problem.
397
934260
2000
Но, имаме проблем.
15:36
Tasks are symbolic -- I want to drink, I want to dance --
398
936260
3000
Задачите се симболични: Сакам да пијам, сакам да играм,
15:39
but the movement system has to contract 600 muscles
399
939260
2000
а, моторниот систем треба да придвижи 600 мускули
15:41
in a particular sequence.
400
941260
2000
по одреден редослед.
15:43
And there's a big gap
401
943260
2000
Постои голем јаз
15:45
between the task and the movement system.
402
945260
2000
помеѓу задачата и моторниот систем.
15:47
So it could be bridged in infinitely many different ways.
403
947260
2000
Јазот може да биде надминат на многу различни начини.
15:49
So think about just a point to point movement.
404
949260
2000
Размислете за движењето од точка до точка.
15:51
I could choose these two paths
405
951260
2000
Можам да ги изберам овие два патишта
15:53
out of an infinite number of paths.
406
953260
2000
од бесконечниот број на патишта.
15:55
Having chosen a particular path,
407
955260
2000
Откако сум избрал одреден пат,
15:57
I can hold my hand on that path
408
957260
2000
можам да ја држам раката на тој пат
15:59
as infinitely many different joint configurations.
409
959260
2000
во безброј различни свиткувања.
16:01
And I can hold my arm in a particular joint configuration
410
961260
2000
И можам да ја држам раката на одреден начин свиткана
16:03
either very stiff or very relaxed.
411
963260
2000
или многу стегнато или многу опуштено.
16:05
So I have a huge amount of choice to make.
412
965260
3000
Значи имам голем простор за избор.
16:08
Now it turns out, we are extremely stereotypical.
413
968260
3000
Но се покажа, дека сме екстремно стереотипни.
16:11
We all move the same way pretty much.
414
971260
3000
Сите се движиме воглавно на ист начин.
16:14
And so it turns out we're so stereotypical,
415
974260
2000
Излезе дека сме толку многу стеротипни,
16:16
our brains have got dedicated neural circuitry
416
976260
2000
што нашите мозоци имаат нервни мрежи
16:18
to decode this stereotyping.
417
978260
2000
за препознавање на оваа стеротипност.
16:20
So if I take some dots
418
980260
2000
Ако земам неколку точки
16:22
and set them in motion with biological motion,
419
982260
3000
и направам да се движат како живо суштество,
16:25
your brain's circuitry would understand instantly what's going on.
420
985260
3000
овие центри од вашиот мозок веднаш ќе сфатат што се случува.
16:28
Now this is a bunch of dots moving.
421
988260
2000
Ова се еден куп на точки што се движат.
16:30
You will know what this person is doing,
422
990260
3000
Ќе знаете што прави оваа личност,
16:33
whether happy, sad, old, young -- a huge amount of information.
423
993260
3000
дали е среќна, тажна, стара, млада - големо количество на информации.
16:36
If these dots were cars going on a racing circuit,
424
996260
2000
Ако овие точки беа автомобили кои возат тркачки круг,
16:38
you would have absolutely no idea what's going on.
425
998260
3000
воопшто немаше да знаете што се случува.
16:41
So why is it
426
1001260
2000
Зошто тогаш
16:43
that we move the particular ways we do?
427
1003260
2000
се движиме на овие карактеристични начини?
16:45
Well let's think about what really happens.
428
1005260
2000
Да размислиме што всушност се случува.
16:47
Maybe we don't all quite move the same way.
429
1007260
3000
Можеби и не баш сите се движиме на ист начин.
16:50
Maybe there's variation in the population.
430
1010260
2000
Можеби има варијации во популацијата.
16:52
And maybe those who move better than others
431
1012260
2000
И можеби тие што се движат подобро од другите
16:54
have got more chance of getting their children into the next generation.
432
1014260
2000
имаат поголема шанса да остават потомци во следната генерација.
16:56
So in evolutionary scales, movements get better.
433
1016260
3000
Во еволуциски рамки, движењата се подобруваат.
16:59
And perhaps in life, movements get better through learning.
434
1019260
3000
И можеби во животот, движењата се подобруваат преку учење.
17:02
So what is it about a movement which is good or bad?
435
1022260
2000
Кое движење е добро, а кое лошо?
17:04
Imagine I want to intercept this ball.
436
1024260
2000
Замислете дека сакам да ја фатам оваа топка.
17:06
Here are two possible paths to that ball.
437
1026260
3000
Ова се два начина за фаќање на топката.
17:09
Well if I choose the left-hand path,
438
1029260
2000
Ако ја изберам стратегијата од лево,
17:11
I can work out the forces required
439
1031260
2000
ќе можам да пресметам колку сила ми треба
17:13
in one of my muscles as a function of time.
440
1033260
2000
во еден од моите мускули како функција на време.
17:15
But there's noise added to this.
441
1035260
2000
Меѓутоа ќе ја додадеме бучавата.
17:17
So what I actually get, based on this lovely, smooth, desired force,
442
1037260
3000
Она што добиваме, базирано на оваа убава, мазна, посакувана сила,
17:20
is a very noisy version.
443
1040260
2000
е многу бучна верзија.
17:22
So if I pick the same command through many times,
444
1042260
3000
Значи ако ја изберам истата наредба во повеќе наврати,
17:25
I will get a different noisy version each time, because noise changes each time.
445
1045260
3000
секој пат ќе добивам различна верзија, бидејќи бучавата се менува постојано.
17:28
So what I can show you here
446
1048260
2000
Она што можам да ви покажам
17:30
is how the variability of the movement will evolve
447
1050260
2000
е како варијабилноста на движењето ќе се менува
17:32
if I choose that way.
448
1052260
2000
доколку ја изберам таа стратегија.
17:34
If I choose a different way of moving -- on the right for example --
449
1054260
3000
Доколку изберам друга стратегија - од десно на пример,
17:37
then I'll have a different command, different noise,
450
1057260
2000
тогаш ќе имам поинаква наредба, поинаква бучава,
17:39
playing through a noisy system, very complicated.
451
1059260
3000
која се одигрува во бучен многу сложен систем.
17:42
All we can be sure of is the variability will be different.
452
1062260
3000
Единствено сме сигурни дека варијабилноста ќе биде различна.
17:45
If I move in this particular way,
453
1065260
2000
Ако се движам на овој начин,
17:47
I end up with a smaller variability across many movements.
454
1067260
3000
ќе добијам помала варијабилност во движењата.
17:50
So if I have to choose between those two,
455
1070260
2000
Ако треба да бирам помеѓу тие две,
17:52
I would choose the right one because it's less variable.
456
1072260
2000
ќе ја изберам десната бидејќи е помалку варијабилна.
17:54
And the fundamental idea
457
1074260
2000
Основната идеја
17:56
is you want to plan your movements
458
1076260
2000
е дека треба да ги планирате движењата
17:58
so as to minimize the negative consequence of the noise.
459
1078260
3000
како би ги намалиле негативните последици од бучавата.
18:01
And one intuition to get
460
1081260
2000
Треба да запаметите
18:03
is actually the amount of noise or variability I show here
461
1083260
2000
дека големината на бучавата или варијабилноста
18:05
gets bigger as the force gets bigger.
462
1085260
2000
станува поголема со зголемување на силата.
18:07
So you want to avoid big forces as one principle.
463
1087260
3000
Во принцип треба да избегнувате големи сили.
18:10
So we've shown that using this,
464
1090260
2000
Со ова покажавме дека, можеме,
18:12
we can explain a huge amount of data --
465
1092260
2000
да го објасниме огромното количество на податоци,
18:14
that exactly people are going about their lives planning movements
466
1094260
3000
дека луѓето во нивните животи ги планираат движењата
18:17
so as to minimize negative consequences of noise.
467
1097260
3000
со цел да ги намалат негативните последици од бучавата.
18:20
So I hope I've convinced you the brain is there
468
1100260
2000
Се надевам ве убедив дека мозокот служи
18:22
and evolved to control movement.
469
1102260
2000
и еволуирал за да го контролира движењето.
18:24
And it's an intellectual challenge to understand how we do that.
470
1104260
3000
Како го правиме тоа претставува интелектуален предизвик.
18:27
But it's also relevant
471
1107260
2000
Тоа е исто така релевантно
18:29
for disease and rehabilitation.
472
1109260
2000
за болести и рехабилитација.
18:31
There are many diseases which effect movement.
473
1111260
3000
Има многу болести што го засегаат движењето.
18:34
And hopefully if we understand how we control movement,
474
1114260
2000
Се надевам дека ако разбереме како го контролираме движењето,
18:36
we can apply that to robotic technology.
475
1116260
2000
потоа ќе можеме да го примениме во роботиката.
18:38
And finally, I want to remind you,
476
1118260
2000
И на крај, сакам да ве потсетам,
18:40
when you see animals do what look like very simple tasks,
477
1120260
2000
кога ќе видите животни како прават нешто многу едноставно,
18:42
the actual complexity of what is going on inside their brain
478
1122260
2000
имајте на ум дека сложеноста внатре нивниот мозок
18:44
is really quite dramatic.
479
1124260
2000
е прилично драматична.
18:46
Thank you very much.
480
1126260
2000
Ви благодарам многу.
18:48
(Applause)
481
1128260
8000
(Аплауз)
18:56
Chris Anderson: Quick question for you, Dan.
482
1136260
2000
Крис Андерсон: Кратко прашање за тебе, Ден.
18:58
So you're a movement -- (DW: Chauvinist.) -- chauvinist.
483
1138260
4000
Значи ти си шовинист за движењето.
19:02
Does that mean that you think that the other things we think our brains are about --
484
1142260
3000
Дали тоа значи дека другите работи поради кои мислиме дека постојат нашите мозоци,
19:05
the dreaming, the yearning, the falling in love and all these things --
485
1145260
3000
сонувањето, мечтаењето, заљубувањето и сите други нешта,
19:08
are a kind of side show, an accident?
486
1148260
3000
се еден вид нус појава, случајност?
19:11
DW: No, no, actually I think they're all important
487
1151260
2000
ДВ: Не, не. Мислам дека сите тие се многу важни
19:13
to drive the right movement behavior to get reproduction in the end.
488
1153260
3000
и влијаат врз движењето кое има крајна цел, размножување.
19:16
So I think people who study sensation or memory
489
1156260
3000
Мислев на луѓето кои ги проучуваат сетилата или меморијата
19:19
without realizing why you're laying down memories of childhood.
490
1159260
2000
без да сфатат зошто ги зачувуваме сеќавањата од детството.
19:21
The fact that we forget most of our childhood, for example,
491
1161260
3000
Фактот дека го забораваме поголемиот дел од детството, на пример,
19:24
is probably fine, because it doesn't effect our movements later in life.
492
1164260
3000
е веројатно во ред, бидејќи не влијае врз нашите движења подоцна во животот.
19:27
You only need to store things which are really going to effect movement.
493
1167260
3000
Треба да ги зачувате работите кои што навистина ќе влијаат врз движењето.
19:30
CA: So you think that people thinking about the brain, and consciousness generally,
494
1170260
3000
КА: Мислиш ли дека луѓето што го изучуваат мозокот ќе можат да
19:33
could get real insight
495
1173260
2000
добијат вистински увид
19:35
by saying, where does movement play in this game?
496
1175260
2000
доколку се прашаат каде се вклопува движењето во сето тоа?
19:37
DW: So people have found out for example
497
1177260
2000
ДВ: Луѓето увидоа на пример
19:39
that studying vision in the absence of realizing why you have vision
498
1179260
2000
дека доколку ја изучувате визијата, без притоа да сфатите зошто имате визија
19:41
is a mistake.
499
1181260
2000
е погрешно.
19:43
You have to study vision with the realization
500
1183260
2000
Мора да ја изучувате визијата имајќи на ум
19:45
of how the movement system is going to use vision.
501
1185260
2000
како моторниот систем ќе ја користи визијата.
19:47
And it uses it very differently once you think about it that way.
502
1187260
2000
На крај ќе видите дека го користи на многу поинаков начин.
19:49
CA: Well that was quite fascinating. Thank you very much indeed.
503
1189260
3000
КА: Ова беше навистина фасцинатно. Ви благодарам многу.
19:52
(Applause)
504
1192260
2000
(Аплауз)
About this website

Оваа страница ќе ве запознае со видеата на YouTube кои се корисни за учење англиски јазик. Ќе гледате часови по англиски јазик кои ги учат врвни наставници од целиот свет. Кликнете двапати на англиските преводи прикажани на секоја видео страница за да го репродуцирате видеото од таму. Преводите се движат синхронизирано со репродукцијата на видеото. Ако имате какви било коментари или барања, ве молиме контактирајте не користејќи ја оваа контакт форма.

https://forms.gle/WvT1wiN1qDtmnspy7