Daniel Wolpert: The real reason for brains

341,413 views ・ 2011-11-03

TED


A videó lejátszásához kattintson duplán az alábbi angol feliratokra.

Fordító: Orsolya Szemere Lektor: Anna Patai
00:15
I'm a neuroscientist.
0
15260
2000
Neurológus vagyok.
00:17
And in neuroscience,
1
17260
2000
És az idegtudományban nagyon sokféle
00:19
we have to deal with many difficult questions about the brain.
2
19260
3000
kérdéssel kell foglalkozunk az agyat illetően.
00:22
But I want to start with the easiest question
3
22260
2000
Én azonban a legegyszerűbbel szeretném elkezdeni,
00:24
and the question you really should have all asked yourselves at some point in your life,
4
24260
3000
mégpedig azzal, amelyet életünk valamely pontján
00:27
because it's a fundamental question
5
27260
2000
mindannyian felteszünk magunknak,
00:29
if we want to understand brain function.
6
29260
2000
mert annyira alapvető, ha meg akarjuk érteni az agy funkcióját.
00:31
And that is, why do we and other animals
7
31260
2000
A kérdés a következő: miért van az, hogy nekünk
00:33
have brains?
8
33260
2000
és más állatoknak is van agyunk?
00:35
Not all species on our planet have brains,
9
35260
3000
A földön nem minden állatfajnak van agya,
00:38
so if we want to know what the brain is for,
10
38260
2000
úgyhogy ha meg akarjuk tudni, hogy az agy mire való,
00:40
let's think about why we evolved one.
11
40260
2000
gondolkozzunk el azon, hogy miért is fejlesztettük ki!
00:42
Now you may reason that we have one
12
42260
2000
Érvelhetnek azzal, hogy azért fejlesztettük ki,
00:44
to perceive the world or to think,
13
44260
2000
hogy felfogjuk a világot, vagy, hogy gondolkozzunk,
00:46
and that's completely wrong.
14
46260
2000
és ez teljesen téves!
00:48
If you think about this question for any length of time,
15
48260
3000
Akármeddig is gondolkodunk ezen a kérdésen,
00:51
it's blindingly obvious why we have a brain.
16
51260
2000
vakítóan szembetűnő, hogy miért is van agyunk.
00:53
We have a brain for one reason and one reason only,
17
53260
3000
Egy és csakis egy ok miatt van az agyunk:
00:56
and that's to produce adaptable and complex movements.
18
56260
3000
hogy alkalmazkodó és összetett mozgásokat hajthassunk végre.
00:59
There is no other reason to have a brain.
19
59260
2000
Semmi más oka nincs annak, hogy agyunk van.
01:01
Think about it.
20
61260
2000
Gondolják csak végig!
01:03
Movement is the only way you have
21
63260
2000
A mozgás az egyetlen lehetséges mód arra,
01:05
of affecting the world around you.
22
65260
2000
hogy a körülöttünk lévő világra hatással legyünk.
01:07
Now that's not quite true. There's one other way, and that's through sweating.
23
67260
3000
Jó, azért ez nem teljesen igaz, mert van még egy mód: az izzadás.
01:10
But apart from that,
24
70260
2000
De ettől eltekintve
01:12
everything else goes through contractions of muscles.
25
72260
2000
minden az izmok összehúzódása által megy végbe.
01:14
So think about communication --
26
74260
2000
Gondoljanak csak a kommunikációra --
01:16
speech, gestures, writing, sign language --
27
76260
3000
a beszédre, a gesztikulációkra, az írásra, a jelbeszédre --
01:19
they're all mediated through contractions of your muscles.
28
79260
3000
ezeket mind az izmok összehúzódása viszi végbe.
01:22
So it's really important to remember
29
82260
2000
Ezért nagyon fontos fejben tartani azt,
01:24
that sensory, memory and cognitive processes are all important,
30
84260
4000
hogy mind az érzékszervi, mind a memória és a kognitív folyamatok nagyon fontosak ugyan,
01:28
but they're only important
31
88260
2000
de kizárólag avégett, hogy vagy előidézzenek,
01:30
to either drive or suppress future movements.
32
90260
2000
vagy megszüntessenek jövőbeli mozdulatokat.
01:32
There can be no evolutionary advantage
33
92260
2000
Nem származhat evolúciós értelemben előny abból,
01:34
to laying down memories of childhood
34
94260
2000
hogy memórianyomokat őrizgessünk gyermekkorunkból
01:36
or perceiving the color of a rose
35
96260
2000
egy rózsa színéről, amennyiben az nem befolyásolja
01:38
if it doesn't affect the way you're going to move later in life.
36
98260
3000
a mozgásunkat későbbi életünk során.
01:41
Now for those who don't believe this argument,
37
101260
2000
Nos, azok számára, akik nem bíznak az ilyesfajta érvelésben,
01:43
we have trees and grass on our planet without the brain,
38
103260
2000
ott vannak a földünkön élő fák és füvek agy nélkül,
01:45
but the clinching evidence is this animal here --
39
105260
2000
de az összekötőkapocsként szolgáló bizonyíték inkább ez az állat itt --
01:47
the humble sea squirt.
40
107260
2000
a szerény tengeri zsákállat.
01:49
Rudimentary animal, has a nervous system,
41
109260
3000
Kezdetleges állat, van idegrendszere,
01:52
swims around in the ocean in its juvenile life.
42
112260
2000
úszkál körbe az óceánban fiatalkorában.
01:54
And at some point of its life,
43
114260
2000
És élete egy bizonyos pontján
01:56
it implants on a rock.
44
116260
2000
megtelepszik egy sziklán.
01:58
And the first thing it does in implanting on that rock, which it never leaves,
45
118260
3000
És az első dolog, amit ott azon a sziklán tesz,
02:01
is to digest its own brain and nervous system
46
121260
3000
amit többé nem hagy el, hogy felemészti
02:04
for food.
47
124260
2000
saját agyát és idegrendszerét - étel gyanánt.
02:06
So once you don't need to move,
48
126260
2000
Magyarul, amint nem kell többé mozognunk,
02:08
you don't need the luxury of that brain.
49
128260
3000
azt a luxust sem engedhetjük meg többé, hogy agyunk legyen!
02:11
And this animal is often taken
50
131260
2000
És ezt az állatot gyakran idézik analógiaként
02:13
as an analogy to what happens at universities
51
133260
2000
arra, hogy mi történik az egyetemeken,
02:15
when professors get tenure,
52
135260
2000
amikor a professzorokat felveszik állandóra,
02:17
but that's a different subject.
53
137260
2000
no de ez egy másik téma.
02:19
(Applause)
54
139260
2000
(Taps)
02:21
So I am a movement chauvinist.
55
141260
3000
Nos, én magam egy mozgás-soviniszta vagyok.
02:24
I believe movement is the most important function of the brain --
56
144260
2000
Hiszek abban, hogy a mozgás az agy legfontosabb funkciója --
02:26
don't let anyone tell you that it's not true.
57
146260
2000
ne hagyják, hogy bárki azt hajtogassa maguknak, hogy ez nem igaz!
02:28
Now if movement is so important,
58
148260
2000
Nos, ha a mozgás ennyire fontos,
02:30
how well are we doing
59
150260
2000
mennyire vagyunk előre abban,
02:32
understanding how the brain controls movement?
60
152260
2000
amit az agy mozgáskoordinációjáról tudunk?
02:34
And the answer is we're doing extremely poorly; it's a very hard problem.
61
154260
2000
Sajnos a válasz az, hogy igencsak el vagyunk maradva; ez egy nagyon kemény dió.
02:36
But we can look at how well we're doing
62
156260
2000
De megnézhetjük azt, hogy mennyire jól értjük
02:38
by thinking about how well we're doing building machines
63
158260
2000
a módját annak, hogy gépeket építsünk olyasmire,
02:40
which can do what humans can do.
64
160260
2000
amit az emberek is meg tudnak csinálni.
02:42
Think about the game of chess.
65
162260
2000
Gondoljunk csak a sakkjátékra.
02:44
How well are we doing determining what piece to move where?
66
164260
3000
Milyen jól értünk ahhoz, hogy meghatározzuk, mit hova mozdítsunk?
02:47
If you pit Garry Kasparov here, when he's not in jail,
67
167260
3000
Ha ideültetjük Gary Kasparovot, mármint amikor épp nincs börtönben,
02:50
against IBM's Deep Blue,
68
170260
2000
az IBM Deep Blue gépével szembe,
02:52
well the answer is IBM's Deep Blue will occasionally win.
69
172260
3000
akkor a válasz, hogy a Deep Blue csak néha fog nyerni.
02:55
And I think if IBM's Deep Blue played anyone in this room, it would win every time.
70
175260
3000
Ugyanakkor szerintem, ha itt a teremből bármelyikünk ellen játszana a Deep Blue,
02:58
That problem is solved.
71
178260
2000
akkor minden alkalommal nyerne. Kérdés megoldva.
03:00
What about the problem
72
180260
2000
Mi a helyzet a sakkfigura
03:02
of picking up a chess piece,
73
182260
2000
felemelésének kérdésével,
03:04
dexterously manipulating it and putting it back down on the board?
74
184260
3000
ügyesen mozgatva és visszatéve a sakktáblára?
03:07
If you put a five year-old child's dexterity against the best robots of today,
75
187260
3000
Ha egy 5 éves gyerek ügyességét állítjuk szembe a mai legjobb robottal,
03:10
the answer is simple:
76
190260
2000
akkor nagyon egyszerű a válasz:
03:12
the child wins easily.
77
192260
2000
a gyerek könnyedén győz.
03:14
There's no competition at all.
78
194260
2000
Valójában nincs is verseny.
03:16
Now why is that top problem so easy
79
196260
2000
Namost akkor hogy lehet, hogy a fenti kérdés olyan egyszerű,
03:18
and the bottom problem so hard?
80
198260
2000
a lenti pedig olyan nehéz?
03:20
One reason is a very smart five year-old
81
200260
2000
Az egyik válasz az, hogy az ötéves
03:22
could tell you the algorithm for that top problem --
82
202260
2000
meg tudná mondani ennek a kérdésnek az algoritmusát --
03:24
look at all possible moves to the end of the game
83
204260
2000
megvizsgálva az összes lehetséges lépést
03:26
and choose the one that makes you win.
84
206260
2000
a játék végéig, majd kiválasztani a nyerőt.
03:28
So it's a very simple algorithm.
85
208260
2000
Tehát ez egy igen egyszerű algoritmus.
03:30
Now of course there are other moves,
86
210260
2000
Nos persze vannak más mozdulatok is,
03:32
but with vast computers we approximate
87
212260
2000
de ezekkel az óriási computerekkel hozzávetőleges számításokat végzünk,
03:34
and come close to the optimal solution.
88
214260
2000
és úgy kerülünk közelebb az optimális megoldáshoz.
03:36
When it comes to being dexterous,
89
216260
2000
Amikor arról van szó, hogy mennyire ügyes egy mozdulat,
03:38
it's not even clear what the algorithm is you have to solve to be dexterous.
90
218260
2000
még az sem nyilvánvaló, hogy mi az algoritmus, és akkor is
03:40
And we'll see you have to both perceive and act on the world,
91
220260
2000
meg kell oldanod az ügyességet. És látjuk, hogy ilyenkor egyszerre kell
03:42
which has a lot of problems.
92
222260
2000
felfognunk a világot és cselekedni benne, ami egy sor kérdést vet fel.
03:44
But let me show you cutting-edge robotics.
93
224260
2000
De hadd mutassam most be az élvonalbeli robotikát.
03:46
Now a lot of robotics is very impressive,
94
226260
2000
Egy sor robot nagyon lenyűgöző,
03:48
but manipulation robotics is really just in the dark ages.
95
228260
3000
de a manipulációs robotika tényleg a sötét középkorban jár még.
03:51
So this is the end of a Ph.D. project
96
231260
2000
Ez tehát egy Ph.D projekt eredménye,
03:53
from one of the best robotics institutes.
97
233260
2000
az egyik legjobb robotika intézetből.
03:55
And the student has trained this robot
98
235260
2000
A hallgató megtanította a robotját arra,
03:57
to pour this water into a glass.
99
237260
2000
hogy a vizet a pohárba öntse.
03:59
It's a hard problem because the water sloshes about, but it can do it.
100
239260
3000
Nagyon nehéz kérdés, mert a víz kiloccsan, de végül is sikerült.
04:02
But it doesn't do it with anything like the agility of a human.
101
242260
3000
De gyorsasága egyáltalán nem hasonlítható az emberéhez.
04:05
Now if you want this robot to do a different task,
102
245260
3000
Nos, ha azt szeretnénk, hogy ez a robot egy másik feladatot hajtson végre,
04:08
that's another three-year Ph.D. program.
103
248260
3000
az egy újabb 3 éves Ph.D. programba telne!
04:11
There is no generalization at all
104
251260
2000
Egyáltalán nem létezik az egyik feladatról
04:13
from one task to another in robotics.
105
253260
2000
a másikra átvihető általánosítás a robotikában!
04:15
Now we can compare this
106
255260
2000
Összehasonlíthatjuk ezt
04:17
to cutting-edge human performance.
107
257260
2000
az élvonalbeli emberi teljesítménnyel.
04:19
So what I'm going to show you is Emily Fox
108
259260
2000
Bemutatom most Önöknek Emily Fox-ot,
04:21
winning the world record for cup stacking.
109
261260
3000
amint éppen felállítja a pohár egymásra halmozás világrekordját.
04:24
Now the Americans in the audience will know all about cup stacking.
110
264260
2000
Az amerikaiak a közönségben mind ismerni fogják
04:26
It's a high school sport
111
266260
2000
a pohártoronyépítést. Ez egy gimnáziumi sport,
04:28
where you have 12 cups you have to stack and unstack
112
268260
2000
ahol is 12 poharat kell egymásra halmozni, majd leszedni
04:30
against the clock in a prescribed order.
113
270260
2000
meghatározott sorrendben, miközben mérik az időt.
04:32
And this is her getting the world record in real time.
114
272260
3000
Ez itt ő, amint felállítja a világrekordot valós időben.
04:39
(Laughter)
115
279260
8000
(Nevetés)
04:47
(Applause)
116
287260
5000
(Taps)
04:52
And she's pretty happy.
117
292260
2000
És milyen boldog!
04:54
We have no idea what is going on inside her brain when she does that,
118
294260
2000
Fogalmunk sincs, mi zajlik az agyában,
04:56
and that's what we'd like to know.
119
296260
2000
miközben végrehajtja, márpedig épp ezt szeretnénk megtudni!
04:58
So in my group, what we try to do
120
298260
2000
Nos a csoportomban mi próbáljuk visszafejteni
05:00
is reverse engineer how humans control movement.
121
300260
3000
azt, ahogy az ember a mozgását irányítja.
05:03
And it sounds like an easy problem.
122
303260
2000
Könnyű feladatnak tűnhet.
05:05
You send a command down, it causes muscles to contract.
123
305260
2000
Leküldünk egy parancsot, az végrehajtja az izomösszehúzódást.
05:07
Your arm or body moves,
124
307260
2000
A karunk, vagy a testünk mozog,
05:09
and you get sensory feedback from vision, from skin, from muscles and so on.
125
309260
3000
és érzékszervi visszajelzést kapunk a látás, a bőrünk, az izmok stb. segítségével.
05:12
The trouble is
126
312260
2000
A baj az, hogy ezek a jelek nem olyan szépek,
05:14
these signals are not the beautiful signals you want them to be.
127
314260
2000
mint amilyennek szeretnénk őket.
05:16
So one thing that makes controlling movement difficult
128
316260
2000
Az egyik, ami megnehezíti a mozgás irányítását,
05:18
is, for example, sensory feedback is extremely noisy.
129
318260
3000
például az, hogy az érzékszervek visszajelzése
05:21
Now by noise, I do not mean sound.
130
321260
3000
igen "zajos". Itt "zaj" alatt nem a hangot értem.
05:24
We use it in the engineering and neuroscience sense
131
324260
2000
Mérnöki és neurológiai értelemben használjuk,
05:26
meaning a random noise corrupting a signal.
132
326260
2000
amikor egy véletlenszerű zaj megzavarja a jelet.
05:28
So the old days before digital radio when you were tuning in your radio
133
328260
3000
A digitális rádió előtti időkben, amikor rádióhangoláskor
05:31
and you heard "crrcckkk" on the station you wanted to hear,
134
331260
2000
azt a "hrrrhrr"-t hallottuk az adón,
05:33
that was the noise.
135
333260
2000
amit fogni akartunk, na az a zaj.
05:35
But more generally, this noise is something that corrupts the signal.
136
335260
3000
De általánosabb értelemben ez a zaj valami olyan, ami lerontja a jelet.
05:38
So for example, if you put your hand under a table
137
338260
2000
Például, ha a kezünket az asztal alá tesszük,
05:40
and try to localize it with your other hand,
138
340260
2000
hogy megpróbáljuk beazonosítani a másik ujjunk helyét,
05:42
you can be off by several centimeters
139
342260
2000
akkor bizony néha több centit is tévedhetünk,
05:44
due to the noise in sensory feedback.
140
344260
2000
az érzékszervi zajoknak köszönhetően!
05:46
Similarly, when you put motor output on movement output,
141
346260
2000
Ugyanígy, amikor a motorteljesítményt
05:48
it's extremely noisy.
142
348260
2000
a mozgáshoz hasonlítjuk, az nagyon zajos.
05:50
Forget about trying to hit the bull's eye in darts,
143
350260
2000
Ne is akarjunk a darts táblán telibe találni,
05:52
just aim for the same spot over and over again.
144
352260
2000
csak célozzunk ugyanoda újra és újra.
05:54
You have a huge spread due to movement variability.
145
354260
3000
Óriási terjedelemben választhatunk a mozgásvariációkból.
05:57
And more than that, the outside world, or task,
146
357260
2000
Sőt ennél több is van itt, a külvilág,
05:59
is both ambiguous and variable.
147
359260
2000
vagy feladat is többértelmű és változó.
06:01
The teapot could be full, it could be empty.
148
361260
2000
A csésze lehet tele is, vagy üres is.
06:03
It changes over time.
149
363260
2000
Időről időre változik.
06:05
So we work in a whole sensory movement task soup of noise.
150
365260
4000
Tehát a zaj egész érzékszervi mozgás feladat kavalkádjában tevékenykedünk.
06:09
Now this noise is so great
151
369260
2000
Nos ez a zaj akkora,
06:11
that society places a huge premium
152
371260
2000
hogy a társadalom óriási jutalmat tűz ki nekünk,
06:13
on those of us who can reduce the consequences of noise.
153
373260
3000
ha a zaj következményeit le tudjuk csökkenteni.
06:16
So if you're lucky enough to be able to knock a small white ball
154
376260
3000
Tehát, ha vagyunk oly szerencsések, hogy képesek vagyunk egy kis fehér labdával
06:19
into a hole several hundred yards away using a long metal stick,
155
379260
3000
betalálni egy több száz méterre lévő lyukba egy hosszú fém bot segítségével,
06:22
our society will be willing to reward you
156
382260
2000
akkor a társadalmunk ezért hajlandó
06:24
with hundreds of millions of dollars.
157
384260
3000
többszáz millió dollár jutalmat fizetni!
06:27
Now what I want to convince you of
158
387260
2000
Nos, én arról akarom Önöket meggyőzni,
06:29
is the brain also goes through a lot of effort
159
389260
2000
hogy az agynak is nagyon sok erőfeszítésébe kerül,
06:31
to reduce the negative consequences
160
391260
2000
hogy lecsökkentse az ilyesfajta zajok
06:33
of this sort of noise and variability.
161
393260
2000
és szórások negatív következményeit.
06:35
And to do that, I'm going to tell you about a framework
162
395260
2000
És ehhez megismertetek Önökkel egy összefüggést,
06:37
which is very popular in statistics and machine learning of the last 50 years
163
397260
3000
ami a statisztikában és gépi tanulásban nagyon népszerű lett az elmúlt 50 évben:
06:40
called Bayesian decision theory.
164
400260
2000
ez a Bayes-féle „okok valószínűségének" tétele.
06:42
And it's more recently a unifying way
165
402260
3000
Ez újabban egy egységesítő módszer arra,
06:45
to think about how the brain deals with uncertainty.
166
405260
3000
amikor azon elmélkedünk, hogy az agy hogyan kezeli a bizonytalanságot.
06:48
And the fundamental idea is you want to make inferences and then take actions.
167
408260
3000
Az alapelmélet az, hogy következtetéseket akarunk levonni, és aztán cselekedni.
06:51
So let's think about the inference.
168
411260
2000
Vegyük akkor a következtetéseket.
06:53
You want to generate beliefs about the world.
169
413260
2000
Hiedelmeket akarsz alkotni a világgal kapcsolatban.
06:55
So what are beliefs?
170
415260
2000
Mik is a hiedelmek?
06:57
Beliefs could be: where are my arms in space?
171
417260
2000
Ilyenek lehetnek: hol is helyezkednek el a karjaim a térben?
06:59
Am I looking at a cat or a fox?
172
419260
2000
Macska, vagy kutya ez, amit látok?
07:01
But we're going to represent beliefs with probabilities.
173
421260
3000
Mi azonban valószínűségekkel fogjuk a hiteinket ábrázolni.
07:04
So we're going to represent a belief
174
424260
2000
Tehát a hiedelmeket egy 0 és 1 közti számmal
07:06
with a number between zero and one --
175
426260
2000
fogjuk ábrázolni -- ahol a 0 azt jelenti, hogy egyáltalán nem
07:08
zero meaning I don't believe it at all, one means I'm absolutely certain.
176
428260
3000
hiszek benne, az egy azt jelenti, hogy teljesen bizonyos vagyok.
07:11
And numbers in between give you the gray levels of uncertainty.
177
431260
3000
A köztes számok pedig a bizonytalanság szürkeárnyalatait mutatják.
07:14
And the key idea to Bayesian inference
178
434260
2000
A Bayes-féle dedukció alapötlete az,
07:16
is you have two sources of information
179
436260
2000
hogy 2 információforrással rendelkezünk,
07:18
from which to make your inference.
180
438260
2000
amiből levonhatjuk a következtetést.
07:20
You have data,
181
440260
2000
Van adatunk, és az idegtudományban
07:22
and data in neuroscience is sensory input.
182
442260
2000
az adat az érzékszervi észlelés.
07:24
So I have sensory input, which I can take in to make beliefs.
183
444260
3000
Tehát érzékelek valamit az érzékszerveimmel, amit felhasználhatok hiedelemalkotásra.
07:27
But there's another source of information, and that's effectively prior knowledge.
184
447260
3000
De van más információforrásom is, ami egyértelműen
07:30
You accumulate knowledge throughout your life in memories.
185
450260
3000
előrébb van a tudásnál. Ugyanis a tudást az emlékek segítségével
07:33
And the point about Bayesian decision theory
186
453260
2000
halmozzuk fel életünk során. És a Bayes-féle döntéselmélet lényege az,
07:35
is it gives you the mathematics
187
455260
2000
hogy megadja az optimális mód matekját,
07:37
of the optimal way to combine
188
457260
2000
amit ötvözni lehet az azt megelőző
07:39
your prior knowledge with your sensory evidence
189
459260
2000
érzéki észlelés által szerzett tapasztalatainkkal
07:41
to generate new beliefs.
190
461260
2000
új hitek kifejlesztése érdekében.
07:43
And I've put the formula up there.
191
463260
2000
Felírtam ide a képletet.
07:45
I'm not going to explain what that formula is, but it's very beautiful.
192
465260
2000
Nem fogom elmagyarázni, mi ez a képlet, de nagyon szép.
07:47
And it has real beauty and real explanatory power.
193
467260
3000
Valódi szépség és valódi magyarázat rejlik benne.
07:50
And what it really says, and what you want to estimate,
194
470260
2000
És ami a lényege, s amit meg is tippelhetünk,
07:52
is the probability of different beliefs
195
472260
2000
az az érzéki észlelésünk következtében
07:54
given your sensory input.
196
474260
2000
keletkező különböző hiedelmek valószínűsége.
07:56
So let me give you an intuitive example.
197
476260
2000
Hadd hozzak fel egy intuitív példát.
07:58
Imagine you're learning to play tennis
198
478260
3000
Képzeljük el, hogy teniszezni tanulunk,
08:01
and you want to decide where the ball is going to bounce
199
481260
2000
és azt szeretnénk kiszámítani, hogy a labda hol fog lepattanni,
08:03
as it comes over the net towards you.
200
483260
2000
amint közeledik felénk a háló felett.
08:05
There are two sources of information
201
485260
2000
Két információforrásunk van ehhez,
08:07
Bayes' rule tells you.
202
487260
2000
a Bayes-féle törvény szerint.
08:09
There's sensory evidence -- you can use visual information auditory information,
203
489260
3000
Van az érzékszervi észlelés -- használhatjuk a vizuális és a hallott információkat
08:12
and that might tell you it's going to land in that red spot.
204
492260
3000
és ezek szerint arra juthatunk, hogy azon a piros folton fog földet érni.
08:15
But you know that your senses are not perfect,
205
495260
3000
Tudjuk azonban, hogy az érzékszerveink nem tökéletesek,
08:18
and therefore there's some variability of where it's going to land
206
498260
2000
ezért némileg tágabb eshetőséget adunk
08:20
shown by that cloud of red,
207
500260
2000
a földet érésre, amit ez a piros felhő mutat,
08:22
representing numbers between 0.5 and maybe 0.1.
208
502260
3000
és a 0,5 és 0,1 közti számokat jelzi.
08:26
That information is available in the current shot,
209
506260
2000
Ez az információ ezen a képen jelenik meg,
08:28
but there's another source of information
210
508260
2000
van azonban még egy információforrás,
08:30
not available on the current shot,
211
510260
2000
ami nem látható ezen a képen,
08:32
but only available by repeated experience in the game of tennis,
212
512260
3000
hanem csak a teniszezés ismételt megtapasztalása által ismerhető fel,
08:35
and that's that the ball doesn't bounce
213
515260
2000
hogy a labda egyáltalán nem egyenlő valószínűséggel
08:37
with equal probability over the court during the match.
214
517260
2000
pattan a térfelekre a szett során.
08:39
If you're playing against a very good opponent,
215
519260
2000
Ha nagyon jó ellenféllel játszunk,
08:41
they may distribute it in that green area,
216
521260
2000
akkor ütheti a zöld területre is,
08:43
which is the prior distribution,
217
523260
2000
ami a fő szerva célpont,
08:45
making it hard for you to return.
218
525260
2000
mert azt nehéz visszaadni.
08:47
Now both these sources of information carry important information.
219
527260
2000
Szóval mindkét információforrás hordoz fontos információkat.
08:49
And what Bayes' rule says
220
529260
2000
És a Bayes-féle szabály azt sugallja,
08:51
is that I should multiply the numbers on the red by the numbers on the green
221
531260
3000
hogy meg kéne szoroznom a piroson lévő számokat a zöldön lévő számokkal,
08:54
to get the numbers of the yellow, which have the ellipses,
222
534260
3000
hogy megkapjuk a sárgán lévőket, ahol az ellipszisek vannak,
08:57
and that's my belief.
223
537260
2000
és az lesz a hiedelmem.
08:59
So it's the optimal way of combining information.
224
539260
3000
Tehát ez az információk optimális összegzése.
09:02
Now I wouldn't tell you all this if it wasn't that a few years ago,
225
542260
2000
Nem mesélném el mindezt, ha nem néhány éve történt volna,
09:04
we showed this is exactly what people do
226
544260
2000
hogy megmutattuk, hogy éppen ezt teszik az emberek,
09:06
when they learn new movement skills.
227
546260
2000
amikor új mozgáskoordinációt tanulnak.
09:08
And what it means
228
548260
2000
Ez pedig azt jelenti,
09:10
is we really are Bayesian inference machines.
229
550260
2000
hogy tényleg Bayes-féle következtető gépezetek vagyunk!
09:12
As we go around, we learn about statistics of the world and lay that down,
230
552260
4000
Ahogy körbenézünk, megfigyeljük a világ statisztikáit, és megfogalmazzuk őket,
09:16
but we also learn
231
556260
2000
de tudomást szerzünk közben
09:18
about how noisy our own sensory apparatus is,
232
558260
2000
saját érzékszervi aparátusunk zajosságáról is,
09:20
and then combine those
233
560260
2000
majd összevetjük azokat
09:22
in a real Bayesian way.
234
562260
2000
valódi Bayes-féle módon.
09:24
Now a key part to the Bayesian is this part of the formula.
235
564260
3000
Nos a képletnek ez a része a Bayes-féle elmélet kulcsgondolatául szolgál.
09:27
And what this part really says
236
567260
2000
És valójában arról szól,
09:29
is I have to predict the probability
237
569260
2000
hogy meg kell jósolnom a különböző
09:31
of different sensory feedbacks
238
571260
2000
érzékszervi jelzések valószínűségét
09:33
given my beliefs.
239
573260
2000
a hiedelmeim alapján.
09:35
So that really means I have to make predictions of the future.
240
575260
3000
Ez ténylegesen azt jelenti, hogy jósolnom kell a jövőre vonatkozólag.
09:38
And I want to convince you the brain does make predictions
241
578260
2000
És szeretném Önöket arról meggyőzni, hogy az agy bizony végez jóslatokat
09:40
of the sensory feedback it's going to get.
242
580260
2000
az érzékszervi jelzésekre vonatkozólag, amik be fognak érkezni.
09:42
And moreover, it profoundly changes your perceptions
243
582260
2000
Sőt, alapvetően megváltoztatja az észlelésünket
09:44
by what you do.
244
584260
2000
azáltal, amit teszünk.
09:46
And to do that, I'll tell you
245
586260
2000
És hogy ez bekövetkezzen, elmondom most Önöknek,
09:48
about how the brain deals with sensory input.
246
588260
2000
hogyan kezeli az agy az érzékszervi észleléseket.
09:50
So you send a command out,
247
590260
3000
Kiküldünk egy parancsot,
09:53
you get sensory feedback back,
248
593260
2000
kapunk egy érzékszervi észlelést visszafele,
09:55
and that transformation is governed
249
595260
2000
és ezt az átalakulást a testünk fizikája
09:57
by the physics of your body and your sensory apparatus.
250
597260
3000
valamint az érzékszervi berendezésünk irányítja.
10:00
But you can imagine looking inside the brain.
251
600260
2000
De elképzelhetjük azt is, hogy bekukkantunk az agyba.
10:02
And here's inside the brain.
252
602260
2000
Itt van az agy belülről.
10:04
You might have a little predictor, a neural simulator,
253
604260
2000
Lehet, hogy van egy kis jelzőkénk, egy idegi szimulátorunk,
10:06
of the physics of your body and your senses.
254
606260
2000
amely a testünk fizikai állapotáról és az érzékszervekről ad jelzést.
10:08
So as you send a movement command down,
255
608260
2000
Tehát amint kiküldünk egy mozgásparancsot lefelé,
10:10
you tap a copy of that off
256
610260
2000
annak egy másolatát kijelöljük,
10:12
and run it into your neural simulator
257
612260
2000
és bevezetjük az idegi szimulátorunkba,
10:14
to anticipate the sensory consequences of your actions.
258
614260
4000
hogy felfogja a tetteink érzékszervi következményeit.
10:18
So as I shake this ketchup bottle,
259
618260
2000
Tehát ahogy ezt a kecsapos üveget rázom,
10:20
I get some true sensory feedback as the function of time in the bottom row.
260
620260
3000
Kapok némi valódi érzékszervi visszajelzést az alsó sor időbeli függvényeként.
10:23
And if I've got a good predictor, it predicts the same thing.
261
623260
3000
És ha jó jelzőkém van, az ugyanazt jósolja meg előre.
10:26
Well why would I bother doing that?
262
626260
2000
Nos, hogy minek törődöm ilyesmivel?
10:28
I'm going to get the same feedback anyway.
263
628260
2000
Megkapom ugyanazt a visszajelzést úgyis!
10:30
Well there's good reasons.
264
630260
2000
Nos, vannak jó okok erre.
10:32
Imagine, as I shake the ketchup bottle,
265
632260
2000
Képzeljék csak el, hogy rázom a kecsapos üveget,
10:34
someone very kindly comes up to me and taps it on the back for me.
266
634260
3000
és valaki nagyon gyengéden megközelít és megérinti hátulról nekem.
10:37
Now I get an extra source of sensory information
267
637260
2000
Akkor egy plussz érzékszervi információt szereztem be
10:39
due to that external act.
268
639260
2000
a külső történés következtében.
10:41
So I get two sources.
269
641260
2000
Így 2 forrásom volt.
10:43
I get you tapping on it, and I get me shaking it,
270
643260
3000
Veled is megfogattam, és én magam is ráztam,
10:46
but from my senses' point of view,
271
646260
2000
de a saját érzékszerveim szemszögéből nézve
10:48
that is combined together into one source of information.
272
648260
3000
ez összefolyik egy információforrássá.
10:51
Now there's good reason to believe
273
651260
2000
Namost jó okom van azt hinni, hogy valószínűleg meg akarják majd
10:53
that you would want to be able to distinguish external events from internal events.
274
653260
3000
különböztetni a külső eseményeket és a belsőket.
10:56
Because external events are actually much more behaviorally relevant
275
656260
3000
Mivel a külső események sokkal valószínűben függenek a viselkedéstől,
10:59
than feeling everything that's going on inside my body.
276
659260
3000
mint amit belül érzünk, hogy történik a testünkben.
11:02
So one way to reconstruct that
277
662260
2000
Tehát az egyik mód ennek létrehozására az,
11:04
is to compare the prediction --
278
664260
2000
hogy összehasonlítjuk a kizárólag
11:06
which is only based on your movement commands --
279
666260
2000
az Önök mozgásparancsaira épülő
11:08
with the reality.
280
668260
2000
előrejelzéseket a valósággal.
11:10
Any discrepancy should hopefully be external.
281
670260
3000
És akkor minden eltérés remélhetőleg kívülről fog érkezni.
11:13
So as I go around the world,
282
673260
2000
Tehát miközben megyek körben a világban,
11:15
I'm making predictions of what I should get, subtracting them off.
283
675260
3000
jóslásokat végzek arról, amit valószínűleg tapasztalok majd, levonva őket,
11:18
Everything left over is external to me.
284
678260
2000
minden, ami megmarad, az számomra külsődleges.
11:20
What evidence is there for this?
285
680260
2000
Mi a bizonyíték erre?
11:22
Well there's one very clear example
286
682260
2000
Nos, van egy nagyon világos példa
11:24
where a sensation generated by myself feels very different
287
684260
2000
ahol az általam generált érzékelés nagyon más érzés,
11:26
then if generated by another person.
288
686260
2000
mint ha azt egy másik ember váltotta volna ki.
11:28
And so we decided the most obvious place to start
289
688260
2000
Így a legnyilvánvalóbb helyet választottuk kezdésképpen,
11:30
was with tickling.
290
690260
2000
mégpedig a csiklandozást.
11:32
It's been known for a long time, you can't tickle yourself
291
692260
2000
Nagyon régóta ismeretes, hogy magunkat nem tudjuk megcsikizni,
11:34
as well as other people can.
292
694260
2000
míg mások viszont meg tudnak.
11:36
But it hasn't really been shown, it's because you have a neural simulator,
293
696260
3000
De azt nem igazán mutatta ki senki, hogy ez amiatt van,
11:39
simulating your own body
294
699260
2000
hogy létezik egy idegi szimulátor, ami az egész testünket szimulálja,
11:41
and subtracting off that sense.
295
701260
2000
és levonja ezeket az érzékeléseket!
11:43
So we can bring the experiments of the 21st century
296
703260
3000
Így aztán vehetjük a 21. századi kísérleteket,
11:46
by applying robotic technologies to this problem.
297
706260
3000
alkalmazva a robottechnológiát erre a kérdésre.
11:49
And in effect, what we have is some sort of stick in one hand attached to a robot,
298
709260
3000
És láthatjuk, hogy az egyik kezünkben egy botféleség van, ami egy robothoz kapcsolódik,
11:52
and they're going to move that back and forward.
299
712260
2000
és ezek fogják mozgatni a botot előre és hátra.
11:54
And then we're going to track that with a computer
300
714260
2000
Ezt pedig lekövetjük számítógéppel,
11:56
and use it to control another robot,
301
716260
2000
és arra használjuk, hogy egy másik robotot irányítsunk vele,
11:58
which is going to tickle their palm with another stick.
302
718260
2000
ami egy másik bottal fogja csikizni a kezünket.
12:00
And then we're going to ask them to rate a bunch of things
303
720260
2000
Aztán egy csomó kérdést fogunk feltenni nekik,
12:02
including ticklishness.
304
722260
2000
köztük a csikisségre vonatkozót.
12:04
I'll show you just one part of our study.
305
724260
2000
A kutatásunk egyik részét mutatom most csak be.
12:06
And here I've taken away the robots,
306
726260
2000
Itt elvettem a robotokat,
12:08
but basically people move with their right arm sinusoidally back and forward.
307
728260
3000
de alapvetően az ember mozgatja itt a jobb kezét szinuszosan oda és vissza.
12:11
And we replay that to the other hand with a time delay.
308
731260
3000
Megismételjük ezt a másik kézzel is egy kis időbeli eltéréssel.
12:14
Either no time delay,
309
734260
2000
Vagy egyáltalán nincs időbeli elcsúszás,
12:16
in which case light would just tickle your palm,
310
736260
2000
amikor csak kissé lesz csiklandós a kezünk,
12:18
or with a time delay of two-tenths of three-tenths of a second.
311
738260
4000
vagy pedig 2-3 tized másodperc eltéréssel.
12:22
So the important point here
312
742260
2000
A fontos itt az lesz,
12:24
is the right hand always does the same things -- sinusoidal movement.
313
744260
3000
hogy a jobb kéz mindig ugyanazt csinálja -- a szinuszos mozgást.
12:27
The left hand always is the same and puts sinusoidal tickle.
314
747260
3000
A bal kéz pedig szintén mindig ugyanazt teszi, szinuszos csiklandozást végez.
12:30
All we're playing with is a tempo causality.
315
750260
2000
Mindössze az időbeli elcsúszással játszunk.
12:32
And as we go from naught to 0.1 second,
316
752260
2000
És ahogy haladunk a zérótól az 1 tized másodperc felé,
12:34
it becomes more ticklish.
317
754260
2000
egyre csiklandósabbá válik.
12:36
As you go from 0.1 to 0.2,
318
756260
2000
Ahogy haladunk az 1 tizedtől a 2 tized felé,
12:38
it becomes more ticklish at the end.
319
758260
2000
egyre csiklandósabbá válik.
12:40
And by 0.2 of a second,
320
760260
2000
És mire elérjük a mp 2 tizedét,
12:42
it's equivalently ticklish
321
762260
2000
ugyanannyira lesz csiklandós
12:44
to the robot that just tickled you without you doing anything.
322
764260
2000
a robot csikizésére, anélkül, hogy mi bármit tettünk volna.
12:46
So whatever is responsible for this cancellation
323
766260
2000
Tehát legyen bármi is felelős ezért a "törlésért",
12:48
is extremely tightly coupled with tempo causality.
324
768260
3000
nagyon szoros összefüggésben van az időbeliséggel.
12:51
And based on this illustration, we really convinced ourselves in the field
325
771260
3000
És ezen illusztráció alapján, tényleg komoly meggyőződésünkké vált az,
12:54
that the brain's making precise predictions
326
774260
2000
hogy az agy nagyon precíz előrejelzéseket végez
12:56
and subtracting them off from the sensations.
327
776260
3000
és levonja azokat az érzékelésekből.
12:59
Now I have to admit, these are the worst studies my lab has ever run.
328
779260
3000
Be kell azonban vallanom, hogy ezek a legszörnyebb kísérletek, amiket a laboromban
13:02
Because the tickle sensation on the palm comes and goes,
329
782260
2000
valaha is végeztünk. Mert a tenyér csiklandóssága jön és megy,
13:04
you need large numbers of subjects
330
784260
2000
egy csomó tárgy kell ahhoz,
13:06
with these stars making them significant.
331
786260
2000
hogy ezekkel a csillagokkal érzékelhetővé tegyük őket.
13:08
So we were looking for a much more objective way
332
788260
2000
Ezért aztán egy jóval objektívabb módot kutattunk,
13:10
to assess this phenomena.
333
790260
2000
ennek a jelenségnek a megközelítésére.
13:12
And in the intervening years I had two daughters.
334
792260
2000
Az évek során közben született két lányom.
13:14
And one thing you notice about children in backseats of cars on long journeys,
335
794260
3000
És az egyik, amit megfigyelhetünk a kocsi hátsó ülésén ülő gyerekeknél
13:17
they get into fights --
336
797260
2000
a hosszú utak során, hogy összevesznek --
13:19
which started with one of them doing something to the other, the other retaliating.
337
799260
3000
ami rendszerint azzal kezdődik, hogy az egyik bosszantja a másikat, a másik pedig visszavág.
13:22
It quickly escalates.
338
802260
2000
Gyorsan felpörög ez.
13:24
And children tend to get into fights which escalate in terms of force.
339
804260
3000
És a gyerekek gyakran bonyolódnak olyan vitákba, ami egyre csak erősödik.
13:27
Now when I screamed at my children to stop,
340
807260
2000
Namost, amikor rákiáltok a gyerekeimre, hogy hagyják már abba,
13:29
sometimes they would both say to me
341
809260
2000
néha egyszerre mondták nekem azt,
13:31
the other person hit them harder.
342
811260
3000
hogy a másik erősebben ütött.
13:34
Now I happen to know my children don't lie,
343
814260
2000
Történetesen tudom, hogy a gyerekeim nem hazudnak,
13:36
so I thought, as a neuroscientist,
344
816260
2000
ezért idegtudósként arra gondoltam,
13:38
it was important how I could explain
345
818260
2000
hogy fontos lehet, hogy meg tudjam magyarázni,
13:40
how they were telling inconsistent truths.
346
820260
2000
hogy lehet az, hogy egymásnak ellentmondó igazságokat állítanak.
13:42
And we hypothesize based on the tickling study
347
822260
2000
Ezért a csikis kutatásunkat alapul véve feltettük,
13:44
that when one child hits another,
348
824260
2000
hogy amikor egy gyerek megüt egy másikat,
13:46
they generate the movement command.
349
826260
2000
azzal mozgásparancsot váltanak ki.
13:48
They predict the sensory consequences and subtract it off.
350
828260
3000
Előrejelzik az érzékszervi következményt és levonják.
13:51
So they actually think they've hit the person less hard than they have --
351
831260
2000
Emiatt aztán úgy érzik, hogy kevésbé erősen ütötték meg a másikat,
13:53
rather like the tickling.
352
833260
2000
mint a másik őket -- épp ahogy a csikizésnél.
13:55
Whereas the passive recipient
353
835260
2000
Ahol a passzív 'befogadó'
13:57
doesn't make the prediction, feels the full blow.
354
837260
2000
viszont nem végzi el az előrejelzést, így teljességgel érzékeli a csapást.
13:59
So if they retaliate with the same force,
355
839260
2000
Amikor egyforma erővel vágnak vissza,
14:01
the first person will think it's been escalated.
356
841260
2000
az első azt érzékeli, hogy erősödött az ütés.
14:03
So we decided to test this in the lab.
357
843260
2000
Úgy döntöttünk, hogy leteszteljük ezt laborban is.
14:05
(Laughter)
358
845260
3000
(Nevetés)
14:08
Now we don't work with children, we don't work with hitting,
359
848260
2000
Nem dolgozunk gyerekekkel, és ütlegeléssel sem,
14:10
but the concept is identical.
360
850260
2000
de a koncepció ugyanez.
14:12
We bring in two adults. We tell them they're going to play a game.
361
852260
3000
Két felnőttet vettünk. Azt mondtuk nekik, hogy egy játékban vesznek részt.
14:15
And so here's player one and player two sitting opposite to each other.
362
855260
2000
Itt ül egymással szemben az egyes és a kettes számú játékos.
14:17
And the game is very simple.
363
857260
2000
A játék nagyon egyszerű.
14:19
We started with a motor
364
859260
2000
Egy motorral kezdtünk,
14:21
with a little lever, a little force transfuser.
365
861260
2000
egy kis erőátvivő fogantyúval.
14:23
And we use this motor to apply force down to player one's fingers
366
863260
2000
Arra használjuk ezt a motort, hogy az egyes számú játékos ujjaira fejtsen ki nyomást,
14:25
for three seconds and then it stops.
367
865260
3000
3 mp-ig, aztán abbahagyja.
14:28
And that player's been told, remember the experience of that force
368
868260
3000
Annak a játékosnak azt mondtuk, hogy jegyezze meg azt a nyomás-élményt,
14:31
and use your other finger
369
871260
2000
és használja a másik ujját
14:33
to apply the same force
370
873260
2000
arra, hogy ugyanakkora nyomást fejtsen ki
14:35
down to the other subject's finger through a force transfuser -- and they do that.
371
875260
3000
a másik alany ujjára egy erőátvivő karon keresztül -- és így is tettek.
14:38
And player two's been told, remember the experience of that force.
372
878260
3000
A kettes számú játékosnak azt mondtuk, hogy jegyezze meg azt az erőt.
14:41
Use your other hand to apply the force back down.
373
881260
3000
A másik kezével pedig fejtsen ki ugyanakkora nyomást a másikra.
14:44
And so they take it in turns
374
884260
2000
Így váltogatják egymást
14:46
to apply the force they've just experienced back and forward.
375
886260
2000
egymás kezére gyakorolva a nyomást, oda-vissza.
14:48
But critically,
376
888260
2000
A fontos itt az,
14:50
they're briefed about the rules of the game in separate rooms.
377
890260
3000
hogy különböző szobában kaptak instrukciókat a szabályokra vonatkozóan.
14:53
So they don't know the rules the other person's playing by.
378
893260
2000
Nem ismerték tehát a szabályokat, ami szerint a társuk játszott.
14:55
And what we've measured
379
895260
2000
Az lett a mérés eredménye,
14:57
is the force as a function of terms.
380
897260
2000
hogy az erőkifejtés az egymásután következéstől függött.
14:59
And if we look at what we start with,
381
899260
2000
Ha megnézzük, hogy mivel indultunk,
15:01
a quarter of a Newton there, a number of turns,
382
901260
2000
egy negyed Newtonnal, akkor egy jópár forduló után,
15:03
perfect would be that red line.
383
903260
2000
az a piros vonal lenne a megfelelő.
15:05
And what we see in all pairs of subjects is this --
384
905260
3000
Ám a következő történt minden vizsgált párnál:
15:08
a 70 percent escalation in force
385
908260
2000
minden fordulónál 70 %-kal
15:10
on each go.
386
910260
2000
nőtt az erőkifejtés.
15:12
So it really suggests, when you're doing this --
387
912260
2000
Ebből tényleg az látszik következni, hogy ha ilyet csinálunk,
15:14
based on this study and others we've done --
388
914260
2000
-- ennek, és más ilyen kísérleteknek az alapján --
15:16
that the brain is canceling the sensory consequences
389
916260
2000
hogy az agy kitörli az érzékszervi következtetéseket,
15:18
and underestimating the force it's producing.
390
918260
2000
és alábecsüli az általa kifejtendő erőt.
15:20
So it re-shows the brain makes predictions
391
920260
2000
Ez megint csak azt mutatja, hogy az agy végez jóslásokat,
15:22
and fundamentally changes the precepts.
392
922260
3000
és alapjában megváltoztatja az érzékelést.
15:25
So we've made inferences, we've done predictions,
393
925260
3000
Vontunk le következtetéseket, végeztünk előrejelzéseket,
15:28
now we have to generate actions.
394
928260
2000
most akkor cselekvést kell kiváltanunk.
15:30
And what Bayes' rule says is, given my beliefs,
395
930260
2000
És a Bayes feltevés szerint, hitem szerint,
15:32
the action should in some sense be optimal.
396
932260
2000
a cselekedet valahogyan optimális lesz végül.
15:34
But we've got a problem.
397
934260
2000
De van ám egy kis bökkenő.
15:36
Tasks are symbolic -- I want to drink, I want to dance --
398
936260
3000
A feladatok szimbolikusak -- inni szeretnék, táncolni szeretnék --
15:39
but the movement system has to contract 600 muscles
399
939260
2000
a mozgásrendszernek azonban 600 izmot kell mozgatnia
15:41
in a particular sequence.
400
941260
2000
egy bizonyos sorrendben!
15:43
And there's a big gap
401
943260
2000
És bizony nagy hézag van
15:45
between the task and the movement system.
402
945260
2000
a feladat és a mozgásrendszer közt!
15:47
So it could be bridged in infinitely many different ways.
403
947260
2000
Magyarul végtelenül sokféleképpen lehetnének összeköttetésben.
15:49
So think about just a point to point movement.
404
949260
2000
Gondoljanak csak egy egyik ponttól a másikig végrehajtott mozgásra.
15:51
I could choose these two paths
405
951260
2000
Választhatom ezt a két utat,
15:53
out of an infinite number of paths.
406
953260
2000
a végtelenül sok rendelkezésre álló közül.
15:55
Having chosen a particular path,
407
955260
2000
Ha kiválasztottam egy utat,
15:57
I can hold my hand on that path
408
957260
2000
akkor rajta tarthatom a kezemet azon az úton,
15:59
as infinitely many different joint configurations.
409
959260
2000
a végtelenül sok ízületi konfiguráció szerint.
16:01
And I can hold my arm in a particular joint configuration
410
961260
2000
És tarthatom a kezemet egy bizonyos ízületi tartással,
16:03
either very stiff or very relaxed.
411
963260
2000
ami lehet nagyon merev, vagy akár nagyon ellazult.
16:05
So I have a huge amount of choice to make.
412
965260
3000
Tehát egy rakás döntéshelyzetem van.
16:08
Now it turns out, we are extremely stereotypical.
413
968260
3000
Az derült ki, hogy végletesen sablonosak vagyunk.
16:11
We all move the same way pretty much.
414
971260
3000
Mindannyian eléggé hasonlóan mozgunk.
16:14
And so it turns out we're so stereotypical,
415
974260
2000
Sőt, az derült ki, hogy annyira sablonosak vagyunk,
16:16
our brains have got dedicated neural circuitry
416
976260
2000
hogy az agyunknak rá kellett állni arra,
16:18
to decode this stereotyping.
417
978260
2000
hogy dekódolja ezeket a sablonokat!
16:20
So if I take some dots
418
980260
2000
Ha veszek tehát néhány pontot,
16:22
and set them in motion with biological motion,
419
982260
3000
és biológiai mozgás segítségével megmozgatom őket,
16:25
your brain's circuitry would understand instantly what's going on.
420
985260
3000
az agyunk áramkörei azonnal felfogják, hogy mi történik.
16:28
Now this is a bunch of dots moving.
421
988260
2000
Itt egy csomó pont mozog.
16:30
You will know what this person is doing,
422
990260
3000
Mi tudjuk, hogy ez a személy mit csinál,
16:33
whether happy, sad, old, young -- a huge amount of information.
423
993260
3000
akár vidám, szomorú, idős, vagy fiatal -- ami rengeteg információ.
16:36
If these dots were cars going on a racing circuit,
424
996260
2000
Ha ezek a pontok kocsik lennének egy versenypályán,
16:38
you would have absolutely no idea what's going on.
425
998260
3000
akkor viszont fogalmunk sem lenne, hogy mi zajlik!
16:41
So why is it
426
1001260
2000
Akkor miért van tehát,
16:43
that we move the particular ways we do?
427
1003260
2000
hogy bizonyos módon mozgunk?
16:45
Well let's think about what really happens.
428
1005260
2000
Gondoljuk csak végig, mi is történik valójában.
16:47
Maybe we don't all quite move the same way.
429
1007260
3000
Lehet, hogy nem mind mozgunk teljesen egyformán.
16:50
Maybe there's variation in the population.
430
1010260
2000
Lehet, hogy vannak variációk a népességben.
16:52
And maybe those who move better than others
431
1012260
2000
És lehet, hogy azoknak, akik a többieknél jobban mozognak,
16:54
have got more chance of getting their children into the next generation.
432
1014260
2000
nagyobb az esélyük arra, hogy a gyerekeik bekerüljenek a következő generációba.
16:56
So in evolutionary scales, movements get better.
433
1016260
3000
Tehát evolúciós léptékkel nézve, a mozgások egyre jobbak lesznek.
16:59
And perhaps in life, movements get better through learning.
434
1019260
3000
És lehet, hogy az életben a mozgások tanulással fejlődnek.
17:02
So what is it about a movement which is good or bad?
435
1022260
2000
Mi a helyzet tehát egy mozgással, ami jó vagy rossz?
17:04
Imagine I want to intercept this ball.
436
1024260
2000
Képzeljük el, hogy el akarjuk kapni ezt a labdát.
17:06
Here are two possible paths to that ball.
437
1026260
3000
Itt van két lehetséges út a labdához.
17:09
Well if I choose the left-hand path,
438
1029260
2000
Nos, ha a baloldali utat választom,
17:11
I can work out the forces required
439
1031260
2000
kitalálhatom, mekkora erőbefektetést igényel ez az idő függvényében
17:13
in one of my muscles as a function of time.
440
1033260
2000
az egyik izmom számára.
17:15
But there's noise added to this.
441
1035260
2000
Hozzáadódik azonban 'zaj' is!
17:17
So what I actually get, based on this lovely, smooth, desired force,
442
1037260
3000
Ami tehát kapok végül ezen szép, sima, megfelelő erő alapján,
17:20
is a very noisy version.
443
1040260
2000
bizony egy nagyon 'zajos' verzió lesz.
17:22
So if I pick the same command through many times,
444
1042260
3000
Ha veszem ugyanazt a parancsot sok alkalommal,
17:25
I will get a different noisy version each time, because noise changes each time.
445
1045260
3000
minden alkalommal különböző zajos verziókat fogok kapni, mivel a zaj mindig változik.
17:28
So what I can show you here
446
1048260
2000
Itt azt tudom bemutatni Önöknek,
17:30
is how the variability of the movement will evolve
447
1050260
2000
hogyan fejlődik a mozgás variálhatósága,
17:32
if I choose that way.
448
1052260
2000
amennyiben ezt az utat választom.
17:34
If I choose a different way of moving -- on the right for example --
449
1054260
3000
Ha egy másik utat választok a végrehajtáshoz -- jobbra pl. --
17:37
then I'll have a different command, different noise,
450
1057260
2000
akkor más lesz a parancs, mások a zajok,
17:39
playing through a noisy system, very complicated.
451
1059260
3000
egy zajos rendszeren keresztül játszani nagyon bonyolult.
17:42
All we can be sure of is the variability will be different.
452
1062260
3000
Amiben biztosak lehetünk, az az, hogy a variálhatóság különbözni fog.
17:45
If I move in this particular way,
453
1065260
2000
Ha így mozgok,
17:47
I end up with a smaller variability across many movements.
454
1067260
3000
végül is egy kisebb variációval jövök ki belőle, a sok mozdulat következtében.
17:50
So if I have to choose between those two,
455
1070260
2000
Ha tehét e kettő közt kell választanom,
17:52
I would choose the right one because it's less variable.
456
1072260
2000
a jobboldalit választanám, mert ott kevesebb a variáció.
17:54
And the fundamental idea
457
1074260
2000
Az alapelv itt az,
17:56
is you want to plan your movements
458
1076260
2000
hogy úgy akarjuk megtervezni a mozgásunkat,
17:58
so as to minimize the negative consequence of the noise.
459
1078260
3000
hogy minimalizáljuk a zaj negatív következményét.
18:01
And one intuition to get
460
1081260
2000
És az egyik, amit itt megsejtünk az,
18:03
is actually the amount of noise or variability I show here
461
1083260
2000
valójában a zaj mennyisége, vagy variálhatóság, amit itt mutatok,
18:05
gets bigger as the force gets bigger.
462
1085260
2000
egyre erősödik a nyomás erősödésével.
18:07
So you want to avoid big forces as one principle.
463
1087260
3000
tehát az egyik alapelv az, hogy el akarjuk kerülni a nagy erőkifejtéseket.
18:10
So we've shown that using this,
464
1090260
2000
Megmutattuk, hogy ennek felhasználásával
18:12
we can explain a huge amount of data --
465
1092260
2000
rengeteg adatot meg tudunk magyarázni --
18:14
that exactly people are going about their lives planning movements
466
1094260
3000
ahogyan az emberek egész pontosan haladnak az életükben, megtervezve a mozgásukat,
18:17
so as to minimize negative consequences of noise.
467
1097260
3000
hogy minimalizálják általa a zajok negatív következményeit.
18:20
So I hope I've convinced you the brain is there
468
1100260
2000
Remélem, sikerült Önöket mgegyőznöm arról,
18:22
and evolved to control movement.
469
1102260
2000
hogy az agyunk azért van és felődött ilyenre, hogy a mozgásokat koordinálja.
18:24
And it's an intellectual challenge to understand how we do that.
470
1104260
3000
Komoly intellektuális kihívás megérteni, hogyan visszük ezt végbe.
18:27
But it's also relevant
471
1107260
2000
Lényeges ez azonban
18:29
for disease and rehabilitation.
472
1109260
2000
a betegségek és a rehabilitáció miatt is.
18:31
There are many diseases which effect movement.
473
1111260
3000
Rengeteg betegség van hatással a mozgásra.
18:34
And hopefully if we understand how we control movement,
474
1114260
2000
És ha megértjük, hogyan végezzük a mozgást, akkor remélhetőleg
18:36
we can apply that to robotic technology.
475
1116260
2000
alkalmazhatjuk majd a robottechnológiában is.
18:38
And finally, I want to remind you,
476
1118260
2000
Végezetül szeretném Önöket arra emlékeztetni,
18:40
when you see animals do what look like very simple tasks,
477
1120260
2000
hogy amikor állatokat látunk, amint nagyon egyszerűnek tűnő feladatokat hajtanak végre,
18:42
the actual complexity of what is going on inside their brain
478
1122260
2000
az agyukban ténylegesen végbemenő komplexitás
18:44
is really quite dramatic.
479
1124260
2000
valójában igen drámai!
18:46
Thank you very much.
480
1126260
2000
Nagyon köszönöm.
18:48
(Applause)
481
1128260
8000
(Taps)
18:56
Chris Anderson: Quick question for you, Dan.
482
1136260
2000
Chris Anderson: Egy gyors kérdés, Dan.
18:58
So you're a movement -- (DW: Chauvinist.) -- chauvinist.
483
1138260
4000
Szóval mozgás soviniszta vagy.
19:02
Does that mean that you think that the other things we think our brains are about --
484
1142260
3000
Ez azt jelenti, hogy szerinted a többi dolog, amiről azt hisszük, hogy az agyunk arra való,
19:05
the dreaming, the yearning, the falling in love and all these things --
485
1145260
3000
-- mint pl. az álmodozás, vágyakozás, szerelembe esés, meg ilyesmik --
19:08
are a kind of side show, an accident?
486
1148260
3000
valamiféle melléktermékek, véletlen velejárók?
19:11
DW: No, no, actually I think they're all important
487
1151260
2000
DW: Nem, nem, szerintem is nagyon fontos mindez ahhoz, hogy vezérelje
19:13
to drive the right movement behavior to get reproduction in the end.
488
1153260
3000
a megfelelő mozgást a viselkedés érdekében, hogy végül bekövetkezzen a reprodukció.
19:16
So I think people who study sensation or memory
489
1156260
3000
Szerintem az érzékelést és a memóriát úgy tanulmányozzák,
19:19
without realizing why you're laying down memories of childhood.
490
1159260
2000
hogy nem számítják be közben, hogy mi végett is gyűjtjük a gyermekkori emlékeket.
19:21
The fact that we forget most of our childhood, for example,
491
1161260
3000
Pl. az a tény, hogy gyermekkorunk agy része kiesik a fejünkből,
19:24
is probably fine, because it doesn't effect our movements later in life.
492
1164260
3000
valószínűleg azért nem gond, mivel nem befolyásolja későbbi életünk mozgásait!
19:27
You only need to store things which are really going to effect movement.
493
1167260
3000
Csak olyan dolgokat kell elraktározni, amelyek tényleg befolyásolni fogják a mozgást!
19:30
CA: So you think that people thinking about the brain, and consciousness generally,
494
1170260
3000
CA: Akkor tehát úgy gondolja, hogy azok, akik az agyról és tudatról
19:33
could get real insight
495
1173260
2000
általában elmélkednek, akkor jutnak valódi felismerésekhez
19:35
by saying, where does movement play in this game?
496
1175260
2000
amikor rájönnek, hogy hol játszik szerepet ebben a játékban a mozgás?
19:37
DW: So people have found out for example
497
1177260
2000
DW: Pl. rájöttek az emberek arra,
19:39
that studying vision in the absence of realizing why you have vision
498
1179260
2000
hogy a látás tanulmányozása anélkül,
19:41
is a mistake.
499
1181260
2000
hogy figyelembe vennék, mire is való - hiba.
19:43
You have to study vision with the realization
500
1183260
2000
A látást annak a felismerésnek a beszámításával együtt kell tanulmányozni,
19:45
of how the movement system is going to use vision.
501
1185260
2000
hogy a mozgásrendszer hogyan fogja felhasználni a látást.
19:47
And it uses it very differently once you think about it that way.
502
1187260
2000
És bizony nagyon másra használja, ha egyszer így is végiggondljuk!
19:49
CA: Well that was quite fascinating. Thank you very much indeed.
503
1189260
3000
CA: Hát ez mondhatom, nagyon érdekes. Tényleg nagyon köszönjük.
19:52
(Applause)
504
1192260
2000
(Taps)
Erről a weboldalról

Ez az oldal olyan YouTube-videókat mutat be, amelyek hasznosak az angol nyelvtanuláshoz. A világ minden tájáról származó, kiváló tanárok által tartott angol leckéket láthatsz. Az egyes videók oldalán megjelenő angol feliratokra duplán kattintva onnan játszhatja le a videót. A feliratok a videó lejátszásával szinkronban gördülnek. Ha bármilyen észrevétele vagy kérése van, kérjük, lépjen kapcsolatba velünk ezen a kapcsolatfelvételi űrlapon.

https://forms.gle/WvT1wiN1qDtmnspy7