Daniel Wolpert: The real reason for brains

334,536 views ・ 2011-11-03

TED


אנא לחץ פעמיים על הכתוביות באנגלית למטה כדי להפעיל את הסרטון.

מתרגם: Yubal Masalker מבקר: Ido Dekkers
00:15
I'm a neuroscientist.
0
15260
2000
אני חוקר מערכות עצבים.
00:17
And in neuroscience,
1
17260
2000
במדעי עצב,
00:19
we have to deal with many difficult questions about the brain.
2
19260
3000
עלינו להתמודד עם הרבה שאלות קשות בנוגע למוח.
00:22
But I want to start with the easiest question
3
22260
2000
אבל ברצוני להתחיל עם השאלה הכי קלה
00:24
and the question you really should have all asked yourselves at some point in your life,
4
24260
3000
והשאלה שכולנו היינו צריכים לשאול את עצמנו מתי שהוא,
00:27
because it's a fundamental question
5
27260
2000
כי זו שאלת יסוד
00:29
if we want to understand brain function.
6
29260
2000
אם ברצוננו להבין את פעולת המוח.
00:31
And that is, why do we and other animals
7
31260
2000
השאלה היא, מדוע לנו ולחיות
00:33
have brains?
8
33260
2000
יש מוחות?
00:35
Not all species on our planet have brains,
9
35260
3000
לא לכל המינים יש מוחות,
00:38
so if we want to know what the brain is for,
10
38260
2000
ולכן אם ברצוננו לדעת למה צריך מוח,
00:40
let's think about why we evolved one.
11
40260
2000
יש לחשוב על הסיבה להתפתחותו.
00:42
Now you may reason that we have one
12
42260
2000
אפשר לומר שהוא קיים
00:44
to perceive the world or to think,
13
44260
2000
כדי לתפוס את העולם או כדי לחשוב,
00:46
and that's completely wrong.
14
46260
2000
וזה לגמרי לא נכון.
00:48
If you think about this question for any length of time,
15
48260
3000
אם חושבים על שאלה זו מספיק זמן,
00:51
it's blindingly obvious why we have a brain.
16
51260
2000
זה ברור מאליו מדוע יש לנו מוח.
00:53
We have a brain for one reason and one reason only,
17
53260
3000
יש לנו מוח בגלל סיבה אחת ויחידה,
00:56
and that's to produce adaptable and complex movements.
18
56260
3000
והיא ליצור תנועות סגילות ומורכבות.
00:59
There is no other reason to have a brain.
19
59260
2000
אין סיבה אחרת לקיום המוח.
01:01
Think about it.
20
61260
2000
תחשבו על זה.
01:03
Movement is the only way you have
21
63260
2000
תנועה היא הדרך היחידה
01:05
of affecting the world around you.
22
65260
2000
להשפיע על העולם סביבנו.
01:07
Now that's not quite true. There's one other way, and that's through sweating.
23
67260
3000
זה לא לגמרי נכון. יש דרך נוספת והיא באמצעות הזעה.
01:10
But apart from that,
24
70260
2000
אבל מלבד זאת,
01:12
everything else goes through contractions of muscles.
25
72260
2000
כל דבר אחר מתבצע באמצעות תנועות שרירים.
01:14
So think about communication --
26
74260
2000
תחשבו על תקשורת --
01:16
speech, gestures, writing, sign language --
27
76260
3000
דיבור, שפת-גוף, כתיבה, שפת סימנים --
01:19
they're all mediated through contractions of your muscles.
28
79260
3000
הכל מתבצע באמצעות תנועות של שרירים.
01:22
So it's really important to remember
29
82260
2000
לכן זה חשוב מאוד לזכור
01:24
that sensory, memory and cognitive processes are all important,
30
84260
4000
שלמרות שתהליכים תחושתיים ותפיסתיים הם חשובים,
01:28
but they're only important
31
88260
2000
הם חשובים רק בשביל
01:30
to either drive or suppress future movements.
32
90260
2000
ליצור או להפסיק תנועות עתידיות.
01:32
There can be no evolutionary advantage
33
92260
2000
אין שום יתרון אבולוציוני
01:34
to laying down memories of childhood
34
94260
2000
בזיכרונות ילדות
01:36
or perceiving the color of a rose
35
96260
2000
או בקליטת צבע של פרח
01:38
if it doesn't affect the way you're going to move later in life.
36
98260
3000
אם אין להן השפעה על הדרך בה אנו עומדים לנוע בעתיד.
01:41
Now for those who don't believe this argument,
37
101260
2000
עבור אלה שאינם מאמינים לטיעון זה,
01:43
we have trees and grass on our planet without the brain,
38
103260
2000
עצים ודשא אין להם מוח,
01:45
but the clinching evidence is this animal here --
39
105260
2000
אבל ההוכחה החותכת היא היצור הזה --
01:47
the humble sea squirt.
40
107260
2000
רכיכת-ים.
01:49
Rudimentary animal, has a nervous system,
41
109260
3000
יצור לא מפותח שיש לה מערכת עצבית
01:52
swims around in the ocean in its juvenile life.
42
112260
2000
והיא שוחה באוקיינוס בצעירותה.
01:54
And at some point of its life,
43
114260
2000
בשלב כלשהו בחייה,
01:56
it implants on a rock.
44
116260
2000
היא נדבקת לסלע. והדבר הראשון
01:58
And the first thing it does in implanting on that rock, which it never leaves,
45
118260
3000
שהיא עושה עם הידבקותה לסלע שהיא לעולם לא עוזבת,
02:01
is to digest its own brain and nervous system
46
121260
3000
זה לעכל את המוח ואת המערכת העצבית של עצמה
02:04
for food.
47
124260
2000
בתור מזון.
02:06
So once you don't need to move,
48
126260
2000
כך, ברגע שלא זקוקים לתנועה,
02:08
you don't need the luxury of that brain.
49
128260
3000
אין צורך בלוקסוס של המוח.
02:11
And this animal is often taken
50
131260
2000
ויצור זה משמש לעיתים
02:13
as an analogy to what happens at universities
51
133260
2000
כאנלוגיה למה שמתרחש באוניברסיטאות
02:15
when professors get tenure,
52
135260
2000
כאשר פרופסורים מקבלים קביעות,
02:17
but that's a different subject.
53
137260
2000
אבל זה נושא אחר.
02:19
(Applause)
54
139260
2000
(מחיאות כפיים)
02:21
So I am a movement chauvinist.
55
141260
3000
אם כך, אני קנאי לתנועה. אני מאמין שתנועה
02:24
I believe movement is the most important function of the brain --
56
144260
2000
היא התיפקוד החשוב ביותר של המוח --
02:26
don't let anyone tell you that it's not true.
57
146260
2000
ואל תניחו לאף אחד לומר לכם שאין זה נכון.
02:28
Now if movement is so important,
58
148260
2000
אבל אם תנועה היא כה חשובה,
02:30
how well are we doing
59
150260
2000
עד כמה אנו מבינים כהלכה
02:32
understanding how the brain controls movement?
60
152260
2000
כיצד המוח שולט בתנועה?
02:34
And the answer is we're doing extremely poorly; it's a very hard problem.
61
154260
2000
התשובה היא שבמידה מאוד דלה; זו בעיה מאוד קשה.
02:36
But we can look at how well we're doing
62
156260
2000
אבל אפשר גם להתרשם מביצועינו הטובים
02:38
by thinking about how well we're doing building machines
63
158260
2000
אם חושבים על איכות המכונות שאנו בונים
02:40
which can do what humans can do.
64
160260
2000
אשר מבצעות מה שבני-אדם עושים.
02:42
Think about the game of chess.
65
162260
2000
תחשבו על משחק השחמט.
02:44
How well are we doing determining what piece to move where?
66
164260
3000
עד כמה טוב ונכון אנו מחליטים להזיז את הכלים ולהיכן?
02:47
If you pit Garry Kasparov here, when he's not in jail,
67
167260
3000
אם נציב את גארי קספארוב, כאשר אינו בכלא,
02:50
against IBM's Deep Blue,
68
170260
2000
כנגד מחשב IBM "כחול עמוק",
02:52
well the answer is IBM's Deep Blue will occasionally win.
69
172260
3000
התשובה תהיה שהמחשב ינצח לעיתים.
02:55
And I think if IBM's Deep Blue played anyone in this room, it would win every time.
70
175260
3000
ואם המחשב ישחק נגד כל מישהו באולם זה, המחשב ינצח תמיד.
02:58
That problem is solved.
71
178260
2000
כאן התשובה ברורה.
03:00
What about the problem
72
180260
2000
מה לגבי הבעיה של
03:02
of picking up a chess piece,
73
182260
2000
הרמת כלי-שחמט,
03:04
dexterously manipulating it and putting it back down on the board?
74
184260
3000
לשלוט בו במיומנות ולהניחו בחזרה על הלוח?
03:07
If you put a five year-old child's dexterity against the best robots of today,
75
187260
3000
אם שמים את מיומנותו של ילד בן 5 כנגד הרובוטים הכי משוכללים של היום,
03:10
the answer is simple:
76
190260
2000
התשובה ברורה:
03:12
the child wins easily.
77
192260
2000
הילד ינצח בקלות.
03:14
There's no competition at all.
78
194260
2000
אין בכלל על מה לדבר.
03:16
Now why is that top problem so easy
79
196260
2000
אז מדוע הבעיה הראשונה כה קלה
03:18
and the bottom problem so hard?
80
198260
2000
והשניה כה קשה?
03:20
One reason is a very smart five year-old
81
200260
2000
סיבה אחת היא שבן 5 שהוא מאוד פיקח
03:22
could tell you the algorithm for that top problem --
82
202260
2000
יכול למצוא את האלגוריתם לבעיה הראשונה --
03:24
look at all possible moves to the end of the game
83
204260
2000
יסתכל על כל המהלכים האפשריים במשחק
03:26
and choose the one that makes you win.
84
206260
2000
ויבחר את זה היכול לנצח.
03:28
So it's a very simple algorithm.
85
208260
2000
לכן זה אלגוריתם מאוד פשוט.
03:30
Now of course there are other moves,
86
210260
2000
ברור שיש מהלכים אחרים,
03:32
but with vast computers we approximate
87
212260
2000
אבל עם מחשבים אנו עושים קירובים
03:34
and come close to the optimal solution.
88
214260
2000
וכך מתקרבים לפיתרון המיטבי.
03:36
When it comes to being dexterous,
89
216260
2000
אבל כאשר זה מגיע למיומנות בתנועה,
03:38
it's not even clear what the algorithm is you have to solve to be dexterous.
90
218260
2000
כלל לא ברור איזה אלגוריתם עלינו לפתור כדי להיות מיומנים.
03:40
And we'll see you have to both perceive and act on the world,
91
220260
2000
אנו נראה שצריך גם לתפוס את הסביבה וגם לפעול עליה,
03:42
which has a lot of problems.
92
222260
2000
שזה יוצר המון בעיות.
03:44
But let me show you cutting-edge robotics.
93
224260
2000
אראה לכם עכשיו רובוטיקה מתקדמת.
03:46
Now a lot of robotics is very impressive,
94
226260
2000
בהרבה מקרים רובוטיקה זה דבר מרשים ביותר,
03:48
but manipulation robotics is really just in the dark ages.
95
228260
3000
אבל רובוטיקה תפעולית היא עדיין פרימיטיבית.
03:51
So this is the end of a Ph.D. project
96
231260
2000
זהו התוצר הסופי של עבודת דוקטורט
03:53
from one of the best robotics institutes.
97
233260
2000
באחד ממכוני הרובוטיקה המתקדמים ביותר.
03:55
And the student has trained this robot
98
235260
2000
הסטודנט לימד את הרובוט
03:57
to pour this water into a glass.
99
237260
2000
לשפוך מים לתוך כוס.
03:59
It's a hard problem because the water sloshes about, but it can do it.
100
239260
3000
זו בעיה קשה כי המים משכשכים, אבל הוא מצליח.
04:02
But it doesn't do it with anything like the agility of a human.
101
242260
3000
אבל הוא אינו עושה זאת באותה מיומנות של אדם.
04:05
Now if you want this robot to do a different task,
102
245260
3000
כעת אם רוצים שרובוט זה יבצע משימה אחרת,
04:08
that's another three-year Ph.D. program.
103
248260
3000
זו עבודת דוקטורט אחרת של 3 שנים.
04:11
There is no generalization at all
104
251260
2000
אין משהו משותף
04:13
from one task to another in robotics.
105
253260
2000
בין שתי משימות ברובוטיקה.
04:15
Now we can compare this
106
255260
2000
כעת נשווה זאת
04:17
to cutting-edge human performance.
107
257260
2000
לביצועי אנוש בדרגה הכי גבוהה.
04:19
So what I'm going to show you is Emily Fox
108
259260
2000
אתם תראו את אמילי פוקס
04:21
winning the world record for cup stacking.
109
261260
3000
שקבעה שיא עולם בסידור כוסות.
04:24
Now the Americans in the audience will know all about cup stacking.
110
264260
2000
האמריקאים בין הצופים פה יודעים הכל על סידור כוסות.
04:26
It's a high school sport
111
266260
2000
זהו ספורט של תיכונים
04:28
where you have 12 cups you have to stack and unstack
112
268260
2000
שבו צריך לסדר ולהפריד 12 כוסות
04:30
against the clock in a prescribed order.
113
270260
2000
כנגד זמן בסדר מסויים.
04:32
And this is her getting the world record in real time.
114
272260
3000
כאן זו היא בזמן קביעת השיא העולמי.
04:39
(Laughter)
115
279260
8000
(צחוק)
04:47
(Applause)
116
287260
5000
(מחיאות כפיים)
04:52
And she's pretty happy.
117
292260
2000
היא שמחה למדי.
04:54
We have no idea what is going on inside her brain when she does that,
118
294260
2000
אין לנו מושג על המתחולל במוחה כאשר היא עשתה זאת,
04:56
and that's what we'd like to know.
119
296260
2000
וזה מה שהיינו רוצים לדעת.
04:58
So in my group, what we try to do
120
298260
2000
לכן בצוות שלי, מה שאנו מנסים לעשות
05:00
is reverse engineer how humans control movement.
121
300260
3000
זה לנתח הנדסית כיצד אנשים שולטים בתנועה.
05:03
And it sounds like an easy problem.
122
303260
2000
זה נשמע כמו בעיה פשוטה.
05:05
You send a command down, it causes muscles to contract.
123
305260
2000
פקודה נשלחת, היא גורמת לשרירים להתכווץ.
05:07
Your arm or body moves,
124
307260
2000
הגוף או הזרוע נעים,
05:09
and you get sensory feedback from vision, from skin, from muscles and so on.
125
309260
3000
מקבלים משוב חושי מהעיניים, עור, שרירים וכו'.
05:12
The trouble is
126
312260
2000
הבעיה היא שאותות הללו
05:14
these signals are not the beautiful signals you want them to be.
127
314260
2000
אינם אותות אידאליים כפי שהיינו רוצים.
05:16
So one thing that makes controlling movement difficult
128
316260
2000
אחד הדברים שהופכים את השליטה
05:18
is, for example, sensory feedback is extremely noisy.
129
318260
3000
על תנועה לקשה הוא הרעש הנלווה למשוב.
05:21
Now by noise, I do not mean sound.
130
321260
3000
ברעש, איני מתכוון לצלילים.
05:24
We use it in the engineering and neuroscience sense
131
324260
2000
בהנדסה ומדעי העצב המשמעות היא
05:26
meaning a random noise corrupting a signal.
132
326260
2000
רעש אקראי אשר הורס את האות.
05:28
So the old days before digital radio when you were tuning in your radio
133
328260
3000
זה כמו פעם, לפני הרדיו הדיגיטלי כאשר היינו מכוונים לתחנה
05:31
and you heard "crrcckkk" on the station you wanted to hear,
134
331260
2000
ושמענו רעשים צורמים בתחנה שרצינו להאזין לה,
05:33
that was the noise.
135
333260
2000
על רעש כזה מדובר.
05:35
But more generally, this noise is something that corrupts the signal.
136
335260
3000
באופן יותר כללי, רעש כזה הורס את האות.
05:38
So for example, if you put your hand under a table
137
338260
2000
לדוגמא, אם שמים את היד מתחת לשולחן
05:40
and try to localize it with your other hand,
138
340260
2000
ומנסים לאתר אותה בעזרת היד השניה,
05:42
you can be off by several centimeters
139
342260
2000
אפשר לפספס בכמה סנטימטרים
05:44
due to the noise in sensory feedback.
140
344260
2000
בגלל הרעש במשוב מן החושים.
05:46
Similarly, when you put motor output on movement output,
141
346260
2000
באופן דומה, כאשר מערבבים את אותות המנוע עם אותות של תנועה,
05:48
it's extremely noisy.
142
348260
2000
זה מאוד רועש.
05:50
Forget about trying to hit the bull's eye in darts,
143
350260
2000
שלא לדבר על קליעה למטרה באמצעות זריקת חיצים,
05:52
just aim for the same spot over and over again.
144
352260
2000
פשוט לכוון לאותה נקודה שוב ושוב.
05:54
You have a huge spread due to movement variability.
145
354260
3000
יש לנו פיזור רחב מאוד בגלל השתנות התנועה.
05:57
And more than that, the outside world, or task,
146
357260
2000
ואפילו עוד יותר, העולם סביבנו, או המשימה,
05:59
is both ambiguous and variable.
147
359260
2000
הם מעורפלים ומשתנים.
06:01
The teapot could be full, it could be empty.
148
361260
2000
קומקום התה יכול להיות מלא או ריק.
06:03
It changes over time.
149
363260
2000
הוא נתון לשינויים לאורך זמן.
06:05
So we work in a whole sensory movement task soup of noise.
150
365260
4000
כך שאנו פועלים במרק של רעשים הנובעים מעבודת החושים.
06:09
Now this noise is so great
151
369260
2000
רעש זה הוא כה מהותי
06:11
that society places a huge premium
152
371260
2000
שהחברה מעניקה תגמול ענק
06:13
on those of us who can reduce the consequences of noise.
153
373260
3000
למי מאיתנו המסוגל לצמצם את השפעות הרעש.
06:16
So if you're lucky enough to be able to knock a small white ball
154
376260
3000
כך שאם התמזל למישהו המזל והוא מסוגל להכות בכדור לבן קטן
06:19
into a hole several hundred yards away using a long metal stick,
155
379260
3000
לתוך גומחה במרחק כמה מאות מטרים בעזרת מקל מתכת ארוך,
06:22
our society will be willing to reward you
156
382260
2000
החברה שלנו תרצה לגמול לו
06:24
with hundreds of millions of dollars.
157
384260
3000
במאות מיליוני דולרים.
06:27
Now what I want to convince you of
158
387260
2000
כעת מה שברצוני לשכנע אתכם בו
06:29
is the brain also goes through a lot of effort
159
389260
2000
הוא שהמוח עושה הרבה מאמצים
06:31
to reduce the negative consequences
160
391260
2000
כדי לצמצם את ההשלכות השליליות
06:33
of this sort of noise and variability.
161
393260
2000
של רעשים ושינויים כאלה.
06:35
And to do that, I'm going to tell you about a framework
162
395260
2000
כדי לעשות זאת, אספר לכם על מערכת
06:37
which is very popular in statistics and machine learning of the last 50 years
163
397260
3000
שהיא מאוד נפוצה בסטטיסטיקה ובלימודי מכונה ב-50 השנים האחרונות
06:40
called Bayesian decision theory.
164
400260
2000
והנקראת תיאוריה בייסיאנית להחלטות.
06:42
And it's more recently a unifying way
165
402260
3000
זו דרך כוללנית לחשיבה
06:45
to think about how the brain deals with uncertainty.
166
405260
3000
על כיצד המוח מתמודד עם חוסר וודאות.
06:48
And the fundamental idea is you want to make inferences and then take actions.
167
408260
3000
הרעיון המרכזי הוא שאדם רוצה להסיק מסקנות ולנקוט בפעולות.
06:51
So let's think about the inference.
168
411260
2000
אז בואו נחשוב על הסקת מסקנות.
06:53
You want to generate beliefs about the world.
169
413260
2000
אנו רוצים לייצר אמונות לגבי העולם.
06:55
So what are beliefs?
170
415260
2000
אז מהן אמונות?
06:57
Beliefs could be: where are my arms in space?
171
417260
2000
אמונות יכולות להיות: היכן נמצאות זרועותיי בחלל?
06:59
Am I looking at a cat or a fox?
172
419260
2000
האם אני מביט בחתול או בשועל?
07:01
But we're going to represent beliefs with probabilities.
173
421260
3000
אבל אנו נציג אמונות בצורת הסתברויות.
07:04
So we're going to represent a belief
174
424260
2000
נציג אמונה
07:06
with a number between zero and one --
175
426260
2000
באמצעות מספר בין 0 ל-1 --
07:08
zero meaning I don't believe it at all, one means I'm absolutely certain.
176
428260
3000
0 משמעותו שאיני מאמין כלל ו-1 משמעותו שאני בטוח לגמרי.
07:11
And numbers in between give you the gray levels of uncertainty.
177
431260
3000
ומספרים ביניהם נותנים דרגות שונות של חוסר וודאות.
07:14
And the key idea to Bayesian inference
178
434260
2000
הרעיון המרכזי של הסקה בייסיאנית
07:16
is you have two sources of information
179
436260
2000
הוא שיש שני מקורות מידע
07:18
from which to make your inference.
180
438260
2000
שמהם מסיקים את המסקנה.
07:20
You have data,
181
440260
2000
יש נתונים,
07:22
and data in neuroscience is sensory input.
182
442260
2000
ונתונים במדעי-עצב זה קלט של חושים.
07:24
So I have sensory input, which I can take in to make beliefs.
183
444260
3000
יש לנו קלט חושים שאני יכול לנצל כדי ליצור אמונות.
07:27
But there's another source of information, and that's effectively prior knowledge.
184
447260
3000
אבל יש מקור נוסף של מידע והוא הידע המוקדם שיש לנו.
07:30
You accumulate knowledge throughout your life in memories.
185
450260
3000
אנו צוברים ידע לאורך חיינו בצורת זיכרונות.
07:33
And the point about Bayesian decision theory
186
453260
2000
והעיקר בתיאוריה בייסיאנית להחלטות הוא
07:35
is it gives you the mathematics
187
455260
2000
שהיא נותנת לנו את המתמטיקה
07:37
of the optimal way to combine
188
457260
2000
של הדרך המיטבית לשילוב בין
07:39
your prior knowledge with your sensory evidence
189
459260
2000
הידע המוקדם והנתונים החושיים
07:41
to generate new beliefs.
190
461260
2000
כדי לייצר אמונות חדשות.
07:43
And I've put the formula up there.
191
463260
2000
רשמתי את הנוסחה כאן.
07:45
I'm not going to explain what that formula is, but it's very beautiful.
192
465260
2000
לא אסביר את הנוסחה, אבל היא מאוד יפה.
07:47
And it has real beauty and real explanatory power.
193
467260
3000
יש בה יופי אמיתי ויכולת אמיתית להבהיר דברים.
07:50
And what it really says, and what you want to estimate,
194
470260
2000
היא אומרת שמה שאנו רוצים לאמוד,
07:52
is the probability of different beliefs
195
472260
2000
היא ההסתברות של האמונות השונות
07:54
given your sensory input.
196
474260
2000
בקלט חושים נתון.
07:56
So let me give you an intuitive example.
197
476260
2000
אתן לכם דוגמא אינטואיטיבית.
07:58
Imagine you're learning to play tennis
198
478260
3000
תחשבו שאתם לומדים לשחק טניס
08:01
and you want to decide where the ball is going to bounce
199
481260
2000
ועליכם להחליט היכן הכדור עומד ליפול
08:03
as it comes over the net towards you.
200
483260
2000
כאשר הוא עובר את הרשת בדרכו אליכם.
08:05
There are two sources of information
201
485260
2000
יש שני מקורות מידע,
08:07
Bayes' rule tells you.
202
487260
2000
כך אומר הכלל הבייסיאני.
08:09
There's sensory evidence -- you can use visual information auditory information,
203
489260
3000
יש נתונים מהחושים -- ניתן להשתמש במידע חזותי או שמיעתי,
08:12
and that might tell you it's going to land in that red spot.
204
492260
3000
וזה יכול לומר לך להתרכז בנקודה האדומה ההיא.
08:15
But you know that your senses are not perfect,
205
495260
3000
אבל אתה יודע שחושיך אינם מושלמים, ולכן קיימת אי-וודאות
08:18
and therefore there's some variability of where it's going to land
206
498260
2000
מסויימת לגבי היכן הכדור יפול
08:20
shown by that cloud of red,
207
500260
2000
והיא מתוארת באמצעות הכתם האדום,
08:22
representing numbers between 0.5 and maybe 0.1.
208
502260
3000
המייצג מספרים בין 0.5 ל-0.1 בערך.
08:26
That information is available in the current shot,
209
506260
2000
מידע זה זמין בחבטה הנוכחית,
08:28
but there's another source of information
210
508260
2000
אבל ישנו מקור מידע נוסף
08:30
not available on the current shot,
211
510260
2000
שאינו זמין בחבטה הנוכחית,
08:32
but only available by repeated experience in the game of tennis,
212
512260
3000
אלא הוא זמין רק באמצעות ניסיונות חוזרים במשחק הטניס,
08:35
and that's that the ball doesn't bounce
213
515260
2000
והוא שהכדור אינו נופל בהסתברות שווה
08:37
with equal probability over the court during the match.
214
517260
2000
בכל המגרש בזמן המשחק.
08:39
If you're playing against a very good opponent,
215
519260
2000
אם אתה משחק נגד שחקן ברמה גבוהה,
08:41
they may distribute it in that green area,
216
521260
2000
הם יכולים ליפול באזור הירוק ההוא,
08:43
which is the prior distribution,
217
523260
2000
שזה פיזור תאורטי הקיים מראש,
08:45
making it hard for you to return.
218
525260
2000
המקשה עליך להחזיר.
08:47
Now both these sources of information carry important information.
219
527260
2000
שני מקורות המידע נושאים עימם מידע חשוב.
08:49
And what Bayes' rule says
220
529260
2000
מה שחוק בייסיאני אומר הוא שעליי
08:51
is that I should multiply the numbers on the red by the numbers on the green
221
531260
3000
להכפיל את המספרים שבאדום במספרים שבירוק
08:54
to get the numbers of the yellow, which have the ellipses,
222
534260
3000
כדי לקבל את המספרים בצהוב, שיש שם את האליפסות,
08:57
and that's my belief.
223
537260
2000
וזו האמונה שלי.
08:59
So it's the optimal way of combining information.
224
539260
3000
זוהי הדרך המיטבית לשילוב בין מקורות מידע.
09:02
Now I wouldn't tell you all this if it wasn't that a few years ago,
225
542260
2000
לא הייתי מספר את כל זה אם לפני כמה שנים
09:04
we showed this is exactly what people do
226
544260
2000
לא היינו מוכיחים שזה בדיוק מה שאנשים עושים
09:06
when they learn new movement skills.
227
546260
2000
כאשר הם לומדים מיומנויות תנועה חדשות.
09:08
And what it means
228
548260
2000
ומה שזה אומר הוא שאנחנו באמת
09:10
is we really are Bayesian inference machines.
229
550260
2000
מכונות בייסיאניות להסקת מסקנות.
09:12
As we go around, we learn about statistics of the world and lay that down,
230
552260
4000
בעודנו מתנהלים בעולם, אנו לומדים עליו סטטיסטיקות וזוכרים אותן,
09:16
but we also learn
231
556260
2000
אבל אנו גם לומדים עד כמה
09:18
about how noisy our own sensory apparatus is,
232
558260
2000
סואנת היא המערכת החושית שלנו,
09:20
and then combine those
233
560260
2000
ואז משלבים ביניהן
09:22
in a real Bayesian way.
234
562260
2000
ממש בדרך בייסיאנית.
09:24
Now a key part to the Bayesian is this part of the formula.
235
564260
3000
המפתח עבור הבייסיאנית זהו החלק הזה בנוסחה.
09:27
And what this part really says
236
567260
2000
ומה שחלק זה אומר הוא
09:29
is I have to predict the probability
237
569260
2000
שעליי לחזות את ההסתברות
09:31
of different sensory feedbacks
238
571260
2000
של משובים חושיים שונים
09:33
given my beliefs.
239
573260
2000
בהתאם לאמונות שלי.
09:35
So that really means I have to make predictions of the future.
240
575260
3000
זה אומר שעליי ממש לחזות את העתיד.
09:38
And I want to convince you the brain does make predictions
241
578260
2000
וברצוני לשכנע אתכם שהמוח שלנו אכן עושה תחזיות
09:40
of the sensory feedback it's going to get.
242
580260
2000
על המשוב החושי שהוא עומד לקבל.
09:42
And moreover, it profoundly changes your perceptions
243
582260
2000
בנוסף, הוא משנה מהותית את התפיסות שלנו
09:44
by what you do.
244
584260
2000
לפי מה שאנו עושים בפועל.
09:46
And to do that, I'll tell you
245
586260
2000
כדי לעשות זאת, אספר לכם
09:48
about how the brain deals with sensory input.
246
588260
2000
כיצד המוח מתמודד עם קלט חושי.
09:50
So you send a command out,
247
590260
3000
אנו שולחים פקודה החוצה,
09:53
you get sensory feedback back,
248
593260
2000
מקבלים בחזרה קלט חושי,
09:55
and that transformation is governed
249
595260
2000
ותהליך זה נשלט
09:57
by the physics of your body and your sensory apparatus.
250
597260
3000
על-ידי הפיזיולוגיה של גופנו והמערכת החושית.
10:00
But you can imagine looking inside the brain.
251
600260
2000
אבל נדמיין שניתן להתבונן לתוך המוח.
10:02
And here's inside the brain.
252
602260
2000
זה פנים המוח.
10:04
You might have a little predictor, a neural simulator,
253
604260
2000
יכול להיות שיש אצלנו חזאי קטן, סימולטור עצבי,
10:06
of the physics of your body and your senses.
254
606260
2000
לפיזיולוגיה של גופנו וחושינו.
10:08
So as you send a movement command down,
255
608260
2000
כאשר שולחים פקודת תנועה לגוף,
10:10
you tap a copy of that off
256
610260
2000
לוקחים העתק שלה
10:12
and run it into your neural simulator
257
612260
2000
ומריצים אותה בסימולטור העצבי שלנו
10:14
to anticipate the sensory consequences of your actions.
258
614260
4000
כדי להקדים ולחזות את התוצאות החושיות של פעולתנו.
10:18
So as I shake this ketchup bottle,
259
618260
2000
כך שכאשר אני מנער בקבוק קטשופ,
10:20
I get some true sensory feedback as the function of time in the bottom row.
260
620260
3000
אני מקבל משוב חושי אמיתי כפונקציה של זמן בציר האופקי.
10:23
And if I've got a good predictor, it predicts the same thing.
261
623260
3000
אם יש אצלי חזאי טוב, הוא חוזה את אותו הדבר.
10:26
Well why would I bother doing that?
262
626260
2000
מדוע שאטרח לעשות את כל זה?
10:28
I'm going to get the same feedback anyway.
263
628260
2000
בכל מקרה אני הולך לקבל אותו משוב.
10:30
Well there's good reasons.
264
630260
2000
יש לזה סיבות טובות.
10:32
Imagine, as I shake the ketchup bottle,
265
632260
2000
נדמיין שבעודי מנער את בקבוק הקטשופ,
10:34
someone very kindly comes up to me and taps it on the back for me.
266
634260
3000
מישהו בא וטופח עליו מאחור כדי לעזור לי.
10:37
Now I get an extra source of sensory information
267
637260
2000
כעת יש לי מקור נוסף של מידע חושי
10:39
due to that external act.
268
639260
2000
בגלל הפעולה החיצונית הזו.
10:41
So I get two sources.
269
641260
2000
לכן יש לי שני מקורות.
10:43
I get you tapping on it, and I get me shaking it,
270
643260
3000
אני מקבל מהטפיחה ואני מקבל מהניעור,
10:46
but from my senses' point of view,
271
646260
2000
אבל מבחינת החושים שלי,
10:48
that is combined together into one source of information.
272
648260
3000
זה משתלב ביחד למקור מידע אחד.
10:51
Now there's good reason to believe
273
651260
2000
יש סיבה טובה להאמין שהיינו רוצים
10:53
that you would want to be able to distinguish external events from internal events.
274
653260
3000
להיות מסוגלים להבחין בין אירועים חיצוניים לאירועים פנימיים.
10:56
Because external events are actually much more behaviorally relevant
275
656260
3000
כי אירועים חיצוניים נוגעים הרבה יותר להתנהגות
10:59
than feeling everything that's going on inside my body.
276
659260
3000
לעומת התחושה של כל מה שקורה בגוף שלנו.
11:02
So one way to reconstruct that
277
662260
2000
לכן דרך חדשה לסדר את זה
11:04
is to compare the prediction --
278
664260
2000
היא להשוות את התחזית --
11:06
which is only based on your movement commands --
279
666260
2000
המתבססת רק על פקודות התנועה שלנו --
11:08
with the reality.
280
668260
2000
עם המציאות.
11:10
Any discrepancy should hopefully be external.
281
670260
3000
רצוי שכל אי-התאמה תהיה חיצונית.
11:13
So as I go around the world,
282
673260
2000
כך שבעודי מתהלך בעולם,
11:15
I'm making predictions of what I should get, subtracting them off.
283
675260
3000
אני עושה תחזיות של מה שאני אמור להיתקל בו ומחסיר אותן.
11:18
Everything left over is external to me.
284
678260
2000
כל מה שנותר הוא חיצוני עבורי.
11:20
What evidence is there for this?
285
680260
2000
איזה ראיות יש לנו על זה?
11:22
Well there's one very clear example
286
682260
2000
יש דוגמא אחת מאוד ברורה
11:24
where a sensation generated by myself feels very different
287
684260
2000
בה תחושה שאני בעצמי יוצר, גורמת הרגשה מאוד שונה
11:26
then if generated by another person.
288
686260
2000
מאשר אותה תחושה הנוצרת על-ידי אדם אחר.
11:28
And so we decided the most obvious place to start
289
688260
2000
לכן החלטנו שהדבר המובן מאליו להתחיל בו
11:30
was with tickling.
290
690260
2000
הוא דיגדוג.
11:32
It's been known for a long time, you can't tickle yourself
291
692260
2000
ידוע כבר זמן רב שלא ניתן לדגדג את עצמך
11:34
as well as other people can.
292
694260
2000
באותה מידה שבה אחרים יכולים.
11:36
But it hasn't really been shown, it's because you have a neural simulator,
293
696260
3000
אבל זה אף פעם לא ממש הודגם כי יש אצלנו סימולטור טבעי,
11:39
simulating your own body
294
699260
2000
המדמה את הגוף שלנו עצמנו
11:41
and subtracting off that sense.
295
701260
2000
והמחסיר את החוש הזה.
11:43
So we can bring the experiments of the 21st century
296
703260
3000
כעת אנו מביאים את הניסויים למאה ה-21
11:46
by applying robotic technologies to this problem.
297
706260
3000
באמצעות יישום טכנולוגיות רובוטיות לבעיה זו.
11:49
And in effect, what we have is some sort of stick in one hand attached to a robot,
298
709260
3000
למעשה, יש לנו מין מקל ביד אחת המחוברת לרובוט,
11:52
and they're going to move that back and forward.
299
712260
2000
והם הולכים להזיז אותה קדימה ואחורה.
11:54
And then we're going to track that with a computer
300
714260
2000
אנו הולכים לעקוב אחרי זה בעזרת מחשב
11:56
and use it to control another robot,
301
716260
2000
ולהשתמש בו כדי לשלוט על רובוט אחר,
11:58
which is going to tickle their palm with another stick.
302
718260
2000
אשר עומד לדגדג את כף-ידם עם מקל אחר.
12:00
And then we're going to ask them to rate a bunch of things
303
720260
2000
אנו נבקשם לדרג מספר דברים
12:02
including ticklishness.
304
722260
2000
כולל הרגישות לדיגדוג.
12:04
I'll show you just one part of our study.
305
724260
2000
אציג לכם רק חלק אחד של המחקר.
12:06
And here I've taken away the robots,
306
726260
2000
כאן הרחקנו את הרובוטים,
12:08
but basically people move with their right arm sinusoidally back and forward.
307
728260
3000
אבל עדיין אנשים מזיזים את זרועם קדימה ואחורה
12:11
And we replay that to the other hand with a time delay.
308
731260
3000
ואנו משחזרים את התנועה על גבי היד השניה באיחור של זמן.
12:14
Either no time delay,
309
734260
2000
או ללא איחור זמן,
12:16
in which case light would just tickle your palm,
310
736260
2000
שבמקרה כזה כאילו האור מדגדג את כף-היד,
12:18
or with a time delay of two-tenths of three-tenths of a second.
311
738260
4000
או באיחור זמן של שתיים או שלוש עשיריות שניה.
12:22
So the important point here
312
742260
2000
הנקודה החשובה כאן היא
12:24
is the right hand always does the same things -- sinusoidal movement.
313
744260
3000
שיד ימין עושה תמיד אותו הדבר -- תנועה גלית.
12:27
The left hand always is the same and puts sinusoidal tickle.
314
747260
3000
יד שמאל היא באותו מצב ורושמת את הדיגדוג הגלי.
12:30
All we're playing with is a tempo causality.
315
750260
2000
כל מה שאנו משנים זה התיזמון.
12:32
And as we go from naught to 0.1 second,
316
752260
2000
כאשר עוברים מאפס ל-0.1 שניה,
12:34
it becomes more ticklish.
317
754260
2000
הרגישות לדיגדוג עולה.
12:36
As you go from 0.1 to 0.2,
318
756260
2000
כאשר עוברים מ-0.1 ל-0.2,
12:38
it becomes more ticklish at the end.
319
758260
2000
הרגישות עולה עוד.
12:40
And by 0.2 of a second,
320
760260
2000
ב-0.2 שניות,
12:42
it's equivalently ticklish
321
762260
2000
זה מדגדג באותה מידה
12:44
to the robot that just tickled you without you doing anything.
322
764260
2000
כמו הרובוט שדיגדג מבלי שהמשתתף עשה משהו.
12:46
So whatever is responsible for this cancellation
323
766260
2000
לא משנה מה אחראי לביטול זה,
12:48
is extremely tightly coupled with tempo causality.
324
768260
3000
זה קשור באופן הדוק לתיזמון.
12:51
And based on this illustration, we really convinced ourselves in the field
325
771260
3000
בהתבסס על המחשה זו, הגענו למסקנה
12:54
that the brain's making precise predictions
326
774260
2000
שהמוח עושה חיזויים מדוייקים
12:56
and subtracting them off from the sensations.
327
776260
3000
ומחסיר אותם מהתחושות.
12:59
Now I have to admit, these are the worst studies my lab has ever run.
328
779260
3000
אבל עליי להודות שאלה המחקרים הכי גרועים שבוצעו במעבדה שלי.
13:02
Because the tickle sensation on the palm comes and goes,
329
782260
2000
כי בגלל שתחושת הדיגדוג על כף-היד באה והולכת,
13:04
you need large numbers of subjects
330
784260
2000
יש צורך במספר גדול של משתתפים
13:06
with these stars making them significant.
331
786260
2000
כדי שזה יהיה משמעותי.
13:08
So we were looking for a much more objective way
332
788260
2000
לכן אנו מחפשים דרך הרבה יותר אובייקטיבית
13:10
to assess this phenomena.
333
790260
2000
כדי לאמוד את התופעה.
13:12
And in the intervening years I had two daughters.
334
792260
2000
בינתיים נולדו לי שתי בנות.
13:14
And one thing you notice about children in backseats of cars on long journeys,
335
794260
3000
ואחד הדברים שמבחינים בהם בנוגע לילדים במושבים אחוריים של מכונית
13:17
they get into fights --
336
797260
2000
הוא שהם מתחילים לריב --
13:19
which started with one of them doing something to the other, the other retaliating.
337
799260
3000
זה מתחיל עם אחד שעושה משהו לאחר וזה מגיב.
13:22
It quickly escalates.
338
802260
2000
וזה מסלים במהירות.
13:24
And children tend to get into fights which escalate in terms of force.
339
804260
3000
ילדים נוטים להתחיל מריבות המסלימות במונחים של כוח.
13:27
Now when I screamed at my children to stop,
340
807260
2000
כאשר צרחתי על ילדותיי להפסיק,
13:29
sometimes they would both say to me
341
809260
2000
לפעמים שתיהן היו אומרות לי
13:31
the other person hit them harder.
342
811260
3000
שהשניה הרביצה יותר חזק.
13:34
Now I happen to know my children don't lie,
343
814260
2000
אני יודע שילדותיי לא משקרות,
13:36
so I thought, as a neuroscientist,
344
816260
2000
לכן חשבתי, בתור חוקר מערכות עצב,
13:38
it was important how I could explain
345
818260
2000
שזה חשוב יהיה להסביר
13:40
how they were telling inconsistent truths.
346
820260
2000
כיצד הן סיפרו אמיתות לא קוהרנטיות.
13:42
And we hypothesize based on the tickling study
347
822260
2000
הנחנו בהתבסס על מחקר הדיגדוג
13:44
that when one child hits another,
348
824260
2000
שכאשר ילד אחד מכה את השני,
13:46
they generate the movement command.
349
826260
2000
הוא מייצר פקודת תנועה.
13:48
They predict the sensory consequences and subtract it off.
350
828260
3000
הוא חוזה את התוצאות החושיות ומחסיר אותן.
13:51
So they actually think they've hit the person less hard than they have --
351
831260
2000
לכן הוא למעשה חושב שהוא היכה פחות חזק מאשר בפועל --
13:53
rather like the tickling.
352
833260
2000
בערך כמו הדיגדוג.
13:55
Whereas the passive recipient
353
835260
2000
בעוד שהסופג הפסיבי
13:57
doesn't make the prediction, feels the full blow.
354
837260
2000
אינו עושה חיזוי ולכן מרגיש את מלוא העוצמה.
13:59
So if they retaliate with the same force,
355
839260
2000
אם הוא מחזיר באותה עוצמה,
14:01
the first person will think it's been escalated.
356
841260
2000
הראשון יחשוב שהמצב הסלים.
14:03
So we decided to test this in the lab.
357
843260
2000
לכן החלטנו לבדוק זאת במעבדה.
14:05
(Laughter)
358
845260
3000
(צחוק)
14:08
Now we don't work with children, we don't work with hitting,
359
848260
2000
אנו לא עובדים עם ילדים ולא עם מכות,
14:10
but the concept is identical.
360
850260
2000
אבל הרעיון נשאר.
14:12
We bring in two adults. We tell them they're going to play a game.
361
852260
3000
מביאים שני בוגרים. מספרים להם שהם הולכים לשחק משחק.
14:15
And so here's player one and player two sitting opposite to each other.
362
855260
2000
הנה שני השחקנים היושבים זה מול זה.
14:17
And the game is very simple.
363
857260
2000
המשחק מאוד פשוט.
14:19
We started with a motor
364
859260
2000
התחלנו עם מנוע
14:21
with a little lever, a little force transfuser.
365
861260
2000
שיש לו ידית המעבירה כוח.
14:23
And we use this motor to apply force down to player one's fingers
366
863260
2000
משתמשים במנוע להפעיל כוח כלפי מטה על אצבע
14:25
for three seconds and then it stops.
367
865260
3000
של שחקן 1 במשך 3 שניות ואז להפסיק.
14:28
And that player's been told, remember the experience of that force
368
868260
3000
מבקשים מאותו שחקן שיזכור את תחושת הכוח
14:31
and use your other finger
369
871260
2000
ושישתמש באצבעו האחרת
14:33
to apply the same force
370
873260
2000
להפעיל את אותו הכוח
14:35
down to the other subject's finger through a force transfuser -- and they do that.
371
875260
3000
על אצבע השחקן האחר באמצעות הידית, וכך הם עשו.
14:38
And player two's been told, remember the experience of that force.
372
878260
3000
לשחקן 2 אומרים שיזכור את תחושת הכוח.
14:41
Use your other hand to apply the force back down.
373
881260
3000
שישתמש בידו השניה להפעיל כוח בחזרה.
14:44
And so they take it in turns
374
884260
2000
וכך זה קורה במחזוריות
14:46
to apply the force they've just experienced back and forward.
375
886260
2000
בה הם מפעילים כוח שהם חוו זה עתה.
14:48
But critically,
376
888260
2000
אבל יש דבר אחד חשוב,
14:50
they're briefed about the rules of the game in separate rooms.
377
890260
3000
הם מתודרכים בנפרד זה מזה על חוקי המשחק.
14:53
So they don't know the rules the other person's playing by.
378
893260
2000
לכן הם אינם מכירים את החוקים לפיהם האחר משחק.
14:55
And what we've measured
379
895260
2000
ומה שמדדנו
14:57
is the force as a function of terms.
380
897260
2000
זה את הכוח כפונקציה של מחזורים.
14:59
And if we look at what we start with,
381
899260
2000
אם מסתכלים עם מה התחלנו,
15:01
a quarter of a Newton there, a number of turns,
382
901260
2000
רבע ניוטון שם, מס' מחזורים,
15:03
perfect would be that red line.
383
903260
2000
הדבר המושלם זה הקו האדום שם.
15:05
And what we see in all pairs of subjects is this --
384
905260
3000
ומה שרואים בכל הזוגות שהשתתפו זה --
15:08
a 70 percent escalation in force
385
908260
2000
עליה של 70 אחוז בכוח
15:10
on each go.
386
910260
2000
בכל מחזור.
15:12
So it really suggests, when you're doing this --
387
912260
2000
זה מרמז שכאשר עושים את זה --
15:14
based on this study and others we've done --
388
914260
2000
לפי מחקר זה ומחקרים אחרים שעשינו --
15:16
that the brain is canceling the sensory consequences
389
916260
2000
המוח מבטל את התחושות החושיות
15:18
and underestimating the force it's producing.
390
918260
2000
וממעיט בערך של הכוח שהוא מייצר.
15:20
So it re-shows the brain makes predictions
391
920260
2000
זה מוכיח מחדש שהמוח עושה תחזיות
15:22
and fundamentally changes the precepts.
392
922260
3000
ומיסודו משנה את הפקודות.
15:25
So we've made inferences, we've done predictions,
393
925260
3000
אם כך, הסקנו מסקנות, עשינו תחזיות,
15:28
now we have to generate actions.
394
928260
2000
כעת עלינו לייצר פעולות.
15:30
And what Bayes' rule says is, given my beliefs,
395
930260
2000
ומה שחוק בייסיאני אומר הוא שבאמונותיי הנתונות,
15:32
the action should in some sense be optimal.
396
932260
2000
הפעולה במובן מסויים צריכה להיות המיטבית.
15:34
But we've got a problem.
397
934260
2000
אבל יש כאן בעיה.
15:36
Tasks are symbolic -- I want to drink, I want to dance --
398
936260
3000
משימות הן סימבוליות -- אני רוצה לשתות, רוצה לרקוד --
15:39
but the movement system has to contract 600 muscles
399
939260
2000
אבל מערכת התנועה צריכה לכווץ 600 שרירים
15:41
in a particular sequence.
400
941260
2000
בסדר מאוד מסויים.
15:43
And there's a big gap
401
943260
2000
וזה הפער הגדול
15:45
between the task and the movement system.
402
945260
2000
בין המשימה ומערכת התנועה.
15:47
So it could be bridged in infinitely many different ways.
403
947260
2000
ניתן לגשר על זה בהמון דרכים שונות.
15:49
So think about just a point to point movement.
404
949260
2000
תחשבו רק על תנועה מנקודה אחת לשניה.
15:51
I could choose these two paths
405
951260
2000
ניתן לבחור בשני מסלולים הללו
15:53
out of an infinite number of paths.
406
953260
2000
מתוך מספר אין-סופי של מסלולים.
15:55
Having chosen a particular path,
407
955260
2000
בהיבחר מסלול מסויים,
15:57
I can hold my hand on that path
408
957260
2000
אפשר להחזיק את היד מעל אותו מסלול
15:59
as infinitely many different joint configurations.
409
959260
2000
באופנים שונים כמספר מצבי המפרק השונים.
16:01
And I can hold my arm in a particular joint configuration
410
961260
2000
וניתן להחזיק את היד בתנוחת מפרק מסויימת,
16:03
either very stiff or very relaxed.
411
963260
2000
או במצב קשיח או במצב נרפה.
16:05
So I have a huge amount of choice to make.
412
965260
3000
כך שיש מספר עצום של בחירות לעשות.
16:08
Now it turns out, we are extremely stereotypical.
413
968260
3000
כעת מתברר שאנו מאוד צפויים.
16:11
We all move the same way pretty much.
414
971260
3000
כולנו נעים בקירוב באותו אופן.
16:14
And so it turns out we're so stereotypical,
415
974260
2000
מסתבר שאנו כה צפויים
16:16
our brains have got dedicated neural circuitry
416
976260
2000
שבמוחנו קיים מעגל עצבי ייעודי
16:18
to decode this stereotyping.
417
978260
2000
כדי לפענח את צופן ההתנהגות הצפויה הזו.
16:20
So if I take some dots
418
980260
2000
כך שאם לוקחים כמה נקודות
16:22
and set them in motion with biological motion,
419
982260
3000
ומניעים אותן בתנועה ביולוגית,
16:25
your brain's circuitry would understand instantly what's going on.
420
985260
3000
המעגל במוחנו יתפוס מייד מה קורה כאן.
16:28
Now this is a bunch of dots moving.
421
988260
2000
זו קבוצת נקודות נעה.
16:30
You will know what this person is doing,
422
990260
3000
ישר יודעים מה הדמות הזו עושה,
16:33
whether happy, sad, old, young -- a huge amount of information.
423
993260
3000
אם שמחה, עצובה, קשישה, צעירה -- כמות מידע אדירה.
16:36
If these dots were cars going on a racing circuit,
424
996260
2000
אם נקודות הללו היו מכוניות במסלול מרוצים,
16:38
you would have absolutely no idea what's going on.
425
998260
3000
לא היה לכם מושג מה קורה כאן.
16:41
So why is it
426
1001260
2000
אז מדוע
16:43
that we move the particular ways we do?
427
1003260
2000
אנו נעים במסלולים מסויימים?
16:45
Well let's think about what really happens.
428
1005260
2000
הבה נחשוב מה באמת מתרחש כאן.
16:47
Maybe we don't all quite move the same way.
429
1007260
3000
אולי אנו לא לגמרי נעים באותו מסלול.
16:50
Maybe there's variation in the population.
430
1010260
2000
אולי יש שוני באוכלוסיה.
16:52
And maybe those who move better than others
431
1012260
2000
ואולי כאלה הנעים יותר טוב מאחרים
16:54
have got more chance of getting their children into the next generation.
432
1014260
2000
הם בעלי סיכויים יותר טובים להוליד צאצאים.
16:56
So in evolutionary scales, movements get better.
433
1016260
3000
לכן בקנה-מידה אבולוציוני, התנועות משתפרות.
16:59
And perhaps in life, movements get better through learning.
434
1019260
3000
ואולי בחיים, התנועות משתפרות דרך למידה.
17:02
So what is it about a movement which is good or bad?
435
1022260
2000
אז מה טוב ומה רע בתנועה?
17:04
Imagine I want to intercept this ball.
436
1024260
2000
תחשבו שברצוני לתפוס כדור זה.
17:06
Here are two possible paths to that ball.
437
1026260
3000
הנה שני מסלולים אפשריים אל אותו כדור.
17:09
Well if I choose the left-hand path,
438
1029260
2000
אם אני בוחר את המסלול השמאלי,
17:11
I can work out the forces required
439
1031260
2000
אוכל לחשב את הכוחות הדרושים
17:13
in one of my muscles as a function of time.
440
1033260
2000
באחד משריריי כפונקציה של זמן.
17:15
But there's noise added to this.
441
1035260
2000
אבל נוסף לזה רעש.
17:17
So what I actually get, based on this lovely, smooth, desired force,
442
1037260
3000
לכן מה שאקבל, בהתבסס על הכוח החמוד, החלק והרצוי,
17:20
is a very noisy version.
443
1040260
2000
זו גירסה מאוד רועשת.
17:22
So if I pick the same command through many times,
444
1042260
3000
לכן אם אבחר באותה פקודה הרבה פעמים,
17:25
I will get a different noisy version each time, because noise changes each time.
445
1045260
3000
אקבל כל פעם גירסה רועשת אחרת, כי הרעש משתנה בכל פעם.
17:28
So what I can show you here
446
1048260
2000
לכן מה שאוכל להראות לכם כאן
17:30
is how the variability of the movement will evolve
447
1050260
2000
זה כיצד תתפתח ההשתנות של התנועה
17:32
if I choose that way.
448
1052260
2000
אם אני בוחר בדרך ההיא.
17:34
If I choose a different way of moving -- on the right for example --
449
1054260
3000
אם אבחר בדרך אחרת של תנועה -- הימנית לדוגמא --
17:37
then I'll have a different command, different noise,
450
1057260
2000
תהיה לי פקודה אחרת, רעש אחר.
17:39
playing through a noisy system, very complicated.
451
1059260
3000
מאוד מסובך לתפקד במערכת רועשת.
17:42
All we can be sure of is the variability will be different.
452
1062260
3000
ניתן רק להיות בטוח שההשתנות תהיה שונה.
17:45
If I move in this particular way,
453
1065260
2000
אם אנוע במסלול מסויים זה,
17:47
I end up with a smaller variability across many movements.
454
1067260
3000
אסיים בהשתנות יותר נמוכה לאחר תנועות רבות.
17:50
So if I have to choose between those two,
455
1070260
2000
לכן אם עליי לבחור בין שתי אלו,
17:52
I would choose the right one because it's less variable.
456
1072260
2000
אבחר את הימנית כי היא פחות משתנה.
17:54
And the fundamental idea
457
1074260
2000
הרעיון הבסיסי הוא
17:56
is you want to plan your movements
458
1076260
2000
שרוצים לתכנן את התנועות כך
17:58
so as to minimize the negative consequence of the noise.
459
1078260
3000
שההשפעה השלילית של הרעש תהיה מינימלית.
18:01
And one intuition to get
460
1081260
2000
תובנה אחת שמתקבלת היא
18:03
is actually the amount of noise or variability I show here
461
1083260
2000
שכמות הרעש או ההשתנות שאני מראה כאן
18:05
gets bigger as the force gets bigger.
462
1085260
2000
עולה ככל שהכוח מתגבר.
18:07
So you want to avoid big forces as one principle.
463
1087260
3000
לכן כדאי להימנע מכוחות גדולים בתור עיקרון ראשון.
18:10
So we've shown that using this,
464
1090260
2000
הראנו שבאמצעות זה,
18:12
we can explain a huge amount of data --
465
1092260
2000
ניתן להסביר כמות אדירה של נתונים --
18:14
that exactly people are going about their lives planning movements
466
1094260
3000
שאנשים מתנהלים בחייהם ומתכננים תנועות
18:17
so as to minimize negative consequences of noise.
467
1097260
3000
כך שההשפעות השליליות של רעש יהיו מינימליות.
18:20
So I hope I've convinced you the brain is there
468
1100260
2000
אני מקוה ששיכנעתי אתכם שהמוח קיים
18:22
and evolved to control movement.
469
1102260
2000
והתפתח כדי לשלוט בתנועה.
18:24
And it's an intellectual challenge to understand how we do that.
470
1104260
3000
וזה אתגר מחשבתי להבין כיצד אנו משיגים זאת.
18:27
But it's also relevant
471
1107260
2000
אבל זה גם נוגע
18:29
for disease and rehabilitation.
472
1109260
2000
למחלות ושיקום.
18:31
There are many diseases which effect movement.
473
1111260
3000
ישנן הרבה מחלות המשפיעות על תנועה.
18:34
And hopefully if we understand how we control movement,
474
1114260
2000
כולי תקוה שאם נבין כיצד שולטים בתנועה,
18:36
we can apply that to robotic technology.
475
1116260
2000
נוכל ליישם זאת על טכנולוגיה רובוטית.
18:38
And finally, I want to remind you,
476
1118260
2000
לבסוף, ברצוני להזכירכם, שכאשר אתם
18:40
when you see animals do what look like very simple tasks,
477
1120260
2000
רואים חיות העושות מה שנראה כמשימה פשוטה,
18:42
the actual complexity of what is going on inside their brain
478
1122260
2000
המורכבות בפועל של מה שמתרחש במוחן
18:44
is really quite dramatic.
479
1124260
2000
היא באמת מדהימה.
18:46
Thank you very much.
480
1126260
2000
תודה רבה לכם.
18:48
(Applause)
481
1128260
8000
(מחיאות כפיים)
18:56
Chris Anderson: Quick question for you, Dan.
482
1136260
2000
כריס אנדרסון: שאלה קצרה דן.
18:58
So you're a movement -- (DW: Chauvinist.) -- chauvinist.
483
1138260
4000
ובכן אתה קנאי לתנועה -- (ד.ו.: קנאי) .
19:02
Does that mean that you think that the other things we think our brains are about --
484
1142260
3000
האם זה אומר שלפי דעתך הדברים האחרים שאנו סבורים שהמוח קיים עבורם --
19:05
the dreaming, the yearning, the falling in love and all these things --
485
1145260
3000
החלומות, הגעגוע, ההתאהבות ודברים כאלה --
19:08
are a kind of side show, an accident?
486
1148260
3000
הם מין מופע צדדי, מקריות?
19:11
DW: No, no, actually I think they're all important
487
1151260
2000
ד.ו.: לא, לא, למעשה אני סבור שהם כולם חשובים
19:13
to drive the right movement behavior to get reproduction in the end.
488
1153260
3000
כדי לכוון להתנהגות תנועתית נכונה למען הרבייה בסוף.
19:16
So I think people who study sensation or memory
489
1156260
3000
לכן אני חושב שאנשים החוקרים תחושות או זיכרון
19:19
without realizing why you're laying down memories of childhood.
490
1159260
2000
מבלי לגלות מדוע אנו שוכחים זיכרונות ילדות.
19:21
The fact that we forget most of our childhood, for example,
491
1161260
3000
העובדה שאנו שוכחים את רוב ילדותינו, לדוגמא,
19:24
is probably fine, because it doesn't effect our movements later in life.
492
1164260
3000
זה כנראה בסדר גמור, כי זה לא משפיע על תנועותינו בשלב יותר מאוחר בחיים.
19:27
You only need to store things which are really going to effect movement.
493
1167260
3000
אנו רק זקוקים לאיחסון של מה שבאמת הולך להשפיע על תנועה.
19:30
CA: So you think that people thinking about the brain, and consciousness generally,
494
1170260
3000
כ.א.: אז אתה סבור שאנשים החושבים על המוח ותודעה,
19:33
could get real insight
495
1173260
2000
יכולים להגיע לתובנות ממשיות
19:35
by saying, where does movement play in this game?
496
1175260
2000
אם יחשבו איך התנועה ממלאת כאן תפקיד?
19:37
DW: So people have found out for example
497
1177260
2000
ד.ו.: כך אנשים גילו לדוגמא שחקר הראיה
19:39
that studying vision in the absence of realizing why you have vision
498
1179260
2000
ללא הבנת הסיבה לקיום הראיה
19:41
is a mistake.
499
1181260
2000
הוא שגיאה.
19:43
You have to study vision with the realization
500
1183260
2000
צריך לחקור ראיה בהקשר של
19:45
of how the movement system is going to use vision.
501
1185260
2000
כיצד מערכת התנועה משתמשת בראיה.
19:47
And it uses it very differently once you think about it that way.
502
1187260
2000
והיא משתמשת בה באופן מאוד שונה כאשר חושבים עליה בהקשר זה.
19:49
CA: Well that was quite fascinating. Thank you very much indeed.
503
1189260
3000
כ.א.: זה מרתק. תודה רבה לך.
19:52
(Applause)
504
1192260
2000
(מחיאות כפיים)
על אתר זה

אתר זה יציג בפניכם סרטוני YouTube המועילים ללימוד אנגלית. תוכלו לראות שיעורי אנגלית המועברים על ידי מורים מהשורה הראשונה מרחבי העולם. לחץ פעמיים על הכתוביות באנגלית המוצגות בכל דף וידאו כדי להפעיל את הסרטון משם. הכתוביות גוללות בסנכרון עם הפעלת הווידאו. אם יש לך הערות או בקשות, אנא צור איתנו קשר באמצעות טופס יצירת קשר זה.

https://forms.gle/WvT1wiN1qDtmnspy7