Daniel Wolpert: The real reason for brains

342,126 views ・ 2011-11-03

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: Mohamed Achraf BEN MOHAMED المدقّق: Anwar Dafa-Alla
00:15
I'm a neuroscientist.
0
15260
2000
أنا عالم أعصاب.
00:17
And in neuroscience,
1
17260
2000
وفي علم الأعصاب،
00:19
we have to deal with many difficult questions about the brain.
2
19260
3000
علينا أن نتعامل مع العديد من الأسئلة الصعبة حول الدماغ.
00:22
But I want to start with the easiest question
3
22260
2000
ولكن أريد أن أبدأ مع أسهل سؤال
00:24
and the question you really should have all asked yourselves at some point in your life,
4
24260
3000
وهو السؤال الذي ينبغي حقا عليكم جميعا أن تطرحوه على أنفسكم في مرحلة ما من حياتكم،
00:27
because it's a fundamental question
5
27260
2000
لأنّه سؤال أساسيّ
00:29
if we want to understand brain function.
6
29260
2000
إذا ما أردنا أن نفهم وظيفة الدماغ.
00:31
And that is, why do we and other animals
7
31260
2000
السؤال هو، لماذا نملك نحن وبعض الحيوانات الأخرى
00:33
have brains?
8
33260
2000
أدمغة؟
00:35
Not all species on our planet have brains,
9
35260
3000
ليست كل الأنواع على كوكبنا ذوات أدمغة،
00:38
so if we want to know what the brain is for,
10
38260
2000
لذا إذا أردنا أن نعرف دور الدماغ،
00:40
let's think about why we evolved one.
11
40260
2000
دعونا نفكر لماذا قمنا بتطويره.
00:42
Now you may reason that we have one
12
42260
2000
يمكن أن تعتقد أنّ السبب أننا نمتلك دماغا
00:44
to perceive the world or to think,
13
44260
2000
لإدراك العالم أو للتفكير،
00:46
and that's completely wrong.
14
46260
2000
وهذا خاطئ تماما.
00:48
If you think about this question for any length of time,
15
48260
3000
إذا قمت بالتفكير في هذه المسألة ولأي مدة من الزمن،
00:51
it's blindingly obvious why we have a brain.
16
51260
2000
فسيكون من الواضح والجلي لماذا لدينا دماغ.
00:53
We have a brain for one reason and one reason only,
17
53260
3000
لدينا دماغ لسبب واحد وسبب واحد فقط،
00:56
and that's to produce adaptable and complex movements.
18
56260
3000
وهو أداء حركات متكيفة ومعقدة.
00:59
There is no other reason to have a brain.
19
59260
2000
ليس هناك سبب آخر لكوننا نملك دماغ.
01:01
Think about it.
20
61260
2000
فكّروا في الامر.
01:03
Movement is the only way you have
21
63260
2000
الحركة هي السبيل الوحيد لديك
01:05
of affecting the world around you.
22
65260
2000
للتأثير في العالم من حولك.
01:07
Now that's not quite true. There's one other way, and that's through sweating.
23
67260
3000
هذا ليس صحيحا تماما. هناك إحدى الطرق الأخرى، وذلك عن طريق التعرّق.
01:10
But apart from that,
24
70260
2000
ولكن بصرف النظر عن ذلك،
01:12
everything else goes through contractions of muscles.
25
72260
2000
كل شيء عدا ذلك يمرّ عبر تقلّصات العضلات.
01:14
So think about communication --
26
74260
2000
فكروا في التواصل --
01:16
speech, gestures, writing, sign language --
27
76260
3000
الكلام والإيماءات والكتابة ولغة الإشارة --
01:19
they're all mediated through contractions of your muscles.
28
79260
3000
تتمّ جميعها من خلال تقلصات العضلات.
01:22
So it's really important to remember
29
82260
2000
لذا فمن المهم حقا أن نتذكر
01:24
that sensory, memory and cognitive processes are all important,
30
84260
4000
أن العمليات الحسية والذاكرة والإدراك كلها مهمة،
01:28
but they're only important
31
88260
2000
ولكنها مهمّة فقط
01:30
to either drive or suppress future movements.
32
90260
2000
لإنتاج أو لحذف حركات مستقبلية.
01:32
There can be no evolutionary advantage
33
92260
2000
يمكن أن يكون هناك أي ميزة تطورية
01:34
to laying down memories of childhood
34
94260
2000
لترك ذكريات الطفولة
01:36
or perceiving the color of a rose
35
96260
2000
أو إدراك لون زهرة
01:38
if it doesn't affect the way you're going to move later in life.
36
98260
3000
إذا كان ذلك لن يؤثر على طريقة حركتك في وقت لاحق في الحياة.
01:41
Now for those who don't believe this argument,
37
101260
2000
الآن بالنسبة لأولئك الذين لا يعتقدون في الحجة،
01:43
we have trees and grass on our planet without the brain,
38
103260
2000
لدينا الأشجار والأعشاب على كوكبنا دون أن يكون لها دماغ،
01:45
but the clinching evidence is this animal here --
39
105260
2000
لكن الدليل الحاسم هو هذا الحيوان هنا --
01:47
the humble sea squirt.
40
107260
2000
بخ البحر المتواضع.
01:49
Rudimentary animal, has a nervous system,
41
109260
3000
حيوان بدائيّ، لديه نظام عصبيّ،
01:52
swims around in the ocean in its juvenile life.
42
112260
2000
يقوم بالسّباحة حول المحيطات في أوّل حياته.
01:54
And at some point of its life,
43
114260
2000
وعند نقطة معينة من حياته،
01:56
it implants on a rock.
44
116260
2000
يلتصق بصخرة.
01:58
And the first thing it does in implanting on that rock, which it never leaves,
45
118260
3000
وأول شيء يفعله عند الإلتصاق بالصخرة، والتي لن يتركها أبدا،
02:01
is to digest its own brain and nervous system
46
121260
3000
هو هضم دماغه ونظامه العصبي
02:04
for food.
47
124260
2000
ليتغذى بهما.
02:06
So once you don't need to move,
48
126260
2000
لذلك متى انتفت الحاجة لديك للحركة،
02:08
you don't need the luxury of that brain.
49
128260
3000
انتفت معها الحاجة لاكتساب دماغ.
02:11
And this animal is often taken
50
131260
2000
وغالبا ما يتم أخذ هذا الحيوان
02:13
as an analogy to what happens at universities
51
133260
2000
باعتباره قياسا على ما يحدث في الجامعات
02:15
when professors get tenure,
52
135260
2000
عندما يتم تثبيت أساتذة في وضيفتهم،
02:17
but that's a different subject.
53
137260
2000
ولكن هذا موضوع مختلف.
02:19
(Applause)
54
139260
2000
(تصفيق)
02:21
So I am a movement chauvinist.
55
141260
3000
أنا شوفيني للحركة.
02:24
I believe movement is the most important function of the brain --
56
144260
2000
أعتقد أن الحركة هي أهم وظيفة للدماغ --
02:26
don't let anyone tell you that it's not true.
57
146260
2000
لا تدع احدا يقول لكم انّ هذا ليس صحيحا.
02:28
Now if movement is so important,
58
148260
2000
الآن إذا كانت الحركة مهمّة لهذا الحدّ،
02:30
how well are we doing
59
150260
2000
أين وصلنا في
02:32
understanding how the brain controls movement?
60
152260
2000
فهم كيفية تحكّم الدماغ في حركة؟
02:34
And the answer is we're doing extremely poorly; it's a very hard problem.
61
154260
2000
والجواب هو أنّ مردودنا سيئ للغاية، انها مشكلة صعبة للغاية.
02:36
But we can look at how well we're doing
62
156260
2000
ولكن يمكننا أن نرى الجانب الإيجابيّ
02:38
by thinking about how well we're doing building machines
63
158260
2000
من خلال التفكير في مردودنا في بناء الآلات
02:40
which can do what humans can do.
64
160260
2000
التي يمكنها أن تقوم بما يمكن أن يقوم به البشر.
02:42
Think about the game of chess.
65
162260
2000
فلنأخذ لعبة الشطرنج.
02:44
How well are we doing determining what piece to move where?
66
164260
3000
ماهي قدرتنا على تحديد أيّ قطعة علينا تحريكها و إلى أين؟
02:47
If you pit Garry Kasparov here, when he's not in jail,
67
167260
3000
إذا وضعت غاري كاسباروف هنا، إذا لم يكن في السجن،
02:50
against IBM's Deep Blue,
68
170260
2000
في مقابل حاسوب شركة آي بي إم "ديب بلو"،
02:52
well the answer is IBM's Deep Blue will occasionally win.
69
172260
3000
فإن الجواب هو أنّ حاسوب شركة آي بي إم "ديب بلو" سيفوز في بعض الأحيان.
02:55
And I think if IBM's Deep Blue played anyone in this room, it would win every time.
70
175260
3000
واعتقد انه اذا لعب حاسوب شركة آي بي إم "ديب بلو" ضدّ أيّ شخص في هذه الغرفة، فسيكون الفائز في كل مرة.
02:58
That problem is solved.
71
178260
2000
هذا المشكل تم حله.
03:00
What about the problem
72
180260
2000
ماذا عن مشكلة
03:02
of picking up a chess piece,
73
182260
2000
التقاط قطعة شطرنج،
03:04
dexterously manipulating it and putting it back down on the board?
74
184260
3000
وتحريكها بمهارة من ثم وضعها مجدّدا على الرّقعة؟
03:07
If you put a five year-old child's dexterity against the best robots of today,
75
187260
3000
إذا وضعت مهارة طفل ذو خمس سنوات ضد أفضل الروبوتات الحديثة،
03:10
the answer is simple:
76
190260
2000
فسيكون الجواب بسيطا :
03:12
the child wins easily.
77
192260
2000
سيفوز الطفل بسهولة.
03:14
There's no competition at all.
78
194260
2000
ليس هناك مجال للمنافسة على الإطلاق.
03:16
Now why is that top problem so easy
79
196260
2000
مالذي يجعل تلك المسألة في الأعلى على هذه الدرجة من السهوله
03:18
and the bottom problem so hard?
80
198260
2000
وتلك في الأسفل على هذه الدرجة من الصعوبة؟
03:20
One reason is a very smart five year-old
81
200260
2000
أحد الأسباب هو أنّه بإمكان ذي الخمس سنوات ذلك الذكيّ جدا
03:22
could tell you the algorithm for that top problem --
82
202260
2000
ان يمدّكم بخوارزمية تلك المسألة في الأعلى --
03:24
look at all possible moves to the end of the game
83
204260
2000
ابحث عن كل التحركات الممكنة حتّى نهاية اللعبة
03:26
and choose the one that makes you win.
84
206260
2000
ثم قم باختيار تلك التي تجعلك تفوز.
03:28
So it's a very simple algorithm.
85
208260
2000
لذلك فهذه تعتبر خوارزمية بسيطة جدا.
03:30
Now of course there are other moves,
86
210260
2000
بالطبع هناك تحركات أخرى،
03:32
but with vast computers we approximate
87
212260
2000
ولكن مع أجهزة الكمبيوتر كبيرة نقوم بعمليّة تقريبيّة
03:34
and come close to the optimal solution.
88
214260
2000
تجعلنا أقرب من الحل الأمثل.
03:36
When it comes to being dexterous,
89
216260
2000
عندما يتعلق الأمر بالبراعة،
03:38
it's not even clear what the algorithm is you have to solve to be dexterous.
90
218260
2000
ليس واضحا حتى ماهيّة الخوارزمية التي يجب حلّها لتكون بارعا.
03:40
And we'll see you have to both perceive and act on the world,
91
220260
2000
وسنرى انّه سيكون عليك على حد سواء إدراك العالم والتحرّك في نطاقه،
03:42
which has a lot of problems.
92
222260
2000
وهو ما يطرح الكثير من المشاكل.
03:44
But let me show you cutting-edge robotics.
93
224260
2000
ولكن اسمحوا لي أن أعرض عليكم أحدث الروبوتات.
03:46
Now a lot of robotics is very impressive,
94
226260
2000
لدينا حاليّا الكثير من الروبوتات الرائعة،
03:48
but manipulation robotics is really just in the dark ages.
95
228260
3000
لكن قدرة الروبوتات على تحريك الأشياء لا تزال في خطواتها الأولى.
03:51
So this is the end of a Ph.D. project
96
231260
2000
هذا ما انتهى إليه بحث دكتوراه
03:53
from one of the best robotics institutes.
97
233260
2000
من أحد أفضل المعاهد المختصّة في الروبوتات.
03:55
And the student has trained this robot
98
235260
2000
وقد قام الطالب بتدريب هذا الروبوت
03:57
to pour this water into a glass.
99
237260
2000
ليسكب هذه المياه في الكأس.
03:59
It's a hard problem because the water sloshes about, but it can do it.
100
239260
3000
انها مشكلة صعبة لان المياه يمكن أن تنسكب جانبا، لكنه يستطيع ان يفعل ذلك.
04:02
But it doesn't do it with anything like the agility of a human.
101
242260
3000
لكنه لا يمكنه أن يقوم بذلك مع أي درجة من خفة الحركة لدى الإنسان.
04:05
Now if you want this robot to do a different task,
102
245260
3000
الآن إذا ما أردت من هذا الروبوت أن يقوم بمهمة مختلفة،
04:08
that's another three-year Ph.D. program.
103
248260
3000
فهذا يمثّل برنامج لدكتوراه ثانية تدوم ثلاث سنوات.
04:11
There is no generalization at all
104
251260
2000
ليس هناك تعميم على الإطلاق
04:13
from one task to another in robotics.
105
253260
2000
من مهمة إلى أخرى في مجال الروبوتات.
04:15
Now we can compare this
106
255260
2000
الآن يمكننا مقارنة هذا
04:17
to cutting-edge human performance.
107
257260
2000
مع أداء بشري متطور.
04:19
So what I'm going to show you is Emily Fox
108
259260
2000
سأقدّم لكم (إيميلي فوكس)
04:21
winning the world record for cup stacking.
109
261260
3000
أثناء فوزها بالرقم القياسي العالمي لتكديس الكؤوس.
04:24
Now the Americans in the audience will know all about cup stacking.
110
264260
2000
الآن سوف يتعرّف الاميركيوون من بين الحضور على تكديس الكؤوس.
04:26
It's a high school sport
111
266260
2000
انها رياضة في المدرسة الثانوية
04:28
where you have 12 cups you have to stack and unstack
112
268260
2000
حيث لديك 12 كوبا عليك أن تجمّعهم في كومة ومن ثم تفرّقهم
04:30
against the clock in a prescribed order.
113
270260
2000
في أقصر وقت ممكن وفي ترتيب معيّن.
04:32
And this is her getting the world record in real time.
114
272260
3000
وها هي تحصل على الرقم القياسي العالمي في الوقت الحقيقي.
04:39
(Laughter)
115
279260
8000
(ضحك)
04:47
(Applause)
116
287260
5000
(تصفيق)
04:52
And she's pretty happy.
117
292260
2000
إنها سعيدة جدا.
04:54
We have no idea what is going on inside her brain when she does that,
118
294260
2000
ليس لدينا أي فكرة عما يجري داخل دماغها عندما تقوم بذلك،
04:56
and that's what we'd like to know.
119
296260
2000
وهذا ما نود ان نعرفه.
04:58
So in my group, what we try to do
120
298260
2000
في مجموعتي، ما نحاول القيام به
05:00
is reverse engineer how humans control movement.
121
300260
3000
هو اجراء هندسة عكسيّة لمعرفة كيفيّة سيطرة البشر على الحركة .
05:03
And it sounds like an easy problem.
122
303260
2000
وهذا يبدو مشكلة سهلة.
05:05
You send a command down, it causes muscles to contract.
123
305260
2000
تقوم بإرسال الأوامر، فينجرّ عن ذلك تقلّص للعضلات.
05:07
Your arm or body moves,
124
307260
2000
يتحرّك ذراعك أو جسمك،
05:09
and you get sensory feedback from vision, from skin, from muscles and so on.
125
309260
3000
وتحصل على ردود فعل حسية من خلال الرؤية، والجلد، والعضلات وهلم جرا.
05:12
The trouble is
126
312260
2000
المشكلة هي
05:14
these signals are not the beautiful signals you want them to be.
127
314260
2000
أنّ هذه الإشارات ليست بتلك الإشارات الجميلة التي تريدها.
05:16
So one thing that makes controlling movement difficult
128
316260
2000
لذلك إحدى الأشياء التي تجعل من الصعب السيطرة على الحركة
05:18
is, for example, sensory feedback is extremely noisy.
129
318260
3000
هي، على سبيل المثال، أن ردود الفعل الحسية مشوّشة للغاية.
05:21
Now by noise, I do not mean sound.
130
321260
3000
أنا هنا لا أعني بالتشويش الصوت.
05:24
We use it in the engineering and neuroscience sense
131
324260
2000
نستعملها في هندسة وعلم الأعصاب
05:26
meaning a random noise corrupting a signal.
132
326260
2000
بمعنى الضجيج العشوائي الذي يفسد الإشارة.
05:28
So the old days before digital radio when you were tuning in your radio
133
328260
3000
في الايام الخوالي قبل وجود الاذاعي الرقمي عندما كنت تضبط الراديو الخاص بك
05:31
and you heard "crrcckkk" on the station you wanted to hear,
134
331260
2000
وتسمع "كغغغك" على المحطة التي تودّ سماعها،
05:33
that was the noise.
135
333260
2000
ذلك كان تشويشا.
05:35
But more generally, this noise is something that corrupts the signal.
136
335260
3000
ولكن بشكل عام، هذا الضجيج هو شيء يفسد الإشارة.
05:38
So for example, if you put your hand under a table
137
338260
2000
فعلى سبيل المثال، إذا وضعت يدك تحت طاولة
05:40
and try to localize it with your other hand,
138
340260
2000
ثم حاولت تحديد مكانها باستعمال يدك الأخرى،
05:42
you can be off by several centimeters
139
342260
2000
يمكن أن تكون على بعد عدة سنتيمترات
05:44
due to the noise in sensory feedback.
140
344260
2000
بسبب التشويش في ردود الفعل الحسية.
05:46
Similarly, when you put motor output on movement output,
141
346260
2000
على نحو مماثل، عندما تجمع بين نتيجتي قوة دافعة وحركة
05:48
it's extremely noisy.
142
348260
2000
فإنه يحدث تشويشا كبيرا للغاية.
05:50
Forget about trying to hit the bull's eye in darts,
143
350260
2000
لا تحاولوا اصابة الهدف في لعبة رمي النبال،
05:52
just aim for the same spot over and over again.
144
352260
2000
حاولوا فقط استهداف نفس المكان مرارا وتكرارا.
05:54
You have a huge spread due to movement variability.
145
354260
3000
لديك مجال كبير بسبب تغيّر الحركة.
05:57
And more than that, the outside world, or task,
146
357260
2000
وأكثر من ذلك، فإن العالم الخارجي، أو المهمة،
05:59
is both ambiguous and variable.
147
359260
2000
على حدٍ سواء غامضة ومتغيرة.
06:01
The teapot could be full, it could be empty.
148
361260
2000
إبريق الشاي يمكن أن يكون ممتلئا، ويمكن أن يكون فارغا.
06:03
It changes over time.
149
363260
2000
يتغير مع مرور الوقت.
06:05
So we work in a whole sensory movement task soup of noise.
150
365260
4000
لذلك فنحن نعمل في مهمّةِ حركةٍ حِسيّةٍ ضمن كمٍّ كبير من التشويش.
06:09
Now this noise is so great
151
369260
2000
هذا التشويش هو من الضخامة بحيث
06:11
that society places a huge premium
152
371260
2000
يمنح المجتمع أهميّة كبيرة
06:13
on those of us who can reduce the consequences of noise.
153
373260
3000
لأولئك من بيننا الذين يمكنهم الحد من عواقب التشويش.
06:16
So if you're lucky enough to be able to knock a small white ball
154
376260
3000
لذا إذا كنت محظوظا بما فيه الكفاية لتكون قادر على رمي كرة بيضاء صغيرة
06:19
into a hole several hundred yards away using a long metal stick,
155
379260
3000
في حفرة تبعد عدة مئات من الياردات باستخدام عصا معدنية طويلة،
06:22
our society will be willing to reward you
156
382260
2000
فسوف يكون مجتمعنا على استعداد أن يكافئك
06:24
with hundreds of millions of dollars.
157
384260
3000
بمئات الملايين من الدولارات.
06:27
Now what I want to convince you of
158
387260
2000
الآن ما أريد أن أقنعكم به
06:29
is the brain also goes through a lot of effort
159
389260
2000
هو أنّ الدماغ يقدّم الكثير من الجهد
06:31
to reduce the negative consequences
160
391260
2000
للحد من الآثار السلبية
06:33
of this sort of noise and variability.
161
393260
2000
لهذا النوع من التشويش والتقلب.
06:35
And to do that, I'm going to tell you about a framework
162
395260
2000
وللقيام بذلك، سأخبركم بإطار
06:37
which is very popular in statistics and machine learning of the last 50 years
163
397260
3000
حظى بشعبية كبيرة في مجال الاحصاءات والتعلم الآلي في السنوات الخمسين الماضية
06:40
called Bayesian decision theory.
164
400260
2000
يدعى نظرية إتخاذ القرار البايزي.
06:42
And it's more recently a unifying way
165
402260
3000
واُعتُبِرَتْ في الآونة الأخيرة طريقة موحدة
06:45
to think about how the brain deals with uncertainty.
166
405260
3000
للتفكير في كيفية تعامل الدماغ مع حالة عدم اليقين.
06:48
And the fundamental idea is you want to make inferences and then take actions.
167
408260
3000
والفكرة الأساسية هي أنك تريد أن تأخذ الاستدلالات ومن ثم اتخاذ الإجراءات.
06:51
So let's think about the inference.
168
411260
2000
دعونا نفكر في الاستدلال.
06:53
You want to generate beliefs about the world.
169
413260
2000
تريد توليد المعتقدات حول العالم المحيط.
06:55
So what are beliefs?
170
415260
2000
فما هي المعتقدات؟
06:57
Beliefs could be: where are my arms in space?
171
417260
2000
يمكن أن تكون المعتقدات : أين ذراعيَّ في الفضاء؟
06:59
Am I looking at a cat or a fox?
172
419260
2000
هل أنا أنظر إلى قط أم إلى ثعلب؟
07:01
But we're going to represent beliefs with probabilities.
173
421260
3000
لكننا سنقوم بتمثيل المعتقدات باستعمال الاحتمالات.
07:04
So we're going to represent a belief
174
424260
2000
لذلك سنقوم بتمثيل معتقد
07:06
with a number between zero and one --
175
426260
2000
برقم بين الصفر والواحد --
07:08
zero meaning I don't believe it at all, one means I'm absolutely certain.
176
428260
3000
الصفر يعني لا أعتقد ذلك على الإطلاق، والواحد يعني أنّي واثق تماما.
07:11
And numbers in between give you the gray levels of uncertainty.
177
431260
3000
والأرقام بينهما تعطيك المستويات الرماديّة من عدم اليقين.
07:14
And the key idea to Bayesian inference
178
434260
2000
والفكرة الأساسية للاستدلال البايزي
07:16
is you have two sources of information
179
436260
2000
وهو أنّ لديك مصدرين اثنين للمعلومات
07:18
from which to make your inference.
180
438260
2000
تقوم بالاستناد عليهما بوضع استدلالك الخاص.
07:20
You have data,
181
440260
2000
لديك بيانات،
07:22
and data in neuroscience is sensory input.
182
442260
2000
والبيانات في علم الأعصاب تمثّل المعلومات الحسية.
07:24
So I have sensory input, which I can take in to make beliefs.
183
444260
3000
إذن لديّ معلومات حسية، يمكنني أن أجعل منها معتقدات.
07:27
But there's another source of information, and that's effectively prior knowledge.
184
447260
3000
ولكن هناك مصدر آخر للمعلومات، وهو ما يمثّل في الواقع المعارف المسبقة.
07:30
You accumulate knowledge throughout your life in memories.
185
450260
3000
أنتم تراكمون المعرفة طوال حياتكم في ذكراتكم.
07:33
And the point about Bayesian decision theory
186
453260
2000
ومفهوم نظرية إتخاذ القرار البايزي
07:35
is it gives you the mathematics
187
455260
2000
أنها تمنحك عن طريق الرياضيّات
07:37
of the optimal way to combine
188
457260
2000
السبيل اللأمثل لدمج
07:39
your prior knowledge with your sensory evidence
189
459260
2000
معارفك المسبقة مع أدلّتك الحسية
07:41
to generate new beliefs.
190
461260
2000
لتوليد معتقدات جديدة.
07:43
And I've put the formula up there.
191
463260
2000
لقد قمت بوضع القاعدة هناك.
07:45
I'm not going to explain what that formula is, but it's very beautiful.
192
465260
2000
أنا لن أقوم بشرح ما هيّة هذه الصيغة، لكنها غاية في جميلة.
07:47
And it has real beauty and real explanatory power.
193
467260
3000
ولديها جمال حقيقي وقوة تفسيرية حقيقية.
07:50
And what it really says, and what you want to estimate,
194
470260
2000
وما تفيدنا به في الوقع، وما تود أن تقوم بتقديره،
07:52
is the probability of different beliefs
195
472260
2000
هو احتمال معتقدات مختلفة
07:54
given your sensory input.
196
474260
2000
مع الأخذ بعين الإعتبارالمعلومة الحسيّة التي لديك.
07:56
So let me give you an intuitive example.
197
476260
2000
لذلك اسمحوا لي أن أقدم لكم مثالا بديهيّا.
07:58
Imagine you're learning to play tennis
198
478260
3000
تخيل أنك تتعلّم لعب التنس
08:01
and you want to decide where the ball is going to bounce
199
481260
2000
وتريد أن تقرر مكان ارتداد الكرة
08:03
as it comes over the net towards you.
200
483260
2000
بعد تجاوزها الشبكة في اتجاهك.
08:05
There are two sources of information
201
485260
2000
هناك مصدران للمعلومات
08:07
Bayes' rule tells you.
202
487260
2000
بالإستناد إلى قاعدة (بايز).
08:09
There's sensory evidence -- you can use visual information auditory information,
203
489260
3000
هناك أدلة حسية -- يمكنك استخدام المعلومات السمعية المعلومات البصرية،
08:12
and that might tell you it's going to land in that red spot.
204
492260
3000
وهو ما يمكن أن يسمح لكم باعتماد تلك البقعة الحمراء.
08:15
But you know that your senses are not perfect,
205
495260
3000
لكنك تعلم أن حواسك ليست مثالية،
08:18
and therefore there's some variability of where it's going to land
206
498260
2000
وبالتالي هناك بعض التباين من حيث مكان سقوطها على الأرض
08:20
shown by that cloud of red,
207
500260
2000
يظهر من خلال تلك السحابة الحمراء،
08:22
representing numbers between 0.5 and maybe 0.1.
208
502260
3000
تمثل أرقاما ما بين 0.5 و 0.1 ربما.
08:26
That information is available in the current shot,
209
506260
2000
هذه المعلومات متوفرة بالنسبة للرمية الحالية،
08:28
but there's another source of information
210
508260
2000
ولكن هناك مصدر آخر للمعلومات
08:30
not available on the current shot,
211
510260
2000
غير متوفر بالنسبة للرمية الحالية،
08:32
but only available by repeated experience in the game of tennis,
212
512260
3000
ولكنها متاحة فقط من خلال التجربة المتكررة في لعبة التنس،
08:35
and that's that the ball doesn't bounce
213
515260
2000
وهي ان الكرة لا ترتد
08:37
with equal probability over the court during the match.
214
517260
2000
مع احتمالات متساوية على كامل الملعب خلال المباراة.
08:39
If you're playing against a very good opponent,
215
519260
2000
إذا كنت تلعب ضد منافس جيد للغاية،
08:41
they may distribute it in that green area,
216
521260
2000
فإنه قد يوزّعها نحو تلك المنطقة الخضراء،
08:43
which is the prior distribution,
217
523260
2000
وهو ما يمثّل التوزيع الأمثل،
08:45
making it hard for you to return.
218
525260
2000
مما يجعل من الصعب عليك أن تصدّها.
08:47
Now both these sources of information carry important information.
219
527260
2000
كِلا هذه المصادر من المعلومات تحمل معلومات هامة.
08:49
And what Bayes' rule says
220
529260
2000
ما تفيدنا به قاعدة (بايز)
08:51
is that I should multiply the numbers on the red by the numbers on the green
221
531260
3000
هو أنه عليّ ضرب أرقام المنطقة الحمراء في أرقام المنطقة الخضراء
08:54
to get the numbers of the yellow, which have the ellipses,
222
534260
3000
للحصول على أرقام المنطقة الصفراء، ذات الأشكال البيضاوية،
08:57
and that's my belief.
223
537260
2000
وهذا ما يمثّل اعتقادي.
08:59
So it's the optimal way of combining information.
224
539260
3000
هذه هي الطريقة المثلى لدمج المعلومات.
09:02
Now I wouldn't tell you all this if it wasn't that a few years ago,
225
542260
2000
لم أكن لأخبركم بهذا لو لم نكن أثبتنا منذ بضع سنوات،
09:04
we showed this is exactly what people do
226
544260
2000
أنّ هذا هو بالضبط ما يفعله الناس
09:06
when they learn new movement skills.
227
546260
2000
عند تعلّم مهارات حركة جديدة.
09:08
And what it means
228
548260
2000
وهذا ما يعني
09:10
is we really are Bayesian inference machines.
229
550260
2000
وأنّنا نمثّل حقّا آلات استدلال بايزيّ.
09:12
As we go around, we learn about statistics of the world and lay that down,
230
552260
4000
وكلّما مضينا قدما، تعرّفنا على الإحصاءات في العالم وقمنا بأخذ الدّروس،
09:16
but we also learn
231
556260
2000
ولكن تعلّمنا أيضا
09:18
about how noisy our own sensory apparatus is,
232
558260
2000
كم هي صاخبة أجهزتنا الحسية،
09:20
and then combine those
233
560260
2000
ثم قمنا بجمع كلّ ذلك
09:22
in a real Bayesian way.
234
562260
2000
بطريقة بايزيّة حقيقية.
09:24
Now a key part to the Bayesian is this part of the formula.
235
564260
3000
الجزء الأساسيّ في بايز هو هذا الجزء من القاعدة.
09:27
And what this part really says
236
567260
2000
وما يخبرنا به في الواقع هذا الجزء
09:29
is I have to predict the probability
237
569260
2000
هو أنّه عليّ توقع احتمال
09:31
of different sensory feedbacks
238
571260
2000
تقييمات حسية مختلفة
09:33
given my beliefs.
239
573260
2000
مع الأخذ بعين الإعتبار معتقداتي.
09:35
So that really means I have to make predictions of the future.
240
575260
3000
وهذا يعني في الواقع أنّه عليّ وضع توقعات للمستقبل.
09:38
And I want to convince you the brain does make predictions
241
578260
2000
وأريد أن أقنعكم بأنّ الدماغ يقوم بتـنبؤات
09:40
of the sensory feedback it's going to get.
242
580260
2000
لردود الفعل الحسية التي سوف يحصل عليها.
09:42
And moreover, it profoundly changes your perceptions
243
582260
2000
وعلاوة على ذلك، فإنه يغير بعمق ادراكك
09:44
by what you do.
244
584260
2000
من خلال ما تقوم به.
09:46
And to do that, I'll tell you
245
586260
2000
لتحقيق ذلك، سوف أخبركم
09:48
about how the brain deals with sensory input.
246
588260
2000
عن كيفيّة تعامل الدماغ مع المعلومات الحسية.
09:50
So you send a command out,
247
590260
3000
تقوم بإرسال أمر بها،
09:53
you get sensory feedback back,
248
593260
2000
فتحصل على ردود الفعل الحسية،
09:55
and that transformation is governed
249
595260
2000
ويخضع هذا التحول
09:57
by the physics of your body and your sensory apparatus.
250
597260
3000
إلى فيزياء جسمك ولأجهزتك الحسية.
10:00
But you can imagine looking inside the brain.
251
600260
2000
ولكن يمكنك أن تتخيل أنّك تنظر داخل الدماغ.
10:02
And here's inside the brain.
252
602260
2000
هذا هو داخل الدماغ.
10:04
You might have a little predictor, a neural simulator,
253
604260
2000
قد يكون لديك جهاز توقع صغير، وجهاز محاكاة عصبية،
10:06
of the physics of your body and your senses.
254
606260
2000
لفيزياء جسمك وحواسك.
10:08
So as you send a movement command down,
255
608260
2000
بحيث مع قيامك بإرسال أمر الحركة إلى الأسفل،
10:10
you tap a copy of that off
256
610260
2000
تقوم بأخذ نسخة منه
10:12
and run it into your neural simulator
257
612260
2000
وتقوم بتشغيله في جهاز المحاكاة العصبيّ خاصّتك
10:14
to anticipate the sensory consequences of your actions.
258
614260
4000
لاستباق النتائج الحسية لحركاتك.
10:18
So as I shake this ketchup bottle,
259
618260
2000
ولذا فمع قيامي بهز زجاجة الكاتشب هذه،
10:20
I get some true sensory feedback as the function of time in the bottom row.
260
620260
3000
أحصل على بعض ردود الفعل الحسية الحقيقيّة بمرور الوقت في السّطر السفلي.
10:23
And if I've got a good predictor, it predicts the same thing.
261
623260
3000
وإذا كنت أملك جهاز توقع جيد، فإنه سيتوقع نفس الشيء.
10:26
Well why would I bother doing that?
262
626260
2000
ولكن لماذا أتحمّل عناء القيام بذلك؟
10:28
I'm going to get the same feedback anyway.
263
628260
2000
فأنا سأحصل على ردود الفعل نفسها على أي حال.
10:30
Well there's good reasons.
264
630260
2000
هناك أسباب وجيهة.
10:32
Imagine, as I shake the ketchup bottle,
265
632260
2000
تخيل، بينما أنا بصدد هزّ زجاجة الكاتشب،
10:34
someone very kindly comes up to me and taps it on the back for me.
266
634260
3000
يأتي شخص ويقوم بكلّ لطف بمساعدتي بضرب الزجاجة من فوق.
10:37
Now I get an extra source of sensory information
267
637260
2000
الآن حصلت على مصدر اضافي للمعلومات الحسية
10:39
due to that external act.
268
639260
2000
نتيجة لذلك الفعل الخارجي.
10:41
So I get two sources.
269
641260
2000
لذلك حصلت على مصادرين اثنين.
10:43
I get you tapping on it, and I get me shaking it,
270
643260
3000
أنت قمت بضربه من فوق، وأنا قمت بهزّه،
10:46
but from my senses' point of view,
271
646260
2000
ولكن من وجهة نظر حواسّي،
10:48
that is combined together into one source of information.
272
648260
3000
يقترن هذان معا في مصدر واحد للمعلومات.
10:51
Now there's good reason to believe
273
651260
2000
الآن هناك سبب وجيه للاعتقاد
10:53
that you would want to be able to distinguish external events from internal events.
274
653260
3000
إنذك تريد أن تكون قادرا على التمييز بين الأحداث الخارجية والأحداث الداخلية.
10:56
Because external events are actually much more behaviorally relevant
275
656260
3000
لأنّ الأحداث الخارجية هي في الواقع أكثر صلة بالموضوع سلوكيا
10:59
than feeling everything that's going on inside my body.
276
659260
3000
من الشعور بأن كل شيء يجري داخل جسدي.
11:02
So one way to reconstruct that
277
662260
2000
إحدى طرق إعادة بناء هذا
11:04
is to compare the prediction --
278
664260
2000
هو مقارنة التنبؤ --
11:06
which is only based on your movement commands --
279
666260
2000
والمستند فقط على أوامرك للحركة --
11:08
with the reality.
280
668260
2000
مع الواقع.
11:10
Any discrepancy should hopefully be external.
281
670260
3000
ونتمنّى أن يكون أي تباين مصدره خارجيّ.
11:13
So as I go around the world,
282
673260
2000
بينما أجوب العالم،
11:15
I'm making predictions of what I should get, subtracting them off.
283
675260
3000
فأنا أقوم بتنبؤات لما ينبغي أن يحصل لي، ثم أقوم بطرحها.
11:18
Everything left over is external to me.
284
678260
2000
كل ما يبقى بعد ذلك هو خارجي بالنسبة لي.
11:20
What evidence is there for this?
285
680260
2000
ما هو الدليل على ذلك؟
11:22
Well there's one very clear example
286
682260
2000
هناك مثال واحد واضح جدا
11:24
where a sensation generated by myself feels very different
287
684260
2000
حيث يكون احساس صادر منّي مختلفا جدا
11:26
then if generated by another person.
288
686260
2000
عن آخر صادر عن شخص آخر.
11:28
And so we decided the most obvious place to start
289
688260
2000
ولذا قررنا أنّ المثال الأكثر وضوحا لنبدء منه
11:30
was with tickling.
290
690260
2000
كان الدغدغة.
11:32
It's been known for a long time, you can't tickle yourself
291
692260
2000
من المعروف منذ وقت طويل، أنّه لا يمكنك دغدغة نفسك
11:34
as well as other people can.
292
694260
2000
وكما يمكن للأشخاص آخرين أن يفعلوا.
11:36
But it hasn't really been shown, it's because you have a neural simulator,
293
696260
3000
ولكن لم يكن قد ثبت حقا، لأنه لديك جهاز محاكاة عصبيّ،
11:39
simulating your own body
294
699260
2000
يقوم بمحاكاة جسمك
11:41
and subtracting off that sense.
295
701260
2000
ثمّ يقوم بطرح ذك الإحساس.
11:43
So we can bring the experiments of the 21st century
296
703260
3000
يمكن جلب خبرات القرن الواحد والعشرين
11:46
by applying robotic technologies to this problem.
297
706260
3000
من خلال تطبيق تقنيات الروبوت على هذه المشكلة.
11:49
And in effect, what we have is some sort of stick in one hand attached to a robot,
298
709260
3000
وفي الواقع، لدينا عصا في احدى اليدين مربوطة إلى روبوت،
11:52
and they're going to move that back and forward.
299
712260
2000
وسيقومون بتحريكها إلى الخلف وإلى الأمام.
11:54
And then we're going to track that with a computer
300
714260
2000
ومن ثم سنقوم بتتبّعها عن طريق جهاز كمبيوتر
11:56
and use it to control another robot,
301
716260
2000
وسنستخدمها للتحكّم في روبوت آخر،
11:58
which is going to tickle their palm with another stick.
302
718260
2000
سيقوم بدغدغة كفّ يده باستعمال عصا أخرى.
12:00
And then we're going to ask them to rate a bunch of things
303
720260
2000
ثم سنطلب منهم يقيّموا مجموعة من الأشياء
12:02
including ticklishness.
304
722260
2000
بما في ذلك الدغدغة.
12:04
I'll show you just one part of our study.
305
724260
2000
سأكتفي بأن أعرض عليكم جزءا واحدا من دراستنا.
12:06
And here I've taken away the robots,
306
726260
2000
قمت هنا بأخذ الروبوتات بعيدا،
12:08
but basically people move with their right arm sinusoidally back and forward.
307
728260
3000
ولكن يقوم الناس أساسا بتحريك ذراعهم إلى الخلف و إلى الأمام بطريقة جيـبـية.
12:11
And we replay that to the other hand with a time delay.
308
731260
3000
ونقوم بتكرار ذلك مع اليد الأخرى مع تأخير في الوقت.
12:14
Either no time delay,
309
734260
2000
أو بدون أيّ تأخير،
12:16
in which case light would just tickle your palm,
310
736260
2000
في تلك الحالة يقوم الضوء بدغدغة كفّ يدك،
12:18
or with a time delay of two-tenths of three-tenths of a second.
311
738260
4000
أو مع تأخير في الوقت لعشرين أو ثلاثة أعشار من الثانية.
12:22
So the important point here
312
742260
2000
وبالتالي فإن الأمر المهم هنا
12:24
is the right hand always does the same things -- sinusoidal movement.
313
744260
3000
هو أنّ اليد اليمنى تقوم دائما بنفس الأشياء -- الحركة الجيبية.
12:27
The left hand always is the same and puts sinusoidal tickle.
314
747260
3000
كما تقوم اليد اليسرى بالشيء نفسه دائما وتقوم بدغدغة جيبية.
12:30
All we're playing with is a tempo causality.
315
750260
2000
كل ما نقوم به هو إيقاع سببيّ.
12:32
And as we go from naught to 0.1 second,
316
752260
2000
وبانطلاقنا من صفر إلى 0.1 ثانية،
12:34
it becomes more ticklish.
317
754260
2000
يصبح أكثر دغدغة.
12:36
As you go from 0.1 to 0.2,
318
756260
2000
و بذهابنا من 0,1 إلى 0,2،
12:38
it becomes more ticklish at the end.
319
758260
2000
يصبح أكثر دغدغة في النهاية.
12:40
And by 0.2 of a second,
320
760260
2000
وعند بلوغنا 0.2 من الثانية،
12:42
it's equivalently ticklish
321
762260
2000
فانها تدغدغ بنفس القدر
12:44
to the robot that just tickled you without you doing anything.
322
764260
2000
الذي يقوم روبوت بدغدغتك من دون أن تقوم بأي شيء.
12:46
So whatever is responsible for this cancellation
323
766260
2000
أيا كان المسؤول عن هذا الإلغاء
12:48
is extremely tightly coupled with tempo causality.
324
768260
3000
فالأمر مقرون بإحكام مع الإيقاع السببيّ.
12:51
And based on this illustration, we really convinced ourselves in the field
325
771260
3000
وبناء على هذا التوضيح، فنحن مقتنعون تماما أنّنا في مجال
12:54
that the brain's making precise predictions
326
774260
2000
أن الدماغ يقوم بتنبؤات دقيقة
12:56
and subtracting them off from the sensations.
327
776260
3000
ويقوم بطرحها من الأحاسيس.
12:59
Now I have to admit, these are the worst studies my lab has ever run.
328
779260
3000
لا بد لي من الاعتراف الآن، أنّ هذه هي أسوأ الدراسات التي قام بها مخبري على الإطلاق.
13:02
Because the tickle sensation on the palm comes and goes,
329
782260
2000
لأن الإحساس بالدغدغة يأتي ويذهب،
13:04
you need large numbers of subjects
330
784260
2000
تحتاج إلى أعداد كبيرة من المتطوّعين
13:06
with these stars making them significant.
331
786260
2000
مع هذه النجوم التي تجعلها ذات معنى.
13:08
So we were looking for a much more objective way
332
788260
2000
لذا كنا نبحث عن وسيلة أكثر موضوعية
13:10
to assess this phenomena.
333
790260
2000
لتقييم هذه الظواهر.
13:12
And in the intervening years I had two daughters.
334
792260
2000
وفي السنوات التي تلت كان لدي ابنتان.
13:14
And one thing you notice about children in backseats of cars on long journeys,
335
794260
3000
ستلاحظ أمرا واحد عن الأطفال عندما يجلسون في المقاعد الخلفية للسيارة في الرحلات الطويلة،
13:17
they get into fights --
336
797260
2000
أنّهم يقومون بمعارك --
13:19
which started with one of them doing something to the other, the other retaliating.
337
799260
3000
تبدأ بقيام احد منهم بفعل شيئ للآخر، يردّ الآخر الفعل.
13:22
It quickly escalates.
338
802260
2000
فيتصاعد الأمر بسرعة.
13:24
And children tend to get into fights which escalate in terms of force.
339
804260
3000
يميل الأطفال إلى الدخول في المعارك التي تتصاعد من حيث القوة.
13:27
Now when I screamed at my children to stop,
340
807260
2000
الآن عندما أصرخ في وجه أطفالي ليتوقفوا،
13:29
sometimes they would both say to me
341
809260
2000
في بعض الأحيان يجيبني الإثنان
13:31
the other person hit them harder.
342
811260
3000
بأنّ الآخر ضربه بشدّة.
13:34
Now I happen to know my children don't lie,
343
814260
2000
أنا على يقين أنّ أولادي لا يكذبون،
13:36
so I thought, as a neuroscientist,
344
816260
2000
حتى ظننت، بصفتي عالم أعصاب،
13:38
it was important how I could explain
345
818260
2000
أنّه من المهم كيف يمكنني أن أفسّر
13:40
how they were telling inconsistent truths.
346
820260
2000
كيف كانوا يدلون بحقائق غير متناسقة.
13:42
And we hypothesize based on the tickling study
347
822260
2000
ونحن نفترض استنادا إلى دراسة الدغدغة
13:44
that when one child hits another,
348
824260
2000
أنه عندما يضرب طفل الآخر،
13:46
they generate the movement command.
349
826260
2000
فهم يولّدون أمر الحركة.
13:48
They predict the sensory consequences and subtract it off.
350
828260
3000
ويتوقعون النتائج حسية ويقومون بطرحها.
13:51
So they actually think they've hit the person less hard than they have --
351
831260
2000
لذلك فانهم يعتقدون فعلا انهم قاموا بضرب الشخص أقل حدّة مما كانت يجب عليهم --
13:53
rather like the tickling.
352
833260
2000
وليس مثل الدغدغة.
13:55
Whereas the passive recipient
353
835260
2000
في حين أن المتلقي السلبي
13:57
doesn't make the prediction, feels the full blow.
354
837260
2000
لا يقوم بعمليّة التنبؤ، ويشعر بالضربة كاملة.
13:59
So if they retaliate with the same force,
355
839260
2000
لذا إذا قاموا بردّ الفعل بنفس القوة،
14:01
the first person will think it's been escalated.
356
841260
2000
سيعتقد الشخص الأوّل بأنّ الأمر قد تصاعد.
14:03
So we decided to test this in the lab.
357
843260
2000
لذلك قررنا اختبار هذا في المختبر.
14:05
(Laughter)
358
845260
3000
(ضحك)
14:08
Now we don't work with children, we don't work with hitting,
359
848260
2000
نحن الآن لا نتعامل مع الأطفال، ونحن لا نتعامل مع الضرب،
14:10
but the concept is identical.
360
850260
2000
لكن المفهوم هو ذاته.
14:12
We bring in two adults. We tell them they're going to play a game.
361
852260
3000
نأتي بشخصين بالغين. و نخبرهم أنّهم سيلعبون مباراة.
14:15
And so here's player one and player two sitting opposite to each other.
362
855260
2000
ولدينا أحد اللاعبين وهنا الثاني جالسين قبالة بعضهما البعض.
14:17
And the game is very simple.
363
857260
2000
واللعبة بسيطة جدا.
14:19
We started with a motor
364
859260
2000
بدأنا مع محرك
14:21
with a little lever, a little force transfuser.
365
861260
2000
مع رافعة صغيرة، وناقل قوة صغير.
14:23
And we use this motor to apply force down to player one's fingers
366
863260
2000
ونستخدم هذا المحرك لتطبيق قوّة على أحد أصابع اللاعب
14:25
for three seconds and then it stops.
367
865260
3000
لمدة ثلاث ثوان ومن ثم فإنه يتوقف.
14:28
And that player's been told, remember the experience of that force
368
868260
3000
قد تم الطلب من ذلك اللاعب، أن يتذكّر تجربة تلك القوة
14:31
and use your other finger
369
871260
2000
وأن يستخدم إصبعه الآخر
14:33
to apply the same force
370
873260
2000
لتطبيق نفس القوة
14:35
down to the other subject's finger through a force transfuser -- and they do that.
371
875260
3000
على إصبع الشّخص الآخر من خلال ناقل القوة -- وذلك ما يقومون به.
14:38
And player two's been told, remember the experience of that force.
372
878260
3000
قد تم الطلب من اللاعب الثاني، أن يتذكّر تجربة تلك القوة
14:41
Use your other hand to apply the force back down.
373
881260
3000
واستخدم يدك الأخرى في تطبيق القوة.
14:44
And so they take it in turns
374
884260
2000
ثمّ يتناوبون على القيام
14:46
to apply the force they've just experienced back and forward.
375
886260
2000
لتطبيق القوة التي قاموا بتجربتها جيئة و ذهابا.
14:48
But critically,
376
888260
2000
ولكن الأهم من ذلك،
14:50
they're briefed about the rules of the game in separate rooms.
377
890260
3000
تم إطلاعهم على قواعد اللعبة في غرف منفصلة.
14:53
So they don't know the rules the other person's playing by.
378
893260
2000
حتى لا يعرف كلّ منهما القواعد التي يتّبعها الشخص الآخر في اللعب.
14:55
And what we've measured
379
895260
2000
وما قمنا بقياسه
14:57
is the force as a function of terms.
380
897260
2000
كانت القوة بوصفها تابعا من الشروط.
14:59
And if we look at what we start with,
381
899260
2000
وإذا نظرنا إلى ما بدأنا به،
15:01
a quarter of a Newton there, a number of turns,
382
901260
2000
رُبْع نيوتن هناك، عدد الأدوار،
15:03
perfect would be that red line.
383
903260
2000
ذلك الخط الأحمر سيكون مثاليّا.
15:05
And what we see in all pairs of subjects is this --
384
905260
3000
وما نلاحظه مع جميع أزواج اللاعبين هو هذا --
15:08
a 70 percent escalation in force
385
908260
2000
تصعيد بنسبة 70 في المئة في القوة
15:10
on each go.
386
910260
2000
على كل شوط.
15:12
So it really suggests, when you're doing this --
387
912260
2000
هذا يبيّن حقا، إذا ما فعلتم هذا --
15:14
based on this study and others we've done --
388
914260
2000
استنادا إلى هذه الدراسة وغيرها مما قمنا به --
15:16
that the brain is canceling the sensory consequences
389
916260
2000
أن الدماغ قام بإلغاء النتائج الحسية
15:18
and underestimating the force it's producing.
390
918260
2000
والتقليل من شأن القوة المنتجة.
15:20
So it re-shows the brain makes predictions
391
920260
2000
لذلك فهذا يظهر من جديد انّ الدماغ يقوم بالتنبؤات
15:22
and fundamentally changes the precepts.
392
922260
3000
ويحدث تغيرات جوهرية في الادراك.
15:25
So we've made inferences, we've done predictions,
393
925260
3000
لذلك فقد وضعنا استدلالات، وقمنا بالتنبؤات،
15:28
now we have to generate actions.
394
928260
2000
والآن علينا توليد الحركة.
15:30
And what Bayes' rule says is, given my beliefs,
395
930260
2000
وما يبيّنه قانون (بايز) هو، بالنظر الى معتقداتي،
15:32
the action should in some sense be optimal.
396
932260
2000
ينبغي أن تكون الحركة بشكل ما مثاليّة.
15:34
But we've got a problem.
397
934260
2000
ولكن لدينا مشكلة.
15:36
Tasks are symbolic -- I want to drink, I want to dance --
398
936260
3000
المهام هي رمزية -- أريد أن أشرب، أريد أن الرقص --
15:39
but the movement system has to contract 600 muscles
399
939260
2000
ولكن على نظام الحركة تحريك 600 عضلة
15:41
in a particular sequence.
400
941260
2000
في تسلسل معين.
15:43
And there's a big gap
401
943260
2000
وهناك فجوة كبيرة
15:45
between the task and the movement system.
402
945260
2000
بين المهام ونظام الحركة.
15:47
So it could be bridged in infinitely many different ways.
403
947260
2000
بحيث يمكن أن يتمّ ردم الهوّة بعدد لانهائي من الطرق المختلفة.
15:49
So think about just a point to point movement.
404
949260
2000
فكّروا فقط في الحركة من نقطة إلى نقطة.
15:51
I could choose these two paths
405
951260
2000
يمكنني اختيار هذه المسارين
15:53
out of an infinite number of paths.
406
953260
2000
من بين عدد لانهائي من المسارات.
15:55
Having chosen a particular path,
407
955260
2000
بعد اختيار مسار معين،
15:57
I can hold my hand on that path
408
957260
2000
يمكن أن أضع يدي على هذا المسار
15:59
as infinitely many different joint configurations.
409
959260
2000
في عدد لا متناهي من التكوينات المختلفة.
16:01
And I can hold my arm in a particular joint configuration
410
961260
2000
ويمكنني تثبيت ذراعي ضمن ترتيب خاص
16:03
either very stiff or very relaxed.
411
963260
2000
إما مقبوضة جدا أو مرتخية جدا.
16:05
So I have a huge amount of choice to make.
412
965260
3000
لذا فإن لدي مجموعة كبيرة من الخيارات لعمل ذلك.
16:08
Now it turns out, we are extremely stereotypical.
413
968260
3000
اتضح الآن، أنّنا نمطيّون للغاية.
16:11
We all move the same way pretty much.
414
971260
3000
نحن نتحرك جميعا الى حد كبير بنفس الطريقة.
16:14
And so it turns out we're so stereotypical,
415
974260
2000
وهكذا اتضح أنّنا نمطيّون جدّا،
16:16
our brains have got dedicated neural circuitry
416
976260
2000
قد قامت أدمغتنا بتخصيص الدوائر العصبية
16:18
to decode this stereotyping.
417
978260
2000
لفك هذا التنميط.
16:20
So if I take some dots
418
980260
2000
فإذا قمت بأخذ بعض النقاط
16:22
and set them in motion with biological motion,
419
982260
3000
ثم قمت بتحريكها وفق حركة بيولوجية،
16:25
your brain's circuitry would understand instantly what's going on.
420
985260
3000
سوف تتمكّن دوائر دماغنا على الفور من فهم ما يجري.
16:28
Now this is a bunch of dots moving.
421
988260
2000
الآن لدينا مجموعة من النقاط المتحركة.
16:30
You will know what this person is doing,
422
990260
3000
سوف تتمكّنون من معرفة ما يفعله هذا الشخص،
16:33
whether happy, sad, old, young -- a huge amount of information.
423
993260
3000
سواء أكان سعيدا، حزينا، كبيرا، شابّا -- كمية هائلة من المعلومات.
16:36
If these dots were cars going on a racing circuit,
424
996260
2000
إذا كانت هذه النقاط تمثّل سيارات تسير على حلبة السباق،
16:38
you would have absolutely no idea what's going on.
425
998260
3000
لن يكون لديك مطلقا اي فكرة عما يحدث.
16:41
So why is it
426
1001260
2000
فلماذا
16:43
that we move the particular ways we do?
427
1003260
2000
نتحرّك بتلك الطّريقة الخاصّة بنا؟
16:45
Well let's think about what really happens.
428
1005260
2000
دعونا نفكر في ما يحدث حقا.
16:47
Maybe we don't all quite move the same way.
429
1007260
3000
ربما لا نتحرّك جميعنا تماما بنفس الطريقة.
16:50
Maybe there's variation in the population.
430
1010260
2000
ربما هناك تباين بين الأشخاص.
16:52
And maybe those who move better than others
431
1012260
2000
وربما كان أولئك الذين يتحرّكون على نحو أفضل من غيرهم
16:54
have got more chance of getting their children into the next generation.
432
1014260
2000
لديهم فرصة أكبر لإيصال أبنائهم إلى الجيل القادم.
16:56
So in evolutionary scales, movements get better.
433
1016260
3000
في سلّم التطوّر، تتحسن الحركات.
16:59
And perhaps in life, movements get better through learning.
434
1019260
3000
وربما في الحياة، نحصل على حركات أفضل من خلال التعلم.
17:02
So what is it about a movement which is good or bad?
435
1022260
2000
فمالذي يجعل حركة جيدة أو سيئة؟
17:04
Imagine I want to intercept this ball.
436
1024260
2000
تخيل انّي أريد اعتراض هذه الكرة.
17:06
Here are two possible paths to that ball.
437
1026260
3000
لدينا هنا مسارين ممكنين للكرة.
17:09
Well if I choose the left-hand path,
438
1029260
2000
إذا قمت باختيارالمسار المقابل لليد اليسرى،
17:11
I can work out the forces required
439
1031260
2000
أستطيع حساب القوّة المطلوبة
17:13
in one of my muscles as a function of time.
440
1033260
2000
في أحد عضلاتي بوصفها دالة في الزمن.
17:15
But there's noise added to this.
441
1035260
2000
ولكن هناك ضجيج وأضاف على ذلك.
17:17
So what I actually get, based on this lovely, smooth, desired force,
442
1037260
3000
ما أحصل عليه في الواقع، بالإعتماد على هذه القوّة الرائعة، السلسة، المطلوبة،
17:20
is a very noisy version.
443
1040260
2000
هي نسخة مشوّشة جدّا.
17:22
So if I pick the same command through many times,
444
1042260
3000
فإذا قمت بإعادة نفس الأمر عدة مرات،
17:25
I will get a different noisy version each time, because noise changes each time.
445
1045260
3000
فسوف أحصل في كل مرة على نسخة مختلفة مشوّشة، لأن التشويش يتغيّر في كل مرة.
17:28
So what I can show you here
446
1048260
2000
ما يمكنني أن أريكم هنا
17:30
is how the variability of the movement will evolve
447
1050260
2000
هي كيف سيتطور تغيّر الحركة
17:32
if I choose that way.
448
1052260
2000
إذا اخترت هذا الطريق.
17:34
If I choose a different way of moving -- on the right for example --
449
1054260
3000
إذا اخترت طريقة مختلفة للحركة -- إلى اليمين على سبيل المثال --
17:37
then I'll have a different command, different noise,
450
1057260
2000
ثم سأحصل على أمر مختلف، وتشويش مختلف،
17:39
playing through a noisy system, very complicated.
451
1059260
3000
لعب من خلال نظام مشوّش ومعقد للغاية.
17:42
All we can be sure of is the variability will be different.
452
1062260
3000
كل ما يمكن أن نكون متأكّدين منه هو أنّ التغيّر سيكون مختلف.
17:45
If I move in this particular way,
453
1065260
2000
إذا قُمْتُ بالتحرك بهذه الطريقة الخاصة،
17:47
I end up with a smaller variability across many movements.
454
1067260
3000
سأنتهي مع أصغر تغيّر عبر العديد من الحركات.
17:50
So if I have to choose between those two,
455
1070260
2000
لذا إذا كنت مخيّرا بين هذين،
17:52
I would choose the right one because it's less variable.
456
1072260
2000
فسأختار الأيمن لأنه أقل تغيّرا.
17:54
And the fundamental idea
457
1074260
2000
والفكرة الأساسية
17:56
is you want to plan your movements
458
1076260
2000
هي أنّك تريد تنظيم حركاتك
17:58
so as to minimize the negative consequence of the noise.
459
1078260
3000
بحيث تحدّ من النّتائج السلبية للتشويش.
18:01
And one intuition to get
460
1081260
2000
وإحدى البديهيّات التي نحصل عليها
18:03
is actually the amount of noise or variability I show here
461
1083260
2000
هي أنّه تغيّر كمية التشويش في الواقع التي أعرضها هنا
18:05
gets bigger as the force gets bigger.
462
1085260
2000
تَكبر كلّما كَبُرت القوة.
18:07
So you want to avoid big forces as one principle.
463
1087260
3000
لذلك ترغب في تجنب القوات الكبيرة بصورة مبدئيّة.
18:10
So we've shown that using this,
464
1090260
2000
لقد أظهرنا أنه باستخدام هذا،
18:12
we can explain a huge amount of data --
465
1092260
2000
يمكن أن نفسر كمية هائلة من البيانات --
18:14
that exactly people are going about their lives planning movements
466
1094260
3000
انّ الناس يعيشون حياتهم بتخطيط الحركات
18:17
so as to minimize negative consequences of noise.
467
1097260
3000
وذلك بهدف تقليل الآثار السلبية للتشويش.
18:20
So I hope I've convinced you the brain is there
468
1100260
2000
لذا آمل أن أكون قد قمت باقناعكم بأنّ الدماغ موجود
18:22
and evolved to control movement.
469
1102260
2000
ويتطوّر للتحكّم في الحركة.
18:24
And it's an intellectual challenge to understand how we do that.
470
1104260
3000
وأن فهم الكيفيّة التي نفعل بها ذلك يُشكّل تحديّا فكريّا.
18:27
But it's also relevant
471
1107260
2000
لكنها أيضا ذات صلة
18:29
for disease and rehabilitation.
472
1109260
2000
بالمرض وإعادة التأهيل.
18:31
There are many diseases which effect movement.
473
1111260
3000
هناك العديد من الأمراض التي تصيب الحركة.
18:34
And hopefully if we understand how we control movement,
474
1114260
2000
ونأمل أنّنا إذا تمكّنا من فهم كيفيّة سيطرتنا على الحركة،
18:36
we can apply that to robotic technology.
475
1116260
2000
فسنستطيع أن نطبق ذلك على تكنولوجيا الروبوت.
18:38
And finally, I want to remind you,
476
1118260
2000
وأخيرا، أودّ أن أذكّركم،
18:40
when you see animals do what look like very simple tasks,
477
1120260
2000
عندما تشاهدون الحيوانات تقوم بما يبدو وكأنها مهام بسيطة للغاية،
18:42
the actual complexity of what is going on inside their brain
478
1122260
2000
أنّ درجة تعقيد ما يجري داخل دماغها
18:44
is really quite dramatic.
479
1124260
2000
هو حقا مثير للغاية.
18:46
Thank you very much.
480
1126260
2000
شكرا جزيلا.
18:48
(Applause)
481
1128260
8000
(تصفيق)
18:56
Chris Anderson: Quick question for you, Dan.
482
1136260
2000
كريس اندرسون : سؤال سريع لك، دان.
18:58
So you're a movement -- (DW: Chauvinist.) -- chauvinist.
483
1138260
4000
إذن أنت بالنسبة للحركة -- (د. و. : شوفينيّ) -- شوفينيّ.
19:02
Does that mean that you think that the other things we think our brains are about --
484
1142260
3000
هل يعني ذلك أنك تعتقد أن أشياء أخرى نعتقد أدمغتنا هي المسؤولة عنها --
19:05
the dreaming, the yearning, the falling in love and all these things --
485
1145260
3000
الحلم، التّوق، والوقوع في الحب وجميع هذه الأمور --
19:08
are a kind of side show, an accident?
486
1148260
3000
هي نوعا ما حدث جانبيّ، مجرّد حادث؟
19:11
DW: No, no, actually I think they're all important
487
1151260
2000
د. و.: لا، لا، في الواقع اعتقد أنّها جميعا هامة
19:13
to drive the right movement behavior to get reproduction in the end.
488
1153260
3000
لتتحكّم في سلوك الحركة السّليمة للحصول على التكاثر في نهاية المطاف.
19:16
So I think people who study sensation or memory
489
1156260
3000
لذا أعتقد أن الناس الذين يدرسون الإحساس أو الذاكرة
19:19
without realizing why you're laying down memories of childhood.
490
1159260
2000
دون أن يدركوا لماذا نضع جانبا ذكريات الطفولة.
19:21
The fact that we forget most of our childhood, for example,
491
1161260
3000
حقيقة أننا ننسى معظم طفولتنا، على سبيل المثال،
19:24
is probably fine, because it doesn't effect our movements later in life.
492
1164260
3000
لا يشكّل عائقا، لأن ليس لها تأثير على حركاتنا في وقت لاحق في الحياة.
19:27
You only need to store things which are really going to effect movement.
493
1167260
3000
نحتاج فقط لتخزين الأشياء التي لها حقا تأثير على الحركة.
19:30
CA: So you think that people thinking about the brain, and consciousness generally,
494
1170260
3000
ك. أ. : إذا أنت تعتقد أن الناس الذين يفكّرون في الدماغ، والوعي بصفة عامة،
19:33
could get real insight
495
1173260
2000
مكنهم الحصول على رؤية واقعية
19:35
by saying, where does movement play in this game?
496
1175260
2000
بقولهم : أين دور الحركة في هذا؟
19:37
DW: So people have found out for example
497
1177260
2000
د. و. : اكتشف الناس على سبيل المثال
19:39
that studying vision in the absence of realizing why you have vision
498
1179260
2000
أنّ دراسة البصر في غياب ادراك لماذا لدينا بصر
19:41
is a mistake.
499
1181260
2000
هو خطأ.
19:43
You have to study vision with the realization
500
1183260
2000
عليك دراسة البصر مع إدراك
19:45
of how the movement system is going to use vision.
501
1185260
2000
كيف يمكن لنظام الحركة أن يستخدم البصر.
19:47
And it uses it very differently once you think about it that way.
502
1187260
2000
وهو يستخدمه بشكل مختلف جدا بمجرّد ما تفكّر فيه بهذه الطريقة.
19:49
CA: Well that was quite fascinating. Thank you very much indeed.
503
1189260
3000
ك. أ. : حسنا كان ذلك رائعا جدا. شكرا جزيلا لك.
19:52
(Applause)
504
1192260
2000
(تصفيق)
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7