Daniel Wolpert: The real reason for brains

دیوید ولپرت: دلیل اصلی وجود مغز

341,413 views

2011-11-03 ・ TED


New videos

Daniel Wolpert: The real reason for brains

دیوید ولپرت: دلیل اصلی وجود مغز

341,413 views ・ 2011-11-03

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: Bidel Akbari Reviewer: soheila Jafari
00:15
I'm a neuroscientist.
0
15260
2000
من متخصص مغز و اعصاب هستم.
00:17
And in neuroscience,
1
17260
2000
و در حوزه علم مغز و اعصاب،
00:19
we have to deal with many difficult questions about the brain.
2
19260
3000
ما باید با تعداد زیادی سوال سخت درباره مغز سر و کار داشته باشیم.
00:22
But I want to start with the easiest question
3
22260
2000
ولی میخوام با ساده ترین اونها شروع کنم
00:24
and the question you really should have all asked yourselves at some point in your life,
4
24260
3000
و سوالی که همه شما باید یه موقعی در زندگی تون از خودتون پرسیده باشید،
00:27
because it's a fundamental question
5
27260
2000
چون اگر بخوایم کارکرد مغز رو بفهمیم، این یه سوال اساسیه.
00:29
if we want to understand brain function.
6
29260
2000
چون اگر بخوایم کارکرد مغز رو بفهمیم، این یه سوال اساسیه.
00:31
And that is, why do we and other animals
7
31260
2000
و اون سوال اینه که، چرا ما و دیگر حیوانات دارای مغز هستیم؟
00:33
have brains?
8
33260
2000
و اون سوال اینه که، چرا ما و دیگر حیوانات دارای مغز هستیم؟
00:35
Not all species on our planet have brains,
9
35260
3000
همه موجودات روی زمین دارای مغز نیستند،
00:38
so if we want to know what the brain is for,
10
38260
2000
بنابراین اگر بخواهیم بدونیم که مغز به چه دردی میخوره،
00:40
let's think about why we evolved one.
11
40260
2000
بیاین درباره این فکر کنیم که چرا اون رو از طریق تکامل ساختیم.
00:42
Now you may reason that we have one
12
42260
2000
حالا شما ممکنه استدلالتون این باشه که ما برای درک جهان یا برای فکر کردن دارای مغز هستیم،
00:44
to perceive the world or to think,
13
44260
2000
حالا شما ممکنه استدلالتون این باشه که ما برای درک جهان یا برای فکر کردن دارای مغز هستیم،
00:46
and that's completely wrong.
14
46260
2000
و این استدلال کاملا غلطه.
00:48
If you think about this question for any length of time,
15
48260
3000
هرچقدر که شما به این سوال فکر کنید،
00:51
it's blindingly obvious why we have a brain.
16
51260
2000
بصورت خیره کننده ای مشخصه که چرا ما دارای مغز هستیم.
00:53
We have a brain for one reason and one reason only,
17
53260
3000
ما مغز داریم بخاطر یک دلیل و فقط یک دلیل،
00:56
and that's to produce adaptable and complex movements.
18
56260
3000
و اون بخاطر تولید کردن حرکت های وفق پذیر و پیچیده اس.
00:59
There is no other reason to have a brain.
19
59260
2000
هیچ دلیل دیگه ای برای داشتن مغز وجود نداره.
01:01
Think about it.
20
61260
2000
بهش فکر کنید.
01:03
Movement is the only way you have
21
63260
2000
تحرک تنها راه برای اثر گذاشتن بر دنیای اطرافه.
01:05
of affecting the world around you.
22
65260
2000
تحرک تنها راه برای اثر گذاشتن بر دنیای اطرافه.
01:07
Now that's not quite true. There's one other way, and that's through sweating.
23
67260
3000
حالا اون هم کاملا درست نیست. یه راه دیگه هم هست، و اونم از طریق عرق کردنه.
01:10
But apart from that,
24
70260
2000
ولی از اون گذشته،
01:12
everything else goes through contractions of muscles.
25
72260
2000
همه چیز دیگه از طریق منقبض شدن مفاصل انجام میشه.
01:14
So think about communication --
26
74260
2000
خب، ارتباط برقرار کردن رو در نظر بگیرید --
01:16
speech, gestures, writing, sign language --
27
76260
3000
گویایی، اشارات، نوشتن، زبان ایما اشاره --
01:19
they're all mediated through contractions of your muscles.
28
79260
3000
همه اونها با مداخله انقباض مفاصل شما انجام میشن.
01:22
So it's really important to remember
29
82260
2000
این خیلی مهمه که یادمون باشه
01:24
that sensory, memory and cognitive processes are all important,
30
84260
4000
که فرآیندهای حسی، حافظه و فرایند های شناختی مغز، همه شون مهم اند،
01:28
but they're only important
31
88260
2000
ولی اونها فقط در پیش بری یا جلوگیری از حرکت های بعدی مهم هستند.
01:30
to either drive or suppress future movements.
32
90260
2000
ولی اونها فقط در پیش بری یا جلوگیری از حرکت های بعدی مهم هستند.
01:32
There can be no evolutionary advantage
33
92260
2000
ساختن خاطرات بچه گی و درک رنگ یک گل رز، هیچ فایده تکاملی ای برای ما نداره
01:34
to laying down memories of childhood
34
94260
2000
ساختن خاطرات بچه گی و درک رنگ یک گل رز، هیچ فایده تکاملی ای برای ما نداره
01:36
or perceiving the color of a rose
35
96260
2000
ساختن خاطرات بچه گی و درک رنگ یک گل رز، هیچ فایده تکاملی ای برای ما نداره
01:38
if it doesn't affect the way you're going to move later in life.
36
98260
3000
اگر نخواهد روی حرکت های بعدی ما در زندگی اثر بزاره.
01:41
Now for those who don't believe this argument,
37
101260
2000
حالا برای اونایی که به این استدلال اعتقادی ندارن،
01:43
we have trees and grass on our planet without the brain,
38
103260
2000
ما درختان و سبزه ها رو روی کره زمین داریم که بدون مغز هستند،
01:45
but the clinching evidence is this animal here --
39
105260
2000
ولی این حیوان اینجا مدرک محکمیه --
01:47
the humble sea squirt.
40
107260
2000
آب پران کوچک دریایی.
01:49
Rudimentary animal, has a nervous system,
41
109260
3000
گونه اولیه اون، یه سیستم عصبی داره،
01:52
swims around in the ocean in its juvenile life.
42
112260
2000
در فرم اولیه زندگیش، در اقیانوس شنا میکنه.
01:54
And at some point of its life,
43
114260
2000
و در نقطه ای از زندگیش، روی یک سنگ جا میگیره.
01:56
it implants on a rock.
44
116260
2000
و در نقطه ای از زندگیش، روی یک سنگ جا میگیره.
01:58
And the first thing it does in implanting on that rock, which it never leaves,
45
118260
3000
و اولین کاری که بعد از جا گیریش روی اون سنگ میکنه، سنگی که هیچوقت ترکش نمیکنه،
02:01
is to digest its own brain and nervous system
46
121260
3000
اینه که مغز و سیستم عصبی خودش رو به عنوان غذا میخوره.
02:04
for food.
47
124260
2000
اینه که مغز و سیستم عصبی خودش رو به عنوان غذا میخوره.
02:06
So once you don't need to move,
48
126260
2000
پس همینکه دیگه لازم نیست حرکتی انجام بشه،
02:08
you don't need the luxury of that brain.
49
128260
3000
اون مغز لوکس دیگه لازم نمیشه.
02:11
And this animal is often taken
50
131260
2000
و این حیوان معمولا بعنوان قیاس با اتفاقی که در دانشگاه ها میافته
02:13
as an analogy to what happens at universities
51
133260
2000
وقتی که اساتید کرسی ای رو در اون دانشگاه میگیرن، گرفته میشه،
02:15
when professors get tenure,
52
135260
2000
وقتی که اساتید کرسی ای رو در اون دانشگاه میگیرن، گرفته میشه،
02:17
but that's a different subject.
53
137260
2000
ولی اون یه موضوع دیگه ایه.
02:19
(Applause)
54
139260
2000
(تشویق حاضرین)
02:21
So I am a movement chauvinist.
55
141260
3000
بنابراین من طرفدار پر وپا قرص تحرک هستم.
02:24
I believe movement is the most important function of the brain --
56
144260
2000
من معتقدم تحرک مهم ترین کارکرد مغزه،
02:26
don't let anyone tell you that it's not true.
57
146260
2000
و به کسی اجازه ندید که بهتون بگه این اشتباهه.
02:28
Now if movement is so important,
58
148260
2000
حالا اگه تحرک خیلی مهمه،
02:30
how well are we doing
59
150260
2000
ما چقدر خوب تونستیم کنترل حرکات توسط مغز رو بفهمیم؟
02:32
understanding how the brain controls movement?
60
152260
2000
ما چقدر خوب تونستیم کنترل حرکات توسط مغز رو بفهمیم؟
02:34
And the answer is we're doing extremely poorly; it's a very hard problem.
61
154260
2000
و جواب این سوال اینه که ما خیلی داریم ضعیف عمل می کنیم، این یه مشکل خیلی دشواریه.
02:36
But we can look at how well we're doing
62
156260
2000
ولی برای اینکه بفهمیم چقدر داریم کارمون رو خوب انجام میدیم
02:38
by thinking about how well we're doing building machines
63
158260
2000
مینونیم به این فکر کنیم که به چه خوبی ما ماشینهایی را میسازیم که میتونن آنچه که آدمها میکنن را انجام دهند.
02:40
which can do what humans can do.
64
160260
2000
مینونیم به این فکر کنیم که به چه خوبی ما ماشینهایی را میسازیم که میتونن آنچه که آدمها میکنن را انجام دهند.
02:42
Think about the game of chess.
65
162260
2000
درباره بازی شطرنج فکر کنیم.
02:44
How well are we doing determining what piece to move where?
66
164260
3000
اینکه چه مهره ای رو میخوایم به کجا حرکت بدیم رو چقدر خوب انجام میدیم؟
02:47
If you pit Garry Kasparov here, when he's not in jail,
67
167260
3000
اگر گری کاسپاروف رو، وقتی که در زندان نبود،
02:50
against IBM's Deep Blue,
68
170260
2000
در مقابل کامپیوتر 'آبی تیره ی' آی.بی.ام قرار بدیم،
02:52
well the answer is IBM's Deep Blue will occasionally win.
69
172260
3000
جواب اینه که 'آبی تیره ی' آی.بی.ام بعضی وقتا میبره.
02:55
And I think if IBM's Deep Blue played anyone in this room, it would win every time.
70
175260
3000
و فکر کنم اگر 'آبی تیره ی' آی.بی.ام با هرکسی در این سالن بازی کنه، هر دفعه میبره.
02:58
That problem is solved.
71
178260
2000
مشکل حل شد.
03:00
What about the problem
72
180260
2000
مشکل برداشتن مهره های شطرنج چی میشه؟
03:02
of picking up a chess piece,
73
182260
2000
مشکل برداشتن مهره های شطرنج چی میشه؟
03:04
dexterously manipulating it and putting it back down on the board?
74
184260
3000
بصورت ماهرانه برداشتن شون و دوباره روی صفحه شطرنج قراردادن شون؟
03:07
If you put a five year-old child's dexterity against the best robots of today,
75
187260
3000
اگر شما یه بچه 5ساله رو در مقابل بهترین روبات حال حاضر قرار بدین،
03:10
the answer is simple:
76
190260
2000
جواب آسونه:
03:12
the child wins easily.
77
192260
2000
بچه هه به راحتی میبره.
03:14
There's no competition at all.
78
194260
2000
اصلا رقابتی وجود نداره.
03:16
Now why is that top problem so easy
79
196260
2000
حالا چرا اون مشکل بالایی آنقدر آسونه
03:18
and the bottom problem so hard?
80
198260
2000
و مشکل پایینی آنقدر سخته؟
03:20
One reason is a very smart five year-old
81
200260
2000
یه دلیلش اینه که یه بچه 5ساله باهوش
03:22
could tell you the algorithm for that top problem --
82
202260
2000
میتونه با در نظرگرفتن همه حرکت های امکانپذیر تا آخر بازی، الگوریتم مشکل بالاییه رو بهتون بگه
03:24
look at all possible moves to the end of the game
83
204260
2000
میتونه با در نظرگرفتن همه حرکت های امکانپذیر تا آخر بازی، الگوریتم مشکل بالاییه رو بهتون بگه
03:26
and choose the one that makes you win.
84
206260
2000
و اونی رو که باعث برنده شدن میشه رو انتخاب کنه.
03:28
So it's a very simple algorithm.
85
208260
2000
بنابراین یه الگوریتم خیلی ساده اس.
03:30
Now of course there are other moves,
86
210260
2000
حالا البته که حرکت های بعدی ای هم هست،
03:32
but with vast computers we approximate
87
212260
2000
ولی با کامپیوترهای بزرگ ما تقریب میزنیم و به راه حل بهینه نزدیک میشیم.
03:34
and come close to the optimal solution.
88
214260
2000
ولی با کامپیوترهای بزرگ ما تقریب میزنیم و به راه حل بهینه نزدیک میشیم.
03:36
When it comes to being dexterous,
89
216260
2000
ولی وقتی نوبت به ماهرانه بودن میرسه،
03:38
it's not even clear what the algorithm is you have to solve to be dexterous.
90
218260
2000
حتی معلوم نیست که چه الگوریتمی باید حل بشه که بشه ماهرانه حرکت داد.
03:40
And we'll see you have to both perceive and act on the world,
91
220260
2000
و خواهیم دید که باید هم دنیای اطراف رو درک کرد و هم عکس العمل انجام داد،
03:42
which has a lot of problems.
92
222260
2000
که خیلی مشکلات در خودش داره.
03:44
But let me show you cutting-edge robotics.
93
224260
2000
ولی اجازه بدین بهتون روبات های پیشرفته رو نشون بدم.
03:46
Now a lot of robotics is very impressive,
94
226260
2000
امروزه رباتهای زیادی بسیار چشمگیر و جذاب هستند
03:48
but manipulation robotics is really just in the dark ages.
95
228260
3000
ولی روبات هایی که با دست کارها رو انجام میدن واقعا هنوز هنوز در اوایل راه هستند.
03:51
So this is the end of a Ph.D. project
96
231260
2000
خب این نتیجه یه پروژه فوق دکترا از یکی از بهترین انیسیتو های روبوتیکه.
03:53
from one of the best robotics institutes.
97
233260
2000
خب این نتیجه یه پروژه فوق دکترا از یکی از بهترین انیسیتو های روبوتیکه.
03:55
And the student has trained this robot
98
235260
2000
و این دانشجو به این روبات یاد داده که این آب رو داخل این گیلاس( لیوان) بریزه.
03:57
to pour this water into a glass.
99
237260
2000
و این دانشجو به این روبات یاد داده که این آب رو داخل این گیلاس بریزه.
03:59
It's a hard problem because the water sloshes about, but it can do it.
100
239260
3000
این یه مشکل سختیه چون آب جریان پیش بینی شده ای نداره، ولی اون میتونه انجامش بده.
04:02
But it doesn't do it with anything like the agility of a human.
101
242260
3000
ولی اصلا به فرزی و تندی یه آدمیزاد انجامش نمیده.
04:05
Now if you want this robot to do a different task,
102
245260
3000
حال اگر بخواین این روبات یه کار دیگه انجام بده،
04:08
that's another three-year Ph.D. program.
103
248260
3000
یه برنامه تحقیق فوق دکترای سه ساله دیگریست.
04:11
There is no generalization at all
104
251260
2000
در روباتیک کلا نمیشه بین کارها و و فعالیت ها کارهای مشترکی بوجود آورد و کاری رو به کار دیگه ای تعمیم داد.
04:13
from one task to another in robotics.
105
253260
2000
در روباتیک کلا نمیشه بین کارها و و فعالیت ها کارهای مشترکی بوجود آورد و کاری رو به کار دیگه ای تعمیم داد.
04:15
Now we can compare this
106
255260
2000
حالا ما میتونیم این رو با کارایی پیشرفته انسانی مقایسه کنیم.
04:17
to cutting-edge human performance.
107
257260
2000
حالا ما میتونیم این رو با کارایی پیشرفته انسانی مقایسه کنیم.
04:19
So what I'm going to show you is Emily Fox
108
259260
2000
چیزی که میخوام نشونتون بدم امیلی فاکس
04:21
winning the world record for cup stacking.
109
261260
3000
که داره رکورد جهانی چیدن لیوان روی هم رو بدست میاره.
04:24
Now the Americans in the audience will know all about cup stacking.
110
264260
2000
حالا آمریکایی هایی که اینجا در بین حاضرین هستن راجع به اینکار همه چیز رو میدونن.
04:26
It's a high school sport
111
266260
2000
یه ورزش توی دبیرستانه
04:28
where you have 12 cups you have to stack and unstack
112
268260
2000
که باید 12 لیوان به ترتیب مشخصی و در کمترین زمان روی هم چیده بشه و بعدش جمع بشه.
04:30
against the clock in a prescribed order.
113
270260
2000
که باید 12 لیوان به ترتیب مشخصی و در کمترین زمان روی هم چیده بشه و بعدش جمع بشه.
04:32
And this is her getting the world record in real time.
114
272260
3000
و ایشون داره رکورد جهانی رو بی درنگ به دست میاره.
04:39
(Laughter)
115
279260
8000
(خنده حاضرین)
04:47
(Applause)
116
287260
5000
(تشویق حاضرین)
04:52
And she's pretty happy.
117
292260
2000
و خیلی هم خوشحاله.
04:54
We have no idea what is going on inside her brain when she does that,
118
294260
2000
ما اصلا نمیدونیم وقتی این خانم داره این کارو انجام میده، چی توی مغزش داره اتفاق میافته،
04:56
and that's what we'd like to know.
119
296260
2000
و این چیزیه که دوست داریم بدونیم.
04:58
So in my group, what we try to do
120
298260
2000
بنابراین کاری که گروه من داره سعی میکنه که انجام بده
05:00
is reverse engineer how humans control movement.
121
300260
3000
اینه که نحوه کنترل حرکت انسانها رو مهندسی معکوس کنه.
05:03
And it sounds like an easy problem.
122
303260
2000
و به نظر میرسه که این یه مساله ساده اس.
05:05
You send a command down, it causes muscles to contract.
123
305260
2000
یه دستور به پایین فرستاده میشه، و اون باعث میشه مفصل ها منقبض بشن.
05:07
Your arm or body moves,
124
307260
2000
دست یا بدن حرکت میکنه،
05:09
and you get sensory feedback from vision, from skin, from muscles and so on.
125
309260
3000
و از بینایی، پوست، مفاصل و غیره فیدبک (بازخورد) حسی گرفته میشه.
05:12
The trouble is
126
312260
2000
مشکل اینه که
05:14
these signals are not the beautiful signals you want them to be.
127
314260
2000
این سیگنال ها اون سیگنال های زیبایی نیستند که شما میخواید باشن.
05:16
So one thing that makes controlling movement difficult
128
316260
2000
بنابراین یه چیزی که کنترل حرکت رو سخت میکنه
05:18
is, for example, sensory feedback is extremely noisy.
129
318260
3000
اینه که، برای مثال، فیدبک (بازخورد) حسی بشدت همراه با نویزه.
05:21
Now by noise, I do not mean sound.
130
321260
3000
حالا منظورم از نویز، صدا و صوت نیست.
05:24
We use it in the engineering and neuroscience sense
131
324260
2000
ما در مهندسی و علم مغز و اعصاب از این عبارت استفاده میکنیم
05:26
meaning a random noise corrupting a signal.
132
326260
2000
به معنی یک نویز تصادفی که سیگنال رو خراب میکنه.
05:28
So the old days before digital radio when you were tuning in your radio
133
328260
3000
مثل دوران قدیم قبل از اومدن رادیوی دیجیتالی، که وقتی در حال تنظیم ایستگاه رادیو
05:31
and you heard "crrcckkk" on the station you wanted to hear,
134
331260
2000
صدای "خر خر" رو، روی ایستگاه رادیویی ای که میخواستید بگیرید،
05:33
that was the noise.
135
333260
2000
اون نویز بود.
05:35
But more generally, this noise is something that corrupts the signal.
136
335260
3000
ولی بصورت کلی تر، این نویز چیزیه که سیگنال رو خراب میکنه.
05:38
So for example, if you put your hand under a table
137
338260
2000
بنابراین برای مثال، اگر شما دستتون رو زیر میز قرار بدین
05:40
and try to localize it with your other hand,
138
340260
2000
و سعی کنین که اون رو با دست دیگرتون مکان یابی کنید،
05:42
you can be off by several centimeters
139
342260
2000
ممکنه بخاطر نویز در فیدبک حسی، تا چند سانتیمتر اشتباه کنید.
05:44
due to the noise in sensory feedback.
140
344260
2000
ممکنه بخاطر نویز در فیدبک حسی، تا چند سانتیمتر اشتباه کنید.
05:46
Similarly, when you put motor output on movement output,
141
346260
2000
بصورت مشابه، وقتی خروجی موتوری روی خروجی حرکتی قرار میگیره،
05:48
it's extremely noisy.
142
348260
2000
بشدت نویز داره.
05:50
Forget about trying to hit the bull's eye in darts,
143
350260
2000
در بازی با دارت سعی کردن برای اینکه بزنید وسط خال رو فراموش کنید،
05:52
just aim for the same spot over and over again.
144
352260
2000
فقط پشت سر هم یک نقطه یکسان رو نشانه بگیرید.
05:54
You have a huge spread due to movement variability.
145
354260
3000
شما با توجه به تغییرات حرکتی یک تغییرات زیادی دارید.
05:57
And more than that, the outside world, or task,
146
357260
2000
و از این گذشته، دنیا یا فعالیت های دنیای خارج،
05:59
is both ambiguous and variable.
147
359260
2000
هم مبهم وهم متغیره.
06:01
The teapot could be full, it could be empty.
148
361260
2000
قوری چای هم میتونه پر باشه، هم میتونه خالی باشه.
06:03
It changes over time.
149
363260
2000
در طول زمان تغییر میکنه.
06:05
So we work in a whole sensory movement task soup of noise.
150
365260
4000
بنابراین ما در یک بلبشوی پر از نویز فعالیت های حرکتی مراکز حساس عمل میکنیم.
06:09
Now this noise is so great
151
369260
2000
حالا این نویز آنقدر مهمه که جامعه پاداش خیلی بزرگی
06:11
that society places a huge premium
152
371260
2000
حالا این نویز آنقدر مهمه که جامعه پاداش خیلی بزرگی
06:13
on those of us who can reduce the consequences of noise.
153
373260
3000
به اونهایی میده که میتونن عواقب نویز رو کم کنن.
06:16
So if you're lucky enough to be able to knock a small white ball
154
376260
3000
بنابراین اگر شما به اندازه کافی خوش شانس باشید که بتونین یه توپ سفید کوچیک رو
06:19
into a hole several hundred yards away using a long metal stick,
155
379260
3000
بوسیله یه عصای بلند آهنی داخل یه سوراخ که صدها یارد اونطرف تره بندازید،
06:22
our society will be willing to reward you
156
382260
2000
جامعه ما حاضره که به شما صدها میلیون دلار پاداش بده.
06:24
with hundreds of millions of dollars.
157
384260
3000
جامعه ما حاضره که به شما صدها میلیون دلار پاداش بده.
06:27
Now what I want to convince you of
158
387260
2000
حالا چیزی که میخوام شما رو درباره اش متقاعد کنم
06:29
is the brain also goes through a lot of effort
159
389260
2000
اینه که مغز همچنین تلاش خیلی زیادی میکنه
06:31
to reduce the negative consequences
160
391260
2000
که عواقب منفی اینجور نویز و بی ثباتی ها رو کم کنه.
06:33
of this sort of noise and variability.
161
393260
2000
که عواقب منفی اینجور نویز و بی ثباتی ها رو کم کنه.
06:35
And to do that, I'm going to tell you about a framework
162
395260
2000
و برای اینکه شما رو متقاعد کنم، میخوام درباره چهارچوبی باهاتون صحبت کنم
06:37
which is very popular in statistics and machine learning of the last 50 years
163
397260
3000
که برای یادگرفتن آمار و فراگیری ماشین در 50 سال گذشته خیلی محبوب بوده
06:40
called Bayesian decision theory.
164
400260
2000
بهش میگن تئوری 'بیژی ان'.
06:42
And it's more recently a unifying way
165
402260
3000
و این تئوری تازگیها یه راه متحده
06:45
to think about how the brain deals with uncertainty.
166
405260
3000
برای فکر کردن به اینکه مغز چطوری با تردید و بلاتکلیفی کنار میاد.
06:48
And the fundamental idea is you want to make inferences and then take actions.
167
408260
3000
و ایده اساسی اینه که، قراره استنتاجی صورت بگیره و بعد از اون اقدام به کاری بشه.
06:51
So let's think about the inference.
168
411260
2000
خب، بیایید راجع به استنتاج فکر کنیم.
06:53
You want to generate beliefs about the world.
169
413260
2000
شما میخواهید راجع به جهان، باور و عقیده بسازید.
06:55
So what are beliefs?
170
415260
2000
خب، باورها چه چیزی هستند؟
06:57
Beliefs could be: where are my arms in space?
171
417260
2000
باورها ممکنه این باشن که: بازوهای من در کجای فضا قرار دارند؟
06:59
Am I looking at a cat or a fox?
172
419260
2000
یا اینکه آیا من دارم به یه گربه نگاه میکنم یا یه روباه؟
07:01
But we're going to represent beliefs with probabilities.
173
421260
3000
ولی ما عقایدمون رو با توجه به احتمالات نشون میدیم.
07:04
So we're going to represent a belief
174
424260
2000
بنابراین ما یک عقیده رو با یک عدد بین صفر و یک نشون میدیم --
07:06
with a number between zero and one --
175
426260
2000
بنابراین ما یک عقیده رو با یک عدد بین صفر و یک نشون میدیم --
07:08
zero meaning I don't believe it at all, one means I'm absolutely certain.
176
428260
3000
صفر یعنی من اصلا بهش اعتقاد ندارم، یک یعنی من کاملا مطمئنم.
07:11
And numbers in between give you the gray levels of uncertainty.
177
431260
3000
و اعداد بین صفر و یک سطوح خاکستری شک هستند.
07:14
And the key idea to Bayesian inference
178
434260
2000
و ایده اساسی در استنتاج 'بیژی ان' ای
07:16
is you have two sources of information
179
436260
2000
اینه که شما دو منبع اصلاعات دارید که ازشون استنتاجتون رو میکنید.
07:18
from which to make your inference.
180
438260
2000
اینه که شما دو منبع اصلاعات دارید که ازشون استنتاجتون رو میکنید.
07:20
You have data,
181
440260
2000
شما اطلاعات دارید،
07:22
and data in neuroscience is sensory input.
182
442260
2000
و در علم مغز و اعصاب اصلاعات، ورودی های حسی است.
07:24
So I have sensory input, which I can take in to make beliefs.
183
444260
3000
پس من ورودی های حسی دارم، که میتونم اون ها رو به باور تبدیل کنم.
07:27
But there's another source of information, and that's effectively prior knowledge.
184
447260
3000
ولی یه منبع دیگه اطلاعات هم وجود داره، و اون آگاهی قبلی یه.
07:30
You accumulate knowledge throughout your life in memories.
185
450260
3000
آگاهی در طول زندگی در حافظه انباشته میشه.
07:33
And the point about Bayesian decision theory
186
453260
2000
و نکته تئوری تصمیم گیری 'بیژی ان' اینه که به شما فرمول ریاضی
07:35
is it gives you the mathematics
187
455260
2000
و نکته تئوری تصمیم گیری 'بیژی ان' اینه که به شما فرمول ریاضی
07:37
of the optimal way to combine
188
457260
2000
روش بهینه ترکیب کردن آگاهی قبلی با مشاهدات حسی
07:39
your prior knowledge with your sensory evidence
189
459260
2000
روش بهینه ترکیب کردن آگاهی قبلی با مشاهدات حسی
07:41
to generate new beliefs.
190
461260
2000
برای تولید باورهای جدید رو میده.
07:43
And I've put the formula up there.
191
463260
2000
و من اون فرمول رو اون بالا براتون گذاشتم.
07:45
I'm not going to explain what that formula is, but it's very beautiful.
192
465260
2000
من نمیخوام براتون توضیح بدم که اون فرمول چیه، ولی خیلی زیباست.
07:47
And it has real beauty and real explanatory power.
193
467260
3000
و زیبایی و قدرت روشنگری واقعی ای داره.
07:50
And what it really says, and what you want to estimate,
194
470260
2000
و چیزی که میگه، و چیزی که میخواید تخمین بزنید،
07:52
is the probability of different beliefs
195
472260
2000
احتمال باورهای متفاوتیه که با توجه به اطلاعات ورودی سنسورهای حسی شما بدست میاد.
07:54
given your sensory input.
196
474260
2000
احتمال باورهای متفاوتیه که با توجه به اطلاعات ورودی سنسورهای حسی شما بدست میاد.
07:56
So let me give you an intuitive example.
197
476260
2000
خب اجازه بدید یه مثال ملموس براتون بزنم.
07:58
Imagine you're learning to play tennis
198
478260
3000
فرض کنید که دارید تنیس یاد میگیرید
08:01
and you want to decide where the ball is going to bounce
199
481260
2000
و درحالیکه توپ از روی تور رد میشه و داره به طرفتون میاد، میخواید تصمیم بگیرید که توپ کجا به زمین میخوره.
08:03
as it comes over the net towards you.
200
483260
2000
و درحالیکه توپ از روی تور رد میشه و داره به طرفتون میاد، میخواید تصمیم بگیرید که توپ کجا به زمین میخوره.
08:05
There are two sources of information
201
485260
2000
قانون بایز(ریاضیدان انگلیسی) میگه دوتا منبع اصلاعات وجود داره.
08:07
Bayes' rule tells you.
202
487260
2000
قانون بایز(ریاضیدان انگلیسی) میگه دوتا منبع اصلاعات وجود داره.
08:09
There's sensory evidence -- you can use visual information auditory information,
203
489260
3000
مشاهدات حسی وجود داره -- شما میتونید از اطلاعات دیداری و شنوایی استفاده کنید،
08:12
and that might tell you it's going to land in that red spot.
204
492260
3000
و اون ممکنه به شما بگه که اون قسمت قرمز رو اجازه بدید.
08:15
But you know that your senses are not perfect,
205
495260
3000
ولی شما میدونید که حس های شما بی نقص نیستند،
08:18
and therefore there's some variability of where it's going to land
206
498260
2000
و بنابراین یه مقدار تغییرات در جایی که قراره به زمین بخوره هست
08:20
shown by that cloud of red,
207
500260
2000
که بصورت ابر قرمزی نشون داده شده،
08:22
representing numbers between 0.5 and maybe 0.1.
208
502260
3000
که نمایان کننده اعداد بین 0.5 یا شاید 0.1 هستند.
08:26
That information is available in the current shot,
209
506260
2000
این اطلاعات در عکس حاضر موجود هستند،
08:28
but there's another source of information
210
508260
2000
ولی یه منبع اطلاعات دیگه ای هم وجود داره
08:30
not available on the current shot,
211
510260
2000
که در عکس حاضر موجود نیست،
08:32
but only available by repeated experience in the game of tennis,
212
512260
3000
ولی فقط در تجربه تکرار بازی تنیس وجود داره،
08:35
and that's that the ball doesn't bounce
213
515260
2000
و اینه که توپ با احتمال یکسانی در زمین در طول مسابقه به زمین نمیخوره.
08:37
with equal probability over the court during the match.
214
517260
2000
و اینه که توپ با احتمال یکسانی در زمین در طول مسابقه به زمین نمیخوره.
08:39
If you're playing against a very good opponent,
215
519260
2000
اگر شما دارین در مقابل یه حریف خیلی خوب بازی میکنید،
08:41
they may distribute it in that green area,
216
521260
2000
اونها ممکنه توپ رو در بخش سبز پخش کنن،
08:43
which is the prior distribution,
217
523260
2000
که توزیع مقدمه،
08:45
making it hard for you to return.
218
525260
2000
که کار برگردوندن توپ رو براتون سخت میکنه.
08:47
Now both these sources of information carry important information.
219
527260
2000
حالا این دوتا منبع اطلاعات، اطلاعات مهمی رو با خودشون به همراه دارن.
08:49
And what Bayes' rule says
220
529260
2000
و چیزی که قانون بایس میگه
08:51
is that I should multiply the numbers on the red by the numbers on the green
221
531260
3000
اینکه که من باید ارقام روی قسمت های قرمز رو در ارقام روی قسمت های سبز ضرب کنم
08:54
to get the numbers of the yellow, which have the ellipses,
222
534260
3000
که ارقام قسمت های زرد رو به دست بیارم، که بیضی ها رو در خودشون دارن،
08:57
and that's my belief.
223
537260
2000
و اون باوره منه.
08:59
So it's the optimal way of combining information.
224
539260
3000
بنابراین این روش بهینه ترکیب کردن اطلاعاته.
09:02
Now I wouldn't tell you all this if it wasn't that a few years ago,
225
542260
2000
حالا اگر اتفاق چند سال پیش نمی افتاد من اینا رو الان به شما نمیگفتم،
09:04
we showed this is exactly what people do
226
544260
2000
ما ثابت کردیم این دقیقا کاریه که آدما وقتی یه حرکت جدید یاد میگیرن، انجام میدن.
09:06
when they learn new movement skills.
227
546260
2000
ما ثابت کردیم این دقیقا کاریه که آدما وقتی یه حرکت جدید یاد میگیرن، انجام میدن.
09:08
And what it means
228
548260
2000
و معنی این اینه که ما واقعا ماشین های استنتاج 'بیژی ان' ای هستیم.
09:10
is we really are Bayesian inference machines.
229
550260
2000
و معنی این اینه که ما واقعا ماشین های استنتاج 'بیژی ان' ای هستیم.
09:12
As we go around, we learn about statistics of the world and lay that down,
230
552260
4000
ما درطول زندگیمون درباره آمار دنیای اطرافمون چیز یاد میگیریم و اونها رو ذخیره میکنیم،
09:16
but we also learn
231
556260
2000
ولی همچنین یاد میگیریم که دستگاه حسی مون چقدر خطا داره،
09:18
about how noisy our own sensory apparatus is,
232
558260
2000
ولی همچنین یاد میگیریم که دستگاه حسی مون چقدر خطا داره،
09:20
and then combine those
233
560260
2000
و بعد اون ها رو به روش 'بیژی ان' با همدیگه ترکیب میکنیم.
09:22
in a real Bayesian way.
234
562260
2000
و بعد اون ها رو به روش 'بیژی ان' با همدیگه ترکیب میکنیم.
09:24
Now a key part to the Bayesian is this part of the formula.
235
564260
3000
حالا یه قسمت مهم از تئوری 'بیژی ان' این قسمت از فرموله.
09:27
And what this part really says
236
567260
2000
و منظور مهم این قسمت اینه که من باید احتمال وجود داشتن فیدبک های حسی متفاوت را
09:29
is I have to predict the probability
237
569260
2000
و منظور مهم این قسمت اینه که من باید احتمال وجود داشتن فیدبک های حسی متفاوت را
09:31
of different sensory feedbacks
238
571260
2000
و منظور مهم این قسمت اینه که من باید احتمال وجود داشتن فیدبک های حسی متفاوت را
09:33
given my beliefs.
239
573260
2000
با درنظر گرفتن باورهام پیش بینی کنم.
09:35
So that really means I have to make predictions of the future.
240
575260
3000
بنابراین معنی واقعیش اینه که من باید درباره آینده پیش بینی کنم.
09:38
And I want to convince you the brain does make predictions
241
578260
2000
و من میخوام شما رو متقاعد کنم که مغز درباره فیدبک های حسی ای که قراره دریافت کنه، پیش بینی میکنه.
09:40
of the sensory feedback it's going to get.
242
580260
2000
و من میخوام شما رو متقاعد کنم که مغز درباره فیدبک های حسی ای که قراره دریافت کنه، پیش بینی میکنه.
09:42
And moreover, it profoundly changes your perceptions
243
582260
2000
و علاوه براین، درک شما رو بصورت خیلی عمیقی با توجه به کاری که میکنید تغییر میده.
09:44
by what you do.
244
584260
2000
و علاوه براین، درک شما رو بصورت خیلی عمیقی با توجه به کاری که میکنید تغییر میده.
09:46
And to do that, I'll tell you
245
586260
2000
و برای اینکار، به شما خواهم گفت که مغز چطوری با ورودی های حسی برخورد میکنه.
09:48
about how the brain deals with sensory input.
246
588260
2000
و برای اینکار، به شما خواهم گفت که مغز چطوری با ورودی های حسی برخورد میکنه.
09:50
So you send a command out,
247
590260
3000
خب، یه دستور فرستاده میشه،
09:53
you get sensory feedback back,
248
593260
2000
و فیدبک حسی اش برمیگرده،
09:55
and that transformation is governed
249
595260
2000
و این تبدیل توسط فیزیک و سیستم حسی بدن، کنترل میشه.
09:57
by the physics of your body and your sensory apparatus.
250
597260
3000
و این تبدیل توسط فیزیک و سیستم حسی بدن، کنترل میشه.
10:00
But you can imagine looking inside the brain.
251
600260
2000
ولی میشه با نگاه کردن به داخل مغز تصور کرد.
10:02
And here's inside the brain.
252
602260
2000
و این داخل مغزه.
10:04
You might have a little predictor, a neural simulator,
253
604260
2000
ممکنه یه پیش بینی کننده کوچک از فیزیک اندام و حواس اونجا باشه، یه شبیه ساز نٍرونی.
10:06
of the physics of your body and your senses.
254
606260
2000
ممکنه یه پیش بینی کننده کوچک از فیزیک اندام و حواس اونجا باشه، یه شبیه ساز نٍرونی.
10:08
So as you send a movement command down,
255
608260
2000
وقتی که یک فرمان فرستاده میشه
10:10
you tap a copy of that off
256
610260
2000
یه کپی از اون فرمان به اون قسمت شبیه ساز نٍرونی میره
10:12
and run it into your neural simulator
257
612260
2000
یه کپی از اون فرمان به اون قسمت شبیه ساز نٍرونی میره
10:14
to anticipate the sensory consequences of your actions.
258
614260
4000
برای پیش بینی کردن عواقب حسی اون عمل انجام شده.
10:18
So as I shake this ketchup bottle,
259
618260
2000
بنابراین در حین اینکه من دارم این ظرف سس رو تکون میدم،
10:20
I get some true sensory feedback as the function of time in the bottom row.
260
620260
3000
من بعنوان تابعی از زمان در سطر پایینی، فیدبک درستی از سیستم حسگرهام میگیرم.
10:23
And if I've got a good predictor, it predicts the same thing.
261
623260
3000
و اگر من یه پیش بینی کننده خوبی داشته باشم، اون هم همین رو پیش بینی خواهد کرد.
10:26
Well why would I bother doing that?
262
626260
2000
خب حالا چرا باید به خودم زحمت بدم که اون کار رو بکنم؟
10:28
I'm going to get the same feedback anyway.
263
628260
2000
من که بهرحال فیدبک یکسانی میگیرم.
10:30
Well there's good reasons.
264
630260
2000
خب دلایل خوبی وجود داره.
10:32
Imagine, as I shake the ketchup bottle,
265
632260
2000
تصور کنید، در حین اینکه دارم ظرف سس رو تکون میدم،
10:34
someone very kindly comes up to me and taps it on the back for me.
266
634260
3000
یه نفر میاد و خیلی دوستانه میزنه پشت من.
10:37
Now I get an extra source of sensory information
267
637260
2000
حالا من بخاطر اون عمل خارجی، اطلاعات حسی بیشتری دریافت میکنم.
10:39
due to that external act.
268
639260
2000
حالا من بخاطر اون عمل خارجی، اطلاعات حسی بیشتری دریافت میکنم.
10:41
So I get two sources.
269
641260
2000
بنابراین من دو منبع اطلاعات دارم.
10:43
I get you tapping on it, and I get me shaking it,
270
643260
3000
شما که ضربه ای روش زدید، و من که تکونش دادم،
10:46
but from my senses' point of view,
271
646260
2000
ولی از نقطه نظر حواس من،
10:48
that is combined together into one source of information.
272
648260
3000
اونها با همدیگه ترکیب شدن ویک منبع اطلاعات واحد رو ساختن.
10:51
Now there's good reason to believe
273
651260
2000
حالا یه دلیل خوب وجود داره که باور کنیم
10:53
that you would want to be able to distinguish external events from internal events.
274
653260
3000
که میخواهیم توانایی تمیز دادن بین وقایع داخلی و خارجی رو داشته باشیم.
10:56
Because external events are actually much more behaviorally relevant
275
656260
3000
چون وقایع خارجی در واقع بیشتر مربوط به رفتار هستند تا احساس که داره داخل بدن من اتفاق میافته.
10:59
than feeling everything that's going on inside my body.
276
659260
3000
چون وقایع خارجی در واقع بیشتر مربوط به رفتار هستند تا احساس که داره داخل بدن من اتفاق میافته.
11:02
So one way to reconstruct that
277
662260
2000
بنابراین یه راه برای دوباره ساختن اون اینه که پیش بینی هایی --
11:04
is to compare the prediction --
278
664260
2000
بنابراین یه راه برای دوباره ساختن اون اینه که پیش بینی هایی --
11:06
which is only based on your movement commands --
279
666260
2000
که فقط بر اساس فرمان های حرکتی هستند --
11:08
with the reality.
280
668260
2000
با واقعیت مقایسه بشن.
11:10
Any discrepancy should hopefully be external.
281
670260
3000
و امیدوار باشیم که اختلاف اونها خارجی باشه.
11:13
So as I go around the world,
282
673260
2000
خب، در حالیکه روی زمین حرکت میکنم،
11:15
I'm making predictions of what I should get, subtracting them off.
283
675260
3000
دارم درباره چیزایی که برام پیش میاد پیش بینی میکنم، و اونها رو از همدیگه کم میکنم.
11:18
Everything left over is external to me.
284
678260
2000
باقیمانده این تفریق برای من واقعه ای خارجیه.
11:20
What evidence is there for this?
285
680260
2000
چه شواهدی برای این وجود داره؟
11:22
Well there's one very clear example
286
682260
2000
خب، یه مثال خیلی شفاف وجود داره
11:24
where a sensation generated by myself feels very different
287
684260
2000
یعنی حسی که توسط خودم تولید شده از اونی که بوسیله یه نفر دیگه تولید شده خیلی حس متفاوتی برای من داره.
11:26
then if generated by another person.
288
686260
2000
یعنی حسی که توسط خودم تولید شده از اونی که بوسیله یه نفر دیگه تولید شده خیلی حس متفاوتی برای من داره.
11:28
And so we decided the most obvious place to start
289
688260
2000
و بنابراین ما از واضح ترین چیزی که به نظر میرسید شروع کردیم
11:30
was with tickling.
290
690260
2000
با قلقلک دادن.
11:32
It's been known for a long time, you can't tickle yourself
291
692260
2000
خیلی وقته که همه میدونن کسی نمیتونه خودش رو به خوبی طوری که دیگران قلقلک میدن، قلقلک بده.
11:34
as well as other people can.
292
694260
2000
خیلی وقته که همه میدونن کسی نمیتونه خودش رو به خوبی طوری که دیگران قلقلک میدن، قلقلک بده.
11:36
But it hasn't really been shown, it's because you have a neural simulator,
293
696260
3000
ولی نشون داده نشده بود، بخاطر اینه که یه شبیه ساز نٍرونی هست که بدن خود فرد رو شبیه سازی میکنه
11:39
simulating your own body
294
699260
2000
ولی نشون داده نشده بود، بخاطر اینه که یه شبیه ساز نٍرونی هست که بدن خود فرد رو شبیه سازی میکنه
11:41
and subtracting off that sense.
295
701260
2000
و اون حس رو ازش کم میکنه.
11:43
So we can bring the experiments of the 21st century
296
703260
3000
خب، ما میتونیم از تجربه های قرن 21ام با استفاده کردن از تکنولوژی روباتیک برای حل این مساله استفاده کنیم.
11:46
by applying robotic technologies to this problem.
297
706260
3000
خب، ما میتونیم از تجربه های قرن 21ام با استفاده کردن از تکنولوژی روباتیک برای حل این مساله استفاده کنیم.
11:49
And in effect, what we have is some sort of stick in one hand attached to a robot,
298
709260
3000
و در اثر این، چیزی که ما بدست آوردیم یه جورایی یه چوب کوچک در یک دست بود که به یه روبات متصل بود،
11:52
and they're going to move that back and forward.
299
712260
2000
و روبات ها میخواستند که اون چوب ها رو به عقب و جلو حرکت بدن.
11:54
And then we're going to track that with a computer
300
714260
2000
و بعد ما اون حرکات رو با یک کامپیوتر پیگیری می کنیم
11:56
and use it to control another robot,
301
716260
2000
و ازش برای کنترل کردن یه روبات دیگه استفاده میکنیم،
11:58
which is going to tickle their palm with another stick.
302
718260
2000
که کف دستشون رو با یه چوب دیگه قلقلک میده.
12:00
And then we're going to ask them to rate a bunch of things
303
720260
2000
بعدش ما ازشون میخوایم که یه سری چیزها، از جمله حس قلقلک رو برای ما درجه بندی کنن.
12:02
including ticklishness.
304
722260
2000
بعدش ما ازشون میخوایم که یه سری چیزها، از جمله حس قلقلک رو برای ما درجه بندی کنن.
12:04
I'll show you just one part of our study.
305
724260
2000
من فقط یه قسمت از تحقیقمون رو به شما نشون خواهم داد.
12:06
And here I've taken away the robots,
306
726260
2000
و اینجا من روبات ها رو کنار بردم،
12:08
but basically people move with their right arm sinusoidally back and forward.
307
728260
3000
ولی اساسا افراد با دست راستشون به جلو و عقب حرکت سینوسی شکل میدن.
12:11
And we replay that to the other hand with a time delay.
308
731260
3000
و ما اون حرکت رو با کمی تاخیر به دست دیگه شون منتقل میکنیم.
12:14
Either no time delay,
309
734260
2000
یا بدون تاخیر،
12:16
in which case light would just tickle your palm,
310
736260
2000
در هر صورت کف دستشون قلقلک داده میشه،
12:18
or with a time delay of two-tenths of three-tenths of a second.
311
738260
4000
یا با تاخیر زمانی دو-دهم یا سه-دهم ثانیه ای.
12:22
So the important point here
312
742260
2000
بنابراین نکته مهم اینجا
12:24
is the right hand always does the same things -- sinusoidal movement.
313
744260
3000
اینه که دست راست همیشه یه کار انجام میده - حرکت سینوسی.
12:27
The left hand always is the same and puts sinusoidal tickle.
314
747260
3000
دست چپ همیشه یکسانه و حرکت قلقلک سینوسی رو دریافت میکنه.
12:30
All we're playing with is a tempo causality.
315
750260
2000
و چیزی که ما تغییر میدیم، گام رابطه علت و معلولیه.
12:32
And as we go from naught to 0.1 second,
316
752260
2000
و همینطور که ما از بدون تاخیر به سمت 0.1 ثانیه میریم،
12:34
it becomes more ticklish.
317
754260
2000
اون خیلی قلقلک آمیزتر میشه.
12:36
As you go from 0.1 to 0.2,
318
756260
2000
و وقتی از 0.1 به 0.2 میریم،
12:38
it becomes more ticklish at the end.
319
758260
2000
در نهایت قلقلک آمیزتر میشه.
12:40
And by 0.2 of a second,
320
760260
2000
و در 0.2 ثانیه، قلقلک آمیزیش معادل اینه که روبات شما رو قلقلک بده، بدون اینکه شما کاری کنید.
12:42
it's equivalently ticklish
321
762260
2000
و در 0.2 ثانیه، قلقلک آمیزیش معادل اینه که روبات شما رو قلقلک بده، بدون اینکه شما کاری کنید.
12:44
to the robot that just tickled you without you doing anything.
322
764260
2000
و در 0.2 ثانیه، قلقلک آمیزیش معادل اینه که روبات شما رو قلقلک بده، بدون اینکه شما کاری کنید.
12:46
So whatever is responsible for this cancellation
323
766260
2000
حالا هرچیزی که مسئول اینه، چیزیه که بشدت به علیت گام تاخیر مربوطه.
12:48
is extremely tightly coupled with tempo causality.
324
768260
3000
حالا هرچیزی که مسئول اینه، چیزیه که بشدت به علیت گام تاخیر مربوطه.
12:51
And based on this illustration, we really convinced ourselves in the field
325
771260
3000
و بر اساس این تصویر، ما در این زمینه واقعا قانع شدیم
12:54
that the brain's making precise predictions
326
774260
2000
که مغز پیش بینی های دقیقی میکنه
12:56
and subtracting them off from the sensations.
327
776260
3000
و اونها رو از دریافت های حسی تفریق میکنه.
12:59
Now I have to admit, these are the worst studies my lab has ever run.
328
779260
3000
حالا من باید اعتراف کنم، اینها بدترین مطالعاتی بودند که آزمایشگاه من توی عمر خودش انجام داده.
13:02
Because the tickle sensation on the palm comes and goes,
329
782260
2000
چون قلقلک روی کف دست میاد و میره،
13:04
you need large numbers of subjects
330
784260
2000
احتیاج به تعداد زیادی شخص هست که این ستاره ها اونها رو با اهمیت کنه.
13:06
with these stars making them significant.
331
786260
2000
احتیاج به تعداد زیادی شخص هست که این ستاره ها اونها رو با اهمیت کنه.
13:08
So we were looking for a much more objective way
332
788260
2000
بنابراین ما برای بررسی این پدیده، دنبال یه راه خیلی علمی تر بودیم.
13:10
to assess this phenomena.
333
790260
2000
بنابراین ما برای بررسی این پدیده، دنبال یه راه خیلی علمی تر بودیم.
13:12
And in the intervening years I had two daughters.
334
792260
2000
و در خلال این سالها من دوتا دختربچه داشتم.
13:14
And one thing you notice about children in backseats of cars on long journeys,
335
794260
3000
و یه چیزی که درباره بچه ها در صندلی های پشتی ماشین، در سفرهای طولانی متوجه میشیم،
13:17
they get into fights --
336
797260
2000
اینه که اونها با هم دعوا میکنن --
13:19
which started with one of them doing something to the other, the other retaliating.
337
799260
3000
که با یکیشون که یه کاری با اون یکی کرده شروع میشه، اون یکی تلافی میکنه.
13:22
It quickly escalates.
338
802260
2000
به زودی دعوا بالا میگیره.
13:24
And children tend to get into fights which escalate in terms of force.
339
804260
3000
و بچه ها درگیر دعواهایی میشن که از نظر شدت گرفتن، به بالا گرفتن گرایش داره.
13:27
Now when I screamed at my children to stop,
340
807260
2000
حالا وقتی من سرشون داد زدم که تمومش کنن،
13:29
sometimes they would both say to me
341
809260
2000
بعضی وقتا جفتشون بهم میگن، اون یکی محکم تر زده.
13:31
the other person hit them harder.
342
811260
3000
بعضی وقتا جفتشون بهم میگن، اون یکی محکم تر زده.
13:34
Now I happen to know my children don't lie,
343
814260
2000
حالا من میدونم که بچه هام دروغگو نیستن،
13:36
so I thought, as a neuroscientist,
344
816260
2000
بنابراین فکر کردم، به عنوان یه متخصص مغز و اعصاب،
13:38
it was important how I could explain
345
818260
2000
مهم بود که چطوری بتونم توضیح بدم
13:40
how they were telling inconsistent truths.
346
820260
2000
اونها چطوری دارن واقعیتی رو میگن که باهم ناسازگاره.
13:42
And we hypothesize based on the tickling study
347
822260
2000
و ما براساس مطالعه ای که روی قلقلک داشتیم فرض کردیم
13:44
that when one child hits another,
348
824260
2000
که وقتی یکی از بچه ها اون یکی رو میزنه،
13:46
they generate the movement command.
349
826260
2000
اونها فرمان حرکتی رو تولید میکنن.
13:48
They predict the sensory consequences and subtract it off.
350
828260
3000
اونها عواقب حسی رو پیش بینی میکنن و اون رو ازش تفریق میکنن.
13:51
So they actually think they've hit the person less hard than they have --
351
831260
2000
بنابراین اونها درواقع فکر میکنن که طرف مقابل رو آروم تر زدن --
13:53
rather like the tickling.
352
833260
2000
بیشتر شبیه قلقلک دادن.
13:55
Whereas the passive recipient
353
835260
2000
درحالیکه اونکه مورد اصابت ضربه قرار گرفته
13:57
doesn't make the prediction, feels the full blow.
354
837260
2000
اون پیش بینی رو نمیکنه، و کل ضربه رو حس میکنه.
13:59
So if they retaliate with the same force,
355
839260
2000
بنابراین اگر به همون قدرت تلافی کنه،
14:01
the first person will think it's been escalated.
356
841260
2000
شخص اول فکر خواهد کرد که ضربه، محکم تر شده.
14:03
So we decided to test this in the lab.
357
843260
2000
بنابراین ما تصمیم گرفتیم این رو در آزمایشگاه امتحان کنیم.
14:05
(Laughter)
358
845260
3000
(خنده حاضرین)
14:08
Now we don't work with children, we don't work with hitting,
359
848260
2000
حالا ما با بچه ها و ضربه زدن کاری نداریم.
14:10
but the concept is identical.
360
850260
2000
ولی مفهوم قضیه کاملا یکسانه.
14:12
We bring in two adults. We tell them they're going to play a game.
361
852260
3000
ما دو نفر آدم بالغ رو به داخل میاریم. بهشون میگیم اونها قراره یه بازی کنن.
14:15
And so here's player one and player two sitting opposite to each other.
362
855260
2000
خب این بازیکن شماره یک و شماره دو هستند که مقابل همدیگه نشسته اند.
14:17
And the game is very simple.
363
857260
2000
و بازی خیلی آسونه.
14:19
We started with a motor
364
859260
2000
ما به یک موتور شروع کردیم
14:21
with a little lever, a little force transfuser.
365
861260
2000
با یک اهرم کوچک، یه منتقل کننده نیرو.
14:23
And we use this motor to apply force down to player one's fingers
366
863260
2000
و از این موتور برای وارد کردن فشار روی انگشتان یکی از افراد استفاده میکنیم
14:25
for three seconds and then it stops.
367
865260
3000
برای سه ثانیه و بعدش متوقف میشه.
14:28
And that player's been told, remember the experience of that force
368
868260
3000
و به اون فرد میگیم، که تجربه اون نیروی وارد شده رو به خاطر بسپاره و از انگشت دیگه اش استفاده کنه
14:31
and use your other finger
369
871260
2000
و به اون فرد میگیم، که تجربه اون نیروی وارد شده رو به خاطر بسپاره و از انگشت دیگه اش استفاده کنه
14:33
to apply the same force
370
873260
2000
برای وارد کردن نیرویی دقیقا یکسان
14:35
down to the other subject's finger through a force transfuser -- and they do that.
371
875260
3000
به انگشتان شخص دیگری از طریق منتقل کننده نیرو -- و اونها اینکار رو میکنن.
14:38
And player two's been told, remember the experience of that force.
372
878260
3000
و به شخص دوم گفته شده، تجربه نیروی وارد شده رو به خاطر بسپاره.
14:41
Use your other hand to apply the force back down.
373
881260
3000
از انگشت دیگه ات برای وارد کردن همون مقدار نیرو استفاده کن.
14:44
And so they take it in turns
374
884260
2000
و بنابراین اونها نوبتی
14:46
to apply the force they've just experienced back and forward.
375
886260
2000
نیرویی که دفعه قبل به انگشتشون وارد شده رو به نفر بعدی اعمال میکنن.
14:48
But critically,
376
888260
2000
ولی این نکته مهمه که،
14:50
they're briefed about the rules of the game in separate rooms.
377
890260
3000
اونها در اتاق های جداگونه ای در جریان قوانین بازی قرار گرفتند.
14:53
So they don't know the rules the other person's playing by.
378
893260
2000
بنابراین اونها قوانینی که نفر مقابلشون داره باهاش بازی میکنه رو نمیدونن.
14:55
And what we've measured
379
895260
2000
و چیزی رو که ما اندازه گرفتیم
14:57
is the force as a function of terms.
380
897260
2000
نیرو به عنوان تابعی از شرایطه.
14:59
And if we look at what we start with,
381
899260
2000
و اگر به چیزی که باهاش شروع کردیم نگاهی بندازیم،
15:01
a quarter of a Newton there, a number of turns,
382
901260
2000
یک چهارم نیوتن، چند دور تکرار بازی،
15:03
perfect would be that red line.
383
903260
2000
اون خط قرمز میتونست عالی باشه.
15:05
And what we see in all pairs of subjects is this --
384
905260
3000
و چیزی که ما در همه گروه های دو نفره میبینیم اینه --
15:08
a 70 percent escalation in force
385
908260
2000
بالارفتن 70 درصدی نیرو در هر بار.
15:10
on each go.
386
910260
2000
بالارفتن 70 درصدی نیرو در هر بار.
15:12
So it really suggests, when you're doing this --
387
912260
2000
پس این واقعا اشاره میکنه، وقتی اینکار داره انجام میشه --
15:14
based on this study and others we've done --
388
914260
2000
بر اساس این تحقیق و دیگر تحقیق هایی که ما انجام داده ایم --
15:16
that the brain is canceling the sensory consequences
389
916260
2000
که مغز عواقب حسی رو فسخ میکنه
15:18
and underestimating the force it's producing.
390
918260
2000
و نیرویی رو که داره تولید میکنه رو کمتر تخمین میزنه.
15:20
So it re-shows the brain makes predictions
391
920260
2000
بنابراین این دوباره به ما نشون میده که مغز پیش بینی هایی میکنه
15:22
and fundamentally changes the precepts.
392
922260
3000
و فرمان ها رو بصورت اساسی تغییر میده.
15:25
So we've made inferences, we've done predictions,
393
925260
3000
بنابراین ما استنتاج کردیم، ما پیش بینی کردیم،
15:28
now we have to generate actions.
394
928260
2000
حالا ما باید حرکتی کنیم.
15:30
And what Bayes' rule says is, given my beliefs,
395
930260
2000
و چیزی که قانون 'بیژی ان' با توجه به باور من میگه،
15:32
the action should in some sense be optimal.
396
932260
2000
اینه که این عمل و حرکت باید از جهاتی بهینه باشه.
15:34
But we've got a problem.
397
934260
2000
ولی ما یه مشکل داریم.
15:36
Tasks are symbolic -- I want to drink, I want to dance --
398
936260
3000
کارها و حرکت ها نمادین هستند -- من میخوام بنوشم، من میخوام برقصم --
15:39
but the movement system has to contract 600 muscles
399
939260
2000
ولی سیستم حرکتی باید 600 مفصل رو به ترتیب مشخصی منقبض کنه.
15:41
in a particular sequence.
400
941260
2000
ولی سیستم حرکتی باید 600 مفصل رو به ترتیب مشخصی منقبض کنه.
15:43
And there's a big gap
401
943260
2000
و یه شکاف بزرگی بین حرکت و سیستم حرکتی وجود داره.
15:45
between the task and the movement system.
402
945260
2000
و یه شکاف بزرگی بین حرکت و سیستم حرکتی وجود داره.
15:47
So it could be bridged in infinitely many different ways.
403
947260
2000
پس این شکاف میتونه از طریق بی نهایت مسیر متفاوت پر بشه.
15:49
So think about just a point to point movement.
404
949260
2000
فقط یک حرکت از نقطه ای به نقطه دیگه رو در نظر بگیرید.
15:51
I could choose these two paths
405
951260
2000
من میتونستم این دو مسیر رو از میان بینهایت مسیر دیگه انتخاب کنم.
15:53
out of an infinite number of paths.
406
953260
2000
من میتونستم این دو مسیر رو از میان بینهایت مسیر دیگه انتخاب کنم.
15:55
Having chosen a particular path,
407
955260
2000
وقتی اون مسیر مخصوص رو انتخاب کردم
15:57
I can hold my hand on that path
408
957260
2000
میتونم وضعیت قرار گرفتن مفصل های دستم رو در طول اون مسیر، بی نهایت مختلف انتخاب کنم.
15:59
as infinitely many different joint configurations.
409
959260
2000
میتونم وضعیت قرار گرفتن مفصل های دستم رو در طول اون مسیر، بی نهایت مختلف انتخاب کنم.
16:01
And I can hold my arm in a particular joint configuration
410
961260
2000
و میتونم مفاصل بازوم رو بصورت بخصوصی بگیرم
16:03
either very stiff or very relaxed.
411
963260
2000
یا سفت و شق و رق یا خیلی سست و راحت.
16:05
So I have a huge amount of choice to make.
412
965260
3000
بنابراین من انتخاب های بسیار زیادی دارم.
16:08
Now it turns out, we are extremely stereotypical.
413
968260
3000
حالا معلوم شده، ما بشدت کلیشه ای هستیم.
16:11
We all move the same way pretty much.
414
971260
3000
ما همه مون تقریبا بصورت یکسان حرکت میکنیم.
16:14
And so it turns out we're so stereotypical,
415
974260
2000
بنابراین معلوم شده که ما خیلی کلیشه ای هستیم،
16:16
our brains have got dedicated neural circuitry
416
976260
2000
مغزهای ما برای رمزگشایی این کلیشه، مدار نٍرونی مخصوصی دارن.
16:18
to decode this stereotyping.
417
978260
2000
مغزهای ما برای رمزگشایی این کلیشه، مدار نٍرونی مخصوصی دارن.
16:20
So if I take some dots
418
980260
2000
بنابراین اگر من چند نقطه رو بصورت حرکت بیولوژیکی (مثل حرکت انسان) به حرکت دربیارم.
16:22
and set them in motion with biological motion,
419
982260
3000
بنابراین اگر من چند نقطه رو بصورت حرکت بیولوژیکی (مثل حرکت انسان) به حرکت دربیارم.
16:25
your brain's circuitry would understand instantly what's going on.
420
985260
3000
مدار مغز به سرعت میفهمه جریان چیه.
16:28
Now this is a bunch of dots moving.
421
988260
2000
حالا این یه سری نقطه متحرکه.
16:30
You will know what this person is doing,
422
990260
3000
شما خواهید فهمید که این فرد داره چیکار میکنه،
16:33
whether happy, sad, old, young -- a huge amount of information.
423
993260
3000
خوشحاله، ناراحته، پیره، جوونه -- مقدار زیادی اطلاعات.
16:36
If these dots were cars going on a racing circuit,
424
996260
2000
اگر این نقطه ها ماشین هایی بودند که در مسیر مسابقه در حال حرکت بودند،
16:38
you would have absolutely no idea what's going on.
425
998260
3000
شما مطمئنا اصلا نمیدونستید جریان از قراره.
16:41
So why is it
426
1001260
2000
خب چرا اینطوریه
16:43
that we move the particular ways we do?
427
1003260
2000
که ما بصورت مخصوصی حرکت میکنیم؟
16:45
Well let's think about what really happens.
428
1005260
2000
خب بیاید راجع به اتفاقی که میافته فکر کنیم.
16:47
Maybe we don't all quite move the same way.
429
1007260
3000
شاید ما همه مون بصورت یکسان حرکت نمیکنیم.
16:50
Maybe there's variation in the population.
430
1010260
2000
شاید یه سری تفاوت ها در جمیع افراد وجود داره.
16:52
And maybe those who move better than others
431
1012260
2000
و شاید اونهایی که از دیگران بهتر حرکت میکنن
16:54
have got more chance of getting their children into the next generation.
432
1014260
2000
شانس بیشتری برای بچه دار شدن و ادامه نسل دارن.
16:56
So in evolutionary scales, movements get better.
433
1016260
3000
پس در مقیاس تکامل، حرکت ها بهتر و بهتر میشن.
16:59
And perhaps in life, movements get better through learning.
434
1019260
3000
و شاید در زندگی، حرکت ها از راه یادگیری بهتر میشن.
17:02
So what is it about a movement which is good or bad?
435
1022260
2000
حالا راجع به حرکت چه چیزی خوبه یا بده؟
17:04
Imagine I want to intercept this ball.
436
1024260
2000
فرض کنید من میخوام جلوی این توپ رو بگیرم.
17:06
Here are two possible paths to that ball.
437
1026260
3000
این دو مسیر ممکن برای این توپه.
17:09
Well if I choose the left-hand path,
438
1029260
2000
خب اگر من مسیر سمت چپ رو انتخاب کنم،
17:11
I can work out the forces required
439
1031260
2000
من میتونم نیروهای موردنیاز رو در یکی از مفصل هام به ازای تابعی از زمان تولید کنم.
17:13
in one of my muscles as a function of time.
440
1033260
2000
من میتونم نیروهای موردنیاز رو در یکی از مفصل هام به ازای تابعی از زمان تولید کنم.
17:15
But there's noise added to this.
441
1035260
2000
ولی نویز هم به این اضافه شده.
17:17
So what I actually get, based on this lovely, smooth, desired force,
442
1037260
3000
بر پایه نیروی مورد نظر، روان و خواستنی ، چیزی که واقعا بدست میاید یه نسخه پر از نویزه.
17:20
is a very noisy version.
443
1040260
2000
بر پایه نیروی مورد نظر، روان و خواستنی ، چیزی که واقعا بدست میاید یه نسخه پر از نویزه.
17:22
So if I pick the same command through many times,
444
1042260
3000
بنابراین اگر من یک فرمان یکسان رو در طول زمانهای زیادی انتخاب کنم،
17:25
I will get a different noisy version each time, because noise changes each time.
445
1045260
3000
من هر دفعه یه نسخه نویز دار بدست میارم، چون نویز هر دفعه تغییر میکنه.
17:28
So what I can show you here
446
1048260
2000
بنابراین اون چیزی که اینجا میتونم بهتون نشون بدم
17:30
is how the variability of the movement will evolve
447
1050260
2000
اینه که اگر اون راه رو انتخاب میکردم تغییرات حرکتی چطوری تکامل پیدا میکرد.
17:32
if I choose that way.
448
1052260
2000
اینه که اگر اون راه رو انتخاب میکردم تغییرات حرکتی چطوری تکامل پیدا میکرد.
17:34
If I choose a different way of moving -- on the right for example --
449
1054260
3000
اگر من یه راه دیگه رو برای حرکت کردن انتخاب کنم -- مثلا اون راستیه رو --
17:37
then I'll have a different command, different noise,
450
1057260
2000
پس من یه فرمان متفاوت خواهم داشت، و نویز متفاوت،
17:39
playing through a noisy system, very complicated.
451
1059260
3000
با یه سیستمی که نویز داره کار کردن خیلی سخته.
17:42
All we can be sure of is the variability will be different.
452
1062260
3000
چیزی که همه مون میتونیم درباره اش مطمئن باشیم اینه که تغییرات متفاوت خواهد بود.
17:45
If I move in this particular way,
453
1065260
2000
اگر من در این راه مشخص حرکت کنم،
17:47
I end up with a smaller variability across many movements.
454
1067260
3000
من به تنوع کمتری درطول حرکات زیادی خواهم رسید
17:50
So if I have to choose between those two,
455
1070260
2000
بنابراین اگر من مجبور باشم بین اون دو یکی رو انتخاب کنم،
17:52
I would choose the right one because it's less variable.
456
1072260
2000
من سمت راستی رو انتخاب میکنم چون تغییراتش کمتره.
17:54
And the fundamental idea
457
1074260
2000
و ایده اساسی اینه که شما حرکاتتان را برنامه ریزی کنید بطوری که نتیجه منفی نویز را به حداقل برسانید.
17:56
is you want to plan your movements
458
1076260
2000
و ایده اساسی اینه که شما حرکاتتان را برنامه ریزی کنید بطوری که نتیجه منفی نویز را به حداقل برسانید.
17:58
so as to minimize the negative consequence of the noise.
459
1078260
3000
عواقب منفی نویز رو بشه کاهش داد.
18:01
And one intuition to get
460
1081260
2000
یک شهود برای بدست آوردن میزان واقعی نویز یا تغییر پذیری که اینجا نشون دادم اینه که هر چقدر نیرو بیشتر باشه اون هم بیشتره.
18:03
is actually the amount of noise or variability I show here
461
1083260
2000
یک شهود برای بدست آوردن میزان واقعی نویز یا تغییر پذیری که اینجا نشون دادم اینه که هر چقدر نیرو بیشتر باشه اون هم بیشتره.
18:05
gets bigger as the force gets bigger.
462
1085260
2000
یک شهود برای بدست آوردن میزان واقعی نویز یا تغییر پذیری که اینجا نشون دادم اینه که هر چقدر نیرو بیشتر باشه اون هم بیشتره.
18:07
So you want to avoid big forces as one principle.
463
1087260
3000
بنابراین به عنوان یک قانون ، باید از نیروهای بزرگ خودداری کرد.
18:10
So we've shown that using this,
464
1090260
2000
بنابراین با استفاده از این ما نشون دادیم،
18:12
we can explain a huge amount of data --
465
1092260
2000
ما میتونیم مقدار بسیار بزرگی از اطلاعات رو تفسیر کنیم --
18:14
that exactly people are going about their lives planning movements
466
1094260
3000
که واقعا آدم ها حرکاتشون در زندگی رو طوری طراحی میکنن که عواقب منفی نویز رو در اونها کاهش بدن.
18:17
so as to minimize negative consequences of noise.
467
1097260
3000
که واقعا آدم ها حرکاتشون در زندگی رو طوری طراحی میکنن که عواقب منفی نویز رو در اونها کاهش بدن.
18:20
So I hope I've convinced you the brain is there
468
1100260
2000
بنابراین امیدوارم من شما رو قانع کرده باشم که مغز اونجاست
18:22
and evolved to control movement.
469
1102260
2000
و برای کنترل کردن حرکات تکامل پیدا کرده.
18:24
And it's an intellectual challenge to understand how we do that.
470
1104260
3000
و فهمیدن اینکه ما چطوری اون رو انجام میدیم، یه چالش فکریه.
18:27
But it's also relevant
471
1107260
2000
ولی این موضوع همچنین به بیماری ها و توانبخشی دوباره مربوطه.
18:29
for disease and rehabilitation.
472
1109260
2000
ولی این موضوع همچنین به بیماری ها و توانبخشی دوباره مربوطه.
18:31
There are many diseases which effect movement.
473
1111260
3000
بیماری های زیادی وجود دارند که حرکت رو تحت تاثیر قرار میدن.
18:34
And hopefully if we understand how we control movement,
474
1114260
2000
و خوشبختانه اگر ما بفهمیم که چطور حرکت کردن رو کنترل میکنیم،
18:36
we can apply that to robotic technology.
475
1116260
2000
میتونیم اون رو در تکنولوژی روبات ها به کار بگیریم.
18:38
And finally, I want to remind you,
476
1118260
2000
و در آخر، میخوام به شما یادآوری کنم،
18:40
when you see animals do what look like very simple tasks,
477
1120260
2000
وقتی شما کارهایی که حیوانات انجام میدن و به نظر کارهای راحتی میاد رو میبینید،
18:42
the actual complexity of what is going on inside their brain
478
1122260
2000
پیچیدگی واقعی اتفاقی که داره داخل مغزشون میافته
18:44
is really quite dramatic.
479
1124260
2000
کاملا و واقعا اثرگذاره.
18:46
Thank you very much.
480
1126260
2000
از شما خیلی متشکرم.
18:48
(Applause)
481
1128260
8000
(تشویق حاضرین)
18:56
Chris Anderson: Quick question for you, Dan.
482
1136260
2000
کریس اندرسون: یه سوال سریع دارم، دن.
18:58
So you're a movement -- (DW: Chauvinist.) -- chauvinist.
483
1138260
4000
خب تو یه طرفدار پر و پا قرص تحرک هستی.
19:02
Does that mean that you think that the other things we think our brains are about --
484
1142260
3000
این به این معنیه که تو فکر میکنی کارهای دیگری که ما فکر میکنیم مغزمون انجام میده --
19:05
the dreaming, the yearning, the falling in love and all these things --
485
1145260
3000
رویا پردازی، تمایل، عاشق شدن و همه این چیزا --
19:08
are a kind of side show, an accident?
486
1148260
3000
یه جورایی کارهای جنبی هستن، یه اتفاق هستند؟
19:11
DW: No, no, actually I think they're all important
487
1151260
2000
د.و: نه، نه، در واقع من فکر میکنم اونها همشون
19:13
to drive the right movement behavior to get reproduction in the end.
488
1153260
3000
برای به حرکت درآوردن رفتار حرکتی درست، در نهایت برای بدست آوردن بازتولید مهم هستند.
19:16
So I think people who study sensation or memory
489
1156260
3000
خُب من معتقدم اونهایی که درباره احساسات یا حافظه مطالعه میکنن
19:19
without realizing why you're laying down memories of childhood.
490
1159260
2000
بدون اینکه درک کنن چرا خاطراتی از کودکی ساخته میشه.
19:21
The fact that we forget most of our childhood, for example,
491
1161260
3000
واقعیت اینه که ما برای مثال بیشتر کودکی مون رو فراموش میکنیم،
19:24
is probably fine, because it doesn't effect our movements later in life.
492
1164260
3000
این مشکلی نداره، چون این قضیه، حرکت کردن ما رو در زندگی تحت تاثیر قرار نمیده.
19:27
You only need to store things which are really going to effect movement.
493
1167260
3000
چیزهایی که واقعا حرکات رو تحت تاثیر قرار میدن لازمه که به حافظه سپرده بشن.
19:30
CA: So you think that people thinking about the brain, and consciousness generally,
494
1170260
3000
ک.ا: پس تو فکر میکنی که کسانی که راجع به مغز، با بطور کلی هوش و حواس، تحقیق و فکر میکنن،
19:33
could get real insight
495
1173260
2000
میتونن با پرسیدن این سوال که، حرکت کردن توی این قضیه کجا نقش بازی میکنه، به فهم درست و واقعی برسند؟
19:35
by saying, where does movement play in this game?
496
1175260
2000
میتونن با پرسیدن این سوال که، حرکت کردن توی این قضیه کجا نقش بازی میکنه، به فهم درست و واقعی برسند؟
19:37
DW: So people have found out for example
497
1177260
2000
د.و: خب کسانی برای مثال متوجه شدن
19:39
that studying vision in the absence of realizing why you have vision
498
1179260
2000
که مطالعه و بررسی بینایی بدون درک اینکه چرا اصلا ما بینایی داریم، اشتباهه.
19:41
is a mistake.
499
1181260
2000
که مطالعه و بررسی بینایی بدون درک اینکه چرا اصلا ما بینایی داریم، اشتباهه.
19:43
You have to study vision with the realization
500
1183260
2000
باید بینایی با درک به اینکه چطوری سیستم حرکتی میخواد از بینایی استفاده کنه مطالعه بشه.
19:45
of how the movement system is going to use vision.
501
1185260
2000
باید بینایی با درک به اینکه چطوری سیستم حرکتی میخواد از بینایی استفاده کنه مطالعه بشه.
19:47
And it uses it very differently once you think about it that way.
502
1187260
2000
و بعد از اینکه اینطوری راجع بهش فکر بشه، استفاده خیلی متفاوتی ازش میشه کرد.
19:49
CA: Well that was quite fascinating. Thank you very much indeed.
503
1189260
3000
ک.ا: خب این واقعا جذاب بود. واقعا ازت تشکر میکنم.
19:52
(Applause)
504
1192260
2000
(تشویق حاضرین)
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7