Gero Miesenboeck reengineers a brain

جرو مایسنبوک مغز را بازطراحی می کند.

52,036 views

2010-11-05 ・ TED


New videos

Gero Miesenboeck reengineers a brain

جرو مایسنبوک مغز را بازطراحی می کند.

52,036 views ・ 2010-11-05

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: Hossein Moarefi Reviewer: mahmood rokni
00:15
I have a doppelganger.
0
15260
3000
بنده یک هم شکل ( دو قلو) دیگر هم دارم...
00:18
(Laughter)
1
18260
3000
( خندیدن )
00:21
Dr. Gero is a brilliant
2
21260
3000
دکتر جئو عالیه...
00:24
but slightly mad scientist
3
24260
2000
اما كمي بد اخلاق هم هست.
00:26
in the "Dragonball Z: Android Saga."
4
26260
3000
در پروژه دراگون Z. آندروید ساگا..
00:29
If you look very carefully,
5
29260
2000
اگر به دقت بنگرید
00:31
you see that his skull has been replaced
6
31260
3000
مشاهده خواهید کرد که جمجمه ایشان جایگزین شده با
00:34
with a transparent Plexiglas dome
7
34260
2000
بافت شفاف پلکسی گلاس...
00:36
so that the workings of his brain can be observed
8
36260
3000
اینطور هست که ما می توانیم فعالیت های مغز ایشسان را مشاهده کنیم....
00:39
and also controlled with light.
9
39260
3000
.. و همینطور توسط نور آن را کنترل کنیم.
00:42
That's exactly what I do --
10
42260
2000
این دقیقا چیزی است که ما انجام می دهیم
00:44
optical mind control.
11
44260
2000
کنترل نوری مغز.. کنترل اپتیکال مغز
00:46
(Laughter)
12
46260
2000
( خندیدن حاضران )
00:48
But in contrast to my evil twin
13
48260
2000
اما درست بالعکس ، برای جفت دوقلوی بد ذات من
00:50
who lusts after world domination,
14
50260
3000
کسی که شهوت تسخیر جهان را دارد ،
00:53
my motives are not sinister.
15
53260
3000
انگیزه من انگیزه پلید و شیطانی نیست...
00:56
I control the brain
16
56260
2000
من مغز را کنترل می کنم
00:58
in order to understand how it works.
17
58260
2000
بدین جهت که دریابم که چگونه کار میکند.
01:00
Now wait a minute, you may say,
18
60260
2000
یه لحظه تامل کنید. شما ممکن است بپرسید...
01:02
how can you go straight to controlling the brain
19
62260
3000
چطور می تونی مغز را بدرستی کنترل کنی
01:05
without understanding it first?
20
65260
2000
بدون اینکه حتی مغز را بشناشی ؟
01:07
Isn't that putting the cart before the horse?
21
67260
3000
( اصطلاح) این موضوع خیالی نسیت؟
01:11
Many neuroscientists agree with this view
22
71260
3000
بسیاری از ذهن شناسان با این عقیده موافق هستند
01:14
and think that understanding will come
23
74260
3000
و معتقدند که شناخت مغز از
01:17
from more detailed observation and analysis.
24
77260
3000
مشاهده جزئیات و آنالیز آنها بدست خواهد آمد.
01:20
They say, "If we could record the activity of our neurons,
25
80260
4000
ذهن شناسان می گویند : " اگر ما بتوانیم فعالیت نورون های مغز را ضبط کنیم...
01:24
we would understand the brain."
26
84260
3000
می توانیم مغز را درک کنیم ".
01:27
But think for a moment what that means.
27
87260
3000
لحظه ای درنگ کنید که این به چه معناست !
01:30
Even if we could measure
28
90260
2000
حتی اگر ما بتوانیم
01:32
what every cell is doing at all times,
29
92260
2000
آنچه که هر سلول انجام می دهد، اندازه گیری کنیم
01:34
we would still have to make sense
30
94260
2000
مجبور خواهیم شد تا
01:36
of the recorded activity patterns,
31
96260
2000
الگوی فعالیت های ضبط شده مغز را درک کنیم...
01:38
and that's so difficult,
32
98260
2000
و این واقعا مشکل است .
01:40
chances are we'll understand these patterns
33
100260
2000
احتمال این هم وجود دارد که ما این الگو ها را دریابیم
01:42
just as little as the brains that produce them.
34
102260
3000
اما آنقدر ناچیز و ذره ذره که مغز آنها را تولید می کند...
01:45
Take a look at what brain activity might look like.
35
105260
3000
نگاهی بیاندازید به این تصویر که فعالیت های مغز شبیه چه می باشد..
01:48
In this simulation, each black dot
36
108260
2000
در این شبیه سازی هر نقطه سیاه
01:50
is one nerve cell.
37
110260
2000
یک سلول عصبی نورون می باشد.
01:52
The dot is visible
38
112260
2000
این نقطه قابل مشاهده است
01:54
whenever a cell fires an electrical impulse.
39
114260
2000
هر زمان که پالس الکتریکی از آن منتشر شود.
01:56
There's 10,000 neurons here.
40
116260
2000
در این تصویر ده هزار نورون وجود دارد.
01:58
So you're looking at roughly one percent
41
118260
2000
شما در حدود یک درصد آنها را مشاهده می کنید
02:00
of the brain of a cockroach.
42
120260
3000
آنهم مغز یک سوسک ...
02:04
Your brains are about 100 million times
43
124260
3000
مغز شما در حدود 100 میلیون بار پیچیده تر از این می باشد.
02:07
more complicated.
44
127260
2000
...
02:09
Somewhere, in a pattern like this,
45
129260
2000
در جایی ، الگویی اینچنین ،
02:11
is you,
46
131260
2000
در شما ،
02:13
your perceptions,
47
133260
2000
در ذهن شما ،
02:15
your emotions, your memories,
48
135260
3000
احساسات شما ، خاطرات شما ،
02:18
your plans for the future.
49
138260
2000
و برنامه هایتان برای آینده.. و امثال آنها می تواند باشد.
02:20
But we don't know where,
50
140260
2000
اما ما نمی دانیم کجا ؟
02:22
since we don't know how to read the pattern.
51
142260
3000
از آنجائیکه نمی دانیم که چگونه این الگو ها را بخوانیم.
02:25
We don't understand the code used by the brain.
52
145260
3000
ما کد ها و رمز های مغزی را نمی فهمیم.
02:28
To make progress,
53
148260
2000
برای پیشرفت ،
02:30
we need to break the code.
54
150260
2000
ما بایست این کد ها را بشکافیم
02:32
But how?
55
152260
2000
اما چگونه ؟
02:35
An experienced code-breaker will tell you
56
155260
2000
یک تجزیه کننده با تجربه کد به شما خواهد گفت که
02:37
that in order to figure out what the symbols in a code mean,
57
157260
3000
به این منظور که دریابید این نشانه ها به چه معناست
02:40
it's essential to be able to play with them,
58
160260
3000
لازم است تا کمی با آنها بازی کنید
02:43
to rearrange them at will.
59
163260
2000
و آنها را باز آرایی کنید.
02:45
So in this situation too,
60
165260
2000
با این شرایط هم همچنان
02:47
to decode the information
61
167260
2000
تحلیل و كد برداري اطلاعات
02:49
contained in patterns like this,
62
169260
2000
که در این الگو جمع شده
02:51
watching alone won't do.
63
171260
2000
بررسی مجزای آن بی فایده خواهد بود.
02:53
We need to rearrange the pattern.
64
173260
2000
ما نیاز به بازآرایی این الگو داریم...
02:55
In other words,
65
175260
2000
به عبارت دیگر
02:57
instead of recording the activity of neurons,
66
177260
2000
در عوض ضبظ فعالیت های نورونی
02:59
we need to control it.
67
179260
2000
ما می بایست آنها را کنترل کنیم.
03:01
It's not essential that we can control
68
181260
2000
کنترل همه نورون های مغر به یکباره
03:03
the activity of all neurons in the brain, just some.
69
183260
3000
هیچ ضرورتی ندارد. تنها به تعدادی از آن نیازمندیم...
03:06
The more targeted our interventions, the better.
70
186260
2000
هرچه هدف های تجسس و جستجوی ما بیشتر باشد ، نتیجه بهتر است.
03:08
And I'll show you in a moment
71
188260
2000
من در این لحظه به شما نشان خواهم داد
03:10
how we can achieve the necessary precision.
72
190260
3000
که چطور می توانیم به حقایق ضروری دست یابیم.
03:13
And since I'm realistic, rather than grandiose,
73
193260
3000
از آنجائیکه من واقع گرا هستم ، در عوض قاطع و مصمم ،
03:16
I don't claim that the ability to control the function of the nervous system
74
196260
3000
من مدعی نمی باشم که با توانایی کنترل کارکرد های سیستم های عصبی مغز
03:19
will at once unravel all its mysteries.
75
199260
3000
قادر خواهیم بود همهی رازهایش را بر ملا کنیم.
03:22
But we'll certainly learn a lot.
76
202260
3000
اما اینگونه مطمئنا چیز های زیادی خواهیم آموخت.
03:27
Now, I'm by no means
77
207260
2000
هرگز من اولین کسی که
03:29
the first person to realize
78
209260
2000
....
03:31
how powerful a tool intervention is.
79
211260
3000
تاثیر و قدرت مغز را دریافته باشد نیستم .... (!)
03:34
The history of attempts
80
214260
2000
تاریخ کوشش ها و تلاش هایی
03:36
to tinker with the function of the nervous system
81
216260
2000
که به کارکرد سیستم های عصبی پرداخته اتد
03:38
is long and illustrious.
82
218260
2000
بسیار طولانی و بارز بوده است...
03:40
It dates back at least 200 years,
83
220260
3000
این تلاشها به حداقل 200 سال قبل باز می گردد،
03:43
to Galvani's famous experiments
84
223260
2000
به آزمایش معروف گالوانی
03:45
in the late 18th century and beyond.
85
225260
3000
در حدود قرن 18 و پس از آن...
03:49
Galvani showed that a frog's legs twitched
86
229260
3000
گالوانی نشان داد که پاهای غورباقه به آرامی تکان می خورد وقتی
03:52
when he connected the lumbar nerve
87
232260
2000
که عصب های لومبر ( حرکتی ) در ارتباط با
03:54
to a source of electrical current.
88
234260
3000
منبع ای از جریاناتت الکتریکی قرار می گیریند یا تحریک می شوند
03:57
This experiment revealed the first, and perhaps most fundamental,
89
237260
3000
این آزمایش موضوعات ابتدایی و شاید مهمترین بنیان ها را فاش کرد
04:00
nugget of the neural code:
90
240260
2000
موارد با ارزش از کد های عصبی :
04:02
that information is written in the form
91
242260
2000
که اطلاعات آن به شکل
04:04
of electrical impulses.
92
244260
3000
پالس های الکتریکی نوشته شده است.
04:08
Galvani's approach
93
248260
2000
راهبرد گالوانی
04:10
of probing the nervous system with electrodes
94
250260
2000
در کشف سیستم عصبی به کمک الکترود ها
04:12
has remained state-of-the-art until today,
95
252260
3000
به عنوان شاهکار هایی تا به امروز باقی مانده است.
04:15
despite a number of drawbacks.
96
255260
3000
بر خلاف تعدادی از زیان ها و خساراتی که داشته .
04:18
Sticking wires into the brain is obviously rather crude.
97
258260
3000
چسباندن سیم ها به مغز آشکارا یک کار غیر حرفه ای بوده
04:21
It's hard to do in animals that run around,
98
261260
2000
این کار بر روی حیوانات مورد مطالعه دشوار بوده
04:23
and there is a physical limit
99
263260
2000
و محدودیت های فیزیکی
04:25
to the number of wires
100
265260
2000
برای تعداد سیم ها وجود دارد
04:27
that can be inserted simultaneously.
101
267260
3000
آنهایی که می توانند در یک لحظه با هم متصل شوند.
04:30
So around the turn of the last century,
102
270260
2000
بنابراین در حدود قرن اخیر
04:32
I started to think,
103
272260
2000
من به این فکر افتادم که
04:34
"Wouldn't it be wonderful if one could take this logic
104
274260
3000
شگفت انگیز نخواهد بود اگر کسی این منطق را بتواند
04:37
and turn it upside down?"
105
277260
2000
در یابد و آن را وارونه بررسی کند.
04:39
So instead of inserting a wire
106
279260
2000
پس در عوض اتصال سیم
04:41
into one spot of the brain,
107
281260
3000
در یک نقطه مشخص از مغر
04:44
re-engineer the brain itself
108
284260
2000
خود مغز بررسی مجدد شود.
04:46
so that some of its neural elements
109
286260
3000
اینگونه تعدادی از المانهای عصبی
04:49
become responsive to diffusely broadcast signals
110
289260
3000
در قبال سیگنال های ارسالی خنثی گر ، پاسخگو باشد (!)
04:52
such as a flash of light.
111
292260
3000
مثل یک نور فلاش.
04:55
Such an approach would literally, in a flash of light,
112
295260
3000
اینگونه این راهکرد ها
04:58
overcome many of the obstacles to discovery.
113
298260
3000
در راه کشف بسیاری از مشکلات به ما کمک خواهد کرد.
05:01
First, it's clearly a non-invasive,
114
301260
3000
اولا ، مشخصا چیزی وارد بدن شخص نمی شود
05:04
wireless form of communication.
115
304260
3000
ارتباط از نوع بی سیم
05:07
And second, just as in a radio broadcast,
116
307260
2000
و دوما ، درست مثل امواج رادیویی ،
05:09
you can communicate with many receivers at once.
117
309260
3000
می توانید با تعداد زیادی از دریافت کنندهی سیگنال ها در همان لحظه ارتباط برقرار کنید.
05:12
You don't need to know where these receivers are,
118
312260
3000
نیاز به این نست که بدانید گیرنده ها در کجا هستند.
05:15
and it doesn't matter if these receivers move --
119
315260
2000
و اهمیتی هم ندارد که این گیرنده ها حتی حرکت کنند.
05:17
just think of the stereo in your car.
120
317260
3000
به استریو ماشین تان فکر کنید.
05:20
It gets even better,
121
320260
3000
و حتی بهتر از این
05:23
for it turns out that we can fabricate the receivers
122
323260
3000
که می توانیم گیرنده هایی هم ایجاد کنیم.
05:26
out of materials that are encoded in DNA.
123
326260
3000
خارج از آنچه که توسط DNA رمز نگاری شده است.
05:29
So each nerve cell
124
329260
2000
پس هر سلول عصبی
05:31
with the right genetic makeup
125
331260
2000
با نشان ژنتیکی خاص خود
05:33
will spontaneously produce a receiver
126
333260
3000
به طور ذاتی خواهد توانست گیرنده ای تولید کند
05:36
that allows us to control its function.
127
336260
3000
این کار به ما اجازه می دهد تا کارکرد هایش را کنترل کنیم
05:39
I hope you'll appreciate
128
339260
2000
امید وارم شما
05:41
the beautiful simplicity
129
341260
2000
زیبایی سادگی این مفهوم را قدر بدانید.
05:43
of this concept.
130
343260
2000
...
05:45
There's no high-tech gizmos here,
131
345260
2000
هیچ ابزار فوق پیشرفته ای وجود ندارد
05:47
just biology revealed through biology.
132
347260
3000
تنها بیولوژی از طریق زیست شناسی کشف شده.
05:51
Now let's take a look at these miraculous receivers up close.
133
351260
3000
حال بییاییم بر این گیرنده های شگفت انگیز نگاه نزدیکی داشته باشیم.
05:54
As we zoom in on one of these purple neurons,
134
354260
3000
وقتی به یکی ازین نورون های ارغوانی زوم می کنیم
05:57
we see that its outer membrane
135
357260
2000
ما می بینیم که لایه نازک خارجی
05:59
is studded with microscopic pores.
136
359260
2000
با روزنه های میکروسکوپیک پوشانده شده است.
06:01
Pores like these conduct electrical current
137
361260
2000
حفره های اینچنینی جریان های الکتریکی را عبور می دهند
06:03
and are responsible
138
363260
2000
و مسئولیت
06:05
for all the communication in the nervous system.
139
365260
2000
تمام ارتباطات شبکه عصبی را بر عهده دارند.
06:07
But these pores here are special.
140
367260
2000
ولی حفره های این ناحیه شرایط خاصی دارند.
06:09
They are coupled to light receptors
141
369260
2000
آنها برای دریافت نور جفت شده اند ( ؟)
06:11
similar to the ones in your eyes.
142
371260
3000
مانند آنهایی که در چشمان شما وجود دارند.
06:14
Whenever a flash of light hits the receptor,
143
374260
2000
هرگاه یک تابش نور به این گیرنده ها اصابت کند
06:16
the pore opens, an electrical current is switched on,
144
376260
3000
حفره ها باز شده و جریان الکتریکی متصل می شود
06:19
and the neuron fires electrical impulses.
145
379260
3000
و نورون ها پالس های الکتریکی را موجب می شوند.
06:22
Because the light-activated pore is encoded in DNA,
146
382260
3000
زیرا که فعال شدن حفره ها بدلیل تابش پرتو نور در DNA رمز نگاری شده .
06:25
we can achieve incredible precision.
147
385260
3000
ما می توانیم به حقایق شکفت انگیزی دست یابیم.
06:28
This is because,
148
388260
2000
بخاطر اینکه
06:30
although each cell in our bodies
149
390260
2000
اگرچه هر سلول در بدن ما
06:32
contains the same set of genes,
150
392260
2000
شامل بر دسته های مشابه ای از ژن هاست
06:34
different mixes of genes get turned on and off
151
394260
2000
ترکیب های متفاوت ژن ها
06:36
in different cells.
152
396260
2000
در سلول های مختلف روشن و خاموش می شوند.
06:38
You can exploit this to make sure
153
398260
2000
شما جهت اطمینان یافتن از
06:40
that only some neurons
154
400260
2000
اینکه تنها تعدادی از نورون ها
06:42
contain our light-activated pore and others don't.
155
402260
3000
شامل حفره های فعال شدنی با نور هستند و برخی دیگر نیستند می توانید از این شرایط بهره ببرید.
06:45
So in this cartoon, the bluish white cell
156
405260
2000
در این نمایش، این سلول سفید مایل به آبی
06:47
in the upper-left corner
157
407260
2000
در گوشه سمت چپ- بالا
06:49
does not respond to light
158
409260
2000
به تابش نور پاسخ نمی دهند
06:51
because it lacks the light-activated pore.
159
411260
3000
زیرا فقدان حفره های حساس به نور وجود دارد.
06:54
The approach works so well
160
414260
2000
این روش آنقدر خوب بکار آمده
06:56
that we can write purely artificial messages
161
416260
2000
که ما می توانیم پیام های کاملا هوشمندانه
06:58
directly to the brain.
162
418260
2000
مستیقیما روی مغز بنگاریم.
07:00
In this example, each electrical impulse,
163
420260
2000
در این مثال هر پالس الکتریکی ،
07:02
each deflection on the trace,
164
422260
3000
هریک با انحراف خودشان از مسیر ، (؟)
07:05
is caused by a brief pulse of light.
165
425260
3000
به وسیله پالس های نوری مختصری ایجاد شده است و
07:08
And the approach, of course, also works
166
428260
2000
این روش همچنین
07:10
in moving, behaving animals.
167
430260
3000
در حرکت و رفتار های حیوانات به کار گرفته شد.
07:13
This is the first ever such experiment,
168
433260
2000
این اولین نوع از این دست تجربیات بود
07:15
sort of the optical equivalent of Galvani's.
169
435260
3000
نوعی از روشهای اپتیکال مشابه روش گالوانی.
07:18
It was done six or seven years ago
170
438260
2000
این کار حدود 6 یا 7 سال قبل انجام گرفت
07:20
by my then graduate student, Susana Lima.
171
440260
3000
به وسیله دانشجوی لیسانس من، سوزان لیما.
07:23
Susana had engineered the fruit fly on the left
172
443260
3000
سوزان مگس سمت چپی را آزمود
07:26
so that just two out of the 200,000 cells in its brain
173
446260
4000
طوریکه که تنها 2 تا از دویست هزار سلول مغزش
07:30
expressed the light-activated pore.
174
450260
3000
به عنوان حفره های حساس به نور بیان شد.
07:33
You're familiar with these cells
175
453260
2000
شما با این سلول ها آشنایی دارید
07:35
because they are the ones that frustrate you
176
455260
2000
زیرا که مگس ها موجوداتی هستند که
07:37
when you try to swat the fly.
177
457260
2000
وقتی سعی می کنید مگس را بکشید شما را نا امید می کنند و فرار می کنند.
07:39
They trained the escape reflex that makes the fly jump into the air
178
459260
3000
آنها آموخته اند واکنش فرار آنها را مجبور می کند به هوا بجهند و
07:42
and fly away whenever you move your hand in position.
179
462260
3000
و از آنجا دور شوند هر زمان که شما دستهایتان را اینگونه حر کت می دهید.
07:46
And you can see here that the flash of light has exactly the same effect.
180
466260
3000
شما می توانید ببینید که تابش نور تاثیر یکسانی داشته.
07:49
The animal jumps, it spreads its wings, it vibrates them,
181
469260
3000
حیوان جهید ، بالهایش را گستراند ، آنها را تکان داد ،
07:52
but it can't actually take off
182
472260
2000
اما این نمی تواند واقعا یک پرواز کامل باشد
07:54
because the fly is sandwiched between two glass plates.
183
474260
3000
چرا که سرنوشت این مگس مرگ بوده است . و بین دو صفحه ساندویچ شده است .
07:58
Now to make sure that this was no reaction of the fly
184
478260
2000
حال جهت اطمینان از اینکه این حالت واکنش مگس
08:00
to a flash it could see,
185
480260
3000
در دیدن فلاش نوری که دیده است نبوده ،
08:03
Susana did a simple
186
483260
2000
سوزان یک آزمایش ساده و خصمانه را
08:05
but brutally effective experiment.
187
485260
2000
با این مگس انجام می دهد.
08:07
She cut the heads off of her flies.
188
487260
3000
سوزان سر آن مگس را از تنش جدا می کند.
08:11
These headless bodies can live for about a day,
189
491260
3000
این بدن بی سر می تواند تا حدود یک روز دیگر زنده بماند
08:14
but they don't do much.
190
494260
2000
اما کاری نمی تواند بکند
08:16
They just stand around
191
496260
3000
تنها همان جا می ماند و
08:19
and groom excessively.
192
499260
3000
بشدت تیمار می کند.
08:22
So it seems that the only trait that survives decapitation is vanity.
193
502260
3000
پس بنظر می رسد تنها گونه ای که بدون سر زنده می ماند غرور و خود بینی است.
08:25
(Laughter)
194
505260
3000
ها ها ها ها ...
08:30
Anyway, as you'll see in a moment,
195
510260
2000
حال ، آنچه که دیده ایم
08:32
Susana was able to turn on the flight motor
196
512260
3000
سوزان قادر بود تا موتور پرواز
08:35
of what's the equivalent of the spinal cord of these flies
197
515260
3000
چیزی که مشابه سیم پشتی موتور مگس است را روشن کند
08:38
and get some of the headless bodies
198
518260
2000
و بدن بی سر مگس را وادار کند
08:40
to actually take off and fly away.
199
520260
3000
تا عملا از زمین بلند شود و پرواز کند.
08:47
They didn't get very far, obviously.
200
527260
2000
ولی منطقا آنها بیش ازین جلو نرفتند
08:50
Since we took these first steps,
201
530260
2000
از زمانی که ما ابن قدم های اولیه را برداشتیم
08:52
the field of optogenetics has exploded.
202
532260
3000
رشته ژن سنجی گسترش یافته بود.
08:55
And there are now hundreds of labs
203
535260
2000
و هم اکنون صد ها آزمایشگاه
08:57
using these approaches.
204
537260
2000
از این روش ها استفاده می کنند.
08:59
And we've come a long way
205
539260
2000
و ما مسیر طولانی را پیمودیم
09:01
since Galvani's and Susana's first successes
206
541260
3000
از آزمایش گالوانی گرفته تا موفقیت سوزان .
09:04
in making animals twitch or jump.
207
544260
2000
در وادار کردن حیوانات به جهش ...
09:06
We can now actually interfere with their psychology
208
546260
3000
ما در واقع میتوانیم با روانشناسی آنها مربوط شویم
09:09
in rather profound ways,
209
549260
2000
در روش های ژرف و عمیق آن
09:11
as I'll show you in my last example,
210
551260
2000
آنطور که من در آزمایش آخرم نشان خواهم داد
09:13
which is directed at a familiar question.
211
553260
3000
که به یک سوال آشنا ختم می شود.
09:16
Life is a string of choices
212
556260
3000
زندگی رسته ای از انتخابها است
09:19
creating a constant pressure to decide what to do next.
213
559260
3000
که فشار ثابتی برای ما ایجاد میکند که ما در گام بعدی چه انتخاب کنیم.
09:23
We cope with this pressure by having brains,
214
563260
3000
ما به این فشارها توانستیم به کمک مغزمان، به آنها عادت کنیم
09:26
and within our brains, decision-making centers
215
566260
3000
و در درون مغزمان، مرکز تصمیم گیری
09:29
that I've called here the "Actor."
216
569260
3000
که من در اینجا آنرا بازیگر می نامم بما کمک می کند.
09:33
The Actor implements a policy that takes into account
217
573260
3000
این بازیگر سیاست یا رویه ای را پیاده سازی می کند که
09:36
the state of the environment
218
576260
2000
با شرایط محیط سازگار و معتبر می باشد.
09:38
and the context in which we operate.
219
578260
3000
و همینطور زمینه ای که ما بدان عمل می کنیم.
09:41
Our actions change the environment, or context,
220
581260
3000
اعمال ما محیط و یا مفهوم کار ما را تغییر می دهند
09:44
and these changes are then fed back into the decision loop.
221
584260
3000
و این تغییرات مجددا در چرخه تصمیم گیری ما وارد می شود.
09:48
Now to put some neurobiological meat
222
588260
3000
حال چند نمونه نوروبیولوژیک
09:51
on this abstract model,
223
591260
2000
در این مدل انتزاعی قرار دهید.
09:53
we constructed a simple one-dimensional world
224
593260
2000
ما یک جهان یک بعدی ساده را ایجاد کرده ایم
09:55
for our favorite subject, fruit flies.
225
595260
3000
برای موضوع مطلوبمان، مگس ها.
09:58
Each chamber in these two vertical stacks
226
598260
2000
هر اتاق در این بسته های عمودی
10:00
contains one fly.
227
600260
2000
شامل یک مگس می شود.
10:02
The left and the right halves of the chamber
228
602260
3000
نیمه چپ و نیمه راست از این اتاق
10:05
are filled with two different odors,
229
605260
2000
از دو نوع عطر مختلف پر شده است
10:07
and a security camera watches
230
607260
2000
و دوربین امنیتی
10:09
as the flies pace up and down between them.
231
609260
3000
پیمایش بالا و پایین مگس ها را بین آنها را بررسی می کند.
10:12
Here's some such CCTV footage.
232
612260
2000
اینجا بعضی از ردپاهای سی سی تی وی دوربین آمده است.
10:14
Whenever a fly reaches the midpoint of the chamber
233
614260
3000
که هرگاه مگس به نقطه میانی اتاق رسیده است
10:17
where the two odor streams meet,
234
617260
2000
جایی که دو بو با هم در تماس هستند
10:19
it has to make a decision.
235
619260
2000
باید برای خود تصمیم گیری کند.
10:21
It has to decide whether to turn around
236
621260
2000
او باید انتخاب کند که باز گردد و در این عطر بماند
10:23
and stay in the same odor,
237
623260
2000
در این بو،
10:25
or whether to cross the midline
238
625260
2000
و یا این خط میانی را بگذرد
10:27
and try something new.
239
627260
2000
و بوی دیگر را آزمایش کند.
10:29
These decisions are clearly a reflection
240
629260
3000
این حقایق در واقع بازتاب
10:32
of the Actor's policy.
241
632260
3000
سیاست بازیگر می باشد.
10:36
Now for an intelligent being like our fly,
242
636260
3000
حال برای هوشمند بودن مانند مگس خودمان
10:39
this policy is not written in stone
243
639260
3000
این سياست روی سنگ نوشته نشده
10:42
but rather changes as the animal learns from experience.
244
642260
3000
بلکه به تدریج که این حیوان از تجربیاتش می آموزد تغییر می کند.
10:45
We can incorporate such an element
245
645260
2000
ما می توانیم این المان ها را بکار گیریم
10:47
of adaptive intelligence into our model
246
647260
3000
تا هوشمندی را در مدل های خودمان نهاده کنیم.
10:50
by assuming that the fly's brain
247
650260
2000
با دریافت اینکه مغز مگس
10:52
contains not only an Actor,
248
652260
2000
نه تنها شامل آن بازیگر سیاست پرداز است
10:54
but a different group of cells,
249
654260
2000
بلکه از گروه دیگری از سلول ها تشکیل شده
10:56
a "Critic," that provides a running commentary
250
656260
3000
بخش نقد ، که گزارش و تفسیر پیوسته ای را
10:59
on the Actor's choices.
251
659260
2000
برای انتخاب های بازیگر فراهم می آورد.
11:01
You can think of this nagging inner voice
252
661260
3000
شما می توانبد به صدای گوشزد کننده درونی تان فکر کنید مانند
11:04
as sort of the brain's equivalent
253
664260
2000
مغز کسانی که در
11:06
of the Catholic Church,
254
666260
2000
کلیسای کاتولیک هستند فکر کنید
11:08
if you're an Austrian like me,
255
668260
3000
اگر مانند من استرالیایی هستید
11:11
or the super-ego, if you're Freudian,
256
671260
3000
و یا وجدان، اگر که وابسته به فروید هستید،
11:14
or your mother, if you're Jewish.
257
674260
2000
یا صدای مادرتان ، اگر که یهودی هستید.
11:16
(Laughter)
258
676260
4000
ها ها ها ها ها ...
11:20
Now obviously,
259
680260
2000
بطور شفاف می بینیم ،
11:22
the Critic is a key ingredient
260
682260
3000
که عامل نقد ار ملزومات مهم
11:25
in what makes us intelligent.
261
685260
2000
در چیزی است که که هوشمندی در ما را باعث می شود.
11:27
So we set out to identify
262
687260
2000
بنابراین ما قصد داریم تا
11:29
the cells in the fly's brain
263
689260
2000
سلول هایی در مغز مگس را شناسایی کنیم که
11:31
that played the role of the Critic.
264
691260
2000
نقش عامل نقد و مقایسه را بازی میکند.
11:33
And the logic of our experiment was simple.
265
693260
3000
منطق آزمایش ما ساده بوده ،
11:36
We thought if we could use our optical remote control
266
696260
3000
ما می پنداشتیم اگر بتوانیم از کنترل از راه دور نوری استفاده کنیم
11:39
to activate the cells of the Critic,
267
699260
3000
تا سلول های بررسی کننده و نقاد را فعال کنیم ،
11:42
we should be able, artificially, to nag the Actor
268
702260
3000
ما می بایست قادر باشیم تا بطور مصنوعی این بازیگر را
11:45
into changing its policy.
269
705260
2000
مجبور به تغییر رویه هایش کنیم.
11:47
In other words,
270
707260
2000
به بیان دیگر
11:49
the fly should learn from mistakes
271
709260
2000
مگس بایست از اشتباهاتش
11:51
that it thought it had made
272
711260
2000
آنهایی را که فکر می کرد اتفاق افتاده ، بیاموزد
11:53
but, in reality, it had not made.
273
713260
3000
در واقع چنین چیزی رخ نداده بود. ( ؟)
11:56
So we bred flies
274
716260
2000
پس ما مگس هایی را پرورش دادیم
11:58
whose brains were more or less randomly peppered
275
718260
3000
که مغزهایشان کما بیش بطور تصادفی
12:01
with cells that were light addressable.
276
721260
2000
با سلول هایی که نور-آدرس پذیر بودند تقویت شده بود.
12:03
And then we took these flies
277
723260
2000
و سپس این مگس ها را آورده و
12:05
and allowed them to make choices.
278
725260
2000
اجازه دادیم تا انتخاب هایشان را انجام دهند.
12:07
And whenever they made one of the two choices,
279
727260
2000
و هرگاه که آنها یکی از دو انتخاب را انجام می دادند
12:09
chose one odor,
280
729260
2000
و یک بوی زا انتخاب می کردند
12:11
in this case the blue one over the orange one,
281
731260
2000
در این مورد نوع آبی نسبت به نوع نارنجی
12:13
we switched on the lights.
282
733260
2000
ما نور ها را با هم عوض می کردیم.
12:15
If the Critic was among the optically activated cells,
283
735260
3000
اگر عامل نقد کننده در میان سلول های فعال ساز شده با نور بود
12:18
the result of this intervention
284
738260
2000
نتیجه این آزمایش
12:20
should be a change in policy.
285
740260
3000
بایست تغییر در رویه بوده باشد.
12:23
The fly should learn to avoid
286
743260
2000
مگس می بایست بیاموزد تا
12:25
the optically reinforced odor.
287
745260
2000
بوی اجبار شده نوري را نپذیرد.
12:27
Here's what happened in two instances:
288
747260
3000
اینها نتایجی است که در این دو مثال اتفاق افتاد.
12:30
We're comparing two strains of flies,
289
750260
3000
ما در حال مقایسه این دو دسته از مگس ها هستیم که
12:33
each of them having
290
753260
2000
هر کدامشان
12:35
about 100 light-addressable cells in their brains,
291
755260
2000
حدود یکصد سلول نور-آدرس پذیر در مغشان دارند .
12:37
shown here in green on the left and on the right.
292
757260
3000
نشان داده شده در اینجا سمت چپ و سمت راست
12:40
What's common among these groups of cells
293
760260
3000
چه چیزی در بین این گروهها آنچه که معمول و عادی است
12:43
is that they all produce the neurotransmitter dopamine.
294
763260
3000
چيزی است که همه آنها تولید می کنند ترشحات (؟) فرستندهای نورونی مغز است
12:46
But the identities of the individual
295
766260
2000
اما شناسایی هر کدام
12:48
dopamine-producing neurons
296
768260
2000
از نورون های تولید کننده این مواد در مغز
12:50
are clearly largely different on the left and on the right.
297
770260
3000
در بین سمت چپی و سمت راستی بسیار متفاوت است .
12:53
Optically activating
298
773260
2000
فعال سازی نوری
12:55
these hundred or so cells
299
775260
2000
این چند صد سلول
12:57
into two strains of flies
300
777260
2000
از دو دسته از مگس ها
12:59
has dramatically different consequences.
301
779260
2000
بطور چشمگير فرایند ها و نتایج متفاوتی دارد.
13:01
If you look first at the behavior
302
781260
2000
اگر ابتدا به رفتار
13:03
of the fly on the right,
303
783260
2000
مگس های سمت راست نگاه کنید
13:05
you can see that whenever it reaches the midpoint of the chamber
304
785260
3000
خواهید دید که آنها به محض اینکه به نقطه میانی فضا می رسند
13:08
where the two odors meet,
305
788260
2000
جایی که دو بو در کنار هم قرار دارند
13:10
it marches straight through, as it did before.
306
790260
3000
مطابق آنچه قبلا انجا م می داده از میانش میگذرد.
13:13
Its behavior is completely unchanged.
307
793260
2000
رفتارشان کاملا بی تغییر مانده است.
13:15
But the behavior of the fly on the left is very different.
308
795260
3000
اما رفتار آن سمت چپی کاملا متفاوت است .
13:18
Whenever it comes up to the midpoint,
309
798260
3000
هرگاه آنها به نقطه میانی می رسند
13:21
it pauses,
310
801260
2000
مکث می کنند و
13:23
it carefully scans the odor interface
311
803260
2000
به دقت ورودی بوی دیگر را حس می کنند و
13:25
as if it was sniffing out its environment,
312
805260
2000
همانطور که در طبیعت بو می کشند ،
13:27
and then it turns around.
313
807260
2000
و سپس باز می گردند.
13:29
This means that the policy that the Actor implements
314
809260
3000
این بدان معناست که رویه هایی که بازیگر ما بر می گزیند
13:32
now includes an instruction to avoid the odor
315
812260
2000
اکنون شامل دستورالعمل امتناع از بویی که
13:34
that's in the right half of the chamber.
316
814260
3000
در نیمه راست اتاق وجود دارد نیز می شود.
13:37
This means that the Critic
317
817260
2000
یعنی عامل نقد
13:39
must have spoken in that animal,
318
819260
2000
باید در آن حیوان چیزی گفته باشد
13:41
and that the Critic must be contained
319
821260
2000
و اینکه عامل نقد باید
13:43
among the dopamine-producing neurons on the left,
320
823260
3000
شامل نورون هایی تولید کننده دوپامین در دسته سمت چپی نیز باشد ،
13:46
but not among the dopamine producing neurons on the right.
321
826260
3000
اما در میان نورون های تولیدگر دوپامین در دسته سمت راستی ...
13:49
Through many such experiments,
322
829260
3000
از طریق چندین آزمایش مشابه
13:52
we were able to narrow down
323
832260
2000
توانستیم تا
13:54
the identity of the Critic
324
834260
2000
عامل نقد و بررسی را
13:56
to just 12 cells.
325
836260
2000
تنها 12 سلول شناسایی کنیم.
13:58
These 12 cells, as shown here in green,
326
838260
3000
این 12 سلول که در اینجا با سبز نمایش داده شده
14:01
send the output to a brain structure
327
841260
2000
خروجی هایی را به ساختار مغز ارسال می کنند
14:03
called the "mushroom body,"
328
843260
2000
که قارچ بدن ( مخچه ) نامیده می شود.
14:05
which is shown here in gray.
329
845260
2000
که در اینجا به رنگ خاکستری آمده .
14:07
We know from our formal model
330
847260
2000
از مدل رسمی خود می دانیم که
14:09
that the brain structure
331
849260
2000
ساختار مغز
14:11
at the receiving end of the Critic's commentary is the Actor.
332
851260
3000
بخش انتهایی گزارشات عامل نقد ختم به آن بازیگر می شود.
14:14
So this anatomy suggests
333
854260
2000
این آناتومی بیان می دارد
14:16
that the mushroom bodies have something to do
334
856260
3000
که مخچه با
14:19
with action choice.
335
859260
2000
انتخاب های عملگرا در ارتباط است .
14:21
Based on everything we know about the mushroom bodies,
336
861260
2000
بر اساس هرآنچه از قارچ بدن می دانیم
14:23
this makes perfect sense.
337
863260
2000
بسیار فرایند جالبی است .
14:25
In fact, it makes so much sense
338
865260
2000
در واقع بسیار جالب خواهد بود که
14:27
that we can construct an electronic toy circuit
339
867260
3000
ما بتوانیم مدار اسبابی اکترونیکی را بسازیم که
14:30
that simulates the behavior of the fly.
340
870260
3000
رفتار مگس را شبیه سازی کند.
14:33
In this electronic toy circuit,
341
873260
3000
در این اسباب الکترونیکی
14:36
the mushroom body neurons are symbolized
342
876260
2000
نورونهای مغزی مخچه سمبل شده اند
14:38
by the vertical bank of blue LEDs
343
878260
3000
به تعدادی ال ای دی های آبی رنگ بطور عمودی
14:41
in the center of the board.
344
881260
3000
در وسط برد مرتب شده اند.
14:44
These LED's are wired to sensors
345
884260
2000
این چراغ ها به سنسور ها سیم کشی شده اند
14:46
that detect the presence of odorous molecules in the air.
346
886260
3000
که حضور مولکول های معطر در هوا را شناسایی می کند.
14:50
Each odor activates a different combination of sensors,
347
890260
3000
هر بو ترکیب متفاوتی از سنسور ها را فعال می کند
14:53
which in turn activates
348
893260
2000
که هر کدام
14:55
a different odor detector in the mushroom body.
349
895260
3000
شناساگر بوی متفاوتی را در مخچه فعال می سازد
14:58
So the pilot in the cockpit of the fly,
350
898260
2000
بنابراین خلبان کابین مگس
15:00
the Actor,
351
900260
2000
آن بازیگر ،
15:02
can tell which odor is present
352
902260
2000
می تواند بگوید کدام بو حاضر است
15:04
simply by looking at which of the blue LEDs lights up.
353
904260
4000
تنها با نگاه بر روشن شدن چراغ ها .
15:09
What the Actor does with this information
354
909260
2000
آنچه که این بازیگر انجام میدهد با این اطلاعات
15:11
depends on its policy,
355
911260
2000
بستگی به رویه اش دارد که
15:13
which is stored in the strengths of the connection,
356
913260
2000
که در رشته ای از ارتباطات نهفته است .
15:15
between the odor detectors
357
915260
2000
میان شناساگر بوها
15:17
and the motors
358
917260
2000
و موتور ها یی که
15:19
that power the fly's evasive actions.
359
919260
2000
امکان امتناع مگس ها را تامین می کند.
15:22
If the connection is weak, the motors will stay off
360
922260
2000
اگر ارتباط ضعیف باشد موتور خاموش می ماند و
15:24
and the fly will continue straight on its course.
361
924260
3000
و مگس در مسیر مستقیم در همان بخش ادامه میدهد.
15:27
If the connection is strong, the motors will turn on
362
927260
3000
اگر ارتباط قوی باشد موتور روشن می شود و
15:30
and the fly will initiate a turn.
363
930260
3000
و مگس یک دور را انجام می دهد.
15:33
Now consider a situation
364
933260
2000
حال وضعی را در نظر بگیرید که
15:35
in which the motors stay off,
365
935260
2000
موتور ها خاموش هستند و
15:37
the fly continues on its path
366
937260
3000
مگس به راهش ادامه می دهد
15:40
and it suffers some painful consequence
367
940260
2000
و تعدادی روند دردناک مثل جریان برق را احساس می کند.
15:42
such as getting zapped.
368
942260
2000
جریان برق ...
15:44
In a situation like this,
369
944260
2000
در شرایطی چنین ،
15:46
we would expect the Critic to speak up
370
946260
2000
ما انتظار داریم تا عامل نقد برخیزد و به
15:48
and to tell the Actor
371
948260
2000
بازیگر بگوید
15:50
to change its policy.
372
950260
2000
تا رویه اش را تییر دهد
15:52
We have created such a situation, artificially,
373
952260
3000
ما این روند را به طور مصنوعی ایجاد کردیم و
15:55
by turning on the critic with a flash of light.
374
955260
3000
آنهم با فعال سازی عامل نقد بکمک فلاش نور.
15:58
That caused a strengthening of the connections
375
958260
3000
که باعث تقویت ارتباطات شد
16:01
between the currently active odor detector
376
961260
3000
بین شناساگر های فعلی بو
16:04
and the motors.
377
964260
2000
و موتور ها
16:06
So the next time
378
966260
2000
و دفعه بعد نیز
16:08
the fly finds itself facing the same odor again,
379
968260
3000
مگس خود را رویاروی همان بو می بیند
16:11
the connection is strong enough to turn on the motors
380
971260
3000
و این ارتباط آنقدر قوی هست تا موتور ها را به کار اندازد
16:14
and to trigger an evasive maneuver.
381
974260
3000
تا مانور بازدارنده را در مگس ایجاد کند.
16:19
I don't know about you,
382
979260
3000
در مورد شما نمی دانم
16:22
but I find it exhilarating to see
383
982260
3000
اما برای من هیجان انگیز است تا دریابم
16:25
how vague psychological notions
384
985260
3000
که چطور این عوامل مغزی و روانی
16:28
evaporate and give rise
385
988260
2000
تغییر مییابد و
16:30
to a physical, mechanistic understanding of the mind,
386
990260
3000
به درک مکانیکی و فیزیکی مغز می انجامد.
16:33
even if it's the mind of the fly.
387
993260
3000
حتی در مغز مگس ...
16:36
This is one piece of good news.
388
996260
3000
این تنها یک بخش از خبر های خوب است .
16:39
The other piece of good news,
389
999260
2000
خبر خوب دیگر
16:41
for a scientist at least,
390
1001260
2000
حداقل برای دانشمندان
16:43
is that much remains to be discovered.
391
1003260
3000
هنوز خیلی مانده تا کشف شود و بدست آید.
16:46
In the experiments I told you about,
392
1006260
2000
در آزمایشاتی که من راجع بهشان گفتم ،
16:48
we have lifted the identity of the Critic,
393
1008260
3000
ما تلاش کردیم تا عامل نقد را بیابیم
16:51
but we still have no idea
394
1011260
2000
اما هنوز نظری راجع به
16:53
how the Critic does its job.
395
1013260
2000
اینکه این بخش چگونه کارش را انجام می دهد نداریم .
16:55
Come to think of it, knowing when you're wrong
396
1015260
2000
بیایید به آن بیاندیشیم ، با دانستن اینکه شما بدون معلم یا مادرتان که به شما بگوید
16:57
without a teacher, or your mother, telling you,
397
1017260
3000
...
17:00
is a very hard problem.
398
1020260
2000
که مساله سختی است !
17:02
There are some ideas in computer science
399
1022260
2000
چند نظر در علوم کامپیوتر وجود دارد
17:04
and in artificial intelligence
400
1024260
2000
و در هوش مصنوعی
17:06
as to how this might be done,
401
1026260
2000
که چطور ممکن است اینطور شود ،
17:08
but we still haven't solved
402
1028260
2000
ولی ما هنوز حلی برای
17:10
a single example
403
1030260
2000
یک مثال ساده
17:12
of how intelligent behavior
404
1032260
3000
از اینکه رفتار هوشمندانه
17:15
springs from the physical interactions
405
1035260
2000
چگونه از تعاملات فیزیکی نشات می گیرد
17:17
in living matter.
406
1037260
2000
در موجودات زنده ، نداریم.
17:19
I think we'll get there in the not too distant future.
407
1039260
3000
و من فکر میکنم ، در آینده ای نه چندان دور بدانجا خواهیم رسید...
17:22
Thank you.
408
1042260
2000
متشکرم.
17:24
(Applause)
409
1044260
4000
تشویق حاضران و گل و بلبل ...
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7