What we'll learn about the brain in the next century | Sam Rodriques

174,236 views ・ 2018-07-03

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: Saeed DashtakiPour Reviewer: Leila Ataei
00:13
I want to tell you guys something about neuroscience.
0
13040
2507
می‌خواهم که به شما چیزهایی راجع به علوم اعصاب بگویم.
00:16
I'm a physicist by training.
1
16040
1800
من رشته‌ی فیزیک را آموزش دیده‌ام.
00:18
About three years ago, I left physics
2
18230
2206
حدود ۳ سال پیش، فیزیک را رها کردم
00:20
to come and try to understand how the brain works.
3
20460
2349
تا بیایم و برای درک چگونگی رفتار مغز تلاش کنم.
00:22
And this is what I found.
4
22833
1474
و این چیزی است که من یافتم.
00:24
Lots of people are working on depression.
5
24331
2064
بسیاری از افراد در حال کار روی افسردگی‌اند.
00:26
And that's really good,
6
26419
1159
و این واقعا خوب است،
00:27
depression is something that we really want to understand.
7
27602
2721
افسردگی چیزی است که واقعاً می‌خواهیم درکش کنیم.
00:30
Here's how you do it:
8
30347
1167
اینجوری انجامش می‌دهید:
00:31
you take a jar and you fill it up, about halfway, with water.
9
31538
4161
یک شیشه می‌گیرید و با آب تا نصفه پُرش می‌کنید.
00:35
And then you take a mouse, and you put the mouse in the jar, OK?
10
35723
4182
بعد یک موش می‌آورید و در شیشه قرار می‌دهید درست؟
00:39
And the mouse swims around for a little while
11
39929
2350
و موش برای مدتی به اطراف شنا می‌کند.
00:42
and then at some point, the mouse gets tired
12
42303
2388
ودر نقطه‌ای، موش خسته می‌شود
00:44
and decides to stop swimming.
13
44715
1934
و تصمیم می‌گیرد شنا نکند.
00:46
And when it stops swimming, that's depression.
14
46673
3133
و وقتی از شنا کردن دست می‌کشد، این افسردگی است.
00:50
OK?
15
50696
1150
درست؟
00:52
And I'm from theoretical physics,
16
52291
3380
و من از بخش فیزیک نظری هستم،
00:55
so I'm used to people making very sophisticated mathematical models
17
55695
3668
پس من با افرادی آشنا بودم که مدل‌های ریاضی سطح بالایی
00:59
to precisely describe physical phenomena,
18
59387
2881
برای تشریح دقیق پدیده‌های فیزیکی می‌ساختند.
01:02
so when I saw that this is the model for depression,
19
62292
2452
پس وقتی دیدم که این مدل افسردگی است،
01:04
I though to myself, "Oh my God, we have a lot of work to do."
20
64768
2937
فکر کردم که "اُه خدای من، کار خیلی زیادی در پیش داریم."
01:07
(Laughter)
21
67729
1370
(خنده حضار)
01:09
But this is a kind of general problem in neuroscience.
22
69123
2951
اما این یک نوع مشکل عمومی در علوم اعصاب است.
01:12
So for example, take emotion.
23
72377
2111
بعنوان مثال، درک احساس.
01:14
Lots of people want to understand emotion.
24
74512
2459
بسیاری از افراد می‌خواهند که احساس را بفهمند.
01:17
But you can't study emotion in mice or monkeys
25
77352
3313
اما شما نمی‌توانید احساس را در موش‌ها یا میمون‌ها مطالعه کنید
01:20
because you can't ask them
26
80689
1254
چون نمی‌توانید بپرسید
01:21
how they're feeling or what they're experiencing.
27
81967
2317
که چه حسی دارند یا چه چیزی تجربه می‌کنند.
01:24
So instead, people who want to understand emotion,
28
84308
2357
در عوض، افرادی که می‌خواهند احساس را درک کنند،
01:26
typically end up studying what's called motivated behavior,
29
86689
2777
معمولًا مطالعاتی می‌کنند که رفتار تحریک شده نامیده ‌می‌شود،
01:29
which is code for "what the mouse does when it really, really wants cheese."
30
89490
3658
که کُدی هست برای "موش چه می‌کند وقتی واقعاً و واقعاً پنیر را می‌خواهد".
01:33
OK, I could go on and on.
31
93839
1675
درست، حال می‌توانم ادامه دهم.
01:35
I mean, the point is, the NIH spends about 5.5 billion dollars a year
32
95538
6316
یعنی این که نکته این هست که "NIH" سالانه حدود ۵/۵ میلیارد دلار
01:41
on neuroscience research.
33
101878
1532
بر روی تحقیقات علوم اعصاب هزینه می‌کند.
01:43
And yet there have been almost no significant improvements in outcomes
34
103434
3603
و هنوز هیچ پیشرفت چشمگیری در خروجی‌ها برای بیماران
01:47
for patients with brain diseases in the past 40 years.
35
107061
3491
با بیماری‌های مغزی در ۴۰ سال گذشته وجود نداشته است.
01:51
And I think a lot of that is basically due to the fact
36
111015
2540
و فکر می‌کنم بخش بزرگی از آن مربوط به این حقیقت است
01:53
that mice might be OK as a model for cancer or diabetes,
37
113579
4151
که موش‌ها شاید برای سرطان و دیابت مد‌ل‌های خوبی باشند،
01:57
but the mouse brain is just not sophisticated enough
38
117754
2687
اما مغز موش به اندازه کافی
02:00
to reproduce human psychology or human brain disease.
39
120465
3175
برای بازسازی روانشناسی آدم‌ها و یا بیماری مغز انسان مناسب نیست.
02:04
OK?
40
124379
1225
درست؟
02:05
So if the mouse models are so bad, why are we still using them?
41
125628
3634
پس اگرمدل‌های موش این قدر بد هستند، چرا هنوز از آن‌ها استفاده می‌کنیم؟
02:10
Well, it basically boils down to this:
42
130143
2103
خُب، بطور اساسی مربوط به این مورد است:
02:12
the brain is made up of neurons
43
132270
2556
مغز از رشته‌های عصب تشکیل شده است
02:14
which are these little cells that send electrical signals to each other.
44
134850
3447
که این سلول‌های کوچک هستند که پیغام‌های الکتریکی را به یکدیگر می‌رسانند.
02:18
If you want to understand how the brain works,
45
138680
2144
اگر می‌خواهید بفهمید که مغز چگونه کار می‌کند،
02:20
you have to be able to measure the electrical activity of these neurons.
46
140848
3808
مجبور هستید که بتوانید میزان فعالیت الکتریکی این عصب‌ها را اندازه بگیرید.
02:25
But to do that, you have to get really close to the neurons
47
145339
2992
اما برای انجام آن، باید خیلی به عصب‌ها با نوعی
02:28
with some kind of electrical recording device or a microscope.
48
148355
2928
ثبت کننده الکتریکی یا یک میکروسکوپ نزدیک شوید.
02:31
And so you can do that in mice and you can do it in monkeys,
49
151563
2810
و شما می‌توانید آن را درموش‌ها و میمون‌ها اجرا کنید،
02:34
because you can physically put things into their brain
50
154397
2548
چون شما بصورت فیزیکی می‌توانید چیزها را وارد مغز کنید
02:36
but for some reason we still can't do that in humans, OK?
51
156969
3046
اما بنابر دلایلی هنوز نمی‌توان این کار را با انسان‌ها کنیم، درست؟
02:40
So instead, we've invented all these proxies.
52
160533
3370
در عوض، ما تمام این جایگزین‌ها را درست کرده‌ایم.
02:43
So the most popular one is probably this,
53
163927
2515
واحتمالًا معروف‌ترین آن‌ها این است،
02:46
functional MRI, fMRI,
54
166466
2397
MRI تابعی ، fMRI،
02:48
which allows you to make these pretty pictures like this,
55
168887
2692
که اجازه می‌دهد این شکل‌های زیبا را طوری ترسیم کنید که
02:51
that show which parts of your brain light up
56
171603
2056
نشان دهد کدام بخش‌های مغرتان فعال می‌‌شود
02:53
when you're engaged in different activities.
57
173683
2126
وقتی‌ مشغول فعالیت‌های متنوعی باشید.
02:55
But this is a proxy.
58
175833
1920
اما این یک جایگزین است.
02:57
You're not actually measuring neural activity here.
59
177777
3292
اینجا در واقع فعالیت عصبی را اندازه نمی‌گیرید.
03:01
What you're doing is you're measuring, essentially,
60
181093
2842
شما در حال اندازه‌گیری هستید، اساساً،
03:03
like, blood flow in the brain.
61
183959
1832
شبیه، جریان خون درمغز.
03:05
Where there's more blood.
62
185815
1238
جایی‌که خون بیشتری هست.
03:07
It's actually where there's more oxygen, but you get the idea, OK?
63
187077
3103
در واقع اکسیژن بیشتری حضور دارد، اما شما ایده را گرفتید، درست؟
03:10
The other thing that you can do is you can do this --
64
190204
2519
کار دیگری که می‌توانید انجام دهید این هست
03:12
electroencephalography -- you can put these electrodes on your head, OK?
65
192747
3591
"مغز نگاری الکتریکی" شما می‌توانید این الکترود‌ها را سرتان بگذارید، درست؟
03:16
And then you can measure your brain waves.
66
196362
2143
سپس قادرید امواج مغزتان را اندازه بگیرید.
03:19
And here, you're actually measuring electrical activity.
67
199125
3079
و اینجا، در واقع در حال ثبت فعالیت الکتریکی هستید.
03:22
But you're not measuring the activity of neurons.
68
202228
2365
اما فعالیت عصب‌هارا اندازه نمی‌گیرید.
03:24
You're measuring these electrical currents,
69
204911
2444
شما در حال ثبت این جریان‌های الکتریکی هستید،
03:27
sloshing back and forth in your brain.
70
207379
2299
که در مغزتان عقب و جلو می‌روند.
03:30
So the point is just that these technologies that we have
71
210157
2674
پس نکته تنها این هست که این تکنولوژی‌ها که ما داریم
03:32
are really measuring the wrong thing.
72
212855
2436
در واقع درحال ثبت اطلاعات غلط هستند.
03:35
Because, for most of the diseases that we want to understand --
73
215315
2953
چون، برای بسیاری از بیماری‌ها که می‌خواهیم درک کنیم
03:38
like, Parkinson's is the classic example.
74
218292
2198
مثلاً، مرض پارکینسن یک نمونه کلاسیک است.
03:40
In Parkinson's, there's one particular kind of neuron deep in your brain
75
220514
3554
در پارکینسن، در یک نوع از رشته عصبی عمیق درمغز شما وجود دارد
03:44
that is responsible for the disease,
76
224092
1731
که مسئول این بیماری است،
03:45
and these technologies just don't have the resolution that you need
77
225847
3182
و این تکنولوژی‌ها وضوح لازم را ندارند
03:49
to get at that.
78
229053
1373
برای دستیابی به آن.
03:50
And so that's why we're still stuck with the animals.
79
230450
3974
و بنابراین این دلیلی است که ما همچنان به حیوانات متصل هستیم.
03:54
Not that anyone wants to be studying depression
80
234448
2533
نه این که هر کسی که می‌خواهد افسردگی را مطالعه کند
03:57
by putting mice into jars, right?
81
237005
2262
بوسیله گذاشتن موش‌ها در لیوان است، درست؟
03:59
It's just that there's this pervasive sense that it's not possible
82
239291
3753
بلکه تنها بخاطر این است که یک احساس فراگیر وجود دارد که این غیرممکن است
04:03
to look at the activity of neurons in healthy humans.
83
243068
3847
که به فعالیت عصب‌ها در انسان‌های سالم نگاه شود.
04:08
So here's what I want to do.
84
248180
1492
و این کاری است که می‌خواهم بکنم
04:09
I want to take you into the future.
85
249974
2521
می‌خواهم شما را به آینده ببرم.
04:12
To have a look at one way in which I think it could potentially be possible.
86
252519
4482
تا نگاهی به راهی که من فکر می‌کنم بصورت بالقوه امکان‌پذیر است، بیندازید.
04:17
And I want to preface this by saying, I don't have all the details.
87
257526
3298
و می‌خواهم که با این مقدمه بگویم من جزئیات دقیقی ندارم.
04:21
So I'm just going to provide you with a kind of outline.
88
261272
2967
پس من تنها سرخط مطالب را برای شما آماده می‌کنم.
04:24
But we're going to go the year 2100.
89
264263
2400
اما ما به سال ۲۱۰۰ می‌خواهیم برویم.
04:27
Now what does the year 2100 look like?
90
267732
2299
حالا سال ۲۱۰۰ چه شکلی است؟
04:30
Well, to start with, the climate is a bit warmer that what you're used to.
91
270055
3518
خُب، برای شروع، هوا از چیزی که الان استفاده می‌کنید کمی گرم‌تراست.
04:33
(Laughter)
92
273597
3583
(خنده حضار)
04:37
And that robotic vacuum cleaner that you know and love
93
277204
4952
و آن ربات پاک کننده خلا که شما می‌دانید و دوستش دارید
04:42
went through a few generations,
94
282180
1514
بین چند نسل گذشته است،
04:43
and the improvements were not always so good.
95
283718
2843
و پیشرفت‌ها همیشه خوب نبودند.
04:46
(Laughter)
96
286585
1595
(خنده حضار)
04:48
It was not always for the better.
97
288530
2310
آن همیشه برای بهتر بودن نبوده است.
04:52
But actually, in the year 2100 most things are surprisingly recognizable.
98
292221
4538
اما درواقع، در سال ۲۱۰۰ خیلی از چیزها بطور شگفت‌انگیزی قابل درک هستند.
04:57
It's just the brain is totally different.
99
297458
2734
تنها این است که مغز است که کاملاً متفاوت است.
05:00
For example, in the year 2100,
100
300740
2547
برای مثال در سال ۲۱۰۰،
05:03
we understand the root causes of Alzheimer's.
101
303311
2857
ما به علت‌های اصلی آلزایمر پی برده‌ایم.
05:06
So we can deliver targeted genetic therapies or drugs
102
306192
3714
پس می‌توانیم که درمان‌های ژنتیکی هدفمند و یا داروها را
05:09
to stop the degenerative process before it begins.
103
309930
2876
برای متوقف کردن فرآیندهای مخرب، پیش از وقوع، ارائه دهیم.
05:13
So how did we do it?
104
313629
1333
خُب چطوراین کار را می‌کنیم؟
05:15
Well, there were essentially three steps.
105
315898
2238
خب، سه گام حیاتی وجود داشته است.
05:18
The first step was that we had to figure out
106
318589
2814
گام اول این بود که ما مجبور به یافتنِ
05:21
some way to get electrical connections through the skull
107
321427
3293
چند راه برای دستیابی به اتصال الکتریکی در بین جمجمه بودیم،
05:24
so we could measure the electrical activity of neurons.
108
324744
3015
پس توانستیم که فعالیت الکتریکی عصب‌ها را اندازه گیری کنیم.
05:28
And not only that, it had to be easy and risk-free.
109
328339
4349
و نه فقط آن، باید آسان و بدون ریسک باشد.
05:32
Something that basically anyone would be OK with,
110
332712
2378
چیزی که بطور پایه‌ای هر کس با آن راحت باشد.
05:35
like getting a piercing.
111
335114
1600
شبیه زدن پیِرسینگ !
05:37
Because back in 2017,
112
337156
2747
چون مشابه سال ۲۰۱۷،
05:39
the only way that we knew of to get through the skull
113
339927
2913
تنها راهی که برای دسترسی به داخل جمجمه می‌دانیم
05:42
was to drill these holes the size of quarters.
114
342864
2817
این بود که حفره‌های به اندازه یک کوارتر ایجاد کنیم.
05:46
You would never let someone do that to you.
115
346015
2039
شما هرگز به کسی اجازه این کار را نمی‌دهید.
05:48
So in the 2020s,
116
348967
2253
پس در دهه ۲۰۲۰،
05:51
people began to experiment -- rather than drilling these gigantic holes,
117
351244
3381
افراد بجای حفر چنین سوراخ‌های بزرگی شروع به،
05:54
drilling microscopic holes, no thicker than a piece of hair.
118
354649
3115
حفرسوراخ‌های میکروسکوپی به ضخامت کمتر از یک تار مو کردند.
05:58
And the idea here was really for diagnosis --
119
358735
2096
و ایده اینجا واقعاً برای تشخیص بود.
06:00
there are lots of times in the diagnosis of brain disorders
120
360855
2786
زمان‌های زیادی در تشخیص نارسایی‌های مغز وجود دارد
06:03
when you would like to be able to look at the neural activity beneath the skull
121
363665
4872
وقتی که شما تمایل دارید که قادر به دیدن فعالیت عصب‌ها درداخل جمجمه باشید
06:08
and being able to drill these microscopic holes
122
368561
3191
و قادر به حفر چنین سوراخ‌های میکروسکوپی باشید
06:11
would make that much easier for the patient.
123
371776
2142
که آن را برای بیمار بسیار آسان‌تر می‌کند.
06:13
In the end, it would be like getting a shot.
124
373942
2349
در انتها، ممکن است شبیه یک تزریق باشد.
06:16
You just go in and you sit down
125
376315
1580
شما فقط می‌روید و می‌نشینید
06:17
and there's a thing that comes down on your head,
126
377919
2301
و چیزی هست که بر روی سرتان پایین می‌آید،
06:20
and a momentary sting and then it's done,
127
380244
1953
و یک لحظه متصل می‌شود و بعد تمام می‌شود،
06:22
and you can go back about your day.
128
382221
1864
و می‌توانید به ادامه روزتان بپردازید.
06:24
So we're eventually able to do it
129
384736
4793
پس ما درنهایت قادر به انجام آن-
06:29
using lasers to drill the holes.
130
389553
2667
برای حفر سوراخ‌ها توسط لیزرها هستیم.
06:32
And with the lasers, it was fast and extremely reliable,
131
392244
2620
و با این لیزرها، سریع و کاملاً قابل اعتماد بود،
06:34
you couldn't even tell the holes were there,
132
394888
2213
شما حتی نمی‌توانستید بگوئید سوراخ‌ها آنجاست،
06:37
any more than you could tell that one of your hairs was missing.
133
397125
3000
و بیشتراینکه می‌توانستید بگوئید یک تار موی‌تان را از دست می‌دهید
06:40
And I know it might sound crazy, using lasers to drill holes in your skull,
134
400753
4738
و می‌دانم شاید عجیب به نظربیاید، که از لیزرها برای حفرجمجمه‌ی شما استفاده شود،
06:45
but back in 2017,
135
405515
1366
اما مشابه سال ۲۰۱۷،
06:46
people were OK with surgeons shooting lasers into their eyes
136
406905
4109
افراد با جراحی چشم‌شان توسط لیزرها راحت بودند
06:51
for corrective surgery
137
411038
1214
برای عمل جراحی اصلاحی
06:52
So when you're already here, it's not that big of a step.
138
412276
3887
پس وقتی شما اکنون اینجائید، پس این یک قدم بزرگ نخواهد بود.
06:57
OK?
139
417561
1151
درست؟
06:58
So the next step, that happened in the 2030s,
140
418736
3571
پس قدم بعدی که در دهه ۳۰ رخ داد،
07:02
was that it's not just about getting through the skull.
141
422331
3086
این بود که تنها، موضوع دسترسی به داخل جمجمه نیست.
07:05
To measure the activity of neurons,
142
425441
1700
برای اندازه‌گیری فعالیت عصب‌ها،
07:07
you have to actually make it into the brain tissue itself.
143
427165
3825
شما در واقع باید که به بافت خود مغز برسید .
07:11
And the risk, whenever you put something into the brain tissue,
144
431344
2968
و خطر، اینکه هر زمان چیزی درون بافت مغز قرار دهید،
07:14
is essentially that of stroke.
145
434336
1439
اساساً ضربه مغزی است.
07:15
That you would hit a blood vessel and burst it,
146
435799
2196
که ممکن است یک رگ خون را بزنید و از بین برود،
07:18
and that causes a stroke.
147
438019
1519
و منجر به ضربه مغزی شود.
07:19
So, by the mid 2030s, we had invented these flexible probes
148
439916
3725
پس، در اواسط دهه‌ی ۳۰، ما این کاوشگران انعطاف‌پذیر رادرست کردیم
07:23
that were capable of going around blood vessels,
149
443665
2278
که قادر به حرکت در اطراف رگ‌های خونی بودند،
07:25
rather than through them.
150
445967
1476
بجای آنکه از درونشان حرکت کنند.
07:27
And thus, we could put huge batteries of these probes
151
447467
5697
وبنابراین، ما می‌توانستیم باتری‌های بزرگی ازاین کاوشگران را
07:33
into the brains of patients
152
453188
1357
درون مغز بیمار قرار دهیم
07:34
and record from thousands of their neurons without any risk to them.
153
454569
3270
وبدون هیچ خطری برای بیمار از هزاران عصب اطلاعات دریافت کنیم.
07:39
And what we discovered, sort of to our surprise,
154
459458
4061
و چیزی که کشف کردیم، که نوعی سورپرایز بود،
07:43
is that the neurons that we could identify
155
463543
2190
این هست که عصب‌هایی که می‌توانستیم شناسائی کنیم
07:45
were not responding to things like ideas or emotion,
156
465757
3524
به احساسات و ایده‌ها واکنش نشان نمی‌دهند،
07:49
which was what we had expected.
157
469305
1627
که ما آن را انتظار داشتیم.
07:50
They were mostly responding to things like Jennifer Aniston
158
470956
3796
آن‌ها بیشتر به "جنیفر آنیستون" واکنش نشان می‌دهند
07:54
or Halle Berry
159
474776
2404
و یا "هِیل بری"
07:57
or Justin Trudeau.
160
477204
1310
یا " جاستین ترادو"
07:58
I mean --
161
478538
1253
منظورم اینه
07:59
(Laughter)
162
479815
2326
(خنده حضار)
08:02
In hindsight, we shouldn't have been that surprised.
163
482165
2437
در درک آن، ما نباید اینقدر سورپرایز می‌شدیم.
08:04
I mean, what do your neurons spend most of their time thinking about?
164
484626
3262
یعنی، عصب‌ها اکثر اوقات را به فکر کردن راجع به چه چیزی سپری می‌کنند؟
08:07
(Laughter)
165
487912
1150
(خنده حضار)
08:09
But really, the point is that
166
489380
2040
اما در واقع، نکته این است که
08:11
this technology enabled us to begin studying neuroscience in individuals.
167
491444
4430
این تکنولوژی ما را قادر به شروع مطالعه علوم اعصاب بصورت مجزا کرد.
08:15
So much like the transition to genetics, at the single cell level,
168
495898
4230
پس بسیار شبیه به انتقال ژنتیک، در سطح یک سلول واحد،
08:20
we started to study neuroscience, at the single human level.
169
500152
3206
ما شروع به مطالعه علوم اعصاب، در سطح یک انسان واحد کردیم.
08:23
But we weren't quite there yet.
170
503890
1618
اما بصورت کامل هنوز موفق نبودیم.
08:25
Because these technologies
171
505895
1642
زیرا این تکنولوژی‌ها
08:27
were still restricted to medical applications,
172
507561
3056
همچنان برای کاربردهای درمانی محدود بودند،
08:30
which meant that we were studying sick brains, not healthy brains.
173
510641
3391
که یعنی ما مغز‌های بیمار را و نه مغز های سالم را بررسی می‌کردیم.
08:35
Because no matter how safe your technology is,
174
515235
3754
زیرا هرچقدر هم که فناوری شما ایمن باشد،
08:39
you can't stick something into someone's brain
175
519013
2730
نمی‌توانید چیزی به مغز فردی متصل کنید
08:41
for research purposes.
176
521767
1420
برای اهداف تحقیقاتی.
08:43
They have to want it.
177
523211
1549
آن‌هاباید که مایل باشند.
08:44
And why would they want it?
178
524784
1460
و چرا باید آن را بخواهند؟
08:46
Because as soon as you have an electrical connection to the brain,
179
526268
3571
زیرا به محض اتصال جریان الکتریکی به مغز،
08:49
you can use it to hook the brain up to a computer.
180
529863
2444
می‌توانید که مغز را به یارانه متصل کنید.
08:53
Oh, well, you know, the general public was very skeptical at first.
181
533061
3429
اُه، خُب، می‌دونید، عموم مردم در ابتدا بسیار دیرباور بودند.
08:56
I mean, who wants to hook their brain up to their computers?
182
536514
2869
منظورم اینه که، کی می‌خواست که مغزش را به رایانه متصل کند؟
08:59
Well just imagine being able to send an email with a thought.
183
539926
4236
خیلی خب فقط تصور کنید که قادرید تنها با یک فکر، ایمیل ارسال کنید.
09:04
(Laughter)
184
544186
2253
(خنده حضار)
09:06
Imagine being able to take a picture with your eyes, OK?
185
546463
4500
تصور کنید که قادر هستید بوسیله‌ی چشم‌تان عکس بگیرید، درسته؟
09:10
(Laughter)
186
550987
1230
(خنده حضار)
09:12
Imagine never forgetting anything anymore,
187
552241
2963
تصور کنید دیگر هرگز چیزی را مجدد فراموش نمی‌کنید،
09:15
because anything that you choose to remember
188
555228
2159
زیرهرچیزی که انتخاب کنید که به یاد بیاورید
09:17
will be stored permanently on a hard drive somewhere,
189
557411
2477
به صورت دائمی در یک سخت‌افزار در جائی ذخیره می‌شود،
09:19
able to be recalled at will.
190
559912
2029
که در زمان مورد نیاز قادر به یادآوری باشد.
09:21
(Laughter)
191
561965
3366
(خنده‌ حضار)
09:25
The line here between crazy and visionary
192
565355
3381
اینجا مرز بین جنون و رویاپردازی
09:28
was never quite clear.
193
568760
1467
هرگز کاملاً واضح نبود.
09:30
But the systems were safe.
194
570720
1857
اما سیستم‌ها بی‌خطر بودند.
09:32
So when the FDA decided to deregulate these laser-drilling systems, in 2043,
195
572879
5016
زمانی که سازمان غذا و دارو خواست در ۲۰۴۳ این سیستم‌های حفاری لیزری را قانونی کند،
09:37
commercial demand just exploded.
196
577919
2357
تقاضای تجاری به انفجار رسید.
09:40
People started signing their emails,
197
580300
1888
افراد شروع به امضا کردن ایمیل‌ها کردند،
09:42
"Please excuse any typos.
198
582212
1341
" لطفاً اشتباهات را ببخشید
09:43
Sent from my brain."
199
583577
1333
ارسال شده از مغزم."
09:44
(Laughter)
200
584934
1001
(خنده حضار)
09:45
Commercial systems popped up left and right,
201
585959
2072
سیستم‌های بازرگانی چپ و راست منتشر شدند،
09:48
offering the latest and greatest in neural interfacing technology.
202
588055
3238
که آخرین و بزرگ‌ترین تکنولوژی رابط عصبی را پیشنهاد می‌کردند.
09:51
There were 100 electrodes.
203
591792
1753
۱۰۰ الکترود وجود داشت.
09:53
A thousand electrodes.
204
593569
1911
هزاران الکترود.
09:55
High bandwidth for only 99.99 a month.
205
595504
2476
پهنای باند بالا، فقط ۹۹/۹۹ دلار در ماه.
09:58
(Laughter)
206
598004
1539
(خنده حضار)
09:59
Soon, everyone had them.
207
599567
1534
خیلی زود، همه آن‌ها را داشتند.
10:01
And that was the key.
208
601694
1571
و نکته همان بود.
10:03
Because, in the 2050s, if you were a neuroscientist,
209
603289
2923
زیرا در دهه ۵۰، اگر یک متخصص اعصاب بودید
10:06
you could have someone come into your lab essentially from off the street.
210
606236
3939
شما می‌توانستید فردی ازخیابان اساساً به آزمایشگاه شما بیاید
10:10
And you could have them engaged in some emotional task
211
610792
2864
و شما آن‌ها را مشغول کارهای عاطفی کنید
10:13
or social behavior or abstract reasoning,
212
613680
2437
و یا رفتار اجتماعی یا استدلال انتزاعی،
10:16
things you could never study in mice.
213
616141
2531
چیزهایی که هرگز با موش‌ها نمی‌توانستید مطالعه کنید.
10:18
And you could record the activity of their neurons
214
618696
3111
و شما قادر بودید که فعالیت عصب‌هایشان را اندازه گیری کنید
10:21
using the interfaces that they already had.
215
621831
3191
بوسیله ی رابط هایی که هم اکنون داشتند.
10:25
And then you could also ask them about what they were experiencing.
216
625046
3189
و آنگاه می‌توانستید ازآن‌ها بپرسید که چه چیزی را تجربه می‌کنند.
10:28
So this link between psychology and neuroscience
217
628259
3349
بنابراین این رابط بین روانشناسی و علوم اعصاب
10:31
that you could never make in the animals, was suddenly there.
218
631632
3381
که هرگز نمی‌توانید در حیوانات ایجاد کنید، ناگهان آنجا دراختیار بود.
10:35
So perhaps the classic example of this
219
635695
2184
پس شاید نمونه کلاسیک این
10:37
was the discovery of the neural basis for insight.
220
637903
3523
اکتشاف پایه عصبی برای بینش بود.
10:41
That "Aha!" moment, the moment it all comes together, it clicks.
221
641450
3600
آن لحظه‌ی "آها"، لحظه‌ای که همه چیز به هم می‌رسد،کلیک می‌کند.
10:45
And this was discovered by two scientists in 2055,
222
645593
4056
و این در سال ۲۰۵۵ توسط ۲ دانشمند کشف شد،
10:49
Barry and Late,
223
649673
1372
"بَری" و " لِیت "
10:51
who observed, in the dorsal prefrontal cortex,
224
651069
3663
که در قشرفوقانی جلوی مغز مشاهده کردند،
10:54
how in the brain of someone trying to understand an idea,
225
654756
5222
که چگونه مغز یک فرد برای درک یک ایده تلاش می‌کند،
11:00
how different populations of neurons would reorganize themselves --
226
660002
3369
چگونه گروه‌های مختلف عصب‌ها ممکن بود خود را بشناسند
11:03
you're looking at neural activity here in orange --
227
663395
2436
شما اینجا به فعالیت عصبی به رنگ نارنجی نگاه می‌کنید
11:05
until finally their activity aligns in a way that leads to positive feedback.
228
665855
3738
تا نهایتاً فعالیت‌شان به گونه‌ای که به بازخورد مثبتی منجر شوند، هم‌تراز شود.
11:10
Right there.
229
670339
1150
دقیقاً اینجا.
11:12
That is understanding.
230
672723
1467
که درحال درک است
11:15
So finally, we were able to get at the things that make us human.
231
675413
4437
پس نهایتاً، ما قادر به دریافت چیزهایی بودیم که ما را انسان می‌کرد.
11:21
And that's what really opened the way to major insights from medicine.
232
681871
4578
و آن چیزی بود که واقعاً راه را به بینش‌های مهم در پزشکی، گشود.
11:27
Because, starting in the 2060s,
233
687465
2755
زیرا، در شروع دهه ۲۰۶۰،
11:30
with the ability to record the neural activity
234
690244
2484
با توانایی ثبت فعالیت عصبی
11:32
in the brains of patients with these different mental diseases,
235
692752
3587
در مغز بیمار، با این بیماری‌های ذهنی متفاوت،
11:36
rather than defining the diseases on the basis of their symptoms,
236
696363
4690
بجای تعریف بیماری‌ها بر اساس علائم آن‌ها،
11:41
as we had at the beginning of the century,
237
701077
2040
به شکلی که در شروع قرن صورت می‌گرفت،
11:43
we started to define them
238
703141
1222
ما شروع تعریف آن‌ها کردیم
11:44
on the basis of the actual pathology that we observed at the neural level.
239
704387
3539
بر اساس آسیب‌شناسی واقعی که در سطح عصب‌ها مشاهده می‌شد.
11:48
So for example, in the case of ADHD,
240
708768
3825
پس بعنوان مثال، در مورد ADHD،
11:52
we discovered that there are dozens of different diseases,
241
712617
3174
ما دریاقتیم که ده‌ها نوع بیماری متفاوت وجود دارد،
11:55
all of which had been called ADHD at the start of the century,
242
715815
3009
که همگی درابتدای قرن، ADHD نامیده می‌شدند،
11:58
that actually had nothing to do with each other,
243
718848
2301
که در واقع هیچ ربطی به هم نداشتند،
12:01
except that they had similar symptoms.
244
721173
2118
بجز آنکه نشانه‌‌های مشابهی داشتند.
12:03
And they needed to be treated in different ways.
245
723625
2372
و نیازمند درمان به روش‌های متفاوتی، بودند.
12:06
So it was kind of incredible, in retrospect,
246
726307
2247
پس یک نوعِ باورنکردنی، در مقایسه با گذشته،
12:08
that at the beginning of the century,
247
728578
1777
که در ابتدای قرن،
12:10
we had been treating all those different diseases
248
730379
2317
تمام آن بیماری‌ها متفاوت را با یک داروی مشابه،
12:12
with the same drug,
249
732720
1183
درمان می‌کردیم،
12:13
just by giving people amphetamine, basically is what we were doing.
250
733927
3214
تنها با دادن آمفیتامین به افراد، اساساً کاری بود که می‌کردیم.
12:17
And schizophrenia and depression are the same way.
251
737165
2488
و شیزوفرنی و افسردگی به روش‌های مشابه.
12:19
So rather than prescribing drugs to people essentially at random,
252
739677
4032
بنابراین بجای تجویز دارو برای افراد اساساً به صورت تصادفی،
12:23
as we had,
253
743733
1150
که ما داشتیم،
12:24
we learned how to predict which drugs would be most effective
254
744907
3511
آموخیتم که چگونه حدس بزنیم که چه داروهایی ممکن است موثرترباشند.
12:28
in which patients,
255
748442
1183
در چه بیمارانی،
12:29
and that just led to this huge improvement in outcomes.
256
749649
2756
و آن تنها به بهبود بزرگی در نتایج منجر شد.
12:33
OK, I want to bring you back now to the year 2017.
257
753498
3476
درست، می‎خواهم که شما را به سال ۲۰۱۷ بازگردانم.
12:38
Some of this may sound satirical or even far fetched.
258
758117
3373
برخی از این ممکن است طنز باشد و یا اینکه خیلی دور از دسترس.
12:41
And some of it is.
259
761514
1293
و بعضی‌ها هم هست.
12:43
I mean, I can't actually see into the future.
260
763291
2651
یعنی، نمی‌توانم بطور واقعی آینده را ببینم.
12:45
I don't actually know
261
765966
1366
واقعاً نمی‌دانم
12:47
if we're going to be drilling hundreds or thousands of microscopic holes
262
767356
3667
که آیا ما صدها یا هزاران حفره میکروسکوپی را در
12:51
in our heads in 30 years.
263
771047
1667
سرهایمان در ۳۰ سال بعد حفر می‌کنیم.
12:53
But what I can tell you
264
773762
1706
اما چیزی که می‌توانم بگویم به شما
12:55
is that we're not going to make any progress
265
775492
2175
این است که هیچ پیشرفتی نخواهیم داشت
12:57
towards understanding the human brain or human diseases
266
777691
3727
در ادراک مغز انسان و یا بیماری‌های انسان
13:01
until we figure out how to get at the electrical activity of neurons
267
781442
4516
تا زمانی‌که بفهمیم چگونه می‌توانیم فعالیت الکتریکی عصب‌ها را بدست آوریم.
13:05
in healthy humans.
268
785982
1200
در انسان‌های سالم.
13:07
And almost no one is working on figuring out how to do that today.
269
787918
3239
و تقریباً هیچکس امروز برای درک آن کارنمی‌کند.
13:12
That is the future of neuroscience.
270
792077
2334
آن آینده‌ی علوم اعصاب است.
13:14
And I think it's time for neuroscientists to put down the mouse brain
271
794752
4393
و فکر می‌کنم که وقت آن است که متخصصین علوم اعصاب مغز موش را رها کنند
13:19
and to dedicate the thought and investment necessary
272
799169
2754
و اینکه افکار و بررسی‌های ضروری را
13:21
to understand the human brain and human disease.
273
801947
3267
برای درک مغز انسان و بیماری‌های انسان، اختصاص دهند.
13:27
Thank you.
274
807629
1151
متشکرم.
13:28
(Applause)
275
808804
1172
(تشویق حضار)
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7