What we'll learn about the brain in the next century | Sam Rodriques

174,352 views ・ 2018-07-03

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: Shaymaa Ayman المدقّق:
أريد أن أخبركم شيئاً عن علم الأعصاب يا رفاق.
00:13
I want to tell you guys something about neuroscience.
0
13040
2507
أنا فيزيائي بالتدريب.
00:16
I'm a physicist by training.
1
16040
1800
00:18
About three years ago, I left physics
2
18230
2206
منذ حوالى ثلاث سنوات، تركت الفيزياء
00:20
to come and try to understand how the brain works.
3
20460
2349
لمحاولة فهم كيفية عمل المخ.
00:22
And this is what I found.
4
22833
1474
وهذا ما وجدته.
00:24
Lots of people are working on depression.
5
24331
2064
يعمل كثير من الناس على موضوع الاكتئاب.
00:26
And that's really good,
6
26419
1159
وذلك أمر جيد،
00:27
depression is something that we really want to understand.
7
27602
2721
فالاكتئاب هو شيء نود بشدةٍ أن نفهمه.
00:30
Here's how you do it:
8
30347
1167
وهذا كيف نقوم بذلك:
00:31
you take a jar and you fill it up, about halfway, with water.
9
31538
4161
خذ إناءً واملأ حوالي نصفه بالماء.
00:35
And then you take a mouse, and you put the mouse in the jar, OK?
10
35723
4182
ثم خذ فأراً وضعه في الإناء، حسناً؟
00:39
And the mouse swims around for a little while
11
39929
2350
فسوف يعوم الفأر فيه قليلاً
00:42
and then at some point, the mouse gets tired
12
42303
2388
وفي نقطة ما سيتعب الفأر
00:44
and decides to stop swimming.
13
44715
1934
ويقرر التوقف عن السباحة.
00:46
And when it stops swimming, that's depression.
14
46673
3133
وعندما يتوقف عن السباحة، فبذلك يكون الاكتئاب.
00:50
OK?
15
50696
1150
حسناً؟
00:52
And I'm from theoretical physics,
16
52291
3380
ومن الفيزياء النظرية،
00:55
so I'm used to people making very sophisticated mathematical models
17
55695
3668
اعتدت أن أجعل الناس يقومون ببناء نماذج رياضية معقدةً جداً
00:59
to precisely describe physical phenomena,
18
59387
2881
لوصف الظاهرة الفيزيائية بدقة.
01:02
so when I saw that this is the model for depression,
19
62292
2452
لذا فعندما رأيت هذا النموذج الخاص بدراسة الاكتئاب،
01:04
I though to myself, "Oh my God, we have a lot of work to do."
20
64768
2937
قلت لنفسي،"يا إلهي لدينا عملٌ كثيرٌ لنقوم به."
01:07
(Laughter)
21
67729
1370
(ضحك)
ولكن يبدو هذا كأنه نوع من مشكلة عامة في علم الأعصاب.
01:09
But this is a kind of general problem in neuroscience.
22
69123
2951
فعلى سبيل المثال، لنأخذ العاطفة.
01:12
So for example, take emotion.
23
72377
2111
01:14
Lots of people want to understand emotion.
24
74512
2459
يريد كثير من الناس أن يفهموا العاطفة.
01:17
But you can't study emotion in mice or monkeys
25
77352
3313
لكن لا يمكنك دراسة العاطفة في الفئران أو القرود
01:20
because you can't ask them
26
80689
1254
لأنك لا تستطيع أن تسألهم
01:21
how they're feeling or what they're experiencing.
27
81967
2317
كيف يشعرون أو ما الذي يعانون منه.
لذا كبديل عن ذلك، فالناس الذين يرغبون في فهم العاطفة،
01:24
So instead, people who want to understand emotion,
28
84308
2357
ينتهون عادة إلى دراسة ما يسمى بالسلوك الاندفاعي،
01:26
typically end up studying what's called motivated behavior,
29
86689
2777
وهو الصيغة "لما سيفعله الفأر عندما يريد الجبن بشدة."
01:29
which is code for "what the mouse does when it really, really wants cheese."
30
89490
3658
01:33
OK, I could go on and on.
31
93839
1675
حسناً، ويمكنني الاستمرار في ذلك.
01:35
I mean, the point is, the NIH spends about 5.5 billion dollars a year
32
95538
6316
ما أقصده أن معاهد الصحة الوطنية (NIH) تنفق حوالي 5.5 مليار دولار سنوياً
01:41
on neuroscience research.
33
101878
1532
على أبحاث علم الأعصاب.
01:43
And yet there have been almost no significant improvements in outcomes
34
103434
3603
وتقريباً لا يوجد أي تطور ملحوظ في النتائج
على المرضى المصابين بأمراض دماغية، خلال مدة الأربعين عاماً الماضية،.
01:47
for patients with brain diseases in the past 40 years.
35
107061
3491
وأظن أن الكثير من ذلك يرجع نتيجةً للحقيقة
01:51
And I think a lot of that is basically due to the fact
36
111015
2540
01:53
that mice might be OK as a model for cancer or diabetes,
37
113579
4151
التي تقول أن الفئران قد تكون جيدةً كنموذج لدراسة مرض السرطان أو داء السكري،
01:57
but the mouse brain is just not sophisticated enough
38
117754
2687
ولكن دماغ الفأر ليس متطورًا بما يكفي
02:00
to reproduce human psychology or human brain disease.
39
120465
3175
ليقوم بإنتاج سيكولوجيا بشرية أو أمراض الدماغ البشري.
02:04
OK?
40
124379
1225
حسناً ؟
02:05
So if the mouse models are so bad, why are we still using them?
41
125628
3634
فإن كانت نماذج الفئران سيئة للغاية، فلماذا ما زلنا نستخدمها ؟
حسنا، فهذا يمكن أن يُختصَر إلى:
02:10
Well, it basically boils down to this:
42
130143
2103
02:12
the brain is made up of neurons
43
132270
2556
الدماغ مصنوعٌ من خلايا عصبية
02:14
which are these little cells that send electrical signals to each other.
44
134850
3447
وهي تلك الخلايا الصغيرة التي ترسل إشارات كهربائية لبعضها البعض.
02:18
If you want to understand how the brain works,
45
138680
2144
فإذا كنت تريد أن تفهم كيف يعمل الدماغ،
02:20
you have to be able to measure the electrical activity of these neurons.
46
140848
3808
فيجب أن تكون قادراً على قياس النشاط الكهربائي لهذه الخلايا العصبية.
02:25
But to do that, you have to get really close to the neurons
47
145339
2992
ولكن لفعل ذلك، يجب أن تقترب جداً من الخلايا العصبية
02:28
with some kind of electrical recording device or a microscope.
48
148355
2928
باستخدام نوع من أجهزة التسجيل الكهربائي أو المناظير.
02:31
And so you can do that in mice and you can do it in monkeys,
49
151563
2810
ولهذا فأنت قادر على فعل ذلك مع الفئران والقردة،
02:34
because you can physically put things into their brain
50
154397
2548
لأنك تستطيع عملياً أن تضع أشياء في أدمغتهم
02:36
but for some reason we still can't do that in humans, OK?
51
156969
3046
ولكن لبعض الأسباب ما زلنا لا نستطيع أن نفعل ذلك مع البشر، حسناً ؟
02:40
So instead, we've invented all these proxies.
52
160533
3370
ولهذا فقد قمنا بوضع كل هذه الفرضيات.
02:43
So the most popular one is probably this,
53
163927
2515
وأشهر هذه الفرضيات من المحتمل أن تكون هذه،
02:46
functional MRI, fMRI,
54
166466
2397
التصوير الوظيفي بالرنين المغناطيسي (fMRI)،
02:48
which allows you to make these pretty pictures like this,
55
168887
2692
والتي تمكّنك من عمل بعض من هذه الصور الجميلة والتي تبدو مثل هذه،
02:51
that show which parts of your brain light up
56
171603
2056
التي تظهر أي من أجزاء دماغك تعمل
02:53
when you're engaged in different activities.
57
173683
2126
عندما تقوم بممارسة أنشطة مختلفة.
02:55
But this is a proxy.
58
175833
1920
ولكن ذلك كله فرضية.
02:57
You're not actually measuring neural activity here.
59
177777
3292
فأنت لا تقيس بالفعل النشاط الكهربائي بذلك.
03:01
What you're doing is you're measuring, essentially,
60
181093
2842
ما تقوم بفعله هو أنك تقيس، بشكل أساسي،
03:03
like, blood flow in the brain.
61
183959
1832
شيئا ما مثل تدفق الدم في الدماغ.
03:05
Where there's more blood.
62
185815
1238
تكشف المكان الذي فيه دمٌ أكثر.
03:07
It's actually where there's more oxygen, but you get the idea, OK?
63
187077
3103
وهو فعلياً المكان الذي يوجد به أكسجين أكثر، حسناً؟
الشيء الآخر الذي يمكنك فعله هو أنك يمكنك فعل هذا ...
03:10
The other thing that you can do is you can do this --
64
190204
2519
03:12
electroencephalography -- you can put these electrodes on your head, OK?
65
192747
3591
تخطيط أمواج الدماغ -- تستطيع أن تضع هذه الأقطاب الكهربية على رأسك، حسناً ؟
03:16
And then you can measure your brain waves.
66
196362
2143
وحينها يمكنك أن تقيس موجات دماغك.
وهنا، أنت فعلاً تقيس النشاط الكهربائي.
03:19
And here, you're actually measuring electrical activity.
67
199125
3079
ولكنك لا تقيس نشاط الخلايا العصبية.
03:22
But you're not measuring the activity of neurons.
68
202228
2365
03:24
You're measuring these electrical currents,
69
204911
2444
فأنت تقيس هذه التيارات الكهربائية،
التي تخوض ذهاباً وإياباً في دماغك.
03:27
sloshing back and forth in your brain.
70
207379
2299
لذا فإن النقطة هي أن هذه التقنيات التي نمتلكها
03:30
So the point is just that these technologies that we have
71
210157
2674
03:32
are really measuring the wrong thing.
72
212855
2436
تقيس بالفعل الشيء الخاطئ.
لأنه، ولمعظم الأمراض التي نريد أن نفهمها ...
03:35
Because, for most of the diseases that we want to understand --
73
215315
2953
مثل مرض باركنسون (الشلل الرعاشي) وهو مثال تقليدي.
03:38
like, Parkinson's is the classic example.
74
218292
2198
03:40
In Parkinson's, there's one particular kind of neuron deep in your brain
75
220514
3554
ففي باركنسون، هناك نوع واحد معين من الخلايا العصبية عميقاً في دماغك
تُعد هي المسؤولة عن هذا المرض،
03:44
that is responsible for the disease,
76
224092
1731
03:45
and these technologies just don't have the resolution that you need
77
225847
3182
وهذه التقنيات لا تملك وحسب الدقة المطلوبة
للوصول إلى شيء مثل ذلك.
03:49
to get at that.
78
229053
1373
03:50
And so that's why we're still stuck with the animals.
79
230450
3974
ولهذا نحن ما زلنا عالقين مع الحيوانات.
03:54
Not that anyone wants to be studying depression
80
234448
2533
ليس أن أي شخص يريد أن يدرس الاكتئاب
03:57
by putting mice into jars, right?
81
237005
2262
بوضع فئران في آنية، صحيح؟
03:59
It's just that there's this pervasive sense that it's not possible
82
239291
3753
إنه مجرد ذلك الإحساس المنتشر أنه من غير الممكن
أن ننظر إلى نشاط الخلايا العصبية في إنسان سليم.
04:03
to look at the activity of neurons in healthy humans.
83
243068
3847
ولذلك، فهذا ما أريد أن أفعله.
04:08
So here's what I want to do.
84
248180
1492
04:09
I want to take you into the future.
85
249974
2521
أريد أن آخذكم معي إلى المستقبل.
لنلقي نظرة على طريقة يمكن أن تكون ممكنة.
04:12
To have a look at one way in which I think it could potentially be possible.
86
252519
4482
وأريد أن أبدأ بقول إني لا أعرف كل التفاصيل.
04:17
And I want to preface this by saying, I don't have all the details.
87
257526
3298
04:21
So I'm just going to provide you with a kind of outline.
88
261272
2967
لذا سوف أوفر لكم نوعًا من الملخص.
لكننا سوف نذهب الى عام 2100.
04:24
But we're going to go the year 2100.
89
264263
2400
04:27
Now what does the year 2100 look like?
90
267732
2299
الآن، كيف سيبدو عام 2100؟
حسنا، أولاً، سيكون المناخ أدفأ قليلاً مما اعتدنا عليه.
04:30
Well, to start with, the climate is a bit warmer that what you're used to.
91
270055
3518
04:33
(Laughter)
92
273597
3583
(ضحك)
04:37
And that robotic vacuum cleaner that you know and love
93
277204
4952
وتلك المكنسة الروبوتية التي تعرفها وتحبها
مرت عليها أجيال متعددة،
04:42
went through a few generations,
94
282180
1514
04:43
and the improvements were not always so good.
95
283718
2843
والتحسينات لم تكن دائماً جيدة.
04:46
(Laughter)
96
286585
1595
(ضحك)
04:48
It was not always for the better.
97
288530
2310
لم تتجه دائماً إلى الأفضل.
لكن بالفعل، في عام 2100 معظم الأشياء يمكن التعرف عليها بشكل مفاجئ.
04:52
But actually, in the year 2100 most things are surprisingly recognizable.
98
292221
4538
04:57
It's just the brain is totally different.
99
297458
2734
إلا أن العقل سيختلف تماماً.
05:00
For example, in the year 2100,
100
300740
2547
فعلى سبيل المثال، في عام 2100،
فهمنا الأسباب الجذرية لمرض الزهايمر.
05:03
we understand the root causes of Alzheimer's.
101
303311
2857
05:06
So we can deliver targeted genetic therapies or drugs
102
306192
3714
لذا فبإمكاننا تقديم العلاجات الجينية أو العقارات الدوائية
05:09
to stop the degenerative process before it begins.
103
309930
2876
لكي نوقف العمليات الانتكاسية قبل أن تبدأ.
05:13
So how did we do it?
104
313629
1333
لذا فكيف فعلنا ذلك؟
05:15
Well, there were essentially three steps.
105
315898
2238
حسنًا، كان يوجد ثلاث خطوات أساسية.
05:18
The first step was that we had to figure out
106
318589
2814
الخطوة الأولى كانت أنه يجب علينا أن نجد
05:21
some way to get electrical connections through the skull
107
321427
3293
بعض الطرق للحصول على توصيلات كهربائية خلال الجمجمة
05:24
so we could measure the electrical activity of neurons.
108
324744
3015
حتى نستطيع قياس النشاط الكهربائي للخلايا العصبية.
وليس ذلك وحسب، فالطريقة التي نجدها يجب أن تكون سهلةً وخاليةً من المخاطر.
05:28
And not only that, it had to be easy and risk-free.
109
328339
4349
05:32
Something that basically anyone would be OK with,
110
332712
2378
شيء ما بحيث أن أي شخص يمكن أن يكون على ما يرام معها،
05:35
like getting a piercing.
111
335114
1600
كمثل عمل ثقب الأذن.
05:37
Because back in 2017,
112
337156
2747
لأنه وبالرجوع إلى عام 2017،
فالطريقة الوحيدة المعروفة للدخول إلى داخل الجمجمة
05:39
the only way that we knew of to get through the skull
113
339927
2913
05:42
was to drill these holes the size of quarters.
114
342864
2817
كانت بحفر فتحاتٍ داخلها مساويةً لحجم الأرباع.
لن تدع شخصاً يقوم بذلك لك على الإطلاق.
05:46
You would never let someone do that to you.
115
346015
2039
05:48
So in the 2020s,
116
348967
2253
لذا في عشرينات القرن الحادي والعشرين،
05:51
people began to experiment -- rather than drilling these gigantic holes,
117
351244
3381
سيبدأ الناس، بدلاً من حفر هذه الحفر الضخمة، باختبار
05:54
drilling microscopic holes, no thicker than a piece of hair.
118
354649
3115
حفر ثقوبٍ مجهريةٍ أقل سمكاً من الشعرة.
05:58
And the idea here was really for diagnosis --
119
358735
2096
والفكرة هنا كانت بدايةً للتشخيص...
06:00
there are lots of times in the diagnosis of brain disorders
120
360855
2786
فهناك الكثير من الوقت لتشخيص اضطرابات الدماغ
06:03
when you would like to be able to look at the neural activity beneath the skull
121
363665
4872
فعندما تريد أن تلقي نظرة على النشاط العقلي تحت الجمجمة
06:08
and being able to drill these microscopic holes
122
368561
3191
وباستخدام القدرة على ثقب هذه الحفر المجهرية
06:11
would make that much easier for the patient.
123
371776
2142
فذلك سيجعل الأمر أكثر سهولةً للمرضى.
06:13
In the end, it would be like getting a shot.
124
373942
2349
وفي النهاية، سيكون ذلك مثل الحصول على لقطة تصوير.
06:16
You just go in and you sit down
125
376315
1580
فعليك أن تدخل وتجلس فحسب،
06:17
and there's a thing that comes down on your head,
126
377919
2301
وهناك شيء سيأتي وينزل إلى رأسك،
وبلحظة سريعة جداً سيتم ذلك،
06:20
and a momentary sting and then it's done,
127
380244
1953
وتستطيع أن تعود لتواصل يومك.
06:22
and you can go back about your day.
128
382221
1864
06:24
So we're eventually able to do it
129
384736
4793
لذا فبإمكاننا أن نقوم بذلك
06:29
using lasers to drill the holes.
130
389553
2667
باستخدام الليزر لثقب تلك الحفر.
06:32
And with the lasers, it was fast and extremely reliable,
131
392244
2620
وباستخدام الليزر كانت عملية الحفر سريعة جداً وموثوقة للغاية،
06:34
you couldn't even tell the holes were there,
132
394888
2213
بحيث أنك لا تستطيع معرفة أن تلك الحفر موجودة هناك،
06:37
any more than you could tell that one of your hairs was missing.
133
397125
3000
بشكل أكبر بكثير من إدراكك بأنك فقدت إحدى شعراتك.
06:40
And I know it might sound crazy, using lasers to drill holes in your skull,
134
400753
4738
وأنا أعلم أنه ربما من الجنون أن تحفر ثقوباً في جمجمتك باستخدام الليزر،
06:45
but back in 2017,
135
405515
1366
ولكن وبالرجوع لعام 2017،
06:46
people were OK with surgeons shooting lasers into their eyes
136
406905
4109
لم يكن الناس لديهم أي مشكلة مع جراحين يقومون بإطلاق الليزر في أعينهم
06:51
for corrective surgery
137
411038
1214
للجراحة التصحيحية.
06:52
So when you're already here, it's not that big of a step.
138
412276
3887
لذا فعندما نكون هناك، فتلك ليست الخطوة الكبيرة.
06:57
OK?
139
417561
1151
حسناً؟
06:58
So the next step, that happened in the 2030s,
140
418736
3571
لذا فالخطوة الثانية، التي حدثت في عقد 2030،
07:02
was that it's not just about getting through the skull.
141
422331
3086
لم تكن وحسب عملية الدخول إلى داخل الجمجمة.
07:05
To measure the activity of neurons,
142
425441
1700
فلقياس نشاط الخلايا العصبية،
عليك القيام بذلك داخل نسيج الدماغ نفسه.
07:07
you have to actually make it into the brain tissue itself.
143
427165
3825
والخطر من ذلك، هو أنك كلما وضعت شيئاً في نسيج الدماغ،
07:11
And the risk, whenever you put something into the brain tissue,
144
431344
2968
قد تتسبب بشكل أساسيٍ بسكتةٍ دماغيةٍ.
07:14
is essentially that of stroke.
145
434336
1439
07:15
That you would hit a blood vessel and burst it,
146
435799
2196
فمن الممكن أن تصيب وعاء دموياً وتفجره،
مما قد يتسبب بسكتة دماغية.
07:18
and that causes a stroke.
147
438019
1519
07:19
So, by the mid 2030s, we had invented these flexible probes
148
439916
3725
لذا ففي منتصف عقد 2030، اخترعنا هذه المسابر المرنة
07:23
that were capable of going around blood vessels,
149
443665
2278
والتي كانت قادرة على الدوران حول الأوعية الدموية،
07:25
rather than through them.
150
445967
1476
بدلاً من اختراقها.
07:27
And thus, we could put huge batteries of these probes
151
447467
5697
وهكذا، يمكننا أن نضع بطاريات ضخمة على هذه المسابر
07:33
into the brains of patients
152
453188
1357
داخل أدمغة المرضى
07:34
and record from thousands of their neurons without any risk to them.
153
454569
3270
ونقوم بالتسجيل من آلاف من خلاياهم العصبية دون أي خطر عليهم.
07:39
And what we discovered, sort of to our surprise,
154
459458
4061
وما اكتشفناه، أدهشنا نوعاً ما،
07:43
is that the neurons that we could identify
155
463543
2190
وهو أن الخلايا العصبية َالتي يمكننا التعرف عليها
07:45
were not responding to things like ideas or emotion,
156
465757
3524
لا تستجيب لأشياء مثل الأفكار أو العواطف،
07:49
which was what we had expected.
157
469305
1627
وهو ما كنا نتوقعه.
07:50
They were mostly responding to things like Jennifer Aniston
158
470956
3796
بل كانت تستجيب في الغالب لأشياء مثل جينيفر أنيستون
07:54
or Halle Berry
159
474776
2404
أو هالي بيري
07:57
or Justin Trudeau.
160
477204
1310
أو جاستن ترودو.
07:58
I mean --
161
478538
1253
أنا أقصد...
07:59
(Laughter)
162
479815
2326
(ضحك)
08:02
In hindsight, we shouldn't have been that surprised.
163
482165
2437
ولكن أدركنا، أننا لم يكن ينبغي لنا أن نشعر بالدهشة.
08:04
I mean, what do your neurons spend most of their time thinking about?
164
484626
3262
أعني، ما الذي تقضي خلاياك العصبية معظم وقتها وهي تفكر فيه؟
08:07
(Laughter)
165
487912
1150
(ضحك)
08:09
But really, the point is that
166
489380
2040
لكن في الحقيقة، النقطة هي أن
08:11
this technology enabled us to begin studying neuroscience in individuals.
167
491444
4430
هذه التكنولوجيا مكنتنا من البدء بدراسه علم الأعصاب لدى الأفراد.
08:15
So much like the transition to genetics, at the single cell level,
168
495898
4230
بشكل يشبه إلى حد كبير الانتقال بعلم الوراثة إلى مستوى الخلية الواحدة،
08:20
we started to study neuroscience, at the single human level.
169
500152
3206
بدأنا دراسة علم الأعصاب، في مستوى الشخص الواحد.
08:23
But we weren't quite there yet.
170
503890
1618
لكننا لم نصل إلى هناك بعد.
08:25
Because these technologies
171
505895
1642
لأن هذه التقنيات
08:27
were still restricted to medical applications,
172
507561
3056
كانت لا تزال تقتصر على التطبيقات الطبية،
08:30
which meant that we were studying sick brains, not healthy brains.
173
510641
3391
مما يعني أننا كنا ندرس أدمغة مريضة، وليست أدمغة سليمة.
08:35
Because no matter how safe your technology is,
174
515235
3754
لأنه وبغض النظر عن مدى أمان التكنولوجيا خاصتكم،
08:39
you can't stick something into someone's brain
175
519013
2730
فلا يمكنكم غرز شيء ما في دماغ شخص ما
08:41
for research purposes.
176
521767
1420
لأغراض بحثية.
08:43
They have to want it.
177
523211
1549
عليهم أن يرغبوا بذلك.
08:44
And why would they want it?
178
524784
1460
ولماذا يمكن أن يرغبوا بذلك؟
08:46
Because as soon as you have an electrical connection to the brain,
179
526268
3571
لأنه وبمجرد أن يكون لديك توصيل كهربائي مع الدماغ،
08:49
you can use it to hook the brain up to a computer.
180
529863
2444
فبإمكانك أن تستخدمه لربط الدماغ بالكمبيوتر.
حسنًا، كما تعلمون، كان الرأي العام متشككًا جداً في البداية.
08:53
Oh, well, you know, the general public was very skeptical at first.
181
533061
3429
08:56
I mean, who wants to hook their brain up to their computers?
182
536514
2869
ما أعنيه هو من يريد أن بربط دماغه بأجهزة الكمبيوترالخاصة به؟
08:59
Well just imagine being able to send an email with a thought.
183
539926
4236
فقط تخيل القدرة على إرسال بريد إلكتروني بالتفكير وحسب.
(ضحك)
09:04
(Laughter)
184
544186
2253
09:06
Imagine being able to take a picture with your eyes, OK?
185
546463
4500
تخيل القدره على التقاط صورة بعينيك، حسناً؟
09:10
(Laughter)
186
550987
1230
(ضحك)
09:12
Imagine never forgetting anything anymore,
187
552241
2963
تخيل عدم نسيان أي شيء على الإطلاق بعد الآن،
09:15
because anything that you choose to remember
188
555228
2159
لأن أي شيء تختار أن تتذكره
09:17
will be stored permanently on a hard drive somewhere,
189
557411
2477
سيتم تخزينه بشكل دائم على قرص صلب في مكان ما،
09:19
able to be recalled at will.
190
559912
2029
وتستطيع أن تستعيده مجدداً متى تريد.
09:21
(Laughter)
191
561965
3366
(ضحك)
09:25
The line here between crazy and visionary
192
565355
3381
والخط بين الجنون والطموح هنا
09:28
was never quite clear.
193
568760
1467
لم يكن واضحاً أبداً،
09:30
But the systems were safe.
194
570720
1857
لكن الأنظمة كانت آمنة،
09:32
So when the FDA decided to deregulate these laser-drilling systems, in 2043,
195
572879
5016
فعندما قررت إدارة الأغذية والأدوية إزالة القيود عن أنظمة الحفر بالليزر في عام 2043،
09:37
commercial demand just exploded.
196
577919
2357
انفجر الطلب التجاري عليها.
09:40
People started signing their emails,
197
580300
1888
حيث بدأ الناس يوقعون رسائلهم الإلكترونية
"أرجو المعذرة عن أي أخطاء إملائية
09:42
"Please excuse any typos.
198
582212
1341
09:43
Sent from my brain."
199
583577
1333
فهي مرسلة من دماغي."
09:44
(Laughter)
200
584934
1001
(ضحك)
09:45
Commercial systems popped up left and right,
201
585959
2072
انتشرت الأنظمة التجارية يمنةً ويسرةً،
وهي تقوم بتقديم أحدث وأكبر تكنولوجيا للتواصل العصبي.
09:48
offering the latest and greatest in neural interfacing technology.
202
588055
3238
09:51
There were 100 electrodes.
203
591792
1753
حيث كان هناك 100 قطب كهربائي.
09:53
A thousand electrodes.
204
593569
1911
ألف قطب كهربائي.
09:55
High bandwidth for only 99.99 a month.
205
595504
2476
نطاق ترددي واسع مقابل 99.99 فقط في الشهر.
09:58
(Laughter)
206
598004
1539
(ضحك)
09:59
Soon, everyone had them.
207
599567
1534
وبسرعة، كان الجميع يمتلكها.
10:01
And that was the key.
208
601694
1571
وكان هذا هو المفتاح.
10:03
Because, in the 2050s, if you were a neuroscientist,
209
603289
2923
لأنه وفي عقد 2050، لو كنت عالم أعصاب،
10:06
you could have someone come into your lab essentially from off the street.
210
606236
3939
فيمكنك أن تحصل على شخص ما في معملك مباشرة من الشارع.
10:10
And you could have them engaged in some emotional task
211
610792
2864
ويمكنك أن تجعلهم يشاركون في بعض المهام العاطفية
10:13
or social behavior or abstract reasoning,
212
613680
2437
أو السلوكيات الاجتماعية أو التفكير المجرد،
10:16
things you could never study in mice.
213
616141
2531
أشياء لا يمكنك دراستها أبدًا في الفئران.
10:18
And you could record the activity of their neurons
214
618696
3111
ويمكنك تسجيل نشاط خلاياهم العصبية
10:21
using the interfaces that they already had.
215
621831
3191
باستخدام الوصلات التي يمتلكونها من قبل.
10:25
And then you could also ask them about what they were experiencing.
216
625046
3189
ومن ثم يمكنك أيضًا أن تسألهم عما كانوا يختبرونه.
لذلك فهذا سيربط علم النفس وعلم الأعصاب
10:28
So this link between psychology and neuroscience
217
628259
3349
10:31
that you could never make in the animals, was suddenly there.
218
631632
3381
بشكل لا يمكنك القيام به في الحيوانات، كان هناك بشكل مفاجئ.
10:35
So perhaps the classic example of this
219
635695
2184
لذلك ربما يكون المثال الكلاسيكي على هذا
10:37
was the discovery of the neural basis for insight.
220
637903
3523
هو اكتشاف الأساس العصبي للفهم.
10:41
That "Aha!" moment, the moment it all comes together, it clicks.
221
641450
3600
لحظة "آها!" تلك، اللحظة التي يتضح فيها كل شيء وكأنها نقرة.
10:45
And this was discovered by two scientists in 2055,
222
645593
4056
وقد اُكتشف ذلك من قبل اثنين من العلماء في عام 2055،
10:49
Barry and Late,
223
649673
1372
باري وليت،
10:51
who observed, in the dorsal prefrontal cortex,
224
651069
3663
اللذان لاحظا، في القشرة الأمامية للجبهة الظهرية،
10:54
how in the brain of someone trying to understand an idea,
225
654756
5222
ما الذي يحدث في دماغ شخص ما حاول أن يفهم فكره ما،
كيف يمكن أن تعيد مجموعات مختلفة من الخلايا العصبية تنظيم نفسها...
11:00
how different populations of neurons would reorganize themselves --
226
660002
3369
11:03
you're looking at neural activity here in orange --
227
663395
2436
ترون هنا النشاط العصبي باللون البرتقالي...
11:05
until finally their activity aligns in a way that leads to positive feedback.
228
665855
3738
حتى ينسجم نشاطها بطريقة تؤدي إلى ردود فعل إيجابية.
11:10
Right there.
229
670339
1150
هناك مباشرة.
11:12
That is understanding.
230
672723
1467
هذا هو الفهم.
11:15
So finally, we were able to get at the things that make us human.
231
675413
4437
أخيراً، استطعنا أن نصل إلى الأشياء التي تجعلنا بشراً.
11:21
And that's what really opened the way to major insights from medicine.
232
681871
4578
وهذا ما فتح الطريق نحو الأفكار الرئيسية في عالم الطب.
11:27
Because, starting in the 2060s,
233
687465
2755
لأنه وبدءًا من 2060،
مع القدرة على تسجيل النشاط العصبي
11:30
with the ability to record the neural activity
234
690244
2484
11:32
in the brains of patients with these different mental diseases,
235
692752
3587
في أدمغة المرضى الذين يعانون من أمراض عقليةٍ مختلفةٍ،
11:36
rather than defining the diseases on the basis of their symptoms,
236
696363
4690
بدلاً من تحديد الأمراض بناءً على أعراضها،
كما كنا نفعل في بداية القرن،
11:41
as we had at the beginning of the century,
237
701077
2040
11:43
we started to define them
238
703141
1222
بدأنا في تعريفها
11:44
on the basis of the actual pathology that we observed at the neural level.
239
704387
3539
على أساس علم الأمراض الفعلي الذي لاحظناه على المستوى العصبي.
11:48
So for example, in the case of ADHD,
240
708768
3825
لذا فعلى سبيل المثال، في حالة مرض قصور الانتباه وفرط الحركة،
11:52
we discovered that there are dozens of different diseases,
241
712617
3174
اكتشفنا أن هناك العشرات من الأمراض المختلفة،
11:55
all of which had been called ADHD at the start of the century,
242
715815
3009
والتي كنا في بداية القرن نسميها جميعها بمرض فرط الحركة ونقص الانتباه،
11:58
that actually had nothing to do with each other,
243
718848
2301
والتي لم يكن لها أي روابط مع بعضها البعض،
إلا أن لديهم أعراض مشابهة.
12:01
except that they had similar symptoms.
244
721173
2118
12:03
And they needed to be treated in different ways.
245
723625
2372
وكانوا بحاجة إلى أن تتم معالجتهم بطرقٍ مختلفةٍ.
12:06
So it was kind of incredible, in retrospect,
246
726307
2247
لذلك فقد كان ذلك مذهلاً، بتذكر الماضي،
12:08
that at the beginning of the century,
247
728578
1777
كان ذلك في بداية القرن،
حيث كنا نعالج كل تلك الأمراض المختلفة
12:10
we had been treating all those different diseases
248
730379
2317
12:12
with the same drug,
249
732720
1183
باستخدام نفس الدواء.
فكنا نعطي الناس الأمفيتامين، فبشكل أساسي هذا ما كنا نفعله.
12:13
just by giving people amphetamine, basically is what we were doing.
250
733927
3214
والشيزوفرينيا والاكتئاب هما بنفس الطريقة.
12:17
And schizophrenia and depression are the same way.
251
737165
2488
12:19
So rather than prescribing drugs to people essentially at random,
252
739677
4032
فبدلاً من وصف الأدوية للناس بشكل عشوائي،
12:23
as we had,
253
743733
1150
كما كنا نفعل،
12:24
we learned how to predict which drugs would be most effective
254
744907
3511
تعلمنا كيف نتنبأ بالعقاقير التي ستكون أكثر فعالية
12:28
in which patients,
255
748442
1183
مع أي من المرضى،
12:29
and that just led to this huge improvement in outcomes.
256
749649
2756
وذلك أدى إلى هذا التحسن الهائل في النتائج.
12:33
OK, I want to bring you back now to the year 2017.
257
753498
3476
حسناً، أريد الآن أن أرجعكم إلى عام 2017.
12:38
Some of this may sound satirical or even far fetched.
258
758117
3373
بعض هذا قد يبدو ساخراً أو حتى بعيد المنال.
12:41
And some of it is.
259
761514
1293
والبعض منه هو كذلك.
12:43
I mean, I can't actually see into the future.
260
763291
2651
أعني، لا أستطيع رؤية ذلك في المستقبل.
12:45
I don't actually know
261
765966
1366
أنا لا أعرف
12:47
if we're going to be drilling hundreds or thousands of microscopic holes
262
767356
3667
إذا كنا سنحفر مئات أو آلاف الثقوب المجهرية
في رؤوسنا بعد ثلاثين عاماً من الآن.
12:51
in our heads in 30 years.
263
771047
1667
12:53
But what I can tell you
264
773762
1706
ولكن ما أستطيع أن أقوله لكم
12:55
is that we're not going to make any progress
265
775492
2175
هو أننا لن نحقق أي تقدم
12:57
towards understanding the human brain or human diseases
266
777691
3727
نحو فهم الدماغ البشري أو الأمراض البشرية
13:01
until we figure out how to get at the electrical activity of neurons
267
781442
4516
حتى نكتشف كيفية الوصول للنشاط الكهربائي للخلايا العصبية
13:05
in healthy humans.
268
785982
1200
في البشر الأصحاء.
13:07
And almost no one is working on figuring out how to do that today.
269
787918
3239
وتقريباً لا يوجد أحد يعمل على معرفة كيفية القيام بذلك اليوم .
هذا هو مستقبل علم الأعصاب.
13:12
That is the future of neuroscience.
270
792077
2334
13:14
And I think it's time for neuroscientists to put down the mouse brain
271
794752
4393
وأعتقد أن هذا هو الوقت لعلماء علم الأعصاب لكي يضعوا دماغ الفأر على جنب
لتكريس الأفكار والاستثمارات اللازمة
13:19
and to dedicate the thought and investment necessary
272
799169
2754
13:21
to understand the human brain and human disease.
273
801947
3267
لفهم الدماغ البشري والمرض البشري.
13:27
Thank you.
274
807629
1151
شكراً.
13:28
(Applause)
275
808804
1172
(تصفيق)
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7