Steve Ramirez and Xu Liu: A mouse. A laser beam. A manipulated memory.

134,222 views ・ 2013-08-15

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: المدقّق: Ayman Mahmoud
00:12
Steve Ramirez: My first year of grad school,
0
12371
2096
ستيف راميرز: في أول سنة لي في كلية الدراسات العليا،
وجد نفسي في غرفة نومي
00:14
I found myself in my bedroom
1
14491
1416
00:15
eating lots of Ben & Jerry's
2
15931
2276
أتناول الكثير من "بن أند جيري" [مثلجات]
00:18
watching some trashy TV
3
18231
1660
و أشاهد بعض برامج التلفزيون الرديئة
00:19
and maybe, maybe listening to Taylor Swift.
4
19915
3203
و ربما، ربما أستمع إلى "تايلر سويفت" [مغنية]
00:23
I had just gone through a breakup.
5
23142
1717
لقد مررت للتو بانفصال عاطفي.
00:24
(Laughter)
6
24883
1423
(ضحك)
00:26
So for the longest time, all I would do
7
26330
2172
فلأطول وقت ممكن، كل ما أردت فعله
00:28
is recall the memory of this person over and over again,
8
28526
3792
هو استعادة ذكرى هذا الشخص مراراً و تكراراً
00:32
wishing that I could get rid of that gut-wrenching,
9
32342
2469
على أمل أن أستطيع التخلص من ذلك الشعور
00:34
visceral "blah" feeling.
10
34835
2509
الداخلي المثير للغثيان و السذاجة.
00:37
Now, as it turns out, I'm a neuroscientist,
11
37368
2259
الآن، كما تبيَّن، أنا عالم أعصاب،
00:39
so I knew that the memory of that person
12
39651
2378
لذا قد عرفت أن ذكرى هذا الشخص
00:42
and the awful, emotional undertones that color in that memory,
13
42053
3116
و ما يصاحبها من شعور فظيع
00:45
are largely mediated by separate brain systems.
14
45193
2610
يقوم بهما بشكل كبير نظامان دماغيان منفصلان.
00:47
And so I thought, what if we could go into the brain
15
47827
2477
و هكذا فكرت، ماذا لو استطعنا أن ندخل الدماغ
00:50
and edit out that nauseating feeling
16
50328
1930
و نتخلص من ذلك الشعور المثير للغثيان
00:52
but while keeping the memory of that person intact?
17
52282
2946
بينما نترك ذكرى ذلك الشخص دون مساس؟
00:55
Then I realized, maybe that's a little bit lofty for now.
18
55252
2667
ثم أدركت، قد تكون هذه الفكرة مبالغ فيها الآن.
00:57
So what if we could start off by going into the brain
19
57943
2489
فماذا لو استطعنا البدء بالدخول إلى الدماغ
01:00
and just finding a single memory to begin with?
20
60456
2609
و ايجاد ذكرى واحدة نبدأ بها؟
01:03
Could we jump-start that memory back to life,
21
63089
2490
هل يمكننا إحياء هذه الذاكرة،
01:05
maybe even play with the contents of that memory?
22
65603
3844
ربما أيضاً العبث بمحتويات هذا الذاكرة؟
01:09
All that said, there is one person in the entire world right now
23
69471
2205
بعد الحديث عن هذا، حالياً هناك شخص واحد في العالم أجمع
01:11
that I really hope is not watching this talk.
24
71700
2143
أتمنى بشدة ألا يكون يشاهد هذا الخطاب.
01:13
(Laughter)
25
73867
3805
(ضحك)
01:17
So there is a catch. There is a catch.
26
77696
3265
لكن هناك مشكلة. هناك مشكلة.
01:20
These ideas probably remind you of "Total Recall,"
27
80985
2764
هذه الأفكار على الأغلب تذكركم ب "توتال ريكول،"
01:23
"Eternal Sunshine of the Spotless Mind,"
28
83773
1950
"أيترنال سنشاين أف ذا سبوتلس مايند،"
01:25
or of "Inception."
29
85747
1279
أو ب "إنسبشن" [أفلام]
01:27
But the movie stars that we work with
30
87050
1762
لكن نجوم السينما الذين نعمل معهم
01:28
are the celebrities of the lab.
31
88836
1709
هم مشاهير المختبر.
01:30
Xu Liu: Test mice.
32
90569
1876
شو لو: فئران المختبر.
01:32
(Laughter)
33
92469
1104
(ضحك)
01:33
As neuroscientists, we work in the lab with mice
34
93597
3130
بصفتنا علماء أعصاب، نحن نعمل في المختبر مع الفئران
01:36
trying to understand how memory works.
35
96751
3386
نحاول أن نفهم كيف تعمل الذاكرة.
01:40
And today, we hope to convince you that now
36
100161
2545
و اليوم، نأمل أن نقنعكم أننا الآن
01:42
we are actually able to activate a memory in the brain
37
102730
3192
بالحقيقة قادرين أن نُفَعِّل ذاكرة في الدماغ
01:45
at the speed of light.
38
105946
2146
بسرعة الضوء.
01:48
To do this, there's only two simple steps to follow.
39
108116
3082
لفعل هذا، هناك فقط خطوتين بسيطتين لنتبعهما.
01:51
First, you find and label a memory in the brain,
40
111222
3486
أولاً، جد و ضع علامة لتمييز ذاكرة في الدماغ،
01:54
and then you activate it with a switch.
41
114732
3606
و ثم فَعِّلها بمفتاح.
01:58
As simple as that.
42
118362
1421
بهذه البساطة.
01:59
(Laughter)
43
119807
1798
(ضحك)
02:01
SR: Are you convinced?
44
121629
1821
ستيف راميرز: هل اقتنعتم؟
02:03
So, turns out finding a memory in the brain isn't all that easy.
45
123474
3697
قد تبين أن إيجاد ذاكرة في الدماغ ليس بهذه السهولة.
02:07
XL: Indeed. This is way more difficult than, let's say,
46
127195
2779
شو لو: بالفعل. إنه أصعب بكثير من، دعنا نقول،
02:09
finding a needle in a haystack,
47
129998
2380
إيجاد إبرة في كومة قش،
02:12
because at least, you know, the needle is still something
48
132402
2715
لأنه على الأقل، كما تعلمون، مازالت الإبرة شيء
مادي يمكنك أن تضع أصابعك عليه.
02:15
you can physically put your fingers on.
49
135141
2326
02:17
But memory is not.
50
137491
1953
لكن الذاكرة ليست كذلك.
02:19
And also, there's way more cells in your brain
51
139468
3014
و أيضاً، هناك خلايا في دماغك عددها أكثر بكثير
02:22
than the number of straws in a typical haystack.
52
142506
5042
من عدد أعواد القش في كومة قش، بالعادة.
02:27
So yeah, this task does seem to be daunting.
53
147572
2855
فأجل، تبدو هذه المهمة شاقة.
02:30
But luckily, we got help from the brain itself.
54
150451
3655
لكن لحسن الحظ، لدينا مساعدة من الدماغ نفسه.
02:34
It turned out that all we need to do is basically
55
154130
2431
لقد تبين أنه كل ما يجب علينا فعله هو
02:36
to let the brain form a memory,
56
156585
1969
أن نسمح للدماغ أن يكوِّن ذاكرة،
02:38
and then the brain will tell us which cells are involved
57
158578
3806
و من ثم سوف يخبرنا الدماغ بالخلايا المشاركة
02:42
in that particular memory.
58
162408
1742
في تلك الذاكرة بالتحديد.
02:44
SR: So what was going on in my brain
59
164174
2333
ستيف: ما الذي كان يحدث في دماغي
02:46
while I was recalling the memory of an ex?
60
166531
2070
بينما كنت أتذكَّر حبيبتي السابقة؟
02:48
If you were to just completely ignore human ethics for a second
61
168625
2378
إن تجاهلت تماماً الأخلاقيات الإنسانية لثانية
02:51
and slice up my brain right now,
62
171027
1644
و قمت بتقطيع دماغي إلى شرائح الآن
02:52
you would see that there was an amazing number
63
172695
2191
أمكنك رؤية أنه هناك عدد مدهش
02:54
of brain regions that were active while recalling that memory.
64
174910
2957
من مناطق الدماغ التي كانت نشطة بينما تذكرت تلك الذكرى.
02:57
Now one brain region that would be robustly active
65
177891
2888
الآن، من مناطق الدماغ التي تكون نشطة بقوة
03:00
in particular is called the hippocampus,
66
180803
1983
تحديداً، تسمى بالحصين [هيبوكامبس]،
03:02
which for decades has been implicated in processing
67
182810
2431
و التي لعقود كانت لها علاقة بتشكيل
03:05
the kinds of memories that we hold near and dear,
68
185265
2392
أنواع الذكريات المقربة إلينا،
03:07
which also makes it an ideal target to go into
69
187681
2550
و الذي يجعل الحصين هدف مثالي للوصول إليه
03:10
and to try and find and maybe reactivate a memory.
70
190255
2761
لمحاولة إيجاد و ربما لإعادة تفعيل ذاكرة.
03:13
XL: When you zoom in into the hippocampus,
71
193040
2370
شو: عندما تكبِّر الحصين،
03:15
of course you will see lots of cells,
72
195434
2324
بالطبع سوف تجد الكثير من الخلايا،
03:17
but we are able to find which cells are involved
73
197782
3007
لكن كنا قادرين أن نجد الخلايا المشاركة
03:20
in a particular memory,
74
200813
1452
في ذاكرة محددة،
03:22
because whenever a cell is active,
75
202289
2594
لأن كلما تكون هناك خلية نشطة،
03:24
like when it's forming a memory,
76
204907
1524
كما يحدث عند تشكيل ذاكرة،
03:26
it will also leave a footprint that will later allow us to know
77
206455
3649
سوف تترك أثر يسمح لنا أن نعرف
03:30
these cells are recently active.
78
210128
2678
أن هذه الخلايا كانت نشطة منذ قليل.
03:32
SR: So the same way that building lights at night
79
212830
2334
ستيف: فبنفس الطريقة التي تخبرك بها أضواء الشقق في الليل
أنه على الأغلب يوجد شخص هناك يعمل في أي لحظة،
03:35
let you know that somebody's probably working there at any given moment,
80
215188
3429
بمنطق واقعي جداً، هناك مستشعرات بيولوجية
03:38
in a very real sense, there are biological sensors
81
218641
2561
03:41
within a cell that are turned on
82
221226
1930
موجودة داخل الخلية، هذه المستشعرات تضيء
03:43
only when that cell was just working.
83
223180
2111
فقط عندما تكون هذه الخلية قد عملت للتو
03:45
They're sort of biological windows that light up
84
225315
2286
هي نوع من النوافذ البيولوجية التي تضيء
03:47
to let us know that that cell was just active.
85
227625
2191
لتعلمنا أن هذه الخلية كانت للتو نشطة.
03:49
XL: So we clipped part of this sensor,
86
229840
2134
شو: فقمنا بتعليق جزء من هذا المستشعر
03:51
and attached that to a switch to control the cells,
87
231998
3123
و توصيله بمفتاح للتحكم في الخلايا،
03:55
and we packed this switch into an engineered virus
88
235145
3876
و عبأناه في فيروسات معدَّلة
03:59
and injected that into the brain of the mice.
89
239045
2564
و حقنا ذلك في دماغ الفأر.
04:01
So whenever a memory is being formed,
90
241633
2610
فكلما تتكون ذاكرة،
04:04
any active cells for that memory
91
244267
2324
أي خلايا فعّالة في هذه الذاكرة
04:06
will also have this switch installed.
92
246615
2718
سوف تحتوي أيضاً على مفتاح التحكم هذا.
04:09
SR: So here is what the hippocampus looks like
93
249357
2191
ستيف: فهكذا يبدو شكل الحصين
بعد تكوين ذاكرة خوف، مثلاً.
04:11
after forming a fear memory, for example.
94
251572
2226
04:13
The sea of blue that you see here
95
253822
2116
البحر الأزرق الذي ترونه هنا
04:15
are densely packed brain cells,
96
255962
1928
هو عبارة عن اكتظاظ للخلايا الدماغية
04:17
but the green brain cells,
97
257914
1521
لكن الخلايا الدماغية الخضراء،
04:19
the green brain cells are the ones that are holding on
98
259459
2572
الخلايا الدماغية الخضراء هي تلك التي تحمل
ذاكرة خوف محددة.
04:22
to a specific fear memory.
99
262055
1319
04:23
So you are looking at the crystallization
100
263398
1955
فأنت تنظر إلى تكوين
04:25
of the fleeting formation of fear.
101
265377
2363
الخوف.
04:27
You're actually looking at the cross-section of a memory right now.
102
267764
3473
أنت بالواقع تنظر إلى مقطع عرضي لذاكرة ما الآن.
04:31
XL: Now, for the switch we have been talking about,
103
271261
2429
شو: الآن، بالنسبة لمفتاح التحكم الذي كنّا نتحدث عنه،
04:33
ideally, the switch has to act really fast.
104
273714
2901
يجب أن يعمل المفتاح بسرعة كبيرة.
04:36
It shouldn't take minutes or hours to work.
105
276639
2555
ليس من المفترض أن يستغرق دقائق أو ساعات ليعمل.
04:39
It should act at the speed of the brain, in milliseconds.
106
279218
4240
يجب أن يعمل بنفس سرعة الدماغ، بالميللي ثانية.
04:43
SR: So what do you think, Xu?
107
283482
1406
ستيف: فما رأيك، شو؟
04:44
Could we use, let's say, pharmacological drugs
108
284912
2578
هل يمكننا استخدام، لنقول، أدوية
04:47
to activate or inactivate brain cells?
109
287514
1814
لنفعّل أو نثبّط خلايا الدماغ؟
04:49
XL: Nah. Drugs are pretty messy. They spread everywhere.
110
289352
4039
شو: لا. إن الأدوية فوضوية حقاً. إنها تنتشر في كل مكان.
04:53
And also it takes them forever to act on cells.
111
293415
2984
و أيضاً تستغرق وقتاً طويلاً لتؤثّر على الخلايا.
04:56
So it will not allow us to control a memory in real time.
112
296423
3625
لذا إنها لن تسمح لنا بالتحكم الآني بذاكرة ما.
05:00
So Steve, how about let's zap the brain with electricity?
113
300072
4270
حسناً ستيف، ما رأيك أن نعرّض الدماغ لصدمة كهربائية؟
05:04
SR: So electricity is pretty fast,
114
304366
2281
ستيف: حسناً، إن الكهرباء سريعة جداً،
05:06
but we probably wouldn't be able to target it
115
306671
1715
لكننا على الأغلب لن نستطيع توجيهها
05:08
to just the specific cells that hold onto a memory,
116
308410
2429
للخلايا المحددة المسؤولة عن الذاكرة،
05:10
and we'd probably fry the brain.
117
310863
1755
و على الأغلب سوف نقلي الدماغ.
05:12
XL: Oh. That's true. So it looks like, hmm,
118
312642
3171
شو: آه. إن ذلك صحيح. إذاً يبدو أن..
05:15
indeed we need to find a better way
119
315837
2587
حقاً إننا بحاجة أن نجد طريقة أفضل
05:18
to impact the brain at the speed of light.
120
318448
3271
لنؤثر على الدماغ بنفس سرعة الضوء.
05:21
SR: So it just so happens that light travels at the speed of light.
121
321743
5062
ستيف: و يصدف أن الضوء ينتقل بسرعة الضوء.
05:26
So maybe we could activate or inactive memories
122
326829
3459
فربما يمكننا أن ننشط أو نثبِّط الذكريات
05:30
by just using light --
123
330312
1473
باستخدام الضوء فقط --
05:31
XL: That's pretty fast.
124
331809
1331
شو: هذا سريع حقاً.
05:33
SR: -- and because normally brain cells
125
333164
1861
ستيف: -- و بما أن خلايا الدماغ
05:35
don't respond to pulses of light,
126
335049
1572
لا تستجيب بالعادة إلى نبضات الضوء
05:36
so those that would respond to pulses of light
127
336645
1934
فتلك التي سوف تستجيب
05:38
are those that contain a light-sensitive switch.
128
338603
2432
هي التي تملك مفتاح تحكم حساس للضوء.
05:41
Now to do that, first we need to trick brain cells
129
341059
1922
الآن لتنفيذ ذلك، أولاً يجب أن نتلاعب بالخلايا الدماغية
05:43
to respond to laser beams.
130
343005
1438
لتستجيب لأشعة الليزر.
05:44
XL: Yep. You heard it right.
131
344467
1046
شو: نعم. لقد ما سمعتوه صحيح.
05:45
We are trying to shoot lasers into the brain.
132
345537
2143
نحن نحاول أن نطلق أشعة ليزر على الدماغ.
05:47
(Laughter)
133
347704
1686
(ضحك)
05:49
SR: And the technique that lets us do that is optogenetics.
134
349414
3300
ستيف: و التقنية التي تسمح لما بفعل ذلك هي تقنية الجينات الضوئية.
05:52
Optogenetics gave us this light switch that we can use
135
352738
3258
توفر لنا تقنية الجينات الضوئية مفاتيح التحكم الضوئية التي يمكننا استخدامها
05:56
to turn brain cells on or off,
136
356020
1484
لتشغيل و إطفاء خلايا الدماغ،
05:57
and the name of that switch is channelrhodopsin,
137
357528
2493
و اسم هذه المفاتيح هو "تشانيل رودوبسين" [بروتين ناقل في الأغشية]
06:00
seen here as these green dots attached to this brain cell.
138
360045
2513
تبدو هنا كنقط خضراء متصلة بالخلية الدماغية هذه.
06:02
You can think of channelrhodopsin as a sort of light-sensitive switch
139
362582
3286
يمكنك التفكير في ال"تشانيل رودوبسين" كنوع من المفاتيح الحساسة للضوء
06:05
that can be artificially installed in brain cells
140
365892
2592
التي يمكننا تثبيتها بشكل صناعي في خلايا الدماغ
06:08
so that now we can use that switch
141
368508
1890
بحيث نستطيع الآن استخدام ذلك المفتاح
06:10
to activate or inactivate the brain cell simply by clicking it,
142
370422
3000
لتنشيط أو تثبيط خلايا الدماغ ببساطة بالضغط عليه،
06:13
and in this case we click it on with pulses of light.
143
373446
2524
و في هذه الحالة نحن نضغط عليه بنبضات ضوئية.
06:15
XL: So we attach this light-sensitive switch of channelrhodopsin
144
375994
3671
شو: إذاً نحن نوصل هذا المفتاح الحساس للضوء من ال"تشانيل رودوبسين"
06:19
to the sensor we've been talking about
145
379689
2184
بالمستشعرات التي تكلمنا عنها
06:21
and inject this into the brain.
146
381897
2431
و نحقن ذلك في الدماغ
06:24
So whenever a memory is being formed,
147
384352
3187
فكلما تتكون ذاكرة،
06:27
any active cell for that particular memory
148
387563
2203
أي خلية نشطة في هذه الذاكرة
06:29
will also have this light-sensitive switch installed in it
149
389790
3460
سوف يكون لديها أيضاً هذا المفتاح الحساس للضوء مثبَّت لديها
06:33
so that we can control these cells
150
393274
2377
بحيث نستطيع التحكم بهذه الخلايا
06:35
by the flipping of a laser just like this one you see.
151
395675
4240
بومضة من الليزر كالذي ترونه.
06:39
SR: So let's put all of this to the test now.
152
399939
2840
ستيف: دعنا نختبر هذا كله الآن.
06:42
What we can do is we can take our mice
153
402803
2111
ما يمكننا فعله هو أخذ فئراننا
06:44
and then we can put them in a box that looks exactly like this box here,
154
404938
2904
و وضعهم في صندوق يشبه تماماً هذا الصندوق هنا،
06:47
and then we can give them a very mild foot shock
155
407866
2316
و ثم يمكننا إعطاءهم صعقة كهربائية طفيفة جداً
06:50
so that they form a fear memory of this box.
156
410206
2048
بحيث يكوّنون ذاكرة خوف من هذا الصندوق.
06:52
They learn that something bad happened here.
157
412278
2059
يتعلمون أن شيء سيّء قد حدث هنا.
06:54
Now with our system, the cells that are active
158
414361
2318
الآن مع نظامنا، الخلايا الفعالة
06:56
in the hippocampus in the making of this memory,
159
416703
2766
في تكوين هذه الذاكرة في الحصين،
06:59
only those cells will now contain channelrhodopsin.
160
419493
2859
فقط هذه الخلايا سوف تحتوي الآن على الـ "تشانيل رودوبسين"
07:02
XL: When you are as small as a mouse,
161
422376
2993
شو: عندما تكون صغير الحجم كالفأر،
07:05
it feels as if the whole world is trying to get you.
162
425393
3571
تشعر كأن العالم أجمع يكيد لك.
07:08
So your best response of defense
163
428988
1724
فأفضل استجابة دفاعية
07:10
is trying to be undetected.
164
430736
2458
هي محاولة التّخفّي
07:13
Whenever a mouse is in fear,
165
433218
2009
كلما يكون الفأر خائف،
07:15
it will show this very typical behavior
166
435251
1858
يظهر هذا النوع من السلوك النموذجي
بالبقاء في زاوية واحدة من الصندوق،
07:17
by staying at one corner of the box,
167
437133
1745
07:18
trying to not move any part of its body,
168
438902
2738
محاولاً ألّا يحرك أي جزء من جسمه،
07:21
and this posture is called freezing.
169
441664
3271
و هذه الوضعية تسمى بالتجمّد.
07:24
So if a mouse remembers that something bad happened in this box,
170
444959
4270
فإن تذكر فأر أن شيئاً سيّء قد حدث في هذا الصندوق،
07:29
and when we put them back into the same box,
171
449253
2599
و عندما نضعه مجدداً في نفس الصندوق،
07:31
it will basically show freezing
172
451876
1780
سوف يظهر وضعية التجمّد
07:33
because it doesn't want to be detected
173
453680
2261
لأنه لا يريد أن يتم كشفه
07:35
by any potential threats in this box.
174
455965
2671
بواسطة أي مصدر تهديد في هذا الصندوق.
07:38
SR: So you can think of freezing as,
175
458660
1331
ستيف: فيمكنك التفكير بالتجمد كالتالي،
07:40
you're walking down the street minding your own business,
176
460015
2191
أنت تسير في الشارع في حال سبيلك،
07:42
and then out of nowhere you almost run into
177
462230
2048
و فجأة تكاد تمر
بحبيبة سابقة أو حبيب سابق،
07:44
an ex-girlfriend or ex-boyfriend,
178
464302
1821
07:46
and now those terrifying two seconds
179
466147
2110
و في هتين الثانيتين المرعبتين
07:48
where you start thinking, "What do I do? Do I say hi?
180
468281
1852
تبدأ تفكر، "ماذا أفعل؟ هل أقول مرحباً؟
07:50
Do I shake their hand? Do I turn around and run away?
181
470157
1344
هل أصافحهم؟ هل أستدير و أهرب؟
07:51
Do I sit here and pretend like I don't exist?"
182
471525
2005
هل أجلس هناك و أتظاهر بعدم الوجود؟"
07:53
Those kinds of fleeting thoughts that physically incapacitate you,
183
473554
3160
هذا النوع من الأفكار العابرة التي تقيّد حركتك،
07:56
that temporarily give you that deer-in-headlights look.
184
476738
2722
التي تجعلك تبدو مرتبك لبرهة.
07:59
XL: However, if you put the mouse in a completely different
185
479484
3267
شو: لكن إن وضعت الفأر في صندوق
08:02
new box, like the next one,
186
482775
3137
جديد مختلف كلياً، مثل هذا،
08:05
it will not be afraid of this box
187
485936
2123
فإنه لن يكون خائف من هذا الصندوق
08:08
because there's no reason that it will be afraid of this new environment.
188
488083
4705
لأنه لا يوجد أي سبب لأن يخاف من هذه البيئة الجديدة.
08:12
But what if we put the mouse in this new box
189
492812
3156
لكن ماذا لو وضعنا الفأر في هذا الصندوق الجديد
08:15
but at the same time, we activate the fear memory
190
495992
3587
لكن في نفس الوقت، فعَّلنا ذاكرة الخوف
08:19
using lasers just like we did before?
191
499603
2655
باستخدام الليزر كما فعلنا سابقاً؟
08:22
Are we going to bring back the fear memory
192
502282
2830
هل سنسترجع ذاكرة الخوف
08:25
for the first box into this completely new environment?
193
505136
3973
من الصندوق الأول في هذه البيئة الجديدة كلياً؟
08:29
SR: All right, and here's the million-dollar experiment.
194
509133
2711
ستيف: حسناً، و هذه هي التجربة المنتظرة.
08:31
Now to bring back to life the memory of that day,
195
511868
2889
الآن لإسترجاع ذلك اليوم،
08:34
I remember that the Red Sox had just won,
196
514781
2159
أتذكر أن "رد سوكس" [فريق كرة القاعدة] قد ربح للتو،
08:36
it was a green spring day,
197
516964
1885
لقد كان يوم مخضر ربيعي،
08:38
perfect for going up and down the river
198
518873
1858
مثالي للتنزه بجانب النهر
08:40
and then maybe going to the North End
199
520755
2245
و ربما ثم الذهاب إلى "نورث إند" [حي في بوسطن]
08:43
to get some cannolis, #justsaying.
200
523024
2135
لشراء بعض ال"كانولي" [تحلية]، فقط أتصور.
08:45
Now Xu and I, on the other hand,
201
525183
3078
الآن شو و أنا، من ناحية أخرى،
08:48
were in a completely windowless black room
202
528285
2806
كنا في غرفة ذات ظلام دامس بدون نوافذ
08:51
not making any ocular movement that even remotely resembles an eye blink
203
531115
3636
لا نحرك عينينا أبداً و لا حتى نرمشهم
08:54
because our eyes were fixed onto a computer screen.
204
534775
2443
لأن أعيننا كانت متسمّرة على شاشة الكمبيوتر.
08:57
We were looking at this mouse here trying to activate a memory
205
537242
2953
كنّا ننظر إلى هذا الفأر هنا نحاول أن نفعّل ذاكرة
لأول مرة باستخدام تقنيتنا.
09:00
for the first time using our technique.
206
540219
1859
شو: و هذا ما رأيناه.
09:02
XL: And this is what we saw.
207
542102
2243
09:04
When we first put the mouse into this box,
208
544369
2178
في البداية عندما نضع الفأر في هذا الصندوق،
09:06
it's exploring, sniffing around, walking around,
209
546571
3089
يقوم بالاستكشاف، يشم ما حوله، يمشي في المكان،
09:09
minding its own business,
210
549684
1665
في حال سبيله،
09:11
because actually by nature,
211
551373
1677
لكن بالطبيعة،
09:13
mice are pretty curious animals.
212
553074
1955
الفئران حيوانات فضولية جداً.
09:15
They want to know, what's going on in this new box?
213
555053
2598
يريدون أن يعرفوا، ما الذي يجري في هذا الصندوق الجديد؟
09:17
It's interesting.
214
557675
1507
إنه مثير للاهتمام.
09:19
But the moment we turned on the laser, like you see now,
215
559206
3427
لكن بنفس اللحظة التي شغلنا فيها الليزر، كما ترون الآن،
09:22
all of a sudden the mouse entered this freezing mode.
216
562657
3008
فجأة دخل الفأر وضعية التجمد هذه.
09:25
It stayed here and tried not to move any part of its body.
217
565689
4407
لقد ظل واقفاً هنا و حاول ألا يحرك أي جزء من جسمه.
09:30
Clearly it's freezing.
218
570120
1604
يبدوا بوضوح أنه يتجمد.
09:31
So indeed, it looks like we are able to bring back
219
571748
2559
إذاً حقاً، يبدوا أننا قادرين أن نسترجع
09:34
the fear memory for the first box
220
574331
2040
ذاكرة الخوف من الصندوق الأول
09:36
in this completely new environment.
221
576395
3343
في هذه البيئة الجديدة كلياً.
09:39
While watching this, Steve and I
222
579762
2088
بينما كنَا نشاهد هذا، ستيف و أنا
09:41
are as shocked as the mouse itself.
223
581874
2109
كنا مصدومين بقدر الفأر نفسه.
09:44
(Laughter)
224
584007
1238
(ضحك)
09:45
So after the experiment, the two of us just left the room
225
585269
3283
إذاً بعد التجربة، خرجنا من الغرفة
09:48
without saying anything.
226
588576
1729
دون قول أي شيء.
09:50
After a kind of long, awkward period of time,
227
590329
3372
بعد فترة طويلة بعض الشيء، و غريبة،
09:53
Steve broke the silence.
228
593725
2188
ستيف كسر الصمت.
09:55
SR: "Did that just work?"
229
595937
2317
ستيف: "هل نجح ذلك للتو؟"
09:58
XL: "Yes," I said. "Indeed it worked!"
230
598278
2950
شو: قلت: "نعم". "حقاً لقد نجح!"
10:01
We're really excited about this.
231
601252
2093
تحمَسنا جداً لهذا.
10:03
And then we published our findings
232
603369
2600
و بعد ذلك نشرنا نتائجنا
10:05
in the journal Nature.
233
605993
1672
في دورية "نايتشر".
10:07
Ever since the publication of our work,
234
607689
2447
منذ نشر بحثنا،
10:10
we've been receiving numerous comments
235
610160
2391
نحن نتلقى العديد من التعليقات
10:12
from all over the Internet.
236
612575
2101
من حول الإنترنت.
10:14
Maybe we can take a look at some of those.
237
614700
3726
ربما يمكننا رؤية بعضها.
10:18
["OMGGGGG FINALLY... so much more to come, virtual reality, neural manipulation, visual dream emulation... neural coding, 'writing and re-writing of memories', mental illnesses. Ahhh the future is awesome"]
238
618450
2433
["ياااااااااااا إلهي و أخيراً.. الكثير سوف يتحقق، الواقع الافتراضي، التلاعب العصبي، محاكاة الأحلام البصرية.. التشفير العصبي، 'كتابة و إعادة كتابة الذكريات'، الأمراض العقلية. آه إنَّ المستقبل مبهر"]
10:20
SR: So the first thing that you'll notice is that people
239
620907
1976
ستيف: إذا أول شيء ستلاحظه هو أن الناس
10:22
have really strong opinions about this kind of work.
240
622907
2879
لديها آراء قوية في هذا النوع من الأبحاث.
10:25
Now I happen to completely agree with the optimism
241
625810
2530
الآن أنا أوافق تماماً على التفاؤل
10:28
of this first quote,
242
628364
792
في هذا التعليق،
10:29
because on a scale of zero to Morgan Freeman's voice,
243
629180
2784
لأن على المقياس من الصفر إلى صوت "مورغان فريمان" [ممثل]،
10:31
it happens to be one of the most evocative accolades
244
631988
2477
هو واحد من أهم التشريفات
10:34
that I've heard come our way.
245
634489
1526
التي سمعتها موجهة إلينا
(ضحك)
10:36
(Laughter)
246
636039
1794
10:37
But as you'll see, it's not the only opinion that's out there.
247
637857
1927
لكن كما سترون، إنه ليس الرأي الوحيد الموجود.
10:39
["This scares the hell out of me... What if they could do that easily in humans in a couple of years?! OH MY GOD WE'RE DOOMED"]
248
639808
1540
["هذا يخيفني جداً.. ماذا لو استطاعوا أن يفعلوا ذلك مع البشر بعد بضع سنوات؟! يا إلهي نحن هالكون"]
10:41
XL: Indeed, if we take a look at the second one,
249
641372
2286
شو: بالفعل، إن نظرنا إلى التعليق الثاني،
10:43
I think we can all agree that it's, meh,
250
643682
2083
أعتقد أننا كلنا نتفق أنه..
10:45
probably not as positive.
251
645789
1959
على الأغلب ليس إيجابي كالأول.
10:47
But this also reminds us that,
252
647772
2161
لكنه أيضاً يذكرنا أن،
10:49
although we are still working with mice,
253
649957
2162
على الرغم من أننا مازلنا نتعامل مع الفئران،
10:52
it's probably a good idea to start thinking and discussing
254
652143
3493
إنها على الأغلب فكرة جيدة أن نبدأ التفكير و مناقشة
10:55
about the possible ethical ramifications
255
655660
2967
العواقب الأخلاقية المحتملة
10:58
of memory control.
256
658651
1924
للتحكم بالذاكرة.
11:00
SR: Now, in the spirit of the third quote,
257
660599
2176
ستيف: الآن، في ضوء التعليق الثالث،
11:02
we want to tell you about a recent project that we've been
258
662799
1950
نريد أن نخبركم عن مشروع نعمل عليه مؤخراً
11:04
working on in lab that we've called Project Inception.
259
664773
2572
في المختبر و قد أسميناه مشروع بداية.
11:07
["They should make a movie about this. Where they plant ideas into peoples minds, so they can control them for their own personal gain. We'll call it: Inception."]
260
667369
3219
["يجب أن يصوروا فيلم عن هذا. حيث يزرعون الأفكار في أدمغة البشر، لكي يتحكموا بهم من أجل منافع شخصية. و سنسميه: بداية"]
11:10
So we reasoned that now that we can reactivate a memory,
261
670612
3542
ففكرنا أننا الآن نستطيع تنشيط ذاكرة،
11:14
what if we do so but then begin to tinker with that memory?
262
674178
2928
ماذا لو فعلنا ذلك مع التلاعب في هذه الذاكرة؟
11:17
Could we possibly even turn it into a false memory?
263
677130
3009
هل يمكننا حتى تحويلها لذاكرة خاطئة؟
11:20
XL: So all memory is sophisticated and dynamic,
264
680163
4075
شو: كل ذاكرة معقدة و ديناميكية،
11:24
but if just for simplicity, let's imagine memory
265
684262
2955
لكن فقط للتبسيط، دعنا نتخيل الذاكرة
11:27
as a movie clip.
266
687241
1378
كلقطة من فيلم.
11:28
So far what we've told you is basically we can control
267
688643
2646
ما أخبرناكم به حتى الآن هو أننا نستطيع التحكم
11:31
this "play" button of the clip
268
691313
1907
بزر "التشغيل" للقطة
11:33
so that we can play this video clip any time, anywhere.
269
693244
4561
بحيث نستطيع أن نشاهد هذا الفيديو في أي وقت، أي مكان.
11:37
But is there a possibility that we can actually get
270
697829
2507
لكن هل هنالك إمكانية أن نستطيع
11:40
inside the brain and edit this movie clip
271
700360
2836
الدخول إلى داخل الدماغ و تحرير لقطة الفيلم هذه؟
11:43
so that we can make it different from the original?
272
703220
2872
بحيث نستطيع جعلها مختلفة عن الأصل؟
11:46
Yes we can.
273
706116
2154
نعم نستطيع.
11:48
Turned out that all we need to do is basically
274
708294
2191
لقد تبين أن كل ما علينا فعله هو
11:50
reactivate a memory using lasers just like we did before,
275
710509
4166
إعادة تنشيط ذاكرة ما باستخدام الليرز كما فعلنا سابقاً،
11:54
but at the same time, if we present new information
276
714699
3415
لكن في نفس الوقت، إن قدمنا معلومات جديدة
11:58
and allow this new information to incorporate into this old memory,
277
718138
3950
و سمحنا لهذه المعلومات الجديدة أن تندمج مغ الذاكرة القديمة،
12:02
this will change the memory.
278
722112
2414
هذا سوف يغير الذاكرة.
12:04
It's sort of like making a remix tape.
279
724550
3639
إنه تقريباً مثل عمل شريط أغاني منوعة.
12:08
SR: So how do we do this?
280
728213
2834
ستيف: إذاً كيف نفعل هذا؟
12:11
Rather than finding a fear memory in the brain,
281
731071
1933
بدلاً من إيجاد ذاكرة خوف في الدماغ،
12:13
we can start by taking our animals,
282
733028
1692
نستطيع البدء بأخذ حيواناتنا،
12:14
and let's say we put them in a blue box like this blue box here
283
734744
2953
و وضعهم في صندوق أزرق كهذا
12:17
and we find the brain cells that represent that blue box
284
737721
2623
و وجدنا خلايا الدماغ التي تمثل هذا الصندوق الأزرق
12:20
and we trick them to respond to pulses of light
285
740368
2239
و جعلناهم يستجيبوا لنبضات ضوئية
12:22
exactly like we had said before.
286
742631
1710
تماماً كما ذكرنا سابقاً.
12:24
Now the next day, we can take our animals and place them
287
744365
2100
الآن في اليوم التالي، نستطيغ أخذ حيواناتنا و وضعهم
12:26
in a red box that they've never experienced before.
288
746489
2675
في صندوق أحمر لم يجربوه أبداً من قبل.
12:29
We can shoot light into the brain to reactivate
289
749188
2239
نستطيع أن نسقط الضوء على الدماغ لننشط
12:31
the memory of the blue box.
290
751451
1848
ذاكرة الصندوق الأزرق.
12:33
So what would happen here if, while the animal
291
753323
1720
إذاً ماذا قد يحدث هنا إن، بينما الحيوان
12:35
is recalling the memory of the blue box,
292
755067
1905
يتذكر الصندوق الأزرق،
12:36
we gave it a couple of mild foot shocks?
293
756996
2584
عرضنا قدميه لبضع صدمات كهربائية خفيفة؟
12:39
So here we're trying to artificially make an association
294
759604
2669
فنحن هنا نحاول أن نربط بشكل مصطنع
12:42
between the memory of the blue box
295
762297
1891
بين ذاكرة الصندوق الأزرق
12:44
and the foot shocks themselves.
296
764212
1479
و الصعقات الكهربائية للأقدام.
12:45
We're just trying to connect the two.
297
765715
1762
نحن فقط نحاول أن نربط الإثنين.
12:47
So to test if we had done so,
298
767501
1512
إذاً لنختبر إن كنّا قد حققنا ذلك،
12:49
we can take our animals once again
299
769037
1304
نستطيع أن نأخذ حيواناتنا مرة أخرى
12:50
and place them back in the blue box.
300
770365
1922
و أرجعناهم إلى الصندوق الأزرق.
12:52
Again, we had just reactivated the memory of the blue box
301
772311
2715
من جديد، لقد نشطنا ذاكرة الصندوق الأزرق
12:55
while the animal got a couple of mild foot shocks,
302
775050
2381
بينما تعرض الحيوان إلى بضع صعقات خفيفة للأقدام،
12:57
and now the animal suddenly freezes.
303
777455
2107
و الآن يتجمد الحيوان فجأة.
12:59
It's as though it's recalling being mildly shocked in this environment
304
779586
3334
كأنه يتذكر التعرض للصعق في هذه البيئة
13:02
even though that never actually happened.
305
782944
2822
على الرغم من عدم حدوث ذلك أبداً.
13:05
So it formed a false memory,
306
785790
1838
فإذاً قد تكونت ذاكرة خاطئة،
13:07
because it's falsely fearing an environment
307
787652
2048
لأنه بالخطأ أصبح يخاف بيئة
13:09
where, technically speaking,
308
789724
1334
حيث، عملياً،
لم يحدث أي شيء سيء فيها.
13:11
nothing bad actually happened to it.
309
791082
2160
13:13
XL: So, so far we are only talking about
310
793266
2429
شو: إذاً، حتى الآن نحن فقط نتكلم عن
13:15
this light-controlled "on" switch.
311
795719
2342
مفتاح "التشغيل" الحساس للضوء.
13:18
In fact, we also have a light-controlled "off" switch,
312
798085
3264
في الحقيقة، نحن لدينا أيضاً مفتاح "إطفاء" حساس للضوء،
13:21
and it's very easy to imagine that
313
801373
2056
و من السهل جداً تصور أن
13:23
by installing this light-controlled "off" switch,
314
803453
2454
بتثبيت مفتاح "الإطفاء" هذا،
13:25
we can also turn off a memory, any time, anywhere.
315
805931
5564
نستطيع أن نطفئ ذاكرة، في أي وقت، و أي مكان.
13:31
So everything we've been talking about today
316
811519
2190
إذاً كل شيء تكلمنا عنه اليوم
13:33
is based on this philosophically charged principle of neuroscience
317
813733
4653
هو عن هذا المبدأ الفلسفي في علم الأعصاب
13:38
that the mind, with its seemingly mysterious properties,
318
818410
4094
أن العقل، مع خواصه التي تبدو غامضة،
13:42
is actually made of physical stuff that we can tinker with.
319
822528
3621
هو في الحقيقة مكون من أشياء فيزيائية يمكننا تعديلها.
13:46
SR: And for me personally,
320
826173
1451
ستيف: و بالنسبة لي شخصياً،
13:47
I see a world where we can reactivate
321
827648
1762
إنني أرى عالماً حيث نستطيع إعادة تفعيل
13:49
any kind of memory that we'd like.
322
829434
1887
أي نوع من الذاكرة نرغب.
13:51
I also see a world where we can erase unwanted memories.
323
831345
3274
إنني إيضاً أرى عالماً حيث نستطيع محو الذكريات الغير مرغوب فيها.
13:54
Now, I even see a world where editing memories
324
834643
2143
الآن، إنني حتى أرى عالماً حيث تعديل الذكريات
13:56
is something of a reality,
325
836810
1284
شيء من الواقع،
13:58
because we're living in a time where it's possible
326
838118
1681
لأننا نعيش في زمن حيث من الممكن
13:59
to pluck questions from the tree of science fiction
327
839823
2429
نزع أسئلة من شجرة الخيال العلمي
14:02
and to ground them in experimental reality.
328
842276
2168
و زرعهم في واقع بحثي.
14:04
XL: Nowadays, people in the lab
329
844468
1859
شو: في هذه الأيام الناس في المختبر
14:06
and people in other groups all over the world
330
846351
2362
و الناس في مجموعات أخرى حول العالم
14:08
are using similar methods to activate or edit memories,
331
848737
3793
يستخدمون طرق مماثلة لتنشيط أو تعديل الذكريات،
14:12
whether that's old or new, positive or negative,
332
852554
3817
سواء أكانت قديمة أم حديثة، إيجابية أم سلبية،
14:16
all sorts of memories so that we can understand
333
856395
2648
كل أنواع الذكريات لكي نستطيع فهم
14:19
how memory works.
334
859067
1840
كيف تعمل الذاكرة.
14:20
SR: For example, one group in our lab
335
860931
1760
ستيف: مثلاً، أحد المجموعات في مختبرنا
14:22
was able to find the brain cells that make up a fear memory
336
862715
2614
استطاعت إيجاد خلايا الدماغ التي تشكل ذاكرة الخوف
14:25
and converted them into a pleasurable memory, just like that.
337
865353
2751
و حولتها إلى ذاكرة محببة، بهذه بساطة.
14:28
That's exactly what I mean about editing these kinds of processes.
338
868128
3143
هذا بالضبط ما أعنية بتعديل هذه الأنواع من العمليات.
14:31
Now one dude in lab was even able to reactivate
339
871295
2239
الآن أحدهم في المختبر كان قادراً أن يعيد تفعيل
14:33
memories of female mice in male mice,
340
873558
1921
ذكريات أنثى الفئران في فئران ذكور،
14:35
which rumor has it is a pleasurable experience.
341
875503
2971
يقال إنها تجربة ممتعة.
14:38
XL: Indeed, we are living in a very exciting moment
342
878498
4093
شو: بالفعل، نحن نعيش لحظة مثيرة جداً
14:42
where science doesn't have any arbitrary speed limits
343
882615
3781
حيث لا يوجد حدود لسرعة العلم
14:46
but is only bound by our own imagination.
344
886420
3163
بل هو يعتمد فقط على مخيلتنا.
14:49
SR: And finally, what do we make of all this?
345
889607
2143
ستيف: و أخيراً، ما نحن صانعون بهذا كله؟
14:51
How do we push this technology forward?
346
891774
1927
كيف يمكننا دفع هذه التقنية إلى الأمام؟
14:53
These are the questions that should not remain
347
893725
2191
هذه هي الأسئلة التي يجب ألا تبقى
14:55
just inside the lab,
348
895940
1273
في داخل المختير،
14:57
and so one goal of today's talk was to bring everybody
349
897237
2572
فمن أهداف حديث اليوم كان إخبار الجميع
14:59
up to speed with the kind of stuff that's possible
350
899833
2381
بالأشياء التي أصبحت ممكنة
15:02
in modern neuroscience,
351
902238
1250
في علم الأعصاب الحديث،
15:03
but now, just as importantly,
352
903512
1486
لكن الآن، بقدر أهمية ذلك،
15:05
to actively engage everybody in this conversation.
353
905022
3308
من المهم إشراك الجميع في هذا الحديث.
15:08
So let's think together as a team about what this all means
354
908354
2762
إذاً دعنا نفكر سوياً كفريق عما يعنيه هذا كله
و إلى أين يمكننا و يجب علينا أن ننطلق من هنا،
15:11
and where we can and should go from here,
355
911140
1993
15:13
because Xu and I think we all have
356
913157
2074
لأن شو و أنا نعتقد أن جميعنا لديه
15:15
some really big decisions ahead of us.
357
915255
2512
بعض القرارات الكبيرة حقاً بانتظارنا.
15:17
Thank you. XL: Thank you.
358
917791
1101
شكراً. شو: شكراً.
15:18
(Applause)
359
918916
1634
(تصفيق)
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7