Steve Ramirez and Xu Liu: A mouse. A laser beam. A manipulated memory.

137,324 views ・ 2013-08-15

TED


אנא לחץ פעמיים על הכתוביות באנגלית למטה כדי להפעיל את הסרטון.

מתרגם: Zeeva Livshitz מבקר: Ido Dekkers
00:12
Steve Ramirez: My first year of grad school,
0
12371
2096
סטיב רמירז: בשנה הראשונה שלי ללימודי התואר השני,
מצאתי את עצמי בחדר השינה שלי
00:14
I found myself in my bedroom
1
14491
1416
00:15
eating lots of Ben & Jerry's
2
15931
2276
זולל הרבה "בן אנד ג'רי'
00:18
watching some trashy TV
3
18231
1660
צופה קצת בתוכניות זבל בטלויזיה
00:19
and maybe, maybe listening to Taylor Swift.
4
19915
3203
ואולי, אולי מקשיב לטיילור סוויפט.
00:23
I had just gone through a breakup.
5
23142
1717
עברתי תהליך של פרידה.
00:24
(Laughter)
6
24883
1423
(צחוק)
00:26
So for the longest time, all I would do
7
26330
2172
אז במשך זמן רב, כל מה שהייתי עושה
00:28
is recall the memory of this person over and over again,
8
28526
3792
הוא להיזכר באדם הזה שוב ושוב,
00:32
wishing that I could get rid of that gut-wrenching,
9
32342
2469
מקווה שאוכל להיפטר מהיפוך הקרביים המטריד
00:34
visceral "blah" feeling.
10
34835
2509
ותחושת ה-בלה.
00:37
Now, as it turns out, I'm a neuroscientist,
11
37368
2259
עכשיו, כפי שמסתבר, אני נוירולוג,
00:39
so I knew that the memory of that person
12
39651
2378
אז ידעתי שהזיכרון מהאדם הזה
00:42
and the awful, emotional undertones that color in that memory,
13
42053
3116
והנימה הרגשית שצובעת את הזיכרון הזה,
00:45
are largely mediated by separate brain systems.
14
45193
2610
במידה רבה מתווכים על ידי מערכות מוח נפרדות.
00:47
And so I thought, what if we could go into the brain
15
47827
2477
אז חשבתי, מה אם היינו יכולים לחדור למוח
00:50
and edit out that nauseating feeling
16
50328
1930
ולערוך את התחושה המבחילה
00:52
but while keeping the memory of that person intact?
17
52282
2946
אבל בעוד שאנו שומרים על הזיכרון מאותו אדם בשלמותו?
00:55
Then I realized, maybe that's a little bit lofty for now.
18
55252
2667
ואז הבנתי, אולי זה קצת יומרני מדי לעכשיו.
00:57
So what if we could start off by going into the brain
19
57943
2489
אז מה אם יכולנו להתחיל להיכנס לתוך המוח
01:00
and just finding a single memory to begin with?
20
60456
2609
ורק למצוא זיכרון יחיד להתחיל אתו?
01:03
Could we jump-start that memory back to life,
21
63089
2490
האם נוכל להתניע את הזיכרון הזה חזרה לחיים.
01:05
maybe even play with the contents of that memory?
22
65603
3844
אולי אפילו לשחק עם התכנים של הזיכרון הזה?
01:09
All that said, there is one person in the entire world right now
23
69471
2205
עם כל מה שנאמר, יש אדם אחד בכל העולם כרגע
01:11
that I really hope is not watching this talk.
24
71700
2143
שאני באמת מקווה שאינו צופה בשיחה הזאת.
01:13
(Laughter)
25
73867
3805
(צחוק)
01:17
So there is a catch. There is a catch.
26
77696
3265
אז יש פה מילכוד. יש פה מילכוד.
01:20
These ideas probably remind you of "Total Recall,"
27
80985
2764
רעיונות אלה כנראה מזכירים לכם את "זיכרון גורלי".
01:23
"Eternal Sunshine of the Spotless Mind,"
28
83773
1950
"שמש נצחית בראש צלול"
01:25
or of "Inception."
29
85747
1279
או "התחלה".
01:27
But the movie stars that we work with
30
87050
1762
אבל כוכבי הסרטים שאנחנו עובדים אתם
01:28
are the celebrities of the lab.
31
88836
1709
הם הידוענים של המעבדה.
01:30
Xu Liu: Test mice.
32
90569
1876
שו ליו: עכברי ניסוי.
01:32
(Laughter)
33
92469
1104
(צחוק)
01:33
As neuroscientists, we work in the lab with mice
34
93597
3130
כמדעני מוח, אנחנו עובדים במעבדה עם עכברים
01:36
trying to understand how memory works.
35
96751
3386
כשאנו מנסים להבין איך הזיכרון עובד .
01:40
And today, we hope to convince you that now
36
100161
2545
והיום, אנו מקווים לשכנע אותכם שעכשיו
01:42
we are actually able to activate a memory in the brain
37
102730
3192
אנחנו באמת מסוגלים להפעיל זיכרון במוח
01:45
at the speed of light.
38
105946
2146
במהירות האור.
01:48
To do this, there's only two simple steps to follow.
39
108116
3082
כדי לעשות זאת, יש צורך לעקוב רק אחרי שני צעדים פשוטים .
01:51
First, you find and label a memory in the brain,
40
111222
3486
ראשית, מוצאים ומתייגים זיכרון במוח,
01:54
and then you activate it with a switch.
41
114732
3606
לאחר מכן באפשרותכם להפעיל אותו עם מתג.
01:58
As simple as that.
42
118362
1421
כל כך פשוט.
01:59
(Laughter)
43
119807
1798
(צחוק)
02:01
SR: Are you convinced?
44
121629
1821
ס.ר.: אתה בטוח?
02:03
So, turns out finding a memory in the brain isn't all that easy.
45
123474
3697
אז, מסתבר שמציאת זיכרון במוח אינה כל כך קלה.
02:07
XL: Indeed. This is way more difficult than, let's say,
46
127195
2779
ש.ל: אכן. זה הרבה יותר קשה מאשר, נניח.
02:09
finding a needle in a haystack,
47
129998
2380
למצוא מחט בערימת שחת,
02:12
because at least, you know, the needle is still something
48
132402
2715
כי לפחות, אתם יודעים, המחט היא עדיין משהו
שניתן פיזית לשים עליה את אצבעותיך.
02:15
you can physically put your fingers on.
49
135141
2326
02:17
But memory is not.
50
137491
1953
אבל לא על זיכרון.
02:19
And also, there's way more cells in your brain
51
139468
3014
כמו כן, יש הרבה יותר תאים במוח שלכם
02:22
than the number of straws in a typical haystack.
52
142506
5042
מאשר מספר אניצי הקש בערימת שחת טיפוסית.
02:27
So yeah, this task does seem to be daunting.
53
147572
2855
אז כן, משימה זו נראית מרתיעה.
02:30
But luckily, we got help from the brain itself.
54
150451
3655
אבל למרבה המזל, יש לנו עזרה מהמוח עצמו.
02:34
It turned out that all we need to do is basically
55
154130
2431
התברר שכל מה שאנחנו צריכים לעשות הוא בעצם
02:36
to let the brain form a memory,
56
156585
1969
לתת למוח ליצור זיכרון,
02:38
and then the brain will tell us which cells are involved
57
158578
3806
ואז המוח יספר לנו אילו תאים מעורבים
02:42
in that particular memory.
58
162408
1742
בזיכרון המסוים הזה.
02:44
SR: So what was going on in my brain
59
164174
2333
ס.ר: אז מה קורה במוח שלי
02:46
while I was recalling the memory of an ex?
60
166531
2070
בזמן שהעליתי בזכרוני את זכרה של אקסית?
02:48
If you were to just completely ignore human ethics for a second
61
168625
2378
אם תוכלו לגמרי להתעלם מהאתיקה האנושית לרגע
02:51
and slice up my brain right now,
62
171027
1644
ולפרוס לפרוסות את המוח שלי עכשיו.
02:52
you would see that there was an amazing number
63
172695
2191
הייתם רואים שהיה מספר מדהים
02:54
of brain regions that were active while recalling that memory.
64
174910
2957
של אזורים במוח שהיו פעילים בעת ההיזכרות בזיכרון הזה.
02:57
Now one brain region that would be robustly active
65
177891
2888
עכשיו אזור אחד במוח שיהיה פעיל באופן נמרץ
03:00
in particular is called the hippocampus,
66
180803
1983
במיוחד נקרא ההיפוקמפוס,
03:02
which for decades has been implicated in processing
67
182810
2431
אשר במשך עשרות שנים היה מעורב בעיבוד
03:05
the kinds of memories that we hold near and dear,
68
185265
2392
הסוגים של הזיכרונות שאנחנו מחזיקים ומוקירים קרוב,
03:07
which also makes it an ideal target to go into
69
187681
2550
מה שהופך אותו גם למטרה אידיאלית להיכנס
03:10
and to try and find and maybe reactivate a memory.
70
190255
2761
ולנסות למצוא ואולי להפעיל מחדש זיכרון.
03:13
XL: When you zoom in into the hippocampus,
71
193040
2370
ק.ל: כאשר מתמקדים מקרוב בהיפוקמפוס,
03:15
of course you will see lots of cells,
72
195434
2324
כמובן שתוכלו לראות הרבה תאים,
03:17
but we are able to find which cells are involved
73
197782
3007
אך אנו יכולים למצוא אילו תאים מעורבים
03:20
in a particular memory,
74
200813
1452
בזיכרון מסוים,
03:22
because whenever a cell is active,
75
202289
2594
כי בכל פעם שתא פעיל,
03:24
like when it's forming a memory,
76
204907
1524
.כמו בעת יצירת זיכרון,
03:26
it will also leave a footprint that will later allow us to know
77
206455
3649
הוא גם ישאיר טביעת רגל שתאפשר לנו לדעת מאוחר יותר
03:30
these cells are recently active.
78
210128
2678
שתאים אלה פעילים לאחרונה.
03:32
SR: So the same way that building lights at night
79
212830
2334
ס.ר.: אז באותה הדרך שאורות בנין בלילה
מיידעים אותך שמישהו כנראה עובד שם בכל רגע נתון,
03:35
let you know that somebody's probably working there at any given moment,
80
215188
3429
במובן מאוד אמיתי, ישנם חיישנים ביולוגיים
03:38
in a very real sense, there are biological sensors
81
218641
2561
03:41
within a cell that are turned on
82
221226
1930
בתוך תא שנדלקים
03:43
only when that cell was just working.
83
223180
2111
רק כאשר התא הזה עבד זה עתה.
03:45
They're sort of biological windows that light up
84
225315
2286
הם מעין חלונות ביולוגיים שנדלקים
03:47
to let us know that that cell was just active.
85
227625
2191
כדי שנדע שהתא הזה היה פעיל זה עתה.
03:49
XL: So we clipped part of this sensor,
86
229840
2134
ק.ל: אז קיצצנו חלק מחיישן זה,
03:51
and attached that to a switch to control the cells,
87
231998
3123
והצמדנו זאת למתג כדי לפקח על התאים,
03:55
and we packed this switch into an engineered virus
88
235145
3876
והכנסנו מתג זה לתוך וירוס מהונדס
03:59
and injected that into the brain of the mice.
89
239045
2564
והזרקנו זאת לתוך המוח של העכברים.
04:01
So whenever a memory is being formed,
90
241633
2610
כך שבכל פעם שנוצר זיכרון,
04:04
any active cells for that memory
91
244267
2324
כל התאים הפעילים בזיכרון זה
04:06
will also have this switch installed.
92
246615
2718
גם כן יותקן בהם מתג זה.
04:09
SR: So here is what the hippocampus looks like
93
249357
2191
ס.ר.: אז הנה איך שההיפוקמפוס נראה
לאחר יצירת זיכרון פחד, לדוגמה.
04:11
after forming a fear memory, for example.
94
251572
2226
04:13
The sea of blue that you see here
95
253822
2116
הים כחול שאתם רואים כאן
04:15
are densely packed brain cells,
96
255962
1928
אלה תאי מוח ארוזים בצפיפות,
04:17
but the green brain cells,
97
257914
1521
אבל תאי המוח הירוקים,
04:19
the green brain cells are the ones that are holding on
98
259459
2572
תאי המוח הירוקים הם אלה שנאחזים
בזכרונות פחד ספציפי.
04:22
to a specific fear memory.
99
262055
1319
04:23
So you are looking at the crystallization
100
263398
1955
אז אתם מסתכלים על ההתגבשות
04:25
of the fleeting formation of fear.
101
265377
2363
של היווצרות חולפת של פחד.
04:27
You're actually looking at the cross-section of a memory right now.
102
267764
3473
אתם בעצם מסתכלים על חתך הרוחב של זיכרון ממש עכשיו.
04:31
XL: Now, for the switch we have been talking about,
103
271261
2429
ק.ל: עכשיו, עבור המתג שאנחנו מדברים עליו,
04:33
ideally, the switch has to act really fast.
104
273714
2901
באופן אידיאלי, על המתג לפעול מהר מאוד.
04:36
It shouldn't take minutes or hours to work.
105
276639
2555
זה לא אמור לקחת דקות או שעות של עבודה.
04:39
It should act at the speed of the brain, in milliseconds.
106
279218
4240
זה צריך לפעול במהירות של המוח, באלפיות שניה.
04:43
SR: So what do you think, Xu?
107
283482
1406
ס.ר: אז מה אתה חושב, שו?
04:44
Could we use, let's say, pharmacological drugs
108
284912
2578
האם נוכל, למשל להשתמש בסמים תרופתיים
04:47
to activate or inactivate brain cells?
109
287514
1814
כדי להפעיל או להשבית תאי מוח?
04:49
XL: Nah. Drugs are pretty messy. They spread everywhere.
110
289352
4039
ש.ל.: לא. סמים זה בלגן. הם מתפשטים לכל מקום.
04:53
And also it takes them forever to act on cells.
111
293415
2984
וזה גם לוקח להם המון זמן לפעול על תאים.
04:56
So it will not allow us to control a memory in real time.
112
296423
3625
אז זה לא יאפשר לנו לשלוט בזיכרון בזמן אמת.
05:00
So Steve, how about let's zap the brain with electricity?
113
300072
4270
אז, סטיב, מה דעתך על כך שנתקוף את המוח עם חשמל?
05:04
SR: So electricity is pretty fast,
114
304366
2281
ס.ר: אז חשמל הוא די מהיר.
05:06
but we probably wouldn't be able to target it
115
306671
1715
אבל כנראה לא היינו מסוגלים לכוון זאת
05:08
to just the specific cells that hold onto a memory,
116
308410
2429
רק לתאים ספציפים שאוחזים בזיכרון.
05:10
and we'd probably fry the brain.
117
310863
1755
וכנראה שנטגן את המוח.
05:12
XL: Oh. That's true. So it looks like, hmm,
118
312642
3171
ש.ל.: הו. . זה נכון . אז זה נראה כמו, אממ,
05:15
indeed we need to find a better way
119
315837
2587
אכן אנחנו צריכים למצוא דרך טובה יותר
05:18
to impact the brain at the speed of light.
120
318448
3271
להשפיע על המוח במהירות האור.
05:21
SR: So it just so happens that light travels at the speed of light.
121
321743
5062
ס.ר.: אז מסתבר שאור נע במהירות האור.
05:26
So maybe we could activate or inactive memories
122
326829
3459
אז אולי היינו יכולים להפעיל או להשבית זיכרונות
05:30
by just using light --
123
330312
1473
רק על ידי שמוש באור --
05:31
XL: That's pretty fast.
124
331809
1331
ש.ל.: זה די מהר.
05:33
SR: -- and because normally brain cells
125
333164
1861
ס.ר.: -- ומשום שבדרך כלל תאי מוח
05:35
don't respond to pulses of light,
126
335049
1572
לא מגיבים לפולסים של אור,
05:36
so those that would respond to pulses of light
127
336645
1934
אז אלה שמגיבים לפולסים של אור
05:38
are those that contain a light-sensitive switch.
128
338603
2432
הם אלה שמכילים מתג רגיש לאור.
05:41
Now to do that, first we need to trick brain cells
129
341059
1922
עכשיו, לעשות את זה, קודם אנחנו צריכים להוליך שולל את תאי המוח
05:43
to respond to laser beams.
130
343005
1438
כדי להגיב לקרני לייזר.
05:44
XL: Yep. You heard it right.
131
344467
1046
ש.ל.: כן. שמעת את זה נכון.
05:45
We are trying to shoot lasers into the brain.
132
345537
2143
אנחנו מנסים לשלוח לייזרים לתוך המוח.
05:47
(Laughter)
133
347704
1686
(צחוק)
05:49
SR: And the technique that lets us do that is optogenetics.
134
349414
3300
ס.ר.: והטכניקה שמאפשרת לנו לעשות את זה היא אופטוגנטיקה.
05:52
Optogenetics gave us this light switch that we can use
135
352738
3258
אופטוגנטיקה נתנה לנו את מתג האור שאנחנו יכולים להשתמש בו
05:56
to turn brain cells on or off,
136
356020
1484
כדי להפעיל או להשבית את תאי המוח.
05:57
and the name of that switch is channelrhodopsin,
137
357528
2493
ושמו של המתג הזה הוא ציאנל-רודוספין (תעלות רודוספין),
06:00
seen here as these green dots attached to this brain cell.
138
360045
2513
שנראה כאן כאן כמו נקודות ירוקות אלה שצמודות לתא מוח זה.
06:02
You can think of channelrhodopsin as a sort of light-sensitive switch
139
362582
3286
אתה יכול לחשוב על ציאנל-רודוספין כסוג של מתג רגיש לאור
06:05
that can be artificially installed in brain cells
140
365892
2592
שיכול להיות מותקן באופן מלאכותי בתאי מוח
06:08
so that now we can use that switch
141
368508
1890
כך שעכשיו אנו יכולים להשתמש במתג הזה
06:10
to activate or inactivate the brain cell simply by clicking it,
142
370422
3000
כדי להפעיל או להשבית את תא המוח פשוט על ידי הקשה עליו,
06:13
and in this case we click it on with pulses of light.
143
373446
2524
ובמקרה זה אנחנו מקישים עליו בעזרת פולסים של אור.
06:15
XL: So we attach this light-sensitive switch of channelrhodopsin
144
375994
3671
ש.ל.: אז אנו מצמידים מתג רגיש לאור זה מצ'אנל-רודופסין
06:19
to the sensor we've been talking about
145
379689
2184
לחיישן שעליו דיברנו
06:21
and inject this into the brain.
146
381897
2431
ומזריקים את זה לתוך המוח.
06:24
So whenever a memory is being formed,
147
384352
3187
כך שכל פעם שנוצר זיכרון,
06:27
any active cell for that particular memory
148
387563
2203
בכל תא שפעיל עבור הזיכרון המסוים הזה
06:29
will also have this light-sensitive switch installed in it
149
389790
3460
יהיה מותקן גם מתג רגיש לאור זה
06:33
so that we can control these cells
150
393274
2377
כך שאנחנו יכולים לשלוט על תאים אלה
06:35
by the flipping of a laser just like this one you see.
151
395675
4240
על-ידי היפוך של לייזר בדיוק כמו זה שאתם רואים.
06:39
SR: So let's put all of this to the test now.
152
399939
2840
ס.ר.: אז בואו ונבחן את כל זה עכשיו.
06:42
What we can do is we can take our mice
153
402803
2111
מה שאפשר לעשות זה שאנו יכולים לקחת את העכברים שלנו
06:44
and then we can put them in a box that looks exactly like this box here,
154
404938
2904
ואז נוכל לשים אותם בתוך תיבה שנראית בדיוק כמו זו כאן.
06:47
and then we can give them a very mild foot shock
155
407866
2316
ואז אנו יכולים לתת להם הלם קל מאוד ברגל
06:50
so that they form a fear memory of this box.
156
410206
2048
כך שהם יוצרים זיכרון פחד של תיבה זו.
06:52
They learn that something bad happened here.
157
412278
2059
הם לומדים שמשהו רע קרה כאן.
06:54
Now with our system, the cells that are active
158
414361
2318
עכשיו עם המערכת שלנו, התאים שפעילים
06:56
in the hippocampus in the making of this memory,
159
416703
2766
בהיפוקמפוס בהתהוות של הזיכרון,
06:59
only those cells will now contain channelrhodopsin.
160
419493
2859
רק תאים אלה יכילו עכשיו ציאנלרודופסין.
07:02
XL: When you are as small as a mouse,
161
422376
2993
ש.ל.: כאשר אתה קטן כמו עכבר,
07:05
it feels as if the whole world is trying to get you.
162
425393
3571
זה מרגיש כאילו כל העולם מנסה לתפוס אותך.
07:08
So your best response of defense
163
428988
1724
אז תגובת ההגנה הטובה ביותר שלך
07:10
is trying to be undetected.
164
430736
2458
זה לנסות לא להחשף.
07:13
Whenever a mouse is in fear,
165
433218
2009
בכל פעם שעכבר שרוי בפחד
07:15
it will show this very typical behavior
166
435251
1858
הוא יראה התנהגות אופיינית מאוד זו
על ידי שהייה באחת הפינות של התיבה,
07:17
by staying at one corner of the box,
167
437133
1745
07:18
trying to not move any part of its body,
168
438902
2738
כשהוא מנסה לא להזיז שום חלק מגופו,
07:21
and this posture is called freezing.
169
441664
3271
ותנוחה זו נקראת קְפִיאָה.
07:24
So if a mouse remembers that something bad happened in this box,
170
444959
4270
אז אם עכבר זוכר שמשהו רע קרה בתיבה זו.
07:29
and when we put them back into the same box,
171
449253
2599
וכאשר אנחנו מחזירים אותם לאותה תיבה,
07:31
it will basically show freezing
172
451876
1780
הוא למעשה יציג קְפִיאָה
07:33
because it doesn't want to be detected
173
453680
2261
כי הוא לא רוצה לחשוף עצמו
07:35
by any potential threats in this box.
174
455965
2671
לאיומים פוטנציאליים כלשהם בתיבה זו.
07:38
SR: So you can think of freezing as,
175
458660
1331
ס.ר.: אז אתם יכולים לחשוב על קפיאה,
07:40
you're walking down the street minding your own business,
176
460015
2191
כעל משהו בדומה להליכה במורד הרחוב כשאתה שקוע בענייניך,
07:42
and then out of nowhere you almost run into
177
462230
2048
ואז משום מקום אתה כמעט נתקל
באקסית, או באקס שלך,
07:44
an ex-girlfriend or ex-boyfriend,
178
464302
1821
07:46
and now those terrifying two seconds
179
466147
2110
ועכשיו שתי שניות מפחידות אלו
07:48
where you start thinking, "What do I do? Do I say hi?
180
468281
1852
הן מתי שאתה מתחיל לחשוב, "מה אני עושה? האם לומר היי?
07:50
Do I shake their hand? Do I turn around and run away?
181
470157
1344
האם אני לוחץ את היד שלהם? האם אני מסתובב ובורח?
07:51
Do I sit here and pretend like I don't exist?"
182
471525
2005
האם אני יושב כאן ומעמיד פנים שאינני קיים?"
07:53
Those kinds of fleeting thoughts that physically incapacitate you,
183
473554
3160
סוג זה של מחשבות חולפות שמנטרלות אותך פיזית,
07:56
that temporarily give you that deer-in-headlights look.
184
476738
2722
שמשוות לך באופן זמני את המבט של צבי שמאירים עליו בפנסים קדמיים.
07:59
XL: However, if you put the mouse in a completely different
185
479484
3267
ש.ל.: עם זאת, אם אתה מכניס את העכבר לתיבה חדשה
08:02
new box, like the next one,
186
482775
3137
שונה לחלוטין, כמו הבאה,
08:05
it will not be afraid of this box
187
485936
2123
הוא לא יפחד מתיבה זו
08:08
because there's no reason that it will be afraid of this new environment.
188
488083
4705
בגלל שאין שום סיבה שיפחד מסביבה חדשה זו.
08:12
But what if we put the mouse in this new box
189
492812
3156
אבל מה אם נשים את העכבר בתיבה חדשה זו
08:15
but at the same time, we activate the fear memory
190
495992
3587
אבל באותו הזמן, אנו מפעילים את זיכרון הפחד
08:19
using lasers just like we did before?
191
499603
2655
באמצעות לייזרים בדיוק כמו שעשינו בעבר?
08:22
Are we going to bring back the fear memory
192
502282
2830
אנחנו הולכים להחזיר את זיכרון הפחד
08:25
for the first box into this completely new environment?
193
505136
3973
של התיבה הראשונה לתוך סביבה חדשה לחלוטין זו?
08:29
SR: All right, and here's the million-dollar experiment.
194
509133
2711
ס.ר.: בסדר, וכאן הוא ניסוי מיליון הדולר.
08:31
Now to bring back to life the memory of that day,
195
511868
2889
עכשיו כדי להחזיר לחיים את הזיכרון של היום ההוא,
08:34
I remember that the Red Sox had just won,
196
514781
2159
אני זוכר כי ה"רד סוקס" זה עתה ניצחו,
08:36
it was a green spring day,
197
516964
1885
זה היה יום אביבי ירוק,
08:38
perfect for going up and down the river
198
518873
1858
מושלם לטיול במעלה ובמורד הנהר
08:40
and then maybe going to the North End
199
520755
2245
ואז אולי ללכת לקצה הצפוני
08:43
to get some cannolis, #justsaying.
200
523024
2135
כדי לקבל קצת קנולי, (לא ברור)
08:45
Now Xu and I, on the other hand,
201
525183
3078
עכשיו שו ואני, לעומת זה,
08:48
were in a completely windowless black room
202
528285
2806
היינו בתוך חדר אפל וחסר חלונות
08:51
not making any ocular movement that even remotely resembles an eye blink
203
531115
3636
לא עושים שום תנועת עין שאפילו קצת דומה למצמוץ
08:54
because our eyes were fixed onto a computer screen.
204
534775
2443
כי העיניים שלנו היה נעוצות על מסך המחשב.
08:57
We were looking at this mouse here trying to activate a memory
205
537242
2953
הסתכלנו על העכבר הזה כאן מנסה להפעיל זיכרון
בפעם הראשונה באמצעות הטכניקה שלנו.
09:00
for the first time using our technique.
206
540219
1859
ש.ל.: וזה מה שראינו.
09:02
XL: And this is what we saw.
207
542102
2243
09:04
When we first put the mouse into this box,
208
544369
2178
כאשר אנחנו שמנו לראשונה את העכבר לתוך תיבה זו,
09:06
it's exploring, sniffing around, walking around,
209
546571
3089
הוא חקר, ריחרח, הסתובב סביב,
09:09
minding its own business,
210
549684
1665
כשהוא עסוק בענייניו.
09:11
because actually by nature,
211
551373
1677
כי למעשה בטבעם,
09:13
mice are pretty curious animals.
212
553074
1955
עכברים הם בעלי חיים די סקרנים.
09:15
They want to know, what's going on in this new box?
213
555053
2598
הם רוצים לדעת, מה קורה בתיבת חדשה זו?
09:17
It's interesting.
214
557675
1507
זה מעניין.
09:19
But the moment we turned on the laser, like you see now,
215
559206
3427
אבל ברגע שהפעלנו את הלייזר, כפי שאתם רואים.
09:22
all of a sudden the mouse entered this freezing mode.
216
562657
3008
פתאום העכבר נכנס למצב זה של קפיאה.
09:25
It stayed here and tried not to move any part of its body.
217
565689
4407
הוא שהה כאן, וניסה לא להזיז שום חלק מגופו.
09:30
Clearly it's freezing.
218
570120
1604
ברור שהוא קפוא.
09:31
So indeed, it looks like we are able to bring back
219
571748
2559
אז אכן, זה נראה כאילו אנחנו יכולים להחזיר
09:34
the fear memory for the first box
220
574331
2040
את זיכרון הפחד מהתיבה הראשונה
09:36
in this completely new environment.
221
576395
3343
לסביבה חדשה לגמרי זו.
09:39
While watching this, Steve and I
222
579762
2088
תוך כדי צפייה בזה, סטיב ואני
09:41
are as shocked as the mouse itself.
223
581874
2109
שרויים בהלם בדיוק כמו העכבר עצמו.
09:44
(Laughter)
224
584007
1238
(צחוק)
09:45
So after the experiment, the two of us just left the room
225
585269
3283
אז לאחר הניסוי, שנינו פשוט עזבנו את החדר
09:48
without saying anything.
226
588576
1729
מבלי לומר דבר.
09:50
After a kind of long, awkward period of time,
227
590329
3372
לאחר פרק זמן ארוך, ומביך
09:53
Steve broke the silence.
228
593725
2188
סטיב שבר את השתיקה.
09:55
SR: "Did that just work?"
229
595937
2317
ס.ר.: "האם זה פשוט עבד?"
09:58
XL: "Yes," I said. "Indeed it worked!"
230
598278
2950
ש.ל.: "כן", אמרתי. "אכן זה עבד!"
10:01
We're really excited about this.
231
601252
2093
אנחנו ממש נרגשים על כך.
10:03
And then we published our findings
232
603369
2600
ואז פירסמנו את הממצאים שלנו
10:05
in the journal Nature.
233
605993
1672
בכתב העת "נייצ'ר".
10:07
Ever since the publication of our work,
234
607689
2447
מאז הפרסום של העבודה שלנו,
10:10
we've been receiving numerous comments
235
610160
2391
אנחנו מקבלים הערות רבות
10:12
from all over the Internet.
236
612575
2101
מכל רחבי האינטרנט.
10:14
Maybe we can take a look at some of those.
237
614700
3726
אולי נוכל להעיף מבט על כמה מאלה.
10:18
["OMGGGGG FINALLY... so much more to come, virtual reality, neural manipulation, visual dream emulation... neural coding, 'writing and re-writing of memories', mental illnesses. Ahhh the future is awesome"]
238
618450
2433
["OMG לבסוף. הרבה יותר עומד להגיע, מציאות מדומה, מניפולציות עצביות, הדמיית חלום חזותי. קידוד עצבי , 'כתיבה וכתיבה מחדש של זכרונות', מחלות נפש. אההה העתיד הוא מדהים"]
10:20
SR: So the first thing that you'll notice is that people
239
620907
1976
ס.ר.: אז הדבר הראשון שתבחינו בו זה שלאנשים
10:22
have really strong opinions about this kind of work.
240
622907
2879
יש דעות ממש חזקות על סוג זה של עבודה.
10:25
Now I happen to completely agree with the optimism
241
625810
2530
עכשיו אני נוטה להסכים לחלוטין עם האופטימיות
10:28
of this first quote,
242
628364
792
של ציטוט ראשון זה,
10:29
because on a scale of zero to Morgan Freeman's voice,
243
629180
2784
מכיוון שבקנה מידה של אפס לקולו של מורגן פרימן,
10:31
it happens to be one of the most evocative accolades
244
631988
2477
זה אחד מרגעי התהילה המרגשים
10:34
that I've heard come our way.
245
634489
1526
ששמעתי בדרכנו.
(צחוק)
10:36
(Laughter)
246
636039
1794
10:37
But as you'll see, it's not the only opinion that's out there.
247
637857
1927
אבל כפי שתראו, זו לא הדעה היחידה שיש שם.
10:39
["This scares the hell out of me... What if they could do that easily in humans in a couple of years?! OH MY GOD WE'RE DOOMED"]
248
639808
1540
[". זה מפחיד אותי עד מוות.. ? מה אם הם יוכלו לעשות זאת בקלות אצל בני אדם בעוד כמה שנים?! או אלוהים אנחנו אבודים"]
10:41
XL: Indeed, if we take a look at the second one,
249
641372
2286
ש.ל.: אכן, אם אנחנו נסתכל על השנייה,
10:43
I think we can all agree that it's, meh,
250
643682
2083
אני חושב שכולנו נסכים שזה , אה,
10:45
probably not as positive.
251
645789
1959
כנראה לא ממש חיובי.
10:47
But this also reminds us that,
252
647772
2161
אבל זה גם מזכיר לנו,
10:49
although we are still working with mice,
253
649957
2162
שלמרות שאנחנו עדיין עובדים עם עכברים,
10:52
it's probably a good idea to start thinking and discussing
254
652143
3493
זה כנראה רעיון טוב להתחיל לחשוב ולדון
10:55
about the possible ethical ramifications
255
655660
2967
על ההשלכות האתיות האפשריות
10:58
of memory control.
256
658651
1924
של השליטה בזיכרון.
11:00
SR: Now, in the spirit of the third quote,
257
660599
2176
ס.ר.: עכשיו, וברוח הציטוט השלישי,
11:02
we want to tell you about a recent project that we've been
258
662799
1950
אנחנו רוצים לספר לכם על הפרויקט האחרון שאנחנו עובדים
11:04
working on in lab that we've called Project Inception.
259
664773
2572
עליו במעבדה שקראנו לו פרוייקט תְּחוּלָה.
11:07
["They should make a movie about this. Where they plant ideas into peoples minds, so they can control them for their own personal gain. We'll call it: Inception."]
260
667369
3219
["הם היו צריכים לעשות על זה סרט . איך הם שותלים רעיונות למיינד של האנשים, כך שיוכלו לשלוט בהם לצורך רווח אישי משלהם. אנחנו קוראים לזה: תחולה. "]
11:10
So we reasoned that now that we can reactivate a memory,
261
670612
3542
אז הנחנו שעכשיו אנחנו יכולים להפעיל מחדש זיכרון,
11:14
what if we do so but then begin to tinker with that memory?
262
674178
2928
מה אם נעשה זאת אבל אז להתחיל להתעסק עם הזיכרון הזה?
11:17
Could we possibly even turn it into a false memory?
263
677130
3009
האם נוכל אפילו להפוך אותו לזיכרון שקרי?
11:20
XL: So all memory is sophisticated and dynamic,
264
680163
4075
ש.ל.: אז כל זיכרון הוא מתוחכם ודינמי,
11:24
but if just for simplicity, let's imagine memory
265
684262
2955
אבל אם רק למען הפשטות, בואו ונדמיין זיכרון
11:27
as a movie clip.
266
687241
1378
כמו סרטון.
11:28
So far what we've told you is basically we can control
267
688643
2646
עד כה מה שסיפרנו לכם הוא בעצם שאנחנו יכולים לשלוט
11:31
this "play" button of the clip
268
691313
1907
בלחצן "התחל" של הסרטון
11:33
so that we can play this video clip any time, anywhere.
269
693244
4561
כך שנוכל להציג סרטון וידאו זה בכל זמן, בכל מקום.
11:37
But is there a possibility that we can actually get
270
697829
2507
אבל האם יש סיכוי שנוכל למעשה
11:40
inside the brain and edit this movie clip
271
700360
2836
להיכנס למוח ולערוך את הסרטון הזה
11:43
so that we can make it different from the original?
272
703220
2872
כך שנוכל לעשות אותו שונה מהמקור?
11:46
Yes we can.
273
706116
2154
כן, אנחנו יכולים.
11:48
Turned out that all we need to do is basically
274
708294
2191
התברר כי כל מה שאנחנו צריכים לעשות הוא בעצם
11:50
reactivate a memory using lasers just like we did before,
275
710509
4166
להפעיל מחדש זיכרון באמצעות לייזרים בדיוק כמו שעשינו קודם,
11:54
but at the same time, if we present new information
276
714699
3415
אבל באותו זמן, אם אנו מציגים מידע חדש
11:58
and allow this new information to incorporate into this old memory,
277
718138
3950
ומאפשרים למידע החדש הזה להשתלב לתוך זיכרון ישן זה,
12:02
this will change the memory.
278
722112
2414
פעולה זו תשנה את הזיכרון.
12:04
It's sort of like making a remix tape.
279
724550
3639
זה בערך כמו ליצור קלטת רמיקס.
12:08
SR: So how do we do this?
280
728213
2834
ס.ר.: אז איך אנו עושים זאת?
12:11
Rather than finding a fear memory in the brain,
281
731071
1933
במקום למצוא זיכרון פחד במוח,
12:13
we can start by taking our animals,
282
733028
1692
אנחנו יכולים להתחיל על ידי כך שניקח את החיות שלנו,
12:14
and let's say we put them in a blue box like this blue box here
283
734744
2953
ובואו ונגיד שאנחנו שמים אותם בתיבה כחולה כמו התיבה הכחולה כאן
12:17
and we find the brain cells that represent that blue box
284
737721
2623
ואנחנו מוצאים את תאי המוח המייצגים את התיבה הכחולה ההיא
12:20
and we trick them to respond to pulses of light
285
740368
2239
ואנחנו עובדים עליהם כדי שיגיבו על פולסים של אור
12:22
exactly like we had said before.
286
742631
1710
בדיוק כמו שאמרנו קודם.
12:24
Now the next day, we can take our animals and place them
287
744365
2100
כעת, למחרת, אנחנו יכולים לקחת את החיות שלנו ולהכניס אותם
12:26
in a red box that they've never experienced before.
288
746489
2675
לתיבה אדומה. שהם מעולם לא חוו בעבר.
12:29
We can shoot light into the brain to reactivate
289
749188
2239
אנחנו יכולים לשלוח אור לתוך המוח כדי להפעיל מחדש
12:31
the memory of the blue box.
290
751451
1848
את הזיכרון של התיבה הכחולה.
12:33
So what would happen here if, while the animal
291
753323
1720
אז מה יקרה כאן אם, בעוד החיה
12:35
is recalling the memory of the blue box,
292
755067
1905
נזכרת בזיכרון של התיבה הכחולה,
12:36
we gave it a couple of mild foot shocks?
293
756996
2584
נתנו לה כמה מכות קלות ברגל?
12:39
So here we're trying to artificially make an association
294
759604
2669
אז כאן אנחנו מנסים ליצור באופן מלאכותי שיוך
12:42
between the memory of the blue box
295
762297
1891
בין הזיכרון של התיבה הכחולה
12:44
and the foot shocks themselves.
296
764212
1479
למכות ברגל עצמן.
12:45
We're just trying to connect the two.
297
765715
1762
אנחנו רק מנסים לחבר את השניים.
12:47
So to test if we had done so,
298
767501
1512
אז כדי לבדוק אם עשינו זאת,
12:49
we can take our animals once again
299
769037
1304
אנחנו יכולים לקחת את החיות שלנו שוב
12:50
and place them back in the blue box.
300
770365
1922
ולהכניס אותן לתיבה הכחולה.
12:52
Again, we had just reactivated the memory of the blue box
301
772311
2715
שוב, אנחנו פשוט הפעלנו מחדש את הזיכרון של התיבה הכחולה
12:55
while the animal got a couple of mild foot shocks,
302
775050
2381
בזמן שהחיה קיבלה כמה מכות קלות ברגל,
12:57
and now the animal suddenly freezes.
303
777455
2107
ועכשיו החיה פתאום קופאת.
12:59
It's as though it's recalling being mildly shocked in this environment
304
779586
3334
זה כאילו שהיא נזכרה שקיבלה הלם מתון בסביבה זו.
13:02
even though that never actually happened.
305
782944
2822
אפילו למרות שזה לא קרה מעולם.
13:05
So it formed a false memory,
306
785790
1838
אז היא יצרה זיכרון כוזב,
13:07
because it's falsely fearing an environment
307
787652
2048
משום שהיא באופן כוזב חוששת מסביבה
13:09
where, technically speaking,
308
789724
1334
שבה מבחינה טכנית,
שום דבר רע באמת לא קרה לה.
13:11
nothing bad actually happened to it.
309
791082
2160
13:13
XL: So, so far we are only talking about
310
793266
2429
ש.ל.: אז, עד כה אנחנו רק מדברים על
13:15
this light-controlled "on" switch.
311
795719
2342
מתג "הפעל" זה שנשלט על ידי אור
13:18
In fact, we also have a light-controlled "off" switch,
312
798085
3264
למעשה, יש לנו גם מתג "כבה" שנשלט על ידי אור,
13:21
and it's very easy to imagine that
313
801373
2056
וומאוד קל לדמיין שעל ידי
13:23
by installing this light-controlled "off" switch,
314
803453
2454
התקנת מתג "כבה" שמשלט על ידי אור,
13:25
we can also turn off a memory, any time, anywhere.
315
805931
5564
אנחנו יכולים גם לבטל זיכרון, בכל זמן, בכל מקום.
13:31
So everything we've been talking about today
316
811519
2190
אז כל מה שאנו מדברים עליו היום
13:33
is based on this philosophically charged principle of neuroscience
317
813733
4653
מבוסס על עיקרון פילוסופי טעון של מדע המוח
13:38
that the mind, with its seemingly mysterious properties,
318
818410
4094
זה המיינד, עם תכונותיו המסתוריות לכאורה,
13:42
is actually made of physical stuff that we can tinker with.
319
822528
3621
שבעצם עשוי מחומר פיזי שאנחנו יכולים להתעסק אתו.
13:46
SR: And for me personally,
320
826173
1451
ס.ר.: ולגבי באופן אישי,
13:47
I see a world where we can reactivate
321
827648
1762
אני רואה עולם שבו אנחנו יכולים להפעיל מחדש
13:49
any kind of memory that we'd like.
322
829434
1887
כל סוג של זיכרון שנרצה.
13:51
I also see a world where we can erase unwanted memories.
323
831345
3274
אני גם רואה עולם שבו אנו יכולים למחוק זיכרונות לא רצויים.
13:54
Now, I even see a world where editing memories
324
834643
2143
עכשיו, אני אפילו רואה עולם שבו עריכת זכרונות
13:56
is something of a reality,
325
836810
1284
הינה משהו של מציאות,
13:58
because we're living in a time where it's possible
326
838118
1681
כי אנחנו חיים בתקופה שבה זה אפשרי
13:59
to pluck questions from the tree of science fiction
327
839823
2429
לקטוף שאלות מן העץ של מדע בדיוני
14:02
and to ground them in experimental reality.
328
842276
2168
ולקרקע אותן במציאות ניסיונית.
14:04
XL: Nowadays, people in the lab
329
844468
1859
ש.ל.: בימינו, אנשים במעבדה
14:06
and people in other groups all over the world
330
846351
2362
ואנשים בקבוצות אחרות בכל רחבי העולם
14:08
are using similar methods to activate or edit memories,
331
848737
3793
משתמשים בשיטות דומות כדי להפעיל או לערוך זכרונות,
14:12
whether that's old or new, positive or negative,
332
852554
3817
בין אם הם ישנים או חדשים, חיוביים או שליליים.
14:16
all sorts of memories so that we can understand
333
856395
2648
כל מיני זיכרונות. כך שנוכל להבין
14:19
how memory works.
334
859067
1840
איך עובד הזיכרון.
14:20
SR: For example, one group in our lab
335
860931
1760
ס.ר.: לדוגמה, קבוצה אחת במעבדה שלנו
14:22
was able to find the brain cells that make up a fear memory
336
862715
2614
הצליחה למצוא את תאי המוח המרכיבים את זיכרון הפחד
14:25
and converted them into a pleasurable memory, just like that.
337
865353
2751
והמירה אותם לזיכרון מענג, פשוט ככה.
14:28
That's exactly what I mean about editing these kinds of processes.
338
868128
3143
זה בדיוק מה שאני מתכוון לגבי עריכת סוגים אלו של תהליכים.
14:31
Now one dude in lab was even able to reactivate
339
871295
2239
עכשיו בחור אחד במעבדה היה מסוגל אפילו להפעיל מחדש
14:33
memories of female mice in male mice,
340
873558
1921
זיכרונות של עכברים ממין נקבה בעכברים זכרים,
14:35
which rumor has it is a pleasurable experience.
341
875503
2971
שהשמועה אומרת שהיא חוויה מענגת.
14:38
XL: Indeed, we are living in a very exciting moment
342
878498
4093
ש.ל.: אכן, אנו חיים ברגע מרגש מאוד
14:42
where science doesn't have any arbitrary speed limits
343
882615
3781
שבו למדע אין כל הגבלת מהירות שרירותית
14:46
but is only bound by our own imagination.
344
886420
3163
אלא הוא נמדד רק על ידי הדמיון שלנו.
14:49
SR: And finally, what do we make of all this?
345
889607
2143
ס.ר.: ולבסוף, מה אנו עושים עם כל זה?
14:51
How do we push this technology forward?
346
891774
1927
איך אנו דוחפים קדימה טכנולוגיה זו?
14:53
These are the questions that should not remain
347
893725
2191
אלו הן השאלות שלא צריכות להישאר
14:55
just inside the lab,
348
895940
1273
רק בתוך המעבדה
14:57
and so one goal of today's talk was to bring everybody
349
897237
2572
וכך מטרה אחת של השיחה היום היתה לגרום לכולם
14:59
up to speed with the kind of stuff that's possible
350
899833
2381
להתעדכן בסוג הדברים האפשריים
15:02
in modern neuroscience,
351
902238
1250
במדע המוח המודרני.
15:03
but now, just as importantly,
352
903512
1486
אבל עכשיו, לא פחות חשוב,
15:05
to actively engage everybody in this conversation.
353
905022
3308
לשתף באופן פעיל את כולם בשיחה זו.
15:08
So let's think together as a team about what this all means
354
908354
2762
אז בואו נחשוב יחד כצוות על המשמעות של כל זה
ולאן אנחנו יכולים וצריכים ללכת מכאן,
15:11
and where we can and should go from here,
355
911140
1993
15:13
because Xu and I think we all have
356
913157
2074
כי שו ואני חושבים שהרבה
15:15
some really big decisions ahead of us.
357
915255
2512
החלטות חשובות מאוד עומדות לפנינו.
15:17
Thank you. XL: Thank you.
358
917791
1101
תודה. ש.ל.: תודה.
15:18
(Applause)
359
918916
1634
(מחיאות כפיים)
על אתר זה

אתר זה יציג בפניכם סרטוני YouTube המועילים ללימוד אנגלית. תוכלו לראות שיעורי אנגלית המועברים על ידי מורים מהשורה הראשונה מרחבי העולם. לחץ פעמיים על הכתוביות באנגלית המוצגות בכל דף וידאו כדי להפעיל את הסרטון משם. הכתוביות גוללות בסנכרון עם הפעלת הווידאו. אם יש לך הערות או בקשות, אנא צור איתנו קשר באמצעות טופס יצירת קשר זה.

https://forms.gle/WvT1wiN1qDtmnspy7