Steve Ramirez and Xu Liu: A mouse. A laser beam. A manipulated memory.

Стив Рамирез и Сюй Лю: Мышь. Луч лазера. Манипуляции памятью.

136,919 views

2013-08-15 ・ TED


New videos

Steve Ramirez and Xu Liu: A mouse. A laser beam. A manipulated memory.

Стив Рамирез и Сюй Лю: Мышь. Луч лазера. Манипуляции памятью.

136,919 views ・ 2013-08-15

TED


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

Переводчик: Nastya Goruinova Редактор: Yekaterina Jussupova
00:12
Steve Ramirez: My first year of grad school,
0
12371
2096
Стив Рамирез: Это было в первый год моего обучения в магистратуре.
Я застал себя в спальне,
00:14
I found myself in my bedroom
1
14491
1416
00:15
eating lots of Ben & Jerry's
2
15931
2276
поедающим тонны мороженого
00:18
watching some trashy TV
3
18231
1660
и смотрящим какую-то дрянную передачу.
00:19
and maybe, maybe listening to Taylor Swift.
4
19915
3203
И, наверно, я ещё слушал Тейлор Свифт.
00:23
I had just gone through a breakup.
5
23142
1717
Я тогда как раз расстался со своей девушкой.
00:24
(Laughter)
6
24883
1423
(Смех)
00:26
So for the longest time, all I would do
7
26330
2172
В течении долгого времени, всё, чем я занимался, —
00:28
is recall the memory of this person over and over again,
8
28526
3792
это снова и снова вспоминал бывшую девушку,
00:32
wishing that I could get rid of that gut-wrenching,
9
32342
2469
желая избавиться от скручивающего все внутренности
00:34
visceral "blah" feeling.
10
34835
2509
чувства тоски.
00:37
Now, as it turns out, I'm a neuroscientist,
11
37368
2259
Я невролог и знаю,
00:39
so I knew that the memory of that person
12
39651
2378
что воспоминания об этом человеке
00:42
and the awful, emotional undertones that color in that memory,
13
42053
3116
и тот ужасный эмоциональный оттенок, в которые они окрашены,
00:45
are largely mediated by separate brain systems.
14
45193
2610
связаны с работой отдельных частей мозга.
00:47
And so I thought, what if we could go into the brain
15
47827
2477
Мне пришла в голову идея: а что, если бы мы могли «попасть» в наш мозг
00:50
and edit out that nauseating feeling
16
50328
1930
и удалить это тошнотворное чувство,
00:52
but while keeping the memory of that person intact?
17
52282
2946
а воспоминания о человеке оставить без изменений?
00:55
Then I realized, maybe that's a little bit lofty for now.
18
55252
2667
Потом я понял, что пока это не возможно.
00:57
So what if we could start off by going into the brain
19
57943
2489
Но почему бы не начать с того, чтобы «пробраться» в мозг
01:00
and just finding a single memory to begin with?
20
60456
2609
и попробовать найти именно воспоминания?
01:03
Could we jump-start that memory back to life,
21
63089
2490
Сможем ли мы оживить воспоминание,
01:05
maybe even play with the contents of that memory?
22
65603
3844
может быть, даже изменить его содержание?
01:09
All that said, there is one person in the entire world right now
23
69471
2205
Я очень надеюсь, что кое-кто
01:11
that I really hope is not watching this talk.
24
71700
2143
сейчас не смотрит это выступление.
01:13
(Laughter)
25
73867
3805
(Смех)
01:17
So there is a catch. There is a catch.
26
77696
3265
Здесь есть подвох.
01:20
These ideas probably remind you of "Total Recall,"
27
80985
2764
Вы, наверно, вспомнили фильм «Вспомнить всё»,
01:23
"Eternal Sunshine of the Spotless Mind,"
28
83773
1950
«Вечное сияние чистого разума»
01:25
or of "Inception."
29
85747
1279
или «Начало».
01:27
But the movie stars that we work with
30
87050
1762
Но звёзды, с которыми работаем мы, —
01:28
are the celebrities of the lab.
31
88836
1709
это звёзды лаборатории.
01:30
Xu Liu: Test mice.
32
90569
1876
Сюй Лю: Лабораторные мыши.
01:32
(Laughter)
33
92469
1104
(Смех)
01:33
As neuroscientists, we work in the lab with mice
34
93597
3130
Мы, неврологи, работаем в лаборатории с мышами,
01:36
trying to understand how memory works.
35
96751
3386
пытаясь понять, как функционирует память.
01:40
And today, we hope to convince you that now
36
100161
2545
И сегодня мы попытаемся вас убедить,
01:42
we are actually able to activate a memory in the brain
37
102730
3192
что действительно можем активировать воспоминание в мозге человека
01:45
at the speed of light.
38
105946
2146
со скоростью света.
01:48
To do this, there's only two simple steps to follow.
39
108116
3082
Чтобы это сделать, нужно выполнить два простых действия.
01:51
First, you find and label a memory in the brain,
40
111222
3486
Сначала нужно найти и отметить воспоминание в мозге
01:54
and then you activate it with a switch.
41
114732
3606
и затем активировать его переключателем.
01:58
As simple as that.
42
118362
1421
Всё очень просто.
01:59
(Laughter)
43
119807
1798
(Смех)
02:01
SR: Are you convinced?
44
121629
1821
С.Р.: Теперь вы убедились?
02:03
So, turns out finding a memory in the brain isn't all that easy.
45
123474
3697
Как оказалось, найти воспоминание в головном мозге не так уж легко.
02:07
XL: Indeed. This is way more difficult than, let's say,
46
127195
2779
С.Л.: Скорее наоборот. Скажем так, это гораздо сложнее,
02:09
finding a needle in a haystack,
47
129998
2380
чем найти иголку в стоге сена,
02:12
because at least, you know, the needle is still something
48
132402
2715
хотя бы потому, что иголку можно
потрогать своими руками.
02:15
you can physically put your fingers on.
49
135141
2326
02:17
But memory is not.
50
137491
1953
А память — нельзя.
02:19
And also, there's way more cells in your brain
51
139468
3014
И, конечно, нервных клеток в головном мозге намного больше,
02:22
than the number of straws in a typical haystack.
52
142506
5042
чем соломинок в стоге сена.
02:27
So yeah, this task does seem to be daunting.
53
147572
2855
Так что да, эта задача кажется невыполнимой.
02:30
But luckily, we got help from the brain itself.
54
150451
3655
К счастью, именно мозг и помогает нам справиться с ней.
02:34
It turned out that all we need to do is basically
55
154130
2431
Оказывается, всё, что нам нужно,
02:36
to let the brain form a memory,
56
156585
1969
это позволить мозгу сформировать воспоминание,
02:38
and then the brain will tell us which cells are involved
57
158578
3806
и затем он покажет нам, какие участки связаны
02:42
in that particular memory.
58
162408
1742
с этим воспоминанием.
02:44
SR: So what was going on in my brain
59
164174
2333
С.Р.: Так что же происходило в моей голове,
02:46
while I was recalling the memory of an ex?
60
166531
2070
когда я вспоминал о своей бывшей девушке?
02:48
If you were to just completely ignore human ethics for a second
61
168625
2378
Если бы на секунду мы полностью отказались от человеческой этики
02:51
and slice up my brain right now,
62
171027
1644
и разрезали мой мозг на кусочки,
02:52
you would see that there was an amazing number
63
172695
2191
то увидели бы, что эти воспоминания
02:54
of brain regions that were active while recalling that memory.
64
174910
2957
вовлекали в работу множество участков мозга.
02:57
Now one brain region that would be robustly active
65
177891
2888
Но особенно активной была бы часть мозга
03:00
in particular is called the hippocampus,
66
180803
1983
под названием гиппокамп.
03:02
which for decades has been implicated in processing
67
182810
2431
Десятилетиями он обрабатывает те воспоминания,
03:05
the kinds of memories that we hold near and dear,
68
185265
2392
которые особенно дороги и ценны нам,
03:07
which also makes it an ideal target to go into
69
187681
2550
и поэтому является идеальной для проникновения целью
03:10
and to try and find and maybe reactivate a memory.
70
190255
2761
в попытке найти и активировать отдельное воспоминание.
03:13
XL: When you zoom in into the hippocampus,
71
193040
2370
С.Л.: При близком рассмотрении гиппокампа
03:15
of course you will see lots of cells,
72
195434
2324
можно увидеть множество клеток.
03:17
but we are able to find which cells are involved
73
197782
3007
Мы способны выявить, какие из них связаны
03:20
in a particular memory,
74
200813
1452
с конкретным воспоминанием,
03:22
because whenever a cell is active,
75
202289
2594
потому что когда клетка работает,
03:24
like when it's forming a memory,
76
204907
1524
например, когда она формирует воспоминание,
03:26
it will also leave a footprint that will later allow us to know
77
206455
3649
она оставляет отпечаток, который помогает нам понять,
03:30
these cells are recently active.
78
210128
2678
какие из клеток недавно были активны.
03:32
SR: So the same way that building lights at night
79
212830
2334
С.Р.: Это сравнимо со зданием, в котором ночью включён свет, —
можно понять, что там кто-то работает в данный момент;
03:35
let you know that somebody's probably working there at any given moment,
80
215188
3429
тоже самое происходит в клетке: есть биологические датчики,
03:38
in a very real sense, there are biological sensors
81
218641
2561
03:41
within a cell that are turned on
82
221226
1930
которые включаются
03:43
only when that cell was just working.
83
223180
2111
после того, как клетка закончила работать.
03:45
They're sort of biological windows that light up
84
225315
2286
Это вроде биологических окон, которые, загораясь,
03:47
to let us know that that cell was just active.
85
227625
2191
помогают нам понять, что клетка недавно была активна.
03:49
XL: So we clipped part of this sensor,
86
229840
2134
С.Л.: Мы отрезали часть от этого датчика
03:51
and attached that to a switch to control the cells,
87
231998
3123
и присоединили её к переключателю для управления клетками.
03:55
and we packed this switch into an engineered virus
88
235145
3876
Затем мы установили этот переключатель в сконструированный вирус
03:59
and injected that into the brain of the mice.
89
239045
2564
и ввели его в мозг мыши.
04:01
So whenever a memory is being formed,
90
241633
2610
Таким образом, в моменты возникновения воспоминаний,
04:04
any active cells for that memory
91
244267
2324
все клетки, включённые в работу,
04:06
will also have this switch installed.
92
246615
2718
будут оснащены этим переключателем.
04:09
SR: So here is what the hippocampus looks like
93
249357
2191
С.Р.: Вот так выглядит гиппокамп
после создания страшного воспоминания.
04:11
after forming a fear memory, for example.
94
251572
2226
04:13
The sea of blue that you see here
95
253822
2116
Синим цветом окрашены
04:15
are densely packed brain cells,
96
255962
1928
плотно расположенные клетки мозга,
04:17
but the green brain cells,
97
257914
1521
а зелёные клетки...
04:19
the green brain cells are the ones that are holding on
98
259459
2572
Зелёные клетки — это клетки, которые связаны
с конкретным страшным воспоминанием.
04:22
to a specific fear memory.
99
262055
1319
04:23
So you are looking at the crystallization
100
263398
1955
Итак, вы смотрите на кристаллизацию
04:25
of the fleeting formation of fear.
101
265377
2363
мимолётного страшного воспоминания,
04:27
You're actually looking at the cross-section of a memory right now.
102
267764
3473
а точнее, на поперечное сечение воспоминания.
04:31
XL: Now, for the switch we have been talking about,
103
271261
2429
С.Л.: В идеале переключатель, о котором мы говорим,
04:33
ideally, the switch has to act really fast.
104
273714
2901
должен реагировать очень быстро.
04:36
It shouldn't take minutes or hours to work.
105
276639
2555
Время срабатывания не должно занимать минуты или часы.
04:39
It should act at the speed of the brain, in milliseconds.
106
279218
4240
Он должен срабатывать со скоростью мозга, в миллисекунды.
04:43
SR: So what do you think, Xu?
107
283482
1406
С.Р.: Как ты думаешь, Сюй,
04:44
Could we use, let's say, pharmacological drugs
108
284912
2578
возможно ли включать или выключать клетки мозга
04:47
to activate or inactivate brain cells?
109
287514
1814
при помощи медикаментов?
04:49
XL: Nah. Drugs are pretty messy. They spread everywhere.
110
289352
4039
С.Л.: Не-а. Действие лекарств беспорядочно. Они распространяются по всему организму.
04:53
And also it takes them forever to act on cells.
111
293415
2984
Уйдёт вечность, пока они доберутся до клеточного уровня.
04:56
So it will not allow us to control a memory in real time.
112
296423
3625
Они не дадут нам возможность управлять памятью в режиме настоящего времени.
05:00
So Steve, how about let's zap the brain with electricity?
113
300072
4270
Стив, а если воздействовать на мозг электричеством?
05:04
SR: So electricity is pretty fast,
114
304366
2281
С.Р.: Электричество довольно быстрое,
05:06
but we probably wouldn't be able to target it
115
306671
1715
но, скорее всего, мы не сможем направить его
05:08
to just the specific cells that hold onto a memory,
116
308410
2429
к определённым клеткам, которые хранят воспоминание,
05:10
and we'd probably fry the brain.
117
310863
1755
и, возможно, «поджарим» мозг.
05:12
XL: Oh. That's true. So it looks like, hmm,
118
312642
3171
С.Л.: Точно. Итак, похоже,
05:15
indeed we need to find a better way
119
315837
2587
нам нужно найти иной способ
05:18
to impact the brain at the speed of light.
120
318448
3271
воздействия на мозг со скоростью света.
05:21
SR: So it just so happens that light travels at the speed of light.
121
321743
5062
С.Р.: И так уж вышло, что со скоростью света распространяется... свет!
05:26
So maybe we could activate or inactive memories
122
326829
3459
Может, мы можем активировать и дезактивировать воспоминания
05:30
by just using light --
123
330312
1473
при помощи света?
05:31
XL: That's pretty fast.
124
331809
1331
С.Л.: Он довольно быстрый.
05:33
SR: -- and because normally brain cells
125
333164
1861
С.Р.: Обычно клетки мозга
05:35
don't respond to pulses of light,
126
335049
1572
не реагируют на импульсы света,
05:36
so those that would respond to pulses of light
127
336645
1934
но клетки, содержащие светочувствительный переключатель,
05:38
are those that contain a light-sensitive switch.
128
338603
2432
будут давать на них реакцию.
05:41
Now to do that, first we need to trick brain cells
129
341059
1922
Чтобы это осуществить, нам сначала нужно научить клетки мозга
05:43
to respond to laser beams.
130
343005
1438
реагировать на лазерные лучи.
05:44
XL: Yep. You heard it right.
131
344467
1046
С.Л.: Да, вам не послышалось,
05:45
We are trying to shoot lasers into the brain.
132
345537
2143
мы стреляем лазером по мозгам.
05:47
(Laughter)
133
347704
1686
(Смех)
05:49
SR: And the technique that lets us do that is optogenetics.
134
349414
3300
С.Р.: И наука, которая поможет нам сделать это, — это оптогенетика.
05:52
Optogenetics gave us this light switch that we can use
135
352738
3258
Оптогенетика дала нам световой переключатель
05:56
to turn brain cells on or off,
136
356020
1484
для включения и выключения клеток мозга.
05:57
and the name of that switch is channelrhodopsin,
137
357528
2493
Данный переключатель называется канальным родопсином.
06:00
seen here as these green dots attached to this brain cell.
138
360045
2513
Он представляет собой вот эти зелёные точки, присоединённые к клеткам мозга.
06:02
You can think of channelrhodopsin as a sort of light-sensitive switch
139
362582
3286
Канальный родопсин — это что-то вроде светочувствительного переключателя,
06:05
that can be artificially installed in brain cells
140
365892
2592
который искусственно устанавливается в клетки мозга,
06:08
so that now we can use that switch
141
368508
1890
чтобы мы могли использовать переключатель
06:10
to activate or inactivate the brain cell simply by clicking it,
142
370422
3000
для включения или выключения клеток одним щелчком,
06:13
and in this case we click it on with pulses of light.
143
373446
2524
и, в данном случае, мы делаем это с помощью импульсов света.
06:15
XL: So we attach this light-sensitive switch of channelrhodopsin
144
375994
3671
С.Л.: Итак, мы прикрепляем светочувствительный переключатель, сделанный из канального родопсина,
06:19
to the sensor we've been talking about
145
379689
2184
к датчику, про который мы говорили,
06:21
and inject this into the brain.
146
381897
2431
и вводим в мозг.
06:24
So whenever a memory is being formed,
147
384352
3187
Теперь когда бы ни создавалось воспоминание,
06:27
any active cell for that particular memory
148
387563
2203
в любой активной клетке отвечающей за это воспоминание,
06:29
will also have this light-sensitive switch installed in it
149
389790
3460
будет находиться светочувствительный переключатель,
06:33
so that we can control these cells
150
393274
2377
и мы сможем управлять этими клетками,
06:35
by the flipping of a laser just like this one you see.
151
395675
4240
щёлкая лазером так же, как сейчас.
06:39
SR: So let's put all of this to the test now.
152
399939
2840
С.Р.: Давайте проведём эксперимент.
06:42
What we can do is we can take our mice
153
402803
2111
Мы возьмём наших мышей,
06:44
and then we can put them in a box that looks exactly like this box here,
154
404938
2904
поместим их в коробку, которая выглядит точно так, как эта,
06:47
and then we can give them a very mild foot shock
155
407866
2316
а затем пропустим через их лапки небольшой электрический разряд,
06:50
so that they form a fear memory of this box.
156
410206
2048
чтобы у них сформировалось воспоминание страха, связанное с этой коробкой.
06:52
They learn that something bad happened here.
157
412278
2059
Они запомнят, что здесь с ними случилось что-то плохое.
06:54
Now with our system, the cells that are active
158
414361
2318
Благодаря нашей системе только клетки гиппокампа,
06:56
in the hippocampus in the making of this memory,
159
416703
2766
ответственные за создание этого воспоминания,
06:59
only those cells will now contain channelrhodopsin.
160
419493
2859
будут содержать канальный родопсин.
07:02
XL: When you are as small as a mouse,
161
422376
2993
С.Л.: Когда ты маленький, как мышь,
07:05
it feels as if the whole world is trying to get you.
162
425393
3571
кажется, что весь мир хочет поймать тебя.
07:08
So your best response of defense
163
428988
1724
Поэтому лучший способ защиты —
07:10
is trying to be undetected.
164
430736
2458
попытаться остаться незамеченным.
07:13
Whenever a mouse is in fear,
165
433218
2009
Когда мышь испытывает страх,
07:15
it will show this very typical behavior
166
435251
1858
она демонстрирует стандартное поведение —
сидит в углу коробки,
07:17
by staying at one corner of the box,
167
437133
1745
07:18
trying to not move any part of its body,
168
438902
2738
пытаясь не двигаться,
07:21
and this posture is called freezing.
169
441664
3271
и эта поза называется «застывание».
07:24
So if a mouse remembers that something bad happened in this box,
170
444959
4270
Если мышь запомнила, что в коробке с ней произошло что-то плохое,
07:29
and when we put them back into the same box,
171
449253
2599
то когда мы поместим её обратно в эту коробку,
07:31
it will basically show freezing
172
451876
1780
она, скорее всего, застынет,
07:33
because it doesn't want to be detected
173
453680
2261
желая остаться незамеченной
07:35
by any potential threats in this box.
174
455965
2671
в случае любой возможной опасности в коробке.
07:38
SR: So you can think of freezing as,
175
458660
1331
С.Р.: Застывание можно описать так:
07:40
you're walking down the street minding your own business,
176
460015
2191
вы идёте по улице по своим делам,
07:42
and then out of nowhere you almost run into
177
462230
2048
и вдруг перед вами возникает
ваш бывший парень или бывшая девушка,
07:44
an ex-girlfriend or ex-boyfriend,
178
464302
1821
07:46
and now those terrifying two seconds
179
466147
2110
и в следующие ужасные две секунды
07:48
where you start thinking, "What do I do? Do I say hi?
180
468281
1852
вы начинаете соображать: «Что делать? Поздороваться?
07:50
Do I shake their hand? Do I turn around and run away?
181
470157
1344
Пожать руку? Развернуться и убежать?
07:51
Do I sit here and pretend like I don't exist?"
182
471525
2005
Сесть и притвориться, что меня не существует?»
07:53
Those kinds of fleeting thoughts that physically incapacitate you,
183
473554
3160
Подобные мимолетные мысли физически выводят вас из строя,
07:56
that temporarily give you that deer-in-headlights look.
184
476738
2722
из-за них у вас глаза выкатываются из орбит.
07:59
XL: However, if you put the mouse in a completely different
185
479484
3267
С.Л.: Но если поместить мышь в другую,
08:02
new box, like the next one,
186
482775
3137
новую коробку, например такую,
08:05
it will not be afraid of this box
187
485936
2123
она не будет её бояться,
08:08
because there's no reason that it will be afraid of this new environment.
188
488083
4705
потому что у неё нет причин бояться нового окружения.
08:12
But what if we put the mouse in this new box
189
492812
3156
А если мы поместим мышь в новую коробку,
08:15
but at the same time, we activate the fear memory
190
495992
3587
но в то же время активируем воспоминание страха,
08:19
using lasers just like we did before?
191
499603
2655
используя лазеры, как мы делали раньше?
08:22
Are we going to bring back the fear memory
192
502282
2830
Вернём ли мы воспоминание о страхе,
08:25
for the first box into this completely new environment?
193
505136
3973
испытанное в первой коробке, когда мышь будет в новой?
08:29
SR: All right, and here's the million-dollar experiment.
194
509133
2711
С.Р.: А вот эксперимент на миллион долларов.
08:31
Now to bring back to life the memory of that day,
195
511868
2889
Как же вернуть воспоминание о том дне,
08:34
I remember that the Red Sox had just won,
196
514781
2159
когда, помню, победили Ред Сокс,
08:36
it was a green spring day,
197
516964
1885
тот прекрасный весенний день,
08:38
perfect for going up and down the river
198
518873
1858
идеальный для прогулок по реке
08:40
and then maybe going to the North End
199
520755
2245
и, может, для поездки в итальянскую часть города
08:43
to get some cannolis, #justsaying.
200
523024
2135
за парочкой канноли. Это так, к слову.
08:45
Now Xu and I, on the other hand,
201
525183
3078
Мы с Сюй находились
08:48
were in a completely windowless black room
202
528285
2806
в совершенно тёмной комнате без окон,
08:51
not making any ocular movement that even remotely resembles an eye blink
203
531115
3636
и настолько пристально вглядывались в экран монитора,
08:54
because our eyes were fixed onto a computer screen.
204
534775
2443
что даже не моргали.
08:57
We were looking at this mouse here trying to activate a memory
205
537242
2953
Мы смотрели на эту мышь, стараясь оживить воспоминание,
в первый раз используя нашу технику.
09:00
for the first time using our technique.
206
540219
1859
С.Л.: И вот что мы увидели.
09:02
XL: And this is what we saw.
207
542102
2243
09:04
When we first put the mouse into this box,
208
544369
2178
Попадая в коробку впервые,
09:06
it's exploring, sniffing around, walking around,
209
546571
3089
мышь исследует её, принюхивается, бегает,
09:09
minding its own business,
210
549684
1665
занимается своими делами,
09:11
because actually by nature,
211
551373
1677
потому что по своей природе
09:13
mice are pretty curious animals.
212
553074
1955
мыши довольно любопытные животные.
09:15
They want to know, what's going on in this new box?
213
555053
2598
Они хотят знать, что же происходит в этой коробке?
09:17
It's interesting.
214
557675
1507
Это им интересно.
09:19
But the moment we turned on the laser, like you see now,
215
559206
3427
Но в тот момент, когда мы включили лазер, как вы можете видеть,
09:22
all of a sudden the mouse entered this freezing mode.
216
562657
3008
мышь вдруг впала в состояние застывания.
09:25
It stayed here and tried not to move any part of its body.
217
565689
4407
Она остановилась на месте, стараясь не двигаться.
09:30
Clearly it's freezing.
218
570120
1604
Очевидно, что это застывание.
09:31
So indeed, it looks like we are able to bring back
219
571748
2559
Итак, кажется, мы можем вызвать
09:34
the fear memory for the first box
220
574331
2040
воспоминание страха, связанное с первой коробкой,
09:36
in this completely new environment.
221
576395
3343
в совершенно новой обстановке.
09:39
While watching this, Steve and I
222
579762
2088
Наблюдая за происходящим, мы со Стивом
09:41
are as shocked as the mouse itself.
223
581874
2109
были шокированы не меньше этой мыши.
09:44
(Laughter)
224
584007
1238
(Смех)
09:45
So after the experiment, the two of us just left the room
225
585269
3283
После эксперимента мы оба вышли из комнаты,
09:48
without saying anything.
226
588576
1729
не сказав ни слова.
09:50
After a kind of long, awkward period of time,
227
590329
3372
После долгого, неловкого молчания
09:53
Steve broke the silence.
228
593725
2188
Стив нарушил тишину.
09:55
SR: "Did that just work?"
229
595937
2317
С.Р.: Неужели это сработало?
09:58
XL: "Yes," I said. "Indeed it worked!"
230
598278
2950
С.Л.: «Без сомнений, это сработало!», — ответил я.
10:01
We're really excited about this.
231
601252
2093
Мы были очень довольны экспериментом
10:03
And then we published our findings
232
603369
2600
и опубликовали его результаты
10:05
in the journal Nature.
233
605993
1672
в журнале Nature.
10:07
Ever since the publication of our work,
234
607689
2447
С момента публикации нашего исследования
10:10
we've been receiving numerous comments
235
610160
2391
мы получаем огромное количество комментариев
10:12
from all over the Internet.
236
612575
2101
со всего интернета.
10:14
Maybe we can take a look at some of those.
237
614700
3726
Вот некоторые из них.
10:18
["OMGGGGG FINALLY... so much more to come, virtual reality, neural manipulation, visual dream emulation... neural coding, 'writing and re-writing of memories', mental illnesses. Ahhh the future is awesome"]
238
618450
2433
«Боже мой, свершилось... Столько всего нового должно случиться, виртуальная реальность, нейронное манипулирование, зрительная имитация снов... нейронное кодирование, записывание и переписывание воспоминаний, психические заболевания. Ах, будущее будет восхитительным».
10:20
SR: So the first thing that you'll notice is that people
239
620907
1976
С.Р.: Первая вещь, которую замечаешь, это то, что у людей
10:22
have really strong opinions about this kind of work.
240
622907
2879
есть свои, довольно чёткие представления об этой работе.
10:25
Now I happen to completely agree with the optimism
241
625810
2530
И я полностью согласен с оптимизмом
10:28
of this first quote,
242
628364
792
первого комментария,
10:29
because on a scale of zero to Morgan Freeman's voice,
243
629180
2784
потому что по шкале от нуля до голоса Моргана Фримена
10:31
it happens to be one of the most evocative accolades
244
631988
2477
это одна из самых запоминающихся похвал,
10:34
that I've heard come our way.
245
634489
1526
которую я когда-либо слышал.
(Смех)
10:36
(Laughter)
246
636039
1794
10:37
But as you'll see, it's not the only opinion that's out there.
247
637857
1927
Но как вы может видеть, есть и другие мнения.
10:39
["This scares the hell out of me... What if they could do that easily in humans in a couple of years?! OH MY GOD WE'RE DOOMED"]
248
639808
1540
«Это меня чертовски пугает... Что если они смогут это так же легко проделывать с людьми через пару лет? О, БОЖЕ, МЫ ВСЕ ОБРЕЧЕНЫ!»
10:41
XL: Indeed, if we take a look at the second one,
249
641372
2286
С.Л.: Если мы посмотрим на второе высказывание,
10:43
I think we can all agree that it's, meh,
250
643682
2083
то я думаю, все согласимся с тем,
10:45
probably not as positive.
251
645789
1959
что оно явно отрицательное.
10:47
But this also reminds us that,
252
647772
2161
Но это напоминает нам,
10:49
although we are still working with mice,
253
649957
2162
что, хотя мы всё ещё работаем только с мышами,
10:52
it's probably a good idea to start thinking and discussing
254
652143
3493
возможно, уже пора задуматься
10:55
about the possible ethical ramifications
255
655660
2967
об этических проблемах
10:58
of memory control.
256
658651
1924
управления памятью.
11:00
SR: Now, in the spirit of the third quote,
257
660599
2176
С.Р.: Следуя духу третьего высказывания.
11:02
we want to tell you about a recent project that we've been
258
662799
1950
мы хотим рассказать вам о нашем последнем проекте
11:04
working on in lab that we've called Project Inception.
259
664773
2572
под названием «Начало».
11:07
["They should make a movie about this. Where they plant ideas into peoples minds, so they can control them for their own personal gain. We'll call it: Inception."]
260
667369
3219
«Об этом должны снять фильм. О том, как в умы людей помещают идеи и управляют ими ради собственной выгоды. И назвать его «Начало».
11:10
So we reasoned that now that we can reactivate a memory,
261
670612
3542
Итак, мы доказали, что можем вызывать воспоминания.
11:14
what if we do so but then begin to tinker with that memory?
262
674178
2928
А если мы запустим этот процесс и попробуем изменить это воспоминание?
11:17
Could we possibly even turn it into a false memory?
263
677130
3009
Сможем ли мы превратить его в ложное воспоминание?
11:20
XL: So all memory is sophisticated and dynamic,
264
680163
4075
С.Л.: Память динамичная и сложная,
11:24
but if just for simplicity, let's imagine memory
265
684262
2955
но чтобы было проще, давайте представим, что память —
11:27
as a movie clip.
266
687241
1378
это видео-клип.
11:28
So far what we've told you is basically we can control
267
688643
2646
Как мы говорили, в принципе, мы можем управлять
11:31
this "play" button of the clip
268
691313
1907
кнопкой воспроизведения этого клипа
11:33
so that we can play this video clip any time, anywhere.
269
693244
4561
и проигрывать его в любое время в любом месте.
11:37
But is there a possibility that we can actually get
270
697829
2507
Но возможно ли попасть внутрь мозга
11:40
inside the brain and edit this movie clip
271
700360
2836
и редактировать клип,
11:43
so that we can make it different from the original?
272
703220
2872
чтобы он стал отличным от оригинала?
11:46
Yes we can.
273
706116
2154
Да, возможно.
11:48
Turned out that all we need to do is basically
274
708294
2191
Оказывается, всё, что нам нужно сделать, —
11:50
reactivate a memory using lasers just like we did before,
275
710509
4166
это реактивировать воспоминание, используя лазеры, как мы это делали раньше,
11:54
but at the same time, if we present new information
276
714699
3415
но в то же время, если мы возьмём новую информацию
11:58
and allow this new information to incorporate into this old memory,
277
718138
3950
и позволим ей внедриться в старую,
12:02
this will change the memory.
278
722112
2414
это изменит воспоминание.
12:04
It's sort of like making a remix tape.
279
724550
3639
Это похоже на создание ремикса.
12:08
SR: So how do we do this?
280
728213
2834
С.Р.: Как же мы это делаем?
12:11
Rather than finding a fear memory in the brain,
281
731071
1933
Мы начнём не с поиска воспоминания страха в мозге,
12:13
we can start by taking our animals,
282
733028
1692
а с того, что возьмём мышей,
12:14
and let's say we put them in a blue box like this blue box here
283
734744
2953
поместим их вот в такую голубую коробку,
12:17
and we find the brain cells that represent that blue box
284
737721
2623
найдём клетки мозга, которые отображают голубую коробку,
12:20
and we trick them to respond to pulses of light
285
740368
2239
и заставим их реагировать на импульсы света,
12:22
exactly like we had said before.
286
742631
1710
в точности так же, как мы говорили.
12:24
Now the next day, we can take our animals and place them
287
744365
2100
На следующий день мы переместим мышей
12:26
in a red box that they've never experienced before.
288
746489
2675
в красную коробку, в которой они никогда раньше не сидели.
12:29
We can shoot light into the brain to reactivate
289
749188
2239
Мы пропускаем через их мозг лучи света, чтобы реактивировать
12:31
the memory of the blue box.
290
751451
1848
воспоминание о голубой коробке.
12:33
So what would happen here if, while the animal
291
753323
1720
Что же случится, если в то время, когда животное
12:35
is recalling the memory of the blue box,
292
755067
1905
вспоминает о голубой коробке,
12:36
we gave it a couple of mild foot shocks?
293
756996
2584
мы пропустим электрические разряды через её лапки?
12:39
So here we're trying to artificially make an association
294
759604
2669
Таким образом мы пытаемся искусственно создать ассоциацию
12:42
between the memory of the blue box
295
762297
1891
между воспоминанием о голубой коробке
12:44
and the foot shocks themselves.
296
764212
1479
и электроболевым раздражением лап животных.
12:45
We're just trying to connect the two.
297
765715
1762
Мы пытаемся объединить эти два явления.
12:47
So to test if we had done so,
298
767501
1512
Чтобы это проверить,
12:49
we can take our animals once again
299
769037
1304
мы опять берём мышей
12:50
and place them back in the blue box.
300
770365
1922
и помещаем их обратно в голубую коробку.
12:52
Again, we had just reactivated the memory of the blue box
301
772311
2715
Напомним, мы восстановили воспоминание о голубой коробке
12:55
while the animal got a couple of mild foot shocks,
302
775050
2381
в то время, когда мышь получала небольшое электроболевое раздражение лап,
12:57
and now the animal suddenly freezes.
303
777455
2107
а теперь животное внезапно застыло.
12:59
It's as though it's recalling being mildly shocked in this environment
304
779586
3334
Как будто оно вспомнило про электроболевое раздражение в этой обстановке,
13:02
even though that never actually happened.
305
782944
2822
хотя на самом деле этого никогда не происходило.
13:05
So it formed a false memory,
306
785790
1838
Итак, у мыши появились ложные воспоминания,
13:07
because it's falsely fearing an environment
307
787652
2048
потому что она ошибочно боится окружения,
13:09
where, technically speaking,
308
789724
1334
в котором формально
с ней ничего плохого не происходило.
13:11
nothing bad actually happened to it.
309
791082
2160
13:13
XL: So, so far we are only talking about
310
793266
2429
С.Л.: До сих пор мы говорили только
13:15
this light-controlled "on" switch.
311
795719
2342
о включении светового переключателя,
13:18
In fact, we also have a light-controlled "off" switch,
312
798085
3264
хотя у него есть и режим выключения,
13:21
and it's very easy to imagine that
313
801373
2056
и очень легко представить,
13:23
by installing this light-controlled "off" switch,
314
803453
2454
что, установив переключатель в этот режим,
13:25
we can also turn off a memory, any time, anywhere.
315
805931
5564
мы сможем выключать любые воспоминания.
13:31
So everything we've been talking about today
316
811519
2190
Всё, о чём мы сегодня говорили,
13:33
is based on this philosophically charged principle of neuroscience
317
813733
4653
основывается на философском принципе неврологии,
13:38
that the mind, with its seemingly mysterious properties,
318
818410
4094
гласящем, что разум, с его, казалось бы, загадочными качествами
13:42
is actually made of physical stuff that we can tinker with.
319
822528
3621
на самом деле вполне материален, и в нём можно покопаться.
13:46
SR: And for me personally,
320
826173
1451
С.Р.: Что касается лично меня,
13:47
I see a world where we can reactivate
321
827648
1762
я вижу мир, в котором мы можем реактивировать
13:49
any kind of memory that we'd like.
322
829434
1887
любое воспоминание, которое нам захочется.
13:51
I also see a world where we can erase unwanted memories.
323
831345
3274
Я также вижу мир, где мы можем стереть ненужное воспоминание.
13:54
Now, I even see a world where editing memories
324
834643
2143
И я даже вижу мир, где редактирование воспоминаний —
13:56
is something of a reality,
325
836810
1284
это часть реальности,
13:58
because we're living in a time where it's possible
326
838118
1681
потому что мы живём во времена,
13:59
to pluck questions from the tree of science fiction
327
839823
2429
когда идеи из области научной фантастики
14:02
and to ground them in experimental reality.
328
842276
2168
возможно воплощать в жизнь.
14:04
XL: Nowadays, people in the lab
329
844468
1859
С.Л.: Сегодня люди в лабораториях
14:06
and people in other groups all over the world
330
846351
2362
и люди из других групп по всему миру
14:08
are using similar methods to activate or edit memories,
331
848737
3793
используют похожие методы активации или редактирования воспоминаний —
14:12
whether that's old or new, positive or negative,
332
852554
3817
старых или новых, хороших или плохих —
14:16
all sorts of memories so that we can understand
333
856395
2648
всевозможных воспоминаний, и теперь мы можем понять,
14:19
how memory works.
334
859067
1840
как работает память.
14:20
SR: For example, one group in our lab
335
860931
1760
С.Р.: Например, одна группа из нашей лаборатории
14:22
was able to find the brain cells that make up a fear memory
336
862715
2614
смогла найти клетки мозга, создающие воспоминание страха,
14:25
and converted them into a pleasurable memory, just like that.
337
865353
2751
и преобразовать его в приятное воспоминание.
14:28
That's exactly what I mean about editing these kinds of processes.
338
868128
3143
Во что я подразумевал, говоря о редактировании воспоминаний.
14:31
Now one dude in lab was even able to reactivate
339
871295
2239
Один парень смог даже оживить воспоминания
14:33
memories of female mice in male mice,
340
873558
1921
о самке мыши у самца.
14:35
which rumor has it is a pleasurable experience.
341
875503
2971
Ходят слухи, что это был приятный опыт.
14:38
XL: Indeed, we are living in a very exciting moment
342
878498
4093
С.Л.: Мы живём в волнующий период,
14:42
where science doesn't have any arbitrary speed limits
343
882615
3781
когда у науки нет скоростных ограничений,
14:46
but is only bound by our own imagination.
344
886420
3163
и всё ограничивается только нашим воображением.
14:49
SR: And finally, what do we make of all this?
345
889607
2143
С.Р.: Наконец, что нам со всем этим делать?
14:51
How do we push this technology forward?
346
891774
1927
Как мы можем продвинуть эту технологию вперед?
14:53
These are the questions that should not remain
347
893725
2191
Это вопросы, которые не должны оставаться
14:55
just inside the lab,
348
895940
1273
в стенах лаборатории,
14:57
and so one goal of today's talk was to bring everybody
349
897237
2572
и одна из целей сегодняшнего выступления — рассказать всем
14:59
up to speed with the kind of stuff that's possible
350
899833
2381
о скорости научных процессов, которые возможны
15:02
in modern neuroscience,
351
902238
1250
в современной неврологии,
15:03
but now, just as importantly,
352
903512
1486
а так же, что не менее важно,
15:05
to actively engage everybody in this conversation.
353
905022
3308
вовлечь всех в эту беседу.
15:08
So let's think together as a team about what this all means
354
908354
2762
Так давайте подумаем вместе, как команда, о значении этого исследования
и о том, куда мы можем и должны двигаться дальше,
15:11
and where we can and should go from here,
355
911140
1993
15:13
because Xu and I think we all have
356
913157
2074
потому что нам с Сюй предстоит принять
15:15
some really big decisions ahead of us.
357
915255
2512
очень непростое решение.
15:17
Thank you. XL: Thank you.
358
917791
1101
Спасибо. С.Л.: Спасибо.
15:18
(Applause)
359
918916
1634
(Аплодисменты)
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7