Steve Ramirez and Xu Liu: A mouse. A laser beam. A manipulated memory.

137,324 views ・ 2013-08-15

TED


Моля, кликнете два пъти върху английските субтитри по-долу, за да пуснете видеото.

Translator: Kitchka Dyankova Reviewer: Anton Hikov
00:12
Steve Ramirez: My first year of grad school,
0
12371
2096
Стив Рамирез: През първата година в университета
се озовах в спалнята си,
00:14
I found myself in my bedroom
1
14491
1416
00:15
eating lots of Ben & Jerry's
2
15931
2276
нагъвайки много Ben & Jerry's,
00:18
watching some trashy TV
3
18231
1660
гледайки някаква долнопробна телевизия
00:19
and maybe, maybe listening to Taylor Swift.
4
19915
3203
и може би, може би слушайки Тейлър Суифт.
00:23
I had just gone through a breakup.
5
23142
1717
Току-що бях преживял раздяла.
00:24
(Laughter)
6
24883
1423
(Смях)
00:26
So for the longest time, all I would do
7
26330
2172
И безкрайно дълго време всичко, което правех,
00:28
is recall the memory of this person over and over again,
8
28526
3792
бе да си спомням това момиче отново и отново,
00:32
wishing that I could get rid of that gut-wrenching,
9
32342
2469
с желанието да се оттърва от онова болезнено,
00:34
visceral "blah" feeling.
10
34835
2509
вътрешно, гадно чувство.
00:37
Now, as it turns out, I'm a neuroscientist,
11
37368
2259
Сега, както излиза, съм невробиолог,
00:39
so I knew that the memory of that person
12
39651
2378
затова знам, че спомена за това момиче
00:42
and the awful, emotional undertones that color in that memory,
13
42053
3116
и ужасните, емоционални оттенъци, които оцветяват този спомен
00:45
are largely mediated by separate brain systems.
14
45193
2610
до голяма степен се дължат на отделни мозъчни системи.
00:47
And so I thought, what if we could go into the brain
15
47827
2477
Така че си помислих - ами ако можехме да влезем в мозъка
00:50
and edit out that nauseating feeling
16
50328
1930
и да изтрием отвратителното чувство,
00:52
but while keeping the memory of that person intact?
17
52282
2946
но да запазим спомена за човека непокътнат?
00:55
Then I realized, maybe that's a little bit lofty for now.
18
55252
2667
Тогава осъзнах, че може би това е малко прекалено за момента.
00:57
So what if we could start off by going into the brain
19
57943
2489
Ами ако започнем с влизането в мозъка
01:00
and just finding a single memory to begin with?
20
60456
2609
и просто открием определен спомен като начало?
01:03
Could we jump-start that memory back to life,
21
63089
2490
Можем ли да "съживим" този спомен,
01:05
maybe even play with the contents of that memory?
22
65603
3844
може би дори да поиграем със съдържанието му?
01:09
All that said, there is one person in the entire world right now
23
69471
2205
След всичко казано дотук, има един човек на света,
01:11
that I really hope is not watching this talk.
24
71700
2143
който, истински се надявам, не гледа тази лекция в момента.
01:13
(Laughter)
25
73867
3805
(Смях)
01:17
So there is a catch. There is a catch.
26
77696
3265
Да, има уловка. Има уловка.
01:20
These ideas probably remind you of "Total Recall,"
27
80985
2764
Тези идеи вероятно ви напомнят за "Зов за завръщане",
01:23
"Eternal Sunshine of the Spotless Mind,"
28
83773
1950
"Блясъкът на чистия ум"
01:25
or of "Inception."
29
85747
1279
или за "Генезис".
01:27
But the movie stars that we work with
30
87050
1762
Но кинозвездите, с които работим
01:28
are the celebrities of the lab.
31
88836
1709
са знаменитости на лабораторията.
01:30
Xu Liu: Test mice.
32
90569
1876
Шу Лиу: Лабораторните мишки.
01:32
(Laughter)
33
92469
1104
(Смях)
01:33
As neuroscientists, we work in the lab with mice
34
93597
3130
Като невробиолози, ние работим с мишки в лабораторията
01:36
trying to understand how memory works.
35
96751
3386
и се опитваме да разберем как работи паметта.
01:40
And today, we hope to convince you that now
36
100161
2545
И днес се надяваме да ви убедим, че сега
01:42
we are actually able to activate a memory in the brain
37
102730
3192
всъщност можем да активираме спомен в мозъка
01:45
at the speed of light.
38
105946
2146
със скоростта на светлината.
01:48
To do this, there's only two simple steps to follow.
39
108116
3082
За да го направим, трябва да следваме две прости стъпки.
01:51
First, you find and label a memory in the brain,
40
111222
3486
Първо, намираме и отбелязваме определен спомен в мозъка
01:54
and then you activate it with a switch.
41
114732
3606
и после го активираме с превключвател.
01:58
As simple as that.
42
118362
1421
Лесно и просто.
01:59
(Laughter)
43
119807
1798
(Смях)
02:01
SR: Are you convinced?
44
121629
1821
СР: Убедихме ли ви?
02:03
So, turns out finding a memory in the brain isn't all that easy.
45
123474
3697
И така, оказа се, че да намерим спомен в мозъка не е толкова лесно.
02:07
XL: Indeed. This is way more difficult than, let's say,
46
127195
2779
ШЛ: Така е. Много по-трудно е, отколкото, да речем,
02:09
finding a needle in a haystack,
47
129998
2380
да намерим игла в купа сено,
02:12
because at least, you know, the needle is still something
48
132402
2715
защото иглата, нали разбирате, поне е нещо,
което физически можем да докоснем с пръсти.
02:15
you can physically put your fingers on.
49
135141
2326
02:17
But memory is not.
50
137491
1953
Докато споменът не е.
02:19
And also, there's way more cells in your brain
51
139468
3014
И също така, в мозъка ни има много повече клетки
02:22
than the number of straws in a typical haystack.
52
142506
5042
от броя на сламките в една типична купа сено.
02:27
So yeah, this task does seem to be daunting.
53
147572
2855
Да, тази задача наистина изглежда обезсърчаваща.
02:30
But luckily, we got help from the brain itself.
54
150451
3655
Но, за щастие, самият мозък ни помогна.
02:34
It turned out that all we need to do is basically
55
154130
2431
Оказа се, че всичко, което трябва да направим
02:36
to let the brain form a memory,
56
156585
1969
е да оставим мозъка да създаде спомен
02:38
and then the brain will tell us which cells are involved
57
158578
3806
и после мозъкът ще ни каже кои клетки участват
02:42
in that particular memory.
58
162408
1742
точно в този спомен.
02:44
SR: So what was going on in my brain
59
164174
2333
СР: Какво се случваше в мозъка ми,
02:46
while I was recalling the memory of an ex?
60
166531
2070
докато извиквах спомена за бивша приятелка?
02:48
If you were to just completely ignore human ethics for a second
61
168625
2378
Ако напълно забравите човешката етика за миг
02:51
and slice up my brain right now,
62
171027
1644
и разрежете мозъка ми в момента,
02:52
you would see that there was an amazing number
63
172695
2191
ще видите, че удивителен брой области
02:54
of brain regions that were active while recalling that memory.
64
174910
2957
са били активни, докато съм си спомнял.
02:57
Now one brain region that would be robustly active
65
177891
2888
Една област, която би била особено активна,
03:00
in particular is called the hippocampus,
66
180803
1983
се нарича хипокампус
03:02
which for decades has been implicated in processing
67
182810
2431
и от десетилетия се свързва с обработването
03:05
the kinds of memories that we hold near and dear,
68
185265
2392
на спомените, които са най-съкровени за нас,
03:07
which also makes it an ideal target to go into
69
187681
2550
което пък я прави идеална цел, където да проникнем
03:10
and to try and find and maybe reactivate a memory.
70
190255
2761
и да се опитаме да намерим и може би да активираме определен спомен отново.
03:13
XL: When you zoom in into the hippocampus,
71
193040
2370
ШЛ: Ако разгледаме отблизо хипокампуса,
03:15
of course you will see lots of cells,
72
195434
2324
ще видим, разбира се, много клетки,
03:17
but we are able to find which cells are involved
73
197782
3007
но ние можем да разберем кои клетки участват
03:20
in a particular memory,
74
200813
1452
в определен спомен,
03:22
because whenever a cell is active,
75
202289
2594
защото всеки път, когато една клетка е активна,
03:24
like when it's forming a memory,
76
204907
1524
както в момента на създаване на спомен,
03:26
it will also leave a footprint that will later allow us to know
77
206455
3649
тя ще остави отпечатък и той по-късно ще ни позволи да разберем,
03:30
these cells are recently active.
78
210128
2678
че тези клетки скоро са били активни.
03:32
SR: So the same way that building lights at night
79
212830
2334
СР: По начина, по който светлините на една сграда през нощта
показват, че вероятно някой наистина работи там
03:35
let you know that somebody's probably working there at any given moment,
80
215188
3429
в даден момент, има биологични сензори
03:38
in a very real sense, there are biological sensors
81
218641
2561
03:41
within a cell that are turned on
82
221226
1930
вътре в клетката, които се включват
03:43
only when that cell was just working.
83
223180
2111
само когато тази клетка току-що е работила.
03:45
They're sort of biological windows that light up
84
225315
2286
Те са един вид биологични прозорци, които светват,
03:47
to let us know that that cell was just active.
85
227625
2191
за да ни съобщят, че тази клетка току-що е била активна.
03:49
XL: So we clipped part of this sensor,
86
229840
2134
ШЛ: Ние изрязахме част от този сензор
03:51
and attached that to a switch to control the cells,
87
231998
3123
и го прикрепихме към един превключвател, за да контролираме клетките,
03:55
and we packed this switch into an engineered virus
88
235145
3876
поставихме превключвателя в един изкуствено създаден вирус
03:59
and injected that into the brain of the mice.
89
239045
2564
и инжектирахме вируса в мозъка на мишка.
04:01
So whenever a memory is being formed,
90
241633
2610
Така всеки път, когато се създава спомен,
04:04
any active cells for that memory
91
244267
2324
на всички активни за този спомен клетки
04:06
will also have this switch installed.
92
246615
2718
също ще бъде инсталиран този превключвател.
04:09
SR: So here is what the hippocampus looks like
93
249357
2191
СР: Ето как изглежда хипокампусът
след създаването на спомен за страх, например.
04:11
after forming a fear memory, for example.
94
251572
2226
04:13
The sea of blue that you see here
95
253822
2116
Синьото море, което виждате тук,
04:15
are densely packed brain cells,
96
255962
1928
представлява гъсто разположени мозъчни клетки,
04:17
but the green brain cells,
97
257914
1521
но зелените мозъчни клетки,
04:19
the green brain cells are the ones that are holding on
98
259459
2572
зелените са тези, които са свързани
с определен страшен спомен.
04:22
to a specific fear memory.
99
262055
1319
04:23
So you are looking at the crystallization
100
263398
1955
И така, вие виждате кристализирането
04:25
of the fleeting formation of fear.
101
265377
2363
на неуловимата формация на страха.
04:27
You're actually looking at the cross-section of a memory right now.
102
267764
3473
Всъщност, в момента гледате напречното сечение на един спомен.
04:31
XL: Now, for the switch we have been talking about,
103
271261
2429
ШЛ: Сега за превключвателя, който споменахме -
04:33
ideally, the switch has to act really fast.
104
273714
2901
в идеалния вариант превключвателят трябва да е наистина бърз.
04:36
It shouldn't take minutes or hours to work.
105
276639
2555
А не да му трябват минути или часове да заработи.
04:39
It should act at the speed of the brain, in milliseconds.
106
279218
4240
Той трябва да се задейства със скоростта на мозъка, за милисекунди.
04:43
SR: So what do you think, Xu?
107
283482
1406
СР: Е, какво мислиш, Шу?
04:44
Could we use, let's say, pharmacological drugs
108
284912
2578
Можем ли да използваме фармакологични средства, да кажем,
04:47
to activate or inactivate brain cells?
109
287514
1814
за да активираме или дезактивираме мозъчни клетки?
04:49
XL: Nah. Drugs are pretty messy. They spread everywhere.
110
289352
4039
ШЛ: Не. Лекарствата доста замърсяват. Те проникват навсякъде.
04:53
And also it takes them forever to act on cells.
111
293415
2984
И също, на тях им трябва цяла вечност, за да въздействат на клетките.
04:56
So it will not allow us to control a memory in real time.
112
296423
3625
Това няма да ни позволи да контролираме един спомен в реално време.
05:00
So Steve, how about let's zap the brain with electricity?
113
300072
4270
Затова, Стив, какво ще кажеш да ударим мозъка с електричество?
05:04
SR: So electricity is pretty fast,
114
304366
2281
СР: Електричеството е доста бързо,
05:06
but we probably wouldn't be able to target it
115
306671
1715
но вероятно няма да можем да го насочим
05:08
to just the specific cells that hold onto a memory,
116
308410
2429
само към определените клетки, които участват в спомена
05:10
and we'd probably fry the brain.
117
310863
1755
и може да изпържим мозъка.
05:12
XL: Oh. That's true. So it looks like, hmm,
118
312642
3171
ШЛ: О, вярно. Изглежда, че
05:15
indeed we need to find a better way
119
315837
2587
наистина трябва да намерим по-добър начин
05:18
to impact the brain at the speed of light.
120
318448
3271
да въздействаме на мозъка със скоростта на светлината.
05:21
SR: So it just so happens that light travels at the speed of light.
121
321743
5062
СР: По стечение на обстоятелствата светлината пътува със скоростта на светлината.
05:26
So maybe we could activate or inactive memories
122
326829
3459
Така че, може би можем да активираме или дезактивираме спомени,
05:30
by just using light --
123
330312
1473
като използваме светлина.
05:31
XL: That's pretty fast.
124
331809
1331
ШЛ: Това е доста бързо.
05:33
SR: -- and because normally brain cells
125
333164
1861
СР: Oбикновено мозъчните клетки
05:35
don't respond to pulses of light,
126
335049
1572
не реагират на светлинни пулсации,
05:36
so those that would respond to pulses of light
127
336645
1934
тези, които биха реагирали са
05:38
are those that contain a light-sensitive switch.
128
338603
2432
клетките със светло-чувствителен превключвател.
05:41
Now to do that, first we need to trick brain cells
129
341059
1922
За да направим това, първо трябва да "излъжем" мозъчните клетки
05:43
to respond to laser beams.
130
343005
1438
да реагират на лазерни лъчи.
05:44
XL: Yep. You heard it right.
131
344467
1046
ШЛ: Да. Добре чухте.
05:45
We are trying to shoot lasers into the brain.
132
345537
2143
Опитваме се да стреляме с лазер в мозъка.
05:47
(Laughter)
133
347704
1686
(Смях)
05:49
SR: And the technique that lets us do that is optogenetics.
134
349414
3300
СР: И технологията, която ни позволява да го направим е оптогенетиката.
05:52
Optogenetics gave us this light switch that we can use
135
352738
3258
Оптогенетиката ни даде този светлинен превключвател, който можем да използваме
05:56
to turn brain cells on or off,
136
356020
1484
за да включваме или изключваме мозъчните клетки
05:57
and the name of that switch is channelrhodopsin,
137
357528
2493
и името на този превключвател е канален родопсин -
06:00
seen here as these green dots attached to this brain cell.
138
360045
2513
тук се вижда като зелени точки, залепени за тази мозъчна клетка.
06:02
You can think of channelrhodopsin as a sort of light-sensitive switch
139
362582
3286
Можем да разглеждаме каналния родопсин като вид светло-чувствителен превключвател,
06:05
that can be artificially installed in brain cells
140
365892
2592
който може изкуствено да се инсталира в мозъчните клетки,
06:08
so that now we can use that switch
141
368508
1890
така че да можем да го използваме
06:10
to activate or inactivate the brain cell simply by clicking it,
142
370422
3000
за активиране или дезактивиране на мозъчната клетка с просто щракване,
06:13
and in this case we click it on with pulses of light.
143
373446
2524
а в този случай включващото щракване са светлинните пулсации.
06:15
XL: So we attach this light-sensitive switch of channelrhodopsin
144
375994
3671
ШЛ: И така, прикрепваме светло-чувствителния превключвател канален родопсин
06:19
to the sensor we've been talking about
145
379689
2184
към сензора, който споменахме
06:21
and inject this into the brain.
146
381897
2431
и ги инжектираме в мозъка.
06:24
So whenever a memory is being formed,
147
384352
3187
Така всеки път, когато се създава спомен,
06:27
any active cell for that particular memory
148
387563
2203
на всяка клетка, активна точно за този спомен,
06:29
will also have this light-sensitive switch installed in it
149
389790
3460
също ще бъде инсталиран този светло-чувствителен превключвател,
06:33
so that we can control these cells
150
393274
2377
за да можем да контролираме активните клетки
06:35
by the flipping of a laser just like this one you see.
151
395675
4240
чрез насочване на лазер - точно като този, който виждате.
06:39
SR: So let's put all of this to the test now.
152
399939
2840
СР: И сега, нека да тестваме всичко това.
06:42
What we can do is we can take our mice
153
402803
2111
Можем да направим следното: да вземем нашите мишки
06:44
and then we can put them in a box that looks exactly like this box here,
154
404938
2904
и да ги сложим в кутия, която изглежда точно като тази тук,
06:47
and then we can give them a very mild foot shock
155
407866
2316
после да ги подложим на много лек удар в краката,
06:50
so that they form a fear memory of this box.
156
410206
2048
така че да си създадат спомен за страх от тази кутия.
06:52
They learn that something bad happened here.
157
412278
2059
Те научават, че нещо лошо се е случило тук.
06:54
Now with our system, the cells that are active
158
414361
2318
Какво става в нашата система - клетките в хипокампуса,
06:56
in the hippocampus in the making of this memory,
159
416703
2766
които са активни в създаването на спомена,
06:59
only those cells will now contain channelrhodopsin.
160
419493
2859
само тези клетки сега ще съдържат канален родопсин.
07:02
XL: When you are as small as a mouse,
161
422376
2993
ШЛ: Ако сте малки колкото мишка,
07:05
it feels as if the whole world is trying to get you.
162
425393
3571
ще ви се струва, че целият свят ви преследва.
07:08
So your best response of defense
163
428988
1724
Най-добрата ви защитна реакция
07:10
is trying to be undetected.
164
430736
2458
е да се опитате да станете незабележими.
07:13
Whenever a mouse is in fear,
165
433218
2009
Когато една мишка се страхува,
07:15
it will show this very typical behavior
166
435251
1858
тя ще покаже много характерно поведение -
ще стои в един от ъглите на кутията,
07:17
by staying at one corner of the box,
167
437133
1745
07:18
trying to not move any part of its body,
168
438902
2738
опитвайки да не помръдва никоя част от тялото си
07:21
and this posture is called freezing.
169
441664
3271
и тази поза се нарича замръзване.
07:24
So if a mouse remembers that something bad happened in this box,
170
444959
4270
Ако мишката си спомня, че нещо лошо се е случило в кутията,
07:29
and when we put them back into the same box,
171
449253
2599
когато я сложим обратно в същата кутия,
07:31
it will basically show freezing
172
451876
1780
тя ще замръзне,
07:33
because it doesn't want to be detected
173
453680
2261
защото не иска да бъде забелязана
07:35
by any potential threats in this box.
174
455965
2671
от някоя от потенциалните заплахи в кутията.
07:38
SR: So you can think of freezing as,
175
458660
1331
СР: Можете да си обясните замръзването така:
07:40
you're walking down the street minding your own business,
176
460015
2191
вървите си по улицата по собствените си дела
07:42
and then out of nowhere you almost run into
177
462230
2048
и изведнъж, незнайно как, почти се сблъсквате
с бивша приятелка или бивш приятел -
07:44
an ex-girlfriend or ex-boyfriend,
178
464302
1821
07:46
and now those terrifying two seconds
179
466147
2110
тези ужасяващи две секунди,
07:48
where you start thinking, "What do I do? Do I say hi?
180
468281
1852
в които си мислите: "Какво да правя? Да кажа ли здрасти?
07:50
Do I shake their hand? Do I turn around and run away?
181
470157
1344
Да й стисна ли ръката? Да се обърна ли и да избягам?
07:51
Do I sit here and pretend like I don't exist?"
182
471525
2005
Да седна ли тук и да се престоря, че не съществувам?".
07:53
Those kinds of fleeting thoughts that physically incapacitate you,
183
473554
3160
Този вид прелитащи мисли, които физически ви изваждат от строя
07:56
that temporarily give you that deer-in-headlights look.
184
476738
2722
и временно ви докарват видa на елен, заслепен от фарове.
07:59
XL: However, if you put the mouse in a completely different
185
479484
3267
ШЛ: Ако, обаче, сложите мишката в съвсем различна
08:02
new box, like the next one,
186
482775
3137
нова кутия, като следващата,
08:05
it will not be afraid of this box
187
485936
2123
тя няма да се страхува от нея,
08:08
because there's no reason that it will be afraid of this new environment.
188
488083
4705
защото няма причина да се страхува от новата среда.
08:12
But what if we put the mouse in this new box
189
492812
3156
Ами ако сложим мишката в новата кутия,
08:15
but at the same time, we activate the fear memory
190
495992
3587
но в същото време активираме спомена за страх
08:19
using lasers just like we did before?
191
499603
2655
чрез лазер, точно както направихме преди?
08:22
Are we going to bring back the fear memory
192
502282
2830
Ще върнем ли страшния спомен
08:25
for the first box into this completely new environment?
193
505136
3973
за първата кутия в това съвсем ново обкръжение?
08:29
SR: All right, and here's the million-dollar experiment.
194
509133
2711
СР: Добре, ето го експеримента за милион долара.
08:31
Now to bring back to life the memory of that day,
195
511868
2889
За да съживя спомена за онзи ден,
08:34
I remember that the Red Sox had just won,
196
514781
2159
си спомням, че Ред Сокс току-що бяха победили,
08:36
it was a green spring day,
197
516964
1885
беше зелен пролетен ден,
08:38
perfect for going up and down the river
198
518873
1858
чудесен за разходки по реката
08:40
and then maybe going to the North End
199
520755
2245
и после може би до Норд Енд
08:43
to get some cannolis, #justsaying.
200
523024
2135
за малко каноли. Просто го споменавам.
08:45
Now Xu and I, on the other hand,
201
525183
3078
Шу и аз, от друга страна,
08:48
were in a completely windowless black room
202
528285
2806
бяхме в тъмна стая без нито един прозорец
08:51
not making any ocular movement that even remotely resembles an eye blink
203
531115
3636
и очите ни не се движеха, дори в далечно подобие на мигане,
08:54
because our eyes were fixed onto a computer screen.
204
534775
2443
защото бяха фиксирани в екрана на един компютър.
08:57
We were looking at this mouse here trying to activate a memory
205
537242
2953
Гледахме тази мишка тук и се опитвахме да активираме спомен
за пръв път, използвайки нашата техника.
09:00
for the first time using our technique.
206
540219
1859
ШЛ: И ето какво видяхме.
09:02
XL: And this is what we saw.
207
542102
2243
09:04
When we first put the mouse into this box,
208
544369
2178
Когато в началото сложихме мишката в тази кутия,
09:06
it's exploring, sniffing around, walking around,
209
546571
3089
тя започна да проучва, да души наоколо, да се разхожда,
09:09
minding its own business,
210
549684
1665
да си върши работата,
09:11
because actually by nature,
211
551373
1677
защото по природа,
09:13
mice are pretty curious animals.
212
553074
1955
мишките всъщност са доста любопитни животни.
09:15
They want to know, what's going on in this new box?
213
555053
2598
Те искат да знаят какво става в тази нова кутия.
09:17
It's interesting.
214
557675
1507
Интересно е.
09:19
But the moment we turned on the laser, like you see now,
215
559206
3427
Но в момента, в който включихме лазера, както виждате сега,
09:22
all of a sudden the mouse entered this freezing mode.
216
562657
3008
мишката изведнъж изпадна в замръзнало състояние.
09:25
It stayed here and tried not to move any part of its body.
217
565689
4407
Тя стоеше тук и се опитваше изобщо да не помръдва.
09:30
Clearly it's freezing.
218
570120
1604
Очевидно замръзваше.
09:31
So indeed, it looks like we are able to bring back
219
571748
2559
И наистина, изглежда сме в състояние да съживим
09:34
the fear memory for the first box
220
574331
2040
спомена за страх от първата кутия
09:36
in this completely new environment.
221
576395
3343
в тази съвсем нова среда.
09:39
While watching this, Steve and I
222
579762
2088
Докато гледахме всичко това, Стив и аз
09:41
are as shocked as the mouse itself.
223
581874
2109
се шокирахме толкова, колкото и мишката.
09:44
(Laughter)
224
584007
1238
(Смях)
09:45
So after the experiment, the two of us just left the room
225
585269
3283
След експеримента двамата просто излязохме от стаята
09:48
without saying anything.
226
588576
1729
без да кажем нищо.
09:50
After a kind of long, awkward period of time,
227
590329
3372
След дълга, неловка пауза
09:53
Steve broke the silence.
228
593725
2188
Стив наруши мълчанието.
09:55
SR: "Did that just work?"
229
595937
2317
СР: "Проработи ли това току-що?"
09:58
XL: "Yes," I said. "Indeed it worked!"
230
598278
2950
ШЛ: "Да", казах аз. "Наистина проработи!"
10:01
We're really excited about this.
231
601252
2093
Бяхме силно развълнувани.
10:03
And then we published our findings
232
603369
2600
После публикувахме откритията си
10:05
in the journal Nature.
233
605993
1672
в списание Нейчър.
10:07
Ever since the publication of our work,
234
607689
2447
Откакто публикувахме работата си
10:10
we've been receiving numerous comments
235
610160
2391
получаваме много коментари
10:12
from all over the Internet.
236
612575
2101
отвсякъде по Интернет.
10:14
Maybe we can take a look at some of those.
237
614700
3726
Нека да погледнем някои от тях.
10:18
["OMGGGGG FINALLY... so much more to come, virtual reality, neural manipulation, visual dream emulation... neural coding, 'writing and re-writing of memories', mental illnesses. Ahhh the future is awesome"]
238
618450
2433
БОЖЕ МОЙ, НАЙ–ПОСЛЕ... и още толкова много неща ще се появят, виртуална реалност, мозъчна манипулация, надпревара във визуализирането на мечти, невронно кодиране,"записи и презаписи на спомени", душевни болести. Ахх, бъдещето е прекрасно"
10:20
SR: So the first thing that you'll notice is that people
239
620907
1976
СР: Първото нещо, което ще забележите, е че хората
10:22
have really strong opinions about this kind of work.
240
622907
2879
имат доста затвърдени мнения за този вид работа.
10:25
Now I happen to completely agree with the optimism
241
625810
2530
Аз се съгласявам напълно с оптимизма
10:28
of this first quote,
242
628364
792
на първото мнение,
10:29
because on a scale of zero to Morgan Freeman's voice,
243
629180
2784
защото по скалата от нула до гласа на Морган Фрийман,
10:31
it happens to be one of the most evocative accolades
244
631988
2477
то се явява една от най-емоционалните похвали,
10:34
that I've heard come our way.
245
634489
1526
които сме получавали.
(Смях)
10:36
(Laughter)
246
636039
1794
10:37
But as you'll see, it's not the only opinion that's out there.
247
637857
1927
Но както ще видите, то не е единственото мнение.
10:39
["This scares the hell out of me... What if they could do that easily in humans in a couple of years?! OH MY GOD WE'RE DOOMED"]
248
639808
1540
"Това ме плаши до смърт... Ами ако след две години те могат лесно да го правят и върху хора? О, БОЖЕ, ОБРЕЧЕНИ СМЕ"
10:41
XL: Indeed, if we take a look at the second one,
249
641372
2286
ШЛ: Наистина, ако погледнем второто,
10:43
I think we can all agree that it's, meh,
250
643682
2083
мисля, всички ще се съгласим, че може би не
10:45
probably not as positive.
251
645789
1959
е толкова позитивно.
10:47
But this also reminds us that,
252
647772
2161
Но това ни напомня, че
10:49
although we are still working with mice,
253
649957
2162
макар и все още да работим с мишки,
10:52
it's probably a good idea to start thinking and discussing
254
652143
3493
може би е добра идея да започнем да мислим и да обсъждаме
10:55
about the possible ethical ramifications
255
655660
2967
възможните етични последици
10:58
of memory control.
256
658651
1924
от контрола на паметта.
11:00
SR: Now, in the spirit of the third quote,
257
660599
2176
СР: А сега, в духа на третото мнение,
11:02
we want to tell you about a recent project that we've been
258
662799
1950
искаме да ви разкажем за един проект, по който работихме скоро
11:04
working on in lab that we've called Project Inception.
259
664773
2572
в лабораторията и го нарекохме Проектът Генезис.
11:07
["They should make a movie about this. Where they plant ideas into peoples minds, so they can control them for their own personal gain. We'll call it: Inception."]
260
667369
3219
"Трябва да направят филм за това. Как се внедряват идеи в умовете на хората, за да могат да бъдат контролирани за личната изгода на някого. Ще го наречем Генезис"
11:10
So we reasoned that now that we can reactivate a memory,
261
670612
3542
И така, ние се замислихме - щом вече можем да съживяваме спомени,
11:14
what if we do so but then begin to tinker with that memory?
262
674178
2928
какво ще стане, ако активираме спомен и после започнем да го "бърникаме"?
11:17
Could we possibly even turn it into a false memory?
263
677130
3009
Можем ли евентуално да го превърнем във фалшив спомен?
11:20
XL: So all memory is sophisticated and dynamic,
264
680163
4075
ШЛ: Паметта е сложна и динамична,
11:24
but if just for simplicity, let's imagine memory
265
684262
2955
но за да опростим, нека си я представим
11:27
as a movie clip.
266
687241
1378
като видео клип.
11:28
So far what we've told you is basically we can control
267
688643
2646
Дотук в общи линии ви казахме, че можем да контролираме
11:31
this "play" button of the clip
268
691313
1907
бутона за пускане на клипа,
11:33
so that we can play this video clip any time, anywhere.
269
693244
4561
т.е. можем да пуснем този видео клип по всяко време и навсякъде.
11:37
But is there a possibility that we can actually get
270
697829
2507
Но има ли възможност да влезем
11:40
inside the brain and edit this movie clip
271
700360
2836
вътре в мозъка и да редактираме видео клипа,
11:43
so that we can make it different from the original?
272
703220
2872
така че да го направим различен от оригинала?
11:46
Yes we can.
273
706116
2154
Да, има такава възможност.
11:48
Turned out that all we need to do is basically
274
708294
2191
Оказа се, че всичко, което трябва да направим,
11:50
reactivate a memory using lasers just like we did before,
275
710509
4166
е да съживим един спомен с лазери, точно както го направихме преди,
11:54
but at the same time, if we present new information
276
714699
3415
но в същото време, ако подадем нова информация
11:58
and allow this new information to incorporate into this old memory,
277
718138
3950
и позволим на тази информация да се слее със стария спомен,
12:02
this will change the memory.
278
722112
2414
това ще промени стария спомен.
12:04
It's sort of like making a remix tape.
279
724550
3639
Прилича на правенето на ремикс.
12:08
SR: So how do we do this?
280
728213
2834
СР: Как постигаме това?
12:11
Rather than finding a fear memory in the brain,
281
731071
1933
Вместо да търсим спомен за страх в мозъка,
12:13
we can start by taking our animals,
282
733028
1692
започваме, като поставяме животните си в,
12:14
and let's say we put them in a blue box like this blue box here
283
734744
2953
да кажем, синя кутия като тази тук,
12:17
and we find the brain cells that represent that blue box
284
737721
2623
откриваме мозъчните клетки, които представят тази кутия
12:20
and we trick them to respond to pulses of light
285
740368
2239
и ги накарваме да реагират на светлинни импулси,
12:22
exactly like we had said before.
286
742631
1710
точно както казахме преди.
12:24
Now the next day, we can take our animals and place them
287
744365
2100
На следващия ден взимаме животните и ги слагаме
12:26
in a red box that they've never experienced before.
288
746489
2675
в червена кутия, където никога не са били.
12:29
We can shoot light into the brain to reactivate
289
749188
2239
Можем да облъчим мозъка със светлина, за да съживим
12:31
the memory of the blue box.
290
751451
1848
спомена за синята кутия.
12:33
So what would happen here if, while the animal
291
753323
1720
Какво ще се случи, ако, докато животното
12:35
is recalling the memory of the blue box,
292
755067
1905
си спомня синята кутия,
12:36
we gave it a couple of mild foot shocks?
293
756996
2584
го подложим на два леки удара в краката?
12:39
So here we're trying to artificially make an association
294
759604
2669
Тук се опитваме изкуствено да направим асоциация
12:42
between the memory of the blue box
295
762297
1891
между спомена за синята кутия
12:44
and the foot shocks themselves.
296
764212
1479
и самите удари в краката.
12:45
We're just trying to connect the two.
297
765715
1762
Просто се опитваме да свържем двете неща.
12:47
So to test if we had done so,
298
767501
1512
За да проверим дали сме успели,
12:49
we can take our animals once again
299
769037
1304
можем още веднъж да вземем нашите животни
12:50
and place them back in the blue box.
300
770365
1922
и да ги върнем обратно в синята кутия.
12:52
Again, we had just reactivated the memory of the blue box
301
772311
2715
Да повторим - току-що съживихме спомена за синята кутия,
12:55
while the animal got a couple of mild foot shocks,
302
775050
2381
докато животното получаваше два леки удара в краката
12:57
and now the animal suddenly freezes.
303
777455
2107
и сега то внезапно замръзна.
12:59
It's as though it's recalling being mildly shocked in this environment
304
779586
3334
Сякаш си спомни, че е било леко ударено в тази среда,
13:02
even though that never actually happened.
305
782944
2822
въпреки че в действителност това никога не се е случвало.
13:05
So it formed a false memory,
306
785790
1838
То е създало фалшив спомен,
13:07
because it's falsely fearing an environment
307
787652
2048
защото напразно се страхува от среда,
13:09
where, technically speaking,
308
789724
1334
в която на практика
нищо лошо не му се е случило.
13:11
nothing bad actually happened to it.
309
791082
2160
13:13
XL: So, so far we are only talking about
310
793266
2429
ШЛ: Дотук говорим само за
13:15
this light-controlled "on" switch.
311
795719
2342
контролирания чрез светлина превключвател, който "включва" спомена.
13:18
In fact, we also have a light-controlled "off" switch,
312
798085
3264
Всъщност, имаме и контролиран чрез светлина "изключващ" превключвател
13:21
and it's very easy to imagine that
313
801373
2056
и е много лесно да си представим, че
13:23
by installing this light-controlled "off" switch,
314
803453
2454
с инсталирането му
13:25
we can also turn off a memory, any time, anywhere.
315
805931
5564
ще можем също и да изключваме спомени по всяко време и навсякъде.
13:31
So everything we've been talking about today
316
811519
2190
Всичко, за което говорим днес
13:33
is based on this philosophically charged principle of neuroscience
317
813733
4653
се основава на заредения с философия принцип на невронауката,
13:38
that the mind, with its seemingly mysterious properties,
318
818410
4094
че съзнанието, с неговите привидно загадъчни свойства,
13:42
is actually made of physical stuff that we can tinker with.
319
822528
3621
всъщност е изградено от физическа материя, която можем да променяме и "поправяме".
13:46
SR: And for me personally,
320
826173
1451
СР: Лично аз
13:47
I see a world where we can reactivate
321
827648
1762
виждам свят, в който можем да съживяваме
13:49
any kind of memory that we'd like.
322
829434
1887
всички спомени, които поискаме.
13:51
I also see a world where we can erase unwanted memories.
323
831345
3274
Виждам свят, в който можем да изтриваме нежелани спомени.
13:54
Now, I even see a world where editing memories
324
834643
2143
И дори виждам свят, където редактирането на спомени
13:56
is something of a reality,
325
836810
1284
е нещо като реалност,
13:58
because we're living in a time where it's possible
326
838118
1681
защото живеем във време, в което е възможно
13:59
to pluck questions from the tree of science fiction
327
839823
2429
да си дръпнем въпроси от дървото на научната фантастика
14:02
and to ground them in experimental reality.
328
842276
2168
и да ги приземим в експерименталната реалност.
14:04
XL: Nowadays, people in the lab
329
844468
1859
ШЛ: Днес, хората в лабораторията
14:06
and people in other groups all over the world
330
846351
2362
и хората от други групи навсякъде по света
14:08
are using similar methods to activate or edit memories,
331
848737
3793
използват близки методи за активиране или редактиране на спомени,
14:12
whether that's old or new, positive or negative,
332
852554
3817
независимо дали са стари или нови, позитивни или негативни -
14:16
all sorts of memories so that we can understand
333
856395
2648
всякакъв вид спомени, така че да можем да разберем
14:19
how memory works.
334
859067
1840
как работи паметта.
14:20
SR: For example, one group in our lab
335
860931
1760
СР: Например, една група в нашата лаборатория
14:22
was able to find the brain cells that make up a fear memory
336
862715
2614
успя да открие мозъчните клетки, които създават един спомен за страх
14:25
and converted them into a pleasurable memory, just like that.
337
865353
2751
и го превърна в приятен спомен просто ей така.
14:28
That's exactly what I mean about editing these kinds of processes.
338
868128
3143
Точно това имам предвид за редактирането на този вид процеси.
14:31
Now one dude in lab was even able to reactivate
339
871295
2239
Един тип от лабораторията успя дори да съживи
14:33
memories of female mice in male mice,
340
873558
1921
спомени на женска мишка у мъжка мишка,
14:35
which rumor has it is a pleasurable experience.
341
875503
2971
което, според слуховете, е приятно преживяване.
14:38
XL: Indeed, we are living in a very exciting moment
342
878498
4093
ШЛ: Наистина, живеем в много вълнуващ момент,
14:42
where science doesn't have any arbitrary speed limits
343
882615
3781
когато науката няма наложени никакви ограничения на скоростта,
14:46
but is only bound by our own imagination.
344
886420
3163
а е ограничена единствено от собственото ни въображение.
14:49
SR: And finally, what do we make of all this?
345
889607
2143
СР: И накрая, до какво ни доведе всичко това?
14:51
How do we push this technology forward?
346
891774
1927
Как ще развием тази технология?
14:53
These are the questions that should not remain
347
893725
2191
Тези въпроси не трябва да останат
14:55
just inside the lab,
348
895940
1273
само в лабораторията
14:57
and so one goal of today's talk was to bring everybody
349
897237
2572
и затова, една от целите на днешната беседа бе да осведомим всички
14:59
up to speed with the kind of stuff that's possible
350
899833
2381
за нещата, които са възможни
15:02
in modern neuroscience,
351
902238
1250
в модерната невронаука,
15:03
but now, just as importantly,
352
903512
1486
но също толкова важно е
15:05
to actively engage everybody in this conversation.
353
905022
3308
активно да ангажираме всички в този разговор.
15:08
So let's think together as a team about what this all means
354
908354
2762
Затова, нека помислим заедно, като един отбор, какво означава всичко това
и накъде можем, накъде трябва да поемем оттук,
15:11
and where we can and should go from here,
355
911140
1993
15:13
because Xu and I think we all have
356
913157
2074
защото Шу и аз мислим, че всички ние трябва
15:15
some really big decisions ahead of us.
357
915255
2512
да вземем някои наистина важни решения в бъдеще.
15:17
Thank you. XL: Thank you.
358
917791
1101
Благодаря ви. ШЛ:Благодаря ви.
15:18
(Applause)
359
918916
1634
(Аплодисменти)
Относно този уебсайт

Този сайт ще ви запознае с видеоклипове в YouTube, които са полезни за изучаване на английски език. Ще видите уроци по английски език, преподавани от първокласни учители от цял свят. Кликнете два пъти върху английските субтитри, показани на всяка страница с видеоклипове, за да възпроизведете видеото оттам. Субтитрите се превъртат в синхрон с възпроизвеждането на видеото. Ако имате някакви коментари или искания, моля, свържете се с нас, като използвате тази форма за контакт.

https://forms.gle/WvT1wiN1qDtmnspy7