Steve Ramirez and Xu Liu: A mouse. A laser beam. A manipulated memory.

134,222 views

2013-08-15 ・ TED


New videos

Steve Ramirez and Xu Liu: A mouse. A laser beam. A manipulated memory.

134,222 views ・ 2013-08-15

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: Ahreum Woo 검토: K Bang
00:12
Steve Ramirez: My first year of grad school,
0
12371
2096
스티브 라미레즈: 대학원 1학년 때였습니다.
그 당시의 저는 방에 틀어박혀
00:14
I found myself in my bedroom
1
14491
1416
00:15
eating lots of Ben & Jerry's
2
15931
2276
벤앤 제리 아이스크림을 퍼먹으며
00:18
watching some trashy TV
3
18231
1660
시덥잖은 TV 프로그램이나 보고 있었죠.
00:19
and maybe, maybe listening to Taylor Swift.
4
19915
3203
그리고 만에 하나, 어쩌면 테일러 스위프트의 노래를 듣고 있었을 지도 몰라요.
00:23
I had just gone through a breakup.
5
23142
1717
여자 친구와 막 헤어졌을 때였거든요.
00:24
(Laughter)
6
24883
1423
(관객 웃음 소리)
00:26
So for the longest time, all I would do
7
26330
2172
그래서 정말 오랫동안 제가 한 일은
00:28
is recall the memory of this person over and over again,
8
28526
3792
그 사람에 대한 기억을 계속해서 떠올리는 것이었죠.
00:32
wishing that I could get rid of that gut-wrenching,
9
32342
2469
속이 뒤집어질 것 같은 느낌을 없앨 수 있기를 바라면서요.
00:34
visceral "blah" feeling.
10
34835
2509
내장이 "욱" 하는 그 느낌이요.
00:37
Now, as it turns out, I'm a neuroscientist,
11
37368
2259
이제 제가 신경과학자가 되고 나니
00:39
so I knew that the memory of that person
12
39651
2378
그 사람에 대한 기억과
00:42
and the awful, emotional undertones that color in that memory,
13
42053
3116
그 기억을 덧칠하는 감정적인 무의식은
00:45
are largely mediated by separate brain systems.
14
45193
2610
대부분 뇌의 독립된 여러 기관에서 관장한다는 것을 알게 되었습니다.
00:47
And so I thought, what if we could go into the brain
15
47827
2477
그래서 생각했죠. 만약 우리가 뇌 속으로 들어갈 수 있다면,
00:50
and edit out that nauseating feeling
16
50328
1930
그래서 그 불쾌한 감정을 지울 수 있다면,
00:52
but while keeping the memory of that person intact?
17
52282
2946
그리고 동시에 그 사람에 대한 기억은 온전히 지킬 수 있다면 어떨까 하고요.
00:55
Then I realized, maybe that's a little bit lofty for now.
18
55252
2667
하지만 현재로선 건방진 생각일 뿐이었습니다.
00:57
So what if we could start off by going into the brain
19
57943
2489
그렇다면 일단 뇌 속으로 들어가서
01:00
and just finding a single memory to begin with?
20
60456
2609
하나의 기억을 찾는 것으로 시작해보면 어떨까요?
01:03
Could we jump-start that memory back to life,
21
63089
2490
그 기억을 다시 되살려서
01:05
maybe even play with the contents of that memory?
22
65603
3844
그 안의 내용들을 조작해볼 수도 있을까요?
01:09
All that said, there is one person in the entire world right now
23
69471
2205
말하고 나니 이 세상에서 딱 한 사람 그 사람만큼은
01:11
that I really hope is not watching this talk.
24
71700
2143
제발 이 강연을 보지 말았으면 하는 바람입니다.
01:13
(Laughter)
25
73867
3805
(관객 웃음)
01:17
So there is a catch. There is a catch.
26
77696
3265
네, 물론 공짜는 아닙니다. 조건이 있죠.
01:20
These ideas probably remind you of "Total Recall,"
27
80985
2764
지금 제가 하는 이야기가 영화 "토탈 리콜"이나
01:23
"Eternal Sunshine of the Spotless Mind,"
28
83773
1950
"이터널 선샤인"
01:25
or of "Inception."
29
85747
1279
"인셉션"의 내용처럼 들릴 수도 있을 겁니다.
01:27
But the movie stars that we work with
30
87050
1762
하지만 중요한 점은 우리가 한께 일한 영화 배우는
01:28
are the celebrities of the lab.
31
88836
1709
실험실의 스타라는 것이죠.
01:30
Xu Liu: Test mice.
32
90569
1876
쉬 리우: 실험용 쥐를 소개합니다.
01:32
(Laughter)
33
92469
1104
(관객 웃음)
01:33
As neuroscientists, we work in the lab with mice
34
93597
3130
신경과학자로서 저희가 하는 일은 쥐 실험을 통해
01:36
trying to understand how memory works.
35
96751
3386
기억이라는 것이 어떻게 작동하는지 이해하기 위한 연구입니다.
01:40
And today, we hope to convince you that now
36
100161
2545
오늘 저희가 여러분께 설명드리고자 하는 것은
01:42
we are actually able to activate a memory in the brain
37
102730
3192
뇌 속의 기억을 되살리는 것이 가능하다는 사실입니다.
01:45
at the speed of light.
38
105946
2146
그것도 빛의 속도로요.
01:48
To do this, there's only two simple steps to follow.
39
108116
3082
이를 위해서 거쳐야 할 두가지의 간단한 단계가 있습니다.
01:51
First, you find and label a memory in the brain,
40
111222
3486
우선 뇌 속의 해당 기억을 찾아 이름을 붙입니다.
01:54
and then you activate it with a switch.
41
114732
3606
그리고 스위치를 켜서 작동시키면 됩니다.
01:58
As simple as that.
42
118362
1421
그게 끝이에요.
01:59
(Laughter)
43
119807
1798
(관객 웃음)
02:01
SR: Are you convinced?
44
121629
1821
다들 이해하셨죠?
02:03
So, turns out finding a memory in the brain isn't all that easy.
45
123474
3697
하지만 뇌 속의 기억을 찾는 일은 그리 간단하지 않더라고요.
02:07
XL: Indeed. This is way more difficult than, let's say,
46
127195
2779
사실입니다, 이건 말하자면 짚더미 속에서
02:09
finding a needle in a haystack,
47
129998
2380
바늘을 찾는 것보다 어려운 일이죠.
02:12
because at least, you know, the needle is still something
48
132402
2715
왜냐하면 여러분들도 아시다피시
바늘은 우리가 실제로 만질 수 있으니까요.
02:15
you can physically put your fingers on.
49
135141
2326
02:17
But memory is not.
50
137491
1953
하지만 기억은 그렇지 않죠.
02:19
And also, there's way more cells in your brain
51
139468
3014
그리고 뇌가 갖고 있는 세포의 수는
02:22
than the number of straws in a typical haystack.
52
142506
5042
보통 짚더미의 지푸라기보다 훨씬 많기도 하고요.
02:27
So yeah, this task does seem to be daunting.
53
147572
2855
네, 저희 연구가 그렇게 만만한 일은 아니더라고요.
02:30
But luckily, we got help from the brain itself.
54
150451
3655
하지만 다행히도 뇌가 우리를 도와주었습니다.
02:34
It turned out that all we need to do is basically
55
154130
2431
알고보니 우리가 할 일은 간단했습니다.
02:36
to let the brain form a memory,
56
156585
1969
우선 뇌가 먼저 기억을 형성하도록 하고
02:38
and then the brain will tell us which cells are involved
57
158578
3806
그 후 뇌가 우리에게 어떤 세포를 사용했는지 알려주는 것이죠.
02:42
in that particular memory.
58
162408
1742
해당 기억에 사용된 특정 세포를요.
02:44
SR: So what was going on in my brain
59
164174
2333
그럼 제 뇌 속에선 무슨 일이 일어났을까요?
02:46
while I was recalling the memory of an ex?
60
166531
2070
제가 전 여자 친구를 생각하는 동안에요.
02:48
If you were to just completely ignore human ethics for a second
61
168625
2378
인간의 윤리를 잠시 잊고
02:51
and slice up my brain right now,
62
171027
1644
뇌를 한번 잘라봅시다.
02:52
you would see that there was an amazing number
63
172695
2191
앞으로 보시겠지만 뇌 내부에서는
02:54
of brain regions that were active while recalling that memory.
64
174910
2957
그 기억을 되살리는 동안 수많은 부분이 일을 해야합니다.
02:57
Now one brain region that would be robustly active
65
177891
2888
그리고 그 중 특히 활발히 움직이는 것은
03:00
in particular is called the hippocampus,
66
180803
1983
해마라고 하는 부분입니다.
03:02
which for decades has been implicated in processing
67
182810
2431
지난 수십 년간의 연구를 통해 우리가 소중히 아끼는 기억은
03:05
the kinds of memories that we hold near and dear,
68
185265
2392
이 부분에서 담당한다는 것을 알게 되었습니다.
03:07
which also makes it an ideal target to go into
69
187681
2550
그렇기 때문에 기억을 찾아 되살리려면
03:10
and to try and find and maybe reactivate a memory.
70
190255
2761
이 부분을 공략하는 것이 가장 좋은 방법일 수 있죠.
03:13
XL: When you zoom in into the hippocampus,
71
193040
2370
해마 부위를 확대해서 보게 되면
03:15
of course you will see lots of cells,
72
195434
2324
엄청난 양의 세포를 볼 수 있습니다.
03:17
but we are able to find which cells are involved
73
197782
3007
하지만 저희는 어떤 세포가
03:20
in a particular memory,
74
200813
1452
어떤 기억을 담당하는지 알 수 있죠.
03:22
because whenever a cell is active,
75
202289
2594
세포가 활성화 상태라면,
03:24
like when it's forming a memory,
76
204907
1524
예를 들자면 기억을 만들고 있는 상태처럼요,
03:26
it will also leave a footprint that will later allow us to know
77
206455
3649
항상 흔적을 남기기 때문에 우리가 나중에 알 수 있게 됩니다.
03:30
these cells are recently active.
78
210128
2678
최근에 활동한 세포가 어떤 것인지를요.
03:32
SR: So the same way that building lights at night
79
212830
2334
밤에 건물에 불이 켜져 있다면
누군가 거기서 일을 한다는걸 알 수 있는 것과 같이
03:35
let you know that somebody's probably working there at any given moment,
80
215188
3429
실제로 이 생물학적 센서들도
03:38
in a very real sense, there are biological sensors
81
218641
2561
03:41
within a cell that are turned on
82
221226
1930
세포 안에 자리잡고 있다가
03:43
only when that cell was just working.
83
223180
2111
해당 세포가 활동을 시작하는 순간 켜지게 되는거죠.
03:45
They're sort of biological windows that light up
84
225315
2286
그들이 현재 일하는 상태라는 것을 우리에게 알려주는
03:47
to let us know that that cell was just active.
85
227625
2191
일종의 생물학적 창문이라고 할 수 있겠습니다.
03:49
XL: So we clipped part of this sensor,
86
229840
2134
그래서 이 센서의 일부를 잘라내어
03:51
and attached that to a switch to control the cells,
87
231998
3123
세포 작동을 조절하는 스위치에 붙여보았습니다.
03:55
and we packed this switch into an engineered virus
88
235145
3876
그리고 이 스위치를 특수 처리된 바이러스 안에 삽입하여
03:59
and injected that into the brain of the mice.
89
239045
2564
이를 실험용 쥐의 뇌에 주입하였습니다.
04:01
So whenever a memory is being formed,
90
241633
2610
그래서 쥐가 기억을 형성하는 동안
04:04
any active cells for that memory
91
244267
2324
그 기억에 관련된 활성 세포가
04:06
will also have this switch installed.
92
246615
2718
이 스위치를 갖게 되는 거죠.
04:09
SR: So here is what the hippocampus looks like
93
249357
2191
예를 들면 이 사진은 무서운 기억을 형성한 직후의
해마 부위를 보여주고 있습니다
04:11
after forming a fear memory, for example.
94
251572
2226
04:13
The sea of blue that you see here
95
253822
2116
여기 보이는 파란 배경은
04:15
are densely packed brain cells,
96
255962
1928
뇌세포가 가득찬 상태입니다.
04:17
but the green brain cells,
97
257914
1521
그런데 이 초록색 세포가
04:19
the green brain cells are the ones that are holding on
98
259459
2572
바로 특정한 공포에 대한 기억과 연관이 있는
뇌세포들입니다.
04:22
to a specific fear memory.
99
262055
1319
04:23
So you are looking at the crystallization
100
263398
1955
그러므로 여러분께서는 지금 떠다니는 형태의
04:25
of the fleeting formation of fear.
101
265377
2363
공포의 진수를 보고 계신 겁니다.
04:27
You're actually looking at the cross-section of a memory right now.
102
267764
3473
기억의 한 단면도를 보고 계신 것이죠.
04:31
XL: Now, for the switch we have been talking about,
103
271261
2429
그리고 말씀드렸던 그 스위치는
04:33
ideally, the switch has to act really fast.
104
273714
2901
굉장히 빠른 속도로 작동해야 합니다.
04:36
It shouldn't take minutes or hours to work.
105
276639
2555
몇 분 혹은 몇 시간이 걸리면 곤란하죠.
04:39
It should act at the speed of the brain, in milliseconds.
106
279218
4240
뇌의 속도와 같아야 하니 천 분의 몇 초가 되어야 합니다.
04:43
SR: So what do you think, Xu?
107
283482
1406
쉬, 그렇다면 우리가
04:44
Could we use, let's say, pharmacological drugs
108
284912
2578
약물을 사용할 수도 있겠네요.
04:47
to activate or inactivate brain cells?
109
287514
1814
뇌세포 작동을 조절하기 위해서요?
04:49
XL: Nah. Drugs are pretty messy. They spread everywhere.
110
289352
4039
에이, 안되죠. 약은 여기저기 번져서 지저분해요.
04:53
And also it takes them forever to act on cells.
111
293415
2984
그리고 시간도 아주 오래 걸리고요 .
04:56
So it will not allow us to control a memory in real time.
112
296423
3625
그래서 실시간으로 기억을 조절하기가 불가능합니다.
05:00
So Steve, how about let's zap the brain with electricity?
113
300072
4270
스티브, 그렇다면 뇌에 전기 충격을 가하는건 어떨까요?
05:04
SR: So electricity is pretty fast,
114
304366
2281
전기가 빠르기는 하지만
05:06
but we probably wouldn't be able to target it
115
306671
1715
우리가 필요로 하는 특정 기억에 관련된 세포를
05:08
to just the specific cells that hold onto a memory,
116
308410
2429
정확하게 겨냥하기는 어려울 거에요.
05:10
and we'd probably fry the brain.
117
310863
1755
그리고 뇌도 다 타버릴거고요.
05:12
XL: Oh. That's true. So it looks like, hmm,
118
312642
3171
아, 그러네요. 그렇다면
05:15
indeed we need to find a better way
119
315837
2587
빛의 속도로 뇌를 자극하기 위한
05:18
to impact the brain at the speed of light.
120
318448
3271
더 좋은 방법을 꼭 찾아야겠어요.
05:21
SR: So it just so happens that light travels at the speed of light.
121
321743
5062
그러고 보니 빛의 속도로 움직이는건 바로 빛이군요.
05:26
So maybe we could activate or inactive memories
122
326829
3459
그렇다면 기억의 활성화를 조절하는 일에
05:30
by just using light --
123
330312
1473
빛을 사용한다면?
05:31
XL: That's pretty fast.
124
331809
1331
그거 괜찮겠는데요.
05:33
SR: -- and because normally brain cells
125
333164
1861
왜냐하면 뇌세포는 보통
05:35
don't respond to pulses of light,
126
335049
1572
빛의 파동엔 반응하지 않거든요.
05:36
so those that would respond to pulses of light
127
336645
1934
그러므로 빛에 반응하는 것은
05:38
are those that contain a light-sensitive switch.
128
338603
2432
빛 파동에 민감한 스위치를 가진 세포가 되겠죠.
05:41
Now to do that, first we need to trick brain cells
129
341059
1922
자, 그렇다면 우선 뇌세포를 조작하여
05:43
to respond to laser beams.
130
343005
1438
레이저 빔에 반응하도록 해봅시다.
05:44
XL: Yep. You heard it right.
131
344467
1046
네, 들으신 그대로에요.
05:45
We are trying to shoot lasers into the brain.
132
345537
2143
뇌에 레이저를 쏠 거예요.
05:47
(Laughter)
133
347704
1686
(관객 웃음)
05:49
SR: And the technique that lets us do that is optogenetics.
134
349414
3300
여기에 필요한 기술을 광유전학이라고 합니다.
05:52
Optogenetics gave us this light switch that we can use
135
352738
3258
광유전학의 도움으로 스위치를 사용하여
05:56
to turn brain cells on or off,
136
356020
1484
우리가 뇌세포를 작동시킬 수 있게 되었죠.
05:57
and the name of that switch is channelrhodopsin,
137
357528
2493
이 스위치를 채널로돕신이라고 합니다.
06:00
seen here as these green dots attached to this brain cell.
138
360045
2513
여기 보시면 초록색 점의 형태로 뇌세포에 부착되어있죠.
06:02
You can think of channelrhodopsin as a sort of light-sensitive switch
139
362582
3286
이 채널로돕신은 쉽게 말하면 빛에 반응하는 스위치라고 할 수 있습니다.
06:05
that can be artificially installed in brain cells
140
365892
2592
우리가 인위적으로 이를 뇌세포에 부착하고
06:08
so that now we can use that switch
141
368508
1890
이 스위치를 사용해서
06:10
to activate or inactivate the brain cell simply by clicking it,
142
370422
3000
뇌세포를 켜고 끌 수 있는 것이죠.
06:13
and in this case we click it on with pulses of light.
143
373446
2524
그리고 이 스위치를 작동시키는것은 빛의 파동입니다.
06:15
XL: So we attach this light-sensitive switch of channelrhodopsin
144
375994
3671
이렇게 빛을 감지하는 스위치인 채널로돕신을
06:19
to the sensor we've been talking about
145
379689
2184
지금까지 말씀드린 이 센서에 부착하여
06:21
and inject this into the brain.
146
381897
2431
뇌에 주입하는 것입니다.
06:24
So whenever a memory is being formed,
147
384352
3187
그래서 앞으로 뇌에서 기억을 만들 때
06:27
any active cell for that particular memory
148
387563
2203
해당 기억에 관련된 뇌세포는
06:29
will also have this light-sensitive switch installed in it
149
389790
3460
우리가 설치한 스위치를 갖게 됩니다.
06:33
so that we can control these cells
150
393274
2377
그래서 우리가 이 세포들에
06:35
by the flipping of a laser just like this one you see.
151
395675
4240
여기 보시는 것처럼 레이저를 쪼여서 세포 기능을 조절하게 되죠.
06:39
SR: So let's put all of this to the test now.
152
399939
2840
그럼 이제 실험을 해봅시다.
06:42
What we can do is we can take our mice
153
402803
2111
실험용 쥐를 준비해서
06:44
and then we can put them in a box that looks exactly like this box here,
154
404938
2904
이렇게 생긴 상자 안에 넣고
06:47
and then we can give them a very mild foot shock
155
407866
2316
발에 아주 약한 충격을 가합니다.
06:50
so that they form a fear memory of this box.
156
410206
2048
그럼 이 상자에 대한 두려움이 형성되겠죠.
06:52
They learn that something bad happened here.
157
412278
2059
이 안에서서는 안좋은 일이 생긴다는 것을 알게 됩니다 .
06:54
Now with our system, the cells that are active
158
414361
2318
이제 저희가 설명드린 시스템을 통해
06:56
in the hippocampus in the making of this memory,
159
416703
2766
해마 부위에서 이 기억을 만든 활성 세포들만이
06:59
only those cells will now contain channelrhodopsin.
160
419493
2859
채널로돕신 스위치를 갖게 됩니다
07:02
XL: When you are as small as a mouse,
161
422376
2993
쥐처럼 작은 생명체라면
07:05
it feels as if the whole world is trying to get you.
162
425393
3571
온 세상이 나만 공격하는 기분이겠죠.
07:08
So your best response of defense
163
428988
1724
이럴 때 최상의 방어법은
07:10
is trying to be undetected.
164
430736
2458
상대의 눈에 띄지 않는 것입니다.
07:13
Whenever a mouse is in fear,
165
433218
2009
쥐가 공포를 느끼면
07:15
it will show this very typical behavior
166
435251
1858
상자의 구석으로 도망치는
독특한 습성을 보입니다.
07:17
by staying at one corner of the box,
167
437133
1745
07:18
trying to not move any part of its body,
168
438902
2738
몸의 어느 부분도 움직이지 않고 정지하게 되죠.
07:21
and this posture is called freezing.
169
441664
3271
이 상태를 공포 반응이라고 합니다.
07:24
So if a mouse remembers that something bad happened in this box,
170
444959
4270
그래서 이 상자 안에서 안좋은 일이 생겼다는 기억을 갖게 되면,
07:29
and when we put them back into the same box,
171
449253
2599
우리가 똑같은 상자에 쥐를 다시 넣었을 때,
07:31
it will basically show freezing
172
451876
1780
쥐는 공포 반응을 보이게 됩니다.
07:33
because it doesn't want to be detected
173
453680
2261
이 상자 안에서 겪었던
07:35
by any potential threats in this box.
174
455965
2671
공격을 피하게 위해서죠.
07:38
SR: So you can think of freezing as,
175
458660
1331
이 공포 반응을 쉽게 설명드리죠.
07:40
you're walking down the street minding your own business,
176
460015
2191
우리가 주위에 신경쓰지 않고 길을 걸어가는 중에
07:42
and then out of nowhere you almost run into
177
462230
2048
갑자기 예전 여자 친구나 남자친 구를
마주친다고 생각해 보세요.
07:44
an ex-girlfriend or ex-boyfriend,
178
464302
1821
07:46
and now those terrifying two seconds
179
466147
2110
짧은 순간이지만 정말 무섭잖아요.
07:48
where you start thinking, "What do I do? Do I say hi?
180
468281
1852
"어떡하지? 인사를 해야 하나?"
07:50
Do I shake their hand? Do I turn around and run away?
181
470157
1344
"악수를 해야 하나? 뒤돌아서 도망갈까?"
07:51
Do I sit here and pretend like I don't exist?"
182
471525
2005
"여기 그냥 주저앉아서 없는 척 할까?"
07:53
Those kinds of fleeting thoughts that physically incapacitate you,
183
473554
3160
이런 오만가지 생각들이 우리를 꽁꽁 묶어버리잖아요.
07:56
that temporarily give you that deer-in-headlights look.
184
476738
2722
도로 한가운데서 자동차를 마주친 사슴 꼴이죠.
07:59
XL: However, if you put the mouse in a completely different
185
479484
3267
그렇지만 같은 쥐를 완전히 다른 형태의
08:02
new box, like the next one,
186
482775
3137
새 상자에 넣게 되면 여기 이 상자처럼요,
08:05
it will not be afraid of this box
187
485936
2123
쥐는 이 상자를 두려워하지 않습니다.
08:08
because there's no reason that it will be afraid of this new environment.
188
488083
4705
이 새로운 환경을 두려워할 이유가 없기 때문이죠.
08:12
But what if we put the mouse in this new box
189
492812
3156
하지만 쥐를 새 상자에 넣으면서
08:15
but at the same time, we activate the fear memory
190
495992
3587
레이저를 사용하여 이전에 형성된 무서운 기억을 자극해 봅시다.
08:19
using lasers just like we did before?
191
499603
2655
조금 전에 보여드린 대로요.
08:22
Are we going to bring back the fear memory
192
502282
2830
과연 이 새로운 환경에서도
08:25
for the first box into this completely new environment?
193
505136
3973
과거의 공포를 그대로 느낄 수 있을까요?
08:29
SR: All right, and here's the million-dollar experiment.
194
509133
2711
자, 이제 백만불 짜리 실험 결과를 알려드리겠습니다.
08:31
Now to bring back to life the memory of that day,
195
511868
2889
해당 시점의 기억을 되살려 볼게요.
08:34
I remember that the Red Sox had just won,
196
514781
2159
레드 삭스가 그날 게임에서 이겼어요.
08:36
it was a green spring day,
197
516964
1885
초록빛이 만연한 봄날이었죠.
08:38
perfect for going up and down the river
198
518873
1858
강가에서 산책하기 좋은 날이었습니다.
08:40
and then maybe going to the North End
199
520755
2245
노스 엔드(보스턴 지명)에 가서
08:43
to get some cannolis, #justsaying.
200
523024
2135
카놀리(이태리식 디저트)를 사먹어도 되고요. 싫으면 말고요.
08:45
Now Xu and I, on the other hand,
201
525183
3078
하지만 쉬와 저는
08:48
were in a completely windowless black room
202
528285
2806
창문도 하나 없는 깜깜한 연구실에서
08:51
not making any ocular movement that even remotely resembles an eye blink
203
531115
3636
눈 한번 깜빡이지 않은 채로 꼼짝없이 앉아있었습니다.
08:54
because our eyes were fixed onto a computer screen.
204
534775
2443
컴퓨터의 화면에 눈을 고정한 채로요.
08:57
We were looking at this mouse here trying to activate a memory
205
537242
2953
실험쥐의 기억을 활성화시키려는 중이었거든요.
우리의 기술을 사용한 첫 실험이었습니다.
09:00
for the first time using our technique.
206
540219
1859
이게 바로 저희가 본 것입니다.
09:02
XL: And this is what we saw.
207
542102
2243
09:04
When we first put the mouse into this box,
208
544369
2178
상자 안에 쥐를 넣은 직후에는
09:06
it's exploring, sniffing around, walking around,
209
546571
3089
쥐가 돌아다니면서 냄새도 맡고 상자를 관찰합니다.
09:09
minding its own business,
210
549684
1665
자기 할 일을 하는 거죠
09:11
because actually by nature,
211
551373
1677
쥐는 천성적으로
09:13
mice are pretty curious animals.
212
553074
1955
호기심이 많은 동물입니다.
09:15
They want to know, what's going on in this new box?
213
555053
2598
새 환경에 대해 알고 싶어 합니다. "이 상자는 뭐지?"
09:17
It's interesting.
214
557675
1507
"신기한데?"
09:19
But the moment we turned on the laser, like you see now,
215
559206
3427
하지만 여기 보시는 대로 저희가 레이저를 발사하는 순간,
09:22
all of a sudden the mouse entered this freezing mode.
216
562657
3008
쥐가 갑자기 공포 반응을 보이기 시작했습니다.
09:25
It stayed here and tried not to move any part of its body.
217
565689
4407
저 부분에 가만히 서서 전혀 움직이지 않더라고요.
09:30
Clearly it's freezing.
218
570120
1604
공포 반응이 나타난거죠.
09:31
So indeed, it looks like we are able to bring back
219
571748
2559
실제로 기억을 되살리는 데 성공한 것입니다.
09:34
the fear memory for the first box
220
574331
2040
원래 상자에 갖고 있던 공포를
09:36
in this completely new environment.
221
576395
3343
완전히 새로운 환경에서도 느끼게 된거죠.
09:39
While watching this, Steve and I
222
579762
2088
이 장면을 보면서 스티브와 저는
09:41
are as shocked as the mouse itself.
223
581874
2109
이 쥐와 마찬가지로 충격에 빠졌습니다.
09:44
(Laughter)
224
584007
1238
(관객 웃음)
09:45
So after the experiment, the two of us just left the room
225
585269
3283
실험이 끝나고 저희는 연구실에서 나왔습니다.
09:48
without saying anything.
226
588576
1729
아무 말도 하지 않았죠.
09:50
After a kind of long, awkward period of time,
227
590329
3372
아주 길고 어색한 침묵이 끝나고
09:53
Steve broke the silence.
228
593725
2188
스티브가 말문을 열었습니다.
09:55
SR: "Did that just work?"
229
595937
2317
"우리 정말 성공한거야?"
09:58
XL: "Yes," I said. "Indeed it worked!"
230
598278
2950
제가 말했죠. "응, 정말로 성공한거야!"
10:01
We're really excited about this.
231
601252
2093
정말 짜릿한 순간이었죠.
10:03
And then we published our findings
232
603369
2600
그리고 저희는 그 연구 결과를
10:05
in the journal Nature.
233
605993
1672
"네이처" 지에 발표했습니다.
10:07
Ever since the publication of our work,
234
607689
2447
그 결과가 발표되고 나서
10:10
we've been receiving numerous comments
235
610160
2391
인터넷을 통해 아주 많은 의견을
10:12
from all over the Internet.
236
612575
2101
듣게 되었습니다.
10:14
Maybe we can take a look at some of those.
237
614700
3726
그 중에서 몇 개를 살펴보도록 하죠.
10:18
["OMGGGGG FINALLY... so much more to come, virtual reality, neural manipulation, visual dream emulation... neural coding, 'writing and re-writing of memories', mental illnesses. Ahhh the future is awesome"]
238
618450
2433
["으아아악 드디어... 앞으로 또 어떤 일이 일어날지, 가상 현실, 신경 조작, 꿈의 비주얼 에뮬레이션, 신경 부호화, '기억 형성과 조작 ', 정신 질환... 와, 미래가 기대되네요"]
10:20
SR: So the first thing that you'll notice is that people
239
620907
1976
여기서 가장 먼저 눈에 띄는 것은
10:22
have really strong opinions about this kind of work.
240
622907
2879
사람들이 이러한 실험에 폭발적인 반응을 보인다는 것입니다.
10:25
Now I happen to completely agree with the optimism
241
625810
2530
저도 이 분의 낙관적인 의견에
10:28
of this first quote,
242
628364
792
전적으로 동의합니다.
10:29
because on a scale of zero to Morgan Freeman's voice,
243
629180
2784
0부터 신의 영역까지 그 정도를 측정한다면
10:31
it happens to be one of the most evocative accolades
244
631988
2477
이 분의 의견은 우리의 의지를 불태우는 가장 애정어린 격려 중 하나였거든요.
10:34
that I've heard come our way.
245
634489
1526
지금까지 저희가 받은 것 중에서는요.
(관객 웃음)
10:36
(Laughter)
246
636039
1794
10:37
But as you'll see, it's not the only opinion that's out there.
247
637857
1927
여러분들도 곧 보시겠지만 이 분 외에도 많은 분들이 의견을 보내주셨어요.
10:39
["This scares the hell out of me... What if they could do that easily in humans in a couple of years?! OH MY GOD WE'RE DOOMED"]
248
639808
1540
["정말 무서운 소식이네요... 만약 이 기술이 1~2년 내에 인간에게도 적용 가능해지면 어쩌죠? 완전 망했다 "]
10:41
XL: Indeed, if we take a look at the second one,
249
641372
2286
맞는 말이네요, 이 두 번째 의견은.
10:43
I think we can all agree that it's, meh,
250
643682
2083
아까처럼 긍정적이지만은 않다는걸
10:45
probably not as positive.
251
645789
1959
우리 모두 알 수 있습니다.
10:47
But this also reminds us that,
252
647772
2161
하지만 여기서 중요한 것은
10:49
although we are still working with mice,
253
649957
2162
비록 지금은 실험쥐로 연구 중이지만
10:52
it's probably a good idea to start thinking and discussing
254
652143
3493
인간의 기억 조작에 대한 윤리와 그 파급 효과를
10:55
about the possible ethical ramifications
255
655660
2967
진지하게 고민해 보는 것도
10:58
of memory control.
256
658651
1924
좋은 생각이라는 거죠.
11:00
SR: Now, in the spirit of the third quote,
257
660599
2176
그리고 세 번째 의견과 관련하여
11:02
we want to tell you about a recent project that we've been
258
662799
1950
저희가 최근에 진행하고 있는 실험에 대해 말씀드리겠습니다.
11:04
working on in lab that we've called Project Inception.
259
664773
2572
인셉션 프로젝트라는 것인데요.
11:07
["They should make a movie about this. Where they plant ideas into peoples minds, so they can control them for their own personal gain. We'll call it: Inception."]
260
667369
3219
["이런 건 영화로 만들어야 해요 . 사람의 이성에 생각을 주입해서 이를 통해 개선될 수 있게요. 이를 "인셉션"이라고 부르죠."]
11:10
So we reasoned that now that we can reactivate a memory,
261
670612
3542
이제 기억을 되살릴 수 있다는 것이 논리적으로 증명되었으니
11:14
what if we do so but then begin to tinker with that memory?
262
674178
2928
이제 되살린 기억을 조금 손보는 것은 어떨까요?
11:17
Could we possibly even turn it into a false memory?
263
677130
3009
가짜 기억을 만들 수도 있을까요?
11:20
XL: So all memory is sophisticated and dynamic,
264
680163
4075
모든 기억은 몹시 정교하고 동적이지만
11:24
but if just for simplicity, let's imagine memory
265
684262
2955
간단하게 설명하기 위해
11:27
as a movie clip.
266
687241
1378
기억을 한 편의 영화라고 해보죠.
11:28
So far what we've told you is basically we can control
267
688643
2646
지금까지 저희가 말씀드린 내용은 영화의 "재생" 버튼을
11:31
this "play" button of the clip
268
691313
1907
조작하는 방법이었습니다.
11:33
so that we can play this video clip any time, anywhere.
269
693244
4561
이를 통해 언제 어디서든 영화를 볼 수 있죠.
11:37
But is there a possibility that we can actually get
270
697829
2507
그렇지만 우리가 실제로 뇌 안으로 들어가서
11:40
inside the brain and edit this movie clip
271
700360
2836
이 영화를 편집하는 것도 가능할까요?
11:43
so that we can make it different from the original?
272
703220
2872
원본과는 다른 영화를 만드는 것도?
11:46
Yes we can.
273
706116
2154
네, 가능합니다.
11:48
Turned out that all we need to do is basically
274
708294
2191
알고 보니 우리가 할 일은 간단하더군요.
11:50
reactivate a memory using lasers just like we did before,
275
710509
4166
전에 하던 대로 레이저를 이용해 기억을 되살리면서
11:54
but at the same time, if we present new information
276
714699
3415
동시에 새로운 정보를 주입하여
11:58
and allow this new information to incorporate into this old memory,
277
718138
3950
이를 원래의 기억에 결합시킨다면
12:02
this will change the memory.
278
722112
2414
기억이 변화되겠죠.
12:04
It's sort of like making a remix tape.
279
724550
3639
나만의 리믹스로 노래 테이프를 만들듯이요.
12:08
SR: So how do we do this?
280
728213
2834
그럼 어떻게 시작해야 할까요?
12:11
Rather than finding a fear memory in the brain,
281
731071
1933
이젠 뇌 속에서 공포의 기억을 찾지 않고
12:13
we can start by taking our animals,
282
733028
1692
우선 실험용 동물을 데려다가
12:14
and let's say we put them in a blue box like this blue box here
283
734744
2953
여기 보이는 파란 상자와 같은 상자에 넣어봅시다.
12:17
and we find the brain cells that represent that blue box
284
737721
2623
그리고 이 파란 상자에 대한 기억을 담당하는 뇌세포를 찾아서
12:20
and we trick them to respond to pulses of light
285
740368
2239
이들이 빛의 파동에 반응하도록 조작하는 거죠.
12:22
exactly like we had said before.
286
742631
1710
조금 전에 말씀드린 바로 그 방법 그대로입니다.
12:24
Now the next day, we can take our animals and place them
287
744365
2100
그리고 그 다음 날 실험쥐를 데려다
12:26
in a red box that they've never experienced before.
288
746489
2675
이들이 한번도 본 적 없는 빨간 상자에 넣어보는 겁니다.
12:29
We can shoot light into the brain to reactivate
289
749188
2239
그리고 기억을 되살리기 위해 뇌에 레이저를 쏘는거죠.
12:31
the memory of the blue box.
290
751451
1848
이전의 그 파란 상자에 대한 기억을 불러오기 위해서요.
12:33
So what would happen here if, while the animal
291
753323
1720
그렇다면 실험쥐가
12:35
is recalling the memory of the blue box,
292
755067
1905
파란 상자에 대한 기억을 되살리는 동안
12:36
we gave it a couple of mild foot shocks?
293
756996
2584
발에 약한 충격을 몇 번 가한다면 어떻게 될까요?
12:39
So here we're trying to artificially make an association
294
759604
2669
여기서 저희가 얻고자 하는 것은
12:42
between the memory of the blue box
295
762297
1891
파란 상자에 대한 기억과 발에 가해진 충격을
12:44
and the foot shocks themselves.
296
764212
1479
인위적으로 연관짓는 것입니다.
12:45
We're just trying to connect the two.
297
765715
1762
단순히 둘을 연결시키는 것이죠.
12:47
So to test if we had done so,
298
767501
1512
그리고 그 실험이 성공했는지 확인하기 위해
12:49
we can take our animals once again
299
769037
1304
실험쥐를 데려다가
12:50
and place them back in the blue box.
300
770365
1922
다시 그 파란 상자에 넣는 겁니다.
12:52
Again, we had just reactivated the memory of the blue box
301
772311
2715
저희가 파란 상자에 대한 기억을 되살리는 동안
12:55
while the animal got a couple of mild foot shocks,
302
775050
2381
쥐의 발에 약한 충격을 가했었죠.
12:57
and now the animal suddenly freezes.
303
777455
2107
쥐가 이제 공포 반응을 보이기 시작합니다.
12:59
It's as though it's recalling being mildly shocked in this environment
304
779586
3334
마치 발에 가해진 충격이 이 곳에서 일어난 것처럼요.
13:02
even though that never actually happened.
305
782944
2822
실제로 일어나지 않은 일인데도 말이죠.
13:05
So it formed a false memory,
306
785790
1838
가짜 기억이 형성된 것입니다.
13:07
because it's falsely fearing an environment
307
787652
2048
왜냐하면 이 쥐가 두려워하는 그 환경에선
13:09
where, technically speaking,
308
789724
1334
정확하게 말하자면
아무런 나쁜 일도 일어나지 않았으니까요.
13:11
nothing bad actually happened to it.
309
791082
2160
13:13
XL: So, so far we are only talking about
310
793266
2429
지금까지 말씀드린 내용은
13:15
this light-controlled "on" switch.
311
795719
2342
스위치의 "켜는" 기능이었습니다.
13:18
In fact, we also have a light-controlled "off" switch,
312
798085
3264
하지만 저희는 "끄는" 기능의 스위치도 설치할 수 있습니다.
13:21
and it's very easy to imagine that
313
801373
2056
그리고 이 "끄는" 스위치를 설치하여
13:23
by installing this light-controlled "off" switch,
314
803453
2454
언제 어디서든 기억을 끌 수 있다는 것도
13:25
we can also turn off a memory, any time, anywhere.
315
805931
5564
쉽게 상상하실 수 있겠죠.
13:31
So everything we've been talking about today
316
811519
2190
즉 저희가 오늘 말씀드린 내용은
13:33
is based on this philosophically charged principle of neuroscience
317
813733
4653
철학적인 논쟁이 주를 이루었던 신경과학의 원리에 바탕을 두고 있습니다.
13:38
that the mind, with its seemingly mysterious properties,
318
818410
4094
즉 이성은 겉으로는 신비롭게 보이지만 실제로는 우리가 조작 가능한
13:42
is actually made of physical stuff that we can tinker with.
319
822528
3621
물리적인 실체라는 것입니다.
13:46
SR: And for me personally,
320
826173
1451
저는 개인적으로
13:47
I see a world where we can reactivate
321
827648
1762
우리가 원하는 어떤 기억이든
13:49
any kind of memory that we'd like.
322
829434
1887
다시 불러올 수 있는 세상이 가능하다고 생각합니다.
13:51
I also see a world where we can erase unwanted memories.
323
831345
3274
원치 않는 기억은 지워버리는 것도요.
13:54
Now, I even see a world where editing memories
324
834643
2143
심지어 기억의 조작이
13:56
is something of a reality,
325
836810
1284
현실의 일부가 된 세상도 가능하다고 봅니다.
13:58
because we're living in a time where it's possible
326
838118
1681
현재 우리가 살고 있는 세상에서는
13:59
to pluck questions from the tree of science fiction
327
839823
2429
공상 과학 소설에서 유래된 질문을
14:02
and to ground them in experimental reality.
328
842276
2168
실제 실험을 통해 정당화할 수 있으니까요.
14:04
XL: Nowadays, people in the lab
329
844468
1859
오늘날.
14:06
and people in other groups all over the world
330
846351
2362
전세계의 많은 실험실과 연구 단체가
14:08
are using similar methods to activate or edit memories,
331
848737
3793
기억을 활성화, 재편집하기 위해 비슷한 방법을 이용하고 있습니다.
14:12
whether that's old or new, positive or negative,
332
852554
3817
오랜 기억, 새 기억 좋은 기억, 나쁜 기억
14:16
all sorts of memories so that we can understand
333
856395
2648
모든 종류의 기억을 대상으로 우리가 기억의 원리를
14:19
how memory works.
334
859067
1840
이해할수 있도록 돕는 것이죠.
14:20
SR: For example, one group in our lab
335
860931
1760
예를 들면 저희 실험실의 한 팀에서는
14:22
was able to find the brain cells that make up a fear memory
336
862715
2614
무서운 기억을 만드는 뇌세포를 찾아
14:25
and converted them into a pleasurable memory, just like that.
337
865353
2751
이를 즐거운 기억으로 바꾸는데 성공했습니다.
14:28
That's exactly what I mean about editing these kinds of processes.
338
868128
3143
제가 말씀드린 것이 바로 이러한 편집의 과정입니다
14:31
Now one dude in lab was even able to reactivate
339
871295
2239
그리고 또다른 연구원은 암컷 쥐의 기억을
14:33
memories of female mice in male mice,
340
873558
1921
수컷 쥐의 뇌에 불러오기도 했어요.
14:35
which rumor has it is a pleasurable experience.
341
875503
2971
무척 흥미로운 기억이었다고들 하더군요.
14:38
XL: Indeed, we are living in a very exciting moment
342
878498
4093
그러므로 우리가 사는 이 세상은
14:42
where science doesn't have any arbitrary speed limits
343
882615
3781
더이상 과학의 속도가 무제한이 아니라
14:46
but is only bound by our own imagination.
344
886420
3163
우리 상상력으로 제어할 수 있는 신기한 곳이 되었습니다.
14:49
SR: And finally, what do we make of all this?
345
889607
2143
이 모든 것을 통해 알 수 있는 것은 무엇일까요?
14:51
How do we push this technology forward?
346
891774
1927
이 기술을 더 발전시키려면 어떡해야 할까요?
14:53
These are the questions that should not remain
347
893725
2191
이러한 질문은 실험실에서만 머물러서는
14:55
just inside the lab,
348
895940
1273
안 될 것입니다.
14:57
and so one goal of today's talk was to bring everybody
349
897237
2572
오늘 저희 이야기의 궁극적인 목표는
14:59
up to speed with the kind of stuff that's possible
350
899833
2381
현대 신경과학 영역에서 가능해진 이러한 최신 정보들을
15:02
in modern neuroscience,
351
902238
1250
여러분께 전달하는 것입니다.
15:03
but now, just as importantly,
352
903512
1486
하지만 이와 마찬가지로 중요한 것은
15:05
to actively engage everybody in this conversation.
353
905022
3308
여러분도 저희와 함께해 주셨으면 좋겠습니다.
15:08
So let's think together as a team about what this all means
354
908354
2762
우리 모두가 하나의 큰 팀을 구성하여 이 연구가 가지는 의미와
앞으로 나아갈 길을 같이 의논하는거죠.
15:11
and where we can and should go from here,
355
911140
1993
15:13
because Xu and I think we all have
356
913157
2074
쉬와 제가 생각하기로는 앞으로도 많은 의문이
15:15
some really big decisions ahead of us.
357
915255
2512
우리를 기다리고 있을 것 같거든요.
15:17
Thank you. XL: Thank you.
358
917791
1101
고맙습니다. 쉬: 고맙습니다.
15:18
(Applause)
359
918916
1634
(박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7