아래 영문자막을 더블클릭하시면 영상이 재생됩니다.
번역: Yoonyoung Chang
검토: TJ Kim
00:13
I want to tell you guys
something about neuroscience.
0
13040
2507
신경과학에 관해 얘기해 볼까 합니다.
00:16
I'm a physicist by training.
1
16040
1800
저는 물리학자인데요.
00:18
About three years ago, I left physics
2
18230
2206
3년 전 쯤, 물리학은 그만두고
00:20
to come and try to understand
how the brain works.
3
20460
2349
뇌가 어떻게 움직이는지
연구하기 시작했어요.
00:22
And this is what I found.
4
22833
1474
그리고 알게 됐죠.
00:24
Lots of people are working on depression.
5
24331
2064
많은 사람들이 우울증에
대해 연구한다는 사실을요.
00:26
And that's really good,
6
26419
1159
다행이에요.
00:27
depression is something
that we really want to understand.
7
27602
2721
다들 우울증에 대해
정말 잘 알고 싶어 하니까요.
00:30
Here's how you do it:
8
30347
1167
이렇게 해보죠.
00:31
you take a jar and you fill it up,
about halfway, with water.
9
31538
4161
병에 물을 반 정도 채웁니다.
00:35
And then you take a mouse,
and you put the mouse in the jar, OK?
10
35723
4182
그리고 그 안에 쥐를 넣습니다,
알겠죠?
00:39
And the mouse swims around
for a little while
11
39929
2350
그러면 그 쥐는 한동안 버둥거리다가
00:42
and then at some point,
the mouse gets tired
12
42303
2388
어느 순간, 지쳐 버리고
00:44
and decides to stop swimming.
13
44715
1934
그만 헤엄치기를 포기합니다.
00:46
And when it stops swimming,
that's depression.
14
46673
3133
바로 우울증 때문에
헤엄치기를 멈추는 거예요.
00:50
OK?
15
50696
1150
아시겠죠?
00:52
And I'm from theoretical physics,
16
52291
3380
저는 이론 물리학을 전공했고
00:55
so I'm used to people making
very sophisticated mathematical models
17
55695
3668
물리 현상의 정확한 이해를 위해
복잡한 수학 공식을 다루는
00:59
to precisely describe physical phenomena,
18
59387
2881
사람들에 익숙해서 그런지
01:02
so when I saw that this
is the model for depression,
19
62292
2452
우울증을 묘사하는 이 그림을 보고는
이런 생각이 들었어요.
01:04
I though to myself, "Oh my God,
we have a lot of work to do."
20
64768
2937
"와, 진짜 할 일이 많구나."
01:07
(Laughter)
21
67729
1370
(웃음)
01:09
But this is a kind of general
problem in neuroscience.
22
69123
2951
그런데 신경과학에선
좀 일반적인 문제입니다.
01:12
So for example, take emotion.
23
72377
2111
감정을 예로 들어 보죠.
01:14
Lots of people want to understand emotion.
24
74512
2459
많은 사람들이 감정에 대해
이해하고 싶어합니다.
01:17
But you can't study emotion
in mice or monkeys
25
77352
3313
하지만 쥐나 원숭이를 통해
감정을 연구할 순 없어요.
01:20
because you can't ask them
26
80689
1254
걔들한테 물어볼 수가 없잖아요.
01:21
how they're feeling
or what they're experiencing.
27
81967
2317
기분이 어떤지, 뭐를 느끼는지 등이요.
01:24
So instead, people who want
to understand emotion,
28
84308
2357
그래서 대신, 감정에 대해
알고 싶은 사람들이
01:26
typically end up studying
what's called motivated behavior,
29
86689
2777
결국 연구하게 되는 건
동기가 부여된 행동인데
01:29
which is code for "what the mouse does
when it really, really wants cheese."
30
89490
3658
"치즈에 환장한 쥐가 하는 짓"의
고상한 표현이죠.
01:33
OK, I could go on and on.
31
93839
1675
자, 이런 얘기엔 끝이 없습니다.
01:35
I mean, the point is, the NIH
spends about 5.5 billion dollars a year
32
95538
6316
제 말은 미 국립보건원(NIH)에서
매년 약 55억 불을
01:41
on neuroscience research.
33
101878
1532
신경과학의 연구에 쏟아붓지만
01:43
And yet there have been almost
no significant improvements in outcomes
34
103434
3603
뇌 질환 환자들을 위한 의미있는 결과는
01:47
for patients with brain diseases
in the past 40 years.
35
107061
3491
지난 40년 동안
별로 없었다는 사실입니다.
01:51
And I think a lot of that
is basically due to the fact
36
111015
2540
기본적으로 다음 사실들에서
많은 이유를 찾아볼 수 있어요.
01:53
that mice might be OK as a model
for cancer or diabetes,
37
113579
4151
암이나 당뇨병 연구에
쥐를 이용할 수도 있겠지만,
01:57
but the mouse brain
is just not sophisticated enough
38
117754
2687
쥐의 뇌는 인간의 심리나 뇌 질환을
02:00
to reproduce human psychology
or human brain disease.
39
120465
3175
재현해 낼 정도로 정교하지 않습니다.
02:04
OK?
40
124379
1225
아시겠죠?
02:05
So if the mouse models are so bad,
why are we still using them?
41
125628
3634
그럼 이렇게 별 쓸모없는 쥐를
왜 여전히 실험에 쓰는 걸까요?
02:10
Well, it basically boils down to this:
42
130143
2103
결국 이렇게 정리됩니다:
02:12
the brain is made up of neurons
43
132270
2556
뇌는 뉴런이라고 하는
02:14
which are these little cells that send
electrical signals to each other.
44
134850
3447
전기신호를 주고 받는
작은 신경세포들로 만들어 지죠.
02:18
If you want to understand
how the brain works,
45
138680
2144
뇌가 어떻게 움직이는지 알고 싶다면
02:20
you have to be able to measure
the electrical activity of these neurons.
46
140848
3808
이 신경세포들의 전기활동을
측정할 수 있어야 합니다.
02:25
But to do that, you have to get
really close to the neurons
47
145339
2992
그러기 위해선, 이 신경세포들을
아주 자세히 살펴봐야 하는데,
02:28
with some kind of electrical
recording device or a microscope.
48
148355
2928
전기신호 기록 장치나
현미경 등을 사용하겠죠.
02:31
And so you can do that in mice
and you can do it in monkeys,
49
151563
2810
쥐나 원숭이에게는 사용이 가능한데
02:34
because you can physically
put things into their brain
50
154397
2548
이런 장비들을 직접
뇌 속에 넣을 수 있으니까요.
02:36
but for some reason we still
can't do that in humans, OK?
51
156969
3046
하지만 여전히 인간에게는
사용할 수 없습니다. 아시죠?
02:40
So instead, we've invented
all these proxies.
52
160533
3370
그 대신, 대체 장비들이
여럿 개발됩니다.
02:43
So the most popular one is probably this,
53
163927
2515
아마도 가장 흔하게 사용되는 건
02:46
functional MRI, fMRI,
54
166466
2397
기능적 뇌자기공명영상,
fMRI 입니다.
02:48
which allows you to make these
pretty pictures like this,
55
168887
2692
이렇게 예쁜 그림도 나오네요.
02:51
that show which parts
of your brain light up
56
171603
2056
여러가지 다양한 활동을 할 때
02:53
when you're engaged
in different activities.
57
173683
2126
뇌가 반응하는 부분을
빛으로 보여줍니다.
02:55
But this is a proxy.
58
175833
1920
하지만 이건 대체 장비일 뿐이죠.
02:57
You're not actually measuring
neural activity here.
59
177777
3292
실제로 신경활동을
측정하는 것이 아니니까요.
03:01
What you're doing
is you're measuring, essentially,
60
181093
2842
결국 측정되는 건
03:03
like, blood flow in the brain.
61
183959
1832
뇌 속의 혈액순환 같은 거죠.
03:05
Where there's more blood.
62
185815
1238
피가 더 많이 몰리는 곳이요.
03:07
It's actually where there's more oxygen,
but you get the idea, OK?
63
187077
3103
사실 산소가 더 많은 건데,
무슨 말인지 다들 아시죠?
03:10
The other thing that you can do
is you can do this --
64
190204
2519
또 이런 것도 있어요.
03:12
electroencephalography -- you can put
these electrodes on your head, OK?
65
192747
3591
뇌파 전위 기록술이라는,
머리에 쓰는 이런 전극 아시죠?
03:16
And then you can measure your brain waves.
66
196362
2143
뇌파를 측정하는 장치입니다.
03:19
And here, you're actually measuring
electrical activity.
67
199125
3079
이렇게 하면, 실제로
전기활동을 측정할 수 있지만,
03:22
But you're not measuring
the activity of neurons.
68
202228
2365
신경세포들의 움직임은
알수가 없습니다.
03:24
You're measuring
these electrical currents,
69
204911
2444
단지 뇌 안에서 전류들이
03:27
sloshing back and forth in your brain.
70
207379
2299
앞뒤로 출렁거리는 것을
측정할 뿐이에요.
03:30
So the point is just
that these technologies that we have
71
210157
2674
그러니까 요점은,
우리가 사용하는 이런 기술들은
03:32
are really measuring the wrong thing.
72
212855
2436
아주 엉뚱한 것들을
측정한다는 것입니다.
03:35
Because, for most of the diseases
that we want to understand --
73
215315
2953
왜냐면, 우리가 알고 싶은
질병의 대부분은
03:38
like, Parkinson's is the classic example.
74
218292
2198
파킨슨병이 대표적인데요,
03:40
In Parkinson's, there's one particular
kind of neuron deep in your brain
75
220514
3554
뇌 속 깊은 곳에 있는
이 파킨슨병의 주요 원인인
03:44
that is responsible for the disease,
76
224092
1731
특정 신경세포 하나를
03:45
and these technologies just don't have
the resolution that you need
77
225847
3182
현재의 기술로는 제대로 된 연구조차
03:49
to get at that.
78
229053
1373
할 수 가 없습니다.
03:50
And so that's why
we're still stuck with the animals.
79
230450
3974
그래서 동물들을
실험에 쓸 수 밖에 없죠.
03:54
Not that anyone wants
to be studying depression
80
234448
2533
누구든 이런 방식으로
우울증을 연구하고 싶진 않을 거예요.
03:57
by putting mice into jars, right?
81
237005
2262
쥐를 병 속에 넣으면서 말이죠,
맞나요?
03:59
It's just that there's this pervasive
sense that it's not possible
82
239291
3753
일반적으로 많은 사람들이
건강한 사람들의
04:03
to look at the activity of neurons
in healthy humans.
83
243068
3847
신경세포 활동을 관찰하는 건
불가능하다고 생각합니다.
04:08
So here's what I want to do.
84
248180
1492
그럼 이렇게 해볼까요.
04:09
I want to take you into the future.
85
249974
2521
저와 함께 미래로 가시죠.
04:12
To have a look at one way in which
I think it could potentially be possible.
86
252519
4482
제 생각에 가능할 것 같은
방법 하나가 있거든요.
04:17
And I want to preface this by saying,
I don't have all the details.
87
257526
3298
아직 구체적인 건 아니라고
먼저 말씀드릴게요.
04:21
So I'm just going to provide you
with a kind of outline.
88
261272
2967
그러니까 대략 윤곽만
보여 드리려고 합니다.
04:24
But we're going to go the year 2100.
89
264263
2400
자, 2100년으로 갑니다.
04:27
Now what does the year 2100 look like?
90
267732
2299
2100년엔 세상이 어떨까요?
04:30
Well, to start with, the climate
is a bit warmer that what you're used to.
91
270055
3518
우선, 기후가 지금보다는
좀 더 더워 지겠죠.
04:33
(Laughter)
92
273597
3583
(웃음)
04:37
And that robotic vacuum cleaner
that you know and love
93
277204
4952
여러분들이 아끼는
이 로봇 진공청소기는
04:42
went through a few generations,
94
282180
1514
몇 세대를 거치며 발전하지만,
04:43
and the improvements
were not always so good.
95
283718
2843
그 결과가 항상 좋지만은 않을 거예요.
04:46
(Laughter)
96
286585
1595
(웃음)
04:48
It was not always for the better.
97
288530
2310
발전이란 게 항상 좋은 건 아니에요.
04:52
But actually, in the year 2100
most things are surprisingly recognizable.
98
292221
4538
사실 뜻밖에, 2100년에도 우리에게
익숙한 것들이 대부분일 거예요.
04:57
It's just the brain is totally different.
99
297458
2734
하지만 뇌에 관해선
얘기가 완전히 달라집니다.
05:00
For example, in the year 2100,
100
300740
2547
예를 들어, 2100년에는
05:03
we understand the root causes
of Alzheimer's.
101
303311
2857
알츠하이머병의
근본 원인을 밝혀 내죠.
05:06
So we can deliver targeted
genetic therapies or drugs
102
306192
3714
그래서 유전자 표적치료나
약물치료가 가능해 지는데,
05:09
to stop the degenerative process
before it begins.
103
309930
2876
퇴행 과정이 시작되기도 전에
막는 겁니다.
05:13
So how did we do it?
104
313629
1333
어떻게 가능했을까요?
05:15
Well, there were essentially three steps.
105
315898
2238
기본적으로 세 단계를 거쳤어요.
05:18
The first step was
that we had to figure out
106
318589
2814
첫 단계로,
05:21
some way to get electrical
connections through the skull
107
321427
3293
두개골을 통해 전기 장치를 연결해
05:24
so we could measure
the electrical activity of neurons.
108
324744
3015
신경세포들의 전기 활동을
측정하는 법을 찾아야 했죠.
05:28
And not only that,
it had to be easy and risk-free.
109
328339
4349
뿐만 아니라, 사용하기 쉽고,
안전해야 했습니다.
05:32
Something that basically anyone
would be OK with,
110
332712
2378
말하자면, 누구라도
부담없이 받을 수 있는
05:35
like getting a piercing.
111
335114
1600
피어싱 같아야 했죠.
05:37
Because back in 2017,
112
337156
2747
왜냐면, 과거 2017년에는,
05:39
the only way that we knew of
to get through the skull
113
339927
2913
두개골 안을 볼 수 있는 유일한 방법은
05:42
was to drill these holes
the size of quarters.
114
342864
2817
25센트 동전만한 크기의
구멍을 뚫어야 했거든요.
05:46
You would never let
someone do that to you.
115
346015
2039
누가 그렇게 하게 두겠어요.
05:48
So in the 2020s,
116
348967
2253
그래서 2020년대에 들어
05:51
people began to experiment --
rather than drilling these gigantic holes,
117
351244
3381
실험하기 시작한 것은
이렇게 엄청나게 큰 구멍을
05:54
drilling microscopic holes,
no thicker than a piece of hair.
118
354649
3115
머리카락만큼 얇고 미세한
구멍으로 대체하는 것이었죠.
05:58
And the idea here
was really for diagnosis --
119
358735
2096
실제 진단용으로 나온 아이디어였어요.
06:00
there are lots of times in the diagnosis
of brain disorders
120
360855
2786
뇌 질환을 진단하려면
오랜 시간이 걸리는데,
06:03
when you would like to be able to look
at the neural activity beneath the skull
121
363665
4872
두개골 속 신경세포들의 움직임을
06:08
and being able to drill
these microscopic holes
122
368561
3191
이런 미세한 구멍을 통해
관찰할 수 있어서,
06:11
would make that much easier
for the patient.
123
371776
2142
환자들이 훨씬 편해 했어요.
06:13
In the end, it would be
like getting a shot.
124
373942
2349
결국, 주사 한대 맞는 것 같았어요.
06:16
You just go in and you sit down
125
376315
1580
그냥 들어가 앉아 있으면,
06:17
and there's a thing
that comes down on your head,
126
377919
2301
머리 위로 뭔가 내려와,
06:20
and a momentary sting and then it's done,
127
380244
1953
순간 따끔 한번하면 끝이죠.
06:22
and you can go back about your day.
128
382221
1864
그리고 일상으로 돌아갑니다.
06:24
So we're eventually able to do it
129
384736
4793
그래서 결국 개발된 것이
06:29
using lasers to drill the holes.
130
389553
2667
레이저 천공술입니다.
06:32
And with the lasers,
it was fast and extremely reliable,
131
392244
2620
레이저는 속도가 빠르고,
매우 안정적이며,
06:34
you couldn't even tell
the holes were there,
132
394888
2213
흔적조차 남기지 않습니다.
06:37
any more than you could tell
that one of your hairs was missing.
133
397125
3000
머리카락 하나 빠진 느낌 같겠죠.
06:40
And I know it might sound crazy,
using lasers to drill holes in your skull,
134
400753
4738
레이저로 머리에 구멍을 낸다니,
정신없는 소리라는 것 저도 압니다.
06:45
but back in 2017,
135
405515
1366
하지만 과거 2017년에도,
06:46
people were OK with surgeons
shooting lasers into their eyes
136
406905
4109
의사들이 별 대수롭지 않게
눈에 레이저를 쐈거든요.
06:51
for corrective surgery
137
411038
1214
시력교정수술 말이죠.
06:52
So when you're already here,
it's not that big of a step.
138
412276
3887
그러니까 그렇게 큰 도약은 아니네요.
06:57
OK?
139
417561
1151
그렇죠?
06:58
So the next step,
that happened in the 2030s,
140
418736
3571
다음 단계는 2030년대로 올라 가는데
07:02
was that it's not just about
getting through the skull.
141
422331
3086
이제는 두개골 관통에만
그치지 않습니다.
07:05
To measure the activity of neurons,
142
425441
1700
신경세포 활동을 측정하려면,
07:07
you have to actually make it
into the brain tissue itself.
143
427165
3825
실제로 뇌 조직 자체를
들여다 봐야 하는데,
07:11
And the risk, whenever
you put something into the brain tissue,
144
431344
2968
뇌 조직에 손을 대는 건
아주 위험한 일이죠.
07:14
is essentially that of stroke.
145
434336
1439
뇌졸중이 올 수 있으니까요.
07:15
That you would hit
a blood vessel and burst it,
146
435799
2196
혈관을 건드려 터지면
07:18
and that causes a stroke.
147
438019
1519
발작이 일어나잖아요.
07:19
So, by the mid 2030s,
we had invented these flexible probes
148
439916
3725
그래서, 2030년대 중반에
아주 유연한 탐침을 개발해
07:23
that were capable of going
around blood vessels,
149
443665
2278
혈관을 건드리지 않고, 주변을 돌며
07:25
rather than through them.
150
445967
1476
이동이 가능해 집니다.
07:27
And thus, we could put
huge batteries of these probes
151
447467
5697
이 탐침에 성능이 좋은 전지까지 장착해
07:33
into the brains of patients
152
453188
1357
환자들 뇌 속에 삽입하면
07:34
and record from thousands of their neurons
without any risk to them.
153
454569
3270
수 천개 신경세포들의 활동을
별 문제없이 기록할 수 있습니다.
07:39
And what we discovered,
sort of to our surprise,
154
459458
4061
그런데, 조금 놀라웠던 건,
07:43
is that the neurons that we could identify
155
463543
2190
우리가 알고 있는
신경세포들은
07:45
were not responding
to things like ideas or emotion,
156
465757
3524
아이디어나 감정에
반응하지 않는다는 것이었어요.
07:49
which was what we had expected.
157
469305
1627
예상과 달랐죠.
07:50
They were mostly responding
to things like Jennifer Aniston
158
470956
3796
대부분 반응을 보였던 것들은
제니퍼 애니스턴
07:54
or Halle Berry
159
474776
2404
할리 베리
07:57
or Justin Trudeau.
160
477204
1310
또 저스틴 트뤼도 같은
사람들이었습니다.
07:58
I mean --
161
478538
1253
그러니까
07:59
(Laughter)
162
479815
2326
(웃음)
08:02
In hindsight, we shouldn't
have been that surprised.
163
482165
2437
알고 보면,
그렇게 놀랄 일도 아니네요.
08:04
I mean, what do your neurons
spend most of their time thinking about?
164
484626
3262
도대체, 여러분들의 신경세포들은
주로 무슨 생각을 하는 겁니까?
08:07
(Laughter)
165
487912
1150
(웃음)
08:09
But really, the point is that
166
489380
2040
여기서 꼭 기억할 것은
08:11
this technology enabled us to begin
studying neuroscience in individuals.
167
491444
4430
인간을 통한 신경과학의 연구가
가능해 졌다는 사실입니다.
08:15
So much like the transition to genetics,
at the single cell level,
168
495898
4230
단세포 연구의 수준에서,
유전학으로까지 발전한 것처럼,
08:20
we started to study neuroscience,
at the single human level.
169
500152
3206
이제 신경과학을 개개인에 맞춰
연구하기 시작한 거죠.
08:23
But we weren't quite there yet.
170
503890
1618
하지만 아직 멀었습니다.
08:25
Because these technologies
171
505895
1642
왜냐면 이런 기술들은
08:27
were still restricted
to medical applications,
172
507561
3056
의료용으로 쓰기엔 여전히 제약이 많은데
08:30
which meant that we were studying
sick brains, not healthy brains.
173
510641
3391
건강한 뇌가 아닌 병든 뇌를 가지고
연구하기 때문이죠.
08:35
Because no matter how safe
your technology is,
174
515235
3754
아무리 그 기술이 안전해도,
08:39
you can't stick something
into someone's brain
175
519013
2730
사람의 뇌 속에 아무거나
넣을 수는 없으니까요.
08:41
for research purposes.
176
521767
1420
연구를 핑계로 말이죠.
08:43
They have to want it.
177
523211
1549
사람들이 원해야만 가능합니다.
08:44
And why would they want it?
178
524784
1460
그럼 사람들은 왜
이걸 원하게 될까요?
08:46
Because as soon as you have
an electrical connection to the brain,
179
526268
3571
뇌에 전기 장치를 달면
08:49
you can use it to hook
the brain up to a computer.
180
529863
2444
바로 컴퓨터에 연결할 수 있으니까요.
08:53
Oh, well, you know, the general public
was very skeptical at first.
181
533061
3429
알다시피, 일반 사람들은
처음엔 아주 회의적이었죠.
08:56
I mean, who wants to hook
their brain up to their computers?
182
536514
2869
그러니까, 누가 자기 뇌를
컴퓨터에 연결하려고 하겠어요?
08:59
Well just imagine being able
to send an email with a thought.
183
539926
4236
생각만으로 이메일을
보낼 수 있다고 상상해 보세요.
09:04
(Laughter)
184
544186
2253
(웃음)
09:06
Imagine being able to take
a picture with your eyes, OK?
185
546463
4500
눈으로 사진을 찍을 수 있다고
상상해 보세요, 알겠죠?
09:10
(Laughter)
186
550987
1230
(웃음)
09:12
Imagine never forgetting anything anymore,
187
552241
2963
더 이상 아무것도 잊어 버리지
않는다고 상상해 보세요.
09:15
because anything
that you choose to remember
188
555228
2159
기억하고 싶은 것이 있다면,
09:17
will be stored permanently
on a hard drive somewhere,
189
557411
2477
하드 드라이브 어딘가에
영구적으로 저장하고,
09:19
able to be recalled at will.
190
559912
2029
원할 때 다시 꺼내 보면 되잖아요.
09:21
(Laughter)
191
561965
3366
(웃음)
09:25
The line here
between crazy and visionary
192
565355
3381
미친 사람과 확실한 비전을 가진 사람은
09:28
was never quite clear.
193
568760
1467
종이 한 장 차이죠.
09:30
But the systems were safe.
194
570720
1857
결국 그 시스템은 안전했고
09:32
So when the FDA decided to deregulate
these laser-drilling systems, in 2043,
195
572879
5016
2043년, 미 식품의약국은
레이저 천공 시스템을 허가합니다.
09:37
commercial demand just exploded.
196
577919
2357
그 수요 또한
폭발적으로 늘어납니다.
09:40
People started signing their emails,
197
580300
1888
사람들은 이메일 서명을
이런 식으로 쓰기 시작하죠.
09:42
"Please excuse any typos.
198
582212
1341
"오타 양해 바람.
09:43
Sent from my brain."
199
583577
1333
뇌에서 보냄."
09:44
(Laughter)
200
584934
1001
(웃음)
09:45
Commercial systems
popped up left and right,
201
585959
2072
이제 여러 상업용 시스템들이
곳곳에서 소개됩니다.
09:48
offering the latest and greatest
in neural interfacing technology.
202
588055
3238
최신의 뇌 접속 기능을
보유하고 있는 것들이죠.
09:51
There were 100 electrodes.
203
591792
1753
전극이 수백 개
09:53
A thousand electrodes.
204
593569
1911
수천 개가 있습니다.
09:55
High bandwidth for only 99.99 a month.
205
595504
2476
한 달에 99불 정도면
고대역폭으로 이용할 수도 있어요.
09:58
(Laughter)
206
598004
1539
(웃음)
09:59
Soon, everyone had them.
207
599567
1534
곧, 누구나 이용이 가능했어요.
10:01
And that was the key.
208
601694
1571
바로 거기에 해법이 있었죠.
10:03
Because, in the 2050s,
if you were a neuroscientist,
209
603289
2923
왜냐면, 2050년대의 신경과학자라면
10:06
you could have someone come into your lab
essentially from off the street.
210
606236
3939
말하자면, 길을 가던
누구나 연구실로 불러,
10:10
And you could have them engaged
in some emotional task
211
610792
2864
어떤 과제를 주고
감정을 실험해 볼 수 있겠죠.
10:13
or social behavior or abstract reasoning,
212
613680
2437
혹은 사회적 행동이나 요약 추론 같이
10:16
things you could never study in mice.
213
616141
2531
쥐들을 통해선 절대
실험할 수 없는 것들이요.
10:18
And you could record
the activity of their neurons
214
618696
3111
그렇게 인간의 신경세포 활동을
기록하게 되는데,
10:21
using the interfaces
that they already had.
215
621831
3191
사람들이 이미 가지고 있는
접속 장치를 이용합니다.
10:25
And then you could also ask them
about what they were experiencing.
216
625046
3189
그리고 그들이 느끼고 있는
것들에 대한 질문도 가능하죠.
10:28
So this link between
psychology and neuroscience
217
628259
3349
이렇게 심리학과 신경과학의 연계가
어느새 가능해 집니다.
10:31
that you could never make
in the animals, was suddenly there.
218
631632
3381
동물실험으로는 불가능했던 것이죠.
10:35
So perhaps the classic example of this
219
635695
2184
아마 대표적인 예는
10:37
was the discovery
of the neural basis for insight.
220
637903
3523
통찰을 가능케 하는
신경 기반의 발견입니다.
10:41
That "Aha!" moment, the moment
it all comes together, it clicks.
221
641450
3600
"아하!" 하면서 모든게
맞아 떨어지는 순간 말이죠.
10:45
And this was discovered
by two scientists in 2055,
222
645593
4056
2055년, 두 과학자들에 의해
발견된 것이 있어요.
10:49
Barry and Late,
223
649673
1372
배리와 레이트죠.
10:51
who observed, in the dorsal
prefrontal cortex,
224
651069
3663
배측 전전두엽 피질에서
이들이 관찰한 건,
10:54
how in the brain of someone
trying to understand an idea,
225
654756
5222
뇌는 어떻게 생각을 이해하려고 하는지
11:00
how different populations of neurons
would reorganize themselves --
226
660002
3369
다른 개체군의 신경세포들은
어떻게 재편성 되는지 등인데,
11:03
you're looking at neural
activity here in orange --
227
663395
2436
신경활동이 일어나면 이렇게
주황색으로 빛이 납니다.
11:05
until finally their activity aligns
in a way that leads to positive feedback.
228
665855
3738
마침내 이렇게 의미있는 반응이
나타나게끔 정렬되기까지 말이죠.
11:10
Right there.
229
670339
1150
바로 저기.
11:12
That is understanding.
230
672723
1467
이해를 했다는 표시죠.
11:15
So finally, we were able to get
at the things that make us human.
231
675413
4437
결국, 우리를 인간답게 해주는
것들에 대해 알게 됩니다.
11:21
And that's what really opened the way
to major insights from medicine.
232
681871
4578
의학분야의 주요한 통찰로
가는 길을 열어줬어요.
11:27
Because, starting in the 2060s,
233
687465
2755
2060년대가 시작되면서
11:30
with the ability to record
the neural activity
234
690244
2484
이렇게 다양한 정신 질환 환자들의
11:32
in the brains of patients
with these different mental diseases,
235
692752
3587
뇌 신경 활동을
기록할 수 있었기 때문입니다.
11:36
rather than defining the diseases
on the basis of their symptoms,
236
696363
4690
증상에 따라 질병의 정의를 내리던
11:41
as we had at the beginning of the century,
237
701077
2040
세기 초와는 다르게
11:43
we started to define them
238
703141
1222
그 방법이
11:44
on the basis of the actual pathology
that we observed at the neural level.
239
704387
3539
신경계를 다루는 병리학에
기반을 두기 시작한 것이죠.
11:48
So for example, in the case of ADHD,
240
708768
3825
예를 들어, 주의력 결핍 장애는
11:52
we discovered that there are
dozens of different diseases,
241
712617
3174
수십 개의 다양한 질병으로
나뉜다는 걸 알게 됩니다.
11:55
all of which had been called ADHD
at the start of the century,
242
715815
3009
세기 초에는 모두 ADHD로 불렸죠.
11:58
that actually had nothing
to do with each other,
243
718848
2301
사실 서로 관련이 전혀 없고
12:01
except that they had similar symptoms.
244
721173
2118
증상만 비슷할 뿐인데요.
12:03
And they needed to be treated
in different ways.
245
723625
2372
치료 방법 또한 달라야 했죠.
12:06
So it was kind of incredible,
in retrospect,
246
726307
2247
그러니까 돌이켜 보면,
좀 믿기가 힘들어요.
12:08
that at the beginning of the century,
247
728578
1777
세기 초에는
12:10
we had been treating
all those different diseases
248
730379
2317
여러가지 각기 다른 질병들을
12:12
with the same drug,
249
732720
1183
똑 같은 약
12:13
just by giving people amphetamine,
basically is what we were doing.
250
733927
3214
기본적으로 각성제 같은 것을
주는게 전부였으니까요.
12:17
And schizophrenia and depression
are the same way.
251
737165
2488
정신분열증과 우울증도
마찬가지입니다.
12:19
So rather than prescribing drugs to people
essentially at random,
252
739677
4032
무작정 약을 처방하기보다,
12:23
as we had,
253
743733
1150
지금까지 처럼 말이죠,
12:24
we learned how to predict
which drugs would be most effective
254
744907
3511
이제 어떤 약이 어떤 환자에게
가장 효과적일지
12:28
in which patients,
255
748442
1183
예측하게 됐고
12:29
and that just led to this huge
improvement in outcomes.
256
749649
2756
치료 효과도 상당히 높아졌습니다.
12:33
OK, I want to bring you back now
to the year 2017.
257
753498
3476
이제 2017년으로 돌아가죠.
12:38
Some of this may sound satirical
or even far fetched.
258
758117
3373
어떤 것들은 황당하거나
우습게 들릴 수도 있어요.
12:41
And some of it is.
259
761514
1293
사실 그렇기도 합니다.
12:43
I mean, I can't actually
see into the future.
260
763291
2651
그러니까, 실제로
제가 미래를 볼 순 없잖아요.
12:45
I don't actually know
261
765966
1366
사실 알 수가 없습니다.
12:47
if we're going to be drilling hundreds
or thousands of microscopic holes
262
767356
3667
머리에 수백 또는 수천 개의
미세한 구멍을 뚫게 될지
12:51
in our heads in 30 years.
263
771047
1667
앞으로 30년 내에 말이죠.
12:53
But what I can tell you
264
773762
1706
하지만 제가 말씀드릴 수 있는 건
12:55
is that we're not going
to make any progress
265
775492
2175
더 이상 발전할 수 없다는 겁니다.
12:57
towards understanding the human brain
or human diseases
266
777691
3727
인간의 뇌 또는
질병의 이해를 돕는
13:01
until we figure out how to get
at the electrical activity of neurons
267
781442
4516
신경세포들의 전기 활동을 관찰할
방법을 찾아내지 못한다면요.
13:05
in healthy humans.
268
785982
1200
건강한 사람들을 대상으로 말이죠.
13:07
And almost no one is working
on figuring out how to do that today.
269
787918
3239
오늘날 이런 방법을 연구하는
사람들은 거의 없습니다.
13:12
That is the future of neuroscience.
270
792077
2334
이것이 신경과학의 미래죠.
13:14
And I think it's time for neuroscientists
to put down the mouse brain
271
794752
4393
신경과학자들은 이제
쥐의 뇌는 그만 내려 놓고
13:19
and to dedicate the thought
and investment necessary
272
799169
2754
인간의 뇌와 질병을
이해하는데 정말 필요한
13:21
to understand the human brain
and human disease.
273
801947
3267
생각과 투자에 전념해야할
때라고 생각합니다.
13:27
Thank you.
274
807629
1151
감사합니다.
13:28
(Applause)
275
808804
1172
(박수)
New videos
Original video on YouTube.com
이 웹사이트 정보
이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.