Gero Miesenboeck reengineers a brain

52,036 views ・ 2010-11-05

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: Alf Bae 검토: Jongyeon Ee
00:15
I have a doppelganger.
0
15260
3000
저에게는 분신이 하나 있습니다.
00:18
(Laughter)
1
18260
3000
(웃음)
00:21
Dr. Gero is a brilliant
2
21260
3000
게로 박사는 만화 드래곤볼 Z "안드로이드 사가"에 나오는
00:24
but slightly mad scientist
3
24260
2000
명석하지만
00:26
in the "Dragonball Z: Android Saga."
4
26260
3000
살짝 미친 과학자죠.
00:29
If you look very carefully,
5
29260
2000
잘 살펴보시면,
00:31
you see that his skull has been replaced
6
31260
3000
게로 박사 머리가 투명한 유리 돔으로
00:34
with a transparent Plexiglas dome
7
34260
2000
되어 있어서
00:36
so that the workings of his brain can be observed
8
36260
3000
그의 뇌가 어떻게 돌아가는지 관찰할 수 있지요.
00:39
and also controlled with light.
9
39260
3000
그리고 빛으로 통제하는 것도 가능하답니다.
00:42
That's exactly what I do --
10
42260
2000
이게 제가 바로 하는 일입니다.
00:44
optical mind control.
11
44260
2000
즉, 광학적 마인드 컨트롤입니다.
00:46
(Laughter)
12
46260
2000
(웃음)
00:48
But in contrast to my evil twin
13
48260
2000
하지만 세계 정복 욕망을 불태우는
00:50
who lusts after world domination,
14
50260
3000
제 사악한 분신인 게로 박사와는 달리
00:53
my motives are not sinister.
15
53260
3000
제 동기는 나쁜 게 아니죠.
00:56
I control the brain
16
56260
2000
저는 뇌가 어떻게 돌아가는지
00:58
in order to understand how it works.
17
58260
2000
이해하기 위해 그걸 조종하는 것이니까요.
01:00
Now wait a minute, you may say,
18
60260
2000
여기서 잠깐 여러분은 아마
01:02
how can you go straight to controlling the brain
19
62260
3000
뇌를 이해하지도 못했는데
01:05
without understanding it first?
20
65260
2000
어떻게 뇌를 통제할 수 있는 걸로 넘어갔냐고 하실지도 모릅니다.
01:07
Isn't that putting the cart before the horse?
21
67260
3000
마치 말 앞에 마차를 두는것 같지 않냐고 하실 수도 있죠.
01:11
Many neuroscientists agree with this view
22
71260
3000
많은 신경과학자들이 이러한 관점에 동의하고
01:14
and think that understanding will come
23
74260
3000
보다 정교한 관찰과 분석을 통해
01:17
from more detailed observation and analysis.
24
77260
3000
뇌를 이해할 수 있다고 합니다.
01:20
They say, "If we could record the activity of our neurons,
25
80260
4000
신경과학자들은, "우리가 뉴런의 활동을 기록할 수 있다면,
01:24
we would understand the brain."
26
84260
3000
뇌를 이해할 수 있을 것이다." 라고 합니다.
01:27
But think for a moment what that means.
27
87260
3000
그러나 이것이 어떤 의미인지 잠시 생각해보면
01:30
Even if we could measure
28
90260
2000
만약 우리가 모든 세포들이 뭘 하고 있는지 항상
01:32
what every cell is doing at all times,
29
92260
2000
측정할 수 있다면
01:34
we would still have to make sense
30
94260
2000
기록된 활동 패턴을
01:36
of the recorded activity patterns,
31
96260
2000
우리가 이해할 수 있어야 한다는 말입니다.
01:38
and that's so difficult,
32
98260
2000
그건 정말 어려운 일입니다.
01:40
chances are we'll understand these patterns
33
100260
2000
우리가 이런 패턴을 이해할 수 있는 확률은
01:42
just as little as the brains that produce them.
34
102260
3000
두뇌가 그 패턴을 생산해내는 것 만큼이나 아주 희박하죠.
01:45
Take a look at what brain activity might look like.
35
105260
3000
두뇌 활동이 어떻게 보이는지 한 번 보시죠.
01:48
In this simulation, each black dot
36
108260
2000
여기 시뮬레이션에서 보시는 각각의 검은 점은
01:50
is one nerve cell.
37
110260
2000
하나의 신경 세포입니다.
01:52
The dot is visible
38
112260
2000
이 점들은 각 세포가
01:54
whenever a cell fires an electrical impulse.
39
114260
2000
각 세포가 전기적 신호를 발화할 때마다 나타납니다.
01:56
There's 10,000 neurons here.
40
116260
2000
여기에는 만 개의 뉴런이 있는데,
01:58
So you're looking at roughly one percent
41
118260
2000
여러분이 보시는 건 바퀴벌레 뇌의
02:00
of the brain of a cockroach.
42
120260
3000
대략 1%일 것입니다.
02:04
Your brains are about 100 million times
43
124260
3000
사람의 뇌는 이보다 약 1억 배 정도
02:07
more complicated.
44
127260
2000
더 복잡합니다.
02:09
Somewhere, in a pattern like this,
45
129260
2000
이런 패턴의 어디가는
02:11
is you,
46
131260
2000
바로 여러분이죠.
02:13
your perceptions,
47
133260
2000
여러분의 지각,
02:15
your emotions, your memories,
48
135260
3000
감정과 기억,
02:18
your plans for the future.
49
138260
2000
미래에 대한 계획 같은 것을 나타냅니다.
02:20
But we don't know where,
50
140260
2000
하지만 우리는 그게 어디인지 모릅니다.
02:22
since we don't know how to read the pattern.
51
142260
3000
이런 패턴을 어떻게 읽어야 할지 모르기 때문입니다.
02:25
We don't understand the code used by the brain.
52
145260
3000
우리는 뇌가 어떤 암호를 사용하는지 모릅니다.
02:28
To make progress,
53
148260
2000
그 이상을 알기 위해서는
02:30
we need to break the code.
54
150260
2000
우리는 이 암호를 해독해야 하지요.
02:32
But how?
55
152260
2000
하지만 어떻게 해독해야 할까요?
02:35
An experienced code-breaker will tell you
56
155260
2000
전문 암호해독자라면 여러분에게
02:37
that in order to figure out what the symbols in a code mean,
57
157260
3000
암호 속의 상징이 뭘 의미하는지 파악하기 위해서는
02:40
it's essential to be able to play with them,
58
160260
3000
암호를 다룰 수 있는지와
02:43
to rearrange them at will.
59
163260
2000
원하는 대로 재배열할 수 있는지가 중요하다고 할 겁니다.
02:45
So in this situation too,
60
165260
2000
그래서 이 경우에도
02:47
to decode the information
61
167260
2000
이와 같은 패턴을 갖고 있는
02:49
contained in patterns like this,
62
169260
2000
정보를 해독하기 위해서는
02:51
watching alone won't do.
63
171260
2000
관찰하는 것만으로는 부족하고
02:53
We need to rearrange the pattern.
64
173260
2000
그 패턴을 재배열해봐야 합니다.
02:55
In other words,
65
175260
2000
다시 말하면,
02:57
instead of recording the activity of neurons,
66
177260
2000
뉴런의 활동을 기록하는 대신
02:59
we need to control it.
67
179260
2000
통제해야 하는 거죠.
03:01
It's not essential that we can control
68
181260
2000
뇌 안의 모든 뉴런의 활동을
03:03
the activity of all neurons in the brain, just some.
69
183260
3000
제어할 필요는 없고 그저 일부만 통제해 보면 됩니다.
03:06
The more targeted our interventions, the better.
70
186260
2000
좀 더 잘 제어된 통제라면 더욱 좋겠죠.
03:08
And I'll show you in a moment
71
188260
2000
제가 잠시 후에 여러분께 보여드릴 것은
03:10
how we can achieve the necessary precision.
72
190260
3000
우리가 어떻게 필요한 정밀도를 달성할 수 있냐는 겁니다.
03:13
And since I'm realistic, rather than grandiose,
73
193260
3000
저는 그럴싸하게 부풀려 말하기보다 현실적으로 말하는 편이라서
03:16
I don't claim that the ability to control the function of the nervous system
74
196260
3000
신경계의 기능을 조절하는 능력이
03:19
will at once unravel all its mysteries.
75
199260
3000
모든 미스테리를 즉각 풀어줄 거라고는 말하지 않겠습니다.
03:22
But we'll certainly learn a lot.
76
202260
3000
그러나 우리는 확실히 많은 것을 배울 겁니다.
03:27
Now, I'm by no means
77
207260
2000
음, 저는 이러한 제어 방법이
03:29
the first person to realize
78
209260
2000
얼마나 강력한 수단인지
03:31
how powerful a tool intervention is.
79
211260
3000
발견한 첫번째 사람은 아닙니다.
03:34
The history of attempts
80
214260
2000
신경계의 기능을
03:36
to tinker with the function of the nervous system
81
216260
2000
자극시켜 보는 시도는 사실
03:38
is long and illustrious.
82
218260
2000
꽤 오래 되었고 잘 알려져 있는 것이죠.
03:40
It dates back at least 200 years,
83
220260
3000
적어도 200년 전으로 돌아가 보면
03:43
to Galvani's famous experiments
84
223260
2000
18세기 후반에 갈바니의 (갈바니: 이탈리아의 생리학자·물리학자)
03:45
in the late 18th century and beyond.
85
225260
3000
유명한 실험이 있었죠.
03:49
Galvani showed that a frog's legs twitched
86
229260
3000
갈바니는 개구리의 요추신경에 전류를 연결시켰을 때
03:52
when he connected the lumbar nerve
87
232260
2000
개구리 다리가 꿈틀거린다는 것을
03:54
to a source of electrical current.
88
234260
3000
실험을 통해 보여줬죠.
03:57
This experiment revealed the first, and perhaps most fundamental,
89
237260
3000
이 실험은 최초로 그리고 아마도 가장 근본적인
04:00
nugget of the neural code:
90
240260
2000
신경 코드에 대한 개념을 보여주었습니다.
04:02
that information is written in the form
91
242260
2000
즉, 정보가 전기 자극의
04:04
of electrical impulses.
92
244260
3000
형태로 쓰여져 있다는 것을 말입니다.
04:08
Galvani's approach
93
248260
2000
전극을 갖고 있는 신경계를 규명하려는
04:10
of probing the nervous system with electrodes
94
250260
2000
갈바니의 시도는
04:12
has remained state-of-the-art until today,
95
252260
3000
오늘날까지도 예술과 같은 경지로 여겨집니다.
04:15
despite a number of drawbacks.
96
255260
3000
몇 가지 결점에도 불구하고 말이죠.
04:18
Sticking wires into the brain is obviously rather crude.
97
258260
3000
뇌에 전선을 붙이는 것은 분명 좀 엉성할 겁니다.
04:21
It's hard to do in animals that run around,
98
261260
2000
여기저기 뛰어다니는 동물한테 그러기도 어렵거니와
04:23
and there is a physical limit
99
263260
2000
동시에 꽂을 수 있는
04:25
to the number of wires
100
265260
2000
전선 개수에도
04:27
that can be inserted simultaneously.
101
267260
3000
실질적인 한계가 있습니다.
04:30
So around the turn of the last century,
102
270260
2000
그래서 지난 세기가 넘어갈 무렵
04:32
I started to think,
103
272260
2000
저는 이런 생각을 했죠.
04:34
"Wouldn't it be wonderful if one could take this logic
104
274260
3000
이 논리를 뒤집어서 생각해보면
04:37
and turn it upside down?"
105
277260
2000
멋지지 않을까 하고 말입니다.
04:39
So instead of inserting a wire
106
279260
2000
그래서 뇌의 한 부분에
04:41
into one spot of the brain,
107
281260
3000
전선을 삽입하는 대신
04:44
re-engineer the brain itself
108
284260
2000
뇌 자체를 재설계하는 겁니다.
04:46
so that some of its neural elements
109
286260
3000
신경 요소 일부가
04:49
become responsive to diffusely broadcast signals
110
289260
3000
방산되는 신호에 자극할 수 있도록 말입니다.
04:52
such as a flash of light.
111
292260
3000
예를 들어 빛을 쪼이는 것 같은 거죠.
04:55
Such an approach would literally, in a flash of light,
112
295260
3000
말 그대로 빛을 쪼이는 이러한 시도는
04:58
overcome many of the obstacles to discovery.
113
298260
3000
지금껏 발견을 어렵게 했던 장애들을 극복하게 합니다.
05:01
First, it's clearly a non-invasive,
114
301260
3000
우선, 이 방법은 분명 비(非)침투적인
05:04
wireless form of communication.
115
304260
3000
무선 커뮤니케이션 형태입니다.
05:07
And second, just as in a radio broadcast,
116
307260
2000
그리고 두번째로 라디오 방송처럼
05:09
you can communicate with many receivers at once.
117
309260
3000
많은 수신기와 동시에 소통할 수 있는 방법입니다.
05:12
You don't need to know where these receivers are,
118
312260
3000
수신기가 어디에 있는지 알 필요는 없습니다.
05:15
and it doesn't matter if these receivers move --
119
315260
2000
그리고 수신기가 돌아다녀도 상관없습니다.
05:17
just think of the stereo in your car.
120
317260
3000
차에 있는 스테레오 장치를 생각해보세요.
05:20
It gets even better,
121
320260
3000
우리가
05:23
for it turns out that we can fabricate the receivers
122
323260
3000
DNA에 암호화된 물질로 만든
05:26
out of materials that are encoded in DNA.
123
326260
3000
수신기를 제작해 낼 수 있다면 더욱 좋겠죠.
05:29
So each nerve cell
124
329260
2000
그래서 적절한 유전적 구성을 가진
05:31
with the right genetic makeup
125
331260
2000
각각의 신경 세포가
05:33
will spontaneously produce a receiver
126
333260
3000
우리가 그 기능을 통제할 수 있는
05:36
that allows us to control its function.
127
336260
3000
수신기를 동시에 생산할 수 있게 말입니다.
05:39
I hope you'll appreciate
128
339260
2000
저는 여러분께서
05:41
the beautiful simplicity
129
341260
2000
이 개념의 아름다운 단순함을
05:43
of this concept.
130
343260
2000
주목해 주셨으면 합니다.
05:45
There's no high-tech gizmos here,
131
345260
2000
여기에는 어떤 하이테크 장치도 없습니다.
05:47
just biology revealed through biology.
132
347260
3000
그저 생물학을 통해 밝혀진 생물학일 뿐이지요.
05:51
Now let's take a look at these miraculous receivers up close.
133
351260
3000
자, 그럼 이 엄청난 수신기를 자세히 살펴 보도록 하죠.
05:54
As we zoom in on one of these purple neurons,
134
354260
3000
여기 보라색 뉴런 중 하나를 확대해보면
05:57
we see that its outer membrane
135
357260
2000
바깥쪽 피막에
05:59
is studded with microscopic pores.
136
359260
2000
미세한 기공들이 산재해 있는 걸 보실 수 있습니다.
06:01
Pores like these conduct electrical current
137
361260
2000
이런 기공들은 전류를 유도하고
06:03
and are responsible
138
363260
2000
신경계의
06:05
for all the communication in the nervous system.
139
365260
2000
모든 의사소통을 담당하고 있습니다.
06:07
But these pores here are special.
140
367260
2000
그러나 여기 있는 기공들은 특별합니다.
06:09
They are coupled to light receptors
141
369260
2000
이 기공은 여러분의 눈과 비슷한
06:11
similar to the ones in your eyes.
142
371260
3000
빛 수용체와 결합되어 있습니다.
06:14
Whenever a flash of light hits the receptor,
143
374260
2000
이 수용체에 빛이 쪼여질 때마다
06:16
the pore opens, an electrical current is switched on,
144
376260
3000
기공이 열리게 되면 전류가 연결되고
06:19
and the neuron fires electrical impulses.
145
379260
3000
뉴런은 전기적 자극을 보내는 겁니다.
06:22
Because the light-activated pore is encoded in DNA,
146
382260
3000
왜냐하면 광(光)활성된 기공은 DNA에 암호화되어 있기 때문에
06:25
we can achieve incredible precision.
147
385260
3000
놀라운 정밀성을 갖게 되는 것이죠.
06:28
This is because,
148
388260
2000
그래서 이것이
06:30
although each cell in our bodies
149
390260
2000
우리 몸에 모든 세포들이
06:32
contains the same set of genes,
150
392260
2000
같은 조합의 유전자를 가지고 있음에도 불구하고
06:34
different mixes of genes get turned on and off
151
394260
2000
유전자의 다른 조합이 서로 다른 세포에서
06:36
in different cells.
152
396260
2000
반응했다 안 했다 하는 이유인 것이죠.
06:38
You can exploit this to make sure
153
398260
2000
여러분은 이걸 이용해서 몇 개의 뉴런만
06:40
that only some neurons
154
400260
2000
광(光)활성된 기공을 가지고 있고
06:42
contain our light-activated pore and others don't.
155
402260
3000
다른 것들은 그렇지 않다는 걸 확인할 수 있습니다.
06:45
So in this cartoon, the bluish white cell
156
405260
2000
여기 그림에서 좌측 상단에 있는
06:47
in the upper-left corner
157
407260
2000
푸르스름한 하얀 세포는
06:49
does not respond to light
158
409260
2000
빛에 반응 하지 않고 있죠.
06:51
because it lacks the light-activated pore.
159
411260
3000
왜냐하면 광(光)활성된 기공이 없기 때문이죠.
06:54
The approach works so well
160
414260
2000
이런 시도가 잘 되면
06:56
that we can write purely artificial messages
161
416260
2000
우리는 완전히 인위적인 메시지를 작성해서
06:58
directly to the brain.
162
418260
2000
뇌에 직접 보낼 수 있습니다.
07:00
In this example, each electrical impulse,
163
420260
2000
이 그래프에서 각각의 전기 자극과
07:02
each deflection on the trace,
164
422260
3000
궤적을 벗어난 이탈은
07:05
is caused by a brief pulse of light.
165
425260
3000
순간적인 빛의 진동 때문에 발생한 겁니다.
07:08
And the approach, of course, also works
166
428260
2000
그리고 이러한 사례는
07:10
in moving, behaving animals.
167
430260
3000
움직이거나 활동중인 동물에서도 볼 수 있죠.
07:13
This is the first ever such experiment,
168
433260
2000
이건 갈바니의 광학적 실험 버전에 해당하는
07:15
sort of the optical equivalent of Galvani's.
169
435260
3000
최초의 실험이죠.
07:18
It was done six or seven years ago
170
438260
2000
이 실험은 당시 저의 학생이었던 수사나 리마가
07:20
by my then graduate student, Susana Lima.
171
440260
3000
6-7년 정도 전에 했던 것입니다.
07:23
Susana had engineered the fruit fly on the left
172
443260
3000
수사나는 왼쪽에 보시는 초파리를 조작해서
07:26
so that just two out of the 200,000 cells in its brain
173
446260
4000
초파리 뇌의 이십 만 개 세포 중 단 두 개 만이
07:30
expressed the light-activated pore.
174
450260
3000
광(光)활성된 기공을 나타내도록 했습니다.
07:33
You're familiar with these cells
175
453260
2000
여러분은 아마도 이 세포에 익숙 하실텐데요.
07:35
because they are the ones that frustrate you
176
455260
2000
바로 이 세포가 여러분이 파리를 잡을 때
07:37
when you try to swat the fly.
177
457260
2000
사람을 힘들게 만드는 세포기 때문이죠.
07:39
They trained the escape reflex that makes the fly jump into the air
178
459260
3000
이 세포는 여러분이 손을 움직여 파리를 잡으려고 할 때마다 파리가 공중으로
07:42
and fly away whenever you move your hand in position.
179
462260
3000
날아가 버리게 하는 반사 반응 가능하게 하는 세포죠.
07:46
And you can see here that the flash of light has exactly the same effect.
180
466260
3000
그리고 빛을 쪼여주는 건 같은 효과를 발생시킨다는 걸 보실 수 있습니다.
07:49
The animal jumps, it spreads its wings, it vibrates them,
181
469260
3000
파리가 뛰어올라서 날개를 펴고, 파닥거리는 겁니다.
07:52
but it can't actually take off
182
472260
2000
그러나 파리는 실제로는 날아오르지는 못합니다.
07:54
because the fly is sandwiched between two glass plates.
183
474260
3000
왜냐하면 두 장의 유리판 사이에 끼여 있기 때문입니다.
07:58
Now to make sure that this was no reaction of the fly
184
478260
2000
자, 이제 확인할 건 파리가 빛을 볼 수 있어서
08:00
to a flash it could see,
185
480260
3000
반응을 한 것이 아니라는 겁니다.
08:03
Susana did a simple
186
483260
2000
수사나는 간단하지만
08:05
but brutally effective experiment.
187
485260
2000
잔인하게 효과적인 실험을 했는데
08:07
She cut the heads off of her flies.
188
487260
3000
파리의 머리를 떼어버린 거였죠.
08:11
These headless bodies can live for about a day,
189
491260
3000
이렇게 머리 없는 몸으로 약 하루 정도 살 수 있긴 하지만
08:14
but they don't do much.
190
494260
2000
별로 할 수 있는 일은 없습니다.
08:16
They just stand around
191
496260
3000
그냥 서성이거나
08:19
and groom excessively.
192
499260
3000
열심히 몸단장 하는 행동을 하는 게 다입니다.
08:22
So it seems that the only trait that survives decapitation is vanity.
193
502260
3000
참수당하고도 남아 있는 유일한 습성은 허영심 같네요.
08:25
(Laughter)
194
505260
3000
(웃음)
08:30
Anyway, as you'll see in a moment,
195
510260
2000
어쨌든 잠시 후에 보시 듯
08:32
Susana was able to turn on the flight motor
196
512260
3000
수사나가 이 파리의 척수에 해당하는
08:35
of what's the equivalent of the spinal cord of these flies
197
515260
3000
비행 기관을 작동시켜서
08:38
and get some of the headless bodies
198
518260
2000
이 머리 없는 파리 몸체가
08:40
to actually take off and fly away.
199
520260
3000
실제로 날 수 있게 했죠.
08:47
They didn't get very far, obviously.
200
527260
2000
분명한 건 파리가 멀리 가진 못했다는 겁니다.
08:50
Since we took these first steps,
201
530260
2000
우리가 이러한 첫 걸음을 내딛은 이후
08:52
the field of optogenetics has exploded.
202
532260
3000
광(光)유전학 분야는 폭발적 성장을 했습니다.
08:55
And there are now hundreds of labs
203
535260
2000
지금은 수 백 개의 연구실이
08:57
using these approaches.
204
537260
2000
이러한 방법으로 연구하고 있습니다.
08:59
And we've come a long way
205
539260
2000
우리는 갈바니와 수사나의 이런
09:01
since Galvani's and Susana's first successes
206
541260
3000
동물들을 움찔거리게 하거나 뛰어오르게 하는 첫 번째 실험 성공 이후
09:04
in making animals twitch or jump.
207
544260
2000
먼 길을 걸어 왔습니다.
09:06
We can now actually interfere with their psychology
208
546260
3000
우리는 이제 실제로 심리학에 관여하게 되었죠.
09:09
in rather profound ways,
209
549260
2000
보다 심오한 방법을 통해서 말입니다.
09:11
as I'll show you in my last example,
210
551260
2000
여기 마지막 사례를 보여 드리겠습니다.
09:13
which is directed at a familiar question.
211
553260
3000
아마도 익숙한 질문에서 나온 것일 겁니다.
09:16
Life is a string of choices
212
556260
3000
삶이란 다음에 무엇을 할 것인지 정해야 하는
09:19
creating a constant pressure to decide what to do next.
213
559260
3000
끊임없는 압력이 생기는 선택의 연속이라는 거죠.
09:23
We cope with this pressure by having brains,
214
563260
3000
우리는 뇌를 가지고 있기 때문에 이러한 압력을 조절합니다.
09:26
and within our brains, decision-making centers
215
566260
3000
우리 뇌안에는 제가 '행위자' 라고 부르는
09:29
that I've called here the "Actor."
216
569260
3000
의사 결정 본부가 있죠.
09:33
The Actor implements a policy that takes into account
217
573260
3000
이 행위자 기관은 주변 환경의 상태와
09:36
the state of the environment
218
576260
2000
우리가 움직이는 맥락을 고려하는
09:38
and the context in which we operate.
219
578260
3000
정책을 수행시킵니다.
09:41
Our actions change the environment, or context,
220
581260
3000
우리의 행동은 환경이나 맥락을 변화시키죠.
09:44
and these changes are then fed back into the decision loop.
221
584260
3000
그리고 이러한 변화는 다시 의사 결정 과정으로 반영되고요.
09:48
Now to put some neurobiological meat
222
588260
3000
이런 추상적인 모델에
09:51
on this abstract model,
223
591260
2000
신경생물학적인 골자를 더하기 위해서
09:53
we constructed a simple one-dimensional world
224
593260
2000
우리가 가장 좋아하는 실험 대상인 초파리를 위한
09:55
for our favorite subject, fruit flies.
225
595260
3000
간단한 일차원 세계를 구성해봤죠.
09:58
Each chamber in these two vertical stacks
226
598260
2000
두 개의 수직 구조의 각 방에는
10:00
contains one fly.
227
600260
2000
한 마리의 파리가 들어 있습니다.
10:02
The left and the right halves of the chamber
228
602260
3000
각 방의 오른쪽 반과 왼쪽 반은
10:05
are filled with two different odors,
229
605260
2000
두 가지 다른 향으로 채워져 있죠.
10:07
and a security camera watches
230
607260
2000
그리고 감시 카메라는
10:09
as the flies pace up and down between them.
231
609260
3000
오른쪽과 왼쪽 사이에서 빨리 움직이는지 느리게 움직이는지를 보는 겁니다.
10:12
Here's some such CCTV footage.
232
612260
2000
이건 그 CCTV 기록인데요.
10:14
Whenever a fly reaches the midpoint of the chamber
233
614260
3000
두 향이 겹치는
10:17
where the two odor streams meet,
234
617260
2000
방의 중간 지점에 이를 때마다
10:19
it has to make a decision.
235
619260
2000
파리는 결정을 내려야 합니다.
10:21
It has to decide whether to turn around
236
621260
2000
되돌아 갈 것인지
10:23
and stay in the same odor,
237
623260
2000
아니면 같은 향 속에 있을 것인지 말이죠.
10:25
or whether to cross the midline
238
625260
2000
아니면 중간 지점을 넘어서
10:27
and try something new.
239
627260
2000
뭔가 새로운 것을 시도할 것인지 말입니다.
10:29
These decisions are clearly a reflection
240
629260
3000
이러한 결정은 분명히 행위자 기관의 정책이
10:32
of the Actor's policy.
241
632260
3000
반영된 것이죠.
10:36
Now for an intelligent being like our fly,
242
636260
3000
음, 파리와 같은 지적인 생명체한테
10:39
this policy is not written in stone
243
639260
3000
이런 정책은 석판에 새겨진 것이라기 보다는
10:42
but rather changes as the animal learns from experience.
244
642260
3000
경험을 통해 배워가면서 변화하는 것이죠.
10:45
We can incorporate such an element
245
645260
2000
우리는 이런 적응적 지능 같은 요소를
10:47
of adaptive intelligence into our model
246
647260
3000
파리의 뇌가 행위자 기관 뿐만 아니라
10:50
by assuming that the fly's brain
247
650260
2000
다른 그룹의 세포, 즉 행위자 기관의 선택에 대해
10:52
contains not only an Actor,
248
652260
2000
끊임없는 평가를 해주는
10:54
but a different group of cells,
249
654260
2000
'비평가' 도 포함하고 있다는
10:56
a "Critic," that provides a running commentary
250
656260
3000
가정을 함으로써
10:59
on the Actor's choices.
251
659260
2000
우리의 모델에 통합할 수 있습니다.
11:01
You can think of this nagging inner voice
252
661260
3000
이런 잔소리 같은 내부 목소리는
11:04
as sort of the brain's equivalent
253
664260
2000
만약 여러분이 저같은 호주 사람이라면,
11:06
of the Catholic Church,
254
666260
2000
머리 속에 있는 일종의 성당이라고
11:08
if you're an Austrian like me,
255
668260
3000
생각하실 수 있고요.
11:11
or the super-ego, if you're Freudian,
256
671260
3000
프로이드를 믿으시면 초자아 라고 보실 수도 있고요. (초자아:자아를 감시하는 무의식적 양심)
11:14
or your mother, if you're Jewish.
257
674260
2000
여러분이 유대인이라면 어머니로 보실 수도 있겠죠.
11:16
(Laughter)
258
676260
4000
(웃음)
11:20
Now obviously,
259
680260
2000
분명한 건
11:22
the Critic is a key ingredient
260
682260
3000
비평의 역할은 우리를 지적으로 만드는
11:25
in what makes us intelligent.
261
685260
2000
중요한 요소라는 겁니다.
11:27
So we set out to identify
262
687260
2000
그래서 우리는 파리의 뇌의
11:29
the cells in the fly's brain
263
689260
2000
어느 세포가 비평가의 역할을 담당하는지
11:31
that played the role of the Critic.
264
691260
2000
규명해보기로 하였죠.
11:33
And the logic of our experiment was simple.
265
693260
3000
우리가 수행한 실험의 논리는 간단했습니다.
11:36
We thought if we could use our optical remote control
266
696260
3000
비평가 기관의 세포를 활성화시키기 위해서
11:39
to activate the cells of the Critic,
267
699260
3000
광학적 원격 제어를 이용하려면
11:42
we should be able, artificially, to nag the Actor
268
702260
3000
우리는 인위적으로 행위자 기관에게 정책을 바꾸라고
11:45
into changing its policy.
269
705260
2000
잔소리를 할 수 있어야 한다는 것이었죠.
11:47
In other words,
270
707260
2000
다시 말하면
11:49
the fly should learn from mistakes
271
709260
2000
파리는 자기가 한 실수를 통해서
11:51
that it thought it had made
272
711260
2000
뭔가를 배워야 하지만
11:53
but, in reality, it had not made.
273
713260
3000
현실에서는 실수를 하지 않거든요.
11:56
So we bred flies
274
716260
2000
그래서 우리는 광(光)연상작용이 가능한
11:58
whose brains were more or less randomly peppered
275
718260
3000
세포가 거의 무작위로 분포된 뇌를 갖고 있는
12:01
with cells that were light addressable.
276
721260
2000
파리를 배양했죠.
12:03
And then we took these flies
277
723260
2000
그리고 이 파리가
12:05
and allowed them to make choices.
278
725260
2000
선택을 내리도록 실험했습니다.
12:07
And whenever they made one of the two choices,
279
727260
2000
두 가지 선택 중에 하나의 결정을 할 때마다
12:09
chose one odor,
280
729260
2000
즉, 한 개의 향을 선택하는 거죠.
12:11
in this case the blue one over the orange one,
281
731260
2000
이 경우엔 주황색이 아닌 파란색을 선택하면
12:13
we switched on the lights.
282
733260
2000
불이 켜지는 거였죠.
12:15
If the Critic was among the optically activated cells,
283
735260
3000
광(光)활성성 세포 가운데 비평가 역할을 하는 세포가 있다면
12:18
the result of this intervention
284
738260
2000
그 비평가 세포의 중재의 결과는
12:20
should be a change in policy.
285
740260
3000
정책에 변화를 가져 올 것입니다.
12:23
The fly should learn to avoid
286
743260
2000
그래서 파리는 광학적으로 강화된 향을
12:25
the optically reinforced odor.
287
745260
2000
피하게 되는 걸 배우는 것입니다.
12:27
Here's what happened in two instances:
288
747260
3000
여기 두 가지 경우가 있습니다.
12:30
We're comparing two strains of flies,
289
750260
3000
두 가지 종의 파리을 비교해 보면
12:33
each of them having
290
753260
2000
각각의 종은
12:35
about 100 light-addressable cells in their brains,
291
755260
2000
약 백 여 개의 광(光)연상성 뇌세포를 가지고 있습니다.
12:37
shown here in green on the left and on the right.
292
757260
3000
여기 왼쪽과 오른쪽에 보이는 녹색의 것입니다.
12:40
What's common among these groups of cells
293
760260
3000
이들 세포 그룹의 공통점은
12:43
is that they all produce the neurotransmitter dopamine.
294
763260
3000
모두 신경 전달 물질인 도파민을 분비한다는 것입니다.
12:46
But the identities of the individual
295
766260
2000
그러나 도파민을 분비하는
12:48
dopamine-producing neurons
296
768260
2000
각각의 뉴런의 특성은
12:50
are clearly largely different on the left and on the right.
297
770260
3000
왼쪽과 오른쪽이 각각 분명하게 많이 다릅니다.
12:53
Optically activating
298
773260
2000
빛으로 활성화되는
12:55
these hundred or so cells
299
775260
2000
이들 수 백 개의 세포는
12:57
into two strains of flies
300
777260
2000
두 종류의 파리들에게 각각 있는데
12:59
has dramatically different consequences.
301
779260
2000
극단적으로 다른 결과를 가져오죠.
13:01
If you look first at the behavior
302
781260
2000
오른쪽의 파리 집단의
13:03
of the fly on the right,
303
783260
2000
행동을 먼저 보시면,
13:05
you can see that whenever it reaches the midpoint of the chamber
304
785260
3000
두 향이 만나는 방의
13:08
where the two odors meet,
305
788260
2000
중간 지점에 다다를 때 마다
13:10
it marches straight through, as it did before.
306
790260
3000
예전에 그랬듯이 그냥 쭉 직진합니다.
13:13
Its behavior is completely unchanged.
307
793260
2000
이들의 행동은 전혀 변하지 않았죠.
13:15
But the behavior of the fly on the left is very different.
308
795260
3000
하지만 왼쪽 그룹에 있는 파리의 행동은 상당히 다릅니다.
13:18
Whenever it comes up to the midpoint,
309
798260
3000
중간 지점에 다다를 때 마다
13:21
it pauses,
310
801260
2000
멈춥니다.
13:23
it carefully scans the odor interface
311
803260
2000
새로운 환경을 마주하면 킁킁 거리며 냄새 맡는 것처럼
13:25
as if it was sniffing out its environment,
312
805260
2000
새로운 향을 조심스럽게 살펴보고
13:27
and then it turns around.
313
807260
2000
돌아서 버립니다.
13:29
This means that the policy that the Actor implements
314
809260
3000
이건 오른쪽 공간에 있는 향을 피하라는
13:32
now includes an instruction to avoid the odor
315
812260
2000
주문을 행위자 기관이 정책에
13:34
that's in the right half of the chamber.
316
814260
3000
반영한다는 걸 의미합니다.
13:37
This means that the Critic
317
817260
2000
이것은 비평가 기관이 파리 안에서
13:39
must have spoken in that animal,
318
819260
2000
뭔가를 말했다는 것을 뜻하는 겁니다.
13:41
and that the Critic must be contained
319
821260
2000
그리고 그 비평가 기관은 분명히
13:43
among the dopamine-producing neurons on the left,
320
823260
3000
왼쪽 그룹의 도파민 분비 뉴런 중에 하나라는 겁니다.
13:46
but not among the dopamine producing neurons on the right.
321
826260
3000
오른쪽의 도파민 분비 뉴런 중에 있는 게 아니죠.
13:49
Through many such experiments,
322
829260
3000
그러한 많은 실험을 통해서
13:52
we were able to narrow down
323
832260
2000
우리는 비평가 기관의 실체를
13:54
the identity of the Critic
324
834260
2000
단 12개의 세포로
13:56
to just 12 cells.
325
836260
2000
압축했습니다.
13:58
These 12 cells, as shown here in green,
326
838260
3000
여기 녹색으로 보여지는 12 개의 세포는
14:01
send the output to a brain structure
327
841260
2000
여기 회색 부분의
14:03
called the "mushroom body,"
328
843260
2000
버섯형 몸체로 불리우는
14:05
which is shown here in gray.
329
845260
2000
두뇌 구조에 출력을 보냅니다.
14:07
We know from our formal model
330
847260
2000
우리는 정형적인 모델을 통해서
14:09
that the brain structure
331
849260
2000
비평가 기관의 잔소리를 수용하는
14:11
at the receiving end of the Critic's commentary is the Actor.
332
851260
3000
최종 두뇌 구조는 행위자 기관이라는 걸 알아냈죠.
14:14
So this anatomy suggests
333
854260
2000
그래서 이 해부도는
14:16
that the mushroom bodies have something to do
334
856260
3000
여기 버섯형 몸체가 행위의 선택과
14:19
with action choice.
335
859260
2000
관련이 있다는 걸 보여줍니다.
14:21
Based on everything we know about the mushroom bodies,
336
861260
2000
버섯형 몸체에 관해 우리가 알고 있는 모든 것에 의하면
14:23
this makes perfect sense.
337
863260
2000
이건 완전히 이해되는 겁니다.
14:25
In fact, it makes so much sense
338
865260
2000
사실 우리가 파리의 행동을 자극시키는
14:27
that we can construct an electronic toy circuit
339
867260
3000
전기 장난감 회로를 만들었다고
14:30
that simulates the behavior of the fly.
340
870260
3000
하면 잘 이해가 되겠군요.
14:33
In this electronic toy circuit,
341
873260
3000
이 전기 장난감 회로에서
14:36
the mushroom body neurons are symbolized
342
876260
2000
버섯형 몸체 뉴런은
14:38
by the vertical bank of blue LEDs
343
878260
3000
보드 가운데에 있는
14:41
in the center of the board.
344
881260
3000
파란색 LED의 수직 단자로 상징됩니다.
14:44
These LED's are wired to sensors
345
884260
2000
이 LED들은 대기 중에 있는 냄새 분자의 존재를
14:46
that detect the presence of odorous molecules in the air.
346
886260
3000
감지할 수 있는 센서에 연결되어 있죠.
14:50
Each odor activates a different combination of sensors,
347
890260
3000
각각의 향은 서로 다른 조합의 센서들을 활성하시키는데,
14:53
which in turn activates
348
893260
2000
이건 버섯형 몸체에 있는
14:55
a different odor detector in the mushroom body.
349
895260
3000
다른 냄새 감지 장치를 활성화시킵니다.
14:58
So the pilot in the cockpit of the fly,
350
898260
2000
그래서 파리의 조종석에 있는 파일럿,
15:00
the Actor,
351
900260
2000
즉, 행위자가
15:02
can tell which odor is present
352
902260
2000
어떤 파란색 LED가 켜져 있는지 보게 되면
15:04
simply by looking at which of the blue LEDs lights up.
353
904260
4000
어떤 향이 존재하는지 구분해내는 것입니다.
15:09
What the Actor does with this information
354
909260
2000
행위자가 이러한 정보를 가지고 하는 일은
15:11
depends on its policy,
355
911260
2000
그 정책에 달려있는데
15:13
which is stored in the strengths of the connection,
356
913260
2000
이건 냄새 감지 장치와
15:15
between the odor detectors
357
915260
2000
파리가 도망가게 하는 동력을 주는
15:17
and the motors
358
917260
2000
운동 신경
15:19
that power the fly's evasive actions.
359
919260
2000
사이의 연결 강도에 저장이 되는 겁니다.
15:22
If the connection is weak, the motors will stay off
360
922260
2000
만약 연결이 약하면 운동 기관은 작동되지 않고
15:24
and the fly will continue straight on its course.
361
924260
3000
파리는 그대로 앞으로 가던 길을 가게 될 것이고
15:27
If the connection is strong, the motors will turn on
362
927260
3000
반면 연결이 강하면 운동 기관이 작동 되어서
15:30
and the fly will initiate a turn.
363
930260
3000
파리는 방향을 바꾸게 되겠죠.
15:33
Now consider a situation
364
933260
2000
자, 운동 기관이 작동 되지 않는
15:35
in which the motors stay off,
365
935260
2000
파리가 가던 길을 계속 가는
15:37
the fly continues on its path
366
937260
3000
상황을 생각해보세요.
15:40
and it suffers some painful consequence
367
940260
2000
이건 파리가 탁 잡히게 되는
15:42
such as getting zapped.
368
942260
2000
아주 고통스런 결과를 초래할 것입니다.
15:44
In a situation like this,
369
944260
2000
이 같은 상황에서
15:46
we would expect the Critic to speak up
370
946260
2000
우리는 비평가 기관이
15:48
and to tell the Actor
371
948260
2000
행위자 기관한테
15:50
to change its policy.
372
950260
2000
계획을 바꾸라고 말하라고 하고 싶겠죠.
15:52
We have created such a situation, artificially,
373
952260
3000
우리는 빛으로 비평가 기관이 작동되게 하여서
15:55
by turning on the critic with a flash of light.
374
955260
3000
이러한 상황을 인위적으로 만든 겁니다.
15:58
That caused a strengthening of the connections
375
958260
3000
그것은 현재 활성화된 냄새 감지 장치와
16:01
between the currently active odor detector
376
961260
3000
운동 기관 사이의 연결을
16:04
and the motors.
377
964260
2000
강화시키게 됩니다.
16:06
So the next time
378
966260
2000
그래서 그 다음에
16:08
the fly finds itself facing the same odor again,
379
968260
3000
파리는 다시 같은 냄새와 마주치게 되고
16:11
the connection is strong enough to turn on the motors
380
971260
3000
연결이 강화되면 운동 기관이 작동되고
16:14
and to trigger an evasive maneuver.
381
974260
3000
회피 동작이 실행되는 겁니다.
16:19
I don't know about you,
382
979260
3000
저는 여러분에 대해 잘 알지 못합니다만
16:22
but I find it exhilarating to see
383
982260
3000
어떻게 모호한 심리학적 개념이
16:25
how vague psychological notions
384
985260
3000
마음에 대한 물리적이고 기계적인 이해를
16:28
evaporate and give rise
385
988260
2000
유발시키는가를
16:30
to a physical, mechanistic understanding of the mind,
386
990260
3000
보는 게 매우 흥미롭다고 봅니다..
16:33
even if it's the mind of the fly.
387
993260
3000
그게 아무리 파리의 마음이라고 할지라도요.
16:36
This is one piece of good news.
388
996260
3000
이건 정말 좋은 소식입니다.
16:39
The other piece of good news,
389
999260
2000
그리고 적어도 과학자에게
16:41
for a scientist at least,
390
1001260
2000
좋은 또 다른 소식은
16:43
is that much remains to be discovered.
391
1003260
3000
발견되어야 할 것이 아직 많이 남아 있다는 겁니다.
16:46
In the experiments I told you about,
392
1006260
2000
제가 말씀드린 실험에서
16:48
we have lifted the identity of the Critic,
393
1008260
3000
우리는 비평가 기관의 실체를 드러냈지만,
16:51
but we still have no idea
394
1011260
2000
그러나 우리는 아직
16:53
how the Critic does its job.
395
1013260
2000
비평가 기관이 어떻게 그 일을 수행하는지 알지 못합니다.
16:55
Come to think of it, knowing when you're wrong
396
1015260
2000
생각해 보세요. 선생님이나 어머니가
16:57
without a teacher, or your mother, telling you,
397
1017260
3000
뭐가 잘못 되었는지 여러분에게 말해주지 않는다면
17:00
is a very hard problem.
398
1020260
2000
그걸 인식하는 건 아주 어려운 문제일 겁니다.
17:02
There are some ideas in computer science
399
1022260
2000
컴퓨터 사이언스와 인공 지능 분야에도
17:04
and in artificial intelligence
400
1024260
2000
이런 일이 어떻게 이뤄지는 지에 관해서
17:06
as to how this might be done,
401
1026260
2000
약간의 개념이 있습니다.
17:08
but we still haven't solved
402
1028260
2000
하지만 우리는 지적 행동이
17:10
a single example
403
1030260
2000
어떻게 살아 있는 물질의
17:12
of how intelligent behavior
404
1032260
3000
물리적 작용으로부터
17:15
springs from the physical interactions
405
1035260
2000
파생되는지에 대한 하나의 예도
17:17
in living matter.
406
1037260
2000
풀어내지 못했습니다.
17:19
I think we'll get there in the not too distant future.
407
1039260
3000
멀지 않은 미래에 풀릴 것이라고 저는 생각합니다.
17:22
Thank you.
408
1042260
2000
감사합니다.
17:24
(Applause)
409
1044260
4000
(박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7