Sebastian Seung: I am my connectome

247,777 views ・ 2010-09-28

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: Sunphil Ga 검토: Eunmi Sohn
00:17
We live in in a remarkable time,
0
17260
3000
우리는 놀라운 게놈 세대에
00:20
the age of genomics.
1
20260
3000
살고있습니다.
00:23
Your genome is the entire sequence of your DNA.
2
23260
3000
여러분의 게놈은 전체적인 DNA의 특정한 배열입니다.
00:26
Your sequence and mine are slightly different.
3
26260
3000
여러분과 저는 배열에 약간의 차이가 있죠.
00:29
That's why we look different.
4
29260
2000
이때문에 우리가 다르게 생긴 것입니다.
00:31
I've got brown eyes;
5
31260
2000
저는 갈색 눈을 가지고 있습니다.
00:33
you might have blue or gray.
6
33260
3000
여러분은 아마도 희색이나, 파란색 눈이시겠죠.
00:36
But it's not just skin-deep.
7
36260
2000
하지만 이것은 단지 피부의 깊이를 뜻하지는 않습니다.
00:38
The headlines tell us
8
38260
2000
이 제목은 유전자가
00:40
that genes can give us scary diseases,
9
40260
3000
우리에게 무서운 질명을 줄 수 있거나,
00:43
maybe even shape our personality,
10
43260
3000
심지어 우리의 성격을 형성하며,
00:46
or give us mental disorders.
11
46260
3000
혹은 정신병을 줄 수 있다고 전합니다.
00:49
Our genes seem to have
12
49260
3000
우리의 유전자는
00:52
awesome power over our destinies.
13
52260
3000
우리의 운명을 짓는 놀라운 힘을 가진 것처처럼 보입니다.
00:56
And yet, I would like to think
14
56260
3000
아직도, 저는 제가 제 유전자보다
00:59
that I am more than my genes.
15
59260
3000
높은 존재라고 생각하는 것을 좋아합니다.
01:04
What do you guys think?
16
64260
2000
여러분들은 어떻게 생각하시나요?
01:06
Are you more than your genes?
17
66260
3000
유전자보다 여러분이 더 높은 존재인가요?
01:09
(Audience: Yes.) Yes?
18
69260
2000
(관객:예)그런가요?
01:13
I think some people agree with me.
19
73260
2000
몇몇 분께서 동의하신다고 생각합니다.
01:15
I think we should make a statement.
20
75260
2000
저는 우리가 언급해야 된다고 생각합니다.
01:17
I think we should say it all together.
21
77260
2000
모두가 함께 이것을 말해야한다고 생각합니다.
01:20
All right: "I'm more than my genes" -- all together.
22
80260
3000
좋습니다:"나는 내 유전자보다 높은 존재다" -- 다함께.
01:23
Everybody: I am more than my genes.
23
83260
4000
모두: 나는 내 유전자보다 높은 존재이다.
01:27
(Cheering)
24
87260
2000
(환호)
01:30
Sebastian Seung: What am I?
25
90260
2000
세바스챤 승: 나란 존재가 뭔데?
01:32
(Laughter)
26
92260
3000
(웃음)
01:35
I am my connectome.
27
95260
3000
나는 나의 코넥텀입니다.
01:40
Now, since you guys are really great,
28
100260
2000
지금, 여러분은 정말로 훌륭하신 분들이기 때문에,
01:42
maybe you can humor me and say this all together too.
29
102260
2000
아마도 이 주장을 모두 다함께 말함으로써 저를 웃기실 수 있습니다.
01:44
(Laughter)
30
104260
2000
(웃음)
01:46
Right. All together now.
31
106260
2000
맞습니다. 모두 다 함께 지금.
01:48
Everybody: I am my connectome.
32
108260
3000
모두: 나는 나의 코넥텀이다.
01:53
SS: That sounded great.
33
113260
2000
SS: 좋은 생각처럼 들리네요.
01:55
You know, you guys are so great, you don't even know what a connectome is,
34
115260
2000
알다시피, 여러분은 매우 훌륭하십니다, 코넥텀이 무엇인지도 몰르면서,
01:57
and you're willing to play along with me.
35
117260
2000
저를 따라 기꺼이 이렇게 말해주시니
01:59
I could just go home now.
36
119260
3000
지금 당장 집으로 갈 수 있겠네요.
02:02
Well, so far only one connectome is known,
37
122260
3000
음, 오직 지금까지 하나의 코넥텀이 알려졌습니다,
02:05
that of this tiny worm.
38
125260
3000
이 작은 벌레의 것이죠.
02:08
Its modest nervous system
39
128260
2000
300 개의 뉴런을 포함하고 있는
02:10
consists of just 300 neurons.
40
130260
2000
적당한 크기의 신경 시스템입니다.
02:12
And in the 1970s and '80s,
41
132260
2000
1970,80년 대에,
02:14
a team of scientists
42
134260
2000
한 과학자 팀이
02:16
mapped all 7,000 connections
43
136260
2000
뉴런들 사이에 있는 7,000 개의
02:18
between the neurons.
44
138260
2000
연결을 지도화 했습니다.
02:21
In this diagram, every node is a neuron,
45
141260
2000
이 다이어 그램에, 모든 점은 뉴런입니다,
02:23
and every line is a connection.
46
143260
2000
모든 선은 연결이죠.
02:25
This is the connectome
47
145260
2000
이것은 선충벌레의
02:27
of the worm C. elegans.
48
147260
4000
코넥텀입니다.
02:31
Your connectome is far more complex than this
49
151260
3000
여러분의 코넥텀은 이것 보다 좀더 복잡합니다,
02:34
because your brain
50
154260
2000
여러분의 뇌가
02:36
contains 100 billion neurons
51
156260
2000
천억 개의 뉴런을 포함하며,
02:38
and 10,000 times as many connections.
52
158260
3000
만 배 많은 연결을 가지고 있기 때문입니다.
02:41
There's a diagram like this for your brain,
53
161260
2000
여러분 뇌에 관한 이 것은 다이어그램과 같죠,
02:43
but there's no way it would fit on this slide.
54
163260
3000
하지만 이 슬라이드 크기에 맞출 방법은 없습니다.
02:47
Your connectome contains one million times more connections
55
167260
3000
여러분의 코넥텀은 여러분 게놈이 가지고 있는 기호보다
02:50
than your genome has letters.
56
170260
3000
백만 배 더 많은 연결을 가지고 있습니다.
02:53
That's a lot of information.
57
173260
2000
그것은 많은 정보입니다.
02:55
What's in that information?
58
175260
3000
그 정보가 무엇일까요?
02:59
We don't know for sure, but there are theories.
59
179260
3000
정확히 우리는 알지 못합니다, 하지만 이론들이 있습니다.
03:02
Since the 19th century, neuroscientists have speculated
60
182260
3000
19세기 부터 시작해서, 신경과학자들은
03:05
that maybe your memories --
61
185260
2000
자신을 만드는 정보
03:07
the information that makes you, you --
62
187260
2000
즉 기억을 연구해왔습니다.
03:09
maybe your memories are stored
63
189260
2000
아마도 사람들의 기억은 뇌의 뉴런 사이에 있는
03:11
in the connections between your brain's neurons.
64
191260
2000
연결에 저장 되어 있을지 모릅니다.
03:15
And perhaps other aspects of your personal identity --
65
195260
2000
아마도 성격 정체성의 다른 측면,
03:17
maybe your personality and your intellect --
66
197260
3000
성격과 지능 역시
03:20
maybe they're also encoded
67
200260
2000
아마도 그것들은 뉴런 사이의
03:22
in the connections between your neurons.
68
202260
3000
연결에 기호화 되있을지 모릅니다.
03:26
And so now you can see why I proposed this hypothesis:
69
206260
3000
이렇게 지금 여러분은 제가 왜 이 가정을 제안하는지 아실 수 있습니다 ;
03:29
I am my connectome.
70
209260
3000
나는 나의 코넥텀입니다.
03:32
I didn't ask you to chant it because it's true;
71
212260
3000
이것은 사실이기 때문에 여러분께 이것을 되풀이하도록 부탁하지는 않았습니다,
03:35
I just want you to remember it.
72
215260
2000
저는 여러분께서 이 사실을 기억하시기를 바랍니다.
03:37
And in fact, we don't know if this hypothesis is correct,
73
217260
2000
사실상, 우리는 이 가정이 정확하지 모릅니다,
03:39
because we have never had technologies
74
219260
2000
이것을 검사할 강력한 기술을 충분히
03:41
powerful enough to test it.
75
221260
2000
가져본적이 없기 때문입니다.
03:44
Finding that worm connectome
76
224260
3000
그 벌레의 코넥텀을 찾는 것은
03:47
took over a dozen years of tedious labor.
77
227260
3000
12년 동안 지루한 노동을 주었죠.
03:50
And to find the connectomes of brains more like our own,
78
230260
3000
사람의 뇌와 같은 뇌의 코넥텀을 찾으려면,
03:53
we need more sophisticated technologies, that are automated,
79
233260
3000
우리는 자동적으로, 코넥텀을 찾는 과정에 속도를 올리는
03:56
that will speed up the process of finding connectomes.
80
236260
3000
좀더 복잡한 기술이 필요합니다.
03:59
And in the next few minutes, I'll tell you about some of these technologies,
81
239260
3000
몇분 후에, 저는 여러분께 몇몇 이 기술에 대해 이야기 할 것입니다,
04:02
which are currently under development
82
242260
2000
이 기술은 최근에 저의 연구소와
04:04
in my lab and the labs of my collaborators.
83
244260
3000
동료 연구소에서 있었던 발전 사항입니다.
04:08
Now you've probably seen pictures of neurons before.
84
248260
3000
지금 여러분은 아마도 이전에 보았던 뉴런 사진을 보고 계십니다.
04:11
You can recognize them instantly
85
251260
2000
즉각적으로 그것들을 인식하실 수 있습니다
04:13
by their fantastic shapes.
86
253260
3000
그들의 환상적인 모양에 의해 말이죠.
04:16
They extend long and delicate branches,
87
256260
3000
뉴런은 기고 섬세한 가지를 뻗쳐나갑니다,
04:19
and in short, they look like trees.
88
259260
3000
간략하게 말해 나무가지처럼 보입니다.
04:22
But this is just a single neuron.
89
262260
3000
하지만 이것은 하나의 뉴런입니다.
04:25
In order to find connectomes,
90
265260
2000
코넥텀을 찾기위해,
04:27
we have to see all the neurons at the same time.
91
267260
3000
우리는 모든 뉴런을 동시에 봐야합니다.
04:30
So let's meet Bobby Kasthuri,
92
270260
2000
하버드 대학에 있는
04:32
who works in the laboratory of Jeff Lichtman
93
272260
2000
제프 라히 만 연구소에 일하고 있는
04:34
at Harvard University.
94
274260
2000
Bobby Kasthuri를 만나봅시다
04:36
Bobby is holding fantastically thin slices
95
276260
2000
Bobby는 환상적으로 얇은 쥐의 뇌 단면을
04:38
of a mouse brain.
96
278260
2000
가지고 있습니다.
04:40
And we're zooming in by a factor of 100,000 times
97
280260
3000
십만 배로 확대하고 있습니다
04:44
to obtain the resolution,
98
284260
2000
이 해답을 얻기 위한 것이죠,
04:46
so that we can see the branches of neurons all at the same time.
99
286260
3000
그래서 우리가 뉴러 가지를 동시에 볼 수 있습니다.
04:50
Except, you still may not really recognize them,
100
290260
3000
예외가 있다면, 여전히 정말로 그것들을 못 알아볼지 모릅니다,
04:53
and that's because we have to work in three dimensions.
101
293260
3000
그렇기 때문에 우리는 3차원 작업을 해야만 합니다.
04:56
If we take many images of many slices of the brain
102
296260
2000
우리가 만약 뇌의 많은 단면 이미지를 가지고
04:58
and stack them up,
103
298260
2000
그것들을 쌓는다면,
05:00
we get a three-dimensional image.
104
300260
2000
우리는 3차원 이미지를 가지게 됩니다.
05:02
And still, you may not see the branches.
105
302260
2000
여전히 우리는 그 가지을 못 볼지 모릅니다.
05:04
So we start at the top,
106
304260
2000
상단에서 시작합니다,
05:06
and we color in the cross-section of one branch in red,
107
306260
3000
하나의 가지에 빨간 색으로 색을 입히고,
05:09
and we do that for the next slice
108
309260
2000
다음 단면을 위해
05:11
and for the next slice.
109
311260
2000
얇게 자릅니다.
05:13
And we keep on doing that,
110
313260
2000
이 단면 작업을
05:15
slice after slice.
111
315260
3000
지속적으로 합니다.
05:18
If we continue through the entire stack,
112
318260
2000
이 전체적인 쌓아 올리는 작업을 통해 계속한다면,
05:20
we can reconstruct the three-dimensional shape
113
320260
3000
뉴런 가지의 작은 부분을
05:23
of a small fragment of a branch of a neuron.
114
323260
3000
3차원으로 재 설립할 수 있습니다.
05:26
And we can do that for another neuron in green.
115
326260
2000
녹색으로 덟힌 다른 뉴런에도 이 작업을 할 수 있습니다.
05:28
And you can see that the green neuron touches the red neuron
116
328260
2000
녹색 뉴런이 빨간 뉴런이 두 장소에서 접하고 있는 것을
05:30
at two locations,
117
330260
2000
보실수 있습니다.
05:32
and these are what are called synapses.
118
332260
2000
이것들을 우리는 시냅스라고 하죠.
05:34
Let's zoom in on one synapse,
119
334260
2000
하나의 시냅스를 확대해보죠.
05:36
and keep your eyes on the interior of the green neuron.
120
336260
3000
녹색 뉴런 내부에 눈을 떼지 마세요.
05:39
You should see small circles --
121
339260
2000
작은 원을 보시게 됩니다.
05:41
these are called vesicles.
122
341260
3000
이것들은 소포라고 하죠.
05:44
They contain a molecule know as a neurotransmitter.
123
344260
3000
그것들은 신경전달물질로 알고있는 분자를 포함하고 있습니다.
05:47
And so when the green neuron wants to communicate,
124
347260
2000
녹색 뉴런이 의사소통하고 싶을 때,
05:49
it wants to send a message to the red neuron,
125
349260
2000
소포는 빨간 뉴런에게 메세지를 전다하고 싶어합니다,
05:51
it spits out neurotransmitter.
126
351260
3000
신경전달물질을 전달하죠.
05:54
At the synapse, the two neurons
127
354260
2000
시냅스에서, 두 뉴런들은
05:56
are said to be connected
128
356260
2000
연결 되었다고 말하죠
05:58
like two friends talking on the telephone.
129
358260
3000
마치 두 친구가 전화상으로 이야기하는 것처럼 말이죠.
06:02
So you see how to find a synapse.
130
362260
2000
이렇게 여러분은 시냅스를 찾는 방법을 보고 계십니다.
06:04
How can we find an entire connectome?
131
364260
3000
우리가 어떻게 총체적인 코넥텀을 찾을 수 있을까요?
06:07
Well, we take this three-dimensional stack of images
132
367260
3000
음, 우리는 3차원 이미지를 가져와
06:10
and treat it as a gigantic three-dimensional coloring book.
133
370260
3000
거대한 3차원 컬러링북으로 다루었습니다.
06:13
We color every neuron in, in a different color,
134
373260
3000
모든 뉴런에 다른 색깔로 색을 입히고,
06:16
and then we look through all of the images,
135
376260
2000
이후 모든 이미지를 통하여 보았으며
06:18
find the synapses
136
378260
2000
시냅스를 찾고
06:20
and note the colors of the two neurons involved in each synapse.
137
380260
3000
각각의 시냅스에 연관있는 색이 있는 두개의 뉴런을 주목했습니다.
06:23
If we can do that throughout all the images,
138
383260
3000
우리가 만약 모든 이미지를 통하여 그것들을 할 수 있다면,
06:26
we could find a connectome.
139
386260
2000
코넥텀을 찾을 수 있었습니다.
06:29
Now, at this point,
140
389260
2000
지금, 이 순간,
06:31
you've learned the basics of neurons and synapses.
141
391260
2000
기본적인 뉴런과 시냅스를 배우셨습니다.
06:33
And so I think we're ready to tackle
142
393260
2000
그럼 저는 이제 우리가 신경과학에서
06:35
one of the most important questions in neuroscience:
143
395260
3000
가장 중요한 질문 중 하나를 다룰 준비가 되어 있다고 생각합니다;
06:39
how are the brains of men and women different?
144
399260
3000
남성, 여성의 뇌가 어떻게 다를까요?
06:42
(Laughter)
145
402260
2000
(웃음)
06:44
According to this self-help book,
146
404260
2000
이 자기 치유서 책에 따르면,
06:46
guys brains are like waffles;
147
406260
2000
남성의 뇌는 와플과 같습니다
06:48
they keep their lives compartmentalized in boxes.
148
408260
3000
그들은 삶을 박스에 구분화를 계속합니다
06:51
Girls' brains are like spaghetti;
149
411260
3000
여성의 뇌는 스파게티와 같습니다;
06:54
everything in their life is connected to everything else.
150
414260
3000
삶의 모든 것들이 모든 것과 연결되어 있습니다.
06:57
(Laughter)
151
417260
2000
(웃음)
06:59
You guys are laughing,
152
419260
2000
여러분께서 모두 웃고 계신데요,
07:01
but you know, this book changed my life.
153
421260
2000
이 책은 제 삶을 변화시켰습니다.
07:03
(Laughter)
154
423260
2000
(웃음)
07:07
But seriously, what's wrong with this?
155
427260
3000
심각하게, 이 책에 무슨 문제가 있을까요?
07:10
You already know enough to tell me -- what's wrong with this statement?
156
430260
3000
이미 저에게 말할 수 있을 정도로 충분히 알고 계십니다. 이 말이 무슨 문제가 있을까요?
07:20
It doesn't matter whether you're a guy or girl,
157
440260
3000
남성, 여성이 문제가 되지 않습니다,
07:23
everyone's brains are like spaghetti.
158
443260
3000
모든 사람들의 뇌는 스파게티와 같습니다.
07:26
Or maybe really, really fine capellini with branches.
159
446260
3000
혹은 정말로 가지가 여러개 달린 카펠라니(파스타)일 수도 있습니다.
07:30
Just as one strand of spaghetti
160
450260
2000
단지 하나의 스파게티 가닥이
07:32
contacts many other strands on your plate,
161
452260
3000
접시에 놓인 많은 다른 가닥과 접촉하는 것처럼 말이죠,
07:35
one neuron touches many other neurons
162
455260
2000
하나의 뉴런은 많은 다른 뉴런과 접촉합니다
07:37
through their entangled branches.
163
457260
2000
그들의 꼬인 가지를 통해서 말이죠.
07:39
One neuron can be connected to so many other neurons,
164
459260
3000
하나의 뉴런은 매우 많은 다른 뉴런들과 연결 할 수 있습니다,
07:42
because there can be synapses
165
462260
2000
접촉시에 그곳에 시냅스가
07:44
at these points of contact.
166
464260
3000
존재할 수 있기 때문입니다.
07:49
By now, you might have sort of lost perspective
167
469260
3000
지금까지, 여러분들께서 뇌 조직을 다룬 이 큐브가 실제로
07:52
on how large this cube of brain tissue actually is.
168
472260
3000
얼마나 큰지에 대한 견해를 잃으셨을지도 모릅니다.
07:55
And so let's do a series of comparisons to show you.
169
475260
3000
하나의 시리즈 비교 작업을 해 여러분께 보여드리죠.
07:58
I assure you, this is very tiny. It's just six microns on a side.
170
478260
3000
저는 이것이 매우 작다고 확신합니다, 이것은 단지 한면에 6 미크론입니다.
08:03
So, here's how it stacks up against an entire neuron.
171
483260
3000
여기 총제적인 뉴런에 반하여 이것들을 쌓아올리는 방법이 있습니다.
08:06
And you can tell that, really, only the smallest fragments of branches
172
486260
3000
단지 가장 작은 가지의 부분이 이 큐브안에 포함되어 있다고
08:09
are contained inside this cube.
173
489260
3000
말하실 수 있습니다.
08:12
And a neuron, well, that's smaller than brain.
174
492260
3000
하나의 뉴런, 음, 그것들은 뇌보다 작습니다.
08:17
And that's just a mouse brain --
175
497260
2000
그것은 단지 쥐의 뇌입니다.
08:21
it's a lot smaller than a human brain.
176
501260
3000
인간의 뇌 보다 많이 작습니다.
08:25
So when show my friends this,
177
505260
2000
이렇게 친구에게 이것을 보여줬을 때,
08:27
sometimes they've told me,
178
507260
2000
때때로 그들은 저에게 말했었죠,
08:29
"You know, Sebastian, you should just give up.
179
509260
3000
"세바스찬, 알다시피 포기해야만 해.
08:32
Neuroscience is hopeless."
180
512260
2000
신경과학은 희망이 없어."
08:34
Because if you look at a brain with your naked eye,
181
514260
2000
왜냐하면 만약 여러분께서 하나의 뇌를 있는 그대로 본다면,
08:36
you don't really see how complex it is,
182
516260
2000
뇌의 복잡성을 정말로 이해하시지 못합니다,
08:38
but when you use a microscope,
183
518260
2000
하지만 현미경을 사용할 때,
08:40
finally the hidden complexity is revealed.
184
520260
3000
결국 그 숨겨진 복잡성이 밝혀집니다.
08:45
In the 17th century,
185
525260
2000
17세기에,
08:47
the mathematician and philosopher, Blaise Pascal,
186
527260
2000
수학자이며, 철학가인 블레이즈 파스칼은,
08:49
wrote of his dread of the infinite,
187
529260
3000
끊임없는 그의 두렴움,
08:52
his feeling of insignificance
188
532260
2000
그의 사소한 감정을
08:54
at contemplating the vast reaches of outer space.
189
534260
3000
거대한 우주공간을 생각할 때 기술했습니다.
08:59
And, as a scientist,
190
539260
2000
과학자로써,
09:01
I'm not supposed to talk about my feelings --
191
541260
3000
저는 저의 감정에 관해 말해서는 안 됩니다.
09:04
too much information, professor.
192
544260
2000
너무 많은 정보예요, 교수님.
09:06
(Laughter)
193
546260
2000
(웃음)
09:08
But may I?
194
548260
2000
하지만 제가?
09:10
(Laughter)
195
550260
2000
(웃음)
09:12
(Applause)
196
552260
2000
(박수)
09:14
I feel curiosity,
197
554260
2000
저는 호기심을 느꼈고,
09:16
and I feel wonder,
198
556260
2000
궁금했었죠,
09:18
but at times I have also felt despair.
199
558260
3000
하지만 그 당시 저는 또한 좌절했었습니다.
09:22
Why did I choose to study
200
562260
2000
내가 왜 이끝이 없을지도 모르는
09:24
this organ that is so awesome in its complexity
201
564260
3000
복잡성을 띈 놀라운 기관을
09:27
that it might well be infinite?
202
567260
2000
연구하려 선택했을까?
09:29
It's absurd.
203
569260
2000
어리석었죠.
09:31
How could we even dare to think
204
571260
2000
우리가 감히 어떻게 이것을
09:33
that we might ever understand this?
205
573260
3000
이해할수 있을지 모른다고 생각할 수 있었을까요?
09:38
And yet, I persist in this quixotic endeavor.
206
578260
3000
아직도, 저는 이 공상적인 연구를 계속하고 있습니다.
09:41
And indeed, these days I harbor new hopes.
207
581260
3000
실제로, 요즘에 저는 새로운 희망을 품고 있습니다.
09:45
Someday,
208
585260
2000
언젠가,
09:47
a fleet of microscopes will capture
209
587260
2000
현미경 함대가 거대한 정보 이미지의
09:49
every neuron and every synapse
210
589260
2000
모든 뉴런과 시냅스를
09:51
in a vast database of images.
211
591260
3000
포착하게 될 것입니다.
09:54
And some day, artificially intelligent supercomputers
212
594260
3000
언젠가, 인공적으로 지적 슈퍼컴퓨터들이 인간의 보조 도움없이
09:57
will analyze the images without human assistance
213
597260
3000
코넥텀에 있는 이미지들을 하나로 묶기 위해
10:00
to summarize them in a connectome.
214
600260
3000
이 이미지를 분석하게 될 것 입니다.
10:04
I do not know, but I hope that I will live to see that day,
215
604260
3000
모릅니다, 하지만 그날을 볼 수 있게 되기를 바랍니다.
10:08
because finding an entire human connectome
216
608260
2000
종합적인 인간의 코넥텀을 찾는 작업은
10:10
is one of the greatest technological challenges of all time.
217
610260
3000
가장 위대한 기술적 도전 중 하나이기 때문입니다.
10:13
It will take the work of generations to succeed.
218
613260
3000
이것은 당대 최고의 성공반열에 이르는 작품이 될 것입니다.
10:17
At the present time, my collaborators and I,
219
617260
3000
현재, 제 동료와 저는,
10:20
what we're aiming for is much more modest --
220
620260
2000
우리가 목적으로 두고 있는 것은 작은 덩어리의
10:22
just to find partial connectomes
221
622260
2000
사람과 쥐의 뇌에 대한 부분적인 코넥텀을
10:24
of tiny chunks of mouse and human brain.
222
624260
3000
찾기 위해 신중을 가하는 것입니다.
10:27
But even that will be enough for the first tests of this hypothesis
223
627260
3000
하지만 심지어 그것은 나는 나의 코넥텀이다라는 이 가설을
10:30
that I am my connectome.
224
630260
3000
첫 번째로 검사하는데 충분합니다.
10:35
For now, let me try to convince you of the plausibility of this hypothesis,
225
635260
3000
당분간, 여러분께 이 가설을 그럴듯함을 확신시키디록 시도해보겠습니다,
10:38
that it's actually worth taking seriously.
226
638260
3000
실제로 심각하게 받아들일 가치가 있습니다.
10:42
As you grow during childhood
227
642260
2000
유년기 동안 성장해
10:44
and age during adulthood,
228
644260
3000
성인이 되어 나이를 먹을 때,
10:47
your personal identity changes slowly.
229
647260
3000
여러분의 정체성은 천천히 변합니다.
10:50
Likewise, every connectome
230
650260
2000
모든 코넥텀이 시간이 흘러
10:52
changes over time.
231
652260
2000
변하는 것과 같습니다.
10:55
What kinds of changes happen?
232
655260
2000
어떤 종류의 변화가 있을까요?
10:57
Well, neurons, like trees,
233
657260
2000
음, 뉴런은 나무처럼,
10:59
can grow new branches,
234
659260
2000
새로운 가지가 자랍니다,
11:01
and they can lose old ones.
235
661260
3000
오래된 것을 잃을 수 있습니다.
11:04
Synapses can be created,
236
664260
3000
시냅스는 만들어지기도 하고
11:07
and they can be eliminated.
237
667260
3000
없어지기도 합니다.
11:10
And synapses can grow larger,
238
670260
2000
시냅스들은 더 커질수도 있고
11:12
and they can grow smaller.
239
672260
3000
작아질 수도 있습니다.
11:15
Second question:
240
675260
2000
두번 째 질문;
11:17
what causes these changes?
241
677260
3000
무엇이 이 변화들을 야기할까요?
11:20
Well, it's true.
242
680260
2000
음, 사실입니다.
11:22
To some extent, they are programmed by your genes.
243
682260
3000
어느정도, 여러분의 유전자에 의해 프로그램화 되었습니다.
11:25
But that's not the whole story,
244
685260
2000
하지만 그것이 모든 것을 대변하지는 않습니다.
11:27
because there are signals, electrical signals,
245
687260
2000
전기적 신호가 있기 때문입니다,
11:29
that travel along the branches of neurons
246
689260
2000
이 신호는 뉴런 가지를 따라 여행합니다
11:31
and chemical signals
247
691260
2000
그리고 화학적 신호들은
11:33
that jump across from branch to branch.
248
693260
2000
가지에서 가지로 건너뜁니다.
11:35
These signals are called neural activity.
249
695260
3000
이 신호들은 신경활동이라고 합니다.
11:38
And there's a lot of evidence
250
698260
2000
많은 증거들이 있습니다
11:40
that neural activity
251
700260
3000
신경활동은
11:43
is encoding our thoughts, feelings and perceptions,
252
703260
3000
우리의 생각, 감정, 지각, 정신 경험을
11:46
our mental experiences.
253
706260
2000
암호화하고 있습니다.
11:48
And there's a lot of evidence that neural activity
254
708260
3000
신경활동이 연결들의 변화를 야기시킬 수 있다는
11:51
can cause your connections to change.
255
711260
3000
많은 증거들이 있습니다.
11:54
And if you put those two facts together,
256
714260
3000
만약 이 두가지 사실을 하나로 놓는다면,
11:57
it means that your experiences
257
717260
2000
여러분의 경험은 코넥텀을
11:59
can change your connectome.
258
719260
3000
변화시킬 수 있음을 뜻합니다.
12:02
And that's why every connectome is unique,
259
722260
2000
이러한 이유로 모든 코넥텀은 독특합니다,
12:04
even those of genetically identical twins.
260
724260
3000
심지어 유전적으로 일란성 쌍둥이도 말입니다.
12:08
The connectome is where nature meets nurture.
261
728260
3000
이 코넥텀은 본성과 양육이 만날 때입니다.
12:12
And it might true
262
732260
2000
단지 생각하는 활동이
12:14
that just the mere act of thinking
263
734260
2000
코넥텀을 변화실킬 수 있다는 것이
12:16
can change your connectome --
264
736260
2000
사실일지도 모릅니다 --
12:18
an idea that you may find empowering.
265
738260
3000
권력이임을 찾을지도 모르는 아이디어라는 것입니다.
12:24
What's in this picture?
266
744260
2000
사진에서 무엇이 있나요?
12:28
A cool and refreshing stream of water, you say.
267
748260
3000
시원하고 상쾌한 개울물이 있다고 말하시겠죠.
12:32
What else is in this picture?
268
752260
2000
그밖에 사진에 무엇이 있나요?
12:37
Do not forget that groove in the Earth
269
757260
2000
지구상에 있는 강선이
12:39
called the stream bed.
270
759260
3000
개울 바닥을 연상시킨다는 것을 잊지마세요.
12:42
Without it, the water would not know in which direction to flow.
271
762260
3000
강선 없이는, 물이 어느 방향으로 흐를지 모릅니다.
12:45
And with the stream,
272
765260
2000
개울물에,
12:47
I would like to propose a metaphor
273
767260
2000
저는 은유적인 표현을 제안하고 합니다
12:49
for the relationship between neural activity
274
769260
2000
신경활동과 연결 사이의 관계에
12:51
and connectivity.
275
771260
2000
관한 것이죠.
12:54
Neural activity is constantly changing.
276
774260
3000
신경활동은 지속적으로 변하고 있습니다.
12:57
It's like the water of the stream; it never sits still.
277
777260
3000
개울물과 같습니다. 절대로 멈추지 않습니다.
13:00
The connections
278
780260
2000
뇌의 신경 네트워크의
13:02
of the brain's neural network
279
782260
2000
연결들은
13:04
determines the pathways
280
784260
2000
신경활동이 따라 흐르는
13:06
along which neural activity flows.
281
786260
2000
방향 길을 결정합니다.
13:08
And so the connectome is like bed of the stream;
282
788260
3000
이렇게 코넥텀은 하천 바닥과 같습니다.
13:13
but the metaphor is richer than that,
283
793260
3000
하지만 은유는 그것보다 좀더 풍부하게 표현하죠.
13:16
because it's true that the stream bed
284
796260
3000
하천 바닥이 물의 흐름을
13:19
guides the flow of the water,
285
799260
2000
오랜시간동 이끌뿐만 아니라,
13:21
but over long timescales,
286
801260
2000
물은 또한 하천의 바닥을
13:23
the water also reshapes the bed of the stream.
287
803260
3000
재형성한다는 것이 사실이기 때문입니다.
13:26
And as I told you just now,
288
806260
2000
제가 단지 이야기 했던 것처럼,
13:28
neural activity can change the connectome.
289
808260
3000
신경 활동은 코넥텀을 변화시킬 수 있습니다.
13:33
And if you'll allow me to ascend
290
813260
2000
여러분께서 제가 은유적인 표현을
13:35
to metaphorical heights,
291
815260
3000
사용하도록 허용하신다면,
13:38
I will remind you that neural activity
292
818260
3000
여러분께 신경활동이 물리적 기반이라는 것을
13:41
is the physical basis -- or so neuroscientists think --
293
821260
2000
상기시킬 것입니다 -- 그래서 신경과학자들은
13:43
of thoughts, feelings and perceptions.
294
823260
3000
생각, 감정, 인지를 생각합니다.
13:46
And so we might even speak of
295
826260
2000
또한 우리는 심지어 의식의 흐름에 대해
13:48
the stream of consciousness.
296
828260
2000
말하지도 모릅니다.
13:50
Neural activity is its water,
297
830260
3000
신경활동은 하천 흐름과 같습니다,
13:53
and the connectome is its bed.
298
833260
3000
코넥텀은 하천 바닥과 같습니다.
13:57
So let's return from the heights of metaphor
299
837260
2000
은유적 표현으로 다시 돌아가서
13:59
and return to science.
300
839260
2000
과학으로 돌아가 보죠.
14:01
Suppose our technologies for finding connectomes
301
841260
2000
코넥텀을 찾는 우리의 기술이 실제로 이루어지고 있다고
14:03
actually work.
302
843260
2000
가정해보십다.
14:05
How will we go about testing the hypothesis
303
845260
2000
"나는 나의 코넥텀이다."라는 이 가설 검사에 대해
14:07
"I am my connectome?"
304
847260
3000
우리가 어떻게 나아가게 될까요?
14:10
Well, I propose a direct test.
305
850260
3000
음, 저는 직접적인 검사를 제안합니다.
14:13
Let us attempt
306
853260
2000
코넥텀에 있는
14:15
to read out memories from connectomes.
307
855260
3000
기억 읽기를 시도해 봅시다.
14:18
Consider the memory
308
858260
2000
베토벤 소나타를
14:20
of long temporal sequences of movements,
309
860260
3000
연주하는 피아니스트의 움직임처럼 오래된 시간동안
14:23
like a pianist playing a Beethoven sonata.
310
863260
3000
특정한 배열을 가진 기억을 상기해보세요.
14:26
According to a theory that dates back to the 19th century,
311
866260
3000
19세기로 이론에 따르면,
14:29
such memories are stored
312
869260
2000
그런 기억들은 뇌 안에 있는
14:31
as chains of synaptic connections inside your brain.
313
871260
3000
시냅스 연결 체인으로 저장되어있습니다.
14:35
Because, if the first neurons in the chain are activated,
314
875260
3000
왜냐하면, 그 체인 안에 있는 첫 번째 뉴런이
14:38
through their synapses they send messages to the second neurons, which are activated,
315
878260
3000
시냅스를 통해 활성화가 된다면 뉴런은 활성화 되는 두 번째 뉴런에
14:41
and so on down the line,
316
881260
2000
메세지를 전달합니다
14:43
like a chain of falling dominoes.
317
883260
2000
하나의 떨어지고 있는 도미노 체인과 같죠.
14:45
And this sequence of neural activation
318
885260
2000
이런 신경활동의 특정한 배열은
14:47
is hypothesized to be the neural basis
319
887260
3000
움직임에 관한 특정한 배열의
14:50
of those sequence of movements.
320
890260
2000
신경기반이 형성 된다고 가정화 되었습니다.
14:52
So one way of trying to test the theory
321
892260
2000
이 이론을 검사 시도를 하는 한가지 방법은
14:54
is to look for such chains
322
894260
2000
코넥텀 안에 있는
14:56
inside connectomes.
323
896260
2000
체인들을 찾아보는 것입니다.
14:58
But it won't be easy, because they're not going to look like this.
324
898260
3000
하지만 이는 쉽지 않습니다, 그 과정은 이와 같기 때문입니다.
15:01
They're going to be scrambled up.
325
901260
2000
체인들은 뒤섞이게 됩니다.
15:03
So we'll have to use our computers
326
903260
2000
그래서 이 체인을 정리하기 위해
15:05
to try to unscramble the chain.
327
905260
3000
컴퓨터를 사용해야만 될 것입니다.
15:08
And if we can do that,
328
908260
2000
만약 우리가 이것을 할 수 있다면,
15:10
the sequence of the neurons we recover from that unscrambling
329
910260
3000
이 과정을 통해 회복한 특저한 배열의 신경들은
15:13
will be a prediction of the pattern of neural activity
330
913260
3000
신경활동의 패턴을 예측하게 될 것입니다
15:16
that is replayed in the brain during memory recall.
331
916260
3000
이 활동은 기억을 상기시킬 때 다시 재생될 것입니다.
15:19
And if that were successful,
332
919260
2000
만약 그것이 성공적이라면,
15:21
that would be the first example of reading a memory from a connectome.
333
921260
3000
그것은 코넥텀에서 기억을 읽는 첫 번째 사례가 될 것입니다.
15:28
(Laughter)
334
928260
2000
(웃음)
15:30
What a mess --
335
930260
2000
아주 엉망진창이군요.
15:33
have you ever tried to wire up a system
336
933260
2000
이것과 같은 복잡한 시스템을 엮기를
15:35
as complex as this?
337
935260
2000
시도해보신 적이 있나요?
15:37
I hope not.
338
937260
2000
아니시기를 바랍니다.
15:39
But if you have, you know it's very easy to make a mistake.
339
939260
3000
하지만 만약 그랬다면, 알다시피 실수하기는 무척 쉽습니다.
15:45
The branches of neurons are like the wires of the brain.
340
945260
2000
뉴런들의 가지들은 서로 얽혀 있는 뇌와 같습니다.
15:47
Can anyone guess: what's the total length of wires in your brain?
341
947260
4000
뇌의 연결 된 선들의 총 길이가 어느정도 되는지 예측할 수 있을까요?
15:54
I'll give you a hint. It's a big number.
342
954260
2000
힌트를 드리겠습니다. 매우 큰 숫자입니다.
15:56
(Laughter)
343
956260
2000
(웃음)
15:59
I estimate, millions of miles,
344
959260
3000
저는 측정했습니다, 수백만 마일이었죠.
16:02
all packed in your skull.
345
962260
3000
모든 것이 여러분 머리에 꽉 차있습니다.
16:05
And if you appreciate that number,
346
965260
2000
만약 그 숫자를 측정하신다면,
16:07
you can easily see
347
967260
2000
여러분들은 쉽게
16:09
there is huge potential for mis-wiring of the brain.
348
969260
2000
잘못된 연결을 가진 뇌에 대한 큰 가능성이 있다는 것을 보실 수 있습니다.
16:11
And indeed, the popular press loves headlines like,
349
971260
3000
실제로, 언론은 이 같은 제목을 좋아하죠,
16:14
"Anorexic brains are wired differently,"
350
974260
2000
"식욕 부진증 뇌는 다르게 연결되어 있습니다."
16:16
or "Autistic brains are wired differently."
351
976260
2000
혹은"자폐증 뇌는 다른 연결을 가지고 있습니다."
16:18
These are plausible claims,
352
978260
2000
이것들은 그럴듯한 주장입니다.
16:20
but in truth,
353
980260
2000
하지만 실제로,
16:22
we can't see the brain's wiring clearly enough
354
982260
2000
우리는 분명하게 충분히 그 주장들이 사실이라고
16:24
to tell if these are really true.
355
984260
2000
말할 수 있을 만큼 확인할 수는 없습니다.
16:26
And so the technologies for seeing connectomes
356
986260
3000
하지만 코넥텀을 보는 이 기술은
16:29
will allow us to finally
357
989260
2000
결국에는 여러분께
16:31
read mis-wiring of the brain,
358
991260
2000
잘못 연결 된 뇌를 읽는 것과,
16:33
to see mental disorders in connectomes.
359
993260
3000
코넥텀안의 정신병을 볼 수 있도록 허용하게 될 것입니다.
16:40
Sometimes the best way to test a hypothesis
360
1000260
3000
때때로 가설을 검사하는 가장 좋은 방법은
16:43
is to consider its most extreme implication.
361
1003260
3000
극단적인 방법을 고려하는 것입니다.
16:46
Philosophers know this game very well.
362
1006260
3000
철학자들은 이 게임을 매우 잘 압니다.
16:50
If you believe that I am my connectome,
363
1010260
3000
만약 나는 나의 코넥텀이다라는 사실을 믿는다면,
16:53
I think you must also accept the idea
364
1013260
3000
저는 여러분께서 죽음은 여러분의
16:56
that death is the destruction
365
1016260
2000
코넥텀의 파괴라는 이 아이디어
16:58
of your connectome.
366
1018260
3000
또한 받아들여야 된다고 생각합니다.
17:02
I mention this because there are prophets today
367
1022260
3000
왜냐하면 오늘날 이 기술이 기본적으로
17:05
who claim that technology
368
1025260
3000
인간의 상태와 심지어
17:08
will fundamentally alter the human condition
369
1028260
3000
아마도 인종을 변화시키게 될거라 주장하는
17:11
and perhaps even transform the human species.
370
1031260
3000
선지자들이 있기때문에 이 아이디어를 언급했습니다.
17:14
One of their most cherished dreams
371
1034260
3000
가장 소중했었던 꿈 중 하나는
17:17
is to cheat death
372
1037260
2000
죽음을 속이는 것입니다
17:19
by that practice known as cryonics.
373
1039260
2000
냉동 보존술이라고 알고 있는 방법에 의한 것이죠.
17:21
If you pay 100,000 dollars,
374
1041260
2000
10 만$를 지불하신다면,
17:23
you can arrange to have your body frozen after death
375
1043260
3000
죽음 이후 여러분의 신체를 얼리도록 조정할 수 있고
17:26
and stored in liquid nitrogen
376
1046260
2000
아리조나 창고에 있는
17:28
in one of these tanks in an Arizona warehouse,
377
1048260
2000
탱크들 중 하나에 액체질소로 저장할 수 있습니다,
17:30
awaiting a future civilization
378
1050260
2000
여러분을 부활시키는 미래 문명을
17:32
that is advanced to resurrect you.
379
1052260
3000
기다리면서 말입니다.
17:36
Should we ridicule the modern seekers of immortality,
380
1056260
2000
우리가 영원한 생명을 추구하는 현대인들을
17:38
calling them fools?
381
1058260
2000
바보라 부르며 비웃어야할까요?
17:40
Or will they someday chuckle
382
1060260
2000
혹은 그들이 언젠가 우리의 무덤에서
17:42
over our graves?
383
1062260
2000
웃게 될까요?
17:45
I don't know --
384
1065260
2000
모릅니다.
17:47
I prefer to test their beliefs, scientifically.
385
1067260
3000
저는 과학적으로 이 믿음들을 시험하기 좋아합니다.
17:50
I propose that we attempt to find a connectome
386
1070260
2000
저는 우리가 얼려있는 뇌의 코넥텀을 찾아야만 된다고
17:52
of a frozen brain.
387
1072260
2000
제안합니다.
17:54
We know that damage to the brain
388
1074260
2000
우리는 사후 뇌의 냉동보관 기간동안
17:56
occurs after death and during freezing.
389
1076260
2000
뇌가 손상된다는 것을 알고있습니다.
17:58
The question is: has that damage erased the connectome?
390
1078260
3000
문제는 '뇌의 손상이 코넥텀을 지워버렸을까?' 입니다.
18:01
If it has, there is no way that any future civilization
391
1081260
3000
만약 그랬다면, 다른 어떤 미래 문명이
18:04
will be able to recover the memories of these frozen brains.
392
1084260
3000
그 얼린 뇌의 기억들을 회복시킬 수 있는 방법은 존재하지 않을 것입니다.
18:07
Resurrection might succeed for the body,
393
1087260
2000
부활은 신체 부분에서는 성공할지도 모릅니다,
18:09
but not for the mind.
394
1089260
2000
하지만 마음은 해당이 되지가 않습니다.
18:11
On the other hand, if the connectome is still intact,
395
1091260
3000
반면에, 만약 코넥텀이 여전히 온전하다면,
18:14
we cannot ridicule the claims of cryonics so easily.
396
1094260
3000
냉동 보존술 주장을 매우 쉽게 비웃을 수는 없습니다.
18:20
I've described a quest
397
1100260
2000
저는 세계에서
18:22
that begins in the world of the very small,
398
1102260
3000
정말 작은 부분에서 시작하고 먼 미래 세계로
18:25
and propels us to the world of the far future.
399
1105260
3000
우리를 이끄는 탐색을 설명해왔습니다.
18:28
Connectomes will mark a turning point in human history.
400
1108260
3000
코넥텀은 인류 역사에 전환점을 만들게 될 것입니다.
18:32
As we evolved from our ape-like ancestors
401
1112260
2000
우리는 아프리카 사바나 지역 선조로 간주된
18:34
on the African savanna,
402
1114260
2000
유인원에서 진화 되었습니다.
18:36
what distinguished us was our larger brains.
403
1116260
3000
차이가 있다면 우리가 좀더 큰 뇌를 가지고 있다는 것입니다.
18:40
We have used our brains to fashion
404
1120260
2000
우리는 뇌를 사회에 그리고 심지어
18:42
ever more amazing technologies.
405
1122260
3000
좀더 놀라운 기술에 사용해왔습니다.
18:45
Eventually, these technologies will become so powerful
406
1125260
3000
결과적으로 이 기술들은 매우 강력하게 될 것입니다
18:48
that we will use them to know ourselves
407
1128260
3000
우리는 그기술을 사용하여 스스로를 알게 됩니다
18:51
by deconstructing and reconstructing
408
1131260
3000
우리의 뇌를 분해하고 재구성
18:54
our own brains.
409
1134260
3000
함으로써 말입니다
18:57
I believe that this voyage of self-discovery
410
1137260
3000
이 독단적인 발견이 단지 과학자들만을
19:00
is not just for scientists,
411
1140260
3000
위한 것이 아니라,
19:03
but for all of us.
412
1143260
2000
우리 모두를 위한 것이라 저는 믿습니다.
19:05
And I'm grateful for the opportunity to share this voyage with you today.
413
1145260
3000
이 항해를 여러분과 함께 나눌수 있는 기회를 주셔서 감사드립니다.
19:08
Thank you.
414
1148260
2000
감사합니다.
19:10
(Applause)
415
1150260
8000
(박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7