아래 영문자막을 더블클릭하시면 영상이 재생됩니다.
번역: Jung-Eun Kim
검토: Bianca Lee
00:15
I'm a neuroscientist.
0
15260
2000
저는 신경과학자입니다.
00:17
And in neuroscience,
1
17260
2000
신경과학에서
00:19
we have to deal with many difficult questions about the brain.
2
19260
3000
우리는 뇌에 대해 수많은 어려운 질문들을 다루죠.
00:22
But I want to start with the easiest question
3
22260
2000
하지만 전 가장 쉬운 질문부터 시작하고자 합니다.
00:24
and the question you really should have all asked yourselves at some point in your life,
4
24260
3000
그 질문은 당신이 당신의 삶의 여러 부분에서 스스로에게 질문해야만 하는 것으로,
00:27
because it's a fundamental question
5
27260
2000
우리가 뇌의 기능을 이해하기 위해서
00:29
if we want to understand brain function.
6
29260
2000
던져야 하는 기본적인 질문입니다.
00:31
And that is, why do we and other animals
7
31260
2000
바로 "왜 우리 인간과, 그리고 다른 동물들이
00:33
have brains?
8
33260
2000
뇌를 가져야 하는가?"입니다.
00:35
Not all species on our planet have brains,
9
35260
3000
우리 행성에 사는 모든 생물이 뇌를 갖는 것은 아닙니다.
00:38
so if we want to know what the brain is for,
10
38260
2000
뇌가 무엇을 위한 것인지 알기 위한다면,
00:40
let's think about why we evolved one.
11
40260
2000
우리가 왜 진화해왔는지 생각해봐야 합니다.
00:42
Now you may reason that we have one
12
42260
2000
여러분은 아마도 세상을 인지하기 위해,
00:44
to perceive the world or to think,
13
44260
2000
또는 생각하기 위해-라고 대답하시겠지만
00:46
and that's completely wrong.
14
46260
2000
그것은 잘못된 대답입니다.
00:48
If you think about this question for any length of time,
15
48260
3000
이 질문에 대해 오랜 시간 생각해보면
00:51
it's blindingly obvious why we have a brain.
16
51260
2000
우리가 왜 뇌를 가지고 있는지는 아주 명백합니다.
00:53
We have a brain for one reason and one reason only,
17
53260
3000
우리는 단 하나의 이유 때문에 뇌를 가집니다.
00:56
and that's to produce adaptable and complex movements.
18
56260
3000
바로 적합하고 복잡한 행동을 만들어내기 위해서죠.
00:59
There is no other reason to have a brain.
19
59260
2000
뇌에게 다른 이유는 없습니다.
01:01
Think about it.
20
61260
2000
생각해보세요.
01:03
Movement is the only way you have
21
63260
2000
움직임이란 당신이 주변 세상에
01:05
of affecting the world around you.
22
65260
2000
영향을 미칠 수 있는 유일한 방법입니다.
01:07
Now that's not quite true. There's one other way, and that's through sweating.
23
67260
3000
이것이 완전한 진실은 아닐 수도 있습니다. 땀을 흘리는 것과 같은 방식을 떠올리면요.
01:10
But apart from that,
24
70260
2000
하지만 이를 제외하고 생각해보면,
01:12
everything else goes through contractions of muscles.
25
72260
2000
모든 것은 근육의 수축으로부터 발생합니다.
01:14
So think about communication --
26
74260
2000
의사소통에 대해서 생각해보죠.
01:16
speech, gestures, writing, sign language --
27
76260
3000
말하는 것, 제스처, 글쓰기, 언어적 표현들
01:19
they're all mediated through contractions of your muscles.
28
79260
3000
그 모든 것들이 당신의 근육을 수축시킴으로써 매개됩니다.
01:22
So it's really important to remember
29
82260
2000
감각, 기억과 인지적 과정들이 모두
01:24
that sensory, memory and cognitive processes are all important,
30
84260
4000
중요하다는 점을 기억해야 하는 것도 정말 중요하지만,
01:28
but they're only important
31
88260
2000
그것이 미래의 행동을
01:30
to either drive or suppress future movements.
32
90260
2000
만들어내거나 억제한다는 점에서만 의미를 갖습니다.
01:32
There can be no evolutionary advantage
33
92260
2000
당신의 삶에 어떤 영향을 끼치는 형태가 아니라면
01:34
to laying down memories of childhood
34
94260
2000
어린 시절의 기억을 떠올리며 누워있거나
01:36
or perceiving the color of a rose
35
96260
2000
꽃의 색깔을 인지하는 것은
01:38
if it doesn't affect the way you're going to move later in life.
36
98260
3000
진화적으로 어떤 이점도 갖지 못합니다.
01:41
Now for those who don't believe this argument,
37
101260
2000
이러한 논쟁을 받아들이지 못하는 사람들에게,
01:43
we have trees and grass on our planet without the brain,
38
103260
2000
우리는 지구에 뇌 없이, 나무와 잔디만 있는 가정을 듭니다.
01:45
but the clinching evidence is this animal here --
39
105260
2000
결정적 증거로 이 동물을 들 수 있겠네요--
01:47
the humble sea squirt.
40
107260
2000
보잘 것 없는 멍게입니다.
01:49
Rudimentary animal, has a nervous system,
41
109260
3000
진화 초기의 간단한 동물로, 신경계를 갖추고 있죠.
01:52
swims around in the ocean in its juvenile life.
42
112260
2000
유생 때에는 바다 안을 헤엄쳐 돌아다니다가
01:54
And at some point of its life,
43
114260
2000
특정 시기에 이르면
01:56
it implants on a rock.
44
116260
2000
바위에 달라붙습니다.
01:58
And the first thing it does in implanting on that rock, which it never leaves,
45
118260
3000
바위에 달라붙는 과정에서 멍게가 처음으로 하는 일은
02:01
is to digest its own brain and nervous system
46
121260
3000
뇌와 신경계를 먹이로써 분해, 섭취하여
02:04
for food.
47
124260
2000
제거하는 것입니다.
02:06
So once you don't need to move,
48
126260
2000
움직일 필요가 없게 되면,
02:08
you don't need the luxury of that brain.
49
128260
3000
뇌라는 사치를 부릴 필요가 없다는 거죠.
02:11
And this animal is often taken
50
131260
2000
이 생물은 종종
02:13
as an analogy to what happens at universities
51
133260
2000
대학교에서 교수님들이 정년을 보장받았을 때
02:15
when professors get tenure,
52
135260
2000
보이는 모습을 비유하는 데 쓰이죠.
02:17
but that's a different subject.
53
137260
2000
대상이 다르긴 하지만요.
02:19
(Applause)
54
139260
2000
(박수)
02:21
So I am a movement chauvinist.
55
141260
3000
저는 운동성에 대한 광신주의자입니다.
02:24
I believe movement is the most important function of the brain --
56
144260
2000
저는 뇌의 가장 중요한 기능은 움직임을 유도하는 것이라고 믿으며,
02:26
don't let anyone tell you that it's not true.
57
146260
2000
다른 사람들의 이의제기에 수긍하지 않습니다.
02:28
Now if movement is so important,
58
148260
2000
운동성이 그렇게 중요하다면,
02:30
how well are we doing
59
150260
2000
뇌가 어떻게 운동을 조절하는지
02:32
understanding how the brain controls movement?
60
152260
2000
우리가 얼마나 잘 이해하고 있을까요?
02:34
And the answer is we're doing extremely poorly; it's a very hard problem.
61
154260
2000
대답은 '거의 이해하지 못하고 있다.'입니다. 매우 어려운 문제죠.
02:36
But we can look at how well we're doing
62
156260
2000
하지만 우리는 우리가 사람처럼 움직이는
02:38
by thinking about how well we're doing building machines
63
158260
2000
기계를 만들기 위해 무엇을 해야 하는지 생각하는 과정을 통해
02:40
which can do what humans can do.
64
160260
2000
위 질문에 접근해볼 수 있습니다.
02:42
Think about the game of chess.
65
162260
2000
체스 게임에 대해 생각해보죠.
02:44
How well are we doing determining what piece to move where?
66
164260
3000
어떤 말을 어디로 움직여야 할 지 어떻게 결정하는 걸까요?
02:47
If you pit Garry Kasparov here, when he's not in jail,
67
167260
3000
게리 카스파로프*가, 감옥에 있지 않다면(*체스 세계 챔피언으로, 정치적 사안과 관련되어 감옥에 갇혔었음)
02:50
against IBM's Deep Blue,
68
170260
2000
IBM의 Deep blue와 겨루게 한다고 해봅시다.
02:52
well the answer is IBM's Deep Blue will occasionally win.
69
172260
3000
IBM의 Deep Blue가 때때로 이길 겁니다.
02:55
And I think if IBM's Deep Blue played anyone in this room, it would win every time.
70
175260
3000
만일 IBM의 Deep Blue가 이 방의 누군가와 겨룬다면, 매번 컴퓨터가 이길 겁니다.
02:58
That problem is solved.
71
178260
2000
문제가 해결됐군요.
03:00
What about the problem
72
180260
2000
체스 조각을
03:02
of picking up a chess piece,
73
182260
2000
들어올리는 데 있어서의 문제는
03:04
dexterously manipulating it and putting it back down on the board?
74
184260
3000
정교하게 그것을 들어올려 판 위에 다시 내려놓는 것일까요?
03:07
If you put a five year-old child's dexterity against the best robots of today,
75
187260
3000
만일 5살짜리 꼬마의 손재주를 오늘 날 가장 뛰어난 로봇과 겨루게 한다면,
03:10
the answer is simple:
76
190260
2000
그 결과는 간단합니다:
03:12
the child wins easily.
77
192260
2000
어린이가 아주 쉽게 이길 수 있죠.
03:14
There's no competition at all.
78
194260
2000
경쟁이라고 할 수도 없을 겁니다.
03:16
Now why is that top problem so easy
79
196260
2000
어째서 가장 위의 문제는 그토록 쉽고
03:18
and the bottom problem so hard?
80
198260
2000
두번째 문제는 그렇게 어려울까요?
03:20
One reason is a very smart five year-old
81
200260
2000
한 이유는 똑똑한 5살 꼬마가 얘기해 줄 수 있습니다.
03:22
could tell you the algorithm for that top problem --
82
202260
2000
가장 위의 문제를 해결하기 위한 알고리듬--
03:24
look at all possible moves to the end of the game
83
204260
2000
게임의 마지막에서 가능한 모든 움직임 중
03:26
and choose the one that makes you win.
84
206260
2000
하나를 선택해 수행할 뿐인 알고리듬은
03:28
So it's a very simple algorithm.
85
208260
2000
매우 매우 간단합니다.
03:30
Now of course there are other moves,
86
210260
2000
물론, 유능한 컴퓨터들은
03:32
but with vast computers we approximate
87
212260
2000
우리가 내는 최적의 해결책에 가까운
03:34
and come close to the optimal solution.
88
214260
2000
다른 움직임들도 계산할 수 있습니다.
03:36
When it comes to being dexterous,
89
216260
2000
손재주가 있는 수준을 만들기 위해서는,
03:38
it's not even clear what the algorithm is you have to solve to be dexterous.
90
218260
2000
당신이 어떤 알고리듬을 써야 하는지가 명확하지 않습니다.
03:40
And we'll see you have to both perceive and act on the world,
91
220260
2000
당신은 세상을 인지하는 동시에 행동해야 하는데,
03:42
which has a lot of problems.
92
222260
2000
여기에서 많은 문제가 발생합니다.
03:44
But let me show you cutting-edge robotics.
93
224260
2000
최첨단 로봇학을 보여드리죠.
03:46
Now a lot of robotics is very impressive,
94
226260
2000
현재의 수많은 로봇학이 매우 인상깊은데,
03:48
but manipulation robotics is really just in the dark ages.
95
228260
3000
정교한 조작을 위한 로봇학은 발전하지 못해왔습니다.
03:51
So this is the end of a Ph.D. project
96
231260
2000
여기 최고의 로봇공학원 중 한 곳에서
03:53
from one of the best robotics institutes.
97
233260
2000
진행된 Ph.D 프로젝트의 결과물을 보시죠.
03:55
And the student has trained this robot
98
235260
2000
로봇이 물을 컵에 붓도록
03:57
to pour this water into a glass.
99
237260
2000
훈련시켰습니다.
03:59
It's a hard problem because the water sloshes about, but it can do it.
100
239260
3000
이 행동은 물이 주변에 튀기 때문에 매우 어려운 일인데, 로봇이 해냈습니다.
04:02
But it doesn't do it with anything like the agility of a human.
101
242260
3000
하지만 인간의 민첩함을 보이며 해내지는 못했죠.
04:05
Now if you want this robot to do a different task,
102
245260
3000
이제, 로봇이 다른 작업을 하기를 바라면,
04:08
that's another three-year Ph.D. program.
103
248260
3000
또 다른 3년짜리 Ph.D. 프로그램이 됩니다.
04:11
There is no generalization at all
104
251260
2000
로봇학에서 한 작업을 다른 작업으로
04:13
from one task to another in robotics.
105
253260
2000
대치시킬 때 일반화를 사용할 수 없는 거죠.
04:15
Now we can compare this
106
255260
2000
이제 이것을 최첨단의
04:17
to cutting-edge human performance.
107
257260
2000
인간 행동과 비교해봅시다.
04:19
So what I'm going to show you is Emily Fox
108
259260
2000
이제 컵쌓기 대회에서 세계 기록을 기록한
04:21
winning the world record for cup stacking.
109
261260
3000
Emily Fox의 영상을 보여드릴 겁니다.
04:24
Now the Americans in the audience will know all about cup stacking.
110
264260
2000
여기 미국인 청중분들은 컵쌓기에 대해 잘 알고 계실 겁니다.
04:26
It's a high school sport
111
266260
2000
고등학교의 운동 종목이고
04:28
where you have 12 cups you have to stack and unstack
112
268260
2000
쌓고 빼기를 반복할 12개의 컵들로 시작합니다.
04:30
against the clock in a prescribed order.
113
270260
2000
규정된 순서에 따라 시간을 측정하면서요.
04:32
And this is her getting the world record in real time.
114
272260
3000
그녀가 세계 기록을 경신하는 순간을 보시죠.
04:39
(Laughter)
115
279260
8000
(웃음)
04:47
(Applause)
116
287260
5000
(박수)
04:52
And she's pretty happy.
117
292260
2000
매우 기뻐하는군요.
04:54
We have no idea what is going on inside her brain when she does that,
118
294260
2000
저 경기 중에 그녀의 뇌에서 무슨 일이 일어나고 있는지 저희는 잘 모릅니다.
04:56
and that's what we'd like to know.
119
296260
2000
저희가 알고자 하는 바로 그것이고요.
04:58
So in my group, what we try to do
120
298260
2000
저희 그룹에서는 그래서, 인간이
05:00
is reverse engineer how humans control movement.
121
300260
3000
어떻게 움직임을 조종하는지를 역으로 연구하고자 합니다.
05:03
And it sounds like an easy problem.
122
303260
2000
굉장히 쉬운 문제로 들리실 겁니다.
05:05
You send a command down, it causes muscles to contract.
123
305260
2000
당신이 명령을 전달하면 근육이 수축하고
05:07
Your arm or body moves,
124
307260
2000
팔과 몸이 움직이면서
05:09
and you get sensory feedback from vision, from skin, from muscles and so on.
125
309260
3000
시각, 피부, 근육과 기타 등등의 감각으로부터 피드백을 받습니다.
05:12
The trouble is
126
312260
2000
문제는,
05:14
these signals are not the beautiful signals you want them to be.
127
314260
2000
이러한 신호들이 당신이 원하는 것처럼 아름답지는 못하다는 겁니다.
05:16
So one thing that makes controlling movement difficult
128
316260
2000
움직임 조절을 어렵게 하는 이유 중 하나는,
05:18
is, for example, sensory feedback is extremely noisy.
129
318260
3000
감각적 피드백에 잡음이 심하다는 점입니다.
05:21
Now by noise, I do not mean sound.
130
321260
3000
잡음이 소리를 의미하는 것은 아닙니다.
05:24
We use it in the engineering and neuroscience sense
131
324260
2000
엔지니어링과 신경학적 감지에 있어서 잡음이란
05:26
meaning a random noise corrupting a signal.
132
326260
2000
신호 감지를 어렵게 하는 임의의 방해물들을 의미합니다.
05:28
So the old days before digital radio when you were tuning in your radio
133
328260
3000
디지털 라디오가 보급되지 않았을 때, 라디오 주파수를 돌려
05:31
and you heard "crrcckkk" on the station you wanted to hear,
134
331260
2000
원하는 채널에 맞췄는데 "치지지직" 소리가 난 적이 있을 겁니다.
05:33
that was the noise.
135
333260
2000
그것이 잡음입니다.
05:35
But more generally, this noise is something that corrupts the signal.
136
335260
3000
일반적으로, 잡음은 신호 감지를 방해합니다.
05:38
So for example, if you put your hand under a table
137
338260
2000
예를 들어보죠. 당신이 테이블 아래 손을 두고 있고,
05:40
and try to localize it with your other hand,
138
340260
2000
다른 손을 그 손 위에 위치시키려고 하면
05:42
you can be off by several centimeters
139
342260
2000
당신은 감각 피드백 상의 잡음으로 인해
05:44
due to the noise in sensory feedback.
140
344260
2000
몇 센티미터의 간격을 두게 될 겁니다.
05:46
Similarly, when you put motor output on movement output,
141
346260
2000
비슷하게, 당신이 움직임을 위해 근육에 명령을 내릴 때도
05:48
it's extremely noisy.
142
348260
2000
잡음이 아주 심합니다.
05:50
Forget about trying to hit the bull's eye in darts,
143
350260
2000
다트에서 정중앙을 맞추려는 건 차치하고,
05:52
just aim for the same spot over and over again.
144
352260
2000
같은 위치를 반복해서 겨냥한다고 해 봅시다.
05:54
You have a huge spread due to movement variability.
145
354260
3000
움직임의 가변성이 아주 넓다는 걸 알게 될겁니다.
05:57
And more than that, the outside world, or task,
146
357260
2000
나아가, 바깥 세상이나 작업에 있어서
05:59
is both ambiguous and variable.
147
359260
2000
모호성과 변이성이 항상 존재합니다.
06:01
The teapot could be full, it could be empty.
148
361260
2000
주전자는 가득 차 있을 수도, 비어 있을 수도 있죠.
06:03
It changes over time.
149
363260
2000
시간에 따라 달라집니다.
06:05
So we work in a whole sensory movement task soup of noise.
150
365260
4000
우리는 감각과 움직임 모두를 잡음 속에서 수행해야 합니다.
06:09
Now this noise is so great
151
369260
2000
잡음은 아주 거대해서
06:11
that society places a huge premium
152
371260
2000
우리 사회는 잡음의 영향을
06:13
on those of us who can reduce the consequences of noise.
153
373260
3000
줄인 사람들에게 큰 이익을 부여합니다.
06:16
So if you're lucky enough to be able to knock a small white ball
154
376260
3000
당신이 긴 금속 막대기를 이용해 작고 하얀 공을
06:19
into a hole several hundred yards away using a long metal stick,
155
379260
3000
몇 백 야드 떨어져 있는 구멍 안에 넣는다면
06:22
our society will be willing to reward you
156
382260
2000
사회가 당신에게 수억 달러의
06:24
with hundreds of millions of dollars.
157
384260
3000
상금으로 보상해줄 겁니다.
06:27
Now what I want to convince you of
158
387260
2000
이제 저는, 우리의 뇌가 이러한 잡음과
06:29
is the brain also goes through a lot of effort
159
389260
2000
가변성에 의한 부정적 결과들을 줄이기 위해
06:31
to reduce the negative consequences
160
391260
2000
엄청나 노력을 한다는 점을
06:33
of this sort of noise and variability.
161
393260
2000
여러분에게 확신시켜 드리려고 합니다.
06:35
And to do that, I'm going to tell you about a framework
162
395260
2000
이를 위해서 통계와 기계 부문에서 아주 유명한,
06:37
which is very popular in statistics and machine learning of the last 50 years
163
397260
3000
지난 50년에 걸쳐 베이시안 결정 이론이라고 불려온 이론적 틀에 대해
06:40
called Bayesian decision theory.
164
400260
2000
말씀드리고자 합니다.
06:42
And it's more recently a unifying way
165
402260
3000
두뇌가 불확실성을 어떻게 다루는지를
06:45
to think about how the brain deals with uncertainty.
166
405260
3000
이해하는, 보다 최근의 합일화된 방식입니다.
06:48
And the fundamental idea is you want to make inferences and then take actions.
167
408260
3000
기본적인 생각은 당신이 추론을 만들길 바랄 때 행동을 취한다는 겁니다.
06:51
So let's think about the inference.
168
411260
2000
추론에 대해 생각해보죠.
06:53
You want to generate beliefs about the world.
169
413260
2000
세계에 대한 믿음들을 만들려고 합니다.
06:55
So what are beliefs?
170
415260
2000
믿음들이란 뭘까요?
06:57
Beliefs could be: where are my arms in space?
171
417260
2000
이런 겁니다. '내 팔이 어디에 있지?'
06:59
Am I looking at a cat or a fox?
172
419260
2000
'내가 보고 있는 게 고양이야, 여우야?'
07:01
But we're going to represent beliefs with probabilities.
173
421260
3000
믿음들을 우선 가능성으로 다루죠.
07:04
So we're going to represent a belief
174
424260
2000
이제 이 믿음을
07:06
with a number between zero and one --
175
426260
2000
0과 1사이의 숫자들로 표현해봅시다.
07:08
zero meaning I don't believe it at all, one means I'm absolutely certain.
176
428260
3000
0은 전혀 믿지 않는다, 1은 확실하게 믿는다는 것을 의미합니다.
07:11
And numbers in between give you the gray levels of uncertainty.
177
431260
3000
이 사이의 숫자들은 당신의 확신성에 대한 *그레이레벨입니다. (*색깔 대신 흑백의 명암을 지정하여 화상을 형성하는 것)
07:14
And the key idea to Bayesian inference
178
434260
2000
베이시안 추론의 핵심 아이디어는
07:16
is you have two sources of information
179
436260
2000
당신이 추론을 만들 수 있는 것으로부터 얻을
07:18
from which to make your inference.
180
438260
2000
정보의 근원을 두 가지 갖는다는 것입니다.
07:20
You have data,
181
440260
2000
자료와,
07:22
and data in neuroscience is sensory input.
182
442260
2000
감각을 통해 유입되는 신경 속의 자료입니다.
07:24
So I have sensory input, which I can take in to make beliefs.
183
444260
3000
감각적 유입에서 저는 믿음들을 만들어낼 수 있죠.
07:27
But there's another source of information, and that's effectively prior knowledge.
184
447260
3000
하지만 효과적인 사전 지식이라는 정보의 다른 근원도 존재합니다.
07:30
You accumulate knowledge throughout your life in memories.
185
450260
3000
여러분은 삶 속에서 기억을 통해 지식을 축적합니다.
07:33
And the point about Bayesian decision theory
186
453260
2000
베이시안 결정 이론에 대한 요점은
07:35
is it gives you the mathematics
187
455260
2000
새로운 믿음을 만들기 위해
07:37
of the optimal way to combine
188
457260
2000
당신이 감각적 정보와
07:39
your prior knowledge with your sensory evidence
189
459260
2000
기존 지식을 병합하는 최적의 방법을 찾는 데
07:41
to generate new beliefs.
190
461260
2000
수학을 이용한다는 겁니다.
07:43
And I've put the formula up there.
191
463260
2000
여기 공식을 보여드리죠.
07:45
I'm not going to explain what that formula is, but it's very beautiful.
192
465260
2000
공식에 대해 설명하지는 않겠지만, 정말 아름다운 공식입니다.
07:47
And it has real beauty and real explanatory power.
193
467260
3000
정말 아름답고, 실제로 현상을 설명하는 힘을 가집니다.
07:50
And what it really says, and what you want to estimate,
194
470260
2000
이것이 이야기하는 바는, 당신이 평가하고자 하는 것은,
07:52
is the probability of different beliefs
195
472260
2000
당신의 감각적 유입으로부터 주어진
07:54
given your sensory input.
196
474260
2000
다양한 믿음들의 가능성입니다.
07:56
So let me give you an intuitive example.
197
476260
2000
직관적 예를 하나 들어보죠.
07:58
Imagine you're learning to play tennis
198
478260
3000
당신이 테니스를 배우고 있는데
08:01
and you want to decide where the ball is going to bounce
199
481260
2000
네트 너머에서 당신을 향해 날라오는 공이 바닥을 튀기고
08:03
as it comes over the net towards you.
200
483260
2000
어디로 날아올 지 판단하고 싶습니다.
08:05
There are two sources of information
201
485260
2000
베이시안 룰이 당신에게 말했듯,
08:07
Bayes' rule tells you.
202
487260
2000
두 가지 정보가 있죠.
08:09
There's sensory evidence -- you can use visual information auditory information,
203
489260
3000
감각적 정보를 보면 - 당신은 시청각적 정보를 이용해
08:12
and that might tell you it's going to land in that red spot.
204
492260
3000
레드스팟을 유추할 겁니다.
08:15
But you know that your senses are not perfect,
205
495260
3000
하지만 당신은 당신의 감각이 완벽하지 않다는 걸 알고 있고,
08:18
and therefore there's some variability of where it's going to land
206
498260
2000
공이 바닥에 닿는 지점들이 다양할 수 있다는 것을 인지하고,
08:20
shown by that cloud of red,
207
500260
2000
0.5에서 0.1 정도의 숫자로 표현되는
08:22
representing numbers between 0.5 and maybe 0.1.
208
502260
3000
붉은 점들의 구름을 보게 될 겁니다.
08:26
That information is available in the current shot,
209
506260
2000
이 정보는 현재의 슛에서 가능한 것들이고,
08:28
but there's another source of information
210
508260
2000
현재의 슛을 통해서는 얻을 수 있는
08:30
not available on the current shot,
211
510260
2000
정보를 얻을 다른 자료가 있지만,
08:32
but only available by repeated experience in the game of tennis,
212
512260
3000
테니스 게임을 반복해 경험함으로써만 얻을 수 있죠.
08:35
and that's that the ball doesn't bounce
213
515260
2000
경기가 진행되는 동안 코트 전역에서
08:37
with equal probability over the court during the match.
214
517260
2000
똑같은 가능성으로 공이 튀기지는 않는단 정보입니다.
08:39
If you're playing against a very good opponent,
215
519260
2000
당신이 매우 좋은 상대 선수와 경기를 한다면
08:41
they may distribute it in that green area,
216
521260
2000
공은 이전에 그래왔듯이
08:43
which is the prior distribution,
217
523260
2000
당신을 되돌아가기 어렵게 만드는
08:45
making it hard for you to return.
218
525260
2000
녹색 영역에 튀길 겁니다.
08:47
Now both these sources of information carry important information.
219
527260
2000
이 두 종류의 정보처는 모두 중요한 정보를 줍니다.
08:49
And what Bayes' rule says
220
529260
2000
베이시안 룰이 이야기하는 바는
08:51
is that I should multiply the numbers on the red by the numbers on the green
221
531260
3000
붉은 영역에 해당하는 숫자와 녹색 영역에 해당하는 숫자를 곱해
08:54
to get the numbers of the yellow, which have the ellipses,
222
534260
3000
타원 모양의, 노란 영역의 숫자를 얻는단 것입니다.
08:57
and that's my belief.
223
537260
2000
제가 믿는 바죠.
08:59
So it's the optimal way of combining information.
224
539260
3000
정보를 종합하는 최적의 방법입니다.
09:02
Now I wouldn't tell you all this if it wasn't that a few years ago,
225
542260
2000
몇 년 전이었다면 이 모든 얘기들을 하지는 않았을 겁니다.
09:04
we showed this is exactly what people do
226
544260
2000
우리가 사람들이 새로운 운동 기술을 배울 때
09:06
when they learn new movement skills.
227
546260
2000
정확히 이러한 일들을 한다는 걸 증명했죠.
09:08
And what it means
228
548260
2000
이것은 우리가 정말로
09:10
is we really are Bayesian inference machines.
229
550260
2000
베이시안 추론 기계들이라는 것을 의미합니다.
09:12
As we go around, we learn about statistics of the world and lay that down,
230
552260
4000
주변을 거닐 때, 우리는 세계의 통계들을 배우고, 그것들을 따르지만,
09:16
but we also learn
231
556260
2000
동시에 감각 기관의
09:18
about how noisy our own sensory apparatus is,
232
558260
2000
잡음들이 얼마나 많은지를 배우고,
09:20
and then combine those
233
560260
2000
이를 바탕으로 베이시안 방법으로
09:22
in a real Bayesian way.
234
562260
2000
정보들을 통합합니다.
09:24
Now a key part to the Bayesian is this part of the formula.
235
564260
3000
베이시안 공식의 가장 중요한 부분은 이 부분입니다.
09:27
And what this part really says
236
567260
2000
이 부분은 내 믿음들로부터 얻어지는
09:29
is I have to predict the probability
237
569260
2000
다양한 감각적 피드백들의
09:31
of different sensory feedbacks
238
571260
2000
가능성을 예측해야만 함을
09:33
given my beliefs.
239
573260
2000
의미합니다.
09:35
So that really means I have to make predictions of the future.
240
575260
3000
이것은 제가 미래를 예측해야 함을 의미하죠.
09:38
And I want to convince you the brain does make predictions
241
578260
2000
이제 두뇌가 감각적 피드백을 통해 예측을 만든다는 것을
09:40
of the sensory feedback it's going to get.
242
580260
2000
여러분에게 확신시켜 드리겠습니다.
09:42
And moreover, it profoundly changes your perceptions
243
582260
2000
심지어 뇌는 당신이 무엇을 하느냐에 따라 당신의 인식을
09:44
by what you do.
244
584260
2000
크게 바꾸기도 합니다.
09:46
And to do that, I'll tell you
245
586260
2000
이 이야기에 앞서, 뇌가 감각을
09:48
about how the brain deals with sensory input.
246
588260
2000
어떻게 다루는지에 대해 먼저 말씀드리겠습니다.
09:50
So you send a command out,
247
590260
3000
당신이 명령을 내보내면,
09:53
you get sensory feedback back,
248
593260
2000
감각적 피드백이 돌아오고,
09:55
and that transformation is governed
249
595260
2000
이 변형이 당신 몸과 당신 감각 기관들의
09:57
by the physics of your body and your sensory apparatus.
250
597260
3000
물리적 관계에 의해 지배됩니다.
10:00
But you can imagine looking inside the brain.
251
600260
2000
뇌 안을 바라본다고 상상해봅시다.
10:02
And here's inside the brain.
252
602260
2000
이 곳이 뇌의 안쪽입니다.
10:04
You might have a little predictor, a neural simulator,
253
604260
2000
당신의 몸과 감각들의 물리적 관계에 대해 예측자 역할을 하는
10:06
of the physics of your body and your senses.
254
606260
2000
작은 신경 시뮬레이터가 있습니다.
10:08
So as you send a movement command down,
255
608260
2000
당신이 움직임을 위한 명령을 내리면
10:10
you tap a copy of that off
256
610260
2000
동시에 그 명령의 복사본이
10:12
and run it into your neural simulator
257
612260
2000
신경 시뮬레이터로 전달됩니다.
10:14
to anticipate the sensory consequences of your actions.
258
614260
4000
행동의 감각적 결과를 예측하기 위해서죠.
10:18
So as I shake this ketchup bottle,
259
618260
2000
제가 케첩 병을 흔들면,
10:20
I get some true sensory feedback as the function of time in the bottom row.
260
620260
3000
시간에 따라 바닥에서부터 실제의 감각적 피드백을 얻게 되죠.
10:23
And if I've got a good predictor, it predicts the same thing.
261
623260
3000
제가 좋은 예측자를 가지고 있다면, 같은 피드백이 예측됩니다.
10:26
Well why would I bother doing that?
262
626260
2000
어째서 제가 그걸 방해하겠어요?
10:28
I'm going to get the same feedback anyway.
263
628260
2000
저도 예측과 감각적 피드백을 동일하게 얻으려 하죠.
10:30
Well there's good reasons.
264
630260
2000
여기엔 좋은 이유들이 있죠.
10:32
Imagine, as I shake the ketchup bottle,
265
632260
2000
제가 케첩 병을 흔들고 있는데
10:34
someone very kindly comes up to me and taps it on the back for me.
266
634260
3000
어떤 사람이 제 등 뒤로 다가와 저를 친다고 상상해봅시다.
10:37
Now I get an extra source of sensory information
267
637260
2000
저는 이제 외부 행동에서 기인한 감각적 정보의
10:39
due to that external act.
268
639260
2000
외부 정보처를 갖게 됩니다.
10:41
So I get two sources.
269
641260
2000
이제 두 가지 정보처가 생겼죠.
10:43
I get you tapping on it, and I get me shaking it,
270
643260
3000
제가 절 두드린 사람을 보고, 악수를 하지만
10:46
but from my senses' point of view,
271
646260
2000
제 감각의 관점에서 보자면,
10:48
that is combined together into one source of information.
272
648260
3000
정보가 한 근원으로 병합됐다고 볼 수 있습니다.
10:51
Now there's good reason to believe
273
651260
2000
당신이 외부에서 발생한 사건을
10:53
that you would want to be able to distinguish external events from internal events.
274
653260
3000
내부에서 발생한 사건과 구별하고자 한다는 증거들이 있습니다.
10:56
Because external events are actually much more behaviorally relevant
275
656260
3000
외부 사건은 내 몸 안에서 모든 것이 일어났다고 믿는 것보다
10:59
than feeling everything that's going on inside my body.
276
659260
3000
훨씬 행동적으로 적절하기 때문입니다.
11:02
So one way to reconstruct that
277
662260
2000
적절한 재구성을 위한 한 방법은
11:04
is to compare the prediction --
278
664260
2000
당신이 실제로 발생한 감각과
11:06
which is only based on your movement commands --
279
666260
2000
움직임 명령으로부터만 유래한 예측을
11:08
with the reality.
280
668260
2000
비교하는 겁니다.
11:10
Any discrepancy should hopefully be external.
281
670260
3000
불일치들은 거의 모두 외부로부터 발생합니다.
11:13
So as I go around the world,
282
673260
2000
제가 전 세계를 돌아다니며,
11:15
I'm making predictions of what I should get, subtracting them off.
283
675260
3000
제가 얻어야만 하는 것들을 제외한 예측을 만들어 보았습니다.
11:18
Everything left over is external to me.
284
678260
2000
제 외적인 것들만 남았죠.
11:20
What evidence is there for this?
285
680260
2000
이에 대한 증거가 무엇일까요?
11:22
Well there's one very clear example
286
682260
2000
여기 한 가지 매우 명백한 예가 있습니다.
11:24
where a sensation generated by myself feels very different
287
684260
2000
제 자신으로부터 유래된 감각은 다른 사람으로부터 유래된 감각과
11:26
then if generated by another person.
288
686260
2000
매우 다르게 느껴집니다.
11:28
And so we decided the most obvious place to start
289
688260
2000
우리는 이 명백한 것으로 연구를 시작하기로 했죠.
11:30
was with tickling.
290
690260
2000
간지럼입니다.
11:32
It's been known for a long time, you can't tickle yourself
291
692260
2000
다른 사람들이 나를 간지럽히는 것만큼 스스로를 간지럽힐 수 없다는 것은
11:34
as well as other people can.
292
694260
2000
오래 전부터 알려져 있었습니다.
11:36
But it hasn't really been shown, it's because you have a neural simulator,
293
696260
3000
하지만 그것이 당신 몸을 시뮬레이션 하고 관련 감각들을 제거하는
11:39
simulating your own body
294
699260
2000
당신의 신경 시뮬레이터 때문이라는 점은,
11:41
and subtracting off that sense.
295
701260
2000
증명된 적이 없었죠.
11:43
So we can bring the experiments of the 21st century
296
703260
3000
우리는 이 문제를, 로봇 공학을 적용함으로써
11:46
by applying robotic technologies to this problem.
297
706260
3000
21세기의 실험으로 가져왔습니다.
11:49
And in effect, what we have is some sort of stick in one hand attached to a robot,
298
709260
3000
사실상, 우리가 가지고 있는 것은 로봇에 부착된 한 손이 쥐고 있는 막대기로,
11:52
and they're going to move that back and forward.
299
712260
2000
앞 뒤로 움직일 수 있는 것이었습니다.
11:54
And then we're going to track that with a computer
300
714260
2000
우리는 컴퓨터로 이 움직임을 추적하고
11:56
and use it to control another robot,
301
716260
2000
다른 로봇을 조절하는 데 이용해,
11:58
which is going to tickle their palm with another stick.
302
718260
2000
다른 막대로 그들의 손바닥을 간지럽히게 했죠.
12:00
And then we're going to ask them to rate a bunch of things
303
720260
2000
그리고 그들에게 간지러움을 포함한 감각들에 대해
12:02
including ticklishness.
304
722260
2000
점수를 매기게 했습니다.
12:04
I'll show you just one part of our study.
305
724260
2000
연구 중 한 부분을 보여드리죠.
12:06
And here I've taken away the robots,
306
726260
2000
여기서 저는 로봇을 떼어냈지만
12:08
but basically people move with their right arm sinusoidally back and forward.
307
728260
3000
기본적으로 사람들은 그들의 오른팔을 앞 뒤로 사인 운동을 계속했습니다.
12:11
And we replay that to the other hand with a time delay.
308
731260
3000
그리고 이것을 시간적 격차를 두고 다른 손으로 반복했죠.
12:14
Either no time delay,
309
734260
2000
시간 격차가 없거나
12:16
in which case light would just tickle your palm,
310
736260
2000
아주 작을 때 당신은 간지러움을 느끼지만,
12:18
or with a time delay of two-tenths of three-tenths of a second.
311
738260
4000
2/10초나 3/10초의 시간 격차에서는 그렇지 않습니다.
12:22
So the important point here
312
742260
2000
중요한 점은 이것입니다.
12:24
is the right hand always does the same things -- sinusoidal movement.
313
744260
3000
오른쪽 손은 항상 같은 일 - 사인 운동을 계속했죠.
12:27
The left hand always is the same and puts sinusoidal tickle.
314
747260
3000
왼쪽 손은 항상 같은 일, 사인 운동으로 간지럽히는 것을 계속했습니다.
12:30
All we're playing with is a tempo causality.
315
750260
2000
우리가 조절한 것은 속도 일치성이었죠.
12:32
And as we go from naught to 0.1 second,
316
752260
2000
우리가 지연을 0초에서 0.1초로 늘림에 따라,
12:34
it becomes more ticklish.
317
754260
2000
사람들은 더 간지럽다고 느꼈습니다.
12:36
As you go from 0.1 to 0.2,
318
756260
2000
당신이 0.1초에서 0.2초로 지연을 늘린다면
12:38
it becomes more ticklish at the end.
319
758260
2000
지연이 클 수록 더 간지러울 겁니다.
12:40
And by 0.2 of a second,
320
760260
2000
0.2초의 지연에서,
12:42
it's equivalently ticklish
321
762260
2000
당신의 행동과는 상관 없이
12:44
to the robot that just tickled you without you doing anything.
322
764260
2000
로봇이 간지럽히는 만큼 간지럽다고 느낄 겁니다.
12:46
So whatever is responsible for this cancellation
323
766260
2000
이러한 상쇄 효과를 일으키는 것은
12:48
is extremely tightly coupled with tempo causality.
324
768260
3000
시간 일치성과 깊은 관련이 있습니다.
12:51
And based on this illustration, we really convinced ourselves in the field
325
771260
3000
이러한 착각을 기반으로, 우리는 뇌가 정확한 예측을 만들고
12:54
that the brain's making precise predictions
326
774260
2000
이 예측을 실제의 감각들로부터 구별해낸다는 점을
12:56
and subtracting them off from the sensations.
327
776260
3000
우리 분야에서 공고히 할 수 있었습니다.
12:59
Now I have to admit, these are the worst studies my lab has ever run.
328
779260
3000
이제, 저희 랩에서 진행된 가장 안 좋은 연구에 대해 보여드리죠.
13:02
Because the tickle sensation on the palm comes and goes,
329
782260
2000
손바닥에 간지럽히는 느낌이 생겼다 없어졌다 했기 때문에,
13:04
you need large numbers of subjects
330
784260
2000
이 차이들을 보다 명백히 만들기 위한
13:06
with these stars making them significant.
331
786260
2000
실험 수를 충분히 늘려야 했습니다.
13:08
So we were looking for a much more objective way
332
788260
2000
이 현상에 접근하기 위해 보다 객관적인 방식을
13:10
to assess this phenomena.
333
790260
2000
찾기 위해 노력했죠.
13:12
And in the intervening years I had two daughters.
334
792260
2000
그 사이에, 저는 두 딸을 얻었습니다.
13:14
And one thing you notice about children in backseats of cars on long journeys,
335
794260
3000
여러분이 알아야 할 것이 있습니다. 긴 여행 도중 차의 뒷좌석에 있는 아이들은
13:17
they get into fights --
336
797260
2000
싸우게 된다는 점입니다.
13:19
which started with one of them doing something to the other, the other retaliating.
337
799260
3000
한 명이 다른 한 명에게 무언가를 하면 그 아이가 보복을 하면서 싸움이 시작됩니다.
13:22
It quickly escalates.
338
802260
2000
그리고 싸움이 확대되죠.
13:24
And children tend to get into fights which escalate in terms of force.
339
804260
3000
아이들은 힘이라는 요소가 점차 확대되는 싸움을 합니다.
13:27
Now when I screamed at my children to stop,
340
807260
2000
제가 아이들에게 멈추라고 소리를 지르면,
13:29
sometimes they would both say to me
341
809260
2000
가끔 그들은 둘이 동시에
13:31
the other person hit them harder.
342
811260
3000
상대방이 더 세게 때렸다고 말하곤 합니다.
13:34
Now I happen to know my children don't lie,
343
814260
2000
이제 저는 제 아이들이 거짓말을 하는 게 아니란 걸 알고,
13:36
so I thought, as a neuroscientist,
344
816260
2000
신경과학자로서 생각합니다.
13:38
it was important how I could explain
345
818260
2000
어째서 그들이 서로 일치하지 않는
13:40
how they were telling inconsistent truths.
346
820260
2000
진실을 말하는지 설명해내는 게 중요하다고요.
13:42
And we hypothesize based on the tickling study
347
822260
2000
간지럼 실험을 바탕으로 우리는 한 아이가
13:44
that when one child hits another,
348
824260
2000
다른 아이를 때릴 때 운동 명령을
13:46
they generate the movement command.
349
826260
2000
내린다고 가정했습니다.
13:48
They predict the sensory consequences and subtract it off.
350
828260
3000
그리고 감각적 결과가 이것을 상쇄한다고 예상했죠.
13:51
So they actually think they've hit the person less hard than they have --
351
831260
2000
따라서 그들은 그들이 상대방에 비해 더 약하게 때렸다고 생각하게 됩니다.
13:53
rather like the tickling.
352
833260
2000
간지럼 때처럼요.
13:55
Whereas the passive recipient
353
835260
2000
수동적인 수령인이 예측을
13:57
doesn't make the prediction, feels the full blow.
354
837260
2000
만들지 않는데 비해, 느낌은 충분히 거셉니다.
13:59
So if they retaliate with the same force,
355
839260
2000
따라서 그들이 서로를 같은 힘으로 앙갚음한다면,
14:01
the first person will think it's been escalated.
356
841260
2000
처음의 상대는 힘이 강해졌다고 생각할겁니다.
14:03
So we decided to test this in the lab.
357
843260
2000
이것을 실험실에서 실험해보기로 했죠.
14:05
(Laughter)
358
845260
3000
(웃음)
14:08
Now we don't work with children, we don't work with hitting,
359
848260
2000
이제 우리는 아이들, 때리는 것에서 벗어났지만
14:10
but the concept is identical.
360
850260
2000
개념은 동일합니다.
14:12
We bring in two adults. We tell them they're going to play a game.
361
852260
3000
두 명의 성인을 모시고, 게임을 할 거라고 얘기했죠.
14:15
And so here's player one and player two sitting opposite to each other.
362
855260
2000
플레이어 1은 여기 있고, 2는 반대쪽에 앉습니다.
14:17
And the game is very simple.
363
857260
2000
게임은 아주 간단합니다.
14:19
We started with a motor
364
859260
2000
작은 레버와 작은 힘 생성기가
14:21
with a little lever, a little force transfuser.
365
861260
2000
달린 모터를 준비했습니다.
14:23
And we use this motor to apply force down to player one's fingers
366
863260
2000
그리고 이 모터로 플레이어 1의 손가락에 힘을 가했죠.
14:25
for three seconds and then it stops.
367
865260
3000
3초간 힘을 가하고 멈췄습니다.
14:28
And that player's been told, remember the experience of that force
368
868260
3000
그리고 플레이어에게 그 힘의 정도를 기억하라고 얘기한 후
14:31
and use your other finger
369
871260
2000
다른 손가락을 이용해
14:33
to apply the same force
370
873260
2000
힘 생성기를 통해
14:35
down to the other subject's finger through a force transfuser -- and they do that.
371
875260
3000
상대방 플레이어의 손가락에 같은 힘을 가하도록 했습니다.
14:38
And player two's been told, remember the experience of that force.
372
878260
3000
플레이어 2에게도 그 힘의 세기를 기억하도록 요청했습니다.
14:41
Use your other hand to apply the force back down.
373
881260
3000
그리고 다른 손을 이용해 힘을 되돌려주도록 했죠.
14:44
And so they take it in turns
374
884260
2000
결국 서로 주고 받은 경험들을 바탕으로
14:46
to apply the force they've just experienced back and forward.
375
886260
2000
같은 정도의 강도를 돌려주도록 한 거죠.
14:48
But critically,
376
888260
2000
중요한 점은,
14:50
they're briefed about the rules of the game in separate rooms.
377
890260
3000
각 플레이어에게 분리된 방에서 따로 규칙을 설명했다는 점입니다.
14:53
So they don't know the rules the other person's playing by.
378
893260
2000
따라서 상대방이 어떤 규칙으로 플레이하는지 알 수 없었죠.
14:55
And what we've measured
379
895260
2000
우리는 용어 그대로의
14:57
is the force as a function of terms.
380
897260
2000
힘을 측정했습니다.
14:59
And if we look at what we start with,
381
899260
2000
어떻게 시작했는지 보면,
15:01
a quarter of a Newton there, a number of turns,
382
901260
2000
1/4 뉴턴의 힘으로 시작했고, 주고 받으면서
15:03
perfect would be that red line.
383
903260
2000
빨간 선으로 진행됐습니다.
15:05
And what we see in all pairs of subjects is this --
384
905260
3000
모든 참가자들 결과에서 우리가 발견한 것은
15:08
a 70 percent escalation in force
385
908260
2000
각 턴마다 70%의 힘 강화가
15:10
on each go.
386
910260
2000
일어났다는 점입니다.
15:12
So it really suggests, when you're doing this --
387
912260
2000
따라서, 이 실험 결과와 다른 근거들을 바탕으로
15:14
based on this study and others we've done --
388
914260
2000
우리가 판단내릴 수 있는 점은
15:16
that the brain is canceling the sensory consequences
389
916260
2000
뇌가 감각 결과를 상쇄시키기 때문에
15:18
and underestimating the force it's producing.
390
918260
2000
자신이 실제 생성되는 힘을 과소평가한다는 것입니다.
15:20
So it re-shows the brain makes predictions
391
920260
2000
이것은 다시, 뇌가 기본적으로 인지를 변화시킴으로써
15:22
and fundamentally changes the precepts.
392
922260
3000
예상을 만든다는 것을 의미합니다.
15:25
So we've made inferences, we've done predictions,
393
925260
3000
우리는 추론을 만들고, 예측을 수행하며,
15:28
now we have to generate actions.
394
928260
2000
행동을 발생시킵니다.
15:30
And what Bayes' rule says is, given my beliefs,
395
930260
2000
제가 믿는 바로는, Bayes' 규칙은
15:32
the action should in some sense be optimal.
396
932260
2000
행동은 감각적으로 최적화 되어 발생한다는 것입니다.
15:34
But we've got a problem.
397
934260
2000
여기서 문제가 생기죠.
15:36
Tasks are symbolic -- I want to drink, I want to dance --
398
936260
3000
작업은 상징적인 것으로 --마시고 싶고, 춤추고 싶은--
15:39
but the movement system has to contract 600 muscles
399
939260
2000
실제 운동 체계는 특정 결과에 있어서는,
15:41
in a particular sequence.
400
941260
2000
600여개의 근육을 수축시켜야 합니다.
15:43
And there's a big gap
401
943260
2000
여기서 작업과
15:45
between the task and the movement system.
402
945260
2000
운동체계 사이에 괴리가 발생합니다.
15:47
So it could be bridged in infinitely many different ways.
403
947260
2000
따라서 굉장히 많은 방법을 통한 연결들이 생성되죠.
15:49
So think about just a point to point movement.
404
949260
2000
움직임을 만드는 연결 부분 부분들을 생각해봅시다.
15:51
I could choose these two paths
405
951260
2000
저는 여기 이 무한한 경로들 중
15:53
out of an infinite number of paths.
406
953260
2000
이 두 경로를 선택할 수 있었습니다.
15:55
Having chosen a particular path,
407
955260
2000
특정한 한 경로를 선택한 경우에,
15:57
I can hold my hand on that path
408
957260
2000
무한히 많은 관절들을
15:59
as infinitely many different joint configurations.
409
959260
2000
제 손이 그 경로로 가도록 배치시키겠죠.
16:01
And I can hold my arm in a particular joint configuration
410
961260
2000
저는 제 팔의 특정 관절들을 조종해서
16:03
either very stiff or very relaxed.
411
963260
2000
긴장시키거나 이완시킬 수도 있습니다.
16:05
So I have a huge amount of choice to make.
412
965260
3000
제가 만들어낼 수 있는 선택이 정말 많은거죠.
16:08
Now it turns out, we are extremely stereotypical.
413
968260
3000
이제, 우리가 극단적으로 전형적이라는 점을 알 수 있습니다.
16:11
We all move the same way pretty much.
414
971260
3000
우리는 거의 똑같은 방식으로 움직입니다.
16:14
And so it turns out we're so stereotypical,
415
974260
2000
이것이 우리가 많이 전형적이라는 것을 의미하며,
16:16
our brains have got dedicated neural circuitry
416
976260
2000
우리의 뇌가 이러한 전형성을 내포하는
16:18
to decode this stereotyping.
417
978260
2000
신경망을 형성하는 데 쓰이죠.
16:20
So if I take some dots
418
980260
2000
그리고 그 덕에 제가 점 몇 개를
16:22
and set them in motion with biological motion,
419
982260
3000
특정 형태로 맞추고자 움직일 때,
16:25
your brain's circuitry would understand instantly what's going on.
420
985260
3000
여러분의 뇌에 있는 회로가 무슨 일이 일어날 지 즉각 이해합니다.
16:28
Now this is a bunch of dots moving.
421
988260
2000
여러 점들의 움직임 집합이죠.
16:30
You will know what this person is doing,
422
990260
3000
이 사람이 무슨 일을 하는지, 기쁜지 슬픈지,
16:33
whether happy, sad, old, young -- a huge amount of information.
423
993260
3000
나이 들었는지, 젊은지 등의 수많은 정보를 쉽게 알 수 있습니다.
16:36
If these dots were cars going on a racing circuit,
424
996260
2000
만일 이 점들이 경기장을 도는 자동차들이었다면,
16:38
you would have absolutely no idea what's going on.
425
998260
3000
당신은 무슨 일이 일어날 지 절대로 알 수 없을 겁니다.
16:41
So why is it
426
1001260
2000
그렇다면 어째서
16:43
that we move the particular ways we do?
427
1003260
2000
우리는 이런 특정한 방식으로 움직이는 걸까요?
16:45
Well let's think about what really happens.
428
1005260
2000
실제로 어떤 일이 일어나는지 생각해봅시다.
16:47
Maybe we don't all quite move the same way.
429
1007260
3000
우리가 정확히 같은 방식으로 움직이는 것은 아닐겁니다.
16:50
Maybe there's variation in the population.
430
1010260
2000
사람들 간에 다양성이 존재하겠죠.
16:52
And maybe those who move better than others
431
1012260
2000
다른 사람들보다 움직임을 더 잘 제어하는 사람이
16:54
have got more chance of getting their children into the next generation.
432
1014260
2000
후에 후손을 얻을 확률이 높습니다.
16:56
So in evolutionary scales, movements get better.
433
1016260
3000
진화적으로, 움직임이 점점 나아집니다.
16:59
And perhaps in life, movements get better through learning.
434
1019260
3000
살아가면서 배움을 통해서도 움직임이 더 나아지고요.
17:02
So what is it about a movement which is good or bad?
435
1022260
2000
그렇다면 좋은 움직임과 나쁜 움직임이란 뭘까요?
17:04
Imagine I want to intercept this ball.
436
1024260
2000
제가 이 공을 가로채려고 한다고 상상해보세요.
17:06
Here are two possible paths to that ball.
437
1026260
3000
이 공은 두 가지 경로가 가능합니다.
17:09
Well if I choose the left-hand path,
438
1029260
2000
제가 왼쪽 손 경로를 선택한다면,
17:11
I can work out the forces required
439
1031260
2000
적시에 원하는 기능을 수행할 근육에
17:13
in one of my muscles as a function of time.
440
1033260
2000
힘을 가해 작동시켜야 합니다.
17:15
But there's noise added to this.
441
1035260
2000
하지만 여기에 교란이 일어나죠.
17:17
So what I actually get, based on this lovely, smooth, desired force,
442
1037260
3000
이 사랑스럽고 부드러운, 원하는 힘을 바탕으로 제가 실제로 얻는 것은
17:20
is a very noisy version.
443
1040260
2000
잡음이 매우 심한 정보입니다.
17:22
So if I pick the same command through many times,
444
1042260
3000
제가 여러 번에 걸쳐 같은 명령을 내릴 때,
17:25
I will get a different noisy version each time, because noise changes each time.
445
1045260
3000
잡음이 매번 달라질 것이기 때문에 저는 다양하게 잡음이 들어간 정보를 얻게 됩니다.
17:28
So what I can show you here
446
1048260
2000
여기서 제가 보여드리고자 하는 것은
17:30
is how the variability of the movement will evolve
447
1050260
2000
이 다양한 잡음들이 제가 이 경로를 선택했을 때
17:32
if I choose that way.
448
1052260
2000
어떻게 발달되어 가는가 하는 점입니다.
17:34
If I choose a different way of moving -- on the right for example --
449
1054260
3000
다른 방식으로 움직이길 선택한다면 -- 예를 들어 오른쪽으로 --
17:37
then I'll have a different command, different noise,
450
1057260
2000
저는 다른 명령을 내릴테고 잡음이 심하고 복잡한 체계에서
17:39
playing through a noisy system, very complicated.
451
1059260
3000
또 다시 다양한 잡음들을 바탕으로 움직이겠죠.
17:42
All we can be sure of is the variability will be different.
452
1062260
3000
이 잡음들의 양상이 다양할 것이라는 점은 자명합니다.
17:45
If I move in this particular way,
453
1065260
2000
제가 이런 특정한 경로로 움직이면,
17:47
I end up with a smaller variability across many movements.
454
1067260
3000
수많은 움직임들에 걸쳐 매우 적은 다양성을 보이며 행동을 끝내겠죠.
17:50
So if I have to choose between those two,
455
1070260
2000
만일 제가 둘 중 하나를 선택해야 했다면,
17:52
I would choose the right one because it's less variable.
456
1072260
2000
저는 다양성이 적은 오른쪽 경로를 선택했을 겁니다.
17:54
And the fundamental idea
457
1074260
2000
여기서, 당신이 잡음에 의한
17:56
is you want to plan your movements
458
1076260
2000
부정적인 결과들을 최소화하기 위해
17:58
so as to minimize the negative consequence of the noise.
459
1078260
3000
움직임을 계획한다는 것이 기본적인 생각입니다.
18:01
And one intuition to get
460
1081260
2000
그리고 이를 바탕으로
18:03
is actually the amount of noise or variability I show here
461
1083260
2000
움직이려는 힘이 강해질수록 잡음이나 그 다양성의 양이
18:05
gets bigger as the force gets bigger.
462
1085260
2000
점점 커진다는 점을 알 수 있습니다.
18:07
So you want to avoid big forces as one principle.
463
1087260
3000
거대한 힘을 피하고자 한다는 것을 원리로 볼 수 있죠.
18:10
So we've shown that using this,
464
1090260
2000
이 방대한 자료가
18:12
we can explain a huge amount of data --
465
1092260
2000
그 원리를 보여줍니다.
18:14
that exactly people are going about their lives planning movements
466
1094260
3000
사람들이 잡음에 의한 부정적인 결과를 최소화하기 위한 방향으로
18:17
so as to minimize negative consequences of noise.
467
1097260
3000
움직임을 계획함으로써 살아간다는 원리요.
18:20
So I hope I've convinced you the brain is there
468
1100260
2000
제가 당신의 뇌가 움직임을 조절하기 위해
18:22
and evolved to control movement.
469
1102260
2000
진화해왔다는 확신을 당신에게 주었길 바랍니다.
18:24
And it's an intellectual challenge to understand how we do that.
470
1104260
3000
우리거 어떻게 그 일을 하는지 이해하는 것은 지적인 도전입니다.
18:27
But it's also relevant
471
1107260
2000
병과 사회복귀에
18:29
for disease and rehabilitation.
472
1109260
2000
이를 적용해봅시다.
18:31
There are many diseases which effect movement.
473
1111260
3000
움직임에 영향을 주는 많은 병들이 있습니다.
18:34
And hopefully if we understand how we control movement,
474
1114260
2000
우리가 움직임을 어떻게 제어하는지 이해한다면,
18:36
we can apply that to robotic technology.
475
1116260
2000
로봇 공학에 이를 적용할 수 있을 겁니다.
18:38
And finally, I want to remind you,
476
1118260
2000
궁극적으로 저는 당신에게,
18:40
when you see animals do what look like very simple tasks,
477
1120260
2000
당신이 간단한 작업을 수행하는 동물을 바라볼 때
18:42
the actual complexity of what is going on inside their brain
478
1122260
2000
당신의 뇌에서 일어나는 일의 복잡성이 얼마나 극적인지를
18:44
is really quite dramatic.
479
1124260
2000
상기시켜드리고 싶습니다.
18:46
Thank you very much.
480
1126260
2000
감사합니다.
18:48
(Applause)
481
1128260
8000
(박수)
18:56
Chris Anderson: Quick question for you, Dan.
482
1136260
2000
크리스 앤더슨: 댄, 질문 하나 할게요.
18:58
So you're a movement -- (DW: Chauvinist.) -- chauvinist.
483
1138260
4000
움직임 신봉자로서 당신은
19:02
Does that mean that you think that the other things we think our brains are about --
484
1142260
3000
우리가 뇌에 대해 생각하는 다른 것들 - 꿈꾸는 것, 동경하는 것, 사랑에 빠지거나
19:05
the dreaming, the yearning, the falling in love and all these things --
485
1145260
3000
다른 다양한 것들을 하는 것이 그저 우연에 의해 만들어진
19:08
are a kind of side show, an accident?
486
1148260
3000
부가적 현상에 불과하다고 생각하는 건가요?
19:11
DW: No, no, actually I think they're all important
487
1151260
2000
댄: 아뇨, 아닙니다. 저는 그 모든 것이 결국에는
19:13
to drive the right movement behavior to get reproduction in the end.
488
1153260
3000
생식 활동에 이르는 올바른 움직임들을 이끌어내는 데 중요하다고 생각합니다.
19:16
So I think people who study sensation or memory
489
1156260
3000
왜 어린시절의 기억들을 회고하는지를 깨닫지 못한 채
19:19
without realizing why you're laying down memories of childhood.
490
1159260
2000
감각이나 기억을 연기하는 사람들에 있어서요.
19:21
The fact that we forget most of our childhood, for example,
491
1161260
3000
예를 들어 우리가 어린 시절의 대부분을 잊어버리는 것은
19:24
is probably fine, because it doesn't effect our movements later in life.
492
1164260
3000
우리 생애 후반의 움직임들에 그것이 거의 영향을 주지 못하기 때문일 겁니다.
19:27
You only need to store things which are really going to effect movement.
493
1167260
3000
움직임에 진정으로 영향을 주는 것들만을 기억해두면 된다는 거죠.
19:30
CA: So you think that people thinking about the brain, and consciousness generally,
494
1170260
3000
크리스: 그렇다면 뇌와 일반적인 무의식에 대해 생각하는 사람들이
19:33
could get real insight
495
1173260
2000
실제 움직임이 어디에서
19:35
by saying, where does movement play in this game?
496
1175260
2000
발생하는지를 봄으로써 통찰을 얻을 수 있다고 생각하시는 건가요?
19:37
DW: So people have found out for example
497
1177260
2000
댄: 예를 들어 당신이 왜 시각을 가지고 있는지에
19:39
that studying vision in the absence of realizing why you have vision
498
1179260
2000
대한 깨달음 없이 시각을 연구하는 것은
19:41
is a mistake.
499
1181260
2000
실수라는 거죠.
19:43
You have to study vision with the realization
500
1183260
2000
움직임을 위한 체계가 어떻게 시각을 이용하는지에
19:45
of how the movement system is going to use vision.
501
1185260
2000
대한 깨달음 위에서 시각을 연구해야 합니다.
19:47
And it uses it very differently once you think about it that way.
502
1187260
2000
그 방식에 대해 생각하고 나면 매우 다른 접근을 할 수 있을 겁니다.
19:49
CA: Well that was quite fascinating. Thank you very much indeed.
503
1189260
3000
크리스: 정말 흥미로운 강연이었습니다. 감사합니다.
19:52
(Applause)
504
1192260
2000
(박수)
New videos
이 웹사이트 정보
이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.