아래 영문자막을 더블클릭하시면 영상이 재생됩니다.
번역: Sunphil Ga
검토: Kahyun Kim
00:25
I do two things:
0
25476
1151
전 두 가지 일을 합니다. 모바일 컴퓨터 디자인을 하고 뇌 연구를 합니다.
00:26
I design mobile computers
and I study brains.
1
26651
2118
00:28
Today's talk is about brains
and -- (Audience member cheers)
2
28793
2930
오늘 강연은 뇌에 대해서, 그리고
00:31
Yay! I have a brain fan out there.
3
31747
1817
예, 뇌 팬이 어딘가에 있으시군요.
00:33
(Laughter)
4
33588
3147
(웃음)
저는, 여기에 제 첫번째 슬라이드가 뜬다면
00:36
If I could have my first slide,
5
36759
1555
제 강연의 제목과 저의 두가지 소속이 보이실 것입니다.
00:38
you'll see the title of my talk
and my two affiliations.
6
38338
2849
00:41
So what I'm going to talk about is why
we don't have a good brain theory,
7
41211
3468
이제 저는 왜 우리에게 뇌 이론이 없는지에 대해 말해보겠습니다,
00:44
why it is important
that we should develop one
8
44703
2277
우리가 뇌 이론을 정립하는 게 왜 중요한 지와, 그걸 정립하기 위해서 무얼 할 수 있는지도요.
00:47
and what we can do about it.
9
47004
1483
00:48
I'll try to do all that in 20 minutes.
10
48511
1824
이 모든 것을 20분 동안 강연하려 합니다. 전 소속이 두 곳입니다.
00:50
I have two affiliations.
11
50359
1151
00:51
Most of you know me
from my Palm and Handspring days,
12
51534
2532
많은 분들이 제가 팜, 그리고 핸드스프링에서 일하던 시절로부터 절 알고 계시지만
00:54
but I also run a nonprofit
scientific research institute
13
54090
2683
저는 비영리 과학 연구소도 경영하고 있습니다.
00:56
called the Redwood Neuroscience
Institute in Menlo Park.
14
56797
2632
멘로파크에 있는 레드우드 뇌과학 연구소-라는 곳입니다.
00:59
We study theoretical neuroscience
and how the neocortex works.
15
59453
3388
여기선 이론적인 뇌과학과
대뇌 신피질이 어떻게 기능하는지에 대해 연구합니다.
01:02
I'm going to talk all about that.
16
62865
1598
이제 저는 이것들에 대해 말해보려 합니다.
01:04
I have one slide on my other life,
the computer life,
17
64487
2745
또 하나의 슬라이드에는 저의 다른 삶에 관한 것입니다, 컴퓨터 삶이죠, 여기있는 슬라이드입니다.
01:07
and that's this slide here.
18
67256
1301
01:08
These are some of the products
I've worked on over the last 20 years,
19
68581
3268
이 제품들은 제가 지난 20년동안 작업해온 것들입니다,
01:11
starting from the very original laptop
20
71873
1842
아주 최초의 랩탑에서부터 시작해서 초반의 태블릿 컴퓨터,
01:13
to some of the first tablet computers
21
73739
1787
01:15
and so on, ending up
most recently with the Treo,
22
75550
2298
다른 여러 제품들, 그리고 마지막에 있는 최근의 트레오까지 있죠.
01:17
and we're continuing to do this.
23
77872
1532
그리고 저희는 이 작업을 계속 이어가고 있습니다.
01:19
I've done this because
I believe mobile computing
24
79428
2301
제가 이렇게 지금껏 연구해온 이유은 저는 정말 모바일 컴퓨팅이
01:21
is the future of personal computing,
25
81753
1724
개인용 컴퓨터의 미래라고 생각하기때문이죠,그래서 이런것을 개발함으로 이 세상을
01:23
and I'm trying to make
the world a little bit better
26
83501
2454
조금더 살기 좋은 곳으로 만들어보려합니다.
01:25
by working on these things.
27
85979
1296
01:27
But this was, I admit, all an accident.
28
87299
1874
제가 인정하는 건. 이게 다 우연이였다는 것입니다.
01:29
I really didn't want to do
any of these products.
29
89197
2308
저는 이런 제품 관련일을 할 생각이 없었습니다.
01:31
Very early in my career
30
91529
1382
게다가 막 경력이 시작할 때부터
01:32
I decided I was not going to be
in the computer industry.
31
92935
2690
컴퓨터 사업 쪽은 안 할거라고 결심했었습니다.
01:35
Before that, I just have to tell you
32
95649
1721
제가 여기에 대해서 더 말하기 전에 또 알려드릴게 있습니다.
01:37
about this picture of Graffiti
I picked off the web the other day.
33
97394
3108
이 그래피티 사진은 제가 어느 웹사이트에서 가져온 것입니다.
01:40
I was looking for a picture for Graffiti
that'll text input language.
34
100526
3253
저는 그래피티 사진을 찾고 있었습니다, 조그마한 텍스트 입력 언어 같은 것이죠.
01:43
I found a website dedicated to teachers
who want to make script-writing things
35
103803
3689
그러다 이런 것들을 직접 만들고 싶은 선생님들을 위한 웹사이트를 찾았습니다.
다들 아시는 칠판 위에 쓰는 스크립트 같은 것들 있잖아요, 그리고
01:47
across the top of their blackboard,
36
107516
1674
01:49
and they had added Graffiti to it,
and I'm sorry about that.
37
109214
2833
그들은 거기다 그래피티를 추가했던 것이였죠. 그리고 그게 참 유감이긴해요.
01:52
(Laughter)
38
112071
2247
(웃음)
01:54
So what happened was,
39
114342
1300
그래서 어떻게 됬냐면, 제가 젊고, 공대를 막 나왔을 때,
01:55
when I was young and got out
of engineering school at Cornell in '79,
40
115666
4899
79년 코넬대에서였죠, 저는 인텔에 가 일하기로 결정했습니다.
02:00
I went to work for Intel
and was in the computer industry,
41
120589
3187
02:03
and three months into that,
I fell in love with something else.
42
123800
3402
컴퓨터 산업에 있었던 거죠. 그리고 삼개월이 지나
"경력 선택을 잘못했어" 라고 말하면서, 전 좀 다른것에 빠지게 됩니다
02:07
I said, "I made
the wrong career choice here,"
43
127226
3044
02:10
and I fell in love with brains.
44
130294
2239
뇌에 빠져버리게 된 것입니다.
02:12
This is not a real brain.
45
132557
1533
이건 진짜 뇌는 아닙니다. 뇌의 선화 그림이죠.
02:14
This is a picture of one, a line drawing.
46
134114
2719
02:16
And I don't remember
exactly how it happened,
47
136857
2119
사실 제가 왜 뇌에 빠지게 됐는지 정확하게 다 기억나지는 않지만
02:19
but I have one recollection,
which was pretty strong in my mind.
48
139000
3515
아직도 제가 확실히 기억하고있는 딱 하나가 있습니다.
02:22
In September of 1979,
49
142539
1610
1979년 9월판 사이언티픽 아메리칸 (역자 주: 미국의 과학잡지) 이 나왔는데,
02:24
Scientific American came out
with a single-topic issue about the brain.
50
144173
3364
한 가지 주제만 다루는, 뇌에 관한 특별판이었어요. 내용이 꽤 괜찮았죠.
02:27
It was one of their best issues ever.
51
147561
1938
그 특별판은 그간 나온 것들 중 최고에 속했어요. 뉴런에 대한 기사도 있었고,
02:29
They talked about the neuron,
development, disease, vision
52
149523
2947
발달과 질병 그리고 시각등을 다루는 등
02:32
and all the things you might want
to know about brains.
53
152494
2596
뇌에 대해 알고 싶을만한 모든 것들을 기사로 실었습니다. 정말 인상적이였죠.
02:35
It was really quite impressive.
54
155114
1502
02:36
One might've had the impression
we knew a lot about brains.
55
156640
2772
이걸 읽고 나면 사람들이, 아- 우리가 뇌에 대해서 정말 많은 걸 알고 있구나-하는 느낌을 받을 정도였죠.
02:39
But the last article in that issue
was written by Francis Crick of DNA fame.
56
159436
4195
이 이슈의 마지막 기사 글은 DNA로 명성이 있는 프랜시스 크릭이 쓴 내용입니다.
02:43
Today is, I think, the 50th anniversary
of the discovery of DNA.
57
163655
3024
오늘이, 아마, DNA를 발견한지 50주년이 되죠.
02:46
And he wrote a story basically saying,
this is all well and good,
58
166703
3075
한마디로 이런 내용이였습니다.
지금까지의 것들은 다 괜찮긴하지만, 우리는
02:49
but you know, we don't know
diddly squat about brains,
59
169802
2743
뇌에 관하여 무지합니다 그리고
02:52
and no one has a clue how they work,
60
172569
1739
아무도 이게 어떻게 돌아가는지도 전혀 모르죠.
02:54
so don't believe what anyone tells you.
61
174332
1866
그러니 누가 뭐라고 하든 믿지마세요.
02:56
This is a quote
from that article, he says:
62
176222
2165
그 기사에서 발췌한 내용입니다. 그는 '현저하게 부족합니다" 라고 말했죠,
02:58
"What is conspicuously lacking" --
he's a very proper British gentleman --
63
178411
4293
그 분은 품위있는 영국신사입니다, "현저하게 모자라고 있는것은
03:02
"What is conspicuously lacking
is a broad framework of ideas
64
182728
2830
이런 다양한 접근법들을 그 테두리 안에서 해석하게 해 줄 폭 넓은 사고의 틀입니다."
03:05
in which to interpret
these different approaches."
65
185582
2352
03:07
I thought the word "framework" was great.
66
187958
1968
전 틀,뼈대라는 단어가 멋지다고 생각했습니다.
03:09
He didn't say we didn't have a theory.
67
189950
1817
그는 '우리는 이론이 없습니다'라고 말하지 않고,
03:11
He says we don't even know
how to begin to think about it.
68
191791
2725
'우리는 뇌에 관하여 어떻게 시작해야 하는지 조차 모르고있습니다 --
우리는 심지어 틀도 없죠'라고 말했습니다.
03:14
We don't even have a framework.
69
194540
1492
토마스 쿤을 응용하자면 우리는 패러다임의 이전 세상에 존재하고 있는거죠.
03:16
We are in the pre-paradigm days,
if you want to use Thomas Kuhn.
70
196056
3050
그래서 전 뇌에 푹 빠졌습니다. 그리고 말했죠, 이거 봐-
03:19
So I fell in love with this.
71
199130
1339
03:20
I said, look: We have all this knowledge
about brains -- how hard can it be?
72
200493
3575
우린 뇌에 대해서 벌써 이만큼이나 지식을 갖고 있는데, 어려워 봤자 얼마나 어렵겠어?
03:24
It's something we can work on
in my lifetime; I could make a difference.
73
204092
3438
이건 내 인생에 해 볼만한 것 같아. 전 무언가 해낼 수 있겠다는 생각이 들었죠.
03:27
So I tried to get out of the computer
business, into the brain business.
74
207554
3619
그래서 전 컴퓨터 사업에서 벗어나서 뇌와 관련된 쪽으로 전환해 보려고 시도했어요.
03:31
First, I went to MIT,
the AI lab was there.
75
211197
2004
처음에는 MIT로 갔죠. AI 연구소가 거기있었으니까요.
03:33
I said, I want to build
intelligent machines too,
76
213225
2395
'나도 한번 지능형머신을 만들어 보고 싶어'하면서요.
03:35
but I want to study how brains work first.
77
215644
2517
하지만 전 뇌가 어떻게 작동하는지부터 공부하고 싶었어요.
03:38
And they said, "Oh, you
don't need to do that.
78
218185
2306
그런데 거기서는, '아 그런건 몰라도 돼'
03:40
You're just going to program
computers, that's all.
79
220515
2390
'그냥 우린 컴퓨터 프로그래밍만 할꺼야. 우린 그것만 하면 돼'
03:42
I said, you really ought to study brains.
80
222929
1963
전, '아니죠. 우린 뇌에대해서도 공부를 해야되요.'라고 했습니다.
03:44
They said, "No, you're wrong."
81
224916
1432
03:46
I said, "No, you're wrong,"
and I didn't get in.
82
226372
2246
'아니, 당신들이 틀렸다'고 했죠. 그리고 합격하지 못했습니다.
03:48
(Laughter)
83
228642
1078
(웃음)
03:49
I was a little disappointed --
pretty young --
84
229744
2155
전 조금 실망 실망했었습니다 - 꽤 어렸으니까요. 그렇지만 다시 돌아갔죠.
03:51
but I went back again a few years later,
85
231923
1936
몇년이 지나 이번엔 캘리포니아의 버클리로 갔습니다.
03:53
this time in California,
and I went to Berkeley.
86
233883
2359
'이번엔 생물학쪽으로 한번 들어가보자'하면서요.
03:56
And I said, I'll go
in from the biological side.
87
236266
2430
03:58
So I got in the PhD program in biophysics.
88
238720
3089
그래서 생물리학 박사과정으로 들어가게 됬어요. 전 '그래'
04:01
I was like, I'm studying brains now.
Well, I want to study theory.
89
241833
3410
지금부터 뇌에 대해서 공부하는구나. 전 '이론을 공부해 보고 싶다' 고 했죠.
04:05
They said, "You can't
study theory about brains.
90
245267
2269
그러자 거기서, '아니, 뇌 이론은 안 되지' 그러는 거예요.
04:07
You can't get funded for that.
91
247560
1995
'그건 할 만한 게 못 돼. 연구비 지원도 못 받아'
04:09
And as a graduate student,
you can't do that."
92
249579
2155
대학원생으로서, 그럼 할 수가 없었죠. 전 '아, 이런.'
04:11
So I said, oh my gosh.
93
251758
1218
04:13
I was depressed; I said, but I can
make a difference in this field.
94
253000
3155
하고 낙담했었죠. '난 이 분야에서 독특하게 무언가 할 수 있는데' 했으니까요.
그래서 저는 다시 컴퓨터 산업 쪽으로 돌아가게 됩니다.
04:16
I went back in the computer industry
95
256179
2008
04:18
and said, I'll have to work
here for a while.
96
258211
2105
아 당분간은 뭔가 하면서 이 쪽에서 일해야겠구나' 하면서요.
04:20
That's when I designed
all those computer products.
97
260340
2393
그랬던 그 때가, 바로 여기 보시는 모든 컴퓨터 제품들을 디자인했던 시기에요.
04:22
(Laughter)
98
262757
1301
(웃음)
04:24
I said, I want to do this
for four years, make some money,
99
264082
2894
전 그랬죠, '난 4년 동안 이렇게 하면서 돈도 벌고
04:27
I was having a family,
and I would mature a bit,
100
267000
3976
가족도 갖고, 좀 성숙해지고 싶다고,
04:31
and maybe the business
of neuroscience would mature a bit.
101
271000
2816
아마 뇌 과학쪽도 조금은 성숙해지겠지' 하면서요.
04:33
Well, it took longer than four years.
It's been about 16 years.
102
273840
3001
그런데 4년보다 더 걸리더라구요. 16년 정도가 됬어요.
04:36
But I'm doing it now,
and I'm going to tell you about it.
103
276865
2716
그렇지만 지금은 하고 있습니다, 뇌에 관하여 이야기하죠.
04:39
So why should we have a good brain theory?
104
279605
2286
그러니깐 왜 우리가 좋은 뇌 이론을 가져야 하죠?
04:41
Well, there's lots of reasons
people do science.
105
281915
3102
음, 사람들이 과학을 하는 이유는 다양합니다.
04:45
The most basic one is,
people like to know things.
106
285041
2917
한 가지는-가장 기본적이기도 한데요- 우린 알아내고 싶어하기 때문입니다.
04:47
We're curious, and we go out
and get knowledge.
107
287982
2195
우리는 호기심이 가득해요. 그 호기심을 채우려고 나가서 지식을 얻죠, 그렇잖아요?
04:50
Why do we study ants? It's interesting.
108
290201
1866
왜 우리가 개미를 연구하죠? 그냥 재밌으니까요.
04:52
Maybe we'll learn something useful,
but it's interesting and fascinating.
109
292091
3466
어쩌면 뭔가 유용한 걸 밝혀낼수도 있겠죠. 그래도 재밌고 신비합니다.
04:55
But sometimes a science
has other attributes
110
295581
2057
그런데 때때로 과학에는 다른 특성들이 있습니다
04:57
which makes it really interesting.
111
297662
1829
아주 재미있게 만들어 주는 것들이죠.
04:59
Sometimes a science will tell
something about ourselves;
112
299515
2627
과학은 우리 자신에 대해 무언가 알려주기도 하죠.
05:02
it'll tell us who we are.
113
302166
1224
우리가 누구인가에 대해서도.
05:03
Evolution did this
and Copernicus did this,
114
303414
2752
드물게는, 여러분께서 알다시피 진화론과 코페르니쿠스가 했던 것처럼
05:06
where we have a new
understanding of who we are.
115
306190
2334
우리 자신에 대해 새로운 발상을 하게 하죠.
05:08
And after all, we are our brains.
My brain is talking to your brain.
116
308548
3428
결국에는 우리가 바로 뇌이니까요. 제 뇌가 여러분의 뇌에게 말하고 있는 것처럼 말이죠.
05:12
Our bodies are hanging along for the ride,
117
312000
2030
우리 몸은 뇌에 걸쳐져 있는 것 뿐이고, 제 뇌가 여러분 뇌에게 말하고 있는 것이죠.
05:14
but my brain is talking to your brain.
118
314054
1825
05:15
And if we want to understand
who we are and how we feel and perceive,
119
315903
3248
그리고 만약 우리가 우리 자신이 누군지, 어떻게 느끼고 지각하는 지 등을 알고 싶다면,
정말 뇌가 무엇인지를 이해해야 해요.
05:19
we need to understand brains.
120
319175
1391
05:20
Another thing is sometimes science leads
to big societal benefits, technologies,
121
320590
3784
또 한 가지는 때때로 과학은
사회적으로 큰 이익이나 기술이나 사업같은 쪽으로 우릴 이끌어 갈 때가 있어요
05:24
or businesses or whatever.
122
324398
1291
그리고 뇌과학 역시 그래요.
05:25
This is one, too, because
when we understand how brains work,
123
325713
2878
왜냐면 우리가 뇌가 어떻게 기능하는지 알게 되면
05:28
we'll be able to build
intelligent machines.
124
328615
2064
지능형 머신을 만들 수 있습니다, 전체적으로 보아 사실상 잘 된 일이죠.
05:30
That's a good thing on the whole,
125
330703
1698
05:32
with tremendous benefits to society,
126
332425
1858
사회에 엄청난 이익을 가져올 것입니다.
05:34
just like a fundamental technology.
127
334307
1669
근본적인 기술처럼 말이죠.
05:36
So why don't we have
a good theory of brains?
128
336000
2850
그럼 왜 우린 좋은 뇌 이론이 없을까요?
05:38
People have been working
on it for 100 years.
129
338874
2168
사람들이 100년씩이나 연구해오고 있는데도 말입니다.
05:41
Let's first take a look
at what normal science looks like.
130
341066
2719
그럼, 우선 전형적 과학은 어떤 식인지 살펴볼까요.
05:43
This is normal science.
131
343809
1187
이것이 전형적인 과학입니다.
05:45
Normal science is a nice balance
between theory and experimentalists.
132
345020
4074
보통의 과학은 이론과 실험이 적절한 평형을 이루죠.
05:49
The theorist guy says,
"I think this is what's going on,"
133
349118
2691
이론을 공부하는 사람은, '그래, 이건 이런 원리인거 같아'하죠.
05:51
the experimentalist says, "You're wrong."
134
351833
1961
그리고 실험하는 사람은, '아니, 그건 틀렸어'
05:53
It goes back and forth,
this works in physics, this in geology.
135
353818
3004
알다시피, 그러면서 주거니 받거니 하는거죠.
이건 물리, 지질학에서 통합니다. 이게 전형적 과학이라면,
05:56
But if this is normal science,
what does neuroscience look like?
136
356846
3009
뇌과학은 어떻게 생겼을까요? 이게 뇌과학의 모습입니다.
05:59
This is what neuroscience looks like.
137
359879
1795
우리는 산더미처럼 쌓인 데이터가 있습니다. 해부학, 생리학, 행동학같은.
06:01
We have this mountain of data,
138
361698
1442
06:03
which is anatomy, physiology and behavior.
139
363164
2070
06:05
You can't imagine how much detail
we know about brains.
140
365258
3194
우리가 뇌에 대해서 얼마나 세세하게 알고있는지 아마 상상도 못하실 것입니다
06:08
There were 28,000 people who went
to the neuroscience conference this year,
141
368476
3592
올해 뇌과학 컨퍼런스에 28,000명이 모였어요.
06:12
and every one of them
is doing research in brains.
142
372092
2363
그리고 그 한 사람 한 사람이 모두 뇌에 관한 연구를 하고있죠.
06:14
A lot of data, but no theory.
143
374479
1694
많은 자료가 있는데 이론은 없습니다. 아주 조금 있죠,
06:16
There's a little wimpy box on top there.
144
376197
2000
06:18
And theory has not played a role
in any sort of grand way
145
378221
3382
이론은 뇌과학에서 중대한 방법으로서 제 역할도 못하고 있습니다.
06:21
in the neurosciences.
146
381627
1429
06:23
And it's a real shame.
147
383080
1240
이건 정말 안 된 일이에요. 자, 그럼 왜 이런 현상이 나타나는 걸까요?
06:24
Now, why has this come about?
148
384344
1391
06:25
If you ask neuroscientists
why is this the state of affairs,
149
385759
2988
뇌과학자들에게 왜 이런 상태냐고 묻는다면
06:28
first, they'll admit it.
150
388771
1246
우선 인정은 할 것입니다. 그리고 그들은 말하겠죠,
06:30
But if you ask them, they say,
151
390041
1485
06:31
there's various reasons
we don't have a good brain theory.
152
391550
2732
"음, 왜 만족스런 뇌 이론이 없는지에 대한 이유는 많죠."
06:34
Some say we still don't have enough data,
153
394306
1969
어떤 사람은, '아직도 자료가 충분치 않아요,'
06:36
we need more information,
there's all these things we don't know.
154
396299
3059
'더 많은 지식이 필요해요, 우리가 모르는게 이렇게 많은데요'
06:39
Well, I just told you there's data
coming out of your ears.
155
399382
2841
그런데 제가 방금 자료는 넘쳐나고 있다는 걸 말씀드렸죠.
06:42
We have so much information,
we don't even know how to organize it.
156
402247
3164
우리는 자료가 너무 많습니다. 어디서부터 정리해야 될 지 모를 정도이죠.
06:45
What good is more going to do?
157
405435
1438
더 많아진다 한들 무슨 도움이 될까요?
06:46
Maybe we'll be lucky and discover
some magic thing, but I don't think so.
158
406897
3448
아주 운이 좋으면 마술같은 것을 발견할 수도 있겠죠. 가능성은 낮지만요.
06:50
This is a symptom of the fact
that we just don't have a theory.
159
410369
2973
이게 사실 우리가 이론이 없다는 것에 대한 반증입니다.
06:53
We don't need more data,
we need a good theory.
160
413366
2610
우리는 데이터가 더 필요한 게 아니에요. 뇌에 대한 좋은 이론이 필요한 거죠.
06:56
Another one is sometimes people say,
161
416000
1798
또 다른 사실 하나는, 사람들이 가끔 이렇게 얘기합니다. '뇌라는 건 너무 복잡해-
06:57
"Brains are so complex,
it'll take another 50 years."
162
417822
3154
50년은 더 걸릴거야.' 라고 말이죠.
07:01
I even think Chris said something
like this yesterday, something like,
163
421000
3354
심지어 크리스도 어제 이런식으로 이야기 했었죠.
크리스 씨가 한말이 무엇인지 정확히 생각이 나지 않지만,
07:04
it's one of the most complicated
things in the universe.
164
424378
2627
아마 뇌가 우주에서 제일 복잡한 것이라는 설명이였죠. 그러데 그건 사실이 아닙니다.
07:07
That's not true -- you're more
complicated than your brain.
165
427029
2790
여러분들이 여러분의 뇌보다 복잡하죠. 뇌를 갖고 계시잖아요.
07:09
You've got a brain.
166
429843
1151
뇌는 보기에는 복잡해 보여도요
07:11
And although the brain
looks very complicated,
167
431018
2150
이해하기 전까진 다 복잡해 보이는 법이죠.
07:13
things look complicated
until you understand them.
168
433192
2336
07:15
That's always been the case.
169
435552
1335
지금껏 다 그랬듯요. 우리는, 음,
07:16
So we can say, my neocortex,
the part of the brain I'm interested in,
170
436911
3243
신피질, 제가 흥미를 가지는 이 부분은 300억개의 세포로 되어있다고 말할 수 있습니다
07:20
has 30 billion cells.
171
440178
1152
07:21
But, you know what?
It's very, very regular.
172
441354
2432
그러데 알고계시나요? 이 피질은 아주 일정하다는 것이죠.
07:23
In fact, it looks like it's the same thing
repeated over and over again.
173
443810
3394
실제로, 똑같은 것이 계속 반복되는 것처럼 보이죠.
07:27
It's not as complex as it looks.
That's not the issue.
174
447228
2536
뇌는 보이는 것만큼 복잡하지가 않다는 겁니다. 그래서 복잡함-은 이슈가 되지 않아요.
07:29
Some people say,
brains can't understand brains.
175
449788
2287
어떤 사람은, 뇌가 뇌를 이해할 수는 없을 것이라고 합니다.
07:32
Very Zen-like. Woo.
176
452099
1988
오오. 꼭 도에 관한 것 (zen=선,禪)같지 않나요.
07:34
(Laughter)
177
454111
2188
(웃음)
07:36
You know, it sounds good, but why?
I mean, what's the point?
178
456323
2859
멋있게 들리죠, 근데 왜죠? 그러니까 무슨 뜻인 것이죠?
07:39
It's just a bunch of cells.
You understand your liver.
179
459206
2569
그냥 세포 뭉텅이죠. 여러분들, 간에 대해서 다 이해하시잖아요.
07:41
It's got a lot of cells in it too, right?
180
461799
1977
간도 세포가 많은데요, 그렇죠?
07:43
So, you know, I don't think
there's anything to that.
181
463800
2494
그럼 이건 아닌거 같네요.
07:46
And finally, some people say,
182
466318
2112
마지막으로, 몇몇의 사람들은 말하죠,
07:48
"I don't feel like a bunch
of cells -- I'm conscious.
183
468454
2983
'난 내가 세포 뭉텅이 같진 않아, 알다시피, 난 의식하고 있잖아.
07:51
I've got this experience,
I'm in the world.
184
471461
2069
알다시피, 난 경험도 쌓았고, 이 세상에 있는데,
07:53
I can't be just a bunch of cells."
185
473554
1910
세포 뭉텅이일수가 없지. 안 그래?'
07:55
Well, people used to believe
there was a life force to be living,
186
475488
3223
옛날엔 살아가게 하는 생명의 힘(life force)의 존재를 믿었습니다.
07:58
and we now know
that's really not true at all.
187
478735
2409
그리고 지금은 그건 전혀 사실이 아닌 것을 알고있죠.
08:01
And there's really no evidence,
188
481168
1898
믿고 있지 않는 사람들 빼고는 딱히 증거는 없습니다.
08:03
other than that people just disbelieve
that cells can do what they do.
189
483090
3374
그들은 세포들이 그런식의 제 역할을 할 수 있다는 것을 못 믿죠.
08:06
So some people have fallen
into the pit of metaphysical dualism,
190
486488
3041
몇몇의 사람들이 형이상학적인 이원론에 빠져있다면,
08:09
some really smart people, too,
but we can reject all that.
191
489553
2730
똑똑한 사람들도 마찬가지죠. 하지만 우린 이런 것을 다 거부할 수 있습니다.
08:12
(Laughter)
192
492307
2895
(웃음)
또 다른 게 있다는 것을 알려드리겠습니다,
08:15
No, there's something else,
193
495226
1741
08:16
something really fundamental, and it is:
194
496991
1985
정말 기본적인 것입니다, 바로 이것이죠:
08:19
another reason why we don't have
a good brain theory
195
499000
2451
좋은 뇌 이론이 없는 또 다른 이유가 있습니다.
08:21
is because we have an intuitive,
strongly held but incorrect assumption
196
501475
5535
우리를 강하게 사로잡는 직감을 가지고 있기 때문이죠,
하지만 이 부정확한 가정은 우리가 바른 답을 볼 수 없도록 막아왔습니다.
08:27
that has prevented us
from seeing the answer.
197
507034
2112
08:29
There's something we believe that just,
it's obvious, but it's wrong.
198
509170
3788
말하자면, 우리가 믿는 무언가가 있다고 합시다. 아주 분명한 것 같은데, 사실은 그게 틀린- 그런 경우에요.
08:32
Now, there's a history of this in science
and before I tell you what it is,
199
512982
3566
자, 뭔지 여러분께 말씀 드리기 전에- 지금까지 과학에서는 이런 경우가 쭉 있어 왔습니다.
08:36
I'll tell you about the history
of it in science.
200
516572
2299
과학 안에서의 그 역사에 대해서 조금 말씀드리기로 하죠.
08:38
Look at other scientific revolutions --
201
518895
1910
(뇌과학이 아닌 분야에서의) 다른 과학적 진화들을 한 번 생각해 보세요
08:40
the solar system, that's Copernicus,
202
520829
1879
예를 들자면 태양계 이론 같은 걸 말하는 겁니다, 이건 코페르니쿠스였구요-
08:42
Darwin's evolution,
and tectonic plates, that's Wegener.
203
522732
2819
다윈의 진화론, 그리고 또 판 구조론, 이건 베게너였죠.
모두 뇌과학과 많은 공통점이 있습니다.
08:46
They all have a lot in common
with brain science.
204
526059
2295
08:48
First, they had a lot
of unexplained data. A lot of it.
205
528378
2666
첫 번째로, 앞에 언급한 케이스들 모두 설명되지 않은 데이터만 많이 있었습니다.
08:51
But it got more manageable
once they had a theory.
206
531068
2794
하지만 일단 이론이 나오고 나서부터는 그 데이터들을 다루기가 쉬워졌었죠.
08:53
The best minds were stumped --
really smart people.
207
533886
2807
최고의 학자들도 (이론이 나오기 전까진) 그렇게 막혔었어요. 정말, 정말 똑똑한 사람들이었는데도요.
08:56
We're not smarter now than they were then;
208
536717
2004
우리는 그들보다 똑똑하지 않습니다.
08:58
it just turns out it's really
hard to think of things,
209
538745
2527
결국 이런 이론들을 생각해내는 게 정말 어렵다고 판명된 겁니다.
09:01
but once you've thought of them,
it's easy to understand.
210
541296
2676
그렇지만 한 번 생각해 내고 나면, 그 다음엔 이해하기가 꽤 쉬운 거죠.
09:03
My daughters understood
these three theories,
211
543996
2106
저의 딸들은 이 세 개의 이론을 이해했습니다
유치원에 들어갈 무렵에는 벌써 그 이론들의 기본적인 틀은 다 이해했어요.
09:06
in their basic framework, in kindergarten.
212
546126
2518
09:08
It's not that hard --
here's the apple, here's the orange,
213
548668
3266
어려운 것들이 아니거든요, 알다시피, 여기 사과, 오렌지가 있고,
09:11
the Earth goes around, that kind of stuff.
214
551958
2018
알다시피, 지구가 태양 주위를 돈다는 이론 같은 것들이죠.
09:14
Another thing is the answer
was there all along,
215
554000
2586
그리고 또 하나 짚고 넘어갈 건, 그 답이 언제나 거기 있었다는 사실입니다.
09:16
but we kind of ignored it
because of this obvious thing.
216
556610
2779
그렇지만 우린 그걸 무시해오곤 했어요, 왜냐하면 너무 당연하고-
09:19
It was an intuitive,
strongly held belief that was wrong.
217
559413
2850
직관적이고, 그래서 우리를 강하게 지배해 온 그 틀린 믿음 때문에요.
09:22
In the case of the solar system,
218
562287
1690
태양계를 예로 들어보자면, 기본 개념은 그거죠- 지구가 회전하고,
09:24
the idea that the Earth is spinning,
219
564001
1760
09:25
the surface is going
a thousand miles an hour,
220
565785
2191
지구의 표면이 한시간에 천 마일정도 움직이며,
09:28
and it's going through the solar system
at a million miles an hour --
221
568000
3249
그리고 지구가 시간 당 백만 마일 정도의 속도로 태양계 안을 돈다, 라는 거에요.
09:31
this is lunacy; we all know
the Earth isn't moving.
222
571273
2476
말이 안 되는 것이죠. 모두 지구가 움직이지 않는다는 것을 알고 있습니다.
09:33
Do you feel like you're moving
a thousand miles an hour?
223
573773
2877
한 시간에 지구가 천 마일 정도 움직이는 것이 느껴지나요?
당연히 그렇게 느껴지지 않잖아요. 안그래요? (그 당시에) 누군가가 이렇게 말했다고 합시다,
09:36
If you said Earth was spinning
around in space and was huge --
224
576674
2919
음, 지구는 우주를 돌아, 그리고 매우 크지,
09:39
they would lock you up,
that's what they did back then.
225
579617
2591
그런 말을 했다면, 당신은 아마 감옥에 갇힐 거에요. 당시에는 그렇게 감금을 했었구요.
(웃음)
09:42
So it was intuitive and obvious.
Now, what about evolution?
226
582232
3275
그래요, 그건 직관적이고 너무 당연했거든요. 그럼 진화는 어떨까요?
09:45
Evolution, same thing.
227
585531
1154
진화론도 똑같아요. 우리는 아이들한테 이렇게 가르쳤어요, 음, 성경에 따르면,
09:46
We taught our kids the Bible says
God created all these species,
228
586709
3080
신이 모든 종을 창조했단 말입니다. 그래서, 고양이는 고양이이고- 개는 개이고,
09:49
cats are cats; dogs are dogs;
people are people; plants are plants;
229
589813
3143
사람은 사람이고 식물은 식물이에요, 바뀌거나 하지 않습니다.
09:52
they don't change.
230
592980
1241
그리고 노아가 모든 종들을 그 순서대로 방주에 실었고 어쩌구 저쩌구- 아시다시피 말이에요-
09:54
Noah put them on the ark
in that order, blah, blah.
231
594245
2649
09:56
The fact is, if you believe in evolution,
we all have a common ancestor.
232
596918
3395
하지만 사실은, 만약 여러분들이 진화론을 믿는다면요, 우린 다 같은 조상을 가지고 있다는 것입니다.
10:00
We all have a common ancestor
with the plant in the lobby!
233
600337
3282
말하자면 로비에 놓여있는 식물과 우리는 다 같은 조상한테서 진화해 온 거라는 겁니다.
10:03
This is what evolution tells us.
And it's true. It's kind of unbelievable.
234
603643
3686
이것이 진화론이 우리에게 말하는 것입니다. 그리고, 이것은 믿기 힘들지만, 사실이죠.
10:07
And the same thing about tectonic plates.
235
607353
2557
그리고 지각판에 대한 것도 똑같은 이야기에요, 그렇죠?
10:09
All the mountains and the continents
236
609934
1722
모든 산들, 그리고 대륙은 모두 지구 상단에 떠있는 상태이죠,
10:11
are kind of floating around
on top of the Earth.
237
611680
2344
그렇죠? 이것은 마치, 말이 안 되는 것 같습니다.
10:14
It doesn't make any sense.
238
614048
1246
10:15
So what is the intuitive,
but incorrect assumption,
239
615318
4601
그럼 대체 어떤, 직관적이기는 하지만 부정확한 가정이 (앞의 경우들처럼)
10:19
that's kept us from understanding brains?
240
619943
1967
우리가 뇌를 이해하는 걸 방해하고 있는 걸까요?
10:21
I'll tell you. It'll seem obvious
that it's correct. That's the point.
241
621934
3293
이제 여러분께 그게 무언지에 대해서 말씀드릴거에요. 들어보시면, 그게 정확하다는 건 아주 분명할 겁니다.
그게 핵심이에요, 그렇죠? 그런 다음에, 저는 왜 여러분들이 다른 가정에 대해서
10:25
Then I'll make an argument why
you're incorrect on the other assumption.
242
625251
3434
틀렸는지에 대해서 반론을 해야할 거에요.
10:28
The intuitive but obvious thing is:
243
628709
1682
직관적이고 분명한 (그렇지만 틀린) 가정은 이겁니다, 어쨌든 지성은
10:30
somehow, intelligence
is defined by behavior;
244
630415
2314
행동을 통해서 정의된다는 가정이에요.
10:32
we're intelligent
because of how we do things
245
632753
2350
우리가 무언가를 해 내는 방법들, 우리가 영리하게 행동하는 그 방법들이
10:35
and how we behave intelligently.
246
635127
1572
사람을 지적으로 만든다는 가정인데, 이제 저는 그런 생각들이 틀렸다고 말씀드리려고 합니다.
10:36
And I'm going to tell you that's wrong.
247
636723
1879
10:38
Intelligence is defined by prediction.
248
638626
2131
이 지성은 예측에 의하여 증명됩니다.
10:40
I'm going to work you
through this in a few slides,
249
640781
2415
여기 몇몇의 슬라이드를 통하여 여러분께 설명하고자 합니다,
10:43
and give you an example
of what this means.
250
643220
2094
지성에 대한 예가 있습니다, 여기 한 체계가 있습니다.
10:45
Here's a system.
251
645338
1301
10:46
Engineers and scientists
like to look at systems like this.
252
646663
2908
기술자들은 이와 같은 체계를 보기를 선호하죠. 과학자들 역시 그렇습니다.
10:49
They say, we have a thing in a box.
We have its inputs and outputs.
253
649595
3163
그 사람들은 그렇게 얘기해요, 여기 박스안에 뭔가 들어 있어요. 그리고 그 입력물과 출력물들도 여기 있구요.
10:52
The AI people said, the thing in the box
is a programmable computer,
254
652782
3240
그럼 AI 연구자들은 얘기하겠죠, '박스 안에 든 그건 프로그래밍 가능한 컴퓨터입니다.' 라구요.
10:56
because it's equivalent to a brain.
255
656046
1679
왜냐면 그게 뇌와 동일한 것 같거든요. 우리가 어떤 입력값을 주고,
10:57
We'll feed it some inputs and get it
to do something, have some behavior.
256
657749
3506
그걸로 하여금 뭔가를 하게 시키고, 그럼 그 결과로 행동을 얻어내는 거에요.
그리고 앨런 튜링이 튜링 테스트라는 걸 정의했는데요, 기본적으로 이런 말입니다-
11:01
Alan Turing defined the Turing test,
which essentially says,
257
661279
2822
'어떤 것이 지성을 가졌고 인간과 동일한 행동을 한다면 우리는 어떤 행동으로 지성을 측정할 지에 대해서 알게 될 것이다.'
11:04
we'll know if something's intelligent
if it behaves identical to a human --
258
664125
3553
말하자면 지성을 측정하는 건 행동이라는 것이죠.
11:07
a behavioral metric
of what intelligence is
259
667702
2106
11:09
that has stuck in our minds
for a long time.
260
669832
2144
그리고 이 말은 오랫동안 우리의 마음에 남아있죠.
11:12
Reality, though --
I call it real intelligence.
261
672000
2392
하지만 현실은 말입니다, 저는 이걸 진짜 지성이라고 부르는데요-
11:14
Real intelligence
is built on something else.
262
674416
2175
진짜 지성은 다른 것이죠.
11:16
We experience the world
through a sequence of patterns,
263
676615
3214
우리는 패턴의 일치를 통하여 경험하며, 그것들을 저장하고,
11:19
and we store them, and we recall them.
264
679853
2149
상기합니다. 이것들을 상기할 때, 우리는 실제에 대항하여 맞춰 봅니다.
11:22
When we recall them,
we match them up against reality,
265
682026
2545
그리고 언제나 예측을 하죠.
11:24
and we're making predictions all the time.
266
684595
2251
11:26
It's an internal metric;
there's an internal metric about us,
267
686870
2958
끊임없는 측량이에요. 우리 자신에 대한 끊임없는 측량 이라는 거죠, 말하자면
11:29
saying, do we understand the world,
am I making predictions, and so on.
268
689852
3342
우리가 세상을 이해할 수 있을까? 내가 지금 예측하고 있나? 기타 등등.
11:33
You're all being intelligent now,
but you're not doing anything.
269
693218
3002
여러분은 모두 영리해지고 있습니다, 하지만 아무것도 하지 않고있죠.
아마 지금 어딜 긁고 있거나, 코를 후비고 있거나 그럴지도 몰라요-
11:36
Maybe you're scratching yourself,
but you're not doing anything.
270
696244
3002
모르죠, 하지만 여러분은 지금 당장 아무것도 하고 있지 않습니다,
11:39
But you're being intelligent;
you're understanding what I'm saying.
271
699270
3156
하지만 영리해지고 있습니다, 제가 하는 말을 이해하고 있으시죠.
11:42
Because you're intelligent
and you speak English,
272
702450
2295
영리하시니까요 그리고 영어를 말하실 수 있죠,
11:44
you know the word at the end of this
273
704769
1751
여러분들은 지금 제가 하는 말 마지막에 올 단어가- (침묵)
'문장' 이라는 걸 알아요.
11:46
sentence.
274
706544
1159
11:47
The word came to you;
you make these predictions all the time.
275
707727
3152
단어들이 그냥 떠오르는 거에요. 그리고 여러분들은 이런 종류의 예측을 항상 하고 있다는거죠.
11:50
What I'm saying is,
276
710903
1699
다음으로 제가 말하려 하는 것은,
11:52
the internal prediction
is the output in the neocortex,
277
712626
2631
그 끊임없는 예측이라는 것이 대뇌 신피질이 내어놓는 출력물이라는 겁니다.
어찌되었든, 예측은 지적인 행동으로 이끕니다.
11:55
and somehow, prediction
leads to intelligent behavior.
278
715281
2541
11:57
Here's how that happens:
279
717846
1151
어떻게 발생하는지, 여기 보시죠. 영리하지 않은 뇌로 시작하겠습니다.
11:59
Let's start with a non-intelligent brain.
280
719021
1955
영리하지 않은 뇌를 논하죠, 오래된(진화가 덜 된) 뇌가 있습니다,
12:01
I'll argue a non-intelligent brain,
we'll call it an old brain.
281
721000
3009
12:04
And we'll say it's
a non-mammal, like a reptile,
282
724033
2871
포유류가 아닌 것이라고 합시다, 파충류로 하죠-
12:06
say, an alligator; we have an alligator.
283
726928
1985
악어라고 합시다, 그래요 여기 악어 한 마리가 있습니다.
12:08
And the alligator has
some very sophisticated senses.
284
728937
3371
악어는 매우 복잡한 감각을 가지고 있습니다.
12:12
It's got good eyes and ears
and touch senses and so on,
285
732332
3206
매우 좋은 눈, 귀, 그리고 접촉 감각 기타 등등
12:15
a mouth and a nose.
286
735562
1469
입 그리고 코. 매우 복잡한 행동 양식이 있습니다. 알다시피
12:17
It has very complex behavior.
287
737055
1991
12:19
It can run and hide. It has fears
and emotions. It can eat you.
288
739070
3906
달릴 수도 있고 숨을 수도있죠. 공포와 같은 감정도 있죠. 심지어 여러분을 먹을 수도 있습니다
12:23
It can attack.
It can do all kinds of stuff.
289
743000
3590
공격도 할 수 있구요- 악어는 정말 온갖 걸 다 할 수 있습니다.
12:27
But we don't consider
the alligator very intelligent,
290
747193
2856
하지만 우리는 악어를 인간처럼 영리하다고 생각하지 않죠.
12:30
not in a human sort of way.
291
750073
1676
12:31
But it has all this complex
behavior already.
292
751773
2356
하지만 이미 악어는 모든 복잡한 행동 양식을 가지고 있습니다.
12:34
Now in evolution, what happened?
293
754510
1801
자, 진화론에서, 무슨 일이 발생했을까요?
12:36
First thing that happened
in evolution with mammals
294
756335
2385
포유류의 진화에서 가장 먼저 일어났던 것은,
12:38
is we started to develop a thing
called the neocortex.
295
758744
2531
아마 신피질(대뇌)이라 불리는 곳이 가장 먼저 발달하기 시작했습니다.
12:41
I'm going to represent the neocortex
by this box on top of the old brain.
296
761299
3793
그리고 저는 오래된 뇌의 상단 부분에 붙어있는 이 박스로
신피질에 관하여 설명하고자 합니다.
12:45
Neocortex means "new layer."
It's a new layer on top of your brain.
297
765116
3353
신피질은 새로운 층을 뜻하죠. 뇌의 상단 위에 있는 새로운 층인 것이죠.
12:48
It's the wrinkly thing
on the top of your head
298
768493
2343
만약 여러분께서 신피질을 몰랐다면, 이것은 그저 머리 위에 있는 주름입니다,
12:50
that got wrinkly because it got shoved
in there and doesn't fit.
299
770860
3084
주름졌죠 왜냐하면 뇌에 구겨넣어졌고 맞지가 않았기 때문이죠.
12:53
(Laughter)
300
773968
1008
(웃음)
12:55
Literally, it's about the size
of a table napkin
301
775000
2242
아닙니다, 정말 그래요. 신피질이라는 게 테이블 냅킨 정도 크기거든요.
12:57
and doesn't fit, so it's wrinkly.
302
777266
1574
맞지가 않습니다, 그래서 모두 주름졌죠. 여기를 제가 어떻게 그렸는지 보세요.
12:58
Now, look at how I've drawn this.
303
778864
1745
13:00
The old brain is still there.
304
780633
1386
여전히 이곳에 오래된 뇌가 있습니다. 여러분은 여전히 오래된 뇌를 가지고 있습니다.
13:02
You still have that alligator brain.
You do. It's your emotional brain.
305
782043
3655
정말이죠. 이것은 여러분의 감정 뇌입니다.,
13:05
It's all those gut reactions you have.
306
785722
2730
그 모든 감정들이 여기 있는거에요, 여러분들이 갖고 있는 본능적인 반응들도 다 여기 있죠.
13:08
On top of it, we have this memory system
called the neocortex.
307
788476
3270
그리고 윗 부분은, 신피질이랑 불리는 기억 체계입니다.
13:11
And the memory system is sitting
over the sensory part of the brain.
308
791770
4294
기억 체계는 뇌의 감각 중추 위에 놓여있습니다.
13:16
So as the sensory input
comes in and feeds from the old brain,
309
796088
3055
오래된 부분의 뇌로부터 감각 입력이 들어오면,
13:19
it also goes up into the neocortex.
310
799167
2154
이 정보는 신피질로 이동합니다. 신피질은 그저 기억하죠.
13:21
And the neocortex is just memorizing.
311
801345
1913
13:23
It's sitting there saying, I'm going
to memorize all the things going on:
312
803282
3561
신피질에 정착해 말합니다, '아, 진행 되고 있는 모든 것을 외울거야,
13:26
where I've been, people I've seen,
things I've heard, and so on.
313
806867
3019
내가 갔던 곳들, 본 사람들, 그리고 들었던 것들 등등.
13:29
And in the future, when it sees
something similar to that again,
314
809910
3362
미래에, 뇌가 이와 비슷한 것을 보았을 때,
13:33
in a similar environment,
or the exact same environment,
315
813296
2635
비슷한 환경, 혹은 똑같은 환경에 처하게 되면
13:35
it'll start playing it back:
"Oh, I've been here before,"
316
815955
3555
뇌가 그 정보들을 다시 재생할거에요. 다시 상기하기 시작할 겁니다.
'오, 전에 여기 왔었지.' 그리고 여러분이 전에 이곳에 왔을 때,
13:39
and when you were here before,
this happened next.
317
819534
2364
상기하죠. 뇌는 여러분이 미래를 예측하게 이끌죠.
13:41
It allows you to predict the future.
318
821922
1726
13:43
It literally feeds back
the signals into your brain;
319
823672
3396
뇌가 그렇게 예측하게 해주는 겁니다, 말 그대로 신호를 뇌에다 다시 입력해 주는 거죠.
13:47
they'll let you see
what's going to happen next,
320
827092
2265
뇌는 여러분이 다음에 무엇이 일어날지 알게 만들죠,
13:49
will let you hear the word
"sentence" before I said it.
321
829381
2595
제가 말하기 전에 단어를 듣게하죠, 그리고
13:52
And it's this feeding
back into the old brain
322
832000
3185
이 오래된 뇌에 재입력하는 일련의 과정이
13:55
that will allow you to make
more intelligent decisions.
323
835209
2577
여러분이 더욱더 현명한 결정을 하게 이끌죠.
13:57
This is the most important slide
of my talk, so I'll dwell on it a little.
324
837810
3489
이 말은 저의 강연에서 가장 중요한 부분입니다. 그래서 조금 더 설명하려합니다.
14:01
And all the time you say,
"Oh, I can predict things,"
325
841323
3575
그래서, 여러분들은 늘 그렇게 말합니다, '오, 나는 모든 걸 예측할 수 있어' 라고 말이에요.
14:04
so if you're a rat and you go
through a maze, and you learn the maze,
326
844922
3360
만약 여러분이 생쥐이고 미로를 통과한다면, 이후 미로를 배운다면,
14:08
next time you're in one,
you have the same behavior.
327
848306
2439
다음에 미로에 있을 때, 여러분은 같은 행동을 보이죠,
14:10
But suddenly, you're smarter;
you say, "I recognize this maze,
328
850769
2991
하지만 갑자기, 똑똑해지죠
여러분은 말하죠, '아, 이 미로 알아, 나가는 방법을 알지,
14:13
I know which way to go; I've been here
before; I can envision the future."
329
853784
3542
예전에 이곳에 와 본 적이 있어. 미로를 통과하는 걸 마음에 떠올릴 수 있지' 이것이 뇌가 하는 것입니다
14:17
That's what it's doing.
330
857350
1168
14:18
This is true for all mammals --
331
858542
2840
사람들한테 있어서, 아, 사실 이건 모든 포유동물들한테 해당되는 건데요,
14:21
in humans, it got a lot worse.
332
861406
2031
다른 포유류에게도 모두 사실인데 사람들의 경우에 훨씬 심합니다.
14:23
Humans actually developed
the front of the neocortex,
333
863461
2587
인간은 전두엽 부분의 신피질을 발달시켰습니다
14:26
called the anterior part of the neocortex.
334
866072
2221
전전두 신피질이라 불리 곳이죠. 자연의 작은 변화(속임수)가 있었습니다.
14:28
And nature did a little trick.
335
868317
1438
14:29
It copied the posterior,
the back part, which is sensory,
336
869779
2687
이것은 감각을 당담하고 있는 뒷 부분, 후두엽을 복사 했죠
14:32
and put it in the front.
337
872490
1151
그리고 전두엽에 놓였죠.
14:33
Humans uniquely have
the same mechanism on the front,
338
873665
2480
인간은 전두엽에 유일하게 같은 방법을 가지고 있습니다,
14:36
but we use it for motor control.
339
876169
1554
하지만 이것을 운동 조절을 위해 사용하죠.
14:37
So we're now able to do very sophisticated
motor planning, things like that.
340
877747
3581
그래서 우리는 매우 세밀한 동작을 계획할 수 있는 것입니다. 이렇게 말이죠.
14:41
I don't have time to explain,
but to understand how a brain works,
341
881352
3126
이 부분에 대해서 모두 설명할 시간이 없지만, 여러분께서 뇌가 어떻게 작동하는지 알고 싶다면,
14:44
you have to understand how the first part
of the mammalian neocortex works,
342
884502
3537
우선 포유류의 신피질이 어떻게 작동하는지, 그리고
그리고 우리가 패턴을 어떻게 저장하고 예측을 하는지 이해해야 합니다.
14:48
how it is we store patterns
and make predictions.
343
888063
2293
그래서 저는 몇가지 예측의 예를 보여드리겠습니다.
14:50
Let me give you
a few examples of predictions.
344
890380
2188
14:52
I already said the word "sentence."
345
892592
1676
저는 이미 단어 문장에 대해 말했습니다. 음악에서,
14:54
In music, if you've heard a song before,
346
894292
3206
예전에 음악을 들었거나, 질이 예전에 노래 부르는 것을 들었다면,
14:57
when you hear it, the next note
pops into your head already --
347
897522
2909
그녀가 그 노래를 부를 때, 다음 음정은 이미 머릿 속에 떠올라요.
15:00
you anticipate it.
348
900455
1151
들으면서 동시에 다음 파트를 예측하는 겁니다. 만약에 이게 음반으로 묶인 음악이라면
15:01
With an album, at the end of a song,
the next song pops into your head.
349
901630
3354
한 앨범이 끝나는 순간에 다음 노래가 여러분의 머리에 떠오르죠.
15:05
It happens all the time,
you make predictions.
350
905008
2305
그리고 이런 현상은 계속 일어납니다. 여러분은 예측하고 계신 것입니다.
15:07
I have this thing called
the "altered door" thought experiment.
351
907337
3039
저는 이것을 바뀐 문 인지 실험이라고 부르죠.
15:10
It says, you have a door at home;
352
910400
2829
이 실험은 이렇죠, 여러분의 집에 문이 있습니다,
15:13
when you're here, I'm changing it --
353
913253
1755
여러분이 여기 있을 때, 저는 문을 바꿉니다, 저는 지금 당장
15:15
I've got a guy back at your house
right now, moving the door around,
354
915032
3196
누구를 하나 여러분 집에 보내요, 그럼 그 사람이 문을 돌려놓을 거에요-
15:18
moving your doorknob over two inches.
355
918252
1769
그리고 그 사람은 문 손잡이를 2인치 정도 옮겨놓을 겁니다.
15:20
When you go home tonight, you'll put
your hand out, reach for the doorknob,
356
920045
3584
그리고 오늘밤 여러분이 집으로 갔을 때, 손잡이에 손을 갖다대려 하겠죠,
손잡이 쪽으로 뻗겠죠 그리고 알아차릴 것입니다
15:23
notice it's in the wrong spot
357
923653
1514
잘못 되었다고, 그리고 깨닫을 것입니다, '우와, 뭔가 변했네'
15:25
and go, "Whoa, something happened."
358
925191
1687
15:26
It may take a second,
but something happened.
359
926902
2101
대체 무슨 일이 있었는지 알아내는 데는 좀 걸릴 수도 있겠지만, 뭔가 변했다는 건 바로 알아차릴겁니다.
15:29
I can change your doorknob
in other ways --
360
929027
2003
지금 저는 여러분의 문 손잡이를 여러 방법으로 바꿀 수 있습니다.
15:31
make it larger, smaller, change
its brass to silver, make it a lever,
361
931054
3241
크게 혹은 작게 만들거나 동색에서 은색으로 바꿀 수 있죠,
레버형 손잡이로 바꿔 놓을 수도 있고, 문을 바꿀 수도 있어요- 색을 칠한다거나,
15:34
I can change the door;
put colors on, put windows in.
362
934319
2576
창문을 넣을 수도 있습니다. 문에 관하여 천가지쯤은 바꿀 수 있습니다,
15:36
I can change a thousand things
about your door
363
936919
2151
그리고 잠깐동안 여러분이 문을 열었을 때,
15:39
and in the two seconds
you take to open it,
364
939094
2008
뭔가 바뀌었다는 것을 눈치 채실 것입니다.
15:41
you'll notice something has changed.
365
941126
1722
15:42
Now, the engineering approach,
the AI approach to this,
366
942872
2584
자, 이 현상에대한 엔지니어적인 접근 방법, 예를 들자면 AI 적인 접근방법은
15:45
is to build a door database
with all the door attributes.
367
945480
2675
문에 관한 데이터 베이스를 구축하는 겁니다. 이 데이터베이스는 문에 대한 모든 특성을 포함하는 거죠.
15:48
And as you go up to the door,
we check them off one at time:
368
948179
2819
여러분이 문에 다가설 때, 한 번에 그것들을 검사합니다.
15:51
door, door, color ...
369
951022
1346
'문, 문, 문, 색깔', 무슨 말인지 아시죠.
15:52
We don't do that.
Your brain doesn't do that.
370
952392
2100
우리는 그렇게 하지 않습니다. 여러분의 뇌는 그렇게 하지 않죠.
15:54
Your brain is making
constant predictions all the time
371
954516
2540
뇌가 하는 것은 항상 끊임없이 예측하는 것입니다
15:57
about what will happen
in your environment.
372
957080
2034
지금 환경에서 무엇이 벌어질지 말입니다.
15:59
As I put my hand on this table,
I expect to feel it stop.
373
959138
2746
제가 이 테이블에 손을 얹을 때, 저는 손이 멈추는 걸 느끼기를 기대합니다.
16:01
When I walk, every step,
if I missed it by an eighth of an inch,
374
961908
3019
제가 걸을 때, 매 걸음 마다- 만약 1/8 인치 정도 놓쳤다면
16:04
I'll know something has changed.
375
964951
1533
뭔가 바뀌었다는 것을 느끼게 됩니다.
16:06
You're constantly making predictions
about your environment.
376
966508
2820
여러분은 끊임없이 주어진 환경에 대하여 예측합니다.
16:09
I'll talk about vision, briefly.
377
969352
1593
간략하게 시각에 대해서 말하죠. 여성 사진입니다.
16:10
This is a picture of a woman.
378
970969
1383
16:12
When we look at people, our eyes saccade
over two to three times a second.
379
972376
3490
여러분이 사람을 볼 때, 여러분의 눈은 사로잡힙니다
일초에 두번에서 세번정도 말이죠.
16:15
We're not aware of it,
but our eyes are always moving.
380
975890
2529
이것에 대하여 인지 할 수 없지만 눈은 항상 움직이고 있습니다.
그래서 어떤이의 얼굴을 보았을 떄,
16:18
When we look at a face, we typically
go from eye to eye to nose to mouth.
381
978443
3435
일반적으로 눈에서 눈으로 눈에서 코로 입으로 이동하죠.
16:21
When your eye moves from eye to eye,
382
981902
1869
지금, 여러분의 시선이 눈에서 눈으로 움직일 때,
16:23
if there was something
else there like a nose,
383
983795
2158
만약 눈에 코와 같은게 있다면
16:25
you'd see a nose where an eye
is supposed to be and go, "Oh, shit!"
384
985977
3546
여러분은 눈이 있어야 될 코를 보실 것입니다
'오 이런',이런 반응을 보이시겠죠, 알다시피 --
16:29
(Laughter)
385
989547
1396
16:30
"There's something wrong
about this person."
386
990967
2109
(웃음)
이 사람, 무언가 잘못됐다-라고 느끼겠죠.
16:33
That's because you're making a prediction.
387
993100
2005
왜냐하면 여러분이 예측했기 때문입니다.
16:35
It's not like you just look over and say,
"What am I seeing? A nose? OK."
388
995129
3439
시선을 그 쪽으로 향해서 보면서 내가 지금 무얼 보고 있는걸까-하고 말하는 그런 상황이 아닌거죠.
코, 괜찮습니다, 아니죠, 여러분은 보는 것에 대하여 예측을 합니다..
16:38
No, you have an expectation
of what you're going to see.
389
998592
2634
(웃음)
16:41
Every single moment.
390
1001250
1151
매순간 말입니다. 그리고 마지막으로, 어떻게 지성을 검사하는지 생각해봅시다.
16:42
And finally, let's think
about how we test intelligence.
391
1002425
2629
16:45
We test it by prediction:
What is the next word in this ...?
392
1005078
3081
우리는 예측으로 검사하죠. 알디시피, 문제에 대한 다음 단어는, 아시겠죠?
16:48
This is to this as this is to this.
What is the next number in this sentence?
393
1008183
3627
이 문장에서 다음 숫자는?
16:51
Here's three visions of an object.
What's the fourth one?
394
1011834
2690
여기 사물에 대한 세가지 시각이 있습니다.
네번째는 무엇일까요? 우리가 검사하는 방법입니다. 예측이죠.
16:54
That's how we test it.
It's all about prediction.
395
1014548
2504
16:57
So what is the recipe for brain theory?
396
1017573
2194
뇌 이론을 위한 방안은 무엇일까요?
17:00
First of all, we have to have
the right framework.
397
1020219
2366
무엇보다도, 우리는 옳은 틀을 만들어야 합니다.
17:02
And the framework is a memory framework,
398
1022609
1913
그리고 이 틀은 기억의 틀입니다,
17:04
not a computational or behavior framework,
399
1024546
2024
행동의 틀 혹은 계산의 틀이 아니죠. 기억의 틀이죠.
17:06
it's a memory framework.
400
1026594
1163
17:07
How do you store and recall
these sequences of patterns?
401
1027781
2623
여러분들은 어떻게 이 패턴과 그 순서들을 저장하고 상기하나요? 이건 시공간의 패턴인겁니다.
17:10
It's spatiotemporal patterns.
402
1030428
1442
17:11
Then, if in that framework,
you take a bunch of theoreticians --
403
1031894
3009
만약 여러분이 기억의 틀에서 이론가들을 받아들인다면,
17:14
biologists generally
are not good theoreticians.
404
1034927
2246
생물학자들은 일반적으로 좋지 않은 선택이죠.
항상 옳지는 않습니다만, 일반적으로 생물학 쪽에서 좋은 이론이 나온 경우는 잘 없습니다.
17:17
Not always, but generally, there's not
a good history of theory in biology.
405
1037197
3529
17:20
I've found the best people
to work with are physicists,
406
1040750
2574
그래서 저는 같이 일할 가장 적합한 물리학자들을 찾았습니다
17:23
engineers and mathematicians,
407
1043348
1383
문제 해결 절차 및 방법을 생각하는 기술자 그리고 수학자들을 말이죠.
17:24
who tend to think algorithmically.
408
1044755
1696
17:26
Then they have to learn
the anatomy and the physiology.
409
1046475
3264
이후 그들은 해부학을 배워야합니다, 그리고 생리학을 배워야 하죠.
17:29
You have to make these theories
very realistic in anatomical terms.
410
1049763
4496
이 이론들을 해부학적 관점에서도 사실적일 수 있도록 만들어야 하거든요.
누군가가 일어나서 여러분에게 뇌의 작용에 대해서 이론을 말하는데
17:34
Anyone who tells you their theory
about how the brain works
411
1054283
2765
17:37
and doesn't tell you exactly
how it's working
412
1057072
2097
뇌 안에서 어떻게 그 이론이 작동하는지에 대해서 말해주지 않는다면
17:39
and how the wiring works --
413
1059193
1303
그리고 뇌 내의 연결망들이 어떻게 작동하는 지 정확히 말해주지 않는다면, 그건 이론이 아니죠.
17:40
it's not a theory.
414
1060520
1267
17:41
And that's what we do
at the Redwood Neuroscience Institute.
415
1061811
2833
이것이 우리가 레드우드 뇌과학 연구소에서 연구하는 것입니다.
17:44
I'd love to tell you we're making
fantastic progress in this thing,
416
1064668
3308
이론 창안에 대해서 우리 연구진들이 얼마나 대단한 진척을 보이고 있는 지에 대해서 더 말할 시간이 있었으면 좋겠습니다.
17:48
and I expect to be back on this stage
sometime in the not too distant future,
417
1068000
3662
그리고 언젠가는 이 무대에 또 돌아오기를 기대합니다.
아마 지금이 아닌 다른 강연에서 말씀 드리게 되겠지만, 그게 그리 먼 미래는 아닐 것입니다.
17:51
to tell you about it.
418
1071686
1164
17:52
I'm really excited;
this is not going to take 50 years.
419
1072874
2594
저는 정말로 흥분됩니다. 이 연구는 전혀 50년이 걸리지 않을 것입니다.
17:55
What will brain theory look like?
420
1075492
1578
그럼, 뇌이론은 대략 어떤 모습을 띠게 될까요?
17:57
First of all, it's going
to be about memory.
421
1077094
2055
무엇보다도, 기억에 대한 이론이 될 것입니다.
17:59
Not like computer memory --
not at all like computer memory.
422
1079173
2822
컴퓨터 메모리 같은 것이 아닙니다. 컴퓨터 메모리와는 전혀 다르죠.
18:02
It's very different.
423
1082019
1151
매우 다른 것이죠. 그리고 매우 고차원적인
18:03
It's a memory of very
high-dimensional patterns,
424
1083194
2257
패턴의 기억입니다, 눈에서 온 것과 같은 것이죠.
18:05
like the things that come from your eyes.
425
1085475
1962
18:07
It's also memory of sequences:
426
1087461
1437
그리고 또, 일정 순서 (시퀀스)에 대한 기억입니다.
18:08
you cannot learn or recall anything
outside of a sequence.
427
1088922
2730
여러분들은 순서(시퀀스)에 어긋난 것들을 학습하거나 상기할 수 없습니다.
18:11
A song must be heard
in sequence over time,
428
1091676
2837
노래가 있다면, 그 노래는 시간 순서에 맞게 들려야 합니다.
18:14
and you must play it back
in sequence over time.
429
1094537
2351
그리고 여러분들은 그 시간 순서에 맞게 상기해야 하구요.
18:16
And these sequences
are auto-associatively recalled,
430
1096912
2449
그리고 이 순서들은 자동적으로 연동돼서 떠오릅니다. 그래서 만약 제가 무언가를 보거나,
18:19
so if I see something, I hear something,
it reminds me of it,
431
1099385
2873
무언가를 듣거나 할 때, 그 순서를 떠오르게 만들고 자동으로 기억에서 불러와서 재생하는 거죠.
18:22
and it plays back automatically.
432
1102282
1533
18:23
It's an automatic playback.
433
1103839
1294
자동 재생인 셈이죠. 그리고 앞으로 들어올 입력값에 대해 제대로 예측하는 게 바람직한 출력값이 되는겁니다.
18:25
And prediction of future inputs
is the desired output.
434
1105157
2548
18:27
And as I said, the theory
must be biologically accurate,
435
1107729
2620
제가 말한 것처럼, 이론은 생물학적으로 정확해야 합니다,
18:30
it must be testable
and you must be able to build it.
436
1110373
2484
실험 가능해야하고, 직접 구현할 수 있어야 합니다.
18:32
If you don't build it,
you don't understand it.
437
1112881
2211
만약 직접 만들어 구현하지 못한다면, 여러분들은 그걸 이해할 수 없을겁니다. 여기 슬라이드가 한 장 더 있는데요-
18:35
One more slide.
438
1115116
1532
18:36
What is this going to result in?
439
1116672
2309
결과가 어떻게 될까요? 우리는 정말로 지성을 가진 기계를 만들까요?
18:39
Are we going to really build
intelligent machines?
440
1119005
2348
물론입니다. 그리고, 그 기계들은 지금 사람들이 생각하고 있는 형태랑은 다를 겁니다.
18:41
Absolutely. And it's going to be
different than people think.
441
1121377
3798
저는 이것 (지성을 가진 기계를 개발하는 것)이 꼭 일어날 거라는 데 대해서 추호의 의심도 없습니다.
18:45
No doubt that it's going
to happen, in my mind.
442
1125508
2392
18:47
First of all, we're going to build
this stuff out of silicon.
443
1127924
3116
첫째로, 우리는 실리콘을 이용해서 그것들을 만들 겁니다.
18:51
The same techniques we use to build
silicon computer memories,
444
1131064
2912
실리콘 재질의 컴퓨터 메모리를 만드는 데 사용한 바로 그 기술들을-
18:54
we can use here.
445
1134000
1151
여기에 사용할 수 있습니다
18:55
But they're very different
types of memories.
446
1135175
2109
하지만 그것들은 아주 다른 종류의 메모리입니다.
18:57
And we'll attach
these memories to sensors,
447
1137308
2023
그리고 우리는 이 메모리들을 센서에다 부착할 것이고-
18:59
and the sensors will experience
real-live, real-world data,
448
1139355
2777
센서는 실물, 실제정보를 경험할 것입니다,
19:02
and learn about their environment.
449
1142156
1752
그리고 이것들은 그들의 환경에 대해서 학습할 것입니다.
19:03
Now, it's very unlikely the first things
you'll see are like robots.
450
1143932
3445
첫번째로 보게 될 제품은 로봇과 같지 않을 것입니다.
19:07
Not that robots aren't useful;
people can build robots.
451
1147401
2575
로봇은 유용합니다 그리고 사람들은 로봇을 만들 수 있습니다.
19:10
But the robotics part is the hardest part.
That's old brain. That's really hard.
452
1150000
3767
하지만 로봇 부분은 가장 어려은 부부입니다. 오래 된 뇌 부분이죠. 이 부분은 정말로 어렵죠.
19:13
The new brain is easier
than the old brain.
453
1153791
2007
새로운 뇌는 사실상 오래된 뇌보다는 쉽습니다.
19:15
So first we'll do things
that don't require a lot of robotics.
454
1155822
3082
그래서 우리가 처음으로 하게 되는 것은 많은 로봇을 요구하지 않는 것입니다.
19:18
So you're not going to see C-3PO.
455
1158928
2179
이렇게 여러분은 C-3PO를 보지 못할 것입니다.
19:21
You're going to see things
more like intelligent cars
456
1161131
2485
알다시피, 지능을 가진 차들같은 것을 좀 더 볼 수 있을 것입니다
19:23
that really understand
what traffic is, what driving is
457
1163640
2808
정말로 교통과 운전에 대해서 이해하는 것들이죠
19:26
and have learned that cars
with the blinkers on for half a minute
458
1166472
3278
그리고 30초 씩이나 깜빡이를 켜고 있는 차들은
19:29
probably aren't going to turn.
459
1169774
1574
아마도 턴을 하지 않을 것이라는 사실을 이미 학습한, 그런 류의 지능 말이죠.
19:31
(Laughter)
460
1171372
1291
(웃음)
19:32
We can also do intelligent
security systems.
461
1172687
2064
지능적인 보안 체계를 만들 수도 있을 것입니다.
19:34
Anytime we're basically using our brain
but not doing a lot of mechanics --
462
1174775
3573
어떤 분야가 되었건 사람이 뇌를 사용하지만 기계적인 것들을 크게 담당하지 않는 분야들-
19:38
those are the things
that will happen first.
463
1178372
2059
그 분야들이 가장 먼저 지능적인 기계들을 적용할 분야가 될 것입니다.
19:40
But ultimately, the world's the limit.
464
1180455
1820
하지만 결국은 여기까지가 한계입니다.
19:42
I don't know how this will turn out.
465
1182299
1732
저는 이것이 어떻게 발전해 나갈지 모릅니다.
19:44
I know a lot of people who invented
the microprocessor.
466
1184055
2591
저는 마이크로프로세서를 발명한 많은 사람들을 알고 있습니다.
19:46
And if you talk to them,
467
1186670
2164
그 사람들이랑 이야기 해 보면 말이죠, 그들은 자신들이 하고 있는 일이 정말 중요하다는 걸 알고 있었습니다.
19:48
they knew what they were doing
was really significant,
468
1188858
2575
19:51
but they didn't really know
what was going to happen.
469
1191457
2500
그게 어떤 효과를 가질지는 정확히 모르고 있었지만요.
19:53
They couldn't anticipate
cell phones and the Internet
470
1193981
2768
그 사람들은 당시에 휴대폰이나 인터넷 같은 많은 것들을 예측할 수 없었습니다.
19:56
and all this kind of stuff.
471
1196773
1735
19:58
They just knew like,
"We're going to build calculators
472
1198532
2621
그들은 단지 계산기, 신호등 불 조절 같은 것을
20:01
and traffic-light controllers.
473
1201177
1440
만들게 될 거라는 걸 알고 있었죠. 하지만 결국은 엄청난 효과를 가지고 왔거든요.
20:02
But it's going to be big!"
474
1202641
1299
20:03
In the same way, brain science
and these memories
475
1203964
2341
똑같은 방식으로, 뇌과학과 이런 메모리칩들이
20:06
are going to be a very
fundamental technology,
476
1206329
2225
앞으로 아주 근본적인 기술이 될 것입니다. 그리고 앞으로
20:08
and it will lead to unbelievable changes
in the next 100 years.
477
1208578
3442
향후 100년간의 믿을 수 없는 변화들을 이 기술이 이끌어 갈 겁니다.
20:12
And I'm most excited about
how we're going to use them in science.
478
1212044
3405
저는 과학에서 우리가 이것들을 어떻게 사용할지 정말로 기대됩니다.
20:15
So I think that's all my time -- I'm over,
479
1215473
2837
제 할당 시간이 끝난 것 같네요, 좀 넘어갔어요, 그럼 여기서 이만 제 강의를
20:18
and I'm going to end my talk right there.
480
1218334
2277
마치겠습니다.
New videos
이 웹사이트 정보
이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.