Ray Kurzweil: Get ready for hybrid thinking

530,277 views ・ 2014-06-02

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: K Bang 검토: Gemma Lee
00:12
Let me tell you a story.
0
12988
2316
이야기를 하나 해드리겠습니다.
00:15
It goes back 200 million years.
1
15304
1799
그것은 2억년 전으로 거슬러 올라갑니다.
00:17
It's a story of the neocortex,
2
17103
1984
대뇌 신피질에 관한 이야기인데
00:19
which means "new rind."
3
19087
1974
신피질이란 "새로운 껍질"이라는 뜻입니다.
00:21
So in these early mammals,
4
21061
2431
초기 포유류에 관한 것이죠.
00:23
because only mammals have a neocortex,
5
23492
2055
왜냐하면 쥐와 같은 포유류만이
00:25
rodent-like creatures.
6
25547
1664
신피질을 가지고 있으니까요.
00:27
It was the size of a postage stamp and just as thin,
7
27211
3579
신피질의 크기는 우표 정도였고 두께도 우표 정도였는데
00:30
and was a thin covering around
8
30790
1439
호두 만한 크기의 뇌를
00:32
their walnut-sized brain,
9
32229
2264
얇게 둘러싸고 있었습니다.
00:34
but it was capable of a new type of thinking.
10
34493
3701
하지만 이것은 새로운 방식의 사고 능력을 갖추고 있었어요.
00:38
Rather than the fixed behaviors
11
38194
1567
포유류가 아닌 동물이 보이는
00:39
that non-mammalian animals have,
12
39761
1992
고정된 행동 양식 대신
00:41
it could invent new behaviors.
13
41753
2692
신피질은 새로운 행동을 만들어 냈습니다.
00:44
So a mouse is escaping a predator,
14
44445
2553
그래서 생쥐는 포식자를 피하려다
00:46
its path is blocked,
15
46998
1540
길이 막히면
00:48
it'll try to invent a new solution.
16
48538
2129
새로운 해법을 찾아내려고 합니다.
00:50
That may work, it may not,
17
50667
1266
통할 수도 있고 아닐수도 있지만요.
00:51
but if it does, it will remember that
18
51933
1910
하지만 해법이 통하면 그걸 기억하고
00:53
and have a new behavior,
19
53843
1292
새로운 행동을 보입니다.
00:55
and that can actually spread virally
20
55135
1457
그런 행동은 바이러스처럼
00:56
through the rest of the community.
21
56592
2195
사회 곳곳에 퍼지게 되지요.
00:58
Another mouse watching this could say,
22
58787
1609
이걸 본 다른 생쥐가 이렇게 말할 수도 있겠군요.
01:00
"Hey, that was pretty clever, going around that rock,"
23
60396
2704
"이봐, 그거 참 영민한데, 그 어려움을 피해가다니 말이야."
01:03
and it could adopt a new behavior as well.
24
63100
3725
그게 또 다른 행동을 이끌어 내기도 합니다.
01:06
Non-mammalian animals
25
66825
1717
포유류가 아닌 동물들은
01:08
couldn't do any of those things.
26
68542
1713
이런 행동 중에 어떤 것도 하지 못합니다.
01:10
They had fixed behaviors.
27
70255
1215
그들은 고정된 행동을 합니다.
01:11
Now they could learn a new behavior
28
71470
1331
새로운 행동을 배울 수는 있지만
01:12
but not in the course of one lifetime.
29
72801
2576
한 평생을 사는 동안에는 그렇게 할 수 없습니다.
01:15
In the course of maybe a thousand lifetimes,
30
75377
1767
약 1천 세대에 걸쳐
01:17
it could evolve a new fixed behavior.
31
77144
3330
신피질은 새로운 고정 행동을 만들어냈을 겁니다.
01:20
That was perfectly okay 200 million years ago.
32
80474
3377
2억년 전에는 그런 모습이 완벽하게 괜찮았지요.
01:23
The environment changed very slowly.
33
83851
1981
주변 환경이 매우 느리게 변화했으니까요.
01:25
It could take 10,000 years for there to be
34
85832
1554
중요한 환경 변화가 일어나려면
01:27
a significant environmental change,
35
87386
2092
1만년은 걸렸을테니까요.
01:29
and during that period of time
36
89478
1382
그 시간 동안
01:30
it would evolve a new behavior.
37
90860
2929
신피질은 새로운 행동을 만들어 냈을 거예요.
01:33
Now that went along fine,
38
93789
1521
그런 흐름은 괜찮았지만
01:35
but then something happened.
39
95310
1704
새로운 사건이 발생했습니다.
01:37
Sixty-five million years ago,
40
97014
2246
6천 5백만 년전,
01:39
there was a sudden, violent change to the environment.
41
99260
2615
갑작스럽고 급격한 환경 변화가 일어났습니다.
01:41
We call it the Cretaceous extinction event.
42
101875
3505
우리는 그것을 백악기의 대멸종이라고 하죠.
01:45
That's when the dinosaurs went extinct,
43
105380
2293
공룡이 모두 멸종한 시기인데
01:47
that's when 75 percent of the
44
107673
3449
모든 동식물종의
01:51
animal and plant species went extinct,
45
111122
2746
75%가 멸종했고
01:53
and that's when mammals
46
113868
1745
그 시기에 포유류는
01:55
overtook their ecological niche,
47
115613
2152
자신의 생태적 지위를 앞서나가
01:57
and to anthropomorphize, biological evolution said,
48
117765
3654
인간이 되기 시작합니다. 생물학적 진화 면에서 보면
02:01
"Hmm, this neocortex is pretty good stuff,"
49
121419
2025
"음, 이 신피질이란게 무척 좋은거군"이라고 했겠죠.
02:03
and it began to grow it.
50
123444
1793
그리고는 신피질이 자라나기 시작합니다.
02:05
And mammals got bigger,
51
125237
1342
포유류의 몸집이 더 커짐에 따라
02:06
their brains got bigger at an even faster pace,
52
126579
2915
두뇌는 훨씬 더 빠른 속도로 커지고
02:09
and the neocortex got bigger even faster than that
53
129494
3807
신피질은 그보다도 더 빠르게 훨씬 더 커졌습니다.
02:13
and developed these distinctive ridges and folds
54
133301
2929
그리고는 이렇게 특이한 굴곡을 만들어냈어요.
02:16
basically to increase its surface area.
55
136230
2881
기본적으로 그 표면을 넓히려는 것이었죠.
02:19
If you took the human neocortex
56
139111
1819
인간의 신피질을
02:20
and stretched it out,
57
140930
1301
펼쳐보면
02:22
it's about the size of a table napkin,
58
142231
1713
식탁의 냅킨 정도의 크기이고
02:23
and it's still a thin structure.
59
143944
1306
여전히 얇은 구조에요.
02:25
It's about the thickness of a table napkin.
60
145250
1980
식탁 냅킨 정도의 두께를 가지고 있습니다.
02:27
But it has so many convolutions and ridges
61
147230
2497
하지만 이제는 수많은 주름과 굴곡을 가지고
02:29
it's now 80 percent of our brain,
62
149727
3075
우리 두뇌의 80%를 차지합니다.
02:32
and that's where we do our thinking,
63
152802
2461
그곳을 통해 우리는 생각을 합니다.
02:35
and it's the great sublimator.
64
155263
1761
위대한 창조자인 셈이죠.
02:37
We still have that old brain
65
157024
1114
인간은 여전히 기본적인 행동과
02:38
that provides our basic drives and motivations,
66
158138
2764
동기를 유발하는 오래된 두뇌를 갖고 있지만
02:40
but I may have a drive for conquest,
67
160902
2716
이제는 정복을 위한 욕구를 가질 수도 있지요.
02:43
and that'll be sublimated by the neocortex
68
163618
2715
신피질은 시를 쓰거나
02:46
into writing a poem or inventing an app
69
166333
2909
앱을 만들고
02:49
or giving a TED Talk,
70
169242
1509
TED 강연을 만들어 내는 창조적 역할을 합니다.
02:50
and it's really the neocortex that's where
71
170751
3622
그것이 바로 활동이 일어나는
02:54
the action is.
72
174373
1968
신피질의 실체입니다.
02:56
Fifty years ago, I wrote a paper
73
176341
1717
50년 전에 저는
02:58
describing how I thought the brain worked,
74
178058
1918
두뇌가 어떻게 작동하리란 저의 생각을 설명하는 논문을 썼습니다.
02:59
and I described it as a series of modules.
75
179976
3199
저는 그것을 일련의 모듈처럼 묘사했죠.
03:03
Each module could do things with a pattern.
76
183175
2128
각각의 모듈은 어떤 양식을 가지고 일을 처리했습니다.
03:05
It could learn a pattern. It could remember a pattern.
77
185303
2746
양식을 배울 수 있고 기억할 수도 있었죠.
03:08
It could implement a pattern.
78
188049
1407
그걸 시행할 수도 있었습니다.
03:09
And these modules were organized in hierarchies,
79
189456
2679
이러한 모듈은 체계를 가지고 조직되었고
03:12
and we created that hierarchy with our own thinking.
80
192135
2954
우리는 우리 자신의 사고를 통해 그 체계를 창조해 냈습니다.
03:15
And there was actually very little to go on
81
195089
3333
실제로 50년 전에는
03:18
50 years ago.
82
198422
1562
거의 다른 진전이 없었지요.
03:19
It led me to meet President Johnson.
83
199984
2115
제가 존슨 대통령을 만난 적이 있는데요.
03:22
I've been thinking about this for 50 years,
84
202099
2173
저는 그 사실을 50년 간 생각해왔습니다.
03:24
and a year and a half ago I came out with the book
85
204272
2828
1년 반 전에 저는 이런 책을 썼습니다.
03:27
"How To Create A Mind,"
86
207100
1265
"정신을 창조하는 법"
03:28
which has the same thesis,
87
208365
1613
내용은 논문과 같았지만
03:29
but now there's a plethora of evidence.
88
209978
2812
수많은 증거가 포함되었습니다.
03:32
The amount of data we're getting about the brain
89
212790
1814
신경과학을 통해 두뇌에 대해
03:34
from neuroscience is doubling every year.
90
214604
2203
우리가 수집한 자료는 해마다 두배로 늘어납니다.
03:36
Spatial resolution of brainscanning of all types
91
216807
2654
모든 종류의 두뇌 스캔 해상도는
03:39
is doubling every year.
92
219461
2285
매년 두배가 되고 있습니다.
03:41
We can now see inside a living brain
93
221746
1717
현재 인간은 살아있는 뇌의 내부와
03:43
and see individual interneural connections
94
223463
2870
각각의 신경 연결선을
03:46
connecting in real time, firing in real time.
95
226333
2703
실시간으로 볼 수 있습니다.
03:49
We can see your brain create your thoughts.
96
229036
2419
두뇌가 생각을 만들어내는 것을 볼 수 있어요.
03:51
We can see your thoughts create your brain,
97
231455
1575
인간의 사고가 뇌를 만들어내는 것을 볼 수 있습니다.
03:53
which is really key to how it works.
98
233030
1999
바로 이것이 작동 원리의 진정한 열쇠입니다.
03:55
So let me describe briefly how it works.
99
235029
2219
어떤 일이 일어나는지 설명드릴게요.
03:57
I've actually counted these modules.
100
237248
2275
제가 이 모듈들을 실제로 세어봤습니다.
03:59
We have about 300 million of them,
101
239523
2046
인간은 이런 것들을 약 3억 개 가지고 있는데
04:01
and we create them in these hierarchies.
102
241569
2229
이런 위계 속에서 만들어냅니다.
04:03
I'll give you a simple example.
103
243798
2082
간단한 예를 드리죠.
04:05
I've got a bunch of modules
104
245880
2805
저에게는 대문자 A에 있는 수평 직선을 알아보는
04:08
that can recognize the crossbar to a capital A,
105
248685
3403
여러 개의 모들이 있습니다.
04:12
and that's all they care about.
106
252088
1914
이 모듈들이 하는 일의 전부이죠.
04:14
A beautiful song can play,
107
254002
1578
아름다운 음악이 흘러나와도
04:15
a pretty girl could walk by,
108
255580
1434
아리따운 아가씨가 지나가도
04:17
they don't care, but they see a crossbar to a capital A,
109
257014
2846
이 녀석들은 관심이 없어요. 하지만 A 자에 든 직선을 보면
04:19
they get very excited and they say "crossbar,"
110
259860
3021
매우 흥분해서 "직선"이라고 말하고는
04:22
and they put out a high probability
111
262881
2112
출력 축색 돌기에 높은 확률을
04:24
on their output axon.
112
264993
1634
표시합니다.
04:26
That goes to the next level,
113
266627
1333
그러면 다음 단계로 넘어가게 되고
04:27
and these layers are organized in conceptual levels.
114
267960
2750
이런 층이 개념적인 수준에서 만들어 집니다.
04:30
Each is more abstract than the next one,
115
270710
1856
각 층은 다음 층에 비해서 더 추상적이에요.
04:32
so the next one might say "capital A."
116
272566
2418
그래서 그 다음 층이 "대문자 A"라고 말할 지도 모릅니다.
04:34
That goes up to a higher level that might say "Apple."
117
274984
2891
그 것은 "사과(Apple)"라고 말하는 더 높은 단계로 갑니다.
04:37
Information flows down also.
118
277875
2167
정보는 또한 아래로도 흐릅니다.
04:40
If the apple recognizer has seen A-P-P-L,
119
280042
2936
사과(Apple)를 알아보는 단계가 A-P-P-L 만 봐도
04:42
it'll think to itself, "Hmm, I think an E is probably likely,"
120
282978
3219
"흠.. E가 나올 것같아"라고 생각합니다.
04:46
and it'll send a signal down to all the E recognizers
121
286197
2564
그리고는 E 를 알아보는 층으로 이런 신호를 내려보냅니다.
04:48
saying, "Be on the lookout for an E,
122
288761
1619
"E가 있는지 알아봐.
04:50
I think one might be coming."
123
290380
1556
E가 나와야 할 것같거든."
04:51
The E recognizers will lower their threshold
124
291936
2843
E 를 알아보는 층은 자신의 기준을 낮춰
04:54
and they see some sloppy thing, could be an E.
125
294779
1945
E 가 될 법하게 쓰인 것을 찾습니다.
04:56
Ordinarily you wouldn't think so,
126
296724
1490
보통은 그렇게 하지 않지만
04:58
but we're expecting an E, it's good enough,
127
298214
2009
E를 예측하는 것으로 충분하죠.
05:00
and yeah, I've seen an E, and then apple says,
128
300223
1817
"그래, E 가 있는데."라고 하면
05:02
"Yeah, I've seen an Apple."
129
302040
1728
사과를 생각하는 층에서 "그래, 난 사과를 봤어."라고 하죠.
05:03
Go up another five levels,
130
303768
1746
여기서 5 단계를 더 올라가면
05:05
and you're now at a pretty high level
131
305514
1353
이제 상당히 높은 단계에
05:06
of this hierarchy,
132
306867
1569
다다르게 되고
05:08
and stretch down into the different senses,
133
308436
2353
신호는 서로 다른 감각으로 내려 갑니다.
05:10
and you may have a module that sees a certain fabric,
134
310789
2655
사람에게는 특정한 표면을 감지하거나,
05:13
hears a certain voice quality, smells a certain perfume,
135
313444
2844
특정한 목소리를 듣거나, 특정한 향을 감지하는 모듈이 있어서
05:16
and will say, "My wife has entered the room."
136
316288
2513
이렇게 말합니다. "아내가 방에 들어왔어."
05:18
Go up another 10 levels, and now you're at
137
318801
1895
이제 다시 10 단계 위로 올라가면
05:20
a very high level.
138
320696
1160
아주 높은 단계에 이르게 됩니다.
05:21
You're probably in the frontal cortex,
139
321856
1937
아마 전두 피질에 이르렀을테고
05:23
and you'll have modules that say, "That was ironic.
140
323793
3767
거기에는 이렇게 말하는 모듈이 있을 겁니다. "거 참 이상하네.
05:27
That's funny. She's pretty."
141
327560
2370
우습게도 아내가 예뻐."
05:29
You might think that those are more sophisticated,
142
329930
2105
그 모듈은 더 복잡할거라고 생각하실지도 모르지만
05:32
but actually what's more complicated
143
332035
1506
사실 더 복잡한 것은
05:33
is the hierarchy beneath them.
144
333541
2669
그 아래에 있는 계층 구조입니다.
05:36
There was a 16-year-old girl, she had brain surgery,
145
336210
2620
뇌 수술을 받은 16세 소녀가 있었는데
05:38
and she was conscious because the surgeons
146
338830
2051
의식이 있었어요.
05:40
wanted to talk to her.
147
340881
1537
의사가 말을 걸려고 했으니까요.
05:42
You can do that because there's no pain receptors
148
342418
1822
뇌에는 통증을 느끼는 감각이 없기 때문에
05:44
in the brain.
149
344240
1038
가능한 일이죠.
05:45
And whenever they stimulated particular,
150
345278
1800
의사들이 그녀의 신피질에서
05:47
very small points on her neocortex,
151
347078
2463
매우 작고 특정한 부위를 자극할 때마다,
05:49
shown here in red, she would laugh.
152
349541
2665
여기 붉게 보이는 부분인데요, 소녀가 웃는 거예요.
05:52
So at first they thought they were triggering
153
352206
1440
처음에 의사들은 일종의, 웃음을 유발하는 부위를
05:53
some kind of laugh reflex,
154
353646
1720
건드렸다고 생각했는데
05:55
but no, they quickly realized they had found
155
355366
2519
그게 아니었어요. 의사들은 곧 바로
05:57
the points in her neocortex that detect humor,
156
357885
3044
유머를 알아채는 신피질 부위를 찾아냈다는 것을 알게 되었습니다.
06:00
and she just found everything hilarious
157
360929
1969
의사들이 이 지점을 자극할 때마다
06:02
whenever they stimulated these points.
158
362898
2437
소녀는 모든 것이 아주 우스꽝스럽게 느껴지는 거에요.
06:05
"You guys are so funny just standing around,"
159
365335
1925
"여기 서 계신 분들은 정말 웃기네요."라는 말을
06:07
was the typical comment,
160
367260
1738
자주 했지만
06:08
and they weren't funny,
161
368998
2302
의사들은 전혀 웃기지 않았어요.
06:11
not while doing surgery.
162
371300
3247
수술을 집도하는 중에는 말이에요.
06:14
So how are we doing today?
163
374547
4830
지금은 어떨까요?
06:19
Well, computers are actually beginning to master
164
379377
3054
음, 컴퓨터가 실제로 인간의 신피질과 비슷한 기술로
06:22
human language with techniques
165
382431
2001
인간의 언어를 완전히 이해하기
06:24
that are similar to the neocortex.
166
384432
2867
시작했습니다.
06:27
I actually described the algorithm,
167
387299
1514
제가 실제로 그 알고리즘을 설명했는데요.
06:28
which is similar to something called
168
388813
2054
그것은 소위
06:30
a hierarchical hidden Markov model,
169
390867
2233
숨겨진 단계적 마르코프 모델이라고
06:33
something I've worked on since the '90s.
170
393100
3241
하는 것인데 제가 90년대 이후로 연구해온 분야입니다.
06:36
"Jeopardy" is a very broad natural language game,
171
396341
3238
"제퍼디(Jeopardy)"는 광범위한 자연 언어 게임이에요.
06:39
and Watson got a higher score
172
399579
1892
왓슨은 최고 득점자 두 사람의 점수를 합한 것보다
06:41
than the best two players combined.
173
401471
2000
더 높은 점수를 얻었습니다.
06:43
It got this query correct:
174
403471
2499
왓슨이 이 문제를 맞췄습니다.
06:45
"A long, tiresome speech
175
405970
2085
"길고 지루한 이야기인데,
06:48
delivered by a frothy pie topping,"
176
408055
2152
거품이 있는 파이 토핑이 한 말"
06:50
and it quickly responded, "What is a meringue harangue?"
177
410207
2796
그러자 왓슨이 바로 답했습니다. "정답은 머랭 하랑(meringue harangue)"
06:53
And Jennings and the other guy didn't get that.
178
413003
2635
제닝스와 다른 참가자는 무슨 말인지 몰랐습니다.
06:55
It's a pretty sophisticated example of
179
415638
1926
이것은 컴퓨터가 인간의 언어를
06:57
computers actually understanding human language,
180
417564
1914
실제로 이해했다는 상당히 복잡한 예입니다.
06:59
and it actually got its knowledge by reading
181
419478
1652
왓슨은 실제로 위키피디아와
07:01
Wikipedia and several other encyclopedias.
182
421130
3785
몇 개의 다른 백과 사전을 통해 지식을 얻었습니다.
07:04
Five to 10 years from now,
183
424915
2133
앞으로 5년에서 10년 후,
07:07
search engines will actually be based on
184
427048
2184
검색 엔진은 실제로
07:09
not just looking for combinations of words and links
185
429232
2794
단어나 연결의 조합을 찾는 대신
07:12
but actually understanding,
186
432026
1914
실제로 이해한 내용을 기반으로 검색할 겁니다.
07:13
reading for understanding the billions of pages
187
433940
2411
웹이나 책을 수억 쪽이나 이해하며
07:16
on the web and in books.
188
436351
2733
읽은 것으로 부터 말이에요.
07:19
So you'll be walking along, and Google will pop up
189
439084
2616
그래서 길을 가는데 갑자기 구글이 튀어나와
07:21
and say, "You know, Mary, you expressed concern
190
441700
3081
"이보세요, 메리, 한 달전에 당신이 섭취하는
07:24
to me a month ago that your glutathione supplement
191
444781
3019
글루타티온이 혈액뇌관문을
07:27
wasn't getting past the blood-brain barrier.
192
447800
2231
통과하지 못할까 걱정했는데,
07:30
Well, new research just came out 13 seconds ago
193
450031
2593
13초 전에 발표된 결과를 보면
07:32
that shows a whole new approach to that
194
452624
1711
그것에 대한 완전히 새로운 접근법과
07:34
and a new way to take glutathione.
195
454335
1993
글루타티온을 섭취하는 새로운 방법을 보여 줍니다.
07:36
Let me summarize it for you."
196
456328
2562
그걸 요약해 드릴게요."라고 말하게 될 겁니다.
07:38
Twenty years from now, we'll have nanobots,
197
458890
3684
지금으로 부터 20년 후에는 나노 로봇이 나옵니다.
07:42
because another exponential trend
198
462574
1627
또 점점 더 작은 것에 대한 기술이
07:44
is the shrinking of technology.
199
464201
1615
또 하나의 추세거든요.
07:45
They'll go into our brain
200
465816
2370
나노 로봇이 사람의 머리 속으로 들어가
07:48
through the capillaries
201
468186
1703
모세 혈관을 통해서
07:49
and basically connect our neocortex
202
469889
2477
인간의 신피질을
07:52
to a synthetic neocortex in the cloud
203
472366
3185
클라우드에 있는 합성 신피질에 연결함으로써
07:55
providing an extension of our neocortex.
204
475551
3591
인간의 신피질을 확장해 줄 것입니다.
07:59
Now today, I mean,
205
479142
1578
현재에는
08:00
you have a computer in your phone,
206
480720
1530
휴대 전화기에 컴퓨터가 들어있습니다.
08:02
but if you need 10,000 computers for a few seconds
207
482250
2754
만약 몇 초 만에 복잡한 검색을 하려고
08:05
to do a complex search,
208
485004
1495
만 개의 컴퓨터가 필요한 경우에
08:06
you can access that for a second or two in the cloud.
209
486499
3396
클라우드에 있는 컴퓨터에 1, 2초간 접속할 수 있어요.
08:09
In the 2030s, if you need some extra neocortex,
210
489895
3095
2030년대에 약간의 신피질이 더 필요하다면
08:12
you'll be able to connect to that in the cloud
211
492990
2273
머리 속에 있는 신피질을 클라우드에 직접
08:15
directly from your brain.
212
495263
1648
연결할 수 있게 될 것입니다.
08:16
So I'm walking along and I say,
213
496911
1543
그래서 제가 길을 걷다가
08:18
"Oh, there's Chris Anderson.
214
498454
1363
"아, 크리스 앤더슨이 있군.
08:19
He's coming my way.
215
499817
1525
이쪽으로 오네.
08:21
I'd better think of something clever to say.
216
501342
2335
뭔가 영리해뵈는 걸 생각해야겠는걸.
08:23
I've got three seconds.
217
503677
1524
3초 밖에 시간이 없는데.
08:25
My 300 million modules in my neocortex
218
505201
3097
내 머리 속에 있는 3억 개의 신피질 모듈로는
08:28
isn't going to cut it.
219
508298
1240
할 수가 없어.
08:29
I need a billion more."
220
509538
1246
10억 개는 더 필요한데."라고 말하면
08:30
I'll be able to access that in the cloud.
221
510784
3323
저는 바로 그 클라우드에 접속할 수 있을 겁니다.
08:34
And our thinking, then, will be a hybrid
222
514107
2812
그 때, 우리의 사고는 생물학적인 것과 비생물학적인 것이
08:36
of biological and non-biological thinking,
223
516919
3522
혼재된 사고가 될 것입니다.
08:40
but the non-biological portion
224
520441
1898
하지만 비생물학적인 부분은
08:42
is subject to my law of accelerating returns.
225
522339
2682
제가 말하는 가속적 결과의 법칙에 지배를 받습니다.
08:45
It will grow exponentially.
226
525021
2239
그것은 기하급수적으로 증가할 것이라는 뜻이죠.
08:47
And remember what happens
227
527260
2016
우리가 마지막으로 신피질을 확장했던 때를
08:49
the last time we expanded our neocortex?
228
529276
2645
기억하십니까?
08:51
That was two million years ago
229
531921
1426
그것은 2백만년 전,
08:53
when we became humanoids
230
533347
1236
우리가 인간의 모습을 하고
08:54
and developed these large foreheads.
231
534583
1594
이렇게 커다란 이마를 갖게되었던 시기입니다.
08:56
Other primates have a slanted brow.
232
536177
2583
다른 영장류는 이마부위가 기울어져 있지요.
08:58
They don't have the frontal cortex.
233
538760
1745
그들에게는 전두 피질이 없습니다.
09:00
But the frontal cortex is not really qualitatively different.
234
540505
3685
그렇지만 전두 피질은 실제로 질적으로 다르지 않습니다.
09:04
It's a quantitative expansion of neocortex,
235
544190
2743
그것은 신피질이 양적으로 확장된 것이에요.
09:06
but that additional quantity of thinking
236
546933
2703
그런데 그렇게 늘어난 사고의 양이
09:09
was the enabling factor for us to take
237
549636
1779
우리가 질적인 향상을 이루고
09:11
a qualitative leap and invent language
238
551415
3346
언어와 예술, 과학, 기술,
09:14
and art and science and technology
239
554761
1967
그리고 TED 컨퍼런스를
09:16
and TED conferences.
240
556728
1454
발명하게 만들었습니다.
09:18
No other species has done that.
241
558182
2131
다른 어떤 종도 그러지 못했습니다.
09:20
And so, over the next few decades,
242
560313
2075
즉, 다음 수십년간,
09:22
we're going to do it again.
243
562388
1760
우리는 다시 그 과정을 지날 겁니다.
09:24
We're going to again expand our neocortex,
244
564148
2274
인간은 신피질을 다시 확장할 것이고
09:26
only this time we won't be limited
245
566422
1756
이번에 만큼은 신피질을 둘러싼
09:28
by a fixed architecture of enclosure.
246
568178
4280
고정된 신체 구조의 한계에 의해 제한받지 않을 것입니다.
09:32
It'll be expanded without limit.
247
572458
3304
제한없이 확장될 것입니다.
09:35
That additional quantity will again
248
575762
2243
그렇게 얻어지는 양은 또 다시
09:38
be the enabling factor for another qualitative leap
249
578005
3005
문화와 기술에 있어서 또 한번의 질적인 향상을
09:41
in culture and technology.
250
581010
1635
가능하게 하는 요소가 될 것입니다.
09:42
Thank you very much.
251
582645
2054
대단히 감사합니다.
09:44
(Applause)
252
584699
3086
(박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7