아래 영문자막을 더블클릭하시면 영상이 재생됩니다.
번역: Jongwook Kim
검토: ChungKyu Park
00:18
Cultural evolution is a dangerous child
0
18330
3000
문화적 진화는 지구상 어떤 종에게도
00:21
for any species to let loose on its planet.
1
21330
3000
그냥 풀어 놓기엔 위험한 아이입니다.
00:24
By the time you realize what's happening, the child is a toddler,
2
24330
4000
무슨 일이 일어났는지 깨달았을 때는 이미, 아이는 기어 다니다가,
00:28
up and causing havoc, and it's too late to put it back.
3
28330
6000
일어나고, 대혼란을 일으켜, 되돌릴 수 없이 늦어버릴 것입니다.
00:34
We humans are Earth's Pandoran species.
4
34330
3000
우리 인간은 지구의 판도라 종입니다.
00:37
We're the ones who let the second replicator out of its box,
5
37330
5000
우리는 판도라의 상자에서 두번째 복제자를 꺼냈고,
00:42
and we can't push it back in.
6
42330
2000
그걸 다시 돌려넣을 수 없습니다.
00:44
We're seeing the consequences all around us.
7
44330
3000
우리 주위 모든 곳에서 그 결과를 보고 있습니다.
00:48
Now that, I suggest, is the view that
8
48330
4000
자 이제, 밈학문을 진지하게 받아들인다면
00:52
comes out of taking memetics seriously.
9
52330
2000
도출되는 관점을 제안하겠습니다.
00:54
And it gives us a new way of thinking about
10
54330
2000
그리고 이것은 지구에서 일어나고 있을 뿐만 아니라
00:56
not only what's going on on our planet,
11
56330
2000
우주 다른 곳에서도 분명히 일어나고 있는
00:58
but what might be going on elsewhere in the cosmos.
12
58330
3000
무언가에 대해 우리가 새롭게 생각해보게 합니다.
01:01
So first of all, I'd like to say something about memetics
13
61330
3000
그래서 우선 밈학문과 밈 이론에 대해 얘기하고,
01:04
and the theory of memes,
14
64330
2000
그 다음 "우주에 과연 누가 있는가"라는 질문에
01:06
and secondly, how this might answer questions about who's out there,
15
66330
5000
어떻게 대답할 수 있는지 얘기해 보도록 하겠습니다.
01:11
if indeed anyone is.
16
71330
3000
만일 정말 누군가 있다면요.
01:14
So, memetics:
17
74330
2000
자, 밈학문.
01:16
memetics is founded on the principle of Universal Darwinism.
18
76330
4000
밈학문은 보편적 다윈주의 원칙 위에서 만들어 졌습니다.
01:20
Darwin had this amazing idea.
19
80330
3000
다윈은 이 놀라운 생각을 하게 되었죠.
01:23
Indeed, some people say
20
83330
2000
참으로 놀라워서, 어떤 사람들은
01:25
it's the best idea anybody ever had.
21
85330
3000
사상 최고의 아이디어라고까지 합니다.
01:28
Isn't that a wonderful thought, that there could be such a thing
22
88330
4000
지금까지 나온 최고의 아이디어가 있을 수 있다니
01:32
as a best idea anybody ever had?
23
92330
2000
정말 놀랍지 않나요?
01:34
Do you think there could?
24
94330
1000
여러분도 그렇다고 생각하나요?
01:35
Audience: No.
25
95330
1000
청중: 아니요.
01:36
(Laughter)
26
96330
1000
(웃음)
01:37
Susan Blackmore: Someone says no, very loudly, from over there.
27
97330
2000
저기 어떤 분은 큰 소리로 아니라고 하는군요.
01:39
Well, I say yes, and if there is, I give the prize to Darwin.
28
99330
4000
하지만, 예, 있습니다. 있다면 최고는 다윈의 몫이죠.
01:43
Why?
29
103330
2000
왜요?
01:45
Because the idea was so simple,
30
105330
3000
그 아이디어가 정말 단순하지만
01:48
and yet it explains all design in the universe.
31
108330
6000
전 우주의 모든 설계를 설명해주기 때문입니다.
01:54
I would say not just biological design,
32
114330
2000
단순히 생물학적 설계 뿐만 아니라
01:56
but all of the design that we think of as human design.
33
116330
2000
인간이 관계된 모든 설계를 말합니다.
01:58
It's all just the same thing happening.
34
118330
2000
모든 것이 똑같이 발생하는 것입니다.
02:00
What did Darwin say?
35
120330
2000
다윈이 뭐라고 말했을까요?
02:02
I know you know the idea, natural selection,
36
122330
2000
자연 선택 개념은 이미 여러분도 아시지만,
02:04
but let me just paraphrase "The Origin of Species," 1859,
37
124330
5000
1859년 작 "종의 기원"을 몇 문장으로
02:09
in a few sentences.
38
129330
2000
한번 줄여 보겠습니다.
02:11
What Darwin said was something like this:
39
131330
3000
다윈이 말한 것은 이런 것이였어요.
02:14
if you have creatures that vary, and that can't be doubted --
40
134330
4000
만일 다양한 생명체가 존재한다면, 당연한 얘기지요,
02:18
I've been to the Galapagos, and I've measured the size of the beaks
41
138330
3000
내가 갈라파고스에 가서 새 부리 크기를 재 보고,
02:21
and the size of the turtle shells and so on, and so on.
42
141330
2000
그리고 거북 껍질도 재 보고, 그리고, 그리고 계속.
02:23
And 100 pages later.
43
143330
2000
그리고 100 페이지 뒤에 --
02:25
(Laughter)
44
145330
2000
(웃음)
02:27
And if there is a struggle for life,
45
147330
4000
만일 거의 모든 생명체가 다 죽을 정도로
02:31
such that nearly all of these creatures die --
46
151330
3000
치열한 생존 경쟁이 있다면 --
02:34
and this can't be doubted, I've read Malthus
47
154330
3000
당연히 그렇죠, 그리고 맬서스를 읽고 나서
02:37
and I've calculated how long it would take for elephants
48
157330
2000
코끼리가 제한 없이 번식한다면 전 세계를 뒤덮는데
02:39
to cover the whole world if they bred unrestricted, and so on and so on.
49
159330
3000
얼마나 걸릴지도 계산했고, 그리고, 그리고 계속.
02:42
And another 100 pages later.
50
162330
4000
그리고 다시 100 페이지 뒤에.
02:46
And if the very few that survive pass onto their offspring
51
166330
5000
만일 매우 소수만이 살아남아 그들의 후손으로 전해진다면,
02:51
whatever it was that helped them survive,
52
171330
3000
그들이 생존하게 도와준 것이 무엇이든지 간에,
02:54
then those offspring must be better adapted
53
174330
2000
그 후손들은 이 모든 것이 일어나는 환경에
02:56
to the circumstances in which all this happened
54
176330
2000
그들의 부모보다
02:58
than their parents were.
55
178330
3000
더 잘 적응할 것이 분명하다.
03:01
You see the idea?
56
181330
2000
이 아이디어가 이해되나요?
03:03
If, if, if, then.
57
183330
2000
만일, 만일, 만일, 그렇다면.
03:05
He had no concept of the idea of an algorithm,
58
185330
2000
그는 알고리즘이라는 개념을 몰랐습니다.
03:07
but that's what he described in that book,
59
187330
3000
그러나 그것이 바로 그가 책 속에서 설명한 것이고,
03:10
and this is what we now know as the evolutionary algorithm.
60
190330
3000
그리고 그것이 우리가 진화론이라고 알고 있는 것입니다.
03:13
The principle is you just need those three things --
61
193330
4000
이 원칙은 다음 세 가지만 있으면 됩니다.
03:17
variation, selection and heredity.
62
197330
3000
다양성, 선택 그리고 상속.
03:20
And as Dan Dennett puts it, if you have those,
63
200330
4000
그리고 댄 데니트가 적었듯이, 만일 이 세가지가 있다면
03:24
then you must get evolution.
64
204330
2000
당신은 분명히 진화할 것이다.
03:26
Or design out of chaos, without the aid of mind.
65
206330
5000
또는 지성의 도움 없이 혼란에서 설계가 생겨날 것이다.
03:31
There's one word I love on that slide.
66
211330
2000
저 슬라이드에 제가 좋아하는 단어가 있습니다.
03:33
What do you think my favorite word is?
67
213330
2000
제가 좋아하는 단어가 무엇인지 알겠나요?
03:35
Audience: Chaos.
68
215330
1000
청중: 혼란
03:36
SB: Chaos? No. What? Mind? No.
69
216330
3000
혼란? 아니요. 뭐요? 지성? 아니요.
03:39
Audience: Without.
70
219330
1000
청중: 없이
03:40
SB: No, not without.
71
220330
1000
아니요. 없이 아닙니다.
03:41
(Laughter)
72
221330
1000
(웃음)
03:42
You try them all in order: Mmm...?
73
222330
2000
단어 순서대로 시도해 보세요. 예?
03:44
Audience: Must.
74
224330
1000
청중: 분명히
03:45
SB: Must, at must. Must, must.
75
225330
4000
분명히, 분명히, 분명히
03:49
This is what makes it so amazing.
76
229330
2000
이것이 바로 놀라운 것입니다.
03:51
You don't need a designer,
77
231330
3000
당신은 설계자가 필요없어요.
03:54
or a plan, or foresight, or anything else.
78
234330
3000
또는 계획이나 예견이나 그 어떤 것도요.
03:57
If there's something that is copied with variation
79
237330
3000
만일 다양성 속에서 선택을 통해 복제되는 것이 있다면,
04:00
and it's selected, then you must get design appearing out of nowhere.
80
240330
4000
당신은 분명히 저절로 나타나는 설계를 갖게될 겁니다.
04:04
You can't stop it.
81
244330
2000
이건 멈출 수 없죠.
04:06
Must is my favorite word there.
82
246330
4000
분명히는 저기서 제가 가장 좋아하는 단어입니다.
04:11
Now, what's this to do with memes?
83
251330
2000
그렇다면 이것과 밈은 어떤 관련이 있을까요?
04:13
Well, the principle here applies to anything
84
253330
5000
바로, 여기 이 원칙은 다양성 속에서 선택을 통해 복제되는
04:18
that is copied with variation and selection.
85
258330
1000
어떤 것에도 적용될 수 있습니다.
04:19
We're so used to thinking in terms of biology,
86
259330
3000
우리는 생물학 용어로 생각하는데 너무 익숙해서,
04:22
we think about genes this way.
87
262330
2000
유전자도 이런 식으로 생각하죠.
04:24
Darwin didn't, of course; he didn't know about genes.
88
264330
3000
다윈은 그렇지 않았어요, 그는 유전자에 대해서 몰랐죠.
04:27
He talked mostly about animals and plants,
89
267330
2000
그는 대부분 동물이나 식물에 대해서 얘기했고,
04:29
but also about languages evolving and becoming extinct.
90
269330
3000
또한 진화와 멸종 같은 언어를 얘기했죠.
04:32
But the principle of Universal Darwinism
91
272330
2000
그러나 보편적 다윈주의 원칙은
04:34
is that any information that is varied and selected
92
274330
4000
다양하고 선택되는 어떤 정보도 설계를 만들어 낼
04:38
will produce design.
93
278330
2000
것이라는 것입니다.
04:40
And this is what Richard Dawkins was on about
94
280330
2000
그리고 이것이 리차드 도킨스가 1976년에 쓴
04:42
in his 1976 bestseller, "The Selfish Gene."
95
282330
3000
베스트 셀러, "이기적 유전자"에서 설명한 것이죠.
04:45
The information that is copied, he called the replicator.
96
285330
4000
복제되는 정보를 그는 복제자라고 불렀습니다.
04:49
It selfishly copies.
97
289330
2000
이기적으로 복제하죠.
04:51
Not meaning it kind of sits around inside cells going, "I want to get copied."
98
291330
4000
이것이 세포 내부에 "난 복제되고 싶어"라는 어떤 것이 있다는 의미는 아닙니다.
04:55
But that it will get copied if it can,
99
295330
2000
하지만 그것은 가능하면 복제되려고 하죠.
04:57
regardless of the consequences.
100
297330
2000
결과와는 상관 없습니다.
05:00
It doesn't care about the consequences because it can't,
101
300330
3000
결과에 대해서는 걱정하지 않아요, 왜냐하면 걱정할 수 없으니까요,
05:03
because it's just information being copied.
102
303330
2000
그것은 단지 복제되는 정보일 뿐입니다.
05:06
And he wanted to get away
103
306330
1000
도킨스는 모든 사람들이 항상
05:07
from everybody thinking all the time about genes,
104
307330
3000
유전자에 대해 생각하는 것에서 벗어나기를 원했죠.
05:10
and so he said, "Is there another replicator out there on the planet?"
105
310330
3000
그래서 그는 "지구상에 다른 복제자가 있을까"라고 말했습니다.
05:13
Ah, yes, there is.
106
313330
2000
아, 그래요, 있습니다.
05:15
Look around you -- here will do, in this room.
107
315330
3000
주위를 둘러보세요. 여기, 이 방안에도 있을거예요.
05:18
All around us, still clumsily drifting about
108
318330
3000
우리 주위에서, 문화의 원시 스프 안에서
05:21
in its primeval soup of culture, is another replicator.
109
321330
3000
여전히 어설프게 떠다니는 것이 바로 또 다른 복제자입니다.
05:24
Information that we copy from person to person, by imitation,
110
324330
5000
모방에 의해 우리가 사람 간에 복제하고 있는 정보,
05:29
by language, by talking, by telling stories,
111
329330
2000
언어에 의해, 대화에 의해, 이야기를 통해,
05:31
by wearing clothes, by doing things.
112
331330
3000
입는 옷을 통해, 무엇을 함으로써.
05:34
This is information copied with variation and selection.
113
334330
5000
이것이 다양성 속에서 선택에 의해 복제되는 정보입니다.
05:39
This is design process going on.
114
339330
3000
이것이 진행 중인 설계 과정입니다.
05:42
He wanted a name for the new replicator.
115
342330
3000
그는 이 새로운 복제자에 이름을 부여하고 싶었죠.
05:45
So, he took the Greek word "mimeme," which means that which is imitated.
116
345330
4000
그래서 그는 모방이라는 뜻의 그리스어 mimeme을 차용했습니다.
05:49
Remember that, that's the core definition:
117
349330
2000
기억하세요. 이것이 핵심 정의입니다.
05:52
that which is imitated.
118
352330
1000
모방하는 것 말이죠.
05:53
And abbreviated it to meme, just because it sounds good
119
353330
3000
그리고 그것을 meme 밈으로 줄여썼죠, 이게 더 발음하기 좋으니까요.
05:56
and made a good meme, an effective spreading meme.
120
356330
3000
그리고 좋은 밈, 효과적으로 퍼져나가는 밈도 만들었습니다.
05:59
So that's how the idea came about.
121
359330
3000
그래서 이렇게 이 아이디어가 탄생했습니다.
06:03
It's important to stick with that definition.
122
363330
3000
이 정의가 매우 중요합니다.
06:06
The whole science of memetics is much maligned,
123
366330
4000
전체 밈학문은 심하게 헐뜯어지고,
06:10
much misunderstood, much feared.
124
370330
3000
크게 잘못 이해되고, 커다란 두려움의 대상이 되고 있습니다.
06:13
But a lot of these problems can be avoided
125
373330
3000
하지만 이러한 많은 문제들은
06:16
by remembering the definition.
126
376330
2000
그 정의를 기억함으로써 피할 수 있습니다.
06:18
A meme is not equivalent to an idea.
127
378330
2000
밈은 아이디어와 동등하지 않습니다.
06:20
It's not an idea. It's not equivalent to anything else, really.
128
380330
2000
아이디어가 아니고, 다른 어떤 것과 동등하지 않습니다. 정말로요.
06:22
Stick with the definition.
129
382330
2000
그 정의를 놓치지 마세요.
06:24
It's that which is imitated,
130
384330
2000
그것은 바로 모방하는 것입니다.
06:26
or information which is copied from person to person.
131
386330
3000
또는 사람간에 복제되는 정보입니다.
06:30
So, let's see some memes.
132
390330
1000
그럼, 몇가지 밈을 살펴볼까요.
06:31
Well, you sir, you've got those glasses hung around your neck
133
391330
3000
자, 당신이요, 당신은 독특한 매력적인 방법으로
06:34
in that particularly fetching way.
134
394330
2000
목에 안경을 걸고 있네요.
06:36
I wonder whether you invented that idea for yourself,
135
396330
2000
혹시 그 아이디어를 스스로 생각해냈나요?
06:38
or copied it from someone else?
136
398330
2000
아니면 다른 사람을 따라한 건가요?
06:40
If you copied it from someone else, it's a meme.
137
400330
3000
만일 당신이 다른 사람으로부터 따라한 것이면 그것이 밈입니다.
06:43
And what about, oh, I can't see any interesting memes here.
138
403330
3000
그리고 또, 어, 여기서 다른 흥미있는 밈을 찾지 못하겠네요.
06:46
All right everyone, who's got some interesting memes for me?
139
406330
3000
자 여러분, 누가 저에게 흥미있는 밈을 보여주지 않겠어요?
06:49
Oh, well, your earrings,
140
409330
2000
오, 그래요. 당신의 귀걸이.
06:51
I don't suppose you invented the idea of earrings.
141
411330
2000
아마도 당신이 귀걸이 아이디어를 발명하진 않았겠죠.
06:53
You probably went out and bought them.
142
413330
2000
당신은 아마 밖에서 그것을 샀을거예요.
06:55
There are plenty more in the shops.
143
415330
2000
가게에는 훨씬 많은 귀걸이가 있습니다.
06:57
That's something that's passed on from person to person.
144
417330
2000
그것이 바로 사람간에 옮겨다니는 무엇입니다.
06:59
All the stories that we're telling -- well, of course,
145
419330
3000
TED는 거대한 밈 모임이고, 우리가 얘기하고 있는
07:02
TED is a great meme-fest, masses of memes.
146
422330
4000
모든 이야기들은 밈 덩어리들입니다.
07:06
The way to think about memes, though,
147
426330
2000
밈에 대해 생각해 보려면 역시 밈이 왜
07:08
is to think, why do they spread?
148
428330
2000
퍼져나가는지 생각해 보아야 합니다.
07:10
They're selfish information, they will get copied, if they can.
149
430330
4000
밈은 이기적인 정보입니다, 밈은 가능하다면 복제되려고 하죠.
07:14
But some of them will be copied because they're good,
150
434330
3000
그러나 그것들 중 일부는 그것이 좋고, 진실하고,
07:17
or true, or useful, or beautiful.
151
437330
2000
유용하고, 아름다워서 복제될 것입니다.
07:19
Some of them will be copied even though they're not.
152
439330
2000
일부는 그렇지 않더라도 복제될 것입니다.
07:21
Some, it's quite hard to tell why.
153
441330
2000
어떤 것은 왜 그런지 말하기가 정말 힘들죠.
07:24
There's one particular curious meme which I rather enjoy.
154
444330
3000
제가 즐겨 사용하는 특별하고 호기심을 끄는 밈이 있습니다.
07:27
And I'm glad to say, as I expected, I found it when I came here,
155
447330
3000
제가 기대했던 대로 이곳에 와서도 발견할 수 있었죠.
07:30
and I'm sure all of you found it, too.
156
450330
2000
그리고 아마 여러분도 확실히 보았을 거예요.
07:32
You go to your nice, posh, international hotel somewhere,
157
452330
3000
여러분은 어딘가의 멋지고 호화스런 국제 호텔에 도착합니다.
07:36
and you come in and you put down your clothes
158
456330
2000
안으로 들어가 옷을 벗어놓습니다.
07:38
and you go to the bathroom, and what do you see?
159
458330
3000
그리고 욕실로 들어가면, 무엇을 볼 수 있죠?
07:41
Audience: Bathroom soap.
160
461330
1000
청중: 화장실 비누.
07:42
SB: Pardon?
161
462330
1000
뭐라구요?
07:43
Audience: Soap.
162
463330
1000
비누요.
07:44
SB: Soap, yeah. What else do you see?
163
464330
2000
아, 비누. 또 다른 건요?
07:46
Audience: (Inaudible)
164
466330
1000
청중: (잘 안들림)
07:47
SB: Mmm mmm.
165
467330
1000
음...
07:48
Audience: Sink, toilet!
166
468330
1000
청중: 세면대, 변기!
07:49
SB: Sink, toilet, yes, these are all memes, they're all memes,
167
469330
2000
세면대, 변기, 그렇죠. 그것들은 모두 밈이예요.
07:51
but they're sort of useful ones, and then there's this one.
168
471330
3000
하지만 그것들은 유용한 것들이구요. 그리고 이런 것도 있어요.
07:54
(Laughter)
169
474330
3000
(웃음)
07:58
What is this one doing?
170
478330
2000
이게 무엇을 위한 거죠?
08:00
(Laughter)
171
480330
1000
(웃음)
08:01
This has spread all over the world.
172
481330
2000
이건 전세계에 퍼져있어요.
08:03
It's not surprising that you all found it
173
483330
2000
여러분이 여기서 욕실에 들어갔을 때
08:05
when you arrived in your bathrooms here.
174
485330
2000
이것을 발견하더라도 이상할 것이 없습니다.
08:07
But I took this photograph in a toilet at the back of a tent
175
487330
5000
하지만 이 사진은 제가 아쌈 정글에 있는 환경 캠프
08:12
in the eco-camp in the jungle in Assam.
176
492330
2000
텐트 뒤 화장실에서 찍었어요.
08:14
(Laughter)
177
494330
1000
(웃음)
08:16
Who folded that thing up there, and why?
178
496330
3000
누가 저렇게 접어 올렸을까요, 그리고 왜?
08:19
(Laughter)
179
499330
1000
(웃음)
08:20
Some people get carried away.
180
500330
2000
어떤 사람들은 거의 무아지경이 되었네요.
08:22
(Laughter)
181
502330
3000
(웃음)
08:26
Other people are just lazy and make mistakes.
182
506330
3000
다른 사람들은 좀 게으르거나 실수를 했군요.
08:29
Some hotels exploit the opportunity to put even more memes
183
509330
3000
어떤 호텔들은 작은 스티커로 더 많은 밈을 추가하는
08:32
with a little sticker.
184
512330
2000
기회를 개발합니다.
08:34
(Laughter)
185
514330
1000
(웃음)
08:35
What is this all about?
186
515330
2000
이것들은 모두 무엇을 위한 걸까요?
08:37
I suppose it's there to tell you that somebody's
187
517330
2000
제 생각엔 누군가 그 장소를 청소했다는 것을 여러분에게
08:39
cleaned the place, and it's all lovely.
188
519330
2000
말해주기 위한 것 같고, 그건 정말 사랑스럽죠.
08:41
And you know, actually, all it tells you is that another person
189
521330
3000
그리고 사실 이 모든 것은 또 다른 사람이 균을 이곳 저곳 옮겼을
08:44
has potentially spread germs from place to place.
190
524330
3000
가능성이 있다는 것을 말해주기도 하죠.
08:47
(Laughter)
191
527330
1000
(웃음)
08:48
So, think of it this way.
192
528330
2000
그러니 이렇게 한번 생각해보세요.
08:50
Imagine a world full of brains
193
530330
2000
뇌로 가득 찬, 그리고 찾을 수 있는 집보다
08:52
and far more memes than can possibly find homes.
194
532330
3000
훨씬 많은 밈들로 가득 찬 세상를 상상해보세요.
08:55
The memes are all trying to get copied --
195
535330
3000
밈들은 모두 복제되려고 노력 중이고,
08:58
trying, in inverted commas -- i.e.,
196
538330
3000
노력 중이란, 따로 띄어서, 예를 들어
09:01
that's the shorthand for, if they can get copied, they will.
197
541330
3000
밈이 복제될 수 있다면 복제될 것이라는 것을 함축적으로 의미합니다.
09:04
They're using you and me as their propagating, copying machinery,
198
544330
6000
그것은 당신과 나를 전파를 위한 복제 기계로 사용하고 있고,
09:10
and we are the meme machines.
199
550330
3000
우리는 밈 기계입니다.
09:13
Now, why is this important?
200
553330
2000
이제, 왜 이것이 중요할까요?
09:15
Why is this useful, or what does it tell us?
201
555330
2000
이것이 왜 유용하며 우리에게 무엇을 말해주나요?
09:17
It gives us a completely new view of human origins
202
557330
4000
이것은 우리에게 인류의 기원과 인류에게 주는 의미에 대한
09:21
and what it means to be human,
203
561330
1000
완전히 새로운 시각을 알려줍니다.
09:22
all conventional theories of cultural evolution,
204
562330
4000
인류 기원에 대한 그리고 우리를 다른 종과 이렇게 다르게
09:26
of the origin of humans,
205
566330
2000
만든 것이 무엇인지에 대한
09:28
and what makes us so different from other species.
206
568330
4000
문화적 진화에 대한 모든 전통적인 이론 말입니다.
09:32
All other theories explaining the big brain, and language, and tool use
207
572330
2000
우리를 독특하게 만드는 큰 뇌, 언어, 도구 사용에 대해
09:34
and all these things that make us unique,
208
574330
2000
설명하는 다른 모든 이론은
09:36
are based upon genes.
209
576330
3000
유전자에 근거하고 있습니다.
09:39
Language must have been useful for the genes.
210
579330
3000
언어는 유전자에게 유용했음이 틀림없습니다.
09:42
Tool use must have enhanced our survival, mating and so on.
211
582330
3000
도구 사용은 우리의 생존과 짝짓기 등을 확장시켜왔음이 분명합니다.
09:45
It always comes back, as Richard Dawkins complained
212
585330
3000
이것은 항상, 리차드 도킨스가 아주 오래전에
09:48
all that long time ago, it always comes back to genes.
213
588330
3000
푸념했듯이, 항상 유전자로 귀착됩니다.
09:51
The point of memetics is to say, "Oh no, it doesn't."
214
591330
4000
밈학문의 논점은 "오, 그게 아니예요."라고 말하는 것이죠.
09:55
There are two replicators now on this planet.
215
595330
3000
지구 상에는 이제 두개의 복제자가 있습니다.
09:58
From the moment that our ancestors,
216
598330
3000
약 이백 오십만 년 전 쯤에,
10:01
perhaps two and a half million years ago or so,
217
601330
2000
우리 조상들이 모방을 하기 시작한 때로부터,
10:03
began imitating, there was a new copying process.
218
603330
4000
새로운 복제 과정이 생겨났습니다.
10:07
Copying with variation and selection.
219
607330
2000
다양성 속에서 선택에 의해 복제되는 것이죠.
10:09
A new replicator was let loose, and it could never be --
220
609330
5000
새로운 복제자가 풀린 후, 바로 그 시작부터 결코 그럴 수 없습니다.
10:14
right from the start -- it could never be
221
614330
1000
그럴 수 없는 것이
10:15
that human beings who let loose this new creature,
222
615330
5000
이 새로운 창조물을 풀어놓은 인류는
10:20
could just copy the useful, beautiful, true things,
223
620330
3000
유용하고 아름답고 진실된 것만 복제하고
10:23
and not copy the other things.
224
623330
2000
다른 것들은 복제하지 않을 수 없습니다.
10:25
While their brains were having an advantage from being able to copy --
225
625330
3000
불을 붙이고, 불을 유지하고, 새로운 사냥 기술을
10:28
lighting fires, keeping fires going, new techniques of hunting,
226
628330
5000
익히는 이러한 종류의 것들은 뇌가 복제하기에
10:33
these kinds of things --
227
633330
2000
이점을 가지고 있는 반면
10:35
inevitably they were also copying putting feathers in their hair,
228
635330
3000
머리에 깃털을 꽂는 행위나 이상한 옷을 입거나
10:38
or wearing strange clothes, or painting their faces,
229
638330
2000
얼굴에 칠을 하거나 또는 뭐가 됐든지
10:40
or whatever.
230
640330
1000
어쩔 수 없이 복제합니다.
10:41
So, you get an arms race between the genes
231
641330
4000
그래서 이런 모든 것을 복제하는데 시간을 낭비하지 않도록
10:45
which are trying to get the humans to have small economical brains
232
645330
4000
작고 경제적인 뇌를 갖게 하려는 유전자와,
10:49
and not waste their time copying all this stuff,
233
649330
2000
사람들이 만들고 복제하는 소리들,
10:51
and the memes themselves, like the sounds that people made and copied --
234
651330
4000
다시 말해 언어가 되죠, 이걸 선호해서
10:56
in other words, what turned out to be language --
235
656330
2000
뇌를 점점 더 커지게 하기 위해 애쓰는 밈 사이에
10:58
competing to get the brains to get bigger and bigger.
236
658330
3000
무한 경쟁이 일어나게 됩니다.
11:01
So, the big brain, on this theory, is driven by the memes.
237
661330
4000
그래서 이 이론에 따르면 큰 뇌는 밈에 의해 만들어진 것이죠.
11:05
This is why, in "The Meme Machine," I called it memetic drive.
238
665330
4000
이것이 제가 "밈 기계"에서 그걸 밈의 동인이라고 부른 이유입니다.
11:09
As the memes evolve, as they inevitably must,
239
669330
3000
밈이 진화하면서, 분명히 그럴 수 밖에 없는데,
11:12
they drive a bigger brain that is better at copying the memes
240
672330
4000
밈은 자기 자신을 복제하는데 더 유리한
11:16
that are doing the driving.
241
676330
2000
더 큰 뇌를 추구합니다.
11:18
This is why we've ended up with such peculiar brains,
242
678330
4000
이것이 우리가 결국 이런 기묘한 뇌를 갖게 되고,
11:22
that we like religion, and music, and art.
243
682330
3000
종교, 음악, 예술을 좋아하는 이유입니다.
11:25
Language is a parasite that we've adapted to,
244
685330
3000
이런 입장에서 바라보면, 언어는 우리가
11:28
not something that was there originally for our genes,
245
688330
2000
적응한 기생충일 뿐, 본래 우리 유전자를 위한
11:30
on this view.
246
690330
2000
그런게 아닙니다.
11:32
And like most parasites, it can begin dangerous,
247
692330
3000
그리고 처음엔 위험을 끼칠 수 있지만 같이 진화하고
11:35
but then it coevolves and adapts,
248
695330
3000
적응하는 대부분의 기생충과 같이
11:38
and we end up with a symbiotic relationship
249
698330
2000
우리는 이 새로운 기생충과
11:40
with this new parasite.
250
700330
1000
공생 관계가 되었죠.
11:41
And so, from our perspective,
251
701330
2000
그리고 우리 관점에서는
11:43
we don't realize that that's how it began.
252
703330
3000
이것이 어떻게 시작됐는지 알 수 없습니다.
11:46
So, this is a view of what humans are.
253
706330
3000
그래서 이것이 인간이 무엇인지에 대한 시각입니다.
11:49
All other species on this planet are gene machines only,
254
709330
3000
지구상의 다른 모든 종은 단지 유전자 기계이고,
11:52
they don't imitate at all well, hardly at all.
255
712330
3000
그것들은 거의 모방을 하지 못합니다.
11:55
We alone are gene machines and meme machines as well.
256
715330
5000
우리만이 유전자 기계이면서 밈 기계이죠.
12:00
The memes took a gene machine and turned it into a meme machine.
257
720330
4000
밈이 유전자 기계를 밈 기계로 변화시켰습니다.
12:04
But that's not all.
258
724330
2000
그러나 이게 전부가 아니예요.
12:06
We have a new kind of memes now.
259
726330
3000
우리는 이제 새로운 종류의 밈을 갖게 됩니다.
12:09
I've been wondering for a long time,
260
729330
1000
밈에 대해서 생각을 많이 하기 시작한 후
12:10
since I've been thinking about memes a lot,
261
730330
2000
오랫동안 전 궁금해 왔습니다.
12:12
is there a difference between the memes that we copy --
262
732330
2000
우리가 서로 말하는 단어들과
12:14
the words we speak to each other,
263
734330
2000
우리의 행위들, 인간적인 우리가 복제하는 밈과
12:16
the gestures we copy, the human things --
264
736330
2000
우리 주위의 모든 기술적인 것 사이에
12:18
and all these technological things around us?
265
738330
2000
어떤 차이가 있을까요?
12:20
I have always, until now, called them all memes,
266
740330
4000
저는 지금까지 이 모든 것들을 항상 밈이라고 불렀지만,
12:24
but I do honestly think now
267
744330
3000
솔직히 지금은 기술적인 밈에게는
12:27
we need a new word for technological memes.
268
747330
3000
다른 이름이 필요하다고 생각합니다.
12:30
Let's call them techno-memes or temes.
269
750330
3000
그것들을 기술적 밈 또는 팀이라고 불러보죠.
12:33
Because the processes are getting different.
270
753330
3000
그 과정이 다르기 때문인데요.
12:37
We began, perhaps 5,000 years ago, with writing.
271
757330
3000
우리는 5,000년 전에 쓰기를 시작했습니다.
12:40
We put the storage of memes out there on a clay tablet,
272
760330
7000
우리는 점토판 위에 밈의 저장소를 만들었는데,
12:48
but in order to get true temes and true teme machines,
273
768330
2000
진정한 팀과 팀 기계가 되기 위해서는
12:50
you need to get the variation, the selection and the copying,
274
770330
3000
모든 것이 인간 밖에서 이루어지는
12:53
all done outside of humans.
275
773330
2000
다양성, 선택, 복제가 필요합니다.
12:55
And we're getting there.
276
775330
2000
우리는 그곳으로 가고 있습니다.
12:57
We're at this extraordinary point where we're nearly there,
277
777330
2000
우리는 이런 기계가 존재하는 곳에 거의 도달한,
12:59
that there are machines like that.
278
779330
2000
특이한 시점에 와 있습니다.
13:01
And indeed, in the short time I've already been at TED,
279
781330
2000
그리고 참으로, 제가 짧은 시간 동안 TED에 참여해보니,
13:03
I see we're even closer than I thought we were before.
280
783330
2000
제 생각보다 훨씬 가까워졌다는 걸 알게 됐습니다.
13:05
So actually, now the temes are forcing our brains
281
785330
6000
그래서 사실상, 이제 팀은 우리 뇌가 거의 팀 기계처럼
13:11
to become more like teme machines.
282
791330
2000
되도록 몰아가고 있습니다.
13:13
Our children are growing up very quickly learning to read,
283
793330
3000
우리 아이들은 자라면서 매우 빨리, 읽는 것과
13:16
learning to use machinery.
284
796330
2000
기계 사용법을 배우게 됩니다.
13:18
We're going to have all kinds of implants,
285
798330
1000
우리를 항상 강제로 깨어 있게 만들
13:19
drugs that force us to stay awake all the time.
286
799330
3000
온갖 이식물과 약물이 생길 것입니다.
13:22
We'll think we're choosing these things,
287
802330
2000
우리는 우리가 이것들을 선택한다고 생각하지만,
13:24
but the temes are making us do it.
288
804330
3000
팀이 우리가 그렇게 하도록 만드는 것입니다.
13:28
So, we're at this cusp now
289
808330
1000
그래서 우리는 이제
13:29
of having a third replicator on our planet.
290
809330
4000
지구상에서 세번째 복제자를 갖는 바로 그 시작점에 있는 것입니다.
13:34
Now, what about what else is going on out there in the universe?
291
814330
5000
그렇다면 저 우주 밖 어딘가에서는 무엇이 일어나고 있을까요?
13:39
Is there anyone else out there?
292
819330
2000
누군가가 저곳에 있을까요?
13:41
People have been asking this question for a long time.
293
821330
3000
사람들은 오랫동안 이 질문을 해오고 있습니다.
13:44
We've been asking it here at TED already.
294
824330
2000
이곳 TED에서도 우리는 이미 이 질문을 해왔죠.
13:46
In 1961, Frank Drake made his famous equation,
295
826330
4000
1961년 프랭크 드레이크는 유명한 방정식을 만들었지만
13:50
but I think he concentrated on the wrong things.
296
830330
2000
저는 그가 잘못된 것들에 집중하고 있었다고 생각합니다.
13:52
It's been very productive, that equation.
297
832330
2000
이 공식은 매우 생산적이였습니다.
13:54
He wanted to estimate N,
298
834330
2000
그는 우리 은하계에 존재하는,
13:56
the number of communicative civilizations out there in our galaxy,
299
836330
4000
의사소통할 수 있는 문명의 수 N을 추산하길 원했습니다.
14:00
and he included in there the rate of star formation,
300
840330
4000
그리고 그는 이 공식에 별의 구성비, 행성의 비율을
14:04
the rate of planets, but crucially, intelligence.
301
844330
4000
포함시켰고, 결정적으로 지능을 포함했습니다.
14:08
I think that's the wrong way to think about it.
302
848330
4000
저는 이것이 잘못된 생각이라고 생각합니다.
14:12
Intelligence appears all over the place, in all kinds of guises.
303
852330
3000
지능은 모든 곳에서 어떤 모습으로든 나타납니다.
14:15
Human intelligence is only one kind of a thing.
304
855330
2000
인간 지능은 단지 한 종류일 뿐이죠.
14:17
But what's really important is the replicators you have
305
857330
3000
그러나 정말 중요한 것은 당신이 가진 복제자와
14:20
and the levels of replicators, one feeding on the one before.
306
860330
4000
복제자의 수준, 그리고 그전에 그 복제자를 키운 복제자입니다.
14:24
So, I would suggest that we don't think intelligence,
307
864330
5000
그래서 저는 우리가 지능이 아니라 복제자를 생각해야 한다고
14:29
we think replicators.
308
869330
2000
제안합니다.
14:31
And on that basis, I've suggested a different kind of equation.
309
871330
3000
그리고 이를 근거로 저는 다른 공식을 제안했습니다.
14:34
A very simple equation.
310
874330
2000
매우 단순한 공식이죠.
14:36
N, the same thing,
311
876330
2000
우리의 은하계에서 기대할 수 있는
14:38
the number of communicative civilizations out there
312
878330
3000
의사소통이 가능한 문명의 수
14:41
[that] we might expect in our galaxy.
313
881330
2000
동일한 그 N입니다.
14:43
Just start with the number of planets there are in our galaxy.
314
883330
4000
우선 우리 은하계에 있는 행성의 수로 시작합니다.
14:47
The fraction of those which get a first replicator.
315
887330
4000
첫번째 복제자를 가지게 되는 작은 경우
14:51
The fraction of those that get the second replicator.
316
891330
4000
두번째 복제자를 가지게 되는 작은 경우
14:55
The fraction of those that get the third replicator.
317
895330
2000
세번째 복제자를 가지게 되는 작은 경우
14:58
Because it's only the third replicator that's going to reach out --
318
898330
3000
이것은 오직 세번째 복제자가 돼야 비로소
15:01
sending information, sending probes, getting out there,
319
901330
3000
정보를 보내고, 탐사선을 보내고, 직접 가서,
15:04
and communicating with anywhere else.
320
904330
2000
다른 곳과 의사소통을 하기 때문입니다.
15:06
OK, so if we take that equation,
321
906330
3000
좋아요, 우리가 이 공식을 받아들인다면
15:09
why haven't we heard from anybody out there?
322
909330
5000
저곳으로부터 왜 아무 것도 듣지 못했을까요?
15:14
Because every step is dangerous.
323
914330
4000
그것은 모든 단계가 위험하기 때문입니다.
15:18
Getting a new replicator is dangerous.
324
918330
3000
새로운 복제자를 갖는 것은 위험합니다.
15:21
You can pull through, we have pulled through,
325
921330
2000
우리는 애써 나아갈 수 있고, 나아가 왔지만
15:23
but it's dangerous.
326
923330
2000
그것은 위험합니다.
15:25
Take the first step, as soon as life appeared on this earth.
327
925330
3000
지구상에 생명체가 나타나자마자 첫번째 단계가 시작됐습니다.
15:28
We may take the Gaian view.
328
928330
2000
가이아 이론을 생각해 볼 수도 있습니다.
15:30
I loved Peter Ward's talk yesterday -- it's not Gaian all the time.
329
930330
3000
전 피터 워드의 어제 발표가 좋았는데, 모두 가이아 얘기는 아니죠.
15:33
Actually, life forms produce things that kill themselves.
330
933330
3000
사실, 생명체들은 그 자신을 죽이는 것을 만들어냅니다.
15:36
Well, we did pull through on this planet.
331
936330
3000
자, 우리는 지구상에 애써 나타났죠.
15:39
But then, a long time later, billions of years later,
332
939330
2000
그러나 오랜 후에, 10억 년 후에,
15:41
we got the second replicator, the memes.
333
941330
3000
우리는 두번째 복제자인 밈을 갖게 됐습니다.
15:44
That was dangerous, all right.
334
944330
2000
그렇죠. 그건 정말 위험했습니다.
15:46
Think of the big brain.
335
946330
2000
큰 뇌에 대해서 생각해 보세요.
15:48
How many mothers do we have here?
336
948330
3000
여기 엄마가 몇 명이나 있나요?
15:51
You know all about big brains.
337
951330
2000
당신들은 큰 뇌에 대해서 잘 알고 있습니다.
15:53
They are dangerous to give birth to,
338
953330
2000
큰 뇌는 태어날 때 위험합니다.
15:55
are agonizing to give birth to.
339
955330
2000
태어날 때 정말 악전고투하죠.
15:57
(Laughter)
340
957330
1000
(웃음)
15:59
My cat gave birth to four kittens, purring all the time.
341
959330
2000
제 고양이는 그르렁거리며 네마리를 낳았습니다.
16:01
Ah, mm -- slightly different.
342
961330
2000
아, 음, 약간 다르죠.
16:03
(Laughter)
343
963330
2000
(웃음)
16:05
But not only is it painful, it kills lots of babies,
344
965330
3000
고통스러울 뿐만 아니라 많은 아이가 죽고
16:08
it kills lots of mothers,
345
968330
2000
많은 산모가 죽는
16:10
and it's very expensive to produce.
346
970330
2000
매우 값비싼 탄생입니다.
16:12
The genes are forced into producing all this myelin,
347
972330
2000
유전자는 모든 미엘린을 생산하도록 강요받고
16:14
all the fat to myelinate the brain.
348
974330
2000
모든 지방이 뇌를 미엘린화하도록 합니다.
16:16
Do you know, sitting here,
349
976330
2000
여기 계신 여러분은
16:18
your brain is using about 20 percent of your body's energy output
350
978330
4000
몸무게 2퍼센트인 뇌가 전체 몸 에너지의 20퍼센트를
16:22
for two percent of your body weight?
351
982330
2000
사용하고 있다는 사실을 알고 있나요?
16:24
It's a really expensive organ to run.
352
984330
2000
이건 정말 유지비가 비싼 장기입니다.
16:26
Why? Because it's producing the memes.
353
986330
2000
왜죠? 뇌가 밈을 만들어내기 때문입니다.
16:28
Now, it could have killed us off. It could have killed us off,
354
988330
4000
자, 그것은 우리를 멸종시킬 수도 있었습니다. 멸종이요.
16:32
and maybe it nearly did, but you see, we don't know.
355
992330
2000
그리고 거의 그랬을 수도 있지만, 알 수 없는 일이죠.
16:34
But maybe it nearly did.
356
994330
2000
그러나 아마 거의 그랬겠죠.
16:36
Has it been tried before?
357
996330
1000
이전에도 이런 시도가 있었을까요?
16:37
What about all those other species?
358
997330
2000
다른 모든 종들은 어땠을까요?
16:39
Louise Leakey talked yesterday
359
999330
2000
루이스 리키는 어제, 어떻게 우리만
16:41
about how we're the only one in this branch left.
360
1001330
3000
이쪽 가지에 남게됐는지 얘기했습니다.
16:44
What happened to the others?
361
1004330
2000
다른 이들에겐 무슨 일이 일어났나요?
16:46
Could it be that this experiment in imitation,
362
1006330
2000
이것은 이 모방의 실험,
16:48
this experiment in a second replicator,
363
1008330
2000
이 두번째 복제자의 실험이
16:50
is dangerous enough to kill people off?
364
1010330
4000
인류를 멸망시킬만큼 위험하다는 의미가 될 수 있을까요?
16:54
Well, we did pull through, and we adapted.
365
1014330
2000
자, 우리는 견뎌내 왔고 적응했습니다.
16:56
But now, we're hitting, as I've just described,
366
1016330
3000
그러나 이제, 제가 이미 설명한 것처럼,
16:59
we're hitting the third replicator point.
367
1019330
2000
세번째 복제자 등장 시점이 가까와 졌습니다.
17:01
And this is even more dangerous --
368
1021330
3000
그리고 이것은 훨씬 더 위험합니다.
17:04
well, it's dangerous again.
369
1024330
2000
예, 다시 위험에 처한 것입니다.
17:06
Why? Because the temes are selfish replicators
370
1026330
4000
왜죠? 그것은 팀이 이기적인 복제자이고 우리나 우주
17:10
and they don't care about us, or our planet, or anything else.
371
1030330
3000
또는 그 어떤 것에 대해서도 걱정하지 않기 때문입니다.
17:13
They're just information, why would they?
372
1033330
3000
그것은 단지 정보입니다. 왜 그럴까요?
17:17
They are using us to suck up the planet's resources
373
1037330
2000
그것은 더 많은 컴퓨터를 만들고, 이곳 TED에서 듣는
17:19
to produce more computers,
374
1039330
2000
모든 놀라운 것들을 더 많이 만들어내기 위해,
17:21
and more of all these amazing things we're hearing about here at TED.
375
1041330
3000
지구의 자원을 빨아들이도록 우리를 이용하고 있습니다.
17:24
Don't think, "Oh, we created the Internet for our own benefit."
376
1044330
4000
"오, 우리 이익을 위해 우리가 인터넷을 창조했어."라고 생각하지 마세요.
17:28
That's how it seems to us.
377
1048330
2000
우리 눈에 그렇게 보일 뿐입니다.
17:30
Think, temes spreading because they must.
378
1050330
4000
팀이 퍼져나가야 하기 때문에, 그렇게 된 거라고 생각하세요.
17:34
We are the old machines.
379
1054330
2000
우리는 오래된 기계입니다.
17:36
Now, are we going to pull through?
380
1056330
2000
이제, 우리가 견뎌낼 수 있을까요?
17:38
What's going to happen?
381
1058330
2000
어떤 일이 일어날까요?
17:40
What does it mean to pull through?
382
1060330
2000
견뎌낸다는 것이 무엇을 의미할까요?
17:42
Well, there are kind of two ways of pulling through.
383
1062330
2000
자, 견뎌내는 것에는 두가지 종류가 있습니다.
17:45
One that is obviously happening all around us now,
384
1065330
2000
지금 우리 주위에서 명백하게 일어나고 있는
17:47
is that the temes turn us into teme machines,
385
1067330
4000
첫번 째는, 이런 이식물과 약물, 기술에
17:51
with these implants, with the drugs,
386
1071330
2000
융합되게 함으로써, 팀이 우리를
17:53
with us merging with the technology.
387
1073330
3000
팀 기계로 전환시키고 있다는 것입니다.
17:56
And why would they do that?
388
1076330
2000
왜 팀이 이렇게 할까요?
17:58
Because we are self-replicating.
389
1078330
2000
우리가 자기 복제자이기 때문입니다.
18:00
We have babies.
390
1080330
2000
우리는 아이들을 낳습니다.
18:02
We make new ones, and so it's convenient to piggyback on us,
391
1082330
3000
우리는 새로운 자손을 만들고, 그래서 아직 지구 상에
18:05
because we're not yet at the stage on this planet
392
1085330
4000
확실한 대안이 있는 단계에 다다르지 못했기 때문에
18:09
where the other option is viable.
393
1089330
2000
우리 등에 업혀가는 것이 편리합니다.
18:11
Although it's closer, I heard this morning,
394
1091330
2000
오늘 아침 들어보니, 이 순간이 가까워졌음에도 불구하고
18:13
it's closer than I thought it was.
395
1093330
2000
제가 생각했던 것보다 더 가까워졌습니다.
18:15
Where the teme machines themselves will replicate themselves.
396
1095330
3000
바로 팀 기계 자신이 스스로 복제하게 될 순간이 말입니다.
18:18
That way, it wouldn't matter if the planet's climate
397
1098330
4000
그렇게 되면, 팀은 지구의 기후가 완전히 불안정해지고
18:22
was utterly destabilized,
398
1102330
2000
인간이 더 이상 이곳에 살 수 없을지라도
18:24
and it was no longer possible for humans to live here.
399
1104330
2000
상관이 없을 것입니다.
18:26
Because those teme machines, they wouldn't need --
400
1106330
2000
왜냐하면 이런 팀 머신은 흐늘흐늘하고, 축축하고,
18:28
they're not squishy, wet, oxygen-breathing,
401
1108330
2000
산소를 호흡하고, 온기를 필요로 하는
18:30
warmth-requiring creatures.
402
1110330
3000
생명체가 아니기 때문입니다.
18:33
They could carry on without us.
403
1113330
2000
우리 없이도 계속될 수 있을테니까요.
18:35
So, those are the two possibilities.
404
1115330
3000
자, 이렇게 두가지 가능성이 있습니다.
18:38
The second, I don't think we're that close.
405
1118330
4000
두번째는, 우리가 그렇게 가까이 왔다고는 생각하지 않습니다.
18:42
It's coming, but we're not there yet.
406
1122330
2000
다가오고는 있으나 아직 그곳에 다다르지는 않았어요.
18:44
The first, it's coming too.
407
1124330
2000
첫번째는, 또한 다가오고 있습니다.
18:46
But the damage that is already being done
408
1126330
3000
그러나 지구에 이미 가해진 피해는
18:49
to the planet is showing us how dangerous the third point is,
409
1129330
5000
세번째 지점이 얼마나 위험한지를 보여주고 있습니다.
18:54
that third danger point, getting a third replicator.
410
1134330
3000
세번째 지점, 즉 세번째 복제자를 갖는 것 말이죠.
18:58
And will we get through this third danger point,
411
1138330
2000
그리고 우리가 두번째와 첫번째를 통과한 것처럼
19:00
like we got through the second and like we got through the first?
412
1140330
3000
이 세번째 위험한 지점을 통과하게 될까요?
19:04
Maybe we will, maybe we won't.
413
1144330
2000
그럴 수도 있고, 아닐 수도 있습니다.
19:06
I have no idea.
414
1146330
3000
저로선 알 수 없습니다.
19:13
(Applause)
415
1153330
10000
(박수)
19:24
Chris Anderson: That was an incredible talk.
416
1164330
2000
크리스 앤더슨: 굉장한 이야기였습니다.
19:26
SB: Thank you. I scared myself.
417
1166330
2000
감사합니다. 제 자신이 다 무섭군요.
19:28
CA: (Laughter)
418
1168330
1000
크리스 앤더슨: 웃음
New videos
이 웹사이트 정보
이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.