Dangerous memes | Dan Dennett

505,085 views ・ 2007-07-03

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: Dong Inn Na 검토: Nakho Kim
00:25
How many Creationists do we have in the room?
0
25000
3000
여기 계신 분들 중 창조론자가 있나요?
00:28
Probably none. I think we're all Darwinians.
1
28000
3000
없는 것 같군요. 우리는 모두 진화론자인 모양입니다.
00:31
And yet many Darwinians are anxious, a little uneasy --
2
31000
7000
그렇다 해도, 진화론자 다수는 좀 불안해 하죠.
00:38
would like to see some limits on just how far the Darwinism goes.
3
38000
5000
진화론의 적용범위에 어떤 한계를 두고 싶어합니다.
00:43
It's all right.
4
43000
2000
그래도 괜찮습니다.
00:45
You know spiderwebs? Sure, they are products of evolution.
5
45000
4000
거미줄 아시죠? 예, 그것은 진화의 산물입니다.
00:49
The World Wide Web? Not so sure.
6
49000
4000
월드 와이드 웹은 어떨까요? 그렇다고 말하기 어렵죠.
00:53
Beaver dams, yes. Hoover Dam, no.
7
53000
2000
비버가 만드는 댐은 맞고, 후버 댐은 그렇지 않습니다.
00:55
What do they think it is that prevents the products of human ingenuity
8
55000
6000
그들은 어떤 점 때문에 인간의 독창적인 창조물들이
01:01
from being themselves, fruits of the tree of life,
9
61000
3000
자연계의 과실로부터 구별되고,
01:04
and hence, in some sense, obeying evolutionary rules?
10
64000
5000
따라서 일정한 의미에서, 진화 법칙을 따르는 것이 아니라고 보는 걸까요?
01:10
And yet people are interestingly resistant
11
70000
4000
그리고 사람들은 흥미롭게도
01:14
to the idea of applying evolutionary thinking to thinking -- to our thinking.
12
74000
7000
진화 개념를 사고, 우리의 사고에 적용하는 것을 꺼립니다.
01:21
And so I'm going to talk a little bit about that,
13
81000
4000
그걸 주제로 좀 이야기를 해보려 합니다.
01:25
keeping in mind that we have a lot on the program here.
14
85000
4000
여기서 할게 많기는 하지만 말이죠.
01:29
So you're out in the woods, or you're out in the pasture,
15
89000
4000
자, 당신이 숲에 있다고 해봅시다, 아니면 들판이던가요.
01:33
and you see this ant crawling up this blade of grass.
16
93000
3000
거기서 개미 한마리가 풀잎에 기어오르는 것을 봤습니다.
01:36
It climbs up to the top, and it falls,
17
96000
3000
풀잎 끝에 올라갔다가 떨어지고,
01:39
and it climbs, and it falls, and it climbs --
18
99000
3000
올라갔다 떨어지길 반복합니다.
01:42
trying to stay at the very top of the blade of grass.
19
102000
4000
풀잎 끝에 계속 매달려 있으려 하죠.
01:46
What is this ant doing? What is this in aid of?
20
106000
5000
개미는 뭘 하는 걸까요? 왜 이러는 걸까요?
01:51
What goals is this ant trying to achieve by climbing this blade of grass?
21
111000
7000
풀잎 끝에 개미가 기어올라서 얻을게 뭘까요?
01:58
What's in it for the ant?
22
118000
2000
풀잎에 뭐가 있을까요?
02:00
And the answer is: nothing. There's nothing in it for the ant.
23
120000
6000
해답은 아무것도 없다는 겁니다. 개미를 위한 건 없어요.
02:06
Well then, why is it doing this?
24
126000
3000
그렇다면, 개미가 왜 저러는 걸까요?
02:09
Is it just a fluke?
25
129000
2000
그냥 우연(fluke)일 뿐일까요?
02:11
Yeah, it's just a fluke. It's a lancet fluke.
26
131000
7000
예,플루크(fluke,기생충이란 뜻도 있음)는 맞죠. 란셋 흡충입니다.
02:18
It's a little brain worm.
27
138000
2000
뇌에 기생하는 작은 벌레지요.
02:20
It's a parasitic brain worm that has to get into the stomach of a sheep or a cow
28
140000
5000
이 뇌기생충은 양이나 소의 내장에 들어가야만 합니다.
02:25
in order to continue its life cycle.
29
145000
3000
살아서 번식하려면 말이죠.
02:28
Salmon swim upstream to get to their spawning grounds,
30
148000
5000
연어는 강을 거슬러 올라 산란장소로 갑니다.
02:33
and lancet flukes commandeer a passing ant,
31
153000
4000
그리고 란셋 흡충은 지나가는 개미에 올라타서,
02:37
crawl into its brain, and drive it up a blade of grass like an all-terrain vehicle.
32
157000
5000
뇌속으로 들어간 다음 개미를 차량삼아 풀잎 끝으로 올라갑니다.
02:42
So there's nothing in it for the ant.
33
162000
4000
그러니, 개미를 위한 행동이 아닙니다.
02:46
The ant's brain has been hijacked by a parasite that infects the brain,
34
166000
8000
개미의 뇌는 기생충에게 뺐긴 상태니까요.
02:54
inducing suicidal behavior.
35
174000
3000
그래서 자살행위를 하게되는 거죠.
02:58
Pretty scary.
36
178000
2000
상당히 무서운 일이죠.
03:00
Well, does anything like that happen with human beings?
37
180000
4000
그런데, 인간에게 이와 비슷한 일이 벌어질까요?
03:05
This is all on behalf of a cause other than one's own genetic fitness, of course.
38
185000
5000
물론 이런 것은 자신의 유전적 이득에 도움이 되기 때문이 아닙니다.
03:10
Well, it may already have occurred to you
39
190000
5000
어쩌면, 이미 여러분에게 그런일이 벌어졌을지도 모릅니다.
03:15
that Islam means "surrender," or "submission of self-interest to the will of Allah."
40
195000
10000
이슬람이란 단어는 '굴복' 또는 '신의 뜻을 위해 자기 욕심을 버림 '이란 뜻입니다.
03:25
Well, it's ideas -- not worms -- that hijack our brains.
41
205000
6000
이는 기생충이 아닌 아이디어(개념,사상)가 뇌를 점령하는 거죠.
03:31
Now, am I saying that a sizable minority of the world's population
42
211000
5000
세계인구중 꽤 주목할만한 소수가 이런
03:36
has had their brain hijacked by parasitic ideas?
43
216000
6000
기생적인 아이디어에 뇌를 빼앗겼다는 얘기냐구요?
03:43
No, it's worse than that.
44
223000
2000
아니요, 그보다 심각합니다.
03:45
Most people have.
45
225000
4000
거의 모든 사람이 그렇습니다.
03:49
(Laughter)
46
229000
2000
웃음
03:53
There are a lot of ideas to die for.
47
233000
2000
목숨을 바칠만한 아이디어는 많습니다.
03:55
Freedom, if you're from New Hampshire.
48
235000
3000
'자유'가 있죠. 뉴 햄프셔 출신이라면요.
03:58
(Laughter)
49
238000
3000
웃음
04:02
Justice. Truth. Communism.
50
242000
4000
정의. 진실. 공산주의
04:06
Many people have laid down their lives for communism,
51
246000
3000
많은 사람들이 공산주의를 위해 목숨을 바쳤습니다.
04:09
and many have laid down their lives for capitalism.
52
249000
3000
그리고 또 많은 사람들이 자본주의를 위해 그랬지요.
04:12
And many for Catholicism. And many for Islam.
53
252000
4000
또 가톨릭교를 위해서, 이슬람교를 위해서요.
04:16
These are just a few of the ideas that are to die for.
54
256000
5000
이는 목숨을 바칠만한 사상의 일부에 불과합니다.
04:21
They're infectious.
55
261000
2000
아이디어는 감염력이 있습니다.
04:24
Yesterday, Amory Lovins spoke about "infectious repititis."
56
264000
4000
어제, 애머리 로빈스가 '감염성 반복행위'란 말을 했죠.
04:28
It was a term of abuse, in effect.
57
268000
3000
사실 놀리는 뜻으로 쓴 것이긴 합니다만.
04:31
This is unthinking engineering.
58
271000
2000
아무 생각 없이 벌어지는 일입니다.
04:33
Well, most of the cultural spread that goes on
59
273000
4000
문화적으로 전파되는 것들 대부분은
04:37
is not brilliant, new, out-of-the-box thinking.
60
277000
4000
훌륭하거나 새로운, 고정관념에서 벗어난 사고가 아닙니다.
04:41
It's "infectious repetitis,"
61
281000
2000
감염성 반복행위죠
04:43
and we might as well try to have a theory of what's going on when that happens
62
283000
5000
그러니 감염이 일어날 때 무슨 일이 벌어지는지에 대해 이론을 세워볼만 합니다.
04:48
so that we can understand the conditions of infection.
63
288000
4000
그래야 감염조건을 이해할 수 있으니까요.
04:54
Hosts work hard to spread these ideas to others.
64
294000
7000
숙주는 사상들을 퍼뜨리기 위해 노력합니다.
05:01
I myself am a philosopher, and one of our occupational hazards
65
301000
6000
저는 철학자 인데 직업위험 중 하나가
05:07
is that people ask us what the meaning of life is.
66
307000
4000
사람들이 인생의 의미가 뭐냐고 물어보는 거죠.
05:11
And you have to have a bumper sticker,
67
311000
3000
이걸 간단한 표어 수준으로 설명할 수 있어야 하죠.
05:14
you know. You have to have a statement.
68
314000
3000
알다시피 주장이 담긴 한마디를 할 수 있어야 합니다.
05:17
So, this is mine.
69
317000
2000
자, 이게 저의 대답입니다.
05:19
The secret of happiness is: Find something more important than you are
70
319000
4000
행복의 비결은 자신보다 더 중요한 뭔가를 찾아내고
05:23
and dedicate your life to it.
71
323000
2000
거기에 인생을 바치는 겁니다.
05:25
Most of us -- now that the "Me Decade" is well in the past --
72
325000
4000
이제 자기중심 시대는 과거가 되었고 우리들 대부분은
05:29
now we actually do this.
73
329000
2000
실제로 이렇게 하고 있습니다.
05:31
One set of ideas or another
74
331000
3000
어떤 아이디어들이
05:34
have simply replaced our biological imperatives in our own lives.
75
334000
4000
우리 인생 속에서, 생물로서의 절대명제들을 대체해버렸습니다.
05:38
This is what our summum bonum is.
76
338000
3000
우리가 가장 높이 떠받드는 것은 아이디어 입니다.
05:41
It's not maximizing the number of grandchildren we have.
77
341000
3000
손주를 최대한 많이 두는 것이 아니지요.
05:44
Now, this is a profound biological effect.
78
344000
4000
자, 이는 심오한 생물학적 효과입니다.
05:48
It's the subordination of genetic interest to other interests.
79
348000
3000
유전적 관심을 다른 관심에 종속시키는 거죠.
05:51
And no other species does anything at all like it.
80
351000
4000
다른 어떤 생물종도 이런 행위를 하지 않습니다.
05:55
Well, how are we going to think about this?
81
355000
2000
그럼, 우리는 이걸 어떻게 봐야 할까요?
05:57
It is, on the one hand, a biological effect, and a very large one.
82
357000
4000
이는 한편으로는 생물학적 효과지요. 아주 거대한 효과입니다.
06:01
Unmistakable.
83
361000
2000
틀림없이 그렇지요.
06:03
Now, what theories do we want to use to look at this?
84
363000
3000
여기서 어떤 이론을 적용해봐야 할까요?
06:06
Well, many theories. But how could something tie them together?
85
366000
3000
이론은 많습니다. 하지만 무엇으로 여러 이론들을 종합할 수 있을까요?
06:09
The idea of replicating ideas;
86
369000
3000
바로, 아이디어를 복제한다는 아이디어입니다.
06:12
ideas that replicate by passing from brain to brain.
87
372000
5000
아이디어는 뇌를 옮겨다니는 식으로 자신을 복제합니다.
06:17
Richard Dawkins, whom you'll be hearing later in the day, invented the term "memes,"
88
377000
5000
오늘 강연을 들어보실 리처드 도킨스는 그의 책 '이기적 유전자'에서
06:22
and put forward the first really clear and vivid version of this idea
89
382000
5000
'밈'이란 용어를 만들고 주창하여 이 이론을 처음으로
06:27
in his book "The Selfish Gene."
90
387000
2000
명백하고 확실한 것으로 만들었습니다.
06:29
Now here am I talking about his idea.
91
389000
3000
자, 여기서 제가 도킨스의 아이디어를 얘기하면,
06:32
Well, you see, it's not his. Yes -- he started it.
92
392000
6000
이해시겠죠. 이젠 그의 아이디어가 아닙니다. 예, 그가 시작한 것은 맞습니다.
06:38
But it's everybody's idea now.
93
398000
3000
하지만 이제는 모든 사람들의 아이디어입니다.
06:41
And he's not responsible for what I say about memes.
94
401000
4000
그리고 도킨스는 제가 밈에 대해 말하는 것에 책임이 없습니다.
06:45
I'm responsible for what I say about memes.
95
405000
4000
제가 밈에 대해 말하는 것은 제가 책임져야 하죠.
06:50
Actually, I think we're all responsible
96
410000
3000
사실, 제가 보기엔 우리 모두는
06:53
for not just the intended effects of our ideas,
97
413000
6000
우리 아이디어가 우리 의도대로 사용되는 것만이 아니고
06:59
but for their likely misuses.
98
419000
3000
오용되는 것에 대해서도 책임이 있다고 생각합니다.
07:03
So it is important, I think, to Richard, and to me,
99
423000
4000
그러니 제 생각엔 리처드에게나 저에게나
07:07
that these ideas not be abused and misused.
100
427000
4000
이런 아이디어가 오용되거나 남용되는 것은 중요한 문제입니다.
07:11
They're very easy to misuse. That's why they're dangerous.
101
431000
3000
오용되기 매우 쉽지요. 이게 아이디어가 위험한 이유입니다.
07:14
And it's just about a full-time job
102
434000
3000
그리고 그런 아이디어를 무서워하는 사람들이
07:17
trying to prevent people who are scared of these ideas
103
437000
3000
그것을 과장되게 왜곡해버리고는 극단적 방향으로 튀어버리는 것을
07:20
from caricaturing them and then running off to one dire purpose or another.
104
440000
8000
막으려면 많은 노력이 필요합니다.
07:28
So we have to keep plugging away,
105
448000
3000
그러니 아이디어가 퍼지는 어떤 연결들은 끊어서
07:31
trying to correct the misapprehensions
106
451000
2000
잘못된 인식을 수정하고
07:33
so that only the benign and useful variants of our ideas continue to spread.
107
453000
8000
오직 해롭지 않고 쓸만한 아이디어만 퍼지도록 해야 합니다.
07:41
But it is a problem.
108
461000
2000
하지만 문제가 있습니다.
07:45
We don't have much time, and I'm going to go over just a little bit of this and cut out,
109
465000
5000
우리에겐 시간이 많지 않습니다. 저도 이 얘기를 조금만 더 하고 마칠겁니다.
07:50
because there's a lot of other things that are going to be said.
110
470000
3000
왜냐하면 달리 말해야할 주제들이 많거든요.
07:53
So let me just point out: memes are like viruses.
111
473000
5000
그러니 중요한 것만 찍어보지요. 밈은 바이러스와 같습니다.
07:58
That's what Richard said, back in '93.
112
478000
2000
리처드가 93년에 그렇게 말했지요.
08:00
And you might think, "Well, how can that be?
113
480000
2000
여러분은 이렇게 물어보실지 모르겠습니다.
08:02
I mean, a virus is -- you know, it's stuff! What's a meme made of?"
114
482000
7000
"무슨 소리야? 바이러스란, 그러니까... 물체잖아! 밈은 뭘로 이루졌는데?"
08:09
Yesterday, Negroponte was talking about viral telecommunications
115
489000
5000
어제, 네그로폰테가 "바이러스성" 통신에 대해 말했지요.
08:14
but -- what's a virus?
116
494000
1000
그런데 바이러스란 뭘까요?
08:15
A virus is a string of nucleic acid with attitude.
117
495000
4000
바이러스는 "성깔이 있는 핵산 덩어리"입니다.
08:19
(Laughter)
118
499000
1000
웃음
08:20
That is, there is something about it
119
500000
2000
바이러스에는 경쟁자보다 더 잘 자기복제를
08:22
that tends to make it replicate better than the competition does.
120
502000
4000
수행하게끔 하는 것이 있습니다.
08:26
And that's what a meme is. It's an information packet with attitude.
121
506000
4000
그게 바로 밈의 성질이죠. 밈은 어떤 성향을 보이는 정보 패킷(다발)입니다.
08:30
What's a meme made of? What are bits made of, Mom?
122
510000
6000
밈은 뭘로 이루어졌을까요? 엄마 엄마, 비트는 뭘로 이루어졌나요?
08:36
Not silicon.
123
516000
2000
실리콘이 아닙니다.
08:38
They're made of information, and can be carried in any physical medium.
124
518000
4000
정보로 이루어졌습니다. 그리고, 어떠한 물리적 매개체로도 운반될 수 있습니다.
08:42
What's a word made of?
125
522000
2000
단어는 무엇으로 되어있습니까?
08:44
Sometimes when people say, "Do memes exist?"
126
524000
5000
가끔 사람들이 "밈이 존재합니까"라고 물으면,
08:49
I say, "Well, do words exist? Are they in your ontology?"
127
529000
4000
전 이렇게 말하죠."그럼, 단어는 존재하나요? 당신의 존재안에 들어있는 겁니까?"
08:53
If they are, words are memes that can be pronounced.
128
533000
5000
만약 그렇다면 단어란 발음할 수 있는 밈인 것입니다.
08:58
Then there's all the other memes that can't be pronounced.
129
538000
3000
그리고 발음할 수 없는 밈도 있습니다.
09:01
There are different species of memes.
130
541000
3000
여러 종류의 밈이 있죠.
09:09
Remember the Shakers? Gift to be simple?
131
549000
4000
쉐이커파 아시나요? '단순한 것은 축복'이란 찬송가는요?
09:13
Simple, beautiful furniture?
132
553000
3000
그들이 만든 단순하고 아름다운 가구들은요?
09:16
And, of course, they're basically extinct now.
133
556000
3000
물론, 쉐이커파는 현재 사실상 소멸했습니다.
09:19
And one of the reasons is that among the creed of Shaker-dom
134
559000
6000
소멸한 이유 중 하나는 쉐이커파 신도는
09:25
is that one should be celibate.
135
565000
2000
번식행위를 금해야 한다는 계율이 있었기 때문입니다.
09:27
Not just the priests. Everybody.
136
567000
2000
성직자 만이 아닙니다. 모든 신도가 그래야 했습니다.
09:29
Well, it's not so surprising that they've gone extinct. (Laughter)
137
569000
8000
뭐, 그 사람들이 소멸한게 전혀 이상하지 않죠.(웃음)
09:37
But in fact that's not why they went extinct.
138
577000
3000
하지만 사실 쉐이커파가 사라진 이유는 그게 아닙니다.
09:42
They survived as long as they did
139
582000
3000
그들은 사회 안전망이 없었던 시절이었기에
09:45
at a time when the social safety nets weren't there.
140
585000
2000
그 정도나마 오래 살아남을 수 있었습니다.
09:47
And there were lots of widows and orphans,
141
587000
3000
그 때엔 과부나 고아가 많았고
09:50
people like that, who needed a foster home.
142
590000
3000
그런 사람들은 머물 곳이 필요했습니다.
09:53
And so they had a ready supply of converts.
143
593000
3000
그 중에서 개종자를 구할 수 있었죠.
09:56
And they could keep it going.
144
596000
2000
계속 이런 식으로 유지가 가능했습니다.
09:58
And, in principle, it could've gone on forever,
145
598000
2000
이론적으론 언제까지나 그럴 수가 있어요.
10:00
with perfect celibacy on the part of the hosts.
146
600000
3000
숙주가 전혀 번식을 하지 않더라도
10:03
The idea being passed on through proselytizing,
147
603000
5000
아이디어는 개종을 통해 이어집니다.
10:08
instead of through the gene line.
148
608000
3000
유전계보를 거치지 않더라도 말이죠.
10:13
So the ideas can live on in spite of the fact
149
613000
4000
즉, 아이디어는 유전적으로 전해지지 않더라도
10:17
that they're not being passed on genetically.
150
617000
3000
살아남을 수 있습니다.
10:20
A meme can flourish in spite of having a negative impact on genetic fitness.
151
620000
4000
밈은 유전적 건강을 해치더라도 번성할 수 있는거죠
10:24
After all, the meme for Shaker-dom was essentially a sterilizing parasite.
152
624000
8000
아무튼, 쉐이커파의 밈은 본질적으로 번식을 중단시키는 기생체입니다.
10:33
There are other parasites that do this -- which render the host sterile.
153
633000
6000
이와 같은 효과를 보이는 다른 기생체도 있지요. 숙주를 거세시키는 것 말입니다.
10:40
It's part of their plan.
154
640000
2000
이건 그들의 계획의 일부입니다.
10:42
They don't have to have minds to have a plan.
155
642000
4000
계획을 세우는데 꼭 정신이 필요하지는 않습니다.
10:47
I'm just going to draw your attention to just one
156
647000
5000
이제 밈 중심 관점의 여러 함의 가운데
10:52
of the many implications of the memetic perspective, which I recommend.
157
652000
8000
제가 추천하는 한가지를 여러분께 소개할까 합니다.
11:01
I've not time to go into more of it.
158
661000
2000
많은 사례를 다룰 시간은 없으니까요.
11:03
In Jared Diamond's wonderful book, "Guns, Germs and Steel,"
159
663000
4000
제레드 다이아몬드의 명저, '총, 균, 쇠'를 보면
11:07
he talks about how it was germs, more than guns and steel,
160
667000
6000
필자는 세균이 어떻게 총이나 쇠보다
11:13
that conquered the new hemisphere -- the Western hemisphere --
161
673000
5000
신대륙(서반구)과 다른 세계를
11:18
that conquered the rest of the world.
162
678000
2000
정복하는데 더 도움이 되었는지 얘기합니다.
11:20
When European explorers and travelers spread out,
163
680000
7000
유럽인 탐험가와 여행자가 퍼져나갔을 때
11:27
they brought with them the germs
164
687000
2000
그들은 이미 면역이 된
11:29
that they had become essentially immune to,
165
689000
3000
세균을 같이 가지고 갔습니다.
11:32
that they had learned how to tolerate over
166
692000
3000
그들은 수백년 수천년 동안,
11:35
hundreds and hundreds of years, thousands of years,
167
695000
3000
병균의 근원인 가축들과 같이 살면서
11:38
of living with domesticated animals who were the sources of those pathogens.
168
698000
4000
저항력을 키웠죠.
11:43
And they just wiped out -- these pathogens just wiped out the native people,
169
703000
5000
그 세균들은 아무 면역이 없는 다른 세계의 원주민들을
11:48
who had no immunity to them at all.
170
708000
3000
완전히 쓸어버렸습니다.
11:51
And we're doing it again.
171
711000
3000
그리고 우리는 또 다시 그런 일을 벌이고 있습니다.
11:55
We're doing it this time with toxic ideas.
172
715000
4000
이번에는 유독한 아이디어로 말이죠.
12:00
Yesterday, a number of people -- Nicholas Negroponte and others --
173
720000
4000
어제, 니콜라스 네그로폰테를 비롯한 몇몇 사람들이
12:04
spoke about all the wonderful things
174
724000
2000
우리의 아이디어가 퍼져감에 따라
12:06
that are happening when our ideas get spread out,
175
726000
3000
벌어지는 온갖 멋진 일에 대한 강연을 했습니다.
12:09
thanks to all the new technology all over the world.
176
729000
2000
세상을 덮은 새 기술 덕분이죠.
12:11
And I agree. It is largely wonderful. Largely wonderful.
177
731000
6000
저도 동의합니다. 거의 훌륭한 것들이죠. 거의.
12:17
But among all those ideas that inevitably flow out into the whole world
178
737000
8000
하지만 우리의 기술 덕으로 전세계 퍼져나가는
12:25
thanks to our technology, are a lot of toxic ideas.
179
745000
5000
아이디어 중에는 유독한 것도 많습니다.
12:30
Now, this has been realized for some time.
180
750000
3000
이 현상은 꽤 오래전에 알게된 겁니다.
12:33
Sayyid Qutb is one of the founding fathers of fanatical Islam,
181
753000
6000
사이드 쿠투브는 오사마 빈 라덴에게 영향을 끼친
12:39
one of the ideologues that inspired Osama bin Laden.
182
759000
5000
이념 중 하나인 광신적 이슬람을 창시한 사람 중 하나입니다.
12:44
"One has only to glance at its press films, fashion shows, beauty contests,
183
764000
5000
아니면 "사람은 그저 영화와 패션쇼, 미인대회,
12:49
ballrooms, wine bars and broadcasting stations." Memes.
184
769000
6000
춤, 와인 바, 방송에만 관심을 가져라"라는 밈도 있죠.
12:55
These memes are spreading around the world
185
775000
4000
이런 밈들은 전세계에 퍼져
12:59
and they are wiping out whole cultures.
186
779000
5000
문화들을 통째로 쓸어버리고 있습니다.
13:04
They are wiping out languages.
187
784000
2000
언어도 잊혀지게 하고
13:06
They are wiping out traditions and practices.
188
786000
5000
전통과 관습도 없애버립니다.
13:11
And it's not our fault, anymore than it's our fault when our germs lay waste
189
791000
8000
이건 우리 잘못이 아닙니다. 면역이 없는 사람들에게
13:19
to people that haven't developed the immunity.
190
799000
3000
세균을 흘리는 정도의 잘못이죠.
13:22
We have an immunity to all of the junk that lies around the edges of our culture.
191
802000
6000
우리는 우리의 문화 곳곳에 널린 쓰레기에 면역이 있습니다.
13:28
We're a free society, so we let pornography and all these things -- we shrug them off.
192
808000
6000
우리 사회는 자유롭습니다. 그래서 포르노같은 걸 허용하지만 별 신경도 안씁니다.
13:34
They're like a mild cold.
193
814000
2000
그냥 약한 감기에 지나지 않죠.
13:36
They're not a big deal for us.
194
816000
2000
우리한텐 별다른 문제가 아닙니다.
13:38
But we should recognize that for many people in the world,
195
818000
4000
하지만 세상의 많은 사람들에게는
13:42
they are a big deal.
196
822000
4000
이게 큰 문제라는 걸 깨달아야 합니다.
13:46
And we should be very alert to this.
197
826000
3000
그리고 매우 주의해야 할 점은
13:49
As we spread our education and our technology,
198
829000
3000
우리의 교육과 기술을 세상에 퍼뜨린다는 것은
13:52
one of the things that we are doing is we're the vectors of memes
199
832000
8000
우리가 그 밈(교육, 기술)의 매개체가 된다는 뜻이며
14:00
that are correctly viewed by the hosts of many other memes
200
840000
6000
다른 많은 밈의 숙주(사람)들에게
14:06
as a dire threat to their favorite memes --
201
846000
3000
그들이 선호하는 밈, 목숨을 걸고 지키는 밈에
14:09
the memes that they are prepared to die for.
202
849000
3000
크나큰 위협으로 비칠 수 있다는 겁니다.
14:12
Well now, how are we going to tell the good memes from the bad memes?
203
852000
4000
그럼 어떻게 우리는 좋은 밈과 나쁜 밈을 구별해야 할까요?
14:16
That is not the job of the science of memetics.
204
856000
5000
그건 문화전파학(memetics)의 소관이 아닙니다.
14:21
Memetics is morally neutral. And so it should be.
205
861000
6000
문화전파학은 도덕적으로 중립입니다. 그래야만 하고요.
14:27
This is not the place for hate and anger.
206
867000
4000
증오와 분노가 끼어들 주제가 아닙니다.
14:31
If you've had a friend who's died of AIDS, then you hate HIV.
207
871000
5000
만약 친구가 에이즈로 죽었다면 HIV 바이러스를 미워하겠죠.
14:36
But the way to deal with that is to do science,
208
876000
4000
하지만 바이러스 처리는 과학이 할 일입니다.
14:40
and understand how it spreads and why in a morally neutral perspective.
209
880000
7000
도덕적으로 중립인 상태에서 밈이 어떻게 그리고 왜 전파되는지 이해하는 것과 왜 그렇지요.
14:47
Get the facts.
210
887000
2000
사실을 알아내십시오.
14:49
Work out the implications.
211
889000
4000
그에 따른 함의를 밝혀내십시오.
14:53
There's plenty of room for moral passion once we've got the facts
212
893000
4000
사실을 알아낸 다음에도 도덕을 따지거나
14:57
and can figure out the best thing to do.
213
897000
2000
무엇이 가장 좋은지 알아낼 시간은 많습니다.
14:59
And, as with germs, the trick is not to try to annihilate them.
214
899000
5000
그리고 세균에 대해서는, 절멸시키려는 건 좋은 생각이 아닙니다.
15:04
You will never annihilate the germs.
215
904000
3000
세균을 절멸시킬 수는 없습니다.
15:07
What you can do, however, is foster public health measures and the like
216
907000
6000
할 수 있는 것은 공중보건 수단 등으로
15:13
that will encourage the evolution of avirulence.
217
913000
5000
무해한 요소의 진화를 촉진시켜
15:19
That will encourage the spread of relatively benign mutations
218
919000
7000
독성이 강한 세균을 상대적으로 무해한 돌연변이로 바꾸어
15:26
of the most toxic varieties.
219
926000
3000
퍼뜨리는 겁니다.
15:29
That's all the time I have,
220
929000
3000
이제 시간이 다 되었군요.
15:32
so thank you very much for your attention.
221
932000
3000
들어주셔서 매우 감사합니다.

Original video on YouTube.com
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7