Robert Wright: The logic of non-zero-sum progress

93,052 views ・ 2008-04-15

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: Hye-won Chung 검토: SEHYOUN KIM
00:26
I've got apparently 18 minutes
0
26000
2000
한 18분 동안 저는
00:28
to convince you that history has a direction, an arrow;
1
28000
3000
여러분께 역사에는 화살과도 같은 방향이 있다는 확신을 드리려 합니다
00:31
that in some fundamental sense, it's good;
2
31000
3000
기본적으로
00:34
that the arrow points to something positive.
3
34000
3000
역사의 화살이 무언가 긍정적인 것을 향한다는 건 좋습니다
00:37
Now, when the TED people first approached me about giving this upbeat talk --
4
37000
4000
TED에서 제게 이런 낙관적인 주제의 강연을 처음 부탁했을 당시는
00:41
(Laughter)
5
41000
1000
(웃음)
00:42
-- that was before the cartoon of Muhammad had triggered global rioting.
6
42000
6000
마호메트 풍자 만평으로 전 세계적 소요가 일어나기 전이었고
00:48
It was before the avian flu had reached Europe.
7
48000
2000
조류 독감이 유럽에 까지 퍼지기 전이었죠
00:50
It was before Hamas had won the Palestinian election,
8
50000
2000
하마스가 팔레스타인에서의 선거에서 승리하기 전이었고요
00:52
eliciting various counter-measures by Israel.
9
52000
4000
이스라엘에서 다양한 대응책이 나왔죠
00:56
And to be honest, if I had known when I was asked to give this upbeat talk
10
56000
4000
솔직히 이런 낙관적 주제를 부탁받았을 때
01:00
that even as I was giving the upbeat talk,
11
60000
3000
제가 비록 그런 강연을 하는 사람이지만,
01:03
the apocalypse would be unfolding --
12
63000
3000
이런 대재난이 펼쳐질 걸 알았더라면
01:06
(Laughter)
13
66000
1000
(웃음)
01:07
-- I might have said, "Is it okay if I talk about something else?"
14
67000
4000
"다른 주제는 어떨까요?"라고 했을지 모릅니다
01:11
But I didn't, OK. So we're here. I'll do what I can. I'll do what I can.
15
71000
5000
하지만 이렇게 됐으니, 제가 할 수 있는 것을 하겠습니다
01:17
I've got to warn you:
16
77000
2000
주의하실 게 있습니다
01:19
the sense in which my worldview is upbeat has always been kind of subtle,
17
79000
7000
제 세계관이 낙관적이라는 의미는 항상 좀 미묘합니다
01:26
sometimes even elusive.
18
86000
2000
간혹 포착하기조차 어려워요
01:28
(Laughter)
19
88000
1000
(웃음)
01:29
The sense in which I can be uplifting and inspiring --
20
89000
3000
제가 정신을 고양시키고 영감을 줄 수도 있다는 뜻은--
01:32
I mean, there's always been a kind of a certain grim dimension
21
92000
3000
낙관적이려고 노력하는 데에 항상 일종의 비관적인 측면이 있었습니다
01:35
to the way I try to uplift, so if grim inspiration --
22
95000
4000
그러니 비관적 낙관주의--
01:39
(Laughter)
23
99000
1000
(웃음)
01:40
-- if grim inspiration is not a contradiction in terms, that is, I'm afraid,
24
100000
4000
-만약 '비관적 낙관주의'가 용어에 있어 모순이 아니라면, 유감이지만 그렇죠
01:44
the most you can hope for. OK, today -- that's if I succeed.
25
104000
4000
그것이 여러분이 오늘 바랄 수 있는 것입니다. 오늘 제가 성공한다면 그렇죠.
01:48
I'll see what I can do. OK?
26
108000
2000
제가 할 수 있는 일이 무엇인지 보겠습니다. 알겠죠?
01:50
Now, in one sense,
27
110000
2000
자, 한 면에서 보면
01:52
the claim that history has a direction is not that controversial.
28
112000
3000
역사에는 방향이 있다는 주장은 그다지 논쟁거리가 아닙니다
01:55
If you're just talking about social structure,
29
115000
3000
여러분이 단지 사회 구조에 대해 이야기하는 거라면
01:58
OK, clearly that's gotten more complex
30
118000
2000
분명 사회구조는 보다 복잡해졌습니다
02:00
a little over the last 10,000 years -- has reached higher and higher levels.
31
120000
3000
지난 만여년에() 걸쳐 점점 더 높은 수준에 도달했습니다
02:03
And in fact, that's actually sustaining
32
123000
2000
실제로도, 사회 구조는
02:05
a long-standing trend that predates human beings, OK,
33
125000
4000
인류 이전부터 오래 이어진 경향,
02:09
that biological evolution was doing for us.
34
129000
3000
즉, 생물학적 진화를 지속시키고 있습니다.
02:12
Because what happened in the beginning, this stuff encases itself in a cell,
35
132000
5000
태초에 무언가가 일어나서, 이것은 자신을 세포 안에 넣습니다
02:17
then cells start hanging out together in societies.
36
137000
3000
그러곤 세포들이 모여 함께 지내기 시작하지요
02:20
Eventually they get so close, they form multicellular organisms,
37
140000
3000
결국에 그것들은 아주 가까워지고 다세포 조직을 형성합니다
02:23
then you get complex multicellular organisms; they form societies.
38
143000
5000
그러면 복잡한 다세포 유기체가 만들어지고, 그것들이 사회를 만들죠
02:28
But then at some point, one of these multicellular organisms
39
148000
3000
하지만 어느 시점에는 이러한 다세포 유기체 중 하나가
02:31
does something completely amazing with this stuff, which is
40
151000
3000
이러한 것을 갖고 완전히 놀라운 일을 벌이죠
02:34
it launches a whole second kind of evolution: cultural evolution.
41
154000
5000
이 유기체가 완전히 새로운 두 번째 진화를 시작합니다. 문화 진화죠
02:39
And amazingly, that evolution sustains the trajectory
42
159000
3000
놀랍게도 그 진화는 보다 엄청난 복잡성으로 향하는
02:42
that biological evolution had established toward greater complexity.
43
162000
5000
생물학적 진화가 구축한 궤도를 유지하죠
02:47
By cultural evolution we mean the evolution of ideas.
44
167000
3000
여기서 문화 진화란 생각의 진화를 말하는 겁니다
02:50
A lot of you have heard the term "memes." The evolution of technology,
45
170000
3000
'비유전적 문화요소'라는 걸 들어보셨을 겁니다
02:53
I pay a lot of attention to, so, you know,
46
173000
2000
저는 기술의 진화에 관심이 많아요
02:55
one of the first things you got was a little hand axe.
47
175000
4000
인간이 처음 만든 것 중 하나는 작은 손도끼죠
02:59
Generations go by, somebody says, hey, why don't we put it on a stick?
48
179000
5000
몇 세대 지나, 누군가 '이봐, 이걸 막대기에 붙이면 어떨까?'라고 말합니다
03:04
(Laughter)
49
184000
3000
(웃음)
03:07
Just absolutely delights the little ones.
50
187000
3000
아이들은 완전 좋아하죠
03:10
Next best thing to a video game.
51
190000
2000
비디오 게임 다음으로 좋아하는 거니까요
03:12
This may not seem to impress,
52
192000
2000
이건 별거 아니게 보일지 모르지만
03:14
but technological evolution is progressive, so another 10, 20,000 years,
53
194000
4000
기술 진화는 전진하고 만 년 이만 년 후에는
03:18
and armaments technology takes you here.
54
198000
2000
군비 기술이 나왔죠
03:20
(Laughter)
55
200000
1000
(웃음)
03:21
Impressive. And the rate of technological evolution speeds up,
56
201000
4000
인상적이죠. 기술 진화 속도는 빨라져
03:25
so a mere quarter of a century after this, you get this, OK.
57
205000
4000
단지 25년 후 이런 게 나와요
03:29
(Laughter)
58
209000
2000
(웃음)
03:31
And this.
59
211000
2000
이것도 나와요
03:33
(Laughter)
60
213000
1000
(웃음)
03:34
I'm sorry -- it was a cheap laugh, but I wanted to find a way
61
214000
3000
죄송합니다 쉽게 웃기려 했어요 하지만 이야기를
03:37
to transition back to this idea of the unfolding apocalypse,
62
217000
3000
진행중인 대참사로 전환하고 싶었습니다
03:40
and I thought that might do it.
63
220000
2000
그렇게 한 것 같네요
03:42
(Applause)
64
222000
7000
(박수)
03:49
So, what threatens to happen with this unfolding apocalypse
65
229000
5000
진행중인 대재앙이 일으키려 하는 건
03:54
is the collapse of global social organization.
66
234000
4000
글로벌 사회 조직의 붕괴입니다
03:58
Now, first let me remind you how much work it took to get us where we are,
67
238000
3000
먼저 진정한 글로벌 사회 조직의 문지방까지 오는 데에
04:01
to be on the brink of true global social organization.
68
241000
3000
얼마나 힘이 들었는지 상기시켜드리겠습니다
04:04
Originally, you had the most complex societies, the hunter-gatherer village.
69
244000
6000
원래 인간은 가장 복잡한 사회를 이뤘습니다 수렵채집 군락이요
04:10
Stonehenge is the remnant of a chiefdom,
70
250000
2000
스톤헨지는 우두머리 관할지역의 잔재로
04:12
which is what you get with the invention of agriculture: multi-village polity
71
252000
3000
이는 농업을 하고 다수 군락의 정치적 조직체가
04:15
with centralized rule.
72
255000
3000
중앙집권화되었을 때에 나타납니다
04:18
With the invention of writing, you start getting cities. This is blurry. I kind of like that
73
258000
5000
문자의 발명과 함께 도시가 생깁니다 경계가 또렷하진 않아요
04:23
because it makes it look like a one-celled organism and reminds you
74
263000
3000
단세포 유기체처럼 보이고, 이 수준에 도달하기까지
04:26
how many levels organic organization has already moved through
75
266000
4000
유기 조직이 얼마나 많은 차원을 거쳐왔을지
04:30
to get to this point. And then you get to, you know, you get empires.
76
270000
6000
상기시키기 때문에 맘에 듭니다 그 다음은 제국이 나타나죠
04:36
I want to stress, you know, social organization can transcend political bounds.
77
276000
4000
강조하고 싶은 건 사회 조직이 정치 경계을 초월할 수 있다는 겁니다
04:40
This is the Silk Road connecting the Chinese Empire and the Roman Empire.
78
280000
4000
이건 실크로드가 중국 제국과 로마 제국을 잇는 그림입니다
04:44
So you had social complexity spanning the whole continent,
79
284000
3000
대륙 전체에 걸친 사회 복합체를 이루었던 거지요
04:47
even if no polity did similarly. Today, you've got nation states.
80
287000
5000
어떤 정치 조직도 그런 비슷한 일을 못했지요 오늘날은 국민국가가 있죠
04:52
Point is: there's obviously collaboration and organization going on
81
292000
3000
말하고자 하는 바는, 국가 경계를 넘어
04:55
beyond national bounds.
82
295000
2000
분명 협력과 조직화가 진행된다는 점입니다
04:57
This is actually just a picture of the earth at night,
83
297000
3000
이건 실제로 그냥 지구의 밤을 보여주는 사진입니다
05:00
and I'm just putting it up because I think it's pretty.
84
300000
2000
이건 그냥 사진이 보기 좋아서 올렸습니다
05:02
Does kind of convey the sense that this is an integrated system.
85
302000
5000
이건 통합된 시스템이구나,라는 생각이 들게 하죠
05:07
Now, I explained this growth of complexity by reference to something
86
307000
6000
저는 이러한 복잡성의 증가를 논제로섬 게임을 언급하며
05:13
called "non-zero sumness."
87
313000
4000
설명했습니다
05:17
Assuming that a few of you did not do the assigned reading, very quickly,
88
317000
5000
잘 모르시는 분들을 위해 짧게 말씀드리면
05:22
the key idea is the distinction between zero-sum games, in which correlations
89
322000
5000
핵심 아이디어는 제로섬 게임과의 차이에 있죠
05:27
are inverse: always a winner and a loser.
90
327000
3000
제로섬 게임은 상관관계가 반비례입니다 승자가 있으면 항상 패자가 있어요
05:30
Non-zero-sum games in which correlations can be positive, OK.
91
330000
4000
논제로섬 게임은 상관관계가 정비례일 수 있어요
05:34
So like in tennis, usually it's win-lose;
92
334000
4000
테니스 게임과 마찬가지로 이 게임은 보통 승패가 있어요
05:38
it always adds up to zero-zero-sum. But if you're playing doubles,
93
338000
3000
항상 제로제로섬이 되는 거지만, 만약 당신이 더블을 플레이하면
05:41
the person on your side of the net, they're in the same boat as you,
94
341000
2000
네트 안에 함께 있는 사람은 당신과 한 배에 탄 겁니다
05:43
so you're playing a non-zero-sum game with them.
95
343000
2000
따라서 그런 사람들과 논제로섬 게임을 하는 거지요
05:45
It's either for the better or for the worse, OK.
96
345000
3000
더 좋게 되거나 혹은 더 나빠지거나 둘 중 하나입니다
05:48
A lot of forms of non-zero-sum behavior in the realm of economics and so on
97
348000
5000
경제학 등의 영역에서나 일상 생활에서 다양한 형태의 논제로섬 행동은
05:53
in everyday life often leads to cooperation.
98
353000
4000
협동으로 이어지곤 합니다
05:57
The argument I make is basically that, well,
99
357000
2000
제가 기본적으로 주장하는 바는
05:59
non-zero-sum games have always been part of life.
100
359000
2000
논제로섬 게임은 항상 우리 삶의 일부였다는 거지요
06:01
You have them in hunter-gatherer societies,
101
361000
2000
수렵채집 사회에서도 논제로섬 게임을 했습니다
06:03
but then through technological evolution, new forms of technology arise
102
363000
5000
하지만 기술 진화와 함께 새로운 종류의 기술의 생겨나
06:08
that facilitate or encourage the playing of non-zero-sum games,
103
368000
5000
논제로섬 게임을 촉진 혹은 장려합니다
06:13
involving more people over larger territory.
104
373000
3000
보다 넓은 영토의 많은 사람들을 끌어들여서요.
06:16
Social structure adapts to accommodate this possibility and
105
376000
4000
사회조직은 이러한 가능성을 수용하고 논제로섬 게임의
06:20
to harness this productive potential, so you get cities, you know,
106
380000
3000
생산 잠재성을 이용하기 위해 적응합니다 그렇게 도시가 만들어지죠
06:23
and you get all the non-zero-sum games you don't think about
107
383000
3000
생각하지 않은 모든 곳에서 논제로섬 게임이 일어나며
06:26
that are being played across the world.
108
386000
1000
전 세계에서 걸쳐 일어납니다
06:27
Like, have you ever thought when you buy a car,
109
387000
3000
차를 살 때에 이런 생각 해보신 적 있습니까?
06:30
how many people on how many different continents contributed
110
390000
2000
얼마나 많은 사람들이 얼마나 많은 대륙에서
06:32
to the manufacture of that car? Those are people in effect
111
392000
5000
그 차를 제조하는 데에 기여했을지 말입니다
06:37
you're playing a non-zero-sum game with.
112
397000
2000
이런 사람들이 사실상 우리의 논제로섬 게임 상대죠
06:39
I mean, there are certainly plenty of them around.
113
399000
7000
그런 사람들이 분명 주위에 많이 있어요
06:46
Now, this sounds like an intrinsically upbeat worldview in a way,
114
406000
3000
자, 이건 어떤 면에서 본질적으로 낙관적인 세계관처럼 들리죠
06:49
because when you think of non-zero, you think win-win, you know,
115
409000
3000
논제로섬에 대해 생각하면 윈윈을 생각하기 때문이죠
06:52
that's good. Well, there are a few reasons
116
412000
2000
그건 좋아요. 하지만 논제로섬 게임이 사실상 내재적으로
06:54
that actually it's not intrinsically upbeat.
117
414000
3000
낙관적인 건 아니라는 몇 가지 이유가 있습니다
06:57
First of all, it can accommodate; it doesn't deny the existence
118
417000
4000
무엇보다도 논제로섬 게임에서 수용하는 것은
07:01
of inequality exploitation war.
119
421000
3000
불평등한 착취전쟁의 존재를 부정하지 않는다는 점입니다
07:04
But there's a more fundamental reason
120
424000
2000
하지만 이 게임이 내재적으로 낙관적인 게 아닌 더 근본적 이유는
07:06
that it's not intrinsically upbeat, because a non-zero-sum game,
121
426000
3000
논제로섬 게임에서는 좋든 나쁘든 나와 상호관련된다는 점이
07:09
all it tells you for sure is that the fortunes will be correlated for better or worse.
122
429000
4000
너무 분명하다는 사실 때문이죠
07:13
It doesn't necessarily predict a win-win outcome.
123
433000
6000
논제로섬 게임에서 꼭 윈윈 결과만 기대되지 않아요
07:19
So, in a way, the question is: on what grounds
124
439000
2000
따라서 문제는 어떠한 근거에서
07:21
am I upbeat at all about history? And the answer is,
125
441000
4000
제가 역사란 것에 대해 낙관적인가 하는 거죠
07:25
first of all, on balance I would say people have played their games
126
445000
4000
그 답은, 무엇보다 결국 사람들은 함께 지는 결과를 낳기 보다는
07:29
to more win-win outcomes than lose-lose outcomes. On balance,
127
449000
4000
윈윈 결과를 낳기 위해 함께 게임을 해왔다는 겁니다
07:33
I think history is a net positive in the non-zero-sum game department.
128
453000
6000
역사는 논제로섬 게임 부분을 따지면 '순 긍정'이라고 봅니다
07:39
And a testament to this is the thing that most amazes me,
129
459000
5000
이 부분에서는 매우 놀라운 증거도 있어요
07:44
most impresses me, and most uplifts me,
130
464000
2000
가장 인상깊고 저를 가장 고양시키는 것이기도 합니다
07:46
which is that there is a moral dimension to history;
131
466000
5000
그것은 역사에 도덕적인 차원,
07:51
there is a moral arrow. We have seen moral progress over time.
132
471000
3000
도덕의 화살이 있다는 점입니다 시간과 함께 도덕에도 진보가 일어난거죠
07:54
2,500 years ago, members of one Greek city-state
133
474000
4000
2500년 전에 그리스 도시 국가 사람들은
07:58
considered members of another Greek city-state subhuman
134
478000
3000
다른 그리스 도시 국가 사람을 인간 이하로 보았습니다
08:01
and treated them that way. And then this moral revolution arrived,
135
481000
5000
그리고 그런 처우를 했지요. 그리곤 도덕 혁명이 일어나고
08:06
and they decided that actually, no, Greeks are human beings.
136
486000
4000
그들은 '아냐, 사실 그리스인들은 모두 인간이다'라고 결론지어요
08:10
It's just the Persians who aren't fully human
137
490000
3000
완전한 인간이 아닌 건 페르시아인이니 좋은 처우를 할 가치 없어,
08:13
and don't deserve to be treated very nicely.
138
493000
2000
라고 생각합니다
08:15
But this was progress -- you know, give them credit. And now today,
139
495000
3000
하지만 이것은 진보였습니다 그들을 인정해주세요
08:18
we've seen more progress. I think -- I hope -- most people here would say
140
498000
3000
오늘날에는 더 많은 진보를 이루었죠 제 생각에, 혹은 바라건데
08:21
that all people everywhere are human beings,
141
501000
3000
여기 대부분은 어느 곳에 사는 사람이나 인간이다라고 생각하죠
08:24
deserve to be treated decently,
142
504000
3000
괜찮은 대우를 받을 가치가 있는 인간이요
08:27
unless they do something horrendous, regardless of race or religion.
143
507000
4000
인종이나 종교와 상관없이 어떤 끔찍한 일을 하지 않는 한 말이죠
08:31
And you have to read your ancient history to realize what a revolution that has been,
144
511000
4000
고대 역사를 읽고 얼마나 대단한 혁명이었는지를 깨달아야 합니다
08:35
OK. This was not a prevalent view,
145
515000
2000
네, 이건 수천년 전에는 일반적인 관점이 아니었죠
08:37
few thousand years ago, and I attribute it to this non-zero-sum dynamic.
146
517000
5000
수천년 전, 저는 이것을 논제로섬의 역동성 때문이라고 봅니다
08:42
I think that's the reason there is as much tolerance toward nationalities,
147
522000
4000
국적, 민족, 종교에 대해 오늘날과 같은 관용이 있는 이유는
08:46
ethnicities, religions as there is today. If you asked me,
148
526000
5000
그 역동성 때문이라 생각해요
08:51
you know, why am I not in favor of bombing Japan,
149
531000
2000
일본에 폭탄 투하하는 걸 찬성하지 않는 이유를 묻는다면
08:53
well, I'm only half-joking when I say they built my car.
150
533000
3000
일본에서 제 차를 제조하기 때문이라고 반쯤 농담처럼 답할 겁니다
08:56
We have this non-zero-sum relationship,
151
536000
2000
우리는 이러한 논제로섬 관계를 맺고 있으며
08:58
and I think that does lead to a kind of a tolerance to the extent that you realize
152
538000
6000
이는 누군가의 행복과 내 행복이 정비례 관계라는 깨달음으로
09:04
that someone else's welfare is positively correlated with yours --
153
544000
4000
일종의 관용을 갖게 한다고 생각합니다
09:08
you're more likely to cut them a break.
154
548000
2000
당신은 그들에 관용을 보일 가능성이 더 크죠
09:10
I kind of think this is a kind of a business-class morality.
155
550000
5000
이건 일종의 비즈니스 클래스 도덕이라고 생각합니다
09:15
Unfortunately, I don't fly trans-Atlantic business class often enough
156
555000
4000
안타깝게도, 대서양을 횡단하는 비즈니스 클래스나
09:19
to know, or any other kind of business class really,
157
559000
3000
다른 어떤 종류의 비즈니스 클래스도 실제론 자주 타지 않습니다
09:22
but I assume that in business class, you don't hear many expressions of, you know,
158
562000
4000
하지만 비즈니스 클래스에서는 당신은 인종 혹은 민족에 대한
09:26
bigotry about racial groups or ethnic groups,
159
566000
3000
편협한 말은 많이 듣지 않을 겁니다
09:29
because the people who are flying trans-Atlantic business class
160
569000
3000
왜냐하면 대서양을 횡단하는 비즈니스 클래스를 타는 사람들은
09:32
are doing business with all these people; they're making money
161
572000
2000
그런 모든 이들과 거래를 하고 돈을 벌기 때문이죠
09:34
off all these people. And I really do think that, in that sense at least,
162
574000
4000
적어도 그러한 점에서는
09:38
capitalism has been a constructive force,
163
578000
3000
자본주의가 정말 건설적이었다고 생각합니다
09:41
and more fundamentally, it's a non-zero-sumness
164
581000
2000
보다 근본적으로는, 사람들의 도덕 의식을 범위를 확장한
09:43
that has been a constructive force in expanding people's realm
165
583000
4000
건설적인 힘은 논제로섬 게임이라고 봅니다
09:47
of moral awareness. I think the non-zero-sum dynamic,
166
587000
5000
논제로섬 게임의 역동성은 어떻게든지 경제적일뿐 아니라
09:52
which is not only economic by any means -- it's not always commerce --
167
592000
4000
음, 항상 상업적인 것이 아니고요
09:56
but it has driven us to the verge of a moral truth,
168
596000
5000
그 역동성은 인간을 도덕적 진실의 경계 즉,
10:01
which is the fundamental equality of everyone. It has done that.
169
601000
3000
근본적으로 모두가 평등하다는 진실에 닿게 했습니다
10:04
As it has moved global, moved us toward a global level of social organization,
170
604000
5000
글로벌 차원의 논제로섬 게임은 글로벌 차원의 사회 조직을 만들고
10:09
it has driven us toward moral truth.
171
609000
2000
우리를 도덕적 진실에까지 닿게 했죠
10:11
I think that's wonderful.
172
611000
3000
멋집니다
10:14
Now, back to the unfolding apocalypse.
173
614000
3000
그럼, 진행중인 대참사 얘기로 돌아가죠
10:17
And you may wonder, OK, that's all fine,
174
617000
2000
여러분은 의문을 가질지 모릅니다. 그래, 다 괜찮군
10:19
sounds great -- moral direction in history --
175
619000
2000
멋지군-- 역사에서의 도덕적 방향성이라
10:21
but what about this so-called clash of civilizations? Well, first of all,
176
621000
9000
하지만 소위 문명 간 충돌은 어쩔겁니까?
10:30
I would emphasize that it fits into the non-zero-sum framework,
177
630000
3000
먼저 그것이 논제로섬 게임의 틀에 맞다는 걸 강조하고 싶습니다
10:33
OK. If you look at the relationship
178
633000
2000
여러분이 소위 이슬람세계와 서구세계의 관계를
10:35
between the so-called Muslim world and Western world --
179
635000
3000
살펴보시면,
10:38
two terms I don't like, but can't really avoid;
180
638000
3000
두 용어는 맘에 안 들지만 현실적으로 안 쓸 수 없네요
10:41
in such a short span of time, they're efficient if nothing else --
181
641000
4000
짧은 시간동안에 다른 건 몰라도 적어도 능률적입니다
10:45
it is non-zero-sum. And by that I mean,
182
645000
3000
둘의 관계는 논제로섬이며 그것이 의미하는 바는
10:48
if people in the Muslim world get more hateful, more resentful,
183
648000
4000
이슬람계 사람이 세계에서의 그들 처지에 더 불쾌해하고 분개하며
10:52
less happy with their place in the world,
184
652000
1000
덜 행복해하면 이는 서구 사람에게도 좋지 않아요
10:53
it'll be bad for the West. If they get more happy, it'll be good for the West.
185
653000
4000
그들이 더 행복해지면 서구세계에도 더 좋을 겁니다
10:57
So that is a non-zero-sum dynamic.
186
657000
5000
이것이 논제로섬의 역동성입니다
11:02
And I would say the non-zero-sum dynamic is only going to grow more intense over time
187
662000
4000
논제로섬 게임 역동성은 기술동향으로 보아 점점 더 강화되기만 할텐데
11:06
because of technological trends, but more intense in a kind of negative way.
188
666000
5000
일종의 부정적인 방향으로 더욱 강화될 겁니다
11:11
It's the downside correlation of their fortunes that will become more and more possible.
189
671000
6000
그들 운명의 부정적인 상관관계가 점점 더 가능해질겁니다
11:17
And one reason is because of something I call the "growing lethality of hatred."
190
677000
5000
제 표현을 빌리자면 점차 강화되는 증오의 치명성이 한 가지 이유죠
11:22
More and more, it's possible for grassroots hatred abroad
191
682000
4000
점점 더, 미국 밖의 대중의 증오가 미국 땅에서
11:26
to manifest itself in the form of organized violence on American soil.
192
686000
5000
조직화된 폭력의 형태로 나타날 가능성이 있습니다
11:31
And that's pretty new, and I think it's probably going to get a lot worse
193
691000
3000
꽤 새로이 나타나는 현상인데 상황은 더 많이 나빠질 것입니다
11:34
-- this capacity -- because of
194
694000
3000
정보기술의 추세나
11:37
trends in information technology, in technologies that can be used
195
697000
4000
군수품 공급을 목적으로 이용될 수 있는
11:41
for purposes of munitions like biotechnology and nanotechnology.
196
701000
6000
나노, 바이오 기술때문에 말입니다
11:47
We may be hearing more about that today.
197
707000
2000
오늘날 그런 것에 대해 더 듣게 될지 모릅니다
11:49
And there's something I worry about especially, which is that
198
709000
3000
그리고 특히 제가 걱정하는 무언가가 있는데,
11:52
this dynamic will lead to a kind of a feedback cycle that puts us on a slippery slope.
199
712000
6000
이 역동성이 우리를 미끄러운 경사에 놓는 일종의 피드백사이클에 가둘까 하는 점입니다
11:58
What I have in mind is: terrorism happens here; we overreact to it.
200
718000
3000
테러가 여기에 일어나고, 우리는 이에 과잉대응합니다
12:01
That, you know, we're not sufficiently surgical in our retaliation
201
721000
4000
우리는 보복에 있어 충분히 정확도를 기하지 않아요
12:05
leads to more hatred abroad, more terrorism.
202
725000
2000
이로인해 보다 많이 해외로부터 더 많은 증오와 테러를 일으킵니다
12:07
We overreact because being human, we feel like retaliating,
203
727000
4000
우리가 과잉 반응하는 이유는, 인간인 우리는 복수하고 싶기 때문입니다
12:11
and it gets worse and worse and worse.
204
731000
2000
그러면 상황은 더더욱 나빠지기만 합니다
12:13
You could call this the positive feedback of negative vibes,
205
733000
4000
이것을 부정적인 기운에 대한 긍적적인 반응이라고 보실 수도 있습니다
12:17
but I think in something so spooky,
206
737000
2000
하지만 어떤 무시무시한 이유로, 혹은 정확성을 기하기 위해서라도
12:19
we really shouldn't have the word positive there at all, even in a technical sense.
207
739000
3000
거기에 절대 긍정적이라는 단어를 써서는 안 된다고 생각합니다
12:22
So let's call it the death spiral of negativity.
208
742000
3000
그것을 부정성의 죽음의 소용돌이라고 부릅시다
12:25
(Laughter)
209
745000
2000
(웃음)
12:27
I assure you if it happens, at the end, both the West
210
747000
2000
확신 하건데, 그런 것이 일어나면 결국 서구와
12:29
and the Muslim world will have suffered.
211
749000
3000
이슬람 세계 모두가 고통받게 될 겁니다
12:32
So, what do we do? Well, first of all, we can do a lot more with arms control,
212
752000
6000
우리는 뭘 해야 합니까? 먼저 군비 통제에 있어 더 할 일이 많죠
12:38
the international regulation of dangerous technologies.
213
758000
2000
위험한 기술을 국제적으로 규제하는 것입니다
12:40
I have a whole global governance sermon
214
760000
2000
전 세계 지배구조를 두고 잔소리를 할 수 있지만
12:42
that I will spare you right now,
215
762000
2000
지금 당장은 하지 않겠습니다
12:44
because I don't think that's going to be enough anyway, although it's essential.
216
764000
3000
필수적이긴 하지만 어쨌든 충분하지 않을 거라 생각하니까요
12:47
I think we're going to have to have a major round
217
767000
2000
세계에 도덕적 진보가 한 바탕
12:49
of moral progress in the world.
218
769000
2000
일어나야 한다고 생각합니다
12:51
I think you're just going to have to see less hatred among groups,
219
771000
5000
집단 간 증오가 줄어야 하고
12:56
less bigotry, and, you know, racial groups, religious groups, whatever.
220
776000
6000
편견도 줄어야 한다고 생각합니다. 인종 그룹이나 종교 그룹이나 어디에서든요
13:02
I've got to admit I feel silly saying that.
221
782000
2000
말을 하면서 제가 바보같다 느낀다는 걸 인정해야 겠습니다
13:04
It sounds so kind of Pollyannaish. I feel like Rodney King, you know,
222
784000
3000
지나친 낙관주의자처럼 들리니까요. 마치 로드니 킹(LA흑인폭동의 발단) 같아요
13:07
saying, why can't we all just get along?
223
787000
2000
그는 '우린 왜 그냥 다 잘 어울리지 못해?'라고 했었죠
13:09
But hey, I don't really see any alternative, given the way I read the situation.
224
789000
6000
하지만 저는 상황을 봤을 때 정말 어떤 대안을 찾을 수가 없어요
13:15
There's going to have to be moral progress.
225
795000
3000
도덕적 진보가 이루어져야 합니다. 네
13:18
There's going to have to be a lessening of the amount of hatred in the world,
226
798000
4000
세계가 얼마나 위험해지는지를 보면
13:22
given how dangerous it's becoming.
227
802000
4000
세상에 증오가 반드시 줄어야 합니다
13:26
In my defense, I'd say, as naive as this may sound,
228
806000
3000
제 변론을 하자면, 순진하게 들릴지 모르지만
13:29
it's ultimately grounded in cynicism.
229
809000
3000
이런 생각은 궁극적으로 냉소주의를 바탕으로 합니다
13:32
That is to say --
230
812000
1000
바꿔 말하면 --
13:33
(Laughter)
231
813000
1000
(웃음)
13:34
-- thank you, thank you. That is to say, remember: my whole view
232
814000
5000
고맙습니다 기억하세요 도덕을 보는 저의 통합적인 관점은
13:39
of morality is that it boils down to self-interest.
233
819000
3000
그것이 결국엔 이기심이라는 겁니다
13:42
It's when people's fortunes are correlated.
234
822000
2000
사람들의 운명이 서로 관계될 때,
13:44
It's when your welfare conduces to mine, that I decide, oh yeah,
235
824000
3000
당신의 행복이 나의 행복을 이끌 때에 저는 생각하죠 그래
13:47
I'm all in favor of your welfare. That's what's responsible
236
827000
4000
나는 전적으로 당신이 행복하기를 바래,라고요
13:51
for this growth of this moral progress so far,
237
831000
3000
이것이 도덕적 진보를 이만큼 가능하게 한 것입니다
13:54
and I'm saying we once again have a correlation of fortunes,
238
834000
3000
그리고 우리는 다시 한번 서로의 운명에 상관관계를 가지고 있어요
13:57
and if people respond to it intelligently, we will see
239
837000
4000
만약 사람들이 이에 지성적으로 대응한다면,
14:01
the development of tolerance and so on --
240
841000
3000
사람들의 관용 등은 커지게 됩니다
14:04
the norms that we need, you know.
241
844000
3000
우리가 필요로 하는 규범도 마찬가지입니다
14:07
We will see the further evolution of this kind of business-class morality.
242
847000
4000
이러한 종류의 비즈니스 클래스 도덕성이 더 진화할겁니다
14:11
So, these two things, you know, if they get people's attention
243
851000
6000
그래서 이러한 두 가지가 사람들의 관심을 얻게 된다면
14:17
and drive home the positive correlation and people do what's in their self-interests,
244
857000
3000
긍정적인 상관관계를 잘 인식시키고 사람들이 그들의 이기심에 맞는 일을 한다면
14:20
which is further the moral evolution,
245
860000
4000
이것이 도덕적 진보를 더 이루게 할 것이고
14:24
then they could actually have a constructive effect.
246
864000
3000
그러면 실제로 건설적인 효과로 이어질 수 있습니다
14:27
And that's why I lump growing lethality of hatred
247
867000
3000
그리고 그것이 제가 깊어지는 증오의 치명성과
14:30
and death spiral of negativity under the general rubric,
248
870000
3000
부정성의 죽음의 소용돌이를 '쾌활해야 할 이유들'이라는
14:33
reasons to be cheerful.
249
873000
2000
일반적 제목 아래 둔 이유입니다
14:35
(Laughter)
250
875000
2000
(웃음)
14:37
Doing the best I can, OK.
251
877000
2000
저는 최선을 다하고 있습니다
14:39
(Laughter)
252
879000
1000
(웃음)
14:40
I never called myself Mr. Uplift.
253
880000
2000
저는 제 자신을 '쾌활'하다고 생각한 적 없습니다
14:42
I'm just doing what I can here.
254
882000
3000
여기서 할 수 있는 일을 하고 있을 뿐입니다
14:45
(Laughter)
255
885000
1000
(웃음)
14:46
Now, launching a moral revolution has got to be hard, right?
256
886000
3000
지금 도덕적 혁명을 일으키는 일은 어려울 것이 분명합니다 그렇죠?
14:49
I mean, what do you do?
257
889000
2000
그러니까, 무엇을 해야 합니까?
14:51
And I think the answer is a lot of different people
258
891000
2000
제 생각에 답은 많은 다양한 사람들이
14:53
are going to have to do a lot of different things.
259
893000
3000
많은 다양한 것들을 해야 한다는 겁니다
14:56
We all start where we are. Speaking as an American
260
896000
5000
모두는 우리 자리에서 시작해야 합니다
15:01
who has children whose security 10, 20, 30 years down the road
261
901000
4000
자녀를 둔 미국인으로서 아이들의 10-30년 후 안보를 걱정하는
15:05
I worry about -- what I personally want to start out doing
262
905000
3000
사람으로서, 개인적으로 제가 시작하고 싶은 것은
15:08
is figuring out why so many people around the world hate us, OK.
263
908000
4000
왜 그렇게 세계 많이 이들이 우리를 증오하는지를 이해하는 겁니다
15:12
I think that's a worthy research project myself.
264
912000
4000
가치있는 연구 프로젝트라고 제 자신은 생각합니다
15:16
I also like it because it's an intrinsically kind of morally redeeming exercise.
265
916000
5000
또한 그것이 본질적으로 도덕적 보상 활동이기 때문입니다
15:21
Because to understand why somebody
266
921000
2000
매우 다른 문화 속에 사는 어떤이가 왜 무언가를 하는지
15:23
in a very different culture does something --
267
923000
2000
이해하는 것은
15:25
somebody you're kind of viewing as alien,
268
925000
2000
당신에게 외국인인 누군가가
15:27
who's doing things you consider strange
269
927000
2000
당신이 이상하다고 생각하는 것을 하는
15:29
in a culture you consider strange -- to really understand why they do
270
929000
4000
당신이 이상하다고 생각하는 문화에 사는 누군가가
15:33
the things they do is a morally redeeming accomplishment,
271
933000
4000
그들이 왜 무언가를 하는지 정말 이해하는 건 도덕적 보상 성과이죠
15:37
because you've got to relate their experience to yours.
272
937000
2000
당신은 그들의 경험을 당신의 것과 관련지어야 하기 때문입니다
15:39
To really understand it, you've got to say, "Oh, I get it.
273
939000
4000
그것을 정말로 이해하기 위해 당신은 이렇게 말해야 합니다
15:43
So when they feel resentful, it's kind of like
274
943000
2000
"아, 알았어. 그 사람들이 분개하는 경우는
15:45
the way I feel resentful when this happens,
275
945000
2000
내가 이런 게 이러이러한 것이 일어날 때에 느끼는 분개감 같은거지
15:47
and for somewhat the same reasons." That's true understanding.
276
947000
4000
그리고 어느정도 똑같은 이유들 때문이지" 이러한 것이 진정한 이해입니다
15:51
And I think that is an expansion of your moral compass when you manage to do that.
277
951000
6000
그리고 당신이 이를 해내면 당신의 도덕적 한계가 확장됩니다
15:57
It's especially hard to do when people hate you, OK,
278
957000
3000
사람들이 당신을 증오할 때에는 이것이 특히 힘들죠
16:00
because you don't really, in a sense, want
279
960000
3000
왜냐하면 당신은
16:03
to completely understand why people hate you.
280
963000
2000
사람들이 당신을 증오하는 이유를 완전히 이해하길 원하진 않기 때문이죠
16:05
I mean, you want to hear the reason, but you don't want to be able to relate to it.
281
965000
2000
이유는 듣고싶지만 그것과 관련지을 수 있길 원하진 않지요
16:07
You don't want it to make sense, right? (Laughter)
282
967000
2000
이해하고 싶지 않은 거죠 맞지요?
16:09
You don't want to say, "Well, yeah, I can kind of understand
283
969000
2000
이렇게 말하고 싶지는 않은 겁니다 "음, 그래,
16:11
how a human being in those circumstances
284
971000
2000
이런 상황에 있는 사람들이 어떻게
16:13
would hate the country I live in." That's not a pleasant thing,
285
973000
3000
내가 사는 나라를 증오할 수 있는지 이해할 것 같아" 기분 좋은 일이 아니니까요
16:16
but I think it's something that we're going to have to get used to and
286
976000
6000
하지만 제 생각에 우리가 익숙해져야 하는 것이 이것이며
16:22
work on. Now, I want to stress that to understand, you know --
287
982000
11000
우리가 해야하는 일입니다
16:33
there are people who don't like this whole business of understanding
288
993000
3000
강조하고픈 건, 이렇게 근본 이해 작업, 상황의 근본 이유와
16:36
the grassroots, the root causes of things; they don't want to know
289
996000
4000
왜 우리를 증오하는지를 이해하고 싶지 않은 이들이 있다는 겁니다
16:40
why people hate us. I want to understand it.
290
1000000
3000
저는 이해하고 싶습니다
16:43
The reason you're trying to understand why they hate us,
291
1003000
2000
왜 우릴 증오하는지 당신이 이해하려고 하는 이유는
16:45
is to get them to quit hating us. The idea
292
1005000
3000
우리를 향한 증오를 멈추도록 하기 위한 것입니다
16:48
when you go through this moral exercise of really coming to appreciate
293
1008000
4000
그들 인간성을 정말 제대로 인식하게되는 이러한 도덕적 작업을 거치면
16:52
their humanity and better understand them, is part of an effort
294
1012000
5000
이러한 도덕적 작업을 거치고 그들을 더욱 잘 이해하게 된다면,
16:57
to get them to appreciate your humanity in the long run.
295
1017000
2000
장기적으로는 그들이 당신 인간성을 제대로 인식할 수 있게 합니다
16:59
I think it's the first step toward that. That's the long-term goal.
296
1019000
4000
그것이 첫 번째 발걸음이라고 생각합니다 장기 목표이고요
17:03
There are people who worry about this, and in fact,
297
1023000
5000
이에 대해 걱정하는 사람들이 있습니다
17:08
I, myself, apparently, was denounced on national TV
298
1028000
5000
사실 저는 미국 티비 방송에서 비난받았습니다
17:13
a couple of nights ago because of an op-ed I'd written.
299
1033000
4000
두어 날 전에 있었던 일인데, 제가 쓴 논평 때문이었습니다
17:17
It was kind of along these lines, and the allegation was
300
1037000
2000
다음과 같은 부분에 대한 것이었는데 인용하자면,
17:19
that I have, quote, "affection for terrorists."
301
1039000
4000
제가 '테러리스트에 대한 애정'을 갖고 있다는 혐의였습니다
17:23
Now, the good news is that the person who said it was Ann Coulter.
302
1043000
3000
자 좋은 소식은 이 말을 한 사람이 앤 쿨터(미 보수논객)라는 겁니다
17:26
(Laughter)
303
1046000
2000
(웃음)
17:28
(Applause)
304
1048000
2000
(박수)
17:30
I mean, if you've got to have an enemy, do make it Ann Coulter.
305
1050000
2000
그러니까 당신이 적을 갖고 싶다면 앤 쿨터처럼 하세요
17:32
(Laughter)
306
1052000
1000
(웃음)
17:33
But it's not a crazy concern, OK, because understanding behavior
307
1053000
4000
하지만 그녀 말이 말도 안되는 우려는 아닙니다 행동을 이해하다보면
17:37
can lead to a kind of empathy,
308
1057000
2000
일종의 공감에 이를 수 있기 때문입니다
17:39
and it can make it a little harder to deliver tough love, and so on.
309
1059000
3000
그러면 엄한 태도나 다른 행동을 취하기 조금 어렵게 되죠
17:42
But I think we're a lot closer to erring on the side of not comprehending
310
1062000
7000
하지만 우리는 상황을 제대로 이해하지 않아 잘못하는 데 더 가깝다고 생각합니다
17:49
the situation clearly enough, than in comprehending it so clearly
311
1069000
4000
너무 분명히 이해해서
17:53
that we just can't, you know, get the army out to kill terrorists.
312
1073000
3000
테러리스트를 죽이려고 군을 보내지 못하는 것보다 말이죠
17:56
So I'm not really worried about it. So --
313
1076000
3000
저는 그것에 대해 정말 걱정하지 않습니다
17:59
(Laughter)
314
1079000
2000
(웃음)
18:01
-- I mean, we're going to have to work on a lot of fronts,
315
1081000
5000
그러니까 우리는 여러 측면을 작업해야 할 겁니다
18:06
but if we succeed -- if we succeed -- then once again,
316
1086000
7000
하지만 우리가 성공한다면 그러면 다시 한번
18:13
non-zero-sumness and the recognition of non-zero-sum dynamics
317
1093000
4000
논제로섬과 논제로섬의 역동성을 인식하는 것이
18:17
will have forced us to a higher moral level.
318
1097000
4000
우리를 더 높은 도덕적 차원으로 이미 옮겨 놓았을 겁니다
18:21
And a kind of saving higher moral level,
319
1101000
5000
보다 일종의 높은 차원의 도덕성에 도달하면
18:26
something that kind of literally saves the world.
320
1106000
2000
어떻게 표현하자면 문자 그대로 세계를 구하게 됩니다
18:28
If you look at the word "salvation" in the Bible --
321
1108000
3000
성경에서 세상을 구제하는 것을 보면
18:31
the Christian usage that we're familiar with --
322
1111000
3000
우리가 익숙한 기독교 관용법에서는
18:34
saving souls, that people go to heaven -- that's actually a latecomer.
323
1114000
3000
영혼을 구하고 사람들은 천국에 가고--늦게 도착하는 사람들이 그러죠
18:37
The original meaning of the word "salvation" in the Bible is about saving the social system.
324
1117000
6000
성경에서 구제라는 단어의 원래 사회제도를 구제하는 것을 의미합니다
18:43
"Yahweh is our Savior" means "He has saved the nation of Israel,"
325
1123000
3000
"야훼는 우리의 구제자"란 "그가 이스라엘을 구했다"는 의미입니다
18:46
which at the time, was a pretty high-level social organization.
326
1126000
3000
이스라엘은 그 당시 꽤 높은 차원의 사회 조직이었습니다
18:49
Now, social organization has reached the global level, and I guess,
327
1129000
4000
지금 사회 조직은 세계적 수준에 도달했습니다
18:53
if there's good news I can say I'm bringing you, it's just that
328
1133000
4000
좋은 소식이 있다면,지금 당신께 알려드리자면,
18:57
all the salvation of the world requires is the intelligent pursuit
329
1137000
6000
모든 세상 구제에 필수적인 것은
19:03
of self-interests in a disciplined and careful way.
330
1143000
6000
단련되고 신중한 방식의 지적 이기심 추구입니다
19:09
It's going to be hard. I say we give it a shot anyway
331
1149000
3000
어려울 겁니다 하지만 해보자고 말씀드리고 싶습니다
19:12
because we've just come too far to screw it up now.
332
1152000
3000
왜냐하면 지금 우린 망쳐버리기에 너무 멀리 와버렸기 때문이죠
19:15
Thanks.
333
1155000
2000
고맙습니다
19:17
(Applause)
334
1157000
2000
(박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7