Jonathan Haidt: The moral roots of liberals and conservatives

689,264 views

2008-09-18 ・ TED


New videos

Jonathan Haidt: The moral roots of liberals and conservatives

689,264 views ・ 2008-09-18

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: Joon Lee 검토: Young-ho Park
00:18
Suppose that two American friends are traveling together in Italy.
0
18948
3097
미국인 친구 두명이 이탈리아에서 여행을 하고 있다고 가정하죠.
00:22
They go to see Michelangelo's "David,"
1
22069
1925
그들은 미켈란젤로의 다비드상을
00:24
and when they finally come face-to-face with the statue,
2
24018
2630
찾아가서 그 동상 앞에 섰지요.
00:26
they both freeze dead in their tracks.
3
26672
1828
그들은 대리석상 앞에서 큰 충격을 받습니다.
00:28
The first guy -- we'll call him Adam --
4
28524
1867
아담이라는 이름의 첫번째 친구는
00:30
is transfixed by the beauty of the perfect human form.
5
30415
2720
완벽한 인체 조형미의 아름다움에 감탄하고 있습니다.
00:33
The second guy -- we'll call him Bill --
6
33785
1925
빌이라는 이름의 두번째 친구는
00:35
is transfixed by embarrassment, at staring at the thing there in the center.
7
35734
4454
동상의 가운데를 바라 보며 쑥스러워하고 있습니다.
00:40
So here's my question for you:
8
40998
1903
자 이제 제가 질문을 하나 드리죠.
00:42
Which one of these two guys was more likely to have voted for George Bush,
9
42925
3617
이 둘 중 누가 조지 부쉬를 찍었을까요?
00:46
which for Al Gore?
10
46566
1740
알 고어를 찍을 사람은요?
00:48
I don't need a show of hands,
11
48330
1384
손 드실 필요는 없습니다.
00:49
because we all have the same political stereotypes.
12
49738
2389
우리의 정치적 고정관념은 모두 비슷하니까요.
00:52
We all know that it's Bill.
13
52151
2155
부쉬에게 표를 주는 사람은 빌이겠지요.
00:54
And in this case, the stereotype corresponds to reality.
14
54330
3429
이 경우, 우리의 고정관념은 사실과 꽤 맞아 떨어집니다.
00:57
It really is a fact that liberals are much higher than conservatives
15
57783
3374
자유주의자들의 주요한 개인적 특성의 하나는 보수주의자들보다
01:01
on a major personality trait called openness to experience.
16
61181
3149
새로운 경험에 대해 훨씬 더 개방적이라는 거죠.
01:04
People who are high in openness to experience
17
64813
2111
새로운 경험에 개방적인 사람들은
01:06
just crave novelty, variety, diversity, new ideas, travel.
18
66948
3444
진기한 것, 다양성, 새로운 아이디어 및 여행을 무척 좋아하죠.
01:10
People low on it like things that are familiar,
19
70416
2237
개방성 지표가 낮은 사람들은 친숙하고, 안전하며, 믿을수 있는 것들을 좋아하죠.
01:12
that are safe and dependable.
20
72677
2420
이러한 개인적 특성을 이해하면
01:16
If you know about this trait,
21
76282
1383
01:17
you can understand a lot of puzzles about human behavior,
22
77689
2671
인간 행동의 많은 수수께끼를 풀 수 있죠.
예술가들이 회계사들과 왜 그리 다른지 이해할수 있고
01:20
like why artists are so different from accountants.
23
80384
2388
01:22
You can predict what kinds of books they like to read,
24
82796
2533
그 사람들이 어떤 종류의 책을 좋아할지
어떤 곳으로 여행하는 걸 좋아할지
01:25
what kinds of places they like to travel to
25
85353
2015
어떤 음식을 좋아할지 예측할 수 있죠.
01:27
and what kinds of food they like to eat.
26
87392
1917
이러한 특성을 이해하게 되면 여러분은
01:29
Once you understand this trait,
27
89333
1492
01:30
you can understand why anybody would eat at Applebee's,
28
90849
2605
왜 사람들이 애플비에서 음식을 먹는지 이해할 수 있죠. 물론 여러분은 그런 사람을 모르겠지만요.
01:33
but not anybody that you know.
29
93478
1478
01:34
(Laughter)
30
94980
5049
(웃음)
01:40
This trait also tells us a lot about politics.
31
100900
2342
이는 또한 정치에 대해서도 시사하는 바가 많습니다.
01:43
The main researcher of this trait, Robert McCrae,
32
103266
2389
이 분야의 저명한 연구가인 로버트 맥크레는 이렇게 말합니다.
01:45
says that "Open individuals have an affinity
33
105679
2347
개방적인 사람은 자유롭고 진보적이며 좌파적인 정치적 견해에 공감을 느끼고
01:48
for liberal, progressive, left-wing political views ..."
34
108050
2735
01:50
They like a society which is open and changing,
35
110809
2490
개방적이고 변화하는 사회를 좋아한다."
"그 반면, 폐쇄적인 사람들은 보수적이고 전통적이며 우파적인 성향을 가진다."
01:53
"... whereas closed individuals prefer
36
113323
1876
01:55
conservative, traditional, right-wing views."
37
115223
2126
01:57
This trait also tells us a lot about the kinds of groups people join.
38
117956
3246
이 특성은 사람들이 어떤 집단에 소속되려하는지도 설명해 주지요.
02:01
Here's the description of a group I found on the web.
39
121226
2489
여기 제가 인터넷에서 찾아낸 어떤 집단에 대한 설명이 있습니다.
02:03
What kinds of people would join
40
123739
1478
어떤 사람들이 세계적인 공동체에 가입해서
02:05
"a global community ... welcoming people from every discipline and culture,
41
125241
3752
전문 분야와 문화적 배경을 가리지 않고 사람들을 반기며
세계를 더 깊이 이해하기 위해 노력하며
02:09
who seek a deeper understanding of the world,
42
129017
2097
그러한 이해를 기초로 더 나은 미래를 만들려고 노력할까요?
02:11
and who hope to turn that understanding into a better future for us all"?
43
131138
3430
다름 아니라 TED 라는 사람들에 대한 설명이지요.
02:14
This is from some guy named Ted.
44
134592
1529
(웃음)
02:16
Well, let's see now.
45
136145
1152
자, 그럼 개방성을 근거로 누가 자유주의자가 되고
02:17
If openness predicts who becomes liberal,
46
137321
2834
02:20
and openness predicts who becomes a TEDster,
47
140179
2729
누가 TED 활동가가 될 것인지 예측할 수 있는지 살펴보죠.
02:22
then might we predict that most TEDsters are liberal?
48
142932
2500
과연 대다수의 TED 활동가들이 자유주의자라고 예측할 수 있을까요?
02:25
Let's find out.
49
145964
1151
알아봅시다.
여러분이 사회적 이슈에 대해 자유주의(좌파)나 중도좌파인지,
02:27
I'll ask you to raise your hand, whether you are liberal, left of center --
50
147139
3557
02:30
on social issues, primarily --
51
150720
1456
아니면 보수주의자인지, 아 그리고 여러분 중에
02:32
or conservative.
52
152200
1151
자유방임주의자(우파)도 상당수 있는 걸로
02:33
And I'll give a third option,
53
153375
1394
02:34
because I know there are libertarians in the audience.
54
154793
2545
알고 있으니 그것도 3번째 선택 사항으로 제시하지요.
자, 그럼 이제 손을 들어주세요.
02:37
So please raise your hand -- in the simulcast rooms too.
55
157362
2676
방송실에 계시는 분들도 조사에 동참해주세요.
자, 우리가 어떤 사람인지 보여줍시다.
02:40
Let's let everybody see who's here.
56
160062
1683
02:41
Please raise your hand if you'd say that you're liberal or left of center.
57
161769
3510
자신이 자유주의자(좌파) 또는 중도좌파라고 생각하시면 손을 들어주세요.
지금 손을 높이 들어주세요.
02:45
Please raise your hand high right now. OK.
58
165303
2069
02:47
Please raise your hand if you'd say you're libertarian.
59
167833
2671
자신이 자유방임주의자(우파)라고 생각한다면 손을 들어주세요.
02:50
OK. About two dozen.
60
170914
1964
24명 정도 되는군요.
02:53
And please raise your hand if you'd say you are right of center or conservative.
61
173234
4101
이번엔 자신이 보수주의자거나 중도 우파에 가깝다 여기면 손을 들어주세요.
하나, 둘, 셋, 넷, 다섯.. 대략 여덟에서 열분 정도군요.
02:57
One, two, three, four, five -- about eight or 10.
62
177359
4599
03:01
OK.
63
181982
1174
오케이, 좀 문제가 있네요.
03:03
This is a bit of a problem.
64
183745
1485
왜냐면, 우리(TED)의 목적은 세상을 이해하고--
03:06
Because if our goal is to seek a deeper understanding of the world,
65
186346
3526
세상을 더 깊이 이해하는 것인데 여기 모이신 분들의
03:09
our general lack of moral diversity here is going to make it harder.
66
189896
3711
도덕적 다양성의 결핍은 우리의 목적 달성을 힘들게 만들테니까요.
03:13
Because when people all share values, when people all share morals,
67
193631
3481
그 이유는, 사람들이 같은 가치관과 도덕관을 가지면
03:17
they become a team.
68
197136
1242
하나의 집단이 형성되며, 그 집단의 심리가 작용하며 열린
03:18
And once you engage the psychology of teams,
69
198402
2225
03:20
it shuts down open-minded thinking.
70
200651
2000
사고를 마비시키기 때문이지요.
03:25
When the liberal team loses,
71
205131
2271
2004년 대선에서 자유주의파가 졌을때도 그랬고,
03:27
[United States of Canada / Jesusland]
72
207426
1822
03:29
as it did in 2004, and as it almost did in 2000,
73
209272
2656
2000년도에 거의 그랬을때도 우리는 서로를 위안하지요.
03:31
we comfort ourselves.
74
211952
1354
03:33
(Laughter)
75
213330
1175
(웃음)
03:34
We try to explain why half of America voted for the other team.
76
214529
4248
우리는 미국 유권자의 절반이나 되는 사람이 다른 편을 찍은 이유는
03:38
We think they must be blinded by religion
77
218801
2917
종교에 눈이 멀었거나 아니면 바보라서 그렇다는 설명을 제시하지요.
03:41
[Post-election US map: America / Dumbf*ckistan]
78
221742
2239
03:44
or by simple stupidity.
79
224005
1329
(웃음)
03:45
(Laughter)
80
225358
1795
03:47
(Applause)
81
227177
2824
(박수)
03:50
(Laughter)
82
230025
6485
미국 유권자의 절반이 공화당을 찍은 이유가
03:56
So if you think that half of America votes Republican
83
236534
5133
04:01
because they are blinded in this way,
84
241691
2438
어리석기 때문이라고 생각하신다면
04:04
then my message to you is that you're trapped in a moral Matrix,
85
244153
3225
저는 여러분이 특정한 종류의 도덕적 매트릭스에 갇혀 있다고
04:07
in a particular moral Matrix.
86
247402
1402
말씀드리고 싶습니다.
04:08
And by "the Matrix," I mean literally the Matrix, like the movie "The Matrix."
87
248828
3675
네. 영화 매트릭스의 바로 그 매트릭스 말입니다.
04:12
But I'm here today to give you a choice.
88
252527
1985
영화에서처럼 여러분께 선택의 기회를 드리지요.
04:14
You can either take the blue pill and stick to your comforting delusions,
89
254536
4455
파란 약을 선택해서 지금처럼 편안한 환상속에 계속 있거나
빨간 약을 선택해서 도덕에 대한
04:19
or you can take the red pill,
90
259015
1413
04:20
learn some moral psychology
91
260452
1301
심리를 배우고 도적적 매트릭스를 벗어날 것인지 결정하세요.
04:21
and step outside the moral Matrix.
92
261777
1808
04:23
Now, because I know --
93
263609
1206
자, 그러면 아까도 보았지만
04:24
(Applause)
94
264839
3680
(박수)
04:28
I assume that answers my question.
95
268543
1724
네, 여러분이 대답을 하신 것으로 간주하겠습니다.
04:30
I was going to ask which one you picked, but no need.
96
270291
2493
어떤 약을 선택하실지 여쭤보려 했는데 그럴 필요가 없군요.
04:32
You're all high in openness to experience,
97
272808
2016
여러분은 개방성 지표가 높은 분들이며 무엇보다도
04:34
and it looks like it might even taste good, and you're all epicures.
98
274848
3200
빨간 약이 더 맛있어 보이니까요. 모두 미식가들이시군요.
자 그럼 모두 빨간약을 택했다고 가정하죠.
04:38
Anyway, let's go with the red pill, study some moral psychology
99
278072
2963
도덕 심리학에 대해 알아보고 그것이 의미하는 바를 검토해보죠.
04:41
and see where it takes us.
100
281059
1248
가장 기초부터 얘기해보겠습니다.
04:42
Let's start at the beginning: What is morality, where does it come from?
101
282331
3394
도덕은 대체 무엇이고 어떻게 생겨난걸까요?
04:45
The worst idea in all of psychology
102
285749
1702
모든 종류의 심리학에서 가장 틀린
04:47
is the idea that the mind is a blank slate at birth.
103
287475
2524
아이디어는 사람들이 백지상태의 마음으로 태어난다는 것이지요.
04:50
Developmental psychology has shown that kids come into the world
104
290023
3024
하지만 발달 심리학의 연구에 의하자면
막 태어난 신생아들은 이미
04:53
already knowing so much about the physical and social worlds
105
293071
2941
물리적 세계와 사회적 세계에 대해 상당히 많은 것을 알고 있으며
04:56
and programmed to make it really easy for them to learn certain things
106
296036
4188
어떤것은 쉽게 배울 수 있고 어떤것은 배우기가 힘들게
05:00
and hard to learn others.
107
300248
1428
프로그램돼 있다고 하지요.
05:01
The best definition of innateness I've seen,
108
301700
2171
인간의 선천성을 가장 잘 정의하는 동시에 여러가지를
05:03
which clarifies so many things for me,
109
303895
1817
가장 뚜렷이 설명해 준다고 제가 생각하는 것은
05:05
is from the brain scientist Gary Marcus.
110
305736
1915
뇌과학자 개리 마커스가 한 다음과 같은 말이지요.
05:07
He says, "The initial organization of the brain
111
307675
2210
"두뇌의 초기 조직은 경험에 크게 의존하지 않는다.
05:09
does not depend that much on experience.
112
309909
1969
05:11
Nature provides a first draft, which experience then revises.
113
311902
3359
자연은 초기 도안을 제공하고 후에 경험이 이를 수정한다.
05:15
'Built-in' doesn't mean unmalleable;
114
315285
1744
타고 난 본성은 변할 수 없는 것이 아니고,
05:17
it means organized in advance of experience."
115
317053
3010
세상 경험을 하기 전에 이미 그렇게 구조가 짜여져 있다."
05:20
OK, so what's on the first draft of the moral mind?
116
320087
2877
네. 그럼 도덕심의 초기 도안은 무엇일까요?
05:22
To find out, my colleague Craig Joseph and I read through the literature
117
322988
3687
그걸 찾기 위해서 저와 제 동료인 크랙 죠셉은
도덕에 대한 문화적 차이를 다루는 인류학
05:26
on anthropology, on culture variation in morality
118
326699
2302
분야와 진화 심리학 문헌을 보며
05:29
and also on evolutionary psychology,
119
329025
1778
일치되는 부분을 조사했지요.
05:30
looking for matches:
120
330827
1157
위의 분야의 학자들이 모든 문화, 그리고 심지어는 다른
05:32
What sorts of things do people talk about across disciplines
121
332008
2916
05:34
that you find across cultures and even species?
122
334948
2209
동물에서도 관찰한 공통 요소는 무엇일까요?
위의 두 전문분야는 5개의 요소에 크게 동의하는데.
05:37
We found five best matches, which we call the five foundations of morality.
123
337181
3660
그것을 우리는 도덕의 다섯가지 토대라고 부릅니다.
05:40
The first one is harm/care.
124
340865
1575
그 첫번째는 고통에 대한 배려입니다.
05:42
We're all mammals here, we all have a lot of neural and hormonal programming
125
342464
3591
우리는 모두 포유류이며 대량의 신경계 및 호르몬 프로그래밍에
05:46
that makes us really bond with others, care for others,
126
346079
2596
의해 서로 돌보고 애착을 느끼고, 특히 허약한 동료를 배려하고,
05:48
feel compassion for others, especially the weak and vulnerable.
127
348699
3001
약하고 상처받기 쉬운 사람들에게는 동정심을 느끼며
05:51
It gives us very strong feelings about those who cause harm.
128
351724
2952
가해자에게는 강한 적대감을 갖지요.
살펴보면 이 첫번째 도덕의 토대가 제가 TED 에서 접한
05:55
This moral foundation underlies about 70 percent
129
355197
2289
05:57
of the moral statements I've heard here at TED.
130
357510
2213
도덕적인 이야기의 약 70%를 차지하지요.
05:59
The second foundation is fairness/reciprocity.
131
359747
2559
두번째는 공정성과 상호호혜성이지요.
06:02
There's actually ambiguous evidence
132
362330
1749
사실 다른 동물간에 상호호혜성이 존재하는지를
06:04
as to whether you find reciprocity in other animals,
133
364103
2437
증명하기에는 증거가 좀 애매하지요.
06:06
but the evidence for people could not be clearer.
134
366564
2302
하지만 인간의 경우 의문의 여지가 없죠.
06:08
This Norman Rockwell painting is called "The Golden Rule" --
135
368890
2810
노만 로크웰이 그린 이 그림의 제목은 "황금률"입니다.
TED에서 카렌 암스트롱이 이것이
06:11
as we heard from Karen Armstrong, it's the foundation of many religions.
136
371724
3501
수많은 종교의 토대라고 언급한 바가 있지요.
06:15
That second foundation underlies the other 30 percent
137
375249
2479
이러한 두번째 도덕적 토대는 TED에서
06:17
of the moral statements I've heard here at TED.
138
377752
2198
언급된 도덕에 관련된 이야기의 약 30%를 차지하지요.
06:19
The third foundation is in-group/loyalty.
139
379974
1980
세번째는 자신이 속한 집단에 대한 충성심입니다.
06:21
You do find cooperative groups in the animal kingdom,
140
381978
2934
동물 세계에도 집단이 있고
--서로 협력하는 집단도 있죠--
06:24
but these groups are always either very small or they're all siblings.
141
384936
3370
하지만 동물 그룹들은 규모가 매우 적거나 구성원이 모두 형제간이지요.
06:28
It's only among humans that you find very large groups of people
142
388330
3048
거대한 수의 구성원이 서로 협력하는
06:31
who are able to cooperate and join together into groups,
143
391402
2904
집단은 인간 사회에만 존재합니다.
06:34
but in this case, groups that are united to fight other groups.
144
394330
3573
하지만 이 경우, 집단들은 서로 싸우기 위해 단결한 것이지요.
06:37
This probably comes from our long history of tribal living, of tribal psychology.
145
397927
3850
이것은 오랜 부족 생활 역사로 인한 부족 심리에 기인한 것일 지 모릅니다.
06:41
And this tribal psychology is so deeply pleasurable
146
401801
2983
부족에 속하는 것은 매우 즐거운
06:44
that even when we don't have tribes, we go ahead and make them,
147
404808
3003
경험이기 때문에 우리가 부족에
속하지 않으면 재미를위해서라도 부족을 만들지요
06:47
because it's fun.
148
407835
1235
06:49
(Laughter)
149
409094
3385
(웃음)
06:52
Sports is to war as pornography is to sex.
150
412503
2867
스포츠와 전쟁의 관계는 포르노와 섹스나 마찬가지죠.
06:55
We get to exercise some ancient drives.
151
415394
3721
고대로 부터 내려오는 본능적 욕구를 발휘하게 하니까요.
네번째는 권위에 대한 존경심입니다.
06:59
The fourth foundation is authority/respect.
152
419139
2015
07:01
Here you see submissive gestures
153
421178
1537
이 사진들은 두개의 매우 가까운 종의 복종 제스쳐를
07:02
from two members of very closely related species.
154
422739
2289
보여줍니다 -- 그러나 인간의 권위는 영장류와는 달리 반드시 권력이나
07:05
But authority in humans is not so closely based on power and brutality
155
425052
3715
07:08
as it is in other primates.
156
428791
1361
폭력에 의거한 것이 아니지요.
07:10
It's based on more voluntary deference and even elements of love, at times.
157
430176
3706
인간의 복종은 자발적인 존경에 더 의거하며
때로는 사랑도 이에 포함돼지요.
07:14
The fifth foundation is purity/sanctity.
158
434541
2060
다섯번째는 순결성과 신성함입니다.
07:16
This painting is called "The Allegory Of Chastity,"
159
436625
2521
이 그림의 제목은 "순결의 알레고리"입니다.
07:19
but purity is not just about suppressing female sexuality.
160
439170
2992
여기서 순결이란 여성의 성을 억압하는 것 만은 아니지요.
07:22
It's about any kind of ideology, any kind of idea
161
442186
2944
이것은 즉 자신의 몸으로 무엇을 하는 가를
07:25
that tells you that you can attain virtue by controlling what you do with your body
162
445154
3981
단속하고 자신의 몸 속에 넣는 것들을
관리함으로 덕을 함양할 수
있다는 모든 이념이나 아이디어를 말합니다.
07:29
and what you put into your body.
163
449159
1559
07:30
And while the political right may moralize sex much more,
164
450742
3281
정치적 우파는 주로 성(性)의 도덕성을 강조하는 한편
07:34
the political left is doing a lot of it with food.
165
454047
2349
좌파는 주로 음식의 도덕성을 강조하지요.
07:36
Food is becoming extremely moralized nowadays.
166
456420
2152
음식은 오늘날 매우 도덕적인 소재가 되고 있는데
07:38
A lot of it is ideas about purity,
167
458596
1631
대부분 그것은 얼마나 음식들이 순수한가에 대한 물음이고
07:40
about what you're willing to touch or put into your body.
168
460251
2786
만져도 괜찮은지 먹어도 괜찮은지를 따지고 있습니다.
07:43
I believe these are the five best candidates
169
463061
2891
저는 위의 다섯가지가 인간이
07:45
for what's written on the first draft of the moral mind.
170
465976
2634
타고 난 도덕성의 초기 도안이며 인간은 다른 모든 것을
07:48
I think this is what we come with, a preparedness to learn all these things.
171
468634
3657
배울 수 있도록
최소한 이들을 지니고 태어 났다고 생각합니다.
07:52
But as my son Max grows up in a liberal college town,
172
472315
3286
그런데 자유로운 대학촌에서 자라고 있는 제 아들 맥스의
07:55
how is this first draft going to get revised?
173
475625
2403
초기 도안은 자라며 어떻게 바뀔까요?
07:58
And how will it end up being different
174
478052
1830
그리고 그의 도덕성은 저희 도시에서 남쪽으로 60마일 떨어진
07:59
from a kid born 60 miles south of us, in Lynchburg, Virginia?
175
479906
3056
버지니아 린치버그에서 자라나는 아이와 어떻게 다르게 될까요?
08:02
To think about culture variation, let's try a different metaphor.
176
482986
3069
문화적 차이에 대한 비유를 하나 들어보지요.
인간의 마음 속에 정말로 다섯가지 도덕적 시스템이
08:06
If there really are five systems at work in the mind,
177
486079
2482
08:08
five sources of intuitions and emotions,
178
488585
1910
작용한다면, 즉 5개의 직관과 감정의
08:10
then we can think of the moral mind as one of those audio equalizers
179
490519
3198
원천이 있다면, 이것은 마치 인간의 도덕성이
다섯개의 채널이 있고 각 채널의 셋팅을 달리 설정할 수 있는
08:13
that has five channels,
180
493741
1151
08:14
where you can set it to a different setting on every channel.
181
494916
2877
오디오 이퀄라이저와 유사하다고 생각할 수 있겠지요.
동료인 브라이언 노젝, 제시 그래험과 함께 저는
08:17
My colleagues Brian Nosek and Jesse Graham and I
182
497817
2255
www.YourMorals.org 라는 홈페이지에서 설문조사를 해왔습니다.
08:20
made a questionnaire, which we put up on the web at www.YourMorals.org.
183
500096
4884
지금까지 3만명의 사람들이 조사에 응했고 여러분도 원한다면 하실수 있습니다.
08:25
And so far, 30,000 people have taken this questionnaire, and you can, too.
184
505004
3981
08:29
Here are the results from about 23,000 American citizens.
185
509009
4202
여기 그 결과가 있습니다.
보고 계시는 자료는 2만 3천명의 미국인들을 통해 얻은 것입니다.
08:33
On the left are the scores for liberals;
186
513235
1915
왼쪽에 자유주의자들의 통계치가 나와 있고
08:35
on the right, conservatives; in the middle, moderates.
187
515174
2537
오른쪽에 보수주의자가 있으며 중간에는 중도파입니다.
08:37
The blue line shows people's responses on the average of all the harm questions.
188
517735
3795
파란선은 모든 가해(加害)에 관련된
질문에 대한 사람들의 답의 평균치 입니다.
08:41
So as you see, people care about harm and care issues.
189
521554
2593
보시다시피 가해와 돌봄은 사람들의 관심사입니다.
08:44
They highly endorse these sorts of statements all across the board,
190
524171
3163
이 점은 자유주의자와 보수주의자가
모두 크게 중요시하는데 자유주의자들은 보수주의자 보다
08:47
but as you also see,
191
527358
1151
08:48
liberals care about it a little more than conservatives; the line slopes down.
192
528533
3728
약간 더 중요시하기 때문에 그래프가 우측에서 조금 내려가지요.
공정성도 그래프가 비슷하지요.
08:52
Same story for fairness.
193
532285
1375
08:53
But look at the other three lines.
194
533684
1622
이제 다른 세 항목에 대한 그래프를 보시죠.
08:55
For liberals, the scores are very low.
195
535330
1823
자유주의자들의 평가치는 매우 낮지요.
08:57
They're basically saying, "This is not morality.
196
537177
2240
이들 항목에 대한 자유주의자의 생각은 근본적으로 말해 "집단내의
08:59
In-group, authority, purity -- this has nothing to do with morality. I reject it."
197
539441
3860
권위, 순결성 이런건 도덕과는 전혀 관계가 없어서 인정할 수 없다"는 것이죠.
하지만 보수주의자 쪽으로 갈수록 이들을 더 중요시 하죠.
09:03
But as people get more conservative, the values rise.
198
543325
2485
그래서 자유주의자들은 도덕심에 대해 두개의 채널
09:05
We can say liberals have a two-channel or two-foundation morality.
199
545834
3113
혹은 두개의 도덕 토대를 가지고 있다고 말할수 있습니다.
09:08
Conservatives have more of a five-foundation,
200
548971
2099
보수주의자들은 다섯개 정도, 아니
다섯개의 채널을 가졌다고 말할 수 있겠죠.
09:11
or five-channel morality.
201
551094
1193
09:12
We find this in every country we look at.
202
552311
1958
다른 나라의 결과도 마찬가지죠.
캐나다인 1,100 명에게 조사한 결과입니다.
09:14
Here's the data for 1,100 Canadians. I'll flip through a few other slides.
203
554293
3495
다른 슬라이더들도 짧게 살펴보시죠.
09:17
The UK, Australia, New Zealand, Western Europe, Eastern Europe,
204
557812
2957
영국, 오스트레일리아, 뉴질랜드, 서유럽, 동유럽
09:20
Latin America, the Middle East, East Asia and South Asia.
205
560793
3513
라틴 아메리카, 중동, 동아시아와 남아시아에서도
09:24
Notice also that on all of these graphs,
206
564330
1912
좌파와 우파의 그래프를 보면
09:26
the slope is steeper on in-group, authority, purity,
207
566266
2803
집단 추종, 권위 숭상, 순결성에 현저한 차이가 있습니다.
09:29
which shows that, within any country,
208
569093
2712
이것을 보면 어떤 나라에서 던지 가해와 공정성에
09:31
the disagreement isn't over harm and fairness.
209
571829
2146
대해서는 사람들간에 차이가 없다는 것을 알 수 있죠.
09:33
I mean, we debate over what's fair,
210
573999
1711
우리들은 모두 무엇이 공정한가에 대해서는 논쟁을 할 수 있지만
09:35
but everybody agrees that harm and fairness matter.
211
575734
3270
가해행위 방지와 공정성이 중요하다는 것에는 모두 동의하지요.
09:39
Moral arguments within cultures
212
579028
2136
같은 문화권 이내에서 발생하는 도덕적 논쟁은
09:41
are especially about issues of in-group, authority, purity.
213
581188
3178
주로 집단 충성심, 권위와 복종, 그리고 순수성에 대한 것이지요.
09:44
This effect is so robust, we find it no matter how we ask the question.
214
584390
3411
이 시험 결과는 매우 뚜렷해서 질문 방식을 바꿔도 같은 결과가 나오죠.
09:47
In a recent study, we asked people,
215
587825
1673
최근 조사에서 우리는
09:49
suppose you're about to get a dog,
216
589522
1625
사람들에게 애완견을 한마리 선택해야 하는 상황을 주고
09:51
you picked a particular breed, learned about the breed.
217
591171
2594
응답자가 개를 한마리 고른 후
그 품종에 대한 정보를 주며 그 개는 독립적인
09:53
Suppose you learn that this particular breed is independent-minded
218
593789
3110
성향이 매우 강해서 자기 주인을 동등한 지위의 친구로
09:56
and relates to its owner as a friend and an equal.
219
596923
2349
여긴다는 말을 해줬다고 하죠.
09:59
If you're a liberal, you say, "That's great!"
220
599296
2104
당신이 자유주의자라면 "아, 잘됐다!" 하겠죠.
10:01
because liberals like to say, "Fetch! Please."
221
601424
2154
"물어다줘, 부탁할께." 라고 하는 사람들이니까요.
10:03
(Laughter)
222
603602
4609
(웃음)
10:08
But if you're a conservative, that's not so attractive.
223
608235
3014
하지만 보수주의자들은 그런 개에 별로 흥미가 없겠지요.
10:11
If you're conservative and learn that a dog's extremely loyal
224
611273
2859
보수주의자들은 개가 가족과 주인말을 잘 듣고
10:14
to its home and family
225
614156
1151
낯선 사람들에게 으르렁거려야 좋아합니다.
10:15
and doesn't warm up to strangers,
226
615331
1576
10:16
for conservatives, loyalty is good; dogs ought to be loyal.
227
616931
2771
보수주의자는 충성심을 좋아하고 개는 충성심이 강해야 한다고 생각하죠.
10:19
But to a liberal,
228
619726
1152
하지만 자유주의자들에게 그런 개는
10:20
it sounds like this dog is running for the Republican nomination.
229
620902
3059
공화당 공천 후보 처럼 보이겠지요.
10:23
(Laughter)
230
623985
1002
(웃음)
여러분들은 이제, "좋아.
10:25
You might say, OK, there are differences between liberals and conservatives,
231
625011
3586
자유주의자와 보수주의자의 차이는 알겠는데
10:28
but what makes the three other foundations moral?
232
628621
2288
왜 아래 세가지를 도덕이라고 하지?" 라고 물으실지 모르죠.
10:30
Aren't they the foundations of xenophobia, authoritarianism and puritanism?
233
630933
3530
그것들은 도덕의 토대라기보다는 그저 외국인 혐오증이나
권위주의 혹은 청교도주의의 토대가 아니냐는거겠죠.
10:34
What makes them moral?
234
634487
1155
어째서 그것들이 도덕이 되는걸까요?
10:35
The answer, I think, is contained in this incredible triptych from Hieronymus Bosch,
235
635666
3967
저는 그 대답은 히에로니무스 보쉬가 그린 "세속적 즐거움의 정원"
이라는 뜻있는 세 폭의 그림에 있다고 생각하지요.
10:39
"The Garden of Earthly Delights."
236
639657
1580
첫번째 그림은 창조의 순간을 묘사한 것입니다.
10:41
In the first panel, we see the moment of creation.
237
641261
2629
10:43
All is ordered, all is beautiful,
238
643914
1917
모든 것이 정돈되어 있으며 아름다우며 모든 사람과 동물들이
10:45
all the people and animals are doing what they're supposed to be doing,
239
645855
3342
각자의 소임을 다하며 본연의 모습에 충실한 모습을 보입니다.
10:49
are where they're supposed to be.
240
649221
1586
10:50
But then, given the way of the world, things change.
241
650831
2432
하지만 모든 세상사가 그렇듯이 시간이 지나며 상황이 달라지고
10:53
We get every person doing whatever he wants,
242
653287
2063
모든 사람과 동물이 육체적 욕망만을
10:55
with every aperture of every other person and every other animal.
243
655374
3052
추구하는 시대로 접어들어 가지요.
10:58
Some of you might recognize this as the '60s.
244
658450
2099
60대년가 연상될지 모르겠습니다.
11:00
(Laughter)
245
660573
1412
(웃음)
하지만 60년대가 70년대로
11:02
But the '60s inevitably gives way to the '70s,
246
662009
3428
11:05
where the cuttings of the apertures hurt a little bit more.
247
665461
3415
자리를 물려주며 만사가 악화되었지요.
11:08
Of course, Bosch called this hell.
248
668900
2154
당연하게도 보쉬는 이걸 지옥이라고 불렀습니다.
11:11
So this triptych, these three panels,
249
671078
4129
결국 이 세폭짜리 그림이 이야기하는바는
질서는 쇠하고 만다는 불변의 진리이지요.
11:15
portray the timeless truth that order tends to decay.
250
675231
4289
11:19
The truth of social entropy.
251
679544
1805
사회적 엔트로피가 증가한다는 진실이죠.
11:21
But lest you think this is just some part of the Christian imagination
252
681373
3291
혹시 여러분이 이 그림이 쾌락을 부정하는
11:24
where Christians have this weird problem with pleasure,
253
684688
2584
어떤 괴상한 기독교적 사고방식의 산물이라고
생각하기 전에 다른 분야에서 똑같은 예를 들어보지요.
11:27
here's the same story, the same progression,
254
687296
2062
11:29
told in a paper that was published in "Nature" a few years ago,
255
689382
2969
네이쳐지에 몇년전에 실렸던 게임 이론에 대한 논문에서
11:32
in which Ernst Fehr and Simon Gächter had people play a commons dilemma,
256
692375
3997
경제학자 에른스트 페르와 사이먼 괴히터가 딜레머에 대한 연구를 했지요.
11:36
a game in which you give people money,
257
696396
1910
이 게임이 시작할때 참가자들은 일정량의 돈을 받고.
11:38
and then, on each round of the game,
258
698330
1718
게임의 판마다 참가자들은 돌아가며
11:40
they can put money into a common pot,
259
700072
2033
각자 원하는 만큼의 돈을 저금통에 넣지요.
11:42
then the experimenter doubles what's there,
260
702129
2008
게임이 한판 끝나면 실험자는 저금통에 있는 돈의 2배를
11:44
and then it's all divided among the players.
261
704161
2052
참가자들에게 공평하게 나눠줍니다.
11:46
So it's a nice analog for all sorts of environmental issues,
262
706237
2897
이 실험은 개인적인 희생을 치르지만
11:49
where we're asking people to make a sacrifice
263
709158
2098
정작 자신들이 덕보는 것은 별로 없는
11:51
and they don't really benefit from their own sacrifice.
264
711280
2579
여러가지의 환경 이슈와 비슷한 점이 많지요.
11:53
You really want everybody else to sacrifice,
265
713883
2061
우리는 모두 자기만 빼고 모든 사람들이 희생하기를
11:55
but everybody has a temptation to free ride.
266
715968
2056
바라는데 다른 사람들도 똑 같은 생각을 가지고 있지요.
이 실험에서는 누가 얼마를 내는지 모르게 했는데
11:58
What happens is that, at first, people start off reasonably cooperative.
267
718048
3392
12:01
This is all played anonymously.
268
721464
1842
사람들은 초기에는 비교적 협력적이어서
12:03
On the first round, people give about half of the money that they can.
269
723330
3550
첫 판에서는 사람들이 낼 수 있는 돈의 약 절반을 냈지요.
12:06
But they quickly see other people aren't doing so much.
270
726904
2670
하지만 곧 깨닫게 되죠. "뭐야, 다른 사람들은 나만큼 안 내잖아.
12:09
"I don't want to be a sucker. I won't cooperate."
271
729598
2312
나만 바보처럼 굴수는 없지. 더 이상 협조하지 않겠어."
12:11
So cooperation quickly decays
272
731934
1442
결국 초기의 협동심은 재빨리 사라지고 아무도 돈을 내지 않게 됩니다.
12:13
from reasonably good down to close to zero.
273
733400
2565
12:15
But then -- and here's the trick --
274
735989
1680
이제 이 실험의 흥미로운 부분이 시작됩니다.
12:17
Fehr and Gächter, on the seventh round, told people,
275
737693
2432
7번째 판이 되면 페르와 괴히터 교수가 사람들에게 알리지요.
"새로운 규칙입니다.
12:20
"You know what? New rule.
276
740149
1208
12:21
If you want to give some of your own money
277
741381
2135
원하는 사람은 게임에 협조하지 않는
12:23
to punish people who aren't contributing,
278
743540
2509
사람들을 처벌하는데 돈을 쓸 수 있습니다."
12:26
you can do that."
279
746073
1355
12:27
And as soon as people heard about the punishment issue going on,
280
747452
3410
처벌이라는 말을 하자마자 사람들은
12:30
cooperation shoots up.
281
750886
1226
갑자기 협력하기 시작는데
12:32
It shoots up and it keeps going up.
282
752136
1689
그 협력은 계속 늘어나죠.
12:33
Lots of research shows that to solve cooperative problems, it really helps.
283
753849
3535
처벌이 협력에 도움을 준다는 것을 보여주는 많은 연구가 있지요.
12:37
It's not enough to appeal to people's good motives.
284
757408
2405
사람들의 선량함에 호소하는 것만으론 부족하다는거죠.
12:39
It helps to have some sort of punishment.
285
759837
1977
어떤 형태로건 처벌이 필요하죠.
12:41
Even if it's just shame or embarrassment or gossip,
286
761838
2391
큰 집단 내의 사람들이 협동하게 만들려면 하다못해
수치심을 주거나 무안하게 만들거나 또는 뒷공론을
12:44
you need some sort of punishment
287
764253
1540
12:45
to bring people, when they're in large groups, to cooperate.
288
765817
2813
하는 것이더라도 처벌이 필요하지요.
12:48
There's even some recent research suggesting that religion --
289
768654
2940
일부 최근 연구들은 신을 생각하게 만드는
12:51
priming God, making people think about God --
290
771618
2144
종교가 여러 상황에서
12:53
often, in some situations, leads to more cooperative, more pro-social behavior.
291
773786
4168
사람들을 더 협력적이며 친사회적인 행동으로 이끈다고 제시했지요.
12:58
Some people think that religion is an adaptation
292
778574
2240
일부 사람들은 종교는 사람들이
13:00
evolved both by cultural and biological evolution
293
780838
2292
서로 신뢰할 수 있고 다른 집단들과
13:03
to make groups to cohere,
294
783154
1726
보다 더 효과적으로 경쟁할 수 있도록
13:04
in part for the purpose of trusting each other
295
784904
2198
그룹들을 응집시키는 문화적 및 생물학적인
13:07
and being more effective at competing with other groups.
296
787126
2632
진화의 소산물이라고 생각하지요.
13:09
That's probably right, although this is a controversial issue.
297
789782
2912
이것은 쟁점적인 이슈이지만
그럴듯한 말이라고 생각합니다.
13:12
But I'm particularly interested in religion and the origin of religion
298
792718
3357
저는 종교의 기원, 영향 및
유용성에 특히 관심을 가지고 있습니다.
13:16
and in what it does to us and for us,
299
796099
2086
저는 세계에서 가장 경이스러운 것은 그랜드 캐년이 아니라고 생각합니다.
13:18
because I think the greatest wonder in the world is not the Grand Canyon.
300
798209
3447
13:21
The Grand Canyon is really simple --
301
801680
1828
그랜드 캐년은 사실 아주 단순하지요.
13:23
a lot of rock and a lot of water and wind and a lot of time,
302
803532
3171
그냥 많은 바위에 오랜 시간에 걸쳐 대량의 물과 바람을 주면
13:26
and you get the Grand Canyon.
303
806727
1393
그랜드 캐년을 만들 수 있지요.
13:28
It's not that complicated.
304
808144
1241
별로 복잡할게 없습니다.
13:29
This is what's complicated:
305
809409
1290
정말로 복잡한 것은 사람들이
13:30
that people lived in places like the Grand Canyon, cooperating with each other,
306
810723
3849
그랜드 캐년, 아프리카의 사바나 초원,
또는 얼어붙은 알라스카의 해안에서
13:34
or on the savannahs of Africa or the frozen shores of Alaska.
307
814596
2877
협력해서 살다가 그런 마을들의 일부가
13:37
And some of these villages grew into the mighty cities of Babylon
308
817497
3351
바빌론이나 로마, 테노치티틀란처럼 강력한 도시로 발전하는 것이죠.
13:40
and Rome and Tenochtitlan.
309
820872
1434
13:42
How did this happen?
310
822330
1151
어떻게 이런 일이 가능할까요?
13:43
It's an absolute miracle, much harder to explain than the Grand Canyon.
311
823505
3363
이거야말로 기적입니다. 그랜드 캐년은 이에 비하면 아무 것도 아니죠.
13:46
The answer, I think, is that they used every tool in the toolbox.
312
826892
3093
그 대답은 제가 보기에 사람들이 연장통에 있는 도구를 모두 사용했다는 것입니다.
그와 같은 협력 단체를 만들기 위해
13:50
It took all of our moral psychology to create these cooperative groups.
313
830009
3352
그들의 모든 도덕 심리를 총동원 했었겠지요.
13:53
Yes, you need to be concerned about harm, you need a psychology of justice.
314
833385
3572
네, 타인에게 피해를 주지 않아야 하고
정의심 역시 필요하지요.
13:56
But it helps to organize a group if you have subgroups,
315
836981
2604
그러나 우리가 사람들이 육욕을 억제하고
13:59
and if those subgroups have some internal structure,
316
839609
2697
좀 더 높은 차원의 목적을 추구하게 만드는
14:02
and if you have some ideology that tells people
317
842330
2239
내적 구조 및 사상을 가지게할수 있다면 그건
14:04
to suppress their carnality -- to pursue higher, nobler ends.
318
844593
3512
대도시를 형성하는데 정말로 큰 도움이 되죠.
바로 이 것이 자유주의자와
14:09
Now we get to the crux of the disagreement between liberals and conservatives:
319
849118
3706
보수주의자 간의 차이의 핵심적인 부분이지요.
14:12
liberals reject three of these foundations.
320
852848
2245
자유주의자는 이 세가지 토대를 거부하기 때문에
"다양성을 찬미해야지. 획일적인 집단은 좋지 않아." 라고 말합니다.
14:15
They say, "Let's celebrate diversity, not common in-group membership,"
321
855117
3340
"권위를 의심하자."라고 하며,
14:18
and, "Let's question authority," and, "Keep your laws off my body."
322
858481
3214
당신네의 율법을 나에게 강요하지 말라"고 말하지요.
14:21
Liberals have very noble motives for doing this.
323
861719
2249
자유주의자들의 이런 행동에는 매우 고결한 동기가 있지요.
14:23
Traditional authority and morality can be quite repressive and restrictive
324
863992
3550
전통적인 권위와 전통적인 도덕은 하위 계층의 사람이나 여성들
14:27
to those at the bottom, to women, to people who don't fit in.
325
867566
2867
리고 사회적 부적응자에게 매우 억압적이고 구속적 일 수 있기 때문입니다.
14:30
Liberals speak for the weak and oppressed.
326
870457
2012
즉, 자유주의자는 약자와 억압받는 자들을 위해 말하는거죠.
14:32
They want change and justice, even at the risk of chaos.
327
872493
2627
그들은 혼란을 감수하더라도 변화와 정의를 추구하죠.
이 남자의 셔츠에 쓰인 말처럼요. "불평은 그만두고 혁명을 일으켜라."
14:35
This shirt says, "Stop bitching, start a revolution."
328
875144
2494
14:37
If you're high in openness to experience, revolution is good; it's change, it's fun.
329
877662
3978
개방성 지표가 높은 사람들은, 혁명을 지지하겠죠.
색다르고 재미도 있을테니까요.
14:41
Conservatives, on the other hand, speak for institutions and traditions.
330
881664
3386
그 반면 보수주의자들은 제도와 전통을 추구하지요.
그들은 하위 계층의 피해를 감수하더라도 질서를 원하죠.
14:45
They want order, even at some cost, to those at the bottom.
331
885074
2787
14:47
The great conservative insight is that order is really hard to achieve.
332
887885
3348
보수주의의 가장 위대한 통찰은 사회적 질서가 참으로 달성하기 어려운 과제라는 것입니다.
질서는 매우 소중하고 매우 상실하기 쉬운 것이지요.
14:51
It's precious, and it's really easy to lose.
333
891257
2283
14:53
So as Edmund Burke said, "The restraints on men,
334
893564
2259
에드먼드 버크는 "인권에는 자유의 구속과 자유가 함께 고려돼야 한다"고 말한바 있지요.
14:55
as well as their liberties, are to be reckoned among their rights."
335
895847
3153
자유와 마찬가지로 그들의 권리로서 간주되어야 한다."
프랑스 혁명의 혼란 후에 그가 한 말이지요.
14:59
This was after the chaos of the French Revolution.
336
899024
2342
그래서 이제 여러분이
15:01
Once you see that liberals and conservatives
337
901390
2124
자유주의자와 보수주의자가 변화와 안정성의 균형을
15:03
both have something to contribute,
338
903538
1666
15:05
that they form a balance on change versus stability,
339
905228
3078
맞추는데 함께 기여하고 있음을 이해한다면 여러분은
15:08
then I think the way is open to step outside the moral Matrix.
340
908330
2976
도덕적 매트릭스를 벗어날 수 있다고 생각합니다.
15:11
This is the great insight
341
911979
1436
아시아의 모든 종교들은 이런 위대한 통찰력을 가졌죠.
15:13
that all the Asian religions have attained.
342
913439
2527
15:16
Think about yin and yang.
343
916330
1242
음양을 생각해보세요.
15:17
Yin and yang aren't enemies; they don't hate each other.
344
917596
2640
음과 양은 서로 적이 아닙니다. 음양은 서로를 미워하지 않습니다.
15:20
Yin and yang are both necessary, like night and day,
345
920260
2589
음과 양 모두 필요한 것이죠. 마치 밤과 낮처럼 말입니다.
15:22
for the functioning of the world.
346
922873
1593
세상이 제대로 굴러가기 위해선 말이죠.
15:24
You find the same thing in Hinduism.
347
924490
1726
힌두교에도 동일한 개념이 있습니다.
15:26
There are many high gods in Hinduism.
348
926240
1774
힌두교에 수많은 신들이 있는데
15:28
Two of them are Vishnu, the preserver, and Shiva, the destroyer.
349
928038
3015
그 중에서 비쉬누는 세계의 존속을 담당하고 시바는 파괴를 담당합니다.
15:31
This image, actually, is both of those gods
350
931077
2053
이 그림에는 이들 두 신이 같은 몸을 공유하고 있지요.
15:33
sharing the same body.
351
933154
1225
15:34
You have the markings of Vishnu on the left,
352
934403
2439
왼편에 비쉬누의 현신이 있는데
15:36
so we could think of Vishnu as the conservative god.
353
936866
2440
우린 비쉬누를 보수주의자의 신이라 생각할수 있겠죠.
15:39
You have the markings of Shiva on the right -- Shiva's the liberal god.
354
939330
3366
오른편에 시바의 현신이 있고
시바는 자유주의적 신이지만 이들은 같이 일하죠.
15:42
And they work together.
355
942720
1159
15:43
You find the same thing in Buddhism.
356
943903
1726
불교 역시 마찬가지입니다.
15:45
These two stanzas contain, I think, the deepest insights
357
945653
2625
이제 들려 드릴 법어에는 지금까지 도덕 심리학이 깨달은
가장 심오한 통찰이 담겨 있다고 생각합니다.
15:48
that have ever been attained into moral psychology.
358
948302
2390
15:50
From the Zen master Sēngcàn:
359
950716
2177
중국의 승찬 선사가 남긴 법어입니다.
15:52
"If you want the truth to stand clear before you, never be 'for' or 'against.'
360
952917
4103
"분명한 진리를 얻고자 한다면 결코 찬성하지도 반대하지도 말지어다.
찬성과 반대의 사이에서 번뇌하는데 마음의 가장 큰 병이 있다."
15:57
The struggle between 'for' and 'against' is the mind's worst disease."
361
957044
3320
16:00
Unfortunately, it's a disease that has been caught
362
960821
2718
오늘날 불운하게도 이 마음의 병에 걸린
세계의 지도자들이 많이 있습니다.
16:03
by many of the world's leaders.
363
963563
1492
하지만 조지 부쉬보다 여러분 자신이 낫다고 생각하며
16:05
But before you feel superior to George Bush,
364
965079
2091
16:07
before you throw a stone, ask yourself:
365
967194
2194
돌을 던지기 전에 승찬선사의 말을 받아드릴 수 있는지 자신에 물어보세요.
16:09
Do you accept this?
366
969412
1180
16:11
Do you accept stepping out of the battle of good and evil?
367
971418
3252
여러분은 과연 선과 악이 싸운다는 그 개념에서 벗어날수 있을까요?
16:14
Can you be not for or against anything?
368
974694
2443
찬성도 반대도 하지 않는 그 경지에 과연 도달할수 있을까요?
16:17
So what's the point? What should you do?
369
977842
2770
제 이야기의 요점이 무얼까요? 우리는 어떻게 처신해야 할까요?
16:20
Well, if you take the greatest insights
370
980636
2568
네. 여러분이 고대의 아시아 철학과
16:23
from ancient Asian philosophies and religions
371
983228
2104
종교에서 나온 위대한 통찰과
16:25
and combine them with the latest research on moral psychology,
372
985356
2937
도덕 심리학의 최근 연구 결과를 아울러 보면
다음과 같은 결론에 도달하게 될 것입니다.
16:28
I think you come to these conclusions:
373
988317
1810
올바르다 여겨지는 우리의 생각은 우리가 집단으로 연합하게 하는 동시에
16:30
that our righteous minds were designed by evolution
374
990151
3155
16:33
to unite us into teams,
375
993330
1657
다른 집단과 우리를 분리시키는 목적으로 진화되었는데
16:35
to divide us against other teams
376
995011
1541
16:36
and then to blind us to the truth.
377
996576
1700
이것은 우리가 진리를 찾지 못하게 우리의 눈을 가린다는 것입니다.
16:39
So what should you do?
378
999649
1917
그럼 어떻게 하라는 말인가요? 도덕을 추구하지 말라는 건가요?
16:41
Am I telling you to not strive?
379
1001590
1860
16:43
Am I telling you to embrace Sēngcàn and stop,
380
1003474
2704
제가 여러분께 승찬 선사의 말에 따라
16:46
stop with the struggle of for and against?
381
1006202
2870
찬성도 반대도 하지 말라는 건가요?
16:49
No, absolutely not. I'm not saying that.
382
1009096
2210
아니죠. 절대 아니죠. 그런 주장을 하는게 아닙니다.
16:51
This is an amazing group of people who are doing so much,
383
1011330
2976
여러분들은 각자의 재능과 재기, 그리고 에너지와 재력을
16:54
using so much of their talent,
384
1014330
1738
아끼지 않고 할애하여 이 세상을 좀 더 나은 곳으로 만들고,
16:56
their brilliance, their energy, their money,
385
1016092
2058
16:58
to make the world a better place,
386
1018174
1596
부정과 싸우고 우리가 당면한 문제를
16:59
to fight wrongs,
387
1019794
1731
해결하려고 많은 일을 하는 훌륭하신 분들입니다.
17:01
to solve problems.
388
1021549
1280
17:04
But as we learned from Samantha Power
389
1024186
2320
하지만 우리가 사만다 파워가 세르지오 비에이라 드 멜로에 대해
17:06
in her story about Sérgio Vieira de Mello,
390
1026530
4808
들려준 이야기를 통해 배운 것처럼, 무작정 사람들에게
17:11
you can't just go charging in, saying, "You're wrong, and I'm right,"
391
1031362
4245
"당신이 틀렸어. 내가 옳아."라고 말할 수는 없지요.
17:15
because, as we just heard, everybody thinks they are right.
392
1035631
3413
방금 들었듯이 사람들은 모두 자기가 옳다고 생각하기 때문이죠.
17:19
A lot of the problems we have to solve
393
1039068
1858
우리가 해결해야 할 수많은 문제들은
17:20
are problems that require us to change other people.
394
1040950
2497
다른 사람들을 설득시키지 않고는 해결될 수 없지요.
17:23
And if you want to change other people,
395
1043940
1943
다른 사람들을 설득시키는 더 좋은 방법은
17:25
a much better way to do it is to first understand who we are --
396
1045907
3158
우선 우리 자신이 누구인지 이해하고 즉 우리의 도덕 심리학을 이해하고
17:29
understand our moral psychology,
397
1049089
1638
17:30
understand that we all think we're right --
398
1050751
2596
사람들은 모두 자기측이 옳다고 생각한다는 사실을 이해한 후에
17:33
and then step out,
399
1053371
1263
17:34
even if it's just for a moment, step out -- check in with Sēngcàn.
400
1054658
3695
잠깐이라도 그 상황에서 벗어나 승찬 선사가 말한 바와 같이
17:38
Step out of the moral Matrix,
401
1058898
1408
도덕적 매트릭스의 세계에서 벗어나는 겁니다.
17:40
just try to see it as a struggle playing out,
402
1060330
2099
모든 사람은 다 자기가 옳다고 생각하며,
17:42
in which everybody thinks they're right, and even if you disagree with them,
403
1062453
3618
여러분이 동의하지 않는 사람들도 자기의
행동에 대한 나름의 이유를 가지고 있는데 우리는 그런
17:46
everybody has some reasons for what they're doing.
404
1066095
2364
상황하에서 서로 발버둥치고 있다고 생각할 수 있죠.
17:48
Step out.
405
1068483
1151
매트릭스에서 나가세요.
17:49
And if you do that, that's the essential move to cultivate moral humility,
406
1069658
3486
우리는 보통 자신만이 옳다고 생각하기 마련인데 그런 사고방식을
17:53
to get yourself out of this self-righteousness,
407
1073168
2202
벗어나 도덕적 겸손을
배양하는 것이 필수적이라고 저는 생각합니다.
17:55
which is the normal human condition.
408
1075394
1719
달라이 라마를 생각해보세요.
17:57
Think about the Dalai Lama.
409
1077137
1315
17:58
Think about the enormous moral authority of the Dalai Lama.
410
1078476
2830
달라이 라마에게서 느껴지는 엄청난 도덕적 권위를 생각해보세요.
18:01
It comes from his moral humility.
411
1081330
1777
그의 권위는 그의 도덕적 겸손함에서 나온 것입니다.
18:05
So I think the point --
412
1085028
1334
그래서 제가 하는 이야기의 요점은
18:06
the point of my talk and, I think, the point of TED --
413
1086386
4214
그리고 제가 생각하기에 TED의 요점은
18:10
is that this is a group that is passionately engaged
414
1090624
2682
TED는 보다 나은 세계를 만들려는
18:13
in the pursuit of changing the world for the better.
415
1093330
2477
열정을 가진 사람들의 모임이지요.
18:15
People here are passionately engaged
416
1095831
2002
여러분은 모두 지금보다 나은 세계를 만들기 위해
18:17
in trying to make the world a better place.
417
1097857
2031
열정을 다하는 분들입니다.
18:19
But there is also a passionate commitment to the truth.
418
1099912
2844
여러분들은 또한 진실의 추구를 위해서도 열정을 다하고 있지요.
18:23
And so I think the answer is to use that passionate commitment to the truth
419
1103329
4874
그렇기에 앞서 드린 제 질문의 답은 진실을 추구하는 우리의 열정을
우리의 보다 나은 미래를 만드는데 사용해야 한다는 것이죠.
18:28
to try to turn it into a better future for us all.
420
1108227
2843
18:31
Thank you.
421
1111094
1212
감사합니다.
18:32
(Applause)
422
1112330
5253
(박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7