아래 영문자막을 더블클릭하시면 영상이 재생됩니다.
번역: Hyoung Kyun Lee
검토: Gyoung-tae Kim
00:12
Philosophers, dramatists, theologians
0
12794
3556
철학자, 극작가, 신학자들은
00:16
have grappled with
this question for centuries:
1
16374
2206
수 세기동안 한 가지 질문에 매달렸습니다.
00:18
what makes people go wrong?
2
18604
1532
"무엇이 사람을 잘못된 길로 이끄는가?"
00:20
Interestingly, I asked this question
when I was a little kid.
3
20160
2976
어렸을때 저는 이런 생각을 했습니다.
00:23
I grew up in the South Bronx,
inner-city ghetto in New York,
4
23160
3056
전 뉴욕 시내 빈민가 사우스 브롱스에서
악에 둘러쌓인채 자라왔습니다.
00:26
and I was surrounded by evil,
5
26240
1483
00:27
as all kids are who grew up
in an inner city.
6
27747
2556
빈민가에서 자란 아이들이 모두 그렇듯이 말입니다.
00:30
And I had friends
who were really good kids,
7
30327
2325
저에겐 정말 착한 친구들이 있었는데
00:32
who lived out the Dr. Jekyll Mr. Hyde
scenario -- Robert Louis Stevenson.
8
32676
4292
그들은 결국 로버트 루이스 스티븐슨의 "지킬 박사와 하이드"처럼 살아갔습니다.
00:36
That is, they took drugs,
got in trouble, went to jail.
9
36992
3144
마약을 하고, 사고를 치고, 감옥에 갔죠.
00:40
Some got killed, and some did it
without drug assistance.
10
40160
3859
죽은 친구들도 있었고, 맨 정신에 나쁜 짓을 저지르기도 했지요.
00:44
So when I read Robert Louis Stevenson,
that wasn't fiction.
11
44448
2794
그러니 그 시절의 제게 "지킬 박사와 하이드"는 그냥 소설같은 이야기가 아니었지요.
00:47
The only question is,
what was in the juice?
12
47266
2224
그렇다면 의문이 생깁니다. 마약에 뭐라도 있었던 걸까요.
그리고 더 중요한 것은, 지식인들은 선과 악을 구분하는 선이
00:49
And more importantly, that line
between good and evil --
13
49514
3622
00:53
which privileged people like to think
is fixed and impermeable,
14
53160
3468
고정되어 있어 상대의 영역으로 넘어갈수 없다고 생각했지만,
00:56
with them on the good side,
the others on the bad side --
15
56652
2673
한 쪽을 선으로, 한쪽을 악으로 규정하는 그 선은
00:59
I knew that line was movable,
and it was permeable.
16
59349
3063
사실은 유동적이며 쉽게 통과할 수 있음을 알았습니다.
01:02
Good people could be
seduced across that line,
17
62436
2343
선한 사람은 반대의 것에 유혹당할 수 있으며
01:04
and under good and some rare
circumstances, bad kids could recover
18
64803
4204
또한 나쁜 아이도 아주 선한 환경 아래에선
도움과 교정을 통해 회복될 수 있다는 겁니다.
01:09
with help, with reform,
with rehabilitation.
19
69031
2296
01:12
So I want to begin
with this wonderful illusion
20
72160
2477
먼저 네덜란드 화가 M.C.에셔가 그린
01:14
by [Dutch] artist M.C. Escher.
21
74661
2274
이 멋진 착시그림을 보시죠.
01:16
If you look at it and focus on the white,
what you see is a world full of angels.
22
76959
3861
흰색에 초점을 맞춰 그림을 보면
천사들로 가득한 세계가 보입니다.
01:20
But let's look more deeply, and as we do,
23
80844
2568
하지만 좀 더 깊이있게 관찰하면
01:23
what appears is the demons,
the devils in the world.
24
83436
3021
바로 악마들의 모습을 볼 수 있죠.
01:26
That tells us several things.
25
86992
1381
이 그림은 여러가지 사실을 알려줍니다.
01:28
One, the world is, was, will always
be filled with good and evil,
26
88397
3108
첫째 : 세상은 과거부터 미래까지 언제나 선과 악으로 구성됩니다.
01:31
because good and evil is the yin and yang
of the human condition.
27
91529
3048
왜냐면 선과 악이란 인간의 음과 양이니까요.
01:34
It tells me something else.
28
94601
1286
다른 이야기를 해보죠. 이거 혹시 아시나요?
01:35
If you remember,
God's favorite angel was Lucifer.
29
95911
3028
신이 가장 총애하던 천사는 루시퍼였습니다.
01:39
Apparently, Lucifer means "the light."
30
99449
2438
루시퍼는 바로 "빛"을 의미하죠.
01:41
It also means "the morning star,"
in some scripture.
31
101911
2726
성서에선 "샛별"을 의미하기도 하지요.
01:44
And apparently, he disobeyed God,
32
104661
3205
그런 그가 신의 뜻을 거스릅니다.
01:47
and that's the ultimate
disobedience to authority.
33
107890
2492
이는 권위에 대한 전면 불복종을 의미합니다.
01:50
And when he did, Michael, the archangel,
was sent to kick him out of heaven
34
110406
5498
그래서 신은 대천사 미카엘을 보내
다른 타락천사들과 그를 천국에서 내쫓게 되죠.
01:55
along with the other fallen angels.
35
115928
2003
01:57
And so Lucifer descends into hell,
becomes Satan,
36
117955
3181
결국 루시퍼는 지옥으로 내려와 사탄이 되고
02:01
becomes the devil, and the force
of evil in the universe begins.
37
121160
3000
악마가 되어 지옥에는 악이 세력이 형성됩니다.
다시 말해, 지옥을 만들어 악을 담아둔 것은 결국 신이었습니다.
02:04
Paradoxically, it was God
who created hell as a place to store evil.
38
124184
4469
02:09
He didn't do a good job
of keeping it there though.
39
129136
2381
비록 그가 지옥에 악을 잘 담아둔 것도 아닙니다만,
어쨌든 신이 가장 총애한 천사가 악마가 되어버린
02:11
So, this arc of the cosmic transformation
of God's favorite angel into the Devil,
40
131541
4589
이 거대한 질서의 변화를 보면,
저는 이것이 착하고 평범한 사람이
02:16
for me, sets the context
for understanding human beings
41
136154
3644
02:19
who are transformed from good,
ordinary people into perpetrators of evil.
42
139822
4314
사악한 범죄자가 된다는 인간의 본질을 이해하는
배경이라고 생각합니다.
02:24
So the Lucifer effect,
although it focuses on the negatives --
43
144737
4027
결국 루시퍼 효과는 인간의 부정적 변화,
02:28
the negatives that people can become,
44
148788
2655
즉, 현재 부정적인 상태가 아니라
02:31
not the negatives that people are --
45
151467
1962
부정적으로 변하게 된다는 것이며
이로서 심리학적 정의를 내릴 수 있습니다. 악이란 바로 힘의 행사입니다.
02:33
leads me to a psychological definition.
46
153453
3354
02:36
Evil is the exercise of power.
47
156831
1973
02:38
And that's the key: it's about power.
48
158828
2239
핵심은 결국 힘이죠.
다른 이의 마음을 다치게 하거나,
02:41
To intentionally harm
people psychologically,
49
161091
2565
02:43
to hurt people physically,
to destroy people mortally, or ideas,
50
163680
3730
사람을 다치게 하거나, 목숨을 앗아가거나, 혹은 사상을 파괴시키고,
02:47
and to commit crimes against humanity.
51
167434
2194
인간성을 버리고 범죄를 저지르는거죠.
02:51
If you Google "evil," a word that should
surely have withered by now,
52
171160
3286
구글에서 "악"이라는 평범한 단어를 검색하면,
02:54
you come up with 136 million hits
in a third of a second.
53
174470
3666
3분의 1초 만에 1억 3천 6백만개의 결과를 볼 수 있습니다.
02:58
A few years ago -- I am sure
all of you were shocked, as I was,
54
178160
4498
몇 년전, 모두가 충격에 휩싸인 사건이 있었죠. 저도 그랬습니다만.
03:02
with the revelation of American soldiers
abusing prisoners in a strange place
55
182682
5454
바로 미군 병사들이 이라크의 아부그라이브라는
특수한 전쟁 상황 속에서
03:08
in a controversial war,
Abu Ghraib in Iraq.
56
188160
2976
죄수들을 학대한 사건이었죠.
03:11
And these were men and women
57
191160
2007
미군 병사들은 남녀 할 것 없이
죄수들에게 믿을수 없을 만큼의 굴욕감을 주었죠.
03:13
who were putting prisoners
through unbelievable humiliation.
58
193191
4287
03:18
I was shocked, but I wasn't surprised,
59
198136
1810
충격적이지만 사실 전 놀라진 않았습니다.
03:19
because I had seen
those same visual parallels
60
199970
2166
왜냐면 예전 스탠포드 감옥 실험의 감독자로서
03:22
when I was the prison superintendent
of the Stanford Prison Study.
61
202160
3402
이와 동일한 모습을 본 적이 있기 때문이죠.
03:25
Immediately the Bush
administration military said what?
62
205586
2715
사건 직후 부시 행정부에선 뭐라고 했던가요?
03:28
What all administrations say
when there's a scandal:
63
208681
2500
스캔들이 벌어지면 모든 정부기관은 이렇게 말합니다.
"우리를 탓하지 마. 이건 체계 문제가 아냐. 썪은 사과가 섞여있었을 뿐이지,
03:31
"Don't blame us. It's not the system.
64
211205
1850
03:33
It's the few bad apples,
the few rogue soldiers."
65
213079
2400
불량한 병사녀석들 말이야."
03:35
My hypothesis is,
American soldiers are good, usually.
66
215503
3031
전 미군 병사들은 착할거라고 가정합니다. 평상시에는요.
03:38
Maybe it was the barrel that was bad.
67
218558
2061
그 주변 환경이 나뻤을수도 있겠죠.
03:40
But how am I going to deal
with that hypothesis?
68
220643
2493
그렇다면 이 가정에 대한 답을 얻으려면 어떻게 해야 할까요?
03:43
I became an expert witness
for one of the guards,
69
223160
2520
이후에 저는
간수 중 한 명이었던 칩 프레더릭 병장의
03:45
Sergeant Chip Frederick,
and in that position,
70
225704
2143
감정인이 되어, 많은 수사 보고서들을 볼 수 있었습니다.
03:47
I had access to the dozen
investigative reports.
71
227871
2913
03:50
I had access to him.
72
230808
1800
직접 그에게 접근해서 관찰도 했었고,
03:52
I could study him, have him come
to my home, get to know him,
73
232632
3301
그를 알기 위해 저희 집으로 초대해서
03:55
do psychological analysis to see,
was he a good apple or bad apple.
74
235957
3407
그가 선량한 병사인가, 불량한 병사인가에 대해 심리 분석도 해봤습니다.
03:59
And thirdly, I had access
to all of the 1,000 pictures
75
239388
3911
또한 병사들이 당시에 찍은
04:03
that these soldiers took.
76
243323
1213
1,000여장의 사진을 볼 수 있었죠.
04:05
These pictures are
of a violent or sexual nature.
77
245025
2510
폭력적이고 선정적인 이 사진들은
04:07
All of them come from the cameras
of American soldiers.
78
247559
2959
전부 미군 병사들이 카메라로 찍은 것들입니다.
04:10
Because everybody has
a digital camera or cell phone camera,
79
250969
2859
다들 디지털카메라나 핸드폰카메라를 가지고
04:13
they took pictures of everything,
more than 1,000.
80
253852
2334
1,000장이 넘는 사진을 찍었던 겁니다.
04:16
And what I've done is I organized them
into various categories.
81
256210
2954
그래서 전 사진을 종류별로 나누어 봤습니다.
그런데 미군 헌병, 즉 예비군이 찍은 사진이 있었습니다.
04:19
But these are by United States
military police, army reservists.
82
259188
4939
04:24
They are not soldiers prepared
for this mission at all.
83
264637
3482
이들은 임무 수행을 위한 병사들이 아닙니다.
게다가 이 학대 사건은 전부 야간근무 시간에 1A구역에서 벌어졌죠.
04:28
And it all happened in a single place,
Tier 1-A, on the night shift.
84
268143
3673
04:31
Why?
85
271840
1201
왜냐면 1A 구역은 군 정보부의 핵심.
04:33
Tier 1-A was the center
for military intelligence.
86
273065
2602
04:35
It was the interrogation hold.
87
275691
1976
바로 취조실이었지요. 거기엔 CIA도 있었습니다.
04:37
The CIA was there.
88
277691
1201
04:38
Interrogators from
Titan Corporation, all there,
89
278916
3158
민간기업 Titan Corporation의 취조전문가도 있었는데
정작 반란사태에 대한 정보를 캐내진 못합니다.
04:42
and they're getting no information
about the insurgency.
90
282098
2786
04:44
So they're going to put pressure
on these soldiers,
91
284908
2470
그러자 상부에선 헌병들에게
더 강력하게 나가도록 압력을 가하며
04:47
military police, to cross the line,
92
287402
1720
04:49
give them permission to break
the will of the enemy,
93
289146
2990
포로 조약을 무시해도 좋다고 허가를 내려서
04:52
to prepare them for interrogation,
to soften them up,
94
292160
2477
포로들을 좀 더 협조하도록 만들게 합니다.
04:54
to take the gloves off.
95
294661
1226
이것은 완곡하게 표현을 한거지요.
04:55
Those are the euphemisms,
and this is how it was interpreted.
96
295911
3128
그래서 이들은 다음과 같이 실행에 옮깁니다.
04:59
Let's go down to that dungeon.
97
299794
1770
함께 감옥으로 들어가보죠.
(카메라 셔터 소리)
05:03
(Typewriting)
98
303445
1309
05:05
[Abu Ghraib Iraq Prison Abuses 2008
Military Police Guards' Photos]
99
305239
5548
05:11
[The following images include nudity
and graphic depictions of violence]
100
311248
6357
05:18
(Camera shutter sounds)
101
318338
1133
(둔탁한 소리)
05:39
(Thuds)
102
339173
1199
05:45
(Camera shutter)
103
345721
1059
(카메라 셔터 소리)
05:59
(Camera shutter)
104
359516
1190
(둔탁한 소리)
06:09
(Breathing)
105
369160
3669
(숨소리)
06:17
(Bells)
106
377160
1794
(종소리)
06:47
(Bells end)
107
407219
1366
06:49
So, pretty horrific.
108
409239
1786
참 끔찍하죠.
06:51
That's one of the visual
illustrations of evil.
109
411501
3807
이것이 바로 악의 일면입니다.
06:55
And it should not have escaped you
110
415332
1761
이 사진에서는 놓쳐서는 안되는 부분이 있습니다.
여기서 제가 팔을 쭉 뻗은 죄수를
06:57
that the reason I paired
the prisoner with his arms out
111
417117
3237
07:00
with Leonardo da Vinci's ode to humanity
112
420378
2758
레오나르도 다빈치의 인체도와 비교한 이유는
07:03
is that that prisoner was mentally ill.
113
423160
2582
죄수가 정신적으로 문제가 있었기 때문입니다.
07:05
That prisoner covered himself
with shit every day,
114
425766
2353
저 죄수는 매일 온 몸에 똥을 뒤집어 쓰고,
냄새가 나지 않기 위해 흙바닥을 굴렀습니다.
07:08
they had to roll him in dirt
so he wouldn't stink.
115
428143
2418
07:10
But the guards ended up
calling him "Shit Boy."
116
430585
2348
간수들은 그를 똥쟁이라고 불러댔죠.
07:12
What was he doing in that prison
rather than in some mental institution?
117
432957
4179
대체 왜 그는 정신치료 대신
저런 감옥에 있었을까요?
07:17
In any event, here's former
Secretary of Defense Rumsfeld.
118
437657
2715
이 사람은 바로 럼스펠드 전 국방부 장관입니다.
07:20
He comes down and says,
"I want to know, who is responsible?
119
440396
2810
현장에 와서 말했죠. "누구 책임이냐?
누가 썩은 사과냐?" 이건 잘못된 질문입니다.
07:23
Who are the bad apples?"
120
443230
1379
07:24
Well, that's a bad question.
121
444633
1408
이렇게 정정해야죠. "무엇이 원인이지?"
07:26
You have to reframe it and ask,
"What is responsible?"
122
446065
2621
07:28
"What" could be the who of people,
123
448710
1648
왜냐하면, 그 '원인'은 사람일 수도 있지만
07:30
but it could also be
the what of the situation,
124
450382
2537
동시에 상황이 될 수도 있는 겁니다.
07:32
and obviously that's wrongheaded.
125
452943
1686
사람 탓으로만 돌리다니, 이건 잘못된 생각입니다.
07:34
How do psychologists try to understand
such transformations of human character,
126
454653
3845
그렇다면 저들이 감옥에 있기 전엔
선한 군인이었다고 가정한다면,
07:38
if you believe
that they were good soldiers
127
458522
2000
과연 심리학자들은 저런 인성 변화를
07:40
before they went down to that dungeon?
128
460546
1810
어떻게 이해해야 할까요?
07:42
There are three ways.
The main way is called dispositional.
129
462380
2862
세 가지의 방법이 있습니다. 첫째는 개인의 성질을 보는 방법입니다.
사람 내면에 있는 썩은 사과를 보는거죠.
07:45
We look at what's inside
of the person, the bad apples.
130
465266
2870
07:48
This is the foundation
of all of social science,
131
468160
3311
이는 모든 사회과학의 근간입니다.
07:51
the foundation of religion,
the foundation of war.
132
471495
2660
종교나 전쟁의 근간이기도 하죠.
07:55
Social psychologists like me
come along and say,
133
475160
2239
저 같은 사회심리학자들은 이렇게 말합니다.
07:57
"Yeah, people are the actors on the stage,
134
477423
2119
"그래, 사람은 무대 위의 배우와 같다.
07:59
but you'll have to be aware
of the situation.
135
479566
2350
하지만 상황이라는 것을 이해해야 한다.
08:01
Who are the cast of characters?
What's the costume?
136
481940
2381
출연진은 누구며, 의상은 무엇이며,
08:04
Is there a stage director?"
137
484345
1459
연출자는 누구인가?"
08:05
And so we're interested in
what are the external factors
138
485828
2667
결국 우리가 눈 여겨 볼 것은 외부 요인,
08:08
around the individual -- the bad barrel?
139
488519
1976
개인 주변의 나쁜 환경입니다.
그런데 사회과학자들은 거기에 만족한 채
08:11
Social scientists stop there
and they miss the big point
140
491064
2647
08:13
that I discovered when I became
an expert witness for Abu Ghraib.
141
493735
3239
제가 아부그라이브 감정인으로서 얻은 핵심을 놓칩니다.
08:16
The power is in the system.
142
496998
1551
체계 내에 존재하는 '힘'에 대해 알아야 하죠.
08:18
The system creates the situation
that corrupts the individuals,
143
498573
3241
체계가 개인을 타락시키는 상황을 만드는 겁니다.
08:21
and the system is the legal, political,
economic, cultural background.
144
501838
4784
체계란 바로 법과 정치, 경제, 문화적 배경을 말하죠.
08:26
And this is where the power
is of the bad-barrel makers.
145
506646
3294
그것이 바로 나쁜 환경을 만드는 힘이라는 겁니다.
사람을 바꾸고 싶으면 결국 상황을 바꿔야 합니다.
08:30
If you want to change a person,
change the situation.
146
510299
2501
08:32
And to change it, you've got to know
where the power is, in the system.
147
512824
3389
만약 상황을 바꾸고 싶다면
바로 체계의 힘을 알아야 하죠.
결국 루시퍼 효과는 인성 변화에 대한
08:36
So the Lucifer effect
involves understanding
148
516237
2048
이 세가지 요소를 이해하는 것입니다.
08:38
human character transformations
with these three factors.
149
518309
4455
08:43
And it's a dynamic interplay.
150
523284
1389
이는 상호작용의 문제죠.
08:44
What do the people bring
into the situation?
151
524697
2066
사람이 상황에 어떤 영향을 끼치는가?
08:46
What does the situation bring out of them?
152
526787
2008
상황이 어떻게 사람을 변화시키는가?
08:48
And what is the system
that creates and maintains that situation?
153
528819
3317
그리고 상황을 만들고 유지하는 체계란 과연 무엇인가?
08:52
My recent book,
"The Lucifer Effect," is about,
154
532784
2284
최근 발간된 제 저서 "루시퍼 효과"는 선량한 사람이
악하게 변하는 것을 이해하기 위한 방법에 대해 다룹니다.
08:55
how do you understand
how good people turn evil?
155
535092
2239
08:57
And it has a lot of detail
about what I'm going to talk about today.
156
537355
3263
오늘 말씀드리는 내용의
세부적인 이야기들이 들어있죠.
09:01
So Dr. Z's "Lucifer Effect,"
although it focuses on evil,
157
541056
3080
저의 "루시퍼 효과" 이론이 악에 초점을 두긴 하지만,
09:04
really is a celebration of the human
mind's infinite capacity
158
544160
4160
본질은 바로 인간의 마음이 가진
무한한 능력을 축복하는 것입니다. 우리 중 어느 누구도 친절하거나 잔혹하거나,
09:08
to make any of us kind or cruel,
159
548344
2558
09:10
caring or indifferent,
creative or destructive,
160
550926
2522
남을 잘 돌보는/무관심한 성향을 갖거나, 창조적/파괴적일 수 있죠.
09:13
and it makes some of us villains.
161
553472
2278
그 중에는 악한이 되는 사람도 있죠.
09:15
And the good news that I'm going
to hopefully come to at the end
162
555774
3097
하지만 다행스럽게도
09:18
is that it makes some of us heroes.
163
558895
1767
그 중에는 영웅이 되는 사람도 있습니다.
이건 미국주간지 뉴요커에 나오는 만화의 한 장면인데,
09:21
This wonderful cartoon in the New Yorker
summarizes my whole talk:
164
561811
3549
제 강연 내용을 단번에 정리해주죠.
09:25
"I'm neither a good cop
nor a bad cop, Jerome.
165
565384
2143
"난 좋은 경찰도 아니고 나쁜 경찰도 아닙니다, 제롬.
09:27
Like yourself, I'm a complex amalgam
166
567551
1959
당신처럼 나도 그저
09:29
of positive and negative
personality traits
167
569534
2469
긍정적인 성격과 부정적인 성격이 섞인 복잡한 혼합체일 뿐입니다.
09:32
that emerge or not, depending
on the circumstances."
168
572027
3490
상황에 따라 그 성격이 나오기도 하고 나오지 않기도 하지요.."
09:35
(Laughter)
169
575541
1985
(웃음)
09:37
There's a study some of you
think you know about,
170
577550
2852
여러분들이 잘 아실법한 실험이 하나 있습니다.
09:40
but very few people
have ever read the story.
171
580426
2187
정확한 이야기를 읽어보신 분은 별로 없죠. 다들 영화로 보셨겠지요.
09:42
You watched the movie.
172
582637
1925
09:44
This is Stanley Milgram,
little Jewish kid from the Bronx,
173
584586
3349
이 사람은 브롱스 출신 유태인 스탠리 밀그램입니다.
09:47
and he asked the question,
"Could the Holocaust happen here, now?"
174
587959
3099
그가 물었습니다. "홀로코스트가 지금도 일어날 수 있을까?"
09:51
People say, "No, that's Nazi Germany,
Hitler, you know, that's 1939."
175
591082
3505
사람들은 "그건 나치군이나 할 수 있지.
2차대전에 히틀러나 할 수 있지."
09:54
He said, "Yeah, but suppose
Hitler asked you,
176
594611
2393
그래서 물었죠. "만약 히틀러가 당신더러 모르는 사람을
감전사 시키라고 지시한다면?" "그럴리가. 난 착해서 그런거 못해"
09:57
'Would you electrocute a stranger?'
'No way, I'm a good person.'"
177
597028
3170
10:00
He said, "Why don't
we put you in a situation
178
600222
2096
그러자 그는 "그렇다면 사람들이 그런 상황에 처하면
어떻게 되는지 봅시다."라고 했죠.
10:02
and give you a chance
to see what you would do?"
179
602342
2239
그래서 1,000명의 일반인을 대상으로 실험을 했습니다.
10:04
And so what he did was he tested
1,000 ordinary people.
180
604605
3085
10:07
500 New Haven, Connecticut,
500 Bridgeport.
181
607714
4067
뉴헤이븐에서 500명, 브릿지포트에서 500명.
구인광고에는 "심리학자들이 기억력에 대해 연구하려 합니다.
10:11
And the ad said, "Psychologists
want to understand memory.
182
611805
2715
10:14
We want to improve people's memory,
because it is the key to success."
183
614544
3294
인간의 기억력을 발전시키고자 합니다.
기억력이 바로 성공의 열쇠니까요."
10:17
OK?
184
617862
1200
"수고비로 시간 당 4달러를 드립니다."
10:20
"We're going to give you five bucks --
four dollars for your time.
185
620064
3985
10:24
We don't want college students.
We want men between 20 and 50."
186
624073
3454
"대학생들은 원치 않습니다.
20세에서 50세 사이의 남성을 원합니다."
10:27
In the later studies, they ran women.
187
627551
1762
-- 나중에는 여성을 대상으로도 실험을 했습니다.--
어쨌든 이발사, 점원, 사무직 같은 일반인이 모였습니다.
10:29
Ordinary people: barbers,
clerks, white-collar people.
188
629337
3073
10:32
So, you go down,
189
632434
1580
실험 방법은, 한 사람은 학생이 되고
10:34
one of you will be a learner,
one will be a teacher.
190
634038
2511
다른 사람은 선생이 되는 겁니다.
10:36
The learner's a genial, middle-aged guy.
191
636573
1905
이 학생은 온화한 중년 남성입니다.
10:38
He gets tied up to the shock
apparatus in another room.
192
638502
3109
방 안에서 쇼크 장치를 달고 있지요.
10:41
The learner could be middle-aged,
could be as young as 20.
193
641635
3568
학생은 중년은 물론 스무살 청년이 될 수도 있어요.
다른 한 사람은 연구복을 입고 관리자라는 존재가 됩니다.
10:45
And one of you is told by the authority,
the guy in the lab coat,
194
645227
3216
10:48
"Your job as teacher is to give him
material to learn.
195
648467
2615
"당신은 선생이 되어 이 남자를 학습시키는 겁니다.
10:51
Gets it right, reward.
196
651106
1214
맞추면 포상을 주고
10:52
Gets it wrong, you press
a button on the shock box.
197
652344
2391
틀리면 쇼크 기계의 버튼을 누르면 됩니다.
10:54
The first button is 15 volts.
He doesn't even feel it."
198
654759
2854
첫번째 버튼은 15볼트로, 느끼지도 못 합니다."
10:58
That's the key.
199
658160
1163
이게 핵심입니다. 악은 15볼트에서 시작한다는걸.
10:59
All evil starts with 15 volts.
200
659347
1789
11:01
And then the next step
is another 15 volts.
201
661160
2411
다음으로 넘어가면 15볼트씩 더하는 겁니다.
11:04
The problem is, at the end
of the line, it's 450 volts.
202
664009
2997
문제는, 끝까지 가면 450볼트라는 겁니다.
나중에 옆 방에서 남자가 소리치죠.
11:07
And as you go along, the guy is screaming,
203
667030
2106
11:09
"I've got a heart condition!
I'm out of here!"
204
669160
2191
"난 심장병이 있어! 내보내줘요!"
11:11
You're a good person. You complain.
205
671375
1706
착한 사람이라면 분명 항의를 하겠죠.
11:13
"Sir, who will be responsible
if something happens to him?"
206
673105
2856
"이봐요. 저 사람한테 문제 생기면 대체 누가 책임지죠?"
11:15
The experimenter says,
"Don't worry, I will be responsible.
207
675985
2763
연구원이 말합니다. "걱정마요. 내가 책임질테니
11:18
Continue, teacher."
208
678772
1329
계속하세요."
그렇다면 과연 누가 450볼트까지 진행할까요?
11:20
And the question is, who would go
all the way to 450 volts?
209
680125
3805
11:23
You should notice here,
when it gets up to 375,
210
683954
2576
여기 375 볼트를 보면 이렇게 적혀있습니다.
11:26
it says, "Danger. Severe Shock."
211
686554
1525
"위험 : 치명적 쇼크"
11:28
When it gets up to here, there's "XXX" --
the pornography of power.
212
688103
3340
그리고 마지막에는 XXX, 이건 포르노 급이란 뜻이죠.
11:31
So Milgram asks 40 psychiatrists,
213
691897
2110
(웃음)
밀그램은 40명의 정신과 의사에게 물었습니다.
"미국 국민들 중 과연 몇 명이나 끝까지 갈까요?"
11:34
"What percent of American citizens
would go to the end?"
214
694031
3105
11:37
They said only one percent.
215
697160
1501
의사들은 1%라고 답했습니다. 고통을 가하는 것은 일종의 가학적 행동이고,
11:38
Because that's sadistic behavior,
and we know, psychiatry knows,
216
698685
3566
정신과에선 미국인의 1%가 가학적이라고 믿으니까요.
11:42
only one percent
of Americans are sadistic.
217
702275
2092
11:44
OK.
218
704391
1200
결과는 이렇습니다. 의사들의 예측은 완전히 빗나갔습니다.
11:46
Here's the data.
They could not be more wrong.
219
706147
2606
11:48
Two thirds go all the way to 450 volts.
220
708777
2821
3분의 2가 450볼트까지 진행했습니다. 한 번의 실험으로요.
11:51
This was just one study.
221
711622
1514
11:53
Milgram did more than 16 studies.
222
713160
2284
그리고 밀그램은 16번 이상의 실험을 진행합니다. 보시죠.
11:55
And look at this.
223
715468
1233
16번 실험에선 끝까지 진행한 사람이
11:57
In study 16, where you see
somebody like you go all the way,
224
717491
2837
12:00
90 percent go all the way.
225
720352
1468
무려 90%입니다. 반면 5번 실험에선 90%가 거절했죠.
12:02
In study five, if you see people rebel,
226
722447
2188
12:04
90 percent rebel.
227
724659
1343
12:06
What about women?
Study 13 -- no different than men.
228
726772
2845
여성은 어떨까요? 13번 실험, 남성과 다를게 없습니다.
12:09
So Milgram is quantifying evil
as the willingness of people
229
729938
3541
밀그램은 맹목적으로 권위에 복종하여 기꺼이 450볼트까지 진행해버리는
12:13
to blindly obey authority,
to go all the way to 450 volts.
230
733503
2793
사람들을 통해 악을 측정했습니다.
12:16
And it's like a dial on human nature.
231
736606
2122
인간성에 대한 일종의 척도인 셈이죠.
12:18
A dial in a sense that you can make
almost everybody totally obedient,
232
738752
4384
사람 모두를 순종하게 만들 수 있다는 의미의
12:23
down to the majority, down to none.
233
743160
2690
척도인 것입니다.
실험은 인위적으로 이루어지죠. 실험실 밖에서도 유사한 일이 일어날까요?
12:26
What are the external parallels?
For all research is artificial.
234
746767
3000
12:29
What's the validity in the real world?
235
749791
1810
실제 사례가 있을까요?
1978년 가이아나 정글에서 912명의 미국인이
12:31
912 American citizens
committed suicide or were murdered
236
751625
3014
12:34
by family and friends
in Guyana jungle in 1978,
237
754663
2985
자살하거나 친인척에 의해 살해당했는데,
12:37
because they were blindly obedient
to this guy, their pastor --
238
757672
3030
자신들의 지도자에게 맹목적으로 복종했기 때문입니다.
12:40
not their priest -- their pastor,
Reverend Jim Jones.
239
760726
2707
성직자도 아니었던 바로 짐 존스 목사입니다.
사람들을 설득하여 자살하게 만들었죠.
12:43
He persuaded them to commit mass suicide.
240
763457
2796
12:46
And so, he's the modern Lucifer effect,
241
766277
1865
이 사람이야말로 현대식 루시퍼 효과입니다.
죽음의 천사가 된 신의 사나이죠.
12:48
a man of God who becomes
the Angel of Death.
242
768166
2852
12:52
Milgram's study is all about individual
authority to control people.
243
772662
4394
밀그램의 연구는 사람들을 통제하는 개인의 권력에 대해 다루고 있습니다
우리는 대부분의 시간을 여러 시설들 속에서 보내죠.
12:57
Most of the time, we are in institutions,
244
777793
2343
13:00
so the Stanford Prison Study
is a study of the power of institutions
245
780160
3537
스탠포드 감옥 실험 역시 시설에서의 권력관계가
13:03
to influence individual behavior.
246
783721
1940
개인의 행동에 미치는 힘에 대해 다루고 있습니다.
13:05
Interestingly, Stanley Milgram and I
were in the same high school class
247
785685
3604
흥미롭게도, 밀그램과 저는 1954년에 브롱스의
제임스 먼로 고등학교에서 같은 수업을 받았었지요.
13:09
in James Monroe in the Bronx, 1954.
248
789313
2704
13:13
I did this study
with my graduate students,
249
793136
2087
다음은 크레이그 헤이니를 포함한
제 대학원 학생들과 함께 진행한 실험으로,
13:15
especially Craig Haney --
and it also began work with an ad.
250
795247
2826
저희도 광고를 냈습니다.
돈이 없어서 값싸고 작은 광고를 냈었죠.
13:18
We had a cheap, little ad,
251
798097
1428
13:19
but we wanted college students
for a study of prison life.
252
799549
2752
감옥 생활을 연구하기위해 대학생들을 모집했습니다.
75명이 지원하여 성격 테스트를 거쳤죠.
13:23
75 people volunteered,
took personality tests.
253
803249
2440
13:25
We did interviews.
254
805713
1250
면담을 통해 24명을 뽑았습니다.
13:26
Picked two dozen: the most normal,
the most healthy.
255
806987
2446
지극히 평범하고 건강한 사람들로
13:29
Randomly assigned them
to be prisoner and guard.
256
809457
2267
무작위로 간수와 죄수로 나누었습니다.
13:31
So on day one, we knew we had good apples.
257
811748
2020
첫 날엔 다들 선량한 사람들이었죠.
13:33
I'm going to put them in a bad situation.
258
813792
1953
그래서 이들에게 안 좋은 상황을 주었습니다.
13:35
And secondly, we know
there's no difference
259
815769
2277
그런데 정작 간수역 학생들과
13:38
between the boys who will be guards
and those who will be prisoners.
260
818070
3342
죄수역 학생들이
차이가 없다는걸 알았습니다.
13:41
To the prisoners, we said,
261
821436
1526
그래서 죄수역 학생들에게
13:42
"Wait at home. The study
will begin Sunday."
262
822986
2126
"일요일에 실험을 재개할테니 숙소에서 기다려라"라고 했죠.
13:45
We didn't tell them
263
825136
1200
그리고 사전에 알리지 않은 채
13:46
that the city police were going
to come and do realistic arrests.
264
826360
3195
실제 경찰을 동원하여 그들을 체포해봤습니다.
13:49
(Video) (Music)
265
829579
1632
13:55
[Day 1]
266
835999
1200
영상 속 남자 : 순찰차가 와서는 경찰이 현관으로 다가왔어요.
14:23
Student: A police car pulls up in front,
and a cop comes to the front door,
267
863473
4974
14:28
and knocks, and says he's looking for me.
268
868471
1995
노크를 하고는 저를 찾더군요.
14:30
So they, right there, you know,
they took me out the door,
269
870490
2921
그리고 곧바로 저를 밖으로 데리고 나와서
14:33
they put my hands against the car.
270
873435
3498
제 손을 순찰차에 올리게 했어요.
14:36
It was a real cop car,
it was a real policeman,
271
876957
2201
실제 순찰차에 실제 경찰관이었어요.
14:39
and there were real
neighbors in the street,
272
879182
2063
이게 실험인 줄 모르는
실제 이웃들이 거리로 나와있었죠.
14:41
who didn't know
that this was an experiment.
273
881269
3026
14:44
And there was cameras
all around and neighbors all around.
274
884789
2754
제 주변엔 카메라와 이웃들로 가득했어요.
14:47
They put me in the car,
then they drove me around Palo Alto.
275
887567
3216
경찰은 절 차에 태운 후 팰로 앨토로 향했어요.
14:52
They took me to the basement
of the police station.
276
892338
4993
그리고 경찰서에 도착해서는
저를 지하에 있는 유치장에 가뒀습니다.
15:04
Then they put me in a cell.
277
904373
1394
15:05
I was the first one to be picked up,
so they put me in a cell,
278
905791
2918
그리곤 저를 첫번째로 감옥으로 데려갔는데
그 곳은 창살 문 달린 방에 가까웠죠.
15:08
which was just like a room
with a door with bars on it.
279
908733
2793
15:12
You could tell it wasn't a real jail.
280
912446
1794
진짜 감옥은 아니었지만,
허름한 옷을 입히고 거기에 가뒀습니다.
15:14
They locked me in there,
in this degrading little outfit.
281
914264
3762
15:18
They were taking
this experiment too seriously.
282
918770
2575
실험은 너무 진지하게 진행됐어요.
15:21
Here are the prisoners, who are going
to be dehumanized, they'll become numbers.
283
921369
3833
이들이 바로 비인간적으로 대해질 죄수입니다.
이름 대신 번호를 부릅니다.
이들은 힘과 익명성으로 무장한 간수입니다.
15:25
Here are the guards
with the symbols of power and anonymity.
284
925226
2892
이들은 죄수를 데리고
15:28
Guards get prisoners to clean the toilet
bowls out with their bare hands,
285
928142
3449
맨손으로 변기를 닦게하는 등
굴욕적인 일들을 시켰습니다.
15:31
to do other humiliating tasks.
286
931615
1472
온통 발가벗기고 성적으로 조롱했죠.
15:33
They strip them naked.
They sexually taunt them.
287
933111
2242
그리고 성행위를 흉내내게 하는 등
15:35
They begin to do degrading activities,
like having them simulate sodomy.
288
935377
3537
온갖 굴욕적인 행위들을 강제로 시켰죠.
15:38
You saw simulating fellatio
in soldiers in Abu Ghraib.
289
938938
3231
아부그라이브에서 오럴섹스를 흉내내게한 사진 보셨죠.
5일 만에 이렇게 됐습니다. 스트레스 반응은 극심해져
15:42
My guards did it in five days.
290
942193
1882
15:44
The stress reaction was so extreme
291
944495
1827
15:46
that normal kids we picked
because they were healthy
292
946346
2436
건강해서 뽑힌 이 청년들은
15:48
had breakdowns within 36 hours.
293
948806
1583
36시간만에 쇠약해집니다.
15:50
The study ended after six days,
because it was out of control.
294
950413
4025
결국 통제불능이라 6일만에 중단되었죠.
15:54
Five kids had emotional breakdowns.
295
954462
2130
5명의 청년은 신경쇠약에 빠졌습니다
15:58
Does it make a difference
296
958466
1453
전쟁터에 나가는 전사들이 외모를 바꾸는게
15:59
if warriors go to battle
changing their appearance or not?
297
959943
2725
과연 차이가 있을까요?
16:02
If they're anonymous,
how do they treat their victims?
298
962692
2753
익명성을 가진다는게
피해자를 다루는데 차이를 만들까요?
16:05
In some cultures, they go to war
without changing their appearance.
299
965469
3159
전쟁터에 나갈 때
외모를 바꾸지 않는 문화도 있지만,
한편으론 "파리대왕"처럼 분장하는 문화도 있습니다.
16:08
In others, they paint themselves
like "Lord of the Flies."
300
968652
2728
가면을 쓰기도 하고,
16:11
In some, they wear masks.
301
971404
1192
대부분은 유니폼을 통해 익명성을 얻지요.
16:12
In many, soldiers
are anonymous in uniform.
302
972620
2061
16:14
So this anthropologist, John Watson, found
23 cultures that had two bits of data.
303
974705
4697
인류학자 존 왓슨은
23개 문화를 두 갈래로 나누었습니다.
16:19
Do they change their appearance? 15.
304
979426
2339
외모를 바꾸는 문화? 15개.
16:21
Do they kill, torture, mutilate? 13.
305
981789
2307
죽이고, 고문하고, 토막내는 문화? 13개.
외모를 바꾸지 않는 문화는
16:24
If they don't change their appearance,
306
984400
1823
8개 중 1개 만이 상대를 죽이고 고문하고 토막냅니다.
16:26
only one of eight kills,
tortures or mutilates.
307
986247
2213
중요한건 붉은 부분입니다.
16:28
The key is in the red zone.
308
988484
1304
16:29
If they change their appearance,
309
989812
1565
외모를 바꾸는 문화는
13개 중 12개, 즉 90%가 상대를 죽이고 고문하고 토막냅니다.
16:31
12 of 13 -- that's 90 percent --
kill, torture, mutilate.
310
991401
3217
16:35
And that's the power of anonymity.
311
995136
1620
이것이 바로 익명성의 힘입니다.
16:36
So what are the seven social processes
312
996780
1905
그렇다면 악의 구렁텅이로 빠져드는
16:38
that grease the slippery slope of evil?
313
998709
1858
7단계 과정을 알아보죠.
16:40
Mindlessly taking the first small step.
314
1000591
2126
무관심한 시작.
16:42
Dehumanization of others.
De-individuation of self.
315
1002741
2642
상대의 비인간화. 자아의 탈개성화.
16:45
Diffusion of personal responsibility.
316
1005407
1902
개인의 책임 방기. 권력에의 맹목적 복종.
16:47
Blind obedience to authority.
317
1007333
1647
16:49
Uncritical conformity to group norms.
318
1009004
1894
집단에 대한 무차별적 순응.
16:50
Passive tolerance of evil
through inaction, or indifference.
319
1010922
3214
행동하지 않거나 관심을 끊음으로서 결과적으로 악을 수동적으로 용인함.
16:54
And it happens when you're
in a new or unfamiliar situation.
320
1014160
2858
이것은 여러분이 새롭고 낯선 상황에 처할 때 벌어집니다.
평상시의 반응 패턴은 쓸모없어지죠.
16:57
Your habitual response
patterns don't work.
321
1017042
2049
16:59
Your personality
and morality are disengaged.
322
1019115
2447
여러분의 성격과 도덕성은 무의미해집니다.
"악인을 비난하는 것만큼 쉬운게 없지만,
17:02
"Nothing is easier
than to denounce the evildoer;
323
1022803
2310
그를 이해하는 것만큼 여러운게 없다." -도스토예프스키의 말입니다.
17:05
nothing more difficult
than understanding him," Dostoyevsky.
324
1025137
3022
이해란 해명하는 것을 의미하는게 아닙니다. 심리학은 변명론이 아니죠.
17:08
Understanding is not excusing.
Psychology is not excuse-ology.
325
1028183
3572
17:12
So social and psychological
research reveals
326
1032219
2127
이렇게 사회심리학 연구는
선한 사람이 어떻게 마약 없이도 변할 수 있는가를 밝혀냅니다.
17:14
how ordinary, good people can be
transformed without the drugs.
327
1034370
3272
17:17
You don't need it. You just need
the social-psychological processes.
328
1037666
3301
이 사회심리학적 과정만 거치면 누구나 변할 수 있죠.
17:20
Real world parallels?
329
1040991
1695
현실 세계를 반영하나요? 이 사진과 이 사진을 비교해보세요.
17:22
Compare this with this.
330
1042710
2184
17:26
James Schlesinger --
I'm going to end with this -- says,
331
1046136
2688
마지막으로 제임스 슐레진저의 말을 들어보죠.
17:28
"Psychologists have attempted
to understand how and why
332
1048848
2599
"심리학자들은 그 동안 인도적으로 행동해온
17:31
individuals and groups
who usually act humanely
333
1051471
2429
개인과 집단이 어떻게 특정한 환경 속에서
17:33
can sometimes act otherwise
in certain circumstances."
334
1053924
3188
비 인도적으로 행동하는 이유를 이해하려 노력했다."
17:37
That's the Lucifer effect.
335
1057136
1239
바로 루시퍼 효과입니다.
17:38
And he goes on to say,
"The landmark Stanford study
336
1058399
2429
그리고는, "이 스탠포드 실험은 획기적이었고
17:40
provides a cautionary tale
for all military operations."
337
1060852
3920
모든 군사 작전에 교훈을 주었습니다."
17:44
If you give people power
without oversight,
338
1064796
2340
제대로 된 통제없이 개인에게 권력을 주는건
17:47
it's a prescription for abuse.
339
1067160
1483
폭력을 방조하는 겁니다. 그들은 알면서도 놔둔거죠.
17:48
They knew that, and let that happen.
340
1068667
2411
당시 페이 장군의 수사보고서에서
17:51
So another report, an investigative
report by General Fay,
341
1071837
3080
17:54
says the system is guilty.
342
1074941
1950
이는 체계의 문제임을 주장합니다.
17:56
In this report, he says it was
the environment that created Abu Ghraib,
343
1076915
3463
아부그라이브 사건은 결국 환경이 원인이었다고,
18:00
by leadership failures that contributed
to the occurrence of such abuse,
344
1080402
3382
이런 학대가 발생하게 만든 것은
리더십의 실패,
18:03
and because it remained undiscovered
345
1083808
1910
게다가 오랫동안 이러한 사실이
18:05
by higher authorities
for a long period of time.
346
1085742
2240
상부에 발각되지 않았다는 점을 들어서 말이죠.
학대는 3개월간 지속되었죠. 누가 감시했을까요?
18:08
Those abuses went on for three months.
347
1088006
1825
18:09
Who was watching the store?
348
1089855
1608
18:11
The answer is nobody, I think on purpose.
349
1091487
2247
아무도 없었습니다. 의도적으로 없었을거라 봅니다.
18:13
He gave the guards permission
to do those things,
350
1093758
2293
간수들에게 그럴 권한을 주었고,
지하감옥에 아무도 내려오지 않을걸 알았던 겁니다.
18:16
and they knew nobody was ever going
to come down to that dungeon.
351
1096075
3064
이제 여러분은 생각의 틀을 바꿔야 합니다.
18:19
So you need a paradigm shift
in all of these areas.
352
1099163
2568
18:21
The shift is away from the medical model
that focuses only on the individual.
353
1101755
3677
개인에게만 국한되었던 기존의
의학적 관념에서 벗어나야 합니다.
18:25
The shift is toward a public health model
354
1105456
2680
질병에는 상황성, 체계성의 것도 있다는걸 인지하는
18:28
that recognizes situational
and systemic vectors of disease.
355
1108160
3782
새로운 공공보건 모델을 갖춰야 합니다.
18:31
Bullying is a disease.
Prejudice is a disease.
356
1111966
2337
괴롭힘도 병이고, 편견도 병이며, 폭력도 병입니다.
18:34
Violence is a disease.
357
1114327
1168
18:35
Since the Inquisition, we've been dealing
with problems at the individual level.
358
1115519
3768
중세의 종교재판 이후 우리는
개개인의 수준에서 문제를 대처해왔습니다. 하지만 잘 되지 않았죠.
18:39
It doesn't work.
359
1119311
1441
18:40
Aleksandr Solzhenitsyn says,
"The line between good and evil
360
1120776
2816
알렉산드르 솔제니친은 선악의 경계선이
18:43
cuts through the heart
of every human being."
361
1123616
2120
인간의 마음 가운데에 있다고 이야기했습니다.
18:45
That means that line is not out there.
362
1125760
1812
즉, 그 선은 저 밖에 있는게 아닙니다.
18:47
That's a decision that you have
to make, a personal thing.
363
1127596
2971
선악의 판단이란 개인적인 것이라, 스스로 결정하지 않으면 안 됩니다.
18:50
So I want to end very quickly
on a positive note.
364
1130591
2545
이제 긍정적인 이야기로 마무리하려 합니다.
18:53
Heroism as the antidote to evil,
365
1133652
2460
악을 바로잡기 위해서는 영웅적 행동이 필요합니다.
18:56
by promoting the heroic imagination,
366
1136136
1895
특히 교육을 통해 우리 아이들에게
영웅적 기지를 장려해야하죠.
18:58
especially in our kids,
in our educational system.
367
1138055
2498
19:00
We want kids to think,
"I'm a hero in waiting,
368
1140577
2464
아이들 스스로 "난 준비된 영웅이며,
어려운 상황에 처한다면 영웅답게 행동할 것이다"
19:03
waiting for the right
situation to come along,
369
1143065
2143
19:05
and I will act heroically.
370
1145232
1543
라고 생각하길 바랍니다.
19:06
My whole life, I'm now going
to focus away from evil --
371
1146799
2678
이제 전 어렸을 적부터 집중해 온 악에서 벗어나
영웅에 대해 이해해보려 합니다.
19:09
that I've been in since I was a kid
-- to understanding heroes.
372
1149501
2953
영웅적 자질이란 바로
19:12
Banality of heroism.
373
1152478
1165
영웅적 행위를 한 평범한 사람을 말합니다.
19:13
It's ordinary people who do heroic deeds.
374
1153667
2004
19:15
It's the counterpoint
to Hannah Arendt's "Banality of Evil."
375
1155695
2946
이는 한나 아렌트가 말한 "악의 진부함"과 대조되는 입장이지요.
19:18
Our traditional societal heroes are wrong,
because they are the exceptions.
376
1158665
3961
전통사회의 영웅들을 말하는게 아닙니다.
그들은 이례적인 인물이죠.
19:22
They organize their life around this.
That's why we know their names.
377
1162650
3335
평생을 영웅담으로 보낸 이들이며,
그래서 이름이 널리 알려져 있습니다.
또 우리 아이들에겐 초능력을 가진
19:26
Our kids' heroes
are also wrong models for them,
378
1166009
2278
영웅의 롤 모델도 있습니다.
19:28
because they have supernatural talents.
379
1168311
1944
19:30
We want our kids to realize
most heroes are everyday people,
380
1170279
2961
이제 아이들에게 영웅은 누구나 될 수 있으며,
영웅적 행위는 드물다는걸 일깨워줘야 합니다. 이 친구는 조 다비입니다.
19:33
and the heroic act is unusual.
381
1173264
2104
19:35
This is Joe Darby.
382
1175392
1291
19:36
He was the one that stopped
those abuses you saw,
383
1176707
2286
이 친구가 바로 죄수 학대를 중단시킨 인물이죠.
그는 이 사진을 보고,
19:39
because when he saw those images,
384
1179017
1593
19:40
he turned them over
to a senior investigating officer.
385
1180634
2571
상급 검사관에게 이를 건네줬습니다.
19:43
He was a low-level private,
and that stopped it.
386
1183229
2728
이 말단 병사가 막아낸 겁니다. 영웅이 되었을까요? 아닙니다.
19:45
Was he a hero? No.
387
1185981
1178
19:47
They had to put him in hiding,
because people wanted to kill him,
388
1187183
3150
그는 숨어야만 했습니다. 사람들이 그와 그의 어머니,
19:50
and then his mother and his wife.
389
1190357
1652
아내까지 죽이려고 했으니까요.
그렇게 3년간 숨어지냈습니다.
19:52
For three years, they were in hiding.
390
1192033
1885
19:53
This is the woman who stopped
the Stanford Prison Study.
391
1193942
2686
이 여성이 바로 스탠포드 감옥실험을 중지시킨 사람입니다.
19:56
When I said it got out of control,
I was the prison superintendent.
392
1196652
3249
감옥이 통제불능이었을때 제가 총 관리자였죠.
19:59
I didn't know it was out of control.
I was totally indifferent.
393
1199925
2999
상황이 그렇게 된지도 몰랐습니다. 무관심했거든요.
20:02
She saw that madhouse and said,
394
1202948
1591
그녀가 감옥의 실상을 보고 저에게
20:04
"You know what, it's terrible
what you're doing to those boys.
395
1204563
2905
"당신은 저들에게 끔찍한 짓을 저지르고 있어요.
20:07
They're not prisoners nor guards,
they're boys, and you are responsible."
396
1207492
3644
저들은 간수도, 죄수도 아니에요.
그냥 학생일뿐. 모두 당신 책임이에요."
20:11
And I ended the study the next day.
397
1211160
1976
그래서 다음 날 바로 실험을 중단했습니다.
20:13
The good news
is I married her the next year.
398
1213699
2110
그리고 다음 해에 그 여자와 결혼했지요.
20:15
(Laughter)
399
1215833
2303
(웃음)
20:18
(Applause)
400
1218160
7000
(박수)
20:25
I just came to my senses, obviously.
401
1225605
2011
여기서 깨달았지요.
20:27
So situations have the power
to do [three things].
402
1227640
2669
상황이란 힘을 가지고 있습니다.
20:30
But the point is,
this is the same situation
403
1230333
2781
중요한 것은, 같은 상황이더라도
사람에 따라서 어떤 사람은 적대적인 상상력을 갖게 되고,
20:33
that can inflame the hostile
imagination in some of us,
404
1233138
3466
20:36
that makes us perpetrators of evil,
405
1236628
1737
이로 인해 악의 가해자가 된다던지,
20:38
can inspire the heroic
imagination in others.
406
1238389
2193
또 어떤 사람들에게는 영웅적인 상상력을 자극하기도 합니다. 같은 상황에서요.
20:40
It's the same situation
and you're on one side or the other.
407
1240606
3114
여러분의 선택에 달렸습니다.
20:43
Most people are guilty
of the evil of inaction,
408
1243744
2191
대다수의 사람은 무관심이란 악을 저지릅니다.
20:45
because your mother said, "Don't get
involved. Mind your own business."
409
1245959
3348
대개 어머니들은 "괜한 데 참견하지 말라"고 말하니까요.
이제는 말해야합니다. "엄마. 사람이 먼저에요."
20:49
And you have to say,
"Mama, humanity is my business."
410
1249331
2477
20:51
So the psychology of heroism is --
we're going to end in a moment --
411
1251832
3191
마지막으로, 이제 심리학에서는 아이들에게
새로운 영웅 학습을 장려하고자 합니다.
20:55
how do we encourage children
in new hero courses,
412
1255047
2427
20:57
that I'm working on with Matt Langdon --
he has a hero workshop --
413
1257498
3292
'영웅 워크샵'을 맡고있는 맷 랭던과 함께
21:00
to develop this heroic imagination,
this self-labeling,
414
1260814
3043
"난 준비된 영웅이다"라는 이름으로
21:03
"I am a hero in waiting,"
and teach them skills.
415
1263881
2763
영웅적 기지를 연구하고 가르치고있죠.
21:06
To be a hero, you have
to learn to be a deviant,
416
1266668
2355
영웅이 되려면 다르게 생각하는 법을 배워야 합니다.
21:09
because you're always going
against the conformity of the group.
417
1269047
3000
다수의 생각에 직접 맞서야 하죠.
영웅이란 독특한 사회적 행동을 하는 일반인을 말합니다.
21:12
Heroes are ordinary people whose social
actions are extraordinary. Who act.
418
1272697
3840
영웅의 핵심은 두 가지 입니다.
21:16
The key to heroism is two things.
419
1276561
1751
A: 남들이 하지않을때 나서야 한다.
21:18
You have to act
when other people are passive.
420
1278336
2381
21:20
B: You have to act socio-centrically,
not egocentrically.
421
1280741
2767
B: 자기중심이 아닌 집단중심적이어야 한다.
21:23
And I want to end with a known story
about Wesley Autrey, New York subway hero.
422
1283532
3783
마지막으로 보여드릴것은 다들 아시는
뉴욕 지하철의 영웅 웨슬리 오트리 씨입니다.
21:27
Fifty-year-old African-American
construction worker standing on a subway.
423
1287339
3797
50세의 흑인 건설노동자죠.
어느 날 지하철을 기다리던 도중
21:31
A white guy falls on the tracks.
424
1291160
1528
한 백인청년이 철로로 떨어지게 됩니다.
21:32
The subway train is coming.
There's 75 people there.
425
1292712
2460
지하철은 다가오고, 그곳엔 75명의 사람이 있었는데
21:35
You know what? They freeze.
426
1295196
1496
정작 아무도 움직이지 않았죠.
21:36
He's got a reason not to get involved.
427
1296716
1866
사실 그가 나설만한 입장은 아니었습니다.
21:38
He's black, the guy's white,
and he's got two kids.
428
1298606
2417
상대는 백인이고, 게다가 그에겐 두 아이까지 있었죠.
21:41
Instead, he gives his kids to a stranger,
429
1301047
1953
그런데 아이를 다른 이에게 맡기고는
철로로 뛰어내려 청년을 가운데 눕히고
21:43
jumps on the tracks,
puts the guy between the tracks,
430
1303024
2477
21:45
lays on him, the subway goes over him.
431
1305525
2170
같이 엎드린 후 지하철이 그 위를 지나갔습니다.
21:47
Wesley and the guy --
20 and a half inches height.
432
1307719
3258
웨슬리와 청년의 높이는 20.5 inch(52cm)였는데,
21:51
The train clearance is 21 inches.
433
1311001
2290
기차와 지면의 틈은 21인치(53.3cm)였죠.
21:53
A half an inch
would have taken his head off.
434
1313840
2103
0.5만 더 높았어도 머리가 날아갔을 겁니다.
21:56
And he said, "I did what anyone could do,"
no big deal to jump on the tracks.
435
1316537
4069
그가 말했죠. "누구나 할 수 있는 일을 했을 뿐이다."
철로 위로 뛰는건 별일 아니니까요.
22:00
And the moral imperative
is "I did what everyone should do."
436
1320630
3648
"다들 해야할 일을 했을 뿐이다." 이것이 도덕 명령입니다.
22:04
And so one day,
you will be in a new situation.
437
1324302
2387
언젠가 여러분에게도 중요한 순간이 올 겁니다.
22:07
Take path one, you're going
to be a perpetrator of evil.
438
1327160
2620
첫번째 선택은, 악인이 되는거죠.
22:09
Evil, meaning you're going to be
Arthur Andersen.
439
1329804
2332
아서 앤더스 기업처럼 악이 되는 겁니다.
22:12
You're going to cheat,
or you're going to allow bullying.
440
1332160
2715
남을 속이고 괴롭히는 거죠.
22:14
Path two, you become guilty
of the evil of passive inaction.
441
1334899
2814
둘째는, 방관의 죄를 저지르는 것이며
22:17
Path three, you become a hero.
442
1337737
1723
셋째는, 영웅이 되는 겁니다.
핵심은, 과연 우리가
22:19
The point is, are we ready to take
the path to celebrating ordinary heroes,
443
1339484
4418
일상의 영웅을 축하하고,
22:23
waiting for the right
situation to come along
444
1343926
2204
적당한 때가 오기를 기다리며,
영웅적 기지를 행동으로 옮길 수 있는가? 라는 겁니다.
22:26
to put heroic imagination into action?
445
1346154
2066
그 순간은 평생에 딱 한번 찾아올겁니다.
22:28
Because it may only happen
once in your life,
446
1348244
2794
22:31
and when you pass it by,
you'll always know,
447
1351062
2143
그 때를 지나친다면 훗날,
영웅이 될 기회를 놓쳤다고 후회하겠죠.
22:33
I could have been a hero
and I let it pass me by.
448
1353229
2435
22:35
So the point is thinking it
and then doing it.
449
1355688
2173
결국 생각하고 행동하는게 중요합니다.
지금까지 들어주셔서 너무나 감사드리며,
22:38
So I want to thank you. Thank you.
450
1358559
1948
22:40
Let's oppose the power of evil systems
at home and abroad,
451
1360531
3002
우리 모두 곳곳의 사악한 체계에 대항하여
22:43
and let's focus on the positive.
452
1363557
1579
긍정적인 면을 바라봅시다.
22:45
Advocate for respect of personal dignity,
for justice and peace,
453
1365160
3521
그리고 지금껏 권력이 하지 않았던 개인의 존엄과
22:48
which sadly our administration
has not been doing.
454
1368705
2338
정의와 평화를 외칩시다.
감사합니다.
22:51
Thanks so much.
455
1371067
1250
(박수)
22:52
(Applause)
456
1372341
3109
New videos
이 웹사이트 정보
이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.