아래 영문자막을 더블클릭하시면 영상이 재생됩니다.
번역: Clair Han
검토: Hugh Hyung-uk Choi
00:19
I want to talk to you today a little bit
0
19330
2000
제가 오늘 여러분께 드릴 말씀은
00:21
about predictable irrationality.
1
21330
3000
예측 가능한 비합리성에 관한 것입니다.
00:24
And my interest in irrational behavior
2
24330
4000
제가 비합리적 행동에 관심을 갖기 시작한 건
00:28
started many years ago in the hospital.
3
28330
3000
수년 전 병원에 입원했을 때였습니다.
00:31
I was burned very badly.
4
31330
4000
제가 아주 심한 화상을 입었을 때였죠.
00:35
And if you spend a lot of time in hospital,
5
35330
3000
병원에서 많은 시간을 보내면
00:38
you'll see a lot of types of irrationalities.
6
38330
3000
많은 유형의 비합리성을 발견하게 됩니다.
00:41
And the one that particularly bothered me in the burn department
7
41330
5000
화상외과에서 제가 특히 괴로웠던 건
00:46
was the process by which the nurses took the bandage off me.
8
46330
4000
간호사들이 제 몸의 붕대를 떼내는 과정이었어요.
00:51
Now, you must have all taken a Band-Aid off at some point,
9
51330
2000
여러분 모두 한번쯤은 밴드를 떼어본 적 있으실텐데
00:53
and you must have wondered what's the right approach.
10
53330
3000
어떤 방법이 맞는지 고민해보셨을 겁니다.
00:56
Do you rip it off quickly -- short duration but high intensity --
11
56330
4000
빨리 뜯어버릴까 - 짧지만 세게 -
01:00
or do you take your Band-Aid off slowly --
12
60330
2000
아니면 밴드를 천천히 뜯을까 -
01:02
you take a long time, but each second is not as painful --
13
62330
4000
시간은 걸리지만 매 순간은 덜 아프죠.
01:06
which one of those is the right approach?
14
66330
3000
둘 중 어떤 게 맞는 방법일까요?
01:09
The nurses in my department thought that the right approach
15
69330
4000
제 담당 간호사들은 올바른 방법이
01:13
was the ripping one, so they would grab hold and they would rip,
16
73330
3000
빨리 뜯는 거라고 생각했죠. 그래서 반창고를 잡고 바로 뜯어내고
01:16
and they would grab hold and they would rip.
17
76330
2000
또 잡아서는 바로 뜯어냈습니다.
01:18
And because I had 70 percent of my body burned, it would take about an hour.
18
78330
4000
당시 제 몸의 70%가 화상을 입은 상태여서 전부 떼내려면 한 시간이 걸렸습니다.
01:22
And as you can imagine,
19
82330
3000
여러분도 상상하실 수 있겠지만
01:25
I hated that moment of ripping with incredible intensity.
20
85330
4000
저는 짧고 세게 반창고를 뜯는 그 순간이 끔찍했습니다.
01:29
And I would try to reason with them and say,
21
89330
2000
그래서 간호사들께 합리적으로 얘길했죠.
01:31
"Why don't we try something else?
22
91330
1000
"좀 다른 방법으로 해보면 어때요?
01:32
Why don't we take it a little longer --
23
92330
2000
시간을 조금 더 들여서 -
01:34
maybe two hours instead of an hour -- and have less of this intensity?"
24
94330
5000
한 시간 대신 두 시간 정도 - 더 살살 떼내주시면 어떨까요?"
01:39
And the nurses told me two things.
25
99330
2000
그러자 간호사들이 제게 두 가지를 얘기해줬습니다.
01:41
They told me that they had the right model of the patient --
26
101330
4000
그분들은 저 같은 환자 모델에 대해 제대로 알고 있고
01:45
that they knew what was the right thing to do to minimize my pain --
27
105330
3000
즉, 제 고통을 최소화하는 옳은 방법을 알고 있단 거였죠.
01:48
and they also told me that the word patient doesn't mean
28
108330
3000
그리고 또 환자라는 단어에는
01:51
to make suggestions or to interfere or ...
29
111330
2000
제안하거나 방해한다는 의미가 없다고 했습니다.
01:53
This is not just in Hebrew, by the way.
30
113330
3000
물론 유대어의 뜻만 그런 건 아니죠. (이스라엘에 있는 병원이었음)
01:56
It's in every language I've had experience with so far.
31
116330
3000
제가 들어 본 모든 언어에서 마찬가지였습니다.
01:59
And, you know, there's not much -- there wasn't much I could do,
32
119330
4000
그래서 제가 할 수 있는 일은 별로 없었죠.
02:03
and they kept on doing what they were doing.
33
123330
3000
간호사들은 원래 하던 방식대로 계속했습니다.
02:06
And about three years later, when I left the hospital,
34
126330
2000
그리고 3년 정도 지나서 저는 퇴원을 하고
02:08
I started studying at the university.
35
128330
3000
대학교에 들어가서 공부를 하기 시작했죠.
02:11
And one of the most interesting lessons I learned
36
131330
3000
제가 들은 가장 재미있는 강의 중 하나가
02:14
was that there is an experimental method
37
134330
2000
실험방법에 대한 것이었습니다.
02:16
that if you have a question you can create a replica of this question
38
136330
4000
궁금한 게 있으면 그 질문에 대한 일종의 복제품을 만들어서
02:20
in some abstract way, and you can try to examine this question,
39
140330
4000
일종의 추상적인 방법으로요, 그리고 그에 대해 살펴본다는 겁니다.
02:24
maybe learn something about the world.
40
144330
2000
세상의 이치에 대해 무언가 깨달을 수도 있다는 거죠.
02:26
So that's what I did.
41
146330
2000
그래서 저도 했습니다.
02:28
I was still interested
42
148330
1000
저는 여전히
02:29
in this question of how do you take bandages off burn patients.
43
149330
2000
화상환자의 반창고를 떼내는 방법에 관심이 많았거든요.
02:31
So originally I didn't have much money,
44
151330
3000
그런데 처음에는 돈이 별로 없어서
02:34
so I went to a hardware store and I bought a carpenter's vice.
45
154330
4000
공구점에 가서 목수들이 쓰는 바이스(공작용 고정장치)를 샀습니다.
02:38
And I would bring people to the lab and I would put their finger in it,
46
158330
4000
그리고는 사람들을 실험실로 데려와서 바이스에 손가락을 넣게 하고
02:42
and I would crunch it a little bit.
47
162330
2000
조금씩 조이는 거죠.
02:44
(Laughter)
48
164330
2000
(웃음)
02:46
And I would crunch it for long periods and short periods,
49
166330
3000
그리고 오래 조이거나 잠깐 조이기도 하고
02:49
and pain that went up and pain that went down,
50
169330
2000
올리면서 아프게 하고 내리면서 아프게 하고
02:51
and with breaks and without breaks -- all kinds of versions of pain.
51
171330
4000
중간에 쉬기도 하고 안 쉬기도 하면서 고통의 모든 버전을 느끼게 했습니다.
02:55
And when I finished hurting people a little bit, I would ask them,
52
175330
2000
사람들에게 약간씩의 고통을 주고 나서는 질문을 했죠.
02:57
so, how painful was this? Or, how painful was this?
53
177330
2000
이건 얼마나 아팠어요? 또 이러면 얼마나 아팠어요?
02:59
Or, if you had to choose between the last two,
54
179330
2000
또는 마지막 두 방법 중 선택한다면
03:01
which one would you choose?
55
181330
2000
어떤 방법으로 아프시겠습니까?
03:03
(Laughter)
56
183330
3000
(웃음)
03:06
I kept on doing this for a while.
57
186330
3000
이 실험을 한동안 계속했습니다.
03:09
(Laughter)
58
189330
2000
(웃음)
03:11
And then, like all good academic projects, I got more funding.
59
191330
4000
그러다가 모든 훌륭한 연구 프로젝트가 그렇듯 저도 지원금을 더 받았죠.
03:15
I moved to sounds, electrical shocks --
60
195330
2000
그래서 음향, 전기충격 등으로 영역을 옮겼습니다.
03:17
I even had a pain suit that I could get people to feel much more pain.
61
197330
5000
심지어 고통을 더 느낄 수 있는 고통실험복까지 만들었어요.
03:22
But at the end of this process,
62
202330
4000
그런데 이 과정을 마치고
03:26
what I learned was that the nurses were wrong.
63
206330
3000
제가 알게 된 건 간호사들이 틀렸다는 겁니다.
03:29
Here were wonderful people with good intentions
64
209330
3000
훌륭하고 좋은 의도를 가진 분들이었고
03:32
and plenty of experience, and nevertheless
65
212330
2000
경험도 풍부했지만 그럼에도 불구하고
03:34
they were getting things wrong predictably all the time.
66
214330
4000
예측 가능하게 항상 일을 잘못하고 있었던 거죠.
03:38
It turns out that because we don't encode duration
67
218330
3000
결론을 말씀드리면 우리가 지속성을 인지할 때는
03:41
in the way that we encode intensity,
68
221330
2000
강도를 인지할 때와 다른 방식으로 하기 때문에
03:43
I would have had less pain if the duration would have been longer
69
223330
4000
만일 지속시간이 더 길어지고
03:47
and the intensity was lower.
70
227330
2000
강도가 줄어들었다면 제가 덜 아팠을 겁니다.
03:49
It turns out it would have been better to start with my face,
71
229330
3000
실제로 더 좋은 방법은 제 얼굴부터 시작해서
03:52
which was much more painful, and move toward my legs,
72
232330
2000
왜냐면 얼굴쪽이 훨씬 아프니까요, 그리고 다리 쪽으로 내려가면
03:54
giving me a trend of improvement over time --
73
234330
3000
저는 점점 고통이 줄어드는 걸 느끼게 되고
03:57
that would have been also less painful.
74
237330
1000
그래서 덜 아팠을 겁니다.
03:58
And it also turns out that it would have been good
75
238330
2000
그리고 또 더 나은 방법은
04:00
to give me breaks in the middle to kind of recuperate from the pain.
76
240330
2000
중간에 좀 쉬면서 고통에서 회복하도록 해 주는 겁니다.
04:02
All of these would have been great things to do,
77
242330
2000
이 모든 게 좋은 방법이었지만
04:04
and my nurses had no idea.
78
244330
3000
제 간호사들은 전혀 몰랐던 거죠.
04:07
And from that point on I started thinking,
79
247330
1000
그래서 그때부터 저는 생각했죠.
04:08
are the nurses the only people in the world who get things wrong
80
248330
3000
세상에서 간호사들만 틀린걸까
04:11
in this particular decision, or is it a more general case?
81
251330
3000
이 특별한 경우에 한해서, 아니면 이게 보다 일반적인 현상인가?
04:14
And it turns out it's a more general case --
82
254330
2000
결과는 일반적인 현상이라는 겁니다.
04:16
there's a lot of mistakes we do.
83
256330
3000
우리가 많은 실수를 저지르고 있는거죠.
04:19
And I want to give you one example of one of these irrationalities,
84
259330
5000
그럼 이와 같은 비합리성에 대한 예를 하나 들어보겠습니다.
04:24
and I want to talk to you about cheating.
85
264330
3000
또 남을 속이는 부정행위에 대해서도 말씀드리죠.
04:27
And the reason I picked cheating is because it's interesting,
86
267330
2000
부정행위를 고른 이유는 그게 흥미롭기도 하고
04:29
but also it tells us something, I think,
87
269330
2000
또 이것이 시사하는 바가 있어섭니다.
04:31
about the stock market situation we're in.
88
271330
3000
현재의 주식시장 상황에 대해서요.
04:34
So, my interest in cheating started
89
274330
3000
제가 부정행위에 관심을 갖게 된 건
04:37
when Enron came on the scene, exploded all of a sudden,
90
277330
2000
엔론 사태가 갑자기 터진 때였습니다.
04:39
and I started thinking about what is happening here.
91
279330
3000
무슨 일이 일어난건지 생각하게 된 거죠.
04:42
Is it the case that there was kind of
92
282330
1000
이 경우에
04:43
a few apples who are capable of doing these things,
93
283330
3000
소수의 나쁜 사람이 있어서 부정행위가 생긴건지
04:46
or are we talking a more endemic situation,
94
286330
2000
아니면 좀 더 부정이 만연한 환경이어서
04:48
that many people are actually capable of behaving this way?
95
288330
4000
다수가 실제로 이런 일을 저지를 수 있는지 궁금했습니다.
04:52
So, like we usually do, I decided to do a simple experiment.
96
292330
4000
그래서 늘 하듯이 단순한 실험을 해보기로 했습니다.
04:56
And here's how it went.
97
296330
1000
어떻게 했는지 설명드리죠.
04:57
If you were in the experiment, I would pass you a sheet of paper
98
297330
3000
만일 여러분이 실험에 참여했다면 저는 여러분께 종이 한 장을 주고
05:00
with 20 simple math problems that everybody could solve,
99
300330
4000
여기에는 누구나 풀 수 있는 산수문제 20개가 적혀있을 겁니다.
05:04
but I wouldn't give you enough time.
100
304330
2000
그렇지만 시간을 충분히 주지는 않죠.
05:06
When the five minutes were over, I would say,
101
306330
2000
5분이 지나면 저는 이렇게 얘기합니다.
05:08
"Pass me the sheets of paper, and I'll pay you a dollar per question."
102
308330
3000
"답안지를 주세요. 답변당 1달러를 드리겠습니다."
05:11
People did this. I would pay people four dollars for their task --
103
311330
4000
사람들이 실험에 따랐고 저는 4달러씩을 줬습니다.
05:15
on average people would solve four problems.
104
315330
2000
평균적으로 네 문제 정도를 풀었거든요.
05:17
Other people I would tempt to cheat.
105
317330
3000
또 다른 사람들에게는 부정행위를 유도합니다.
05:20
I would pass their sheet of paper.
106
320330
1000
이들에게도 시험지를 나누어주고
05:21
When the five minutes were over, I would say,
107
321330
2000
5분이 지나면 이렇게 말하는거죠.
05:23
"Please shred the piece of paper.
108
323330
1000
"시험지를 찢어버리세요.
05:24
Put the little pieces in your pocket or in your backpack,
109
324330
3000
찢은 종이를 주머니나 베낭에 넣고
05:27
and tell me how many questions you got correctly."
110
327330
3000
몇 개나 맞췄는지 제게 말해주세요"라고요.
05:30
People now solved seven questions on average.
111
330330
3000
그러자 평균 일곱 문제를 맞췄습니다.
05:33
Now, it wasn't as if there was a few bad apples --
112
333330
5000
이걸 보면 소수의 나쁜 사람이 있어서
05:38
a few people cheated a lot.
113
338330
3000
이 소수의 사람들이 자주 속이는 게 아닙니다.
05:41
Instead, what we saw is a lot of people who cheat a little bit.
114
341330
3000
대신 많은 사람들이 약간씩 속이는 거죠.
05:44
Now, in economic theory,
115
344330
3000
경제이론의 관점에서
05:47
cheating is a very simple cost-benefit analysis.
116
347330
3000
부정행위는 아주 단순한 비용-편익 분석에 해당합니다.
05:50
You say, what's the probability of being caught?
117
350330
2000
들킬 가능성이 얼마인가?
05:52
How much do I stand to gain from cheating?
118
352330
3000
속여서 내가 얻을 수 있는 이익이 얼마인가?
05:55
And how much punishment would I get if I get caught?
119
355330
2000
만일 들키면 얼마나 심한 처벌을 받을 것인가?
05:57
And you weigh these options out --
120
357330
2000
이 옵션들을 따져보는 거죠.
05:59
you do the simple cost-benefit analysis,
121
359330
2000
간단한 비용-편익 분석을 하고
06:01
and you decide whether it's worthwhile to commit the crime or not.
122
361330
3000
부정행위를 저지를지 말지 결정하는 겁니다.
06:04
So, we try to test this.
123
364330
2000
그래서 이걸 시험해보기로 했습니다.
06:06
For some people, we varied how much money they could get away with --
124
366330
4000
그룹별로 들키지 않을 수 있는 금액을 달리해 봤습니다.
06:10
how much money they could steal.
125
370330
1000
다시 말해 훔칠 수 있는 금액을 조절한거죠.
06:11
We paid them 10 cents per correct question, 50 cents,
126
371330
3000
정답 하나당 10센트, 50센트,
06:14
a dollar, five dollars, 10 dollars per correct question.
127
374330
3000
1달러, 5달러, 10달러씩 주면서 살펴봤습니다.
06:17
You would expect that as the amount of money on the table increases,
128
377330
4000
일반적인 예상으로는 받을 수 있는 금액이 커질수록
06:21
people would cheat more, but in fact it wasn't the case.
129
381330
3000
사람들이 많이 속일거라고 생각하는데 결과는 달랐습니다.
06:24
We got a lot of people cheating by stealing by a little bit.
130
384330
3000
많은 사람들이 조금씩 훔치는 부정행위가 나타난거죠.
06:27
What about the probability of being caught?
131
387330
3000
들킬 가능성을 달리 해보면 어떨까요?
06:30
Some people shredded half the sheet of paper,
132
390330
2000
어떤 사람들은 종이의 반만 찢어서
06:32
so there was some evidence left.
133
392330
1000
증거를 일부 남기도록 했습니다.
06:33
Some people shredded the whole sheet of paper.
134
393330
2000
어떤 사람들은 종이를 전부 찢어버리게 했습니다.
06:35
Some people shredded everything, went out of the room,
135
395330
3000
어떤 사람들은 종이를 다 찢어버리고 방을 나가서
06:38
and paid themselves from the bowl of money that had over 100 dollars.
136
398330
3000
백달러 이상 담긴 통에서 직접 돈을 집어가도록 했습니다.
06:41
You would expect that as the probability of being caught goes down,
137
401330
3000
여러분들 생각에는 들킬 가능성이 줄어들수록
06:44
people would cheat more, but again, this was not the case.
138
404330
3000
더 많이 속일거라고 하겠지만 역시 결과는 달랐습니다.
06:47
Again, a lot of people cheated by just by a little bit,
139
407330
3000
이번에도 많은 사람들이 약간씩만 속였습니다.
06:50
and they were insensitive to these economic incentives.
140
410330
3000
그리고 이들은 경제적 인센티브에는 둔감했습니다.
06:53
So we said, "If people are not sensitive
141
413330
1000
그래서 생각하게 됐죠. "만일 사람들이
06:54
to the economic rational theory explanations, to these forces,
142
414330
5000
경제적 합리성의 이론에 둔감하고 영향을 받지 않는다면
06:59
what could be going on?"
143
419330
3000
도대체 무슨 일이 일어나고 있는건가?"
07:02
And we thought maybe what is happening is that there are two forces.
144
422330
3000
그래서 저희는 두 가지 힘이 작용하는게 아닌가 생각했습니다.
07:05
At one hand, we all want to look at ourselves in the mirror
145
425330
2000
한편으로는 우리 모두 거울을 보고
07:07
and feel good about ourselves, so we don't want to cheat.
146
427330
3000
스스로에 대해 좋게 느끼고 싶어하니까 속이고 싶지 않은거죠.
07:10
On the other hand, we can cheat a little bit,
147
430330
2000
다른 한편으로는 아주 약간은 속일 수 있고
07:12
and still feel good about ourselves.
148
432330
2000
그래도 여전히 본인에 대해 부끄럽지 않은 겁니다.
07:14
So, maybe what is happening is that
149
434330
1000
그래서 무슨 일이 일어나고 있는건지 생각해보면
07:15
there's a level of cheating we can't go over,
150
435330
2000
우리가 넘을 수 없는 부정행위의 어떤 선이 있고
07:17
but we can still benefit from cheating at a low degree,
151
437330
4000
약간 속이면서 여전히 이익을 볼 수 있지만
07:21
as long as it doesn't change our impressions about ourselves.
152
441330
3000
그 한계는 우리 스스로에 대한 이미지를 바꾸지 않을 정도라는 거죠.
07:24
We call this like a personal fudge factor.
153
444330
3000
저희는 이걸 개인적인 오차범위라고 부릅니다.
07:28
Now, how would you test a personal fudge factor?
154
448330
4000
그렇다면 이 개인적 오차범위를 어떻게 테스트할 수 있을까요?
07:32
Initially we said, what can we do to shrink the fudge factor?
155
452330
4000
먼저 개인적 오차범위를 어떻게 하면 줄일 수 있을지 고민했습니다.
07:36
So, we got people to the lab, and we said,
156
456330
2000
그래서 사람들을 실험실로 오게해서
07:38
"We have two tasks for you today."
157
458330
2000
"여러분이 할 일이 두 가지 있습니다"라고 말했습니다.
07:40
First, we asked half the people
158
460330
1000
먼저 절반의 인원에게는
07:41
to recall either 10 books they read in high school,
159
461330
2000
고등학교 때 읽은 책 열 권을 기억해 내거나
07:43
or to recall The Ten Commandments,
160
463330
3000
아니면 십계명을 외워보라고 하고
07:46
and then we tempted them with cheating.
161
466330
2000
부정행위를 할 수 있도록 유도했습니다.
07:48
Turns out the people who tried to recall The Ten Commandments --
162
468330
3000
결과는 십계명을 외워보려고 한 사람들은
07:51
and in our sample nobody could recall all of The Ten Commandments --
163
471330
2000
-실험 대상자 중에는 다 외울 수 있는 사람이 없었지만-
07:54
but those people who tried to recall The Ten Commandments,
164
474330
4000
어쨌던 십계명을 외우려고 시도한 사람들의 경우
07:58
given the opportunity to cheat, did not cheat at all.
165
478330
3000
부정행위를 할 기회가 있었음에도 전혀 속이지 않았습니다.
08:01
It wasn't that the more religious people --
166
481330
2000
보다 독실한 신자일수록
08:03
the people who remembered more of the Commandments -- cheated less,
167
483330
1000
십계명을 더 많이 기억한 사람일수록 덜 속이고
08:04
and the less religious people --
168
484330
2000
덜 독실한 사람들
08:06
the people who couldn't remember almost any Commandments --
169
486330
1000
십계명을 거의 기억 못한 사람들이
08:07
cheated more.
170
487330
2000
더 속인 게 아니었습니다.
08:09
The moment people thought about trying to recall The Ten Commandments,
171
489330
4000
사람들이 십계명을 생각해내기 시작한 순간
08:13
they stopped cheating.
172
493330
1000
부정행위를 멈춘거죠.
08:14
In fact, even when we gave self-declared atheists
173
494330
2000
심지어 스스로 무신론자라고 하는 사람들에게
08:16
the task of swearing on the Bible and we give them a chance to cheat,
174
496330
4000
성경에 대고 맹세하도록 한 다음 부정행위를 유도했을 때도
08:20
they don't cheat at all.
175
500330
2000
아무도 속이지 않았습니다.
08:24
Now, Ten Commandments is something that is hard
176
504330
2000
그런데 십계명은 아무래도
08:26
to bring into the education system, so we said,
177
506330
2000
교육시스템에 적용하기는 어려워서 대신
08:28
"Why don't we get people to sign the honor code?"
178
508330
2000
"사람들에게 명예 서약을 시키면 어떨까?" 얘길했죠.
08:30
So, we got people to sign,
179
510330
2000
그래서 사람들이 서약을 하도록 했습니다.
08:32
"I understand that this short survey falls under the MIT Honor Code."
180
512330
4000
"본인은 이 간략한 설문에서 MIT 명예서약을 지킬 것을 약속함"
08:36
Then they shredded it. No cheating whatsoever.
181
516330
3000
그런 다음 서약서를 찢어버리게 했죠. 그래도 부정행위는 없었습니다.
08:39
And this is particularly interesting,
182
519330
1000
이 결과가 특히 흥미로운 이유는
08:40
because MIT doesn't have an honor code.
183
520330
2000
MIT에는 명예서약이란 게 없다는 거죠.
08:42
(Laughter)
184
522330
5000
(웃음)
08:47
So, all this was about decreasing the fudge factor.
185
527330
4000
그래서 이런 식으로 오차범위를 줄여봤습니다.
08:51
What about increasing the fudge factor?
186
531330
3000
오차범위를 늘리면 어떨까요?
08:54
The first experiment -- I walked around MIT
187
534330
2000
첫번째 실험은 MIT 캠퍼스를 다니면서
08:56
and I distributed six-packs of Cokes in the refrigerators --
188
536330
3000
6개짜리 콜라팩을 냉장고에 채워넣었습니다.
08:59
these were common refrigerators for the undergrads.
189
539330
2000
학부생들이 사용하는 보통 냉장고였어요.
09:01
And I came back to measure what we technically call
190
541330
3000
그런 다음 다시 가서 저희가 전문용어로
09:04
the half-lifetime of Coke -- how long does it last in the refrigerators?
191
544330
4000
콜라의 절반수명이라고 부르는 시간을 측정했죠. 즉, 냉장고에 얼마동안 남아있느냐?
09:08
As you can expect it doesn't last very long; people take it.
192
548330
3000
예상하시겠지만 별로 오래 남아있지 않습니다. 사람들이 가져가는거죠.
09:11
In contrast, I took a plate with six one-dollar bills,
193
551330
4000
반대로 이번에는 1달러 지폐 6장을 담은 접시를
09:15
and I left those plates in the same refrigerators.
194
555330
3000
같은 냉장고에 넣어두었습니다.
09:18
No bill ever disappeared.
195
558330
1000
지폐는 한 장도 없어지지 않았습니다.
09:19
Now, this is not a good social science experiment,
196
559330
3000
이건 좋은 사회과학 실험이라고 할 수 없죠.
09:22
so to do it better I did the same experiment
197
562330
3000
그래서 제대로 실험을 하기 위해
09:25
as I described to you before.
198
565330
2000
앞서 말씀드린 방법을 썼습니다.
09:27
A third of the people we passed the sheet, they gave it back to us.
199
567330
3000
종이를 나눠 준 사람들 중 1/3은 다시 돌려주도록 하고
09:30
A third of the people we passed it to, they shredded it,
200
570330
3000
또 다른 1/3은 찢어버리게 하고
09:33
they came to us and said,
201
573330
1000
우리에게 와서 말하게 했죠.
09:34
"Mr. Experimenter, I solved X problems. Give me X dollars."
202
574330
3000
"전 문제를 X개 풀었습니다. X달러 주세요"라고요.
09:37
A third of the people, when they finished shredding the piece of paper,
203
577330
3000
나머지 1/3은 종이를 찢어버린 후에
09:40
they came to us and said,
204
580330
2000
우리에게 와서
09:42
"Mr Experimenter, I solved X problems. Give me X tokens."
205
582330
6000
"전 문제를 X개 풀었습니다. 토큰 X개 주세요"라고 말하도록 했습니다.
09:48
We did not pay them with dollars; we paid them with something else.
206
588330
3000
직접 돈을 주지 않고 다른 걸 준 거죠.
09:51
And then they took the something else, they walked 12 feet to the side,
207
591330
3000
그리고 이 사람들이 12피트 정도 떨어진 곳에 토큰을 가져가서
09:54
and exchanged it for dollars.
208
594330
2000
돈으로 교환하게 했습니다.
09:56
Think about the following intuition.
209
596330
2000
여러분의 직관력에 대해 한 번 생각해보세요.
09:58
How bad would you feel about taking a pencil from work home,
210
598330
3000
사무실에서 연필을 하나 집으로 가져갔을 때
10:01
compared to how bad would you feel
211
601330
2000
더 죄의식이 들까요 아니면
10:03
about taking 10 cents from a petty cash box?
212
603330
2000
잔돈 박스에서 10센트 가져갔을 때 더 죄스러울까요?
10:05
These things feel very differently.
213
605330
3000
각각의 경우 느낌이 아주 다릅니다.
10:08
Would being a step removed from cash for a few seconds
214
608330
3000
현금에서 한 단계 잠시라도 거리를 두게하고
10:11
by being paid by token make a difference?
215
611330
3000
토큰으로 우선 지급하면 결과가 달라질까요?
10:14
Our subjects doubled their cheating.
216
614330
2000
제 실험대상들의 경우 부정행위가 두 배로 늘더군요.
10:16
I'll tell you what I think
217
616330
2000
제 생각은 이렇습니다.
10:18
about this and the stock market in a minute.
218
618330
2000
이런 현상에 대해 그리고 주식시장에 대해 잠시 후 말씀드리죠.
10:21
But this did not solve the big problem I had with Enron yet,
219
621330
4000
하지만 이 실험으로도 엔론사태에 대한 큰 문제는 해결되지 않았습니다.
10:25
because in Enron, there's also a social element.
220
625330
3000
왜냐하면 엔론에는 사회적 요소가 포함되어 있거든요.
10:28
People see each other behaving.
221
628330
1000
사람들이 서로의 행위를 보게 된다는 겁니다.
10:29
In fact, every day when we open the news
222
629330
2000
실제로 우리가 매일 접하는 뉴스에서
10:31
we see examples of people cheating.
223
631330
2000
부정행위를 하는 사람들을 봅니다.
10:33
What does this cause us?
224
633330
3000
이게 우리에게 어떤 영향을 미칠까요?
10:36
So, we did another experiment.
225
636330
1000
그래서 또 다른 실험을 해봤습니다.
10:37
We got a big group of students to be in the experiment,
226
637330
3000
많은 학생들을 실험에 참여시키고
10:40
and we prepaid them.
227
640330
1000
미리 돈을 지급했습니다.
10:41
So everybody got an envelope with all the money for the experiment,
228
641330
3000
모두에게 실험에 참석하는 대가를 전액 봉투에 담아 지급했죠.
10:44
and we told them that at the end, we asked them
229
644330
2000
그리고 마지막에 이렇게 요청했습니다.
10:46
to pay us back the money they didn't make. OK?
230
646330
4000
그들이 벌지 않은 금액은 돌려달라고 말이죠.
10:50
The same thing happens.
231
650330
1000
같은 일이 일어납니다.
10:51
When we give people the opportunity to cheat, they cheat.
232
651330
2000
사람들에게 속일 수 있는 기회를 주면 이들은 속입니다.
10:53
They cheat just by a little bit, all the same.
233
653330
3000
아주 조금씩이지만 결국 마찬가지죠.
10:56
But in this experiment we also hired an acting student.
234
656330
3000
하지만 이번 실험에서는 연기자를 하나 고용해서
10:59
This acting student stood up after 30 seconds, and said,
235
659330
4000
이 학생이 30초 후에 일어서서 말을 하도록 시켰습니다.
11:03
"I solved everything. What do I do now?"
236
663330
3000
"문제 다 풀었는데요. 이제 뭐하죠?"라구요.
11:06
And the experimenter said, "If you've finished everything, go home.
237
666330
4000
그러면 실험자가 "다 풀었으면 가도 됩니다"라고 말합니다.
11:10
That's it. The task is finished."
238
670330
1000
말만 하면 그걸로 끝인거죠.
11:11
So, now we had a student -- an acting student --
239
671330
4000
그래서 이번에는 연기하는 학생을
11:15
that was a part of the group.
240
675330
2000
그룹에 포함시켰습니다.
11:17
Nobody knew it was an actor.
241
677330
2000
다른 사람들은 이 학생이 연기자인 줄 모르죠.
11:19
And they clearly cheated in a very, very serious way.
242
679330
4000
그리고 연기자들은 아주 심각하게 부정행위를 저지릅니다.
11:23
What would happen to the other people in the group?
243
683330
3000
그룹의 다른 학생들은 어떨까요?
11:26
Will they cheat more, or will they cheat less?
244
686330
3000
더 많이 속일까요 아니면 덜 속일까요?
11:29
Here is what happens.
245
689330
2000
결과는 이랬습니다.
11:31
It turns out it depends on what kind of sweatshirt they're wearing.
246
691330
4000
어떤 운동복셔츠를 입느냐에 따라 달라진다는 겁니다.
11:35
Here is the thing.
247
695330
2000
설명을 드리죠.
11:37
We ran this at Carnegie Mellon and Pittsburgh.
248
697330
3000
이 실험을 카네기멜론과 피츠버그 대학에서 했습니다.
11:40
And at Pittsburgh there are two big universities,
249
700330
2000
피츠버그에는 두 개의 큰 대학이 있죠.
11:42
Carnegie Mellon and University of Pittsburgh.
250
702330
3000
바로 카네기멜론과 피츠버그 대학교입니다.
11:45
All of the subjects sitting in the experiment
251
705330
2000
실험에 참석하는 모든 학생은
11:47
were Carnegie Mellon students.
252
707330
2000
카네기멜론 학생이었죠.
11:49
When the actor who was getting up was a Carnegie Mellon student --
253
709330
4000
5초 후 일어나는 연기자가 카네기멜론 학생이면
11:53
he was actually a Carnegie Mellon student --
254
713330
2000
-실제로 카네기멜론 학생이었는데요-
11:55
but he was a part of their group, cheating went up.
255
715330
4000
즉, 그들 그룹의 일원이면 부정행위가 많아졌습니다.
11:59
But when he actually had a University of Pittsburgh sweatshirt,
256
719330
4000
그렇지만 이 학생이 피츠버그대학 셔츠를 입고 있으면
12:03
cheating went down.
257
723330
2000
부정행위가 줄어들었죠.
12:05
(Laughter)
258
725330
3000
(웃음)
12:08
Now, this is important, because remember,
259
728330
3000
이건 중요한 사실입니다. 생각해보세요.
12:11
when the moment the student stood up,
260
731330
2000
그 연기자가 일어났을 때
12:13
it made it clear to everybody that they could get away with cheating,
261
733330
3000
모두에게 속여도 들키지 않는다는 걸 확인시켜 준 겁니다.
12:16
because the experimenter said,
262
736330
2000
왜냐면 실험담당자가
12:18
"You've finished everything. Go home," and they went with the money.
263
738330
2000
"다 끝냈으면 가세요"라고 했고 이들은 돈을 그냥 가져갔으니까요.
12:20
So it wasn't so much about the probability of being caught again.
264
740330
3000
역시 이번에도 들킬 가능성은 큰 변수가 아니었습니다.
12:23
It was about the norms for cheating.
265
743330
3000
부정행위의 기준이 중요했던거죠.
12:26
If somebody from our in-group cheats and we see them cheating,
266
746330
3000
만일 우리 그룹의 누군가가 부정행위를 하고 우리가 이걸 본다면
12:29
we feel it's more appropriate, as a group, to behave this way.
267
749330
4000
우리는 전체 그룹으로서 이렇게 행동하는게 더 적합하다고 느낍니다.
12:33
But if it's somebody from another group, these terrible people --
268
753330
2000
하지만 만일 그 사람이 다른 그룹이라면 이 나쁜 사람들
12:35
I mean, not terrible in this --
269
755330
2000
-이 일에 나쁘다는 게 아니라-
12:37
but somebody we don't want to associate ourselves with,
270
757330
2000
우리가 엮이고 싶지 않은 나쁜 사람들이
12:39
from another university, another group,
271
759330
2000
다른 대학교, 다른 그룹의 사람들이라면,
12:41
all of a sudden people's awareness of honesty goes up --
272
761330
3000
갑자기 사람들의 정직성이 높아지는 겁니다.
12:44
a little bit like The Ten Commandments experiment --
273
764330
2000
십계명 실험과 약간 비슷하죠.
12:46
and people cheat even less.
274
766330
4000
그리고 부정행위도 덜 합니다.
12:50
So, what have we learned from this about cheating?
275
770330
4000
이 실험을 통해 부정행위에 대해 뭘 알게됐나요?
12:54
We've learned that a lot of people can cheat.
276
774330
3000
많은 사람들이 부정을 저지를 수 있다는 겁니다.
12:57
They cheat just by a little bit.
277
777330
3000
다들 아주 조금만 속이는 거죠.
13:00
When we remind people about their morality, they cheat less.
278
780330
4000
사람들에게 도덕성에 대해 인지시키면 부정행위가 줄어듭니다.
13:04
When we get bigger distance from cheating,
279
784330
3000
부정행위로부터 거리감을 느낄수록
13:07
from the object of money, for example, people cheat more.
280
787330
4000
가령 돈과 같은 대상과 거리가 멀수록 부정행위가 늘어납니다.
13:11
And when we see cheating around us,
281
791330
2000
그리고 우리가 주변에서 부정행위를 봤을 때
13:13
particularly if it's a part of our in-group, cheating goes up.
282
793330
4000
특히 우리 그룹 내에서 봤을 때 부정행위는 많아집니다.
13:17
Now, if we think about this in terms of the stock market,
283
797330
3000
이 현상을 주식시장의 관점에서 생각해 보면
13:20
think about what happens.
284
800330
1000
무슨 일이 일어나는지 보시죠.
13:21
What happens in a situation when you create something
285
801330
3000
만일 여러분이 무언가를 만들어서
13:24
where you pay people a lot of money
286
804330
2000
사람들에게 많은 돈을 주고
13:26
to see reality in a slightly distorted way?
287
806330
3000
현실을 약간 왜곡해서 보도록 하면 어떻게 될까요?
13:29
Would they not be able to see it this way?
288
809330
3000
사람들이 왜곡해서 보지 않을까요?
13:32
Of course they would.
289
812330
1000
당연히 그렇게 봅니다.
13:33
What happens when you do other things,
290
813330
1000
만일 조금 다른 방법을 쓴다면
13:34
like you remove things from money?
291
814330
2000
가령 돈으로 부터 거리를 둔다면요?
13:36
You call them stock, or stock options, derivatives,
292
816330
3000
주식, 스톡옵션, 파생상품,
13:39
mortgage-backed securities.
293
819330
1000
주택저당증권(MBS) 같은 이름을 붙인다면
13:40
Could it be that with those more distant things,
294
820330
3000
이렇게 돈과 좀 더 거리를 두면
13:43
it's not a token for one second,
295
823330
2000
이건 일초 후에 돈으로 바꾸는 토큰이 아니라
13:45
it's something that is many steps removed from money
296
825330
2000
여러 단계 돈으로부터 떨어져 있는 겁니다.
13:47
for a much longer time -- could it be that people will cheat even more?
297
827330
4000
시간도 훨씬 길죠 - 그렇다면 사람들이 더 많이 속일까요?
13:51
And what happens to the social environment
298
831330
2000
그리고 또 사회적 환경에서
13:53
when people see other people behave around them?
299
833330
3000
주변 사람들의 행위를 보게 되면 어떻게 될까요?
13:56
I think all of those forces worked in a very bad way
300
836330
4000
이 모든 영향력이 아주 부정적으로
14:00
in the stock market.
301
840330
2000
주식시장에서 작용한 거라고 전 생각합니다.
14:02
More generally, I want to tell you something
302
842330
3000
좀 더 일반적인 주제로
14:05
about behavioral economics.
303
845330
3000
행동경제학에 대해 말씀드리고 싶습니다.
14:08
We have many intuitions in our life,
304
848330
4000
살면서 많은 직관을 느끼게 되는데
14:12
and the point is that many of these intuitions are wrong.
305
852330
3000
중요한 건 이들 중 상당수가 틀리다는 겁니다.
14:15
The question is, are we going to test those intuitions?
306
855330
3000
문제는 이 직관들을 우리가 테스트해 볼거냐 하는거죠.
14:18
We can think about how we're going to test this intuition
307
858330
2000
이 직관을 어떻게 테스트할지 생각해보죠.
14:20
in our private life, in our business life,
308
860330
2000
개인적 생활이나 직업에서
14:22
and most particularly when it goes to policy,
309
862330
3000
그리고 특히 정책과 관련해서는
14:25
when we think about things like No Child Left Behind,
310
865330
3000
학생낙오방지(NCLB) 같은 정책이나
14:28
when you create new stock markets, when you create other policies --
311
868330
3000
새로운 주식시장이 생길 때, 또 다른 정책을 만들 때
14:31
taxation, health care and so on.
312
871330
3000
과세, 보건 등을 생각해볼 수 있습니다.
14:34
And the difficulty of testing our intuition
313
874330
2000
이런 상황에서 우리의 직관을 테스트하기 힘들다는 게
14:36
was the big lesson I learned
314
876330
2000
제가 깨달은 중요한 교훈이었습니다.
14:38
when I went back to the nurses to talk to them.
315
878330
2000
제 간호사들은 만나러 갔을 때였죠.
14:40
So I went back to talk to them
316
880330
2000
저는 제가 입원했던 병원에 가서
14:42
and tell them what I found out about removing bandages.
317
882330
3000
간호사분들께 붕대 떼는 방법에 관한 실험 결과를 알려줬죠.
14:45
And I learned two interesting things.
318
885330
2000
그리고 두 가지 흥미로운 걸 깨달았습니다.
14:47
One was that my favorite nurse, Ettie,
319
887330
2000
하나는 제가 가장 좋아하는 에티 간호사가 알려준 건데요
14:49
told me that I did not take her pain into consideration.
320
889330
4000
제가 그녀의 고통을 고려하지 않았다는 겁니다.
14:53
She said, "Of course, you know, it was very painful for you.
321
893330
2000
그녀는 "물론 너도 정말 아팠겠지만
14:55
But think about me as a nurse,
322
895330
2000
간호사로서의 내 입장도 생각해봐라.
14:57
taking, removing the bandages of somebody I liked,
323
897330
2000
내가 좋아하는 사람의 붕대를 떼내는데
14:59
and had to do it repeatedly over a long period of time.
324
899330
3000
그것도 반복적으로 아주 오랬동안 해야되는 상황을 말야.
15:02
Creating so much torture was not something that was good for me, too."
325
902330
3000
그런 큰 고통을 일으키는 건 나로서도 괴로운 일이었다"고 했습니다.
15:05
And she said maybe part of the reason was it was difficult for her.
326
905330
5000
그리고 또 그분이 한 말이, 그녀로서 그 일이 어려웠던 이유일지도 모르는데
15:10
But it was actually more interesting than that, because she said,
327
910330
3000
저로서는 아주 흥미로운 말이었어요. 그 분 얘기가
15:13
"I did not think that your intuition was right.
328
913330
5000
"나는 네 직관이 옳다고 생각하지 않았다.
15:18
I felt my intuition was correct."
329
918330
1000
내 직관이 맞다고 생각했다"라는 겁니다.
15:19
So, if you think about all of your intuitions,
330
919330
2000
여러분도 여러분의 모든 직관을 생각해보시면
15:21
it's very hard to believe that your intuition is wrong.
331
921330
4000
본인의 직관이 틀렸다고는 믿기 어려우실 겁니다.
15:25
And she said, "Given the fact that I thought my intuition was right ..." --
332
925330
3000
그리고 그녀가 한 말은, 자기의 직관이 맞았다고 전제할 때
15:28
she thought her intuition was right --
333
928330
2000
그녀는 본인의 직관이 옳다고 생각했고
15:30
it was very difficult for her to accept doing a difficult experiment
334
930330
5000
그래서 어려운 실험을 받아들이기가 쉽지 않았다는 겁니다.
15:35
to try and check whether she was wrong.
335
935330
2000
본인이 틀렸는지 확인해보기 어려웠다는 거죠.
15:37
But in fact, this is the situation we're all in all the time.
336
937330
4000
하지만 실제로 이런 상황이야말로 우리가 항상 처하는 상황입니다.
15:41
We have very strong intuitions about all kinds of things --
337
941330
3000
우리는 모든 것에 대해 아주 강력한 직관을 갖고 있습니다.
15:44
our own ability, how the economy works,
338
944330
3000
우리의 능력, 경제 현상,
15:47
how we should pay school teachers.
339
947330
2000
교사 급여 등에 대해서요.
15:49
But unless we start testing those intuitions,
340
949330
3000
하지만 이런 우리의 직관을 테스트해보기 전까지
15:52
we're not going to do better.
341
952330
2000
우리는 더 나아질 수 없습니다.
15:54
And just think about how better my life would have been
342
954330
2000
제 삶이 얼마나 좋아졌을지 한 번 생각해 보세요.
15:56
if these nurses would have been willing to check their intuition,
343
956330
2000
만일 간호사들이 본인의 직관을 테스트해보려 했다면 말이죠.
15:58
and how everything would have been better
344
958330
1000
모든 것이 더 나아질 수 있습니다.
15:59
if we just start doing more systematic experimentation of our intuitions.
345
959330
5000
우리가 우리의 직관에 대해 보다 체계적인 실험을 시작한다면 말이죠.
16:04
Thank you very much.
346
964330
2000
대단히 감사합니다.
New videos
Original video on YouTube.com
이 웹사이트 정보
이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.