What really motivates people to be honest in business | Alexander Wagner
234,583 views ・ 2017-09-26
아래 영문자막을 더블클릭하시면 영상이 재생됩니다.
번역: Jeong Woo Song
검토: Jihyeon J. Kim
00:12
How many companies
have you interacted with today?
0
12580
3440
오늘 하루
얼마나 많은 기업을 접했나요?
00:17
Well, you got up in the morning,
1
17060
1656
아침에 일어나서
00:18
took a shower,
2
18740
1215
샤워를 하고
00:19
washed your hair,
3
19980
1256
머리를 감고
00:21
used a hair dryer,
4
21260
1536
머리를 말리고
00:22
ate breakfast --
5
22820
1216
밥을 먹죠.
00:24
ate cereals, fruit, yogurt, whatever --
6
24060
1858
시리얼, 과일, 요거트 등등
00:25
had coffee --
7
25942
1214
커피도 마셨고
00:27
tea.
8
27180
1376
차도요.
00:28
You took public transport to come here,
9
28580
1976
이곳에 올 때 대중교통을 이용했죠.
00:30
or maybe used your private car.
10
30580
1840
아니면 자가용을 이용했겠죠.
00:33
You interacted with the company
that you work for or that you own.
11
33340
3560
여러분은 일하시거나
소유하고 있는 회사와 만납니다.
00:37
You interacted with your clients,
12
37980
1960
여러분의 의뢰인, 고객들과도 만나죠.
00:40
your customers,
13
40580
1200
00:42
and so on and so forth.
14
42460
1256
기타 등등..
00:43
I'm pretty sure there are
at least seven companies
15
43740
3616
오늘 여러분은 적어도
일곱 회사들을 겪었을 겁니다.
00:47
you've interacted with today.
16
47380
1760
00:49
Let me tell you a stunning statistic.
17
49780
2000
제가 충격적인 통계를
보여드리겠습니다.
00:52
One out of seven
large, public corporations
18
52660
4376
일곱 개의 거대 공기업들 중 하나는
00:57
commit fraud every year.
19
57060
2240
매년 사기를 칩니다.
01:00
This is a US academic study
that looks at US companies --
20
60220
3416
이건 미국 기업들을 연구한
미국의 학술자료입니다.
01:03
I have no reason to believe
that it's different in Europe.
21
63660
3200
물론, 유럽이라고 예외일거라
믿을 이유는 없죠.
01:07
This is a study that looks
at both detected and undetected fraud
22
67300
4216
이 연구자료는 밝혀진, 그리고
밝혀지지 않은 사기 모두를 포함합니다.
01:11
using statistical methods.
23
71540
1736
통게학적 접근을 통해서요.
01:13
This is not petty fraud.
24
73300
1720
이는 사소한 사기 같은 게 아닙니다.
01:15
These frauds cost
the shareholders of these companies,
25
75940
2856
이런 사기들은
기업들의 주주들과 사회에
01:18
and therefore society,
26
78820
1256
01:20
on the order of
380 billion dollars per year.
27
80100
3600
연간 약 $3800억(약430조원)의
비용을 초래합니다.
01:24
We can all think of some examples, right?
28
84780
2216
몇 가지 예가 떠오르지 않나요?
01:27
The car industry's secrets
aren't quite so secret anymore.
29
87020
3800
자동차 산업의 비밀들은
더 이상 비밀이 아니죠.
01:31
Fraud has become a feature,
30
91620
3296
사기는 금융 서비스업계의 오류가 아닌
01:34
not a bug,
31
94940
1216
하나의 특징이 되었습니다.
01:36
of the financial services industry.
32
96180
1936
01:38
That's not me who's claiming that,
33
98140
2216
이는 제가 주장하는 것이 아니라
01:40
that's the president
of the American Finance Association
34
100380
3256
미국 재무학회 회장이
01:43
who stated that
in his presidential address.
35
103660
2936
자신의 회장 연설에서 주장한 것입니다.
01:46
That's a huge problem
if you think about, especially,
36
106620
2736
이건 크나 큰 문제입니다.
01:49
an economy like Switzerland,
37
109380
1696
특히 신뢰를 기반으로 하는
금융 산업을 가진
01:51
which relies so much on the trust
put into its financial industry.
38
111100
4200
스위스와 같은 나라들을
고려한다면 말이죠.
01:56
On the other hand,
39
116780
1216
다른 한편으로
01:58
there are six out of seven companies
who actually remain honest
40
118020
3536
일곱 개의 기업 중
여섯 개는 정직하게 남아있죠.
02:01
despite all temptations
to start engaging in fraud.
41
121580
3840
사기의 유혹 속에도 말이죠.
02:06
There are whistle-blowers
like Michael Woodford,
42
126060
2296
Olympus의 비리를 고발한
02:08
who blew the whistle on Olympus.
43
128380
2336
마이클 우드포드 같은
내부고발자들도 있습니다.
02:10
These whistle-blowers risk their careers,
44
130740
2696
이들은 자신의 직장 생활을 겁니다.
02:13
their friendships,
45
133460
1216
그들의 동료애도요.
02:14
to bring out the truth
about their companies.
46
134700
2136
회사의 진실을 밝히기 위해서 말이죠.
02:16
There are journalists
like Anna Politkovskaya
47
136860
2616
안나 폴리코프스카야 같은
기자들도 있습니다.
02:19
who risk even their lives
to report human rights violations.
48
139500
3856
인권 침해 사례를
보도하기 위해 목숨까지도 바치죠.
02:23
She got killed --
49
143380
1216
그녀는 살해당했습니다.
02:24
every year,
50
144620
1216
매년
02:25
around 100 journalists get killed
51
145860
1656
약 100명의 기자들이 살해당합니다.
02:27
because of their conviction
to bring out the truth.
52
147540
2720
진실을 밝히겠다는 신념 하나로요.
02:31
So in my talk today,
53
151860
1256
따라서 오늘 전
02:33
I want to share with you
some insights I've obtained and learned
54
153140
3496
지난 10년간 이에 관한 연구를 하며
02:36
in the last 10 years
of conducting research in this.
55
156660
3296
얻은 견해를 나누고자 합니다.
02:39
I'm a researcher,
a scientist working with economists,
56
159980
3496
전 연구원이자 과학자입니다.
경제학자, 금융경제학자
02:43
financial economists,
57
163500
1336
02:44
ethicists, neuroscientists,
58
164860
2056
윤리학자, 신경 과학자
02:46
lawyers and others
59
166940
1336
변호사 등과
02:48
trying to understand
what makes humans tick,
60
168300
2096
무엇이 사람들을 움직이게 하고
02:50
and how can we address this issue
of fraud in corporations
61
170420
4776
이런 기업들의 사기 문제를
어떻게 해결할지를 이해해서
02:55
and therefore contribute
to the improvement of the world.
62
175220
3160
세상의 발전에 기여하기 위해 일합니다.
02:59
I want to start by sharing with you
two very distinct visions
63
179100
3536
먼저, 사람들이
어떻게 행동하는지에 대한
03:02
of how people behave.
64
182660
1816
두 개의 다른 시각을 나누고자 합니다.
03:04
First, meet Adam Smith,
65
184500
1840
첫째로, 애덤 스미스입니다
03:07
founding father of modern economics.
66
187020
1960
근대 경제학의 아버지이죠.
03:10
His basic idea was that if everybody
behaves in their own self-interests,
67
190100
4296
그의 기본적인 생각은,
만약 모두가 사리를 위해 행동한다면
03:14
that's good for everybody in the end.
68
194420
2520
이는 결과적으로
모두의 이익이 된다는 것입니다.
03:17
Self-interest isn't
a narrowly defined concept
69
197900
3056
사리는 그저 당신의 현재 이익을 위한
03:20
just for your immediate utility.
70
200980
1936
좁은 개념이 아닙니다.
03:22
It has a long-run implication.
71
202940
1936
이는 장기적인 암시를 담고 있지요.
03:24
Let's think about that.
72
204900
1480
한번 생각해봅시다.
03:26
Think about this dog here.
73
206900
2016
여기 이 개를 상상해보세요.
03:28
That might be us.
74
208940
1200
우리일지도 모릅니다.
03:31
There's this temptation --
75
211260
1256
여기 이 유혹이 있습니다.
03:32
I apologize to all vegetarians, but --
76
212540
2376
채식주의자들에겐 미안하지만
03:34
(Laughter)
77
214940
1016
03:35
Dogs do like the bratwurst.
78
215980
1696
(웃음)
개들은 소시지 좋아합니다
03:37
(Laughter)
79
217700
2376
(웃음)
03:40
Now, the straight-up,
self-interested move here
80
220100
3096
여기서 순수한 이기적 행동은
03:43
is to go for that.
81
223220
1576
바로 소시지에 달려드는 것입니다.
03:44
So my friend Adam here might jump up,
82
224820
2936
여기 제 친구 애덤은 점프해서
03:47
get the sausage and thereby ruin
all this beautiful tableware.
83
227780
3360
소시지를 물고 결과적으로
이 멋진 그릇들을 깨뜨리겠죠.
03:51
But that's not what Adam Smith meant.
84
231820
1816
하지만 이는 애덤 스미스가
의미한 것이 아닙니다.
03:53
He didn't mean
disregard all consequences --
85
233660
2656
그의 의도는 모든 결과를
무시하라는 게 아니었습니다.
03:56
to the contrary.
86
236340
1216
반대로
03:57
He would have thought,
87
237580
1256
그는 이렇게 생각했겠죠.
03:58
well, there may be negative consequences,
88
238860
2016
부정적 결과가 있을 수도 있어
04:00
for example,
89
240900
1216
가령
04:02
the owner might be angry with the dog
90
242140
3096
개의 주인이 화가 날 수도 있고
04:05
and the dog, anticipating that,
might not behave in this way.
91
245260
3600
그리고, 그 개는 이를 예측하여
이렇게 행동하지 않겠지요.
04:09
That might be us,
92
249660
1256
그게 우리일 수도 있습니다.
04:10
weighing the benefits
and costs of our actions.
93
250940
3056
우리 행동의 편익과 비용을
계산하고 있지요.
04:14
How does that play out?
94
254020
1240
이는 어떻게 수행될까요?
04:15
Well, many of you, I'm sure,
95
255780
1976
여기 있는 많은 분들의 회사에
04:17
have in your companies,
96
257780
1536
특히 큰 회사라면
04:19
especially if it's a large company,
97
259340
1816
있을 거라고 확신합니다.
04:21
a code of conduct.
98
261180
1656
바로 행동 수칙이요.
04:22
And then if you behave
according to that code of conduct,
99
262860
3416
그리고 그 행동수칙에 맞게 행동한다면
04:26
that improves your chances
of getting a bonus payment.
100
266300
3176
여러분이 보너스를
받을 확률을 높여주겠죠.
04:29
And on the other hand,
if you disregard it,
101
269500
2135
그리고 반대로, 만약 이를 어긴다면
04:31
then there are higher chances
of not getting your bonus
102
271659
2737
보너스를 받지 못할 확률이 더 크겠죠.
04:34
or its being diminished.
103
274420
1536
혹은 보너스가 줄 수도 있고요.
04:35
In other words,
104
275980
1256
다시 말해
04:37
this is a very economic motivation
105
277260
1816
이는 사람들이 더 정직해지거나
04:39
of trying to get people to be more honest,
106
279100
2776
기업의 규율에 준수하도록 만드는
04:41
or more aligned with
the corporation's principles.
107
281900
3360
굉장히 경제적인 동기 부여입니다.
04:46
Similarly, reputation is a very
powerful economic force, right?
108
286060
5256
마찬가지로, 명성도 하나의 강력한
경제적 자극입니다, 그렇죠?
04:51
We try to build a reputation,
109
291340
1536
우리는 가령 정직하다는
명성을 쌓고 싶어합니다.
04:52
maybe for being honest,
110
292900
1416
04:54
because then people
trust us more in the future.
111
294340
2400
그러면 사람들이 미래에
우리를 더 신뢰할 거라 믿기 때문이죠.
04:57
Right?
112
297780
1216
그렇죠?
04:59
Adam Smith talked about the baker
113
299020
2096
애덤 스미스는 좋은 빵을 생산하는
한 제빵사 얘기를 했습니다.
05:01
who's not producing good bread
out of his benevolence
114
301140
3776
그리고 그의 동기는 빵을 소비하는
사람들을 위한 박애가 아니라
05:04
for those people who consume the bread,
115
304940
3016
05:07
but because he wants to sell
more future bread.
116
307980
3040
미래에 빵을 더 많이
팔고 싶은 욕구라고 말했죠.
05:11
In my research, we find, for example,
117
311980
2216
저의 연구는, 예를 들어
05:14
at the University of Zurich,
118
314220
1376
취리히 대학에서 실시한 연구에선
05:15
that Swiss banks
who get caught up in media,
119
315620
4200
탈세나 세금 사기와 같은 이유로
매체의 주목을 받은 스위스 은행들은
05:20
and in the context, for example,
120
320540
1776
05:22
of tax evasion, of tax fraud,
121
322340
1536
안 좋은 언론의 평판을
받는다는 사실을 알아냈습니다.
05:23
have bad media coverage.
122
323900
1736
05:25
They lose net new money in the future
123
325660
2736
그들은 미래에 순수입을 잃게되고요.
05:28
and therefore make lower profits.
124
328420
1616
이에 따라 더 적은 수익을 내겠지요.
05:30
That's a very powerful reputational force.
125
330060
2360
이는 굉장히 강력한 명성의 힘입니다.
05:34
Benefits and costs.
126
334020
1600
비용과 편익
05:36
Here's another viewpoint of the world.
127
336940
2576
여기 세계의 또 다른 시각이 있습니다.
05:39
Meet Immanuel Kant,
128
339540
1536
임마누엘 칸트
05:41
18th-century German philosopher superstar.
129
341100
2760
18세기 독일의 대철학자
05:44
He developed this notion
130
344740
1616
그는 이런 관념을 고안했죠.
05:46
that independent of the consequences,
131
346380
3136
결과에 상관없이
05:49
some actions are just right
132
349540
2976
어떤 행동은 무조건적으로 옳고
05:52
and some are just wrong.
133
352540
1696
어떤 행동은 무조건적으로 틀립니다.
05:54
It's just wrong to lie, for example.
134
354260
3216
예를 들어 거짓말은
무조건적으로 나쁩니다.
05:57
So, meet my friend Immanuel here.
135
357500
3136
여기 제 친구 임마누엘이 있습니다.
06:00
He knows that the sausage is very tasty,
136
360660
2816
그는 소시지가 굉장히
맛있다는 것을 알지요.
06:03
but he's going to turn away
because he's a good dog.
137
363500
2456
하지만 그는 착한 개이기 때문에
돌아설 것입니다.
06:05
He knows it's wrong to jump up
138
365980
2696
점프해서 이 멋진 그릇들을 깨뜨릴
도박을 하는 것이 나쁜 행동임을 압니다.
06:08
and risk ruining
all this beautiful tableware.
139
368700
2800
만약 여러분이, 사람들이
이런 식으로 동기부여된다고 믿는다면
06:12
If you believe that people
are motivated like that,
140
372340
2416
06:14
then all the stuff about incentives,
141
374780
2176
인센티브나 행동수칙,
보너스 등에 대한 모든 것들은
06:16
all the stuff about code of conduct
and bonus systems and so on,
142
376980
3776
06:20
doesn't make a whole lot of sense.
143
380780
2176
별로 의미가 없습니다.
06:22
People are motivated
by different values perhaps.
144
382980
4176
사람들은 어쩌면 다른 가치들에
의해 동기부여되는 것이죠.
06:27
So, what are people actually motivated by?
145
387180
3376
그래서, 대체 무엇이
사람들을 자극하는 것일까요?
06:30
These two gentlemen here
have perfect hairdos,
146
390580
2176
이 두 사람은 죽이는
헤어스타일을 가졌지만
06:32
but they give us
very different views of the world.
147
392780
4480
극명하게 다른 세계관을 보여줍니다.
06:37
What do we do with this?
148
397660
1256
우리는 어떻게 할까요?
06:38
Well, I'm an economist
149
398940
1656
저는 경제학자입니다.
06:40
and we conduct so-called experiments
to address this issue.
150
400620
4176
우리는 이 문제를 다루기 위해
흔히 말하는 실험을 합니다.
06:44
We strip away facts
which are confusing in reality.
151
404820
3296
우리는 현실에서
헷갈리는 사실들을 제거합니다.
06:48
Reality is so rich,
there is so much going on,
152
408140
2736
현실은 너무 다채롭고,
너무 많은 것들이 진행되고 있습니다.
06:50
it's almost impossible to know
what drives people's behavior really.
153
410900
3960
무엇이 사람들의 행동을
이끄는가를 알아내기란 거의 불가능하죠.
06:55
So let's do a little experiment together.
154
415340
2720
그래서, 작은 실험을 하나
해볼까 합니다.
06:58
Imagine the following situation.
155
418500
2600
다음의 상황을 한번 상상해보세요.
07:02
You're in a room alone,
156
422220
2416
여러분은 방 안에 홀로 있습니다.
07:04
not like here.
157
424660
1536
여기와는 다르죠.
07:06
There's a five-franc coin
like the one I'm holding up right now
158
426220
3440
그곳에는 제가 지금 들고 있는것과
같은 5 프랑짜리 동전이 있습니다.
07:10
in front of you.
159
430380
1576
여러분 앞에 말이죠.
07:11
Here are your instructions:
160
431980
1576
여기 지시문이 있습니다.
07:13
toss the coin four times,
161
433580
2480
동전을 네 번 던지고
07:17
and then on a computer
terminal in front of you,
162
437620
2416
앞에 보이는 컴퓨터 단말기에
07:20
enter the number of times tails came up.
163
440060
3656
뒷면이 나오는 횟수를 입력하세요.
07:23
This is the situation.
164
443740
1280
이것이 우리의 가정입니다.
07:25
Here's the rub.
165
445540
1216
문제는 이겁니다.
07:26
For every time that you announce
that you had a tails throw,
166
446780
3376
여러분이 뒷면이 나왔다고 입력할 때마다
07:30
you get paid five francs.
167
450180
1496
여러분은 5 프랑을 지급받습니다.
07:31
So if you say I had two tails throws,
168
451700
2536
만약 여러분이 두번
뒷면이 나왔다고 하면
07:34
you get paid 10 francs.
169
454260
2216
10 프랑을 받습니다.
07:36
If you say you had zero,
you get paid zero francs.
170
456500
2936
만약 여러분이 0번이라고 하면,
아무것도 받지 못하는 거죠.
07:39
If you say, "I had four tails throws,"
171
459460
2456
만약 여러분이
"나는 뒷면이 4번 나왔소,"라고 하면
07:41
then you get paid 20 francs.
172
461940
2016
여러분은 20 프랑을 지급받습니다.
07:43
It's anonymous,
173
463980
1256
이 실험은 익명이고
07:45
nobody's watching what you're doing,
174
465260
1896
아무도 여러분을
지켜보고 있지 않습니다.
07:47
and you get paid that money anonymously.
175
467180
2336
돈도 익명으로 지급받고요.
07:49
I've got two questions for you.
176
469540
1477
여러분께 두 개의 질문이 있습니다.
07:51
(Laughter)
177
471580
1616
(웃음)
07:53
You know what's coming now, right?
178
473220
1640
대충 감이 오시죠?
07:55
First, how would you behave
in that situation?
179
475820
3480
첫째로, 여러분은
어떤 행동을 하시겠습니까?
08:00
The second, look to your left
and look to your right --
180
480060
2936
두번째로, 각자 양옆을 보세요.
08:03
(Laughter)
181
483020
1016
(웃음)
08:04
and think about how
the person sitting next to you
182
484060
2376
그리고 여러분 옆의 사람들은
어떤 행동을 할지
08:06
might behave in that situation.
183
486460
1656
한번 상상해 보세요.
08:08
We did this experiment for real.
184
488140
2136
우린 이 실험을 실제로 했습니다.
08:10
We did it at the Manifesta art exhibition
185
490300
2696
최근에 여기 취리히에서 개최된
08:13
that took place here in Zurich recently,
186
493020
2456
Manifesta 미술전에서 말이죠.
08:15
not with students in the lab
at the university
187
495500
2856
대학교 실험실 속의 학생들이 아니라
08:18
but with the real population,
188
498380
1776
실제 여러분 같은
민간인을 대상으로 했습니다.
08:20
like you guys.
189
500180
1200
08:21
First, a quick reminder of stats.
190
501900
2136
먼저, 상황을 짧게 요약해볼게요.
08:24
If I throw the coin four times
and it's a fair coin,
191
504060
3576
만약 제가 동전을 네 번 던지고,
동전이 보통 동전이라면
08:27
then the probability
that it comes up four times tails
192
507660
4096
뒷면이 4번 나올 확률은
08:31
is 6.25 percent.
193
511780
2400
6.25%입니다
08:34
And I hope you can intuitively see
194
514900
1656
여러분들은 직관적으로
08:36
that the probability that all four
of them are tails is much lower
195
516580
3376
뒷면이 4번 모두 나올 확률은
2번 나올 확률보다
08:39
than if two of them are tails, right?
196
519980
2120
현저히 낮다는 것을 알 수 있습니다.
08:42
Here are the specific numbers.
197
522580
1440
여기 자세한 수치들이 나와있습니다.
08:45
Here's what happened.
198
525859
1496
그리고, 이것이 바로 결과입니다.
08:47
People did this experiment for real.
199
527379
2201
사람들은 이 실험을
실제로 수행했습니다.
08:50
Around 30 to 35 percent of people said,
200
530619
3336
약 30에서 35%의 사람들이
08:53
"Well, I had four tails throws."
201
533979
2401
"저는 뒷면이 4번 나왔어요."
라고 말했습니다
08:57
That's extremely unlikely.
202
537460
1816
굉장히 비현실적이죠.
08:59
(Laughter)
203
539300
1936
(웃음)
09:01
But the really amazing thing here,
204
541260
3136
하지만, 더 놀라운 것은
09:04
perhaps to an economist,
205
544420
1296
경제학자에게는요.
09:05
is there are around 65 percent of people
who did not say I had four tails throws,
206
545740
6536
약 65%의 사람들은 뒷면이
4번 나왔다고 말하지 않았다는 것입니다.
09:12
even though in that situation,
207
552300
2176
아무도 자신을 보고 있지 않고
09:14
nobody's watching you,
208
554500
2096
유일한 결론은
09:16
the only consequence that's in place
209
556620
1936
4번이라 말하는 것이
더 많은 돈을 챙길 수 있다는
09:18
is you get more money
if you say four than less.
210
558580
3336
상황 속에서도 말이죠.
09:21
You leave 20 francs on the table
by announcing zero.
211
561940
3280
여러분은 0이라 말함으로써
20프랑을 버리는 꼴이 됩니다.
09:25
I don't know whether
the other people all were honest
212
565860
2576
저는 다른 사람들이 모두 정직했는지
09:28
or whether they also said a little bit
higher or lower than what they did
213
568460
3456
혹은 그들도 조금씩 높이거나
낮추었는지는 알지 못합니다.
09:31
because it's anonymous.
214
571940
1216
익명으로 진행되었기 때문이죠.
09:33
We only observed the distribution.
215
573180
1656
우리는 오직 분포만을 관찰했습니다.
09:34
But what I can tell you --
and here's another coin toss.
216
574860
2656
확실한 건, 또 한번 던져볼까요.
09:37
There you go, it's tails.
217
577540
1496
그렇죠, 뒷면입니다.
09:39
(Laughter)
218
579060
1496
(웃음)
09:40
Don't check, OK?
219
580580
1456
확인하진 마세요, 알겠죠?
09:42
(Laughter)
220
582060
2816
(웃음)
09:44
What I can tell you
221
584900
1296
확실한 건
09:46
is that not everybody behaved
like Adam Smith would have predicted.
222
586220
4440
모두가 애덤 스미스의 추측대로
행동하진 않았다는 것입니다.
09:52
So what does that leave us with?
223
592660
1576
그래서, 그게 무슨 의미가 있는 거죠?
09:54
Well, it seems people are motivated
by certain intrinsic values
224
594260
4496
음, 사람들은 특정한 내면적 가치에
의해 자극된다고 볼 수 있습니다.
09:58
and in our research, we look at this.
225
598780
1800
그리고, 우리의 연구에서
우린 이를 살펴봅니다.
10:01
We look at the idea that people have
so-called protected values.
226
601260
4480
사람들이 이른바 보호가치를
지니고 있다는 발상을 살펴봅니다.
10:06
A protected value isn't just any value.
227
606580
2816
보호가치란 그저 아무 가치가 아닙니다.
10:09
A protected value is a value
where you're willing to pay a price
228
609420
5816
보호가치란 여러분이
그 가치를 유지하기 위해
기꺼이 비용을 지불할 가치를 말합니다.
10:15
to uphold that value.
229
615260
1256
10:16
You're willing to pay a price
to withstand the temptation to give in.
230
616540
4440
여러분은 유혹을 견디기 위해
기꺼이 비용을 지불할 것입니다.
10:22
And the consequence is you feel better
231
622020
2656
그리고 그 결과는
여러분이 더 행복하다는 것입니다.
10:24
if you earn money in a way
that's consistent with your values.
232
624700
4296
만약 여러분의 가치에 부합하는
방법으로 돈을 벌었다면 말이죠.
10:29
Let me show you this again
in the metaphor of our beloved dog here.
233
629020
4280
우리의 사랑스러운 개를
통한 비유로 다시 한번 보여드리죠.
10:34
If we succeed in getting the sausage
without violating our values,
234
634420
4056
만약 우리가 우리의 가치를 침해하지
않고 소시지를 얻는데 성공한다면
10:38
then the sausage tastes better.
235
638500
1976
그 소시지는 더 맛있을 겁니다.
10:40
That's what our research shows.
236
640500
1480
이는 저희의 연구가 보여주는 바이죠.
10:42
If, on the other hand,
237
642540
1256
하지만 만약
10:43
we do so --
238
643820
1256
우리가 이렇게
10:45
if we get the sausage
239
645100
1416
소시지를 얻는 과정에서
10:46
and in doing so
we actually violate values,
240
646540
3456
우리의 가치를 침해한다면
10:50
we value the sausage less.
241
650020
2976
우리는 소시지의 가치를 하락시킵니다.
10:53
Quantitatively, that's quite powerful.
242
653020
2456
양적으로, 이는 꽤나 강력합니다.
10:55
We can measure these protected values,
243
655500
2456
우린 이러한 보호가치들을
계산할 수 있습니다.
10:57
for example,
244
657980
1216
예를 들어
10:59
by a survey measure.
245
659220
1920
설문조사를 통해서 말이죠.
11:02
Simple, nine-item survey that's quite
predictive in these experiments.
246
662180
5976
간단한, 아홉 항목 설문조사는
이 실험들에서 꽤나 효과적입니다.
11:08
If you think about the average
of the population
247
668180
2336
만약 여러분이 사람들의
평균을 생각한다면
11:10
and then there's
a distribution around it --
248
670540
2096
이를 둘러싼 분포가 존재합니다.
11:12
people are different,
we all are different.
249
672660
2040
사람들은 다릅니다,
우리는 모두 다르죠.
11:15
People who have a set of protected values
250
675300
2976
평균 보다 1 표준 편차 위의
보호가치를 지닌 사람들은
11:18
that's one standard deviation
above the average,
251
678300
4176
11:22
they discount money they receive
by lying by about 25 percent.
252
682500
5056
그들이 거짓말을 통해 번 돈을
약 25% 할인합니다.
11:27
That means a dollar received when lying
253
687580
3616
다시말해,
거짓말을 통해 얻은 1달러는
11:31
is worth to them only 75 cents
254
691220
2136
그들에겐 오직 75센트의
가치를 지닌다는 의미죠.
11:33
without any incentives you put in place
for them to behave honestly.
255
693380
3696
그들이 정직하게 행동하도록 제공하는
인센티브가 전혀 없을 때 말이에요.
11:37
It's their intrinsic motivation.
256
697100
1736
이는 그들의 내면적인 동기부여입니다.
11:38
By the way, I'm not a moral authority.
257
698860
1856
그러나, 저는 도덕적인
성인이 아닙니다.
11:40
I'm not saying I have
all these beautiful values, right?
258
700740
2920
제가 이런 모든 아름다운 가치들을
지니고 있다는게 아니에요. 그렇죠?
11:44
But I'm interested in how people behave
259
704260
1936
하지만 저는
사람들이 어떻게 행동하는지
11:46
and how we can leverage
that richness in human nature
260
706220
3376
우리가 어떻게 하면 조직의 개선을 위해
인간 본성 속 그 풍부함을 활용하는지에
11:49
to actually improve
the workings of our organizations.
261
709620
3440
관심이 있습니다.
11:54
So there are two
very, very different visions here.
262
714220
3176
따라서, 여기 두개의
극명히 다른 관점이 존재합니다.
11:57
On the one hand,
263
717420
1336
한편으로는
11:58
you can appeal to benefits and costs
264
718780
3016
여러분은 비용과 편익에 끌려
12:01
and try to get people
to behave according to them.
265
721820
2656
사람들을 이에 따라
행동하게 만들 수도 있습니다
12:04
On the other hand,
266
724500
1616
다른 한편으론
12:06
you can select people who have the values
267
726140
4016
여러분은 여러분의 조직에 맞는 가치와
12:10
and the desirable
characteristics, of course --
268
730180
2216
바람직한 성격은 물론, 능력까지 겸비한
12:12
competencies that go
in line with your organization.
269
732420
3576
사람들을 선발할 수도 있습니다.
12:16
I do not yet know where
these protected values really come from.
270
736020
4216
저는 아직 이러한 보호가치들이
어디서부터 오는지 알지 못합니다.
12:20
Is it nurture or is it nature?
271
740260
3376
후천적일까요 아니면 선천적일까요?
12:23
What I can tell you
272
743660
1376
하지만 확실한 건
12:25
is that the distribution
looks pretty similar for men and women.
273
745060
5096
이의 분포는 남자와 여자 사이에서
꽤나 비슷한 것이라는 겁니다.
12:30
It looks pretty similar
for those who had studied economics
274
750180
3776
경제학을 공부한 사람들과,
심리학을 공부한 사람들 사이에서도요.
12:33
or those who had studied psychology.
275
753980
2360
12:37
It looks even pretty similar
around different age categories
276
757820
3376
또, 어른들 가운데
다른 연령대 사이에서도 비슷합니다.
12:41
among adults.
277
761220
1216
12:42
But I don't know yet
how this develops over a lifetime.
278
762460
2656
하지만, 아직 이가 일생 중
어떻게 발전하는지는 알지 못합니다.
12:45
That will be the subject
of future research.
279
765140
3440
이는 미래 연구의 주제가 될 것입니다.
12:49
The idea I want to leave you with
280
769460
1656
제가 남기고 싶은 생각은
12:51
is it's all right to appeal to incentives.
281
771140
2776
인센티브에 끌려도 괜찮다는 겁니다.
12:53
I'm an economist;
282
773940
1216
저는 경제학자입니다.
12:55
I certainly believe in the fact
that incentives work.
283
775180
2920
저는 인센티브가 효과가 있다는 것을
믿어 의심치 않습니다.
12:59
But do think about selecting
the right people
284
779220
4016
하지만, 사람들에게 인센티브를
부여하는 것이 아니라
13:03
rather than having people
and then putting incentives in place.
285
783260
3496
올바른 사람을 선발하는 것을
생각해보세요.
13:06
Selecting the right people
with the right values
286
786780
2256
올바른 가치를 지닌
올바른 사람을 선발하는 것은
13:09
may go a long way
to saving a lot of trouble
287
789060
3936
여러분의 조직에서
많은 역경과 돈을
13:13
and a lot of money
288
793020
1376
13:14
in your organizations.
289
794420
1736
절약해 줄 것입니다.
13:16
In other words,
290
796180
1256
다시 말해
13:17
it will pay off to put people first.
291
797460
3760
사람을 먼저 고려하는 것이
성과를 발휘할 것입니다.
13:21
Thank you.
292
801860
1216
감사합니다.
13:23
(Applause)
293
803100
3640
(박수)
New videos
Original video on YouTube.com
이 웹사이트 정보
이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.