What really motivates people to be honest in business | Alexander Wagner

233,748 views ・ 2017-09-26

TED


下の英語字幕をダブルクリックすると動画を再生できます。

翻訳: Hiroshi Uchiyama 校正: Eriko T
00:12
How many companies have you interacted with today?
0
12580
3440
今日1日で何社の企業と関わりましたか?
00:17
Well, you got up in the morning,
1
17060
1656
朝起きて
00:18
took a shower,
2
18740
1215
シャワーを浴び
00:19
washed your hair,
3
19980
1256
髪を洗って
00:21
used a hair dryer,
4
21260
1536
ドライヤーで乾かし
00:22
ate breakfast --
5
22820
1216
朝食を食べー
00:24
ate cereals, fruit, yogurt, whatever --
6
24060
1858
シリアルや果物 ヨーグルトか何かを食べ
00:25
had coffee --
7
25942
1214
コーヒーを飲みー
00:27
tea.
8
27180
1376
あるいはお茶を飲み
00:28
You took public transport to come here,
9
28580
1976
ここに来るために公共交通機関に乗るか
00:30
or maybe used your private car.
10
30580
1840
自家用車に乗ったでしょう
00:33
You interacted with the company that you work for or that you own.
11
33340
3560
あなたが勤めている あるいは 経営する企業と関わりました
00:37
You interacted with your clients,
12
37980
1960
依頼人と関わり
00:40
your customers,
13
40580
1200
顧客と関わり
00:42
and so on and so forth.
14
42460
1256
そんな感じです
00:43
I'm pretty sure there are at least seven companies
15
43740
3616
今日だけでも少なくとも7社と あなたが関わっていると
00:47
you've interacted with today.
16
47380
1760
断言できます
00:49
Let me tell you a stunning statistic.
17
49780
2000
驚くべき統計についてお話しします
00:52
One out of seven large, public corporations
18
52660
4376
毎年 大企業の7社に1社が
00:57
commit fraud every year.
19
57060
2240
不正行為を働いています
01:00
This is a US academic study that looks at US companies --
20
60220
3416
これはアメリカ企業を対象にした 学術研究ですが
01:03
I have no reason to believe that it's different in Europe.
21
63660
3200
ヨーロッパで大きく異なるとは思えません
01:07
This is a study that looks at both detected and undetected fraud
22
67300
4216
この研究は統計手法を使い 露呈の有無に関係なく
01:11
using statistical methods.
23
71540
1736
不正行為の数を導いています
01:13
This is not petty fraud.
24
73300
1720
不正行為は些細な詐欺ではありません
01:15
These frauds cost the shareholders of these companies,
25
75940
2856
不正行為はその企業の株主に損失を与え
01:18
and therefore society,
26
78820
1256
社会に損失を与え
01:20
on the order of 380 billion dollars per year.
27
80100
3600
毎年その額は3800億ドルに上ります
01:24
We can all think of some examples, right?
28
84780
2216
例を挙げる事ができると思います
01:27
The car industry's secrets aren't quite so secret anymore.
29
87020
3800
自動車業界の秘密はもはや秘密ではありません
01:31
Fraud has become a feature,
30
91620
3296
金融サービス業界の不正行為は
01:34
not a bug,
31
94940
1216
バグ(誤り)ではなくて
01:36
of the financial services industry.
32
96180
1936
もはや仕組みの一部になっています
01:38
That's not me who's claiming that,
33
98140
2216
これは私個人の意見ではなく
01:40
that's the president of the American Finance Association
34
100380
3256
アメリカ金融学会の理事が
01:43
who stated that in his presidential address.
35
103660
2936
就任演説で述べたものです
01:46
That's a huge problem if you think about, especially,
36
106620
2736
金融業界の信用に大きく依存する
01:49
an economy like Switzerland,
37
109380
1696
スイスのような経済を考えると
01:51
which relies so much on the trust put into its financial industry.
38
111100
4200
これは巨大な問題です
01:56
On the other hand,
39
116780
1216
その一方で
01:58
there are six out of seven companies who actually remain honest
40
118020
3536
不正行為に手を染める誘惑に打ち勝ち
02:01
despite all temptations to start engaging in fraud.
41
121580
3840
7社の内6社は健全性を保っています
02:06
There are whistle-blowers like Michael Woodford,
42
126060
2296
オリンパスで内部告発をした
02:08
who blew the whistle on Olympus.
43
128380
2336
マイケル・ウッドフォードのような 人々がいます
02:10
These whistle-blowers risk their careers,
44
130740
2696
その様な告発者は自分のキャリアや友情を 犠牲にするリスクを抱えながら
02:13
their friendships,
45
133460
1216
02:14
to bring out the truth about their companies.
46
134700
2136
彼らの企業の真実を白日の下に晒すのです
02:16
There are journalists like Anna Politkovskaya
47
136860
2616
人権侵害の取材のために 自らの命を危険に晒す
02:19
who risk even their lives to report human rights violations.
48
139500
3856
アンナ・ポリトコフスカヤのような ジャーナリストがいます
02:23
She got killed --
49
143380
1216
彼女は殺害されました
02:24
every year,
50
144620
1216
毎年 およそ100人のジャーナリストが
02:25
around 100 journalists get killed
51
145860
1656
02:27
because of their conviction to bring out the truth.
52
147540
2720
真実を公開するという信条のゆえに 命を奪われています
02:31
So in my talk today,
53
151860
1256
今日私のトークでは
02:33
I want to share with you some insights I've obtained and learned
54
153140
3496
10年に渡るこの問題の研究から
02:36
in the last 10 years of conducting research in this.
55
156660
3296
私が学んだ事柄を 皆さんと共有したいと思います
02:39
I'm a researcher, a scientist working with economists,
56
159980
3496
私は研究者で 多方面の方々と仕事をします 経済学者や
02:43
financial economists,
57
163500
1336
金融経済学者や
02:44
ethicists, neuroscientists,
58
164860
2056
倫理学者や 脳神経科学者や
02:46
lawyers and others
59
166940
1336
弁護士など
02:48
trying to understand what makes humans tick,
60
168300
2096
何が人を衝き動かすのかを理解し
02:50
and how can we address this issue of fraud in corporations
61
170420
4776
企業の不正行為という課題を どう解決すべきか
02:55
and therefore contribute to the improvement of the world.
62
175220
3160
それにより 世界をより良いものにすべく 貢献をするために研究しています
02:59
I want to start by sharing with you two very distinct visions
63
179100
3536
人々の行動についての2つの異なる ビジョンを共有する事から
03:02
of how people behave.
64
182660
1816
始めたいと思います
03:04
First, meet Adam Smith,
65
184500
1840
最初はアダム・スミス
03:07
founding father of modern economics.
66
187020
1960
現代経済学の創始者です
03:10
His basic idea was that if everybody behaves in their own self-interests,
67
190100
4296
彼の基本的な考え方は 誰しも私利私欲で行動すれば
03:14
that's good for everybody in the end.
68
194420
2520
最終的には皆の利益になるというものでした
03:17
Self-interest isn't a narrowly defined concept
69
197900
3056
私利私欲は単なるお手軽な概念などでは無く
03:20
just for your immediate utility.
70
200980
1936
03:22
It has a long-run implication.
71
202940
1936
長期的な影響力があるものです
03:24
Let's think about that.
72
204900
1480
少し考えて見ましょう
03:26
Think about this dog here.
73
206900
2016
この犬を例にとります
03:28
That might be us.
74
208940
1200
私たち自身の姿かもしれません
03:31
There's this temptation --
75
211260
1256
こんな誘惑があったとします
03:32
I apologize to all vegetarians, but --
76
212540
2376
菜食主義の方には申し訳ありませんが
03:34
(Laughter)
77
214940
1016
03:35
Dogs do like the bratwurst.
78
215980
1696
(笑)
犬はブラートヴルストが好きなものです
03:37
(Laughter)
79
217700
2376
(笑)
03:40
Now, the straight-up, self-interested move here
80
220100
3096
そして私利私欲に任せて
03:43
is to go for that.
81
223220
1576
一直線に飛びつきます
03:44
So my friend Adam here might jump up,
82
224820
2936
私の友達 アダムは飛び上がって
03:47
get the sausage and thereby ruin all this beautiful tableware.
83
227780
3360
ソーセージを取るのですが 美しい食器をめちゃくちゃにします
03:51
But that's not what Adam Smith meant.
84
231820
1816
でもそうしたかった訳ではありません
03:53
He didn't mean disregard all consequences --
85
233660
2656
彼は意図しないこの結末を 無視するつもりは無かったのです
03:56
to the contrary.
86
236340
1216
03:57
He would have thought,
87
237580
1256
彼はまずい結果に
03:58
well, there may be negative consequences,
88
238860
2016
なるかも知れないと考えたでしょう
04:00
for example,
89
240900
1216
例えば
04:02
the owner might be angry with the dog
90
242140
3096
飼い主が怒るかもしれないと考え
04:05
and the dog, anticipating that, might not behave in this way.
91
245260
3600
犬は思い直すかも知れません
04:09
That might be us,
92
249660
1256
これは私たちの姿かも知れません
04:10
weighing the benefits and costs of our actions.
93
250940
3056
自分の行動による利益と損失を比較します
04:14
How does that play out?
94
254020
1240
その考えはどこから来るのか?
04:15
Well, many of you, I'm sure,
95
255780
1976
皆さんが勤めている
04:17
have in your companies,
96
257780
1536
多くの企業では
04:19
especially if it's a large company,
97
259340
1816
特に大企業であれば
04:21
a code of conduct.
98
261180
1656
行動規範があるはずです
04:22
And then if you behave according to that code of conduct,
99
262860
3416
その行動規範に則って行動すれば
04:26
that improves your chances of getting a bonus payment.
100
266300
3176
ボーナスを貰える機会が増えます
04:29
And on the other hand, if you disregard it,
101
269500
2135
その一方でそれを無視すれば
04:31
then there are higher chances of not getting your bonus
102
271659
2737
ボーナスが貰えないか
04:34
or its being diminished.
103
274420
1536
減額されます
04:35
In other words,
104
275980
1256
言い方を変えると
04:37
this is a very economic motivation
105
277260
1816
経済的な動機付けにより
04:39
of trying to get people to be more honest,
106
279100
2776
人々をより誠実にさせ
04:41
or more aligned with the corporation's principles.
107
281900
3360
企業の規範と一致させようとするのです
04:46
Similarly, reputation is a very powerful economic force, right?
108
286060
5256
類似したところでは 評判はとても強い経済の原動力と言えます
04:51
We try to build a reputation,
109
291340
1536
良い評判を得るために
04:52
maybe for being honest,
110
292900
1416
例えば誠実であるように務め
04:54
because then people trust us more in the future.
111
294340
2400
将来 人々からより信頼されるように励みます
04:57
Right?
112
297780
1216
そうですよね?
04:59
Adam Smith talked about the baker
113
299020
2096
アダム・スミスは
05:01
who's not producing good bread out of his benevolence
114
301140
3776
消費者への親切心からではなく
05:04
for those people who consume the bread,
115
304940
3016
将来パンをもっと多く売りたいとの思いから
05:07
but because he wants to sell more future bread.
116
307980
3040
良いパンを作る パン焼き職人について語りましたが
05:11
In my research, we find, for example,
117
311980
2216
私がチューリッヒ大学で行った研究で 明らかになったことですが
05:14
at the University of Zurich,
118
314220
1376
05:15
that Swiss banks who get caught up in media,
119
315620
4200
例えば脱税や税金詐欺などで
05:20
and in the context, for example,
120
320540
1776
スイスの銀行が
05:22
of tax evasion, of tax fraud,
121
322340
1536
メディアで取り上げられると
05:23
have bad media coverage.
122
323900
1736
評判を落としてしまいます
05:25
They lose net new money in the future
123
325660
2736
すると彼らは将来の新規預金を失い
05:28
and therefore make lower profits.
124
328420
1616
利益が縮小します
05:30
That's a very powerful reputational force.
125
330060
2360
これは非常に強力な評判の力の例です
05:34
Benefits and costs.
126
334020
1600
利益と損失
05:36
Here's another viewpoint of the world.
127
336940
2576
もう1つの世界の見方をお話しします
05:39
Meet Immanuel Kant,
128
339540
1536
イマヌエル・カントは
05:41
18th-century German philosopher superstar.
129
341100
2760
18世紀のドイツ哲学界の スーパースターです
05:44
He developed this notion
130
344740
1616
彼が展開した考えは
05:46
that independent of the consequences,
131
346380
3136
その行為の結果に関わらず
05:49
some actions are just right
132
349540
2976
いくつかの行動はただ正しく いくつかの行動はただ誤りである
05:52
and some are just wrong.
133
352540
1696
というものでした
05:54
It's just wrong to lie, for example.
134
354260
3216
嘘をつくのは悪いというのが良い例です
05:57
So, meet my friend Immanuel here.
135
357500
3136
では友達のイマヌエルに登場してもらいます
06:00
He knows that the sausage is very tasty,
136
360660
2816
彼はソーセージがとても美味しい事を 知っています
06:03
but he's going to turn away because he's a good dog.
137
363500
2456
しかし彼は良い犬なので 食べようとはしません
06:05
He knows it's wrong to jump up
138
365980
2696
彼は棚に飛び上がって
06:08
and risk ruining all this beautiful tableware.
139
368700
2800
美しい食器を壊すリスクを取るのが 誤った行動だと知っています
06:12
If you believe that people are motivated like that,
140
372340
2416
人々もこんな動機で 行動すると考えると
06:14
then all the stuff about incentives,
141
374780
2176
インセンティブ、行動規範 ボーナス制度などは
06:16
all the stuff about code of conduct and bonus systems and so on,
142
376980
3776
06:20
doesn't make a whole lot of sense.
143
380780
2176
あまり意味を成さなくなります
06:22
People are motivated by different values perhaps.
144
382980
4176
人々は多分違った価値観によって 動機付けされるのです
06:27
So, what are people actually motivated by?
145
387180
3376
では実際 何によって 動機付けされているのでしょうか
06:30
These two gentlemen here have perfect hairdos,
146
390580
2176
この2人の紳士は完璧な髪形ですが
06:32
but they give us very different views of the world.
147
392780
4480
しかし全く異なる世界観を 私たちに見せてくれます
06:37
What do we do with this?
148
397660
1256
私たちはどう行動すべきか?
06:38
Well, I'm an economist
149
398940
1656
私は経済学者であり
06:40
and we conduct so-called experiments to address this issue.
150
400620
4176
そしてこの問題を解決するための 実験といえる事を進めています
06:44
We strip away facts which are confusing in reality.
151
404820
3296
現実では混乱を起こす事実を取り払い
06:48
Reality is so rich, there is so much going on,
152
408140
2736
現実はとても豊かで いろいろな事が起こっていて
06:50
it's almost impossible to know what drives people's behavior really.
153
410900
3960
人々は何に衝き動かされ行動するのかを 正確に知る事はほぼ不可能です
06:55
So let's do a little experiment together.
154
415340
2720
ここでちょっとした実験をします
06:58
Imagine the following situation.
155
418500
2600
こんな状況を想像してください
07:02
You're in a room alone,
156
422220
2416
あなたはある部屋に1人でいます
07:04
not like here.
157
424660
1536
こんな場所ではありません
07:06
There's a five-franc coin like the one I'm holding up right now
158
426220
3440
私が今持っているような 5フランコインが1枚
07:10
in front of you.
159
430380
1576
目の前にあります
07:11
Here are your instructions:
160
431980
1576
あなたの作業は
07:13
toss the coin four times,
161
433580
2480
コインを4回投げて
07:17
and then on a computer terminal in front of you,
162
437620
2416
傍にあるコンピュータに
07:20
enter the number of times tails came up.
163
440060
3656
何回裏面が出たかを入力することです
07:23
This is the situation.
164
443740
1280
こんなシチュエーションです
07:25
Here's the rub.
165
445540
1216
ここからが厄介です
07:26
For every time that you announce that you had a tails throw,
166
446780
3376
申告された 裏面の出た数毎に
07:30
you get paid five francs.
167
450180
1496
5フランが支払われます
07:31
So if you say I had two tails throws,
168
451700
2536
裏面が2回出たと申告すれば
07:34
you get paid 10 francs.
169
454260
2216
10フランが支払われます
07:36
If you say you had zero, you get paid zero francs.
170
456500
2936
裏面の出た回数が0回だったと申告すれば 貰うのは0フランです
07:39
If you say, "I had four tails throws,"
171
459460
2456
もし裏面が4回出たと申告すれば
07:41
then you get paid 20 francs.
172
461940
2016
20フランが支払われます
07:43
It's anonymous,
173
463980
1256
匿名で行われるので
07:45
nobody's watching what you're doing,
174
465260
1896
誰もあなたの行動を見ていず
07:47
and you get paid that money anonymously.
175
467180
2336
匿名のまま支払いを受け取れます
07:49
I've got two questions for you.
176
469540
1477
2つの質問をします
07:51
(Laughter)
177
471580
1616
(笑)
07:53
You know what's coming now, right?
178
473220
1640
質問を想像できますね?
07:55
First, how would you behave in that situation?
179
475820
3480
最初の質問は あなたならどう振舞いますか?
08:00
The second, look to your left and look to your right --
180
480060
2936
2つめの質問は 右側と左側の方を見てー
08:03
(Laughter)
181
483020
1016
(笑)
08:04
and think about how the person sitting next to you
182
484060
2376
隣に座る人たちが
08:06
might behave in that situation.
183
486460
1656
どう振舞うと思いますか?
08:08
We did this experiment for real.
184
488140
2136
実際にこの実験を行ってみました
08:10
We did it at the Manifesta art exhibition
185
490300
2696
マニフェスタ芸術展が
08:13
that took place here in Zurich recently,
186
493020
2456
最近チューリッヒで行われた際に
08:15
not with students in the lab at the university
187
495500
2856
大学の研究室の学生ではなく
08:18
but with the real population,
188
498380
1776
皆さんのような 一般市民を対象にしました
08:20
like you guys.
189
500180
1200
08:21
First, a quick reminder of stats.
190
501900
2136
先ずは統計学の復習です
08:24
If I throw the coin four times and it's a fair coin,
191
504060
3576
裏表それぞれが出る確率が等しいコインを 4回投げた時に
08:27
then the probability that it comes up four times tails
192
507660
4096
4回とも裏面が出る確率は
08:31
is 6.25 percent.
193
511780
2400
6.25%です
08:34
And I hope you can intuitively see
194
514900
1656
直観で理解して欲しいのですが
08:36
that the probability that all four of them are tails is much lower
195
516580
3376
裏が4回出る確率は 2回出る確率に比べて
08:39
than if two of them are tails, right?
196
519980
2120
かなり低いものです
08:42
Here are the specific numbers.
197
522580
1440
このように数字で示されています
08:45
Here's what happened.
198
525859
1496
さて何が起きたでしょうか
08:47
People did this experiment for real.
199
527379
2201
現実に人々がこの実験に臨みました
08:50
Around 30 to 35 percent of people said,
200
530619
3336
およそ30-35%の人が
08:53
"Well, I had four tails throws."
201
533979
2401
「ええと 4回裏が出ました」と言います
08:57
That's extremely unlikely.
202
537460
1816
極端にありえない数字です
08:59
(Laughter)
203
539300
1936
(笑)
09:01
But the really amazing thing here,
204
541260
3136
恐らく経済学者にとって
09:04
perhaps to an economist,
205
544420
1296
さらに驚くべきは
09:05
is there are around 65 percent of people who did not say I had four tails throws,
206
545740
6536
約65%の人は4回裏が出たと 申告しなかった事でした
09:12
even though in that situation,
207
552300
2176
誰も監視していない状況下で
09:14
nobody's watching you,
208
554500
2096
4回とも裏が出たと
09:16
the only consequence that's in place
209
556620
1936
申告すれば現金をより多く
09:18
is you get more money if you say four than less.
210
558580
3336
手に入れられるにも関わらずです
09:21
You leave 20 francs on the table by announcing zero.
211
561940
3280
0回だったと申告した場合は 机の上の20フランを残して立ち去るのですよ
09:25
I don't know whether the other people all were honest
212
565860
2576
匿名の調査だったので 人々が本当に正直だったのか
09:28
or whether they also said a little bit higher or lower than what they did
213
568460
3456
少し違う数字を報告していたかは
09:31
because it's anonymous.
214
571940
1216
分かりません
09:33
We only observed the distribution.
215
573180
1656
私たちは統計分布を観察しただけです
09:34
But what I can tell you -- and here's another coin toss.
216
574860
2656
でも私から言える事は— おっと もう1枚コインが
09:37
There you go, it's tails.
217
577540
1496
裏が出ています
09:39
(Laughter)
218
579060
1496
(笑)
09:40
Don't check, OK?
219
580580
1456
調べちゃだめですよ?
09:42
(Laughter)
220
582060
2816
(笑)
09:44
What I can tell you
221
584900
1296
でも私から言える事は
09:46
is that not everybody behaved like Adam Smith would have predicted.
222
586220
4440
必ずしもすべての人がアダム・スミスの 予想の通りには振舞わなかった という事です
09:52
So what does that leave us with?
223
592660
1576
これはどういう意味か?
09:54
Well, it seems people are motivated by certain intrinsic values
224
594260
4496
人々はその人自身が持つ価値観に 動機付けられているようです
09:58
and in our research, we look at this.
225
598780
1800
私たちの研究は ここに着目して
10:01
We look at the idea that people have so-called protected values.
226
601260
4480
「保護価値」と呼ばれる考え方を 研究しています
10:06
A protected value isn't just any value.
227
606580
2816
「保護価値」 は単なる価値ではありません
10:09
A protected value is a value where you're willing to pay a price
228
609420
5816
代償を払ってでも 守りたいと考える価値が
10:15
to uphold that value.
229
615260
1256
「保護価値」 なのです
10:16
You're willing to pay a price to withstand the temptation to give in.
230
616540
4440
流されそうな誘惑に打ち勝つために 対価を払おうと思うのです
10:22
And the consequence is you feel better
231
622020
2656
結果として あなたの価値観と
10:24
if you earn money in a way that's consistent with your values.
232
624700
4296
一致する方法でお金が稼げれば 気分良く感じます
10:29
Let me show you this again in the metaphor of our beloved dog here.
233
629020
4280
この事を 愛すべき犬を例に説明します
10:34
If we succeed in getting the sausage without violating our values,
234
634420
4056
もし私たちの価値観を歪める事なく ソーセージを手に入れられれば
10:38
then the sausage tastes better.
235
638500
1976
ソーセージはよりおいしく感じるでしょう
10:40
That's what our research shows.
236
640500
1480
私たちの研究がそう示しました
10:42
If, on the other hand,
237
642540
1256
その一方で
10:43
we do so --
238
643820
1256
同様に
10:45
if we get the sausage
239
645100
1416
ソーセージを入手できても
10:46
and in doing so we actually violate values,
240
646540
3456
そのために価値観を歪めることになると
10:50
we value the sausage less.
241
650020
2976
ソーセージの価値は下がってしまうのです
10:53
Quantitatively, that's quite powerful.
242
653020
2456
定量的に見てもとても強力です
10:55
We can measure these protected values,
243
655500
2456
その 「保護価値」 を測ることもできます
10:57
for example,
244
657980
1216
例えば
10:59
by a survey measure.
245
659220
1920
アンケート調査によって計測します
11:02
Simple, nine-item survey that's quite predictive in these experiments.
246
662180
5976
簡単な9項目の質問が この実験では予測に役立ちました
11:08
If you think about the average of the population
247
668180
2336
平均値ということを考える場合
11:10
and then there's a distribution around it --
248
670540
2096
その周りには分布ができますー
11:12
people are different, we all are different.
249
672660
2040
人々はみな異なります 我々はみな異なるのです
11:15
People who have a set of protected values
250
675300
2976
ある一連の 「保護価値」 を持つ人々は
11:18
that's one standard deviation above the average,
251
678300
4176
平均から1標準偏差分大きい位置にいて
11:22
they discount money they receive by lying by about 25 percent.
252
682500
5056
彼らは嘘の申告をして貰った 金額の価値を25%低く感じるのです
11:27
That means a dollar received when lying
253
687580
3616
嘘をついて受け取った1ドルは 彼らにとっては75セントの価値であると
11:31
is worth to them only 75 cents
254
691220
2136
この結果は示していて
11:33
without any incentives you put in place for them to behave honestly.
255
693380
3696
誠実な振舞いを促す インセンティブがなかったとしてもこうです
11:37
It's their intrinsic motivation.
256
697100
1736
彼らの本能的な動機なのです
11:38
By the way, I'm not a moral authority.
257
698860
1856
ところで 私は道徳の専門家ではありません
11:40
I'm not saying I have all these beautiful values, right?
258
700740
2920
私が高徳な価値観をすべて持っているとは 言っていません ですね?
11:44
But I'm interested in how people behave
259
704260
1936
しかし 私は人々の振る舞いに興味があり
11:46
and how we can leverage that richness in human nature
260
706220
3376
人間性の豊かさを 実際に組織の改善に
11:49
to actually improve the workings of our organizations.
261
709620
3440
活用できるだろうか ということに 興味があるのです
11:54
So there are two very, very different visions here.
262
714220
3176
2つの実に異なるビジョンがあります
11:57
On the one hand,
263
717420
1336
1つには
11:58
you can appeal to benefits and costs
264
718780
3016
利益と損失に訴えて
12:01
and try to get people to behave according to them.
265
721820
2656
人々がそれに基づいて行動する様に 仕向ける方法です
12:04
On the other hand,
266
724500
1616
もう1つは
12:06
you can select people who have the values
267
726140
4016
あなたが同じ価値観と
12:10
and the desirable characteristics, of course --
268
730180
2216
それからもちろん好ましい特性や
12:12
competencies that go in line with your organization.
269
732420
3576
あなたの組織で役立つ技能を持った人物を 選ぶ方法もあります
12:16
I do not yet know where these protected values really come from.
270
736020
4216
その様な 「保護価値」 がどこから生まれるのか まだ判っていません
12:20
Is it nurture or is it nature?
271
740260
3376
育成されたものか あるいは 自然発生的なものなのか
12:23
What I can tell you
272
743660
1376
私が言えるのは
12:25
is that the distribution looks pretty similar for men and women.
273
745060
5096
分布は男女ともに 非常に似通っている事です
12:30
It looks pretty similar for those who had studied economics
274
750180
3776
経済学を学んだ人と 心理学を学んだ人の双方とも
12:33
or those who had studied psychology.
275
753980
2360
非常に類似している事です
12:37
It looks even pretty similar around different age categories
276
757820
3376
成人では異なる年齢層間でも
12:41
among adults.
277
761220
1216
非常に類似しています
12:42
But I don't know yet how this develops over a lifetime.
278
762460
2656
人生を通してどう発達するのかも 判っていません
12:45
That will be the subject of future research.
279
765140
3440
これらはこれからの研究課題です
12:49
The idea I want to leave you with
280
769460
1656
皆さんにお伝えしたいアイデアは
12:51
is it's all right to appeal to incentives.
281
771140
2776
インセンティブに訴えるのは正しい という事です
12:53
I'm an economist;
282
773940
1216
私は経済学者なので
12:55
I certainly believe in the fact that incentives work.
283
775180
2920
インセンティブが有効に機能することを 固く信じています
12:59
But do think about selecting the right people
284
779220
4016
しかし 人々を集めて インセンティブを与える仕組みを作るよりも
13:03
rather than having people and then putting incentives in place.
285
783260
3496
正しい人選をすることを考えてみてください
13:06
Selecting the right people with the right values
286
786780
2256
正しい価値観を持つ正しい人材を集めれば
13:09
may go a long way to saving a lot of trouble
287
789060
3936
結局は あなたの組織の多くの問題や損失を
13:13
and a lot of money
288
793020
1376
未然に防ぐことになるのですから
13:14
in your organizations.
289
794420
1736
13:16
In other words,
290
796180
1256
つまり
13:17
it will pay off to put people first.
291
797460
3760
人間を最優先すれば成果が上がるのです
13:21
Thank you.
292
801860
1216
ありがとうございました
13:23
(Applause)
293
803100
3640
(拍手)
このウェブサイトについて

このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。

https://forms.gle/WvT1wiN1qDtmnspy7