What really motivates people to be honest in business | Alexander Wagner

233,748 views ・ 2017-09-26

TED


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

Переводчик: Редактор: Anna Pecot
00:12
How many companies have you interacted with today?
0
12580
3440
Со сколькими компаниями вы взаимодействовали сегодня?
00:17
Well, you got up in the morning,
1
17060
1656
Утром вы встали,
00:18
took a shower,
2
18740
1215
приняли душ,
00:19
washed your hair,
3
19980
1256
помыли голову,
00:21
used a hair dryer,
4
21260
1536
высушили волосы феном,
00:22
ate breakfast --
5
22820
1216
позавтракали
00:24
ate cereals, fruit, yogurt, whatever --
6
24060
1858
хлопьями, фруктами, йогуртом — не важно,
00:25
had coffee --
7
25942
1214
выпили чашку кофе
00:27
tea.
8
27180
1376
или чая.
00:28
You took public transport to come here,
9
28580
1976
Вы приехали сюда на общественном транспорте
00:30
or maybe used your private car.
10
30580
1840
или, может, на собственной машине.
00:33
You interacted with the company that you work for or that you own.
11
33340
3560
Вы побывали на работе — в компании,
на которую работаете или которой владеете.
00:37
You interacted with your clients,
12
37980
1960
Вы пообщались с вашими клиентами,
00:40
your customers,
13
40580
1200
покупателями
00:42
and so on and so forth.
14
42460
1256
и так далее и тому подобное.
00:43
I'm pretty sure there are at least seven companies
15
43740
3616
Я абсолютно уверен, что сегодня вы так или иначе имели дело
00:47
you've interacted with today.
16
47380
1760
с минимум семью компаний.
00:49
Let me tell you a stunning statistic.
17
49780
2000
Приведу поражающую статистику.
00:52
One out of seven large, public corporations
18
52660
4376
Одна из семи крупных государственных корпораций
00:57
commit fraud every year.
19
57060
2240
каждый год совершает мошенничество.
01:00
This is a US academic study that looks at US companies --
20
60220
3416
Это данные исследования компаний в США.
01:03
I have no reason to believe that it's different in Europe.
21
63660
3200
И у меня нет причин полагать, что в Европе дела обстоят иначе.
01:07
This is a study that looks at both detected and undetected fraud
22
67300
4216
Целью исследования было изучение скрытых и явных видов мошенничества
01:11
using statistical methods.
23
71540
1736
с использованием статистических методов.
01:13
This is not petty fraud.
24
73300
1720
Речь не идёт о мелком мошенничестве.
01:15
These frauds cost the shareholders of these companies,
25
75940
2856
Мошенничество корпораций обходится акционерам,
01:18
and therefore society,
26
78820
1256
а значит, и обществу,
01:20
on the order of 380 billion dollars per year.
27
80100
3600
порядка 380 миллиардов долларов в год.
01:24
We can all think of some examples, right?
28
84780
2216
Мы все можем привести несколько примеров, да?
01:27
The car industry's secrets aren't quite so secret anymore.
29
87020
3800
Секреты автомобильной промышленности уже всплыли наружу.
01:31
Fraud has become a feature,
30
91620
3296
Мошенничество стало отличительной чертой,
01:34
not a bug,
31
94940
1216
а не ошибкой
01:36
of the financial services industry.
32
96180
1936
в сфере финансовых услуг.
01:38
That's not me who's claiming that,
33
98140
2216
Об этом впервые заговорил не я,
01:40
that's the president of the American Finance Association
34
100380
3256
а президент Американской финансовой ассоциации,
01:43
who stated that in his presidential address.
35
103660
2936
который заявил об этом в своём выступлении.
01:46
That's a huge problem if you think about, especially,
36
106620
2736
Это огромная проблема, особенно если брать во внимание
01:49
an economy like Switzerland,
37
109380
1696
экономику, например Швейцарии,
01:51
which relies so much on the trust put into its financial industry.
38
111100
4200
построенную на доверии в финансовой отрасли.
01:56
On the other hand,
39
116780
1216
С другой стороны,
01:58
there are six out of seven companies who actually remain honest
40
118020
3536
шесть из семи компаний ведут честную деятельность,
02:01
despite all temptations to start engaging in fraud.
41
121580
3840
несмотря на все соблазны.
02:06
There are whistle-blowers like Michael Woodford,
42
126060
2296
Встречаются осведомители, такие как Майкл Вудфорд,
02:08
who blew the whistle on Olympus.
43
128380
2336
который раскрыл секреты деятельности компании Olympus.
02:10
These whistle-blowers risk their careers,
44
130740
2696
Эти люди рискуют своей карьерой,
02:13
their friendships,
45
133460
1216
дружбой,
02:14
to bring out the truth about their companies.
46
134700
2136
открывая правду о компаниях, в которых работают.
02:16
There are journalists like Anna Politkovskaya
47
136860
2616
Есть такие журналисты, как Анна Политковская,
02:19
who risk even their lives to report human rights violations.
48
139500
3856
которые рискуют даже своей жизнью, чтобы изобличить нарушения прав человека.
02:23
She got killed --
49
143380
1216
Её убили.
02:24
every year,
50
144620
1216
Ежегодно
02:25
around 100 journalists get killed
51
145860
1656
около 100 журналистов лишаются жизни
02:27
because of their conviction to bring out the truth.
52
147540
2720
из-за убеждений, что мир должен знать правду.
02:31
So in my talk today,
53
151860
1256
И в своём выступлении сегодня
02:33
I want to share with you some insights I've obtained and learned
54
153140
3496
я хочу поделиться с вами некоторыми выводами —
02:36
in the last 10 years of conducting research in this.
55
156660
3296
результатами исследования, проведённого мной за последние 10 лет.
02:39
I'm a researcher, a scientist working with economists,
56
159980
3496
Я исследователь, учёный. Я работаю с экономистами,
02:43
financial economists,
57
163500
1336
экономистами по финансовой работе,
02:44
ethicists, neuroscientists,
58
164860
2056
специалистами по этике, нейроучёными,
02:46
lawyers and others
59
166940
1336
юристами и так далее,
02:48
trying to understand what makes humans tick,
60
168300
2096
пытаясь понять, что движет людьми
02:50
and how can we address this issue of fraud in corporations
61
170420
4776
и как решить проблему мошенничества в корпорациях,
02:55
and therefore contribute to the improvement of the world.
62
175220
3160
и тем самым попытаться сделать наш мир лучше.
02:59
I want to start by sharing with you two very distinct visions
63
179100
3536
Начнy с того, что расскажу вам о двух различных философских течениях,
03:02
of how people behave.
64
182660
1816
трактующих поведение людей.
03:04
First, meet Adam Smith,
65
184500
1840
Для начала познакомьтесь с Адамом Смитом,
03:07
founding father of modern economics.
66
187020
1960
основоположником современной экономики.
03:10
His basic idea was that if everybody behaves in their own self-interests,
67
190100
4296
Он верил в то, что если все будут вести себя, исходя из собственных интересов,
03:14
that's good for everybody in the end.
68
194420
2520
в итоге так будет лучше для всех.
03:17
Self-interest isn't a narrowly defined concept
69
197900
3056
Личная выгода не является узкой концепцией,
03:20
just for your immediate utility.
70
200980
1936
определяющей лишь сиюминутную пользу.
03:22
It has a long-run implication.
71
202940
1936
Такая выгода имеет долгосрочные последствия.
03:24
Let's think about that.
72
204900
1480
Давайте поразмышляем об этом.
03:26
Think about this dog here.
73
206900
2016
Возьмём к примеру эту собаку.
03:28
That might be us.
74
208940
1200
На её месте могли бы оказаться и мы.
03:31
There's this temptation --
75
211260
1256
Такой соблазн...
03:32
I apologize to all vegetarians, but --
76
212540
2376
Прошу прощения у всех вегетарианцев,
03:34
(Laughter)
77
214940
1016
03:35
Dogs do like the bratwurst.
78
215980
1696
(Смех)
но собаки любят сосиски.
03:37
(Laughter)
79
217700
2376
(Смех)
03:40
Now, the straight-up, self-interested move here
80
220100
3096
Естественным порывом собаки в собственных интересах
03:43
is to go for that.
81
223220
1576
было бы достать эту сосиску.
03:44
So my friend Adam here might jump up,
82
224820
2936
Мой друг Адам мог бы подпрыгнуть,
03:47
get the sausage and thereby ruin all this beautiful tableware.
83
227780
3360
достать сосиску и тем самым разбить всю эту прекрасную посуду.
03:51
But that's not what Adam Smith meant.
84
231820
1816
Но Адам Смит не это имел в виду.
03:53
He didn't mean disregard all consequences --
85
233660
2656
Он не говорил, что можно пренебречь возможными последствиями.
03:56
to the contrary.
86
236340
1216
Наоборот —
03:57
He would have thought,
87
237580
1256
он скорее подумал бы
03:58
well, there may be negative consequences,
88
238860
2016
о неприятных последствиях,
04:00
for example,
89
240900
1216
например,
04:02
the owner might be angry with the dog
90
242140
3096
что хозяин может разозлиться на собаку,
04:05
and the dog, anticipating that, might not behave in this way.
91
245260
3600
и собака, предчувствуя это, возможно, повела бы себя иначе.
04:09
That might be us,
92
249660
1256
Так же поступаем и мы,
04:10
weighing the benefits and costs of our actions.
93
250940
3056
взвешивая все за и против.
04:14
How does that play out?
94
254020
1240
И что же получается?
04:15
Well, many of you, I'm sure,
95
255780
1976
Я уверен,
04:17
have in your companies,
96
257780
1536
что в компаниях, где работают многие из вас,
04:19
especially if it's a large company,
97
259340
1816
особенно если это крупные компании,
04:21
a code of conduct.
98
261180
1656
есть кодекс корпоративной этики.
04:22
And then if you behave according to that code of conduct,
99
262860
3416
И если вы следуете этому кодексу,
04:26
that improves your chances of getting a bonus payment.
100
266300
3176
ваши шансы получить премиальные возрастают.
04:29
And on the other hand, if you disregard it,
101
269500
2135
С другой стороны, если вы пренебрегаете кодексом,
04:31
then there are higher chances of not getting your bonus
102
271659
2737
то можете лишиться премии
04:34
or its being diminished.
103
274420
1536
или получите её в меньшем размере.
04:35
In other words,
104
275980
1256
Другими словами,
04:37
this is a very economic motivation
105
277260
1816
компании используют экономическую мотивацию,
04:39
of trying to get people to be more honest,
106
279100
2776
чтобы побудить сотрудников вести себя более честно,
04:41
or more aligned with the corporation's principles.
107
281900
3360
в соответствии с принципами корпорации.
04:46
Similarly, reputation is a very powerful economic force, right?
108
286060
5256
Так же и репутация является довольно мощной экономической силой. Согласны?
04:51
We try to build a reputation,
109
291340
1536
Мы пытаемся создать репутацию,
04:52
maybe for being honest,
110
292900
1416
например честной компании,
04:54
because then people trust us more in the future.
111
294340
2400
чтобы клиенты доверяли нам в будущем.
04:57
Right?
112
297780
1216
Верно?
04:59
Adam Smith talked about the baker
113
299020
2096
Адам Смит приводил пример пекаря,
05:01
who's not producing good bread out of his benevolence
114
301140
3776
который печёт хороший хлеб, но не из-за своей благожелательности
05:04
for those people who consume the bread,
115
304940
3016
к покупателям,
05:07
but because he wants to sell more future bread.
116
307980
3040
а потому что хочет в будущем продать больше хлеба.
05:11
In my research, we find, for example,
117
311980
2216
В исследовании, проведённом в Цюрихском университете,
05:14
at the University of Zurich,
118
314220
1376
мы выяснили, например,
05:15
that Swiss banks who get caught up in media,
119
315620
4200
что швейцарские банки, получающие оcвещение в СМИ
05:20
and in the context, for example,
120
320540
1776
в связи, например,
с уклонением от уплаты налогов или налоговыми махинациями,
05:22
of tax evasion, of tax fraud,
121
322340
1536
05:23
have bad media coverage.
122
323900
1736
приобретают неблагоприятную репутацию.
05:25
They lose net new money in the future
123
325660
2736
У них наблюдается чистый отток средств,
05:28
and therefore make lower profits.
124
328420
1616
в результате чего снижаются доходы.
05:30
That's a very powerful reputational force.
125
330060
2360
Такой силой обладает репутация.
05:34
Benefits and costs.
126
334020
1600
Выгоды и издержки.
05:36
Here's another viewpoint of the world.
127
336940
2576
Вот ещё одна точка зрения.
05:39
Meet Immanuel Kant,
128
339540
1536
Познакомьтесь, это Иммануил Кант,
05:41
18th-century German philosopher superstar.
129
341100
2760
суперзвезда немецкой философской мысли XVIII века.
05:44
He developed this notion
130
344740
1616
Он развил идею о том,
05:46
that independent of the consequences,
131
346380
3136
что, независимо от последствий,
05:49
some actions are just right
132
349540
2976
некоторые поступки являются нравственными,
05:52
and some are just wrong.
133
352540
1696
другие — безнравственными.
05:54
It's just wrong to lie, for example.
134
354260
3216
Лгать, например, безнравственно.
05:57
So, meet my friend Immanuel here.
135
357500
3136
Итак, познакомьтесь с моим другом Иммануилом.
06:00
He knows that the sausage is very tasty,
136
360660
2816
Он знает, что сосиска очень вкусная,
06:03
but he's going to turn away because he's a good dog.
137
363500
2456
но он не полезет за ней, потому что Иммануил — хороший пёс.
06:05
He knows it's wrong to jump up
138
365980
2696
Он знает, что запрыгивать на мебель,
06:08
and risk ruining all this beautiful tableware.
139
368700
2800
рискуя разбить всю эту красивую посуду, неправильно.
06:12
If you believe that people are motivated like that,
140
372340
2416
Если вы верите, что у людей именно такая мотивация,
06:14
then all the stuff about incentives,
141
374780
2176
то все разговоры о стимулах,
06:16
all the stuff about code of conduct and bonus systems and so on,
142
376980
3776
кодексе корпоративной этики, премиальных системах и так далее
06:20
doesn't make a whole lot of sense.
143
380780
2176
не имеют смысла.
06:22
People are motivated by different values perhaps.
144
382980
4176
Возможно, людей мотивируют определённые ценности.
06:27
So, what are people actually motivated by?
145
387180
3376
Так что же на самом деле служит для нас мотивацией?
06:30
These two gentlemen here have perfect hairdos,
146
390580
2176
У этих двух джентльменов идеальные причёски,
06:32
but they give us very different views of the world.
147
392780
4480
но их системы мировоззрения в корне отличаются друг от друга.
06:37
What do we do with this?
148
397660
1256
И что же нам делать?
06:38
Well, I'm an economist
149
398940
1656
Я экономист,
06:40
and we conduct so-called experiments to address this issue.
150
400620
4176
и для решения подобных проблем мы проводим так называемые эксперименты.
06:44
We strip away facts which are confusing in reality.
151
404820
3296
Мы отбрасываем факты, запутывающие нашу действительность.
06:48
Reality is so rich, there is so much going on,
152
408140
2736
Наша действительность так богата, в ней столько всего происходит,
06:50
it's almost impossible to know what drives people's behavior really.
153
410900
3960
что разобраться, что на самом деле движет поведением человека, почти невозможно.
06:55
So let's do a little experiment together.
154
415340
2720
Давайте вместе проведём небольшой эксперимент.
06:58
Imagine the following situation.
155
418500
2600
Представьте следующую ситуацию.
07:02
You're in a room alone,
156
422220
2416
Вы в комнате одни,
07:04
not like here.
157
424660
1536
не как здесь.
07:06
There's a five-franc coin like the one I'm holding up right now
158
426220
3440
Перед вами монета номиналом в 5 франков,
наподобие той, что я держу в руке.
07:10
in front of you.
159
430380
1576
07:11
Here are your instructions:
160
431980
1576
Вот что вам предстоит сделать:
07:13
toss the coin four times,
161
433580
2480
подбросьте монету четыре раза,
07:17
and then on a computer terminal in front of you,
162
437620
2416
а затем на компьютерном терминале
07:20
enter the number of times tails came up.
163
440060
3656
введите число равное тому, сколько раз у вас выпала решка.
07:23
This is the situation.
164
443740
1280
Такое задание.
07:25
Here's the rub.
165
445540
1216
Но вот в чём штука.
07:26
For every time that you announce that you had a tails throw,
166
446780
3376
Каждый раз, когда вы заявите, что у вас выпала решка,
07:30
you get paid five francs.
167
450180
1496
вы получите пять франков.
07:31
So if you say I had two tails throws,
168
451700
2536
То есть если вы скажете, что решка выпала два раза,
07:34
you get paid 10 francs.
169
454260
2216
вам заплатят десять франков.
07:36
If you say you had zero, you get paid zero francs.
170
456500
2936
Если вы скажете, что решка ни разу не выпала, вам ничего не заплатят.
07:39
If you say, "I had four tails throws,"
171
459460
2456
Если вы сообщите, что решка выпала четыре раза,
07:41
then you get paid 20 francs.
172
461940
2016
вам заплатят двадцать франков.
07:43
It's anonymous,
173
463980
1256
Эксперимент проводится анонимно,
07:45
nobody's watching what you're doing,
174
465260
1896
никто не видит ваших действий,
07:47
and you get paid that money anonymously.
175
467180
2336
и заплатят вам так же анонимно.
07:49
I've got two questions for you.
176
469540
1477
Я задам вам два вопроса.
07:51
(Laughter)
177
471580
1616
(Смех)
07:53
You know what's coming now, right?
178
473220
1640
Вы уже предвидите, да?
07:55
First, how would you behave in that situation?
179
475820
3480
Во-первых, как вы поступите в такой ситуации?
08:00
The second, look to your left and look to your right --
180
480060
2936
Во-вторых, посмотрите налево, затем направо
08:03
(Laughter)
181
483020
1016
(Смех)
08:04
and think about how the person sitting next to you
182
484060
2376
и подумайте, как человек, сидящий рядом с вами,
08:06
might behave in that situation.
183
486460
1656
поступил бы в этой ситуации.
08:08
We did this experiment for real.
184
488140
2136
Мы провели такой эксперимент.
08:10
We did it at the Manifesta art exhibition
185
490300
2696
Провели его во время выставки «Манифеста»,
08:13
that took place here in Zurich recently,
186
493020
2456
прошедшей недавно здесь, в Цюрихе,
08:15
not with students in the lab at the university
187
495500
2856
но не со студентами в университетской лаборатории,
08:18
but with the real population,
188
498380
1776
а с обычными людьми
08:20
like you guys.
189
500180
1200
наподобие вас.
08:21
First, a quick reminder of stats.
190
501900
2136
Сперва быстренько приведу статистику.
08:24
If I throw the coin four times and it's a fair coin,
191
504060
3576
Если я подброшу монету четыре раза и эта монета симметрична,
08:27
then the probability that it comes up four times tails
192
507660
4096
то вероятность того, что решка выпадет четыре раза,
08:31
is 6.25 percent.
193
511780
2400
составляет 6.25%.
08:34
And I hope you can intuitively see
194
514900
1656
И я надеюсь, вы интуитивно понимаете,
08:36
that the probability that all four of them are tails is much lower
195
516580
3376
что вероятность выпадения решки все четыре раза намного ниже
08:39
than if two of them are tails, right?
196
519980
2120
вероятности выпадения решки два раза.
08:42
Here are the specific numbers.
197
522580
1440
А вот вам реальная статистика.
08:45
Here's what happened.
198
525859
1496
Вот что произошло.
08:47
People did this experiment for real.
199
527379
2201
Эксперимент был проведён в реальных условиях.
08:50
Around 30 to 35 percent of people said,
200
530619
3336
Около 30–35% опрашиваемых сказали:
08:53
"Well, I had four tails throws."
201
533979
2401
«У меня решка выпала четыре раза».
08:57
That's extremely unlikely.
202
537460
1816
Это крайне маловероятно.
08:59
(Laughter)
203
539300
1936
(Смех)
09:01
But the really amazing thing here,
204
541260
3136
Но что действительно поразительно,
09:04
perhaps to an economist,
205
544420
1296
особенно для экономистов, это то,
09:05
is there are around 65 percent of people who did not say I had four tails throws,
206
545740
6536
что около 65% респондентов не заявили о том, что решка у них выпала четыре раза
09:12
even though in that situation,
207
552300
2176
даже в этой ситуации,
09:14
nobody's watching you,
208
554500
2096
когда за ними никто не наблюдал,
09:16
the only consequence that's in place
209
556620
1936
и единственным результатом их ответа могла быть
09:18
is you get more money if you say four than less.
210
558580
3336
потенциально бо́льшая награда, если бы они заявили о выпадении всех решек.
09:21
You leave 20 francs on the table by announcing zero.
211
561940
3280
Вы отказываетесь от 20 франков, признаваясь, что выпало ноль решек.
09:25
I don't know whether the other people all were honest
212
565860
2576
Я не знаю, были ли остальные участники эксперимента честны
09:28
or whether they also said a little bit higher or lower than what they did
213
568460
3456
или они также немного завысили или занизили свой результат,
09:31
because it's anonymous.
214
571940
1216
ведь эксперимент проводился анонимно.
09:33
We only observed the distribution.
215
573180
1656
Мы наблюдали лишь распределение ответов.
09:34
But what I can tell you -- and here's another coin toss.
216
574860
2656
Но я могу вам сказать, что... Подброшу монету ещё раз.
09:37
There you go, it's tails.
217
577540
1496
Вот так, выпала решка.
09:39
(Laughter)
218
579060
1496
(Смех)
09:40
Don't check, OK?
219
580580
1456
Только не проверяйте, хорошо?
09:42
(Laughter)
220
582060
2816
(Смех)
09:44
What I can tell you
221
584900
1296
Но я могу вам сказать,
09:46
is that not everybody behaved like Adam Smith would have predicted.
222
586220
4440
что не все повели себя так, как предсказывал Адам Смит.
09:52
So what does that leave us with?
223
592660
1576
Так какие же выводы мы можем сделать?
09:54
Well, it seems people are motivated by certain intrinsic values
224
594260
4496
Очевидно, люди мотивированы определёнными внутренними ценностями,
09:58
and in our research, we look at this.
225
598780
1800
и мы изучаем это в нашем исследовании.
10:01
We look at the idea that people have so-called protected values.
226
601260
4480
Мы рассматриваем гипотезу о том,
что у людей есть так называемые защищённые ценности.
10:06
A protected value isn't just any value.
227
606580
2816
Защищённая ценность — это не просто ценность.
10:09
A protected value is a value where you're willing to pay a price
228
609420
5816
Защищённой она называется тогда, когда ради неё вы готовы
10:15
to uphold that value.
229
615260
1256
на определённые жертвы.
10:16
You're willing to pay a price to withstand the temptation to give in.
230
616540
4440
Вы готовы поплатиться чем бы то ни было, лишь бы устоять перед соблазном.
10:22
And the consequence is you feel better
231
622020
2656
Как результат, вы чувствуете бо́льшую удовлетворённость,
10:24
if you earn money in a way that's consistent with your values.
232
624700
4296
если зарабатываете деньги, следуя своим установленным ценностям.
10:29
Let me show you this again in the metaphor of our beloved dog here.
233
629020
4280
Я продемонстрирую это ещё раз на примере нашего любимого пса.
10:34
If we succeed in getting the sausage without violating our values,
234
634420
4056
Если мы можем достать сосиску, не поступаясь нашими ценностями,
10:38
then the sausage tastes better.
235
638500
1976
то и сосиска окажется вкуснее.
10:40
That's what our research shows.
236
640500
1480
Вот к какому выводу мы пришли.
10:42
If, on the other hand,
237
642540
1256
С другой стороны,
10:43
we do so --
238
643820
1256
если мы
10:45
if we get the sausage
239
645100
1416
добудем сосиску,
10:46
and in doing so we actually violate values,
240
646540
3456
пренебрегая нашими ценностями,
10:50
we value the sausage less.
241
650020
2976
то и ценность сосиски для нас снизится.
10:53
Quantitatively, that's quite powerful.
242
653020
2456
В количественном отношении это весьма значительно.
10:55
We can measure these protected values,
243
655500
2456
Мы можем измерить защищённые ценности,
10:57
for example,
244
657980
1216
к примеру,
10:59
by a survey measure.
245
659220
1920
проведя опрос.
11:02
Simple, nine-item survey that's quite predictive in these experiments.
246
662180
5976
Простой опрос из 9 вопросов,
результаты которого легко прогнозируемы в такого рода экспериментах.
Если взять ответы среднестатистического населения,
11:08
If you think about the average of the population
247
668180
2336
11:10
and then there's a distribution around it --
248
670540
2096
разброс значений будет наблюдаться по обе стороны от этой величины.
11:12
people are different, we all are different.
249
672660
2040
Все люди разные, все мы разные.
11:15
People who have a set of protected values
250
675300
2976
Те, у кого есть защищённые ценности,
11:18
that's one standard deviation above the average,
251
678300
4176
будут представлять одно отклонение от среднего значения.
11:22
they discount money they receive by lying by about 25 percent.
252
682500
5056
Деньги, полученные нечестным путём, обесцениваются для них в среднем на 25%.
11:27
That means a dollar received when lying
253
687580
3616
Это значит, что доллар, полученный с помощью обмана,
11:31
is worth to them only 75 cents
254
691220
2136
обесценится по их меркам до 75 центов
11:33
without any incentives you put in place for them to behave honestly.
255
693380
3696
даже при отсутствии мотива вести себя честно.
11:37
It's their intrinsic motivation.
256
697100
1736
У них есть внутренняя мотивация.
11:38
By the way, I'm not a moral authority.
257
698860
1856
К слову, я не собираюсь читать мораль.
11:40
I'm not saying I have all these beautiful values, right?
258
700740
2920
Я не утверждаю, что обладаю всеми этими чудесными ценностями.
11:44
But I'm interested in how people behave
259
704260
1936
Но меня интересует поведение людей
11:46
and how we can leverage that richness in human nature
260
706220
3376
и как мы можем использовать богатство человеческой природы,
11:49
to actually improve the workings of our organizations.
261
709620
3440
чтобы усовершенствовать работу наших организаций.
11:54
So there are two very, very different visions here.
262
714220
3176
Существуют два очень-очень разных подхода.
11:57
On the one hand,
263
717420
1336
С одной стороны,
11:58
you can appeal to benefits and costs
264
718780
3016
можно использовать систему выгод и издержек,
12:01
and try to get people to behave according to them.
265
721820
2656
чтобы побудить сотрудников вести себя соответствующе.
12:04
On the other hand,
266
724500
1616
С другой стороны,
12:06
you can select people who have the values
267
726140
4016
можно брать на работу лишь тех кандидатов, у которых уже имеются ценности
12:10
and the desirable characteristics, of course --
268
730180
2216
и желаемые характеристики,
12:12
competencies that go in line with your organization.
269
732420
3576
ну и, разумеется, профессиональные навыки, востребованные вашей организацией.
12:16
I do not yet know where these protected values really come from.
270
736020
4216
Я пока не знаю, откуда берутся эти защищённые ценности.
12:20
Is it nurture or is it nature?
271
740260
3376
С этим рождаются или это воспитывается?
12:23
What I can tell you
272
743660
1376
Но могу вам сказать,
12:25
is that the distribution looks pretty similar for men and women.
273
745060
5096
что функция распределения выглядит очень похоже среди мужчин и среди женщин.
12:30
It looks pretty similar for those who had studied economics
274
750180
3776
Это сходство подмечают как экономисты,
12:33
or those who had studied psychology.
275
753980
2360
так и психологи.
12:37
It looks even pretty similar around different age categories
276
757820
3376
Сходство наблюдается также и среди разных возрастных категорий
12:41
among adults.
277
761220
1216
взрослого населения.
12:42
But I don't know yet how this develops over a lifetime.
278
762460
2656
Но я пока не знаю, как ценности меняются с возрастом.
12:45
That will be the subject of future research.
279
765140
3440
Это станет объектом будущего исследования.
12:49
The idea I want to leave you with
280
769460
1656
Но сегодня я хотел бы донести до вас одну мысль:
12:51
is it's all right to appeal to incentives.
281
771140
2776
вознаграждение как средство мотивации — это нормально.
12:53
I'm an economist;
282
773940
1216
Я экономист,
12:55
I certainly believe in the fact that incentives work.
283
775180
2920
и я определённо верю, что это приносит плоды.
Но подумайте и о том, что можно было бы сразу нанять
12:59
But do think about selecting the right people
284
779220
4016
сотрудников, обладающих моральным стержнем,
13:03
rather than having people and then putting incentives in place.
285
783260
3496
вместо того, чтобы брать на работу кого угодно
и внедрять систему поощрений.
13:06
Selecting the right people with the right values
286
786780
2256
Нанимая нравственных людей с нравственными ценностями,
13:09
may go a long way to saving a lot of trouble
287
789060
3936
вы избавите свою организацию от множества проблем
13:13
and a lot of money
288
793020
1376
и сэкономите
13:14
in your organizations.
289
794420
1736
немало денег.
13:16
In other words,
290
796180
1256
Другими словами,
13:17
it will pay off to put people first.
291
797460
3760
делая ставку на персонал, вы обязательно окажетесь в выигрыше.
13:21
Thank you.
292
801860
1216
Спасибо.
13:23
(Applause)
293
803100
3640
(Аплодисменты)
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7