What really motivates people to be honest in business | Alexander Wagner

233,748 views ・ 2017-09-26

TED


A videó lejátszásához kattintson duplán az alábbi angol feliratokra.

Fordító: Péter Pallós Lektor: Reka Lorinczy
00:12
How many companies have you interacted with today?
0
12580
3440
Hány céggel kerültek ma kapcsolatba?
00:17
Well, you got up in the morning,
1
17060
1656
Reggel fölkeltek,
00:18
took a shower,
2
18740
1215
lezuhanyoztak,
00:19
washed your hair,
3
19980
1256
hajat mostak,
00:21
used a hair dryer,
4
21260
1536
hajszárítót használtak,
00:22
ate breakfast --
5
22820
1216
reggeliztek –
00:24
ate cereals, fruit, yogurt, whatever --
6
24060
1858
gabonapelyhet, gyümölcsöt, joghurtot, bármit –
00:25
had coffee --
7
25942
1214
kávéztak,
00:27
tea.
8
27180
1376
teáztak.
00:28
You took public transport to come here,
9
28580
1976
Közösségi közlekedéssel
00:30
or maybe used your private car.
10
30580
1840
vagy saját autójukkal jöttek ide.
00:33
You interacted with the company that you work for or that you own.
11
33340
3560
Kapcsolatba kerültek munkahelyükkel vagy saját cégükkel.
00:37
You interacted with your clients,
12
37980
1960
Kapcsolatba kerültek ügyfeleikkel,
00:40
your customers,
13
40580
1200
vevőikkel
00:42
and so on and so forth.
14
42460
1256
és így tovább.
00:43
I'm pretty sure there are at least seven companies
15
43740
3616
Biztos vagyok benne, hogy ma legalább hét céggel
00:47
you've interacted with today.
16
47380
1760
kerültek kapcsolatba.
00:49
Let me tell you a stunning statistic.
17
49780
2000
Megdöbbentő adatot hozok tudomásukra.
00:52
One out of seven large, public corporations
18
52660
4376
Minden évben, hét óriáscégből egy
00:57
commit fraud every year.
19
57060
2240
elkövet valamilyen csalást.
01:00
This is a US academic study that looks at US companies --
20
60220
3416
Ez egy USA-beli cégekről készült amerikai egyetemi tanulmányból derül ki.
01:03
I have no reason to believe that it's different in Europe.
21
63660
3200
Nem kétlem, hogy ez Európában sincs másként.
01:07
This is a study that looks at both detected and undetected fraud
22
67300
4216
A tanulmány kiterjed mind a földerített, mind a föl nem derített csalásokra.
01:11
using statistical methods.
23
71540
1736
Statisztikai módszereket használtak.
01:13
This is not petty fraud.
24
73300
1720
Ezek nem apró-cseprő csalások.
01:15
These frauds cost the shareholders of these companies,
25
75940
2856
E csalások az érintett cégek tulajdonosainak
01:18
and therefore society,
26
78820
1256
s így a társadalomnak
01:20
on the order of 380 billion dollars per year.
27
80100
3600
évente mintegy 380 milliárd dollárjába kerülnek.
01:24
We can all think of some examples, right?
28
84780
2216
Sorolhatunk példákat, ugye?
01:27
The car industry's secrets aren't quite so secret anymore.
29
87020
3800
Az autóipar titkai már nem annyira titkok.
01:31
Fraud has become a feature,
30
91620
3296
A csalás már jellemzője,
01:34
not a bug,
31
94940
1216
nem egyszeri kisiklása
01:36
of the financial services industry.
32
96180
1936
a pénzügyi szolgáltatóiparnak.
01:38
That's not me who's claiming that,
33
98140
2216
Nem én állítom,
01:40
that's the president of the American Finance Association
34
100380
3256
hanem az Amerikai Pénzügyi Egyesülés elnöke
01:43
who stated that in his presidential address.
35
103660
2936
az elnöki beszámolójában.
01:46
That's a huge problem if you think about, especially,
36
106620
2736
Ez óriási probléma, különösen,
01:49
an economy like Switzerland,
37
109380
1696
ha pl. Svájc gazdaságára gondolunk,
01:51
which relies so much on the trust put into its financial industry.
38
111100
4200
amely zömmel a pénzügyi ágazatba fektetett bizalmon alapszik.
01:56
On the other hand,
39
116780
1216
Másfelől,
01:58
there are six out of seven companies who actually remain honest
40
118020
3536
mégiscsak van hétből hat cég, amely tisztességes marad,
02:01
despite all temptations to start engaging in fraud.
41
121580
3840
a csalásra csábító minden kísértés ellenére.
02:06
There are whistle-blowers like Michael Woodford,
42
126060
2296
Vannak közérdekű bejelentők, mint Michael Woodford,
02:08
who blew the whistle on Olympus.
43
128380
2336
aki az Olympusról megkongatta a vészharangot.
02:10
These whistle-blowers risk their careers,
44
130740
2696
A bejelentők karrierjüket,
02:13
their friendships,
45
133460
1216
barátságukat kockáztatják,
02:14
to bring out the truth about their companies.
46
134700
2136
ha előállnak az igazsággal a cégeikről.
02:16
There are journalists like Anna Politkovskaya
47
136860
2616
Léteznek újságírók, mint Anna Politkovszkaja,
02:19
who risk even their lives to report human rights violations.
48
139500
3856
akik az emberi jogok megsértéséről írva életüket kockáztatják.
02:23
She got killed --
49
143380
1216
Annát meg is ölték.
02:24
every year,
50
144620
1216
Évente körülbelül
02:25
around 100 journalists get killed
51
145860
1656
100 újságírót ölnek meg meggyőződéséért,
02:27
because of their conviction to bring out the truth.
52
147540
2720
hogy közzé kell tenni az igazságot.
02:31
So in my talk today,
53
151860
1256
Mai előadásomban ismertetek
02:33
I want to share with you some insights I've obtained and learned
54
153140
3496
néhány értesülést, amelyet az utóbbi évtizedben szereztem
02:36
in the last 10 years of conducting research in this.
55
156660
3296
e tárgyban folytatott kutatásaimból.
02:39
I'm a researcher, a scientist working with economists,
56
159980
3496
Kutató vagyok, közgazdászokkal,
02:43
financial economists,
57
163500
1336
pénzügyi közgazdászokkal,
02:44
ethicists, neuroscientists,
58
164860
2056
filozófusokkal, idegtudósokkal,
02:46
lawyers and others
59
166940
1336
jogászokkal és másokkal dolgozom.
02:48
trying to understand what makes humans tick,
60
168300
2096
Igyekszünk megérteni, mi ösztönzi az embereket,
02:50
and how can we address this issue of fraud in corporations
61
170420
4776
hogyan ragadhatjuk meg a cégek csalásainak témáját,
02:55
and therefore contribute to the improvement of the world.
62
175220
3160
s ezzel járulhatunk hozzá a világ jobbításához.
02:59
I want to start by sharing with you two very distinct visions
63
179100
3536
Bemutatok két eltérő látásmódot
03:02
of how people behave.
64
182660
1816
az emberi viselkedésről.
03:04
First, meet Adam Smith,
65
184500
1840
Ő itt Adam Smith,
03:07
founding father of modern economics.
66
187020
1960
a modern közgazdaságtan megalapítója.
03:10
His basic idea was that if everybody behaves in their own self-interests,
67
190100
4296
Alapelve szerint mindenki önző érdekei szerint cselekszik,
03:14
that's good for everybody in the end.
68
194420
2520
amely végül mindenki javára válik.
03:17
Self-interest isn't a narrowly defined concept
69
197900
3056
Az önző érdek fogalma nincs pontosabban definiálva,
03:20
just for your immediate utility.
70
200980
1936
csak mint valaki közvetlen haszna.
03:22
It has a long-run implication.
71
202940
1936
Következményei messzire vezetnek.
03:24
Let's think about that.
72
204900
1480
Gondolkodjunk el rajtuk.
03:26
Think about this dog here.
73
206900
2016
Nézzük ezt a kutyát.
03:28
That might be us.
74
208940
1200
Mi is lehetünk a helyében.
03:31
There's this temptation --
75
211260
1256
Itt ez a kísértés...
03:32
I apologize to all vegetarians, but --
76
212540
2376
Elnézést a vegetáriánusoktól, de...
03:34
(Laughter)
77
214940
1016
03:35
Dogs do like the bratwurst.
78
215980
1696
(Nevetés)
A kutyák szeretik a sült kolbászt.
03:37
(Laughter)
79
217700
2376
(Nevetés)
03:40
Now, the straight-up, self-interested move here
80
220100
3096
Az elvárható logikus önérdekű cselekvés itt,
03:43
is to go for that.
81
223220
1576
hogy ráveti magát.
03:44
So my friend Adam here might jump up,
82
224820
2936
Adam barátunk fölugorhat,
03:47
get the sausage and thereby ruin all this beautiful tableware.
83
227780
3360
elkapja a kolbászt, de ezzel tönkreteszi a gyönyörű étkészletet.
03:51
But that's not what Adam Smith meant.
84
231820
1816
De Adam Smith nem erre gondolt.
03:53
He didn't mean disregard all consequences --
85
233660
2656
Nem a következmények figyelmen kívül hagyását értette ezen;
03:56
to the contrary.
86
236340
1216
ellenkezőleg.
03:57
He would have thought,
87
237580
1256
Gondolhatott arra,
03:58
well, there may be negative consequences,
88
238860
2016
hogy lehetnek negatív következmények is.
04:00
for example,
89
240900
1216
Példának okáért.
04:02
the owner might be angry with the dog
90
242140
3096
a gazdi mérges lehet a kutyára,
04:05
and the dog, anticipating that, might not behave in this way.
91
245260
3600
és a kutya – ezt előrelátva – lehet, hogy másként viselkedik.
04:09
That might be us,
92
249660
1256
Velünk is megtörténhet,
04:10
weighing the benefits and costs of our actions.
93
250940
3056
hogy mérlegeljük tetteink előnyeit és költségeit.
04:14
How does that play out?
94
254020
1240
Hogyan zajlik ez?
04:15
Well, many of you, I'm sure,
95
255780
1976
Biztos vagyok benne,
04:17
have in your companies,
96
257780
1536
hogy az önök cégénél,
04:19
especially if it's a large company,
97
259340
1816
különösen, ha a cég nagy,
04:21
a code of conduct.
98
261180
1656
van viselkedési szabályzat.
04:22
And then if you behave according to that code of conduct,
99
262860
3416
Ha önök e szabályzatnak megfelelően viselkednek,
04:26
that improves your chances of getting a bonus payment.
100
266300
3176
esélyük megnövekszik, hogy prémiumot kapnak.
04:29
And on the other hand, if you disregard it,
101
269500
2135
De ha fittyet hánynak rá,
04:31
then there are higher chances of not getting your bonus
102
271659
2737
annak nagyobb az esélye, hogy nem kapnak prémiumot,
04:34
or its being diminished.
103
274420
1536
vagy csak csökkentett mértékűt.
04:35
In other words,
104
275980
1256
Más szavakkal:
04:37
this is a very economic motivation
105
277260
1816
ez erős gazdasági ösztönzés,
04:39
of trying to get people to be more honest,
106
279100
2776
hogy a dolgozók rendesebbek legyenek,
04:41
or more aligned with the corporation's principles.
107
281900
3360
vagy jobban igazodjanak a cég elvárásaihoz.
04:46
Similarly, reputation is a very powerful economic force, right?
108
286060
5256
A hírnév is hatékony gazdasági erő, ugye?
04:51
We try to build a reputation,
109
291340
1536
Igyekszünk jó hírnevet szerezni,
04:52
maybe for being honest,
110
292900
1416
talán tisztességünkből adódóan,
04:54
because then people trust us more in the future.
111
294340
2400
hogy a jövőben jobban bízzanak bennünk.
04:57
Right?
112
297780
1216
Igaz?
Adam Smith példájában
04:59
Adam Smith talked about the baker
113
299020
2096
a pék nem jótékonyságból süt
05:01
who's not producing good bread out of his benevolence
114
301140
3776
05:04
for those people who consume the bread,
115
304940
3016
vevőinek jó kenyeret,
05:07
but because he wants to sell more future bread.
116
307980
3040
hanem mert a jövőben több kenyeret akar eladni.
05:11
In my research, we find, for example,
117
311980
2216
Kutatásaimból,
amelyet a zürichi egyetemen végeztünk,
05:14
at the University of Zurich,
118
314220
1376
05:15
that Swiss banks who get caught up in media,
119
315620
4200
kiderült, hogy a média által lefülelt svájci bankoknak,
05:20
and in the context, for example,
120
320540
1776
amelyeket például
adóelkerülésen, adócsaláson kaptak,
05:22
of tax evasion, of tax fraud,
121
322340
1536
05:23
have bad media coverage.
122
323900
1736
rossz volt a sajtójuk.
05:25
They lose net new money in the future
123
325660
2736
Nettó jövőbeni veszteséget szenvedtek,
05:28
and therefore make lower profits.
124
328420
1616
ezért kisebb volt a profitjuk.
05:30
That's a very powerful reputational force.
125
330060
2360
Ilyen hatékony gazdasági erő a jó hírnév.
05:34
Benefits and costs.
126
334020
1600
Előnyök és költségek.
05:36
Here's another viewpoint of the world.
127
336940
2576
Ez pedig egy másik világnézet.
05:39
Meet Immanuel Kant,
128
339540
1536
Ö itt Immanuel Kant,
05:41
18th-century German philosopher superstar.
129
341100
2760
a 18. századi szupersztár filozófus.
05:44
He developed this notion
130
344740
1616
E fogalmat dolgozta ki,
05:46
that independent of the consequences,
131
346380
3136
amely független a következményektől;
05:49
some actions are just right
132
349540
2976
bizonyos tettek jók,
05:52
and some are just wrong.
133
352540
1696
mások pedig rosszak.
05:54
It's just wrong to lie, for example.
134
354260
3216
Pl. hazudni erkölcstelen dolog.
05:57
So, meet my friend Immanuel here.
135
357500
3136
Tehát ez itt Immanuel barátom.
06:00
He knows that the sausage is very tasty,
136
360660
2816
Tudja, hogy a kolbász nagyon finom,
06:03
but he's going to turn away because he's a good dog.
137
363500
2456
de hátat fordít neki, mert jó kutya.
06:05
He knows it's wrong to jump up
138
365980
2696
Tudja, hogy helytelen fölugrani,
06:08
and risk ruining all this beautiful tableware.
139
368700
2800
és kockáztatni a gyönyörű étkészletet.
06:12
If you believe that people are motivated like that,
140
372340
2416
Ha azt hiszik, hogy ez motiválja az embereket,
06:14
then all the stuff about incentives,
141
374780
2176
akkor minden, ami ösztönzőkre,
06:16
all the stuff about code of conduct and bonus systems and so on,
142
376980
3776
viselkedési szabályokra és premizálási rendszerre vonatkozik,
06:20
doesn't make a whole lot of sense.
143
380780
2176
teljesen értelmetlen.
06:22
People are motivated by different values perhaps.
144
382980
4176
Az embereket esetleg a különböző értékek ösztönzik.
06:27
So, what are people actually motivated by?
145
387180
3376
Voltaképp mi ösztönzi őket?
06:30
These two gentlemen here have perfect hairdos,
146
390580
2176
E két úrnak tökéletes a frizurája,
06:32
but they give us very different views of the world.
147
392780
4480
de elütő a világnézetük.
06:37
What do we do with this?
148
397660
1256
Mit kezdjünk ezzel?
06:38
Well, I'm an economist
149
398940
1656
Közgazdász vagyok,
06:40
and we conduct so-called experiments to address this issue.
150
400620
4176
a témában ún. kísérleteket végzünk.
06:44
We strip away facts which are confusing in reality.
151
404820
3296
A valóság zavaros tényeit megtisztítjuk.
06:48
Reality is so rich, there is so much going on,
152
408140
2736
A valóság oly gazdag, oly sok minden történik,
06:50
it's almost impossible to know what drives people's behavior really.
153
410900
3960
majdnem lehetetlen kiigazodni, hogy mi mozgatja az emberek viselkedését.
06:55
So let's do a little experiment together.
154
415340
2720
Végezzünk együtt egy kis kísérletet!
06:58
Imagine the following situation.
155
418500
2600
Képzeljük el a következő helyzetet!
07:02
You're in a room alone,
156
422220
2416
Egyedül vannak a szobában;
07:04
not like here.
157
424660
1536
nem ilyenben, mint ez.
07:06
There's a five-franc coin like the one I'm holding up right now
158
426220
3440
Föltartok egy ötfrankos érmét
07:10
in front of you.
159
430380
1576
önök elé.
07:11
Here are your instructions:
160
431980
1576
Elmondom, mi a feladat.
07:13
toss the coin four times,
161
433580
2480
Dobják föl négyszer az érmét,
07:17
and then on a computer terminal in front of you,
162
437620
2416
és az előttük lévő számítógépbe írják be,
07:20
enter the number of times tails came up.
163
440060
3656
hány írást dobtak.
07:23
This is the situation.
164
443740
1280
Ez a helyzet.
07:25
Here's the rub.
165
445540
1216
De a csavar benne az,
07:26
For every time that you announce that you had a tails throw,
166
446780
3376
hogy minden bejelentett írásdobásra
07:30
you get paid five francs.
167
450180
1496
öt frank jutalmat kapnak.
07:31
So if you say I had two tails throws,
168
451700
2536
Ha pl. két írást dobtak,
07:34
you get paid 10 francs.
169
454260
2216
10 frankot kapnak.
07:36
If you say you had zero, you get paid zero francs.
170
456500
2936
Ha nulla írást, nulla frankot.
07:39
If you say, "I had four tails throws,"
171
459460
2456
Ha azt mondják: "Négy írás",
07:41
then you get paid 20 francs.
172
461940
2016
20 frankot kapnak.
07:43
It's anonymous,
173
463980
1256
Név nélkül játszunk,
07:45
nobody's watching what you're doing,
174
465260
1896
senki sem figyeli, mit csinálnak,
07:47
and you get paid that money anonymously.
175
467180
2336
és a pénzt is név nélkül kapják.
07:49
I've got two questions for you.
176
469540
1477
Két kérdésem van.
07:51
(Laughter)
177
471580
1616
(Nevetés)
07:53
You know what's coming now, right?
178
473220
1640
Ugye, tudják, mi következik?
07:55
First, how would you behave in that situation?
179
475820
3480
Az első: hogy viselkednek e helyzetben?
08:00
The second, look to your left and look to your right --
180
480060
2936
A másik: nézzenek balra, aztán jobbra,
08:03
(Laughter)
181
483020
1016
(Nevetés)
08:04
and think about how the person sitting next to you
182
484060
2376
és találják ki, szomszédjuk hogyan viselkedne
08:06
might behave in that situation.
183
486460
1656
e helyzetben.
08:08
We did this experiment for real.
184
488140
2136
A valóságban is elvégeztük a kísérletet.
08:10
We did it at the Manifesta art exhibition
185
490300
2696
Elvégeztük a Manifesta művészeti kiállításon,
08:13
that took place here in Zurich recently,
186
493020
2456
amely nemrég volt Zürichben;
08:15
not with students in the lab at the university
187
495500
2856
nem diákokkal egyetemi laborban,
08:18
but with the real population,
188
498380
1776
hanem valódi népességgel,
08:20
like you guys.
189
500180
1200
mint önök.
08:21
First, a quick reminder of stats.
190
501900
2136
Kezdetnek, gyors ismétlés statisztikából.
08:24
If I throw the coin four times and it's a fair coin,
191
504060
3576
Négy érmedobásra, ha az érme szabályos,
08:27
then the probability that it comes up four times tails
192
507660
4096
akkor a valószínűség, hogy négy írást dobunk
08:31
is 6.25 percent.
193
511780
2400
6,25%
08:34
And I hope you can intuitively see
194
514900
1656
Remélem, ösztönösen érzik,
08:36
that the probability that all four of them are tails is much lower
195
516580
3376
hogy a négy írás valószínűsége sokkal kisebb,
08:39
than if two of them are tails, right?
196
519980
2120
mint két írás valószínűségéé, ugye?
08:42
Here are the specific numbers.
197
522580
1440
Ezek az egyes valószínűségek.
08:45
Here's what happened.
198
525859
1496
Nézzük, mi történt.
08:47
People did this experiment for real.
199
527379
2201
Az emberek elvégezték a kísérletet.
08:50
Around 30 to 35 percent of people said,
200
530619
3336
30-35%-uk állította:
08:53
"Well, I had four tails throws."
201
533979
2401
"Négy írást dobtam."
08:57
That's extremely unlikely.
202
537460
1816
Ez aligha valószínű.
08:59
(Laughter)
203
539300
1936
(Nevetés)
09:01
But the really amazing thing here,
204
541260
3136
De közgazdászoknak
09:04
perhaps to an economist,
205
544420
1296
az igazán elképesztő,
09:05
is there are around 65 percent of people who did not say I had four tails throws,
206
545740
6536
hogy a résztvevők kb. 65%-a nem mondta, hogy négy írást dobott,
09:12
even though in that situation,
207
552300
2176
még az esetben sem,
09:14
nobody's watching you,
208
554500
2096
ha nem figyelték őket,
09:16
the only consequence that's in place
209
556620
1936
és az egyetlen következmény,
09:18
is you get more money if you say four than less.
210
558580
3336
hogy több pénzt kap, ha négyet mond, mintha kevesebbet.
09:21
You leave 20 francs on the table by announcing zero.
211
561940
3280
20 frankot veszni hagy, mert nullát mondott.
09:25
I don't know whether the other people all were honest
212
565860
2576
Nem tudom, vajon a többiek miért voltak becsületesek,
09:28
or whether they also said a little bit higher or lower than what they did
213
568460
3456
vagy a valóságosnál miért mondtak többet vagy kevesebbet,
09:31
because it's anonymous.
214
571940
1216
mert névtelenek voltak.
Csak az eloszlást figyeltük.
09:33
We only observed the distribution.
215
573180
1656
09:34
But what I can tell you -- and here's another coin toss.
216
574860
2656
De elmondhatom... Dobok egyet.
09:37
There you go, it's tails.
217
577540
1496
Gyerünk! Írás lett.
09:39
(Laughter)
218
579060
1496
(Nevetés)
09:40
Don't check, OK?
219
580580
1456
Ne ellenőrizzék, jó!?
09:42
(Laughter)
220
582060
2816
(Nevetés)
09:44
What I can tell you
221
584900
1296
De elmondhatom,
09:46
is that not everybody behaved like Adam Smith would have predicted.
222
586220
4440
hogy nem mindenki viselkedett úgy, ahogy Adam Smith megjósolta volna.
09:52
So what does that leave us with?
223
592660
1576
Mi következik ebből?
09:54
Well, it seems people are motivated by certain intrinsic values
224
594260
4496
Az, hogy az embereket bizonyos belső érték ösztönzi,
09:58
and in our research, we look at this.
225
598780
1800
s kutatásunkban ezt vizsgáltuk.
10:01
We look at the idea that people have so-called protected values.
226
601260
4480
Vizsgáltuk az ún. védett értékek fogalmát.
10:06
A protected value isn't just any value.
227
606580
2816
Nem minden érték védett érték.
10:09
A protected value is a value where you're willing to pay a price
228
609420
5816
Az a védett érték, amelyért hajlandók vagyunk megfizetni az árát,
10:15
to uphold that value.
229
615260
1256
hogy megőrizzük.
10:16
You're willing to pay a price to withstand the temptation to give in.
230
616540
4440
Készek vagyunk megfizetni az árát, hogy ellenálljunk a kísértésnek.
10:22
And the consequence is you feel better
231
622020
2656
A következmény: jobban érezzük magunkat,
10:24
if you earn money in a way that's consistent with your values.
232
624700
4296
ha úgy keresünk pénzt, ahogy egybevág értékeinkkel.
10:29
Let me show you this again in the metaphor of our beloved dog here.
233
629020
4280
Megmutatom ezt kedvenc kutyánk metaforájával.
10:34
If we succeed in getting the sausage without violating our values,
234
634420
4056
Ha sikerül értékeink föladása nélkül megszereznünk a kolbászt,
10:38
then the sausage tastes better.
235
638500
1976
akkor a kolbász jobban ízlik.
10:40
That's what our research shows.
236
640500
1480
Kutatásunk kimutatta,
10:42
If, on the other hand,
237
642540
1256
hogyha egyrészt
10:43
we do so --
238
643820
1256
így teszünk...
10:45
if we get the sausage
239
645100
1416
ha megszerezzük a kolbászt,
10:46
and in doing so we actually violate values,
240
646540
3456
de eközben föladjuk értékeinket,
10:50
we value the sausage less.
241
650020
2976
kevesebbre értékeljük a kolbászt.
10:53
Quantitatively, that's quite powerful.
242
653020
2456
Mennyiségileg ez erősen értékelhető.
10:55
We can measure these protected values,
243
655500
2456
E védett értékek mérhetők.
10:57
for example,
244
657980
1216
Például,
10:59
by a survey measure.
245
659220
1920
vizsgálati méréssel.
11:02
Simple, nine-item survey that's quite predictive in these experiments.
246
662180
5976
Az egyszerű, négytényezős vizsgálat e kísérletekben elég informatív,
11:08
If you think about the average of the population
247
668180
2336
ha a populáció átlagára gondolunk,
11:10
and then there's a distribution around it --
248
670540
2096
és az átlag körüli eloszlásra...
11:12
people are different, we all are different.
249
672660
2040
mind különbözők vagyunk.
11:15
People who have a set of protected values
250
675300
2976
Akiknek védett értékrendjük van,
11:18
that's one standard deviation above the average,
251
678300
4176
azaz egy standard eltérés az átlagtól,
11:22
they discount money they receive by lying by about 25 percent.
252
682500
5056
azoknál a hazugság révén kapott pénz értéke kb. 25%-kal csökken.
11:27
That means a dollar received when lying
253
687580
3616
Eszerint a hazugsággal kapott egy dollár
11:31
is worth to them only 75 cents
254
691220
2136
csak 75 centet ér, anélkül,
11:33
without any incentives you put in place for them to behave honestly.
255
693380
3696
hogy bármi ösztönzőt a becsületes viselkedésért igénybe vettünk volna.
11:37
It's their intrinsic motivation.
256
697100
1736
Ez a belső ösztönzőjük.
11:38
By the way, I'm not a moral authority.
257
698860
1856
Nem vagyok erkölcsvédelmi hatóság,
11:40
I'm not saying I have all these beautiful values, right?
258
700740
2920
nem állítom, hogy birtokában vagyok mindezen gyönyörű értékeknek.
11:44
But I'm interested in how people behave
259
704260
1936
De engem az emberek viselkedése érdekel,
11:46
and how we can leverage that richness in human nature
260
706220
3376
és az, miként befolyásolhatjuk, hogy az emberi természet gazdagsága
11:49
to actually improve the workings of our organizations.
261
709620
3440
javítsa szervezeteink hatékonyságát.
11:54
So there are two very, very different visions here.
262
714220
3176
Két különböző szemlélet létezik erre.
11:57
On the one hand,
263
717420
1336
Egyfelől,
11:58
you can appeal to benefits and costs
264
718780
3016
koncentrálhatunk az előnyökre és a költségekre,
12:01
and try to get people to behave according to them.
265
721820
2656
s rávehetjük az embereket, hogy e szerint viselkedjenek.
12:04
On the other hand,
266
724500
1616
Másfelől,
12:06
you can select people who have the values
267
726140
4016
kiválaszthatunk olyanokat, akiknek ezek az értékeik,
12:10
and the desirable characteristics, of course --
268
730180
2216
s persze megvannak bennük a megkívánt tulajdonságok:
12:12
competencies that go in line with your organization.
269
732420
3576
a szervezetüknek megfelelő kompetenciák.
12:16
I do not yet know where these protected values really come from.
270
736020
4216
Még nem tudom, honnan erednek e védett értékek:
12:20
Is it nurture or is it nature?
271
740260
3376
neveltetésünkből vagy természetünkből.
12:23
What I can tell you
272
743660
1376
De az bizonyos,
12:25
is that the distribution looks pretty similar for men and women.
273
745060
5096
hogy az eloszlás mind férfiak, mind nők esetén eléggé hasonló,
12:30
It looks pretty similar for those who had studied economics
274
750180
3776
elég hasonló azoknál, akik közgazdaságtant
12:33
or those who had studied psychology.
275
753980
2360
vagy pszichológiát tanultak.
12:37
It looks even pretty similar around different age categories
276
757820
3376
Sőt, felnőttek között eltérő életkorban is
12:41
among adults.
277
761220
1216
eléggé hasonló.
12:42
But I don't know yet how this develops over a lifetime.
278
762460
2656
De még nem tudom, hogy életünk során ez miként alakul.
12:45
That will be the subject of future research.
279
765140
3440
Ez a jövőbeni kutatás tárgya lesz.
12:49
The idea I want to leave you with
280
769460
1656
Azzal a gondolattal búcsúzom,
12:51
is it's all right to appeal to incentives.
281
771140
2776
hogy rendjén van ösztönzőkre számítani.
12:53
I'm an economist;
282
773940
1216
Közgazdász vagyok.
12:55
I certainly believe in the fact that incentives work.
283
775180
2920
Persze, hiszek az ösztönzők hatásában.
12:59
But do think about selecting the right people
284
779220
4016
De a megfelelő ember kiválasztásában jobban,
13:03
rather than having people and then putting incentives in place.
285
783260
3496
mint valakit ösztönzőkkel abajgatni.
13:06
Selecting the right people with the right values
286
786780
2256
Jó értékeket valló, megfelelő ember kiválasztása
13:09
may go a long way to saving a lot of trouble
287
789060
3936
sok főfájástól és nagy költségektől
13:13
and a lot of money
288
793020
1376
kímélhet meg bennünket
13:14
in your organizations.
289
794420
1736
szervezeteinkben.
13:16
In other words,
290
796180
1256
Másként fogalmazva:
13:17
it will pay off to put people first.
291
797460
3760
kifizetődik, ha az emberekre helyezzük a hangsúlyt.
13:21
Thank you.
292
801860
1216
Köszönöm.
13:23
(Applause)
293
803100
3640
(Taps)
Erről a weboldalról

Ez az oldal olyan YouTube-videókat mutat be, amelyek hasznosak az angol nyelvtanuláshoz. A világ minden tájáról származó, kiváló tanárok által tartott angol leckéket láthatsz. Az egyes videók oldalán megjelenő angol feliratokra duplán kattintva onnan játszhatja le a videót. A feliratok a videó lejátszásával szinkronban gördülnek. Ha bármilyen észrevétele vagy kérése van, kérjük, lépjen kapcsolatba velünk ezen a kapcsolatfelvételi űrlapon.

https://forms.gle/WvT1wiN1qDtmnspy7