What really motivates people to be honest in business | Alexander Wagner

234,583 views ・ 2017-09-26

TED


אנא לחץ פעמיים על הכתוביות באנגלית למטה כדי להפעיל את הסרטון.

מתרגם: Shlomo Adam מבקר: Sigal Tifferet
00:12
How many companies have you interacted with today?
0
12580
3440
עם כמה חברות היה לכם היום מגע?
טוב, קמתם בבוקר,
00:17
Well, you got up in the morning,
1
17060
1656
00:18
took a shower,
2
18740
1215
התקלחתם, חפפתם ראש,
00:19
washed your hair,
3
19980
1256
00:21
used a hair dryer,
4
21260
1536
השתמשתם במייבש שיער,
00:22
ate breakfast --
5
22820
1216
אכלתם ארוחת-בוקר --
דגני בוקר, פרי, יוגורט וכו' --
00:24
ate cereals, fruit, yogurt, whatever --
6
24060
1858
00:25
had coffee --
7
25942
1214
שתיתם קפה, תה.
00:27
tea.
8
27180
1376
00:28
You took public transport to come here,
9
28580
1976
הגעתם הנה בתחבורה ציבורית או במכוניתכם הפרטית.
00:30
or maybe used your private car.
10
30580
1840
00:33
You interacted with the company that you work for or that you own.
11
33340
3560
הייתם במגע עם החברה שלכם או זו שבה אתם עובדים.
00:37
You interacted with your clients,
12
37980
1960
הייתם במגע עם לקוחותיכם,
00:40
your customers,
13
40580
1200
עם הצרכנים שלכם,
00:42
and so on and so forth.
14
42460
1256
וכן הלאה וכן הלאה.
00:43
I'm pretty sure there are at least seven companies
15
43740
3616
אני בטוח למדי שיש לפחות שבע חברות
00:47
you've interacted with today.
16
47380
1760
שעימן היה לכם היום קשר.
00:49
Let me tell you a stunning statistic.
17
49780
2000
הבה ואגלה לכם נתון מדהים.
00:52
One out of seven large, public corporations
18
52660
4376
כל שנה, אחד מכל שבעה תאגידים ציבוריים גדולים מבצע הונאה.
00:57
commit fraud every year.
19
57060
2240
01:00
This is a US academic study that looks at US companies --
20
60220
3416
זהו נתון ממחקר אקדמי אמריקני שבחן חברות אמריקניות --
01:03
I have no reason to believe that it's different in Europe.
21
63660
3200
אין לי סיבה להאמין שהמצב באירופה שונה.
01:07
This is a study that looks at both detected and undetected fraud
22
67300
4216
המחקר הזה בחן הונאות שנחשפו וכאלה שלא
01:11
using statistical methods.
23
71540
1736
בשיטות סטטיסטיות.
01:13
This is not petty fraud.
24
73300
1720
אין מדובר בהונאות פעוטות.
01:15
These frauds cost the shareholders of these companies,
25
75940
2856
ההונאות האלה עולות לבעלי המניות של חברות אלה,
01:18
and therefore society,
26
78820
1256
ולפיכך לחברה,
01:20
on the order of 380 billion dollars per year.
27
80100
3600
סדר-גודל של 380 מיליארד דולר בשנה.
01:24
We can all think of some examples, right?
28
84780
2216
כולנו יכולים להיזכר בכמה דוגמאות, נכון?
01:27
The car industry's secrets aren't quite so secret anymore.
29
87020
3800
סודות תעשיית הרכב שכבר אינם סודות.
01:31
Fraud has become a feature,
30
91620
3296
ההונאות הפכו לסממן בולט,
01:34
not a bug,
31
94940
1216
וכבר אינן בגדר תקלה,
01:36
of the financial services industry.
32
96180
1936
בתעשיית השירותים הפיננסיים.
01:38
That's not me who's claiming that,
33
98140
2216
לא אני הוא שטוען כך,
01:40
that's the president of the American Finance Association
34
100380
3256
אלא נשיא האיגוד הפיננסי האמריקני
01:43
who stated that in his presidential address.
35
103660
2936
שהצהיר על כך בנאומו הנשיאותי.
01:46
That's a huge problem if you think about, especially,
36
106620
2736
זאת בעיה ענקית אם חושבים במיוחד על כלכלה כמו שווייץ,
01:49
an economy like Switzerland,
37
109380
1696
שמסתמכת מאד על האמון בתעשייה הפיננסית שלה.
01:51
which relies so much on the trust put into its financial industry.
38
111100
4200
01:56
On the other hand,
39
116780
1216
מצד שני,
שש חברות מכל שבע עדיין נוהגות ביושר
01:58
there are six out of seven companies who actually remain honest
40
118020
3536
02:01
despite all temptations to start engaging in fraud.
41
121580
3840
חרף כל הפיתויים לעסוק בהונאה.
יש חושפי-שחיתויות כמו מייקל וודפורד,
02:06
There are whistle-blowers like Michael Woodford,
42
126060
2296
02:08
who blew the whistle on Olympus.
43
128380
2336
שחשף את שערוריית "אולימפוס".
02:10
These whistle-blowers risk their careers,
44
130740
2696
חושפי-שחיתויות אלה מסכנים את הקריירה וקשרי הידידות שלהם
02:13
their friendships,
45
133460
1216
02:14
to bring out the truth about their companies.
46
134700
2136
כדי לחשוף את האמת אודות החברות שלהם.
02:16
There are journalists like Anna Politkovskaya
47
136860
2616
יש עיתונאים כמו אנה פוליטקובסקאיה
02:19
who risk even their lives to report human rights violations.
48
139500
3856
שאפילו מסכנים את חייהם כדי לדווח על פגיעות בזכויות האדם.
02:23
She got killed --
49
143380
1216
היא נרצחה.
02:24
every year,
50
144620
1216
בכל שנה,
02:25
around 100 journalists get killed
51
145860
1656
כמאה עיתונאים נרצחים בגלל דבקותם באמת.
02:27
because of their conviction to bring out the truth.
52
147540
2720
02:31
So in my talk today,
53
151860
1256
אז בהרצאתי, היום,
02:33
I want to share with you some insights I've obtained and learned
54
153140
3496
ברצוני לשתף אתכם בכמה תובנות שגיליתי ולמדתי
02:36
in the last 10 years of conducting research in this.
55
156660
3296
בעשר השנים האחרונות של מחקרי בתחום הזה.
02:39
I'm a researcher, a scientist working with economists,
56
159980
3496
אני חוקר, מדען שעובד עם כלכלנים,
02:43
financial economists,
57
163500
1336
כלכלנים פיננסיים,
02:44
ethicists, neuroscientists,
58
164860
2056
אנשי תורת המוסר, מדעני מוח,
02:46
lawyers and others
59
166940
1336
עורכי-דין ועוד,
02:48
trying to understand what makes humans tick,
60
168300
2096
בניסיון להבין מה מניע אנשים
02:50
and how can we address this issue of fraud in corporations
61
170420
4776
ואיך ביכולתנו לטפל בבעיית ההונאה בתאגידים שלנו
02:55
and therefore contribute to the improvement of the world.
62
175220
3160
ובכך לתרום במעט לשיפור העולם.
02:59
I want to start by sharing with you two very distinct visions
63
179100
3536
אתחיל בכך שאשתף אתכם בשתי השקפות שונות מאד
03:02
of how people behave.
64
182660
1816
לגבי התנהגותם של בני-אדם.
03:04
First, meet Adam Smith,
65
184500
1840
תחילה, הכירו את אדם סמית,
אבי הכלכלה המודרנית.
03:07
founding father of modern economics.
66
187020
1960
03:10
His basic idea was that if everybody behaves in their own self-interests,
67
190100
4296
הרעיון הבסיסי שלו אומר שאם כולם יתנהגו באנוכיות,
03:14
that's good for everybody in the end.
68
194420
2520
בסופו של דבר, זה יועיל לכולם.
03:17
Self-interest isn't a narrowly defined concept
69
197900
3056
אינטרס עצמי איננו תפישה צרה
03:20
just for your immediate utility.
70
200980
1936
שמתייחסת רק לתועלת המיידית.
03:22
It has a long-run implication.
71
202940
1936
יש לה השלכות ארוכות-טווח.
03:24
Let's think about that.
72
204900
1480
הבה נחשוב על כך.
03:26
Think about this dog here.
73
206900
2016
חישבו על הכלב הזה.
03:28
That might be us.
74
208940
1200
נניח שהוא מייצג אותנו.
03:31
There's this temptation --
75
211260
1256
ישנו הפיתוי --
03:32
I apologize to all vegetarians, but --
76
212540
2376
אני מתנצל בפני הצמחוניים, אבל --
03:34
(Laughter)
77
214940
1016
(צחוק)
03:35
Dogs do like the bratwurst.
78
215980
1696
כלבים אוהבים נקניק חזיר.
03:37
(Laughter)
79
217700
2376
(צחוק)
03:40
Now, the straight-up, self-interested move here
80
220100
3096
כאן, הצעד הישיר לטובת האינטרס העצמי
03:43
is to go for that.
81
223220
1576
הוא להתנפל על זה.
03:44
So my friend Adam here might jump up,
82
224820
2936
ולכן החבר הזה שלי, אדם, יזנק,
03:47
get the sausage and thereby ruin all this beautiful tableware.
83
227780
3360
יחטוף את הנקניקיה ויהרוס את כל כלי השולחן היפים האלה.
03:51
But that's not what Adam Smith meant.
84
231820
1816
אבל לא לכך התכוון אדם סמית.
03:53
He didn't mean disregard all consequences --
85
233660
2656
הוא לא התכוון להתעלמות מכל התוצאות --
03:56
to the contrary.
86
236340
1216
להיפך.
03:57
He would have thought,
87
237580
1256
הוא חשב,
03:58
well, there may be negative consequences,
88
238860
2016
שעלולות להיות תוצאות שליליות,
04:00
for example,
89
240900
1216
למשל,
04:02
the owner might be angry with the dog
90
242140
3096
הבעלים יתרגזו על הכלב
04:05
and the dog, anticipating that, might not behave in this way.
91
245260
3600
והכלב, שמצפה לכך, לא יתנהג כך.
04:09
That might be us,
92
249660
1256
ואולי גם אנו
04:10
weighing the benefits and costs of our actions.
93
250940
3056
שוקלים את התועלת והמחיר של מעשינו.
04:14
How does that play out?
94
254020
1240
איך זה מסתיים?
04:15
Well, many of you, I'm sure,
95
255780
1976
ובכן, אני בטוח שאצל רבים מכם
04:17
have in your companies,
96
257780
1536
יש בחברה,
04:19
especially if it's a large company,
97
259340
1816
במיוחד אם מדובר בחברה גדולה,
04:21
a code of conduct.
98
261180
1656
קוד התנהגות.
04:22
And then if you behave according to that code of conduct,
99
262860
3416
ומי שמתנהג בהתאם לקוד זה,
04:26
that improves your chances of getting a bonus payment.
100
266300
3176
משפר את סיכוייו למענק.
04:29
And on the other hand, if you disregard it,
101
269500
2135
לעומתו, מי שמתעלם מהקוד,
04:31
then there are higher chances of not getting your bonus
102
271659
2737
סיכוייו גבוהים לא לזכות במענק
04:34
or its being diminished.
103
274420
1536
או לזכות במענק מופחת.
04:35
In other words,
104
275980
1256
במלים אחרות,
04:37
this is a very economic motivation
105
277260
1816
זהו מניע כלכלי מאד
04:39
of trying to get people to be more honest,
106
279100
2776
לגרום לאנשים לנהוג יותר ביושר,
04:41
or more aligned with the corporation's principles.
107
281900
3360
או להתאים עצמם לעקרונות התאגיד.
04:46
Similarly, reputation is a very powerful economic force, right?
108
286060
5256
גם מוניטין הם מניע כלכלי חזק מאד, נכון?
04:51
We try to build a reputation,
109
291340
1536
אנו משתדלים לבנות מוניטין,
04:52
maybe for being honest,
110
292900
1416
למשל, של אנשים ישרים,
04:54
because then people trust us more in the future.
111
294340
2400
כי אז אנשים יבטחו בנו יותר בעתיד.
04:57
Right?
112
297780
1216
נכון?
אדם סמית דיבר על האופה
04:59
Adam Smith talked about the baker
113
299020
2096
05:01
who's not producing good bread out of his benevolence
114
301140
3776
שאופה לחם טוב לא מתוך נדיבות
05:04
for those people who consume the bread,
115
304940
3016
כלפי האנשים שצורכים את הלחם,
05:07
but because he wants to sell more future bread.
116
307980
3040
אלא כי הוא מעוניין למכור יותר לחם בעתיד.
05:11
In my research, we find, for example,
117
311980
2216
במחקר שלי מצאנו, למשל,
05:14
at the University of Zurich,
118
314220
1376
באוניברסיטת ציריך,
05:15
that Swiss banks who get caught up in media,
119
315620
4200
שבנקים שווייצריים שנחשפים בתקשורת,
05:20
and in the context, for example,
120
320540
1776
למשל, בהקשר להתחמקות מתשלום מסים, להונאות מס,
05:22
of tax evasion, of tax fraud,
121
322340
1536
05:23
have bad media coverage.
122
323900
1736
וזוכים לסיקור תקשורתי שלילי.
05:25
They lose net new money in the future
123
325660
2736
מאבדים כספים עתידיים
05:28
and therefore make lower profits.
124
328420
1616
ולכן הרווחים שלהם נמוכים.
זהו מניע מוניטין רב-עוצמה.
05:30
That's a very powerful reputational force.
125
330060
2360
05:34
Benefits and costs.
126
334020
1600
תועלת ומחיר.
05:36
Here's another viewpoint of the world.
127
336940
2576
הנה השקפה שונה על העולם.
05:39
Meet Immanuel Kant,
128
339540
1536
הכירו את עמנואל קאנט,
05:41
18th-century German philosopher superstar.
129
341100
2760
פילוסוף-על גרמני בן המאה ה-18.
05:44
He developed this notion
130
344740
1616
הוא פיתח את הרעיון
05:46
that independent of the consequences,
131
346380
3136
לפיו, ללא תלות בתוצאות,
05:49
some actions are just right
132
349540
2976
יש מעשים שהם פשוט נכונים
05:52
and some are just wrong.
133
352540
1696
ויש מעשים שהם פשוט שגויים.
05:54
It's just wrong to lie, for example.
134
354260
3216
למשל, פשוט שגוי לשקר.
05:57
So, meet my friend Immanuel here.
135
357500
3136
אז הנה חברי עמנואל.
06:00
He knows that the sausage is very tasty,
136
360660
2816
הוא יודע שהנקניקיה טעימה מאד,
06:03
but he's going to turn away because he's a good dog.
137
363500
2456
אבל הוא יפנה לה עורף כי הוא כלב טוב.
06:05
He knows it's wrong to jump up
138
365980
2696
הוא יודע שלא נכון לזנק עליה
06:08
and risk ruining all this beautiful tableware.
139
368700
2800
ולהסתכן בהריסת כלי השולחן היפים.
06:12
If you believe that people are motivated like that,
140
372340
2416
מי שמאמין שזה מה שמניע אנשים,
06:14
then all the stuff about incentives,
141
374780
2176
כל עניין התמריצים,
06:16
all the stuff about code of conduct and bonus systems and so on,
142
376980
3776
כל עניין קוד ההתנהגות, שיטת המענקים וכן הלאה -
06:20
doesn't make a whole lot of sense.
143
380780
2176
בכל אלה אין הרבה הגיון.
06:22
People are motivated by different values perhaps.
144
382980
4176
ערכים אחרים הם שמניעים אנשים.
06:27
So, what are people actually motivated by?
145
387180
3376
אז מה באמת מניע אנשים?
06:30
These two gentlemen here have perfect hairdos,
146
390580
2176
לשני האדונים האלה יש תסרוקות מושלמות,
06:32
but they give us very different views of the world.
147
392780
4480
אבל הם מציגים לפנינו שתי השקפות עולם שונות.
06:37
What do we do with this?
148
397660
1256
במה נבחר?
06:38
Well, I'm an economist
149
398940
1656
אני כלכלן,
06:40
and we conduct so-called experiments to address this issue.
150
400620
4176
ואנו מנהלים "ניסויים" כדי להתמודד עם הנושא.
06:44
We strip away facts which are confusing in reality.
151
404820
3296
אנו מפשטים את המציאות המבלבלת --
06:48
Reality is so rich, there is so much going on,
152
408140
2736
המציאות כה עשירה, קורה כל-כך הרבה,
06:50
it's almost impossible to know what drives people's behavior really.
153
410900
3960
שכמעט אי-אפשר לדעת מה בעצם מניע את ההתנהגות.
06:55
So let's do a little experiment together.
154
415340
2720
אז בואו נעשה ביחד ניסוי.
06:58
Imagine the following situation.
155
418500
2600
תארו לעצמכם את המצב הבא:
07:02
You're in a room alone,
156
422220
2416
אתם לבד בחדר,
07:04
not like here.
157
424660
1536
לא כמו האולם הזה,
07:06
There's a five-franc coin like the one I'm holding up right now
158
426220
3440
מונח לפניכם מטבע כזה, של חמישה פרנקים.
07:10
in front of you.
159
430380
1576
07:11
Here are your instructions:
160
431980
1576
הנה ההוראות שלכם:
07:13
toss the coin four times,
161
433580
2480
הטילו את המטבע ארבע פעמים,
07:17
and then on a computer terminal in front of you,
162
437620
2416
ואז, במסוף המחשב שלפניכם,
הכניסו את מספר הפעמים בהם המטבע נפל על "עץ".
07:20
enter the number of times tails came up.
163
440060
3656
07:23
This is the situation.
164
443740
1280
זהו המצב.
07:25
Here's the rub.
165
445540
1216
והנה העניין:
07:26
For every time that you announce that you had a tails throw,
166
446780
3376
בכל הצהרה שלכם על "עץ",
07:30
you get paid five francs.
167
450180
1496
משלמים לכם חמישה פרנקים.
07:31
So if you say I had two tails throws,
168
451700
2536
אז אם אמרתם שיצא לכם פעמיים "עץ",
07:34
you get paid 10 francs.
169
454260
2216
ישלמו לכם 10 פרנקים.
07:36
If you say you had zero, you get paid zero francs.
170
456500
2936
במקרה של אפס הטלות "עץ", זכיתם באפס פרנקים.
07:39
If you say, "I had four tails throws,"
171
459460
2456
אם אתם אומרים, "יצא לי ארבע פעמים עץ,"
07:41
then you get paid 20 francs.
172
461940
2016
אתם זוכים ב-20 פרנקים.
07:43
It's anonymous,
173
463980
1256
הכל נעשה בעילום שם
07:45
nobody's watching what you're doing,
174
465260
1896
איש אינו צופה במה שאתם עושים,
07:47
and you get paid that money anonymously.
175
467180
2336
ואתם זוכים בתשלום בעילום שם.
07:49
I've got two questions for you.
176
469540
1477
יש לי אליכם שתי שאלות.
07:51
(Laughter)
177
471580
1616
(צחוק)
07:53
You know what's coming now, right?
178
473220
1640
ברור לכם מה השאלות, נכון?
07:55
First, how would you behave in that situation?
179
475820
3480
ראשית, איך תתנהגו אתם במצב הזה?
08:00
The second, look to your left and look to your right --
180
480060
2936
שנית, הביטו שמאלה, הביטו ימינה --
(צחוק)
08:03
(Laughter)
181
483020
1016
ושאלו את עצמכם איך מי שיושב לצידכם
08:04
and think about how the person sitting next to you
182
484060
2376
08:06
might behave in that situation.
183
486460
1656
היה נוהג במצב הזה.
ערכנו את הניסוי הזה בפועל.
08:08
We did this experiment for real.
184
488140
2136
08:10
We did it at the Manifesta art exhibition
185
490300
2696
זה היה בתערוכת האמנות "מניפסטה"
שהתקיימה לאחרונה בציריך,
08:13
that took place here in Zurich recently,
186
493020
2456
08:15
not with students in the lab at the university
187
495500
2856
לא עם סטודנטים במעבדה של האוניברסיטה,
08:18
but with the real population,
188
498380
1776
אלא עם אוכלוסיה אמיתית, כמוכם.
08:20
like you guys.
189
500180
1200
08:21
First, a quick reminder of stats.
190
501900
2136
תחילה, תזכורת מהירה של הסטטיסטיקה:
08:24
If I throw the coin four times and it's a fair coin,
191
504060
3576
אם אני מטיל מטבע תקינה ארבע פעמים,
08:27
then the probability that it comes up four times tails
192
507660
4096
הסבירות שהיא תיפול ארבע פעמים על "עץ"
08:31
is 6.25 percent.
193
511780
2400
היא 6.25%.
08:34
And I hope you can intuitively see
194
514900
1656
ואני מקווה שאתם מבינים מיד
08:36
that the probability that all four of them are tails is much lower
195
516580
3376
שהסבירות של ארבע פעמים "עץ" נמוכה בהרבה מאשר פעמיים, נכון?
08:39
than if two of them are tails, right?
196
519980
2120
08:42
Here are the specific numbers.
197
522580
1440
אלה הנתונים המדוייקים.
08:45
Here's what happened.
198
525859
1496
והנה מה שקרה.
08:47
People did this experiment for real.
199
527379
2201
אנשים השתתפו בניסוי הזה בפועל.
08:50
Around 30 to 35 percent of people said,
200
530619
3336
כ-30-35% מהאנשים אמרו,
08:53
"Well, I had four tails throws."
201
533979
2401
"יצא לי עץ ארבע פעמים."
08:57
That's extremely unlikely.
202
537460
1816
זה מאד לא סביר.
08:59
(Laughter)
203
539300
1936
(צחוק)
09:01
But the really amazing thing here,
204
541260
3136
אבל מה שהכי מדהים כאן,
09:04
perhaps to an economist,
205
544420
1296
אולי בעיניו של כלכלן,
09:05
is there are around 65 percent of people who did not say I had four tails throws,
206
545740
6536
הוא שכ-65% מהאנשים לא הצהירו על ארבע פעמים "עץ",
09:12
even though in that situation,
207
552300
2176
למרות שבמצב הזה
09:14
nobody's watching you,
208
554500
2096
איש לא צופה בכם,
09:16
the only consequence that's in place
209
556620
1936
והתוצאה היחידה היא
09:18
is you get more money if you say four than less.
210
558580
3336
שתזכו ביותר כסף אם אמרתם ארבע, מאשר אם הצהרתם על פחות.
09:21
You leave 20 francs on the table by announcing zero.
211
561940
3280
אתם משאירים על השולחן 20 פרנקים אם הצהרתם על אפס.
09:25
I don't know whether the other people all were honest
212
565860
2576
איני יודע אם כל השאר היו ישרים
09:28
or whether they also said a little bit higher or lower than what they did
213
568460
3456
או אם גם הם הצהירו על מעט יותר או פחות מהאמת
09:31
because it's anonymous.
214
571940
1216
כי זה היה בעילום שם.
09:33
We only observed the distribution.
215
573180
1656
אנו רואים רק את ההתפלגות.
09:34
But what I can tell you -- and here's another coin toss.
216
574860
2656
אבל מה אומר לכם -- הנה עוד הטלת מטבע.
09:37
There you go, it's tails.
217
577540
1496
בבקשה. "עץ".
09:39
(Laughter)
218
579060
1496
(צחוק)
09:40
Don't check, OK?
219
580580
1456
אל תבדקו אותי, בסדר?
09:42
(Laughter)
220
582060
2816
(צחוק)
09:44
What I can tell you
221
584900
1296
מה שאני יכול לומר לכם,
09:46
is that not everybody behaved like Adam Smith would have predicted.
222
586220
4440
הוא שלא כולם מתנהגים כמו שחזה אדם סמית'.
09:52
So what does that leave us with?
223
592660
1576
אז מהו הלקח?
09:54
Well, it seems people are motivated by certain intrinsic values
224
594260
4496
מסתבר שאנשים מונעים בידי ערכים פנימיים מסוימים,
09:58
and in our research, we look at this.
225
598780
1800
וזה מה שבדקנו במחקר שלנו.
10:01
We look at the idea that people have so-called protected values.
226
601260
4480
התייחסנו לכך שלאנשים יש "ערכים שמורים".
10:06
A protected value isn't just any value.
227
606580
2816
ערך שמור איננו ככל הערכים.
10:09
A protected value is a value where you're willing to pay a price
228
609420
5816
למען ערך שמור אתם מוכנים לשלם מחיר
10:15
to uphold that value.
229
615260
1256
כדי לקיימו.
10:16
You're willing to pay a price to withstand the temptation to give in.
230
616540
4440
אתם מוכנים לשלם מחיר ולעמוד בפיתוי להיכנע,
10:22
And the consequence is you feel better
231
622020
2656
ועקב כך אתם מרגישים טוב יותר
10:24
if you earn money in a way that's consistent with your values.
232
624700
4296
אם הרווחתם כסף בדרך שעולה בקנה אחד עם ערכיכם.
אמחיש זאת שוב בעזרת כלבנו האהוב.
10:29
Let me show you this again in the metaphor of our beloved dog here.
233
629020
4280
10:34
If we succeed in getting the sausage without violating our values,
234
634420
4056
אם נצליח להשיג את הנקניקיה מבלי לפגוע בערכינו,
10:38
then the sausage tastes better.
235
638500
1976
הנקניקיה תהיה טעימה יותר.
10:40
That's what our research shows.
236
640500
1480
זה מה שהמחקר שלנו הוכיח.
10:42
If, on the other hand,
237
642540
1256
מצד שני, אם עשינו זאת --
10:43
we do so --
238
643820
1256
10:45
if we get the sausage
239
645100
1416
אם השגנו את הנקניקיה
10:46
and in doing so we actually violate values,
240
646540
3456
ואגב כך הפרנו את ערכינו,
אנו נעריך פחות את הנקניקיה.
10:50
we value the sausage less.
241
650020
2976
אם מכמתים זאת, יש לכך כוח אדיר.
10:53
Quantitatively, that's quite powerful.
242
653020
2456
10:55
We can measure these protected values,
243
655500
2456
אנו יכולים למדוד את הערכים השמורים הללו,
10:57
for example,
244
657980
1216
למשל בעזרת סקר.
10:59
by a survey measure.
245
659220
1920
11:02
Simple, nine-item survey that's quite predictive in these experiments.
246
662180
5976
סקר פשוט בן תשעה פריטים שחוזה היטב מה יקרה בניסויים אלה.
11:08
If you think about the average of the population
247
668180
2336
אם תחשבו על ממוצע האוכלוסיה
11:10
and then there's a distribution around it --
248
670540
2096
ועל ההתפלגות סביבו --
11:12
people are different, we all are different.
249
672660
2040
אנשים הם שונים, כולנו שונים.
11:15
People who have a set of protected values
250
675300
2976
אנשים בעלי מערכת ערכים שמורים
11:18
that's one standard deviation above the average,
251
678300
4176
הנמצאים סטיית-תקן אחת מעל לממוצע,
11:22
they discount money they receive by lying by about 25 percent.
252
682500
5056
vo nzkzkho cfx; acu zfu בשקר בכ-25%.
11:27
That means a dollar received when lying
253
687580
3616
כלומר, דולר אחד שהתקבל הודות לשקר,
11:31
is worth to them only 75 cents
254
691220
2136
שווה בעיניהם 75 סנט בלבד.
11:33
without any incentives you put in place for them to behave honestly.
255
693380
3696
מבלי שניתנו להם תמריצים להתנהג ביושר,
11:37
It's their intrinsic motivation.
256
697100
1736
זהו המניע הפנימי שלהם.
11:38
By the way, I'm not a moral authority.
257
698860
1856
אגב, אני אינני בר-סמכא בתחום המוסר.
11:40
I'm not saying I have all these beautiful values, right?
258
700740
2920
אינני טוען שיש לי כל הערכים הנחמדים האלה, בסדר?
11:44
But I'm interested in how people behave
259
704260
1936
אבל מעניין אותי איך אנשים מתנהגים
11:46
and how we can leverage that richness in human nature
260
706220
3376
ואיך באפשרותנו למנף את עושרו של הטבע האנושי
11:49
to actually improve the workings of our organizations.
261
709620
3440
כדי לשפר את תפקוד הארגונים שלנו.
11:54
So there are two very, very different visions here.
262
714220
3176
אז יש לכם כאן שתי השקפות שונות עד מאד.
11:57
On the one hand,
263
717420
1336
מצד אחד אפשר לפנות ליתרונות ולעלויות
11:58
you can appeal to benefits and costs
264
718780
3016
12:01
and try to get people to behave according to them.
265
721820
2656
ולנסות לגרום לאנשים להתנהג בהתאם.
12:04
On the other hand,
266
724500
1616
מצד שני,
12:06
you can select people who have the values
267
726140
4016
אפשר לבחור אנשים בעלי ערכים ומאפיינים רצויים, כמובן --
12:10
and the desirable characteristics, of course --
268
730180
2216
12:12
competencies that go in line with your organization.
269
732420
3576
יכולות שמתאימות לארגון שלכם.
12:16
I do not yet know where these protected values really come from.
270
736020
4216
עדיין אינני יודע מה באמת מקורם של הערכים השמורים האלה.
12:20
Is it nurture or is it nature?
271
740260
3376
האם הם מולדים או נרכשים?
12:23
What I can tell you
272
743660
1376
אוכל רק לומר לכם
12:25
is that the distribution looks pretty similar for men and women.
273
745060
5096
שההתפלגות הזאת דומה מאד אצל גברים ואצל נשים.
12:30
It looks pretty similar for those who had studied economics
274
750180
3776
היא דומה מאד אצל מי שלמדו כלכלה
12:33
or those who had studied psychology.
275
753980
2360
ואצל מי שלמדו פסיכולוגיה.
12:37
It looks even pretty similar around different age categories
276
757820
3376
היא דומה מאד אפילו בקטגוריות גיל שונות של מבוגרים,
12:41
among adults.
277
761220
1216
12:42
But I don't know yet how this develops over a lifetime.
278
762460
2656
אבל עדיין אינני יודע איך זה מתפתח במשך החיים.
12:45
That will be the subject of future research.
279
765140
3440
זה יהיה נושא למחקר עתידי.
12:49
The idea I want to leave you with
280
769460
1656
הרעיון שאני רוצה שתזכרו הוא,
12:51
is it's all right to appeal to incentives.
281
771140
2776
שאין בעיה להיעזר בתמריצים.
12:53
I'm an economist;
282
773940
1216
אני כלכלן;
אני בהחלט מאמין שתמריצים מועילים.
12:55
I certainly believe in the fact that incentives work.
283
775180
2920
12:59
But do think about selecting the right people
284
779220
4016
אבל הקדישו גם מחשבה לבחירת האנשים הנכונים,
13:03
rather than having people and then putting incentives in place.
285
783260
3496
ולא סתם להעסיק אותם ואח"כ לתת תמריצים.
13:06
Selecting the right people with the right values
286
786780
2256
בחירת האנשים הנכונים בעלי הערכים הנכונים
עשויה לחסוך בעתיד בעיות רבות
13:09
may go a long way to saving a lot of trouble
287
789060
3936
13:13
and a lot of money
288
793020
1376
וגם כסף רב
13:14
in your organizations.
289
794420
1736
בארגונים שלכם.
13:16
In other words,
290
796180
1256
במלים אחרות,
13:17
it will pay off to put people first.
291
797460
3760
ישתלם לכם לתת עדיפות לאנשים עצמם.
13:21
Thank you.
292
801860
1216
תודה לכם.
(מחיאות כפיים)
13:23
(Applause)
293
803100
3640
על אתר זה

אתר זה יציג בפניכם סרטוני YouTube המועילים ללימוד אנגלית. תוכלו לראות שיעורי אנגלית המועברים על ידי מורים מהשורה הראשונה מרחבי העולם. לחץ פעמיים על הכתוביות באנגלית המוצגות בכל דף וידאו כדי להפעיל את הסרטון משם. הכתוביות גוללות בסנכרון עם הפעלת הווידאו. אם יש לך הערות או בקשות, אנא צור איתנו קשר באמצעות טופס יצירת קשר זה.

https://forms.gle/WvT1wiN1qDtmnspy7