What really motivates people to be honest in business | Alexander Wagner

234,583 views ・ 2017-09-26

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: S. Morteza Hashemi Reviewer: Ehsan Memari
00:12
How many companies have you interacted with today?
0
12580
3440
امروز با چند شرکت تعامل داشته‌اید؟
00:17
Well, you got up in the morning,
1
17060
1656
صبح که از خواب بیدار شدید،
00:18
took a shower,
2
18740
1215
دوش گرفتید،
00:19
washed your hair,
3
19980
1256
موهایتان را شستید،
00:21
used a hair dryer,
4
21260
1536
از سشوار استفاده کردید،
00:22
ate breakfast --
5
22820
1216
صبحانه خوردید --
00:24
ate cereals, fruit, yogurt, whatever --
6
24060
1858
میوه، ماست، یا چیز دیگری خوردید --
00:25
had coffee --
7
25942
1214
قهوه نوشیدید --
00:27
tea.
8
27180
1376
چای [نوشیدید].
00:28
You took public transport to come here,
9
28580
1976
با وسیله ی نقلیه عمومی به اینجا آمدید،
00:30
or maybe used your private car.
10
30580
1840
یا شاید از خودروی شخصی استفاده کردید.
00:33
You interacted with the company that you work for or that you own.
11
33340
3560
با شرکتی که در آن کار می‌کنید یا صاحب آن هستید تعامل کرده‌اید.
00:37
You interacted with your clients,
12
37980
1960
با ارباب رجوع‌هایتان تعامل کردید،
00:40
your customers,
13
40580
1200
مشتری‌هایتان،
00:42
and so on and so forth.
14
42460
1256
و به همین ترتیب با سایرین.
00:43
I'm pretty sure there are at least seven companies
15
43740
3616
تقریباً مطمئنم حداقل هفت شرکت هستند
00:47
you've interacted with today.
16
47380
1760
که شما امروز با آن تعامل کرده‌اید.
00:49
Let me tell you a stunning statistic.
17
49780
2000
بگذارید یک آمار خیره کننده به شما بگویم.
00:52
One out of seven large, public corporations
18
52660
4376
یک شرکت از هر هفت شرکتِ عمومیِ بزرگ
00:57
commit fraud every year.
19
57060
2240
هرساله مرتکب کلاهبرداری می‌شود.
01:00
This is a US academic study that looks at US companies --
20
60220
3416
این یک مطالعه‌ی علمی در آمریکاست که به شرکت‌های آمریکایی نظارت می‌کند --
01:03
I have no reason to believe that it's different in Europe.
21
63660
3200
من هیچ دلیلی ندارم که باور کنم این در اروپا متفاوت باشد.
01:07
This is a study that looks at both detected and undetected fraud
22
67300
4216
این مطالعه‌ای است که کلاهبرداری‌های کشف‌شده و کشف‌نشده را با استفاده
01:11
using statistical methods.
23
71540
1736
از روش‌های آماری مد نظر قرار می‌دهد.
01:13
This is not petty fraud.
24
73300
1720
این کلاه‌برداری جزئی نیست.
01:15
These frauds cost the shareholders of these companies,
25
75940
2856
این کلاهبرداری‌ها به ذینفعانِ این شرکت‌ها هزینه وارد می‌کند،
01:18
and therefore society,
26
78820
1256
و به همین ترتیب به جامعه.
01:20
on the order of 380 billion dollars per year.
27
80100
3600
چیزی حدود سالانه ۳۸۰ میلیارد دلار.
01:24
We can all think of some examples, right?
28
84780
2216
همه می‌توانیم به چندین مثال فکر کنیم، درسته؟
01:27
The car industry's secrets aren't quite so secret anymore.
29
87020
3800
اسرار صنعت خودرو دیگر خیلی هم محرمانه نیستند.
01:31
Fraud has become a feature,
30
91620
3296
کلاهبرداری در صنعت خدمات مالی،
01:34
not a bug,
31
94940
1216
به جای خطا،
01:36
of the financial services industry.
32
96180
1936
تبدیل به یک ویژگی شده است.
01:38
That's not me who's claiming that,
33
98140
2216
من نیستم که این را ادعا می‌کنم،
01:40
that's the president of the American Finance Association
34
100380
3256
این ادعای رئیس انجمن دارایی آمریکاست
01:43
who stated that in his presidential address.
35
103660
2936
که در بیانیه ریاستش به آن پرداخت.
01:46
That's a huge problem if you think about, especially,
36
106620
2736
این یک مشکل عظیم است. اگر به اقتصادی خصوصاً
01:49
an economy like Switzerland,
37
109380
1696
شبیه به سوئیس بنگرید،
01:51
which relies so much on the trust put into its financial industry.
38
111100
4200
که به میزان زیادی بر اعتماد روی صنعت مالی تکیه کرده است.
01:56
On the other hand,
39
116780
1216
از سوی دیگر،
01:58
there are six out of seven companies who actually remain honest
40
118020
3536
شش شرکت از هفت شرکت حقیقتاً راست‌کار و صادق هستند.
02:01
despite all temptations to start engaging in fraud.
41
121580
3840
با وجود تمام وسوسه‌هایی که مشوقِ شروع به کلاهبرداری هستند.
02:06
There are whistle-blowers like Michael Woodford,
42
126060
2296
افشاگرانی مثل مایکل وودفورد وجود دارند،
02:08
who blew the whistle on Olympus.
43
128380
2336
که شرکت «الیمپوس» را افشا کرد.
02:10
These whistle-blowers risk their careers,
44
130740
2696
این افشاگران حرفه‌ی خود،دوستی شان را
02:13
their friendships,
45
133460
1216
به خطر می‌اندازند،
02:14
to bring out the truth about their companies.
46
134700
2136
تا واقعیت را راجع به شرکت‌هایشان اظهار کنند.
02:16
There are journalists like Anna Politkovskaya
47
136860
2616
خبرنگارانی همچون آنا پولیتکوفسکایا
02:19
who risk even their lives to report human rights violations.
48
139500
3856
که حتی جان خود را برای گزارشِ نقض حقوق بشر به خطر می‌اندازند.
02:23
She got killed --
49
143380
1216
او کشته شد.
02:24
every year,
50
144620
1216
هر ساله،
02:25
around 100 journalists get killed
51
145860
1656
حدود ۱۰۰ خبرنگار به خاطر
02:27
because of their conviction to bring out the truth.
52
147540
2720
عقیده به افشای حقیقت کشته می‌شوند.
02:31
So in my talk today,
53
151860
1256
بنابراین در سخنرانی امروزم،
02:33
I want to share with you some insights I've obtained and learned
54
153140
3496
می‌خواهم برخی بینش‌ها که طی ۱۰ سال پژوهش در این زمینه
02:36
in the last 10 years of conducting research in this.
55
156660
3296
به دست آورده و یاد گرفته‌ام را با شما به اشتراک بگذارم.
02:39
I'm a researcher, a scientist working with economists,
56
159980
3496
من یک پژوهشگرم، یک دانشمند که با اقتصاد دانان کار می‌کند،
02:43
financial economists,
57
163500
1336
اقتصاد دانان مالی،
02:44
ethicists, neuroscientists,
58
164860
2056
دانشمندان حوزه‌ی اخلاق،علوم اعصاب،
02:46
lawyers and others
59
166940
1336
وکلا و سایر افراد
02:48
trying to understand what makes humans tick,
60
168300
2096
تا بفهمم چه چیزی انسان‌ها را گیر می‌اندازد،
02:50
and how can we address this issue of fraud in corporations
61
170420
4776
و چطور می‌توانیم مسئله‌ی کلاهبرداری در شرکت‌ها را حل کنیم
02:55
and therefore contribute to the improvement of the world.
62
175220
3160
و در نتیجه در بهتر کردنِ جهان سهیم باشیم.
02:59
I want to start by sharing with you two very distinct visions
63
179100
3536
می‌خواهم با مطرح کردن دو چشم‌انداز متفاوت درباره‌ی نحوه‌ی رفتار افراد
03:02
of how people behave.
64
182660
1816
شروع کنم.
03:04
First, meet Adam Smith,
65
184500
1840
نخست، با آدام اسمیت آشنا شوید،
03:07
founding father of modern economics.
66
187020
1960
پدر و بنیان‌گذار اقتصاد نوین.
03:10
His basic idea was that if everybody behaves in their own self-interests,
67
190100
4296
ایده‌ی اصلی او این بود که اگر هر کس بر اساس منافع خودش رفتار کند،
03:14
that's good for everybody in the end.
68
194420
2520
در نهایت برای همه خوب است.
03:17
Self-interest isn't a narrowly defined concept
69
197900
3056
منافع شخصی یک مفهوم محدود نیست
03:20
just for your immediate utility.
70
200980
1936
فقط برای سود آنی شما.
03:22
It has a long-run implication.
71
202940
1936
پیامدهای بلند مدتی دارد.
03:24
Let's think about that.
72
204900
1480
بگذارید در مورد آن فکر کنیم.
03:26
Think about this dog here.
73
206900
2016
این سگ را اینجا درنظر بگیرید.
03:28
That might be us.
74
208940
1200
که ممکن است خود ما باشیم.
03:31
There's this temptation --
75
211260
1256
این وسوسه‌ وجود دارد --
03:32
I apologize to all vegetarians, but --
76
212540
2376
از گیاه‌خواران عذر می خوام، ولی --
03:34
(Laughter)
77
214940
1016
03:35
Dogs do like the bratwurst.
78
215980
1696
(خنده‌ی حضار)
سگ‌ها سوسیس دوست دارند.
03:37
(Laughter)
79
217700
2376
(خنده‌ی حضار)
03:40
Now, the straight-up, self-interested move here
80
220100
3096
در این وضعیت، واکنشِ صادقانه در جهت مناقع شخصی
03:43
is to go for that.
81
223220
1576
این است که به سمت سوسیس برود.
03:44
So my friend Adam here might jump up,
82
224820
2936
بنابراین دوستِ من، آدام ممکن است به بالا بپرد،
03:47
get the sausage and thereby ruin all this beautiful tableware.
83
227780
3360
تا سوسیس را بگیرید و به این وسیله تمامی این لوازم زیبا را نابود کند.
03:51
But that's not what Adam Smith meant.
84
231820
1816
اما منظور آدام اسمیت این نبود.
03:53
He didn't mean disregard all consequences --
85
233660
2656
منظورش این نبود که همه‌ی پیامدها را نادیده بگیریم --
03:56
to the contrary.
86
236340
1216
برعکس،
03:57
He would have thought,
87
237580
1256
او فکر می‌کرد،
03:58
well, there may be negative consequences,
88
238860
2016
ممکن است پیامدهای منفی‌ای وجود داشته باشد،
04:00
for example,
89
240900
1216
برای مثال،
04:02
the owner might be angry with the dog
90
242140
3096
صاحب‌خانه ممکن است از دست سگ عصبانی شود
04:05
and the dog, anticipating that, might not behave in this way.
91
245260
3600
و سگ که این را می‌داند، ممکن است اینگونه رفتار نکند.
04:09
That might be us,
92
249660
1256
ممکن است ما این سگ باشیم،
04:10
weighing the benefits and costs of our actions.
93
250940
3056
که سود و هزینه‌ی اعمال‌مان را می‌سنجیم.
04:14
How does that play out?
94
254020
1240
نتیجه چه خواهد شد؟
04:15
Well, many of you, I'm sure,
95
255780
1976
خوب، مطمئنم، بسیاری از شما
04:17
have in your companies,
96
257780
1536
در شرکت‌هایتان،
04:19
especially if it's a large company,
97
259340
1816
خصوصاً اگر شرکت بزرگی باشد،
04:21
a code of conduct.
98
261180
1656
یک منشور اخلاقی دارید.
04:22
And then if you behave according to that code of conduct,
99
262860
3416
و اگر بر اساس آن منشور اخلاقی رفتار کنید،
04:26
that improves your chances of getting a bonus payment.
100
266300
3176
احتمال پاداش گرفتن شما افزایش می‌یابد.
04:29
And on the other hand, if you disregard it,
101
269500
2135
از سوی دیگر، اگر آن را نادیده بگیرید،
04:31
then there are higher chances of not getting your bonus
102
271659
2737
احتمال بیشتری وجود دارد که پاداش نگیرید
04:34
or its being diminished.
103
274420
1536
یا از مقدار آن کاسته شود.
04:35
In other words,
104
275980
1256
به بیان دیگر،
04:37
this is a very economic motivation
105
277260
1816
این یک انگیزه‌ی به شدت اقتصادی
04:39
of trying to get people to be more honest,
106
279100
2776
برای تشویق به صداقت افراد،
04:41
or more aligned with the corporation's principles.
107
281900
3360
یا هم‌سو کردن آن‌ها با اصولِ سازمان است.
04:46
Similarly, reputation is a very powerful economic force, right?
108
286060
5256
به همین شکل، خوش‌نامی هم یک نیروی قدرتمند اقتصادی است، درست است؟
04:51
We try to build a reputation,
109
291340
1536
ما برای خوش‌نامی تلاش می‌کنیم،
04:52
maybe for being honest,
110
292900
1416
شاید هم برای صداقت،
04:54
because then people trust us more in the future.
111
294340
2400
چون بعد آن افراد درآینده بیشتر به ما اعتماد می کنند
04:57
Right?
112
297780
1216
درست است؟
04:59
Adam Smith talked about the baker
113
299020
2096
آدام اسمیت در مورد نانوایی صحبت می کرد
05:01
who's not producing good bread out of his benevolence
114
301140
3776
که به دور از بخشندگی نان خوبی
05:04
for those people who consume the bread,
115
304940
3016
برای مردمی که نان مصرف می کردند،نمی پخت،
05:07
but because he wants to sell more future bread.
116
307980
3040
این‌خاطر که می‌خواست در آینده نان بیشتری بفروشد.
05:11
In my research, we find, for example,
117
311980
2216
در پژوهش‌هایم، متوجه شدیم، برای مثال،
05:14
at the University of Zurich,
118
314220
1376
در دانشگاه زوریخ،
05:15
that Swiss banks who get caught up in media,
119
315620
4200
که بانک‌هایی سوئیسی‌ای که گرفتار رسانه‌ها می‌شوند،
05:20
and in the context, for example,
120
320540
1776
در زمینه‌، برای مثال،
05:22
of tax evasion, of tax fraud,
121
322340
1536
فرار و تقلب مالیاتی،
05:23
have bad media coverage.
122
323900
1736
پوشش رسانه‌ای بدی دارند،
05:25
They lose net new money in the future
123
325660
2736
خالص پول دریافتی‌شان در آینده کاهش می‌یابد
05:28
and therefore make lower profits.
124
328420
1616
و از این رو سود کمتری کسب می‌کنند.
05:30
That's a very powerful reputational force.
125
330060
2360
این یک نیروی بسیار قدرتمند معتبر است.
05:34
Benefits and costs.
126
334020
1600
سود و هزینه.
05:36
Here's another viewpoint of the world.
127
336940
2576
دیدگاه دیگری به جهان این است:
05:39
Meet Immanuel Kant,
128
339540
1536
با امانوئل کانت آشنا شوید،
05:41
18th-century German philosopher superstar.
129
341100
2760
فوق‌ستاره‌ی فلسفه‌ی قرن هجدهم در آلمان.
05:44
He developed this notion
130
344740
1616
او این تفکر را توسعه داد
05:46
that independent of the consequences,
131
346380
3136
که مستقل از پیامدهای یک عمل،
05:49
some actions are just right
132
349540
2976
برخی از اعمال درست هستند
05:52
and some are just wrong.
133
352540
1696
و برخی دیگر اشتباه هستند.
05:54
It's just wrong to lie, for example.
134
354260
3216
برای مثال، دروغ گفتن اشتباه است.
05:57
So, meet my friend Immanuel here.
135
357500
3136
بنابراین با دوستِ من امانوئل آشنا شوید.
06:00
He knows that the sausage is very tasty,
136
360660
2816
او می‌داند که سوسیس خیلی خوش‌مزه است،
06:03
but he's going to turn away because he's a good dog.
137
363500
2456
اما از آن امتناع می کند چون سگ خوبی است،
06:05
He knows it's wrong to jump up
138
365980
2696
او می‌داند که بالا پریدن کار اشتباهی است
06:08
and risk ruining all this beautiful tableware.
139
368700
2800
وخطر از بین رفتن همه این ظروف زیبا وجود دارد.
06:12
If you believe that people are motivated like that,
140
372340
2416
اگرمعتقد باشید که افراد اینگونه انگیزه پیدا می‌کنند
06:14
then all the stuff about incentives,
141
374780
2176
آن‌گاه همه‌ی چیزهای مربوط به مشوق‌ها،
06:16
all the stuff about code of conduct and bonus systems and so on,
142
376980
3776
تمام مسائل مربوط به منشور اخلاقی و سیستم پاداش و غیره،
06:20
doesn't make a whole lot of sense.
143
380780
2176
حس کلی زیادی را ایجاد نمی کنند.
06:22
People are motivated by different values perhaps.
144
382980
4176
احتمالاً افراد با ارزش‌های متفاوتی انگیزه پیدا می‌کنند.
06:27
So, what are people actually motivated by?
145
387180
3376
پس،افراد واقعاً با چه چیزی انگیزه پیدا می‌کنند؟
06:30
These two gentlemen here have perfect hairdos,
146
390580
2176
مدل موهای این دو آقا عالی است،
06:32
but they give us very different views of the world.
147
392780
4480
اما آن‌ها دیدگاه‌های متفاوتی از جهان به ما ارائه می‌کنند.
06:37
What do we do with this?
148
397660
1256
با این چه کنیم؟
06:38
Well, I'm an economist
149
398940
1656
خب، من یک اقتصاد دان هستم
06:40
and we conduct so-called experiments to address this issue.
150
400620
4176
و به اصطلاح ما برای پاسخ به این مسئله آزمایش می‌کنیم.
06:44
We strip away facts which are confusing in reality.
151
404820
3296
ما حقایقی را که واقعیت را آشفته می‌کند، کنار می‌گذاریم.
06:48
Reality is so rich, there is so much going on,
152
408140
2736
واقعیت بسیار غنی است، اتفاقات زیادی رخ می‌دهد.
06:50
it's almost impossible to know what drives people's behavior really.
153
410900
3960
دانستن محرک واقعی رفتار افراد تقریباً غیر ممکن است.
06:55
So let's do a little experiment together.
154
415340
2720
پس بیایید با هم آزمایش کوچکی انجام دهیم.
06:58
Imagine the following situation.
155
418500
2600
این موقعیت را در نظر بگیرید.
07:02
You're in a room alone,
156
422220
2416
در اتاقی تنها هستید،
07:04
not like here.
157
424660
1536
نه شبیه به اینجا.
07:06
There's a five-franc coin like the one I'm holding up right now
158
426220
3440
یک سکه‌ی پنج فرانکی شبیه به این که الان در مقابل شما
07:10
in front of you.
159
430380
1576
در دست گرفتم.
07:11
Here are your instructions:
160
431980
1576
دستورالعمل‌های شما این است:
07:13
toss the coin four times,
161
433580
2480
سکه را چهار مرتبه پرتاب کنید،
07:17
and then on a computer terminal in front of you,
162
437620
2416
و سپس تعداد دفعاتی که «خط» آمد را
07:20
enter the number of times tails came up.
163
440060
3656
در کامپیوتر روبرویتان وارد کنید.
07:23
This is the situation.
164
443740
1280
موقعیت این است.
07:25
Here's the rub.
165
445540
1216
مسئله اینجاست.
07:26
For every time that you announce that you had a tails throw,
166
446780
3376
به ازای هربار که اعلام می کنید پرتاب شما«خط» آمده است،
07:30
you get paid five francs.
167
450180
1496
پنج فرانک می‌گیرید.
07:31
So if you say I had two tails throws,
168
451700
2536
بنابراین اگر بگویید دو بار «خط» آمد،
07:34
you get paid 10 francs.
169
454260
2216
ده فرانک به دست می‌آوردید.
07:36
If you say you had zero, you get paid zero francs.
170
456500
2936
اگر بگویید هیچ «خط»ی نیامد، صفر فرانک می‌گیرید.
07:39
If you say, "I had four tails throws,"
171
459460
2456
اگر بگویید، "چهار بار خط آمد،"
07:41
then you get paid 20 francs.
172
461940
2016
بیست فرانک می‌گیرید.
07:43
It's anonymous,
173
463980
1256
آزمایش ناشناس است،
07:45
nobody's watching what you're doing,
174
465260
1896
کسی رفتار شما را نگاه نمی‌کند،
07:47
and you get paid that money anonymously.
175
467180
2336
و این پول، ناشناس به شما پرداخت می‌شود.
07:49
I've got two questions for you.
176
469540
1477
از شما دو سؤال دارم:
07:51
(Laughter)
177
471580
1616
(خنده‌ی حضار)
07:53
You know what's coming now, right?
178
473220
1640
می‌دانید چه اتفاقی می‌افتد، آره؟
07:55
First, how would you behave in that situation?
179
475820
3480
اول این‌که، شما در این شرایط چگونه برخورد می‌کنید؟
08:00
The second, look to your left and look to your right --
180
480060
2936
دوم این‌که، به راست و چپ خود نگاه کنید --
08:03
(Laughter)
181
483020
1016
(خنده‌ی حضار)
08:04
and think about how the person sitting next to you
182
484060
2376
و به این فکر کنید که نفر کنار شما در این شرایط
08:06
might behave in that situation.
183
486460
1656
چطور رفتار خواهد کرد.
08:08
We did this experiment for real.
184
488140
2136
ما این آزمایش را واقعاً انجام دادیم.
08:10
We did it at the Manifesta art exhibition
185
490300
2696
در نمایشگاه هنر مانیفیستا که اینجا
08:13
that took place here in Zurich recently,
186
493020
2456
در زوریخ برگزار شد انجامش دادیم.
08:15
not with students in the lab at the university
187
495500
2856
نه با دانشجویانِ داخل آزمایشگاهِ دانشگاه
08:18
but with the real population,
188
498380
1776
بلکه با آدم‌های واقعی،
08:20
like you guys.
189
500180
1200
مثل شماها.
08:21
First, a quick reminder of stats.
190
501900
2136
ابتدا یک یادآوری درباره‌ی آمار.
08:24
If I throw the coin four times and it's a fair coin,
191
504060
3576
اگر یک سکه را چهار بار پرتاب کنم، و سکه عادی باشد،
08:27
then the probability that it comes up four times tails
192
507660
4096
احتمال این‌که هر چهار بار «خط» بیاید
08:31
is 6.25 percent.
193
511780
2400
۶/۲۵ درصد است.
08:34
And I hope you can intuitively see
194
514900
1656
و امیدوارم به صورت شهودی درک کنید
08:36
that the probability that all four of them are tails is much lower
195
516580
3376
که احتمال این‌که هر چهار بار «خط» باشد از احتمال این‌که فقط دو بار
08:39
than if two of them are tails, right?
196
519980
2120
«خط» باشد خیلی کم‌تر است، درسته؟
08:42
Here are the specific numbers.
197
522580
1440
این‌ها اعداد واقعی هستند.
08:45
Here's what happened.
198
525859
1496
این اتفاقی است که رخ داده است.
08:47
People did this experiment for real.
199
527379
2201
افراد واقعاً این را تجربه کردند.
08:50
Around 30 to 35 percent of people said,
200
530619
3336
حدود ۳۰ تا ۳۵ درصد افراد گفتند،
08:53
"Well, I had four tails throws."
201
533979
2401
"خب، من چهار بار خط آوردم."
08:57
That's extremely unlikely.
202
537460
1816
این خیلی بعید است.
08:59
(Laughter)
203
539300
1936
(خنده‌ی حضار)
09:01
But the really amazing thing here,
204
541260
3136
اما واقعیت شگفت‌انگیز در این‌جا
09:04
perhaps to an economist,
205
544420
1296
شاید برای یک اقتصاد دان،
09:05
is there are around 65 percent of people who did not say I had four tails throws,
206
545740
6536
احتمالاً این است که ۶۵ درصد افراد نگفتند که چهار بار «خط» آوردند،
09:12
even though in that situation,
207
552300
2176
حتی در این موقعیت،
09:14
nobody's watching you,
208
554500
2096
که هیچ‌کس شما را نگاه نمی‌کند،
09:16
the only consequence that's in place
209
556620
1936
تنها پیامدِ عمل این است که
09:18
is you get more money if you say four than less.
210
558580
3336
اگر بگویید کمتر از چهار بار «خط» آوردم، پول بیشتری به دست می‌آورید.
09:21
You leave 20 francs on the table by announcing zero.
211
561940
3280
اگر بگویید صفر، ۲۰ فرانک روی میز رها می‌کنید.
09:25
I don't know whether the other people all were honest
212
565860
2576
من نمی‌دانم که آیا همه افراد صادق بودند
09:28
or whether they also said a little bit higher or lower than what they did
213
568460
3456
یا این‌که آن‌ها هم کمی بیشتر یا کم‌تر از واقعیت گفتند
09:31
because it's anonymous.
214
571940
1216
چون آزمایش ناشناس است.
09:33
We only observed the distribution.
215
573180
1656
ما فقط توزیع را مشاهده کردیم.
09:34
But what I can tell you -- and here's another coin toss.
216
574860
2656
اما آن‌چه می‌توانم بگویم -- این هم یک پرتاب دیگر.
09:37
There you go, it's tails.
217
577540
1496
این هم از این، «خط» آمد.
09:39
(Laughter)
218
579060
1496
(خنده‌ی حضار)
09:40
Don't check, OK?
219
580580
1456
نگاهش نکنید، باشه؟
09:42
(Laughter)
220
582060
2816
(خنده‌ی حضار)
09:44
What I can tell you
221
584900
1296
آن‌چه می‌توانم بگویم
09:46
is that not everybody behaved like Adam Smith would have predicted.
222
586220
4440
این است که همه مثل آن‌چه آدام اسمیت پیش‌بینی کرده بود عمل نکردند.
09:52
So what does that leave us with?
223
592660
1576
پس به چه نتیجه‌ای می‌رسیم؟
09:54
Well, it seems people are motivated by certain intrinsic values
224
594260
4496
خب،‌ به نظر می‌رسد افراد با برخی ارزش‌های درونی انگیخته می‌شوند
09:58
and in our research, we look at this.
225
598780
1800
و در این پژوهش، ما آن را تماشا کردیم.
10:01
We look at the idea that people have so-called protected values.
226
601260
4480
ما این تصور که افراد اصطلاحاً دارای ارزش‌های حفاظت‌شده هستند را مشاهده کردیم.
10:06
A protected value isn't just any value.
227
606580
2816
یک ارزش حفاظت شده، هر ارزشی نیست.
10:09
A protected value is a value where you're willing to pay a price
228
609420
5816
یک ارزش حفاظت‌شده، ارزشی است که حاضرید برای حفظ آن
10:15
to uphold that value.
229
615260
1256
هزینه بپردازید.
10:16
You're willing to pay a price to withstand the temptation to give in.
230
616540
4440
حاضرید هزینه دهید تا درمقابل وسوسه‌ی تسلیم شدن بایستید.
10:22
And the consequence is you feel better
231
622020
2656
و نتیجه‌ی آن این است که اگر پول را
10:24
if you earn money in a way that's consistent with your values.
232
624700
4296
از طریقی که با ارزش‌های شما سازگار است به دست آورید، احساس بهتری دارید.
10:29
Let me show you this again in the metaphor of our beloved dog here.
233
629020
4280
بگذارید دوباره با تشبیه سگِ دوست‌داشتنی‌مان این را نشان دهم.
10:34
If we succeed in getting the sausage without violating our values,
234
634420
4056
اگر بتوانیم بدون پایمال کردن ارزش‌هایمان به سوسیس برسیم،
10:38
then the sausage tastes better.
235
638500
1976
آن‌وقت سوسیس خوش‌مزه‌تر است.
10:40
That's what our research shows.
236
640500
1480
چیزی است که پژوهشمان نشان داد.
10:42
If, on the other hand,
237
642540
1256
از سوی دیگر، اگر،
10:43
we do so --
238
643820
1256
این طور عمل کنیم --
10:45
if we get the sausage
239
645100
1416
اگر سوسیس را برداریم
10:46
and in doing so we actually violate values,
240
646540
3456
و درحین انجام آن ارزش‌ها را پایمال کنیم،
10:50
we value the sausage less.
241
650020
2976
برای سوسیس ارزش کم‌تری قائلیم.
10:53
Quantitatively, that's quite powerful.
242
653020
2456
از لحاظ کمی، این بسیار قدرت‌مند است.
10:55
We can measure these protected values,
243
655500
2456
می‌توانیم این ارزش‌های حفاظت‌شده را بسنجیم،
10:57
for example,
244
657980
1216
برای مثال،
10:59
by a survey measure.
245
659220
1920
با یک نظرسنجی.
11:02
Simple, nine-item survey that's quite predictive in these experiments.
246
662180
5976
ساده‌ است، یک نظرسنجی نه گزینه‌ای که در این آزمایش کاملاً پیش‌گویانه است.
11:08
If you think about the average of the population
247
668180
2336
اگر به میانگین جامعه فکر کنید
11:10
and then there's a distribution around it --
248
670540
2096
و توزیعی حول آن باشد --
11:12
people are different, we all are different.
249
672660
2040
افراد متفاوت‌اند، همه‌ی ما متفاوت‌ایم.
11:15
People who have a set of protected values
250
675300
2976
افرادی که مجموعه‌ای از ارزش‌های حفاظت‌شده دارند
11:18
that's one standard deviation above the average,
251
678300
4176
که به اندازه‌ی یک انحراف‌معیار استاندارد از میانگین بالاتر است،
11:22
they discount money they receive by lying by about 25 percent.
252
682500
5056
به اندازه‌ی ۲۵ درصد پولی را که با دروغ کسب می‌کنند بی‌ارزش می‌پندارند.
11:27
That means a dollar received when lying
253
687580
3616
یعنی هر دلار که با دروغ کسب می‌شود
11:31
is worth to them only 75 cents
254
691220
2136
فقط ۷۵ سنت ارزش دارد
11:33
without any incentives you put in place for them to behave honestly.
255
693380
3696
بی آن‌که هیچ مشوقی برای صداقت قرار دهید.
11:37
It's their intrinsic motivation.
256
697100
1736
این انگیزه‌ی درونی آن‌هاست.
11:38
By the way, I'm not a moral authority.
257
698860
1856
ضمناً، من متصدی اخلاق نیستم.
11:40
I'm not saying I have all these beautiful values, right?
258
700740
2920
من نمی‌گویم که این ارزش‌های قشنگ را دارم، درست است؟
11:44
But I'm interested in how people behave
259
704260
1936
اما به نحوه‌ی رفتار افراد و این‌که چطور
11:46
and how we can leverage that richness in human nature
260
706220
3376
این غنای طبیعت بشر را به‌کار بگیریم، علاقه‌مندم
11:49
to actually improve the workings of our organizations.
261
709620
3440
تا کارکردِ سازمان‌هایمان را واقعاً بهبود دهیم.
11:54
So there are two very, very different visions here.
262
714220
3176
بنابراین دو دیدگاه کاملاً متفاوت وجود دارد.
11:57
On the one hand,
263
717420
1336
در یک سو،
11:58
you can appeal to benefits and costs
264
718780
3016
به سود و هزینه جذب می شوید
12:01
and try to get people to behave according to them.
265
721820
2656
و تلاش می‌کنید رفتار افراد را بر اساس آن تعیین کنید.
12:04
On the other hand,
266
724500
1616
در سوی دیگر،
12:06
you can select people who have the values
267
726140
4016
می‌توانید افرادی را انتخاب کنید که دارای ارزش‌ها
12:10
and the desirable characteristics, of course --
268
730180
2216
و ویژگی‌های مطلوب هستند، و البته--
12:12
competencies that go in line with your organization.
269
732420
3576
دارای شایستگی‌هایی که در خطِ سازمان شما قرار دارد.
12:16
I do not yet know where these protected values really come from.
270
736020
4216
هنوز نمی‌دانم این ارزش‌های حفاظت‌ شده واقعاً از کجا نشأت می‌گیرند.
12:20
Is it nurture or is it nature?
271
740260
3376
طبیعی هستند یا پرورده شده‌اند؟
12:23
What I can tell you
272
743660
1376
آن‌چه می‌توانم به شما بگویم
12:25
is that the distribution looks pretty similar for men and women.
273
745060
5096
این است که توزیع برای مردان و زنان بسیار مشابه است.
12:30
It looks pretty similar for those who had studied economics
274
750180
3776
بسیار مشابه است برای کسانی که اقتصاد خوانده‌اند
12:33
or those who had studied psychology.
275
753980
2360
یا کسانی که روان‌شناسی خوانده‌اند.
12:37
It looks even pretty similar around different age categories
276
757820
3376
حتی در رده‌های سنی متفاوت در افراد بالغ هم
12:41
among adults.
277
761220
1216
بسیار مشابه است.
12:42
But I don't know yet how this develops over a lifetime.
278
762460
2656
اما هنوز نمی‌دانم در طول زندگی چطور پرورش پیدا می‌کند.
12:45
That will be the subject of future research.
279
765140
3440
این موضوع پژوهش‌های آینده خواهد بود.
12:49
The idea I want to leave you with
280
769460
1656
ایده‌ای که می‌خواهم برایتان به جا
12:51
is it's all right to appeal to incentives.
281
771140
2776
بگذارم این است که اشکال ندارد مشوق داشته باشید.
12:53
I'm an economist;
282
773940
1216
من یک اقصاددانم؛
12:55
I certainly believe in the fact that incentives work.
283
775180
2920
قطعاً اعتقاد دارم که مشوق‌ها جواب می‌دهند.
12:59
But do think about selecting the right people
284
779220
4016
اما به انتخاب افرادِ درست هم فکر کنید
13:03
rather than having people and then putting incentives in place.
285
783260
3496
به جای این‌که هر فردی را جذب کرده و سپس مشوق‌ها را در محیط قرار دهید.
13:06
Selecting the right people with the right values
286
786780
2256
انتخاب افراد درست با ارزش‌های درست
13:09
may go a long way to saving a lot of trouble
287
789060
3936
ممکن است منجر به جلوگیری از بسیاری از دردسرها
13:13
and a lot of money
288
793020
1376
و مقدار زیادی پول
13:14
in your organizations.
289
794420
1736
در سازمان‌تان شود.
13:16
In other words,
290
796180
1256
به بیان دیگر،
13:17
it will pay off to put people first.
291
797460
3760
اولویت دادن به افراد هزینه‌ی خود را پرداخت می‌کند.
13:21
Thank you.
292
801860
1216
متشکرم.
13:23
(Applause)
293
803100
3640
(تشویق حضار)
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7