Why we think it's OK to cheat and steal (sometimes) | Dan Ariely

دن آریلی، معیارهای غلط اخلاقی ما

775,712 views

2009-03-18 ・ TED


New videos

Why we think it's OK to cheat and steal (sometimes) | Dan Ariely

دن آریلی، معیارهای غلط اخلاقی ما

775,712 views ・ 2009-03-18

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: Amir Joudaki Reviewer: soheila Jafari
00:19
I want to talk to you today a little bit
0
19330
2000
امروز می‌خوام کمی با شما درباره‌ی خِردگریزی قابل پیش‌بینی حرف بزنم.
00:21
about predictable irrationality.
1
21330
3000
امروز می‌خوام کمی با شما درباره‌ی خِردگریزیی قابل پیش‌بینی حرف بزنم.
00:24
And my interest in irrational behavior
2
24330
4000
و علاقه‌ی من به رفتارهای نامعقول
00:28
started many years ago in the hospital.
3
28330
3000
سال‌ها پیش در بیمارستان آغاز شد.
00:31
I was burned very badly.
4
31330
4000
من به شدت سوخته بودم.
00:35
And if you spend a lot of time in hospital,
5
35330
3000
و اگر شما زمان زیادی در بیمارستان گذرانده باشید،
00:38
you'll see a lot of types of irrationalities.
6
38330
3000
رفتارهای نامعقول زیادی می‌بینید.
00:41
And the one that particularly bothered me in the burn department
7
41330
5000
و یکی از آن‌ها که به‌ ویژه در بخش سوختگی من را آزار می‌داد
00:46
was the process by which the nurses took the bandage off me.
8
46330
4000
روشی بود که پرستاران پانسمان من را عوض می‌کردند.
00:51
Now, you must have all taken a Band-Aid off at some point,
9
51330
2000
خب، همه‌ شما حتماً تا به حال باید یک چسب زخم را کنده باشید،
00:53
and you must have wondered what's the right approach.
10
53330
3000
و حتما با خودتان فکر کردید که روش درست این کار چیست.
00:56
Do you rip it off quickly -- short duration but high intensity --
11
56330
4000
آیا آن‌ را سریع می‌کنید -- مدتِ کوتاه ولی با شدت --
01:00
or do you take your Band-Aid off slowly --
12
60330
2000
یا چسبِ زخم را به آرامی بلند می‌کنید --
01:02
you take a long time, but each second is not as painful --
13
62330
4000
زمان بیشتری صرف می‌کنید، اما هر لحظه‌اش به آن دردناکی نیست --
01:06
which one of those is the right approach?
14
66330
3000
کدام روش درست است؟
01:09
The nurses in my department thought that the right approach
15
69330
4000
پرستاران بخش من فکر میکردند روش درست
01:13
was the ripping one, so they would grab hold and they would rip,
16
73330
3000
روش سریع است، برای همین پانسمان ها را محکم می‌گرفتند و سریع می‌کندند،
01:16
and they would grab hold and they would rip.
17
76330
2000
و آنها پانسمان‌ها را می‌گرفتند و سریع می‌کندند.
01:18
And because I had 70 percent of my body burned, it would take about an hour.
18
78330
4000
و چون من ۷۰٪ سوختگی روی بدنم داشتم، این کار حدوداً یک ساعت طول می‌کشید.
01:22
And as you can imagine,
19
82330
3000
و همانطور که می‌توانید تصور کنید،
01:25
I hated that moment of ripping with incredible intensity.
20
85330
4000
من از آن لحظه‌ی کندن پانسمان به شدت متنفر بودم.
01:29
And I would try to reason with them and say,
21
89330
2000
و من سعی می‌کردم آنها را متقاعد کنم و بگویم:
01:31
"Why don't we try something else?
22
91330
1000
«چرا ما روش دیگری را امتحان نکنیم؟
01:32
Why don't we take it a little longer --
23
92330
2000
چرا نگذاریم کمی بیشتر طول بکشد -
01:34
maybe two hours instead of an hour -- and have less of this intensity?"
24
94330
5000
مثلا دو ساعت به جای یک ساعت - ولی با شدت کمتر؟»
01:39
And the nurses told me two things.
25
99330
2000
و پرستاران به من دو چیز می‌گفتند
01:41
They told me that they had the right model of the patient --
26
101330
4000
آنها به من می‌گفتند که الگوی درست برای بیماررا می‌شناسند --
01:45
that they knew what was the right thing to do to minimize my pain --
27
105330
3000
یعنی آنها می‌دانستند چه‌کار کنند که درد من به کمترین حد برسد --
01:48
and they also told me that the word patient doesn't mean
28
108330
3000
و همینطور به من گفتند کلمه "بیمار" اصلا به معنی
01:51
to make suggestions or to interfere or ...
29
111330
2000
"پیشنهاد دادن" یا "مداخله کردن" یا این چیزها نیست.
01:53
This is not just in Hebrew, by the way.
30
113330
3000
به هر حال در زبان عِبری اینطوری نیست.
01:56
It's in every language I've had experience with so far.
31
116330
3000
در تمام زبان‌هایی که من تا حالا باهاشون برخورد داشتم، هم همینطور است.
01:59
And, you know, there's not much -- there wasn't much I could do,
32
119330
4000
می‌دانید، کاری نمی‌شد کرد - من کار زیادی نمی‌تونستم بکنم،
02:03
and they kept on doing what they were doing.
33
123330
3000
و آنها به کاری که می‌کردند را ادامه دادند.
02:06
And about three years later, when I left the hospital,
34
126330
2000
حدود سه سال بعد، وقتی بیمارستان را ترک کردم،
02:08
I started studying at the university.
35
128330
3000
شروع به تحصیل در دانشگاه کردم.
02:11
And one of the most interesting lessons I learned
36
131330
3000
و یکی از جالبترین درسهایی که یاد گرفتم
02:14
was that there is an experimental method
37
134330
2000
این بود که یک روش آزمایشی وجود دارد
02:16
that if you have a question you can create a replica of this question
38
136330
4000
که اگر پرسشی دارید می‌توانید به صورت انتزاعی یک نسخه از این پرسش را بسازید
02:20
in some abstract way, and you can try to examine this question,
39
140330
4000
و تلاش کنید که آن پرسش را به بوته آزمایش بگذارید،
02:24
maybe learn something about the world.
40
144330
2000
شاید چیزی درباره جهان یاد بگیرید.
02:26
So that's what I did.
41
146330
2000
پس این کاری بود که من کردم.
02:28
I was still interested
42
148330
1000
هنوز برای من جالب بود
02:29
in this question of how do you take bandages off burn patients.
43
149330
2000
که بدانم چطور باید پانسمان بیماران سوختگی را عوض کرد.
02:31
So originally I didn't have much money,
44
151330
3000
خب، من در‌ آغاز پول زیادی نداشتم،
02:34
so I went to a hardware store and I bought a carpenter's vice.
45
154330
4000
برای همین به مغازه ابزارفروشی رفتم و یک گیره نجاری خریدم .
02:38
And I would bring people to the lab and I would put their finger in it,
46
158330
4000
و می‌خواستم مردم را به آزمایشگاه بیارم و انگشت‌شان را لای آن بگذارم،
02:42
and I would crunch it a little bit.
47
162330
2000
و کمی آن را خرد کنم.
02:44
(Laughter)
48
164330
2000
(خنده)
02:46
And I would crunch it for long periods and short periods,
49
166330
3000
و می‌خواستم این کار را در یک دوره‌ی طولانی و یک دوره‌ی کوتاه انجام بدم،
02:49
and pain that went up and pain that went down,
50
169330
2000
و درد که زیاد و کم می‌شد،
02:51
and with breaks and without breaks -- all kinds of versions of pain.
51
171330
4000
و با شکستگی و بدون شکستگی - همه‌ی انواع درد.
02:55
And when I finished hurting people a little bit, I would ask them,
52
175330
2000
و بعد از کمی شکنجه دادنشان، ازشان می‌پرسیدم،
02:57
so, how painful was this? Or, how painful was this?
53
177330
2000
خب، چقدر دردت آمد؟ یا، حالا این چقدر دردناک بود؟
02:59
Or, if you had to choose between the last two,
54
179330
2000
یا، اگر باید از میان این دوتا یکی را برمی‌داشتی،
03:01
which one would you choose?
55
181330
2000
کدام را انتخاب می‌کردی؟
03:03
(Laughter)
56
183330
3000
(خنده)
03:06
I kept on doing this for a while.
57
186330
3000
برای مدتی این کار را ادامه دادم.
03:09
(Laughter)
58
189330
2000
(خنده)
03:11
And then, like all good academic projects, I got more funding.
59
191330
4000
و سپس، مانند همه‌ی پروژه‌های دانشگاهی خوب، کمک مالی بیشتری گرفتم.
03:15
I moved to sounds, electrical shocks --
60
195330
2000
سراغ صداها و شوک الکتریکی رفتم -
03:17
I even had a pain suit that I could get people to feel much more pain.
61
197330
5000
حتی یک روپوش دردناک داشتم که باعث میشد افراد درد را بیشتر احساس کنند
03:22
But at the end of this process,
62
202330
4000
و در آخر این دوره،
03:26
what I learned was that the nurses were wrong.
63
206330
3000
آنچه فهمیدم این بود که پرستاران اشتباه می‌کردند.
03:29
Here were wonderful people with good intentions
64
209330
3000
اینجا آدمهای خوبی با نیات خوب بودند
03:32
and plenty of experience, and nevertheless
65
212330
2000
با مقدار زیادی تجربه، و با این حال
03:34
they were getting things wrong predictably all the time.
66
214330
4000
آنها تمام مدت داشتند چیزها را غلط پیش‌بینی می‌کردند.
03:38
It turns out that because we don't encode duration
67
218330
3000
معلوم می‌شود که به دلیل آنکه ما مدت زمان را حس نمیکنم
03:41
in the way that we encode intensity,
68
221330
2000
آن طور که شدت را حس میکنیم،
03:43
I would have had less pain if the duration would have been longer
69
223330
4000
من درد کمتری می‌داشتم اگر مدت زمان طولانی تر می‌بود
03:47
and the intensity was lower.
70
227330
2000
و شدت کمتر بود
03:49
It turns out it would have been better to start with my face,
71
229330
3000
معلوم میشود بسیار بهتر بود که با صورتم شروع می‌شد،
03:52
which was much more painful, and move toward my legs,
72
232330
2000
که بسیار دردناکتر بود، و بعد به سمت پاهایم حرکت می‌شد،
03:54
giving me a trend of improvement over time --
73
234330
3000
تا به من یک احساس بهبود در طول زمان بدهد --
03:57
that would have been also less painful.
74
237330
1000
که باز هم موجب درد کمتری می‌شود.
03:58
And it also turns out that it would have been good
75
238330
2000
و همینطور معلوم میشود که خوب بود
04:00
to give me breaks in the middle to kind of recuperate from the pain.
76
240330
2000
اگر بین کار به من فرصت استراحت داده می‌شد تا کمی احساس بهبود کنم.
04:02
All of these would have been great things to do,
77
242330
2000
همه اینها کارهای عالی‌ای بودند،
04:04
and my nurses had no idea.
78
244330
3000
اما پرستاران من هیچ چیزی درباره‌شان نمی‌دانستند.
04:07
And from that point on I started thinking,
79
247330
1000
و از آن موقع من فکر می‌کردم
04:08
are the nurses the only people in the world who get things wrong
80
248330
3000
که پرستاران تنها کسانی در جهان هستند که کارها را غلط انجام می‌دهند.
04:11
in this particular decision, or is it a more general case?
81
251330
3000
آیا مسئله همین تصمیم خاص است، یا یک موضوع کلی تر وجود دارد؟
04:14
And it turns out it's a more general case --
82
254330
2000
و معلوم میشود که یک موضوع کلی تروجود دارد --
04:16
there's a lot of mistakes we do.
83
256330
3000
اشتباهات بسیاری را ما مرتکب می‌شویم.
04:19
And I want to give you one example of one of these irrationalities,
84
259330
5000
و من قصد دارم به شما یک مثال از این کارهای نامعقول را نشان دهم،
04:24
and I want to talk to you about cheating.
85
264330
3000
و می‌خواهم درباره تقلب با شما صحبت کنم.
04:27
And the reason I picked cheating is because it's interesting,
86
267330
2000
و دلیل اینکه تقلب را انتخاب کردم این است که نه تنها جذاب است،
04:29
but also it tells us something, I think,
87
269330
2000
بلکه فکر می‌کنم نکته ای به ما می‌گوید،
04:31
about the stock market situation we're in.
88
271330
3000
در مورد شرایط بازار سهامی که در آن فعالیت می‌کنیم.
04:34
So, my interest in cheating started
89
274330
3000
من وقتی به تقلب علاقه مند شدم که
04:37
when Enron came on the scene, exploded all of a sudden,
90
277330
2000
Enron (رسوایی مالی شرکت انرون که منجر به ورشکستگی آن شد) روی صحنه آمد و به طور ناگهانی از بین رفت،
04:39
and I started thinking about what is happening here.
91
279330
3000
من شروع کردم به فکر کردن به اینکه قضیه چیست،
04:42
Is it the case that there was kind of
92
282330
1000
آیا موضوع این است که اینجا
04:43
a few apples who are capable of doing these things,
93
283330
3000
تعدادی سو‌ء استفاده گر هستند که می‌توانند این کارها را بکنند،
04:46
or are we talking a more endemic situation,
94
286330
2000
یا یک موضوع همه گیر وجود دارد،
04:48
that many people are actually capable of behaving this way?
95
288330
4000
که همه انسانها می‌توانند اینطور رفتار کنند؟
04:52
So, like we usually do, I decided to do a simple experiment.
96
292330
4000
پس، مطابق معمول، تصمیم گرفتم که آزمایش ساده‌ای انجام دهم.
04:56
And here's how it went.
97
296330
1000
و اینطور پیش رفت.
04:57
If you were in the experiment, I would pass you a sheet of paper
98
297330
3000
وقتی شما در آزمایش بودید، یک برگ کاغذ به شما می‌دهم
05:00
with 20 simple math problems that everybody could solve,
99
300330
4000
که ۲۰ مسئله ساده ریاضی روی آن نوشته شده که هر کسی می‌تواند آنها را پاسخ دهند،
05:04
but I wouldn't give you enough time.
100
304330
2000
اما زمان کافی به شما نمی‌دهم.
05:06
When the five minutes were over, I would say,
101
306330
2000
وقتی ۵ دقیقه تمام شد، به شما می‌گویم،
05:08
"Pass me the sheets of paper, and I'll pay you a dollar per question."
102
308330
3000
"برگ کاغذ را به من بده، و من یک دلار به ازای هر پرسش به تو می‌دهم"
05:11
People did this. I would pay people four dollars for their task --
103
311330
4000
آدمها این کار را انجام می‌دادند، و من به آنها چهار دلار برای این کار به آنها می‌پردازم --
05:15
on average people would solve four problems.
104
315330
2000
چرا که به صورت متوسط هر فرد چهار مسئله را پاسخ می‌دهند.
05:17
Other people I would tempt to cheat.
105
317330
3000
اما بقیه افراد را وسوسه می‌کردم به اینکه تقلب کنند.
05:20
I would pass their sheet of paper.
106
320330
1000
به آنها برگه‌ای کاغذ می‌دادم.
05:21
When the five minutes were over, I would say,
107
321330
2000
وقتی پنچ دقیقه تمام شد، می‌گفتم،
05:23
"Please shred the piece of paper.
108
323330
1000
"لطفاً کاغذ را پاره کن.
05:24
Put the little pieces in your pocket or in your backpack,
109
324330
3000
تکه‌های کوچک را در جیبت یا کوله پشتی‌ات بگذار،
05:27
and tell me how many questions you got correctly."
110
327330
3000
و به من بگو چند تا پرسش را درست پاسخ دادی."
05:30
People now solved seven questions on average.
111
330330
3000
آنها به صورت متوسط هفت مسأله را پاسخ دادند.
05:33
Now, it wasn't as if there was a few bad apples --
112
333330
5000
اما قضیه این نبود که تعدادی سوء استفاده‌گر بین آنها باشد --
05:38
a few people cheated a lot.
113
338330
3000
یعنی یک سری از افراد خیلی تقلب کرده‌ باشند.
05:41
Instead, what we saw is a lot of people who cheat a little bit.
114
341330
3000
بلکه، چیزی که دیدیم این بود که تعداد زیادی از افراد کمی تقلب کردند.
05:44
Now, in economic theory,
115
344330
3000
حالا، در نظریه اقتصاد،
05:47
cheating is a very simple cost-benefit analysis.
116
347330
3000
تقلب یک مسئله سود-زیان ساده است.
05:50
You say, what's the probability of being caught?
117
350330
2000
با خودتان می‌گویید، چقدر ممکن است گیر بیفتم؟
05:52
How much do I stand to gain from cheating?
118
352330
3000
چقدر در وضعیتی هستم که از تقلب سود ببرم؟
05:55
And how much punishment would I get if I get caught?
119
355330
2000
و چقدر تنبیه می‌شوم اگر گیر بیفتم؟
05:57
And you weigh these options out --
120
357330
2000
و همه این گزینه‌ها را دقیقاً ارزیابی می‌کنید --
05:59
you do the simple cost-benefit analysis,
121
359330
2000
شما یک محاسبه سود-زیان ساده می‌کنید،
06:01
and you decide whether it's worthwhile to commit the crime or not.
122
361330
3000
و تصمیم می‌گیرید که آیا ارزشش را دارد تقلب کنید یا نه.
06:04
So, we try to test this.
123
364330
2000
پس تصمیم گرفتیم این را امتحان کنیم.
06:06
For some people, we varied how much money they could get away with --
124
366330
4000
برای افراد مختلف، مقدار پولی را که می‌توانستند ببرند تغییر دادیم --
06:10
how much money they could steal.
125
370330
1000
مقدار پولی را که می‌توانستند بدزدند.
06:11
We paid them 10 cents per correct question, 50 cents,
126
371330
3000
به آنها ۱۰ سنت، ۵۰ سنت،
06:14
a dollar, five dollars, 10 dollars per correct question.
127
374330
3000
یک دلار، پنج دلار، و ده دلار برای هر پرسش درست پرداخت کردیم.
06:17
You would expect that as the amount of money on the table increases,
128
377330
4000
شما انتظار خواهید داشت که وقتی مقدار پول روی میز زیاد می‌شود،
06:21
people would cheat more, but in fact it wasn't the case.
129
381330
3000
افراد بیشتر تقلب کنند، اما این اتفاق نیفتاد.
06:24
We got a lot of people cheating by stealing by a little bit.
130
384330
3000
تعداد زیادی از افراد بودند که با دزدیدن مقدار کمی پول تقلب می‌کردند.
06:27
What about the probability of being caught?
131
387330
3000
احتمال گیر افتادن چطور؟
06:30
Some people shredded half the sheet of paper,
132
390330
2000
بعضی افراد کاغذ را نصف می‌کردند،
06:32
so there was some evidence left.
133
392330
1000
و در نتیجه مقداری مدرک باقی می‌ماند.
06:33
Some people shredded the whole sheet of paper.
134
393330
2000
بعضی دیگر همه کاغذ را پاره می‌کردند.
06:35
Some people shredded everything, went out of the room,
135
395330
3000
بعضی هم همه چیز را پاره می‌کردند، از اتاق بیرون می‌رفتند،
06:38
and paid themselves from the bowl of money that had over 100 dollars.
136
398330
3000
و از کاسه ای که درونش ۱۰۰ دلار پول بود، خودشان به خودشان پول می‌دادند.
06:41
You would expect that as the probability of being caught goes down,
137
401330
3000
شما انتظار دارید که وقتی احتمال گیر افتادن پایین می‌رود،
06:44
people would cheat more, but again, this was not the case.
138
404330
3000
افراد بیشتر تقلب کنند، اما دوباره این اتفاقی نبود که افتاد.
06:47
Again, a lot of people cheated by just by a little bit,
139
407330
3000
دوباره، تعداد زیادی تنها مقدار کمی تقلب کردند،
06:50
and they were insensitive to these economic incentives.
140
410330
3000
و به این انگیزه های اقتصادی حساس نبودند.
06:53
So we said, "If people are not sensitive
141
413330
1000
پس ما گفتیم، "اگر افراد حساس نیستند
06:54
to the economic rational theory explanations, to these forces,
142
414330
5000
نسبت به قضیه های عقلائی علم اقتصاد، و به این نیروها،
06:59
what could be going on?"
143
419330
3000
پس چه اتفاقی دارد می‌افتد؟
07:02
And we thought maybe what is happening is that there are two forces.
144
422330
3000
پس ما فکر کردیم شاید اتفاقی که می‌افتد این است که دو نیرو وجود دارد.
07:05
At one hand, we all want to look at ourselves in the mirror
145
425330
2000
از یک طرف، ما دوست داریم به خودمان در آینه نگاه کنیم
07:07
and feel good about ourselves, so we don't want to cheat.
146
427330
3000
و احساس خوبی کنیم، پس نمی‌خواهیم تقلب کنیم.
07:10
On the other hand, we can cheat a little bit,
147
430330
2000
از طرف دیگر، ما می‌توانیم کمی تقلب کنیم،
07:12
and still feel good about ourselves.
148
432330
2000
و همچنان احساس خوبی نسبت به خودمان داشته باشیم.
07:14
So, maybe what is happening is that
149
434330
1000
پس، شاید اتفاقی که می‌افتد این است که
07:15
there's a level of cheating we can't go over,
150
435330
2000
سطحی از تقلب وجود دارد که نمیتوانیم رویش سرپوش بگذاریم،
07:17
but we can still benefit from cheating at a low degree,
151
437330
4000
در حالی که می‌توانیم از مقدار کمی تقلب سود ببریم،
07:21
as long as it doesn't change our impressions about ourselves.
152
441330
3000
تا جایی که حس خوب ما را نسبت به خودمان از بین نبرد.
07:24
We call this like a personal fudge factor.
153
444330
3000
ما به این شاخص فریب فردی می‌گوییم.
07:28
Now, how would you test a personal fudge factor?
154
448330
4000
حالا، چطور می‌شود این شاخص فریب شخصی را اندازه گرفت؟
07:32
Initially we said, what can we do to shrink the fudge factor?
155
452330
4000
ابتدا گفتیم، چه کاری می‌توانیم بکنیم که این شاخص فریب شخصی کوچکتر شود؟
07:36
So, we got people to the lab, and we said,
156
456330
2000
پس افراد را به آزمایشگاه آوردیم و پرسیدیم،
07:38
"We have two tasks for you today."
157
458330
2000
"ما امروز دو کار برای تو داریم."
07:40
First, we asked half the people
158
460330
1000
از نیمی از افراد پرسیدیم
07:41
to recall either 10 books they read in high school,
159
461330
2000
که ۱۰ کتابی را که در دبیرستان خوانده اند به یاد بیاورند،
07:43
or to recall The Ten Commandments,
160
463330
3000
یا اینکه ۱۰ فرمان موسی را به یاد بیاورند،
07:46
and then we tempted them with cheating.
161
466330
2000
و آنها را وسوسه کردیم تقلب کنند.
07:48
Turns out the people who tried to recall The Ten Commandments --
162
468330
3000
معلوم شد که افرادی که تلاش کردند که ده فرمان را به یاد بیاورند --
07:51
and in our sample nobody could recall all of The Ten Commandments --
163
471330
2000
و در آزمایش ما هیچ کس تمام فرمانها را به یاد نداشت --
07:54
but those people who tried to recall The Ten Commandments,
164
474330
4000
اما آنها که تلاش کردند ده فرمان را بیاد بیاورند،
07:58
given the opportunity to cheat, did not cheat at all.
165
478330
3000
در حالی که به آنها امکان تقلب داده شده بود، اصلاً تقلب نکردند.
08:01
It wasn't that the more religious people --
166
481330
2000
اینطور نبود که افراد مذهبی ‌تر --
08:03
the people who remembered more of the Commandments -- cheated less,
167
483330
1000
افرادی که فرمانهای بیشتری را به یاد آوردند -- کمتر تقلب کنند،
08:04
and the less religious people --
168
484330
2000
و کسانی که کمتر مذهبی بودند --
08:06
the people who couldn't remember almost any Commandments --
169
486330
1000
افرادی که حتی یک فرمان را به یاد نمی‌آوردند --
08:07
cheated more.
170
487330
2000
بیشتر تقلب کنند.
08:09
The moment people thought about trying to recall The Ten Commandments,
171
489330
4000
لحظه ای که افراد درباره به خاطر آوردن ده فرمان فکر می‌کردند،
08:13
they stopped cheating.
172
493330
1000
تقلب نمی‌کردند.
08:14
In fact, even when we gave self-declared atheists
173
494330
2000
در واقع، حتی وقتی به کسانی که به گفته خودشان خداناباور بودند
08:16
the task of swearing on the Bible and we give them a chance to cheat,
174
496330
4000
گفتیم که به انجیل قسم بخورند و به آنها این امکان را دادیم که تقلب کنند،
08:20
they don't cheat at all.
175
500330
2000
آنها اصلاً تقلب نکردند.
08:24
Now, Ten Commandments is something that is hard
176
504330
2000
حالا ده فرمان مسئله سختی است
08:26
to bring into the education system, so we said,
177
506330
2000
برای اینکه به سیستم آموزشی آورده شود، پس ما پرسیدیم،
08:28
"Why don't we get people to sign the honor code?"
178
508330
2000
"چرا ما از افراد نخواهیم که یک سیتم اخلاقی (honor code) را امضا کنند؟"
08:30
So, we got people to sign,
179
510330
2000
پس آنها را وادار کردیم تا این را امضا کنند،
08:32
"I understand that this short survey falls under the MIT Honor Code."
180
512330
4000
"من می‌دانم که این مطالعه در سیستم اخلاقی مؤسسه فناوری ماساچوست قرار دارد."
08:36
Then they shredded it. No cheating whatsoever.
181
516330
3000
سپس کاغذ را پاره می‌کردند. هیچ تقلبی در کار نبود.
08:39
And this is particularly interesting,
182
519330
1000
و این به طور خاص جذاب است،
08:40
because MIT doesn't have an honor code.
183
520330
2000
چرا که مؤسسه فناوری ماساچوست هیچ سیستم اخلاقی ای ندارد.
08:42
(Laughter)
184
522330
5000
(خنده)
08:47
So, all this was about decreasing the fudge factor.
185
527330
4000
پس، این به معنای پایین آوردن شاخص فریب بود.
08:51
What about increasing the fudge factor?
186
531330
3000
در مورد بالا بردن شاخص فریب چطور؟
08:54
The first experiment -- I walked around MIT
187
534330
2000
در آزمایش اول -- اطراف مؤسسه فناوری ماساچوست قدم زدم
08:56
and I distributed six-packs of Cokes in the refrigerators --
188
536330
3000
و بسته‌های ۶-تایی نوشابه را در یخچالها پخش کردم --
08:59
these were common refrigerators for the undergrads.
189
539330
2000
اینها یخچالهای مشترک برای دانشجویان کارشناسی بودند.
09:01
And I came back to measure what we technically call
190
541330
3000
و بعد سعی کردم چیزی را اندازه بگیرم که به آن اصطلاحاً
09:04
the half-lifetime of Coke -- how long does it last in the refrigerators?
191
544330
4000
نیمه-عمر نوشابه میگوییم -- که یعنی چقدر در یخچالها دوام می‌آورد؟
09:08
As you can expect it doesn't last very long; people take it.
192
548330
3000
همانطور که انتظار دارید خیلی دوام نمی‌آورد، افراد زود بر می‌دارند.
09:11
In contrast, I took a plate with six one-dollar bills,
193
551330
4000
در نقطه مقابل، یک ظرف با ۶ اسکناس یک دلاری را بردم،
09:15
and I left those plates in the same refrigerators.
194
555330
3000
و این ظرفها را در همان یخچالها گذاشتم.
09:18
No bill ever disappeared.
195
558330
1000
هیچ اسکناسی گم نشد.
09:19
Now, this is not a good social science experiment,
196
559330
3000
خُب این یک آزمایش اجتماعی خوبی نیست،
09:22
so to do it better I did the same experiment
197
562330
3000
پس برای اینکه بهترش کنم آزمایش مشابهی را انجام دادم
09:25
as I described to you before.
198
565330
2000
همانطوری که توضیح دادم.
09:27
A third of the people we passed the sheet, they gave it back to us.
199
567330
3000
به یک سوم افراد برگه را می‌دادیم، و آنها برگه را برمی‌گرداندند.
09:30
A third of the people we passed it to, they shredded it,
200
570330
3000
به یک سوم دیگر برگه را می‌دادیم، و آنها پاره اش می‌کردند.
09:33
they came to us and said,
201
573330
1000
آنها به طرف ما برمی‌گشتند و می‌گفتند،
09:34
"Mr. Experimenter, I solved X problems. Give me X dollars."
202
574330
3000
"آقای آزمایشگر، من X تا مسئله را پاسخ دادم، به من X دلار بده."
09:37
A third of the people, when they finished shredding the piece of paper,
203
577330
3000
دسته سوم، وقتی تکه کاغذ را پاره می‌کردند،
09:40
they came to us and said,
204
580330
2000
به سمت ما می‌آمدند و می‌گفتند،
09:42
"Mr Experimenter, I solved X problems. Give me X tokens."
205
582330
6000
"آقای آزمایشگر، من X تا مسئله را پاسخ دادم، به من X تا ژتون بده."
09:48
We did not pay them with dollars; we paid them with something else.
206
588330
3000
ما به آنها دلار نمی‌دایدم. چیزی دیگر می‌دادیم.
09:51
And then they took the something else, they walked 12 feet to the side,
207
591330
3000
سپس آنها چیز دیگر را می‌گرفتند، ۳/۵ متر آن طرف تر می‌رفتند،
09:54
and exchanged it for dollars.
208
594330
2000
و آن را با دلار تعویض می‌کردند.
09:56
Think about the following intuition.
209
596330
2000
درباره این بینش و فراست فکر کنید.
09:58
How bad would you feel about taking a pencil from work home,
210
598330
3000
چقدر احساس بدی می‌کنید از اینکه یک مداد را از سر کار به خانه بیاورید،
10:01
compared to how bad would you feel
211
601330
2000
در مقایسه با مقدار احساس بدتان
10:03
about taking 10 cents from a petty cash box?
212
603330
2000
وقتی ده سنت را از یک صندوق پول کوچک بردارید؟
10:05
These things feel very differently.
213
605330
3000
حس خیلی متفاوتی از این کارها خواهید داشت.
10:08
Would being a step removed from cash for a few seconds
214
608330
3000
برای چند لحظه به وسیله پرداخت با ژتون
10:11
by being paid by token make a difference?
215
611330
3000
یک قدم از پول دورتر شویم، آیا تفاوتی ایجاد می‌کند؟
10:14
Our subjects doubled their cheating.
216
614330
2000
آزمایش شوندگان ما تقلبشان را دوبرابر کردند.
10:16
I'll tell you what I think
217
616330
2000
یک دقیقه دیگر به شما می‌گویم که من
10:18
about this and the stock market in a minute.
218
618330
2000
در باره این موضوع و بازار سهام چه فکر میکنم.
10:21
But this did not solve the big problem I had with Enron yet,
219
621330
4000
اما این مسأله بزرگ من در مورد شرکت انرون را هنوز پاسخ نداده بود،
10:25
because in Enron, there's also a social element.
220
625330
3000
چرا که در شرکت انرون، یک مؤلفه اجتماعی هم وجود دارد.
10:28
People see each other behaving.
221
628330
1000
مردم به رفتار همدیگر نگاه میکنند.
10:29
In fact, every day when we open the news
222
629330
2000
در واقع، هر روز که اخبار را نگاه می‌کنیم
10:31
we see examples of people cheating.
223
631330
2000
نمونه هایی را از تقلب افراد می‌توانیم ببینیم.
10:33
What does this cause us?
224
633330
3000
این چه معنایی دارد؟
10:36
So, we did another experiment.
225
636330
1000
پس یک آزمایش دیگر انجام دادیم.
10:37
We got a big group of students to be in the experiment,
226
637330
3000
ما تعدادی زیادی از دانشجویان را آوردیم که در آزمایش شرکت کنند،
10:40
and we prepaid them.
227
640330
1000
و پیش از آزمایش به آنها پول دایدم.
10:41
So everybody got an envelope with all the money for the experiment,
228
641330
3000
در نتیجه هر کس یک پاکت داشت با تمام پولها برای آزمایش،
10:44
and we told them that at the end, we asked them
229
644330
2000
و به آنها گفتیم که در پایان، از آنها خواهیم خواست
10:46
to pay us back the money they didn't make. OK?
230
646330
4000
که مقدار پولی را که به دست نیاورده اند به ما پس بدهند. خوب؟
10:50
The same thing happens.
231
650330
1000
و همان اتفاق دوباره تکرار می‌‍شود.
10:51
When we give people the opportunity to cheat, they cheat.
232
651330
2000
وقتی به افراد این امکان را می‌دهیم که تقلب کنند، می‌کنند.
10:53
They cheat just by a little bit, all the same.
233
653330
3000
آنها یک مقدار کم تقلب می‌کنند، مثل قبل.
10:56
But in this experiment we also hired an acting student.
234
656330
3000
ولی در این آزمایش ما یک دانشجوی بازیگر را هم به کار گرفتیم.
10:59
This acting student stood up after 30 seconds, and said,
235
659330
4000
این دانشجو بعد از ۳۰ ثانیه بلند می‌شد و می‌گفت،
11:03
"I solved everything. What do I do now?"
236
663330
3000
"من همه پرسش‌ها را پاسخ دادم. حالا چه‌کار کنم؟"
11:06
And the experimenter said, "If you've finished everything, go home.
237
666330
4000
و آزمایشگر ‌می‌گفت، "اگر همه کارها را تمام کرده‌ای، می‌توانی خانه بروی.
11:10
That's it. The task is finished."
238
670330
1000
همین. کار تمام شد."
11:11
So, now we had a student -- an acting student --
239
671330
4000
پس حالا یک دانشجو داشتیم -- یک دانشجوی بازیگر
11:15
that was a part of the group.
240
675330
2000
که یکی از گروه بود.
11:17
Nobody knew it was an actor.
241
677330
2000
هیچ کس نمی‌دانست که او بازی می‌کند.
11:19
And they clearly cheated in a very, very serious way.
242
679330
4000
که این فرد به طور خیلی خیلی جدی تقلب می‌کرد.
11:23
What would happen to the other people in the group?
243
683330
3000
چه اتفاقی برای سایر افراد توی گروه می‌افتد؟
11:26
Will they cheat more, or will they cheat less?
244
686330
3000
آیا آنها بیشتر تقلب میکنند، یا کمتر؟
11:29
Here is what happens.
245
689330
2000
این اتفاق می‌افتاد
11:31
It turns out it depends on what kind of sweatshirt they're wearing.
246
691330
4000
معلوم شد که بستگی به این دارد که چه گرمکنی پوشیده باشند.
11:35
Here is the thing.
247
695330
2000
اینطور بود.
11:37
We ran this at Carnegie Mellon and Pittsburgh.
248
697330
3000
ما این کار را در دانشگاه کارنگی ملون و پیتسبورگ کردیم.
11:40
And at Pittsburgh there are two big universities,
249
700330
2000
در پیتسبورگ دو دانشگاه بزرگ هست،
11:42
Carnegie Mellon and University of Pittsburgh.
250
702330
3000
کارنگی ملون و دانشگاه پیتسبورگ.
11:45
All of the subjects sitting in the experiment
251
705330
2000
تمام افراد در این آزمایش
11:47
were Carnegie Mellon students.
252
707330
2000
دانشجوی کارنگی ملون بودند.
11:49
When the actor who was getting up was a Carnegie Mellon student --
253
709330
4000
زمانی که دانشجوی بازیگری که زود برمی‌خواست یک دانشجوی کارنگی ملون بود --
11:53
he was actually a Carnegie Mellon student --
254
713330
2000
او در واقع دانشجوی کارنگی ملون بود --
11:55
but he was a part of their group, cheating went up.
255
715330
4000
وقتی او یکی از اعضای آن گروه بود، تقلب زیاد می‌شد.
11:59
But when he actually had a University of Pittsburgh sweatshirt,
256
719330
4000
اما وقتی گرم کن مربوط به دانشگاه پیتسبورگ را به تن داشت،
12:03
cheating went down.
257
723330
2000
تقلب کم می‌شد.
12:05
(Laughter)
258
725330
3000
(خنده)
12:08
Now, this is important, because remember,
259
728330
3000
حالا، این مهم است، چرا که به یاد بیاورید،
12:11
when the moment the student stood up,
260
731330
2000
لحظه ای که دانشجو برمی‌خواست،
12:13
it made it clear to everybody that they could get away with cheating,
261
733330
3000
این را به همه نشان می‌داد که می‌توانند با تقلب آنجا را ترک کنند،
12:16
because the experimenter said,
262
736330
2000
چون آزمایشگر می‌گفت،
12:18
"You've finished everything. Go home," and they went with the money.
263
738330
2000
"تو همه کارها را تمام کرده‌ای. برو خانه،" و او با پول می‌رفت.
12:20
So it wasn't so much about the probability of being caught again.
264
740330
3000
پس این خیلی ربطی به احتمال گیر افتادن نداشت.
12:23
It was about the norms for cheating.
265
743330
3000
این مربوط به هنجارهای تقلب بود.
12:26
If somebody from our in-group cheats and we see them cheating,
266
746330
3000
وقتی کسی از درون گروه تقلب می‌کند و ما او را در هنگام تقلب می‌بینیم،
12:29
we feel it's more appropriate, as a group, to behave this way.
267
749330
4000
ما احساس می‌کنیم که به عنوان یک گروه، مناسب‌تر هست که اینطوررفتار کنیم.
12:33
But if it's somebody from another group, these terrible people --
268
753330
2000
اما اگر کسی از گروه دیگری، از این افراد وحشتناک
12:35
I mean, not terrible in this --
269
755330
2000
منظورم این است که، نه وحشتناک --
12:37
but somebody we don't want to associate ourselves with,
270
757330
2000
ولی کسی که ما نمی‌خواهیم که خودمان را به اون مربوط بدانیم
12:39
from another university, another group,
271
759330
2000
از دانشگاه دیگر، یا گروه دیگر،
12:41
all of a sudden people's awareness of honesty goes up --
272
761330
3000
به صورت ناگهانی هشیاری ما در مورد درستکاری افراد بالا می‌رود
12:44
a little bit like The Ten Commandments experiment --
273
764330
2000
تا حدی شبیه آزمایش ده فرمان است--
12:46
and people cheat even less.
274
766330
4000
و افراد کمتر تقلب می‌کنند.
12:50
So, what have we learned from this about cheating?
275
770330
4000
بنابراین، ما چه چیزی را از این مثال در مورت تقلب یاد گرفته‌ایم؟
12:54
We've learned that a lot of people can cheat.
276
774330
3000
یاد گرفته‌ایم که بسیاری از افراد تقلب می‌کنند.
12:57
They cheat just by a little bit.
277
777330
3000
آنها یک ذره ذره تقلب می‌کنند.
13:00
When we remind people about their morality, they cheat less.
278
780330
4000
وقتی ما به افراد در مورد اخلاق یادآوری می‌کنیم، آنها کمتر تقلب می‌کنند.
13:04
When we get bigger distance from cheating,
279
784330
3000
وقتی از تقلب بیشتر فاصله می‌گیریم،
13:07
from the object of money, for example, people cheat more.
280
787330
4000
مثلاً از هدف اصلی که پول است، افراد بیشتر تقلب می‌کنند.
13:11
And when we see cheating around us,
281
791330
2000
و وقتی تقلب در اطراف خود می‌بینیم،
13:13
particularly if it's a part of our in-group, cheating goes up.
282
793330
4000
اگر از طرف فردی از درون گروه باشد، تقلب بالا می‌رود.
13:17
Now, if we think about this in terms of the stock market,
283
797330
3000
حالا، اگر از این دید به بازار سهام فکر کنیم،
13:20
think about what happens.
284
800330
1000
فکر کنید که چه اتفاقی می‌افتد.
13:21
What happens in a situation when you create something
285
801330
3000
در شرایطی که شما چیزی می‌سازید چه اتفاقی می‌افتد
13:24
where you pay people a lot of money
286
804330
2000
وقتی که شما به افراد پول زیادی می‌دهید
13:26
to see reality in a slightly distorted way?
287
806330
3000
تا واقعیت را به شکل تحریف شده‌ای ببینند؟
13:29
Would they not be able to see it this way?
288
809330
3000
آیا قادر نخواهند بود که اینطور ببینند؟
13:32
Of course they would.
289
812330
1000
قطعاً می‌توانند.
13:33
What happens when you do other things,
290
813330
1000
چه اتفاقی می‌افتد اگر شما کارهای دیگری بکنید،
13:34
like you remove things from money?
291
814330
2000
مثل اینکه چیزها را از پول دور کنی؟
13:36
You call them stock, or stock options, derivatives,
292
816330
3000
به آنها می‌گوییم سهام، اختیار معامله، ابزار مشتقه( مالی)
13:39
mortgage-backed securities.
293
819330
1000
ضمانت نامه‌ها.
13:40
Could it be that with those more distant things,
294
820330
3000
آیا می‌تواند این طور باشد که آن گزینه‌های دورتر،
13:43
it's not a token for one second,
295
823330
2000
این دیگر یک ژتون برای یک لحظه نیست،
13:45
it's something that is many steps removed from money
296
825330
2000
بلکه چیزی است که چندین گام از پول دور شده
13:47
for a much longer time -- could it be that people will cheat even more?
297
827330
4000
برای زمانی بسیار طولانی تر -- آیا این یعنی که افراد حتی بیشتر تقلب خواهند کرد؟
13:51
And what happens to the social environment
298
831330
2000
در مورد محیط اجتماعی چطور؟
13:53
when people see other people behave around them?
299
833330
3000
وقتی که افراد بقیه را می‌بینند که در اطراف آنها رفتار می‌کنند؟
13:56
I think all of those forces worked in a very bad way
300
836330
4000
من فکر می‌کنم که تمامی این نیروها در یک مسیر خیلی بد عمل می‌کنند
14:00
in the stock market.
301
840330
2000
در بازار سهام.
14:02
More generally, I want to tell you something
302
842330
3000
به صورت کلی تر، می‌خواهم به شما چیزی بگویم
14:05
about behavioral economics.
303
845330
3000
در مورد اقتصاد رفتاری.
14:08
We have many intuitions in our life,
304
848330
4000
ما خیلی بینش و فراست‌های مختلفی در زندگی داریم،
14:12
and the point is that many of these intuitions are wrong.
305
852330
3000
و نکته این است که بسیاری از این بینش‌ها غلط هستند.
14:15
The question is, are we going to test those intuitions?
306
855330
3000
پرسش آن است که، آیا ما این بینش‌ها را امتحان می‌کنیم؟
14:18
We can think about how we're going to test this intuition
307
858330
2000
می‌توانیم در این مورد فکر کنیم که چطور می‌شود یک بینش را
14:20
in our private life, in our business life,
308
860330
2000
در زندگی شخصی، یا زندگی کاری،
14:22
and most particularly when it goes to policy,
309
862330
3000
و به خصوص وقتی که مسئله سیاست در میان است را امتحان کرد
14:25
when we think about things like No Child Left Behind,
310
865330
3000
وقتی درباره چیزهای مثل قانون جامع ایالتی تحصیلات در ایالات متحده فکر می‌کنیم
14:28
when you create new stock markets, when you create other policies --
311
868330
3000
وقتی بازارهای سهام جدیدی را می‌سازید، وقتی سیاستهای دیگری را وضع می‌کنید
14:31
taxation, health care and so on.
312
871330
3000
مالیات، خدمات درمانی، و غیره.
14:34
And the difficulty of testing our intuition
313
874330
2000
و دشواری امتحان کردن بینش و فراست‌مان
14:36
was the big lesson I learned
314
876330
2000
درس بزرگی بود که من آن را فرا گرفتم.
14:38
when I went back to the nurses to talk to them.
315
878330
2000
وقتی من نزد پرستاران رفتم تا با آنها حرف بزنم
14:40
So I went back to talk to them
316
880330
2000
وقتی پیش آنها برگشتم
14:42
and tell them what I found out about removing bandages.
317
882330
3000
و به آنها گفتم که من در مورد نوار زخم چه چیزی فهمیده ام .
14:45
And I learned two interesting things.
318
885330
2000
من دو چیز جالب را فهمیدم.
14:47
One was that my favorite nurse, Ettie,
319
887330
2000
اول اینکه پرستار مورد علاقه من، اتی،
14:49
told me that I did not take her pain into consideration.
320
889330
4000
به من گفت که من درد او را مد نظر قرار نداده ام.
14:53
She said, "Of course, you know, it was very painful for you.
321
893330
2000
او گفت، "مسلم است، می‌دانی، این برای تو خیلی دردناک بود.
14:55
But think about me as a nurse,
322
895330
2000
ولی در مورد من به عنوان یک پرستار فکر کن،
14:57
taking, removing the bandages of somebody I liked,
323
897330
2000
گرفتن و کندن پانسمان از کسی که به او علاقه داشتم،
14:59
and had to do it repeatedly over a long period of time.
324
899330
3000
و مجبور بودم که برای مدتی طولانی و به مراتب آن کار را انجام دهم.
15:02
Creating so much torture was not something that was good for me, too."
325
902330
3000
این همه شکنجه چیزی نبود که برای من خوشایند باشد."
15:05
And she said maybe part of the reason was it was difficult for her.
326
905330
5000
و گفت که شاید یک بخش دلیل این بوده که برایش سخت بوده.
15:10
But it was actually more interesting than that, because she said,
327
910330
3000
ولی موضوع در واقع از این هم جالب تر بود، چرا که گفت،
15:13
"I did not think that your intuition was right.
328
913330
5000
"من فکر نمی‌کردم که بینش و فراست تو درست باشد.
15:18
I felt my intuition was correct."
329
918330
1000
من فکر می‌کردم بینش من درست است."
15:19
So, if you think about all of your intuitions,
330
919330
2000
پس، اگر به بینش ودرک خودتان فکر کنید،
15:21
it's very hard to believe that your intuition is wrong.
331
921330
4000
خیلی مشکل است که باور کنید که درک شما غلط است.
15:25
And she said, "Given the fact that I thought my intuition was right ..." --
332
925330
3000
و او گفت که "حقیقتا فکر می‌کردم بینش من درست است ..." --
15:28
she thought her intuition was right --
333
928330
2000
فکر می‌کرد بینش او درست است --
15:30
it was very difficult for her to accept doing a difficult experiment
334
930330
5000
این برای او خیلی مشکل بود که قبول کند که یک آزمایش دشوار را انجام دهد
15:35
to try and check whether she was wrong.
335
935330
2000
تا بیازماید که آیا درست می‌گوید و یا نه.
15:37
But in fact, this is the situation we're all in all the time.
336
937330
4000
اما در واقع، این موقعیتی است که همه ما، همیشه درونش هستیم
15:41
We have very strong intuitions about all kinds of things --
337
941330
3000
ما تقریبا درباره همه چیز شواهد و بینش های بسیار قوی داریم --
15:44
our own ability, how the economy works,
338
944330
3000
در باره توانایی‌هایمان، چطور اقتصاد کار می‌کند،
15:47
how we should pay school teachers.
339
947330
2000
چطوری باید به معلمان مدارس حقوق بپردازیم.
15:49
But unless we start testing those intuitions,
340
949330
3000
اما تا زمانی که این شواهد و بینش‌ها را امتحان نکنیم،
15:52
we're not going to do better.
341
952330
2000
ما کار بهتری را انجام ندادیم.
15:54
And just think about how better my life would have been
342
954330
2000
و فکر کنید که زندگی من چقدر بهتر میبود
15:56
if these nurses would have been willing to check their intuition,
343
956330
2000
اگر این پرستاران تمایل داشتند تا بینش و فراست خودشان را امتحان کنند،
15:58
and how everything would have been better
344
958330
1000
و همه چیز چقدر می‌توانست بهتر باشد،
15:59
if we just start doing more systematic experimentation of our intuitions.
345
959330
5000
اگر ما شروع می کردیم کنیم به آزمودن اصولی بینش‌مان
16:04
Thank you very much.
346
964330
2000
خیلی از شما ممنونم.
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7