Why we think it's OK to cheat and steal (sometimes) | Dan Ariely

775,712 views ・ 2009-03-18

TED


โปรดดับเบิลคลิกที่คำบรรยายภาษาอังกฤษด้านล่างเพื่อเล่นวิดีโอ

Translator: Thanee Chaiwat Reviewer: Thipnapa Huansuriya
00:19
I want to talk to you today a little bit
0
19330
2000
วันนี้ ผมอยากจะพูดถึง
00:21
about predictable irrationality.
1
21330
3000
ความไร้เหตุผลที่คาดการณ์ได้
00:24
And my interest in irrational behavior
2
24330
4000
ความสนใจที่ผมมีต่อความไร้เหตุผลเหล่านี้
00:28
started many years ago in the hospital.
3
28330
3000
เริ่มต้นเมื่อหลายปีก่อนในโรงพยาบาล
00:31
I was burned very badly.
4
31330
4000
ผมถูกไฟครอกอย่างรุนแรง
00:35
And if you spend a lot of time in hospital,
5
35330
3000
และถ้าคุณต้องอยู่โรงพยาบาลนานๆ
00:38
you'll see a lot of types of irrationalities.
6
38330
3000
คุณจะเห็นความไร้เหตุผลมากมายหลายอย่าง
00:41
And the one that particularly bothered me in the burn department
7
41330
5000
และสิ่งหนึ่งซึ่งเกิดขึ้นในแผนกแผลไฟไหม้
00:46
was the process by which the nurses took the bandage off me.
8
46330
4000
ก็คือวิธีที่พยาบาลดึงผ้าพันแผลออกจากตัวผม
00:51
Now, you must have all taken a Band-Aid off at some point,
9
51330
2000
ถ้าวันนึงคุณต้องให้ใครดึงผ้าพันแผลออกจากตัวคุณ
00:53
and you must have wondered what's the right approach.
10
53330
3000
คุณคงสงสัยว่า วิธีไหนคือวิธีที่ถูกต้อง
00:56
Do you rip it off quickly -- short duration but high intensity --
11
56330
4000
ดึงออกเร็วๆ -- ช่วงเวลาสั้นๆ แต่ความเจ็บปวดรุนแรง --
01:00
or do you take your Band-Aid off slowly --
12
60330
2000
หรือดึงผ้าพันแผลออกช้าๆ
01:02
you take a long time, but each second is not as painful --
13
62330
4000
คุณจะเจ็บนาน แต่ไม่รุนแรง
01:06
which one of those is the right approach?
14
66330
3000
แล้ววิธีไหนคือวิธีที่ถูกต้องล่ะ?
01:09
The nurses in my department thought that the right approach
15
69330
4000
พยาบาลในแผนกคิดว่าวิธีที่ถูกต้อง
01:13
was the ripping one, so they would grab hold and they would rip,
16
73330
3000
คือแบบแรก ดังนั้น เขาจึงใช้วิธีจับแน่นๆ แล้วดึง
01:16
and they would grab hold and they would rip.
17
76330
2000
แล้วเขาก็จับแน่นๆ แล้วก็ดึงอีก
01:18
And because I had 70 percent of my body burned, it would take about an hour.
18
78330
4000
และเพราะว่ากว่าร้อยละ 70 ของร่างกายผมถูกไฟครอก มันจึงใช้เวลากว่าชั่วโมง
01:22
And as you can imagine,
19
82330
3000
คุณคงนึกภาพออก
01:25
I hated that moment of ripping with incredible intensity.
20
85330
4000
ผมเกลียดช่วงเวลาที่เต็มไปด้วยความเจ็บปวดแสนสาหัสแบบนี้
01:29
And I would try to reason with them and say,
21
89330
2000
ผมจึงพยายามใช้เหตุผลบอกพยาบาลว่า
01:31
"Why don't we try something else?
22
91330
1000
"ทำไมเราไม่ลองวิธีอื่นบ้างครับ?
01:32
Why don't we take it a little longer --
23
92330
2000
ทำไมไม่ลองดึงช้าๆ --
01:34
maybe two hours instead of an hour -- and have less of this intensity?"
24
94330
5000
อาจจะใช้เวลาสองชั่วโมงแทนที่จะเป็นชั่วโมงเดียว -- ความเจ็บจะได้ลดลง?
01:39
And the nurses told me two things.
25
99330
2000
คุณพยาบาลบอกผมสองอย่าง
01:41
They told me that they had the right model of the patient --
26
101330
4000
พวกเขาบอกผมว่า พวกเขารู้วิธีการปฏิบัติต่อคนไข้ที่ถูกต้อง --
01:45
that they knew what was the right thing to do to minimize my pain --
27
105330
3000
ว่านี่คือวิธีที่จะทำให้เจ็บน้อยที่สุด --
01:48
and they also told me that the word patient doesn't mean
28
108330
3000
และยังบอกอีกว่า คำว่า patient (คนไข้ / ความอดทน) ไม่ได้แปลว่า
01:51
to make suggestions or to interfere or ...
29
111330
2000
ให้คำแนะนำหรือก้าวก่าย...
01:53
This is not just in Hebrew, by the way.
30
113330
3000
อ้อ นี่ไม่ใช่ในภาษาฮีบรูเท่านั้นนะ
01:56
It's in every language I've had experience with so far.
31
116330
3000
มันมีความหมายอย่างนี้ในทุกๆ ภาษา
01:59
And, you know, there's not much -- there wasn't much I could do,
32
119330
4000
ดังนั้น คุณคงรู้ว่า ผมทำอะไรมากไม่ได้
02:03
and they kept on doing what they were doing.
33
123330
3000
และพวกพยาบาลก็ทำแบบเดิมที่เคยทำต่อไป
02:06
And about three years later, when I left the hospital,
34
126330
2000
สามปีต่อมา เมื่อผมออกจากโรงพยาบาล
02:08
I started studying at the university.
35
128330
3000
ผมเข้าเรียนในมหาวิทยาลัย
02:11
And one of the most interesting lessons I learned
36
131330
3000
และหนึ่งในบทเรียนที่น่าสนใจที่สุดเท่าที่ผมเคยเรียนมา
02:14
was that there is an experimental method
37
134330
2000
ก็คือวิธีวิจัยแบบทดลอง
02:16
that if you have a question you can create a replica of this question
38
136330
4000
ซึ่งถ้าคุณมีคำถาม คุณสามารถสร้างแบบจำลองของคำถามเหล่านี้
02:20
in some abstract way, and you can try to examine this question,
39
140330
4000
ในรูปแบบที่เป็นนามธรรมบางอย่าง จากนั้นก็ศึกษาหาคำตอบต่อคำถามนั้น
02:24
maybe learn something about the world.
40
144330
2000
และเราก็จะได้เรียนรู้บางอย่างเกี่ยวกับโลก
02:26
So that's what I did.
41
146330
2000
นั่นล่ะครับคือสิ่งที่ผมทำ
02:28
I was still interested
42
148330
1000
ผมยังคงสนใจ
02:29
in this question of how do you take bandages off burn patients.
43
149330
2000
ในคำถามเกี่ยวกับการดึงผ้าพันแผลออกจากตัวคนไข้
02:31
So originally I didn't have much money,
44
151330
3000
ในช่วงเริ่มต้น ผมไม่ได้มีเงินมากนัก
02:34
so I went to a hardware store and I bought a carpenter's vice.
45
154330
4000
ผมเลยไปที่ร้านขายอุปกรณ์ก่อสร้าง และซื้อคีมของช่างไม้มา
02:38
And I would bring people to the lab and I would put their finger in it,
46
158330
4000
จากนั้น ผมก็พาคนมาที่แล็บ และเอาคีมหนีบนิ้วของพวกเขา
02:42
and I would crunch it a little bit.
47
162330
2000
ขบนิ้วพวกเขาจนเจ็บ
02:44
(Laughter)
48
164330
2000
(เสียงหัวเราะ)
02:46
And I would crunch it for long periods and short periods,
49
166330
3000
ผมบีบนิ้วผู้ร่วมการทดลองนานบ้าง สั้นบ้าง
02:49
and pain that went up and pain that went down,
50
169330
2000
ลองบีบให้เจ็บน้อยแล้วค่อยเพิ่มขึ้น แบบที่เจ็บมากก่อนแล้วน้อยลง
02:51
and with breaks and without breaks -- all kinds of versions of pain.
51
171330
4000
ทั้งมีหยุดพักและไม่หยุด -- มีทุกรูปแบบของความเจ็บ
02:55
And when I finished hurting people a little bit, I would ask them,
52
175330
2000
พอทำให้เขาเจ็บตัวกันแล้ว ผมก็จะถามพวกเขาว่า
02:57
so, how painful was this? Or, how painful was this?
53
177330
2000
เจ็บไหม เจ็บยังไง
02:59
Or, if you had to choose between the last two,
54
179330
2000
หรือถ้าให้เลือกระหว่างความเจ็บสองอย่างหลังสุด
03:01
which one would you choose?
55
181330
2000
คุณจะเลือกแบบไหน?
03:03
(Laughter)
56
183330
3000
(เสียงหัวเราะ)
03:06
I kept on doing this for a while.
57
186330
3000
ผมทำแบบนี้อยู่พักหนึ่ง
03:09
(Laughter)
58
189330
2000
(เสียงหัวเราะ)
03:11
And then, like all good academic projects, I got more funding.
59
191330
4000
แล้วจากนั้น, ก็เหมือนกับโครงการวิชาการดีๆ ทั่วไป, ผมได้เงินสนับสนุนมากขึ้น
03:15
I moved to sounds, electrical shocks --
60
195330
2000
ผมเลยเปลี่ยนไปใช้เสียง เครื่องช็อคไฟฟ้า --
03:17
I even had a pain suit that I could get people to feel much more pain.
61
197330
5000
ผมทำชุดสร้างความเจ็บปวดที่สามารถสร้างความเจ็บปวดให้คนที่สวมใส่ได้มากขึ้นไปอีก
03:22
But at the end of this process,
62
202330
4000
หลังจากทำการทดลองพวกนี้เสร็จ
03:26
what I learned was that the nurses were wrong.
63
206330
3000
สิ่งที่ผมเรียนรู้คือ พวกพยาบาลคิดผิด
03:29
Here were wonderful people with good intentions
64
209330
3000
นี่คือคนที่น่ายกย่องด้วยความตั้งใจที่ดี
03:32
and plenty of experience, and nevertheless
65
212330
2000
และมีประสบการณ์หลากหลาย แต่กระนั้น
03:34
they were getting things wrong predictably all the time.
66
214330
4000
พวกเขาเข้าใจผิดอยู่ตลอดเวลา
03:38
It turns out that because we don't encode duration
67
218330
3000
เพราะเราไม่ได้รับรู้ระยะเวลา
03:41
in the way that we encode intensity,
68
221330
2000
แบบเดียวกับที่เรารับรู้ความรุนแรงของความเจ็บปวด
03:43
I would have had less pain if the duration would have been longer
69
223330
4000
ผมจะเจ็บน้อยลง ถ้าช่วงเวลามันนานขึ้น
03:47
and the intensity was lower.
70
227330
2000
และความเจ็บมันรุนแรงน้อยกว่า
03:49
It turns out it would have been better to start with my face,
71
229330
3000
เขาควรจะเริ่มดึงผ้าพันแผลที่หน้าของผมก่อน
03:52
which was much more painful, and move toward my legs,
72
232330
2000
ซึ่งเป็นที่ที่เจ็บมากที่สุด แล้วค่อยไปแกะที่ขา
03:54
giving me a trend of improvement over time --
73
234330
3000
ทำให้ผมรู้สึกว่ามันมีแนวโน้มดีขึ้นเรื่อยๆ
03:57
that would have been also less painful.
74
237330
1000
ซึ่งมันจะทำให้ผมรู้สึกเจ็บน้อยลงด้วย
03:58
And it also turns out that it would have been good
75
238330
2000
และมันก็จะดีกว่าด้วย
04:00
to give me breaks in the middle to kind of recuperate from the pain.
76
240330
2000
ถ้ามีช่วงพักในช่วงกลางๆ ให้หายเจ็บสักหน่อย
04:02
All of these would have been great things to do,
77
242330
2000
ทั้งหมดนี้เป็นเรื่องที่ควรทำ
04:04
and my nurses had no idea.
78
244330
3000
แต่พยาบาลไม่เคยคิดจะทำ
04:07
And from that point on I started thinking,
79
247330
1000
จากจุดนี้ ผมเริ่มคิดว่า
04:08
are the nurses the only people in the world who get things wrong
80
248330
3000
พยาบาลเป็นคนกลุ่มเดียวในโลกหรือเปล่า
04:11
in this particular decision, or is it a more general case?
81
251330
3000
ที่ตัดสินใจอะไรผิดพลาด หรือมันเกิดกับคนทั่วไป?
04:14
And it turns out it's a more general case --
82
254330
2000
ที่จริงแล้ว มันเกิดขึ้นกับคนทั่วไปครับ
04:16
there's a lot of mistakes we do.
83
256330
3000
คนเราตัดสินใจผิดพลาดมากมาย
04:19
And I want to give you one example of one of these irrationalities,
84
259330
5000
ผมอยากจะยกตัวอย่างหนึ่งของความไร้เหตุผลพวกนี้
04:24
and I want to talk to you about cheating.
85
264330
3000
นั่นก็คือ การทุจริต
04:27
And the reason I picked cheating is because it's interesting,
86
267330
2000
เหตุผลที่ผมยกเอาเรื่องการทุจริตมาพูดก็เพราะมันน่าสนใจ
04:29
but also it tells us something, I think,
87
269330
2000
แต่ผมว่ามันบอกอะไรเราบางอย่าง
04:31
about the stock market situation we're in.
88
271330
3000
เกี่ยวกับสถานการณ์ตลาดหลักทรัพย์ในปัจจุบัน
04:34
So, my interest in cheating started
89
274330
3000
ความสนใจเรื่องการทุจริตของผมเริ่มมาจาก
04:37
when Enron came on the scene, exploded all of a sudden,
90
277330
2000
กรณีของเอนรอนที่เป็นข่าวอื้อฉาวอย่างรวดเร็ว
04:39
and I started thinking about what is happening here.
91
279330
3000
ผมเริ่มคิดว่า มันเกิดอะไรขึ้น
04:42
Is it the case that there was kind of
92
282330
1000
นี่มันเป็นเพียงแค่
04:43
a few apples who are capable of doing these things,
93
283330
3000
ปลาเน่าตัวเดียว ที่ทำอะไรแย่ๆ แบบนี้
04:46
or are we talking a more endemic situation,
94
286330
2000
หรือจริงๆ มันเป็นโรคระบาด
04:48
that many people are actually capable of behaving this way?
95
288330
4000
คนมากมายก็ทำแบบเดียวกันนี้
04:52
So, like we usually do, I decided to do a simple experiment.
96
292330
4000
ผมก็เลยออกแบบการทดลองง่ายๆ
04:56
And here's how it went.
97
296330
1000
ผมทำอย่างนี้ครับ
04:57
If you were in the experiment, I would pass you a sheet of paper
98
297330
3000
ถ้าคุณเข้าร่วมการทดลอง ผมจะให้กระดาษคุณหนึ่งแผ่น
05:00
with 20 simple math problems that everybody could solve,
99
300330
4000
กับโจทย์เลขง่ายๆ 20 ข้อที่คุณแก้ได้แน่นอน
05:04
but I wouldn't give you enough time.
100
304330
2000
แต่ผมจะให้เวลาคุณสั้นๆ แบบทำไม่ทัน
05:06
When the five minutes were over, I would say,
101
306330
2000
เมื่อห้านาทีหมดลง ผมจะบอกว่า
05:08
"Pass me the sheets of paper, and I'll pay you a dollar per question."
102
308330
3000
"คืนกระดาษให้ผม แล้วผมจะจ่ายคุณข้อละหนึ่งดอลลาร์"
05:11
People did this. I would pay people four dollars for their task --
103
311330
4000
ทุกคนทำตามนี้ แล้วผมก็จ่ายให้พวกเขาประมาณสี่ดอลลาร์เป็นการตอบแทน
05:15
on average people would solve four problems.
104
315330
2000
เฉลี่ยก็คือพวกเขาทำได้สี่ข้อ
05:17
Other people I would tempt to cheat.
105
317330
3000
กับคนอีกกลุ่มหนึ่ง ผมเปิดโอกาสให้เขาโกง
05:20
I would pass their sheet of paper.
106
320330
1000
ผมส่งกระดาษให้ผู้ร่วมการทดลองคนละแผ่น
05:21
When the five minutes were over, I would say,
107
321330
2000
เมื่อครบห้านาที ผมจะบอกว่า
05:23
"Please shred the piece of paper.
108
323330
1000
"ฉีกกระดาษแผ่นนั้น
05:24
Put the little pieces in your pocket or in your backpack,
109
324330
3000
แล้วเก็บมันใส่ในกระเป๋าหรือเป้ของคุณ
05:27
and tell me how many questions you got correctly."
110
327330
3000
จากนั้นมาบอกผมว่าคุณทำถูกกี่ข้อ"
05:30
People now solved seven questions on average.
111
330330
3000
คราวนี้พวกเขาทำถูกเฉลี่ยเจ็ดข้อแฮะ
05:33
Now, it wasn't as if there was a few bad apples --
112
333330
5000
นี่แสดงว่ามันไม่ใช่แค่ปลาเน่าไม่กี่ตัว --
05:38
a few people cheated a lot.
113
338330
3000
หรือคนแค่ไม่กี่คนโกงมากๆ
05:41
Instead, what we saw is a lot of people who cheat a little bit.
114
341330
3000
ในทางกลับกัน มีคนจำนวนมากที่โกงเล็กๆ น้อยๆ ด้วย
05:44
Now, in economic theory,
115
344330
3000
ในทางเศรษฐศาสตร์แล้ว
05:47
cheating is a very simple cost-benefit analysis.
116
347330
3000
การโกงคือการวิเคราะห์ต้นทุนและผลตอบแทนแบบง่ายๆ
05:50
You say, what's the probability of being caught?
117
350330
2000
เราจะคิดว่า โอกาสที่จะถูกจับได้มีมากแค่ไหน?
05:52
How much do I stand to gain from cheating?
118
352330
3000
จะได้ผลตอบแทนเท่าไหร่จากการโกง?
05:55
And how much punishment would I get if I get caught?
119
355330
2000
และถ้าโดนจับได้จะถูกลงโทษอย่างไร?
05:57
And you weigh these options out --
120
357330
2000
จากนั้นก็ชั่งน้ำหนักเอา
05:59
you do the simple cost-benefit analysis,
121
359330
2000
คุณแค่วิเคราะห์ต้นทุนและผลตอบแทนแบบง่ายๆ
06:01
and you decide whether it's worthwhile to commit the crime or not.
122
361330
3000
คุณก็ตัดสินใจได้แล้วว่าคุณจะก่ออาชญากรรมหรือไม่
06:04
So, we try to test this.
123
364330
2000
ดังนั้น เราพยายามที่จะทดสอบสิ่งเหล่านี้
06:06
For some people, we varied how much money they could get away with --
124
366330
4000
กับผู้ร่วมการทดลองบางกลุ่ม เราเพิ่มลดจำนวนเงินที่เขามีโอกาสโกงได้
06:10
how much money they could steal.
125
370330
1000
เพื่อดูว่าเขาจะโกงมากน้อยสักแค่ไหน
06:11
We paid them 10 cents per correct question, 50 cents,
126
371330
3000
เราจ่ายตั้งแต่ 10 เซนต์ต่อข้อ, 50 เซนต์,
06:14
a dollar, five dollars, 10 dollars per correct question.
127
374330
3000
1 ดอลลาร์, 5 ดอลลาร์, 10 ดอลลาร์ต่อข้อที่ทำถูก
06:17
You would expect that as the amount of money on the table increases,
128
377330
4000
คุณอาจคิดว่า เมื่อจำนวนเงินมากขึ้น
06:21
people would cheat more, but in fact it wasn't the case.
129
381330
3000
คนก็น่าจะโกงมากขึ้น แต่ความจริงแล้วไม่ใช่แบบนั้นเสมอไป
06:24
We got a lot of people cheating by stealing by a little bit.
130
384330
3000
มีคนจำนวนมากที่โกงเฉพาะตอนที่เงินน้อยๆ
06:27
What about the probability of being caught?
131
387330
3000
แล้วเรื่องโอกาสที่จะโดนจับได้ล่ะ?
06:30
Some people shredded half the sheet of paper,
132
390330
2000
ในบางกลุ่มเราให้ฉีกกระดาษแค่ครึ่งเดียว
06:32
so there was some evidence left.
133
392330
1000
แปลว่ายังมีโอกาสโดนจับได้
06:33
Some people shredded the whole sheet of paper.
134
393330
2000
บางกลุ่มเราให้ฉีกทั้งแผ่น
06:35
Some people shredded everything, went out of the room,
135
395330
3000
บางคนฉีกทุกอย่าง เดินออกจากห้อง
06:38
and paid themselves from the bowl of money that had over 100 dollars.
136
398330
3000
แล้วไปหยิบเงินเอาเองจากกล่องที่มีเงินอยู่มากกว่า 100 ดอลลาร์
06:41
You would expect that as the probability of being caught goes down,
137
401330
3000
คุณคงคิดว่า เมื่อโอกาสที่จะถูกจับได้ลดลง
06:44
people would cheat more, but again, this was not the case.
138
404330
3000
พวกเขาจะโกงมากขึ้น แต่ก็อีกนั่นแหล่ะ มันไม่ได้เป็นแบบนั้น
06:47
Again, a lot of people cheated by just by a little bit,
139
407330
3000
คนจำนวนมากโกงแค่เล็กน้อย
06:50
and they were insensitive to these economic incentives.
140
410330
3000
ไม่ได้แปรผันไปตามสิ่งจูงใจทางเศรษฐศาสตร์
06:53
So we said, "If people are not sensitive
141
413330
1000
เราเลยมาคิดว่า "ถ้าคนไม่ตอบสนองต่อสิ่งจูงใจ
06:54
to the economic rational theory explanations, to these forces,
142
414330
5000
ตามที่หลักเหตุและผลทางเศรษฐศาสตร์ว่าไว้
06:59
what could be going on?"
143
419330
3000
งั้นมันเกิดอะไรขึ้นล่ะ?"
07:02
And we thought maybe what is happening is that there are two forces.
144
422330
3000
เราคิดว่ามันน่าจะมีแรงผลักดันสองอย่าง
07:05
At one hand, we all want to look at ourselves in the mirror
145
425330
2000
อย่างแรกคือ เราอยากจะกลับบ้านส่องกระจก
07:07
and feel good about ourselves, so we don't want to cheat.
146
427330
3000
แล้วยังรู้สึกดีกับตัวเองได้อยู่ ดังนั้น เราจึงไม่โกง
07:10
On the other hand, we can cheat a little bit,
147
430330
2000
ซึ่งถ้าเราโกงแค่เล็กๆ น้อยๆ
07:12
and still feel good about ourselves.
148
432330
2000
เราก็ยังรู้สึกดีกับตัวเองได้อยู่
07:14
So, maybe what is happening is that
149
434330
1000
ดังนั้น สิ่งที่เกิดขึ้นก็คือว่า
07:15
there's a level of cheating we can't go over,
150
435330
2000
มันมีขอบเขตการโกงระดับหนึ่งที่เราไม่อยากทำเกินไปกว่านี้
07:17
but we can still benefit from cheating at a low degree,
151
437330
4000
คือ เรายังคงเก็บเกี่ยวผลประโยชน์เล็กๆ น้อยๆ จากการโกง
07:21
as long as it doesn't change our impressions about ourselves.
152
441330
3000
ตราบใดที่มันไม่ไปเปลี่ยนความรู้สึกที่เรามีต่อตัวเราเอง
07:24
We call this like a personal fudge factor.
153
444330
3000
เราเรียกมันว่าระดับการโกงที่ยอมรับได้ของแต่ละคน
07:28
Now, how would you test a personal fudge factor?
154
448330
4000
แล้วเราจะทดสอบระดับการโกงที่ยอมรับได้นี่อย่างไร?
07:32
Initially we said, what can we do to shrink the fudge factor?
155
452330
4000
ที่จริงเราตั้งคำถามว่า จะลดระดับการโกงที่ยอมรับได้ลงอย่างไร?
07:36
So, we got people to the lab, and we said,
156
456330
2000
เราเลยพาคนมาที่ห้องทดลอง แล้วบอกว่า
07:38
"We have two tasks for you today."
157
458330
2000
"วันนี้เรามีงานสองอย่างให้คุณทำ"
07:40
First, we asked half the people
158
460330
1000
เราบอกผู้ร่วมการทดลองครึ่งหนึ่งว่า
07:41
to recall either 10 books they read in high school,
159
461330
2000
อย่างแรก ให้นึกถึงหนังสือสิบเล่มที่เคยอ่านสมัยมัธยมปลาย
07:43
or to recall The Ten Commandments,
160
463330
3000
อีกครึ่งหนึ่ง เราให้นึกถึงบัญญัติสิบประการ (คล้ายๆ กับศีลห้า -- ผู้แปล)
07:46
and then we tempted them with cheating.
161
466330
2000
แล้วจากนั้นลองเปิดโอกาสให้เขาโกง
07:48
Turns out the people who tried to recall The Ten Commandments --
162
468330
3000
ปรากฏว่าคนที่นึกถึงบัญญัติสิบประการ
07:51
and in our sample nobody could recall all of The Ten Commandments --
163
471330
2000
ซึ่งไม่มีผู้ร่วมการทดลองสักคนที่จำได้ครบทุกข้อ
07:54
but those people who tried to recall The Ten Commandments,
164
474330
4000
แต่เราพบว่า คนที่นึกถึงบัญญัติสิบประการ
07:58
given the opportunity to cheat, did not cheat at all.
165
478330
3000
เมื่อมีโอกาสจะโกงแล้ว ไม่มีใครโกงเลยสักคนเดียว
08:01
It wasn't that the more religious people --
166
481330
2000
มันไม่ใช่เพราะคนที่เคร่งศาสนามากกว่า --
08:03
the people who remembered more of the Commandments -- cheated less,
167
483330
1000
หรือจำบัญญัติสิบประการได้มากกว่า จะโกงน้อยกว่า
08:04
and the less religious people --
168
484330
2000
และคนที่ไม่เคร่งศาสนา --
08:06
the people who couldn't remember almost any Commandments --
169
486330
1000
หรือคนที่แทบจะจำบัญญัติสิบประการไม่ได้ --
08:07
cheated more.
170
487330
2000
จะโกงมากกว่า
08:09
The moment people thought about trying to recall The Ten Commandments,
171
489330
4000
แค่พยายามจะนึกถึงบัญญัติสิบประการเท่านั้น
08:13
they stopped cheating.
172
493330
1000
เขาก็หยุดโกง
08:14
In fact, even when we gave self-declared atheists
173
494330
2000
ที่จริง แม้แต่คนที่ประกาศตัวว่าไม่ได้นับถือพระเจ้า
08:16
the task of swearing on the Bible and we give them a chance to cheat,
174
496330
4000
การให้พวกเขาสาบานต่อพระคัมภีร์ แล้วให้โอกาสที่จะโกง
08:20
they don't cheat at all.
175
500330
2000
พวกเขาก็จะไม่โกง
08:24
Now, Ten Commandments is something that is hard
176
504330
2000
ทีนี้ บัญญัติสิบประการนั้น
08:26
to bring into the education system, so we said,
177
506330
2000
ยากที่จะนำไปผนวกกับระบบการศึกษา เราเลยคิดว่า
08:28
"Why don't we get people to sign the honor code?"
178
508330
2000
"แล้วทำไมเราไม่ให้พวกเขาเซ็นชื่อในบัญญัติเกียรติภูมิล่ะ?"
08:30
So, we got people to sign,
179
510330
2000
เราก็เลยให้คนลงชื่อใต้ประโยคว่า
08:32
"I understand that this short survey falls under the MIT Honor Code."
180
512330
4000
"ฉันเข้าใจว่าการตอบแบบสำรวจนี้จะอยู่ภายใต้เกียรติภูมิของ MIT"
08:36
Then they shredded it. No cheating whatsoever.
181
516330
3000
เมื่อพวกเขาฉีกกระดาษแล้ว พบว่าไม่มีการโกงใดใดทั้งสิ้น
08:39
And this is particularly interesting,
182
519330
1000
เรื่องนี้น่าสนใจมากเลยครับ
08:40
because MIT doesn't have an honor code.
183
520330
2000
เพราะที่จริง MIT ไม่มีบัญญัติเกียรติภูมิ
08:42
(Laughter)
184
522330
5000
(เสียงหัวเราะ)
08:47
So, all this was about decreasing the fudge factor.
185
527330
4000
เอาล่ะ นั่นคือการลดระดับการโกงที่ยอมรับได้
08:51
What about increasing the fudge factor?
186
531330
3000
แล้วอะไรล่ะที่ทำให้ระดับการโกงที่ยอมรับได้เพิ่มขึ้น?
08:54
The first experiment -- I walked around MIT
187
534330
2000
การทดลองแรก -- ผมเดินไปรอบๆ MIT
08:56
and I distributed six-packs of Cokes in the refrigerators --
188
536330
3000
เอาโค้กจำนวนหกแพ็คใส่ไว้ในตู้เย็น --
08:59
these were common refrigerators for the undergrads.
189
539330
2000
หมายถึงตู้เย็นรวมของนักศึกษาปริญญาตรี
09:01
And I came back to measure what we technically call
190
541330
3000
แล้วผมก็กลับมาวัดสิ่งที่เรียกว่า
09:04
the half-lifetime of Coke -- how long does it last in the refrigerators?
191
544330
4000
ช่วงอายุของโค้ก -- มันอยู่ในตู้เย็นได้นานแค่ไหน?
09:08
As you can expect it doesn't last very long; people take it.
192
548330
3000
อย่างที่คุณคาด มันอยู่ได้ไม่นานก็มีคนหยิบไป
09:11
In contrast, I took a plate with six one-dollar bills,
193
551330
4000
ทีนี้ ผมเอาธนบัตรหกดอลลาร์ใส่จาน
09:15
and I left those plates in the same refrigerators.
194
555330
3000
แล้วก็ทิ้งจานนั้นไว้ในตู้เย็นแบบเดียวกัน
09:18
No bill ever disappeared.
195
558330
1000
ธนบัตรกลับไม่หายไป
09:19
Now, this is not a good social science experiment,
196
559330
3000
นี่อาจไม่ใช่การทดลองทางสังคมศาสตร์ที่ถูกหลักการนัก
09:22
so to do it better I did the same experiment
197
562330
3000
เพื่อให้ได้ผลที่เชื่อถือได้มากขึ้น ผมเลยทำการทดลองแบบเดิม
09:25
as I described to you before.
198
565330
2000
อย่างที่ผมได้อธิบายไว้ก่อนหน้านี้
09:27
A third of the people we passed the sheet, they gave it back to us.
199
567330
3000
หนึ่งในสามของผู้ร่วมการทดลอง เราให้เขาส่งกระดาษคำตอบคืนเรา
09:30
A third of the people we passed it to, they shredded it,
200
570330
3000
อีกหนึ่งในสามให้ฉีกกระดาษทิ้งไป
09:33
they came to us and said,
201
573330
1000
ให้เขามาหาเราแล้วพูดว่า
09:34
"Mr. Experimenter, I solved X problems. Give me X dollars."
202
574330
3000
"คุณนักวิจัยครับ ผมแก้โจทย์ได้ X ข้อ จ่ายผมมา X ดอลลาร์"
09:37
A third of the people, when they finished shredding the piece of paper,
203
577330
3000
และอีกหนึ่งในสามของคนที่เราให้ฉีกกระดาษคำตอบทิ้ง
09:40
they came to us and said,
204
580330
2000
ให้เขามาหาเราแล้วบอกว่า
09:42
"Mr Experimenter, I solved X problems. Give me X tokens."
205
582330
6000
"คุณนักวิจัยครับ ผมแก้โจทย์ได้ X ข้อ จ่ายชิปผมมา X อัน"
09:48
We did not pay them with dollars; we paid them with something else.
206
588330
3000
เราไม่ได้จ่ายเป็นเงิน เราจ่ายเป็นอย่างอื่น
09:51
And then they took the something else, they walked 12 feet to the side,
207
591330
3000
แล้วเมื่อพวกเขาได้รับอย่างอื่นที่ว่า เขาต้องเดินไปด้านข้างอีกสิบสองฟุต
09:54
and exchanged it for dollars.
208
594330
2000
แล้วค่อยแลกเป็นเงิน
09:56
Think about the following intuition.
209
596330
2000
ลองนึกดูสิครับ
09:58
How bad would you feel about taking a pencil from work home,
210
598330
3000
คุณจะรู้สึกแย่แค่ไหน ถ้าจิ๊กดินสอจากที่ทำงานกลับบ้าน
10:01
compared to how bad would you feel
211
601330
2000
เปรียบเทียบกับ
10:03
about taking 10 cents from a petty cash box?
212
603330
2000
การหยิบเงินสิบเซนต์จากกล่องใส่เงิน?
10:05
These things feel very differently.
213
605330
3000
ความรู้สึกพวกนี้ต่างกันมาก
10:08
Would being a step removed from cash for a few seconds
214
608330
3000
การเพิ่มขั้นตอนที่ทำให้คุณอยู่ห่างจากเงินสดไปอีกไม่กี่วินาที
10:11
by being paid by token make a difference?
215
611330
3000
โดยการได้รับชิปแทนนั้นมันมีผลอะไรไหม?
10:14
Our subjects doubled their cheating.
216
614330
2000
ปรากฏว่าผู้ร่วมการทดลองของเราโกหกเพิ่มเป็นสองเท่า
10:16
I'll tell you what I think
217
616330
2000
ผมจะบอกคุณว่าผมคิดยังไง
10:18
about this and the stock market in a minute.
218
618330
2000
เกี่ยวกับเรื่องนี้และตลาดหุ้นในไม่กี่นาทีข้างหน้า
10:21
But this did not solve the big problem I had with Enron yet,
219
621330
4000
แต่นี่ก็ยังไม่ช่วยอธิบายเรื่องเอนรอนได้อยู่ดี
10:25
because in Enron, there's also a social element.
220
625330
3000
เพราะในเอนรอน มันมีประเด็นทางสังคมด้วย
10:28
People see each other behaving.
221
628330
1000
คนเราสังเกตว่าคนอื่นทำอะไร
10:29
In fact, every day when we open the news
222
629330
2000
ในความเป็นจริงแล้ว ทุกๆ วันเมื่อเราดูข่าว
10:31
we see examples of people cheating.
223
631330
2000
เราเห็นตัวอย่างของคนที่โกง
10:33
What does this cause us?
224
633330
3000
แล้วมันมีผลอย่างไรกับเรา?
10:36
So, we did another experiment.
225
636330
1000
เราก็เลยลองทำการทดลองอีกแบบหนึ่ง
10:37
We got a big group of students to be in the experiment,
226
637330
3000
ให้นักเรียนกลุ่มใหญ่มาร่วมการทดลอง
10:40
and we prepaid them.
227
640330
1000
และพวกเราก็จ่ายพวกเขาล่วงหน้า
10:41
So everybody got an envelope with all the money for the experiment,
228
641330
3000
ทุกๆ คนได้รับซองที่มีเงินทั้งหมดที่เขาจะได้จากการทดลอง
10:44
and we told them that at the end, we asked them
229
644330
2000
แล้วเราก็บอกพวกเขาในตอนท้ายว่า
10:46
to pay us back the money they didn't make. OK?
230
646330
4000
ขอให้เขาจ่ายคืนเราเท่าจำนวนข้อที่เขาทำไม่ได้ ตกลงไหม?
10:50
The same thing happens.
231
650330
1000
ผลที่ได้ก็เหมือนเดิม
10:51
When we give people the opportunity to cheat, they cheat.
232
651330
2000
ถ้าเราให้โอกาสเขาโกง เขาก็โกง
10:53
They cheat just by a little bit, all the same.
233
653330
3000
พวกเขาโกงเล็กๆ น้อยๆ แต่ก็โกงเหมือนกันหมด
10:56
But in this experiment we also hired an acting student.
234
656330
3000
แต่ว่าในการทดลองนี้ เราจ้างนักศึกษามาเป็นหน้าม้า
10:59
This acting student stood up after 30 seconds, and said,
235
659330
4000
หน้าม้าของเรายืนขึ้นหลังจากสามสิบวินาที แล้วพูดว่า
11:03
"I solved everything. What do I do now?"
236
663330
3000
"ผมทำได้ครบทุกข้อแล้ว ผมต้องทำอะไรต่อ?"
11:06
And the experimenter said, "If you've finished everything, go home.
237
666330
4000
ผู้วิจัยก็จะพูดว่า "ถ้าคุณทำเสร็จแล้ว กลับบ้านได้เลย"
11:10
That's it. The task is finished."
238
670330
1000
ก็เท่านั้น จบภารกิจ
11:11
So, now we had a student -- an acting student --
239
671330
4000
ดังนั้น คราวนี้เรามีนักศึกษาหน้าม้า
11:15
that was a part of the group.
240
675330
2000
เป็นส่วนหนึ่งของกลุ่ม
11:17
Nobody knew it was an actor.
241
677330
2000
ไม่มีใครรู้ว่าเขาคือหน้าม้า
11:19
And they clearly cheated in a very, very serious way.
242
679330
4000
และเขาก็โกงกันเห็นๆ แบบที่ไม่น่ายอมรับได้
11:23
What would happen to the other people in the group?
243
683330
3000
จะเกิดอะไรขึ้นกับคนอื่นๆ ในกลุ่ม?
11:26
Will they cheat more, or will they cheat less?
244
686330
3000
เขาจะโกงเพิ่มขึ้นหรือลดลง?
11:29
Here is what happens.
245
689330
2000
นี่คือสิ่งที่เกิดขึ้น
11:31
It turns out it depends on what kind of sweatshirt they're wearing.
246
691330
4000
น่าสนใจมากครับ เพราะมันขึ้นอยู่กับว่า เขาใส่เสื้ออะไร
11:35
Here is the thing.
247
695330
2000
รายละเอียดเป็นอย่างนี้
11:37
We ran this at Carnegie Mellon and Pittsburgh.
248
697330
3000
เราทำการทดลองนี้ที่คาร์เนกี้ เมลลอน และพิตต์สเบอร์ก
11:40
And at Pittsburgh there are two big universities,
249
700330
2000
ที่พิตต์สเบอร์กมีมหาวิทยาลัยขนาดใหญ่อยู่สองแห่ง
11:42
Carnegie Mellon and University of Pittsburgh.
250
702330
3000
คือคาร์เนกี้ เมลลอน และพิตต์สเบอร์ก
11:45
All of the subjects sitting in the experiment
251
705330
2000
เมื่อผู้เข้าร่วมการทดลองทุกคน
11:47
were Carnegie Mellon students.
252
707330
2000
เป็นนักศึกษาของคาร์เนกี้ เมลลอน
11:49
When the actor who was getting up was a Carnegie Mellon student --
253
709330
4000
ถ้าหน้าม้ายืนที่ขึ้นเป็นนักศึกษาของคาร์เนกี้ เมลลอน --
11:53
he was actually a Carnegie Mellon student --
254
713330
2000
ซึ่งเขาก็เป็นนักศึกษาของคาร์เนกี้ เมลลอนจริงๆ --
11:55
but he was a part of their group, cheating went up.
255
715330
4000
เขาก็เลยเป็นส่วนหนึ่งของกลุ่ม การโกงก็เลยเพิ่มขึ้น
11:59
But when he actually had a University of Pittsburgh sweatshirt,
256
719330
4000
แต่ถ้าหน้าม้าใส่เสื้อพิตต์เบอร์ก
12:03
cheating went down.
257
723330
2000
การโกงจะลดลง
12:05
(Laughter)
258
725330
3000
(เสียงหัวเราะ)
12:08
Now, this is important, because remember,
259
728330
3000
เรื่องนี้สำคัญนะครับ
12:11
when the moment the student stood up,
260
731330
2000
เพราะเมื่อนักศึกษาที่เป็นหน้าม้ายืนขึ้น
12:13
it made it clear to everybody that they could get away with cheating,
261
733330
3000
มันบอกกับทุกคนอย่างชัดเจนเลยว่าคุณสามารถโกงได้
12:16
because the experimenter said,
262
736330
2000
เพราะผู้วิจัยบอกว่า
12:18
"You've finished everything. Go home," and they went with the money.
263
738330
2000
"คุณทำทุกอย่างเสร็จแล้ว กลับบ้านได้" และพวกเขาก็กลับไปพร้อมกับเงินที่โกง
12:20
So it wasn't so much about the probability of being caught again.
264
740330
3000
มันไม่เกี่ยวกับโอกาสที่จะถูกจับได้แล้ว
12:23
It was about the norms for cheating.
265
743330
3000
แต่มันเป็นเรื่องบรรทัดฐานของการโกง
12:26
If somebody from our in-group cheats and we see them cheating,
266
746330
3000
ถ้าบางคนในกลุ่มของพวกเราโกง และเราเห็นเขาโกง
12:29
we feel it's more appropriate, as a group, to behave this way.
267
749330
4000
เราจะรู้สึกว่ามันเป็นพฤติกรรมที่กลุ่มเราทำได้
12:33
But if it's somebody from another group, these terrible people --
268
753330
2000
แต่ถ้าคนๆ นั้นมาจากกลุ่มอื่น บุคคลที่เลวร้ายพวกนี้ --
12:35
I mean, not terrible in this --
269
755330
2000
ผมไม่ได้หมายความว่าเขานิสัยเลวร้าย --
12:37
but somebody we don't want to associate ourselves with,
270
757330
2000
แต่หมายถึงบางคนที่เราไม่อยากเข้าไปเกี่ยวข้องด้วย
12:39
from another university, another group,
271
759330
2000
เพราะเขามาจากมหาวิทยาลัยอื่น จากกลุ่มอื่น
12:41
all of a sudden people's awareness of honesty goes up --
272
761330
3000
คนก็ตระหนักเรื่องความซื่อสัตย์เพิ่มขึ้นทันที
12:44
a little bit like The Ten Commandments experiment --
273
764330
2000
คล้ายกับกรณีเรื่องบัญญัติสิบประการ
12:46
and people cheat even less.
274
766330
4000
แล้วคนก็โกงน้อยลง
12:50
So, what have we learned from this about cheating?
275
770330
4000
เอาล่ะ เราเรียนรู้อะไรเกี่ยวกับการโกงจากเรื่องนี้?
12:54
We've learned that a lot of people can cheat.
276
774330
3000
เราเรียนรู้ว่าคนจำนวนมากโกง
12:57
They cheat just by a little bit.
277
777330
3000
โดยโกงเล็กๆ น้อยๆ
13:00
When we remind people about their morality, they cheat less.
278
780330
4000
เมื่อพวกเราเตือนเขาเรื่องคุณธรรม เขาจะโกงน้อยลง
13:04
When we get bigger distance from cheating,
279
784330
3000
เมื่อการโกงนั้นทำกับวัตถุอื่นที่ไม่ใช่เงินโดยตรง
13:07
from the object of money, for example, people cheat more.
280
787330
4000
เช่น วัตถุที่ใช้แทนเงิน คนก็จะโกงมากขึ้นไปอีก
13:11
And when we see cheating around us,
281
791330
2000
และเมื่อพวกเราเห็นการโกงรอบๆ ตัวเรา
13:13
particularly if it's a part of our in-group, cheating goes up.
282
793330
4000
โดยเฉพาะถ้าเป็นคนกลุ่มเดียวกับเรา การโกงก็จะมากขึ้น
13:17
Now, if we think about this in terms of the stock market,
283
797330
3000
ทีนี้ลองมาดูกรณีของตลาดหลักทรัพย์บ้าง
13:20
think about what happens.
284
800330
1000
นึกถึงสิ่งที่เกิดขึ้น
13:21
What happens in a situation when you create something
285
801330
3000
จะเกิดอะไรขึ้นถ้าเราสร้างสถานการณ์ที่
13:24
where you pay people a lot of money
286
804330
2000
คุณจ่ายเงินจำนวนมากให้ผู้คน
13:26
to see reality in a slightly distorted way?
287
806330
3000
เพื่อให้เขามองเห็นความจริงในมุมที่บิดเบือนไป?
13:29
Would they not be able to see it this way?
288
809330
3000
พวกเขาจะไม่รู้ไต๋คุณเหรอ?
13:32
Of course they would.
289
812330
1000
แน่นอน เขาต้องรู้แน่
13:33
What happens when you do other things,
290
813330
1000
จะเกิดอะไรขึ้น ถ้าเราลองทำอีกแบบหนึ่ง
13:34
like you remove things from money?
291
814330
2000
โดยไม่เอาสิ่งนั้นไปผูกกับเงิน?
13:36
You call them stock, or stock options, derivatives,
292
816330
3000
คุณอาจเรียกมันว่าหุ้น ออพชั่น อนุพันธ์
13:39
mortgage-backed securities.
293
819330
1000
หลักทรัพย์ที่มีทรัพย์สินจำนองหนุนหลัง
13:40
Could it be that with those more distant things,
294
820330
3000
ถ้าเป็นอะไรที่ดูห่างไกลจากเงินออกไป
13:43
it's not a token for one second,
295
823330
2000
มันไม่ใช่ชิปที่แลกเป็นเงินได้ในหนึ่งวินาที
13:45
it's something that is many steps removed from money
296
825330
2000
แต่เป็นสิ่งที่มีขั้นตอนจำนวนมากกว่าจะแปลงเป็นเงินได้
13:47
for a much longer time -- could it be that people will cheat even more?
297
827330
4000
และใช้เวลานานด้วย -- คนจะโกงมากขึ้นไหม?
13:51
And what happens to the social environment
298
831330
2000
แล้วอะไรจะเกิดขึ้นกับสิ่งแวดล้อมทางสังคม
13:53
when people see other people behave around them?
299
833330
3000
เมื่อเราเห็นคนอื่นๆ ทำแบบนั้น?
13:56
I think all of those forces worked in a very bad way
300
836330
4000
ผมคิดว่าสิ่งเหล่านี้เป็นแรงผลักดันที่เลวร้าย
14:00
in the stock market.
301
840330
2000
ในตลาดหลักทรัพย์
14:02
More generally, I want to tell you something
302
842330
3000
ในภาพกว้างกว่านั้น ผมอยากจะบอกคุณบางอย่าง
14:05
about behavioral economics.
303
845330
3000
เกี่ยวกับเศรษฐศาสตร์พฤติกรรม
14:08
We have many intuitions in our life,
304
848330
4000
เรามีความเชื่อลึกๆ มากมายที่มาจากสัญชาตญาณ
14:12
and the point is that many of these intuitions are wrong.
305
852330
3000
ประเด็นก็คือ ความเชื่อพวกนี้จำนวนมากมันผิด
14:15
The question is, are we going to test those intuitions?
306
855330
3000
คำถามก็คือ แล้วเราจะทดสอบความเชื่อนี้กันหรือไม่?
14:18
We can think about how we're going to test this intuition
307
858330
2000
เราสามารถหาวิธีว่าจะทดสอบความเชื่อพวกนี้ได้อย่างไร
14:20
in our private life, in our business life,
308
860330
2000
ในชีวิตส่วนตัว ในหน้าที่การงาน
14:22
and most particularly when it goes to policy,
309
862330
3000
และที่สำคัญที่สุด เมื่อมันกลายเป็นนโยบาย
14:25
when we think about things like No Child Left Behind,
310
865330
3000
อย่างนโนบาย "No Child Left Behind" (นโยบายการศึกษาของสหรัฐ)
14:28
when you create new stock markets, when you create other policies --
311
868330
3000
เวลาคุณสร้างตลาดหลักทรัพย์ใหม่ สร้างนโยบายใหม่
14:31
taxation, health care and so on.
312
871330
3000
ไม่ว่าจะเป็นด้านภาษี สุขภาพ และอื่นๆ
14:34
And the difficulty of testing our intuition
313
874330
2000
การทดสอบความเชื่อของตัวเองนั้นมันยากมาก
14:36
was the big lesson I learned
314
876330
2000
นั่นเป็นบทเรียนสำคัญที่ผมได้เรียนรู้
14:38
when I went back to the nurses to talk to them.
315
878330
2000
เมื่อผมกลับไปหาพยาบาลทั้งหลายที่เคยดูแลผม
14:40
So I went back to talk to them
316
880330
2000
ผมกลับไปเพื่อบอกเขา
14:42
and tell them what I found out about removing bandages.
317
882330
3000
ว่าผมมีข้อค้นพบบางอย่างเกี่ยวกับการดึงผ้าพันแผลออก
14:45
And I learned two interesting things.
318
885330
2000
แล้วผมก็ได้เรียนรู้สิ่งที่น่าสนใจอยู่สองอย่าง
14:47
One was that my favorite nurse, Ettie,
319
887330
2000
หนึ่งคือ พยาบาลที่น่ารักของผม เอตตี้
14:49
told me that I did not take her pain into consideration.
320
889330
4000
บอกผมว่า ผมไม่ได้เอาความเจ็บปวดของเธอเข้าไปวิเคราะห์ด้วย
14:53
She said, "Of course, you know, it was very painful for you.
321
893330
2000
เธอบอกว่า "แน่นอน อย่างที่คุณรู้ มันเจ็บสำหรับคุณ
14:55
But think about me as a nurse,
322
895330
2000
แต่ลองมาเป็นพยาบาลสิ
14:57
taking, removing the bandages of somebody I liked,
323
897330
2000
ต้องพันแผลและดึงผ้าพันแผลออกให้คนมากมาย
14:59
and had to do it repeatedly over a long period of time.
324
899330
3000
แล้วก็ทำแต่แบบนี้ซ้ำๆ เป็นเวลานาน
15:02
Creating so much torture was not something that was good for me, too."
325
902330
3000
การทำให้คนอื่นเจ็บปวดทรมานก็ไม่ใช่เรื่องที่ดีสำหรับฉันเหมือนกัน"
15:05
And she said maybe part of the reason was it was difficult for her.
326
905330
5000
เธอบอกว่า บางทีส่วนหนึ่งก็เพราะมันยากเกินไปสำหรับเธอ
15:10
But it was actually more interesting than that, because she said,
327
910330
3000
แต่มันน่าสนใจมากกว่า ตอนที่เธอบอกว่า
15:13
"I did not think that your intuition was right.
328
913330
5000
"ฉันคิดว่าความเชื่อของคุณไม่ถูก
15:18
I felt my intuition was correct."
329
918330
1000
ฉันรู้สึกว่าความเชื่อของฉันถูกแล้ว"
15:19
So, if you think about all of your intuitions,
330
919330
2000
ดังนั้น ถ้าคุณลองนึกถึงความเชื่อทั้งหลายของคุณเอง
15:21
it's very hard to believe that your intuition is wrong.
331
921330
4000
มันยากนะครับที่คุณจะเชื่อว่าความเชื่อของคุณผิด
15:25
And she said, "Given the fact that I thought my intuition was right ..." --
332
925330
3000
แล้วเธอก็พูดว่า "และเพราะฉันเชื่อว่าความเชื่อของฉันถูก ..." --
15:28
she thought her intuition was right --
333
928330
2000
คือ เธอคิดว่าเธอถูกนะครับ --
15:30
it was very difficult for her to accept doing a difficult experiment
334
930330
5000
มันก็เลยยากมากสำหรับเธอที่จะยอมรับการทดลองที่โหดร้าย
15:35
to try and check whether she was wrong.
335
935330
2000
เพื่อลองตรวจสอบว่าเธอผิดหรือเปล่า
15:37
But in fact, this is the situation we're all in all the time.
336
937330
4000
ที่จริง เราทุกคนล้วนอยู่ในสถานการณ์เช่นนี้ตลอดเวลา
15:41
We have very strong intuitions about all kinds of things --
337
941330
3000
เรามีความเชื่อที่มั่นคงในทุกเรื่อง --
15:44
our own ability, how the economy works,
338
944330
3000
ความสามารถของเรา กลไกการทำงานของเศรษฐกิจ
15:47
how we should pay school teachers.
339
947330
2000
เราควรจะจ่ายเงินเดือนครูอย่างไร
15:49
But unless we start testing those intuitions,
340
949330
3000
แต่ถ้าเราไม่ได้เริ่มทดสอบความเชื่อเหล่านั้น
15:52
we're not going to do better.
341
952330
2000
เราก็จะไม่มีวันทำให้อะไรมันดีขึ้นได้
15:54
And just think about how better my life would have been
342
954330
2000
ลองนึกดูสิครับว่าชีวิตผมจะดีขึ้นขนาดไหน
15:56
if these nurses would have been willing to check their intuition,
343
956330
2000
ถ้าพยาบาลเหล่านี้ยอมตรวจสอบสิ่งที่เขาเชื่ออยู่
15:58
and how everything would have been better
344
958330
1000
และทุกสิ่งจะดีขึ้นขนาดไหน
15:59
if we just start doing more systematic experimentation of our intuitions.
345
959330
5000
ถ้าเราเริ่มทำการทดลองอย่างเป็นระบบเพื่อตรวจสอบความเชื่อทั้งหลายของเรา
16:04
Thank you very much.
346
964330
2000
ขอบคุณมากครับ
เกี่ยวกับเว็บไซต์นี้

ไซต์นี้จะแนะนำคุณเกี่ยวกับวิดีโอ YouTube ที่เป็นประโยชน์สำหรับการเรียนรู้ภาษาอังกฤษ คุณจะได้เห็นบทเรียนภาษาอังกฤษที่สอนโดยอาจารย์ชั้นนำจากทั่วโลก ดับเบิลคลิกที่คำบรรยายภาษาอังกฤษที่แสดงในแต่ละหน้าของวิดีโอเพื่อเล่นวิดีโอจากที่นั่น คำบรรยายเลื่อนซิงค์กับการเล่นวิดีโอ หากคุณมีความคิดเห็นหรือคำขอใด ๆ โปรดติดต่อเราโดยใช้แบบฟอร์มการติดต่อนี้

https://forms.gle/WvT1wiN1qDtmnspy7