Why we think it's OK to cheat and steal (sometimes) | Dan Ariely

775,712 views ・ 2009-03-18

TED


Dubbelklik op de Engelse ondertitels hieronder om de video af te spelen.

Vertaald door: Axel Saffran Nagekeken door: Christel Foncke
00:19
I want to talk to you today a little bit
0
19330
2000
Ik wil jullie vandaag vertellen
00:21
about predictable irrationality.
1
21330
3000
over voorspelbare irrationaliteit.
00:24
And my interest in irrational behavior
2
24330
4000
Mijn interesse voor irrationeel gedrag
00:28
started many years ago in the hospital.
3
28330
3000
ontstond jaren geleden in het ziekenhuis.
00:31
I was burned very badly.
4
31330
4000
Ik was ernstig verbrand.
00:35
And if you spend a lot of time in hospital,
5
35330
3000
Als je lang in het ziekenhuis ligt,
00:38
you'll see a lot of types of irrationalities.
6
38330
3000
zie je veel verschillende soorten irrationaliteit.
00:41
And the one that particularly bothered me in the burn department
7
41330
5000
Wat me specifiek stoorde op de brandwondenafdeling
00:46
was the process by which the nurses took the bandage off me.
8
46330
4000
was de manier waarop de verpleegsters mijn verband verwijderden.
00:51
Now, you must have all taken a Band-Aid off at some point,
9
51330
2000
Jullie hebben vast wel eens verband verwijderd,
00:53
and you must have wondered what's the right approach.
10
53330
3000
en je afgevraagd wat de beste aanpak is.
00:56
Do you rip it off quickly -- short duration but high intensity --
11
56330
4000
Trek je het er snel af --
korte duur, maar hoge intensiteit --
01:00
or do you take your Band-Aid off slowly --
12
60330
2000
of verwijder je het verband langzaam --
01:02
you take a long time, but each second is not as painful --
13
62330
4000
je neemt de tijd, maar per seconde doet het minder pijn --
01:06
which one of those is the right approach?
14
66330
3000
welke manier is het beste?
01:09
The nurses in my department thought that the right approach
15
69330
4000
De verpleegsters op mijn afdeling
dachten dat de beste manier de snelle was,
01:13
was the ripping one, so they would grab hold and they would rip,
16
73330
3000
dus ze pakten het verband vast en trokken,
01:16
and they would grab hold and they would rip.
17
76330
2000
en ze pakten het vast en trokken.
01:18
And because I had 70 percent of my body burned, it would take about an hour.
18
78330
4000
Omdat ik 70 procent van m'n lichaam verbrand had, duurde het een uur.
01:22
And as you can imagine,
19
82330
3000
Je kunt je voorstellen
01:25
I hated that moment of ripping with incredible intensity.
20
85330
4000
dat ik intens opzag tegen dat moment.
01:29
And I would try to reason with them and say,
21
89330
2000
Ik probeerde met ze te onderhandelen:
01:31
"Why don't we try something else?
22
91330
1000
"Wat als we iets anders probeerden en het iets langer lieten duren,
01:32
Why don't we take it a little longer --
23
92330
2000
01:34
maybe two hours instead of an hour -- and have less of this intensity?"
24
94330
5000
misschien 2 uur in plaats van één -- zodat het minder intens is?"
01:39
And the nurses told me two things.
25
99330
2000
De verpleegsters vertelden me twee dingen.
01:41
They told me that they had the right model of the patient --
26
101330
4000
Ze vertelden me dat zij het juiste model van de patiënt hadden --
01:45
that they knew what was the right thing to do to minimize my pain --
27
105330
3000
dat zij wisten wat het beste was om pijn te minimaliseren --
01:48
and they also told me that the word patient doesn't mean
28
108330
3000
en ze vertelden me ook dat het woord 'patiënt' niet betekent
01:51
to make suggestions or to interfere or ...
29
111330
2000
'suggesties doen' of 'je bemoeien' of … (Gelach)
01:53
This is not just in Hebrew, by the way.
30
113330
3000
Dat is niet alleen zo in het Hebreeuws, trouwens.
01:56
It's in every language I've had experience with so far.
31
116330
3000
Het is zo in iedere taal waar ik tot nu toe ervaring mee had.
01:59
And, you know, there's not much -- there wasn't much I could do,
32
119330
4000
Er was niet veel dat ik kon doen.
02:03
and they kept on doing what they were doing.
33
123330
3000
Ze gingen gewoon door met wat ze deden.
Zo'n drie jaar later verliet ik het ziekenhuis
02:06
And about three years later, when I left the hospital,
34
126330
2000
02:08
I started studying at the university.
35
128330
3000
en ging studeren aan de universiteit.
02:11
And one of the most interesting lessons I learned
36
131330
3000
Eén van de interessantste lessen die ik leerde,
02:14
was that there is an experimental method
37
134330
2000
was dat er een onderzoeksmethode bestaat,
02:16
that if you have a question you can create a replica of this question
38
136330
4000
waarbij je een abstracte kopie maakt van een vraag,
02:20
in some abstract way, and you can try to examine this question,
39
140330
4000
die je vervolgens kunt onderzoeken
02:24
maybe learn something about the world.
40
144330
2000
om misschien iets te leren over de wereld.
02:26
So that's what I did.
41
146330
2000
Dat deed ik dus.
Ik was nog steeds geïnteresseerd in de kwestie van het verband.
02:28
I was still interested
42
148330
1000
02:29
in this question of how do you take bandages off burn patients.
43
149330
2000
02:31
So originally I didn't have much money,
44
151330
3000
In het begin had ik niet veel geld,
02:34
so I went to a hardware store and I bought a carpenter's vice.
45
154330
4000
dus ging ik naar een doe-het-zelfzaak en kocht een bankschroef.
02:38
And I would bring people to the lab and I would put their finger in it,
46
158330
4000
Ik bracht mensen naar het lab, stopte hun vinger er in,
02:42
and I would crunch it a little bit.
47
162330
2000
en ik plette die een beetje.
02:44
(Laughter)
48
164330
2000
(Gelach)
02:46
And I would crunch it for long periods and short periods,
49
166330
3000
Ik plette ze voor lange tijd en voor korte tijd,
02:49
and pain that went up and pain that went down,
50
169330
2000
pijn die toenam en pijn die afnam,
02:51
and with breaks and without breaks -- all kinds of versions of pain.
51
171330
4000
met pauzes en zonder pauzes -- verschillende soorten pijn.
02:55
And when I finished hurting people a little bit, I would ask them,
52
175330
2000
Wanneer ik klaar was met pijn doen, vroeg ik:
02:57
so, how painful was this? Or, how painful was this?
53
177330
2000
nou, hoe pijnlijk was dit?
02:59
Or, if you had to choose between the last two,
54
179330
2000
Of, als je moest kiezen tussen de laatste twee,
03:01
which one would you choose?
55
181330
2000
welke zou je kiezen?
03:03
(Laughter)
56
183330
3000
(Gelach)
03:06
I kept on doing this for a while.
57
186330
3000
Ik bleef dit een tijdlang doen...
03:09
(Laughter)
58
189330
2000
(Gelach)
03:11
And then, like all good academic projects, I got more funding.
59
191330
4000
en toen -- zoals bij elk goed onderzoek -- kreeg ik meer financiering.
03:15
I moved to sounds, electrical shocks --
60
195330
2000
Ik begon met geluiden, elektrische schokken --
03:17
I even had a pain suit that I could get people to feel much more pain.
61
197330
5000
ik had zelfs een pijnpak waarmee mensen nog meer pijn konden voelen.
03:22
But at the end of this process,
62
202330
4000
Maar aan het eind van dit proces
03:26
what I learned was that the nurses were wrong.
63
206330
3000
had ik geleerd dat de verpleegsters het mis hadden.
03:29
Here were wonderful people with good intentions
64
209330
3000
Fantastische mensen met goede intenties
03:32
and plenty of experience, and nevertheless
65
212330
2000
en veel ervaring, en toch
03:34
they were getting things wrong predictably all the time.
66
214330
4000
hadden ze het voortdurend en voorspelbaar mis.
03:38
It turns out that because we don't encode duration
67
218330
3000
Het blijkt dat we tijdsduur anders ervaren
03:41
in the way that we encode intensity,
68
221330
2000
dan intensiteit.
03:43
I would have had less pain if the duration would have been longer
69
223330
4000
Ik zou daardoor minder geleden hebben als de tijdsduur langer was geweest
03:47
and the intensity was lower.
70
227330
2000
en de intensiteit lager.
03:49
It turns out it would have been better to start with my face,
71
229330
3000
Het was beter geweest om met mijn hoofd te beginnen, wat pijnlijker was,
03:52
which was much more painful, and move toward my legs,
72
232330
2000
en naar mijn benen toe te werken,
03:54
giving me a trend of improvement over time --
73
234330
3000
zodat het proces geleidelijk beter werd --
dat zou ook beter zijn geweest.
03:57
that would have been also less painful.
74
237330
1000
03:58
And it also turns out that it would have been good
75
238330
2000
Ook bleek dat het goed was geweest om
04:00
to give me breaks in the middle to kind of recuperate from the pain.
76
240330
2000
kleine pauzes in te lassen, zodat ik kon bijkomen.
04:02
All of these would have been great things to do,
77
242330
2000
Al deze dingen zouden goed zijn geweest,
04:04
and my nurses had no idea.
78
244330
3000
maar mijn verpleegsters hadden geen idee.
Toen bedacht ik: zijn verpleegsters
04:07
And from that point on I started thinking,
79
247330
1000
04:08
are the nurses the only people in the world who get things wrong
80
248330
3000
de enige mensen in de wereld die dingen op deze manier
04:11
in this particular decision, or is it a more general case?
81
251330
3000
mis hebben, of is dit iets meer algemeens?
04:14
And it turns out it's a more general case --
82
254330
2000
Het blijkt dat het meer algemeen is --
04:16
there's a lot of mistakes we do.
83
256330
3000
we maken een hoop fouten.
04:19
And I want to give you one example of one of these irrationalities,
84
259330
5000
Ik wil jullie een voorbeeld geven van zo'n irrationaliteit.
04:24
and I want to talk to you about cheating.
85
264330
3000
Ik ga het hebben over bedrog.
04:27
And the reason I picked cheating is because it's interesting,
86
267330
2000
Ik koos voor bedrog omdat het interessant is,
04:29
but also it tells us something, I think,
87
269330
2000
maar het vertelt ons ook iets
04:31
about the stock market situation we're in.
88
271330
3000
over de beurssituatie waarin we verkeren.
04:34
So, my interest in cheating started
89
274330
3000
Mijn interesse in bedrog werd gewekt toen Enron
04:37
when Enron came on the scene, exploded all of a sudden,
90
277330
2000
het toneel betrad en plotseling explodeerde.
04:39
and I started thinking about what is happening here.
91
279330
3000
Ik begon te denken over wat daar gebeurde.
04:42
Is it the case that there was kind of
92
282330
1000
Waren er hier enkele rotte appels die in staat waren om deze dingen te doen,
04:43
a few apples who are capable of doing these things,
93
283330
3000
04:46
or are we talking a more endemic situation,
94
286330
2000
of is dit meer wijdverbreid
04:48
that many people are actually capable of behaving this way?
95
288330
4000
met vele mensen die hiertoe in staat zijn?
04:52
So, like we usually do, I decided to do a simple experiment.
96
292330
4000
Zoals gebruikelijk, besloot ik een simpel experiment te doen.
04:56
And here's how it went.
97
296330
1000
Dat ging als volgt.
04:57
If you were in the experiment, I would pass you a sheet of paper
98
297330
3000
Als je hieraan meedeed, zou ik je een stuk papier geven
05:00
with 20 simple math problems that everybody could solve,
99
300330
4000
met 20 simpele rekensommen die iedereen kan oplossen,
05:04
but I wouldn't give you enough time.
100
304330
2000
maar ik zou je niet genoeg tijd geven.
05:06
When the five minutes were over, I would say,
101
306330
2000
Als de 5 minuten voorbij waren, zei ik:
05:08
"Pass me the sheets of paper, and I'll pay you a dollar per question."
102
308330
3000
"Geef me je papieren en ik betaal je een dollar per vraag."
05:11
People did this. I would pay people four dollars for their task --
103
311330
4000
Dat deden mensen. Ik betaalde ze dan 4 dollar --
05:15
on average people would solve four problems.
104
315330
2000
gemiddeld hadden mensen 4 sommen opgelost.
05:17
Other people I would tempt to cheat.
105
317330
3000
Andere mensen verleidde ik tot bedrog.
Ik gaf ze het vel papier.
05:20
I would pass their sheet of paper.
106
320330
1000
05:21
When the five minutes were over, I would say,
107
321330
2000
Na 5 minuten zei ik dan:
05:23
"Please shred the piece of paper.
108
323330
1000
"Verscheur het vel.
05:24
Put the little pieces in your pocket or in your backpack,
109
324330
3000
Stop de stukjes in je broekzak of rugzak
05:27
and tell me how many questions you got correctly."
110
327330
3000
en vertel me hoeveel vragen je goed had."
05:30
People now solved seven questions on average.
111
330330
3000
Nu losten mensen gemiddeld 7 vragen op. (Gelach)
05:33
Now, it wasn't as if there was a few bad apples --
112
333330
5000
Het was niet zo dat er enkele rotte appels waren --
05:38
a few people cheated a lot.
113
338330
3000
een paar mensen die erg bedrogen.
05:41
Instead, what we saw is a lot of people who cheat a little bit.
114
341330
3000
Nee, we zagen veel mensen die een beetje bedrogen.
05:44
Now, in economic theory,
115
344330
3000
In de economische theorie
05:47
cheating is a very simple cost-benefit analysis.
116
347330
3000
is bedrog een eenvoudige kosten-batenanalyse.
05:50
You say, what's the probability of being caught?
117
350330
2000
Je zegt: wat is de pakkans?
05:52
How much do I stand to gain from cheating?
118
352330
3000
Hoeveel levert bedrog me op?
05:55
And how much punishment would I get if I get caught?
119
355330
2000
Hoeveel straf krijg ik als ik gepakt word?
05:57
And you weigh these options out --
120
357330
2000
Je weegt deze tegen elkaar af --
05:59
you do the simple cost-benefit analysis,
121
359330
2000
een simpele kosten-batenanalyse,
06:01
and you decide whether it's worthwhile to commit the crime or not.
122
361330
3000
en je beslist of de misdaad de moeite waard is.
06:04
So, we try to test this.
123
364330
2000
Dus we probeerden dit te testen.
06:06
For some people, we varied how much money they could get away with --
124
366330
4000
Bij sommige mensen varieerden we hoeveel geld ze konden stelen.
06:10
how much money they could steal.
125
370330
1000
06:11
We paid them 10 cents per correct question, 50 cents,
126
371330
3000
We betaalden ze 10 cent per goed antwoord, 50 cent,
06:14
a dollar, five dollars, 10 dollars per correct question.
127
374330
3000
een dollar, vijf dollar, tien dollar per goed antwoord.
06:17
You would expect that as the amount of money on the table increases,
128
377330
4000
Je zou verwachten dat met het verhogen van het geldbedrag,
06:21
people would cheat more, but in fact it wasn't the case.
129
381330
3000
mensen méér zouden valsspelen, maar zo was het niet.
06:24
We got a lot of people cheating by stealing by a little bit.
130
384330
3000
Een groot aantal mensen bedrogen ons met kleine beetjes.
06:27
What about the probability of being caught?
131
387330
3000
Hoe zat het met de pakkans?
06:30
Some people shredded half the sheet of paper,
132
390330
2000
Sommige mensen verscheurden de helft van het papier,
06:32
so there was some evidence left.
133
392330
1000
zodat er nog wat bewijs was.
06:33
Some people shredded the whole sheet of paper.
134
393330
2000
Sommige mensen verscheurden het hele vel.
06:35
Some people shredded everything, went out of the room,
135
395330
3000
Sommigen verscheurden alles, liepen het lokaal uit
06:38
and paid themselves from the bowl of money that had over 100 dollars.
136
398330
3000
en betaalden zichzelf uit de kom waarin meer dan 100 dollar zaten.
06:41
You would expect that as the probability of being caught goes down,
137
401330
3000
Je zou verwachten dat als de pakkans verlaagde,
06:44
people would cheat more, but again, this was not the case.
138
404330
3000
mensen meer zouden valsspelen, maar dat was niet zo.
06:47
Again, a lot of people cheated by just by a little bit,
139
407330
3000
Alweer bedrogen veel mensen ons slechts een beetje
06:50
and they were insensitive to these economic incentives.
140
410330
3000
en waren ze ongevoelig voor deze economische motieven.
06:53
So we said, "If people are not sensitive
141
413330
1000
Dus zeiden we: "Als mensen niet gevoelig zijn
06:54
to the economic rational theory explanations, to these forces,
142
414330
5000
voor de kracht van de rationeel-economische theorie,
06:59
what could be going on?"
143
419330
3000
wat is er dan aan de hand?"
07:02
And we thought maybe what is happening is that there are two forces.
144
422330
3000
We dachten dat er misschien twee krachten in het spel waren.
07:05
At one hand, we all want to look at ourselves in the mirror
145
425330
2000
Enerzijds willen we allemaal zonder schuldgevoel in de spiegel kunnen kijken,
07:07
and feel good about ourselves, so we don't want to cheat.
146
427330
3000
dus willen we niet valsspelen.
07:10
On the other hand, we can cheat a little bit,
147
430330
2000
Anderzijds kunnen we een beetje valsspelen,
07:12
and still feel good about ourselves.
148
432330
2000
zonder ons daarover schuldig te voelen.
07:14
So, maybe what is happening is that
149
434330
1000
Dus misschien is er een niveau van bedrog waar we niet overheen kunnen,
07:15
there's a level of cheating we can't go over,
150
435330
2000
07:17
but we can still benefit from cheating at a low degree,
151
437330
4000
maar waaronder we ons kunnen verrijken door bedrog,
07:21
as long as it doesn't change our impressions about ourselves.
152
441330
3000
zolang dat ons zelfbeeld niet verandert.
07:24
We call this like a personal fudge factor.
153
444330
3000
We noemen dat de persoonlijke smoesfactor.
07:28
Now, how would you test a personal fudge factor?
154
448330
4000
Hoe test je een persoonlijke smoesfactor?
07:32
Initially we said, what can we do to shrink the fudge factor?
155
452330
4000
Ten eerste: wat kunnen we doen om de smoesfactor te verkleinen?
07:36
So, we got people to the lab, and we said,
156
456330
2000
Dus we brachten mensen naar het lab en zeiden:
07:38
"We have two tasks for you today."
157
458330
2000
"We hebben 2 opdrachten voor jullie."
07:40
First, we asked half the people
158
460330
1000
De helft van hen vroegen we
07:41
to recall either 10 books they read in high school,
159
461330
2000
10 boeken te noemen van de middelbare school,
07:43
or to recall The Ten Commandments,
160
463330
3000
of de Tien geboden op te noemen,
07:46
and then we tempted them with cheating.
161
466330
2000
en dan verleidden we ze tot bedrog.
07:48
Turns out the people who tried to recall The Ten Commandments --
162
468330
3000
Nu bleek dat de mensen die de Tien geboden trachtten op te sommen --
07:51
and in our sample nobody could recall all of The Ten Commandments --
163
471330
2000
en van onze groep lukte dat niemand --
07:54
but those people who tried to recall The Ten Commandments,
164
474330
4000
maar van degenen die dat probeerden,
07:58
given the opportunity to cheat, did not cheat at all.
165
478330
3000
greep niemand de kans om te bedriegen.
Niet dat de religieuzere mensen,
08:01
It wasn't that the more religious people --
166
481330
2000
die de meeste geboden kenden, minder bedrogen,
08:03
the people who remembered more of the Commandments -- cheated less,
167
483330
1000
08:04
and the less religious people --
168
484330
2000
en de minder religieuzen, die bijna geen geboden konden noemen -- meer bedrogen.
08:06
the people who couldn't remember almost any Commandments --
169
486330
1000
08:07
cheated more.
170
487330
2000
08:09
The moment people thought about trying to recall The Ten Commandments,
171
489330
4000
Op het moment dat mensen zich de geboden probeerden te herinneren,
stopten ze met valsspelen.
08:13
they stopped cheating.
172
493330
1000
08:14
In fact, even when we gave self-declared atheists
173
494330
2000
Zelfs wanneer we zelfverklaarde atheïsten
08:16
the task of swearing on the Bible and we give them a chance to cheat,
174
496330
4000
op de Bijbel lieten zweren en hen de kans gaven vals te spelen,
08:20
they don't cheat at all.
175
500330
2000
deden ze dat niet.
08:24
Now, Ten Commandments is something that is hard
176
504330
2000
Nu zijn de Tien geboden moeilijk te introduceren in het onderwijs,
08:26
to bring into the education system, so we said,
177
506330
2000
dus zeiden we: "Waarom laten we mensen de erecode niet tekenen?"
08:28
"Why don't we get people to sign the honor code?"
178
508330
2000
08:30
So, we got people to sign,
179
510330
2000
Dus we lieten mensen ondertekenen:
08:32
"I understand that this short survey falls under the MIT Honor Code."
180
512330
4000
"Ik begrijp dat dit korte onderzoek valt onder de MIT erecode."
08:36
Then they shredded it. No cheating whatsoever.
181
516330
3000
Dan verscheurden ze het. Niemand speelde vals.
08:39
And this is particularly interesting,
182
519330
1000
Dit is vooral interessant
08:40
because MIT doesn't have an honor code.
183
520330
2000
omdat MIT geen erecode heeft.
08:42
(Laughter)
184
522330
5000
(Gelach)
08:47
So, all this was about decreasing the fudge factor.
185
527330
4000
Dat ging allemaal over vermindering van de smoesfactor.
08:51
What about increasing the fudge factor?
186
531330
3000
Hoe zit het met versterking van de smoesfactor?
08:54
The first experiment -- I walked around MIT
187
534330
2000
In het eerste experiment liep ik door MIT
08:56
and I distributed six-packs of Cokes in the refrigerators --
188
536330
3000
en plaatste blikjes Coke in de koelkasten --
08:59
these were common refrigerators for the undergrads.
189
539330
2000
de algemene koelkasten voor de bachelorstudenten.
09:01
And I came back to measure what we technically call
190
541330
3000
Ik kwam dan terug om te meten wat de halveringstijd is
09:04
the half-lifetime of Coke -- how long does it last in the refrigerators?
191
544330
4000
van Coke -- hoe lang blijft hij staan in de koelkast?
09:08
As you can expect it doesn't last very long; people take it.
192
548330
3000
Zoals verwacht, niet erg lang. Mensen pakken het.
09:11
In contrast, I took a plate with six one-dollar bills,
193
551330
4000
Toen liet ik borden met zes biljetten van één dollar
09:15
and I left those plates in the same refrigerators.
194
555330
3000
achter in dezelfde koelkasten.
09:18
No bill ever disappeared.
195
558330
1000
Geen enkel biljet verdween.
09:19
Now, this is not a good social science experiment,
196
559330
3000
Nu is dit geen goed sociaal experiment,
09:22
so to do it better I did the same experiment
197
562330
3000
dus om het goed te doen, deed ik hetzelfde experiment dat ik eerder beschreef.
09:25
as I described to you before.
198
565330
2000
09:27
A third of the people we passed the sheet, they gave it back to us.
199
567330
3000
Een derde van de mensen gaf het vel papier aan ons terug.
09:30
A third of the people we passed it to, they shredded it,
200
570330
3000
Een derde van de mensen verscheurde het vel,
09:33
they came to us and said,
201
573330
1000
kwamen naar ons en zeiden:
09:34
"Mr. Experimenter, I solved X problems. Give me X dollars."
202
574330
3000
"Meneer, ik heb X vragen beantwoord. Geef me X dollar."
09:37
A third of the people, when they finished shredding the piece of paper,
203
577330
3000
Een derde van de mensen kwam na het verscheuren van het papier
09:40
they came to us and said,
204
580330
2000
naar ons toe en zei:
09:42
"Mr Experimenter, I solved X problems. Give me X tokens."
205
582330
6000
"Meneer, ik heb X vragen beantwoord. Geef me X tokens."
09:48
We did not pay them with dollars; we paid them with something else.
206
588330
3000
We betaalden ze niet met dollars maar met iets anders.
09:51
And then they took the something else, they walked 12 feet to the side,
207
591330
3000
Ze namen dat andere iets en gingen dat een paar meter verderop
09:54
and exchanged it for dollars.
208
594330
2000
inwisselen voor dollars.
09:56
Think about the following intuition.
209
596330
2000
Probeer je het volgende voor te stellen.
09:58
How bad would you feel about taking a pencil from work home,
210
598330
3000
Hoe slecht zou je je voelen als je een potlood van werk meenam,
10:01
compared to how bad would you feel
211
601330
2000
vergeleken met als je 10 cent uit een pot met kleingeld nam?
10:03
about taking 10 cents from a petty cash box?
212
603330
2000
10:05
These things feel very differently.
213
605330
3000
Deze dingen voelen heel anders aan.
10:08
Would being a step removed from cash for a few seconds
214
608330
3000
Zou het wat uitmaken als er enkele seconden afstand is tot contant geld,
10:11
by being paid by token make a difference?
215
611330
3000
door een token te gebruiken?
10:14
Our subjects doubled their cheating.
216
614330
2000
Onze proefpersonen verdubbelden hun bedrog.
10:16
I'll tell you what I think
217
616330
2000
Ik zal jullie zo vertellen wat ik hierover denk in verband met de aandelenmarkt.
10:18
about this and the stock market in a minute.
218
618330
2000
10:21
But this did not solve the big problem I had with Enron yet,
219
621330
4000
Maar dit loste mijn grote probleem met Enron niet op,
10:25
because in Enron, there's also a social element.
220
625330
3000
want in Enron is er ook een sociaal element.
Mensen zien elkaars gedrag.
10:28
People see each other behaving.
221
628330
1000
10:29
In fact, every day when we open the news
222
629330
2000
Feitelijk zien we dagelijks in het nieuws
10:31
we see examples of people cheating.
223
631330
2000
voorbeelden van mensen die bedrog plegen.
10:33
What does this cause us?
224
633330
3000
Welke invloed heeft dat?
Dus deden we nog een experiment.
10:36
So, we did another experiment.
225
636330
1000
10:37
We got a big group of students to be in the experiment,
226
637330
3000
Een grote groep studenten deed mee aan het onderzoek
10:40
and we prepaid them.
227
640330
1000
en we betaalden ze vooraf.
10:41
So everybody got an envelope with all the money for the experiment,
228
641330
3000
Iedereen kreeg een envelop met al het geld voor het onderzoek,
10:44
and we told them that at the end, we asked them
229
644330
2000
en we vroegen hen om aan het eind het niet verdiende geld terug te betalen.
10:46
to pay us back the money they didn't make. OK?
230
646330
4000
10:50
The same thing happens.
231
650330
1000
Hetzelfde gebeurde. Als we mensen de kans geven vals te spelen, doen ze dat.
10:51
When we give people the opportunity to cheat, they cheat.
232
651330
2000
10:53
They cheat just by a little bit, all the same.
233
653330
3000
Ze spelen slechts een beetje vals. Weer hetzelfde.
10:56
But in this experiment we also hired an acting student.
234
656330
3000
Maar in dit onderzoek huurden we ook een acteur in.
10:59
This acting student stood up after 30 seconds, and said,
235
659330
4000
Deze acteur stond na 30 seconden op en zei:
11:03
"I solved everything. What do I do now?"
236
663330
3000
"Ik heb alles opgelost. Wat doe ik nu?"
11:06
And the experimenter said, "If you've finished everything, go home.
237
666330
4000
De onderzoeker zei: "Als je alles klaar hebt, kun je naar huis."
11:10
That's it. The task is finished."
238
670330
1000
Dat is het. De klus is geklaard.
11:11
So, now we had a student -- an acting student --
239
671330
4000
Dus nu hadden we een student -- een acteur --
11:15
that was a part of the group.
240
675330
2000
die deel van de groep was.
11:17
Nobody knew it was an actor.
241
677330
2000
-- niemand wist dat het een acteur was --
11:19
And they clearly cheated in a very, very serious way.
242
679330
4000
en hij bedroog de boel overduidelijk.
11:23
What would happen to the other people in the group?
243
683330
3000
Wat zou er gebeuren met de anderen in de groep?
11:26
Will they cheat more, or will they cheat less?
244
686330
3000
Bedriegen ze meer, of juist minder?
11:29
Here is what happens.
245
689330
2000
Het volgende gebeurde.
11:31
It turns out it depends on what kind of sweatshirt they're wearing.
246
691330
4000
Het blijkt af te hangen van welk sweatshirt ze dragen. (Gelach)
11:35
Here is the thing.
247
695330
2000
Het zit zo.
11:37
We ran this at Carnegie Mellon and Pittsburgh.
248
697330
3000
We deden dit op Carnegie Mellon en Pittsburgh.
11:40
And at Pittsburgh there are two big universities,
249
700330
2000
In Pittsburgh zijn twee grote universiteiten:
11:42
Carnegie Mellon and University of Pittsburgh.
250
702330
3000
Carnegie Mellon en de Universiteit van Pittsburgh.
11:45
All of the subjects sitting in the experiment
251
705330
2000
Alle deelnemers aan het onderzoek
11:47
were Carnegie Mellon students.
252
707330
2000
waren studenten van Carnegie Mellon.
11:49
When the actor who was getting up was a Carnegie Mellon student --
253
709330
4000
Als de acteur een student van Carnegie Mellon was --
11:53
he was actually a Carnegie Mellon student --
254
713330
2000
dat was hij ook daadwerkelijk --
11:55
but he was a part of their group, cheating went up.
255
715330
4000
maar als hij deel uitmaakte van hun groep...
werd er meer vals gespeeld.
11:59
But when he actually had a University of Pittsburgh sweatshirt,
256
719330
4000
Maar als hij een sweatshirt van de Universiteit van Pittsburgh droeg,
12:03
cheating went down.
257
723330
2000
werd het bedrog minder.
12:05
(Laughter)
258
725330
3000
(Gelach) (Applaus)
12:08
Now, this is important, because remember,
259
728330
3000
Dit is belangrijk, want je weet
12:11
when the moment the student stood up,
260
731330
2000
dat toen de student opstond,
12:13
it made it clear to everybody that they could get away with cheating,
261
733330
3000
het iedereen duidelijk werd dat ze ongestraft konden bedriegen
12:16
because the experimenter said,
262
736330
2000
want de onderzoeker zei: "Klaar, je mag naar huis",
12:18
"You've finished everything. Go home," and they went with the money.
263
738330
2000
en ze vertrokken met het geld.
12:20
So it wasn't so much about the probability of being caught again.
264
740330
3000
Dus het ging weer niet zozeer de kans om gepakt te worden.
12:23
It was about the norms for cheating.
265
743330
3000
Het ging over de normen voor bedrog.
12:26
If somebody from our in-group cheats and we see them cheating,
266
746330
3000
Als we iemand uit onze eigen groep vals zien spelen,
12:29
we feel it's more appropriate, as a group, to behave this way.
267
749330
4000
vinden we dat gedrag meer aanvaardbaar voor ons als groep.
Maar is het iemand uit de andere groep, die vreselijke lui --
12:33
But if it's somebody from another group, these terrible people --
268
753330
2000
12:35
I mean, not terrible in this --
269
755330
2000
ik bedoel, niet zo vreselijk --
12:37
but somebody we don't want to associate ourselves with,
270
757330
2000
maar iemand met wie we ons niet willen associëren,
12:39
from another university, another group,
271
759330
2000
van een andere universiteit of groep,
12:41
all of a sudden people's awareness of honesty goes up --
272
761330
3000
dan neemt plotseling het bewustzijn van eerlijkheid toe --
12:44
a little bit like The Ten Commandments experiment --
273
764330
2000
een beetje als in het Tien geboden-onderzoek --
12:46
and people cheat even less.
274
766330
4000
en mensen bedriegen nog minder.
12:50
So, what have we learned from this about cheating?
275
770330
4000
Dus, wat hebben we hiervan geleerd over bedrog?
12:54
We've learned that a lot of people can cheat.
276
774330
3000
We leerden dat veel mensen kunnen bedriegen.
12:57
They cheat just by a little bit.
277
777330
3000
Ze bedriegen slechts een beetje.
13:00
When we remind people about their morality, they cheat less.
278
780330
4000
Als we mensen herinneren aan hun moraliteit, bedriegen ze minder.
13:04
When we get bigger distance from cheating,
279
784330
3000
Als we meer afstand nemen tot bedrog,
13:07
from the object of money, for example, people cheat more.
280
787330
4000
van het fysieke geld, bijvoorbeeld, bedriegen mensen meer.
13:11
And when we see cheating around us,
281
791330
2000
Als we bedrog rondom ons zien,
13:13
particularly if it's a part of our in-group, cheating goes up.
282
793330
4000
vooral in onze eigen groep, neemt het bedrog toe.
13:17
Now, if we think about this in terms of the stock market,
283
797330
3000
Als we dit betrekken op de aandelenmarkt,
13:20
think about what happens.
284
800330
1000
bedenk dan wat er gebeurt.
13:21
What happens in a situation when you create something
285
801330
3000
Wat gebeurt er in een situatie waarin je mensen
13:24
where you pay people a lot of money
286
804330
2000
veel geld betaalt om de realiteit
13:26
to see reality in a slightly distorted way?
287
806330
3000
op een licht verdraaide wijze te zien?
13:29
Would they not be able to see it this way?
288
809330
3000
Zouden ze dat dan niet zo kunnen zien?
13:32
Of course they would.
289
812330
1000
Natuurlijk wel.
13:33
What happens when you do other things,
290
813330
1000
Wat als je andere dingen doet,
13:34
like you remove things from money?
291
814330
2000
zoals dingen loskoppelen van geld?
13:36
You call them stock, or stock options, derivatives,
292
816330
3000
Je noemt ze aandelen, opties, derivaten, effecten met hypotheken als onderpand.
13:39
mortgage-backed securities.
293
819330
1000
13:40
Could it be that with those more distant things,
294
820330
3000
Zou het kunnen dat met die losgekoppelde dingen --
13:43
it's not a token for one second,
295
823330
2000
het is niet een token gedurende één seconde,
13:45
it's something that is many steps removed from money
296
825330
2000
maar vele stappen verwijderd van geld over een langere periode --
13:47
for a much longer time -- could it be that people will cheat even more?
297
827330
4000
zou het kunnen dat mensen nog meer valsspelen?
13:51
And what happens to the social environment
298
831330
2000
Wat gebeurt er met de sociale omgeving
13:53
when people see other people behave around them?
299
833330
3000
als mensen het gedrag van anderen om zich heen zien?
13:56
I think all of those forces worked in a very bad way
300
836330
4000
Ik denk dat al deze krachten zeer negatief werkten
14:00
in the stock market.
301
840330
2000
in de aandelenmarkt.
14:02
More generally, I want to tell you something
302
842330
3000
Meer algemeen wil ik je iets vertellen
14:05
about behavioral economics.
303
845330
3000
over gedragseconomie.
14:08
We have many intuitions in our life,
304
848330
4000
We hebben vele intuïties in ons leven,
14:12
and the point is that many of these intuitions are wrong.
305
852330
3000
en het punt is dat vele daarvan niet kloppen.
14:15
The question is, are we going to test those intuitions?
306
855330
3000
De vraag is of we deze intuïties gaan testen.
14:18
We can think about how we're going to test this intuition
307
858330
2000
We kunnen denken over hoe we deze intuïtie kunnen testen
14:20
in our private life, in our business life,
308
860330
2000
in ons privéleven, ons zakelijke leven,
14:22
and most particularly when it goes to policy,
309
862330
3000
en in het bijzonder op het gebied van beleid:
14:25
when we think about things like No Child Left Behind,
310
865330
3000
dingen als "No Child Left Behind" [onderwijsbeleid],
14:28
when you create new stock markets, when you create other policies --
311
868330
3000
het creëren van nieuwe aandelenmarkten, of ander beleid --
14:31
taxation, health care and so on.
312
871330
3000
belastingen, gezondheidszorg enz.
14:34
And the difficulty of testing our intuition
313
874330
2000
De moeilijkheid van het testen van onze intuïtie
14:36
was the big lesson I learned
314
876330
2000
was de grote les die ik leerde
14:38
when I went back to the nurses to talk to them.
315
878330
2000
toen ik terugging naar de verpleegsters.
14:40
So I went back to talk to them
316
880330
2000
Ik ging terug om ze te vertellen
14:42
and tell them what I found out about removing bandages.
317
882330
3000
wat ik had ontdekt over verband verwijderen.
14:45
And I learned two interesting things.
318
885330
2000
Ik leerde twee interessante dingen.
14:47
One was that my favorite nurse, Ettie,
319
887330
2000
Een was dat mijn favoriete verpleegster, Ettie,
14:49
told me that I did not take her pain into consideration.
320
889330
4000
me vertelde dat ik haar pijn niet in aanmerking nam.
14:53
She said, "Of course, you know, it was very painful for you.
321
893330
2000
Ze zei: "Natuurlijk was het erg pijnlijk voor jou.
14:55
But think about me as a nurse,
322
895330
2000
Maar denk aan mij als verpleegster,
14:57
taking, removing the bandages of somebody I liked,
323
897330
2000
die het verband verwijderde van iemand die ik graag mocht
14:59
and had to do it repeatedly over a long period of time.
324
899330
3000
en dit herhaaldelijk moest doen over langere tijd.
15:02
Creating so much torture was not something that was good for me, too."
325
902330
3000
Zoveel pijn veroorzaken was ook niet fijn voor mij."
15:05
And she said maybe part of the reason was it was difficult for her.
326
905330
5000
Ze zei dat er misschien mee te maken had, dat het moeilijk voor haar was.
15:10
But it was actually more interesting than that, because she said,
327
910330
3000
Maar het was nog interessanter. Ze zei:
15:13
"I did not think that your intuition was right.
328
913330
5000
"Ik dacht niet dat jouw intuïtie juist was.
Ik dacht dat mijn intuïtie juist was."
15:18
I felt my intuition was correct."
329
918330
1000
15:19
So, if you think about all of your intuitions,
330
919330
2000
Dus als je nadenkt over al je intuïties,
15:21
it's very hard to believe that your intuition is wrong.
331
921330
4000
is het erg moeilijk te geloven dat die verkeerd zijn.
15:25
And she said, "Given the fact that I thought my intuition was right ..." --
332
925330
3000
Ze zei: "Omdat ik dacht dat mijn intuïtie klopte..." --
15:28
she thought her intuition was right --
333
928330
2000
ze dacht dat haar intuïtie klopte --
15:30
it was very difficult for her to accept doing a difficult experiment
334
930330
5000
was het erg moeilijk voor haar een experiment te doen
15:35
to try and check whether she was wrong.
335
935330
2000
om uit te vinden of ze het fout had.
15:37
But in fact, this is the situation we're all in all the time.
336
937330
4000
In feite is dit de situatie waarin we voortdurend zitten.
15:41
We have very strong intuitions about all kinds of things --
337
941330
3000
We hebben sterke intuïties over alle mogelijke dingen --
15:44
our own ability, how the economy works,
338
944330
3000
je eigen capaciteiten, hoe de economie werkt,
15:47
how we should pay school teachers.
339
947330
2000
wat we leraren moeten betalen.
15:49
But unless we start testing those intuitions,
340
949330
3000
Maar tenzij we deze intuïties gaan testen,
15:52
we're not going to do better.
341
952330
2000
komt er geen verbetering.
Hoeveel beter zou mijn leven niet geweest zijn
15:54
And just think about how better my life would have been
342
954330
2000
als deze verpleegsters hun intuïties hadden willen checken,
15:56
if these nurses would have been willing to check their intuition,
343
956330
2000
15:58
and how everything would have been better
344
958330
1000
en hoeveel beter zou het zijn als we
15:59
if we just start doing more systematic experimentation of our intuitions.
345
959330
5000
onze intuïties systematischer zouden gaan onderzoeken.
16:04
Thank you very much.
346
964330
2000
Dank je wel.
Over deze website

Deze site laat u kennismaken met YouTube-video's die nuttig zijn om Engels te leren. U ziet Engelse lessen gegeven door topdocenten uit de hele wereld. Dubbelklik op de Engelse ondertitels op elke videopagina om de video af te spelen. De ondertitels scrollen synchroon met het afspelen van de video. Heeft u opmerkingen of verzoeken, neem dan contact met ons op via dit contactformulier.

https://forms.gle/WvT1wiN1qDtmnspy7