Why we think it's OK to cheat and steal (sometimes) | Dan Ariely

Dan Ariely: Defolu Ahlaki Kılavuzumuz

768,015 views

2009-03-18 ・ TED


New videos

Why we think it's OK to cheat and steal (sometimes) | Dan Ariely

Dan Ariely: Defolu Ahlaki Kılavuzumuz

768,015 views ・ 2009-03-18

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Ayşe Demirel Gözden geçirme: Müge Gür
00:19
I want to talk to you today a little bit
0
19330
2000
Bugün sizlere biraz
00:21
about predictable irrationality.
1
21330
3000
öngörülebilir mantıksızlıktan bahsetmek istiyorum.
00:24
And my interest in irrational behavior
2
24330
4000
Benim öngörülebilir mantıksızlığa ilgim
00:28
started many years ago in the hospital.
3
28330
3000
uzun yıllar önce hastanede başladı.
00:31
I was burned very badly.
4
31330
4000
Kötü bir şekilde yanmıştım.
00:35
And if you spend a lot of time in hospital,
5
35330
3000
Ve hastanede uzun süre geçirince
00:38
you'll see a lot of types of irrationalities.
6
38330
3000
çeşit çeşit mantıksızlık görüyorsunuz.
00:41
And the one that particularly bothered me in the burn department
7
41330
5000
Yanık bölümünde canımı en çok sıkan şey
00:46
was the process by which the nurses took the bandage off me.
8
46330
4000
hemşirelerin sargı bezlerimi çıkarma süreciydi.
00:51
Now, you must have all taken a Band-Aid off at some point,
9
51330
2000
Eminim hepiniz en az bir kere yara bandı sökmüşsünüzdür,
00:53
and you must have wondered what's the right approach.
10
53330
3000
ve bunu nasıl yapmanın daha iyi olacağını düşünmüşsünüzdür.
00:56
Do you rip it off quickly -- short duration but high intensity --
11
56330
4000
Birden mi çekmek lazım --kısa süreli ama keskin bir acıyla--
01:00
or do you take your Band-Aid off slowly --
12
60330
2000
yoksa yavaşça mı çekmeli?
01:02
you take a long time, but each second is not as painful --
13
62330
4000
Daha uzun bir sürede, fakat her saniye daha az acıyla.
01:06
which one of those is the right approach?
14
66330
3000
Bunlardan hangisi doğru yaklaşım?
01:09
The nurses in my department thought that the right approach
15
69330
4000
Benim bölümümdeki hemşirelere göre doğru yol
01:13
was the ripping one, so they would grab hold and they would rip,
16
73330
3000
hızlıca çekmekti, bu yüzden sıkıca tutar, çeker; tekrar tutar, çeker
01:16
and they would grab hold and they would rip.
17
76330
2000
tutar ve çekerlerdi.
01:18
And because I had 70 percent of my body burned, it would take about an hour.
18
78330
4000
Ve vücudumun yüzde 70'i yanık olduğundan, bu bir saat kadar sürüyordu.
01:22
And as you can imagine,
19
82330
3000
Tahmin edeceğiniz üzere,
01:25
I hated that moment of ripping with incredible intensity.
20
85330
4000
bu yüksek yoğunluktaki çekme anından nefret ediyordum.
01:29
And I would try to reason with them and say,
21
89330
2000
Onlarla bunu tartışmaya çalışıp derdim ki,
01:31
"Why don't we try something else?
22
91330
1000
"Neden farklı birşey denemiyoruz?
01:32
Why don't we take it a little longer --
23
92330
2000
Neden biraz daha uzun süre harcayıp --
01:34
maybe two hours instead of an hour -- and have less of this intensity?"
24
94330
5000
belki bir yerine iki saat harcayıp -- daha az yoğunlukta yapmıyoruz?
01:39
And the nurses told me two things.
25
99330
2000
Ve hemşireler bana iki şey söylediler.
01:41
They told me that they had the right model of the patient --
26
101330
4000
Bana hastayı doğru şekilde anladıklarını --
01:45
that they knew what was the right thing to do to minimize my pain --
27
105330
3000
hastanın hissettiği acıyı olduğunca azaltmanın yolunu bildiklerini --
01:48
and they also told me that the word patient doesn't mean
28
108330
3000
bir de "hasta" kelimesinin anlamının
01:51
to make suggestions or to interfere or ...
29
111330
2000
fikir vermek ya da müdahale etmek olmadığını söylediler...
01:53
This is not just in Hebrew, by the way.
30
113330
3000
Ayrıca bu sadece İbranicede değil.
01:56
It's in every language I've had experience with so far.
31
116330
3000
Her dilde aynı deneyimle karşılaştım.
01:59
And, you know, there's not much -- there wasn't much I could do,
32
119330
4000
Ve, bilmelisiniz ki, yapabileceğim fazla birşey yoktu,
02:03
and they kept on doing what they were doing.
33
123330
3000
ve aynı şekilde yapmaya devam ettiler.
02:06
And about three years later, when I left the hospital,
34
126330
2000
Üç sene kadar sonra, hastaneden ayrıldığımda,
02:08
I started studying at the university.
35
128330
3000
üniversitede çalışmaya başladım.
02:11
And one of the most interesting lessons I learned
36
131330
3000
Öğrendiğim en önemli derslerden biri şuydu:
02:14
was that there is an experimental method
37
134330
2000
bir deney yöntemi var;
02:16
that if you have a question you can create a replica of this question
38
136330
4000
eğer bir sorunuz varsa ve bu sorunun daha soyut bir benzerini yaratabilirseniz
02:20
in some abstract way, and you can try to examine this question,
39
140330
4000
ve bu soyut soruyu inceleyebilirseniz,
02:24
maybe learn something about the world.
40
144330
2000
belki dünya hakkında birşeyler öğrenebilirsiniz.
02:26
So that's what I did.
41
146330
2000
Ben de bunu yaptım.
02:28
I was still interested
42
148330
1000
Hala merak ediyordum,
02:29
in this question of how do you take bandages off burn patients.
43
149330
2000
sargı bezini yanık hastalarından nasıl çıkarmalı?
02:31
So originally I didn't have much money,
44
151330
3000
İlk başlarda fazla araştırma param yoktu,
02:34
so I went to a hardware store and I bought a carpenter's vice.
45
154330
4000
o yüzden hırdavat dükkanına gittim ve bir tane marangoz mengenesi aldım.
02:38
And I would bring people to the lab and I would put their finger in it,
46
158330
4000
Ve insanları laboratuvara getirip, parmaklarını mengeneye koyardım,
02:42
and I would crunch it a little bit.
47
162330
2000
sonra biraz daha sıkıştırırdım.
02:44
(Laughter)
48
164330
2000
(Kahkaha)
02:46
And I would crunch it for long periods and short periods,
49
166330
3000
Uzun süreler ve kısa süreler boyunca parmaklarını sıkıştırır,
02:49
and pain that went up and pain that went down,
50
169330
2000
acıyı arttırırdım ya da azaltırdım,
02:51
and with breaks and without breaks -- all kinds of versions of pain.
51
171330
4000
ara vererek ya da ara vermeden -- türlü çeşitte acı.
02:55
And when I finished hurting people a little bit, I would ask them,
52
175330
2000
İnsanların canını biraz acıttıktan sonra, onlara sorardım,
02:57
so, how painful was this? Or, how painful was this?
53
177330
2000
Bu ne kadar acıdı? Peki ya bu ne kadar acıdı?
02:59
Or, if you had to choose between the last two,
54
179330
2000
Ya da, eğer bu son ikisi arasından seçecek olsaydın,
03:01
which one would you choose?
55
181330
2000
hangisini seçerdin?
03:03
(Laughter)
56
183330
3000
(Kahkaha)
03:06
I kept on doing this for a while.
57
186330
3000
Bunu bir süre yapmaya devam ettim.
03:09
(Laughter)
58
189330
2000
(Kahkaha)
03:11
And then, like all good academic projects, I got more funding.
59
191330
4000
Ve, her iyi akademik proje gibi, daha fazla mali destek aldım.
03:15
I moved to sounds, electrical shocks --
60
195330
2000
Seslere, elektrik şoklarına geçtim --
03:17
I even had a pain suit that I could get people to feel much more pain.
61
197330
5000
hatta insanlara çok daha fazla acı hissettiren bir acı kıyafetim bile vardı.
03:22
But at the end of this process,
62
202330
4000
Ama bu sürecin sonunda
03:26
what I learned was that the nurses were wrong.
63
206330
3000
hemşirelerin haksız olduğu ortaya çıktı.
03:29
Here were wonderful people with good intentions
64
209330
3000
Bunlar iyi niyetli harika insanlar,
03:32
and plenty of experience, and nevertheless
65
212330
2000
ve de oldukça tecrübeliler, fakat yine de
03:34
they were getting things wrong predictably all the time.
66
214330
4000
öngörülebilir ve tahmin edilebilir bir şekilde sürekli hata yapıyorlardı.
03:38
It turns out that because we don't encode duration
67
218330
3000
Anlaşıldı ki, aslında zamanı,
03:41
in the way that we encode intensity,
68
221330
2000
keskinlikle aynı şekilde algılamadığımız için,
03:43
I would have had less pain if the duration would have been longer
69
223330
4000
süreç daha uzun ve acı daha az keskin olsa
03:47
and the intensity was lower.
70
227330
2000
ben daha az acı çekebilirdim.
03:49
It turns out it would have been better to start with my face,
71
229330
3000
Anlaşıldı ki, suratımla başlamak daha iyi olurdu,
03:52
which was much more painful, and move toward my legs,
72
232330
2000
çünkü yüz daha hassas bir bölgedir, ve bacaklarıma doğru devam etmek,
03:54
giving me a trend of improvement over time --
73
234330
3000
böylece zaman içerisinde daha iyi hissederdim --
03:57
that would have been also less painful.
74
237330
1000
bu da acıyı azaltırdı.
03:58
And it also turns out that it would have been good
75
238330
2000
Ayrıca acıya iyi gelebilecek başka birşey de
04:00
to give me breaks in the middle to kind of recuperate from the pain.
76
240330
2000
bazen ara vermek olurdu, böylece acıdan biraz sıyrılabilirdim.
04:02
All of these would have been great things to do,
77
242330
2000
Bunların hepsi yapılabilecek harika şeyler,
04:04
and my nurses had no idea.
78
244330
3000
ama hemşirelerimin hiçbirinden haberi yoktu.
04:07
And from that point on I started thinking,
79
247330
1000
O noktadan itibaren düşünmeye başladım,
04:08
are the nurses the only people in the world who get things wrong
80
248330
3000
acaba hemşireler dünyada bu tarz hataları yapan tek insanlar mı,
04:11
in this particular decision, or is it a more general case?
81
251330
3000
yoksa bu daha genel bir durum mu?
04:14
And it turns out it's a more general case --
82
254330
2000
Ortaya çıktı ki bu oldukça genel bir durum --
04:16
there's a lot of mistakes we do.
83
256330
3000
yaptığımız bir sürü hata var.
04:19
And I want to give you one example of one of these irrationalities,
84
259330
5000
Size mantıksızlık ile ilgili bir örnek vermek istiyorum,
04:24
and I want to talk to you about cheating.
85
264330
3000
size hileden bahsedeceğim.
04:27
And the reason I picked cheating is because it's interesting,
86
267330
2000
Hile konusunu seçtim, çünkü bu konu ilgi çekici,
04:29
but also it tells us something, I think,
87
269330
2000
diğer yandan da sanıyorum bize
04:31
about the stock market situation we're in.
88
271330
3000
içinde olduğumuz borsa durumu hakkında birşeyler anlatacak.
04:34
So, my interest in cheating started
89
274330
3000
Benim hileye olan ilgim
04:37
when Enron came on the scene, exploded all of a sudden,
90
277330
2000
Enron'un ortaya çıkışı ve aniden patlaması sırasında başladı
04:39
and I started thinking about what is happening here.
91
279330
3000
ve bu süreçte yaşananları değerlendirmeye başladım.
04:42
Is it the case that there was kind of
92
282330
1000
Acaba ortada sadece
04:43
a few apples who are capable of doing these things,
93
283330
3000
bunları yapabilecek birkaç çürük elma mı var,
04:46
or are we talking a more endemic situation,
94
286330
2000
yoksa daha bulaşıcı bir durumdan mı bahsediyoruz,
04:48
that many people are actually capable of behaving this way?
95
288330
4000
öyle ki aslında şekilde davranabilecek bir sürü insan var?
04:52
So, like we usually do, I decided to do a simple experiment.
96
292330
4000
Genelde yaptığımız gibi, basit bir deney yapmaya karar verdim.
04:56
And here's how it went.
97
296330
1000
Deneyin gidişatı şöyle:
04:57
If you were in the experiment, I would pass you a sheet of paper
98
297330
3000
Denek olduğunuzu düşünelim, size bir parça kağıt veriyorum
05:00
with 20 simple math problems that everybody could solve,
99
300330
4000
üzerinde 20 tane basit, herkesin çözebileceği matematik sorusu var,
05:04
but I wouldn't give you enough time.
100
304330
2000
ama size yeterince zaman vermiyorum.
05:06
When the five minutes were over, I would say,
101
306330
2000
Beş dakika sonunda da:
05:08
"Pass me the sheets of paper, and I'll pay you a dollar per question."
102
308330
3000
"Kağıtları bana uzatın, size her soru için bir dolar vereceğim."
05:11
People did this. I would pay people four dollars for their task --
103
311330
4000
İnsanlar soruları çözerdi. 4'er dolar verirdim --
05:15
on average people would solve four problems.
104
315330
2000
insanlar ortalamada 4 soru çözüyorlardı.
05:17
Other people I would tempt to cheat.
105
317330
3000
Bazılarını ise hile yapmaya ayartırdım.
05:20
I would pass their sheet of paper.
106
320330
1000
Onlara kağıtlari dağıtırdım.
05:21
When the five minutes were over, I would say,
107
321330
2000
Beş dakika bittiğinde, derdim ki,
05:23
"Please shred the piece of paper.
108
323330
1000
"Lütfen kağıdı yırtıp, parçalayın.
05:24
Put the little pieces in your pocket or in your backpack,
109
324330
3000
Parçaları cebinize ya da çantanıza koyun,
05:27
and tell me how many questions you got correctly."
110
327330
3000
ve bana kaç tane soruyu çözebildiğinizi söyleyin."
05:30
People now solved seven questions on average.
111
330330
3000
Bu sefer insanlar ortalama yedi soru çözmeye başladılar.
05:33
Now, it wasn't as if there was a few bad apples --
112
333330
5000
Yani, aralarında sadece birkaç çürük elma varmış değildi --
05:38
a few people cheated a lot.
113
338330
3000
birkaç insan çok hile yapıyor gibi değildi--
05:41
Instead, what we saw is a lot of people who cheat a little bit.
114
341330
3000
Aksine, gördüğümüz birçok insanın birazcık hile yaptığıydı.
05:44
Now, in economic theory,
115
344330
3000
Ekonomik teoride,
05:47
cheating is a very simple cost-benefit analysis.
116
347330
3000
hilekarlık çok kolay bir maliyet-kazanç karşılaştırmasıdır.
05:50
You say, what's the probability of being caught?
117
350330
2000
Dersiniz ki, yakalanma ihtimalim nedir?
05:52
How much do I stand to gain from cheating?
118
352330
3000
Hile yaparak ne kadar kazanacağım?
05:55
And how much punishment would I get if I get caught?
119
355330
2000
Ve eğer yakalanırsam, cezam ne kadar ağır olacak?
05:57
And you weigh these options out --
120
357330
2000
Ve bu seçenekleri tartarsınız --
05:59
you do the simple cost-benefit analysis,
121
359330
2000
kolay bir maliyet-kazanç hesabı yaparsınız,
06:01
and you decide whether it's worthwhile to commit the crime or not.
122
361330
3000
ve bu suçu işlemenin değip değmeyeceğine karar verirsiniz.
06:04
So, we try to test this.
123
364330
2000
Biz de bunu sınamaya çalışıyoruz.
06:06
For some people, we varied how much money they could get away with --
124
366330
4000
Bazı insanlar için ne kadar para kazanabileceklerini değiştirdik --
06:10
how much money they could steal.
125
370330
1000
ne kadar para çalabileceklerini.
06:11
We paid them 10 cents per correct question, 50 cents,
126
371330
3000
Bir soru için 10 sent (kuruş) ödedik, 50 sent ödedik,
06:14
a dollar, five dollars, 10 dollars per correct question.
127
374330
3000
bir dolar, beş dolar, on dolar.
06:17
You would expect that as the amount of money on the table increases,
128
377330
4000
Masadaki para arttıkça, insanların daha çok hile yapmasını beklersiniz,
06:21
people would cheat more, but in fact it wasn't the case.
129
381330
3000
ama bu aslında doğru değil.
06:24
We got a lot of people cheating by stealing by a little bit.
130
384330
3000
Birçok insan küçük hilelerle, küçük miktarlarda çaldılar.
06:27
What about the probability of being caught?
131
387330
3000
Peki yakalanma ihtimali?
06:30
Some people shredded half the sheet of paper,
132
390330
2000
Bazı insanlar kağıdın sadece yarısını parçaladı,
06:32
so there was some evidence left.
133
392330
1000
böylece bir miktar delil vardı.
06:33
Some people shredded the whole sheet of paper.
134
393330
2000
Bazı insanlar bütün kağıdı parçaladı.
06:35
Some people shredded everything, went out of the room,
135
395330
3000
Bazı insanlar bütün kağıdı parçalayıp, sınıftan çıkıp,
06:38
and paid themselves from the bowl of money that had over 100 dollars.
136
398330
3000
kendi ücretlerinii içinde 100 dolardan fazla para olan kaseden ödediler.
06:41
You would expect that as the probability of being caught goes down,
137
401330
3000
Beklentiniz, yakalanma ihtimali azaldıkça,
06:44
people would cheat more, but again, this was not the case.
138
404330
3000
insanların daha çok hile yapmasıysa, bu gene yanlış.
06:47
Again, a lot of people cheated by just by a little bit,
139
407330
3000
Yine, birçok insan az bir miktarda hile yaptı
06:50
and they were insensitive to these economic incentives.
140
410330
3000
ve bu ekonomik teşviklere karşı duyarsızlardı.
06:53
So we said, "If people are not sensitive
141
413330
1000
Biz de dedik ki "Eğer insanlar
06:54
to the economic rational theory explanations, to these forces,
142
414330
5000
ekonomik teori açıklamalarına, bu etkilere duyarsız değillerse,
06:59
what could be going on?"
143
419330
3000
acaba burada ne oluyor?"
07:02
And we thought maybe what is happening is that there are two forces.
144
422330
3000
belki de buradaki olayı iki etki oluşturdu diye düşündük.
07:05
At one hand, we all want to look at ourselves in the mirror
145
425330
2000
Bir yanda, hepimiz aynaya bakıp
07:07
and feel good about ourselves, so we don't want to cheat.
146
427330
3000
kendimiz hakkında iyi hissedebilmek istiyoruz, dolayısıyla hile yapmak istemiyoruz.
07:10
On the other hand, we can cheat a little bit,
147
430330
2000
Öbür tarafta, azıcık hile de yapabiliriz,
07:12
and still feel good about ourselves.
148
432330
2000
ve yine de kendimiz hakkında iyi hissedebiliriz.
07:14
So, maybe what is happening is that
149
434330
1000
Yani, belki burada olan
07:15
there's a level of cheating we can't go over,
150
435330
2000
aşamayacağımız bir hile sınırı var,
07:17
but we can still benefit from cheating at a low degree,
151
437330
4000
ama gene de az oranda hile yapmaktan faydalanabiliriz,
07:21
as long as it doesn't change our impressions about ourselves.
152
441330
3000
kendimiz hakkındaki düşüncelerimizi etkilemediği sürece.
07:24
We call this like a personal fudge factor.
153
444330
3000
Buna kişisel belirsizlik katsayısı diyoruz.
07:28
Now, how would you test a personal fudge factor?
154
448330
4000
Peki, kişisel belirsizlik katsayısını nasıl ölçersiniz?
07:32
Initially we said, what can we do to shrink the fudge factor?
155
452330
4000
İlk önce dedik ki, bu katsayıyı nasıl azaltabiliriz?
07:36
So, we got people to the lab, and we said,
156
456330
2000
İnsanları laboratuvara getirdik ve dedik ki,
07:38
"We have two tasks for you today."
157
458330
2000
"Sizin için iki görevimiz var bugün."
07:40
First, we asked half the people
158
460330
1000
Önce insanların yarısına
07:41
to recall either 10 books they read in high school,
159
461330
2000
lisede okudukları 10 kitabı hatırlamalarını söyledik,
07:43
or to recall The Ten Commandments,
160
463330
3000
ya da On Emiri hatırlamalarını söyledik,
07:46
and then we tempted them with cheating.
161
466330
2000
ve sonra onları hile yapmaya teşvik ettik.
07:48
Turns out the people who tried to recall The Ten Commandments --
162
468330
3000
Gördük ki On Emiri hatırlamaya çalışan insanlar --
07:51
and in our sample nobody could recall all of The Ten Commandments --
163
471330
2000
ve kimse On Emirin hepsini hatırlayamadı --
07:54
but those people who tried to recall The Ten Commandments,
164
474330
4000
ama o On Emiri hatırlmaya çalışan insanlar
07:58
given the opportunity to cheat, did not cheat at all.
165
478330
3000
kopya çekme imkanı verildiğinde, kesinlikle kopya çekmediler.
08:01
It wasn't that the more religious people --
166
481330
2000
Daha dindar insanlar --
08:03
the people who remembered more of the Commandments -- cheated less,
167
483330
1000
On Emirin daha çoğunu hatırlayanlar -- daha az hile yapmış değillerdi
08:04
and the less religious people --
168
484330
2000
ve daha az dindar insanlar --
08:06
the people who couldn't remember almost any Commandments --
169
486330
1000
On Emirin neredeyse hiçbirini hatırlayamayanlar --
08:07
cheated more.
170
487330
2000
daha çok hile yapmış değildi.
08:09
The moment people thought about trying to recall The Ten Commandments,
171
489330
4000
On Emiri hatırlamaya çalışmayı düşündükleri anda, insanlar
08:13
they stopped cheating.
172
493330
1000
hile yapmayı bıraktı.
08:14
In fact, even when we gave self-declared atheists
173
494330
2000
Hatta, kendilerini ateist ilan edenlere bile
08:16
the task of swearing on the Bible and we give them a chance to cheat,
174
496330
4000
İncil'in üzerine yemin ettirdiğimizde ve kopya çekme imkanı verdiğimizde,
08:20
they don't cheat at all.
175
500330
2000
hiç kopya çekmediler.
08:24
Now, Ten Commandments is something that is hard
176
504330
2000
Öyle ki, On Emiri eğitim düzenine koymak
08:26
to bring into the education system, so we said,
177
506330
2000
çok zor birşey, o yüzden dedik ki,
08:28
"Why don't we get people to sign the honor code?"
178
508330
2000
"Neden insanlara bir onur yasası imzalatmıyoruz?"
08:30
So, we got people to sign,
179
510330
2000
Bizde insanlara şunu imzalattık;
08:32
"I understand that this short survey falls under the MIT Honor Code."
180
512330
4000
"MIT onur yasasının bu kısa araştırmada geçerli olduğunun farkındayım."
08:36
Then they shredded it. No cheating whatsoever.
181
516330
3000
Sonra bu kağıdı parçaladılar. Kesinlikle kopya çeken olmadı.
08:39
And this is particularly interesting,
182
519330
1000
Ve bu özellikle ilginç bir durum,
08:40
because MIT doesn't have an honor code.
183
520330
2000
çünkü MIT'nin bir onur yasası yok.
08:42
(Laughter)
184
522330
5000
(Kahkaha)
08:47
So, all this was about decreasing the fudge factor.
185
527330
4000
Yani. bütün bunlar bu belirsizlik katsayısını azaltmak içindi.
08:51
What about increasing the fudge factor?
186
531330
3000
Peki ya belirsizlik katsayısını arttırmak?
08:54
The first experiment -- I walked around MIT
187
534330
2000
İlk deney -- MIT'yi gezdim
08:56
and I distributed six-packs of Cokes in the refrigerators --
188
536330
3000
ve buzdolaplarına 6'lık kola kutuları koydum --
08:59
these were common refrigerators for the undergrads.
189
539330
2000
bunlar üniversite öğrencileri için ortak buzdolaplarıydı.
09:01
And I came back to measure what we technically call
190
541330
3000
Ve, bizim teknik olarak kolanın yarı ömrü dediğimiz
09:04
the half-lifetime of Coke -- how long does it last in the refrigerators?
191
544330
4000
olguyu -- buzdolabında ne kadar durabiliyor? -- ölçmek adına geri geldim.
09:08
As you can expect it doesn't last very long; people take it.
192
548330
3000
Bekleneceği gibi, çok uzun süre durmuyor. İnsanlar kolaları alıyorlar.
09:11
In contrast, I took a plate with six one-dollar bills,
193
551330
4000
Bunun tersine, içinde altı tane bir dolar olan tabağı alıp,
09:15
and I left those plates in the same refrigerators.
194
555330
3000
aynı buzdolaplarına koydum.
09:18
No bill ever disappeared.
195
558330
1000
Hiçbiri kaybolmadı.
09:19
Now, this is not a good social science experiment,
196
559330
3000
Tabi ki, bu iyi bir toplumsal bilim deneyi değil,
09:22
so to do it better I did the same experiment
197
562330
3000
o yüzden bunu daha iyi yapabilmek için aynı deneyi
09:25
as I described to you before.
198
565330
2000
sizlere daha önceden anlattığım gibi yaptım.
09:27
A third of the people we passed the sheet, they gave it back to us.
199
567330
3000
İnsanların 3'te 1'ine kağıtları verdik ve bunlar bize geri verildi.
09:30
A third of the people we passed it to, they shredded it,
200
570330
3000
3'te 1'ine kağıtları verdik ve onlar bu kağıtları parçaladılar,
09:33
they came to us and said,
201
573330
1000
bize gelip dediler ki,
09:34
"Mr. Experimenter, I solved X problems. Give me X dollars."
202
574330
3000
"Deneyci Bey, ben X tane soru çözdüm. Bana X dolar verin."
09:37
A third of the people, when they finished shredding the piece of paper,
203
577330
3000
3'te 1'i kağıdı parçaladıktan sonra
09:40
they came to us and said,
204
580330
2000
bize gelip dediler ki,
09:42
"Mr Experimenter, I solved X problems. Give me X tokens."
205
582330
6000
"Deneyci Bey, ben X tane soru çözdüm. Bana X tane jeton verin."
09:48
We did not pay them with dollars; we paid them with something else.
206
588330
3000
Onları dolarla ödemedik. Başka birşeyle ödedik.
09:51
And then they took the something else, they walked 12 feet to the side,
207
591330
3000
Ve bu başka birşeyi alıp, yana doğru 4 metre yürüyüp,
09:54
and exchanged it for dollars.
208
594330
2000
dolara bozdurdular.
09:56
Think about the following intuition.
209
596330
2000
Şimdi şu mantık hakkında bir düşünün.
09:58
How bad would you feel about taking a pencil from work home,
210
598330
3000
Bir kalemi iş yerinden alıp, eve götürmek hakkında ne kadar kötü hissedersiniz,
10:01
compared to how bad would you feel
211
601330
2000
peki eğer bunu önemsiz bir para kutusundan 10 kuruş
10:03
about taking 10 cents from a petty cash box?
212
603330
2000
almakla karşılaştırırsanız?
10:05
These things feel very differently.
213
605330
3000
Bu iki şey çok farklı geliyor insana.
10:08
Would being a step removed from cash for a few seconds
214
608330
3000
Bir kaç saniye de olsa para fikrinden uzaklaşıp
10:11
by being paid by token make a difference?
215
611330
3000
ödemenin jetonla yapılması bir farklılık yaratır mıydı?
10:14
Our subjects doubled their cheating.
216
614330
2000
Deneklerimiz iki kat daha fazla hile yaptılar.
10:16
I'll tell you what I think
217
616330
2000
Size bu konu ve borsa hakkında
10:18
about this and the stock market in a minute.
218
618330
2000
ne düşündüğümü bir dakika sonra açıklayacağım.
10:21
But this did not solve the big problem I had with Enron yet,
219
621330
4000
Ama bu Enron'la olan büyük problemimi çözmedi,
10:25
because in Enron, there's also a social element.
220
625330
3000
çünkü Enron'da sosyal öğeler de söz konusu.
10:28
People see each other behaving.
221
628330
1000
Herkes diğerlerinin nasıl davrandığını görüyor.
10:29
In fact, every day when we open the news
222
629330
2000
Aslında her gün haberlerde dolandırıcılara
10:31
we see examples of people cheating.
223
631330
2000
dair örnekler görüyoruz.
10:33
What does this cause us?
224
633330
3000
Bu bizde neye sebep oluyor?
10:36
So, we did another experiment.
225
636330
1000
Böylece başka bir deney daha yaptık.
10:37
We got a big group of students to be in the experiment,
226
637330
3000
Büyük bir öğrenci grubunu deneye aldık,
10:40
and we prepaid them.
227
640330
1000
ödemelerini de önceden yaptık.
10:41
So everybody got an envelope with all the money for the experiment,
228
641330
3000
Herkes deney öncesinde parasını bir zarf içinde aldı
10:44
and we told them that at the end, we asked them
229
644330
2000
ve onlardan deney sırasında kazanamadıkları parayı
10:46
to pay us back the money they didn't make. OK?
230
646330
4000
iade etmelerini istedik. Tamam mı?
10:50
The same thing happens.
231
650330
1000
Aynı şey yaşandı.
10:51
When we give people the opportunity to cheat, they cheat.
232
651330
2000
İnsanlara hile yapmaları için fırsat verdiğimizde, hile yaptılar.
10:53
They cheat just by a little bit, all the same.
233
653330
3000
Küçük küçük de olsa her zaman hile yaptılar.
10:56
But in this experiment we also hired an acting student.
234
656330
3000
Ama bu deneyde bir de rol yapan bir öğrenciyi işe aldık.
10:59
This acting student stood up after 30 seconds, and said,
235
659330
4000
Bu aktör öğrenci, 30 saniye sonra ayağa kalkıp
11:03
"I solved everything. What do I do now?"
236
663330
3000
"Ben herşeyi çözdüm! Şimdi ne yapacağım?" diye sordu.
11:06
And the experimenter said, "If you've finished everything, go home.
237
666330
4000
Ve deneyci, "Herşeyi bitirdiysen, gidebilirsin" dedi.
11:10
That's it. The task is finished."
238
670330
1000
Bu kadar. Görevin tamamlandı.
11:11
So, now we had a student -- an acting student --
239
671330
4000
Şimdi, bir öğrencimiz var, --rol yapan bir öğrenci--
11:15
that was a part of the group.
240
675330
2000
grubun bir parçası.
11:17
Nobody knew it was an actor.
241
677330
2000
Onun bir oyuncu olduğunu kimse bilmiyordu.
11:19
And they clearly cheated in a very, very serious way.
242
679330
4000
Ve açıkça çok çok ciddi bir şekilde yine hile yaptılar.
11:23
What would happen to the other people in the group?
243
683330
3000
Grupta kalan diğer öğrencilere ne oldu?
11:26
Will they cheat more, or will they cheat less?
244
686330
3000
Daha mı az yoksa daha mı çok hile yaptılar?
11:29
Here is what happens.
245
689330
2000
Olan şuydu;
11:31
It turns out it depends on what kind of sweatshirt they're wearing.
246
691330
4000
Hile miktarları giydikleri sweatshirt'lerine bağlı değişkenlik gösterdi.
11:35
Here is the thing.
247
695330
2000
Şöyle ki, bu deneyi
11:37
We ran this at Carnegie Mellon and Pittsburgh.
248
697330
3000
Carnegie Mellon ve Pittsburgh'da yaptık.
11:40
And at Pittsburgh there are two big universities,
249
700330
2000
Ve Pittsburgh'da iki büyük üniversite var.
11:42
Carnegie Mellon and University of Pittsburgh.
250
702330
3000
Carnegie Mellon ve Pittsburgh üniversiteleri.
11:45
All of the subjects sitting in the experiment
251
705330
2000
Deneydeki deneklerin hepsi Carnegie Mellon
11:47
were Carnegie Mellon students.
252
707330
2000
öğrencileriydiler.
11:49
When the actor who was getting up was a Carnegie Mellon student --
253
709330
4000
Aktör öğrenci ayağa kalktığında ki o da Carnegie Mellon
11:53
he was actually a Carnegie Mellon student --
254
713330
2000
öğrencisiydi, gerçekten de öyleydi--
11:55
but he was a part of their group, cheating went up.
255
715330
4000
onların grubundan birisi olduğu için hile arttı.
11:59
But when he actually had a University of Pittsburgh sweatshirt,
256
719330
4000
Ama üstünde Pittsburgh üniversitesinin sweatshirt'ü
12:03
cheating went down.
257
723330
2000
olduğunda hile azaldı.
12:05
(Laughter)
258
725330
3000
(Kahkaha)
12:08
Now, this is important, because remember,
259
728330
3000
Şimdi, bu önemli, anımsayın,
12:11
when the moment the student stood up,
260
731330
2000
öğrenci ayağa kalktığı an,
12:13
it made it clear to everybody that they could get away with cheating,
261
733330
3000
öğrenciler hile yapsalar da yakalanmayacaklarını açıkça anladılar.
12:16
because the experimenter said,
262
736330
2000
çünkü deneyi yöneten
12:18
"You've finished everything. Go home," and they went with the money.
263
738330
2000
"Herşeyi bitirdin. Evine git" dedi, ve parayı alıp gitti.
12:20
So it wasn't so much about the probability of being caught again.
264
740330
3000
Yani bu defa yakalanma ihtimaline dair pek birşey yoktu.
12:23
It was about the norms for cheating.
265
743330
3000
Bu hile yapmanın normları ile ilgiliydi.
12:26
If somebody from our in-group cheats and we see them cheating,
266
746330
3000
Bizim içimizden birisi hile yapıyorsa, bizde onu görüyorsak,
12:29
we feel it's more appropriate, as a group, to behave this way.
267
749330
4000
grup olarak bu şekilde davranmanın daha uygun olduğunu hissediyoruz.
12:33
But if it's somebody from another group, these terrible people --
268
753330
2000
Ama başka gruptan birisiyse, bu kötü insanlar--
12:35
I mean, not terrible in this --
269
755330
2000
Demek istediğim, bu konuda kötü değil--
12:37
but somebody we don't want to associate ourselves with,
270
757330
2000
ama kendimizi bağdaştırmak istemediğimiz
12:39
from another university, another group,
271
759330
2000
başka bir grup veya başka bir üniversiteden birisi
12:41
all of a sudden people's awareness of honesty goes up --
272
761330
3000
hile yapmışsa, aniden kişilerdeki dürüstlük farkındalığı
12:44
a little bit like The Ten Commandments experiment --
273
764330
2000
-bir parça da On Emir'de olduğu gibi--hemen yükseliyor.
12:46
and people cheat even less.
274
766330
4000
ve hatta daha da az hile yapıyorlar.
12:50
So, what have we learned from this about cheating?
275
770330
4000
Yani bu konudan hile yapmakla ilgili ne öğrenmiş olduk?
12:54
We've learned that a lot of people can cheat.
276
774330
3000
Pek çok insanın hile yapabileceğini öğrendik.
12:57
They cheat just by a little bit.
277
777330
3000
Küçük küçük hileler yapıyorlar.
13:00
When we remind people about their morality, they cheat less.
278
780330
4000
Kişilere ahlaki değerler anımsatıldığında, daha az hile yapıyorlar.
13:04
When we get bigger distance from cheating,
279
784330
3000
Hile yapma fikrinden uzaklaşınca,
13:07
from the object of money, for example, people cheat more.
280
787330
4000
örneğin para objesinden uzaklaşınca, insanlar daha çok hile yapıyor.
13:11
And when we see cheating around us,
281
791330
2000
Ve çevremizde hile yapanları gördüğümüzde,
13:13
particularly if it's a part of our in-group, cheating goes up.
282
793330
4000
özellikle bizim grubumuzun bir parçasıysalar, hilekarlık artıyor.
13:17
Now, if we think about this in terms of the stock market,
283
797330
3000
Peki şimdi konuya borsa açısından bakalım,
13:20
think about what happens.
284
800330
1000
ne yaşandığını düşünün.
13:21
What happens in a situation when you create something
285
801330
3000
Kişilere büyük paralar ödeyip, gerçeği olduğundan
13:24
where you pay people a lot of money
286
804330
2000
birazcık farklı görmelerini sağlayacak
13:26
to see reality in a slightly distorted way?
287
806330
3000
bir durum yarattığınızda ne olur?
13:29
Would they not be able to see it this way?
288
809330
3000
Bu şekilde farklı görmeyi başaramazlar mı?
13:32
Of course they would.
289
812330
1000
Elbette başarırlar.
13:33
What happens when you do other things,
290
813330
1000
Peki ya daha farklı şeyler yaparsanız,
13:34
like you remove things from money?
291
814330
2000
yani parayı konudan uzaklaştırırsanız?
13:36
You call them stock, or stock options, derivatives,
292
816330
3000
Onlara hisse, hisse opsiyonları, yan ürünler,
13:39
mortgage-backed securities.
293
819330
1000
veya mortgagelanmış güvence adını verirseniz?
13:40
Could it be that with those more distant things,
294
820330
3000
Daha uzak şeyler için olay bu olabilir mi,
13:43
it's not a token for one second,
295
823330
2000
bu bir saniyelik jeton bile değil,
13:45
it's something that is many steps removed from money
296
825330
2000
çok uzun sürelerdir, paradan pek çok basamakla uzaklaştırılmış
13:47
for a much longer time -- could it be that people will cheat even more?
297
827330
4000
bu olaylarda--kişiler daha da çok hile yapmaya yöneliyor olabilir mi?
13:51
And what happens to the social environment
298
831330
2000
Ve sosyal çevremizde böyle davranan insanları
13:53
when people see other people behave around them?
299
833330
3000
başka insanlar gördüğünde ne oluyor?
13:56
I think all of those forces worked in a very bad way
300
836330
4000
Ben stok markette tüm bu güçlerin olabilecek
14:00
in the stock market.
301
840330
2000
en kötü haliyle görev aldığını düşünüyorum.
14:02
More generally, I want to tell you something
302
842330
3000
Davranış ekonomisi hakkında size daha da
14:05
about behavioral economics.
303
845330
3000
genel bir şey söylemek istiyorum.
14:08
We have many intuitions in our life,
304
848330
4000
hayatımızda pek çok sezgimiz var
14:12
and the point is that many of these intuitions are wrong.
305
852330
3000
ve asıl olay bu sezgisel tahminlerimizin çoğunun hatalı olmasıdır.
14:15
The question is, are we going to test those intuitions?
306
855330
3000
Soru şu, bu tahmin ve sezgilerimizi test edecek miyiz?
14:18
We can think about how we're going to test this intuition
307
858330
2000
Bu sezgilerimizi özel hayatımızda,
14:20
in our private life, in our business life,
308
860330
2000
iş hayatımızda özellikle olay prensiplere dayandığında,
14:22
and most particularly when it goes to policy,
309
862330
3000
Hiçbir Çocuk Geride Kalmadı gibi şeyleri düşündüğümüzde,
14:25
when we think about things like No Child Left Behind,
310
865330
3000
yeni bir stok market yarattığınızda,
14:28
when you create new stock markets, when you create other policies --
311
868330
3000
ve yeni bir prensip oluşturduğunuzda--
14:31
taxation, health care and so on.
312
871330
3000
vergilerde, sağlık sisteminde vs nasıl test edeceğinizi düşünebilirsiniz.
14:34
And the difficulty of testing our intuition
313
874330
2000
Sezgilerimizi test etmekteki zorluk
14:36
was the big lesson I learned
314
876330
2000
öğrendiğim en büyük dersti;
14:38
when I went back to the nurses to talk to them.
315
878330
2000
hemşirelere geri döndüm,
14:40
So I went back to talk to them
316
880330
2000
yani onlarla konuşmak için geri gittim.
14:42
and tell them what I found out about removing bandages.
317
882330
3000
ve onlara bandajları çıkarma konusunda bulduklarımı anlattım
14:45
And I learned two interesting things.
318
885330
2000
Ve çok ilginç iki şey öğrendim;
14:47
One was that my favorite nurse, Ettie,
319
887330
2000
Birisi Ettie, en sevdiğim hemşiremdi.
14:49
told me that I did not take her pain into consideration.
320
889330
4000
bana kendisinin çektiği acıyı göz ardı ettiğimi söyledi.
14:53
She said, "Of course, you know, it was very painful for you.
321
893330
2000
"Elbette, senin için çok acı vericiydi", dedi.
14:55
But think about me as a nurse,
322
895330
2000
"Ama beni bir hemşire olarak düşün,
14:57
taking, removing the bandages of somebody I liked,
323
897330
2000
Sevdiğim, hoşlandığım birinden bandajları çıkarıyorum.
14:59
and had to do it repeatedly over a long period of time.
324
899330
3000
ve uzun bir süre boyunca da bunu yapmak zorunda kalıyorum.
15:02
Creating so much torture was not something that was good for me, too."
325
902330
3000
Bu kadar çok işkence yaratmak benim için de iyi birşey değildi."
15:05
And she said maybe part of the reason was it was difficult for her.
326
905330
5000
Ve belki bir parça zorlandığı için böyle davranmıştı, öyle söyledi.
15:10
But it was actually more interesting than that, because she said,
327
910330
3000
Ama aslında olay bundan da ilginçti,
15:13
"I did not think that your intuition was right.
328
913330
5000
"Senin sezginin doğru olduğunu düşünmüyordum", dedi.
15:18
I felt my intuition was correct."
329
918330
1000
"Benim sezgimin doğru olduğunu düşünüyordum".
15:19
So, if you think about all of your intuitions,
330
919330
2000
Yani bütün sezgilerinizi düşününce
15:21
it's very hard to believe that your intuition is wrong.
331
921330
4000
kendi sezginizin yanlış olduğuna inanmak oldukça zor.
15:25
And she said, "Given the fact that I thought my intuition was right ..." --
332
925330
3000
"Gerçekten de ben kendi sezgimin doğru olduğunu düşünüyordum," dedi.
15:28
she thought her intuition was right --
333
928330
2000
kendi sezgisinin doğru olduğunu düşünüyordu,
15:30
it was very difficult for her to accept doing a difficult experiment
334
930330
5000
ve hatalı olup olmadığını anlamak için dahi zor bir
15:35
to try and check whether she was wrong.
335
935330
2000
deneye katılmayı kabul etmek onun için yine zordu.
15:37
But in fact, this is the situation we're all in all the time.
336
937330
4000
Gerçekte, hepimizin her an içinde olduğu durum budur.
15:41
We have very strong intuitions about all kinds of things --
337
941330
3000
Her tür şey hakkında çok güçlü sezgilerimiz var,
15:44
our own ability, how the economy works,
338
944330
3000
kendi yeteneklerimize, ekonominin nasıl işlediğine,
15:47
how we should pay school teachers.
339
947330
2000
okul öğretmenlerine nasıl maaş verileceğine dair.
15:49
But unless we start testing those intuitions,
340
949330
3000
Ama bu sezgilerimizi test etmeye başlamazsak
15:52
we're not going to do better.
341
952330
2000
daha iyi olmamızin imkanı yok.
15:54
And just think about how better my life would have been
342
954330
2000
Sadece şunu düşünün, hemşireler sezgilerini kontrol etmeye
15:56
if these nurses would have been willing to check their intuition,
343
956330
2000
niyetli olsalardı, hayatım çok daha iyi olabilirdi,
15:58
and how everything would have been better
344
958330
1000
ve eğer kendi sezgilerimiz üzerinde
15:59
if we just start doing more systematic experimentation of our intuitions.
345
959330
5000
daha fazla sistematik deneyler yapmaya başlasak herşey nasıl daha iyi olabilir.
16:04
Thank you very much.
346
964330
2000
Çok teşekkür ediyorum.
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7