What really motivates people to be honest in business | Alexander Wagner

233,748 views ・ 2017-09-26

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Selda Yener
00:12
How many companies have you interacted with today?
0
12580
3440
Bugün kaç şirketle iletişim kurdunuz?
00:17
Well, you got up in the morning,
1
17060
1656
Sabah kalktınız,
00:18
took a shower,
2
18740
1215
duş aldınız,
00:19
washed your hair,
3
19980
1256
saçınızı yıkadınız,
00:21
used a hair dryer,
4
21260
1536
saçınızı kuruttunuz,
00:22
ate breakfast --
5
22820
1216
kahvaltı yaptınız,
00:24
ate cereals, fruit, yogurt, whatever --
6
24060
1858
gevrek, meyve, yoğurt vs. yediniz,
00:25
had coffee --
7
25942
1214
kahve içtiniz,
00:27
tea.
8
27180
1376
çay.
00:28
You took public transport to come here,
9
28580
1976
Buraya gelmek için toplu taşımaya bindiniz
00:30
or maybe used your private car.
10
30580
1840
ya da özel arabanızla geldiniz.
00:33
You interacted with the company that you work for or that you own.
11
33340
3560
Çalıştığınız ya da sahibi olduğunuz şirketle etkileşim içindeydiniz.
00:37
You interacted with your clients,
12
37980
1960
Müşterilerinizle etkileşim içindeydiniz,
00:40
your customers,
13
40580
1200
iş çevrenizle
00:42
and so on and so forth.
14
42460
1256
vesaire.
00:43
I'm pretty sure there are at least seven companies
15
43740
3616
Bugün en az yedi şirketle
00:47
you've interacted with today.
16
47380
1760
iletişim kurduğunuzdan eminim.
00:49
Let me tell you a stunning statistic.
17
49780
2000
Size şaşırtıcı bir istatistik vereyim.
00:52
One out of seven large, public corporations
18
52660
4376
Her yıl yedi büyük kamu kurumundan biri
00:57
commit fraud every year.
19
57060
2240
yolsuzluk yapıyor.
01:00
This is a US academic study that looks at US companies --
20
60220
3416
ABD'li şirketleri inceleyen, ABD'de yapılan bir akademik çalışma bu.
01:03
I have no reason to believe that it's different in Europe.
21
63660
3200
Avrupa'da farklı olduğuna inanasım gelmiyor.
01:07
This is a study that looks at both detected and undetected fraud
22
67300
4216
Bu çalışma istatistiksel yöntemler kullanarak tespit edilmiş ve edilmemiş
01:11
using statistical methods.
23
71540
1736
yolsuzlukları inceliyor.
01:13
This is not petty fraud.
24
73300
1720
Bunlar küçük çaplı yolsuzluklar değil.
01:15
These frauds cost the shareholders of these companies,
25
75940
2856
Bu yolsuzluklar bu şirketlerin sahiplerine
01:18
and therefore society,
26
78820
1256
ve dolayısıyla topluma
01:20
on the order of 380 billion dollars per year.
27
80100
3600
yıllık yaklaşık 380 milyar dolara mal oluyor.
01:24
We can all think of some examples, right?
28
84780
2216
Hepimizin aklına bazı örnekler geliyor değil mi?
01:27
The car industry's secrets aren't quite so secret anymore.
29
87020
3800
Otomobil sanayiinin sırları artık o kadar da gizli değil.
01:31
Fraud has become a feature,
30
91620
3296
Finansal hizmetler endüstrisinde
01:34
not a bug,
31
94940
1216
yolsuzluk bir kusur değil
01:36
of the financial services industry.
32
96180
1936
özellik olmuş.
01:38
That's not me who's claiming that,
33
98140
2216
Bunu ben iddia etmiyorum,
01:40
that's the president of the American Finance Association
34
100380
3256
bunu başkanlık makamında dile getiren
01:43
who stated that in his presidential address.
35
103660
2936
AFA Başkanı.
01:46
That's a huge problem if you think about, especially,
36
106620
2736
Olağanüstü bir sorun bu. Özellikle de
01:49
an economy like Switzerland,
37
109380
1696
İsviçre ekonomisi gibi
01:51
which relies so much on the trust put into its financial industry.
38
111100
4200
finans endüstrisine yatırım yapılan tröste dayalı bir ekonomi açısından.
01:56
On the other hand,
39
116780
1216
Öte yandan
01:58
there are six out of seven companies who actually remain honest
40
118020
3536
yolsuzluğa bulaşmanın tüm çekiciliğine rağmen
02:01
despite all temptations to start engaging in fraud.
41
121580
3840
yedi şirketten altısı dürüst kalabilmiş.
02:06
There are whistle-blowers like Michael Woodford,
42
126060
2296
Olympus'ı deşifre eden
02:08
who blew the whistle on Olympus.
43
128380
2336
Michael Woodford gibi itirafçılar var.
02:10
These whistle-blowers risk their careers,
44
130740
2696
Bu itirafçılar kendi kariyerlerini,
02:13
their friendships,
45
133460
1216
dostluklarını
02:14
to bring out the truth about their companies.
46
134700
2136
şirketleri ile ilgili gerçekleri ortaya çıkarmak için riske atıyor.
02:16
There are journalists like Anna Politkovskaya
47
136860
2616
Anna Plitkovskaya gibi insan hakları ihlallerini
02:19
who risk even their lives to report human rights violations.
48
139500
3856
haber yapmak için yaşamını tehlikeye atanlar bile var.
02:23
She got killed --
49
143380
1216
Öldürüldü,
02:24
every year,
50
144620
1216
her yıl
02:25
around 100 journalists get killed
51
145860
1656
yaklaşık 100 gazeteci
02:27
because of their conviction to bring out the truth.
52
147540
2720
gerçeği ortaya çıkarmaya olan inancı yüzünden öldürülüyor.
02:31
So in my talk today,
53
151860
1256
Bugünkü konuşmamda
02:33
I want to share with you some insights I've obtained and learned
54
153140
3496
bu araştırmayı yürütürken son on yıl içinde
02:36
in the last 10 years of conducting research in this.
55
156660
3296
edindiğim ve öğrendiğim bazı bilgileri paylaşmak istiyorum.
02:39
I'm a researcher, a scientist working with economists,
56
159980
3496
Ben ekonomistler,
02:43
financial economists,
57
163500
1336
ekonomistler,
02:44
ethicists, neuroscientists,
58
164860
2056
ahlakbilimciler, sinirbilimciler,
02:46
lawyers and others
59
166940
1336
avukatlar ve diğerleriyle çalışan bir araştırmacıyım,
02:48
trying to understand what makes humans tick,
60
168300
2096
insanları motive eden şeyin ne olduğunu
02:50
and how can we address this issue of fraud in corporations
61
170420
4776
ve kurumlardaki bu yolsuzluk konusunu nasıl ele alabileceğimizi
02:55
and therefore contribute to the improvement of the world.
62
175220
3160
ve dünyanın ilerlemesine nasıl katkıda bulunacağımızı anlamaya çalışıyorum.
02:59
I want to start by sharing with you two very distinct visions
63
179100
3536
Sizinle insanların davranış şekliyle ilgili
03:02
of how people behave.
64
182660
1816
iki ayrı görüş paylaşmak istiyorum.
03:04
First, meet Adam Smith,
65
184500
1840
İlk olarak, Adam Smith'i tanıyalım,
03:07
founding father of modern economics.
66
187020
1960
modern ekonominin kurucusudur.
03:10
His basic idea was that if everybody behaves in their own self-interests,
67
190100
4296
Temel fikri şu; herkes kendi çıkarına yönelik davranışta bulunursa
03:14
that's good for everybody in the end.
68
194420
2520
sonuçta bu herkes için iyi olacaktır.
03:17
Self-interest isn't a narrowly defined concept
69
197900
3056
Kişisel çıkar anlık faydalanma gibi dar bir konsepti
03:20
just for your immediate utility.
70
200980
1936
tanımlamıyor.
03:22
It has a long-run implication.
71
202940
1936
Uzun vadeli etkileri var.
03:24
Let's think about that.
72
204900
1480
Şimdi bunu düşenelim.
03:26
Think about this dog here.
73
206900
2016
Şu köpeği düşünün.
03:28
That might be us.
74
208940
1200
Bize de olabilirdi bu.
03:31
There's this temptation --
75
211260
1256
Cezbedicilik var burada.
03:32
I apologize to all vegetarians, but --
76
212540
2376
Tüm vejetaryenlerden de özür dilerim ama
03:34
(Laughter)
77
214940
1016
03:35
Dogs do like the bratwurst.
78
215980
1696
(Gülüşmeler)
Köpekler domuz sucuğunu hayli sever.
03:37
(Laughter)
79
217700
2376
(Kahkahalar)
03:40
Now, the straight-up, self-interested move here
80
220100
3096
Şimdi, hakikaten burada kişisel çıkarlı hareket
03:43
is to go for that.
81
223220
1576
onu elde etmektir.
03:44
So my friend Adam here might jump up,
82
224820
2936
Arkadaşım Adam zıplayabilir,
03:47
get the sausage and thereby ruin all this beautiful tableware.
83
227780
3360
sosisi alır ve tüm bu güzel tabak çanağı kırabilir.
03:51
But that's not what Adam Smith meant.
84
231820
1816
Ama Adam Smith'in kastettiği bu değil.
03:53
He didn't mean disregard all consequences --
85
233660
2656
Aksine, tüm sonuçları görmezden gelmeyi
03:56
to the contrary.
86
236340
1216
kastetmiyor.
03:57
He would have thought,
87
237580
1256
Olumsuz sonuçların olabileceğini
03:58
well, there may be negative consequences,
88
238860
2016
düşünmüş olmalı,
04:00
for example,
89
240900
1216
örneğin
04:02
the owner might be angry with the dog
90
242140
3096
sahibinin köpeğe kızma ihtimali var
04:05
and the dog, anticipating that, might not behave in this way.
91
245260
3600
ve köpek de bunu sezerek bu davranışta bulunmayabilir.
04:09
That might be us,
92
249660
1256
Biz de yaptıklarımızın
04:10
weighing the benefits and costs of our actions.
93
250940
3056
fayda ve maliyetini tartabiliriz.
04:14
How does that play out?
94
254020
1240
Peki nasıl olur?
04:15
Well, many of you, I'm sure,
95
255780
1976
Eminim bir çoğunuzun
04:17
have in your companies,
96
257780
1536
işyerlerinde,
04:19
especially if it's a large company,
97
259340
1816
özellikle de büyük bir şirketse
04:21
a code of conduct.
98
261180
1656
iş ahlakı vardır.
04:22
And then if you behave according to that code of conduct,
99
262860
3416
Dolayısıyla bu kurallara göre davranırsanız
04:26
that improves your chances of getting a bonus payment.
100
266300
3176
ikramiye alma şansınız artar.
04:29
And on the other hand, if you disregard it,
101
269500
2135
Diğer yandan bunu görmezden gelirseniz
04:31
then there are higher chances of not getting your bonus
102
271659
2737
o zaman ikramiye alma ihtimali düşer,
04:34
or its being diminished.
103
274420
1536
ya da kesinti yapılır.
04:35
In other words,
104
275980
1256
Diğer bir deyişle,
04:37
this is a very economic motivation
105
277260
1816
bu yöntem insanların daha dürüst
04:39
of trying to get people to be more honest,
106
279100
2776
davranmasını sağlayan çok ekonomik bir motivasyondur
04:41
or more aligned with the corporation's principles.
107
281900
3360
ya da kurumun ilkelerine uygundur.
04:46
Similarly, reputation is a very powerful economic force, right?
108
286060
5256
İtibar da tıpkı bunun gibi çok kuvvetli ekonomik güçtür değil mi?
04:51
We try to build a reputation,
109
291340
1536
İtibar kazanmaya çalışırız,
04:52
maybe for being honest,
110
292900
1416
dürüst olmak işe yarayabilir,
04:54
because then people trust us more in the future.
111
294340
2400
çünkü o zaman insanlar bize daha çok güvenecektir.
04:57
Right?
112
297780
1216
Öyle değil mi?
04:59
Adam Smith talked about the baker
113
299020
2096
Adam Smith'in bahsettiği fırıncı,
05:01
who's not producing good bread out of his benevolence
114
301140
3776
ekmek tüketenlere olan yardımseverliğinden değil
05:04
for those people who consume the bread,
115
304940
3016
ileride daha çok ekmek satmak için
05:07
but because he wants to sell more future bread.
116
307980
3040
ekmek üretir.
05:11
In my research, we find, for example,
117
311980
2216
Araştırmalarımda, mesela
05:14
at the University of Zurich,
118
314220
1376
Zürih Üniversitesi'nde,
05:15
that Swiss banks who get caught up in media,
119
315620
4200
medyaya yer alan İsviçre bankalarının
05:20
and in the context, for example,
120
320540
1776
vergi kaçakçılığı veya
05:22
of tax evasion, of tax fraud,
121
322340
1536
vergi yolsuzluğu gibi konularda
05:23
have bad media coverage.
122
323900
1736
kötü bir yeri olduğunu saptadık.
05:25
They lose net new money in the future
123
325660
2736
Para kaybedecekler,
05:28
and therefore make lower profits.
124
328420
1616
dolayısıyla daha az kâr edecekler.
05:30
That's a very powerful reputational force.
125
330060
2360
Bu itibar açısından çok önemli bir güç.
05:34
Benefits and costs.
126
334020
1600
Fayda ve maliyetler.
05:36
Here's another viewpoint of the world.
127
336940
2576
Şimdi başka bir bakış açısını ele alalım.
05:39
Meet Immanuel Kant,
128
339540
1536
Immanuel Kant'ı tanıyalım.
05:41
18th-century German philosopher superstar.
129
341100
2760
18. yy meşhur Alman filozofu.
05:44
He developed this notion
130
344740
1616
Kant, sonuçlardan bağımsız olarak
05:46
that independent of the consequences,
131
346380
3136
bazı davranışlarımızın tümüyle doğru
05:49
some actions are just right
132
349540
2976
bazılarının da tamamen yanlış olduğu
05:52
and some are just wrong.
133
352540
1696
düşüncesini geliştirmiştir.
05:54
It's just wrong to lie, for example.
134
354260
3216
Mesela yalan söylemek tamamen yanlıştır.
05:57
So, meet my friend Immanuel here.
135
357500
3136
Şimdi burada arkadaşıma Imanuel'i uygulayalım.
06:00
He knows that the sausage is very tasty,
136
360660
2816
Sosisin lezzetli olduğunu biliyor
06:03
but he's going to turn away because he's a good dog.
137
363500
2456
ama geri dönecek çünkü o iyi bir köpek.
06:05
He knows it's wrong to jump up
138
365980
2696
Üstüne atlamanın ve tüm bu güzel tabak çanağı
06:08
and risk ruining all this beautiful tableware.
139
368700
2800
riske atmanın yanlış olduğunu biliyor.
06:12
If you believe that people are motivated like that,
140
372340
2416
İnsanların da böyle motive olduğunu sanıyorsanız
06:14
then all the stuff about incentives,
141
374780
2176
o zaman tüm teşvikler,
06:16
all the stuff about code of conduct and bonus systems and so on,
142
376980
3776
tüm iş ahlakı ve ikramiye sistemi ve benzeri şeylerin
06:20
doesn't make a whole lot of sense.
143
380780
2176
hiçbiri bir anlam ifade etmez.
06:22
People are motivated by different values perhaps.
144
382980
4176
Belki de insanları farklı değerler motive ediyordur.
06:27
So, what are people actually motivated by?
145
387180
3376
O halde insanları asıl motive eden ne?
06:30
These two gentlemen here have perfect hairdos,
146
390580
2176
Bu iki beyefendinin saç şekilleri mükemmel
06:32
but they give us very different views of the world.
147
392780
4480
ama bize çok farklı dünya görüşleri veriyorlar.
06:37
What do we do with this?
148
397660
1256
Buradan ne çıkarabiliriz?
06:38
Well, I'm an economist
149
398940
1656
Ben bir ekonomistim,
06:40
and we conduct so-called experiments to address this issue.
150
400620
4176
ayrıca bu konuya gönderme yapan deneyler yürütüyoruz.
06:44
We strip away facts which are confusing in reality.
151
404820
3296
Gerçek hayatta kafa karıştıran gerçekleri ortaya çıkarıyoruz.
06:48
Reality is so rich, there is so much going on,
152
408140
2736
Gerçek hayat çok geniş, devam eden birçok şey var,
06:50
it's almost impossible to know what drives people's behavior really.
153
410900
3960
insan davranışlarını motive eden şeyi bilmek neredeyse imkansız.
06:55
So let's do a little experiment together.
154
415340
2720
Şimdi hep birlikte küçük bir deney yapalım.
06:58
Imagine the following situation.
155
418500
2600
Şu durumu hayal edin:
07:02
You're in a room alone,
156
422220
2416
Bir odada yalnızsınız,
07:04
not like here.
157
424660
1536
böyle bir oda değil.
07:06
There's a five-franc coin like the one I'm holding up right now
158
426220
3440
Şu an elimde tuttuğum gibi önünüzde duran
07:10
in front of you.
159
430380
1576
beş franklık madeni para var.
07:11
Here are your instructions:
160
431980
1576
Şunları yapacaksınız:
07:13
toss the coin four times,
161
433580
2480
Dört kez yazı tura atın,
07:17
and then on a computer terminal in front of you,
162
437620
2416
sonra önünüzde duran bilgisayar uçbirimine
07:20
enter the number of times tails came up.
163
440060
3656
kaç kez yazı geldiğini girin.
07:23
This is the situation.
164
443740
1280
Durum bu.
07:25
Here's the rub.
165
445540
1216
Soru geliyor:
07:26
For every time that you announce that you had a tails throw,
166
446780
3376
Her yazı attığınızı bildirdiğinizde
07:30
you get paid five francs.
167
450180
1496
beş frank kazanıyorsunuz.
07:31
So if you say I had two tails throws,
168
451700
2536
Yani iki kez yazı geldi derseniz
07:34
you get paid 10 francs.
169
454260
2216
10 frank kazanırsınız.
07:36
If you say you had zero, you get paid zero francs.
170
456500
2936
Hiç gelmedi derseniz sıfır frank kazanırsınız.
07:39
If you say, "I had four tails throws,"
171
459460
2456
"Dört kez yazı geldi" derseniz
07:41
then you get paid 20 francs.
172
461940
2016
20 frank alacaksınız.
07:43
It's anonymous,
173
463980
1256
Gizli bir şey bu,
07:45
nobody's watching what you're doing,
174
465260
1896
kimse ne yaptığınızı izlemiyor
07:47
and you get paid that money anonymously.
175
467180
2336
ve para da gizli olarak ödeniyor.
07:49
I've got two questions for you.
176
469540
1477
Size iki sorum var:
07:51
(Laughter)
177
471580
1616
(Kahkahalar)
07:53
You know what's coming now, right?
178
473220
1640
Ne olduğunu anladınız değil mi?
07:55
First, how would you behave in that situation?
179
475820
3480
Birincisi, böyle bir durumda nasıl davranırdınız?
08:00
The second, look to your left and look to your right --
180
480060
2936
İkincisi, solunuza ve sağınıza bakın
08:03
(Laughter)
181
483020
1016
(Kahkahalar)
08:04
and think about how the person sitting next to you
182
484060
2376
ve yanınızda oturan kişinin böyle bir durumda
08:06
might behave in that situation.
183
486460
1656
nasıl davranmış olabileceğini düşünün.
08:08
We did this experiment for real.
184
488140
2136
Biz bu deneyi gerçekten yaptık.
08:10
We did it at the Manifesta art exhibition
185
490300
2696
Geçtiğimiz günlerde Zürih'de yapılan
08:13
that took place here in Zurich recently,
186
493020
2456
Manifesta sanat sergisinde yaptık bunu,
08:15
not with students in the lab at the university
187
495500
2856
üniversitede laboratuvarda öğrencilerle beraber değil
08:18
but with the real population,
188
498380
1776
gerçek bir grupla yaptık,
08:20
like you guys.
189
500180
1200
tıpkı sizler gibi.
08:21
First, a quick reminder of stats.
190
501900
2136
Önce biraz istatistikleri hatırlayalım.
08:24
If I throw the coin four times and it's a fair coin,
191
504060
3576
Dört kez yazı tura atsam ve bunu açıkça yapsam
08:27
then the probability that it comes up four times tails
192
507660
4096
dört kez yazı çıkma ihtimali
08:31
is 6.25 percent.
193
511780
2400
yüzde 6.25'tir.
08:34
And I hope you can intuitively see
194
514900
1656
Ayrıca, umarım sezgisel olarak
08:36
that the probability that all four of them are tails is much lower
195
516580
3376
hepsinin dört kez yazı gelme ihtimalinin iki kez yazı gelme ihtimalinden
08:39
than if two of them are tails, right?
196
519980
2120
daha düşük olduğunu anlayabilirsiniz.
08:42
Here are the specific numbers.
197
522580
1440
Kesin rakamları görüyorsunuz.
08:45
Here's what happened.
198
525859
1496
Ne olmuş bakalım.
08:47
People did this experiment for real.
199
527379
2201
İnsanlar bu deneyi gerçekten yaptı.
08:50
Around 30 to 35 percent of people said,
200
530619
3336
Yüzde 30-35 gibi bir kısmı
08:53
"Well, I had four tails throws."
201
533979
2401
"Bana dört kez yazı geldi." dedi.
08:57
That's extremely unlikely.
202
537460
1816
Bu son derece olasılık dışı.
08:59
(Laughter)
203
539300
1936
(Gülüşmeler)
09:01
But the really amazing thing here,
204
541260
3136
Ama burada asıl şaşırtıcı olan
09:04
perhaps to an economist,
205
544420
1296
belki bir ekonomiste göre,
09:05
is there are around 65 percent of people who did not say I had four tails throws,
206
545740
6536
insanların yüzde 65'inin dördü de yazı geldi dememesidir,
09:12
even though in that situation,
207
552300
2176
kimsenin sizi izlemediği
09:14
nobody's watching you,
208
554500
2096
böyle bir durumda bile,
09:16
the only consequence that's in place
209
556620
1936
hem de daha az söylemektense
09:18
is you get more money if you say four than less.
210
558580
3336
dört deseniz daha fazla para kazanacakken.
09:21
You leave 20 francs on the table by announcing zero.
211
561940
3280
Sıfır diyerek 20 frankı masada bırkıyorsunuz.
09:25
I don't know whether the other people all were honest
212
565860
2576
Diğer insanların tümü dürüst mü davrandı bilmiyorum
09:28
or whether they also said a little bit higher or lower than what they did
213
568460
3456
veya yaptıklarından biraz fazla ya da az mı söylediler bilmiyorum
09:31
because it's anonymous.
214
571940
1216
çünkü gizliydi.
09:33
We only observed the distribution.
215
573180
1656
Biz sadece dağılımı inceledik.
09:34
But what I can tell you -- and here's another coin toss.
216
574860
2656
Ama şunu söyleyebilirim, başka bir yazı tura geliyor.
09:37
There you go, it's tails.
217
577540
1496
İşte atıyorum, yazı çıktı.
09:39
(Laughter)
218
579060
1496
(Kahkahalar)
09:40
Don't check, OK?
219
580580
1456
Kontrol yok, anlaştık mı?
09:42
(Laughter)
220
582060
2816
(Kahkahalar)
09:44
What I can tell you
221
584900
1296
Size söyleyebileceğim şu ki
09:46
is that not everybody behaved like Adam Smith would have predicted.
222
586220
4440
herkes Adam Smith'in öngördüğü gibi davranmadı.
09:52
So what does that leave us with?
223
592660
1576
Peki bu bize ne öğretiyor?
09:54
Well, it seems people are motivated by certain intrinsic values
224
594260
4496
Yani, insanları bazı içsel değerler motive ediyor
09:58
and in our research, we look at this.
225
598780
1800
ve araştırmamızda bunu inceledik.
10:01
We look at the idea that people have so-called protected values.
226
601260
4480
İnsanların korunan değerleri olduğu görüşünü ele aldık.
10:06
A protected value isn't just any value.
227
606580
2816
Korunan değer sıradan bir değer değildir.
10:09
A protected value is a value where you're willing to pay a price
228
609420
5816
Korunan değer, bu değeri korumak için bedel ödemeye
10:15
to uphold that value.
229
615260
1256
istekli olduğunuz şeydir.
10:16
You're willing to pay a price to withstand the temptation to give in.
230
616540
4440
Cazibeye rağmen pes etmemek için bedel ödemeye razısınızdır.
10:22
And the consequence is you feel better
231
622020
2656
Bunun sonucunda, değerlerinizle uyuşan bir şekilde
10:24
if you earn money in a way that's consistent with your values.
232
624700
4296
para kazanırsanız daha iyi hissedersiniz.
10:29
Let me show you this again in the metaphor of our beloved dog here.
233
629020
4280
Bunu tekrar sevgili köpeğimizle olan metaforda göstereyim.
10:34
If we succeed in getting the sausage without violating our values,
234
634420
4056
Değerlerimizi çiğnemeden sosisi almayı başarırsak
10:38
then the sausage tastes better.
235
638500
1976
sosis daha lezzetli gelir.
10:40
That's what our research shows.
236
640500
1480
Araştırmamızın gösterdiği şey böyle.
10:42
If, on the other hand,
237
642540
1256
Diğer yandan,
10:43
we do so --
238
643820
1256
şöyle oluyor:
10:45
if we get the sausage
239
645100
1416
Sosisi alırsak
10:46
and in doing so we actually violate values,
240
646540
3456
ve bunu yaparken değerlerimizi çiğnersek
10:50
we value the sausage less.
241
650020
2976
sosise daha az değer vermiş oluyoruz.
10:53
Quantitatively, that's quite powerful.
242
653020
2456
Nicelik bakımından bu oldukça yüksek.
10:55
We can measure these protected values,
243
655500
2456
Bu korunan değerleri ölçebiliriz,
10:57
for example,
244
657980
1216
mesela
10:59
by a survey measure.
245
659220
1920
bir araştırma ölçütüyle.
11:02
Simple, nine-item survey that's quite predictive in these experiments.
246
662180
5976
Çok basit, bu tür deneylerde oldukça öngörücü dokuz maddelik anket.
11:08
If you think about the average of the population
247
668180
2336
Katılanların ortalamasını düşünürseniz
11:10
and then there's a distribution around it --
248
670540
2096
bu civarlarda bir dağılım olur,
11:12
people are different, we all are different.
249
672660
2040
insanlar farklıdır, hepimiz farklıyız.
11:15
People who have a set of protected values
250
675300
2976
Bir dizi korunan değerleri olan insanlar,
11:18
that's one standard deviation above the average,
251
678300
4176
-bu ortalamanın üzerinde bir standart sapma-
11:22
they discount money they receive by lying by about 25 percent.
252
682500
5056
aldıkları parayı yalan söyleyerek yaklaşık %25 eksiltiyorlar.
11:27
That means a dollar received when lying
253
687580
3616
Yani yalan söyleyerek aldıkları bir dolar,
11:31
is worth to them only 75 cents
254
691220
2136
dürüst davranmaları için herhangi bir
11:33
without any incentives you put in place for them to behave honestly.
255
693380
3696
teşvik devreye sokmadığınız takdirde onlar için sadece 75 sent değerindedir.
11:37
It's their intrinsic motivation.
256
697100
1736
Onların içsel motivasyonu bu.
11:38
By the way, I'm not a moral authority.
257
698860
1856
Bu arada ben de ahlaki otorite değilim.
11:40
I'm not saying I have all these beautiful values, right?
258
700740
2920
Tüm bu güzel değerleri ben taşıyorum demiyorum yani.
11:44
But I'm interested in how people behave
259
704260
1936
Fakat insanların davranışlarıyla
11:46
and how we can leverage that richness in human nature
260
706220
3376
ve insan doğasındaki bu zenginlikleri kurumlarımızın işleyişini
11:49
to actually improve the workings of our organizations.
261
709620
3440
gerçekten artırmak için nasıl yükseltebileceğimizle ilgileniyorum.
11:54
So there are two very, very different visions here.
262
714220
3176
İşte burada çok çok farklı iki görüş var.
11:57
On the one hand,
263
717420
1336
Bir yandan
11:58
you can appeal to benefits and costs
264
718780
3016
fayda ve maliyet size cazip gelebilir
12:01
and try to get people to behave according to them.
265
721820
2656
ve buna göre hareket edenleri işe alabilirsiniz.
12:04
On the other hand,
266
724500
1616
Diğer yandan,
12:06
you can select people who have the values
267
726140
4016
kendi değerleri ve
12:10
and the desirable characteristics, of course --
268
730180
2216
arzu ettiğiniz özellikleri olan, tabii ki
12:12
competencies that go in line with your organization.
269
732420
3576
kurumunuzla uygun düşen yetenekleri olan insanları seçebilirsiniz.
12:16
I do not yet know where these protected values really come from.
270
736020
4216
Bu korunan değerler gerçekten nereden geliyor bilemiyorum.
12:20
Is it nurture or is it nature?
271
740260
3376
Yetişme şekli midir, fıtrat mı?
12:23
What I can tell you
272
743660
1376
Sizlere bu dağılımın
12:25
is that the distribution looks pretty similar for men and women.
273
745060
5096
kadın ve erkeklerde oldukça benzediğini söyleyebilirim.
12:30
It looks pretty similar for those who had studied economics
274
750180
3776
Ekonomi okuyanlar veya psikoloji okuyanlarda
12:33
or those who had studied psychology.
275
753980
2360
çok benziyor.
12:37
It looks even pretty similar around different age categories
276
757820
3376
Hatta yetişkinlerde farklı yaş grupları arasında
12:41
among adults.
277
761220
1216
çok benziyor.
12:42
But I don't know yet how this develops over a lifetime.
278
762460
2656
Fakat yaşam boyu bu nasıl gelişiyor henüz bilmiyorum.
12:45
That will be the subject of future research.
279
765140
3440
Gelecek araştırma konum bu olacak.
12:49
The idea I want to leave you with
280
769460
1656
Sizi teşviklere başvurmada
12:51
is it's all right to appeal to incentives.
281
771140
2776
bir sorun olmadığı fikriyle bırakmak istiyorum.
12:53
I'm an economist;
282
773940
1216
Ben bir ekonomistim,
12:55
I certainly believe in the fact that incentives work.
283
775180
2920
teşviklerin işe yaradığına kesinlikle inanıyorum.
12:59
But do think about selecting the right people
284
779220
4016
Fakat insanları işe alıp sonra teşvikleri devreye sokmaktan ziyade
13:03
rather than having people and then putting incentives in place.
285
783260
3496
doğru insanı seçme konusunda iyi düşünün.
13:06
Selecting the right people with the right values
286
786780
2256
Dürüst değerlere sahip doğru insanları seçmek
13:09
may go a long way to saving a lot of trouble
287
789060
3936
kurumlarınızda birçok problemden kurtulmak
13:13
and a lot of money
288
793020
1376
ve para kazanmak açısından
13:14
in your organizations.
289
794420
1736
destekleyici olabilir.
13:16
In other words,
290
796180
1256
Diğer bir deyişle,
13:17
it will pay off to put people first.
291
797460
3760
"insana" öncelik tanımak buna değecektir.
13:21
Thank you.
292
801860
1216
Teşekkür ederim.
13:23
(Applause)
293
803100
3640
(Alkışlar)
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7