Laurie Santos: How monkeys mirror human irrationality

Laurie Santos: Bizimki kadar mantık dışı bir maymun ekonomisi

197,716 views

2010-07-29 ・ TED


New videos

Laurie Santos: How monkeys mirror human irrationality

Laurie Santos: Bizimki kadar mantık dışı bir maymun ekonomisi

197,716 views ・ 2010-07-29

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Serap Çakıl Gözden geçirme: Sancak Gülgen
00:17
I want to start my talk today with two observations
0
17260
2000
Bugün konuşmama insan türü hakkında yaptığım
00:19
about the human species.
1
19260
2000
iki gözlemle başlamak istiyorum.
00:21
The first observation is something that you might think is quite obvious,
2
21260
3000
İlk gözlem, oldukça açık olduğunu düşündüğünüz bir gözlem olabilir,
00:24
and that's that our species, Homo sapiens,
3
24260
2000
ve bu da, türümüzün, Homosapiens'in,
00:26
is actually really, really smart --
4
26260
2000
aslında gerçekten, gerçekten zeki olduğu -
00:28
like, ridiculously smart --
5
28260
2000
sanki, saçma bir şekilde zeki-
00:30
like you're all doing things
6
30260
2000
sanki şu anda dünya üzerindeki hiç bir
00:32
that no other species on the planet does right now.
7
32260
3000
canlının yapamadığı şeyleri yapıyorsunuz gibi.
00:35
And this is, of course,
8
35260
2000
Ve bu, elbette, bunu
00:37
not the first time you've probably recognized this.
9
37260
2000
muhtemelen ilk kez fark etmiyorsunuz.
00:39
Of course, in addition to being smart, we're also an extremely vain species.
10
39260
3000
Elbette, akıllı olmaya ek olarak, aynı zamanda son derece kibirli bir türüz.
00:42
So we like pointing out the fact that we're smart.
11
42260
3000
Yani akıllı olduğumuz gerçeğine dikkat çekmekten hoşlanırız.
00:45
You know, so I could turn to pretty much any sage
12
45260
2000
Yani, böylece Shakepeare'den Stephen Colbert'e
00:47
from Shakespeare to Stephen Colbert
13
47260
2000
neredeyse herhangi bir bilge kişiye dönüp
00:49
to point out things like the fact that
14
49260
2000
mantık ve sonsuz yetenekler söz konusu olduğunda
00:51
we're noble in reason and infinite in faculties
15
51260
2000
yüce gönüllü ve beyinle ilgili her şey söz konusu olduğunda
00:53
and just kind of awesome-er than anything else on the planet
16
53260
2000
yeryüzündeki herhangi bir şeyden
00:55
when it comes to all things cerebral.
17
55260
3000
biraz daha muhteşem gibiyiz.
00:58
But of course, there's a second observation about the human species
18
58260
2000
Ama elbette, insan türü ile ilgili olan ikinci bir gözlem var
01:00
that I want to focus on a little bit more,
19
60260
2000
daha fazla dikkat çekmek istediğim,
01:02
and that's the fact that
20
62260
2000
ve bu da, gerçekten çok akıllı,
01:04
even though we're actually really smart, sometimes uniquely smart,
21
64260
3000
bazen eşsiz bir şekilde akıllı olmamıza rağmen,
01:07
we can also be incredibly, incredibly dumb
22
67260
3000
aynı zamanda inanılmaz, inanılmaz derecede budala
01:10
when it comes to some aspects of our decision making.
23
70260
3000
olabiliyoruz, karar vermenin bazı yönleri söz konusu olduğu zaman.
01:13
Now I'm seeing lots of smirks out there.
24
73260
2000
Şimdi birçok sırıtış görüyorum burada.
01:15
Don't worry, I'm not going to call anyone in particular out
25
75260
2000
Üzülmeyin, özellikle birinizi hatalarınızın
01:17
on any aspects of your own mistakes.
26
77260
2000
herhangi bir yönüyle ilgili adlandırmayacağım.
01:19
But of course, just in the last two years
27
79260
2000
Ama elbette, sadece son iki yılda
01:21
we see these unprecedented examples of human ineptitude.
28
81260
3000
insan beceriksizliğinin benzeri görülmemiş örneklerini gördük.
01:24
And we've watched as the tools we uniquely make
29
84260
3000
Ve çevremizden kaynakları çekip çıkarması için
01:27
to pull the resources out of our environment
30
87260
2000
özel olarak yaptığımız araçların bir nevi
01:29
kind of just blow up in our face.
31
89260
2000
suratımızda patladığını izledik.
01:31
We've watched the financial markets that we uniquely create --
32
91260
2000
Benzersiz yarattığımız finans pazarlarının - bu pazarların
01:33
these markets that were supposed to be foolproof --
33
93260
3000
hatasız olması gerekiyordu - bu pazarların
01:36
we've watched them kind of collapse before our eyes.
34
96260
2000
gözlerimizin önünde çöküşünü izledik.
01:38
But both of these two embarrassing examples, I think,
35
98260
2000
Ama bu iki utanç verici örnek, sanırım,
01:40
don't highlight what I think is most embarrassing
36
100260
3000
insanların yaptığı hatalar hakkında
01:43
about the mistakes that humans make,
37
103260
2000
en utanç verici olduğunu düşündüğüm şey dikkat çekmiyor.
01:45
which is that we'd like to think that the mistakes we make
38
105260
3000
Bu da, yaptığımız hataların gerçekten sadece birkaç tane
01:48
are really just the result of a couple bad apples
39
108260
2000
çürük elma ya da gerçekten bloglamaya değer
01:50
or a couple really sort of FAIL Blog-worthy decisions.
40
110260
3000
birkaç BAŞARISIZLIK olduğunu düşünmek istememiz.
01:53
But it turns out, what social scientists are actually learning
41
113260
3000
Ama anlaşılan o ki, sosyal bilimcilerin aslında öğrendikleri,
01:56
is that most of us, when put in certain contexts,
42
116260
3000
çoğumuzun, belli bağlamlar içine konduğunda,
01:59
will actually make very specific mistakes.
43
119260
3000
aslında çok belirli hatalar yapacağımızdır.
02:02
The errors we make are actually predictable.
44
122260
2000
Yaptığımız hatalar aslında tahmin edilebilir.
02:04
We make them again and again.
45
124260
2000
Onları tekrar tekrar yaparız.
02:06
And they're actually immune to lots of evidence.
46
126260
2000
Ve bunlar aslında birçok kanıttan etkilenmiyor.
02:08
When we get negative feedback,
47
128260
2000
Olumsuz geribildirim aldığımızda,
02:10
we still, the next time we're face with a certain context,
48
130260
3000
hâlâ, belirli bir bağlamla karşılaştığımızda,
02:13
tend to make the same errors.
49
133260
2000
aynı hataları yapma eğiliminde oluyoruz.
02:15
And so this has been a real puzzle to me
50
135260
2000
Ve bu benim için gerçek bir bulmaca oldu,
02:17
as a sort of scholar of human nature.
51
137260
2000
insan doğasının bir tür öğrencisi gibi.
02:19
What I'm most curious about is,
52
139260
2000
En çok merak ettiğim, bizim gibi
02:21
how is a species that's as smart as we are
53
141260
3000
zeki bir türün nasıl olur da
02:24
capable of such bad
54
144260
2000
sürekli bu kadar kötü ve
02:26
and such consistent errors all the time?
55
146260
2000
bu kadar tutarlı bir şekilde hata yaptığı?
02:28
You know, we're the smartest thing out there, why can't we figure this out?
56
148260
3000
Biliyorsunuz, biz en zekiyiz, nasıl bunu çözemiyoruz?
02:31
In some sense, where do our mistakes really come from?
57
151260
3000
Bir anlamda, hatalarımız gerçekten nereden geliyor?
02:34
And having thought about this a little bit, I see a couple different possibilities.
58
154260
3000
Ve bu konuda biraz düşününce, birkaç farklı ihtimal gördüm.
02:37
One possibility is, in some sense, it's not really our fault.
59
157260
3000
Bir ihtimal, bir anlamda, aslında bizim hatamız değil.
02:40
Because we're a smart species,
60
160260
2000
Zeki bir tür olduğumuz için,
02:42
we can actually create all kinds of environments
61
162260
2000
aslında süper, süper karmaşık türlü ortamlar
02:44
that are super, super complicated,
62
164260
2000
yaratabiliriz, bazen bizim anlamamız
02:46
sometimes too complicated for us to even actually understand,
63
166260
3000
için bile fazla karmaşık olan ortamlar,
02:49
even though we've actually created them.
64
169260
2000
bunları biz yaratmış olmamıza rağmen.
02:51
We create financial markets that are super complex.
65
171260
2000
Süper karmaşık finansal pazarlar yaratıyoruz.
02:53
We create mortgage terms that we can't actually deal with.
66
173260
3000
Aslında başa çıkamadığımız mortgage terimleri yaratıyoruz.
02:56
And of course, if we are put in environments where we can't deal with it,
67
176260
3000
Ve elbette, başa çıkamadığımız ortamlara yerleştirilirsek eğer,
02:59
in some sense makes sense that we actually
68
179260
2000
aslında bazı şeyleri yüzümüze gözümüze
03:01
might mess certain things up.
69
181260
2000
bulaştırmamız aslında anlaşılır oluyor.
03:03
If this was the case, we'd have a really easy solution
70
183260
2000
Eğer durum bu olsaydı, insan hatasına karşı
03:05
to the problem of human error.
71
185260
2000
gerçekten kolay bir çözüm bulmuş olacaktık.
03:07
We'd actually just say, okay, let's figure out
72
187260
2000
Sadece şöyle diyecektik, tamam, hadi
03:09
the kinds of technologies we can't deal with,
73
189260
2000
başa çıkabileceğimiz teknolojiler bulalım,
03:11
the kinds of environments that are bad --
74
191260
2000
kötü olan ortamları çözelim --
03:13
get rid of those, design things better,
75
193260
2000
bunlardan kurtulalım, daha iyi şeyler tasarlayalım,
03:15
and we should be the noble species
76
195260
2000
ve olmayı beklediğimiz türde
03:17
that we expect ourselves to be.
77
197260
2000
yüce yaratıklar olmalıyız.
03:19
But there's another possibility that I find a little bit more worrying,
78
199260
3000
Ama biraz daha endişe verici diğer bir ihtimal var,
03:22
which is, maybe it's not our environments that are messed up.
79
202260
3000
bu da belki de berbat halde olan ortamlarımız değildir.
03:25
Maybe it's actually us that's designed badly.
80
205260
3000
Belki de aslında kötü bir şekilde tasarlayan bizlerizdir.
03:28
This is a hint that I've gotten
81
208260
2000
Bu benim sosyal bilimcilerin
03:30
from watching the ways that social scientists have learned about human errors.
82
210260
3000
insan hatalarından öğrenme yollarına bakarak çıkardığım bir ders.
03:33
And what we see is that people tend to keep making errors
83
213260
3000
Ve gördüğümüz, insanların tam olarak aynı şekilde, tekrar ve tekrar
03:36
exactly the same way, over and over again.
84
216260
3000
hata yapmaya devam etme eğilimde oldukları.
03:39
It feels like we might almost just be built
85
219260
2000
Sanki neredeyse hataları belli şekilde
03:41
to make errors in certain ways.
86
221260
2000
yapmak üzere yapılmış gibiyiz.
03:43
This is a possibility that I worry a little bit more about,
87
223260
3000
Bu benim biraz daha fazla endişelendiğim bir olasılık,
03:46
because, if it's us that's messed up,
88
226260
2000
çünkü eğer berbat eden biz isek,
03:48
it's not actually clear how we go about dealing with it.
89
228260
2000
bununla gidip nasıl başa çıkacağımız aslında pek açık değil.
03:50
We might just have to accept the fact that we're error prone
90
230260
3000
Hata eğilimli olduğumuzu sadece kabul etmek zorunda olabilir
03:53
and try to design things around it.
91
233260
2000
ve şeyleri bu düşünce ile tasarlayabiliriz.
03:55
So this is the question my students and I wanted to get at.
92
235260
3000
Sonuçta, bu benim ve öğrencilerimin ulaşmak istediği soru.
03:58
How can we tell the difference between possibility one and possibility two?
93
238260
3000
İhtimal bir ve ihtimal iki arasındaki farkı nasıl söyleyebiliriz?
04:01
What we need is a population
94
241260
2000
İhtiyacımız olan bir popülâsyon
04:03
that's basically smart, can make lots of decisions,
95
243260
2000
basitçe zeki olan, birçok karar verebilen ama
04:05
but doesn't have access to any of the systems we have,
96
245260
2000
elimizde olan sistemlerin hiçbirisine erişimi olmayan,
04:07
any of the things that might mess us up --
97
247260
2000
bizi berbat edecek herhangi bir şeye erişimi olmayan --
04:09
no human technology, human culture,
98
249260
2000
insan teknolojisi yok, insan kültürü yok,
04:11
maybe even not human language.
99
251260
2000
hatta belki insan dili yok.
04:13
And so this is why we turned to these guys here.
100
253260
2000
Ve böylece bu tiplere dönmemizin nedeni bu.
04:15
These are one of the guys I work with. This is a brown capuchin monkey.
101
255260
3000
Bu benim çalıştığım tiplerden biri. Bu bir kahverengi başlıklı maymun.
04:18
These guys are New World primates,
102
258260
2000
Bu tipler Yeni Dünya primatları,
04:20
which means they broke off from the human branch
103
260260
2000
yani insan kolundan yaklaşık 35 milyon yıl önce
04:22
about 35 million years ago.
104
262260
2000
ayrılmışlar.
04:24
This means that your great, great, great great, great, great --
105
264260
2000
Bu sizin büyük, büyük, büyük, büyük, büyük, büyük --
04:26
with about five million "greats" in there --
106
266260
2000
yaklaşık beş milyon büyükle --
04:28
grandmother was probably the same great, great, great, great
107
268260
2000
büyük anneniz muhtemelen aynı büyük, büyük, büyük, büyük,
04:30
grandmother with five million "greats" in there
108
270260
2000
büyükanne beş milyon 'büyük'le birlikte
04:32
as Holly up here.
109
272260
2000
buradaki Holly gibiydi.
04:34
You know, so you can take comfort in the fact that this guy up here is a really really distant,
110
274260
3000
Yani buradaki tipin gerçekten, gerçekten uzak, buna rağmen evrimsel olarak yakın
04:37
but albeit evolutionary, relative.
111
277260
2000
olduğu gerçeğiyle rahat olabilirsiniz.
04:39
The good news about Holly though is that
112
279260
2000
Holly ile ilgili iyi haber ise
04:41
she doesn't actually have the same kinds of technologies we do.
113
281260
3000
bizim sahip olduğumuz türde teknolojilere sahip değil aslında.
04:44
You know, she's a smart, very cut creature, a primate as well,
114
284260
3000
Biliyorsunuz, zeki, çok sevimli bir yaratık, bir primat aynı zamanda,
04:47
but she lacks all the stuff we think might be messing us up.
115
287260
2000
ama bizi berbat eden tüm şeylerden yoksun.
04:49
So she's the perfect test case.
116
289260
2000
Yani mükemmel bir test vakası.
04:51
What if we put Holly into the same context as humans?
117
291260
3000
Holly'yi insanlar gibi aynı bağlam içerisine koysak ne olurdu?
04:54
Does she make the same mistakes as us?
118
294260
2000
Bizim yaptığımız hataları yapar mıydı?
04:56
Does she not learn from them? And so on.
119
296260
2000
Onlardan öğrenmez miydi? Ve saire.
04:58
And so this is the kind of thing we decided to do.
120
298260
2000
Ve sonuçta yapmayı düşündüğümüz şey bu.
05:00
My students and I got very excited about this a few years ago.
121
300260
2000
Öğrencilerim ve ben bir kaç yıl önce bununla ilgili çok heyecanlıydık.
05:02
We said, all right, let's, you know, throw so problems at Holly,
122
302260
2000
Tamam, dedik, hadi Holly'ye problemleri soralım,
05:04
see if she messes these things up.
123
304260
2000
bakalım herşeyi berbat edecek mi?
05:06
First problem is just, well, where should we start?
124
306260
3000
İlk sorun, peki, sadece nereden başlayacağımızdı?
05:09
Because, you know, it's great for us, but bad for humans.
125
309260
2000
Çünkü bizim için harika, ama insanlar için kötü.
05:11
We make a lot of mistakes in a lot of different contexts.
126
311260
2000
Farklı bağlamlarda birçok hata yapıyoruz.
05:13
You know, where are we actually going to start with this?
127
313260
2000
Biliyorsunuz, aslında bununla nereden başlayacağız?
05:15
And because we started this work around the time of the financial collapse,
128
315260
3000
Ve bu çalışmaya finansal çökme zamanı civarında başladığımız için,
05:18
around the time when foreclosures were hitting the news,
129
318260
2000
icraların haberlerde yer aldığı bir zamanda,
05:20
we said, hhmm, maybe we should
130
320260
2000
dedik ki, hmm, belki de aslında
05:22
actually start in the financial domain.
131
322260
2000
finansal alanda başlamalıyız.
05:24
Maybe we should look at monkey's economic decisions
132
324260
3000
Belki de maymunun ekonomik kararlarına bakmalıyız
05:27
and try to see if they do the same kinds of dumb things that we do.
133
327260
3000
ve bizim yaptığımız aptalca şeylere benzer şeyler yapmış mı görmeye çalışmalıyız.
05:30
Of course, that's when we hit a sort second problem --
134
330260
2000
Elbette, bu bizi ikinci tür bir soruyla karşı karşıya getirdi --
05:32
a little bit more methodological --
135
332260
2000
biraz daha fazla metodolojik --
05:34
which is that, maybe you guys don't know,
136
334260
2000
bu da, belki sizler bilmiyorsunuz,
05:36
but monkeys don't actually use money. I know, you haven't met them.
137
336260
3000
ama maymunlar aslında para kullanmıyorlar. Biliyorum, karşılaşmadınız onlarla.
05:39
But this is why, you know, they're not in the queue behind you
138
339260
2000
Ama bu nedenle, manavda ya da ATM önünde
05:41
at the grocery store or the ATM -- you know, they don't do this stuff.
139
341260
3000
sizin arkanızda sıraya girmiyorlar - biliyorsunuz, böyle şeyler yapmıyorlar.
05:44
So now we faced, you know, a little bit of a problem here.
140
344260
3000
Yani şimdi bir miktar sorunla karşı karşıyayız burada.
05:47
How are we actually going to ask monkeys about money
141
347260
2000
Eğer aslında kullanmıyorlarsa, maymunlara
05:49
if they don't actually use it?
142
349260
2000
para hakkında nasıl soru soracağız?
05:51
So we said, well, maybe we should just, actually just suck it up
143
351260
2000
O zaman dedik ki, peki, belki sadece bunu sineye çekip
05:53
and teach monkeys how to use money.
144
353260
2000
maymunlara nasıl para kullanacaklarını öğretmeliyiz.
05:55
So that's just what we did.
145
355260
2000
Böylece bunu yaptık.
05:57
What you're looking at over here is actually the first unit that I know of
146
357260
3000
Burada görmekte olduğunuz aslında benim bilgim dâhilinde
06:00
of non-human currency.
147
360260
2000
insan-olmayan ilk para birimi.
06:02
We weren't very creative at the time we started these studies,
148
362260
2000
Bu çalışmalara başladığımızda pek yaratıcı değildik,
06:04
so we just called it a token.
149
364260
2000
bu yüzden sadece jeton olarak isimlendirdik.
06:06
But this is the unit of currency that we've taught our monkeys at Yale
150
366260
3000
Ama bu Yale'deki maymunlarımıza öğrettiğimiz para birimi
06:09
to actually use with humans,
151
369260
2000
aslında insanlarla kullanmaları için,
06:11
to actually buy different pieces of food.
152
371260
3000
aslında farklı yiyecekler almaları için.
06:14
It doesn't look like much -- in fact, it isn't like much.
153
374260
2000
Fazla görünmüyor - aslında, fazla değil.
06:16
Like most of our money, it's just a piece of metal.
154
376260
2000
Paramızın çoğu gibi, sadece bir metal parçası.
06:18
As those of you who've taken currencies home from your trip know,
155
378260
3000
Tatilden eve para getirenlerinizin bildiği gibi,
06:21
once you get home, it's actually pretty useless.
156
381260
2000
eve geldiğiniz anda, aslında neredeyse değersizdir.
06:23
It was useless to the monkeys at first
157
383260
2000
İlk başta maymunlar için değersizdi,
06:25
before they realized what they could do with it.
158
385260
2000
onunla ne yapabileceklerini anlayana kadar.
06:27
When we first gave it to them in their enclosures,
159
387260
2000
Onlara barınaklarında ilk verdiğimiz zaman,
06:29
they actually kind of picked them up, looked at them.
160
389260
2000
aslında bunları aldılar, baktılar.
06:31
They were these kind of weird things.
161
391260
2000
Bunlar tuhaf şeylerdi.
06:33
But very quickly, the monkeys realized
162
393260
2000
Ama çok hızlı bir şekilde, maymunlar
06:35
that they could actually hand these tokens over
163
395260
2000
bu jetonları laboratuardaki farklı kişilere verip
06:37
to different humans in the lab for some food.
164
397260
3000
biraz yemek alabileceklerini fark ettiler.
06:40
And so you see one of our monkeys, Mayday, up here doing this.
165
400260
2000
Ve maymunlarımızdan birini görüyorsunuz, Mayday, burada şunu yapıyor.
06:42
This is A and B are kind of the points where she's sort of a little bit
166
402260
3000
Bu A ve B noktaları, bunlarla ilgili meraklı olduğu noktalar
06:45
curious about these things -- doesn't know.
167
405260
2000
- bunları bilmiyor.
06:47
There's this waiting hand from a human experimenter,
168
407260
2000
Burada deneyi yapan birinin bekleyen elini görüyorsunuz
06:49
and Mayday quickly figures out, apparently the human wants this.
169
409260
3000
ve Mayday hızlı bir şekilde, bu kişinin bunu istediğini anlıyor.
06:52
Hands it over, and then gets some food.
170
412260
2000
Ona uzatıyor ve sonra biraz yiyecek alıyor.
06:54
It turns out not just Mayday, all of our monkeys get good
171
414260
2000
Anlaşılıyor ki sadece Mayday değil, tüm maymunlarımız
06:56
at trading tokens with human salesman.
172
416260
2000
insan satıcıyla jetonları değiş tokuş etmede başarılı oluyor.
06:58
So here's just a quick video of what this looks like.
173
418260
2000
Burada nasıl bir şey olduğuna dair hızlı bir video var.
07:00
Here's Mayday. She's going to be trading a token for some food
174
420260
3000
Bu Mayday. Biraz yiyecek için bir jetonu veriyor
07:03
and waiting happily and getting her food.
175
423260
3000
ve mutlu bir şekilde bekliyor ve yiyeceğini alıyor.
07:06
Here's Felix, I think. He's our alpha male; he's a kind of big guy.
176
426260
2000
Bu Felix, sanırım. O bizim alfa erkeğimiz; kocaman bir adam.
07:08
But he too waits patiently, gets his food and goes on.
177
428260
3000
Ama o dahi sabırla bekliyor, yemeğini alıyor ve gidiyor.
07:11
So the monkeys get really good at this.
178
431260
2000
Yani maymunlar bundan bayağı iyiler.
07:13
They're surprisingly good at this with very little training.
179
433260
3000
Şaşırtıcı bir şekilde az bir çalışmayla bu konuda iyiler.
07:16
We just allowed them to pick this up on their own.
180
436260
2000
Biz sadece kendi kendilerine bunu anlamalarına izin verdik.
07:18
The question is: is this anything like human money?
181
438260
2000
Soru şu: İnsan parası diye bir şey var mı?
07:20
Is this a market at all,
182
440260
2000
Bu bir pazar mı,
07:22
or did we just do a weird psychologist's trick
183
442260
2000
ya da biz maymunların bir şey yaparak
07:24
by getting monkeys to do something,
184
444260
2000
aslında zeki olmasalar da öyle görünmelerini sağlayarak
07:26
looking smart, but not really being smart.
185
446260
2000
tuhaf bir psikolog numarası mı yaptık?
07:28
And so we said, well, what would the monkeys spontaneously do
186
448260
3000
Ve böyle dediğimize göre, pekâlâ, eğer bu gerçekten onların para birimi olsaydı
07:31
if this was really their currency, if they were really using it like money?
187
451260
3000
gerçekten para gibi kullanıyor olsalar, maymunlar spontane olarak ne yapacaklardı?
07:34
Well, you might actually imagine them
188
454260
2000
Yani, aslında onları insanların para değişimi
07:36
to do all the kinds of smart things
189
456260
2000
yaptıklarında yaptıkları her türlü
07:38
that humans do when they start exchanging money with each other.
190
458260
3000
zekice şeyi yaparken hayal edebilirsiniz.
07:41
You might have them start paying attention to price,
191
461260
3000
Fiyata dikkat etmelerini sağlayabilirsiniz,
07:44
paying attention to how much they buy --
192
464260
2000
ne kadar aldıklarına dikkat etmelerini --
07:46
sort of keeping track of their monkey token, as it were.
193
466260
3000
jeton paralarının bir nevi izini sürmelerini, olduğu gibi.
07:49
Do the monkeys do anything like this?
194
469260
2000
Bu tür bir şey yapıyor mu maymunlar?
07:51
And so our monkey marketplace was born.
195
471260
3000
Ve böylece bizim maymun pazarı doğmuş oldu.
07:54
The way this works is that
196
474260
2000
Bu şu şekilde çalışıyor,
07:56
our monkeys normally live in a kind of big zoo social enclosure.
197
476260
3000
maymunlarımız normalde bir tür büyük hayvanat bahçesi sosyal çevresinde yaşıyor.
07:59
When they get a hankering for some treats,
198
479260
2000
Canları biraz ödül çektiğinde,
08:01
we actually allowed them a way out
199
481260
2000
bir pazaryerine girebilecekleri
08:03
into a little smaller enclosure where they could enter the market.
200
483260
2000
daha küçük bir çevreye çıkmalarına izin veriyoruz.
08:05
Upon entering the market --
201
485260
2000
Pazaryerine girdiklerinde -
08:07
it was actually a much more fun market for the monkeys than most human markets
202
487260
2000
aslında maymunların pazaryeri insanların pazaryerinden çok daha eğlenceli
08:09
because, as the monkeys entered the door of the market,
203
489260
3000
çünkü maymunlar pazaryerinin kapısından girdiklerinde
08:12
a human would give them a big wallet full of tokens
204
492260
2000
bir kişi onlara büyük bir cüzdan dolusu jeton veriyor
08:14
so they could actually trade the tokens
205
494260
2000
böylece jetonları buradaki iki kişiden biriyle
08:16
with one of these two guys here --
206
496260
2000
iki farklı olası insan satıcı ile
08:18
two different possible human salesmen
207
498260
2000
değiştirebilir, böylece aslında
08:20
that they could actually buy stuff from.
208
500260
2000
onlardan bir şeyler alabilir.
08:22
The salesmen were students from my lab.
209
502260
2000
Satıcılar benim laboratuarımdan öğrenciler.
08:24
They dressed differently; they were different people.
210
504260
2000
Farklı bir şekilde giyiniyorlar, farklı insanlar.
08:26
And over time, they did basically the same thing
211
506260
3000
Ve zamanla, temel olarak aynı şeyi yapıyorlar
08:29
so the monkeys could learn, you know,
212
509260
2000
ki maymunlar öğrenebilsinler, bilirsiniz,
08:31
who sold what at what price -- you know, who was reliable, who wasn't, and so on.
213
511260
3000
kim hangi fiyatla satıyor diye - kim güvenilebilir, kim değil ve bunun gibi.
08:34
And you can see that each of the experimenters
214
514260
2000
Ve her bir deney yapanın aslında küçük, sarı bir tabağı
08:36
is actually holding up a little, yellow food dish.
215
516260
3000
tuttuğunu görebilirsiniz.
08:39
and that's what the monkey can for a single token.
216
519260
2000
Ve bu maymunun tek bir jetonla alabileceği şey.
08:41
So everything costs one token,
217
521260
2000
Yani her şey tek jeton değerinde,
08:43
but as you can see, sometimes tokens buy more than others,
218
523260
2000
ama gördüğünüz gibi, bazen jetonlar diğerlerinden daha fazla alabiliyor,
08:45
sometimes more grapes than others.
219
525260
2000
bazen diğerlerinden daha çok üzüm alıyor.
08:47
So I'll show you a quick video of what this marketplace actually looks like.
220
527260
3000
Şimdi size bu pazaryerinin aslında nasıl göründüğüne dair küçük bir video göstereceğim.
08:50
Here's a monkey-eye-view. Monkeys are shorter, so it's a little short.
221
530260
3000
Bu maymunun bakış açısı. Maymunlar daha kısa, bu yüzden biraz kısa.
08:53
But here's Honey.
222
533260
2000
İşte Honey burada.
08:55
She's waiting for the market to open a little impatiently.
223
535260
2000
Pazaryerinin açılmasını biraz sabırsızca bekliyor.
08:57
All of a sudden the market opens. Here's her choice: one grapes or two grapes.
224
537260
3000
Birden bire pazar açılıyor. Seçenekleri şöyle: bir üzüm ya da iki üzüm.
09:00
You can see Honey, very good market economist,
225
540260
2000
Honey'i görüyorsunuz, çok iyi bir ekonomist olarak,
09:02
goes with the guy who gives more.
226
542260
3000
daha fazla veren adama gidiyor.
09:05
She could teach our financial advisers a few things or two.
227
545260
2000
Finansal danışmanlarımıza bir iki şey öğretebilir.
09:07
So not just Honey,
228
547260
2000
Sadece Honey değil,
09:09
most of the monkeys went with guys who had more.
229
549260
3000
maymunların çoğu daha fazla veren kişilere gitti.
09:12
Most of the monkeys went with guys who had better food.
230
552260
2000
Maymunların çoğu daha iyi yiyeceği olanlara gitti.
09:14
When we introduced sales, we saw the monkeys paid attention to that.
231
554260
3000
Satışları gösterdiğimizde, maymunların buna dikkat kesildiğini gördük.
09:17
They really cared about their monkey token dollar.
232
557260
3000
Gerçekten maymun jeton dolarlarına dikkat ediyorlar.
09:20
The more surprising thing was that when we collaborated with economists
233
560260
3000
Daha şaşırtıcı olan şey ise ekonomistlerle işbirliği yaparak
09:23
to actually look at the monkeys' data using economic tools,
234
563260
3000
ekonomi araçları kullanan maymunların datasına baktığımızda
09:26
they basically matched, not just qualitatively,
235
566260
3000
sadece niteliksel olarak değil niceliksel olarak da
09:29
but quantitatively with what we saw
236
569260
2000
insanların gerçek pazarda yaptıklarıyla
09:31
humans doing in a real market.
237
571260
2000
basitçe birbirini tutuyor.
09:33
So much so that, if you saw the monkeys' numbers,
238
573260
2000
Öyle ki, eğer maymunların sayılarına bakarsanız,
09:35
you couldn't tell whether they came from a monkey or a human in the same market.
239
575260
3000
aynı pazardaki maymundan mı insandan mı geldiğini söyleyemezsiniz.
09:38
And what we'd really thought we'd done
240
578260
2000
Ve yaptığımızı düşündüğümüz şey
09:40
is like we'd actually introduced something
241
580260
2000
aslında, en azından maymunlar ve bizim için,
09:42
that, at least for the monkeys and us,
242
582260
2000
gerçek finansal para birimi olarak
09:44
works like a real financial currency.
243
584260
2000
kullanılabilecek bir şey getirdik.
09:46
Question is: do the monkeys start messing up in the same ways we do?
244
586260
3000
Soru şu: maymunlar bizim yaptığımız gibi işleri berbat etmeye başladı mı?
09:49
Well, we already saw anecdotally a couple of signs that they might.
245
589260
3000
Aslında yaptıklarına dair şimdiden fıkra tadında bir kaç işaret gördük.
09:52
One thing we never saw in the monkey marketplace
246
592260
2000
Maymun pazaryerinde asla görmediğimiz bir şey
09:54
was any evidence of saving --
247
594260
2000
biriktirmeye dair bir kanıttı --
09:56
you know, just like our own species.
248
596260
2000
biliyorsunuz, aynı bizim türümüz gibi.
09:58
The monkeys entered the market, spent their entire budget
249
598260
2000
Maymunlar pazaryerine giriyor, tüm paralarını harcıyor
10:00
and then went back to everyone else.
250
600260
2000
ve sonra diğerlerine dönüyorlar.
10:02
The other thing we also spontaneously saw,
251
602260
2000
Aynı şekilde gördüğümüz bir diğer şey,
10:04
embarrassingly enough,
252
604260
2000
yeterince utanç verici,
10:06
is spontaneous evidence of larceny.
253
606260
2000
aynı oranda görülen hırsızlık kanıtı.
10:08
The monkeys would rip-off the tokens at every available opportunity --
254
608260
3000
Maymunlar her buldukları uygun fırsatta birbirlerinin jetonlarını
10:11
from each other, often from us --
255
611260
2000
aşırıyorlardı, sıklıkla bizden --
10:13
you know, things we didn't necessarily think we were introducing,
256
613260
2000
biliyorsunuz, bunlar kaçınılmaz olarak sunacağımızı düşündüğümüz
10:15
but things we spontaneously saw.
257
615260
2000
değil ama gördüğümüz şeylerdi.
10:17
So we said, this looks bad.
258
617260
2000
Biz de dedik ki, bu kötü görünüyor.
10:19
Can we actually see if the monkeys
259
619260
2000
Aslında maymunların insanların yaptığı
10:21
are doing exactly the same dumb things as humans do?
260
621260
3000
aynı aptalca şeyleri aynen yaptıklarını görebilir miyiz?
10:24
One possibility is just kind of let
261
624260
2000
Bir ihtimal, sadece maymun finans
10:26
the monkey financial system play out,
262
626260
2000
sistemini kendi haline bırakmaktı,
10:28
you know, see if they start calling us for bailouts in a few years.
263
628260
2000
yani, birkaç yıl içinde iflas bayrağını çekip çekmeyeceklerini görmek.
10:30
We were a little impatient so we wanted
264
630260
2000
Biraz sabırsızdık, bu yüzden işleri
10:32
to sort of speed things up a bit.
265
632260
2000
biraz hızlandırmak istedik.
10:34
So we said, let's actually give the monkeys
266
634260
2000
Bu yüzden, hadi maymunlara insanların
10:36
the same kinds of problems
267
636260
2000
belli ekonomik zorluklarda
10:38
that humans tend to get wrong
268
638260
2000
ya da belli ekonomik deneylerde
10:40
in certain kinds of economic challenges,
269
640260
2000
yanlış yapma eğiliminde olduklarına
10:42
or certain kinds of economic experiments.
270
642260
2000
benzer sorunlar verelim dedik.
10:44
And so, since the best way to see how people go wrong
271
644260
3000
Ve böylece, insanların nasıl yanlış yaptığını görmenin
10:47
is to actually do it yourself,
272
647260
2000
en iyi yolu kendin yapmak olduğundan
10:49
I'm going to give you guys a quick experiment
273
649260
2000
şimdi size hızlı bir deney vereceğim,
10:51
to sort of watch your own financial intuitions in action.
274
651260
2000
finansal sezgilerinizi iş üzerinde görebilmek için.
10:53
So imagine that right now
275
653260
2000
Şimdi her birinize
10:55
I handed each and every one of you
276
655260
2000
bin Amerikan doları verdiğimi hayal edin
10:57
a thousand U.S. dollars -- so 10 crisp hundred dollar bills.
277
657260
3000
yani gıcır gıcır 10 yüzlük.
11:00
Take these, put it in your wallet
278
660260
2000
Bunları alın, cüzdanınıza koyun
11:02
and spend a second thinking about what you're going to do with it.
279
662260
2000
bununla ne yapacağınıza dair bir saniye düşünün.
11:04
Because it's yours now; you can buy whatever you want.
280
664260
2000
Çünkü artık sizin, ne isterseniz alabilirsiniz.
11:06
Donate it, take it, and so on.
281
666260
2000
Bir yere bağışlayın, alın ve saire.
11:08
Sounds great, but you get one more choice to earn a little bit more money.
282
668260
3000
Harika görünüyor, ama biraz daha fazla para kazanmak için bir şansınız daha var.
11:11
And here's your choice: you can either be risky,
283
671260
3000
Ve işte şansınız: ya risk alırsınız,
11:14
in which case I'm going to flip one of these monkey tokens.
284
674260
2000
bu durumda bu maymun jetonlarından birini atacağım.
11:16
If it comes up heads, you're going to get a thousand dollars more.
285
676260
2000
Eğer tura gelirse, bin dolar daha fazla alacaksınız.
11:18
If it comes up tails, you get nothing.
286
678260
2000
Eğer yazı gelirse, hiçbir şey alamayacaksınız.
11:20
So it's a chance to get more, but it's pretty risky.
287
680260
3000
Yani daha fazla kazanma şansı var ama bayağı riskli.
11:23
Your other option is a bit safe. Your just going to get some money for sure.
288
683260
3000
Diğer seçenek biraz daha güvenli. Kesin olarak biraz para kazanacaksınız.
11:26
I'm just going to give you 500 bucks.
289
686260
2000
Size sadece 500 papel vereceğim.
11:28
You can stick it in your wallet and use it immediately.
290
688260
3000
Cüzdanınıza koyup hemen harcayabilirsiniz.
11:31
So see what your intuition is here.
291
691260
2000
Yani buradaki sezginizi görüyorsunuz.
11:33
Most people actually go with the play-it-safe option.
292
693260
3000
Çoğu insan aslında 'güvenli oyna' seçeneğini tercih eder.
11:36
Most people say, why should I be risky when I can get 1,500 dollars for sure?
293
696260
3000
Çoğu insan, kesin 1.500 dolar alabilecekken neden riske atayım ki, diye düşünebilir.
11:39
This seems like a good bet. I'm going to go with that.
294
699260
2000
Bu iyi bir bahis gibi görünür. Ben de bunu seçeceğim.
11:41
You might say, eh, that's not really irrational.
295
701260
2000
Diyebilirsiniz ki, bu hiç de mantıksız değil.
11:43
People are a little risk-averse. So what?
296
703260
2000
İnsanlar biraz riskten kaçarlar. Nedir yani?
11:45
Well, the "so what?" comes when start thinking
297
705260
2000
'Nedir yani?' aynı soruyu sadece biraz farklı
11:47
about the same problem
298
707260
2000
bir şekilde kurmayı
11:49
set up just a little bit differently.
299
709260
2000
düşündüğünüzde ortaya çıkar.
11:51
So now imagine that I give each and every one of you
300
711260
2000
Yani şimdi her birinize 2.000 dolar verdiğimiz
11:53
2,000 dollars -- 20 crisp hundred dollar bills.
301
713260
3000
hayal edin -- gıcır gıcır 20 yüzlük.
11:56
Now you can buy double to stuff you were going to get before.
302
716260
2000
Şimdi daha önce alabileceğinizin iki katı şeyi alabilirsiniz.
11:58
Think about how you'd feel sticking it in your wallet.
303
718260
2000
Bunu cüzdanınıza koyarken nasıl hissedeceğinizi düşünün.
12:00
And now imagine that I have you make another choice
304
720260
2000
Ve şimdi sizi başka bir seçim yapmaya zorladığımı düşünün.
12:02
But this time, it's a little bit worse.
305
722260
2000
Ama bu sefer, biraz daha kötü.
12:04
Now, you're going to be deciding how you're going to lose money,
306
724260
3000
Şimdi, nasıl para kaybedeceğinize karar vereceksiniz,
12:07
but you're going to get the same choice.
307
727260
2000
ama aynı seçimi yapacaksınız.
12:09
You can either take a risky loss --
308
729260
2000
Ya riskli bir kaybı göze alacaksınız --
12:11
so I'll flip a coin. If it comes up heads, you're going to actually lose a lot.
309
731260
3000
yani bir jeton atacağım. Eğer tura gelirse, aslında çok kaybedeceksiniz.
12:14
If it comes up tails, you lose nothing, you're fine, get to keep the whole thing --
310
734260
3000
Eğer yazı gelirse, hiçbir şey kaybetmeyeceksiniz, iyisiniz, hepsini elinizde tutabilirsiniz
12:17
or you could play it safe, which means you have to reach back into your wallet
311
737260
3000
ya da güvenli oynayabilirsiniz, yani cüzdanınızı açıp bana şu 100 dolar
12:20
and give me five of those $100 bills, for certain.
312
740260
3000
banknotların beşini vermek zorundasınız, kesin olarak.
12:23
And I'm seeing a lot of furrowed brows out there.
313
743260
3000
Ve burada bir sürü çatılmış kaş görüyorum.
12:26
So maybe you're having the same intuitions
314
746260
2000
Yani belki de bununla test edilen denekler gibi
12:28
as the subjects that were actually tested in this,
315
748260
2000
aynı sezgilere sahipsiniz, bu seçimlerle
12:30
which is when presented with these options,
316
750260
2000
karşılaştıklarında insanlar güvenli
12:32
people don't choose to play it safe.
317
752260
2000
oynamayı seçmiyorlar.
12:34
They actually tend to go a little risky.
318
754260
2000
Aslında biraz risk alma eğiliminde oluyorlar.
12:36
The reason this is irrational is that we've given people in both situations
319
756260
3000
Bunun mantıksız olmasının nedeni, insanlara her iki durumda
12:39
the same choice.
320
759260
2000
aynı seçeneği sunmamız.
12:41
It's a 50/50 shot of a thousand or 2,000,
321
761260
3000
1000 için 50’ye 50 şans ya da 2000,
12:44
or just 1,500 dollars with certainty.
322
764260
2000
ya da sadece 1500 ama kesin.
12:46
But people's intuitions about how much risk to take
323
766260
3000
Ancak insanların ne kadar risk almaları gerektiğine
12:49
varies depending on where they started with.
324
769260
2000
dair sezgileri nereden başladıklarına göre değişebilir.
12:51
So what's going on?
325
771260
2000
Yani neler oluyor?
12:53
Well, it turns out that this seems to be the result
326
773260
2000
Görünen o ki, bu psikolojik düzeyde sahip olduğumuz
12:55
of at least two biases that we have at the psychological level.
327
775260
3000
en az iki önyargının sonucu gibi görünüyor.
12:58
One is that we have a really hard time thinking in absolute terms.
328
778260
3000
Biri şu, kesin ifadelerle düşünmede zorlanıyoruz.
13:01
You really have to do work to figure out,
329
781260
2000
Anlamak için gerçekten çalışmalısınız,
13:03
well, one option's a thousand, 2,000;
330
783260
2000
şimdi, bir seçenek bin dolar, iki bin;
13:05
one is 1,500.
331
785260
2000
biri bin beş yüz.
13:07
Instead, we find it very easy to think in very relative terms
332
787260
3000
Bunun yerine, seçeneklerin birinden diğerine değiştiği durumda
13:10
as options change from one time to another.
333
790260
3000
birbiriyle ilişkili durumlarda düşünmeyi daha kolay buluyoruz.
13:13
So we think of things as, "Oh, I'm going to get more," or "Oh, I'm going to get less."
334
793260
3000
Böylece şöyle düşünüyoruz, 'Daha fazla alacağım! ya da 'Daha az alacağım.'
13:16
This is all well and good, except that
335
796260
2000
Bu tamamıyla iyi ve doğru, sadece
13:18
changes in different directions
336
798260
2000
farklı yönlerde değişiklikler
13:20
actually effect whether or not we think
337
800260
2000
aslında seçeneklerin iyi ya da kötü olduğunu
13:22
options are good or not.
338
802260
2000
düşünmemizi etkiler.
13:24
And this leads to the second bias,
339
804260
2000
Ve bu ikinci bir önyargıya götürür,
13:26
which economists have called loss aversion.
340
806260
2000
ekonomistler buna isteksizlik kaybı derler.
13:28
The idea is that we really hate it when things go into the red.
341
808260
3000
Fikir şu, zarara uğradığımızda gerçekten bundan nefret ederiz.
13:31
We really hate it when we have to lose out on some money.
342
811260
2000
Biraz para kaybetmek durumunda kalmaktan nefret ederiz.
13:33
And this means that sometimes we'll actually
343
813260
2000
Ve bu da bazen buna engel olmak için
13:35
switch our preferences to avoid this.
344
815260
2000
tercihlerimizi değiştirebileceğimiz anlamına gelir.
13:37
What you saw in that last scenario is that
345
817260
2000
Son senaryoda gördüğünüz şu,
13:39
subjects get risky
346
819260
2000
konular daha riskli hale geliyor,
13:41
because they want the small shot that there won't be any loss.
347
821260
3000
çünkü hiç kaybın olmayacağı küçük atışlar yapmak istiyorlar.
13:44
That means when we're in a risk mindset --
348
824260
2000
Bu da risk zihniyetiyle hareket ettiğimizde --
13:46
excuse me, when we're in a loss mindset,
349
826260
2000
afedersiniz, kayıp zihniyetiyle hareket ettiğimizde,
13:48
we actually become more risky,
350
828260
2000
aslında daha riskli oluyoruz,
13:50
which can actually be really worrying.
351
830260
2000
ki bu da aslında gerçekten endişe verici olabilir.
13:52
These kinds of things play out in lots of bad ways in humans.
352
832260
3000
Bu tarz şeyler insanları farklı yollardan tüketir.
13:55
They're why stock investors hold onto losing stocks longer --
353
835260
3000
Bu yatırımcıların kaybeden hisselere neden daha fazla tutunduğunu açıklar -
13:58
because they're evaluating them in relative terms.
354
838260
2000
çünkü bunları göreceli bir şekilde değerlendirirler.
14:00
They're why people in the housing market refused to sell their house --
355
840260
2000
Bunlar insanların emlak pazarında evlerini satmayı reddetmelerinin nedenidir -
14:02
because they don't want to sell at a loss.
356
842260
2000
çünkü kayıpla satmak istemezler.
14:04
The question we were interested in
357
844260
2000
İlgilendiğimiz soru,
14:06
is whether the monkeys show the same biases.
358
846260
2000
maymunların da aynı önyargıları gösterip göstermediği.
14:08
If we set up those same scenarios in our little monkey market,
359
848260
3000
Eğer küçük maymun pazarımızda aynı senaryoları kurarsak,
14:11
would they do the same thing as people?
360
851260
2000
insanların yaptıklarını yapacaklar mıdır?
14:13
And so this is what we did, we gave the monkeys choices
361
853260
2000
Ve şunu yaptık, maymunlara seçenekler sunduk
14:15
between guys who were safe -- they did the same thing every time --
362
855260
3000
güvenli kişilerle - her seferinde aynı şeyi yapıyorlardı -
14:18
or guys who were risky --
363
858260
2000
ya da riskli kişiler arasında -
14:20
they did things differently half the time.
364
860260
2000
zamanlarının yarısında farklı şekilde davranıyorlardı.
14:22
And then we gave them options that were bonuses --
365
862260
2000
Ve sonra onlara ödül seçenekler verdik -
14:24
like you guys did in the first scenario --
366
864260
2000
ilk senaryoda sizlerin yaptığı gibi -
14:26
so they actually have a chance more,
367
866260
2000
yani aslında daha fazla şansları var,
14:28
or pieces where they were experiencing losses --
368
868260
3000
ya da kayıpları deneyimleyecekleri parçalar da -
14:31
they actually thought they were going to get more than they really got.
369
871260
2000
aslında sahip olduklarından daha fazlasını alacaklarını düşündüler.
14:33
And so this is what this looks like.
370
873260
2000
Ve sonuçta şöyle görünüyor.
14:35
We introduced the monkeys to two new monkey salesmen.
371
875260
2000
Maymunları iki yeni maymun satıcı ile tanıştırdık.
14:37
The guy on the left and right both start with one piece of grape,
372
877260
2000
Soldaki ve sağdaki kişi, her ikisi de tek bir üzüm tanesi ile başladılar,
14:39
so it looks pretty good.
373
879260
2000
gayet iyi görünüyor.
14:41
But they're going to give the monkeys bonuses.
374
881260
2000
Ama maymunlara ödüller verecekler.
14:43
The guy on the left is a safe bonus.
375
883260
2000
Soldaki kişi güvenli bir ödül.
14:45
All the time, he adds one, to give the monkeys two.
376
885260
3000
Her zaman bir fazla ekleyerek maymuna iki tane veriyor.
14:48
The guy on the right is actually a risky bonus.
377
888260
2000
Sağdaki kişi aslında riskli bir ödül.
14:50
Sometimes the monkeys get no bonus -- so this is a bonus of zero.
378
890260
3000
Bazen maymunlar hiç ödül alamıyor - yani bu sıfır ödül.
14:53
Sometimes the monkeys get two extra.
379
893260
3000
Bazen maymunlar iki tane fazladan alıyor.
14:56
For a big bonus, now they get three.
380
896260
2000
Büyük bir ödül için, şimdi üç tane aldılar.
14:58
But this is the same choice you guys just faced.
381
898260
2000
Ama bu sizlerin de karşı karşıya kaldığınız seçeneğin aynısı.
15:00
Do the monkeys actually want to play it safe
382
900260
3000
Maymunlar aslında güvenli tarafta oynayıp
15:03
and then go with the guy who's going to do the same thing on every trial,
383
903260
2000
ama sonra her denemede aynı şeyi yapan kişi ile mi devam edecekler,
15:05
or do they want to be risky
384
905260
2000
yoksa riskli tarafı isteyerek
15:07
and try to get a risky, but big, bonus,
385
907260
2000
riskli, ama büyük ödülü deneyecekler,
15:09
but risk the possibility of getting no bonus.
386
909260
2000
ama hiç ödül almama ihtimalini de riske alarak.
15:11
People here played it safe.
387
911260
2000
İnsanlar burada güvenli oynuyorlar.
15:13
Turns out, the monkeys play it safe too.
388
913260
2000
Anlaşılıyor ki maymunlar da öyle.
15:15
Qualitatively and quantitatively,
389
915260
2000
Niceliksel ve niteliksel olarak,
15:17
they choose exactly the same way as people,
390
917260
2000
aynı şeyde denendiklerinde, insanların
15:19
when tested in the same thing.
391
919260
2000
davrandığı şekilde davranmayı seçiyorlar.
15:21
You might say, well, maybe the monkeys just don't like risk.
392
921260
2000
Diyebilirsiniz ki, belki maymunlar sadece risk sevmiyor.
15:23
Maybe we should see how they do with losses.
393
923260
2000
Belki kayıplarla araları nasıl bakmalıyız.
15:25
And so we ran a second version of this.
394
925260
2000
Ve bunun ikinci bir versiyonunu denedik.
15:27
Now, the monkeys meet two guys
395
927260
2000
Şimdi, maymunlar kendilerine ödül vermeyen
15:29
who aren't giving them bonuses;
396
929260
2000
iki kişiyle karşılaştılar;
15:31
they're actually giving them less than they expect.
397
931260
2000
aslında beklediklerinden daha azını veriyorlar onlara.
15:33
So they look like they're starting out with a big amount.
398
933260
2000
Yani büyük bir miktarla başlıyormuş gibi görünüyorlar.
15:35
These are three grapes; the monkey's really psyched for this.
399
935260
2000
Bunlar üç üzüm tanesi; maymun bunun için gerçekten heyecanlanıyor.
15:37
But now they learn these guys are going to give them less than they expect.
400
937260
3000
Ama şimdi bu kişilerin beklediklerinden daha azını vereceklerini öğreniyorlar.
15:40
They guy on the left is a safe loss.
401
940260
2000
Soldaki kişi güvenli bir kayıp.
15:42
Every single time, he's going to take one of these away
402
942260
3000
Her seferinde, bunlardan sadece birini alacak
15:45
and give the monkeys just two.
403
945260
2000
ve maymunlara sadece ikisini verecek.
15:47
the guy on the right is the risky loss.
404
947260
2000
Sağdaki kişi riskli kayıp.
15:49
Sometimes he gives no loss, so the monkeys are really psyched,
405
949260
3000
Bazen hiç kayıpsız veriyor, o zaman maymunlar gerçekten heyecanlanıyor,
15:52
but sometimes he actually gives a big loss,
406
952260
2000
ama bazen aslında büyük bir kayba neden oluyor,
15:54
taking away two to give the monkeys only one.
407
954260
2000
iki tanesini alıyor ve maymunlara sadece bir tane veriyor.
15:56
And so what do the monkeys do?
408
956260
2000
Ve o zaman maymunlar ne yapıyor?
15:58
Again, same choice; they can play it safe
409
958260
2000
Yine, aynı seçim; güvenli tarafta kalabilir
16:00
for always getting two grapes every single time,
410
960260
3000
her zaman her seferinde iki tane üzüm alabilir,
16:03
or they can take a risky bet and choose between one and three.
411
963260
3000
ya da riskli bahsi seçer ve bir ya da üç arasında seçim yapabilir.
16:06
The remarkable thing to us is that, when you give monkeys this choice,
412
966260
3000
Bizim için dikkat çekici olan, maymunlara bu seçimi verdiğinizde,
16:09
they do the same irrational thing that people do.
413
969260
2000
insanların yaptığı mantıksız şeyi yapıyorlar.
16:11
They actually become more risky
414
971260
2000
Aslında daha riskli oluyorlar
16:13
depending on how the experimenters started.
415
973260
3000
deney yapanların nasıl başladıklarına göre.
16:16
This is crazy because it suggests that the monkeys too
416
976260
2000
Bu çılgınca çünkü maymunların da şeyleri göreceli
16:18
are evaluating things in relative terms
417
978260
2000
değerlendirdiklerini ve aslında kayıplarına
16:20
and actually treating losses differently than they treat gains.
418
980260
3000
kazançlarına davrandıklarından farklı davrandıklarını ileri sürüyor.
16:23
So what does all of this mean?
419
983260
2000
Yani tüm bunlar ne demek oluyor?
16:25
Well, what we've shown is that, first of all,
420
985260
2000
Bizim gösterdiğimiz, her şeyden önce
16:27
we can actually give the monkeys a financial currency,
421
987260
2000
maymunlara aslında finansal bir para birimi verebiliriz,
16:29
and they do very similar things with it.
422
989260
2000
ve onunla çok benzer şeyler yapabilirler.
16:31
They do some of the smart things we do,
423
991260
2000
Bizim yaptığımız bazı zekice şeyleri yaparlar,
16:33
some of the kind of not so nice things we do,
424
993260
2000
bazıları yaptığımız pek hoş olmayan şeyler olabilir,
16:35
like steal it and so on.
425
995260
2000
çalmak gibi ya da benzeri.
16:37
But they also do some of the irrational things we do.
426
997260
2000
Ama aynı zamanda yaptığımız bazı mantıksız şeyleri de yaparlar.
16:39
They systematically get things wrong
427
999260
2000
Sistematik olarak şeyleri yanlış anlarlar
16:41
and in the same ways that we do.
428
1001260
2000
ve bizim yaptığımız şekilde.
16:43
This is the first take-home message of the Talk,
429
1003260
2000
Bu konuşmadan eve götürebileceğiniz mesajlardan biri şu,
16:45
which is that if you saw the beginning of this and you thought,
430
1005260
2000
eğer bunun başlangıcını gördüyseniz ve şöyle düşündüyseniz,
16:47
oh, I'm totally going to go home and hire a capuchin monkey financial adviser.
431
1007260
2000
kesinlikle eve gideceğim ve finansal danışman olarak bir kapüsen maymununu kiralayacağım.
16:49
They're way cuter than the one at ... you know --
432
1009260
2000
Onlar çok daha sevimliler, şeyden... biliyorsunuz -
16:51
Don't do that; they're probably going to be just as dumb
433
1011260
2000
Bunu yapmayın; muhtemelen şimdi en az para ödediğiniz
16:53
as the human one you already have.
434
1013260
3000
kişi kadar budala olacaktır.
16:56
So, you know, a little bad -- Sorry, sorry, sorry.
435
1016260
2000
Yani, biraz kötü - özür dilerim, özür dilerim.
16:58
A little bad for monkey investors.
436
1018260
2000
Maymun yatırımcılar için biraz kötü.
17:00
But of course, you know, the reason you're laughing is bad for humans too.
437
1020260
3000
Ama elbette, bilirsiniz, gülmenizin nedeni insanlar için de kötü.
17:03
Because we've answered the question we started out with.
438
1023260
3000
Çünkü başladığımız soruyu cevaplandırdık.
17:06
We wanted to know where these kinds of errors came from.
439
1026260
2000
Bu tarz hataların neden kaynaklandığını anlamak istemiştik.
17:08
And we started with the hope that maybe we can
440
1028260
2000
Ve belki finansal enstitülere ve teknolojilerimize
17:10
sort of tweak our financial institutions,
441
1030260
2000
bir nevi ince ayar çekerek kendimizi
17:12
tweak our technologies to make ourselves better.
442
1032260
3000
daha iyi hale getiririz umuduyla başlamıştık.
17:15
But what we've learn is that these biases might be a deeper part of us than that.
443
1035260
3000
Ama öğrendiğimiz, bu önyargıların bundan daha derine gidebiliyor olduğuydu.
17:18
In fact, they might be due to the very nature
444
1038260
2000
Aslında, bunlar bizim evrimsel tarihimizin
17:20
of our evolutionary history.
445
1040260
2000
hakiki doğasından dolayı olabilir.
17:22
You know, maybe it's not just humans
446
1042260
2000
Bilirsiniz, belki kalın kafalı bu zincirin
17:24
at the right side of this chain that's duncey.
447
1044260
2000
sağ tarafında olanlar sadece insanlar değildir.
17:26
Maybe it's sort of duncey all the way back.
448
1046260
2000
Belki başından beri bir tür kalın kafalılıktır.
17:28
And this, if we believe the capuchin monkey results,
449
1048260
3000
Ve bu, eğer kapusen maymunu sonuçlarına inanıyorsanız,
17:31
means that these duncey strategies
450
1051260
2000
bu ahmakça stratejilerin belki
17:33
might be 35 million years old.
451
1053260
2000
35 milyon yıldır olduğu anlamına gelir.
17:35
That's a long time for a strategy
452
1055260
2000
Bu potansiyel olarak değişme stratejisi için
17:37
to potentially get changed around -- really, really old.
453
1057260
3000
çok uzun bir süre - gerçekten, gerçekten eski.
17:40
What do we know about other old strategies like this?
454
1060260
2000
Bunun gibi eski stratejiler hakkında neler biliyoruz?
17:42
Well, one thing we know is that they tend to be really hard to overcome.
455
1062260
3000
Bildiğimiz bir şey, üstesinden gelinmesinin zor olduğu şeyler olma eğilimindeler.
17:45
You know, think of our evolutionary predilection
456
1065260
2000
Cheesecake gibi tatlı ve yağlı şeyleri yeme konusunda
17:47
for eating sweet things, fatty things like cheesecake.
457
1067260
3000
evrimsel tercihimizi düşünün.
17:50
You can't just shut that off.
458
1070260
2000
Bunu öylece bitiremezsiniz.
17:52
You can't just look at the dessert cart as say, "No, no, no. That looks disgusting to me."
459
1072260
3000
Tatlı mönüsüne bakıp sadece 'Hayır, hayır, hayır. Bu iğrenç görünüyor.' diyemezsiniz.
17:55
We're just built differently.
460
1075260
2000
Sadece farklı biçimde yaratılmışız.
17:57
We're going to perceive it as a good thing to go after.
461
1077260
2000
Peşine takılıp gidecek güzel bir şey gibi algılayacağız.
17:59
My guess is that the same thing is going to be true
462
1079260
2000
Tahminim, insanlar farklı finansal
18:01
when humans are perceiving
463
1081260
2000
kararları görüyorken de
18:03
different financial decisions.
464
1083260
2000
aynı şey doğru olacak.
18:05
When you're watching your stocks plummet into the red,
465
1085260
2000
Hisse senetlerinizin kırmızıya düştüğünü izlerken,
18:07
when you're watching your house price go down,
466
1087260
2000
evinizin fiyatının düştüğünü izlerken,
18:09
you're not going to be able to see that
467
1089260
2000
bunu eski evrimsel koşullar dışında
18:11
in anything but old evolutionary terms.
468
1091260
2000
başka şekilde göremezsiniz.
18:13
This means that the biases
469
1093260
2000
Bu, yatırımcıları kötü bir şekilde
18:15
that lead investors to do badly,
470
1095260
2000
davranmaya yönelten,
18:17
that lead to the foreclosure crisis
471
1097260
2000
haciz krizine neden olan önyargıların
18:19
are going to be really hard to overcome.
472
1099260
2000
üstesinden gelmenin gerçekten zor olduğu anlamına gelir.
18:21
So that's the bad news. The question is: is there any good news?
473
1101260
2000
Yani, bu kötü haber. Soru şu: hiç iyi haber var mı?
18:23
I'm supposed to be up here telling you the good news.
474
1103260
2000
Burada size iyi haberleri vermek için duruyor olmam lazım.
18:25
Well, the good news, I think,
475
1105260
2000
Peki, iyi haber, sanırım,
18:27
is what I started with at the beginning of the Talk,
476
1107260
2000
konuşmanın başlangıcında başladığım şey,
18:29
which is that humans are not only smart;
477
1109260
2000
insanların sadece zeki olmadığı,
18:31
we're really inspirationally smart
478
1111260
2000
gerçekten biyolojik krallıktaki diğer hayvanları
18:33
to the rest of the animals in the biological kingdom.
479
1113260
3000
geride bırakacak kadar ilham verici şekilde zekiyiz.
18:36
We're so good at overcoming our biological limitations --
480
1116260
3000
Biyolojik kısıtlamalarımız aşma konusunda çok iyiyiz -
18:39
you know, I flew over here in an airplane.
481
1119260
2000
biliyorsunuz, buraya uçakla geldim.
18:41
I didn't have to try to flap my wings.
482
1121260
2000
Kanatlarımı çırpmak zorunda değildim.
18:43
I'm wearing contact lenses now so that I can see all of you.
483
1123260
3000
Sizi görebilmek için şu anda kontak lenslerimi takıyorum.
18:46
I don't have to rely on my own near-sightedness.
484
1126260
3000
Miyopluğuma güvenmek zorunda değilim.
18:49
We actually have all of these cases
485
1129260
2000
Aslında biyolojik kısıtlamalarımızı aştığımız
18:51
where we overcome our biological limitations
486
1131260
3000
teknoloji ya da diğer araçlarla, görünürde kolayca hem de,
18:54
through technology and other means, seemingly pretty easily.
487
1134260
3000
tüm bu durumlara sahibiz.
18:57
But we have to recognize that we have those limitations.
488
1137260
3000
Ancak bu kısıtlamalara sahip olduğumuzu da anlamamız gerek.
19:00
And here's the rub.
489
1140260
2000
Ve işte sorun.
19:02
It was Camus who once said that, "Man is the only species
490
1142260
2000
Camus şöyle demiş, 'İnsan, gerçekten ne olduğunu
19:04
who refuses to be what he really is."
491
1144260
3000
reddeden tek canlı türüdür.'
19:07
But the irony is that
492
1147260
2000
Ama ironi şu,
19:09
it might only be in recognizing our limitations
493
1149260
2000
yalnızca kısıtlamalarımız fark ederek
19:11
that we can really actually overcome them.
494
1151260
2000
gerçekten onların üstesinden gelebiliriz.
19:13
The hope is that you all will think about your limitations,
495
1153260
3000
Hepinizin kısıtlamalarınızı düşünüp
19:16
not necessarily as unovercomable,
496
1156260
3000
illa ki üstesinden gelinmeyecek olanları değil,
19:19
but to recognize them, accept them
497
1159260
2000
ama fark ederek, kabul ederek
19:21
and then use the world of design to actually figure them out.
498
1161260
3000
ve sonra tasarım dünyasını onları çözmek için kullanacağınız umut ediliyor.
19:24
That might be the only way that we will really be able
499
1164260
3000
Bu bizim insan potansiyelimizi gerçekten
19:27
to achieve our own human potential
500
1167260
2000
deneyimleyebileceğimiz ve
19:29
and really be the noble species we hope to all be.
501
1169260
3000
olmayı umduğumuz asil tür olmamızın tek yolu olabilir.
19:32
Thank you.
502
1172260
2000
Teşekkürler.
19:34
(Applause)
503
1174260
5000
Alkışlar.
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7