Laurie Santos: How monkeys mirror human irrationality

197,716 views ・ 2010-07-29

TED


A videó lejátszásához kattintson duplán az alábbi angol feliratokra.

Fordító: Anna Patai Lektor: Natália Dorkó
00:17
I want to start my talk today with two observations
0
17260
2000
Két megfigyeléssel szeretném kezdeni az előadásom
00:19
about the human species.
1
19260
2000
az emberi fajról.
00:21
The first observation is something that you might think is quite obvious,
2
21260
3000
Az első megfigyelésről talán azt gondolják, hogy nyilvánvaló,
00:24
and that's that our species, Homo sapiens,
3
24260
2000
miszerint a fajunk, a Homo sapiens,
00:26
is actually really, really smart --
4
26260
2000
tulajdonképpen nagyon-nagyon okos --
00:28
like, ridiculously smart --
5
28260
2000
nevetségesen okos --
00:30
like you're all doing things
6
30260
2000
olyan dolgokat csinálunk,
00:32
that no other species on the planet does right now.
7
32260
3000
amit rajtunk kívül egyetlen faj sem csinál pillanatnyilag.
00:35
And this is, of course,
8
35260
2000
És ez természetesen
00:37
not the first time you've probably recognized this.
9
37260
2000
nem az első alkalom, hogy erre rádöbbentek.
00:39
Of course, in addition to being smart, we're also an extremely vain species.
10
39260
3000
Természetesen, amellett, hogy nagyon okosak vagyunk, hihetetlenül hiúak is.
00:42
So we like pointing out the fact that we're smart.
11
42260
3000
Ezért szeretjük hangoztatni, hogy milyen okosak vagyunk.
00:45
You know, so I could turn to pretty much any sage
12
45260
2000
Fordulhatok akármelyik bölcshöz
00:47
from Shakespeare to Stephen Colbert
13
47260
2000
Shakespeare-től Stephen Colbert-ig,
00:49
to point out things like the fact that
14
49260
2000
hogy rámutassanak a tényre,
00:51
we're noble in reason and infinite in faculties
15
51260
2000
'Mily nemes az értelmünk! Mily határtalanok tehetségeink!'
00:53
and just kind of awesome-er than anything else on the planet
16
53260
2000
és úgy általában klasszabbak vagyunk, mint bármi más
00:55
when it comes to all things cerebral.
17
55260
3000
ezen a bolygón, ha az észről van szó.
00:58
But of course, there's a second observation about the human species
18
58260
2000
De van egy másik megfigyelés is az emberi fajról,
01:00
that I want to focus on a little bit more,
19
60260
2000
amire koncentrálni szeretnék,
01:02
and that's the fact that
20
62260
2000
és ez a tény,
01:04
even though we're actually really smart, sometimes uniquely smart,
21
64260
3000
hogy bármilyen okosak is vagyunk, időnként egyedülállóan okosak,
01:07
we can also be incredibly, incredibly dumb
22
67260
3000
nagyon-nagyon buták is tudunk lenni, amikor
01:10
when it comes to some aspects of our decision making.
23
70260
3000
a döntéshozás bizonyos aspektusairól van szó.
01:13
Now I'm seeing lots of smirks out there.
24
73260
2000
Elég sok fintort látok a közönség soraiban.
01:15
Don't worry, I'm not going to call anyone in particular out
25
75260
2000
Ne izguljanak, nem fogok senkit néven nevezni
01:17
on any aspects of your own mistakes.
26
77260
2000
a konkrét tévedései miatt.
01:19
But of course, just in the last two years
27
79260
2000
Persze csak az elmúlt két évben
01:21
we see these unprecedented examples of human ineptitude.
28
81260
3000
elképesztő példákat láttunk az emberi alkalmatlanságra.
01:24
And we've watched as the tools we uniquely make
29
84260
3000
És láttuk, ahogy a szerszámok, amiket csak mi készítünk,
01:27
to pull the resources out of our environment
30
87260
2000
hogy kinyerjük az energiát a környezetünkből,
01:29
kind of just blow up in our face.
31
89260
2000
felrobbantak a szemünk előtt.
01:31
We've watched the financial markets that we uniquely create --
32
91260
2000
Láttuk, ahogy a pénzügyi piacok, amiket csak mi készítünk --
01:33
these markets that were supposed to be foolproof --
33
93260
3000
a piacok, amiknek üzembiztosnak kellett volna lenniük --
01:36
we've watched them kind of collapse before our eyes.
34
96260
2000
láttuk, ahogy összeomlottak a szemünk előtt.
01:38
But both of these two embarrassing examples, I think,
35
98260
2000
De véleményem szerint egyik kínos példa sem
01:40
don't highlight what I think is most embarrassing
36
100260
3000
világít rá arra, ami a legkínosabb
01:43
about the mistakes that humans make,
37
103260
2000
az emberi hibákban, az, hogy
01:45
which is that we'd like to think that the mistakes we make
38
105260
3000
szeretnénk azt hinni, hogy a hibák, amiket elkövetünk
01:48
are really just the result of a couple bad apples
39
108260
2000
igazából csak néhány fekete bárány hibája
01:50
or a couple really sort of FAIL Blog-worthy decisions.
40
110260
3000
vagy néhány a FAIL Blogba kívánkozó döntésé.
01:53
But it turns out, what social scientists are actually learning
41
113260
3000
De kiderült, társadalomtudósok azt kezdik felfedezni,
01:56
is that most of us, when put in certain contexts,
42
116260
3000
hogy a többségünk, bizonyos helyzetekben
01:59
will actually make very specific mistakes.
43
119260
3000
nagyon is jellegzetes hibákat követ el.
02:02
The errors we make are actually predictable.
44
122260
2000
A tévedéseink kiszámíthatóak.
02:04
We make them again and again.
45
124260
2000
Újra és újra elkövetjük őket.
02:06
And they're actually immune to lots of evidence.
46
126260
2000
És igazából immunisak a bizonyítékokra.
02:08
When we get negative feedback,
47
128260
2000
Hiába kapunk negatív visszajelzést,
02:10
we still, the next time we're face with a certain context,
48
130260
3000
a következő alkalommal ugyanabban a helyzetben
02:13
tend to make the same errors.
49
133260
2000
ugyanazt a hibát követjük el.
02:15
And so this has been a real puzzle to me
50
135260
2000
És nekem, tulajdonképpen az emberi
02:17
as a sort of scholar of human nature.
51
137260
2000
természet tudósának ez egy igazi rejtély volt.
02:19
What I'm most curious about is,
52
139260
2000
Ami igazán érdekelt, hogy
02:21
how is a species that's as smart as we are
53
141260
3000
hogyan lehet képes egy olyan okos faj,
02:24
capable of such bad
54
144260
2000
mint a miénk
02:26
and such consistent errors all the time?
55
146260
2000
következetesen ilyen rossz döntéseket hozni?
02:28
You know, we're the smartest thing out there, why can't we figure this out?
56
148260
3000
Ha mi vagyunk a létező legokosabb lények, hogy nem tudunk erre rájönni?
02:31
In some sense, where do our mistakes really come from?
57
151260
3000
Bizonyos értelemben, miből származnak a hibáink?
02:34
And having thought about this a little bit, I see a couple different possibilities.
58
154260
3000
Miután elgondolkodtam ezen, látok néhány lehetséges megoldást.
02:37
One possibility is, in some sense, it's not really our fault.
59
157260
3000
Az egyik az, hogy igazából nem a mi hibánk.
02:40
Because we're a smart species,
60
160260
2000
Mert egy okos faj vagyunk,
02:42
we can actually create all kinds of environments
61
162260
2000
olyan környezeteket tudunk alkotni,
02:44
that are super, super complicated,
62
164260
2000
amik szuper-szuper összetettek,
02:46
sometimes too complicated for us to even actually understand,
63
166260
3000
néha olyan összetettek, hogy nem értjük őket,
02:49
even though we've actually created them.
64
169260
2000
még akkor is, ha mi alkottuk őket.
02:51
We create financial markets that are super complex.
65
171260
2000
Szuper komplex pénzügyi piacokat alkotunk.
02:53
We create mortgage terms that we can't actually deal with.
66
173260
3000
Olyan hitel feltételeket alkotunk, amikkel nem tudunk megbirkózni.
02:56
And of course, if we are put in environments where we can't deal with it,
67
176260
3000
És persze ha olyan környezetbe kerülünk, amivel nem tudunk megbirkózni,
02:59
in some sense makes sense that we actually
68
179260
2000
tulajdonképpen logikus, hogy
03:01
might mess certain things up.
69
181260
2000
bizonyos dolgokat el fogunk rontani.
03:03
If this was the case, we'd have a really easy solution
70
183260
2000
Ha ez lenne a helyzet, nagyon egyszerű lenne a megoldás
03:05
to the problem of human error.
71
185260
2000
az emberi hiba problémájára.
03:07
We'd actually just say, okay, let's figure out
72
187260
2000
Azt kéne csak mondani, hogy rendben,
03:09
the kinds of technologies we can't deal with,
73
189260
2000
mik azok a technológiák, amikkel nem tudunk dűlőre jutni,
03:11
the kinds of environments that are bad --
74
191260
2000
mik azok a rossz környezeti feltételek --
03:13
get rid of those, design things better,
75
193260
2000
szabaduljunk meg tőlük, tervezzünk jobban,
03:15
and we should be the noble species
76
195260
2000
és az a nemes faj leszünk,
03:17
that we expect ourselves to be.
77
197260
2000
amit elvárunk magunktól.
03:19
But there's another possibility that I find a little bit more worrying,
78
199260
3000
De van egy másik lehetőség, amit aggasztóbbnak találok,
03:22
which is, maybe it's not our environments that are messed up.
79
202260
3000
hogy talán nem a környezetünk az, ami el van rontva.
03:25
Maybe it's actually us that's designed badly.
80
205260
3000
Talán mi magunk vagyunk rosszul tervezve.
03:28
This is a hint that I've gotten
81
208260
2000
Ezt gyanítom az alapján,
03:30
from watching the ways that social scientists have learned about human errors.
82
210260
3000
ahogy a társadalomtudósok tanulmányozták az emberi hibákat.
03:33
And what we see is that people tend to keep making errors
83
213260
3000
És azt látjuk, hogy az emberek ugyanazokat a hibákat
03:36
exactly the same way, over and over again.
84
216260
3000
követik el ugyanúgy, újra és újra.
03:39
It feels like we might almost just be built
85
219260
2000
Úgy tűnik, mintha arra lettünk volna tervezve,
03:41
to make errors in certain ways.
86
221260
2000
hogy bizonyos módokon hibázzunk.
03:43
This is a possibility that I worry a little bit more about,
87
223260
3000
Ez a lehetőség jobban aggaszt,
03:46
because, if it's us that's messed up,
88
226260
2000
mert ha mi vagyunk elcseszve,
03:48
it's not actually clear how we go about dealing with it.
89
228260
2000
nem teljesen tiszta, hogy hogyan tudjuk ezt kezelni.
03:50
We might just have to accept the fact that we're error prone
90
230260
3000
Lehet, hogy el kell fogadnunk, hogy hajlamosak vagyunk hibázni,
03:53
and try to design things around it.
91
233260
2000
és ezt észben tartva tervezni dolgokat.
03:55
So this is the question my students and I wanted to get at.
92
235260
3000
Ezt a kérdést akartuk a diákjaimmal megoldani.
03:58
How can we tell the difference between possibility one and possibility two?
93
238260
3000
Hogyan tudjuk megkülönböztetni az első és a második lehetőséget?
04:01
What we need is a population
94
241260
2000
Egy olyan közösségre van szükségünk,
04:03
that's basically smart, can make lots of decisions,
95
243260
2000
ami okos, sok döntést tud hozni,
04:05
but doesn't have access to any of the systems we have,
96
245260
2000
de nincs hozzáférése a mi rendszereinkhez,
04:07
any of the things that might mess us up --
97
247260
2000
azokhoz a dolgokhoz, amik elrontanak minket --
04:09
no human technology, human culture,
98
249260
2000
semmi emberi technológia, emberi kultúra,
04:11
maybe even not human language.
99
251260
2000
talán még emberi nyelv sem.
04:13
And so this is why we turned to these guys here.
100
253260
2000
És ezért fordultunk ezekhez a srácokhoz itt.
04:15
These are one of the guys I work with. This is a brown capuchin monkey.
101
255260
3000
Ő az egyik srác, akivel együtt dolgozom. Ő egy barna kapucinus majom.
04:18
These guys are New World primates,
102
258260
2000
Ezek újvilági főemlősök,
04:20
which means they broke off from the human branch
103
260260
2000
ami azt jelenti, hogy kb. 35 millió évvel ezelőtt
04:22
about 35 million years ago.
104
262260
2000
váltak le az emberi ágról.
04:24
This means that your great, great, great great, great, great --
105
264260
2000
Ez azt jelenti, hogy az önök ük, ük, ük, ük, ük, ük --
04:26
with about five million "greats" in there --
106
266260
2000
kb. öt millió ük van benne --
04:28
grandmother was probably the same great, great, great, great
107
268260
2000
nagymamája valószínűleg ugyanaz az ük, ük, ük, ük
04:30
grandmother with five million "greats" in there
108
270260
2000
nagymama öt millió ükkel,
04:32
as Holly up here.
109
272260
2000
mint Hollyé.
04:34
You know, so you can take comfort in the fact that this guy up here is a really really distant,
110
274260
3000
Tehát megnyugodhatnak abban, hogy ő egy nagyon-nagyon távoli,
04:37
but albeit evolutionary, relative.
111
277260
2000
de evolúciós rokon.
04:39
The good news about Holly though is that
112
279260
2000
Ami viszont jó Hollyban, az az,
04:41
she doesn't actually have the same kinds of technologies we do.
113
281260
3000
hogy nem állnak rendelkezésére a mi technológiáink.
04:44
You know, she's a smart, very cut creature, a primate as well,
114
284260
3000
Tudják, ő egy okos, nagyon helyes teremtés, szintén főemlős,
04:47
but she lacks all the stuff we think might be messing us up.
115
287260
2000
de olyan dolgok nélkül, amik talán befolyásolnak minket.
04:49
So she's the perfect test case.
116
289260
2000
Ő a tökéletes teszt alany.
04:51
What if we put Holly into the same context as humans?
117
291260
3000
Mi lesz, ha Hollyt emberi környezetbe helyezzük?
04:54
Does she make the same mistakes as us?
118
294260
2000
Ugyanazokat a hibákat követi-e el, mint mi?
04:56
Does she not learn from them? And so on.
119
296260
2000
Ugyanúgy nem tanul belőlük? Stb.
04:58
And so this is the kind of thing we decided to do.
120
298260
2000
Tehát elhatároztuk, hogy ezt fogjuk csinálni.
05:00
My students and I got very excited about this a few years ago.
121
300260
2000
A diákjaim és én nagyon izgatottak lettünk néhány éve.
05:02
We said, all right, let's, you know, throw so problems at Holly,
122
302260
2000
Azt mondtuk, rendben, állítsuk Hollyt problémák elé,
05:04
see if she messes these things up.
123
304260
2000
és nézzük meg, hogy hibázik-e.
05:06
First problem is just, well, where should we start?
124
306260
3000
Az első akadály, hogy hol is kezdjük.
05:09
Because, you know, it's great for us, but bad for humans.
125
309260
2000
Mert, tudják, ez nekünk jó, de rossz az embereknek.
05:11
We make a lot of mistakes in a lot of different contexts.
126
311260
2000
Nagyon sokat hibázunk rengeteg különböző helyzetben.
05:13
You know, where are we actually going to start with this?
127
313260
2000
Tudják, hol is fogjuk ezt igazából elkezdeni?
05:15
And because we started this work around the time of the financial collapse,
128
315260
3000
És mivel ezt a munkát a gazdasági válság idején kezdtük el,
05:18
around the time when foreclosures were hitting the news,
129
318260
2000
akkoriban kerültek a banki házfoglalások a hírekbe,
05:20
we said, hhmm, maybe we should
130
320260
2000
azt mondtuk, hmmm, talán
05:22
actually start in the financial domain.
131
322260
2000
a pénzügyi világgal kéne kezdenünk.
05:24
Maybe we should look at monkey's economic decisions
132
324260
3000
Talán a majmok gazdasági döntéseit kéne megvizsgálnunk,
05:27
and try to see if they do the same kinds of dumb things that we do.
133
327260
3000
hogy lássuk, ugyanazokat a buta hibákat követik-e el, mint mi.
05:30
Of course, that's when we hit a sort second problem --
134
330260
2000
Természetesen ekkor ütköztünk a második problémába --
05:32
a little bit more methodological --
135
332260
2000
ami inkább módszertani --
05:34
which is that, maybe you guys don't know,
136
334260
2000
ami az, hogy talán önök nem tudják,
05:36
but monkeys don't actually use money. I know, you haven't met them.
137
336260
3000
de a majmok nem használnak pénzt. Tudom, nem találkoztak velük.
05:39
But this is why, you know, they're not in the queue behind you
138
339260
2000
De ezért nem állnak önök mögött a sorban a boltban
05:41
at the grocery store or the ATM -- you know, they don't do this stuff.
139
341260
3000
vagy a pénz automatánál -- tudják, ők nem csinálják ezeket.
05:44
So now we faced, you know, a little bit of a problem here.
140
344260
3000
Tehát szembekerültünk egy problémával.
05:47
How are we actually going to ask monkeys about money
141
347260
2000
Hogyan kérdezzük meg a majmokat a pénzről,
05:49
if they don't actually use it?
142
349260
2000
ha nem használják?
05:51
So we said, well, maybe we should just, actually just suck it up
143
351260
2000
Azt mondtuk, hogy talán vennünk kell egy mély levegőt,
05:53
and teach monkeys how to use money.
144
353260
2000
és megtanítani nekik, hogyan használják a pénzt.
05:55
So that's just what we did.
145
355260
2000
És ezt is tettük.
05:57
What you're looking at over here is actually the first unit that I know of
146
357260
3000
Amit itt látnak, az tudomásom szerint az első
06:00
of non-human currency.
147
360260
2000
nem emberi fizetőeszköz.
06:02
We weren't very creative at the time we started these studies,
148
362260
2000
Nem voltunk túl kreatívak, amikor elkezdtük ezeket a tanulmányokat,
06:04
so we just called it a token.
149
364260
2000
ezért csak zsetonnak hívtuk.
06:06
But this is the unit of currency that we've taught our monkeys at Yale
150
366260
3000
De ez a fizetőeszköz, amire megtanítottuk a majmokat a Yale-en,
06:09
to actually use with humans,
151
369260
2000
hogy az emberekkel használják
06:11
to actually buy different pieces of food.
152
371260
3000
különböző ételek megvásárlására.
06:14
It doesn't look like much -- in fact, it isn't like much.
153
374260
2000
Nem látszik egy nagy valaminek -- nem is egy nagy valami.
06:16
Like most of our money, it's just a piece of metal.
154
376260
2000
Mint a legtőbb pénz, csak egy darab fém.
06:18
As those of you who've taken currencies home from your trip know,
155
378260
3000
Akik hoztak már haza idegen valutát a nyaralásból tudják,
06:21
once you get home, it's actually pretty useless.
156
381260
2000
hogy amint hazaér az ember, az teljesen haszontalanná válik.
06:23
It was useless to the monkeys at first
157
383260
2000
Először a majmoknak is haszontalan volt,
06:25
before they realized what they could do with it.
158
385260
2000
mielőtt rájöttek, hogy mit csinálhatnak vele.
06:27
When we first gave it to them in their enclosures,
159
387260
2000
Amikor először odaadtuk nekik a ketrecükben,
06:29
they actually kind of picked them up, looked at them.
160
389260
2000
csak felvették, nézegették.
06:31
They were these kind of weird things.
161
391260
2000
Olyan furcsa dolgok voltak.
06:33
But very quickly, the monkeys realized
162
393260
2000
De a majmok nagyon hamar rájöttek,
06:35
that they could actually hand these tokens over
163
395260
2000
hogy odaadhatják ezeket a zsetonokat
06:37
to different humans in the lab for some food.
164
397260
3000
különböző embereknek a laborban ételért cserébe.
06:40
And so you see one of our monkeys, Mayday, up here doing this.
165
400260
2000
És láthatják, ahogy az egyik majmunk, Mayday, épp ezt csinálja.
06:42
This is A and B are kind of the points where she's sort of a little bit
166
402260
3000
A és B, ez még amikor egy kicsit kíváncsi, hogy mik ezek,
06:45
curious about these things -- doesn't know.
167
405260
2000
de nem biztos benne.
06:47
There's this waiting hand from a human experimenter,
168
407260
2000
Itt az egyik kísérletben résztvevő ember várakozó tenyere,
06:49
and Mayday quickly figures out, apparently the human wants this.
169
409260
3000
és Mayday hamar rájön, hogy látszólag az ember ezt akarja.
06:52
Hands it over, and then gets some food.
170
412260
2000
Átadja, és ennivalót kap.
06:54
It turns out not just Mayday, all of our monkeys get good
171
414260
2000
Mint kiderült, nem csak Mayday, mindegyik majmunk
06:56
at trading tokens with human salesman.
172
416260
2000
belejött a kereskedésbe az emberi eladókkal.
06:58
So here's just a quick video of what this looks like.
173
418260
2000
Itt egy rövid videó arról, hogy ez hogy néz ki.
07:00
Here's Mayday. She's going to be trading a token for some food
174
420260
3000
Itt van Mayday. El fog cserélni egy zsetont ennivalóért,
07:03
and waiting happily and getting her food.
175
423260
3000
vár boldogan, és megkapja az ennivalót.
07:06
Here's Felix, I think. He's our alpha male; he's a kind of big guy.
176
426260
2000
Itt van Felix, azt hiszem. Ő az alfahímünk, ő tulajdonképpen a főnök.
07:08
But he too waits patiently, gets his food and goes on.
177
428260
3000
De ő is türelmesen vár, megkapja az ennivalót és elmegy.
07:11
So the monkeys get really good at this.
178
431260
2000
Tehát a majmok nagyon belejöttek.
07:13
They're surprisingly good at this with very little training.
179
433260
3000
Meglepően jól megy nekik, nagyon kevés tanítással.
07:16
We just allowed them to pick this up on their own.
180
436260
2000
Hagytuk, hogy maguktól megtanulják.
07:18
The question is: is this anything like human money?
181
438260
2000
A kérdés az, hogy ez olyan-e, mint az emberi pénz?
07:20
Is this a market at all,
182
440260
2000
Ez egy piac,
07:22
or did we just do a weird psychologist's trick
183
442260
2000
vagy csak egy furcsa pszichológus trükk,
07:24
by getting monkeys to do something,
184
444260
2000
amivel rávettük a majmokat, hogy valami olyat
07:26
looking smart, but not really being smart.
185
446260
2000
csináljanak, ami okosnak tűnik, de nem az.
07:28
And so we said, well, what would the monkeys spontaneously do
186
448260
3000
Tehát azt mondtuk, nos, mit csinálnának a majmok spontán,
07:31
if this was really their currency, if they were really using it like money?
187
451260
3000
ha tényleg ez lenne a fizetőeszközük, ha tényleg pénzként használnák?
07:34
Well, you might actually imagine them
188
454260
2000
El lehet képzelni, ahogy
07:36
to do all the kinds of smart things
189
456260
2000
mindenféle ügyes dolgot csinálnak,
07:38
that humans do when they start exchanging money with each other.
190
458260
3000
amit az emberek is csinálnak, amikor elkezdenek kereskedni.
07:41
You might have them start paying attention to price,
191
461260
3000
Lehet, hogy elkezdenek odafigyelni az árra,
07:44
paying attention to how much they buy --
192
464260
2000
figyelni arra, hogy mennyit vásárolnak --
07:46
sort of keeping track of their monkey token, as it were.
193
466260
3000
úgymond követik a majom zsetont.
07:49
Do the monkeys do anything like this?
194
469260
2000
Csinálnak-e vajon a majmok ilyesmit?
07:51
And so our monkey marketplace was born.
195
471260
3000
Így született meg a majom piacunk.
07:54
The way this works is that
196
474260
2000
Ez úgy működik, hogy a majmaink
07:56
our monkeys normally live in a kind of big zoo social enclosure.
197
476260
3000
általában egy nagy, állatkertszerű közösségi területen élnek.
07:59
When they get a hankering for some treats,
198
479260
2000
Amikor kedvük támadt egy kis nassoláshoz
08:01
we actually allowed them a way out
199
481260
2000
hagytunk nekik egy szabad utat
08:03
into a little smaller enclosure where they could enter the market.
200
483260
2000
egy kisebb helyiségbe, ahonnan beléphettek a piacra.
08:05
Upon entering the market --
201
485260
2000
A piacra való belépéskor --
08:07
it was actually a much more fun market for the monkeys than most human markets
202
487260
2000
valójában ez egy sokkal izgalmasabb piac a majmoknak, mint a legtöbb emberi piac,
08:09
because, as the monkeys entered the door of the market,
203
489260
3000
mert ahogy a majmok beléptek az ajtón
08:12
a human would give them a big wallet full of tokens
204
492260
2000
egy ember adott nekik egy pénztárcát tele majom zsetonokkal,
08:14
so they could actually trade the tokens
205
494260
2000
és el tudták cserélni a zsetont
08:16
with one of these two guys here --
206
496260
2000
az itt látható két fickó egyikével --
08:18
two different possible human salesmen
207
498260
2000
két lehetséges emberi eladó,
08:20
that they could actually buy stuff from.
208
500260
2000
akiktől vehettek dolgokat.
08:22
The salesmen were students from my lab.
209
502260
2000
Az eladók diákok voltak a laboromból.
08:24
They dressed differently; they were different people.
210
504260
2000
Máshogy öltöztek, más emberek voltak.
08:26
And over time, they did basically the same thing
211
506260
3000
És hosszú időn keresztül ugyanazt csinálták,
08:29
so the monkeys could learn, you know,
212
509260
2000
hogy a majmok megtanulhassák, hogy
08:31
who sold what at what price -- you know, who was reliable, who wasn't, and so on.
213
511260
3000
ki mit árult és mennyiért -- tudják, ki volt megbízható, ki nem, stb.
08:34
And you can see that each of the experimenters
214
514260
2000
És láthatják, hogy mindkét kísérletező
08:36
is actually holding up a little, yellow food dish.
215
516260
3000
egy kis, sárga etető tálat tart fel,
08:39
and that's what the monkey can for a single token.
216
519260
2000
és ezt veheti meg a majom egy zsetonért.
08:41
So everything costs one token,
217
521260
2000
Tehát minden egy zsetonba kerül,
08:43
but as you can see, sometimes tokens buy more than others,
218
523260
2000
de amint látják, néha egy zseton többet ér, mint egy másik,
08:45
sometimes more grapes than others.
219
525260
2000
néha több szőlőt, mint egy másik.
08:47
So I'll show you a quick video of what this marketplace actually looks like.
220
527260
3000
Megmutatók egy gyors videót arról, hogy hogy is néz ki a piac.
08:50
Here's a monkey-eye-view. Monkeys are shorter, so it's a little short.
221
530260
3000
Itt egy majom látószöge. A majmok alacsonyak, tehát egy kicsit alacsony.
08:53
But here's Honey.
222
533260
2000
Itt van Honey.
08:55
She's waiting for the market to open a little impatiently.
223
535260
2000
Egy kicsit türelmetlenül várja, hogy kinyisson a piac.
08:57
All of a sudden the market opens. Here's her choice: one grapes or two grapes.
224
537260
3000
Hirtelen megnyit a piac. Itt a választási lehetőség: egy vagy két szőlőszem.
09:00
You can see Honey, very good market economist,
225
540260
2000
Láthatják, hogy Honey nagyon jó közgazdász,
09:02
goes with the guy who gives more.
226
542260
3000
azt az eladót választja, aki többet ad.
09:05
She could teach our financial advisers a few things or two.
227
545260
2000
Taníthatna egy-két dolgot a pénzügyi tanácsadóinknak.
09:07
So not just Honey,
228
547260
2000
De nem csak Honey,
09:09
most of the monkeys went with guys who had more.
229
549260
3000
a legtöbb majom azt az eladót választotta, aki többet ajánlott.
09:12
Most of the monkeys went with guys who had better food.
230
552260
2000
A legtöbb majom azt választotta, akinek jobb étele volt.
09:14
When we introduced sales, we saw the monkeys paid attention to that.
231
554260
3000
Amikor bevezettük a leárazást, láttuk, hogy a majmok odafigyelnek rá.
09:17
They really cared about their monkey token dollar.
232
557260
3000
Igazán érdekelte őket a majom zseton dollárjuk.
09:20
The more surprising thing was that when we collaborated with economists
233
560260
3000
Az igazán meglepő az volt, amikor együttműködtünk közgazdászokkal
09:23
to actually look at the monkeys' data using economic tools,
234
563260
3000
hogy megvizsgáljuk az adatokat közgazdasági eszközökkel,
09:26
they basically matched, not just qualitatively,
235
566260
3000
nagyjából megegyeztek, nem csak jellegükben,
09:29
but quantitatively with what we saw
236
569260
2000
de mértékükben is azzal, amit
09:31
humans doing in a real market.
237
571260
2000
az emberektől láttunk az igazi piacokon.
09:33
So much so that, if you saw the monkeys' numbers,
238
573260
2000
Olyannyira, hogyha látnák a majmok számait,
09:35
you couldn't tell whether they came from a monkey or a human in the same market.
239
575260
3000
nem tudnák megmondani, hogy majmoktól vagy emberektől származnak-e.
09:38
And what we'd really thought we'd done
240
578260
2000
És valójában azt gondoltuk,
09:40
is like we'd actually introduced something
241
580260
2000
hogy sikerült bevezetnünk valamit, ami,
09:42
that, at least for the monkeys and us,
242
582260
2000
legalábbis nekünk és a majmoknak,
09:44
works like a real financial currency.
243
584260
2000
igazi fizetőeszközként működik.
09:46
Question is: do the monkeys start messing up in the same ways we do?
244
586260
3000
A kérdés az: a majmok is ugyanazokat a hibákat fogják-e elkövetni, mint mi?
09:49
Well, we already saw anecdotally a couple of signs that they might.
245
589260
3000
Nos, máris láttunk anekdotálisan néhány jelét, hogy igen.
09:52
One thing we never saw in the monkey marketplace
246
592260
2000
Aminek semmilyen jelét nem láttuk a majom
09:54
was any evidence of saving --
247
594260
2000
gazdaságban, az a megtakarítás --
09:56
you know, just like our own species.
248
596260
2000
tudják, csak úgy, mint a mi fajunk.
09:58
The monkeys entered the market, spent their entire budget
249
598260
2000
A majmok elköltötték a teljes költségvetésüket a piacon,
10:00
and then went back to everyone else.
250
600260
2000
majd visszamentek a többiekhez.
10:02
The other thing we also spontaneously saw,
251
602260
2000
A másik dolog, amit spontán megfigyeltünk,
10:04
embarrassingly enough,
252
604260
2000
elég kínos módon,
10:06
is spontaneous evidence of larceny.
253
606260
2000
a lopás spontán jelei.
10:08
The monkeys would rip-off the tokens at every available opportunity --
254
608260
3000
A majmok minden adandó alkalommal lenyúlták a zsetonokat --
10:11
from each other, often from us --
255
611260
2000
egymástól, tőlünk --
10:13
you know, things we didn't necessarily think we were introducing,
256
613260
2000
tudják, olyan dolgok, amiket nem gondoltuk, hogy bevezetünk,
10:15
but things we spontaneously saw.
257
615260
2000
de spontán megfigyeltünk.
10:17
So we said, this looks bad.
258
617260
2000
Azt mondtuk, hogy ez elég rosszul fest.
10:19
Can we actually see if the monkeys
259
619260
2000
Megfigyelhetjük-e, hogy a majmok
10:21
are doing exactly the same dumb things as humans do?
260
621260
3000
ugyanazokat a hülyeségeket követik el, mint az emberek?
10:24
One possibility is just kind of let
261
624260
2000
Az egyik lehetőség az volt,
10:26
the monkey financial system play out,
262
626260
2000
hogy hagyjuk a majom pénzügyi rendszert
10:28
you know, see if they start calling us for bailouts in a few years.
263
628260
2000
magától alakulni, hátha egy pár év múlva kisegítést kérnek.
10:30
We were a little impatient so we wanted
264
630260
2000
Kicsit türelmetlenek voltunk, ezért
10:32
to sort of speed things up a bit.
265
632260
2000
fel akartuk pörgetni a dolgokat.
10:34
So we said, let's actually give the monkeys
266
634260
2000
Azt mondtuk, állítsuk a majmokat
10:36
the same kinds of problems
267
636260
2000
ugyanolyan problémák elé,
10:38
that humans tend to get wrong
268
638260
2000
amiket az emberek általában elrontanak
10:40
in certain kinds of economic challenges,
269
640260
2000
bizonyos gazdasági helyzetekben,
10:42
or certain kinds of economic experiments.
270
642260
2000
vagy bizonyos gazdasági kísérletekben.
10:44
And so, since the best way to see how people go wrong
271
644260
3000
És hogy megértsük, hogyan hibáznak az emberek,
10:47
is to actually do it yourself,
272
647260
2000
a legjobb magunknak is kipróbálnunk,
10:49
I'm going to give you guys a quick experiment
273
649260
2000
végzek önökkel egy gyors kísérletet, hogy
10:51
to sort of watch your own financial intuitions in action.
274
651260
2000
lássuk a gazdasági ösztöneiket akció közben.
10:53
So imagine that right now
275
653260
2000
Képzeljék el, hogy most
10:55
I handed each and every one of you
276
655260
2000
átadok mindegyiküknek
10:57
a thousand U.S. dollars -- so 10 crisp hundred dollar bills.
277
657260
3000
ezer amerikai dollárt -- 10 ropogós százdollárost.
11:00
Take these, put it in your wallet
278
660260
2000
Fogják és tegyék a zsebükbe,
11:02
and spend a second thinking about what you're going to do with it.
279
662260
2000
és egy pillanatra képzeljék el, hogy mit fognak vele csinálni.
11:04
Because it's yours now; you can buy whatever you want.
280
664260
2000
Mert az önöké, azt vesznek rajta, amit akarnak.
11:06
Donate it, take it, and so on.
281
666260
2000
Eladományozhatják, eltehetik, stb.
11:08
Sounds great, but you get one more choice to earn a little bit more money.
282
668260
3000
Ez nagyszerű, de kapnak még egy lehetőséget, hogy egy kicsit többet keressenek.
11:11
And here's your choice: you can either be risky,
283
671260
3000
És ez a választási lehetőség: kockáztathatnak,
11:14
in which case I'm going to flip one of these monkey tokens.
284
674260
2000
ebben az esetben feldobok egy majom zsetont.
11:16
If it comes up heads, you're going to get a thousand dollars more.
285
676260
2000
Ha fej, kapnak még ezer dollárt.
11:18
If it comes up tails, you get nothing.
286
678260
2000
Ha írás, nem kapnak semmit.
11:20
So it's a chance to get more, but it's pretty risky.
287
680260
3000
Tehát többet kaphatnak, de kockázatos.
11:23
Your other option is a bit safe. Your just going to get some money for sure.
288
683260
3000
A másik egy óvatos választás. Biztosan kapnak valamennyi pénzt.
11:26
I'm just going to give you 500 bucks.
289
686260
2000
Csak oda fogok adni 500 dollárt.
11:28
You can stick it in your wallet and use it immediately.
290
688260
3000
Zsebrevágahtják és rögtön használhatják.
11:31
So see what your intuition is here.
291
691260
2000
Látják, az ösztönük erre húz.
11:33
Most people actually go with the play-it-safe option.
292
693260
3000
A legtöbben az óvatos lehetőséget választják.
11:36
Most people say, why should I be risky when I can get 1,500 dollars for sure?
293
696260
3000
A többség azt mondja, miért kockáztassak, amikor biztosan kaphatok 1500 dollárt?
11:39
This seems like a good bet. I'm going to go with that.
294
699260
2000
Ez jó üzletnek tűnik. Ezt fogom választani.
11:41
You might say, eh, that's not really irrational.
295
701260
2000
Azt modnhatják, hogy ez nem igazán irracionális.
11:43
People are a little risk-averse. So what?
296
703260
2000
Az emberek tartanak a kockázattól. Na és?
11:45
Well, the "so what?" comes when start thinking
297
705260
2000
A "na és" akkor jön, amikor elkezdünk ugyanerről
11:47
about the same problem
298
707260
2000
a problémáról egy kicsit
11:49
set up just a little bit differently.
299
709260
2000
másképp gondolkodni.
11:51
So now imagine that I give each and every one of you
300
711260
2000
Most képzeljék el, hogy mindegyiküknek adok
11:53
2,000 dollars -- 20 crisp hundred dollar bills.
301
713260
3000
2000 dollárt -- 20 ropogós százdollárost.
11:56
Now you can buy double to stuff you were going to get before.
302
716260
2000
Kétszer annyi mindent vehetnek meg, mint korábban.
11:58
Think about how you'd feel sticking it in your wallet.
303
718260
2000
Képzeljék el, milyen érzés zsebretenniük.
12:00
And now imagine that I have you make another choice
304
720260
2000
És most képzeljék el, hogy megint választaniuk kell.
12:02
But this time, it's a little bit worse.
305
722260
2000
De most ez egy kicsit rosszabb.
12:04
Now, you're going to be deciding how you're going to lose money,
306
724260
3000
Most azt fogják eldönteni, hogyan fognak pénzt veszíteni,
12:07
but you're going to get the same choice.
307
727260
2000
de ugyanazt a választást kapják.
12:09
You can either take a risky loss --
308
729260
2000
Választhatják a kockázatos veszteséget --
12:11
so I'll flip a coin. If it comes up heads, you're going to actually lose a lot.
309
731260
3000
feldobok egy érmét. Ha fej, sokat fognak veszteni.
12:14
If it comes up tails, you lose nothing, you're fine, get to keep the whole thing --
310
734260
3000
Ha írás, nem veszítenek semmit, minden rendben, megtarthatják az egészet --
12:17
or you could play it safe, which means you have to reach back into your wallet
311
737260
3000
vagy lehetnek óvatosak, ami azt jelenti, hogy a zsebükbe kell nyúlniuk
12:20
and give me five of those $100 bills, for certain.
312
740260
3000
és biztosan vissza kell adniuk öt százdollárost.
12:23
And I'm seeing a lot of furrowed brows out there.
313
743260
3000
Sok összeráncolt homlokot látok a közönségben.
12:26
So maybe you're having the same intuitions
314
746260
2000
Szóval lehet, hogy ugyanazt súgja az ösztönük,
12:28
as the subjects that were actually tested in this,
315
748260
2000
mint az alanyoké, akiket vizsgáltunk,
12:30
which is when presented with these options,
316
750260
2000
hogy amikor ezzel a választással állnak szemben,
12:32
people don't choose to play it safe.
317
752260
2000
az emberek nem a biztonságos lehetőséget választják.
12:34
They actually tend to go a little risky.
318
754260
2000
Általában kockáztatnak.
12:36
The reason this is irrational is that we've given people in both situations
319
756260
3000
Ez azért irracionális, mert mindkét esetben ugyanazt a választási
12:39
the same choice.
320
759260
2000
lehetőséget adtuk az embereknek.
12:41
It's a 50/50 shot of a thousand or 2,000,
321
761260
3000
50%-os esély 1000 vagy 2000 dollárra,
12:44
or just 1,500 dollars with certainty.
322
764260
2000
vagy egy biztonságos 1500 dollár.
12:46
But people's intuitions about how much risk to take
323
766260
3000
De az emberek ösztöne, hogy mennyi kockázatot
12:49
varies depending on where they started with.
324
769260
2000
vállaljanak függ attól, hogy honnan indultak.
12:51
So what's going on?
325
771260
2000
Tehát mi történik?
12:53
Well, it turns out that this seems to be the result
326
773260
2000
Nos, mint kiderült ez úgy tűnik,
12:55
of at least two biases that we have at the psychological level.
327
775260
3000
hogy legalább két pszichológiai előítélet eredménye.
12:58
One is that we have a really hard time thinking in absolute terms.
328
778260
3000
Az egyik az, hogy nagyon nehéz abszolút értékekben gondolkodnunk.
13:01
You really have to do work to figure out,
329
781260
2000
Nagyon sokat kell gondolkoznunk, hogy rájöjjünk
13:03
well, one option's a thousand, 2,000;
330
783260
2000
az egyik választás 1000 vagy 2000 dollár,
13:05
one is 1,500.
331
785260
2000
a másik 1500.
13:07
Instead, we find it very easy to think in very relative terms
332
787260
3000
Sokkal egyszerűbb relatív fogalmakban gondolkodnunk,
13:10
as options change from one time to another.
333
790260
3000
ahogy a lehetőségek változnak időről időre.
13:13
So we think of things as, "Oh, I'm going to get more," or "Oh, I'm going to get less."
334
793260
3000
Olyasmiket gondolunk, hogy "Ó, többet fogok kapni" vagy "Ó, kevesebbet fogok kapni."
13:16
This is all well and good, except that
335
796260
2000
Ez mind jó és szép, kivéve, hogy
13:18
changes in different directions
336
798260
2000
a más irányokba történő változások
13:20
actually effect whether or not we think
337
800260
2000
befolyásolják, hogy a lehetőségeinket
13:22
options are good or not.
338
802260
2000
jónak vagy rossznak gondoljuk.
13:24
And this leads to the second bias,
339
804260
2000
És ez egy második előítélethez vezet,
13:26
which economists have called loss aversion.
340
806260
2000
amit a közgazdászok 'veszteség kerülésnek' neveznek.
13:28
The idea is that we really hate it when things go into the red.
341
808260
3000
Lényegében nagyon utáljuk, ha veszteségeink vannak.
13:31
We really hate it when we have to lose out on some money.
342
811260
2000
Nagyon utáljuk, amikor le kell maradnunk pénzről.
13:33
And this means that sometimes we'll actually
343
813260
2000
Ez azt jelenti, hogy néha megváltoztatjuk
13:35
switch our preferences to avoid this.
344
815260
2000
a preferenciáinkat, csak hogy ezt elkerüljük.
13:37
What you saw in that last scenario is that
345
817260
2000
Az utolsó példából azt látták, hogy
13:39
subjects get risky
346
819260
2000
az alanyok kockázatot vállalnak,
13:41
because they want the small shot that there won't be any loss.
347
821260
3000
mert akarnak egy kicsi esélyt arra, hogy nem lesz veszteségük.
13:44
That means when we're in a risk mindset --
348
824260
2000
Ez azt jelenti, hogy amikor kockázat --
13:46
excuse me, when we're in a loss mindset,
349
826260
2000
elnézést, amikor a veszteség jár a fejünkben,
13:48
we actually become more risky,
350
828260
2000
nagyobb kockázatot vállalunk,
13:50
which can actually be really worrying.
351
830260
2000
ami nagyon aggasztó lehet.
13:52
These kinds of things play out in lots of bad ways in humans.
352
832260
3000
Ezek a dolgok nagyon rossz módokon jelentkeznek embereknél.
13:55
They're why stock investors hold onto losing stocks longer --
353
835260
3000
Ezért tartják meg a befektetők a rossz kötvényeket hosszabb ideig --
13:58
because they're evaluating them in relative terms.
354
838260
2000
mert relatív fogalmakban gondolkodnak róluk.
14:00
They're why people in the housing market refused to sell their house --
355
840260
2000
Ezért nem akarják emberek eladni a házukat --
14:02
because they don't want to sell at a loss.
356
842260
2000
mert nem akarják veszteségesen eladni.
14:04
The question we were interested in
357
844260
2000
Az a kérdés érdekelt minket, hogy
14:06
is whether the monkeys show the same biases.
358
846260
2000
vajon a majmoknak is ugyanezek-e az előítéleteik.
14:08
If we set up those same scenarios in our little monkey market,
359
848260
3000
Ha előállítjuk ugyanezt a helyzetet a majom piacon,
14:11
would they do the same thing as people?
360
851260
2000
vajon ugyanazt teszik, mint az emberek?
14:13
And so this is what we did, we gave the monkeys choices
361
853260
2000
Tehát ezt tettük, a majmok választhattak a srácok közül,
14:15
between guys who were safe -- they did the same thing every time --
362
855260
3000
akik biztonságosak voltak -- mindig ugyanazt csinálták --
14:18
or guys who were risky --
363
858260
2000
és kockázatos srácok --
14:20
they did things differently half the time.
364
860260
2000
az idő felében máshogy viselkedtek.
14:22
And then we gave them options that were bonuses --
365
862260
2000
És választási lehetőségeket kaptak, amik bónuszok --
14:24
like you guys did in the first scenario --
366
864260
2000
mint önök az első gyakorlatban --
14:26
so they actually have a chance more,
367
866260
2000
tehát esélyük volt többet kapni,
14:28
or pieces where they were experiencing losses --
368
868260
3000
vagy bizonyos helyzetekben veszteséget szenvedni --
14:31
they actually thought they were going to get more than they really got.
369
871260
2000
amikor azt hitték, hogy többet fognak kapni, mint amit kaptak.
14:33
And so this is what this looks like.
370
873260
2000
És ez így néz ki.
14:35
We introduced the monkeys to two new monkey salesmen.
371
875260
2000
Bemutattunk a majmoknak két új eladót.
14:37
The guy on the left and right both start with one piece of grape,
372
877260
2000
Mindkét srác a jobb és baloldalon egy szőlővel kezd,
14:39
so it looks pretty good.
373
879260
2000
ami kecsegtető.
14:41
But they're going to give the monkeys bonuses.
374
881260
2000
De bónuszokat fognak adni a majmoknak.
14:43
The guy on the left is a safe bonus.
375
883260
2000
A baloldali srác egy biztos bónusz.
14:45
All the time, he adds one, to give the monkeys two.
376
885260
3000
Minden alkalommal egyet ad hozzá, a majom kettőt kap.
14:48
The guy on the right is actually a risky bonus.
377
888260
2000
A srác a jobboldalon egy kockázatos bónusz.
14:50
Sometimes the monkeys get no bonus -- so this is a bonus of zero.
378
890260
3000
Néha a majmok nem kapnak bónuszt -- ami egy 0 bónusz.
14:53
Sometimes the monkeys get two extra.
379
893260
3000
Néha a majmok két extrát kapnak.
14:56
For a big bonus, now they get three.
380
896260
2000
Ami egy nagy bónusz, most hármat kapnak.
14:58
But this is the same choice you guys just faced.
381
898260
2000
De ez ugyanaz a választás, amit önök is megtettek.
15:00
Do the monkeys actually want to play it safe
382
900260
3000
A majmok vajon óvatosak lesznek, és
15:03
and then go with the guy who's going to do the same thing on every trial,
383
903260
2000
azt a srácot választják, aki minden alkalommal ugyanazt csinálja,
15:05
or do they want to be risky
384
905260
2000
vagy kockáztatnak,
15:07
and try to get a risky, but big, bonus,
385
907260
2000
és megpróbálják a kockázatos de nagy bónuszt,
15:09
but risk the possibility of getting no bonus.
386
909260
2000
amiben meg van a 0 bónusz lehetősége.
15:11
People here played it safe.
387
911260
2000
Önök óvatosak voltak.
15:13
Turns out, the monkeys play it safe too.
388
913260
2000
Kiderült, hogy a majmok is óvatosak.
15:15
Qualitatively and quantitatively,
389
915260
2000
Minőségileg és mennyiségileg
15:17
they choose exactly the same way as people,
390
917260
2000
ugyanúgy választanak, mint az emberek,
15:19
when tested in the same thing.
391
919260
2000
amikor ugyanúgy teszteltük őket.
15:21
You might say, well, maybe the monkeys just don't like risk.
392
921260
2000
Mondhatnánk, hogy a majmok nem szeretik a kozkázatot.
15:23
Maybe we should see how they do with losses.
393
923260
2000
Nézzük meg, hogyan bánnak a veszteséggel.
15:25
And so we ran a second version of this.
394
925260
2000
Tehát kipróbáltuk ennek a második verzióját.
15:27
Now, the monkeys meet two guys
395
927260
2000
Most a majmok két sráccal találkoznak,
15:29
who aren't giving them bonuses;
396
929260
2000
akik nem bónuszokat adnak,
15:31
they're actually giving them less than they expect.
397
931260
2000
hanem kevesebbet kapnak, mint amire számítottak.
15:33
So they look like they're starting out with a big amount.
398
933260
2000
Szóval úgy tűnik, hogy nagy adaggal kezdenek.
15:35
These are three grapes; the monkey's really psyched for this.
399
935260
2000
Három szőlő, ettől a majmok lázba jönnek.
15:37
But now they learn these guys are going to give them less than they expect.
400
937260
3000
De most megtudják, hogy ezek a srácok kevesebbet adnak, mint amit vártak.
15:40
They guy on the left is a safe loss.
401
940260
2000
A baloldali egy biztos veszteség.
15:42
Every single time, he's going to take one of these away
402
942260
3000
Minden egyes alkalommal el fog venni egyet
15:45
and give the monkeys just two.
403
945260
2000
és csak kettőt ad a majmoknak.
15:47
the guy on the right is the risky loss.
404
947260
2000
A jobboldali egy kockázatos veszteség.
15:49
Sometimes he gives no loss, so the monkeys are really psyched,
405
949260
3000
Néha nem vesz el semmit, amitől a majmok odáig vannak,
15:52
but sometimes he actually gives a big loss,
406
952260
2000
de néha nagy veszteséget okoz,
15:54
taking away two to give the monkeys only one.
407
954260
2000
kettőt vesz el és csak egyet ad a majmoknak.
15:56
And so what do the monkeys do?
408
956260
2000
Tehát mit csinálnak a majmok?
15:58
Again, same choice; they can play it safe
409
958260
2000
Ugyanaz a választás, lehetnek óvatosak
16:00
for always getting two grapes every single time,
410
960260
3000
és mindig két szőlőt kapnak, vagy
16:03
or they can take a risky bet and choose between one and three.
411
963260
3000
kockáztathatnak és az egy és három közül választanak.
16:06
The remarkable thing to us is that, when you give monkeys this choice,
412
966260
3000
Ami figyelemreméltó számunkra, amikor a majmoknak adjuk ezt az opciót,
16:09
they do the same irrational thing that people do.
413
969260
2000
ugyanazt az irracionális döntést hozzák, mint mi.
16:11
They actually become more risky
414
971260
2000
Nagyobb kockázatot vállalnak
16:13
depending on how the experimenters started.
415
973260
3000
az alapján, hogy a kísérletezők honnan indultak.
16:16
This is crazy because it suggests that the monkeys too
416
976260
2000
Ez őrület, mert eszerint a majmok is
16:18
are evaluating things in relative terms
417
978260
2000
relatív fogalmak szerint értékelik a dolgokat
16:20
and actually treating losses differently than they treat gains.
418
980260
3000
és máshogy kezelik a veszteséget, mint a nyereséget.
16:23
So what does all of this mean?
419
983260
2000
Tehát mit jelent mindez?
16:25
Well, what we've shown is that, first of all,
420
985260
2000
Először is megmutattuk, hogy
16:27
we can actually give the monkeys a financial currency,
421
987260
2000
adhatunk a majmoknak egy pénzügyi fizetőeszközt,
16:29
and they do very similar things with it.
422
989260
2000
és hasonló dolgokat csinálnak vele.
16:31
They do some of the smart things we do,
423
991260
2000
Néhány okos dolgot, amit mi is,
16:33
some of the kind of not so nice things we do,
424
993260
2000
és néhány nem olyan kellemes dolgot, amit mi is,
16:35
like steal it and so on.
425
995260
2000
pl. lopnak és hasonlók.
16:37
But they also do some of the irrational things we do.
426
997260
2000
De néhány irracionális dolgot is csinálnak, amit mi is.
16:39
They systematically get things wrong
427
999260
2000
Rendszeresen rosszul döntenek,
16:41
and in the same ways that we do.
428
1001260
2000
és ugyanolyan módon, mint mi.
16:43
This is the first take-home message of the Talk,
429
1003260
2000
Ez az előadás első maradandó üzenete,
16:45
which is that if you saw the beginning of this and you thought,
430
1005260
2000
hogyha látták az elejét és azt gondolták,
16:47
oh, I'm totally going to go home and hire a capuchin monkey financial adviser.
431
1007260
2000
ezután majmokat fogok pénzügyi tanácsadóként alkalmazni.
16:49
They're way cuter than the one at ... you know --
432
1009260
2000
Sokkal édesebbek, mint...tudják --
16:51
Don't do that; they're probably going to be just as dumb
433
1011260
2000
Ne tegyék, mert valószínűleg ugyanolyan hülyék lesznek,
16:53
as the human one you already have.
434
1013260
3000
mint az emberek, akik most önöknek dolgoznak.
16:56
So, you know, a little bad -- Sorry, sorry, sorry.
435
1016260
2000
Szóval tudják, egy kicsit rossz --bocs, bocs, bocs.
16:58
A little bad for monkey investors.
436
1018260
2000
Egy kicsit rossz a majom befektetőknek.
17:00
But of course, you know, the reason you're laughing is bad for humans too.
437
1020260
3000
De tudják az ok, amiért nevetnek, rossz az embereknek is.
17:03
Because we've answered the question we started out with.
438
1023260
3000
Mert megválaszoltuk a kérdést, amiből kiindultunk.
17:06
We wanted to know where these kinds of errors came from.
439
1026260
2000
Meg akartuk tudni, hogy honnan jönnek ezek a hibák.
17:08
And we started with the hope that maybe we can
440
1028260
2000
És azzal a reménnyel kezdtük, hogy talán
17:10
sort of tweak our financial institutions,
441
1030260
2000
javíthatunk a pénzügyi intézményeinken,
17:12
tweak our technologies to make ourselves better.
442
1032260
3000
javíthatunk a technológiáinkon, hogy jobbá tegyük magunkat.
17:15
But what we've learn is that these biases might be a deeper part of us than that.
443
1035260
3000
De azt láttuk, hogy ezek az előítéletek ennél mélyebben gyökerezhetnek bennünk.
17:18
In fact, they might be due to the very nature
444
1038260
2000
Sőt, talán egyenesen az evolúciós
17:20
of our evolutionary history.
445
1040260
2000
történelmünkből fakadnak.
17:22
You know, maybe it's not just humans
446
1042260
2000
Tudják, talán nem csak az emberek
17:24
at the right side of this chain that's duncey.
447
1044260
2000
ostobák a lánc jobb oldalán.
17:26
Maybe it's sort of duncey all the way back.
448
1046260
2000
Talán ostoba minden egészen a kezdetekig.
17:28
And this, if we believe the capuchin monkey results,
449
1048260
3000
És ez, ha hiszünk a kapucinus majmok eredményeinek,
17:31
means that these duncey strategies
450
1051260
2000
azt jelenti, hogy ezek az ostoba stratégiák
17:33
might be 35 million years old.
451
1053260
2000
akár 35 millió évesek is lehetnek.
17:35
That's a long time for a strategy
452
1055260
2000
Ez hosszú idő ahhoz, hogy egy
17:37
to potentially get changed around -- really, really old.
453
1057260
3000
stratégia megváltozzon -- nagyon-nagyon hosszú.
17:40
What do we know about other old strategies like this?
454
1060260
2000
Mit tudunk más, hasonlóan régi stratégiákról?
17:42
Well, one thing we know is that they tend to be really hard to overcome.
455
1062260
3000
Nos, az egyik az, hogy tudjuk, nagyon nehéz leküzdeni őket.
17:45
You know, think of our evolutionary predilection
456
1065260
2000
Tudják, az evolúciós késztetésünk arra, hogy
17:47
for eating sweet things, fatty things like cheesecake.
457
1067260
3000
édes, zsíros dolgokat együnk, mint pl. a sajttorta.
17:50
You can't just shut that off.
458
1070260
2000
Ezt nem lehet egyszerűen kikapcsolni.
17:52
You can't just look at the dessert cart as say, "No, no, no. That looks disgusting to me."
459
1072260
3000
Nem tudunk a desszertes kocsira nézni és azt mondani, "Nem, ez gusztustalan."
17:55
We're just built differently.
460
1075260
2000
Egyszerűen nem így vagyunk tervezve.
17:57
We're going to perceive it as a good thing to go after.
461
1077260
2000
Úgy fogjuk látni, hogy ez egy jó dolog, érdemes utána menni.
17:59
My guess is that the same thing is going to be true
462
1079260
2000
Azt tippelem, hogy ugyanez igaz arra,
18:01
when humans are perceiving
463
1081260
2000
ahogy az emberek a különböző
18:03
different financial decisions.
464
1083260
2000
pénzügyi döntéseket látják.
18:05
When you're watching your stocks plummet into the red,
465
1085260
2000
Amikor azt látod, hogy zuhan a kötvényeid éréke,
18:07
when you're watching your house price go down,
466
1087260
2000
amikor látod, ahogy esik a házad értéke,
18:09
you're not going to be able to see that
467
1089260
2000
nem tudod máshogy látni,
18:11
in anything but old evolutionary terms.
468
1091260
2000
mint evolúciós fogalmakban.
18:13
This means that the biases
469
1093260
2000
Ez azt jelenti, hogy az előítéleteket
18:15
that lead investors to do badly,
470
1095260
2000
amik a rossz befektetésekhez vezetnek,
18:17
that lead to the foreclosure crisis
471
1097260
2000
amik az ingatlanárverezésekhez vezettek,
18:19
are going to be really hard to overcome.
472
1099260
2000
nagyon nehéz lesz legyőzni.
18:21
So that's the bad news. The question is: is there any good news?
473
1101260
2000
Ez a rossz hír. A kérdés az: van-e jó hír?
18:23
I'm supposed to be up here telling you the good news.
474
1103260
2000
Elvileg azért vagyok itt, hogy jó híreket mondjak.
18:25
Well, the good news, I think,
475
1105260
2000
Nos, a jó hír az, szerintem,
18:27
is what I started with at the beginning of the Talk,
476
1107260
2000
amivel az előadást kezdtem, hogy
18:29
which is that humans are not only smart;
477
1109260
2000
az emberek nem csak okosak,
18:31
we're really inspirationally smart
478
1111260
2000
hanem tényleg, inspirálóan okosak
18:33
to the rest of the animals in the biological kingdom.
479
1113260
3000
a többi állathoz képest a biológia birodalmában.
18:36
We're so good at overcoming our biological limitations --
480
1116260
3000
Olyan jók vagyunk abban, hogy legyőzzük a biológiai korlátainkat --
18:39
you know, I flew over here in an airplane.
481
1119260
2000
tudják, repülővel jöttem ide.
18:41
I didn't have to try to flap my wings.
482
1121260
2000
Nem kellett csapkodnom a szárnyaimmal.
18:43
I'm wearing contact lenses now so that I can see all of you.
483
1123260
3000
Kontakt lencsét hordok, hogy láthassam is önöket.
18:46
I don't have to rely on my own near-sightedness.
484
1126260
3000
Nem tart vissza a saját rövidlátóságom.
18:49
We actually have all of these cases
485
1129260
2000
Ezekben az esetekben túlléptünk
18:51
where we overcome our biological limitations
486
1131260
3000
a biológiai korlátainkon, a technológia
18:54
through technology and other means, seemingly pretty easily.
487
1134260
3000
segítségével, látszólag nagyon könnyen.
18:57
But we have to recognize that we have those limitations.
488
1137260
3000
De fel kell ismernünk a saját korlátainkat.
19:00
And here's the rub.
489
1140260
2000
És ez a bökkenő.
19:02
It was Camus who once said that, "Man is the only species
490
1142260
2000
Camus azt mondta, "Az ember az egyetlen teremtmény a világon,
19:04
who refuses to be what he really is."
491
1144260
3000
amely nem akar az lenni, ami."
19:07
But the irony is that
492
1147260
2000
Ebben az az irónikus,
19:09
it might only be in recognizing our limitations
493
1149260
2000
hogy csak akkor tudjuk túllépni a korlátainkat,
19:11
that we can really actually overcome them.
494
1151260
2000
ha felismerjük őket.
19:13
The hope is that you all will think about your limitations,
495
1153260
3000
Azt remélem, hogy úgy gondolnak a korlátaikra,
19:16
not necessarily as unovercomable,
496
1156260
3000
nem, mint leküzdhetetlen akadályokra,
19:19
but to recognize them, accept them
497
1159260
2000
de felismerik és elfogadják azokat,
19:21
and then use the world of design to actually figure them out.
498
1161260
3000
és aztán a design világának segítségével megoldják azokat.
19:24
That might be the only way that we will really be able
499
1164260
3000
Ez lehet az egyetlen módja annak, hogy
19:27
to achieve our own human potential
500
1167260
2000
elérjük a teljes emberi potenciálunkat,
19:29
and really be the noble species we hope to all be.
501
1169260
3000
és tényleg a nemes faj legyünk, ami mind lenni szeretnénk.
19:32
Thank you.
502
1172260
2000
Köszönöm.
19:34
(Applause)
503
1174260
5000
(Taps)
Erről a weboldalról

Ez az oldal olyan YouTube-videókat mutat be, amelyek hasznosak az angol nyelvtanuláshoz. A világ minden tájáról származó, kiváló tanárok által tartott angol leckéket láthatsz. Az egyes videók oldalán megjelenő angol feliratokra duplán kattintva onnan játszhatja le a videót. A feliratok a videó lejátszásával szinkronban gördülnek. Ha bármilyen észrevétele vagy kérése van, kérjük, lépjen kapcsolatba velünk ezen a kapcsolatfelvételi űrlapon.

https://forms.gle/WvT1wiN1qDtmnspy7