Laurie Santos: How monkeys mirror human irrationality

197,716 views ・ 2010-07-29

TED


Pro přehrání videa dvakrát klikněte na anglické titulky níže.

Překladatel: Jan Kadlec Korektor: Adam Lebeda
00:17
I want to start my talk today with two observations
0
17260
2000
Dnes bych ráda začala dvěma postřehy
00:19
about the human species.
1
19260
2000
o lidském druhu.
00:21
The first observation is something that you might think is quite obvious,
2
21260
3000
Ten první se týká něčeho, co můžete považovat za celkem samozřejmé
00:24
and that's that our species, Homo sapiens,
3
24260
2000
a to že náš druh, Homo sapiens,
00:26
is actually really, really smart --
4
26260
2000
je vlastně velmi, velmi chytrý –
00:28
like, ridiculously smart --
5
28260
2000
vlastně až směšně chytrý –
00:30
like you're all doing things
6
30260
2000
jakože dokáže všechny ty věci,
00:32
that no other species on the planet does right now.
7
32260
3000
které žádný jiný druh na zemi nedokáže.
00:35
And this is, of course,
8
35260
2000
A samozřejmě
00:37
not the first time you've probably recognized this.
9
37260
2000
toto není poprvé, kdy si to nejspíš uvědomujete.
00:39
Of course, in addition to being smart, we're also an extremely vain species.
10
39260
3000
Ovšem, krom toho, že jsme chytří, jsme také neuvěřitelně ješitný druh.
00:42
So we like pointing out the fact that we're smart.
11
42260
3000
Takže rádi zdůrazňujeme, že jsme chytří.
00:45
You know, so I could turn to pretty much any sage
12
45260
2000
Však se můžu obrátit na mnoho velkých mužů
00:47
from Shakespeare to Stephen Colbert
13
47260
2000
od Shakespeara po Stephena Colberta,
00:49
to point out things like the fact that
14
49260
2000
abych vyzdvihla věci jako že
00:51
we're noble in reason and infinite in faculties
15
51260
2000
jsme ušlechtilí v myšlení a nekoneční v nadání
00:53
and just kind of awesome-er than anything else on the planet
16
53260
2000
a vůbec tak trochu úžasnější než kdokoli jiný na zemi
00:55
when it comes to all things cerebral.
17
55260
3000
co se intelektuálna týče.
00:58
But of course, there's a second observation about the human species
18
58260
2000
Na druhé straně tu je ale druhý poznatek o lidském druhu,
01:00
that I want to focus on a little bit more,
19
60260
2000
na který se chci zaměřit trochu víc,
01:02
and that's the fact that
20
62260
2000
a tím je fakt, že
01:04
even though we're actually really smart, sometimes uniquely smart,
21
64260
3000
ačkoli jsme opravdu velmi chytří, někdy výjimečně chytří,
01:07
we can also be incredibly, incredibly dumb
22
67260
3000
umíme také být neuvěřitelně, neuvěřitelně pitomí,
01:10
when it comes to some aspects of our decision making.
23
70260
3000
když přijde řeč na některé stránky našeho rozhodování.
01:13
Now I'm seeing lots of smirks out there.
24
73260
2000
Koukám, že se tu docela culíte,
01:15
Don't worry, I'm not going to call anyone in particular out
25
75260
2000
ale nebojte, nehodlám tu na nikom předvádět
01:17
on any aspects of your own mistakes.
26
77260
2000
žádný z příkladů vašich vlastních chyb.
01:19
But of course, just in the last two years
27
79260
2000
Ovšem za poslední dva roky
01:21
we see these unprecedented examples of human ineptitude.
28
81260
3000
můžeme pozorovat mnoho nových příkladů lidské pošetilosti.
01:24
And we've watched as the tools we uniquely make
29
84260
3000
Byli jsme svědky toho, jak se nástroje, které jsme sami vytvořili
01:27
to pull the resources out of our environment
30
87260
2000
k čerpání přírodních zdrojů,
01:29
kind of just blow up in our face.
31
89260
2000
obrátily proti nám.
01:31
We've watched the financial markets that we uniquely create --
32
91260
2000
Sledovali jsme finanční trhy, jež jsme sami vytvořili –
01:33
these markets that were supposed to be foolproof --
33
93260
3000
trhy považované za spolehlivé –
01:36
we've watched them kind of collapse before our eyes.
34
96260
2000
sledovali jsme, jak se nám hroutí před očima.
01:38
But both of these two embarrassing examples, I think,
35
98260
2000
Myslím si ale, že oba tyto nepříjemné příklady
01:40
don't highlight what I think is most embarrassing
36
100260
3000
nezdůrazňují to, co považuji za nejnepříjemnější
01:43
about the mistakes that humans make,
37
103260
2000
část našeho chybování -
01:45
which is that we'd like to think that the mistakes we make
38
105260
3000
že bychom si rádi mysleli, že chyby, které děláme,
01:48
are really just the result of a couple bad apples
39
108260
2000
jsou prostě způsobeny jen hloupou shodou okolností
01:50
or a couple really sort of FAIL Blog-worthy decisions.
40
110260
3000
nebo pár zkraty, kterým bychom se později zasmáli.
01:53
But it turns out, what social scientists are actually learning
41
113260
3000
Ukazuje se však, jak sociální vědci začínají poznávat,
01:56
is that most of us, when put in certain contexts,
42
116260
3000
že většina z nás, v určitých situacích,
01:59
will actually make very specific mistakes.
43
119260
3000
bude dělat velmi specifické chyby.
02:02
The errors we make are actually predictable.
44
122260
2000
Tato selhání jsou vlastně předvídatelná.
02:04
We make them again and again.
45
124260
2000
Děláme je zas a znova.
02:06
And they're actually immune to lots of evidence.
46
126260
2000
Vzpírají se dokonce logice.
02:08
When we get negative feedback,
47
128260
2000
I když dostaneme negativní zpětnou vazbu,
02:10
we still, the next time we're face with a certain context,
48
130260
3000
stejně, jakmile se ocitneme ve stejné situaci,
02:13
tend to make the same errors.
49
133260
2000
inklinujeme k opakování té samé chyby.
02:15
And so this has been a real puzzle to me
50
135260
2000
Byl to pro mě jako pro badatelku v lidské přirozenosti
02:17
as a sort of scholar of human nature.
51
137260
2000
opravdu velký oříšek.
02:19
What I'm most curious about is,
52
139260
2000
Nejvíce mě zajímá,
02:21
how is a species that's as smart as we are
53
141260
3000
jak jsou bytosti tak chytré jako my
02:24
capable of such bad
54
144260
2000
schopné tak špatných
02:26
and such consistent errors all the time?
55
146260
2000
a stále se opakujících chyb?
02:28
You know, we're the smartest thing out there, why can't we figure this out?
56
148260
3000
Chápete, když jsme široko daleko ti nejchytřejší, proč na to nepřijdeme?
02:31
In some sense, where do our mistakes really come from?
57
151260
3000
Můžeme se ptát: jak takové chyby vlastně vznikají?
02:34
And having thought about this a little bit, I see a couple different possibilities.
58
154260
3000
A když se nad tím trochu zamyslím, napadá mě několik různých možností.
02:37
One possibility is, in some sense, it's not really our fault.
59
157260
3000
Jednou z možností je, že v jistém smyslu to není naše chyba.
02:40
Because we're a smart species,
60
160260
2000
Protože jsme tak inteligentní druh,
02:42
we can actually create all kinds of environments
61
162260
2000
umíme vytvořit taková prostředí,
02:44
that are super, super complicated,
62
164260
2000
která jsou tak moc, strašně moc složitá,
02:46
sometimes too complicated for us to even actually understand,
63
166260
3000
občas tak složitá, že je ani nedovedeme pochopit,
02:49
even though we've actually created them.
64
169260
2000
přestože jsme je sami vytvořili.
02:51
We create financial markets that are super complex.
65
171260
2000
Vytvořili jsme ohromně zašmodrchané finanční trhy.
02:53
We create mortgage terms that we can't actually deal with.
66
173260
3000
Vytvořili jsme podmínky hypoték, se kterými si vlastně nevíme rady.
02:56
And of course, if we are put in environments where we can't deal with it,
67
176260
3000
A tedy, když se ocitneme v prostředí, ve kterém se nevyznáme,
02:59
in some sense makes sense that we actually
68
179260
2000
dává vlastně smysl,
03:01
might mess certain things up.
69
181260
2000
že občas v něčem uděláme opravdový chaos.
03:03
If this was the case, we'd have a really easy solution
70
183260
2000
Jestli to byl ten případ, měli bychom snadné
03:05
to the problem of human error.
71
185260
2000
řešení lidských omylů.
03:07
We'd actually just say, okay, let's figure out
72
187260
2000
Prostě bychom řekli: fajn, ujasněme si,
03:09
the kinds of technologies we can't deal with,
73
189260
2000
s jakými technologiemi si nevíme rady,
03:11
the kinds of environments that are bad --
74
191260
2000
jaké prostředí je pro nás špatné,
03:13
get rid of those, design things better,
75
193260
2000
a zbavme se toho, udělejme to lepší,
03:15
and we should be the noble species
76
195260
2000
a pak můžeme být ten vznešený druh,
03:17
that we expect ourselves to be.
77
197260
2000
jak od sebe čekáme.
03:19
But there's another possibility that I find a little bit more worrying,
78
199260
3000
Jenže je tu druhá možnost, která mi připadá trochu děsivější:
03:22
which is, maybe it's not our environments that are messed up.
79
202260
3000
možná to není to okolo nás, co je špatně.
03:25
Maybe it's actually us that's designed badly.
80
205260
3000
Možná je chyba v nás.
03:28
This is a hint that I've gotten
81
208260
2000
Toto tušení jsem dostala
03:30
from watching the ways that social scientists have learned about human errors.
82
210260
3000
při sledování toho, jak sociální vědci studovali lidské chyby.
03:33
And what we see is that people tend to keep making errors
83
213260
3000
Můžeme pozorovat, že lidé mají tendenci dělat chyby
03:36
exactly the same way, over and over again.
84
216260
3000
stále stejně, pořád a pořád dokola.
03:39
It feels like we might almost just be built
85
219260
2000
Skoro to vypadá, jako bychom byli nastaveni tak,
03:41
to make errors in certain ways.
86
221260
2000
abychom chybovali určitými způsoby.
03:43
This is a possibility that I worry a little bit more about,
87
223260
3000
Toto je ta možnost, která mě znepokojuje o trochu víc,
03:46
because, if it's us that's messed up,
88
226260
2000
protože, jestli je chyba v nás,
03:48
it's not actually clear how we go about dealing with it.
89
228260
2000
není příliš jasné, jak se s tím můžeme vypořádat.
03:50
We might just have to accept the fact that we're error prone
90
230260
3000
Možná bychom mohli prostě přijmout fakt, že jsme náchylní k chybám,
03:53
and try to design things around it.
91
233260
2000
a zkusit tomu přizpůsobit všechno okolo.
03:55
So this is the question my students and I wanted to get at.
92
235260
3000
Tak toto je otázka, které jsem se svými studenty chtěla přijít na kloub.
03:58
How can we tell the difference between possibility one and possibility two?
93
238260
3000
Jak poznáme rozdíly mezi první a druhou možností?
04:01
What we need is a population
94
241260
2000
Budeme potřebovat soubor jedinců,
04:03
that's basically smart, can make lots of decisions,
95
243260
2000
kteří jsou v zásadě chytří, mohou činit spousty rozhodnutí,
04:05
but doesn't have access to any of the systems we have,
96
245260
2000
ale nemají přístup k našim zřízením,
04:07
any of the things that might mess us up --
97
247260
2000
k ničemu, co nás může zmást –
04:09
no human technology, human culture,
98
249260
2000
žádné lidské technologie, lidská kultura,
04:11
maybe even not human language.
99
251260
2000
možná ani lidský jazyk.
04:13
And so this is why we turned to these guys here.
100
253260
2000
A to je důvod, proč jsme požádali o pomoc tyhle tvory.
04:15
These are one of the guys I work with. This is a brown capuchin monkey.
101
255260
3000
Tohle je jeden z tvorů, se kterými jsem pracovala. Je to hnědá malpa kapucínská.
04:18
These guys are New World primates,
102
258260
2000
Patří mezi opice Nového světa,
04:20
which means they broke off from the human branch
103
260260
2000
což znamená, že se oddělili od lidské vývojové větve
04:22
about 35 million years ago.
104
262260
2000
asi před 35 miliony lety.
04:24
This means that your great, great, great great, great, great --
105
264260
2000
To znamená, že vaše prapraprapraprapra –
04:26
with about five million "greats" in there --
106
266260
2000
s asi pěti miliony „pra“ –
04:28
grandmother was probably the same great, great, great, great
107
268260
2000
babička byla nejspíš ta stejná prapraprapra
04:30
grandmother with five million "greats" in there
108
270260
2000
babička s pěti miliony „pra“
04:32
as Holly up here.
109
272260
2000
jako ta Hollyina tady na obrázku.
04:34
You know, so you can take comfort in the fact that this guy up here is a really really distant,
110
274260
3000
Víte, je to celkem fajn zjištění, že tato opička je velmi, velmi vzdálený –
04:37
but albeit evolutionary, relative.
111
277260
2000
ale přesto evoluční – příbuzný.
04:39
The good news about Holly though is that
112
279260
2000
Jedou z výhod Holly je, že
04:41
she doesn't actually have the same kinds of technologies we do.
113
281260
3000
nezná ty vymoženosti, které máme.
04:44
You know, she's a smart, very cut creature, a primate as well,
114
284260
3000
Tím chci říct, je to chytrý a roztomilý tvoreček, k tomu primát,
04:47
but she lacks all the stuff we think might be messing us up.
115
287260
2000
ale není zatížena tím vším, co nám nejspíš dělá ty trable.
04:49
So she's the perfect test case.
116
289260
2000
Takže je to skvělý modelový případ.
04:51
What if we put Holly into the same context as humans?
117
291260
3000
Co kdybychom Holly uvedli do stejné situace jako lidi?
04:54
Does she make the same mistakes as us?
118
294260
2000
Bude dělat stejné chyby jako my?
04:56
Does she not learn from them? And so on.
119
296260
2000
Nepoučí se z nich? A tak dále.
04:58
And so this is the kind of thing we decided to do.
120
298260
2000
A tak nějak jsme se rozhodli to provést.
05:00
My students and I got very excited about this a few years ago.
121
300260
2000
Mě a mé studenty to před několika lety úplně pohltilo.
05:02
We said, all right, let's, you know, throw so problems at Holly,
122
302260
2000
Řekli jsme si: super, hoďme Holly do hromady úkolů
05:04
see if she messes these things up.
123
304260
2000
a koukejme, jak si s nimi poradí.
05:06
First problem is just, well, where should we start?
124
306260
3000
První problém byl, kde bychom vlastně měli začít?
05:09
Because, you know, it's great for us, but bad for humans.
125
309260
2000
Protože pro nás je to skvělé, pro lidi moc ne.
05:11
We make a lot of mistakes in a lot of different contexts.
126
311260
2000
Děláme spousty chyb v různých souvislostech.
05:13
You know, where are we actually going to start with this?
127
313260
2000
Takže kde bychom s tím měli začít?
05:15
And because we started this work around the time of the financial collapse,
128
315260
3000
A protože jsme se zrovna nacházeli ve finanční krizi,
05:18
around the time when foreclosures were hitting the news,
129
318260
2000
v době kdy byly noviny zahlceny propadávajícími zástavami domů,
05:20
we said, hhmm, maybe we should
130
320260
2000
řekli jsme si: hmm, možná bychom měli
05:22
actually start in the financial domain.
131
322260
2000
začít s oblastí financí.
05:24
Maybe we should look at monkey's economic decisions
132
324260
3000
Možná bychom se měli podívat na to, jak se opice finančně rozhodují,
05:27
and try to see if they do the same kinds of dumb things that we do.
133
327260
3000
a zkusit vypozorovat, jestli dělají stejné pitomosti jako my.
05:30
Of course, that's when we hit a sort second problem --
134
330260
2000
Samozřejmě, v tuto chvíli jsme narazili na další problém –
05:32
a little bit more methodological --
135
332260
2000
týkající se tak trochu metodologie –
05:34
which is that, maybe you guys don't know,
136
334260
2000
který spočíval, jak někteří z vás možná netuší,
05:36
but monkeys don't actually use money. I know, you haven't met them.
137
336260
3000
v tom, že opice nepoužívají peníze. Vím, nikdy jste je neviděli.
05:39
But this is why, you know, they're not in the queue behind you
138
339260
2000
Ale to je důvod, proč za vámi nestojí ve frontě
05:41
at the grocery store or the ATM -- you know, they don't do this stuff.
139
341260
3000
v samoobsluze nebo u bankomatu – však víte, ony to nepotřebují.
05:44
So now we faced, you know, a little bit of a problem here.
140
344260
3000
Takže jsme tu měli takový problém.
05:47
How are we actually going to ask monkeys about money
141
347260
2000
Jak opice požádáme, aby používaly peníze,
05:49
if they don't actually use it?
142
349260
2000
když je vlastně neznají?
05:51
So we said, well, maybe we should just, actually just suck it up
143
351260
2000
Tak jsme si řekli, že bychom prostě mohli trochu zbrzdit
05:53
and teach monkeys how to use money.
144
353260
2000
a naučit opice používat peníze.
05:55
So that's just what we did.
145
355260
2000
A jak jsme řekli, tak jsme udělali.
05:57
What you're looking at over here is actually the first unit that I know of
146
357260
3000
Právě se díváte na první jednotku nečlověčí měny,
06:00
of non-human currency.
147
360260
2000
o které vím.
06:02
We weren't very creative at the time we started these studies,
148
362260
2000
Na začátku studie jsem trochu postrádali kreativitu,
06:04
so we just called it a token.
149
364260
2000
tak jsme ji nazvali jednoduše token.
06:06
But this is the unit of currency that we've taught our monkeys at Yale
150
366260
3000
Každopádně to je jednotka měny, kterou jsme naučili naše opičky na Yaleu
06:09
to actually use with humans,
151
369260
2000
používat při styku s lidmi,
06:11
to actually buy different pieces of food.
152
371260
3000
aby si mohly koupit různé jídlo.
06:14
It doesn't look like much -- in fact, it isn't like much.
153
374260
2000
Nevypadá to jako moc peněz, vlastně to ani není moc.
06:16
Like most of our money, it's just a piece of metal.
154
376260
2000
Stejně jako naše peníze to je jen kousek kovu.
06:18
As those of you who've taken currencies home from your trip know,
155
378260
3000
Jestli jste si někdy dovezli nějaké cizí peníze z dovolené, zjistili jste,
06:21
once you get home, it's actually pretty useless.
156
381260
2000
že doma jsou docela bezcenné.
06:23
It was useless to the monkeys at first
157
383260
2000
Původně byly bezcenné i pro naše opičáky,
06:25
before they realized what they could do with it.
158
385260
2000
než zjistili, co se s tím dá dělat.
06:27
When we first gave it to them in their enclosures,
159
387260
2000
Když jsme jim je dali poprvé,
06:29
they actually kind of picked them up, looked at them.
160
389260
2000
jen je zvedli a koukli na ně.
06:31
They were these kind of weird things.
161
391260
2000
Byly to prostě nějaké divné věcičky.
06:33
But very quickly, the monkeys realized
162
393260
2000
Ale velmi rychle opičky zjistily,
06:35
that they could actually hand these tokens over
163
395260
2000
že tyto tokeny mohou v laboratoři vyměnit
06:37
to different humans in the lab for some food.
164
397260
3000
s různými lidmi za nějaké jídlo.
06:40
And so you see one of our monkeys, Mayday, up here doing this.
165
400260
2000
Tady vidíte jednu z opic, Mayday, přímo v akci.
06:42
This is A and B are kind of the points where she's sort of a little bit
166
402260
3000
Na obrázcích A a B je ještě trochu
06:45
curious about these things -- doesn't know.
167
405260
2000
zvědavá – neví, co s tím.
06:47
There's this waiting hand from a human experimenter,
168
407260
2000
Tady čeká ruka lidského výzkumníka
06:49
and Mayday quickly figures out, apparently the human wants this.
169
409260
3000
a Mayday rychle zjišťuje, co ten člověk zjevně chce.
06:52
Hands it over, and then gets some food.
170
412260
2000
Předává token a dostává jídlo.
06:54
It turns out not just Mayday, all of our monkeys get good
171
414260
2000
Nejen Mayday, ale i další opičky se zlepšily
06:56
at trading tokens with human salesman.
172
416260
2000
v obchodování tokeny s lidským obchodníkem.
06:58
So here's just a quick video of what this looks like.
173
418260
2000
Tady je krátké video, jak to vypadalo.
07:00
Here's Mayday. She's going to be trading a token for some food
174
420260
3000
To je Mayday. Bude směňovat token za jídlo,
07:03
and waiting happily and getting her food.
175
423260
3000
těší se a dostává kousek jídla.
07:06
Here's Felix, I think. He's our alpha male; he's a kind of big guy.
176
426260
2000
Toto je, myslím, Felix, je to náš alfa samec, pořádný kus chlapa,
07:08
But he too waits patiently, gets his food and goes on.
177
428260
3000
ale trpělivě čeká, dostane jídlo a jde si po svých.
07:11
So the monkeys get really good at this.
178
431260
2000
Opičky v tom byly opravdu dobré.
07:13
They're surprisingly good at this with very little training.
179
433260
3000
Byly překvapivě dobré a to skoro bez cvičení.
07:16
We just allowed them to pick this up on their own.
180
436260
2000
Prostě jsme jim dovolili, aby se to naučily samy.
07:18
The question is: is this anything like human money?
181
438260
2000
otázkou však je: připomíná to lidské peníze?
07:20
Is this a market at all,
182
440260
2000
Je to opravdu trh, nebo se nám
07:22
or did we just do a weird psychologist's trick
183
442260
2000
jen podařil divný psychologický trik,
07:24
by getting monkeys to do something,
184
444260
2000
kde jsme přiměli opice něco udělat
07:26
looking smart, but not really being smart.
185
446260
2000
a vypadat chytře, aniž by opravdu byly chytré?
07:28
And so we said, well, what would the monkeys spontaneously do
186
448260
3000
A tak jsme si řekli, dobrá, co by opice samy o sobě dělaly,
07:31
if this was really their currency, if they were really using it like money?
187
451260
3000
kdyby to byla opravdová měna, kdyby používaly opravdové peníze?
07:34
Well, you might actually imagine them
188
454260
2000
Dokážete si je asi představit
07:36
to do all the kinds of smart things
189
456260
2000
dělat všechny ty chytré věci
07:38
that humans do when they start exchanging money with each other.
190
458260
3000
jako lidé, kdy si začnou vyměňovat peníze.
07:41
You might have them start paying attention to price,
191
461260
3000
Čekali byste, že si začnou všímat ceny,
07:44
paying attention to how much they buy --
192
464260
2000
toho, kolik kupují –
07:46
sort of keeping track of their monkey token, as it were.
193
466260
3000
sledovat své opičí tokeny, jak fungují.
07:49
Do the monkeys do anything like this?
194
469260
2000
Dělají opice něco takového?
07:51
And so our monkey marketplace was born.
195
471260
3000
Takhle se zrodilo naše opičí tržiště.
07:54
The way this works is that
196
474260
2000
Způsob, jakým to fungovalo, byl takový,
07:56
our monkeys normally live in a kind of big zoo social enclosure.
197
476260
3000
že naše opice normálně žily v něčem jako ve společných ubikacích v zoo.
07:59
When they get a hankering for some treats,
198
479260
2000
Když zatoužily po nějakých dobrotách,
08:01
we actually allowed them a way out
199
481260
2000
dovolili jsme jim jít ven
08:03
into a little smaller enclosure where they could enter the market.
200
483260
2000
do menší ubikace, kde mohly vstoupit na trh.
08:05
Upon entering the market --
201
485260
2000
Jakmile na trh vstoupily,
08:07
it was actually a much more fun market for the monkeys than most human markets
202
487260
2000
bylo to pro ně mnohem zábavnější než většina lidských trhů,
08:09
because, as the monkeys entered the door of the market,
203
489260
3000
protože, hned po vstupu,
08:12
a human would give them a big wallet full of tokens
204
492260
2000
dostaly velký měšec plný tokenů,
08:14
so they could actually trade the tokens
205
494260
2000
takže mohly směňovat tokeny
08:16
with one of these two guys here --
206
496260
2000
s jedním ze dvou hochů tady –
08:18
two different possible human salesmen
207
498260
2000
dvěma různými lidskými obchodníky,
08:20
that they could actually buy stuff from.
208
500260
2000
od kterých mohly kupovat věci.
08:22
The salesmen were students from my lab.
209
502260
2000
Obchodníci byli studenti z mé laboratoře.
08:24
They dressed differently; they were different people.
210
504260
2000
Oblékli se různě, byli to různí lidé.
08:26
And over time, they did basically the same thing
211
506260
3000
Po celou dobu všechni dělali v podstatě to samé,
08:29
so the monkeys could learn, you know,
212
509260
2000
takže se opičky mohly naučit,
08:31
who sold what at what price -- you know, who was reliable, who wasn't, and so on.
213
511260
3000
kdo prodává za jakou cenu – kdo byl spolehlivý, kdo ne a tak podobně.
08:34
And you can see that each of the experimenters
214
514260
2000
Vidíte, že každý z těchto vázkumníků
08:36
is actually holding up a little, yellow food dish.
215
516260
3000
drží malý žlutý talířek s jídlem,
08:39
and that's what the monkey can for a single token.
216
519260
2000
které opičky mohou mít za jediný token.
08:41
So everything costs one token,
217
521260
2000
Všechno stojí po jednom tokenu,
08:43
but as you can see, sometimes tokens buy more than others,
218
523260
2000
ale jak uvidíte, někdy za token koupíte
08:45
sometimes more grapes than others.
219
525260
2000
více hroznů než ostatní.
08:47
So I'll show you a quick video of what this marketplace actually looks like.
220
527260
3000
Ukážu vám krátké video, jak takový trh vypadá v praxi.
08:50
Here's a monkey-eye-view. Monkeys are shorter, so it's a little short.
221
530260
3000
Je to z opičího pohledu, Opice jsou menší, proto je to takové oříznuté.
08:53
But here's Honey.
222
533260
2000
Toto je Honey.
08:55
She's waiting for the market to open a little impatiently.
223
535260
2000
trochu netrpělivě čeká, až se trh otevře.
08:57
All of a sudden the market opens. Here's her choice: one grapes or two grapes.
224
537260
3000
Náhle je trh otevřený. Tady je její volba: jeden hrozen nebo dva hrozny.
09:00
You can see Honey, very good market economist,
225
540260
2000
Vidíte Honey, tržní ekonomika jí není cizí,
09:02
goes with the guy who gives more.
226
542260
3000
jde ke chlápkovi, co jí dává víc.
09:05
She could teach our financial advisers a few things or two.
227
545260
2000
Mohla by něco málo naučit naše finanční poradce.
09:07
So not just Honey,
228
547260
2000
A nejen Honey,
09:09
most of the monkeys went with guys who had more.
229
549260
3000
většina opiček šla k lidem, kteří měl víc.
09:12
Most of the monkeys went with guys who had better food.
230
552260
2000
Většina opic šla k lidem, kteří měli lepší jídlo.
09:14
When we introduced sales, we saw the monkeys paid attention to that.
231
554260
3000
Když jsme zavedli slevy, všimli jsme si, že to opičky registrují.
09:17
They really cared about their monkey token dollar.
232
557260
3000
Opravdu o své opičí tokeny dbaly.
09:20
The more surprising thing was that when we collaborated with economists
233
560260
3000
Ještě více překvapující pak bylo, když jsme začali spolupracovat s ekonomy,
09:23
to actually look at the monkeys' data using economic tools,
234
563260
3000
kteří tato data analyzovali svými ekonomickými nástroji,
09:26
they basically matched, not just qualitatively,
235
566260
3000
že to vše v podstatě sedělo, nejen kvalitativně,
09:29
but quantitatively with what we saw
236
569260
2000
ale i kvantitativně, s tím co jsme viděli
09:31
humans doing in a real market.
237
571260
2000
v lidském jednání na opravdovém trhu.
09:33
So much so that, if you saw the monkeys' numbers,
238
573260
2000
A to do takové míry, že když jste viděli opičí čísla,
09:35
you couldn't tell whether they came from a monkey or a human in the same market.
239
575260
3000
nedokázali jste říct, jestli pochází ze stejného trhu od opic nebo lidí.
09:38
And what we'd really thought we'd done
240
578260
2000
Připadalo nám to,
09:40
is like we'd actually introduced something
241
580260
2000
jako bychom vymysleli něco,
09:42
that, at least for the monkeys and us,
242
582260
2000
co – přinejmenším pro nás a pro opice –
09:44
works like a real financial currency.
243
584260
2000
funguje jako opravdová měna.
09:46
Question is: do the monkeys start messing up in the same ways we do?
244
586260
3000
Otázkou je: začnou opice dělat stejné chyby jako my?
09:49
Well, we already saw anecdotally a couple of signs that they might.
245
589260
3000
No, pozorovali jsme několik náznaků, že by mohly.
09:52
One thing we never saw in the monkey marketplace
246
592260
2000
Nikdy jsme na opičím tržišti neviděli
09:54
was any evidence of saving --
247
594260
2000
ani náznaky spoření –
09:56
you know, just like our own species.
248
596260
2000
stejně jako my, víte.
09:58
The monkeys entered the market, spent their entire budget
249
598260
2000
Opice vstoupily na trh, utratily všechny své peníze
10:00
and then went back to everyone else.
250
600260
2000
a pak šly za někým jiným.
10:02
The other thing we also spontaneously saw,
251
602260
2000
Další věcí, které jsme si samovolně pozorovali,
10:04
embarrassingly enough,
252
604260
2000
a to dost rozpačitě,
10:06
is spontaneous evidence of larceny.
253
606260
2000
byly očividné krádeže.
10:08
The monkeys would rip-off the tokens at every available opportunity --
254
608260
3000
Opice kradly tokeny při každičké příležitosti –
10:11
from each other, often from us --
255
611260
2000
okrádaly sebe, často i nás –
10:13
you know, things we didn't necessarily think we were introducing,
256
613260
2000
věci, které jsme je neučili, jsme
10:15
but things we spontaneously saw.
257
615260
2000
je najednou viděli dělat.
10:17
So we said, this looks bad.
258
617260
2000
Říkali jsme si: tohle je zlé.
10:19
Can we actually see if the monkeys
259
619260
2000
Můžeme vlastně sledovat, jestli opice
10:21
are doing exactly the same dumb things as humans do?
260
621260
3000
dělají stejné hlouposti jako lidé?
10:24
One possibility is just kind of let
261
624260
2000
Jednou z možností bylo
10:26
the monkey financial system play out,
262
626260
2000
nechat opičí finanční systém nechat běžet,
10:28
you know, see if they start calling us for bailouts in a few years.
263
628260
2000
jako že by nás za pár let prosili o finanční injekce.
10:30
We were a little impatient so we wanted
264
630260
2000
Byli jsme ale trochu netrpěliví, takže
10:32
to sort of speed things up a bit.
265
632260
2000
jsme věci trochu postrčili.
10:34
So we said, let's actually give the monkeys
266
634260
2000
Řekli jsme si, že opice vystavíme
10:36
the same kinds of problems
267
636260
2000
stejným problémům,
10:38
that humans tend to get wrong
268
638260
2000
ve kterých lidé dělají chyby,
10:40
in certain kinds of economic challenges,
269
640260
2000
jak se vypořádají s ekonomickými výzvami
10:42
or certain kinds of economic experiments.
270
642260
2000
nebo jak si povedou v ekonomických experimentech.
10:44
And so, since the best way to see how people go wrong
271
644260
3000
A protože nejlepší způsob, jak sledovat lidské chybování
10:47
is to actually do it yourself,
272
647260
2000
je vyzkoušet si to na vlastní kůži,
10:49
I'm going to give you guys a quick experiment
273
649260
2000
ukážu vám krátký experiment,
10:51
to sort of watch your own financial intuitions in action.
274
651260
2000
abyste si sami vyzkoušeli svou finanční intuici.
10:53
So imagine that right now
275
653260
2000
Představte si, že jsem teď
10:55
I handed each and every one of you
276
655260
2000
každému z vás dala
10:57
a thousand U.S. dollars -- so 10 crisp hundred dollar bills.
277
657260
3000
tisíc dolarů – deset stodolarovek.
11:00
Take these, put it in your wallet
278
660260
2000
Vezmete si je, dáte do svých peněženek
11:02
and spend a second thinking about what you're going to do with it.
279
662260
2000
a strávíte chvilku přemýšlením, co s těmi penězi provedete.
11:04
Because it's yours now; you can buy whatever you want.
280
664260
2000
Jsou vaše, můžete si koupit cokoli chcete.
11:06
Donate it, take it, and so on.
281
666260
2000
Můžete je třeba někomu dát a tak podobně.
11:08
Sounds great, but you get one more choice to earn a little bit more money.
282
668260
3000
Zní to fajn, ale teď máte ještě šanci vydělat si nějaké další peníze.
11:11
And here's your choice: you can either be risky,
283
671260
3000
Můžete si vybrat: buď zariskujete,
11:14
in which case I'm going to flip one of these monkey tokens.
284
674260
2000
což znamená, že hodím tímhle opičím tokenem.
11:16
If it comes up heads, you're going to get a thousand dollars more.
285
676260
2000
Když padne hlava, dostanete další tisíc dolarů.
11:18
If it comes up tails, you get nothing.
286
678260
2000
Když orel, nedostanete nic.
11:20
So it's a chance to get more, but it's pretty risky.
287
680260
3000
Takže máte šanci získat víc, ale je to riskantní.
11:23
Your other option is a bit safe. Your just going to get some money for sure.
288
683260
3000
Nebo půjdete bezpečnější cestou. Dostanete ty peníze tak či tak.
11:26
I'm just going to give you 500 bucks.
289
686260
2000
Ale dám vám jen 500 dolarů.
11:28
You can stick it in your wallet and use it immediately.
290
688260
3000
Můžete si je vzít a okamžitě použít.
11:31
So see what your intuition is here.
291
691260
2000
Tak sledujte, jakým směrem se vaše myšlenky vydají.
11:33
Most people actually go with the play-it-safe option.
292
693260
3000
Většina lidí si zvolí bezpečnější variantu.
11:36
Most people say, why should I be risky when I can get 1,500 dollars for sure?
293
696260
3000
Říkají si, proč bych riskoval, když dostanu najisto 1500 dolarů?
11:39
This seems like a good bet. I'm going to go with that.
294
699260
2000
Zní to jako dobrá volba, sama bych se tím řídila.
11:41
You might say, eh, that's not really irrational.
295
701260
2000
A vy si řeknete: jo, ale to není iracionální.
11:43
People are a little risk-averse. So what?
296
703260
2000
Lidé mají trochu averzi k riziku, tak co?
11:45
Well, the "so what?" comes when start thinking
297
705260
2000
Inu, to „tak co?“ přichází s přemýšlením
11:47
about the same problem
298
707260
2000
o stejném problému
11:49
set up just a little bit differently.
299
709260
2000
s trochu jinými podmínkami.
11:51
So now imagine that I give each and every one of you
300
711260
2000
Představte si, že každému z vás teď dám
11:53
2,000 dollars -- 20 crisp hundred dollar bills.
301
713260
3000
2000 dolarů – dvacet stodolarovek.
11:56
Now you can buy double to stuff you were going to get before.
302
716260
2000
Můžete si koupit dvakrát více než předtím.
11:58
Think about how you'd feel sticking it in your wallet.
303
718260
2000
Přemýšlejte o tom, jak je strkáte do peněženky.
12:00
And now imagine that I have you make another choice
304
720260
2000
A teď si představte, že musíte učinit další volbu.
12:02
But this time, it's a little bit worse.
305
722260
2000
Tentokrát ale trochu horší.
12:04
Now, you're going to be deciding how you're going to lose money,
306
724260
3000
Musíte se rozhodnout, jak přijdete o peníze,
12:07
but you're going to get the same choice.
307
727260
2000
ale se stejnými možnostmi.
12:09
You can either take a risky loss --
308
729260
2000
Můžete zvolit riskantnější ztrátu –
12:11
so I'll flip a coin. If it comes up heads, you're going to actually lose a lot.
309
731260
3000
hodím mincí. Když padne hlava, ztratíte celkem hodně.
12:14
If it comes up tails, you lose nothing, you're fine, get to keep the whole thing --
310
734260
3000
Když orel, neztrácíte nic, jste v klídku, necháte si všechno –
12:17
or you could play it safe, which means you have to reach back into your wallet
311
737260
3000
nebo můžete hrát na jistotu, takže vytáhnete peněženku
12:20
and give me five of those $100 bills, for certain.
312
740260
3000
a odpočítáte pět stodolarovek, které mi vrátíte.
12:23
And I'm seeing a lot of furrowed brows out there.
313
743260
3000
Vidím spoustu svraštělých čel.
12:26
So maybe you're having the same intuitions
314
746260
2000
Možná jste uvažovali stejně
12:28
as the subjects that were actually tested in this,
315
748260
2000
jako subjekty, které jsme testovali;
12:30
which is when presented with these options,
316
750260
2000
z nabízených možností
12:32
people don't choose to play it safe.
317
752260
2000
se lidé nerozhodovali hrát bezpečnou variantu.
12:34
They actually tend to go a little risky.
318
754260
2000
Vlastně měli tendence trochu riskovat.
12:36
The reason this is irrational is that we've given people in both situations
319
756260
3000
Důvod, proč je to nesmyslné, že lidé v obou případech dostali
12:39
the same choice.
320
759260
2000
stejné možnosti.
12:41
It's a 50/50 shot of a thousand or 2,000,
321
761260
3000
Šance 50/50 na tisícovku nebo na dvě,
12:44
or just 1,500 dollars with certainty.
322
764260
2000
nebo 1500 dolarů najisto.
12:46
But people's intuitions about how much risk to take
323
766260
3000
Ovšem představa, jak moc riskovat,
12:49
varies depending on where they started with.
324
769260
2000
se lišila podle toho, kde začínali.
12:51
So what's going on?
325
771260
2000
Co se to tedy děje?
12:53
Well, it turns out that this seems to be the result
326
773260
2000
Řekněme, že je to následek
12:55
of at least two biases that we have at the psychological level.
327
775260
3000
dvou predispozic na naší psychické úrovni.
12:58
One is that we have a really hard time thinking in absolute terms.
328
778260
3000
Jednou je, že máme velké problémy v myšlení v absolutních hodnotách.
13:01
You really have to do work to figure out,
329
781260
2000
Musíte se opravdu zamyslet, abyste přišli na to,
13:03
well, one option's a thousand, 2,000;
330
783260
2000
že jedna možnost je vždy tisíc nebo dva,
13:05
one is 1,500.
331
785260
2000
zatímco druhá pořád 1500.
13:07
Instead, we find it very easy to think in very relative terms
332
787260
3000
Naopak je jednoduší přemýšlet v relativních číslech,
13:10
as options change from one time to another.
333
790260
3000
jak se možnosti pokaždé liší.
13:13
So we think of things as, "Oh, I'm going to get more," or "Oh, I'm going to get less."
334
793260
3000
Uvažujeme o věcech jako „Ach, teď dostanu víc“ či „Ach, teď dostanu míň.“
13:16
This is all well and good, except that
335
796260
2000
To je všechno v pořádku, krom toho,
13:18
changes in different directions
336
798260
2000
že záměna směru
13:20
actually effect whether or not we think
337
800260
2000
ovlivňuje, jestli tyto možnosti považujeme
13:22
options are good or not.
338
802260
2000
za dobré nebo ne.
13:24
And this leads to the second bias,
339
804260
2000
To nás přivádí k druhé predispozici,
13:26
which economists have called loss aversion.
340
806260
2000
kterou ekonomové nazývají averzí ke ztrátě.
13:28
The idea is that we really hate it when things go into the red.
341
808260
3000
Myšlenka spočívá v tom, že nesnášíme, když padáme do červených čísel.
13:31
We really hate it when we have to lose out on some money.
342
811260
2000
Nesnášíme, když přicházíme o peníze.
13:33
And this means that sometimes we'll actually
343
813260
2000
To všechno znamená, že občas prostě
13:35
switch our preferences to avoid this.
344
815260
2000
změníme své preference, abychom tomu zabránili.
13:37
What you saw in that last scenario is that
345
817260
2000
V poslední ukázce jste viděli, že
13:39
subjects get risky
346
819260
2000
subjekty začaly riskovat,
13:41
because they want the small shot that there won't be any loss.
347
821260
3000
protože doufaly v tu malou kapku naděje bez ztráty.
13:44
That means when we're in a risk mindset --
348
824260
2000
To znamená, že jsme v riskujícím …
13:46
excuse me, when we're in a loss mindset,
349
826260
2000
pardon, ve ztrátovém rozpoložení,
13:48
we actually become more risky,
350
828260
2000
takže začneme riskovat,
13:50
which can actually be really worrying.
351
830260
2000
což může být právě osudné.
13:52
These kinds of things play out in lots of bad ways in humans.
352
832260
3000
Toto všechno končí pro lidi špatně.
13:55
They're why stock investors hold onto losing stocks longer --
353
835260
3000
Je to důvod, proč se investoři drží padajících akcií –
13:58
because they're evaluating them in relative terms.
354
838260
2000
dívají se na ně z pohledu relativních čísel.
14:00
They're why people in the housing market refused to sell their house --
355
840260
2000
Je to důvod, proč lidé na nemovitostním trhu odmítají prodat své domy –
14:02
because they don't want to sell at a loss.
356
842260
2000
nechtějí prodávat se ztrátou.
14:04
The question we were interested in
357
844260
2000
Otázka, která nás zajímala, byla,
14:06
is whether the monkeys show the same biases.
358
846260
2000
jestli i opice prokáží podobné predispozice.
14:08
If we set up those same scenarios in our little monkey market,
359
848260
3000
Kdybychom stejné situace vnesli na náš malý opičí trh,
14:11
would they do the same thing as people?
360
851260
2000
dělaly by to stejné co lidé?
14:13
And so this is what we did, we gave the monkeys choices
361
853260
2000
A tak jsme to provedli, dali jsme opičkám na výběr
14:15
between guys who were safe -- they did the same thing every time --
362
855260
3000
mezi lidmi, kteří byli bezpeční – dělali pokaždé to samé –
14:18
or guys who were risky --
363
858260
2000
a lidmi, kteří byli rizikoví –
14:20
they did things differently half the time.
364
860260
2000
v půlce případů se chovali jinak.
14:22
And then we gave them options that were bonuses --
365
862260
2000
Dali jsme jim na výběr z několika bonusů –
14:24
like you guys did in the first scenario --
366
864260
2000
tak jako vám v první ukázce –
14:26
so they actually have a chance more,
367
866260
2000
takže měly možnost získat více,
14:28
or pieces where they were experiencing losses --
368
868260
3000
nebo se ocitly v situacích, kdy zažily ztrátu –
14:31
they actually thought they were going to get more than they really got.
369
871260
2000
myslely, že dostanou více, než nakonec opravdu dostaly.
14:33
And so this is what this looks like.
370
873260
2000
Takhle to vypadalo.
14:35
We introduced the monkeys to two new monkey salesmen.
371
875260
2000
Představili jsme opičkám nové obchodníky.
14:37
The guy on the left and right both start with one piece of grape,
372
877260
2000
Kluk vlevo i vpravo začal s jednou bobulí vína,
14:39
so it looks pretty good.
373
879260
2000
vypadá to lákavě.
14:41
But they're going to give the monkeys bonuses.
374
881260
2000
Ale oba se chystají dát opičce nějaký přídavek.
14:43
The guy on the left is a safe bonus.
375
883260
2000
Kluk vlevo znamená jistý bonus.
14:45
All the time, he adds one, to give the monkeys two.
376
885260
3000
Pokaždé přidá jeden, takže dává dva hrozny.
14:48
The guy on the right is actually a risky bonus.
377
888260
2000
Kluk napravo je rizikový.
14:50
Sometimes the monkeys get no bonus -- so this is a bonus of zero.
378
890260
3000
Někdy nepřidá nic navíc – nulový přídavek.
14:53
Sometimes the monkeys get two extra.
379
893260
3000
Jindy opičce dá dva navíc.
14:56
For a big bonus, now they get three.
380
896260
2000
Je to velká věc, dostane tři kousky.
14:58
But this is the same choice you guys just faced.
381
898260
2000
V principu to je stejný případ jako ten, který jsem zkoušela na vás.
15:00
Do the monkeys actually want to play it safe
382
900260
3000
Budou opičky hrát na jistotu
15:03
and then go with the guy who's going to do the same thing on every trial,
383
903260
2000
a budou obchodovat s tím, kdo se každé kolo chová stejně,
15:05
or do they want to be risky
384
905260
2000
nebo zariskují
15:07
and try to get a risky, but big, bonus,
385
907260
2000
a zkusí získat nejistý, ale velký bonus,
15:09
but risk the possibility of getting no bonus.
386
909260
2000
avšak s možností, že nezískají nic navíc.
15:11
People here played it safe.
387
911260
2000
Lidé tady hráli na jistotu.
15:13
Turns out, the monkeys play it safe too.
388
913260
2000
Jak vyšlo najevo, opice také.
15:15
Qualitatively and quantitatively,
389
915260
2000
Kvalitativně i kvantitativně
15:17
they choose exactly the same way as people,
390
917260
2000
se rozhodovaly úplně stejně jako lidé
15:19
when tested in the same thing.
391
919260
2000
v podobné situaci.
15:21
You might say, well, maybe the monkeys just don't like risk.
392
921260
2000
Asi si pomyslíte, no fajn, možná opice nerady riskují.
15:23
Maybe we should see how they do with losses.
393
923260
2000
Asi bychom se měli podívat, jak si poradí se ztrátami.
15:25
And so we ran a second version of this.
394
925260
2000
Takže jsme provedli druhou verzi pokusu.
15:27
Now, the monkeys meet two guys
395
927260
2000
Opičky se seznámí se dvěma hochy,
15:29
who aren't giving them bonuses;
396
929260
2000
kteří jim nedávají nic navíc;
15:31
they're actually giving them less than they expect.
397
931260
2000
vlastně jim dají méně, než čekaly.
15:33
So they look like they're starting out with a big amount.
398
933260
2000
Vypadá to, že začnou s velkým množstvím.
15:35
These are three grapes; the monkey's really psyched for this.
399
935260
2000
Jsou tu tři hrozny; opičky se pro ně mohly přetrhnout.
15:37
But now they learn these guys are going to give them less than they expect.
400
937260
3000
Ale za chvíli zjistí, že dostanou méně než viděly.
15:40
They guy on the left is a safe loss.
401
940260
2000
Hoch vlevo je jistá ztráta.
15:42
Every single time, he's going to take one of these away
402
942260
3000
Pokaždé dá jeden kousek pryč
15:45
and give the monkeys just two.
403
945260
2000
a dá opičce jen dva.
15:47
the guy on the right is the risky loss.
404
947260
2000
Kluk napravo je riskantnější ztráta.
15:49
Sometimes he gives no loss, so the monkeys are really psyched,
405
949260
3000
Někdy nic nevezme, takže je opička štěstím bez sebe,
15:52
but sometimes he actually gives a big loss,
406
952260
2000
jindy ale vezme docela dost,
15:54
taking away two to give the monkeys only one.
407
954260
2000
odebere dva hrozny a dá jí jen jeden.
15:56
And so what do the monkeys do?
408
956260
2000
Jak se budou opičky chovat?
15:58
Again, same choice; they can play it safe
409
958260
2000
Opět, stejné možnosti: mohou hrát na jistotu
16:00
for always getting two grapes every single time,
410
960260
3000
a pokaždé získat dvě bobule,
16:03
or they can take a risky bet and choose between one and three.
411
963260
3000
nebo mohou riskovat a volit mezi jednou a třemi.
16:06
The remarkable thing to us is that, when you give monkeys this choice,
412
966260
3000
Bylo velmi pozoruhodné, že z těchto dvou možností
16:09
they do the same irrational thing that people do.
413
969260
2000
si vybíraly tu stejnou jako lidé.
16:11
They actually become more risky
414
971260
2000
Začaly riskovat
16:13
depending on how the experimenters started.
415
973260
3000
podle toho, jak pokus začal.
16:16
This is crazy because it suggests that the monkeys too
416
976260
2000
Je to senzační, protože to naznačuje, že opice také
16:18
are evaluating things in relative terms
417
978260
2000
vnímají rozhodnutí spíše relativně
16:20
and actually treating losses differently than they treat gains.
418
980260
3000
a ztráty zvažují jinak než výnosy.
16:23
So what does all of this mean?
419
983260
2000
Co z toho všeho vyplývá?
16:25
Well, what we've shown is that, first of all,
420
985260
2000
Ze všeho nejdřív jsme ukázali,
16:27
we can actually give the monkeys a financial currency,
421
987260
2000
že můžeme nabídnout opicím peníze,
16:29
and they do very similar things with it.
422
989260
2000
se kterými budou dělat to co my.
16:31
They do some of the smart things we do,
423
991260
2000
Budou dělat stejně dobré věci jako my,
16:33
some of the kind of not so nice things we do,
424
993260
2000
některé ne až tak dobré – stejně jako my –
16:35
like steal it and so on.
425
995260
2000
jako jsou krádeže a tak podobně.
16:37
But they also do some of the irrational things we do.
426
997260
2000
Stejně tak dělají nějaké nesmyslné věci, stejně jako my.
16:39
They systematically get things wrong
427
999260
2000
Dělají stále dokola nějaké chyby
16:41
and in the same ways that we do.
428
1001260
2000
úplně stejně jako my.
16:43
This is the first take-home message of the Talk,
429
1003260
2000
Toto je první věc, kterou byste si mohli zapamatovat -
16:45
which is that if you saw the beginning of this and you thought,
430
1005260
2000
jestli si vzpomenete na začátek a pomyslíte si:
16:47
oh, I'm totally going to go home and hire a capuchin monkey financial adviser.
431
1007260
2000
jo, jen co přijdu domů, najmu si malpu kapucínskou jako finančního poradce.
16:49
They're way cuter than the one at ... you know --
432
1009260
2000
Jsou svým způsobem roztomilé, ale…
16:51
Don't do that; they're probably going to be just as dumb
433
1011260
2000
Nedělejte to; opice jsou nejspíš stejně hloupé,
16:53
as the human one you already have.
434
1013260
3000
jako ten chlápek, co pro vás už pracuje.
16:56
So, you know, a little bad -- Sorry, sorry, sorry.
435
1016260
2000
Je to škoda – opravdu se moc omlouvám.
16:58
A little bad for monkey investors.
436
1018260
2000
Špatné zprávy pro opičí investory.
17:00
But of course, you know, the reason you're laughing is bad for humans too.
437
1020260
3000
Na druhou stranu… nezapomeňte, že důvod, proč se smějete, platí i pro lidi.
17:03
Because we've answered the question we started out with.
438
1023260
3000
Zodpověděli jsme totiž otázku, se kterou jsme dnes začali.
17:06
We wanted to know where these kinds of errors came from.
439
1026260
2000
Chtěli jsme vědět, odkud naše chyby pocházejí.
17:08
And we started with the hope that maybe we can
440
1028260
2000
Začali jsme s nadějí, že snad postačí
17:10
sort of tweak our financial institutions,
441
1030260
2000
trochu upravit fungování finančních institucí,
17:12
tweak our technologies to make ourselves better.
442
1032260
3000
upravit technologie, abychom se dostali výš.
17:15
But what we've learn is that these biases might be a deeper part of us than that.
443
1035260
3000
Zjistili jsme ale, že problém je spíše v nás než v našem prostředí.
17:18
In fact, they might be due to the very nature
444
1038260
2000
Vlastně to může být způsobeno samotnou povahou
17:20
of our evolutionary history.
445
1040260
2000
dějin našeho vývoje.
17:22
You know, maybe it's not just humans
446
1042260
2000
Nejspíš to nejsou lidé,
17:24
at the right side of this chain that's duncey.
447
1044260
2000
ve kterých je ten problém.
17:26
Maybe it's sort of duncey all the way back.
448
1046260
2000
Nejspíš se to vleče až do minulosti.
17:28
And this, if we believe the capuchin monkey results,
449
1048260
3000
A to, věříme-li výsledkům malp kapucínských,
17:31
means that these duncey strategies
450
1051260
2000
znamená, že všechny ty tendence dělat chyby
17:33
might be 35 million years old.
451
1053260
2000
mohou být 35 milionů let staré.
17:35
That's a long time for a strategy
452
1055260
2000
Je to dost času na to,
17:37
to potentially get changed around -- really, really old.
453
1057260
3000
aby se něco mohlo změnit – opravdu víc než dost.
17:40
What do we know about other old strategies like this?
454
1060260
2000
Co o takových principech vlastně víme?
17:42
Well, one thing we know is that they tend to be really hard to overcome.
455
1062260
3000
Třeba že bývá těžké je překonat.
17:45
You know, think of our evolutionary predilection
456
1065260
2000
Popřemýšlejte o naší postupné zálibě
17:47
for eating sweet things, fatty things like cheesecake.
457
1067260
3000
ve sladkostech, tučných sladkostech jako je cheesecake.
17:50
You can't just shut that off.
458
1070260
2000
Nemůžete se toho jen tak zbavit.
17:52
You can't just look at the dessert cart as say, "No, no, no. That looks disgusting to me."
459
1072260
3000
Nedokážete se jen tak kouknout na dezert a říct: „Ne, ne, ne, to je odporné.“
17:55
We're just built differently.
460
1075260
2000
Jsme prostě stavění jinak.
17:57
We're going to perceive it as a good thing to go after.
461
1077260
2000
Budeme to vnímat jako dobrou věc.
17:59
My guess is that the same thing is going to be true
462
1079260
2000
Podle mého názoru to platí
18:01
when humans are perceiving
463
1081260
2000
i v lidském vnímání
18:03
different financial decisions.
464
1083260
2000
různých finančních rohodnutí.
18:05
When you're watching your stocks plummet into the red,
465
1085260
2000
Když sledujete, jak vám padají akcie do červených čísel,
18:07
when you're watching your house price go down,
466
1087260
2000
když vidíte padající cenu svého domu,
18:09
you're not going to be able to see that
467
1089260
2000
nejste schopni vidět to
18:11
in anything but old evolutionary terms.
468
1091260
2000
jinak než jak jste naprogramovaní vývojem.
18:13
This means that the biases
469
1093260
2000
To znamená, že ty předsudky,
18:15
that lead investors to do badly,
470
1095260
2000
které vedly investory ke dnu,
18:17
that lead to the foreclosure crisis
471
1097260
2000
které vedly k hypoteční krizi,
18:19
are going to be really hard to overcome.
472
1099260
2000
bude opravdu velmi těžké překonat.
18:21
So that's the bad news. The question is: is there any good news?
473
1101260
2000
Tak to jsou ty špatné zprávy. Otázkou je: je na tom něco dobrého?
18:23
I'm supposed to be up here telling you the good news.
474
1103260
2000
Jsem tu vlastně proto, abych řekla i nějaké dobré zprávy.
18:25
Well, the good news, I think,
475
1105260
2000
Myslím, že mezi ně patří to,
18:27
is what I started with at the beginning of the Talk,
476
1107260
2000
že, jak jsem začala dnešní přednášku,
18:29
which is that humans are not only smart;
477
1109260
2000
lidé nejsou jen chytří;
18:31
we're really inspirationally smart
478
1111260
2000
jsme vlastně plni podnětů
18:33
to the rest of the animals in the biological kingdom.
479
1113260
3000
oproti zbytku tvorů v biologickém království.
18:36
We're so good at overcoming our biological limitations --
480
1116260
3000
Naučili jsme se tak dobře překonávat naše vrozená omezení –
18:39
you know, I flew over here in an airplane.
481
1119260
2000
tím myslím, přiletěla jsem sem letadlem,
18:41
I didn't have to try to flap my wings.
482
1121260
2000
nemusela jsem se pokoušet mávat křídly.
18:43
I'm wearing contact lenses now so that I can see all of you.
483
1123260
3000
Nosím kontaktní čočky, takže vás všechny dobře vidím a
18:46
I don't have to rely on my own near-sightedness.
484
1126260
3000
nemusím být omezena svou krátkozrakostí.
18:49
We actually have all of these cases
485
1129260
2000
Ve všech těchto příkladech
18:51
where we overcome our biological limitations
486
1131260
3000
jsme překonali naše vrozené nedostatky
18:54
through technology and other means, seemingly pretty easily.
487
1134260
3000
díky technice a dalším způsobům, a to docela snadno.
18:57
But we have to recognize that we have those limitations.
488
1137260
3000
Musíme se ale uvědomovat, že opravdu nejsme všehoschopní.
19:00
And here's the rub.
489
1140260
2000
A to je ten háček.
19:02
It was Camus who once said that, "Man is the only species
490
1142260
2000
Camus jednou řekl, že „Člověk je jediným tvorem,
19:04
who refuses to be what he really is."
491
1144260
3000
který odmítá být tím, čím je.“
19:07
But the irony is that
492
1147260
2000
Ironií osudu však
19:09
it might only be in recognizing our limitations
493
1149260
2000
dokážeme naše omezení překonat jen tehdy,
19:11
that we can really actually overcome them.
494
1151260
2000
když si je uvědomíme.
19:13
The hope is that you all will think about your limitations,
495
1153260
3000
Naděje spočívá právě v tom, že budeme přemýšlet o našich omezeních,
19:16
not necessarily as unovercomable,
496
1156260
3000
nikoli nezbytně jako o nepřekonatelných,
19:19
but to recognize them, accept them
497
1159260
2000
ale abychom si je uvědomili, přijali je
19:21
and then use the world of design to actually figure them out.
498
1161260
3000
a pak využili všechny možnosti, abychom je překonali.
19:24
That might be the only way that we will really be able
499
1164260
3000
Může to být jediný způsob, jak můžeme být opravdu schopni
19:27
to achieve our own human potential
500
1167260
2000
dosáhnout našeho lidského potenciálu
19:29
and really be the noble species we hope to all be.
501
1169260
3000
a opravdu se stát tím vznešeným druhem, v jaký doufáme.
19:32
Thank you.
502
1172260
2000
Děkuji.
19:34
(Applause)
503
1174260
5000
(Potlesk)
O tomto webu

Tato stránka vám představí videa na YouTube, která jsou užitečná pro výuku angličtiny. Uvidíte lekce angličtiny vedené špičkovými učiteli z celého světa. Dvojklikem na anglické titulky zobrazené na každé stránce s videem si video přehrajete přímo odtud. Titulky se posouvají synchronizovaně s přehráváním videa. Pokud máte nějaké připomínky nebo požadavky, kontaktujte nás prosím pomocí tohoto kontaktního formuláře.

https://forms.gle/WvT1wiN1qDtmnspy7