Laurie Santos: How monkeys mirror human irrationality

197,513 views ・ 2010-07-29

TED


Моля, кликнете два пъти върху английските субтитри по-долу, за да пуснете видеото.

Translator: Stoyan Georgiev Reviewer: Mike Ramm
00:17
I want to start my talk today with two observations
0
17260
2000
Искам да започна лекцията си днес с две наблюдения
00:19
about the human species.
1
19260
2000
за човешкият вид.
00:21
The first observation is something that you might think is quite obvious,
2
21260
3000
Първото наблюдение е нещо, което можете да помислите, че е доста очевидно,
00:24
and that's that our species, Homo sapiens,
3
24260
2000
и това е, че нашият вид, Хомо сапиенс,
00:26
is actually really, really smart --
4
26260
2000
е всъщност наистина, наистина умен --
00:28
like, ridiculously smart --
5
28260
2000
като, смешно умен --
00:30
like you're all doing things
6
30260
2000
като вие всички правите неща
00:32
that no other species on the planet does right now.
7
32260
3000
които никой друг вид на планетата не прави точно сега.
00:35
And this is, of course,
8
35260
2000
И това, разбира се,
00:37
not the first time you've probably recognized this.
9
37260
2000
не е първият път, в който вие вероятно сте осъзнали това.
00:39
Of course, in addition to being smart, we're also an extremely vain species.
10
39260
3000
Разбира се, освен бидейки умни, ние сме също крайно суетен вид.
00:42
So we like pointing out the fact that we're smart.
11
42260
3000
И обичаме да отбелязваме факта, че сме умни.
00:45
You know, so I could turn to pretty much any sage
12
45260
2000
Така че бих могла да посоча кой да е мъдър човек
00:47
from Shakespeare to Stephen Colbert
13
47260
2000
от Шекспир до Стивън Колберт
00:49
to point out things like the fact that
14
49260
2000
и да отбележа неща като факта, че
00:51
we're noble in reason and infinite in faculties
15
51260
2000
сме благородни в причината и безкрайни в способностите
00:53
and just kind of awesome-er than anything else on the planet
16
53260
2000
и просто някак си по-страхотни от всичко друго на планетата
00:55
when it comes to all things cerebral.
17
55260
3000
когато стане въпрос за всички интелектуални неща.
00:58
But of course, there's a second observation about the human species
18
58260
2000
Но разбира се, има второ наблюдение за човешкият вид
01:00
that I want to focus on a little bit more,
19
60260
2000
на което искам да се фокусирам малко повече,
01:02
and that's the fact that
20
62260
2000
и това е факта, че
01:04
even though we're actually really smart, sometimes uniquely smart,
21
64260
3000
дори това, че сме всъщност доста умни, понякога уникално умни,
01:07
we can also be incredibly, incredibly dumb
22
67260
3000
можем да бъдем също и уникално, невероятно тъпи
01:10
when it comes to some aspects of our decision making.
23
70260
3000
когато се погледнат някои аспекти на нашите решения.
01:13
Now I'm seeing lots of smirks out there.
24
73260
2000
Виждам много самодоволни усмивки там.
01:15
Don't worry, I'm not going to call anyone in particular out
25
75260
2000
Не се безпокойте, няма да посоча някого от вас
01:17
on any aspects of your own mistakes.
26
77260
2000
за някакъв аспект на вашите грешки.
01:19
But of course, just in the last two years
27
79260
2000
Но разбира се, само в последните 2 години
01:21
we see these unprecedented examples of human ineptitude.
28
81260
3000
виждаме тези безпрецедентни примери на човешко абсурдност.
01:24
And we've watched as the tools we uniquely make
29
84260
3000
И ние сме гледали като уредите, които правим уникално
01:27
to pull the resources out of our environment
30
87260
2000
да извличаме ресурсите от нашата околна среда
01:29
kind of just blow up in our face.
31
89260
2000
нещо като удар по лицето ни.
01:31
We've watched the financial markets that we uniquely create --
32
91260
2000
Гледали сме финансовите пазари, които ние уникално създаваме --
01:33
these markets that were supposed to be foolproof --
33
93260
3000
тези пазари, които трябваше да са доказано умни --
01:36
we've watched them kind of collapse before our eyes.
34
96260
2000
гледали сме ги да колабират пред нашите очи.
01:38
But both of these two embarrassing examples, I think,
35
98260
2000
Но и двата тези срамни примера, мисля,
01:40
don't highlight what I think is most embarrassing
36
100260
3000
не подчертават това, което мисля че е най-срамното
01:43
about the mistakes that humans make,
37
103260
2000
за грешките, които хората правят,
01:45
which is that we'd like to think that the mistakes we make
38
105260
3000
което е това, че ние бихме искали да мислим, че грешките които правим,
01:48
are really just the result of a couple bad apples
39
108260
2000
са наистина просто резултат на две лоши ябълки
01:50
or a couple really sort of FAIL Blog-worthy decisions.
40
110260
3000
или две решения, достойни за блога на провалите.
01:53
But it turns out, what social scientists are actually learning
41
113260
3000
Но се се оказва, че това, което социалните учени всъщност учат
01:56
is that most of us, when put in certain contexts,
42
116260
3000
е, че повечето от нас, поставени в опредлен контекст,
01:59
will actually make very specific mistakes.
43
119260
3000
всъщност ще направят много специфични грешки.
02:02
The errors we make are actually predictable.
44
122260
2000
Грешките, които правим са на практика предвидими.
02:04
We make them again and again.
45
124260
2000
Правим ги отново и отново.
02:06
And they're actually immune to lots of evidence.
46
126260
2000
И те са всъщност неподатливи на купищата данни.
02:08
When we get negative feedback,
47
128260
2000
Когато получаваме негативна обратна информация,
02:10
we still, the next time we're face with a certain context,
48
130260
3000
ние, още следващият път, когато се сблъскаме с определен контекст,
02:13
tend to make the same errors.
49
133260
2000
сме склонни да правим същите грешки.
02:15
And so this has been a real puzzle to me
50
135260
2000
И така, това наистина беше сериозна загадка за мен
02:17
as a sort of scholar of human nature.
51
137260
2000
като вид учен на човешката природа.
02:19
What I'm most curious about is,
52
139260
2000
Това, за което съм най-любопитна е,
02:21
how is a species that's as smart as we are
53
141260
3000
как вид, който е толкова умен колкото нас,
02:24
capable of such bad
54
144260
2000
е способен на такива лоши
02:26
and such consistent errors all the time?
55
146260
2000
и такива постоянни грешки през цялото време?
02:28
You know, we're the smartest thing out there, why can't we figure this out?
56
148260
3000
Нали сме най-умното нещо тук, защо не можем да намерим разрешение на това?
02:31
In some sense, where do our mistakes really come from?
57
151260
3000
В някакъв смисъл, от къде наистина идват нашите грешки?
02:34
And having thought about this a little bit, I see a couple different possibilities.
58
154260
3000
И мислейки за това малко, виждам две различни възможности.
02:37
One possibility is, in some sense, it's not really our fault.
59
157260
3000
Една възможност е в някакъв смисъл, не е наистина наша вината.
02:40
Because we're a smart species,
60
160260
2000
Защото ние сме умен вид,
02:42
we can actually create all kinds of environments
61
162260
2000
можем всъщност да създадем всякакви видове околна среда
02:44
that are super, super complicated,
62
164260
2000
които са супер, супер сложни,
02:46
sometimes too complicated for us to even actually understand,
63
166260
3000
понякога твърде сложни дори да ги разберем,
02:49
even though we've actually created them.
64
169260
2000
въпреки, че ние всъщност сме ги създали.
02:51
We create financial markets that are super complex.
65
171260
2000
Създавааме финансови пазари, които са супер слосни.
02:53
We create mortgage terms that we can't actually deal with.
66
173260
3000
Създаваме ипотечни термини, с които не можем всъщност да се справим.
02:56
And of course, if we are put in environments where we can't deal with it,
67
176260
3000
И разбира се ако сме поставени в среда, в която не можем да се оправим,
02:59
in some sense makes sense that we actually
68
179260
2000
някак си има логика в това, че в действителност
03:01
might mess certain things up.
69
181260
2000
можем да объркаме определени неща.
03:03
If this was the case, we'd have a really easy solution
70
183260
2000
Ако това е случаят, бихме имали наистина лесно решение
03:05
to the problem of human error.
71
185260
2000
на проблема на човешката грешка.
03:07
We'd actually just say, okay, let's figure out
72
187260
2000
Просто бихме казали, ок, нека да разберем
03:09
the kinds of technologies we can't deal with,
73
189260
2000
видовете технологии, с които не можем да се справим,
03:11
the kinds of environments that are bad --
74
191260
2000
видовете околна среда, които са лоши --
03:13
get rid of those, design things better,
75
193260
2000
да се отървем от тях, да проектираме нещата по-добре,
03:15
and we should be the noble species
76
195260
2000
и трябва да станем възвишеният вид,
03:17
that we expect ourselves to be.
77
197260
2000
който очакваме да бъдем.
03:19
But there's another possibility that I find a little bit more worrying,
78
199260
3000
Но има друга възможност, която намирам за малко по-тревожеща,
03:22
which is, maybe it's not our environments that are messed up.
79
202260
3000
която е, че може би не нашите околни среди са объркани.
03:25
Maybe it's actually us that's designed badly.
80
205260
3000
Може би всъщност ние сме замислени лошо.
03:28
This is a hint that I've gotten
81
208260
2000
Това е загатване, което получих
03:30
from watching the ways that social scientists have learned about human errors.
82
210260
3000
като гледах как социалните учени са изучавали човешките грешки.
03:33
And what we see is that people tend to keep making errors
83
213260
3000
И това, което виждаме е, че хората имат тенденция да правят грешки
03:36
exactly the same way, over and over again.
84
216260
3000
точно по същият начин, отново и отново.
03:39
It feels like we might almost just be built
85
219260
2000
Изглежда, че ние сякаш сме създадени
03:41
to make errors in certain ways.
86
221260
2000
да правим грешки по определен начин.
03:43
This is a possibility that I worry a little bit more about,
87
223260
3000
Това е възможност, за която се притеснявам малко повече,
03:46
because, if it's us that's messed up,
88
226260
2000
защото ако сме ние, които сме сбъркани,
03:48
it's not actually clear how we go about dealing with it.
89
228260
2000
не е никак ясно как ще се справим с това.
03:50
We might just have to accept the fact that we're error prone
90
230260
3000
Можем просто да приемем факта, че сме склонни към грешки
03:53
and try to design things around it.
91
233260
2000
и да опитаме да проектираме неща около това
03:55
So this is the question my students and I wanted to get at.
92
235260
3000
Така че, това е въпросът, който моите студенти и аз искахме да разгледаме.
03:58
How can we tell the difference between possibility one and possibility two?
93
238260
3000
Как можем да открием разликата между едната и другата възможност?
04:01
What we need is a population
94
241260
2000
Това, което ни трябва е популация,
04:03
that's basically smart, can make lots of decisions,
95
243260
2000
която е всъщност умна, може да взема много решения,
04:05
but doesn't have access to any of the systems we have,
96
245260
2000
но няма достъп до никоя от системите, които имаме,
04:07
any of the things that might mess us up --
97
247260
2000
никое от нещата, които могат да се объркат --
04:09
no human technology, human culture,
98
249260
2000
никоя човешка технология, човешка култура,
04:11
maybe even not human language.
99
251260
2000
може би дори човешки език.
04:13
And so this is why we turned to these guys here.
100
253260
2000
Ето защо се обърнахме към тези същества тук.
04:15
These are one of the guys I work with. This is a brown capuchin monkey.
101
255260
3000
Тези са едни от съществата с които работя. Това е кафява маймуна капуцин.
04:18
These guys are New World primates,
102
258260
2000
Тези същества са примати от Новия Свят,
04:20
which means they broke off from the human branch
103
260260
2000
което значи, че са се отделили от човешкото разклонение
04:22
about 35 million years ago.
104
262260
2000
преди около 35 милиона години.
04:24
This means that your great, great, great great, great, great --
105
264260
2000
Това означава, че вашата пра-пра-пра-пра-пра-пра --
04:26
with about five million "greats" in there --
106
266260
2000
с около пет милиона "пра" там --
04:28
grandmother was probably the same great, great, great, great
107
268260
2000
прабаба е вероятно същата пра-пра-пра-пра
04:30
grandmother with five million "greats" in there
108
270260
2000
прабаба с пет милиона "пра" там
04:32
as Holly up here.
109
272260
2000
като Холи тук.
04:34
You know, so you can take comfort in the fact that this guy up here is a really really distant,
110
274260
3000
Така че можете да е успокоите с факта, че това същество тук е наистина, наистина далечен,
04:37
but albeit evolutionary, relative.
111
277260
2000
но въпреки това еволюционен, роднина.
04:39
The good news about Holly though is that
112
279260
2000
Добрата новина за Холи е, че
04:41
she doesn't actually have the same kinds of technologies we do.
113
281260
3000
тя няма достъп до същите технологии като нас.
04:44
You know, she's a smart, very cut creature, a primate as well,
114
284260
3000
Знаете, тя е умна, много мило същество, примат също,
04:47
but she lacks all the stuff we think might be messing us up.
115
287260
2000
но й липсва всичко, което мислим, че може би ни обърква.
04:49
So she's the perfect test case.
116
289260
2000
Така че тя е отличният случай за тест.
04:51
What if we put Holly into the same context as humans?
117
291260
3000
Какво ще стане ако сложим Холи в същият контекст като хората?
04:54
Does she make the same mistakes as us?
118
294260
2000
Дали ще прави същите грешки като нас?
04:56
Does she not learn from them? And so on.
119
296260
2000
Дали ще учи от тях? И така нататък.
04:58
And so this is the kind of thing we decided to do.
120
298260
2000
И така това е нещото, което решихме да направим.
05:00
My students and I got very excited about this a few years ago.
121
300260
2000
Моите студенти и аз се развълнувахме за това преди няколко години.
05:02
We said, all right, let's, you know, throw so problems at Holly,
122
302260
2000
Казахме си: добре, нека да позатрудним Холи,
05:04
see if she messes these things up.
123
304260
2000
да видим как тя ще обърка нещата.
05:06
First problem is just, well, where should we start?
124
306260
3000
Първият проблем е: откъде да започнем?
05:09
Because, you know, it's great for us, but bad for humans.
125
309260
2000
Защото, знаете, страхотно е за нас, но лошо за хората.
05:11
We make a lot of mistakes in a lot of different contexts.
126
311260
2000
Правим много грешки в много различни контексти.
05:13
You know, where are we actually going to start with this?
127
313260
2000
Откъде да се захванем с това?
05:15
And because we started this work around the time of the financial collapse,
128
315260
3000
И защото започнахме тази работа около времето на финансовия колапс,
05:18
around the time when foreclosures were hitting the news,
129
318260
2000
около времето, когато пресрочени ипотеки се появяваха в новините,
05:20
we said, hhmm, maybe we should
130
320260
2000
казахме си: хм, може би трябва
05:22
actually start in the financial domain.
131
322260
2000
наистина да започнем от финансовата сфера.
05:24
Maybe we should look at monkey's economic decisions
132
324260
3000
Може би трябва да погледнем икономическите решения на маймуните
05:27
and try to see if they do the same kinds of dumb things that we do.
133
327260
3000
и да опитаме да видим дали те правят същите глупави неща, които правим и ние.
05:30
Of course, that's when we hit a sort second problem --
134
330260
2000
Разбира се, тогава се сблъскахме с втори проблем --
05:32
a little bit more methodological --
135
332260
2000
малко по-методологичен --
05:34
which is that, maybe you guys don't know,
136
334260
2000
който е, че може би вие, хора, не знаете,
05:36
but monkeys don't actually use money. I know, you haven't met them.
137
336260
3000
но маймуните всъщност не използват пари. Зная, не сте ги срещали.
05:39
But this is why, you know, they're not in the queue behind you
138
339260
2000
Но ето защо те не са на опашката зад вас
05:41
at the grocery store or the ATM -- you know, they don't do this stuff.
139
341260
3000
в магазина за плодове и зеленчуци или пред банкомата -- те не правят това.
05:44
So now we faced, you know, a little bit of a problem here.
140
344260
3000
Ето, че се сблъскахме с малък проблем.
05:47
How are we actually going to ask monkeys about money
141
347260
2000
Как всъщност ще питаме маймуните за пари,
05:49
if they don't actually use it?
142
349260
2000
ако те всъщност не ги ползват?
05:51
So we said, well, maybe we should just, actually just suck it up
143
351260
2000
Казахме си: може би трябва просто да ги подмамим
05:53
and teach monkeys how to use money.
144
353260
2000
и да научим маймуните как да ползват пари.
05:55
So that's just what we did.
145
355260
2000
Така че точно това направихме.
05:57
What you're looking at over here is actually the first unit that I know of
146
357260
3000
Това което виждате тук е всъщност първото нещо, което знам за
06:00
of non-human currency.
147
360260
2000
не-човешка валута.
06:02
We weren't very creative at the time we started these studies,
148
362260
2000
Не бяхме много креативни по времето, когато стартирахме тези изследвания,
06:04
so we just called it a token.
149
364260
2000
така че го нарекохме просто жетон.
06:06
But this is the unit of currency that we've taught our monkeys at Yale
150
366260
3000
Но това е валута, която представихме на нашите маймуни в Йейл
06:09
to actually use with humans,
151
369260
2000
да я използват с хората,
06:11
to actually buy different pieces of food.
152
371260
3000
да си купуват различни парчета храна.
06:14
It doesn't look like much -- in fact, it isn't like much.
153
374260
2000
Не изглежда като много пари -- всъщност, никак не са много.
06:16
Like most of our money, it's just a piece of metal.
154
376260
2000
Като повечето нашите пари, е просто парче метал.
06:18
As those of you who've taken currencies home from your trip know,
155
378260
3000
Тези от вас, които са взимали валути у дома от вашето пътешествие знаят,
06:21
once you get home, it's actually pretty useless.
156
381260
2000
веднъж като се приберете у дома, всъщност са доста безполезни.
06:23
It was useless to the monkeys at first
157
383260
2000
Беше безполезно първоначално и за маймуните
06:25
before they realized what they could do with it.
158
385260
2000
преди да осъзнаят какво могат да правят с това.
06:27
When we first gave it to them in their enclosures,
159
387260
2000
Когато за пръв път им го дадохме,
06:29
they actually kind of picked them up, looked at them.
160
389260
2000
те ги събраха, погледнаха ги.
06:31
They were these kind of weird things.
161
391260
2000
Те бяха едни странни неща.
06:33
But very quickly, the monkeys realized
162
393260
2000
Но много бързо маймуните осъзнаха,
06:35
that they could actually hand these tokens over
163
395260
2000
че могат да дават тази жетони на
06:37
to different humans in the lab for some food.
164
397260
3000
различни хора в лабораторията за храна.
06:40
And so you see one of our monkeys, Mayday, up here doing this.
165
400260
2000
И така виждате една от нашите маймуни, Мейдей, да прави това.
06:42
This is A and B are kind of the points where she's sort of a little bit
166
402260
3000
Това е А и Б са вид точки, където тя е някакси малко
06:45
curious about these things -- doesn't know.
167
405260
2000
любопитна за тези неща -- не знае.
06:47
There's this waiting hand from a human experimenter,
168
407260
2000
Ето тази чакаща ръка от човешки екпериментатор,
06:49
and Mayday quickly figures out, apparently the human wants this.
169
409260
3000
и Мейдей бързо разбира, очевидно че човека иска това.
06:52
Hands it over, and then gets some food.
170
412260
2000
Дава го и тогава получава храна.
06:54
It turns out not just Mayday, all of our monkeys get good
171
414260
2000
Излиза, че не само Мейдей, всички наши маймуни стават добри
06:56
at trading tokens with human salesman.
172
416260
2000
в търговията с жетони с човека-продавач.
06:58
So here's just a quick video of what this looks like.
173
418260
2000
Ето бързо видео как изглежда това.
07:00
Here's Mayday. She's going to be trading a token for some food
174
420260
3000
Това е Мейдей. Тя ще изтъргува жетон за храна
07:03
and waiting happily and getting her food.
175
423260
3000
и ще чака щастливо да си получи храната.
07:06
Here's Felix, I think. He's our alpha male; he's a kind of big guy.
176
426260
2000
Това е Феликс, мисля. Той е нашият алфа-мъжкар; голям мъжага.
07:08
But he too waits patiently, gets his food and goes on.
177
428260
3000
Но той също чака търпеливо, получава храната си и продължава.
07:11
So the monkeys get really good at this.
178
431260
2000
Така че маймуните стават наистина добри в това.
07:13
They're surprisingly good at this with very little training.
179
433260
3000
Те са учудващо добри в това с много малко упражняване.
07:16
We just allowed them to pick this up on their own.
180
436260
2000
Ние просто им позволихме да свикнат с това сами.
07:18
The question is: is this anything like human money?
181
438260
2000
Въпросът е: това прилича ли на човешки пари?
07:20
Is this a market at all,
182
440260
2000
Това пазар ли е въобще,
07:22
or did we just do a weird psychologist's trick
183
442260
2000
или ние просто направихме странен психологичен трик
07:24
by getting monkeys to do something,
184
444260
2000
като накарахме маймуните да направят нещо,
07:26
looking smart, but not really being smart.
185
446260
2000
изглеждайки умни, без наистина да са умни.
07:28
And so we said, well, what would the monkeys spontaneously do
186
448260
3000
Казахме си: какво ще направят спонтанно маймуните
07:31
if this was really their currency, if they were really using it like money?
187
451260
3000
ако това беше наистина тяхна валута, ако те наистина я използваха като пари?
07:34
Well, you might actually imagine them
188
454260
2000
Е, можете всъщност да си ги представите
07:36
to do all the kinds of smart things
189
456260
2000
да правят много умни неща,
07:38
that humans do when they start exchanging money with each other.
190
458260
3000
които хората правят, когато започнат да разменят пари един с друг.
07:41
You might have them start paying attention to price,
191
461260
3000
Можете да ги накарате да започнат да обръщат внимание на цената,
07:44
paying attention to how much they buy --
192
464260
2000
да обръщат внимание колко купуват --
07:46
sort of keeping track of their monkey token, as it were.
193
466260
3000
един вид следене на техния маймунски жетон.
07:49
Do the monkeys do anything like this?
194
469260
2000
Маймуните правят ли нещо такова?
07:51
And so our monkey marketplace was born.
195
471260
3000
И така нашият маймунски пазар беше роден.
07:54
The way this works is that
196
474260
2000
Начина, по който работи е, че
07:56
our monkeys normally live in a kind of big zoo social enclosure.
197
476260
3000
нашите маймуни обикновено живеят в голяма зоологическа градина.
07:59
When they get a hankering for some treats,
198
479260
2000
Когато получат сигнал за някакви заплахи,
08:01
we actually allowed them a way out
199
481260
2000
ние им позволихме да се оттеглят
08:03
into a little smaller enclosure where they could enter the market.
200
483260
2000
към по-малко пространство, където можеха да се включат в пазара.
08:05
Upon entering the market --
201
485260
2000
При влизането на пазара --
08:07
it was actually a much more fun market for the monkeys than most human markets
202
487260
2000
беше всъщност много по-весел пазар за маймуните отколкото пазарите на хората
08:09
because, as the monkeys entered the door of the market,
203
489260
3000
защото, когато маймуните минаваха през вратата на пазара,
08:12
a human would give them a big wallet full of tokens
204
492260
2000
човек им даваше голям портфейл пълен с жетони,
08:14
so they could actually trade the tokens
205
494260
2000
така че те можеха да търгуват с жетоните
08:16
with one of these two guys here --
206
496260
2000
с един от тези двамата тук --
08:18
two different possible human salesmen
207
498260
2000
двама различни възможни продавача-човека
08:20
that they could actually buy stuff from.
208
500260
2000
от които можеха реално да си купят неща.
08:22
The salesmen were students from my lab.
209
502260
2000
Продавачите бяха студенти от моята лаборатория.
08:24
They dressed differently; they were different people.
210
504260
2000
Те бяха облечени различно; те бяха различни хора.
08:26
And over time, they did basically the same thing
211
506260
3000
И с времето, те правеха основно едно и също нещо,
08:29
so the monkeys could learn, you know,
212
509260
2000
така че маймуните да можеха да учат,
08:31
who sold what at what price -- you know, who was reliable, who wasn't, and so on.
213
511260
3000
кой какво продава и на каква цена -- кой беше сигурен, кой не беше и т.н.
08:34
And you can see that each of the experimenters
214
514260
2000
И можете да видите, че всеки от експериментаторите
08:36
is actually holding up a little, yellow food dish.
215
516260
3000
всъщност държи малка, жълта чиния с грозде,
08:39
and that's what the monkey can for a single token.
216
519260
2000
и това е, което маймуната може да купи за един жетон.
08:41
So everything costs one token,
217
521260
2000
Всичко струва един жетон,
08:43
but as you can see, sometimes tokens buy more than others,
218
523260
2000
но както можете да видите, понякога жетоните купуват повече,
08:45
sometimes more grapes than others.
219
525260
2000
понякога повече грозде от други.
08:47
So I'll show you a quick video of what this marketplace actually looks like.
220
527260
3000
Така,че ще ви покажа кратко видео как изглежда този пазар.
08:50
Here's a monkey-eye-view. Monkeys are shorter, so it's a little short.
221
530260
3000
Ето изглед от позицията на маймуна. Маймуните са по-ниски, така че е малко ниско.
08:53
But here's Honey.
222
533260
2000
Ето я Хъни.
08:55
She's waiting for the market to open a little impatiently.
223
535260
2000
Тя чака пазара да отвори малко нетърпеливо.
08:57
All of a sudden the market opens. Here's her choice: one grapes or two grapes.
224
537260
3000
Изведнъж пазара отваря. Ето нейният избор: едно зърно грозде или две.
09:00
You can see Honey, very good market economist,
225
540260
2000
Можете да видите Хъни, много добър пазарен икономист,
09:02
goes with the guy who gives more.
226
542260
3000
избира човека, който дава повече.
09:05
She could teach our financial advisers a few things or two.
227
545260
2000
Тя можеше та учи нашите финансови съветници едно или две неща.
09:07
So not just Honey,
228
547260
2000
И не само Хъни.
09:09
most of the monkeys went with guys who had more.
229
549260
3000
повечето от маймуните избраха човека, който имаше повече.
09:12
Most of the monkeys went with guys who had better food.
230
552260
2000
Повечето от маймуните избраха човека, който имаше по-добра храна.
09:14
When we introduced sales, we saw the monkeys paid attention to that.
231
554260
3000
Когато представихме продажбитете, видяхме маймуните да обръщат внимание на това.
09:17
They really cared about their monkey token dollar.
232
557260
3000
Те наистина се интересуваха за техния маймунски жетонов долар.
09:20
The more surprising thing was that when we collaborated with economists
233
560260
3000
По-изненадащото нещо беше, че когато работихме заедно с икономисти
09:23
to actually look at the monkeys' data using economic tools,
234
563260
3000
да разгледаме данните на маймуните, използвайки икономически инструменти,
09:26
they basically matched, not just qualitatively,
235
566260
3000
те основно съвпадаха, не само качествено,
09:29
but quantitatively with what we saw
236
569260
2000
но количествено с това, което сме виждали
09:31
humans doing in a real market.
237
571260
2000
да правят хората на истинския пазар.
09:33
So much so that, if you saw the monkeys' numbers,
238
573260
2000
Ако видите данните на маймуните,
09:35
you couldn't tell whether they came from a monkey or a human in the same market.
239
575260
3000
не бихте могли да кажете дали са дошли от хора или от маймуни на същия пазар.
09:38
And what we'd really thought we'd done
240
578260
2000
И това, което наистина мислехме, че бяхме направили
09:40
is like we'd actually introduced something
241
580260
2000
е, че действително бяхме представили нещо,
09:42
that, at least for the monkeys and us,
242
582260
2000
което, най-малкото за маймуните и нас,
09:44
works like a real financial currency.
243
584260
2000
работи като истинска финансова валута.
09:46
Question is: do the monkeys start messing up in the same ways we do?
244
586260
3000
Въпросът е: маймуните започват ли да объркват като нас?
09:49
Well, we already saw anecdotally a couple of signs that they might.
245
589260
3000
Е, вече видяхме анекдотично два знака, че те могат.
09:52
One thing we never saw in the monkey marketplace
246
592260
2000
Едно нещо, което никога не видяхме на маймунския пазар
09:54
was any evidence of saving --
247
594260
2000
беше някакво доказателство за спестяване --
09:56
you know, just like our own species.
248
596260
2000
знаете, точно като нашият вид.
09:58
The monkeys entered the market, spent their entire budget
249
598260
2000
Маймуните влизаха на пазара, изхарчваха целия си бюджет
10:00
and then went back to everyone else.
250
600260
2000
и тогава се връщаха при другите.
10:02
The other thing we also spontaneously saw,
251
602260
2000
Другото нещо, което също спонтанно видяхме,
10:04
embarrassingly enough,
252
604260
2000
доста притеснително,
10:06
is spontaneous evidence of larceny.
253
606260
2000
е спонтанно доказателство за кражба.
10:08
The monkeys would rip-off the tokens at every available opportunity --
254
608260
3000
Маймуните крадяха жетоните при всяка възможност --
10:11
from each other, often from us --
255
611260
2000
една от друга, често от нас --
10:13
you know, things we didn't necessarily think we were introducing,
256
613260
2000
знаете, неща които не мислехме, че сме представили,
10:15
but things we spontaneously saw.
257
615260
2000
но неща, които спонтанно видяхме.
10:17
So we said, this looks bad.
258
617260
2000
Казахме си: това изглежда лошо.
10:19
Can we actually see if the monkeys
259
619260
2000
Можем ли всъщност да видим дали маймуните
10:21
are doing exactly the same dumb things as humans do?
260
621260
3000
правят точно същите глупави неща като хората?
10:24
One possibility is just kind of let
261
624260
2000
Една възможност е просто да оставим
10:26
the monkey financial system play out,
262
626260
2000
маймунската финансова система да си продължи,
10:28
you know, see if they start calling us for bailouts in a few years.
263
628260
2000
за да видим дали ще ни се обадят да ги спасим след няколко години.
10:30
We were a little impatient so we wanted
264
630260
2000
Ние бяхме малко нетърпеливи, така че искахме
10:32
to sort of speed things up a bit.
265
632260
2000
един вид да ускорим малко нещата.
10:34
So we said, let's actually give the monkeys
266
634260
2000
Казахме си: нека реално да дадем на маймуните
10:36
the same kinds of problems
267
636260
2000
същите проблеми, при които
10:38
that humans tend to get wrong
268
638260
2000
хората грешат обикновено
10:40
in certain kinds of economic challenges,
269
640260
2000
в определени икономически предизвикателства
10:42
or certain kinds of economic experiments.
270
642260
2000
или определени икономически експерименти.
10:44
And so, since the best way to see how people go wrong
271
644260
3000
И така, тъй като най-добрият начин да видим как хората грешат
10:47
is to actually do it yourself,
272
647260
2000
е да го направим самите ние.
10:49
I'm going to give you guys a quick experiment
273
649260
2000
Ще ви дам, хора, един бърз експеримент
10:51
to sort of watch your own financial intuitions in action.
274
651260
2000
един вид да видите вашата собствена финансова интуиция в действие.
10:53
So imagine that right now
275
653260
2000
Представете си, че точно сега
10:55
I handed each and every one of you
276
655260
2000
ви дам на всеки от вас
10:57
a thousand U.S. dollars -- so 10 crisp hundred dollar bills.
277
657260
3000
хиляда американски долара -- 10 стотачки.
11:00
Take these, put it in your wallet
278
660260
2000
Вземете ги, сложете ги в порфейла си
11:02
and spend a second thinking about what you're going to do with it.
279
662260
2000
и отделете секунда да помислите за това какво ще направите с тях.
11:04
Because it's yours now; you can buy whatever you want.
280
664260
2000
Защото са ваши сега -- можете да си купите каквото си искате.
11:06
Donate it, take it, and so on.
281
666260
2000
Да ги дарите, да ги вземете, и т.н.
11:08
Sounds great, but you get one more choice to earn a little bit more money.
282
668260
3000
Звучи прекрасно, но получавате още един шанс да спечелите малко повече пари.
11:11
And here's your choice: you can either be risky,
283
671260
3000
И ето вашия избор: можете да рискувате,
11:14
in which case I'm going to flip one of these monkey tokens.
284
674260
2000
в който случай ще обърна един от тези маймунски жетони.
11:16
If it comes up heads, you're going to get a thousand dollars more.
285
676260
2000
ако се падне ези, ще вземете още хиляда долара.
11:18
If it comes up tails, you get nothing.
286
678260
2000
ак осе падне тура, взимате нищо.
11:20
So it's a chance to get more, but it's pretty risky.
287
680260
3000
Така че е късмет да спечелите повече, но е доста рисковано.
11:23
Your other option is a bit safe. Your just going to get some money for sure.
288
683260
3000
Другият ви избор е по-сигурен. Вие ще спечелите пари със сигурност.
11:26
I'm just going to give you 500 bucks.
289
686260
2000
Просто ще ви дам $500.
11:28
You can stick it in your wallet and use it immediately.
290
688260
3000
Можете да ги приберете в портфейла си и да ги ползвате незабавно.
11:31
So see what your intuition is here.
291
691260
2000
Вижте каква е вашата интуиция тук.
11:33
Most people actually go with the play-it-safe option.
292
693260
3000
Повечето хора всъщност избират сигурната опция.
11:36
Most people say, why should I be risky when I can get 1,500 dollars for sure?
293
696260
3000
Повечето хора казват: защо да рискувам, като мога да взема със сигурност $1500?
11:39
This seems like a good bet. I'm going to go with that.
294
699260
2000
Това изглежда добър залог. Ще избера него.
11:41
You might say, eh, that's not really irrational.
295
701260
2000
Можете да кажете: е, това не е ирационално.
11:43
People are a little risk-averse. So what?
296
703260
2000
Хората са малко предразположени към риск. И какво?
11:45
Well, the "so what?" comes when start thinking
297
705260
2000
Е, "и какво"? идва, когато започне мисленето
11:47
about the same problem
298
707260
2000
за същият проблем,
11:49
set up just a little bit differently.
299
709260
2000
погледнат малко по-различно.
11:51
So now imagine that I give each and every one of you
300
711260
2000
И така, сега си представете, че давам на всеки от вас
11:53
2,000 dollars -- 20 crisp hundred dollar bills.
301
713260
3000
$2000 -- 20 стотачки.
11:56
Now you can buy double to stuff you were going to get before.
302
716260
2000
Сега можете да купите двойно повече неща от преди.
11:58
Think about how you'd feel sticking it in your wallet.
303
718260
2000
Помислете как бихте си ги сложили в портфейла.
12:00
And now imagine that I have you make another choice
304
720260
2000
И сега предствате си, че имате друг избор
12:02
But this time, it's a little bit worse.
305
722260
2000
Но този път е малко по- лош.
12:04
Now, you're going to be deciding how you're going to lose money,
306
724260
3000
Сега вие ще решите как ще изгубите пари,
12:07
but you're going to get the same choice.
307
727260
2000
но ще получите същият избор.
12:09
You can either take a risky loss --
308
729260
2000
Можете или да вземете рискована загуба --
12:11
so I'll flip a coin. If it comes up heads, you're going to actually lose a lot.
309
731260
3000
така че ще теглим жребий. Ако се падне ези, ще загубите много.
12:14
If it comes up tails, you lose nothing, you're fine, get to keep the whole thing --
310
734260
3000
ако се падне тура, не губите нищо, добре сте, запазвате всичко --
12:17
or you could play it safe, which means you have to reach back into your wallet
311
737260
3000
или можете да играете на сигурно, което означава, че трябва да бръкнете обратно в портфейла си
12:20
and give me five of those $100 bills, for certain.
312
740260
3000
и да ми дадете пет от тези банкноти по $100, със сигурност.
12:23
And I'm seeing a lot of furrowed brows out there.
313
743260
3000
Виждам много намръщени вежди там.
12:26
So maybe you're having the same intuitions
314
746260
2000
Така че може би имате същата интуиция
12:28
as the subjects that were actually tested in this,
315
748260
2000
като субектите, които бяха тествани в това,
12:30
which is when presented with these options,
316
750260
2000
които, когато им са представени тези опции,
12:32
people don't choose to play it safe.
317
752260
2000
хората не избират да играят на сигурно.
12:34
They actually tend to go a little risky.
318
754260
2000
Те всъщност рискуват малко.
12:36
The reason this is irrational is that we've given people in both situations
319
756260
3000
Това е ирационално, защото ние сме дали на хората и в двете ситуации
12:39
the same choice.
320
759260
2000
същият избор.
12:41
It's a 50/50 shot of a thousand or 2,000,
321
761260
3000
Това е 50 на 50 избор на хиляда или 2000,
12:44
or just 1,500 dollars with certainty.
322
764260
2000
или просто $1500 със сигурност.
12:46
But people's intuitions about how much risk to take
323
766260
3000
Но интуицията на хората за това колко риск да поемат,
12:49
varies depending on where they started with.
324
769260
2000
варира зависейки от къде са започнали.
12:51
So what's going on?
325
771260
2000
Така че какво става?
12:53
Well, it turns out that this seems to be the result
326
773260
2000
Излиза, че това изглежда да е резултата
12:55
of at least two biases that we have at the psychological level.
327
775260
3000
за най-малко два предрасъдъка, които имаме на психологическо ниво.
12:58
One is that we have a really hard time thinking in absolute terms.
328
778260
3000
Единият е, че наистина срещаме трудност да мислим в абсолютен смисъл.
13:01
You really have to do work to figure out,
329
781260
2000
Вие наистина трябва да поработите за да разберете,
13:03
well, one option's a thousand, 2,000;
330
783260
2000
че, единият избор е хиляда, 2000;
13:05
one is 1,500.
331
785260
2000
а другият е 1500.
13:07
Instead, we find it very easy to think in very relative terms
332
787260
3000
Вместо това, много лесно мислим в относителни термини
13:10
as options change from one time to another.
333
790260
3000
когато изборите се променят от един към друг.
13:13
So we think of things as, "Oh, I'm going to get more," or "Oh, I'm going to get less."
334
793260
3000
Мислим за нещата като: "О, Ще взема повече," или "О, ще взема по-малко."
13:16
This is all well and good, except that
335
796260
2000
Това всичко е добре, с изключение че
13:18
changes in different directions
336
798260
2000
промените в различни посоки
13:20
actually effect whether or not we think
337
800260
2000
имат ефект върху това дали възприемаме
13:22
options are good or not.
338
802260
2000
възможностите за добри или лоши.
13:24
And this leads to the second bias,
339
804260
2000
И това ни води до вторият предрасъдък,
13:26
which economists have called loss aversion.
340
806260
2000
който икономистите са нарекли нежелание за загуба.
13:28
The idea is that we really hate it when things go into the red.
341
808260
3000
Идеята е, че ние наистина мразим да губим.
13:31
We really hate it when we have to lose out on some money.
342
811260
2000
Ние наистина мразим, когато трябва да загубим пари.
13:33
And this means that sometimes we'll actually
343
813260
2000
И това означава, че понякога ние ще
13:35
switch our preferences to avoid this.
344
815260
2000
променим нашите предпочитания, за да избегнем това.
13:37
What you saw in that last scenario is that
345
817260
2000
Това, което видяхте в този последен сценарий е, че
13:39
subjects get risky
346
819260
2000
субектите поемат рискове,
13:41
because they want the small shot that there won't be any loss.
347
821260
3000
защото те искат малкият избор, с който няма да има загуба.
13:44
That means when we're in a risk mindset --
348
824260
2000
Това означава, когато сме склонни да мислим рисково --
13:46
excuse me, when we're in a loss mindset,
349
826260
2000
извинете ме, когато сме склонни да мислим за загуби,
13:48
we actually become more risky,
350
828260
2000
всъщност ставаме по-рисковани в действията си,
13:50
which can actually be really worrying.
351
830260
2000
което може да бъде наистина тревожно.
13:52
These kinds of things play out in lots of bad ways in humans.
352
832260
3000
Тези неща се проявяват в много случаи при хората.
13:55
They're why stock investors hold onto losing stocks longer --
353
835260
3000
Те са причината инвеститорите да се въздържат от губене на акции по-дълго --
13:58
because they're evaluating them in relative terms.
354
838260
2000
защото те ги преценяват относително.
14:00
They're why people in the housing market refused to sell their house --
355
840260
2000
Ето защо хората на пазара на къщи отказват да продадат къщата си --
14:02
because they don't want to sell at a loss.
356
842260
2000
защото те не искат да продават на загуба.
14:04
The question we were interested in
357
844260
2000
Въпросът, който ни интересуваше,
14:06
is whether the monkeys show the same biases.
358
846260
2000
е дали маймуните показват същият предрасъдък.
14:08
If we set up those same scenarios in our little monkey market,
359
848260
3000
Ако приложим същите сценарии в нашият малък маймунски пазар,
14:11
would they do the same thing as people?
360
851260
2000
те биха ли направили същото като хора?
14:13
And so this is what we did, we gave the monkeys choices
361
853260
2000
И така, ето какво направихме: дадохме на маймуните избори
14:15
between guys who were safe -- they did the same thing every time --
362
855260
3000
между хора, които бяха сигурни -- те правеха същото нещо всеки път --
14:18
or guys who were risky --
363
858260
2000
или хора, които действаха рисковано --
14:20
they did things differently half the time.
364
860260
2000
те правеха различни неща половината пъти.
14:22
And then we gave them options that were bonuses --
365
862260
2000
И тогава им дадохме избори, които бяха бонуси --
14:24
like you guys did in the first scenario --
366
864260
2000
както вие хора направихте в първият сценарий --
14:26
so they actually have a chance more,
367
866260
2000
така че те имаха шанс повече,
14:28
or pieces where they were experiencing losses --
368
868260
3000
или парчета, където те преживяваха загуби --
14:31
they actually thought they were going to get more than they really got.
369
871260
2000
те всъщност мислеха, че ще получат повече отколкото получиха.
14:33
And so this is what this looks like.
370
873260
2000
Ето как изглежда това.
14:35
We introduced the monkeys to two new monkey salesmen.
371
875260
2000
Представихме маймуните на двама нови продавача.
14:37
The guy on the left and right both start with one piece of grape,
372
877260
2000
Този вляво и вдясно започнаха с едно зърно грозде,
14:39
so it looks pretty good.
373
879260
2000
така че изглежда доста добре.
14:41
But they're going to give the monkeys bonuses.
374
881260
2000
Но те ще дадат на маймуните бонуси.
14:43
The guy on the left is a safe bonus.
375
883260
2000
Този в ляво е сигурен бонус.
14:45
All the time, he adds one, to give the monkeys two.
376
885260
3000
През цялото време той добавя едно, за да даде на маймуните две.
14:48
The guy on the right is actually a risky bonus.
377
888260
2000
Този в дясно е всъщност рисков бонус.
14:50
Sometimes the monkeys get no bonus -- so this is a bonus of zero.
378
890260
3000
Понякога маймуните не получават бонус -- така че това е нулев бонус.
14:53
Sometimes the monkeys get two extra.
379
893260
3000
Понякога маймуните получават две зърна екстра.
14:56
For a big bonus, now they get three.
380
896260
2000
За голям бонус, сега получават три.
14:58
But this is the same choice you guys just faced.
381
898260
2000
Но това е същият избор, с който се сблъскахте и вие.
15:00
Do the monkeys actually want to play it safe
382
900260
3000
Маймуните всъщност искат ли да постъпят сигурно
15:03
and then go with the guy who's going to do the same thing on every trial,
383
903260
2000
и тогава да отидат с този, който ще направи същото нещо всеки път,
15:05
or do they want to be risky
384
905260
2000
или искат да рискуват
15:07
and try to get a risky, but big, bonus,
385
907260
2000
и да опитат да вземат рискован, но голям бонус,
15:09
but risk the possibility of getting no bonus.
386
909260
2000
но да рискуват възможността да не вземат никакъв бонус?
15:11
People here played it safe.
387
911260
2000
Хората тук играха на сигурно.
15:13
Turns out, the monkeys play it safe too.
388
913260
2000
Излиза, че маймуните също избират сигурността.
15:15
Qualitatively and quantitatively,
389
915260
2000
Качаствено и количествено,
15:17
they choose exactly the same way as people,
390
917260
2000
те избират точно същото като хората,
15:19
when tested in the same thing.
391
919260
2000
когато са тествани за същото.
15:21
You might say, well, maybe the monkeys just don't like risk.
392
921260
2000
Можете да кажете, че маймуните просто не обичат риска.
15:23
Maybe we should see how they do with losses.
393
923260
2000
Може би трябва да видим как реагират на загуби.
15:25
And so we ran a second version of this.
394
925260
2000
И така изпълнихме втора версия на това.
15:27
Now, the monkeys meet two guys
395
927260
2000
Сега маймуните се срещат с двама
15:29
who aren't giving them bonuses;
396
929260
2000
които не им дават бонуси;
15:31
they're actually giving them less than they expect.
397
931260
2000
те всъщност им дават по-малко, отколкото очакват.
15:33
So they look like they're starting out with a big amount.
398
933260
2000
Изглеждат сякаш започват с голяма сума.
15:35
These are three grapes; the monkey's really psyched for this.
399
935260
2000
Тези са три зърна грозде; маймуните наистина усетиха това.
15:37
But now they learn these guys are going to give them less than they expect.
400
937260
3000
Но сега те научават, че тези хора ще им дадат по-малко отколкото очакват.
15:40
They guy on the left is a safe loss.
401
940260
2000
Този вляво е сигурна загуба.
15:42
Every single time, he's going to take one of these away
402
942260
3000
Всеки път, той ще вземе едно зърно от тях
15:45
and give the monkeys just two.
403
945260
2000
и ще даде на маймуните само две.
15:47
the guy on the right is the risky loss.
404
947260
2000
Този вдясно е рискована загуба.
15:49
Sometimes he gives no loss, so the monkeys are really psyched,
405
949260
3000
Понякога той не дава загуба, така че маймуните усещат,
15:52
but sometimes he actually gives a big loss,
406
952260
2000
но понякога дава голяма загуба,
15:54
taking away two to give the monkeys only one.
407
954260
2000
отнемайки две, за да даде на маймуните само едно.
15:56
And so what do the monkeys do?
408
956260
2000
И така, какво правят маймуните?
15:58
Again, same choice; they can play it safe
409
958260
2000
Отново, същият избор; могат да изберат сигурното
16:00
for always getting two grapes every single time,
410
960260
3000
и винаги да получават две зърна всеки път,
16:03
or they can take a risky bet and choose between one and three.
411
963260
3000
или могат да вземат рискован залог и да изберат между едно и три.
16:06
The remarkable thing to us is that, when you give monkeys this choice,
412
966260
3000
Забележителното нещо за нас е, че когато дадеш на маймуните този избор,
16:09
they do the same irrational thing that people do.
413
969260
2000
те правят същото нелогично нещо, което правят и хората.
16:11
They actually become more risky
414
971260
2000
Те стават по-склонни към риск
16:13
depending on how the experimenters started.
415
973260
3000
зависейки от това как са започнали експериментите.
16:16
This is crazy because it suggests that the monkeys too
416
976260
2000
Това е лудост, защото предполага, че маймуните също
16:18
are evaluating things in relative terms
417
978260
2000
оценяват нещата относително
16:20
and actually treating losses differently than they treat gains.
418
980260
3000
и третират загубите различно от придобивките.
16:23
So what does all of this mean?
419
983260
2000
И така, какво означава всичко това?
16:25
Well, what we've shown is that, first of all,
420
985260
2000
Ами, това което показахме е, че първо,
16:27
we can actually give the monkeys a financial currency,
421
987260
2000
можем на практика да дадем на маймуните финансова валута,
16:29
and they do very similar things with it.
422
989260
2000
и те правят много подобни неща с нея.
16:31
They do some of the smart things we do,
423
991260
2000
Те правят някои от умните неща, които правим и ние,
16:33
some of the kind of not so nice things we do,
424
993260
2000
някои от не толкова приятните неща, които правим ние,
16:35
like steal it and so on.
425
995260
2000
като краденето и т.н.
16:37
But they also do some of the irrational things we do.
426
997260
2000
Но те също правят някои от нелогичните неща, които правим и ние.
16:39
They systematically get things wrong
427
999260
2000
Те систематично грешат нещата
16:41
and in the same ways that we do.
428
1001260
2000
и то по същия начин като нас.
16:43
This is the first take-home message of the Talk,
429
1003260
2000
Това е първият извод от лекцията,
16:45
which is that if you saw the beginning of this and you thought,
430
1005260
2000
че ако сте видели началото на това и сте мислели,
16:47
oh, I'm totally going to go home and hire a capuchin monkey financial adviser.
431
1007260
2000
о, аз определено отивам у дома и наемам маймуна капуцин за финансов съветник.
16:49
They're way cuter than the one at ... you know --
432
1009260
2000
Те са далеч по-сладки от тези в... знаете --
16:51
Don't do that; they're probably going to be just as dumb
433
1011260
2000
Не правете това, те вероятно ще са толкова глупави,
16:53
as the human one you already have.
434
1013260
3000
колкото и човека, който вече имате.
16:56
So, you know, a little bad -- Sorry, sorry, sorry.
435
1016260
2000
Това е малко лошо -- Съжалявам, съжалявам, съжалявам.
16:58
A little bad for monkey investors.
436
1018260
2000
Малко лошо за инвеститорите-маймуни.
17:00
But of course, you know, the reason you're laughing is bad for humans too.
437
1020260
3000
Но разбира се, знаете, причината за това, че се смеете е лошо за хората също.
17:03
Because we've answered the question we started out with.
438
1023260
3000
Защото сме отговорили на въпроса с който започнахме.
17:06
We wanted to know where these kinds of errors came from.
439
1026260
2000
Искахме да знаем откъде идват тези грешки.
17:08
And we started with the hope that maybe we can
440
1028260
2000
И започнахме с надеждата, че може би можем
17:10
sort of tweak our financial institutions,
441
1030260
2000
някак да подобрим нашите финансови институции,
17:12
tweak our technologies to make ourselves better.
442
1032260
3000
да подобрим нашите технологии, да направим себе си по-добри.
17:15
But what we've learn is that these biases might be a deeper part of us than that.
443
1035260
3000
Но това, което научихме е, че тези предразсъдъци може да са по-дълбока част от нас.
17:18
In fact, they might be due to the very nature
444
1038260
2000
Всъщност, те може да са присъщи точно на природата
17:20
of our evolutionary history.
445
1040260
2000
на нашата еволюционна история.
17:22
You know, maybe it's not just humans
446
1042260
2000
Знаете, може би не са само хората
17:24
at the right side of this chain that's duncey.
447
1044260
2000
в дясната страна на тази верига, които са глупаци.
17:26
Maybe it's sort of duncey all the way back.
448
1046260
2000
Може би е вид глупост по целия път назад.
17:28
And this, if we believe the capuchin monkey results,
449
1048260
3000
И това, ако вярваме на резултатите от маймуната-капуцин,
17:31
means that these duncey strategies
450
1051260
2000
означава, че тези глупави стратегии
17:33
might be 35 million years old.
451
1053260
2000
може да са стари 35 милиона години.
17:35
That's a long time for a strategy
452
1055260
2000
Това е дълго време за стратегия.
17:37
to potentially get changed around -- really, really old.
453
1057260
3000
потенциално да бъде заменена -- наистина, наистина стара.
17:40
What do we know about other old strategies like this?
454
1060260
2000
Какво знаем за други стари стратегии като тази?
17:42
Well, one thing we know is that they tend to be really hard to overcome.
455
1062260
3000
Едно нещо което знаем е, че те са наистина трудни за преодоляване.
17:45
You know, think of our evolutionary predilection
456
1065260
2000
Помислете за нашето еволюционно предразположение
17:47
for eating sweet things, fatty things like cheesecake.
457
1067260
3000
да ядем сладки неща, неща от които напълняваме, като чийзкейка.
17:50
You can't just shut that off.
458
1070260
2000
Не можете просто да го изключите.
17:52
You can't just look at the dessert cart as say, "No, no, no. That looks disgusting to me."
459
1072260
3000
Не можете просто да погледнете количката с десерти и да кажете, " Не, не, не. Това е отвратително за мен."
17:55
We're just built differently.
460
1075260
2000
Ние просто сме направени различно.
17:57
We're going to perceive it as a good thing to go after.
461
1077260
2000
Ние ще го възприемаме като нещо добро за нас.
17:59
My guess is that the same thing is going to be true
462
1079260
2000
Моето предположение е, че същото нещо ще е вярно
18:01
when humans are perceiving
463
1081260
2000
когато хората възприемат
18:03
different financial decisions.
464
1083260
2000
различни финансови решения.
18:05
When you're watching your stocks plummet into the red,
465
1085260
2000
Когато гледате вашите акции да губят стойност,
18:07
when you're watching your house price go down,
466
1087260
2000
когато гледате цената на къщата ви да спада,
18:09
you're not going to be able to see that
467
1089260
2000
няма да можете да видите това
18:11
in anything but old evolutionary terms.
468
1091260
2000
в нищо друго освен в стар еволюционен смисъл.
18:13
This means that the biases
469
1093260
2000
Това означава, че предразсъдъците,
18:15
that lead investors to do badly,
470
1095260
2000
които доведоха инвеститорите да направят лошо,
18:17
that lead to the foreclosure crisis
471
1097260
2000
което доведе до кризата с пресрочените ипотеки
18:19
are going to be really hard to overcome.
472
1099260
2000
ще бъдат наистина трудни за преодоляване.
18:21
So that's the bad news. The question is: is there any good news?
473
1101260
2000
Това е лошата новина. Въпросът е: има ли някаква добра новина?
18:23
I'm supposed to be up here telling you the good news.
474
1103260
2000
Предполага се, че съм тук за да ви кажа добрата новина.
18:25
Well, the good news, I think,
475
1105260
2000
Е, добрата новина, мисля,
18:27
is what I started with at the beginning of the Talk,
476
1107260
2000
е това, с което започнах в началото на лекцията,
18:29
which is that humans are not only smart;
477
1109260
2000
което е, че хората са не само умни;
18:31
we're really inspirationally smart
478
1111260
2000
ние сме наистина вдъхновяващо умни
18:33
to the rest of the animals in the biological kingdom.
479
1113260
3000
сравнени с останалите животни в биологическото царство.
18:36
We're so good at overcoming our biological limitations --
480
1116260
3000
Ние сме толкова добри в преодоляването на нашите биологически ограничения --
18:39
you know, I flew over here in an airplane.
481
1119260
2000
знаете, прелетях тук със самолет.
18:41
I didn't have to try to flap my wings.
482
1121260
2000
Не трябваше да опитам да махам с криле.
18:43
I'm wearing contact lenses now so that I can see all of you.
483
1123260
3000
Нося контактни лещи, за да мога да ви видя всички.
18:46
I don't have to rely on my own near-sightedness.
484
1126260
3000
Не трябва да разчитам на моето късогледство.
18:49
We actually have all of these cases
485
1129260
2000
Ние всъщност имаме всички тези случаи
18:51
where we overcome our biological limitations
486
1131260
3000
в които преодоляваме нашите биологически ограничения
18:54
through technology and other means, seemingly pretty easily.
487
1134260
3000
чрез технологиите и други начини, изглеждайки доста лесно.
18:57
But we have to recognize that we have those limitations.
488
1137260
3000
Но трябва да признаем, че имаме тези ограничения.
19:00
And here's the rub.
489
1140260
2000
И ето изненадата.
19:02
It was Camus who once said that, "Man is the only species
490
1142260
2000
Камю, веднъж каза, че "Човекът е единственият вид,
19:04
who refuses to be what he really is."
491
1144260
3000
който отказва да бъде това, което наистина е."
19:07
But the irony is that
492
1147260
2000
Но иронията е, че това
19:09
it might only be in recognizing our limitations
493
1149260
2000
може да стане само като признаем своите ограничения.
19:11
that we can really actually overcome them.
494
1151260
2000
Тогава можем наистина да ги предолеем.
19:13
The hope is that you all will think about your limitations,
495
1153260
3000
Надеждата е, че всички ще си помислите за вашите ограничения,
19:16
not necessarily as unovercomable,
496
1156260
3000
не непременно като непреодолими,
19:19
but to recognize them, accept them
497
1159260
2000
но да ги признаем, да ги приемем
19:21
and then use the world of design to actually figure them out.
498
1161260
3000
и тогава да използваме света на дизайна, за да ги разберем.
19:24
That might be the only way that we will really be able
499
1164260
3000
Това може да е единствения начин, по който ще можем
19:27
to achieve our own human potential
500
1167260
2000
да постигнем нашият собствен човешки потенциал
19:29
and really be the noble species we hope to all be.
501
1169260
3000
и наистина да бъдем благородният вид, който се надяваме да бъдем.,
19:32
Thank you.
502
1172260
2000
Благодря ви.
19:34
(Applause)
503
1174260
5000
(Аплодисменти)
Относно този уебсайт

Този сайт ще ви запознае с видеоклипове в YouTube, които са полезни за изучаване на английски език. Ще видите уроци по английски език, преподавани от първокласни учители от цял свят. Кликнете два пъти върху английските субтитри, показани на всяка страница с видеоклипове, за да възпроизведете видеото оттам. Субтитрите се превъртат в синхрон с възпроизвеждането на видеото. Ако имате някакви коментари или искания, моля, свържете се с нас, като използвате тази форма за контакт.

https://forms.gle/WvT1wiN1qDtmnspy7