Laurie Santos: How monkeys mirror human irrationality

197,513 views ・ 2010-07-29

TED


Vă rugăm să faceți dublu clic pe subtitrările în limba engleză de mai jos pentru a reda videoclipul.

Traducător: Alex Ghișoiu Corector: Brandusa Gheorghe
00:17
I want to start my talk today with two observations
0
17260
2000
Vreau să îmi încep prezentarea cu două observații
00:19
about the human species.
1
19260
2000
despre specia umană.
00:21
The first observation is something that you might think is quite obvious,
2
21260
3000
Prima observație este ceva ce ați putea crede că e chiar evident,
00:24
and that's that our species, Homo sapiens,
3
24260
2000
anume că specia noastră, Homo Sapiens,
00:26
is actually really, really smart --
4
26260
2000
e foarte, foarte deșteaptă –
00:28
like, ridiculously smart --
5
28260
2000
adică, ridicol de deșteaptă –
00:30
like you're all doing things
6
30260
2000
toți faceți lucruri
00:32
that no other species on the planet does right now.
7
32260
3000
pe care nicio altă specie de pe planetă nu le mai face.
00:35
And this is, of course,
8
35260
2000
Și asta, bineînțeles,
00:37
not the first time you've probably recognized this.
9
37260
2000
nu e probabil prima dată când v-ați dat seama de asta.
00:39
Of course, in addition to being smart, we're also an extremely vain species.
10
39260
3000
Firește, pe lângă deșteptăciune, mai avem și extrem de mult orgoliu.
00:42
So we like pointing out the fact that we're smart.
11
42260
3000
Deci ne place să scoatem în evidență că suntem deștepți.
00:45
You know, so I could turn to pretty much any sage
12
45260
2000
Aș putea să apelez la orice om inteligent
00:47
from Shakespeare to Stephen Colbert
13
47260
2000
de la Shakespeare la Stephen Colbert
00:49
to point out things like the fact that
14
49260
2000
pentru a sugera
că suntem nobili în gândire și nelimitați în înzestrări
00:51
we're noble in reason and infinite in faculties
15
51260
2000
00:53
and just kind of awesome-er than anything else on the planet
16
53260
2000
și un pic mai minunați decât orice altceva de pe planetă
00:55
when it comes to all things cerebral.
17
55260
3000
când vorbim de creier.
00:58
But of course, there's a second observation about the human species
18
58260
2000
Dar, bineînțeles, există o a doua observație despre specia umană
01:00
that I want to focus on a little bit more,
19
60260
2000
pe care vreau să mă concentrez mai mult,
01:02
and that's the fact that
20
62260
2000
și aceasta e că chiar dacă suntem deștepți,
01:04
even though we're actually really smart, sometimes uniquely smart,
21
64260
3000
câteodată unic de deștepți,
01:07
we can also be incredibly, incredibly dumb
22
67260
3000
putem să fim incredibil, incredibil de proști
01:10
when it comes to some aspects of our decision making.
23
70260
3000
când vine vorba de unele aspecte ale luării deciziilor.
01:13
Now I'm seeing lots of smirks out there.
24
73260
2000
Văd multe zâmbete în public.
01:15
Don't worry, I'm not going to call anyone in particular out
25
75260
2000
Stați liniștiți, nu voi da nume
01:17
on any aspects of your own mistakes.
26
77260
2000
ca exemplu de greșeli.
01:19
But of course, just in the last two years
27
79260
2000
Dar bineînțeles, numai în ultimii doi ani
01:21
we see these unprecedented examples of human ineptitude.
28
81260
3000
am observat câteva exemple nemaiîntâlnite de prostie omenească.
01:24
And we've watched as the tools we uniquely make
29
84260
3000
Și am văzut cum uneltele pe care doar noi le facem
01:27
to pull the resources out of our environment
30
87260
2000
ca să luăm resursele din mediul înconjurător
01:29
kind of just blow up in our face.
31
89260
2000
ne explodează în față.
01:31
We've watched the financial markets that we uniquely create --
32
91260
2000
Am urmărit piețele financiare pe care doar noi le creăm –
01:33
these markets that were supposed to be foolproof --
33
93260
3000
aceste piețe care ar fi trebuit să fie inofensive –
01:36
we've watched them kind of collapse before our eyes.
34
96260
2000
am văzut cum s-au prăbușit.
01:38
But both of these two embarrassing examples, I think,
35
98260
2000
Dar ambele exemple rușinoase,
01:40
don't highlight what I think is most embarrassing
36
100260
3000
nu evidențiază ce este cel mai rușinos
01:43
about the mistakes that humans make,
37
103260
2000
despre greșelile pe care le fac oamenii,
01:45
which is that we'd like to think that the mistakes we make
38
105260
3000
și anume că ne-ar plăcea să credem că greșelile noastre
01:48
are really just the result of a couple bad apples
39
108260
2000
sunt doar din cauza câtorva „mere stricate”
01:50
or a couple really sort of FAIL Blog-worthy decisions.
40
110260
3000
sau a două-trei decizii demne de cascadorii râsului.
01:53
But it turns out, what social scientists are actually learning
41
113260
3000
Dar se pare că sociologii află
01:56
is that most of us, when put in certain contexts,
42
116260
3000
cei mai mulți dintre noi, puși în anumite contexte,
01:59
will actually make very specific mistakes.
43
119260
3000
vom face anumite greșeli.
02:02
The errors we make are actually predictable.
44
122260
2000
Erorile pe care le facem sunt predictibile.
02:04
We make them again and again.
45
124260
2000
Le facem iar și iar.
02:06
And they're actually immune to lots of evidence.
46
126260
2000
Și chiar sunt imune la o mulțime de dovezi.
02:08
When we get negative feedback,
47
128260
2000
Când primim reacții negative,
02:10
we still, the next time we're face with a certain context,
48
130260
3000
tot avem tendința de a face aceleași greșeli,
02:13
tend to make the same errors.
49
133260
2000
data viitoare când suntem în același context.
02:15
And so this has been a real puzzle to me
50
135260
2000
Și asta a fost o adevărată problemă pentru mine,
02:17
as a sort of scholar of human nature.
51
137260
2000
în calitate de cercetător al naturii umane.
02:19
What I'm most curious about is,
52
139260
2000
Lucrul de care sunt cel mai curioasă
02:21
how is a species that's as smart as we are
53
141260
3000
e cum poate o specie așa inteligentă ca a noastră
02:24
capable of such bad
54
144260
2000
să facă greșeli atât de grave
02:26
and such consistent errors all the time?
55
146260
2000
și atât de consecvente tot timpul?
02:28
You know, we're the smartest thing out there, why can't we figure this out?
56
148260
3000
Suntem cei mai deștepți, de ce nu putem să rezolvăm problema asta?
02:31
In some sense, where do our mistakes really come from?
57
151260
3000
Într-un fel, de unde apar greșelile noastre?
02:34
And having thought about this a little bit, I see a couple different possibilities.
58
154260
3000
Și după ce m-am gândit puțin la asta, am venit cu câteva posibilități.
02:37
One possibility is, in some sense, it's not really our fault.
59
157260
3000
O posibilitate e că de fapt nu e vina noastră.
02:40
Because we're a smart species,
60
160260
2000
Pentru că suntem o specie isteață,
02:42
we can actually create all kinds of environments
61
162260
2000
putem să creăm tot felul de medii
02:44
that are super, super complicated,
62
164260
2000
care sunt extrem de complicate,
02:46
sometimes too complicated for us to even actually understand,
63
166260
3000
uneori prea complicate ca să le înțelegem,
02:49
even though we've actually created them.
64
169260
2000
cu toate că noi le-am creat.
02:51
We create financial markets that are super complex.
65
171260
2000
Facem piețe financiare care sunt super complexe.
02:53
We create mortgage terms that we can't actually deal with.
66
173260
3000
Facem credite ipotecare cu care nu ne descurcăm.
02:56
And of course, if we are put in environments where we can't deal with it,
67
176260
3000
Și, bineînțeles, dacă suntem puși în medii în care nu ne descurcăm,
02:59
in some sense makes sense that we actually
68
179260
2000
într-un fel e logic dacă greșim unele lucruri.
03:01
might mess certain things up.
69
181260
2000
03:03
If this was the case, we'd have a really easy solution
70
183260
2000
Dacă ar fi fost așa, am fi avut o soluție foarte simplă
03:05
to the problem of human error.
71
185260
2000
la problema erorii umane.
03:07
We'd actually just say, okay, let's figure out
72
187260
2000
Am fi spus, bine, hai să descoperim
03:09
the kinds of technologies we can't deal with,
73
189260
2000
tipurile de tehnologii cu care nu ne descurcăm,
03:11
the kinds of environments that are bad --
74
191260
2000
mediile care sunt dăunătoare –
03:13
get rid of those, design things better,
75
193260
2000
scăpăm de astea, proiectăm lucrurile mai bine,
03:15
and we should be the noble species
76
195260
2000
și vom fi specia aceea nobilă
03:17
that we expect ourselves to be.
77
197260
2000
care ne așteptăm să fim.
03:19
But there's another possibility that I find a little bit more worrying,
78
199260
3000
Dar mai e o posibilitate care mi se pare un pic mai îngrijorătoare:
03:22
which is, maybe it's not our environments that are messed up.
79
202260
3000
poate nu mediile sunt stricate.
03:25
Maybe it's actually us that's designed badly.
80
205260
3000
Poate chiar noi suntem construiți prost.
03:28
This is a hint that I've gotten
81
208260
2000
Asta e o idee care mi-a venit
03:30
from watching the ways that social scientists have learned about human errors.
82
210260
3000
când am văzut felul în care sociologii au învățat despre erorile umane.
03:33
And what we see is that people tend to keep making errors
83
213260
3000
Și ce vedem e că oamenii continuă să facă greșeli
03:36
exactly the same way, over and over again.
84
216260
3000
în exact același fel, la nesfârșit.
03:39
It feels like we might almost just be built
85
219260
2000
Pare că am suntem construiți
03:41
to make errors in certain ways.
86
221260
2000
să facem greșeli într-un anumit mod.
03:43
This is a possibility that I worry a little bit more about,
87
223260
3000
Aceasta e o posibilitate pentru care îmi fac mai multe griji,
03:46
because, if it's us that's messed up,
88
226260
2000
pentru că, dacă noi suntem cei cu probleme,
03:48
it's not actually clear how we go about dealing with it.
89
228260
2000
nu e clar ce facem ca să le rezolvăm.
03:50
We might just have to accept the fact that we're error prone
90
230260
3000
S-ar putea să trebuiască să acceptăm că suntem înclinați să greșim
03:53
and try to design things around it.
91
233260
2000
și să încercăm să proiectăm lucruri care să evite asta.
03:55
So this is the question my students and I wanted to get at.
92
235260
3000
Asta e întrebarea la care am vrut să ajung cu studenții mei.
03:58
How can we tell the difference between possibility one and possibility two?
93
238260
3000
Cum facem diferența dintre posibilitatea unu și doi?
04:01
What we need is a population
94
241260
2000
Avem nevoie de o populație
04:03
that's basically smart, can make lots of decisions,
95
243260
2000
care e în principiu deșteaptă, poate lua multe decizii,
04:05
but doesn't have access to any of the systems we have,
96
245260
2000
dar nu are acces la niciun sistem pe care îl avem noi,
04:07
any of the things that might mess us up --
97
247260
2000
oricare dintre lucrurile care ne-ar putea strica –
04:09
no human technology, human culture,
98
249260
2000
fără tehnologie umană, cultură,
04:11
maybe even not human language.
99
251260
2000
poate chiar nici limbaj uman.
04:13
And so this is why we turned to these guys here.
100
253260
2000
Și de aceea am apelat la acești tipi.
04:15
These are one of the guys I work with. This is a brown capuchin monkey.
101
255260
3000
Aceștia sunt indivizii cu care lucrez. E un capucin maro.
04:18
These guys are New World primates,
102
258260
2000
Acestea sunt platiriene,
04:20
which means they broke off from the human branch
103
260260
2000
ce înseamnă că s-au despărțit de ramura umană
04:22
about 35 million years ago.
104
262260
2000
acum 35 milioane de ani.
04:24
This means that your great, great, great great, great, great --
105
264260
2000
Înseamnă că stră, stră, stră –
04:26
with about five million "greats" in there --
106
266260
2000
cu vreo cinci milioane de „stră” –
04:28
grandmother was probably the same great, great, great, great
107
268260
2000
străbunica voastră a fost probabil aceeași stră, stră, stră,
04:30
grandmother with five million "greats" in there
108
270260
2000
străbunică, cu cinci milioane de „stră”
04:32
as Holly up here.
109
272260
2000
ca a lui Holly, cea de aici.
04:34
You know, so you can take comfort in the fact that this guy up here is a really really distant,
110
274260
3000
Puteți să vă consolați cu ideea că e o rudă foarte îndepărtată
04:37
but albeit evolutionary, relative.
111
277260
2000
cu toate că evoluționistă.
04:39
The good news about Holly though is that
112
279260
2000
Totuși, vestea bună despre Holly
04:41
she doesn't actually have the same kinds of technologies we do.
113
281260
3000
e că nu are aceleași tehnologii pe care le avem noi.
04:44
You know, she's a smart, very cut creature, a primate as well,
114
284260
3000
E isteață, e drăguță și o primată,
04:47
but she lacks all the stuff we think might be messing us up.
115
287260
2000
dar îi lipsesc lucrurile care credem că ne dau peste cap.
04:49
So she's the perfect test case.
116
289260
2000
Așa că e subiectul perfect de testat.
04:51
What if we put Holly into the same context as humans?
117
291260
3000
Dacă am pune-o pe Holly în același context ca oamenii?
04:54
Does she make the same mistakes as us?
118
294260
2000
Va face aceleași greșeli ca și noi?
04:56
Does she not learn from them? And so on.
119
296260
2000
Va învăța din ele?
04:58
And so this is the kind of thing we decided to do.
120
298260
2000
Asta ne-am hotărât să facem.
05:00
My students and I got very excited about this a few years ago.
121
300260
2000
Eu și studenții mei ne-am entuziasmat foarte tare acum câțiva ani.
05:02
We said, all right, let's, you know, throw so problems at Holly,
122
302260
2000
Am zis, bine, să îi dăm probleme lui Holly,
05:04
see if she messes these things up.
123
304260
2000
să vedem dacă greșește.
05:06
First problem is just, well, where should we start?
124
306260
3000
Prima problemă e de unde să începem?
05:09
Because, you know, it's great for us, but bad for humans.
125
309260
2000
Pentru că e minunat pentru noi, dar rău pentru oameni.
05:11
We make a lot of mistakes in a lot of different contexts.
126
311260
2000
Facem multe greșeli în diverse contexte.
05:13
You know, where are we actually going to start with this?
127
313260
2000
De unde să începem?
05:15
And because we started this work around the time of the financial collapse,
128
315260
3000
Și pentru că am început asta la începutul crizei financiare,
05:18
around the time when foreclosures were hitting the news,
129
318260
2000
când prescrierile ipotecare erau pe prima pagină,
05:20
we said, hhmm, maybe we should
130
320260
2000
am zis că poate ar trebui
05:22
actually start in the financial domain.
131
322260
2000
să începem în domeniul financiar.
05:24
Maybe we should look at monkey's economic decisions
132
324260
3000
Poate ar trebui să analizăm la deciziile economice ale maimuțelor
05:27
and try to see if they do the same kinds of dumb things that we do.
133
327260
3000
și să încercăm să vedem dacă fac aceleași greșeli ca noi.
05:30
Of course, that's when we hit a sort second problem --
134
330260
2000
Desigur, atunci am dat de a doua problemă –
05:32
a little bit more methodological --
135
332260
2000
un pic mai metodologică –
05:34
which is that, maybe you guys don't know,
136
334260
2000
aceea că, poate voi nu știți,
05:36
but monkeys don't actually use money. I know, you haven't met them.
137
336260
3000
dar maimuțele nu folosesc bani. Știu, nu le-ați cunoscut.
05:39
But this is why, you know, they're not in the queue behind you
138
339260
2000
Dar de asta ele nu stau la coadă în spatele vostru
05:41
at the grocery store or the ATM -- you know, they don't do this stuff.
139
341260
3000
la alimentară sau la bancomat – ele nu fac asta.
05:44
So now we faced, you know, a little bit of a problem here.
140
344260
3000
Așa că aveam o mică problemă.
05:47
How are we actually going to ask monkeys about money
141
347260
2000
Cum să le cerem bani maimuțelor
05:49
if they don't actually use it?
142
349260
2000
dacă ele nu îi folosesc?
05:51
So we said, well, maybe we should just, actually just suck it up
143
351260
2000
Și am zis, poate ar trebui
05:53
and teach monkeys how to use money.
144
353260
2000
și să le învățăm să folosească banii.
05:55
So that's just what we did.
145
355260
2000
Și asta am și făcut.
05:57
What you're looking at over here is actually the first unit that I know of
146
357260
3000
Ce vedeți aici e prima unitate monetară neomenească
06:00
of non-human currency.
147
360260
2000
pe care o știu.
06:02
We weren't very creative at the time we started these studies,
148
362260
2000
Nu eram prea creativi când am început aceste studii,
06:04
so we just called it a token.
149
364260
2000
așa că l-am numit jeton.
06:06
But this is the unit of currency that we've taught our monkeys at Yale
150
366260
3000
Dar asta e unitatea monetară învățată de maimuțele de la Yale
06:09
to actually use with humans,
151
369260
2000
să o folosească cu oamenii,
06:11
to actually buy different pieces of food.
152
371260
3000
și să cumpere diverse bucăți de mâncare.
06:14
It doesn't look like much -- in fact, it isn't like much.
153
374260
2000
Nu pare mult – de fapt nici nu e mult.
06:16
Like most of our money, it's just a piece of metal.
154
376260
2000
La fel ca mulți dintre banii noștri, e doar o bucată de metal.
06:18
As those of you who've taken currencies home from your trip know,
155
378260
3000
După cum știți cei care ați luat acasă bani din excursii,
06:21
once you get home, it's actually pretty useless.
156
381260
2000
odată ajuns acasă nu mai valorează nimic.
06:23
It was useless to the monkeys at first
157
383260
2000
Era inutil și pentru maimuțe la început
06:25
before they realized what they could do with it.
158
385260
2000
înainte să își dea seama ce pot face cu el.
06:27
When we first gave it to them in their enclosures,
159
387260
2000
Prima dată când le-am dat monede în cuști,
06:29
they actually kind of picked them up, looked at them.
160
389260
2000
le-au luat, s-au uitat la ele.
06:31
They were these kind of weird things.
161
391260
2000
Erau ca niște lucruri stranii.
06:33
But very quickly, the monkeys realized
162
393260
2000
Dar destul de repede, maimuțele au înțeles
06:35
that they could actually hand these tokens over
163
395260
2000
că puteau să predea aceste jetoane
06:37
to different humans in the lab for some food.
164
397260
3000
diverșilor oameni din laborator în schimbul hranei.
06:40
And so you see one of our monkeys, Mayday, up here doing this.
165
400260
2000
Și vedeți aici una dintre maimuțe, Mayday, făcând asta.
06:42
This is A and B are kind of the points where she's sort of a little bit
166
402260
3000
În poza A și B e puțin curioasă de aceste lucruri, nu le cunoaște.
06:45
curious about these things -- doesn't know.
167
405260
2000
06:47
There's this waiting hand from a human experimenter,
168
407260
2000
Un experimentator uman stă cu mâna întinsă
06:49
and Mayday quickly figures out, apparently the human wants this.
169
409260
3000
și Mayday își dă seama imediat că omul vrea jetonul.
06:52
Hands it over, and then gets some food.
170
412260
2000
Dă jetonul și primește niște mâncare.
06:54
It turns out not just Mayday, all of our monkeys get good
171
414260
2000
Se pare că nu doar Mayday, ci toate maimuțele se pricep
06:56
at trading tokens with human salesman.
172
416260
2000
să schimbe jetoane.
06:58
So here's just a quick video of what this looks like.
173
418260
2000
Acesta e un scurt video.
07:00
Here's Mayday. She's going to be trading a token for some food
174
420260
3000
Aici este Mayday. Va da un jeton în schimbul mâncării
07:03
and waiting happily and getting her food.
175
423260
3000
și va aștepta mulțumită să-și primească mâncarea.
07:06
Here's Felix, I think. He's our alpha male; he's a kind of big guy.
176
426260
2000
Aici e Feli. El e masculul alfa; e destul de mare.
07:08
But he too waits patiently, gets his food and goes on.
177
428260
3000
Dar și el așteaptă răbdător, își primește mâncarea și continuă.
07:11
So the monkeys get really good at this.
178
431260
2000
Maimuțele sunt foarte pricepute.
07:13
They're surprisingly good at this with very little training.
179
433260
3000
Sunt surprinzător de bune, fără prea mult antrenament.
07:16
We just allowed them to pick this up on their own.
180
436260
2000
Le-am lăsat să-și dea seama singure.
07:18
The question is: is this anything like human money?
181
438260
2000
Întrebarea e: sunt la fel ca banii noștri?
07:20
Is this a market at all,
182
440260
2000
E o piață,
07:22
or did we just do a weird psychologist's trick
183
442260
2000
sau am făcut un truc psihologic ciudat,
07:24
by getting monkeys to do something,
184
444260
2000
convingând maimuțele să facă ceva,
07:26
looking smart, but not really being smart.
185
446260
2000
părând deștepte, fără să fie de fapt.
07:28
And so we said, well, what would the monkeys spontaneously do
186
448260
3000
Așa că am spus: ce ar face maimuțele în mod spontan
07:31
if this was really their currency, if they were really using it like money?
187
451260
3000
dacă ar fi cu adevărat moneda lor, dacă i-ar folosi pe post de bani?
07:34
Well, you might actually imagine them
188
454260
2000
V-ați putea să vi le imaginați
07:36
to do all the kinds of smart things
189
456260
2000
făcând tot felul de lucruri inteligente
07:38
that humans do when they start exchanging money with each other.
190
458260
3000
pe care oamenii le fac atunci când tranzacționează bani între ei.
07:41
You might have them start paying attention to price,
191
461260
3000
Te-ai aștepta să înceapă să fie atente la preț,
07:44
paying attention to how much they buy --
192
464260
2000
la cât de mult cumpără,
07:46
sort of keeping track of their monkey token, as it were.
193
466260
3000
să țină cumva minte câți bani au.
07:49
Do the monkeys do anything like this?
194
469260
2000
Fac maimuțele ceva asemănător?
07:51
And so our monkey marketplace was born.
195
471260
3000
Și așa a apărut piața maimuțelor.
07:54
The way this works is that
196
474260
2000
Modul în care funcționează
07:56
our monkeys normally live in a kind of big zoo social enclosure.
197
476260
3000
e că maimuțele trăiesc de obicei într-un fel de grădină zoologică mare.
07:59
When they get a hankering for some treats,
198
479260
2000
Când li se face dor de niște dulciuri,
08:01
we actually allowed them a way out
199
481260
2000
le-am lăsat o ușă deschisă
08:03
into a little smaller enclosure where they could enter the market.
200
483260
2000
spre o incintă unde puteau să intre în piață.
08:05
Upon entering the market --
201
485260
2000
După ce intrau în piață,
08:07
it was actually a much more fun market for the monkeys than most human markets
202
487260
2000
era mult mai amuzantă pentru maimuțe decât majoritatea piețelor omenești
08:09
because, as the monkeys entered the door of the market,
203
489260
3000
pentru că după ce intră
08:12
a human would give them a big wallet full of tokens
204
492260
2000
un om le dădea un portofel mare plin de jetoane
08:14
so they could actually trade the tokens
205
494260
2000
ca să poată să facă comerț cu jetoanele
08:16
with one of these two guys here --
206
496260
2000
cu unul dintre cei doi oameni de aici,
08:18
two different possible human salesmen
207
498260
2000
doi potențiali comercianți
08:20
that they could actually buy stuff from.
208
500260
2000
de la care se putea cumpăra.
08:22
The salesmen were students from my lab.
209
502260
2000
Comercianții erau studenți din laboratorul meu.
08:24
They dressed differently; they were different people.
210
504260
2000
S-au îmbrăcat diferit; erau oameni diferiți.
08:26
And over time, they did basically the same thing
211
506260
3000
Și, de-a lungul timpului au făcut același lucru
08:29
so the monkeys could learn, you know,
212
509260
2000
astfel încât maimuțele să poată învăța,
08:31
who sold what at what price -- you know, who was reliable, who wasn't, and so on.
213
511260
3000
cine ce vinde și la ce preț, cine era de încredere, cine nu.
08:34
And you can see that each of the experimenters
214
514260
2000
Și puteți vedea că fiecare experimentator
08:36
is actually holding up a little, yellow food dish.
215
516260
3000
ține de fapt o mică farfurie galbenă.
08:39
and that's what the monkey can for a single token.
216
519260
2000
Asta poate primi maimuța pentru un singur jeton.
08:41
So everything costs one token,
217
521260
2000
Deci totul costă un jeton,
08:43
but as you can see, sometimes tokens buy more than others,
218
523260
2000
dar câteodată unele jetoanele cumpără mai mult decât altele,
08:45
sometimes more grapes than others.
219
525260
2000
mai mulți struguri decât altele.
08:47
So I'll show you a quick video of what this marketplace actually looks like.
220
527260
3000
Vă voi arăta un video despre cum arata această piață.
08:50
Here's a monkey-eye-view. Monkeys are shorter, so it's a little short.
221
530260
3000
Au găuri în gem la nivelul lor, deoarece maimuțele sunt mai scunde.
08:53
But here's Honey.
222
533260
2000
Aici este Honey.
08:55
She's waiting for the market to open a little impatiently.
223
535260
2000
Așteaptă să se deschidă piața, e puțin nerăbdătoare.
08:57
All of a sudden the market opens. Here's her choice: one grapes or two grapes.
224
537260
3000
Deodată, se deschide piața. Alegerea ei: un strugure sau doi struguri.
09:00
You can see Honey, very good market economist,
225
540260
2000
Honey e un foarte bun economist de piață,
09:02
goes with the guy who gives more.
226
542260
3000
îl alege pe cel ce oferă mai mult.
09:05
She could teach our financial advisers a few things or two.
227
545260
2000
I-ar putea învăța pe consultanții noștri financiari câteva lucruri.
09:07
So not just Honey,
228
547260
2000
Și nu doar Honey,
09:09
most of the monkeys went with guys who had more.
229
549260
3000
majoritatea maimuțelor au ales oferta ce mai bună.
09:12
Most of the monkeys went with guys who had better food.
230
552260
2000
și cu mâncarea cea mai bună.
09:14
When we introduced sales, we saw the monkeys paid attention to that.
231
554260
3000
Când am introdus vânzările, maimuțele le-au acordat atenție.
09:17
They really cared about their monkey token dollar.
232
557260
3000
Chiar le păsa de jetonul lor.
09:20
The more surprising thing was that when we collaborated with economists
233
560260
3000
Cel mai surprinzător lucru a fost că atunci când am colaborat cu economiști
09:23
to actually look at the monkeys' data using economic tools,
234
563260
3000
pentru a analiza datele maimuțelor cu instrumente economice,
09:26
they basically matched, not just qualitatively,
235
566260
3000
s-au cam potrivit, nu doar calitativ,
09:29
but quantitatively with what we saw
236
569260
2000
dar și cantitativ cu ce i-am văzut
09:31
humans doing in a real market.
237
571260
2000
pe oameni făcând pe piața reală.
09:33
So much so that, if you saw the monkeys' numbers,
238
573260
2000
Atât de mult încât dacă ai fi văzut numerele maimuțelor,
09:35
you couldn't tell whether they came from a monkey or a human in the same market.
239
575260
3000
nu ți-ai fi dat seama dacă sunt ale maimuțelor sau ale unor oamenilor.
09:38
And what we'd really thought we'd done
240
578260
2000
Și am crezut
09:40
is like we'd actually introduced something
241
580260
2000
că am introdus ceva
09:42
that, at least for the monkeys and us,
242
582260
2000
care, cel puțin pentru maimuțe și pentru noi,
09:44
works like a real financial currency.
243
584260
2000
funcționează ca o valută financiară reală.
09:46
Question is: do the monkeys start messing up in the same ways we do?
244
586260
3000
Întrebarea e: și maimuțele greșesc în același mod ca noi?
09:49
Well, we already saw anecdotally a couple of signs that they might.
245
589260
3000
Deja văzusem în mod anecdotic niște semne că ar putea.
09:52
One thing we never saw in the monkey marketplace
246
592260
2000
Un lucru pe care nu l-am văzut pe piața maimuțelor
09:54
was any evidence of saving --
247
594260
2000
a fost vreo dovadă de economisire,
09:56
you know, just like our own species.
248
596260
2000
la fel ca specia noastră.
09:58
The monkeys entered the market, spent their entire budget
249
598260
2000
Maimuțele au intrat pe piață, și-au cheltuit tot bugetul
10:00
and then went back to everyone else.
250
600260
2000
și apoi s-au întors.
10:02
The other thing we also spontaneously saw,
251
602260
2000
Celălalt lucru pe care l-am observat spontan,
10:04
embarrassingly enough,
252
604260
2000
destul de jenant,
10:06
is spontaneous evidence of larceny.
253
606260
2000
e furtul spontan.
10:08
The monkeys would rip-off the tokens at every available opportunity --
254
608260
3000
Maimuțele furau jetoanele cu orice ocazie,
10:11
from each other, often from us --
255
611260
2000
între ele, câteodată de la noi,
10:13
you know, things we didn't necessarily think we were introducing,
256
613260
2000
lucruri pe care nu le-am testat intenționat,
10:15
but things we spontaneously saw.
257
615260
2000
dar pe care le-am observat spontan.
10:17
So we said, this looks bad.
258
617260
2000
Ne-am spus: asta e rău.
10:19
Can we actually see if the monkeys
259
619260
2000
Putem vedea dacă maimuțele
10:21
are doing exactly the same dumb things as humans do?
260
621260
3000
fac exact aceleași lucruri prostești ca oamenii?
10:24
One possibility is just kind of let
261
624260
2000
Una dintre posibilități era să lăsăm
10:26
the monkey financial system play out,
262
626260
2000
sistemul financiar al maimuțelor să funcționeze
10:28
you know, see if they start calling us for bailouts in a few years.
263
628260
2000
și să vedem dacă în câțiva ani ne cheamă să le plătim datoriile.
10:30
We were a little impatient so we wanted
264
630260
2000
Eram puțin nerăbdători, așa că am grăbit lucrurile.
10:32
to sort of speed things up a bit.
265
632260
2000
10:34
So we said, let's actually give the monkeys
266
634260
2000
Am spus: hai să le dăm maimuțelor
10:36
the same kinds of problems
267
636260
2000
aceleași probleme
10:38
that humans tend to get wrong
268
638260
2000
la care oamenii tind să greșească
10:40
in certain kinds of economic challenges,
269
640260
2000
în anumite tipuri de încercări economice,
10:42
or certain kinds of economic experiments.
270
642260
2000
sau anumite tipuri de experimente economice.
10:44
And so, since the best way to see how people go wrong
271
644260
3000
Din moment ce cel mai bun mod de a vedea cum greșesc oamenii
10:47
is to actually do it yourself,
272
647260
2000
e să facem asta chiar noi,
10:49
I'm going to give you guys a quick experiment
273
649260
2000
vă voi oferi și vouă un mic experiment
10:51
to sort of watch your own financial intuitions in action.
274
651260
2000
ca să vă vedem propriile intuiții financiare în acțiune.
10:53
So imagine that right now
275
653260
2000
Imaginați-vă că v-am dat fiecăruia
10:55
I handed each and every one of you
276
655260
2000
10:57
a thousand U.S. dollars -- so 10 crisp hundred dollar bills.
277
657260
3000
o mie de dolari americani – deci 10 bancnote noi de o sută de dolari.
11:00
Take these, put it in your wallet
278
660260
2000
Luați-i, puneți-i în buzunar
11:02
and spend a second thinking about what you're going to do with it.
279
662260
2000
și gândiți-vă o secundă ce ați face cu banii.
11:04
Because it's yours now; you can buy whatever you want.
280
664260
2000
Sunt ai voștri, puteți cumpăra ce vreți.
11:06
Donate it, take it, and so on.
281
666260
2000
Îi puteți donați, lua, etc.
11:08
Sounds great, but you get one more choice to earn a little bit more money.
282
668260
3000
E minunat, dar aveți de făcut o alegere pentru a mai câștiga mai mulți bani.
11:11
And here's your choice: you can either be risky,
283
671260
3000
Aveți opțiunile: ori să riscați,
11:14
in which case I'm going to flip one of these monkey tokens.
284
674260
2000
caz în care voi arunca unul dintre aceste jetoane.
11:16
If it comes up heads, you're going to get a thousand dollars more.
285
676260
2000
Dacă este cap, mai primiți o mie de dolari.
11:18
If it comes up tails, you get nothing.
286
678260
2000
Dacă e pajură, nu primiți nimic.
11:20
So it's a chance to get more, but it's pretty risky.
287
680260
3000
Deci aveți o șansă să câștigați mai mult, dar e destul de riscant.
11:23
Your other option is a bit safe. Your just going to get some money for sure.
288
683260
3000
Cealaltă opțiune e o ofertă sigură. Cu siguranță o să primiți niște bani.
11:26
I'm just going to give you 500 bucks.
289
686260
2000
O să vă dau 500 $.
11:28
You can stick it in your wallet and use it immediately.
290
688260
3000
Puteți să-i băgați în portofel și să-i folosiți imediat.
11:31
So see what your intuition is here.
291
691260
2000
Observați care vă e intuiția.
11:33
Most people actually go with the play-it-safe option.
292
693260
3000
Cei mai mulți oameni merg pe opțiunea mai sigură.
11:36
Most people say, why should I be risky when I can get 1,500 dollars for sure?
293
696260
3000
Cei mai mulți spun: „De ce să risc, dacă pot obține sigur 1.500 de dolari?”
11:39
This seems like a good bet. I'm going to go with that.
294
699260
2000
Pare un pariu bun. Asta voi face.
11:41
You might say, eh, that's not really irrational.
295
701260
2000
Ați putea spune: „Nu-i irațional."
11:43
People are a little risk-averse. So what?
296
703260
2000
Oamenii au o mică aversiune față de risc. Și ce?
11:45
Well, the "so what?" comes when start thinking
297
705260
2000
Partea cu „și ce?” apare când ne gândim la aceeași problemă
11:47
about the same problem
298
707260
2000
11:49
set up just a little bit differently.
299
709260
2000
pusă un pic diferit.
11:51
So now imagine that I give each and every one of you
300
711260
2000
Acum imaginați-vă că v-aș da fiecăruia
11:53
2,000 dollars -- 20 crisp hundred dollar bills.
301
713260
3000
2.000 dolari – 20 de bancnote de o sută de dolari.
11:56
Now you can buy double to stuff you were going to get before.
302
716260
2000
Acum puteți cumpăra de două ori mai mult ca înainte.
11:58
Think about how you'd feel sticking it in your wallet.
303
718260
2000
Gândiți-vă cum ar fi să-i aveți în portofel.
12:00
And now imagine that I have you make another choice
304
720260
2000
Și acum vă pun să faceți o altă alegere.
12:02
But this time, it's a little bit worse.
305
722260
2000
Dar acum e un pic mai rău.
12:04
Now, you're going to be deciding how you're going to lose money,
306
724260
3000
Acum o să alegeți cum să pierdeți banii,
12:07
but you're going to get the same choice.
307
727260
2000
dar aveți aceleași opțiuni.
12:09
You can either take a risky loss --
308
729260
2000
Puteți să alegeți o pierdere riscantă:
12:11
so I'll flip a coin. If it comes up heads, you're going to actually lose a lot.
309
731260
3000
dau cu banul, dacă e cap, pierdeți mult,
12:14
If it comes up tails, you lose nothing, you're fine, get to keep the whole thing --
310
734260
3000
dacă e pajură, nu pierdeți nimic, rămâneți cu toată suma,
12:17
or you could play it safe, which means you have to reach back into your wallet
311
737260
3000
sau puteți să jucați la sigur, ceea ce înseamnă că băgați mâna în buzunar
12:20
and give me five of those $100 bills, for certain.
312
740260
3000
și îmi dați cinci dintre bancnotele de 100 de dolari.
12:23
And I'm seeing a lot of furrowed brows out there.
313
743260
3000
Și văd destule frunți încruntate aici.
12:26
So maybe you're having the same intuitions
314
746260
2000
Deci probabil aveți aceeași intuiție
12:28
as the subjects that were actually tested in this,
315
748260
2000
ca subiecții testați în realitate:
12:30
which is when presented with these options,
316
750260
2000
dacă li se prezintă aceste opțiuni,
12:32
people don't choose to play it safe.
317
752260
2000
oamenii nu aleg să joace la sigur,
12:34
They actually tend to go a little risky.
318
754260
2000
ci tind să riște puțin.
12:36
The reason this is irrational is that we've given people in both situations
319
756260
3000
Motivul pentru care e irațional e că le-am dat oamenilor
12:39
the same choice.
320
759260
2000
în ambele situații aceleași opțiuni.
12:41
It's a 50/50 shot of a thousand or 2,000,
321
761260
3000
E o șansă din două pentru 1.000 sau 2.000,
12:44
or just 1,500 dollars with certainty.
322
764260
2000
sau doar 1.500$ în mod sigur.
12:46
But people's intuitions about how much risk to take
323
766260
3000
Dar intuiția oamenilor despre cât risc să își asume
12:49
varies depending on where they started with.
324
769260
2000
variază în funcție de unde au început.
12:51
So what's going on?
325
771260
2000
Deci ce se întâmplă?
12:53
Well, it turns out that this seems to be the result
326
773260
2000
Am observat că acesta pare să fie rezultatul
12:55
of at least two biases that we have at the psychological level.
327
775260
3000
a cel puțin două prejudecăți pe care le avem la nivel psihologic.
12:58
One is that we have a really hard time thinking in absolute terms.
328
778260
3000
Una este că ne e foarte greu să gândim în termeni absoluți.
13:01
You really have to do work to figure out,
329
781260
2000
Trebuie să faci un efort ca să îți dai seama:
13:03
well, one option's a thousand, 2,000;
330
783260
2000
o opțiune e o mie, 2.000;
13:05
one is 1,500.
331
785260
2000
alta este 1.500.
13:07
Instead, we find it very easy to think in very relative terms
332
787260
3000
În schimb, ne pare foarte ușor să gândim în termeni relativi
13:10
as options change from one time to another.
333
790260
3000
pe măsură ce opțiunile se schimbă.
13:13
So we think of things as, "Oh, I'm going to get more," or "Oh, I'm going to get less."
334
793260
3000
Și ne gândim: „Voi primi mai mult sa mai puțin.”
13:16
This is all well and good, except that
335
796260
2000
Toate acestea sunt bune, cu excepția faptului
13:18
changes in different directions
336
798260
2000
că schimbările în diverse direcții
13:20
actually effect whether or not we think
337
800260
2000
chiar afectează dacă gândim sau nu
13:22
options are good or not.
338
802260
2000
că opțiunile sunt bune sau nu.
13:24
And this leads to the second bias,
339
804260
2000
Și asta ne duce la cea de-a doua prejudecată,
13:26
which economists have called loss aversion.
340
806260
2000
pe care economiștii au numit-o frica de pierdere.
13:28
The idea is that we really hate it when things go into the red.
341
808260
3000
Ideea e că urâm când lucrurile ajung la nivelul roșu.
13:31
We really hate it when we have to lose out on some money.
342
811260
2000
Nu ne place deloc când trebuie să pierdem niște bani.
13:33
And this means that sometimes we'll actually
343
813260
2000
Și asta înseamnă că uneori ne vom
13:35
switch our preferences to avoid this.
344
815260
2000
schimba preferințele ca să evităm asta.
13:37
What you saw in that last scenario is that
345
817260
2000
Ce ați văzut în scenariul precedent
13:39
subjects get risky
346
819260
2000
e că subiecții riscă
13:41
because they want the small shot that there won't be any loss.
347
821260
3000
pentru că vor mica posibilitate să nu piardă nimic.
13:44
That means when we're in a risk mindset --
348
824260
2000
Asta înseamnă că atunci când avem o mentală de risc,
13:46
excuse me, when we're in a loss mindset,
349
826260
2000
mă scuzați, o mentalitate de pierdere,
13:48
we actually become more risky,
350
828260
2000
ne asumăm mai multe riscuri,
13:50
which can actually be really worrying.
351
830260
2000
ceea ce poate fi îngrijorător.
13:52
These kinds of things play out in lots of bad ways in humans.
352
832260
3000
Aceste lucruri se manifestă în multe moduri negative la oameni.
13:55
They're why stock investors hold onto losing stocks longer --
353
835260
3000
Din cauza lor investitorii așteaptă mai mult până să piardă capital,
13:58
because they're evaluating them in relative terms.
354
838260
2000
pentru că evaluează în termeni relativi.
14:00
They're why people in the housing market refused to sell their house --
355
840260
2000
Din același motiv oamenii refuză să își vândă casa,
14:02
because they don't want to sell at a loss.
356
842260
2000
pentru că nu vor să o vândă în pierdere.
14:04
The question we were interested in
357
844260
2000
Întrebarea de care eram interesați
14:06
is whether the monkeys show the same biases.
358
846260
2000
e dacă maimuțele au aceleași prejudecăți.
14:08
If we set up those same scenarios in our little monkey market,
359
848260
3000
Dacă avem aceleași scenarii pe piața maimuțelor,
14:11
would they do the same thing as people?
360
851260
2000
vor face și ele aceleași lucruri?
14:13
And so this is what we did, we gave the monkeys choices
361
853260
2000
Așa că le-am cerut maimuțelor să aleagă
14:15
between guys who were safe -- they did the same thing every time --
362
855260
3000
între indivizi care erau siguri: făceau același lucru de fiecare dată,
14:18
or guys who were risky --
363
858260
2000
și indivizi care erau riscanți:
14:20
they did things differently half the time.
364
860260
2000
făceau lucrurile diferit jumătate din timp.
14:22
And then we gave them options that were bonuses --
365
862260
2000
Și când le-am dat opțiuni care erau bonusuri,
14:24
like you guys did in the first scenario --
366
864260
2000
cum ați făcut voi în primul scenariu,
14:26
so they actually have a chance more,
367
866260
2000
astfel încât să mai aibă o șansă să obțină mai mult,
14:28
or pieces where they were experiencing losses --
368
868260
3000
sau în care experimentau pierderi:
14:31
they actually thought they were going to get more than they really got.
369
871260
2000
credeau că vor obține mai mult decât au obținut.
14:33
And so this is what this looks like.
370
873260
2000
Și așa arată.
Le prezentam maimuțelor doi vânzători.
14:35
We introduced the monkeys to two new monkey salesmen.
371
875260
2000
14:37
The guy on the left and right both start with one piece of grape,
372
877260
2000
Tipul din stânga și cel din dreapta încep cu o boabă de strugure,
14:39
so it looks pretty good.
373
879260
2000
deci e destul de bine.
14:41
But they're going to give the monkeys bonuses.
374
881260
2000
Dar ei le vor da bonusuri maimuțelor.
14:43
The guy on the left is a safe bonus.
375
883260
2000
Cel din stânga e un bonus sigur.
14:45
All the time, he adds one, to give the monkeys two.
376
885260
3000
Mereu adaugă o boabă, deci le dă două.
14:48
The guy on the right is actually a risky bonus.
377
888260
2000
Cel din dreapta e un bonus riscant.
14:50
Sometimes the monkeys get no bonus -- so this is a bonus of zero.
378
890260
3000
Uneori maimuțele nu primesc niciun bonus, deci un bonus de zero.
14:53
Sometimes the monkeys get two extra.
379
893260
3000
Câteodată maimuțele primesc două în plus,
14:56
For a big bonus, now they get three.
380
896260
2000
deci primesc trei boabe.
14:58
But this is the same choice you guys just faced.
381
898260
2000
Asta e aceeași alegere pe care ați avut-o și voi.
15:00
Do the monkeys actually want to play it safe
382
900260
3000
Vor maimuțele să joace la sigur
15:03
and then go with the guy who's going to do the same thing on every trial,
383
903260
2000
și vor alege vânzătorul care va face același lucru mereu,
15:05
or do they want to be risky
384
905260
2000
sau vor risca
15:07
and try to get a risky, but big, bonus,
385
907260
2000
și vor încerca să primească un bonus mai mare,
15:09
but risk the possibility of getting no bonus.
386
909260
2000
însă riscând să nu primească niciun bonus.
15:11
People here played it safe.
387
911260
2000
Oamenii de aici au jucat la sigur.
15:13
Turns out, the monkeys play it safe too.
388
913260
2000
Se pare că și maimuțele joacă la sigur.
15:15
Qualitatively and quantitatively,
389
915260
2000
Cantitativ și calitativ,
15:17
they choose exactly the same way as people,
390
917260
2000
ele aleg exact în același fel ca oamenii,
15:19
when tested in the same thing.
391
919260
2000
când sunt testate în aceleași condiții.
15:21
You might say, well, maybe the monkeys just don't like risk.
392
921260
2000
Ați putea spune că poate maimuțelor nu le place riscul.
15:23
Maybe we should see how they do with losses.
393
923260
2000
Poate trebuie să vedem cum se descurcă cu pierderile.
15:25
And so we ran a second version of this.
394
925260
2000
Am făcut o a doua versiune a testului.
15:27
Now, the monkeys meet two guys
395
927260
2000
Acum maimuțele întâlnesc două persoane
15:29
who aren't giving them bonuses;
396
929260
2000
care nu le dau bonusuri;
15:31
they're actually giving them less than they expect.
397
931260
2000
le dau de fapt mai puțin decât s-ar aștepta.
15:33
So they look like they're starting out with a big amount.
398
933260
2000
Și pare că încep cu o sumă mare.
15:35
These are three grapes; the monkey's really psyched for this.
399
935260
2000
Sunt trei bobițe; maimuțele sunt entuziasmate.
15:37
But now they learn these guys are going to give them less than they expect.
400
937260
3000
Dar acum află că le vor da mai puțin decât se așteaptă.
15:40
They guy on the left is a safe loss.
401
940260
2000
Tipul din stânga e o pierdere sigură.
15:42
Every single time, he's going to take one of these away
402
942260
3000
De fiecare dată va lua una
15:45
and give the monkeys just two.
403
945260
2000
și le va da maimuțelor doar două.
15:47
the guy on the right is the risky loss.
404
947260
2000
Tipul din dreapta e pierderea riscantă.
15:49
Sometimes he gives no loss, so the monkeys are really psyched,
405
949260
3000
Uneori nu ia nimic înapoi, așa că maimuțele sunt bucuroase,
15:52
but sometimes he actually gives a big loss,
406
952260
2000
dar câteodată pierderile sunt mari,
15:54
taking away two to give the monkeys only one.
407
954260
2000
luând două pentru a-i da maimuței doar una.
15:56
And so what do the monkeys do?
408
956260
2000
Deci ce fac maimuțele?
15:58
Again, same choice; they can play it safe
409
958260
2000
Din nou, aceeași alegere; pot să joace la sigur
16:00
for always getting two grapes every single time,
410
960260
3000
pentru a primi de fiecare dată două boabe de strugure,
16:03
or they can take a risky bet and choose between one and three.
411
963260
3000
sau pot să facă un pariu riscant și să aleagă între una și trei.
16:06
The remarkable thing to us is that, when you give monkeys this choice,
412
966260
3000
Lucrul remarcabil e că atunci când le dai maimuțelor această alegere,
16:09
they do the same irrational thing that people do.
413
969260
2000
ele fac același lucru irațional ca oamenii.
16:11
They actually become more risky
414
971260
2000
Ele își asumă mia multe riscuri
16:13
depending on how the experimenters started.
415
973260
3000
în funcție de cum e construit experimentul.
16:16
This is crazy because it suggests that the monkeys too
416
976260
2000
Asta e o nebunie pentru că sugerează că și maimuțele
16:18
are evaluating things in relative terms
417
978260
2000
evaluează lucrurile în termeni relativi
16:20
and actually treating losses differently than they treat gains.
418
980260
3000
și chiar tratează pierderile diferit de câștiguri.
16:23
So what does all of this mean?
419
983260
2000
Așadar, ce înseamnă toate astea?
16:25
Well, what we've shown is that, first of all,
420
985260
2000
Ce am arătat e că, în primul rând,
16:27
we can actually give the monkeys a financial currency,
421
987260
2000
putem să le dăm maimuțelor bani
16:29
and they do very similar things with it.
422
989260
2000
și fac lucruri similare cu ei.
16:31
They do some of the smart things we do,
423
991260
2000
Fac unele lucruri deștepte pe care le facem și noi,
16:33
some of the kind of not so nice things we do,
424
993260
2000
și unele lucruri nu prea bune,
16:35
like steal it and so on.
425
995260
2000
cum ar fi furatul.
16:37
But they also do some of the irrational things we do.
426
997260
2000
Dar ele fac și unele lucruri iraționale pe care le facem.
16:39
They systematically get things wrong
427
999260
2000
În mod sistematic greșesc
16:41
and in the same ways that we do.
428
1001260
2000
și în același mod ca noi.
16:43
This is the first take-home message of the Talk,
429
1003260
2000
Acesta e primul mesaj de reținut,
16:45
which is that if you saw the beginning of this and you thought,
430
1005260
2000
dacă la începutul prezentării v-ați gândit:
16:47
oh, I'm totally going to go home and hire a capuchin monkey financial adviser.
431
1007260
2000
Ajung acasă și îmi angajez un capucin drept consultant financiar.
16:49
They're way cuter than the one at ... you know --
432
1009260
2000
Sunt mai drăguți...
16:51
Don't do that; they're probably going to be just as dumb
433
1011260
2000
Nu faceți asta; și ei vor fi probabil la fel de proști
16:53
as the human one you already have.
434
1013260
3000
ca cel uman pe care îl aveți deja.
16:56
So, you know, a little bad -- Sorry, sorry, sorry.
435
1016260
2000
Deci, un pic mai rău... Scuze, scuze, scuze.
16:58
A little bad for monkey investors.
436
1018260
2000
Un pic mai rău pentru investitorii maimuțe.
17:00
But of course, you know, the reason you're laughing is bad for humans too.
437
1020260
3000
Dar motivul pentru care râdeți e că e rău și pentru oameni.
17:03
Because we've answered the question we started out with.
438
1023260
3000
Pentru că am răspuns la întrebarea cu care am început.
17:06
We wanted to know where these kinds of errors came from.
439
1026260
2000
Am vrut să vedem de unde vin aceste tipuri de erori.
17:08
And we started with the hope that maybe we can
440
1028260
2000
Și am început cu speranța că poate putem
17:10
sort of tweak our financial institutions,
441
1030260
2000
cumva să ne reglăm instituțiile financiare,
17:12
tweak our technologies to make ourselves better.
442
1032260
3000
să ne reglăm tehnologiile ca să fim mai buni.
17:15
But what we've learn is that these biases might be a deeper part of us than that.
443
1035260
3000
Dar am aflat e că aceste prejudecăți sunt o parte din noi.
17:18
In fact, they might be due to the very nature
444
1038260
2000
De fapt, ar putea fi cauzate chiar de natura
17:20
of our evolutionary history.
445
1040260
2000
istoriei noastre evolutive.
17:22
You know, maybe it's not just humans
446
1042260
2000
Și poate nu doar oamenii
17:24
at the right side of this chain that's duncey.
447
1044260
2000
din partea dreaptă a acestui lanț sunt iraționali.
17:26
Maybe it's sort of duncey all the way back.
448
1046260
2000
Poate că e irațional pe toată lungimea.
17:28
And this, if we believe the capuchin monkey results,
449
1048260
3000
Și asta, dacă credem rezultatele cu capucinii,
17:31
means that these duncey strategies
450
1051260
2000
înseamnă că aceste strategii iraționale
17:33
might be 35 million years old.
451
1053260
2000
ar putea să aibă 35 milioane de ani.
17:35
That's a long time for a strategy
452
1055260
2000
E mult timp disponibil ca o strategie
17:37
to potentially get changed around -- really, really old.
453
1057260
3000
să poată fi schimbată, e foarte, foarte veche.
17:40
What do we know about other old strategies like this?
454
1060260
2000
Ce știm despre alte strategii vechi ca aceasta?
17:42
Well, one thing we know is that they tend to be really hard to overcome.
455
1062260
3000
Un lucru pe care îl știm e că ele tind să fie foarte greu de depășit.
17:45
You know, think of our evolutionary predilection
456
1065260
2000
Gândiți-vă la predilecția noastră evolutivă
17:47
for eating sweet things, fatty things like cheesecake.
457
1067260
3000
de a mânca lucruri dulci, lucruri grase cum ar fi plăcinta cu brânză.
17:50
You can't just shut that off.
458
1070260
2000
Nu poți să oprești asta.
17:52
You can't just look at the dessert cart as say, "No, no, no. That looks disgusting to me."
459
1072260
3000
Nu poți să spui: „Nu, nu, nu. E dezgustător”.
17:55
We're just built differently.
460
1075260
2000
Suntem construiți diferit.
17:57
We're going to perceive it as a good thing to go after.
461
1077260
2000
Îl percepem ca pe un lucru bun după care să ne ghidăm.
17:59
My guess is that the same thing is going to be true
462
1079260
2000
Estimarea mea este că același lucru o să fie adevărat
18:01
when humans are perceiving
463
1081260
2000
când oamenii percep
18:03
different financial decisions.
464
1083260
2000
decizii financiare diferite.
18:05
When you're watching your stocks plummet into the red,
465
1085260
2000
Când îți privești capitalul că intră în zona roșie,
18:07
when you're watching your house price go down,
466
1087260
2000
când îți vezi prețul casei mergând în jos,
18:09
you're not going to be able to see that
467
1089260
2000
nu o să poți vedea asta
18:11
in anything but old evolutionary terms.
468
1091260
2000
decât în termeni evoluționiști.
18:13
This means that the biases
469
1093260
2000
Asta înseamnă că erorile cognitive
18:15
that lead investors to do badly,
470
1095260
2000
care îi fac pe investitori să nu fie performanți,
18:17
that lead to the foreclosure crisis
471
1097260
2000
care duc la criza prescrierilor
18:19
are going to be really hard to overcome.
472
1099260
2000
vor fi foarte greu de depășit.
18:21
So that's the bad news. The question is: is there any good news?
473
1101260
2000
Așa că, vești proaste. Întrebarea este: sunt și vești bune?
18:23
I'm supposed to be up here telling you the good news.
474
1103260
2000
Eu ar fi trebuit să fiu aici spunându-vă veștile bune.
18:25
Well, the good news, I think,
475
1105260
2000
Păi, veștile bune, cred,
18:27
is what I started with at the beginning of the Talk,
476
1107260
2000
sunt ceea ce am zis la începutul prezentării,
18:29
which is that humans are not only smart;
477
1109260
2000
că oamenii nu sunt doar deștepți;
18:31
we're really inspirationally smart
478
1111260
2000
inteligența noastră inspiră
18:33
to the rest of the animals in the biological kingdom.
479
1113260
3000
restul animalelor din biosferă.
18:36
We're so good at overcoming our biological limitations --
480
1116260
3000
Suntem așa de buni la depășirea limitărilor biologice –
18:39
you know, I flew over here in an airplane.
481
1119260
2000
știți, am zburat până aici într-un avion.
18:41
I didn't have to try to flap my wings.
482
1121260
2000
Nu a trebuit să încerc să dau din aripi.
18:43
I'm wearing contact lenses now so that I can see all of you.
483
1123260
3000
Port lentile de contact acum ca să vă văd pe toți.
18:46
I don't have to rely on my own near-sightedness.
484
1126260
3000
Nu trebuie să mă bazez pe prezbitismul meu.
18:49
We actually have all of these cases
485
1129260
2000
Avem de fapt toate aceste cazuri
18:51
where we overcome our biological limitations
486
1131260
3000
în care ne depășim limitările biologice
18:54
through technology and other means, seemingly pretty easily.
487
1134260
3000
prin tehnologie și alte metode, aparent foarte ușor.
18:57
But we have to recognize that we have those limitations.
488
1137260
3000
Dar trebuie să recunoastem că avem aceste limitări.
19:00
And here's the rub.
489
1140260
2000
Și uite care e treaba.
19:02
It was Camus who once said that, "Man is the only species
490
1142260
2000
Camus a spus odată că „Omul este singura specie
19:04
who refuses to be what he really is."
491
1144260
3000
care refuză să fie ceea ce este cu adevărat.”
19:07
But the irony is that
492
1147260
2000
Dar ironia e că
19:09
it might only be in recognizing our limitations
493
1149260
2000
doar recunoscându-ne limitările
19:11
that we can really actually overcome them.
494
1151260
2000
le putem depăși cu adevărat.
19:13
The hope is that you all will think about your limitations,
495
1153260
3000
Speranța e că toți vă veți gândi la limitările voastre,
19:16
not necessarily as unovercomable,
496
1156260
3000
nu neapărat ca de nedepășit,
19:19
but to recognize them, accept them
497
1159260
2000
dar ca să le recunoașteți, să le acceptați
19:21
and then use the world of design to actually figure them out.
498
1161260
3000
și să folosiți apoi lumea proiectării pentru a le remedia.
19:24
That might be the only way that we will really be able
499
1164260
3000
Aceasta s-ar putea să fie singura metodă prin care am putea
19:27
to achieve our own human potential
500
1167260
2000
să ne atingem potențialul uman
19:29
and really be the noble species we hope to all be.
501
1169260
3000
și să fim cu adevărat specia nobilă care sperăm să fim.
19:32
Thank you.
502
1172260
2000
Vă mulțumesc.
19:34
(Applause)
503
1174260
5000
(Aplauze)
Despre acest site

Acest site vă va prezenta videoclipuri de pe YouTube care sunt utile pentru a învăța limba engleză. Veți vedea lecții de engleză predate de profesori de top din întreaga lume. Faceți dublu clic pe subtitrările în limba engleză afișate pe fiecare pagină video pentru a reda videoclipul de acolo. Subtitrările se derulează în sincron cu redarea videoclipului. Dacă aveți comentarii sau solicitări, vă rugăm să ne contactați folosind acest formular de contact.

https://forms.gle/WvT1wiN1qDtmnspy7