Laurie Santos: How monkeys mirror human irrationality

197,513 views ・ 2010-07-29

TED


אנא לחץ פעמיים על הכתוביות באנגלית למטה כדי להפעיל את הסרטון.

מתרגם: Sigal Tifferet מבקר: Ido Dekkers
00:17
I want to start my talk today with two observations
0
17260
2000
אני רוצה לפתוח בשתי הבחנות
00:19
about the human species.
1
19260
2000
על המין האנושי.
00:21
The first observation is something that you might think is quite obvious,
2
21260
3000
ההבחנה הראשונה היא אולי ברורה מאליה,
00:24
and that's that our species, Homo sapiens,
3
24260
2000
והיא שהמין שלנו, הומו ספייאנס,
00:26
is actually really, really smart --
4
26260
2000
הוא ממש, אבל ממש חכם,
00:28
like, ridiculously smart --
5
28260
2000
חכם באופן מגוחך.
00:30
like you're all doing things
6
30260
2000
אתם עושים דברים
00:32
that no other species on the planet does right now.
7
32260
3000
שאף מין אחר בכדה"א לא עושה.
00:35
And this is, of course,
8
35260
2000
וזה כמובן
00:37
not the first time you've probably recognized this.
9
37260
2000
לא חדש לכם.
00:39
Of course, in addition to being smart, we're also an extremely vain species.
10
39260
3000
בנוסף להיותנו חכמים, אנחנו גם מאוד יהירים.
00:42
So we like pointing out the fact that we're smart.
11
42260
3000
אז אנחנו אוהבים להדגיש את חכמתנו.
00:45
You know, so I could turn to pretty much any sage
12
45260
2000
אז אני יכולה לפנות לכל גאון,
00:47
from Shakespeare to Stephen Colbert
13
47260
2000
משייקספיר ועד סטיבן קולברט,
00:49
to point out things like the fact that
14
49260
2000
ולהצביע על כך שאנחנו
00:51
we're noble in reason and infinite in faculties
15
51260
2000
אצילים בתבונה, אינסופיים בכישרונות,
00:53
and just kind of awesome-er than anything else on the planet
16
53260
2000
ובעצם הכי מדהימים בעולם
00:55
when it comes to all things cerebral.
17
55260
3000
כשזה מגיע לעניינים שכליים.
00:58
But of course, there's a second observation about the human species
18
58260
2000
אבל יש כמובן גם הבחנה שניה לגבי המין האנושי
01:00
that I want to focus on a little bit more,
19
60260
2000
בה אני רוצה להתמקד,
01:02
and that's the fact that
20
62260
2000
וזו העובדה
01:04
even though we're actually really smart, sometimes uniquely smart,
21
64260
3000
שלמרות שאנחנו ממש חכמים, חכמים במיוחד,
01:07
we can also be incredibly, incredibly dumb
22
67260
3000
אנחנו יכולים גם להיות ממש טיפשים
01:10
when it comes to some aspects of our decision making.
23
70260
3000
כשזה מגיע לכמה אספקטים בקבלת החלטות.
01:13
Now I'm seeing lots of smirks out there.
24
73260
2000
אני רואה הרבה חיוכים בקהל.
01:15
Don't worry, I'm not going to call anyone in particular out
25
75260
2000
אל תדאגו, לא אציג את הטעויות
01:17
on any aspects of your own mistakes.
26
77260
2000
של אף אחד מכם.
01:19
But of course, just in the last two years
27
79260
2000
אבל רק בשנתיים האחרונות
01:21
we see these unprecedented examples of human ineptitude.
28
81260
3000
ראינו דוגמאות חסרות תקדים של חוסר יכולת אנושית.
01:24
And we've watched as the tools we uniquely make
29
84260
3000
וראינו איך השיטות שתכננו במיוחד
01:27
to pull the resources out of our environment
30
87260
2000
כדי להוציא משאבים מהסביבה
01:29
kind of just blow up in our face.
31
89260
2000
קורסות בחוסר הצלחה.
01:31
We've watched the financial markets that we uniquely create --
32
91260
2000
ראינו את השווקים הכלכליים שייצרנו,
01:33
these markets that were supposed to be foolproof --
33
93260
3000
שווקים שאמורים היו להיות חסיני-כל,
01:36
we've watched them kind of collapse before our eyes.
34
96260
2000
מתמוטטים מול עינינו.
01:38
But both of these two embarrassing examples, I think,
35
98260
2000
אבל שתי הדוגמאות המביכות האלה, אני חושבת,
01:40
don't highlight what I think is most embarrassing
36
100260
3000
לא מדגישות את מה שהכי מביך
01:43
about the mistakes that humans make,
37
103260
2000
בטעויות האנושיות,
01:45
which is that we'd like to think that the mistakes we make
38
105260
3000
והוא שהיינו רוצים לחשוב שהטעויות שלנו
01:48
are really just the result of a couple bad apples
39
108260
2000
הן תוצאה של כמה תפוחים רקובים,
01:50
or a couple really sort of FAIL Blog-worthy decisions.
40
110260
3000
טעויות מקריות חסרות חשיבות.
01:53
But it turns out, what social scientists are actually learning
41
113260
3000
אבל מה שאנחנו לומדים ממדעי החברה
01:56
is that most of us, when put in certain contexts,
42
116260
3000
הוא שרובנו, במצבים מסויימים,
01:59
will actually make very specific mistakes.
43
119260
3000
נבצע טעויות מאוד ספציפיות.
02:02
The errors we make are actually predictable.
44
122260
2000
טעויות ניתנות לניבוי.
02:04
We make them again and again.
45
124260
2000
ואנחנו נבצע אותן שוב ושוב.
02:06
And they're actually immune to lots of evidence.
46
126260
2000
והן חסינות בפני הוכחות.
02:08
When we get negative feedback,
47
128260
2000
כשאנחנו מקבלים משוב שלילי,
02:10
we still, the next time we're face with a certain context,
48
130260
3000
עדיין בפעם הבאה באותו מצב,
02:13
tend to make the same errors.
49
133260
2000
אנחנו נוטים לחזור על אותן טעויות.
02:15
And so this has been a real puzzle to me
50
135260
2000
אז זו היתה חידה בעיני
02:17
as a sort of scholar of human nature.
51
137260
2000
כחוקרת של הטבע האנושי.
02:19
What I'm most curious about is,
52
139260
2000
מה שמסקרן אותי
02:21
how is a species that's as smart as we are
53
141260
3000
זה איך מין חכם כמו שלנו
02:24
capable of such bad
54
144260
2000
מסוגל לבצע טעויות
02:26
and such consistent errors all the time?
55
146260
2000
כה גרועות ועקביות?
02:28
You know, we're the smartest thing out there, why can't we figure this out?
56
148260
3000
אנחנו הכי חכמים, איך אנחנו לא פותרים את זה?
02:31
In some sense, where do our mistakes really come from?
57
151260
3000
מאין מגיעות הטעויות האלה?
02:34
And having thought about this a little bit, I see a couple different possibilities.
58
154260
3000
וחשבתי על שתי אפשרויות שונות.
02:37
One possibility is, in some sense, it's not really our fault.
59
157260
3000
אחת, זו לא באמת אשמתנו.
02:40
Because we're a smart species,
60
160260
2000
משום שאנחנו מין חכם
02:42
we can actually create all kinds of environments
61
162260
2000
אנחנו מייצרים סביבות
02:44
that are super, super complicated,
62
164260
2000
שהן מאוד מסובכות,
02:46
sometimes too complicated for us to even actually understand,
63
166260
3000
לפעמים מסובכות מכדי שנבין אותן,
02:49
even though we've actually created them.
64
169260
2000
למרות שיצרנו אותן.
02:51
We create financial markets that are super complex.
65
171260
2000
אנחנו יוצרים שווקים פיננסיים מאוד מורכבים.
02:53
We create mortgage terms that we can't actually deal with.
66
173260
3000
אנחנו יוצרים תנאי משכנתא שאי אפשר להתמודד איתם.
02:56
And of course, if we are put in environments where we can't deal with it,
67
176260
3000
וכמובן, אם שמים אותנו בסביבות איתן קשה להתמודד,
02:59
in some sense makes sense that we actually
68
179260
2000
הגיוני שאולי
03:01
might mess certain things up.
69
181260
2000
נהרוס כמה דברים.
03:03
If this was the case, we'd have a really easy solution
70
183260
2000
אם זה היה המצב, היה לנו פתרון פשוט
03:05
to the problem of human error.
71
185260
2000
לבעיית הטעות האנושית.
03:07
We'd actually just say, okay, let's figure out
72
187260
2000
היינו אומרים, טוב, בואו נראה
03:09
the kinds of technologies we can't deal with,
73
189260
2000
עם אלו טכנולוגיות קשה לנו להתמודד,
03:11
the kinds of environments that are bad --
74
191260
2000
אותן סביבות בעייתיות -
03:13
get rid of those, design things better,
75
193260
2000
ניפטר מהן, נתכנן טוב יותר,
03:15
and we should be the noble species
76
195260
2000
ונהיה המין האציל
03:17
that we expect ourselves to be.
77
197260
2000
שאנחנו מצפים להיות.
03:19
But there's another possibility that I find a little bit more worrying,
78
199260
3000
אבל ישנה אפשרות מדאיגה יותר,
03:22
which is, maybe it's not our environments that are messed up.
79
202260
3000
והיא שאולי לא הסביבה היא שדפוקה.
03:25
Maybe it's actually us that's designed badly.
80
205260
3000
אולי זה אנחנו שמתוכננים לא טוב.
03:28
This is a hint that I've gotten
81
208260
2000
זה רמז שקיבלתי
03:30
from watching the ways that social scientists have learned about human errors.
82
210260
3000
מהסתכלות בדרכים בהן מדענים למדו על טעויות אנוש.
03:33
And what we see is that people tend to keep making errors
83
213260
3000
ומה שאנחנו רואים הוא שאנשים נוטים לבצע את אותן שגיאות
03:36
exactly the same way, over and over again.
84
216260
3000
באותו אופן, שוב ושוב.
03:39
It feels like we might almost just be built
85
219260
2000
נראה כאילו אנו בנויים
03:41
to make errors in certain ways.
86
221260
2000
לשגות בדרכים מסויימות.
03:43
This is a possibility that I worry a little bit more about,
87
223260
3000
זו אפשרות שמדאיגה אותי יותר,
03:46
because, if it's us that's messed up,
88
226260
2000
כי אם אנחנו הדפוקים,
03:48
it's not actually clear how we go about dealing with it.
89
228260
2000
לא ממש ברור איך נתמודד עם זה.
03:50
We might just have to accept the fact that we're error prone
90
230260
3000
אולי אנחנו צריכים לקבל את זה שאנחנו נוטים לטעויות,
03:53
and try to design things around it.
91
233260
2000
ולנסות לתכנן דברים בהתאם.
03:55
So this is the question my students and I wanted to get at.
92
235260
3000
אז זו השאלה שרציתי לבחון עם הסטודנטים שלי.
03:58
How can we tell the difference between possibility one and possibility two?
93
238260
3000
איך אפשר להבחין בין שתי האפשרויות הללו?
04:01
What we need is a population
94
241260
2000
אנחנו זקוקים לאוכלוסיה
04:03
that's basically smart, can make lots of decisions,
95
243260
2000
חכמה, שיכולה לקבל הרבה החלטות,
04:05
but doesn't have access to any of the systems we have,
96
245260
2000
אבל שאין לה גישה למערכות שיש לנו,
04:07
any of the things that might mess us up --
97
247260
2000
כל הדברים שיכולים להרוס אותנו -
04:09
no human technology, human culture,
98
249260
2000
לא טכנולוגיה, לא תרבות אנושית,
04:11
maybe even not human language.
99
251260
2000
אפילו לא שפה אנושית.
04:13
And so this is why we turned to these guys here.
100
253260
2000
ולכן פנינו לחברה האלה.
04:15
These are one of the guys I work with. This is a brown capuchin monkey.
101
255260
3000
הנה אחד הבחורים איתם אני עובדת. זה קוף קפוצ'ין חום.
04:18
These guys are New World primates,
102
258260
2000
אלה פרימאטים מהעולם החדש,
04:20
which means they broke off from the human branch
103
260260
2000
מה שאומר שהם נפרדו מהענף האנושי
04:22
about 35 million years ago.
104
262260
2000
לפני 35 מיליון שנה בערך.
04:24
This means that your great, great, great great, great, great --
105
264260
2000
זה אומר שסבתא רבא, רבא, רבא שלכם -
04:26
with about five million "greats" in there --
106
266260
2000
עם בערך 5 מיליון "רבא" -
04:28
grandmother was probably the same great, great, great, great
107
268260
2000
היתה כנראה אותה סבתא רבא, רבא, רבא -
04:30
grandmother with five million "greats" in there
108
270260
2000
עם 5 מיליון "רבא",
04:32
as Holly up here.
109
272260
2000
של הולי שאתם רואים כאן.
04:34
You know, so you can take comfort in the fact that this guy up here is a really really distant,
110
274260
3000
אז אפשר להתנחם בכך שהבחור הזה ממש רחוק מאיתנו,
04:37
but albeit evolutionary, relative.
111
277260
2000
אבל מבחינה אבולוציונית, הוא קרוב משפחה.
04:39
The good news about Holly though is that
112
279260
2000
החדשות הטובות לגבי הולי הן
04:41
she doesn't actually have the same kinds of technologies we do.
113
281260
3000
שאין לה את הטכנולוגיות שיש לנו.
04:44
You know, she's a smart, very cut creature, a primate as well,
114
284260
3000
אתם יודעים, היא חכמה, חמודה, גם היא פרימאטית,
04:47
but she lacks all the stuff we think might be messing us up.
115
287260
2000
אבל אין לה את כל החפצים שאולי הורסים אותנו.
04:49
So she's the perfect test case.
116
289260
2000
אז היא מקרה מבחן מצוין.
04:51
What if we put Holly into the same context as humans?
117
291260
3000
מה אם נשים את הולי בהקשר אנושי?
04:54
Does she make the same mistakes as us?
118
294260
2000
האם היא תעשה את אותן טעויות?
04:56
Does she not learn from them? And so on.
119
296260
2000
האם היא לא תלמד מהן?
04:58
And so this is the kind of thing we decided to do.
120
298260
2000
אז זה מה שניסינו לעשות.
05:00
My students and I got very excited about this a few years ago.
121
300260
2000
הסטודנטים שלי ואני התלהבנו מהרעיון הזה לפני כמה שנים.
05:02
We said, all right, let's, you know, throw so problems at Holly,
122
302260
2000
אמרנו, טוב, בואו נזרוק לה כמה בעיות,
05:04
see if she messes these things up.
123
304260
2000
ונראה אם היא מפשלת.
05:06
First problem is just, well, where should we start?
124
306260
3000
בעיה ראשונה, בעצם, איפה נתחיל?
05:09
Because, you know, it's great for us, but bad for humans.
125
309260
2000
כי אתם יודעים, זה טוב עבורנו, אבל גרוע לבני אדם,
05:11
We make a lot of mistakes in a lot of different contexts.
126
311260
2000
אנחנו עושים מלא טעויות בהרבה הקשרים.
05:13
You know, where are we actually going to start with this?
127
313260
2000
אז איפה נתחיל?
05:15
And because we started this work around the time of the financial collapse,
128
315260
3000
ומשום שהתחלנו בערך בזמן המשבר הכלכלי,
05:18
around the time when foreclosures were hitting the news,
129
318260
2000
כשהעיקולים הופיעו בחדשות,
05:20
we said, hhmm, maybe we should
130
320260
2000
אמרנו, הממ... אולי נתחיל
05:22
actually start in the financial domain.
131
322260
2000
בתחום הפיננסי.
05:24
Maybe we should look at monkey's economic decisions
132
324260
3000
אולי נסתכל על קבלת החלטות כלכלית של קופים,
05:27
and try to see if they do the same kinds of dumb things that we do.
133
327260
3000
וננסה לראות אם הם עושים את אותן שטויות שאנחנו עושים.
05:30
Of course, that's when we hit a sort second problem --
134
330260
2000
ואז כמובן נתקלנו בבעיה שניה -
05:32
a little bit more methodological --
135
332260
2000
יותר מתודולוגית -
05:34
which is that, maybe you guys don't know,
136
334260
2000
והיא, אולי לא ידעתם,
05:36
but monkeys don't actually use money. I know, you haven't met them.
137
336260
3000
אבל קופים לא באמת משתמשים בכסף. אני יודעת, טרם פגשתם אותם.
05:39
But this is why, you know, they're not in the queue behind you
138
339260
2000
אבל בגלל זה הם לא עומדים בתור מאחוריכם
05:41
at the grocery store or the ATM -- you know, they don't do this stuff.
139
341260
3000
במכולת או בכספומט - הם לא עושים את הדברים האלה.
05:44
So now we faced, you know, a little bit of a problem here.
140
344260
3000
אז היתה לנו כאן בעיה.
05:47
How are we actually going to ask monkeys about money
141
347260
2000
איך נשאל את קופים על כסף
05:49
if they don't actually use it?
142
349260
2000
כשהם לא באמת משתמשים בו?
05:51
So we said, well, maybe we should just, actually just suck it up
143
351260
2000
אז אמרנו, טוב, אולי פשוט צריך
05:53
and teach monkeys how to use money.
144
353260
2000
ללמד אותם איך להשתמש בכסף.
05:55
So that's just what we did.
145
355260
2000
וזה בדיוק מה שעשינו.
05:57
What you're looking at over here is actually the first unit that I know of
146
357260
3000
מה שאתם רואים כאן זו היחידה הראשונה הידועה לי
06:00
of non-human currency.
147
360260
2000
של מטבע לא אנושי.
06:02
We weren't very creative at the time we started these studies,
148
362260
2000
לא היינו מאוד יצירתיים,
06:04
so we just called it a token.
149
364260
2000
אז קראנו לזה אסימון.
06:06
But this is the unit of currency that we've taught our monkeys at Yale
150
366260
3000
אבל זהו המטבע שלימדנו את הקופים בייל
06:09
to actually use with humans,
151
369260
2000
להשתמש בו עם אנשים,
06:11
to actually buy different pieces of food.
152
371260
3000
לקנות באמצעותו חתיכות מזון שונות.
06:14
It doesn't look like much -- in fact, it isn't like much.
153
374260
2000
זה לא נראה משהו - זה באמת לא משהו.
06:16
Like most of our money, it's just a piece of metal.
154
376260
2000
כמו רוב הכסף שלנו, זו רק חתיכת מתכת.
06:18
As those of you who've taken currencies home from your trip know,
155
378260
3000
כפי שאתם יודעים אם לקחתם מטבעות מחו"ל,
06:21
once you get home, it's actually pretty useless.
156
381260
2000
כשמגיעים הביתה, הם די חסרי ערך.
06:23
It was useless to the monkeys at first
157
383260
2000
זה היה חסר ערך עבור הקופים בתחילה,
06:25
before they realized what they could do with it.
158
385260
2000
לפני שהם הבינו מה הם יכולים לעשות איתו.
06:27
When we first gave it to them in their enclosures,
159
387260
2000
כשנתנו להם את זה במתחם שלהם,
06:29
they actually kind of picked them up, looked at them.
160
389260
2000
הם הרימו אותם, הסתכלו עליהם.
06:31
They were these kind of weird things.
161
391260
2000
הם היו עבורם דברים מוזרים.
06:33
But very quickly, the monkeys realized
162
393260
2000
אבל מהר מאוד הקופים הבינו
06:35
that they could actually hand these tokens over
163
395260
2000
שהם יכולים לתת את האסימונים האלה
06:37
to different humans in the lab for some food.
164
397260
3000
לאנשים במעבדה ולקבל תמורתם מזון.
06:40
And so you see one of our monkeys, Mayday, up here doing this.
165
400260
2000
אז כאן רואים את מיידיי עושה את זה.
06:42
This is A and B are kind of the points where she's sort of a little bit
166
402260
3000
בנקודה A בB היא קצת
06:45
curious about these things -- doesn't know.
167
405260
2000
סקרנית לגבי זה, לא יודעת.
06:47
There's this waiting hand from a human experimenter,
168
407260
2000
הנה היד המחכה של הנסיין האנושי,
06:49
and Mayday quickly figures out, apparently the human wants this.
169
409260
3000
ומיידיי מבינה מהר שהאדם רוצה את זה.
06:52
Hands it over, and then gets some food.
170
412260
2000
היא מושיטה לו, ומקבלת קצת אוכל.
06:54
It turns out not just Mayday, all of our monkeys get good
171
414260
2000
מתברר שכל הקופים שלנו משתפרים
06:56
at trading tokens with human salesman.
172
416260
2000
בסחר האסימונים עם איש המכירות האנושי.
06:58
So here's just a quick video of what this looks like.
173
418260
2000
אז הנה וידאו קצר שמראה את זה.
07:00
Here's Mayday. She's going to be trading a token for some food
174
420260
3000
הנה מיידיי. היא עומדת להחליף אסימון עבור מזון,
07:03
and waiting happily and getting her food.
175
423260
3000
מחכה בשמחה ומקבלת את האוכל שלה.
07:06
Here's Felix, I think. He's our alpha male; he's a kind of big guy.
176
426260
2000
הנה פליקס. הוא זכר האלפא שלנו, די גדול.
07:08
But he too waits patiently, gets his food and goes on.
177
428260
3000
אבל גם הוא מחכה בסבלנות, מקבל את האוכל וממשיך.
07:11
So the monkeys get really good at this.
178
431260
2000
אז הקופים ממש נהיים טובים בזה.
07:13
They're surprisingly good at this with very little training.
179
433260
3000
באופן מפתיע, עם מעט מאוד אימון.
07:16
We just allowed them to pick this up on their own.
180
436260
2000
רק נתנו להם לתפוס את זה בעצמם.
07:18
The question is: is this anything like human money?
181
438260
2000
השאלה היא: האם זה דומה לכסף אנושי?
07:20
Is this a market at all,
182
440260
2000
האם זה באמת שוק,
07:22
or did we just do a weird psychologist's trick
183
442260
2000
או שזה סתם טריק פסיכולוגי
07:24
by getting monkeys to do something,
184
444260
2000
שגורם לקופים לעשות משהו,
07:26
looking smart, but not really being smart.
185
446260
2000
להיראות חכמים, אבל בעצם לא להיות חכמים.
07:28
And so we said, well, what would the monkeys spontaneously do
186
448260
3000
אז שאלנו, מה הקופים היו עושים באופן ספונטני
07:31
if this was really their currency, if they were really using it like money?
187
451260
3000
אם זה באמת היה הכסף שלהם?
07:34
Well, you might actually imagine them
188
454260
2000
אפשר לדמיין אותם
07:36
to do all the kinds of smart things
189
456260
2000
עושים את כל הדברים החכמים
07:38
that humans do when they start exchanging money with each other.
190
458260
3000
שבני אדם עושים כשהם מחליפים כסף זה עם זה.
07:41
You might have them start paying attention to price,
191
461260
3000
אולי הם ישימו לב למחיר,
07:44
paying attention to how much they buy --
192
464260
2000
ישימו לב לכמות שהם קונים,
07:46
sort of keeping track of their monkey token, as it were.
193
466260
3000
בעצם עוקבים אחרי ערך הכסף.
07:49
Do the monkeys do anything like this?
194
469260
2000
האם הקופים עושים משהו כזה?
07:51
And so our monkey marketplace was born.
195
471260
3000
אז שוק הקופים שלנו נולד.
07:54
The way this works is that
196
474260
2000
וכך זה עובד.
07:56
our monkeys normally live in a kind of big zoo social enclosure.
197
476260
3000
הקופים שלנו חיים במתקן חברתי גדול.
07:59
When they get a hankering for some treats,
198
479260
2000
כשמתחשק להם ממתק,
08:01
we actually allowed them a way out
199
481260
2000
אפשרנו להם לצאת
08:03
into a little smaller enclosure where they could enter the market.
200
483260
2000
למתחם קטן יותר דרכו הם נכנסים לשוק.
08:05
Upon entering the market --
201
485260
2000
כשהם נכנסים לשוק,
08:07
it was actually a much more fun market for the monkeys than most human markets
202
487260
2000
זה בעצם יותר כיף אצלהם מאשר אצלנו,
08:09
because, as the monkeys entered the door of the market,
203
489260
3000
כי כשהם נכנסים בדלת של השוק
08:12
a human would give them a big wallet full of tokens
204
492260
2000
אדם נותן להם ארנק גדול מלא אסימונים
08:14
so they could actually trade the tokens
205
494260
2000
כך שהם יכולים להחליף את האסימונים
08:16
with one of these two guys here --
206
496260
2000
עם אחד מהשניים האלה -
08:18
two different possible human salesmen
207
498260
2000
שני אנשי מכירות שונים
08:20
that they could actually buy stuff from.
208
500260
2000
מהם ניתן לקנות דברים.
08:22
The salesmen were students from my lab.
209
502260
2000
אנשי המכירות היו סטודנטים מהמעבדה שלי.
08:24
They dressed differently; they were different people.
210
504260
2000
הם התלבשו אחרת, הם היו אנשים שונים.
08:26
And over time, they did basically the same thing
211
506260
3000
ולאורך זמן הם עשו למעשה את אותו הדבר.
08:29
so the monkeys could learn, you know,
212
509260
2000
כך הקופים יכלו ללמוד
08:31
who sold what at what price -- you know, who was reliable, who wasn't, and so on.
213
511260
3000
מי מכר מה ובאיזה מחיר. אתם יודעים - מי אמין וכן הלאה.
08:34
And you can see that each of the experimenters
214
514260
2000
ואתם יכולים לראות שכל אחד מהנסיינים
08:36
is actually holding up a little, yellow food dish.
215
516260
3000
מחזיק צלחת אוכל צהובה
08:39
and that's what the monkey can for a single token.
216
519260
2000
וזה מה שהקוף יכול לקבל תמורת אסימון אחד.
08:41
So everything costs one token,
217
521260
2000
אז הכל עולה אסימון אחד,
08:43
but as you can see, sometimes tokens buy more than others,
218
523260
2000
אבל לפעמים האסימון קונה יותר,
08:45
sometimes more grapes than others.
219
525260
2000
לפעמים מקבלים יותר ענבים.
08:47
So I'll show you a quick video of what this marketplace actually looks like.
220
527260
3000
אז אראה לכם וידאו קצר של השוק.
08:50
Here's a monkey-eye-view. Monkeys are shorter, so it's a little short.
221
530260
3000
כאן מזוית הראייה של הקופים, שהם יותר נמוכים.
08:53
But here's Honey.
222
533260
2000
והנה האני.
08:55
She's waiting for the market to open a little impatiently.
223
535260
2000
היא מחכה שהשוק יפתח, מעט בחוסר סבלנות.
08:57
All of a sudden the market opens. Here's her choice: one grapes or two grapes.
224
537260
3000
פתאום השוק נפתח. הנה הבחירה שלה: ענב אחד או שניים.
09:00
You can see Honey, very good market economist,
225
540260
2000
אתם רואים שהאני, כלכלנית שוק טובה,
09:02
goes with the guy who gives more.
226
542260
3000
הולכת לבחור שנותן יותר.
09:05
She could teach our financial advisers a few things or two.
227
545260
2000
היא יכולה ללמד את המומחים כמה דברים.
09:07
So not just Honey,
228
547260
2000
ולא רק האני,
09:09
most of the monkeys went with guys who had more.
229
549260
3000
רוב הקופים הלכו למי שנתן יותר.
09:12
Most of the monkeys went with guys who had better food.
230
552260
2000
רוב הקופים הלכו למי שנתן אוכל טוב יותר.
09:14
When we introduced sales, we saw the monkeys paid attention to that.
231
554260
3000
כשהכנסנו מבצעים ראינו שהקופים שמו לב לכך.
09:17
They really cared about their monkey token dollar.
232
557260
3000
הם ממש דאגו לאסימונים שלהם.
09:20
The more surprising thing was that when we collaborated with economists
233
560260
3000
מה שהפתיע אותנו יותר היה שכששיתפנו פעולה עם כלכלנים
09:23
to actually look at the monkeys' data using economic tools,
234
563260
3000
כדי לראות איך הקופים משתמשים בכלים כלכליים,
09:26
they basically matched, not just qualitatively,
235
566260
3000
הם התאימו, לא רק איכותנית,
09:29
but quantitatively with what we saw
236
569260
2000
אלא גם כמותית למה שראינו
09:31
humans doing in a real market.
237
571260
2000
שאנשים עושים בשוק אמיתי.
09:33
So much so that, if you saw the monkeys' numbers,
238
573260
2000
עד כדי כך שאם ראיתם את הנתונים מהקופים,
09:35
you couldn't tell whether they came from a monkey or a human in the same market.
239
575260
3000
לא יכולתם לדעת אם הם הגיעו מקוף או מאדם באותו שוק.
09:38
And what we'd really thought we'd done
240
578260
2000
ומה שחשבנו שעשינו
09:40
is like we'd actually introduced something
241
580260
2000
היה שיצרנו משהו
09:42
that, at least for the monkeys and us,
242
582260
2000
שלפחות עבורנו ועבור הקופים,
09:44
works like a real financial currency.
243
584260
2000
פועל כמו מטבע פיננסי אמיתי.
09:46
Question is: do the monkeys start messing up in the same ways we do?
244
586260
3000
השאלה היא: האם הקופים מתחילים לפשל באותן דרכים שאנחנו מפשלים?
09:49
Well, we already saw anecdotally a couple of signs that they might.
245
589260
3000
אז כבר ראינו באנקדוטה כמה סימנים שכן.
09:52
One thing we never saw in the monkey marketplace
246
592260
2000
מה שלא ראינו אף פעם אצל הקופים
09:54
was any evidence of saving --
247
594260
2000
הוא עדות לחסכון -
09:56
you know, just like our own species.
248
596260
2000
אתם יודעים, כמו אצלנו.
09:58
The monkeys entered the market, spent their entire budget
249
598260
2000
הקופים נכנסו לשוק, בזבזו את כל התקציב שלהם
10:00
and then went back to everyone else.
250
600260
2000
ואז חזרו לשאר.
10:02
The other thing we also spontaneously saw,
251
602260
2000
מה שעוד ראינו
10:04
embarrassingly enough,
252
604260
2000
וזה היה מביך,
10:06
is spontaneous evidence of larceny.
253
606260
2000
זו עדות ספונטנית לגניבה.
10:08
The monkeys would rip-off the tokens at every available opportunity --
254
608260
3000
הקופים היו גונבים אסימונים בכל הזדמנות,
10:11
from each other, often from us --
255
611260
2000
מקופים אחרים, לפעמים גם מאיתנו,
10:13
you know, things we didn't necessarily think we were introducing,
256
613260
2000
אתם יודעים, תופעות שלא ידענו שאנחנו בודקים,
10:15
but things we spontaneously saw.
257
615260
2000
אבל ראינו באופן ספונטני.
10:17
So we said, this looks bad.
258
617260
2000
אז אמרנו, זה נראה רע.
10:19
Can we actually see if the monkeys
259
619260
2000
האם אפשר ממש לבדוק אם הקופים
10:21
are doing exactly the same dumb things as humans do?
260
621260
3000
עושים בדיוק את אותן השטויות שאנשים עושים?
10:24
One possibility is just kind of let
261
624260
2000
אפשרות אחת היא פשוט
10:26
the monkey financial system play out,
262
626260
2000
למצות את המערכת הפיננסית של הקופים,
10:28
you know, see if they start calling us for bailouts in a few years.
263
628260
2000
לראות אם הם יבקשו מאיתנו למנוע את קריסתם בעוד כמה שנים.
10:30
We were a little impatient so we wanted
264
630260
2000
היינו חסרי סבלנות, אז רצינו
10:32
to sort of speed things up a bit.
265
632260
2000
להאיץ את התהליכים.
10:34
So we said, let's actually give the monkeys
266
634260
2000
אז אמרנו, בואו נציג לקופים
10:36
the same kinds of problems
267
636260
2000
את אותן הבעיות
10:38
that humans tend to get wrong
268
638260
2000
בהן אנשים נוטים לשגות
10:40
in certain kinds of economic challenges,
269
640260
2000
באתגרים כלכליים מסויימים,
10:42
or certain kinds of economic experiments.
270
642260
2000
בניסויים כלכליים מסויימים.
10:44
And so, since the best way to see how people go wrong
271
644260
3000
אז מכיוון שהדרך הטובה ביותר לראות היכן אנשים טועים
10:47
is to actually do it yourself,
272
647260
2000
היא לנסות זאת בעצמכם,
10:49
I'm going to give you guys a quick experiment
273
649260
2000
אני אתן לכם ניסוי קטן
10:51
to sort of watch your own financial intuitions in action.
274
651260
2000
כדי לראות את האינטואיציות הפיננסיות שלכם בפעולה.
10:53
So imagine that right now
275
653260
2000
אז דמיינו שעכשיו
10:55
I handed each and every one of you
276
655260
2000
הייתי נותנת לכ"א מכם
10:57
a thousand U.S. dollars -- so 10 crisp hundred dollar bills.
277
657260
3000
1000 דולר. 10 שטרות חדשים של $100.
11:00
Take these, put it in your wallet
278
660260
2000
שימו אותם בארנק שלכם
11:02
and spend a second thinking about what you're going to do with it.
279
662260
2000
ותחשבו כמה שניות על מה תעשו איתם.
11:04
Because it's yours now; you can buy whatever you want.
280
664260
2000
כי הם עכשיו שלכם, אתם יכולים לקנות מה שתרצו.
11:06
Donate it, take it, and so on.
281
666260
2000
לתרום, לקחת וכן הלאה.
11:08
Sounds great, but you get one more choice to earn a little bit more money.
282
668260
3000
נשמע מצוין, אבל יש לכם אפשרות להרוויח יותר כסף.
11:11
And here's your choice: you can either be risky,
283
671260
3000
והנה הבחירה: אתם יכולים להסתכן,
11:14
in which case I'm going to flip one of these monkey tokens.
284
674260
2000
ואז אני אזרוק את מטבע הקופים הזה.
11:16
If it comes up heads, you're going to get a thousand dollars more.
285
676260
2000
אם זה עץ - אתם מקבלים עוד 1000 דולר,
11:18
If it comes up tails, you get nothing.
286
678260
2000
אם זה פלי, אתם לא מקבלים כלום.
11:20
So it's a chance to get more, but it's pretty risky.
287
680260
3000
אז יש אפשרות להרוויח, אבל יש סיכון.
11:23
Your other option is a bit safe. Your just going to get some money for sure.
288
683260
3000
האפשרות השניה היא יותר בטוחה. אתם בטוח תקבלו כסף.
11:26
I'm just going to give you 500 bucks.
289
686260
2000
אני אתן לכם 500 דולר.
11:28
You can stick it in your wallet and use it immediately.
290
688260
3000
אתם יכולים להכניס אותם לארנק ולהשתמש בהם מיד.
11:31
So see what your intuition is here.
291
691260
2000
אז מה האינטואיציה שלכם כאן.
11:33
Most people actually go with the play-it-safe option.
292
693260
3000
רוב האנשים מעדיפים את האפשרות הבטוחה.
11:36
Most people say, why should I be risky when I can get 1,500 dollars for sure?
293
696260
3000
רוב האנשים אומרים, למה להסתכן אם אני יכול לקבל 1500 דולר בודאות?
11:39
This seems like a good bet. I'm going to go with that.
294
699260
2000
זה נשמע כמו הימור טוב.
11:41
You might say, eh, that's not really irrational.
295
701260
2000
אתם יכולים לומר שזה לא ממש אי-רציונלי.
11:43
People are a little risk-averse. So what?
296
703260
2000
אנשים הם קצת שונאי סיכון, אז מה?
11:45
Well, the "so what?" comes when start thinking
297
705260
2000
נסו לחשוב
11:47
about the same problem
298
707260
2000
על אותה הבעיה
11:49
set up just a little bit differently.
299
709260
2000
אבל מוצגת קצת שונה.
11:51
So now imagine that I give each and every one of you
300
711260
2000
דמיינו שכ"א מכם מקבל ממני
11:53
2,000 dollars -- 20 crisp hundred dollar bills.
301
713260
3000
2000 דולר, 20 שטרות חדשים של 100 דולר.
11:56
Now you can buy double to stuff you were going to get before.
302
716260
2000
עכשיו אתם יכולים לקנות פי שניים מאשר קודם.
11:58
Think about how you'd feel sticking it in your wallet.
303
718260
2000
דמיינו אתכם מכניסים את הכסף לארנק.
12:00
And now imagine that I have you make another choice
304
720260
2000
עכשיו דמיינו שיש לכם בחירה
12:02
But this time, it's a little bit worse.
305
722260
2000
אבל הפעם זה קצת יותר קשה.
12:04
Now, you're going to be deciding how you're going to lose money,
306
724260
3000
עכשיו אתם צריכים להחליט איך תפסידו את הכסף,
12:07
but you're going to get the same choice.
307
727260
2000
אבל עם אותן אפשרויות.
12:09
You can either take a risky loss --
308
729260
2000
או שתבחרו הפסד בסיכון -
12:11
so I'll flip a coin. If it comes up heads, you're going to actually lose a lot.
309
731260
3000
אז אני אזרוק מטבע, אם זה עץ תפסידו הרבה,
12:14
If it comes up tails, you lose nothing, you're fine, get to keep the whole thing --
310
734260
3000
אם זה פלי לא תפסידו כלום, תישארו עם כל הכסף.
12:17
or you could play it safe, which means you have to reach back into your wallet
311
737260
3000
או שתשחקו בזהירות, כלומר תתנו לי
12:20
and give me five of those $100 bills, for certain.
312
740260
3000
500 דולר, בוודאות.
12:23
And I'm seeing a lot of furrowed brows out there.
313
743260
3000
ואני רואה כאן גבות מורמות.
12:26
So maybe you're having the same intuitions
314
746260
2000
אז אולי יש לכם את אותן האינטואיציות
12:28
as the subjects that were actually tested in this,
315
748260
2000
של הנבדקים שנבחנו בזה באמת,
12:30
which is when presented with these options,
316
750260
2000
והן שכשמציגים להם את האופציות הללו,
12:32
people don't choose to play it safe.
317
752260
2000
אנשים לא בוחרים להיות זהירים.
12:34
They actually tend to go a little risky.
318
754260
2000
הם בוחרים לקחת קצת יותר סיכון.
12:36
The reason this is irrational is that we've given people in both situations
319
756260
3000
הסיבה לכך שזה לא רציונלי היא משום שבשני המצבים האנשים מקבלים
12:39
the same choice.
320
759260
2000
את אותה הבחירה.
12:41
It's a 50/50 shot of a thousand or 2,000,
321
761260
3000
זה סיכוי של 50/50 לקבל 1000 או 2000
12:44
or just 1,500 dollars with certainty.
322
764260
2000
או ודאות לקבל 1500.
12:46
But people's intuitions about how much risk to take
323
766260
3000
אבל האינטואיציות של אנשים לגבי רמת הסיכון שהם יקחו
12:49
varies depending on where they started with.
324
769260
2000
משתנה בהתאם למצב ההתחלתי שלהם.
12:51
So what's going on?
325
771260
2000
אז מה קורה כאן?
12:53
Well, it turns out that this seems to be the result
326
773260
2000
נראה שזו התוצאה
12:55
of at least two biases that we have at the psychological level.
327
775260
3000
של לפחות שתי הטיות ברמה הפסיכולוגית.
12:58
One is that we have a really hard time thinking in absolute terms.
328
778260
3000
הראשונה היא שקשה לנו מאוד לחשוב במושגים אבסולוטיים.
13:01
You really have to do work to figure out,
329
781260
2000
צריך לעבוד קשה כדי לחשב,
13:03
well, one option's a thousand, 2,000;
330
783260
2000
טוב, אפשרות אחת היא 1000, 2000
13:05
one is 1,500.
331
785260
2000
אחרת היא 1500.
13:07
Instead, we find it very easy to think in very relative terms
332
787260
3000
במקום זה, קל לנו מאוד לחשוב במושגים יחסיים
13:10
as options change from one time to another.
333
790260
3000
כשאפשרויות משתנות עם הזמן.
13:13
So we think of things as, "Oh, I'm going to get more," or "Oh, I'm going to get less."
334
793260
3000
אז אנחנו חושבים: "אה, אני אקבל יותר" או "אה, אני אקבל פחות."
13:16
This is all well and good, except that
335
796260
2000
זה בסדר, פרט לכך
13:18
changes in different directions
336
798260
2000
ששינויים בכיוונים שונים
13:20
actually effect whether or not we think
337
800260
2000
משפיעים על ההערכה
13:22
options are good or not.
338
802260
2000
שלנו את האפשרויות כטובות או לא.
13:24
And this leads to the second bias,
339
804260
2000
וזה מוביל להטיה השנייה,
13:26
which economists have called loss aversion.
340
806260
2000
שכלכלנים קוראים לה שנאת סיכון.
13:28
The idea is that we really hate it when things go into the red.
341
808260
3000
הרעיון הוא שאנחנו ממש שונאים להיכנס לחוב.
13:31
We really hate it when we have to lose out on some money.
342
811260
2000
אנחנו ממש שונאים להפסיד כסף.
13:33
And this means that sometimes we'll actually
343
813260
2000
וזה אומר שלפעמים אנחנו
13:35
switch our preferences to avoid this.
344
815260
2000
נשנה את ההעדפות שלנו כדי להימנע מכך.
13:37
What you saw in that last scenario is that
345
817260
2000
מה שראיתם בסצנריו האחרון הוא
13:39
subjects get risky
346
819260
2000
שנבדקים מסתכנים יותר
13:41
because they want the small shot that there won't be any loss.
347
821260
3000
כי הם רוצים סיכוי קטן שלא יהיה הפסד.
13:44
That means when we're in a risk mindset --
348
824260
2000
זה אומר שכשאנחנו בסט מחשבתי --
13:46
excuse me, when we're in a loss mindset,
349
826260
2000
כשאנחנו בסט מחשבתי של הפסד,
13:48
we actually become more risky,
350
828260
2000
אנחנו בעצם לוקחים יותר סיכונים,
13:50
which can actually be really worrying.
351
830260
2000
וזה עלול להיות ממש מדאיג.
13:52
These kinds of things play out in lots of bad ways in humans.
352
832260
3000
הדברים האלה יכולים לפעול לרעתם של בני האדם.
13:55
They're why stock investors hold onto losing stocks longer --
353
835260
3000
הם הסיבה לכך שמשקיעים בבורסה מחזיקים מניות מפסידות יותר מדי זמן -
13:58
because they're evaluating them in relative terms.
354
838260
2000
כי הם מעריכים אותם במושגים יחסיים.
14:00
They're why people in the housing market refused to sell their house --
355
840260
2000
הם הסיבה לכך שאנשים מסרבים למכור את הבית שלהם -
14:02
because they don't want to sell at a loss.
356
842260
2000
כי הם לא רוצים למכור במחיר הפסד.
14:04
The question we were interested in
357
844260
2000
השאלה שמעניינת אותנו
14:06
is whether the monkeys show the same biases.
358
846260
2000
היא אם הקופים מראים את אותן ההטיות.
14:08
If we set up those same scenarios in our little monkey market,
359
848260
3000
אם נייצר את אותם סצנריו בשוק הקופים שלנו,
14:11
would they do the same thing as people?
360
851260
2000
האם הם יפעלו כמו בני אדם?
14:13
And so this is what we did, we gave the monkeys choices
361
853260
2000
אז זה מה שעשינו, נתנו לקופים בחירות
14:15
between guys who were safe -- they did the same thing every time --
362
855260
3000
בין מוכרים שהיו בטוחים - תמיד עשו את אותו הדבר -
14:18
or guys who were risky --
363
858260
2000
לבין מוכרים שהיו עם סיכון -
14:20
they did things differently half the time.
364
860260
2000
עשו דברים שונים מחצית מהזמן.
14:22
And then we gave them options that were bonuses --
365
862260
2000
ואז נתנו להם אפשרויות בונוס -
14:24
like you guys did in the first scenario --
366
864260
2000
כמו שנתנו לכם בסצנריו הראשון -
14:26
so they actually have a chance more,
367
866260
2000
כך שיש להם יותר סיכוי,
14:28
or pieces where they were experiencing losses --
368
868260
3000
או קטעים בהם הם חווים הפסדים -
14:31
they actually thought they were going to get more than they really got.
369
871260
2000
הם חשבו שהם יקבלו יותר ממה שהם קיבלו.
14:33
And so this is what this looks like.
370
873260
2000
וכך זה נראה.
14:35
We introduced the monkeys to two new monkey salesmen.
371
875260
2000
הצגנו לקופים שלנו שני מוכרים חדשים.
14:37
The guy on the left and right both start with one piece of grape,
372
877260
2000
הבחורים משמאל ומימין מתחילים עם ענב אחד,
14:39
so it looks pretty good.
373
879260
2000
אז זה נראה טוב.
14:41
But they're going to give the monkeys bonuses.
374
881260
2000
אבל הם עומדים לתת לקופים בונוסים.
14:43
The guy on the left is a safe bonus.
375
883260
2000
הבחור משמאל הוא בונוס בטוח.
14:45
All the time, he adds one, to give the monkeys two.
376
885260
3000
הוא תמיד מוסיף אחד כך שהקוף מקבל שניים.
14:48
The guy on the right is actually a risky bonus.
377
888260
2000
הבחור מימין הוא בעצם בונוס עם סיכון.
14:50
Sometimes the monkeys get no bonus -- so this is a bonus of zero.
378
890260
3000
לפעמים הקוף לא קיבל בונוס - כלומר בונוס 0,
14:53
Sometimes the monkeys get two extra.
379
893260
3000
לפעמים הקוף קיבל 2 בונוס,
14:56
For a big bonus, now they get three.
380
896260
2000
לבונוס גדול, עכשיו הם מקבלים שלושה.
14:58
But this is the same choice you guys just faced.
381
898260
2000
אבל זו אותה בחירה שעמדה בפניכם.
15:00
Do the monkeys actually want to play it safe
382
900260
3000
האם הקופים רוצים לשחק על בטוח
15:03
and then go with the guy who's going to do the same thing on every trial,
383
903260
2000
וללכת עם הבחור שתמיד עושה אותו הדבר,
15:05
or do they want to be risky
384
905260
2000
או שהם רוצים להסתכן
15:07
and try to get a risky, but big, bonus,
385
907260
2000
ולנסות ללכת על בונוס גדול,
15:09
but risk the possibility of getting no bonus.
386
909260
2000
אך עם סיכון לא לקבל בונוס.
15:11
People here played it safe.
387
911260
2000
אנשים כאן שיחקו על בטוח.
15:13
Turns out, the monkeys play it safe too.
388
913260
2000
מתברר שגם הקופים שחקו על בטוח.
15:15
Qualitatively and quantitatively,
389
915260
2000
איכותית וכמותית,
15:17
they choose exactly the same way as people,
390
917260
2000
הם בוחרים בדיוק באותו אופן כמו בני האדם,
15:19
when tested in the same thing.
391
919260
2000
שנבדקים במצב דומה.
15:21
You might say, well, maybe the monkeys just don't like risk.
392
921260
2000
אתם יכולים לומר - אולי הקופים פשוט לא אוהבים סיכון.
15:23
Maybe we should see how they do with losses.
393
923260
2000
אולי צריך לראות איך הם מתמודדים עם הפסדים.
15:25
And so we ran a second version of this.
394
925260
2000
אז הרצנו את הגרסה השנייה של זה.
15:27
Now, the monkeys meet two guys
395
927260
2000
עכשיו הקופים פוגשים שני מוכרים
15:29
who aren't giving them bonuses;
396
929260
2000
שלא נותנים להם בונוסים,
15:31
they're actually giving them less than they expect.
397
931260
2000
הם בעצם נותנים להם פחות ממה שהם מצפים.
15:33
So they look like they're starting out with a big amount.
398
933260
2000
אז נראה שהם מתחילים עם כמות גדולה.
15:35
These are three grapes; the monkey's really psyched for this.
399
935260
2000
אלה 3 ענבים, הקופים ממש רוצים את זה.
15:37
But now they learn these guys are going to give them less than they expect.
400
937260
3000
אבל עכשיו הם לומדים שהמוכרים יתנו להם פחות ממה שהם מצפים.
15:40
They guy on the left is a safe loss.
401
940260
2000
הבחור משמאל הוא הפסד בטוח.
15:42
Every single time, he's going to take one of these away
402
942260
3000
כל פעם הוא יוריד את אחד הענבים
15:45
and give the monkeys just two.
403
945260
2000
ויתן לקופים רק שניים.
15:47
the guy on the right is the risky loss.
404
947260
2000
הבחור מימין הוא הפסד עם סיכון.
15:49
Sometimes he gives no loss, so the monkeys are really psyched,
405
949260
3000
לפעמים לא יהיה הפסד, כך שהקופים ממש מתלהבים,
15:52
but sometimes he actually gives a big loss,
406
952260
2000
אבל לפעמים יש הפסד גדול,
15:54
taking away two to give the monkeys only one.
407
954260
2000
הוא מוריד שניים ומשאיר רק אחד.
15:56
And so what do the monkeys do?
408
956260
2000
אז מה הקופים עושים?
15:58
Again, same choice; they can play it safe
409
958260
2000
שוב, אותה בחירה, הם יכולים ללכת על בטוח
16:00
for always getting two grapes every single time,
410
960260
3000
ותמיד לקבל שני ענבים,
16:03
or they can take a risky bet and choose between one and three.
411
963260
3000
או שהם יכולים להסתכן ולקבל 1 או 3.
16:06
The remarkable thing to us is that, when you give monkeys this choice,
412
966260
3000
מה שמדהים עבורנו הוא שכשנותנים לקופים לבחור,
16:09
they do the same irrational thing that people do.
413
969260
2000
הם עושים את אותה פעולה לא רציונלית שאנשים עושים.
16:11
They actually become more risky
414
971260
2000
הם לוקחים יותר סיכונים
16:13
depending on how the experimenters started.
415
973260
3000
בהתאם למצב בו החלו הנסיינים.
16:16
This is crazy because it suggests that the monkeys too
416
976260
2000
זה מטורף, כי זה רומז לכך שגם הקופים
16:18
are evaluating things in relative terms
417
978260
2000
מעריכים דברים באופן יחסי
16:20
and actually treating losses differently than they treat gains.
418
980260
3000
ובעצם מתייחסים אחרת להפסדים ולרווחים.
16:23
So what does all of this mean?
419
983260
2000
אז מה המשמעות של כל זה?
16:25
Well, what we've shown is that, first of all,
420
985260
2000
אז קודם כל, מה שהראינו
16:27
we can actually give the monkeys a financial currency,
421
987260
2000
זה שאנחנו יכולים לתת לקופים כסף,
16:29
and they do very similar things with it.
422
989260
2000
והם יעשו איתו דברים דומים לנו.
16:31
They do some of the smart things we do,
423
991260
2000
הם עושים דברים חכמים כמונו,
16:33
some of the kind of not so nice things we do,
424
993260
2000
כמה דברים לא יפים כמונו,
16:35
like steal it and so on.
425
995260
2000
כמו לגנוב ועוד.
16:37
But they also do some of the irrational things we do.
426
997260
2000
אבל הם גם עושים כמה דברים לא רציונליים כמונו.
16:39
They systematically get things wrong
427
999260
2000
באופן שיטתי הם טועים
16:41
and in the same ways that we do.
428
1001260
2000
ובאותן דרכים בה אנו טועים.
16:43
This is the first take-home message of the Talk,
429
1003260
2000
זה המסר הראשון של ההרצאה,
16:45
which is that if you saw the beginning of this and you thought,
430
1005260
2000
והוא שאם חשבתם
16:47
oh, I'm totally going to go home and hire a capuchin monkey financial adviser.
431
1007260
2000
לשכור קוף קפוצ'ין כיועץ כלכלי.
16:49
They're way cuter than the one at ... you know --
432
1009260
2000
הם הרבה יותר חמודים מהיועץ...
16:51
Don't do that; they're probably going to be just as dumb
433
1011260
2000
אל תעשו את זה. הם כנראה יהיו טפשים
16:53
as the human one you already have.
434
1013260
3000
בדיוק כמו היועץ האנושי שלכם.
16:56
So, you know, a little bad -- Sorry, sorry, sorry.
435
1016260
2000
אז - סליחה, סליחה, סליחה,
16:58
A little bad for monkey investors.
436
1018260
2000
חדשות רעות לקופים משקיעים.
17:00
But of course, you know, the reason you're laughing is bad for humans too.
437
1020260
3000
אבל כמובן, הסיבה שאתם צוחקים היא רעה גם עבור בני אדם.
17:03
Because we've answered the question we started out with.
438
1023260
3000
כי ענינו על השאלה שאיתה התחלנו.
17:06
We wanted to know where these kinds of errors came from.
439
1026260
2000
רצינו לדעת מאין מגיעות השגיאות האלה.
17:08
And we started with the hope that maybe we can
440
1028260
2000
והתחלנו עם התקווה שאולי נוכל
17:10
sort of tweak our financial institutions,
441
1030260
2000
לתקן את המוסדות הפיננסיים שלנו,
17:12
tweak our technologies to make ourselves better.
442
1032260
3000
לתקן את הטכנולוגיות כדי לשפר את עצמנו.
17:15
But what we've learn is that these biases might be a deeper part of us than that.
443
1035260
3000
אבל מה שלמדנו הוא שההטיות האלה הן אולי חלק עמוק בנו.
17:18
In fact, they might be due to the very nature
444
1038260
2000
למעשה, יתכן שהן נובעות מהטבע
17:20
of our evolutionary history.
445
1040260
2000
של ההיסטוריה האבולוציונית שלנו.
17:22
You know, maybe it's not just humans
446
1042260
2000
אתם יודעים, אולי לא רק בני האדם
17:24
at the right side of this chain that's duncey.
447
1044260
2000
בצד הימני של השרשרת הם טיפשים.
17:26
Maybe it's sort of duncey all the way back.
448
1046260
2000
אולי יש כאן טפשות לאורך כל הדרך.
17:28
And this, if we believe the capuchin monkey results,
449
1048260
3000
ואם אנחנו מקבלים את הממצאים של קופי הקפוצ'ין,
17:31
means that these duncey strategies
450
1051260
2000
זה אומר שהאסטרטגיות הטיפשות האלה
17:33
might be 35 million years old.
451
1053260
2000
הן אולי בנות 35 מיליון שנה.
17:35
That's a long time for a strategy
452
1055260
2000
זה זמן ארוך מאוד לאסטרטגיה
17:37
to potentially get changed around -- really, really old.
453
1057260
3000
כדי שניתן יהיה להפוך אותן - ממש, ממש עתיקות.
17:40
What do we know about other old strategies like this?
454
1060260
2000
מה אנחנו יודעים על אסטרטגיות עתיקות כמו אלה?
17:42
Well, one thing we know is that they tend to be really hard to overcome.
455
1062260
3000
אחד הדברים שאנחנו יודעים הוא שקשה מאוד לשנות אותן.
17:45
You know, think of our evolutionary predilection
456
1065260
2000
חשבו למשל על הנטיה האבולוציונית שלנו
17:47
for eating sweet things, fatty things like cheesecake.
457
1067260
3000
לאכול דברים מתוקים ושומניים כמו עוגת גבינה.
17:50
You can't just shut that off.
458
1070260
2000
אי אפשר לכבות את זה.
17:52
You can't just look at the dessert cart as say, "No, no, no. That looks disgusting to me."
459
1072260
3000
אי אפשר להסתכל על עגלת הקינוחים ולומר "לא, לא, לא, זה מגעיל אותי."
17:55
We're just built differently.
460
1075260
2000
אנחנו פשוט בנויים אחרת.
17:57
We're going to perceive it as a good thing to go after.
461
1077260
2000
אנחנו נראה בזה דבר טוב שצריך לשאוף אליו.
17:59
My guess is that the same thing is going to be true
462
1079260
2000
הניחוש שלי הוא שאותו הדבר קורה
18:01
when humans are perceiving
463
1081260
2000
כשאנשים תופסים
18:03
different financial decisions.
464
1083260
2000
החלטות פיננסיות שונות.
18:05
When you're watching your stocks plummet into the red,
465
1085260
2000
כשאתם רואים את המניות שלכם מתרסקות,
18:07
when you're watching your house price go down,
466
1087260
2000
כשאתם רואים את מחיר הבית שלכם נופל,
18:09
you're not going to be able to see that
467
1089260
2000
אתם לא תוכלו לראות את זה
18:11
in anything but old evolutionary terms.
468
1091260
2000
במושגים שונים מהמושגים האבולוציוניים הישנים.
18:13
This means that the biases
469
1093260
2000
זה אומר שההטיות
18:15
that lead investors to do badly,
470
1095260
2000
שהובילו את המשקיעים להיכשל,
18:17
that lead to the foreclosure crisis
471
1097260
2000
שגרמו למשבר העיקולים,
18:19
are going to be really hard to overcome.
472
1099260
2000
יהיו קשות לשינוי.
18:21
So that's the bad news. The question is: is there any good news?
473
1101260
2000
אז אלה החדשות הרעות. השאלה היא: האם יש חדשות טובות?
18:23
I'm supposed to be up here telling you the good news.
474
1103260
2000
אני אמורה לספר לכם כאן על החדשות הטובות.
18:25
Well, the good news, I think,
475
1105260
2000
אז החדשות הטובות, אני חושבת,
18:27
is what I started with at the beginning of the Talk,
476
1107260
2000
הם מה שדיברתי עליו בפתיחה,
18:29
which is that humans are not only smart;
477
1109260
2000
והוא שבני האדם לא סתם חכמים,
18:31
we're really inspirationally smart
478
1111260
2000
אנחנו חכמים באופן מעורר השראה
18:33
to the rest of the animals in the biological kingdom.
479
1113260
3000
יחסית לשאר החיות בממלכה הביולוגית.
18:36
We're so good at overcoming our biological limitations --
480
1116260
3000
אנחנו כ"כ טובים בהתגברות על המגבלות הביולוגיות שלנו -
18:39
you know, I flew over here in an airplane.
481
1119260
2000
אתם יודעים, אני הגעתי לכאן במטוס.
18:41
I didn't have to try to flap my wings.
482
1121260
2000
לא הייתי צריכה לנופף בכנפי.
18:43
I'm wearing contact lenses now so that I can see all of you.
483
1123260
3000
יש לי עדשות מגע כך שאוכל לראות אתכם.
18:46
I don't have to rely on my own near-sightedness.
484
1126260
3000
אני לא צריכה להסתמך על קוצר-הראייה שלי.
18:49
We actually have all of these cases
485
1129260
2000
יש לנו הרבה מקרים
18:51
where we overcome our biological limitations
486
1131260
3000
בהם התגברנו על המגבלות הביולוגיות שלנו
18:54
through technology and other means, seemingly pretty easily.
487
1134260
3000
באמצעות טכנולוגיה ודרכים אחרות, די בקלות.
18:57
But we have to recognize that we have those limitations.
488
1137260
3000
אבל אנחנו צריכים להכיר בכך שיש לנו את אותן מגבלות.
19:00
And here's the rub.
489
1140260
2000
והנה הבעיה.
19:02
It was Camus who once said that, "Man is the only species
490
1142260
2000
קאמי היה זה שאמר: "האדם הוא המין היחיד
19:04
who refuses to be what he really is."
491
1144260
3000
המסרב להיות מה שהוא באמת."
19:07
But the irony is that
492
1147260
2000
אבל האירוניה היא
19:09
it might only be in recognizing our limitations
493
1149260
2000
שרק באמצעות הכרה במגבלות שלנו
19:11
that we can really actually overcome them.
494
1151260
2000
אנחנו יכולים באמת להתגבר עליהן.
19:13
The hope is that you all will think about your limitations,
495
1153260
3000
התקווה היא שכל אחד מכם יחשוב על המגבלות שלו,
19:16
not necessarily as unovercomable,
496
1156260
3000
לא בהכרח כבלתי-ניתנות להתמודדות,
19:19
but to recognize them, accept them
497
1159260
2000
אבל להכיר בהם, לקבל אותן
19:21
and then use the world of design to actually figure them out.
498
1161260
3000
ואז להשתמש בעולם התכנון כדי ממש להבין אותם.
19:24
That might be the only way that we will really be able
499
1164260
3000
זו אולי הדרך היחידה בה נוכל באמת
19:27
to achieve our own human potential
500
1167260
2000
להגשים את הפוטנציאל האנושי שלנו
19:29
and really be the noble species we hope to all be.
501
1169260
3000
ולהיות אותו מין אצילי שכולנו מקווים להיות.
19:32
Thank you.
502
1172260
2000
תודה רבה.
19:34
(Applause)
503
1174260
5000
(מחיאות כפיים)
על אתר זה

אתר זה יציג בפניכם סרטוני YouTube המועילים ללימוד אנגלית. תוכלו לראות שיעורי אנגלית המועברים על ידי מורים מהשורה הראשונה מרחבי העולם. לחץ פעמיים על הכתוביות באנגלית המוצגות בכל דף וידאו כדי להפעיל את הסרטון משם. הכתוביות גוללות בסנכרון עם הפעלת הווידאו. אם יש לך הערות או בקשות, אנא צור איתנו קשר באמצעות טופס יצירת קשר זה.

https://forms.gle/WvT1wiN1qDtmnspy7