Laurie Santos: How monkeys mirror human irrationality

197,716 views ・ 2010-07-29

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: Feda Al Sanonah المدقّق: Anwar Dafa-Alla
00:17
I want to start my talk today with two observations
0
17260
2000
أريد أن ابدأ حديثي اليوم بملاحظتين
00:19
about the human species.
1
19260
2000
عن الجنس البشري.
00:21
The first observation is something that you might think is quite obvious,
2
21260
3000
الملاحظة الأولى هي شيء قد تجدوه بديهيا للغاية.
00:24
and that's that our species, Homo sapiens,
3
24260
2000
وهي أن نوعنا البيولوجي، هومو سابيانز
00:26
is actually really, really smart --
4
26260
2000
هو في الواقع جدا، جدا ذكي --
00:28
like, ridiculously smart --
5
28260
2000
ربما، على نحو خارق --
00:30
like you're all doing things
6
30260
2000
أنتم جميعا تصنعون أشياء
00:32
that no other species on the planet does right now.
7
32260
3000
لا يصنعها أي نوع آخر على الكوكب حاليا.
00:35
And this is, of course,
8
35260
2000
وهي، بالطبع،
00:37
not the first time you've probably recognized this.
9
37260
2000
ليست المرة الأولى التي عرفتم فيها هذا الشيء.
00:39
Of course, in addition to being smart, we're also an extremely vain species.
10
39260
3000
بالطبع، بالإضافة لكوننا أذكياء، نحن أيضا جنس معجب بنفسه للغاية.
00:42
So we like pointing out the fact that we're smart.
11
42260
3000
لذا نحب أن نظهر دوما حقيقة أننا أذكياء.
00:45
You know, so I could turn to pretty much any sage
12
45260
2000
ولذا بإمكاني تقريبا أن الجأ إلى أي حكيم
00:47
from Shakespeare to Stephen Colbert
13
47260
2000
بدءا من شكسبير وحتى ستيفن كولبرت
00:49
to point out things like the fact that
14
49260
2000
لأشير لأشياء مثل حقيقة أننا
00:51
we're noble in reason and infinite in faculties
15
51260
2000
طيبي النوايا وغير محدودي القدرات
00:53
and just kind of awesome-er than anything else on the planet
16
53260
2000
وأكثر إدهاشا من البقية على هذا الكوكب
00:55
when it comes to all things cerebral.
17
55260
3000
حينما نقارن كل النشاطات الدماغية.
00:58
But of course, there's a second observation about the human species
18
58260
2000
ولكن بالطبع، هناك ملاحظة ثانية عن الجنس البشري
01:00
that I want to focus on a little bit more,
19
60260
2000
أريد أن أركز عليها أكثر،
01:02
and that's the fact that
20
62260
2000
وهي حقيقة أنه
01:04
even though we're actually really smart, sometimes uniquely smart,
21
64260
3000
برغم كوننا في الواقع جدا أذكياء، فريدي الذكاء أحيانا،
01:07
we can also be incredibly, incredibly dumb
22
67260
3000
بإمكاننا أيضا أن نكون أغبياء على نحو لايصدق
01:10
when it comes to some aspects of our decision making.
23
70260
3000
عندما يتعلق الأمر ببعض نواحي صنعنا للقرارات.
01:13
Now I'm seeing lots of smirks out there.
24
73260
2000
الآن، أرى بعض الإبتسامات بدأت في الظهور.
01:15
Don't worry, I'm not going to call anyone in particular out
25
75260
2000
لا تقلقوا، لن أنادي أحدا على وجه التحديد
01:17
on any aspects of your own mistakes.
26
77260
2000
على أي جانب من أخطائكم الشخصية.
01:19
But of course, just in the last two years
27
79260
2000
ولكن بالطبع، فقط في السنتين الأخيرتين
01:21
we see these unprecedented examples of human ineptitude.
28
81260
3000
رأينا كل هذه الأمثلة الغير مسبوقة على السخف البشري.
01:24
And we've watched as the tools we uniquely make
29
84260
3000
وقد كنا نتفرج بينما الأدوات المميزة التي صنعناها
01:27
to pull the resources out of our environment
30
87260
2000
لإستخراج المصادر من بيئتنا
01:29
kind of just blow up in our face.
31
89260
2000
تنفجر ببساطة أمامنا.
01:31
We've watched the financial markets that we uniquely create --
32
91260
2000
شاهدنا الأسواق الإقتصادية التي أنشأناها بتميز --
01:33
these markets that were supposed to be foolproof --
33
93260
3000
تلك الأسواق التي كان يفترض أن تكون محصنة ضد الحماقة --
01:36
we've watched them kind of collapse before our eyes.
34
96260
2000
شاهدناها وهي تنهار أمام أعيننا.
01:38
But both of these two embarrassing examples, I think,
35
98260
2000
لكن كلا هذين المثالين المحرجين، أعتقد،
01:40
don't highlight what I think is most embarrassing
36
100260
3000
لا يمثلان ما أرى أنه الأكثر إحراجا
01:43
about the mistakes that humans make,
37
103260
2000
بخصوص الأخطاء التي يصنعها البشر،
01:45
which is that we'd like to think that the mistakes we make
38
105260
3000
وهي أننا نميل للتفكير بأن الأخطاء التي نصنعها
01:48
are really just the result of a couple bad apples
39
108260
2000
هي في الحقيقة مجرد عدة تفاحات فاسدة (الاستثناء لا الأصل)
01:50
or a couple really sort of FAIL Blog-worthy decisions.
40
110260
3000
أو عدد من القرارات الموسومة بالفشل والجديرة بإنتقادها في المدونات وحسب.
01:53
But it turns out, what social scientists are actually learning
41
113260
3000
لكنه تبين، كما يبحث العلماء الاجتماعيون
01:56
is that most of us, when put in certain contexts,
42
116260
3000
أن أغلبنا، حينما نوضع في سياقات معينة،
01:59
will actually make very specific mistakes.
43
119260
3000
سنرتكب في الواقع أخطاء محددة.
02:02
The errors we make are actually predictable.
44
122260
2000
أن الأخطاء التي نرتكبها من الممكن في الواقع التنبؤ بها.
02:04
We make them again and again.
45
124260
2000
أننا نعيد هذه الأخطاء مرارا ومرارا.
02:06
And they're actually immune to lots of evidence.
46
126260
2000
وهي في الواقع تملك مناعة ضد الكثير من البراهين.
02:08
When we get negative feedback,
47
128260
2000
عندما نحصل على تعقيب سلبي،
02:10
we still, the next time we're face with a certain context,
48
130260
3000
فإننا نظل، في المرة القادمة التي نواجه فيها بسياق معين،
02:13
tend to make the same errors.
49
133260
2000
نميل لصنع نفس الأخطاء
02:15
And so this has been a real puzzle to me
50
135260
2000
وهذا الأمر كان أشبه بالمعضلة الحقيقية بالنسبة لي
02:17
as a sort of scholar of human nature.
51
137260
2000
كوني باحثة في الطبيعة البشرية.
02:19
What I'm most curious about is,
52
139260
2000
أكثر ما يثير فضولي هو،
02:21
how is a species that's as smart as we are
53
141260
3000
كيف لجنس من الذكاء الذي نحن عليه
02:24
capable of such bad
54
144260
2000
أن يكون قادرا على ارتكاب مثل هذه الأخطاء
02:26
and such consistent errors all the time?
55
146260
2000
السيئة والمتوالية طول الوقت؟
02:28
You know, we're the smartest thing out there, why can't we figure this out?
56
148260
3000
تعلمون، نحن أذكى المخلوقات، كيف لم يتسنى لنا معرفة الحل؟
02:31
In some sense, where do our mistakes really come from?
57
151260
3000
وبصيغة أخرى، من أين تأتي أخطاؤنا فعليا؟
02:34
And having thought about this a little bit, I see a couple different possibilities.
58
154260
3000
بالتفكير في هذا لبعض الوقت، أرى عددا من الاحتمالات المختلفة.
02:37
One possibility is, in some sense, it's not really our fault.
59
157260
3000
ثمة احتمال أنه، بشكل ما، ليس فعلا خطئونا.
02:40
Because we're a smart species,
60
160260
2000
لأننا جنس ذكي
02:42
we can actually create all kinds of environments
61
162260
2000
بإمكاننا في الواقع صنع البيئات المختلفة
02:44
that are super, super complicated,
62
164260
2000
والتي هي جدا جدا معقدة،
02:46
sometimes too complicated for us to even actually understand,
63
166260
3000
أحيانا معقدة لدرجة نعجز حتى عن فهمها،
02:49
even though we've actually created them.
64
169260
2000
حتى مع كوننا نحن الذين صنعناها.
02:51
We create financial markets that are super complex.
65
171260
2000
لقد أنشأنا أسواقا اقتصادية في غاية التعقيد.
02:53
We create mortgage terms that we can't actually deal with.
66
173260
3000
صنعنا شروطا لرهن العقار لايمكننا في الواقع التعامل معها.
02:56
And of course, if we are put in environments where we can't deal with it,
67
176260
3000
وبالطبع، حينما نجد أنفسنا في بيئات لا يمكننا التعامل معها،
02:59
in some sense makes sense that we actually
68
179260
2000
سيكون من المنطقي بشكل ما أننا
03:01
might mess certain things up.
69
181260
2000
قد نفسد بعض الأوضاع فيها.
03:03
If this was the case, we'd have a really easy solution
70
183260
2000
لو كان هذا هو الوضع، سيكون لدينا حل سهل جدا
03:05
to the problem of human error.
71
185260
2000
لمشكلة الخطأ البشري.
03:07
We'd actually just say, okay, let's figure out
72
187260
2000
كنا في الواقع سنقول، حسنا دعنا نحدد
03:09
the kinds of technologies we can't deal with,
73
189260
2000
كل أنواع التقنيات التي لا يمكننا التعامل معها،
03:11
the kinds of environments that are bad --
74
191260
2000
كل البيئات المدمرة --
03:13
get rid of those, design things better,
75
193260
2000
نتخلص من كل هذا، ونصمم الأشياء مجددا بشكل أفضل،
03:15
and we should be the noble species
76
195260
2000
وبهذا نكون الجنس النبيل
03:17
that we expect ourselves to be.
77
197260
2000
الذي نتوقع من أنفسنا أن نكونه.
03:19
But there's another possibility that I find a little bit more worrying,
78
199260
3000
ولكن هناك احتمال آخر أجده نوعا ما مقلق،
03:22
which is, maybe it's not our environments that are messed up.
79
202260
3000
وهو، ربما ليست البيئات المحيطة بنا هي التي تعمها الفوضى.
03:25
Maybe it's actually us that's designed badly.
80
205260
3000
ربما في الواقع نحن المصممون بشكل سيء.
03:28
This is a hint that I've gotten
81
208260
2000
وهذه الفكرة استوحيتها
03:30
from watching the ways that social scientists have learned about human errors.
82
210260
3000
من مراقبة الطرق التي لاحظها العلماء الاجتماعيون أثناء دراستهم الأخطاء البشرية.
03:33
And what we see is that people tend to keep making errors
83
213260
3000
وما نراه هو ميل البشر لمتابعة ارتكاب الأخطاء
03:36
exactly the same way, over and over again.
84
216260
3000
تماما بنفس الطريقة مرارا وتكرارا.
03:39
It feels like we might almost just be built
85
219260
2000
ويبدو الأمر كما لو أننا مصممين
03:41
to make errors in certain ways.
86
221260
2000
لنرتكب الأخطاء بطرق معينة.
03:43
This is a possibility that I worry a little bit more about,
87
223260
3000
هذا احتمال أشعر بالقلق نوعا ما حياله،
03:46
because, if it's us that's messed up,
88
226260
2000
لأنه، لو كنا نحن ذوي التركيبة الخطأ،
03:48
it's not actually clear how we go about dealing with it.
89
228260
2000
فلن يكون في الواقع واضح كيف لنا أن نتعامل مع هذا.
03:50
We might just have to accept the fact that we're error prone
90
230260
3000
سيكون ربما من الأفضل لنا لو تقبلنا حقيقة أننا معرضون للخطأ
03:53
and try to design things around it.
91
233260
2000
ونحاول الالتفاف على هذا العيب حينما نتعامل مع الأمور.
03:55
So this is the question my students and I wanted to get at.
92
235260
3000
إذن كان هذا هو السؤال الذي أردت أنا وطلابي أن نجيبه.
03:58
How can we tell the difference between possibility one and possibility two?
93
238260
3000
كيف يمكننا أن نميز الفرق بين الاحتمال الأول والثاني؟
04:01
What we need is a population
94
241260
2000
ما نحتاجه هو مجموعة
04:03
that's basically smart, can make lots of decisions,
95
243260
2000
ذكية بشكل أساسي، تستطيع اتخاذ الكثير من القرارات،
04:05
but doesn't have access to any of the systems we have,
96
245260
2000
ولكنها لاتملك القدرة لتصل لأي من الأنظمة التي عندنا،
04:07
any of the things that might mess us up --
97
247260
2000
ولا أي من الأشياء التي قد تتسبب بتوليد العبث --
04:09
no human technology, human culture,
98
249260
2000
لا التقنية البشرية، الحضارة البشرية،
04:11
maybe even not human language.
99
251260
2000
وربما حتى لاتملك الوصول للغة البشرية.
04:13
And so this is why we turned to these guys here.
100
253260
2000
ولأجل هذا التجأنا لهؤلاء الأشخاص هنا.
04:15
These are one of the guys I work with. This is a brown capuchin monkey.
101
255260
3000
هذا هو أحد الذين عملت معهم. هذا قرد كابوتشين بني اللون.
04:18
These guys are New World primates,
102
258260
2000
هؤلاء هم الحيوانات العليا في العالم الجديد،
04:20
which means they broke off from the human branch
103
260260
2000
مما يعني أنهم انفصلوا عن الفرع البشري (التطور والارتقاء)
04:22
about 35 million years ago.
104
262260
2000
منذ حوالي الخمسة وثلاثين مليون سنة.
04:24
This means that your great, great, great great, great, great --
105
264260
2000
مما يعني أن جد، جد، جد، جد، جد، جد --
04:26
with about five million "greats" in there --
106
266260
2000
تقريبا خمسة ملايين من أجداد الأجداد هنا --
04:28
grandmother was probably the same great, great, great, great
107
268260
2000
جدتك كان على الأغلب نفسه
04:30
grandmother with five million "greats" in there
108
270260
2000
بوضع خمسة ملايين جد في سلسة النسب
04:32
as Holly up here.
109
272260
2000
الجد الأكبر لـ "هولي" التي تبدو هنا.
04:34
You know, so you can take comfort in the fact that this guy up here is a really really distant,
110
274260
3000
تعلمون، بامكاننا أن نجد بعض العزاء في حقيقة أن هذا القرد جدا بعيد عنا بالنسب،
04:37
but albeit evolutionary, relative.
111
277260
2000
ولكن تعلمون يظل هذا التطور، نسبي.
04:39
The good news about Holly though is that
112
279260
2000
الخبر الجيد بخصوص هولي هو
04:41
she doesn't actually have the same kinds of technologies we do.
113
281260
3000
أنها لا تملك في الواقع نفس التقنيات التي نملك.
04:44
You know, she's a smart, very cut creature, a primate as well,
114
284260
3000
تعلمون هي مخلوق ذكي، ونبيه، وإحدى الحيوانات العليا مثلنا تماما،
04:47
but she lacks all the stuff we think might be messing us up.
115
287260
2000
لكنها تفتقد كل الأشياء التي نعتقد أنها ساهمت في تضليلنا.
04:49
So she's the perfect test case.
116
289260
2000
إذن هي الحالة المناسبة للدراسة والإختبار.
04:51
What if we put Holly into the same context as humans?
117
291260
3000
ماذا لو وضعنا هولي في نفس السياق كما البشر؟
04:54
Does she make the same mistakes as us?
118
294260
2000
هل سترتكب نفس الأخطاء كما نفعل؟
04:56
Does she not learn from them? And so on.
119
296260
2000
هل تفشل في التعلم من أخطائها؟ وهكذا.
04:58
And so this is the kind of thing we decided to do.
120
298260
2000
إذن كان هذا هو نوع الدراسة الذي قررنا أن نقوم به.
05:00
My students and I got very excited about this a few years ago.
121
300260
2000
طلابي وأنا شعرنا بالكثير من الحماس حيال التجربة بضع سنوات مضت.
05:02
We said, all right, let's, you know, throw so problems at Holly,
122
302260
2000
قلنا، حسنا، دعنا نلقي ببعض المشاكل على هولي،
05:04
see if she messes these things up.
123
304260
2000
ونرى ما إذا كانت ستخطيء وتخرب الأشياء.
05:06
First problem is just, well, where should we start?
124
306260
3000
المشكلة الأول كانت، ولكن من أين نبدأ؟
05:09
Because, you know, it's great for us, but bad for humans.
125
309260
2000
لأنه تعلمون، كان جيدا بالنسبة لنا وسيء بالنسبة للبشر.
05:11
We make a lot of mistakes in a lot of different contexts.
126
311260
2000
نحن البشر نرتكب الكثير من الأخطاء في العديد من السياقات المختلفة.
05:13
You know, where are we actually going to start with this?
127
313260
2000
فإذن من أين في الواقع يمكننا البدء؟
05:15
And because we started this work around the time of the financial collapse,
128
315260
3000
ولأننا بدأنا هذا البحث أثناء وقت الإنهيار الاقتصادي،
05:18
around the time when foreclosures were hitting the news,
129
318260
2000
تقريبا الوقت الذي كانت أزمة الرهن العقاري فيه تتصدر الأخبار،
05:20
we said, hhmm, maybe we should
130
320260
2000
قلنا، هممم، ربما ينبغي علينا
05:22
actually start in the financial domain.
131
322260
2000
أن نبدأ فعلا في المجال الاقتصادي.
05:24
Maybe we should look at monkey's economic decisions
132
324260
3000
ربما يجب أن نبحث قرارات القرود الإقتصادية
05:27
and try to see if they do the same kinds of dumb things that we do.
133
327260
3000
ونحاول أن نرى ما إذا كانوا يصنعوا نفس الأشياء الغبية التي نصنعها.
05:30
Of course, that's when we hit a sort second problem --
134
330260
2000
وهنا بالطبع، ظهرت مشكلة أخرى --
05:32
a little bit more methodological --
135
332260
2000
تتعلق بطريقة البحث أكثر من أي شيء آخر --
05:34
which is that, maybe you guys don't know,
136
334260
2000
وهي، ربما لاتعلمون،
05:36
but monkeys don't actually use money. I know, you haven't met them.
137
336260
3000
ولكن القرود في الواقع لاتستخدم النقود. أعلم أنكم لم تقابلوهم.
05:39
But this is why, you know, they're not in the queue behind you
138
339260
2000
ولكن هذا هو السبب الذي لأجله لاتجدونهم خلفكم في الطوابير
05:41
at the grocery store or the ATM -- you know, they don't do this stuff.
139
341260
3000
في البقالة أو الصراف الآلي -- هم لايفعلون هذا النوع من الأمور.
05:44
So now we faced, you know, a little bit of a problem here.
140
344260
3000
إذن واجهتنا نوعا ما مشكلة هنا.
05:47
How are we actually going to ask monkeys about money
141
347260
2000
كيف يمكننا أن نسأل القرود عن النقود
05:49
if they don't actually use it?
142
349260
2000
بينما هم في الواقع لايستخدموها؟
05:51
So we said, well, maybe we should just, actually just suck it up
143
351260
2000
بالنهاية قلنا، حسنا، ربما علينا وحسب أن نواجه الأمر كما هو
05:53
and teach monkeys how to use money.
144
353260
2000
ونعلم القرود كيف تستخدم النقود.
05:55
So that's just what we did.
145
355260
2000
وهذا كان بالضبط مافعلناه.
05:57
What you're looking at over here is actually the first unit that I know of
146
357260
3000
ما تنظرون له هنا هو في الواقع حد علمي، أول وحدة
06:00
of non-human currency.
147
360260
2000
من عملة غير بشرية.
06:02
We weren't very creative at the time we started these studies,
148
362260
2000
لم نكن مبدعين جدا وقت بدءنا هذه التجارب،
06:04
so we just called it a token.
149
364260
2000
لهذا سميناها العملة الرمزية وحسب.
06:06
But this is the unit of currency that we've taught our monkeys at Yale
150
366260
3000
ولكنها كانت وحدة العملة التي علمنا قرود الأبحاث في جامعة يال
06:09
to actually use with humans,
151
369260
2000
أن يستخدموها مع البشر،
06:11
to actually buy different pieces of food.
152
371260
3000
ليشتروا فعلا الأنواع المختلفة من الطعام.
06:14
It doesn't look like much -- in fact, it isn't like much.
153
374260
2000
لاتبدو شبيهة كثيرا -- في الواقع، لاتبدو شبيهة على الإطلاق.
06:16
Like most of our money, it's just a piece of metal.
154
376260
2000
بأغلب النقود الخاصة بنا، كانت فقط قطعة من المعدن.
06:18
As those of you who've taken currencies home from your trip know,
155
378260
3000
وكما بعضكم يحتفظ بالعملات حينما يقوموا برحلة،
06:21
once you get home, it's actually pretty useless.
156
381260
2000
بمجرد عودتك للوطن، تكون هذه العملات تقريبا بلا فائدة.
06:23
It was useless to the monkeys at first
157
383260
2000
وهي كانت بلا فائدة للقرود في البداية
06:25
before they realized what they could do with it.
158
385260
2000
قبل أن يدركوا ما الذي يمكنهم أن يصنعوا بها.
06:27
When we first gave it to them in their enclosures,
159
387260
2000
عندما أعطيناهم إياها وهم في أقفاصهم،
06:29
they actually kind of picked them up, looked at them.
160
389260
2000
هم نوعا ما إلتقطوها، نظروا إليها.
06:31
They were these kind of weird things.
161
391260
2000
كونها إحدى الأشياء الغريبة لهم.
06:33
But very quickly, the monkeys realized
162
393260
2000
لكن سرعان ما أدركت القردة
06:35
that they could actually hand these tokens over
163
395260
2000
أن بإمكانهم مناولة هذه القطع
06:37
to different humans in the lab for some food.
164
397260
3000
لمختلف الأشخاص في المختبر نظير بعض الطعام.
06:40
And so you see one of our monkeys, Mayday, up here doing this.
165
400260
2000
وإذن أخذنا نرى أحد القرود، ماندي، هنا يفعل هذا
06:42
This is A and B are kind of the points where she's sort of a little bit
166
402260
3000
هذه أ و ب وهي النقاط التي عندها، نوعا ما
06:45
curious about these things -- doesn't know.
167
405260
2000
تبدأ بالشعور بالفضول حيال العملة -- لا تعرف تماما.
06:47
There's this waiting hand from a human experimenter,
168
407260
2000
هناك اليد المنتظرة للشخص الذي يجري التجربة،
06:49
and Mayday quickly figures out, apparently the human wants this.
169
409260
3000
وماندي سريعا تعرف، على مايبدو أن الإنسان يريد القطعة.
06:52
Hands it over, and then gets some food.
170
412260
2000
تعطيها إياه، ومن ثم تحصل على بعض الطعام.
06:54
It turns out not just Mayday, all of our monkeys get good
171
414260
2000
لقد تبين أنه ليس فقط ماندي، وإنما كل القردة تصبح جيدة
06:56
at trading tokens with human salesman.
172
416260
2000
في مقايضة القطع مع رجل المبيعات البشري.
06:58
So here's just a quick video of what this looks like.
173
418260
2000
وإذن هذا تسجيل فيديو سريع لما يبدو عليه الأمر.
07:00
Here's Mayday. She's going to be trading a token for some food
174
420260
3000
هذه هي ماندي. ستقوم بمقايضة القطعة ببعض الطعام
07:03
and waiting happily and getting her food.
175
423260
3000
بينما تنتظر سعيدة لتحصل على طعامها.
07:06
Here's Felix, I think. He's our alpha male; he's a kind of big guy.
176
426260
2000
هذا هو فليكس، هو المتسلط ضمن المجموعة; هو نوعا ما الأضخم.
07:08
But he too waits patiently, gets his food and goes on.
177
428260
3000
ولكنه أيضا ينتظر بصبر، يحصل على طعامه ويمضي.
07:11
So the monkeys get really good at this.
178
431260
2000
إذن القردة تصبح فعلا جيدة في فعل هذا.
07:13
They're surprisingly good at this with very little training.
179
433260
3000
وكان من المفاجيء أنهم كانوا جيدين بالقليل من التدريب.
07:16
We just allowed them to pick this up on their own.
180
436260
2000
إذ أننا تركناهم يتوصلون لمعرفة الطريقة الأمثل بأنفسهم.
07:18
The question is: is this anything like human money?
181
438260
2000
السؤال هو: هل يشبه هذا النقود البشرية؟
07:20
Is this a market at all,
182
440260
2000
هل يعتبر هذا سوقا أصلا،
07:22
or did we just do a weird psychologist's trick
183
442260
2000
أم أننا قمنا بإحدى الخدع النفسية الغريبة وحسب
07:24
by getting monkeys to do something,
184
444260
2000
بإقناع القردة للقيام بشيء،
07:26
looking smart, but not really being smart.
185
446260
2000
يبدو ذكيا، دون أن يكونوا هم في الواقع أذكياء.
07:28
And so we said, well, what would the monkeys spontaneously do
186
448260
3000
ولهذا قلنا، حسنا ماذا كانت القردة بطبيعتها لتصنع
07:31
if this was really their currency, if they were really using it like money?
187
451260
3000
لو كانت فعلا هذه هي عملتهم، لو كانوا فعلا يستخدمونها كنقد؟
07:34
Well, you might actually imagine them
188
454260
2000
حسنا، بإمكانكم فعلا تخيلهم
07:36
to do all the kinds of smart things
189
456260
2000
يقومون بكل الأشياء الذكية
07:38
that humans do when they start exchanging money with each other.
190
458260
3000
التي نقوم بها نحن البشر عندما يبدؤون في تبادل النقود مابينهم.
07:41
You might have them start paying attention to price,
191
461260
3000
ربما بدأتم في بذل انتباهكم للسعر،
07:44
paying attention to how much they buy --
192
464260
2000
وكم هو المقدار الذي يشتروه --
07:46
sort of keeping track of their monkey token, as it were.
193
466260
3000
نوعا ما نقتفي قيمة عملة القرود الرمزية، كما لو كانت موجودة.
07:49
Do the monkeys do anything like this?
194
469260
2000
هل تقوم القردة بأي من هذا؟
07:51
And so our monkey marketplace was born.
195
471260
3000
ولذا سوق القردة كان قد أنشيء.
07:54
The way this works is that
196
474260
2000
والطريقة التي كان يعمل بها هي
07:56
our monkeys normally live in a kind of big zoo social enclosure.
197
476260
3000
كانت بينما القردة تعيش في قفص اجتماعي أشبه بحديقة الحيوان الكبيرة.
07:59
When they get a hankering for some treats,
198
479260
2000
عندما كانوا يتوقون لبعض الأطعمة اللذيذة،
08:01
we actually allowed them a way out
199
481260
2000
كنا سمحنا لهم باستخدام مخرج
08:03
into a little smaller enclosure where they could enter the market.
200
483260
2000
يأخذهم إلى قفص أصغر حيث بإمكانهم أن يدخلوا السوق.
08:05
Upon entering the market --
201
485260
2000
حال دخولهم السوق --
08:07
it was actually a much more fun market for the monkeys than most human markets
202
487260
2000
كان في الواقع أكثر متعة للقردة مقارنة بمعظم الأسواق البشرية
08:09
because, as the monkeys entered the door of the market,
203
489260
3000
لأن، بدخول القردة من باب السوق،
08:12
a human would give them a big wallet full of tokens
204
492260
2000
سيعطيهم شخص محفظة كبيرة مملؤة بقطع النقد الرمزية.
08:14
so they could actually trade the tokens
205
494260
2000
لأجل أن يقايضوا هذه القطع
08:16
with one of these two guys here --
206
496260
2000
مع أحد هذين الشخصين هنا --
08:18
two different possible human salesmen
207
498260
2000
رجلي مبيعات مختلفين
08:20
that they could actually buy stuff from.
208
500260
2000
يمكن للقردة فعلا شراء السلع منهما.
08:22
The salesmen were students from my lab.
209
502260
2000
رجال المبيعات كانوا طلبة من مختبري.
08:24
They dressed differently; they were different people.
210
504260
2000
كانوا يلبسون بشكل مختلفين وكانوا أشخاصا مختلفين.
08:26
And over time, they did basically the same thing
211
506260
3000
وعلى مدى الوقت، كانوا بشكل أساسي يفعلون الشيء نفسه
08:29
so the monkeys could learn, you know,
212
509260
2000
لأجل أن تتعلم القردة، كما يمكنكم التخمين،
08:31
who sold what at what price -- you know, who was reliable, who wasn't, and so on.
213
511260
3000
من يبيع ماذا وبأي سعر -- وأيضا، من يعتمد عليه ومن لايمكن الإعتماد عليه وهكذا.
08:34
And you can see that each of the experimenters
214
514260
2000
وبإمكانكم أن تروا أن كل من الشخصين
08:36
is actually holding up a little, yellow food dish.
215
516260
3000
يحمل طبقا أصفر، صغير يحتوي على الطعام.
08:39
and that's what the monkey can for a single token.
216
519260
2000
وهذا هو مايحصل عليه القرد نظير قطعة عملة واحدة.
08:41
So everything costs one token,
217
521260
2000
إذن كل شيء بسعر قطعة واحدة،
08:43
but as you can see, sometimes tokens buy more than others,
218
523260
2000
ولكن وكما ترون، أحيانا القطعة تستطيع أن تشتري أكثر،
08:45
sometimes more grapes than others.
219
525260
2000
أحيانا عدد أكبر من حبات العنب مقارنة بالبقية.
08:47
So I'll show you a quick video of what this marketplace actually looks like.
220
527260
3000
سأريكم تسجيل فيديو مختصر لما يبدو عليه هذا السوق.
08:50
Here's a monkey-eye-view. Monkeys are shorter, so it's a little short.
221
530260
3000
هذا هو مستوى الرؤية عند القردة. القردة قصيرة، لذا يبدو المستوى أقصر قليلا.
08:53
But here's Honey.
222
533260
2000
ولكن هنا "هني".
08:55
She's waiting for the market to open a little impatiently.
223
535260
2000
هي تنتظر أن يفتح السوق بانعدام صبر.
08:57
All of a sudden the market opens. Here's her choice: one grapes or two grapes.
224
537260
3000
فجأة يفتح السوق. هنا عليها أن تختار: حبة أم حبتان من العنب.
09:00
You can see Honey, very good market economist,
225
540260
2000
بإمكانكم رؤية هني، جدا اقتصادية.
09:02
goes with the guy who gives more.
226
542260
3000
تذهب للشخص الذي يعطي أكثر.
09:05
She could teach our financial advisers a few things or two.
227
545260
2000
هي تستطيع تعليم خبراءنا الاقتصاديين شيئا أو اثنين.
09:07
So not just Honey,
228
547260
2000
ولكن ليس فقط هني،
09:09
most of the monkeys went with guys who had more.
229
549260
3000
معظم القرود ذهبت للأشخاص الذين يمنحوهم أكثر.
09:12
Most of the monkeys went with guys who had better food.
230
552260
2000
ومعظم القردة ذهبت للأشخاص الذين يقدمون نوعية أفضل من الطعام.
09:14
When we introduced sales, we saw the monkeys paid attention to that.
231
554260
3000
عندما قدمنا مفهوم المبيعات، رأينا أن القردة تمنحه انتباهها.
09:17
They really cared about their monkey token dollar.
232
557260
3000
لقد كانوا فعلا حريصين على دولارهم الرمزي.
09:20
The more surprising thing was that when we collaborated with economists
233
560260
3000
ماكان مفاجئا أكثر هو أننا تعاونّا مع اقتصاديين
09:23
to actually look at the monkeys' data using economic tools,
234
563260
3000
ليفحصوا سلوك القردة باستخدام الأدوات الاقتصادية،
09:26
they basically matched, not just qualitatively,
235
566260
3000
وهي بشكل مبدئي طابقت، ليس فقط نوعيا،
09:29
but quantitatively with what we saw
236
569260
2000
وإنما احصائيا مع ما نرى
09:31
humans doing in a real market.
237
571260
2000
البشر يفعلوه في الأسواق الحقيقية.
09:33
So much so that, if you saw the monkeys' numbers,
238
573260
2000
بدرجة كبيرة، لو أنكم رأيتم احصاءات تسوق القردة،
09:35
you couldn't tell whether they came from a monkey or a human in the same market.
239
575260
3000
لما أمكنكم تمييز ما إذا كانت أتت من قرد أو إنسان يتسوق في السوق نفسه.
09:38
And what we'd really thought we'd done
240
578260
2000
ومانعتقد أننا فعلا صنعناه
09:40
is like we'd actually introduced something
241
580260
2000
أننا قدمنا شيء يعمل
09:42
that, at least for the monkeys and us,
242
582260
2000
على الأقل للقردة ولنا،
09:44
works like a real financial currency.
243
584260
2000
يعمل تماما كعملة اقتصادية حقيقة.
09:46
Question is: do the monkeys start messing up in the same ways we do?
244
586260
3000
السؤال هو هل تأخذ القردة في ارتكاب الأخطاء بنفس طرقنا؟
09:49
Well, we already saw anecdotally a couple of signs that they might.
245
589260
3000
حسنا، كنا بالفعل رأينا عشوائيا عدة مؤشرات على أنهم قد يكونوا كذلك.
09:52
One thing we never saw in the monkey marketplace
246
592260
2000
شيء لم نراه أبدا في السوق الخاص بالقردة
09:54
was any evidence of saving --
247
594260
2000
هو أي دليل على قيامهم بالادخار --
09:56
you know, just like our own species.
248
596260
2000
تعلمون، تماما كجنسنا.
09:58
The monkeys entered the market, spent their entire budget
249
598260
2000
دخلت القردة السوق، أنفقت ميزانيتها كاملة
10:00
and then went back to everyone else.
250
600260
2000
وبعدها عادت للبقية في القفص.
10:02
The other thing we also spontaneously saw,
251
602260
2000
الأمر الآخر الذي لاحظناه بشكل عفوي،
10:04
embarrassingly enough,
252
604260
2000
وبشكل محرج تماما،
10:06
is spontaneous evidence of larceny.
253
606260
2000
هو دليل عفوي على الاختلاس.
10:08
The monkeys would rip-off the tokens at every available opportunity --
254
608260
3000
القردة ستقوم بسرقة القطع عند أي فرصة سانحة --
10:11
from each other, often from us --
255
611260
2000
تسرقها من بعضها البعض، وأحيانا عديدة منّا --
10:13
you know, things we didn't necessarily think we were introducing,
256
613260
2000
تعلمون، كانت هذه الأشياء التي لم نكن نعتقد أننا قدمنها بالضرورة للقردة،
10:15
but things we spontaneously saw.
257
615260
2000
ولكنها الأشياء التي رأيناها تحدث عفويا.
10:17
So we said, this looks bad.
258
617260
2000
وإذن قلنا، هذا يبدو سيئا.
10:19
Can we actually see if the monkeys
259
619260
2000
هل بإمكاننا فعليا أن نرى ما إذا كانت القردة
10:21
are doing exactly the same dumb things as humans do?
260
621260
3000
تقوم بالضبط بنفس الأشياء الغبية التي يقوم بها البشر؟
10:24
One possibility is just kind of let
261
624260
2000
أحد الاحتمالات هو تقريبا أن ندع
10:26
the monkey financial system play out,
262
626260
2000
نظام القردة المالي يستمر،
10:28
you know, see if they start calling us for bailouts in a few years.
263
628260
2000
لنرى ما إذا كانوا سيبدأوا في المطالبة بخطط إنقاذ بعد عدة سنوات.
10:30
We were a little impatient so we wanted
264
630260
2000
لكننا كنا عديمي الصبر لذا أردنا
10:32
to sort of speed things up a bit.
265
632260
2000
أن نسرع الأمور قليلا.
10:34
So we said, let's actually give the monkeys
266
634260
2000
وإذن قلنا، دعنا نعطي القردة
10:36
the same kinds of problems
267
636260
2000
نفس نوعية المشاكل
10:38
that humans tend to get wrong
268
638260
2000
التي نميل نحن البشر لحلها بشكل خاطيء
10:40
in certain kinds of economic challenges,
269
640260
2000
في بعض نوعيات التحديات الاقتصادية،
10:42
or certain kinds of economic experiments.
270
642260
2000
أو بعض أنواع التجارب الاقتصادية.
10:44
And so, since the best way to see how people go wrong
271
644260
3000
ولأن أفضل طريقة لرؤية الناس وهم يخطئون
10:47
is to actually do it yourself,
272
647260
2000
هو أن تخطيء بحد ذاتك،
10:49
I'm going to give you guys a quick experiment
273
649260
2000
سأقوم بإعطائكم تجربة سريعة
10:51
to sort of watch your own financial intuitions in action.
274
651260
2000
ليمكنكم ملاحظة حدسكم المالي تحت التطبيق.
10:53
So imagine that right now
275
653260
2000
لذا تخيلوا أني الآن
10:55
I handed each and every one of you
276
655260
2000
أعطيت كل واحد منكم
10:57
a thousand U.S. dollars -- so 10 crisp hundred dollar bills.
277
657260
3000
ألف دولار -- إذن عشر ورقات جديدة من فئة المئة دولار.
11:00
Take these, put it in your wallet
278
660260
2000
خذوها، ضعوها في محفظتكم
11:02
and spend a second thinking about what you're going to do with it.
279
662260
2000
وفكروا لثوان فيما ستفعلوا بها.
11:04
Because it's yours now; you can buy whatever you want.
280
664260
2000
ولأنها نقودكم الآن; بإمكانكم شراء كل ماترغبون بها.
11:06
Donate it, take it, and so on.
281
666260
2000
تبرعوا بها، احتفظوا بها، الخ.
11:08
Sounds great, but you get one more choice to earn a little bit more money.
282
668260
3000
يبدو الأمر رائعا، لكن لديكم خيار إضافي لتكسبوا مزيدا من النقود.
11:11
And here's your choice: you can either be risky,
283
671260
3000
وإليكم الخيار: بإمكانكم أن تكونوا مغامرين،
11:14
in which case I'm going to flip one of these monkey tokens.
284
674260
2000
وفي هذه الحالة، سأقوم برمي إحدى هذه القطع الرمزية.
11:16
If it comes up heads, you're going to get a thousand dollars more.
285
676260
2000
إذا أتت على جهة الرأس (الوجه)، ستحصلون على ألف دولار إضافية.
11:18
If it comes up tails, you get nothing.
286
678260
2000
وإذا أتت على الذنب (الكتابة)، لاتحصلون على شيء.
11:20
So it's a chance to get more, but it's pretty risky.
287
680260
3000
إذن هي فرصة للحصول على المزيد، ولكنها نوعا ما غير مأمونة.
11:23
Your other option is a bit safe. Your just going to get some money for sure.
288
683260
3000
الخيار الآخر هو أكثر أمنا. ستحصلون على بعض النقود بكل تأكيد.
11:26
I'm just going to give you 500 bucks.
289
686260
2000
ولكني سأمنحكم فقط 500 دولار.
11:28
You can stick it in your wallet and use it immediately.
290
688260
3000
بإمكانكم أن تضعوها في محفظتكم وتستخدموها على الفور.
11:31
So see what your intuition is here.
291
691260
2000
انظروا ماهو حدسكم هنا.
11:33
Most people actually go with the play-it-safe option.
292
693260
3000
أغلب الناس يأخذون الخيار الآمن.
11:36
Most people say, why should I be risky when I can get 1,500 dollars for sure?
293
696260
3000
أغلب الناس يقولون، لما عليّ أن أكون مغامرا عندما يمكنني الحصول على 1500 بشكل أكيد؟
11:39
This seems like a good bet. I'm going to go with that.
294
699260
2000
يبدو هذا رهانا جيد. سأختاره.
11:41
You might say, eh, that's not really irrational.
295
701260
2000
قد تقولوا، ليس هذا منطقيا.
11:43
People are a little risk-averse. So what?
296
703260
2000
الناس يفضلون تفادي المخاطر بطبيعتهم. ما العيب في هذا؟
11:45
Well, the "so what?" comes when start thinking
297
705260
2000
حسنا، هذا السوأل ظهر عندما بدأنا بالتفكير
11:47
about the same problem
298
707260
2000
بالمعضلة نفسها
11:49
set up just a little bit differently.
299
709260
2000
عندما توضع بشكل مختلف قليلا.
11:51
So now imagine that I give each and every one of you
300
711260
2000
الآن تخيلوا أني سأمنح كل واحد منكم
11:53
2,000 dollars -- 20 crisp hundred dollar bills.
301
713260
3000
2,000 دولار -- 20 ورقة جديدة من فئة المئة دولار.
11:56
Now you can buy double to stuff you were going to get before.
302
716260
2000
بإمكانكم الآن شراء ضعف ما أردتم شراؤه من قبل.
11:58
Think about how you'd feel sticking it in your wallet.
303
718260
2000
فكروا في الإحساس وأنتم تضعوها في محفظتكم.
12:00
And now imagine that I have you make another choice
304
720260
2000
والآن تخيلوا أني سأجعلكم تأخذون خيارا آخر
12:02
But this time, it's a little bit worse.
305
722260
2000
ولكن هذه المرة، نوعا ما اسوأ.
12:04
Now, you're going to be deciding how you're going to lose money,
306
724260
3000
الآن، ستقررون كيف ستخسرون النقود،
12:07
but you're going to get the same choice.
307
727260
2000
ولكنكم ستحصلون على نفس الخيار.
12:09
You can either take a risky loss --
308
729260
2000
بإمكانكم إما إن تختاروا المغامرة في الخسارة --
12:11
so I'll flip a coin. If it comes up heads, you're going to actually lose a lot.
309
731260
3000
وإذن سأرمي القطعة. إذا أتت جهة الرأس، ستخسرون كثيرا.
12:14
If it comes up tails, you lose nothing, you're fine, get to keep the whole thing --
310
734260
3000
وإذا أتت جهة الذيل، لا تخسرون شيئا، يتسنى لكم الاحتفاظ بالمبلغ كله --
12:17
or you could play it safe, which means you have to reach back into your wallet
311
737260
3000
وبإمكانكم اللعب بالخيار الآمن، والذي يعني أن عليكم أن تمدوا أيديكم لمحفظتكم
12:20
and give me five of those $100 bills, for certain.
312
740260
3000
وتعطوني خمسا من هذه الأوراق من فئة 100 دولار على أي حال.
12:23
And I'm seeing a lot of furrowed brows out there.
313
743260
3000
أرى الكثير من الحواجب المقطبة هناك (المسرح).
12:26
So maybe you're having the same intuitions
314
746260
2000
لذا ربما أنتم تملكون نفس الحدس
12:28
as the subjects that were actually tested in this,
315
748260
2000
الذي كان يملكه الأشخاص الذين اختبرناهم هكذا،
12:30
which is when presented with these options,
316
750260
2000
وهو أنه حينما عرضنا عليهم هذه الخيارات،
12:32
people don't choose to play it safe.
317
752260
2000
لم يختر الناس اللعب الآمن.
12:34
They actually tend to go a little risky.
318
754260
2000
في الواقع كانوا يميلون للمغامرة.
12:36
The reason this is irrational is that we've given people in both situations
319
756260
3000
السبب في كون هذا غير منطقي هو أننا أعطينا الناس بالحالتين
12:39
the same choice.
320
759260
2000
الخيار نفسه.
12:41
It's a 50/50 shot of a thousand or 2,000,
321
761260
3000
إنه احتمال 50 إلى 50 بالمئة للحصول على ألف أو ألفين،
12:44
or just 1,500 dollars with certainty.
322
764260
2000
أو فقط الألف وخمسمئة دولار بالتأكيد.
12:46
But people's intuitions about how much risk to take
323
766260
3000
ولكن حدس الناس حيال الخطر أو كم المغامرة التي يأخذوها
12:49
varies depending on where they started with.
324
769260
2000
يختلف تبعا لما ابتدءوا منه.
12:51
So what's going on?
325
771260
2000
إذن ما الذي يحدث؟
12:53
Well, it turns out that this seems to be the result
326
773260
2000
حسنا، لقد تبين أن هذا هو نتيجة
12:55
of at least two biases that we have at the psychological level.
327
775260
3000
على الأقل نوعين مختلفين من التحيز نملكهما على المستوى النفسي.
12:58
One is that we have a really hard time thinking in absolute terms.
328
778260
3000
إحدهما هو أننا نجد صعوبة كبيرة في التفكير بالمصطلحات المطلقة.
13:01
You really have to do work to figure out,
329
781260
2000
يتحتم عليك فعلا أن تبذل جهدا لتكتشف،
13:03
well, one option's a thousand, 2,000;
330
783260
2000
حسنا، أحد الخيارات كان 2,000
13:05
one is 1,500.
331
785260
2000
الآخر كان 1,500.
13:07
Instead, we find it very easy to think in very relative terms
332
787260
3000
بالمقابل، نجد أنه جدا أسهل أن نفكر في مصطلحات نسبية
13:10
as options change from one time to another.
333
790260
3000
حينما تبدأ الخيارات في التغير بين الحين والآخر.
13:13
So we think of things as, "Oh, I'm going to get more," or "Oh, I'm going to get less."
334
793260
3000
لذا نفكر في الأشياء بطريقة، "أوه، سأحصل على المزيد"، أو "سأحصل على مبلغ أقل".
13:16
This is all well and good, except that
335
796260
2000
وهذا أمر جيد ماعدا أنه
13:18
changes in different directions
336
798260
2000
الفروقات بالإتجاهين المختلفين
13:20
actually effect whether or not we think
337
800260
2000
في الواقع تؤثر ما إذا كنا نعتقد
13:22
options are good or not.
338
802260
2000
أن الخيارات جيدة أو سيئة.
13:24
And this leads to the second bias,
339
804260
2000
وهذا يقودنا للنوع الثاني من التحيز.
13:26
which economists have called loss aversion.
340
806260
2000
وهو مايسميه الاقتصاديون تفادي الخسارة.
13:28
The idea is that we really hate it when things go into the red.
341
808260
3000
الفكرة هي أننا جدا نستاء حينما تتجه الأمور نحو الأحمر (مؤشر الأسهم)
13:31
We really hate it when we have to lose out on some money.
342
811260
2000
نكره جدا أن نخسر بعض المال.
13:33
And this means that sometimes we'll actually
343
813260
2000
مما يعني أننا أحيانا
13:35
switch our preferences to avoid this.
344
815260
2000
سنغير خياراتنا المفضلة لتجنب حدوث هذا.
13:37
What you saw in that last scenario is that
345
817260
2000
ما رأيتموه في السيناريو الأخير هو أنه
13:39
subjects get risky
346
819260
2000
الخاضعون للتجربة يصبحون مغامرين
13:41
because they want the small shot that there won't be any loss.
347
821260
3000
لأنهم يريدون الفرصة الصغيرة التي تجنبهم أي خسارة.
13:44
That means when we're in a risk mindset --
348
824260
2000
وهذا بعني أننا نكون ضمن عقلية المغامرة --
13:46
excuse me, when we're in a loss mindset,
349
826260
2000
عفوا، عندما نكون ضمن عقلية الخسارة،
13:48
we actually become more risky,
350
828260
2000
في الواقع نصبح مغامرين أكثر،
13:50
which can actually be really worrying.
351
830260
2000
والذي بإمكانه أن يكون أمر جدا مقلق.
13:52
These kinds of things play out in lots of bad ways in humans.
352
832260
3000
هذا النوع من الأمور يؤثر بكثير من الطرق السلبية على البشر.
13:55
They're why stock investors hold onto losing stocks longer --
353
835260
3000
وهو السبب أن مستثمري الأسهم يحتفظون بأسمهم الخاسرة لمدة أطول --
13:58
because they're evaluating them in relative terms.
354
838260
2000
لأنهم يقيموا هذه الأسهم بشكل نسبي.
14:00
They're why people in the housing market refused to sell their house --
355
840260
2000
هو السبب أن الأشخاص في سوق المنازل رفضوا بيع بيوتهم --
14:02
because they don't want to sell at a loss.
356
842260
2000
لأنهم لايريدون بيعها بخسارة.
14:04
The question we were interested in
357
844260
2000
السؤال الذي نحن مهتمين بإجابته
14:06
is whether the monkeys show the same biases.
358
846260
2000
هو ما إذا كانت القرود تظهر نفس التحيز.
14:08
If we set up those same scenarios in our little monkey market,
359
848260
3000
لو قمنا بنصب السيناريوهات نفسها في سوق القردة الصغير،
14:11
would they do the same thing as people?
360
851260
2000
هل سيفعلون الشيء نفسه كما الأشخاص؟
14:13
And so this is what we did, we gave the monkeys choices
361
853260
2000
وإذن كان هذا مافعلناه، أعطينا القردة خيارات
14:15
between guys who were safe -- they did the same thing every time --
362
855260
3000
بين الأشخاص الذي كانوا حريصين على الأمن -- فعلوا الشيء نفسه كل مرة --
14:18
or guys who were risky --
363
858260
2000
والأشخاص المغامرون --
14:20
they did things differently half the time.
364
860260
2000
الذين فعلوا الأشياء بطريقة مختلفة نصف المرات.
14:22
And then we gave them options that were bonuses --
365
862260
2000
ثم منحناهم الخيار حين يوجد مكافأت --
14:24
like you guys did in the first scenario --
366
864260
2000
كما فعلتم أنتم في السيناريو الأول --
14:26
so they actually have a chance more,
367
866260
2000
وإذن كانت لديهم فرصة للمزيد،
14:28
or pieces where they were experiencing losses --
368
868260
3000
أو حينما كانوا يختبروا الخسارة --
14:31
they actually thought they were going to get more than they really got.
369
871260
2000
كانوا يعتقدون أنهم سينالوا أكثر مما فعليا حصلوا عليه.
14:33
And so this is what this looks like.
370
873260
2000
وإذن هذا ما كان يبدو عليه الأمر.
14:35
We introduced the monkeys to two new monkey salesmen.
371
875260
2000
قدمنا القردة لرجلي مبيعات جدد.
14:37
The guy on the left and right both start with one piece of grape,
372
877260
2000
الرجلين على اليسار واليمين كلاهما يبدأن بحبة من العنب،
14:39
so it looks pretty good.
373
879260
2000
مما يبدو جيدا.
14:41
But they're going to give the monkeys bonuses.
374
881260
2000
ولكنهم سيمنحون القردة مكافأت.
14:43
The guy on the left is a safe bonus.
375
883260
2000
الرجل على اليسار هو المكافأة الآمنة.
14:45
All the time, he adds one, to give the monkeys two.
376
885260
3000
كل مرة، هو يضيف واحدة، ليعطي القردة حبتين.
14:48
The guy on the right is actually a risky bonus.
377
888260
2000
الرجل على اليمين هو المكافأة الغير مأمونة.
14:50
Sometimes the monkeys get no bonus -- so this is a bonus of zero.
378
890260
3000
بعض الأحيان لايحصل القردة على مكافأة -- المكافأة صفر
14:53
Sometimes the monkeys get two extra.
379
893260
3000
وبعض الأحيان يحصل القردة على اثنتين إضافيتين.
14:56
For a big bonus, now they get three.
380
896260
2000
مكافأة كبيرة، الآن يحصلون على ثلاث حبات.
14:58
But this is the same choice you guys just faced.
381
898260
2000
ولكن هذا هو نفس الخيار الذين واجهتموه أنتم.
15:00
Do the monkeys actually want to play it safe
382
900260
3000
هل تفضل القردة اللعب الآمن
15:03
and then go with the guy who's going to do the same thing on every trial,
383
903260
2000
أن يذهبوا للشخص الذي يفعل الشيء نفسه في كل تجربة،
15:05
or do they want to be risky
384
905260
2000
أو أنهم يريدون أن يصبحوا مغامرين
15:07
and try to get a risky, but big, bonus,
385
907260
2000
ويحصلوا على مكافأة غير مضمونة، إنما أكبر،
15:09
but risk the possibility of getting no bonus.
386
909260
2000
بمواجهة خطر عدم الحصول على مكافأة.
15:11
People here played it safe.
387
911260
2000
الناس هنا فضلوا الخيار الآمن.
15:13
Turns out, the monkeys play it safe too.
388
913260
2000
تبين أن القردة تفضل الخيار الآمن أيضا.
15:15
Qualitatively and quantitatively,
389
915260
2000
بشكل نوعي واحصائي،
15:17
they choose exactly the same way as people,
390
917260
2000
اختاروا تماما بنفس الطريقة كما الأشخاص،
15:19
when tested in the same thing.
391
919260
2000
الذين خضعوا لنفس التجربة.
15:21
You might say, well, maybe the monkeys just don't like risk.
392
921260
2000
ربما تقولون، حسنا، ربما القردة لا تحب المغامرة وحسب.
15:23
Maybe we should see how they do with losses.
393
923260
2000
ربما يجب أن نرى تعاملهم مع الخسارة.
15:25
And so we ran a second version of this.
394
925260
2000
ولذا قمنا بالنسخة الثانية من التجربة.
15:27
Now, the monkeys meet two guys
395
927260
2000
الآن، القردة تقابل شخصين
15:29
who aren't giving them bonuses;
396
929260
2000
لايعطوهم أي مكافأت;
15:31
they're actually giving them less than they expect.
397
931260
2000
بل في الواقع هم يعطوهم أقل مما توقعوا.
15:33
So they look like they're starting out with a big amount.
398
933260
2000
فيبدو وكأنهم يبدؤون بكمية كبيرة.
15:35
These are three grapes; the monkey's really psyched for this.
399
935260
2000
هذه ثلاث حبات عنب; القردة تشعر بالحماس الشديد حيال هذا.
15:37
But now they learn these guys are going to give them less than they expect.
400
937260
3000
ولكن الآن هم يتعلمون أن هؤلاء الأشخاص سيعطوهم أقل مما توقعوا.
15:40
They guy on the left is a safe loss.
401
940260
2000
الشخص على اليسار هو الخسارة الآمنة.
15:42
Every single time, he's going to take one of these away
402
942260
3000
في كل مرة، هو يأخذ وحدة من الحبات بعيدا
15:45
and give the monkeys just two.
403
945260
2000
ويعطي القردة فقط اثنتين.
15:47
the guy on the right is the risky loss.
404
947260
2000
الشخص على اليسار هو الخسارة المغامرة.
15:49
Sometimes he gives no loss, so the monkeys are really psyched,
405
949260
3000
بعض الأحيان هو لايمنح أي خسارة، وإذن يثير هذا حماس القردة،
15:52
but sometimes he actually gives a big loss,
406
952260
2000
ولكن بعض الأحيان هو يمنح خسارة كبيرة،
15:54
taking away two to give the monkeys only one.
407
954260
2000
بأخذ حبتين ومنح القردة حبة واحدة فقط.
15:56
And so what do the monkeys do?
408
956260
2000
وإذن ما الذي تفعله القردة؟
15:58
Again, same choice; they can play it safe
409
958260
2000
مجددا، الخيار نفسه; بإمكانهم اللعب الآمن
16:00
for always getting two grapes every single time,
410
960260
3000
للحصول على حبتي عنب كل مرة،
16:03
or they can take a risky bet and choose between one and three.
411
963260
3000
أو يمكنهم أخذ الرهان المغامر والتخير بين واحدة وثلاثة.
16:06
The remarkable thing to us is that, when you give monkeys this choice,
412
966260
3000
الأمر الملفت أنه، حينما تمنح القردة هذا الخيار،
16:09
they do the same irrational thing that people do.
413
969260
2000
فهم يفعلون نفس الشيء اللامنطقي الذي يفعله الناس.
16:11
They actually become more risky
414
971260
2000
هم يصبحون فعلا راغبين في المغامرة
16:13
depending on how the experimenters started.
415
973260
3000
حسب الطريقة التي تبدأ بها التجربة.
16:16
This is crazy because it suggests that the monkeys too
416
976260
2000
هذا أمر جنوني لأنه يقترح أن القردة أيضا
16:18
are evaluating things in relative terms
417
978260
2000
تقيم الأشياء بشكل نسبي
16:20
and actually treating losses differently than they treat gains.
418
980260
3000
وتعامل الخسارة بشكل مختلف عن تعامل الربح.
16:23
So what does all of this mean?
419
983260
2000
إذن ما الذي يعنيه كل هذا؟
16:25
Well, what we've shown is that, first of all,
420
985260
2000
حسنا، ما أثبتناه هو أن، وقبل كل شيء،
16:27
we can actually give the monkeys a financial currency,
421
987260
2000
بإمكاننا أن نعطي القردة عملة مالية،
16:29
and they do very similar things with it.
422
989260
2000
وهم يستخدمونها بنفس الطريقة.
16:31
They do some of the smart things we do,
423
991260
2000
يفعلون بعض الأشياء الذكية التي نفعلها،
16:33
some of the kind of not so nice things we do,
424
993260
2000
بعضها من النوع الذي ليس لطيفا جدا مما نقوم به،
16:35
like steal it and so on.
425
995260
2000
مثل سرقتها وهكذا.
16:37
But they also do some of the irrational things we do.
426
997260
2000
لكنهم أيضا يفعلون بعض الأشياء اللامنطقية التي نفعلها.
16:39
They systematically get things wrong
427
999260
2000
هم بشكل نظامي متكرر يخطئون في فهم الأشياء
16:41
and in the same ways that we do.
428
1001260
2000
وبنفس الطرق التي نخطيء بها في الفهم.
16:43
This is the first take-home message of the Talk,
429
1003260
2000
هذه هي أول رسالة لتأخذوها معكم كخلاصة من هذا الحديث،
16:45
which is that if you saw the beginning of this and you thought,
430
1005260
2000
وهي أنكم ربما ترون بداية هذا وتفكرون،
16:47
oh, I'm totally going to go home and hire a capuchin monkey financial adviser.
431
1007260
2000
أوه، لابد أن أوظف قرد كابوتشين كمستشار مالي لي حالما أعود للمنزل.
16:49
They're way cuter than the one at ... you know --
432
1009260
2000
على الأقل هم أكثر ظرافة من أولئك الذين يعملون في.. تعلمون --
16:51
Don't do that; they're probably going to be just as dumb
433
1011260
2000
لا تفعلوا هذا; على الأغلب سيكونوا بالضبط بنفس الغباء
16:53
as the human one you already have.
434
1013260
3000
كالمستشار البشري الذي تملكه من الأساس.
16:56
So, you know, a little bad -- Sorry, sorry, sorry.
435
1016260
2000
أمر سيء -- آسفة، آسفة، آسفة.
16:58
A little bad for monkey investors.
436
1018260
2000
أمر سيء للمستثمرين القردة.
17:00
But of course, you know, the reason you're laughing is bad for humans too.
437
1020260
3000
ولكن بالطبع، السبب في ضحككم هو أنه أمر سيء للبشر أيضا.
17:03
Because we've answered the question we started out with.
438
1023260
3000
لأننا جاوبنا السؤال الذي بدأنا به.
17:06
We wanted to know where these kinds of errors came from.
439
1026260
2000
أردنا معرفة ما المكان الذي هذا النوع من الأخطاء يأتي منه.
17:08
And we started with the hope that maybe we can
440
1028260
2000
وبدأنا بالتأمل بأنه ربما يمكننا
17:10
sort of tweak our financial institutions,
441
1030260
2000
تحسين مؤسساتنا المالية،
17:12
tweak our technologies to make ourselves better.
442
1032260
3000
تعديل التقنيات لنجعل من أنفسنا أفضل.
17:15
But what we've learn is that these biases might be a deeper part of us than that.
443
1035260
3000
لكن ما تعلمناه أنه هناك تحيز قد يشغل جزء أعمق من هذا.
17:18
In fact, they might be due to the very nature
444
1038260
2000
في الحقيقة، هذا التحيز قد يكون بسبب الطبيعة البحتة
17:20
of our evolutionary history.
445
1040260
2000
لتاريخ ارتقائنا وتطورنا.
17:22
You know, maybe it's not just humans
446
1042260
2000
ربما لسنا نحن البشر وحسب
17:24
at the right side of this chain that's duncey.
447
1044260
2000
على الجانب الأيمن من السلسلة هناك دنسي "duncey".
17:26
Maybe it's sort of duncey all the way back.
448
1046260
2000
ربما هو نوع من دنسي منذ البدء.
17:28
And this, if we believe the capuchin monkey results,
449
1048260
3000
وهذا يعني إذا صدقنا النتائج من قردة كابوتشين،
17:31
means that these duncey strategies
450
1051260
2000
أن كل هذه الاستراتيجيات
17:33
might be 35 million years old.
451
1053260
2000
قد يفوق عمرها الخمسة وثلاثين مليون سنة.
17:35
That's a long time for a strategy
452
1055260
2000
هذا وقت طويل لاستراتيجية
17:37
to potentially get changed around -- really, really old.
453
1057260
3000
لتتغير بالنهاية -- كونها جد، جد قديمة.
17:40
What do we know about other old strategies like this?
454
1060260
2000
ما الذي نعرفه عن الاستراتيجيات القديمة كهذه؟
17:42
Well, one thing we know is that they tend to be really hard to overcome.
455
1062260
3000
حسنا، شيء واحد نعرفه أنهم يميلون لأن يصبح تخطيهم جدا صعب.
17:45
You know, think of our evolutionary predilection
456
1065260
2000
فكروا في النزعة التطورية
17:47
for eating sweet things, fatty things like cheesecake.
457
1067260
3000
لتناول الأشياء الحلوة، الدسمة مثل كيك الجبنة.
17:50
You can't just shut that off.
458
1070260
2000
لا يمكنك إلغاء هذا وحسب.
17:52
You can't just look at the dessert cart as say, "No, no, no. That looks disgusting to me."
459
1072260
3000
لا يمكنك النظر لعربة الحلويات والقول، "لا، لا، لا. هذا يبدو لي مقرف الطعم".
17:55
We're just built differently.
460
1075260
2000
نحن فقط مخلوقين بشكل مختلف.
17:57
We're going to perceive it as a good thing to go after.
461
1077260
2000
نحن ندرك مثل هذه الرغبة كشيء جيد لنحققه.
17:59
My guess is that the same thing is going to be true
462
1079260
2000
وتخميني هو أن الأمر نفسه سيكون صحيحا
18:01
when humans are perceiving
463
1081260
2000
بالنسبة للبشر وهم يدركوا
18:03
different financial decisions.
464
1083260
2000
مختلف القرارات المالية.
18:05
When you're watching your stocks plummet into the red,
465
1085260
2000
عندما تشاهد أسهمك وهي تنحدر نحو الأحمر،
18:07
when you're watching your house price go down,
466
1087260
2000
عندما تشاهد سعر منزلك وهو ينخفض،
18:09
you're not going to be able to see that
467
1089260
2000
لن تستطيع رؤية هذا
18:11
in anything but old evolutionary terms.
468
1091260
2000
بأي طريقة عدا الطريقة التطورية.
18:13
This means that the biases
469
1093260
2000
هذا يعني أن التحيز
18:15
that lead investors to do badly,
470
1095260
2000
الذي قاد المستثمرين للإخفاق،
18:17
that lead to the foreclosure crisis
471
1097260
2000
الذي أدى إلى أزمة الرهن
18:19
are going to be really hard to overcome.
472
1099260
2000
سيبقى من الصعب جدا التغلب عليه.
18:21
So that's the bad news. The question is: is there any good news?
473
1101260
2000
إذن هذا هو الخبر السيء. السؤال هو: هل يوجد أي خبر جيد؟
18:23
I'm supposed to be up here telling you the good news.
474
1103260
2000
يفترض أن أكون هنا لأخبركم الخبر الجيد.
18:25
Well, the good news, I think,
475
1105260
2000
حسنا، الخبر الجيد، أظن،
18:27
is what I started with at the beginning of the Talk,
476
1107260
2000
هو ما بدأت به في بداية المحادثة،
18:29
which is that humans are not only smart;
477
1109260
2000
وهي أن البشر ليسوا فقط أذكياء;
18:31
we're really inspirationally smart
478
1111260
2000
هم أذكياء بشكل ملهم
18:33
to the rest of the animals in the biological kingdom.
479
1113260
3000
لباقي الحيوانات في المملكة البيولوجية.
18:36
We're so good at overcoming our biological limitations --
480
1116260
3000
نحن جيدون في تخطي قيودنا البيولوجية --
18:39
you know, I flew over here in an airplane.
481
1119260
2000
تعلمون، قدمت إلى هنا على متن طائرة.
18:41
I didn't have to try to flap my wings.
482
1121260
2000
لم أضطر لأن أحاول التلويح بأجنحتي.
18:43
I'm wearing contact lenses now so that I can see all of you.
483
1123260
3000
أنا أرتدي عدسات لاصقة لأتمكن من رؤيتكم جميعا.
18:46
I don't have to rely on my own near-sightedness.
484
1126260
3000
لا أحتاج إلى أن أعتمد على نظري القصير.
18:49
We actually have all of these cases
485
1129260
2000
كلنا في الواقع نملك مثل هذه الحالات
18:51
where we overcome our biological limitations
486
1131260
3000
التي تغلبنا فيها على عوائقنا البيولوجية
18:54
through technology and other means, seemingly pretty easily.
487
1134260
3000
من خلال التقنية وطرق أخرى بالسهولة الظاهرة.
18:57
But we have to recognize that we have those limitations.
488
1137260
3000
ولكننا ينبغي أن ندرك أن نملك هذه العوائق
19:00
And here's the rub.
489
1140260
2000
وهذه هي العقدة.
19:02
It was Camus who once said that, "Man is the only species
490
1142260
2000
كان كاموس هو القائل أن، "الإنسان هو الجنس الوحيد
19:04
who refuses to be what he really is."
491
1144260
3000
الذي يرفض أن يصبح ماهو فعليا".
19:07
But the irony is that
492
1147260
2000
ولكن المفارقة أن
19:09
it might only be in recognizing our limitations
493
1149260
2000
أنه فقط بتعرفنا على قصورنا وعوائقنا
19:11
that we can really actually overcome them.
494
1151260
2000
يصبح بإمكاننا تجاوزها.
19:13
The hope is that you all will think about your limitations,
495
1153260
3000
الأمل هو أن تتأملوا كلكم عوائقكم،
19:16
not necessarily as unovercomable,
496
1156260
3000
ليس بالضرورة على أنه من غير الممكن تخطيها،
19:19
but to recognize them, accept them
497
1159260
2000
ولكن لتتعرفوا عليها، تتقبلوها
19:21
and then use the world of design to actually figure them out.
498
1161260
3000
ومن ثم أن تستفيدوا من عالم التصميم لتتمكنوا من حلها.
19:24
That might be the only way that we will really be able
499
1164260
3000
قد تكون هذه هي الطريقة الوحيدة
19:27
to achieve our own human potential
500
1167260
2000
لنحقق قدراتنا البشرية الخاصة بنا
19:29
and really be the noble species we hope to all be.
501
1169260
3000
وبحق نكون الجنس النبيل الذي نأمل كلنا أن نكونه
19:32
Thank you.
502
1172260
2000
شكرا لكم.
19:34
(Applause)
503
1174260
5000
(تصفيق)
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7