Laurie Santos: How monkeys mirror human irrationality

لائوری سانتوز: اقتصاد میون‌وار نامعقول به اندازه‌ی اقتصاد ما

197,513 views

2010-07-29 ・ TED


New videos

Laurie Santos: How monkeys mirror human irrationality

لائوری سانتوز: اقتصاد میون‌وار نامعقول به اندازه‌ی اقتصاد ما

197,513 views ・ 2010-07-29

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: Mana Ahmady Reviewer: Hedieh B
00:17
I want to start my talk today with two observations
0
17260
2000
من می‌خوام امروز سخن‌ام را با دو مشاهده بر گونه‌های بشری آغاز کنم.
00:19
about the human species.
1
19260
2000
من می‌خوام امروز سخن‌ام را با دو مشاهده بر گونه‌های بشری آغاز کنم.
00:21
The first observation is something that you might think is quite obvious,
2
21260
3000
مشاهده‌ی نخست چیزی‌ست که شاید به نظر شما واضح بیاد،
00:24
and that's that our species, Homo sapiens,
3
24260
2000
و آن این است که گونه‌ی ما، هموسِپین‌ها (انسان اندیشه‌ورز)،
00:26
is actually really, really smart --
4
26260
2000
در واقع بسیار بسیار باهوش‌ست -
00:28
like, ridiculously smart --
5
28260
2000
یعنی، به طور مضحکی باهوش‌ -
00:30
like you're all doing things
6
30260
2000
یعنی اینطور که همه‌تون کارهایی را انجام می‌دید
00:32
that no other species on the planet does right now.
7
32260
3000
که هیچ گونه‌ی دیگری بر روی کره‌ی زمین در حال حاضر نمی‌تونه انجام بده.
00:35
And this is, of course,
8
35260
2000
و البته این، احتمالا نخستین بار نیست که شما به این نتیجه رسیدید.
00:37
not the first time you've probably recognized this.
9
37260
2000
و البته این، احتمالا نخستین بار نیست که شما به این نتیجه رسیدید.
00:39
Of course, in addition to being smart, we're also an extremely vain species.
10
39260
3000
البته، علاوه بر باهوش بودن، ما به شدت گونه‌ی مغروری هستیم.
00:42
So we like pointing out the fact that we're smart.
11
42260
3000
ما می‌خوایم این حقیقت را که باهوشیم تو چشمِ دیگران فرو کنیم.
00:45
You know, so I could turn to pretty much any sage
12
45260
2000
می‌دونید، خب من می‌تونم تقریبا سراغ هر انسان فرزانه‌ای برم
00:47
from Shakespeare to Stephen Colbert
13
47260
2000
از شکسپیر بگیر تا استفان کالبرت
00:49
to point out things like the fact that
14
49260
2000
تا این حقیقت را خاطرنشان کنم که
00:51
we're noble in reason and infinite in faculties
15
51260
2000
ما در استدلال بی‌همتا و در توانایی ذهنی بی‌انتها هستیم
00:53
and just kind of awesome-er than anything else on the planet
16
53260
2000
و وقتی نوبت به امور ذهنی می‌رسه، از هر موجود دیگر کره‌ی زمین فوق‌العاده‌تر از فوق‌العاده‌ایم.
00:55
when it comes to all things cerebral.
17
55260
3000
و وقتی نوبت به امور ذهنی می‌رسه، از هر موجود دیگر کره‌ی زمین فوق‌العاده‌تر از فوق‌العاده‌ایم.
00:58
But of course, there's a second observation about the human species
18
58260
2000
اما مسلما، مشاهده‌ی دیگری هم درباره‌ی گونه‌ی بشر وجود دارد
01:00
that I want to focus on a little bit more,
19
60260
2000
که می‌خوام کمی بیشتر روش متمرکز بشم،
01:02
and that's the fact that
20
62260
2000
و آن این حقیقت‌ست که
01:04
even though we're actually really smart, sometimes uniquely smart,
21
64260
3000
با وجود اینکه در اصل ما بسیار هوشمندیم، و گاهی به طور بی‌مانندی هوشمند،
01:07
we can also be incredibly, incredibly dumb
22
67260
3000
می‌تونیم وقتی نوبت به برخی جنبه‌های تصمیم‌گیری می‌رسه، ناباورانه هالو باشیم.
01:10
when it comes to some aspects of our decision making.
23
70260
3000
می‌تونیم وقتی نوبت به برخی جنبه‌های تصمیم‌گیری می‌رسه، ناباورانه هالو باشیم.
01:13
Now I'm seeing lots of smirks out there.
24
73260
2000
حالا من دارم پوزخندهای زیادی اینجا می‌بینم.
01:15
Don't worry, I'm not going to call anyone in particular out
25
75260
2000
نگران نباشید، من نمی‌خوام به کس خاصی به خاطر اشتباهاتش اشاره کنم.
01:17
on any aspects of your own mistakes.
26
77260
2000
نگران نباشید، من نمی‌خوام به کس خاصی به خاطر اشتباهاتش اشاره کنم.
01:19
But of course, just in the last two years
27
79260
2000
اما مسلما، تنها در دوسال گذشته
01:21
we see these unprecedented examples of human ineptitude.
28
81260
3000
ما نمونه‌های بی‌سابقه‌ای را از ناکارایی بشر دیدیم
01:24
And we've watched as the tools we uniquely make
29
84260
3000
و شاهد بودیم که ابزارهایی که منحصرا ما سازنده‌ی آن هستیم
01:27
to pull the resources out of our environment
30
87260
2000
تا منابع را از محیط زیست‌مان بیرون بکشیم
01:29
kind of just blow up in our face.
31
89260
2000
یه جورایی داره جلوی چشمامون از هم می‌پاشد.
01:31
We've watched the financial markets that we uniquely create --
32
91260
2000
ما شاهد بازارهای مالی که منحصرا ساختیم بوده‌ایم -
01:33
these markets that were supposed to be foolproof --
33
93260
3000
این بازارهایی که قرار بوده خطاناپذیر باشند -
01:36
we've watched them kind of collapse before our eyes.
34
96260
2000
ما شاهد بوده‌ایم که در برابر چشمامون فرو ریختند.
01:38
But both of these two embarrassing examples, I think,
35
98260
2000
اما به نظر من، هر دوی این مثال‌های شرم‌آور،
01:40
don't highlight what I think is most embarrassing
36
100260
3000
نمی‌تونن سرپوش بر چیزی بگذارند که به گمان من شرم‌آورترین چیز درباره‌ی خطاهای بشرست،
01:43
about the mistakes that humans make,
37
103260
2000
نمی‌تونن سرپوش بر چیزی بگذارند که به گمان من شرم‌آورترین چیز درباره‌ی خطاهای بشرست،
01:45
which is that we'd like to think that the mistakes we make
38
105260
3000
و آن اینکه ما ترجیح می‌دیم خیال کنیم که اشتباهاتی که مرتکب می‌شیم
01:48
are really just the result of a couple bad apples
39
108260
2000
واقعا فقط نتیجه‌ی کار یکی دو تا آدم ناباب
01:50
or a couple really sort of FAIL Blog-worthy decisions.
40
110260
3000
یا چند تا تصمیم وبلاگی شکست خورده‌ست.
01:53
But it turns out, what social scientists are actually learning
41
113260
3000
اما با توجه به یافته‌های جامعه‌شناسان، به نظر میاد
01:56
is that most of us, when put in certain contexts,
42
116260
3000
که بیشترِ ما، هنگامی که در بستر مشخصی قرار می‌گیریم،
01:59
will actually make very specific mistakes.
43
119260
3000
مرتکب اشتباهات بسیار مشخصی می‌شویم.
02:02
The errors we make are actually predictable.
44
122260
2000
خطاهایی که می‌کنیم در واقع پیش‌بینی پذیر هستند.
02:04
We make them again and again.
45
124260
2000
ما آنها را دوباره و دوباره انجام می‌دیم.
02:06
And they're actually immune to lots of evidence.
46
126260
2000
و آنها در واقع بر اساس بسیاری مستندات تغییرناپذیرند.
02:08
When we get negative feedback,
47
128260
2000
هنگامی که ما بازخورد منفی دریافت می‌کنیم،
02:10
we still, the next time we're face with a certain context,
48
130260
3000
هنوز، دفعه‌ی بعد که دوباره در معرض همان شرایط قرار می‌گیریم،
02:13
tend to make the same errors.
49
133260
2000
به ارتکاب همان خطاها گرایش داریم.
02:15
And so this has been a real puzzle to me
50
135260
2000
و این واقعا برای من، به عنوان یک پژوهشگر سرشت انسانی یک معما بود.
02:17
as a sort of scholar of human nature.
51
137260
2000
و این واقعا برای من، به عنوان یک پژوهشگر سرشت انسانی یک معما بود.
02:19
What I'm most curious about is,
52
139260
2000
چیزی که بیش از همه دربارش کنجکاوم اینه که،
02:21
how is a species that's as smart as we are
53
141260
3000
چگونه‌است که یک گونه‌ که به اندازه‌ی ما باهوش است
02:24
capable of such bad
54
144260
2000
می‌تواند همواره خطاهایی به این بدی را تا این‌حد مداوم انجام دهد؟
02:26
and such consistent errors all the time?
55
146260
2000
می‌تواند همواره خطاهایی به این بدی را تا این‌حد مداوم انجام دهد؟
02:28
You know, we're the smartest thing out there, why can't we figure this out?
56
148260
3000
می‌دونید، ما باهوش‌ترین چیزی هستیم که وجود داره، چرا نتونیم ازش سر در بیاریم؟
02:31
In some sense, where do our mistakes really come from?
57
151260
3000
به دیگر معنی، اشتباهات ما واقعا از کجا ناشی می‌شه؟
02:34
And having thought about this a little bit, I see a couple different possibilities.
58
154260
3000
با کمی فکر به این موضوع، به دو احتمال رسیدم.
02:37
One possibility is, in some sense, it's not really our fault.
59
157260
3000
یک احتمال اینه که، به عبارتی، این اصلا تقصیر ما نیست.
02:40
Because we're a smart species,
60
160260
2000
چون ما گونه‌‌ی هوشمندی هستیم،
02:42
we can actually create all kinds of environments
61
162260
2000
می‌تونیم در اصل فضاهایی بیافرینیم
02:44
that are super, super complicated,
62
164260
2000
که بسیار بسیار پیچیده هستند،
02:46
sometimes too complicated for us to even actually understand,
63
166260
3000
گاهی آنقدر پیچیده که حتی خودمان نمی‌تونیم درکش کنیم،
02:49
even though we've actually created them.
64
169260
2000
با وجود اینکه خودمان آنها را آفریده‌ایم.
02:51
We create financial markets that are super complex.
65
171260
2000
ما بازارهای مالی را خلق می‌کنیم که به شدت پیچیده هستند.
02:53
We create mortgage terms that we can't actually deal with.
66
173260
3000
ما قراردادهای رهنی ایجاد می‌کنیم که نمی‌تونیم باهاشون دست و پنجه نرم کنیم.
02:56
And of course, if we are put in environments where we can't deal with it,
67
176260
3000
و معلومه، اگر ما در فضایی قرار داده بشیم که نتونیم از پَسِش بر بیایم،
02:59
in some sense makes sense that we actually
68
179260
2000
تا اندازه‌ای منطقی به نظر میاد که ممکنه گند بزنیم.
03:01
might mess certain things up.
69
181260
2000
تا اندازه‌ای منطقی به نظر میاد که ممکنه گند بزنیم.
03:03
If this was the case, we'd have a really easy solution
70
183260
2000
و اگر این درست بود، راه حل بسیار ساده‌ای برای مشکل خطاهای بشری می‌داشتیم.
03:05
to the problem of human error.
71
185260
2000
و اگر این درست بود، راه حل بسیار ساده‌ای برای مشکل خطاهای بشری می‌داشتیم.
03:07
We'd actually just say, okay, let's figure out
72
187260
2000
تنها می‌گفتیم، بیاید ماهیت فن‌آوری‌هایی که نمی‌تونیم از پسشون بربیایم را بفهمیم،
03:09
the kinds of technologies we can't deal with,
73
189260
2000
تنها می‌گفتیم، بیاید ماهیت فن‌آوری‌هایی که نمی‌تونیم از پسشون بربیایم را بفهمیم،
03:11
the kinds of environments that are bad --
74
191260
2000
آن دست از فضاها که نامطلوب هستند -
03:13
get rid of those, design things better,
75
193260
2000
از دستشان خلاص بشیم، چیزها را بهتر طراحی کنیم،
03:15
and we should be the noble species
76
195260
2000
آنوقت باید همان گونه‌ی ارزشمندی بشیم که از خودمان انتظار داریم.
03:17
that we expect ourselves to be.
77
197260
2000
آنوقت باید همان گونه‌ی ارزشمندی بشیم که از خودمان انتظار داریم.
03:19
But there's another possibility that I find a little bit more worrying,
78
199260
3000
اما احتمال دیگری هم وجود داره که به نظر من اندکی نگران‌کننده‌تره،
03:22
which is, maybe it's not our environments that are messed up.
79
202260
3000
این که که شاید محیط رندگی ما آشفته نیست.
03:25
Maybe it's actually us that's designed badly.
80
205260
3000
شاید در واقع این ما هستیم که بد طراحی شدیم.
03:28
This is a hint that I've gotten
81
208260
2000
این اشاره‌ای‌ است که من دریافت کردم
03:30
from watching the ways that social scientists have learned about human errors.
82
210260
3000
از بررسی روش‌هایی که جامعه‌شناسان درباره‌ی خطاهای انسانی دریافته‌اند.
03:33
And what we see is that people tend to keep making errors
83
213260
3000
و آنچه ما می‌بینیم این است که مردم به اشتباه کردن، دقیقا به شیوه‌ی یکسان، دوباره و دوباره ادامه می‌دن.
03:36
exactly the same way, over and over again.
84
216260
3000
و آنچه ما می‌بینیم این است که مردم به اشتباه کردن، دقیقا به شیوه‌ی یکسان، دوباره و دوباره ادامه می‌دن.
03:39
It feels like we might almost just be built
85
219260
2000
انگار احتمال داره که ما فقط ساخته شدیم
03:41
to make errors in certain ways.
86
221260
2000
که اشتباهاتی را به شیوه‌های مشخص مرتکب بشیم.
03:43
This is a possibility that I worry a little bit more about,
87
223260
3000
این احتمالی‌ست که من کمی بیشتر دربارش نگران هستم،
03:46
because, if it's us that's messed up,
88
226260
2000
زیرا، اگر این ما باشیم که گند بالا میاریم،
03:48
it's not actually clear how we go about dealing with it.
89
228260
2000
خیلی معلوم نیست که چطور قراره باهاش دست و پنجه نرم کنیم.
03:50
We might just have to accept the fact that we're error prone
90
230260
3000
تنها باید این حقیقت را بپذیریم که ما مهیای خطا کردن هستیم
03:53
and try to design things around it.
91
233260
2000
و تلاش کنیم با توجه به این بقیه چیزها را طراحی کنیم.
03:55
So this is the question my students and I wanted to get at.
92
235260
3000
خب، این مسئله‌ای بود که من و دانشجویانم می‌خواستیم به آن بپردازیم.
03:58
How can we tell the difference between possibility one and possibility two?
93
238260
3000
چطور می‌تونیم میان احتمال نخست و دوم تمایز قائل بشیم؟
04:01
What we need is a population
94
241260
2000
چیزی که نیاز داریم جمعیت نمونه‌ای است که
04:03
that's basically smart, can make lots of decisions,
95
243260
2000
در اساس باهوش باشند، بتونن تصمیم‌های زیادی بگیرند،
04:05
but doesn't have access to any of the systems we have,
96
245260
2000
اما به هیچ‌یک از سازمان‌هایی که ما داریم دسترسی نداشته باشند،
04:07
any of the things that might mess us up --
97
247260
2000
هیچ‌کدام از آن چیزهایی که ممکن است ما را آشفته کنند -
04:09
no human technology, human culture,
98
249260
2000
هیچ فن‌آوری انسانی، هیچ فرهنگ بشری،
04:11
maybe even not human language.
99
251260
2000
حتی شاید به هیچ زبان انسانی.
04:13
And so this is why we turned to these guys here.
100
253260
2000
برای همین بود که ما به سمت این بروبچه‌ها متمایل شدیم.
04:15
These are one of the guys I work with. This is a brown capuchin monkey.
101
255260
3000
این یکی از بچه‌هایی‌ست که من باهاشون کار می‌کنم. این یک میمون کاپوچین قهوه‌ای‌است.
04:18
These guys are New World primates,
102
258260
2000
اینها از نخستی‌سانان ینگه دنیا هستند،
04:20
which means they broke off from the human branch
103
260260
2000
که یعنی آنها حدود ۳۵ میلیون‌سال پیش از شاخه‌ی بشری جدا افتادند.
04:22
about 35 million years ago.
104
262260
2000
که یعنی آنها حدود ۳۵ میلیون‌سال پیش از شاخه‌ی بشری جدا افتادند.
04:24
This means that your great, great, great great, great, great --
105
264260
2000
این یعنی مادرِ مادرِ مادرِ مادرِ مادرِ مادرِ مادرِ -
04:26
with about five million "greats" in there --
106
266260
2000
با حدود پنج میلیون مادر در این عبارت -
04:28
grandmother was probably the same great, great, great, great
107
268260
2000
مادربزرگتون احتمالا با مادرِ مادرِ مادربزرگِ -با پنج میلیون مادر- هالی یکی‌ست.
04:30
grandmother with five million "greats" in there
108
270260
2000
مادربزرگتون احتمالا با مادرِ مادرِ مادربزرگِ -با پنج میلیون مادر- هالی یکی‌ست.
04:32
as Holly up here.
109
272260
2000
مادربزرگتون احتمالا با مادرِ مادرِ مادربزرگِ -با پنج میلیون مادر- هالی یکی‌ست.
04:34
You know, so you can take comfort in the fact that this guy up here is a really really distant,
110
274260
3000
می‌دونید که، خیالتون راحت باشه که این بچه فامیل خیلی خیلی دور شماست،
04:37
but albeit evolutionary, relative.
111
277260
2000
اما با این وجود یک فامیل تکاملی‌ست.
04:39
The good news about Holly though is that
112
279260
2000
با این همه، خبر خوب درباره‌ی هالی اینه که
04:41
she doesn't actually have the same kinds of technologies we do.
113
281260
3000
او درواقع فن‌آوری‌هایی که ما داریم را در اختیار ندارد.
04:44
You know, she's a smart, very cut creature, a primate as well,
114
284260
3000
می‌دانید، او باهوشه، یک موجود بسیار خوش‌بر و رو، و همچنین یک نخستی‌سان،
04:47
but she lacks all the stuff we think might be messing us up.
115
287260
2000
اما او فاقد همه‌ی چیزهایی‌ست که ممکنه باعث شده باشه که ما گند بزنیم.
04:49
So she's the perfect test case.
116
289260
2000
بنابراین یک مورد آزمایش بی عیب‌ست.
04:51
What if we put Holly into the same context as humans?
117
291260
3000
چی می‌شه اگر هالی را در همان بستری قرار بدیم که انسان‌ها قرار دارند؟
04:54
Does she make the same mistakes as us?
118
294260
2000
آیا همان اشتباهات ما را می‌کند؟
04:56
Does she not learn from them? And so on.
119
296260
2000
آیا او از اشتباهاتش درس نمی‌گیره؟ و همچین چیزهایی.
04:58
And so this is the kind of thing we decided to do.
120
298260
2000
و این کاری بود که تصمیم گرفتیم انجام بدیم.
05:00
My students and I got very excited about this a few years ago.
121
300260
2000
من و دانشجوهام چندسال پیش در این باره بسیار هیجان‌زده بودیم.
05:02
We said, all right, let's, you know, throw so problems at Holly,
122
302260
2000
ما گفتیم، بسیار خوب، بذار هالی را در معرض چند مشکل قرار بدیم،
05:04
see if she messes these things up.
123
304260
2000
و ببینیم که آشفته می‌شه یا نه.
05:06
First problem is just, well, where should we start?
124
306260
3000
مسئله‌ی اول دقیقا این بود که، خب، از کجا شروع کنیم؟
05:09
Because, you know, it's great for us, but bad for humans.
125
309260
2000
چون، می‌دانید، این برای ما عالی‌ست، اما برای انسان بده.
05:11
We make a lot of mistakes in a lot of different contexts.
126
311260
2000
ما اشتباهات زیادی را در بسترهای گوناگون مرتکب می‌شیم.
05:13
You know, where are we actually going to start with this?
127
313260
2000
خب، حالا با این باید از کجا شروع کنیم؟
05:15
And because we started this work around the time of the financial collapse,
128
315260
3000
و چون ما این کار را تقریبا هم‌زمان با بحران اقتصادی آغاز کردیم،
05:18
around the time when foreclosures were hitting the news,
129
318260
2000
زمانی که از دست رفتن وثیقه‌‌های بانکی هر روز در صدر اخبار بود،
05:20
we said, hhmm, maybe we should
130
320260
2000
گفتیم، آها، شاید ما باید
05:22
actually start in the financial domain.
131
322260
2000
در واقع از حیطه‌ی اقتصاد آغاز کنیم.
05:24
Maybe we should look at monkey's economic decisions
132
324260
3000
شاید ما باید تصمیم‌های اقتصادی میمون‌ها را بررسی کنیم
05:27
and try to see if they do the same kinds of dumb things that we do.
133
327260
3000
و ببینیم که آیا آنها همان اشتباه‌های مسخره‌ای را می‌کنند که ما هم می‌کنیم.
05:30
Of course, that's when we hit a sort second problem --
134
330260
2000
البته، این زمانی بود که ما به مشکل دوم برخورده بودیم -
05:32
a little bit more methodological --
135
332260
2000
یک کمی روش‌مند تر -
05:34
which is that, maybe you guys don't know,
136
334260
2000
که عبارت بود از، شاید شماها ندانید،
05:36
but monkeys don't actually use money. I know, you haven't met them.
137
336260
3000
اما میمون‌ها در اصل از پول استفاده نمی‌کنند. می‌دونم، شما تا حالا باهاشون دیدار نداشتید.
05:39
But this is why, you know, they're not in the queue behind you
138
339260
2000
اما به همین دلیل‌ست که، آنها در صف بقالی یا خودپرداز پشت شما نایستادند - آنها از این کارها نمی‌کنند.
05:41
at the grocery store or the ATM -- you know, they don't do this stuff.
139
341260
3000
اما به همین دلیل‌ست که، آنها در صف بقالی یا خودپرداز پشت شما نایستادند - آنها از این کارها نمی‌کنند.
05:44
So now we faced, you know, a little bit of a problem here.
140
344260
3000
پس ما در اینجا یک کمی با مشکل روبرو شدیم.
05:47
How are we actually going to ask monkeys about money
141
347260
2000
چطور می‌خوایم از میمون‌ها درباره‌ی پول بپرسیم
05:49
if they don't actually use it?
142
349260
2000
اگر آنها در اصل ازش استفاده نمی‌کنند؟
05:51
So we said, well, maybe we should just, actually just suck it up
143
351260
2000
پس ما گفتیم، خب، دندان روی جگر می‌گذاریم
05:53
and teach monkeys how to use money.
144
353260
2000
و به میمون‌ها یاد می‌دیم که چطور از پول استفاده کنند.
05:55
So that's just what we did.
145
355260
2000
بنابراین همین کار را کردیم.
05:57
What you're looking at over here is actually the first unit that I know of
146
357260
3000
آنچه شما در اینجا می‌بینید درواقع نخستین واحد ارزی غیر بشری‌ست که می‌شناسم.
06:00
of non-human currency.
147
360260
2000
آنچه شما در اینجا می‌بینید درواقع نخستین واحد ارزی غیر بشری‌ست که می‌شناسم.
06:02
We weren't very creative at the time we started these studies,
148
362260
2000
ما در زمان آغاز این مطالعه خیلی خلاقیت نداشتیم.
06:04
so we just called it a token.
149
364260
2000
بنابراین اسمش را گذاشتیم ژِتون.
06:06
But this is the unit of currency that we've taught our monkeys at Yale
150
366260
3000
اما این واحد ارزی بود که ما به میمون‌‌هامون در دانشگاه ییل آموزش دادیم که
06:09
to actually use with humans,
151
369260
2000
در واقع در تبادل با انسان‌ها ازش استفاده کنند،
06:11
to actually buy different pieces of food.
152
371260
3000
تا در واقع بتونن انواع غذاها را بخرند.
06:14
It doesn't look like much -- in fact, it isn't like much.
153
374260
2000
به نظر نمی‌آمد خیلی - در واقع خیلی شبیه نیست.
06:16
Like most of our money, it's just a piece of metal.
154
376260
2000
شبیه بیشتر پول‌های ما نیست، تنها یک تکه آهن‌ست.
06:18
As those of you who've taken currencies home from your trip know,
155
378260
3000
شماهایی که پس از سفرهاتون ارز به خانه می‌برید می‌دونید که،
06:21
once you get home, it's actually pretty useless.
156
381260
2000
به محضی که برگردید خانه، آن ارز کاملا بی‌مصرف می‌شه.
06:23
It was useless to the monkeys at first
157
383260
2000
این اولش برای میمون‌ها بی‌استفاده بود
06:25
before they realized what they could do with it.
158
385260
2000
پیش از آنکه پی ببرن باهاش چی‌کار می‌تونن بکنن.
06:27
When we first gave it to them in their enclosures,
159
387260
2000
وقتی در آغاز در قفس‌هاشان این را بهشون دادیم،
06:29
they actually kind of picked them up, looked at them.
160
389260
2000
درواقع برش داشتند و بهش خیره شدند.
06:31
They were these kind of weird things.
161
391260
2000
در این حد براشون عجیب بود.
06:33
But very quickly, the monkeys realized
162
393260
2000
اما میمون‌ها به سرعت تشخیص دادند
06:35
that they could actually hand these tokens over
163
395260
2000
که در حقیقت می‌تونن این ژِتون را در ازای غذا به آدم‌ها در آزمایشگاه بدن.
06:37
to different humans in the lab for some food.
164
397260
3000
که در حقیقت می‌تونن این ژِتون را در ازای غذا به آدم‌ها در آزمایشگاه بدن.
06:40
And so you see one of our monkeys, Mayday, up here doing this.
165
400260
2000
و می‌بینید که یکی از میمون‌های ما، می‌دِی، اینجا داره همین‌کار را می‌کند.
06:42
This is A and B are kind of the points where she's sort of a little bit
166
402260
3000
A و B مراحلی هستند که در آنها او تقریبا درباره این‌چیزها کنجکاو بود - چیزی نمی‌دانست.
06:45
curious about these things -- doesn't know.
167
405260
2000
A و B مراحلی هستند که در آنها او تقریبا درباره این‌چیزها کنجکاو بود - چیزی نمی‌دانست.
06:47
There's this waiting hand from a human experimenter,
168
407260
2000
این دستِ منتظرِ یک انسان آزمایشگر است،
06:49
and Mayday quickly figures out, apparently the human wants this.
169
409260
3000
و می‌دی به سرعت فهمید، که ظاهرا انسان از او این را می‌خواد.
06:52
Hands it over, and then gets some food.
170
412260
2000
آن را بهش تحویل می‌ده، و سپس مقداری غذا می‌گیرد.
06:54
It turns out not just Mayday, all of our monkeys get good
171
414260
2000
معلوم شد که نه تنها می‌دی، بلکه همه‌ی میمون‌های ما در تجارت با ژِتون با فروشندگان انسان پیشرفت کردند.
06:56
at trading tokens with human salesman.
172
416260
2000
معلوم شد که نه تنها می‌دی، بلکه همه‌ی میمون‌های ما در تجارت با ژِتون با فروشندگان انسان پیشرفت کردند.
06:58
So here's just a quick video of what this looks like.
173
418260
2000
خب، اینجا یک ویدئوی کوتاه از این جریان داریم.
07:00
Here's Mayday. She's going to be trading a token for some food
174
420260
3000
این می‌دی است. او می‌خواد چند ژِتون برای گرفتن غذا خرج کند
07:03
and waiting happily and getting her food.
175
423260
3000
و با خوشحالی منتظرست که غذا بگیرد.
07:06
Here's Felix, I think. He's our alpha male; he's a kind of big guy.
176
426260
2000
فکر می‌کنم این فلیکس‌ باشه، او قوی‌ترین نر ماست؛ هیکلش خیلی بزرگ‌ست.
07:08
But he too waits patiently, gets his food and goes on.
177
428260
3000
اما او هم با شکیبایی منتظرست، غذاش را می‌گیرد و می‌ره.
07:11
So the monkeys get really good at this.
178
431260
2000
بنابراین میمون‌ها پیشرفت خیلی خوبی داشتند.
07:13
They're surprisingly good at this with very little training.
179
433260
3000
آنها به طور غافلگیرانه‌ای با اندکی تمرین در این پیشرفت کردند.
07:16
We just allowed them to pick this up on their own.
180
436260
2000
ما تنها به آنها اجازه دادیم این را خودشان به عهده بگیرند.
07:18
The question is: is this anything like human money?
181
438260
2000
پرسش اینه که: آیا این چیزی شبیه به پول انسان است؟
07:20
Is this a market at all,
182
440260
2000
آیا این اصلا یک بازار است،
07:22
or did we just do a weird psychologist's trick
183
442260
2000
یا اینکه ما تنها با واداشتن میمون‌ها به انجام این کار یک حقه‌ی عجیب روانشناسی زدیم،
07:24
by getting monkeys to do something,
184
444260
2000
یا اینکه ما تنها با واداشتن میمون‌ها به انجام این کار یک حقه‌ی عجیب روانشناسی زدیم،
07:26
looking smart, but not really being smart.
185
446260
2000
به نظر باهوش میان، اما واقعا هوشمند نیستند.
07:28
And so we said, well, what would the monkeys spontaneously do
186
448260
3000
بنابراین گفتیم، میمون‌ها خودبخود چه کار می‌کنند
07:31
if this was really their currency, if they were really using it like money?
187
451260
3000
اگر این واقعا واحد پول آنها باشه، اگر واقعا از آن به عنوان پول استفاده کنند؟
07:34
Well, you might actually imagine them
188
454260
2000
خب، می‌شه آنها را تصور کنی
07:36
to do all the kinds of smart things
189
456260
2000
که همان کارهای هوشمندانه‌ای را انجام می‌دن
07:38
that humans do when they start exchanging money with each other.
190
458260
3000
که انسان‌ها وقتی شروع به مبادله‌ی پول با یکدیگر کردند، می‌کنند.
07:41
You might have them start paying attention to price,
191
461260
3000
ممکنه بشه آنها را واداشت که به قیمت توجه کنند،
07:44
paying attention to how much they buy --
192
464260
2000
حواسشان باشه که چقدر خرید می‌کنند -
07:46
sort of keeping track of their monkey token, as it were.
193
466260
3000
که حساب پولی که خرج می‌کنند را نگه‌ دارند،
07:49
Do the monkeys do anything like this?
194
469260
2000
آیا میمون‌ها کاری شبیه به این انجام می‌دن؟
07:51
And so our monkey marketplace was born.
195
471260
3000
و به این ترتیب بازرگانی میمون‌ها متولد شد.
07:54
The way this works is that
196
474260
2000
روش کار به این صورت است که
07:56
our monkeys normally live in a kind of big zoo social enclosure.
197
476260
3000
میمون‌های ما معمولا در یک حصار بزرگ مانند باغ‌وحش همزیستی دارند.
07:59
When they get a hankering for some treats,
198
479260
2000
هنگامی‌که هوس چیز خوشمزه‌ای می‌کنند،
08:01
we actually allowed them a way out
199
481260
2000
ما در اصل بهشون اجازه دادیم که بیرون برن
08:03
into a little smaller enclosure where they could enter the market.
200
483260
2000
و وارد محوطه‌ی کوچک‌تری بشن که از آنجا می‌تونن وارد بازار بشن.
08:05
Upon entering the market --
201
485260
2000
به محض ورود به بازار -
08:07
it was actually a much more fun market for the monkeys than most human markets
202
487260
2000
بازار میمون‌‌ها در واقع از خیلی از بازارهای انسانی جذاب‌تر بود
08:09
because, as the monkeys entered the door of the market,
203
489260
3000
چون، به محض ورود میمون‌ها به آستانه‌ی این بازار،
08:12
a human would give them a big wallet full of tokens
204
492260
2000
یک انسان به آنها یک کیف پر از ژِتون می‌ده
08:14
so they could actually trade the tokens
205
494260
2000
بنابراین آنها می‌تونن این پول‌ها را با یکی از دو نفری که اینجا هستند مبادله کنند -
08:16
with one of these two guys here --
206
496260
2000
بنابراین آنها می‌تونن این پول‌ها را با یکی از دو نفری که اینجا هستند مبادله کنند -
08:18
two different possible human salesmen
207
498260
2000
دو امکان متفاوت برای خرید خرت و پرت از دو فروشنده‌ی انسان.
08:20
that they could actually buy stuff from.
208
500260
2000
دو امکان متفاوت برای خرید خرت و پرت از دو فروشنده‌ی انسان.
08:22
The salesmen were students from my lab.
209
502260
2000
این فروشنده‌ها دو تا از دانشجویان آزمایشگاه من بودند.
08:24
They dressed differently; they were different people.
210
504260
2000
آنها لباس‌های متفاوتی می‌پوشیدند؛ آدم‌های متفاوتی بودند.
08:26
And over time, they did basically the same thing
211
506260
3000
و آنها در طی زمان کار مشابهی را تکرار می‌کردند
08:29
so the monkeys could learn, you know,
212
509260
2000
بنابراین میمون‌ها می‌تونستن یاد بگیرن، می‌دانید،
08:31
who sold what at what price -- you know, who was reliable, who wasn't, and so on.
213
511260
3000
این‌که کی چی را به چه قیمتی می‌فروشد - کی قابل اعتماده، کی نیست، و...
08:34
And you can see that each of the experimenters
214
514260
2000
و می‌تونید ببینید که هر کدام از آزمایش‌گرها
08:36
is actually holding up a little, yellow food dish.
215
516260
3000
دراصل یک بشقاب کوچک و زرد غذا به دست دارد.
08:39
and that's what the monkey can for a single token.
216
519260
2000
و این چیزی‌ست که میمون‌ها در ازای یک ژِتون دریافت می‌کنند.
08:41
So everything costs one token,
217
521260
2000
پس همه‌چیز یک ژِتون می‌ارزد،
08:43
but as you can see, sometimes tokens buy more than others,
218
523260
2000
اما همانطور که می‌بینید، گاهی ژِتون‌ها بیش از بقیه اوقات توانایی خرید دارند،
08:45
sometimes more grapes than others.
219
525260
2000
گاهی انگورهای بیشتری می‌ارزند.
08:47
So I'll show you a quick video of what this marketplace actually looks like.
220
527260
3000
‍خب، من به شما یک ویدئوی کوتاه نشان می‌دم تا این دادوستد را از نزدیک ببینید.
08:50
Here's a monkey-eye-view. Monkeys are shorter, so it's a little short.
221
530260
3000
از نگاه یک میمون درستش کردیم. میمون‌ها کوتاه‌ترند، بنابراین بازار هم کوتاه‌تر است.
08:53
But here's Honey.
222
533260
2000
این هانی‌ ست.
08:55
She's waiting for the market to open a little impatiently.
223
535260
2000
او کمی برای باز شدن بازار بیتابی می‌کنه.
08:57
All of a sudden the market opens. Here's her choice: one grapes or two grapes.
224
537260
3000
ناگهان بازار باز می‌شه. انتخابش اینه: یک انگور یا دو انگور.
09:00
You can see Honey, very good market economist,
225
540260
2000
می‌تونید هانی را، که یک اقتصاددان بازاری خیلی خوبه، ببینید،
09:02
goes with the guy who gives more.
226
542260
3000
که سمت کسی می‌ره که بهش انگور بیشتری می‌ده.
09:05
She could teach our financial advisers a few things or two.
227
545260
2000
او می‌تونه به مشاوران مالی یکی-دو چیز یاد بده.
09:07
So not just Honey,
228
547260
2000
نه تنها هانی،
09:09
most of the monkeys went with guys who had more.
229
549260
3000
بلکه بیشتر میمون‌ها به سوی کسی رفتند که بیشتر می‌فروخت.
09:12
Most of the monkeys went with guys who had better food.
230
552260
2000
بیشتر میمون‌ها سراغ کسی رفتند که غذای بهتری داشت.
09:14
When we introduced sales, we saw the monkeys paid attention to that.
231
554260
3000
وقتی حراجی برگزار کردیم، دیدیم که میمون‌ها بهش توجه نشان دادند.
09:17
They really cared about their monkey token dollar.
232
557260
3000
آنها واقعا مراقب ارز میمونی بودند.
09:20
The more surprising thing was that when we collaborated with economists
233
560260
3000
موضوع جالب‌تر اینه که وقتی ما با اقتصاددان‌ها همکاری کردیم
09:23
to actually look at the monkeys' data using economic tools,
234
563260
3000
تا اساسا داده‌های فعالیت میمون‌ها که از ابزارهای اقتصادی استفاده می‌کردند بررسی کنیم،
09:26
they basically matched, not just qualitatively,
235
566260
3000
این داده‌ها نه تنها به صورت کیفی، بلکه از نظر کمّی با فعالیت انسان‌ها در بازار واقعی می‌کردند، منطبق بود.
09:29
but quantitatively with what we saw
236
569260
2000
این داده‌ها نه تنها به صورت کیفی، بلکه از نظر کمّی با فعالیت انسان‌ها در بازار واقعی می‌کردند، منطبق بود.
09:31
humans doing in a real market.
237
571260
2000
این داده‌ها نه تنها به صورت کیفی، بلکه از نظر کمّی با فعالیت انسان‌ها در بازار واقعی، منطبق بود.
09:33
So much so that, if you saw the monkeys' numbers,
238
573260
2000
به اندازه‌ای که، اگر آمار میمون‌ها را می‌دیدید،
09:35
you couldn't tell whether they came from a monkey or a human in the same market.
239
575260
3000
نمی‌تونستید بگید که آیا این در یک بازار مربوط به انسان‌ست یا مربوط به یک میمون.
09:38
And what we'd really thought we'd done
240
578260
2000
و آنچه ما واقعا می‌خواستیم انجام بدیم
09:40
is like we'd actually introduced something
241
580260
2000
این بود که در واقع چیزی را معرفی کنیم
09:42
that, at least for the monkeys and us,
242
582260
2000
که دست‌کم برای میمون‌ها و ما،
09:44
works like a real financial currency.
243
584260
2000
مانند یک ارز مالی، موثر باشه.
09:46
Question is: do the monkeys start messing up in the same ways we do?
244
586260
3000
پرسش اینه: آیا میمون‌‌ها هم شروع به اشتباهاتی می‌کنند که ما مرتکب شدیم؟
09:49
Well, we already saw anecdotally a couple of signs that they might.
245
589260
3000
خب، ما بر اساس یکی- دو نشانه شواهدی داشتیم که ممکنه اینطور باشه.
09:52
One thing we never saw in the monkey marketplace
246
592260
2000
یکی اینکه ما در دادوستد میمون‌ها هیچ مدرکی دال بر پس‌انداز ندیدیم -
09:54
was any evidence of saving --
247
594260
2000
یکی اینکه ما در دادوستد میمون‌ها هیچ مدرکی دال بر پس‌انداز ندیدیم -
09:56
you know, just like our own species.
248
596260
2000
می‌دونید، درست مانند گونه‌ی انسان،
09:58
The monkeys entered the market, spent their entire budget
249
598260
2000
میمون‌ها وارد بازار شدند، همه‌ی دارایی‌شان را خرج کردند،
10:00
and then went back to everyone else.
250
600260
2000
و سپس سراغ همدیگر رفتند.
10:02
The other thing we also spontaneously saw,
251
602260
2000
چیز دیگری که ما به صورت خودجوش مشاهده کردیم،
10:04
embarrassingly enough,
252
604260
2000
و کاملا شرم‌آور بود،
10:06
is spontaneous evidence of larceny.
253
606260
2000
شواهدی مبنی بر دزدی خودانگیخته بود.
10:08
The monkeys would rip-off the tokens at every available opportunity --
254
608260
3000
میمون‌ها ژِتونها را در هرفرصتی که به دست‌می‌آوردند کِش می‌رفتند -
10:11
from each other, often from us --
255
611260
2000
از همدیگر، و اغلب از ما -
10:13
you know, things we didn't necessarily think we were introducing,
256
613260
2000
می‌دانید، چیزهایی که ما فکر نمی‌کردیم ضرورتا پیش بیاد،
10:15
but things we spontaneously saw.
257
615260
2000
اما آنها را به صورت خودانگیخته در میمون‌ها مشاهده کردیم.
10:17
So we said, this looks bad.
258
617260
2000
و گفتیم، این به نظر ناخوشایند میاد.
10:19
Can we actually see if the monkeys
259
619260
2000
آیا می‌تونیم ببینیم که میمون‌ها
10:21
are doing exactly the same dumb things as humans do?
260
621260
3000
دارند دقیقا همان کارهای احمقانه‌ای را می‌کنند که انسان‌ها انجام می‌دن؟
10:24
One possibility is just kind of let
261
624260
2000
یک امکان اینه که ما اجازه بدیم
10:26
the monkey financial system play out,
262
626260
2000
سازمان مالی میمون‌ها تا پایان پیش بره،
10:28
you know, see if they start calling us for bailouts in a few years.
263
628260
2000
می‌دانید، تا ببینیم آیا آنها در عرض چند سال اعلام ورشکستگی می‌کنند.
10:30
We were a little impatient so we wanted
264
630260
2000
ما کمی ناشکیبا بودیم، آنفدر که می‌خواستیم
10:32
to sort of speed things up a bit.
265
632260
2000
کمی به ماجرا سرعت ببخشیم.
10:34
So we said, let's actually give the monkeys
266
634260
2000
بنابراین گفتیم، بذار میمون‌‌ها را با همان مشکلاتی روبرو کنیم
10:36
the same kinds of problems
267
636260
2000
بنابراین گفتیم، بذار میمون‌‌ها را با همان مشکلاتی روبرو کنیم
10:38
that humans tend to get wrong
268
638260
2000
که انسان‌ها در چالش‌های اقتصادی خاص گرایش به انجام‌شان دارند،
10:40
in certain kinds of economic challenges,
269
640260
2000
که انسان‌ها در چالش‌های اقتصادی خاص گرایش به انجام‌شان دارند،
10:42
or certain kinds of economic experiments.
270
642260
2000
یا انواع خاصی از آزمایش‌های اقتصادی.
10:44
And so, since the best way to see how people go wrong
271
644260
3000
و خب، چون بهترین راه برای فهمیدن اینکه چرا آدم‌ها اشتباه می‌کنند
10:47
is to actually do it yourself,
272
647260
2000
اینه که خودت واقعا انجامش بدی،
10:49
I'm going to give you guys a quick experiment
273
649260
2000
من می‌خوام یک آزمایش سریع روی شماها بکنم
10:51
to sort of watch your own financial intuitions in action.
274
651260
2000
تا در عمل به برآورد درستی از غرایز مالی خودتان برسید.
10:53
So imagine that right now
275
653260
2000
بنابراین همین الان تصور کنید
10:55
I handed each and every one of you
276
655260
2000
که من به تک تک شما
10:57
a thousand U.S. dollars -- so 10 crisp hundred dollar bills.
277
657260
3000
هزار دلار آمریکا دادم - ده‌تا اسکناس نوی صد دلاری.
11:00
Take these, put it in your wallet
278
660260
2000
این را می‌گیرید، و در کیف‌پولتان می‌گذارید
11:02
and spend a second thinking about what you're going to do with it.
279
662260
2000
و یک لحظه درباره‌ی این فکر می‌کنید که می‌خواید باهاش چی‌کار کنید.
11:04
Because it's yours now; you can buy whatever you want.
280
664260
2000
چون حالا این مال شماست؛ می‌تونید هر چی که می‌خواید بخرید.
11:06
Donate it, take it, and so on.
281
666260
2000
آن را ببخشید، یا هرکاری.
11:08
Sounds great, but you get one more choice to earn a little bit more money.
282
668260
3000
به نظر عالی میاد، اما شما یک گزینه‌ی دیگر هم دارید که بتونید پول بیشتری در بیارید.
11:11
And here's your choice: you can either be risky,
283
671260
3000
و گزینه‌ی شما اینه: می‌تونید خطر کنید،
11:14
in which case I'm going to flip one of these monkey tokens.
284
674260
2000
در این حالت من می‌خوام با یکی از ژِتون‌های میمون‌ها شیر یا خط بندازم.
11:16
If it comes up heads, you're going to get a thousand dollars more.
285
676260
2000
اگر شیر آمد، هزار دلار بیشتر گیرت میاد.
11:18
If it comes up tails, you get nothing.
286
678260
2000
اگر خط آمد، هیچی دستت را نمی‌گیره.
11:20
So it's a chance to get more, but it's pretty risky.
287
680260
3000
بنابراین یک فرصت‌ست برای اینکه بیشتر به دست بیاری، اما کم و بیش پرمخاطره‌ست.
11:23
Your other option is a bit safe. Your just going to get some money for sure.
288
683260
3000
گزینه‌ی بعدی‌ات مطمئن‌تره. قراره بی‌بروبرگرد مقداری پول گیرت بیاد.
11:26
I'm just going to give you 500 bucks.
289
686260
2000
من قصد دارم بهتون ۵۰۰ چوق بدم.
11:28
You can stick it in your wallet and use it immediately.
290
688260
3000
می‌تونید سریع در کیف پولتان بچپبانید و بلافاصله خرجش کنید.
11:31
So see what your intuition is here.
291
691260
2000
خب ببینید که بینش شما دراین‌باره چیه.
11:33
Most people actually go with the play-it-safe option.
292
693260
3000
بیشتر مردم گزینه‌ی امن‌تر را انتخاب می‌:کنند.
11:36
Most people say, why should I be risky when I can get 1,500 dollars for sure?
293
696260
3000
بیشتر مردم می‌گن، چرا باید خطر کنم وقتی بی‌بروبرگرد ۱٫۵۰۰ دلار گیرم میاد؟
11:39
This seems like a good bet. I'm going to go with that.
294
699260
2000
به نظر قمار خوبی میاد. من می‌خوام این را امتحان کنم.
11:41
You might say, eh, that's not really irrational.
295
701260
2000
ممکنه بگید، خب این خیلی غیر منطقی نیست.
11:43
People are a little risk-averse. So what?
296
703260
2000
مردم کمی ریسک-گریز هستند. خب که چی؟
11:45
Well, the "so what?" comes when start thinking
297
705260
2000
خب، این «خب که چی؟» برمی‌گرده وقتی شروع به فکر کردن به همان مسئله می‌کنی
11:47
about the same problem
298
707260
2000
خب، این «خب که چی؟» برمی‌گرده وقتی شروع به فکر کردن به همان مسئله می‌کنی
11:49
set up just a little bit differently.
299
709260
2000
که حالا فقط کمی دست‌کاری شده.
11:51
So now imagine that I give each and every one of you
300
711260
2000
خب، حالا تصور کنید که من به هرکدام از شما
11:53
2,000 dollars -- 20 crisp hundred dollar bills.
301
713260
3000
۲٫۰۰۰ دلار می‌دم، ۲۰ تا اسکناس نوی صد دلاری.
11:56
Now you can buy double to stuff you were going to get before.
302
716260
2000
حالا قدرت خریدتان نسبت به آنچه که بود دوبرابر بیشتر شده‌‌است.
11:58
Think about how you'd feel sticking it in your wallet.
303
718260
2000
به این فکر کنید که وقتی دارید در کیف پولتان می‌چپانیدش چه احساسی دارید.
12:00
And now imagine that I have you make another choice
304
720260
2000
حالا فکر کنید که من حالا شما را در معرض یک گزینه‌ی دیگر قرار می‌دم
12:02
But this time, it's a little bit worse.
305
722260
2000
اما این بار، کمی بدتر.
12:04
Now, you're going to be deciding how you're going to lose money,
306
724260
3000
حالا شما باید تصمیم بگیرید که چطور این پول را از دست بدید،
12:07
but you're going to get the same choice.
307
727260
2000
اما انتخابتان از همان روند پیش تبعیت می‌کند.
12:09
You can either take a risky loss --
308
729260
2000
می‌تونید برای از دست دادن پولتان خطر کنید -
12:11
so I'll flip a coin. If it comes up heads, you're going to actually lose a lot.
309
731260
3000
بنابراین من یک سکه می‌اندازم، اگر شیر آمد، درواقع کلی پول از دست می‌دید.
12:14
If it comes up tails, you lose nothing, you're fine, get to keep the whole thing --
310
734260
3000
اگر خط آمد، هیچی از دست نمی‌دید، همه چی درسته، می‌تونی همش را نگه‌داری -
12:17
or you could play it safe, which means you have to reach back into your wallet
311
737260
3000
یا اینکه خطر نکنی، که یعنی باید دست کنی تو کیفت
12:20
and give me five of those $100 bills, for certain.
312
740260
3000
و پنج تا از این صد دلاری‌ها را بی برو برگرد به من پس بدی.
12:23
And I'm seeing a lot of furrowed brows out there.
313
743260
3000
حالا دارم کلی پیشانی چین خورده می‌بینم.
12:26
So maybe you're having the same intuitions
314
746260
2000
بنابراین شاید شما هم دریافت مشابهی از موضوعاتی که ما آزمایش کردیم دارید،
12:28
as the subjects that were actually tested in this,
315
748260
2000
بنابراین شاید شما هم دریافت مشابهی از موضوعاتی که ما آزمایش کردیم دارید،
12:30
which is when presented with these options,
316
750260
2000
که هنگام رویارویی با چنین گزینه‌هایی، مردم گزینه‌ی بی‌خطر را انتخاب نمی‌کنند.
12:32
people don't choose to play it safe.
317
752260
2000
که هنگام رویارویی با چنین گزینه‌هایی، مردم گزینه‌ی بی‌خطر را انتخاب نمی‌کنند.
12:34
They actually tend to go a little risky.
318
754260
2000
آنها در اصل به خطرپذیری گرایش پیدا می‌کنند.
12:36
The reason this is irrational is that we've given people in both situations
319
756260
3000
دلیل غیرمنطقی بودن چنین چیزی اینه که ما در هردو موقعیت آدم‌ها را در معرض یک انتخاب قرار دادیم.
12:39
the same choice.
320
759260
2000
دلیل غیرمنطقی بودن چنین چیزی اینه که ما در هردو موقعیت آدم‌ها را در معرض یک انتخاب قرار دادیم.
12:41
It's a 50/50 shot of a thousand or 2,000,
321
761260
3000
یک فرصت پنجاه - پنجاه‌ست که هزارتا داشته باشید یا ۲٫۰۰۰ تا،
12:44
or just 1,500 dollars with certainty.
322
764260
2000
یا اینکه ۱٫۵۰۰ دلار را با اطمینان به جیب بزنید.
12:46
But people's intuitions about how much risk to take
323
766260
3000
اما شهود آدم‌ها برای میزان ریسکی که باید بپذیرند
12:49
varies depending on where they started with.
324
769260
2000
براساس جایی که باهاش شروع کردند فرق می‌کند.
12:51
So what's going on?
325
771260
2000
خب یعنی چه خبره؟
12:53
Well, it turns out that this seems to be the result
326
773260
2000
خب، به نظر میاد که این باید نتیجه‌ی
12:55
of at least two biases that we have at the psychological level.
327
775260
3000
دست‌کم دو محرک باشد که در سطح روانشناسی دارای آنها هستیم.
12:58
One is that we have a really hard time thinking in absolute terms.
328
778260
3000
یکی اینه که ما برامون بسیار سخت‌ست که به طور مطلق و محض فکر کنیم.
13:01
You really have to do work to figure out,
329
781260
2000
باید خیلی تلاش کنید که بتونید سر در بیارید،
13:03
well, one option's a thousand, 2,000;
330
783260
2000
خب، یک گزینه عبارت‌ست از یک دوراهی هزار یا ۲٫۰۰۰؛
13:05
one is 1,500.
331
785260
2000
و دیگری ۱٫۵۰۰ تا.
13:07
Instead, we find it very easy to think in very relative terms
332
787260
3000
به جاش، برامون بسیار آسان‌ست که وقتی گزینه‌ها هربار عوض می‌شن به‌طور نسبی فکر کنیم.
13:10
as options change from one time to another.
333
790260
3000
به جاش، برامون بسیار آسان‌ست که وقتی گزینه‌ها هربار عوض می‌شن به‌طور نسبی فکر کنیم.
13:13
So we think of things as, "Oh, I'm going to get more," or "Oh, I'm going to get less."
334
793260
3000
برای‌همین اینطوری فکر‌ می‌کنیم: «اوه، قراره بیشتر گیرم بیاد،» یا «اوه، قراره کمتر گیرم بیاد.»
13:16
This is all well and good, except that
335
796260
2000
این هیچ ضرری ندارد، جز اینکه
13:18
changes in different directions
336
798260
2000
تغییرات در جنبه‌های گوناگون
13:20
actually effect whether or not we think
337
800260
2000
در واقع بر قضاوت ما، که یک گزینه بده یا خوب، تاثیر می‌گذارن.
13:22
options are good or not.
338
802260
2000
در واقع بر قضاوت ما، که یک گزینه بده یا خوب، تاثیر می‌گذارن.
13:24
And this leads to the second bias,
339
804260
2000
و این ما را به سوی محرک دوم هدایت می‌کنه،
13:26
which economists have called loss aversion.
340
806260
2000
که اقتصاددان‌ها بهش می‌گن زیان-گریزی.
13:28
The idea is that we really hate it when things go into the red.
341
808260
3000
قضیه اینه که ما واقعا از این که اوضاع قاطی بشه متنفریم.
13:31
We really hate it when we have to lose out on some money.
342
811260
2000
ما از اینکه مجبور بشیم پول از دست بدیم واقعا بدمون میاد.
13:33
And this means that sometimes we'll actually
343
813260
2000
و این یعنی ما گاهی اولویت‌هامون را تغییر می‌دیم تا از این اجتناب کنیم.
13:35
switch our preferences to avoid this.
344
815260
2000
و این یعنی ما گاهی اولویت‌هامون را تغییر می‌دیم تا از این اجتناب کنیم.
13:37
What you saw in that last scenario is that
345
817260
2000
آنچه شما در مورد اخیر دیدید اینه که
13:39
subjects get risky
346
819260
2000
سوژه‌های آزمایش ریسک‌پذیر می‌شن
13:41
because they want the small shot that there won't be any loss.
347
821260
3000
چون آنها خواهان آن فرصت نادری هستند که توش چیزی را نبازند.
13:44
That means when we're in a risk mindset --
348
824260
2000
این یعنی وقتی ما در چارچوب فکری خطر کردن هستیم -
13:46
excuse me, when we're in a loss mindset,
349
826260
2000
ببخشید، وقتی در فضای فکری باختن قرار بگیریم،
13:48
we actually become more risky,
350
828260
2000
در واقع خطرپذیرتر می‌شیم،
13:50
which can actually be really worrying.
351
830260
2000
که می‌تونه بسیار نگران‌کننده باشد.
13:52
These kinds of things play out in lots of bad ways in humans.
352
832260
3000
این چیزها نقش مهمی در بسیار روش‌های نادرست انسان بازی می‌کند.
13:55
They're why stock investors hold onto losing stocks longer --
353
835260
3000
این دلیل اینه که چرا سهام‌داران سهام‌های ضررده را بیشتر نگه‌می‌دارند -
13:58
because they're evaluating them in relative terms.
354
838260
2000
چون دارن آنها را به طور نسبی ارزیابی می‌کنند.
14:00
They're why people in the housing market refused to sell their house --
355
840260
2000
این دلیل اینه که مردم در بازار مسکن از فروختن خانه‌هاشون سر باز می‌زنند -
14:02
because they don't want to sell at a loss.
356
842260
2000
چون نمی‌خوان به قیمت کمتر بفروشند.
14:04
The question we were interested in
357
844260
2000
پرسشی که برای ما جالب بود این بود که
14:06
is whether the monkeys show the same biases.
358
846260
2000
آیا میمون‌ها هم همان انگیزه‌ها را از خودشان نشان می‌دن.
14:08
If we set up those same scenarios in our little monkey market,
359
848260
3000
اگر همان شرایط را در بازار کوچک میمون‌ها اجرا کنیم،
14:11
would they do the same thing as people?
360
851260
2000
آنها به عنوان ساکنان بازار چه می‌کردند؟
14:13
And so this is what we did, we gave the monkeys choices
361
853260
2000
خب پس این کاری بود که کردیم، ما به میمون‌ها انتخاب‌‌هایی را واگذار کردیم
14:15
between guys who were safe -- they did the same thing every time --
362
855260
3000
میان کسانی که معامله باهاشون امن بود- همیشه کار یکسانی می‌کردند -
14:18
or guys who were risky --
363
858260
2000
یا افراد پرمخاطره -
14:20
they did things differently half the time.
364
860260
2000
آنها نصف اوقات رَوش‌شون را عوض می‌کردند.
14:22
And then we gave them options that were bonuses --
365
862260
2000
و بهشون گزینه‌هایی پیشنهاد می‌دادند که حاوی پاداش بود -
14:24
like you guys did in the first scenario --
366
864260
2000
مثل شرایط اولی که شما در آن قرار گرفتید -
14:26
so they actually have a chance more,
367
866260
2000
پس آنها در اصل شانس این را داشتند که بیشتر گیرشان بیاد،
14:28
or pieces where they were experiencing losses --
368
868260
3000
یا گاهی از دست دادن را تجربه می‌‌کردند -
14:31
they actually thought they were going to get more than they really got.
369
871260
2000
به آنها آموزش داده شد که که قراره گاهی بیش از حد معمول به دست بیارن.
14:33
And so this is what this looks like.
370
873260
2000
و این چیزی‌ست که رخ داد.
14:35
We introduced the monkeys to two new monkey salesmen.
371
875260
2000
ما آنها را به دو فروشنده‌ی تازه معرفی کردیم.
14:37
The guy on the left and right both start with one piece of grape,
372
877260
2000
افراد راست و چپ هر دو با یک انگور شروع کردند،
14:39
so it looks pretty good.
373
879260
2000
که به نظر مناسب میاد.
14:41
But they're going to give the monkeys bonuses.
374
881260
2000
اما آنها قراره به میمون‌ها پاداش بدن.
14:43
The guy on the left is a safe bonus.
375
883260
2000
فروشنده‌ی سمت چپ یک پاداش‌دهنده‌ی بی‌مخاطره‌ست.
14:45
All the time, he adds one, to give the monkeys two.
376
885260
3000
همیشه، یکی اضافه می‌کنه، و به میمون‌ها دوتا می‌ده.
14:48
The guy on the right is actually a risky bonus.
377
888260
2000
و یاروی سمت چپی یک پاداش‌دهنده‌ی نامطمئن‌ست.
14:50
Sometimes the monkeys get no bonus -- so this is a bonus of zero.
378
890260
3000
گاهی میمون‌ها هیچ پاداشی نمی‌گرفتند - این پاداشِ صفر است.
14:53
Sometimes the monkeys get two extra.
379
893260
3000
و گاهی میمون‌ها دوتا اضافی می‌گرفتند.
14:56
For a big bonus, now they get three.
380
896260
2000
و به عنوان یک پاداش استثنایی، سه تا دریافت می‌کردند.
14:58
But this is the same choice you guys just faced.
381
898260
2000
اما این همان انتخابی‌ست که شماها باهاش روبرو شدید.
15:00
Do the monkeys actually want to play it safe
382
900260
3000
آیا میمون‌ها می‌خوان که در امنیت پیش برن
15:03
and then go with the guy who's going to do the same thing on every trial,
383
903260
2000
و سراغ کسی برن که در هر آزمون همان کار همیشگی را می‌کند،
15:05
or do they want to be risky
384
905260
2000
یا می‌خوان خطر کنند،
15:07
and try to get a risky, but big, bonus,
385
907260
2000
و پاداش نامطمئن، اما بزرگ را دریافت کنند،
15:09
but risk the possibility of getting no bonus.
386
909260
2000
و خطر احتمال دریافت هیچ پاداشی را به جان بخرند.
15:11
People here played it safe.
387
911260
2000
مردم اینجا گزینه‌ی بی‌خطر را انتخاب کردند.
15:13
Turns out, the monkeys play it safe too.
388
913260
2000
معلوم شد، که میمون‌‌ها هم سراغ گزینه‌ی امن رفتند.
15:15
Qualitatively and quantitatively,
389
915260
2000
هم از نظر کمّی و هم کیفی،
15:17
they choose exactly the same way as people,
390
917260
2000
آنها در این آزمایش یکسان دقیقا به همان روشی پیش رفتند که مردم.
15:19
when tested in the same thing.
391
919260
2000
آنها در این آزمایش یکسان دقیقا به همان روشی پیش رفتند که مردم.
15:21
You might say, well, maybe the monkeys just don't like risk.
392
921260
2000
ممکنه بگید، شاید میمون‌ها اصلا ریسک‌پذیر نیستند.
15:23
Maybe we should see how they do with losses.
393
923260
2000
باید ببینیم که با ضررکردن چطور کنار میان.
15:25
And so we ran a second version of this.
394
925260
2000
پس ما نسخه‌ی دوم این آزمایش را اجرا کردیم.
15:27
Now, the monkeys meet two guys
395
927260
2000
حالا، میمون‌ها این دو نفر را ملاقات کردند
15:29
who aren't giving them bonuses;
396
929260
2000
که بهشان پاداش نمی‌دادند؛
15:31
they're actually giving them less than they expect.
397
931260
2000
درواقع کمتر از آنچه انتظار داشتند تحویل می‌دادند.
15:33
So they look like they're starting out with a big amount.
398
933260
2000
خب، شبیه این بود که آنها قصد دادن پاداش زیادی را داشتند.
15:35
These are three grapes; the monkey's really psyched for this.
399
935260
2000
اینجا سه تا انگور هست؛ میمون‌ها واقعا برای این مشتاق بودند.
15:37
But now they learn these guys are going to give them less than they expect.
400
937260
3000
اما کم کم یاد گرفتند که این افراد قراره کمتر از حد انتظار بهشون انگور بدن.
15:40
They guy on the left is a safe loss.
401
940260
2000
فروشنده‌ی سمت چپ ضرر بدون ریسک وارد می‌کند.
15:42
Every single time, he's going to take one of these away
402
942260
3000
هربار، قراره یکی از اینها را کم کند
15:45
and give the monkeys just two.
403
945260
2000
و بهشان تنها دو انگور بده.
15:47
the guy on the right is the risky loss.
404
947260
2000
فروشنده‌ی سمت راست یک زیان ده نامطمئن‌ست.
15:49
Sometimes he gives no loss, so the monkeys are really psyched,
405
949260
3000
گاهی هیچ زیانی وارد نمی‌کند، بنابراین میمون‌ها به شدت ذوق‌زده می‌شن،
15:52
but sometimes he actually gives a big loss,
406
952260
2000
اما گاهی او یک ضرر اساسی بهشان وارد می‌کند،
15:54
taking away two to give the monkeys only one.
407
954260
2000
دو تا کم می‌کند و بهشان تنها یکی می‌ده.
15:56
And so what do the monkeys do?
408
956260
2000
حالا میمون‌ها چه می‌کنند؟
15:58
Again, same choice; they can play it safe
409
958260
2000
دوباره، انتخاب یکسان؛ آنها می‌تونن بازی امن را انتخاب کنند
16:00
for always getting two grapes every single time,
410
960260
3000
تا همیشه دو تا انگور را با اطمینان دریافت کنند،
16:03
or they can take a risky bet and choose between one and three.
411
963260
3000
یا قمار مخاطره‌آمیز را بپذیرند و میان یکی یا سه تا انتخاب کنند.
16:06
The remarkable thing to us is that, when you give monkeys this choice,
412
966260
3000
نکته‌ی قابل توجه اینه که، وقتی به میمون‌ها این گزینه را می‌دی،
16:09
they do the same irrational thing that people do.
413
969260
2000
آنها همان کار غیرمنطقی انسان‌ها را تکرار می‌کنند.
16:11
They actually become more risky
414
971260
2000
آنها بسته به چگونگی شروع آزمایش بیشتر ریسک پذیر می‌شن.
16:13
depending on how the experimenters started.
415
973260
3000
آنها بسته به چگونگی شروع آزمایش بیشتر ریسک پذیر می‌شن.
16:16
This is crazy because it suggests that the monkeys too
416
976260
2000
این دیوانه‌کننده است چون به ما می‌:گه میمون‌ها هم
16:18
are evaluating things in relative terms
417
978260
2000
چیزها را به روش نسبی ارزیابی می‌کنند
16:20
and actually treating losses differently than they treat gains.
418
980260
3000
و در اصل در برابر زیان، جور دیگری نسبت به سود رفتار می‌کنند.
16:23
So what does all of this mean?
419
983260
2000
خب، همه‌ی اینها چه مفهومی داره؟
16:25
Well, what we've shown is that, first of all,
420
985260
2000
خب، آنچه ثابت کردیم اینه که، اول از همه،
16:27
we can actually give the monkeys a financial currency,
421
987260
2000
ما می‌تونیم به میمون‌ها یک ارز مالی تحمیل کنیم،
16:29
and they do very similar things with it.
422
989260
2000
و آنها کارهای بسیار مشابهی را با آن انجام‌ می‌دن.
16:31
They do some of the smart things we do,
423
991260
2000
آنها بعضی کارهای هوشمندانه‌ و بعضی کارهای نه‌چندان خوشایند ما را انجام می‌دن،
16:33
some of the kind of not so nice things we do,
424
993260
2000
آنها بعضی کارهای هوشمندانه‌ و بعضی کارهای نه‌چندان خوشایند ما را انجام می‌دن،
16:35
like steal it and so on.
425
995260
2000
مانند دزدی و غیره.
16:37
But they also do some of the irrational things we do.
426
997260
2000
اما آنها بعضی کارهای غیرمنطقی ما را هم انجام می‌دن.
16:39
They systematically get things wrong
427
999260
2000
آنها درست مانند ما، به صورت سازمان یافته با مسائل به نادرستی برخورد می‌کنند.
16:41
and in the same ways that we do.
428
1001260
2000
آنها درست مانند ما، به صورت سازمان یافته با مسائل به نادرستی برخورد می‌کنند.
16:43
This is the first take-home message of the Talk,
429
1003260
2000
این نخستین پیام اخلاقی این سخنرانی‌ست،
16:45
which is that if you saw the beginning of this and you thought,
430
1005260
2000
که به دردتون می‌خوره اگر، شما در آغاز با خودتون فکر کردید
16:47
oh, I'm totally going to go home and hire a capuchin monkey financial adviser.
431
1007260
2000
اوه، من حتما می‌خوام به خونه برم و یک میمون استخدام کنم تا مشاور مالی‌ام بشه.
16:49
They're way cuter than the one at ... you know --
432
1009260
2000
آنها از نظرهایی خیلی بامزه‌ترن ... می‌دونید -
16:51
Don't do that; they're probably going to be just as dumb
433
1011260
2000
اما این کار را نکنید، آنها هم احتمالا قراره به همان خنگی مشاورِ انسان شما باشن.
16:53
as the human one you already have.
434
1013260
3000
اما این کار را نکنید، آنها هم احتمالا قراره به همان خنگی مشاورِ انسان شما باشن.
16:56
So, you know, a little bad -- Sorry, sorry, sorry.
435
1016260
2000
خب می‌دونید، ناخوشاینده - متاسفم، خیلی متاسفم.
16:58
A little bad for monkey investors.
436
1018260
2000
این کمی برای کسانی که به میمون‌ها امید بسته بودند هم ناامید کننده‌ست.
17:00
But of course, you know, the reason you're laughing is bad for humans too.
437
1020260
3000
اما مسلما، دلیل خندیدن شما برای انسان‌ها هم ناخوشاینده.
17:03
Because we've answered the question we started out with.
438
1023260
3000
چون ما به پرسشی که با آن گفتگو را آغاز کردیم، پاسخ دادیم.
17:06
We wanted to know where these kinds of errors came from.
439
1026260
2000
ما می‌خواستیم بدانیم این خطاها از کجا ناشی می‌شن؟
17:08
And we started with the hope that maybe we can
440
1028260
2000
و امیدوار بودیم که شاید بتونیم
17:10
sort of tweak our financial institutions,
441
1030260
2000
یه جورایی کارایی سازمان‌های مالی‌مون را بهبود ببخشیم،
17:12
tweak our technologies to make ourselves better.
442
1032260
3000
فن‌آوری‌هامون را تغییر بدیم تا خودمان را بهتر کنیم.
17:15
But what we've learn is that these biases might be a deeper part of us than that.
443
1035260
3000
اما دریافتیم که این محرک‌ها ممکن‌ست بخش ژرف‌تری از ما باشد.
17:18
In fact, they might be due to the very nature
444
1038260
2000
درحقیقت، آنها ممکن‌ست برآمده از خودِ سرشت تاریخ تکاملی ما باشد.
17:20
of our evolutionary history.
445
1040260
2000
درحقیقت، آنها ممکن‌ست برآمده از خودِ سرشت تاریخ تکاملی ما باشد.
17:22
You know, maybe it's not just humans
446
1042260
2000
می‌دانید، شاید این تنها انسان‌ها نباشند که در این زنجیره‌ی نادانی گرفتارند.
17:24
at the right side of this chain that's duncey.
447
1044260
2000
می‌دانید، شاید این تنها انسان‌ها نباشند که در این زنجیره‌ی نادانی گرفتارند.
17:26
Maybe it's sort of duncey all the way back.
448
1046260
2000
شاید این یه جور نادانی در تمام تاریخ بوده.
17:28
And this, if we believe the capuchin monkey results,
449
1048260
3000
و این، اگر ما نتایج میمون‌های کاپوچین را باور کنیم،
17:31
means that these duncey strategies
450
1051260
2000
به این معنی‌ست که همه‌ی این راهبردهای حماقت‌بار
17:33
might be 35 million years old.
451
1053260
2000
ممکن‌ست ۳۵ میلیون‌سال قدمت داشته باشد.
17:35
That's a long time for a strategy
452
1055260
2000
این زمان طولانی برای یک خطِ مشی‌ست
17:37
to potentially get changed around -- really, really old.
453
1057260
3000
که توان تغییر کردن داشته باشد - خیلی خیلی قدیمی.
17:40
What do we know about other old strategies like this?
454
1060260
2000
ما درباره‌ی راهبردهای قدیمی مانند این چی می‌دانیم؟
17:42
Well, one thing we know is that they tend to be really hard to overcome.
455
1062260
3000
خب، یک چیزی که می‌دانیم اینه که خیلی سخت بشه بهشان چیره شد.
17:45
You know, think of our evolutionary predilection
456
1065260
2000
می‌دانید، مثلا به این خواست ذاتی تکاملی‌مون فکر کنید
17:47
for eating sweet things, fatty things like cheesecake.
457
1067260
3000
برای خوردن چیزهای شیرین، یا چیزهای چرب مانند چیزکیک.
17:50
You can't just shut that off.
458
1070260
2000
شما نمی‌تونید یک‌باره آن را از کار بندازید.
17:52
You can't just look at the dessert cart as say, "No, no, no. That looks disgusting to me."
459
1072260
3000
نمی‌تونید یک‌باره به منوی دسر نگاه کنید و بگید: «نه، نه، از این چندشم می‌شه.»
17:55
We're just built differently.
460
1075260
2000
ما جور دیگری ساخته شده‌ایم.
17:57
We're going to perceive it as a good thing to go after.
461
1077260
2000
ما می‌خوایم به آن به چشم یک چیز خوب نگاه کنیم و آن را دنبال کنیم.
17:59
My guess is that the same thing is going to be true
462
1079260
2000
حدس من اینه که همچین چیزی وقتی انسان تصمیم‌های مالی متفاوت می‌گیره هم برقراره.
18:01
when humans are perceiving
463
1081260
2000
حدس من اینه که همچین چیزی وقتی انسان تصمیم‌های مالی متفاوت می‌گیره هم برقراره.
18:03
different financial decisions.
464
1083260
2000
حدس من اینه که همچین چیزی وقتی انسان تصمیم‌های مالی متفاوت می‌گیره هم برقراره.
18:05
When you're watching your stocks plummet into the red,
465
1085260
2000
وقتی می‌بینید سهام‌تان داره ناگهان به نقطه‌ی هشدار سقوط می‌کند،
18:07
when you're watching your house price go down,
466
1087260
2000
هنگامی شاهد کاهش قیمت خانه‌تان هستید،
18:09
you're not going to be able to see that
467
1089260
2000
شما نمی‌تونید آن را به شیوه‌ای جز از راه تکاملی ببینید.
18:11
in anything but old evolutionary terms.
468
1091260
2000
شما نمی‌تونید آن را به شیوه‌ای جز از راه تکاملی ببینید.
18:13
This means that the biases
469
1093260
2000
این یعنی محرک‌هایی که سرمایه‌گذاران را وامی‌دارند که بد عمل کنند،
18:15
that lead investors to do badly,
470
1095260
2000
این یعنی محرک‌هایی که سرمایه‌گذاران را وامی‌دارند که بد عمل کنند،
18:17
that lead to the foreclosure crisis
471
1097260
2000
که بحران دیون بانکی را پدید میارن
18:19
are going to be really hard to overcome.
472
1099260
2000
یه جورایی شکست‌ناپذیرند.
18:21
So that's the bad news. The question is: is there any good news?
473
1101260
2000
خب این خبر بدی‌ست. سوال اینه: آیا اصلا خبر خوبی وجود داره؟
18:23
I'm supposed to be up here telling you the good news.
474
1103260
2000
من قراره قاصد خبرهای خوبی برای شما باشم.
18:25
Well, the good news, I think,
475
1105260
2000
خب، خبر خوب، به گمان من،
18:27
is what I started with at the beginning of the Talk,
476
1107260
2000
چیزی‌ست که من سخنم را با‌ ‌آن آغاز کردم،
18:29
which is that humans are not only smart;
477
1109260
2000
این‌که انسان‌ها تنها باهوش نیستند؛
18:31
we're really inspirationally smart
478
1111260
2000
ما واقعا به طور الهام‌بخشی نسبت به دیگر جانداران این قلمرو زیستی هوشمندیم.
18:33
to the rest of the animals in the biological kingdom.
479
1113260
3000
ما واقعا به طور الهام‌بخشی نسبت به دیگر جانداران این قلمرو زیستی هوشمندیم.
18:36
We're so good at overcoming our biological limitations --
480
1116260
3000
ما در چیره شدن به محدودیت‌های زیستی‌مان بسیار واردیم -
18:39
you know, I flew over here in an airplane.
481
1119260
2000
می‌دانید، من با هواپیما به اینجا آمدم.
18:41
I didn't have to try to flap my wings.
482
1121260
2000
لازم نبود بال بزنم،
18:43
I'm wearing contact lenses now so that I can see all of you.
483
1123260
3000
من از لنز طبی استفاده می‌کنم که بتونم همه‌ی شما را ببینم.
18:46
I don't have to rely on my own near-sightedness.
484
1126260
3000
من نیازی ندارم که به نزدیک‌بینی خودم تکیه کنم.
18:49
We actually have all of these cases
485
1129260
2000
درواقع همه‌ی ما چنین مواردی داریم
18:51
where we overcome our biological limitations
486
1131260
3000
که در آنها بر محدودیت‌‌های زیستی‌مان با فن‌آوری و دیگر ابزارها به آسانی چیره بشیم.
18:54
through technology and other means, seemingly pretty easily.
487
1134260
3000
که در آنها بر محدودیت‌‌های زیستی‌مان با فن‌آوری و دیگر ابزارها به آسانی چیره بشیم.
18:57
But we have to recognize that we have those limitations.
488
1137260
3000
اما باید تشخیص بدیم که ما دارای این محدودیت‌ها هستیم.
19:00
And here's the rub.
489
1140260
2000
و دردسر همین‌جاست.
19:02
It was Camus who once said that, "Man is the only species
490
1142260
2000
کامو یک بار درجایی گفت: «بشر تنها گونه‌ای است
19:04
who refuses to be what he really is."
491
1144260
3000
که از زیستن آنچه که هست سرباز می‌زند.»
19:07
But the irony is that
492
1147260
2000
اما طعنه‌ی روزگار اینجاست که
19:09
it might only be in recognizing our limitations
493
1149260
2000
ممکن‌ست تنها با تشخیص محدودیت‌هامان بتونیم بر آنها چیره بشیم.
19:11
that we can really actually overcome them.
494
1151260
2000
ممکن‌ست تنها با تشخیص محدودیت‌هامان بتونیم بر آنها چیره بشیم.
19:13
The hope is that you all will think about your limitations,
495
1153260
3000
امیدوارم که همه‌ی شما به محدودیت‌‌هاتون فکر کنید،
19:16
not necessarily as unovercomable,
496
1156260
3000
نه اینکه ضرورتا آنها را شکست‌ناپذیر بدانید،
19:19
but to recognize them, accept them
497
1159260
2000
اما آنها را به رسمیت بشناسید، آنها را بپذیرید
19:21
and then use the world of design to actually figure them out.
498
1161260
3000
و سپس از دنیای طراحی سود ببرید تا بتونید براشون راه حل پیدا کنید.
19:24
That might be the only way that we will really be able
499
1164260
3000
این شاید تنها راهی باشه که بتونیم با آن به قابلیت‌های انسانی‌مان دست بیابیم
19:27
to achieve our own human potential
500
1167260
2000
این شاید تنها راهی باشه که بتونیم با آن به قابلیت‌های انسانی‌مان دست بیابیم
19:29
and really be the noble species we hope to all be.
501
1169260
3000
و واقعا گونه‌ی یگانه‌ای بشیم که هممون بهش امید داریم.
19:32
Thank you.
502
1172260
2000
سپاسگزارم.
19:34
(Applause)
503
1174260
5000
(تشویق)
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7