Laurie Santos: How monkeys mirror human irrationality

197,716 views ・ 2010-07-29

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: Sunphil Ga 검토: Seo Rim Kim
00:17
I want to start my talk today with two observations
0
17260
2000
인류에 관한 두 관찰과 함께 저의 이야기로
00:19
about the human species.
1
19260
2000
오늘 시작하고자 합니다.
00:21
The first observation is something that you might think is quite obvious,
2
21260
3000
첫 번째 관찰은 여러분께서 추측할 수 있는 꽤 이상한 것입니다.
00:24
and that's that our species, Homo sapiens,
3
24260
2000
바로 우리의 인류, 호모 사피엔스는
00:26
is actually really, really smart --
4
26260
2000
실제로 매우 영리하다는 것입니다 --
00:28
like, ridiculously smart --
5
28260
2000
정말 말도 안 되게 영리하죠 --
00:30
like you're all doing things
6
30260
2000
마치 우리가 하는 행동과 같죠
00:32
that no other species on the planet does right now.
7
32260
3000
지구에 있는 다른 종은 지금 당장할 수 없는 것들이죠.
00:35
And this is, of course,
8
35260
2000
물론 여러분께서
00:37
not the first time you've probably recognized this.
9
37260
2000
아마도 이것을 인식하는 것이 처음은 아닙니다.
00:39
Of course, in addition to being smart, we're also an extremely vain species.
10
39260
3000
물론, 영리하다는 것 이외에, 인간 또한 역시 헛된 종입니다.
00:42
So we like pointing out the fact that we're smart.
11
42260
3000
그래서 우리는 인간이 영리하다는 사실을 지적하기 좋아합니다.
00:45
You know, so I could turn to pretty much any sage
12
45260
2000
알다시피, 셰익스피어에서 스티븐 콜베어까지
00:47
from Shakespeare to Stephen Colbert
13
47260
2000
꽤 많은 현인들로 가서
00:49
to point out things like the fact that
14
49260
2000
인류가 이성적으로 고귀하며,
00:51
we're noble in reason and infinite in faculties
15
51260
2000
학문적으로 끝이 없고 지구상에 있는 어느 종보다
00:53
and just kind of awesome-er than anything else on the planet
16
53260
2000
놀라운 종이라는 사실을 지적할 수 있었습니다,
00:55
when it comes to all things cerebral.
17
55260
3000
대뇌의 역량에 관해서 말입니다.
00:58
But of course, there's a second observation about the human species
18
58260
2000
하지만 인류에 관한 두 번째 관찰이 있습니다
01:00
that I want to focus on a little bit more,
19
60260
2000
제가 좀 더 집중하고 싶은 부분이죠,
01:02
and that's the fact that
20
62260
2000
게다가 그 사실은
01:04
even though we're actually really smart, sometimes uniquely smart,
21
64260
3000
비록 인류가 정말로 남다르게 영리할지라도,
01:07
we can also be incredibly, incredibly dumb
22
67260
3000
우리 또한 놀랄정도로 멍청할 수 있다는 것입니다
01:10
when it comes to some aspects of our decision making.
23
70260
3000
몇몇 의사결정에 관해서 말입니다.
01:13
Now I'm seeing lots of smirks out there.
24
73260
2000
곳곳에 비웃는 모습이 많이 보이네요.
01:15
Don't worry, I'm not going to call anyone in particular out
25
75260
2000
걱정마세요, 특별하게 누구를 불러내 그점을
01:17
on any aspects of your own mistakes.
26
77260
2000
확인하지는 않겠습니다.
01:19
But of course, just in the last two years
27
79260
2000
하지만 지난 2년 전에
01:21
we see these unprecedented examples of human ineptitude.
28
81260
3000
우리 연구진은 예측하지 못했던 인간의 부적합한 사례를 관찰 했습니다.
01:24
And we've watched as the tools we uniquely make
29
84260
3000
그리고 우리는 우리의 조건에서 얻을 수 있는
01:27
to pull the resources out of our environment
30
87260
2000
자원을 끌어내기 위해서 특별하게 만들었던 기구들이
01:29
kind of just blow up in our face.
31
89260
2000
완전히 실패로 돌아가는 것을 보았습니다.
01:31
We've watched the financial markets that we uniquely create --
32
91260
2000
우리는 우리가 고유하게 만든 금융 시장이--
01:33
these markets that were supposed to be foolproof --
33
93260
3000
이 시장은 실패할 여지가 없었어야 했었습니다 --
01:36
we've watched them kind of collapse before our eyes.
34
96260
2000
우리 눈 앞에서 거의 붕괴하는 것을 보았습니다.
01:38
But both of these two embarrassing examples, I think,
35
98260
2000
하지만 제가 생각하기에는 이 창피한 예 둘 다
01:40
don't highlight what I think is most embarrassing
36
100260
3000
인간이 만드는 실수 중에서 가장 창피한 것을
01:43
about the mistakes that humans make,
37
103260
2000
돋보이게는 할 수 없습니다,
01:45
which is that we'd like to think that the mistakes we make
38
105260
3000
우리는 인간이 만드는 실수가 암적인 존재 혹은
01:48
are really just the result of a couple bad apples
39
108260
2000
실제로 있는 FAIL BLOG-가치결정(코메디 블로그 사이트)
01:50
or a couple really sort of FAIL Blog-worthy decisions.
40
110260
3000
의 결과라고 생각하기를 원합니다.
01:53
But it turns out, what social scientists are actually learning
41
113260
3000
하지만 사회 과학자들이 실제로 얻고 있는 깨달음은
01:56
is that most of us, when put in certain contexts,
42
116260
3000
대부분 우리 모두가 특정 상황에 있을 때,
01:59
will actually make very specific mistakes.
43
119260
3000
실제로 분명한 실수를 하게 된다는 것입니다.
02:02
The errors we make are actually predictable.
44
122260
2000
실제로, 우리가 하는 실수는 예측 가능한 것입니다.
02:04
We make them again and again.
45
124260
2000
실수하고 실수를 반복하죠.
02:06
And they're actually immune to lots of evidence.
46
126260
2000
많은 증거들에 우리는 실제로 면역이 됩니다.
02:08
When we get negative feedback,
47
128260
2000
우리는 부정적인 결과를 얻었을 때,
02:10
we still, the next time we're face with a certain context,
48
130260
3000
특정 상황에 다시 직면할 때 여전히,
02:13
tend to make the same errors.
49
133260
2000
같은 실수를 범하는 경향이 있습니다.
02:15
And so this has been a real puzzle to me
50
135260
2000
그래서 저에게 이런 경향은 매우 혼란스러웠습니다
02:17
as a sort of scholar of human nature.
51
137260
2000
마치 인간 본성의 연구 같았죠.
02:19
What I'm most curious about is,
52
139260
2000
제게 가장 흥미로운 것은,
02:21
how is a species that's as smart as we are
53
141260
3000
인류와 같이 영리한 한 종이 어떻게
02:24
capable of such bad
54
144260
2000
나쁜 습관을 가지고 있고
02:26
and such consistent errors all the time?
55
146260
2000
같은 실수를 항상 할 수 있을까? 입니다.
02:28
You know, we're the smartest thing out there, why can't we figure this out?
56
148260
3000
알다시피, 우리는 가장 영리한 종 입니다, 왜 우리는 이것을 해결할 수 없을까요?
02:31
In some sense, where do our mistakes really come from?
57
151260
3000
어떤 의미에서, 우리의 실수는 어디에서 오는 것일까요?
02:34
And having thought about this a little bit, I see a couple different possibilities.
58
154260
3000
이 질문에 대해 생각하고, 이후 저는 다른 가능성을 보았습니다.
02:37
One possibility is, in some sense, it's not really our fault.
59
157260
3000
하나의 가능성은 어떤 의미에서 봤을 때 우리의 실수가 아니라는 것입니다.
02:40
Because we're a smart species,
60
160260
2000
왜냐하면 인류는 영리한 종이기 때문입니다,
02:42
we can actually create all kinds of environments
61
162260
2000
우리는 실제로 정말로 복잡환 환경을
02:44
that are super, super complicated,
62
164260
2000
만들 수 있습니다,
02:46
sometimes too complicated for us to even actually understand,
63
166260
3000
때때로 우리에게 너무 복잡해서 실제로 이해할 수 없습니다,
02:49
even though we've actually created them.
64
169260
2000
비록 우리가 그것들을 만들었다고 할지라도 말입니다.
02:51
We create financial markets that are super complex.
65
171260
2000
우리는 극도로 복잡한 금융시장을 만듭니다, 그리고
02:53
We create mortgage terms that we can't actually deal with.
66
173260
3000
거래할 수 없는 금융 조정 주기를 만듭니다.
02:56
And of course, if we are put in environments where we can't deal with it,
67
176260
3000
물론 만약 거래할 수 없는 상황의 환경에 처했다면
02:59
in some sense makes sense that we actually
68
179260
2000
어떤 의미에서는 실제로 우리가 그 문제를
03:01
might mess certain things up.
69
181260
2000
해결하지 못하는 것이 맞습니다
03:03
If this was the case, we'd have a really easy solution
70
183260
2000
이 상황이라면, 문제에 대한 실수에 간편한 해결책을
03:05
to the problem of human error.
71
185260
2000
얻게 될 것입니다.
03:07
We'd actually just say, okay, let's figure out
72
187260
2000
실제로 우리는 단지, '좋아요
03:09
the kinds of technologies we can't deal with,
73
189260
2000
우리가 해결할 수 없는 기술적인 부분,
03:11
the kinds of environments that are bad --
74
191260
2000
나쁜 환경의 종류에 대해 알아보고,
03:13
get rid of those, design things better,
75
193260
2000
이 부분들을 지워버리고, 문제점을 좋게 개선합시다'라고 말할 것입니다.
03:15
and we should be the noble species
76
195260
2000
인류는 스스로 예상하고자 하는
03:17
that we expect ourselves to be.
77
197260
2000
고귀한 종이 되어야 합니다.
03:19
But there's another possibility that I find a little bit more worrying,
78
199260
3000
하지만 제가 찾은 몇몇 걱정스러운 또 다른 가능성이 있습니다,
03:22
which is, maybe it's not our environments that are messed up.
79
202260
3000
이것은 우리가 처한 혼란스러운 환경은 아닙니다.
03:25
Maybe it's actually us that's designed badly.
80
205260
3000
실제로 좋지 않게 만들어진 것입니다.
03:28
This is a hint that I've gotten
81
208260
2000
이것은 인간의 실수에 대해
03:30
from watching the ways that social scientists have learned about human errors.
82
210260
3000
사회과학자들이 깨닫게 된 방법을 관찰하면서 얻은 힌트입니다.
03:33
And what we see is that people tend to keep making errors
83
213260
3000
우리가 알아낸 것은 사람들이 지속적으로 실수를 만드는 경향이 있다는 것입니다
03:36
exactly the same way, over and over again.
84
216260
3000
분명하게 같은 방법으로, 반복이 됩니다.
03:39
It feels like we might almost just be built
85
219260
2000
마치 인간이 특정한 방법으로 실수를 하도록
03:41
to make errors in certain ways.
86
221260
2000
만들어진 느낌이 듭니다.
03:43
This is a possibility that I worry a little bit more about,
87
223260
3000
이것이 제가 좀더 염려하는 가능성입니다,
03:46
because, if it's us that's messed up,
88
226260
2000
왜냐하면 만약에 우리가 문제라면,
03:48
it's not actually clear how we go about dealing with it.
89
228260
2000
우리가 문제를 해결 할 수 있는 방법은 분명하지 않기 때문입니다.
03:50
We might just have to accept the fact that we're error prone
90
230260
3000
어쩌면 우리는 우리의 실수하는 경향을 받아들이고
03:53
and try to design things around it.
91
233260
2000
그것 주위로 맞춰가야 할지도 모릅니다.
03:55
So this is the question my students and I wanted to get at.
92
235260
3000
그래서 이 질문에 대한 답이 제 학생들과 제가 찾고자 한 것입니다.
03:58
How can we tell the difference between possibility one and possibility two?
93
238260
3000
우리가 가정 1과 2 사이에서 어떻게 차이점을 말할 수 있을까요?
04:01
What we need is a population
94
241260
2000
우리가 필요로 한 것은
04:03
that's basically smart, can make lots of decisions,
95
243260
2000
기본적으로 영리하며, 많은 결정을 할 수 있는 하나의 인구입니다,
04:05
but doesn't have access to any of the systems we have,
96
245260
2000
하지만 우리가 가지는 시스템에 접근할 수는 없죠,
04:07
any of the things that might mess us up --
97
247260
2000
뒤죽박죽인 것들에 말이죠 --
04:09
no human technology, human culture,
98
249260
2000
인간의 기술, 문화도 아니고
04:11
maybe even not human language.
99
251260
2000
심지어 인간의 언어도 아닙니다.
04:13
And so this is why we turned to these guys here.
100
253260
2000
이것이 이 원숭이들에게 왜 우리가 관심을 가졌는지의 이유입니다.
04:15
These are one of the guys I work with. This is a brown capuchin monkey.
101
255260
3000
이 원숭이들 중 하나는 저와 함께 연구를 진행한 녀석입니다. 갈색 꼬리감기 원숭이죠.
04:18
These guys are New World primates,
102
258260
2000
이 원숭이들은 신세계의 영장류입니다,
04:20
which means they broke off from the human branch
103
260260
2000
즉 그들은 대략 3천 5백만년 전에 인류의 가계도에서
04:22
about 35 million years ago.
104
262260
2000
떨어져 나갔었죠.
04:24
This means that your great, great, great great, great, great --
105
264260
2000
즉 여러분의 증조, 증조, 증조, 증조, 증조, 증조 --
04:26
with about five million "greats" in there --
106
266260
2000
대략 5백만 년전 증조 조상이 여기에 속합니다 --
04:28
grandmother was probably the same great, great, great, great
107
268260
2000
5백만 년전 증조 할머니는 아마도 같은 증조.....
04:30
grandmother with five million "greats" in there
108
270260
2000
할머니입니다, 여기있는 홀리와
04:32
as Holly up here.
109
272260
2000
같다는 말입니다.
04:34
You know, so you can take comfort in the fact that this guy up here is a really really distant,
110
274260
3000
알다시피, 이 위에 있는 원숭이들이 정말로 동 떨어져 있다는 사실에 안심하실 수 있습니다.
04:37
but albeit evolutionary, relative.
111
277260
2000
진화적으로 연관이 있음에도 말이지요.
04:39
The good news about Holly though is that
112
279260
2000
홀리에 대한 반가운 소식은
04:41
she doesn't actually have the same kinds of technologies we do.
113
281260
3000
실제로 우리가 할 수 있는 같은 기술을 가질 수는 없다는 것입니다.
04:44
You know, she's a smart, very cut creature, a primate as well,
114
284260
3000
알디시피, 매우 영리하며, 매우 귀여운 영장류입니다,
04:47
but she lacks all the stuff we think might be messing us up.
115
287260
2000
하지만 우리를 혼란스럽게 하는 모든 물건에는 경험이 없습니다.
04:49
So she's the perfect test case.
116
289260
2000
그래서 홀리는 완벽한 시험적 사례가 되죠.
04:51
What if we put Holly into the same context as humans?
117
291260
3000
우리가 그들을 인간처럼 같은 상황에 놓으면 어떨까요?
04:54
Does she make the same mistakes as us?
118
294260
2000
우리처럼 같은 실수를 할까요?
04:56
Does she not learn from them? And so on.
119
296260
2000
실수로 부터 배우지는 못할까요? 기타 등등이 있겠죠.
04:58
And so this is the kind of thing we decided to do.
120
298260
2000
이것이 우리가 실행하기로 결정한 것입니다.
05:00
My students and I got very excited about this a few years ago.
121
300260
2000
몇 년전, 제 학생들과 저는 이것에 대해 매우 흥분했었죠.
05:02
We said, all right, let's, you know, throw so problems at Holly,
122
302260
2000
우리 연구진은 문제를 던져주고 홀리가 그것을 혼란스럽게 하는지
05:04
see if she messes these things up.
123
304260
2000
지켜보기로 했습니다.
05:06
First problem is just, well, where should we start?
124
306260
3000
첫 번째 문제는, 우리가 어디서 시작할까요,
05:09
Because, you know, it's great for us, but bad for humans.
125
309260
2000
우리에게는 학문적 이득이지만, 인류에게는 부정적 인식 때문입니다.
05:11
We make a lot of mistakes in a lot of different contexts.
126
311260
2000
인류는 다양한 상황 속에서 많은 실수를 합니다.
05:13
You know, where are we actually going to start with this?
127
313260
2000
이 문제를 실제로 어디서 시작을 해야 될까요?
05:15
And because we started this work around the time of the financial collapse,
128
315260
3000
금융 붕괴의 시간 그리고 언제 유질처분이 일으키는 새로운 소식을 둘러싼
05:18
around the time when foreclosures were hitting the news,
129
318260
2000
연구를 시작했기 때문입니다,
05:20
we said, hhmm, maybe we should
130
320260
2000
우리는 실제로 재정 범위에서
05:22
actually start in the financial domain.
131
322260
2000
시작해야 된다고 결정했었죠.
05:24
Maybe we should look at monkey's economic decisions
132
324260
3000
원숭이의 경제적 결정을 주시하고 우리가 하는 바보같은
05:27
and try to see if they do the same kinds of dumb things that we do.
133
327260
3000
실수를 하는지 관찰을 시도해야만 합니다.
05:30
Of course, that's when we hit a sort second problem --
134
330260
2000
물론, 우리가 두번째 문제를 일으킬 때 --
05:32
a little bit more methodological --
135
332260
2000
이 문제는 좀 더 방법론적인 것이죠 --
05:34
which is that, maybe you guys don't know,
136
334260
2000
이것은 원숭이가 알지 못하는 것이죠,
05:36
but monkeys don't actually use money. I know, you haven't met them.
137
336260
3000
실제로 원숭이는 돈을 사용하지 못합니다. 여러분께서 그들을 만나지 않았다는 것을 알고 있습니다.
05:39
But this is why, you know, they're not in the queue behind you
138
339260
2000
하지만 이런 이유로 그들은 식료품점 혹은 현금 자동 인출기 줄에서
05:41
at the grocery store or the ATM -- you know, they don't do this stuff.
139
341260
3000
여러분 앞에 서있지 못합니다 --알다시피 그들은 이 물건들을 활용하지 못합니다.
05:44
So now we faced, you know, a little bit of a problem here.
140
344260
3000
여기에 있는 작은 문제점에 우리는 직면했었죠.
05:47
How are we actually going to ask monkeys about money
141
347260
2000
실제로 원숭이들이 돈을 사용하지 못한다면
05:49
if they don't actually use it?
142
349260
2000
실제로 어떻게 원숭이에게 돈에 관해 물어 볼까요?
05:51
So we said, well, maybe we should just, actually just suck it up
143
351260
2000
그래서 우리는 실제로 돈을 가까이 가져와 어떻게 사용하는지
05:53
and teach monkeys how to use money.
144
353260
2000
가르쳐야 된다고 결정했었습니다.
05:55
So that's just what we did.
145
355260
2000
그래서 우리가 행했던 것입니다.
05:57
What you're looking at over here is actually the first unit that I know of
146
357260
3000
지금 여기서 보고 계신 것은 첫 번째 도구입니다, 우리가 사용하고 있는
06:00
of non-human currency.
147
360260
2000
화폐는 아닙니다.
06:02
We weren't very creative at the time we started these studies,
148
362260
2000
우리는 이 연구를 시작할 때 새로운 것을 찾을 수 없었습니다,
06:04
so we just called it a token.
149
364260
2000
이 도구를 토큰이라 했었죠.
06:06
But this is the unit of currency that we've taught our monkeys at Yale
150
366260
3000
이것은 예일 연구소에서 원숭이들에게 인간과 함께 사용해
06:09
to actually use with humans,
151
369260
2000
다른 량의 음식을 얻을 수 있도록
06:11
to actually buy different pieces of food.
152
371260
3000
가르쳐준 화폐 도구입니다.
06:14
It doesn't look like much -- in fact, it isn't like much.
153
374260
2000
많아 보이지는 않습니다 - 사실, 많지도 않죠.
06:16
Like most of our money, it's just a piece of metal.
154
376260
2000
대부분의 우리가 사용하는 돈처럼, 단지 하나의 금속일 뿐입니다.
06:18
As those of you who've taken currencies home from your trip know,
155
378260
3000
여러분 중 여행에서 새로운 화폐를 얻으신 분은 아시죠,
06:21
once you get home, it's actually pretty useless.
156
381260
2000
집에서는, 이것들은 실제로 쓸모가 없습니다.
06:23
It was useless to the monkeys at first
157
383260
2000
원숭이에게 토큰은 쓸모가 없었습니다
06:25
before they realized what they could do with it.
158
385260
2000
그들이 이것으로 무엇을 할 수 있는지 깨닫기 전까지 말입니다.
06:27
When we first gave it to them in their enclosures,
159
387260
2000
화폐를 원숭이들에게 담에 건내었을 때,
06:29
they actually kind of picked them up, looked at them.
160
389260
2000
그들은 실제로 그것을 집어들어, 자세히 보았습니다.
06:31
They were these kind of weird things.
161
391260
2000
그들에게 이상한 물건이었죠.
06:33
But very quickly, the monkeys realized
162
393260
2000
하지만 그들은 매우 빠르게, 이해했었습니다
06:35
that they could actually hand these tokens over
163
395260
2000
연구소에서 다른 사람들에게 토큰을 건내어
06:37
to different humans in the lab for some food.
164
397260
3000
음식을 얻을 수 있다는 것을 말입니다.
06:40
And so you see one of our monkeys, Mayday, up here doing this.
165
400260
2000
보고 계신 원숭이들 중 한 명인 메이데이는, 여기에 올라와 이 활동을 합니다.
06:42
This is A and B are kind of the points where she's sort of a little bit
166
402260
3000
A 그리고 B는 메이데이가 토큰에 관해 매우 호기심을 가지는
06:45
curious about these things -- doesn't know.
167
405260
2000
부분입니다. 하지만 알지는 못합니다.
06:47
There's this waiting hand from a human experimenter,
168
407260
2000
토큰을 기다리는 실험자의 손이 있습니다,
06:49
and Mayday quickly figures out, apparently the human wants this.
169
409260
3000
메이데이는 분명하게 인간이 토큰을 원한다는 것을 빠르게 알아차립니다.
06:52
Hands it over, and then gets some food.
170
412260
2000
토큰을 건내고, 음식을 얻습니다.
06:54
It turns out not just Mayday, all of our monkeys get good
171
414260
2000
단지 메이데이만이 아니라, 모든 원숭이들은 판매원 인간과
06:56
at trading tokens with human salesman.
172
416260
2000
토큰을 거래하는데 능숙합니다.
06:58
So here's just a quick video of what this looks like.
173
418260
2000
여기 이 거래에 관한 빠른 영상이 있습니다.
07:00
Here's Mayday. She's going to be trading a token for some food
174
420260
3000
메이데이는 몇몇 음식을 위해 거래를 할 것입니다. 그리고
07:03
and waiting happily and getting her food.
175
423260
3000
행복하게 기다리며 음식을 얻습니다.
07:06
Here's Felix, I think. He's our alpha male; he's a kind of big guy.
176
426260
2000
여기있는 펠릭스는 제가 생각하기에 우두머리 수컷입니다, 가장 큰 놈이죠.
07:08
But he too waits patiently, gets his food and goes on.
177
428260
3000
그는 매우 끈기있게 기다디라 그의 음식을 얻고 지나갑니다.
07:11
So the monkeys get really good at this.
178
431260
2000
거래에 있어서 그들은 매우 능숙합니다.
07:13
They're surprisingly good at this with very little training.
179
433260
3000
그들은 놀랍게도 매우 간단한 이 훈련에 능숙합니다.
07:16
We just allowed them to pick this up on their own.
180
436260
2000
그들에게 이것을 스스로 집도록 허용했었습니다.
07:18
The question is: is this anything like human money?
181
438260
2000
질문은 사람이 사용하는 돈과 공통점이 과연 있을까요?
07:20
Is this a market at all,
182
440260
2000
이것이 정말로 시장일까요?,
07:22
or did we just do a weird psychologist's trick
183
442260
2000
혹은 우리가 그저 교묘한 심리적 속임수를 이용했나? 였습니다.
07:24
by getting monkeys to do something,
184
444260
2000
그들에게 무언가를 시키거나,
07:26
looking smart, but not really being smart.
185
446260
2000
실제로는 영리하지 않지만 영리하게 보임으로서 말입니다.
07:28
And so we said, well, what would the monkeys spontaneously do
186
448260
3000
그래서 우리는 답했었죠, 음, 이것이 실제로 그들의 화폐거나,
07:31
if this was really their currency, if they were really using it like money?
187
451260
3000
실제 돈처럼 사용한다면, 자발적으로 그들이 무엇을 할까요?
07:34
Well, you might actually imagine them
188
454260
2000
음, 실제로 그들이 영리한 행동을
07:36
to do all the kinds of smart things
189
456260
2000
하리라 여러분께서 예상할지 모릅니다,
07:38
that humans do when they start exchanging money with each other.
190
458260
3000
돈을 거래하기 시작할 때 인간이 하는 행동이지요.
07:41
You might have them start paying attention to price,
191
461260
3000
여러분께서 그들에게 가격과 얼마에 구입할지
07:44
paying attention to how much they buy --
192
464260
2000
집중시킬지는 모릅니다 -- 이 행동은
07:46
sort of keeping track of their monkey token, as it were.
193
466260
3000
토큰의 경로를 있는 그대로 유지시킵니다.
07:49
Do the monkeys do anything like this?
194
469260
2000
이것과 같은 무엇가를 그들이 사용할까요?
07:51
And so our monkey marketplace was born.
195
471260
3000
이렇게 원숭이 시장이 탄생했었습니다.
07:54
The way this works is that
196
474260
2000
이 실험 방법은
07:56
our monkeys normally live in a kind of big zoo social enclosure.
197
476260
3000
원숭이들이 보통 동물원 철장에서 살아가는 것입니다.
07:59
When they get a hankering for some treats,
198
479260
2000
그들이 갈망하는 몇몇 대우를 받았을 때,
08:01
we actually allowed them a way out
199
481260
2000
실제로 그들에게 시장에 들어올 수있는
08:03
into a little smaller enclosure where they could enter the market.
200
483260
2000
좀 더 작은 철장으로 들어오는 것을 허용했었습니다.
08:05
Upon entering the market --
201
485260
2000
시장에 입장하는 것은 --
08:07
it was actually a much more fun market for the monkeys than most human markets
202
487260
2000
실제로 인간의 시장보다 그들의 시장이 훨씬 더 흥미롭습니다
08:09
because, as the monkeys entered the door of the market,
203
489260
3000
왜냐하면, 그들이 시장 문에 들어왔을 때,
08:12
a human would give them a big wallet full of tokens
204
492260
2000
사람들은 그들에게 큰 토큰 지갑을 주었습니다
08:14
so they could actually trade the tokens
205
494260
2000
그래서 그들이 실제로 토큰을
08:16
with one of these two guys here --
206
496260
2000
여기있는 두 명 중 한 명과 거래를 할 수 있었습니다 --
08:18
two different possible human salesmen
207
498260
2000
다른 두 가능성의 판매원은
08:20
that they could actually buy stuff from.
208
500260
2000
원숭이들이 실제로 그들로부터 물건을 살 수 있었습니다.
08:22
The salesmen were students from my lab.
209
502260
2000
이 판매원은 제 연구소의 학생입니다.
08:24
They dressed differently; they were different people.
210
504260
2000
그들은 다르게 옷을 입었고, 다른 사람입니다.
08:26
And over time, they did basically the same thing
211
506260
3000
시간이 지나고, 그들은 기본적으로 같은 행동을 했습니다
08:29
so the monkeys could learn, you know,
212
509260
2000
그래서 학습할 수 있었습니다, 알다시피,
08:31
who sold what at what price -- you know, who was reliable, who wasn't, and so on.
213
511260
3000
누가 얼마에 팔지를 말입니다, 누가 믿음직한지, 아닌지 그리고 기타 등등.
08:34
And you can see that each of the experimenters
214
514260
2000
각각의 실험자를 보실 수 있습니다.
08:36
is actually holding up a little, yellow food dish.
215
516260
3000
그들은 작은 노락색 음식 접시를 들고 있습니다.
08:39
and that's what the monkey can for a single token.
216
519260
2000
그것이 하나의 토큰으로 거래할 수 있는 것입니다.
08:41
So everything costs one token,
217
521260
2000
모든 것이 토큰 하나의 비용이 듭니다,
08:43
but as you can see, sometimes tokens buy more than others,
218
523260
2000
하지만 보시는 것처럼, 때때로 토큰은 다른 것보다는
08:45
sometimes more grapes than others.
219
525260
2000
포도를 구입하는데 사용합니다.
08:47
So I'll show you a quick video of what this marketplace actually looks like.
220
527260
3000
그래서 이 시장이 어떤지 빠른 영상을 통해 보여드리겠습니다.
08:50
Here's a monkey-eye-view. Monkeys are shorter, so it's a little short.
221
530260
3000
여기 원숭이의 관점입니다. 원숭이들은 작습니다, 매우 작죠.
08:53
But here's Honey.
222
533260
2000
여기 허니가 있습니다.
08:55
She's waiting for the market to open a little impatiently.
223
535260
2000
얘는 참을성 있게 시장이 열리기를 기다리고 있습니다.
08:57
All of a sudden the market opens. Here's her choice: one grapes or two grapes.
224
537260
3000
항상 갑자기 시장을 열었습니다. 여기 선택이 있습니다: 하나의 포도송이와 두 개의 포도송이죠.
09:00
You can see Honey, very good market economist,
225
540260
2000
매우 훌륭한 경제학자 허니를 보실 수 있습니다,
09:02
goes with the guy who gives more.
226
542260
3000
그녀는 좀 더 주는 사람에게 갑니다.
09:05
She could teach our financial advisers a few things or two.
227
545260
2000
원숭이는 우리의 재정 조언자들에게 몇 가지 가르침을 줄 수 있습니다.
09:07
So not just Honey,
228
547260
2000
단지 허니만이 아니라,
09:09
most of the monkeys went with guys who had more.
229
549260
3000
대부분의 원숭이들이 좀 더 많이 주는 사람에게 갑니다.
09:12
Most of the monkeys went with guys who had better food.
230
552260
2000
대부분의 원숭이들은 더 괜찮은 음식을 가지고 있는 사람에게 갑니다.
09:14
When we introduced sales, we saw the monkeys paid attention to that.
231
554260
3000
판매를 소개할 때, 원숭이들이 그것에 집중하는 것을 보았습니다.
09:17
They really cared about their monkey token dollar.
232
557260
3000
실제로 그들은 토큰에 관해 많은 관심을 가졌었습니다.
09:20
The more surprising thing was that when we collaborated with economists
233
560260
3000
더 놀라운 것은 경제학자들과 협력해 경제적 도구를 사용하는
09:23
to actually look at the monkeys' data using economic tools,
234
563260
3000
원숭이의 정보를 바라 보았을 때,
09:26
they basically matched, not just qualitatively,
235
566260
3000
그들은 기본적으로 알맞았었죠, 단지 질적일 뿐만 아니라,
09:29
but quantitatively with what we saw
236
569260
2000
양적인 부분도 맞았습니다, 이는 실제
09:31
humans doing in a real market.
237
571260
2000
우리가 보는 시장에서의 인간 활동과 같았습니다.
09:33
So much so that, if you saw the monkeys' numbers,
238
573260
2000
원숭이들의 숫자를 보았다면, 여러분은 그들이
09:35
you couldn't tell whether they came from a monkey or a human in the same market.
239
575260
3000
인간의 시장에서 왔는지, 원숭이 시장에서 왔는지 말할 수 없을 것입니다.
09:38
And what we'd really thought we'd done
240
578260
2000
우리가 생각한 결과는
09:40
is like we'd actually introduced something
241
580260
2000
실제로 우리가 적어도 원숭이와 인간에게
09:42
that, at least for the monkeys and us,
242
582260
2000
실제 화폐처럼 사용할 수 있는 것을
09:44
works like a real financial currency.
243
584260
2000
소개시켜 주는 것과 같습니다.
09:46
Question is: do the monkeys start messing up in the same ways we do?
244
586260
3000
질문은: 그들이 우리가 처한 같은 상황에서도 혼란스러워 할까요?
09:49
Well, we already saw anecdotally a couple of signs that they might.
245
589260
3000
음, 우리는 이미 그들이 짐작하는 두 가지 신호을 보았습니다.
09:52
One thing we never saw in the monkey marketplace
246
592260
2000
원숭이 시장에서 우리가 보지 못한 하나는
09:54
was any evidence of saving --
247
594260
2000
저장의 증거입니다 --
09:56
you know, just like our own species.
248
596260
2000
알다시피, 인간과 같죠.
09:58
The monkeys entered the market, spent their entire budget
249
598260
2000
원숭이들은 시장으로 들어와서, 그들의 전 자산을 소비하고
10:00
and then went back to everyone else.
250
600260
2000
그 밖에 있는 모두에게 돌아갔습니다.
10:02
The other thing we also spontaneously saw,
251
602260
2000
우리가 본 다른 하나는,
10:04
embarrassingly enough,
252
604260
2000
자발적인 범죄의 증거가,
10:06
is spontaneous evidence of larceny.
253
606260
2000
창피하게도 충분하다는 것입니다.
10:08
The monkeys would rip-off the tokens at every available opportunity --
254
608260
3000
그들은 토큰을 모두 벗겨 냈습니다, 매우 적절한 기회에 말입니다 --
10:11
from each other, often from us --
255
611260
2000
각각, 종종 우리로부터 오는 기회 --
10:13
you know, things we didn't necessarily think we were introducing,
256
613260
2000
알다시피, 소개하는 것을 필수적으로 생각하지는 않았습니다,
10:15
but things we spontaneously saw.
257
615260
2000
하지만 우리는 자발적으로 관찰했습니다.
10:17
So we said, this looks bad.
258
617260
2000
그래서 나쁘게 보인다고 답했죠.
10:19
Can we actually see if the monkeys
259
619260
2000
실제로 그들이 인간이 하는 것처럼
10:21
are doing exactly the same dumb things as humans do?
260
621260
3000
바보 같은 오류를 범하는 것을 관찰 할 수 있을까요?
10:24
One possibility is just kind of let
261
624260
2000
하나의 가능성은 그들에게
10:26
the monkey financial system play out,
262
626260
2000
재정 시스템이 저절로 작동하게 놔두는 것입니다.
10:28
you know, see if they start calling us for bailouts in a few years.
263
628260
2000
몇 년 안에 그들이 우리를 불러 구제해달라고 하는지 보는거죠.
10:30
We were a little impatient so we wanted
264
630260
2000
우리는 참을성이 없었스빈다. 그래서 우리는
10:32
to sort of speed things up a bit.
265
632260
2000
연구의 속도를 올리기를 원했습니다.
10:34
So we said, let's actually give the monkeys
266
634260
2000
그래서 실제로 그들에게 같은 상황을
10:36
the same kinds of problems
267
636260
2000
주기로 결정했습니다
10:38
that humans tend to get wrong
268
638260
2000
사람들은 분명하게 경제적 도전,
10:40
in certain kinds of economic challenges,
269
640260
2000
경제적 실험에 처할 때
10:42
or certain kinds of economic experiments.
270
642260
2000
실수하는 경향이 있습니다.
10:44
And so, since the best way to see how people go wrong
271
644260
3000
그래서 어떻게 사람들이 실수하는지 관찰하는 가장 좋은 방법은
10:47
is to actually do it yourself,
272
647260
2000
실제로 스스로 해보는 것입니다,
10:49
I'm going to give you guys a quick experiment
273
649260
2000
여러분께 빠른 실험을 보여드리겠습니다
10:51
to sort of watch your own financial intuitions in action.
274
651260
2000
여러분 스스로의 재정 직관 행동을 관찰하기 위한 것입니다.
10:53
So imagine that right now
275
653260
2000
지금 당장 제가
10:55
I handed each and every one of you
276
655260
2000
여러분에게 각각 $1,000를 건내었다고
10:57
a thousand U.S. dollars -- so 10 crisp hundred dollar bills.
277
657260
3000
상상 해보세요 -- 막 나온 10장의 100달러 지폐입니다.
11:00
Take these, put it in your wallet
278
660260
2000
이것을 집어, 지갑에 넣고
11:02
and spend a second thinking about what you're going to do with it.
279
662260
2000
이 돈으로 무엇을 할지 잠시 생각해보세요.
11:04
Because it's yours now; you can buy whatever you want.
280
664260
2000
돈은 이제 여러분 것이며, 원하는 모든 것을 구입할 수 있기 때문입니다.
11:06
Donate it, take it, and so on.
281
666260
2000
기증할 수 있으며, 가질 수 있죠, 기타 등등.
11:08
Sounds great, but you get one more choice to earn a little bit more money.
282
668260
3000
훌륭하죠, 하지만 좀 더 많은 돈을 벌기 위해 선택을 합니다.
11:11
And here's your choice: you can either be risky,
283
671260
3000
그리고 여기 선택이 있습니다: 위험해질 수 있습니다,
11:14
in which case I'm going to flip one of these monkey tokens.
284
674260
2000
제가 원숭이 토큰 중 하나를 튀겼을 때 말이죠.
11:16
If it comes up heads, you're going to get a thousand dollars more.
285
676260
2000
앞면이 나온다면 $1,000를 얻게 됩니다.
11:18
If it comes up tails, you get nothing.
286
678260
2000
뒤가 나온다면, 아무것도 얻지 못하죠.
11:20
So it's a chance to get more, but it's pretty risky.
287
680260
3000
돈을 더 벌수 있는 찬스입니다, 하지만 꽤 위험합니다.
11:23
Your other option is a bit safe. Your just going to get some money for sure.
288
683260
3000
다른 사항은 조금 안전합니다. 단지 분명하게 같은 금액을 얻게 됩니다.
11:26
I'm just going to give you 500 bucks.
289
686260
2000
여러분께 $500를 드리겠습니다.
11:28
You can stick it in your wallet and use it immediately.
290
688260
3000
지갑에 넣으실 수 있고, 바로 사용하실 수 있습니다.
11:31
So see what your intuition is here.
291
691260
2000
여러분의 직관이 무엇인지 보세요.
11:33
Most people actually go with the play-it-safe option.
292
693260
3000
대부분의 사람들이 실제로 안전한 사항을 선택합니다.
11:36
Most people say, why should I be risky when I can get 1,500 dollars for sure?
293
696260
3000
그리고 말하죠, 1,500$를 확실히 얻을 때 왜 제가 위험을 감수해야 합니까?
11:39
This seems like a good bet. I'm going to go with that.
294
699260
2000
좋은 내기처럼 보이네요. 그것으로 하죠.
11:41
You might say, eh, that's not really irrational.
295
701260
2000
아마도 여러분께서, "그건 그리 비합리적이지 않네요"라고 말하실지 모릅니다.
11:43
People are a little risk-averse. So what?
296
703260
2000
사람들은 대부분 위험 감수를 조금 싫어합니다. 그래서요?
11:45
Well, the "so what?" comes when start thinking
297
705260
2000
음, 상관 없다는 것은 약각의 변화를 준
11:47
about the same problem
298
707260
2000
같은 문제에 대해
11:49
set up just a little bit differently.
299
709260
2000
생각하기 시작할 때 오는 것입니다.
11:51
So now imagine that I give each and every one of you
300
711260
2000
그래서 지금 제가 여러분에게 개별적으로 $2,000를
11:53
2,000 dollars -- 20 crisp hundred dollar bills.
301
713260
3000
준다고 상상하세요 -- 막 나온 $100 20장이죠.
11:56
Now you can buy double to stuff you were going to get before.
302
716260
2000
이제 전에 여러분꼐서 얻었던 것을 두 개나 구입하실 수 있습니다.
11:58
Think about how you'd feel sticking it in your wallet.
303
718260
2000
지갑에 넣었을 때 어떤 기분이 드는지 생각하세요.
12:00
And now imagine that I have you make another choice
304
720260
2000
그리고 제가 다른 선택을 권하는 것을 상상하세요
12:02
But this time, it's a little bit worse.
305
722260
2000
하지만 이번에는, 약간 좀 더 나쁘죠.
12:04
Now, you're going to be deciding how you're going to lose money,
306
724260
3000
이제, 어떻게 돈을 잃게 되는지 결정하시게 될 것입니다, 하지만
12:07
but you're going to get the same choice.
307
727260
2000
같은 돈을 얻게 됩니다.
12:09
You can either take a risky loss --
308
729260
2000
돈을 잃게 되는 위험을 가질 수 있습니다 --
12:11
so I'll flip a coin. If it comes up heads, you're going to actually lose a lot.
309
731260
3000
그래서 동전을 던지겠습니다. 앞면이 나오면, 많은 돈을 잃게 될겁니다.
12:14
If it comes up tails, you lose nothing, you're fine, get to keep the whole thing --
310
734260
3000
뒷면이 나오다면, 아무 것도 잃지 않습니다, 돈을 모두 갖게 됩니다 --
12:17
or you could play it safe, which means you have to reach back into your wallet
311
737260
3000
혹은 안전하게 하실 수도 있습니다 즉, 지갑에서 다시 $500를
12:20
and give me five of those $100 bills, for certain.
312
740260
3000
저에게 주어야만 합니다. 안전하게 하기 위해서죠.
12:23
And I'm seeing a lot of furrowed brows out there.
313
743260
3000
곳곳에 찡그리는 표정이 보이네요.
12:26
So maybe you're having the same intuitions
314
746260
2000
아마도 여러분께서 같은 직관을 가지고 있습니다
12:28
as the subjects that were actually tested in this,
315
748260
2000
직감으로 검증된 요인입니다,
12:30
which is when presented with these options,
316
750260
2000
이것은 이 사항들과 시연되었을 때,
12:32
people don't choose to play it safe.
317
752260
2000
사람들은 안전하게 선택하지 못합니다.
12:34
They actually tend to go a little risky.
318
754260
2000
그들은 실제로 위험을 수반하는 경향이 있습니다.
12:36
The reason this is irrational is that we've given people in both situations
319
756260
3000
불합리한 이유는 우리가 사람들에게 두 상황에서 같은 선택을
12:39
the same choice.
320
759260
2000
주었기 때문입니다.
12:41
It's a 50/50 shot of a thousand or 2,000,
321
761260
3000
이것은 50% 대 50%, 1,000달러 혹은 2,000달러,
12:44
or just 1,500 dollars with certainty.
322
764260
2000
혹은 1,500$는 확실히 얻는 것입니다..
12:46
But people's intuitions about how much risk to take
323
766260
3000
하지만 얼마나 많은 위험을 감수하는지에 관한 직관은
12:49
varies depending on where they started with.
324
769260
2000
다양하며 어디서 시작하느냐에 달려있습니다.
12:51
So what's going on?
325
771260
2000
어떻게 진행되는걸까요?
12:53
Well, it turns out that this seems to be the result
326
773260
2000
우리가 갖고 있는 심리적 수준에서의 적어도
12:55
of at least two biases that we have at the psychological level.
327
775260
3000
2개의 편견에 의한 결과로 판명되었습니다.
12:58
One is that we have a really hard time thinking in absolute terms.
328
778260
3000
하나는 실제로 절대적인 조건들로서 생각하는데 어려움을 겪습니다.
13:01
You really have to do work to figure out,
329
781260
2000
완전히 이해하기 위해서는 노력을 해야 합니다.
13:03
well, one option's a thousand, 2,000;
330
783260
2000
음, 하나의 옵션은 2,000;
13:05
one is 1,500.
331
785260
2000
하나는 1,500.
13:07
Instead, we find it very easy to think in very relative terms
332
787260
3000
대신에, 우리는 관련 기간에 쉽게 생각하는 법을 찾았습니다
13:10
as options change from one time to another.
333
790260
3000
사항이 하나에서 다른 것으로 바뀔 때 말입니다.
13:13
So we think of things as, "Oh, I'm going to get more," or "Oh, I'm going to get less."
334
793260
3000
그래서 우리는 이것을, "좀 더 얻을거야, 혹은 "적게 얻을 거야"라고 생각했습니다.
13:16
This is all well and good, except that
335
796260
2000
모든 것이 괜찮고 좋았습니다, 예외가 있다면
13:18
changes in different directions
336
798260
2000
다른 방향에서의 변화가 실제로
13:20
actually effect whether or not we think
337
800260
2000
우리가 생각하는 사항의 선호도에
13:22
options are good or not.
338
802260
2000
영향을 미쳤습니다.
13:24
And this leads to the second bias,
339
804260
2000
그리고 이 사실은 두번째로 이끕니다,
13:26
which economists have called loss aversion.
340
806260
2000
경제학자들이 손실 기피라고 하는 것이죠.
13:28
The idea is that we really hate it when things go into the red.
341
808260
3000
이 아이디어는 우리가 상황이 안 좋아질 때, 손실을 정말로 싫어한다는 것입니다.
13:31
We really hate it when we have to lose out on some money.
342
811260
2000
우리는 돈을 잃었을 때 정말로 그 상황을 싫어합니다.
13:33
And this means that sometimes we'll actually
343
813260
2000
즉 우리는 때때로 이것을 회피하기 위해
13:35
switch our preferences to avoid this.
344
815260
2000
실제로 우리의 선호하는 것들을 바꿉니다.
13:37
What you saw in that last scenario is that
345
817260
2000
이 마지막 시나리오에서 보신 것은
13:39
subjects get risky
346
819260
2000
위험의 수반입니다
13:41
because they want the small shot that there won't be any loss.
347
821260
3000
왜냐하면 손실이 되지 않는 작은 주사를 원하기 때문입니다.
13:44
That means when we're in a risk mindset --
348
824260
2000
이 말은 우리가 위험 한 가운데 있을 때--
13:46
excuse me, when we're in a loss mindset,
349
826260
2000
실례합니다, 우리가 위험 한 가운데에 있을 때,
13:48
we actually become more risky,
350
828260
2000
우리를 좀 더 걱정 시킬 수 있는
13:50
which can actually be really worrying.
351
830260
2000
위험에 처해진다는 것입니다.
13:52
These kinds of things play out in lots of bad ways in humans.
352
832260
3000
이런한 것들은 인간의 나쁜 방법을 소진시킵니다.
13:55
They're why stock investors hold onto losing stocks longer --
353
835260
3000
그것들은 주식 투자자들이 왜 손실을 오랫동안 가지고 있는지의 이유입니다 --
13:58
because they're evaluating them in relative terms.
354
838260
2000
왜냐하면 그들은 그것들을 상대적인 기간으로 평가를 하고있기 때문입니다.
14:00
They're why people in the housing market refused to sell their house --
355
840260
2000
그것들은 주택 시장에 있는 사람들이 왜 그들의 집 판매를 거절하는 이유입니다 --
14:02
because they don't want to sell at a loss.
356
842260
2000
그들은 낮은 가격에 팔고 싶지 않기 때문입니다.
14:04
The question we were interested in
357
844260
2000
우리가 흥미를 가진 질문은 원숭이들이
14:06
is whether the monkeys show the same biases.
358
846260
2000
같은 관점을 보여 주는지 였습니다.
14:08
If we set up those same scenarios in our little monkey market,
359
848260
3000
작은 원숭이 시장에 같은 시나리오는 만든다면,
14:11
would they do the same thing as people?
360
851260
2000
그들이 사람처럼 같은 반응을 보일까요?
14:13
And so this is what we did, we gave the monkeys choices
361
853260
2000
그래서 이것이 우리가 한 것입니다, 그들에게 선택을 주었습니다
14:15
between guys who were safe -- they did the same thing every time --
362
855260
3000
안전한 사람과 -- 그들은 매일 같은 반응을 합니다 --
14:18
or guys who were risky --
363
858260
2000
위험을 수반한 사람사이에서 말입니다
14:20
they did things differently half the time.
364
860260
2000
-- 그들은 반은 다른 행동을 합니다 --
14:22
And then we gave them options that were bonuses --
365
862260
2000
그리고 그들에게 보너스 옵션을 주었습니다 --
14:24
like you guys did in the first scenario --
366
864260
2000
첫 번째 시나리오에서 여러분이 했던 것처럼 말이죠 --
14:26
so they actually have a chance more,
367
866260
2000
그래서 그들은 실제로 좀 더 많은 기회
14:28
or pieces where they were experiencing losses --
368
868260
3000
혹은 손실을 경험하게 되었습니다 --
14:31
they actually thought they were going to get more than they really got.
369
871260
2000
실제로 그들은 가진 것보다 좀 더 가질 것이라고 생각했었습니다
14:33
And so this is what this looks like.
370
873260
2000
보시는 바와 같습니다.
14:35
We introduced the monkeys to two new monkey salesmen.
371
875260
2000
우리는 원숭이들에게 두 명의 새로운 판매원을 소개시켜 주었습니다.
14:37
The guy on the left and right both start with one piece of grape,
372
877260
2000
좌측, 우측에 있는 남자 둘 다 하나의 포도로 시작했습니다,
14:39
so it looks pretty good.
373
879260
2000
꽤 괜찮아 보입니다.
14:41
But they're going to give the monkeys bonuses.
374
881260
2000
그들은 원숭이들에게 보너스를 지급합니다.
14:43
The guy on the left is a safe bonus.
375
883260
2000
좌측에 있는 남성은 안전한 보너스입니다.
14:45
All the time, he adds one, to give the monkeys two.
376
885260
3000
항상, 그는 하나를 추가해 그들에게 두 개를 줍니다.
14:48
The guy on the right is actually a risky bonus.
377
888260
2000
우측에 있는 남자는 실제로 위험이 따른 보너스입니다.
14:50
Sometimes the monkeys get no bonus -- so this is a bonus of zero.
378
890260
3000
때때로 그들은 보너스를 받지 못합니다 -- 그래서 보너스가 0입니다.
14:53
Sometimes the monkeys get two extra.
379
893260
3000
때때로 그들은 2개의 여분을 받습니다.
14:56
For a big bonus, now they get three.
380
896260
2000
큰 보너스 때문에, 그들은 3개를 가집니다.
14:58
But this is the same choice you guys just faced.
381
898260
2000
하지만 이것은 여러분께서 직면했던 선택과 같습니다.
15:00
Do the monkeys actually want to play it safe
382
900260
3000
그들은 실제로 안전하게 선택하고 매 시험에서
15:03
and then go with the guy who's going to do the same thing on every trial,
383
903260
2000
같은 반응을 보이는 남자를 따르며, 혹은 큰 보너스가 없는
15:05
or do they want to be risky
384
905260
2000
위험 가능성이 아닌
15:07
and try to get a risky, but big, bonus,
385
907260
2000
위험을 얻으려
15:09
but risk the possibility of getting no bonus.
386
909260
2000
시도합니다.
15:11
People here played it safe.
387
911260
2000
여기있는 사람들은 안전한 것을 택합니다.
15:13
Turns out, the monkeys play it safe too.
388
913260
2000
그들 역시 같은 선택을 한다고 판명됐습니다.
15:15
Qualitatively and quantitatively,
389
915260
2000
질적으로 그리고 양적으로
15:17
they choose exactly the same way as people,
390
917260
2000
그들은 사람들처럼 같은 방법을 선택합니다,
15:19
when tested in the same thing.
391
919260
2000
같은 상황에 검증 되었을 때 말입니다.
15:21
You might say, well, maybe the monkeys just don't like risk.
392
921260
2000
여러분께서, 음, 아마도 원숭이들이 위험을 싫어한다고 말할지도 모릅니다.
15:23
Maybe we should see how they do with losses.
393
923260
2000
어쩌면 우리는 어떻게 그들이 손해를 처리하는지 봐야 할지도 모릅니다.
15:25
And so we ran a second version of this.
394
925260
2000
그래서 두번 째 버전을 실행했습니다.
15:27
Now, the monkeys meet two guys
395
927260
2000
지금, 그들은 두 남자를 만납니다
15:29
who aren't giving them bonuses;
396
929260
2000
둘 다 보너스를 지급하지 않습니다;
15:31
they're actually giving them less than they expect.
397
931260
2000
그 둘은 예상하는 것보다 조금 그들에게 지급합니다.
15:33
So they look like they're starting out with a big amount.
398
933260
2000
이렇게 그들은 큰 금액과 함께 시작하는 것처럼 보입니다.
15:35
These are three grapes; the monkey's really psyched for this.
399
935260
2000
3개의 포도송이입니다; 그들은 정말로 이 처사에 혼란스러워 했었습니다.
15:37
But now they learn these guys are going to give them less than they expect.
400
937260
3000
하지만 지금 그들은 이 두 남성이 예상하는 것 보다 조금 준다는 것을 배웁니다.
15:40
They guy on the left is a safe loss.
401
940260
2000
좌측에 있는 남성은 안전한 손실입니다.
15:42
Every single time, he's going to take one of these away
402
942260
3000
매 순간, 그는 하나만을 빼갑니다 그리고
15:45
and give the monkeys just two.
403
945260
2000
그들에게 두 개를 줍니다.
15:47
the guy on the right is the risky loss.
404
947260
2000
우측에 있는 남성은 위험이 따른 손실입니다.
15:49
Sometimes he gives no loss, so the monkeys are really psyched,
405
949260
3000
때때로 그는 손실을 주지 않습니다, 그래서 그들이 매우 혼란스러워했었죠,
15:52
but sometimes he actually gives a big loss,
406
952260
2000
하지만 때때로 그는 실제로 큰 손실을 줍니다,
15:54
taking away two to give the monkeys only one.
407
954260
2000
두 개를 뺏고 그들에게 하나를 건내줍니다.
15:56
And so what do the monkeys do?
408
956260
2000
원숭이들이 어떤 선택을 할까요?
15:58
Again, same choice; they can play it safe
409
958260
2000
다시, 같은 선택; 그들은 매 순간
16:00
for always getting two grapes every single time,
410
960260
3000
항상 두 개의 포도를 얻기 위해 안전하게 선택 할 수 있습니다,
16:03
or they can take a risky bet and choose between one and three.
411
963260
3000
혹은 위험 부담이 있는 3 개와 1 개 사이에서 선택할 수 있습니다.
16:06
The remarkable thing to us is that, when you give monkeys this choice,
412
966260
3000
우리에게 눈에 띈 것은 우리가 이 선택을 그들에게 주었을 때,
16:09
they do the same irrational thing that people do.
413
969260
2000
그들은 사람들이 하는 비합리적인 선택을 한다는 것입니다.
16:11
They actually become more risky
414
971260
2000
그들은 실제로 좀 더 위험해집니다
16:13
depending on how the experimenters started.
415
973260
3000
그 위험은 어떻게 실험을 시작해야 하는지에 달렸있습니다.
16:16
This is crazy because it suggests that the monkeys too
416
976260
2000
이것은 무분별한 실험입니다. 왜냐하면 원숭이들이 상대적 기간으로
16:18
are evaluating things in relative terms
417
978260
2000
평가를 하고 실제로 얻는 것보다
16:20
and actually treating losses differently than they treat gains.
418
980260
3000
다르게 손실을 처리할 수 있도록 권하기 때문입니다.
16:23
So what does all of this mean?
419
983260
2000
이 모든 상황이 무엇을 의미할까요?
16:25
Well, what we've shown is that, first of all,
420
985260
2000
음, 우리가 지금까지 보여준 것은, 무엇보다도,
16:27
we can actually give the monkeys a financial currency,
421
987260
2000
실제로 원숭이들에게 재정 화폐를 줄 수 있고 이것과 함께
16:29
and they do very similar things with it.
422
989260
2000
그들이 하는 경제적 활동을 한다는 것입니다.
16:31
They do some of the smart things we do,
423
991260
2000
그들은 우리가 하는 영리한 활동을 합니다,
16:33
some of the kind of not so nice things we do,
424
993260
2000
그렇지 않는 것도 합니다,
16:35
like steal it and so on.
425
995260
2000
훔치는 행동과 같은 것이죠.
16:37
But they also do some of the irrational things we do.
426
997260
2000
하지만 그들은 또한 우리가 하는 비합리적인 선택을 합니다.
16:39
They systematically get things wrong
427
999260
2000
그들은 체계적으로 실수합니다. 우리가
16:41
and in the same ways that we do.
428
1001260
2000
처한 같은 방법에서 말입니다.
16:43
This is the first take-home message of the Talk,
429
1003260
2000
이것이 강연의 첫 번째 메세지입니다,
16:45
which is that if you saw the beginning of this and you thought,
430
1005260
2000
여러분께서 시작 부분을 보았다면, 전적으로 오, 집에 가서
16:47
oh, I'm totally going to go home and hire a capuchin monkey financial adviser.
431
1007260
2000
꼬리 감는 원숭이 재정 조언가를 고용할거야라고 생각하셨을 수도 있습니다.
16:49
They're way cuter than the one at ... you know --
432
1009260
2000
그들은 다른 어디에 있는 누구보다 더 귀엽습니다 --
16:51
Don't do that; they're probably going to be just as dumb
433
1011260
2000
그렇게 하지마세요; 그들은 아마도 여러분께서 이미
16:53
as the human one you already have.
434
1013260
3000
고용한 그 사람만큼 멍청할테니까요.
16:56
So, you know, a little bad -- Sorry, sorry, sorry.
435
1016260
2000
그래서, 알다시피, 아주 작은 -- 죄송합니다. 죄송합니다.
16:58
A little bad for monkey investors.
436
1018260
2000
원숭이 투자자의 나쁜 습관.
17:00
But of course, you know, the reason you're laughing is bad for humans too.
437
1020260
3000
하지만 물론, 알다시피, 여러분께서 웃는 이유는 인간과 같기 때문입니다.
17:03
Because we've answered the question we started out with.
438
1023260
3000
왜냐하면 우리가 시작했었던 그 질문에 답했기 때문이죠.
17:06
We wanted to know where these kinds of errors came from.
439
1026260
2000
우리는 이 실수가 어디서 오는지 알고 싶어합니다.
17:08
And we started with the hope that maybe we can
440
1028260
2000
우리가 재정 제도, 우리의 기술력을
17:10
sort of tweak our financial institutions,
441
1030260
2000
꼬집어 더 나은 삶을 살 수 있는
17:12
tweak our technologies to make ourselves better.
442
1032260
3000
희망과 함께 시작했습니다.
17:15
But what we've learn is that these biases might be a deeper part of us than that.
443
1035260
3000
하지만 우리가 배운 것은 이 기본적인 것들이 그것보다 우리에게 더 깊다는 것입니다.
17:18
In fact, they might be due to the very nature
444
1038260
2000
사실상, 그들은 우리의 진화 역사의
17:20
of our evolutionary history.
445
1040260
2000
산물이기 때문일지도 모릅니다.
17:22
You know, maybe it's not just humans
446
1042260
2000
알다시피, 아마도 그들은 비합리적인
17:24
at the right side of this chain that's duncey.
447
1044260
2000
일련에 앞선 인간은 아닙니다.
17:26
Maybe it's sort of duncey all the way back.
448
1046260
2000
어쩌면 오래전부터 내려오는 어리석음일수도 있습니다.
17:28
And this, if we believe the capuchin monkey results,
449
1048260
3000
만약 여러분께서 꼬리감기 원숭이의 결과를 믿는다면,
17:31
means that these duncey strategies
450
1051260
2000
이 비합리적 정책들은
17:33
might be 35 million years old.
451
1053260
2000
아마도 3천 5백만 년전의 사유물이라는 것을 뜻합니다.
17:35
That's a long time for a strategy
452
1055260
2000
전략에 관한 오랜 시간은
17:37
to potentially get changed around -- really, really old.
453
1057260
3000
잠재적으로 변화를 주기위함입니다 - 정말로 오래되었죠.
17:40
What do we know about other old strategies like this?
454
1060260
2000
이와 같은 오래된 다른 정책에 관해 무엇을 알 수있을까요?
17:42
Well, one thing we know is that they tend to be really hard to overcome.
455
1062260
3000
음, 우리가 아는 한 가지는 그들이 정말로 힘들게 극복하는 경향이 있다는 것입니다.
17:45
You know, think of our evolutionary predilection
456
1065260
2000
알다시피, 치즈케이크와 같은 단것을 좋아하는
17:47
for eating sweet things, fatty things like cheesecake.
457
1067260
3000
우리의 진화적 추측을 생각해보세요.
17:50
You can't just shut that off.
458
1070260
2000
그것을 차단할 수는 없습니다.
17:52
You can't just look at the dessert cart as say, "No, no, no. That looks disgusting to me."
459
1072260
3000
여러분은 디저트 카트를 보며 "아니야 아니야, 나는 그게 정말 맛없어 보여."라고 말할 수 없습니다.
17:55
We're just built differently.
460
1075260
2000
우리는 다르게 만들어졌습니다.
17:57
We're going to perceive it as a good thing to go after.
461
1077260
2000
우리는 이것을 구하고자 하는 좋은 것으로 인지할 것입니다.
17:59
My guess is that the same thing is going to be true
462
1079260
2000
제 추측은 인간이 다른 경제적 결정을 할 때도
18:01
when humans are perceiving
463
1081260
2000
같은 사실이
18:03
different financial decisions.
464
1083260
2000
맞을 것이라는 것입니다.
18:05
When you're watching your stocks plummet into the red,
465
1085260
2000
여러분의 증권 폭락을 적식호로 보았을 때,
18:07
when you're watching your house price go down,
466
1087260
2000
집 값이 떨어지는 것을 지켜 보았을 때,
18:09
you're not going to be able to see that
467
1089260
2000
그것을 보실 수 있을 것입니다
18:11
in anything but old evolutionary terms.
468
1091260
2000
오래된 진화적 기간에서 말이죠.
18:13
This means that the biases
469
1093260
2000
이말은
18:15
that lead investors to do badly,
470
1095260
2000
투자자들을 이끌어 안 좋게 행하게 하거나
18:17
that lead to the foreclosure crisis
471
1097260
2000
처분 위기로 이끄는 기본 사항들이
18:19
are going to be really hard to overcome.
472
1099260
2000
극복하기 힘들다는 것입니다.
18:21
So that's the bad news. The question is: is there any good news?
473
1101260
2000
그것은 나쁜 소식입니다. 질문은: 좋은 소식이 있을까요?
18:23
I'm supposed to be up here telling you the good news.
474
1103260
2000
저는 좋은 소식을 전하기 위해 여기에 있습니다.
18:25
Well, the good news, I think,
475
1105260
2000
음, 제가 생각하는 좋은 소식은
18:27
is what I started with at the beginning of the Talk,
476
1107260
2000
강연 처음 부분에 시작했던 것입니다,
18:29
which is that humans are not only smart;
477
1109260
2000
인간이 오직 영리하다는 것은 아닙니다;
18:31
we're really inspirationally smart
478
1111260
2000
우리는 이 생물학적 왕국에
18:33
to the rest of the animals in the biological kingdom.
479
1113260
3000
남아 있는 동물에서 정말로 영리합니다.
18:36
We're so good at overcoming our biological limitations --
480
1116260
3000
우리는 생물학적 한계 극복에 매우 능숙합니다 --
18:39
you know, I flew over here in an airplane.
481
1119260
2000
알다시피, 저는 비행기로 여기에 왔습니다.
18:41
I didn't have to try to flap my wings.
482
1121260
2000
제 날개를 펼칠 필요가 없습니다.
18:43
I'm wearing contact lenses now so that I can see all of you.
483
1123260
3000
콘택트 렌즈를 끼고 있어서 여러분 모두를 볼 수 있습니다.
18:46
I don't have to rely on my own near-sightedness.
484
1126260
3000
저의 근시안적 시각에 의존할 필요가 없습니다.
18:49
We actually have all of these cases
485
1129260
2000
우리는 실제로 이 모든 상황을 가집니다
18:51
where we overcome our biological limitations
486
1131260
3000
생물학적 한계를 극복하는 것이지요
18:54
through technology and other means, seemingly pretty easily.
487
1134260
3000
외적으로 꽤 쉽게 기술과 다른 의미를 통해서 말입니다.
18:57
But we have to recognize that we have those limitations.
488
1137260
3000
하지만 우리가 이런 한계를 가지고 있다는 것을 인식해야만 합니다.
19:00
And here's the rub.
489
1140260
2000
여기 인간에 대한 비난이 있습니다.
19:02
It was Camus who once said that, "Man is the only species
490
1142260
2000
카뮈는 말했었죠, "사람은 오직 자신의 존재에 진실되기를
19:04
who refuses to be what he really is."
491
1144260
3000
거절하는 종입니다."
19:07
But the irony is that
492
1147260
2000
하지만 모순적이게도
19:09
it might only be in recognizing our limitations
493
1149260
2000
우리의 한계를 인식해야 우리는
19:11
that we can really actually overcome them.
494
1151260
2000
실제로 한계들을 극복할 수 있습니다.
19:13
The hope is that you all will think about your limitations,
495
1153260
3000
희망은 여러분께서 한계를 생각하고,
19:16
not necessarily as unovercomable,
496
1156260
3000
극복하지 못하는 것이 아니라
19:19
but to recognize them, accept them
497
1159260
2000
그것들을 인식하고 받아들여
19:21
and then use the world of design to actually figure them out.
498
1161260
3000
실제로 이해하기 위해 디자인 세계를 이용하게 될 것입니다.
19:24
That might be the only way that we will really be able
499
1164260
3000
그것은 아마도 인간이 간진 고유의 잠재력과
19:27
to achieve our own human potential
500
1167260
2000
모두가 바라는 존귀한 종이 될 수 있는
19:29
and really be the noble species we hope to all be.
501
1169260
3000
유일한 방법일 것입니다.
19:32
Thank you.
502
1172260
2000
감사합니다.
19:34
(Applause)
503
1174260
5000
(박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7