How to build a company where the best ideas win | Ray Dalio

1,364,967 views ・ 2017-09-06

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: SeungGyu Min 검토: SooAn Han
00:12
Whether you like it or not,
0
12380
1336
여러분들의 호불호를 떠나서
00:13
radical transparency and algorithmic decision-making is coming at you fast,
1
13740
5376
혁신적인 투명성과 알고리즘 기반의 의사 결정이 빠르게 다가오고 있고
00:19
and it's going to change your life.
2
19140
1976
이것들이 우리의 삶을 바꿀 겁니다.
00:21
That's because it's now easy to take algorithms
3
21140
2816
이제는 알고리즘을
00:23
and embed them into computers
4
23980
1896
컴퓨터에 심어서
00:25
and gather all that data that you're leaving on yourself
5
25900
2936
여러분들이 여기저기 남긴
00:28
all over the place,
6
28860
1376
모든 정보를 모으고
00:30
and know what you're like,
7
30260
1696
여러분들이 어떤 사람인지 알아내서
00:31
and then direct the computers to interact with you
8
31980
2936
사람들이 하는 것보다 더 효율적으로 방법으로
00:34
in ways that are better than most people can.
9
34940
2120
컴퓨터가 여러분들과 소통하는 것이 쉽기 때문입니다.
00:37
Well, that might sound scary.
10
37980
1616
글쎄요, 섬뜩한 이야기일 수도 있습니다.
00:39
I've been doing this for a long time and I have found it to be wonderful.
11
39620
3640
하지만 저는 오랫동안 이 일을 해왔고 아주 환상적이라고 생각합니다.
00:43
My objective has been to have meaningful work
12
43979
2657
지금까지의 제 일의 목적은 의미있는 일을 하고
00:46
and meaningful relationships with the people I work with,
13
46660
2856
같이 일을 하는 사람들과 의미있는 관계를 가지는 것이었습니다.
00:49
and I've learned that I couldn't have that
14
49540
2056
그러나 저는 혁명적인 투명성과 알고리듬에 기반한 결정 없이는
00:51
unless I had that radical transparency and that algorithmic decision-making.
15
51620
4280
그 목적을 이루지 못한다는 것을 깨달았습니다.
00:56
I want to show you why that is,
16
56500
2016
왜 그런가를 여러분들에게 설명드리면서
00:58
I want to show you how it works.
17
58540
1696
작동원리를 알려드리고자 합니다.
01:00
And I warn you that some of the things that I'm going to show you
18
60260
3096
또한, 제가 보여드리는 것들 중 몇 가지는
다소 충격적인 것도 있음을 말씀드립니다.
01:03
probably are a little bit shocking.
19
63380
1667
01:05
Since I was a kid, I've had a terrible rote memory.
20
65580
3480
저는 어렸을 때 단순암기력은 빵점이었습니다.
01:09
And I didn't like following instructions,
21
69940
2176
저는 시키는대로 하는 게 싫었고,
01:12
I was no good at following instructions.
22
72140
2416
그런 것을 잘하지도 못했습니다.
01:14
But I loved to figure out how things worked for myself.
23
74580
3000
하지만, 저는 저만의 방법으로 여러 일의 작동원리를 알아내는 게 좋았습니다.
01:18
When I was 12,
24
78500
1376
제가 12살이었을 때
01:19
I hated school but I fell in love with trading the markets.
25
79900
3280
학교는 싫었지만 시장의 거래 원리를 알고 싶었습니다
01:23
I caddied at the time,
26
83740
1656
당시 짐을 운반했었는데
01:25
earned about five dollars a bag.
27
85420
1576
짐 하나에 5달러 정도 받았습니다.
01:27
And I took my caddying money, and I put it in the stock market.
28
87020
3200
그 돈을 저는 주식에 투자했습니다.
01:31
And that was just because the stock market was hot at the time.
29
91060
3376
당시에는 주식시장이 잘 나갈 때였습니다.
01:34
And the first company I bought
30
94460
1456
제가 최초로 산 회사는
01:35
was a company by the name of Northeast Airlines.
31
95940
2600
Northeast 항공사의 주식이었습니다.
01:39
Northeast Airlines was the only company I heard of
32
99180
2736
Northeast 항공사는 주당 5달러 아래로
01:41
that was selling for less than five dollars a share.
33
101940
2696
거래가 된다고 들은 유일한 회사였습니다.
01:44
(Laughter)
34
104660
1976
(웃음)
01:46
And I figured I could buy more shares,
35
106660
1856
저는 제가 주식을 더 살 수 있었고
01:48
and if it went up, I'd make more money.
36
108540
2096
가격이 오른다면 더 많은 돈을 벌 수 있음을 깨달았습니다.
01:50
So, it was a dumb strategy, right?
37
110660
2840
바보라도 알 수 있는 사실 아닌가요?
01:54
But I tripled my money,
38
114180
1456
근데 저는 3배나 벌었습니다.
01:55
and I tripled my money because I got lucky.
39
115660
2120
운이 좋았기에 가능했었죠.
01:58
The company was about to go bankrupt,
40
118340
1816
그 회사는 파산직전이었는데
02:00
but some other company acquired it,
41
120180
2096
어떤 다른 회사가 합병을 했고
02:02
and I tripled my money.
42
122300
1456
저는 돈을 3배로 불릴 수 있었습니다.
02:03
And I was hooked.
43
123780
1200
그리고 저는 주식에 빠져 버렸습니다
02:05
And I thought, "This game is easy."
44
125540
2280
당시 저는 생각했죠. "주식은 껌이네."
02:09
With time,
45
129020
1216
시간이 흐르면서
02:10
I learned this game is anything but easy.
46
130260
1960
주식투자는 절대 쉬운 일이 아님을 알게 됐습니다.
02:12
In order to be an effective investor,
47
132700
2136
효과적인 투자가가 되기 위해서는
02:14
one has to bet against the consensus
48
134860
2896
남들과는 다르게 걸되
02:17
and be right.
49
137780
1256
그게 옳아야만 합니다.
02:19
And it's not easy to bet against the consensus and be right.
50
139060
2856
하지만 남들과 다른 길을 가면서 옳은 판단을 내리긴 쉽지 않습니다.
02:21
One has to bet against the consensus and be right
51
141940
2336
남들과 다르되 옳은 판단을 내려야 하는 이유는
02:24
because the consensus is built into the price.
52
144300
2640
합의가 주식 가격을 정하기 때문입니다.
02:27
And in order to be an entrepreneur,
53
147940
2456
성공한 기업가가
02:30
a successful entrepreneur,
54
150420
1616
되기 위해서는
02:32
one has to bet against the consensus and be right.
55
152060
3480
다른 생각을 가지고 현명한 판단을 해야 합니다.
02:37
I had to be an entrepreneur and an investor --
56
157220
2936
저는 기업가이자 투자가여야 했습니다.
02:40
and what goes along with that is making a lot of painful mistakes.
57
160180
4200
그 일들에는 고통스러운 실수들이 따릅니다.
02:45
So I made a lot of painful mistakes,
58
165260
2816
저는 많은 실수를 했습니다.
02:48
and with time,
59
168100
1256
시간이 흘러
02:49
my attitude about those mistakes began to change.
60
169380
2960
그동안의 실수에 대한 저의 태도는 변화하기 시작했습니다.
02:52
I began to think of them as puzzles.
61
172980
2096
저는 실수를 퍼즐이라고 생각하기로 했습니다.
02:55
That if I could solve the puzzles,
62
175100
1936
만약 퍼즐을 다 맞출 수 있다면
02:57
they would give me gems.
63
177060
1440
아마 제가 상을 받겠죠.
02:58
And the puzzles were:
64
178980
1656
그리고 그 퍼즐은 이런 것이었습니다.
03:00
What would I do differently in the future so I wouldn't make that painful mistake?
65
180660
3880
고통스러운 실수를 하지 않기 위해서 앞으로 무엇을 다르게 해야할까?
03:05
And the gems were principles
66
185100
2576
그리고 그 보상으로 원칙을 배우게 되었습니다.
03:07
that I would then write down so I would remember them
67
187700
3136
내가 그것들을 기록한다면 기억을 하지 않을까.
03:10
that would help me in the future.
68
190860
1572
그 기억이 미래의 나에게 도움을 줄것이다라구요.
03:12
And because I wrote them down so clearly,
69
192820
2696
그래서 제가 세세하게 실수를 기록했기 때문에
03:15
I could then --
70
195540
1336
저는 그때
03:16
eventually discovered --
71
196900
1576
마침내 저는
03:18
I could then embed them into algorithms.
72
198500
3760
그것들을 알고리즘에 포함시킬 수 있었습니다.
03:23
And those algorithms would be embedded in computers,
73
203220
3456
그 알고리즘은 컴퓨터에 저장되고
03:26
and the computers would make decisions along with me;
74
206700
3336
저와 함께 의사결정을 내리는 일을 할 수 있었습니다.
03:30
and so in parallel, we would make these decisions.
75
210060
3136
그리고 동시에 우리는 이러한 결정을 내릴 수 있었습니다.
03:33
And I could see how those decisions then compared with my own decisions,
76
213220
3976
그리고 저는 이런 결정들을 저 자신의 결정과 비교해 볼 수 있었고
03:37
and I could see that those decisions were a lot better.
77
217220
3096
제 결정보다 더 낫다는 것을 알게 되었습니다.
03:40
And that was because the computer could make decisions much faster,
78
220340
4736
이는 컴퓨터가인간보다 더 빠르게 의사결정을 하고
03:45
it could process a lot more information
79
225100
2256
휠씬 많은 정보를 처리할 수 있고
03:47
and it can process decisions much more --
80
227380
3400
매우 덜 감정적으로
03:51
less emotionally.
81
231700
1200
의사 결정들을 처리하기 때문입니다.
03:54
So it radically improved my decision-making.
82
234580
3920
이 일은 저의 의사결정 과정을 바꾸어 놓았습니다.
04:00
Eight years after I started Bridgewater,
83
240260
4896
Bridgewater를 시작한지 8년 뒤에
04:05
I had my greatest failure,
84
245180
1536
최고의 실패이자
04:06
my greatest mistake.
85
246740
1200
최고의 실수를 했습니다.
04:09
It was late 1970s,
86
249500
2136
1970년 후반이었습니다.
04:11
I was 34 years old,
87
251660
1976
그때 제 나이는 34살 이었습니다.
04:13
and I had calculated that American banks
88
253660
3656
당시 저는 미국 은행들이 개발도상국들에게
04:17
had lent much more money to emerging countries
89
257340
2856
그들이 갚을 수도 없을 만큼의 금액을
04:20
than those countries were going to be able to pay back
90
260220
2816
대출해줬다고 판단했습니다.
04:23
and that we would have the greatest debt crisis
91
263060
2696
그리고 대공황 이후로 최대의 부채 위기를
04:25
since the Great Depression.
92
265780
1360
맞을 것이라고 판단했습니다.
04:28
And with it, an economic crisis
93
268020
2216
그와 더불어 경제위기가 오고
04:30
and a big bear market in stocks.
94
270260
2040
주식시장이 바닥을 칠 것이라고 예상했습니다.
04:33
It was a controversial view at the time.
95
273500
2000
당시에 그것은 논란이 많은 견해였습니다.
04:35
People thought it was kind of a crazy point of view.
96
275980
2440
사람들은 말도 안되는 어거지라 했습니다.
04:39
But in August 1982,
97
279300
2216
하지만 1982년 8월
04:41
Mexico defaulted on its debt,
98
281540
1960
멕시코가 채무불이행을 선언하게 되고
04:44
and a number of other countries followed.
99
284340
2256
많은 개발도상국들도 동참을 하게 되었죠.
04:46
And we had the greatest debt crisis since the Great Depression.
100
286620
3400
경제 대공황 이후는 최대의 위기였습니다.
04:50
And because I had anticipated that,
101
290900
2776
하지만 저는 이런 사태를 이미 예측했었기에
04:53
I was asked to testify to Congress and appear on "Wall Street Week,"
102
293700
4336
의회에 나가 증언을 하고 주요경제신문에 나가게 되었죠.
04:58
which was the show of the time.
103
298060
1976
시대의 모습이었죠.
05:00
Just to give you a flavor of that, I've got a clip here,
104
300060
2936
어떤 느낌인지 보여드리기 위해 짧은 영상을 준비했습니다.
05:03
and you'll see me in there.
105
303020
1920
제가 나오는 영상입니다.
05:06
(Video) Mr. Chairman, Mr. Mitchell,
106
306300
1696
(영상) 존경하는 미첼의장님
05:08
it's a great pleasure and a great honor to be able to appear before you
107
308020
3376
여기에 서게 된 것을 영광으로 생각합니다.
05:11
in examination with what is going wrong with our economy.
108
311420
3480
우리 경제의 무엇이 잘못되었는지에 대한 연구에 따르면
05:15
The economy is now flat --
109
315460
1936
우리 경제는 위기의 상태로
05:17
teetering on the brink of failure.
110
317420
2136
거의 붕괴 직전이라 할 수 있습니다.
05:19
Martin Zweig: You were recently quoted in an article.
111
319580
2496
Martin Zweig: 한 신문 기사에서 당신의 말을 인용했는데요.
05:22
You said, "I can say this with absolute certainty
112
322100
2336
그때 "나는 이 일을 이미 확신하고 있었다.
05:24
because I know how markets work."
113
324460
1616
시장의 원리를 이미 간파했기 때문이다." 라고요.
05:26
Ray Dalio: I can say with absolute certainty
114
326100
2096
Ray Dalio: "나는 확신컨대
05:28
that if you look at the liquidity base
115
328220
1856
만약 여러분들이 기업과 전세계의
05:30
in the corporations and the world as a whole,
116
330100
3376
유동성을 하나의 관점으로 살펴본다면
05:33
that there's such reduced level of liquidity
117
333500
2096
현금 유동성의 정도가 많이 감소가 된 상태라
05:35
that you can't return to an era of stagflation."
118
335620
3216
스태그플레이션 시대로 되돌아 갈 수 없습니다."
05:38
I look at that now, I think, "What an arrogant jerk!"
119
338860
3096
그 모습을 보면 지금도 "저런 거만한 녀석"이라고 생각합니다.
05:41
(Laughter)
120
341980
2000
(웃음)
05:45
I was so arrogant, and I was so wrong.
121
345580
2456
너무 건방지고 헛소리를 해댔습니다.
05:48
I mean, while the debt crisis happened,
122
348060
2576
부채위기가 발생했을때
05:50
the stock market and the economy went up rather than going down,
123
350660
3976
주식시장과 그 경제는 하락보다는 상승했습니다.
05:54
and I lost so much money for myself and for my clients
124
354660
5016
저와 제 고객들은 많은 손해를 입었습니다.
05:59
that I had to shut down my operation pretty much,
125
359700
3416
많은 사업을 접어야 했습니다.
06:03
I had to let almost everybody go.
126
363140
1880
직원들이 떠나는 것을 지켜볼 수 밖에 없었습니다.
06:05
And these were like extended family,
127
365460
1736
그들은 또다른 가족과 같았습니다.
06:07
I was heartbroken.
128
367220
1616
하늘이 무너지는 것 같았습니다.
06:08
And I had lost so much money
129
368860
1816
너무 많은 돈을 날려버렸습니다.
06:10
that I had to borrow 4,000 dollars from my dad
130
370700
3336
심지어 아버지로부터 4,000달러를 빌려야 할 정도였으니까요.
06:14
to help to pay my family bills.
131
374060
1920
생활비가 없었거든요.
06:16
It was one of the most painful experiences of my life ...
132
376660
3160
그 사건은 내 인생 최대의 실패작이었습니다...
06:21
but it turned out to be one of the greatest experiences of my life
133
381060
3776
하지만, 결국엔 그 사건으로 저는 많은 것을 배웠습니다.
06:24
because it changed my attitude about decision-making.
134
384860
2680
의사결정에 대하는 제 태도가 달라졌습니다.
06:28
Rather than thinking, "I'm right,"
135
388180
3056
"내가 옳아"라고 생각하기 보다
06:31
I started to ask myself,
136
391260
1576
저는 스스로에게 묻기 시작했습니다.
06:32
"How do I know I'm right?"
137
392860
1800
"내 결정이 옳다는 근거가 무엇인가?"
06:36
I gained a humility that I needed
138
396300
1936
저는 대담함의 균형을 잡기 위한
06:38
in order to balance my audacity.
139
398260
2560
겸손을 배웠습니다.
06:41
I wanted to find the smartest people who would disagree with me
140
401700
4216
제 의견에 "No"라고 할 수 있는 똑똑한 사람을 만나려고 노력했죠.
06:45
to try to understand their perspective
141
405940
1896
그들은 어떤 관점을 가지고 있는지 이해하려고 했습니다.
06:47
or to have them stress test my perspective.
142
407860
2600
또 그들에게 제 관점을 시험하게 했습니다.
06:51
I wanted to make an idea meritocracy.
143
411220
2776
저는 아이디어 실력주의를 만들고 싶었습니다.
06:54
In other words,
144
414020
1216
쉽게 말씀드리면
06:55
not an autocracy in which I would lead and others would follow
145
415260
3816
제가 이끌고 남이 따라오는 독재도 아니고
06:59
and not a democracy in which everybody's points of view were equally valued,
146
419100
3616
모든 사람들의 관점이 똑같이 평가되는 민주주의도 아닌
07:02
but I wanted to have an idea meritocracy in which the best ideas would win out.
147
422740
5096
가장 좋은 아이디어가 살아남는 아이디어 실력주의를 만들고 싶었습니다.
07:07
And in order to do that,
148
427860
1256
그 꿈을 이루기 위해서
07:09
I realized that we would need radical truthfulness
149
429140
3576
저는 급진적인 정직성과
07:12
and radical transparency.
150
432740
1616
급진적인 투명성의 필요성을 알게 되었습니다.
07:14
What I mean by radical truthfulness and radical transparency
151
434380
3856
제가 말하는 급진적인 정직성과 투명성이란
07:18
is people needed to say what they really believed
152
438260
2656
자신들이 믿는 것을 말할 수 있어야하고
07:20
and to see everything.
153
440940
2000
모든 것을 볼 수 있어야 한다는 것입니다.
07:23
And we literally tape almost all conversations
154
443300
3936
우리는 말그대로 모든 대화를 녹음하고
07:27
and let everybody see everything,
155
447260
1616
모든 이들이 볼 수 있도록 합니다
07:28
because if we didn't do that,
156
448900
1416
그 이유는 그렇게 하지 않는다면
07:30
we couldn't really have an idea meritocracy.
157
450340
3080
아이디어 실력주의 실현은 불가능하기 때문입니다.
07:34
In order to have an idea meritocracy,
158
454580
3696
아이디어 실력주의를 실현하기 위해서
07:38
we have let people speak and say what they want.
159
458300
2376
우리는 사람들이 원하는 것을 자유롭게 말하게 합니다.
07:40
Just to give you an example,
160
460700
1376
예를 하나 든다면
07:42
this is an email from Jim Haskel --
161
462100
2696
Jim Haskel 보낸 메일인데요.
07:44
somebody who works for me --
162
464820
1376
우리 직원입니다.
07:46
and this was available to everybody in the company.
163
466220
3376
우리 회사의 누구나 볼 수 있는 내용입니다.
07:49
"Ray, you deserve a 'D-'
164
469620
2536
"Ray, 오늘 회의에서
07:52
for your performance today in the meeting ...
165
472180
2256
당신이 한 발표에 D-드릴께요.
07:54
you did not prepare at all well
166
474460
1696
회의준비를 전혀 하지 않았더군요.
07:56
because there is no way you could have been that disorganized."
167
476180
3560
그렇지 않았으면 그렇게 정리되지 않았을리가 없습니다."
08:01
Isn't that great?
168
481340
1216
멋지지 않습니까?
08:02
(Laughter)
169
482580
1216
(웃음)
08:03
That's great.
170
483820
1216
참 놀랍죠!
08:05
It's great because, first of all, I needed feedback like that.
171
485060
2936
무엇보다도 전 이런 식의 피드백이 필요합니다.
08:08
I need feedback like that.
172
488020
1616
전 그런 피드백이 필요합니다.
08:09
And it's great because if I don't let Jim, and people like Jim,
173
489660
3456
좋은 점이 있다면 Jim 이나 다른 직원들이
08:13
to express their points of view,
174
493140
1576
자기 의견을 말하지 못하게 한다면
08:14
our relationship wouldn't be the same.
175
494740
2056
저와 직원들의 관계는 지금과는 달라질 것입니다.
08:16
And if I didn't make that public for everybody to see,
176
496820
3056
그리고 만약 모든 것을 공개하지 않는다면
08:19
we wouldn't have an idea meritocracy.
177
499900
1960
우리는 아이디어 실력주의를 갖추지 못 할 것입니다.
08:23
So for that last 25 years that's how we've been operating.
178
503580
3280
지난 25년 동안 우리는 이것을 실행해 왔습니다.
08:27
We've been operating with this radical transparency
179
507460
3056
우리는 완전한 투명성을 가지고 일을 해 왔고
08:30
and then collecting these principles,
180
510540
2296
그리고 그 원칙을 수집하고 있습니다.
08:32
largely from making mistakes,
181
512860
2056
주로 실패에서 얻은 교훈들입니다.
08:34
and then embedding those principles into algorithms.
182
514940
4416
그리고, 그 원칙들을 알고리듬화 했습니다.
08:39
And then those algorithms provide --
183
519380
2696
그 알고리즘은 이제 우리들이
08:42
we're following the algorithms
184
522100
2016
현재 수행하고 있는 모든 의사결정과정에서
08:44
in parallel with our thinking.
185
524140
1440
우리의 판단을 도와 일을 하고 있습니다.
08:47
That has been how we've run the investment business,
186
527100
3176
지금까지 이런 방식으로 투자회사를 운영하고 있고,
08:50
and it's how we also deal with the people management.
187
530300
2736
또한 인사관리도 같은방식으로 하고 있습니다.
08:53
In order to give you a glimmer into what this looks like,
188
533060
3736
어떤 모습인지 여러분들께 잠깐 보여드리겠습니다.
08:56
I'd like to take you into a meeting
189
536820
2336
먼저 여러분들을 회의실로 안내해
08:59
and introduce you to a tool of ours called the "Dot Collector"
190
539180
3136
'Dot Collector'를 소개하겠습니다.
09:02
that helps us do this.
191
542340
1280
우리 일을 도와주고 있습니다.
09:07
A week after the US election,
192
547460
2176
미 대선 일주일 후
09:09
our research team held a meeting
193
549660
2096
우리 연구팀은 회의를 했습니다.
09:11
to discuss what a Trump presidency would mean for the US economy.
194
551780
3320
트럼프 정부가 미국경제에 끼치는 영향을 분석했습니다.
09:15
Naturally, people had different opinions on the matter
195
555820
2856
당연히, 많은 이견들이 난무했죠.
09:18
and how we were approaching the discussion.
196
558700
2040
우리의 토론 방식은 늘 이런 식입니다.
09:21
The "Dot Collector" collects these views.
197
561660
2776
"Dot Collector' 가 우리의 의견을 모두 수집합니다.
09:24
It has a list of a few dozen attributes,
198
564460
2296
그 컴퓨터는 많은 특징이 있습니다.
09:26
so whenever somebody thinks something about another person's thinking,
199
566780
4016
어떤 이가 다른 사람에 대한 무엇인가를 생각할 때마다
09:30
it's easy for them to convey their assessment;
200
570820
2936
자신들의 평가를 전달하는 것이 쉬어졌습니다.
09:33
they simply note the attribute and provide a rating from one to 10.
201
573780
4520
그들은 단순히 특징을 주목할뿐 아니라 1에서 10까지 등급을 매깁니다.
09:39
For example, as the meeting began,
202
579340
2256
예를 들어 회의가 시작되면
09:41
a researcher named Jen rated me a three --
203
581620
3120
젠이라는 연구원이 나에게 점수 3 점을 줬습니다.
09:45
in other words, badly --
204
585460
2016
쉽게 말하면, 엉망이란 얘기죠.
09:47
(Laughter)
205
587500
1376
(웃음)
09:48
for not showing a good balance of open-mindedness and assertiveness.
206
588900
4160
이유는 제가 개방적이지 못하고 확신을 주지 못했다는 겁니다.
09:53
As the meeting transpired,
207
593900
1456
회의가 계속 진행되면서
09:55
Jen's assessments of people added up like this.
208
595380
3240
사람들에 대한 젠의 최종평가가 이것입니다.
09:59
Others in the room have different opinions.
209
599740
2176
방에 있던 다른 사람들도 각기 다른 점수를 매기게 되었죠.
10:01
That's normal.
210
601940
1216
늘 하는 과정입니다.
10:03
Different people are always going to have different opinions.
211
603180
2920
다른 사람들은 항상 다른 의견을 가지고 있습니다.
10:06
And who knows who's right?
212
606620
1400
누가 옳은지는 아무도 모릅니다.
10:09
Let's look at just what people thought about how I was doing.
213
609060
3440
사람들이 제가 어떻게 했다고 생각하는지 보도록 하겠습니다.
10:13
Some people thought I did well,
214
613420
2216
어떤 사람은 잘했다고 하고
10:15
others, poorly.
215
615660
1200
어떤 사람은 형편없었다고 했네요.
10:17
With each of these views,
216
617900
1336
각기 자신들의 관점에서 점수를 준것입니다.
10:19
we can explore the thinking behind the numbers.
217
619260
2320
우리는 점수 뒤에 숨어있는 정보를 읽어야 합니다.
10:22
Here's what Jen and Larry said.
218
622340
2160
여기에 젠과 레리가 말했습니다.
10:25
Note that everyone gets to express their thinking,
219
625580
2616
모든 이들이 자신들의 생각을 발표하는 점에 주목을 해주세요.
10:28
including their critical thinking,
220
628220
1656
비판적 사고도 상관없습니다.
10:29
regardless of their position in the company.
221
629900
2120
회사내의 직위도 상관 없구요.
10:32
Jen, who's 24 years old and right out of college,
222
632940
3096
젠은 24살이고 대학을 막 졸업했습니다.
10:36
can tell me, the CEO, that I'm approaching things terribly.
223
636060
2840
그녀가 회장인 저에게 접근방법이 형편없다고 합니다.
10:40
This tool helps people both express their opinions
224
640300
3776
이런 방법은 사람들의 의견발표를 도와주고
10:44
and then separate themselves from their opinions
225
644100
3096
자신과 자신의 의견과의 분리를 도와서
10:47
to see things from a higher level.
226
647220
2040
좀 더 고차원적으로 일을 보게 됩니다.
10:50
When Jen and others shift their attentions from inputting their own opinions
227
650460
4896
젠과 다른 직원들이 자신들의 의견을 자신의 틀에서 제거해서
10:55
to looking down on the whole screen,
228
655380
2576
전체적인 배경에서 내려다 보는 겁니다.
10:57
their perspective changes.
229
657980
1720
스스로의 관점의 변화를 유도하게 합니다.
11:00
They see their own opinions as just one of many
230
660500
3136
직원들은 자신들의 아이디어가 전체의 부분임을 알게 되고
11:03
and naturally start asking themselves,
231
663660
2536
자연스럽게 스스로에게 질문을 던지기 시작합니다.
11:06
"How do I know my opinion is right?"
232
666220
2000
"어떻게 내 생각이 옳다고 확신하는가?"
11:09
That shift in perspective is like going from seeing in one dimension
233
669300
4056
이러한 관점의 변화은 마치 일차적 관점에서
11:13
to seeing in multiple dimensions.
234
673380
2256
다수의 관점으로 보는 것으로 변화하는 것과 같습니다.
11:15
And it shifts the conversation from arguing over our opinions
235
675660
4096
그리고 이런 변화는 언쟁보다는
11:19
to figuring out objective criteria for determining which opinions are best.
236
679780
4400
어느 의견이 최적인지에 대한 평가 목표의 기준을 제시합니다.
11:24
Behind the "Dot Collector" is a computer that is watching.
237
684740
3600
'Dot Collector"이면에는 감시하는 컴퓨터가 있습니다.
11:28
It watches what all these people are thinking
238
688940
2176
이것이 우리 모두의 생각을 지켜보고
11:31
and it correlates that with how they think.
239
691140
2576
우리가 생각하는 방법에 있어 상호연관성을 찾아냅니다.
11:33
And it communicates advice back to each of them based on that.
240
693740
3520
그리고 발견에 기초한 조언을 전달하죠.
11:38
Then it draws the data from all the meetings
241
698340
3416
그런 후 모든 회의의 자료를 수집해서
11:41
to create a pointilist painting of what people are like
242
701780
3216
모든 이들의 현재 모습과 어떻게 생각하는가에 대해
11:45
and how they think.
243
705020
1240
점으로 표시해 줍니다.
11:46
And it does that guided by algorithms.
244
706980
2720
이 모든 것들은 알고리즘에 기초합니다.
11:50
Knowing what people are like helps to match them better with their jobs.
245
710620
3760
그들의 현재 생각을 이해함으로써 더 적합한 일에 배치할 수 있습니다.
11:54
For example,
246
714940
1216
예를 들어
11:56
a creative thinker who is unreliable
247
716180
1736
신뢰성은 부족하지만 창의성이 뛰어난 직원은
11:57
might be matched up with someone who's reliable but not creative.
248
717940
3080
성실하지만 창의성이 부족한 직원과 매치가 가능해집니다.
12:02
Knowing what people are like also allows us to decide
249
722100
3336
또한 사람들의 생각을 읽는다는 것은
12:05
what responsibilities to give them
250
725460
2256
우리로 하여금 그들에게 어떤 책임을 부여해야 하는지를 결정하게 하고
12:07
and to weigh our decisions based on people's merits.
251
727740
3480
직원들의 장점에 기초를 두고 우리의 결정을 경중을 따져 볼 수가 있습니다.
12:11
We call it their believability.
252
731860
1600
우리는 그것을 신뢰성이라고 부릅니다.
12:14
Here's an example of a vote that we took
253
734380
1976
우리가 했던 투표결과를 보여드리겠습니다.
12:16
where the majority of people felt one way ...
254
736380
2840
대부분의 직원들이 이런 식으로 생각했다는 것을 보여주는 결과입니다.
12:20
but when we weighed the views based on people's merits,
255
740740
2936
하지만 각자의 뛰어난 부분에 기반해서 가중치를 조정했더니
12:23
the answer was completely different.
256
743700
1840
결과는 완전히 달랐습니다.
12:26
This process allows us to make decisions not based on democracy,
257
746740
4576
이러한 과정은 우리로 하여금 민주주의도 아닌, 독재도 아닌
12:31
not based on autocracy,
258
751340
2136
사람들의 신뢰성을 고려한
12:33
but based on algorithms that take people's believability into consideration.
259
753500
5240
알고리즘을 기반으로 판단을 하게 해줍니다.
12:41
Yup, we really do this.
260
761340
1696
네 저희는 진짜로 이렇게 합니다.
12:43
(Laughter)
261
763060
3296
(웃음)
12:46
We do it because it eliminates
262
766380
2856
우리가 이렇게 하는 이유는 단지
12:49
what I believe to be one of the greatest tragedies of mankind,
263
769260
4456
우리가 최악이라고 믿는 상황을 제거하기 위함입니다.
12:53
and that is people arrogantly,
264
773740
2160
그리고 그 과정을 통해 사람들의 거만함이나
12:56
naïvely holding opinions in their minds that are wrong,
265
776580
4456
무지함이 만든 잘못된 관념과
13:01
and acting on them,
266
781060
1256
행동을 방지해주고
13:02
and not putting them out there to stress test them.
267
782340
2760
잘못된 것을 하도록 하지 않습니다.
13:05
And that's a tragedy.
268
785820
1336
그것이야 말로 비극이라 할 수 있습니다.
13:07
And we do it because it elevates ourselves above our own opinions
269
787180
5416
또한 우리는 우리가 한 결정이 우리 자신의 틀을 극복하게 하고
13:12
so that we start to see things through everybody's eyes,
270
792620
2896
마침내 우리는 "우리"의 눈을 통해 세상을 보기 시작합니다.
13:15
and we see things collectively.
271
795540
1920
다함께 세상을 보게 됩니다.
13:18
Collective decision-making is so much better than individual decision-making
272
798180
4336
집단의사결정은 단독의사 결정보다 더 안전합니다.
13:22
if it's done well.
273
802540
1200
단, 정확한 과정을 조건으로 합니다.
13:24
It's been the secret sauce behind our success.
274
804180
2616
이것이 우리가 성공한 비법입니다.
13:26
It's why we've made more money for our clients
275
806820
2176
실제로 우리는 더 많은 수익을 고객에게 주었습니다.
13:29
than any other hedge fund in existence
276
809020
1936
이 세상에 운영되는 어떤 헤지펀드보다도요.
13:30
and made money 23 out of the last 26 years.
277
810980
2720
그리고 지난 26년 동안 23년이 흑자였습니다.
13:35
So what's the problem with being radically truthful
278
815700
4536
그래서 극단적으로 정직하고 투명한
13:40
and radically transparent with each other?
279
820260
2240
의사결정에 어떤 문제가 있을까요?
13:45
People say it's emotionally difficult.
280
825220
2080
어떤 이들은 감정적으로 받아들이기 어렵다고 합니다.
13:48
Critics say it's a formula for a brutal work environment.
281
828060
4240
비평가들은 잔인한 근무조건의 공식일 뿐이라고 하겠죠.
13:53
Neuroscientists tell me it has to do with how are brains are prewired.
282
833220
4856
신경과학자들은 이 방식은 우리 뇌의 습관화와 관계가 있다고 합니다.
13:58
There's a part of our brain that would like to know our mistakes
283
838100
3216
우리 뇌에는 실수를 인지할 수 있는 영역이 존재합니다.
14:01
and like to look at our weaknesses so we could do better.
284
841340
3960
그리고 우리의 단점을 인지하여서 후일에 개선을 하기 위해서입니다.
14:05
I'm told that that's the prefrontal cortex.
285
845940
2440
그 영역이 전액골 피질이라고 들었습니다
14:08
And then there's a part of our brain which views all of this as attacks.
286
848860
4856
또한 이러한 인지사실을 공격으로 간주하는 영역이 있습니다.
14:13
I'm told that that's the amygdala.
287
853740
1960
소뇌 편도체부분인데요.
14:16
In other words, there are two you's inside you:
288
856260
3056
쉽게 설명드리면 여러분 안에 두가지가 존재한다는 것입니다.
14:19
there's an emotional you
289
859340
1416
하나는 감정의 여러분
14:20
and there's an intellectual you,
290
860780
1776
또 하나는 이성의 여러분입니다.
14:22
and often they're at odds,
291
862580
1776
이 둘은 합치가 되지 않습니다.
14:24
and often they work against you.
292
864380
1920
종종 이 둘은 여러분들의 일을 방해합니다.
14:26
It's been our experience that we can win this battle.
293
866980
3736
지금까지 저희는 이 싸움에서 이기고 있습니다.
14:30
We win it as a group.
294
870740
1320
우리는 뭉쳐서 이기고 있습니다.
14:32
It takes about 18 months typically
295
872820
2336
보통 18개월 정도의 시간이 지나야
14:35
to find that most people prefer operating this way,
296
875180
3056
대부분의 사람들은 이러한 방식에 더 관심을 가지게 되고
14:38
with this radical transparency
297
878260
2016
최대치의 투명성이 존재하는 이 방법이
14:40
than to be operating in a more opaque environment.
298
880300
3336
불투명한 환경보다 더 낫다라고 인식하게 됩니다.
14:43
There's not politics, there's not the brutality of --
299
883660
4296
정치처럼 남을 속이지도 않고 나만 살자는 잔인함, 그리고
14:47
you know, all of that hidden, behind-the-scenes --
300
887980
2376
그 뭐랄까, 밀실에서 짜고치는 그런 일들이 없습니다.
14:50
there's an idea meritocracy where people can speak up.
301
890380
2936
집단지성체에선 모든 이들이 자신의 생각을 주장할 수 있습니다.
14:53
And that's been great.
302
893340
1256
이것은 위대한 경험이었습니다.
14:54
It's given us more effective work,
303
894620
1656
이것은 우리가 더 효율적으로 일을 하게 하고
14:56
and it's given us more effective relationships.
304
896300
2400
우리에게 더 나은 관계를 맺도록 해주었습니다.
14:59
But it's not for everybody.
305
899220
1320
하지만, 전부는 아니었습니다.
15:01
We found something like 25 or 30 percent of the population
306
901500
2936
우리는 25에서 30퍼센트의
15:04
it's just not for.
307
904460
1736
반대의견을 고집하는 사람들이 있다는 것을 알게 되었습니다.
15:06
And by the way,
308
906220
1216
어쨌든
15:07
when I say radical transparency,
309
907460
1816
제가 말씀드린 최대의 투명성이란
15:09
I'm not saying transparency about everything.
310
909300
2336
모든 것이 투명해야 한다는 일반화가 아니라는 것을 말씀드립니다.
15:11
I mean, you don't have to tell somebody that their bald spot is growing
311
911660
3816
예를 들어 머리가 벗겨지고 있는 친구한테 그 사실을 말해야 한다거나
15:15
or their baby's ugly.
312
915500
1616
아기가 못 생겼다고 솔직하게 말할 필요는 없다는 겁니다.
15:17
So, I'm just talking about --
313
917140
2096
제 요점은
15:19
(Laughter)
314
919260
1216
(웃음)
15:20
talking about the important things.
315
920500
2176
중요한 일에 대한 투명성입니다.
15:22
So --
316
922700
1216
그래서
15:23
(Laughter)
317
923940
3200
(웃음)
15:28
So when you leave this room,
318
928420
1416
여러분들이 나가실 때
15:29
I'd like you to observe yourself in conversations with others.
319
929860
4440
다른 사람들과 얘기를 나누시는 자신을 살펴보세요.
15:35
Imagine if you knew what they were really thinking,
320
935180
3680
상대방의 생각을 여러분이 알고 있다고 상상해보세요.
15:39
and imagine if you knew what they were really like ...
321
939580
2600
그들의 본래 모습도 알고 있다고 상상해보시고,
15:43
and imagine if they knew what you were really thinking
322
943660
3976
그들이 여러분의 생각과 실제 모습도
15:47
and what were really like.
323
947660
1840
알고 있다고 가정해보세요.
15:49
It would certainly clear things up a lot
324
949980
2576
이 것은 모든 것들은 선명하게 합니다.
15:52
and make your operations together more effective.
325
952580
2856
그리고 현재 하고 계신 일이 더욱 효율성을 가지게 됩니다.
15:55
I think it will improve your relationships.
326
955460
2240
저는 이렇게 하면 사회적 관계도 향상될것이라고 확신합니다.
15:58
Now imagine that you can have algorithms
327
958420
3296
이제 여러분들이 알고리즘을 가지고 있다고 상상해 보세요
16:01
that will help you gather all of that information
328
961740
3816
여러분들이 정보를 모으는데 도움이 되는 알고리즘을요.
16:05
and even help you make decisions in an idea-meritocratic way.
329
965580
4560
심지어 집단지성의 힘처럼 의사결정의 힘을 가지게 될것입니다.
16:12
This sort of radical transparency is coming at you
330
972460
4336
바로 이런 최고의 투명성이 요구되는 시대가 시작되고 있습니다.
16:16
and it is going to affect your life.
331
976820
1960
이것은 여러분의 삶에 영향을 줄 것입니다.
16:19
And in my opinion,
332
979420
2056
제 생각으로는
16:21
it's going to be wonderful.
333
981500
1336
아마 여러분들은 다 성공하실 겁니다.
16:22
So I hope it is as wonderful for you
334
982860
2336
여러분들이 다 잘 되시길 바랍니다.
16:25
as it is for me.
335
985220
1200
저도 마찬가지입니다.
16:26
Thank you very much.
336
986980
1256
감사합니다.
16:28
(Applause)
337
988260
4360
(박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7