How to build a company where the best ideas win | Ray Dalio

1,391,881 views ・ 2017-09-06

TED


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video.

Translator: James Cadan Reviewer: Gia Bảo Nguyễn
Dù bạn có thích hay không
thì sự minh bạch triệt để và thuật toán ra quyết định đang dần định hình rất nhanh,
và nó sẽ thay đổi đời bạn.
00:12
Whether you like it or not,
0
12380
1336
Bởi hiện tại việc đưa các thuật toán vào máy tính
00:13
radical transparency and algorithmic decision-making is coming at you fast,
1
13740
5376
đã chẳng có gì là khó khăn nữa rồi
nó thu thập tất cả dữ liệu cá nhân mà bạn đã để lại
00:19
and it's going to change your life.
2
19140
1976
từ khắp nơi,
00:21
That's because it's now easy to take algorithms
3
21140
2816
rồi nó biết bạn thích gì,
00:23
and embed them into computers
4
23980
1896
qua đó hướng dẫn cho máy tính tương tác với bạn
00:25
and gather all that data that you're leaving on yourself
5
25900
2936
theo một cách còn mạch lạc hơn cả con người
00:28
all over the place,
6
28860
1376
Nó nghe đáng sợ chứ hả.
00:30
and know what you're like,
7
30260
1696
00:31
and then direct the computers to interact with you
8
31980
2936
Tôi đã làm thế trong một thời gian dài và tôi thấy nó rất tuyệt vời.
00:34
in ways that are better than most people can.
9
34940
2120
Mục tiêu của tôi đó là tạo ý nghĩa trong công việc
00:37
Well, that might sound scary.
10
37980
1616
lẫn trong các mối quan hệ với những người đồng nghiệp,
00:39
I've been doing this for a long time and I have found it to be wonderful.
11
39620
3640
và tôi đã học được rằng tôi không thể có nó
00:43
My objective has been to have meaningful work
12
43979
2657
trừ khi tôi có sự minh bạch triệt để và ra quyết định một cách thuật toán.
00:46
and meaningful relationships with the people I work with,
13
46660
2856
Tôi muốn cho các bạn biết vì sao lại thế,
00:49
and I've learned that I couldn't have that
14
49540
2056
Tôi muốn các bạn xem cách nó hoạt động.
00:51
unless I had that radical transparency and that algorithmic decision-making.
15
51620
4280
Và tôi cảnh báo rằng một số thứ tôi sắp sửa cho các bạn xem
có lẽ sẽ hơi sốc.
00:56
I want to show you why that is,
16
56500
2016
Từ khi còn bé, tôi đã luôn có vấn đề về việc học thuộc lòng
00:58
I want to show you how it works.
17
58540
1696
01:00
And I warn you that some of the things that I'm going to show you
18
60260
3096
Và tôi không thích tuân theo hướng dẫn nào,
01:03
probably are a little bit shocking.
19
63380
1667
tôi không giỏi tuân theo hướng dẫn.
01:05
Since I was a kid, I've had a terrible rote memory.
20
65580
3480
Nhưng tôi thích tự mình tìm hiểu mọi thứ hoạt động như thế nào.
01:09
And I didn't like following instructions,
21
69940
2176
Khi tôi 12 tuổi,
tôi ghét trường học nhưng lại yêu thị trường chứng khoán.
01:12
I was no good at following instructions.
22
72140
2416
01:14
But I loved to figure out how things worked for myself.
23
74580
3000
tôi kiếm sống bằng nghề caddie vào lúc đó
kiếm được tầm 5 đô la mỗi túi gậy.
01:18
When I was 12,
24
78500
1376
Và tôi lấy tiền đó, bỏ vào thị trường chứng khoán.
01:19
I hated school but I fell in love with trading the markets.
25
79900
3280
Lí do đơn giản là bởi thị trường chứng khoán khá nổi vào lúc đó.
01:23
I caddied at the time,
26
83740
1656
01:25
earned about five dollars a bag.
27
85420
1576
Và công ty đầu tiên tôi mua
01:27
And I took my caddying money, and I put it in the stock market.
28
87020
3200
là công ty Northeast Airlines.
Northeast Airlines là công ty duy nhất mà tôi biết
01:31
And that was just because the stock market was hot at the time.
29
91060
3376
bán với giá dưới năm đô la một cổ phiếu.
01:34
And the first company I bought
30
94460
1456
01:35
was a company by the name of Northeast Airlines.
31
95940
2600
(Cười)
Và tôi phát hiện tôi có thể mua thêm cổ phiếu,
01:39
Northeast Airlines was the only company I heard of
32
99180
2736
và nếu nó đi lên, tôi sẽ kiếm được tiền.
01:41
that was selling for less than five dollars a share.
33
101940
2696
Đó quả là một chiến lược ngốc nghếch, đúng chứ?
01:44
(Laughter)
34
104660
1976
Nhưng tôi đã kiếm lời gấp ba,
01:46
And I figured I could buy more shares,
35
106660
1856
tôi đã kiếm gấp ba số tiền của mình nhờ ăn may.
01:48
and if it went up, I'd make more money.
36
108540
2096
01:50
So, it was a dumb strategy, right?
37
110660
2840
Công ty chuẩn bị phá sản,
nhưng công ty khác mua lại nó,
01:54
But I tripled my money,
38
114180
1456
và tôi gấp ba số tiền.
01:55
and I tripled my money because I got lucky.
39
115660
2120
Và tôi đã bị cuốn.
Và tôi nghĩ, “game này dễ thật.”
01:58
The company was about to go bankrupt,
40
118340
1816
02:00
but some other company acquired it,
41
120180
2096
Rồi theo thời gian,
tôi nhận ra rằng game này cũng không dễ lắm
02:02
and I tripled my money.
42
122300
1456
02:03
And I was hooked.
43
123780
1200
Để là một nhà đầu tư sinh lời,
02:05
And I thought, "This game is easy."
44
125540
2280
một người phải đánh cược ngược dòng
02:09
With time,
45
129020
1216
và đánh đúng.
02:10
I learned this game is anything but easy.
46
130260
1960
Và đâu có dễ để mà đánh cược ngược dòng mà đúng được
02:12
In order to be an effective investor,
47
132700
2136
Một người phải cược ngược dòng và đúng
02:14
one has to bet against the consensus
48
134860
2896
bởi sự đồng thuận đi liền với giá.
02:17
and be right.
49
137780
1256
02:19
And it's not easy to bet against the consensus and be right.
50
139060
2856
Và để có thể trở thành một doanh nhân,
02:21
One has to bet against the consensus and be right
51
141940
2336
một doanh nhân thành đạt,
thì phải đi ngược lại với đám đông và đúng.
02:24
because the consensus is built into the price.
52
144300
2640
02:27
And in order to be an entrepreneur,
53
147940
2456
Tôi phải là một doanh nhân và một nhà đầu tư --
02:30
a successful entrepreneur,
54
150420
1616
và đi cùng với điều đó là việc mắc những sai lầm đau đớn
02:32
one has to bet against the consensus and be right.
55
152060
3480
Và tôi đã phạm nhiều sai lầm đau đớn,
02:37
I had to be an entrepreneur and an investor --
56
157220
2936
để rồi theo thời gian,
02:40
and what goes along with that is making a lot of painful mistakes.
57
160180
4200
thái độ của tôi với những sai lầm đó bắt đầu thay đổi.
Tôi bắt đầu coi chúng như những câu đố vậy.
02:45
So I made a lot of painful mistakes,
58
165260
2816
Rằng nếu tôi giải được câu đố,
02:48
and with time,
59
168100
1256
chúng sẽ cho tôi những viên đá quý.
02:49
my attitude about those mistakes began to change.
60
169380
2960
Và câu đố đó là:
02:52
I began to think of them as puzzles.
61
172980
2096
Điều gì tôi có thể làm khác đi trong tương lai để không lặp lại sai lầm nữa?
02:55
That if I could solve the puzzles,
62
175100
1936
Và những viên đá quý chính là các nguyên tắc
02:57
they would give me gems.
63
177060
1440
02:58
And the puzzles were:
64
178980
1656
mà tôi sẽ viết ra và ghi nhớ chúng
03:00
What would I do differently in the future so I wouldn't make that painful mistake?
65
180660
3880
điều đó sẽ giúp ích cho tôi sau này.
Và vì tôi đã viết ra rõ ràng,
03:05
And the gems were principles
66
185100
2576
03:07
that I would then write down so I would remember them
67
187700
3136
tôi đã có thể --
thực sự hiểu được --
03:10
that would help me in the future.
68
190860
1572
tôi có thể đưa chúng vào thuật toán.
03:12
And because I wrote them down so clearly,
69
192820
2696
Và những thuật toán đó sẽ được cho vào máy tính,
03:15
I could then --
70
195540
1336
03:16
eventually discovered --
71
196900
1576
03:18
I could then embed them into algorithms.
72
198500
3760
và máy tính sẽ đưa ra quyết định cùng tôi;
và song song, chúng tôi sẽ đưa ra những quyết định này.
03:23
And those algorithms would be embedded in computers,
73
203220
3456
Và tôi có thể thấy những quyết định đó rồi so sánh chúng với các quyết định của tôi,
03:26
and the computers would make decisions along with me;
74
206700
3336
và tôi nhận ra là các quyết định của chúng tốt hơn nhiều.
03:30
and so in parallel, we would make these decisions.
75
210060
3136
và đó là vì máy tính có thể đưa ra quyết định nhanh hơn,
03:33
And I could see how those decisions then compared with my own decisions,
76
213220
3976
nó có thể xử lí nhiều thông tin hơn
03:37
and I could see that those decisions were a lot better.
77
217220
3096
và nó có thể xử lý nhiều quyết định hơn --
03:40
And that was because the computer could make decisions much faster,
78
220340
4736
ít cảm tính hơn.
03:45
it could process a lot more information
79
225100
2256
Nên nó hoàn toàn cải thiện cách tôi đưa ra quyết định.
03:47
and it can process decisions much more --
80
227380
3400
03:51
less emotionally.
81
231700
1200
Tám năm sau, tôi thành lập Bridgewater,
03:54
So it radically improved my decision-making.
82
234580
3920
tôi đã có 1 sai lầm lớn,
cú ngã lớn nhất của đời tôi.
04:00
Eight years after I started Bridgewater,
83
240260
4896
Đó là cuối những năm 70,
Tôi lúc đó 34 tuổi,
04:05
I had my greatest failure,
84
245180
1536
và tôi tính toán ra rằng các ngân hàng Mĩ
04:06
my greatest mistake.
85
246740
1200
04:09
It was late 1970s,
86
249500
2136
họ đã cho những nước đang phát triển vay một số tiền
04:11
I was 34 years old,
87
251660
1976
nhiều hơn cả số mà những nước này có thể trả lại
04:13
and I had calculated that American banks
88
253660
3656
và vì thế ta sẽ có thể có cuộc khủng hoảng nợ lớn nhất
04:17
had lent much more money to emerging countries
89
257340
2856
kể từ cuộc Đại suy thoái.
và song hành với nó là khủng hoảng kinh tế
04:20
than those countries were going to be able to pay back
90
260220
2816
cùng sự đi xuống mạnh của thị trường chứng khoán.
04:23
and that we would have the greatest debt crisis
91
263060
2696
04:25
since the Great Depression.
92
265780
1360
Đó là một ý kiến gây trãnh cãi lúc bấy giờ.
Ai cũng nghĩ đó là một góc nhìn điên rồ.
04:28
And with it, an economic crisis
93
268020
2216
04:30
and a big bear market in stocks.
94
270260
2040
Nhưng vào tháng tám 1982,
04:33
It was a controversial view at the time.
95
273500
2000
Mexio đã bị ngập trong nợ nần,
04:35
People thought it was kind of a crazy point of view.
96
275980
2440
và nhiều nước khác cũng bị kéo theo.
Và chúng ta đã có cuộc khủng hoảng nợ nần lớn nhất kể từ Đại suy thoái.
04:39
But in August 1982,
97
279300
2216
04:41
Mexico defaulted on its debt,
98
281540
1960
Và vì tôi cũng có tham gia,
04:44
and a number of other countries followed.
99
284340
2256
Tôi đã được yêu cầu làm chứng trước Quốc hội và xuất hiện trên “Wall Street Week”.
04:46
And we had the greatest debt crisis since the Great Depression.
100
286620
3400
đó là 1 chương trình kinh điển.
04:50
And because I had anticipated that,
101
290900
2776
Để mọi người dễ hình dung, tôi có 1 đoạn clip ngắn đây,
04:53
I was asked to testify to Congress and appear on "Wall Street Week,"
102
293700
4336
và bạn có thể thấy tôi trong đó.
(Video) Thưa Chủ tịch, Ngài Mitchell,
04:58
which was the show of the time.
103
298060
1976
Qủa là 1 vinh hạnh lớn khi được xuất hiện trước ngài
05:00
Just to give you a flavor of that, I've got a clip here,
104
300060
2936
05:03
and you'll see me in there.
105
303020
1920
để kiếm chứng những sai lầm dã xảy ra với nền kinh tế của chúng ta.
05:06
(Video) Mr. Chairman, Mr. Mitchell,
106
306300
1696
Nền kinh tế hiện tại đang bằng phẳng --
05:08
it's a great pleasure and a great honor to be able to appear before you
107
308020
3376
mấp mé trên bờ vực suy thoái.
Martin Zweig: Ông gần đây đã được trích dẫn trong một bài báo.
05:11
in examination with what is going wrong with our economy.
108
311420
3480
Ông nói, “Tôi nói chắc nịch như vậy
05:15
The economy is now flat --
109
315460
1936
là bởi tôi biết cách thị trường hoạt động.”
05:17
teetering on the brink of failure.
110
317420
2136
Ray Dalio: Tôi nói chắc nịch như vậy
05:19
Martin Zweig: You were recently quoted in an article.
111
319580
2496
nếu anh nhìn vào cơ sở thanh khoản
của các tập đoàn và của cả thế giới,
05:22
You said, "I can say this with absolute certainty
112
322100
2336
05:24
because I know how markets work."
113
324460
1616
sẽ thấy có sự suy giảm ở mức độ thanh khoản
05:26
Ray Dalio: I can say with absolute certainty
114
326100
2096
rằng anh không thể trở lại thời đại của sự lạm phát đình trệ. ”
05:28
that if you look at the liquidity base
115
328220
1856
05:30
in the corporations and the world as a whole,
116
330100
3376
Giờ nhìn lại, tôi nghĩ, “Đúng là 1 tên khốn ngạo mạn!”
05:33
that there's such reduced level of liquidity
117
333500
2096
(Cười)
05:35
that you can't return to an era of stagflation."
118
335620
3216
Tôi đã rất ngạo mạn và tôi đã rất sai lầm.
05:38
I look at that now, I think, "What an arrogant jerk!"
119
338860
3096
Ý tôi là, khi khủng hoảng nợ xảy ra,
05:41
(Laughter)
120
341980
2000
thị trường chứng khoán và nền kinh tế đã đi lên thay vì đi xuống,
05:45
I was so arrogant, and I was so wrong.
121
345580
2456
và tôi mất rất nhiều tiền cho bản thân và khách hàng
05:48
I mean, while the debt crisis happened,
122
348060
2576
05:50
the stock market and the economy went up rather than going down,
123
350660
3976
đến nỗi tôi phải đóng cửa doanh nghiệp khá nhiều,
05:54
and I lost so much money for myself and for my clients
124
354660
5016
tôi phải để phần lớn nhân viên rời đi.
Và với tôi họ như là gia đình thứ hai vậy,
tôi đã rất suy sụp.
05:59
that I had to shut down my operation pretty much,
125
359700
3416
Và tôi mất rất nhiều tiền
đến nỗi tôi phải mượn 4,000 đô của bố
06:03
I had to let almost everybody go.
126
363140
1880
06:05
And these were like extended family,
127
365460
1736
để giúp chi trả phí cho gia đình tôi.
06:07
I was heartbroken.
128
367220
1616
06:08
And I had lost so much money
129
368860
1816
Đó là một trong những trải nghiệm đau đớn nhất đời tôi...
06:10
that I had to borrow 4,000 dollars from my dad
130
370700
3336
để rồi tôi nhận ra đó cũng là 1 trong những trải nghiệm tuyệt nhất đời mình
06:14
to help to pay my family bills.
131
374060
1920
06:16
It was one of the most painful experiences of my life ...
132
376660
3160
vì nó thay đổi thái độ của tôi về việc đưa ra quyết định.
Thay vì nghĩ,“tôi đúng,”
06:21
but it turned out to be one of the greatest experiences of my life
133
381060
3776
tôi tự hỏi bản thân,
06:24
because it changed my attitude about decision-making.
134
384860
2680
“Làm sao tôi biết là tôi đúng?”
06:28
Rather than thinking, "I'm right,"
135
388180
3056
Tôi có được sự khiêm nhường cần thiết
để cân bằng cái tôi.
06:31
I started to ask myself,
136
391260
1576
06:32
"How do I know I'm right?"
137
392860
1800
Tôi muốn tìm những người thông minh nhất không đồng ý với mình
06:36
I gained a humility that I needed
138
396300
1936
cố để hiểu góc nhìn của họ
06:38
in order to balance my audacity.
139
398260
2560
hoặc để họ kiểm định góc nhìn của tôi.
06:41
I wanted to find the smartest people who would disagree with me
140
401700
4216
Tôi muốn có một ý tưởng có giá trị.
06:45
to try to understand their perspective
141
405940
1896
Nói cách khác,
không phải một chế độ chuyên quyền mà tôi dẫn đầu và người khác theo sau
06:47
or to have them stress test my perspective.
142
407860
2600
và cũng không phải nơi dân chủ mà ý kiến mọi người đều có giá trị như nhau,
06:51
I wanted to make an idea meritocracy.
143
411220
2776
06:54
In other words,
144
414020
1216
mà tôi muốn một hệ thống mà ý tưởng tốt nhất sẽ thắng.
06:55
not an autocracy in which I would lead and others would follow
145
415260
3816
06:59
and not a democracy in which everybody's points of view were equally valued,
146
419100
3616
Và để làm điều đó,
tôi nhận ra chúng tôi cần sự thật cấp tiến
07:02
but I wanted to have an idea meritocracy in which the best ideas would win out.
147
422740
5096
và sự minh bạch triệt để.
Sự thật cấp tiến và sự minh bạch triệt để theo ý tôi là
07:07
And in order to do that,
148
427860
1256
07:09
I realized that we would need radical truthfulness
149
429140
3576
mọi người cần nói điều họ thực sự tin tưởng
07:12
and radical transparency.
150
432740
1616
và để thấy được mọi thứ.
07:14
What I mean by radical truthfulness and radical transparency
151
434380
3856
Và chúng tôi thực sự ghi âm mọi cuộc trò chuyện
07:18
is people needed to say what they really believed
152
438260
2656
và để mọi người thấy mọi thứ.
07:20
and to see everything.
153
440940
2000
vì nếu chúng tôi không làm thế,
chúng tôi sẽ không thể có một chế độ nhân tài lí tưởng.
07:23
And we literally tape almost all conversations
154
443300
3936
Để có 1 chế độ nhân tài lí tưởng
07:27
and let everybody see everything,
155
447260
1616
07:28
because if we didn't do that,
156
448900
1416
07:30
we couldn't really have an idea meritocracy.
157
450340
3080
chúng tôi phải để mọi người nói thứ họ muốn nói.
Lấy ví dụ thế này nhé,
đây là một email từ Jim Haskel --
07:34
In order to have an idea meritocracy,
158
454580
3696
một người làm việc cho tôi --
và ai trong công ty tôi cũng tiếp cận được nó
07:38
we have let people speak and say what they want.
159
458300
2376
07:40
Just to give you an example,
160
460700
1376
“Ray, anh xứng đáng có một điểm ‘D-’
07:42
this is an email from Jim Haskel --
161
462100
2696
cho việc làm của anh hôm nay trong buổi họp ...
07:44
somebody who works for me --
162
464820
1376
07:46
and this was available to everybody in the company.
163
466220
3376
anh đã không chuẩn bị kĩ
vì không đời nào anh lại có thể vô tổ chức như vậy được.”
07:49
"Ray, you deserve a 'D-'
164
469620
2536
07:52
for your performance today in the meeting ...
165
472180
2256
Chẳng phải điều đó rất tuyệt sao?
07:54
you did not prepare at all well
166
474460
1696
(Cười)
Tuyệt mà.
07:56
because there is no way you could have been that disorganized."
167
476180
3560
Nó tuyệt bởi vì, thứ nhất, tôi cần phản hồi như vậy.
Tôi cần phản hồi như vậy.
08:01
Isn't that great?
168
481340
1216
Và nó tuyệt vì nếu tôi không để Jim, và những người giống Jim,
08:02
(Laughter)
169
482580
1216
08:03
That's great.
170
483820
1216
thể hiện quan điểm của họ,
08:05
It's great because, first of all, I needed feedback like that.
171
485060
2936
mối quan hệ của chúng tôi sẽ rất khác.
08:08
I need feedback like that.
172
488020
1616
Và nếu tôi không công khai nó cho mọi người thấy,
08:09
And it's great because if I don't let Jim, and people like Jim,
173
489660
3456
chúng tôi sẽ không có chế độ nhân tài lí tưởng
08:13
to express their points of view,
174
493140
1576
08:14
our relationship wouldn't be the same.
175
494740
2056
Nên trong 25 năm qua đó là cách chúng tôi vận hành.
08:16
And if I didn't make that public for everybody to see,
176
496820
3056
08:19
we wouldn't have an idea meritocracy.
177
499900
1960
Chúng tôi đã vận hành với sự minh bạch triệt để này
và sau đó thu thập những nguyên tắc,
08:23
So for that last 25 years that's how we've been operating.
178
503580
3280
hầu hết là do phạm sai lầm,
và áp dụng chúng vào trong thuật toán.
08:27
We've been operating with this radical transparency
179
507460
3056
08:30
and then collecting these principles,
180
510540
2296
Và để những thuật toán đó cung cấp --
08:32
largely from making mistakes,
181
512860
2056
chúng tôi đi theo thuật toán
08:34
and then embedding those principles into algorithms.
182
514940
4416
song song với suy nghĩ chúng tôi.
Đó là cách chúng tôi điều hành 1 doanh nghiệp đầu tư,
08:39
And then those algorithms provide --
183
519380
2696
và đó là cách bọn tôi làm việc với bên quản lí nhân sự
08:42
we're following the algorithms
184
522100
2016
08:44
in parallel with our thinking.
185
524140
1440
Nhằm cho bạn dễ hình dung rằng nó trông thế nào,
08:47
That has been how we've run the investment business,
186
527100
3176
Tôi muốn đưa bạn vào một buổi họp
08:50
and it's how we also deal with the people management.
187
530300
2736
và giới thiệu các bạn một công cụ gọi là ″máy thu thập dấu chấm″
08:53
In order to give you a glimmer into what this looks like,
188
533060
3736
nó giúp chúng tôi làm điều này.
08:56
I'd like to take you into a meeting
189
536820
2336
08:59
and introduce you to a tool of ours called the "Dot Collector"
190
539180
3136
Một tuần sau đợt bầu cử ở Mĩ,
Đội nghiên cứu của chúng tôi có buổi họp
09:02
that helps us do this.
191
542340
1280
để bàn về nhiệm kì của tổng thống Trump sẽ ảnh hưởng đến nền kinh tế Mĩ như nào.
09:07
A week after the US election,
192
547460
2176
Thông thường, mọi người hay đưa ra nhiều ý kiến trái chiều
09:09
our research team held a meeting
193
549660
2096
cùng cách mà chúng tôi tiếp cận vấn đề.
09:11
to discuss what a Trump presidency would mean for the US economy.
194
551780
3320
“Máy thu thập dấu chấm” thu thập những ý kiến đó.
09:15
Naturally, people had different opinions on the matter
195
555820
2856
Nó có danh sách của hàng chục ý kiến,
09:18
and how we were approaching the discussion.
196
558700
2040
nên khi ai đó nghĩ điều gì về ý kiến của người khác,
09:21
The "Dot Collector" collects these views.
197
561660
2776
Chúng sẽ dễ dàng truyền đạt đánh giá của họ;
09:24
It has a list of a few dozen attributes,
198
564460
2296
chúng đơn giản là đánh dấu những ý kiến và đánh giá trên thang điểm 1 đến 10.
09:26
so whenever somebody thinks something about another person's thinking,
199
566780
4016
09:30
it's easy for them to convey their assessment;
200
570820
2936
Ví dụ, ngay khi buổi họp bắt đầu,
09:33
they simply note the attribute and provide a rating from one to 10.
201
573780
4520
một nhà nghiên cứu tên Jen cho tôi 3 điểm --
nói cách khác là điểm thấp á --
09:39
For example, as the meeting began,
202
579340
2256
(Cười)
Vì không thể hiện sự cân bằng giữa sự cởi mở và quyết đoán.
09:41
a researcher named Jen rated me a three --
203
581620
3120
09:45
in other words, badly --
204
585460
2016
Khi cuộc họp tiếp diễn,
09:47
(Laughter)
205
587500
1376
phân tích của jen trông như sau.
09:48
for not showing a good balance of open-mindedness and assertiveness.
206
588900
4160
Mỗi người trong phòng có các ý kiến khác nhau.
09:53
As the meeting transpired,
207
593900
1456
Đó là điều bình thường.
Mỗi người khác nhau luôn có những quan điểm khác nhau.
09:55
Jen's assessments of people added up like this.
208
595380
3240
Và ai biết ai đúng chứ?
09:59
Others in the room have different opinions.
209
599740
2176
Hãy nhìn qua cách mà mọi người đánh giá về cách làm của tôi.
10:01
That's normal.
210
601940
1216
10:03
Different people are always going to have different opinions.
211
603180
2920
Một số thì nghĩ tôi làm tốt,
10:06
And who knows who's right?
212
606620
1400
một số khác thì cho là tệ.
10:09
Let's look at just what people thought about how I was doing.
213
609060
3440
Trong mỗi ý kiến đó,
chúng ta có thể tìm hiểu mạch suy nghĩ đằng sau những con số ấy.
10:13
Some people thought I did well,
214
613420
2216
Đây là điều Jen và Larry nói.
10:15
others, poorly.
215
615660
1200
10:17
With each of these views,
216
617900
1336
Hãy nhớ mọi người đều được thể hiện ý kiến của mình,
10:19
we can explore the thinking behind the numbers.
217
619260
2320
kể cả tư duy phản biện,
bất kể vị trí của họ là gì trong công ty.
10:22
Here's what Jen and Larry said.
218
622340
2160
Jen, 24 tuổi và chỉ vừa mới ra trường
10:25
Note that everyone gets to express their thinking,
219
625580
2616
có thể nói với tôi, tổng giám đốc, rằng cách tiếp cận của tôi rất tệ.
10:28
including their critical thinking,
220
628220
1656
10:29
regardless of their position in the company.
221
629900
2120
10:32
Jen, who's 24 years old and right out of college,
222
632940
3096
Công cụ này giúp mọi người thể hiện ý kiến của riêng mình
và chia rẽ họ khỏi chính ý kiến của bản thân
10:36
can tell me, the CEO, that I'm approaching things terribly.
223
636060
2840
để nhìn nhận mọi thứ ở 1 góc độ cao hơn.
10:40
This tool helps people both express their opinions
224
640300
3776
Khi Jen và những người khác dồn sự chú ý của họ vào những ý kiến riêng
10:44
and then separate themselves from their opinions
225
644100
3096
10:47
to see things from a higher level.
226
647220
2040
nhằm nhìn xuống bức tranh toàn cảnh,
góc nhìn của họ cũng thay đổi.
10:50
When Jen and others shift their attentions from inputting their own opinions
227
650460
4896
Họ thấy ý kiến của mình chỉ là một trong vô số
10:55
to looking down on the whole screen,
228
655380
2576
và bắt đầu tự hỏi bản thân,
10:57
their perspective changes.
229
657980
1720
“Làm thế nào tôi biết ý kiến của mình đúng?”
11:00
They see their own opinions as just one of many
230
660500
3136
Sự thay đổi khía cạnh ấy tương tự như việc chuyển từ góc nhìn 1 chiều
11:03
and naturally start asking themselves,
231
663660
2536
sang góc nhìn đa chiều vậy.
11:06
"How do I know my opinion is right?"
232
666220
2000
Và nó thay đổi cuộc trò chuyện từ tranh cãi giữa các ý kiến
11:09
That shift in perspective is like going from seeing in one dimension
233
669300
4056
thành tìm ra các tiêu chí khách quan nhằm xác định ý kiến nào là tốt nhất.
11:13
to seeing in multiple dimensions.
234
673380
2256
11:15
And it shifts the conversation from arguing over our opinions
235
675660
4096
Đằng sau “Máy thu thập dấu chấm” là một máy tính đang quan sát.
11:19
to figuring out objective criteria for determining which opinions are best.
236
679780
4400
Nó quan sát mọi thứ mà những người này nghĩ
và nó gắn kết điều đó với cách mọi người nghĩ.
11:24
Behind the "Dot Collector" is a computer that is watching.
237
684740
3600
Và nó truyền đạt lời khuyên lại cho mọi người dựa trên những thông tin đó.
11:28
It watches what all these people are thinking
238
688940
2176
Sau đó nó lấy dữ liệu từ tất cả cuộc họp
11:31
and it correlates that with how they think.
239
691140
2576
11:33
And it communicates advice back to each of them based on that.
240
693740
3520
để tạo nên 1 bức tranh chi tiết về tất cả mọi người
cũng như cách họ nghĩ.
11:38
Then it draws the data from all the meetings
241
698340
3416
và nó làm ra hướng dẫn ấy bằng thuật toán.
11:41
to create a pointilist painting of what people are like
242
701780
3216
Biết được sở thích của mỗi người giúp họ phù hợp hơn với công việc
11:45
and how they think.
243
705020
1240
11:46
And it does that guided by algorithms.
244
706980
2720
Ví dụ,
một người sáng tạo mà không đáng tin cậy
có thể được kết nối với một người đáng tin cậy nhưng không sáng tạo.
11:50
Knowing what people are like helps to match them better with their jobs.
245
710620
3760
Biết được người đó thế nào cũng cho phép chúng tôi quyết định
11:54
For example,
246
714940
1216
11:56
a creative thinker who is unreliable
247
716180
1736
11:57
might be matched up with someone who's reliable but not creative.
248
717940
3080
trách nhiệm nào là phù hợp để giao phó cho họ
và đo lượng quyết định của chúng tôi dựa trên mức độ tin cậy của họ.
12:02
Knowing what people are like also allows us to decide
249
722100
3336
Chúng tôi gọi đó là độ đáng tin cậy của họ.
12:05
what responsibilities to give them
250
725460
2256
Lấy một cuộc bỏ phiếu làm ví dụ
12:07
and to weigh our decisions based on people's merits.
251
727740
3480
khi mà đa số mọi người đều đồng thuận ...
12:11
We call it their believability.
252
731860
1600
nhưng khi ta đánh giá góc nhìn của họ dựa trên độ tin cậy,
12:14
Here's an example of a vote that we took
253
734380
1976
câu trả lời đã khác đi hoàn toàn.
12:16
where the majority of people felt one way ...
254
736380
2840
Qúa trình này cho phép chúng tôi ra quyết định mà không dựa trên tính dân chủ
12:20
but when we weighed the views based on people's merits,
255
740740
2936
12:23
the answer was completely different.
256
743700
1840
không dựa trên sự chuyên chế,
mà dựa trên thuật toán đưa độ tin cậy của con người vào phân tích.
12:26
This process allows us to make decisions not based on democracy,
257
746740
4576
12:31
not based on autocracy,
258
751340
2136
12:33
but based on algorithms that take people's believability into consideration.
259
753500
5240
Đúng, chúng tôi thực sự làm vậy.
(Cười)
Chúng tôi làm thế vì nó giúp loại bỏ
điều tôi tin là bi kịch lớn nhất của nhân loại,
12:41
Yup, we really do this.
260
761340
1696
12:43
(Laughter)
261
763060
3296
chính là sự ngạo mạn của con người,
12:46
We do it because it eliminates
262
766380
2856
cứ thơ ngây giữ lấy những ý kiến sai lầm trong đầu mình
12:49
what I believe to be one of the greatest tragedies of mankind,
263
769260
4456
và thực hiện nó,
12:53
and that is people arrogantly,
264
773740
2160
mà không buồn kiểm chứng dù chỉ 1 lần.
12:56
naïvely holding opinions in their minds that are wrong,
265
776580
4456
Và đó là một bi kịch
Và chúng tôi làm thế vì nó nâng chúng tôi lên khỏi chính ý kiến của mình
13:01
and acting on them,
266
781060
1256
13:02
and not putting them out there to stress test them.
267
782340
2760
để chúng tôi bắt đầu nhìn mọi thứ qua con mắt của người khác,
13:05
And that's a tragedy.
268
785820
1336
13:07
And we do it because it elevates ourselves above our own opinions
269
787180
5416
và chúng tôi nhìn nhận theo tập thể.
Đưa ra quyết định tập thể tốt hơn nhiều so với đưa ra quyết định cá nhân
13:12
so that we start to see things through everybody's eyes,
270
792620
2896
nếu nó được làm tốt.
13:15
and we see things collectively.
271
795540
1920
Đó là bí mật đằng sau thành công của chúng tôi.
13:18
Collective decision-making is so much better than individual decision-making
272
798180
4336
là lí do bọn tôi kiếm thêm tiền cho khách hàng
nhiều hơn bất kì các quỹ đầu cơ nào khác
13:22
if it's done well.
273
802540
1200
và kiếm ra tiền 23 trong 26 năm qua.
13:24
It's been the secret sauce behind our success.
274
804180
2616
13:26
It's why we've made more money for our clients
275
806820
2176
Nên vấn đề của sự thật thà hoàn toàn
13:29
than any other hedge fund in existence
276
809020
1936
13:30
and made money 23 out of the last 26 years.
277
810980
2720
và minh bạch hoàn toàn với nhau là gì?
13:35
So what's the problem with being radically truthful
278
815700
4536
Người ta hay theo cảm tính bảo là nó khó.
Nhà phê bình nói nó là công thức cho 1 môi trường làm việc khó khăn.
13:40
and radically transparent with each other?
279
820260
2240
Các nhà khoa học thần kinh nói rằng nó phải theo sự lập trình của bộ não.
13:45
People say it's emotionally difficult.
280
825220
2080
13:48
Critics say it's a formula for a brutal work environment.
281
828060
4240
Có một phần trong não ta muốn biết mình sai chỗ nào
13:53
Neuroscientists tell me it has to do with how are brains are prewired.
282
833220
4856
và mình yếu ở đâu để có thể làm tốt hơn.
Tôi được nói cho rằng đó là vỏ não trước trán.
13:58
There's a part of our brain that would like to know our mistakes
283
838100
3216
Và có phần trong não ta thấy điều này như sự công kích.
14:01
and like to look at our weaknesses so we could do better.
284
841340
3960
14:05
I'm told that that's the prefrontal cortex.
285
845940
2440
Tôi được nói cho rằng đó là phần hạnh nhân.
Nói cách khác, có 2 người sống trong đầu bạn:
14:08
And then there's a part of our brain which views all of this as attacks.
286
848860
4856
một người là cảm xúc
và một người là tư duy,
14:13
I'm told that that's the amygdala.
287
853740
1960
và thường chúng sẽ đối lập nhau,
14:16
In other words, there are two you's inside you:
288
856260
3056
và thường chúng sẽ chống lại bạn.
Nhưng theo kinh nghiệm của chúng tôi chúng ta có thể thắng trận chiến này.
14:19
there's an emotional you
289
859340
1416
14:20
and there's an intellectual you,
290
860780
1776
14:22
and often they're at odds,
291
862580
1776
Ta thắng bằng cách đánh hội đồng
14:24
and often they work against you.
292
864380
1920
Về cơ bản nó mất 18 tháng
14:26
It's been our experience that we can win this battle.
293
866980
3736
để tìm những người ưa hoạt động kiểu vậy,
với sự minh bạch hoàn toàn
14:30
We win it as a group.
294
870740
1320
14:32
It takes about 18 months typically
295
872820
2336
hơn là hoạt động trong môi trường mờ đục.
14:35
to find that most people prefer operating this way,
296
875180
3056
Không có chính trị, không có sự áp bức --
14:38
with this radical transparency
297
878260
2016
bạn biết đó, những thứ tiềm ẩn, sau hậu trường
14:40
than to be operating in a more opaque environment.
298
880300
3336
đây là một chế độ nhân tài lí tưởng nơi ai cũng có tiếng nói.
14:43
There's not politics, there's not the brutality of --
299
883660
4296
Và nó rất tuyệt.
Nó giúp chúng tôi tăng hiệu suất,
14:47
you know, all of that hidden, behind-the-scenes --
300
887980
2376
và nó cũng cho chúng tôi những mối quan hệ tốt hơn.
14:50
there's an idea meritocracy where people can speak up.
301
890380
2936
Nhưng không phải cho tất cả đâu nhé.
14:53
And that's been great.
302
893340
1256
Chúng tôi phát hiện rằng 25 hoặc 30 phần trăm dân số
14:54
It's given us more effective work,
303
894620
1656
14:56
and it's given us more effective relationships.
304
896300
2400
không phù hợp với nó.
Và đồng thời, khi tôi nói minh bạch hoàn toàn,
14:59
But it's not for everybody.
305
899220
1320
15:01
We found something like 25 or 30 percent of the population
306
901500
2936
thì ý tôi không hẳn là mọi thứ đều minh bạch.
Ý tôi là, bạn không phải nói với ai đó kiểu đầu họ sắp hói rồi kìa
15:04
it's just not for.
307
904460
1736
15:06
And by the way,
308
906220
1216
15:07
when I say radical transparency,
309
907460
1816
hay con của họ xấu quá.
Nên tôi chỉ đang nói tới --
15:09
I'm not saying transparency about everything.
310
909300
2336
(Cười)
15:11
I mean, you don't have to tell somebody that their bald spot is growing
311
911660
3816
nói tới những thứ quan trọng thôi.
Nên --
15:15
or their baby's ugly.
312
915500
1616
(Cười)
15:17
So, I'm just talking about --
313
917140
2096
15:19
(Laughter)
314
919260
1216
15:20
talking about the important things.
315
920500
2176
Nên khi bạn rời căn phòng này,
tôi muốn bạn nhìn nhận bản thân trong cách đối thoại với người khác
15:22
So --
316
922700
1216
15:23
(Laughter)
317
923940
3200
Tưởng tượng nếu bạn biết họ thực sự nghĩ gì,
15:28
So when you leave this room,
318
928420
1416
15:29
I'd like you to observe yourself in conversations with others.
319
929860
4440
và tưởng tượng nếu bạn biết họ là người như thế nào ...
15:35
Imagine if you knew what they were really thinking,
320
935180
3680
và tưởng tượng nếu họ biết bạn đang thực sự nghĩ gì
15:39
and imagine if you knew what they were really like ...
321
939580
2600
và bạn ra sao.
Nó chắc chắn sẽ làm rõ vấn đề hơn rất nhiều
15:43
and imagine if they knew what you were really thinking
322
943660
3976
và làm công việc của bạn hiệu suất hơn.
15:47
and what were really like.
323
947660
1840
Tôi nghĩ nó sẽ cải thiện mối quan hệ của bạn.
15:49
It would certainly clear things up a lot
324
949980
2576
Giờ tưởng tượng bạn có thuật toán
15:52
and make your operations together more effective.
325
952580
2856
giúp bạn thu thập tất cả thông tin đó
15:55
I think it will improve your relationships.
326
955460
2240
và thậm chí giúp bạn ra quyết định theo chế độ nhân tài lí tưởng.
15:58
Now imagine that you can have algorithms
327
958420
3296
16:01
that will help you gather all of that information
328
961740
3816
Sự minh bạch hoàn toàn này sẽ xảy ra với bạn
16:05
and even help you make decisions in an idea-meritocratic way.
329
965580
4560
và nó sẽ có tác động lên cuộc sống của bạn.
Và theo tôi nghĩ,
16:12
This sort of radical transparency is coming at you
330
972460
4336
nó sẽ rất tuyệt vời.
Nên tôi mong nó sẽ tuyệt vời đối với bạn
16:16
and it is going to affect your life.
331
976820
1960
như cách nó tuyệt vời với tôi.
Cảm ơn rất nhiều.
16:19
And in my opinion,
332
979420
2056
(Vỗ tay)
16:21
it's going to be wonderful.
333
981500
1336
16:22
So I hope it is as wonderful for you
334
982860
2336
16:25
as it is for me.
335
985220
1200
16:26
Thank you very much.
336
986980
1256
16:28
(Applause)
337
988260
4360
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7