How to build a company where the best ideas win | Ray Dalio

1,364,967 views ・ 2017-09-06

TED


Dubbelklik op de Engelse ondertitels hieronder om de video af te spelen.

Vertaald door: Ruth Compernol Nagekeken door: Peter Van de Ven
00:12
Whether you like it or not,
0
12380
1336
Leuk of niet,
00:13
radical transparency and algorithmic decision-making is coming at you fast,
1
13740
5376
radicale transparantie en algoritmische besluitvorming komen snel op je af
00:19
and it's going to change your life.
2
19140
1976
en zullen je leven veranderen.
00:21
That's because it's now easy to take algorithms
3
21140
2816
Het is namelijk gemakkelijk geworden
00:23
and embed them into computers
4
23980
1896
om algoritmes in computers te integreren
00:25
and gather all that data that you're leaving on yourself
5
25900
2936
en al die data te verzamelen die je over jezelf achterlaat
00:28
all over the place,
6
28860
1376
op verschillende plaatsen
00:30
and know what you're like,
7
30260
1696
en te weten hoe je in elkaar zit
00:31
and then direct the computers to interact with you
8
31980
2936
en dan computers met jou te laten interageren
00:34
in ways that are better than most people can.
9
34940
2120
op een betere manier dan de meeste mensen kunnen.
00:37
Well, that might sound scary.
10
37980
1616
Dat klinkt misschien eng,
00:39
I've been doing this for a long time and I have found it to be wonderful.
11
39620
3640
maar ik doe het al lang en vind het fantastisch.
00:43
My objective has been to have meaningful work
12
43979
2657
Mijn doel is om zinvol werk te doen
00:46
and meaningful relationships with the people I work with,
13
46660
2856
en zinvolle relaties aan te gaan met mijn medewerkers,
00:49
and I've learned that I couldn't have that
14
49540
2056
en ik weet dat dit onmogelijk zou zijn
00:51
unless I had that radical transparency and that algorithmic decision-making.
15
51620
4280
zonder die radicale transparantie en algoritmische besluitvorming.
00:56
I want to show you why that is,
16
56500
2016
Ik wil jullie graag uitleggen waarom,
00:58
I want to show you how it works.
17
58540
1696
ik wil jullie tonen hoe het werkt,
01:00
And I warn you that some of the things that I'm going to show you
18
60260
3096
en sommige zaken waarover ik het zal hebben
zijn misschien wat schokkend.
01:03
probably are a little bit shocking.
19
63380
1667
01:05
Since I was a kid, I've had a terrible rote memory.
20
65580
3480
Van kindsaf heb ik een heel slecht geheugen.
01:09
And I didn't like following instructions,
21
69940
2176
En ik hield er niet van instructies te volgen.
01:12
I was no good at following instructions.
22
72140
2416
Ik was er niet goed in.
01:14
But I loved to figure out how things worked for myself.
23
74580
3000
Maar ik zocht graag zelf uit hoe de dingen werken.
01:18
When I was 12,
24
78500
1376
Toen ik 12 was,
01:19
I hated school but I fell in love with trading the markets.
25
79900
3280
had ik een hekel aan school, maar ik hield van financiële markten.
01:23
I caddied at the time,
26
83740
1656
Ik werkte als caddie
01:25
earned about five dollars a bag.
27
85420
1576
en verdiende zo'n vijf dollar per zak.
01:27
And I took my caddying money, and I put it in the stock market.
28
87020
3200
En ik gebruikte dat geld om aandelen te kopen.
01:31
And that was just because the stock market was hot at the time.
29
91060
3376
Dat was enkel omdat de aandelenmarkten het in die tijd goed deden.
01:34
And the first company I bought
30
94460
1456
Het eerste bedrijf dat ik kocht,
01:35
was a company by the name of Northeast Airlines.
31
95940
2600
was Northeast Airlines.
01:39
Northeast Airlines was the only company I heard of
32
99180
2736
Northeast Airlines was het enige bedrijf dat ik kende
01:41
that was selling for less than five dollars a share.
33
101940
2696
waarvan de aandelen voor minder dan vijf dollar werden verkocht.
01:44
(Laughter)
34
104660
1976
(Gelach)
01:46
And I figured I could buy more shares,
35
106660
1856
Ik dacht dat ik meer aandelen kon kopen
01:48
and if it went up, I'd make more money.
36
108540
2096
en als die stegen, verdiende ik meer.
01:50
So, it was a dumb strategy, right?
37
110660
2840
Dus... Dat was een domme strategie, niet?
01:54
But I tripled my money,
38
114180
1456
Maar ik verdrievoudigde mijn geld
01:55
and I tripled my money because I got lucky.
39
115660
2120
en dat was omdat ik geluk had.
01:58
The company was about to go bankrupt,
40
118340
1816
Het bedrijf ging bijna failliet,
02:00
but some other company acquired it,
41
120180
2096
maar een ander bedrijf kocht het op,
02:02
and I tripled my money.
42
122300
1456
en ik verdrievoudigde mijn geld.
02:03
And I was hooked.
43
123780
1200
Ik was verkocht.
02:05
And I thought, "This game is easy."
44
125540
2280
En ik dacht: dit spel is gemakkelijk.
02:09
With time,
45
129020
1216
Met verloop van tijd
02:10
I learned this game is anything but easy.
46
130260
1960
ontdekte ik dat het spel allesbehalve gemakkelijk is.
02:12
In order to be an effective investor,
47
132700
2136
Om te slagen als belegger,
02:14
one has to bet against the consensus
48
134860
2896
moet je tegen de consensus ingaan
02:17
and be right.
49
137780
1256
en het juist hebben.
02:19
And it's not easy to bet against the consensus and be right.
50
139060
2856
En dat is niet gemakkelijk.
02:21
One has to bet against the consensus and be right
51
141940
2336
Je moet tegen de consensus ingaan en het juist hebben
02:24
because the consensus is built into the price.
52
144300
2640
omdat de consensus in de prijs is ingebouwd.
02:27
And in order to be an entrepreneur,
53
147940
2456
En om een ondernemer te zijn,
02:30
a successful entrepreneur,
54
150420
1616
een succesvolle ondernemer,
02:32
one has to bet against the consensus and be right.
55
152060
3480
moet je tegen de consensus ingaan en het juist hebben.
02:37
I had to be an entrepreneur and an investor --
56
157220
2936
Ik wou een ondernemer en een belegger zijn
02:40
and what goes along with that is making a lot of painful mistakes.
57
160180
4200
en dat gaat gepaard met veel pijnlijke fouten.
02:45
So I made a lot of painful mistakes,
58
165260
2816
Dus maakte ik veel pijnlijke fouten
02:48
and with time,
59
168100
1256
en met verloop van tijd
02:49
my attitude about those mistakes began to change.
60
169380
2960
begon mijn houding tegenover die fouten te veranderen.
02:52
I began to think of them as puzzles.
61
172980
2096
Ik begon ze te zien als puzzels.
02:55
That if I could solve the puzzles,
62
175100
1936
En als ik die puzzels kon oplossen,
02:57
they would give me gems.
63
177060
1440
zou ik schatten verdienen.
02:58
And the puzzles were:
64
178980
1656
En die puzzels kwamen hierop neer:
03:00
What would I do differently in the future so I wouldn't make that painful mistake?
65
180660
3880
wat kon ik in de toekomst anders doen om dezelfde fout te vermijden?
03:05
And the gems were principles
66
185100
2576
En de schatten waren principes
03:07
that I would then write down so I would remember them
67
187700
3136
die ik neerschreef om ze niet te vergeten
03:10
that would help me in the future.
68
190860
1572
en me zouden helpen in de toekomst.
03:12
And because I wrote them down so clearly,
69
192820
2696
En omdat ik ze zo helder neerpende,
03:15
I could then --
70
195540
1336
kon ik ze vervolgens --
03:16
eventually discovered --
71
196900
1576
zo ontdekte ik --
03:18
I could then embed them into algorithms.
72
198500
3760
kon ik ze vervolgens verwerken in algoritmes.
03:23
And those algorithms would be embedded in computers,
73
203220
3456
En die algoritmes konden geïntegreerd worden in computers,
03:26
and the computers would make decisions along with me;
74
206700
3336
die samen met mij beslissingen zouden nemen.
03:30
and so in parallel, we would make these decisions.
75
210060
3136
Dus we namen samen beslissingen.
03:33
And I could see how those decisions then compared with my own decisions,
76
213220
3976
En ik kon die beslissingen vergelijken met mijn eigen beslissingen
03:37
and I could see that those decisions were a lot better.
77
217220
3096
en zien dat ze veel beter waren.
03:40
And that was because the computer could make decisions much faster,
78
220340
4736
En dat was omdat de computer veel sneller beslissingen kon maken,
03:45
it could process a lot more information
79
225100
2256
veel meer informatie kon verwerken
03:47
and it can process decisions much more --
80
227380
3400
en beslissingen kon verwerken
03:51
less emotionally.
81
231700
1200
met veel minder emotie.
03:54
So it radically improved my decision-making.
82
234580
3920
Het was een radicale verbetering van mijn besluitvorming.
04:00
Eight years after I started Bridgewater,
83
240260
4896
Acht jaar nadat ik Bridgewater had opgericht,
04:05
I had my greatest failure,
84
245180
1536
had ik mijn grootste mislukking,
04:06
my greatest mistake.
85
246740
1200
mijn grootste fout.
04:09
It was late 1970s,
86
249500
2136
Het was eind jaren 1970,
04:11
I was 34 years old,
87
251660
1976
ik was 34 jaar
04:13
and I had calculated that American banks
88
253660
3656
en had uitgerekend dat de Amerikaanse banken
04:17
had lent much more money to emerging countries
89
257340
2856
veel meer geld hadden geleend aan opkomende landen
04:20
than those countries were going to be able to pay back
90
260220
2816
dan die landen ooit konden terugbetalen.
04:23
and that we would have the greatest debt crisis
91
263060
2696
En dat we de grootste schuldencrisis zouden meemaken
04:25
since the Great Depression.
92
265780
1360
sinds de Grote Depressie.
04:28
And with it, an economic crisis
93
268020
2216
Dit zou gepaard gaan met een economische crisis
04:30
and a big bear market in stocks.
94
270260
2040
en een grote berenmarkt in aandelen.
04:33
It was a controversial view at the time.
95
273500
2000
Een controversiële visie in die tijd.
04:35
People thought it was kind of a crazy point of view.
96
275980
2440
Mensen vonden het een gek standpunt.
04:39
But in August 1982,
97
279300
2216
Maar in augustus 1982
04:41
Mexico defaulted on its debt,
98
281540
1960
kon Mexico zijn schulden niet betalen
04:44
and a number of other countries followed.
99
284340
2256
en een reeks andere landen volgde.
04:46
And we had the greatest debt crisis since the Great Depression.
100
286620
3400
En we hadden de grootste schuldencrisis sinds de Grote Depressie.
04:50
And because I had anticipated that,
101
290900
2776
En omdat ik dit had zien aankomen,
04:53
I was asked to testify to Congress and appear on "Wall Street Week,"
102
293700
4336
mocht ik voor het congres getuigen en was ik te gast op Wall Street Week,
04:58
which was the show of the time.
103
298060
1976
een populaire show in die tijd.
05:00
Just to give you a flavor of that, I've got a clip here,
104
300060
2936
Als voorbeeld heb ik een korte video
05:03
and you'll see me in there.
105
303020
1920
waarin jullie dit kunnen zien.
05:06
(Video) Mr. Chairman, Mr. Mitchell,
106
306300
1696
(Video) Beste voorzitter, Mr. Mitchell,
05:08
it's a great pleasure and a great honor to be able to appear before you
107
308020
3376
het is een plezier en een grote eer om voor u te mogen verschijnen
05:11
in examination with what is going wrong with our economy.
108
311420
3480
omtrent wat er momenteel fout gaat met onze economie.
05:15
The economy is now flat --
109
315460
1936
De economie ligt momenteel plat
05:17
teetering on the brink of failure.
110
317420
2136
en staat op de rand van instorting.
05:19
Martin Zweig: You were recently quoted in an article.
111
319580
2496
M. Zweig: Recent werd u geciteerd in een artikel
05:22
You said, "I can say this with absolute certainty
112
322100
2336
en u zei: "Ik kan dit met absolute zekerheid zeggen,
05:24
because I know how markets work."
113
324460
1616
want ik weet hoe de marken werken."
05:26
Ray Dalio: I can say with absolute certainty
114
326100
2096
Ik kan met 100% zekerheid zeggen
05:28
that if you look at the liquidity base
115
328220
1856
dat als je de liquiditeitspositie bekijkt
05:30
in the corporations and the world as a whole,
116
330100
3376
van bedrijven en de wereld in zijn geheel,
05:33
that there's such reduced level of liquidity
117
333500
2096
dat er zo'n beperkte liquiditeit is
05:35
that you can't return to an era of stagflation."
118
335620
3216
dat je niet kan terugkeren naar een tijdperk van stagflatie.
05:38
I look at that now, I think, "What an arrogant jerk!"
119
338860
3096
Als ik dat nu zie, denk ik: wat een arrogante klier.
05:41
(Laughter)
120
341980
2000
(Gelach)
05:45
I was so arrogant, and I was so wrong.
121
345580
2456
Ik was zo arrogant en zo fout.
05:48
I mean, while the debt crisis happened,
122
348060
2576
Terwijl de schuldencrisis woedde,
05:50
the stock market and the economy went up rather than going down,
123
350660
3976
stegen de aandelenmarkten en de economie in plaats van te dalen.
05:54
and I lost so much money for myself and for my clients
124
354660
5016
En ik verloor zoveel geld, van mezelf en van klanten,
05:59
that I had to shut down my operation pretty much,
125
359700
3416
dat ik mijn activiteiten bijna volledig moest opdoeken
06:03
I had to let almost everybody go.
126
363140
1880
en bijna iedereen moest ontslaan.
06:05
And these were like extended family,
127
365460
1736
Mijn medewerkers waren als familie,
06:07
I was heartbroken.
128
367220
1616
dus ik was er kapot van.
06:08
And I had lost so much money
129
368860
1816
Ik had zoveel geld verloren
06:10
that I had to borrow 4,000 dollars from my dad
130
370700
3336
dat ik 4000 dollar moest lenen van mijn vader
06:14
to help to pay my family bills.
131
374060
1920
om mijn rekeningen te kunnen betalen.
06:16
It was one of the most painful experiences of my life ...
132
376660
3160
Het was een van de pijnlijkste ervaringen in mijn leven,
06:21
but it turned out to be one of the greatest experiences of my life
133
381060
3776
maar ook een van de beste ervaringen in mijn leven,
06:24
because it changed my attitude about decision-making.
134
384860
2680
omdat het mijn houding over besluitvorming veranderde.
06:28
Rather than thinking, "I'm right,"
135
388180
3056
In plaats van te denken dat ik het juist heb,
06:31
I started to ask myself,
136
391260
1576
begon ik te denken:
06:32
"How do I know I'm right?"
137
392860
1800
hoe weet ik dat ik het juist heb?
06:36
I gained a humility that I needed
138
396300
1936
Ik kreeg de nederigheid die ik nodig had
06:38
in order to balance my audacity.
139
398260
2560
om mijn lef in evenwicht te houden.
06:41
I wanted to find the smartest people who would disagree with me
140
401700
4216
Ik wou de slimste mensen vinden die het oneens met mij waren
06:45
to try to understand their perspective
141
405940
1896
om hun perspectief te proberen te begrijpen
06:47
or to have them stress test my perspective.
142
407860
2600
of mijn perspectief aan een stresstest te onderwerpen.
06:51
I wanted to make an idea meritocracy.
143
411220
2776
Ik wou een meritocratie van ideeën creëren.
06:54
In other words,
144
414020
1216
Met andere woorden,
06:55
not an autocracy in which I would lead and others would follow
145
415260
3816
geen autocratie waarin ik zou leiden en anderen zouden volgen,
06:59
and not a democracy in which everybody's points of view were equally valued,
146
419100
3616
en geen democratie waarin ieders standpunt evenveel waard was,
07:02
but I wanted to have an idea meritocracy in which the best ideas would win out.
147
422740
5096
maar een ideeënmeritocratie waarin de beste ideeën winnen.
07:07
And in order to do that,
148
427860
1256
En ik besefte dat we daarvoor radicale eerlijkheid nodig hadden
07:09
I realized that we would need radical truthfulness
149
429140
3576
07:12
and radical transparency.
150
432740
1616
en radicale transparantie.
07:14
What I mean by radical truthfulness and radical transparency
151
434380
3856
Wat ik bedoel met radicale eerlijkheid en transparantie
07:18
is people needed to say what they really believed
152
438260
2656
is dat mensen moeten kunnen zeggen wat ze echt geloven
07:20
and to see everything.
153
440940
2000
en alles moeten kunnen zien.
07:23
And we literally tape almost all conversations
154
443300
3936
We nemen bijna alle gesprekken op
07:27
and let everybody see everything,
155
447260
1616
en laten iedereen alles zien,
07:28
because if we didn't do that,
156
448900
1416
want als we dat niet deden
07:30
we couldn't really have an idea meritocracy.
157
450340
3080
zouden we geen ideeënmeritocratie hebben.
07:34
In order to have an idea meritocracy,
158
454580
3696
Om een ideeënmeritocratie te creëren,
07:38
we have let people speak and say what they want.
159
458300
2376
moeten we de mensen laten zeggen wat ze willen.
07:40
Just to give you an example,
160
460700
1376
Een voorbeeld:
07:42
this is an email from Jim Haskel --
161
462100
2696
dit is een mail van Jim Haskel,
07:44
somebody who works for me --
162
464820
1376
iemand die voor mij werkt,
07:46
and this was available to everybody in the company.
163
466220
3376
en dit was toegankelijk voor iedereen in het bedrijf.
07:49
"Ray, you deserve a 'D-'
164
469620
2536
"Ray, je verdient een dikke onvoldoende
07:52
for your performance today in the meeting ...
165
472180
2256
voor je bijdrage aan de meeting vandaag.
07:54
you did not prepare at all well
166
474460
1696
Je was absoluut niet voorbereid,
07:56
because there is no way you could have been that disorganized."
167
476180
3560
anders was je niet zo slecht georganiseerd geweest."
08:01
Isn't that great?
168
481340
1216
Is dat niet fantastisch?
08:02
(Laughter)
169
482580
1216
(Gelach)
08:03
That's great.
170
483820
1216
Ik vind het fantastisch.
08:05
It's great because, first of all, I needed feedback like that.
171
485060
2936
Ten eerste omdat ik die feedback nodig had.
08:08
I need feedback like that.
172
488020
1616
Ik heb dergelijke feedback nodig.
08:09
And it's great because if I don't let Jim, and people like Jim,
173
489660
3456
En het is fantastisch,
want als ik Jim en anderen niet toelaat om hun mening te geven,
08:13
to express their points of view,
174
493140
1576
08:14
our relationship wouldn't be the same.
175
494740
2056
dan zou onze relatie niet hetzelfde zijn.
08:16
And if I didn't make that public for everybody to see,
176
496820
3056
En als ik dit niet publiek maakte voor iedereen,
08:19
we wouldn't have an idea meritocracy.
177
499900
1960
zouden we geen ideeënmeritocratie hebben.
08:23
So for that last 25 years that's how we've been operating.
178
503580
3280
Dus de laatste 25 jaar hebben we op die manier gewerkt,
08:27
We've been operating with this radical transparency
179
507460
3056
met radicale transparantie
08:30
and then collecting these principles,
180
510540
2296
en het verzamelen van principes
08:32
largely from making mistakes,
181
512860
2056
op basis van onze fouten,
08:34
and then embedding those principles into algorithms.
182
514940
4416
en vervolgens die principes in algoritmes gieten.
08:39
And then those algorithms provide --
183
519380
2696
En die algoritmes...
08:42
we're following the algorithms
184
522100
2016
Die algoritmes volgen we,
08:44
in parallel with our thinking.
185
524140
1440
samen met onze eigen ideeën.
08:47
That has been how we've run the investment business,
186
527100
3176
Zo benaderen we onze beleggingen
08:50
and it's how we also deal with the people management.
187
530300
2736
en ook onze medewerkers.
08:53
In order to give you a glimmer into what this looks like,
188
533060
3736
Om jullie te tonen hoe dit werkt,
08:56
I'd like to take you into a meeting
189
536820
2336
wil ik jullie graag meenemen naar een vergadering
08:59
and introduce you to a tool of ours called the "Dot Collector"
190
539180
3136
en kennis laten maken met onze tool, de Dot Collector,
09:02
that helps us do this.
191
542340
1280
die ons hiermee helpt.
09:07
A week after the US election,
192
547460
2176
Een week na de Amerikaanse verkiezingen
09:09
our research team held a meeting
193
549660
2096
had ons onderzoeksteam een vergadering
09:11
to discuss what a Trump presidency would mean for the US economy.
194
551780
3320
om te bespreken wat Trumps verkiezing zou betekenen voor de economie.
09:15
Naturally, people had different opinions on the matter
195
555820
2856
Uiteraard hadden mensen verschillende meningen hierover
09:18
and how we were approaching the discussion.
196
558700
2040
en over hoe we de discussie aanpakten.
09:21
The "Dot Collector" collects these views.
197
561660
2776
De Dot Collector verzamelt deze standpunten.
09:24
It has a list of a few dozen attributes,
198
564460
2296
Het bevat een lijst met een reeks stellingen.
09:26
so whenever somebody thinks something about another person's thinking,
199
566780
4016
Telkens wanneer iemand iets denkt over de ideeën van iemand anders,
09:30
it's easy for them to convey their assessment;
200
570820
2936
kunnen ze eenvoudig hun oordeel kenbaar maken
09:33
they simply note the attribute and provide a rating from one to 10.
201
573780
4520
door hun stelling te noteren en een score van één tot tien te geven.
09:39
For example, as the meeting began,
202
579340
2256
Bijvoorbeeld, toen de meeting begon,
09:41
a researcher named Jen rated me a three --
203
581620
3120
gaf onderzoekster Jen me een drie --
09:45
in other words, badly --
204
585460
2016
met andere woorden: een slechte score --
09:47
(Laughter)
205
587500
1376
(Gelach)
09:48
for not showing a good balance of open-mindedness and assertiveness.
206
588900
4160
omdat ik geen goed evenwicht toonde tussen een open geest en assertiviteit.
09:53
As the meeting transpired,
207
593900
1456
Tijdens de meeting
09:55
Jen's assessments of people added up like this.
208
595380
3240
werden Jens beoordelingen op die manier verzameld.
09:59
Others in the room have different opinions.
209
599740
2176
Anderen in de ruimte hadden andere meningen.
10:01
That's normal.
210
601940
1216
Dat is normaal.
10:03
Different people are always going to have different opinions.
211
603180
2920
Verschillende mensen zullen altijd verschillende meningen hebben.
10:06
And who knows who's right?
212
606620
1400
En wie weet wie er gelijk heeft?
10:09
Let's look at just what people thought about how I was doing.
213
609060
3440
Laat ons eens kijken naar wat men over mij dacht.
10:13
Some people thought I did well,
214
613420
2216
Sommigen vonden dat ik het goed deed,
10:15
others, poorly.
215
615660
1200
anderen slecht.
10:17
With each of these views,
216
617900
1336
Met elk van deze standpunten
10:19
we can explore the thinking behind the numbers.
217
619260
2320
kunnen we het denken achter de nummers nagaan.
10:22
Here's what Jen and Larry said.
218
622340
2160
Dit is wat Jen en Larry zeiden.
10:25
Note that everyone gets to express their thinking,
219
625580
2616
Iedereen kan zijn mening geven,
10:28
including their critical thinking,
220
628220
1656
inclusief hun kritiek,
10:29
regardless of their position in the company.
221
629900
2120
los van hun positie in het bedrijf.
10:32
Jen, who's 24 years old and right out of college,
222
632940
3096
Jen, die 24 jaar is en net uit de schoolbanken komt,
10:36
can tell me, the CEO, that I'm approaching things terribly.
223
636060
2840
kan mij, de CEO, zeggen dat ik er niets van bak.
10:40
This tool helps people both express their opinions
224
640300
3776
Deze tool helpt mensen hun standpunten te delen
10:44
and then separate themselves from their opinions
225
644100
3096
en zich er vervolgens van te distantiëren
10:47
to see things from a higher level.
226
647220
2040
om de zaken vanop een afstand te bekijken.
10:50
When Jen and others shift their attentions from inputting their own opinions
227
650460
4896
Wanneer Jen en de anderen hun aandacht verleggen van hun eigen mening
10:55
to looking down on the whole screen,
228
655380
2576
naar het volledige scherm,
10:57
their perspective changes.
229
657980
1720
verandert hun perspectief.
11:00
They see their own opinions as just one of many
230
660500
3136
Ze zien hun standpunt als slechts een van de vele
11:03
and naturally start asking themselves,
231
663660
2536
en vragen zich automatisch af:
11:06
"How do I know my opinion is right?"
232
666220
2000
hoe weet ik of mijn standpunt juist is?
11:09
That shift in perspective is like going from seeing in one dimension
233
669300
4056
Die verandering van perspectief is alsof je blik van eendimensionaal
11:13
to seeing in multiple dimensions.
234
673380
2256
naar multidimensioneel gaat
11:15
And it shifts the conversation from arguing over our opinions
235
675660
4096
en doet het gesprek verschuiven van een discussie over opinies
11:19
to figuring out objective criteria for determining which opinions are best.
236
679780
4400
naar objectieve criteria om te bepalen welke opinies het best zijn.
11:24
Behind the "Dot Collector" is a computer that is watching.
237
684740
3600
Achter de Dot Collector zit een computer die meekijkt.
11:28
It watches what all these people are thinking
238
688940
2176
Hij registreert wat al deze mensen denken
11:31
and it correlates that with how they think.
239
691140
2576
en verbindt dat met hoe ze denken.
11:33
And it communicates advice back to each of them based on that.
240
693740
3520
En op basis hiervan geeft hij advies aan ieder van hen.
11:38
Then it draws the data from all the meetings
241
698340
3416
Dan neemt hij data uit alle meetings
11:41
to create a pointilist painting of what people are like
242
701780
3216
om een puntjesschilderij te maken van hoe mensen zijn
11:45
and how they think.
243
705020
1240
en hoe ze denken.
11:46
And it does that guided by algorithms.
244
706980
2720
En dit gebeurt met behulp van algoritmen.
11:50
Knowing what people are like helps to match them better with their jobs.
245
710620
3760
Als je weet hoe mensen zijn, kan je hen beter afstemmen op hun job.
11:54
For example,
246
714940
1216
Bijvoorbeeld:
11:56
a creative thinker who is unreliable
247
716180
1736
een creatieve denker die onbetrouwbaar is,
11:57
might be matched up with someone who's reliable but not creative.
248
717940
3080
kan je koppelen aan iemand die betrouwbaar is, maar niet creatief.
12:02
Knowing what people are like also allows us to decide
249
722100
3336
Als we weten hoe mensen zijn, kunnen we ook beslissen
12:05
what responsibilities to give them
250
725460
2256
welke verantwoordelijkheden we hen geven
12:07
and to weigh our decisions based on people's merits.
251
727740
3480
en onze beslissingen afwegen op basis van hun verdiensten.
12:11
We call it their believability.
252
731860
1600
We noemen dat hun geloofwaardigheid.
12:14
Here's an example of a vote that we took
253
734380
1976
Dit is een voorbeeld van een stemming
12:16
where the majority of people felt one way ...
254
736380
2840
waarbij de meerderheid een zekere mening had,
12:20
but when we weighed the views based on people's merits,
255
740740
2936
maar toen we de opinies afwogen op basis van hun verdiensten,
12:23
the answer was completely different.
256
743700
1840
was het antwoord heel anders.
12:26
This process allows us to make decisions not based on democracy,
257
746740
4576
Door dit proces kunnen we beslissingen nemen,
niet op basis van democratie
12:31
not based on autocracy,
258
751340
2136
of autocratie,
12:33
but based on algorithms that take people's believability into consideration.
259
753500
5240
maar op basis van een algoritme dat rekening houdt met geloofwaardigheid.
12:41
Yup, we really do this.
260
761340
1696
Ja, we doen dit echt.
12:43
(Laughter)
261
763060
3296
(Gelach)
12:46
We do it because it eliminates
262
766380
2856
We doen dit omdat het elimineert
12:49
what I believe to be one of the greatest tragedies of mankind,
263
769260
4456
wat volgens mij een van de grootste tragedies van de mensheid is,
12:53
and that is people arrogantly,
264
773740
2160
en dat is dat mensen op een arrogante, naïeve manier
12:56
naïvely holding opinions in their minds that are wrong,
265
776580
4456
foutieve meningen hebben
13:01
and acting on them,
266
781060
1256
en hiernaar handelen,
13:02
and not putting them out there to stress test them.
267
782340
2760
zonder te controleren of ze wel kloppen.
13:05
And that's a tragedy.
268
785820
1336
En dat is een tragedie.
13:07
And we do it because it elevates ourselves above our own opinions
269
787180
5416
We werken zo omdat we daardoor onze opinies kunnen overstijgen,
13:12
so that we start to see things through everybody's eyes,
270
792620
2896
waardoor we de zaken zien door ieders ogen
13:15
and we see things collectively.
271
795540
1920
en dus een collectief beeld krijgen.
13:18
Collective decision-making is so much better than individual decision-making
272
798180
4336
Collectieve besluitvorming is zoveel beter dan individuele besluitvorming,
13:22
if it's done well.
273
802540
1200
als het goed gebeurt.
13:24
It's been the secret sauce behind our success.
274
804180
2616
Dit is het geheime ingrediënt van ons succes.
13:26
It's why we've made more money for our clients
275
806820
2176
Daarom verdienen onze klanten meer
13:29
than any other hedge fund in existence
276
809020
1936
dan bij eender welk ander hedge fund.
13:30
and made money 23 out of the last 26 years.
277
810980
2720
Daarom boekten we winst in 23 van de afgelopen 26 jaar.
13:35
So what's the problem with being radically truthful
278
815700
4536
Wat is het probleem van radicale eerlijkheid
13:40
and radically transparent with each other?
279
820260
2240
en radicale transparantie tegenover anderen?
13:45
People say it's emotionally difficult.
280
825220
2080
Mensen vinden het emotioneel moeilijk.
13:48
Critics say it's a formula for a brutal work environment.
281
828060
4240
Critici noemen het een formule voor een harde werkomgeving.
13:53
Neuroscientists tell me it has to do with how are brains are prewired.
282
833220
4856
Volgens neurowetenschappers heeft dit te maken met hoe onze hersens werken.
13:58
There's a part of our brain that would like to know our mistakes
283
838100
3216
Een deel van onze hersens wil weten welke fouten we maken
14:01
and like to look at our weaknesses so we could do better.
284
841340
3960
en onze zwakke plekken kennen zodat we het beter kunnen doen.
14:05
I'm told that that's the prefrontal cortex.
285
845940
2440
Dat schijnt de prefontale cortex te zijn.
14:08
And then there's a part of our brain which views all of this as attacks.
286
848860
4856
Maar een ander deel van onze hersens ziet dit als een aanval.
14:13
I'm told that that's the amygdala.
287
853740
1960
Dat schijnt de amygdala te zijn.
14:16
In other words, there are two you's inside you:
288
856260
3056
Er zijn dus twee verschillende versies van jezelf,
14:19
there's an emotional you
289
859340
1416
een emotionele versie
14:20
and there's an intellectual you,
290
860780
1776
en een intellectuele versie.
14:22
and often they're at odds,
291
862580
1776
En vaak komen die twee niet overeen
14:24
and often they work against you.
292
864380
1920
en saboteren ze je.
14:26
It's been our experience that we can win this battle.
293
866980
3736
Onze ervaring is dat we dit gevecht kunnen winnen.
14:30
We win it as a group.
294
870740
1320
We winnen het als groep.
14:32
It takes about 18 months typically
295
872820
2336
Het duurt ongeveer 18 maanden
14:35
to find that most people prefer operating this way,
296
875180
3056
om erachter te komen dat de meesten het liefst zo werken,
14:38
with this radical transparency
297
878260
2016
met deze radicale transparantie,
14:40
than to be operating in a more opaque environment.
298
880300
3336
dan in een minder transparante omgeving te werken.
14:43
There's not politics, there's not the brutality of --
299
883660
4296
Er is geen politiek,
niet de hardheid die gepaard gaat met al dat gedoe achter de schermen.
14:47
you know, all of that hidden, behind-the-scenes --
300
887980
2376
14:50
there's an idea meritocracy where people can speak up.
301
890380
2936
Er is een ideeënmeritocratie waar mensen hun mening geven.
14:53
And that's been great.
302
893340
1256
En het is fantastisch.
14:54
It's given us more effective work,
303
894620
1656
Het heeft ons doeltreffender gemaakt
14:56
and it's given us more effective relationships.
304
896300
2400
en heeft ons sterkere relaties gegeven.
14:59
But it's not for everybody.
305
899220
1320
Maar het is niet voor iedereen.
15:01
We found something like 25 or 30 percent of the population
306
901500
2936
Zo'n 25 tot 30% van de bevolking
15:04
it's just not for.
307
904460
1736
houdt er niet van.
15:06
And by the way,
308
906220
1216
Trouwens,
15:07
when I say radical transparency,
309
907460
1816
als ik het heb over radicale transparantie,
15:09
I'm not saying transparency about everything.
310
909300
2336
bedoel ik niet transparantie over alles.
15:11
I mean, you don't have to tell somebody that their bald spot is growing
311
911660
3816
Je moet niet zeggen dat iemands kale plek groter wordt
15:15
or their baby's ugly.
312
915500
1616
of dat hun baby lelijk is.
15:17
So, I'm just talking about --
313
917140
2096
Ik heb het enkel over...
15:19
(Laughter)
314
919260
1216
(Gelach)
15:20
talking about the important things.
315
920500
2176
over de belangrijke dingen.
15:22
So --
316
922700
1216
Dus...
15:23
(Laughter)
317
923940
3200
(Gelach)
15:28
So when you leave this room,
318
928420
1416
Dus als je straks vertrekt,
15:29
I'd like you to observe yourself in conversations with others.
319
929860
4440
probeer jezelf eens te observeren wanneer je met anderen praat.
15:35
Imagine if you knew what they were really thinking,
320
935180
3680
Stel je voor dat je zou weten wat ze echt denken
15:39
and imagine if you knew what they were really like ...
321
939580
2600
en dat je zou weten hoe ze echt zijn
15:43
and imagine if they knew what you were really thinking
322
943660
3976
en dat zij zouden weten wat jij echt denkt
15:47
and what were really like.
323
947660
1840
en hoe je echt bent.
15:49
It would certainly clear things up a lot
324
949980
2576
Het zou in elk geval heel wat dingen duidelijk maken
15:52
and make your operations together more effective.
325
952580
2856
en je interacties effectiever maken.
15:55
I think it will improve your relationships.
326
955460
2240
Ik denk dat het je relaties zal verbeteren.
15:58
Now imagine that you can have algorithms
327
958420
3296
Stel je nu voor dat je algoritmen hebt
16:01
that will help you gather all of that information
328
961740
3816
die je helpen om die informatie te verzamelen
16:05
and even help you make decisions in an idea-meritocratic way.
329
965580
4560
en beslissingen te nemen zoals in een ideeënmeritocratie.
16:12
This sort of radical transparency is coming at you
330
972460
4336
Dit soort radicale transparantie komt eraan
16:16
and it is going to affect your life.
331
976820
1960
en zal je leven beïnvloeden.
16:19
And in my opinion,
332
979420
2056
En volgens mij
16:21
it's going to be wonderful.
333
981500
1336
zal het fantastisch zijn.
16:22
So I hope it is as wonderful for you
334
982860
2336
Ik hoop dat het voor jullie even fantastisch is
16:25
as it is for me.
335
985220
1200
als voor mij.
16:26
Thank you very much.
336
986980
1256
Hartelijk dank.
16:28
(Applause)
337
988260
4360
(Applaus)
Over deze website

Deze site laat u kennismaken met YouTube-video's die nuttig zijn om Engels te leren. U ziet Engelse lessen gegeven door topdocenten uit de hele wereld. Dubbelklik op de Engelse ondertitels op elke videopagina om de video af te spelen. De ondertitels scrollen synchroon met het afspelen van de video. Heeft u opmerkingen of verzoeken, neem dan contact met ons op via dit contactformulier.

https://forms.gle/WvT1wiN1qDtmnspy7