下の英語字幕をダブルクリックすると動画を再生できます。
翻訳: Eriko T
校正: Yuko Yoshida
00:12
Whether you like it or not,
0
12380
1336
好むと好まざるにかかわらず
00:13
radical transparency and algorithmic
decision-making is coming at you fast,
1
13740
5376
徹底的な透明性と
アルゴリズムで意思決定する未来は迫っており
00:19
and it's going to change your life.
2
19140
1976
それはあなたの人生を変えるでしょう
00:21
That's because it's now easy
to take algorithms
3
21140
2816
今や簡単に
アルゴリズムを
00:23
and embed them into computers
4
23980
1896
コンピューターに埋め込み
00:25
and gather all that data
that you're leaving on yourself
5
25900
2936
あなたがあらゆる場所に残している
あなた自身の
00:28
all over the place,
6
28860
1376
あらゆるデータを収集し
00:30
and know what you're like,
7
30260
1696
あなたがどんな人かを知り
00:31
and then direct the computers
to interact with you
8
31980
2936
コンピューターに
殆どの人間よりも優れた方法で
00:34
in ways that are better
than most people can.
9
34940
2120
あなたと対話させる事が
できるからです
00:37
Well, that might sound scary.
10
37980
1616
まあ 薄気味悪い話かも知れませんが
00:39
I've been doing this for a long time
and I have found it to be wonderful.
11
39620
3640
私は長らくこれをやって来て
素晴らしいことだと思っています
00:43
My objective has been
to have meaningful work
12
43979
2657
私の目的は意味のある仕事をし
00:46
and meaningful relationships
with the people I work with,
13
46660
2856
共に働く人々と
意義深い関係を持つことです
00:49
and I've learned that I couldn't have that
14
49540
2056
そして それは徹底的な透明性と
00:51
unless I had that radical transparency
and that algorithmic decision-making.
15
51620
4280
アルゴリズムによる意思決定の
仕組みが無い限り実現出来ないと分かりました
00:56
I want to show you why that is,
16
56500
2016
その理由をお話しし その仕組みを
00:58
I want to show you how it works.
17
58540
1696
説明したいと思います
01:00
And I warn you that some of the things
that I'm going to show you
18
60260
3096
警告しますが いくつかのことは
01:03
probably are a little bit shocking.
19
63380
1667
おそらく少し衝撃的です
01:05
Since I was a kid,
I've had a terrible rote memory.
20
65580
3480
子供の頃から
私は丸暗記が大の苦手で
01:09
And I didn't like following instructions,
21
69940
2176
人に指図されるのも嫌いで
01:12
I was no good at following instructions.
22
72140
2416
手順に従うのが苦手でした
01:14
But I loved to figure out
how things worked for myself.
23
74580
3000
しかし 私は物事の仕組みを
理解するのが大好きでした
01:18
When I was 12,
24
78500
1376
12歳の時に
01:19
I hated school but I fell in love
with trading the markets.
25
79900
3280
私は学校を嫌い 株取引と恋に落ちました
01:23
I caddied at the time,
26
83740
1656
私は当時キャディーをやっていて
01:25
earned about five dollars a bag.
27
85420
1576
バッグ1つにつき約5ドルをもらい
01:27
And I took my caddying money,
and I put it in the stock market.
28
87020
3200
それで稼いだお金を株に投資しました
01:31
And that was just because
the stock market was hot at the time.
29
91060
3376
それはちょうど
株式市場が熱くなっていた頃で
01:34
And the first company I bought
30
94460
1456
私が買った最初の株は
01:35
was a company by the name
of Northeast Airlines.
31
95940
2600
ノースイースト航空という会社のものでした
01:39
Northeast Airlines was
the only company I heard of
32
99180
2736
ノースイースト航空は
聞いたことのある会社のなかで唯一
01:41
that was selling for less
than five dollars a share.
33
101940
2696
5ドル以下の株価で販売されていたので
01:44
(Laughter)
34
104660
1976
(笑)
01:46
And I figured I could buy more shares,
35
106660
1856
そして もっと株を買って
01:48
and if it went up, I'd make more money.
36
108540
2096
株価が上がれば もっと儲かる
と思いました
01:50
So, it was a dumb strategy, right?
37
110660
2840
馬鹿な戦略でしょう
01:54
But I tripled my money,
38
114180
1456
でも資産は3倍に増えました
01:55
and I tripled my money
because I got lucky.
39
115660
2120
ツキが良かったお陰でした
01:58
The company was about to go bankrupt,
40
118340
1816
その会社は倒産直前でしたが
02:00
but some other company acquired it,
41
120180
2096
他の会社が買収し
02:02
and I tripled my money.
42
122300
1456
資産はまた3倍に増え
02:03
And I was hooked.
43
123780
1200
私は夢中になりました
02:05
And I thought, "This game is easy."
44
125540
2280
「このゲームは簡単だな」
と思いました
02:09
With time,
45
129020
1216
でも時間とともに
02:10
I learned this game is anything but easy.
46
130260
1960
このゲームが全く簡単では
無い事を学びました
02:12
In order to be an effective investor,
47
132700
2136
優秀な投資家であるためには
02:14
one has to bet against the consensus
48
134860
2896
世間一般の考えに反して賭け
02:17
and be right.
49
137780
1256
正解しなければなりません
02:19
And it's not easy to bet
against the consensus and be right.
50
139060
2856
世間一般の考えと逆に賭けて
正解するのは難しいものです
02:21
One has to bet against
the consensus and be right
51
141940
2336
市場と逆に賭け
かつ正解しなければならないのは
02:24
because the consensus
is built into the price.
52
144300
2640
世の中の考えが
株価に折り込まれているためです
02:27
And in order to be an entrepreneur,
53
147940
2456
そして起業家として成功するためには
02:30
a successful entrepreneur,
54
150420
1616
02:32
one has to bet against
the consensus and be right.
55
152060
3480
世間一般の考えと逆に賭けて
正しくなければなりません
02:37
I had to be an entrepreneur
and an investor --
56
157220
2936
私は起業家であり投資家であり
02:40
and what goes along with that
is making a lot of painful mistakes.
57
160180
4200
それには多くの手酷い間違いが伴います
02:45
So I made a lot of painful mistakes,
58
165260
2816
それで私はたくさんの手痛い間違いをして
02:48
and with time,
59
168100
1256
次第に
02:49
my attitude about those mistakes
began to change.
60
169380
2960
間違えるということについての考え方が
変わり始めました
02:52
I began to think of them as puzzles.
61
172980
2096
それをパズルのようなものだと
考え始めたんです
02:55
That if I could solve the puzzles,
62
175100
1936
私がパズルを解くことができれば
02:57
they would give me gems.
63
177060
1440
宝石がもらえます
02:58
And the puzzles were:
64
178980
1656
そしてパズルとは
03:00
What would I do differently in the future
so I wouldn't make that painful mistake?
65
180660
3880
同じ手痛いミスをしないで済むように
取るべき一手を見つけるというものでした
03:05
And the gems were principles
66
185100
2576
そして宝石とは「原則」でした
03:07
that I would then write down
so I would remember them
67
187700
3136
忘れないよう書き留めておき
03:10
that would help me in the future.
68
190860
1572
将来私を導いてくれるものです
03:12
And because I wrote them down so clearly,
69
192820
2696
私はそれらをとてもはっきりと
書き記していたので
03:15
I could then --
70
195540
1336
私は
03:16
eventually discovered --
71
196900
1576
最終的に 原則を発見して
03:18
I could then embed them into algorithms.
72
198500
3760
それらをアルゴリズムに組み込みました
03:23
And those algorithms
would be embedded in computers,
73
203220
3456
そしてアルゴリズムは
コンピューターに組み込まれ
03:26
and the computers would
make decisions along with me;
74
206700
3336
そしてコンピューターは
私と同じように意思決定を行いました
03:30
and so in parallel,
we would make these decisions.
75
210060
3136
私たちは並行して決断していくのです
03:33
And I could see how those decisions
then compared with my own decisions,
76
213220
3976
私はこれらの決断が
私自身の決断と比較して
03:37
and I could see that
those decisions were a lot better.
77
217220
3096
遥かに良いものだったと分かりました
03:40
And that was because the computer
could make decisions much faster,
78
220340
4736
コンピューターは
非常に迅速な意思決定を行うことができるので
03:45
it could process a lot more information
79
225100
2256
より多くの情報を処理でき
03:47
and it can process decisions much more --
80
227380
3400
意思決定処理を遥かに—
03:51
less emotionally.
81
231700
1200
理性的に行えます
03:54
So it radically improved
my decision-making.
82
234580
3920
私の意思決定プロセスは
根本的に改善されました
04:00
Eight years after I started Bridgewater,
83
240260
4896
私がブリッジウォーター社を
立ち上げて8年後
04:05
I had my greatest failure,
84
245180
1536
人生最大の失敗を経験しました
04:06
my greatest mistake.
85
246740
1200
私の最大のミスです
04:09
It was late 1970s,
86
249500
2136
それは1970年代後半のことでした
04:11
I was 34 years old,
87
251660
1976
私は34歳で
04:13
and I had calculated that American banks
88
253660
3656
アメリカの銀行は新興国へ
04:17
had lent much more money
to emerging countries
89
257340
2856
返済能力を遥かに超えるお金を
貸しており
04:20
than those countries
were going to be able to pay back
90
260220
2816
大恐慌以来 最大の債務危機が
04:23
and that we would have
the greatest debt crisis
91
263060
2696
来るだろうと考えていました
04:25
since the Great Depression.
92
265780
1360
04:28
And with it, an economic crisis
93
268020
2216
それから経済危機と
04:30
and a big bear market in stocks.
94
270260
2040
弱気市場が続くだろう—
04:33
It was a controversial view at the time.
95
273500
2000
それは当時 物議を醸した見立てでした
04:35
People thought it was
kind of a crazy point of view.
96
275980
2440
人々はそれが突拍子も無いと考えました
04:39
But in August 1982,
97
279300
2216
しかし1982年8月
04:41
Mexico defaulted on its debt,
98
281540
1960
メキシコの財政が破綻し
04:44
and a number of other countries followed.
99
284340
2256
多くの国々がそれに続き
04:46
And we had the greatest debt crisis
since the Great Depression.
100
286620
3400
そして我々は大恐慌以来の
最悪の債務危機に陥りました
04:50
And because I had anticipated that,
101
290900
2776
私はそれを予想していたので
04:53
I was asked to testify to Congress
and appear on "Wall Street Week,"
102
293700
4336
連邦議会で証言を求められ
『ウォール・ストリート・ウィーク』に出演し
04:58
which was the show of the time.
103
298060
1976
時の話題となりました
05:00
Just to give you a flavor of that,
I've got a clip here,
104
300060
2936
当時 どんな感じだったか
05:03
and you'll see me in there.
105
303020
1920
私のビデオをご覧ください
05:06
(Video) Mr. Chairman, Mr. Mitchell,
106
306300
1696
(ビデオ)「議長 ミッチェルさん
05:08
it's a great pleasure and a great honor
to be able to appear before you
107
308020
3376
経済の問題点を検討するため
05:11
in examination with what
is going wrong with our economy.
108
311420
3480
このように皆さんの前に立てることは光栄です
05:15
The economy is now flat --
109
315460
1936
経済は今失速し
05:17
teetering on the brink of failure.
110
317420
2136
失敗の危機に瀕してぐらついています」
05:19
Martin Zweig: You were recently
quoted in an article.
111
319580
2496
(マーティン・ツバイク)
「最近の ある記事によりますと
05:22
You said, "I can say this
with absolute certainty
112
322100
2336
あなたはこう言ったそうですね
『絶対の自信がある
05:24
because I know how markets work."
113
324460
1616
市場がどう動くかは分かっている』」
05:26
Ray Dalio: I can say
with absolute certainty
114
326100
2096
(レイ・ダリオ)
「私は絶対の確信を持っています
05:28
that if you look at the liquidity base
115
328220
1856
企業と
05:30
in the corporations
and the world as a whole,
116
330100
3376
世界全体の流動性ベースに目を向けると
05:33
that there's such reduced
level of liquidity
117
333500
2096
流動性レベルがかなり減少していて
05:35
that you can't return
to an era of stagflation."
118
335620
3216
スタグフレーションの時代へ
戻ることは無いと考えます」
05:38
I look at that now, I think,
"What an arrogant jerk!"
119
338860
3096
私は今これを見ると
「何て思い上がったヤツだ!」と思いますよ
05:41
(Laughter)
120
341980
2000
(笑)
05:45
I was so arrogant, and I was so wrong.
121
345580
2456
私はあまりに傲慢で間違っていました
05:48
I mean, while the debt crisis happened,
122
348060
2576
債務危機が起こった一方で
05:50
the stock market and the economy
went up rather than going down,
123
350660
3976
株式市場と経済はむしろ上向き
05:54
and I lost so much money
for myself and for my clients
124
354660
5016
そして私は自分と顧客の
莫大な資産を失いました
05:59
that I had to shut down
my operation pretty much,
125
359700
3416
操業をほぼ停止しなければならず
06:03
I had to let almost everybody go.
126
363140
1880
社員のほとんどを解雇しました
06:05
And these were like extended family,
127
365460
1736
彼らは親戚のようなものだったので
06:07
I was heartbroken.
128
367220
1616
私は悲嘆に暮れました
06:08
And I had lost so much money
129
368860
1816
資産をほとんど失ってしまい
06:10
that I had to borrow
4,000 dollars from my dad
130
370700
3336
父から4千ドルを借金して
06:14
to help to pay my family bills.
131
374060
1920
家族を養いました
06:16
It was one of the most painful
experiences of my life ...
132
376660
3160
これは人生の中でも
最も苦しい経験の一つでしたが
06:21
but it turned out to be
one of the greatest experiences of my life
133
381060
3776
人生における
最高の経験の一つでもありました
06:24
because it changed my attitude
about decision-making.
134
384860
2680
意思決定についての考え方を
改められたからです
06:28
Rather than thinking, "I'm right,"
135
388180
3056
「自分は正しい」と考えるよりも
06:31
I started to ask myself,
136
391260
1576
こう自問し始めました
06:32
"How do I know I'm right?"
137
392860
1800
「自分が正しいと思う根拠は?」
06:36
I gained a humility that I needed
138
396300
1936
私は自分の大胆さとの
06:38
in order to balance my audacity.
139
398260
2560
バランスを取るために必要だった
謙虚さを手に入れました
06:41
I wanted to find the smartest
people who would disagree with me
140
401700
4216
私は 自分と意見を異にする
優秀な人たちを探し
06:45
to try to understand their perspective
141
405940
1896
彼らの視点を理解し
06:47
or to have them
stress test my perspective.
142
407860
2600
私の考えをストレステスト
してもらおうと考えました
06:51
I wanted to make an idea meritocracy.
143
411220
2776
アイデアの能力主義を作りたかったんです
06:54
In other words,
144
414020
1216
言い換えると
06:55
not an autocracy in which
I would lead and others would follow
145
415260
3816
私が皆を率いる独裁ではなく
06:59
and not a democracy in which everybody's
points of view were equally valued,
146
419100
3616
そして皆の意見が等しく
評価される民主主義でもなく
07:02
but I wanted to have an idea meritocracy
in which the best ideas would win out.
147
422740
5096
最善のアイデアが勝ち残る
アイデアの能力主義を実現したかったんです
07:07
And in order to do that,
148
427860
1256
そのためには
07:09
I realized that we would need
radical truthfulness
149
429140
3576
完全な率直さと徹底的な透明性が
必要だということに
07:12
and radical transparency.
150
432740
1616
気付きました
07:14
What I mean by radical truthfulness
and radical transparency
151
434380
3856
完全な率直さと徹底的な透明性とは
07:18
is people needed to say
what they really believed
152
438260
2656
誰もが自らが信ずるところを述べ
07:20
and to see everything.
153
440940
2000
全ての情報を知ると言う事です
07:23
And we literally
tape almost all conversations
154
443300
3936
私たちは文字通りほぼすべての会話を録画し
07:27
and let everybody see everything,
155
447260
1616
皆に全てを見せます
07:28
because if we didn't do that,
156
448900
1416
そうしなければ
07:30
we couldn't really have
an idea meritocracy.
157
450340
3080
アイデアの能力主義は実現できません
07:34
In order to have an idea meritocracy,
158
454580
3696
アイデアの能力主義を実現するために
07:38
we have let people speak
and say what they want.
159
458300
2376
皆が自由に意見を述べられる風土にしました
07:40
Just to give you an example,
160
460700
1376
1例を紹介しましょう
07:42
this is an email from Jim Haskel --
161
462100
2696
これはジム・ハスケルからのメールです
07:44
somebody who works for me --
162
464820
1376
彼は私の部下ですが—
07:46
and this was available
to everybody in the company.
163
466220
3376
会社で皆に公開されたものです
07:49
"Ray, you deserve a 'D-'
164
469620
2536
「今日の会議での あなたは
07:52
for your performance
today in the meeting ...
165
472180
2256
60点でしたよ
07:54
you did not prepare at all well
166
474460
1696
十分に準備していませんでしたね
07:56
because there is no way
you could have been that disorganized."
167
476180
3560
そうでなければ
あれ程 要領悪く振舞わないでしょう」
08:01
Isn't that great?
168
481340
1216
いいでしょう?
08:02
(Laughter)
169
482580
1216
(笑)
08:03
That's great.
170
483820
1216
これは素晴らしい事です
08:05
It's great because, first of all,
I needed feedback like that.
171
485060
2936
なぜなら私にはそんなフィードバックが
必要だったからです
08:08
I need feedback like that.
172
488020
1616
こんなフィードバックが必要なんです
08:09
And it's great because if I don't let Jim,
and people like Jim,
173
489660
3456
それに ジムのような人々に
意見を述べる機会を
08:13
to express their points of view,
174
493140
1576
与えなかったら
08:14
our relationship wouldn't be the same.
175
494740
2056
私たちの関係は
違ったものになっていたでしょう
08:16
And if I didn't make that public
for everybody to see,
176
496820
3056
そしてそれを皆が見られる形で
公開しなかったら
08:19
we wouldn't have an idea meritocracy.
177
499900
1960
アイデアの能力主義は
実現しなかったでしょう
08:23
So for that last 25 years
that's how we've been operating.
178
503580
3280
これが過去25年間の私たちのやり方です
08:27
We've been operating
with this radical transparency
179
507460
3056
私たちはこの徹底的な透明性をもって
運営してきました
08:30
and then collecting these principles,
180
510540
2296
そしてこれらの原則を集め
08:32
largely from making mistakes,
181
512860
2056
主に失敗の経験を基に —
08:34
and then embedding
those principles into algorithms.
182
514940
4416
その後これらの原則を
アルゴリズムに落とし込みます
08:39
And then those algorithms provide --
183
519380
2696
そして これらのアルゴリズムのお陰で —
08:42
we're following the algorithms
184
522100
2016
私たちは 自らも考えながらも
08:44
in parallel with our thinking.
185
524140
1440
アルゴリズムに従っています
08:47
That has been how we've run
the investment business,
186
527100
3176
私たちは 今までこの方法で
投資事業を行ってきました
08:50
and it's how we also deal
with the people management.
187
530300
2736
これは私たちの人材管理の手法でもあります
08:53
In order to give you a glimmer
into what this looks like,
188
533060
3736
これをわずかでも体験して頂くために
08:56
I'd like to take you into a meeting
189
536820
2336
実際の会議で
08:59
and introduce you to a tool of ours
called the "Dot Collector"
190
539180
3136
私たちの助手を務めるツール
「Dot Collector」の様子をご紹介します
09:02
that helps us do this.
191
542340
1280
09:07
A week after the US election,
192
547460
2176
大統領選挙の1週間後
09:09
our research team held a meeting
193
549660
2096
私たちの研究チームは会議で
09:11
to discuss what a Trump presidency
would mean for the US economy.
194
551780
3320
米国経済にとってトランプ大統領が
何を意味するかを議論しました
09:15
Naturally, people had
different opinions on the matter
195
555820
2856
当然のことながら
その問題には様々な意見があり
09:18
and how we were
approaching the discussion.
196
558700
2040
議論の進め方についても
意見は分かれました
09:21
The "Dot Collector" collects these views.
197
561660
2776
「Dot Collector」は
これらの意見を収集します
09:24
It has a list of a few dozen attributes,
198
564460
2296
それには数十の属性が列挙されていて
09:26
so whenever somebody thinks something
about another person's thinking,
199
566780
4016
誰かが他の人の考えについて
何か意見がある際に
09:30
it's easy for them
to convey their assessment;
200
570820
2936
その評価を簡単に伝えられます
09:33
they simply note the attribute
and provide a rating from one to 10.
201
573780
4520
単に属性を選び
1から10までで採点をすれば良いのです
09:39
For example, as the meeting began,
202
579340
2256
たとえば会議が始まってから
09:41
a researcher named Jen rated me a three --
203
581620
3120
ジェンという名前の研究者は
私に3点を付けました
09:45
in other words, badly --
204
585460
2016
ひどい評価です
09:47
(Laughter)
205
587500
1376
(笑)
09:48
for not showing a good balance
of open-mindedness and assertiveness.
206
588900
4160
私が聞く耳を持つオープンさと自己主張の
バランスを取れなかったからです
09:53
As the meeting transpired,
207
593900
1456
会議が進むと
09:55
Jen's assessments of people
added up like this.
208
595380
3240
メンバーに対するジェンの評価は
このようになりました
09:59
Others in the room
have different opinions.
209
599740
2176
その他の社員は其々
異なる意見を持っています
10:01
That's normal.
210
601940
1216
至極普通のことです
10:03
Different people are always
going to have different opinions.
211
603180
2920
人々は常に色々な意見を持っているものです
10:06
And who knows who's right?
212
606620
1400
誰が正しいかなど分かりません
10:09
Let's look at just what people thought
about how I was doing.
213
609060
3440
他のメンバーの
私に対する評価を見てみましょう
10:13
Some people thought I did well,
214
613420
2216
一部の人は良い評価をしましたが
10:15
others, poorly.
215
615660
1200
他の人は悪い評価を下しました
10:17
With each of these views,
216
617900
1336
それぞれの評価について
10:19
we can explore the thinking
behind the numbers.
217
619260
2320
その数字の根拠となる理由を
確認することができます
10:22
Here's what Jen and Larry said.
218
622340
2160
これはジェンとラリーの意見です
10:25
Note that everyone
gets to express their thinking,
219
625580
2616
気づいて頂きたいのは
皆自分の考えを表現できることです
10:28
including their critical thinking,
220
628220
1656
彼らの批判的意見も含め
10:29
regardless of their position
in the company.
221
629900
2120
会社でのポジションにかかわらず
10:32
Jen, who's 24 years old
and right out of college,
222
632940
3096
大学を卒業したばかりの24歳のジェンも
10:36
can tell me, the CEO,
that I'm approaching things terribly.
223
636060
2840
物事の見方がひどくマズイと
CEOの私に伝えることができます
10:40
This tool helps people
both express their opinions
224
640300
3776
このツールによって
誰もが 自分の意見を伝えられると同時に
10:44
and then separate themselves
from their opinions
225
644100
3096
自分の意見から離れて
より高い見地から
10:47
to see things from a higher level.
226
647220
2040
物事を見ることが
できるようになります
10:50
When Jen and others shift their attentions
from inputting their own opinions
227
650460
4896
ジェンや同僚が
自分の意見を入力することから
10:55
to looking down on the whole screen,
228
655380
2576
画面全体へと注意を移すと
10:57
their perspective changes.
229
657980
1720
彼らの視点は変化します
11:00
They see their own opinions
as just one of many
230
660500
3136
自分の意見を多くの意見の中の
ひとつとして把握し
11:03
and naturally start asking themselves,
231
663660
2536
そして自然と こう自分に問いかけます
11:06
"How do I know my opinion is right?"
232
666220
2000
「自分の意見が正しいという根拠は?」
11:09
That shift in perspective is like going
from seeing in one dimension
233
669300
4056
その視点のシフトはまるで
今まで一次元だったものが
11:13
to seeing in multiple dimensions.
234
673380
2256
複数次元で見えるように
なるようなもので
11:15
And it shifts the conversation
from arguing over our opinions
235
675660
4096
自分の意見を主張することから
どの意見が最も良いかを決める
11:19
to figuring out objective criteria
for determining which opinions are best.
236
679780
4400
客観的な基準を見出すものへと
会話をシフトさせます
11:24
Behind the "Dot Collector"
is a computer that is watching.
237
684740
3600
「Dot Collebtor」の背後では
コンピューターが仔細に
11:28
It watches what all
these people are thinking
238
688940
2176
皆が何を考えているのかを観察していて
11:31
and it correlates that
with how they think.
239
691140
2576
それを どのように考えているかと
関連付けます
11:33
And it communicates advice
back to each of them based on that.
240
693740
3520
そしてコンピューターは
それらを基に人々にアドバイスを返します
11:38
Then it draws the data
from all the meetings
241
698340
3416
そして すべての会議からデータを集め
11:41
to create a pointilist painting
of what people are like
242
701780
3216
それぞれが どんな人で
どんな考え方をするのかを表す点描画が
11:45
and how they think.
243
705020
1240
出来上がります
11:46
And it does that guided by algorithms.
244
706980
2720
それをアルゴリズムが導きます
11:50
Knowing what people are like helps
to match them better with their jobs.
245
710620
3760
人々をより良く知ることで
その人により合った仕事をあてがえます
11:54
For example,
246
714940
1216
例えば
11:56
a creative thinker who is unreliable
247
716180
1736
信頼できない独創的な思想家なら
11:57
might be matched up with someone
who's reliable but not creative.
248
717940
3080
信頼できるが創造的では無い誰かと
マッチングされるかも知れません
12:02
Knowing what people are like
also allows us to decide
249
722100
3336
人々を理解できると
どのような責任を与えるか
12:05
what responsibilities to give them
250
725460
2256
決め易くなります
12:07
and to weigh our decisions
based on people's merits.
251
727740
3480
そして人々の能力に基づき
意思決定を比較検討します
12:11
We call it their believability.
252
731860
1600
それを彼らの信憑性と呼びます
12:14
Here's an example of a vote that we took
253
734380
1976
これは投票の一例です
12:16
where the majority
of people felt one way ...
254
736380
2840
過半数の人々の意見が
一方に収束していますが…
12:20
but when we weighed the views
based on people's merits,
255
740740
2936
しかし人々の能力に基づいて意見を測ると
12:23
the answer was completely different.
256
743700
1840
答えは完全に異なっていました
12:26
This process allows us to make decisions
not based on democracy,
257
746740
4576
このプロセスでは
民主主義や独裁に基づかずに
12:31
not based on autocracy,
258
751340
2136
人々の信憑性を考慮した
12:33
but based on algorithms that take
people's believability into consideration.
259
753500
5240
アルゴリズムに基づいて
意思決定を行うことができます
12:41
Yup, we really do this.
260
761340
1696
本当にこれを使ってるんですよ
12:43
(Laughter)
261
763060
3296
(笑)
12:46
We do it because it eliminates
262
766380
2856
このお陰で
12:49
what I believe to be
one of the greatest tragedies of mankind,
263
769260
4456
私が人類の最大の悲劇の一つだと信じる
12:53
and that is people arrogantly,
264
773740
2160
「傲慢さ」が排除できるからです
12:56
naïvely holding opinions
in their minds that are wrong,
265
776580
4456
単純にも心中に間違った意見を持ち
13:01
and acting on them,
266
781060
1256
それらに基づいて行動し
13:02
and not putting them out there
to stress test them.
267
782340
2760
それらのストレステストすらしない
そんな悲劇を排除できます
13:05
And that's a tragedy.
268
785820
1336
これは悲劇です
13:07
And we do it because it elevates ourselves
above our own opinions
269
787180
5416
この仕組みは自分の意見を超えたところへ
自分を高めてくれるので
13:12
so that we start to see things
through everybody's eyes,
270
792620
2896
私たちは
皆の目を通して 皆で物事を
13:15
and we see things collectively.
271
795540
1920
見始めるようになります
13:18
Collective decision-making is so much
better than individual decision-making
272
798180
4336
集団的意思決定は 上手く行われれば
個人の意思決定よりも
13:22
if it's done well.
273
802540
1200
優れています
13:24
It's been the secret sauce
behind our success.
274
804180
2616
これが私たちの成功の秘訣でした
13:26
It's why we've made
more money for our clients
275
806820
2176
そのお陰で私たちは
どのヘッジファンドよりも
13:29
than any other hedge fund in existence
276
809020
1936
多く顧客の資産を増やして来たのですし
13:30
and made money
23 out of the last 26 years.
277
810980
2720
今までの26年間のうち23年好調でした
13:35
So what's the problem
with being radically truthful
278
815700
4536
では 完全に率直でいることと
お互いに徹底的な透明性を保つことの
13:40
and radically transparent with each other?
279
820260
2240
問題点はどのようなものでしょう?
13:45
People say it's emotionally difficult.
280
825220
2080
人々はそんなことは感情的に難しいと言い
13:48
Critics say it's a formula
for a brutal work environment.
281
828060
4240
批評家はこれが残忍な労働環境を生む
方程式だと言い
13:53
Neuroscientists tell me it has to do
with how are brains are prewired.
282
833220
4856
神経科学者は
これは先天的な脳の配線と関係があると言います
13:58
There's a part of our brain
that would like to know our mistakes
283
838100
3216
脳のある部分には
積極的に自分の過ちを知り
14:01
and like to look at our weaknesses
so we could do better.
284
841340
3960
自らの弱みを直視することで
改善につなげる機能が備わっているそうです
14:05
I'm told that that's
the prefrontal cortex.
285
845940
2440
その部分とは前頭前皮質だそうです
14:08
And then there's a part of our brain
which views all of this as attacks.
286
848860
4856
そして 脳には
すべての刺激を攻撃として捉える部分―
14:13
I'm told that that's the amygdala.
287
853740
1960
扁桃体もあるそうです
14:16
In other words,
there are two you's inside you:
288
856260
3056
言い換えるとあなたの中には
2人のあなたがいるんです
14:19
there's an emotional you
289
859340
1416
感情的なあなたと
14:20
and there's an intellectual you,
290
860780
1776
知的なあなたです
14:22
and often they're at odds,
291
862580
1776
大抵 彼らは意見が対立していて
14:24
and often they work against you.
292
864380
1920
あなたに有害に働きます
14:26
It's been our experience
that we can win this battle.
293
866980
3736
ですが私たちは経験上
この戦いに勝つことができると考えます
14:30
We win it as a group.
294
870740
1320
それも一丸となることで
14:32
It takes about 18 months typically
295
872820
2336
たいてい18ヶ月もあれば
14:35
to find that most people
prefer operating this way,
296
875180
3056
ほとんどの人が このやり方が良いと
思うようになっています
14:38
with this radical transparency
297
878260
2016
不透明な環境で運営されるよりも
14:40
than to be operating
in a more opaque environment.
298
880300
3336
徹底的な透明性のもとでの運営が
良いと考えるようになります
14:43
There's not politics,
there's not the brutality of --
299
883660
4296
ここには
社内政治はなく
14:47
you know, all of that hidden,
behind-the-scenes --
300
887980
2376
いわゆる舞台裏で起こるような
酷い隠し事もありません
14:50
there's an idea meritocracy
where people can speak up.
301
890380
2936
あるのはアイデア能力主義で
誰でも発言することができます
14:53
And that's been great.
302
893340
1256
これまでの成果は上々です
14:54
It's given us more effective work,
303
894620
1656
このお陰で より効果的に仕事ができ
14:56
and it's given us
more effective relationships.
304
896300
2400
私たちはより効果的な関係構築が
できるようになりました
14:59
But it's not for everybody.
305
899220
1320
でも万能ではありません
15:01
We found something like
25 or 30 percent of the population
306
901500
2936
人口の25%〜30%には
これは向いていないと
15:04
it's just not for.
307
904460
1736
判明しました
15:06
And by the way,
308
906220
1216
ところで
15:07
when I say radical transparency,
309
907460
1816
徹底的な透明性と言っても
15:09
I'm not saying transparency
about everything.
310
909300
2336
何でもかんでも
大っぴらにするわけではありません
15:11
I mean, you don't have to tell somebody
that their bald spot is growing
311
911660
3816
つまり ハゲて来ているだとか
誰かの赤ちゃんが可愛くないとか
15:15
or their baby's ugly.
312
915500
1616
言う必要は無いんです
15:17
So, I'm just talking about --
313
917140
2096
だから私が言っているのは単に—
15:19
(Laughter)
314
919260
1216
(笑)
15:20
talking about the important things.
315
920500
2176
重要な事について話すと言う事です
15:22
So --
316
922700
1216
それで—
15:23
(Laughter)
317
923940
3200
(笑)
15:28
So when you leave this room,
318
928420
1416
ですから この会場を出たら
15:29
I'd like you to observe yourself
in conversations with others.
319
929860
4440
皆さんには 誰かと会話するときの自分を
観察して欲しいと思います
15:35
Imagine if you knew
what they were really thinking,
320
935180
3680
相手が本当に何を考えているか
15:39
and imagine if you knew
what they were really like ...
321
939580
2600
相手が本当にどんな人かが分かったら
15:43
and imagine if they knew
what you were really thinking
322
943660
3976
そして相手も
あなたが本当に何を考え どんな人か
15:47
and what were really like.
323
947660
1840
知っていたとしたら
どうでしょうか
15:49
It would certainly clear things up a lot
324
949980
2576
きっと たくさんの事がすっきりし
15:52
and make your operations
together more effective.
325
952580
2856
会社の運営がより効果的になるでしょう
15:55
I think it will improve
your relationships.
326
955460
2240
あなたの対人関係も
改善すると思います
15:58
Now imagine that you can have algorithms
327
958420
3296
そして そうしたあらゆる情報を
集めるのに役立ち
16:01
that will help you gather
all of that information
328
961740
3816
アイデアの能力主義に基づいて
あなたが意思決定するのを支援してくれる
16:05
and even help you make decisions
in an idea-meritocratic way.
329
965580
4560
アルゴリズムを手にすることを
想像してください
16:12
This sort of radical transparency
is coming at you
330
972460
4336
そのような徹底的な透明性の世界は
もうすぐそこに来ていて
16:16
and it is going to affect your life.
331
976820
1960
あなたの人生に影響を与えるでしょう
16:19
And in my opinion,
332
979420
2056
私の考えでは
素晴らしい世界になると思います
16:21
it's going to be wonderful.
333
981500
1336
16:22
So I hope it is as wonderful for you
334
982860
2336
あなたにとっても
これが素晴らしいことになると
16:25
as it is for me.
335
985220
1200
願っています
16:26
Thank you very much.
336
986980
1256
どうもありがとうございました
16:28
(Applause)
337
988260
4360
(拍手)
New videos
このウェブサイトについて
このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。