下の英語字幕をダブルクリックすると動画を再生できます。
翻訳: Hiroko Kawano
校正: Masaki Yanagishita
00:12
In ancient Greece,
0
12705
1545
古代ギリシアでは
00:15
when anyone from slaves to soldiers,
poets and politicians,
1
15256
3943
奴隷でも兵士でも詩人でも政治家でも
00:19
needed to make a big decision
on life's most important questions,
2
19223
4004
人生で最高に重要な問いに対して
大きな決断をしなければならない時 —
00:23
like, "Should I get married?"
3
23251
1391
例えば
「結婚すべきか?」
00:24
or "Should we embark on this voyage?"
4
24666
1857
あるいは
「この航海を始めるべきか?」
00:26
or "Should our army
advance into this territory?"
5
26547
2928
あるいは
「自軍はこの地域に進出すべきか?」
00:29
they all consulted the oracle.
6
29499
2579
「巫女(オラクル)」に伺いを立てました
00:32
So this is how it worked:
7
32840
1440
やり方はこうです
00:34
you would bring her a question
and you would get on your knees,
8
34304
3112
巫女に質問してひざまずくと
00:37
and then she would go into this trance.
9
37440
1871
巫女はトランス状態となります
00:39
It would take a couple of days,
10
39335
1549
2、3日経つと
00:40
and then eventually
she would come out of it,
11
40908
2163
最後に 巫女が正気に戻って
00:43
giving you her predictions as your answer.
12
43095
2536
答えとして予言をしました
00:46
From the oracle bones of ancient China
13
46730
2566
古代中国の 「占い(オラクル)」の骨から
00:49
to ancient Greece to Mayan calendars,
14
49320
2345
古代ギリシアやマヤ暦まで
00:51
people have craved for prophecy
15
51689
2296
人々は予言を切望してきました
00:54
in order to find out
what's going to happen next.
16
54009
3137
次に何が起きるか
知るためでした
00:58
And that's because we all want
to make the right decision.
17
58336
3239
私たちは皆 正しい決断を
下したいと願うからです
01:01
We don't want to miss something.
18
61599
1545
見落したくないのです
01:03
The future is scary,
19
63712
1743
未来は怖いので
01:05
so it's much nicer
knowing that we can make a decision
20
65479
2717
結果に対して なんらかの保証があって
決断できると分れば
01:08
with some assurance of the outcome.
21
68220
1982
すごくありがたいことなのです
01:10
Well, we have a new oracle,
22
70899
1611
さて私たちには
新しい「オラクル」があります
01:12
and it's name is big data,
23
72534
2145
その名も「ビッグデータ」や
01:14
or we call it "Watson"
or "deep learning" or "neural net."
24
74703
3939
「ワトソン」「ディープラーニング」
「ニューラルネット」呼び方は様々です
01:19
And these are the kinds of questions
we ask of our oracle now,
25
79160
4012
私たちが「オラクル」に 尋ねる問いは
例えば
01:23
like, "What's the most efficient way
to ship these phones
26
83196
3922
「中国からスウェーデンに
スマホを発送するための
01:27
from China to Sweden?"
27
87142
1823
一番効率の良い方法は?」
01:28
Or, "What are the odds
28
88989
1800
あるいは「私の子が
01:30
of my child being born
with a genetic disorder?"
29
90813
3363
遺伝性疾患を持って生まれてくる確率は?」
01:34
Or, "What are the sales volume
we can predict for this product?"
30
94772
3244
あるいは
「この製品の 売り上げ予想は?」などです
01:39
I have a dog. Her name is Elle,
and she hates the rain.
31
99928
4047
私の犬は エルという名前で
雨が大嫌いです
01:43
And I have tried everything
to untrain her.
32
103999
3306
雨嫌いをなくそうと
あらゆることをしました
01:47
But because I have failed at this,
33
107329
2771
でも 失敗に終わったので
01:50
I also have to consult
an oracle, called Dark Sky,
34
110124
3286
私も「ダークスカイ」というアプリの
「予測(オラクル)」に頼らねばなりません
01:53
every time before we go on a walk,
35
113434
1635
散歩前にいつも
01:55
for very accurate weather predictions
in the next 10 minutes.
36
115093
3577
今から10分間の正確な
天気予想を調べるのです
02:01
She's so sweet.
37
121355
1303
とても可愛い犬です
02:03
So because of all of this,
our oracle is a $122 billion industry.
38
123647
5707
このような用向きのため
私たちの予測は1220億ドルの産業です
02:09
Now, despite the size of this industry,
39
129826
3376
巨大な産業にも関わらず
02:13
the returns are surprisingly low.
40
133226
2456
利益は驚くほど低いです
02:16
Investing in big data is easy,
41
136162
2494
ビッグデータへの投資は容易ですが
02:18
but using it is hard.
42
138680
1933
活用するのは困難です
02:21
Over 73 percent of big data projects
aren't even profitable,
43
141801
4040
ビッグデータを使ったプロジェクトの
73%以上は 赤字で
02:25
and I have executives
coming up to me saying,
44
145865
2431
重役が私の所にやってきて
こう言います
02:28
"We're experiencing the same thing.
45
148320
1789
「私たちも同じ経験をしている
02:30
We invested in some big data system,
46
150133
1753
ビッグデータのシステムに投資したが
02:31
and our employees aren't making
better decisions.
47
151910
2968
従業員たちは良い決定ができない
02:34
And they're certainly not coming up
with more breakthrough ideas."
48
154902
3162
さらにブレークスルーになるような
アイデアも出てこない」と
02:38
So this is all really interesting to me,
49
158734
3184
これは全て実に私にとって興味深いことです
02:41
because I'm a technology ethnographer.
50
161942
2010
私は テクノロジー・エスノグラファー
(IT民族誌学者)だからです
02:44
I study and I advise companies
51
164450
2564
私は人がテクノロジーを
利用するパターンについて
02:47
on the patterns
of how people use technology,
52
167038
2483
研究し 企業に助言していて
02:49
and one of my interest areas is data.
53
169545
2678
私が関心をもつ分野の一つが
データなのです
02:52
So why is having more data
not helping us make better decisions,
54
172247
5193
得られるデータが増えても
より良い決定の助けにならないのはなぜか?
02:57
especially for companies
who have all these resources
55
177464
2783
こういったビッグデータの
システムに投資するための
03:00
to invest in these big data systems?
56
180271
1736
あらゆるリソースを持つ
企業にとっては特にそうです
03:02
Why isn't it getting any easier for them?
57
182031
2398
どうして彼らにとって
簡単にならないのか?
03:05
So, I've witnessed the struggle firsthand.
58
185810
2634
さて 私はこのような葛藤を
直接見てきました
03:09
In 2009, I started
a research position with Nokia.
59
189194
3484
2009年に 私は
ノキアで調査研究の仕事を始めました
03:13
And at the time,
60
193052
1158
そして当時
03:14
Nokia was one of the largest
cell phone companies in the world,
61
194234
3158
ノキアは世界で最大手の
携帯電話会社であり
03:17
dominating emerging markets
like China, Mexico and India --
62
197416
3202
中国、メキシコ、インドなどの
新興市場を支配し —
03:20
all places where I had done
a lot of research
63
200642
2502
これら全ての国において
低所得層の人が
03:23
on how low-income people use technology.
64
203168
2676
どのようにテクノロジーを利用するか
調査研究をしました
03:25
And I spent a lot of extra time in China
65
205868
2330
また非正規経済を知るために
03:28
getting to know the informal economy.
66
208222
2592
特に中国には時間をかけました
03:30
So I did things like working
as a street vendor
67
210838
2401
そこで 私は 建設労働者に
点心を売る
03:33
selling dumplings to construction workers.
68
213263
2574
露天商をしました
03:35
Or I did fieldwork,
69
215861
1358
また フィールドワークで
03:37
spending nights and days
in internet cafés,
70
217243
2958
何日も夜も昼もネットカフェで過ごし
中国の若者と出歩いたりして
03:40
hanging out with Chinese youth,
so I could understand
71
220225
2546
若者が ゲームや携帯電話を
どう利用しているか
03:42
how they were using
games and mobile phones
72
222795
2284
田舎から都市部への移動時に
携帯をどう使うかを
03:45
and using it between moving
from the rural areas to the cities.
73
225103
3370
理解することもしました
03:50
Through all of this qualitative evidence
that I was gathering,
74
230155
3927
こういった 自分が集めた
質的証拠の全てを通して
03:54
I was starting to see so clearly
75
234106
2824
私にはっきりと見え始めたのは
03:56
that a big change was about to happen
among low-income Chinese people.
76
236954
4472
中国の低所得者層に まさに
大きな変化が起ころうとしていることでした
04:02
Even though they were surrounded
by advertisements for luxury products
77
242840
4367
彼らは様々な贅沢品の広告に
囲まれていましたが
04:07
like fancy toilets --
who wouldn't want one? --
78
247231
3495
例えば 高機能トイレなどは
誰もが欲しいと思いますよね?
04:10
and apartments and cars,
79
250750
2890
それとアパートや車などなど
04:13
through my conversations with them,
80
253664
1820
でも 彼らと会話して気づいたのですが
04:15
I found out that the ads
the actually enticed them the most
81
255508
3841
彼らが一番惹きつけられていた広告は
04:19
were the ones for iPhones,
82
259373
1996
iPhoneの広告で
04:21
promising them this entry
into this high-tech life.
83
261393
3052
ハイテク生活へのデビューを
約束する広告でした
04:25
And even when I was living with them
in urban slums like this one,
84
265289
3163
そして私がこんな 都会のスラムに
暮らしていた時でさえ
04:28
I saw people investing
over half of their monthly income
85
268476
2996
人々が 月収の半分以上を投じて
04:31
into buying a phone,
86
271496
1623
電話を買うのを目にしました
04:33
and increasingly, they were "shanzhai,"
87
273143
2302
そうして増えたのが「シャンザイ」という
04:35
which are affordable knock-offs
of iPhones and other brands.
88
275469
3388
iPhoneやその他のブランドの
安い模倣品でした
04:40
They're very usable.
89
280123
1625
かなり使い物になります
04:42
Does the job.
90
282710
1322
十分機能を果たします
04:44
And after years of living
with migrants and working with them
91
284570
5789
数年間 移動労働者と生活や仕事を共にして
04:50
and just really doing everything
that they were doing,
92
290383
3434
移動労働者がやることを
ほぼ全てやった後で
04:53
I started piecing
all these data points together --
93
293841
3597
私は 全てのデータポイントを
まとめ始めて—
04:57
from the things that seem random,
like me selling dumplings,
94
297462
3123
点心売りのような
バラバラに見えるものから
05:00
to the things that were more obvious,
95
300609
1804
携帯電話料金の
支払額の推移のような
05:02
like tracking how much they were spending
on their cell phone bills.
96
302437
3232
より明確なことまでをまとめ始めました
05:05
And I was able to create
this much more holistic picture
97
305693
2639
そして
何が起ころうとしているかの
05:08
of what was happening.
98
308356
1156
全体像を作ることができました
05:09
And that's when I started to realize
99
309536
1722
そのときに分かり始めたことがあります
05:11
that even the poorest in China
would want a smartphone,
100
311282
3509
それは 中国では 底辺所得者層の人々もが
スマホを欲しいと考えていて
05:14
and that they would do almost anything
to get their hands on one.
101
314815
4985
一台手に入れるためなら
ほぼ何でもするということです
05:20
You have to keep in mind,
102
320893
2404
思い出してください
05:23
iPhones had just come out, it was 2009,
103
323321
3084
iPhoneが出たての2009年 つまり
05:26
so this was, like, eight years ago,
104
326429
1885
約8年前
05:28
and Androids had just started
looking like iPhones.
105
328338
2437
iPhoneのような見た目の
アンドロイド携帯も登場しました
05:30
And a lot of very smart
and realistic people said,
106
330799
2507
賢くて 現実的な人たちの
多くがこう言っていました
05:33
"Those smartphones -- that's just a fad.
107
333330
2207
「スマホなんて 一時の流行にすぎない
05:36
Who wants to carry around
these heavy things
108
336063
2996
誰がこんな重いものを
持ち歩きたいと思うか?
05:39
where batteries drain quickly
and they break every time you drop them?"
109
339083
3487
バッテリだってすぐに切れるし
一度落としたら故障するのに」
05:44
But I had a lot of data,
110
344613
1201
でも 私は多くのデータを元に
05:45
and I was very confident
about my insights,
111
345838
2260
すごく自信を持って予見できました
05:48
so I was very excited
to share them with Nokia.
112
348122
2829
ワクワクしながら
その予見をノキアに知らせました
05:53
But Nokia was not convinced,
113
353152
2517
でも ノキアは懐疑的でした
05:55
because it wasn't big data.
114
355693
2335
それがビッグデータでは
なかったからです
05:58
They said, "We have
millions of data points,
115
358842
2404
「我々は何百万もの
データポイントを持っている
06:01
and we don't see any indicators
of anyone wanting to buy a smartphone,
116
361270
4247
けれど スマホを購入したいと
思う人の指標は見えないし
06:05
and your data set of 100,
as diverse as it is, is too weak
117
365541
4388
たった100件の
バラバラのデータでは弱すぎる
06:09
for us to even take seriously."
118
369953
1714
まともに取り上げるに値しない」と
06:12
And I said, "Nokia, you're right.
119
372728
1605
私は言いました
「御社のいう通りです
06:14
Of course you wouldn't see this,
120
374357
1560
スマートフォンがどういうものかを
06:15
because you're sending out surveys
assuming that people don't know
121
375941
3371
人が知らないという前提で
調査していれば
06:19
what a smartphone is,
122
379336
1159
当然 見えないでしょうね
06:20
so of course you're not going
to get any data back
123
380519
2366
だから当然 これから2年間で
スマホの購入を希望する人についての
06:22
about people wanting to buy
a smartphone in two years.
124
382909
2572
データを手にすることはありません
06:25
Your surveys, your methods
have been designed
125
385505
2118
御社の調査と手法は
既存のビジネスモデルを
06:27
to optimize an existing business model,
126
387647
2022
最適化するためのデザインですが
06:29
and I'm looking
at these emergent human dynamics
127
389693
2608
私が見ている人間の動態は
これから出てくるもので
06:32
that haven't happened yet.
128
392325
1354
まだ起きていない事象なんです
06:33
We're looking outside of market dynamics
129
393703
2438
私たちは市場力学の外側を見て
06:36
so that we can get ahead of it."
130
396165
1631
その先を行けるよう 努めています」と
06:39
Well, you know what happened to Nokia?
131
399193
2244
そして ノキアの結末は ご存知の通りです
06:41
Their business fell off a cliff.
132
401461
2365
業績は崖から落ちるように下がりました
06:44
This -- this is the cost
of missing something.
133
404611
3727
これは 大切なものを
見落としたことの代償です
06:48
It was unfathomable.
134
408983
1999
それは計り知れないものでした
06:51
But Nokia's not alone.
135
411823
1651
でもノキアだけではありませんでした
06:54
I see organizations
throwing out data all the time
136
414078
2581
様々な組織が いつもデータを
廃棄するのを見て来ました
06:56
because it didn't come from a quant model
137
416683
2561
理由は 定量モデルから
出たものではないとか
06:59
or it doesn't fit in one.
138
419268
1768
合致するモデルが
ないというものでした
07:02
But it's not big data's fault.
139
422039
2048
でもそれはビッグデータのせいではありません
07:04
It's the way we use big data;
it's our responsibility.
140
424762
3907
ビッグデータを 私たちがどう扱うかであり
私たちの責任です
07:09
Big data's reputation for success
141
429550
1911
ビッグデータを使用した成功例は
07:11
comes from quantifying
very specific environments,
142
431485
3759
ごく限定された環境の定量化に
基づいたものであり
07:15
like electricity power grids
or delivery logistics or genetic code,
143
435268
4913
送電網や物流システムや
遺伝子コードなど
07:20
when we're quantifying in systems
that are more or less contained.
144
440205
4318
ほぼ閉じたシステムを
定量化した場合です
07:24
But not all systems
are as neatly contained.
145
444547
2969
でも 全てのシステムが
きちんと閉じている訳ではありません
07:27
When you're quantifying
and systems are more dynamic,
146
447540
3258
より動的なシステムで
定量化を行う場合
07:30
especially systems
that involve human beings,
147
450822
3799
特にシステムに
人間が関与している場合は
07:34
forces are complex and unpredictable,
148
454645
2426
影響を与える要素は複雑で
予想不可能になり
07:37
and these are things
that we don't know how to model so well.
149
457095
3486
これらに関して
うまくモデル化する術がありません
07:41
Once you predict something
about human behavior,
150
461024
2813
人間の行動について 一旦何かを予想すると
07:43
new factors emerge,
151
463861
1855
新たなファクターが出現します
07:45
because conditions
are constantly changing.
152
465740
2365
なぜなら 常に条件は変化するからです
07:48
That's why it's a never-ending cycle.
153
468129
1803
そのため 終わりのない循環となります
07:49
You think you know something,
154
469956
1464
何かを理解したと思ったら
07:51
and then something unknown
enters the picture.
155
471444
2242
未知のものが 関与してきます
07:53
And that's why just relying
on big data alone
156
473710
3322
だから ビッグデータに頼るだけでは
07:57
increases the chance
that we'll miss something,
157
477056
2849
何かを見落とす可能性が高まる一方で
07:59
while giving us this illusion
that we already know everything.
158
479929
3777
全てが分かっているかのような
幻想が生まれるのです
08:04
And what makes it really hard
to see this paradox
159
484226
3856
このパラドックスに気付き 理解することが
非常に困難なのは
08:08
and even wrap our brains around it
160
488106
2659
08:10
is that we have this thing
that I call the quantification bias,
161
490789
3691
私が 「定量化バイアス」と呼ぶ
状況があるからです
08:14
which is the unconscious belief
of valuing the measurable
162
494504
3922
それは 測定可能なものを
測定不可能なものよりも重視するという
08:18
over the immeasurable.
163
498450
1594
無意識の信念です
08:21
And we often experience this at our work.
164
501042
3284
そして これは
私たちの仕事において ありがちな経験です
08:24
Maybe we work alongside
colleagues who are like this,
165
504350
2650
多分 私たちは
このような同僚の傍で働いているか
08:27
or even our whole entire
company may be like this,
166
507024
2428
会社全体がこのような状態
なのかもしれません
08:29
where people become
so fixated on that number,
167
509476
2546
そこでは人が数字に固執していて
08:32
that they can't see anything
outside of it,
168
512046
2067
目の前に証拠を突きつけられても
08:34
even when you present them evidence
right in front of their face.
169
514137
3948
それ以外のものを見ることができないのです
08:38
And this is a very appealing message,
170
518943
3371
定量化が とても訴えかけるメッセージなのは
08:42
because there's nothing
wrong with quantifying;
171
522338
2343
なぜなら そこに何ら間違いはなく
08:44
it's actually very satisfying.
172
524705
1430
実際 とても満足のいくことだからです
08:46
I get a great sense of comfort
from looking at an Excel spreadsheet,
173
526159
4362
ごく単純なエクセルの
スプレッドシートを見ても
08:50
even very simple ones.
174
530545
1401
私はとても心地よさを感じます
08:51
(Laughter)
175
531970
1014
(笑)
08:53
It's just kind of like,
176
533008
1152
ちょうどこんな感じです
08:54
"Yes! The formula worked. It's all OK.
Everything is under control."
177
534184
3504
「そう!数式がうまく働いたから大丈夫
全てうまくいっている」
08:58
But the problem is
178
538612
2390
でも問題なのは
09:01
that quantifying is addictive.
179
541026
2661
定量化には依存性があることです
09:03
And when we forget that
180
543711
1382
そのことを忘れて
09:05
and when we don't have something
to kind of keep that in check,
181
545117
3038
その確認を常に促す
何かを備えていなければ
09:08
it's very easy to just throw out data
182
548179
2118
数値で示せないからという理由で
09:10
because it can't be expressed
as a numerical value.
183
550321
2718
データを棄ててしまいがちです
09:13
It's very easy just to slip
into silver-bullet thinking,
184
553063
2921
あたかも 簡単な解決策が存在するかのような
09:16
as if some simple solution existed.
185
556008
2579
特効薬的な思考に陥るのは
非常に簡単なことです
09:19
Because this is a great moment of danger
for any organization,
186
559420
4062
これはどんな組織にとっても
危険な瞬間です
09:23
because oftentimes,
the future we need to predict --
187
563506
2634
しばしば 私たちが
予測しなければならない未来は
09:26
it isn't in that haystack,
188
566164
2166
干し草の山の中ではなく
09:28
but it's that tornado
that's bearing down on us
189
568354
2538
納屋の外で迫ってくる
09:30
outside of the barn.
190
570916
1488
竜巻そのものなのです
09:34
There is no greater risk
191
574780
2326
未知のものが見えないことほど
09:37
than being blind to the unknown.
192
577130
1666
大きなリスクはありません
09:38
It can cause you to make
the wrong decisions.
193
578820
2149
間違った結論に至りかねません
09:40
It can cause you to miss something big.
194
580993
1974
大きなものを見落とす結果になりかねません
09:43
But we don't have to go down this path.
195
583554
3101
でも この道を進まなくても良いのです
09:47
It turns out that the oracle
of ancient Greece
196
587273
3195
古代ギリシアの神託が
行く末を私たちに示す
09:50
holds the secret key
that shows us the path forward.
197
590492
3966
秘密の鍵を握っていることが分かりました
09:55
Now, recent geological research has shown
198
595474
2595
さて 最近の地質調査によると
09:58
that the Temple of Apollo,
where the most famous oracle sat,
199
598093
3564
もっとも有名な巫女が神託をもたらした
アポロの神殿は
10:01
was actually built
over two earthquake faults.
200
601681
3084
なんと 2つの地震断層の上に
建造されているのです
10:04
And these faults would release
these petrochemical fumes
201
604789
2886
そして これらの断層は地殻の下から
10:07
from underneath the Earth's crust,
202
607699
1685
原油由来の蒸気を放出し
10:09
and the oracle literally sat
right above these faults,
203
609408
3866
巫女は文字通り
この断層の真上に座して
10:13
inhaling enormous amounts
of ethylene gas, these fissures.
204
613298
3588
亀裂から放出された
大量のエチレンガスを吸い込んでいました
10:16
(Laughter)
205
616910
1008
10:17
It's true.
206
617942
1173
(笑)
実話ですよ
10:19
(Laughter)
207
619139
1017
(笑)
10:20
It's all true, and that's what made her
babble and hallucinate
208
620180
3509
実話であり このため巫女は
大声でわめきながら 幻覚を見て
10:23
and go into this trance-like state.
209
623713
1724
トランス状態になったのです
10:25
She was high as a kite!
210
625461
1770
彼女は凧のように舞い上がりました
10:27
(Laughter)
211
627255
4461
(笑)
10:31
So how did anyone --
212
631740
2779
どうしたら —
10:34
How did anyone get
any useful advice out of her
213
634543
3030
このような状態にある彼女から
有益な助言を
10:37
in this state?
214
637597
1190
受けることができたでしょうか?
10:39
Well, you see those people
surrounding the oracle?
215
639317
2381
巫女を取り囲む人たちを見てください
10:41
You see those people holding her up,
216
641722
1879
人々が彼女を抱え上げています
10:43
because she's, like, a little woozy?
217
643625
1717
彼女は少しふらついていますよね?
10:45
And you see that guy
on your left-hand side
218
645366
2308
そして左手の男性が 見えますが
10:47
holding the orange notebook?
219
647698
1598
彼はオレンジ色の手帳を持っていますよね?
10:49
Well, those were the temple guides,
220
649925
1730
彼らは 介添え人であり
10:51
and they worked hand in hand
with the oracle.
221
651679
3016
巫女と連携して働いていました
10:55
When inquisitors would come
and get on their knees,
222
655904
2516
質問者がきて 跪くと
10:58
that's when the temple guides
would get to work,
223
658444
2340
寺院の介添え人たちが
仕事に就く時です
11:00
because after they asked her questions,
224
660808
1864
彼らが巫女に質問した後
11:02
they would observe their emotional state,
225
662696
2001
彼らの感情的な状態を見て
11:04
and then they would ask them
follow-up questions,
226
664721
2324
補足的な質問をします
11:07
like, "Why do you want to know
this prophecy? Who are you?
227
667069
2834
例えば 「なぜこの予言が知りたいのか?
あなたは何者か?
11:09
What are you going to do
with this information?"
228
669927
2264
この情報で 何をするつもりか?」
などなど
11:12
And then the temple guides would take
this more ethnographic,
229
672215
3182
介添え人たちは
この答えを追加の民俗学的で
11:15
this more qualitative information,
230
675421
2156
定性的な情報として加味して
11:17
and interpret the oracle's babblings.
231
677601
2075
巫女のつぶやきを神託として
解釈しました
11:21
So the oracle didn't stand alone,
232
681248
2292
巫女が単独で神託を下したのではありません
11:23
and neither should our big data systems.
233
683564
2148
私たちのビッグデータもそうあるべきです
11:26
Now to be clear,
234
686450
1161
さて 誤解のないよう
11:27
I'm not saying that big data systems
are huffing ethylene gas,
235
687635
3459
私は ビッグデータのシステムが
エチレン酔いだなどとは言いません
11:31
or that they're even giving
invalid predictions.
236
691118
2353
全てが根拠のない予想だと
言うつもりもありません
11:33
The total opposite.
237
693495
1161
その全く反対です
11:34
But what I am saying
238
694680
2068
でも私が言っているのは
11:36
is that in the same way
that the oracle needed her temple guides,
239
696772
3832
神託を告げる巫女が
寺院の介添え人を必要とするのと同じく
11:40
our big data systems need them, too.
240
700628
2288
ビッグデータにも
介添え人が必要だということです
11:42
They need people like ethnographers
and user researchers
241
702940
4109
私が「シックデータ(濃密データ)」と呼ぶ
ものを収集できる ―
11:47
who can gather what I call thick data.
242
707073
2506
民俗学者やユーザーリサーチャーのような人が
必要です
11:50
This is precious data from humans,
243
710322
2991
これは 物語、感情、人間関係などの
11:53
like stories, emotions and interactions
that cannot be quantified.
244
713337
4102
人間に由来し 定量化できない
貴重なデータです
11:57
It's the kind of data
that I collected for Nokia
245
717463
2322
私がノキアのために収集した
データの類であり
11:59
that comes in in the form
of a very small sample size,
246
719809
2669
ごく小さなサンプルサイズという形で
手に入るデータですが
12:02
but delivers incredible depth of meaning.
247
722502
2955
信じられないくらい
深い意味を持っています
12:05
And what makes it so thick and meaty
248
725481
3680
濃密さと示唆に富んだデータを生むのは
12:10
is the experience of understanding
the human narrative.
249
730265
4029
人間の語りを理解する経験です
12:14
And that's what helps to see
what's missing in our models.
250
734318
3639
そしてそれこそが 現行モデルの中の
見落としを見つける助けとなります
12:18
Thick data grounds our business questions
in human questions,
251
738671
4045
シックデータはビジネス上の問いを
人間の問いに基づいたものとなし
12:22
and that's why integrating
big and thick data
252
742740
3562
だからこそ ビッグデータとシックデータを
統合することで
12:26
forms a more complete picture.
253
746326
1689
正しい全体像に近づきます
12:28
Big data is able to offer
insights at scale
254
748592
2881
ビッグデータが大規模な洞察をもたらし
12:31
and leverage the best
of machine intelligence,
255
751497
2647
機械知能を最大限活用できる一方で
12:34
whereas thick data can help us
rescue the context loss
256
754168
3572
シックデータは
ビッグデータを使えるようにした時に
12:37
that comes from making big data usable,
257
757764
2098
失われた文脈を取り戻して
12:39
and leverage the best
of human intelligence.
258
759886
2181
人的知能を最大限に活用するのに
役立ちます
12:42
And when you actually integrate the two,
that's when things get really fun,
259
762091
3552
この2つを実際に統合すると
本当に面白くなります
12:45
because then you're no longer
just working with data
260
765667
2436
なぜなら 単に自分の収集した
データを扱う以上のことが
12:48
you've already collected.
261
768127
1196
できるからです
12:49
You get to also work with data
that hasn't been collected.
262
769347
2737
未収集のデータを扱うことも
できるようになるのです
12:52
You get to ask questions about why:
263
772108
1719
なぜこんなことが起こるのかと
12:53
Why is this happening?
264
773851
1317
原因を問えるようになります
12:55
Now, when Netflix did this,
265
775598
1379
さて Netflixはこれを実現し
12:57
they unlocked a whole new way
to transform their business.
266
777001
3035
ビジネスを変容させる
全く新しい道を開拓しました
13:01
Netflix is known for their really great
recommendation algorithm,
267
781226
3956
Netflixは 非常に優れた
推薦アルゴリズムで知られていて
13:05
and they had this $1 million prize
for anyone who could improve it.
268
785206
4797
そのアルゴリズムを改良した者に
百万ドルの賞金を出しました
13:10
And there were winners.
269
790027
1314
賞金を獲得した人もいました
13:12
But Netflix discovered
the improvements were only incremental.
270
792075
4323
でも Netflixは 全ての改良は
漸増の過程であると気づきました
13:17
So to really find out what was going on,
271
797224
1964
そこで 何が起こっているかを見極めるため
13:19
they hired an ethnographer,
Grant McCracken,
272
799212
3741
Netflixは 民俗学者の
グラント・マクラッケンを雇って
13:22
to gather thick data insights.
273
802977
1546
シックデータによる洞察を
まとめさせました
13:24
And what he discovered was something
that they hadn't seen initially
274
804547
3924
彼が見つけたものは
最初は定量的なデータの中には
13:28
in the quantitative data.
275
808495
1355
見えていなかったものでした
13:30
He discovered that people loved
to binge-watch.
276
810892
2728
彼は 一気(イッキ)見が好まれること
を発見したのです
13:33
In fact, people didn't even
feel guilty about it.
277
813644
2353
実際 何ら罪悪感を感じることもなく
13:36
They enjoyed it.
278
816021
1255
楽しまれていました
13:37
(Laughter)
279
817300
1026
(笑)
13:38
So Netflix was like,
"Oh. This is a new insight."
280
818350
2356
Netflixは「おや これは新しい洞察だ」
みたいな感じでした
13:40
So they went to their data science team,
281
820730
1938
そこで データサイエンスの部署を使って
13:42
and they were able to scale
this big data insight
282
822692
2318
このシックデータの洞察を
スケールアップさせ
13:45
in with their quantitative data.
283
825034
2587
定量的なデータと突き合わせました
13:47
And once they verified it
and validated it,
284
827645
3170
彼らが一旦それをテストし効果を確かめると
13:50
Netflix decided to do something
very simple but impactful.
285
830839
4761
Netflixは とても単純ながらも
インパクトのある決定をしました
13:56
They said, instead of offering
the same show from different genres
286
836654
6492
ある番組を色々なジャンルから
提案するのをやめる
14:03
or more of the different shows
from similar users,
287
843170
3888
また 似たユーザーの観た別の番組を
提案するのもやめて その代わり
14:07
we'll just offer more of the same show.
288
847082
2554
ただ同じ番組を
どんどん見せて行こうというのです
14:09
We'll make it easier
for you to binge-watch.
289
849660
2105
「一気見」をしやすくしようと
言ったのです
14:11
And they didn't stop there.
290
851789
1486
そこで 更に
14:13
They did all these things
291
853299
1474
視聴経験全体をデザインし直すため
14:14
to redesign their entire
viewer experience,
292
854797
2959
あらゆる手段を尽くして
14:17
to really encourage binge-watching.
293
857780
1758
「一気見」を強く勧めたのです
14:20
It's why people and friends disappear
for whole weekends at a time,
294
860050
3241
そのため『マスター・オブ・ゼロ』などの
見逃し配信があると
14:23
catching up on shows
like "Master of None."
295
863315
2343
週末丸ごと
友人も人々も一斉に姿を消しました
14:25
By integrating big data and thick data,
they not only improved their business,
296
865682
4173
ビッグデータとシックデータを統合して
Netflixは自社の業績改善をしただけでなく
14:29
but they transformed how we consume media.
297
869879
2812
ユーザーのメディア消費方法をも
変貌させたのです
14:32
And now their stocks are projected
to double in the next few years.
298
872715
4552
そして今や Netflixの株価は
数年以内に倍増が予想されています
14:38
But this isn't just about
watching more videos
299
878100
3830
でもこれは
動画の視聴数やスマホ販売数が
14:41
or selling more smartphones.
300
881954
1620
増えるというだけではありません
14:43
For some, integrating thick data
insights into the algorithm
301
883963
4050
濃いデータの洞察をアルゴリズムに組み込む
ということは 人によっては
14:48
could mean life or death,
302
888037
2263
特に 社会の周縁に追いやられた者にとっては
14:50
especially for the marginalized.
303
890324
2146
生死を分ける結果になりかねません
14:53
All around the country,
police departments are using big data
304
893558
3434
国中で 警察がビッグデータを
14:57
for predictive policing,
305
897016
1963
予測による取り締まりに利用し
14:59
to set bond amounts
and sentencing recommendations
306
899003
3084
保釈金額や処罰勧告の設定を
15:02
in ways that reinforce existing biases.
307
902111
3147
既存のバイアスを増長するようなやり方で
行なっています
15:06
NSA's Skynet machine learning algorithm
308
906116
2423
NSAのSkynet機器の学習アルゴリズムは
15:08
has possibly aided in the deaths
of thousands of civilians in Pakistan
309
908563
5444
モバイル端末のメタデータの読み誤りから
15:14
from misreading cellular device metadata.
310
914031
2721
何千人ものパキスタン市民の死を
もたらした可能性があります
15:18
As all of our lives become more automated,
311
918951
3403
私たち生活全般が自動化するにつれ
15:22
from automobiles to health insurance
or to employment,
312
922378
3080
自動車から健康保険や雇用まで
15:25
it is likely that all of us
313
925482
2350
私たちは皆 定量化バイアスに
15:27
will be impacted
by the quantification bias.
314
927856
2989
影響を受ける可能性が大です
15:32
Now, the good news
is that we've come a long way
315
932792
2621
さて 良い知らせは
予測をするのに
15:35
from huffing ethylene gas
to make predictions.
316
935437
2450
エチレンガスの吸入から
ずいぶん遠くまで来たことです
15:37
We have better tools,
so let's just use them better.
317
937911
3070
ツールがより良くなったので
より良く使いましょう
15:41
Let's integrate the big data
with the thick data.
318
941005
2323
ビッグデータを
シックデータと統合しましょう
15:43
Let's bring our temple guides
with the oracles,
319
943352
2261
「オラクル」を補助する
介添え人を呼んで来ましょう
15:45
and whether this work happens
in companies or nonprofits
320
945637
3376
企業であれ 非利益団体であれ
行政であれ ソフトウェアであれ
15:49
or government or even in the software,
321
949037
2469
このシステムがどこで作動するにせよ
15:51
all of it matters,
322
951530
1792
全てが重要です
15:53
because that means
we're collectively committed
323
953346
3023
なぜなら こうすることの意味は
私たちが力を合わせて全力で
15:56
to making better data,
324
956393
2191
より良いデータ、より良いアルゴリズム
より良い計算結果、より良い意思決定を
15:58
better algorithms, better outputs
325
958608
1836
16:00
and better decisions.
326
960468
1643
目指すことだからです
16:02
This is how we'll avoid
missing that something.
327
962135
3558
こうすることで 私たちは大切なことを
見落とさずに済むでしょう
16:07
(Applause)
328
967042
3948
(拍手)
New videos
このウェブサイトについて
このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。