The human insights missing from big data | Tricia Wang

246,282 views ・ 2017-08-02

TED


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

Переводчик: Olga Gruzd Редактор: Natalia Ost
00:12
In ancient Greece,
0
12705
1545
В Древней Греции,
00:15
when anyone from slaves to soldiers, poets and politicians,
1
15256
3943
когда кому-либо — от рабов до воинов, поэтов и политиков —
00:19
needed to make a big decision on life's most important questions,
2
19223
4004
нужно было принять ключевое решение в самых важных жизненных вопросах,
00:23
like, "Should I get married?"
3
23251
1391
вроде: «Стоит ли мне жениться?»,
00:24
or "Should we embark on this voyage?"
4
24666
1857
или «Стоит ли отправляться в путь?»,
00:26
or "Should our army advance into this territory?"
5
26547
2928
или «Стоит ли нашим войскам наступать на эти земли?»,
00:29
they all consulted the oracle.
6
29499
2579
они всегда спрашивали совета у оракула, провидицы.
00:32
So this is how it worked:
7
32840
1440
Вот как это было:
00:34
you would bring her a question and you would get on your knees,
8
34304
3112
придя к ней с вопросом, люди вставали на одно колено,
00:37
and then she would go into this trance.
9
37440
1871
после чего она впадала в транс.
00:39
It would take a couple of days,
10
39335
1549
На это могло уйти два дня,
00:40
and then eventually she would come out of it,
11
40908
2163
и вот, наконец, она выходила из транса,
00:43
giving you her predictions as your answer.
12
43095
2536
и её ответом было предсказание.
00:46
From the oracle bones of ancient China
13
46730
2566
Начиная с гадальных костей Древнего Китая,
00:49
to ancient Greece to Mayan calendars,
14
49320
2345
оракулов Древней Греции и календарей Майя
00:51
people have craved for prophecy
15
51689
2296
люди нуждались в пророчествах,
00:54
in order to find out what's going to happen next.
16
54009
3137
чтобы узнать, что произойдёт дальше.
00:58
And that's because we all want to make the right decision.
17
58336
3239
И всё из-за того, что все мы хотим принять правильное решение.
01:01
We don't want to miss something.
18
61599
1545
Мы не хотим ничего упускать.
01:03
The future is scary,
19
63712
1743
Будущее пугает,
01:05
so it's much nicer knowing that we can make a decision
20
65479
2717
поэтому намного приятнее знать, что можно принять решение
01:08
with some assurance of the outcome.
21
68220
1982
с некой долей уверенности в результате.
01:10
Well, we have a new oracle,
22
70899
1611
И у нас появилась своя провидица,
01:12
and it's name is big data,
23
72534
2145
и имя её — «большие данные» [Big data],
01:14
or we call it "Watson" or "deep learning" or "neural net."
24
74703
3939
которую мы также называем Watson, «глубокое изучение» или «нейронная сеть».
01:19
And these are the kinds of questions we ask of our oracle now,
25
79160
4012
И вот какие вопросы мы задаём нашей провидице сегодня:
01:23
like, "What's the most efficient way to ship these phones
26
83196
3922
«Как наиболее эффективно переправить эти телефоны
01:27
from China to Sweden?"
27
87142
1823
из Китая в Швецию?»,
01:28
Or, "What are the odds
28
88989
1800
или «Каковы шансы родить
01:30
of my child being born with a genetic disorder?"
29
90813
3363
ребёнка с генетическим заболеванием?»,
01:34
Or, "What are the sales volume we can predict for this product?"
30
94772
3244
или «Каков прогноз по объёмам продаж для этого продукта?».
01:39
I have a dog. Her name is Elle, and she hates the rain.
31
99928
4047
У меня есть собака. Её зовут Эл, она терпеть не может дождь.
01:43
And I have tried everything to untrain her.
32
103999
3306
Я всё перепробовала, чтобы это исправить.
01:47
But because I have failed at this,
33
107329
2771
Но у меня ничего не вышло,
01:50
I also have to consult an oracle, called Dark Sky,
34
110124
3286
поэтому мне приходится обращаться к пророку по имени «прогноз погоды»
01:53
every time before we go on a walk,
35
113434
1635
перед каждым выходом на прогулку,
01:55
for very accurate weather predictions in the next 10 minutes.
36
115093
3577
чтобы получить самый точный прогноз на следующие 10 минут.
02:01
She's so sweet.
37
121355
1303
Она просто прелесть.
02:03
So because of all of this, our oracle is a $122 billion industry.
38
123647
5707
Из-за всего этого наша провидица стала 122-миллиардной индустрией.
02:09
Now, despite the size of this industry,
39
129826
3376
Сейчас, несмотря на размер индустрии,
02:13
the returns are surprisingly low.
40
133226
2456
её доходы поразительно малы.
02:16
Investing in big data is easy,
41
136162
2494
Инвестировать в большие данные легко,
02:18
but using it is hard.
42
138680
1933
но использовать их непросто.
02:21
Over 73 percent of big data projects aren't even profitable,
43
141801
4040
Более 73% проектов с большими данными совсем не приносят дохода.
02:25
and I have executives coming up to me saying,
44
145865
2431
Ко мне приходили топ-менеджеры и говорили:
02:28
"We're experiencing the same thing.
45
148320
1789
«И у нас то же самое.
02:30
We invested in some big data system,
46
150133
1753
Мы вложились в такую систему,
02:31
and our employees aren't making better decisions.
47
151910
2968
но наши работники умнее не стали.
02:34
And they're certainly not coming up with more breakthrough ideas."
48
154902
3162
И уж точно ничего передового не придумают».
02:38
So this is all really interesting to me,
49
158734
3184
Всё это меня очень интересует,
02:41
because I'm a technology ethnographer.
50
161942
2010
потому что я технологический этнограф.
02:44
I study and I advise companies
51
164450
2564
Я изучаю и консультирую компании
02:47
on the patterns of how people use technology,
52
167038
2483
в вопросах того, как люди используют технологии,
02:49
and one of my interest areas is data.
53
169545
2678
и в частности меня интересуют данные.
02:52
So why is having more data not helping us make better decisions,
54
172247
5193
Так почему же доступ к бо́льшим данным не помогает принятию лучших решений,
02:57
especially for companies who have all these resources
55
177464
2783
даже компаниям, владеющим ресурсами
03:00
to invest in these big data systems?
56
180271
1736
для инвестиций в большие данные?
03:02
Why isn't it getting any easier for them?
57
182031
2398
Почему им от них не становится легче?
03:05
So, I've witnessed the struggle firsthand.
58
185810
2634
Такая ситуация случилась со мной лично.
03:09
In 2009, I started a research position with Nokia.
59
189194
3484
В 2009 году я устроилась в исследовательский отдел Nokia.
03:13
And at the time,
60
193052
1158
А в то время Nokia была
03:14
Nokia was one of the largest cell phone companies in the world,
61
194234
3158
одним из самых крупных в мире производителей сотовых телефонов,
03:17
dominating emerging markets like China, Mexico and India --
62
197416
3202
лидирующей на растущих рынках Китая, Мексики и Индии,
03:20
all places where I had done a lot of research
63
200642
2502
в странах, где я провела множество исследований того,
03:23
on how low-income people use technology.
64
203168
2676
как используют технологии люди с низким доходом.
03:25
And I spent a lot of extra time in China
65
205868
2330
В Китае я провела особенно много времени,
03:28
getting to know the informal economy.
66
208222
2592
знакомясь с теневым сектором экономики.
03:30
So I did things like working as a street vendor
67
210838
2401
Ради этого я даже поработала уличным торговцем,
03:33
selling dumplings to construction workers.
68
213263
2574
продавала пельмени рабочим со стройки.
03:35
Or I did fieldwork,
69
215861
1358
А ещё собирала информацию,
03:37
spending nights and days in internet cafés,
70
217243
2958
просиживая днями и ночами в интернет-кафешках
03:40
hanging out with Chinese youth, so I could understand
71
220225
2546
и общаясь с китайской молодёжью, чтобы узнать
03:42
how they were using games and mobile phones
72
222795
2284
их отношение к играм и мобильным телефонам,
03:45
and using it between moving from the rural areas to the cities.
73
225103
3370
и как оно менялось с переездом из сельской местности в город.
03:50
Through all of this qualitative evidence that I was gathering,
74
230155
3927
Благодаря всем тем качественным данным, что я собирала,
03:54
I was starting to see so clearly
75
234106
2824
я начала лучше понимать,
03:56
that a big change was about to happen among low-income Chinese people.
76
236954
4472
что в жизни китайцев с низким уровнем дохода грядут большие перемены.
04:02
Even though they were surrounded by advertisements for luxury products
77
242840
4367
Несмотря на то, что они были окружены рекламой предметов роскоши,
04:07
like fancy toilets -- who wouldn't want one? --
78
247231
3495
вроде изысканных унитазов, — и как такой не захотеть? —
04:10
and apartments and cars,
79
250750
2890
рекламой квартир и машин,
04:13
through my conversations with them,
80
253664
1820
пообщавшись с ними,
04:15
I found out that the ads the actually enticed them the most
81
255508
3841
я поняла, что по-настоящему их завлекала
04:19
were the ones for iPhones,
82
259373
1996
только реклама айфонов,
04:21
promising them this entry into this high-tech life.
83
261393
3052
обещавшая перенести их в мир высоких технологий.
04:25
And even when I was living with them in urban slums like this one,
84
265289
3163
Даже когда я жила с ними в городских трущобах, подобных этим,
04:28
I saw people investing over half of their monthly income
85
268476
2996
я видела людей, тративших больше половины месячного дохода
04:31
into buying a phone,
86
271496
1623
на покупку телефона,
04:33
and increasingly, they were "shanzhai,"
87
273143
2302
или ещё хуже — его копии,
04:35
which are affordable knock-offs of iPhones and other brands.
88
275469
3388
одной из дешёвых подделок айфонов или смартфонов других брендов.
04:40
They're very usable.
89
280123
1625
И они в большом ходу.
04:42
Does the job.
90
282710
1322
Работают как надо.
04:44
And after years of living with migrants and working with them
91
284570
5789
И спустя годы жизни с мигрантами и работы с ними бок о бок,
04:50
and just really doing everything that they were doing,
92
290383
3434
делая всё то же, что они,
04:53
I started piecing all these data points together --
93
293841
3597
я начала собирать по кускам всю эту информацию,
04:57
from the things that seem random, like me selling dumplings,
94
297462
3123
начав с того, что казалось случайным, как моя торговля пельменями,
05:00
to the things that were more obvious,
95
300609
1804
до более очевидных вещей,
05:02
like tracking how much they were spending on their cell phone bills.
96
302437
3232
как, например, отслеживание их счетов за телефон.
05:05
And I was able to create this much more holistic picture
97
305693
2639
И я смогла увидеть целостную картину
05:08
of what was happening.
98
308356
1156
того, что происходило.
05:09
And that's when I started to realize
99
309536
1722
И именно тогда я начала понимать,
05:11
that even the poorest in China would want a smartphone,
100
311282
3509
что даже нищий китаец хотел себе смартфон,
05:14
and that they would do almost anything to get their hands on one.
101
314815
4985
и что они были готовы на всё, лишь бы его заполучить.
05:20
You have to keep in mind,
102
320893
2404
При этом не забывайте,
05:23
iPhones had just come out, it was 2009,
103
323321
3084
что айфоны тогда только появились. Это был 2009 год.
05:26
so this was, like, eight years ago,
104
326429
1885
Это сколько? Восемь лет назад.
05:28
and Androids had just started looking like iPhones.
105
328338
2437
И андроиды только начинали выглядеть как айфоны.
05:30
And a lot of very smart and realistic people said,
106
330799
2507
И многие очень умные и адекватные люди говорили:
05:33
"Those smartphones -- that's just a fad.
107
333330
2207
«Эти смартфоны — лишь временное увлечение.
05:36
Who wants to carry around these heavy things
108
336063
2996
Кто захочет носить с собой такую тяжесть,
05:39
where batteries drain quickly and they break every time you drop them?"
109
339083
3487
при том что батарея быстро садится, и они ломаются, стоит разок уронить?».
05:44
But I had a lot of data,
110
344613
1201
Но я собрала много доказательств
05:45
and I was very confident about my insights,
111
345838
2260
и утвердилась в своих предположениях,
05:48
so I was very excited to share them with Nokia.
112
348122
2829
которыми с нетерпением хотела поделиться с Nokia.
05:53
But Nokia was not convinced,
113
353152
2517
Но в Nokia мне не поверили,
05:55
because it wasn't big data.
114
355693
2335
потому что мои данные не были большими.
05:58
They said, "We have millions of data points,
115
358842
2404
Они сказали: «У нас миллионная выборка,
06:01
and we don't see any indicators of anyone wanting to buy a smartphone,
116
361270
4247
и мы не видим признаков того, что кто-то хотел бы купить смартфон,
06:05
and your data set of 100, as diverse as it is, is too weak
117
365541
4388
а у вас всего 100 наблюдений, — какими бы пёстрыми они ни были, — слишком мало,
06:09
for us to even take seriously."
118
369953
1714
чтобы принимать их всерьёз».
06:12
And I said, "Nokia, you're right.
119
372728
1605
И я сказала: «Nokia, вы правы.
06:14
Of course you wouldn't see this,
120
374357
1560
Естественно, вы их не увидите,
06:15
because you're sending out surveys assuming that people don't know
121
375941
3371
потому что рассылаете анкеты, полагая, что люди не знают,
06:19
what a smartphone is,
122
379336
1159
что такое смартфон,
06:20
so of course you're not going to get any data back
123
380519
2366
поэтому, естественно, вы не получите нужную информацию
06:22
about people wanting to buy a smartphone in two years.
124
382909
2572
о людях, пожелающих купить смартфон через два года.
06:25
Your surveys, your methods have been designed
125
385505
2118
Ваши опросы и ваши методы были разработаны
06:27
to optimize an existing business model,
126
387647
2022
для оптимизации существующей бизнес-модели,
06:29
and I'm looking at these emergent human dynamics
127
389693
2608
а я вижу среди людей динамику роста,
06:32
that haven't happened yet.
128
392325
1354
которая ещё не случилась.
06:33
We're looking outside of market dynamics
129
393703
2438
Если смотреть за пределы динамики рынка,
06:36
so that we can get ahead of it."
130
396165
1631
его можно опередить».
06:39
Well, you know what happened to Nokia?
131
399193
2244
Всем известно, что случилось с Nokia?
06:41
Their business fell off a cliff.
132
401461
2365
Их бизнес потерпел полный крах.
06:44
This -- this is the cost of missing something.
133
404611
3727
Такова была плата за их упущения.
06:48
It was unfathomable.
134
408983
1999
Уму непостижимо.
06:51
But Nokia's not alone.
135
411823
1651
И это случилось не только с Nokia.
06:54
I see organizations throwing out data all the time
136
414078
2581
Я вижу организации, постоянно отбрасывающие наши данные
06:56
because it didn't come from a quant model
137
416683
2561
из-за того, что они пришли не из сухой статистики
06:59
or it doesn't fit in one.
138
419268
1768
или не подтверждают её.
07:02
But it's not big data's fault.
139
422039
2048
Но вины больших данных тут нет.
07:04
It's the way we use big data; it's our responsibility.
140
424762
3907
Просто мы их так используем. Мы сами за это в ответе.
07:09
Big data's reputation for success
141
429550
1911
Репутация залога успеха
07:11
comes from quantifying very specific environments,
142
431485
3759
пришла к большим данным из-за расчётов в очень специфических сферах,
07:15
like electricity power grids or delivery logistics or genetic code,
143
435268
4913
таких как электросети, логистика или генетический код,
07:20
when we're quantifying in systems that are more or less contained.
144
440205
4318
когда мы высчитываем данные в более-менее автономных системах.
07:24
But not all systems are as neatly contained.
145
444547
2969
Но не все системы настолько автономны.
07:27
When you're quantifying and systems are more dynamic,
146
447540
3258
При расчётах в более динамичных системах,
07:30
especially systems that involve human beings,
147
450822
3799
особенно системах, включающих людей,
07:34
forces are complex and unpredictable,
148
454645
2426
факторы сложны и непредсказуемы,
07:37
and these are things that we don't know how to model so well.
149
457095
3486
и мы не знаем, как их правильно смоделировать.
07:41
Once you predict something about human behavior,
150
461024
2813
Стоит вам что-то предсказать в поведении человека,
07:43
new factors emerge,
151
463861
1855
как появляются новые факторы,
07:45
because conditions are constantly changing.
152
465740
2365
потому что условия постоянно меняются.
07:48
That's why it's a never-ending cycle.
153
468129
1803
Поэтому это бесконечный круг.
07:49
You think you know something,
154
469956
1464
Только вы решили, что что-то знаете,
07:51
and then something unknown enters the picture.
155
471444
2242
как появляется что-то неизвестное.
07:53
And that's why just relying on big data alone
156
473710
3322
Поэтому надежда лишь на большие данные
07:57
increases the chance that we'll miss something,
157
477056
2849
увеличивает вероятность что-то упустить из виду.
07:59
while giving us this illusion that we already know everything.
158
479929
3777
Хоть у нас и появляется иллюзия, что мы уже всё знаем.
08:04
And what makes it really hard to see this paradox
159
484226
3856
Увидеть этот парадокс
08:08
and even wrap our brains around it
160
488106
2659
и тем более уложить его в голове сложнее оттого,
08:10
is that we have this thing that I call the quantification bias,
161
490789
3691
что в нас есть такая штука, которую я называю «креном к подсчёту количества»,
08:14
which is the unconscious belief of valuing the measurable
162
494504
3922
когда всё измеряемое
подсознательно ценится больше, чем неизмеряемое.
08:18
over the immeasurable.
163
498450
1594
08:21
And we often experience this at our work.
164
501042
3284
И мы часто сталкиваемся с этим на работе.
08:24
Maybe we work alongside colleagues who are like this,
165
504350
2650
Мы, возможно, работаем бок о бок с такими людьми
08:27
or even our whole entire company may be like this,
166
507024
2428
или, может, таковой является вся наша организация,
08:29
where people become so fixated on that number,
167
509476
2546
когда люди так сильно углубляются в цифры,
08:32
that they can't see anything outside of it,
168
512046
2067
что больше ничего за ними не видят,
08:34
even when you present them evidence right in front of their face.
169
514137
3948
даже если подсунуть доказательства им прямо под нос.
08:38
And this is a very appealing message,
170
518943
3371
И это очень увлекает,
08:42
because there's nothing wrong with quantifying;
171
522338
2343
ведь в подсчёте количества нет ничего плохого,
08:44
it's actually very satisfying.
172
524705
1430
получается очень убедительно.
08:46
I get a great sense of comfort from looking at an Excel spreadsheet,
173
526159
4362
Для меня смотреть на таблицы Excel — такой бальзам на душу!
08:50
even very simple ones.
174
530545
1401
Даже на самые простые.
08:51
(Laughter)
175
531970
1014
(Смех)
08:53
It's just kind of like,
176
533008
1152
Будто я такая:
08:54
"Yes! The formula worked. It's all OK. Everything is under control."
177
534184
3504
«Ага! Формула сработала. Всё в порядке. Всё идёт как надо».
08:58
But the problem is
178
538612
2390
Но проблема в том,
09:01
that quantifying is addictive.
179
541026
2661
что к подсчётам количества привыкаешь.
09:03
And when we forget that
180
543711
1382
И когда мы забываемся,
09:05
and when we don't have something to kind of keep that in check,
181
545117
3038
и когда нам не с чем свериться,
09:08
it's very easy to just throw out data
182
548179
2118
очень легко просто выбросить данные
09:10
because it can't be expressed as a numerical value.
183
550321
2718
из-за того, что не получается выразить их в цифровой форме.
09:13
It's very easy just to slip into silver-bullet thinking,
184
553063
2921
Очень легко уйти в размышления о простых, но верных решениях,
09:16
as if some simple solution existed.
185
556008
2579
будто такие бывают.
09:19
Because this is a great moment of danger for any organization,
186
559420
4062
Потому что в этом и состоит опасность для любой организации,
09:23
because oftentimes, the future we need to predict --
187
563506
2634
потому что зачастую будущее, которое мы хотим предсказать,
09:26
it isn't in that haystack,
188
566164
2166
лежит не в стогу,
09:28
but it's that tornado that's bearing down on us
189
568354
2538
а в торнадо, которое несётся на нас из-за стен сарая.
09:30
outside of the barn.
190
570916
1488
09:34
There is no greater risk
191
574780
2326
Нет бо́льшего риска,
09:37
than being blind to the unknown.
192
577130
1666
чем не видеть того, что неизвестно.
09:38
It can cause you to make the wrong decisions.
193
578820
2149
Из-за этого можно принять неверное решение.
09:40
It can cause you to miss something big.
194
580993
1974
Из-за этого что-то важное может пройти мимо.
09:43
But we don't have to go down this path.
195
583554
3101
Но нам не обязательно идти по этому пути.
09:47
It turns out that the oracle of ancient Greece
196
587273
3195
Оказывается, у провидиц Древней Греции
09:50
holds the secret key that shows us the path forward.
197
590492
3966
был секретный ключ, который укажет нам дорогу вперёд.
09:55
Now, recent geological research has shown
198
595474
2595
Недавние геологические исследования доказали,
09:58
that the Temple of Apollo, where the most famous oracle sat,
199
598093
3564
что храм Аполлона, где обитал самый известный оракул,
10:01
was actually built over two earthquake faults.
200
601681
3084
на самом деле был построен на месте двух разломов в земной коре.
10:04
And these faults would release these petrochemical fumes
201
604789
2886
Из тех разломов в земной коре выходили петрохимические пары,
10:07
from underneath the Earth's crust,
202
607699
1685
10:09
and the oracle literally sat right above these faults,
203
609408
3866
то есть провидица сидела прямо над этими разломами
10:13
inhaling enormous amounts of ethylene gas, these fissures.
204
613298
3588
и вдыхала немыслимое количество этилена, исходящего из этих трещин.
10:16
(Laughter)
205
616910
1008
(Смех)
10:17
It's true.
206
617942
1173
Так и было.
10:19
(Laughter)
207
619139
1017
(Смех)
10:20
It's all true, and that's what made her babble and hallucinate
208
620180
3509
Всё это правда. Вот из-за чего провидица бормотала, видела галлюцинации
10:23
and go into this trance-like state.
209
623713
1724
и впадала в транс.
10:25
She was high as a kite!
210
625461
1770
Да она просто обкуренная была!
10:27
(Laughter)
211
627255
4461
(Смех)
10:31
So how did anyone --
212
631740
2779
Как вообще кто-то...?
10:34
How did anyone get any useful advice out of her
213
634543
3030
Как кто-то мог получить от неё ценный совет
10:37
in this state?
214
637597
1190
в таком состоянии?
10:39
Well, you see those people surrounding the oracle?
215
639317
2381
Видите этих людей вокруг неё?
10:41
You see those people holding her up,
216
641722
1879
Видите, как они поддерживали её,
10:43
because she's, like, a little woozy?
217
643625
1717
потому что она слегка одурманена?
10:45
And you see that guy on your left-hand side
218
645366
2308
И видите того парня слева от неё,
10:47
holding the orange notebook?
219
647698
1598
который держит оранжевую тетрадь?
10:49
Well, those were the temple guides,
220
649925
1730
Так вот, это были жрецы храма,
10:51
and they worked hand in hand with the oracle.
221
651679
3016
они работали рука об руку с провидицей.
10:55
When inquisitors would come and get on their knees,
222
655904
2516
Когда просители приходили и вставали на колени,
10:58
that's when the temple guides would get to work,
223
658444
2340
в тот же момент жрецы храма приступали к работе:
11:00
because after they asked her questions,
224
660808
1864
после того, как вопрос был задан, жрецы следили за эмоциями просителей,
11:02
they would observe their emotional state,
225
662696
2001
11:04
and then they would ask them follow-up questions,
226
664721
2324
а потом задавали им дополнительные вопросы:
«А почему вы хотите знать это пророчество? Кто вы такие?
11:07
like, "Why do you want to know this prophecy? Who are you?
227
667069
2834
11:09
What are you going to do with this information?"
228
669927
2264
Что вы будете делать с этой информацией?».
11:12
And then the temple guides would take this more ethnographic,
229
672215
3182
Так жрецы храма собирали более этнографическую,
11:15
this more qualitative information,
230
675421
2156
более качественную информацию,
11:17
and interpret the oracle's babblings.
231
677601
2075
после чего трактовали лепет провидицы.
11:21
So the oracle didn't stand alone,
232
681248
2292
Так что она работала не одна.
11:23
and neither should our big data systems.
233
683564
2148
Также и системам больших данных нужна помощь.
11:26
Now to be clear,
234
686450
1161
Поясню: я говорю не о том,
11:27
I'm not saying that big data systems are huffing ethylene gas,
235
687635
3459
что наши системы больших данных надышались этилена,
11:31
or that they're even giving invalid predictions.
236
691118
2353
или что они делают неправильные прогнозы.
11:33
The total opposite.
237
693495
1161
Совсем наоборот.
11:34
But what I am saying
238
694680
2068
Я говорю о том, что,
11:36
is that in the same way that the oracle needed her temple guides,
239
696772
3832
как провидица нуждалась в жрецах,
11:40
our big data systems need them, too.
240
700628
2288
так в них нуждаются и наши системы больших данных.
11:42
They need people like ethnographers and user researchers
241
702940
4109
Им нужны такие люди, как этнографы и исследователи пользователей,
11:47
who can gather what I call thick data.
242
707073
2506
кто мог бы собрать то, что я называю «плотными данными».
11:50
This is precious data from humans,
243
710322
2991
Это вся та ценная информация от людей,
11:53
like stories, emotions and interactions that cannot be quantified.
244
713337
4102
как истории, эмоции, общение, которые нельзя представить количественно.
11:57
It's the kind of data that I collected for Nokia
245
717463
2322
Это всё то, что я собирала для Nokia,
11:59
that comes in in the form of a very small sample size,
246
719809
2669
что поступало ко мне мельчайшими крупицами,
12:02
but delivers incredible depth of meaning.
247
722502
2955
но несло в себе значение невероятной глубины.
12:05
And what makes it so thick and meaty
248
725481
3680
Что делает их такими плотными и содержательными,
12:10
is the experience of understanding the human narrative.
249
730265
4029
так это опыт правильного восприятия того, что тебе рассказывают люди.
12:14
And that's what helps to see what's missing in our models.
250
734318
3639
И именно это помогает увидеть прорехи в наших моделях.
12:18
Thick data grounds our business questions in human questions,
251
738671
4045
Плотные данные погружают вопросы бизнеса в проблемы человека,
12:22
and that's why integrating big and thick data
252
742740
3562
поэтому совмещение больших и плотных данных
12:26
forms a more complete picture.
253
746326
1689
создаёт более полную картину.
12:28
Big data is able to offer insights at scale
254
748592
2881
Тогда как большие данные способны объяснять процессы
12:31
and leverage the best of machine intelligence,
255
751497
2647
на самом высоком уровне машинного интеллекта,
12:34
whereas thick data can help us rescue the context loss
256
754168
3572
плотные данные могут помочь сохранить контекст,
12:37
that comes from making big data usable,
257
757764
2098
теряющийся при использовании только больших данных,
12:39
and leverage the best of human intelligence.
258
759886
2181
и достичь высот человеческого интеллекта.
12:42
And when you actually integrate the two, that's when things get really fun,
259
762091
3552
При объединении обоих видов данных происходит удивительное,
12:45
because then you're no longer just working with data
260
765667
2436
потому что вы не просто работаете
12:48
you've already collected.
261
768127
1196
с уже собранными данными.
12:49
You get to also work with data that hasn't been collected.
262
769347
2737
Теперь вы также работаете с ещё несобранными данными.
12:52
You get to ask questions about why:
263
772108
1719
Вы хотите спросить о причине:
12:53
Why is this happening?
264
773851
1317
почему так происходит?
12:55
Now, when Netflix did this,
265
775598
1379
Когда это делал Netflix,
12:57
they unlocked a whole new way to transform their business.
266
777001
3035
они открыли совершенно новый способ трансформации бизнеса.
13:01
Netflix is known for their really great recommendation algorithm,
267
781226
3956
Netflix прославился своим действительно отличным алгоритмом рекомендаций,
13:05
and they had this $1 million prize for anyone who could improve it.
268
785206
4797
они объявили о призе в 1 миллион долларов тому, кто сможет его улучшить.
13:10
And there were winners.
269
790027
1314
И победители были.
13:12
But Netflix discovered the improvements were only incremental.
270
792075
4323
Но Netflix обнаружил, что улучшения были неравномерными.
13:17
So to really find out what was going on,
271
797224
1964
Чтобы узнать, что происходило,
13:19
they hired an ethnographer, Grant McCracken,
272
799212
3741
они наняли этнографа Гранта МакКрекена проанализировать плотные данные.
13:22
to gather thick data insights.
273
802977
1546
13:24
And what he discovered was something that they hadn't seen initially
274
804547
3924
И он выяснил нечто, чего не было видно изначально
13:28
in the quantitative data.
275
808495
1355
в количественных данных.
13:30
He discovered that people loved to binge-watch.
276
810892
2728
Он обнаружил, что люди любят «приклеиваться» к телевизору.
13:33
In fact, people didn't even feel guilty about it.
277
813644
2353
Люди даже своей вины за это не чувствуют.
13:36
They enjoyed it.
278
816021
1255
Они балдеют от этого.
13:37
(Laughter)
279
817300
1026
(Смеется)
13:38
So Netflix was like, "Oh. This is a new insight."
280
818350
2356
Поэтому Netflix такой: «Это что-то новенькое».
13:40
So they went to their data science team,
281
820730
1938
Поэтому они пошли к своим обработчикам данных,
13:42
and they were able to scale this big data insight
282
822692
2318
где смогли свести этот вывод из плотных данных
13:45
in with their quantitative data.
283
825034
2587
со своими количественными данными.
13:47
And once they verified it and validated it,
284
827645
3170
Стоило им сверить и утвердить их,
13:50
Netflix decided to do something very simple but impactful.
285
830839
4761
как в Netflix решили сделать кое-что простое, но эффективное.
13:56
They said, instead of offering the same show from different genres
286
836654
6492
Они сказали: «Вместо того, чтобы предлагать всё те же разножанровые сериалы
14:03
or more of the different shows from similar users,
287
843170
3888
или чаще показывать разные сериалы для одной категории пользователей,
14:07
we'll just offer more of the same show.
288
847082
2554
мы просто будем больше показывать один и тот же сериал.
14:09
We'll make it easier for you to binge-watch.
289
849660
2105
Облегчим им прилипание к телевизору».
14:11
And they didn't stop there.
290
851789
1486
И на этом они не остановились.
14:13
They did all these things
291
853299
1474
Они сделали всё,
14:14
to redesign their entire viewer experience,
292
854797
2959
чтобы изменить всю практику трансляций,
14:17
to really encourage binge-watching.
293
857780
1758
чтобы ещё сильнее притянуть людей к телевизору.
14:20
It's why people and friends disappear for whole weekends at a time,
294
860050
3241
Поэтому люди и друзья разом исчезают на все выходные,
14:23
catching up on shows like "Master of None."
295
863315
2343
боясь пропустить сериал вроде «Мастера не на все руки».
14:25
By integrating big data and thick data, they not only improved their business,
296
865682
4173
Сведя вместе большие и плотные данные, они не только улучшили свой бизнес,
14:29
but they transformed how we consume media.
297
869879
2812
но также изменили процесс потребления людьми медиа-информации.
14:32
And now their stocks are projected to double in the next few years.
298
872715
4552
Ожидается, что их акции вырастут вдвое в следующие несколько лет.
14:38
But this isn't just about watching more videos
299
878100
3830
Но дело не только в том, чтобы больше смотреть телевизор
14:41
or selling more smartphones.
300
881954
1620
или продавать больше смартфонов.
14:43
For some, integrating thick data insights into the algorithm
301
883963
4050
Для некоторых привлечение плотных данных в алгоритм —
14:48
could mean life or death,
302
888037
2263
это дело жизни и смерти,
14:50
especially for the marginalized.
303
890324
2146
особенно для тех, чьё положение шатко.
14:53
All around the country, police departments are using big data
304
893558
3434
По всей стране полиция использует большие данные
14:57
for predictive policing,
305
897016
1963
для прогнозирования своей работы,
14:59
to set bond amounts and sentencing recommendations
306
899003
3084
чтобы установить размер залога и рекомендовать меру пресечения,
15:02
in ways that reinforce existing biases.
307
902111
3147
и это только усиливает существующую дискриминацию.
15:06
NSA's Skynet machine learning algorithm
308
906116
2423
Алгоритм машинного обучения АНБ США — Skynet —
15:08
has possibly aided in the deaths of thousands of civilians in Pakistan
309
908563
5444
вероятно, поспособствовал смертям тысяч жителей Пакистана
из-за неправильного прочтения метаданных с мобильного устройства.
15:14
from misreading cellular device metadata.
310
914031
2721
15:18
As all of our lives become more automated,
311
918951
3403
По мере того, как наша жизнь всё больше автоматизируется,
15:22
from automobiles to health insurance or to employment,
312
922378
3080
от автомобилей до медицинской страховки или устройства на работу,
15:25
it is likely that all of us
313
925482
2350
скорее всего, мы все
15:27
will be impacted by the quantification bias.
314
927856
2989
будем склоняться к подсчёту количества.
15:32
Now, the good news is that we've come a long way
315
932792
2621
Сегодня хорошая новость в том, что прошло много времени
15:35
from huffing ethylene gas to make predictions.
316
935437
2450
с тех пор, когда для предсказаний нужно было дышать этиленом.
15:37
We have better tools, so let's just use them better.
317
937911
3070
У нас есть способы получше, и их можно ещё улучшить.
15:41
Let's integrate the big data with the thick data.
318
941005
2323
Давайте совмещать большие данные с плотными.
15:43
Let's bring our temple guides with the oracles,
319
943352
2261
Давайте сведём жрецов храма с провидицей,
15:45
and whether this work happens in companies or nonprofits
320
945637
3376
и если провести эту работу в коммерческих или некоммерческих организациях,
15:49
or government or even in the software,
321
949037
2469
или в правительстве, или даже в программном обеспечении,
15:51
all of it matters,
322
951530
1792
всё это будет иметь смысл,
15:53
because that means we're collectively committed
323
953346
3023
потому что это будет значить, что мы действуем сообща
15:56
to making better data,
324
956393
2191
ради бо́льших данных,
15:58
better algorithms, better outputs
325
958608
1836
лучших алгоритмов, лучших результатов
16:00
and better decisions.
326
960468
1643
и лучших решений.
16:02
This is how we'll avoid missing that something.
327
962135
3558
Так мы ничего не потеряем.
(Аплодисменты)
16:07
(Applause)
328
967042
3948
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7