How to use data to make a hit TV show | Sebastian Wernicke

132,856 views ・ 2016-01-27

TED


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

Переводчик: Nadya Borisova Редактор: Елена Ногина
00:12
Roy Price is a man that most of you have probably never heard about,
0
12820
4276
Рой Прайс — это человек, о котором большинство из вас никогда не слышало,
00:17
even though he may have been responsible
1
17120
2496
а он мог быть ответственным
00:19
for 22 somewhat mediocre minutes of your life on April 19, 2013.
2
19640
6896
за 22 посредственных минуты вашего времени 19 апреля 2013 года.
00:26
He may have also been responsible for 22 very entertaining minutes,
3
26560
3176
Он также мог быть ответственным за 22 весьма развлекательных минуты,
00:29
but not very many of you.
4
29760
2256
но не для многих из вас.
00:32
And all of that goes back to a decision
5
32040
1896
Всё это ведёт нас к решению,
00:33
that Roy had to make about three years ago.
6
33960
2000
которое Рой должен был принять три года назад.
00:35
So you see, Roy Price is a senior executive with Amazon Studios.
7
35984
4832
Рой Прайс — ответственный менеджер в Amazon Studios.
00:40
That's the TV production company of Amazon.
8
40840
3016
Это подразделение Amazon по производству телепрограмм.
00:43
He's 47 years old, slim, spiky hair,
9
43880
3256
Ему 47 лет, худощавый, с «ёжиком» на голове,
00:47
describes himself on Twitter as "movies, TV, technology, tacos."
10
47160
4816
в Твиттере он описывает себя так: «фильмы, ТВ, технологии, тако».
00:52
And Roy Price has a very responsible job, because it's his responsibility
11
52000
5176
У Роя Прайса очень ответственная работа, потому что он отвечает
00:57
to pick the shows, the original content that Amazon is going to make.
12
57200
4056
за выбор сериалов, оригинального контента, который будет производить Amazon.
01:01
And of course that's a highly competitive space.
13
61280
2336
Безусловно, это очень конкурентная среда.
01:03
I mean, there are so many TV shows already out there,
14
63640
2736
Уже есть столько сериалов,
01:06
that Roy can't just choose any show.
15
66400
2176
что Рой не может просто выбрать любой сериал.
01:08
He has to find shows that are really, really great.
16
68600
4096
Ему нужно находить сериалы, которые действительно очень хороши.
01:12
So in other words, he has to find shows
17
72720
2816
Другими словами, ему нужно находить сериалы,
01:15
that are on the very right end of this curve here.
18
75560
2376
которые будут на самом правом краю этой кривой.
01:17
So this curve here is the rating distribution
19
77960
2656
Эта кривая — распределение рейтингов
01:20
of about 2,500 TV shows on the website IMDB,
20
80640
4376
порядка 2 500 телесериалов, по данным сайта IMDB.
01:25
and the rating goes from one to 10,
21
85040
2896
Рейтинг может быть от 1 до 10,
01:27
and the height here shows you how many shows get that rating.
22
87960
2976
высота показывает, сколько сериалов получают данный рейтинг.
01:30
So if your show gets a rating of nine points or higher, that's a winner.
23
90960
4696
Если у вашего сериала рейтинг 9 и выше, это победитель.
01:35
Then you have a top two percent show.
24
95680
1816
Ваш сериал в 2% самых успешных.
01:37
That's shows like "Breaking Bad," "Game of Thrones," "The Wire,"
25
97520
3896
Это такие сериалы, как «Во все тяжкие», «Игра престолов», «Прослушка»,
01:41
so all of these shows that are addictive,
26
101440
2296
все они затягивают,
01:43
whereafter you've watched a season, your brain is basically like,
27
103760
3056
после того, как вы посмотрите сезон, ваш мозг думает:
01:46
"Where can I get more of these episodes?"
28
106840
2176
«Где бы мне достать ещё эпизодов?»
01:49
That kind of show.
29
109040
1200
Вот такие сериалы.
01:50
On the left side, just for clarity, here on that end,
30
110920
2496
Для ясности: на левой стороне
01:53
you have a show called "Toddlers and Tiaras" --
31
113440
3176
у нас сериал «Коронованные детки»,
01:56
(Laughter)
32
116640
2656
(Смех)
01:59
-- which should tell you enough
33
119320
1536
и это должно сказать достаточно
02:00
about what's going on on that end of the curve.
34
120880
2191
о том, что происходит на левом краю кривой.
02:03
Now, Roy Price is not worried about getting on the left end of the curve,
35
123095
4161
Рой Прайс не боится попасть на левый край,
02:07
because I think you would have to have some serious brainpower
36
127280
2936
потому что нужны серьёзные мыслительные способности,
02:10
to undercut "Toddlers and Tiaras."
37
130240
1696
чтобы обойти «Коронованных деток».
02:11
So what he's worried about is this middle bulge here,
38
131960
3936
О чём он волновался, так это о средней части этой кривой,
02:15
the bulge of average TV,
39
135920
1816
там где находятся средние сериалы,
02:17
you know, those shows that aren't really good or really bad,
40
137760
2856
сериалы, которые не хороши и не плохи,
02:20
they don't really get you excited.
41
140639
1656
которые никого не будоражат.
02:22
So he needs to make sure that he's really on the right end of this.
42
142320
4856
Рою нужно непременно попасть на правый край.
02:27
So the pressure is on,
43
147200
1576
Давление нарастает,
02:28
and of course it's also the first time
44
148800
2176
и, конечно, это первый раз,
02:31
that Amazon is even doing something like this,
45
151000
2176
когда Amazon делает что-то подобное,
02:33
so Roy Price does not want to take any chances.
46
153200
3336
поэтому Рой Прайс не хочет рисковать.
02:36
He wants to engineer success.
47
156560
2456
Он хочет сделать успешное шоу.
02:39
He needs a guaranteed success,
48
159040
1776
Ему нужен гарантированный успех,
02:40
and so what he does is, he holds a competition.
49
160840
2576
поэтому он проводит соревнование.
02:43
So he takes a bunch of ideas for TV shows,
50
163440
3136
Он берёт несколько идей для сериалов,
02:46
and from those ideas, through an evaluation,
51
166600
2296
из которых затем с помощью оценки
02:48
they select eight candidates for TV shows,
52
168920
4096
они выбирают восемь кандидатов для сериала,
02:53
and then he just makes the first episode of each one of these shows
53
173040
3216
а потом снимают первый эпизод для каждого из этих сериалов
02:56
and puts them online for free for everyone to watch.
54
176280
3136
и выкладывают их онлайн бесплатно, чтобы все могли посмотреть.
02:59
And so when Amazon is giving out free stuff,
55
179440
2256
Когда Amazon бесплатно раздаёт что-то,
03:01
you're going to take it, right?
56
181720
1536
мы, конечно, берём, правда?
03:03
So millions of viewers are watching those episodes.
57
183280
5136
Миллионы зрителей смотрят эти эпизоды.
03:08
What they don't realize is that, while they're watching their shows,
58
188440
3216
Но они не осознают, что пока они смотрят сериалы,
03:11
actually, they are being watched.
59
191680
2296
на самом деле наблюдают за ними.
03:14
They are being watched by Roy Price and his team,
60
194000
2336
За ними наблюдает Рой Прайс и его команда,
03:16
who record everything.
61
196360
1376
они записывают всё.
03:17
They record when somebody presses play, when somebody presses pause,
62
197760
3376
Записывают, когда кто-то нажал «Воспроизвести», «Пауза»,
03:21
what parts they skip, what parts they watch again.
63
201160
2536
какие части они пропускают, какие — пересматривают.
03:23
So they collect millions of data points,
64
203720
2256
Они собирают миллионы ориентиров,
03:26
because they want to have those data points
65
206000
2096
потому что они хотят иметь эти данные,
03:28
to then decide which show they should make.
66
208120
2696
чтобы на их основе решить, какой сериал снимать.
03:30
And sure enough, so they collect all the data,
67
210840
2176
Закономерно, что они собирают данные,
03:33
they do all the data crunching, and an answer emerges,
68
213040
2576
обрабатывают их и получают ответ,
03:35
and the answer is,
69
215640
1216
и ответ таков:
03:36
"Amazon should do a sitcom about four Republican US Senators."
70
216880
5536
«Amazon должна снять ситком о четырёх сенаторах-республиканцах».
03:42
They did that show.
71
222440
1216
Они его сняли.
03:43
So does anyone know the name of the show?
72
223680
2160
Кто-нибудь знает, как он называется?
03:46
(Audience: "Alpha House.")
73
226720
1296
(Зал: «Альфа-дом»)
03:48
Yes, "Alpha House,"
74
228040
1456
Да, «Альфа-дом»,
03:49
but it seems like not too many of you here remember that show, actually,
75
229520
4096
но, похоже, немногие из вас помнят этот сериал,
03:53
because it didn't turn out that great.
76
233640
1856
потому что он не был таким классным.
03:55
It's actually just an average show,
77
235520
1856
На самом деле это средний сериал,
03:57
actually -- literally, in fact, because the average of this curve here is at 7.4,
78
237400
4576
буквально средний, потому что средняя цифра на этой кривой — 7.4,
04:02
and "Alpha House" lands at 7.5,
79
242000
2416
а у «Альфа-дома» рейтинг 7.5,
04:04
so a slightly above average show,
80
244440
2016
чуть-чуть выше среднего сериала,
04:06
but certainly not what Roy Price and his team were aiming for.
81
246480
2920
но это явно не то, к чему Рой Прайс и его команда стремились.
04:10
Meanwhile, however, at about the same time,
82
250320
2856
А между тем примерно в то же время
04:13
at another company,
83
253200
1576
другая компания,
04:14
another executive did manage to land a top show using data analysis,
84
254800
4216
другой менеджер умудрился сделать топовый сериал, используя анализ данных.
04:19
and his name is Ted,
85
259040
1576
Его зовут Тед,
04:20
Ted Sarandos, who is the Chief Content Officer of Netflix,
86
260640
3416
Тед Сарандос, программный директор в Netflix,
04:24
and just like Roy, he's on a constant mission
87
264080
2136
и, как и Рой, он постоянно работает над тем,
04:26
to find that great TV show,
88
266240
1496
чтобы найти отличный сериал,
04:27
and he uses data as well to do that,
89
267760
2016
и он также использует для этого данные,
04:29
except he does it a little bit differently.
90
269800
2015
но делает это немного по-другому.
04:31
So instead of holding a competition, what he did -- and his team of course --
91
271839
3737
Вместо того, чтобы проводить соревнование, он — и его команда, конечно, —
04:35
was they looked at all the data they already had about Netflix viewers,
92
275600
3536
посмотрели на данные, которые уже имелись о зрителях Netflix:
04:39
you know, the ratings they give their shows,
93
279160
2096
оценки, которые зрители ставили сериалам,
04:41
the viewing histories, what shows people like, and so on.
94
281280
2696
история просмотров, какие сериалы нравятся и так далее.
04:44
And then they use that data to discover
95
284000
1896
Они использовали эти данные,
04:45
all of these little bits and pieces about the audience:
96
285920
2616
чтобы выяснить мелочи и детали об аудитории:
04:48
what kinds of shows they like,
97
288560
1456
какие сериалы им нравятся,
04:50
what kind of producers, what kind of actors.
98
290040
2096
какие продюсеры, какие актёры.
04:52
And once they had all of these pieces together,
99
292160
2576
Когда они собрали эти данные вместе,
04:54
they took a leap of faith,
100
294760
1656
они совершили решительный шаг,
04:56
and they decided to license
101
296440
2096
они решили сделать
04:58
not a sitcom about four Senators
102
298560
2456
не ситком о четырёх сенаторах,
05:01
but a drama series about a single Senator.
103
301040
2880
а драму об одном сенаторе.
05:04
You guys know the show?
104
304760
1656
Вы, ребята, знаете этот сериал?
05:06
(Laughter)
105
306440
1296
(Смех)
05:07
Yes, "House of Cards," and Netflix of course, nailed it with that show,
106
307760
3736
Да, «Карточный домик», и Netflix отлично справился с этим сериалом,
05:11
at least for the first two seasons.
107
311520
2136
по крайней мере, с первыми двумя сезонами.
05:13
(Laughter) (Applause)
108
313680
3976
(Смех) (Аплодисменты)
05:17
"House of Cards" gets a 9.1 rating on this curve,
109
317680
3176
У «Карточного домика» рейтинг 9.1 по этой кривой,
05:20
so it's exactly where they wanted it to be.
110
320880
3176
именно такой, какой они хотели.
05:24
Now, the question of course is, what happened here?
111
324080
2416
Само собой, вопрос в том, что произошло?
05:26
So you have two very competitive, data-savvy companies.
112
326520
2656
Две конкурентоспособные, понимающие в данных компании.
05:29
They connect all of these millions of data points,
113
329200
2856
Они собирают миллионы индикаторов,
05:32
and then it works beautifully for one of them,
114
332080
2376
которые отлично работают для одной из них
05:34
and it doesn't work for the other one.
115
334480
1856
и совсем не работают для другой.
05:36
So why?
116
336360
1216
Почему?
05:37
Because logic kind of tells you that this should be working all the time.
117
337600
3456
Логика подсказывает нам, что это должно было сработать в обоих случаях.
05:41
I mean, if you're collecting millions of data points
118
341080
2456
В смысле, если вы собираете миллионы индикаторов
05:43
on a decision you're going to make,
119
343560
1736
для решения, которое собираетесь принять,
05:45
then you should be able to make a pretty good decision.
120
345320
2616
то вы должны принять очень хорошее решение.
05:47
You have 200 years of statistics to rely on.
121
347960
2216
У вас есть статистика за 200 лет.
05:50
You're amplifying it with very powerful computers.
122
350200
3016
Вы анализируете данные с помощью очень мощных компьютеров.
05:53
The least you could expect is good TV, right?
123
353240
3280
Как минимум, вы можете ожидать хорошего сериала, да?
05:57
And if data analysis does not work that way,
124
357880
2720
И если анализ данных не работает,
06:01
then it actually gets a little scary,
125
361520
2056
то это даже страшновато,
06:03
because we live in a time where we're turning to data more and more
126
363600
3816
потому что мы живём во время, когда мы всё больше работаем с данными
06:07
to make very serious decisions that go far beyond TV.
127
367440
4480
для принятия серьёзных решений, которые выходят далеко за рамки ТВ.
06:12
Does anyone here know the company Multi-Health Systems?
128
372760
3240
Кто-нибудь знает компанию Multi-Health Systems?
06:17
No one. OK, that's good actually.
129
377080
1656
Никто. Это даже хорошо.
06:18
OK, so Multi-Health Systems is a software company,
130
378760
3216
Multi-Health Systems — это компания-разработчик,
06:22
and I hope that nobody here in this room
131
382000
2816
и я надеюсь, никто в этом зале
06:24
ever comes into contact with that software,
132
384840
3176
никогда не столкнётся с их ПО,
06:28
because if you do, it means you're in prison.
133
388040
2096
потому что если столкнётесь, значит, вы в тюрьме.
06:30
(Laughter)
134
390160
1176
(Смех)
06:31
If someone here in the US is in prison, and they apply for parole,
135
391360
3536
Если в США заключённый просит о досрочном освобождении,
06:34
then it's very likely that data analysis software from that company
136
394920
4296
весьма вероятно, что будет использован анализ данных от этой компании,
06:39
will be used in determining whether to grant that parole.
137
399240
3616
чтобы решить, стоит ли его предоставить.
06:42
So it's the same principle as Amazon and Netflix,
138
402880
2576
Это то же самый принцип, как у Amazon и Netflix,
06:45
but now instead of deciding whether a TV show is going to be good or bad,
139
405480
4616
только вместо того, чтобы решать, будет ли сериал хорошим или плохим,
06:50
you're deciding whether a person is going to be good or bad.
140
410120
2896
вы решаете, будет ли человек хорошим или плохим.
06:53
And mediocre TV, 22 minutes, that can be pretty bad,
141
413040
5496
Средненькая серия на 22 минуты — да, это может быть не очень хорошо,
06:58
but more years in prison, I guess, even worse.
142
418560
2640
но больше лет в тюрьме — это много хуже.
07:02
And unfortunately, there is actually some evidence that this data analysis,
143
422360
4136
К сожалению, есть доказательства, что такой анализ данных,
07:06
despite having lots of data, does not always produce optimum results.
144
426520
4216
несмотря на огромное количество данных, не всегда выдаёт оптимальные результаты.
07:10
And that's not because a company like Multi-Health Systems
145
430760
2722
Это не потому, что компании вроде Multi-Health Systems
07:13
doesn't know what to do with data.
146
433506
1627
не знают, что делать с данными.
07:15
Even the most data-savvy companies get it wrong.
147
435158
2298
Даже самые понимающие в данных компании ошибаются.
07:17
Yes, even Google gets it wrong sometimes.
148
437480
2400
Да, даже Google иногда ошибается.
07:20
In 2009, Google announced that they were able, with data analysis,
149
440680
4496
В 2009 году Google заявил, что благодаря анализу данных они могут
07:25
to predict outbreaks of influenza, the nasty kind of flu,
150
445200
4136
предсказать эпидемию гриппа,
07:29
by doing data analysis on their Google searches.
151
449360
3776
основываясь на анализе поисковых запросов.
07:33
And it worked beautifully, and it made a big splash in the news,
152
453160
3856
Это отлично работало, это вызвало резонанс в новостях,
включая максимальный успех для научного исследования —
07:37
including the pinnacle of scientific success:
153
457040
2136
07:39
a publication in the journal "Nature."
154
459200
2456
публикацию в журнале Nature.
07:41
It worked beautifully for year after year after year,
155
461680
3616
Это отлично работало год за годом, год за годом,
07:45
until one year it failed.
156
465320
1656
пока однажды не провалилось.
07:47
And nobody could even tell exactly why.
157
467000
2256
Никто не может точно сказать почему.
07:49
It just didn't work that year,
158
469280
1696
Это просто не сработало в том году;
07:51
and of course that again made big news,
159
471000
1936
конечно, снова был резонанс в новостях,
07:52
including now a retraction
160
472960
1616
включая отзы́в статьи из журнала Nature.
07:54
of a publication from the journal "Nature."
161
474600
2840
07:58
So even the most data-savvy companies, Amazon and Google,
162
478480
3336
Так что даже самые опытные компании, Amazon и Google,
08:01
they sometimes get it wrong.
163
481840
2136
иногда ошибаются.
08:04
And despite all those failures,
164
484000
2936
Но несмотря на эти ошибки,
08:06
data is moving rapidly into real-life decision-making --
165
486960
3856
данные всё больше вовлекаются в ежедневное принятие решений —
08:10
into the workplace,
166
490840
1816
в рабочее пространство,
08:12
law enforcement,
167
492680
1816
в работу правоохранительных органов,
08:14
medicine.
168
494520
1200
медицину.
08:16
So we should better make sure that data is helping.
169
496400
3336
Так что нам бы хорошо убедиться, что данные помогают.
08:19
Now, personally I've seen a lot of this struggle with data myself,
170
499760
3136
Я лично сталкивался с заминками в работе с данными,
08:22
because I work in computational genetics,
171
502920
1976
потому что я работаю в вычислительной генетике,
08:24
which is also a field where lots of very smart people
172
504920
2496
а это сфера, где очень умные люди
08:27
are using unimaginable amounts of data to make pretty serious decisions
173
507440
3656
используют невообразимые объёмы данных для принятия серьёзных решений,
08:31
like deciding on a cancer therapy or developing a drug.
174
511120
3560
например, решения о терапии рака или разработки лекарства.
08:35
And over the years, I've noticed a sort of pattern
175
515520
2376
За годы я заметил что-то вроде тенденции
08:37
or kind of rule, if you will, about the difference
176
517920
2456
или правила, если хотите, о разнице
08:40
between successful decision-making with data
177
520400
2696
между успешным решением, основанным на данных,
08:43
and unsuccessful decision-making,
178
523120
1616
и неуспешным решением,
08:44
and I find this a pattern worth sharing, and it goes something like this.
179
524760
3880
и я думаю, что эта тенденция стоит того, чтобы поделиться ей. Вот она:
08:50
So whenever you're solving a complex problem,
180
530520
2135
когда вы решаете сложную проблему,
08:52
you're doing essentially two things.
181
532679
1737
вы обязательно делаете две вещи.
08:54
The first one is, you take that problem apart into its bits and pieces
182
534440
3296
Во-первых, вы берёте проблему и раскладываете её на кусочки,
08:57
so that you can deeply analyze those bits and pieces,
183
537760
2496
чтобы суметь глубоко проанализировать эти кусочки,
09:00
and then of course you do the second part.
184
540280
2016
а потом, конечно, вы делаете вторую часть.
09:02
You put all of these bits and pieces back together again
185
542320
2656
Вы собираете эти кусочки в одно целое,
09:05
to come to your conclusion.
186
545000
1336
чтобы прийти к решению.
09:06
And sometimes you have to do it over again,
187
546360
2336
Иногда приходится делать это не раз,
09:08
but it's always those two things:
188
548720
1656
но всегда есть два этапа:
09:10
taking apart and putting back together again.
189
550400
2320
разложить на кусочки и собрать обратно.
09:14
And now the crucial thing is
190
554280
1616
Самое важное состоит в том,
09:15
that data and data analysis
191
555920
2896
что данные и анализ данных
09:18
is only good for the first part.
192
558840
2496
годятся только для первого шага.
09:21
Data and data analysis, no matter how powerful,
193
561360
2216
Данные и анализ данных, не важно, насколько мощные,
09:23
can only help you taking a problem apart and understanding its pieces.
194
563600
4456
могут помочь только с разделением проблемы на кусочки и пониманием их.
09:28
It's not suited to put those pieces back together again
195
568080
3496
Они не подходят для собирания кусочков в единое целое
09:31
and then to come to a conclusion.
196
571600
1896
и принятия решения.
09:33
There's another tool that can do that, and we all have it,
197
573520
2736
Для этого существует другой инструмент, который есть у всех нас, —
09:36
and that tool is the brain.
198
576280
1296
это наш мозг.
09:37
If there's one thing a brain is good at,
199
577600
1936
Что мозг умеет делать хорошо —
09:39
it's taking bits and pieces back together again,
200
579560
2256
так это собирать кусочки воедино,
09:41
even when you have incomplete information,
201
581840
2016
даже в условиях недостаточной информации,
09:43
and coming to a good conclusion,
202
583880
1576
и делать правильные выводы,
09:45
especially if it's the brain of an expert.
203
585480
2936
особенно если это мозг эксперта.
09:48
And that's why I believe that Netflix was so successful,
204
588440
2656
Я думаю, именно поэтому Netflix получил такой успех —
09:51
because they used data and brains where they belong in the process.
205
591120
3576
они использовали и данные, и силу человеческого мозга, где необходимо.
09:54
They use data to first understand lots of pieces about their audience
206
594720
3536
Они использовали данные, чтобы детально понять свою аудиторию,
09:58
that they otherwise wouldn't have been able to understand at that depth,
207
598280
3416
иначе они не смогли бы сделать такой глубокий анализ,
10:01
but then the decision to take all these bits and pieces
208
601720
2616
но их решение, когда пришло время собирать кусочки воедино
10:04
and put them back together again and make a show like "House of Cards,"
209
604360
3336
и снимать сериал вроде «Карточного домика»,
10:07
that was nowhere in the data.
210
607720
1416
было принято не данными.
10:09
Ted Sarandos and his team made that decision to license that show,
211
609160
3976
Это решение приняли Тед Сарандос и его команда,
10:13
which also meant, by the way, that they were taking
212
613160
2381
что, кстати, означает,
10:15
a pretty big personal risk with that decision.
213
615565
2851
что они лично серьёзно рисковали с этим решением.
10:18
And Amazon, on the other hand, they did it the wrong way around.
214
618440
3016
С другой стороны, Amazon сделали всё наоборот.
10:21
They used data all the way to drive their decision-making,
215
621480
2736
Они использовали данные на обоих этапах принятия решения:
10:24
first when they held their competition of TV ideas,
216
624240
2416
сначала провели соревнование сценариев для сериала,
10:26
then when they selected "Alpha House" to make as a show.
217
626680
3696
а затем выбрали «Альфа-дом».
10:30
Which of course was a very safe decision for them,
218
630400
2496
Это, конечно, было весьма безопасное решение для них,
10:32
because they could always point at the data, saying,
219
632920
2456
потому что они всегда могли бы сказать:
10:35
"This is what the data tells us."
220
635400
1696
«Вот что говорят нам данные».
10:37
But it didn't lead to the exceptional results that they were hoping for.
221
637120
4240
Но это не привело их к выдающемуся результату, к которому они стремились.
10:42
So data is of course a massively useful tool to make better decisions,
222
642120
4976
Данные — это, безусловно, полезный инструмент для принятия хороших решений,
10:47
but I believe that things go wrong
223
647120
2376
но я уверен, что неправильно,
10:49
when data is starting to drive those decisions.
224
649520
2576
когда данные начинают управлять этими решениями.
10:52
No matter how powerful, data is just a tool,
225
652120
3776
Вне зависимости от своей силы, данные — это всего лишь инструмент,
10:55
and to keep that in mind, I find this device here quite useful.
226
655920
3336
учитывая это, я думаю, что вот эта штука очень полезная.
10:59
Many of you will ...
227
659280
1216
Многие из вас...
11:00
(Laughter)
228
660520
1216
(Смех)
11:01
Before there was data,
229
661760
1216
До того, как появились данные,
11:03
this was the decision-making device to use.
230
663000
2856
эту штуку использовали для принятия решений.
11:05
(Laughter)
231
665880
1256
(Смех)
11:07
Many of you will know this.
232
667160
1336
Многие знают, что это.
11:08
This toy here is called the Magic 8 Ball,
233
668520
1953
Это называется «Шар предсказаний»,
11:10
and it's really amazing,
234
670497
1199
он правда классный,
11:11
because if you have a decision to make, a yes or no question,
235
671720
2896
потому что, если вам нужен ответ на вопрос «да или нет»,
11:14
all you have to do is you shake the ball, and then you get an answer --
236
674640
3736
всё, что нужно сделать, это потрясти шар, и у вас есть ответ —
11:18
"Most Likely" -- right here in this window in real time.
237
678400
2816
«Вероятнее всего» — прямо здесь, прямо сейчас.
11:21
I'll have it out later for tech demos.
238
681240
2096
Вы сможете попробовать попозже.
11:23
(Laughter)
239
683360
1216
(Смех)
11:24
Now, the thing is, of course -- so I've made some decisions in my life
240
684600
3576
Я принимал в своей жизни много решений,
11:28
where, in hindsight, I should have just listened to the ball.
241
688200
2896
в которых, как я сейчас понимаю, лучше было послушаться шара.
11:31
But, you know, of course, if you have the data available,
242
691120
3336
Но, конечно, если у вас есть данные,
11:34
you want to replace this with something much more sophisticated,
243
694480
3056
вы захотите использовать нечто посерьёзнее шара,
11:37
like data analysis to come to a better decision.
244
697560
3616
вроде анализа данных, чтобы прийти к лучшему решению.
11:41
But that does not change the basic setup.
245
701200
2616
Но это не меняет основной идеи.
11:43
So the ball may get smarter and smarter and smarter,
246
703840
3176
Шар может становиться умнее, умнее и умнее,
11:47
but I believe it's still on us to make the decisions
247
707040
2816
но принятие решений — всё ещё наша ответственность,
11:49
if we want to achieve something extraordinary,
248
709880
3016
если мы хотим достичь чего-то выдающегося,
11:52
on the right end of the curve.
249
712920
1936
попасть в правую часть кривой.
11:54
And I find that a very encouraging message, in fact,
250
714880
4496
Я нахожу это очень вдохновляющим:
11:59
that even in the face of huge amounts of data,
251
719400
3976
даже перед лицом огромных объёмов данных
12:03
it still pays off to make decisions,
252
723400
4096
всё ещё стоит принимать решения,
12:07
to be an expert in what you're doing
253
727520
2656
быть экспертом в своём деле
12:10
and take risks.
254
730200
2096
и рисковать.
12:12
Because in the end, it's not data,
255
732320
2776
Потому что в конце концов не данные,
12:15
it's risks that will land you on the right end of the curve.
256
735120
3960
а риск приведёт вас в правую часть кривой.
12:19
Thank you.
257
739840
1216
Спасибо.
12:21
(Applause)
258
741080
3680
(Аплодисменты)
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7