How to use data to make a hit TV show | Sebastian Wernicke

133,338 views ・ 2016-01-27

TED


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video.

Translator: Huong Nguyen Reviewer: Tra Nguyen
00:12
Roy Price is a man that most of you have probably never heard about,
0
12820
4276
Roy Price là người mà phần lớn các bạn có thể chưa từng nghe nói đến
00:17
even though he may have been responsible
1
17120
2496
mặc dù anh ấy có thể đã từng chịu trách nhiệm
00:19
for 22 somewhat mediocre minutes of your life on April 19, 2013.
2
19640
6896
cho 22 phút hơi tầm thường của đời bạn trong ngày 19 tháng 4 năm 2013.
00:26
He may have also been responsible for 22 very entertaining minutes,
3
26560
3176
Anh ấy có lẽ còn chịu tránh nhiệm cho mỗi 22 phút giải trí
00:29
but not very many of you.
4
29760
2256
nhưng không phải nhiều người trong các bạn.
00:32
And all of that goes back to a decision
5
32040
1896
và tất cả đã dẫn đến một quyết định
00:33
that Roy had to make about three years ago.
6
33960
2000
mà Roy phải thực hiện trong 3 năm
00:35
So you see, Roy Price is a senior executive with Amazon Studios.
7
35984
4832
Như mọi người biết, Roy Price là một nhà điều hành cấp cao của Amazon Studios
00:40
That's the TV production company of Amazon.
8
40840
3016
Đây là công ty sản xuất chương trình TV của Amazon
00:43
He's 47 years old, slim, spiky hair,
9
43880
3256
Anh ấy 47 tuổi, nhỏ người, tóc vuốt cao
00:47
describes himself on Twitter as "movies, TV, technology, tacos."
10
47160
4816
với mô tả trên Twitter: "phim ảnh, TV, công nghệ, taco (món ăn Mexico)"
00:52
And Roy Price has a very responsible job, because it's his responsibility
11
52000
5176
Và Roy Price làm công việc mang tính trách nhiệm cao, vì trách nhiệm của anh ấy
00:57
to pick the shows, the original content that Amazon is going to make.
12
57200
4056
là chọn ra các show, nội dung gốc mà Amazon sẽ thực hiện
01:01
And of course that's a highly competitive space.
13
61280
2336
Tất nhiên, đây là lĩnh vực rất cạnh tranh
01:03
I mean, there are so many TV shows already out there,
14
63640
2736
Tôi muốn nói là, đã có quá nhiều chương trình truyền hình
01:06
that Roy can't just choose any show.
15
66400
2176
Roy không thể chỉ chọn một show nào đó
01:08
He has to find shows that are really, really great.
16
68600
4096
Anh ấy phải tìm được những show thực sự thật sự tuyệt vời
01:12
So in other words, he has to find shows
17
72720
2816
Nói cách khác, anh ấy phải tìm ra những chương trình
01:15
that are on the very right end of this curve here.
18
75560
2376
nắm ở phía cuối bên phải của đường cong này.
01:17
So this curve here is the rating distribution
19
77960
2656
Đường cong ở đây là phân bổ chỉ số đánh giá
01:20
of about 2,500 TV shows on the website IMDB,
20
80640
4376
của khoảng 2500 chương trình TV trên trang web IMDB,
01:25
and the rating goes from one to 10,
21
85040
2896
và điểm đánh giá chạy từ 1 đến 10,
01:27
and the height here shows you how many shows get that rating.
22
87960
2976
và đường cao này chỉ ra có bao nhiêu chương trình được xếp hạng
01:30
So if your show gets a rating of nine points or higher, that's a winner.
23
90960
4696
Nếu chương trình của bạn có chỉ số người xem là 9 hoặc cao nơi, đó là kẻ thắng cuộc
01:35
Then you have a top two percent show.
24
95680
1816
Bạn ở top 2% các chương trình dẫn đầu.
01:37
That's shows like "Breaking Bad," "Game of Thrones," "The Wire,"
25
97520
3896
Đó là những chương trình như "Breaking Bad", "Game of Thrones", "The Wire"
01:41
so all of these shows that are addictive,
26
101440
2296
tất cả những chương trình này đều rất gây nghiện
01:43
whereafter you've watched a season, your brain is basically like,
27
103760
3056
mỗi lần sau khi bạn coi xong một mùa, não bạn cơ bản đều như là:
01:46
"Where can I get more of these episodes?"
28
106840
2176
"Làm sao để xem thêm những tập mới?"
01:49
That kind of show.
29
109040
1200
Loại chương trình như thế đó.
01:50
On the left side, just for clarity, here on that end,
30
110920
2496
Ở phía bên trái, để rõ ràng, ở vị trí cuối này,
01:53
you have a show called "Toddlers and Tiaras" --
31
113440
3176
bạn có một chương trình tên "Toddlers and Tiaras"...
01:56
(Laughter)
32
116640
2656
(Cười)
01:59
-- which should tell you enough
33
119320
1536
...nó đủ nói cho bạn biết
02:00
about what's going on on that end of the curve.
34
120880
2191
những gì xảy ra ở điểm cuối của đường cong này.
02:03
Now, Roy Price is not worried about getting on the left end of the curve,
35
123095
4161
Bây giờ, Roy Price không lo lắng mấy về việc nằm ở vị trí cuối bên trái đường cong
02:07
because I think you would have to have some serious brainpower
36
127280
2936
bởi vì tôi nghĩ bạn sẽ phải có năng lực não rất mạnh
02:10
to undercut "Toddlers and Tiaras."
37
130240
1696
để cắt xén "Toddlers and Tiaras."
02:11
So what he's worried about is this middle bulge here,
38
131960
3936
Vì thế điều anh ấy lo ngại chính là chỗ phình ra ở giữa đây
02:15
the bulge of average TV,
39
135920
1816
vị trí của các chương trình trung bình
02:17
you know, those shows that aren't really good or really bad,
40
137760
2856
bạn biết đấy, các chương trình không hay cũng không dở
02:20
they don't really get you excited.
41
140639
1656
chúng không thật sự làm bạn phấn khích
02:22
So he needs to make sure that he's really on the right end of this.
42
142320
4856
Vì vậy anh ấy cần đảm bảo rằng anh ấy thật sự nằm ở điểm cuối bên phải này
02:27
So the pressure is on,
43
147200
1576
Vì thấy áp lực tăng lên,
02:28
and of course it's also the first time
44
148800
2176
và tất nhiên nó cũng là lần đầu tiên
02:31
that Amazon is even doing something like this,
45
151000
2176
mà Amazon làm những thứ như thế này,
02:33
so Roy Price does not want to take any chances.
46
153200
3336
cho nên Roy Price không muốn có bất kì cơ hội nào
02:36
He wants to engineer success.
47
156560
2456
Anh ấy muốn sắp đặt sự thành công.
Anh ấy cần một sự thành công chắc chắn
02:39
He needs a guaranteed success,
48
159040
1776
02:40
and so what he does is, he holds a competition.
49
160840
2576
và vì thế điều anh ấy làm là, tổ chức một cuộc thi.
02:43
So he takes a bunch of ideas for TV shows,
50
163440
3136
Anh ấy tìm một loạt các ý tưởng cho các chương trình TV,
02:46
and from those ideas, through an evaluation,
51
166600
2296
và từ những ý tưởng đó, trải qua đánh giá,
02:48
they select eight candidates for TV shows,
52
168920
4096
Họ chọn ra 8 ứng cử viên cho các chương trình TV
02:53
and then he just makes the first episode of each one of these shows
53
173040
3216
và rồi họ chỉ làm tập đầu tiên cho mỗi một chương trình đó
02:56
and puts them online for free for everyone to watch.
54
176280
3136
và đăng chúng miễn phí lên mạng để mọi người cùng xem.
02:59
And so when Amazon is giving out free stuff,
55
179440
2256
Và khi Amazon đưa ra thứ gì miễn phí,
03:01
you're going to take it, right?
56
181720
1536
bạn sẽ xem chúng đúng chứ?
03:03
So millions of viewers are watching those episodes.
57
183280
5136
Thế nên hàng triệu người đã xem những tập chương trình này.
03:08
What they don't realize is that, while they're watching their shows,
58
188440
3216
Điều họ không nhận ra là, trong khi họ xem những chương trình đó,
03:11
actually, they are being watched.
59
191680
2296
thật ra, họ cũng đang bị theo dõi.
03:14
They are being watched by Roy Price and his team,
60
194000
2336
Họ bị theo dõi bởi Roy Price và tổ là việc của anh
03:16
who record everything.
61
196360
1376
họ đã ghi lại tất cả.
03:17
They record when somebody presses play, when somebody presses pause,
62
197760
3376
Họ ghi lại khi nào ai đó nhấn nút "play" khi nào nhất nút "pause"
03:21
what parts they skip, what parts they watch again.
63
201160
2536
phần nào nọ sẽ cho qua, phần nào họ sẽ xem lại.
03:23
So they collect millions of data points,
64
203720
2256
Và họ thu thập hàng triệu dữ liệu,
03:26
because they want to have those data points
65
206000
2096
vì họ muốn có những dữ liệu này
03:28
to then decide which show they should make.
66
208120
2696
để sau đó quyết định xem họ nên làm chương trình gì.
03:30
And sure enough, so they collect all the data,
67
210840
2176
Và chắc chắn, họ thu thập tất cả dữ liệu,
03:33
they do all the data crunching, and an answer emerges,
68
213040
2576
họ phân tích tất cả dữ liệu, và câu trả lời xuất hiện
03:35
and the answer is,
69
215640
1216
câu trả lời là,
03:36
"Amazon should do a sitcom about four Republican US Senators."
70
216880
5536
"Amazon nên làm một bộ sitcom về 4 thượng nghị sĩ của đảng Cộng hòa Mỹ"
03:42
They did that show.
71
222440
1216
Họ đã làm chương trình đó
03:43
So does anyone know the name of the show?
72
223680
2160
Vậy có ai biết tên của chương trình đó không?
03:46
(Audience: "Alpha House.")
73
226720
1296
(Khán giả: "Alpha House")
03:48
Yes, "Alpha House,"
74
228040
1456
Vâng, "Alpha House",
03:49
but it seems like not too many of you here remember that show, actually,
75
229520
4096
nhưng có vẻ không nhiều người ở đây thực sự nhớ đến chương trình này
03:53
because it didn't turn out that great.
76
233640
1856
bởi nó không đặc biệt
03:55
It's actually just an average show,
77
235520
1856
Nó thực sự chỉ là một show bình thường,
03:57
actually -- literally, in fact, because the average of this curve here is at 7.4,
78
237400
4576
thật sự... theo nghĩa đen, sự thật là, vì mức trung bình của đường cong này là 7.4
04:02
and "Alpha House" lands at 7.5,
79
242000
2416
và "Alpha House" nằm ở mức 7.5,
04:04
so a slightly above average show,
80
244440
2016
trên mức trung bình một chút,
04:06
but certainly not what Roy Price and his team were aiming for.
81
246480
2920
nhưng chắc chắn không phải là điều Roy Price và nhóm của anh hướng đến.
04:10
Meanwhile, however, at about the same time,
82
250320
2856
Tuy nhiên trong khi đó, tại cùng một thời điểm,
04:13
at another company,
83
253200
1576
ở một công ty khác,
04:14
another executive did manage to land a top show using data analysis,
84
254800
4216
một nhà điều hành khác cũng muốn làm một chương trình hàng đầu bằng phân tích dữ liệu
04:19
and his name is Ted,
85
259040
1576
và tên anh ấy là Ted,
04:20
Ted Sarandos, who is the Chief Content Officer of Netflix,
86
260640
3416
Ted Sarandos, giám đốc nội dung của Netflix
04:24
and just like Roy, he's on a constant mission
87
264080
2136
và cũng như Roy, anh có 1 nhiệm vụ thường xuyên
04:26
to find that great TV show,
88
266240
1496
là tìm những chương trình hay,
04:27
and he uses data as well to do that,
89
267760
2016
và anh ấy cũng sử dụng dữ liệu để làm việc
04:29
except he does it a little bit differently.
90
269800
2015
ngoại trừ anh ấy làm nó có chút khác biệt.
04:31
So instead of holding a competition, what he did -- and his team of course --
91
271839
3737
Thay vì tổ chức một cuộc thi, điều anh ấy làm... và dĩ nhiên cả nhóm của anh...
04:35
was they looked at all the data they already had about Netflix viewers,
92
275600
3536
là nhìn vào tất cả dữ liệu và họ đã có về khán giả của Netflix,
04:39
you know, the ratings they give their shows,
93
279160
2096
những đánh giá họ đưa ra cho các chương trình
04:41
the viewing histories, what shows people like, and so on.
94
281280
2696
lịch sử xem, những chương trình nào họ thích, v.v
04:44
And then they use that data to discover
95
284000
1896
Và họ dùng các dữ liệu đó để tìm ra
04:45
all of these little bits and pieces about the audience:
96
285920
2616
tất cả những gì nhỏ nhất về các khán giả:
04:48
what kinds of shows they like,
97
288560
1456
loại chương trình gì họ thích,
04:50
what kind of producers, what kind of actors.
98
290040
2096
người sản xuất nào, loại diễn viên nào.
04:52
And once they had all of these pieces together,
99
292160
2576
Và một khi họ đã có được tất cả các mảnh ghép
04:54
they took a leap of faith,
100
294760
1656
họ làm một bước nhảy vọt của lòng tin
04:56
and they decided to license
101
296440
2096
họ quyết định cấp giấy phép
04:58
not a sitcom about four Senators
102
298560
2456
không phải cho một bộ sitcom về bốn thượng nghị sĩ
05:01
but a drama series about a single Senator.
103
301040
2880
mà là một bộ phim truyền hình chỉ về một thượng nghị sĩ.
05:04
You guys know the show?
104
304760
1656
Các bạn biết chương trình này chứ?
05:06
(Laughter)
105
306440
1296
(Cười)
05:07
Yes, "House of Cards," and Netflix of course, nailed it with that show,
106
307760
3736
Vâng, là "House of Cards", và Netflix dĩ nhiên đóng đinh với chương trình đó
05:11
at least for the first two seasons.
107
311520
2136
ít nhất là với 2 mùa đầu tiên.
05:13
(Laughter) (Applause)
108
313680
3976
(Cười) (Vỗ tay)
05:17
"House of Cards" gets a 9.1 rating on this curve,
109
317680
3176
"House of Cards" được đánh giá 9.1 trên đường cong,
05:20
so it's exactly where they wanted it to be.
110
320880
3176
nó chính xác là những gì họ muốn làm được.
05:24
Now, the question of course is, what happened here?
111
324080
2416
Và giờ, câu hỏi đặt ra là chuyện gì xảy ra ở đây?
05:26
So you have two very competitive, data-savvy companies.
112
326520
2656
Bạn có hai công ty rất cạnh tranh, hiểu biết về dữ liệu
05:29
They connect all of these millions of data points,
113
329200
2856
Họ kết nối hàng triệu điểm dữ liệu
05:32
and then it works beautifully for one of them,
114
332080
2376
và nó hoạt động tốt với 1 bên,
05:34
and it doesn't work for the other one.
115
334480
1856
còn với một bên thì nó không hoạt động
05:36
So why?
116
336360
1216
Tại sao?
05:37
Because logic kind of tells you that this should be working all the time.
117
337600
3456
Vì kiểu lí luận này luôn nói với bạn rằng điều này luôn hiệu quả mọi lúc
05:41
I mean, if you're collecting millions of data points
118
341080
2456
Nghĩa là, nếu bạn thu thập hết hàng triệu điểm dữ liệu
05:43
on a decision you're going to make,
119
343560
1736
lên một quyết định bạn sẽ thực hiện,
05:45
then you should be able to make a pretty good decision.
120
345320
2616
bạn sẽ có thể đưa ra một quyết định tuyệt vời.
05:47
You have 200 years of statistics to rely on.
121
347960
2216
Bạn có thể dựa vào 200 năm dữ liệu thống kê
05:50
You're amplifying it with very powerful computers.
122
350200
3016
Bạn mở rộng chúng với những máy tính cực mạnh.
05:53
The least you could expect is good TV, right?
123
353240
3280
Ít nhất bạn cũng trông đợi vào một chương trình TV tốt, đúng chứ?
05:57
And if data analysis does not work that way,
124
357880
2720
Và nếu phân tích dữ liệu không hoạt động theo cách này,
06:01
then it actually gets a little scary,
125
361520
2056
thì nó thật sự khá đáng sợ,
06:03
because we live in a time where we're turning to data more and more
126
363600
3816
Vì chúng ta sống trong thời điểm mà ta chuyển sang dùng dữ liệu ngày càng nhiều
06:07
to make very serious decisions that go far beyond TV.
127
367440
4480
để đưa ra những quyết định rất quan trọng, vượt xa hơn cả TV.
06:12
Does anyone here know the company Multi-Health Systems?
128
372760
3240
Có ai ở đây biết về công ty Multi-Health Systems?
06:17
No one. OK, that's good actually.
129
377080
1656
Không ai cả. OK, rất tốt.
06:18
OK, so Multi-Health Systems is a software company,
130
378760
3216
Vâng, Multi-Health Systems là một công ty phần mềm,
06:22
and I hope that nobody here in this room
131
382000
2816
và tôi mong rằng không ai trong khán phòng này
06:24
ever comes into contact with that software,
132
384840
3176
từng tiếp xúc với phần mềm đó,
06:28
because if you do, it means you're in prison.
133
388040
2096
vì nếu bạn làm vậy, nghĩa là bạn đang ở tù
06:30
(Laughter)
134
390160
1176
(Cười)
06:31
If someone here in the US is in prison, and they apply for parole,
135
391360
3536
Nếu một ai đó ở Mỹ đang ở trong tù, và họ xin tạm tha,
06:34
then it's very likely that data analysis software from that company
136
394920
4296
thì sẽ rất có khả năng phần mềm phân tích dữ liệu của công ty này
06:39
will be used in determining whether to grant that parole.
137
399240
3616
sẽ được sử dụng để quyết định xem có nên cho phép tạm tha hay không
06:42
So it's the same principle as Amazon and Netflix,
138
402880
2576
Nó cũng là một nguyên lí giống như Amazon và Netflix
06:45
but now instead of deciding whether a TV show is going to be good or bad,
139
405480
4616
nhưng bây giờ thay vì quyết định xem chương trình TV này sẽ tốt hay dở
06:50
you're deciding whether a person is going to be good or bad.
140
410120
2896
bạn sẽ xem xét xem người kia là tốt hay là xấu
06:53
And mediocre TV, 22 minutes, that can be pretty bad,
141
413040
5496
và chương trình TV tầm thường, 22 phút, nó có thể khá tệ
06:58
but more years in prison, I guess, even worse.
142
418560
2640
nhưng nhiều năm trong tù tôi đoán là tệ hơn nhiều.
07:02
And unfortunately, there is actually some evidence that this data analysis,
143
422360
4136
Và không may là, thật sự có vài bằng chứng cho thấy phân tích dữ liệu này,
07:06
despite having lots of data, does not always produce optimum results.
144
426520
4216
mặc dù có rất nhiều dữ lệu, nhưng không phải luôn luôn cho ra những kết quả tối ưu
07:10
And that's not because a company like Multi-Health Systems
145
430760
2722
Và nó cũng không phải công ty như Multi-Health Systems
07:13
doesn't know what to do with data.
146
433506
1627
không biết phải làm gì với dữ liệu.
07:15
Even the most data-savvy companies get it wrong.
147
435158
2298
Thậm chí hầu hết các công ty dữ liệu đều làm sai
07:17
Yes, even Google gets it wrong sometimes.
148
437480
2400
Vâng, thậm chí Google đôi lúc cũng sai
07:20
In 2009, Google announced that they were able, with data analysis,
149
440680
4496
Trong năm 2009, Google thông báo rằng, với phân tích dữ liệu, họ có thể
07:25
to predict outbreaks of influenza, the nasty kind of flu,
150
445200
4136
dự đoán sự bùng phát của dịch cúm một loại cúm nguy hiểm,
07:29
by doing data analysis on their Google searches.
151
449360
3776
bằng cách thực hiện phân tích dữ liệu trên "Google tìm kiếm" của họ.
07:33
And it worked beautifully, and it made a big splash in the news,
152
453160
3856
Và nó hoạt động hiệu quả, trở thành tin giật gân trên mặt báo,
07:37
including the pinnacle of scientific success:
153
457040
2136
bao gồm cả đỉnh cao thành công của khoa học:
07:39
a publication in the journal "Nature."
154
459200
2456
một ấn phẩm trên tạp chí "Nature"
07:41
It worked beautifully for year after year after year,
155
461680
3616
Nó làm việc hiệu quả từ năm này qua năm khác,
07:45
until one year it failed.
156
465320
1656
cho đến một năm, nó thất bại.
07:47
And nobody could even tell exactly why.
157
467000
2256
Và thậm chí chẳng ai giải thích nổi tại sao.
07:49
It just didn't work that year,
158
469280
1696
Nó chỉ không hoạt động vào năm đó
và tất nhiên nó lại trở thành tin giật gân
07:51
and of course that again made big news,
159
471000
1936
07:52
including now a retraction
160
472960
1616
bây giờ bao gồm sự rút lại
07:54
of a publication from the journal "Nature."
161
474600
2840
của một ấn phẩm từ tạp chí "Nature"
07:58
So even the most data-savvy companies, Amazon and Google,
162
478480
3336
Cho nên đến cả những công ty giỏi nhất về dữ liệu như Amazon và Google,
08:01
they sometimes get it wrong.
163
481840
2136
đôi lúc cũng mắc sai lầm.
08:04
And despite all those failures,
164
484000
2936
Và mặc cho những thất bại đó,
08:06
data is moving rapidly into real-life decision-making --
165
486960
3856
dữ liệu vẫn nhanh chóng tiếp cận vào việc đưa ra quyết định trong đời thực,
08:10
into the workplace,
166
490840
1816
nơi làm việc,
08:12
law enforcement,
167
492680
1816
thực thi pháp luật,
08:14
medicine.
168
494520
1200
y tế.
08:16
So we should better make sure that data is helping.
169
496400
3336
Chúng ta nên làm rõ là những dữ liệu này rất hữu ích
08:19
Now, personally I've seen a lot of this struggle with data myself,
170
499760
3136
Hiện nay, cá nhân tôi thường thấy bản thân vật lộn rất nhiều với dữ liệu
08:22
because I work in computational genetics,
171
502920
1976
vì tôi làm việc ở ngành tính toán di truyền học
08:24
which is also a field where lots of very smart people
172
504920
2496
đây cũng là ngành có rất nhiều người cực kì thông minh
08:27
are using unimaginable amounts of data to make pretty serious decisions
173
507440
3656
sử dùng 1 lượng dữ liệu nhiều không tưởng để đưa ra các quyết định quan trọng
08:31
like deciding on a cancer therapy or developing a drug.
174
511120
3560
như quyết định về phương pháp chữa ung thư hoặc phát triển thuốc.
08:35
And over the years, I've noticed a sort of pattern
175
515520
2376
Qua nhiều năm, tôi đã nhận thấy một loại dấu hiệu
08:37
or kind of rule, if you will, about the difference
176
517920
2456
hay một kiểu quy luật, nếu bạn muốn, về sự khác biệt
08:40
between successful decision-making with data
177
520400
2696
giữa đưa ra quyết định thành công với dữ liệu
08:43
and unsuccessful decision-making,
178
523120
1616
và đưa ra quyết định thất bại,
08:44
and I find this a pattern worth sharing, and it goes something like this.
179
524760
3880
và tôi thấy đây là một mô hình đáng để chia sẻ, và nó là một thứ gì đó như thế
08:50
So whenever you're solving a complex problem,
180
530520
2135
Bất cứ khi nào bạn giải quyết một vấn đề phức tạp,
08:52
you're doing essentially two things.
181
532679
1737
bạn đang thực hiện về cơ bản 2 điều.
08:54
The first one is, you take that problem apart into its bits and pieces
182
534440
3296
Thứ nhất là, bạn chia nhỏ vấn đề đó ra thành những phần nhỏ lẻ
08:57
so that you can deeply analyze those bits and pieces,
183
537760
2496
để bạn có thể phấn tích kĩ lưỡng những phần nhỏ đó,
09:00
and then of course you do the second part.
184
540280
2016
và sau đó tất nhiện bạn sẽ làm tiếp phần 2
09:02
You put all of these bits and pieces back together again
185
542320
2656
Bạn xếp những phần nhỏ đó lại với nhau
09:05
to come to your conclusion.
186
545000
1336
để đi đến kết luận cuối cùng
09:06
And sometimes you have to do it over again,
187
546360
2336
Và đôi khi bạn phải lặp lại nó lần nữa
09:08
but it's always those two things:
188
548720
1656
nhưng nó vẫn chỉ là 2 điều đó:
09:10
taking apart and putting back together again.
189
550400
2320
chia nhỏ ra và sắp đặt lại lần nữa
09:14
And now the crucial thing is
190
554280
1616
Và điều quan trọng bây giờ là
09:15
that data and data analysis
191
555920
2896
dữ liệu đó và phân tích dữ liệu
09:18
is only good for the first part.
192
558840
2496
chỉ tốt ở bước đầu tiên.
09:21
Data and data analysis, no matter how powerful,
193
561360
2216
dữ liệu và phân tích dữ liệu, dù mạnh mẽ cỡ nào
09:23
can only help you taking a problem apart and understanding its pieces.
194
563600
4456
cũng chỉ có thể giúp bạn chia nhỏ vấn đề và hiểu rõ từng phần của nó
09:28
It's not suited to put those pieces back together again
195
568080
3496
Nó không phù hợp để đặt các phần nhỏ lại 1 lần nữa
09:31
and then to come to a conclusion.
196
571600
1896
và cuối cùng đi đến kết luận.
09:33
There's another tool that can do that, and we all have it,
197
573520
2736
Có 1 công cụ khác có thể làm việc đó, và chúng ta đều có nó,
09:36
and that tool is the brain.
198
576280
1296
nó chính là bộ não.
09:37
If there's one thing a brain is good at,
199
577600
1936
Nếu có 1 thứ mà bộ não rất giỏi,
09:39
it's taking bits and pieces back together again,
200
579560
2256
thì đó chính là sắp xếp các phần nhỏ lại với nhau,
09:41
even when you have incomplete information,
201
581840
2016
thậm chí cả khi bạn không có đủ thông tin,
09:43
and coming to a good conclusion,
202
583880
1576
và đi đến một kết luận tuyệt vời,
09:45
especially if it's the brain of an expert.
203
585480
2936
đặc biệt khi nó là bộ não của 1 chuyên gia
09:48
And that's why I believe that Netflix was so successful,
204
588440
2656
Đó là lí do vì sao tôi tin là Netflix đã rất thành công,
09:51
because they used data and brains where they belong in the process.
205
591120
3576
Vì họ đã sử dụng dữ liệu và bộ não vào đúng chỗ nó cần trong cả quá trình.
09:54
They use data to first understand lots of pieces about their audience
206
594720
3536
Họ sử dụng dữ liệu trước tiên để hiểu rõ nhiều phần nhỏ về khán giả của họ
09:58
that they otherwise wouldn't have been able to understand at that depth,
207
598280
3416
nếu không họ sẽ không thể hiểu tường tận đến thế,
10:01
but then the decision to take all these bits and pieces
208
601720
2616
nhưng quyết định để lấy hết các phần nhỏ đó
10:04
and put them back together again and make a show like "House of Cards,"
209
604360
3336
và sắp xếp chúng lại rồi thực hiện chương trình "House of Cards"
10:07
that was nowhere in the data.
210
607720
1416
nó không hề nằm trong dữ liệu
10:09
Ted Sarandos and his team made that decision to license that show,
211
609160
3976
Ted Sarandos và nhóm của anh ấy đã đưa ra quyết định cấp phép cho chương trình đó,
10:13
which also meant, by the way, that they were taking
212
613160
2381
cũng có nghĩa là, bằng cách này, họ đã đánh cược
10:15
a pretty big personal risk with that decision.
213
615565
2851
một rủi ro cá nhân khá lớn cho quyết định này.
10:18
And Amazon, on the other hand, they did it the wrong way around.
214
618440
3016
Và Amazon, mặt khác, họ đã đi sai đường.
10:21
They used data all the way to drive their decision-making,
215
621480
2736
Họ sử dụng dữ liệu trên cả con đường đi đến quyết định,
10:24
first when they held their competition of TV ideas,
216
624240
2416
đầu tiên khi họ tổ chức cuộc thi về các ý tưởng TV
10:26
then when they selected "Alpha House" to make as a show.
217
626680
3696
tiếp đến là khi họ chọn "Alpha House" để làm chương trình.
10:30
Which of course was a very safe decision for them,
218
630400
2496
Tất nhiên đó là một quyết định an toàn cho họ,
10:32
because they could always point at the data, saying,
219
632920
2456
Vì họ luôn có thể chỉ vào dữ liệu và nói
10:35
"This is what the data tells us."
220
635400
1696
"Đây là những gì dữ liệu nói cho chúng tôi"
10:37
But it didn't lead to the exceptional results that they were hoping for.
221
637120
4240
Nhưng nó không đưa đến một kết quả chấp nhận được mà họ mong chờ
Cho nên dữ liệu dĩ nhiên là 1 công cụ cực kì hữu hiệu để đưa ra quyết định tốt hơn,
10:42
So data is of course a massively useful tool to make better decisions,
222
642120
4976
10:47
but I believe that things go wrong
223
647120
2376
nhưng tôi tin là mọi thứ sẽ đi sai
10:49
when data is starting to drive those decisions.
224
649520
2576
khi dữ liệu bắt đầu điều khiến những quyết định đó.
10:52
No matter how powerful, data is just a tool,
225
652120
3776
Mặc dù rất mạnh nhưng dữ liệu chỉ là một công cụ,
10:55
and to keep that in mind, I find this device here quite useful.
226
655920
3336
và để ghi nhớ điều đó, tôi cho rằng thiết bị này khá hữu dụng.
10:59
Many of you will ...
227
659280
1216
Nhiều người trong các bạn cũng sẽ vậy...
11:00
(Laughter)
228
660520
1216
(Cười)
11:01
Before there was data,
229
661760
1216
Trước khi sử dụng dữ liệu
11:03
this was the decision-making device to use.
230
663000
2856
hãy sử dụng thiết bị đưa ra quyết định này
11:05
(Laughter)
231
665880
1256
(Cười)
Nhiều người trong các bạn sẽ biết nó
11:07
Many of you will know this.
232
667160
1336
11:08
This toy here is called the Magic 8 Ball,
233
668520
1953
Món đồ chơi này gọi là "The Magic 8 Ball"
11:10
and it's really amazing,
234
670497
1199
và nó thật sự tuyệt vời,
11:11
because if you have a decision to make, a yes or no question,
235
671720
2896
Vì khi bạn cần đưa ra quyết định, một câu hỏi có hay không,
11:14
all you have to do is you shake the ball, and then you get an answer --
236
674640
3736
những gì bạn phải làm là lắc quả banh, sau đó bạn sẽ có câu trả lời
11:18
"Most Likely" -- right here in this window in real time.
237
678400
2816
"Có khả năng cao"ngay tại đây, trong của sổ này, ngay lúc này.
11:21
I'll have it out later for tech demos.
238
681240
2096
Tôi sẽ đưa nó ra cho bản thử công nghệ sau
11:23
(Laughter)
239
683360
1216
(Cười)
11:24
Now, the thing is, of course -- so I've made some decisions in my life
240
684600
3576
Bây giờ, vấn đề là, dĩ nhiên.. tôi từng đưa ra những quyết định trong đời
11:28
where, in hindsight, I should have just listened to the ball.
241
688200
2896
mà trong nhận thức đáng lẽ tôi nên nghe theo quả banh này.
11:31
But, you know, of course, if you have the data available,
242
691120
3336
Nhưng, bạn biết đấy, dĩ nhiên nếu bạn có dữ liệu sẵn đây,
11:34
you want to replace this with something much more sophisticated,
243
694480
3056
bạn sẽ muốn thay thế nó cho thứ gì đó tinh vi hơn,
11:37
like data analysis to come to a better decision.
244
697560
3616
như phân tích dữ liệu, để đi đến quyết định tốt hơn.
11:41
But that does not change the basic setup.
245
701200
2616
nhưng nó không là thay đổi những thiết lập cơ bản.
11:43
So the ball may get smarter and smarter and smarter,
246
703840
3176
Và quả banh có lẽ ngày càng thông minh, thông minh hơn nữa,
11:47
but I believe it's still on us to make the decisions
247
707040
2816
nhưng tôi tin nó vẫn tùy vào chúng ta để đưa ra quyết định
11:49
if we want to achieve something extraordinary,
248
709880
3016
nếu chúng ta muốn đạt được điều gì đó phi thường,
11:52
on the right end of the curve.
249
712920
1936
ở phía cuối bên phải của đường cong.
11:54
And I find that a very encouraging message, in fact,
250
714880
4496
Và tôi thấy nó thật sự là mội thông điệp đầy khích lệ,
11:59
that even in the face of huge amounts of data,
251
719400
3976
rằng thậm chí khi đối mặt với một lượng dữ liệu khổng lồ,
12:03
it still pays off to make decisions,
252
723400
4096
nó vẫn đáng để đưa ra quyết định
12:07
to be an expert in what you're doing
253
727520
2656
trở thành 1 chuyên gia trong những gì mình đang làm
12:10
and take risks.
254
730200
2096
và chấp nhận rủi ro.
12:12
Because in the end, it's not data,
255
732320
2776
Bởi vì cuối cùng, đó không chỉ là dữ liệu,
12:15
it's risks that will land you on the right end of the curve.
256
735120
3960
Nó là rủi ro sẽ đưa bạn đến phía cuối bên phải của đường cong.
12:19
Thank you.
257
739840
1216
Cảm ơn
12:21
(Applause)
258
741080
3680
(Vỗ tay)
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7