How to use data to make a hit TV show | Sebastian Wernicke

133,338 views ・ 2016-01-27

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: رضا صابری Reviewer: Leila Ataei
00:12
Roy Price is a man that most of you have probably never heard about,
0
12820
4276
احتمالا بیشتر ما اسم "روی پرایس" رو نشنیدیم،
00:17
even though he may have been responsible
1
17120
2496
با اینکه مسئول
00:19
for 22 somewhat mediocre minutes of your life on April 19, 2013.
2
19640
6896
۲۲ دقیقه از اوقات نه چندان خوبه شما در ۱۹ آوریل سال ۲۰۱۳ بوده.
00:26
He may have also been responsible for 22 very entertaining minutes,
3
26560
3176
از طرفی هم شاید مسئول ۲۲ دقیقه بسیار سرگرم کننده از اوقات شما بوده،
00:29
but not very many of you.
4
29760
2256
البته نه برای خیلی‌هاتون.
00:32
And all of that goes back to a decision
5
32040
1896
همه اینها به تصمیمی برمیگرده
00:33
that Roy had to make about three years ago.
6
33960
2000
که "رُوی" سه سال پیش باید میگرفت.
00:35
So you see, Roy Price is a senior executive with Amazon Studios.
7
35984
4832
میدونید، "روی پرایس" یکی از مدیران اجرایی بالا رتبه در آمازون استودیوز هست.
00:40
That's the TV production company of Amazon.
8
40840
3016
شرکت تولیدکننده محصولات رسانه‌ای متعلق به آمازون.
00:43
He's 47 years old, slim, spiky hair,
9
43880
3256
اون ۲۷ سال داره، لاغره، موهاش تیغ تیغیه،
00:47
describes himself on Twitter as "movies, TV, technology, tacos."
10
47160
4816
خودش توی "توئیتر" میگه اهل سینما، تلویزیون، تکنولوژی و پیراشکی مکزیکیه.
00:52
And Roy Price has a very responsible job, because it's his responsibility
11
52000
5176
خوب "روی پرایس" کار حساسی داره چون مسئولیتش اینه که
00:57
to pick the shows, the original content that Amazon is going to make.
12
57200
4056
برنامه‌هایی رو انتخاب کنه که آمازون قراره اونا رو بسازه.
01:01
And of course that's a highly competitive space.
13
61280
2336
و بدون شک در فضای رقابتی شدیدی فعالیت میکنه.
01:03
I mean, there are so many TV shows already out there,
14
63640
2736
چون برنامه‌های تلویزیونی خیلی زیادی وجود دارن،
01:06
that Roy can't just choose any show.
15
66400
2176
"روی" هر برنامه‌ای هم نمیتونه انتخاب کنه.
01:08
He has to find shows that are really, really great.
16
68600
4096
اون باید برنامه‌های رو انتخاب کنه که واقعاً عالی هستن.
01:12
So in other words, he has to find shows
17
72720
2816
یعنی باید دنبال برنامه‌هایی باشه که
01:15
that are on the very right end of this curve here.
18
75560
2376
در انتهای سمت راست این منحنی بشینن،
01:17
So this curve here is the rating distribution
19
77960
2656
این منحنی نشون دهنده توزیع رتبه بندیِ
01:20
of about 2,500 TV shows on the website IMDB,
20
80640
4376
حدوداً ۲,۵۰۰ برنامه تلویزیونی در تارنمایه IMDB هست،
01:25
and the rating goes from one to 10,
21
85040
2896
و این رتبه بندی از یک تا ده هست.
01:27
and the height here shows you how many shows get that rating.
22
87960
2976
و محور عمودی نشون میده چه تعداد برنامه اون رتبه رو دارن،
01:30
So if your show gets a rating of nine points or higher, that's a winner.
23
90960
4696
خوب اگر برنامه شما رتبه ۹ یا بالاتر رو داشته باشه، برنده شده.
01:35
Then you have a top two percent show.
24
95680
1816
یعنی رتبه برنامتون خیلی بالاست.
01:37
That's shows like "Breaking Bad," "Game of Thrones," "The Wire,"
25
97520
3896
سریالهایی مثل "Breaking Bad" ، "Game of Thrones" و "The Wire".
01:41
so all of these shows that are addictive,
26
101440
2296
همه این سریالها اعتیاد آورن.
01:43
whereafter you've watched a season, your brain is basically like,
27
103760
3056
بعد از اینکه فصل اول رو ببینید انگار مغزتون میگه،
01:46
"Where can I get more of these episodes?"
28
106840
2176
«کجا میتونم قسمت های بعدی رو پیدا کنم؟»
01:49
That kind of show.
29
109040
1200
منظورم این برنامه‌هاست.
01:50
On the left side, just for clarity, here on that end,
30
110920
2496
برای اینکه روشنتون کنم سمت چپ یعنی در این انتها،
01:53
you have a show called "Toddlers and Tiaras" --
31
113440
3176
برنامه هایی مثله "Toddlers and Tiaras" وجود دارنــ
01:56
(Laughter)
32
116640
2656
(خنده)
01:59
-- which should tell you enough
33
119320
1536
ــکه به اندازه کافی بهتون میگه
02:00
about what's going on on that end of the curve.
34
120880
2191
انتهای این منحنی چی میگذره.
02:03
Now, Roy Price is not worried about getting on the left end of the curve,
35
123095
4161
"روی پرایس" نگران این نیست که به انتهای چپ این منحنی برسه،
02:07
because I think you would have to have some serious brainpower
36
127280
2936
چون من فکر کنم آدم باید واقعاً قدرت ذهنی بالایی داشته باشه که
02:10
to undercut "Toddlers and Tiaras."
37
130240
1696
Toddlers and Tiarasرو زیرقیمت بفروشه.
02:11
So what he's worried about is this middle bulge here,
38
131960
3936
نگرانیه اصلی اون چیزیه که وسط این منحنی میگذره،
02:15
the bulge of average TV,
39
135920
1816
یعنی برنامه‌های متوسط،
02:17
you know, those shows that aren't really good or really bad,
40
137760
2856
منظورم برنامه‌هایی که نه خیلی خوبن نه خیلی بد،
02:20
they don't really get you excited.
41
140639
1656
برنامه‌هایی که شما رو به وجد نمیارن.
02:22
So he needs to make sure that he's really on the right end of this.
42
142320
4856
اون میخواست مطمئن شه که واقعاً در انتهای درست این ماجرا قرار بگیره.
02:27
So the pressure is on,
43
147200
1576
پس همچنان فشار ادامه داره،
02:28
and of course it's also the first time
44
148800
2176
و البته اولین باریه که
02:31
that Amazon is even doing something like this,
45
151000
2176
آمازون داره چنین کاری انجام میده
02:33
so Roy Price does not want to take any chances.
46
153200
3336
پس "روی پرایس" نمیخواد پای شانس رو بکشه وسط.
02:36
He wants to engineer success.
47
156560
2456
بلکه میخواست موفقیت رو مهندسی کنه.
02:39
He needs a guaranteed success,
48
159040
1776
اون باید موفقیت رو ضمانت کنه،
02:40
and so what he does is, he holds a competition.
49
160840
2576
پس برای انجام این کار یه مسابقه برگزار کرد.
02:43
So he takes a bunch of ideas for TV shows,
50
163440
3136
برای این کار تعدادی ایده برای ساخت برنامه‌های تلویزیونی جمع کرد،
02:46
and from those ideas, through an evaluation,
51
166600
2296
و با ارزیابی اون ایده‌ها،
02:48
they select eight candidates for TV shows,
52
168920
4096
هشت کاندیدا برای برنامه‌های تلویزیونی انتخاب کردند،
02:53
and then he just makes the first episode of each one of these shows
53
173040
3216
و قسمت اول هر کدوم از این برنامه‌ها رو تهیه کرد
02:56
and puts them online for free for everyone to watch.
54
176280
3136
و اون برنامه‌ها را به صورت رایگان روی اینترنت گذاشت تا همه ببینن.
02:59
And so when Amazon is giving out free stuff,
55
179440
2256
خوب وقتی آمازون چیزی رو رایگان میذاره،
03:01
you're going to take it, right?
56
181720
1536
شما هم تماشایش میکنید، نه؟
03:03
So millions of viewers are watching those episodes.
57
183280
5136
خوب الان میلیونها نفر دارن این برنامه‌ها رو میبینن.
03:08
What they don't realize is that, while they're watching their shows,
58
188440
3216
اما نمیدونن که درحالی که دارن برنامشون رو میبینن،
03:11
actually, they are being watched.
59
191680
2296
در واقع تحت نظرند.
03:14
They are being watched by Roy Price and his team,
60
194000
2336
"روی پرایس" و تیمش در حال تماشا کردن اونا هستن،
03:16
who record everything.
61
196360
1376
و همه چیز رو ثبت میکنن.
03:17
They record when somebody presses play, when somebody presses pause,
62
197760
3376
اونها ثبت میکن فرد چند بار پخش یا مکث رو فشار میده،
03:21
what parts they skip, what parts they watch again.
63
201160
2536
یا اینکه بخشی رو رد میکنه، یا دوباره میبینه.
03:23
So they collect millions of data points,
64
203720
2256
اونا میلیونها نقطه اطلاعاتی جمع میکنن،
03:26
because they want to have those data points
65
206000
2096
چون به این نقاط اطلاعاتی نیاز دارن تا
03:28
to then decide which show they should make.
66
208120
2696
بتونن تصمیم بگیرن چه نوع برنامه‌ای باید ساخت.
03:30
And sure enough, so they collect all the data,
67
210840
2176
و برای اطمینان تمامی اطلاعات رو جمع می‌کنن،
03:33
they do all the data crunching, and an answer emerges,
68
213040
2576
تمام اطلاعات را پردازش می‌کنن تا به یک جواب برسن،
03:35
and the answer is,
69
215640
1216
و اون جواب اینه که
03:36
"Amazon should do a sitcom about four Republican US Senators."
70
216880
5536
آمازون باید یه طنز بسازه درباره چهار سناتور جمهوریخواه آمریکایی.
03:42
They did that show.
71
222440
1216
اونا این برنامه رو ساختن.
03:43
So does anyone know the name of the show?
72
223680
2160
کسی اسم اون برنامه رو میدونه؟
03:46
(Audience: "Alpha House.")
73
226720
1296
(حضار: Alpha House)
03:48
Yes, "Alpha House,"
74
228040
1456
درسته، «Alpha House»
03:49
but it seems like not too many of you here remember that show, actually,
75
229520
4096
انگار خیلی‌هاتون اون برنامه رو به خاطر نمیارید،
03:53
because it didn't turn out that great.
76
233640
1856
چون چیز جالبی از کار در نیومد.
03:55
It's actually just an average show,
77
235520
1856
واقعیتش یه برنامه متوسط بود،
03:57
actually -- literally, in fact, because the average of this curve here is at 7.4,
78
237400
4576
دقیقاً همینطوره، چون در این منحنی حد متوسط در نقطه ۷/۴ هست،
04:02
and "Alpha House" lands at 7.5,
79
242000
2416
و برنامه آلفا هاوس در نقطه ۷/۵ قرار داره،
04:04
so a slightly above average show,
80
244440
2016
در واقع یه کمی بالای حد متوسط،
04:06
but certainly not what Roy Price and his team were aiming for.
81
246480
2920
و صد البته این چیزی نیست که "روی پرایس" و تیمش میخواستن.
04:10
Meanwhile, however, at about the same time,
82
250320
2856
اما همون موقع،
04:13
at another company,
83
253200
1576
در یک شرکت دیگه،
04:14
another executive did manage to land a top show using data analysis,
84
254800
4216
یک مدیر اجرایی دیگه تونست با تجزیه و تحیل اطلاعات یک برنامه عالی بسازه،
04:19
and his name is Ted,
85
259040
1576
و اسم اون فرد «تد» هست،
04:20
Ted Sarandos, who is the Chief Content Officer of Netflix,
86
260640
3416
«تد ساراندوز»، مدیر ارشد محتوی در شرکت نتفلیکس،
04:24
and just like Roy, he's on a constant mission
87
264080
2136
اون هم دقیقاً مثله "روی" کمر همت رو بسته بود
04:26
to find that great TV show,
88
266240
1496
تا یه برنامه عالی پیدا کنه،
04:27
and he uses data as well to do that,
89
267760
2016
او هم از اطلاعات برای این کار استفاده کرد،
04:29
except he does it a little bit differently.
90
269800
2015
بجز اینکه یه فرق کوچیک این وسط وجود داشت،
04:31
So instead of holding a competition, what he did -- and his team of course --
91
271839
3737
یعنی به جای برگزاری مسابقه، کاری که اون و و البته تیمش کردن این بود که
04:35
was they looked at all the data they already had about Netflix viewers,
92
275600
3536
با دقت همه اطلاعاتی که درباره مخاطبین نتفلیکس داشتن رو بررسی کردن،
04:39
you know, the ratings they give their shows,
93
279160
2096
مثل امتیازی که افراد به برنامه‌ها داده بودن،
04:41
the viewing histories, what shows people like, and so on.
94
281280
2696
سابقه تماشای برنامه، اینکه مردم چی دوست دارن و غیره.
04:44
And then they use that data to discover
95
284000
1896
اونها ازاین اطلاعات بهره بردن تا
04:45
all of these little bits and pieces about the audience:
96
285920
2616
زیر و بم مخاطبین رو بشناسن:
04:48
what kinds of shows they like,
97
288560
1456
مثلا چه برنامه‌هایی دوست دارن،
04:50
what kind of producers, what kind of actors.
98
290040
2096
یا کدوم تهیه کننده و کدوم بازگر رو میخوان،
04:52
And once they had all of these pieces together,
99
292160
2576
وقتی که همه این اطلاعات رو کنار هم گذاشتن،
04:54
they took a leap of faith,
100
294760
1656
دل رو به دریا زدن،
04:56
and they decided to license
101
296440
2096
و تصمیم گرقتن تا اون برنامه رو بسازن،
04:58
not a sitcom about four Senators
102
298560
2456
اون هم نه یه کمدی درباره چهار سناتور،
05:01
but a drama series about a single Senator.
103
301040
2880
بلکه یه سریال درام درباره یک و فقط یه سناتور ساختن.
05:04
You guys know the show?
104
304760
1656
فکر کنم بدونین اسمش چی بود؟
05:06
(Laughter)
105
306440
1296
(خنده)
05:07
Yes, "House of Cards," and Netflix of course, nailed it with that show,
106
307760
3736
آره،درسته، سریال «خانه پوشالی» و البته شرکت نتفلیکس زدن به هدف،
05:11
at least for the first two seasons.
107
311520
2136
حداقلش برای دو فصل اول که اینجور بود.
05:13
(Laughter) (Applause)
108
313680
3976
(خنده) (تشویق)
05:17
"House of Cards" gets a 9.1 rating on this curve,
109
317680
3176
سریال «خانه پوشالی» در نمودار ما در امتیاز ۹/۱ نشست،
05:20
so it's exactly where they wanted it to be.
110
320880
3176
یعنی دقیقاً همونجایی که سازندهاش میخواستن باشه.
05:24
Now, the question of course is, what happened here?
111
324080
2416
خوب سؤالی که پیش میاد اینه که «چی شد که این شد؟»
05:26
So you have two very competitive, data-savvy companies.
112
326520
2656
خوب ما اینجا دوتا شرکت خیلی رقیب و خوره اطلاعات داریم.
05:29
They connect all of these millions of data points,
113
329200
2856
اونها این میلیونها نقطه اطلاعاتی رو با هم ربط دادن
05:32
and then it works beautifully for one of them,
114
332080
2376
و این کار برای یه برنامه جواب داد،
05:34
and it doesn't work for the other one.
115
334480
1856
ولی برای بقیه جواب نداد.
05:36
So why?
116
336360
1216
اما چرا؟
05:37
Because logic kind of tells you that this should be working all the time.
117
337600
3456
چون منطقیش اینه که این کار باید برای همه برنامه‌ها جواب بده.
05:41
I mean, if you're collecting millions of data points
118
341080
2456
یعنی وقتی شما میلیونها نقطه اطلاعاتی جمع میکنید
05:43
on a decision you're going to make,
119
343560
1736
برای تصمیمی که قرار بگیرید،
05:45
then you should be able to make a pretty good decision.
120
345320
2616
پس قاعدتاً باید تصمیم خوبی بتونید بگیرید.
05:47
You have 200 years of statistics to rely on.
121
347960
2216
اندازه ۲۰۰ سال عدد و رقم دارید که روش حساب کنید.
05:50
You're amplifying it with very powerful computers.
122
350200
3016
و با کامپیوترهای خیلی قوی اونا رو تعبیر و تفسیر میکنید.
05:53
The least you could expect is good TV, right?
123
353240
3280
حداقل چیزی که باید انتظارشو داشت برنامه‌های تلویزیونی خوبه.
05:57
And if data analysis does not work that way,
124
357880
2720
اگر تجزیه و تحلیل داده‌ها خوب کار نکنه،
06:01
then it actually gets a little scary,
125
361520
2056
یه جورایی قضیه ترسناک میشه،
06:03
because we live in a time where we're turning to data more and more
126
363600
3816
چون داریم تو دوره‌ای زندگی میکنیم که خیلی بیشتر از قبل به اطلاعات نیاز داریم
06:07
to make very serious decisions that go far beyond TV.
127
367440
4480
برای گرفتن تصمیمهایی که خیلی فراتر از برنامه های تلویزونیه.
06:12
Does anyone here know the company Multi-Health Systems?
128
372760
3240
کسی اینجا شرکت "Multi-Health Systems" رو میشناسه؟
06:17
No one. OK, that's good actually.
129
377080
1656
هیچ کس. خوب این واقعاً خوبه
06:18
OK, so Multi-Health Systems is a software company,
130
378760
3216
"Multi-Health Systems" یه شرکت نرم افزاریه
06:22
and I hope that nobody here in this room
131
382000
2816
و امیدوارم هیچ کسی اینجا
06:24
ever comes into contact with that software,
132
384840
3176
تا حالا به اون برنامشون بر نخورده باشه،
06:28
because if you do, it means you're in prison.
133
388040
2096
چون انجام این کار مساوی با زندانی شدنتون هست.
06:30
(Laughter)
134
390160
1176
(خنده)
06:31
If someone here in the US is in prison, and they apply for parole,
135
391360
3536
اگر اینجا، در آمریکا کسی در زندان باشه و درخواست آزادی مشروط کنه،
06:34
then it's very likely that data analysis software from that company
136
394920
4296
به احتمال خیلی زیاد نرم افزار تحلیل اطلاعات این شرکت
06:39
will be used in determining whether to grant that parole.
137
399240
3616
بکار میره تا تعین کنند این آزادی به فرد تعلق میگیره یا نه.
06:42
So it's the same principle as Amazon and Netflix,
138
402880
2576
یعنی اصولش مثل آمازون و نتفلیکس میمونه،
06:45
but now instead of deciding whether a TV show is going to be good or bad,
139
405480
4616
اما به جای اینکه تصمیم بگیرن که یه برنامه تلویزیونی خوبه یا بد،
06:50
you're deciding whether a person is going to be good or bad.
140
410120
2896
اونها تصمیم میگیرن که آیا یک نفر خوبه یا بد.
06:53
And mediocre TV, 22 minutes, that can be pretty bad,
141
413040
5496
و اگه فرد هم مثل سریالهای متوسط ۲۲ دقیقه‌ای تلویزیون خیلی بد باشه،
06:58
but more years in prison, I guess, even worse.
142
418560
2640
خوب سالهای بیشتری باید در زندان باشه شایدم بدتر از این.
07:02
And unfortunately, there is actually some evidence that this data analysis,
143
422360
4136
متأسفانه شواهدی هست که نشون میده این تحلیل اطلاعات
07:06
despite having lots of data, does not always produce optimum results.
144
426520
4216
با اینکه حجم زیادی داده داره همیشخ بهترین نتیجه رو نداره.
07:10
And that's not because a company like Multi-Health Systems
145
430760
2722
نه به این خاطر که شر کتی مثل "Multi-Health Systems"
07:13
doesn't know what to do with data.
146
433506
1627
نمیدونه با این اطلاعات چه کار کنه.
07:15
Even the most data-savvy companies get it wrong.
147
435158
2298
حتی بیشتر شرکتهای خوره اطلاعات هم اشتباه میکنن.
07:17
Yes, even Google gets it wrong sometimes.
148
437480
2400
بله حتی گاهی گوگل هم اشتباه میکنه.
07:20
In 2009, Google announced that they were able, with data analysis,
149
440680
4496
سال ۲۰۰۹، گوگل اعلام کرد که اونها با تحلیل داده‌ها تونستن،
07:25
to predict outbreaks of influenza, the nasty kind of flu,
150
445200
4136
شیوع آنفولانزا رو پیش بینی کنن، اون هم از اون نوع خیلی بدش،
07:29
by doing data analysis on their Google searches.
151
449360
3776
با کمک تحلیل اطلاعات بدست اومده از جستجوهای گوگلی.
07:33
And it worked beautifully, and it made a big splash in the news,
152
453160
3856
خوب این مسئله خیلی عالی کار کرد و مثله بمب تو خبرها ترکید،
07:37
including the pinnacle of scientific success:
153
457040
2136
و در زمره بهترینهای علمی قرار گرفت.
07:39
a publication in the journal "Nature."
154
459200
2456
یعنی انتشار این کار در مجله "Nature".
07:41
It worked beautifully for year after year after year,
155
461680
3616
این روش برای سالهای متمادی خیلی خوب جواب داد،
07:45
until one year it failed.
156
465320
1656
تا اینکه یک سال شکست خورد.
07:47
And nobody could even tell exactly why.
157
467000
2256
هیچ کسم نمیتونست بگه دقیقاً به چه علت.
07:49
It just didn't work that year,
158
469280
1696
فقط اون سال جواب نداد، همین
07:51
and of course that again made big news,
159
471000
1936
خوب معلومه که این مسئله هم خبرساز شد،
07:52
including now a retraction
160
472960
1616
از جمله اعلام اشتباه
07:54
of a publication from the journal "Nature."
161
474600
2840
در یکی از شماره های مجله نیچر.
07:58
So even the most data-savvy companies, Amazon and Google,
162
478480
3336
ببینید، بزرگترین شرکت های خوره اطلاعات مثله آمازون و گوگل،
08:01
they sometimes get it wrong.
163
481840
2136
هم اشتباه می کنن.
08:04
And despite all those failures,
164
484000
2936
و علی رغم تمام این اشتباهات،
08:06
data is moving rapidly into real-life decision-making --
165
486960
3856
اطلاعات به سرعت وارد تصمیم گیری درزندگی روزمرمون میشن--
08:10
into the workplace,
166
490840
1816
مثلا سر کارمون،
08:12
law enforcement,
167
492680
1816
اجرای قانون،
08:14
medicine.
168
494520
1200
دارو.
08:16
So we should better make sure that data is helping.
169
496400
3336
با این تفاصیل بهتره مطمئن بشیم که اطلاعات دارن به ما کمک می کنن.
08:19
Now, personally I've seen a lot of this struggle with data myself,
170
499760
3136
من خودم شخصاً با اطلاعات درگیری‌های زیادی داشتم،
08:22
because I work in computational genetics,
171
502920
1976
چون در زمینه ژنتیک محاسباتی کارمی‌کنم،
08:24
which is also a field where lots of very smart people
172
504920
2496
در این زمینه انسانهای بسیار با هوشی
08:27
are using unimaginable amounts of data to make pretty serious decisions
173
507440
3656
حجمی باور نکردنی از اطلاعات رو برای گرفتن تصمیمات جدی بکار میبرن
08:31
like deciding on a cancer therapy or developing a drug.
174
511120
3560
مثل تصمیمات مربوط به درمان سرطان یا ساختن یک دارو.
08:35
And over the years, I've noticed a sort of pattern
175
515520
2376
در مدت چند سال من متوجه نوعی الگو
08:37
or kind of rule, if you will, about the difference
176
517920
2456
یا قانون درباره تفاوت بین
08:40
between successful decision-making with data
177
520400
2696
تصمیم‌گیریهای موفق با استفاده از اطلاعات
08:43
and unsuccessful decision-making,
178
523120
1616
و تصمیم‌گیریهای ناموفق شدم،
08:44
and I find this a pattern worth sharing, and it goes something like this.
179
524760
3880
و الگویی پیدا کردم که ارزش به اشتراک گذاشتن داره.
08:50
So whenever you're solving a complex problem,
180
530520
2135
وقتی شما دارید یه مسئله پیچیده رو حل میکنید،
08:52
you're doing essentially two things.
181
532679
1737
الزاماً دو کار رو انجام می‌دهید.
08:54
The first one is, you take that problem apart into its bits and pieces
182
534440
3296
اول اینکه اون مسئله رو به اجزاء کوچکتر می‌شکنید
08:57
so that you can deeply analyze those bits and pieces,
183
537760
2496
تا بتونید اون اجزاء رو تجزیه وتحلیل کنید.
09:00
and then of course you do the second part.
184
540280
2016
خوب بعدشم مرحله دوم را انجام میدین.
09:02
You put all of these bits and pieces back together again
185
542320
2656
یعنی دوباره این اجزا رو به هم می‌چسبونید
09:05
to come to your conclusion.
186
545000
1336
تا به نتیجه برسید.
09:06
And sometimes you have to do it over again,
187
546360
2336
گاهی هم باید این کار رو چندین بار انجام بدین،
09:08
but it's always those two things:
188
548720
1656
اما همیشه همین دوتا مرحله هست:
09:10
taking apart and putting back together again.
189
550400
2320
جدا کردن و به هم چسبوندن.
09:14
And now the crucial thing is
190
554280
1616
اما چیزی که مسئله میسازه اینه که
09:15
that data and data analysis
191
555920
2896
اطلاعات و تجزیه و تحلیل
09:18
is only good for the first part.
192
558840
2496
فقط برای بخش اول خوبه.
09:21
Data and data analysis, no matter how powerful,
193
561360
2216
اطلاعات و تجزیه و تحلیل، هر قدر قدرتمند باشه،
09:23
can only help you taking a problem apart and understanding its pieces.
194
563600
4456
فقط به شما کمک میکنه مسئله رو بشکنید و اجزاء اون رو درک کنید.
09:28
It's not suited to put those pieces back together again
195
568080
3496
اما اصلا برای به هم چسبوندشون مناسب نیست
09:31
and then to come to a conclusion.
196
571600
1896
تا بشه به یک نتیجه رسید.
09:33
There's another tool that can do that, and we all have it,
197
573520
2736
ابزار دیگری وجود داره که میتونه این کار رو انجام بده،
09:36
and that tool is the brain.
198
576280
1296
اون ابزارهم مغزماست.
09:37
If there's one thing a brain is good at,
199
577600
1936
اگر مغز فقط تو یه کار خوب باشه،
09:39
it's taking bits and pieces back together again,
200
579560
2256
اینه که اجزاء رو دوباره به هم بچسبونه،
09:41
even when you have incomplete information,
201
581840
2016
حتی وقتی اطلاعاتتون کامل نباشه،
09:43
and coming to a good conclusion,
202
583880
1576
تا به یک نتیجه خوب رسید،
09:45
especially if it's the brain of an expert.
203
585480
2936
بخصوص اگه مغز یک متخصص باشه.
09:48
And that's why I believe that Netflix was so successful,
204
588440
2656
برای همینه که من فکر میکنم نتفلیکس خیلی موفق بود،
09:51
because they used data and brains where they belong in the process.
205
591120
3576
چون اونها از اطلاعات و مغز در جای مناسبشون استفاده کردن.
09:54
They use data to first understand lots of pieces about their audience
206
594720
3536
اول از اطلاعات استفاده کردن تا اجزاء زیادی رو درباره مخاطبینشون بفهمن
09:58
that they otherwise wouldn't have been able to understand at that depth,
207
598280
3416
غیر از این نمیتونستن اینقدر عمیق متوجه بشن،
10:01
but then the decision to take all these bits and pieces
208
601720
2616
اما بعدش، موقع تصمیم درباره بهم چسبودن اطلاعات
10:04
and put them back together again and make a show like "House of Cards,"
209
604360
3336
و ساختن سریال خانه پوشالی
10:07
that was nowhere in the data.
210
607720
1416
از اطلاعات استفاده نکردن.
10:09
Ted Sarandos and his team made that decision to license that show,
211
609160
3976
تد ساراندوز و تیمش بودن که تصمیم گرفتن اون برنامه رو بسازن،
10:13
which also meant, by the way, that they were taking
212
613160
2381
که معنیش اینه که اونها
10:15
a pretty big personal risk with that decision.
213
615565
2851
با گرفتن اون تصمیم ریسک خیلی بزرگی کردن.
10:18
And Amazon, on the other hand, they did it the wrong way around.
214
618440
3016
اما آمازون بی راهه رفت.
10:21
They used data all the way to drive their decision-making,
215
621480
2736
اونها از اطلاعات برای تصمیم گیری استفاده کردن،
10:24
first when they held their competition of TV ideas,
216
624240
2416
اول جایی که مسابقه ایده‌های تلویزیونی راه افتاد،
10:26
then when they selected "Alpha House" to make as a show.
217
626680
3696
بعدشم انتخاب« خانه آلفا»به عنوان برنامه تلویزونیشون.
10:30
Which of course was a very safe decision for them,
218
630400
2496
البته این تصمیم برای اونها کاملا مطمئن بود،
10:32
because they could always point at the data, saying,
219
632920
2456
چون همیشه میتونستن به اطلاعاتشون اشاره کنن و بگن،
10:35
"This is what the data tells us."
220
635400
1696
«این چیزیه که اطلاعات به ما میگه.»
10:37
But it didn't lead to the exceptional results that they were hoping for.
221
637120
4240
اما این کار به نتیجه فوق العاده‌ای که دنبالش بودن ختم نشد.
10:42
So data is of course a massively useful tool to make better decisions,
222
642120
4976
خوب اطلاعات بدون شک ابزاری بسیار کاربردی برای تصمیم گیریه،
10:47
but I believe that things go wrong
223
647120
2376
اما فکر میکنم اون موارد موقعی اشتباه از کار در اومد
10:49
when data is starting to drive those decisions.
224
649520
2576
که خود همون اطلاعات تصمیم گیرنده بود.
10:52
No matter how powerful, data is just a tool,
225
652120
3776
اطلاعات هرقدرم قوی باشه چیزی جز یک ابزار نیست،
10:55
and to keep that in mind, I find this device here quite useful.
226
655920
3336
برای اینکه این مسئله رو به ذهن بسپاریم این وسیله خیلی کمکمون میکنه.
10:59
Many of you will ...
227
659280
1216
خیلیهاتون میدونید--
11:00
(Laughter)
228
660520
1216
(خنده)
11:01
Before there was data,
229
661760
1216
قبل از اطلاعات،
11:03
this was the decision-making device to use.
230
663000
2856
از این برایه تصمیم گیری استفاده میکردن.
11:05
(Laughter)
231
665880
1256
(خنده)
11:07
Many of you will know this.
232
667160
1336
خیلیهاتون باهاش آشنایید.
11:08
This toy here is called the Magic 8 Ball,
233
668520
1953
به این ماسماسک میگن «توپ ۸ جادویی»،
11:10
and it's really amazing,
234
670497
1199
و واقعاً چیزِ جالبیه،
11:11
because if you have a decision to make, a yes or no question,
235
671720
2896
چون وقتی میخواید تصمیمی بگیرید و موندید بله بگید یا نه،
11:14
all you have to do is you shake the ball, and then you get an answer --
236
674640
3736
کافیه که توپ رو تکون بدید و بعدش جواب رو بفهمید--
11:18
"Most Likely" -- right here in this window in real time.
237
678400
2816
جوابم اینه،«به احتمال خیلی زیاد» دقیقا اینجا در دنیای واقعی.
11:21
I'll have it out later for tech demos.
238
681240
2096
بعداً برای دموهای تکنولوژی میندازمش کنار.
11:23
(Laughter)
239
683360
1216
(خنده)
11:24
Now, the thing is, of course -- so I've made some decisions in my life
240
684600
3576
خوب مسئله اینه که منم هم تصمیماتی در زندگیم گرفتم
11:28
where, in hindsight, I should have just listened to the ball.
241
688200
2896
جایی که با نگاهی به گذشته به حرفای این توپ گوش دادم.
11:31
But, you know, of course, if you have the data available,
242
691120
3336
اما اگه اطلاعاتی در دست دارید،
11:34
you want to replace this with something much more sophisticated,
243
694480
3056
بهتره توپ را با چیزی ماهرانه‌تر جایگزین کنید،
11:37
like data analysis to come to a better decision.
244
697560
3616
مثلا تجزیه و تحلیل اطلاعات برای تصمیم‌گیری.
11:41
But that does not change the basic setup.
245
701200
2616
اما اصل قضیه فرقی نمیکنه.
11:43
So the ball may get smarter and smarter and smarter,
246
703840
3176
این توپ همچنان باهوشتر و با هوشتر میشه،
11:47
but I believe it's still on us to make the decisions
247
707040
2816
من همچنان فکر میکنم ما خودمون باید تصمیم بگیریم
11:49
if we want to achieve something extraordinary,
248
709880
3016
اگز بخواهیم به چیز فوق العاده ای برسیم،
11:52
on the right end of the curve.
249
712920
1936
یعنی سمت راست این منحنی.
11:54
And I find that a very encouraging message, in fact,
250
714880
4496
پیام الهام بخشی که من در این قضیه متوجه شدم،
11:59
that even in the face of huge amounts of data,
251
719400
3976
اینه که حتی با داشتن حجم زیادی از اطلاعات،
12:03
it still pays off to make decisions,
252
723400
4096
هنوز هم می ارزه که تصمیم بگیرید،
12:07
to be an expert in what you're doing
253
727520
2656
تا بتونید در کارتون خبره بشین
12:10
and take risks.
254
730200
2096
و خطر کنید.
12:12
Because in the end, it's not data,
255
732320
2776
چن در آخر، این اطلاعات نیست که شما رو
12:15
it's risks that will land you on the right end of the curve.
256
735120
3960
به سمت راست منحنی میبره، بلکه ریسکه.
12:19
Thank you.
257
739840
1216
متشکرم.
12:21
(Applause)
258
741080
3680
(تشویق)
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7