How to use data to make a hit TV show | Sebastian Wernicke

133,338 views ・ 2016-01-27

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Ozay Ozaydin Gözden geçirme: Sancak Gülgen
00:12
Roy Price is a man that most of you have probably never heard about,
0
12820
4276
Roy Price, 19 Nisan 2013 tarihinde geçirdiğiniz 22 sıradan dakikanın
00:17
even though he may have been responsible
1
17120
2496
sorumlusu olsa da, büyük olasılıkla
00:19
for 22 somewhat mediocre minutes of your life on April 19, 2013.
2
19640
6896
çoğunuzun duymadığı bir isim.
00:26
He may have also been responsible for 22 very entertaining minutes,
3
26560
3176
O, aynı zamanda en eğlenceli 22 dakikanın da sorumlusu,
00:29
but not very many of you.
4
29760
2256
tabii hepiniz için değil.
00:32
And all of that goes back to a decision
5
32040
1896
Bunlar bizi Roy'un üç sene önce
00:33
that Roy had to make about three years ago.
6
33960
2000
almak zorunda olduğu bir karara götürüyor.
00:35
So you see, Roy Price is a senior executive with Amazon Studios.
7
35984
4832
Roy Price, Amazon Stüdyoları'nda bir üst düzey yönetici.
00:40
That's the TV production company of Amazon.
8
40840
3016
Bu, Amazon'un TV yapım şirketi.
00:43
He's 47 years old, slim, spiky hair,
9
43880
3256
47 yaşında, zayıf ve dik saçlı biri olan Roy, kendini Twitter'da
00:47
describes himself on Twitter as "movies, TV, technology, tacos."
10
47160
4816
"filmler, televizyon, teknoloji ve tako" anahtar kelimelerini ile tanıtıyor.
00:52
And Roy Price has a very responsible job, because it's his responsibility
11
52000
5176
Roy Price sorumluluğu ağır bir işi yürütüyor, çünkü onun işi
00:57
to pick the shows, the original content that Amazon is going to make.
12
57200
4056
Amazon'un yapacağı özgün içerikli programları seçmek.
01:01
And of course that's a highly competitive space.
13
61280
2336
Ve bu alanda rekabet oldukça yüksek.
01:03
I mean, there are so many TV shows already out there,
14
63640
2736
Demek istediğim, şu anda o kadar çok dizi var ki,
01:06
that Roy can't just choose any show.
15
66400
2176
Roy'un herhangi bir dizi seçmesi mümkün değil.
01:08
He has to find shows that are really, really great.
16
68600
4096
Onun, çok ama çok iyi dizileri bulması gerekiyor.
01:12
So in other words, he has to find shows
17
72720
2816
Başka bir deyişle, onun, bu eğrinin en sağında yer alacak
01:15
that are on the very right end of this curve here.
18
75560
2376
bir dizi bulması gerekiyor.
01:17
So this curve here is the rating distribution
19
77960
2656
Bu eğri IMDB sitesinde bulunan 2500 dizinin,
01:20
of about 2,500 TV shows on the website IMDB,
20
80640
4376
1-10 puan arasındaki puan dağılımının eğrisi
01:25
and the rating goes from one to 10,
21
85040
2896
ve yükseklik, kaç dizinin
01:27
and the height here shows you how many shows get that rating.
22
87960
2976
bu reytinge ulaştığını gösteriyor.
01:30
So if your show gets a rating of nine points or higher, that's a winner.
23
90960
4696
Yani eğer dizi 9'un üstünde bir reyting puanı alırsa bu bir zafer demektir.
01:35
Then you have a top two percent show.
24
95680
1816
Bir de en iyi %2'lik kesim var.
01:37
That's shows like "Breaking Bad," "Game of Thrones," "The Wire,"
25
97520
3896
Breaking Bad, Game of Thrones, The Wire gibi diziler mesela.
01:41
so all of these shows that are addictive,
26
101440
2296
Bu dizilerin hepsi, bir sezon izledikten sonra
01:43
whereafter you've watched a season, your brain is basically like,
27
103760
3056
beyninize "Diğer bölümleri nasıl bulurum?" sorusunu
01:46
"Where can I get more of these episodes?"
28
106840
2176
sorduracak kadar bağımlılık yapar.
01:49
That kind of show.
29
109040
1200
Bu tür diziler.
01:50
On the left side, just for clarity, here on that end,
30
110920
2496
Sol tarafta, biraz daha açık olmak gerekirse en sonda,
01:53
you have a show called "Toddlers and Tiaras" --
31
113440
3176
"Toddlers and Tiaras" adında
01:56
(Laughter)
32
116640
2656
(Kahkahalar)
01:59
-- which should tell you enough
33
119320
1536
eğrinin sonunda neler olduğunu
02:00
about what's going on on that end of the curve.
34
120880
2191
yeterince iyi açıklayan bir dizi var.
02:03
Now, Roy Price is not worried about getting on the left end of the curve,
35
123095
4161
Şu an Roy Price'ın eğrinin en solunda kalmak gibi bir endişesi yok
02:07
because I think you would have to have some serious brainpower
36
127280
2936
çünkü bence Toddlers and Tiaras'ın gerisine düşmek için ciddi
02:10
to undercut "Toddlers and Tiaras."
37
130240
1696
bir beyin gücünüzün olması lazım.
02:11
So what he's worried about is this middle bulge here,
38
131960
3936
Onun endişelendiği nokta ortadaki çıkıntı bölüm,
02:15
the bulge of average TV,
39
135920
1816
yani ortalama bir dizi,
02:17
you know, those shows that aren't really good or really bad,
40
137760
2856
bildiğiniz gibi çok iyi veya çok kötü olmayan diziler
02:20
they don't really get you excited.
41
140639
1656
bizi pek heyecanlandırmaz.
02:22
So he needs to make sure that he's really on the right end of this.
42
142320
4856
O yüzden onun hep eğrinin sağında kaldığından emin olması lazım.
02:27
So the pressure is on,
43
147200
1576
Üzerinde hissettiği baskı bu şekilde
02:28
and of course it's also the first time
44
148800
2176
ve Amazon ilk defa böyle şeyler
02:31
that Amazon is even doing something like this,
45
151000
2176
yapmaya başladığında Roy Price,
02:33
so Roy Price does not want to take any chances.
46
153200
3336
işini şansa bırakmak istemedi.
02:36
He wants to engineer success.
47
156560
2456
Başarıyı elde etmek istedi.
02:39
He needs a guaranteed success,
48
159040
1776
Başarıyı garantilemeye ihtiyacı vardı
02:40
and so what he does is, he holds a competition.
49
160840
2576
ve şuan yaptığı şey ise bir yarışı sürdürmek.
02:43
So he takes a bunch of ideas for TV shows,
50
163440
3136
Bu yüzden diziler için bir dizi fikir topluyor ve
02:46
and from those ideas, through an evaluation,
51
166600
2296
bu fikirleri değerlendirip
02:48
they select eight candidates for TV shows,
52
168920
4096
aralarından sekiz aday seçiyor ve
02:53
and then he just makes the first episode of each one of these shows
53
173040
3216
her birinin ilk bölümünü çekiyor.
02:56
and puts them online for free for everyone to watch.
54
176280
3136
Bu bölümleri ücretsiz olarak bir websitesinden yayınlıyor.
02:59
And so when Amazon is giving out free stuff,
55
179440
2256
Amazon ücretsiz olarak bir şey verirse
03:01
you're going to take it, right?
56
181720
1536
bu şeyi alırsınız değil mi?
03:03
So millions of viewers are watching those episodes.
57
183280
5136
Dolayısıyla milyonlarca kişi bu bölümleri izliyor.
03:08
What they don't realize is that, while they're watching their shows,
58
188440
3216
Onlarında farketmedikeri şey şu ki onlar bu bölümleri izlerken
03:11
actually, they are being watched.
59
191680
2296
asıl izlenen onlar.
03:14
They are being watched by Roy Price and his team,
60
194000
2336
Her şeyi kaydeden Roy Price ve takımı
03:16
who record everything.
61
196360
1376
tarafından izleniyorlar.
03:17
They record when somebody presses play, when somebody presses pause,
62
197760
3376
İzleyicinin oynat tuşuna basmasını, durdurmasını,
03:21
what parts they skip, what parts they watch again.
63
201160
2536
atladığı yerleri ve tekrar izlediği yerleri kaydediyorlar.
03:23
So they collect millions of data points,
64
203720
2256
Böylece milyonlarca veri parçacığı topluyorlar,
03:26
because they want to have those data points
65
206000
2096
çünkü hangi diziyi yapmak istediklerine
03:28
to then decide which show they should make.
66
208120
2696
karar verirken bu verilere sahip olmak istiyorlar.
03:30
And sure enough, so they collect all the data,
67
210840
2176
Pek tabii olarak bu verileri topluyorlar,
03:33
they do all the data crunching, and an answer emerges,
68
213040
2576
hepsini işledikten sonra cevap ortaya çıkıyor.
03:35
and the answer is,
69
215640
1216
Cevap şu ki:
03:36
"Amazon should do a sitcom about four Republican US Senators."
70
216880
5536
"Amazon Dört Cumhuriyetçi ABD senatörü hakkında bir sit-com yapmalı."
03:42
They did that show.
71
222440
1216
Diziyi yaptılar.
03:43
So does anyone know the name of the show?
72
223680
2160
Bu dizinin ismini hatırlayan var mı?
03:46
(Audience: "Alpha House.")
73
226720
1296
(Seyirci: "Alpha House.")
03:48
Yes, "Alpha House,"
74
228040
1456
Evet, "Alpha House."
03:49
but it seems like not too many of you here remember that show, actually,
75
229520
4096
aslında bir çoğunuz bu diziyi hatırlamıyor gibi gözüküyor,
03:53
because it didn't turn out that great.
76
233640
1856
çünkü çok büyük bir patlama yapmadı.
03:55
It's actually just an average show,
77
235520
1856
Yalnızca ortalama bir diziydi,
03:57
actually -- literally, in fact, because the average of this curve here is at 7.4,
78
237400
4576
çünkü aslında bu eğrinin ortalaması tam olarak 7.4 ve
04:02
and "Alpha House" lands at 7.5,
79
242000
2416
"Alpha House" 7.5 puanda.
04:04
so a slightly above average show,
80
244440
2016
Yani ortalamanın biraz üstünde ama
04:06
but certainly not what Roy Price and his team were aiming for.
81
246480
2920
bu Roy Price ve takımının amaçladığı şey kesinlikle bu değil.
04:10
Meanwhile, however, at about the same time,
82
250320
2856
Bu arada, her nasılsa, aynı zamanda
04:13
at another company,
83
253200
1576
başka bir şirkette,
04:14
another executive did manage to land a top show using data analysis,
84
254800
4216
Netflix'te İçerik Yönetim Şefi olan Ted, Ted Sarandos, veri analizini kullanarak
04:19
and his name is Ted,
85
259040
1576
en üst reytinge yerleşen bir dizi
04:20
Ted Sarandos, who is the Chief Content Officer of Netflix,
86
260640
3416
yapmayı başardı.
04:24
and just like Roy, he's on a constant mission
87
264080
2136
Onun da işi, aynı Roy'unki gibi
04:26
to find that great TV show,
88
266240
1496
sürekli olarak çok iyi diziler bulmak.
04:27
and he uses data as well to do that,
89
267760
2016
O da bunu yapmak için verileri kullanıyor
04:29
except he does it a little bit differently.
90
269800
2015
ama biraz daha farklı yapıyor.
04:31
So instead of holding a competition, what he did -- and his team of course --
91
271839
3737
O ve takımı bir yarışma düzenlemek yerine
04:35
was they looked at all the data they already had about Netflix viewers,
92
275600
3536
halihazırda Netflix izleyicileri ile ilgili toplanmış, dizilere verilen
04:39
you know, the ratings they give their shows,
93
279160
2096
puanlar, izlenme geçmişleri, sevilen diziler
04:41
the viewing histories, what shows people like, and so on.
94
281280
2696
ve bunun gibi verilere bakıyorlar.
04:44
And then they use that data to discover
95
284000
1896
Bu verileri kullanarak,
04:45
all of these little bits and pieces about the audience:
96
285920
2616
seyirciler hakkında hangi tür dizileri,
04:48
what kinds of shows they like,
97
288560
1456
hangi tür yapımcıları,
04:50
what kind of producers, what kind of actors.
98
290040
2096
hangi tür aktörleri sevdikleri gibi veri kırıntılarına ulaşıyorlar.
04:52
And once they had all of these pieces together,
99
292160
2576
Bu kırıntıları bir araya getiriyorlar,
04:54
they took a leap of faith,
100
294760
1656
bu verilerle bir sıçrama yapıyorlar
04:56
and they decided to license
101
296440
2096
ve 4 senatör hakkında bir sitcom yapmaktansa
04:58
not a sitcom about four Senators
102
298560
2456
yalnızca bir senatör hakkında
05:01
but a drama series about a single Senator.
103
301040
2880
drama dizisi yapmaya karar veriyorlar.
05:04
You guys know the show?
104
304760
1656
Bu dizinin adını biliyor musunuz?
05:06
(Laughter)
105
306440
1296
(Kahkaha)
05:07
Yes, "House of Cards," and Netflix of course, nailed it with that show,
106
307760
3736
Evet, "House of Cards" ve Netflix elbette bu diziyle kasıp kavurdu,
05:11
at least for the first two seasons.
107
311520
2136
en azından ilk iki sezon.
05:13
(Laughter) (Applause)
108
313680
3976
(Kahkahalar)(Alkışlar)
05:17
"House of Cards" gets a 9.1 rating on this curve,
109
317680
3176
"House of Cards" bu eğride 9.1 puanda,
05:20
so it's exactly where they wanted it to be.
110
320880
3176
yani tam olarak istedikleri yerde.
05:24
Now, the question of course is, what happened here?
111
324080
2416
Şimdi soru şu, bu iki durumda ne oldu?
05:26
So you have two very competitive, data-savvy companies.
112
326520
2656
Şimdi, veri depolayan, rekabet içinde olan iki şirket var.
05:29
They connect all of these millions of data points,
113
329200
2856
Milyonlarca veri parçalarını birleştiriyorlar
05:32
and then it works beautifully for one of them,
114
332080
2376
ve bu veriler biri için çok işe yarıyor ama
05:34
and it doesn't work for the other one.
115
334480
1856
diğeri için iyi bir sonuç vermiyor?
05:36
So why?
116
336360
1216
Peki neden?
05:37
Because logic kind of tells you that this should be working all the time.
117
337600
3456
Çünkü mantığınız size bunun her zaman işe yaraması gerektiğini söylüyor.
05:41
I mean, if you're collecting millions of data points
118
341080
2456
Demem o ki, milyonlarca veri parçası topluyorsanız,
05:43
on a decision you're going to make,
119
343560
1736
bir karar vereceğiniz zaman
05:45
then you should be able to make a pretty good decision.
120
345320
2616
iyi bir karar vermiş olmanız lazım.
05:47
You have 200 years of statistics to rely on.
121
347960
2216
Güvenebileceğiniz 200 yıllık istatistikler var.
05:50
You're amplifying it with very powerful computers.
122
350200
3016
Bu verileri güçlü bilgisayarlarla büyütüyorsunuz.
05:53
The least you could expect is good TV, right?
123
353240
3280
En azından iyi bir dizi bekliyorsunuz, değil mi?
05:57
And if data analysis does not work that way,
124
357880
2720
Eğer veri analizi bu şekilde çalışmıyorsa,
06:01
then it actually gets a little scary,
125
361520
2056
durum biraz daha korkutucu bir hâl alıyor.
06:03
because we live in a time where we're turning to data more and more
126
363600
3816
Çünkü günümüzde televizyonun da ötesinde daha ciddi kararlar almak için
06:07
to make very serious decisions that go far beyond TV.
127
367440
4480
verilere başvuruyoruz.
06:12
Does anyone here know the company Multi-Health Systems?
128
372760
3240
Aranızda Multi-Health Systems adlı şirketi bilen var mı?
06:17
No one. OK, that's good actually.
129
377080
1656
Hiç kimse. Tamam, çok iyi.
06:18
OK, so Multi-Health Systems is a software company,
130
378760
3216
Evet, Multi-Health Systems bir yazılım şirketi ve
06:22
and I hope that nobody here in this room
131
382000
2816
ve umarım bu odadaki hiç kimse
06:24
ever comes into contact with that software,
132
384840
3176
bu programla karşılaşmamıştır çünkü
06:28
because if you do, it means you're in prison.
133
388040
2096
eğer karşılaştıysanız hapistesiniz demektir.
06:30
(Laughter)
134
390160
1176
(Kahkahalar)
06:31
If someone here in the US is in prison, and they apply for parole,
135
391360
3536
Eğer buradaki herhangi biri ABD'de hapse girerse ve
06:34
then it's very likely that data analysis software from that company
136
394920
4296
şartlı tahliye başvurusu yaparsa büyük olasılıkla başvuruyu onaylamak veya
06:39
will be used in determining whether to grant that parole.
137
399240
3616
reddetmek için bu şirketin veri analiz yazılımı kullanılacak.
06:42
So it's the same principle as Amazon and Netflix,
138
402880
2576
Amazon ve Netflix ile aynı esaslarla ama
06:45
but now instead of deciding whether a TV show is going to be good or bad,
139
405480
4616
şimdi bir dizinin iyi veya kötü olacağı değil, bir insanın
06:50
you're deciding whether a person is going to be good or bad.
140
410120
2896
iyi veya kötü olacağı hakkında karar veriyorsunuz.
06:53
And mediocre TV, 22 minutes, that can be pretty bad,
141
413040
5496
Vasat bir dizi, 22 dakika, biraz kötü olabilir,
06:58
but more years in prison, I guess, even worse.
142
418560
2640
hapiste uzun yıllar, sanırım çok daha kötü.
07:02
And unfortunately, there is actually some evidence that this data analysis,
143
422360
4136
Ve maalesef veri analizi ile ilgili bazı bulgular bize şunu gösteriyor ki,
07:06
despite having lots of data, does not always produce optimum results.
144
426520
4216
ne kadar çok veri olursa olsun, her zaman optimum sonuçlar elde edemiyorsunuz.
07:10
And that's not because a company like Multi-Health Systems
145
430760
2722
Bu, Multi-Health Systems gibi bir şirketin elindeki verilerle
07:13
doesn't know what to do with data.
146
433506
1627
ne yapacağını bilmediğinden değil.
07:15
Even the most data-savvy companies get it wrong.
147
435158
2298
Veri depolamaya en meraklı şirketler bile hatalar yapıyor.
07:17
Yes, even Google gets it wrong sometimes.
148
437480
2400
Evet, Google bile bazen hatalar yapıyor.
07:20
In 2009, Google announced that they were able, with data analysis,
149
440680
4496
2009 yılında, Google, grip salgınını tahmin etmek için,
07:25
to predict outbreaks of influenza, the nasty kind of flu,
150
445200
4136
daha doğrusu kötü bir grip türünü,
07:29
by doing data analysis on their Google searches.
151
449360
3776
veri analizi yapabileceğini duyurdu.
07:33
And it worked beautifully, and it made a big splash in the news,
152
453160
3856
Veri analizi bu konuda çok iyi çalıştı ve haberlerde de büyük sükse yaptı,
07:37
including the pinnacle of scientific success:
153
457040
2136
hatta bilimsel başarının zirvesini yakaladı,
07:39
a publication in the journal "Nature."
154
459200
2456
"Nature" dergisinde yayınlandı.
07:41
It worked beautifully for year after year after year,
155
461680
3616
Çalışma başarısız olduğu o yıla kadar
07:45
until one year it failed.
156
465320
1656
her yıl çok iyi sonuç verdi.
07:47
And nobody could even tell exactly why.
157
467000
2256
Ve kimse tam olarak nedenini bile söyleyemedi.
07:49
It just didn't work that year,
158
469280
1696
Sadece o yıl çalışmadı ve
07:51
and of course that again made big news,
159
471000
1936
tabii olarak haberlerde çok duyuldu ve
07:52
including now a retraction
160
472960
1616
"Nature" dergisi
07:54
of a publication from the journal "Nature."
161
474600
2840
yayını geri çekti.
07:58
So even the most data-savvy companies, Amazon and Google,
162
478480
3336
Evet, veri uzmanı en büyük firmalar, Amazon ve Google bile
08:01
they sometimes get it wrong.
163
481840
2136
zaman zaman hatalar yapıyor.
08:04
And despite all those failures,
164
484000
2936
Tüm bu başarısızlıklara rağmen veri analizi,
08:06
data is moving rapidly into real-life decision-making --
165
486960
3856
kanun hükümleri, tıp gibi birçok hayati alanda
08:10
into the workplace,
166
490840
1816
kararı etkileyen
08:12
law enforcement,
167
492680
1816
bir unsur olarak
08:14
medicine.
168
494520
1200
kayıyor.
08:16
So we should better make sure that data is helping.
169
496400
3336
Bu yüzden veri analizinin işe yaradığına emin olmalıyız.
08:19
Now, personally I've seen a lot of this struggle with data myself,
170
499760
3136
Ben, kişisel olarak verilerle ilgili çok fazla zorluk gördüm
08:22
because I work in computational genetics,
171
502920
1976
çünkü kanser tedavisi veya
08:24
which is also a field where lots of very smart people
172
504920
2496
ilaç geliştirmek gibi alanlarda,
08:27
are using unimaginable amounts of data to make pretty serious decisions
173
507440
3656
hayal edemeyeceğiniz kadar çok verilerle uğraşan zeki insanların olduğu
08:31
like deciding on a cancer therapy or developing a drug.
174
511120
3560
bir dal olan bilişimsel genetik üzerinde çalışıyorum.
08:35
And over the years, I've noticed a sort of pattern
175
515520
2376
Ve yıllar içinde verilerle karar verme konusunda
08:37
or kind of rule, if you will, about the difference
176
517920
2456
başarılı olmak veya olmamak arasında
08:40
between successful decision-making with data
177
520400
2696
niyet ettiğimizde paylaşmaya değer bir kural veya kalıp
08:43
and unsuccessful decision-making,
178
523120
1616
farkettim. Bu kalıp ise
08:44
and I find this a pattern worth sharing, and it goes something like this.
179
524760
3880
şöyle bir şey:
08:50
So whenever you're solving a complex problem,
180
530520
2135
Karışık bir problemi çözerken
08:52
you're doing essentially two things.
181
532679
1737
temel olarak iki şey yapıyorsunuz.
08:54
The first one is, you take that problem apart into its bits and pieces
182
534440
3296
İlki, problemi küçük parçalara ayırıyorsunuz, böylece bu parçaları
08:57
so that you can deeply analyze those bits and pieces,
183
537760
2496
derinlenemesine analiz edebilirsiniz ve
09:00
and then of course you do the second part.
184
540280
2016
sonra ikinci bölüme geçiyorsunuz.
09:02
You put all of these bits and pieces back together again
185
542320
2656
Sonuca ulaşmak için bu küçük parçaları tekrar
09:05
to come to your conclusion.
186
545000
1336
bir araya getiriyorsunuz.
09:06
And sometimes you have to do it over again,
187
546360
2336
Bazen bu işi tekrar yapmanız gerekebilir ama yaptığınız
09:08
but it's always those two things:
188
548720
1656
her zaman iki şeydir:
09:10
taking apart and putting back together again.
189
550400
2320
parçalara ayırmak ve parçaları birleştirmek.
09:14
And now the crucial thing is
190
554280
1616
Burada kritik olan nokta şu ki,
09:15
that data and data analysis
191
555920
2896
veri ve veri analizi yalnızca
09:18
is only good for the first part.
192
558840
2496
ilk bölüm için önemli.
09:21
Data and data analysis, no matter how powerful,
193
561360
2216
Veri ve veri analizi ne kadar güçlü olursa olsun,
09:23
can only help you taking a problem apart and understanding its pieces.
194
563600
4456
yalnızca problemi parçalara ayırmanıza ve parçaları anlamanıza yardımcı olur.
09:28
It's not suited to put those pieces back together again
195
568080
3496
Parçaları tekrar birleştirip
09:31
and then to come to a conclusion.
196
571600
1896
bir sonuca ulaşmak için uygun değildir.
09:33
There's another tool that can do that, and we all have it,
197
573520
2736
Bunu yapabilecek olan araç herkeste mevcut
09:36
and that tool is the brain.
198
576280
1296
ve bu araç beyin.
09:37
If there's one thing a brain is good at,
199
577600
1936
Eğer beynin iyi olduğu bir şey varsa,
09:39
it's taking bits and pieces back together again,
200
579560
2256
sahip olduğunuz bilgiler tam olmasa bile
09:41
even when you have incomplete information,
201
581840
2016
parçaları alıp tekrar araya getirmek ve
09:43
and coming to a good conclusion,
202
583880
1576
iyi bir sonuca ulaşmak,
09:45
especially if it's the brain of an expert.
203
585480
2936
özellikle bu beyin bir uzmanın beyniyse.
09:48
And that's why I believe that Netflix was so successful,
204
588440
2656
Bence Netflix'in bu kadar başarılı olmasının sebebi,
09:51
because they used data and brains where they belong in the process.
205
591120
3576
veriyi ve beyni süreçte olması gerektiği yerde kullanmaları.
09:54
They use data to first understand lots of pieces about their audience
206
594720
3536
Onlar önce seyircilerle alakalı bir şeyler öğrenmek için verileri kullanıyor,
09:58
that they otherwise wouldn't have been able to understand at that depth,
207
598280
3416
yoksa seyirciler hakkında bu derinlikte bilgilere sahip olamazlardı.
10:01
but then the decision to take all these bits and pieces
208
601720
2616
Sonra karar vermek için bütün bu parçaları birleştiriyor
10:04
and put them back together again and make a show like "House of Cards,"
209
604360
3336
ve ortaya hiçbir veride adı geçmeyen "House of Cards" gibi
10:07
that was nowhere in the data.
210
607720
1416
bir dizi çıkıyor.
10:09
Ted Sarandos and his team made that decision to license that show,
211
609160
3976
Ted Sarantos ve takımı büyük bir kişisel risk alarak
10:13
which also meant, by the way, that they were taking
212
613160
2381
bu diziyi yapmak için
10:15
a pretty big personal risk with that decision.
213
615565
2851
bir karar verdi.
10:18
And Amazon, on the other hand, they did it the wrong way around.
214
618440
3016
Ama diğer yandan Amazon bu işi yanlış bir şekilde yaptı.
10:21
They used data all the way to drive their decision-making,
215
621480
2736
İlk olarak dizi önerilerini bir yarışa soktuklarında ve
10:24
first when they held their competition of TV ideas,
216
624240
2416
"Alpha House" dizisinde karar kıldıklarında
10:26
then when they selected "Alpha House" to make as a show.
217
626680
3696
karar alma mekanizmasını harekete geçirmek için verileri kullandılar.
10:30
Which of course was a very safe decision for them,
218
630400
2496
Bu onlar için güvenli bir karardı çünkü verilere
10:32
because they could always point at the data, saying,
219
632920
2456
baktıklarında şunu söyleyebiliyorlardı:
10:35
"This is what the data tells us."
220
635400
1696
"Bize verilerin söylediği şey bu."
10:37
But it didn't lead to the exceptional results that they were hoping for.
221
637120
4240
Ama bu veriler onları umut ettikleri gibi istisnai bir sonuca götürmedi.
10:42
So data is of course a massively useful tool to make better decisions,
222
642120
4976
Sonuç olarak veriler karar alırken çok yararlı araçlar fakat
10:47
but I believe that things go wrong
223
647120
2376
bence bizi karara götüren tek şey veriler olduğunda
10:49
when data is starting to drive those decisions.
224
649520
2576
işler sarpa sarıyor.
10:52
No matter how powerful, data is just a tool,
225
652120
3776
Ne kadar güçlü olursa olsun, veriler yalnızca birer araç ve
10:55
and to keep that in mind, I find this device here quite useful.
226
655920
3336
şunu unutmayın bu araç burada benim çok işime yaradı.
10:59
Many of you will ...
227
659280
1216
Aranızdan bir çoğunuz...
11:00
(Laughter)
228
660520
1216
(Kahkahalar)
11:01
Before there was data,
229
661760
1216
Veriler yokken
11:03
this was the decision-making device to use.
230
663000
2856
karar alma aracı buydu.
11:05
(Laughter)
231
665880
1256
(Kahkahalar)
11:07
Many of you will know this.
232
667160
1336
Bir çoğunuz bunu biliyor.
11:08
This toy here is called the Magic 8 Ball,
233
668520
1953
Bu oyuncağın ismi Sihirli 8 Topu,
11:10
and it's really amazing,
234
670497
1199
ve gerçekten inanılmaz.
11:11
because if you have a decision to make, a yes or no question,
235
671720
2896
Çünkü eğer bir karar vermeniz gerekiyorsa,
11:14
all you have to do is you shake the ball, and then you get an answer --
236
674640
3736
cevabı evet veya hayır olan bir soruysa, tüm yapmanız gereken topu sallamak
11:18
"Most Likely" -- right here in this window in real time.
237
678400
2816
ve cevabı almak. Şuanda şu küçük pencerede "Büyük ihtimalle" yazıyor.
11:21
I'll have it out later for tech demos.
238
681240
2096
Bunu daha sonra teknoloji tanıtımlarında kullanacağım.
11:23
(Laughter)
239
683360
1216
(Kahkahalar)
11:24
Now, the thing is, of course -- so I've made some decisions in my life
240
684600
3576
Olay şu ki, hayatımda bir çok konuda kararlar aldım ve şimdi geriye dönüp
11:28
where, in hindsight, I should have just listened to the ball.
241
688200
2896
baktığımda şunu söyleyebilirim, keşke topu dinleseydim.
11:31
But, you know, of course, if you have the data available,
242
691120
3336
Ama bildiğiniz gibi, eğer elinizde veriler varsa, daha iyi
11:34
you want to replace this with something much more sophisticated,
243
694480
3056
bir karar vermek için bunun yerine veri analizi gibi daha
11:37
like data analysis to come to a better decision.
244
697560
3616
gelişmiş şeyleri kullanmak istersiniz.
11:41
But that does not change the basic setup.
245
701200
2616
Ama bu kurguyu değiştirmiyor.
11:43
So the ball may get smarter and smarter and smarter,
246
703840
3176
Bu yüzden top, çok daha zeki olabiliyor, ama şuna inanıyorum ki
11:47
but I believe it's still on us to make the decisions
247
707040
2816
eğer eğrinin sağ tarafında,
11:49
if we want to achieve something extraordinary,
248
709880
3016
sıra dışı bir şey başarmak istiyorsak
11:52
on the right end of the curve.
249
712920
1936
bu hala karar vermemiz için hazır bekliyor ve
11:54
And I find that a very encouraging message, in fact,
250
714880
4496
aslında çok teşvik edici bir şey buldum,
11:59
that even in the face of huge amounts of data,
251
719400
3976
çok büyük sayıda verilere karşın
12:03
it still pays off to make decisions,
252
723400
4096
yaptığınız şeyde uzman olmak için
12:07
to be an expert in what you're doing
253
727520
2656
karar vermeye ve
12:10
and take risks.
254
730200
2096
risk almaya değer.
12:12
Because in the end, it's not data,
255
732320
2776
Çünkü en sonunda veriler yok, en sonunda sizi eğrinin
12:15
it's risks that will land you on the right end of the curve.
256
735120
3960
sağına veya soluna yerleştirecek şey yalnızca aldığınız riskler.
12:19
Thank you.
257
739840
1216
Teşekkür ederim.
12:21
(Applause)
258
741080
3680
(Alkışlar)
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7