How to use data to make a hit TV show | Sebastian Wernicke

132,856 views ・ 2016-01-27

TED


Dubbelklicka på de engelska undertexterna nedan för att spela upp videon.

Översättare: Annika Bidner Granskare: Anders Björk
00:12
Roy Price is a man that most of you have probably never heard about,
0
12820
4276
Roy Price är en man som de flesta av er förmodligen aldrig hört talas om,
00:17
even though he may have been responsible
1
17120
2496
även om han kan ha varit ansvarig
00:19
for 22 somewhat mediocre minutes of your life on April 19, 2013.
2
19640
6896
för 22 ganska mediokra minuter av ditt liv den 19 april 2013.
00:26
He may have also been responsible for 22 very entertaining minutes,
3
26560
3176
Han kan också ha varit ansvarig för 22 väldigt underhållande minuter,
00:29
but not very many of you.
4
29760
2256
men inte för så många av er.
00:32
And all of that goes back to a decision
5
32040
1896
Och allt beror på ett beslut
00:33
that Roy had to make about three years ago.
6
33960
2000
som Roy var tvungen att ta för ungefär tre år sen.
00:35
So you see, Roy Price is a senior executive with Amazon Studios.
7
35984
4832
Ni förstår, Roy Price är en hög chef inom Amazon Studios.
00:40
That's the TV production company of Amazon.
8
40840
3016
Det är Amazons produktionsbolag för tv.
00:43
He's 47 years old, slim, spiky hair,
9
43880
3256
Han är 47 år gammal, smal, med taggigt hår,
00:47
describes himself on Twitter as "movies, TV, technology, tacos."
10
47160
4816
beskriver sig på Twitter som "film, tv, teknik, tacos".
00:52
And Roy Price has a very responsible job, because it's his responsibility
11
52000
5176
Roy Price har ett ansvarsfullt jobb, för det är hans ansvar att välja
00:57
to pick the shows, the original content that Amazon is going to make.
12
57200
4056
vilka serier, vilket originalinnehåll som Amazon ska ta fram.
01:01
And of course that's a highly competitive space.
13
61280
2336
Självklart innebär det hög konkurrens.
01:03
I mean, there are so many TV shows already out there,
14
63640
2736
Det görs så många tv-serier,
01:06
that Roy can't just choose any show.
15
66400
2176
så Roy kan inte välja vilken serie som helst.
01:08
He has to find shows that are really, really great.
16
68600
4096
Han måste hitta en riktigt, riktigt bra serie.
01:12
So in other words, he has to find shows
17
72720
2816
Med andra ord måste han hitta serier
01:15
that are on the very right end of this curve here.
18
75560
2376
som ligger längst ut till höger på den här kurvan.
01:17
So this curve here is the rating distribution
19
77960
2656
Den här kurvan är betygsfördelningen
01:20
of about 2,500 TV shows on the website IMDB,
20
80640
4376
för ungefär 2 500 tv-serier i IMDBs databas,
01:25
and the rating goes from one to 10,
21
85040
2896
och betygssnittet kan vara mellan 1 och 10,
01:27
and the height here shows you how many shows get that rating.
22
87960
2976
och höjden här visar hur många serier som får det betyget.
01:30
So if your show gets a rating of nine points or higher, that's a winner.
23
90960
4696
Så om en serie får ett snittbetyg på 9 poäng eller högre är den en vinnare.
01:35
Then you have a top two percent show.
24
95680
1816
Då har man en serie bland de 2 procenten.
01:37
That's shows like "Breaking Bad," "Game of Thrones," "The Wire,"
25
97520
3896
Det är serier som "Breaking Bad", "Game of Thrones", "The Wire".
01:41
so all of these shows that are addictive,
26
101440
2296
De här serierna är beroendeframkallande,
01:43
whereafter you've watched a season, your brain is basically like,
27
103760
3056
så när man har sett en säsong säger ens hjärna liksom,
01:46
"Where can I get more of these episodes?"
28
106840
2176
"Var kan jag hitta fler sådana här avsnitt?"
01:49
That kind of show.
29
109040
1200
Den sortens serie.
01:50
On the left side, just for clarity, here on that end,
30
110920
2496
Till vänster, här borta, för att vara tydlig,
01:53
you have a show called "Toddlers and Tiaras" --
31
113440
3176
finns en serie som heter "Toddles and Tiaras" -
01:56
(Laughter)
32
116640
2656
(Skratt)
01:59
-- which should tell you enough
33
119320
1536
- vilket borde säga nog om
02:00
about what's going on on that end of the curve.
34
120880
2191
vad som händer på den sidan av kurvan.
02:03
Now, Roy Price is not worried about getting on the left end of the curve,
35
123095
4161
Roy Price är inte orolig för att hamna på den sidan av kurvan,
02:07
because I think you would have to have some serious brainpower
36
127280
2936
för jag tror att man behöver ha en riktigt skarp hjärna
för att bli sämre än "Toddlers and Tiaras".
02:10
to undercut "Toddlers and Tiaras."
37
130240
1696
02:11
So what he's worried about is this middle bulge here,
38
131960
3936
Vad han oroar sig för är klumpen i mitten,
02:15
the bulge of average TV,
39
135920
1816
klumpen av halvbra tv,
02:17
you know, those shows that aren't really good or really bad,
40
137760
2856
ni vet, sådana där serier som varken är bra eller dåliga,
02:20
they don't really get you excited.
41
140639
1656
som inte gör någon exalterad.
02:22
So he needs to make sure that he's really on the right end of this.
42
142320
4856
Så han behöver bli säker på att han verkligen hamnar rätt.
02:27
So the pressure is on,
43
147200
1576
Det finns ett tryck på att lyckas,
02:28
and of course it's also the first time
44
148800
2176
och det är förstås också första gången
02:31
that Amazon is even doing something like this,
45
151000
2176
som Amazon ens gör något sånt här,
02:33
so Roy Price does not want to take any chances.
46
153200
3336
så Roy Price vill inte ta några risker.
02:36
He wants to engineer success.
47
156560
2456
Han vill bygga framgång.
02:39
He needs a guaranteed success,
48
159040
1776
Han behöver en garanterad succé,
02:40
and so what he does is, he holds a competition.
49
160840
2576
så han anordnar en tävling.
02:43
So he takes a bunch of ideas for TV shows,
50
163440
3136
Han tar ett antal tv-seriekoncept
02:46
and from those ideas, through an evaluation,
51
166600
2296
och genom att utvärdera dem
02:48
they select eight candidates for TV shows,
52
168920
4096
tar de ut åtta kandidater till tv-serier,
och sen gör han det första avsnittet av var och en av dessa tv-serier
02:53
and then he just makes the first episode of each one of these shows
53
173040
3216
02:56
and puts them online for free for everyone to watch.
54
176280
3136
och lägger ut dem gratis online så att alla kan se dem.
02:59
And so when Amazon is giving out free stuff,
55
179440
2256
Och när Amazon delar ut saker gratis
03:01
you're going to take it, right?
56
181720
1536
vill man ha dem, eller hur?
03:03
So millions of viewers are watching those episodes.
57
183280
5136
Så miljoner människor tittar på avsnitten.
03:08
What they don't realize is that, while they're watching their shows,
58
188440
3216
Vad de inte inser är att när de tittar på sina serier
03:11
actually, they are being watched.
59
191680
2296
är det de som blir betraktade.
03:14
They are being watched by Roy Price and his team,
60
194000
2336
De betraktas av Roy Price och hans team,
03:16
who record everything.
61
196360
1376
som spelar in allt.
03:17
They record when somebody presses play, when somebody presses pause,
62
197760
3376
De spelar in när någon trycker play, när någon pausar,
03:21
what parts they skip, what parts they watch again.
63
201160
2536
vilka delar de hoppar över, vilka delar de ser igen.
03:23
So they collect millions of data points,
64
203720
2256
De samlar in miljontals datapunkter,
03:26
because they want to have those data points
65
206000
2096
för de vill ha dem
03:28
to then decide which show they should make.
66
208120
2696
när de bestämmer vilken tv-serie de ska göra.
03:30
And sure enough, so they collect all the data,
67
210840
2176
Så de samlar in datan,
03:33
they do all the data crunching, and an answer emerges,
68
213040
2576
de bearbetar informationen, och ett svar träder fram,
03:35
and the answer is,
69
215640
1216
och svaret är,
03:36
"Amazon should do a sitcom about four Republican US Senators."
70
216880
5536
"Amazon borde göra en komedi om fyra republikanska senatorer i USA."
03:42
They did that show.
71
222440
1216
De gjorde den serien.
03:43
So does anyone know the name of the show?
72
223680
2160
Vet någon vad serien heter?
03:46
(Audience: "Alpha House.")
73
226720
1296
(Publiken: "Alpha House")
03:48
Yes, "Alpha House,"
74
228040
1456
Ja, "Alpha House",
03:49
but it seems like not too many of you here remember that show, actually,
75
229520
4096
men det verkar faktiskt inte vara så många av er som minns den serien,
03:53
because it didn't turn out that great.
76
233640
1856
för den blev inte så bra.
03:55
It's actually just an average show,
77
235520
1856
Det blev bara en medioker serie,
03:57
actually -- literally, in fact, because the average of this curve here is at 7.4,
78
237400
4576
rent bokstavligen, för mitten på kurvan är 7,4,
04:02
and "Alpha House" lands at 7.5,
79
242000
2416
och "Alpha House" landade på 7,5,
04:04
so a slightly above average show,
80
244440
2016
en serie strax över genomsnittet,
04:06
but certainly not what Roy Price and his team were aiming for.
81
246480
2920
men det var verkligen inte vad Roy Price och hans team siktade på.
04:10
Meanwhile, however, at about the same time,
82
250320
2856
Men ungefär samtidigt
04:13
at another company,
83
253200
1576
på ett annat företag
04:14
another executive did manage to land a top show using data analysis,
84
254800
4216
lyckades en annan hög chef ro i land en toppserie med hjälp av dataanalys,
04:19
and his name is Ted,
85
259040
1576
och han heter Ted,
04:20
Ted Sarandos, who is the Chief Content Officer of Netflix,
86
260640
3416
Ted Sarandos, som är innehållschef på Netflix,
04:24
and just like Roy, he's on a constant mission
87
264080
2136
och precis som Roy letar han ständigt
04:26
to find that great TV show,
88
266240
1496
efter den stora tv-serien,
04:27
and he uses data as well to do that,
89
267760
2016
och han använder data för att göra det,
04:29
except he does it a little bit differently.
90
269800
2015
men han gör det på ett lite annorlunda sätt.
04:31
So instead of holding a competition, what he did -- and his team of course --
91
271839
3737
Så istället för att hålla en tävling,
04:35
was they looked at all the data they already had about Netflix viewers,
92
275600
3536
tittade han och hans team på den data som de redan hade om Netflixtittare,
04:39
you know, the ratings they give their shows,
93
279160
2096
som de betyg de gett till deras serier,
04:41
the viewing histories, what shows people like, and so on.
94
281280
2696
tittarhistoriken, vilka serier de gillade, och så vidare.
04:44
And then they use that data to discover
95
284000
1896
De använde datan för att upptäcka
04:45
all of these little bits and pieces about the audience:
96
285920
2616
alla små detaljer om sin publik:
04:48
what kinds of shows they like,
97
288560
1456
vilka slags serier de gillade,
vilka slags producenter, vilka slags skådespelare.
04:50
what kind of producers, what kind of actors.
98
290040
2096
04:52
And once they had all of these pieces together,
99
292160
2576
Och när de väl hade satt ihop alla delar
04:54
they took a leap of faith,
100
294760
1656
gjorde de en chansning
04:56
and they decided to license
101
296440
2096
och bestämde sig för att skapa
04:58
not a sitcom about four Senators
102
298560
2456
inte en komedi om fyra senatorer,
05:01
but a drama series about a single Senator.
103
301040
2880
utan en dramaserie om en enda senator.
05:04
You guys know the show?
104
304760
1656
Vet ni vilken serie?
05:06
(Laughter)
105
306440
1296
(Skratt)
05:07
Yes, "House of Cards," and Netflix of course, nailed it with that show,
106
307760
3736
Ja, "House of Cards", och Netflix slog förstås huvudet på spiken med den,
05:11
at least for the first two seasons.
107
311520
2136
iallafall de första två säsongerna.
05:13
(Laughter) (Applause)
108
313680
3976
(Skratt) (Applåder)
05:17
"House of Cards" gets a 9.1 rating on this curve,
109
317680
3176
"House of Cards" får 9,1 i snittbetyg på kurvan,
05:20
so it's exactly where they wanted it to be.
110
320880
3176
så det är precis där de ville vara.
05:24
Now, the question of course is, what happened here?
111
324080
2416
Nu är frågan, vad hände här?
05:26
So you have two very competitive, data-savvy companies.
112
326520
2656
Vi har två väldigt tävlingsinriktade, datakunniga företag.
05:29
They connect all of these millions of data points,
113
329200
2856
De kombinerar miljontals datapunkter,
05:32
and then it works beautifully for one of them,
114
332080
2376
och sen går det utmärkt för en av dem,
05:34
and it doesn't work for the other one.
115
334480
1856
och det fungerar inte för den andra.
05:36
So why?
116
336360
1216
Varför?
05:37
Because logic kind of tells you that this should be working all the time.
117
337600
3456
För logiken säger att det borde fungera varje gång.
05:41
I mean, if you're collecting millions of data points
118
341080
2456
Om man samlar ihop miljontals datapunkter
05:43
on a decision you're going to make,
119
343560
1736
om ett beslut man ska fatta
05:45
then you should be able to make a pretty good decision.
120
345320
2616
så borde det bli ett ganska bra beslut.
05:47
You have 200 years of statistics to rely on.
121
347960
2216
Det finns 200 år av statistik att luta sig mot.
05:50
You're amplifying it with very powerful computers.
122
350200
3016
Den förstärks med kraftfulla datorer.
05:53
The least you could expect is good TV, right?
123
353240
3280
Det minsta man kan begära är bra tv, eller hur?
05:57
And if data analysis does not work that way,
124
357880
2720
Om dataanalys inte fungerar på det sättet
06:01
then it actually gets a little scary,
125
361520
2056
så blir det lite skrämmande,
06:03
because we live in a time where we're turning to data more and more
126
363600
3816
för vi lever i en tid där vi allt oftare lutar oss mot data
06:07
to make very serious decisions that go far beyond TV.
127
367440
4480
för att fatta allvarliga beslut som går långt bortom tv.
06:12
Does anyone here know the company Multi-Health Systems?
128
372760
3240
Känner någon här till företaget Multi-Health Systems?
06:17
No one. OK, that's good actually.
129
377080
1656
Ingen. OK, det är faktiskt bra.
06:18
OK, so Multi-Health Systems is a software company,
130
378760
3216
Multi-Health Systems är ett mjukvaruföretag,
06:22
and I hope that nobody here in this room
131
382000
2816
och jag hoppas att ingen i det här rummet
06:24
ever comes into contact with that software,
132
384840
3176
någonsin kommer i kontakt med deras mjukvara,
06:28
because if you do, it means you're in prison.
133
388040
2096
för det betyder att du sitter i fängelse.
06:30
(Laughter)
134
390160
1176
(Skratt)
06:31
If someone here in the US is in prison, and they apply for parole,
135
391360
3536
Om någon här i USA sitter i fängelse och de ansöker om villkorlig frigivning
06:34
then it's very likely that data analysis software from that company
136
394920
4296
är det väldigt sannolikt att dataanalysprogram
från det företaget kommer att användas för att pröva frigivningen.
06:39
will be used in determining whether to grant that parole.
137
399240
3616
06:42
So it's the same principle as Amazon and Netflix,
138
402880
2576
Så det är samma princip som för Amazon och Netflix,
06:45
but now instead of deciding whether a TV show is going to be good or bad,
139
405480
4616
men istället för att bestämma om en tv-serie ska bli bra eller dålig
06:50
you're deciding whether a person is going to be good or bad.
140
410120
2896
bestämmer man om en person ska bli bra eller dålig.
06:53
And mediocre TV, 22 minutes, that can be pretty bad,
141
413040
5496
Och 22 minuter av medioker tv kan vara ganska dåligt,
06:58
but more years in prison, I guess, even worse.
142
418560
2640
men jag antar att fler år i fängelse är ännu värre.
07:02
And unfortunately, there is actually some evidence that this data analysis,
143
422360
4136
Oturligt nog finns det faktiskt en del bevis för att den här dataanalysen,
07:06
despite having lots of data, does not always produce optimum results.
144
426520
4216
även om den har massor av data, inte alltid producerar optimala resultat.
07:10
And that's not because a company like Multi-Health Systems
145
430760
2722
Det beror inte på att ett företag som Multi-Health Systems
07:13
doesn't know what to do with data.
146
433506
1627
inte vet vad de ska göra med informationen.
07:15
Even the most data-savvy companies get it wrong.
147
435158
2298
Även datakunniga företag gör fel.
07:17
Yes, even Google gets it wrong sometimes.
148
437480
2400
Ja, till och med Google har fel ibland.
07:20
In 2009, Google announced that they were able, with data analysis,
149
440680
4496
2009 sa Google att de med hjälp av dataanalys
07:25
to predict outbreaks of influenza, the nasty kind of flu,
150
445200
4136
kunde förutsäga utbrott av influensa, den elaka sortens förkylning,
07:29
by doing data analysis on their Google searches.
151
449360
3776
genom att genomföra dataanalys av sina Google-sökningar.
07:33
And it worked beautifully, and it made a big splash in the news,
152
453160
3856
Och det fungerade fint, vilket gav stor uppmärksamhet i medierna,
inklusive det yttersta beviset på vetenskaplig framgång:
07:37
including the pinnacle of scientific success:
153
457040
2136
07:39
a publication in the journal "Nature."
154
459200
2456
en artikel i tidskriften "Nature".
07:41
It worked beautifully for year after year after year,
155
461680
3616
Det fungerade fint i flera år,
07:45
until one year it failed.
156
465320
1656
tills det ett år inte fungerade längre.
07:47
And nobody could even tell exactly why.
157
467000
2256
Och ingen kunde ens säga riktigt varför.
07:49
It just didn't work that year,
158
469280
1696
Det fungerade bara inte det året,
och det fick förstås också mycket publicitet,
07:51
and of course that again made big news,
159
471000
1936
07:52
including now a retraction
160
472960
1616
inklusive ett tillbakadragande
07:54
of a publication from the journal "Nature."
161
474600
2840
av artikeln i "Nature".
07:58
So even the most data-savvy companies, Amazon and Google,
162
478480
3336
Så till och med de med de datakunniga företagen
som Amazon och Google har ibland fel.
08:01
they sometimes get it wrong.
163
481840
2136
08:04
And despite all those failures,
164
484000
2936
Och trots alla dessa misslyckanden
08:06
data is moving rapidly into real-life decision-making --
165
486960
3856
får data snabbt ett större inflytande över beslut i verkliga livet -
08:10
into the workplace,
166
490840
1816
på arbetsplatsen,
08:12
law enforcement,
167
492680
1816
inom rättsväsendet,
08:14
medicine.
168
494520
1200
inom medicin.
08:16
So we should better make sure that data is helping.
169
496400
3336
Så vi borde verkligen ta reda på ifall data verkligen hjälper oss.
08:19
Now, personally I've seen a lot of this struggle with data myself,
170
499760
3136
Jag har personligen sett en stor del av de här problemen,
08:22
because I work in computational genetics,
171
502920
1976
för jag arbetar inom databeräknad genetik,
08:24
which is also a field where lots of very smart people
172
504920
2496
vilken också är ett fält där många smarta människor
08:27
are using unimaginable amounts of data to make pretty serious decisions
173
507440
3656
använder oerhörda mängder data för att fatta ganska allvarliga beslut,
08:31
like deciding on a cancer therapy or developing a drug.
174
511120
3560
som att välja cancerbehandling eller utveckla en ny medicin.
08:35
And over the years, I've noticed a sort of pattern
175
515520
2376
Över åren har jag noterat ett slags mönster,
08:37
or kind of rule, if you will, about the difference
176
517920
2456
eller en slags regel, kan man säga, om skillnaden
08:40
between successful decision-making with data
177
520400
2696
mellan framgångsrikt och icke framgångsrikt
08:43
and unsuccessful decision-making,
178
523120
1616
beslutsfattande med data
08:44
and I find this a pattern worth sharing, and it goes something like this.
179
524760
3880
och jag har hittat ett mönster som är värt att dela med sig av.
08:50
So whenever you're solving a complex problem,
180
530520
2135
När man löser ett komplext problem
08:52
you're doing essentially two things.
181
532679
1737
gör man i grunden två saker.
08:54
The first one is, you take that problem apart into its bits and pieces
182
534440
3296
Den första är
att plocka isär problemet i små bitar så att man kan analysera bitarna
08:57
so that you can deeply analyze those bits and pieces,
183
537760
2496
09:00
and then of course you do the second part.
184
540280
2016
och sen gör man det andra steget.
09:02
You put all of these bits and pieces back together again
185
542320
2656
Men sätter ihop bitarna igen
för att komma till slutsatsen.
09:05
to come to your conclusion.
186
545000
1336
09:06
And sometimes you have to do it over again,
187
546360
2336
Ibland måste man göra om det,
09:08
but it's always those two things:
188
548720
1656
men det handlar alltid de två sakerna:
09:10
taking apart and putting back together again.
189
550400
2320
plocka isär och sätta ihop saker igen.
09:14
And now the crucial thing is
190
554280
1616
Det viktiga är
09:15
that data and data analysis
191
555920
2896
att data och dataanalys
09:18
is only good for the first part.
192
558840
2496
bara är bra för det första steget.
09:21
Data and data analysis, no matter how powerful,
193
561360
2216
Hur kraftfulla data och dataanalys än är, kan bara hjälpa till med
09:23
can only help you taking a problem apart and understanding its pieces.
194
563600
4456
att plocka isär ett problem och förstå dess delar.
09:28
It's not suited to put those pieces back together again
195
568080
3496
Den passar inte för att sätta ihop delarna igen
09:31
and then to come to a conclusion.
196
571600
1896
för att komma till en slutsats.
09:33
There's another tool that can do that, and we all have it,
197
573520
2736
Det finns ett annat verktyg som kan göra det,
vi har det allihop, och det är hjärnan.
09:36
and that tool is the brain.
198
576280
1296
09:37
If there's one thing a brain is good at,
199
577600
1936
Om det finns något hjärnan är bra på
09:39
it's taking bits and pieces back together again,
200
579560
2256
så är att det att sätta ihop små delar igen,
09:41
even when you have incomplete information,
201
581840
2016
även när den inte har all information,
09:43
and coming to a good conclusion,
202
583880
1576
och kan nå en bra slutsats,
09:45
especially if it's the brain of an expert.
203
585480
2936
speciellt om det är en experts hjärna.
09:48
And that's why I believe that Netflix was so successful,
204
588440
2656
Jag tror att det är därför Netflix blev så framgångsrika,
09:51
because they used data and brains where they belong in the process.
205
591120
3576
för att de använde data och hjärnor där de passade i processen.
09:54
They use data to first understand lots of pieces about their audience
206
594720
3536
De använder data för att först förstå många små detaljer om sin publik
09:58
that they otherwise wouldn't have been able to understand at that depth,
207
598280
3416
som de annars inte skulle ha kunnat förstå på samma djup,
10:01
but then the decision to take all these bits and pieces
208
601720
2616
men beslutet om hur de olika detaljerna
10:04
and put them back together again and make a show like "House of Cards,"
209
604360
3336
skulle sättas ihop igen för att bli en serie som "House of Cards"
10:07
that was nowhere in the data.
210
607720
1416
fanns ingenstans i deras data.
10:09
Ted Sarandos and his team made that decision to license that show,
211
609160
3976
Ted Sarandos och hans team tog beslutet att godkänna tv-serien,
10:13
which also meant, by the way, that they were taking
212
613160
2381
vilket förresten också betydde
10:15
a pretty big personal risk with that decision.
213
615565
2851
att de tog en ganska stor personlig risk när de tog det beslutet.
10:18
And Amazon, on the other hand, they did it the wrong way around.
214
618440
3016
Och Amazon, å andra sidan, de gjorde saken på fel sätt.
10:21
They used data all the way to drive their decision-making,
215
621480
2736
De använde data för allt sitt beslutsfattande,
först när de höll tävlingen för tv-koncept,
10:24
first when they held their competition of TV ideas,
216
624240
2416
10:26
then when they selected "Alpha House" to make as a show.
217
626680
3696
och sen när de valde "Alpha House" till den serie de skulle göra.
10:30
Which of course was a very safe decision for them,
218
630400
2496
Vilket självklart var ett säkert val för dem,
10:32
because they could always point at the data, saying,
219
632920
2456
för de kunde alltid peka på data och säga
10:35
"This is what the data tells us."
220
635400
1696
"Vår data säger det här."
10:37
But it didn't lead to the exceptional results that they were hoping for.
221
637120
4240
Men det ledde inte till de enastående resultat som de hoppades på.
Så data är förstås ett oerhört kraftfullt verktyg
10:42
So data is of course a massively useful tool to make better decisions,
222
642120
4976
för att fatta bättre beslut,
10:47
but I believe that things go wrong
223
647120
2376
men jag tror att saker går fel när data börjar styra besluten.
10:49
when data is starting to drive those decisions.
224
649520
2576
10:52
No matter how powerful, data is just a tool,
225
652120
3776
Hur kraftfull den än är, så är data bara ett verktyg,
10:55
and to keep that in mind, I find this device here quite useful.
226
655920
3336
och för att hålla det i minnet tycker jag den här saken är användbar.
10:59
Many of you will ...
227
659280
1216
Många av er kommer ...
11:00
(Laughter)
228
660520
1216
(Skratt)
11:01
Before there was data,
229
661760
1216
Innan det fanns data, var det här
11:03
this was the decision-making device to use.
230
663000
2856
beslutsstödet som användes.
11:05
(Laughter)
231
665880
1256
(Skratt)
11:07
Many of you will know this.
232
667160
1336
Många känner nog igen den.
11:08
This toy here is called the Magic 8 Ball,
233
668520
1953
Den här leksaken heter Magic 8 Ball,
11:10
and it's really amazing,
234
670497
1199
och den är fantastisk,
11:11
because if you have a decision to make, a yes or no question,
235
671720
2896
för om du har ett beslut att fatta, en ja- eller nejfråga,
11:14
all you have to do is you shake the ball, and then you get an answer --
236
674640
3736
behöver du bara skaka bollen för att få ett svar -
11:18
"Most Likely" -- right here in this window in real time.
237
678400
2816
"Förmodligen" - just här i den här stunden i realtid.
11:21
I'll have it out later for tech demos.
238
681240
2096
Jag kan dema den senare.
11:23
(Laughter)
239
683360
1216
(Skratt)
11:24
Now, the thing is, of course -- so I've made some decisions in my life
240
684600
3576
Så här är det förstås, att jag har fattat några beslut i mitt liv
11:28
where, in hindsight, I should have just listened to the ball.
241
688200
2896
där jag i efterhand har förstått att jag borde ha lyssnat på bollen.
11:31
But, you know, of course, if you have the data available,
242
691120
3336
Men om man har data tillgängliga
11:34
you want to replace this with something much more sophisticated,
243
694480
3056
vill man såklart ersätta den här med något lite mer sofistikerat,
11:37
like data analysis to come to a better decision.
244
697560
3616
till exempel dataanalys, för att fatta ett bättre beslut.
11:41
But that does not change the basic setup.
245
701200
2616
Men det ändrar inte de grundläggande förutsättningarna.
11:43
So the ball may get smarter and smarter and smarter,
246
703840
3176
Så bollen kan bli allt smartare
11:47
but I believe it's still on us to make the decisions
247
707040
2816
men jag tror att vi fortfarande måste fatta besluten
11:49
if we want to achieve something extraordinary,
248
709880
3016
om vi vill åstadkomma något utöver det vanliga,
11:52
on the right end of the curve.
249
712920
1936
längst till höger på kurvan.
11:54
And I find that a very encouraging message, in fact,
250
714880
4496
Och jag tycker faktiskt att det är ett väldigt uppmuntrande budskap,
11:59
that even in the face of huge amounts of data,
251
719400
3976
att även när vi står inför enorma mängder data
12:03
it still pays off to make decisions,
252
723400
4096
lönar det sig fortfarande att fatta beslut,
12:07
to be an expert in what you're doing
253
727520
2656
att vara en expert på det man gör,
12:10
and take risks.
254
730200
2096
och att ta risker.
12:12
Because in the end, it's not data,
255
732320
2776
För i slutändan är det inte data
12:15
it's risks that will land you on the right end of the curve.
256
735120
3960
utan risker som kommer att ta en längst ut till höger på kurvan.
12:19
Thank you.
257
739840
1216
Tack.
12:21
(Applause)
258
741080
3680
(Applåder)
Om denna webbplats

På den här webbplatsen hittar du YouTube-videor som är användbara för att lära sig engelska. Du kommer att få se engelska lektioner som ges av förstklassiga lärare från hela världen. Dubbelklicka på de engelska undertexterna som visas på varje videosida för att spela upp videon därifrån. Undertexterna rullar i takt med videouppspelningen. Om du har några kommentarer eller önskemål kan du kontakta oss via detta kontaktformulär.

https://forms.gle/WvT1wiN1qDtmnspy7