How to use data to make a hit TV show | Sebastian Wernicke

133,338 views ・ 2016-01-27

TED


Vă rugăm să faceți dublu clic pe subtitrările în limba engleză de mai jos pentru a reda videoclipul.

Traducător: Razvan Cristian Duia Corector: Delia Bogdan
00:12
Roy Price is a man that most of you have probably never heard about,
0
12820
4276
Probabil că majoritatea n-ați auzit de Roy Price,
00:17
even though he may have been responsible
1
17120
2496
deși el se poate să fie răspunzător
00:19
for 22 somewhat mediocre minutes of your life on April 19, 2013.
2
19640
6896
pentru 22 de minute mediocre din viaţa voastră, pe 19 aprilie 2013.
00:26
He may have also been responsible for 22 very entertaining minutes,
3
26560
3176
S-ar putea să fie răspunzător pentru 22 minute foarte amuzante,
00:29
but not very many of you.
4
29760
2256
dar nu pentru foarte mulţi dintre voi.
00:32
And all of that goes back to a decision
5
32040
1896
Totul a început cu decizia pe care Roy a trebuit să o ia acum trei ani.
00:33
that Roy had to make about three years ago.
6
33960
2000
00:35
So you see, Roy Price is a senior executive with Amazon Studios.
7
35984
4832
Roy Price e director executiv la Studiourile Amazon,
00:40
That's the TV production company of Amazon.
8
40840
3016
compania de producţii TV a Amazon.
00:43
He's 47 years old, slim, spiky hair,
9
43880
3256
E un tip de 47 de ani, zvelt, păr ţepos,
00:47
describes himself on Twitter as "movies, TV, technology, tacos."
10
47160
4816
se descrie pe contul Twitter ca „filme, TV, tehnologie, tacos.”
00:52
And Roy Price has a very responsible job, because it's his responsibility
11
52000
5176
Roy Price are o mare răspundere.
El răspunde de alegerea programelor,
00:57
to pick the shows, the original content that Amazon is going to make.
12
57200
4056
de conţinutul original pe care Amazon urmează să îl producă.
01:01
And of course that's a highly competitive space.
13
61280
2336
Concurenţa este foarte mare.
01:03
I mean, there are so many TV shows already out there,
14
63640
2736
Sunt deja atât de multe producţii TV pe piaţă,
01:06
that Roy can't just choose any show.
15
66400
2176
încât Roy nu poate alege orice program.
01:08
He has to find shows that are really, really great.
16
68600
4096
El trebuie să găsească programe care sunt foarte, foarte bune.
01:12
So in other words, he has to find shows
17
72720
2816
Adică trebuie să găsească spectacole din dreapta acestei curbe.
01:15
that are on the very right end of this curve here.
18
75560
2376
01:17
So this curve here is the rating distribution
19
77960
2656
Curba reprezintă distribuția ratingului
01:20
of about 2,500 TV shows on the website IMDB,
20
80640
4376
pentru cam 2.500 producţii TV pe site-ul IMDB.
01:25
and the rating goes from one to 10,
21
85040
2896
Ratingul merge de la 1 la 10,
01:27
and the height here shows you how many shows get that rating.
22
87960
2976
iar pe verticală e numărul producţiilor care obţin acel rating.
01:30
So if your show gets a rating of nine points or higher, that's a winner.
23
90960
4696
Dacă producţia ta obţine un rating de 9 puncte sau mai mare, e un succes.
01:35
Then you have a top two percent show.
24
95680
1816
Apoi sunt cele mai bune 2% producţii.
01:37
That's shows like "Breaking Bad," "Game of Thrones," "The Wire,"
25
97520
3896
Sunt producţii ca „Breaking Bad", „Game of Thrones", „The Wire".
01:41
so all of these shows that are addictive,
26
101440
2296
Aceste seriale dau dependenţă,
01:43
whereafter you've watched a season, your brain is basically like,
27
103760
3056
dupa ce urmăreşti un sezon, creierul tău se întreabă:
01:46
"Where can I get more of these episodes?"
28
106840
2176
„De unde iau mai multe episoade?"
01:49
That kind of show.
29
109040
1200
Genul ăsta de producţii.
01:50
On the left side, just for clarity, here on that end,
30
110920
2496
În partea stângă, ca să fie clar, aici în margine,
01:53
you have a show called "Toddlers and Tiaras" --
31
113440
3176
aveţi un serial numit „Toddlers and Tiaras"...
01:56
(Laughter)
32
116640
2656
(Râsete)
01:59
-- which should tell you enough
33
119320
1536
... care sugerează clar despre ce-i vorba la acel capăt al curbei.
02:00
about what's going on on that end of the curve.
34
120880
2191
02:03
Now, Roy Price is not worried about getting on the left end of the curve,
35
123095
4161
Roy Price nu este îngrijorat că ajunge la capătul din stânga al curbei,
02:07
because I think you would have to have some serious brainpower
36
127280
2936
pentru că îţi trebuie multă inteligenţă să te plasezi sub „Toddlers and Tiaras”.
02:10
to undercut "Toddlers and Tiaras."
37
130240
1696
02:11
So what he's worried about is this middle bulge here,
38
131960
3936
El e îngrijorat de umflătura asta din mijloc,
02:15
the bulge of average TV,
39
135920
1816
cea a producţiilor TV medii,
02:17
you know, those shows that aren't really good or really bad,
40
137760
2856
acele producţii care nu sunt nici prea bune nici prea rele,
02:20
they don't really get you excited.
41
140639
1656
care nu ajung să te impresioneze.
02:22
So he needs to make sure that he's really on the right end of this.
42
142320
4856
El trebuie să se asigure că se află în marginea din dreapta.
02:27
So the pressure is on,
43
147200
1576
Presiunea este mare.
02:28
and of course it's also the first time
44
148800
2176
De-asemenea e prima dată când Amazon face așa ceva,
02:31
that Amazon is even doing something like this,
45
151000
2176
02:33
so Roy Price does not want to take any chances.
46
153200
3336
deci Roy Price nu vrea să rişte.
02:36
He wants to engineer success.
47
156560
2456
Vrea să proiecteze succesul.
02:39
He needs a guaranteed success,
48
159040
1776
Are nevoie de succes garantat, aşa că organizează un concurs:
02:40
and so what he does is, he holds a competition.
49
160840
2576
02:43
So he takes a bunch of ideas for TV shows,
50
163440
3136
ia un număr de idei de producţii TV
02:46
and from those ideas, through an evaluation,
51
166600
2296
şi, evaluând aceste idei,
02:48
they select eight candidates for TV shows,
52
168920
4096
selectează opt candidaţi pentru producţii TV,
02:53
and then he just makes the first episode of each one of these shows
53
173040
3216
apoi face doar primul episod pentru fiecare din aceste producţii
02:56
and puts them online for free for everyone to watch.
54
176280
3136
şi le difuzează gratis online.
02:59
And so when Amazon is giving out free stuff,
55
179440
2256
Când Amazon oferă lucruri gratuite, le vei lua, nu-i aşa?
03:01
you're going to take it, right?
56
181720
1536
03:03
So millions of viewers are watching those episodes.
57
183280
5136
Astfel, milioane de persoane urmăresc aceste episoade.
03:08
What they don't realize is that, while they're watching their shows,
58
188440
3216
Ei nu realizează că, în timp ce urmăresc spectacolele,
03:11
actually, they are being watched.
59
191680
2296
sunt la rândul lor urmăriţi.
03:14
They are being watched by Roy Price and his team,
60
194000
2336
Sunt urmăriţi de Roy Price şi echipa lui, care înregistrează tot.
03:16
who record everything.
61
196360
1376
03:17
They record when somebody presses play, when somebody presses pause,
62
197760
3376
Înregistrează când cineva apasă play, când apasă pauză,
03:21
what parts they skip, what parts they watch again.
63
201160
2536
ce părţi sar, ce părţi urmăresc din nou.
03:23
So they collect millions of data points,
64
203720
2256
Se colectează milioane de astfel de parametri,
03:26
because they want to have those data points
65
206000
2096
pentru că vor să aibă aceşti parametri
03:28
to then decide which show they should make.
66
208120
2696
ca să decidă apoi ce producţie să continue.
03:30
And sure enough, so they collect all the data,
67
210840
2176
Aşa că ei colectează aceste informaţii,
03:33
they do all the data crunching, and an answer emerges,
68
213040
2576
le procesează şi primesc un răspuns,
03:35
and the answer is,
69
215640
1216
iar răspunsul este:
03:36
"Amazon should do a sitcom about four Republican US Senators."
70
216880
5536
„Amazon ar trebui să facă un serial de comedie despre 4 senatori republicani".
03:42
They did that show.
71
222440
1216
Au făcut acest serial.
03:43
So does anyone know the name of the show?
72
223680
2160
Ştie cineva numele serialului?
03:46
(Audience: "Alpha House.")
73
226720
1296
(Audienţa: „Alpha House”) Da, „Alpha House”,
03:48
Yes, "Alpha House,"
74
228040
1456
03:49
but it seems like not too many of you here remember that show, actually,
75
229520
4096
dar se pare că puţini dintre voi îşi amintesc acel serial,
03:53
because it didn't turn out that great.
76
233640
1856
pentru că nu a fost chiar aşa de bun.
03:55
It's actually just an average show,
77
235520
1856
E doar un serial de nivel mediu,
03:57
actually -- literally, in fact, because the average of this curve here is at 7.4,
78
237400
4576
Literalmente mediu, pentru că media acestui grafic este la 7,4,
04:02
and "Alpha House" lands at 7.5,
79
242000
2416
şi „Alpha House" aterizează la 7,5,
04:04
so a slightly above average show,
80
244440
2016
deci puţin deasupra mediei,
04:06
but certainly not what Roy Price and his team were aiming for.
81
246480
2920
dar sigur nu e ce şi-au dorit Roy Price şi echipa lui.
04:10
Meanwhile, however, at about the same time,
82
250320
2856
Între timp, cam în aceeaşi perioadă,
04:13
at another company,
83
253200
1576
la o altă companie,
04:14
another executive did manage to land a top show using data analysis,
84
254800
4216
un alt director a făcut o producţie de top folosind analiza datelor,
04:19
and his name is Ted,
85
259040
1576
iar numele lui este Ted,
04:20
Ted Sarandos, who is the Chief Content Officer of Netflix,
86
260640
3416
Ted Sarandos – directorul de programe de la Netflix.
04:24
and just like Roy, he's on a constant mission
87
264080
2136
Ca și Roy, e într-o continuă căutare a acelei mari producţii TV.
04:26
to find that great TV show,
88
266240
1496
04:27
and he uses data as well to do that,
89
267760
2016
Şi el foloseşte informatica în acest scop, numai că o face puţin diferit.
04:29
except he does it a little bit differently.
90
269800
2015
04:31
So instead of holding a competition, what he did -- and his team of course --
91
271839
3737
În loc să organizeze o competiţie, el şi echipa lui
04:35
was they looked at all the data they already had about Netflix viewers,
92
275600
3536
au analizat informaţiile pe care le aveau deja despre utilizatorii Netflix,
04:39
you know, the ratings they give their shows,
93
279160
2096
notele pe care le dădeau producţiilor,
04:41
the viewing histories, what shows people like, and so on.
94
281280
2696
istoricul vizionărilor, programele care le plac etc.
04:44
And then they use that data to discover
95
284000
1896
Folosesc apoi informaţiile să afle toate amănuntele despre public:
04:45
all of these little bits and pieces about the audience:
96
285920
2616
04:48
what kinds of shows they like,
97
288560
1456
ce tip de producţii agrează,
04:50
what kind of producers, what kind of actors.
98
290040
2096
ce tip de producători, ce tip de actori.
04:52
And once they had all of these pieces together,
99
292160
2576
După ce-au analizat aceste informaţii,
04:54
they took a leap of faith,
100
294760
1656
s-au hotărât și au decis să producă nu o comedie despre patru senatori,
04:56
and they decided to license
101
296440
2096
04:58
not a sitcom about four Senators
102
298560
2456
05:01
but a drama series about a single Senator.
103
301040
2880
ci un serial dramatic despre un singur senator.
05:04
You guys know the show?
104
304760
1656
Știţi serialul?
05:06
(Laughter)
105
306440
1296
(Râsete)
05:07
Yes, "House of Cards," and Netflix of course, nailed it with that show,
106
307760
3736
Da, „House of Cards” şi Netflix a dat lovitura cu acel serial,
05:11
at least for the first two seasons.
107
311520
2136
cel puţin pentru primele două sezoane.
05:13
(Laughter) (Applause)
108
313680
3976
(Râsete) (Aplauze)
05:17
"House of Cards" gets a 9.1 rating on this curve,
109
317680
3176
„House of Cards” are un rating de 9,1 pe acest grafic,
05:20
so it's exactly where they wanted it to be.
110
320880
3176
deci este exact unde îşi doreau să fie.
05:24
Now, the question of course is, what happened here?
111
324080
2416
Acum, întrebarea este: ce s-a întâmplat aici?
05:26
So you have two very competitive, data-savvy companies.
112
326520
2656
Avem două companii foarte bune în procesarea datelor,
05:29
They connect all of these millions of data points,
113
329200
2856
care coroborează milioane de parametri,
05:32
and then it works beautifully for one of them,
114
332080
2376
iar apoi totul merge frumos pentru una din ele,
05:34
and it doesn't work for the other one.
115
334480
1856
dar nu funcţionează pentru cealaltă.
05:36
So why?
116
336360
1216
De ce?
05:37
Because logic kind of tells you that this should be working all the time.
117
337600
3456
Logic ar fi să funcţioneze mereu.
05:41
I mean, if you're collecting millions of data points
118
341080
2456
Când colectezi milioane de măsurători pentru a lua o decizie,
05:43
on a decision you're going to make,
119
343560
1736
05:45
then you should be able to make a pretty good decision.
120
345320
2616
ar trebui să poţi lua o decizie destul de bună.
05:47
You have 200 years of statistics to rely on.
121
347960
2216
Ai 200 de ani de statistică pe care te bazezi.
05:50
You're amplifying it with very powerful computers.
122
350200
3016
O amplifici cu computere foarte puternice.
05:53
The least you could expect is good TV, right?
123
353240
3280
Nu te-ai aştepta să obţii rezultate mediocre, nu-i aşa?
05:57
And if data analysis does not work that way,
124
357880
2720
Daca analiza datelor nu funcţionează aşa,
06:01
then it actually gets a little scary,
125
361520
2056
lucrurile devin chiar puţin înfricoşătoare,
06:03
because we live in a time where we're turning to data more and more
126
363600
3816
pentru că în zilele noastre apelăm tot mai mult la informatică
06:07
to make very serious decisions that go far beyond TV.
127
367440
4480
pentru a lua decizii mult mai importante decât emisiunile TV.
06:12
Does anyone here know the company Multi-Health Systems?
128
372760
3240
Cunoaşte cineva compania Multi-Health Systems?
06:17
No one. OK, that's good actually.
129
377080
1656
Nimeni. Ăsta chiar e un lucru bun.
06:18
OK, so Multi-Health Systems is a software company,
130
378760
3216
Multi-Health Systems e o companie care produce softuri
06:22
and I hope that nobody here in this room
131
382000
2816
şi sper ca nimeni din această sală
06:24
ever comes into contact with that software,
132
384840
3176
să nu vină în contact cu acele softuri,
06:28
because if you do, it means you're in prison.
133
388040
2096
că ar însemna că sunteţi la închisoare.
06:30
(Laughter)
134
390160
1176
(Râsete)
06:31
If someone here in the US is in prison, and they apply for parole,
135
391360
3536
Dacă cineva, aici în SUA, e la închisoare şi cere eliberarea condiţionată,
06:34
then it's very likely that data analysis software from that company
136
394920
4296
atunci e foarte probabil ca programul de analiză a datelor de la acea companie
06:39
will be used in determining whether to grant that parole.
137
399240
3616
să fie folosit în evaluarea acordării eliberării condiţionate.
06:42
So it's the same principle as Amazon and Netflix,
138
402880
2576
E acelaşi principiu ca cel de la Amazon şi Netflix,
06:45
but now instead of deciding whether a TV show is going to be good or bad,
139
405480
4616
dar acum, în loc să stabileşti dacă un serial TV va fi bun sau rău,
06:50
you're deciding whether a person is going to be good or bad.
140
410120
2896
decizi dacă o persoană va fi bună sau rea.
06:53
And mediocre TV, 22 minutes, that can be pretty bad,
141
413040
5496
O producţie TV mediocră de 22 minute poate fi un rezultat destul de rău,
06:58
but more years in prison, I guess, even worse.
142
418560
2640
dar mai mulţi ani la închisoare cred că e chiar mai rău.
07:02
And unfortunately, there is actually some evidence that this data analysis,
143
422360
4136
Din păcate, sunt dovezi că această analiză informatică,
07:06
despite having lots of data, does not always produce optimum results.
144
426520
4216
cu toate că include mulţi parametri, nu dă mereu rezultate optime.
07:10
And that's not because a company like Multi-Health Systems
145
430760
2722
Asta nu se întâmplă pentru că Multi-Health Systems
07:13
doesn't know what to do with data.
146
433506
1627
nu ştie ce să facă cu datele.
07:15
Even the most data-savvy companies get it wrong.
147
435158
2298
Chiar şi cei mai buni în domeniu greşesc.
07:17
Yes, even Google gets it wrong sometimes.
148
437480
2400
Da, chiar şi Google greşeşte uneori.
07:20
In 2009, Google announced that they were able, with data analysis,
149
440680
4496
În 2009, Google anunţa că poate, prin analize statistice,
07:25
to predict outbreaks of influenza, the nasty kind of flu,
150
445200
4136
să prezică epidemiile de gripă, gripa aviară,
07:29
by doing data analysis on their Google searches.
151
449360
3776
analizând căutările utilizatorilor pe Google.
07:33
And it worked beautifully, and it made a big splash in the news,
152
453160
3856
A funcţionat frumos şi a făcut vâlvă la ştiri,
07:37
including the pinnacle of scientific success:
153
457040
2136
și a atins culmea succesului ştiinţific:
07:39
a publication in the journal "Nature."
154
459200
2456
un articol în revista Nature.
07:41
It worked beautifully for year after year after year,
155
461680
3616
A funcţionat frumos an după an,
07:45
until one year it failed.
156
465320
1656
până când a picat.
07:47
And nobody could even tell exactly why.
157
467000
2256
Şi nimeni nu putea măcar să spună de ce.
07:49
It just didn't work that year,
158
469280
1696
Pur şi simplu nu a mers în acel an.
07:51
and of course that again made big news,
159
471000
1936
Sigur că asta a ţinut iar capul de afiş, incluzând acum o retractare
07:52
including now a retraction
160
472960
1616
07:54
of a publication from the journal "Nature."
161
474600
2840
într-o ediţie a revistei Nature.
07:58
So even the most data-savvy companies, Amazon and Google,
162
478480
3336
Chiar şi companiile tari în operarea datelor, Amazon şi Google,
08:01
they sometimes get it wrong.
163
481840
2136
greşesc câteodată.
08:04
And despite all those failures,
164
484000
2936
În ciuda acestor eşecuri,
08:06
data is moving rapidly into real-life decision-making --
165
486960
3856
informatica îşi face loc rapid în luarea deciziilor din lumea reală:
08:10
into the workplace,
166
490840
1816
la locul de muncă,
08:12
law enforcement,
167
492680
1816
în sistemul judiciar,
08:14
medicine.
168
494520
1200
medicină.
08:16
So we should better make sure that data is helping.
169
496400
3336
Aşa că ar fi mai bine să ne asigurăm că informatica ajută.
08:19
Now, personally I've seen a lot of this struggle with data myself,
170
499760
3136
Eu însumi am văzut mult din lupta asta cu informatica,
08:22
because I work in computational genetics,
171
502920
1976
pentru că lucrez în domeniul geneticii informatizate,
08:24
which is also a field where lots of very smart people
172
504920
2496
un domeniu în care mulţi oameni foarte deştepţi
08:27
are using unimaginable amounts of data to make pretty serious decisions
173
507440
3656
utilizează cantităţi inimaginabile de date ca să ia decizii importante
08:31
like deciding on a cancer therapy or developing a drug.
174
511120
3560
precum un tratament împotriva cancerului sau crearea unui medicament.
08:35
And over the years, I've noticed a sort of pattern
175
515520
2376
În decursul anilor am observat un model, sau o regulă, privind diferenţa
08:37
or kind of rule, if you will, about the difference
176
517920
2456
08:40
between successful decision-making with data
177
520400
2696
dintre deciziile de succes și cele proaste luate cu ajutorul statisticii
08:43
and unsuccessful decision-making,
178
523120
1616
08:44
and I find this a pattern worth sharing, and it goes something like this.
179
524760
3880
şi cred că acest model merită împărtăşit. E cam aşa:
08:50
So whenever you're solving a complex problem,
180
530520
2135
Când rezolvi o problemă complexă, faci în esenţă două lucruri:
08:52
you're doing essentially two things.
181
532679
1737
08:54
The first one is, you take that problem apart into its bits and pieces
182
534440
3296
primul pas e să descompui problema în componentele sale
08:57
so that you can deeply analyze those bits and pieces,
183
537760
2496
ca să poţi analiza atent acele componente
09:00
and then of course you do the second part.
184
540280
2016
şi apoi, al doilea pas:
09:02
You put all of these bits and pieces back together again
185
542320
2656
reasamblezi componentele ca să ajungi la o concluzie.
09:05
to come to your conclusion.
186
545000
1336
09:06
And sometimes you have to do it over again,
187
546360
2336
Câteodată trebuie să faci asta iar, dar mereu sunt astea două lucruri:
09:08
but it's always those two things:
188
548720
1656
09:10
taking apart and putting back together again.
189
550400
2320
descompunerea şi reclădirea.
09:14
And now the crucial thing is
190
554280
1616
Crucial este
09:15
that data and data analysis
191
555920
2896
că datele şi analiza computerizată a acestora
09:18
is only good for the first part.
192
558840
2496
sunt bune numai pentru prima parte.
09:21
Data and data analysis, no matter how powerful,
193
561360
2216
Informatica, oricât de puternică e,
09:23
can only help you taking a problem apart and understanding its pieces.
194
563600
4456
ajută doar la descompunerea problemei şi la înţelegerea componentelor.
09:28
It's not suited to put those pieces back together again
195
568080
3496
Nu e potrivită pentru reasamblarea acestor componente pentru o concluzie.
09:31
and then to come to a conclusion.
196
571600
1896
09:33
There's another tool that can do that, and we all have it,
197
573520
2736
O altă unealtă face asta şi o avem toţi. E vorba de creier.
09:36
and that tool is the brain.
198
576280
1296
09:37
If there's one thing a brain is good at,
199
577600
1936
Dacă e ceva la care creierul e bun, e să refacă întregul din componente,
09:39
it's taking bits and pieces back together again,
200
579560
2256
09:41
even when you have incomplete information,
201
581840
2016
chiar dacă informaţiile sunt incomplete și să tragă o concluzie corectă.
09:43
and coming to a good conclusion,
202
583880
1576
09:45
especially if it's the brain of an expert.
203
585480
2936
Mai ales când e creierul unui expert.
09:48
And that's why I believe that Netflix was so successful,
204
588440
2656
Cred că de asta a avut Netflix succes,
09:51
because they used data and brains where they belong in the process.
205
591120
3576
fiindcă au folosit informatica şi creierul la locul potrivit.
09:54
They use data to first understand lots of pieces about their audience
206
594720
3536
Au folosit întâi informatica să afle cât mai multe despre publicul lor,
09:58
that they otherwise wouldn't have been able to understand at that depth,
207
598280
3416
pe care altfel nu l-ar fi putut înţelege atât de bine,
10:01
but then the decision to take all these bits and pieces
208
601720
2616
dar decizia de a lua piesele acestui puzzle,
10:04
and put them back together again and make a show like "House of Cards,"
209
604360
3336
şi de a le recompune pentru a face un serial ca „House of Cards”,
10:07
that was nowhere in the data.
210
607720
1416
nu a venit de la computer.
10:09
Ted Sarandos and his team made that decision to license that show,
211
609160
3976
Ted Sarandos şi echipa lui au luat decizia de a produce acel serial,
10:13
which also meant, by the way, that they were taking
212
613160
2381
ceea ce însemna și că îşi asumau prin acea decizie,
10:15
a pretty big personal risk with that decision.
213
615565
2851
un risc personal destul de mare.
10:18
And Amazon, on the other hand, they did it the wrong way around.
214
618440
3016
Amazon, în schimb, au mers pe calea greşită.
10:21
They used data all the way to drive their decision-making,
215
621480
2736
Au folosit statistica în tot procesul de luare a deciziei,
10:24
first when they held their competition of TV ideas,
216
624240
2416
întâi când au organizat concursul pentru idei,
10:26
then when they selected "Alpha House" to make as a show.
217
626680
3696
şi apoi când au selectat „Alpha House" ca şi câştigător.
10:30
Which of course was a very safe decision for them,
218
630400
2496
Asta a fost desigur o decizie fără riscuri pentru ei,
10:32
because they could always point at the data, saying,
219
632920
2456
pentru că mereu puteau blama informatica, spunând:
10:35
"This is what the data tells us."
220
635400
1696
„Asta ne spun datele."
10:37
But it didn't lead to the exceptional results that they were hoping for.
221
637120
4240
Dar asta nu a condus la rezultatele excepţionale la care sperau.
10:42
So data is of course a massively useful tool to make better decisions,
222
642120
4976
Informatica e desigur un mijloc excelent ca ajutor pentru decizii mai bune
10:47
but I believe that things go wrong
223
647120
2376
dar cred că lucrurile merg rău când conduce luarea deciziilor.
10:49
when data is starting to drive those decisions.
224
649520
2576
10:52
No matter how powerful, data is just a tool,
225
652120
3776
Oricât de puternică, informatica e doar o unealtă.
10:55
and to keep that in mind, I find this device here quite useful.
226
655920
3336
Cred că acest dispozitiv e foarte util să îmi reamintească asta.
10:59
Many of you will ...
227
659280
1216
Mulţi veţi crede la fel.
11:00
(Laughter)
228
660520
1216
(Râsete)
11:01
Before there was data,
229
661760
1216
Înaintea statisticii ăsta era dispozitivul pentru luarea deciziilor.
11:03
this was the decision-making device to use.
230
663000
2856
11:05
(Laughter)
231
665880
1256
(Râsete)
11:07
Many of you will know this.
232
667160
1336
Mulţi îl ştiţi.
11:08
This toy here is called the Magic 8 Ball,
233
668520
1953
Această jucărie se numeşte Magic 8 Ball şi e chiar uimitoare,
11:10
and it's really amazing,
234
670497
1199
11:11
because if you have a decision to make, a yes or no question,
235
671720
2896
pentru că daca trebuie să decizi, prin „da” sau „nu”,
11:14
all you have to do is you shake the ball, and then you get an answer --
236
674640
3736
trebuie doar să scuturi bila şi obţii răspunsul:
11:18
"Most Likely" -- right here in this window in real time.
237
678400
2816
„Foarte probabil” care-ți apare în fereastră, chiar acum.
11:21
I'll have it out later for tech demos.
238
681240
2096
O să fac mai târziu demonstraţii tehnice.
11:23
(Laughter)
239
683360
1216
(Râsete)
11:24
Now, the thing is, of course -- so I've made some decisions in my life
240
684600
3576
Desigur, am luat câteva decizii în viaţa mea
11:28
where, in hindsight, I should have just listened to the ball.
241
688200
2896
când, privind retrospectiv, ar fi trebuit să ascult bila.
11:31
But, you know, of course, if you have the data available,
242
691120
3336
Dar când ai la dispoziţie informatica,
11:34
you want to replace this with something much more sophisticated,
243
694480
3056
vrei să înlocuieşti asta cu ceva mult mai sofisticat,
11:37
like data analysis to come to a better decision.
244
697560
3616
ca analiza datelor, pentru a face o alegere mai bună,
11:41
But that does not change the basic setup.
245
701200
2616
dar asta nu schimbă miezul problemei:
11:43
So the ball may get smarter and smarter and smarter,
246
703840
3176
bila poate deveni din ce în ce mai „deşteaptă",
11:47
but I believe it's still on us to make the decisions
247
707040
2816
dar cred că tot noi ar trebui să luăm deciziile
11:49
if we want to achieve something extraordinary,
248
709880
3016
dacă vrem să obţinem ceva extraordinar,
11:52
on the right end of the curve.
249
712920
1936
la marginea din dreapta a curbei.
11:54
And I find that a very encouraging message, in fact,
250
714880
4496
Cred că un mesaj foarte încurajator
11:59
that even in the face of huge amounts of data,
251
719400
3976
e că şi dacă ai acces la cantităţi imense de date procesate,
12:03
it still pays off to make decisions,
252
723400
4096
merită să iei tu deciziile,
12:07
to be an expert in what you're doing
253
727520
2656
să fii un expert în ceea ce faci
12:10
and take risks.
254
730200
2096
şi să îţi asumi riscuri.
12:12
Because in the end, it's not data,
255
732320
2776
Pentru că la final, nu statistica, ci asumarea riscurilor
12:15
it's risks that will land you on the right end of the curve.
256
735120
3960
o să te plaseze în zona dorită a graficului.
12:19
Thank you.
257
739840
1216
Mulţumesc.
12:21
(Applause)
258
741080
3680
(Aplauze)
Despre acest site

Acest site vă va prezenta videoclipuri de pe YouTube care sunt utile pentru a învăța limba engleză. Veți vedea lecții de engleză predate de profesori de top din întreaga lume. Faceți dublu clic pe subtitrările în limba engleză afișate pe fiecare pagină video pentru a reda videoclipul de acolo. Subtitrările se derulează în sincron cu redarea videoclipului. Dacă aveți comentarii sau solicitări, vă rugăm să ne contactați folosind acest formular de contact.

https://forms.gle/WvT1wiN1qDtmnspy7