아래 영문자막을 더블클릭하시면 영상이 재생됩니다.
번역: Ju Hye Lim
검토: Gichung Lee
00:12
Roy Price is a man that most of you
have probably never heard about,
0
12820
4276
로이 프라이스라는 사람에 대해
아시는 분이 얼마 되지 않을 거예요.
00:17
even though he may have been responsible
1
17120
2496
그가 2013년 4월 19일에 여러분이
00:19
for 22 somewhat mediocre
minutes of your life on April 19, 2013.
2
19640
6896
형편없는 22분을 보낸 이유일
수도 있지만 말입니다.
00:26
He may have also been responsible
for 22 very entertaining minutes,
3
26560
3176
그는 일부에게는 아주 흥미로운
22분을 보내게 하기도 했지만
00:29
but not very many of you.
4
29760
2256
여러분 대부분은 아닐테죠.
00:32
And all of that goes back to a decision
5
32040
1896
그리고 이 모든건
00:33
that Roy had to make
about three years ago.
6
33960
2000
삼년 전 로이가 만들어야 했던
결정으로 되돌아 갑니다.
00:35
So you see, Roy Price
is a senior executive with Amazon Studios.
7
35984
4832
네, 로이는 아마존 스튜디오의
고위 간부입니다.
00:40
That's the TV production
company of Amazon.
8
40840
3016
아마존의 TV 기획 부서죠.
00:43
He's 47 years old, slim, spiky hair,
9
43880
3256
로이는 47세로 마르고
뾰족한 머리를 했으며
00:47
describes himself on Twitter
as "movies, TV, technology, tacos."
10
47160
4816
트위터에 스스로를 다음과 같이
묘사했습니다. "영화, TV, 기술, 타코"
00:52
And Roy Price has a very responsible job,
because it's his responsibility
11
52000
5176
로이의 일은 책임감이 막중했는데
그가 하는 일은 아마존이 만들
시작 컨텐츠를 선택하는 것이니까요.
00:57
to pick the shows, the original content
that Amazon is going to make.
12
57200
4056
01:01
And of course that's
a highly competitive space.
13
61280
2336
물론 경쟁이 매우 심한 분야이죠.
01:03
I mean, there are so many
TV shows already out there,
14
63640
2736
그러니까 이미 많은 TV 쇼가 있고
01:06
that Roy can't just choose any show.
15
66400
2176
로이는 아무 쇼나 선택할 수 없죠.
01:08
He has to find shows
that are really, really great.
16
68600
4096
매우 훌륭한 쇼를 찾아야 해요.
01:12
So in other words, he has to find shows
17
72720
2816
즉, 다시 말해서
바로 이 곡선 오른쪽 끝에
있는 것들이어야 한다는 뜻이죠.
01:15
that are on the very right end
of this curve here.
18
75560
2376
01:17
So this curve here
is the rating distribution
19
77960
2656
이 곡선은 IMDB 웹사이트의
2,500 여개의 TV 쇼를
01:20
of about 2,500 TV shows
on the website IMDB,
20
80640
4376
평가하여 분석한 내용을 담고 있습니다.
01:25
and the rating goes from one to 10,
21
85040
2896
평점은 1점부터 10점으로 매겨지며
01:27
and the height here shows you
how many shows get that rating.
22
87960
2976
여기 이 높이는 그 평점을
받은 쇼의 개수를 보여주죠.
01:30
So if your show gets a rating
of nine points or higher, that's a winner.
23
90960
4696
9점 이상을 받았다면 대박인 거예요.
01:35
Then you have a top two percent show.
24
95680
1816
상위 2%의 쇼라는 거죠.
01:37
That's shows like "Breaking Bad,"
"Game of Thrones," "The Wire,"
25
97520
3896
"브레이킹 배드", "왕좌의 게임",
"더 와이어" 처럼요.
01:41
so all of these shows that are addictive,
26
101440
2296
이 쇼들은 중독성이 강해요.
01:43
whereafter you've watched a season,
your brain is basically like,
27
103760
3056
한 시즌을 보고나면 여러분의 뇌는
01:46
"Where can I get more of these episodes?"
28
106840
2176
"다른 시즌들은 어디서 구하지?"
라고 생각할 거예요.
01:49
That kind of show.
29
109040
1200
그런 쇼들이죠.
01:50
On the left side, just for clarity,
here on that end,
30
110920
2496
명확히 보여드리기 위해 왼쪽 끝에는
뭐가 있는지 알려드리자면요.
01:53
you have a show called
"Toddlers and Tiaras" --
31
113440
3176
"토들러 앤 티아라"가 있어요.
01:56
(Laughter)
32
116640
2656
(웃음)
01:59
-- which should tell you enough
33
119320
1536
여러분은 충분히 그 곡선 끝에서
02:00
about what's going on
on that end of the curve.
34
120880
2191
어떤 일이 일어나고 있는지
예측할 수 있을 거예요.
02:03
Now, Roy Price is not worried about
getting on the left end of the curve,
35
123095
4161
네, 로이 프라이스는 왼쪽 곡선에
머물게 되는 것에 신경쓰지 않아요.
02:07
because I think you would have to have
some serious brainpower
36
127280
2936
왜냐하면 여러분이
"토들러 앤 티아라"를 제치시려면
뇌를 좀 많이 쓰셔야 할테니까요.
02:10
to undercut "Toddlers and Tiaras."
37
130240
1696
02:11
So what he's worried about
is this middle bulge here,
38
131960
3936
중요한 건 이 가운데 지점이에요.
02:15
the bulge of average TV,
39
135920
1816
평균 TV의 중간 지점
02:17
you know, those shows
that aren't really good or really bad,
40
137760
2856
아시다시피 그다지 좋지도
나쁘지도 않은 쇼들이죠.
02:20
they don't really get you excited.
41
140639
1656
그렇게 흥미롭지도 않아요.
02:22
So he needs to make sure
that he's really on the right end of this.
42
142320
4856
로이는 반드시 이 오른쪽 끝에
있도록 해야 해요.
02:27
So the pressure is on,
43
147200
1576
부담이 있죠.
02:28
and of course it's also the first time
44
148800
2176
물론 아마존이 이런 일을 하는 것도
02:31
that Amazon is even
doing something like this,
45
151000
2176
처음이기도 해요.
02:33
so Roy Price does not want
to take any chances.
46
153200
3336
로이 프라이스는 위험을 피하고
싶어 할 거예요.
02:36
He wants to engineer success.
47
156560
2456
그는 성공을 만들어내길 꾀하죠.
02:39
He needs a guaranteed success,
48
159040
1776
그에겐 보장된 성공이 필요해요.
02:40
and so what he does is,
he holds a competition.
49
160840
2576
그래서 그는 경쟁을 시킵니다.
02:43
So he takes a bunch of ideas for TV shows,
50
163440
3136
그는 텔레비젼 쇼의 여러
아이디어를 모은 다음에
02:46
and from those ideas,
through an evaluation,
51
166600
2296
아이디어와 평가를 토대로
02:48
they select eight candidates for TV shows,
52
168920
4096
여덟 개의 TV 쇼를 선택합니다.
02:53
and then he just makes the first episode
of each one of these shows
53
173040
3216
그리고 각 쇼들의 첫 번째 에피소드를
02:56
and puts them online for free
for everyone to watch.
54
176280
3136
온라인에 누구나 시청할 수 있도록
무료로 제공해요.
02:59
And so when Amazon
is giving out free stuff,
55
179440
2256
아마존이 무료로 제공하면
03:01
you're going to take it, right?
56
181720
1536
당연히 보게 되지 않겠어요?
03:03
So millions of viewers
are watching those episodes.
57
183280
5136
수 백만 명의 시청자들이
첫 번째 에피소드를 볼 것입니다.
03:08
What they don't realize is that,
while they're watching their shows,
58
188440
3216
쇼를 시청할 땐 알아채지 못하지만
03:11
actually, they are being watched.
59
191680
2296
사실 그들은 감시당하고 있어요.
03:14
They are being watched
by Roy Price and his team,
60
194000
2336
로이 프라이스와 그의 팀으로부터요.
03:16
who record everything.
61
196360
1376
그들은 모든 것을 기록해요.
03:17
They record when somebody presses play,
when somebody presses pause,
62
197760
3376
시청자들이 언제 재생하고
언제 정지하는지 기록하죠.
03:21
what parts they skip,
what parts they watch again.
63
201160
2536
어느 장면을 건너 뛰고
어디를 다시 보는지를요.
03:23
So they collect millions of data points,
64
203720
2256
그들은 무수히 많은
데이터 포인트를 수집해요.
03:26
because they want
to have those data points
65
206000
2096
그들에게 필요한건
데이터 포인트거든요.
03:28
to then decide
which show they should make.
66
208120
2696
그리고 이를 통해 어떤 쇼를
만들어야 할지를 결정하죠.
03:30
And sure enough,
so they collect all the data,
67
210840
2176
당연히 그들은 모든 정보를 수집하고
03:33
they do all the data crunching,
and an answer emerges,
68
213040
2576
분석하면 정답은 나타납니다.
03:35
and the answer is,
69
215640
1216
정답은
03:36
"Amazon should do a sitcom
about four Republican US Senators."
70
216880
5536
"아마존은 공화당 의원 네 명에 대한
시트콤을 만들어야 한다" 입니다.
03:42
They did that show.
71
222440
1216
그래서 정말 만들었어요.
03:43
So does anyone know the name of the show?
72
223680
2160
쇼의 제목을 아시는 분이 계신가요?
03:46
(Audience: "Alpha House.")
73
226720
1296
(청중: "알파 하우스")
03:48
Yes, "Alpha House,"
74
228040
1456
네, "알파 하우스"죠.
03:49
but it seems like not too many of you here
remember that show, actually,
75
229520
4096
그런데 많은 분들이 기억하고
계시지는 않은 것 같아요.
03:53
because it didn't turn out that great.
76
233640
1856
그렇게 대박난 작품은 아니거든요.
03:55
It's actually just an average show,
77
235520
1856
중간 정도의 쇼였어요.
03:57
actually -- literally, in fact, because
the average of this curve here is at 7.4,
78
237400
4576
사실 이 곡선의 중간은 7.4점이고
04:02
and "Alpha House" lands at 7.5,
79
242000
2416
"알파 하우스"는 7.5점이니깐요.
04:04
so a slightly above average show,
80
244440
2016
평균보다 아주 약간 위죠.
04:06
but certainly not what Roy Price
and his team were aiming for.
81
246480
2920
하지만 분명 로이 프라이스와
그의 팀이 목표한 것은 아니었죠.
04:10
Meanwhile, however,
at about the same time,
82
250320
2856
한편 그와 동시에
04:13
at another company,
83
253200
1576
다른 회사에서도
04:14
another executive did manage
to land a top show using data analysis,
84
254800
4216
회사 간부가 데이터 분석을 통해
탑 쇼 하나를 배출했습니다.
04:19
and his name is Ted,
85
259040
1576
그의 이름은 테드 사란도스로
04:20
Ted Sarandos, who is
the Chief Content Officer of Netflix,
86
260640
3416
넷플릭스의 웹사이트 콘텐츠
부문 최고 경영자예요.
04:24
and just like Roy,
he's on a constant mission
87
264080
2136
로이처럼 그는 끊임없이 좋은 TV쇼를
04:26
to find that great TV show,
88
266240
1496
찾아야 하는 일을 맡고 있어요.
04:27
and he uses data as well to do that,
89
267760
2016
테드 또한 이를 위해
데이터를 이용하는데
04:29
except he does it
a little bit differently.
90
269800
2015
조금은 다른 방식을 사용합니다.
04:31
So instead of holding a competition,
what he did -- and his team of course --
91
271839
3737
경쟁을 붙이는 대신에 테드와 그의 팀은
04:35
was they looked at all the data
they already had about Netflix viewers,
92
275600
3536
넷플릭스 시청자들에 관한
기존의 데이터를 봅니다.
04:39
you know, the ratings
they give their shows,
93
279160
2096
시청자들이 메긴 평점과
04:41
the viewing histories,
what shows people like, and so on.
94
281280
2696
시청 기록과 사람들이 어떤 쇼를
좋아하는지 등을요.
04:44
And then they use that data to discover
95
284000
1896
그리고 그 데이터를 통해서
04:45
all of these little bits and pieces
about the audience:
96
285920
2616
관객들에 대한 소소한
모든 것들을 발견해 나갑니다.
04:48
what kinds of shows they like,
97
288560
1456
어떤 종류의 쇼를 좋아하는지와
04:50
what kind of producers,
what kind of actors.
98
290040
2096
어떤 제작자와 배우를
좋아하는지 말이에요.
04:52
And once they had
all of these pieces together,
99
292160
2576
이런 정보들을 한데 모아서
04:54
they took a leap of faith,
100
294760
1656
상당한 신뢰를 가지고
04:56
and they decided to license
101
296440
2096
결정한 것은
04:58
not a sitcom about four Senators
102
298560
2456
네 명의 국회위원에 대한
시트콤이 아니라
05:01
but a drama series about a single Senator.
103
301040
2880
한 명의 국회위원에 대한
드라마였습니다.
05:04
You guys know the show?
104
304760
1656
그 쇼가 무엇인지 아세요?
05:06
(Laughter)
105
306440
1296
(웃음)
05:07
Yes, "House of Cards," and Netflix
of course, nailed it with that show,
106
307760
3736
네, "하우스 오브 카드"죠.
최소 두 번째 시즌까진 성공적인
05:11
at least for the first two seasons.
107
311520
2136
넷플릭스의 쇼이죠.
05:13
(Laughter) (Applause)
108
313680
3976
(웃음) (박수)
05:17
"House of Cards" gets
a 9.1 rating on this curve,
109
317680
3176
"하우스 오브 카드"는 이 곡선에서
9.1점을 받았어요.
05:20
so it's exactly
where they wanted it to be.
110
320880
3176
그들이 원하던 수준이죠.
05:24
Now, the question of course is,
what happened here?
111
324080
2416
질문을 해보죠.
무슨 일이 일어난 걸까요?
05:26
So you have two very competitive,
data-savvy companies.
112
326520
2656
두 개의 매우 경쟁적인 데이터를 잘
다루는 회사들이 있다고 합시다.
05:29
They connect all of these
millions of data points,
113
329200
2856
그들은 수 백만 개의 데이터
포인트들을 연결시켜요.
05:32
and then it works
beautifully for one of them,
114
332080
2376
그들 중 한 쪽에게만 아주 잘 작동하고
05:34
and it doesn't work for the other one.
115
334480
1856
다른 쪽에서는 잘 작동하지 않아요.
05:36
So why?
116
336360
1216
왜 그럴까요?
05:37
Because logic kind of tells you
that this should be working all the time.
117
337600
3456
왜냐하면 논리적으로 보면 이것이 항상
작동하는 것이 맞을 것이기 때문입니다.
05:41
I mean, if you're collecting
millions of data points
118
341080
2456
결정을 하기 위해
05:43
on a decision you're going to make,
119
343560
1736
수 백 만의 데이터
포인트를 수집한다면
05:45
then you should be able
to make a pretty good decision.
120
345320
2616
꽤 훌륭한 결정을 내릴 수 있어야
마땅할 것입니다.
05:47
You have 200 years
of statistics to rely on.
121
347960
2216
여러분에게 200년동안의 믿을만한
통계 자료가 있어요.
05:50
You're amplifying it
with very powerful computers.
122
350200
3016
강력한 컴퓨터를 이용하여
이를 증폭시킵니다.
05:53
The least you could expect
is good TV, right?
123
353240
3280
최소한 좋은 TV프로는 기대하실테죠?
05:57
And if data analysis
does not work that way,
124
357880
2720
만일 정보 분석이 그렇게 되지 않으면
06:01
then it actually gets a little scary,
125
361520
2056
조금 무서워 집니다.
06:03
because we live in a time
where we're turning to data more and more
126
363600
3816
왜냐하면 우리가 사는 현 세대는
더 많은 정보 수집을 통하여
06:07
to make very serious decisions
that go far beyond TV.
127
367440
4480
TV프로 이상으로 훨씬 더 중대한
결정을 내리는 사회거든요.
06:12
Does anyone here know the company
Multi-Health Systems?
128
372760
3240
"멀티-헬스 시스템" 이라는
회사에 대해 들어 보신 분 계신가요?
06:17
No one. OK, that's good actually.
129
377080
1656
아무도 없군요. 좋습니다.
06:18
OK, so Multi-Health Systems
is a software company,
130
378760
3216
좋아요, 멀티 헬스 시스템은
소프트웨어 회사입니다.
06:22
and I hope that nobody here in this room
131
382000
2816
여기 계신 여러분 중 아무도
06:24
ever comes into contact
with that software,
132
384840
3176
그 소프트웨어와 만나지
않으시길 바래요.
06:28
because if you do,
it means you're in prison.
133
388040
2096
만일 그런다면 바로
감옥에 있다는 뜻이니까요.
06:30
(Laughter)
134
390160
1176
(웃음)
06:31
If someone here in the US is in prison,
and they apply for parole,
135
391360
3536
미국에서 수감중인 누군가가
가석방을 요청하면
06:34
then it's very likely that
data analysis software from that company
136
394920
4296
그 회사의 정보 분석
소프트 웨어를 통해
06:39
will be used in determining
whether to grant that parole.
137
399240
3616
가석방 여부를 결정할
가능성이 높습니다.
06:42
So it's the same principle
as Amazon and Netflix,
138
402880
2576
아마존과 넷플릭스와 같은 원칙이죠.
06:45
but now instead of deciding whether
a TV show is going to be good or bad,
139
405480
4616
하지만 지금은 TV쇼가 좋은지
나쁜지를 판단하는 대신에
06:50
you're deciding whether a person
is going to be good or bad.
140
410120
2896
여러분은 어떤 사람이 좋은지
나쁜지를 결정하게 될 거예요.
06:53
And mediocre TV, 22 minutes,
that can be pretty bad,
141
413040
5496
평범한 TV를 22분동안
보는 것은 별로죠.
06:58
but more years in prison,
I guess, even worse.
142
418560
2640
하지만 감옥에서 몇 년 더 사는 것은
훨씬 나쁜 일일 것입니다.
07:02
And unfortunately, there is actually
some evidence that this data analysis,
143
422360
4136
애석하게도 분석된 정보가
07:06
despite having lots of data,
does not always produce optimum results.
144
426520
4216
그 방대한 양에도 불구하고 항상 최상의
결과를 얻는 것은 아니라는 증거가 있습니다.
07:10
And that's not because a company
like Multi-Health Systems
145
430760
2722
멀티 헬스 시스템과 같은 회사가
07:13
doesn't know what to do with data.
146
433506
1627
데이터를 어떻게 이용해야 할지
몰라서 그러는게 아니에요.
07:15
Even the most data-savvy
companies get it wrong.
147
435158
2298
가장 데이터를 잘 다루는
회사들도 틀리는 걸요.
07:17
Yes, even Google gets it wrong sometimes.
148
437480
2400
구글마저도 가끔은 틀립니다.
07:20
In 2009, Google announced
that they were able, with data analysis,
149
440680
4496
2009년 구글은 데이터 분석을 통해
07:25
to predict outbreaks of influenza,
the nasty kind of flu,
150
445200
4136
고약한 독감인 인플루엔자 발발을
예측할 수 있다고 주장했었어요.
07:29
by doing data analysis
on their Google searches.
151
449360
3776
구글 검색의 정보 분석을 토대로요.
07:33
And it worked beautifully,
and it made a big splash in the news,
152
453160
3856
아주 잘 흘러 갔고
뉴스에 크게 보도 됐어요.
07:37
including the pinnacle
of scientific success:
153
457040
2136
과학적 성공의 정점과 함께 말입니다.
07:39
a publication in the journal "Nature."
154
459200
2456
"네이쳐"에 개제된 것이죠.
07:41
It worked beautifully
for year after year after year,
155
461680
3616
해마다 성공적이었죠.
07:45
until one year it failed.
156
465320
1656
한 해 실패하기 전까진요.
07:47
And nobody could even tell exactly why.
157
467000
2256
그리고 아무도 왜 실패했는지
확실한 이유를 규명하지 못해요.
07:49
It just didn't work that year,
158
469280
1696
그 해는 그냥 실패였죠.
07:51
and of course that again made big news,
159
471000
1936
물론 그것 또한 빅뉴스였고
07:52
including now a retraction
160
472960
1616
"네이쳐" 학술지에
07:54
of a publication
from the journal "Nature."
161
474600
2840
개제되는 것은 철회되었습니다.
07:58
So even the most data-savvy companies,
Amazon and Google,
162
478480
3336
아마존과 구글같은
데이터를 잘 다루는 회사들도
08:01
they sometimes get it wrong.
163
481840
2136
가끔은 틀린다는 거예요.
08:04
And despite all those failures,
164
484000
2936
이러한 실패 속에서도
08:06
data is moving rapidly
into real-life decision-making --
165
486960
3856
데이터는 아주 급속하게 실제
의사결정에 이용되고 있습니다.
08:10
into the workplace,
166
490840
1816
직장에서도
08:12
law enforcement,
167
492680
1816
법률 실행 시에도
08:14
medicine.
168
494520
1200
의료 분야에서도요.
08:16
So we should better make sure
that data is helping.
169
496400
3336
그러니까 실질적으로 데이터가
도움이 되도록 해야겠죠.
08:19
Now, personally I've seen
a lot of this struggle with data myself,
170
499760
3136
개인적으로 저는 데이터 때문에
고생한 경험이 많아요.
08:22
because I work in computational genetics,
171
502920
1976
왜냐하면 전 컴퓨터 유전학 분야에
종사하고 있거든요.
08:24
which is also a field
where lots of very smart people
172
504920
2496
이 분야에서는 수많은
뛰어난 인재들이
08:27
are using unimaginable amounts of data
to make pretty serious decisions
173
507440
3656
상상하지 못할만큼 많은 양의 정보를
이용하여 중대한 결정을 내립니다.
08:31
like deciding on a cancer therapy
or developing a drug.
174
511120
3560
예를 들어 암 치료나 신약 개발
등의 결정에 말입니다.
08:35
And over the years,
I've noticed a sort of pattern
175
515520
2376
최근 몇년 사이 새로운
패턴을 발견하였는데
08:37
or kind of rule, if you will,
about the difference
176
517920
2456
차이에 관한 일종의 규칙이라고 해두죠.
08:40
between successful
decision-making with data
177
520400
2696
데이터를 이용하여 성공적인 결정을
08:43
and unsuccessful decision-making,
178
523120
1616
이끌어 내는가 실패 하는가의
차이에 대한 규칙 말입니다.
08:44
and I find this a pattern worth sharing,
and it goes something like this.
179
524760
3880
이 패턴은 공유될 가치가 있는데
그 내용은 다음과 같습니다.
08:50
So whenever you're
solving a complex problem,
180
530520
2135
복잡한 문제에 직면했을 때
08:52
you're doing essentially two things.
181
532679
1737
여러분은 주로 두가지를 합니다.
08:54
The first one is, you take that problem
apart into its bits and pieces
182
534440
3296
첫번째는 그 문제를
여러 조각으로 쪼개서
08:57
so that you can deeply analyze
those bits and pieces,
183
537760
2496
그 조각들을 깊이 분석하는 것이고
09:00
and then of course
you do the second part.
184
540280
2016
물론 여러분이 하는 두 번째 일은
09:02
You put all of these bits and pieces
back together again
185
542320
2656
조각들을 다시 하나로 합쳐서
09:05
to come to your conclusion.
186
545000
1336
결론을 내는 것입니다.
09:06
And sometimes you
have to do it over again,
187
546360
2336
종종 그 과정을 반복해야 할텐데요.
09:08
but it's always those two things:
188
548720
1656
그래도 역시 두 가지 뿐이죠.
09:10
taking apart and putting
back together again.
189
550400
2320
쪼개고 다시 합치기.
09:14
And now the crucial thing is
190
554280
1616
그리고 중요한 것은
09:15
that data and data analysis
191
555920
2896
데이터와 데이터 분석은
09:18
is only good for the first part.
192
558840
2496
오직 첫 번째 파트에서만
중요한 것이라는 겁니다.
09:21
Data and data analysis,
no matter how powerful,
193
561360
2216
데이터와 데이터 분석이 얼마나
영향력이 있던 간에
09:23
can only help you taking a problem apart
and understanding its pieces.
194
563600
4456
문제를 쪼개고 그 조각들을
이해하는 것에만 도움을 줄 뿐
09:28
It's not suited to put those pieces
back together again
195
568080
3496
그 조각들을 다시 하나로 합쳐서
09:31
and then to come to a conclusion.
196
571600
1896
결론을 내는데 도움을 주진 않아요.
09:33
There's another tool that can do that,
and we all have it,
197
573520
2736
그것을 할수 있는 또다른 도구가 있는데
우리 모두는 그것을 가지고 있습니다.
09:36
and that tool is the brain.
198
576280
1296
그 도구는 바로 뇌에요.
09:37
If there's one thing a brain is good at,
199
577600
1936
뇌가 능통한 일들 중 하나는
09:39
it's taking bits and pieces
back together again,
200
579560
2256
조각들을 합치는 것입니다.
09:41
even when you have incomplete information,
201
581840
2016
완전하지 않은 정보를
가지고 있을 때조차
09:43
and coming to a good conclusion,
202
583880
1576
좋은 결정을 내리죠.
09:45
especially if it's the brain of an expert.
203
585480
2936
전문가의 두뇌라면 말입니다.
09:48
And that's why I believe
that Netflix was so successful,
204
588440
2656
그게 제가 생각하는 넷플릭스의
성공 비결이예요.
09:51
because they used data and brains
where they belong in the process.
205
591120
3576
데이터와 뇌를 이용해서
일을 처리 했거든요.
09:54
They use data to first understand
lots of pieces about their audience
206
594720
3536
첫 번째는 데이터를 이용해서
대중들에 관한 조각들을 이해했는데
09:58
that they otherwise wouldn't have
been able to understand at that depth,
207
598280
3416
데이터가 없었다면 그렇게 깊이
이해하지 못했을 것입니다.
10:01
but then the decision
to take all these bits and pieces
208
601720
2616
하지만 그 조각들을 다시 하나로 합쳐
10:04
and put them back together again
and make a show like "House of Cards,"
209
604360
3336
"하우스 오브 카드" 같은
쇼를 만든 것은
10:07
that was nowhere in the data.
210
607720
1416
데이터로부터 나온 것이 아니었습니다.
10:09
Ted Sarandos and his team
made that decision to license that show,
211
609160
3976
테드 세란도스와 그의 팀은
그 쇼에 특허를 내기로 결정했어요.
10:13
which also meant, by the way,
that they were taking
212
613160
2381
즉, 다른 말로
10:15
a pretty big personal risk
with that decision.
213
615565
2851
꽤 큰 개인적 위험을
감수한다는 뜻이죠.
10:18
And Amazon, on the other hand,
they did it the wrong way around.
214
618440
3016
반면에 아마존은 실수를 했어요.
10:21
They used data all the way
to drive their decision-making,
215
621480
2736
그들은 결정을 내리기까지 계속
데이터를 사용했습니다.
10:24
first when they held
their competition of TV ideas,
216
624240
2416
먼저 TV 아이디어 경쟁을
벌일 때 사용했고
10:26
then when they selected "Alpha House"
to make as a show.
217
626680
3696
"알파 하우스" 쇼를 만들기로
선택했을 때도 사용했습니다.
10:30
Which of course was
a very safe decision for them,
218
630400
2496
물론 그들에겐 아주 안정적인
결정이었습니다.
10:32
because they could always
point at the data, saying,
219
632920
2456
왜냐면 그들은 항상 데이터를
가르키면서 말할 수 있었으니까요.
10:35
"This is what the data tells us."
220
635400
1696
"이것이 데이터가 말해준 것입니다".
10:37
But it didn't lead to the exceptional
results that they were hoping for.
221
637120
4240
그렇지만 그들이 원하던 특별한
결과에 이르지는 못했어요.
10:42
So data is of course a massively
useful tool to make better decisions,
222
642120
4976
당연히 데이터는 더 나은 선택을
위한 매우 유용한 도구이지만
10:47
but I believe that things go wrong
223
647120
2376
때로는 잘못될 수도 있다고 생각해요.
10:49
when data is starting
to drive those decisions.
224
649520
2576
데이터가 그러한 결정을
이끌기 시작한다면 말이죠.
10:52
No matter how powerful,
data is just a tool,
225
652120
3776
얼마나 강력하건 간에,
데이터는 도구일 뿐입니다.
10:55
and to keep that in mind,
I find this device here quite useful.
226
655920
3336
이를 유념하기 위해서는
이 장치가 꽤 유용하다고 생각합니다.
10:59
Many of you will ...
227
659280
1216
여러분들 중 많은분들이
11:00
(Laughter)
228
660520
1216
(웃음)
11:01
Before there was data,
229
661760
1216
데이터가 있기 전에
11:03
this was the decision-making
device to use.
230
663000
2856
이것을 의사결정 장치로
이용하셨을 것입니다.
11:05
(Laughter)
231
665880
1256
(웃음)
11:07
Many of you will know this.
232
667160
1336
대부분은 아실 거예요.
11:08
This toy here is called the Magic 8 Ball,
233
668520
1953
이 장난감의 이름이 매직 에잇 볼이고
11:10
and it's really amazing,
234
670497
1199
멋진 것이라는 것을요.
11:11
because if you have a decision to make,
a yes or no question,
235
671720
2896
왜냐하면 어떠한 결정을 내려야 할 때
예 또는 아니오 식의 문제일때요.
11:14
all you have to do is you shake the ball,
and then you get an answer --
236
674640
3736
이 공을 흔들기만 하면
답을 얻을 수 있습니다.
11:18
"Most Likely" -- right here
in this window in real time.
237
678400
2816
지금 여기서의 실제 답은
"아주 그렇다"이네요.
11:21
I'll have it out later for tech demos.
238
681240
2096
이따가 기술 시현 때 보여드리죠.
11:23
(Laughter)
239
683360
1216
(웃음)
11:24
Now, the thing is, of course --
so I've made some decisions in my life
240
684600
3576
물론 중요한 것은-
제 인생에서 결정들을 종종 내렸는데
11:28
where, in hindsight,
I should have just listened to the ball.
241
688200
2896
뒤늦게 그냥 그 공의 말을
들을걸 하고 깨달은 적이 있습니다.
11:31
But, you know, of course,
if you have the data available,
242
691120
3336
그런데 당연히 데이터가
있는 상태라면
11:34
you want to replace this with something
much more sophisticated,
243
694480
3056
좀 더 지적인 결정을 내리고 싶어지죠.
11:37
like data analysis
to come to a better decision.
244
697560
3616
데이터 분석을 통해 더 나은 결정을
내리는 것 처럼 말이예요.
11:41
But that does not change the basic setup.
245
701200
2616
하지만 그렇더라도 기본 환경은
바뀌지 않아요.
11:43
So the ball may get smarter
and smarter and smarter,
246
703840
3176
공이 더욱 지능적으로 계속
진화할지는 모르지만
11:47
but I believe it's still on us
to make the decisions
247
707040
2816
여전히 결정을 내리는 것은
우리의 몫이 될꺼에요.
11:49
if we want to achieve
something extraordinary,
248
709880
3016
무언가 특별한 일을 이루고 싶다면요.
11:52
on the right end of the curve.
249
712920
1936
즉 곡선의 오른쪽 끝에
도달하고 싶을때요.
11:54
And I find that a very encouraging
message, in fact,
250
714880
4496
저는 사실 이것이 아주 희망적인
메세지라고 생각하는데
11:59
that even in the face
of huge amounts of data,
251
719400
3976
엄청난 양의 데이터에도 불과하고
12:03
it still pays off to make decisions,
252
723400
4096
결정을 내리고
12:07
to be an expert in what you're doing
253
727520
2656
전문가가 되고
12:10
and take risks.
254
730200
2096
위험성을 감수하는 댓가가 주어지니까요.
12:12
Because in the end, it's not data,
255
732320
2776
왜냐하면 결국 데이터가 아니라
12:15
it's risks that will land you
on the right end of the curve.
256
735120
3960
당신이 감수하는 위험이 곡선의
오른쪽 끝으로 데려다 줄테니까요.
12:19
Thank you.
257
739840
1216
감사합니다.
12:21
(Applause)
258
741080
3680
(박수)
New videos
이 웹사이트 정보
이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.