The human insights missing from big data | Tricia Wang

246,282 views ・ 2017-08-02

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: Eunkyung Lee 검토: Jihyeon J. Kim
00:12
In ancient Greece,
0
12705
1545
고대 그리스에서는
00:15
when anyone from slaves to soldiers, poets and politicians,
1
15256
3943
노예부터 군인까지, 시인과 정치인 모두 다
00:19
needed to make a big decision on life's most important questions,
2
19223
4004
인생의 가장 중요한 질문들에 대해 큰 결정을 내려야 했어요.
00:23
like, "Should I get married?"
3
23251
1391
예를 들어, "결혼을 해야 할까?"
00:24
or "Should we embark on this voyage?"
4
24666
1857
"항해를 떠나야 할까?"
00:26
or "Should our army advance into this territory?"
5
26547
2928
"이 지역까지 군대를 확장시켜야 할까?" 같은 질문들이죠.
00:29
they all consulted the oracle.
6
29499
2579
그들은 모두 오라클과 상의했어요.
00:32
So this is how it worked:
7
32840
1440
이것이 그 과정입니다.
00:34
you would bring her a question and you would get on your knees,
8
34304
3112
당신은 그녀에게 질문을 가져와요. 그리고 무릎을 꿇습니다.
00:37
and then she would go into this trance.
9
37440
1871
그러면 그녀는 가수상태에 빠집니다.
00:39
It would take a couple of days,
10
39335
1549
이틀 정도 걸려요.
00:40
and then eventually she would come out of it,
11
40908
2163
그리고 마침내 그녀는 가수상태에서 깨어나고
00:43
giving you her predictions as your answer.
12
43095
2536
당신의 질문에 대한 예언을 합니다.
00:46
From the oracle bones of ancient China
13
46730
2566
고대 중국의 신탁 뼈부터
00:49
to ancient Greece to Mayan calendars,
14
49320
2345
고대 그리스, 마야 달력까지
00:51
people have craved for prophecy
15
51689
2296
사람들은 예언을 갈망해 왔어요.
00:54
in order to find out what's going to happen next.
16
54009
3137
후에 무슨 일이 일어날지 알아내기 위해서 였죠.
00:58
And that's because we all want to make the right decision.
17
58336
3239
이것은 우리 모두가 옳은 선택을 하고 싶어하기 때문입니다.
01:01
We don't want to miss something.
18
61599
1545
우리는 어떤 것도 놓치고 싶어하지 않아요.
01:03
The future is scary,
19
63712
1743
미래는 무서워요.
01:05
so it's much nicer knowing that we can make a decision
20
65479
2717
그래서 결과에 대한 확신을 가지고
01:08
with some assurance of the outcome.
21
68220
1982
결정을 내릴 수 있다면 훨씬 좋겠지요.
01:10
Well, we have a new oracle,
22
70899
1611
우리에겐 새로운 오라클이 있어요.
01:12
and it's name is big data,
23
72534
2145
빅 데이터라고 불리죠.
01:14
or we call it "Watson" or "deep learning" or "neural net."
24
74703
3939
"왓슨" "딥 러닝" 아니면 "뉴럴네트"라고 부르기도 해요.
01:19
And these are the kinds of questions we ask of our oracle now,
25
79160
4012
그리고 우리는 이 오라클에게 이런 질문들을 합니다.
01:23
like, "What's the most efficient way to ship these phones
26
83196
3922
"이 핸드폰들을 중국에서 스웨덴까지 배송하기 위한 가장 효율적인 방법은
01:27
from China to Sweden?"
27
87142
1823
무엇일까?"
01:28
Or, "What are the odds
28
88989
1800
아니면, "내 아이가 유전질환을
01:30
of my child being born with a genetic disorder?"
29
90813
3363
가지고 태어날 확률은 얼마나 될까?"
01:34
Or, "What are the sales volume we can predict for this product?"
30
94772
3244
아니면, "이 상품이 얼마나 많은 매상을 올릴 수 있을까?"
01:39
I have a dog. Her name is Elle, and she hates the rain.
31
99928
4047
저는 강아지 한마리를 키워요. 이름은 엘이구요. 비를 싫어해요.
01:43
And I have tried everything to untrain her.
32
103999
3306
이것을 위해 모든 노력을 해보았어요.
01:47
But because I have failed at this,
33
107329
2771
그러나 저는 그것에 실패했기 때문에
01:50
I also have to consult an oracle, called Dark Sky,
34
110124
3286
산책을 나갈 때마다, 다크 스카이라고 불리우는
01:53
every time before we go on a walk,
35
113434
1635
오라클과 상의해야 합니다.
01:55
for very accurate weather predictions in the next 10 minutes.
36
115093
3577
앞으로 10분 간의 정확한 날씨예보를 얻기 위해서지요.
02:01
She's so sweet.
37
121355
1303
정말 귀여워요.
02:03
So because of all of this, our oracle is a $122 billion industry.
38
123647
5707
이런 점들 때문에,이 오라클은 1220억 달러 산업입니다.
02:09
Now, despite the size of this industry,
39
129826
3376
이런 규모의 산업에도 불구하고
02:13
the returns are surprisingly low.
40
133226
2456
수익은 놀랍게도 적어요.
02:16
Investing in big data is easy,
41
136162
2494
빅 데이터에 투자하는 것은 쉬워요.
02:18
but using it is hard.
42
138680
1933
그러나 이용하는 것은 어렵습니다.
02:21
Over 73 percent of big data projects aren't even profitable,
43
141801
4040
73% 이상의 빅 데이터 프로젝트들이 이윤 조차도 못 남기고 있어요.
02:25
and I have executives coming up to me saying,
44
145865
2431
그리고 경영진들은 제게 이렇게 이야기 하죠.
02:28
"We're experiencing the same thing.
45
148320
1789
"우리도 같은 경험을 하고 있어요.
02:30
We invested in some big data system,
46
150133
1753
빅 데이터 시스템에 투자했는데
02:31
and our employees aren't making better decisions.
47
151910
2968
우리 직원들은 더 나은 결정들을 내리지 못하고 있어요.
02:34
And they're certainly not coming up with more breakthrough ideas."
48
154902
3162
그리고 획기적인 아이디어도 확실히 못 떠올리고 있고요."
02:38
So this is all really interesting to me,
49
158734
3184
제게는 이 모든 것들이 정말 흥미로웠어요.
02:41
because I'm a technology ethnographer.
50
161942
2010
왜냐하면 저는 기술 민족지학자이기 때문입니다.
02:44
I study and I advise companies
51
164450
2564
저는 사람들이 기술을 어떻게 이용하는지에 대한
02:47
on the patterns of how people use technology,
52
167038
2483
패턴을 연구하고 기업들에게 조언합니다.
02:49
and one of my interest areas is data.
53
169545
2678
그리고 저의 관심분야 중 하나가 데이터입니다.
02:52
So why is having more data not helping us make better decisions,
54
172247
5193
그러면 왜 더 많은 데이터가 더 나은 결정에 도움이 되지 않을까요?
02:57
especially for companies who have all these resources
55
177464
2783
특히, 빅 데이터 시스템에 투자할 수 있는
03:00
to invest in these big data systems?
56
180271
1736
모든 자료가 있는 기업들 까지도요.
03:02
Why isn't it getting any easier for them?
57
182031
2398
왜 그들의 결정이 쉬워지지 않는 것일까요?
03:05
So, I've witnessed the struggle firsthand.
58
185810
2634
저는 그 어려움을 직접 목격했습니다.
03:09
In 2009, I started a research position with Nokia.
59
189194
3484
2009년, 저는 노키아에서 연구원으로 일하기 시작했어요.
03:13
And at the time,
60
193052
1158
그리고 그 때
03:14
Nokia was one of the largest cell phone companies in the world,
61
194234
3158
노키아는 세계에서 가장 큰 핸드폰 회사 중 하나였어요.
03:17
dominating emerging markets like China, Mexico and India --
62
197416
3202
중국, 멕시코, 인도 같이 신흥 시장을 장악하고 있었고
03:20
all places where I had done a lot of research
63
200642
2502
저는 그 곳들에서 저임금 사람들이 어떻게
03:23
on how low-income people use technology.
64
203168
2676
기술을 이용하는지에 대한 많은 연구를 해왔어요.
03:25
And I spent a lot of extra time in China
65
205868
2330
그리고 저는 많은 시간을
03:28
getting to know the informal economy.
66
208222
2592
비공식적인 경제에 대해 알기 위해 중국에서 보냈어요.
03:30
So I did things like working as a street vendor
67
210838
2401
그래서 저는 길거리 노점상인이 되어보기도 하고
03:33
selling dumplings to construction workers.
68
213263
2574
건설 노동자들에게 만두를 팔아보기도 했어요.
03:35
Or I did fieldwork,
69
215861
1358
아니면 현장조사를 했지요.
03:37
spending nights and days in internet cafés,
70
217243
2958
피씨방에서 하루종일
03:40
hanging out with Chinese youth, so I could understand
71
220225
2546
중국 청년들과 지내며
03:42
how they were using games and mobile phones
72
222795
2284
그들이 어떻게 게임과 핸드폰을 사용하는지
03:45
and using it between moving from the rural areas to the cities.
73
225103
3370
시골과 도시간이 어떻게 사용하는지도 이해할 수 있었습니다.
03:50
Through all of this qualitative evidence that I was gathering,
74
230155
3927
이렇게 제가 수집한 질적인 증거들을 통해서
03:54
I was starting to see so clearly
75
234106
2824
중국의 저임금 사람들 사이에서 큰 변화가 생겨날 것임이
03:56
that a big change was about to happen among low-income Chinese people.
76
236954
4472
아주 명확하게 보이기 시작했어요.
04:02
Even though they were surrounded by advertisements for luxury products
77
242840
4367
비록 그들은 고급 상품 광고물에 둘러싸여 있었지만
04:07
like fancy toilets -- who wouldn't want one? --
78
247231
3495
고급 화장지 같은 상품이요. 누가 싫어하나요?
04:10
and apartments and cars,
79
250750
2890
그리고 아파트, 차
04:13
through my conversations with them,
80
253664
1820
그들와 함께 한 대화를 통해서
04:15
I found out that the ads the actually enticed them the most
81
255508
3841
저는 이러한 광고들 중에서 실제로 가장 많이 유혹한 상품은
04:19
were the ones for iPhones,
82
259373
1996
첨단 기술의 삶을 약속하는
04:21
promising them this entry into this high-tech life.
83
261393
3052
아이폰이라는 것을 알게 되었어요.
04:25
And even when I was living with them in urban slums like this one,
84
265289
3163
그리고 이런 도시 빈민가에서 그들과 함께 살고있을 때 조차도
04:28
I saw people investing over half of their monthly income
85
268476
2996
그들의 월급의 반 이상을 핸드폰 구매에 투자한다는 것도
04:31
into buying a phone,
86
271496
1623
목격했습니다.
04:33
and increasingly, they were "shanzhai,"
87
273143
2302
그리고 이것들은 "산자이" 인데요.
04:35
which are affordable knock-offs of iPhones and other brands.
88
275469
3388
아이폰과 다른 브랜드들의 값 싼 모조품입니다.
04:40
They're very usable.
89
280123
1625
사용가능 합니다.
04:42
Does the job.
90
282710
1322
핸드폰의 기능을 합니다.
04:44
And after years of living with migrants and working with them
91
284570
5789
그리고 몇년 동안 이민자들과 함께 살고, 일하고
04:50
and just really doing everything that they were doing,
92
290383
3434
그들이 하는 모든 것을 함께 하면서
04:53
I started piecing all these data points together --
93
293841
3597
저는 조각 조각의 데이터를 하나로 모으기 시작했어요.
04:57
from the things that seem random, like me selling dumplings,
94
297462
3123
제가 만두를 팔게 되는 랜덤적인 일부터
05:00
to the things that were more obvious,
95
300609
1804
그들이 핸드폰 요금으로 얼마나 지출하는지와 같은
05:02
like tracking how much they were spending on their cell phone bills.
96
302437
3232
명확한 일까지요.
05:05
And I was able to create this much more holistic picture
97
305693
2639
저는 일어나고 있는 일의 전체적인 그림을
05:08
of what was happening.
98
308356
1156
만들어 낼 수 있었습니다.
05:09
And that's when I started to realize
99
309536
1722
그리고 이때 저는 깨달았죠.
05:11
that even the poorest in China would want a smartphone,
100
311282
3509
중국의 제일 가난한 사람조차도 스마트 폰을 원한다는 것을요.
05:14
and that they would do almost anything to get their hands on one.
101
314815
4985
그들은 스마트 폰을 손에 넣기 위해 무슨 일이든 할 것임을요.
05:20
You have to keep in mind,
102
320893
2404
여러분들이 명심하셔야 할 것이
05:23
iPhones had just come out, it was 2009,
103
323321
3084
아이폰이 막 출시가 되었을 때가 2009년이었습니다.
05:26
so this was, like, eight years ago,
104
326429
1885
그러니까 한 8년 전의 일이네요.
05:28
and Androids had just started looking like iPhones.
105
328338
2437
안드로이드가 막 아이폰과 같은 형태로 출시되기 시작했습니다.
05:30
And a lot of very smart and realistic people said,
106
330799
2507
많은 영리하고 현실적인 사람들이 말했어요.
05:33
"Those smartphones -- that's just a fad.
107
333330
2207
"이런 스마트 폰들은 그냥 일시적인 유행일 뿐입니다.
05:36
Who wants to carry around these heavy things
108
336063
2996
이렇게 무거운 것을 누가 들고 다니고 싶어할까요?
05:39
where batteries drain quickly and they break every time you drop them?"
109
339083
3487
배터리도 금방 닳고, 떨어뜨리면 부서지는데요."
05:44
But I had a lot of data,
110
344613
1201
그러나 저에게는 많은 데이터가 있었습니다.
05:45
and I was very confident about my insights,
111
345838
2260
그리고 저는 통찰력에 굉장히 자신감이 있었습니다.
05:48
so I was very excited to share them with Nokia.
112
348122
2829
그래서 이 데이터를 노키아와 공유하는 것이 정말 흥분되는 일이었죠.
05:53
But Nokia was not convinced,
113
353152
2517
그러나 노키아는 확신하지 않았어요.
05:55
because it wasn't big data.
114
355693
2335
왜냐하면 이것은 빅 데이터가 아니였기 때문이지요.
05:58
They said, "We have millions of data points,
115
358842
2404
그들이 말하길, "우리에게는 수백만개의 데이터가 있는데
06:01
and we don't see any indicators of anyone wanting to buy a smartphone,
116
361270
4247
사람들이 스마트 폰을 원한다는 지표는 어디서든 찾아 볼 수가 없습니다.
06:05
and your data set of 100, as diverse as it is, is too weak
117
365541
4388
그리고 당신의 100개의 데이터 셋이 다양하긴 하지만, 우리가 받아들이기엔
06:09
for us to even take seriously."
118
369953
1714
너무 약합니다."
06:12
And I said, "Nokia, you're right.
119
372728
1605
저는 말했죠. "노키아, 당신 말이 맞아요.
06:14
Of course you wouldn't see this,
120
374357
1560
물론 당신은 이것을 볼 수 없겠죠.
06:15
because you're sending out surveys assuming that people don't know
121
375941
3371
왜냐하면 당신은 사람들이 스마트 폰에 대해 모른다는 가정하에
06:19
what a smartphone is,
122
379336
1159
설문조사를 하고 있으니까요.
06:20
so of course you're not going to get any data back
123
380519
2366
그러니까 당연히 당신들은 사람들이 2년 내로 스마트 폰을
06:22
about people wanting to buy a smartphone in two years.
124
382909
2572
사고 싶어한다는 데이터를 얻을 수가 없는 거예요.
06:25
Your surveys, your methods have been designed
125
385505
2118
당신의 설문조사와 방법은
06:27
to optimize an existing business model,
126
387647
2022
현재의 비지니스 모델을 확장시키기 위해 디자인되어 있어요.
06:29
and I'm looking at these emergent human dynamics
127
389693
2608
그리고 저는 아직 일어나지 않은
06:32
that haven't happened yet.
128
392325
1354
새로운 인간 역학을 보고 있고요.
06:33
We're looking outside of market dynamics
129
393703
2438
저희는 시장을 앞서나가기 위해
06:36
so that we can get ahead of it."
130
396165
1631
시장 밖을 내다보고 있습니다."
06:39
Well, you know what happened to Nokia?
131
399193
2244
여러분은 노키아가 어떻게 되었는지 잘 아시죠?
06:41
Their business fell off a cliff.
132
401461
2365
그들의 사업은 절벽으로 떨어졌습니다.
06:44
This -- this is the cost of missing something.
133
404611
3727
이것이 무언가를 놓친 것의 대가입니다.
06:48
It was unfathomable.
134
408983
1999
불가해한 일입니다.
06:51
But Nokia's not alone.
135
411823
1651
그러나 노키아 뿐만이 아닙니다.
06:54
I see organizations throwing out data all the time
136
414078
2581
기관들은 항상 데이터를 버려요.
06:56
because it didn't come from a quant model
137
416683
2561
왜냐하면 그 데이터들은 정량적인 모델로 수집되지 않았기 때문이지요.
06:59
or it doesn't fit in one.
138
419268
1768
아니면 그 모델에 들어맞지 않든가요.
07:02
But it's not big data's fault.
139
422039
2048
그러나 이것은 빅 데이터의 잘못이 아니예요.
07:04
It's the way we use big data; it's our responsibility.
140
424762
3907
빅 데이터 사용 방법이 문제입니다. 우리의 책임이지요.
07:09
Big data's reputation for success
141
429550
1911
빅 데이터의 성공은
07:11
comes from quantifying very specific environments,
142
431485
3759
아주 세분화된 영역을 수량화 시키는 데에서 옵니다.
07:15
like electricity power grids or delivery logistics or genetic code,
143
435268
4913
예를 들어 전력망이나, 배달물류, 유전암호 같이
07:20
when we're quantifying in systems that are more or less contained.
144
440205
4318
변화가 별로없는 체계를 수량화 시킬 때이지요.
07:24
But not all systems are as neatly contained.
145
444547
2969
그러나 모든 체계가 안정적이지는 않아요.
07:27
When you're quantifying and systems are more dynamic,
146
447540
3258
더욱 유동적인 체계를 수량화시킬 때
07:30
especially systems that involve human beings,
147
450822
3799
특히 인간과 관련한 체계를 수량화시킬 때
07:34
forces are complex and unpredictable,
148
454645
2426
값은 복잡하고, 예측하기 어렵죠.
07:37
and these are things that we don't know how to model so well.
149
457095
3486
그리고 이것들이 우리가 어떻게 모델화 시켜야 할지 잘 모르는 부분입니다.
07:41
Once you predict something about human behavior,
150
461024
2813
인간 행동에 대해 예측을 하면
07:43
new factors emerge,
151
463861
1855
다른 요소들이 생겨나요.
07:45
because conditions are constantly changing.
152
465740
2365
왜냐하면 상황이 계속 변화하기 때문이죠.
07:48
That's why it's a never-ending cycle.
153
468129
1803
그래서 이것은 끝나지 않는 순환이에요.
07:49
You think you know something,
154
469956
1464
당신은 무언가를 알고 있다고 생각합니다.
07:51
and then something unknown enters the picture.
155
471444
2242
그리고, 알려지지 않은 무언가가 등장합니다.
07:53
And that's why just relying on big data alone
156
473710
3322
그렇기 때문에 빅 데이터에만 의존하는 것은
07:57
increases the chance that we'll miss something,
157
477056
2849
우리가 모든 것을 다 알고 있다는 망상에 빠져있을 동안
07:59
while giving us this illusion that we already know everything.
158
479929
3777
무언가를 놓칠 확률을 높여줍니다.
08:04
And what makes it really hard to see this paradox
159
484226
3856
이런 역설을 보기 힘들게 하고
08:08
and even wrap our brains around it
160
488106
2659
이해하기 조차도 어렵게 하는 이유는
08:10
is that we have this thing that I call the quantification bias,
161
490789
3691
우리는 수량화의 편견이라고 불리우는
08:14
which is the unconscious belief of valuing the measurable
162
494504
3922
수량화 할 수 있는 것이 수량화 할 수 없는 것보다
더 귀중하다는 무의식적인 믿음을 가지고 있기 때문이에요.
08:18
over the immeasurable.
163
498450
1594
08:21
And we often experience this at our work.
164
501042
3284
그리고 이것을 우리는 종종 일터에서 경험합니다.
08:24
Maybe we work alongside colleagues who are like this,
165
504350
2650
우리는 이런 믿음을 가진 동료와 일하고 있을 수도 있어요.
08:27
or even our whole entire company may be like this,
166
507024
2428
아니면 회사 전체가 이런 믿음을 가지고 있어서
08:29
where people become so fixated on that number,
167
509476
2546
사람들이 숫자에 집착하게 되고
08:32
that they can't see anything outside of it,
168
512046
2067
심지어 증거물들을 코 앞에 제시해 주어도
08:34
even when you present them evidence right in front of their face.
169
514137
3948
숫자 이외의 것은 볼 수 없게 되죠.
08:38
And this is a very appealing message,
170
518943
3371
이것은 정말 흥미로운 메세지입니다.
08:42
because there's nothing wrong with quantifying;
171
522338
2343
왜냐하면 수량화하는 것이 옳지 않은 것은 아니예요.
08:44
it's actually very satisfying.
172
524705
1430
사실 굉장히 뿌듯하죠.
08:46
I get a great sense of comfort from looking at an Excel spreadsheet,
173
526159
4362
저도 엑셀 스프레드 시트를 보면, 심지어 아주 간단한 것들만 보아도
08:50
even very simple ones.
174
530545
1401
굉장히 뿌듯해요.
08:51
(Laughter)
175
531970
1014
(웃음)
08:53
It's just kind of like,
176
533008
1152
이런 종류의 뿌듯함이죠.
08:54
"Yes! The formula worked. It's all OK. Everything is under control."
177
534184
3504
"와! 공식이 잘 세워졌다. 다 괜찮아. 모든 것이 잘 관리되고 있어."
08:58
But the problem is
178
538612
2390
그러나 문제는
09:01
that quantifying is addictive.
179
541026
2661
수량화하는 것은 중독성이 있어요.
09:03
And when we forget that
180
543711
1382
그리고 우리가 그것을 잊어버리고
09:05
and when we don't have something to kind of keep that in check,
181
545117
3038
계속 체크할 거리가 없어지면
09:08
it's very easy to just throw out data
182
548179
2118
그 데이터들을 그냥 버려지기 쉬워요.
09:10
because it can't be expressed as a numerical value.
183
550321
2718
왜냐하면 숫자로 표현될 수가 없으니까요.
09:13
It's very easy just to slip into silver-bullet thinking,
184
553063
2921
마치 아주 간단한 해결책이 존재했던것 처럼
09:16
as if some simple solution existed.
185
556008
2579
이것이 묘책이라고 생각하기 쉬워요.
09:19
Because this is a great moment of danger for any organization,
186
559420
4062
왜냐하면 이것이 기관에게는 아주 위험한 순간이기 때문이고
09:23
because oftentimes, the future we need to predict --
187
563506
2634
종종 우리가 예언해야 할 미래는
09:26
it isn't in that haystack,
188
566164
2166
건초더미에 있지 않기 때문이죠.
09:28
but it's that tornado that's bearing down on us
189
568354
2538
이것은 우리를 향해 외양간 밖에서 돌진하는
09:30
outside of the barn.
190
570916
1488
토네이도입니다.
09:34
There is no greater risk
191
574780
2326
알려지지 않은 것들이 있음을 깨닫지 못하는 것보다
09:37
than being blind to the unknown.
192
577130
1666
더 큰 위험은 없어요.
09:38
It can cause you to make the wrong decisions.
193
578820
2149
잘못된 결정을 하게 만들죠.
09:40
It can cause you to miss something big.
194
580993
1974
아주 큰 무언가를 놓치게 만들죠.
09:43
But we don't have to go down this path.
195
583554
3101
그러나 우리가 똑같이 하지 않아도 돼요.
09:47
It turns out that the oracle of ancient Greece
196
587273
3195
고대 그리스의 오라클에게
09:50
holds the secret key that shows us the path forward.
197
590492
3966
미래를 보여주는 비밀 열쇠가 있습니다.
09:55
Now, recent geological research has shown
198
595474
2595
최근 지리연구에 의하면
09:58
that the Temple of Apollo, where the most famous oracle sat,
199
598093
3564
가장 유명한 오라클이 있는 아폴로 신전이
10:01
was actually built over two earthquake faults.
200
601681
3084
사실 두번의 지진단층을 겪으며 세워졌다고 합니다.
10:04
And these faults would release these petrochemical fumes
201
604789
2886
그리고 이런 단층은 지각 밑에서 부터
10:07
from underneath the Earth's crust,
202
607699
1685
석유화학 가스를 방출합니다.
10:09
and the oracle literally sat right above these faults,
203
609408
3866
그리고 오라클은 말그대로 이 단층 바로 위에 모셔져 있었어요.
10:13
inhaling enormous amounts of ethylene gas, these fissures.
204
613298
3588
아주 많은 양의 에틸렌 가스를 흡입하면서요.
10:16
(Laughter)
205
616910
1008
(웃음)
10:17
It's true.
206
617942
1173
사실이예요.
10:19
(Laughter)
207
619139
1017
(웃음)
10:20
It's all true, and that's what made her babble and hallucinate
208
620180
3509
다 사실이에요. 그래서 그녀는 횡설수설하며, 환각을 느낄 수 있었고
10:23
and go into this trance-like state.
209
623713
1724
가수상태와 비슷한 상태에 빠질 수 있었습니다.
10:25
She was high as a kite!
210
625461
1770
그녀는 완전히 취해있었어요!
10:27
(Laughter)
211
627255
4461
(웃음)
10:31
So how did anyone --
212
631740
2779
그려면 어떻게
10:34
How did anyone get any useful advice out of her
213
634543
3030
어떻게 이런 상태에서 유용한 조언을
10:37
in this state?
214
637597
1190
받을 수가 있었을까요?
10:39
Well, you see those people surrounding the oracle?
215
639317
2381
오라클 주변을 둘러싼 이 사람들 보이시나요?
10:41
You see those people holding her up,
216
641722
1879
이 사람들이 그녀를 붙잡고 있어요.
10:43
because she's, like, a little woozy?
217
643625
1717
그녀의 머리가 조금 띵해서 일까요?
10:45
And you see that guy on your left-hand side
218
645366
2308
그리고 왼쪽의 남자가 보이죠.
10:47
holding the orange notebook?
219
647698
1598
오렌지 색의 공책을 들고 있어요.
10:49
Well, those were the temple guides,
220
649925
1730
이것은 신전 가이드 입니다.
10:51
and they worked hand in hand with the oracle.
221
651679
3016
그리고 이들은 오라클과 손 잡고 일했어요.
10:55
When inquisitors would come and get on their knees,
222
655904
2516
질문자들이 와서 무릎을 꿇으면
10:58
that's when the temple guides would get to work,
223
658444
2340
그때가 신전 가이드가 필요한 떄 입니다.
11:00
because after they asked her questions,
224
660808
1864
왜냐하면 그녀에게 질문을 한 후
11:02
they would observe their emotional state,
225
662696
2001
그들은 이 질문자의 감정상태를 관찰합니다.
11:04
and then they would ask them follow-up questions,
226
664721
2324
그리고 이런 후속 질문을 합니다.
"왜 이 예언을 알고싶어 하십니까? 당신은 누구십니까?
11:07
like, "Why do you want to know this prophecy? Who are you?
227
667069
2834
11:09
What are you going to do with this information?"
228
669927
2264
이 정보로 무엇을 할 것입니까?"
11:12
And then the temple guides would take this more ethnographic,
229
672215
3182
그리고 신전 가이드는 이런 민족지적인
11:15
this more qualitative information,
230
675421
2156
더 질적인 정보를 담게 되고
11:17
and interpret the oracle's babblings.
231
677601
2075
오라클의 횡설수설한 대답을 해석해 줍니다.
11:21
So the oracle didn't stand alone,
232
681248
2292
그래서 오라클은 혼자 하지 않았어요.
11:23
and neither should our big data systems.
233
683564
2148
그리고 우리의 빅 데이터 시스템도 홀로 있으면 안돼요.
11:26
Now to be clear,
234
686450
1161
분명하게 이야기 하자면
11:27
I'm not saying that big data systems are huffing ethylene gas,
235
687635
3459
저는 빅 데이터 시스템이 에틸렌 가스를 흡입하고 있다고 말하는 것이 아닙니다.
11:31
or that they're even giving invalid predictions.
236
691118
2353
무효한 예견을 한다고 말하는 것도 아니고요.
11:33
The total opposite.
237
693495
1161
아주 반대예요.
11:34
But what I am saying
238
694680
2068
제가 이야기 하고자 하는 것은
11:36
is that in the same way that the oracle needed her temple guides,
239
696772
3832
오라클이 신전 가이드가 필요했던 것과 같이
11:40
our big data systems need them, too.
240
700628
2288
우리의 빅 데이터 시스템도 그런 가이드가 필요하다는 것입니다.
11:42
They need people like ethnographers and user researchers
241
702940
4109
빅 데이터 시스템은 민족지학자나 이용자 연구원과 같이
11:47
who can gather what I call thick data.
242
707073
2506
심층적 데이터를 수집할 수 있는 사람이 필요합니다.
11:50
This is precious data from humans,
243
710322
2991
이것은 사람에게서 나오는 소중한 데이터 인데요.
11:53
like stories, emotions and interactions that cannot be quantified.
244
713337
4102
이야기, 감정 그리고 의사소통과 같이 수량화 될 수 없는 것들이죠.
11:57
It's the kind of data that I collected for Nokia
245
717463
2322
그것이 제가 노키아를 위해 수집했던 데이터입니다.
11:59
that comes in in the form of a very small sample size,
246
719809
2669
아주 작은 표본에서 수집 되었지만
12:02
but delivers incredible depth of meaning.
247
722502
2955
엄청난 깊이의 의미를 전달하죠.
12:05
And what makes it so thick and meaty
248
725481
3680
그리고 이 데이터를 아주 심층적이고 알차게 만드는 것은
12:10
is the experience of understanding the human narrative.
249
730265
4029
인간 이야기를 이해하는 경험입니다.
12:14
And that's what helps to see what's missing in our models.
250
734318
3639
그것이 우리 모델에서 빠진 부분을 볼 수 있게 도와줍니다.
12:18
Thick data grounds our business questions in human questions,
251
738671
4045
심층적 데이터는 사업적인 질문에게 인간적인 질문을 부여합니다.
12:22
and that's why integrating big and thick data
252
742740
3562
그래서 빅 테이터와 심층적 데이터의 통합이
12:26
forms a more complete picture.
253
746326
1689
완벽한 그림을 그려냅니다.
12:28
Big data is able to offer insights at scale
254
748592
2881
빅 데이터는 통찰력을 척도로 제공할 수 있으며
12:31
and leverage the best of machine intelligence,
255
751497
2647
기계 지능을 최대로 이용할 수 있습니다.
12:34
whereas thick data can help us rescue the context loss
256
754168
3572
반면 심층적 데이터는 빅 데이터를 사용할 수 있게 함으로 생기는
12:37
that comes from making big data usable,
257
757764
2098
문맥적 손실을 줄이는데 도움을 줘서
12:39
and leverage the best of human intelligence.
258
759886
2181
인간 지능을 최대로 이용할 수 있게 해줍니다.
12:42
And when you actually integrate the two, that's when things get really fun,
259
762091
3552
실제로 이 두 데이터를 통합할 때 굉장히 흥미로워집니다.
12:45
because then you're no longer just working with data
260
765667
2436
왜냐하면 그때는 수집한 데이터만 가지고
12:48
you've already collected.
261
768127
1196
일을 하는 것이 아니고
12:49
You get to also work with data that hasn't been collected.
262
769347
2737
수집하지 않은 데이터까지 함께 가지고 일을 하게 되는 것이기 때문입니다.
12:52
You get to ask questions about why:
263
772108
1719
'왜' 라는 질문을 하게 되지요.
12:53
Why is this happening?
264
773851
1317
왜 이것이 일어나는 것일까?
12:55
Now, when Netflix did this,
265
775598
1379
넷플릭스가 이것을 했을 때
12:57
they unlocked a whole new way to transform their business.
266
777001
3035
그들은 그들의 사업을 변화시킬 새로운 길을 열었어요.
13:01
Netflix is known for their really great recommendation algorithm,
267
781226
3956
넷플릭스는 아주 훌륭한 추천 알고리즘이 있는 것으로 알려져 있는데요.
13:05
and they had this $1 million prize for anyone who could improve it.
268
785206
4797
그들은 이 알고리즘을 향상시키는데에 백만 달러의 상금을 걸었습니다.
13:10
And there were winners.
269
790027
1314
그리고 우승자가 있었습니다.
13:12
But Netflix discovered the improvements were only incremental.
270
792075
4323
그러나 넥플릭스는 이런 향상이 오직 양적인 증가임을 발견했고
13:17
So to really find out what was going on,
271
797224
1964
정말 무엇이 일어나고 있는지 알아내기 위해
13:19
they hired an ethnographer, Grant McCracken,
272
799212
3741
민족지학자인 그랜트 맥크래켄을 고용하여
13:22
to gather thick data insights.
273
802977
1546
심층적 데이터를 수집했어요.
13:24
And what he discovered was something that they hadn't seen initially
274
804547
3924
그리고 그는 그들이 수량화된 데이터에서 초기에 보지 못했던 점을
13:28
in the quantitative data.
275
808495
1355
발견하게 되었습니다.
13:30
He discovered that people loved to binge-watch.
276
810892
2728
그는 사람들이 몰아보기를 좋아한다는 것을 발견했어요.
13:33
In fact, people didn't even feel guilty about it.
277
813644
2353
사실, 사람들은 몰아보는 것에 죄책감을 느끼지도 않아요.
13:36
They enjoyed it.
278
816021
1255
그것을 즐깁니다.
13:37
(Laughter)
279
817300
1026
(웃음)
13:38
So Netflix was like, "Oh. This is a new insight."
280
818350
2356
그래서 넷플릭스는 "오, 이것은 새로운 시각이다."
13:40
So they went to their data science team,
281
820730
1938
그래서 그들은 그들의 데이터 과학 팀에게 가서
13:42
and they were able to scale this big data insight
282
822692
2318
그들의 수량화된 데이터와 함께
13:45
in with their quantitative data.
283
825034
2587
빅 데이터를 측정 할 수 있었어요.
13:47
And once they verified it and validated it,
284
827645
3170
확인하고, 입증한 후에
13:50
Netflix decided to do something very simple but impactful.
285
830839
4761
넷플릭스는 아주 단순하면서도 영향력 있는 것을 하기로 결정했어요.
13:56
They said, instead of offering the same show from different genres
286
836654
6492
그들이 말하길, 다른 장르의 같은 쇼나
14:03
or more of the different shows from similar users,
287
843170
3888
비슷한 이용자에서의 다른 쇼들을 제공하는 것 대신에
14:07
we'll just offer more of the same show.
288
847082
2554
우리는 그냥 같은 쇼를 계속 제공할 것입니다.
14:09
We'll make it easier for you to binge-watch.
289
849660
2105
우리는 당신이 더 쉽게 몰아보게 할 것입니다.
14:11
And they didn't stop there.
290
851789
1486
그리고 그들은 거기서 멈추지 않았어요.
14:13
They did all these things
291
853299
1474
그들은 모든 시청자들의 경험을 다시 디자인하기 위해,
14:14
to redesign their entire viewer experience,
292
854797
2959
몰아보기를 정말로 장려하기 위해
14:17
to really encourage binge-watching.
293
857780
1758
이 모든 것들을 하였습니다.
14:20
It's why people and friends disappear for whole weekends at a time,
294
860050
3241
이것이 사람들과 친구들이 주말마다 가끔씩 사라지는 이유입니다.
14:23
catching up on shows like "Master of None."
295
863315
2343
"Master of None"과 같은 쇼를 몰아보기 때문이죠.
14:25
By integrating big data and thick data, they not only improved their business,
296
865682
4173
빅 데이터와 심층적 데이터를 통합함으로써, 사업을 개선시켰을 뿐만아니라
14:29
but they transformed how we consume media.
297
869879
2812
우리가 어떻게 미디어를 받아들이는지를 변화시켰어요.
14:32
And now their stocks are projected to double in the next few years.
298
872715
4552
지금 그 주식은 앞으로 몇년 안에 두 배가 뛸 것으로 예상하고 있어요.
14:38
But this isn't just about watching more videos
299
878100
3830
그러나 이것은 더 많은 비디오를 시청하고
14:41
or selling more smartphones.
300
881954
1620
더 많은 스마트 폰을 파는 것에 국한된 것이 아닙니다.
14:43
For some, integrating thick data insights into the algorithm
301
883963
4050
심층적 데이터를 알고리즘에 통합하는 것이
14:48
could mean life or death,
302
888037
2263
몇몇의 사람들에게는 삶이나 죽음을 의미할 수도 있어요.
14:50
especially for the marginalized.
303
890324
2146
특히 소외된 사람들에게 말이죠.
14:53
All around the country, police departments are using big data
304
893558
3434
모든 나라의 경찰서에서는 범죄예측을 위해
14:57
for predictive policing,
305
897016
1963
빅 데이터를 사용합니다.
14:59
to set bond amounts and sentencing recommendations
306
899003
3084
보석금과 판결 권고를
15:02
in ways that reinforce existing biases.
307
902111
3147
현존하는 편향을 보강하는 방향으로 설정합니다.
15:06
NSA's Skynet machine learning algorithm
308
906116
2423
NSA의 스카이넷 머신 러닝 알고리즘은
15:08
has possibly aided in the deaths of thousands of civilians in Pakistan
309
908563
5444
휴대폰 메타데이터를 잘못 읽어서
수천 명의 파키스탄 시민들을 죽게 했습니다
15:14
from misreading cellular device metadata.
310
914031
2721
15:18
As all of our lives become more automated,
311
918951
3403
우리 모든 삶이 자동차부터 의료보험, 직장까지
15:22
from automobiles to health insurance or to employment,
312
922378
3080
더욱 자동화가 되어가면서
15:25
it is likely that all of us
313
925482
2350
우리 모두
15:27
will be impacted by the quantification bias.
314
927856
2989
수량화의 편견으로부터 영향을 받게 될 것입니다.
15:32
Now, the good news is that we've come a long way
315
932792
2621
좋은 소식은 우리는 에탈렌 가스흡입으로 예언을 하는 것에서 부터
15:35
from huffing ethylene gas to make predictions.
316
935437
2450
먼 길을 왔습니다.
15:37
We have better tools, so let's just use them better.
317
937911
3070
우리에겐 더 좋은 도구들이 있어요. 그러니까 더 좋게 이용합시다.
15:41
Let's integrate the big data with the thick data.
318
941005
2323
빅 데이터를 심층적 데이터와 통합합시다.
15:43
Let's bring our temple guides with the oracles,
319
943352
2261
오라클과 함께 있던 신전 가이드를 가져옵시다.
15:45
and whether this work happens in companies or nonprofits
320
945637
3376
그리고 이런 일이 일어나는 곳이 기업이든, 비영리 기관이든,
15:49
or government or even in the software,
321
949037
2469
정부이든, 심지어 소프트웨어이든지
15:51
all of it matters,
322
951530
1792
모두 중요합니다.
15:53
because that means we're collectively committed
323
953346
3023
왜냐하면 이것은 우리가 다함께
15:56
to making better data,
324
956393
2191
더 나은 데이터
15:58
better algorithms, better outputs
325
958608
1836
더 나은 알고리즘, 더 나은 결과와
16:00
and better decisions.
326
960468
1643
더 나은 결정을 내리는 것에 전념하고 있음을 의미하기 때문이죠.
16:02
This is how we'll avoid missing that something.
327
962135
3558
이렇게 하면 중요한 것을 놓치지 않게 될 겁니다.
16:07
(Applause)
328
967042
3948
(박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7