아래 영문자막을 더블클릭하시면 영상이 재생됩니다.
번역: Jina Bae
검토: Jeong-Lan Kinser
00:13
Technology has brought us so much:
0
13354
3135
기술은 우리에게
많은 것을 가져다 주었습니다.
00:16
the moon landing, the Internet,
1
16489
2019
그 중엔 달 착륙, 인터넷
00:18
the ability to sequence the human genome.
2
18508
2625
인간 게놈의 배열을
밝힐 수 있는 능력 등이 있죠.
00:21
But it also taps into a lot of our deepest fears,
3
21133
3724
또한 이것은 우리의
깊은 두려움속으로 다가가게 되었죠.
00:24
and about 30 years ago,
4
24857
1856
약 30 년 전,
00:26
the culture critic Neil Postman wrote a book
5
26713
2553
문화 평론가인 네일 포스만은
"죽도록 즐기기"라는 책을 썼습니다.
00:29
called "Amusing Ourselves to Death,"
6
29266
2115
00:31
which lays this out really brilliantly.
7
31381
2759
여기 데이터 시대에 대한 현상을
정말 잘 드러내고 있습니다.
00:34
And here's what he said,
8
34140
1650
그는 조지 오엘과 올더스 헉슬리의
00:35
comparing the dystopian visions
9
35790
2263
반이상향적 시각을 비교하며
한 말이 있는데,
00:38
of George Orwell and Aldous Huxley.
10
38053
3573
00:41
He said, Orwell feared we would become
11
41626
3126
그가 말하길,
조지 오엘은 우리가 억압된
문명이 되는 것을 두려워했고,
00:44
a captive culture.
12
44752
2248
00:47
Huxley feared we would become a trivial culture.
13
47000
3752
헉슬리는 우리가 하찮은 문명이
되는것을 두려워 했다고 했죠.
00:50
Orwell feared the truth would be
14
50752
2145
오엘은 진실이 우리로 부터
00:52
concealed from us,
15
52897
1923
숨겨지는 것을 두려워했고,
00:54
and Huxley feared we would be drowned
16
54820
2190
헉슬리는 우리가 무관성의 바다에서
00:57
in a sea of irrelevance.
17
57010
2693
익사하게 될 것을
두려워했다고 말했습니다.
00:59
In a nutshell, it's a choice between
18
59703
2170
간단히 말해서, 이것은 당신이
01:01
Big Brother watching you
19
61873
2600
독재자에게 감시를 당하느냐,
01:04
and you watching Big Brother.
20
64473
2496
아니면 당신이 독재자를
감시하느냐의 선택이라는 거죠.
01:06
(Laughter)
21
66969
1931
(웃음)
01:08
But it doesn't have to be this way.
22
68900
1734
하지만 꼭 이런
방향일 필요는 없어요.
01:10
We are not passive consumers
of data and technology.
23
70634
3336
우리는 데이터와 기술의
수동적 소비자가 아니니까요.
01:13
We shape the role it plays in our lives
24
73970
2403
우리가 그것이 우리의 삶에서
영향을 미치는 역할과
01:16
and the way we make meaning from it,
25
76373
2130
우리가 그 부여하는
의미의 방식을 형성시킵니다.
01:18
but to do that,
26
78503
1603
하지만 그렇게 하려면,
01:20
we have to pay as much attention to how we think
27
80106
3513
우리가 그것으 코드를 쓸 때만큼
우리가 생각하는 방법에 대해
주의를 기울여야 합니다.
01:23
as how we code.
28
83619
2030
01:25
We have to ask questions, and hard questions,
29
85649
3098
우리는 계속해서 질문을
던져야합니다. 어려운 질문들을요.
01:28
to move past counting things
30
88747
1869
그 데이터의 숫자를
계산하는 단계에서 나아가
01:30
to understanding them.
31
90616
2602
그것들을 이해하기 위해서 말이죠.
01:33
We're constantly bombarded with stories
32
93218
2446
세계에 얼마나 많은 양의
데이터가 있는지에 대해
01:35
about how much data there is in the world,
33
95664
2476
끊임없이 쏟아지는 이야기들로
둘러 쌓여있습니다.
01:38
but when it comes to big data
34
98140
1580
그러나 빅 데이터와,
01:39
and the challenges of interpreting it,
35
99720
2596
그것을 해석하는 난관의 경우에는,
규모는 전부가 아닙니다.
01:42
size isn't everything.
36
102316
2088
01:44
There's also the speed at which it moves,
37
104404
2903
거기엔 또한 데이터가 움직이는
속도가 있고
01:47
and the many varieties of data types,
38
107307
1696
데이터들 종류의
다양성도 문제가 되는 것이죠.
01:49
and here are just a few examples:
39
109003
2498
여기 그 예가 몇개 있습니다.
01:51
images,
40
111501
2198
이미지,
01:53
text,
41
113699
4007
문자,
01:57
video,
42
117706
2095
영상,
01:59
audio.
43
119801
1830
음성등이 그것들이죠.
02:01
And what unites this disparate types of data
44
121631
3042
이러한 이질적인 종류의 데이터들을
통합시키는 것은
02:04
is that they're created by people
45
124673
2221
그것들이 사람들에 의해 창조되었고
02:06
and they require context.
46
126894
2775
그것들에는 맥락이
필수적으로 필요하다는 것이죠.
02:09
Now, there's a group of data scientists
47
129669
2445
자, 일리노이주-시카고 대학 출신의
02:12
out of the University of Illinois-Chicago,
48
132114
2305
데이터 과학자 집단이 있는데,
02:14
and they're called the Health Media Collaboratory,
49
134419
2554
그 그룹은, "건강 매체 공동 연구단"
이라고 불립니다.
02:16
and they've been working with
the Centers for Disease Control
50
136973
2587
그들은 질병 억제 센터 (Centers for
Disease Control)와 함께 일하며
02:19
to better understand
51
139560
1505
사람들이 금연에 대해
이야기하는 방법과
02:21
how people talk about quitting smoking,
52
141065
2848
전자담배에 대해 이야기 하는 방법,
02:23
how they talk about electronic cigarettes,
53
143913
2680
그리고 그들이 금연하는 것을 돕기 위해
집단적으로 할 수 있는것들에 대해
02:26
and what they can do collectively
54
146593
1985
02:28
to help them quit.
55
148578
1984
더 잘 이해하기 위해
함께 연구해오고 있습니다.
02:30
The interesting thing is, if you want to understand
56
150562
2013
흥미있는 것은, 사람들이 흡연에 대해
02:32
how people talk about smoking,
57
152575
2216
이야기하는 방법을 이해하기 원한다면
02:34
first you have to understand
58
154791
1901
먼저 그들이 "흡연"에 관해 이야기할 때,
02:36
what they mean when they say "smoking."
59
156692
2565
그들이, "흡연"이라고 하는 게
무엇을 의미하는지 이해해야 하죠.
02:39
And on Twitter, there are four main categories:
60
159257
3926
그래서, 트위터에는
4개의 주요 범주가 있는데요:
02:43
number one, smoking cigarettes;
61
163183
2997
첫째, 담배 피우기
02:46
number two, smoking marijuana;
62
166180
2807
두번째, 마리화나 피우기
02:48
number three, smoking ribs;
63
168987
2643
세번째, 갈비 훈제하기
02:51
and number four, smoking hot women.
64
171630
3553
그리고 네번째,
매력적인 여자 꼬시기
(웃음)
02:55
(Laughter)
65
175183
2993
자, 그 다음,
사람들이 전자담배에 대해
02:58
So then you have to think about, well,
66
178176
2426
03:00
how do people talk about electronic cigarettes?
67
180602
2140
어떻게 이야기하는지
생각해봐야 하겠죠?
03:02
And there are so many different ways
68
182742
2025
사람들이 이것에 대해 이야기하는 데
매우 다른 방식들이 있어요.
03:04
that people do this, and you can see from the slide
69
184767
2599
여기 슬라이드에서 보실 수 있습니다.
03:07
it's a complex kind of a query.
70
187366
2610
이건 매우 복잡한 종류의
질의어입니다.
03:09
And what it reminds us is that
71
189976
3224
이것은 언어는 인간이 만든 것이라는
것을 우리에게 상기시켜 주죠.
03:13
language is created by people,
72
193200
2411
03:15
and people are messy and we're complex
73
195611
2340
우리는 너저분하고 복잡합니다.
03:17
and we use metaphors and slang and jargon
74
197951
2767
우리는 은유법을 사용하며,
은어와 특수용어를 씁니다.
03:20
and we do this 24/7 in many, many languages,
75
200718
3279
우리는 정말 많은 언어들로
항상 이렇게 합니다.
03:23
and then as soon as we figure it out, we change it up.
76
203997
3224
그리고 우리는 이것을
이해하자 마자 변경하죠.
03:27
So did these ads that the CDC put on,
77
207221
5118
CDC에 방송한 이 광고들은
03:32
these television ads that featured a woman
78
212339
2430
목에 구멍이 있는 여성이 출현하고
03:34
with a hole in her throat and that were very graphic
79
214769
2021
매우 충격적인 이미지이며,
03:36
and very disturbing,
80
216790
1904
마음을 매우 교란시키죠.
03:38
did they actually have an impact
81
218694
1885
이 광고가 사람들이
03:40
on whether people quit?
82
220579
2671
금연하는데 영향을 주었을까요?
03:43
And the Health Media Collaboratory
respected the limits of their data,
83
223250
3307
건강 매체 공동 연구단은
데이터의 한계를 준수하였지만,
03:46
but they were able to conclude
84
226557
2005
그럼에도, 그들은 이 연구를
결론 지을 수 있었는데,
03:48
that those advertisements —
and you may have seen them —
85
228562
3312
그 광고들은--
아마 여러분도 보았을지 모릅니다.
03:51
that they had the effect of jolting people
86
231874
2591
그 광고들은
충격받은 사람들의 생각이
03:54
into a thought process
87
234465
1822
미래의 행동에
영향을 미칠지도 모르는
03:56
that may have an impact on future behavior.
88
236287
3667
사고과정으로 이어지는
효과를 가져왔다고 결론지었죠.
03:59
And what I admire and
appreciate about this project,
89
239954
3891
그 사실에서 벗어나서
제가 이 프로젝트에 대해
감탄하고 감사하게 여기는 것은
04:03
aside from the fact, including the fact
90
243845
1489
그것이 인간 필수 욕구에 기반을
둔다는 그 점을 포함해서,
04:05
that it's based on real human need,
91
245334
4057
04:09
is that it's a fantastic example of courage
92
249391
2846
무관성이라는 바다에서 용기에 관한
훌륭한 사례라는 것입니다.
04:12
in the face of a sea of irrelevance.
93
252237
4443
04:16
And so it's not just big data that causes
94
256680
3305
또한 이것은 해석을 요구하는
04:19
challenges of interpretation, because let's face it,
95
259985
2601
빅 데이터에 대한 것만이 아닙니다.
04:22
we human beings have a very rich history
96
262586
2594
직면해 보면, 인류는 어떠한 양의
얼마나 작건간에 데이터를 수용해서
04:25
of taking any amount of data, no matter how small,
97
265180
2693
망쳐버린 굉장히
풍부한 역사를 가지고 있습니다.
04:27
and screwing it up.
98
267873
1617
04:29
So many years ago, you may remember
99
269490
3737
수 년전에, 여러분은
대통령 로널드 레이건이
04:33
that former President Ronald Reagan
100
273227
2273
바보같은 사실을 설명한것에 대하여
매우 비난받았던것을 기억하실 거예요.
04:35
was very criticized for making a statement
101
275500
1991
04:37
that facts are stupid things.
102
277491
3010
04:40
And it was a slip of the tongue, let's be fair.
103
280501
2794
그리고 이건 말 실수였죠.
공평해져 봅시다.
04:43
He actually meant to quote John Adams' defense
104
283295
2430
사실은, 그는
보스톤 마사크르 재판에서
존 아담스의 영국군 변론을
04:45
of British soldiers in the Boston Massacre trials
105
285725
2751
04:48
that facts are stubborn things.
106
288476
3150
인용해 사실들은 끈질기게
완강하다고 말 하려는 의도였습니다.
04:51
But I actually think there's
107
291626
2624
저는 그가 이야기했던 것 속엔 사실
04:54
a bit of accidental wisdom in what he said,
108
294250
3418
우연한 지혜가
깃들였었다고 생각합니다.
04:57
because facts are stubborn things,
109
297668
2776
실상이란 끈질기게 완강하지만
05:00
but sometimes they're stupid, too.
110
300444
2923
바보같기도 하기때문이죠.
05:03
I want to tell you a personal story
111
303367
1888
여러분께 왜 빅 데이터가
저에게 큰 문제인지에 대한
05:05
about why this matters a lot to me.
112
305255
3548
개인적인 이야기를 하고싶습니다.
05:08
I need to take a breath.
113
308803
2437
한 숨 돌려야겠네요.
05:11
My son Isaac, when he was two,
114
311240
2754
제 아들 Isaac은 2 살 이였을때
05:13
was diagnosed with autism,
115
313994
2417
자폐증 진단을 받았습니다.
05:16
and he was this happy, hilarious,
116
316411
2161
행복하고, 명랑하며
05:18
loving, affectionate little guy,
117
318572
2035
다정하고, 애정어린
조그만 아이였어요.
05:20
but the metrics on his developmental evaluations,
118
320607
2902
그러나 그의
발달 평가의 척도는
05:23
which looked at things like
the number of words —
119
323509
2070
의사소통 행동을
최소한의 시선맞춤 등으로
05:25
at that point, none —
120
325579
3657
어떤 현상을 그저
낱말 수 로 보는것이죠.
05:29
communicative gestures and minimal eye contact,
121
329236
3940
그때 당시에는 전혀 보지 못했죠--
05:33
put his developmental level
122
333176
2003
그래서, 그당시 그의 발달 단계는
9개월이 된 아기의 수준이었습니다.
05:35
at that of a nine-month-old baby.
123
335179
3961
05:39
And the diagnosis was factually correct,
124
339140
2960
그 진단은 눈에 보이는 것으로만
측정된 옳은 것이었지만
05:42
but it didn't tell the whole story.
125
342100
3209
그게 모든 것을
말하는 것은 아니였어요.
05:45
And about a year and a half later,
126
345309
1401
1년 반정도가 지났을 무렵
05:46
when he was almost four,
127
346710
2102
그가 거의 4살이었을때
05:48
I found him in front of the computer one day
128
348812
2363
어느 날, 제 아들이
컴퓨터 앞에 있을 것을 보았어요.
05:51
running a Google image search on women,
129
351175
5453
구글에서 여자 사진을 찾고 있었죠.
05:56
spelled "w-i-m-e-n."
130
356628
3616
철자를 w-i-m-e-n 이라고
썼습니다.
06:00
And I did what any obsessed parent would do,
131
360244
2740
어떤 집착어린 부모가
할 행동을 제가 했어요.
06:02
which is immediately started
hitting the "back" button
132
362984
1901
곧 장 "뒤로가기"버튼을
쳐대기 시작했죠.
06:04
to see what else he'd been searching for.
133
364885
3363
제 아들이 어떤 다른 것을
찾았는지 보기 위해서요.
06:08
And they were, in order: men,
134
368248
2171
그 것들은, 순서대로 남자,
06:10
school, bus and computer.
135
370419
7267
학교,
버스,
그리고 컴퓨터였습니다.
저는 매우 충격을 받았어요.
06:17
And I was stunned,
136
377686
2070
06:19
because we didn't know that he could spell,
137
379756
2002
우리는 그가 철자를 읽고 쓸 줄
안다는 것을 몰랐기 때문입니다.
06:21
much less read, and so I asked him,
138
381758
1766
그래서 저는 제 아들에게 물었어요.
06:23
"Isaac, how did you do this?"
139
383524
2193
"Isaac 이걸 어떻게 했니?"
06:25
And he looked at me very seriously and said,
140
385717
2678
그는 저를 매우
진지하게 쳐다보며 말했죠.
06:28
"Typed in the box."
141
388395
3352
"박스 안에 입력했어요."
06:31
He was teaching himself to communicate,
142
391747
3734
그가 스스로 소통하는 법을
배우는 동안
06:35
but we were looking in the wrong place,
143
395481
3004
우리는 엉뚱한 곳을
바라보고 있었던겁니다.
06:38
and this is what happens when assessments
144
398485
2295
평가와 분석들이 하나의 척도에
지나친 가치를 두고 있을 때
06:40
and analytics overvalue one metric —
145
400780
2396
그런 일이 일어나는 겁니다.
06:43
in this case, verbal communication —
146
403176
2609
이 경우에서는, 음성 소통이겠죠.
06:45
and undervalue others, such
as creative problem-solving.
147
405785
5703
그리고 창의적 문제 해결과 같은
다른 것들을 과소평가하는 것입니다.
06:51
Communication was hard for Isaac,
148
411488
2307
Issac은 의사소통을 힘들어했고
06:53
and so he found a workaround
149
413795
1912
그래서 그는 차선책을 찾아냈죠.
06:55
to find out what he needed to know.
150
415707
2857
그건 그가 무엇을 알아야하는지
이해하는 것이었어요.
06:58
And when you think about it, it makes a lot of sense,
151
418564
1890
여러분도 이것이
일리가 있다고 여기실겁니다.
07:00
because forming a question
152
420454
2081
왜냐하면 질문을 만드는 것은
07:02
is a really complex process,
153
422535
2565
굉장히 복잡한 절차이기 때문이죠.
07:05
but he could get himself a lot of the way there
154
425100
2522
그러나 그는 여러가지 방법으로
검색창에 글자를 입력하면서
07:07
by putting a word in a search box.
155
427622
4092
스스로 나아갔습니다.
07:11
And so this little moment
156
431714
2936
그리고 이 짧은 순간이
07:14
had a really profound impact on me
157
434650
2836
저와 제 가족들에게
정말 깊은 영향을 주었습니다.
07:17
and our family
158
437486
1309
07:18
because it helped us change our frame of reference
159
438795
3141
그 사건은 우리가
그에게 일어나는 일에 대해
07:21
for what was going on with him,
160
441936
2208
참고할 수 있는 것에 대한
생각을 바꾸게 해주었고,
07:24
and worry a little bit less and appreciate
161
444144
2976
덜 걱정할 수 있게 해주었으며,
그의 문제 해결 능력에 대해
더욱 감사하게 해주었습니다.
07:27
his resourcefulness more.
162
447120
2182
07:29
Facts are stupid things.
163
449302
2861
사실이라는 것은
바보같은 것들 입니다.
07:32
And they're vulnerable to misuse,
164
452163
2397
그것들은 오용되기에 취약합니다.
07:34
willful or otherwise.
165
454560
1653
고의적이거나 아니면 다르게요.
07:36
I have a friend, Emily Willingham, who's a scientist,
166
456213
3026
제게는 에밀리 윌링햄이라는
과학자 친구가있습니다.
07:39
and she wrote a piece for Forbes not long ago
167
459239
2801
얼마전 그녀는 Forbes 잡지에
기사 한편을 기재했습니다.
07:42
entitled "The 10 Weirdest Things
168
462040
1980
"절대 자폐증과 연관성이 없는
10가지 이상한 것들 "
07:44
Ever Linked to Autism."
169
464020
1810
이라는 제목이었어요.
07:45
It's quite a list.
170
465830
3005
상당히 많은 목록이에요.
07:48
The Internet, blamed for everything, right?
171
468835
3532
인터넷은, 모든것의 원인으로
비난 받습니다, 그렇죠?
07:52
And of course mothers, because.
172
472367
3757
그리고 다음은, 물론 엄마입니다.
사실 여기에
07:56
And actually, wait, there's more,
173
476124
1587
07:57
there's a whole bunch in
the "mother" category here.
174
477711
3430
"엄마" 라는 범주에는
한 다발이 들어가니까요.
08:01
And you can see it's a pretty
rich and interesting list.
175
481141
4815
보다시피, 꽤 풍부하고
흥미로운 목록이 있죠.
08:05
I'm a big fan of
176
485956
2193
개인적으로
08:08
being pregnant near freeways, personally.
177
488149
3704
"고속도로 가까이에서 임신하기"가
가장 마음에 드는군요.
08:11
The final one is interesting,
178
491853
1539
마지막 것은 굉장히 흥미로운데요.
08:13
because the term "refrigerator mother"
179
493392
3003
그것은 "냉장고 엄마"라는 용어는
08:16
was actually the original hypothesis
180
496395
2605
자폐증을 야기시키는 것에 대한
초기의 가설이었고
08:19
for the cause of autism,
181
499000
1431
08:20
and that meant somebody
who was cold and unloving.
182
500431
2735
그 용어의 의미는 차갑고
애정이없는 사람을 의미했죠.
08:23
And at this point, you might be thinking,
183
503166
1562
이 지점에서, 아마도 여러분은
생각하실지도 모르겠네요,
08:24
"Okay, Susan, we get it,
184
504728
1657
"좋아, 수잔, 알겠어.
08:26
you can take data, you can
make it mean anything."
185
506385
1782
데이터를 취해서, 그걸 어떤
의미로든 만들 수 있다는 거지.
08:28
And this is true, it's absolutely true,
186
508167
4703
그건 사실입니다,
그건 명백한 사실이에요.
08:32
but the challenge is that
187
512870
5610
하지만 곤란한 점은
08:38
we have this opportunity
188
518480
2448
우리에게는 우리 스스로 그것에 의미를
부여할 수 있는 기회가 있다는 겁니다.
08:40
to try to make meaning out of it ourselves,
189
520928
2284
08:43
because frankly, data doesn't
create meaning. We do.
190
523212
5352
왜냐면, 솔직히, 데이터는 의미를
부여하지 않죠. 우리가 합니다.
08:48
So as businesspeople, as consumers,
191
528564
3256
사업가, 고객,
08:51
as patients, as citizens,
192
531820
2539
환자, 시민으로서,
08:54
we have a responsibility, I think,
193
534359
2396
전 우리가 비판적 사고능력에
집중하여 상당한 시간을
08:56
to spend more time
194
536755
2194
08:58
focusing on our critical thinking skills.
195
538949
2870
소비해야 할
책임이 있다고 생각합니다.
09:01
Why?
196
541819
1078
왜냐구요?
09:02
Because at this point in our history, as we've heard
197
542897
3178
우리는 우리 역사의 이 점에서,
우리가 여러번 들어왔듯이
09:06
many times over,
198
546075
1706
09:07
we can process exabytes of data
199
547781
1981
우리는 많은 거대 용량의 데이터를
09:09
at lightning speed,
200
549762
2153
빛의 속도로 가공할 수 있고,
09:11
and we have the potential to make bad decisions
201
551915
3515
더욱 빠르고 효과적으로
그리고 우리가 과거에 미쳤던 것보다
더 큰 영향력을 미치면서
09:15
far more quickly, efficiently,
202
555430
1834
09:17
and with far greater impact than we did in the past.
203
557264
5028
나쁜 결정을 내릴 수 있는
잠재성이 있기 때문이죠.
09:22
Great, right?
204
562292
1388
훌륭하네요, 그렇죠?
09:23
And so what we need to do instead
205
563680
3030
그래서 우리가 대신에 해야하는 것은
09:26
is spend a little bit more time
206
566710
2330
아주 조금 더 많은 시간을
09:29
on things like the humanities
207
569040
2746
인류학이나
09:31
and sociology, and the social sciences,
208
571786
3464
사회학, 그리고 사회과학
09:35
rhetoric, philosophy, ethics,
209
575250
2308
수사학, 철학, 도덕 같은 것들에
투자하는 것입니다.
09:37
because they give us context that is so important
210
577558
2856
왜냐하면 그것들이 우리에게
빅 데이터에 관한
09:40
for big data, and because
211
580414
2576
매우 중요한 앞뒤 맥락을
제시해주기 때문입니다.
09:42
they help us become better critical thinkers.
212
582990
2418
그리고 우리가 비판적으로 생각하는
사람들이 되도록 도와줍니다.
09:45
Because after all, if I can spot
213
585408
4207
왜냐하면, 결국, 제가 논쟁에 있어
한 문제를 발견할 수 있다면,
09:49
a problem in an argument, it doesn't much matter
214
589615
2486
그것이 단어이든 숫자이든
어떻게 표현되었는지는
09:52
whether it's expressed in words or in numbers.
215
592101
2759
그다지 중요하지 않기 때문이죠.
09:54
And this means
216
594860
2719
그리고 그게 의미하는 것은
09:57
teaching ourselves to find
those confirmation biases
217
597579
4421
우리가 이런 확증 편향이나
잘못된 연관성을 발견하고,
10:02
and false correlations
218
602000
1822
10:03
and being able to spot a naked emotional appeal
219
603822
2138
그리고 30야드 떨어진 가까운 곳의
10:05
from 30 yards,
220
605960
1662
드러난 감정의 호소를
포착할 수 있도록 가르치는 것이죠.
10:07
because something that happens after something
221
607622
2522
왜냐하면 어떤 일 이후에
벌어지는 일이
10:10
doesn't mean it happened
because of it, necessarily,
222
610144
3082
필수적으로 그 일 때문에 일어났다는
의미는 아니기 때문입니다.
10:13
and if you'll let me geek out on you for a second,
223
613226
2119
잠깐 괴짜같은 이야기를 하도록
허락해 주신다면,
10:15
the Romans called this
"post hoc ergo propter hoc,"
224
615345
4297
로마인들은 이렇게 말합니다,
"post hoc ergo propter hoc"
10:19
after which therefore because of which.
225
619642
3296
"따라서 그 때문에" 라는 뜻입니다.
10:22
And it means questioning
disciplines like demographics.
226
622938
3757
이건 인구통계와 같은 원리에
질문을 던지는 것을 의미해요.
10:26
Why? Because they're based on assumptions
227
626695
2520
왜냐구요?
우리의 성, 나이, 우리가 사는곳에
대한 가설에 기반을 두고있고,
10:29
about who we all are based on our gender
228
629215
2306
10:31
and our age and where we live
229
631521
1462
10:32
as opposed to data on what
we actually think and do.
230
632983
3478
우리가 실제 생각하고
하는일에 반대되기 때문입니다.
10:36
And since we have this data,
231
636461
1663
그리고 우리가 이런 데이터들을
가지고 있기 때문에,
10:38
we need to treat it with appropriate privacy controls
232
638124
3139
우리는 적절한
개인 정보 보호 통제와
10:41
and consumer opt-in,
233
641263
3576
소비자 사전동의 등을 고려하여
이것을 다루어야 합니다.
10:44
and beyond that, we need to be clear
234
644839
2993
그리고 그것을 넘어서서, 우리는
우리의 가설과,
10:47
about our hypotheses,
235
647832
2103
10:49
the methodologies that we use,
236
649935
2596
우리가 사용하는 방법론,
10:52
and our confidence in the result.
237
652531
2804
그리고 그 결과에 대한 우리의
확신에 대해서명확해야 합니다.
10:55
As my high school algebra teacher used to say,
238
655335
2474
저의 고등학교 대수학 선생님은
말씀하시곤 했던 것처럼,
10:57
show your math,
239
657809
1531
"네 수학을 보여주렴"
10:59
because if I don't know what steps you took,
240
659340
3441
"만약 네가 어떤 단계를 거쳤는지
내가 모른다면,
11:02
I don't know what steps you didn't take,
241
662781
1991
나는 네가 어떤 질문을 했는지
모를 것이고,
11:04
and if I don't know what questions you asked,
242
664772
2438
네가 어떤 질문을 했는지 모른다면,
11:07
I don't know what questions you didn't ask.
243
667210
3197
나는 네가 어떤 질문을
하지 않았는지 모를테니까."
11:10
And it means asking ourselves, really,
244
670407
1523
그건 실제로, 우리 스스로에게 묻는 게
가장 어려운 질문이라는 것이죠.
11:11
the hardest question of all:
245
671930
1479
11:13
Did the data really show us this,
246
673409
3500
데이타가 이것을 우리에게
보여주었나요?
11:16
or does the result make us feel
247
676909
2311
아니면 그 결과물들은 우리가
11:19
more successful and more comfortable?
248
679220
3878
성취감과 편한함을 더 많이
느끼도록 해주었나요?
11:23
So the Health Media Collaboratory,
249
683098
2584
건강 매체 공동 연구단은
11:25
at the end of their project, they were able
250
685682
1699
그들의 프로젝트가 끝날 무렵
그들이 찾을 수 있었던 것은
11:27
to find that 87 percent of tweets
251
687381
3408
87%의 트윗이
매우 입체적이고 충격적인
11:30
about those very graphic and disturbing
252
690789
2144
흡연 반대 광고에 대해
두려움을 나타냈지만
11:32
anti-smoking ads expressed fear,
253
692933
4038
11:36
but did they conclude
254
696971
1856
그러나, 그 연구단은
11:38
that they actually made people stop smoking?
255
698827
3161
그 광고가 사람들이 금연하도록
돕는다고 결론 지었을까요?
11:41
No. It's science, not magic.
256
701988
2542
아닙니다. 그건
마술이 아니라 과학입니다.
11:44
So if we are to unlock
257
704530
3190
우리가 데이터의 힘을 방면한다면,
11:47
the power of data,
258
707720
2862
조지 오엘의 미래의
전체주의국가에 대한 견해와
11:50
we don't have to go blindly into
259
710582
3448
11:54
Orwell's vision of a totalitarian future,
260
714030
3436
헉슬리의
하찮은 것들에 관한 견해에
11:57
or Huxley's vision of a trivial one,
261
717466
3117
맹목적으로 매달리지 않아도 되고
12:00
or some horrible cocktail of both.
262
720583
3020
또는 두가지를 섞은
끔찍한 조합도 할 필요가 없죠.
12:03
What we have to do
263
723603
2379
우리가 해야만 하는 일은
12:05
is treat critical thinking with respect
264
725982
2718
비판적 사고를 존중해서 대하고
12:08
and be inspired by examples
265
728700
2029
건강 매체 연구단이 했던
실험과 같은 사례에서 영감을 얻고
12:10
like the Health Media Collaboratory,
266
730729
2610
12:13
and as they say in the superhero movies,
267
733339
2328
그리고 슈퍼히어로 영화에서
그들이 말하는 것처럼
12:15
let's use our powers for good.
268
735667
1822
우리의 힘을 선을 위해 사용합시다.
12:17
Thank you.
269
737489
2351
감사합니다.
12:19
(Applause)
270
739840
2334
(박수)
New videos
이 웹사이트 정보
이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.