What will a future without secrets look like? | Alessandro Acquisti

202,533 views ・ 2013-10-18

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: Wooran Lee 검토: Gemma Lee
00:12
I would like to tell you a story
0
12641
2354
저는 아담과 이브와 관련된
00:14
connecting the notorious privacy incident
1
14995
3176
악명 높은
00:18
involving Adam and Eve,
2
18171
2769
사생활 사건과 관련된 이야기와
00:20
and the remarkable shift in the boundaries
3
20940
3446
지난 10년 간 사생활과
00:24
between public and private which has occurred
4
24386
2686
공개된 생활의 경계가 얼마나 놀랍게 바뀌었는지
00:27
in the past 10 years.
5
27072
1770
말씀드리겠습니다.
00:28
You know the incident.
6
28842
1298
여러분도 아는 일입니다.
00:30
Adam and Eve one day in the Garden of Eden
7
30140
3330
어느 날 아담과 이브는 에덴 동산에서
00:33
realize they are naked.
8
33470
1843
그들이 알몸이라는 것을 인지합니다.
00:35
They freak out.
9
35313
1500
매우 놀라죠.
00:36
And the rest is history.
10
36813
2757
나머지는 성경에 나오는 그대로입니다.
00:39
Nowadays, Adam and Eve
11
39570
2188
만약 지금이었다면 아담과 이브는
00:41
would probably act differently.
12
41758
2361
아마 다르게 행동했을 겁니다.
00:44
[@Adam Last nite was a blast! loved dat apple LOL]
13
44119
2268
[@아담 어제 밤은 폭발적이었어! 그 사과 최고야. LOL]
00:46
[@Eve yep.. babe, know what happened to my pants tho?]
14
46387
1873
[@이브 응... 자기, 근데 내 바지 어디간 거야?]
00:48
We do reveal so much more information
15
48260
2636
우리는 스스로에 관해서 전례가 없을 만큼
00:50
about ourselves online than ever before,
16
50896
3334
훨씬 많은 정보를 온라인에 공개하고
00:54
and so much information about us
17
54230
1704
우리에 관한 많은 정보를
00:55
is being collected by organizations.
18
55934
2224
여러 기관들이 수집하고 있습니다.
00:58
Now there is much to gain and benefit
19
58158
3282
이제 대량의 개인 정보 분석자료와
01:01
from this massive analysis of personal information,
20
61440
2446
빅데이터를 통해
01:03
or big data,
21
63886
1946
얻을 수 있는 이득은 매우 많습니다
01:05
but there are also complex tradeoffs that come
22
65832
2638
하지만 우리의 개인정보를 넘김으로써
01:08
from giving away our privacy.
23
68470
3098
발생하는 복잡한 댓가가 있습니다.
01:11
And my story is about these tradeoffs.
24
71568
4023
그리고 제 이야기는 그 댓가에 관한 것입니다.
01:15
We start with an observation which, in my mind,
25
75591
2584
지난 수년간 제 머리속에서
01:18
has become clearer and clearer in the past few years,
26
78175
3327
더 명확해진 관찰로 시작하겠습니다
01:21
that any personal information
27
81502
2097
어떤 개인 정보도
01:23
can become sensitive information.
28
83599
2285
민감한 정보가 될 수 있습니다
01:25
Back in the year 2000, about 100 billion photos
29
85884
4125
2000년에 전세계에서
01:30
were shot worldwide,
30
90009
1912
천억명의 사람들이 사진을 찍혔고
01:31
but only a minuscule proportion of them
31
91921
3065
하지만 그 중 아주 작은 비율만
01:34
were actually uploaded online.
32
94986
1883
실제로 온라인에 실렸습니다.
01:36
In 2010, only on Facebook, in a single month,
33
96869
3361
2010년엔 단 한 달간 페이스북에서만
01:40
2.5 billion photos were uploaded,
34
100230
3270
25억 장의 사진이 올려졌고
01:43
most of them identified.
35
103500
1882
대부분이 신원 확인되었죠.
01:45
In the same span of time,
36
105382
1880
같은 기간동안
01:47
computers' ability to recognize people in photos
37
107262
4870
사진 속의 사람을 인식할 수 있는
01:52
improved by three orders of magnitude.
38
112132
3608
컴퓨터의 능력은 천배 가량 증가했습니다.
01:55
What happens when you combine
39
115740
1882
그 기술들을 모두 합치면
01:57
these technologies together:
40
117622
1501
어떤 일이 일어날까요.
01:59
increasing availability of facial data;
41
119123
2658
안면 정보 이용율의 증가,
02:01
improving facial recognizing ability by computers;
42
121781
3648
컴퓨터의 안면 인식 능력 개선,
02:05
but also cloud computing,
43
125429
2182
또한 클라우드 컴퓨팅을 가능하게 합니다
02:07
which gives anyone in this theater
44
127611
1888
그래서 이 극장에 계신 어떤 분이라도
02:09
the kind of computational power
45
129499
1560
몇년 전에는 세글자를 가진 조직만이
02:11
which a few years ago was only the domain
46
131059
1886
할 수 있었던
02:12
of three-letter agencies;
47
132945
1782
계산 능력을 가질 수 있습니다.
02:14
and ubiquitous computing,
48
134727
1378
그리고 유비쿼터스 컴퓨팅은
02:16
which allows my phone, which is not a supercomputer,
49
136105
2892
슈퍼컴퓨터가 아닌 제 휴대전화를
02:18
to connect to the Internet
50
138997
1671
인터넷에 연결해서
02:20
and do there hundreds of thousands
51
140668
2334
몇 초 만에 수백, 수천장의
02:23
of face metrics in a few seconds?
52
143002
2639
안면인식을 가능하도록 합니다.
02:25
Well, we conjecture that the result
53
145641
2628
우리는 이 기술 조합의 결과가
02:28
of this combination of technologies
54
148269
2064
사생활과 익명성에 관한
02:30
will be a radical change in our very notions
55
150333
2888
개념에 급속한 변화를
02:33
of privacy and anonymity.
56
153221
2257
가져오리라 추측합니다.
02:35
To test that, we did an experiment
57
155478
1993
그것을 시험하기 위해
02:37
on Carnegie Mellon University campus.
58
157471
2121
카네기 멜론 대학교에서 실험을 진행했습니다.
02:39
We asked students who were walking by
59
159592
2099
우리는 걸어 지나가는 학생들에게
02:41
to participate in a study,
60
161691
1779
연구에 참여할 수 있냐고 묻고
02:43
and we took a shot with a webcam,
61
163470
2562
웹캠으로 사진을 찍고
02:46
and we asked them to fill out a survey on a laptop.
62
166032
2782
노트북의 설문조사에 응해달라고 했습니다.
02:48
While they were filling out the survey,
63
168814
1979
그들이 설문에 답하는 동안
02:50
we uploaded their shot to a cloud-computing cluster,
64
170793
2797
우린 그들의 사진을 클라우드 컴퓨팅군에 올렸고
02:53
and we started using a facial recognizer
65
173590
1727
안면 인식기를 이용해서 그 사진과
02:55
to match that shot to a database
66
175317
2405
우리가 페이스북 프로필에서 내려받은
02:57
of some hundreds of thousands of images
67
177722
2393
수많은 사진들이 있는 데이터베이스를
03:00
which we had downloaded from Facebook profiles.
68
180115
3596
맞춰보기 시작했습니다.
03:03
By the time the subject reached the last page
69
183711
3259
참가자가 설문지의 마지막장에 도달했을 때
03:06
on the survey, the page had been dynamically updated
70
186970
3347
실시간으로 업데이트 되는 그 페이지는
03:10
with the 10 best matching photos
71
190317
2313
안면 인식프로그램이 찾은
03:12
which the recognizer had found,
72
192630
2285
가장 비슷한 사진을 10장 표시했고
03:14
and we asked the subjects to indicate
73
194915
1738
우리는 참가자들에게
03:16
whether he or she found themselves in the photo.
74
196653
4120
자신들의 사진이 있는지 표기하도록 했습니다.
03:20
Do you see the subject?
75
200773
3699
설문 참가자가 보이시나요?
03:24
Well, the computer did, and in fact did so
76
204472
2845
컴퓨터는 보았습니다.
03:27
for one out of three subjects.
77
207317
2149
사실 3명 중 1명을 찾아냈습니다.
03:29
So essentially, we can start from an anonymous face,
78
209466
3184
기본적으로 우리는 오프라인 또는 온라인에 있는
03:32
offline or online, and we can use facial recognition
79
212650
3484
익명의 얼굴로 시작해서 안면 인식 기술을 통해
03:36
to give a name to that anonymous face
80
216134
2360
그 익명의 얼굴에 이름을 찾을 수 있습니다.
03:38
thanks to social media data.
81
218494
2108
소셜 미디어 데이터 덕분이지요.
03:40
But a few years back, we did something else.
82
220602
1872
하지만 몇년 전 우린 다른 일을 했습니다.
03:42
We started from social media data,
83
222474
1823
우리는 소셜 미디어 데이터를
03:44
we combined it statistically with data
84
224297
3051
미국 정부의 사회 보장 정보와
03:47
from U.S. government social security,
85
227348
2102
통계적으로 합쳐
03:49
and we ended up predicting social security numbers,
86
229450
3324
사회 보장 번호를 예상하기에 이르렀습니다
03:52
which in the United States
87
232774
1512
미국내에서는
03:54
are extremely sensitive information.
88
234286
2040
매우 민감한 정보입니다.
03:56
Do you see where I'm going with this?
89
236326
2093
제가 무슨 말을 하는지 아시겠습니까?
03:58
So if you combine the two studies together,
90
238419
2922
만약 여러분이 두 연구를 합친다면
04:01
then the question becomes,
91
241341
1512
의문을 가지게 될 것 입니다.
04:02
can you start from a face and,
92
242853
2720
얼굴로 시작해서
04:05
using facial recognition, find a name
93
245573
2311
안면 인식 기술을 이용해서 이름을 알아내고
04:07
and publicly available information
94
247884
2669
그 이름과 그 사람에 대해
04:10
about that name and that person,
95
250553
1932
공개된 정보를 얻고
04:12
and from that publicly available information
96
252485
2248
그렇게 공개된 정보로부터
04:14
infer non-publicly available information,
97
254733
2042
훨씬 더 민감한
04:16
much more sensitive ones
98
256775
1606
비공개 정보를 추론해서
04:18
which you link back to the face?
99
258381
1492
그 얼굴에 연결할 수 있을까?
04:19
And the answer is, yes, we can, and we did.
100
259873
1916
답은 예이고 우리는 해냈습니다.
04:21
Of course, the accuracy keeps getting worse.
101
261789
2568
물론 정확도는 계속 안 좋아지죠.
04:24
[27% of subjects' first 5 SSN digits identified (with 4 attempts)]
102
264357
944
[네 번의 시도로 대상의 27%의 사회 보장 번호 첫 다섯 자리가 확인]
04:25
But in fact, we even decided to develop an iPhone app
103
265301
3827
하지만 우리는 사실 아이폰 앱을 개발하기로 결정했습니다.
04:29
which uses the phone's internal camera
104
269128
2715
이앱은 전화기의 내부 카메라를 사용하여
04:31
to take a shot of a subject
105
271843
1600
대상의 사진을 찍어
04:33
and then upload it to a cloud
106
273443
1487
클라우드에 올려서
04:34
and then do what I just described to you in real time:
107
274930
2662
제가 방금 설명드린 작업을 실시간으로 진행합니다.
04:37
looking for a match, finding public information,
108
277592
2088
일치하는 것을 찾고 공개된 정보를 찾으며
04:39
trying to infer sensitive information,
109
279680
1730
민감한 정보를 추론하여
04:41
and then sending back to the phone
110
281410
2591
그리고 전화기의 사진위에
04:44
so that it is overlaid on the face of the subject,
111
284001
3609
찾은 정보를 덧씌워 표기됩니다.
04:47
an example of augmented reality,
112
287610
1901
증강 현실의 예처럼요.
04:49
probably a creepy example of augmented reality.
113
289511
2451
아마 소름끼치는 증강 현실의 예일 것입니다.
04:51
In fact, we didn't develop the app to make it available,
114
291962
3339
사실 우리는 그 앱을 사용하기 위해서가 아니라
04:55
just as a proof of concept.
115
295301
1922
단지 개념을 증명해 보이기 위해서 만들었죠.
04:57
In fact, take these technologies
116
297223
2313
실제로 이 기술을 이용해서
04:59
and push them to their logical extreme.
117
299536
1837
극한의 논리를 적용해보세요.
05:01
Imagine a future in which strangers around you
118
301373
2719
미래에 여러분 주위에서 낯선 사람들이
05:04
will look at you through their Google Glasses
119
304092
2311
구글 글래스나 콘텍츠 렌즈로
05:06
or, one day, their contact lenses,
120
306403
2307
여러분을 쳐다본다고 상상해 보세요.
05:08
and use seven or eight data points about you
121
308710
4020
여러분에 대한 일곱 여덟 가지 데이터를 사용해
05:12
to infer anything else
122
312730
2582
여러분에 대해 알려진
05:15
which may be known about you.
123
315312
2603
어떠한 정보든지 추론합니다.
05:17
What will this future without secrets look like?
124
317915
4794
비밀이 없는 미래는 어떤 모습일까요?
05:22
And should we care?
125
322709
1964
그리고 우리가 그걸 신경써야 할까요?
05:24
We may like to believe
126
324673
1891
우리는 풍부한 데이터가 존재하는 그 미래가
05:26
that the future with so much wealth of data
127
326564
3040
편견이 사라진 미래라고
05:29
would be a future with no more biases,
128
329604
2514
믿고 싶어할 수도 있지만
05:32
but in fact, having so much information
129
332118
3583
사실 많은 정보를 갖는다는 것이
05:35
doesn't mean that we will make decisions
130
335701
2191
우리가 보다 객관적인 결정을
05:37
which are more objective.
131
337892
1706
내린다는 뜻은 아닙니다.
05:39
In another experiment, we presented to our subjects
132
339598
2560
또 다른 실험에서 우린 피실험자들에게
05:42
information about a potential job candidate.
133
342158
2246
잠재적 입사지원자들에 대한 정보를 제공하였습니다
05:44
We included in this information some references
134
344404
3178
우린 그 정보 속에
05:47
to some funny, absolutely legal,
135
347582
2646
피실험자들이 인터넷에 올렸던
05:50
but perhaps slightly embarrassing information
136
350228
2465
조금 웃기고 아주 합법적이지만
05:52
that the subject had posted online.
137
352693
2020
아마 조금은 창피할 수 있는 내용을 포함했습니다.
05:54
Now interestingly, among our subjects,
138
354713
2366
자 흥미롭게도, 피실험자들 중에서
05:57
some had posted comparable information,
139
357079
3083
어떤 이들은 비슷한 정보를 올렸고
06:00
and some had not.
140
360162
2362
다른 이들은 그러지 않았습니다.
06:02
Which group do you think
141
362524
1949
여러분 생각엔 어떤 그룹이
06:04
was more likely to judge harshly our subject?
142
364473
4552
입사지원자들을 더욱 냉정하게 평가했을까요?
06:09
Paradoxically, it was the group
143
369025
1957
역설적으로 그 그룹은
06:10
who had posted similar information,
144
370982
1733
비슷한 정보를 올렸던 그룹이었습니다.
06:12
an example of moral dissonance.
145
372715
2942
도덕적 부조화의 한 예입니다.
06:15
Now you may be thinking,
146
375657
1750
여러분은 아마 숨길게 없기 때문에
06:17
this does not apply to me,
147
377407
1702
이건 나와는 상관없는 일이야
06:19
because I have nothing to hide.
148
379109
2162
라고 생각하실지 모릅니다.
06:21
But in fact, privacy is not about
149
381271
2482
하지만 사실, 사생활은 감춰야 할
06:23
having something negative to hide.
150
383753
3676
부정적인 것에 관한 것이 아닙니다.
06:27
Imagine that you are the H.R. director
151
387429
2354
여러분이 어느 단체의 인사 담당자라고 가정해보세요.
06:29
of a certain organization, and you receive résumés,
152
389783
2947
여러분은 이력서를 받고
06:32
and you decide to find more information about the candidates.
153
392730
2473
지원자에 대한 더 많은 정보를 찾기로 결정합니다
06:35
Therefore, you Google their names
154
395203
2460
그래서 여러분은 그 이름들을 구글에 검색하고
06:37
and in a certain universe,
155
397663
2240
어느 한 곳에서
06:39
you find this information.
156
399903
2008
그 정보를 찾습니다.
06:41
Or in a parallel universe, you find this information.
157
401911
4437
혹은 평행 세계에서 이런 정보를 찾습니다.
06:46
Do you think that you would be equally likely
158
406348
2717
여러분은 두 지원자 모두 동등하게
06:49
to call either candidate for an interview?
159
409065
2803
면접에 부를 것이라 생각하세요?
06:51
If you think so, then you are not
160
411868
2282
만약 그렇다면
06:54
like the U.S. employers who are, in fact,
161
414150
2582
여러분은 우리 실험에 참가했던
06:56
part of our experiment, meaning we did exactly that.
162
416732
3307
미국의 고용자와 다른 겁니다. 우린 그렇게 했어요.
07:00
We created Facebook profiles, manipulating traits,
163
420039
3182
우린 조작된 페이스북 프로필을 만들고
07:03
then we started sending out résumés to companies in the U.S.,
164
423221
2851
미국 회사에 이력서를 보냈습니다.
07:06
and we detected, we monitored,
165
426072
1908
그리고 그 회사에서
07:07
whether they were searching for our candidates,
166
427980
2393
우리의 지원자를 찾는지 감시하였습니다.
07:10
and whether they were acting on the information
167
430373
1832
또한 그들이 소셜 미디어에서 찾은 정보에 따라
07:12
they found on social media. And they were.
168
432205
1938
행동하는지 지켜보았어요. 그들은 그렇게 했습니다.
07:14
Discrimination was happening through social media
169
434143
2101
소셜 미디어로 인해 동등한 기술을 지닌
07:16
for equally skilled candidates.
170
436244
3073
지원자들을 두고 차별이 생겼습니다.
07:19
Now marketers like us to believe
171
439317
4575
마케팅 담당자들은
07:23
that all information about us will always
172
443892
2269
우리에 대한 정보는 항상 우리에게
07:26
be used in a manner which is in our favor.
173
446161
3273
좋은 쪽으로 사용될거라고 믿게 합니다.
07:29
But think again. Why should that be always the case?
174
449434
3715
하지만 다시 생각해보세요. 왜 항상 그래야 할까요?
07:33
In a movie which came out a few years ago,
175
453149
2664
몇년 전에 개봉한 영화,
07:35
"Minority Report," a famous scene
176
455813
2553
"마이너리티 리포트"에는
07:38
had Tom Cruise walk in a mall
177
458366
2576
톰 크루즈가 백화점을 걸을 때 홀로그래픽 개인 맞춤 광고가
07:40
and holographic personalized advertising
178
460942
3776
그의 주위에 나타나는
07:44
would appear around him.
179
464718
1835
유명한 장면이 있습니다.
07:46
Now, that movie is set in 2054,
180
466553
3227
그 영화의 배경은 2054년입니다.
07:49
about 40 years from now,
181
469780
1642
지금으로부터 40년 후죠.
07:51
and as exciting as that technology looks,
182
471422
2908
그 기술이 아주 멋지게 보이듯
07:54
it already vastly underestimates
183
474330
2646
단체들이 모을 수 있는 여러분에 대한 정보의 양과
07:56
the amount of information that organizations
184
476976
2140
또 그 정보를 이용해 여러분이 알아챌 수 없도록
07:59
can gather about you, and how they can use it
185
479116
2483
여러분에게 영향을 줄 수 있다는 사실은
08:01
to influence you in a way that you will not even detect.
186
481599
3398
매우 과소평가돼있습니다.
08:04
So as an example, this is another experiment
187
484997
2103
예로, 이 실험은 현재 우리가 진행 중인
08:07
actually we are running, not yet completed.
188
487100
2273
또다른 실험이고 아직 끝나지 않았습니다.
08:09
Imagine that an organization has access
189
489373
2319
어느 단체가 당신의 페이스북 친구 목록에
08:11
to your list of Facebook friends,
190
491692
2056
접근할 수 있다고 상상해보세요.
08:13
and through some kind of algorithm
191
493748
1772
그리고 어떠한 알고리즘을 통해
08:15
they can detect the two friends that you like the most.
192
495520
3734
여러분이 가장 좋아하는 친구 2명을 알아낼 수 있습니다.
08:19
And then they create, in real time,
193
499254
2280
그리고 그들은 실시간으로
08:21
a facial composite of these two friends.
194
501534
2842
그 두 친구의 안면 합성을 만들어냅니다.
08:24
Now studies prior to ours have shown that people
195
504376
3069
이 전의 연구들에서 사람들은
08:27
don't recognize any longer even themselves
196
507445
2885
합성된 얼굴에서 자신조차도 인식할 수 없지만
08:30
in facial composites, but they react
197
510330
2462
08:32
to those composites in a positive manner.
198
512792
2117
긍정적인 반응을 보인다고 했습니다.
08:34
So next time you are looking for a certain product,
199
514909
3415
그러니 다음에 만약 여러분이 어떤 제품을 찾을 때
08:38
and there is an ad suggesting you to buy it,
200
518324
2559
만약 특정 제품을 권하는 광고가 있으면
08:40
it will not be just a standard spokesperson.
201
520883
2907
일반적인 대변인이 아닐겁니다.
08:43
It will be one of your friends,
202
523790
2313
아마 여러분의 친구 중 한명일 거에요.
08:46
and you will not even know that this is happening.
203
526103
3303
그리고 여러분은 이런 일이 일어나는지도 모르겠죠.
08:49
Now the problem is that
204
529406
2413
이제 문제는
08:51
the current policy mechanisms we have
205
531819
2519
현재 우리가 가진 개인 정보의 남용을
08:54
to protect ourselves from the abuses of personal information
206
534338
3438
막기 위한 정책 구조는
08:57
are like bringing a knife to a gunfight.
207
537776
2984
마치 총싸움에 칼을 가지고 가는 것과 같습니다.
09:00
One of these mechanisms is transparency,
208
540760
2913
그 구조 중 하나는 투명성입니다.
09:03
telling people what you are going to do with their data.
209
543673
3200
사람들의 정보를 가지고 무엇을 할지 말하는 것이죠.
09:06
And in principle, that's a very good thing.
210
546873
2106
원칙대로라면 아주 좋은 거에요.
09:08
It's necessary, but it is not sufficient.
211
548979
3667
필요하지만 충분하지 않습니다.
09:12
Transparency can be misdirected.
212
552646
3698
투명성은 잘못 사용될 수 있습니다.
09:16
You can tell people what you are going to do,
213
556344
2104
사람들에게 무엇을 할지 말을 하고
09:18
and then you still nudge them to disclose
214
558448
2232
계속 그들에게 확실하지 않은 양의
09:20
arbitrary amounts of personal information.
215
560680
2623
정보를 밝히라고 부추길 수 있어요.
09:23
So in yet another experiment, this one with students,
216
563303
2886
그래서 또 다른 학생들과 진행한 실험에서는
09:26
we asked them to provide information
217
566189
3058
교정 안에서의 행동에 대한
09:29
about their campus behavior,
218
569247
1813
정보를 요구했습니다.
09:31
including pretty sensitive questions, such as this one.
219
571060
2940
꽤나 민감한 이런 질문도 있었어요.
09:34
[Have you ever cheated in an exam?]
220
574000
621
09:34
Now to one group of subjects, we told them,
221
574621
2300
[시험 도중 컨닝한 적이 있습니까?]
우린 한 피실험자 그룹에게 이렇게 얘기했습니다.
09:36
"Only other students will see your answers."
222
576921
2841
"다른 학생들만 답을 볼거에요."
09:39
To another group of subjects, we told them,
223
579762
1579
또 다른 그룹에게는 이렇게 얘기했죠.
09:41
"Students and faculty will see your answers."
224
581341
3561
"학생들과 교수진들 모두 응답을 볼겁니다."
09:44
Transparency. Notification. And sure enough, this worked,
225
584902
2591
투명성. 알림. 이건 당연하게도 통했습니다.
09:47
in the sense that the first group of subjects
226
587493
1407
첫번재 그룹이 두번째 그룹보다
09:48
were much more likely to disclose than the second.
227
588900
2568
더 많은 정보를 밝혔어요.
09:51
It makes sense, right?
228
591468
1520
납득이 되지요. 그렇죠?
09:52
But then we added the misdirection.
229
592988
1490
그리고 잘못된 지시를 더했습니다.
09:54
We repeated the experiment with the same two groups,
230
594478
2760
같은 그룹에게 실험을 반복했지만
09:57
this time adding a delay
231
597238
2427
이번엔 피실험자들에게
09:59
between the time we told subjects
232
599665
2935
우리가 정보를 어떻게 사용할지 말한 때와
10:02
how we would use their data
233
602600
2080
질문에 답하기 시작한 때 사이에
10:04
and the time we actually started answering the questions.
234
604680
4388
시간 간격을 두었어요.
10:09
How long a delay do you think we had to add
235
609068
2561
교수진이 응답을 볼거란 사실에 의한
10:11
in order to nullify the inhibitory effect
236
611629
4613
억제 영향을 무효화시키기 위해
10:16
of knowing that faculty would see your answers?
237
616242
3411
얼마나 긴 간격을 두어야 했을까요?
10:19
Ten minutes?
238
619653
1780
10분?
10:21
Five minutes?
239
621433
1791
5분?
10:23
One minute?
240
623224
1776
1분?
10:25
How about 15 seconds?
241
625000
2049
15초는 어떻습니까?
10:27
Fifteen seconds were sufficient to have the two groups
242
627049
2668
두 그룹이 같은 양의 정보를 밝히기 위해선
10:29
disclose the same amount of information,
243
629717
1568
15초면 충분했습니다.
10:31
as if the second group now no longer cares
244
631285
2746
두번째 그룹이 교수진이 응답을 볼거란 사실을
10:34
for faculty reading their answers.
245
634031
2656
신경 쓰지 않은 것처럼요.
10:36
Now I have to admit that this talk so far
246
636687
3336
저는 지금껏 이 강연이
10:40
may sound exceedingly gloomy,
247
640023
2480
매우 우울하게 들렸다는 걸 인정하지만
10:42
but that is not my point.
248
642503
1721
그게 중점은 아닙니다.
10:44
In fact, I want to share with you the fact that
249
644224
2699
사실 전 대안이 있다는 것을
10:46
there are alternatives.
250
646923
1772
알려드리고 싶습니다.
10:48
The way we are doing things now is not the only way
251
648695
2499
지금 저희가 하는 방식이
10:51
they can done, and certainly not the best way
252
651194
3037
유일한 방법이 아니고 또한 최상의 방법은
10:54
they can be done.
253
654231
2027
더더욱 아닙니다.
10:56
When someone tells you, "People don't care about privacy,"
254
656258
4171
누군가 여러분에게 "사람들은 사생활에 신경쓰지 않아."
11:00
consider whether the game has been designed
255
660429
2642
라고 말할 때 모든게 설계되고 조작되어
11:03
and rigged so that they cannot care about privacy,
256
663071
2724
사생활에 신경 쓸 수 없게 됬는지 고려해보세요.
11:05
and coming to the realization that these manipulations occur
257
665795
3262
그리고 그러한 조작들이 일어나고 있음을 깨닫는 순간이
11:09
is already halfway through the process
258
669057
1607
이미 여러분 자신을 보호하는 과정의
11:10
of being able to protect yourself.
259
670664
2258
절반에 왔습니다.
11:12
When someone tells you that privacy is incompatible
260
672922
3710
누군가 여러분에게 사생활과
11:16
with the benefits of big data,
261
676632
1849
빅 데이터의 장점은 공존할 수 없다 말할 때
11:18
consider that in the last 20 years,
262
678481
2473
지난 20년 간 연구진들이
11:20
researchers have created technologies
263
680954
1917
기술을 개발해서
11:22
to allow virtually any electronic transactions
264
682871
3318
거의 모든 전자 거래가
11:26
to take place in a more privacy-preserving manner.
265
686189
3749
사생활을 더 보호하는 방식으로 이뤄지고 있습니다.
11:29
We can browse the Internet anonymously.
266
689938
2555
우린 익명으로 인터넷을 볼 수 있습니다.
11:32
We can send emails that can only be read
267
692493
2678
우린 오직 지정된 수신자만 읽을 수 있는
11:35
by the intended recipient, not even the NSA.
268
695171
3709
이메일을 보낼 수 있습니다. NSA도 읽을 수 없어요.
11:38
We can have even privacy-preserving data mining.
269
698880
2997
우린 사생활을 보호하며 데이터 마이닝을 할 수 있습니다.
11:41
In other words, we can have the benefits of big data
270
701877
3894
다른 말로 우리는 사생활을 보호하며
11:45
while protecting privacy.
271
705771
2132
빅 데이터의 이점을 가질 수 있습니다.
11:47
Of course, these technologies imply a shifting
272
707903
3791
물론 그 기술들은
11:51
of cost and revenues
273
711694
1546
데이터 보유자와 대상자 사이의
11:53
between data holders and data subjects,
274
713240
2107
비용과 수익의 변화를 의미합니다.
11:55
which is why, perhaps, you don't hear more about them.
275
715347
3453
어쩌면 여러분이 그것에 대해 더이상 듣지 못하는 이유일겁니다.
11:58
Which brings me back to the Garden of Eden.
276
718800
3706
다시 에덴의 동산으로 돌아가보죠.
12:02
There is a second privacy interpretation
277
722506
2780
에덴의 동산 이야기엔
12:05
of the story of the Garden of Eden
278
725286
1809
두번째 사생활에 관련된 해석이 있습니다.
12:07
which doesn't have to do with the issue
279
727095
2096
이건 아담과 이브가
12:09
of Adam and Eve feeling naked
280
729191
2225
알몸인 채
12:11
and feeling ashamed.
281
731416
2381
창피해 하는 것과는 상관 없어요.
12:13
You can find echoes of this interpretation
282
733797
2781
이 해석의 메아리는
12:16
in John Milton's "Paradise Lost."
283
736578
2782
존 밀튼의 "실낙원"에서 찾으실 수 있습니다.
12:19
In the garden, Adam and Eve are materially content.
284
739360
4197
동산에서 아담과 이브는 물질적으로 만족합니다.
12:23
They're happy. They are satisfied.
285
743557
2104
그들은 행복합니다. 만족하고 있어요.
12:25
However, they also lack knowledge
286
745661
2293
하지만 그들은
12:27
and self-awareness.
287
747954
1640
지식과 자기 인식이 없습니다.
12:29
The moment they eat the aptly named
288
749594
3319
그들이 적절하게 이름 지어진
12:32
fruit of knowledge,
289
752913
1293
선악과를 먹는 순간
12:34
that's when they discover themselves.
290
754206
2605
자기 자신을 발견합니다.
12:36
They become aware. They achieve autonomy.
291
756811
4031
그들은 의식하게 되요. 자주성을 얻습니다.
12:40
The price to pay, however, is leaving the garden.
292
760842
3126
하지만 그에 대한 대가는 동산을 떠나는 것입니다.
12:43
So privacy, in a way, is both the means
293
763968
3881
사생활이란 한편으로
12:47
and the price to pay for freedom.
294
767849
2962
자유를 위해 지불하는 대가입니다.
12:50
Again, marketers tell us
295
770811
2770
다시 한번, 마케팅 담당자들은
12:53
that big data and social media
296
773581
3019
빅 데이터와 소셜 미디어가
12:56
are not just a paradise of profit for them,
297
776600
2979
그들을 위한 이익의 낙원일 뿐만 아니라
12:59
but a Garden of Eden for the rest of us.
298
779579
2457
우리를 위한 에덴 동산이라고 말합니다.
13:02
We get free content.
299
782036
1238
우린 무료 콘텐츠를 얻죠.
13:03
We get to play Angry Birds. We get targeted apps.
300
783274
3123
앵그리 버드를 하게 되고요. 특정한 앱을 얻습니다.
13:06
But in fact, in a few years, organizations
301
786397
2897
하지만 사실 몇년 후 단체들은
13:09
will know so much about us,
302
789294
1609
우리에 대해 아주 많이 알게 될 겁니다.
13:10
they will be able to infer our desires
303
790903
2710
그들은 우리가 욕구를 가지기도 전에
13:13
before we even form them, and perhaps
304
793613
2204
그 욕구를 추론할 수 있고
13:15
buy products on our behalf
305
795817
2447
우리가 필요를 느끼기도 전에
13:18
before we even know we need them.
306
798264
2274
제품을 사게 할 수도 있을 겁니다.
13:20
Now there was one English author
307
800538
3237
한 영국 작가가
13:23
who anticipated this kind of future
308
803775
3045
이런 미래를 예상했어요.
13:26
where we would trade away
309
806820
1405
편의를 위해
13:28
our autonomy and freedom for comfort.
310
808225
3548
우리의 자주성과 자유를 판다고 말이죠.
13:31
Even more so than George Orwell,
311
811773
2161
조지 오웰보다 더한
13:33
the author is, of course, Aldous Huxley.
312
813934
2761
자가는 물론 올더스 헉슬리입니다.
13:36
In "Brave New World," he imagines a society
313
816695
2854
"멋진 신세계"에서 그는
13:39
where technologies that we created
314
819549
2171
우리가 창조한 자유를 위한 기술들이
13:41
originally for freedom
315
821720
1859
우리를 강압하는
13:43
end up coercing us.
316
823579
2567
사회를 그립니다.
13:46
However, in the book, he also offers us a way out
317
826146
4791
하지만 책에서 그는
13:50
of that society, similar to the path
318
830937
3438
그런 사회에서 벗어나는 방법도 권합니다.
13:54
that Adam and Eve had to follow to leave the garden.
319
834375
3955
아담과 이브가 동산을 떠나야 했던 것과 비슷하게요.
13:58
In the words of the Savage,
320
838330
2147
새비지의 말로
14:00
regaining autonomy and freedom is possible,
321
840477
3069
자주성과 자유를 되찾는 것은 가능합니다.
14:03
although the price to pay is steep.
322
843546
2679
그에 대한 대가는 비싸지만요.
14:06
So I do believe that one of the defining fights
323
846225
5715
그래서 저는
14:11
of our times will be the fight
324
851940
2563
우리 시대의 중요한 싸움은
14:14
for the control over personal information,
325
854503
2387
개인정보 통제를 위한 싸움,
14:16
the fight over whether big data will become a force
326
856890
3507
빅 데이터가 자유를 위한
14:20
for freedom,
327
860397
1289
힘이 될지의 싸움이라 믿습니다.
14:21
rather than a force which will hiddenly manipulate us.
328
861686
4746
우리를 몰래 조종하는 힘 대신에요.
14:26
Right now, many of us
329
866432
2593
지금 많은 사람들은
14:29
do not even know that the fight is going on,
330
869025
2753
그 싸움이 진행 중인지도 모를거에요.
14:31
but it is, whether you like it or not.
331
871778
2672
하지만 여러분이 좋든 싫든 진행 중입니다.
14:34
And at the risk of playing the serpent,
332
874450
2804
그리고 뱀을 갖고 노는 위험을 무릅쓰고
14:37
I will tell you that the tools for the fight
333
877254
2897
싸움을 위한 도구는
14:40
are here, the awareness of what is going on,
334
880151
3009
여기 있습니다. 현 상황의 자각과
14:43
and in your hands,
335
883160
1355
여러분의 손에 있는
14:44
just a few clicks away.
336
884515
3740
몇 번의 클릭입니다.
14:48
Thank you.
337
888255
1482
감사합니다.
14:49
(Applause)
338
889737
4477
(박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7