Jennifer Golbeck: The curly fry conundrum: Why social media "likes" say more than you might think

376,856 views

2014-04-03 ・ TED


New videos

Jennifer Golbeck: The curly fry conundrum: Why social media "likes" say more than you might think

376,856 views ・ 2014-04-03

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: Jihyeon J. Kim 검토: Catherine YOO
00:12
If you remember that first decade of the web,
0
12738
1997
인터넷의 초기 10년을 생각하면
00:14
it was really a static place.
1
14735
2255
거긴 정말 정적인 곳이었습니다.
00:16
You could go online, you could look at pages,
2
16990
2245
온라인으로 페이지들을 볼 수 있었죠
00:19
and they were put up either by organizations
3
19235
2513
그것은 팀으로 이루어진 단체에서
00:21
who had teams to do it
4
21748
1521
올린 것이거나
00:23
or by individuals who were really tech-savvy
5
23269
2229
그 당시 컴퓨터 기술에 능숙한
00:25
for the time.
6
25498
1737
개인들이 올린 것이었습니다.
00:27
And with the rise of social media
7
27235
1575
2000년대 초기에 부상하기 시작한
00:28
and social networks in the early 2000s,
8
28810
2399
소셜미디어와 네트워크로 인해
00:31
the web was completely changed
9
31209
2149
인터넷은 완전히 바뀌었습니다.
00:33
to a place where now the vast majority of content
10
33358
3608
우리가 보는 어마어마한 콘텐츠들을
00:36
we interact with is put up by average users,
11
36966
3312
보통의 사용자들이 올리는 장소로 말입니다.
00:40
either in YouTube videos or blog posts
12
40278
2697
유투브 동영상이라든지 블로그,
00:42
or product reviews or social media postings.
13
42975
3315
또는 상품후기나 소셜미디어 글들이요.
00:46
And it's also become a much more interactive place,
14
46290
2347
사람들이 서로 소통하는
00:48
where people are interacting with others,
15
48637
2637
훨씬 상호적인 장소가 되었습니다.
00:51
they're commenting, they're sharing,
16
51274
1696
답글을 남기고, 공유합니다.
00:52
they're not just reading.
17
52970
1614
그저 읽기만 하지 않습니다.
00:54
So Facebook is not the only place you can do this,
18
54584
1866
페이스북은 이런 것을 할 수 있는 유일한 곳일 뿐만 아니라
00:56
but it's the biggest,
19
56450
1098
가장 큰 곳이기도 합니다.
00:57
and it serves to illustrate the numbers.
20
57548
1784
숫자가 바로 설명해주죠.
00:59
Facebook has 1.2 billion users per month.
21
59332
3477
페이스북은 한 달기준으로 12억명이 사용합니다.
01:02
So half the Earth's Internet population
22
62809
1930
그러니까 지구상의 인터넷 사용자 중
01:04
is using Facebook.
23
64739
1653
절반이 페이스북을 쓰고 있어요.
01:06
They are a site, along with others,
24
66392
1932
다른 사이트들과 같이
01:08
that has allowed people to create an online persona
25
68324
3219
별다른 기술이 없어도 온라인 상의 인물을
01:11
with very little technical skill,
26
71543
1782
만들수 있도록 해줍니다.
01:13
and people responded by putting huge amounts
27
73325
2476
사람들은 엄청난 양의 개인적인 내용을
01:15
of personal data online.
28
75801
1983
올리는 것으로 그것을 사용하죠.
01:17
So the result is that we have behavioral,
29
77784
2543
그것으로 인한 결과는 역사에 선례없는
01:20
preference, demographic data
30
80327
1986
수 십억 명의 사람들에 관한
01:22
for hundreds of millions of people,
31
82313
2101
행동패턴, 선호도, 인구적 데이타를
01:24
which is unprecedented in history.
32
84414
2026
얻게 된 것입니다.
01:26
And as a computer scientist, what this means is that
33
86440
2560
컴퓨터 과학자로서, 이것의 의미는
01:29
I've been able to build models
34
89000
1664
여러분들이 공유하고 있는 줄도 모르는 정보들로
01:30
that can predict all sorts of hidden attributes
35
90664
2322
그 안에 숨겨진 여러분의 의도를
01:32
for all of you that you don't even know
36
92986
2284
예측해 낼 수 있는 모형을
01:35
you're sharing information about.
37
95270
2202
만들어 낼 수 있었다는 겁니다.
01:37
As scientists, we use that to help
38
97472
2382
과학자로서, 우리는 사람들이 온라인상에서
01:39
the way people interact online,
39
99854
2114
상호작용하는 방식에 도움을 주는데 씁니다.
01:41
but there's less altruistic applications,
40
101968
2499
그러나 도움이 되는 쪽은 좀 적습니다.
01:44
and there's a problem in that users don't really
41
104467
2381
사용자들은 이 기술이나 과정이 어떤지
01:46
understand these techniques and how they work,
42
106848
2470
실제로 이해하지 못한다는 게 문제입니다.
01:49
and even if they did, they don't have a lot of control over it.
43
109318
3128
안다고 해도, 그것을 통제할 수가 없죠.
01:52
So what I want to talk to you about today
44
112446
1490
그래서 오늘 말씀드리려고 하는 것은
01:53
is some of these things that we're able to do,
45
113936
2702
이에 대해 우리가 할 수 있는 것에 대한 것과
01:56
and then give us some ideas of how we might go forward
46
116638
2763
어떻게 하면 사용자들에게 그 통제권을 돌려 주도록
01:59
to move some control back into the hands of users.
47
119401
2769
할 수 있는가에 관한 생각들입니다.
02:02
So this is Target, the company.
48
122170
1586
이건 타겟이라는 회사입니다.
02:03
I didn't just put that logo
49
123756
1324
여기 임신한 여성의 배에 있는 로고는
02:05
on this poor, pregnant woman's belly.
50
125080
2170
제가 넣은 게 아닙니다.
02:07
You may have seen this anecdote that was printed
51
127250
1840
이 이야기를 들어 보신 적이 있으실 거에요.
02:09
in Forbes magazine where Target
52
129090
2061
포브스 잡지에 실린 것인데
02:11
sent a flyer to this 15-year-old girl
53
131151
2361
타겟 회사에서 15살짜리 소녀에게
02:13
with advertisements and coupons
54
133512
1710
젖병, 기저귀, 요람를 위한 광고와 쿠폰 전단지를
02:15
for baby bottles and diapers and cribs
55
135222
2554
그녀가 자신의 부모님에게
02:17
two weeks before she told her parents
56
137776
1684
임신했다는 사실을 말하기 2주 전에
02:19
that she was pregnant.
57
139460
1864
보냈다는 겁니다.
02:21
Yeah, the dad was really upset.
58
141324
2704
네, 그래요. 아버지가 무척 화가 나셨죠.
02:24
He said, "How did Target figure out
59
144028
1716
그가, "어떻게 고등학생이 임신했다는 것을
02:25
that this high school girl was pregnant
60
145744
1824
부모가 알기도 전에
02:27
before she told her parents?"
61
147568
1960
타겟이 먼저 알 수가 있죠?" 라고 말했어요.
02:29
It turns out that they have the purchase history
62
149528
2621
알고 보니 그들은 수 십만명의 고객들에 대한
02:32
for hundreds of thousands of customers
63
152149
2301
구매이력을 가지고 있었고
02:34
and they compute what they call a pregnancy score,
64
154450
2730
그들만의 임신척도라고 하는 것을 계산했어요.
02:37
which is not just whether or not a woman's pregnant,
65
157180
2332
단지 임신을 했는지 안했는지만 보는게 아니라
02:39
but what her due date is.
66
159512
1730
예정일이 언제인지 까지요.
02:41
And they compute that
67
161242
1304
그들이 계산 해낸 것이
02:42
not by looking at the obvious things,
68
162546
1768
아기요람이나 옷을 사는 것과 같은
02:44
like, she's buying a crib or baby clothes,
69
164314
2512
뻔한 것을 통해서 알아 낸 것이 아니고
02:46
but things like, she bought more vitamins
70
166826
2943
평소에 샀던 것보다
02:49
than she normally had,
71
169769
1717
더 많은 비타민을 산다든지
02:51
or she bought a handbag
72
171486
1464
아니면 기저귀를 넣을 수 있을 만큼
02:52
that's big enough to hold diapers.
73
172950
1711
큰 가방을 산다든지 하는 것으로 아는 겁니다.
02:54
And by themselves, those purchases don't seem
74
174661
1910
그 구매자체만 봐서는
02:56
like they might reveal a lot,
75
176571
2469
별로 보여주는 게 없습니다.
02:59
but it's a pattern of behavior that,
76
179040
1978
그것은 행동 패턴으로
03:01
when you take it in the context of thousands of other people,
77
181018
3117
수 천명의 다른 사람들 속에서 보면
03:04
starts to actually reveal some insights.
78
184135
2757
이해할 만한 것이 보입니다.
03:06
So that's the kind of thing that we do
79
186892
1793
그게 우리가 하는 일인데요
03:08
when we're predicting stuff about you on social media.
80
188685
2567
소셜미디어에서 여러분에 대한 것을 예측하는 겁니다.
03:11
We're looking for little patterns of behavior that,
81
191252
2796
여러분이 수 백만명의 사람들 속에서 무언가 발견하면
03:14
when you detect them among millions of people,
82
194048
2682
여러가지 것들을 알 수 있게 해주는
03:16
lets us find out all kinds of things.
83
196730
2706
어떤 행동 패턴들을 찾습니다.
03:19
So in my lab and with colleagues,
84
199436
1747
연구실에서 동료들과
03:21
we've developed mechanisms where we can
85
201183
1777
꽤 정확하게 예측할 수 있는
03:22
quite accurately predict things
86
202960
1560
방법을 개발했습니다.
03:24
like your political preference,
87
204520
1725
여러분의 정치적 성향,
03:26
your personality score, gender, sexual orientation,
88
206245
3752
성격 점수, 성별, 성적 성향,
03:29
religion, age, intelligence,
89
209997
2873
종교, 나이, 지능,
03:32
along with things like
90
212870
1394
거기에다가
03:34
how much you trust the people you know
91
214264
1937
사람들을 얼마나 신뢰하고 있고
03:36
and how strong those relationships are.
92
216201
1804
관계가 얼마나 두터운지도요.
03:38
We can do all of this really well.
93
218005
1785
저희는 이런 걸 정말 잘합니다.
03:39
And again, it doesn't come from what you might
94
219790
2197
다시 말씀드리지만, 여러분이 생각하실 만한 뻔한 정보로
03:41
think of as obvious information.
95
221987
2102
이런 것들을 알아내는 게 아닙니다.
03:44
So my favorite example is from this study
96
224089
2281
올해 미국 국립과학원 회보에 실린
03:46
that was published this year
97
226370
1240
이 연구에서
03:47
in the Proceedings of the National Academies.
98
227610
1795
제가 제일 좋아하는 부분입니다.
03:49
If you Google this, you'll find it.
99
229405
1285
구글 검색을 해보시면 나옵니다.
03:50
It's four pages, easy to read.
100
230690
1872
읽기 쉬운 4페이지 분량이에요.
03:52
And they looked at just people's Facebook likes,
101
232562
3003
여러분들이 좋아하시는 것들에 표시하는
03:55
so just the things you like on Facebook,
102
235565
1920
페이스북의 "좋아요"를 보고서
03:57
and used that to predict all these attributes,
103
237485
2138
다른 것들과 함께
03:59
along with some other ones.
104
239623
1645
어떤 요인을 예측하는데 쓰는 겁니다.
04:01
And in their paper they listed the five likes
105
241268
2961
보고서에는 5개의 "좋아요" 리스트가 있는데
04:04
that were most indicative of high intelligence.
106
244229
2787
높은 지능을 나타내는 강력한 지표였습니다.
04:07
And among those was liking a page
107
247016
2324
그 다섯 가지 중 하나가
꼬부랑 감자에 대한 페이지를 "좋아요"하는 것이었어요. (웃음)
04:09
for curly fries. (Laughter)
108
249340
1905
04:11
Curly fries are delicious,
109
251245
2093
꼬부랑 감자는 맛있지만,
04:13
but liking them does not necessarily mean
110
253338
2530
그것을 좋다고 하는 것이
04:15
that you're smarter than the average person.
111
255868
2080
꼭 평균보다 똑똑하다는 것을 의미하진 않습니다.
04:17
So how is it that one of the strongest indicators
112
257948
3207
그럼 어떻게 여러분의 지능에 관한
04:21
of your intelligence
113
261155
1570
확실한 지표중 하나가
04:22
is liking this page
114
262725
1447
이 페이지를 좋다고 하는 걸까요?
04:24
when the content is totally irrelevant
115
264172
2252
이 내용이 지능이라는 요인과는
04:26
to the attribute that's being predicted?
116
266424
2527
아무런 관련성이 없는데도 말이에요.
04:28
And it turns out that we have to look at
117
268951
1584
왜 그런지 보려면
04:30
a whole bunch of underlying theories
118
270535
1618
그 이면에 있는 여러 가지 이론들을
04:32
to see why we're able to do this.
119
272153
2569
알아 봐야 합니다.
04:34
One of them is a sociological theory called homophily,
120
274722
2913
그 중의 하나가 호모필리라고 하는 사회이론입니다.
04:37
which basically says people are friends with people like them.
121
277635
3092
비슷한 사람들끼리 친구가 된다는 이론입니다.
04:40
So if you're smart, you tend to be friends with smart people,
122
280727
2014
똑똑한 사람은 똑똑한 사람끼리
04:42
and if you're young, you tend to be friends with young people,
123
282741
2630
젊은 사람은 젊은 사람끼리 친구가 되는 경향이 있고
04:45
and this is well established
124
285371
1627
이것은 수 백년 동안
04:46
for hundreds of years.
125
286998
1745
그렇게 굳어졌습니다.
04:48
We also know a lot
126
288743
1232
우리는 잘 압니다.
04:49
about how information spreads through networks.
127
289975
2550
정보가 어떻게 인맥을 통해 퍼지는지요.
04:52
It turns out things like viral videos
128
292525
1754
히트 동영상이나
04:54
or Facebook likes or other information
129
294279
2406
페이스북의 "좋아요", 또는 다른 정보들이
04:56
spreads in exactly the same way
130
296685
1888
사회적 망을 통해서
04:58
that diseases spread through social networks.
131
298573
2454
질병이 퍼지는 방법과 똑같다는 것입니다.
05:01
So this is something we've studied for a long time.
132
301027
1791
이것이 저희가 오랫동안 연구한 것입니다.
05:02
We have good models of it.
133
302818
1576
잘 설명해 줄 수 있는 모델이 있죠.
05:04
And so you can put those things together
134
304394
2157
그러니까 이 모든 정보들을 모아서
05:06
and start seeing why things like this happen.
135
306551
3088
왜 이런 일이 생기는지 알 수 있는 것이죠.
05:09
So if I were to give you a hypothesis,
136
309639
1814
가능한 가설을 말씀드리자면,
05:11
it would be that a smart guy started this page,
137
311453
3227
어떤 똑똑한 사람이 이 페이지를 시작했거나
05:14
or maybe one of the first people who liked it
138
314680
1939
"좋아요" 라고 시작한 사람이
05:16
would have scored high on that test.
139
316619
1736
지능테스트에서 높은 점수를 받았던 거죠.
05:18
And they liked it, and their friends saw it,
140
318355
2288
"좋아요" 한 후에 그 친구들이 봤고,
05:20
and by homophily, we know that he probably had smart friends,
141
320643
3122
호모필리 이론상, 그에겐 똑똑한 친구들이 있을겁니다.
05:23
and so it spread to them, and some of them liked it,
142
323765
3056
그게 그들에게 퍼진 것이고, 몇몇은 "좋아요"를 눌렀을 거구요.
05:26
and they had smart friends,
143
326821
1189
그들에게 있는 똑똑한 친구들에게
05:28
and so it spread to them,
144
328010
807
05:28
and so it propagated through the network
145
328817
1973
다시 퍼지는 겁니다.
그래서 그 관계를 통해 선전이 되는 것이죠.
05:30
to a host of smart people,
146
330790
2569
똑똑한 사람들 집단에게요.
05:33
so that by the end, the action
147
333359
2056
그래서 마침내 꼬부랑 감자를
05:35
of liking the curly fries page
148
335415
2544
"좋아요" 한 행동이
05:37
is indicative of high intelligence,
149
337959
1615
높은 지능의 표시가 되는 겁니다.
05:39
not because of the content,
150
339574
1803
그것이 내용 때문이 아니라
05:41
but because the actual action of liking
151
341377
2522
"좋아요"를 누르는
05:43
reflects back the common attributes
152
343899
1900
행동을 한 사람들의
05:45
of other people who have done it.
153
345799
2468
공통적인 요인 때문인 것이죠.
05:48
So this is pretty complicated stuff, right?
154
348267
2897
꽤 복잡하게 들리시죠?
05:51
It's a hard thing to sit down and explain
155
351164
2199
이걸 보통 사람들에게 설명하기가
05:53
to an average user, and even if you do,
156
353363
2848
어렵습니다. 한다고 해도
05:56
what can the average user do about it?
157
356211
2188
그들이 이걸 갖고 뭘 할까요?
05:58
How do you know that you've liked something
158
358399
2048
여러분이 어떤 것을 좋다고 하는 것이
06:00
that indicates a trait for you
159
360447
1492
좋아하는 내용과는 전혀 관련이 없는
06:01
that's totally irrelevant to the content of what you've liked?
160
361939
3545
어떤 특징을 보여주는 것을 어떻게 알겠어요?
06:05
There's a lot of power that users don't have
161
365484
2546
이런 데이타가 사용되는 방법에 대해
06:08
to control how this data is used.
162
368030
2230
사용자들은 통제력이 거의 없습니다.
06:10
And I see that as a real problem going forward.
163
370260
3112
이것이 앞으로 나아가는데 큰 문제라고 봅니다.
06:13
So I think there's a couple paths
164
373372
1977
우리가 살펴봐야 할
06:15
that we want to look at
165
375349
1001
몇 가지 경우가 있다고 생각합니다.
06:16
if we want to give users some control
166
376350
1910
데이타가 사용되는 것에 대한 통제권을
06:18
over how this data is used,
167
378260
1740
사용자에게 주고 싶은지에 대해서요.
06:20
because it's not always going to be used
168
380000
1940
왜냐하면 이것이 언제나 사용자에게
06:21
for their benefit.
169
381940
1381
좋은 쪽으로만 사용되는 것은 아니니까요.
06:23
An example I often give is that,
170
383321
1422
제가 자주 드는 예가 있는데요,
06:24
if I ever get bored being a professor,
171
384743
1646
제가 만약 교수직을 하는 것이 싫어진다면
06:26
I'm going to go start a company
172
386389
1653
이런 모든 요인들을 예측하는
06:28
that predicts all of these attributes
173
388042
1454
회사를 차릴 수 있을 겁니다.
06:29
and things like how well you work in teams
174
389496
1602
여러분이 팀에서 일을 잘 할 지,
06:31
and if you're a drug user, if you're an alcoholic.
175
391098
2671
마약복용자인지, 알콜 중독자인지 알려주는 회사요.
06:33
We know how to predict all that.
176
393769
1440
예측하는 방법을 알고 있거든요.
06:35
And I'm going to sell reports
177
395209
1761
저는 그 보고서를 판매하는 거죠.
06:36
to H.R. companies and big businesses
178
396970
2100
여러분을 고용하려는 대기업이나
06:39
that want to hire you.
179
399070
2273
인력회사에 말이에요.
06:41
We totally can do that now.
180
401343
1177
지금 그 일들을 할 수가 있어요.
06:42
I could start that business tomorrow,
181
402520
1788
내일 그 사업을 시작할 수도 있죠.
06:44
and you would have absolutely no control
182
404308
2052
제가 그런 데이타를 쓰는 것에 대해
06:46
over me using your data like that.
183
406360
2138
여러분은 통제권이 아예 없습니다.
06:48
That seems to me to be a problem.
184
408498
2292
그게 저에게는 문제로 느껴집니다.
06:50
So one of the paths we can go down
185
410790
1910
우리가 택할 수 있는 방법 중 하나는
06:52
is the policy and law path.
186
412700
2032
정책과 법률입니다.
06:54
And in some respects, I think that that would be most effective,
187
414732
3046
어떤 면에서, 제 생각엔 가장 효과적일 것 같습니다.
06:57
but the problem is we'd actually have to do it.
188
417778
2756
문제는 실제로 그렇게 해야 한다는 겁니다.
07:00
Observing our political process in action
189
420534
2780
정치적인 과정이 돌아가는 것을 보면
07:03
makes me think it's highly unlikely
190
423314
2379
그렇게 될 것 같지가 않습니다.
07:05
that we're going to get a bunch of representatives
191
425693
1597
수 많은 의원님들을 데리고
07:07
to sit down, learn about this,
192
427290
1986
앉혀 놓고, 상황을 알려 준 다음에
07:09
and then enact sweeping changes
193
429276
2106
미국의 지적재산권법에
07:11
to intellectual property law in the U.S.
194
431382
2157
엄청난 변화를 줄 법을 제정해서
07:13
so users control their data.
195
433539
2461
사용자들이 데이타를 통제하게 하는 것이죠.
07:16
We could go the policy route,
196
436000
1304
소셜미디어 회사들이 말하는
07:17
where social media companies say,
197
437304
1479
정책적인 방법을 선택할 수 도 있어요.
07:18
you know what? You own your data.
198
438783
1402
아세요? 데이타는 여러분 것입니다.
07:20
You have total control over how it's used.
199
440185
2489
데이타 사용에 대한 통제권이 여러분에게 있어요.
07:22
The problem is that the revenue models
200
442674
1848
문제는 대부분의 소셜미디어 기업들이
07:24
for most social media companies
201
444522
1724
어떤 방식으로든 사용자들의 데이타를
07:26
rely on sharing or exploiting users' data in some way.
202
446246
4031
공유하고 이용하는 것으로 매출을 얻고 있다는 것입니다.
07:30
It's sometimes said of Facebook that the users
203
450277
1833
페이스북에는 사용자가 있는게 아니라
07:32
aren't the customer, they're the product.
204
452110
2528
상품들이 있는 거라고 얘기하기도 합니다.
07:34
And so how do you get a company
205
454638
2714
어떻게 해야 회사들이
07:37
to cede control of their main asset
206
457352
2558
주요 자산의 통제권을
07:39
back to the users?
207
459910
1249
사용자들에게 돌려 줄까요?
07:41
It's possible, but I don't think it's something
208
461159
1701
가능한 일이지만, 제 생각엔
07:42
that we're going to see change quickly.
209
462860
2320
당장 벌어지진 않을 겁니다.
07:45
So I think the other path
210
465180
1500
그래서 다른 방법으로
07:46
that we can go down that's going to be more effective
211
466680
2288
훨씬 효과적으로 대응할 수 있는 것이
07:48
is one of more science.
212
468968
1508
과학적인 방법을 쓰는 겁니다.
07:50
It's doing science that allowed us to develop
213
470476
2510
애초에 개인적인 데이타를
07:52
all these mechanisms for computing
214
472986
1750
계산해내는 메카니즘을
07:54
this personal data in the first place.
215
474736
2052
만들어 내는 것이 과학입니다.
07:56
And it's actually very similar research
216
476788
2106
사실 이건 우리가 해야 하는 연구와
07:58
that we'd have to do
217
478894
1438
아주 비슷합니다.
08:00
if we want to develop mechanisms
218
480332
2386
사용자에게 이런 경고를 해주는
08:02
that can say to a user,
219
482718
1421
프로그램을 만들려면요.
08:04
"Here's the risk of that action you just took."
220
484139
2229
"방금 하신 일에는 위험이 따릅니다."
08:06
By liking that Facebook page,
221
486368
2080
페이스북의 "좋아요"를 누르시고
08:08
or by sharing this piece of personal information,
222
488448
2535
개인 정보를 공유하심으로써
08:10
you've now improved my ability
223
490983
1502
제가 예측하는 능력을 키워 주시는 거에요.
08:12
to predict whether or not you're using drugs
224
492485
2086
여러분이 마약을 하시는지
08:14
or whether or not you get along well in the workplace.
225
494571
2862
회사에서 잘 지내시는지요.
08:17
And that, I think, can affect whether or not
226
497433
1848
제 생각엔, 그게 영향을 줄 수 있습니다.
08:19
people want to share something,
227
499281
1510
어떤 것을 공유할 지
08:20
keep it private, or just keep it offline altogether.
228
500791
3239
비밀로 할지, 아예 오프라인으로만 갖고 있을지요.
08:24
We can also look at things like
229
504030
1563
이런 것도 생각 해 볼 수 있습니다.
08:25
allowing people to encrypt data that they upload,
230
505593
2728
업로드하는 데이타를 암호화해서
08:28
so it's kind of invisible and worthless
231
508321
1855
페이스북 같은 사이트나
08:30
to sites like Facebook
232
510176
1431
제3자가 아예 추적도 못하고
08:31
or third party services that access it,
233
511607
2629
쓸 수도 없게 말입니다.
08:34
but that select users who the person who posted it
234
514236
3247
하지만 업로드한 사용자가 지정한 사람만
08:37
want to see it have access to see it.
235
517483
2670
그것을 보게 해 주는 것이죠.
08:40
This is all super exciting research
236
520153
2166
지적인 관점에서 보면
이것은 대단히 설레는 연구입니다.
08:42
from an intellectual perspective,
237
522319
1620
08:43
and so scientists are going to be willing to do it.
238
523939
1859
과학자들은 기꺼이 하려고 합니다.
08:45
So that gives us an advantage over the law side.
239
525798
3610
그래서 법률적인 측면에서 우리에게 유리하도록 말입니다.
08:49
One of the problems that people bring up
240
529408
1725
제가 이런 말을 할때
08:51
when I talk about this is, they say,
241
531133
1595
사람들이 제기하는 문제가 있는데요,
08:52
you know, if people start keeping all this data private,
242
532728
2646
"모두가 데이타를 비밀로 한다면
08:55
all those methods that you've been developing
243
535374
2113
당신이 예측하려고 개발하는 방법들이
08:57
to predict their traits are going to fail.
244
537487
2653
다 실패할 겁니다." 라고 말이에요.
09:00
And I say, absolutely, and for me, that's success,
245
540140
3520
그럼 저는, "맞아요, 그럼 성공한 거에요" 라고요.
09:03
because as a scientist,
246
543660
1786
저는 과학자로서
09:05
my goal is not to infer information about users,
247
545446
3688
사용자들에 대한 정보를 추측하는게 아니라
09:09
it's to improve the way people interact online.
248
549134
2767
온라인에서 더 좋은 방법으로 교류하도록 하는게 목표이니까요.
09:11
And sometimes that involves inferring things about them,
249
551901
3218
어떤 때는 그들에 대한 정보를 추측하는 일이 생깁니다.
09:15
but if users don't want me to use that data,
250
555119
3022
하지만 사용자가 원치 않으면,
09:18
I think they should have the right to do that.
251
558141
2038
제 생각엔 그들에게 그럴 권리가 있습니다.
09:20
I want users to be informed and consenting
252
560179
2651
우리가 개발한 방법들을
09:22
users of the tools that we develop.
253
562830
2112
사용자들에게 알려주고 동의를 받고 싶습니다.
09:24
And so I think encouraging this kind of science
254
564942
2952
이러한 과학을 장려하고
09:27
and supporting researchers
255
567894
1346
사용자들에게
09:29
who want to cede some of that control back to users
256
569240
3023
통제권을 돌려주고 소셜미디어 회사들로부터
09:32
and away from the social media companies
257
572263
2311
멀어지도록 하는 연구자들을 지원하는 것이
09:34
means that going forward, as these tools evolve
258
574574
2671
이 개발도구들이 변화하고 발전하면서
09:37
and advance,
259
577245
1476
앞으로 나아가는 것입니다.
09:38
means that we're going to have an educated
260
578721
1414
또한 지식이 있고
09:40
and empowered user base,
261
580135
1694
권리가 있는 사용자들이 생긴다는 것이죠.
09:41
and I think all of us can agree
262
581829
1100
저는 앞으로 나아가기 위해
09:42
that that's a pretty ideal way to go forward.
263
582929
2564
모두가 동의할 만한 것이라고 생각합니다.
09:45
Thank you.
264
585493
2184
감사합니다.
09:47
(Applause)
265
587677
3080
(박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7