Del Harvey: The strangeness of scale at Twitter

105,340 views ・ 2014-03-27

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: K Bang 검토: Damin Park
00:12
My job at Twitter
0
12984
1291
저는 트위터에서 하는 일은
00:14
is to ensure user trust,
1
14275
1978
사용자의 신뢰를 구축하고,
00:16
protect user rights and keep users safe,
2
16253
2837
권리를 보호하며, 그들을 안전하게 보호하는 것입니다.
00:19
both from each other
3
19090
1260
사용자 간에도 그렇고
00:20
and, at times, from themselves.
4
20350
3899
사용자 자신에 대해서도 마찬가지입니다.
00:24
Let's talk about what scale looks like at Twitter.
5
24249
4275
트위터의 규모가 어떤지 한번 보도록 하시죠.
00:28
Back in January 2009,
6
28524
2870
2009년 1월로 돌아가 보면
00:31
we saw more than two million new tweets each day
7
31394
3331
트위터 상에 매일 약 2백만 개 이상의 새로운 트윗이
00:34
on the platform.
8
34725
1764
게시되었습니다.
00:36
January 2014, more than 500 million.
9
36489
5908
2014년 1월에는 5억 건이 넘었습니다.
00:42
We were seeing two million tweets
10
42397
2492
2백만 개의 트윗이
00:44
in less than six minutes.
11
44889
2176
6분도 되지 않는 시간에 게시되는 것이죠.
00:47
That's a 24,900-percent increase.
12
47065
6984
그건 대략 24,900%의 증가입니다.
00:54
Now, the vast majority of activity on Twitter
13
54049
3253
트위터 상에서 대다수의 활동은
00:57
puts no one in harm's way.
14
57302
1503
그 누구에게도 해를 가하지 않습니다.
00:58
There's no risk involved.
15
58805
1935
어떤 위험도 없습니다.
01:00
My job is to root out and prevent activity that might.
16
60740
5753
저의 임무는 위험할지 모를 행위를
분류하고 예방하는 것이에요.
간단하게 들리시죠?
01:06
Sounds straightforward, right?
17
66493
1973
01:08
You might even think it'd be easy,
18
68466
1152
쉽다고 생각하실지도 모르겠어요.
01:09
given that I just said the vast majority
19
69618
2170
방금 제가 말씀드렸듯 트위터 내 대부분의 행위는
01:11
of activity on Twitter puts no one in harm's way.
20
71788
3810
다른 이에게 해가 되지 않으니까요.
01:15
Why spend so much time
21
75598
2169
그런데 왜 무해한 행위 가운데
01:17
searching for potential calamities
22
77767
2743
문제가 될지 모를 행위를 찾는데
01:20
in innocuous activities?
23
80510
2900
그렇게 많은 시간을 허비할까요?
01:23
Given the scale that Twitter is at,
24
83410
2940
현재 트위터의 규모를 고려해보면
01:26
a one-in-a-million chance happens
25
86350
2357
백만 분의 일이라는 확률은
01:28
500 times a day.
26
88707
4876
하루에 500번 일어납니다.
01:33
It's the same for other companies
27
93583
1445
이 정도의 규모를 다루는 회사들은
01:35
dealing at this sort of scale.
28
95028
1471
모두 비슷한 상황에 있어요.
01:36
For us, edge cases,
29
96499
1708
저희로서는 극단적인 상황,
01:38
those rare situations that are unlikely to occur,
30
98207
3625
거의 발생할 것 같지 않은 드문 상황들이
01:41
are more like norms.
31
101832
2622
좀 더 일반적입니다.
01:44
Say 99.999 percent of tweets
32
104454
3942
말하자면 99.999%의 트윗은
01:48
pose no risk to anyone.
33
108396
1888
사람들에게 아무런 위험이 되지 않아요.
01:50
There's no threat involved.
34
110284
1066
어떤 위험 요소도 없습니다.
01:51
Maybe people are documenting travel landmarks
35
111350
2954
누구는 호주의 하트형 산호초와 같은
01:54
like Australia's Heart Reef,
36
114304
1963
여행의 중요 지점을 문서화하기도 하고
01:56
or tweeting about a concert they're attending,
37
116267
2921
다른 누구는 참석한 음악회에 대해 트윗을 하죠.
01:59
or sharing pictures of cute baby animals.
38
119188
4747
혹은 귀여운 어린 동물 사진을 공유하기도 합니다.
02:03
After you take out that 99.999 percent,
39
123935
4509
그런 99.999%를 제외하고 남은
02:08
that tiny percentage of tweets remaining
40
128444
3529
아주 작은 일부가
02:11
works out to roughly
41
131973
2389
대략
02:14
150,000 per month.
42
134362
3475
한 달에 150,000건 정도 됩니다.
02:17
The sheer scale of what we're dealing with
43
137837
2456
저희가 처리하고 있는 그 단순한 숫자는
02:20
makes for a challenge.
44
140293
2312
도전이 됩니다.
02:22
You know what else makes my role
45
142605
1178
그 외에 어떤 것이 제 직책을
02:23
particularly challenging?
46
143783
3107
특별히 힘들게 할까요?
02:26
People do weird things.
47
146890
5123
사람들은 정말 이상한 짓도 합니다.
02:32
(Laughter)
48
152013
1829
(웃음)
02:33
And I have to figure out what they're doing,
49
153842
2391
그리고 전 그 사람들이 무엇을 하는지 알아내야하고
02:36
why, and whether or not there's risk involved,
50
156233
2249
그 이유와 잠재적 관련 위험도 알아내야만 합니다.
02:38
often without much in terms of context
51
158482
2168
종종 그 내용이나 배경을
02:40
or background.
52
160650
1847
잘 모른 체 말이죠.
02:42
I'm going to show you some examples
53
162497
2077
제가 트위터에서 일하면서 맞닥뜨린 몇 가지 예를
02:44
that I've run into during my time at Twitter --
54
164574
2005
보여드리도록 하겠습니다.
02:46
these are all real examples —
55
166579
1620
이건 모두 실제의 예들입니다.
02:48
of situations that at first seemed cut and dried,
56
168199
2653
이런 것들은 처음 보기에는 말끔하고 단순해 보이지만
02:50
but the truth of the matter was something
57
170852
1643
사실은 매우
02:52
altogether different.
58
172495
1550
다른 것들이기도 합니다.
02:54
The details have been changed
59
174045
1977
죄없는 사람들과
02:56
to protect the innocent
60
176022
1257
때로는 문제가 있는 사람들을 보호하기 위해
02:57
and sometimes the guilty.
61
177279
3233
세부 내용은 바꾼 것입니다.
03:00
We'll start off easy.
62
180512
3005
쉬운 것부터 시작해보죠.
03:03
["Yo bitch"]
63
183517
1793
["개같은 년"]
03:05
If you saw a Tweet that only said this,
64
185310
3228
트위터에서 단순히 이렇게 말한 것을 보신다면
03:08
you might think to yourself,
65
188538
1694
이렇게 생각하실지도 모르죠.
03:10
"That looks like abuse."
66
190232
1653
"욕설이군."
03:11
After all, why would you want to receive the message,
67
191885
3107
어쨌든 왜 이런 메세지를 받고 싶어하겠습니까?
03:14
"Yo, bitch."
68
194992
2218
"개같은 년"
03:17
Now, I try to stay relatively hip
69
197210
4663
저는 최신 유행과 문화 요소에
03:21
to the latest trends and memes,
70
201873
2512
잘 따라가려고 노력합니다.
03:24
so I knew that "yo, bitch"
71
204385
2704
그래서 전 "개같은 년"이란 욕설은
03:27
was also often a common greeting between friends,
72
207089
3154
흔히 친구들 사이에 일반적인 인사란 걸 알았습니다.
03:30
as well as being a popular "Breaking Bad" reference.
73
210243
4262
인기있는 "브레이킹 배드"로 인해 유명해지기도 했었죠.
03:34
I will admit that I did not expect
74
214505
2487
사실 저는 네번째 사용처에 대해서는
03:36
to encounter a fourth use case.
75
216992
2841
전혀 예상하지 못했다고 인정합니다.
03:39
It turns out it is also used on Twitter
76
219833
3104
트위터에서는 이 말은 사람들이
03:42
when people are role-playing as dogs.
77
222937
3062
개 연기를 할 때 사용하는 것으로 드러났습니다.
03:45
(Laughter)
78
225999
5279
(웃음)
03:51
And in fact, in that case,
79
231278
1666
사실, 이런 경우에
03:52
it's not only not abusive,
80
232944
1609
이건 욕도 아닐 뿐더러
03:54
it's technically just an accurate greeting.
81
234553
3139
엄밀히 말하면 딱 알맞는 인사법이기도 하죠.
03:57
(Laughter)
82
237692
2889
(웃음)
04:00
So okay, determining whether or not
83
240581
2071
좋습니다. 문장도 없이
04:02
something is abusive without context,
84
242652
1848
뭔가가 욕인지 아닌지 결정하는 것은
04:04
definitely hard.
85
244500
1592
분명히 어려운 일입니다.
04:06
Let's look at spam.
86
246092
2717
스팸을 볼까요.
04:08
Here's an example of an account engaged
87
248809
1960
여기 전형적인 스팸의 행동을 보이는
04:10
in classic spammer behavior,
88
250769
1668
계정의 예가 있습니다.
04:12
sending the exact same message
89
252437
1559
정말 똑같은 메세지를
04:13
to thousands of people.
90
253996
1804
수천 명의 사람들에게 보내는 거죠.
04:15
While this is a mockup I put together using my account,
91
255800
2793
이건 제 계정을 이용해서 가짜로 만들어 본 것인데
04:18
we see accounts doing this all the time.
92
258593
3001
이런 짓을 하는 사람들이 항상 있습니다.
04:21
Seems pretty straightforward.
93
261594
1979
상당히 확실해 보이지요.
04:23
We should just automatically suspend accounts
94
263573
2053
저희는 이런 행동을 하는 의심스런 계정은
04:25
engaging in this kind of behavior.
95
265626
3307
자동적으로 정지시킵니다.
04:28
Turns out there's some exceptions to that rule.
96
268933
3210
이런 규칙에 몇몇 예외가 있습니다.
04:32
Turns out that that message could also be a notification
97
272143
2883
저 메세지는 당신이 국제 우주 정거장을
04:35
you signed up for that the International Space Station is passing overhead
98
275026
3889
밖에 나가 볼 수 있는지 확인하고 싶어
04:38
because you wanted to go outside
99
278915
1846
그게 지금 머리 위를 지나고 있는지 알려주는
04:40
and see if you could see it.
100
280761
1948
메세지 일 수도 있습니다.
04:42
You're not going to get that chance
101
282709
1225
저희가 그걸 스팸으로 잘못 알고
04:43
if we mistakenly suspend the account
102
283934
1847
계정을 실수로 정지시키면
04:45
thinking it's spam.
103
285781
2266
사람들은 그렇게 할 기회를 갖지 못하겠죠.
04:48
Okay. Let's make the stakes higher.
104
288047
3526
이제 수위를 좀 더 높여보겠습니다.
04:51
Back to my account,
105
291573
1916
제 계정으로 돌아가서
04:53
again exhibiting classic behavior.
106
293489
3505
고전적인 행동을 다시 보여드리죠.
04:56
This time it's sending the same message and link.
107
296994
2643
이번에는 똑같은 메세지와 링크를 보내고 있습니다.
04:59
This is often indicative of something called phishing,
108
299637
2774
이건 보통 피싱이라는 걸 표시하는 신호입니다.
05:02
somebody trying to steal another person's account information
109
302411
3178
누군가 사람들을 다른 웹사이트로 이끌어
05:05
by directing them to another website.
110
305589
2203
그 사람들의 계정 정보를 탈취하는 겁니다.
05:07
That's pretty clearly not a good thing.
111
307792
4194
분명히 옳은 행동이 아니죠.
05:11
We want to, and do, suspend accounts
112
311986
1930
저희는 이런 행동을 보이는 계정은
05:13
engaging in that kind of behavior.
113
313916
2624
정지시키길 원하고 실제로 그렇게 합니다.
05:16
So why are the stakes higher for this?
114
316540
3247
왜 이런 경우의 위험성이 더 클까요?
05:19
Well, this could also be a bystander at a rally
115
319787
2999
자, 이건 마치 집회 현장에서
05:22
who managed to record a video
116
322786
1910
무슨 일이 일어나고 있는지 세상에 알리려는
05:24
of a police officer beating a non-violent protester
117
324696
3270
비폭력적 집회 참여자를
05:27
who's trying to let the world know what's happening.
118
327966
2975
구타하는 경찰을 녹화하는 구경꾼과 같은데요.
05:30
We don't want to gamble
119
330941
1643
저희는 중요한 의견을 스팸으로 처리하거나
05:32
on potentially silencing that crucial speech
120
332584
2517
정지시킴으로써 잠재적으로
05:35
by classifying it as spam and suspending it.
121
335101
2929
침묵을 강요하는 도박을 하고 싶지는 않아요.
05:38
That means we evaluate hundreds of parameters
122
338030
2879
그 말은 우리가 계정 활동을 볼 때,
05:40
when looking at account behaviors,
123
340909
1688
수백개의 변수를 감정한다는 겁니다.
05:42
and even then, we can still get it wrong
124
342597
2016
심지어 그 후에도 실수가 있을 수 있고
05:44
and have to reevaluate.
125
344613
2236
평가 작업을 다시 해야 하기도 하죠.
05:46
Now, given the sorts of challenges I'm up against,
126
346849
3708
제가 직면하는 모든 종류의 도전을 감안할 때
05:50
it's crucial that I not only predict
127
350557
2696
전 예측하는 것뿐만 아니라 예상 밖의 것에 대한
05:53
but also design protections for the unexpected.
128
353253
3784
안전 장치를 만드는 것도 중요합니다.
05:57
And that's not just an issue for me,
129
357037
2342
그건 저만의 문제가 아니라
05:59
or for Twitter, it's an issue for you.
130
359379
2087
트위터에 대해 여러분이 제기하는 문제점이에요.
06:01
It's an issue for anybody who's building or creating
131
361466
2406
그건 여러분이 대단할거라 생각하고
06:03
something that you think is going to be amazing
132
363872
1925
또 사람들로 하여금 멋진 일을 하게 해줄 것을
06:05
and will let people do awesome things.
133
365797
2789
만들고 창조하는 그 누구에게든 문제가 됩니다.
06:08
So what do I do?
134
368586
2866
그럼 저는 어떻게 할까요?
06:11
I pause and I think,
135
371452
3318
잠시 멈춰 생각하는 겁니다.
06:14
how could all of this
136
374770
2095
어떻게 이 모든 것이 상상할 수 조차 없게
06:16
go horribly wrong?
137
376865
3793
잘못될 수 있을까?
06:20
I visualize catastrophe.
138
380658
4453
저는 최악의 상황을 떠올립니다.
06:25
And that's hard. There's a sort of
139
385111
2463
그건 어려운 일이에요.
06:27
inherent cognitive dissonance in doing that,
140
387574
2848
그렇게 하는 데에는 일종의 내재적, 인지적 불협화음이 있죠.
06:30
like when you're writing your wedding vows
141
390422
1812
마치 혼인 서약서를 쓰는 동시에
06:32
at the same time as your prenuptial agreement.
142
392234
2646
혼전 합의서를 작성하는 것 같은거죠.
06:34
(Laughter)
143
394880
1696
(웃음)
06:36
But you still have to do it,
144
396576
2373
그래도 해야 합니다.
06:38
particularly if you're marrying 500 million tweets per day.
145
398949
4446
특히 하루 5억 건의 트윗과 결혼하려면요.
06:43
What do I mean by "visualize catastrophe?"
146
403395
3097
제가 "최악을 떠올린다" 라는건 무슨 말일까요?
06:46
I try to think of how something as
147
406492
2762
저는 고양이 사진처럼
06:49
benign and innocuous as a picture of a cat
148
409254
3228
악의없이 천진난만한 것이
06:52
could lead to death,
149
412482
1104
어떻게 죽음을 야기하는지
06:53
and what to do to prevent that.
150
413586
2326
그리고 그런 걸 어떻게 방지할지 생각하려고 합니다.
06:55
Which happens to be my next example.
151
415912
2383
그것이 제가 준비한 다음 예인데요.
06:58
This is my cat, Eli.
152
418295
3110
이건 제가 고양이 엘리입니다.
07:01
We wanted to give users the ability
153
421405
1981
저희는 사용자들에게
07:03
to add photos to their tweets.
154
423386
2073
자신의 트위터에 사진을 올릴 수 있게 하고 싶었습니다.
07:05
A picture is worth a thousand words.
155
425459
1597
사진은 천 마디 말의 값어치가 있으니까요.
07:07
You only get 140 characters.
156
427056
2009
단어는 겨우 140개 밖에 쓸 수 없잖아요.
07:09
You add a photo to your tweet,
157
429065
1200
트위터에 사진을 올리면
07:10
look at how much more content you've got now.
158
430265
3038
얼마나 많은 내용이 채워지는지 한번 보세요.
07:13
There's all sorts of great things you can do
159
433303
1677
트위터에 사진을 올릴 수 있으면
07:14
by adding a photo to a tweet.
160
434980
2007
상당히 많은 대단한 것들을 할 수 있습니다.
07:16
My job isn't to think of those.
161
436987
2280
제 직업은 그런 것을 생각하는 것이 아니에요.
07:19
It's to think of what could go wrong.
162
439267
2747
그게 어떻게 잘못 될 수 있는지 생각해내는 것이죠.
07:22
How could this picture
163
442014
1892
이 사진이 어떻게
07:23
lead to my death?
164
443906
3539
절 죽음으로 이끌 수 있을까요?
07:27
Well, here's one possibility.
165
447445
3160
이런 가능성이 있습니다.
07:30
There's more in that picture than just a cat.
166
450605
3086
저 사진에는 고양이 이상의 것이 담겨 있어요.
07:33
There's geodata.
167
453691
2092
지리 정보가 있죠.
07:35
When you take a picture with your smartphone
168
455783
2212
스마트폰이나 디지털 카메라로
07:37
or digital camera,
169
457995
1299
사진을 찍으면
07:39
there's a lot of additional information
170
459294
1654
수많은 부가 정보가 그 사진과 함께
07:40
saved along in that image.
171
460948
1616
저장됩니다.
07:42
In fact, this image also contains
172
462564
1932
사실 이 사진에는
07:44
the equivalent of this,
173
464496
1805
그런 비슷한 게 들어있어요.
07:46
more specifically, this.
174
466301
3079
더 정확하게는 바로 이겁니다.
07:49
Sure, it's not likely that someone's going to try
175
469380
1956
맞습니다. 제가 찍은 고양이 사진에
07:51
to track me down and do me harm
176
471336
2285
담긴 정보를 이용하여
07:53
based upon image data associated
177
473621
1784
누군가가 저에 대해 알아보고
07:55
with a picture I took of my cat,
178
475405
1948
저를 해칠 것 같지는 않아요.
07:57
but I start by assuming the worst will happen.
179
477353
3651
하지만 전 최악이 일어날거라 가정하며 시작합니다.
08:01
That's why, when we launched photos on Twitter,
180
481004
2338
그게 바로 저희가 트위터에 사진을 올릴 수 있게 했을 때
08:03
we made the decision to strip that geodata out.
181
483342
3821
지리 정보를 지운다는 결정을 내린 이유에요.
08:07
(Applause)
182
487163
5847
(박수)
08:13
If I start by assuming the worst
183
493010
2613
최악의 가정으로 시작해서
08:15
and work backwards,
184
495623
947
역으로 작업하면
08:16
I can make sure that the protections we build
185
496570
2553
저희가 만드는 개인 보호 장치가
08:19
work for both expected
186
499123
1768
예상했거나 예상치 못했던 상황
08:20
and unexpected use cases.
187
500891
2078
모두에서 사용되게 할 수 있습니다.
08:22
Given that I spend my days and nights
188
502969
2945
일어날 수 있는 최악을 밤낮으로
08:25
imagining the worst that could happen,
189
505914
2541
생각하며 시간을 보냈다고 할 때
08:28
it wouldn't be surprising if my worldview was gloomy.
190
508455
4257
제 세계관이 우울하다 해도 놀랄 일이 아니지요.
08:32
(Laughter)
191
512712
1783
(웃음)
08:34
It's not.
192
514495
1417
그렇지 않습니다.
08:35
The vast majority of interactions I see --
193
515912
3876
제가 보는 대부분의 상호 반응,
08:39
and I see a lot, believe me -- are positive,
194
519788
3901
사실 전 엄청 많이 보는데요, 거의 다 긍정적입니다.
08:43
people reaching out to help
195
523689
1924
도움을 주려고 하거나
08:45
or to connect or share information with each other.
196
525613
3448
서로 연결하여 정보를 공유하는 사람들입니다.
08:49
It's just that for those of us dealing with scale,
197
529061
3323
이만한 규모를 다루고
08:52
for those of us tasked with keeping people safe,
198
532384
3800
사람들을 안전하게 보호해야 하는
08:56
we have to assume the worst will happen,
199
536184
2546
저희는 최악의 상황이 발생할거라 가정해야만 합니다.
08:58
because for us, a one-in-a-million chance
200
538730
4227
왜냐하면 저희에게 백만분의 일이라는 확률은
09:02
is pretty good odds.
201
542957
2749
엄청나게 큰 확률이기 때문입니다.
09:05
Thank you.
202
545706
1864
감사합니다.
09:07
(Applause)
203
547570
4000
(박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7