How Twitter needs to change | Jack Dorsey

185,541 views ・ 2019-06-07

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: Soobin Ahn 검토: Yunjung Nam
00:13
Chris Anderson: What worries you right now?
0
13131
2408
크리스 앤더슨: 지금 걱정하는 건 무엇인가요?
00:15
You've been very open about lots of issues on Twitter.
1
15563
2853
트위터에 관한 다양한 이슈를 알고 계실 겁니다
00:18
What would be your top worry
2
18440
2299
현재 상황에서 가장 걱정하는 것은 무엇인가요?
00:20
about where things are right now?
3
20763
2049
00:23
Jack Dorsey: Right now, the health of the conversation.
4
23447
2929
잭 도시: 지금 당장은, 대화의 건전성이요.
00:26
So, our purpose is to serve the public conversation,
5
26400
3660
저희의 목적은 대중의 대화에 기여하는 것이지만
00:30
and we have seen a number of attacks on it.
6
30084
5056
대화 중 일어나는 많은 공격을 봤습니다.
00:35
We've seen abuse, we've seen harassment,
7
35164
2425
우리는 욕설도 봤고, 괴롭힘도 봤으며,
00:37
we've seen manipulation,
8
37613
3222
조작도 봤었고,
00:40
automation, human coordination, misinformation.
9
40859
4265
자동화나, 인간의 조직화, 또는 허위정보도 있었습니다.
00:46
So these are all dynamics that we were not expecting
10
46134
4034
모두 저희가 예상치 못했던 상황입니다.
00:50
13 years ago when we were starting the company.
11
50192
3718
13년 전에 회사를 세웠을 때는 예상치 못했던 것들이죠.
00:53
But we do now see them at scale,
12
53934
2664
하지만 이런 문제의 규모가 점점 커졌습니다.
00:56
and what worries me most is just our ability to address it
13
56622
5278
가장 걱정하는 건 이 문제를 다루는 저희의 능력입니다.
01:01
in a systemic way that is scalable,
14
61924
3108
확장 가능하고 체계적인 방법이어야 하고
01:05
that has a rigorous understanding of how we're taking action,
15
65056
6976
저희가 조치를 취하는 방법을 철저히 이해해야 해요.
01:12
a transparent understanding of how we're taking action
16
72056
3105
즉, 행동을 취하는 방법에 대한 확실한 이해가 필요해요.
01:15
and a rigorous appeals process for when we're wrong,
17
75185
3101
그리고 저희가 잘못했을 때 확실한 항소 절차가 필요하죠.
01:18
because we will be wrong.
18
78310
2169
저희는 잘못을 저지를 수밖에 없으니까요.
01:20
Whitney Pennington Rodgers: I'm really glad to hear
19
80503
2397
휘트니 페닝턴 로저스: 그런 걱정을 들으니 정말 기쁘네요.
01:22
that that's something that concerns you,
20
82924
1928
01:24
because I think there's been a lot written about people
21
84876
2630
왜냐하면 트위터에서 욕설을 듣거나 괴롭힘을 당하는
01:27
who feel they've been abused and harassed on Twitter,
22
87530
2477
사람들에 대한 글이 많았거든요.
01:30
and I think no one more so than women and women of color
23
90031
4102
특히나 여성, 유색인 여성,
01:34
and black women.
24
94157
1170
흑인 여성에게요.
01:35
And there's been data that's come out --
25
95351
1913
국제 앰네스티에서
01:37
Amnesty International put out a report a few months ago
26
97288
2909
몇 달 전 발표한 보고서에 따르면
01:40
where they showed that a subset of active black female Twitter users
27
100221
4480
흑인 여성 트위터 사용자의 일부가
01:44
were receiving, on average, one in 10 of their tweets
28
104725
3456
트윗할 때마다 평균적으로 10번 중에 1번은
01:48
were some form of harassment.
29
108205
2099
괴롭힘을 당하고 있다고 합니다.
01:50
And so when you think about health for the community on Twitter,
30
110328
3907
건강한 트위터 커뮤니티에 대한 생각을 말씀하실 때
01:54
I'm interested to hear, "health for everyone,"
31
114259
4024
"모두를 위한 건강"이라는 말을 흥미롭게 들었습니다.
01:58
but specifically: How are you looking to make Twitter a safe space
32
118307
3125
하지만 구체적으로 어떻게 여성, 유색인종인 여성과
02:01
for that subset, for women, for women of color and black women?
33
121456
4164
흑인 여성에게도 안전한 장소로 만들 계획이신가요?
02:05
JD: Yeah.
34
125644
1164
잭: 맞아요.
02:06
So it's a pretty terrible situation
35
126832
2643
그건 정말 끔찍한 상황이죠.
02:09
when you're coming to a service
36
129499
1619
사람들은 트위터를 이용하면서
02:11
that, ideally, you want to learn something about the world,
37
131142
4321
세계에 대해 더 배우는 걸 꿈꿨지만,
02:15
and you spend the majority of your time reporting abuse, receiving abuse,
38
135487
5443
그 시간의 대부분을 욕을 듣거나, 비방 받거나, 괴롭힘을 당하고
02:20
receiving harassment.
39
140954
1804
신고를 하며 보내죠.
02:23
So what we're looking most deeply at is just the incentives
40
143373
6321
그래서 가장 자세히 보려는 것은 플랫폼과 서비스가
02:29
that the platform naturally provides and the service provides.
41
149718
3823
자연스럽게 제공하는 장려책입니다.
02:34
Right now, the dynamic of the system makes it super-easy to harass
42
154262
4577
지금 당장은, 괴롬힘이 일어나기 너무 쉬운 시스템이죠.
02:38
and to abuse others through the service,
43
158863
3664
다른 사람을 비방하는 것도요.
02:42
and unfortunately, the majority of our system in the past
44
162551
3262
불행히도, 과거에 저희 시스템의 대부분은
02:45
worked entirely based on people reporting harassment and abuse.
45
165837
5596
온전히 사람들이 비방과 남용을 신고하는 것에만 의지했었죠.
02:51
So about midway last year, we decided that we were going to apply
46
171457
5075
그래서 작년 중반에 저희는 그 문제에
02:56
a lot more machine learning, a lot more deep learning to the problem,
47
176556
3982
더 많은 기계학습과 딥 러닝을 적용해 보기로 결정했습니다.
03:00
and try to be a lot more proactive around where abuse is happening,
48
180562
4538
또 어디서 비방이 일어나고 있는지에 대해 사전 대책을 찾으려 했습니다.
03:05
so that we can take the burden off the victim completely.
49
185124
3960
피해자의 부담을 완전히 덜어버리기 위해서요.
03:09
And we've made some progress recently.
50
189108
2435
그리고 최근에 어느 정도 진전이 있었습니다.
03:11
About 38 percent of abusive tweets are now proactively identified
51
191567
6689
기계학습 알고리즘을 통해서 비방 트윗 중 38%를
03:18
by machine learning algorithms
52
198280
1715
사전에 파악할 수 있습니다.
03:20
so that people don't actually have to report them.
53
200019
2334
그래서 더 이상 신고할 필요가 없어졌습니다.
03:22
But those that are identified are still reviewed by humans,
54
202377
3305
하지만 그렇게 파악한 트윗들은 여전히 사람이 검토합니다
03:25
so we do not take down content or accounts without a human actually reviewing it.
55
205706
5384
사람이 직접 확인하지 않으면 컨텐츠나 계정을 삭제하지 않습니다.
03:31
But that was from zero percent just a year ago.
56
211114
2759
하지만 불과 일 년 전만 해도 0%였죠.
03:33
So that meant, at that zero percent,
57
213897
1931
다시 말해, 비율이 0%였을 때는
03:35
every single person who received abuse had to actually report it,
58
215852
3650
비방을 받은 사람이 직접 신고해야만 했고,
03:39
which was a lot of work for them, a lot of work for us
59
219526
3579
그건 그들에게도 저희에게도 너무 복잡한 일이었습니다.
03:43
and just ultimately unfair.
60
223129
2018
그리고 정말 부당한 일이었죠.
03:46
The other thing that we're doing is making sure that we, as a company,
61
226528
3780
또 회사에서 진행 중인 다른 작업으로는
03:50
have representation of all the communities that we're trying to serve.
62
230332
3333
반드시 모든 공동체가 표현할 수 있게 만드는 겁니다.
03:53
We can't build a business that is successful
63
233689
2159
실제로 저희 장벽 안에서
03:55
unless we have a diversity of perspective inside of our walls
64
235872
3300
이런 문제를 매일 느끼는 다양한 시각이 없다면
03:59
that actually feel these issues every single day.
65
239196
3732
저희는 성공적인 비즈니스를 구축할 수 없습니다.
04:02
And that's not just with the team that's doing the work,
66
242952
3738
단순히 그 작업을 하는 팀뿐만 아니라
04:06
it's also within our leadership as well.
67
246714
2096
저희 리더십 안에서도 이뤄져야 하는 거죠.
04:08
So we need to continue to build empathy for what people are experiencing
68
248834
5757
그래서 사람들이 경험한 것에 공감대를 형성하고
04:14
and give them better tools to act on it
69
254615
3316
사람들이 이용할 수 있는 더 나은 도구를 주려는 겁니다.
04:17
and also give our customers a much better and easier approach
70
257955
4252
또 고객이 보고 있는 걸 처리할 수 있는
04:22
to handle some of the things that they're seeing.
71
262231
2382
더 쉽고 좋은 접근 방식도 제공해야 합니다.
04:24
So a lot of what we're doing is around technology,
72
264637
3266
대부분의 작업은 기술과 관련된 것이지만
04:27
but we're also looking at the incentives on the service:
73
267927
4308
장려 제도 역시 검토하고 있습니다.
04:32
What does Twitter incentivize you to do when you first open it up?
74
272259
5183
트위터를 처음 켰을 때 무엇을 하도록 유도하나요?
04:37
And in the past,
75
277466
1294
예전에는,
04:40
it's incented a lot of outrage, it's incented a lot of mob behavior,
76
280670
5544
큰 분노를 일으키고 많은 군중 행위를 일으켰으며
04:46
it's incented a lot of group harassment.
77
286238
2459
집단 폭력을 많이 일으켰죠.
04:48
And we have to look a lot deeper at some of the fundamentals
78
288721
3648
큰 변화를 일으키기 위해서는 서비스가 하는 일의
04:52
of what the service is doing to make the bigger shifts.
79
292393
2958
기본 원칙을 자세히 살펴봐야 합니다.
04:55
We can make a bunch of small shifts around technology, as I just described,
80
295375
4031
제가 말씀드렸듯이, 기술을 이용해 수많은 작은 변화를 만들 수 있습니다.
04:59
but ultimately, we have to look deeply at the dynamics in the network itself,
81
299430
4386
하지만 궁극적으로는 네트워크 그 자체의 역학관계를 자세히 살펴봐야 합니다.
05:03
and that's what we're doing.
82
303840
1368
그게 저희가 하는 거죠.
05:05
CA: But what's your sense --
83
305232
2060
크리스: 그렇다면 어떤...
05:07
what is the kind of thing that you might be able to change
84
307316
3963
어떤 게 실제로 행동의 근본적인 변화를
05:11
that would actually fundamentally shift behavior?
85
311303
2749
만들어낼 수 있을까요?
05:15
JD: Well, one of the things --
86
315386
1480
잭: 글쎄요, 저희 서비스는
05:16
we started the service with this concept of following an account,
87
316890
5340
계정을 팔로우하는 발상과 함께 시작했죠.
05:22
as an example,
88
322254
1725
예를 들면 말이죠.
05:24
and I don't believe that's why people actually come to Twitter.
89
324003
4349
하지만 사람들이 트위터를 이용하는 건 그것 때문이 아니라고 생각해요.
05:28
I believe Twitter is best as an interest-based network.
90
328376
4857
흥미 기반의 네트워크로써는 트위터가 최고라고 생각합니다.
05:33
People come with a particular interest.
91
333257
3453
사람들은 특정한 흥미를 가지고 와요.
05:36
They have to do a ton of work to find and follow the related accounts
92
336734
3487
그들의 흥미와 관련된 계정을 찾고 팔로우하기까지 할 일이 너무 많죠.
05:40
around those interests.
93
340245
1405
05:42
What we could do instead is allow you to follow an interest,
94
342217
3397
대신 트위터에선 흥미를 팔로우하고,
05:45
follow a hashtag, follow a trend,
95
345638
2103
해쉬태그, 트렌드를 팔로우하고
05:47
follow a community,
96
347765
1754
공동체를 팔로우해요.
05:49
which gives us the opportunity to show all of the accounts,
97
349543
4637
그러면 특정한 주제와 흥미에 관련된
05:54
all the topics, all the moments, all the hashtags
98
354204
3323
모든 계정, 토픽, 모멘트, 해쉬태그를
05:57
that are associated with that particular topic and interest,
99
357551
3992
보여줄 기회가 생겨요.
06:01
which really opens up the perspective that you see.
100
361567
4600
보는 시각을 넓혀주는 것이죠.
06:06
But that is a huge fundamental shift
101
366191
2157
하지만 전체적인 네트워크에 집중한
06:08
to bias the entire network away from just an account bias
102
368372
3792
단순히 계정에 편향된 게 아니라 주제와 흥미에 기댄
06:12
towards a topics and interest bias.
103
372188
2587
거대한 기본 원리의 변화에요.
06:15
CA: Because isn't it the case
104
375283
3148
크리스: 하지만 트위터에 그렇게
06:19
that one reason why you have so much content on there
105
379375
3541
많은 컨텐츠가 있는 건 결국
06:22
is a result of putting millions of people around the world
106
382940
3591
전 세계의 이용자 수백만 명이
06:26
in this kind of gladiatorial contest with each other
107
386555
3142
서로 싸움을 벌이고 있기 때문이지 않나요?
06:29
for followers, for attention?
108
389721
2090
팔로워와 관심을 얻기 위해서요.
06:31
Like, from the point of view of people who just read Twitter,
109
391835
4117
트위터를 방금 본 사람의 시각에서 봤을 때는요.
06:35
that's not an issue,
110
395976
1155
별로 문제가 아니에요.
06:37
but for the people who actually create it, everyone's out there saying,
111
397155
3350
하지만 싸움을 일으키는 사람들은 실제로 이렇게 말해요.
06:40
"You know, I wish I had a few more 'likes,' followers, retweets."
112
400529
3236
"난 더 많은 '좋아요'와 팔로워, 리트윗을 얻고 싶어" 라고요.
06:43
And so they're constantly experimenting,
113
403789
2148
그래서 더 많이 얻을 방법을
06:45
trying to find the path to do that.
114
405961
1961
계속 시험해보고 찾아내려 하죠.
06:47
And what we've all discovered is that the number one path to do that
115
407946
4126
그리고 관심을 얻을 수 있는 최고의 방법은
06:52
is to be some form of provocative,
116
412096
3406
일부러 도발하고,
06:55
obnoxious, eloquently obnoxious,
117
415526
2980
능란한 말솜씨로 불쾌하게 만드는 거였어요.
06:58
like, eloquent insults are a dream on Twitter,
118
418530
3516
트위터에서 설득력 있게 모욕하는 걸 꿈꾸는 사람들이죠.
07:02
where you rapidly pile up --
119
422070
2603
그렇게 쌓아올리다 보면
07:04
and it becomes this self-fueling process of driving outrage.
120
424697
4608
이 분개에 기름을 붓는 꼴이 되는 거죠.
07:09
How do you defuse that?
121
429329
2351
이 문제는 어떻게 완화시키나요?
07:12
JD: Yeah, I mean, I think you're spot on,
122
432624
2947
잭: 네, 정확히 말씀해주셨어요.
07:15
but that goes back to the incentives.
123
435595
1886
장려책 이야기로 다시 돌아 가는데요.
07:17
Like, one of the choices we made in the early days was
124
437505
2632
예전에 저희가 했던 선택 중 하나는
07:20
we had this number that showed how many people follow you.
125
440161
4701
팔로워 숫자를 보여주는 거였어요.
07:24
We decided that number should be big and bold,
126
444886
2959
그 숫자는 크고 굵은 볼드체여야 했고
07:27
and anything that's on the page that's big and bold has importance,
127
447869
3740
크고 굵다는 건 중요하다는 뜻이죠.
07:31
and those are the things that you want to drive.
128
451633
2278
그럼 그것들을 가지고 싶어지고요.
07:33
Was that the right decision at the time?
129
453935
1907
그게 옳은 결정이었냐고요?
07:35
Probably not.
130
455866
1153
아마 아니겠죠.
07:37
If I had to start the service again,
131
457043
1805
만약 이 서비스를 다시 시작한다면
07:38
I would not emphasize the follower count as much.
132
458872
2398
지금처럼 팔로워 숫자를 강조하진 않을 거예요.
07:41
I would not emphasize the "like" count as much.
133
461294
2295
"좋아요" 수도 이렇게 강조하지 않을 거고요.
07:43
I don't think I would even create "like" in the first place,
134
463613
3120
애초에 "좋아요"를 만들지도 않을 것 같네요.
07:46
because it doesn't actually push
135
466757
3267
왜냐하면 지금은 그게
07:50
what we believe now to be the most important thing,
136
470048
3179
가장 중요한 게 아니라고 생각하기 때문이에요.
07:53
which is healthy contribution back to the network
137
473251
3039
반대로 네트워크에 건전하게 기여하는 것,
07:56
and conversation to the network,
138
476314
2652
대화에서 네트워크로,
07:58
participation within conversation,
139
478990
2072
대화에 참여하는 것,
08:01
learning something from the conversation.
140
481086
2493
대화를 통해 무언가를 배우는 것이 가장 중요하죠.
08:03
Those are not things that we thought of 13 years ago,
141
483603
2824
13년 전에는 생각하지 못했던 것들이지만
08:06
and we believe are extremely important right now.
142
486451
2439
지금은 굉장히 중요하게 여기는 것이에요.
08:08
So we have to look at how we display the follower count,
143
488914
3023
그래서 우리가 생각봐야 할 건 어떻게 팔로워 수를 표시하고
08:11
how we display retweet count,
144
491961
2365
어떻게 리트윗 수와 "좋아요" 수를 표시할지 입니다.
08:14
how we display "likes,"
145
494350
1401
08:15
and just ask the deep question:
146
495775
2254
그래서 심층적인 질문을 하죠.
08:18
Is this really the number that we want people to drive up?
147
498053
3048
우리는 정말 사람들이 이 숫자들을 높이길 원하는 걸까요?
08:21
Is this the thing that, when you open Twitter,
148
501125
2545
트위터를 켰을 때 그 숫자를 보고 이러실 수 있죠.
08:23
you see, "That's the thing I need to increase?"
149
503694
2516
"저게 내가 높여야 하는 거야?"
08:26
And I don't believe that's the case right now.
150
506234
2144
지금은 전혀 그렇지 않다고 생각해요.
08:28
(Applause)
151
508402
2103
(박수)
08:30
WPR: I think we should look at some of the tweets
152
510529
2352
휘트니: 현장에 계신 관객 분들이
08:32
that are coming in from the audience as well.
153
512905
2169
올려주신 트윗들도 봐야할 것 같네요.
08:35
CA: Let's see what you guys are asking.
154
515868
2436
크리스: 어떤 질문을 하셨는지 보죠.
08:38
I mean, this is -- generally, one of the amazing things about Twitter
155
518328
3294
이런 점이 트위터의 놀라운 점 같아요.
08:41
is how you can use it for crowd wisdom,
156
521646
2294
집단 지성을 활용하는 방식이요.
08:43
you know, that more knowledge, more questions, more points of view
157
523964
4840
생각보다 훨씬 더 많은 지식, 더 많은 질문,
08:48
than you can imagine,
158
528828
1238
더 넓은 시각을 볼 수 있죠.
08:50
and sometimes, many of them are really healthy.
159
530090
3689
그리고 대부분이 건강한 내용일 때도 있고요.
08:53
WPR: I think one I saw that passed already quickly down here,
160
533803
2900
휘트니: 지금 막 지나간 트윗들 중에 이런 질문이 있네요.
08:56
"What's Twitter's plan to combat foreign meddling in the 2020 US election?"
161
536717
3524
"트위터는 2020년 미국 대선에 대한 외부 간섭을 어떻게 방지할 계획이죠?"
09:00
I think that's something that's an issue we're seeing
162
540265
2571
인터넷에서 일반적으로 볼 수 있는
09:02
on the internet in general,
163
542860
1901
논쟁거리인 것 같아요.
09:04
that we have a lot of malicious automated activity happening.
164
544785
3667
악의를 가진 자동화된 활동도 많이 보게 되죠.
09:08
And on Twitter, for example, in fact, we have some work
165
548476
5373
트위터로 예를 들어보자면요.
09:13
that's come from our friends at Zignal Labs,
166
553873
2758
지그널 연구소에 있는 친구에게 자료를 받았는데
09:16
and maybe we can even see that to give us an example
167
556655
2656
제가 말씀드리는 내용의 예시를
09:19
of what exactly I'm talking about,
168
559335
1927
볼 수 있을 것 같네요.
09:21
where you have these bots, if you will,
169
561286
3204
트위터 봇이나
09:24
or coordinated automated malicious account activity,
170
564514
4550
악의를 가진 자동 계정의 활동이
09:29
that is being used to influence things like elections.
171
569088
2764
선거 등에 영향을 미치기 위해 사용되고 있습니다.
09:31
And in this example we have from Zignal which they've shared with us
172
571876
3843
지그널에서 공유한 이 예시는
09:35
using the data that they have from Twitter,
173
575743
2198
트위터의 데이터를 이용한 건데요.
09:37
you actually see that in this case,
174
577965
2441
이 사례에서도 실제로 나타납니다.
09:40
white represents the humans -- human accounts, each dot is an account.
175
580430
4370
각각의 흰색 점은 실제 사람의 계정을 뜻해요
09:44
The pinker it is,
176
584824
1359
더 진한 분홍색 점일수록
09:46
the more automated the activity is.
177
586207
1740
자동화된 계정의 활동이죠.
09:47
And you can see how you have a few humans interacting with bots.
178
587971
5970
사람들이 봇들과 얼마나 교류하는지 보이실 겁니다.
09:53
In this case, it's related to the election in Israel
179
593965
4419
이 예시는 이스라엘의 선거 데이터인데요.
09:58
and spreading misinformation about Benny Gantz,
180
598408
2833
베니 간츠에 대한 허위정보를 퍼뜨리고 있습니다.
10:01
and as we know, in the end, that was an election
181
601265
2662
아시다시피, 결국 그 선거는
10:03
that Netanyahu won by a slim margin,
182
603951
3724
간발의 차로 네타냐후가 승리했죠.
10:07
and that may have been in some case influenced by this.
183
607699
2842
이것의 영향도 받았을 수도 있습니다.
10:10
And when you think about that happening on Twitter,
184
610565
2615
트위터에서 일어나는 일에 대해 생각해보셨을 때
10:13
what are the things that you're doing, specifically,
185
613204
2456
특히 이런 식으로 잘못된 정보가 퍼져서
10:15
to ensure you don't have misinformation like this spreading in this way,
186
615684
3702
사람들과 민주주의에 영향을 미치지 않도록
10:19
influencing people in ways that could affect democracy?
187
619410
4181
어떤 일을 하고 있나요?
10:23
JD: Just to back up a bit,
188
623615
1771
잭: 다시 말씀드리자면,
10:25
we asked ourselves a question:
189
625410
2975
저희는 스스로에게 질문을 던졌습니다.
10:28
Can we actually measure the health of a conversation,
190
628409
3816
실제로 대화의 건전성을 측정할 수 있을까?
10:32
and what does that mean?
191
632249
1288
그건 무슨 의미가 있을까?
10:33
And in the same way that you have indicators
192
633561
3382
여러분이 지표를 가지고 계신 것처럼
10:36
and we have indicators as humans in terms of are we healthy or not,
193
636967
3467
인간 역시 건강한지 아닌지를 나타내는 척도를 가지고 있습니다.
10:40
such as temperature, the flushness of your face,
194
640458
4658
체온과 얼굴의 홍조 같은 거죠.
10:45
we believe that we could find the indicators of conversational health.
195
645140
4560
저희는 대화의 건전성 역시 측정할 수 있다고 믿습니다.
10:49
And we worked with a lab called Cortico at MIT
196
649724
3843
MIT의 코르티코 연구실과도 협업하고 있습니다.
10:54
to propose four starter indicators
197
654479
6091
궁극적으로 시스템에서 측정할 수 있다고 믿는
11:00
that we believe we could ultimately measure on the system.
198
660594
3670
네 가지 기본 지표를 제시하기 위해서요.
11:05
And the first one is what we're calling shared attention.
199
665249
5604
첫 번째 지표는 공동의 관심사라고 부르는 것인데요.
11:10
It's a measure of how much of the conversation is attentive
200
670877
3581
같은 주제와 전혀 다른 주제에 대한 대화에 대해서 각각
11:14
on the same topic versus disparate.
201
674482
2630
얼마나 주의를 기울이는지 측정하는 지수입니다.
11:17
The second one is called shared reality,
202
677739
2783
두 번째는 공유되는 현실이라는 지표인데요.
11:21
and this is what percentage of the conversation
203
681217
2259
이것은 대화의 몇 퍼센트가
11:23
shares the same facts --
204
683500
2005
같은 사실을 공유하는지 나타내요.
11:25
not whether those facts are truthful or not,
205
685529
3113
그 사실이 얼마나 믿을만한지가 아니라
11:28
but are we sharing the same facts as we converse?
206
688666
3009
대화할 때 같은 사실을 공유하고 있는지 말이죠.
11:32
The third is receptivity:
207
692235
2353
세 번째는 수용성입니다.
11:34
How much of the conversation is receptive or civil
208
694612
3959
대화가 얼마나 수용적이고 호의적인지,
11:38
or the inverse, toxic?
209
698595
2944
또는 정반대이고 유독한지 측정하죠.
11:42
And then the fourth is variety of perspective.
210
702213
3222
그리고 네 번째는 관점의 다양성입니다.
11:45
So, are we seeing filter bubbles or echo chambers,
211
705459
3145
필터버블이나 에코챔버 효과를 경험하고 있는 건지,
11:48
or are we actually getting a variety of opinions
212
708628
3057
아니면 실제로 대화에서 다양한 의견을
11:51
within the conversation?
213
711709
1635
보고 있는 건지 측정하죠.
11:53
And implicit in all four of these is the understanding that,
214
713368
4018
그리고 이 네 가지 지표에서 암묵적으로 나타나는 건
11:57
as they increase, the conversation gets healthier and healthier.
215
717410
3390
지표들이 높아질수록 대화도 더 건강해진다는 거죠.
12:00
So our first step is to see if we can measure these online,
216
720824
4869
그래서 그 첫 걸음은 온라인에서 측정 가능한지 확인하는 것이며,
12:05
which we believe we can.
217
725717
1308
실제로 가능하다고 생각합니다.
12:07
We have the most momentum around receptivity.
218
727049
3167
수용성 지표에는 가장 높은 가속도가 붙고 있어요.
12:10
We have a toxicity score, a toxicity model, on our system
219
730240
4317
유독성 점수와 유독성 모델도 시스템 상에 보유하고 있습니다.
12:14
that can actually measure whether you are likely to walk away
220
734581
4124
트위터 상에서 대화화던 도중
12:18
from a conversation that you're having on Twitter
221
738729
2313
꽤나 높은 수준의
12:21
because you feel it's toxic,
222
741066
1633
유해함을 느꼈을 때
12:22
with some pretty high degree.
223
742723
2512
대화에서 떠나버릴지 측정하는 도구죠.
12:26
We're working to measure the rest,
224
746369
2199
다른 것도 측정하기 위해 노력중이며,
12:28
and the next step is,
225
748592
1964
해결 방안 구축의
12:30
as we build up solutions,
226
750580
3359
다음 단계는,
12:33
to watch how these measurements trend over time
227
753963
3491
이 측정치들이 시간이 지나면서 어떤 추세를 보이는지 확인하고
12:37
and continue to experiment.
228
757478
1873
계속해서 실험해보는 겁니다.
12:39
And our goal is to make sure that these are balanced,
229
759375
4041
저희의 목표는 이 지수들이 균형을 이루는 것입니다.
12:43
because if you increase one, you might decrease another.
230
763440
3066
어느 한 지수가 증가하면, 다른 지수는 떨어지기 때문이죠.
12:46
If you increase variety of perspective,
231
766530
2147
관점의 다양성이 증가하면
12:48
you might actually decrease shared reality.
232
768701
3091
공유 현실 지수는 낮아집니다.
12:51
CA: Just picking up on some of the questions flooding in here.
233
771816
4989
크리스: 올라오는 질문들 중에서 골라보죠.
12:56
JD: Constant questioning.
234
776829
1271
잭: 계속 질문이 올라오네요.
12:58
CA: A lot of people are puzzled why,
235
778996
3620
크리스: 많은 사람들이
13:02
like, how hard is it to get rid of Nazis from Twitter?
236
782640
4247
트위터 상의 나치를 처리하는 게 얼마나 힘든 건지 궁금해하네요.
13:08
JD: (Laughs)
237
788309
1322
잭: (웃음)
13:09
So we have policies around violent extremist groups,
238
789655
6995
저희도 폭력적인 극단주의자들에 관한 정책이 있습니다.
13:16
and the majority of our work and our terms of service
239
796674
4426
그리고 대부분의 업무와 이용약관은
13:21
works on conduct, not content.
240
801124
3729
내용이 아니라 행동에 따라 이루어집니다.
13:24
So we're actually looking for conduct.
241
804877
2551
그래서 실제로 행동을 관찰하죠.
13:27
Conduct being using the service
242
807452
3014
반복적으로 또는 단편적으로
13:30
to repeatedly or episodically harass someone,
243
810490
3867
다른 사람을 괴롭히기 위해서
13:34
using hateful imagery
244
814381
2493
KKK단 혹은 나치당원과 관련될 수 있는
13:36
that might be associated with the KKK
245
816898
2106
13:39
or the American Nazi Party.
246
819028
3281
혐오스러운 이미지를 사용하는 행동들이요.
13:42
Those are all things that we act on immediately.
247
822333
4156
이런 행동은 저희가 즉시 조치를 취합니다.
13:47
We're in a situation right now where that term is used fairly loosely,
248
827002
5452
지금은 그 용어가 꽤 막연하게 사용되곤 하지만
13:52
and we just cannot take any one mention of that word
249
832478
5313
저희는 그 누구도 그 단어를 다른 사람을 비난하기 위해
13:57
accusing someone else
250
837815
2117
사용하는 걸 용납할 수 없어요.
13:59
as a factual indication that they should be removed from the platform.
251
839956
3755
그런 사람들이 모두 플랫폼에서 제거되야 한다는 사실에 입각해서요.
14:03
So a lot of our models are based around, number one:
252
843735
2627
그래서 저희의 모델은 이런 수칙에 기반하고 있습니다.
14:06
Is this account associated with a violent extremist group?
253
846386
3140
첫 번째로, 이 계정이 폭력적인 극단주의자들과 연관되어 있는가?
14:09
And if so, we can take action.
254
849550
1983
그렇다면, 조치를 취할 수 있습니다.
14:11
And we have done so on the KKK and the American Nazi Party and others.
255
851557
3852
실제로도 수많은 KKK단과 미국 나치당원 등을 처리했죠.
14:15
And number two: Are they using imagery or conduct
256
855433
4183
두 번째는, 마찬가지로 위의 단체와 연관될 수 있는 사진이나 행동을
14:19
that would associate them as such as well?
257
859640
2372
사용하는지 확인합니다.
14:22
CA: How many people do you have working on content moderation
258
862416
2932
크리스: 그럼 이를 확인하는 사람들은 얼마나 있나요?
14:25
to look at this?
259
865372
1250
14:26
JD: It varies.
260
866646
1496
잭: 때에 따라 다릅니다.
14:28
We want to be flexible on this,
261
868166
1595
저희는 유연하게 대처하려 해요.
14:29
because we want to make sure that we're, number one,
262
869785
2646
왜냐하면 첫째로, 단순히 수많은 사람들을 고용하기보다
14:32
building algorithms instead of just hiring massive amounts of people,
263
872455
4424
알고리즘을 만들고 싶었기 때문입니다.
14:36
because we need to make sure that this is scalable,
264
876903
2824
왜냐하면 이것들을 측정 가능성을 확신하고 싶었고
14:39
and there are no amount of people that can actually scale this.
265
879751
3454
또 실제로 이걸 다 측정하려면 너무 많은 사람이 필요하기 때문입니다.
14:43
So this is why we've done so much work around proactive detection of abuse
266
883229
6629
그래서 실제로 사람이 확인해야만 하는 비방을 사전적으로 탐지하기 위해
14:49
that humans can then review.
267
889882
1391
많은 노력을 쏟고 있죠.
14:51
We want to have a situation
268
891297
2861
저희는 알고리즘이 끊임없이
14:54
where algorithms are constantly scouring every single tweet
269
894182
3741
모든 트윗 하나하나를 샅샅이 뒤져서
14:57
and bringing the most interesting ones to the top
270
897947
2342
가장 흥미로운 것을 제일 위쪽으로 올리면
15:00
so that humans can bring their judgment to whether we should take action or not,
271
900313
3902
이용약관에 따라 사람이 직접 조치를 취할지 말지 결정하는
15:04
based on our terms of service.
272
904239
1524
시스템을 갖고 싶습니다.
15:05
WPR: But there's not an amount of people that are scalable,
273
905787
2803
휘트니: 실제로 측정할 수 있는 인원은 없다고 하셨지만,
15:08
but how many people do you currently have monitoring these accounts,
274
908614
3497
현재 이런 계정들을 모티터링하는 요원들은 얼마나 있나요?
15:12
and how do you figure out what's enough?
275
912135
2546
그리고 어느 정도가 충분한지 어떻게 알죠?
15:14
JD: They're completely flexible.
276
914705
2272
잭: 그건 정말 유동적이에요.
15:17
Sometimes we associate folks with spam.
277
917001
2941
어떨 땐 일반적인 사람들을 스팸으로 분류하고
15:19
Sometimes we associate folks with abuse and harassment.
278
919966
3845
어떨 땐 평범한 사람을 비방과 괴롭힘으로 분류할 때도 있어요.
15:23
We're going to make sure that we have flexibility in our people
279
923835
3062
저희는 직원이 가장 필요한 곳에서 곧바로 일할 수 있게
15:26
so that we can direct them at what is most needed.
280
926921
2350
직원들이 융통성을 가질 수 있게 하고 싶어요.
15:29
Sometimes, the elections.
281
929295
1204
그게 선거일 수도 있죠.
15:30
We've had a string of elections in Mexico, one coming up in India,
282
930523
4927
멕시코에서 연이은 선거가 있었고, 인도에서도 곧 선거가 있죠.
15:35
obviously, the election last year, the midterm election,
283
935474
4447
작년의 선거와 중간 선거도 그렇고요.
15:39
so we just want to be flexible with our resources.
284
939945
2472
그래서 저희의 자원을 유연하게 사용하고 싶어요.
15:42
So when people --
285
942441
2129
그래서 예를 들면,
15:44
just as an example, if you go to our current terms of service
286
944594
6389
지금 저희 이용약관 페이지를
15:51
and you bring the page up,
287
951007
1641
확인해보시면,
15:52
and you're wondering about abuse and harassment that you just received
288
952672
3682
방금 받은 비방과 괴롭힘이
15:56
and whether it was against our terms of service to report it,
289
956378
3634
이용약관을 어겨서 신고해야 하는 건지 궁금해져서 확인해보면
16:00
the first thing you see when you open that page
290
960036
2559
이용약관 첫 페이지가
16:02
is around intellectual property protection.
291
962619
3088
지적재산권에 관련되었다는 걸 알 수 있습니다.
16:06
You scroll down and you get to abuse, harassment
292
966504
5323
스크롤을 내리면 비방과 괴롭힘, 그 외에도 경험할 수 있는 것에 관한
16:11
and everything else that you might be experiencing.
293
971851
2382
이용약관이 나옵니다.
16:14
So I don't know how that happened over the company's history,
294
974257
3195
이 회사가 어떤 역사를 거쳐서 그렇게 되었는지 모르지만,
16:17
but we put that above the thing that people want
295
977476
4797
사람들이 가장 원하는 정보이자 조치를 취해줬으면 하는 것을
16:24
the most information on and to actually act on.
296
984146
3222
가장 위에 올려놓습니다.
16:27
And just our ordering shows the world what we believed was important.
297
987392
5241
그 순서는 세상 사람들이 가장 중요하게 생각하는 것들의 순서죠.
16:32
So we're changing all that.
298
992657
2881
그래서 모두 바꾸려고 노력 중입니다.
16:35
We're ordering it the right way,
299
995562
1563
올바른 순서대로요.
16:37
but we're also simplifying the rules so that they're human-readable
300
997149
3451
그와 동시에 언제 약관을 어기고 언제 어기지 않았는지
16:40
so that people can actually understand themselves
301
1000624
4067
실제로 이용약관을 이해할 수 있도록
16:44
when something is against our terms and when something is not.
302
1004715
3448
사람들이 알아보기 쉽게 규칙을 단순화하려고 합니다.
16:48
And then we're making --
303
1008187
2161
그리고 다시 말씀드리지만 저희는
16:50
again, our big focus is on removing the burden of work from the victims.
304
1010372
5200
피해자의 짐을 덜어주는 것에 집중하고 있습니다.
16:55
So that means push more towards technology,
305
1015596
3734
사람이 직접 일하기보다는
16:59
rather than humans doing the work --
306
1019354
1873
점점 더 기술에 집중한다는 뜻이죠.
17:01
that means the humans receiving the abuse
307
1021251
2413
사람이 직접 비방을 듣고,
17:03
and also the humans having to review that work.
308
1023688
3026
사람이 또 검토하는 것에서 벗어나려는 거죠.
17:06
So we want to make sure
309
1026738
1673
그래서 저희는 절대로
17:08
that we're not just encouraging more work
310
1028435
2841
굉장히 부정적인 내용을 관한 일을
17:11
around something that's super, super negative,
311
1031300
2629
장려하기 보다는
17:13
and we want to have a good balance between the technology
312
1033953
2674
기술과 사람의 창의성 사이에서
17:16
and where humans can actually be creative,
313
1036651
2852
규칙을 판단하는
17:19
which is the judgment of the rules,
314
1039527
3090
좋은 균형을 가져오려 합니다.
17:22
and not just all the mechanical stuff of finding and reporting them.
315
1042641
3267
그저 문제 계정을 발견하고 신고하는 메커니즘에 그치지 않을 겁니다.
17:25
So that's how we think about it.
316
1045932
1530
그게 저희의 생각입니다.
17:27
CA: I'm curious to dig in more about what you said.
317
1047486
2406
크리스: 말씀하신 것에 대해 더 궁금한게 있어요.
17:29
I mean, I love that you said you are looking for ways
318
1049916
2605
반작용을 보이는 행동을 저지하는
17:32
to re-tweak the fundamental design of the system
319
1052545
3462
시스템의 기초적인 디자인을 바꾸는 방법을 찾고 계신다니 기쁩니다.
17:36
to discourage some of the reactive behavior, and perhaps --
320
1056031
4875
17:40
to use Tristan Harris-type language --
321
1060930
2705
사람들이 더 성찰할 수 있게 만드는
17:43
engage people's more reflective thinking.
322
1063659
4288
트리스탄 해리스씨의 화법처럼요.
17:47
How far advanced is that?
323
1067971
1854
지금까지 그건 얼마나 발전했죠?
17:49
What would alternatives to that "like" button be?
324
1069849
4305
"좋아요" 버튼의 대안은 무엇일까요?
17:55
JD: Well, first and foremost,
325
1075518
3575
잭: 글쎄요, 첫째로 가장 중요한 건
17:59
my personal goal with the service is that I believe fundamentally
326
1079117
5753
서비스의 개인적인 목표는 기본적으로
18:04
that public conversation is critical.
327
1084894
2702
대중적인 논의가 중요해지는 거예요.
18:07
There are existential problems facing the world
328
1087620
2647
세계가 직면한 실존적 문제에
18:10
that are facing the entire world, not any one particular nation-state,
329
1090291
4163
전세계의 대중적인 논의는 도움을 줄 수 있습니다.
18:14
that global public conversation benefits.
330
1094478
2649
특정 국가만이 아니라 전세계가 직면한 문제요.
18:17
And that is one of the unique dynamics of Twitter,
331
1097151
2372
그게 트위터가 가진 독특한 원동력이죠.
18:19
that it is completely open,
332
1099547
1814
누구나 참여할 수 있고
18:21
it is completely public,
333
1101385
1596
충분히 대중적이며,
18:23
it is completely fluid,
334
1103005
1399
엄청난 유동성을 지녔죠.
18:24
and anyone can see any other conversation and participate in it.
335
1104428
4038
누구나 어느 대화든 볼 수 있고 대화에 참여할 수 있어요.
18:28
So there are conversations like climate change.
336
1108490
2206
기후 변화에 관한 대화도 있고요.
18:30
There are conversations like the displacement in the work
337
1110720
2682
인공지능 때문에 발생하는
18:33
through artificial intelligence.
338
1113426
2000
해고와 관련된 대화도 있죠.
18:35
There are conversations like economic disparity.
339
1115450
3006
경제 격차에 대한 대화도 있습니다.
18:38
No matter what any one nation-state does,
340
1118480
2765
어느 국가가 되었든지,
18:41
they will not be able to solve the problem alone.
341
1121269
2421
혼자서 문제를 해결할 수는 없습니다.
18:43
It takes coordination around the world,
342
1123714
2643
세계의 협력이 필요하고,
18:46
and that's where I think Twitter can play a part.
343
1126381
3047
제 생각엔 거기에 트위터가 일조할 수 있다는 겁니다.
18:49
The second thing is that Twitter, right now, when you go to it,
344
1129452
5642
두 번째로는, 지금 트위터에 들어갔을 때
18:55
you don't necessarily walk away feeling like you learned something.
345
1135118
3746
꼭 뭔가를 배웠다는 생각을 가지고 떠나진 않죠.
18:58
Some people do.
346
1138888
1276
누군가는 그러겠지만요.
19:00
Some people have a very, very rich network,
347
1140188
3107
어떤 사람은 엄청난 네트워크를 가지고,
19:03
a very rich community that they learn from every single day.
348
1143319
3117
다양한 공동체에 속해서 뭔가를 매일 배우기도 하겠죠.
19:06
But it takes a lot of work and a lot of time to build up to that.
349
1146460
3691
하지만 그런 네트워크를 만들기 위해선 많은 노력과 시간이 필요합니다.
19:10
So we want to get people to those topics and those interests
350
1150175
3448
그래서 저희는 사람들이 그런 주제와 흥미를
19:13
much, much faster
351
1153647
1579
훨씬 더 빠르게 얻어갔으면 좋겠어요.
19:15
and make sure that they're finding something that,
352
1155250
2566
그리고 사람들이 트위터에서 몇 시간을 있든
19:18
no matter how much time they spend on Twitter --
353
1158728
2360
그런 주제와 흥미를 찾았으면 좋겠어요.
19:21
and I don't want to maximize the time on Twitter,
354
1161112
2358
사람들이 트위터에 머무르는 시간을 최대화하기보다
19:23
I want to maximize what they actually take away from it
355
1163494
2910
대신 사람들이 뭔가를 얻어가고
19:26
and what they learn from it, and --
356
1166428
2030
배워가는 걸 최대화했으면 좋겠어요.
19:29
CA: Well, do you, though?
357
1169598
1328
크리스: 당신도 그런가요?
19:30
Because that's the core question that a lot of people want to know.
358
1170950
3244
왜냐하면 많은 사람들이 알고 싶어하는 핵심 질문이거든요.
19:34
Surely, Jack, you're constrained, to a huge extent,
359
1174218
3638
확실히, 상장기업이기 때문인지
19:37
by the fact that you're a public company,
360
1177880
2007
잭씨는 강요받을 수밖에 없어요.
19:39
you've got investors pressing on you,
361
1179911
1774
당신을 압박하는 투자자들이 있고
19:41
the number one way you make your money is from advertising --
362
1181709
3559
돈을 버는 가장 큰 방법은
19:45
that depends on user engagement.
363
1185292
2772
사용자 참여에 의존하는 광고잖아요.
19:48
Are you willing to sacrifice user time, if need be,
364
1188088
4700
사색적인 대화를 장려하기 위해서
19:52
to go for a more reflective conversation?
365
1192812
3729
사용자 이용시간을 희생하겠단 말씀이신가요?
19:56
JD: Yeah; more relevance means less time on the service,
366
1196565
3111
잭: 네, 사회적 타당성이 높아지면 서비스 이용시간이 줄겠죠.
19:59
and that's perfectly fine,
367
1199700
1937
정말 그래도 괜찮아요.
20:01
because we want to make sure that, like, you're coming to Twitter,
368
1201661
3099
왜냐하면 트위터를 이용할 때
20:04
and you see something immediately that you learn from and that you push.
369
1204784
4520
누르는 즉시 뭔가를 배워갔으면 좋겠어요.
20:09
We can still serve an ad against that.
370
1209328
3420
저희는 그래도 광고를 할 수 있으니까요.
20:12
That doesn't mean you need to spend any more time to see more.
371
1212772
2921
더 보기 위해 더 많은 시간을 써야 한다는 의미는 아녜요.
20:15
The second thing we're looking at --
372
1215717
1733
두 번째로 저희는,
20:17
CA: But just -- on that goal, daily active usage,
373
1217474
2698
크리스: 하지만, 그 목표는, 일일 사용량이 많다고
20:20
if you're measuring that, that doesn't necessarily mean things
374
1220196
3245
사람들이 그걸 매일 소중하게 여긴다는 뜻은 아니잖아요.
20:23
that people value every day.
375
1223465
1738
사용량을 측정하신다면 말이죠.
20:25
It may well mean
376
1225227
1161
그건 사람들이
20:26
things that people are drawn to like a moth to the flame, every day.
377
1226412
3306
나방이 불꽃에 이끌리는 것처럼 매일 끌려가는 거죠.
20:29
We are addicted, because we see something that pisses us off,
378
1229742
3022
중독되었으니까요. 매일 저를 열받게 하는 일을 보면
20:32
so we go in and add fuel to the fire,
379
1232788
3178
거기에 참여해서 화력을 키우죠.
20:35
and the daily active usage goes up,
380
1235990
1927
그럼 일일 사용량도 증가하고
20:37
and there's more ad revenue there,
381
1237941
1715
더 많은 광고수익을 얻겠죠.
20:39
but we all get angrier with each other.
382
1239680
2752
저희는 더 화나기만 하고요.
20:42
How do you define ...
383
1242456
2509
"일일 사용량"이란 단어를
20:44
"Daily active usage" seems like a really dangerous term to be optimizing.
384
1244989
4126
낙관적으로 보기엔 너무 위험한 단어 같네요.
20:49
(Applause)
385
1249139
5057
(박수)
20:54
JD: Taken alone, it is,
386
1254220
1268
잭: 그것만 봐도 그렇죠.
20:55
but you didn't let me finish the other metric,
387
1255512
2346
측정에 관한 이야기를 마저 하자면
20:57
which is, we're watching for conversations
388
1257882
3727
저희는 대화 및 연결된 대화를
21:01
and conversation chains.
389
1261633
2129
지켜보고 있습니다.
21:03
So we want to incentivize healthy contribution back to the network,
390
1263786
5076
그래서 저희는 네트워크에 건강한 기여를 할 수 있게끔
21:08
and what we believe that is is actually participating in conversation
391
1268886
4181
장려하고 싶고, 저희는 그 방법이 건강한 대화에 참여하는 거라 생각해요.
21:13
that is healthy,
392
1273091
1197
21:14
as defined by those four indicators I articulated earlier.
393
1274312
5037
아까 말씀드린 4가지 지표로 정의된 건강한 대화요.
21:19
So you can't just optimize around one metric.
394
1279373
2657
그래서 한 가지 지표만을 활용할 순 없습니다.
21:22
You have to balance and look constantly
395
1282054
2752
균형을 맞추고 꾸준히 지켜봐야 하죠.
21:24
at what is actually going to create a healthy contribution to the network
396
1284830
4083
어떤 게 실제로 네트워크에 건강한 기여를 하고
21:28
and a healthy experience for people.
397
1288937
2341
사람들이 건강한 경험을 할지를 말이죠.
21:31
Ultimately, we want to get to a metric
398
1291302
1866
궁극적으로 저희는 사람들이
21:33
where people can tell us, "Hey, I learned something from Twitter,
399
1293192
3757
"나 트위터에서 뭔가를 배우고 가치있는 걸 가지고 떠나게 됐어"
21:36
and I'm walking away with something valuable."
400
1296973
2167
라고 말하는 측정 기준을 얻고 싶어요.
21:39
That is our goal ultimately over time,
401
1299164
2043
이게 저희의 장기적이고 궁극적인 목표예요.
21:41
but that's going to take some time.
402
1301231
1809
하지만 시간이 걸리겠죠.
21:43
CA: You come over to many, I think to me, as this enigma.
403
1303064
5282
크리스: 저에겐 많은 수수께끼로 다가오네요.
21:48
This is possibly unfair, but I woke up the other night
404
1308370
4396
불공평할 수도 있겠지만 어느 날 밤에 제가 일어나서
21:52
with this picture of how I found I was thinking about you and the situation,
405
1312790
3879
제가 당신과 당신의 상황에 대해서 어떻게 생각하는지 그림을 그려보자면
21:56
that we're on this great voyage with you on this ship called the "Twittanic" --
406
1316693
6903
"트위타닉" 호에 당신과 함께 멋진 여행을 떠나는 그림이 떠올라요.
22:03
(Laughter)
407
1323620
1281
(웃음)
22:04
and there are people on board in steerage
408
1324925
4357
3등 선실에는 불평을 토로하는
22:09
who are expressing discomfort,
409
1329306
2203
사람들이 있고,
22:11
and you, unlike many other captains,
410
1331533
2543
당신은 다른 선장과는 다르게
22:14
are saying, "Well, tell me, talk to me, listen to me, I want to hear."
411
1334100
3431
"말해봐요. 듣고 있어요. 듣고 싶어요."라고 말하죠.
22:17
And they talk to you, and they say, "We're worried about the iceberg ahead."
412
1337555
3619
그 사람들이 "앞에 있는 빙하 때문에 걱정돼요."라고 말하면
22:21
And you go, "You know, that is a powerful point,
413
1341198
2242
당신은 말하죠. "정말 중요한 이야기네요.
22:23
and our ship, frankly, hasn't been built properly
414
1343464
2430
그런데 저희 배는 솔직히 말하면
22:25
for steering as well as it might."
415
1345918
1669
조종하기 적절하지 않죠" 저희는 말하죠. "뭐라도 좀 해봐요."
22:27
And we say, "Please do something."
416
1347611
1658
22:29
And you go to the bridge,
417
1349293
1411
당신은 함교에 올라가고
22:30
and we're waiting,
418
1350728
2295
저흰 기다리죠.
22:33
and we look, and then you're showing this extraordinary calm,
419
1353047
4548
저희가 올려다보면 당신은 놀랍도록 평온하게 보이고
22:37
but we're all standing outside, saying, "Jack, turn the fucking wheel!"
420
1357619
3883
저희는 밖에 서서 "젠장, 키를 돌려요!"라고 소리치죠.
22:41
You know?
421
1361526
1151
안 그런가요?
22:42
(Laughter)
422
1362701
1335
(웃음)
22:44
(Applause)
423
1364060
2381
(박수)
22:46
I mean --
424
1366465
1166
제 말은...
22:47
(Applause)
425
1367655
1734
(박수)
22:49
It's democracy at stake.
426
1369413
4594
민주주의가 위태로운 상태예요.
22:54
It's our culture at stake. It's our world at stake.
427
1374031
2821
저희 문화가 위태롭고, 이 세상이 위태로워요.
22:56
And Twitter is amazing and shapes so much.
428
1376876
4706
트위터는 정말 놀랍고 많은 부분을 형성하고 있죠.
23:01
It's not as big as some of the other platforms,
429
1381606
2233
다른 플랫폼만큼 크진 않지만
23:03
but the people of influence use it to set the agenda,
430
1383863
2804
영향력 있는 사람들이 안건을 제시하는 데 이용해요.
23:06
and it's just hard to imagine a more important role in the world than to ...
431
1386691
6787
그보다 더 중요한 역할을 맡는 건 상상하기 힘들죠.
23:13
I mean, you're doing a brilliant job of listening, Jack, and hearing people,
432
1393502
3784
제 말은, 잭, 당신은 사람들의 말을 들어주는 훌륭한 일을 한다는 거예요.
23:17
but to actually dial up the urgency and move on this stuff --
433
1397310
4445
하지만 긴급한 요구에 대해 말하자면, 그 문제로 넘어가려는데
23:21
will you do that?
434
1401779
2201
이런 것도 해주실 건가요?
23:24
JD: Yes, and we have been moving substantially.
435
1404750
3815
잭: 네, 저희는 많이 움직이고 있죠.
23:28
I mean, there's been a few dynamics in Twitter's history.
436
1408589
3225
트위터 역사 상 몇몇 큰 변화가 있었어요.
23:31
One, when I came back to the company,
437
1411838
2083
제가 회사로 돌아왔을 때는
23:35
we were in a pretty dire state in terms of our future,
438
1415477
6256
미래를 생각해보면 꽤 심각한 상황이었죠.
23:41
and not just from how people were using the platform,
439
1421757
4634
사람들이 저희 플랫폼을 어떻게 쓰는지 뿐만 아니라
23:46
but from a corporate narrative as well.
440
1426415
2047
회사 측면에서도 마찬가지였어요.
23:48
So we had to fix a bunch of the foundation,
441
1428486
3204
회사 상황을 호전시키기 위해서
23:51
turn the company around,
442
1431714
1969
많은 토대를 고쳐야만 했습니다.
23:53
go through two crazy layoffs,
443
1433707
3111
두 번의 말도 안 되는 해고도 거쳤죠.
23:56
because we just got too big for what we were doing,
444
1436842
3793
왜냐하면 저희가 하는 일에 비해 회사가 너무 커졌고
24:00
and we focused all of our energy
445
1440659
2060
모든 에너지를 대중적인 논의에
24:02
on this concept of serving the public conversation.
446
1442743
3508
기여한다는 것에 집중했거든요.
24:06
And that took some work.
447
1446275
1451
그 과정에서 많은 노력을 했죠.
24:07
And as we dived into that,
448
1447750
2608
그 과정에 뛰어들면서
24:10
we realized some of the issues with the fundamentals.
449
1450382
2992
본질에 관한 몇 가지 쟁점을 깨달았습니다.
24:14
We could do a bunch of superficial things to address what you're talking about,
450
1454120
4656
말씀하신 것들을 해결하기 위해선 여러 피상적인 것 할 수 있었지만
24:18
but we need the changes to last,
451
1458800
1790
지속 가능한 변화가 필요했어요.
24:20
and that means going really, really deep
452
1460614
2459
즉, 정말 깊이 살펴보고
24:23
and paying attention to what we started 13 years ago
453
1463097
4350
13년 전에 시작한 것들에 관심을 가지고
24:27
and really questioning
454
1467471
2261
진심으로
24:29
how the system works and how the framework works
455
1469756
2566
어떻게 시스템과 뼈대가 작동하는지,
24:32
and what is needed for the world today,
456
1472346
3833
또 오늘날 이 세상에 필요한 게 뭔지 질문을 던지는 걸 뜻하죠.
24:36
given how quickly everything is moving and how people are using it.
457
1476203
4024
모든 게 엄청나게 빨리 변하고 사람들이 그걸 어떻게 쓰는지 고려하면서 말이죠.
24:40
So we are working as quickly as we can, but quickness will not get the job done.
458
1480251
6544
그래서 가능한 한 빨리 하려고 하지만 빠르기만 해서는 해결할 수 없습니다.
24:46
It's focus, it's prioritization,
459
1486819
2611
집중과 우선순위죠.
24:49
it's understanding the fundamentals of the network
460
1489454
2946
네트워크의 본질을 이해하고
24:52
and building a framework that scales
461
1492424
2842
규모가 변화하는 뼈대를 짓고
24:55
and that is resilient to change,
462
1495290
2351
그 뼈대는 변화에도 빠르게 적응하죠.
24:57
and being open about where we are and being transparent about where are
463
1497665
5429
신뢰를 계속해서 얻기 위해 우리가 어디에 있는지 받아들이고
25:03
so that we can continue to earn trust.
464
1503118
2179
어디에 있는지 솔직해져야 하고요.
25:06
So I'm proud of all the frameworks that we've put in place.
465
1506141
3331
저는 제가 배치한 모든 체계가 자랑스러워요.
25:09
I'm proud of our direction.
466
1509496
2888
저희의 방향성도 자랑스럽고요.
25:12
We obviously can move faster,
467
1512915
2718
저희는 분명히 더 빠르게 움직일 수 있지만
25:15
but that required just stopping a bunch of stupid stuff we were doing in the past.
468
1515657
4719
그러려면 과거부터 해온 여러 바보같은 일도 멈춰야 해요.
25:21
CA: All right.
469
1521067
1164
크리스: 그렇군요.
25:22
Well, I suspect there are many people here who, if given the chance,
470
1522255
4067
여기에 기회가 주어진다면 당신이 다루고 있는
25:26
would love to help you on this change-making agenda you're on,
471
1526346
3989
변화를 만들려는 안건을 기꺼이 도울 사람들이 많을 거예요.
25:30
and I don't know if Whitney --
472
1530359
1542
휘트니도 그럴 것 같고요.
25:31
Jack, thank you for coming here and speaking so openly.
473
1531925
2761
잭, 여기까지 와주셔서 솔직하게 말씀해주셔서 감사합니다.
25:34
It took courage.
474
1534710
1527
대단한 용기였어요.
25:36
I really appreciate what you said, and good luck with your mission.
475
1536261
3384
말씀해주신 바에 감동했고, 원하시는 목표를 이루시기 바랍니다.
25:39
JD: Thank you so much. Thanks for having me.
476
1539669
2095
잭: 감사합니다. 초대해주셔서 감사합니다.
25:41
(Applause)
477
1541788
3322
(박수)
25:45
Thank you.
478
1545134
1159
감사합니다.
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7