How Twitter needs to change | Jack Dorsey

183,606 views ・ 2019-06-07

TED


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video.

Translator: Tran Le Reviewer: Linh Đỗ
00:13
Chris Anderson: What worries you right now?
0
13131
2408
Chris Anderson: Hiện tại điều gì khiến anh lo ngại?
00:15
You've been very open about lots of issues on Twitter.
1
15563
2853
Nghe nói anh rất quan tâm về các vấn đề trên Twitter.
00:18
What would be your top worry
2
18440
2299
Vậy điều gì khiến anh lo lắng nhất
00:20
about where things are right now?
3
20763
2049
trước tình hình hiện nay?
00:23
Jack Dorsey: Right now, the health of the conversation.
4
23447
2929
Jack Dorsey: Hiện tại thì, là vấn đề lành mạnh trong giao tiếp.
00:26
So, our purpose is to serve the public conversation,
5
26400
3660
Mục tiêu của chúng tôi là phục vụ giao tiếp của cộng đồng,
00:30
and we have seen a number of attacks on it.
6
30084
5056
và chúng tôi đã nhận thấy nhiều sự công kích nhắm vào nó.
00:35
We've seen abuse, we've seen harassment,
7
35164
2425
Chúng tôi thấy sự lăng mạ, sự quấy rối,
00:37
we've seen manipulation,
8
37613
3222
chúng tôi thấy những thủ đoạn thao túng,
00:40
automation, human coordination, misinformation.
9
40859
4265
những sự dàn dựng, phối hợp, sự sai lệch thông tin.
00:46
So these are all dynamics that we were not expecting
10
46134
4034
Đây là sự bùng nổ mà chúng tôi đã không lường được
00:50
13 years ago when we were starting the company.
11
50192
3718
khi thành lập công ty 13 năm trước.
00:53
But we do now see them at scale,
12
53934
2664
Hiện tại những công kích đó đã bùng nổ ở phạm vi lớn
00:56
and what worries me most is just our ability to address it
13
56622
5278
và điều tôi lo lắng nhất là làm cách nào có thể giải quyết những vấn đề trên
01:01
in a systemic way that is scalable,
14
61924
3108
một cách có hệ thống và trên quy mô rộng,
01:05
that has a rigorous understanding of how we're taking action,
15
65056
6976
vừa nghiêm ngặt,
01:12
a transparent understanding of how we're taking action
16
72056
3105
lại vừa minh bạch về phương hướng hành động
01:15
and a rigorous appeals process for when we're wrong,
17
75185
3101
và có quy trình kháng cáo nghiêm ngặt phòng khi chúng tôi làm sai,
01:18
because we will be wrong.
18
78310
2169
vì sai sót là điều không thể tránh khỏi.
01:20
Whitney Pennington Rodgers: I'm really glad to hear
19
80503
2397
Whitney Pennington Rodgers: Tôi rất mừng khi nghe rằng
01:22
that that's something that concerns you,
20
82924
1928
đó là một trong những nỗi lo của anh,
01:24
because I think there's been a lot written about people
21
84876
2630
vì tôi thấy rất nhiều người bày tỏ
01:27
who feel they've been abused and harassed on Twitter,
22
87530
2477
họ cảm thấy bị bạc đãi và quấy rối trên Twitter,
01:30
and I think no one more so than women and women of color
23
90031
4102
và tôi nghĩ đa số họ là phụ nữ, phụ nữ da màu
01:34
and black women.
24
94157
1170
và phụ nữ da đen.
01:35
And there's been data that's come out --
25
95351
1913
Và có những số liệu được đưa ra --
01:37
Amnesty International put out a report a few months ago
26
97288
2909
Vài tháng trước, Tổ chức Ân xá Quốc tế đã đưa ra một báo cáo
01:40
where they showed that a subset of active black female Twitter users
27
100221
4480
cho thấy rằng trong một bộ phận phụ nữ da đen đang sử dụng Twitter
01:44
were receiving, on average, one in 10 of their tweets
28
104725
3456
nhận được trung bình cứ 10 tweets thì có một tweet
01:48
were some form of harassment.
29
108205
2099
thuộc dạng quấy rối.
01:50
And so when you think about health for the community on Twitter,
30
110328
3907
Và khi nói đến tính lành mạnh cho cộng đồng trên Twitter,
01:54
I'm interested to hear, "health for everyone,"
31
114259
4024
Tôi muốn nghe về, "lành mạnh cho mọi người,"
01:58
but specifically: How are you looking to make Twitter a safe space
32
118307
3125
và cụ thể làm cách nào biến Twitter thành một nơi an toàn
02:01
for that subset, for women, for women of color and black women?
33
121456
4164
cho phụ nữ, phụ nữ da màu và phụ nữ da đen?
02:05
JD: Yeah.
34
125644
1164
JD: Vâng.
02:06
So it's a pretty terrible situation
35
126832
2643
Đây là một tình trạng khá là nhức nhối
02:09
when you're coming to a service
36
129499
1619
khi bạn tham gia một dịch vụ
02:11
that, ideally, you want to learn something about the world,
37
131142
4321
với góc nhìn lý tưởng là bạn muốn học hỏi được nhiều điều mới mẻ về thế giới
02:15
and you spend the majority of your time reporting abuse, receiving abuse,
38
135487
5443
và rồi lại phải dành đa số thời gian cho việc báo cáo vi phạm hay chịu bạc đãi,
02:20
receiving harassment.
39
140954
1804
quấy rối từ người khác.
02:23
So what we're looking most deeply at is just the incentives
40
143373
6321
Trước đây chúng tôi tập trung vào những khuyến khích
02:29
that the platform naturally provides and the service provides.
41
149718
3823
mà một hệ thống hay dịch vụ thường đưa ra.
02:34
Right now, the dynamic of the system makes it super-easy to harass
42
154262
4577
Hiện tại, sự bùng nổ của hệ thống này đã biến việc quấy rối và bạc đãi người khác
02:38
and to abuse others through the service,
43
158863
3664
trở nên cực kỳ đơn giản thông qua những dịch vụ của nó,
02:42
and unfortunately, the majority of our system in the past
44
162551
3262
và đáng tiếc rằng đa số những hệ thống trước đây của chúng tôi
02:45
worked entirely based on people reporting harassment and abuse.
45
165837
5596
vận hành hoàn toàn dựa trên việc báo cáo vi phạm và quấy rối.
02:51
So about midway last year, we decided that we were going to apply
46
171457
5075
Nên vào khoảng giữa năm ngoái, chúng tôi đã quyết định chuyên tâm
02:56
a lot more machine learning, a lot more deep learning to the problem,
47
176556
3982
nghiên cứu về machine learning, deep learning về vấn đề này,
03:00
and try to be a lot more proactive around where abuse is happening,
48
180562
4538
và cố chủ động hơn trong việc giải quyết những quấy rối
03:05
so that we can take the burden off the victim completely.
49
185124
3960
để trút bỏ hoàn toàn những gánh nặng mà nạn nhân phải chịu.
03:09
And we've made some progress recently.
50
189108
2435
Và gần đây chúng tôi đã có nhiều tiến triển.
03:11
About 38 percent of abusive tweets are now proactively identified
51
191567
6689
Khoảng 38% những tweet quấy rối giờ có thể được nhận dạng
03:18
by machine learning algorithms
52
198280
1715
bằng những thuật toán học máy
03:20
so that people don't actually have to report them.
53
200019
2334
để mọi người không cần phải báo cáo vi phạm nữa.
03:22
But those that are identified are still reviewed by humans,
54
202377
3305
Nhưng những tweet được nhận dạng vẫn được con người xem xét lại,
03:25
so we do not take down content or accounts without a human actually reviewing it.
55
205706
5384
nên chúng tôi kiểm soát lại những bài viết hay tài khoản này trước khi xóa bỏ chúng
03:31
But that was from zero percent just a year ago.
56
211114
2759
Nhưng một năm trước, tỉ lệ này là 0%.
03:33
So that meant, at that zero percent,
57
213897
1931
Điều này nghĩa là, với 0%,
03:35
every single person who received abuse had to actually report it,
58
215852
3650
tất cả những người chịu quấy rối phải thực sự báo cáo hết,
03:39
which was a lot of work for them, a lot of work for us
59
219526
3579
điều này khiến cả chúng tôi lẫn nạn nhân phải tốn rất nhiều công sức
03:43
and just ultimately unfair.
60
223129
2018
và việc đó thực sự không công bằng.
03:46
The other thing that we're doing is making sure that we, as a company,
61
226528
3780
Một việc mà hiện chúng tôi đang tiến hành là đảm bảo rằng, với tư cách một công ty,
03:50
have representation of all the communities that we're trying to serve.
62
230332
3333
chúng tôi đại diện tất cả các cộng đồng đang sử dụng dịch vụ của chúng tôi
03:53
We can't build a business that is successful
63
233689
2159
Chúng tôi không thể xây dựng thương hiệu thành công
03:55
unless we have a diversity of perspective inside of our walls
64
235872
3300
nếu chúng tôi không có sự đa dạng về góc nhìn trong chính công ty
03:59
that actually feel these issues every single day.
65
239196
3732
nơi mỗi ngày đều gặp phải những vấn đề này.
04:02
And that's not just with the team that's doing the work,
66
242952
3738
Và điều đó không chỉ được thực hiện bởi một nhóm nhân viên
04:06
it's also within our leadership as well.
67
246714
2096
mà còn bởi ban lãnh đạo của công ty.
04:08
So we need to continue to build empathy for what people are experiencing
68
248834
5757
Chúng tôi cần duy trì việc đồng cảm hơn với những gì mọi người đang trải qua
04:14
and give them better tools to act on it
69
254615
3316
và cho họ một số phương tiện để hành động
04:17
and also give our customers a much better and easier approach
70
257955
4252
và cũng như giúp họ tiếp cận với một phương án xử lý
những vấn đề họ phải đối mặt một cách dễ dàng và hiệu quả hơn.
04:22
to handle some of the things that they're seeing.
71
262231
2382
04:24
So a lot of what we're doing is around technology,
72
264637
3266
Những gì chúng tôi đang giải quyết đa phần liên quan đến công nghệ,
04:27
but we're also looking at the incentives on the service:
73
267927
4308
nhưng chúng tôi cũng nghiên cứu những khuyến kích từ dịch vụ này:
04:32
What does Twitter incentivize you to do when you first open it up?
74
272259
5183
Twitter khuyến khích người dùng làm gì khi vừa mở nó lên?
04:37
And in the past,
75
277466
1294
Và trước đây,
04:40
it's incented a lot of outrage, it's incented a lot of mob behavior,
76
280670
5544
nó đã gây ra nhiều phẫn nộ, khuyến khích những hành vi đám đông,
04:46
it's incented a lot of group harassment.
77
286238
2459
khuyến khích những hành vi quấy rối nhóm,
04:48
And we have to look a lot deeper at some of the fundamentals
78
288721
3648
và chúng tôi phải xem xét kỹ những chức năng cơ bản
04:52
of what the service is doing to make the bigger shifts.
79
292393
2958
của dịch vụ này để tạo nên những sự thay đổi.
04:55
We can make a bunch of small shifts around technology, as I just described,
80
295375
4031
Chúng tôi có thể tạo ra những thay đổi nhỏ về công nghệ, như tôi đã nói,
04:59
but ultimately, we have to look deeply at the dynamics in the network itself,
81
299430
4386
nhưng cuối cùng vẫn phải nhìn vào chính những động lực của hệ thống này
05:03
and that's what we're doing.
82
303840
1368
và đây là điều chúng tôi đang làm.
05:05
CA: But what's your sense --
83
305232
2060
CA: Nhưng anh cảm thấy --
05:07
what is the kind of thing that you might be able to change
84
307316
3963
anh có thể thay đổi điều gì
05:11
that would actually fundamentally shift behavior?
85
311303
2749
để dẫn đến những thay đổi cơ bản về hành vi?
05:15
JD: Well, one of the things --
86
315386
1480
JD: Thì, một trong những điều đó là --
05:16
we started the service with this concept of following an account,
87
316890
5340
chúng tôi mở ra một dịch vụ với chức năng theo dõi tài khoản,
05:22
as an example,
88
322254
1725
ví dụ vậy,
05:24
and I don't believe that's why people actually come to Twitter.
89
324003
4349
và tôi nghĩ đây không phải lý do chính mà người ta tìm đến Twitter.
05:28
I believe Twitter is best as an interest-based network.
90
328376
4857
Tôi nghĩ Twitter tốt hơn hết là một mạng lưới dựa trên sở thích.
05:33
People come with a particular interest.
91
333257
3453
Người ta tìm đến nó vì một sở thích cụ thể.
05:36
They have to do a ton of work to find and follow the related accounts
92
336734
3487
Họ phải vất vả tìm kiếm và theo dõi những tài khoản
05:40
around those interests.
93
340245
1405
liên quan đến sở thích ấy.
05:42
What we could do instead is allow you to follow an interest,
94
342217
3397
Thay vào đó, chúng tôi có thể giúp các bạn theo dõi một sở thích,
05:45
follow a hashtag, follow a trend,
95
345638
2103
một hashtag, một xu hướng,
05:47
follow a community,
96
347765
1754
một cộng đồng,
05:49
which gives us the opportunity to show all of the accounts,
97
349543
4637
và điều này tạo cơ hội để chúng tôi cho các bạn thấy tất cả những tài khoản,
05:54
all the topics, all the moments, all the hashtags
98
354204
3323
những chủ đề, những khoảnh khắc, những hashtag
05:57
that are associated with that particular topic and interest,
99
357551
3992
liên quan đến chủ đề và sở thích nhất định đó,
06:01
which really opens up the perspective that you see.
100
361567
4600
và điều này giúp bạn trải nghiệm nhiều góc nhìn khác nhau.
06:06
But that is a huge fundamental shift
101
366191
2157
Nhưng đó là một thay đổi cơ bản
06:08
to bias the entire network away from just an account bias
102
368372
3792
của toàn hệ thống từ khuynh hướng theo dõi tài khoản
06:12
towards a topics and interest bias.
103
372188
2587
thành khuynh hướng theo dõi về những chủ đề và sở thích.
06:15
CA: Because isn't it the case
104
375283
3148
CA: Nhưng chẳng phải rằng
06:19
that one reason why you have so much content on there
105
379375
3541
việc nền tảng này có nhiều nội dung đến vậy
06:22
is a result of putting millions of people around the world
106
382940
3591
là kết quả của việc đưa hàng triệu người trên thế giới
06:26
in this kind of gladiatorial contest with each other
107
386555
3142
vào một cuộc chiến để giành lấy
06:29
for followers, for attention?
108
389721
2090
những người theo dõi và sự chú ý hay sao?
06:31
Like, from the point of view of people who just read Twitter,
109
391835
4117
Ví dụ như, từ góc nhìn của những người chỉ lướt Twitter,
06:35
that's not an issue,
110
395976
1155
thì đây không là vấn đề,
06:37
but for the people who actually create it, everyone's out there saying,
111
397155
3350
nhưng với những người tạo nội dung Twitter, họ sẽ nói rằng,
06:40
"You know, I wish I had a few more 'likes,' followers, retweets."
112
400529
3236
"Ước gì tôi có thê một vài 'like', lượt theo dõi và retweet nữa."
06:43
And so they're constantly experimenting,
113
403789
2148
Và họ thử nghiệm nhiều cách
06:45
trying to find the path to do that.
114
405961
1961
để đạt được điều đó.
06:47
And what we've all discovered is that the number one path to do that
115
407946
4126
Và chúng ta đều nhận thấy rằng phương pháp hàng đầu của họ
06:52
is to be some form of provocative,
116
412096
3406
là những lời lăng mạ đầy khiêu khích,
06:55
obnoxious, eloquently obnoxious,
117
415526
2980
đáng ghét, hùng hồn một cách đáng ghét,
06:58
like, eloquent insults are a dream on Twitter,
118
418530
3516
những lời lăng mạ hùng hồn cứ như một giấc mộng trên Twitter vậy,
07:02
where you rapidly pile up --
119
422070
2603
chúng ngày một chồng chất --
07:04
and it becomes this self-fueling process of driving outrage.
120
424697
4608
và trở thành một vòng luân hồi chỉ toàn sự xúc phạm.
07:09
How do you defuse that?
121
429329
2351
Anh sẽ ngăn chặn điều đó như thế nào?
07:12
JD: Yeah, I mean, I think you're spot on,
122
432624
2947
JD: Vâng, anh nói rất đúng,
07:15
but that goes back to the incentives.
123
435595
1886
nhưng đó lại là vấn đề về những động cơ thúc đẩy.
07:17
Like, one of the choices we made in the early days was
124
437505
2632
Một trong những điều chúng tôi làm từ ban đầu
07:20
we had this number that showed how many people follow you.
125
440161
4701
là đưa ra một con số cho thấy bao nhiêu người đang theo dõi bạn.
07:24
We decided that number should be big and bold,
126
444886
2959
Chúng tôi đã quyết định rằng con số này phải thật to, thật rõ,
07:27
and anything that's on the page that's big and bold has importance,
127
447869
3740
và những gì to rõ sẽ có tầm quan trọng lớn,
07:31
and those are the things that you want to drive.
128
451633
2278
và những điều đó sẽ là động lực thúc đẩy bạn sử dụng twitter.
07:33
Was that the right decision at the time?
129
453935
1907
Đó có phải là một quyết định đúng đắn không?
07:35
Probably not.
130
455866
1153
Có lẽ là không.
07:37
If I had to start the service again,
131
457043
1805
Nếu tôi có thể làm lại từ đầu,
07:38
I would not emphasize the follower count as much.
132
458872
2398
tôi sẽ không đặt trọng tâm vào lượt theo dõi nhiều như vậy.
07:41
I would not emphasize the "like" count as much.
133
461294
2295
Tôi sẽ không coi trọng vào lượt "thích" nhiều như vậy.
07:43
I don't think I would even create "like" in the first place,
134
463613
3120
Thậm chí tôi sẽ không tạo ra chức năng "thích" ngay từ đầu,
07:46
because it doesn't actually push
135
466757
3267
bởi điều đó thực sự đang cản trở
07:50
what we believe now to be the most important thing,
136
470048
3179
những điều mà chúng tôi cho là quan trọng nhất,
07:53
which is healthy contribution back to the network
137
473251
3039
đó là những đóng góp lành mạnh cho cộng đồng
07:56
and conversation to the network,
138
476314
2652
là giao tiếp trong cộng đồng,
07:58
participation within conversation,
139
478990
2072
sự tham gia của mọi người vào các cuộc trò chuyện,
08:01
learning something from the conversation.
140
481086
2493
sự có ích của những cuộc trò chuyện đó.
08:03
Those are not things that we thought of 13 years ago,
141
483603
2824
Đấy là những điều 13 năm trước chúng tôi chưa nghĩ đến,
08:06
and we believe are extremely important right now.
142
486451
2439
và giờ chúng tôi cho rằng là vô cùng quan trọng.
08:08
So we have to look at how we display the follower count,
143
488914
3023
Vậy nên chúng tôi phải nhìn nhận lại cách hiển thị lượt theo dõi,
08:11
how we display retweet count,
144
491961
2365
hiển thị lượt retweet,
08:14
how we display "likes,"
145
494350
1401
hiển thị lượt "thích,"
08:15
and just ask the deep question:
146
495775
2254
và đặt câu hỏi rằng:
08:18
Is this really the number that we want people to drive up?
147
498053
3048
Đây có phải là con số mà mọi người nên đẩy lên hay không?
08:21
Is this the thing that, when you open Twitter,
148
501125
2545
Đây có phải là việc mà, khi bạn mở Twitter lên
08:23
you see, "That's the thing I need to increase?"
149
503694
2516
và thấy, "Đó là thứ mình cần nhiều hơn nữa?"
08:26
And I don't believe that's the case right now.
150
506234
2144
Và tôi nghĩ đó không phải là điều quan trọng lúc này.
08:28
(Applause)
151
508402
2103
(Vỗ tay)
08:30
WPR: I think we should look at some of the tweets
152
510529
2352
WPR: Tôi nghĩ chúng ta nên xem một số tweet
08:32
that are coming in from the audience as well.
153
512905
2169
đến từ khán giả nữa.
08:35
CA: Let's see what you guys are asking.
154
515868
2436
CA: Để xem mọi người đang hỏi gì nào.
08:38
I mean, this is -- generally, one of the amazing things about Twitter
155
518328
3294
Tôi nghĩ -- nhìn chung, một trong những điều kì diệu của Twitter
08:41
is how you can use it for crowd wisdom,
156
521646
2294
là bạn có thể thấy được trí tuệ đám đông,
08:43
you know, that more knowledge, more questions, more points of view
157
523964
4840
bạn sẽ có nhiều kiến thức, câu hỏi, góc nhìn
08:48
than you can imagine,
158
528828
1238
ngoài sức tưởng tượng của bạn,
08:50
and sometimes, many of them are really healthy.
159
530090
3689
và đôi khi, những điều đó lại rất lành mạnh.
08:53
WPR: I think one I saw that passed already quickly down here,
160
533803
2900
WPR: Tôi vừa thấy một câu hỏi ở dưới kia,
08:56
"What's Twitter's plan to combat foreign meddling in the 2020 US election?"
161
536717
3524
"Twitter có kế hoạch gì với ảnh hưởng từ quốc tế lên bầu cử Mỹ năm 2020?"
09:00
I think that's something that's an issue we're seeing
162
540265
2571
Tôi nghĩ đó là vấn đề ta thường thấy
09:02
on the internet in general,
163
542860
1901
trên mạng nói chung,
09:04
that we have a lot of malicious automated activity happening.
164
544785
3667
là có rất nhiều những tác vụ tự động đầy ác ý đang diễn ra.
09:08
And on Twitter, for example, in fact, we have some work
165
548476
5373
Ví dụ như Twitter, trên thực tế, chúng tôi đã làm việc
09:13
that's come from our friends at Zignal Labs,
166
553873
2758
với những đồng nghiệp tại Zignal Labs,
09:16
and maybe we can even see that to give us an example
167
556655
2656
và có thể họ sẽ cho ta thấy một vài ví dụ
09:19
of what exactly I'm talking about,
168
559335
1927
về điều tôi đang nói đến,
09:21
where you have these bots, if you will,
169
561286
3204
về những cái gọi là bot hay robot mạng
09:24
or coordinated automated malicious account activity,
170
564514
4550
hay là những tài khoản tự động hóa ác ý
09:29
that is being used to influence things like elections.
171
569088
2764
được sử dụng nhằm ảnh hưởng những việc như tranh cử.
09:31
And in this example we have from Zignal which they've shared with us
172
571876
3843
Và trong ví dụ mà Zignal đã chia sẻ
09:35
using the data that they have from Twitter,
173
575743
2198
sử dụng những thông tin thu thập từ Twitter,
09:37
you actually see that in this case,
174
577965
2441
ta có thể thấy trong trường hợp này,
09:40
white represents the humans -- human accounts, each dot is an account.
175
580430
4370
mỗi chấm trắng đại diện cho một tài khoản người dùng,
09:44
The pinker it is,
176
584824
1359
Khi nó càng hồng
09:46
the more automated the activity is.
177
586207
1740
nghĩa là tài khoản đó càng tự động hơn.
09:47
And you can see how you have a few humans interacting with bots.
178
587971
5970
Và anh có thể thấy một vài người đang tương tác với các bot.
09:53
In this case, it's related to the election in Israel
179
593965
4419
Trường hợp này liên quan đến việc tranh cử tại Israel
09:58
and spreading misinformation about Benny Gantz,
180
598408
2833
và truyền bá thông tin sai lệch về Benny Gantz,
10:01
and as we know, in the end, that was an election
181
601265
2662
và như ta đã biết, trong trận tranh cử
10:03
that Netanyahu won by a slim margin,
182
603951
3724
Netanyahu đã thắng với kết quả sít sao,
10:07
and that may have been in some case influenced by this.
183
607699
2842
và đó có lẽ một phần là do ảnh hưởng từ vấn đề này.
10:10
And when you think about that happening on Twitter,
184
610565
2615
Và khi nghĩ về những gì đang diễn ra trên Twitter,
10:13
what are the things that you're doing, specifically,
185
613204
2456
cụ thể là anh đang làm những gì
10:15
to ensure you don't have misinformation like this spreading in this way,
186
615684
3702
để ngăn chặn việc truyền bá thông tin sai lệch
10:19
influencing people in ways that could affect democracy?
187
619410
4181
và ảnh hưởng người khác đến mức tác động lên nền dân chủ?
10:23
JD: Just to back up a bit,
188
623615
1771
JD: Để củng cố lí lẽ một chút,
10:25
we asked ourselves a question:
189
625410
2975
chúng tôi đã tự hỏi:
10:28
Can we actually measure the health of a conversation,
190
628409
3816
Chúng ta có thể đo lường tính lành mạnh của cuộc trò chuyện không,
10:32
and what does that mean?
191
632249
1288
và điều đó nghĩa là gì?
10:33
And in the same way that you have indicators
192
633561
3382
Cũng giống như khi sức khỏe của con người có vấn đề gì
10:36
and we have indicators as humans in terms of are we healthy or not,
193
636967
3467
thì sẽ có những dấu hiệu biểu hiện ra ngoài cơ thể
10:40
such as temperature, the flushness of your face,
194
640458
4658
như nhiệt độ, hay sắc mặt của người đó, chẳng hạn
10:45
we believe that we could find the indicators of conversational health.
195
645140
4560
thì ở đây chúng tôi tin là sẽ tìm được những biểu hiện của giao tiếp lành mạnh.
10:49
And we worked with a lab called Cortico at MIT
196
649724
3843
Và chúng tôi đã làm việc với phòng lab Cortico tại MIT
10:54
to propose four starter indicators
197
654479
6091
và đề xuất bốn biểu hiện cơ bản
11:00
that we believe we could ultimately measure on the system.
198
660594
3670
mà chúng tôi tin rằng có thể dùng để đo lường trên hệ thống.
11:05
And the first one is what we're calling shared attention.
199
665249
5604
Biểu hiện đầu tiên gọi là sự chú ý tương đồng.
11:10
It's a measure of how much of the conversation is attentive
200
670877
3581
Nó dùng để đo lường mức độ chú ý
11:14
on the same topic versus disparate.
201
674482
2630
vào một chủ đề chung từ các tài khoản trên twitter.
11:17
The second one is called shared reality,
202
677739
2783
Biểu hiện thứ hai là hiện thực tương đương,
11:21
and this is what percentage of the conversation
203
681217
2259
và đây là tỉ lệ phần trăm những thông tin
11:23
shares the same facts --
204
683500
2005
mà các bên trò chuyện cùng chia sẻ --
11:25
not whether those facts are truthful or not,
205
685529
3113
bất kể những thông tin này đúng sự thật hay không,
11:28
but are we sharing the same facts as we converse?
206
688666
3009
khi trò chuyện, ta có đang chia sẻ chung một thực tại không?
11:32
The third is receptivity:
207
692235
2353
Biểu hiện thứ ba là sự tiếp thu:
11:34
How much of the conversation is receptive or civil
208
694612
3959
Cuộc trò chuyện được sẵn sàng đón nhận, ôn hòa,
11:38
or the inverse, toxic?
209
698595
2944
hay bị ném gạch đá, có tính gây hại đến mức nào?
11:42
And then the fourth is variety of perspective.
210
702213
3222
Và biểu hiện thứ tư là sự đa dạng góc nhìn.
11:45
So, are we seeing filter bubbles or echo chambers,
211
705459
3145
Ta đang thấy những thông tin được chắt lọc hoặc chỉ lặp đi lặp lại,
11:48
or are we actually getting a variety of opinions
212
708628
3057
hay ta đang thực sự đưa ra những ý kiến, quan điểm
11:51
within the conversation?
213
711709
1635
trong cuộc trò chuyện?
11:53
And implicit in all four of these is the understanding that,
214
713368
4018
Từ đó có thể ngầm hiểu rằng,
11:57
as they increase, the conversation gets healthier and healthier.
215
717410
3390
khi bốn biểu hiện này càng rõ, cuộc trò chuyện sẽ càng lành mạnh hơn.
12:00
So our first step is to see if we can measure these online,
216
720824
4869
Vậy nên bước đầu tiên chúng tôi sẽ thử đo lường chúng qua mạng,
12:05
which we believe we can.
217
725717
1308
chúng tôi tin sẽ làm được.
12:07
We have the most momentum around receptivity.
218
727049
3167
Chúng tôi đang có những tiến triển tốt trong nghiên cứu về sự tiếp thu.
12:10
We have a toxicity score, a toxicity model, on our system
219
730240
4317
Chúng tôi đã tính được chỉ số độc hại và mô hình độc hại trên hệ thống
12:14
that can actually measure whether you are likely to walk away
220
734581
4124
cái mà có thể tính toán được khả năng rời khỏi của bạn từ
12:18
from a conversation that you're having on Twitter
221
738729
2313
một cuộc trò chuyện trên Twitter
12:21
because you feel it's toxic,
222
741066
1633
là do bạn cảm thấy nó độc hại
12:22
with some pretty high degree.
223
742723
2512
ở một mức độ cao.
12:26
We're working to measure the rest,
224
746369
2199
Chúng tôi đang đo lường các biểu hiện còn lại,
12:28
and the next step is,
225
748592
1964
và bước tiếp theo,
12:30
as we build up solutions,
226
750580
3359
là vừa xây dựng các giải pháp,
12:33
to watch how these measurements trend over time
227
753963
3491
vừa quan sát khuynh hướng của những biểu hiện này
12:37
and continue to experiment.
228
757478
1873
và tiếp tục thử nghiệm.
12:39
And our goal is to make sure that these are balanced,
229
759375
4041
Và mục tiêu của chúng tôi là đảm bảo sự cân bằng các chỉ số,
12:43
because if you increase one, you might decrease another.
230
763440
3066
vì nếu một bên tăng thì bên khác sẽ giảm.
12:46
If you increase variety of perspective,
231
766530
2147
Nếu bạn tăng sự đa dạng góc nhìn,
12:48
you might actually decrease shared reality.
232
768701
3091
có thể tính chân thực của sự thực sẽ giảm.
12:51
CA: Just picking up on some of the questions flooding in here.
233
771816
4989
CA: Đây là một trong số nhiều câu hỏi được đặt ra.
12:56
JD: Constant questioning.
234
776829
1271
JD: Câu hỏi đến dồn dập.
12:58
CA: A lot of people are puzzled why,
235
778996
3620
CA: Nhiều người đang tự hỏi
13:02
like, how hard is it to get rid of Nazis from Twitter?
236
782640
4247
việc loại những người theo Quốc xã khỏi Twitter khó lắm sao?
13:08
JD: (Laughs)
237
788309
1322
JD: (Cười)
13:09
So we have policies around violent extremist groups,
238
789655
6995
Chúng tôi có những chính sách đối với các nhóm cực đoan,
13:16
and the majority of our work and our terms of service
239
796674
4426
và đa số những hoạt động và điều khoản dịch vụ của chúng tôi
13:21
works on conduct, not content.
240
801124
3729
là về cách cư xử, không phải nội dung.
13:24
So we're actually looking for conduct.
241
804877
2551
Nên thực chất chúng tôi chỉ tìm kiếm những hành vi.
13:27
Conduct being using the service
242
807452
3014
Những hành vi sử dụng dịch vụ này
13:30
to repeatedly or episodically harass someone,
243
810490
3867
để liên tục hoặc thi thoảng quấy rối người khác,
13:34
using hateful imagery
244
814381
2493
dùng những hình ảnh đầy thù hằn
13:36
that might be associated with the KKK
245
816898
2106
mà có thể liên quan đến tổ chức KKK
13:39
or the American Nazi Party.
246
819028
3281
hay Đảng Quốc xã Mỹ.
13:42
Those are all things that we act on immediately.
247
822333
4156
Đó là những hành vi mà chúng tôi sẽ can thiệp ngay lập tức.
13:47
We're in a situation right now where that term is used fairly loosely,
248
827002
5452
Hiện tại thì điểu khoản này vẫn còn khá lới lỏng,
13:52
and we just cannot take any one mention of that word
249
832478
5313
chúng tôi không thể cho rằng
13:57
accusing someone else
250
837815
2117
chỉ một lời cáo buộc người khác
13:59
as a factual indication that they should be removed from the platform.
251
839956
3755
là bằng chứng để loại họ khỏi nền tảng này.
14:03
So a lot of our models are based around, number one:
252
843735
2627
Nên những mô hình của chúng tôi được dựa trên những điều kiện như sau:
14:06
Is this account associated with a violent extremist group?
253
846386
3140
Tài khoản này có liên đới đến nhóm bạo lực cực đoan nào không?
14:09
And if so, we can take action.
254
849550
1983
Nếu có, chúng tôi sẽ can thiệp.
14:11
And we have done so on the KKK and the American Nazi Party and others.
255
851557
3852
Và chúng tôi đã làm vậy với KKK, Đảng Quốc xã Mỹ, và các tổ chức khác.
14:15
And number two: Are they using imagery or conduct
256
855433
4183
Và thứ hai: Tài khoản đó có sử dụng hình ảnh hay có hành vi
14:19
that would associate them as such as well?
257
859640
2372
liên quan đến các tổ chức đó hay không?
14:22
CA: How many people do you have working on content moderation
258
862416
2932
CA: Hiện tại có bao nhiêu người thuộc nhóm quản lí nội dung
14:25
to look at this?
259
865372
1250
đang xem xét vấn đề này?
14:26
JD: It varies.
260
866646
1496
JD: Cũng tùy trường hợp.
14:28
We want to be flexible on this,
261
868166
1595
Chúng tôi muốn linh động hơn
14:29
because we want to make sure that we're, number one,
262
869785
2646
để đảm bảo rằng thứ nhất,
14:32
building algorithms instead of just hiring massive amounts of people,
263
872455
4424
chúng tôi đang xây dựng thuật toán chứ không chỉ thuê nhiều người
14:36
because we need to make sure that this is scalable,
264
876903
2824
vì chúng tôi cần đảm bảo tính đo lường được,
14:39
and there are no amount of people that can actually scale this.
265
879751
3454
và không phải có cứ có nhiều nhân công là sẽ đo lường được.
14:43
So this is why we've done so much work around proactive detection of abuse
266
883229
6629
Vì vậy chúng tôi tập trung vào tự động phát hiện những hành vi quấy rối
14:49
that humans can then review.
267
889882
1391
rồi sau đó con người sẽ xem xét lại.
14:51
We want to have a situation
268
891297
2861
Mục tiêu của chúng tôi là tạo ra
14:54
where algorithms are constantly scouring every single tweet
269
894182
3741
những thuật toán dò xét được từng tweet
14:57
and bringing the most interesting ones to the top
270
897947
2342
và đưa những tweet đáng chú ý nhất lên đầu
15:00
so that humans can bring their judgment to whether we should take action or not,
271
900313
3902
để con người có thể xem xét việc can thiệp vào tình hình,
15:04
based on our terms of service.
272
904239
1524
dựa trên những điều khoản dịch vụ.
15:05
WPR: But there's not an amount of people that are scalable,
273
905787
2803
WPR: Đúng là không biết bao nhiêu người để đo cho đủ,
15:08
but how many people do you currently have monitoring these accounts,
274
908614
3497
nhưng hiện tại có bao nhiêu người trong đội giám sát những tài khoản đó,
15:12
and how do you figure out what's enough?
275
912135
2546
và anh nghĩ đến mức nào thì nên can thiệp?
15:14
JD: They're completely flexible.
276
914705
2272
JD: Việc này sẽ linh hoạt tùy tình hình.
15:17
Sometimes we associate folks with spam.
277
917001
2941
Với một số người thì chúng tôi chỉ cho là spam.
15:19
Sometimes we associate folks with abuse and harassment.
278
919966
3845
Một số người thì thât sự ngược đãi và quấy rối người khác.
15:23
We're going to make sure that we have flexibility in our people
279
923835
3062
Chúng tôi đảm bảo rằng những nhân viên sẽ linh động
15:26
so that we can direct them at what is most needed.
280
926921
2350
được điều phối đến những ví trí cần thiết.
15:29
Sometimes, the elections.
281
929295
1204
Đôi khi là những đợt bầu cử.
15:30
We've had a string of elections in Mexico, one coming up in India,
282
930523
4927
Có một loạt đợt bầu cử tại Mexico, một đợt sắp diễn ra tại Ấn Độ,
15:35
obviously, the election last year, the midterm election,
283
935474
4447
đợt bầu cử năm ngoái, đợt giữa nhiệm kỳ,
15:39
so we just want to be flexible with our resources.
284
939945
2472
nên chúng tôi muốn tận dụng nguồn lực thật linh hoạt.
15:42
So when people --
285
942441
2129
Nên khi mọi người --
15:44
just as an example, if you go to our current terms of service
286
944594
6389
ví dụ, nếu bạn mở trang điều khoản dịch vụ của chúng tôi
15:51
and you bring the page up,
287
951007
1641
và xem xét những điều khoản,
15:52
and you're wondering about abuse and harassment that you just received
288
952672
3682
và bạn đang không biết những hành vi như thế nào bị coi là quấy rối
15:56
and whether it was against our terms of service to report it,
289
956378
3634
theo những điều khoản của chúng tôi,
16:00
the first thing you see when you open that page
290
960036
2559
điều đầu tiên mà bạn thấy khi mở trang đó lên
16:02
is around intellectual property protection.
291
962619
3088
là về việc bảo vệ quyền sở hữu trí tuệ.
16:06
You scroll down and you get to abuse, harassment
292
966504
5323
Khi kéo xuống xem, bạn sẽ thấy những điều mục về quấy rối, ngược đãi
16:11
and everything else that you might be experiencing.
293
971851
2382
và những hành vi khác mà bạn có thể gặp phải.
16:14
So I don't know how that happened over the company's history,
294
974257
3195
Tôi không biết trước đây như thế nào, nhưng hiện tại
16:17
but we put that above the thing that people want
295
977476
4797
chúng tôi đưa điều khoản đó lên đầu tiên
16:24
the most information on and to actually act on.
296
984146
3222
trước cả những thông tin bạn cần tìm và thực hiện theo.
16:27
And just our ordering shows the world what we believed was important.
297
987392
5241
Sự sắp xếp đó cho mọi người thấy những gì chúng tôi tin là quan trọng.
16:32
So we're changing all that.
298
992657
2881
Và giờ chúng tôi sẽ thay đổi chúng.
16:35
We're ordering it the right way,
299
995562
1563
Chúng tôi sẽ sắp xếp lại trật tự,
16:37
but we're also simplifying the rules so that they're human-readable
300
997149
3451
và cũng sẽ đơn giản hóa những điều khoản
16:40
so that people can actually understand themselves
301
1000624
4067
để mọi người có thể dễ dàng đọc hiểu được
16:44
when something is against our terms and when something is not.
302
1004715
3448
việc nào là trái với điều khoản và việc nào không.
16:48
And then we're making --
303
1008187
2161
Và chúng tôi sẽ --
16:50
again, our big focus is on removing the burden of work from the victims.
304
1010372
5200
nhắc lại, mục tiêu hàng đầu của chúng tôi là giúp những nạn nhân trút bỏ gánh nặng.
16:55
So that means push more towards technology,
305
1015596
3734
Điều này đồng nghĩa với việc thúc đẩy công nghệ,
16:59
rather than humans doing the work --
306
1019354
1873
thay vì để con người làm mọi việc --
17:01
that means the humans receiving the abuse
307
1021251
2413
con người ở đây là những nạn nhân
17:03
and also the humans having to review that work.
308
1023688
3026
cũng như những người phải làm công việc giám sát.
17:06
So we want to make sure
309
1026738
1673
Chúng tôi muốn đảm bảo
17:08
that we're not just encouraging more work
310
1028435
2841
rằng chúng tôi không chỉ khuyến khích
17:11
around something that's super, super negative,
311
1031300
2629
làm những công việc vô cùng tiêu cực,
17:13
and we want to have a good balance between the technology
312
1033953
2674
và chúng tôi muốn cân bằng giữa công nghệ
17:16
and where humans can actually be creative,
313
1036651
2852
và sự sáng tạo của con người
17:19
which is the judgment of the rules,
314
1039527
3090
trong vấn đề đánh giá những quy tắc,
17:22
and not just all the mechanical stuff of finding and reporting them.
315
1042641
3267
và không chỉ là tìm hiểu và làm báo cáo một cách máy móc.
17:25
So that's how we think about it.
316
1045932
1530
Đó là quan điểm của chúng tôi.
17:27
CA: I'm curious to dig in more about what you said.
317
1047486
2406
CA: Tôi muốn biết thêm về những gì anh chia sẻ.
17:29
I mean, I love that you said you are looking for ways
318
1049916
2605
Tôi rất ngưỡng mộ việc anh đang tìm cách
17:32
to re-tweak the fundamental design of the system
319
1052545
3462
tạo những thay đổi căn bản cho dao diện của hệ thống
17:36
to discourage some of the reactive behavior, and perhaps --
320
1056031
4875
để ngăn chặn những hành vi quá khích, và có lẽ --
17:40
to use Tristan Harris-type language --
321
1060930
2705
trích lời Tristan Harris --
17:43
engage people's more reflective thinking.
322
1063659
4288
khuyến khích mọi người suy ngẫm nhiều hơn.
17:47
How far advanced is that?
323
1067971
1854
Vậy phải phát triển đến mức nào?
17:49
What would alternatives to that "like" button be?
324
1069849
4305
Liệu có thể thay thế nút "like" bằng những phương án nào?
17:55
JD: Well, first and foremost,
325
1075518
3575
JD: Đầu tiên,
17:59
my personal goal with the service is that I believe fundamentally
326
1079117
5753
mục tiêu riêng của tôi đối với dịch vụ này là tôi tin rằng
18:04
that public conversation is critical.
327
1084894
2702
giao tiếp trong cộng đồng là vô cùng quan trọng.
18:07
There are existential problems facing the world
328
1087620
2647
Có những vấn đề cả thế giới đang phải đối mặt
18:10
that are facing the entire world, not any one particular nation-state,
329
1090291
4163
cả thế giới chứ không phải chỉ riêng một quốc gia,
18:14
that global public conversation benefits.
330
1094478
2649
mà việc trao đổi trong cộng đồng có thể giúp ích được.
18:17
And that is one of the unique dynamics of Twitter,
331
1097151
2372
Và đó là một trong những nét độc đáo của Twitter,
18:19
that it is completely open,
332
1099547
1814
nó hoàn toàn rộng mở,
18:21
it is completely public,
333
1101385
1596
hoàn toàn công khai,
18:23
it is completely fluid,
334
1103005
1399
hoàn toàn mượt mà,
18:24
and anyone can see any other conversation and participate in it.
335
1104428
4038
và mọi người đều có thể thấy và tham gia vào các cuộc trò chuyện.
Ví dụ như biến đổi khí hậu là chủ đề của rất nhiều cuộc trò chuyện.
18:28
So there are conversations like climate change.
336
1108490
2206
18:30
There are conversations like the displacement in the work
337
1110720
2682
Một số khác về sự thay thế
18:33
through artificial intelligence.
338
1113426
2000
bởi trí tuệ nhân tạo trong công việc.
18:35
There are conversations like economic disparity.
339
1115450
3006
Một số về bất bình đẳng kinh tế.
18:38
No matter what any one nation-state does,
340
1118480
2765
Một quốc gia có làm thế nào đi nữa,
18:41
they will not be able to solve the problem alone.
341
1121269
2421
cũng không thể tự mình giải quyết những vấn đề này.
18:43
It takes coordination around the world,
342
1123714
2643
Chúng đòi hỏi sự hợp tác toàn cầu,
18:46
and that's where I think Twitter can play a part.
343
1126381
3047
và tôi nghĩ đây là điều mà Twitter có thể giúp.
18:49
The second thing is that Twitter, right now, when you go to it,
344
1129452
5642
Thứ hai, hiện nay, khi bạn lên Twitter,
18:55
you don't necessarily walk away feeling like you learned something.
345
1135118
3746
bạn không nhất thiết phải cảm thấy mình đã học được điều gì đó.
18:58
Some people do.
346
1138888
1276
Một số người thì thấy vậy.
19:00
Some people have a very, very rich network,
347
1140188
3107
Một số người có mạng lưới các mối quan hệ rộng lớn,
19:03
a very rich community that they learn from every single day.
348
1143319
3117
nằm trong một cộng đồng mà họ có thể học hỏi mỗi ngày.
19:06
But it takes a lot of work and a lot of time to build up to that.
349
1146460
3691
Nhưng phải tốn nhiều thời gian và công sức để xây dựng mạng lưới đó.
19:10
So we want to get people to those topics and those interests
350
1150175
3448
Nên chúng tôi muốn kết nối mọi người với những mối quan tâm trên
19:13
much, much faster
351
1153647
1579
thật nhanh chóng
19:15
and make sure that they're finding something that,
352
1155250
2566
và đảm bảo rằng họ biết được điều gì đang diễn ra,
19:18
no matter how much time they spend on Twitter --
353
1158728
2360
dù họ bỏ ra bao nhiêu thời gian trên Twitter --
19:21
and I don't want to maximize the time on Twitter,
354
1161112
2358
tôi không muốn tối đa hóa thời gian dùng Twitter,
19:23
I want to maximize what they actually take away from it
355
1163494
2910
tôi muốn tối đa hóa những gì mọi người tiếp nhận được
19:26
and what they learn from it, and --
356
1166428
2030
mỗi khi sử dụng nó, và --
19:29
CA: Well, do you, though?
357
1169598
1328
CA: Anh mong muốn vậy sao?
19:30
Because that's the core question that a lot of people want to know.
358
1170950
3244
Vì đây là câu hỏi cốt lõi mà nhiều người muốn biết câu trả lời.
19:34
Surely, Jack, you're constrained, to a huge extent,
359
1174218
3638
Hẳn là phần nào anh cũng bị ràng buộc
19:37
by the fact that you're a public company,
360
1177880
2007
vì đây là một công ty đại chúng,
19:39
you've got investors pressing on you,
361
1179911
1774
các nhà đầu tư đang theo dõi anh,
19:41
the number one way you make your money is from advertising --
362
1181709
3559
quảng cáo là nguồn thu nhập hàng đầu của các anh --
19:45
that depends on user engagement.
363
1185292
2772
và nó dựa trên sự tương tác với người dùng.
19:48
Are you willing to sacrifice user time, if need be,
364
1188088
4700
Anh sẵn lòng hy sinh thời gian sử dụng Twitter,
19:52
to go for a more reflective conversation?
365
1192812
3729
để tạo dựng những cuộc trò chuyện đa chiều hơn sao?
19:56
JD: Yeah; more relevance means less time on the service,
366
1196565
3111
JD: Vâng, nếu tập trung vào chủ đề thì sẽ tốn ít thời gian hơn,
19:59
and that's perfectly fine,
367
1199700
1937
và điều đó hoàn toàn ổn,
20:01
because we want to make sure that, like, you're coming to Twitter,
368
1201661
3099
vì chúng tôi muốn đảm bảo rằng mỗi khi bạn lên Twitter,
20:04
and you see something immediately that you learn from and that you push.
369
1204784
4520
bạn sẽ thấy ngay thông tin cần thiết đối với bạn.
20:09
We can still serve an ad against that.
370
1209328
3420
Chúng tôi vẫn có thể cho chạy quảng cáo.
20:12
That doesn't mean you need to spend any more time to see more.
371
1212772
2921
Điều này không có nghĩa là bạn phải bỏ thêm nhiều thời gian vào việc đó.
20:15
The second thing we're looking at --
372
1215717
1733
Điều thứ hai chúng tôi đang xem xét --
20:17
CA: But just -- on that goal, daily active usage,
373
1217474
2698
CA: Nhưng -- về mục tiêu thời gian hoạt động hằng ngày,
20:20
if you're measuring that, that doesn't necessarily mean things
374
1220196
3245
tuy anh có thể đo lường nhưng cái đó không có nghĩa là những thứ
20:23
that people value every day.
375
1223465
1738
mà mọi người cũng quan tâm.
20:25
It may well mean
376
1225227
1161
Đó có thể là
20:26
things that people are drawn to like a moth to the flame, every day.
377
1226412
3306
những điều thu hút người ta như thiêu thân lao vào lửa, mỗi ngày.
20:29
We are addicted, because we see something that pisses us off,
378
1229742
3022
Chúng ta trở nên nghiện bởi vì có những thứ khiến ta bức xúc,
20:32
so we go in and add fuel to the fire,
379
1232788
3178
thế là ta lại đi đổ dầu vào lửa,
20:35
and the daily active usage goes up,
380
1235990
1927
dĩ nhiên thời gian hoạt động hàng ngày,
20:37
and there's more ad revenue there,
381
1237941
1715
và doanh thu từ quảng cáo cũng tăng,
20:39
but we all get angrier with each other.
382
1239680
2752
nhưng mọi người lại càng căm ghét nhau.
20:42
How do you define ...
383
1242456
2509
Anh quan niệm thế nào...
20:44
"Daily active usage" seems like a really dangerous term to be optimizing.
384
1244989
4126
"Thời gian sử dụng hằng ngày" có lẽ là một khía cạnh khó tối ưu hóa được.
20:49
(Applause)
385
1249139
5057
(Vỗ tay)
20:54
JD: Taken alone, it is,
386
1254220
1268
JD: Đúng, nếu xét riêng,
20:55
but you didn't let me finish the other metric,
387
1255512
2346
nhưng hãy để tôi nói tiếp về tiêu chuẩn còn lại,
20:57
which is, we're watching for conversations
388
1257882
3727
đó là những cuộc trò chuyện
21:01
and conversation chains.
389
1261633
2129
và chuỗi trò chuyện.
21:03
So we want to incentivize healthy contribution back to the network,
390
1263786
5076
Chúng tôi muốn thúc đẩy đóng góp lành mạnh cho hệ thống,
21:08
and what we believe that is is actually participating in conversation
391
1268886
4181
và chúng tôi cho rằng đó là nhờ việc tham gia trò chuyện
21:13
that is healthy,
392
1273091
1197
thực sự lành mạnh,
21:14
as defined by those four indicators I articulated earlier.
393
1274312
5037
dựa trên bốn biểu hiện tôi đã đưa ra ở trên.
21:19
So you can't just optimize around one metric.
394
1279373
2657
Nên không thể tối ưu hóa chỉ dựa trên một tiêu chí.
21:22
You have to balance and look constantly
395
1282054
2752
Chúng ta phải cân đo đong đếm và nhìn nhận
21:24
at what is actually going to create a healthy contribution to the network
396
1284830
4083
những gì thực sự sẽ đóng góp lành mạnh cho hệ thống
21:28
and a healthy experience for people.
397
1288937
2341
và trải nghiệm lành mạnh cho mọi người.
21:31
Ultimately, we want to get to a metric
398
1291302
1866
Sau cùng, chúng tôi muốn đạt tiêu chí
21:33
where people can tell us, "Hey, I learned something from Twitter,
399
1293192
3757
mà mọi người có thể nói, "Này, tôi học được điều này trên Twitter,
21:36
and I'm walking away with something valuable."
400
1296973
2167
và nó vô cùng bổ ích."
21:39
That is our goal ultimately over time,
401
1299164
2043
Đó là mục tiêu cuối cùng của chúng tôi,
21:41
but that's going to take some time.
402
1301231
1809
và sẽ tốn kha khá thời gian.
21:43
CA: You come over to many, I think to me, as this enigma.
403
1303064
5282
CA: Tôi nghĩ đối với nhiều người, anh là một bí ẩn.
21:48
This is possibly unfair, but I woke up the other night
404
1308370
4396
Điều đó khá bất công, nhưng một đêm nọ
21:52
with this picture of how I found I was thinking about you and the situation,
405
1312790
3879
tôi hình dung về anh và về vấn đề này
21:56
that we're on this great voyage with you on this ship called the "Twittanic" --
406
1316693
6903
giống như chúng ta đang vươn ra biển lớn trên con thuyền tên "Twittanic" này --
22:03
(Laughter)
407
1323620
1281
(Cười)
22:04
and there are people on board in steerage
408
1324925
4357
và có vài thuyền viên
22:09
who are expressing discomfort,
409
1329306
2203
đang tỏ ra bất mãn,
22:11
and you, unlike many other captains,
410
1331533
2543
và anh, không như nhiều thuyền trưởng khác,
22:14
are saying, "Well, tell me, talk to me, listen to me, I want to hear."
411
1334100
3431
dõng dạc, "Có vấn đề gì, hãy nói với tôi, tôi muốn nghe các bạn."
22:17
And they talk to you, and they say, "We're worried about the iceberg ahead."
412
1337555
3619
Và họ nói với anh rằng, "Chúng tôi sợ tảng băng trôi đằng trước."
22:21
And you go, "You know, that is a powerful point,
413
1341198
2242
Và anh nói, "Bạn nói cũng phải,
22:23
and our ship, frankly, hasn't been built properly
414
1343464
2430
và thật sự, thuyền của chúng ta cũng chưa đủ chắc
22:25
for steering as well as it might."
415
1345918
1669
để lái một cách tốt nhất."
22:27
And we say, "Please do something."
416
1347611
1658
Rồi chúng tôi nói, "Hãy làm gì đi."
22:29
And you go to the bridge,
417
1349293
1411
Và anh lên đài chỉ huy,
22:30
and we're waiting,
418
1350728
2295
chúng tôi thì đang chờ đợi,
22:33
and we look, and then you're showing this extraordinary calm,
419
1353047
4548
chúng tôi nhìn anh đứng bình thản một cách lạ thường,
22:37
but we're all standing outside, saying, "Jack, turn the fucking wheel!"
420
1357619
3883
nhưng chúng tôi đều ra ngoài và nói, "Jack, bẻ lái lẹ đi!"
22:41
You know?
421
1361526
1151
Bạn biết đấy?
22:42
(Laughter)
422
1362701
1335
(Cười)
22:44
(Applause)
423
1364060
2381
(Vỗ tay)
22:46
I mean --
424
1366465
1166
Ý tôi là --
22:47
(Applause)
425
1367655
1734
(Vỗ tay)
22:49
It's democracy at stake.
426
1369413
4594
Nền dân chủ đang bị đe dọa.
22:54
It's our culture at stake. It's our world at stake.
427
1374031
2821
Nền văn hóa và thế giới của chúng ta đang bị đe dọa.
22:56
And Twitter is amazing and shapes so much.
428
1376876
4706
Và Twitter thật tuyệt vời và tác động lên nhiều thứ.
23:01
It's not as big as some of the other platforms,
429
1381606
2233
Nó không lớn như một số nền tảng khác.
23:03
but the people of influence use it to set the agenda,
430
1383863
2804
nhưng những người có tầm sử dụng nó để mở đầu xu hướng,
23:06
and it's just hard to imagine a more important role in the world than to ...
431
1386691
6787
và thật khó hình dung vai trò nào quan trọng hơn là...
23:13
I mean, you're doing a brilliant job of listening, Jack, and hearing people,
432
1393502
3784
Ý tôi là, Jack, anh đang lắng nghe ý kiến của mọi người
23:17
but to actually dial up the urgency and move on this stuff --
433
1397310
4445
nhưng để thực sự khẩn trương lên và giải quyết vấn đề này --
23:21
will you do that?
434
1401779
2201
anh sẽ làm vậy chứ?
23:24
JD: Yes, and we have been moving substantially.
435
1404750
3815
JD: Vâng, và chúng tôi đang triển khai đáng kể.
23:28
I mean, there's been a few dynamics in Twitter's history.
436
1408589
3225
Đã có một số thay đổi trong lịch sử Twitter.
23:31
One, when I came back to the company,
437
1411838
2083
Một, là khi tôi quay về công ty,
23:35
we were in a pretty dire state in terms of our future,
438
1415477
6256
chúng tôi đang trong tình trạng tương lai vô định,
23:41
and not just from how people were using the platform,
439
1421757
4634
và không chỉ vì cách mọi người dùng nền tảng này,
23:46
but from a corporate narrative as well.
440
1426415
2047
mà còn là trên phương diện kinh doanh.
23:48
So we had to fix a bunch of the foundation,
441
1428486
3204
Nên chúng tôi đã phải chỉnh sửa từng bước cơ bản,
23:51
turn the company around,
442
1431714
1969
gây dựng lại công ty,
23:53
go through two crazy layoffs,
443
1433707
3111
trải qua hai đợt sa thải nhân viên,
23:56
because we just got too big for what we were doing,
444
1436842
3793
vì chúng tôi có quá nhiều nhân viên trong khi thực tế không cần nhiều đến vậy,
24:00
and we focused all of our energy
445
1440659
2060
và chúng tôi tập trung hết sức
24:02
on this concept of serving the public conversation.
446
1442743
3508
cho khái niệm phục vụ giao tiếp cộng đồng.
24:06
And that took some work.
447
1446275
1451
Và nó tốn khá nhiều công sức.
24:07
And as we dived into that,
448
1447750
2608
Và khi chúng tôi càng tìm hiểu,
24:10
we realized some of the issues with the fundamentals.
449
1450382
2992
chúng tôi nhận thấy một số vấn đề căn bản.
24:14
We could do a bunch of superficial things to address what you're talking about,
450
1454120
4656
Chúng tôi đã có thể giải quyết hời hợt những vấn đề anh đặt ra,
24:18
but we need the changes to last,
451
1458800
1790
nhưng chúng tôi phải dứt khoát thay đổi
24:20
and that means going really, really deep
452
1460614
2459
và nó đồng nghĩa với phải đào thật sâu
24:23
and paying attention to what we started 13 years ago
453
1463097
4350
và xem xét lại những gì chúng tôi bắt đầu 13 năm trước
24:27
and really questioning
454
1467471
2261
và thắc mắc rằng
24:29
how the system works and how the framework works
455
1469756
2566
hệ thống này, cơ chế này vận hành như thế nào
24:32
and what is needed for the world today,
456
1472346
3833
và điều gì là cần thiết trong bối cảnh hiện nay,
24:36
given how quickly everything is moving and how people are using it.
457
1476203
4024
khi mọi thứ thay đổi không ngừng và và cách mọi người sử dụng công cụ này.
24:40
So we are working as quickly as we can, but quickness will not get the job done.
458
1480251
6544
Chúng tôi đang khẩn trương nhất có thể, nhưng không phải cứ nhanh là xong việc.
24:46
It's focus, it's prioritization,
459
1486819
2611
Mà là sự tập trung, sự ưu tiên công việc,
24:49
it's understanding the fundamentals of the network
460
1489454
2946
sự am hiểu nền tảng của hệ thống
24:52
and building a framework that scales
461
1492424
2842
và xây dựng một khung đo lường
24:55
and that is resilient to change,
462
1495290
2351
để chống lại sự thay đổi,
24:57
and being open about where we are and being transparent about where are
463
1497665
5429
và phải minh bạch về những hoạt động của chúng tôi
25:03
so that we can continue to earn trust.
464
1503118
2179
để tiếp tục được lòng tin từ mọi người.
25:06
So I'm proud of all the frameworks that we've put in place.
465
1506141
3331
Nên tôi rất tự hào về những cơ chế đang vận hành hiện nay.
25:09
I'm proud of our direction.
466
1509496
2888
Tôi tự hào về đường lối của chúng tôi.
25:12
We obviously can move faster,
467
1512915
2718
Hẳn là chúng tôi có thể làm nhanh hơn,
25:15
but that required just stopping a bunch of stupid stuff we were doing in the past.
468
1515657
4719
nhưng chỉ cần dừng những thứ ngớ ngẩn mà chúng tôi làm trước đây.
25:21
CA: All right.
469
1521067
1164
CA: Vâng.
25:22
Well, I suspect there are many people here who, if given the chance,
470
1522255
4067
Tôi nghĩ rằng nếu có cơ hội, rất nhiều người tại khán đài đây
25:26
would love to help you on this change-making agenda you're on,
471
1526346
3989
cũng muốn được cùng anh tạo nên những thay đổi,
25:30
and I don't know if Whitney --
472
1530359
1542
và, tôi không biết nữa --
25:31
Jack, thank you for coming here and speaking so openly.
473
1531925
2761
Jack, rất cảm ơn đã đến tâm sự cùng chúng tôi.
25:34
It took courage.
474
1534710
1527
Thật can đảm.
25:36
I really appreciate what you said, and good luck with your mission.
475
1536261
3384
Tôi rất trân trọng những chia sẻ của anh, và chúc anh may mắn.
25:39
JD: Thank you so much. Thanks for having me.
476
1539669
2095
JD: Cảm ơn vì đã mời tôi.
25:41
(Applause)
477
1541788
3322
(Vỗ tay)
25:45
Thank you.
478
1545134
1159
Cảm ơn.
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7