How Twitter needs to change | Jack Dorsey

185,541 views ・ 2019-06-07

TED


Silakan klik dua kali pada teks bahasa Inggris di bawah ini untuk memutar video.

Translator: Sabrina Go Reviewer: Azfa Adid
00:13
Chris Anderson: What worries you right now?
0
13131
2408
Chris Anderson: Apa yang mencemaskan Anda saat ini?
00:15
You've been very open about lots of issues on Twitter.
1
15563
2853
Anda sudah sangat terbuka tentang banyak isu di Twitter.
00:18
What would be your top worry
2
18440
2299
Apa yang paling mencemaskan Anda
00:20
about where things are right now?
3
20763
2049
tentang hal-hal yang ada saat ini?
00:23
Jack Dorsey: Right now, the health of the conversation.
4
23447
2929
Jack Dorsey: Saat ini, percakapan yang sehat.
00:26
So, our purpose is to serve the public conversation,
5
26400
3660
Jadi, tujuan kami adalah untuk melayani percakapan publik,
00:30
and we have seen a number of attacks on it.
6
30084
5056
dan kami melihat banyak serangan.
00:35
We've seen abuse, we've seen harassment,
7
35164
2425
Kami melihat cacian, kami melihat pelecehan,
00:37
we've seen manipulation,
8
37613
3222
kami melihat manipulasi,
00:40
automation, human coordination, misinformation.
9
40859
4265
otomatisasi, koordinasi manusia, salah informasi.
00:46
So these are all dynamics that we were not expecting
10
46134
4034
Jadi dinamika ini tidak seperti yang kami harapkan
00:50
13 years ago when we were starting the company.
11
50192
3718
ketika kami memulai perusahaan ini 13 tahun yang lalu.
00:53
But we do now see them at scale,
12
53934
2664
Tapi sekarang kami melihatnya dalam besar
00:56
and what worries me most is just our ability to address it
13
56622
5278
dan yang membuat kami cemas adalah kemampuan kami mengatasi isu ini
01:01
in a systemic way that is scalable,
14
61924
3108
dengan cara yang sistematis dan terukur,
01:05
that has a rigorous understanding of how we're taking action,
15
65056
6976
yang memiliki pemahaman tepat bagaimana kami bersikap,
01:12
a transparent understanding of how we're taking action
16
72056
3105
pemahaman yang transparan tentang bagaimana kami bersikap
01:15
and a rigorous appeals process for when we're wrong,
17
75185
3101
dan proses banding yang tegas ketika kami salah,
01:18
because we will be wrong.
18
78310
2169
sebab kami pasti akan melakukan kesalahan.
01:20
Whitney Pennington Rodgers: I'm really glad to hear
19
80503
2397
Whitney Pennington Rodgers: Saya senang mendengar
01:22
that that's something that concerns you,
20
82924
1928
bahwa itu sesuatu yang Anda pedulikan,
01:24
because I think there's been a lot written about people
21
84876
2630
karena saya pikir ada banyak yang tertulis tentang
01:27
who feel they've been abused and harassed on Twitter,
22
87530
2477
mereka yang merasa dicaci dan dilecehkan di Twitter,
01:30
and I think no one more so than women and women of color
23
90031
4102
dan saya pikir yang paling terdampak adalah wanita dan wanita kulit berwarna
01:34
and black women.
24
94157
1170
dan wanita kulit hitam.
01:35
And there's been data that's come out --
25
95351
1913
Dan ada data yang keluar --
01:37
Amnesty International put out a report a few months ago
26
97288
2909
Amnesti Internasional mengeluarkan laporan beberapa bulan lalu
01:40
where they showed that a subset of active black female Twitter users
27
100221
4480
yang menunjukkan bagian dari wanita kulit hitam pengguna Twitter
01:44
were receiving, on average, one in 10 of their tweets
28
104725
3456
rata-rata menerima 1 dalam 10 cuitan mereka
01:48
were some form of harassment.
29
108205
2099
bentuk pelecehan.
01:50
And so when you think about health for the community on Twitter,
30
110328
3907
Dan kemudian saat Anda berpikir tentang kesehatan bagi komunitas di Twitter,
01:54
I'm interested to hear, "health for everyone,"
31
114259
4024
saya tertarik untuk mendengar, "kesehatan untuk semuanya,"
01:58
but specifically: How are you looking to make Twitter a safe space
32
118307
3125
tapi secara spesifik: Bagaimana Anda membuat Twitter tempat yang aman
02:01
for that subset, for women, for women of color and black women?
33
121456
4164
untuk sebagian itu, untuk para wanita, para wanita berwarna dan berkulit hitam?
02:05
JD: Yeah.
34
125644
1164
Yah.
02:06
So it's a pretty terrible situation
35
126832
2643
Jadi ini adalah situasi yang buruk
02:09
when you're coming to a service
36
129499
1619
ketika Anda datang untuk suatu jasa
02:11
that, ideally, you want to learn something about the world,
37
131142
4321
yang, idealnya, Anda bisa mempelajari sesuatu tentang dunia,
02:15
and you spend the majority of your time reporting abuse, receiving abuse,
38
135487
5443
dan Anda menghabiskan sebagian besar waktu melaporkan kekerasan, menerima cacian,
02:20
receiving harassment.
39
140954
1804
menerima pelecehan.
02:23
So what we're looking most deeply at is just the incentives
40
143373
6321
Jadi yang paling kami cari adalah insentif
02:29
that the platform naturally provides and the service provides.
41
149718
3823
bahwa ini adalah wadah yang menyediakan secara alami dan layanan menyediakan.
02:34
Right now, the dynamic of the system makes it super-easy to harass
42
154262
4577
Saat ini, dinamika dari sistem membuat sangat mudah untuk melecehkan
02:38
and to abuse others through the service,
43
158863
3664
dan mencaci orang lain melalui layanan ini,
02:42
and unfortunately, the majority of our system in the past
44
162551
3262
dan sayangnya, kebanyakan dari sistem kami di masa lalu
02:45
worked entirely based on people reporting harassment and abuse.
45
165837
5596
bekerja sepenuhnya berdasarkan orang yang melaporkan pelecehan dan cacian.
02:51
So about midway last year, we decided that we were going to apply
46
171457
5075
Jadi sekitar pertengahan tahun lalu, kami memutuskan akan menerapkan
02:56
a lot more machine learning, a lot more deep learning to the problem,
47
176556
3982
lebih banyak pembelajaran mesin, pemahaman terhadap masalah yang lebih dalam lagi,
03:00
and try to be a lot more proactive around where abuse is happening,
48
180562
4538
dan berusaha lebih proaktif di mana pelecehan terjadi,
03:05
so that we can take the burden off the victim completely.
49
185124
3960
sehingga kami bisa sepenuhnya mengangkat beban dari korban.
03:09
And we've made some progress recently.
50
189108
2435
Dan akhir-akhir ini kami sudah membuat kemajuan.
03:11
About 38 percent of abusive tweets are now proactively identified
51
191567
6689
Sekitar 38% cuitan jahat sekarang sudah didentifikasi secara proaktif
03:18
by machine learning algorithms
52
198280
1715
oleh algoritma pembelajaran mesin
03:20
so that people don't actually have to report them.
53
200019
2334
sehingga orang-orang tidak perlu melapor lagi.
03:22
But those that are identified are still reviewed by humans,
54
202377
3305
Tapi yang sudah diidentifikasi masih ditinjau oleh manusia,
03:25
so we do not take down content or accounts without a human actually reviewing it.
55
205706
5384
jadi kami tidak menutup isi atau akun tanpa ditinjau oleh manusia.
03:31
But that was from zero percent just a year ago.
56
211114
2759
Tapi itu dari nol persen setahun yang lalu.
03:33
So that meant, at that zero percent,
57
213897
1931
Jadi artinya, di nol persen,
03:35
every single person who received abuse had to actually report it,
58
215852
3650
setiap orang yang menerima aniaya harus melaporkannya,
03:39
which was a lot of work for them, a lot of work for us
59
219526
3579
yang adalah pekerjaan tambahan untuk mereka, tambahan untuk kami
03:43
and just ultimately unfair.
60
223129
2018
dan sangat tidak adil.
03:46
The other thing that we're doing is making sure that we, as a company,
61
226528
3780
Hal lain yang kami lakukan adalah memastikan bahwa kami sebagai perusahaan,
03:50
have representation of all the communities that we're trying to serve.
62
230332
3333
memiliki wakil untuk semua komunitas yang berusaha kami layani.
03:53
We can't build a business that is successful
63
233689
2159
Kita tidak bisa membangun bisnis yang sukses
03:55
unless we have a diversity of perspective inside of our walls
64
235872
3300
kecuali kita mempunyai sudut pandang beragam dalam diri kita
03:59
that actually feel these issues every single day.
65
239196
3732
yang benar-benar merasakan isu-isu tersebut setiap hari.
04:02
And that's not just with the team that's doing the work,
66
242952
3738
Dan itu bukan cuma tim yang bekerja,
04:06
it's also within our leadership as well.
67
246714
2096
tapi juga meilputi kepemimpinan kami.
04:08
So we need to continue to build empathy for what people are experiencing
68
248834
5757
Jadi kami harus melanjutkan membangun empati untuk apa yang dialami orang-orang
04:14
and give them better tools to act on it
69
254615
3316
dan memberikan mereka alat yang lebih baik untuk melakukannya
04:17
and also give our customers a much better and easier approach
70
257955
4252
dan juga memberikan pelanggan kami pendekatan yang lebih baik dan lebih mudah
04:22
to handle some of the things that they're seeing.
71
262231
2382
untuk menangani beberapa hal yang mereka lihat.
04:24
So a lot of what we're doing is around technology,
72
264637
3266
Jadi banyak yang kami lakukan berhubungan dengan teknologi
04:27
but we're also looking at the incentives on the service:
73
267927
4308
tapi kami juga melihat insentif dari layanan tersebut:
04:32
What does Twitter incentivize you to do when you first open it up?
74
272259
5183
Apa yang didorong oleh Twitter untuk Anda lakukan saat pertama kali membukanya?
04:37
And in the past,
75
277466
1294
Dan di masa lalu,
04:40
it's incented a lot of outrage, it's incented a lot of mob behavior,
76
280670
5544
hal itu mendorong banyak amarah, mendorong banyak perilaku massa,
04:46
it's incented a lot of group harassment.
77
286238
2459
mendorong banyak pelecehan berkelompok.
04:48
And we have to look a lot deeper at some of the fundamentals
78
288721
3648
dan kami harus melihat lebih dalam pada beberapa hal mendasar
04:52
of what the service is doing to make the bigger shifts.
79
292393
2958
yang dilakukan layanan ini untuk membuat perubahan yang lebih besar.
04:55
We can make a bunch of small shifts around technology, as I just described,
80
295375
4031
Kami bisa membuat banyak perubahan kecil seputar teknologi, seperti saya jelaskan,
04:59
but ultimately, we have to look deeply at the dynamics in the network itself,
81
299430
4386
tapi intinya, kami harus melihat lebih dalam dinamika dalam jaringan itu sendiri,
05:03
and that's what we're doing.
82
303840
1368
dan itu yang sedang kami lakukan.
05:05
CA: But what's your sense --
83
305232
2060
Tapi apa maksud Anda --
05:07
what is the kind of thing that you might be able to change
84
307316
3963
apa hal yang mungkin bisa Anda ubah
05:11
that would actually fundamentally shift behavior?
85
311303
2749
yang bisa benar-benar secara fundamental mengubah perilaku?
05:15
JD: Well, one of the things --
86
315386
1480
Salah satunya --
05:16
we started the service with this concept of following an account,
87
316890
5340
kami memulai layanan ini dengan konsep mengikuti sebuah akun,
05:22
as an example,
88
322254
1725
sebagai contoh,
05:24
and I don't believe that's why people actually come to Twitter.
89
324003
4349
dan saya tidak yakin itu sebabnya orang menggunakan Twitter.
05:28
I believe Twitter is best as an interest-based network.
90
328376
4857
Saya yakin Twitter baiknya sebagai jaringan berdasarkan minat.
05:33
People come with a particular interest.
91
333257
3453
Orang datang dengan minat tertentu.
05:36
They have to do a ton of work to find and follow the related accounts
92
336734
3487
Mereka harus melakukan banyak hal untuk menemukan dan mengikuti akun tersebut
05:40
around those interests.
93
340245
1405
sesuai dengan minat.
05:42
What we could do instead is allow you to follow an interest,
94
342217
3397
Jadi yang bisa kita lakukan adalah membiarkan mereka mengikuti sebuah minat,
05:45
follow a hashtag, follow a trend,
95
345638
2103
mengikuti tagar, mengikuti tren,
05:47
follow a community,
96
347765
1754
mengikuti sebuah komunitas,
05:49
which gives us the opportunity to show all of the accounts,
97
349543
4637
yang memberikan kita kesempatan untuk menunjukkan semua akun,
05:54
all the topics, all the moments, all the hashtags
98
354204
3323
semua topik, semua momen, semua tagar
05:57
that are associated with that particular topic and interest,
99
357551
3992
yang berhubungan dengan topik tertentu dan minat,
06:01
which really opens up the perspective that you see.
100
361567
4600
yang benar-benar membuka cara pandang pengelihatan mereka.
06:06
But that is a huge fundamental shift
101
366191
2157
Tapi itu perubahan fundamental yang besar
06:08
to bias the entire network away from just an account bias
102
368372
3792
untuk membiaskan seluruh jaringan dari bias akun
06:12
towards a topics and interest bias.
103
372188
2587
menuju sebuah topik dan bias minat.
06:15
CA: Because isn't it the case
104
375283
3148
Sebab bukankah itu sebabnya
06:19
that one reason why you have so much content on there
105
379375
3541
alasan Anda punya banyak sekali konten
06:22
is a result of putting millions of people around the world
106
382940
3591
hasil dari menaruh jutaan orang dari seluruh dunia
06:26
in this kind of gladiatorial contest with each other
107
386555
3142
di dalam semacam kontes gladiator antara satu sama lain
06:29
for followers, for attention?
108
389721
2090
demi pengikut, demi perhatian?
06:31
Like, from the point of view of people who just read Twitter,
109
391835
4117
Seperti, dari sudut pandang orang yang hanyak membaca Twitter,
06:35
that's not an issue,
110
395976
1155
itu bukan masalah,
06:37
but for the people who actually create it, everyone's out there saying,
111
397155
3350
tapi untuk orang yang membuatnya, orang di luar sana berkata,
06:40
"You know, I wish I had a few more 'likes,' followers, retweets."
112
400529
3236
"Kau tahu, kuharap aku punya lebih banyak 'suka,' pengikut, retweet."
06:43
And so they're constantly experimenting,
113
403789
2148
Akhirnya mereka secara konstan bereskperimen,
06:45
trying to find the path to do that.
114
405961
1961
berusaha mencari jalan untuk melakukannya.
06:47
And what we've all discovered is that the number one path to do that
115
407946
4126
Dan semua yang sudah kita temukan adalah jalan utama untuk melakukannya
06:52
is to be some form of provocative,
116
412096
3406
adalah menjadi semacam provokatif,
06:55
obnoxious, eloquently obnoxious,
117
415526
2980
menjengkelkan, sangat memuakkan,
06:58
like, eloquent insults are a dream on Twitter,
118
418530
3516
seperti, ejekan yang fasih adalah mimpi di Twitter,
07:02
where you rapidly pile up --
119
422070
2603
di mana dengan cepat Anda kumpulkan --
07:04
and it becomes this self-fueling process of driving outrage.
120
424697
4608
dan ini menjadi proses isi ulang mandiri dalam mengobarkan amarah.
07:09
How do you defuse that?
121
429329
2351
Bagaimana Anda memadamkannya?
07:12
JD: Yeah, I mean, I think you're spot on,
122
432624
2947
Yah, maksud saya, saya pikir Anda tepat sekali,
07:15
but that goes back to the incentives.
123
435595
1886
tapi kembali lagi ke insentif.
07:17
Like, one of the choices we made in the early days was
124
437505
2632
Seperti, salah satu pilihan yang kami buat di awal adalah
07:20
we had this number that showed how many people follow you.
125
440161
4701
kami punya angka yang menunjukkan berapa banyak orang yang mengikutimu.
07:24
We decided that number should be big and bold,
126
444886
2959
Kami memutuskan angka tersebut harus besar dan tebal,
07:27
and anything that's on the page that's big and bold has importance,
127
447869
3740
dan semua yang ada di halaman itu yang besar dan tebal itu penting,
07:31
and those are the things that you want to drive.
128
451633
2278
dan itu adalah hal-hal yang ingin Anda dorong.
07:33
Was that the right decision at the time?
129
453935
1907
Apakah itu keputusan yang tepat pada waktu itu?
07:35
Probably not.
130
455866
1153
Mungkin tidak.
07:37
If I had to start the service again,
131
457043
1805
Jika saya harus memulai lagi,
07:38
I would not emphasize the follower count as much.
132
458872
2398
saya tidak akan sebegitunya mementingkan pengikut.
07:41
I would not emphasize the "like" count as much.
133
461294
2295
Saya tidak akan begitu mementingkan jumlah "suka" .
07:43
I don't think I would even create "like" in the first place,
134
463613
3120
Saya pikir saya tidak akan membuat "suka" sama sekali,
07:46
because it doesn't actually push
135
466757
3267
sebab itu tidak benar-benar mendorong
07:50
what we believe now to be the most important thing,
136
470048
3179
apa yang kami percaya sekarang sebagai hal yang paling penting,
07:53
which is healthy contribution back to the network
137
473251
3039
yang adalah kontribusi sehat kembali kepada jaringan
07:56
and conversation to the network,
138
476314
2652
dan percakapan ke jaringan,
07:58
participation within conversation,
139
478990
2072
partisipasi dalam percakapan,
08:01
learning something from the conversation.
140
481086
2493
mempelajari sesuatu dari percakapan.
08:03
Those are not things that we thought of 13 years ago,
141
483603
2824
Itu bukanlah pikiran kami 13 tahun yang lalu,
08:06
and we believe are extremely important right now.
142
486451
2439
dan kami yakin sangat penting sekarang.
08:08
So we have to look at how we display the follower count,
143
488914
3023
Jadi kami harus melihat bagaimana kami menampilkan akun pengikut,
08:11
how we display retweet count,
144
491961
2365
menampilkan jumlah retweet,
08:14
how we display "likes,"
145
494350
1401
bagaimana kami menampilkan "suka,"
08:15
and just ask the deep question:
146
495775
2254
dan menanyakan pertanyaan yang dalam:
Apakah ini benar-benar jumlah yang kami inginkan agar didorong orang-orang?
08:18
Is this really the number that we want people to drive up?
147
498053
3048
08:21
Is this the thing that, when you open Twitter,
148
501125
2545
Apakah ini hal yang ketika Anda membuka Twitter,
08:23
you see, "That's the thing I need to increase?"
149
503694
2516
Anda melihat, "Itu hal yang harus saya tingkatkan?"
08:26
And I don't believe that's the case right now.
150
506234
2144
Dan saya tidak percaya itu masalahnya sekarang.
08:28
(Applause)
151
508402
2103
(Tepuk tangan)
08:30
WPR: I think we should look at some of the tweets
152
510529
2352
Saya pikir kita harus melihat pada beberapa cuitan
08:32
that are coming in from the audience as well.
153
512905
2169
yang juga datang dari penonton.
08:35
CA: Let's see what you guys are asking.
154
515868
2436
Coba lihat apa yang Anda sekalian tanyakan.
08:38
I mean, this is -- generally, one of the amazing things about Twitter
155
518328
3294
Maksud saya, ini -- umumnya, satu dari banyak hal menakjubkan dari Twitter
08:41
is how you can use it for crowd wisdom,
156
521646
2294
adalah bisa digunakan untuk menyebarkan kebijaksanaan,
08:43
you know, that more knowledge, more questions, more points of view
157
523964
4840
bahwa lebih banyak pengetahuan, pertanyaan, sudut pandang
08:48
than you can imagine,
158
528828
1238
lebih dari yang bisa dibayangkan,
08:50
and sometimes, many of them are really healthy.
159
530090
3689
dan terkadang, banyak dari mereka benar-benar sehat.
08:53
WPR: I think one I saw that passed already quickly down here,
160
533803
2900
Saya kira saya melihat satu barusan di bawah sini,
08:56
"What's Twitter's plan to combat foreign meddling in the 2020 US election?"
161
536717
3524
"Apa rencana Twitter untuk melawan campur tangan asing dalam pemilu 2020?"
09:00
I think that's something that's an issue we're seeing
162
540265
2571
Saya pikir itu adalah isu yang kita hadapi
09:02
on the internet in general,
163
542860
1901
di internet secara umum,
09:04
that we have a lot of malicious automated activity happening.
164
544785
3667
bahwa kita punya banyak kegiatan buruk terotomatisasi terjadi.
09:08
And on Twitter, for example, in fact, we have some work
165
548476
5373
Dan di Twitter, contohnya, faktanya, kita punya pekerjaan
09:13
that's come from our friends at Zignal Labs,
166
553873
2758
yang datang dari teman kita di Zignal Labs,
09:16
and maybe we can even see that to give us an example
167
556655
2656
dan mungkin kita bisa melihat bahwa sebagai contoh
09:19
of what exactly I'm talking about,
168
559335
1927
tentang apa tepatnya yang saya maksud,
09:21
where you have these bots, if you will,
169
561286
3204
di mana Anda punya bot-bot ini,
09:24
or coordinated automated malicious account activity,
170
564514
4550
atau aktivitas akun otomatis yang terkoordinasi,
09:29
that is being used to influence things like elections.
171
569088
2764
yang digunakan untuk mempengaruhi hal-hal seperti pemilu.
09:31
And in this example we have from Zignal which they've shared with us
172
571876
3843
Dan dalam contoh ini Zignal telah berbagi dengan kita
09:35
using the data that they have from Twitter,
173
575743
2198
menggunakan data yang mereka miliki dari Twitter,
09:37
you actually see that in this case,
174
577965
2441
Anda lihat dalam kasus ini,
09:40
white represents the humans -- human accounts, each dot is an account.
175
580430
4370
putih mewakili manusia -- akun manusia, setiap titik adalah akun.
09:44
The pinker it is,
176
584824
1359
Semakin merah jambu,
09:46
the more automated the activity is.
177
586207
1740
semakin otomatis akun tersebut.
09:47
And you can see how you have a few humans interacting with bots.
178
587971
5970
Dan Anda bisa lihat bagaimana beberapa manusia berinterkasi dengan bot.
09:53
In this case, it's related to the election in Israel
179
593965
4419
Dalam kasus ini, hal ini berhubungan dengan pemilu di Israel
09:58
and spreading misinformation about Benny Gantz,
180
598408
2833
dan menyebarkan informasi yang salah tentang Benny Gantz,
10:01
and as we know, in the end, that was an election
181
601265
2662
dan seperti kita tahu, akhirnya, dalam pemilu itu
10:03
that Netanyahu won by a slim margin,
182
603951
3724
di mana Netanyahu menang tipis,
10:07
and that may have been in some case influenced by this.
183
607699
2842
dan mungkin ada beberapa kasus terpengaruh oleh hal ini.
10:10
And when you think about that happening on Twitter,
184
610565
2615
Dan saat Anda berpikir apa yang terjadi dengan Twitter,
10:13
what are the things that you're doing, specifically,
185
613204
2456
apa hal-hal yang Anda lakukan, secara spesifik,
10:15
to ensure you don't have misinformation like this spreading in this way,
186
615684
3702
untuk memastikan Anda tidak menerima salah informasi yang tersebar seperti ini,
10:19
influencing people in ways that could affect democracy?
187
619410
4181
mempengaruhi orang-orang yang bisa mempengaruhi demokrasi?
10:23
JD: Just to back up a bit,
188
623615
1771
Mundur sedikit,
10:25
we asked ourselves a question:
189
625410
2975
kami bertanya pada diri sendiri:
10:28
Can we actually measure the health of a conversation,
190
628409
3816
Bisakah kami mengukur kesehatan sebuah pecakapan,
10:32
and what does that mean?
191
632249
1288
dan apa artinya itu?
10:33
And in the same way that you have indicators
192
633561
3382
Dan dengan cara yang sama Anda punya indikator
10:36
and we have indicators as humans in terms of are we healthy or not,
193
636967
3467
dan kami punya indikator sebagai manusia perihal apakah kita sehat atau tidak,
10:40
such as temperature, the flushness of your face,
194
640458
4658
seperti suhu, rona wajah,
10:45
we believe that we could find the indicators of conversational health.
195
645140
4560
kami percaya kami dapat menemukan indikator percakapan yang sehat.
10:49
And we worked with a lab called Cortico at MIT
196
649724
3843
Dan kami bekerja bersama dengan sebuah laboratorium bernama Cortico di MIT
10:54
to propose four starter indicators
197
654479
6091
untuk mengajukan empat indikator pemicu
11:00
that we believe we could ultimately measure on the system.
198
660594
3670
yang kami percaya bisa mengukur dalam sistem.
11:05
And the first one is what we're calling shared attention.
199
665249
5604
Dan yang pertama adalah yang kami sebut pembagian perhatian.
11:10
It's a measure of how much of the conversation is attentive
200
670877
3581
Ini adalah ukuran seberapa banyak percakapan yang memperhatikan
11:14
on the same topic versus disparate.
201
674482
2630
topik yang sama dibanding yang berbeda.
11:17
The second one is called shared reality,
202
677739
2783
Yang kedua disebut pembagian realita,
11:21
and this is what percentage of the conversation
203
681217
2259
dan ini adalah persentase dari percakapan
11:23
shares the same facts --
204
683500
2005
yang memiliki fakta yang sama --
11:25
not whether those facts are truthful or not,
205
685529
3113
bukan apakah fakta tersebut benar atau tidak,
11:28
but are we sharing the same facts as we converse?
206
688666
3009
tapi apakah kita berbagi fakta yang sama selama percakapan?
11:32
The third is receptivity:
207
692235
2353
Yang ketiga adalah penerimaan:
11:34
How much of the conversation is receptive or civil
208
694612
3959
Seberapa banyak dari percakapan yang bisa diterima atau sopan
11:38
or the inverse, toxic?
209
698595
2944
atau kebalikannya, beracun?
11:42
And then the fourth is variety of perspective.
210
702213
3222
Dan keempat adalah ragam cara pandang.
11:45
So, are we seeing filter bubbles or echo chambers,
211
705459
3145
Jadi, kita melihat filter bubbles atau echo chamber,
11:48
or are we actually getting a variety of opinions
212
708628
3057
atau sebenarnya kita mendapat macam-macam opini
11:51
within the conversation?
213
711709
1635
dari percakapan?
11:53
And implicit in all four of these is the understanding that,
214
713368
4018
Dan implisit dari keempatnya adalah pemahaman bahwa,
11:57
as they increase, the conversation gets healthier and healthier.
215
717410
3390
semakin bertambahnya hal ini, percakapan menjadi sehat dan makin sehat.
12:00
So our first step is to see if we can measure these online,
216
720824
4869
Jadi langkah pertama adalah melihat apakah kami bisa mengukurnya secara daring,
12:05
which we believe we can.
217
725717
1308
yang kami yakini kami mampu.
12:07
We have the most momentum around receptivity.
218
727049
3167
Kami memiliki momentum seputar penerimaan.
12:10
We have a toxicity score, a toxicity model, on our system
219
730240
4317
Kami punya skor keburukan, model keburukan dalam sistem kami
12:14
that can actually measure whether you are likely to walk away
220
734581
4124
yang bisa mengukur dengan benar apakah Anda cenderung untuk pergi
12:18
from a conversation that you're having on Twitter
221
738729
2313
dari percakapan yang sedang Anda lakukan di Twitter
12:21
because you feel it's toxic,
222
741066
1633
sebab Anda merasa itu buruk,
12:22
with some pretty high degree.
223
742723
2512
dengan derajat yang tinggi.
12:26
We're working to measure the rest,
224
746369
2199
Kami sedang bekerja untuk mengukur sisanya,
12:28
and the next step is,
225
748592
1964
dan langkah selanjutnya adalah
12:30
as we build up solutions,
226
750580
3359
sambil mencari solusinya,
12:33
to watch how these measurements trend over time
227
753963
3491
memperhatikan bagaimana arah pengukuran ini
12:37
and continue to experiment.
228
757478
1873
dan melanjutkan eksperimen.
12:39
And our goal is to make sure that these are balanced,
229
759375
4041
Dan tujuan kami adalah memastikan keseimbangannya,
12:43
because if you increase one, you might decrease another.
230
763440
3066
sebab jika Anda menambah satu Anda mungkin mengurangi yang lain.
12:46
If you increase variety of perspective,
231
766530
2147
Jika Anda menambah ragam sudut pandang,
12:48
you might actually decrease shared reality.
232
768701
3091
Anda mungkin malah mengurangi kenyataan yang dibagikan.
12:51
CA: Just picking up on some of the questions flooding in here.
233
771816
4989
Hanya memilih beberapa pertanyaan yang masuk di sini.
12:56
JD: Constant questioning.
234
776829
1271
Pertanyaan konstan.
12:58
CA: A lot of people are puzzled why,
235
778996
3620
Banyak orang bingung mengapa,
13:02
like, how hard is it to get rid of Nazis from Twitter?
236
782640
4247
seperti, seberapa sulit menghilangkan Nazi dari Twitter?
13:08
JD: (Laughs)
237
788309
1322
(Tertawa)
13:09
So we have policies around violent extremist groups,
238
789655
6995
Jadi kami memiliki aturan seputar kelompok ekstrem yang keras,
13:16
and the majority of our work and our terms of service
239
796674
4426
dan mayoritas pekerjaan kami dan persyaratan layanan kami
13:21
works on conduct, not content.
240
801124
3729
bekerja dengan tingkah laku, bukan konten.
13:24
So we're actually looking for conduct.
241
804877
2551
Jadi sebenarnya kami mencari perilaku.
13:27
Conduct being using the service
242
807452
3014
Perilaku adalah menggunakan layanan
13:30
to repeatedly or episodically harass someone,
243
810490
3867
untuk berulang-ulang atau secara episodik melecehkan seseorang,
13:34
using hateful imagery
244
814381
2493
menggunakan gambar yang penuh kebencian
13:36
that might be associated with the KKK
245
816898
2106
yang bisa dihubungkan dengan KKK
13:39
or the American Nazi Party.
246
819028
3281
atau Partai Nazi Amerika.
13:42
Those are all things that we act on immediately.
247
822333
4156
Itulah hal-hal yang kami tindak secepatnya.
13:47
We're in a situation right now where that term is used fairly loosely,
248
827002
5452
Kita berada dalam situasi di mana istilah tersebut digunakan dengan sembrono,
13:52
and we just cannot take any one mention of that word
249
832478
5313
dan kami tidak bisa mengambil satu penggunaan untuk kata tersebut
13:57
accusing someone else
250
837815
2117
menuduh orang lain
13:59
as a factual indication that they should be removed from the platform.
251
839956
3755
sebagai indikasi nyata bahwa mereka harus dihilangkan dari wadah ini.
14:03
So a lot of our models are based around, number one:
252
843735
2627
Jadi banyak model kami berdasarkan pada, satu:
14:06
Is this account associated with a violent extremist group?
253
846386
3140
apakah akun ini berhubungan dengan kelompok ekstremis yang keras?
14:09
And if so, we can take action.
254
849550
1983
Dan jika ya, kami akan bertindak.
14:11
And we have done so on the KKK and the American Nazi Party and others.
255
851557
3852
Dan kami sudah melakukannya dengan KKK dan Partai Nazi Amerika dan lainnya.
14:15
And number two: Are they using imagery or conduct
256
855433
4183
Dan kedua: Apakah mereka menggunakan gambar atau perilaku
14:19
that would associate them as such as well?
257
859640
2372
yang menghubungkan mereka dengan hal semacam itu?
14:22
CA: How many people do you have working on content moderation
258
862416
2932
Berapa banyak orang yang Anda pekerjakan untuk moderasi konten
14:25
to look at this?
259
865372
1250
untuk ini semua?
14:26
JD: It varies.
260
866646
1496
Bermacam-macam.
14:28
We want to be flexible on this,
261
868166
1595
Kami ingin fleksibel dengan ini,
14:29
because we want to make sure that we're, number one,
262
869785
2646
sebab kami ingin memastikan bahwa kami, yang pertama,
14:32
building algorithms instead of just hiring massive amounts of people,
263
872455
4424
membuat algoritma alih-alih hanya memperkerjakan banyak orang,
14:36
because we need to make sure that this is scalable,
264
876903
2824
sebab kami harus memastikan ini bisa dalam skala besar,
14:39
and there are no amount of people that can actually scale this.
265
879751
3454
dan tidak ada jumlah orang yang benar-benar bisa memenuhi ini.
14:43
So this is why we've done so much work around proactive detection of abuse
266
883229
6629
Jadi ini sebabnya kami banyak bekerja seputar deteksi kekerasan proaktif
14:49
that humans can then review.
267
889882
1391
yang kemudian bisa ditinjau manusia.
14:51
We want to have a situation
268
891297
2861
Kami ingin memiliki situasi
14:54
where algorithms are constantly scouring every single tweet
269
894182
3741
di mana algoritma secara konstan memeriksa setiap cuitan
14:57
and bringing the most interesting ones to the top
270
897947
2342
dan membawa yang paling menarik ke atas
15:00
so that humans can bring their judgment to whether we should take action or not,
271
900313
3902
sehingga manusia bisa membawa penilaian mereka untuk bertindak atau tidak,
15:04
based on our terms of service.
272
904239
1524
berdasarkan syarat layanan kami.
15:05
WPR: But there's not an amount of people that are scalable,
273
905787
2803
Tapi itu tidak ada jumlah orang yang bisa memenuhi itu,
15:08
but how many people do you currently have monitoring these accounts,
274
908614
3497
jadi berapa orang yang saat ini Anda punya mengawasi akun-akun ini,
15:12
and how do you figure out what's enough?
275
912135
2546
dan bagaimana Anda menentukan apa yang cukup?
15:14
JD: They're completely flexible.
276
914705
2272
Mereka sangat fleksibel.
15:17
Sometimes we associate folks with spam.
277
917001
2941
Terkadang kami asosiasikan orang-orang dengan spam.
15:19
Sometimes we associate folks with abuse and harassment.
278
919966
3845
Terkadang kami asosiasikan mereka dengan kekerasan dan pelecehan.
15:23
We're going to make sure that we have flexibility in our people
279
923835
3062
Kami akan memastikan bahwa orang-orang kami punya fleksibilitas
15:26
so that we can direct them at what is most needed.
280
926921
2350
jadi mereka bisa diarahkan untuk yang paling penting.
15:29
Sometimes, the elections.
281
929295
1204
Terkadang, pemilu.
15:30
We've had a string of elections in Mexico, one coming up in India,
282
930523
4927
Kami punya serangkaian pemilu di Meksiko, satu akan diadakan di India,
15:35
obviously, the election last year, the midterm election,
283
935474
4447
tentu saja, pemilu tahun lalu, pemilu pertengahan tahun,
15:39
so we just want to be flexible with our resources.
284
939945
2472
jadi kami hanya ingin fleksibel dengan sumber daya kami.
15:42
So when people --
285
942441
2129
Jadi ketika orang-orang --
15:44
just as an example, if you go to our current terms of service
286
944594
6389
hanya contoh, jika Anda lihat syarat layanan kami yang sekarang
15:51
and you bring the page up,
287
951007
1641
dan jika Anda naikkan halamannya
15:52
and you're wondering about abuse and harassment that you just received
288
952672
3682
dan Anda ingin tahu tentang aniaya dan pelecehan yang baru Anda terima
15:56
and whether it was against our terms of service to report it,
289
956378
3634
dan apakah melaporkannya melanggar persyaratan kami,
hal pertama yang Anda lihat ketika membuka halaman itu
16:00
the first thing you see when you open that page
290
960036
2559
16:02
is around intellectual property protection.
291
962619
3088
adalah seputar perlindungan hak milik intelektual.
16:06
You scroll down and you get to abuse, harassment
292
966504
5323
Anda geser ke bawah dan sampai ke kekerasan, pelecehan
16:11
and everything else that you might be experiencing.
293
971851
2382
dan hal lain yang mungkin Anda alami.
16:14
So I don't know how that happened over the company's history,
294
974257
3195
Jadi saya tidak tahu bagaimana itu bisa terjadi selama sejarah perusahaan,
16:17
but we put that above the thing that people want
295
977476
4797
tapi kami menempatkannya di atas keinginan orang akan
16:24
the most information on and to actually act on.
296
984146
3222
informasi yang paling diinginkan dan yang akan benar-benar ditindak.
16:27
And just our ordering shows the world what we believed was important.
297
987392
5241
Dan susunan kami menunjukkan pada dunia apa yang kami percayai penting.
16:32
So we're changing all that.
298
992657
2881
Jadi kami mengubah semua itu.
16:35
We're ordering it the right way,
299
995562
1563
Kami mengurutkannya dengan benar,
16:37
but we're also simplifying the rules so that they're human-readable
300
997149
3451
tapi kami juga menyederhanakan aturan agar terbaca manusia
16:40
so that people can actually understand themselves
301
1000624
4067
sehingga orang-orang bisa mengerti diri sendiri
16:44
when something is against our terms and when something is not.
302
1004715
3448
ketika sesuatu berlawanan dengan syarat kami dan ketika tidak berlawanan.
16:48
And then we're making --
303
1008187
2161
Dan kemudian kami membuat --
16:50
again, our big focus is on removing the burden of work from the victims.
304
1010372
5200
lagi, fokus terbesar kami adalah menghilangkan beban dari para korban.
16:55
So that means push more towards technology,
305
1015596
3734
Jadi artinya lebih mengandalkan teknologi.
16:59
rather than humans doing the work --
306
1019354
1873
daripada manusianya yang bekerja --
17:01
that means the humans receiving the abuse
307
1021251
2413
artinya manusia yang menerima kekerasan
17:03
and also the humans having to review that work.
308
1023688
3026
dan manusia juga yang harus meninjau pekerjaannya.
17:06
So we want to make sure
309
1026738
1673
Kami ingin memastikan
17:08
that we're not just encouraging more work
310
1028435
2841
bahwa kami tidak hanya mendorong lebih banyak pekerjaan
17:11
around something that's super, super negative,
311
1031300
2629
seputar sesuatu yang sangat, sangat negatif,
17:13
and we want to have a good balance between the technology
312
1033953
2674
dan kami ingin memiliki keseimbangan yang baik antara teknologi
17:16
and where humans can actually be creative,
313
1036651
2852
dan di mana manusia bisa menjadi kreatif,
17:19
which is the judgment of the rules,
314
1039527
3090
yang mana adalah penilaian dari peraturan,
17:22
and not just all the mechanical stuff of finding and reporting them.
315
1042641
3267
dan bukan hanya hal mekanis tentang menemukan dan melaporkan mereka.
17:25
So that's how we think about it.
316
1045932
1530
Jadi itulah cara kami memikirkannya.
17:27
CA: I'm curious to dig in more about what you said.
317
1047486
2406
Saya ingin tahu lebih jauh tentang kata-kata Anda.
17:29
I mean, I love that you said you are looking for ways
318
1049916
2605
Saya senang Anda berkata Anda mencari jalan
17:32
to re-tweak the fundamental design of the system
319
1052545
3462
untuk mengulik lagi rancangan fundamental dari sistem
17:36
to discourage some of the reactive behavior, and perhaps --
320
1056031
4875
untuk menghalangi perilaku reaktif dan mungkin --
17:40
to use Tristan Harris-type language --
321
1060930
2705
memakai gaya bahasa Tristan Harris --
17:43
engage people's more reflective thinking.
322
1063659
4288
mengikutsertakan pemikiran reflektif orang.
17:47
How far advanced is that?
323
1067971
1854
Seberapa majukah itu?
17:49
What would alternatives to that "like" button be?
324
1069849
4305
Apa alternatif dari tombol "suka'?
17:55
JD: Well, first and foremost,
325
1075518
3575
Pertama dan terutama,
17:59
my personal goal with the service is that I believe fundamentally
326
1079117
5753
tujuan pribadi saya untuk layanan ini adalah saya percaya secara fundamental
18:04
that public conversation is critical.
327
1084894
2702
bahwa percakapan publik adalah kritis.
18:07
There are existential problems facing the world
328
1087620
2647
Dunia mengalami masalah eksitensial
18:10
that are facing the entire world, not any one particular nation-state,
329
1090291
4163
yang dialami seluruh dunia, bukan hanya bangsa tertentu,
18:14
that global public conversation benefits.
330
1094478
2649
yang diuntungkan oleh percakapan publik.
18:17
And that is one of the unique dynamics of Twitter,
331
1097151
2372
Dan itu adalah satu dari dinamika unik Twitter,
18:19
that it is completely open,
332
1099547
1814
bahwa Twitter sangat terbuka,
18:21
it is completely public,
333
1101385
1596
sangat terbuka untuk umum,
18:23
it is completely fluid,
334
1103005
1399
sangat luwes,
18:24
and anyone can see any other conversation and participate in it.
335
1104428
4038
dan siapapun bisa melihat percakapan lain dan ikut serta.
18:28
So there are conversations like climate change.
336
1108490
2206
Jadi ada percakapan tentang perubahan iklim.
18:30
There are conversations like the displacement in the work
337
1110720
2682
Ada percakapan tentang penggantian kerja
18:33
through artificial intelligence.
338
1113426
2000
melalui kecerdasan artifisial.
18:35
There are conversations like economic disparity.
339
1115450
3006
Ada percakapan tentang kesenjangan ekonomi.
18:38
No matter what any one nation-state does,
340
1118480
2765
Tidak peduli apa yang dilakukan negara,
18:41
they will not be able to solve the problem alone.
341
1121269
2421
mereka tidak akan mampu menyelesaikan masalah sendirian.
18:43
It takes coordination around the world,
342
1123714
2643
Dibutuhkan koordinasi seluruh dunia,
18:46
and that's where I think Twitter can play a part.
343
1126381
3047
dan itulah saya pikir Twitter bisa berperan.
18:49
The second thing is that Twitter, right now, when you go to it,
344
1129452
5642
Yang kedua adalah Twitter, saat ini, jika Anda membukanya,
18:55
you don't necessarily walk away feeling like you learned something.
345
1135118
3746
Anda tidak benar-benar pergi dengan perasaan sudah belajar sesuatu.
18:58
Some people do.
346
1138888
1276
Beberapa orang demikian.
19:00
Some people have a very, very rich network,
347
1140188
3107
Beberapa orang punya jaringan yang amat sangat, sangat luas,
19:03
a very rich community that they learn from every single day.
348
1143319
3117
komunitas yang yang besar jadi mereka bisa belajar setiap harinya.
19:06
But it takes a lot of work and a lot of time to build up to that.
349
1146460
3691
Tapi butuh kerja keras dan waktu untuk membangun itu semua.
19:10
So we want to get people to those topics and those interests
350
1150175
3448
Jadi kami ingin membawa orang-orang ke topik dan minat tersebut
19:13
much, much faster
351
1153647
1579
lebih cepat lagi
19:15
and make sure that they're finding something that,
352
1155250
2566
dan memastikan bahwa mereka menemukan sesuatu yang,
19:18
no matter how much time they spend on Twitter --
353
1158728
2360
seberapapun lamanya mereka menghabiskan waktu di Twitter --
19:21
and I don't want to maximize the time on Twitter,
354
1161112
2358
dan saya tidak mau memaksimalkan waktu mereka di Twitter,
19:23
I want to maximize what they actually take away from it
355
1163494
2910
saya mau memaksimalkan apa yang mereka dapat dari Twitter
19:26
and what they learn from it, and --
356
1166428
2030
dan apa yang mereka pelajari, dan --
19:29
CA: Well, do you, though?
357
1169598
1328
Apakah Anda begitu?
19:30
Because that's the core question that a lot of people want to know.
358
1170950
3244
Karena itulah pertanyaan pokoknya yang ingin diketahui orang-orang.
19:34
Surely, Jack, you're constrained, to a huge extent,
359
1174218
3638
Tentunya, Jack, Anda dibatasi, di tingkat yang sangat besar,
19:37
by the fact that you're a public company,
360
1177880
2007
oleh fakta bahwa Twitter adalah perusahaan publik,
19:39
you've got investors pressing on you,
361
1179911
1774
ada investor yang menekan Anda,
19:41
the number one way you make your money is from advertising --
362
1181709
3559
cara nomor satu untuk menghasilkan uang adalah dari iklan --
19:45
that depends on user engagement.
363
1185292
2772
itu tergantung perjanjian pengguna.
19:48
Are you willing to sacrifice user time, if need be,
364
1188088
4700
Apakah Anda rela mengorbankan waktu pengguna, jika diperlukan,
19:52
to go for a more reflective conversation?
365
1192812
3729
untuk memperoleh percakapan yang reflektif?
19:56
JD: Yeah; more relevance means less time on the service,
366
1196565
3111
Yah; lebih relevan berarti lebih sedikit waktu untuk layanan,
19:59
and that's perfectly fine,
367
1199700
1937
dan itu tidak apa-apa,
20:01
because we want to make sure that, like, you're coming to Twitter,
368
1201661
3099
sebab kami ingin memastikan bahwa Anda datang ke Twitter
20:04
and you see something immediately that you learn from and that you push.
369
1204784
4520
dan Anda langsung melihat sesuatu yang bisa dipelajari dan Anda mendorongnya.
20:09
We can still serve an ad against that.
370
1209328
3420
Kami masih bisa menampilkan iklan melawannya.
20:12
That doesn't mean you need to spend any more time to see more.
371
1212772
2921
Bukan berarti Anda harus menyediakan waktu lagi untuk melihat lebih.
20:15
The second thing we're looking at --
372
1215717
1733
Hal kedua yang kami lihat --
20:17
CA: But just -- on that goal, daily active usage,
373
1217474
2698
Tapi -- tujuan itu, penggunaan aktif harian,
20:20
if you're measuring that, that doesn't necessarily mean things
374
1220196
3245
jika Anda mengukurnya, bukan berarti hal yang
20:23
that people value every day.
375
1223465
1738
dihargai orang setiap harinya.
20:25
It may well mean
376
1225227
1161
Mungkin bisa berarti
20:26
things that people are drawn to like a moth to the flame, every day.
377
1226412
3306
hal yang menarik orang-orang seperti ngengat tertarik pada api, setiap hari.
20:29
We are addicted, because we see something that pisses us off,
378
1229742
3022
Kita ketagihan karena kita melihat sesuatu yang menjengkelkan kita,
20:32
so we go in and add fuel to the fire,
379
1232788
3178
jadi kita masuk dan menyiram minyak ke api,
20:35
and the daily active usage goes up,
380
1235990
1927
dan penggunaan aktif harian meningkat,
20:37
and there's more ad revenue there,
381
1237941
1715
dan ada penerimaan iklan yang lebih,
20:39
but we all get angrier with each other.
382
1239680
2752
tapi kita menjadi lebih marah pada satu sama lain.
20:42
How do you define ...
383
1242456
2509
Bagaimana Anda mendefinisikan ...
20:44
"Daily active usage" seems like a really dangerous term to be optimizing.
384
1244989
4126
"penggunaan aktif harian" terlihat seperti istilah berbahaya untuk dioptimalisasi.
20:49
(Applause)
385
1249139
5057
(Tepuk tangan)
20:54
JD: Taken alone, it is,
386
1254220
1268
Berdiri sendiri, iya
20:55
but you didn't let me finish the other metric,
387
1255512
2346
tapi Anda tidak membiarkan saya menyelesaikan,
20:57
which is, we're watching for conversations
388
1257882
3727
yaitu kita memperhatikan percakapan
21:01
and conversation chains.
389
1261633
2129
dan rantai percakapan.
21:03
So we want to incentivize healthy contribution back to the network,
390
1263786
5076
Jadi kami ingin mendorong kontribusi yang sehat kembali ke dalam jaringan,
21:08
and what we believe that is is actually participating in conversation
391
1268886
4181
dan yang kami yakini adalah ikut serta dalam percakapan
21:13
that is healthy,
392
1273091
1197
yang sehat,
21:14
as defined by those four indicators I articulated earlier.
393
1274312
5037
sesuai yang didefinisikan oleh empat indikator yang saya sebutkan di awal.
21:19
So you can't just optimize around one metric.
394
1279373
2657
Jadi Anda tidak bisa hanya mengoptimalkan di satu metrik.
21:22
You have to balance and look constantly
395
1282054
2752
Anda harus menyeimbangkan dan melihat secara konstan
21:24
at what is actually going to create a healthy contribution to the network
396
1284830
4083
pada apa yang akan menghasilkan konrtibusi yang sehat untuk jaringan
21:28
and a healthy experience for people.
397
1288937
2341
dan pengalaman yang sehat bagi banyak orang.
21:31
Ultimately, we want to get to a metric
398
1291302
1866
Akhirnya, kami ingin mendapatkan metrik
21:33
where people can tell us, "Hey, I learned something from Twitter,
399
1293192
3757
di mana orang bisa mengatakan pada kami "Hei, saya belajar sesuatu dari Twitter,
21:36
and I'm walking away with something valuable."
400
1296973
2167
dan saya pergi dengan hal yang berharga."
21:39
That is our goal ultimately over time,
401
1299164
2043
Itulah tujuan pokok kami,
21:41
but that's going to take some time.
402
1301231
1809
tapi akan butuh waktu.
21:43
CA: You come over to many, I think to me, as this enigma.
403
1303064
5282
Anda dilihat banyak orang, menurut saya terutama, sebagai misteri.
21:48
This is possibly unfair, but I woke up the other night
404
1308370
4396
Mungkin ini tidak adil, tapi saya terbangun di suatu malam
21:52
with this picture of how I found I was thinking about you and the situation,
405
1312790
3879
dengan gambaran bagaimana saya sedang berpikir tentang Anda dan situasi ini,
21:56
that we're on this great voyage with you on this ship called the "Twittanic" --
406
1316693
6903
bahwa kita sedang berada dalam perjalanan di atas kapal bernama "Twittanic" --
22:03
(Laughter)
407
1323620
1281
(tertawa)
22:04
and there are people on board in steerage
408
1324925
4357
dan ada orang-orang di geladak
22:09
who are expressing discomfort,
409
1329306
2203
yang menyatakan ketidaknyamanan,
22:11
and you, unlike many other captains,
410
1331533
2543
dan Anda, tidak seperti banyak kapten lainnya,
22:14
are saying, "Well, tell me, talk to me, listen to me, I want to hear."
411
1334100
3431
berkata, "Nah, bicaralah pada saya, dengarkan saya, saya ingin dengar."
22:17
And they talk to you, and they say, "We're worried about the iceberg ahead."
412
1337555
3619
Dan mereka bicara dan kata mereka, "Kami khawatir dengan gunung es di depan."
22:21
And you go, "You know, that is a powerful point,
413
1341198
2242
Dan Anda jawab, "Anda tahu, itu poin yang kuat,
22:23
and our ship, frankly, hasn't been built properly
414
1343464
2430
dan kapal kita, sejujurnya, belum dibangun dengan benar
22:25
for steering as well as it might."
415
1345918
1669
untuk dikemudikan sebaik seharusnya."
22:27
And we say, "Please do something."
416
1347611
1658
Dan kata kami, "Tolong lakukan sesuatu."
22:29
And you go to the bridge,
417
1349293
1411
Dan Anda pergi ke anjungan,
22:30
and we're waiting,
418
1350728
2295
dan kami menunggu,
22:33
and we look, and then you're showing this extraordinary calm,
419
1353047
4548
dan kami melihat dan kemudian Anda menunjukkan ketenangan luar biasa,
22:37
but we're all standing outside, saying, "Jack, turn the fucking wheel!"
420
1357619
3883
tapi kita semua berdiri di luar, berkata, "Jack, putar setirnya!"
22:41
You know?
421
1361526
1151
Anda tahu?
22:42
(Laughter)
422
1362701
1335
(Tertawa)
22:44
(Applause)
423
1364060
2381
(Tepuk tangan)
22:46
I mean --
424
1366465
1166
Maksud saya --
22:47
(Applause)
425
1367655
1734
(Tepuk tangan)
22:49
It's democracy at stake.
426
1369413
4594
Demokrasi jadi taruhan.
22:54
It's our culture at stake. It's our world at stake.
427
1374031
2821
Kebudayaan kita jadi taruhan. Dunia kita jadi taruhan.
22:56
And Twitter is amazing and shapes so much.
428
1376876
4706
Dan Twitter amat mengagumkan dan membentuk begitu banyak.
23:01
It's not as big as some of the other platforms,
429
1381606
2233
Ini tidak sebesar wadah yang lain,
23:03
but the people of influence use it to set the agenda,
430
1383863
2804
tapi orang-orang yang berpengaruh menggunakannya untuk membuat agenda,
23:06
and it's just hard to imagine a more important role in the world than to ...
431
1386691
6787
dan sungguh sulit membayangkan peran yang lebih penting di dunia daripada ...
23:13
I mean, you're doing a brilliant job of listening, Jack, and hearing people,
432
1393502
3784
maksud saya, Anda melakukan hal hebat dalam mendengarkan, Jack dan mendengar,
23:17
but to actually dial up the urgency and move on this stuff --
433
1397310
4445
tapi untuk benar-benar memahami kegawatannya dan bertindak --
23:21
will you do that?
434
1401779
2201
akankah Anda melakukannya?
23:24
JD: Yes, and we have been moving substantially.
435
1404750
3815
Ya, dan kami sudah bergerak secara substansial.
23:28
I mean, there's been a few dynamics in Twitter's history.
436
1408589
3225
Maksud saya, ada bebeapa dinamika dalam sejarah Twitter.
23:31
One, when I came back to the company,
437
1411838
2083
Satu, saat saya kembali ke perusahaan,
23:35
we were in a pretty dire state in terms of our future,
438
1415477
6256
kami sedang dalam situasi yang buruk mengenai masa depan perusahaan,
23:41
and not just from how people were using the platform,
439
1421757
4634
dan bukan hanya bagaimana orang menggunakan wadah ini,
23:46
but from a corporate narrative as well.
440
1426415
2047
tapi juga dari sisi perusahaan.
23:48
So we had to fix a bunch of the foundation,
441
1428486
3204
Jadi kami harus memperbaiki beberapa dasar,
23:51
turn the company around,
442
1431714
1969
membalik perusahaan,
23:53
go through two crazy layoffs,
443
1433707
3111
melewati dua kali rangkaian PHK,
23:56
because we just got too big for what we were doing,
444
1436842
3793
karena kami menjadi terlalu besar untuk apa yang kami lakukan,
24:00
and we focused all of our energy
445
1440659
2060
dan kami memusatkan seluruh energi
24:02
on this concept of serving the public conversation.
446
1442743
3508
untuk konsep melayani percakapan publik ini.
24:06
And that took some work.
447
1446275
1451
Dan itu membutuhkan usaha.
24:07
And as we dived into that,
448
1447750
2608
Dan sementara kami mengerjakannya,
24:10
we realized some of the issues with the fundamentals.
449
1450382
2992
kami menyadari beberapa isu tentang hal-hal fundamental.
24:14
We could do a bunch of superficial things to address what you're talking about,
450
1454120
4656
Kami bisa melakukan banyak hal dangkal untuk mengangkat pembicaraan orang,
24:18
but we need the changes to last,
451
1458800
1790
tapi kami butuh perubahan untuk bertahan
24:20
and that means going really, really deep
452
1460614
2459
dan itu artinya masuk ke dalam sekali
24:23
and paying attention to what we started 13 years ago
453
1463097
4350
dan memperhatikan pada apa yang kami mulai 13 tahun lalu
24:27
and really questioning
454
1467471
2261
dan benar-benar mempertanyakan
24:29
how the system works and how the framework works
455
1469756
2566
bagaiman cara kerja sistem dan cara kerja susunan
24:32
and what is needed for the world today,
456
1472346
3833
dan apa yang dibutuhkan oleh dunia saat ini,
24:36
given how quickly everything is moving and how people are using it.
457
1476203
4024
dilihat dari cepatnya semua bergerak dan bagaimana orang-orang menggunakannya.
24:40
So we are working as quickly as we can, but quickness will not get the job done.
458
1480251
6544
Jadi kami bekerja secepat yang kami bisa tapi cepat tidak menyelesaikan masalah.
24:46
It's focus, it's prioritization,
459
1486819
2611
Dibutuhkan fokus, prioritas,
24:49
it's understanding the fundamentals of the network
460
1489454
2946
memahami hal mendasar dari jaringan
24:52
and building a framework that scales
461
1492424
2842
dan membangun rangka yang mengukur
24:55
and that is resilient to change,
462
1495290
2351
dan yang bertahan terhadap perubahan,
24:57
and being open about where we are and being transparent about where are
463
1497665
5429
dan terbuka tentang di mana kita dan transparan tentang di mana kita
25:03
so that we can continue to earn trust.
464
1503118
2179
agar kita bisa terus memperoleh kepercayaan.
25:06
So I'm proud of all the frameworks that we've put in place.
465
1506141
3331
Jadi saya bangga dengan semua rangka yang kami letakkan.
25:09
I'm proud of our direction.
466
1509496
2888
Saya bangga dengan tujuan kami.
25:12
We obviously can move faster,
467
1512915
2718
Sudah tentu kami bisa bergerak lebih cepat,
25:15
but that required just stopping a bunch of stupid stuff we were doing in the past.
468
1515657
4719
tapi perlu menghentikan banyak hal bodoh yang kita lakukan di masa lalu.
25:21
CA: All right.
469
1521067
1164
Baiklah.
25:22
Well, I suspect there are many people here who, if given the chance,
470
1522255
4067
Saya kira ada banyak orang di sini yang jika diberi kesempatan,
25:26
would love to help you on this change-making agenda you're on,
471
1526346
3989
akan senang membantu Anda dalam agenda membuat perubahan Anda,
25:30
and I don't know if Whitney --
472
1530359
1542
dan saya tidak tahu apakah Whitney --
25:31
Jack, thank you for coming here and speaking so openly.
473
1531925
2761
Jack, terima kasih sudah datang ke sini dan berbicara dengan terbuka
25:34
It took courage.
474
1534710
1527
Membutuhkan keberanian.
25:36
I really appreciate what you said, and good luck with your mission.
475
1536261
3384
Saya sangat menghargai yang Anda katakan, dan semoga beruntung dengan misi Anda.
25:39
JD: Thank you so much. Thanks for having me.
476
1539669
2095
Terima kasih banyak. Terima kasih sudah menerima saya.
25:41
(Applause)
477
1541788
3322
(Tepuk tangan)
Terima kasih.
25:45
Thank you.
478
1545134
1159
Tentang situs web ini

Situs ini akan memperkenalkan Anda pada video YouTube yang berguna untuk belajar bahasa Inggris. Anda akan melihat pelajaran bahasa Inggris yang diajarkan oleh guru-guru terbaik dari seluruh dunia. Klik dua kali pada subtitle bahasa Inggris yang ditampilkan di setiap halaman video untuk memutar video dari sana. Subtitle bergulir selaras dengan pemutaran video. Jika Anda memiliki komentar atau permintaan, silakan hubungi kami menggunakan formulir kontak ini.

https://forms.gle/WvT1wiN1qDtmnspy7