How you can help transform the internet into a place of trust | Claire Wardle

53,671 views ・ 2019-11-15

TED


Silakan klik dua kali pada teks bahasa Inggris di bawah ini untuk memutar video.

Translator: Yohealvien Himerlyn Reviewer: Karen Winardi
00:13
No matter who you are or where you live,
0
13548
2516
Tidak peduli siapa Anda dan di mana Anda tinggal,
00:16
I'm guessing that you have at least one relative
1
16088
2356
saya rasa Anda pasti setidaknya mengenal seseorang
00:18
that likes to forward those emails.
2
18468
2334
yang suka meneruskan email-email itu.
00:21
You know the ones I'm talking about --
3
21206
1900
Anda tahu yang saya bicarakan -
00:23
the ones with dubious claims or conspiracy videos.
4
23130
2854
surel dengan klaim meragukan atau video konspirasi.
00:26
And you've probably already muted them on Facebook
5
26315
2668
Anda mungkin sudah mendiamkan mereka di Facebook
00:29
for sharing social posts like this one.
6
29007
2348
karena telah membagikan pos sosial seperti ini.
00:31
It's an image of a banana
7
31379
1404
Ini adalah sebuah foto pisang
00:32
with a strange red cross running through the center.
8
32807
2667
dengan bentuk salib merah yang aneh di tengah-tengah
00:35
And the text around it is warning people
9
35498
2139
Dan teks di sekelilingnya memperingatkan orang
00:37
not to eat fruits that look like this,
10
37661
2158
untuk tidak memakan buah seperti ini,
00:39
suggesting they've been injected with blood
11
39843
2028
menginfokan buah itu telah disuntik
00:41
contaminated with the HIV virus.
12
41895
2130
darah yang terkontaminasi oleh virus HIV.
00:44
And the social share message above it simply says,
13
44049
2603
Dan pesan sosial di atasnya hanya mengatakan
00:46
"Please forward to save lives."
14
46676
2181
"Sebarkan untuk menyelamatkan hidup."
00:49
Now, fact-checkers have been debunking this one for years,
15
49672
3294
Sekarang, pemeriksa fakta telah menyanggah ini selama bertahun-tahun,
00:52
but it's one of those rumors that just won't die.
16
52990
2809
tapi itu salah satu rumor yang tidak akan mati.
00:55
A zombie rumor.
17
55823
1271
Rumor serupa zombie.
00:57
And, of course, it's entirely false.
18
57513
2093
Dan, tentu saja, itu sepenuhnya salah.
01:00
It might be tempting to laugh at an example like this, to say,
19
60180
2959
Mungkin Anda tergoda menertawakan contohnya, untuk bilang,
01:03
"Well, who would believe this, anyway?"
20
63163
1884
"Yah, siapa yang akan percaya ini?"
01:05
But the reason it's a zombie rumor
21
65419
1626
Alasan rumor itu menjadi zombie,
01:07
is because it taps into people's deepest fears about their own safety
22
67069
3889
karena itu menyentuh ketakutan terdalam orang tentang keamanan mereka sendiri
01:10
and that of the people they love.
23
70982
2175
dan orang-orang yang mereka cintai.
01:13
And if you spend as enough time as I have looking at misinformation,
24
73783
3273
Jika Anda telah sering melihat informasi yang salah seperti saya,
01:17
you know that this is just one example of many
25
77080
2420
Anda tahu bahwa ini hanya satu dari banyak contoh
01:19
that taps into people's deepest fears and vulnerabilities.
26
79524
3047
yang menyentuh ketakutan terdalam dan terentan orang.
01:23
Every day, across the world, we see scores of new memes on Instagram
27
83214
4369
Setiap hari, di seluruh dunia, kita melihat puluhan meme baru di Instagram
01:27
encouraging parents not to vaccinate their children.
28
87607
3039
yang mendorong orang tua untuk tidak memvaksinasi anak mereka.
01:30
We see new videos on YouTube explaining that climate change is a hoax.
29
90670
4532
Kita melihat video baru YouTube yang menjelaskan perubahan iklim ialah tipuan.
01:35
And across all platforms, we see endless posts designed to demonize others
30
95226
4302
Di seluruh platform, kita melihat banyak unggahan yang menjelekkan orang lain
01:39
on the basis of their race, religion or sexuality.
31
99552
3501
berdasarkan ras, agama atau seksualitas mereka.
01:44
Welcome to one of the central challenges of our time.
32
104314
3030
Selamat datang di salah satu tantangan penting zaman kita.
01:47
How can we maintain an internet with freedom of expression at the core,
33
107647
4025
Bagaimana kita bisa mempertahankan kebebasan berekspresi di internet,
01:51
while also ensuring that the content that's being disseminated
34
111696
3303
sambil memastikan bahwa konten yang disebarluaskan
01:55
doesn't cause irreparable harms to our democracies, our communities
35
115023
3886
tidak menyebabkan kerusakan permanen pada demokrasi kita, komunitas kita
01:58
and to our physical and mental well-being?
36
118933
2238
serta kesehatan fisik dan mental kita?
02:01
Because we live in the information age,
37
121998
2087
Karena kita hidup dalam era informasi,
02:04
yet the central currency upon which we all depend -- information --
38
124109
3547
namun mata uang pusat yang menyangkut kehidupan kita semua - informasi -
02:07
is no longer deemed entirely trustworthy
39
127680
2357
tidak lagi dianggap dapat sepenuhnya dipercaya
02:10
and, at times, can appear downright dangerous.
40
130061
2328
dan, terkdadang dapat tampak sangat berbahaya.
02:12
This is thanks in part to the runaway growth of social sharing platforms
41
132811
3937
Sebagian ini berkat pertumbuhan cepat dari platform berbagi sosial
02:16
that allow us to scroll through,
42
136772
1642
yang memungkinkan kita menelusuri,
02:18
where lies and facts sit side by side,
43
138438
2222
dimana kebohongan dan fakta hidup bersisian,
02:20
but with none of the traditional signals of trustworthiness.
44
140684
3071
tetapi tanpa sinyal tradisional kepercayaan.
02:24
And goodness -- our language around this is horribly muddled.
45
144268
3619
Dan kebaikan - bahasa kita di sekitar ini sangat kacau.
02:27
People are still obsessed with the phrase "fake news,"
46
147911
3103
Orang-orang masih terobsesi dengan frasa "berita palsu,"
02:31
despite the fact that it's extraordinarily unhelpful
47
151038
2531
walaupun itu sangat tidak membantu dan
02:33
and used to describe a number of things that are actually very different:
48
153593
3460
digunakan untuk menjabarkan beberapa hal yang sebenarnya sangat berbeda:
02:37
lies, rumors, hoaxes, conspiracies, propaganda.
49
157077
3386
kebohongan, rumor, tipuan, konspirasi, propaganda.
02:40
And I really wish we could stop using a phrase
50
160911
2912
Dan saya sangat berharap kita bisa berhenti menggunakan frasa
02:43
that's been co-opted by politicians right around the world,
51
163847
2862
yang telah dipahami berbeda oleh politikus di seluruh dunia,
02:46
from the left and the right,
52
166733
1471
dari sayap kiri dan kanan,
02:48
used as a weapon to attack a free and independent press.
53
168228
3222
digunakan sebagai senjata menyerang pers yang bebas dan independen.
02:52
(Applause)
54
172307
4702
(Tepuk tangan)
02:57
Because we need our professional news media now more than ever.
55
177033
3462
sebab kita butuh media berita profesional lebih dari sebelumnya.
03:00
And besides, most of this content doesn't even masquerade as news.
56
180882
3373
Dan selain itu, sebagian besar konten tidak menyamar sebagai berita.
03:04
It's memes, videos, social posts.
57
184279
2642
Mereka berupa meme, video, pos sosial.
03:06
And most of it is not fake; it's misleading.
58
186945
3453
Dan sebagian besar dari mereka tidak palsu; justru menyesatkan.
03:10
We tend to fixate on what's true or false.
59
190422
3015
Kita cenderung terpaku pada apa yang benar atau salah.
03:13
But the biggest concern is actually the weaponization of context.
60
193461
4032
Tetapi kekhawatiran terbesar sebenarnya adalah persenjataan konteks.
03:18
Because the most effective disinformation
61
198855
1968
03:20
has always been that which has a kernel of truth to it.
62
200847
3048
selalu berupa hal yang memiliki inti kebenaran di dalamnya.
03:23
Let's take this example from London, from March 2017,
63
203919
3476
Mari kita ambil contoh ini dari London, bulan Maret 2017,
03:27
a tweet that circulated widely
64
207419
1540
tweet yang beredar luas
03:28
in the aftermath of a terrorist incident on Westminster Bridge.
65
208983
3587
setelah insiden teroris di Jembatan Westminster.
03:32
This is a genuine image, not fake.
66
212594
2428
Ini adalah gambar asli, bukan palsu.
03:35
The woman who appears in the photograph was interviewed afterwards,
67
215046
3169
Wanita yang muncul di foto diwawancarai setelah peristiwa itu,
03:38
and she explained that she was utterly traumatized.
68
218239
2409
dan dia menjelaskan bahwa dia benar-benar trauma.
03:40
She was on the phone to a loved one,
69
220672
1738
Dia menelepon orang yang dicintai,
03:42
and she wasn't looking at the victim out of respect.
70
222434
2618
dan dia tidak memandang korban atas rasa hormat.
03:45
But it still was circulated widely with this Islamophobic framing,
71
225076
3960
Tapi kabar itu masih beredar luas dengan sudut pandang Islamofobik ini,
03:49
with multiple hashtags, including: #BanIslam.
72
229060
3046
dengan banyak tagar, termasuk: #BanIslam.
03:52
Now, if you worked at Twitter, what would you do?
73
232425
2398
Jika Anda pegawai Twitter, apa yang Anda lakukan?
03:54
Would you take that down, or would you leave it up?
74
234847
2562
Apa Anda akan menghapusnya atau membiarkannya?
03:58
My gut reaction, my emotional reaction, is to take this down.
75
238553
3429
Reaksi naluriah dan emosional saya, adalah menghapusnya.
04:02
I hate the framing of this image.
76
242006
2142
Saya benci sudut pandang gambar ini.
04:04
But freedom of expression is a human right,
77
244585
2388
Tapi kebebasan berekspresi ialah HAM,
04:06
and if we start taking down speech that makes us feel uncomfortable,
78
246997
3225
dan jika kita mulai menghapus ujaran yang membuat kita tidak nyaman,
04:10
we're in trouble.
79
250246
1230
kita punya masalah.
04:11
And this might look like a clear-cut case,
80
251500
2294
Mungkin ini terlihat seperti kasus yang jelas,
04:13
but, actually, most speech isn't.
81
253818
1698
tapi, sebenarnya, kebanyakan tidak.
04:15
These lines are incredibly difficult to draw.
82
255540
2436
Garis batas ini luar biasa sulit untuk dibuat.
04:18
What's a well-meaning decision by one person
83
258000
2281
Keputusan dengan niat baik dari satu orang
04:20
is outright censorship to the next.
84
260305
2077
ialah sensor terhadap hal berikutnya.
04:22
What we now know is that this account, Texas Lone Star,
85
262759
2929
Apa yang sekarang kita tahu ialah akun ini, Texas Lone Star,
04:25
was part of a wider Russian disinformation campaign,
86
265712
3230
adalah bagian dari kampanye disinformasi Rusia yang lebih luas,
04:28
one that has since been taken down.
87
268966
2151
kampanye yang telah lama dihapus.
04:31
Would that change your view?
88
271141
1563
Apa itu mengubah pandangan Anda?
04:33
It would mine,
89
273322
1159
Bagi saya, iya,
04:34
because now it's a case of a coordinated campaign
90
274505
2301
sebab kini, itu contoh kampanye terkoordinasi
04:36
to sow discord.
91
276830
1215
demi menabur perpecahan.
04:38
And for those of you who'd like to think
92
278069
1961
Dan bagi Anda yang ingin berpikir
04:40
that artificial intelligence will solve all of our problems,
93
280054
2831
bahwa kecerdasan buatan akan selesaikan semua masalah kita,
04:42
I think we can agree that we're a long way away
94
282909
2225
Saya pikir bisa sepakat bahwa kita masih jauh
04:45
from AI that's able to make sense of posts like this.
95
285158
2587
dari AI yang bisa memahami unggahan seperti ini.
04:48
So I'd like to explain three interlocking issues
96
288856
2507
Jadi saya ingin jelaskan tiga masalah saling terkait
04:51
that make this so complex
97
291387
2373
yang membuat hal ini sangat kompleks
04:53
and then think about some ways we can consider these challenges.
98
293784
3122
dan memikirkan cara-cara untuk mempertimbangkan tantangan ini.
04:57
First, we just don't have a rational relationship to information,
99
297348
3890
Pertama, kita tidak hanya memiliki hubungan rasional dengan informasi,
05:01
we have an emotional one.
100
301262
1468
tapi juga hubungan emosional.
05:02
It's just not true that more facts will make everything OK,
101
302754
3794
Pemikiran semakin banyak fakta membuat semua lebih baik tidaklah benar,
05:06
because the algorithms that determine what content we see,
102
306572
3100
karena algoritma yang menentukan konten apa yang kita lihat,
05:09
well, they're designed to reward our emotional responses.
103
309696
3127
yah, mereka dirancang untuk menghargai respons emosional kita.
05:12
And when we're fearful,
104
312847
1381
Dan ketika kita takut,
05:14
oversimplified narratives, conspiratorial explanations
105
314252
3174
narasi yang terlalu disederhanakan, penjelasan konspirasi
05:17
and language that demonizes others is far more effective.
106
317450
3418
dan bahasa yang menjelekkan orang lain jauh lebih efektif.
05:21
And besides, many of these companies,
107
321538
1874
Selain itu, banyak dari perusahaan ini,
05:23
their business model is attached to attention,
108
323436
2546
model bisnis mereka berkaitan dengan perhatian,
05:26
which means these algorithms will always be skewed towards emotion.
109
326006
3690
yang berarti algoritma ini akan selalu condong ke arah emosi.
05:30
Second, most of the speech I'm talking about here is legal.
110
330371
4298
Kedua, sebagian besar ujaran yang saya bicarakan di sini bersifat sah.
05:35
It would be a different matter
111
335081
1446
Itu akan jadi kasus berbeda
05:36
if I was talking about child sexual abuse imagery
112
336551
2341
jika saya membicarakan konten pelecehan seksual
05:38
or content that incites violence.
113
338916
1927
terhadap anak atau pemicu kekerasan.
05:40
It can be perfectly legal to post an outright lie.
114
340867
3270
Memposting kebohongan jelas ialah legal,
05:45
But people keep talking about taking down "problematic" or "harmful" content,
115
345130
4034
tapi orang terus bicara tentang menghapus konten "bermasalah" atau "berbahaya",
05:49
but with no clear definition of what they mean by that,
116
349188
2609
tanpa adanya definisi jelas tentang maksud mereka,
05:51
including Mark Zuckerberg,
117
351821
1264
termasuk Mark Zuckerberg,
05:53
who recently called for global regulation to moderate speech.
118
353109
3412
yang baru-baru ini menyerukan regulasi global demi ujaran moderat.
05:56
And my concern is that we're seeing governments
119
356870
2215
Dan kekhawatiran saya ialah melihat pemerintah
05:59
right around the world
120
359109
1292
di seluruh dunia
06:00
rolling out hasty policy decisions
121
360425
2676
meluncurkan keputusan kebijakan yang tergesa-gesa
06:03
that might actually trigger much more serious consequences
122
363125
2746
dan mungkin akan memicu konsekuensi yang jauh lebih serius
06:05
when it comes to our speech.
123
365895
1714
bila berbicara tentang ujaran kita.
06:08
And even if we could decide which speech to take up or take down,
124
368006
3706
Dan jika kita bisa memutuskan ujaran mana yang akan kita naikkan atau hapus,
06:11
we've never had so much speech.
125
371736
2174
kita belum memiliki ujaran sebanyak ini.
06:13
Every second, millions of pieces of content
126
373934
2131
Setiap detik, jutaan keping konten
06:16
are uploaded by people right around the world
127
376089
2107
diunggah oleh orang-orang di seluruh dunia
06:18
in different languages,
128
378220
1168
dalam berbagai bahasa,
06:19
drawing on thousands of different cultural contexts.
129
379412
2768
berdasarkan ribuan konteks budaya yang berbeda.
06:22
We've simply never had effective mechanisms
130
382204
2532
Kita belum pernah memiliki mekanisme yang efektif
06:24
to moderate speech at this scale,
131
384760
1738
untuk memoderasi ujaran skala ini,
06:26
whether powered by humans or by technology.
132
386522
2801
entah yang dilakukan oleh manusia atau teknologi.
06:30
And third, these companies -- Google, Twitter, Facebook, WhatsApp --
133
390284
3944
Dan ketiga, semua perusahaan ini - Google, Twitter, Facebook, WhatsApp -
06:34
they're part of a wider information ecosystem.
134
394252
2841
mereka ialah bagian dari ekosistem informasi lebih luas.
06:37
We like to lay all the blame at their feet, but the truth is,
135
397117
3352
Kita suka menyalahkan semua pihak, tetapi kenyataannya adalah
06:40
the mass media and elected officials can also play an equal role
136
400493
3830
media massa dan pejabat terpilih juga dapat memainkan peran yang sama
06:44
in amplifying rumors and conspiracies when they want to.
137
404347
2913
dalam memperkuat rumor dan konspirasi jika mereka ingin.
06:47
As can we, when we mindlessly forward divisive or misleading content
138
407800
4944
Seperti saat kita asal meneruskan konten tak teratur atau menyesatkan
06:52
without trying.
139
412768
1285
tanpa berusaha.
06:54
We're adding to the pollution.
140
414077
1800
Kita menambah polusi.
06:57
I know we're all looking for an easy fix.
141
417236
2618
Saya tahu kita semua mencari solusi yang mudah.
06:59
But there just isn't one.
142
419878
1667
Tapi sayangnya tidak ada.
07:01
Any solution will have to be rolled out at a massive scale, internet scale,
143
421950
4445
Solusi apa pun harus diluncurkan dalam skala besar, skala internet,
07:06
and yes, the platforms, they're used to operating at that level.
144
426419
3261
dan ya, platform, mereka sudah terbiasa beroperasi di tingkat itu.
07:09
But can and should we allow them to fix these problems?
145
429704
3472
tapi bisakah dan haruskah kita izinkan mereka perbaiki masalah ini?
07:13
They're certainly trying.
146
433668
1232
Mereka tentu berusaha.
07:14
But most of us would agree that, actually, we don't want global corporations
147
434924
4086
tapi sebagian kita akan setuju, faktanya, kita tak ingin perusahaan global
07:19
to be the guardians of truth and fairness online.
148
439034
2332
menjadi penjaga kebenaran dan keadilan online.
07:21
And I also think the platforms would agree with that.
149
441390
2537
Dan saya juga pikir platform akan setuju dengan itu.
07:24
And at the moment, they're marking their own homework.
150
444257
2881
Dan saat ini, mereka menandai pekerjaan rumah sendiri.
07:27
They like to tell us
151
447162
1198
Mereka suka bilang
07:28
that the interventions they're rolling out are working,
152
448384
2579
bahwa intervensi yang mereka jalankan bekerja,
07:30
but because they write their own transparency reports,
153
450987
2540
tapi karena mereka ada laporan transparansi sendiri,
07:33
there's no way for us to independently verify what's actually happening.
154
453551
3618
sulit bagi kita untuk memverifikasi kebenarannya secara mandiri.
07:38
(Applause)
155
458431
3342
07:41
And let's also be clear that most of the changes we see
156
461797
2952
Dan mari kita pahami bahwa kebanyakan perubahan kita lihat
07:44
only happen after journalists undertake an investigation
157
464773
2994
hanya terjadi setelah wartawan melakukan penyelidikan
07:47
and find evidence of bias
158
467791
1611
dan menemukan bukti bias
07:49
or content that breaks their community guidelines.
159
469426
2829
atau konten yang melanggar pedoman komunitas mereka.
07:52
So yes, these companies have to play a really important role in this process,
160
472815
4595
Jadi ya, perusahaan ini harus berperan sangat penting dalam proses ini, tapi
07:57
but they can't control it.
161
477434
1560
mereka tak boleh ambil kendali.
07:59
So what about governments?
162
479855
1518
Lalu, pemerintah bagaimana?
08:01
Many people believe that global regulation is our last hope
163
481863
3096
Banyak orang percaya regulasi global ialah harapan terakhir kita
08:04
in terms of cleaning up our information ecosystem.
164
484983
2880
dalam hal membersihkan ekosistem informasi kita.
08:07
But what I see are lawmakers who are struggling to keep up to date
165
487887
3166
Tapi yang saya lihat adalah anggota parlemen kesulitan
08:11
with the rapid changes in technology.
166
491077
2341
mengikuti perubahan teknologi yang cepat.
08:13
And worse, they're working in the dark,
167
493442
1904
Parahnya, mereka kerja dalam kegelapan,
08:15
because they don't have access to data
168
495370
1821
sebab mereka tidak punya akses ke data
08:17
to understand what's happening on these platforms.
169
497215
2650
untuk memahami apa yang terjadi pada platform ini.
08:20
And anyway, which governments would we trust to do this?
170
500260
3071
Lagipula, pemerintah mana yang kita percayakan dengan tugas ini?
08:23
We need a global response, not a national one.
171
503355
2770
Kita membutuhkan respons global, bukan respons nasional.
08:27
So the missing link is us.
172
507419
2277
Jadi hal penting yang tersisa adalah kita.
08:29
It's those people who use these technologies every day.
173
509720
3123
Orang-orang yang menggunakan teknologi ini setiap hari.
08:33
Can we design a new infrastructure to support quality information?
174
513260
4591
Bisakah kita merancang infrastruktur baru untuk mendukung informasi berkualitas?
08:38
Well, I believe we can,
175
518371
1230
Saya percaya kita bisa,
08:39
and I've got a few ideas about what we might be able to actually do.
176
519625
3357
dan saya punya beberapa ide tentang apa yang bisa kita lakukan.
08:43
So firstly, if we're serious about bringing the public into this,
177
523006
3103
Jadi pertama, jika kita serius membawa masyarakat ke sini,
08:46
can we take some inspiration from Wikipedia?
178
526133
2381
dapatkah kita mengambil inspirasi dari Wikipedia?
08:48
They've shown us what's possible.
179
528538
1824
Mereka telah menunjukkan yang mungkin.
08:50
Yes, it's not perfect,
180
530386
1151
Ya, itu tidak sempurna,
08:51
but they've demonstrated that with the right structures,
181
531561
2634
tapi mereka telah menunjukkan dengan struktur tepat,
08:54
with a global outlook and lots and lots of transparency,
182
534219
2635
dengan pandangan global dan banyak transparansi,
08:56
you can build something that will earn the trust of most people.
183
536878
3096
kamu bisa buat hal yang akan mendapat kepercayaan banyak orang.
08:59
Because we have to find a way to tap into the collective wisdom
184
539998
3162
sebab kita harus mencari cara memanfaatkan kebijaksanaan
09:03
and experience of all users.
185
543184
2309
dan pengalaman kolektif semua pengguna.
09:05
This is particularly the case for women, people of color
186
545517
2646
Ini khususnya terjadi pada wanita, orang kulit berwarna
09:08
and underrepresented groups.
187
548187
1346
dan kelompok tak terwakili.
09:09
Because guess what?
188
549557
1166
Karena tebak apa?
09:10
They are experts when it comes to hate and disinformation,
189
550747
2735
Mereka ahlinya dalam kebencian dan disinformasi,
09:13
because they have been the targets of these campaigns for so long.
190
553506
3516
karena mereka telah lama menjadi sasaran dari semua kampanye ini.
09:17
And over the years, they've been raising flags,
191
557046
2350
Mereka sudah bertahun-tahun mengibarkan bendera,
09:19
and they haven't been listened to.
192
559420
1665
dan mereka belum didengarkan.
09:21
This has got to change.
193
561109
1280
Ini harus berubah.
09:22
So could we build a Wikipedia for trust?
194
562807
4326
Jadi bisakah kita membangun Wikipedia untuk kepercayaan?
09:27
Could we find a way that users can actually provide insights?
195
567157
4189
Bisakah kita temukan cara agar pengguna dapat memberikan wawasan?
09:31
They could offer insights around difficult content-moderation decisions.
196
571370
3697
Mereka dapat menawarkan wawasan untuk keputusan moderasi konten yang sulit.
09:35
They could provide feedback
197
575091
1463
Mereka bisa beri umpan balik
09:36
when platforms decide they want to roll out new changes.
198
576578
3041
ketika platform memutuskan ingin melakukan perubahan baru.
09:40
Second, people's experiences with the information is personalized.
199
580241
4162
Kedua, pengalaman orang-orang dengan informasi itu dipersonalisasi.
09:44
My Facebook news feed is very different to yours.
200
584427
2643
Umpan berita FB saya sangat beda dengan milik Anda.
09:47
Your YouTube recommendations are very different to mine.
201
587094
2745
Rekomendasi YouTube Anda sangat berbeda dengan saya.
09:49
That makes it impossible for us to actually examine
202
589863
2492
Itu menyulitkan kita untuk memeriksa
09:52
what information people are seeing.
203
592379
2023
informasi apa saja yang dilihat orang.
09:54
So could we imagine
204
594815
1389
Jadi, terbayangkah kalau kita
09:56
developing some kind of centralized open repository for anonymized data,
205
596228
4778
mengembangkan semacam repositori terbuka dan terpusat untuk data anonim,
10:01
with privacy and ethical concerns built in?
206
601030
2864
dengan mempertimbangkan masalah privasi dan etika?
10:04
Because imagine what we would learn
207
604220
1778
Bayangkan apa yang bisa kita pelajari
10:06
if we built out a global network of concerned citizens
208
606022
3261
jika kita membangun jaringan global warga yang peduli,
10:09
who wanted to donate their social data to science.
209
609307
3294
yang ingin menyumbangkan data sosial mereka demi sains.
10:13
Because we actually know very little
210
613141
1722
Sebab kita hanya sedikit mengetahui
10:14
about the long-term consequences of hate and disinformation
211
614887
2881
konsekuensi jangka panjang dari kebencian dan disinformasi
10:17
on people's attitudes and behaviors.
212
617792
1975
pada sikap dan perilaku orang.
10:20
And what we do know,
213
620236
1167
Dan apa yang kita tahu,
10:21
most of that has been carried out in the US,
214
621427
2193
sebagian besar dari itu telah dilakukan di AS,
10:23
despite the fact that this is a global problem.
215
623644
2381
terlepas dari fakta bahwa ini masalah global.
10:26
We need to work on that, too.
216
626049
1635
Kita perlu bertindak juga.
10:28
And third,
217
628192
1150
Dan ketiga,
10:29
can we find a way to connect the dots?
218
629366
2310
bisakah kita cari cara menghubungkan segalanya?
10:31
No one sector, let alone nonprofit, start-up or government,
219
631700
3438
Tidak ada satu sektor, apalagi nirlaba, start-up atau pemerintah,
10:35
is going to solve this.
220
635162
1422
yang akan menyelesaikan ini.
10:36
But there are very smart people right around the world
221
636608
2564
Tapi ada orang teramat pintar di seluruh dunia
10:39
working on these challenges,
222
639196
1381
yang menjawab tantangan ini,
10:40
from newsrooms, civil society, academia, activist groups.
223
640601
3576
dari ruang redaksi, masyarakat sipil, akademisi, kelompok aktivis.
10:44
And you can see some of them here.
224
644201
1898
Dan Anda dapat melihatnya di sini.
10:46
Some are building out indicators of content credibility.
225
646123
2927
Beberapa dari mereka membangun indikator kredibilitas konten.
10:49
Others are fact-checking,
226
649074
1246
Yang lain memeriksa fakta,
10:50
so that false claims, videos and images can be down-ranked by the platforms.
227
650344
3591
supaya klaim palsu, video, & gambar dapat diredam oleh platform.
10:53
A nonprofit I helped to found, First Draft,
228
653959
2213
Nirlaba yang saya bantu dirikan, First Draft,
10:56
is working with normally competitive newsrooms around the world
229
656196
2968
bekerja dengan ruang berita yang kompetitif di dunia
10:59
to help them build out investigative, collaborative programs.
230
659188
3503
untuk membantu mereka membangun investigasi, program kolaboratif.
11:03
And Danny Hillis, a software architect,
231
663231
2309
Dan Danny Hillis, arsitek perangkat lunak,
11:05
is designing a new system called The Underlay,
232
665564
2381
sedang merancang sistem baru bernama The Underlay,
11:07
which will be a record of all public statements of fact
233
667969
2775
yang akan mencatat semua pernyataan fakta publik
11:10
connected to their sources,
234
670768
1329
terhubung ke sumber mereka,
11:12
so that people and algorithms can better judge what is credible.
235
672121
3654
agar orang dan algoritma dapat menilai lebih baik apa yang kredibel.
11:16
And educators around the world are testing different techniques
236
676800
3356
Dan pendidik di seluruh dunia sedang menguji teknik yang berbeda
11:20
for finding ways to make people critical of the content they consume.
237
680180
3484
untuk mencari cara agar orang kritis terhadap konten yang mereka konsumsi.
11:24
All of these efforts are wonderful, but they're working in silos,
238
684633
3141
Semua upaya ini luar biasa, tetapi mereka bekerja sendirian,
11:27
and many of them are woefully underfunded.
239
687798
2680
dan banyak dari mereka sangat kekurangan dana.
11:30
There are also hundreds of very smart people
240
690502
2053
Ada juga ratusan orang yang sangat pintar
11:32
working inside these companies,
241
692579
1652
bekerja di perusahaan-perusahaan,
11:34
but again, these efforts can feel disjointed,
242
694255
2325
tapi, upaya ini bisa terasa tidak berhubungan,
11:36
because they're actually developing different solutions to the same problems.
243
696604
3937
karena mereka sebenarnya mengembangkan solusi berbeda untuk masalah yang sama.
11:41
How can we find a way to bring people together
244
701205
2269
Bagaimana kita bisa cari cara menyatukan orang
11:43
in one physical location for days or weeks at a time,
245
703498
3278
di satu lokasi fisik selama berhari-hari atau berminggu-minggu,
11:46
so they can actually tackle these problems together
246
706800
2396
hingga mereka dapat mengatasi masalah bersama
11:49
but from their different perspectives?
247
709220
1818
tapi dari beragam sudut pandang?
11:51
So can we do this?
248
711062
1340
Bisakah kita melakukannya?
11:52
Can we build out a coordinated, ambitious response,
249
712426
3239
Bisakah kita membangun respons yang terkoordinasi dan ambisius,
11:55
one that matches the scale and the complexity of the problem?
250
715689
3709
yang cocok dengan skala dan kompleksitas masalah ini?
11:59
I really think we can.
251
719819
1373
Saya pikir kita bisa.
12:01
Together, let's rebuild our information commons.
252
721216
2959
Bersama-sama, mari kita bangun kembali sumber informasi kita.
12:04
Thank you.
253
724819
1190
Terima kasih.
12:06
(Applause)
254
726033
3728
(Tepuk tangan)
Tentang situs web ini

Situs ini akan memperkenalkan Anda pada video YouTube yang berguna untuk belajar bahasa Inggris. Anda akan melihat pelajaran bahasa Inggris yang diajarkan oleh guru-guru terbaik dari seluruh dunia. Klik dua kali pada subtitle bahasa Inggris yang ditampilkan di setiap halaman video untuk memutar video dari sana. Subtitle bergulir selaras dengan pemutaran video. Jika Anda memiliki komentar atau permintaan, silakan hubungi kami menggunakan formulir kontak ini.

https://forms.gle/WvT1wiN1qDtmnspy7