What you need to know about face surveillance | Kade Crockford

141,735 views ・ 2020-05-29

TED


Silakan klik dua kali pada teks bahasa Inggris di bawah ini untuk memutar video.

Translator: Elda Indria Sari Reviewer: Reno Kanti Riananda
00:12
How many of you have ever heard someone say
0
12643
2048
Siapa yang pernah mendengar ucapan
00:14
privacy is dead?
1
14715
1166
tak ada privasi lagi?
00:15
Raise your hand.
2
15905
1150
Angkat tangan.
00:17
How many of you have heard someone say
3
17849
2460
Siapa yang pernah mendengar seseorang berkata
00:20
they don't care about their privacy because they don't have anything to hide?
4
20333
3934
mereka tak peduli soal privasi,
karena tak ada yang perlu disembunyikan?
00:24
Go on.
5
24665
1160
Silakan.
00:25
(Laughter)
6
25849
1442
(Tertawa)
00:27
Now, how many of you use any kind of encryption software?
7
27721
4256
Siapa yang memakai peranti lunak enkripsi?
00:32
Raise your hand.
8
32283
1151
Angkat tangan.
00:33
Or a password to protect an online account?
9
33458
3347
Atau kata sandi untuk melindungi akun daring?
00:37
Or curtains or blinds on your windows at home?
10
37529
3920
Atau memasang tirai di jendela rumah?
00:41
(Laughter)
11
41473
1556
(Tertawa)
00:43
OK, so that's everyone, I think.
12
43053
2033
OK, jadi saya rasa semuanya, ya.
00:45
(Laughter)
13
45110
1150
(Tertawa)
00:46
So why do you do these things?
14
46752
2000
Jadi kenapa Anda melakukan hal-hal ini?
00:49
My guess is,
15
49165
1151
Dugaan saya, karena Anda peduli soal privasi.
00:50
it's because you care about your privacy.
16
50340
2388
00:52
The idea that privacy is dead is a myth.
17
52752
2999
Anggapan bahwa sudah tidak ada privasi adalah mitos.
00:55
The idea that people don't care about their privacy
18
55775
2738
Anggapan orang-orang tidak peduli soal privasi mereka
00:58
because "they have nothing to hide"
19
58537
1700
karena "tak ada yang disembunyikan"
01:00
or they've done nothing wrong
20
60261
1642
atau mereka tak berbuat salah
01:01
is also a myth.
21
61927
1243
juga mitos.
01:04
I'm guessing that you would not want to publicly share on the internet,
22
64433
4063
Saya rasa Anda tak mau membuka terang-terangan di internet,
01:08
for the world to see,
23
68520
1412
agar seluruh dunia bisa tahu,
01:09
all of your medical records.
24
69956
1802
semua rekam medis Anda.
01:11
Or your search histories from your phone or your computer.
25
71782
3436
Atau riwayat pencarian di telepon atau komputer Anda.
01:16
And I bet
26
76289
1206
Saya bertaruh
01:17
that if the government wanted to put a chip in your brain
27
77519
2674
jika pemerintah hendak menanam sebuah cip dalam otak Anda
01:20
to transmit every one of your thoughts to a centralized government computer,
28
80217
4638
untuk mengirim setiap pikiran Anda ke komputer pusat pemerintah,
01:24
you would balk at that.
29
84879
1485
Anda pasti menolak.
01:26
(Laughter)
30
86388
2435
(Tertawa)
01:28
That's because you care about your privacy,
31
88847
2008
Itu karena Anda peduli soal privasi Anda,
01:30
like every human being.
32
90879
1533
seperti layaknya setiap manusia.
01:33
So, our world has changed fast.
33
93347
2744
Dunia kita berubah dengan cepat.
01:36
And today, there is understandably a lot of confusion
34
96395
3833
Kini, ada banyak kebingungan
01:40
about what privacy is and why it matters.
35
100252
3142
tentang pengertian privasi dan kenapa ini penting.
01:44
Privacy is not secrecy.
36
104260
1864
Privasi bukanlah rahasia.
01:46
It's control.
37
106490
1166
Namun kendali.
01:48
I share information with my doctor about my body and my health,
38
108817
3920
Saya berbagi informasi dengan dokter tentang tubuh dan kesehatan saya,
01:52
expecting that she is not going to turn around
39
112761
2476
berharap dia tak akan berkhianat
01:55
and share that information with my parents,
40
115261
3110
dan membagi informasi itu dengan orang tua saya,
01:58
or my boss or my kids.
41
118395
2126
atau atasan, atau anak-anak saya.
02:01
That information is private, not secret.
42
121585
2539
Informasi itu privat, bukan rahasia.
02:05
I'm in control over how that information is shared.
43
125085
3257
Saya yang mengendalikan bagaimana informasi itu dibagi.
02:09
You've probably heard people say that there's a fundamental tension
44
129686
3159
Anda mungkin pernah dengar ada ketegangan mendasar
02:12
between privacy on the one hand
45
132869
1762
antara privasi di satu sisi,
02:14
and safety on the other.
46
134655
2023
dan keamanan di sisi lain.
02:17
But the technologies that advance our privacy
47
137963
2532
Namun teknologi yang meningkatkan privasi kita
02:20
also advance our safety.
48
140519
1579
juga meningkatkan keamanan kita.
02:22
Think about fences, door locks,
49
142122
2421
Pikirkan saja pagar, kunci pintu,
02:24
curtains on our windows, passwords,
50
144567
2753
tirai jendela, kata sandi,
02:27
encryption software.
51
147344
1333
peranti lunak enkripsi.
02:29
All of these technologies
52
149522
1491
Semua teknologi ini
02:31
simultaneously protect our privacy and our safety.
53
151037
4325
melindungi privasi dan keamanan kita secara serentak.
02:36
Dragnet surveillance, on the other hand, protects neither.
54
156910
3493
Namun pengawasan dragnet tidak melindungi keduanya.
02:41
In recent years,
55
161486
1166
Belakangan ini,
02:42
the federal government tasked a group of experts
56
162676
2921
pemerintah federal menugaskan sekelompok ahli
02:45
called The Privacy and Civil Liberties Oversight Board
57
165621
2936
bernama Dewan Pengawas Privasi dan Kebebasan Sipil
02:48
with examining post-9/11 government surveillance programs,
58
168581
3322
untuk memeriksa program pengawasan pemerintah pasca 9/11,
02:51
dragnet surveillance programs.
59
171927
1956
program pengawasan dragnet.
02:54
Those experts could not find a single example
60
174307
3135
Para ahli tak bisa menemukan satu contoh pun
02:57
of that dragnet surveillance advancing any safety --
61
177466
3784
bahwa pengawasan dragnet meningkatkan keamanan --
03:01
didn't identify or stop a single terrorist attack.
62
181274
2867
tidak mengenali atau mencegah satu pun serangan teroris.
03:05
You know what that information was useful for, though?
63
185369
2881
Namun Anda tahu informasi itu berguna untuk apa?
03:08
Helping NSA employees spy on their romantic interests.
64
188274
3157
Membantu pegawai NSA memata-matai pasangan mereka.
03:11
(Laughter)
65
191455
1141
(Tertawa)
03:12
(Audience: Wow.)
66
192620
1301
(Hadirin: Wow.)
03:14
Another example is closer to home.
67
194892
1690
Contoh lain yang lebih dekat:
03:16
So millions of people across the United States and the world
68
196606
2858
Jutaan orang di Amerika Serikat dan di dunia
03:19
are adopting so-called "smart home" devices,
69
199488
2288
menggunakan perangkat "rumah pintar",
03:21
like internet-connected surveillance cameras.
70
201800
2563
semacam kamera pengawas yang terhubung ke internet.
03:24
But we know that any technology connected to the internet
71
204712
3262
Namun kita tahu teknologi apa pun yang terhubung ke internet
03:27
can be hacked.
72
207998
1150
bisa diretas.
03:30
And so if a hacker
73
210514
1714
Jika seorang peretas
03:32
gets into your internet-connected surveillance camera at home,
74
212252
3302
masuk ke dalam kamera pengawas yang terhubung ke internet di rumah,
03:35
they can watch you and your family coming and going,
75
215578
2698
mereka bisa mengawasi Anda dan keluarga datang dan pergi,
03:38
finding just the right time to strike.
76
218300
2448
mencari waktu yang tepat untuk menyerang.
03:41
You know what can't be hacked remotely?
77
221553
2309
Anda tahu apa yang tidak bisa diretas dari jauh?
03:44
Curtains.
78
224418
1156
Tirai.
03:45
(Laughter)
79
225598
1001
(Tertawa)
03:46
Fences.
80
226623
1414
Pagar.
03:48
Door locks.
81
228061
1160
Kunci pintu.
03:49
(Laughter)
82
229245
1141
(Tertawa)
03:50
Privacy is not the enemy of safety.
83
230410
2346
Privasi bukanlah musuh keamanan.
03:53
It is its guarantor.
84
233113
1452
Namun penjaminnya.
03:56
Nonetheless, we daily face a propaganda onslaught
85
236129
3985
Meski begitu, tiap hari kita dihadapkan dengan propaganda
04:00
telling us that we have to give up some privacy in exchange for safety
86
240138
4090
bahwa kita harus menyerahkan sejumlah privasi demi keamanan
04:04
through surveillance programs.
87
244252
2000
lewat program pengawasan.
04:07
Face surveillance is the most dangerous of these technologies.
88
247085
3999
Pengawasan wajah adalah yang paling berbahaya di teknologi ini.
04:11
There are two primary ways today governments use technologies like this.
89
251966
5167
Saat ini, ada dua cara pemerintah memanfaatkan teknologi tersebut.
04:17
One is face recognition.
90
257157
1753
Satu adalah pengenalan wajah.
04:19
That's to identify someone in an image.
91
259243
2271
Yaitu untuk mengenali seseorang dalam gambar.
04:21
The second is face surveillance,
92
261538
2833
Kedua adalah pengawasan wajah,
04:24
which can be used in concert
93
264395
2055
yang bisa digunakan secara bersamaan
04:26
with surveillance-camera networks and databases
94
266474
2856
dengan jaringan dan basis data kamera pengawas
04:29
to create records of all people's public movements,
95
269354
3477
untuk membuat rekaman semua pergerakan publik,
04:32
habits and associations,
96
272855
2405
kebiasaan dan perkumpulan,
04:35
effectively creating a digital panopticon.
97
275284
2912
yang menciptakan sebuah panopticon digital yang efektif.
04:38
This is a panopticon.
98
278903
1857
Ini adalah panopticon.
04:40
It's a prison designed to allow a few guards in the center
99
280784
4222
Sebuah penjara yang dirancang menempatkan beberapa petugas di pusatnya
04:45
to monitor everything happening in the cells around the perimeter.
100
285030
3944
untuk mengawasi semua yang terjadi dalam sel di sekitarnya.
04:49
The people in those prison cells can't see inside the guard tower,
101
289482
4667
Orang-orang di dalam sel itu tak bisa melihat ke dalam menara penjaga,
04:54
but the guards can see into every inch of those cells.
102
294173
3666
tetapi penjaga bisa melihat ke setiap sudut sel tersebut.
04:59
The idea here
103
299268
2055
Gagasannya di sini adalah
05:01
is that if the people in those prison cells
104
301347
2595
jika orang-orang di dalam sel itu
05:03
know they're being watched all the time,
105
303966
1929
tahu mereka diawasi sepanjang waktu,
05:05
or could be,
106
305919
1460
atau ada kemungkinan demikian,
05:07
they'll behave accordingly.
107
307403
1968
mereka akan bersikap baik.
05:09
Similarly, face surveillance enables a centralized authority --
108
309395
3774
Sama halnya dengan pengawasan wajah yang memungkinkan petugas di pusat --
05:13
in this case, the state --
109
313193
1884
dalam hal ini, negara --
05:15
to monitor the totality of human movement and association
110
315101
3357
mengawasi seluruh pergerakan manusia dan kumpulannya
05:18
in public space.
111
318482
1150
di ruang publik.
05:20
And here's what it looks like
112
320053
1397
Beginilah wujudnya di kehidupan nyata.
05:21
in real life.
113
321474
1372
05:22
In this case, it's not a guard in a tower,
114
322870
2802
Dalam hal ini, bukan penjaga yang ada di menara,
05:25
but rather a police analyst in a spy center.
115
325696
3278
tetapi seorang analis kepolisian di pusat mata-mata.
05:29
The prison expands beyond its walls,
116
329506
3150
Penjara ini meluas di luar tembok,
05:32
encompassing everyone,
117
332680
1882
menjaring semua orang,
05:34
everywhere, all the time.
118
334586
2491
di mana pun, kapan pun.
05:38
In a free society,
119
338189
1309
Dalam masyarakat bebas,
05:39
this should terrify us all.
120
339522
2404
kita seharusnya takut.
05:43
For decades now, we've watched cop shows
121
343927
2390
Selama puluhan tahun, kita melihat tayangan polisi
05:46
that push a narrative that says
122
346341
1722
yang memaksakan pesan
05:48
technologies like face surveillance ultimately serve the public good.
123
348087
3740
bahwa teknologi seperti pengawasan wajah baik untuk masyarakat.
05:52
But real life is not a cop drama.
124
352419
2200
Namun kehidupan nyata tak seperti drama polisi.
05:56
The bad guy didn't always do it,
125
356149
1968
Tak selalu penjahat yang salah,
05:58
the cops definitely aren't always the good guys
126
358141
3269
polisi belum tentu selamanya baik
06:01
and the technology doesn't always work.
127
361434
2600
dan teknologi tak selalu bekerja.
06:04
Take the case of Steve Talley,
128
364602
1896
Lihat saja kasus Steve Talley,
06:06
a financial analyst from Colorado.
129
366522
2492
seorang analis keuangan dari Colorado.
06:09
In 2015, Talley was arrested, and he was charged with bank robbery
130
369038
3905
Talley ditangkap tahun 2015 dan didakwa atas perampokan bank
06:12
on the basis of an error in a facial recognition system.
131
372967
3288
berdasarkan kesalahan dalam sistem pengenalan wajah.
06:16
Talley fought that case
132
376985
1183
Talley melawan,
06:18
and he eventually was cleared of those charges,
133
378192
2222
dan akhirnya dibebaskan dari segala tuduhan,
06:20
but while he was being persecuted by the state,
134
380438
2594
tetapi selama dipersekusi oleh negara,
06:23
he lost his house, his job and his kids.
135
383056
3511
dia kehilangan rumah, pekerjaan, dan anak-anaknya.
06:27
Steve Talley's case is an example
136
387941
1677
Kasus Steve Talley adalah contoh
06:29
of what can happen when the technology fails.
137
389642
2501
atas apa yang terjadi saat teknologi gagal.
06:33
But face surveillance is just as dangerous when it works as advertized.
138
393219
4248
Namun pengawasan wajah sama berbahayanya jika bekerja dengan benar.
06:38
Just consider how trivial it would be
139
398875
2818
Bayangkan betapa mudahnya
06:41
for a government agency to put a surveillance camera
140
401717
2443
bagi agen pemerintah memasang kamera pengawas
06:44
outside a building where people meet for Alcoholics Anonymous meetings.
141
404184
3944
di luar gedung tempat pertemuan Pecandu Alkohol Anonim.
06:49
They could connect that camera
142
409194
1522
Mereka bisa menghubungkan kamera
06:50
to a face-surveillance algorithm and a database,
143
410740
2652
dengan algoritma dan basis data pengawasan wajah,
06:53
press a button and sit back and collect
144
413416
1927
menekan tombol, duduk dan mengumpulkan catatan
06:55
a record of every person receiving treatment for alcoholism.
145
415367
3220
setiap orang yang tengah dirawat karena alkoholisme.
07:00
It would be just as easy for a government agency
146
420204
2307
Akan mudah juga bagi agen pemerintah
07:02
to use this technology to automatically identify
147
422535
2629
menggunakan teknologi ini untuk otomatis mengenali
07:05
every person who attended the Women's March
148
425188
2381
setiap peserta Women's March
07:07
or a Black Lives Matter protest.
149
427593
2133
atau protes Black Lives Matter.
07:11
Even the technology industry is aware of the gravity of this problem.
150
431163
3881
Bahkan industri teknologi menyadari keseriusan masalah ini.
07:15
Microsoft's president Brad Smith has called on Congress to intervene.
151
435910
4390
Direktur Microsoft Brad Smith menyerukan intervensi Kongres.
07:21
Google, for its part,
152
441188
1382
Kemudian Google,
07:22
has publicly declined to ship a face surveillance product,
153
442594
3602
telah menolak terang-terangan untuk mengirim produk pengawasan wajah,
07:26
in part because of these grave human and civil rights concerns.
154
446220
3547
sebagian karena keprihatinan akan hak asasi manusia dan sipil.
07:30
And that's a good thing.
155
450514
1600
Itu hal yang baik.
07:32
Because ultimately,
156
452840
1611
Karena pada akhirnya,
07:34
protecting our open society is much more important
157
454475
3501
melindungi masyarakat luas jauh lebih penting
07:38
than corporate profit.
158
458000
1467
daripada keuntungan bisnis.
07:41
The ACLU's nationwide campaign
159
461078
2342
Kampanye nasional ACLU
07:43
to get the government to pump the brakes
160
463444
1928
supaya pemerintah menunda
07:45
on the adoption of this dangerous technology
161
465396
2331
penggunaan teknologi berbahaya ini
07:47
has prompted reasonable questions from thoughtful people.
162
467751
2929
telah menimbulkan pertanyaan yang wajar dari orang-orang.
07:51
What makes this technology in particular so dangerous?
163
471807
3666
Mengapa teknologi ini khususnya begitu berbahaya?
07:55
Why can't we just regulate it?
164
475791
2237
Kenapa kita tak mengaturnya saja?
07:58
In short, why the alarm?
165
478052
2168
Singkatnya, kenapa takut?
08:01
Face surveillance is uniquely dangerous for two related reasons.
166
481236
4412
Pengawasan wajah berbahaya karena dua alasan.
08:06
One is the nature of the technology itself.
167
486133
3174
Satu adalah sifat teknologi itu sendiri.
08:09
And the second is that our system
168
489331
2272
Yang kedua adalah, sistem kita
08:11
fundamentally lacks the oversight and accountability mechanisms
169
491627
4410
pada dasarnya tidak memiliki pengawasan dan mekanisme akuntabilitas
08:16
that would be necessary
170
496061
1406
yang diperlukan
08:17
to ensure it would not be abused in the government's hands.
171
497491
3602
untuk memastikan tidak ada penyalahgunaan oleh pemerintah.
08:22
First, face surveillance enables a totalizing form of surveillance
172
502562
4912
Pertama, pengawasan wajah memungkinkan sebuah bentuk pengawasan total
08:27
never before possible.
173
507498
1467
yang sebelumnya mustahil.
08:30
Every single person's every visit to a friend's house,
174
510006
3960
Setiap kali seseorang berkunjung ke rumah teman,
08:33
a government office,
175
513990
1563
kantor pemerintah,
08:35
a house of worship,
176
515577
2087
tempat ibadah,
08:37
a Planned Parenthood,
177
517688
1413
kantor Keluarga Berencana,
08:39
a cannabis shop,
178
519125
1500
toko ganja,
08:40
a strip club;
179
520649
1467
klub telanjang;
08:42
every single person's public movements, habits and associations
180
522958
4317
setiap pergerakan publik, kebiasaan, dan perkumpulan seseorang
08:47
documented and catalogued,
181
527299
1635
akan dicatat dan didata,
08:48
not on one day, but on every day,
182
528958
2365
bukan hanya sehari, tetapi setiap hari,
08:51
merely with the push of a button.
183
531347
1945
hanya dengan menekan tombol.
08:54
This kind of totalizing mass surveillance
184
534276
3142
Pengawasan massa total semacam ini
08:57
fundamentally threatens what it means to live in a free society.
185
537442
3032
pada dasarnya mengancam kehidupan dalam masyarakat bebas.
09:00
Our freedom of speech, freedom of association,
186
540498
2729
Kemerdekaan berbicara, kemerdekaan berkumpul,
09:03
freedom of religion,
187
543251
1335
kemerdekaan beragama,
09:04
freedom of the press,
188
544610
1253
kebebasan pers,
09:05
our privacy,
189
545887
1214
privasi kita,
09:07
our right to be left alone.
190
547125
1800
hak kita untuk dibiarkan sendiri.
09:10
You may be thinking,
191
550467
1460
Anda mungkin berpikir,
09:11
"OK, come on, but there are tons of ways the government can spy on us."
192
551951
3335
"OK, tapi pemerintah punya banyak cara memata-matai kita."
09:15
And yes, it's true,
193
555310
1197
Ya, memang benar,
09:16
the government can track us through our cell phones,
194
556531
2453
pemerintah bisa melacak kita lewat telepon seluler,
09:19
but if I want to go to get an abortion,
195
559008
3632
tetapi kalau saya mau menjalani proses aborsi,
09:22
or attend a political meeting,
196
562664
1786
atau mengikuti pertemuan politik,
09:24
or even just call in sick and play hooky and go to the beach ...
197
564474
4278
atau pura-pura sakit dan membolos lalu pergi ke pantai ...
09:28
(Laughter)
198
568776
1341
(Tertawa)
09:30
I can leave my phone at home.
199
570141
1933
Saya bisa meninggalkan ponsel di rumah.
09:33
I cannot leave my face at home.
200
573101
2254
Saya tak bisa meninggalkan wajah saya di rumah.
09:37
And that brings me to my second primary concern:
201
577165
2539
Inilah kekhawatiran kedua saya:
09:39
How we might meaningfully regulate this technology.
202
579728
3327
Bagaimana cara mengatur teknologi ini dengan benar.
09:44
Today, if the government wants to know where I was last week,
203
584315
3714
Sekarang, jika pemerintah ingin tahu ada di mana saya minggu lalu,
09:48
they can't just hop into a time machine and go back in time and follow me.
204
588053
4524
mereka tak bisa masuk ke mesin waktu lalu mengikuti saya.
09:53
And they also, the local police right now,
205
593585
2736
Demikian pula polisi setempat,
09:56
don't maintain any centralized system of tracking,
206
596345
3293
mereka tak memiliki sistem pelacakan terpusat,
09:59
where they're cataloging every person's public movements all the time,
207
599662
3366
yang dapat mendata pergerakan publik setiap orang kapan pun,
10:03
just in case that information some day becomes useful.
208
603052
3383
kalau-kalau informasi itu bisa berguna di masa depan.
10:06
Today, if the government wants to know where I was last week,
209
606783
3102
Saat ini, jika pemerintah mau tahu keberadaan saya minggu lalu,
10:09
or last month or last year,
210
609909
1605
atau bulan lalu atau tahun lalu,
10:11
they have to go to a judge, get a warrant
211
611538
2360
mereka harus memperoleh surat perintah hakim
10:13
and then serve that warrant on my phone company,
212
613922
2290
yang diberikan pada operator telepon saya,
10:16
which by the way, has a financial interest in protecting my privacy.
213
616236
3612
yang memiliki kepentingan finansial untuk menjaga privasi saya.
10:21
With face surveillance,
214
621027
1627
Dengan pengawasan wajah,
10:22
no such limitations exist.
215
622678
2055
batasan seperti itu tidak ada.
10:25
This is technology that is 100 percent controlled by the government itself.
216
625226
4620
Teknologi ini sepenuhnya dikendalikan pemerintah sendiri.
10:31
So how would a warrant requirement work in this context?
217
631363
3967
Lalu bagaimana cara kerja surat perintah dalam konteks ini?
10:36
Is the government going to go to a judge
218
636307
2000
Apakah pemerintah akan menghadap hakim
10:38
and get a warrant,
219
638331
1166
meminta surat perintah,
10:39
and then serve the warrant on themselves?
220
639521
2015
lalu memberikannya pada diri sendiri?
10:42
That would be like me giving you my diary,
221
642109
2016
Sama saja saya memberikan buku harian pada Anda
10:44
and saying, "Here, you can hold on to this forever,
222
644149
2595
dan berkata, "Nih, simpan saja selamanya,
10:46
but you can't read it until I say it's OK."
223
646768
2638
tapi jangan dibaca sampai saya perbolehkan."
10:50
So what can we do?
224
650102
1200
Jadi apa yang bisa kita lakukan?
10:53
The only answer to the threat
225
653221
2132
Satu-satunya jawaban atas ancaman
10:55
posed by the government's use of face surveillance
226
655377
3431
penggunaan pengawasan wajah oleh pemerintah
10:58
is to deny the government the capacity to violate the public's trust,
227
658832
4958
adalah menolak kapasitas pemerintah untuk melanggar kepercayaan publik,
11:03
by denying the government the ability
228
663814
2064
dengan tidak mengizinkan pemerintah
11:05
to build these in-house face-surveillance networks.
229
665902
3235
untuk membangun jaringan pengawas wajah secara internal.
11:09
And that's exactly what we're doing.
230
669711
2008
Itulah yang tengah kami kerjakan.
11:12
The ACLU is part of a nationwide campaign
231
672567
3269
ACLU adalah bagian kampanye nasional
11:15
to pump the brakes on the government's use of this dangerous technology.
232
675860
3706
untuk menghentikan pemerintah menggunakan teknologi berbahaya ini.
11:20
We've already been successful,
233
680138
1445
Kami telah sukses,
11:21
from San Francisco to Somerville, Massachusetts,
234
681607
3114
dari San Francisco, hingga Somerville, Massachusetts,
11:24
we have passed municipal bans
235
684745
2127
kami telah meloloskan peraturan daerah yang melarang
11:26
on the government's use of this technology.
236
686896
2246
penerapan teknologi ini oleh pemerintah.
11:29
And plenty of other communities here in Massachusetts
237
689166
2548
Banyak komunitas lain di Massachusetts dan seluruh negeri
11:31
and across the country
238
691738
1189
11:32
are debating similar measures.
239
692951
1445
tengah membahas aksi serupa.
11:34
Some people have told me that this movement is bound to fail.
240
694420
3514
Beberapa orang mengatakan gerakan ini akan gagal.
11:38
That ultimately,
241
698625
1631
Bahwa pada akhirnya,
11:40
merely because the technology exists,
242
700280
2075
karena adanya teknologi,
11:42
it will be deployed in every context
243
702379
3087
hal itu akan diterapkan dalam setiap konteks
11:45
by every government everywhere.
244
705490
2444
oleh pemerintah mana pun.
11:50
Privacy is dead, right?
245
710070
1533
Sudah tidak ada privasi, betul?
11:52
So the narrative goes.
246
712388
1466
Begitu pesannya.
11:55
Well, I refuse to accept that narrative.
247
715030
2310
Saya menolak memercayainya.
11:57
And you should, too.
248
717364
1266
Anda juga harus begitu.
12:00
We can't allow Jeff Bezos or the FBI
249
720214
3793
Kita tak bisa membiarkan Jeff Bezos atau FBI
12:04
to determine the boundaries of our freedoms in the 21st century.
250
724031
4159
mengatur batas kebebasan kita di abad ke-21.
12:09
If we live in a democracy,
251
729413
2149
Jika kita hidup dalam demokrasi,
12:11
we are in the driver's seat,
252
731586
1999
kita ada di kursi pengemudi,
12:13
shaping our collective future.
253
733609
2000
membentuk masa depan kita bersama.
12:16
We are at a fork in the road right now.
254
736704
2111
Kita sedang ada di persimpangan jalan.
12:19
We can either continue with business as usual,
255
739379
2444
Kita bisa melanjutkan bisnis seperti biasa,
12:21
allowing governments to adopt and deploy these technologies unchecked,
256
741847
4007
membiarkan pemerintah menerapkan teknologi ini tanpa pengawasan,
12:25
in our communities, our streets and our schools,
257
745878
3317
di komunitas kita, jalanan kita, dan sekolah kita,
12:29
or we can take bold action now
258
749219
4889
atau kita bisa mengambil tindakan tegas sekarang:
12:34
to press pause on the government's use of face surveillance,
259
754132
4333
menekan tombol jeda
pada penggunaan pengawasan wajah oleh pemerintah,
12:38
protect our privacy
260
758489
1587
melindungi privasi kita,
12:40
and to build a safer, freer future
261
760100
3087
dan membangun masa depan yang lebih aman dan bebas
12:43
for all of us.
262
763211
1357
bagi kita semua.
12:44
Thank you.
263
764592
1151
Terima kasih.
12:45
(Applause and cheers)
264
765767
2427
(Tepuk tangan dan sorak-sorai)
Tentang situs web ini

Situs ini akan memperkenalkan Anda pada video YouTube yang berguna untuk belajar bahasa Inggris. Anda akan melihat pelajaran bahasa Inggris yang diajarkan oleh guru-guru terbaik dari seluruh dunia. Klik dua kali pada subtitle bahasa Inggris yang ditampilkan di setiap halaman video untuk memutar video dari sana. Subtitle bergulir selaras dengan pemutaran video. Jika Anda memiliki komentar atau permintaan, silakan hubungi kami menggunakan formulir kontak ini.

https://forms.gle/WvT1wiN1qDtmnspy7