When AI Can Fake Reality, Who Can You Trust? | Sam Gregory | TED

132,775 views ・ 2023-12-26

TED


Silakan klik dua kali pada teks bahasa Inggris di bawah ini untuk memutar video.

Translator: Prameswari Rahmanu Reviewer: Abey Singa
00:03
It's getting harder, isn't it, to spot real from fake,
0
3583
3879
Semakin sulit, bukan, untuk membedakan yang asli dari yang palsu,
00:07
AI-generated from human-generated.
1
7504
2252
produk dari AI yang dirancang oleh manusia.
00:10
With generative AI,
2
10340
1126
Dengan AI generatif,
00:11
along with other advances in deep fakery,
3
11508
2419
bersama dengan inovasi lainnya dalam teknik deep fakery
00:13
it doesn't take many seconds of your voice,
4
13969
2252
hanya perlu beberapa detik suara Anda,
00:16
many images of your face,
5
16263
1459
sejumlah foto wajah Anda,
00:17
to fake you,
6
17764
1251
untuk memalsukan Anda,
dan tingkat realisme terus meningkat.
00:19
and the realism keeps increasing.
7
19015
2628
00:21
I first started working on deepfakes in 2017,
8
21685
3086
Saya pertama kali mulai mengerjakan deepfake pada tahun 2017,
00:24
when the threat to our trust in information was overhyped,
9
24813
3962
ketika kekhawatiran kita soal manipulasi informasi dianggap terlalu berlebihan,
00:28
and the big harm, in reality, was falsified sexual images.
10
28775
3670
dan bahaya besarnya, pada kenyataannya, adalah gambar seksual yang dipalsukan.
00:32
Now that problem keeps growing, harming women and girls worldwide.
11
32904
4171
Sekarang masalah itu terus berkembang, merugikan para perempuan di seluruh dunia.
00:38
But also, with advances in generative AI, we're now also approaching a world
12
38159
4713
Apalagi, dengan kemajuan AI generatif, kini kita memasuki dunia
00:42
where it's broadly easier to make fake reality,
13
42872
3462
yang secara keseluruhan lebih mudah untuk membuat realitas palsu,
00:46
but also to dismiss reality as possibly faked.
14
46376
3879
dan juga meragukan realitas itu sendiri kerena dianggap telah dipalsukan
00:50
Now, deceptive and malicious audiovisual AI
15
50755
3420
Sekarang, AI audiovisual yang menyesatkan dan berbahaya
00:54
is not the root of our societal problems,
16
54217
2669
bukanlah akar dari masalah sosial kita,
00:56
but it's likely to contribute to them.
17
56928
2252
tetapi kemungkinan berkontribusi pada hal itu.
00:59
Audio clones are proliferating in a range of electoral contexts.
18
59180
4213
Duplikasi audio sedang marak dalam berbagai konteks pemilu.
01:03
"Is it, isn't it" claims cloud human-rights evidence from war zones,
19
63435
5130
Klaim “Benar, Salah” mengaburkan bukti hak asasi manusia dalam situasi perang,
01:08
sexual deepfakes target women in public and in private,
20
68565
4129
deepfake seksual menargetkan wanita di depan umum dan secara pribadi,
01:12
and synthetic avatars impersonate news anchors.
21
72736
3336
dan avatar sintetis menyamar sebagai pembawa berita.
01:16
I lead WITNESS.
22
76656
1460
Saya memimpin WITNESS.
sebuah grup hak asasi manusia
01:18
We're a human-rights group
23
78116
1376
01:19
that helps people use video and technology to protect and defend their rights.
24
79492
3671
membantu orang memakai video dan teknologi untuk melindungi & membela haknya.
Selama 5 tahun terakhir, kami melakukan upaya global,
01:23
And for the last five years, we've coordinated a global effort,
25
83163
3003
“Bersiap, Jangan Panik,”
01:26
"Prepare, Don't Panic,"
26
86333
1167
seputar cara baru untuk memanipulasi dan menggabungkan realitas
01:27
around these new ways to manipulate and synthesize reality,
27
87500
3045
01:30
and on how to fortify the truth
28
90587
2377
dan bagaimana memperkuat kebenaran
01:32
of critical frontline journalists and human-rights defenders.
29
92964
3420
pada jurnalis garis depan yang kritis dan pembela hak asasi manusia.
01:37
Now, one element in that is a deepfakes rapid-response task force,
30
97218
5423
Sekarang, salah satu elemen di dalamnya adalah gugus tugas reaksi cepat deepfakes,
01:42
made up of media-forensics experts
31
102641
2127
yang terdiri dari pakar media-forensik
01:44
and companies who donate their time and skills
32
104768
2168
dan perusahaan yang menyumbang waktu dan keterampilannya
01:46
to debunk deepfakes and claims of deepfakes.
33
106978
3087
untuk mengungkapkan kebohongan deepfake dan klaim deepfake.
01:50
The task force recently received three audio clips,
34
110899
3211
Belakangan ini, gugus tugas ini menerima tiga klip audio,
01:54
from Sudan, West Africa and India.
35
114110
2670
dari Sudan, Afrika Barat, dan India.
01:57
People were claiming that the clips were deepfaked, not real.
36
117155
3879
Orang-orang mengklaim bahwa klip itu dipalsukan, tidak nyata.
02:01
In the Sudan case,
37
121451
1210
Dalam kasus Sudan,
02:02
experts used a machine-learning algorithm
38
122702
2002
para ahli pakai algoritma pembelajaran mesin
02:04
trained on over a million examples of synthetic speech
39
124746
2628
yang dilatih dengan satu juta contoh ucapan sintetis
02:07
to prove, almost without a shadow of a doubt,
40
127374
2294
untuk membuktikan, hampir tanpa secuil keraguan,
02:09
that it was authentic.
41
129709
1335
bahwa itu asli.
02:11
In the West Africa case,
42
131586
1835
Dalam kasus Afrika Barat,
02:13
they couldn't reach a definitive conclusion
43
133463
2002
mereka tidak dapat mencapai kesimpulan
02:15
because of the challenges of analyzing audio from Twitter,
44
135507
2794
karena tantangan menganalisis audio dari Twitter
02:18
and with background noise.
45
138301
1752
dengan latar belakang kebisingan.
Klip ketiga adalah bocoran audio seorang politisi dari India.
02:20
The third clip was leaked audio of a politician from India.
46
140095
3712
02:23
Nilesh Christopher of “Rest of World” brought the case to the task force.
47
143848
3796
Nilesh Christopher dari “Rest of World” membawa kasus ini ke gugus tugas.
02:27
The experts used almost an hour of samples
48
147644
2961
Para pakar menggunakan sampel hampir satu jam
02:30
to develop a personalized model of the politician's authentic voice.
49
150605
3879
untuk mengembangkan model suara otentik politisi yang dipersonalisasi.
Terlepas dari klaimnya yang keras bahwa itu semua dipalsukan dengan AI,
02:35
Despite his loud and fast claims that it was all falsified with AI,
50
155151
4380
02:39
experts concluded that it at least was partially real, not AI.
51
159572
4255
para ahli menyimpulkan bahwa itu setidaknya sebagian nyata, bukan AI.
02:44
As you can see,
52
164369
1335
Seperti yang Anda lihat,
02:45
even experts cannot rapidly and conclusively separate true from false,
53
165745
5089
bahkan para pakar tidak bisa dengan cepat dan yakin memisahkan benar dari yang salah
02:50
and the ease of calling "that's deepfaked" on something real
54
170875
4421
dan mudahnya menyebut, “Itu deepfake,” pada sesuatu yang nyata
02:55
is increasing.
55
175296
1168
semakin meningkat.
Masa depan penuh dengan tantangan besar,
02:57
The future is full of profound challenges,
56
177132
2002
02:59
both in protecting the real and detecting the fake.
57
179175
3420
baik untuk melindungi yang nyata maupun untuk mendeteksi yang palsu.
03:03
We're already seeing the warning signs
58
183888
1919
Kita sudah melihat tanda peringatan
03:05
of this challenge of discerning fact from fiction.
59
185807
2711
dari tantangan untuk membedakan fakta dari fiksi ini.
03:08
Audio and video deepfakes have targeted politicians,
60
188560
3128
Deepfake audio dan video telah menargetkan politisi,
03:11
major political leaders in the EU, Turkey and Mexico,
61
191688
3587
pemimpin politik utama di Uni Eropa, Turki dan Meksiko,
03:15
and US mayoral candidates.
62
195316
1710
dan kandidat walikota AS.
03:17
Political ads are incorporating footage of events that never happened,
63
197444
3503
Iklan politik menggabungkan rekaman peristiwa yang tak pernah terjadi
03:20
and people are sharing AI-generated imagery from crisis zones,
64
200947
4546
dan orang-orang berbagi citra buatan AI dari zona krisis,
03:25
claiming it to be real.
65
205535
1418
mengklaim itu sebagai hal nyata.
03:27
Now, again, this problem is not entirely new.
66
207454
3211
Sekarang, sekali lagi, masalah ini tidak sepenuhnya baru.
Kolega saya, para pembela hak asasi manusia dan jurnalis
03:31
The human-rights defenders and journalists I work with
67
211207
2628
03:33
are used to having their stories dismissed,
68
213835
2794
sudah terbiasa dengan cerita mereka yang diabaikan
03:36
and they're used to widespread, deceptive, shallow fakes,
69
216671
3462
dan mereka terbiasa dengan pemalsuan masif yang menyesatkan dan dangkal,
03:40
videos and images taken from one context or time or place
70
220175
3670
video dan gambar yang diambil dari satu konteks atau waktu atau tempat
03:43
and claimed as if they're in another,
71
223887
2460
dan diklaim seolah-olah berada di tempat lain,
03:46
used to share confusion and spread disinformation.
72
226347
3129
digunakan untuk menebar kebingungan dan menyebarkan disinformasi.
03:49
And of course, we live in a world that is full of partisanship
73
229934
3170
Dan tentu saja, kita hidup di dunia yang penuh dengan keberpihakan
03:53
and plentiful confirmation bias.
74
233146
2127
dan banyaknya konfirmasi yang bias.
03:57
Given all that,
75
237317
1209
Mengingat semua itu,
03:58
the last thing we need is a diminishing baseline
76
238526
3045
hal terakhir yang kita butuhkan adalah pudarnya batasan
04:01
of the shared, trustworthy information upon which democracies thrive,
77
241613
3962
terkait informasi bersama yang dapat dipercaya tempat berkembangnya demokrasi,
04:05
where the specter of AI
78
245617
1418
di mana momok AI digunakan untuk
04:07
is used to plausibly believe things you want to believe,
79
247076
3462
mempercayai hal yang ingin Anda percayai secara masuk akal
04:10
and plausibly deny things you want to ignore.
80
250538
2336
dan menyangkal hal yang ingin Anda abaikan secara masuk akal.
Namun, menurut saya ada cara mencegah masa depan itu,
04:15
But I think there's a way we can prevent that future,
81
255084
2628
04:17
if we act now;
82
257754
1501
jika kita bertindak sekarang;
04:19
that if we "Prepare, Don't Panic,"
83
259255
2211
bahwa jika kita “Bersiap, Jangan Panik,”
04:21
we'll kind of make our way through this somehow.
84
261508
3253
kita akan melewati krisis ini entah bagaimana.
04:25
Panic won't serve us well.
85
265929
2627
Panik tidak akan membantu kita.
04:28
[It] plays into the hands of governments and corporations
86
268681
2711
Malah akan masuk perangkap pemerintah dan perusahaan
04:31
who will abuse our fears,
87
271392
1669
yang menyalahgunakan ketakutan kita,
dan orang-orang yang menginginkan kebingungan
04:33
and into the hands of people who want a fog of confusion
88
273102
3045
04:36
and will use AI as an excuse.
89
276147
2461
dan akan mengkambinghitamkan AI.
04:40
How many people were taken in, just for a minute,
90
280610
2419
Berapa banyak orang yang percaya, walau sebentar,
04:43
by the Pope in his dripped-out puffer jacket?
91
283029
2336
oleh Paus mengenakan jaket gembung yang menetes?
04:45
You can admit it.
92
285406
1168
Anda bisa mengakuinya.
04:46
(Laughter)
93
286574
1210
(Tawa)
04:47
More seriously,
94
287784
1209
Lebih serius lagi,
berapa banyak orang yang Anda kenal telah ditipu
04:49
how many of you know someone who's been scammed
95
289035
2503
04:51
by an audio that sounds like their kid?
96
291579
2044
oleh audio yang mirip seperti anak mereka?
04:54
And for those of you who are thinking "I wasn't taken in,
97
294624
2920
Dan bagi Anda yang berpikir, “Saya tidak percaya,
04:57
I know how to spot a deepfake,"
98
297544
1584
saya tahu itu deepfake,”
saran apa pun yang Anda ketahui sekarang sudah ketinggalan zaman.
04:59
any tip you know now is already outdated.
99
299170
3003
05:02
Deepfakes didn't blink, they do now.
100
302757
2544
Deepfakes sebelumnya tidak berkedip, kini berkedip.
Hal yang tidak lazim lebih umum terjadi pada deepfake daripada di kehidupan nyata
05:06
Six-fingered hands were more common in deepfake land than real life --
101
306177
3587
05:09
not so much.
102
309806
1126
tidak begitu juga.
05:11
Technical advances erase those visible and audible clues
103
311307
3754
Kemajuan teknis menghapus petunjuk yang terlihat dan terdengar
yang sangat ingin kita pertahankan
05:15
that we so desperately want to hang on to
104
315061
2002
sebagai bukti untuk dapat membedakan hal yang nyata atau palsu.
05:17
as proof we can discern real from fake.
105
317105
2252
05:20
But it also really shouldn’t be on us to make that guess without any help.
106
320191
4713
Tapi seharusnya bukan tanggung jawab kita untuk menentukannya tanpa bantuan apa pun.
05:24
Between real deepfakes and claimed deepfakes,
107
324946
2127
Antara deepfake yang nyata dan yang diklaim,
kita membutuhkan solusi struktural dengan gambaran besar.
05:27
we need big-picture, structural solutions.
108
327073
2961
Kita membutuhkan fondasi kuat
05:30
We need robust foundations
109
330034
1502
05:31
that enable us to discern authentic from simulated,
110
331578
3128
yang memungkinkan kita untuk membedakan keaslian dari simulasi,
05:34
tools to fortify the credibility of critical voices and images,
111
334747
3921
alat untuk memperkuat kredibilitas suara kritis dan gambar yang penting,
05:38
and powerful detection technology
112
338668
2336
dan teknologi deteksi yang kuat
yang tidak menimbulkan lebih banyak keraguan daripada sebelumnya.
05:41
that doesn't raise more doubts than it fixes.
113
341045
2670
05:45
There are three steps we need to take to get to that future.
114
345091
3045
Ada tiga langkah yang perlu diambil untuk mencapainya.
05:48
Step one is to ensure that the detection skills and tools
115
348887
3712
Langkah pertama adalah memastikan bahwa keterampilan dan alat deteksi
05:52
are in the hands of the people who need them.
116
352599
2168
dimiliki oleh orang-orang yang membutuhkannya.
05:54
I've talked to hundreds of journalists,
117
354767
2253
Saya berbicara dengan ratusan jurnalis,
pemimpin komunitas dan pembela hak asasi manusia,
05:57
community leaders and human-rights defenders,
118
357020
2252
dan mereka dalam posisi yang sama dengan Anda, saya dan kita.
05:59
and they're in the same boat as you and me and us.
119
359272
2919
Mereka dengar audionya, berpikir, “Bisakah saya menemukan kesalahan?”
06:02
They're listening to the audio, trying to think, "Can I spot a glitch?"
120
362191
3421
06:05
Looking at the image, saying, "Oh, does that look right or not?"
121
365612
3295
Melihat gambar itu, berkata, “Oh, apakah itu tampak benar atau tidak?”
06:08
Or maybe they're going online to find a detector.
122
368907
3336
Atau mungkin mereka online untuk menemukan detektor.
06:12
And the detector they find,
123
372285
1335
dan detektor yang mereka temukan,
06:13
they don't know whether they're getting a false positive, a false negative,
124
373661
3545
mereka tidak tahu apakah mendapatkan positif palsu, negatif palsu,
atau hasil yang dapat diandalkan.
06:17
or a reliable result.
125
377248
1251
06:18
Here's an example.
126
378541
1168
Berikut ini contohnya.
06:19
I used a detector, which got the Pope in the puffer jacket right.
127
379751
3712
Saya memakai detektor, yang membuat Paus mengenakan jaket gembung dengan benar.
06:23
But then, when I put in the Easter bunny image that I made for my kids,
128
383796
4255
Namun, ketika saya pakai gambar kelinci Paskah yang saya buat untuk anak saya,
dikatakan bahwa itu buatan manusia.
06:28
it said that it was human-generated.
129
388092
1961
06:30
This is because of some big challenges in deepfake detection.
130
390637
3253
Ini karena beberapa masalah besar dalam deteksi deepfake.
06:34
Detection tools often only work on one single way to make a deepfake,
131
394474
3295
Alat deteksi seringkali hanya memiliki satu cara untuk membuat deepfake,
06:37
so you need multiple tools,
132
397769
1543
jadi Anda perlu beberapa alat
06:39
and they don't work well on low-quality social media content.
133
399354
4337
dan mereka tidak bekerja dengan baik pada konten media sosial berkualitas rendah.
06:43
Confidence score, 0.76-0.87,
134
403691
3337
Skor kepercayaan, 0,76-0,87,
bagaimana Anda tahu bahwa itu kredibel,
06:47
how do you know whether that's reliable,
135
407028
1919
06:48
if you don't know if the underlying technology is reliable,
136
408988
2795
jika tidak tahu teknologi yang mendasarinya kredibel
06:51
or whether it works on the manipulation that is being used?
137
411824
2795
atau berfungsi pada teknik manipulasi yang sedang digunakan?
06:54
And tools to spot an AI manipulation don't spot a manual edit.
138
414661
5046
Dan alat untuk menemukan manipulasi AI tidak mengenali pengeditan manual.
07:00
These tools also won't be available to everyone.
139
420583
3587
Alat-alat ini juga tidak akan tersedia untuk semua orang.
07:04
There's a trade-off between security and access,
140
424212
3128
Ada pertukaran antara keamanan dan akses,
07:07
which means if we make them available to anyone,
141
427382
2544
yang berarti jika ini tersedia untuk semua orang,
07:09
they become useless to everybody,
142
429926
2586
akan menjadi tidak berguna bagi siapa pun
07:12
because the people designing the new deception techniques
143
432512
2711
karena orang-orang yang merancang teknik penipuan baru
07:15
will test them on the publicly available detectors
144
435264
3087
akan mengujinya pada detektor yang tersedia untuk umum
07:18
and evade them.
145
438393
1209
untuk menghindarinya.
Namun, kita perlu memastikan alat ini tersedia
07:20
But we do need to make sure these are available
146
440061
2920
07:22
to the journalists, the community leaders,
147
442981
2085
untuk wartawan, pemimpin masyarakat, pejabat pemilu,
07:25
the election officials, globally, who are our first line of defense,
148
445108
3628
secara global, yang merupakan garis pertahanan pertama kita,
07:28
thought through with attention to real-world accessibility and use.
149
448736
3254
dengan pertimbangan matang pada aksesibilitas dan penggunaan dunia nyata.
07:32
Though at the best circumstances,
150
452991
2544
Meskipun pada keadaan terbaik,
07:35
detection tools will be 85 to 95 percent effective,
151
455576
3003
alat deteksi akan bekerja efektif 85 hingga 95 persen,
07:38
they have to be in the hands of that first line of defense,
152
458579
2795
alat ini harus dimiliki oleh garis pertahanan pertama itu,
07:41
and they're not, right now.
153
461374
1543
dan tidak pada saat ini.
07:43
So for step one, I've been talking about detection after the fact.
154
463710
3128
Untuk langkah pertama, saya telah berbicara tentang fakta deteksi.
07:46
Step two -- AI is going to be everywhere in our communication,
155
466838
4462
Langkah kedua, AI akan ada di mana-mana dalam komunikasi kita,
07:51
creating, changing, editing.
156
471300
2169
menciptakan, mengubah, mengedit.
07:53
It's not going to be a simple binary of "yes, it's AI" or "phew, it's not."
157
473469
4755
Ini tidak akan menjadi biner sederhana, “Ya, ini AI,” atau, “Oh, itu bukan.”
07:58
AI is part of all of our communication,
158
478224
3086
AI adalah bagian dari semua komunikasi kita,
08:01
so we need to better understand the recipe of what we're consuming.
159
481352
4046
jadi kita perlu lebih memahami resep dari apa yang kita konsumsi.
08:06
Some people call this content provenance and disclosure.
160
486232
3754
Beberapa orang menyebut ini bukti dan pengungkapan konten.
Para pakar teknologi membangun cara untuk menambahkan cap air yang tak tampak
08:10
Technologists have been building ways to add invisible watermarking
161
490028
3503
08:13
to AI-generated media.
162
493573
1877
ke media yang dihasilkan AI.
08:15
They've also been designing ways --
163
495491
1752
Mereka telah merancang cara --
dan saya bagian dari upaya ini --
08:17
and I've been part of these efforts --
164
497243
1877
dalam standar yang disebut C2PA,
08:19
within a standard called the C2PA,
165
499162
1710
08:20
to add cryptographically signed metadata to files.
166
500872
2669
untuk menambahkan metadata
yang ditandatangani secara kriptografis ke file.
08:24
This means data that provides details about the content,
167
504125
4379
Ini berarti data yang memberikan rincian tentang konten, ditandatangani
08:28
cryptographically signed in a way that reinforces our trust
168
508546
3712
secara kriptografis dengan cara yang memperkuat kepercayaan kita
08:32
in that information.
169
512300
1501
pada informasi itu.
08:33
It's an updating record of how AI was used to create or edit it,
170
513801
5297
Ini adalah catatan pembaruan
tentang bagaimana AI digunakan untuk membuat atau mengeditnya,
08:39
where humans and other technologies were involved,
171
519098
2670
di mana manusia dan teknologi lain terlibat,
08:41
and how it was distributed.
172
521809
1919
dan bagaimana itu didistribusikan.
08:43
It's basically a recipe and serving instructions
173
523770
3003
Ini pada dasarnya adalah resep dan instruksi penyajian
08:46
for the mix of AI and human
174
526814
1961
untuk gabungan AI dan manusia
08:48
that's in what you're seeing and hearing.
175
528816
2336
dalam konteks yang Anda lihat dan dengar.
08:51
And it's a critical part of a new AI-infused media literacy.
176
531903
4462
Dan ini adalah bagian penting dari literasi media baru yang dipadukan AI.
Dan ini seharusnya tidak terdengar terlalu gila.
08:57
And this actually shouldn't sound that crazy.
177
537116
2461
08:59
Our communication is moving in this direction already.
178
539577
3212
Komunikasi kita sudah bergerak ke arah ini.
09:02
If you're like me -- you can admit it --
179
542789
2002
Jika Anda seperti saya, akui saja,
09:04
you browse your TikTok “For You” page,
180
544832
2419
Anda menelusuri halaman “Untuk Anda” TikTok Anda,
09:07
and you're used to seeing videos that have an audio source,
181
547251
4213
dan Anda biasa melihat video
yang memiliki sumber audio, filter AI, layar hijau, latar belakang,
09:11
an AI filter, a green screen, a background,
182
551464
2419
09:13
a stitch with another edit.
183
553883
1752
dengan paduan suntingan lain.
09:15
This, in some sense, is the alpha version of this transparency
184
555676
3337
Dalam beberapa hal, ini adalah versi alfa dari transparansi ini
09:19
in some of the major platforms we use today.
185
559055
2377
di beberapa platform utama saat ini.
09:21
It's just that it does not yet travel across the internet,
186
561474
2753
Hanya saja, ini belum tersebar di internet,
tidak dapat diandalkan, dapat diperbarui, dan tidak aman.
09:24
it’s not reliable, updatable, and it’s not secure.
187
564268
3128
09:27
Now, there are also big challenges
188
567980
2628
Sekarang, ada juga tantangan besar
09:30
in this type of infrastructure for authenticity.
189
570650
2544
dalam jenis infrastruktur ini untuk aspek keaslian.
09:34
As we create these durable signs of how AI and human were mixed,
190
574278
4088
Saat tercipta tanda-tanda yang kuat
tentang bagaimana AI dan manusia bergabung,
09:38
that carry across the trajectory of how media is made,
191
578366
3086
sepanjang aliran tentang bagaimana media dibuat,
09:41
we need to ensure they don't compromise privacy or backfire globally.
192
581494
4129
kita harus pastikan mereka tidak membahayakan privasi
atau menjadi bumerang secara global.
09:46
We have to get this right.
193
586249
1710
Kita harus melakukannya dengan benar.
09:48
We can't oblige a citizen journalist filming in a repressive context
194
588584
4255
Kita tidak bisa membenarkan jurnalis warga yang membuat film dengan konteks represif
09:52
or a satirical maker using novel gen-AI tools
195
592839
3169
atau pembuat satir menggunakan alat Gen-AI baru
untuk memparodikan para penguasa...
09:56
to parody the powerful ...
196
596008
1252
09:58
to have to disclose their identity or personally identifiable information
197
598845
4879
keharusan untuk mengungkapkan identitas atau informasi pribadi
10:03
in order to use their camera or ChatGPT.
198
603766
2961
untuk menggunakan kamera atau ChatGPT mereka.
10:08
Because it's important they be able to retain their ability to have anonymity,
199
608312
3712
Karena penting bagi mereka
untuk mempertahankan kemampuan memiliki anonimitas,
10:12
at the same time as the tool to create is transparent.
200
612066
3378
sekaligus sebagai alat untuk membuatnya transparan.
Ini harus tentang bagaimana hubungan AI dan manusia dalam pembuatan media,
10:16
This needs to be about the how of AI-human media making,
201
616112
4171
10:20
not the who.
202
620283
1167
bukan siapa pelakunya.
10:22
This brings me to the final step.
203
622952
2211
Ini membawa saya ke langkah terakhir.
10:25
None of this works without a pipeline of responsibility
204
625163
4462
Semua ini tidak berfungsi tanpa jalur tanggung jawab
10:29
that runs from the foundation models and the open-source projects
205
629667
4254
yang berjalan dari model dasar dan proyek-proyek sumber terbuka
10:33
through to the way that is deployed into systems, APIs and apps,
206
633963
4213
sampai cara penerapannya ke dalam sistem, API, dan aplikasi,
10:38
to the platforms where we consume media and communicate.
207
638217
3379
hingga ke platform tempat kita mengkonsumsi media dan berkomunikasi.
Saya menghabiskan kebanyakan 15 tahun terakhir
10:43
I've spent much of the last 15 years fighting, essentially, a rearguard action,
208
643139
4171
berjuang, melakukan aksi di barisan belakang,
10:47
like so many of my colleagues in the human rights world,
209
647310
2919
seperti banyak rekan saya di dunia hak asasi manusia,
10:50
against the failures of social media.
210
650229
2169
melawan kegagalan media sosial.
10:52
We can't make those mistakes again in this next generation of technology.
211
652899
5380
Kita tidak bisa membuat kesalahan itu lagi dalam teknologi generasi berikutnya ini.
10:59
What this means is that governments
212
659572
1835
Artinya pemerintah perlu memastikan bahwa dalam jalur tanggung jawab untuk AI ini,
11:01
need to ensure that within this pipeline of responsibility for AI,
213
661449
4254
11:05
there is transparency, accountability and liability.
214
665703
3253
ada transparansi, akuntabilitas, dan tanggung jawab.
11:10
Without these three steps --
215
670666
2086
Tanpa tiga langkah ini --
11:12
detection for the people who need it most,
216
672793
3129
deteksi untuk orang-orang yang paling membutuhkannya,
11:15
provenance that is rights-respecting
217
675922
2502
pembuktian yang menghormati hak asasi manusia,
11:18
and that pipeline of responsibility,
218
678466
2169
dan jalur tanggung jawab itu,
11:20
we're going to get stuck looking in vain for the six-fingered hand,
219
680635
3545
kita akan terjebak dengan sia-sia mencari hal-hal yang tidak lazim
11:24
or the eyes that don't blink.
220
684222
1543
atau mata yang tidak berkedip.
11:26
We need to take these steps.
221
686390
1836
Kita perlu mengambil langkah-langkah ini.
11:28
Otherwise, we risk a world where it gets easier and easier
222
688226
3294
Jika tidak, kita mempertaruhkan dunia di mana semakin mudah
11:31
to both fake reality
223
691520
1502
untuk memalsukan realitas
dan mengabaikan realitas yang di anggap berpotensi palsu.
11:33
and dismiss reality as potentially faked.
224
693064
2669
11:36
And that is a world that the political philosopher Hannah Arendt
225
696234
3086
Itu adalah dunia yang digambarkan oleh filsuf politik Hannah Arendt
11:39
described in these terms:
226
699320
1460
dalam istilah ini:
11:40
"A people that no longer can believe anything
227
700821
2628
“Seseorang yang tidak lagi dapat mempercayai apa pun
11:43
cannot make up its own mind.
228
703491
2294
tidak dapat mengambil keputusan sendiri.
11:45
It is deprived not only of its capacity to act
229
705785
3211
Ia tidak hanya kehilangan kapasitasnya untuk bertindak,
11:48
but also of its capacity to think and to judge.
230
708996
3504
tetapi juga kapasitasnya untuk berpikir dan menilai.
11:52
And with such a people you can then do what you please."
231
712959
3211
Dengan orang seperti itu,
Anda dapat melakukan apa yang Anda mau.”
11:56
That's a world I know none of us want,
232
716712
2044
Saya tahu kita tidak menginginkan dunia seperti itu,
11:58
that I think we can prevent.
233
718798
2002
tetapi saya pikir kita bisa mencegahnya.
12:00
Thanks.
234
720800
1168
Terima kasih.
12:02
(Cheers and applause)
235
722009
2544
(Sorak-sorai dan tepuk tangan)
Tentang situs web ini

Situs ini akan memperkenalkan Anda pada video YouTube yang berguna untuk belajar bahasa Inggris. Anda akan melihat pelajaran bahasa Inggris yang diajarkan oleh guru-guru terbaik dari seluruh dunia. Klik dua kali pada subtitle bahasa Inggris yang ditampilkan di setiap halaman video untuk memutar video dari sana. Subtitle bergulir selaras dengan pemutaran video. Jika Anda memiliki komentar atau permintaan, silakan hubungi kami menggunakan formulir kontak ini.

https://forms.gle/WvT1wiN1qDtmnspy7