How to Govern AI — Even If It’s Hard to Predict | Helen Toner | TED

62,091 views ・ 2024-05-01

TED


Silakan klik dua kali pada teks bahasa Inggris di bawah ini untuk memutar video.

Translator: Arvin Novyan Benardi Reviewer: Reno Kanti Riananda
00:03
When I talk to people about artificial intelligence,
0
3583
3963
Saat saya berbicara mengenai kecerdasan buatan (AI),
00:07
something I hear a lot from non-experts is “I don’t understand AI.”
1
7546
5255
jawaban paling banyak yang saya dengar adalah “saya tidak paham AI.”
00:13
But when I talk to experts, a funny thing happens.
2
13260
2794
Namun, saat bicara dengan para ahli, hal yang lucu justru terjadi.
00:16
They say, “I don’t understand AI, and neither does anyone else.”
3
16096
4546
Mereka bilang, “Saya tidak paham AI, begitu pula semua orang.”
00:21
This is a pretty strange state of affairs.
4
21393
3503
Ini cukup aneh.
00:24
Normally, the people building a new technology
5
24896
3295
Umumnya, orang-orang yang membuat teknologi baru
00:28
understand how it works inside and out.
6
28233
2669
mengerti cara kerjanya luar dalam.
00:31
But for AI, a technology that's radically reshaping the world around us,
7
31695
4546
Namun AI, teknologi yang begitu cepat mengubah dunia,
00:36
that's not so.
8
36283
1167
tidak seperti itu.
00:37
Experts do know plenty about how to build and run AI systems, of course.
9
37492
4588
Para ahli tahu banyak tentang cara membuat dan menjalankan sistem AI, tentu saja.
00:42
But when it comes to how they work on the inside,
10
42455
2503
Namun, saat menyangkut cara kerja mereka,
00:45
there are serious limits to how much we know.
11
45000
2877
pengetahuan kita sangatlah terbatas.
00:48
And this matters because without deeply understanding AI,
12
48420
3879
Ini penting, karena tanpa mengetahui AI secara mendalam,
00:52
it's really difficult for us to know what it will be able to do next,
13
52340
4255
begitu sulit bagi kita untuk tahu apa yang bisa dilakukan AI selanjutnya,
00:56
or even what it can do now.
14
56636
2336
bahkan apa yang bisa dilakukan AI sekarang.
00:59
And the fact that we have such a hard time understanding
15
59556
3378
Kemudian, fakta bahwa kita kesulitan untuk memahami
01:02
what's going on with the technology and predicting where it will go next,
16
62976
3837
apa yang terjadi dengan teknologi dan memprediksi ke mana arah berikutnya
01:06
is one of the biggest hurdles we face in figuring out how to govern AI.
17
66855
4629
adalah salah satu tantangan terbesar kita dalam memecahkan masalah cara mengatur AI.
01:12
But AI is already all around us,
18
72861
2294
Namun, AI sudah ada dalam kehidupan sehari-hari,
01:15
so we can't just sit around and wait for things to become clearer.
19
75155
4254
jadi kita tidak bisa hanya duduk diam dan menunggu semuanya menjadi lebih jelas.
01:19
We have to forge some kind of path forward anyway.
20
79826
3170
Mau tidak mau, kita harus mulai membentuk jalan ke depan.
01:24
I've been working on these AI policy and governance issues
21
84080
3629
Saya sudah mengerjakan kebijakan dan isu tata kelola AI
01:27
for about eight years,
22
87751
1167
selama delapan tahun.
01:28
First in San Francisco, now in Washington, DC.
23
88918
3170
Pertama di San Fransisco, dan sekarang di Washington, D.C.
01:32
Along the way, I've gotten an inside look
24
92922
2753
Selama kurun waktu tersebut, saya mendapatkan wawasan
01:35
at how governments are working to manage this technology.
25
95717
3754
tentang bagaimana pemerintah bekerja untuk mengatur teknologi ini.
01:39
And inside the industry, I've seen a thing or two as well.
26
99471
4421
Dari sisi industri, saya juga melihat satu atau dua hal.
01:45
So I'm going to share a couple of ideas
27
105852
3170
Jadi, saya akan membagikan beberapa ide
01:49
for what our path to governing AI could look like.
28
109022
3629
jalur yang dapat kita bentuk untuk mengatur AI.
01:53
But first, let's talk about what actually makes AI so hard to understand
29
113026
4421
Sebelumnya, mari kita bicara tentang mengapa AI sulit dipahami
01:57
and predict.
30
117489
1251
dan diprediksi.
01:59
One huge challenge in building artificial "intelligence"
31
119616
3837
Satu tantangan terbesar dalam membuat “kecerdasan” buatan
02:03
is that no one can agree on what it actually means
32
123495
3086
adalah tidak ada yang bisa sepakat apa yang dimaksud dengan
02:06
to be intelligent.
33
126623
1752
menjadi cerdas.
02:09
This is a strange place to be in when building a new tech.
34
129000
3170
Ini merupakan situasi aneh ketika membuat sebuah teknologi baru.
02:12
When the Wright brothers started experimenting with planes,
35
132212
3295
Ketika Wright bersaudara mulai bereksperiman dengan pesawat,
02:15
they didn't know how to build one,
36
135507
1668
mereka tidak tahu cara membuatnya,
02:17
but everyone knew what it meant to fly.
37
137175
3128
tetapi semua orang tahu yang dimaksud dengan terbang.
02:21
With AI on the other hand,
38
141596
1794
Sedangkan dengan AI,
02:23
different experts have completely different intuitions
39
143431
3295
ahli yang berbeda mempunyai intuisi yang berbeda pula
02:26
about what lies at the heart of intelligence.
40
146726
2920
mengenai inti dari kecerdasan.
02:29
Is it problem solving?
41
149646
2210
Apakah tentang pemecahan masalah?
02:31
Is it learning and adaptation,
42
151898
2711
Apakah tentang belajar dan adaptasi,
02:34
are emotions,
43
154651
1418
apakah emosi,
02:36
or having a physical body somehow involved?
44
156111
3128
atau memiliki bentuk fisik juga dilibatkan?
02:39
We genuinely don't know.
45
159698
1459
Kita sejujurnya tidak tahu.
02:41
But different answers lead to radically different expectations
46
161157
4338
Namun, jawaban yang berbeda menyebabkan ekspektasi yang sangat berbeda
02:45
about where the technology is going and how fast it'll get there.
47
165537
4254
tentang arah dan seberapa cepat teknologi tersebut dapat dicapai.
02:50
An example of how we're confused is how we used to talk
48
170834
2586
Contoh kebingungan ini adalah bagaimana kita biasa berbicara
02:53
about narrow versus general AI.
49
173461
2294
mengenai AI spesifik dan AI umum.
02:55
For a long time, we talked in terms of two buckets.
50
175797
3795
Sejak lama, kita berbicara dalam dua kelompok terpisah.
02:59
A lot of people thought we should just be dividing between narrow AI,
51
179634
4129
Banyak orang berpikir kita seharusnya membagi AI menjadi AI spesifik,
03:03
trained for one specific task,
52
183763
1919
dilatih untuk satu tugas spesifik,
03:05
like recommending the next YouTube video,
53
185724
2669
seperti merekomendasi video YouTube,
03:08
versus artificial general intelligence, or AGI,
54
188435
3795
dengan kecerdasan buatan umum, atau AGI,
03:12
that could do everything a human could do.
55
192272
2586
yaitu dapat melakukan segala hal yang dilakukan manusia.
03:15
We thought of this distinction, narrow versus general,
56
195859
2919
Kita memahami pemisahan ini, spesifik dan umum,
03:18
as a core divide between what we could build in practice
57
198778
3963
sebagai pembagi inti antara apa yang kita bisa buat secara nyata
03:22
and what would actually be intelligent.
58
202782
2252
dan apa yang benar-benar cerdas.
03:25
But then a year or two ago, along came ChatGPT.
59
205952
4963
Namun, setahun atau dua tahun lalu, datanglah ChatGPT.
03:31
If you think about it,
60
211541
1543
Jika kita renungkan,
03:33
you know, is it narrow AI, trained for one specific task?
61
213126
3712
apakah ini AI spesifik, yang dilatih untuk satu tugas spesifik?
03:36
Or is it AGI and can do everything a human can do?
62
216838
3170
atau apakah ini AGI dan bisa melakukan apa yang dilakukan manusia?
03:41
Clearly the answer is neither.
63
221092
1502
Jawabannya jelas bukan keduanya.
03:42
It's certainly general purpose.
64
222635
1919
ChatGPTdibuat untuk tujuan umum.
03:44
It can code, write poetry,
65
224554
2920
Dia bisa membuat kode program, menulis puisi,
03:47
analyze business problems, help you fix your car.
66
227515
3045
menganalisis masalah bisnis, membantu memperbaiki mobil Anda.
03:51
But it's a far cry from being able to do everything
67
231352
2795
Namun, masih sangat jauh dari mampu melakukan
03:54
as well as you or I could do it.
68
234189
2419
sebaik yang bisa Anda atau saya lakukan.
03:56
So it turns out this idea of generality
69
236608
2043
Jadi ide dari kegunaan umum
03:58
doesn't actually seem to be the right dividing line
70
238651
2711
bukanlah batas pembagi yang benar antara
04:01
between intelligent and not.
71
241404
2127
antara kecerdasan dan bukan.
04:04
And this kind of thing
72
244073
1335
Dan hal seperti ini
04:05
is a huge challenge for the whole field of AI right now.
73
245450
2794
yang menjadi tantangan besar bagi bidang AI sekarang ini.
04:08
We don't have any agreement on what we're trying to build
74
248286
2836
Kita tidak mempunyai kesepakatan apa yang ingin kita buat
04:11
or on what the road map looks like from here.
75
251164
2419
atau bentuk dari peta jalannya dari sini.
04:13
We don't even clearly understand the AI systems that we have today.
76
253625
3962
Kita bahkan tidak memahami jelas sistem AI yang kita punya hari ini.
04:18
Why is that?
77
258004
1251
Mengapa demikian?
04:19
Researchers sometimes describe deep neural networks,
78
259297
3003
Peneliti kadang menyebutkan jaringan saraf dalam,
04:22
the main kind of AI being built today,
79
262300
2085
jenis utama AI yang dibuat sekarang,
04:24
as a black box.
80
264427
1460
sebagai kotak hitam.
04:26
But what they mean by that is not that it's inherently mysterious
81
266304
3670
tetapi apa yang dimaksud oleh mereka bukanlah kemisteriusannya
04:29
and we have no way of looking inside the box.
82
269974
2711
dan tidak ada cara bagi kita untuk melihat ke dalam kotak.
04:33
The problem is that when we do look inside,
83
273228
2669
Masalahnya adalah ketika kita melihat ke dalam,
04:35
what we find are millions,
84
275939
2335
apa yang kita lihat adalah jutaan,
04:38
billions or even trillions of numbers
85
278316
2878
milyaran atau bahkan triliunan angka
04:41
that get added and multiplied together in a particular way.
86
281194
3462
yang ditambahkan dan dilipatgandakan bersamaan dengan sebuah cara tertentu.
Yang membuat para ahli sulit untuk tahu apa yang terjadi
04:45
What makes it hard for experts to know what's going on
87
285031
2544
04:47
is basically just, there are too many numbers,
88
287617
3086
intinya adalah, ada terlalu banyak angka,
04:50
and we don't yet have good ways of teasing apart what they're all doing.
89
290745
3962
dan kita belum menemukan cara baik untuk mencari tahu apa yang mereka lakukan.
04:54
There's a little bit more to it than that, but not a lot.
90
294707
3003
Ada beberapa hal lagi mengenai itu, tetapi tidak banyak.
04:58
So how do we govern this technology
91
298545
3003
Jadi, bagaimana kita mengatur teknologi
05:01
that we struggle to understand and predict?
92
301589
2628
yang sulit untuk kita pahami dan prediksi?
05:04
I'm going to share two ideas.
93
304717
1502
Saya akan membagikan dua ide.
05:06
One for all of us and one for policymakers.
94
306261
3253
Satu untuk kita semua dan satu untuk para pembuat kebijakan.
05:10
First, don't be intimidated.
95
310932
2711
Pertama, jangan terintimidasi.
05:14
Either by the technology itself
96
314102
2461
Baik oleh teknologi itu sendiri
05:16
or by the people and companies building it.
97
316563
3086
maupun oleh orang dan perusahaan yang membuatnya.
05:20
On the technology,
98
320400
1168
Dalam hal teknologi,
05:21
AI can be confusing, but it's not magical.
99
321568
2502
AI begitu membingungkan, tetapi tidak ajaib.
05:24
There are some parts of AI systems we do already understand well,
100
324070
3504
Ada beberapa bagian dari sistem AI yang sudah kita pahami dengan baik,
05:27
and even the parts we don't understand won't be opaque forever.
101
327574
4045
bahkan bagian yang tidak kita pahami tidak akan selamanya asing.
05:31
An area of research known as “AI interpretability”
102
331619
3295
Area penelitian yang dikenal dengan “intepretabilitas AI”
05:34
has made quite a lot of progress in the last few years
103
334956
3128
sudah membuat banyak progres beberapa tahun terakhir
05:38
in making sense of what all those billions of numbers are doing.
104
338084
3504
dalam menjelaskan apa yang dilakukan milyaran angka tersebut.
05:42
One team of researchers, for example,
105
342463
2169
Contohnya, satu tim peneliti,
05:44
found a way to identify different parts of a neural network
106
344674
3420
menemukan cara untuk mengidentifikasi bagian jaringan saraf yang berbeda
05:48
that they could dial up or dial down
107
348136
2335
yang bisa diatur naik atau turun
05:50
to make the AI's answers happier or angrier,
108
350513
3754
untuk membuat AI menjawab dengan lebih ceria atau marah,
05:54
more honest,
109
354309
1418
lebih jujur,
05:55
more Machiavellian, and so on.
110
355768
2545
lebih Machiavellian, dan lainnya.
05:58
If we can push forward this kind of research further,
111
358771
2503
Apabila kita bisa memajukan penelitian semacam ini,
06:01
then five or 10 years from now,
112
361316
2210
lima atau sepuluh tahun dari sekarang,
06:03
we might have a much clearer understanding of what's going on
113
363526
3003
kita mungkin dapat memahami lebih jelas apa yang terjadi
06:06
inside the so-called black box.
114
366571
2669
di dalam kotak hitam ini.
06:10
And when it comes to those building the technology,
115
370325
2669
Ketika membangun teknologi itu,
06:13
technologists sometimes act as though
116
373036
1918
teknikus kadang bersikap seakan
06:14
if you're not elbows deep in the technical details,
117
374996
3420
jika Anda tidak paham sekali tentang detil-detil teknis,
06:18
then you're not entitled to an opinion on what we should do with it.
118
378458
3420
maka Anda tidak berhak berpendapat akan apa yang harusnya dilakukan.
06:22
Expertise has its place, of course,
119
382337
2294
Keahlian punya tempat, tentunya,
06:24
but history shows us how important it is
120
384672
2169
tetapi sejarah menunjukkan pentingnya
06:26
that the people affected by a new technology
121
386883
3003
orang-orang yang terdampak oleh teknologi baru
06:29
get to play a role in shaping how we use it.
122
389886
2753
memainkan peran dalam membentuk bagaimana penggunaannya.
06:32
Like the factory workers in the 20th century who fought for factory safety,
123
392639
4629
Sama seperti buruh pabrik di abad ke-20 memperjuangkan keamanan pabrik,
06:37
or the disability advocates
124
397310
2127
atau advokat disabilitas
06:39
who made sure the world wide web was accessible.
125
399437
3003
yang memastikan web mudah diakses.
06:42
You don't have to be a scientist or engineer to have a voice.
126
402982
3963
Anda tidak perlu menjadi ilmuwan atau insinyur untuk bersuara.
06:48
(Applause)
127
408821
4547
(Tepuk tangan)
06:53
Second, we need to focus on adaptability, not certainty.
128
413868
5464
Kedua, kita perlu berfokus pada adaptabilitas, bukan kepastian.
06:59
A lot of conversations about how to make policy for AI
129
419749
3128
Banyak percakapan mengenai bagaimana cara membuat kebijakan bagi AI
07:02
get bogged down in fights between, on the one side,
130
422919
2711
menjadi perdebatan antara, satu sisi,
07:05
people saying, "We have to regulate AI really hard right now
131
425672
3003
ada yang berkata, “Kita harus regulasi AI secara ketat sekarang
07:08
because it's so risky."
132
428716
1585
karena terlalu riskan.”
07:10
And on the other side, people saying,
133
430301
1794
Di sisi lainnya, ada yang berkata,
07:12
“But regulation will kill innovation, and those risks are made up anyway.”
134
432136
4129
“Tetapi regulasi akan membunuh inovasi, dan risiko itu pun dibuat-dibuat saja.”
07:16
But the way I see it,
135
436307
1168
tetapi menurut saya,
07:17
it’s not just a choice between slamming on the brakes
136
437475
2961
ini bukan hanya soal kapan harus menginjak rem
07:20
or hitting the gas.
137
440478
1502
atau menginjak gas.
07:22
If you're driving down a road with unexpected twists and turns,
138
442313
3962
Bila Anda mengendarai menyusuri jalan dengan lika-liku dan belokan,
07:26
then two things that will help you a lot
139
446275
2503
maka ada dua hal yang akan membantu Anda
07:28
are having a clear view out the windshield
140
448778
2794
adalah pandangan jelas di kaca depan
07:31
and an excellent steering system.
141
451614
2419
dan sistem kemudi yang baik.
07:34
In AI, this means having a clear picture of where the technology is
142
454033
5005
Pada AI, ini artinya mempunyai gambaran yang jelas dari posisi teknologi
07:39
and where it's going,
143
459080
1627
dan ke mana arah perginya,
07:40
and having plans in place for what to do in different scenarios.
144
460707
3628
dan mempunyai rencana dalam menghadapi skenario yang berbeda-beda
07:44
Concretely, this means things like investing in our ability to measure
145
464752
4338
Secara konkret, hal-hal seperti investasi dalam kemampuan kita mengukur
07:49
what AI systems can do.
146
469132
1877
apa yang AI bisa lakukan.
07:51
This sounds nerdy, but it really matters.
147
471342
3212
Terkesan kutu buku, tetapi sangat penting.
07:54
Right now, if we want to figure out
148
474595
2044
Saat ini, jika kita ingin mengetahui
07:56
whether an AI can do something concerning,
149
476681
2002
apakah AI bisa mengkhawatirkan,
07:58
like hack critical infrastructure
150
478725
2377
seperti meretas infrastruktur penting
08:01
or persuade someone to change their political beliefs,
151
481102
4671
atau mempersuasi seseorang untuk mengubah pandangan politik mereka,
08:05
our methods of measuring that are rudimentary.
152
485773
2544
metode untuk mengukur tersebut masih belum sempurna.
08:08
We need better.
153
488317
1210
Kita perlu yang lebih baik.
08:10
We should also be requiring AI companies,
154
490319
2545
Kita juga perlu mewajibkan perusahaan-perusahaan AI,
08:12
especially the companies building the most advanced AI systems,
155
492905
3420
khususnya perusahaan yang membuat sistem AI yang paling canggih,
08:16
to share information about what they're building,
156
496367
3170
untuk membagikan informasi apa yang sedang mereka buat,
08:19
what their systems can do
157
499537
1710
apa yang sistem mereka bisa lakukan
08:21
and how they're managing risks.
158
501289
2127
dan bagaimana mereka mengelola risiko.
08:23
And they should have to let in external AI auditors to scrutinize their work
159
503458
5589
Mereka juga harus membiarkan auditor AI eksternal untuk memeriksa karya mereka
08:29
so that the companies aren't just grading their own homework.
160
509088
3128
agar para perusahaan ini tidak menilai pekerjaan mereka sendiri.
08:33
(Applause)
161
513801
4213
(Tepuk tangan)
08:38
A final example of what this can look like
162
518014
2461
Contoh terakhir dari gagasan ini
08:40
is setting up incident reporting mechanisms,
163
520475
3503
adalah membuat mekanisme pelaporan insiden,
08:44
so that when things do go wrong in the real world,
164
524020
2753
jadi ketika kesalahan terjadi di dunia nyata,
08:46
we have a way to collect data on what happened
165
526814
2962
kita mempunyai cara untuk mengumpulkan data apa yang terjadi
08:49
and how we can fix it next time.
166
529817
2002
dan bagaimana cara memperbaikinya.
08:51
Just like the data we collect on plane crashes and cyber attacks.
167
531819
4421
Seperti data yang kita kumpulkan pada kecelakaan pesawat dan serangan siber.
08:57
None of these ideas are mine,
168
537158
1668
Semua hal ini bukanlah ide saya,
08:58
and some of them are already starting to be implemented in places like Brussels,
169
538868
4504
dan beberapa di antaranya sudah mulai diimplementasikan seperti di Brussels,
09:03
London, even Washington.
170
543372
2128
London, bahkan Washington.
09:06
But the reason I'm highlighting these ideas,
171
546042
2627
Namun, alasan saya memaparkan ide-ide ini,
09:08
measurement, disclosure, incident reporting,
172
548669
4046
pengukuran, pengungkapan, pelaporan insiden,
09:12
is that they help us navigate progress in AI
173
552757
2794
adalah untuk membantu kita menavigasi progres AI
09:15
by giving us a clearer view out the windshield.
174
555593
3086
dengan memberikan pandangan jelas pada kaca depan kita.
09:18
If AI is progressing fast in dangerous directions,
175
558721
3712
Apabila AI berprogres cepat ke arah yang berbahaya,
09:22
these policies will help us see that.
176
562475
2377
kebijakan-kebijakan ini akan membantu melihat itu.
09:25
And if everything is going smoothly, they'll show us that too,
177
565436
3545
Bila semuanya berjalan lancar, hal itu juga akan terlihat,
09:28
and we can respond accordingly.
178
568981
2211
dan kita bisa memberi respons yang sesuai.
09:33
What I want to leave you with
179
573569
1502
Apa yang saya ingin Anda ingat
09:35
is that it's both true that there's a ton of uncertainty
180
575071
4629
adalah memang banyak ketidakpastian
09:39
and disagreement in the field of AI.
181
579742
2961
dan ketidaksepakatan di bidang AI.
09:42
And that companies are already building and deploying AI
182
582745
4046
Perusahaan-perusahaan juga sudah membuat dan menerapkan AI
09:46
all over the place anyway in ways that affect all of us.
183
586833
4462
di segala hal yang berpengaruh bagi kita semua.
09:52
Left to their own devices,
184
592004
1544
Jika dibiarkan begitu saja,
09:53
it looks like AI companies might go in a similar direction
185
593548
3169
sepertinya perusahaan AI mungkin akan menjadi seperti
09:56
to social media companies,
186
596717
1961
perusahaan media sosial,
09:58
spending most of their resources on building web apps
187
598678
2627
menghabiskan sumber daya mereka membuat aplikasi web
10:01
and for users' attention.
188
601305
1836
dan berebut perhatian pengguna.
10:04
And by default, it looks like the enormous power of more advanced AI systems
189
604016
4463
Secara alami, kekuatan besar dari sistem AI yang lebih canggih
10:08
might stay concentrated in the hands of a small number of companies,
190
608479
4046
mungkin tetap terkonsentrasi di tangan sekumpulan kecil perusahaan,
10:12
or even a small number of individuals.
191
612567
1918
atau bahkan sekumpulan kecil individu.
10:15
But AI's potential goes so far beyond that.
192
615278
3253
Namun, potensi AI jauh lebih dari itu.
10:18
AI already lets us leap over language barriers
193
618531
2711
AI membuat kita melompati batasan bahasa
10:21
and predict protein structures.
194
621284
2252
dan memprediksi struktur protein.
10:23
More advanced systems could unlock clean, limitless fusion energy
195
623536
4504
Sistem yang lebih canggih dapat membuka energi fusi bersih dan tidak terbatas.
10:28
or revolutionize how we grow food
196
628082
2503
atau merevolusi cara kita menanam pangan
10:30
or 1,000 other things.
197
630626
1835
atau 1.000 hal lainnya.
10:32
And we each have a voice in what happens.
198
632962
2586
Kita semua memiliki suara atas apa yang terjadi.
10:35
We're not just data sources,
199
635548
2002
Kita bukan hanya sumber data,
10:37
we are users,
200
637592
2043
kita adalah pengguna,
10:39
we're workers,
201
639635
1502
kita adalah pekerja,
10:41
we're citizens.
202
641137
1209
kita adalah masyarakat.
10:43
So as tempting as it might be,
203
643514
2961
Walaupun menggiurkan,
10:46
we can't wait for clarity or expert consensus
204
646475
4672
kita tidak bisa menunggu kejelasan atau konsensus ahli
10:51
to figure out what we want to happen with AI.
205
651147
3378
untuk mencari tahu apa yang kita inginkan terjadi dengan AI.
10:54
AI is already happening to us.
206
654525
2586
AI sudah terjadi kepada kita.
10:57
What we can do is put policies in place
207
657737
3211
Yang bisa kita lakukan adalah membuat kebijakan
11:00
to give us as clear a picture as we can get
208
660948
2670
untuk memberikan kita gambaran sejelas-jelasnya
11:03
of how the technology is changing,
209
663618
2460
bagaimana teknologi berubah,
11:06
and then we can get in the arena and push for futures we actually want.
210
666078
5089
lalu kita bisa terjun ke lapangan dan mendorong masa depan yang kita inginkan.
11:11
Thank you.
211
671751
1126
Terima kasih.
11:12
(Applause)
212
672919
3378
(Tepuk tangan)
Tentang situs web ini

Situs ini akan memperkenalkan Anda pada video YouTube yang berguna untuk belajar bahasa Inggris. Anda akan melihat pelajaran bahasa Inggris yang diajarkan oleh guru-guru terbaik dari seluruh dunia. Klik dua kali pada subtitle bahasa Inggris yang ditampilkan di setiap halaman video untuk memutar video dari sana. Subtitle bergulir selaras dengan pemutaran video. Jika Anda memiliki komentar atau permintaan, silakan hubungi kami menggunakan formulir kontak ini.

https://forms.gle/WvT1wiN1qDtmnspy7