Is AI the most important technology of the century?

370,292 views ・ 2023-04-04

TED-Ed


Silakan klik dua kali pada teks bahasa Inggris di bawah ini untuk memutar video.

Translator: Syarifa Nurbela Reviewer: Reno Kanti Riananda
00:07
What's the most important century in human history?
0
7003
3587
Apa abad terpenting dalam sejarah manusia?
00:11
Some might argue it’s a period of extensive military campaigning,
1
11049
3920
Sebagian mungkin berpendapat bahwa itu adalah periode kampanye militer ekstensif,
00:14
like Alexander the Great’s in the 300s BCE,
2
14969
3545
seperti periode Iskandar yang Agung di abad 300-an SM,
00:18
which reshaped political and cultural borders.
3
18848
3253
yang mengubah batas-batas politik dan budaya.
00:23
Others might cite the emergence of a major religion,
4
23936
3087
Sebagiannya lagi mungkin mengutip munculnya agama besar,
00:27
such as Islam in the 7th century,
5
27023
2127
seperti Islam di abad ke-7,
00:29
which codified and spread values across such borders.
6
29525
3504
yang mengodifikasi dan menyebarkan nilai melintasi batas-batas tersebut.
00:35
Or perhaps it’s the Industrial Revolution of the 1700s
7
35531
3462
Atau mungkin, Revolusi Industri pada tahun 1700-an
00:38
that transformed global commerce
8
38993
1752
yang mengubah perdagangan global
00:40
and redefined humanity's relationship with labor.
9
40745
3128
dan mendefinisikan kembali hubungan manusia dengan tenaga kerja.
00:44
Whatever the answer, it seems like any century vying for that top spot
10
44165
4129
Apa pun jawabannya, tampaknya setiap abad yang bersaing sebagai abad terpenting
00:48
is at a moment of great change—
11
48294
2377
saat itu sedang mengalami perubahan besar—
00:51
when the actions of our ancestors shifted humanity’s trajectory
12
51631
4171
ketika tindakan nenek moyang kita menggeser lintasan umat manusia
00:55
for centuries to come.
13
55802
1584
untuk abad-abad berikutnya.
00:57
So if this is our metric, is it possible that right now—
14
57720
3921
Jadi jika ini adalah metrik kita, apakah mungkin bahwa saat ini—
01:01
this century— is the most important one yet?
15
61641
3086
abad ini— adalah yang paling penting?
01:05
The 21st century has already proven to be a period of rapid technological growth.
16
65770
5213
Abad ke-21 telah terbukti menjadi masa pertumbuhan teknologi yang pesat.
01:11
Phones and computers have accelerated the pace of life.
17
71234
3128
Telepon dan komputer telah mempercepat laju kehidupan.
01:14
And we’re likely on the cusp of developing new transformative technologies,
18
74403
4171
Dan kita mungkin berada di puncak pengembangan teknologi transformatif baru,
01:18
like advanced artificial intelligence,
19
78574
2294
seperti kecerdasan buatan yang canggih,
01:20
that could entirely change the way people live.
20
80868
2878
yang dapat mengubah cara hidup manusia sepenuhnya.
01:25
Meanwhile, many technologies we already have
21
85414
3045
Sementara itu, kebanyakan teknologi yang sudah kita miliki
01:28
contribute to humanity’s unprecedented levels of existential risk—
22
88459
4838
berkontribusi pada melonjaknya tingkat risiko eksistensial manusia—
01:33
that’s the risk of our species going extinct
23
93381
2377
risiko kepunahan spesies kita
01:35
or experiencing some kind of disaster that permanently limits
24
95758
3420
atau mengalami semacam bencana yang secara permanen membatasi
01:39
humanity’s ability to grow and thrive.
25
99178
2670
kemampuan manusia untuk tumbuh dan berkembang.
01:43
The invention of the atomic bomb marked a major rise in existential risk,
26
103266
4629
Penemuan bom atom menandai peningkatan besar risiko eksistensial,
01:48
and since then we’ve only increased the odds against us.
27
108396
3879
dan sejak itu kita semakin meningkatkan risiko.
01:52
It’s profoundly difficult to estimate the odds
28
112900
2628
Sangat sulit untuk memperkirakan kemungkinan
01:55
of an existential collapse occurring this century.
29
115528
2628
keruntuhan eksistensial yang terjadi abad ini.
01:58
Very rough guesses put the risk of existential catastrophe
30
118239
3462
Dugaan kasar menempatkan risiko bencana eksistensial
02:01
due to nuclear winter and climate change at around 0.1%,
31
121701
4880
akibat musim dingin nuklir dan perubahan iklim sekitar 0,1%,
02:08
with the odds of a pandemic causing the same kind of collapse
32
128291
3211
dengan kemungkinan pandemi menyebabkan jenis keruntuhan yang sama
02:11
at a frightening 3%.
33
131502
1960
di tingkat 3% yang menakutkan.
02:14
Given that any of these disasters could mean the end of life as we know it,
34
134005
4880
Mengingat bencana ini dapat berarti akhir kehidupan yang kita kenal,
02:19
these aren’t exactly small figures,
35
139177
2127
ini bukanlah angka yang kecil.
02:21
And it’s possible this century could see the rise of new technologies
36
141304
4004
Dan mungkin saja abad ini dapat melihat munculnya teknologi baru
02:25
that introduce more existential risks.
37
145308
2794
yang mengakibatkan lebih banyak risiko eksistensial.
02:29
AI experts have a wide range of estimates regarding
38
149103
2628
Ahli AI memiliki berbagai perkiraan mengenai
02:31
when artificial general intelligence will emerge,
39
151731
2961
kapan kecerdasan umum buatan akan muncul,
02:34
but according to some surveys, many believe it could happen this century.
40
154734
4087
tetapi menurut survei, banyak yang yakin bahwa itu akan terjadi abad ini.
02:39
Currently, we have relatively narrow forms of artificial intelligence,
41
159655
3837
Saat ini, kita memiliki bentuk kecerdasan buatan yang relatif sempit,
02:43
which are designed to do specific tasks like play chess or recognize faces.
42
163492
4588
yang dirancang untuk tugas spesifik seperti main catur atau mengenali wajah.
02:49
Even narrow AIs that do creative work are limited to their singular specialty.
43
169040
5213
Bahkan AI di bidang kreatif hanya terbatas pada spesialisasi tunggal mereka.
02:54
But artificial general intelligences, or AGIs,
44
174503
3629
Namun, kecerdasan umum buatan, atau AGI,
02:58
would be able to adapt to and perform any number of tasks,
45
178132
3837
akan mampu untuk beradaptasi dan melakukan sejumlah tugas,
03:02
quickly outpacing their human counterparts.
46
182678
2878
dengan cepat melampaui rekan manusia mereka.
03:06
There are a huge variety of guesses about what AGI could look like,
47
186849
4088
Ada berbagai macam perkiraan tentang seperti apa AGI,
03:11
and what it would mean for humanity to share the Earth
48
191646
2836
dan apa artinya bagi umat manusia untuk berbagi Bumi
03:14
with another sentient entity.
49
194482
2127
dengan entitas berakal lainnya.
03:18
AGIs might help us achieve our goals,
50
198653
2544
AGI mungkin membantu kita mencapai tujuan kita,
03:21
they might regard us as inconsequential,
51
201197
2294
mungkin menganggap kita tidak penting,
03:23
or, they might see us as an obstacle to swiftly remove.
52
203491
3170
atau mungkin melihat kita sebagai hambatan yang harus dihilangkan.
03:26
So in terms of existential risk,
53
206869
2169
Jadi, dalam hal risiko eksistensial,
03:29
it's imperative the values of this new technology align with our own.
54
209038
4087
nilai-nilai teknologi baru ini harus selaras dengan nilai yang kita anut.
03:33
This is an incredibly difficult philosophical and engineering challenge
55
213501
3879
Ini adalah tantangan filosofis dan teknik yang sangat sulit
03:37
that will require a lot of delicate, thoughtful work.
56
217380
3086
yang akan membutuhkan banyak pekerjaan yang rumit dan bijaksana.
03:40
Yet, even if we succeed, AGI could still lead to another complicated outcome.
57
220967
5213
Namun, meskipun berhasil, AGI masih dapat menghasilkan kerumitan lainnya.
03:46
Let’s imagine an AGI emerges with deep respect for human life
58
226847
3796
Bayangkan AGI muncul dengan rasa hormat yang mendalam terhadap kehidupan manusia
03:50
and a desire to solve all humanity’s troubles.
59
230643
2961
dan ingin memperbaiki semua masalah kemanusiaan.
03:55
But to avoid becoming misaligned,
60
235231
2169
Namun, agar tidak terjadi kesesatan,
03:57
it's been developed to be incredibly rigid about its beliefs.
61
237400
3628
AGI telah dikembangkan menjadi sangat kaku tentang keyakinannya.
04:01
If these machines became the dominant power on Earth,
62
241237
3086
Jika mesin ini menjadi kekuatan yang dominan di Bumi,
04:04
their strict values might become hegemonic,
63
244323
2711
nilai-nilai ketat mereka mungkin menjadi hegemonik,
04:07
locking humanity into one ideology that would be incredibly resistant to change.
64
247034
5214
memerangkap manusia ke sebuah ideologi yang sangat resisten terhadap perubahan.
04:14
History has taught us that no matter how enlightened
65
254792
2503
Sejarah telah mengajarkan bahwa seberapa pun
04:17
a civilization thinks they are,
66
257295
1793
sebuah peradaban merasa tercerahkan,
04:19
they are rarely up to the moral standards of later generations.
67
259088
3795
mereka jarang sekali memenuhi standar moral generasi selanjutnya.
04:23
And this kind of value lock in could permanently distort or constrain
68
263009
4629
Dan penguncian nilai semacam ini dapat mendistorsi atau membatasi secara permanen
04:27
humanity’s moral growth.
69
267638
1919
perkembangan moral kemanusiaan.
04:30
There's a ton of uncertainty around AGI,
70
270016
2585
Ada banyak ketidakpastian pada AGI,
04:32
and it’s profoundly difficult to predict how any existential risks
71
272601
3713
dan sangat sulit untuk memprediksi bagaimana risiko eksistensial
04:36
will play out over the next century.
72
276314
2002
akan berperan di abad berikutnya.
04:38
It’s also possible that new, more pressing concerns
73
278649
2920
Mungkin juga kekhawatiran baru yang lebih mendesak
04:41
might render these risks moot.
74
281569
2002
dapat membuat risiko ini diperdebatkan.
04:43
But even if we can't definitively say that ours is the most important century,
75
283904
4713
Namun, meski tak bisa memastikan bahwa abad kita yang paling penting,
04:48
it still seems like the decisions we make might have a major impact
76
288617
3754
keputusan yang kita buat tampaknya akan tetap memiliki dampak yang besar
04:52
on humanity’s future.
77
292371
1502
terhadap masa depan umat manusia.
04:54
So maybe we should all live like the future depends on us—
78
294415
3211
Jadi, mungkin kita harus hidup seolah masa depan bergantung pada kita—
04:57
because actually, it just might.
79
297626
2211
karena sebenarnya, itu mungkin saja.
Tentang situs web ini

Situs ini akan memperkenalkan Anda pada video YouTube yang berguna untuk belajar bahasa Inggris. Anda akan melihat pelajaran bahasa Inggris yang diajarkan oleh guru-guru terbaik dari seluruh dunia. Klik dua kali pada subtitle bahasa Inggris yang ditampilkan di setiap halaman video untuk memutar video dari sana. Subtitle bergulir selaras dengan pemutaran video. Jika Anda memiliki komentar atau permintaan, silakan hubungi kami menggunakan formulir kontak ini.

https://forms.gle/WvT1wiN1qDtmnspy7