Can AI have a mind of its own? ⏲️ 6 Minute English

249,562 views ・ 2023-01-26

BBC Learning English


Silakan klik dua kali pada teks bahasa Inggris di bawah ini untuk memutar video. Subtitel yang diterjemahkan adalah terjemahan mesin.

00:08
Hello. This is 6 Minute English from
0
8520
2220
Halo. Ini adalah 6 Menit Bahasa Inggris dari
00:10
BBC Learning English. I’m Sam.
1
10740
1680
BBC Learning English. Saya Sam.
00:12
And I’m Neil.
2
12420
840
Dan saya Neil.
00:13
In the autumn of 2021, something
3
13260
2520
Pada musim gugur tahun 2021, sesuatu
00:15
strange happened at the Google
4
15780
1920
yang aneh terjadi di
00:17
headquarters in California’s Silicon
5
17700
2460
kantor pusat Google di Lembah Silikon California
00:20
Valley. A software engineer called,
6
20160
2100
. Seorang insinyur perangkat lunak bernama,
00:22
Blake Lemoine, was working on the
7
22260
2460
Blake Lemoine, sedang mengerjakan
00:24
artificial intelligence project, ‘Language
8
24720
2340
proyek kecerdasan buatan, '
00:27
Models for Dialogue Applications’, or
9
27060
2700
Model Bahasa untuk Aplikasi Dialog', atau
00:29
LaMDA for short. LaMDA is a
10
29760
2940
disingkat LaMDA. LaMDA adalah
00:32
chatbot – a computer programme
11
32700
1860
chatbot – program komputer
00:34
designed to have conversations with
12
34560
2040
yang dirancang untuk melakukan percakapan dengan
00:36
humans over the internet.
13
36600
1080
manusia melalui internet.
00:37
After months talking with LaMDA
14
37680
2820
Setelah berbulan-bulan berbicara dengan LaMDA
00:40
on topics ranging from movies to
15
40500
2280
tentang topik mulai dari film hingga
00:42
the meaning of life, Blake came to
16
42780
2220
makna hidup, Blake sampai pada
00:45
a surprising conclusion: the chatbot
17
45000
2700
kesimpulan yang mengejutkan: chatbot
00:47
was an intelligent person with wishes
18
47700
2640
adalah orang yang cerdas dengan keinginan
00:50
and rights that should be respected.
19
50340
2160
dan hak yang harus dihormati.
00:52
For Blake, LaMDA was a Google
20
52500
2640
Bagi Blake, LaMDA adalah
00:55
employee, not a machine.
21
55140
1380
karyawan Google, bukan mesin.
00:56
He also called it his ‘friend’.
22
56520
2160
Dia juga menyebutnya 'teman'.
00:58
Google quickly reassigned Blake from
23
58680
2580
Google dengan cepat menugaskan kembali Blake dari
01:01
the project, announcing that his ideas
24
61260
1860
proyek tersebut, mengumumkan bahwa idenya
01:03
were not supported by the evidence.
25
63120
2220
tidak didukung oleh bukti.
01:05
But what exactly was going on?
26
65340
2700
Tapi apa sebenarnya yang terjadi?
01:08
In this programme, we’ll be
27
68040
1860
Dalam program ini, kita akan
01:09
discussing whether artificial intelligence
28
69900
2160
membahas apakah kecerdasan buatan
01:12
is capable of consciousness. We’ll hear
29
72060
3000
mampu menghasilkan kesadaran. Kita akan mendengar
01:15
from one expert who thinks AI is not as
30
75060
3000
dari seorang pakar yang menganggap AI tidak
01:18
intelligent as we sometimes think,
31
78060
1560
secerdas yang terkadang kita pikirkan,
01:19
and as usual, we’ll be learning some
32
79620
2460
dan seperti biasa, kita juga akan mempelajari beberapa
01:22
new vocabulary as well.
33
82080
1320
kosa kata baru.
01:23
But before that, I have a question for
34
83400
2100
Tapi sebelum itu, saya punya pertanyaan untuk
01:25
you, Neil. What happened to Blake Lemoine
35
85500
2280
Anda, Neil. Apa yang terjadi pada Blake Lemoine
01:27
is strangely similar to the 2013 Hollywood
36
87780
2940
anehnya mirip dengan film Hollywood 2013
01:30
movie, Her, starring Joaquin Phoenix as
37
90720
3420
, Her, yang dibintangi Joaquin Phoenix sebagai
01:34
a lonely writer who talks with his
38
94140
1860
penulis kesepian yang berbicara dengan
01:36
computer, voiced by Scarlett Johansson.
39
96000
2280
komputernya, disuarakan oleh Scarlett Johansson.
01:38
But what happens at the end
40
98280
1860
Tapi apa yang terjadi di akhir
01:40
of the movie? Is it:
41
100140
1380
film? Apakah ini:
01:41
a) the computer comes to life?
42
101520
1860
a) komputer menjadi hidup?
01:43
b) the computer dreams about the writer? or,
43
103380
3360
b) komputer memimpikan penulis? atau,
01:46
c) the writer falls in love with the computer?
44
106740
2040
c) penulis jatuh cinta dengan komputer?
01:48
... c) the writer falls in love with the computer.
45
108780
3420
... c) penulis jatuh cinta dengan komputer.
01:52
OK, Neil, I’ll reveal the answer at the end
46
112200
2700
Oke, Neil, saya akan mengungkapkan jawabannya di akhir
01:54
of the programme. Although Hollywood is
47
114900
2460
program. Meskipun Hollywood
01:57
full of movies about robots coming to life,
48
117360
2340
penuh dengan film tentang robot yang menjadi hidup,
01:59
Emily Bender, a professor of linguistics and
49
119700
3240
Emily Bender, seorang profesor linguistik dan
02:02
computing at the University of Washington,
50
122940
2100
komputasi di University of Washington,
02:05
thinks AI isn’t that smart. She thinks the
51
125040
4440
menganggap AI tidak secerdas itu. Menurutnya
02:09
words we use to talk about technology,
52
129480
1800
kata-kata yang kita gunakan untuk berbicara tentang teknologi,
02:11
phrases like ‘machine learning’, give a
53
131280
3300
frasa seperti 'pembelajaran mesin', memberikan
02:14
false impression about what
54
134580
1620
kesan yang salah tentang apa yang
02:16
computers can and can’t do.
55
136200
1740
bisa dan tidak bisa dilakukan komputer.
02:17
Here is Professor Bender discussing
56
137940
2400
Ini adalah Profesor Bender yang membahas
02:20
another misleading phrase, ‘speech
57
140340
2340
frasa menyesatkan lainnya, '
02:22
recognition’, with BBC World Service
58
142680
2460
pengenalan ucapan', dengan program BBC World Service
02:25
programme, The Inquiry:
59
145140
1440
, The Inquiry:
02:27
If you talk about ‘automatic speech
60
147360
2220
Jika Anda berbicara tentang 'pengenalan ucapan otomatis
02:29
recognition’, the term ‘recognition’
61
149580
1920
', istilah 'pengenalan'
02:31
suggests that there's something
62
151500
2100
menunjukkan bahwa ada sesuatu yang
02:33
cognitive going on, where I think a
63
153600
2160
kognitif terjadi, di mana saya pikir sebuah
02:35
better term would be automatic transcription.
64
155760
2100
istilah yang lebih baik adalah transkripsi otomatis.
02:37
That just describes the input-output
65
157860
1980
Itu hanya menggambarkan hubungan input-output
02:39
relation, and not any theory or wishful
66
159840
3660
, dan bukan teori atau angan-angan apa pun
02:43
thinking about what the computer is
67
163500
2280
tentang apa yang
02:45
doing to be able to achieve that.
68
165780
1440
dilakukan komputer untuk dapat mencapainya.
02:47
Using words like ‘recognition’ in relation
69
167220
3360
Menggunakan kata-kata seperti 'pengenalan' dalam kaitannya
02:50
to computers gives the idea that
70
170580
2100
dengan komputer memberikan gagasan bahwa
02:52
something cognitive is happening – something
71
172680
2760
sesuatu yang bersifat kognitif sedang terjadi – sesuatu yang
02:55
related to the mental processes of
72
175440
2340
berhubungan dengan proses mental
02:57
thinking, knowing, learning and understanding.
73
177780
2760
berpikir, mengetahui, belajar, dan memahami.
03:00
But thinking and knowing are human,
74
180540
2700
Tetapi berpikir dan mengetahui adalah aktivitas manusia,
03:03
not machine, activities. Professor Benders
75
183240
3060
bukan mesin. Profesor Benders
03:06
says that talking about them in connection
76
186300
2040
mengatakan bahwa berbicara tentang mereka sehubungan
03:08
with computers is wishful thinking -
77
188340
3570
dengan komputer adalah angan-angan -
03:11
something which is unlikely to happen.
78
191910
2310
sesuatu yang tidak mungkin terjadi.
03:14
The problem with using words in this
79
194220
2220
Masalah dengan menggunakan kata-kata dengan
03:16
way is that it reinforces what
80
196440
2100
cara ini adalah memperkuat apa yang
03:18
Professor Bender calls, technical
81
198540
2160
disebut Profesor Bender,
03:20
bias – the assumption that the computer
82
200700
2520
bias teknis – asumsi bahwa komputer
03:23
is always right. When we encounter
83
203220
2520
selalu benar. Ketika kita menemukan
03:25
language that sounds natural, but is
84
205740
1680
bahasa yang terdengar alami, tetapi
03:27
coming from a computer, humans
85
207420
2280
berasal dari komputer, manusia
03:29
can’t help but imagine a mind behind
86
209700
2460
mau tidak mau membayangkan pikiran di balik
03:32
the language, even when there isn’t one.
87
212160
2220
bahasa tersebut, bahkan ketika tidak ada.
03:34
In other words, we anthropomorphise
88
214380
2160
Dengan kata lain, kami melakukan antropomorfisasi
03:36
computers – we treat them as if they
89
216540
2520
komputer – kami memperlakukannya seperti
03:39
were human. Here’s Professor Bender
90
219060
2220
manusia. Inilah Profesor Bender
03:41
again, discussing this idea with
91
221280
2220
lagi, mendiskusikan ide ini dengan
03:43
Charmaine Cozier, presenter of BBC
92
223500
2700
Charmaine Cozier, pembawa acara BBC
03:46
World Service’s, the Inquiry.
93
226200
1620
World Service, the Inquiry.
03:48
So ‘ism’ means system, ‘anthro’ or ‘anthropo’
94
228420
3660
Jadi 'isme' artinya sistem, 'anthro' atau 'antropo'
03:52
means human, and ‘morph’ means shape...
95
232080
3000
artinya manusia, dan 'morph' artinya bentuk...
03:55
And so this is a system that puts the
96
235080
3000
Jadi ini adalah sistem yang menempatkan
03:58
shape of a human on something, and
97
238080
2160
bentuk manusia pada sesuatu, dan
04:00
in this case the something is a computer.
98
240240
1260
dalam hal ini sesuatu itu adalah sebuah komputer.
04:01
We anthropomorphise animals all the time,
99
241500
3180
Kami melakukan antropomorfisasi hewan sepanjang waktu,
04:04
but we also anthropomorphise action figures,
100
244680
3060
tetapi kami juga melakukan antropomorfisasi figur aksi,
04:07
or dolls, or companies when we talk about
101
247740
2880
atau boneka, atau perusahaan ketika kami berbicara tentang
04:10
companies having intentions and so on.
102
250620
2040
perusahaan yang memiliki niat dan sebagainya.
04:12
We very much are in the habit of seeing
103
252660
2880
Kita sangat terbiasa melihat
04:15
ourselves in the world around us.
104
255540
1620
diri kita sendiri di dunia sekitar kita.
04:17
And while we’re busy seeing ourselves
105
257160
2220
Dan sementara kita sibuk melihat diri kita sendiri
04:19
by assigning human traits to things that
106
259380
2100
dengan menetapkan sifat manusia pada hal-hal yang
04:21
are not, we risk being blindsided.
107
261480
2520
bukan, kita berisiko dibutakan.
04:24
The more fluent that text is, the more
108
264000
2400
Semakin lancar teks itu, semakin banyak
04:26
different topics it can converse on, the
109
266400
2700
topik yang berbeda yang dapat dibicarakan,
04:29
more chances there are to get taken in.
110
269100
1920
semakin besar peluang untuk diterima.
04:31
If we treat computers as if they could think,
111
271860
2760
Jika kita memperlakukan komputer seolah-olah mereka dapat berpikir,
04:34
we might get blindsided, or
112
274620
2520
kita mungkin akan dibutakan, atau
04:37
unpleasantly surprised. Artificial intelligence
113
277140
3180
terkejut secara tidak menyenangkan. Kecerdasan buatan
04:40
works by finding patterns in massive
114
280320
2220
bekerja dengan menemukan pola dalam
04:42
amounts of data, so it can seem like
115
282540
2520
sejumlah besar data, sehingga
04:45
we’re talking with a human, instead
116
285060
1860
kita seolah-olah sedang berbicara dengan manusia, alih-alih
04:46
of a machine doing data analysis.
117
286920
2220
mesin yang melakukan analisis data.
04:49
As a result, we get taken in – we’re tricked
118
289140
4020
Akibatnya, kita tertipu – kita ditipu
04:53
or deceived into thinking we’re dealing
119
293160
1920
atau ditipu untuk berpikir bahwa kita sedang berurusan
04:55
with a human, or with something intelligent.
120
295080
3003
dengan manusia, atau dengan sesuatu yang cerdas.
04:58
Powerful AI can make machines appear conscious,
121
298083
3318
AI yang kuat dapat membuat mesin tampak sadar,
05:01
but even tech giants like Google are years
122
301401
2945
tetapi bahkan raksasa teknologi seperti Google masih membutuhkan waktu bertahun-tahun
05:04
away from building computers that can
123
304346
2407
untuk membuat komputer yang dapat
05:06
dream or fall in love. Speaking of which,
124
306753
2355
diimpikan atau jatuh cinta. Omong-omong,
05:09
Sam, what was the answer to your question?
125
309108
2671
Sam, apa jawaban atas pertanyaanmu?
05:11
I asked what happened in the 2013 movie, Her.
126
311779
2752
Saya bertanya apa yang terjadi di film 2013, Her.
05:14
Neil thought that the main character
127
314531
1900
Neil berpikir bahwa karakter utama
05:16
falls in love with his computer, which
128
316431
2248
jatuh cinta dengan komputernya, yang
05:18
was the correct answer!
129
318679
1361
merupakan jawaban yang tepat!
05:20
OK. Right, it’s time to recap the vocabulary
130
320880
2640
OKE. Benar, saatnya merangkum kosa kata yang telah
05:23
we’ve learned from this programme about AI,
131
323520
2340
kita pelajari dari program tentang AI ini,
05:25
including chatbots - computer programmes
132
325860
3180
termasuk chatbots - program komputer
05:29
designed to interact with
133
329040
1380
yang dirancang untuk berinteraksi dengan
05:30
humans over the internet.
134
330420
1560
manusia melalui internet.
05:31
The adjective cognitive describes
135
331980
2640
Kognitif kata sifat menggambarkan
05:34
anything connected with the mental
136
334620
1860
segala sesuatu yang berhubungan dengan
05:36
processes of knowing,
137
336480
1320
proses mental mengetahui,
05:37
learning and understanding.
138
337800
1380
belajar dan memahami.
05:39
Wishful thinking means thinking that
139
339180
2640
Wishful thinking berarti berpikir bahwa
05:41
something which is very unlikely to happen
140
341820
2100
sesuatu yang sangat tidak mungkin terjadi
05:43
might happen one day in the future.
141
343920
2040
mungkin akan terjadi suatu hari nanti.
05:45
To anthropomorphise an object means
142
345960
2400
Melakukan antropomorfisasi suatu objek berarti
05:48
to treat it as if it were human,
143
348360
1500
memperlakukannya seolah-olah itu adalah manusia,
05:49
even though it’s not.
144
349860
1200
meskipun sebenarnya bukan.
05:51
When you’re blindsided, you’re
145
351060
2520
Saat Anda buta, Anda
05:53
surprised in a negative way.
146
353580
1500
terkejut dengan cara yang negatif.
05:55
And finally, to get taken in by someone means
147
355080
2880
Dan terakhir, terperdaya oleh seseorang berarti
05:57
to be deceived or tricked by them.
148
357960
1860
ditipu atau ditipu oleh mereka.
05:59
My computer tells me that our six minutes
149
359820
2640
Komputer saya memberi tahu saya bahwa enam menit kami
06:02
are up! Join us again soon, for now
150
362460
2580
sudah habis! Bergabunglah dengan kami lagi segera, untuk saat ini
06:05
it’s goodbye from us.
151
365040
1140
selamat tinggal dari kami.
06:06
Bye!
152
366180
500
Selamat tinggal!
Tentang situs web ini

Situs ini akan memperkenalkan Anda pada video YouTube yang berguna untuk belajar bahasa Inggris. Anda akan melihat pelajaran bahasa Inggris yang diajarkan oleh guru-guru terbaik dari seluruh dunia. Klik dua kali pada subtitle bahasa Inggris yang ditampilkan di setiap halaman video untuk memutar video dari sana. Subtitle bergulir selaras dengan pemutaran video. Jika Anda memiliki komentar atau permintaan, silakan hubungi kami menggunakan formulir kontak ini.

https://forms.gle/WvT1wiN1qDtmnspy7