The ethical dilemma of self-driving cars - Patrick Lin

2,078,144 views ・ 2015-12-08

TED-Ed


Silakan klik dua kali pada teks bahasa Inggris di bawah ini untuk memutar video.

Translator: Syifa Sabrina Reviewer: Prameswari Rahmanu
00:07
This is a thought experiment.
0
7246
2042
Ini adalah eksperimen pikiran.
00:09
Let's say at some point in the not so distant future,
1
9288
2625
Anggap saja di masa depan,
00:11
you're barreling down the highway in your self-driving car,
2
11913
3583
kamu sedang melintas kencang di jalan tol dengan mobil tanpa awak,
00:15
and you find yourself boxed in on all sides by other cars.
3
15496
4292
lalu kamu terperangkap oleh mobil lain dari berbagai sisi.
00:19
Suddenly, a large, heavy object falls off the truck in front of you.
4
19788
4416
Tiba-tiba, benda berat terguling dari truk di depanmu.
00:24
Your car can't stop in time to avoid the collision,
5
24204
3167
Mobilmu tidak bisa berhenti mendadak untuk menghindari tabrakan.
00:27
so it needs to make a decision:
6
27371
2042
Jadi, mobil itu perlu memutuskan:
00:29
go straight and hit the object,
7
29413
2250
terus melaju dan menabrak benda berat itu,
00:31
swerve left into an SUV,
8
31663
2291
belok ke kiri menghantam mobil SUV,
00:33
or swerve right into a motorcycle.
9
33954
3000
atau belok ke kanan menghantam motor.
00:36
Should it prioritize your safety by hitting the motorcycle,
10
36954
3500
Demi keselamatanmu, apa sebaiknya mobil itu menabrak motor,
00:40
minimize danger to others by not swerving,
11
40454
2792
mengurangi bahaya pengendara lain dengan tidak berbelok,
00:43
even if it means hitting the large object and sacrificing your life,
12
43246
4083
walaupun kamu akan menabrak benda besar dan mengorbankan hidupmu,
00:47
or take the middle ground by hitting the SUV,
13
47329
2750
atau mengambil jalan tengah dengan menabrak SUV,
pilihan manakah yang memiliki tingkat keselamatan penumpang yang tinggi?
00:50
which has a high passenger safety rating?
14
50079
3000
00:53
So what should the self-driving car do?
15
53079
3208
Apa yang harus dilakukan mobil tanpa awak?
00:56
If we were driving that boxed in car in manual mode,
16
56287
3209
Jika kita terjebak di kondisi seperti itu dengan mobil dalam mode manual,
00:59
whichever way we'd react would be understood as just that,
17
59496
3541
dengan cara apa pun kita merespon akan dimengerti sebatas itu saja,
01:03
a reaction,
18
63037
1292
sebuah reaksi,
01:04
not a deliberate decision.
19
64329
2250
bukan sebuah keputusan yang terencana.
01:06
It would be an instinctual panicked move with no forethought or malice.
20
66579
4292
Itu adalah gerak instingtif karena panik tanpa pemikiran matang atau kesengajaan.
01:10
But if a programmer were to instruct the car to make the same move,
21
70871
3625
Namun, jika seorang programer memerintah mobil mengambil langkah yang sama
01:14
given conditions it may sense in the future,
22
74496
2833
dalam kondisi yang sama di masa mendatang,
01:17
well, that looks more like premeditated homicide.
23
77329
4292
tindakan itu rasanya seperti pembunuhan terencana.
01:21
Now, to be fair,
24
81621
1000
Sebenarnya,
01:22
self-driving cars are predicted to dramatically reduce traffic accidents
25
82621
4083
mobil tanpa awak digadangkan akan mengurangi laka lantas
01:26
and fatalities
26
86704
1250
dan kematian
01:27
by removing human error from the driving equation.
27
87954
3167
dengan menghilangkan faktor manusia dalam berkendara.
01:31
Plus, there may be all sorts of other benefits:
28
91121
2375
Belum lagi dengan kelebihan lainnya:
01:33
eased road congestion,
29
93496
1667
mengurai kepadatan lalu lintas,
01:35
decreased harmful emissions,
30
95163
1541
menekan emisi berbahaya,
01:36
and minimized unproductive and stressful driving time.
31
96704
4625
dan mengurangi jam berkendara yang penuh stres dan tidak produktif.
01:41
But accidents can and will still happen,
32
101329
2167
Namun, kecelakaan tetap bisa terjadi,
01:43
and when they do,
33
103496
1167
dan saat terjadi,
01:44
their outcomes may be determined months or years in advance
34
104663
4500
akibatnya dapat ditentukan berbulan-bulan atau bertahun-tahun sebelumnya
01:49
by programmers or policy makers.
35
109163
2583
oleh para programer atau penentu kebijakan.
01:51
And they'll have some difficult decisions to make.
36
111746
2500
Dan mereka punya beban berat dalam mengambil keputusan.
01:54
It's tempting to offer up general decision-making principles,
37
114246
2958
Kecenderungannya menawarkan prinsip umum pengambilan keputusan,
01:57
like minimize harm,
38
117204
1875
seperti meminimalisir bahaya,
01:59
but even that quickly leads to morally murky decisions.
39
119079
3375
tetapi itu akan berujung pada keputusan buah simalakama.
02:02
For example,
40
122454
1167
Contohnya,
02:03
let's say we have the same initial set up,
41
123621
2000
anggap saja permulaannya sama seperti di atas,
02:05
but now there's a motorcyclist wearing a helmet to your left
42
125621
2875
tetapi sekarang ada pengendara motor yang memakai helm di sebelah kirimu
02:08
and another one without a helmet to your right.
43
128496
2792
dan pengendara lain tanpa helm di kananmu.
02:11
Which one should your robot car crash into?
44
131288
3083
Mobil robotmu harus menabrak yang mana?
02:14
If you say the biker with the helmet because she's more likely to survive,
45
134371
4083
Kalau kamu bilang pengendara dengan helm karena dia sepertinya akan selamat,
02:18
then aren't you penalizing the responsible motorist?
46
138454
2917
bukankah kamu membebankan pengendara yang bertanggung jawab?
02:21
If, instead, you save the biker without the helmet
47
141371
2750
Jika sebaliknya, kamu menyelamatkan pengendara tanpa helm
02:24
because he's acting irresponsibly,
48
144121
2000
karena tindakannya itu tidak taat aturan,
02:26
then you've gone way beyond the initial design principle about minimizing harm,
49
146121
4875
maka kamu sudah menyalahi aturan dasar tentang meminimalisir bahaya,
02:30
and the robot car is now meting out street justice.
50
150996
3875
si mobil robot kini berhadapan dengan keadilan di jalanan.
02:34
The ethical considerations get more complicated here.
51
154871
3542
Keputusan moral menjadi lebih rumit.
02:38
In both of our scenarios,
52
158413
1375
Dalam dua skenario kita,
02:39
the underlying design is functioning as a targeting algorithm of sorts.
53
159788
4500
rancangan dasarnya difungsikan sebagai semacam algoritma menyasar.
02:44
In other words,
54
164288
1000
Dengan kata lain,
02:45
it's systematically favoring or discriminating
55
165288
2500
secara sistematis ia memihak atau mendiskriminasi
02:47
against a certain type of object to crash into.
56
167788
3500
jenis tertentu dari objek yang ditabraknya.
02:51
And the owners of the target vehicles
57
171288
2333
Dan pemilik kendaraan yang menjadi target
02:53
will suffer the negative consequences of this algorithm
58
173621
3042
akan menerima konsekuensi buruk dari algoritma ini
02:56
through no fault of their own.
59
176663
2083
padahal mereka tidak bersalah.
02:58
Our new technologies are opening up many other novel ethical dilemmas.
60
178746
4667
Tekonologi baru ini akan membuka banyak masalah moral baru.
03:03
For instance, if you had to choose between
61
183413
2083
Contohnya, jika kamu harus memilih antara
03:05
a car that would always save as many lives as possible in an accident,
62
185496
4042
mobil yang menyelamatkan sebanyak nyawa mungkin jika terjadi kecelakaan,
03:09
or one that would save you at any cost,
63
189538
3041
atau mobil yang hanya menyelamatkanmu dengan risiko apa pun,
03:12
which would you buy?
64
192579
1667
yang mana yang akan kamu beli?
03:14
What happens if the cars start analyzing and factoring in
65
194246
3333
Apa yang terjadi jika mobil tersebut mulai menganalisis dan melibatkan
03:17
the passengers of the cars and the particulars of their lives?
66
197579
3459
penumpang mobil dan rincian kehidupan mereka?
03:21
Could it be the case that a random decision
67
201038
2166
Apakah mungkin sebuah keputusan acak
03:23
is still better than a predetermined one designed to minimize harm?
68
203204
4917
lebih baik daripada yang terencana untuk meminimalisir bahaya?
03:28
And who should be making all of these decisions anyhow?
69
208121
2667
Dan siapakah yang harus membuat semua keputusan ini?
03:30
Programmers? Companies? Governments?
70
210829
2709
Programmer? Perusahaan? Pemerintah?
03:34
Reality may not play out exactly like our thought experiments,
71
214121
3458
Kenyataan mungkin tidak terjadi persis seperti yang kita bayangkan,
03:37
but that's not the point.
72
217579
1667
tetapi bukan itu masalahnya.
03:39
They're designed to isolate and stress test our intuitions on ethics,
73
219246
4333
Mereka dirancang untuk mengisolasi dan menguji intuisi kita kepada etika,
03:43
just like science experiments do for the physical world.
74
223579
3000
sama seperti yang eksperimen sains lakukan pada dunia nyata.
03:46
Spotting these moral hairpin turns now
75
226579
3375
Melihat tikungan tajam moral ini sekarang
03:49
will help us maneuver the unfamiliar road of technology ethics,
76
229954
3584
akan membantu kita mengarahkan jalan asing etika teknologi
03:53
and allow us to cruise confidently and conscientiously
77
233538
3750
dan membiarkan kita untuk pergi dengan percaya diri dan cermat
03:57
into our brave new future.
78
237288
2375
menuju masa depan yang maju.
Tentang situs web ini

Situs ini akan memperkenalkan Anda pada video YouTube yang berguna untuk belajar bahasa Inggris. Anda akan melihat pelajaran bahasa Inggris yang diajarkan oleh guru-guru terbaik dari seluruh dunia. Klik dua kali pada subtitle bahasa Inggris yang ditampilkan di setiap halaman video untuk memutar video dari sana. Subtitle bergulir selaras dengan pemutaran video. Jika Anda memiliki komentar atau permintaan, silakan hubungi kami menggunakan formulir kontak ini.

https://forms.gle/WvT1wiN1qDtmnspy7