Would you sacrifice one person to save five? - Eleanor Nelsen

5,161,800 views ・ 2017-01-12

TED-Ed


Silakan klik dua kali pada teks bahasa Inggris di bawah ini untuk memutar video.

Translator: Putri Hapsari Reviewer: Ade Indarta
00:06
Imagine you're watching a runaway trolley barreling down the tracks
0
6949
4572
Bayangkan Anda melihat sebuah kereta berjalan meluncur di jalurnya
00:11
straight towards five workers who can't escape.
1
11521
4440
menuju lima pekerja yang tak bisa menghindar.
00:15
You happen to be standing next to a switch
2
15961
2218
Anda kebetulan berdiri di samping tombol
00:18
that will divert the trolley onto a second track.
3
18179
3501
yang bisa mengalihkan kereta ke jalur ke dua.
00:21
Here's the problem.
4
21680
1300
Masalahnya,
00:22
That track has a worker on it, too, but just one.
5
22980
5089
ada satu orang di jalur itu. Hanya satu.
00:28
What do you do?
6
28069
1321
Apa yang Anda lakukan?
00:29
Do you sacrifice one person to save five?
7
29390
3295
Mengorbankan satu demi menyelamatkan lima?
00:32
This is the trolley problem,
8
32685
2729
Inilah problem kereta,
00:35
a version of an ethical dilemma that philosopher Philippa Foot devised in 1967.
9
35414
6689
dilema etis yang dikemukakan Philippa Foot pada tahun 1967.
00:42
It's popular because it forces us to think about how to choose
10
42103
3268
Pengandaian ini memaksa kita berpikir tentang cara memilih
00:45
when there are no good choices.
11
45371
2689
ketika tidak ada pilihan baik.
00:48
Do we pick the action with the best outcome
12
48060
2140
Apa kita memilih berdasar hasil terbaik
00:50
or stick to a moral code that prohibits causing someone's death?
13
50200
5200
atau tetap memegang moral untuk tidak membunuh?
00:55
In one survey, about 90% of respondents said that it's okay to flip the switch,
14
55400
5437
Dalam satu survei, sekitar 90% responden berkata tak apa menekan tombol,
01:00
letting one worker die to save five,
15
60837
3413
mengorbankan satu untuk lima.
01:04
and other studies, including a virtual reality simulation of the dilemma,
16
64250
4350
Studi lain yang menggunakan simulasi virtual dari masalah ini
01:08
have found similar results.
17
68600
2440
juga menunjukkan hasil yang sama.
01:11
These judgments are consistent with the philosophical principle of utilitarianism
18
71040
5021
Keputusan ini konsisten dengan prinsip utilitarian
01:16
which argues that the morally correct decision
19
76061
2460
yang berpendapat, keputusan yang tepat secara moral
01:18
is the one that maximizes well-being for the greatest number of people.
20
78521
4830
adalah yang mementingkan kesejahteraan banyak orang.
01:23
The five lives outweigh one,
21
83351
2130
Lima nyawa lebih penting dari satu,
01:25
even if achieving that outcome requires condemning someone to death.
22
85481
5081
meski ini berarti membuat satu orang meninggal.
01:30
But people don't always take the utilitarian view,
23
90562
2909
Tapi, tak semua orang berpikir seperti itu.
01:33
which we can see by changing the trolley problem a bit.
24
93471
3591
Misalnya skenario diubah sedikit.
01:37
This time, you're standing on a bridge over the track
25
97062
3241
Anda berdiri di atas jembatan, di atas rel
01:40
as the runaway trolley approaches.
26
100303
2889
di mana kereta sedang melaju kencang.
01:43
Now there's no second track,
27
103192
1681
Tidak ada jalur ke dua,
01:44
but there is a very large man on the bridge next to you.
28
104873
3921
tapi ada pria besar berdiri di samping Anda.
01:48
If you push him over, his body will stop the trolley,
29
108794
3698
Jika Anda mendorongnya jatuh, tubuhnya akan menghentikan kereta,
01:52
saving the five workers,
30
112492
1751
sehingga lima pekerja selamat.
01:54
but he'll die.
31
114243
1790
Tapi dia akan mati.
01:56
To utilitarians, the decision is exactly the same,
32
116033
3399
Bagi penganut utilitarian, keputusan ini sama
01:59
lose one life to save five.
33
119432
2550
mengorbankan satu demi lima.
02:01
But in this case, only about 10% of people
34
121982
2602
Dalam kasus ini, hanya sekitar 10% responden
02:04
say that it's OK to throw the man onto the tracks.
35
124584
3869
berpendapat tak apa menjatuhkan si pria besar.
02:08
Our instincts tell us that deliberately causing someone's death
36
128453
3461
Menurut insting, membunuh dengan sengaja itu
02:11
is different than allowing them to die as collateral damage.
37
131914
4389
beda dari membiarkan orang mati karena kecelakaan.
02:16
It just feels wrong for reasons that are hard to explain.
38
136303
4650
Rasanya salah karena sebab yang sulit dijelaskan.
02:20
This intersection between ethics and psychology
39
140953
2520
Pertemuan etika dan psikologi ini
02:23
is what's so interesting about the trolley problem.
40
143473
3131
membuat perumpamaan ini menarik.
02:26
The dilemma in its many variations reveal that what we think is right or wrong
41
146604
4380
Dilema ini mengungkap, apa yang kita pikir benar atau salah
02:30
depends on factors other than a logical weighing of the pros and cons.
42
150984
5361
bergantung pada faktor-faktor di luar logika pro dan kontra.
02:36
For example, men are more likely than women
43
156345
2490
Dibandingkan wanita, responden pria lebih cenderung
02:38
to say it's okay to push the man over the bridge.
44
158835
3669
berkata tak apa mendorong si pria besar.
02:42
So are people who watch a comedy clip before doing the thought experiment.
45
162504
4490
Demikian juga responden yang sebelumnya menonton video lucu.
02:46
And in one virtual reality study,
46
166994
2171
Dalam studi dengan realitas virtual,
02:49
people were more willing to sacrifice men than women.
47
169165
3779
responden lebih rela mengorbankan pria daripada wanita.
02:52
Researchers have studied the brain activity
48
172944
2270
Para peneliti meneliti aktivitas otak
02:55
of people thinking through the classic and bridge versions.
49
175214
4321
responden saat memikirkan problema ini.
02:59
Both scenarios activate areas of the brain involved in conscious decision-making
50
179535
4519
Kedua skenario mengaktifkan area otak terkait pengambilan keputusan sadar
03:04
and emotional responses.
51
184054
2460
dan respons emosional.
03:06
But in the bridge version, the emotional response is much stronger.
52
186514
4461
Bedanya, respons emosional lebih intens pada skenario jembatan.
03:10
So is activity in an area of the brain
53
190975
2219
Demikian pula aktivitas di area otak
03:13
associated with processing internal conflict.
54
193194
3690
yang biasa memproses konflik internal.
03:16
Why the difference?
55
196884
1261
Mengapa beda?
03:18
One explanation is that pushing someone to their death feels more personal,
56
198145
4767
Karena mendorong orang terasa lebih personal,
03:22
activating an emotional aversion to killing another person,
57
202912
4013
sehingga konflik emosional menjadi lebih kuat.
03:26
but we feel conflicted because we know it's still the logical choice.
58
206925
4499
Tapi kita tahu pilihan itu logis.
03:31
"Trolleyology" has been criticized by some philosophers and psychologists.
59
211424
4981
Dilema kereta ini dikritik oleh banyak filsuf dan psikolog.
03:36
They argue that it doesn't reveal anything because its premise is so unrealistic
60
216405
4861
Menurut mereka, premis teori ini tidak realistis
03:41
that study participants don't take it seriously.
61
221266
4159
sehingga responden pun tak serius berpendapat.
03:45
But new technology is making this kind of ethical analysis
62
225425
3131
Tapi teknologi baru membuat analisis etis ini
03:48
more important than ever.
63
228556
2142
menjadi sangat penting.
03:50
For example, driver-less cars may have to handle choices
64
230698
3338
Mobil otomatis harus memilih antara
03:54
like causing a small accident to prevent a larger one.
65
234036
3971
kecelakaan kecil atau kecelakaan besar.
03:58
Meanwhile, governments are researching autonomous military drones
66
238007
3619
Pemerintah meneliti drone militer otomatis
04:01
that could wind up making decisions of whether they'll risk civilian casualties
67
241626
4350
yang mungkin memilih menyebabkan kematian sipil
04:05
to attack a high-value target.
68
245976
3300
demi menyerang target besar.
04:09
If we want these actions to be ethical,
69
249276
1921
Jika kita ingin menggunakan etika,
04:11
we have to decide in advance how to value human life
70
251197
4200
kita harus tahu cara menilai nyawa manusia
04:15
and judge the greater good.
71
255397
2270
dan membuat pilihan terbaik.
04:17
So researchers who study autonomous systems
72
257667
2440
Para peneliti sistem otonom
04:20
are collaborating with philosophers
73
260107
2100
berkolaborasi dengan filsuf
04:22
to address the complex problem of programming ethics into machines,
74
262207
5421
untuk memrogram etika ke dalam mesin.
04:27
which goes to show that even hypothetical dilemmas
75
267628
3329
Ini membuktikan bahwa dilema hipotetis
04:30
can wind up on a collision course with the real world.
76
270957
4101
bisa bertabrakan dengan masalah nyata.
Tentang situs web ini

Situs ini akan memperkenalkan Anda pada video YouTube yang berguna untuk belajar bahasa Inggris. Anda akan melihat pelajaran bahasa Inggris yang diajarkan oleh guru-guru terbaik dari seluruh dunia. Klik dua kali pada subtitle bahasa Inggris yang ditampilkan di setiap halaman video untuk memutar video dari sana. Subtitle bergulir selaras dengan pemutaran video. Jika Anda memiliki komentar atau permintaan, silakan hubungi kami menggunakan formulir kontak ini.

https://forms.gle/WvT1wiN1qDtmnspy7