Would you sacrifice one person to save five? - Eleanor Nelsen

5,161,800 views ・ 2017-01-12

TED-Ed


Please double-click on the English subtitles below to play the video.

Translator: Daban Q. Jaff Reviewer: Razaw S. Bor
00:06
Imagine you're watching a runaway trolley barreling down the tracks
0
6949
4572
خەیاڵ بکە شەمەندەفەرێک دەبینیت کە بە خێرایی دەڕوات
00:11
straight towards five workers who can't escape.
1
11521
4440
ڕاستەوخۆ بەرەو ڕووی ٥ کرێکار کە توانای دەربازبوونیان لێی نییە.
00:15
You happen to be standing next to a switch
2
15961
2218
تۆش بەڕێکەوت لەتەنیشت گۆڕەڕەک دەبیت
00:18
that will divert the trolley onto a second track.
3
18179
3501
کە ئاڕاستەی شەمەندەفەرەکە دەگۆڕێت بۆ سەر ڕێگەیەکی دیکە.
00:21
Here's the problem.
4
21680
1300
کێشەکە لێرەدایە.
00:22
That track has a worker on it, too, but just one.
5
22980
5089
ئەو ڕێگەیەش کرێکارێکی لەسەرە بەڵام تەنها یەک کەسە.
00:28
What do you do?
6
28069
1321
چی دەکەیت؟
00:29
Do you sacrifice one person to save five?
7
29390
3295
ئایا یەک کەس دەکەیتە قوربانی بۆ ڕزگارکردنی ٥ کەس؟
00:32
This is the trolley problem,
8
32685
2729
ئەمە کێشەی گالیسکەیە،
00:35
a version of an ethical dilemma that philosopher Philippa Foot devised in 1967.
9
35414
6689
کە وەکو جۆرێک لە مەتەڵی ئەخلاقی وابوو کە فیلیپا فوتی فەیلەسوف لە ١٩٦٧ دایهێنا.
00:42
It's popular because it forces us to think about how to choose
10
42103
3268
شتێکی خوازراوە، چونکە ناچارمان دەکات بیربکەینەوە چۆن هەڵبژاردن بکەین
00:45
when there are no good choices.
11
45371
2689
کاتێک کە هیچ هەڵبژاردنێکی باشمان لەبەردەستدا نییە.
00:48
Do we pick the action with the best outcome
12
48060
2140
ئایا ئەوە هەڵدەبژێرین کە باشترین ئەنجامی هەیە
00:50
or stick to a moral code that prohibits causing someone's death?
13
50200
5200
یاخود پەیوەست دەبین بە لایەنی ئەخلاقی کە ڕێگری بکات لە مردنی کەسێکی دیکە؟
00:55
In one survey, about 90% of respondents said that it's okay to flip the switch,
14
55400
5437
لە ڕاپرسییەکدا، ٩٠% بەژداربوان وتوویانە کە ئاساییە ڕێڕەوەکە بگۆڕیت،
01:00
letting one worker die to save five,
15
60837
3413
و ڕێگە بدەیت یەک کرێکار بمرێت بۆ ئەوەی ٥ کەس ڕزگاریان ببێت،
01:04
and other studies, including a virtual reality simulation of the dilemma,
16
64250
4350
و لێکۆڵینەوەکانی تریش، لەنێویاندا تاقیکاری واقیعی خەیاڵی بۆ مەتەڵەکە کراوە،
01:08
have found similar results.
17
68600
2440
هەمان دەرئەنجامیان دەستکەوتووەتەوە.
01:11
These judgments are consistent with the philosophical principle of utilitarianism
18
71040
5021
ئەو بڕیارانە لە بنەمای فەلسەفەی سوودگەراییەوە دێن
01:16
which argues that the morally correct decision
19
76061
2460
کە گفتوگۆی ئەوە دەکات بڕیاری ئەخلاقی دروست
01:18
is the one that maximizes well-being for the greatest number of people.
20
78521
4830
ئەوەیە کە زۆرترین سوود و قازانجی بۆ زۆرترین کەس هەبێت.
01:23
The five lives outweigh one,
21
83351
2130
پێنج ژیان گرنگتر و لە پێشترە لە یەک ژیان،
01:25
even if achieving that outcome requires condemning someone to death.
22
85481
5081
تەنانەت ئەگەر بۆ دەستکەوتنی ئەوەش بڕیاری مردن بسەپێنیت بەسەر کەسێکی دیکەدا.
01:30
But people don't always take the utilitarian view,
23
90562
2909
بەڵام خەڵکی هەمیشە ئەم بیرکردنەوە سوودگەراییە هەڵنابژێرن،
01:33
which we can see by changing the trolley problem a bit.
24
93471
3591
ئەویش بە گۆڕانکارییەکی بچووک لە گرفتی گالیسکەدا.
01:37
This time, you're standing on a bridge over the track
25
97062
3241
ئەم جارەیان تۆ لەسەر پردێکیت و ڕاڕەوەکە بە ژێر تۆدا دەڕوات
01:40
as the runaway trolley approaches.
26
100303
2889
لەکاتێکدا گالیسکەکە نزیک دەبێتەوە.
01:43
Now there's no second track,
27
103192
1681
ئێستا ڕاڕەوی دووەممان نییە،
01:44
but there is a very large man on the bridge next to you.
28
104873
3921
بەڵام پیاوێکی زۆر گەورە لەسەر پردەکەیە و لەپەنای تۆدایە.
01:48
If you push him over, his body will stop the trolley,
29
108794
3698
ئەگەر پاڵی پێوە بنێیت ئەوا لاشەکەی دەتوانێت گالیسکەکە بوەستێنێت،
01:52
saving the five workers,
30
112492
1751
پێنج کرێکارەکەش ڕزگار دەکات،
01:54
but he'll die.
31
114243
1790
بەڵام پیاوەکە دەمرێت.
01:56
To utilitarians, the decision is exactly the same,
32
116033
3399
بۆ سوودگەراکان بڕیارەکە هەمان شتە،
01:59
lose one life to save five.
33
119432
2550
ژیانێک لەدەست بدە بۆ ڕزگارکردنی پێنج.
02:01
But in this case, only about 10% of people
34
121982
2602
بەڵام لەم حاڵەتەدا تەنها ڕێژەی ١٠% خەڵکی
02:04
say that it's OK to throw the man onto the tracks.
35
124584
3869
بەلایانەوە ئاسایی بووە کە پاڵ بە پیاوەکەوە بنێن.
02:08
Our instincts tell us that deliberately causing someone's death
36
128453
3461
بەڵام شتێک لە ناخماندا پێمان دەڵێت بەئەنقەست ببیتە هۆکار بۆ کوشتنی کەسێک
02:11
is different than allowing them to die as collateral damage.
37
131914
4389
جیاوازە لەوەی رێیان بدەیت کە بمرن.
02:16
It just feels wrong for reasons that are hard to explain.
38
136303
4650
هەست بە هەڵە و تاوانێک دەکەیت کە قورسە ڕوونی بکەیتەوە.
02:20
This intersection between ethics and psychology
39
140953
2520
ئەم یەکتربڕینەی نێوان ئەخلاق و دەروونناسی
02:23
is what's so interesting about the trolley problem.
40
143473
3131
وەهای کردووە کە کێشەی گالیسکە ئەوەندە سەرنجڕاکێش بێت.
02:26
The dilemma in its many variations reveal that what we think is right or wrong
41
146604
4380
ئەم بژاردە قورسە بەم شێوە فرەییەوە دەریدەخات کە بیرکردنەوەی ڕاست و هەڵەی ئێمە
02:30
depends on factors other than a logical weighing of the pros and cons.
42
150984
5361
پەیوەستە بە هۆکارەوە وەک لە زیان و قازانجێکى لۆجیکی.
02:36
For example, men are more likely than women
43
156345
2490
بۆ نموونە، پیاوان زیاتر ئاسایی بووە بەلایانەوە
02:38
to say it's okay to push the man over the bridge.
44
158835
3669
وەکوو لە ئافرەتان، تاکوو پاڵ بنێن بە پیاوەکەوە لەسەر پردەکە.
02:42
So are people who watch a comedy clip before doing the thought experiment.
45
162504
4490
هەروەکو خەڵکانێک کە سەیری گرتەیەکی کۆمیدی دەکەن و پاشان ئەنجامی دەدەن.
02:46
And in one virtual reality study,
46
166994
2171
و لە توێژینەوەیەکی دیکەی واقیعی خەیاڵیدا،
02:49
people were more willing to sacrifice men than women.
47
169165
3779
خەڵکی زیاتر ویستیان لەسەر ئەوە بووە کە پیاوەکان بکەنە قوربانی وەک لە ئافرەتان.
02:52
Researchers have studied the brain activity
48
172944
2270
توێژەران توێژینەوەیان کردووە لە چالاکیەکانی مێشک
02:55
of people thinking through the classic and bridge versions.
49
175214
4321
بۆ ئەو کەسانەی لەو دوو جۆر تاقیکردنەوەیەدا بەژداربوون.
02:59
Both scenarios activate areas of the brain involved in conscious decision-making
50
179535
4519
هەردوو سیناریۆکە ئەو ناوچانەی مێشک کارا دەکەن کە بەژدارن لەبڕیاردانی هۆشیارانە
03:04
and emotional responses.
51
184054
2460
و وەڵامدانەی سۆزدارییانە.
03:06
But in the bridge version, the emotional response is much stronger.
52
186514
4461
بەڵام لە جۆری پردەکە وەڵامدانەوەی سۆزداریانە زۆر بەهێزترە.
03:10
So is activity in an area of the brain
53
190975
2219
بەم شێوەیە چالاکییەکانی ناوچەیەکی مێشک
03:13
associated with processing internal conflict.
54
193194
3690
پێکەوە بەستراوە لە پڕۆسەیەکی ناکۆکی ناوەکییدا.
03:16
Why the difference?
55
196884
1261
جیاوازییەکە چییە؟
03:18
One explanation is that pushing someone to their death feels more personal,
56
198145
4767
یەکێک لە ڕوونکردنەوەکان ئەوەیە کە پاڵنانی کەسێک بۆ مردن زیاتر لە شتێکی کەسی دەچێت،
03:22
activating an emotional aversion to killing another person,
57
202912
4013
ئازاری ویژدان چالاک دەکات ئەگەر بتەوێت کەسێکی دیکە بکوژیت،
03:26
but we feel conflicted because we know it's still the logical choice.
58
206925
4499
بەڵام هەر هەست بە پێکدادان دەکەین چونکە هێشتا دەزانین کە هەڵبژاردنێکی لۆجیکانەیە.
03:31
"Trolleyology" has been criticized by some philosophers and psychologists.
59
211424
4981
کێشەی گالیسکە لەلایەن هەندێک فەیلەسوف و دەروونناسەوە ڕەخنەی ئاڕاستە کراوە.
03:36
They argue that it doesn't reveal anything because its premise is so unrealistic
60
216405
4861
گفتوگۆی ئەوە دەکەن کە هیچ شتێک بەدەرناخات چونکە بناغەکەی زۆر ناواقیعیانەیە
03:41
that study participants don't take it seriously.
61
221266
4159
بۆیە بەژداربووان بە شتێکی گرنگ وەریناگرن.
03:45
But new technology is making this kind of ethical analysis
62
225425
3131
بەڵام تەکنەلۆژیای نوێ ئەم لێکدانەوە ئەخلاقیانە
03:48
more important than ever.
63
228556
2142
زۆر گرنگتر لێکدەداتەوە وەک لەپێشتر.
03:50
For example, driver-less cars may have to handle choices
64
230698
3338
بۆ نموونە لە ئۆتومبێلێکی بێ شۆفێر(زیرەک)دا پێویستە هەڵبژاردن بکات
03:54
like causing a small accident to prevent a larger one.
65
234036
3971
لەنێوان تووشبوون بە ڕووداوێکی بچووک بۆ ڕێگریکردن لەڕووداوێکی گەورەتر.
03:58
Meanwhile, governments are researching autonomous military drones
66
238007
3619
لەهەمان کاتدا،حکومەتەکان توێژینەوە دەکەن لە فڕۆکەی بێفڕۆکەوانی سەربازییدا
04:01
that could wind up making decisions of whether they'll risk civilian casualties
67
241626
4350
کە ئایا کەی بڕیاری ئەوە بدەن خەڵکی ئاسایی بخەنە مەترسی و ببنە قوربانی
04:05
to attack a high-value target.
68
245976
3300
بۆ هێرشکردنە سەر ئامانجێکی گرنگ.
04:09
If we want these actions to be ethical,
69
249276
1921
ئەگەر بمانەوێت ئەو کردارانە ئەخلاقی بن،
04:11
we have to decide in advance how to value human life
70
251197
4200
پێویستە بڕیار بدەین لەوەی چۆن نرخاندن بۆ ژیانی مرۆڤ بکەین
04:15
and judge the greater good.
71
255397
2270
و بڕیاری باشترینەکە بدەین.
04:17
So researchers who study autonomous systems
72
257667
2440
بۆیە ئەوانەی کە توێژینەوە لە سیستمی خودکار دەکەن
04:20
are collaborating with philosophers
73
260107
2100
هەماهەنگی دەکەن لەگەڵ فەیلەسوفەکان
04:22
to address the complex problem of programming ethics into machines,
74
262207
5421
بۆ ئاماژەدان بەم کێشە ئاڵۆزانەی بەرنامەسازی ئەخلاقی بۆ ناو ئامێرەکان،
04:27
which goes to show that even hypothetical dilemmas
75
267628
3329
ئەمەش ئەوە پیشان دەدات کە تەنانەت کێشە مەتەڵییە گریمانەییەکانیش
04:30
can wind up on a collision course with the real world.
76
270957
4101
دەتوانرێت بە پێکداکەوتنێکی قورس لەگەڵ ژیانی ڕاستەقینەدا کۆتایی بێت.
About this website

This site will introduce you to YouTube videos that are useful for learning English. You will see English lessons taught by top-notch teachers from around the world. Double-click on the English subtitles displayed on each video page to play the video from there. The subtitles scroll in sync with the video playback. If you have any comments or requests, please contact us using this contact form.

https://forms.gle/WvT1wiN1qDtmnspy7