Would you sacrifice one person to save five? - Eleanor Nelsen

5,271,204 views ・ 2017-01-12

TED-Ed


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: Ali Haghani Reviewer: soheila Jafari
00:06
Imagine you're watching a runaway trolley barreling down the tracks
0
6949
4572
تصور کنید در حین تماشای تراموایی هستید که با سرعت روی ریل در حرکت است
00:11
straight towards five workers who can't escape.
1
11521
4440
و مستقیما به سمت پنج کارگری میرود که نمی توانند فرار کنند.
00:15
You happen to be standing next to a switch
2
15961
2218
از قضا، شما کنار سوئیچی هستید
00:18
that will divert the trolley onto a second track.
3
18179
3501
که تراموا را به مسیر دیگری منحرف می کند.
00:21
Here's the problem.
4
21680
1300
مسئله اینجاست که
00:22
That track has a worker on it, too, but just one.
5
22980
5089
روی آن مسیر هم یک کارگر هست، اما فقط یک نفر!
00:28
What do you do?
6
28069
1321
چکار می کنید؟
00:29
Do you sacrifice one person to save five?
7
29390
3295
آیا یک نفر را قربانی می کنید تا ۵ نفر را نجات دهید؟
00:32
This is the trolley problem,
8
32685
2729
این مسئله تراموا است،
00:35
a version of an ethical dilemma that philosopher Philippa Foot devised in 1967.
9
35414
6689
نسخه ای از یک دوراهیِ اخلاقی که فیلیپا فوتِ فیلسوف در سال ۱۹۶۷ طرح کرد.
00:42
It's popular because it forces us to think about how to choose
10
42103
3268
این موضوع به این دلیل محبوب است که مجبورمان میکند بین بد و بدتر
00:45
when there are no good choices.
11
45371
2689
انتخابی داشته باشیم.
00:48
Do we pick the action with the best outcome
12
48060
2140
آیا عملِ داری بهترین پی آمد را انتخاب میکنیم
00:50
or stick to a moral code that prohibits causing someone's death?
13
50200
5200
تا یک قانون اخلاقی را که کشتن دیگران را ممنوع می کند رعایت میکنیم؟
00:55
In one survey, about 90% of respondents said that it's okay to flip the switch,
14
55400
5437
در یک بررسی، حدود ۹۰٪ از پاسخگویان گفتند که حرکت دادن سوئیچ اشکالی ندارد،
01:00
letting one worker die to save five,
15
60837
3413
چون یک کارگر میمیرد و ۵ نفر نجات میابند،
01:04
and other studies, including a virtual reality simulation of the dilemma,
16
64250
4350
در مطالعات دیگر هم، شامل یک شبیه سازیِ واقعیت مجازی از این دوراهی،
01:08
have found similar results.
17
68600
2440
به نتایج مشابهی رسیده اند.
01:11
These judgments are consistent with the philosophical principle of utilitarianism
18
71040
5021
این قضاوت ها با اصلِ فلسفیِ سودمندگرایی سازگاری دارند،
01:16
which argues that the morally correct decision
19
76061
2460
اصلی که ادعا می کند یک تصمیمِ درست از نظر اخلاقی
01:18
is the one that maximizes well-being for the greatest number of people.
20
78521
4830
تصمیمی است که رفاه را برای بیشترین تعداد انسان ها بیشینه سازی می کند.
01:23
The five lives outweigh one,
21
83351
2130
زندگی ۵ نفر از یک نفر ارزشمندتر است،
01:25
even if achieving that outcome requires condemning someone to death.
22
85481
5081
حتی اگر رسیدن به آن پی آمد نیاز به محکوم کردن فردی به مرگ داشته باشد.
01:30
But people don't always take the utilitarian view,
23
90562
2909
اما مردم همیشه دیدگاه سودمندگرایی ندارند،
01:33
which we can see by changing the trolley problem a bit.
24
93471
3591
این را میتوان با تغییری کوچک در این مسئله مشاهده کرد.
01:37
This time, you're standing on a bridge over the track
25
97062
3241
اینبار شما بر روی پلی که از روی ریل میگذرد ایستاده اید
01:40
as the runaway trolley approaches.
26
100303
2889
و تراموا به شما نزدیک می شود.
01:43
Now there's no second track,
27
103192
1681
حالا مسیرِ دومی در کار نیست،
01:44
but there is a very large man on the bridge next to you.
28
104873
3921
اما یک مردِ بسیار تنومند کنار شما روی پل است.
01:48
If you push him over, his body will stop the trolley,
29
108794
3698
اگر اون را هل بدهید، بدنش تراموا را متوقف خواهد کرد.
01:52
saving the five workers,
30
112492
1751
و جانِ ۵ کارگر نجات پیدا می کند،
01:54
but he'll die.
31
114243
1790
اما او می میرد.
01:56
To utilitarians, the decision is exactly the same,
32
116033
3399
برای سودمندگراها این تصمیم دقیقا همان تصمیم قبلی است.
01:59
lose one life to save five.
33
119432
2550
قربانی کردن یک نفر برای نجات ۵ نفر.
02:01
But in this case, only about 10% of people
34
121982
2602
اما در این مورد، فقط حدود ۱۰٪ از مردم
02:04
say that it's OK to throw the man onto the tracks.
35
124584
3869
گفتند که هل دادن مرد کار درستی است.
02:08
Our instincts tell us that deliberately causing someone's death
36
128453
3461
غریزه ما می گوید که کشتنِ عمدیِ یک نفر
02:11
is different than allowing them to die as collateral damage.
37
131914
4389
با این که اجازه بدهیم آنها خودشان بمیرند متفاوت است.
02:16
It just feels wrong for reasons that are hard to explain.
38
136303
4650
دلایلی که توضیح دادنشان سخت است یک حس اشتباه بودن در خود دارند.
02:20
This intersection between ethics and psychology
39
140953
2520
این تقاطع بین اخلاقیات و روانشناسی
02:23
is what's so interesting about the trolley problem.
40
143473
3131
نکته جالب در مورد مسئله تراموا است.
02:26
The dilemma in its many variations reveal that what we think is right or wrong
41
146604
4380
این دوراهی و نسخه های مختلفش مشخص میکنند چیزی که ما فکر می کنیم درست یا غلط است
02:30
depends on factors other than a logical weighing of the pros and cons.
42
150984
5361
بیشتر به عوامل بستگی دارد تا یک سنجشِ منطقی از مزیات و مضرات.
02:36
For example, men are more likely than women
43
156345
2490
مثلا، احتمال اینکه مردان با دادن مرد از روی پل
02:38
to say it's okay to push the man over the bridge.
44
158835
3669
مشکلی نداشته باشند، از زنان بیشتر است.
02:42
So are people who watch a comedy clip before doing the thought experiment.
45
162504
4490
و همینطور کسانی که قبل از انجام آزمایش فکری یک فیلم کمدی تماشا کرده اند.
02:46
And in one virtual reality study,
46
166994
2171
و در یک مطالعه ی واقعیت مجازی،
02:49
people were more willing to sacrifice men than women.
47
169165
3779
مردم بیشتر تمایل به قربانی کردن مردان داشتند تا زنان.
02:52
Researchers have studied the brain activity
48
172944
2270
محققان فعالیت مغزی افرادی که در مورد نسخه های
02:55
of people thinking through the classic and bridge versions.
49
175214
4321
کلاسیک و جدید مسئله فکر کرده اند را مطالعه کرده اند.
02:59
Both scenarios activate areas of the brain involved in conscious decision-making
50
179535
4519
هر دو سناریو ناحیه هایی از مغز را فعال میکنند که در تصمیم گیری و واکنش های
03:04
and emotional responses.
51
184054
2460
عاطفی شرکت دارند.
03:06
But in the bridge version, the emotional response is much stronger.
52
186514
4461
اما در نسخه جدید، واکنش عاطفی بسیار قویتر است.
03:10
So is activity in an area of the brain
53
190975
2219
و همینطور فعالیت در ناحیه ای از مغز
03:13
associated with processing internal conflict.
54
193194
3690
که با پردازش تعارضات درونی در ارتباط است.
03:16
Why the difference?
55
196884
1261
چرا این تفاوت وجود دارد؟
03:18
One explanation is that pushing someone to their death feels more personal,
56
198145
4767
یک توضیح این است که کشتن یک فرد شخصی تر به نظر می آید،
03:22
activating an emotional aversion to killing another person,
57
202912
4013
و یک بیزاری عاطفی برای کشتن دیگری ایجاد می کند،
03:26
but we feel conflicted because we know it's still the logical choice.
58
206925
4499
اما ما احساس تعارض می کنیم، چون می دانیم با این وجود انتخاب منطقی همین است.
03:31
"Trolleyology" has been criticized by some philosophers and psychologists.
59
211424
4981
این مسئله توسط برخی فلاسفه و روانشناسان مورد انتقاد قرار گرفته است.
03:36
They argue that it doesn't reveal anything because its premise is so unrealistic
60
216405
4861
آنها ادعا میکنند این کار چیزی را مشخص نمیکند، چون فرضش آنقدر غیرواقع گرایانه است
03:41
that study participants don't take it seriously.
61
221266
4159
که شرکت کننده ه آن را جدی نمیگیرند.
03:45
But new technology is making this kind of ethical analysis
62
225425
3131
اما فناوری روز این نوع تحلیل اخلاقی را
03:48
more important than ever.
63
228556
2142
از همیشه مهمتر کرده است.
03:50
For example, driver-less cars may have to handle choices
64
230698
3338
مثلا، خودروهای خودران ممکن است مجبور شوند تصمیم هایی بگیرند
03:54
like causing a small accident to prevent a larger one.
65
234036
3971
مثلا یک تصادف کوچک کنند تا از یک تصادف بزرگتر جلوگیری شود.
03:58
Meanwhile, governments are researching autonomous military drones
66
238007
3619
در ضمن، دولت ها در حال تحقیق در مورد درون های نظامیِ خودگردان هستند
04:01
that could wind up making decisions of whether they'll risk civilian casualties
67
241626
4350
که می توانند تصمیم بگیرند که خطرِ کشتار غیرنظامیان را بپذیرند
04:05
to attack a high-value target.
68
245976
3300
تا به اهداف ارزشمند حمله کنند.
04:09
If we want these actions to be ethical,
69
249276
1921
اگر بخواهیم این اقدامات اخلاقی باشند
04:11
we have to decide in advance how to value human life
70
251197
4200
باید از پیش تصمیم بگیریم که چطور زندگی انسان را ارزشگذاری کنیم
04:15
and judge the greater good.
71
255397
2270
و خوب و بهتر را قضاوت کنیم.
04:17
So researchers who study autonomous systems
72
257667
2440
پس محققانی که بر روی سیستم های خودگران مطالعه می کنند
04:20
are collaborating with philosophers
73
260107
2100
با فلاسفه همکاری می کنند
04:22
to address the complex problem of programming ethics into machines,
74
262207
5421
تا مسئله پیچیده ی برنامه ریزی اخلاقیات در ماشینها را حل کنند،
04:27
which goes to show that even hypothetical dilemmas
75
267628
3329
که قرار است نشان دهد حتی دوراهی های فرضی،
04:30
can wind up on a collision course with the real world.
76
270957
4101
ممکن است در جایی به تقاطعِ دنیای واقعی برسند.
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7