Would you sacrifice one person to save five? - Eleanor Nelsen

5,161,800 views ・ 2017-01-12

TED-Ed


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: Khaled Ali المدقّق: dakheel aldakheel
00:06
Imagine you're watching a runaway trolley barreling down the tracks
0
6949
4572
تخيل أنك تراقب عربة ترولي جامحة تسير على سكة حديدية
00:11
straight towards five workers who can't escape.
1
11521
4440
تتجه مباشرة نحو خمسة عمال، ولا يمكنهم الهرب.
00:15
You happen to be standing next to a switch
2
15961
2218
وصادف أنك تقف قرب محول سكة الحديد،
00:18
that will divert the trolley onto a second track.
3
18179
3501
و الذي سيحرف بالعربة إلى مسار آخر.
00:21
Here's the problem.
4
21680
1300
وهنا تكمن المشكلة.
00:22
That track has a worker on it, too, but just one.
5
22980
5089
يقف على المسار الآخر عامل أيضاً، عامل واحد فقط.
00:28
What do you do?
6
28069
1321
ماذا ستفعل؟
00:29
Do you sacrifice one person to save five?
7
29390
3295
هل تضحي بحياة شخص واحد لإنقاذ خمسة؟
00:32
This is the trolley problem,
8
32685
2729
هذه هي معضلة عربة السكة الحديديّة،
00:35
a version of an ethical dilemma that philosopher Philippa Foot devised in 1967.
9
35414
6689
والتي تعد نسخة لمعضلة أخلاقية ابتكرتها الفيلسوفة فيليبا فوت في عام 1967.
00:42
It's popular because it forces us to think about how to choose
10
42103
3268
وترجع شعبيتها لأنها تدفعنا للتفكير في كيفية الاختيار
00:45
when there are no good choices.
11
45371
2689
عندما لا توجد اختيارات صائبة.
00:48
Do we pick the action with the best outcome
12
48060
2140
هل نختار الفعل مع إحراز أفضل النتائج
00:50
or stick to a moral code that prohibits causing someone's death?
13
50200
5200
أم نلتزم بالقانون الأخلاقي الذي يحظر علينا التسبب في وفاة الأشخاص؟
00:55
In one survey, about 90% of respondents said that it's okay to flip the switch,
14
55400
5437
وفي إحدى الاستطلاعات، وافق نحو 90% علي قلب المحول،
01:00
letting one worker die to save five,
15
60837
3413
والتضحية بعامل واحد لإنقاذ خمسة،
01:04
and other studies, including a virtual reality simulation of the dilemma,
16
64250
4350
وقد جاءت هذه النتائج متطابقة مع دراسات أخرى؛
01:08
have found similar results.
17
68600
2440
كنظرية محاكاة الواقع الافتراضي للمعضلة.
01:11
These judgments are consistent with the philosophical principle of utilitarianism
18
71040
5021
وتتوافق هذه الأحكام مع المبدأ الفلسفي لمذهب المنفعة
01:16
which argues that the morally correct decision
19
76061
2460
الذي يزعم أن القرار الأخلاقي
01:18
is the one that maximizes well-being for the greatest number of people.
20
78521
4830
هو من أحد القرارات الصائبة التي تزيد السعادة لأكبر عدد من الناس.
01:23
The five lives outweigh one,
21
83351
2130
فحياة الخمسة أفراد تفوق حياة شخص واحد،
01:25
even if achieving that outcome requires condemning someone to death.
22
85481
5081
حتى وإن اقتضى ذلك التضحية بشخص واحد لإنقاذهم.
01:30
But people don't always take the utilitarian view,
23
90562
2909
ولكن لا تأخذ الناس دائمًا بالمبدأ المنفعي،
01:33
which we can see by changing the trolley problem a bit.
24
93471
3591
حيث يمكننا إدراكه من تغيير مشكلة العربة قليلاً.
01:37
This time, you're standing on a bridge over the track
25
97062
3241
على غرار الحالة السابقة، أنت تقف الآن على جسر فوق مسار السكة الحديد
01:40
as the runaway trolley approaches.
26
100303
2889
عندما تقترب العربة بسرعتها الفائقة.
01:43
Now there's no second track,
27
103192
1681
ففي ذلك الحين، ليس هناك مسارًا آخر،
01:44
but there is a very large man on the bridge next to you.
28
104873
3921
وإنما يقف بالقرب منك رجلًا شديد الضخامة.
01:48
If you push him over, his body will stop the trolley,
29
108794
3698
فإن دفعته من فوق الجسر، سيوقف الترولي
01:52
saving the five workers,
30
112492
1751
وبذلك تنقذ الخمسة عمال،
01:54
but he'll die.
31
114243
1790
غير أنك ستودي بحياة ذلك الرجل.
01:56
To utilitarians, the decision is exactly the same,
32
116033
3399
وعند النفعية، فإنهم يأخذون بالقرار نفسه؛
01:59
lose one life to save five.
33
119432
2550
وهو التضحية بحياة شخص واحد لإنقاذ خمسة.
02:01
But in this case, only about 10% of people
34
121982
2602
ولكن في هذه الحالة، لا يوافق على التضحية بحياة الرجل
02:04
say that it's OK to throw the man onto the tracks.
35
124584
3869
غير حوالي 10٪ من الناس.
02:08
Our instincts tell us that deliberately causing someone's death
36
128453
3461
وتخبرنا غرائزنا الاختلاف بين الأمرين؛ قتل الشخص عمدًا،
02:11
is different than allowing them to die as collateral damage.
37
131914
4389
وقتله نتيجة للأضرار الجانبية.
02:16
It just feels wrong for reasons that are hard to explain.
38
136303
4650
وقد نخطئ إذا تطرقنا للأسباب التي يصعب علينا تعليلها.
02:20
This intersection between ethics and psychology
39
140953
2520
وما يثير انتباهنا حول معضلة الترولي؛
02:23
is what's so interesting about the trolley problem.
40
143473
3131
أنها تمثل نقطة تقاطع بين علم الأخلاق وعلم النفس.
02:26
The dilemma in its many variations reveal that what we think is right or wrong
41
146604
4380
وتبدو المعضلة في اختلافاتها العديدة حول ما نراه صحيحًا أو خاطئًا،
02:30
depends on factors other than a logical weighing of the pros and cons.
42
150984
5361
يعتمد على عوامل أخرى غير الترجيح المنطقي للإيجابيات والسلبيات.
02:36
For example, men are more likely than women
43
156345
2490
فعلى سبيل المثال، لعل الرجال يوافقون أكثر من النساء
02:38
to say it's okay to push the man over the bridge.
44
158835
3669
على دفع الرجل من على الجسر.
02:42
So are people who watch a comedy clip before doing the thought experiment.
45
162504
4490
وهؤلاء هم الأشخاص الذين يشاهدون مقطعًا كوميديًا قبل القيام بتجربة فكرية.
02:46
And in one virtual reality study,
46
166994
2171
وتشير إحدى دراسات الواقع الافتراضي،
02:49
people were more willing to sacrifice men than women.
47
169165
3779
أن الناس أكثر استعدادًا للتضحية بالرجال عن النساء.
02:52
Researchers have studied the brain activity
48
172944
2270
وقد درس الباحثون نشاط دماغ الأشخاص الذين يفكرون
02:55
of people thinking through the classic and bridge versions.
49
175214
4321
في كلٍ من النسختين السابقتين.
02:59
Both scenarios activate areas of the brain involved in conscious decision-making
50
179535
4519
وهكذا يقوم كلا السيناريوهين بتنشيط مناطق العقل الداخلة
03:04
and emotional responses.
51
184054
2460
في اتخاذ القرارات الصائبة والاستجابات العاطفية.
03:06
But in the bridge version, the emotional response is much stronger.
52
186514
4461
غير أن الاستجابة العاطفية أكثر قوة في نسخة الجسر.
03:10
So is activity in an area of the brain
53
190975
2219
وهكذا يعد نشاطًا في منطقة العقل
03:13
associated with processing internal conflict.
54
193194
3690
مرتبط بعملية الصراع الداخلي.
03:16
Why the difference?
55
196884
1261
لماذا الاختلاف؟
03:18
One explanation is that pushing someone to their death feels more personal,
56
198145
4767
تفيد إحدى التفسيرات، أن التسبب في موت الأشخاص يتعلق بأمور شخصية
03:22
activating an emotional aversion to killing another person,
57
202912
4013
وتنشيط الكره العاطفي إلى قتل شخص آخر،
03:26
but we feel conflicted because we know it's still the logical choice.
58
206925
4499
لكننا نشعر بالصراع في داخلنا لأننا نعرف أنه لا يزال الخيار المنطقي.
03:31
"Trolleyology" has been criticized by some philosophers and psychologists.
59
211424
4981
ولقد تعرض علم المعضلات الأخلاقية للانتقاد من بعض الفلاسفة وعلماء النفس.
03:36
They argue that it doesn't reveal anything because its premise is so unrealistic
60
216405
4861
إنهم يزعمون أنه لا يكشف عن أي شيء لأن افتراضاته غير واقعية للغاية
03:41
that study participants don't take it seriously.
61
221266
4159
ولذلك لا يعير انتباههم.
03:45
But new technology is making this kind of ethical analysis
62
225425
3131
غير أن التكنولوجيا الحديثة جعلت التحليل الأخلاقي
03:48
more important than ever.
63
228556
2142
أكثر أهمية من أي وقت مضى.
03:50
For example, driver-less cars may have to handle choices
64
230698
3338
فعلى سبيل المثال، قد يلجأ سائقو السيارت الصغيرة إلى التعامل مع خيارتٍ
03:54
like causing a small accident to prevent a larger one.
65
234036
3971
مثل التسبب في حادث صغير لتفادي وقوع حادث بالغ الضرر.
03:58
Meanwhile, governments are researching autonomous military drones
66
238007
3619
وفي هذه الأثناء، تجري الحكومات أبحاثًا حول طائرات عسكرية بدون طيار مستقلة
04:01
that could wind up making decisions of whether they'll risk civilian casualties
67
241626
4350
حيث بإمكانها وضع حدٍ لقراراتٍ كالمخاطرة بخسارة حياة المدنيين
04:05
to attack a high-value target.
68
245976
3300
لإصابة هدف بالغ القيمة.
04:09
If we want these actions to be ethical,
69
249276
1921
وإذا أردنا هذه الأحوال أن تكون أخلاقية
04:11
we have to decide in advance how to value human life
70
251197
4200
علينا أن نقدر مسبقًا قيمة الحياة البشرية
04:15
and judge the greater good.
71
255397
2270
وأن نسعى لتحقيق الصالح العام.
04:17
So researchers who study autonomous systems
72
257667
2440
وهكذا يتعاون الباحثون الذين يدرسون الأنظمة الذاتية
04:20
are collaborating with philosophers
73
260107
2100
مع الفلاسفة
04:22
to address the complex problem of programming ethics into machines,
74
262207
5421
لمعالجة المشكلة المعقدة من خلال برمجة الأخلاق في آلالات،
04:27
which goes to show that even hypothetical dilemmas
75
267628
3329
مما يدل كذلك على أن المعضلات الافتراضية
04:30
can wind up on a collision course with the real world.
76
270957
4101
يمكن أن ينتهي بها المطاف بالتعارض مع العالم الحقيقي.
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7