Ethical dilemma: Whose life is more valuable? - Rebecca L. Walker

912,341 views ・ 2022-11-08

TED-Ed


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: Shimaa Nabil المدقّق: Nawfal Aljabali
00:08
Smallpox is one of the deadliest diseases in history,
0
8755
3878
يعد الجدري أحد أكثر الأمراض فتكاً في التاريخ،
00:13
but fortunately, it’s been eradicated for over 40 years.
1
13092
3587
ولكن لحسن الحظ تم القضاء عليه منذ أكثر من 40 عاماً.
00:16
However, samples of the virus that causes smallpox still exist,
2
16971
4755
ومع ذلك، لا تزال عينات الفيروس المسبب للجدري موجودة،
00:21
leading to concern that rogue actors might try to weaponize it.
3
21726
3670
مما يؤدي إلى القلق من أن جهات شريرة قد تحاول استخدامها كسلاح.
00:25
This is especially worrying
4
25772
1543
هذا مقلق بشكل خاص
00:27
because older smallpox vaccines can have serious side effects,
5
27315
3837
لأن لقاحات الجدري القديمة يمكن أن يكون لها آثار جانبية خطيرة،
00:31
and modern antiviral drugs have never been tested against this disease.
6
31152
4087
ولم يتم اختبار الأدوية المضادة للفيروسات الحديثة ضد هذا المرض.
00:35
To protect against this potential threat,
7
35656
2294
للحماية من هذا التهديد المحتمل،
00:37
the US government is funding research to improve smallpox treatments
8
37950
3796
تمول حكومة الولايات المتحدة الأبحاث لتحسين علاجات الجدري
00:41
and vaccines.
9
41746
1376
واللقاحات.
00:43
And since it’s unethical to expose people to a highly lethal virus,
10
43289
4505
ونظراً لأنه من غير الأخلاقي تعريض الأشخاص لفيروس مميت للغاية،
00:47
labs are using humanity's closest biological relatives as research subjects.
11
47919
6047
تستخدم المختبرات أقرب المخلوقات بيولوجياً للبشر كمواد بحثية.
00:54
But is it right to harm these animals to protect humanity from a potential threat?
12
54592
5380
لكن هل من الصواب إيذاء هذه الحيوانات لحماية البشرية من تهديد محتمل؟
01:00
Or should our closest relatives also be protected against lethal experiments?
13
60223
4671
أم هل ينبغي حماية المخلوقات القريبة أيضاً من التجارب المميتة؟
01:05
What would you do as a scientist faced with this very real scenario?
14
65353
5005
ماذا ستفعل كعالم في مواجهة هذا السيناريو الحقيقي؟
01:12
In many ways, this dilemma isn't new.
15
72068
2502
من نواح كثيرة، هذه المعضلة ليست جديدة.
01:14
Animals have been used in research aimed at improving human welfare for centuries,
16
74695
4630
تم استخدام الحيوانات في الأبحاث التي تهدف إلى تحسين رفاهية الإنسان لعدة قرون،
01:19
typically at the cost of their lives.
17
79492
2669
وعادة ما يكون ذلك على حساب حياتهم.
01:22
This practice reflects the widespread belief that human lives are more valuable
18
82703
4463
تعكس هذه الممارسة الاعتقاد السائد بأن حياة الإنسان أكثر قيمة
01:27
than non-human lives.
19
87166
1794
من الأرواح غير البشرية.
01:29
People have different views about the ethics of animal testing
20
89252
3587
تختلف آراء الأشخاص حول أخلاقيات اختبار الحيوانات
01:32
and how it’s conducted.
21
92839
1543
وكيفية إجرائها.
01:34
But whatever your opinion,
22
94507
1585
لكن مهما كان رأيك،
01:36
this scenario raises an important philosophical question:
23
96092
3545
فإن هذا السيناريو يثير سؤالاً فلسفياً مهماً:
01:39
how do we determine the value of a life, whether human or non-human?
24
99846
4838
كيف نحدد قيمة الحياة سواء أكانت بشرية أم غير بشرية؟
01:45
One tool philosophers have used to consider this question is moral status.
25
105101
5380
إحدى الأدوات التي استخدمها الفلاسفة للنظر في هذا السؤال هي الحالة الأخلاقية.
01:51
Beings with moral status should have their needs and interests
26
111065
3962
يجب أن تأخذ الكائنات ذات المكانة الأخلاقية
01:55
taken into consideration by those making decisions that impact them.
27
115027
3838
احتياجاتها ومصالحها في الاعتبار من قبل الذين يتخذون القرارات التي تؤثر عليهم.
01:59
Traditionally, moral status has been seen as binary—
28
119157
3545
عادةً، كان يُنظر إلى الحالة الأخلاقية على أنها ثنائية -
02:02
either a being’s interests matter for their own sake, or they don’t.
29
122702
4129
إما أن مصالح الكائن مهمة من أجلهم، أو لا تهمهم.
02:07
And historically, many philosophers believed that humans had moral status
30
127623
4213
وتاريخياً، اعتقد العديد من الفلاسفة أن البشر يتمتعون بمكانة أخلاقية
02:11
and other animals didn’t.
31
131836
1877
وأن الحيوانات الأخرى لا تتمتع بها.
02:14
Some contemporary philosophers like Shelly Kagan
32
134213
3128
جادل بعض الفلاسفة المعاصرين مثل شيلي كاجان
02:17
have argued that moral status comes in degrees,
33
137341
3170
بأن الوضع الأخلاقي يأتي في درجات،
02:20
but even in this model, he argues that people have the most moral status.
34
140803
4755
ولكن حتى في هذا النموذج، يجادل بأن الناس يتمتعون بمكانة أخلاقية أكثر.
02:26
However, determining what grants any degree of moral status can be difficult.
35
146058
4964
ومع ذلك، فإن تحديد ما يمنح أي درجة من الوضع الأخلاقي قد يكون صعباً.
02:31
Enlightenment philosopher Immanuel Kant thought humans have moral status
36
151355
4255
اعتقد فيلسوف التنوير إيمانويل كانط أن البشر يتمتعون بمكانة أخلاقية
02:35
because of their rational nature and ability to will their actions.
37
155610
3878
بسبب طبيعتهم العقلانية وقدرتهم على إرادة أفعالهم.
02:39
A binary conception of moral status then suggests that beings with these capacities
38
159906
5380
ثم يشير المفهوم الثنائي للوضع الأخلاقي إلى أن الكائنات التي تتمتع بهذه القدرات
02:45
are “persons” bearing full moral status,
39
165286
3462
هم “أشخاص” يتمتعون بوضع أخلاقي كامل،
02:48
while all other creatures are “things” without moral status.
40
168873
4671
في حين أن جميع المخلوقات الأخرى هي “أشياء” بدون وضع أخلاقي.
02:54
But thinkers like Christine Korsgaard have argued a Kantian view
41
174378
3879
لكن مفكرين مثل كريستين كورسجارد جادلوا بأن وجهة النظر الكانطية
02:58
should include many non-human animals because of how they value their own good.
42
178257
4922
يجب أن تشمل العديد من الحيوانات غير البشرية بسبب تقديرهم لمصلحتهم.
03:03
Another line of argument, suggested by utilitarianism’s founding father
43
183846
3921
هناك خط آخر من الجدل، اقترحه الأب المؤسس للنفعية
03:07
Jeremy Bentham and elaborated by Peter Singer,
44
187767
3211
جيريمي بينثام وطوره بيتر سنجر،
03:11
claims that a capacity for suffering
45
191145
2127
يدعي أن القدرة على المعاناة
03:13
makes an entity worthy of moral consideration.
46
193272
3045
تخلق كياناً يستحق الاعتبار الأخلاقي.
03:16
These inclusive ways of thinking about moral status dramatically widen the scope
47
196859
5089
هذه الطرق الشاملة للتفكير في الحالة الأخلاقية توسع نطاق
03:21
of our moral responsibility,
48
201948
2168
مسؤوليتنا الأخلاقية بشكل كبير،
03:24
in ways some people might find unnerving.
49
204283
3379
بطرق قد يجدها بعض الناس مقلقة.
03:28
So where do our monkeys stand?
50
208829
1919
إذن، أين تقف قرودنا؟
03:30
Our closest genetic relatives have high social and intellectual capacities.
51
210957
4921
يتمتع أقرب أقربائنا الجينيين بقدرات اجتماعية وفكرية عالية.
03:36
They live cooperatively in complex social groups
52
216045
2753
إنهم يعيشون بشكل تعاوني في مجموعات اجتماعية معقدة
03:38
and recognize members of their community as individuals.
53
218798
3462
ويتعرفون على أفراد مجتمعهم كأفراد.
03:42
They support and learn from one another—
54
222635
2294
إنهم يدعمون ويتعلمون من بعضهم البعض -
03:45
there’s even evidence they respond to inequality.
55
225137
3045
حتى أن هناك أدلة على أنهم يستجيبون لعدم المساواة.
03:48
And of course, they’re capable of suffering.
56
228766
2920
وهم بالطبع قادرون على المعاناة.
03:52
Yet despite all this, it’s still generally common opinion
57
232436
3879
ومع ذلك، على الرغم من كل هذا، لا يزال الرأي السائد
03:56
that a human’s life is more valuable than a monkey’s.
58
236315
3337
هو أن حياة الإنسان أكثر قيمة من حياة القرد.
04:00
And that while killing one human to save five others is typically wrong,
59
240319
4505
وفي حين أن قتل شخص واحد لإنقاذ خمسة آخرين أمر خاطئ عادة،
04:05
killing one monkey to save five humans is regrettable,
60
245074
4046
فإن قتل قرد واحد لإنقاذ خمسة بشر أمر مؤسف،
04:09
but morally acceptable.
61
249370
1835
لكنه مقبول أخلاقياً.
04:11
Even morally required.
62
251998
2127
بل مطلوب أخلاقياً.
04:14
At some point, however, this calculation starts to feel unstable.
63
254917
4254
ومع ذلك، في مرحلة ما، يبدأ هذا الحساب في الشعور بعدم الاستقرار.
04:19
Should we kill 100 monkeys to save five people?
64
259588
3671
هل يجب أن نقتل 100 قرد لإنقاذ خمسة أشخاص؟
04:23
How about 10,000?
65
263426
1877
ماذا عن 10000؟
04:25
If moral status is binary and monkeys don't have it, then theoretically,
66
265469
4129
إذا كانت الحالة الأخلاقية ثنائية ولم يكن لدى القرود ذلك، فمن الناحية النظرية،
04:29
any number of monkeys could be sacrificed to save just one person.
67
269598
4255
يمكن التضحية بأي عدد من القرود لإنقاذ شخص واحد فقط.
04:34
But if moral status comes in degrees and monkeys have any at all,
68
274520
4463
ولكن إذا جاءت الحالة الأخلاقية بدرجات وكان لدى القرود أي منها على الإطلاق،
04:38
then at some point the balance will tip.
69
278983
2878
فإن التوازن سينقلب في مرحلة ما.
04:43
The situation you're in complicates things even further.
70
283029
3753
الوضع الذي أنت فيه يعقد الأمور أكثر.
04:47
Unlike the scenarios above,
71
287366
1543
على عكس السيناريوهات المذكورة أعلاه،
04:48
there's no guarantee your work will ever save human lives.
72
288909
3546
ليس هناك ما يضمن أن عملك سينقذ أرواح البشر.
04:52
This is true of any animal experiment—
73
292997
2711
وينطبق هذا على أي تجربة على الحيوانات -
04:56
the process of scientific discovery only sometimes leads to improved medical care.
74
296000
5088
فعملية الاكتشاف العلمي تؤدي في بعض الأحيان فقط إلى تحسين الرعاية الطبية.
05:01
But in your case, it’s even trickier!
75
301547
2419
ولكن في حالتك، الأمر أكثر صعوبة!
05:04
While the government is worried smallpox might be weaponized,
76
304216
3587
بينما تشعر الحكومة بالقلق من إمكانية تحويل الجدري إلى سلاح،
05:07
if they’re wrong the disease will remain eradicated,
77
307803
2878
إذا كانوا مخطئين فسيظل المرض مستأصلاً،
05:10
and your research won’t save anyone from smallpox.
78
310681
3128
ولن ينقذ بحثك أي شخص من الجدري.
05:14
You could try to quantify this uncertainty to help make your decision.
79
314060
4087
يمكنك محاولة تحديد عدم اليقين هذا للمساعدة في اتخاذ قرارك.
05:18
But how do you determine what an acceptable amount of risk is?
80
318314
3378
ولكن كيف تحدد مقدار المخاطرة المقبول؟
05:21
And what if there’s so much uncertainty that your calculations
81
321901
3503
وماذا لو كان هناك الكثير من عدم اليقين لدرجة أن حساباتك
05:25
are essentially wild guesses?
82
325404
2586
هي في الأساس تخمينات جامحة؟
05:29
These kinds of moral mathematics get complicated fast,
83
329116
4338
تتعقد هذه الأنواع من الرياضيات الأخلاقية بسرعة،
05:33
and some philosophers would argue they’re not even the best way
84
333454
3003
وقد يجادل بعض الفلاسفة بأنهم ليسوا حتى أفضل طريقة
05:36
to make moral decisions.
85
336457
1710
لاتخاذ قرارات أخلاقية.
05:38
But whatever you decide, your choice should be well justified.
86
338667
4714
ولكن مهما قررت، يجب أن يكون اختيارك مبرراً جيداً.
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7