Ethical dilemma: Whose life is more valuable? - Rebecca L. Walker

911,976 views ・ 2022-11-08

TED-Ed


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: shirin etebar Reviewer: Mahshid Moballegh Nasery
00:08
Smallpox is one of the deadliest diseases in history,
0
8755
3878
بیماری آبله یکی از کشنده‌ترین بیماری‌های تاریخ است
00:13
but fortunately, it’s been eradicated for over 40 years.
1
13092
3587
اما خوشبختانه، بیش از ۴۰ سال است که ریشه‌کن شده.
00:16
However, samples of the virus that causes smallpox still exist,
2
16971
4755
با این حال، نمونه‌هایی از ویروسِ عامل بیماری آبله هنوز وجود دارد،
00:21
leading to concern that rogue actors might try to weaponize it.
3
21726
3670
با این نگرانی که ممکن است عاملان سرکش سعی بر مسلح کردن آن داشته باشند.
00:25
This is especially worrying
4
25772
1543
این امر به‌ویژه نگران‌کننده است
00:27
because older smallpox vaccines can have serious side effects,
5
27315
3837
زیرا واکسن‌های قدیمی‌تر آبله می‌توانند اثرات جانبی جدی‌ای داشته باشند
00:31
and modern antiviral drugs have never been tested against this disease.
6
31152
4087
و داروهای ضدویروس مدرن هیچ وقت علیه این بیماری آزمایش نشده‌اند.
00:35
To protect against this potential threat,
7
35656
2294
برای آمادگی علیه این تهدید بالقوه،
00:37
the US government is funding research to improve smallpox treatments
8
37950
3796
دولت ایالت متحده بودجه تحقیقاتی را برای بهبود درمان‌ها
00:41
and vaccines.
9
41746
1376
و واکسن‌ها تامین می‌کند.
00:43
And since it’s unethical to expose people to a highly lethal virus,
10
43289
4505
و از آنجایی که قرار دادن افراد در معرض یک ویروس بسیار کشنده غیراخلاقی است،
00:47
labs are using humanity's closest biological relatives as research subjects.
11
47919
6047
آزمایشگاه‌ها ازنزدیک‌ترین خویشاوندان زیستی بشر برای موضوعات تحقیقاتی استفاده می‌کنند.
00:54
But is it right to harm these animals to protect humanity from a potential threat?
12
54592
5380
اما آیا صدمه زدن به این حیوانات برای حفاظت از بشریت علیه یک تهدید بالقوه درست است؟
01:00
Or should our closest relatives also be protected against lethal experiments?
13
60223
4671
یا اینکه نزدیکترین خویشاوندان ما نیز باید در برابر آزمایشات کشنده محافظت شوند؟
01:05
What would you do as a scientist faced with this very real scenario?
14
65353
5005
به‌عنوان دانشمندی که با این سناریوی بسیار واقعی روبرو می‌شوید، چه می‌کنید؟
01:12
In many ways, this dilemma isn't new.
15
72068
2502
از بسیاری جهات، این معضل جدیدی نیست.
01:14
Animals have been used in research aimed at improving human welfare for centuries,
16
74695
4630
حیوانات برای قرن‌ها در تحقیقاتی با هدف بهبود رفاه انسان استفاده می‌شدند
01:19
typically at the cost of their lives.
17
79492
2669
که معمولاً به قیمت جانشان تمام می‌شود.
01:22
This practice reflects the widespread belief that human lives are more valuable
18
82703
4463
این عمل منعکس‌کننده این باور گسترده است که جان انسان‌ها ارزشمندتر
01:27
than non-human lives.
19
87166
1794
از جان‌های غیرانسانی است.
01:29
People have different views about the ethics of animal testing
20
89252
3587
مردم نگرش‌های متفاوتی درباره اصول اخلاق آزمایش بر روی حیوانات
01:32
and how it’s conducted.
21
92839
1543
و نحوه انجام آن دارند.
01:34
But whatever your opinion,
22
94507
1585
اما نظر شما هر چه که باشد،
01:36
this scenario raises an important philosophical question:
23
96092
3545
این سناریو یک سوال مهم فلسفی ایجاد می‌کند:
01:39
how do we determine the value of a life, whether human or non-human?
24
99846
4838
چگونه ارزش یک زندگی را، چه انسانی و چه غیر انسانی، تعیین کنیم؟
01:45
One tool philosophers have used to consider this question is moral status.
25
105101
5380
یکی از ابزارهای مورد استفاده فیلسوفان برای بررسی این پرسش، جایگاه اخلاقی است.
01:51
Beings with moral status should have their needs and interests
26
111065
3962
کسانی که تصمیمات اثرگذاری برای موجودات دارای جایگاه اخلاقی می‌گیرند،
01:55
taken into consideration by those making decisions that impact them.
27
115027
3838
باید به نیازها و علایق آن‌ها توجه کنند.
01:59
Traditionally, moral status has been seen as binary—
28
119157
3545
به طور سنتی، جایگاه اخلاقی به صورت دودویی در نظر گرفته می‌شود -
02:02
either a being’s interests matter for their own sake, or they don’t.
29
122702
4129
یا منافع یک موجود به خاطر خودش مهم است یا نه.
02:07
And historically, many philosophers believed that humans had moral status
30
127623
4213
و از نظر تاریخی، بسیاری از فیلسوفان باور داشتند که انسان‌ها برخلاف دیگر حیوانات
02:11
and other animals didn’t.
31
131836
1877
دارای جایگاه اخلاقی هستند.
02:14
Some contemporary philosophers like Shelly Kagan
32
134213
3128
برخی از فیلسوفان معاصر مانند شلی کاگان
02:17
have argued that moral status comes in degrees,
33
137341
3170
استدلال کرده‌اند که جایگاه اخلاقی درجاتی دارد،
02:20
but even in this model, he argues that people have the most moral status.
34
140803
4755
اما حتی در این مدل، او استدلال می‌کند که انسان دارای بالاترین جایگاه اخلاقی هستند.
02:26
However, determining what grants any degree of moral status can be difficult.
35
146058
4964
با این حال، تعیین مبنای درجه‌بندی جایگاه اخلاقی می‌تواند دشوار باشد.
02:31
Enlightenment philosopher Immanuel Kant thought humans have moral status
36
151355
4255
امانوئل کانت، فیلسوف روشنگر، معتقد بود که انسان‌ها به دلیل ماهیت عقلانی
02:35
because of their rational nature and ability to will their actions.
37
155610
3878
و توانایی اراده کردن اعمالشان، دارای جایگاه اخلاقی هستند.
02:39
A binary conception of moral status then suggests that beings with these capacities
38
159906
5380
سپس یک تصور دوگانه از جایگاه اخلاقی نشان می‌دهد که موجوداتی با این ظرفیت‌ها
02:45
are “persons” bearing full moral status,
39
165286
3462
«افرادی» هستند که دارای جایگاه اخلاقی کامل هستند،
02:48
while all other creatures are “things” without moral status.
40
168873
4671
در حالی که همه موجودات دیگر «چیزهایی» بدون وضعیت اخلاقی هستند.
02:54
But thinkers like Christine Korsgaard have argued a Kantian view
41
174378
3879
اما متفکرانی مانند کریستین کورسگارد استدلال کرده‌اند که دیدگاه کانتی
02:58
should include many non-human animals because of how they value their own good.
42
178257
4922
باید شامل بسیاری از حیوانات غیرانسان باشد، چون آن‌ها برای منافع خود ارزش قائل هستند.
03:03
Another line of argument, suggested by utilitarianism’s founding father
43
183846
3921
خط دیگری از استدلال، توسط جرمی بنتام، بنیانگذار فایده‌گرایی، پیشنهاد شده
03:07
Jeremy Bentham and elaborated by Peter Singer,
44
187767
3211
و توسط پیتر سینگر شرح داده شده است،
03:11
claims that a capacity for suffering
45
191145
2127
این ادعا را دارد که ظرفیت رنجیدن،
03:13
makes an entity worthy of moral consideration.
46
193272
3045
موجودیت را شایسته توجه اخلاقی می‌کند.
03:16
These inclusive ways of thinking about moral status dramatically widen the scope
47
196859
5089
این روش‌های فراگیر از تفکر در مورد وضعیت اخلاقی به‌طور چشمگیری
03:21
of our moral responsibility,
48
201948
2168
دامنه مسئولیت اخلاقی ما را گسترش می‌دهد،
03:24
in ways some people might find unnerving.
49
204283
3379
به گونه‌ای که ممکن است برای برخی افراد آزاردهنده باشد.
03:28
So where do our monkeys stand?
50
208829
1919
پس جایگاه میمون‌های مورداستفاده ما کجاست؟
03:30
Our closest genetic relatives have high social and intellectual capacities.
51
210957
4921
نزدیکترین خویشاوندان ژنتیکی ما ظرفیت‌های اجتماعی و فکری بالایی داشتند.
03:36
They live cooperatively in complex social groups
52
216045
2753
آنها در گروه‌های اجتماعی پیچیده به صورت مشارکتی زندگی کرده
03:38
and recognize members of their community as individuals.
53
218798
3462
و اعضای جامعه خود را به‌عنوان افراد منحصربه‌فرد می‌شناسند.
03:42
They support and learn from one another—
54
222635
2294
آنها همدیگر را حمایت کرده و از یکدیگر یاد می‌گیرند -
03:45
there’s even evidence they respond to inequality.
55
225137
3045
حتی شواهدی وجود دارد که به نابرابری پاسخ می‌دهند.
03:48
And of course, they’re capable of suffering.
56
228766
2920
و البته، آن‌ها مستعد رنجیدن هستند.
03:52
Yet despite all this, it’s still generally common opinion
57
232436
3879
با این حال، علیرغم همه این‌ها، هنوز هم عموماً این عقیده رایج است
03:56
that a human’s life is more valuable than a monkey’s.
58
236315
3337
که جان یک انسان ارزشمندتر از یک میمون است.
04:00
And that while killing one human to save five others is typically wrong,
59
240319
4505
و در حالی که کشتن یک انسان برای نجات پنج نفر دیگر معمولا اشتباه است،
04:05
killing one monkey to save five humans is regrettable,
60
245074
4046
کشتن یک میمون برای نجات پنج انسان تاسف‌آور است،
04:09
but morally acceptable.
61
249370
1835
اما از نظر اخلاقی قابل قبول است.
04:11
Even morally required.
62
251998
2127
حتی از نظر اخلاقی لازم است.
04:14
At some point, however, this calculation starts to feel unstable.
63
254917
4254
با این حال، در برخی موارد، این برآورد بی‌ثباتی می‌شود.
04:19
Should we kill 100 monkeys to save five people?
64
259588
3671
آیا برای نجات پنج نفر باید ۱۰۰ میمون را بکشیم؟
04:23
How about 10,000?
65
263426
1877
۱۰,۰۰۰ تا چطور؟
04:25
If moral status is binary and monkeys don't have it, then theoretically,
66
265469
4129
اگر جایگاه اخلاقی دوگانه باشد و میمون‌ها آن را نداشته باشند،
04:29
any number of monkeys could be sacrificed to save just one person.
67
269598
4255
از نظر تئوری، هر تعداد میمون را می‌توان برای نجات تنها یک نفر قربانی کرد.
04:34
But if moral status comes in degrees and monkeys have any at all,
68
274520
4463
اما اگر جایگاه اخلاقی درجاتی داشته باشد و میمون‌ها مقامی داشته باشند،
04:38
then at some point the balance will tip.
69
278983
2878
آنگاه در نقطه‌ای تعادل از بین می‌رود.
04:43
The situation you're in complicates things even further.
70
283029
3753
موقعیتی که در آن قرار دارید، همه چیز را پیچیده‌تر می‌کند.
04:47
Unlike the scenarios above,
71
287366
1543
برخلاف سناریوهای بالا،
04:48
there's no guarantee your work will ever save human lives.
72
288909
3546
هیچ تضمینی وجود ندارد که کار شما جان انسان‌ها را نجات دهد.
04:52
This is true of any animal experiment—
73
292997
2711
این در مورد هر آزمایش حیوانی صدق می‌کند -
04:56
the process of scientific discovery only sometimes leads to improved medical care.
74
296000
5088
فرآیند اکتشاف علمی فقط گاهی به بهبود مراقبت‌های پزشکی منجر می‌شود.
05:01
But in your case, it’s even trickier!
75
301547
2419
اما در مورد شما، مسئله حتی پیچیده‌تر است!
05:04
While the government is worried smallpox might be weaponized,
76
304216
3587
در حالی که دولت نگران است که آبله به سلاح تبدیل شود،
05:07
if they’re wrong the disease will remain eradicated,
77
307803
2878
اگر اشتباه کنند، این بیماری ریشه‌کن‌شده خواهد ماند
05:10
and your research won’t save anyone from smallpox.
78
310681
3128
و تحقیقات شما کسی را از آبله نجات نخواهد داد.
05:14
You could try to quantify this uncertainty to help make your decision.
79
314060
4087
می‌توانید سعی کنید این عدم قطعیت را برای کمک به تصمیم‌گیری خود بسنجید.
05:18
But how do you determine what an acceptable amount of risk is?
80
318314
3378
اما چگونه می‌توان میزان ریسک قابل قبول را تعیین کرد؟
05:21
And what if there’s so much uncertainty that your calculations
81
321901
3503
و اگر آنقدر عدم قطعیت وجود داشته باشد که محاسبات شما
05:25
are essentially wild guesses?
82
325404
2586
اساساً حدس و گمان‌های افراطی باشد، چطور؟
05:29
These kinds of moral mathematics get complicated fast,
83
329116
4338
این نوع ریاضیات اخلاقی به سرعت پیچیده می‌شوند
05:33
and some philosophers would argue they’re not even the best way
84
333454
3003
و برخی از فیلسوفان استدلال می‌کنند که آن‌ها حتی بهترین راه
05:36
to make moral decisions.
85
336457
1710
برای تصمیم‌گیری اخلاقی نیستند.
05:38
But whatever you decide, your choice should be well justified.
86
338667
4714
اما هر تصمیمی که بگیرید، انتخاب شما باید به خوبی توجیه شود.
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7