Ethical dilemma: Whose life is more valuable? - Rebecca L. Walker

706,442 views ・ 2022-11-08

TED-Ed


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Naz Gursel Gözden geçirme: Ömer Faruk Zeren
00:08
Smallpox is one of the deadliest diseases in history,
0
8755
3878
Çiçek hastalığı tarihin en ölümcül hastalıklarından biridir
00:13
but fortunately, it’s been eradicated for over 40 years.
1
13092
3587
ama neyse ki, 40 yılı aşkın bir süre önce yok edildi.
00:16
However, samples of the virus that causes smallpox still exist,
2
16971
4755
Ancak, çiçek hastalığına neden olan virüs hâlâ var
00:21
leading to concern that rogue actors might try to weaponize it.
3
21726
3670
ve bu da ahlak dışı insanların onu silahlandıracağı endişesine yol açıyor.
00:25
This is especially worrying
4
25772
1543
Bu özellikle endişe verici
00:27
because older smallpox vaccines can have serious side effects,
5
27315
3837
çünkü eski çiçek hastalığı aşılarının ciddi yan etkileri olabilir
00:31
and modern antiviral drugs have never been tested against this disease.
6
31152
4087
ve modern antiviral ilaçlar bu hastalığa karşı hiçbir zaman test edilmemiştir.
00:35
To protect against this potential threat,
7
35656
2294
Bu potansiyel tehditten koruma için ABD hükümeti,
00:37
the US government is funding research to improve smallpox treatments
8
37950
3796
çiçek hastalığı tedavi ve aşısı gelişim için araştırmaları finanse ediyor.
00:41
and vaccines.
9
41746
1376
00:43
And since it’s unethical to expose people to a highly lethal virus,
10
43289
4505
İnsanları son derece ölümcül bir virüse maruz bırakmak etik olmadığından,
00:47
labs are using humanity's closest biological relatives as research subjects.
11
47919
6047
laboratuvarlar araştırma deneği olarak
insanoğlunun en yakın biyolojik akrabalarını kullanıyor.
00:54
But is it right to harm these animals to protect humanity from a potential threat?
12
54592
5380
Ancak insanlığı potansiyel bir tehditten korumak için
bu hayvanlara zarar vermek doğru mu?
01:00
Or should our closest relatives also be protected against lethal experiments?
13
60223
4671
Yoksa en yakın akrabalarımız da ölümcül deneylere karşı korunmalı mı?
01:05
What would you do as a scientist faced with this very real scenario?
14
65353
5005
Bu fazlasıyla gerçek senaryoyla karşılaşan bir bilim insanı olarak ne yapardınız?
01:12
In many ways, this dilemma isn't new.
15
72068
2502
Birçok yönden, bu ikilem yeni değil.
01:14
Animals have been used in research aimed at improving human welfare for centuries,
16
74695
4630
Hayvanlar, yüzyıllardır insan refahı iyileştirmeyi amaçlayan
01:19
typically at the cost of their lives.
17
79492
2669
araştırmalarda kullanılmıştır, tipik olarak yaşamları pahasına.
01:22
This practice reflects the widespread belief that human lives are more valuable
18
82703
4463
Bu uygulama, insan yaşamının insan dışı yaşamlardan daha değerli olduğuna dair
01:27
than non-human lives.
19
87166
1794
yaygın inancı yansıtmaktadır.
01:29
People have different views about the ethics of animal testing
20
89252
3587
İnsanlar, hayvanlar üzerinde test yapma etiği ve nasıl yapıldığı konusunda
01:32
and how it’s conducted.
21
92839
1543
farklı görüşlere sahiptir.
01:34
But whatever your opinion,
22
94507
1585
Ancak fikriniz ne olursa olsun,
01:36
this scenario raises an important philosophical question:
23
96092
3545
bu senaryo önemli bir felsefi soruyu gündeme getiriyor:
01:39
how do we determine the value of a life, whether human or non-human?
24
99846
4838
insan ya da insan olmayan bir hayatın değerini nasıl belirleriz?
01:45
One tool philosophers have used to consider this question is moral status.
25
105101
5380
Filozofların bu soruyu ele almak için kullandığı araçlardan biri ahlaki statüdür
01:51
Beings with moral status should have their needs and interests
26
111065
3962
Ahlaki statüye sahip varlıkların ihtiyaçları ve çıkarları,
01:55
taken into consideration by those making decisions that impact them.
27
115027
3838
onları etkileyen kararlar verenler tarafından dikkate alınmalıdır.
01:59
Traditionally, moral status has been seen as binary—
28
119157
3545
Geleneksel olarak, ahlaki statü ikili olarak görülmüştür -
02:02
either a being’s interests matter for their own sake, or they don’t.
29
122702
4129
bir varlığın çıkarları ya kendi iyiliği için önemlidir ya da değildir.
02:07
And historically, many philosophers believed that humans had moral status
30
127623
4213
Ve tarihsel olarak, birçok filozof insanların ahlaki statüye sahip olduğuna
02:11
and other animals didn’t.
31
131836
1877
ve hayvanların olmadığına inanıyordu.
02:14
Some contemporary philosophers like Shelly Kagan
32
134213
3128
Shelly Kagan gibi bazı çağdaş filozoflar,
02:17
have argued that moral status comes in degrees,
33
137341
3170
ahlaki statünün derecelerle geldiğini savundu
02:20
but even in this model, he argues that people have the most moral status.
34
140803
4755
ancak bu modelde bile, insanların en çok ahlaki statüye sahip olduğunu savunuyor.
02:26
However, determining what grants any degree of moral status can be difficult.
35
146058
4964
Ancak, neyin herhangi bir derecede ahlaki statü verdiğini belirlemek zor olabilir.
02:31
Enlightenment philosopher Immanuel Kant thought humans have moral status
36
151355
4255
Aydınlanma filozofu Immanuel Kant, insanların rasyonel doğası ve eylemlerini
02:35
because of their rational nature and ability to will their actions.
37
155610
3878
irade etme yetenekleri nedeniyle ahlaki bir statüye sahip olduğunu düşünüyordu.
02:39
A binary conception of moral status then suggests that beings with these capacities
38
159906
5380
İkili bir ahlaki statü kavramı, bu kapasitelerle başlayan,
02:45
are “persons” bearing full moral status,
39
165286
3462
tam ahlaki statüye sahip “kişiler” iken,
02:48
while all other creatures are “things” without moral status.
40
168873
4671
diğer tüm yaratıkların ahlaki statüsü olmayan “şeyler” olduğunu ileri sürer.
02:54
But thinkers like Christine Korsgaard have argued a Kantian view
41
174378
3879
Ama Christine Korsgaard gibi düşünürler, Kantçı bir görüşün,
02:58
should include many non-human animals because of how they value their own good.
42
178257
4922
kendi iyiliğine ne kadar değer verdikleri nedeniyle
birçok insan olmayan hayvanı içerdiğini savundular.
03:03
Another line of argument, suggested by utilitarianism’s founding father
43
183846
3921
Faydacılığın kurucu babası Jeremy Bentham tarafından önerilen ve
03:07
Jeremy Bentham and elaborated by Peter Singer,
44
187767
3211
Peter Singer tarafından detaylandırılan diğer bir argüman çizgisi,
03:11
claims that a capacity for suffering
45
191145
2127
acı çekme kapasitesinin bir varlığı
03:13
makes an entity worthy of moral consideration.
46
193272
3045
ahlaki olarak dikkate alınmaya değer kıldığını iddia eder.
03:16
These inclusive ways of thinking about moral status dramatically widen the scope
47
196859
5089
Ahlaki statü hakkında bu kapsayıcı düşünme biçimleri,
03:21
of our moral responsibility,
48
201948
2168
ahlaki sorumluluğumuzun kapsamını,
03:24
in ways some people might find unnerving.
49
204283
3379
bazılarının sinir bozan bulabileceği halde büyük ölçüde genişletiyor.
03:28
So where do our monkeys stand?
50
208829
1919
Peki maymunlarımız nerede duruyor?
03:30
Our closest genetic relatives have high social and intellectual capacities.
51
210957
4921
En yakın genetik akrabalarımız yüksek sosyal ve entelektüel kapasiteye sahiptir.
03:36
They live cooperatively in complex social groups
52
216045
2753
Karmaşık sosyal gruplarda işbirliği içinde yaşarlar
03:38
and recognize members of their community as individuals.
53
218798
3462
ve topluluklarının üyelerini birey olarak tanırlar.
03:42
They support and learn from one another—
54
222635
2294
Birbirlerini destekler birbirlerinden öğrenirler-
03:45
there’s even evidence they respond to inequality.
55
225137
3045
eşitsizliğe yanıt verdiklerine dair kanıtlar bile var.
03:48
And of course, they’re capable of suffering.
56
228766
2920
Ve elbette, acı çekme yeteneğine sahipler.
03:52
Yet despite all this, it’s still generally common opinion
57
232436
3879
Ancak tüm bunlara rağmen, bir insanın hayatının
03:56
that a human’s life is more valuable than a monkey’s.
58
236315
3337
bir maymununkinden daha değerli olduğu genel olarak yaygın bir kanıdır.
04:00
And that while killing one human to save five others is typically wrong,
59
240319
4505
Beş kişiyi kurtarmak için bir insanı öldürmek tipik olarak yanlışken,
04:05
killing one monkey to save five humans is regrettable,
60
245074
4046
beş insanı kurtarmak için bir maymunu öldürmek üzücü,
04:09
but morally acceptable.
61
249370
1835
ama ahlaki olarak kabul edilebilir.
04:11
Even morally required.
62
251998
2127
Hatta ahlaki olarak gerekli.
04:14
At some point, however, this calculation starts to feel unstable.
63
254917
4254
Ancak bir noktada, bu hesaplama dengesiz gelmeye başlar.
04:19
Should we kill 100 monkeys to save five people?
64
259588
3671
Beş kişiyi kurtarmak için 100 maymunu öldürmeli miyiz?
04:23
How about 10,000?
65
263426
1877
10.000′e ne dersiniz?
04:25
If moral status is binary and monkeys don't have it, then theoretically,
66
265469
4129
Ahlaki statü ikili ise ve maymunlarda yoksa, o zaman teorik olarak,
04:29
any number of monkeys could be sacrificed to save just one person.
67
269598
4255
sadece bir kişiyi kurtarmak için herhangi bir sayıda maymun feda edilebilir.
04:34
But if moral status comes in degrees and monkeys have any at all,
68
274520
4463
Ancak ahlaki statü derecelerle gelirse ve maymunlarda bundan varsa,
04:38
then at some point the balance will tip.
69
278983
2878
o zaman bir noktada denge bozulur.
04:43
The situation you're in complicates things even further.
70
283029
3753
İçinde bulunduğunuz durum işleri daha da karmaşık hale getiriyor.
04:47
Unlike the scenarios above,
71
287366
1543
Yukarıdaki senaryoların aksine,
04:48
there's no guarantee your work will ever save human lives.
72
288909
3546
çalışmanızın insan hayatını kurtaracağının garantisi yok.
04:52
This is true of any animal experiment—
73
292997
2711
Bu, herhangi bir hayvan deneyi için geçerlidir.
04:56
the process of scientific discovery only sometimes leads to improved medical care.
74
296000
5088
bilimsel keşif süreci yalnızca bazen gelişmiş tıbbi bakıma yol açar.
05:01
But in your case, it’s even trickier!
75
301547
2419
Ama sizin durumunuzda, bu daha da kafa karıştırıcı!
05:04
While the government is worried smallpox might be weaponized,
76
304216
3587
Hükümet çiçek hastalığının silaha dönüştürülebileceğinden endişe etse de,
05:07
if they’re wrong the disease will remain eradicated,
77
307803
2878
yanılıyorlarsa hastalık yok olmuş olmaya devam edecek
05:10
and your research won’t save anyone from smallpox.
78
310681
3128
ve araştırmanız kimseyi çiçek hastalığından kurtaramayacak.
05:14
You could try to quantify this uncertainty to help make your decision.
79
314060
4087
Kararınızı vermenize yardımcı olması için bu belirsizliği ölçmeye çalışabilirsiniz.
05:18
But how do you determine what an acceptable amount of risk is?
80
318314
3378
Ama kabullenebilir bir risk miktarının ne olduğunu nasıl belirlersiniz?
05:21
And what if there’s so much uncertainty that your calculations
81
321901
3503
Peki ya hesaplamalarınızda o kadar çok belirsizlik varsa,
ve onlar esasen çılgın tahminler ise?
05:25
are essentially wild guesses?
82
325404
2586
05:29
These kinds of moral mathematics get complicated fast,
83
329116
4338
Bu tür ahlaki matematikler hızla karmaşıklaşır ve bazı filozoflar
05:33
and some philosophers would argue they’re not even the best way
84
333454
3003
ahlaki kararlar almanın en iyi yol olmadığını bile iddia edecekler.
05:36
to make moral decisions.
85
336457
1710
05:38
But whatever you decide, your choice should be well justified.
86
338667
4714
Ancak ne karar verirseniz verin, seçiminiz iyi gerekçelendirilmelidir.
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7