Ethical dilemma: Whose life is more valuable? - Rebecca L. Walker

706,442 views ・ 2022-11-08

TED-Ed


Fare doppio clic sui sottotitoli in inglese per riprodurre il video.

Traduttore: Erika Minetti Revisore: Martina Abrami
00:08
Smallpox is one of the deadliest diseases in history,
0
8755
3878
Il vaiolo è una delle malattie più letali di tutti i tempi.
00:13
but fortunately, it’s been eradicated for over 40 years.
1
13092
3587
Per fortuna, è stata debellata da più di 40 anni.
00:16
However, samples of the virus that causes smallpox still exist,
2
16971
4755
Tuttavia, l’attuale esistenza di campioni del virus che causano il vaiolo
00:21
leading to concern that rogue actors might try to weaponize it.
3
21726
3670
fa temere che possano essere usati come arma da parte di malintenzionati.
00:25
This is especially worrying
4
25772
1543
È un aspetto molto preoccupante,
00:27
because older smallpox vaccines can have serious side effects,
5
27315
3837
perché i vecchi vaccini antivaiolo possono avere gravi effetti collaterali
00:31
and modern antiviral drugs have never been tested against this disease.
6
31152
4087
e i farmaci antivirali moderni non sono mai stati testati
contro il vaiolo.
00:35
To protect against this potential threat,
7
35656
2294
Per garantire protezione da questa possibile minaccia,
00:37
the US government is funding research to improve smallpox treatments
8
37950
3796
gli USA stanno finanziando la ricerca per migliorare
i trattamenti contro il vaiolo e i vaccini.
00:41
and vaccines.
9
41746
1376
00:43
And since it’s unethical to expose people to a highly lethal virus,
10
43289
4505
Visto che non è etico esporre delle persone a un virus così letale,
00:47
labs are using humanity's closest biological relatives as research subjects.
11
47919
6047
I laboratori usano i nostri parenti biologici più stretti
come soggetti di ricerca.
00:54
But is it right to harm these animals to protect humanity from a potential threat?
12
54592
5380
Ma è giusto fare male a questi animali per proteggere l’umanità
da una possibile minaccia?
01:00
Or should our closest relatives also be protected against lethal experiments?
13
60223
4671
O anche loro dovrebbero essere protetti da questi esperimenti fatali?
01:05
What would you do as a scientist faced with this very real scenario?
14
65353
5005
Voi, da scienziati, cosa fareste di fronte a un simile scenario?
01:12
In many ways, this dilemma isn't new.
15
72068
2502
Per molti versi, questo dilemma non è nuovo.
01:14
Animals have been used in research aimed at improving human welfare for centuries,
16
74695
4630
È da secoli che gli animali vengono sfruttati per migliorare lo status umano,
01:19
typically at the cost of their lives.
17
79492
2669
di solito al costo della loro vita.
01:22
This practice reflects the widespread belief that human lives are more valuable
18
82703
4463
Tale pratica riflette la credenza popolare che le vite umane abbiano più valore
01:27
than non-human lives.
19
87166
1794
di quelle non umane.
01:29
People have different views about the ethics of animal testing
20
89252
3587
Le persone hanno opinioni diverse riguardo l’etica dei test sugli animali
01:32
and how it’s conducted.
21
92839
1543
e come vengono condotti.
01:34
But whatever your opinion,
22
94507
1585
Qualunque sia la vostra opinione,
01:36
this scenario raises an important philosophical question:
23
96092
3545
questo scenario solleva una questione filosofica importante:
01:39
how do we determine the value of a life, whether human or non-human?
24
99846
4838
come si determina il valore di una vita, che sia umana o non umana?
01:45
One tool philosophers have used to consider this question is moral status.
25
105101
5380
Uno strumento che hanno usato i filosofi per rispondere al quesito
è lo status morale.
01:51
Beings with moral status should have their needs and interests
26
111065
3962
Chi ha status morale dovrebbe avere bisogni e interessi
01:55
taken into consideration by those making decisions that impact them.
27
115027
3838
presi in considerazione da coloro che prendono decisioni che li riguarda.
01:59
Traditionally, moral status has been seen as binary—
28
119157
3545
Tradizionalmente, lo status morale viene visto sotto forma binaria:
02:02
either a being’s interests matter for their own sake, or they don’t.
29
122702
4129
o gli interessi di un individuo contano per se stesso, oppure no.
02:07
And historically, many philosophers believed that humans had moral status
30
127623
4213
Storicamente, molti filosofi credevano che gli esseri umani avevano status morale
02:11
and other animals didn’t.
31
131836
1877
e che gli altri animali ne fossero privi.
02:14
Some contemporary philosophers like Shelly Kagan
32
134213
3128
Alcuni filosofi contemporanei come Shelly Kagan
02:17
have argued that moral status comes in degrees,
33
137341
3170
hanno sostenuto che ci sono livelli di status morale,
02:20
but even in this model, he argues that people have the most moral status.
34
140803
4755
ma anche in questo modello le persone sono al primo posto
02:26
However, determining what grants any degree of moral status can be difficult.
35
146058
4964
Stabilire cosa garantisca qualsiasi grado di status morale può essere difficile.
02:31
Enlightenment philosopher Immanuel Kant thought humans have moral status
36
151355
4255
Il filosofo illuminista Immanuel Kant pensava che gli esseri umani
avessero uno status morale
02:35
because of their rational nature and ability to will their actions.
37
155610
3878
grazie alla loro natura razionale e capacità di decidere le proprie azioni.
02:39
A binary conception of moral status then suggests that beings with these capacities
38
159906
5380
Una concezione binaria dello status morale suggerisce
che gli esseri con queste capacità sono “persone” con pieno status morale,
02:45
are “persons” bearing full moral status,
39
165286
3462
02:48
while all other creatures are “things” without moral status.
40
168873
4671
mentre tutte le altre creature sono “cose” senza uno status morale.
02:54
But thinkers like Christine Korsgaard have argued a Kantian view
41
174378
3879
Ma alcuni come Christine Korsgaard hanno sostenuto che una visione kantiana
02:58
should include many non-human animals because of how they value their own good.
42
178257
4922
dovrebbe includere molti animali non umani per il valore che danno al loro bene.
03:03
Another line of argument, suggested by utilitarianism’s founding father
43
183846
3921
Un altro punto di vista suggerito dal padre fondatore dell’utilitarismo,
03:07
Jeremy Bentham and elaborated by Peter Singer,
44
187767
3211
Jeremy Bentham, ed elaborato da Peter Singer,
03:11
claims that a capacity for suffering
45
191145
2127
sostiene che la capacità di soffrire
03:13
makes an entity worthy of moral consideration.
46
193272
3045
rende un’entità degna di considerazione morale.
03:16
These inclusive ways of thinking about moral status dramatically widen the scope
47
196859
5089
Questi modi inclusivi di pensare allo status morale
ampliano drasticamente la portata della nostra responsabilità morale
03:21
of our moral responsibility,
48
201948
2168
03:24
in ways some people might find unnerving.
49
204283
3379
in modi che alcuni potrebbero trovare snervante.
03:28
So where do our monkeys stand?
50
208829
1919
Ma come classifichiamo le scimmie?
03:30
Our closest genetic relatives have high social and intellectual capacities.
51
210957
4921
I nostri parenti più stretti hanno alte capacità sociali e intellettuali.
03:36
They live cooperatively in complex social groups
52
216045
2753
Vivono in cooperazione in gruppi sociali complessi
03:38
and recognize members of their community as individuals.
53
218798
3462
e riconoscono i membri della loro comunità come individui.
03:42
They support and learn from one another—
54
222635
2294
Si sostengono e imparano gli uni dagli altri,
03:45
there’s even evidence they respond to inequality.
55
225137
3045
ci sono anche prove che reagiscono alla disuguaglianza.
03:48
And of course, they’re capable of suffering.
56
228766
2920
E sono capaci di soffrire.
03:52
Yet despite all this, it’s still generally common opinion
57
232436
3879
Eppure, nonostante tutto questo, è ancora opinione comune
03:56
that a human’s life is more valuable than a monkey’s.
58
236315
3337
che la vita umana abbia più valore della vita di una scimmia
04:00
And that while killing one human to save five others is typically wrong,
59
240319
4505
e che uccidere una persona per salvarne altre cinque è sbagliato,
04:05
killing one monkey to save five humans is regrettable,
60
245074
4046
ma uccidere una scimmia per salvare cinque persone,
seppur deplorevole, è comunque moralmente accettabile.
04:09
but morally acceptable.
61
249370
1835
04:11
Even morally required.
62
251998
2127
Forse, anche moralmente necessario.
04:14
At some point, however, this calculation starts to feel unstable.
63
254917
4254
A un certo punto, però, questa logica inizia a vacillare.
04:19
Should we kill 100 monkeys to save five people?
64
259588
3671
Dovremmo uccidere 100 scimmie per salvare cinque persone?
04:23
How about 10,000?
65
263426
1877
E 10.000?
04:25
If moral status is binary and monkeys don't have it, then theoretically,
66
265469
4129
Se lo status morale è binario e le scimmie non ce l’hanno, teoricamente,
04:29
any number of monkeys could be sacrificed to save just one person.
67
269598
4255
dovremmo sacrificare qualsiasi numero di scimmie per salvare una persona.
04:34
But if moral status comes in degrees and monkeys have any at all,
68
274520
4463
Ma se ci sono vari gradi nello status morale e le scimmie ne hanno,
04:38
then at some point the balance will tip.
69
278983
2878
a un certo punto, gli equilibri si spostano.
04:43
The situation you're in complicates things even further.
70
283029
3753
Ma la situazione in cui vi trovate è ancora più complessa.
04:47
Unlike the scenarios above,
71
287366
1543
A differenza degli scenari menzionati,
04:48
there's no guarantee your work will ever save human lives.
72
288909
3546
non c’è garanzia che il vostro lavoro potrà mai salvare vite umane.
04:52
This is true of any animal experiment—
73
292997
2711
Questo vale per qualsiasi esperimento sugli animali.
04:56
the process of scientific discovery only sometimes leads to improved medical care.
74
296000
5088
Le scoperte scientifiche solo a volte portano a una migliore assistenza medica.
05:01
But in your case, it’s even trickier!
75
301547
2419
Ma nel vostro caso, è ancora più complicato!
05:04
While the government is worried smallpox might be weaponized,
76
304216
3587
Il governo teme che il vaiolo possa essere un’arma:
05:07
if they’re wrong the disease will remain eradicated,
77
307803
2878
se si sbagliano, la malattia rimarrà debellata
05:10
and your research won’t save anyone from smallpox.
78
310681
3128
e la vostra ricerca non salverà nessuno dal vaiolo.
05:14
You could try to quantify this uncertainty to help make your decision.
79
314060
4087
Potreste provare a quantificare questa incertezza per aiutarvi
a prendere una decisione.
05:18
But how do you determine what an acceptable amount of risk is?
80
318314
3378
Ma come si fa a determinare quanto rischio è accettabile?
05:21
And what if there’s so much uncertainty that your calculations
81
321901
3503
E se ci fosse così tanta incertezza che i vostri calcoli
05:25
are essentially wild guesses?
82
325404
2586
fossero essenzialmente ipotesi folli?
05:29
These kinds of moral mathematics get complicated fast,
83
329116
4338
Questi calcoli morali diventano complessi molto rapidamente
05:33
and some philosophers would argue they’re not even the best way
84
333454
3003
e alcuni filosofi sosterrebbero che non sono nemmeno il modo migliore
05:36
to make moral decisions.
85
336457
1710
per prendere decisioni morali.
05:38
But whatever you decide, your choice should be well justified.
86
338667
4714
Qualunque cosa decidiate deve essere giustificata adeguatamente.
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7