Ethical dilemma: Whose life is more valuable? - Rebecca L. Walker

912,341 views ・ 2022-11-08

TED-Ed


Por favor, faça duplo clique nas legendas em inglês abaixo para reproduzir o vídeo.

Tradutor: Hugo Sousa Revisora: Margarida Ferreira
00:08
Smallpox is one of the deadliest diseases in history,
0
8755
3878
A varíola é uma das doenças mais mortais na História,
00:13
but fortunately, it’s been eradicated for over 40 years.
1
13092
3587
mas felizmente, já está erradicada há mais de 40 anos.
00:16
However, samples of the virus that causes smallpox still exist,
2
16971
4755
No entanto, ainda há amostras do vírus que causa a varíola,
00:21
leading to concern that rogue actors might try to weaponize it.
3
21726
3670
o que levanta preocupações que malfeitores o transformem numa arma.
00:25
This is especially worrying
4
25772
1543
Isto é especialmente preocupante
00:27
because older smallpox vaccines can have serious side effects,
5
27315
3837
porque as vacinas antivariólicas antigas podem ter graves efeitos secundários,
00:31
and modern antiviral drugs have never been tested against this disease.
6
31152
4087
e nunca se testaram medicamentos antivirais modernos para esta doença.
00:35
To protect against this potential threat,
7
35656
2294
Para nos proteger desta potencial ameaça,
00:37
the US government is funding research to improve smallpox treatments
8
37950
3796
o governo dos EUA está a financiar estudos
para a melhoria das vacinas e tratamentos para a varíola.
00:41
and vaccines.
9
41746
1376
00:43
And since it’s unethical to expose people to a highly lethal virus,
10
43289
4505
E como não é ético sujeitar pessoas a um vírus com elevada letalidade,
00:47
labs are using humanity's closest biological relatives as research subjects.
11
47919
6047
os laboratórios estão a usar os animais biologicamente mais próximos dos humanos
como sujeitos da investigação.
00:54
But is it right to harm these animals to protect humanity from a potential threat?
12
54592
5380
Mas será correto prejudicar estes animais
para proteger a Humanidade de uma potencial ameaça?
01:00
Or should our closest relatives also be protected against lethal experiments?
13
60223
4671
Ou será que esses animais também deviam estar protegidos
contra experiências letais?
01:05
What would you do as a scientist faced with this very real scenario?
14
65353
5005
Se vocês fossem um cientista, o que fariam ao ser confrontados com este cenário real?
01:12
In many ways, this dilemma isn't new.
15
72068
2502
De certa forma, este dilema não é novo.
01:14
Animals have been used in research aimed at improving human welfare for centuries,
16
74695
4630
Há séculos que se usam animais em estudos para melhorar o bem-estar humano,
01:19
typically at the cost of their lives.
17
79492
2669
e normalmente pagam-no com as suas vidas.
01:22
This practice reflects the widespread belief that human lives are more valuable
18
82703
4463
Esta prática reflete a crença generalizada
de que uma vida humana tem mais valor que a vida não humana.
01:27
than non-human lives.
19
87166
1794
01:29
People have different views about the ethics of animal testing
20
89252
3587
As pessoas têm opiniões diferentes quanto à ética da experimentação animal
01:32
and how it’s conducted.
21
92839
1543
e à forma como é realizada.
01:34
But whatever your opinion,
22
94507
1585
Mas seja qual for a vossa opinião,
01:36
this scenario raises an important philosophical question:
23
96092
3545
este cenário coloca uma questão filosófica importante:
01:39
how do we determine the value of a life, whether human or non-human?
24
99846
4838
como é que determinamos o valor da vida, seja ela humana ou não humana?
01:45
One tool philosophers have used to consider this question is moral status.
25
105101
5380
Um recurso que tem sido utilizado pelos filósofos para avaliar esta questão
é o estatuto moral.
01:51
Beings with moral status should have their needs and interests
26
111065
3962
As necessidades e interesses dos seres com estatuto moral
01:55
taken into consideration by those making decisions that impact them.
27
115027
3838
deviam ser tidas em conta por aqueles que tomam decisões que os afetam.
01:59
Traditionally, moral status has been seen as binary—
28
119157
3545
Tradicionalmente, o estatuto moral tem sido visto como binário
02:02
either a being’s interests matter for their own sake, or they don’t.
29
122702
4129
— ou os interesses de um ser importam por si mesmos, ou não.
02:07
And historically, many philosophers believed that humans had moral status
30
127623
4213
Historicamente, muitos filósofos achavam que os humanos tinham estatuto moral
02:11
and other animals didn’t.
31
131836
1877
e os outros animais não.
02:14
Some contemporary philosophers like Shelly Kagan
32
134213
3128
Alguns filósofos contemporâneos como Shelly Kagan
02:17
have argued that moral status comes in degrees,
33
137341
3170
defendem que o estatuto moral tem vários graus,
02:20
but even in this model, he argues that people have the most moral status.
34
140803
4755
mas mesmo nesse modelo, ele defende que as pessoas têm o maior estatuto moral.
02:26
However, determining what grants any degree of moral status can be difficult.
35
146058
4964
Contudo, pode ser difícil determinar como conferir um grau de estatuto moral.
02:31
Enlightenment philosopher Immanuel Kant thought humans have moral status
36
151355
4255
Immanuel Kant, um filósofo do Iluminismo, achava que os humanos têm estatuto moral
02:35
because of their rational nature and ability to will their actions.
37
155610
3878
devido à sua natureza racional e capacidade de agir livremente.
02:39
A binary conception of moral status then suggests that beings with these capacities
38
159906
5380
Uma conceção binária do estatuto moral sugere que os seres com essas capacidades
02:45
are “persons” bearing full moral status,
39
165286
3462
são “pessoas” com estatuto moral completo,
02:48
while all other creatures are “things” without moral status.
40
168873
4671
enquanto que as outras criaturas são “coisas” sem estatuto moral.
02:54
But thinkers like Christine Korsgaard have argued a Kantian view
41
174378
3879
Mas teóricos como Christine Korsgaard defendem que a perspetiva kantiana
02:58
should include many non-human animals because of how they value their own good.
42
178257
4922
devia incluir muitos animais não humanos
devido à forma como valorizam o seu próprio bem-estar.
03:03
Another line of argument, suggested by utilitarianism’s founding father
43
183846
3921
Outra linha de pensamento,
sugerida por Jeremy Bentham, fundador do utilitarismo,
03:07
Jeremy Bentham and elaborated by Peter Singer,
44
187767
3211
e desenvolvida por Peter Singer,
03:11
claims that a capacity for suffering
45
191145
2127
afirma que a capacidade para o sofrimento
03:13
makes an entity worthy of moral consideration.
46
193272
3045
faz com que uma entidade seja digna de consideração moral.
03:16
These inclusive ways of thinking about moral status dramatically widen the scope
47
196859
5089
Estas formas inclusivas de teorizar o estatuto moral
alargam de forma significativa o âmbito da nossa responsabilidade moral,
03:21
of our moral responsibility,
48
201948
2168
03:24
in ways some people might find unnerving.
49
204283
3379
o que poderá perturbar algumas pessoas.
03:28
So where do our monkeys stand?
50
208829
1919
Então, onde se situam os macacos?
03:30
Our closest genetic relatives have high social and intellectual capacities.
51
210957
4921
Os animais geneticamente mais próximos de nós
têm capacidades intelectuais e sociais elevadas.
03:36
They live cooperatively in complex social groups
52
216045
2753
Vivem de forma cooperativa em grupos sociais complexos
03:38
and recognize members of their community as individuals.
53
218798
3462
e reconhecem membros da sua comunidade como indivíduos.
03:42
They support and learn from one another—
54
222635
2294
Entreajudam-se e aprendem uns com os outros,
03:45
there’s even evidence they respond to inequality.
55
225137
3045
alguns indícios até sugerem que eles reagem à desigualdade.
03:48
And of course, they’re capable of suffering.
56
228766
2920
E claro, têm capacidade para o sofrimento.
03:52
Yet despite all this, it’s still generally common opinion
57
232436
3879
Mas apesar de tudo isto, a opinião mais comum continua a ser
03:56
that a human’s life is more valuable than a monkey’s.
58
236315
3337
que a vida de um humano é mais valiosa que a de um macaco.
04:00
And that while killing one human to save five others is typically wrong,
59
240319
4505
E que, apesar de ser errado matar um humano para salvar cinco,
04:05
killing one monkey to save five humans is regrettable,
60
245074
4046
matar um macaco para salvar cinco humanos
é lamentável, mas é moralmente aceitável.
04:09
but morally acceptable.
61
249370
1835
04:11
Even morally required.
62
251998
2127
É quase uma obrigação moral.
04:14
At some point, however, this calculation starts to feel unstable.
63
254917
4254
Mas, a determinada altura, estes cálculos começam a ficar desequilibrados.
04:19
Should we kill 100 monkeys to save five people?
64
259588
3671
Devíamos matar cem macacos para salvar cinco pessoas?
04:23
How about 10,000?
65
263426
1877
E matar 10 000?
04:25
If moral status is binary and monkeys don't have it, then theoretically,
66
265469
4129
Se o estatuto moral é binário e os macacos não o têm, então em teoria,
04:29
any number of monkeys could be sacrificed to save just one person.
67
269598
4255
podem sacrificar-se inúmeros macacos para salvar uma só pessoa.
04:34
But if moral status comes in degrees and monkeys have any at all,
68
274520
4463
Mas se o estatuto moral tem vários graus e os macacos têm algum,
04:38
then at some point the balance will tip.
69
278983
2878
então a certa altura deixará de haver equilíbrio.
04:43
The situation you're in complicates things even further.
70
283029
3753
A situação em que nos encontramos ainda complica mais as coisas.
04:47
Unlike the scenarios above,
71
287366
1543
Ao contrário dos cenários acima,
04:48
there's no guarantee your work will ever save human lives.
72
288909
3546
não há garantia de que o nosso trabalho alguma vez salve vidas humanas.
04:52
This is true of any animal experiment—
73
292997
2711
Esta é a realidade de qualquer experiência com animais
04:56
the process of scientific discovery only sometimes leads to improved medical care.
74
296000
5088
— o processo da descoberta científica nem sempre leva a melhorias na saúde.
05:01
But in your case, it’s even trickier!
75
301547
2419
Mas no nosso caso, ainda é mais complicado!
05:04
While the government is worried smallpox might be weaponized,
76
304216
3587
Apesar de o governo estar preocupado que a varíola possa ser usada como arma,
05:07
if they’re wrong the disease will remain eradicated,
77
307803
2878
se estiver errado, a doença permanecerá erradicada,
05:10
and your research won’t save anyone from smallpox.
78
310681
3128
e a investigação não salvará ninguém da varíola.
05:14
You could try to quantify this uncertainty to help make your decision.
79
314060
4087
Podemos tentar quantificar esta incerteza de forma a tomar uma decisão.
05:18
But how do you determine what an acceptable amount of risk is?
80
318314
3378
Mas como podemos determinar um grau aceitável de risco?
05:21
And what if there’s so much uncertainty that your calculations
81
321901
3503
E se a incerteza for tanta que os nossos cálculos
05:25
are essentially wild guesses?
82
325404
2586
sejam essencialmente tiros no escuro?
05:29
These kinds of moral mathematics get complicated fast,
83
329116
4338
Este tipo de cálculos morais podem complicar-se muito facilmente,
05:33
and some philosophers would argue they’re not even the best way
84
333454
3003
e alguns filósofos dirão que nem são a melhor forma de tomar decisões morais.
05:36
to make moral decisions.
85
336457
1710
05:38
But whatever you decide, your choice should be well justified.
86
338667
4714
Mas seja qual for a nossa decisão, a escolha deverá ser bem justificada.
Sobre este site

Este sítio irá apresentar-lhe vídeos do YouTube que são úteis para a aprendizagem do inglês. Verá lições de inglês ensinadas por professores de primeira linha de todo o mundo. Faça duplo clique nas legendas em inglês apresentadas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas deslocam-se em sincronia com a reprodução do vídeo. Se tiver quaisquer comentários ou pedidos, por favor contacte-nos utilizando este formulário de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7