Ethical dilemma: Whose life is more valuable? - Rebecca L. Walker

912,341 views ・ 2022-11-08

TED-Ed


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Nicole Schmidt Mezzera Revisor: Sebastian Sanchez
00:08
Smallpox is one of the deadliest diseases in history,
0
8755
3878
La viruela es una de las enfermedades más fatales de la historia,
00:13
but fortunately, it’s been eradicated for over 40 years.
1
13092
3587
pero afortunadamente, ha sido erradicada en los últimos 40 años.
00:16
However, samples of the virus that causes smallpox still exist,
2
16971
4755
Sin embargo, aún existen muestras del virus que provoca la viruela,
00:21
leading to concern that rogue actors might try to weaponize it.
3
21726
3670
lo cual genera preocupación de que sea utilizado como arma.
00:25
This is especially worrying
4
25772
1543
Esto es alarmante
00:27
because older smallpox vaccines can have serious side effects,
5
27315
3837
porque vacunas antiguas contra la viruela pueden tener efectos secundarios graves,
00:31
and modern antiviral drugs have never been tested against this disease.
6
31152
4087
y nunca se probó medicación antiviral contra esta enfermedad.
00:35
To protect against this potential threat,
7
35656
2294
Para protegernos de esta posible amenaza,
00:37
the US government is funding research to improve smallpox treatments
8
37950
3796
el gobierno estadounidense está invirtiendo
en mejorar los tratamientos y las vacunas contra la viruela.
00:41
and vaccines.
9
41746
1376
00:43
And since it’s unethical to expose people to a highly lethal virus,
10
43289
4505
Y como no es ético exponer personas a un virus altamente letal,
00:47
labs are using humanity's closest biological relatives as research subjects.
11
47919
6047
los laboratorios utilizan a sus parientes más cercanos como objeto de estudio.
00:54
But is it right to harm these animals to protect humanity from a potential threat?
12
54592
5380
Pero, ¿es correcto dañar a estos animales para protegernos de una posible amenaza?
01:00
Or should our closest relatives also be protected against lethal experiments?
13
60223
4671
¿O deberíamos protegerlos también a ellos de experimentos letales?
01:05
What would you do as a scientist faced with this very real scenario?
14
65353
5005
¿Qué harías tú como científico frente a esta situación tan real?
01:12
In many ways, this dilemma isn't new.
15
72068
2502
Este dilema no es nuevo.
01:14
Animals have been used in research aimed at improving human welfare for centuries,
16
74695
4630
Durante siglos se han utilizado animales como objeto de estudio para nuestra salud,
01:19
typically at the cost of their lives.
17
79492
2669
muchas veces costándoles la vida.
01:22
This practice reflects the widespread belief that human lives are more valuable
18
82703
4463
Esta práctica refleja la creencia de que las vidas humanas son más valiosas
01:27
than non-human lives.
19
87166
1794
que las vidas no humanas.
01:29
People have different views about the ethics of animal testing
20
89252
3587
Hay diferentes opiniones sobre la ética del ensayo con animales
01:32
and how it’s conducted.
21
92839
1543
y cómo se conduce.
01:34
But whatever your opinion,
22
94507
1585
Pero cualquiera sea tu opinión,
01:36
this scenario raises an important philosophical question:
23
96092
3545
este caso hace surgir una pregunta filosófica importante:
01:39
how do we determine the value of a life, whether human or non-human?
24
99846
4838
¿cómo determinamos el valor de una vida, sea humana o no?
01:45
One tool philosophers have used to consider this question is moral status.
25
105101
5380
Una herramienta que emplearon filósofos para responderla es el estatus moral.
01:51
Beings with moral status should have their needs and interests
26
111065
3962
Seres con estatus moral deberían tener sus necesidades e intereses
01:55
taken into consideration by those making decisions that impact them.
27
115027
3838
bajo la consideración de quienes toman decisiones que los afectan.
01:59
Traditionally, moral status has been seen as binary—
28
119157
3545
Tradicionalmente, el estatus moral se ha percibido de manera binaria:
02:02
either a being’s interests matter for their own sake, or they don’t.
29
122702
4129
o los intereses de un ser son importantes para su propio bien, o no lo son.
02:07
And historically, many philosophers believed that humans had moral status
30
127623
4213
Muchos filósofos a lo largo de la historia han considerado
que los humanos tenemos estatus moral pero que el resto de animales no.
02:11
and other animals didn’t.
31
131836
1877
02:14
Some contemporary philosophers like Shelly Kagan
32
134213
3128
Algunos filósofos contemporáneos como Shelly Kagan
02:17
have argued that moral status comes in degrees,
33
137341
3170
discutieron que el estatus moral tiene distintos grados,
02:20
but even in this model, he argues that people have the most moral status.
34
140803
4755
pero incluso en este modelo, argumenta que los humanos tienen el mayor grado.
02:26
However, determining what grants any degree of moral status can be difficult.
35
146058
4964
Sin embargo, delimitar cada grado de estatus moral puede ser difícil.
02:31
Enlightenment philosopher Immanuel Kant thought humans have moral status
36
151355
4255
El filósofo de la Ilustración Immanuel Kant creía que los humanos
tienen estatus moral por su naturaleza racional y su capacidad de voluntad.
02:35
because of their rational nature and ability to will their actions.
37
155610
3878
02:39
A binary conception of moral status then suggests that beings with these capacities
38
159906
5380
Una concepción binaria del estatus moral propuso entonces
que seres con estas capacidades son “personas” con estatus moral total,
02:45
are “persons” bearing full moral status,
39
165286
3462
02:48
while all other creatures are “things” without moral status.
40
168873
4671
mientras que el resto de las criaturas son “cosas” sin estatus moral.
02:54
But thinkers like Christine Korsgaard have argued a Kantian view
41
174378
3879
Pero pensadores como Christine Korsgaard argumentaron que una perspectiva kantiana
02:58
should include many non-human animals because of how they value their own good.
42
178257
4922
debería incluir muchos animales no humanos por su manera de valorar su propio bien.
03:03
Another line of argument, suggested by utilitarianism’s founding father
43
183846
3921
Otra línea de argumento que propuso el padre y fundador del utilitarismo
03:07
Jeremy Bentham and elaborated by Peter Singer,
44
187767
3211
Jeremy Bentham, y elaborada por Peter Singer,
03:11
claims that a capacity for suffering
45
191145
2127
establece que la capacidad de sufrimiento
03:13
makes an entity worthy of moral consideration.
46
193272
3045
hace que un ser sea digno de consideración moral.
03:16
These inclusive ways of thinking about moral status dramatically widen the scope
47
196859
5089
Estas maneras inclusivas de pensar en el estatus moral
amplían dramáticamente el alcance de nuestra responsabilidad moral,
03:21
of our moral responsibility,
48
201948
2168
03:24
in ways some people might find unnerving.
49
204283
3379
en formas que algunas personas pueden encontrar inquietantes.
03:28
So where do our monkeys stand?
50
208829
1919
¿Y qué hay de nuestros monos?
03:30
Our closest genetic relatives have high social and intellectual capacities.
51
210957
4921
Nuestros parientes genéticos más cercanos
tienen altas capacidades sociales e intelectuales.
03:36
They live cooperatively in complex social groups
52
216045
2753
Viven de manera cooperativa en grupos sociales complejos
03:38
and recognize members of their community as individuals.
53
218798
3462
y reconocen a los miembros de su comunidad como individuos.
03:42
They support and learn from one another—
54
222635
2294
Se apoyan entre sí y aprenden uno de otro.
03:45
there’s even evidence they respond to inequality.
55
225137
3045
Incluso hay evidencia de que responden a la inequidad.
03:48
And of course, they’re capable of suffering.
56
228766
2920
Y, por supuesto, son capaces de sufrir.
03:52
Yet despite all this, it’s still generally common opinion
57
232436
3879
Pero, a pesar de todo esto, sigue siendo la opinión común general
03:56
that a human’s life is more valuable than a monkey’s.
58
236315
3337
que la vida humana es más valiosa que la de los monos,
04:00
And that while killing one human to save five others is typically wrong,
59
240319
4505
y que mientras matar a un humano para salvar a otros cinco no es correcto,
04:05
killing one monkey to save five humans is regrettable,
60
245074
4046
matar a un mono para salvar a cinco humanos es lamentable,
04:09
but morally acceptable.
61
249370
1835
pero moralmente aceptable.
04:11
Even morally required.
62
251998
2127
Incluso moralmente necesario.
04:14
At some point, however, this calculation starts to feel unstable.
63
254917
4254
En cierto punto, sin embargo, este cálculo comienza a parecer inestable.
04:19
Should we kill 100 monkeys to save five people?
64
259588
3671
¿Deberíamos matar a 100 monos para salvar a cinco personas?
04:23
How about 10,000?
65
263426
1877
¿Y qué hay de 10 000?
04:25
If moral status is binary and monkeys don't have it, then theoretically,
66
265469
4129
Si el estatus moral es binario y los monos no lo tienen, entonces, teóricamente,
04:29
any number of monkeys could be sacrificed to save just one person.
67
269598
4255
cualquier cantidad de monos puede sacrificarse para salvar a una persona.
04:34
But if moral status comes in degrees and monkeys have any at all,
68
274520
4463
Pero, si el estatus moral tiene distintos grados y los monos tienen alguno de ellos,
04:38
then at some point the balance will tip.
69
278983
2878
entonces en cierto punto la balanza cederá de un lado.
04:43
The situation you're in complicates things even further.
70
283029
3753
La situación en la que te encuentras complica las cosas aún más.
04:47
Unlike the scenarios above,
71
287366
1543
A diferencia de estos casos,
04:48
there's no guarantee your work will ever save human lives.
72
288909
3546
no hay ninguna garantía de que tu trabajo salve vidas humanas.
04:52
This is true of any animal experiment—
73
292997
2711
Esta es la realidad de todo ensayo animal.
04:56
the process of scientific discovery only sometimes leads to improved medical care.
74
296000
5088
El proceso de descubrimiento científico solo a veces lleva a avances médicos.
05:01
But in your case, it’s even trickier!
75
301547
2419
Pero en tu caso, ¡es aún más complicado!
05:04
While the government is worried smallpox might be weaponized,
76
304216
3587
Mientras el gobierno se preocupa por la viruela siendo una amenza,
05:07
if they’re wrong the disease will remain eradicated,
77
307803
2878
si se equivocan, la enfermedad continuará erradicada,
05:10
and your research won’t save anyone from smallpox.
78
310681
3128
y tu investigación no salvará a nadie de la viruela.
05:14
You could try to quantify this uncertainty to help make your decision.
79
314060
4087
Podrías intentar cuantificar esta incertidumbre para tomar una decisión
05:18
But how do you determine what an acceptable amount of risk is?
80
318314
3378
pero, ¿cómo determinas cuánta es una cantidad aceptable de riesgo?
05:21
And what if there’s so much uncertainty that your calculations
81
321901
3503
Y, ¿qué pasa si hay tanta incertidumbre que tus cálculos
05:25
are essentially wild guesses?
82
325404
2586
son meras aproximaciones?
05:29
These kinds of moral mathematics get complicated fast,
83
329116
4338
Este tipo de matemáticas morales se complica rápidamente,
05:33
and some philosophers would argue they’re not even the best way
84
333454
3003
y filósofos podrían argumentar que no es la mejor manera
05:36
to make moral decisions.
85
336457
1710
de tomar decisiones morales.
05:38
But whatever you decide, your choice should be well justified.
86
338667
4714
Pero cualquiera sea tu decisión, debería estar bien justificada.
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7