Ethical dilemma: Whose life is more valuable? - Rebecca L. Walker

706,442 views ・ 2022-11-08

TED-Ed


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

Traducteur: Sandra Ro Relecteur: Pari A
00:08
Smallpox is one of the deadliest diseases in history,
0
8755
3878
La variole est l’une des maladies les plus mortelles de l’histoire,
00:13
but fortunately, it’s been eradicated for over 40 years.
1
13092
3587
mais heureusement, cela fait plus de 40 ans qu’elle a été éradiquée.
00:16
However, samples of the virus that causes smallpox still exist,
2
16971
4755
Cependant, des échantillons du virus qui cause la variole existent toujours.
00:21
leading to concern that rogue actors might try to weaponize it.
3
21726
3670
On craint que des acteurs malveillants ne tentent de les utiliser comme arme.
00:25
This is especially worrying
4
25772
1543
C’est une situation inquiétante
00:27
because older smallpox vaccines can have serious side effects,
5
27315
3837
car les anciens vaccins antivarioliques peuvent avoir des effets secondaires,
00:31
and modern antiviral drugs have never been tested against this disease.
6
31152
4087
et les médicaments modernes n’ont jamais été testés contre cette maladie.
00:35
To protect against this potential threat,
7
35656
2294
Pour se protéger contre cette menace, le gouvernement américain
00:37
the US government is funding research to improve smallpox treatments
8
37950
3796
finance la recherche des traitements et des vaccins contre la variole.
00:41
and vaccines.
9
41746
1376
00:43
And since it’s unethical to expose people to a highly lethal virus,
10
43289
4505
Et puisque c’est contraire à l’éthique d’exposer les gens à un virus mortel,
00:47
labs are using humanity's closest biological relatives as research subjects.
11
47919
6047
les laboratoires utilisent les singes comme sujets de recherche.
00:54
But is it right to harm these animals to protect humanity from a potential threat?
12
54592
5380
Mais est-il juste de nuire à ces animaux pour protéger l’humanité de cette menace ?
01:00
Or should our closest relatives also be protected against lethal experiments?
13
60223
4671
Nos plus proches parents, doivent-ils être protégés contre ces expériences ?
01:05
What would you do as a scientist faced with this very real scenario?
14
65353
5005
Que feriez-vous en tant que scientifique confronté à ce scénario très réel ?
01:12
In many ways, this dilemma isn't new.
15
72068
2502
À bien des égards, ce dilemme n’est pas nouveau.
01:14
Animals have been used in research aimed at improving human welfare for centuries,
16
74695
4630
Les animaux sont utilisés en recherche pour améliorer notre bien-être,
01:19
typically at the cost of their lives.
17
79492
2669
généralement au prix de leurs vies.
01:22
This practice reflects the widespread belief that human lives are more valuable
18
82703
4463
Cette pratique reflète la croyance commune que nos vies ont plus de valeur
01:27
than non-human lives.
19
87166
1794
que les vies non-humaines.
01:29
People have different views about the ethics of animal testing
20
89252
3587
Les opinions diffèrent concernant les tests sur les animaux
01:32
and how it’s conducted.
21
92839
1543
et la façon dont ils sont menés.
01:34
But whatever your opinion,
22
94507
1585
Quelle que soit votre opinion,
01:36
this scenario raises an important philosophical question:
23
96092
3545
ce scénario soulève une question philosophique importante :
01:39
how do we determine the value of a life, whether human or non-human?
24
99846
4838
comment déterminer la valeur d’une vie, qu’elle soit humaine ou non ?
01:45
One tool philosophers have used to consider this question is moral status.
25
105101
5380
Les philosophes se sont aidés du statut moral pour considérer cette question.
01:51
Beings with moral status should have their needs and interests
26
111065
3962
Les êtres ayant un statut moral devraient voir leurs besoins et leurs intérêts
01:55
taken into consideration by those making decisions that impact them.
27
115027
3838
pris en considération par ceux qui prennent les décisions les concernant.
01:59
Traditionally, moral status has been seen as binary—
28
119157
3545
Traditionnellement, le statut moral a été considéré comme binaire —
02:02
either a being’s interests matter for their own sake, or they don’t.
29
122702
4129
soit les intérêts d’un être comptent, soit, ils ne comptent pas.
02:07
And historically, many philosophers believed that humans had moral status
30
127623
4213
Historiquement, beaucoup de philosophes croyaient que nous avions un statut moral
02:11
and other animals didn’t.
31
131836
1877
contrairement aux autres animaux.
02:14
Some contemporary philosophers like Shelly Kagan
32
134213
3128
Certains philosophes contemporains comme Shelly Kagan
02:17
have argued that moral status comes in degrees,
33
137341
3170
ont soutenu que le statut moral se décline en degrés,
02:20
but even in this model, he argues that people have the most moral status.
34
140803
4755
mais même dans ce modèle, il affirme que nous avons le statut moral le plus élevé.
02:26
However, determining what grants any degree of moral status can be difficult.
35
146058
4964
Cependant, il est difficile de déterminer ce qui confère un quelconque statut moral.
02:31
Enlightenment philosopher Immanuel Kant thought humans have moral status
36
151355
4255
Le philosophe des Lumières, Emmanuel Kant pensait que nous avions un statut moral
02:35
because of their rational nature and ability to will their actions.
37
155610
3878
en raison de notre nature rationnelle et de notre capacité à vouloir nos actes.
02:39
A binary conception of moral status then suggests that beings with these capacities
38
159906
5380
Une conception binaire du statut moral suggère que ceux dotés de ces capacités
02:45
are “persons” bearing full moral status,
39
165286
3462
sont des « personnes » dotées d’un statut moral complet,
02:48
while all other creatures are “things” without moral status.
40
168873
4671
tandis que les autres créatures sont des « choses » sans statut moral.
02:54
But thinkers like Christine Korsgaard have argued a Kantian view
41
174378
3879
Des penseurs comme Christine Korsgaard ont affirmé qu’une vision kantienne
02:58
should include many non-human animals because of how they value their own good.
42
178257
4922
devrait inclure des animaux à cause de la valeur qu’ils accordent au bien-être.
03:03
Another line of argument, suggested by utilitarianism’s founding father
43
183846
3921
Une autre ligne d’argument, suggérée par le père fondateur de l’utilitarisme
03:07
Jeremy Bentham and elaborated by Peter Singer,
44
187767
3211
Jeremy Bentham et développé par Peter Singer,
03:11
claims that a capacity for suffering
45
191145
2127
prétend qu’une capacité de souffrance
03:13
makes an entity worthy of moral consideration.
46
193272
3045
rend une entité digne de considération morale.
03:16
These inclusive ways of thinking about moral status dramatically widen the scope
47
196859
5089
Ces manières de penser le statut moral élargissent considérablement le champ
03:21
of our moral responsibility,
48
201948
2168
de notre responsabilité morale,
03:24
in ways some people might find unnerving.
49
204283
3379
d’une manière que certains pourraient trouver déconcertante.
03:28
So where do our monkeys stand?
50
208829
1919
Comment se positionnent nos singes ?
03:30
Our closest genetic relatives have high social and intellectual capacities.
51
210957
4921
Nos plus proches parents génétiques ont des capacités sociales et intellectuelles.
03:36
They live cooperatively in complex social groups
52
216045
2753
Ils vivent en coopération dans des groupes sociaux
03:38
and recognize members of their community as individuals.
53
218798
3462
et reconnaissent les membres de leur communauté comme des individus.
03:42
They support and learn from one another—
54
222635
2294
Ils s’entraident et apprennent les uns des autres
03:45
there’s even evidence they respond to inequality.
55
225137
3045
il y a même des preuves qu’ils réagissent à l’inégalité.
03:48
And of course, they’re capable of suffering.
56
228766
2920
Et bien sûr, ils sont capables d’éprouver de la souffrance.
03:52
Yet despite all this, it’s still generally common opinion
57
232436
3879
Pourtant, malgré tout cela, il est toujours considéré comme acceptable
03:56
that a human’s life is more valuable than a monkey’s.
58
236315
3337
que la vie d’un humain ait plus de valeur que celle d’un singe.
04:00
And that while killing one human to save five others is typically wrong,
59
240319
4505
Si tuer un humain pour en sauver cinq autres est inconcevable,
04:05
killing one monkey to save five humans is regrettable,
60
245074
4046
tuer un singe pour sauver cinq humains est regrettable,
04:09
but morally acceptable.
61
249370
1835
mais moralement acceptable.
04:11
Even morally required.
62
251998
2127
Même moralement requis.
04:14
At some point, however, this calculation starts to feel unstable.
63
254917
4254
Cependant, à un certain point, ce calcul commence à être instable.
04:19
Should we kill 100 monkeys to save five people?
64
259588
3671
Devrions-nous tuer 100 singes pour sauver cinq personnes ?
04:23
How about 10,000?
65
263426
1877
Que diriez-vous de 10 000 ?
04:25
If moral status is binary and monkeys don't have it, then theoretically,
66
265469
4129
Si le statut moral est binaire et que les singes ne l’ont pas, alors,
04:29
any number of monkeys could be sacrificed to save just one person.
67
269598
4255
n’importe quel nombre de singes pourrait être sacrifié pour sauver une personne.
04:34
But if moral status comes in degrees and monkeys have any at all,
68
274520
4463
Mais si ce statut se décline en degrés et que les singes n’en ont aucun,
04:38
then at some point the balance will tip.
69
278983
2878
la balance penchera à un moment donné.
04:43
The situation you're in complicates things even further.
70
283029
3753
La situation dans laquelle vous êtes complique les choses.
04:47
Unlike the scenarios above,
71
287366
1543
Contrairement à ces scénarios,
04:48
there's no guarantee your work will ever save human lives.
72
288909
3546
il n’y aucune garantie que votre travail sauvera un jour des vies humaines.
04:52
This is true of any animal experiment—
73
292997
2711
Ceci est vrai pour toute expérience sur les animaux —
04:56
the process of scientific discovery only sometimes leads to improved medical care.
74
296000
5088
le processus scientifique conduit rarement à l’amélioration des soins médicaux.
05:01
But in your case, it’s even trickier!
75
301547
2419
Mais dans votre cas, c’est encore plus délicat !
05:04
While the government is worried smallpox might be weaponized,
76
304216
3587
Tandis que le gouvernement s’inquiète que la variole ne devienne une arme,
05:07
if they’re wrong the disease will remain eradicated,
77
307803
2878
s’ils ont tort la maladie restera éradiquée,
05:10
and your research won’t save anyone from smallpox.
78
310681
3128
et vos recherches ne sauveront personne de la variole.
05:14
You could try to quantify this uncertainty to help make your decision.
79
314060
4087
Vous pourriez évaluer cette incertitude pour vous aider à prendre votre décision.
05:18
But how do you determine what an acceptable amount of risk is?
80
318314
3378
Mais comment déterminez-vous le niveau de risque acceptable ?
05:21
And what if there’s so much uncertainty that your calculations
81
321901
3503
Et que se passe-t-il si l’incertitude est telle que vos calculs
05:25
are essentially wild guesses?
82
325404
2586
sont essentiellement des spéculations ?
05:29
These kinds of moral mathematics get complicated fast,
83
329116
4338
Ce genre de mathématiques morales devient vite compliqué,
05:33
and some philosophers would argue they’re not even the best way
84
333454
3003
et des philosophes pensent que ce n’est pas le meilleur moyen
05:36
to make moral decisions.
85
336457
1710
de prendre des décisions morales.
05:38
But whatever you decide, your choice should be well justified.
86
338667
4714
Mais quelle que soit votre décision, votre choix doit être bien justifié.
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7