Would you sacrifice one person to save five? - Eleanor Nelsen

5,271,204 views ・ 2017-01-12

TED-Ed


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Sebastian Betti Revisor: Lidia Cámara de la Fuente
00:06
Imagine you're watching a runaway trolley barreling down the tracks
0
6949
4572
Imagina que estás viendo un tren fuera de control por las vías
00:11
straight towards five workers who can't escape.
1
11521
4440
que va hacia cinco trabajadores que no pueden escapar.
00:15
You happen to be standing next to a switch
2
15961
2218
Te encuentras junto a un interruptor
00:18
that will divert the trolley onto a second track.
3
18179
3501
que permite desviar el tren a una segunda vía.
00:21
Here's the problem.
4
21680
1300
Este es el problema.
00:22
That track has a worker on it, too, but just one.
5
22980
5089
En esa vía también hay un trabajador, pero solo uno.
00:28
What do you do?
6
28069
1321
¿Qué haces?
00:29
Do you sacrifice one person to save five?
7
29390
3295
¿Sacrificas a una persona para salvar a cinco?
00:32
This is the trolley problem,
8
32685
2729
Este es el problema del tren,
00:35
a version of an ethical dilemma that philosopher Philippa Foot devised in 1967.
9
35414
6689
una versión de un dilema ético que la filósofa Philippa Foot pensó en 1967.
00:42
It's popular because it forces us to think about how to choose
10
42103
3268
Es popular porque nos obliga a pensar cómo elegir
00:45
when there are no good choices.
11
45371
2689
cuando no hay buenas opciones.
00:48
Do we pick the action with the best outcome
12
48060
2140
¿Elegimos la acción que da el mejor resultado
00:50
or stick to a moral code that prohibits causing someone's death?
13
50200
5200
o nos apegamos a un código moral que prohíbe causar la muerte a alguien?
00:55
In one survey, about 90% of respondents said that it's okay to flip the switch,
14
55400
5437
En un estudio un 90 % de los encuestados dijo que está bien girar el interruptor,
01:00
letting one worker die to save five,
15
60837
3413
dejar que muera un trabajador para salvar a cinco.
01:04
and other studies, including a virtual reality simulation of the dilemma,
16
64250
4350
Y otros estudios, que incluyen una simulación del dilema,
01:08
have found similar results.
17
68600
2440
han encontrado resultados similares.
01:11
These judgments are consistent with the philosophical principle of utilitarianism
18
71040
5021
Estos juicios son coherentes con el principio filosófico del utilitarismo
01:16
which argues that the morally correct decision
19
76061
2460
que sostiene que la decisión moralmente correcta
01:18
is the one that maximizes well-being for the greatest number of people.
20
78521
4830
es el que maximiza el bienestar para el mayor número de personas.
01:23
The five lives outweigh one,
21
83351
2130
Cinco vidas superan a una,
01:25
even if achieving that outcome requires condemning someone to death.
22
85481
5081
incluso si el logro de ese resultado requiere condenar a muerte a alguien.
01:30
But people don't always take the utilitarian view,
23
90562
2909
Pero la gente no siempre tiene la visión utilitarista,
01:33
which we can see by changing the trolley problem a bit.
24
93471
3591
algo que podemos ver cambiando un poco el problema del tren.
01:37
This time, you're standing on a bridge over the track
25
97062
3241
Esta vez, estás parado en un puente sobre la vía
01:40
as the runaway trolley approaches.
26
100303
2889
conforme se acerca el tren fuera de control.
01:43
Now there's no second track,
27
103192
1681
Ahora no hay una segunda vía,
01:44
but there is a very large man on the bridge next to you.
28
104873
3921
pero hay un hombre muy grande en el puente a tu lado.
01:48
If you push him over, his body will stop the trolley,
29
108794
3698
Si lo empujas, su cuerpo detendrá el tren,
01:52
saving the five workers,
30
112492
1751
salvando a los cinco trabajadores,
01:54
but he'll die.
31
114243
1790
pero morirá.
01:56
To utilitarians, the decision is exactly the same,
32
116033
3399
Para los utilitaristas, la decisión es exactamente la misma,
01:59
lose one life to save five.
33
119432
2550
perder una vida para salvar cinco.
02:01
But in this case, only about 10% of people
34
121982
2602
Pero en este caso, solo un 10 % de las personas
02:04
say that it's OK to throw the man onto the tracks.
35
124584
3869
dice que está bien arrojar al hombre a las vías.
02:08
Our instincts tell us that deliberately causing someone's death
36
128453
3461
El instinto nos dice que deliberadamente causar la muerte de alguien
02:11
is different than allowing them to die as collateral damage.
37
131914
4389
es diferente que dejar que muera como un daño colateral.
02:16
It just feels wrong for reasons that are hard to explain.
38
136303
4650
Parece incorrecto por razones difíciles de explicar.
02:20
This intersection between ethics and psychology
39
140953
2520
Esta intersección entre la ética y la psicología
02:23
is what's so interesting about the trolley problem.
40
143473
3131
es lo que hace tan interesante el problema del tren.
02:26
The dilemma in its many variations reveal that what we think is right or wrong
41
146604
4380
El dilema en sus muchas variaciones revela que lo que creemos correcto o incorrecto
02:30
depends on factors other than a logical weighing of the pros and cons.
42
150984
5361
depende de factores distintos de un peso lógico de pros y contras.
Por ejemplo, es más probable que los hombres digan que está bien
02:36
For example, men are more likely than women
43
156345
2490
02:38
to say it's okay to push the man over the bridge.
44
158835
3669
empujar al hombre al puente, a que lo digan las mujeres.
02:42
So are people who watch a comedy clip before doing the thought experiment.
45
162504
4490
Algunos ven un clip de comedia antes de hacer el experimento mental.
02:46
And in one virtual reality study,
46
166994
2171
Y en un estudio de realidad virtual,
02:49
people were more willing to sacrifice men than women.
47
169165
3779
esa gente estaba más dispuesta a sacrificar a hombres que a mujeres.
02:52
Researchers have studied the brain activity
48
172944
2270
Los investigadores han estudiado la actividad cerebral
02:55
of people thinking through the classic and bridge versions.
49
175214
4321
de la gente que piensa las versiones clásica y la del puente.
02:59
Both scenarios activate areas of the brain involved in conscious decision-making
50
179535
4519
Ambos escenarios activan áreas del cerebro de toma de decisiones conscientes
03:04
and emotional responses.
51
184054
2460
y respuestas emocionales.
03:06
But in the bridge version, the emotional response is much stronger.
52
186514
4461
Pero en la versión del puente, la respuesta emocional es mucho más fuerte.
03:10
So is activity in an area of the brain
53
190975
2219
Y también la actividad en un área del cerebro
03:13
associated with processing internal conflict.
54
193194
3690
asociada al procesamiento del conflicto interno.
03:16
Why the difference?
55
196884
1261
¿Por qué la diferencia?
03:18
One explanation is that pushing someone to their death feels more personal,
56
198145
4767
Una explicación es que empujar a alguien a la muerte se vive como más personal,
03:22
activating an emotional aversion to killing another person,
57
202912
4013
y activa una aversión emocional a matar a otra persona,
03:26
but we feel conflicted because we know it's still the logical choice.
58
206925
4499
pero nos sentimos en conflicto porque sabemos que es la decisión lógica.
03:31
"Trolleyology" has been criticized by some philosophers and psychologists.
59
211424
4981
La troleología ha sido criticada por algunos filósofos y psicólogos.
03:36
They argue that it doesn't reveal anything because its premise is so unrealistic
60
216405
4861
Argumentan que no revela nada pues su premisa es tan poco realista
03:41
that study participants don't take it seriously.
61
221266
4159
que los participantes del estudio no lo toman en serio.
03:45
But new technology is making this kind of ethical analysis
62
225425
3131
Pero la nueva tecnología está haciendo que este tipo de análisis ético
03:48
more important than ever.
63
228556
2142
sea más importante que nunca.
03:50
For example, driver-less cars may have to handle choices
64
230698
3338
Por ejemplo, los autos sin conductor pueden tener que manejar opciones
03:54
like causing a small accident to prevent a larger one.
65
234036
3971
como causar un pequeño accidente para evitar uno mayor.
03:58
Meanwhile, governments are researching autonomous military drones
66
238007
3619
Mientras tanto, los gobiernos están investigando drones militares autónomos
04:01
that could wind up making decisions of whether they'll risk civilian casualties
67
241626
4350
que podrían eliminar el tener que tomar la decisión de arriesgar víctimas civiles
04:05
to attack a high-value target.
68
245976
3300
para atacar un objetivo de alto valor.
04:09
If we want these actions to be ethical,
69
249276
1921
Si queremos que estas acciones sean éticas,
04:11
we have to decide in advance how to value human life
70
251197
4200
tenemos que decidir de antemano cómo valorar la vida humana
04:15
and judge the greater good.
71
255397
2270
y juzgar el bien mayor.
04:17
So researchers who study autonomous systems
72
257667
2440
Por eso los investigadores que estudian los sistemas autónomos
04:20
are collaborating with philosophers
73
260107
2100
están colaborando con los filósofos
04:22
to address the complex problem of programming ethics into machines,
74
262207
5421
para resolver el problema complejo de programar la ética en las máquinas,
04:27
which goes to show that even hypothetical dilemmas
75
267628
3329
algo que muestra que incluso los dilemas hipotéticos
04:30
can wind up on a collision course with the real world.
76
270957
4101
pueden terminar colisionando con el mundo real.
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7