The ethical dilemma of self-driving cars - Patrick Lin

2,093,653 views ・ 2015-12-08

TED-Ed


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Lidia Cámara de la Fuente Revisor: Ciro Gomez
00:07
This is a thought experiment.
0
7246
2042
Este es un experimento mental.
00:09
Let's say at some point in the not so distant future,
1
9288
2625
Digamos que en algún momento en un futuro cercano,
00:11
you're barreling down the highway in your self-driving car,
2
11913
3583
irás a toda velocidad por la carretera en tu automóvil robótico
00:15
and you find yourself boxed in on all sides by other cars.
3
15496
4292
y estarás acorralado por todos lados por otros autos.
00:19
Suddenly, a large, heavy object falls off the truck in front of you.
4
19788
4416
De repente, un objeto grande y pesado cae del camión ante ti.
00:24
Your car can't stop in time to avoid the collision,
5
24204
3167
Tu auto no puede parar a tiempo para evitar la colisión,
00:27
so it needs to make a decision:
6
27371
2042
por eso debes tomar una decisión:
00:29
go straight and hit the object,
7
29413
2250
seguir recto y golpear el objeto,
00:31
swerve left into an SUV,
8
31663
2291
girar a la izquierda hacia un 4x4
00:33
or swerve right into a motorcycle.
9
33954
3000
o desviarse a la derecha hacia una motocicleta.
00:36
Should it prioritize your safety by hitting the motorcycle,
10
36954
3500
¿Debe priorizar tu seguridad golpeando la motocicleta,
00:40
minimize danger to others by not swerving,
11
40454
2792
minimizar el peligro para los demás no desviándose,
00:43
even if it means hitting the large object and sacrificing your life,
12
43246
4083
incluso si eso significa golpear el objeto grande y sacrificar tu vida,
00:47
or take the middle ground by hitting the SUV,
13
47329
2750
u optar por el término medio golpeando la camioneta,
00:50
which has a high passenger safety rating?
14
50079
3000
que tiene un alto índice de seguridad para sus pasajeros?
00:53
So what should the self-driving car do?
15
53079
3208
Entonces, ¿qué debe hacer el automóvil robótico?
00:56
If we were driving that boxed in car in manual mode,
16
56287
3209
Si condujéramos el automóvil en modo manual,
00:59
whichever way we'd react would be understood as just that,
17
59496
3541
de cualquier forma que quisiéramos reaccionar se entendería como solo eso,
01:03
a reaction,
18
63037
1292
una reacción,
01:04
not a deliberate decision.
19
64329
2250
no una decisión deliberada.
01:06
It would be an instinctual panicked move with no forethought or malice.
20
66579
4292
Sería un movimiento de pánico instintivo sin premeditación o malicia.
01:10
But if a programmer were to instruct the car to make the same move,
21
70871
3625
Pero si un programador tuviera que asignar al auto hacer un movimiento,
01:14
given conditions it may sense in the future,
22
74496
2833
dadas las condiciones que pueden presentarse en el futuro,
01:17
well, that looks more like premeditated homicide.
23
77329
4292
bueno, eso se parece más a homicidio premeditado.
01:21
Now, to be fair,
24
81621
1000
Ahora, para ser justos,
01:22
self-driving cars are predicted to dramatically reduce traffic accidents
25
82621
4083
con los autos robóticos se prevé reducir drásticamente los accidentes de tráfico
01:26
and fatalities
26
86704
1250
y las muertes
01:27
by removing human error from the driving equation.
27
87954
3167
por la eliminación del error humano en la conducción.
Además, puede haber todo tipo de beneficios adicionales:
01:31
Plus, there may be all sorts of other benefits:
28
91121
2375
01:33
eased road congestion,
29
93496
1667
congestión vial aliviada,
01:35
decreased harmful emissions,
30
95163
1541
disminución de emisiones nocivas,
01:36
and minimized unproductive and stressful driving time.
31
96704
4625
y reducción al mínimo del tiempo de conducción improductivo y estresante.
01:41
But accidents can and will still happen,
32
101329
2167
Pero los accidentes pueden suceder y sucederán,
01:43
and when they do,
33
103496
1167
y cuando sucedan,
01:44
their outcomes may be determined months or years in advance
34
104663
4500
los resultados pueden determinarse meses o años de antelación
01:49
by programmers or policy makers.
35
109163
2583
por programadores o diseñadores de políticas.
01:51
And they'll have some difficult decisions to make.
36
111746
2500
Y ellos tendrán que tomar algunas decisiones difíciles.
01:54
It's tempting to offer up general decision-making principles,
37
114246
2958
Es tentador ofrecer principios generales de decisión,
01:57
like minimize harm,
38
117204
1875
como minimizar el daño,
01:59
but even that quickly leads to morally murky decisions.
39
119079
3375
pero eso incluso lleva fácilmente a decisiones moralmente cuestionables.
02:02
For example,
40
122454
1167
Por ejemplo,
02:03
let's say we have the same initial set up,
41
123621
2000
con la misma configuración inicial,
02:05
but now there's a motorcyclist wearing a helmet to your left
42
125621
2875
pero a la izquierda un motociclista con casco
02:08
and another one without a helmet to your right.
43
128496
2792
y a la derecha otro sin casco.
02:11
Which one should your robot car crash into?
44
131288
3083
¿Con quién debería chocar el automóvil robótico?
02:14
If you say the biker with the helmet because she's more likely to survive,
45
134371
4083
Si dices con motociclista con casco por tener más probabilidad de sobrevivir,
02:18
then aren't you penalizing the responsible motorist?
46
138454
2917
entonces, ¿no penalizas al motociclista responsable?
02:21
If, instead, you save the biker without the helmet
47
141371
2750
Si, en cambio, vas hacia al motociclista sin casco
02:24
because he's acting irresponsibly,
48
144121
2000
porque él actúa de manera irresponsable, entonces
02:26
then you've gone way beyond the initial design principle about minimizing harm,
49
146121
4875
has ido mucho más allá del principio de diseño inicial de minimización de daños,
02:30
and the robot car is now meting out street justice.
50
150996
3875
y el automóvil robótico está ahora haciendo justicia en la calle.
02:34
The ethical considerations get more complicated here.
51
154871
3542
Las consideraciones éticas se complican más aquí.
02:38
In both of our scenarios,
52
158413
1375
En ambos escenarios,
02:39
the underlying design is functioning as a targeting algorithm of sorts.
53
159788
4500
el diseño subyacente funciona como un algoritmo de focalización de clases.
02:44
In other words,
54
164288
1000
En otras palabras,
02:45
it's systematically favoring or discriminating
55
165288
2500
favorece o discrimina sistemáticamente
02:47
against a certain type of object to crash into.
56
167788
3500
en contra de chocarse con un determinado tipo de objeto.
02:51
And the owners of the target vehicles
57
171288
2333
Y los dueños de los vehículos diana
02:53
will suffer the negative consequences of this algorithm
58
173621
3042
sufrirán las consecuencias negativas de este algoritmo
02:56
through no fault of their own.
59
176663
2083
por causas ajenas a su voluntad.
02:58
Our new technologies are opening up many other novel ethical dilemmas.
60
178746
4667
Nuestras nuevas tecnologías abren muchos otros dilemas éticos novedosos.
03:03
For instance, if you had to choose between
61
183413
2083
Por ejemplo, si tuvieras que elegir entre
03:05
a car that would always save as many lives as possible in an accident,
62
185496
4042
un auto que siempre quiera salvar tantas vidas como fuera posible en un accidente,
03:09
or one that would save you at any cost,
63
189538
3041
o uno que te salvara a ti a toda costa,
03:12
which would you buy?
64
192579
1667
¿cuál comprarías?
03:14
What happens if the cars start analyzing and factoring in
65
194246
3333
¿Qué sucede si los autos empiezan a analizar y factorizar
03:17
the passengers of the cars and the particulars of their lives?
66
197579
3459
a los pasajeros de los autos y los detalles de sus vidas?
¿Podría darse el caso de que una decisión al azar
03:21
Could it be the case that a random decision
67
201038
2166
03:23
is still better than a predetermined one designed to minimize harm?
68
203204
4917
siga siendo mejor que una predeterminada diseñada para minimizar el daño?
03:28
And who should be making all of these decisions anyhow?
69
208121
2667
¿Y quién debería tomar estas decisiones de todos modos?
03:30
Programmers? Companies? Governments?
70
210829
2709
¿Los programadores?
¿Las empresas?
¿Los gobiernos?
03:34
Reality may not play out exactly like our thought experiments,
71
214121
3458
La realidad no reproduce exactamente nuestros experimentos mentales,
03:37
but that's not the point.
72
217579
1667
pero ese no es el punto.
03:39
They're designed to isolate and stress test our intuitions on ethics,
73
219246
4333
Están diseñados para aislar y someter a presión a nuestras intuiciones éticas,
03:43
just like science experiments do for the physical world.
74
223579
3000
igual que los experimentos científicos lo hacen al probar el mundo físico.
03:46
Spotting these moral hairpin turns now
75
226579
3375
Detectar este giro en U moral
03:49
will help us maneuver the unfamiliar road of technology ethics,
76
229954
3584
nos ayudará a maniobrar en el camino desconocido de la ética de la tecnología,
03:53
and allow us to cruise confidently and conscientiously
77
233538
3750
y nos permitirá adentrarnos con confianza y conciencia
03:57
into our brave new future.
78
237288
2375
en nuestro nuevo y valiente futuro.
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7