What moral decisions should driverless cars make? | Iyad Rahwan

108,201 views ・ 2017-09-08

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Analia Padin Revisor: Sebastian Betti
00:12
Today I'm going to talk about technology and society.
0
12820
4080
Hoy voy a hablar de tecnología y de la sociedad.
00:18
The Department of Transport estimated that last year
1
18860
3696
El Departamento de Transporte estimó que, el año pasado,
00:22
35,000 people died from traffic crashes in the US alone.
2
22580
4080
hubo 35 000 muertos en accidentes de auto, tan solo en EE.UU.
00:27
Worldwide, 1.2 million people die every year in traffic accidents.
3
27860
4800
A nivel mundial, mueren 1,2 millones de personas por año en accidentes de auto.
00:33
If there was a way we could eliminate 90 percent of those accidents,
4
33580
4096
Si hubiera una manera de eliminar el 90 % de esos accidentes,
00:37
would you support it?
5
37700
1200
¿apoyarían la causa?
00:39
Of course you would.
6
39540
1296
Por supuesto que lo harían.
00:40
This is what driverless car technology promises to achieve
7
40860
3655
Esto es lo que promete la tecnología de vehículos autónomos,
00:44
by eliminating the main source of accidents --
8
44540
2816
al eliminar la principal causa de accidentes:
00:47
human error.
9
47380
1200
el error humano.
00:49
Now picture yourself in a driverless car in the year 2030,
10
49740
5416
Imagínense en el año 2030, viajando en un vehículo autónomo,
00:55
sitting back and watching this vintage TEDxCambridge video.
11
55180
3456
sentados, mirando este video vintage de un evento TEDxCambridge.
00:58
(Laughter)
12
58660
2000
(Risas)
01:01
All of a sudden,
13
61340
1216
De pronto,
01:02
the car experiences mechanical failure and is unable to stop.
14
62580
3280
el auto tiene una falla mecánica y no puede detenerse.
01:07
If the car continues,
15
67180
1520
Si el auto continúa,
01:09
it will crash into a bunch of pedestrians crossing the street,
16
69540
4120
va a atropellar a un grupo de peatones que cruza la calle.
01:14
but the car may swerve,
17
74900
2135
Pero el auto puede cambiar de dirección,
01:17
hitting one bystander,
18
77059
1857
atropellar a un solo transeúnte,
01:18
killing them to save the pedestrians.
19
78940
2080
matarlo, y así salvar a los peatones.
01:21
What should the car do, and who should decide?
20
81860
2600
¿Qué debería hacer el auto, y quién debería decidir?
01:25
What if instead the car could swerve into a wall,
21
85340
3536
¿Y si en cambio el auto pudiera irse contra una pared,
01:28
crashing and killing you, the passenger,
22
88900
3296
chocar y matarte a ti, el pasajero,
01:32
in order to save those pedestrians?
23
92220
2320
para salvar a los peatones?
01:35
This scenario is inspired by the trolley problem,
24
95060
3080
Este caso hipotético está inspirado en el dilema del tranvía,
01:38
which was invented by philosophers a few decades ago
25
98780
3776
que fue inventado por unos filósofos hace unas décadas
01:42
to think about ethics.
26
102580
1240
para reflexionar sobre la ética.
01:45
Now, the way we think about this problem matters.
27
105940
2496
Es importante saber cómo pensamos en este problema.
01:48
We may for example not think about it at all.
28
108460
2616
Podríamos, por ejemplo, no pensar en esto en absoluto.
01:51
We may say this scenario is unrealistic,
29
111100
3376
Podríamos decir que la situación es poco realista,
01:54
incredibly unlikely, or just silly.
30
114500
2320
remotamente probable, o simplemente absurda.
01:57
But I think this criticism misses the point
31
117580
2736
Pero para mí esta crítica pierde de vista el problema,
02:00
because it takes the scenario too literally.
32
120340
2160
porque se toma la situación muy al pie de la letra.
02:03
Of course no accident is going to look like this;
33
123740
2736
Por supuesto que ningún accidente es exactamente así;
02:06
no accident has two or three options
34
126500
3336
ningún accidente tiene dos o tres opciones
02:09
where everybody dies somehow.
35
129860
2000
donde de una forma u otra muere alguien.
02:13
Instead, the car is going to calculate something
36
133300
2576
Lo que va a ocurrir, es que el auto va a calcular algo,
02:15
like the probability of hitting a certain group of people,
37
135900
4896
como la probabilidad de atropellar a un determinado grupo de personas
02:20
if you swerve one direction versus another direction,
38
140820
3336
si toma una dirección u otra.
02:24
you might slightly increase the risk to passengers or other drivers
39
144180
3456
Se podría aumentar levemente el riesgo de los pasajeros y conductores,
02:27
versus pedestrians.
40
147660
1536
en favor de los peatones.
02:29
It's going to be a more complex calculation,
41
149220
2160
Va a ser un cálculo más complejo,
02:32
but it's still going to involve trade-offs,
42
152300
2520
pero aun así va a implicar hacer concesiones,
02:35
and trade-offs often require ethics.
43
155660
2880
y las concesiones normalmente requieren una ética.
02:39
We might say then, "Well, let's not worry about this.
44
159660
2736
Podríamos decir: "Bueno, no nos preocupemos por esto.
02:42
Let's wait until technology is fully ready and 100 percent safe."
45
162420
4640
Esperemos a que la tecnología esté totalmente preparada y sea 100 % segura".
02:48
Suppose that we can indeed eliminate 90 percent of those accidents,
46
168340
3680
Supongamos que efectivamente podemos eliminar el 90 % de esos accidentes,
02:52
or even 99 percent in the next 10 years.
47
172900
2840
o incluso el 99 % en los próximos 10 años.
02:56
What if eliminating the last one percent of accidents
48
176740
3176
¿Qué pasaría si eliminar el 1 % de los accidentes restante
02:59
requires 50 more years of research?
49
179940
3120
llevara 50 años más de investigación?
03:04
Should we not adopt the technology?
50
184220
1800
¿No deberíamos adoptar la tecnología?
03:06
That's 60 million people dead in car accidents
51
186540
4776
Estaríamos hablando de 60 millones de muertos en accidentes de auto
03:11
if we maintain the current rate.
52
191340
1760
si seguimos al ritmo al que vamos.
03:14
So the point is,
53
194580
1216
Quiere decir que,
03:15
waiting for full safety is also a choice,
54
195820
3616
esperar a tener seguridad total también es una elección
03:19
and it also involves trade-offs.
55
199460
2160
y también implica hacer concesiones.
03:23
People online on social media have been coming up with all sorts of ways
56
203380
4336
En línea, en las redes sociales, la gente ha estado proponiendo todo tipo de ideas
03:27
to not think about this problem.
57
207740
2016
para no pensar en este problema.
03:29
One person suggested the car should just swerve somehow
58
209780
3216
Una persona sugirió que el auto debería zigzaguear de alguna forma
03:33
in between the passengers --
59
213020
2136
entre los peatones...
03:35
(Laughter)
60
215180
1016
(Risas)
03:36
and the bystander.
61
216220
1256
y el transeúnte.
03:37
Of course if that's what the car can do, that's what the car should do.
62
217500
3360
Por supuesto que, si el auto fuera capaz de hacer eso, debería hacerlo.
03:41
We're interested in scenarios in which this is not possible.
63
221740
2840
Pero nos interesan las situaciones donde esto no es posible.
03:45
And my personal favorite was a suggestion by a blogger
64
225100
5416
Mi favorita fue la idea de un bloguero
03:50
to have an eject button in the car that you press --
65
230540
3016
que propuso un botón de "eyectarse" que se presiona justo antes...
03:53
(Laughter)
66
233580
1216
(Risas)
03:54
just before the car self-destructs.
67
234820
1667
de que el auto se autodestruya.
03:56
(Laughter)
68
236511
1680
(Risas)
03:59
So if we acknowledge that cars will have to make trade-offs on the road,
69
239660
5200
Entonces, si aceptamos que los autos van a tener que hacer concesiones,
04:06
how do we think about those trade-offs,
70
246020
1880
¿cómo pensamos en esas concesiones,
04:09
and how do we decide?
71
249140
1576
y cómo decidimos cuáles son?
04:10
Well, maybe we should run a survey to find out what society wants,
72
250740
3136
Tal vez deberíamos hacer una encuesta y ver qué quiere la sociedad,
04:13
because ultimately,
73
253900
1456
porque en última instancia,
04:15
regulations and the law are a reflection of societal values.
74
255380
3960
las regulaciones y las leyes son el reflejo de los valores sociales.
04:19
So this is what we did.
75
259860
1240
Y fue lo que hicimos.
04:21
With my collaborators,
76
261700
1616
Con mis colaboradores,
04:23
Jean-François Bonnefon and Azim Shariff,
77
263340
2336
Jean-François Bonnefon y Azim Shariff,
04:25
we ran a survey
78
265700
1616
hicimos una encuesta
04:27
in which we presented people with these types of scenarios.
79
267340
2855
en la que le propusimos a la gente este tipo de situaciones.
04:30
We gave them two options inspired by two philosophers:
80
270219
3777
Les dimos dos opciones inspiradas en dos filósofos:
04:34
Jeremy Bentham and Immanuel Kant.
81
274020
2640
Jeremy Bentham e Immanuel Kant.
04:37
Bentham says the car should follow utilitarian ethics:
82
277420
3096
Bentham dice que el auto debería seguir la ética del utilitarismo:
04:40
it should take the action that will minimize total harm --
83
280540
3416
debería tomar la acción que minimice el daño total,
04:43
even if that action will kill a bystander
84
283980
2816
aun si esto implica matar a un transeúnte,
04:46
and even if that action will kill the passenger.
85
286820
2440
y aun si esto implica matar al pasajero.
04:49
Immanuel Kant says the car should follow duty-bound principles,
86
289940
4976
Immanuel Kant dice que el auto debería seguir la ética del deber,
04:54
like "Thou shalt not kill."
87
294940
1560
tal como "No matarás".
04:57
So you should not take an action that explicitly harms a human being,
88
297300
4456
O sea que no deberías tomar ninguna acción que implique hacerle daño a un ser humano,
05:01
and you should let the car take its course
89
301780
2456
y deberías dejar que el auto siga su curso
05:04
even if that's going to harm more people.
90
304260
1960
aun si eso resulta en más heridos.
05:07
What do you think?
91
307460
1200
¿Uds. qué piensan?
05:09
Bentham or Kant?
92
309180
1520
¿Bentham o Kant?
05:11
Here's what we found.
93
311580
1256
El resultado fue este:
05:12
Most people sided with Bentham.
94
312860
1800
la mayoría optó por Bentham.
05:15
So it seems that people want cars to be utilitarian,
95
315980
3776
Así que parece que la gente quiere que los autos sean utilitarios,
05:19
minimize total harm,
96
319780
1416
minimizar el daño total,
05:21
and that's what we should all do.
97
321220
1576
y eso es lo que deberíamos hacer.
05:22
Problem solved.
98
322820
1200
Problema solucionado.
05:25
But there is a little catch.
99
325060
1480
Pero hay una pequeña trampa.
05:27
When we asked people whether they would purchase such cars,
100
327740
3736
Cuando le preguntamos a la gente si comprarían estos autos,
05:31
they said, "Absolutely not."
101
331500
1616
la respuesta fue un "No" rotundo.
05:33
(Laughter)
102
333140
2296
(Risas)
05:35
They would like to buy cars that protect them at all costs,
103
335460
3896
Les gustaría comprar un auto que los proteja a ellos a toda costa,
05:39
but they want everybody else to buy cars that minimize harm.
104
339380
3616
pero quieren que los demás compren autos que minimicen el daño.
05:43
(Laughter)
105
343020
2520
(Risas)
05:46
We've seen this problem before.
106
346540
1856
Ya conocemos este tipo de problema.
05:48
It's called a social dilemma.
107
348420
1560
Es un dilema social.
05:50
And to understand the social dilemma,
108
350980
1816
Y para entender el dilema social,
05:52
we have to go a little bit back in history.
109
352820
2040
hay que retroceder un poco en la historia.
05:55
In the 1800s,
110
355820
2576
En el 1800,
05:58
English economist William Forster Lloyd published a pamphlet
111
358420
3736
el economista inglés William Forster Lloyd publicó un folleto
06:02
which describes the following scenario.
112
362180
2216
que describe la siguiente situación.
06:04
You have a group of farmers --
113
364420
1656
Hay un grupo de pastores,
06:06
English farmers --
114
366100
1336
pastores ingleses,
06:07
who are sharing a common land for their sheep to graze.
115
367460
2680
que comparten un prado común donde pastan sus ovejas.
06:11
Now, if each farmer brings a certain number of sheep --
116
371340
2576
Si cada pastor trae una cierta cantidad de ovejas,
06:13
let's say three sheep --
117
373940
1496
digamos tres ovejas,
06:15
the land will be rejuvenated,
118
375460
2096
el suelo se recupera bien,
06:17
the farmers are happy,
119
377580
1216
los pastores contentos,
06:18
the sheep are happy,
120
378820
1616
las ovejas contentas,
06:20
everything is good.
121
380460
1200
todo va bien.
06:22
Now, if one farmer brings one extra sheep,
122
382260
2520
Ahora, si uno de los pastores trae una oveja extra,
06:25
that farmer will do slightly better, and no one else will be harmed.
123
385620
4720
ese pastor va a estar un poquito mejor, y nadie más va a salir perjudicado.
06:30
But if every farmer made that individually rational decision,
124
390980
3640
Pero si cada pastor tomara esa decisión individualmente racional,
06:35
the land will be overrun, and it will be depleted
125
395660
2720
el prado se vería sobreexplotado y el pasto se agotaría,
06:39
to the detriment of all the farmers,
126
399180
2176
en detrimento de todos los pastores,
06:41
and of course, to the detriment of the sheep.
127
401380
2120
y por supuesto, en detrimento de las ovejas.
06:44
We see this problem in many places:
128
404540
3680
Es un problema que se ve mucho:
06:48
in the difficulty of managing overfishing,
129
408900
3176
en la dificultad de controlar la sobrepesca,
06:52
or in reducing carbon emissions to mitigate climate change.
130
412100
4560
o al reducir las emisiones de carbono para contrarrestar el cambio climático.
06:58
When it comes to the regulation of driverless cars,
131
418980
2920
Volviendo al tema de la regulación de vehículos autónomos,
07:02
the common land now is basically public safety --
132
422900
4336
el prado común vendría a ser básicamente la seguridad pública;
07:07
that's the common good --
133
427260
1240
ese es el bien común.
07:09
and the farmers are the passengers
134
429220
1976
Y los pastores serían los pasajeros
07:11
or the car owners who are choosing to ride in those cars.
135
431220
3600
o los dueños de los autos que eligen viajar en esos vehículos.
07:16
And by making the individually rational choice
136
436780
2616
Y al tomar la decisión individualmente racional
07:19
of prioritizing their own safety,
137
439420
2816
de priorizar su propia seguridad,
07:22
they may collectively be diminishing the common good,
138
442260
3136
podrían estar disminuyendo colectivamente el bien común,
07:25
which is minimizing total harm.
139
445420
2200
que es minimizar el daño total.
07:30
It's called the tragedy of the commons,
140
450140
2136
Esto se llama "tragedia de los comunes",
07:32
traditionally,
141
452300
1296
tradicionalmente,
07:33
but I think in the case of driverless cars,
142
453620
3096
pero creo que en el caso de los vehículos autónomos,
07:36
the problem may be a little bit more insidious
143
456740
2856
el problema es tal vez un poquito más traicionero
07:39
because there is not necessarily an individual human being
144
459620
3496
porque no es necesariamente un ser humano
07:43
making those decisions.
145
463140
1696
el que toma las decisiones.
07:44
So car manufacturers may simply program cars
146
464860
3296
Entonces, los fabricantes podrían simplemente programar los autos
07:48
that will maximize safety for their clients,
147
468180
2520
para maximizar la seguridad de sus clientes.
07:51
and those cars may learn automatically on their own
148
471900
2976
Y esos autos podrían aprender, automáticamente y por su cuenta,
07:54
that doing so requires slightly increasing risk for pedestrians.
149
474900
3520
que hacer eso requiere aumentar levemente el riesgo de los peatones.
07:59
So to use the sheep metaphor,
150
479340
1416
O sea que, volviendo a las ovejas:
08:00
it's like we now have electric sheep that have a mind of their own.
151
480780
3616
es como si ahora tuviéramos ovejas eléctricas que piensan solas.
08:04
(Laughter)
152
484420
1456
(Risas)
08:05
And they may go and graze even if the farmer doesn't know it.
153
485900
3080
Y pueden irse a pastar solas aunque el pastor no lo sepa.
08:10
So this is what we may call the tragedy of the algorithmic commons,
154
490460
3976
O sea que a esto podríamos llamarlo "la tragedia de los comunes algorítmicos",
08:14
and if offers new types of challenges.
155
494460
2360
y nos presenta nuevos desafíos.
08:22
Typically, traditionally,
156
502340
1896
Típicamente, tradicionalmente,
08:24
we solve these types of social dilemmas using regulation,
157
504260
3336
este tipo de dilemas sociales se resuelven implementando regulación.
08:27
so either governments or communities get together,
158
507620
2736
Ya sea el gobierno o la comunidad, se juntan
08:30
and they decide collectively what kind of outcome they want
159
510380
3736
y deciden colectivamente qué resultado quieren obtener,
08:34
and what sort of constraints on individual behavior
160
514140
2656
y qué tipo de restricciones a la conducta individual
08:36
they need to implement.
161
516820
1200
necesitan implementar.
08:39
And then using monitoring and enforcement,
162
519420
2616
Y luego, a través del control y la imposición de normas,
08:42
they can make sure that the public good is preserved.
163
522060
2559
pueden garantizar la preservación del bien común.
08:45
So why don't we just,
164
525260
1575
Entonces ¿por qué no exigimos,
08:46
as regulators,
165
526859
1496
en nuestro rol de reguladores,
08:48
require that all cars minimize harm?
166
528379
2897
que todos los autos tienen que minimizar el daño?
08:51
After all, this is what people say they want.
167
531300
2240
A fin de cuentas, eso es lo que la gente dice que quiere.
08:55
And more importantly,
168
535020
1416
Y más importante aún,
08:56
I can be sure that as an individual,
169
536460
3096
puedo estar seguro de que, como individuo,
08:59
if I buy a car that may sacrifice me in a very rare case,
170
539580
3856
si compro un auto que en un caso muy extremo podría llegar a sacrificarme,
09:03
I'm not the only sucker doing that
171
543460
1656
no soy el único papanatas haciéndolo
09:05
while everybody else enjoys unconditional protection.
172
545140
2680
mientras todos los demás gozan de protección ilimitada.
09:08
In our survey, we did ask people whether they would support regulation
173
548940
3336
En nuestra encuesta indagamos acerca de la idea de la regulación,
09:12
and here's what we found.
174
552300
1200
y el resultado fue este:
09:14
First of all, people said no to regulation;
175
554180
3760
Primero, la gente dijo "no" a la regulación;
09:19
and second, they said,
176
559100
1256
y segundo:
09:20
"Well if you regulate cars to do this and to minimize total harm,
177
560380
3936
"Bueno, si van a regular los autos para actuar así y minimizar el daño total,
09:24
I will not buy those cars."
178
564340
1480
yo no los voy a comprar".
09:27
So ironically,
179
567220
1376
Entonces, irónicamente,
09:28
by regulating cars to minimize harm,
180
568620
3496
al regular los autos para minimizar el daño,
09:32
we may actually end up with more harm
181
572140
1840
podríamos acabar con más daño
09:34
because people may not opt into the safer technology
182
574860
3656
porque la gente no adoptaría esta nueva tecnología
09:38
even if it's much safer than human drivers.
183
578540
2080
aun cuando es mucho más segura que los conductores humanos.
09:42
I don't have the final answer to this riddle,
184
582180
3416
No tengo la respuesta final a este acertijo,
09:45
but I think as a starting point,
185
585620
1576
pero creo que, para empezar,
09:47
we need society to come together
186
587220
3296
necesitamos que la sociedad se ponga de acuerdo
09:50
to decide what trade-offs we are comfortable with
187
590540
2760
sobre las concesiones que está dispuesta a aceptar,
09:54
and to come up with ways in which we can enforce those trade-offs.
188
594180
3480
y las posibles maneras de imponer esas concesiones.
09:58
As a starting point, my brilliant students,
189
598340
2536
Como punto de partida, mis brillantes alumnos,
10:00
Edmond Awad and Sohan Dsouza,
190
600900
2456
Edmond Awad y Sohan Dsouza,
10:03
built the Moral Machine website,
191
603380
1800
construyeron el sitio web Moral Machine,
10:06
which generates random scenarios at you --
192
606020
2680
que genera y presenta situaciones hipotéticas al azar;
10:09
basically a bunch of random dilemmas in a sequence
193
609900
2456
es básicamente una secuencia aleatoria de dilemas
10:12
where you have to choose what the car should do in a given scenario.
194
612380
3920
donde tienes que elegir qué debería hacer el auto en cada caso.
10:16
And we vary the ages and even the species of the different victims.
195
616860
4600
Y variamos las edades y hasta las especies de las distintas víctimas.
10:22
So far we've collected over five million decisions
196
622860
3696
Hasta ahora hemos recolectado más de 5 millones de decisiones,
10:26
by over one million people worldwide
197
626580
2200
de más de un millón de personas en todo el mundo
10:30
from the website.
198
630220
1200
a través del sitio web.
10:32
And this is helping us form an early picture
199
632180
2416
Esto nos está ayudando a pintar un panorama inicial
10:34
of what trade-offs people are comfortable with
200
634620
2616
de las concesiones que la gente está dispuesta a hacer
10:37
and what matters to them --
201
637260
1896
y de qué es lo que les importa,
10:39
even across cultures.
202
639180
1440
incluso en distintas culturas.
10:42
But more importantly,
203
642060
1496
Pero, lo que es más importante,
10:43
doing this exercise is helping people recognize
204
643580
3376
este ejercicio está ayudando a la gente a comprender
10:46
the difficulty of making those choices
205
646980
2816
lo difícil que es tomar esas decisiones,
10:49
and that the regulators are tasked with impossible choices.
206
649820
3800
y que los organismos reguladores se enfrentan con decisiones imposibles.
10:55
And maybe this will help us as a society understand the kinds of trade-offs
207
655180
3576
Y tal vez esto nos ayude, como sociedad, a entender el tipo de concesiones
10:58
that will be implemented ultimately in regulation.
208
658780
3056
que se van a implementar, en última instancia, como normativa.
11:01
And indeed, I was very happy to hear
209
661860
1736
Me alegré mucho cuando me enteré
11:03
that the first set of regulations
210
663620
2016
de que el primer conjunto de regulaciones
11:05
that came from the Department of Transport --
211
665660
2136
que publicó el Departamento de Transporte
11:07
announced last week --
212
667820
1376
la semana pasada
11:09
included a 15-point checklist for all carmakers to provide,
213
669220
6576
incluye una lista de 15 ítems que deben presentar los fabricantes,
11:15
and number 14 was ethical consideration --
214
675820
3256
y el número 14 es "consideraciones éticas";
11:19
how are you going to deal with that.
215
679100
1720
cómo van a manejar ese tema.
11:23
We also have people reflect on their own decisions
216
683620
2656
En el sitio, la gente también puede reflexionar sobre sus decisiones
11:26
by giving them summaries of what they chose.
217
686300
3000
al recibir un resumen de las opciones que eligieron.
11:30
I'll give you one example --
218
690260
1656
Les voy a dar un ejemplo.
11:31
I'm just going to warn you that this is not your typical example,
219
691940
3536
Les advierto que no es un ejemplo típico;
11:35
your typical user.
220
695500
1376
no es un usuario típico.
11:36
This is the most sacrificed and the most saved character for this person.
221
696900
3616
Estos son los individuos que esta persona más salvó y más sacrificó.
11:40
(Laughter)
222
700540
5200
(Risas)
11:46
Some of you may agree with him,
223
706500
1896
Algunos de Uds. estarán de acuerdo con él,
11:48
or her, we don't know.
224
708420
1640
o ella, no sabemos.
11:52
But this person also seems to slightly prefer passengers over pedestrians
225
712300
6136
Esta persona también parece inclinarse más a favor del pasajero que del peatón,
11:58
in their choices
226
718460
2096
según las opciones que escogió,
12:00
and is very happy to punish jaywalking.
227
720580
2816
y no tiene problema en castigar al peatón imprudente.
12:03
(Laughter)
228
723420
3040
(Risas)
12:09
So let's wrap up.
229
729140
1216
Entonces, redondeando.
12:10
We started with the question -- let's call it the ethical dilemma --
230
730379
3416
Empezamos con la pregunta, llamémosle dilema ético,
12:13
of what the car should do in a specific scenario:
231
733820
3056
de qué debería hacer el auto en una situación específica:
12:16
swerve or stay?
232
736900
1200
¿cambiar de dirección o seguir?
12:19
But then we realized that the problem was a different one.
233
739060
2736
Pero luego nos dimos cuenta de que el problema es otro.
12:21
It was the problem of how to get society to agree on and enforce
234
741820
4536
El problema es que la sociedad se ponga de acuerdo
sobre qué concesiones le son aceptables y cómo imponerlas.
12:26
the trade-offs they're comfortable with.
235
746380
1936
12:28
It's a social dilemma.
236
748340
1256
Es un dilema social.
12:29
In the 1940s, Isaac Asimov wrote his famous laws of robotics --
237
749620
5016
En 1940, Isaac Asimov escribió sus famosas leyes de la robótica;
12:34
the three laws of robotics.
238
754660
1320
las tres leyes de la robótica.
12:37
A robot may not harm a human being,
239
757060
2456
Un robot no hará daño al ser humano,
12:39
a robot may not disobey a human being,
240
759540
2536
un robot debe obedecer al ser humano,
12:42
and a robot may not allow itself to come to harm --
241
762100
3256
y un robot debe preservarse a sí mismo.
12:45
in this order of importance.
242
765380
1960
En ese orden de importancia.
12:48
But after 40 years or so
243
768180
2136
Pero después de 40 años más o menos,
12:50
and after so many stories pushing these laws to the limit,
244
770340
3736
y después de tantas historias que llevaron estas leyes al límite,
12:54
Asimov introduced the zeroth law
245
774100
3696
Asimov introdujo la ley cero,
12:57
which takes precedence above all,
246
777820
2256
que precede a las demás,
13:00
and it's that a robot may not harm humanity as a whole.
247
780100
3280
y es que un robot no hará daño a la Humanidad.
13:04
I don't know what this means in the context of driverless cars
248
784300
4376
No sé qué quiere decir esto en el contexto de los vehículos autónomos,
13:08
or any specific situation,
249
788700
2736
o en cualquier situación específica,
13:11
and I don't know how we can implement it,
250
791460
2216
y no sé cómo lo podemos implementar,
13:13
but I think that by recognizing
251
793700
1536
pero creo que reconociendo
13:15
that the regulation of driverless cars is not only a technological problem
252
795260
6136
que la regulación de vehículos autónomos no es solo un problema tecnológico
13:21
but also a societal cooperation problem,
253
801420
3280
sino también un problema de cooperación social,
13:25
I hope that we can at least begin to ask the right questions.
254
805620
2880
espero que podamos al menos empezar a hacer las preguntas adecuadas.
13:29
Thank you.
255
809020
1216
Gracias.
13:30
(Applause)
256
810260
2920
(Aplausos)
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7