Daniel Suarez: The kill decision shouldn't belong to a robot

Daniel Suarez: La decisión de matar no la debe tomar un robot

76,064 views

2013-06-13 ・ TED


New videos

Daniel Suarez: The kill decision shouldn't belong to a robot

Daniel Suarez: La decisión de matar no la debe tomar un robot

76,064 views ・ 2013-06-13

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

00:00
Translator: Joseph Geni Reviewer: Morton Bast
0
0
7000
Traductor: Máximo Hdez Revisor: Katherine Belloso
00:12
I write fiction sci-fi thrillers,
1
12691
3158
Escribo novelas de suspenso de ciencia ficción,
00:15
so if I say "killer robots,"
2
15849
2193
así que si digo "robots asesinos",
00:18
you'd probably think something like this.
3
18042
2361
probablemente podrían pensar en algo así.
00:20
But I'm actually not here to talk about fiction.
4
20403
2555
Pero en realidad no estoy aquí para hablar de ficción.
00:22
I'm here to talk about very real killer robots,
5
22958
2948
Estoy aquí para hablar de robots asesinos muy reales,
00:25
autonomous combat drones.
6
25906
3122
"drones" de combate autónomos.
00:29
Now, I'm not referring to Predator and Reaper drones,
7
29028
3627
Y no me refiero a robots depredadores ni exterminadores,
00:32
which have a human making targeting decisions.
8
32655
3260
que tienen a un humano tomando decisiones de sus objetivos.
00:35
I'm talking about fully autonomous robotic weapons
9
35915
3129
Estoy hablando de armas robóticas totalmente autónomas
00:39
that make lethal decisions about human beings
10
39044
2654
que toman decisiones letales sobre seres humanos
00:41
all on their own.
11
41698
2417
por su propia cuenta.
00:44
There's actually a technical term for this: lethal autonomy.
12
44115
4000
De hecho existe un término técnico para esto: autonomía letal.
00:48
Now, lethally autonomous killer robots
13
48115
2856
Ahora, los robots asesinos letales autónomos
00:50
would take many forms -- flying, driving,
14
50971
3069
pueden actuar de muchas formas: volando, conduciendo,
00:54
or just lying in wait.
15
54040
2746
o simplemente esperando al acecho.
00:56
And actually, they're very quickly becoming a reality.
16
56786
3109
Y la verdad es que se están convirtiendo rápidamente en una realidad.
00:59
These are two automatic sniper stations
17
59895
2484
Estas son dos estaciones automáticas de disparo
01:02
currently deployed in the DMZ between North and South Korea.
18
62379
4137
desplegadas actualmente en la zona desmilitarizada entre Corea del Norte y del Sur
01:06
Both of these machines are capable of automatically
19
66516
2171
Ambas máquinas son capaces de identificar
01:08
identifying a human target and firing on it,
20
68687
3524
automáticamente un objetivo humano y disparar contra él,
01:12
the one on the left at a distance of over a kilometer.
21
72211
4324
la de la izquierda a una distancia de más de un kilómetro.
01:16
Now, in both cases, there's still a human in the loop
22
76535
3589
En ambos casos, todavía hay un ser humano en el proceso
01:20
to make that lethal firing decision,
23
80124
2372
para tomar esa decisión de disparo letal
01:22
but it's not a technological requirement. It's a choice.
24
82496
5413
pero no es un requisito tecnológico, es una opción.
01:27
And it's that choice that I want to focus on,
25
87909
3093
Y es en esa opción en la que quiero centrarme,
01:31
because as we migrate lethal decision-making
26
91002
2641
porque cuando desplazamos la toma de decisiones letales
01:33
from humans to software,
27
93643
3109
de los humanos al software,
01:36
we risk not only taking the humanity out of war,
28
96752
3476
corremos el riesgo no sólo de sacar a la humanidad de la guerra,
01:40
but also changing our social landscape entirely,
29
100228
3526
sino también el de cambiar nuestro panorama social completamente,
01:43
far from the battlefield.
30
103754
2224
lejos del campo de batalla.
01:45
That's because the way humans resolve conflict
31
105978
4509
Eso es porque la manera en que los humanos resolvemos los conflictos
01:50
shapes our social landscape.
32
110487
1733
moldea nuestro panorama social.
01:52
And this has always been the case, throughout history.
33
112220
2633
Y así ha sido siempre a lo largo de la historia.
01:54
For example, these were state-of-the-art weapons systems
34
114853
2661
Por ejemplo, estos eran los sistemas de armamento más avanzados
01:57
in 1400 A.D.
35
117514
2079
en 1400 D.C.
01:59
Now they were both very expensive to build and maintain,
36
119593
3144
El costo de la construcción y el mantenimiento de ambos era muy elevados,
02:02
but with these you could dominate the populace,
37
122737
3240
pero con ellos se podía dominar a la población,
02:05
and the distribution of political power in feudal society reflected that.
38
125977
3889
y eso se reflejaba en la distribución del poder político en la sociedad feudal.
02:09
Power was focused at the very top.
39
129866
2687
El poder ocupó un lugar primordial.
02:12
And what changed? Technological innovation.
40
132553
3528
Y ¿qué cambió? La innovación tecnológica.
02:16
Gunpowder, cannon.
41
136081
1871
Pólvora, cañón.
02:17
And pretty soon, armor and castles were obsolete,
42
137952
3817
Y muy pronto, la armadura y los castillos fueron obsoletos,
02:21
and it mattered less who you brought to the battlefield
43
141769
2533
e importó menos a quién se traía al campo de batalla
02:24
versus how many people you brought to the battlefield.
44
144302
3779
versus cuánta gente se traía al campo de batalla.
02:28
And as armies grew in size, the nation-state arose
45
148081
3638
Y conforme los ejércitos crecieron en tamaño, los Estado-naciones surgieron
02:31
as a political and logistical requirement of defense.
46
151719
3680
como un requisito político y logístico de defensa.
02:35
And as leaders had to rely on more of their populace,
47
155399
2376
Y conforme los líderes tuvieron que depender más de su población,
02:37
they began to share power.
48
157775
1833
empezaron a compartir el poder.
02:39
Representative government began to form.
49
159608
2599
Se comenzó a formar el gobierno representativo.
02:42
So again, the tools we use to resolve conflict
50
162207
3288
Repito, las herramientas que utilizamos para resolver conflictos
02:45
shape our social landscape.
51
165495
3304
dan forma a nuestro panorama social.
02:48
Autonomous robotic weapons are such a tool,
52
168799
4064
Las armas robóticas autónomas son esas herramientas,
02:52
except that, by requiring very few people to go to war,
53
172863
5168
salvo que, al exigir que muy pocas personas vayan a la guerra,
02:58
they risk re-centralizing power into very few hands,
54
178031
4840
se corre el riesgo de re-centralizar el poder en muy pocas manos,
03:02
possibly reversing a five-century trend toward democracy.
55
182871
6515
posiblemente revirtiendo una tendencia de cinco siglos hacia la democracia.
03:09
Now, I think, knowing this,
56
189386
1757
Creo que, sabiendo esto,
03:11
we can take decisive steps to preserve our democratic institutions,
57
191143
4352
podemos tomar medidas decisivas para preservar nuestras instituciones democráticas,
03:15
to do what humans do best, which is adapt.
58
195495
3979
para hacer lo que los seres humanos saben hacer mejor, que es adaptarse.
03:19
But time is a factor.
59
199474
2005
Pero el tiempo es un factor.
03:21
Seventy nations are developing remotely-piloted
60
201479
2851
Setenta naciones están desarrollando sus propios robots
03:24
combat drones of their own,
61
204330
2157
de combate controlados a distancia
03:26
and as you'll see, remotely-piloted combat drones
62
206487
2593
y como veremos, los drones de combate controlados remotamente
03:29
are the precursors to autonomous robotic weapons.
63
209080
4472
son los precursores de las armas robóticas autónomas.
03:33
That's because once you've deployed remotely-piloted drones,
64
213552
2767
Eso es porque una vez se han desplegado drones piloteados remotamente
03:36
there are three powerful factors pushing decision-making
65
216319
3384
hay tres factores poderosos que influyen en la toma de decisiones
03:39
away from humans and on to the weapon platform itself.
66
219703
4600
lejos de los humanos y en la misma plataforma del arma.
03:44
The first of these is the deluge of video that drones produce.
67
224303
5259
El primero de ellos es el diluvio de vídeos que producen los robots.
03:49
For example, in 2004, the U.S. drone fleet produced
68
229562
3853
Por ejemplo, en 2004, la flota de drones de los Estados Unidos produjo
03:53
a grand total of 71 hours of video surveillance for analysis.
69
233415
5312
un total de 71 horas de vigilancia con video para el análisis.
03:58
By 2011, this had gone up to 300,000 hours,
70
238727
4499
En el 2011, ésta se había elevado a 300 mil horas,
04:03
outstripping human ability to review it all,
71
243226
3149
superando la capacidad humana para revisarla toda,
04:06
but even that number is about to go up drastically.
72
246375
3664
y aun ese número está a punto de subir drásticamente.
04:10
The Pentagon's Gorgon Stare and Argus programs
73
250039
2575
El Gorgon Stare y los programas Argus del Pentágono
04:12
will put up to 65 independently operated camera eyes
74
252614
3164
pondrán hasta 65 cámaras que operan independientemente
04:15
on each drone platform,
75
255778
2038
en cada plataforma de los drones,
04:17
and this would vastly outstrip human ability to review it.
76
257816
3303
y esto superaría enormemente la capacidad humana para revisarlas.
04:21
And that means visual intelligence software will need
77
261119
2160
Y eso significa que se necesitará software de inteligencia visual
04:23
to scan it for items of interest.
78
263279
4048
para escanear elementos de interés.
04:27
And that means very soon
79
267327
1348
Y eso significa que muy pronto
04:28
drones will tell humans what to look at,
80
268675
2747
los drones dirán a los humanos qué mirar,
04:31
not the other way around.
81
271422
2497
y no al revés.
04:33
But there's a second powerful incentive pushing
82
273919
2473
Pero hay un segundo incentivo poderoso que aleja
04:36
decision-making away from humans and onto machines,
83
276392
3383
la toma de decisiones de los humanos y la acerca a las máquinas,
04:39
and that's electromagnetic jamming,
84
279775
2872
y es la interferencia electromagnética,
04:42
severing the connection between the drone
85
282647
2236
cortando la conexión entre el robot
04:44
and its operator.
86
284883
2814
y su operador.
04:47
Now we saw an example of this in 2011
87
287697
2618
Vimos un ejemplo de esto en 2011
04:50
when an American RQ-170 Sentinel drone
88
290315
2956
Cuando un dron RQ-170 Sentinel norteamericano
04:53
got a bit confused over Iran due to a GPS spoofing attack,
89
293271
4307
se confundió en Irán debido a un ataque de "suplantación" de GPS,
04:57
but any remotely-piloted drone is susceptible to this type of attack,
90
297578
5114
pero cualquier robot controlado remotamente es susceptible a este tipo de ataques,
05:02
and that means drones
91
302692
2052
y eso significa que los drones
05:04
will have to shoulder more decision-making.
92
304744
3620
tendrán que asumir más la toma de decisiones.
05:08
They'll know their mission objective,
93
308364
3043
Sabrán el objetivo de la misión,
05:11
and they'll react to new circumstances without human guidance.
94
311407
4845
y reaccionarán a nuevas circunstancias sin ayuda humana.
05:16
They'll ignore external radio signals
95
316252
2581
Ignorarán las señales de radio externas
05:18
and send very few of their own.
96
318833
2330
y enviarán muy pocas suyas.
05:21
Which brings us to, really, the third
97
321163
2006
Lo que nos lleva, realmente, al tercer
05:23
and most powerful incentive pushing decision-making
98
323169
3862
y más poderoso incentivo de llevar la toma de decisiones
05:27
away from humans and onto weapons:
99
327031
3342
de los seres humanos a las armas:
05:30
plausible deniability.
100
330373
3293
negación plausible.
05:33
Now we live in a global economy.
101
333666
2887
Vivimos en una economía global.
05:36
High-tech manufacturing is occurring on most continents.
102
336553
4334
La fabricación de alta tecnología ocurre en la mayoría de los continentes.
05:40
Cyber espionage is spiriting away advanced designs
103
340887
2914
El ciberespionaje está impulsando diseños muy avanzados
05:43
to parts unknown,
104
343801
1886
a lugares desconocidos,
05:45
and in that environment, it is very likely
105
345687
2014
y en ese ambiente, es muy probable
05:47
that a successful drone design will be knocked off in contract factories,
106
347701
4734
que un diseño exitoso de drones se reproduzca en fábricas contratadas,
05:52
proliferate in the gray market.
107
352435
2170
y prolifere en el mercado negro.
05:54
And in that situation, sifting through the wreckage
108
354605
2460
Y en esa situación, al investigar en los restos
05:57
of a suicide drone attack, it will be very difficult to say
109
357065
2960
de un ataque suicida de drone, será muy difícil decir
06:00
who sent that weapon.
110
360025
4400
quién envió esa arma.
06:04
This raises the very real possibility
111
364425
2800
Esto plantea la posibilidad muy real
06:07
of anonymous war.
112
367225
2935
de una guerra anónima.
06:10
This could tilt the geopolitical balance on its head,
113
370160
2614
Esto podría poner el equilibrio geopolítico de cabeza,
06:12
make it very difficult for a nation to turn its firepower
114
372774
3491
y que a una nación le resulte muy difícil activar su potencia de ataque
06:16
against an attacker, and that could shift the balance
115
376265
2848
contra un atacante, lo cual podría inclinar la balanza
06:19
in the 21st century away from defense and toward offense.
116
379113
3764
en el siglo XXI de la defensa hacia la ofensiva.
06:22
It could make military action a viable option
117
382877
3124
Podría hacer de la acción militar una opción viable
06:26
not just for small nations,
118
386001
2288
no sólo para las naciones pequeñas,
06:28
but criminal organizations, private enterprise,
119
388289
2545
sino para las organizaciones criminales, las empresas privadas,
06:30
even powerful individuals.
120
390834
2479
e incluso para individuos poderosos.
06:33
It could create a landscape of rival warlords
121
393313
3328
Podría crear un paisaje de caudillos rivales
06:36
undermining rule of law and civil society.
122
396641
3680
socavando el estado de derecho y la sociedad civil.
06:40
Now if responsibility and transparency
123
400321
3616
Si la responsabilidad y la transparencia
06:43
are two of the cornerstones of representative government,
124
403937
2384
son dos de los pilares del gobierno representativo,
06:46
autonomous robotic weapons could undermine both.
125
406321
4320
las armas robóticas autónomas podrían socavar a ambos.
06:50
Now you might be thinking that
126
410641
1546
Pueden estar pensando que
06:52
citizens of high-tech nations
127
412187
2246
los ciudadanos de naciones con alta tecnología
06:54
would have the advantage in any robotic war,
128
414433
2703
tendrían la ventaja en cualquier guerra robótica,
06:57
that citizens of those nations would be less vulnerable,
129
417136
3633
que los ciudadanos de esas naciones serían menos vulnerables,
07:00
particularly against developing nations.
130
420769
4288
particularmente contra los países en desarrollo.
07:05
But I think the truth is the exact opposite.
131
425057
3524
Pero creo que en realidad es exactamente lo contrario.
07:08
I think citizens of high-tech societies
132
428581
2251
Creo que los ciudadanos de las sociedades de alta tecnología
07:10
are more vulnerable to robotic weapons,
133
430832
3729
son más vulnerables a las armas robóticas,
07:14
and the reason can be summed up in one word: data.
134
434561
4465
y la razón puede resumirse en una palabra: datos.
07:19
Data powers high-tech societies.
135
439026
3481
Los datos empoderan a las sociedades de alta tecnología.
07:22
Cell phone geolocation, telecom metadata,
136
442507
3190
Geolocalización por teléfono celular, metadatos de telecomunicaciones,
07:25
social media, email, text, financial transaction data,
137
445697
3472
redes sociales, correo electrónico, mensajes de texto, datos de transacciones financieras,
07:29
transportation data, it's a wealth of real-time data
138
449169
3532
datos de transporte, es una riqueza de datos en tiempo real
07:32
on the movements and social interactions of people.
139
452701
3373
sobre los movimientos y las interacciones sociales de las personas.
07:36
In short, we are more visible to machines
140
456074
3775
En resumen, somos más visibles para las máquinas
07:39
than any people in history,
141
459849
2242
que ninguna otra persona en la historia, y esto se adapta
07:42
and this perfectly suits the targeting needs of autonomous weapons.
142
462091
5616
perfectamente a las necesidades de selección de las armas autónomas.
07:47
What you're looking at here
143
467707
1738
Lo que están viendo aquí
07:49
is a link analysis map of a social group.
144
469445
3246
es un mapa de análisis de los vínculos de un grupo social.
07:52
Lines indicate social connectedness between individuals.
145
472691
3634
Las líneas indican la conectividad social entre individuos.
07:56
And these types of maps can be automatically generated
146
476325
2880
Y estos tipos de mapas se pueden generar automáticamente
07:59
based on the data trail modern people leave behind.
147
479205
4715
basados en la la estela de datos que la gente moderna deja.
08:03
Now it's typically used to market goods and services
148
483920
2477
Esto se utiliza normalmente para el mercadeo de bienes y servicios
08:06
to targeted demographics, but it's a dual-use technology,
149
486397
4416
a un grupo objetivo específico, pero esta es una tecnología de doble uso,
08:10
because targeting is used in another context.
150
490813
3360
porque se define un grupo objetivo en otro contexto.
08:14
Notice that certain individuals are highlighted.
151
494173
2560
Tenga en cuenta que ciertos individuos sobresalen.
08:16
These are the hubs of social networks.
152
496733
3280
Estos son los ejes de las redes sociales.
08:20
These are organizers, opinion-makers, leaders,
153
500013
3590
Estos son los organizadores, los creadores de opinión, los líderes,
08:23
and these people also can be automatically identified
154
503603
2682
y a estas personas también se les puede identificar automáticamente
08:26
from their communication patterns.
155
506285
2382
por sus patrones de comunicación.
08:28
Now, if you're a marketer, you might then target them
156
508667
2146
En el caso de un vendedor, este podría seleccionarlos
08:30
with product samples, try to spread your brand
157
510813
2543
con muestras de productos, intentando difundir su marca
08:33
through their social group.
158
513356
2829
a través de su grupo social.
08:36
But if you're a repressive government
159
516185
1953
Pero un gobierno represivo
08:38
searching for political enemies, you might instead remove them,
160
518138
4810
buscando enemigos políticos podría en cambio removerlos,
08:42
eliminate them, disrupt their social group,
161
522948
2760
eliminarlos, destruir su grupo social,
08:45
and those who remain behind lose social cohesion
162
525708
3169
y aquellos que queden perderían cohesión social
08:48
and organization.
163
528877
2621
y organización.
08:51
Now in a world of cheap, proliferating robotic weapons,
164
531498
3324
En un mundo en que proliferan las armas robóticas baratas,
08:54
borders would offer very little protection
165
534822
2635
las fronteras ofrecerían muy poca protección
08:57
to critics of distant governments
166
537457
1946
a los críticos de los gobiernos distantes
08:59
or trans-national criminal organizations.
167
539403
3646
o de organizaciones criminales transnacionales.
09:03
Popular movements agitating for change
168
543049
3493
Los movimientos populares que buscan el cambio
09:06
could be detected early and their leaders eliminated
169
546542
3609
puede detectarse tempranamente para eliminar a sus líderes
09:10
before their ideas achieve critical mass.
170
550151
2911
antes de que sus ideas adquieran masa crítica.
09:13
And ideas achieving critical mass
171
553062
2591
Y de lo que se trata en un gobierno popular es
09:15
is what political activism in popular government is all about.
172
555653
3936
que las ideas alcancen masa critica.
09:19
Anonymous lethal weapons could make lethal action
173
559589
3997
Las armas letales anónimas podrían hacer de la acción letal
09:23
an easy choice for all sorts of competing interests.
174
563586
3782
una opción fácil para todo tipo de intereses en juego.
09:27
And this would put a chill on free speech
175
567368
3734
Y esto pondría en jaque a la libertad de expresión
09:31
and popular political action, the very heart of democracy.
176
571102
5308
y a la acción política popular, la esencia de la democracia.
09:36
And this is why we need an international treaty
177
576410
2914
Y por esta razón necesitamos un tratado internacional
09:39
on robotic weapons, and in particular a global ban
178
579324
3540
sobre las armas robóticas y en particular una prohibición mundial
09:42
on the development and deployment of killer robots.
179
582864
3908
sobre el desarrollo y el despliegue de robots asesinos.
09:46
Now we already have international treaties
180
586772
3254
Ya tenemos tratados internacionales
09:50
on nuclear and biological weapons, and, while imperfect,
181
590026
3386
sobre armas nucleares y biológicas, que aunque imperfectos,
09:53
these have largely worked.
182
593412
2288
han funcionado en gran medida.
09:55
But robotic weapons might be every bit as dangerous,
183
595700
3768
Pero las armas robóticas pueden ser igual de peligrosas,
09:59
because they will almost certainly be used,
184
599468
3288
porque muy seguramente se utilizarán,
10:02
and they would also be corrosive to our democratic institutions.
185
602756
5027
y también serían dañinas para nuestras instituciones democráticas.
10:07
Now in November 2012 the U.S. Department of Defense
186
607783
3468
En noviembre de 2012, el Departamento de Defensa de los Estados Unidos
10:11
issued a directive requiring
187
611251
2458
emitió una directiva que exige
10:13
a human being be present in all lethal decisions.
188
613709
4519
que un ser humano esté presente en todas las decisiones letales.
10:18
This temporarily effectively banned autonomous weapons in the U.S. military,
189
618228
4776
Esto prohibió efectiva aunque temporalmente las armas autónomas en el ejército estadounidense,
10:23
but that directive needs to be made permanent.
190
623004
3753
pero dicha directiva debe hacerse permanente.
10:26
And it could set the stage for global action.
191
626757
4376
Y podría sentar las bases para la acción global.
10:31
Because we need an international legal framework
192
631133
3845
Porque necesitamos un marco jurídico internacional
10:34
for robotic weapons.
193
634978
2138
sobre armas robóticas.
10:37
And we need it now, before there's a devastating attack
194
637116
2928
Y lo necesitamos ahora, antes de un ataque devastador
10:40
or a terrorist incident that causes nations of the world
195
640044
3152
o un incidente terrorista que haga que las naciones del mundo
10:43
to rush to adopt these weapons
196
643196
1924
se vean obligadas a adoptar estas armas
10:45
before thinking through the consequences.
197
645120
3771
antes de pensar en las consecuencias.
10:48
Autonomous robotic weapons concentrate too much power
198
648891
2981
Las armas robóticas autónomas concentran demasiado poder
10:51
in too few hands, and they would imperil democracy itself.
199
651872
6283
en muy pocas manos y pondría en peligro la propia democracia.
10:58
Now, don't get me wrong, I think there are tons
200
658155
2686
No me malinterpreten, creo que hay toneladas
11:00
of great uses for unarmed civilian drones:
201
660841
2618
de aplicaciones geniales para los drones civiles desarmados:
11:03
environmental monitoring, search and rescue, logistics.
202
663459
3939
control ambiental, búsqueda y rescate, logística.
11:07
If we have an international treaty on robotic weapons,
203
667398
2826
Si tenemos un tratado internacional sobre armas robóticas,
11:10
how do we gain the benefits of autonomous drones
204
670224
3587
¿cómo obtenemos los beneficios de los drones y vehículos
11:13
and vehicles while still protecting ourselves
205
673811
2648
autónomos y al mismo tiempo nos protegernos
11:16
against illegal robotic weapons?
206
676459
3980
contra las armas robóticas ilegales?
11:20
I think the secret will be transparency.
207
680439
4741
Creo que el secreto será la transparencia.
11:25
No robot should have an expectation of privacy
208
685180
3013
No debería existir una expectativa de privacidad de un robot
11:28
in a public place.
209
688193
3451
en un lugar público.
11:31
(Applause)
210
691644
5048
(Aplausos)
11:36
Each robot and drone should have
211
696692
2045
Cada robot y drone deben tener
11:38
a cryptographically signed I.D. burned in at the factory
212
698737
2883
una identificación de fábrica firmada criptográficamente
11:41
that can be used to track its movement through public spaces.
213
701620
2923
que pueda utilizarse para seguir sus movimientos en los espacios públicos.
11:44
We have license plates on cars, tail numbers on aircraft.
214
704543
3381
Tenemos placas en los coches, números de matricula en los aviones.
11:47
This is no different.
215
707924
1841
Esto no es diferente.
11:49
And every citizen should be able to download an app
216
709765
2012
Y todos los ciudadanos deberían poder descargar una aplicación
11:51
that shows the population of drones and autonomous vehicles
217
711777
3125
que muestre la población de drones y vehículos autónomos
11:54
moving through public spaces around them,
218
714902
2429
moviéndose a través de espacios públicos alrededor de ellos,
11:57
both right now and historically.
219
717331
2733
tanto en ese momento como en un histórico.
12:00
And civic leaders should deploy sensors and civic drones
220
720064
3548
Y los líderes civiles deben desplegar sensores y drones civiles
12:03
to detect rogue drones,
221
723612
2344
para detectar los drones no autorizados,
12:05
and instead of sending killer drones of their own up to shoot them down,
222
725956
3176
y en lugar de enviar drones asesinos propios para derribarlos,
12:09
they should notify humans to their presence.
223
729132
2992
deben notificar a los humanos de su presencia.
12:12
And in certain very high-security areas,
224
732124
2606
Y en ciertas áreas de muy alta seguridad,
12:14
perhaps civic drones would snare them
225
734730
1909
tal vez los drones civiles deban capturarlos
12:16
and drag them off to a bomb disposal facility.
226
736639
2841
y arrastrarlos a una instalación de eliminación de explosivos.
12:19
But notice, this is more an immune system
227
739480
3027
Pero tengan en cuenta que esto es más un sistema inmunológico
12:22
than a weapons system.
228
742507
1321
que un sistema de armas.
12:23
It would allow us to avail ourselves of the use
229
743828
2592
Esto nos permitiría valernos del uso
12:26
of autonomous vehicles and drones
230
746420
2032
de drones y vehículos autónomos
12:28
while still preserving our open, civil society.
231
748452
4295
y al mismo tiempo salvaguardar nuestra abierta sociedad civil.
12:32
We must ban the deployment and development
232
752747
2999
Hay que prohibir el despliegue y desarrollo
12:35
of killer robots.
233
755746
1862
de robots asesinos.
12:37
Let's not succumb to the temptation to automate war.
234
757608
4850
No caigamos en la tentación de automatizar la guerra.
12:42
Autocratic governments and criminal organizations
235
762458
2718
Los gobiernos autocráticos y las organizaciones criminales
12:45
undoubtedly will, but let's not join them.
236
765176
2956
sin duda lo harán, pero nosotros no.
12:48
Autonomous robotic weapons
237
768132
1891
Las armas robóticas autónomas
12:50
would concentrate too much power
238
770023
2051
concentrarían demasiado poder
12:52
in too few unseen hands,
239
772074
2482
en muy pocas manos invisibles,
12:54
and that would be corrosive to representative government.
240
774556
3255
y eso sería corrosivo para un gobierno representativo.
12:57
Let's make sure, for democracies at least,
241
777811
2961
Asegurémonos de que al menos para las democracias,
13:00
killer robots remain fiction.
242
780772
2604
los robots asesinos sigan siendo ficción.
13:03
Thank you.
243
783376
1110
Gracias.
13:04
(Applause)
244
784486
4565
(Aplausos)
13:09
Thank you. (Applause)
245
789051
4616
Gracias. (Aplausos)
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7