Daniel Suarez: The kill decision shouldn't belong to a robot

Daniel Suarez : La décision de tuer ne devrait pas appartenir à un robot

76,064 views

2013-06-13 ・ TED


New videos

Daniel Suarez: The kill decision shouldn't belong to a robot

Daniel Suarez : La décision de tuer ne devrait pas appartenir à un robot

76,064 views ・ 2013-06-13

TED


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

00:00
Translator: Joseph Geni Reviewer: Morton Bast
0
0
7000
Traducteur: Gabriel Tallineau Relecteur: Veronica Perez
00:12
I write fiction sci-fi thrillers,
1
12691
3158
J'écris des thrillers de science fiction,
00:15
so if I say "killer robots,"
2
15849
2193
donc si je dis "robots tueurs",
00:18
you'd probably think something like this.
3
18042
2361
vous pensez sûrement à quelque chose de ce style.
00:20
But I'm actually not here to talk about fiction.
4
20403
2555
Mais je ne suis pas vraiment là pour parler fiction.
00:22
I'm here to talk about very real killer robots,
5
22958
2948
Je suis ici pour parler de robots tueurs bien réels,
00:25
autonomous combat drones.
6
25906
3122
des drones de combat autonomes.
00:29
Now, I'm not referring to Predator and Reaper drones,
7
29028
3627
Là, je ne me réfère pas aux drones Predator et Reaper,
00:32
which have a human making targeting decisions.
8
32655
3260
où il y a un humain aux commandes.
00:35
I'm talking about fully autonomous robotic weapons
9
35915
3129
Je parle d'armes robotisées pleinement autonomes
00:39
that make lethal decisions about human beings
10
39044
2654
qui prennent des décisions létales envers des êtres humains
00:41
all on their own.
11
41698
2417
de leur propre chef.
00:44
There's actually a technical term for this: lethal autonomy.
12
44115
4000
A vrai dire, il y a un terme technique pour cela : autonomie létale.
00:48
Now, lethally autonomous killer robots
13
48115
2856
Ainsi, les robots tueurs autonomes
00:50
would take many forms -- flying, driving,
14
50971
3069
pourraient prendre de multiples formes, aérienne, mobile,
00:54
or just lying in wait.
15
54040
2746
ou juste statique.
00:56
And actually, they're very quickly becoming a reality.
16
56786
3109
Et très rapidement, ils deviennent vraiment une réalité.
00:59
These are two automatic sniper stations
17
59895
2484
Voici deux sentinelles automatiques de tireur d'élite
01:02
currently deployed in the DMZ between North and South Korea.
18
62379
4137
actuellement déployée dans la Zone Démilitarisée entre les Corée du Nord et du Sud.
01:06
Both of these machines are capable of automatically
19
66516
2171
Ces deux machines sont capables de manière automatisée
01:08
identifying a human target and firing on it,
20
68687
3524
d'identifier une cible humaine et d'y ouvrir le feu,
01:12
the one on the left at a distance of over a kilometer.
21
72211
4324
la machine à gauche possède une portée supérieur à un kilomètre.
01:16
Now, in both cases, there's still a human in the loop
22
76535
3589
Maintenant, dans ces deux cas, il y a toujours un humain
01:20
to make that lethal firing decision,
23
80124
2372
dans la chaîne de commandement pour faire le létal choix de faire feu,
01:22
but it's not a technological requirement. It's a choice.
24
82496
5413
Mais ce n'est pas une contrainte technologique. C'est un choix.
01:27
And it's that choice that I want to focus on,
25
87909
3093
Et c'est sur ce choix que je veux me concentrer,
01:31
because as we migrate lethal decision-making
26
91002
2641
car en même temps que nous transférons, de l'homme vers le programme,
01:33
from humans to software,
27
93643
3109
la prise de décisions mortelles,
01:36
we risk not only taking the humanity out of war,
28
96752
3476
nous ne risquons pas seulement d'enlever l'humanité à la guerre,
01:40
but also changing our social landscape entirely,
29
100228
3526
mais aussi de modifier l'environnement social dans sa totalité,
01:43
far from the battlefield.
30
103754
2224
loin du champ de bataille.
01:45
That's because the way humans resolve conflict
31
105978
4509
Ceci parce que la manière des humains de résoudre des conflits
01:50
shapes our social landscape.
32
110487
1733
façonne notre environnement social.
01:52
And this has always been the case, throughout history.
33
112220
2633
Et à travers l'Histoire, cela a toujours été le cas.
01:54
For example, these were state-of-the-art weapons systems
34
114853
2661
Par exemple, il y avait ces systèmes d'armement de pointe
01:57
in 1400 A.D.
35
117514
2079
en 1400 avant J.-C. .
01:59
Now they were both very expensive to build and maintain,
36
119593
3144
Ils sont tous deux très chers à construire et à entretenir,
02:02
but with these you could dominate the populace,
37
122737
3240
mais avec eux vous pouviez dominer la population,
02:05
and the distribution of political power in feudal society reflected that.
38
125977
3889
et l'organisation du pouvoir politique dans la société féodale reflète cela.
02:09
Power was focused at the very top.
39
129866
2687
Le pouvoir était concentré au sommet.
02:12
And what changed? Technological innovation.
40
132553
3528
Et qu'est-ce qui a changé ? L'innovation technologique.
02:16
Gunpowder, cannon.
41
136081
1871
Poudre noire, canon.
02:17
And pretty soon, armor and castles were obsolete,
42
137952
3817
Et très vite, les armures et les châteaux sont devenus obsolètes,
02:21
and it mattered less who you brought to the battlefield
43
141769
2533
et il était moins important de savoir qui vous ameniez sur le champ de bataille
02:24
versus how many people you brought to the battlefield.
44
144302
3779
que le nombre de personnes que vous ameniez.
02:28
And as armies grew in size, the nation-state arose
45
148081
3638
Et alors que les armées grossissaient en effectif, l'Etat-Nation naissait
02:31
as a political and logistical requirement of defense.
46
151719
3680
en tant que besoin politique et logistique de défense.
02:35
And as leaders had to rely on more of their populace,
47
155399
2376
Et alors que les dirigeants devaient compter sur plus de population,
02:37
they began to share power.
48
157775
1833
ils commencèrent à partager le pouvoir.
02:39
Representative government began to form.
49
159608
2599
Des gouvernement représentatifs commencèrent à se former.
02:42
So again, the tools we use to resolve conflict
50
162207
3288
Une fois encore, les outils utilisés pour résoudre un conflit
02:45
shape our social landscape.
51
165495
3304
structurent notre environnement social.
02:48
Autonomous robotic weapons are such a tool,
52
168799
4064
Les armes robotisées autonomes sont de tels outils,
02:52
except that, by requiring very few people to go to war,
53
172863
5168
sauf que, en nécessitant très peu de personnes pour rentrer en guerre,
02:58
they risk re-centralizing power into very few hands,
54
178031
4840
ils risquent de reconcentrer le pouvoir dans très peu de mains,
03:02
possibly reversing a five-century trend toward democracy.
55
182871
6515
potentiellement renversant une tendance de cinq cents ans en faveur de la démocratie.
03:09
Now, I think, knowing this,
56
189386
1757
Maintenant, je pense, sachant ça,
03:11
we can take decisive steps to preserve our democratic institutions,
57
191143
4352
que nous pouvons mener des actions décisives pour préserver nos institutions démocratiques,
03:15
to do what humans do best, which is adapt.
58
195495
3979
pour faire ce que les hommes font le mieux, c'est-à-dire s'adapter.
03:19
But time is a factor.
59
199474
2005
Mais le temps est un facteur.
03:21
Seventy nations are developing remotely-piloted
60
201479
2851
Soixante-dix nations développent en interne
03:24
combat drones of their own,
61
204330
2157
des drones de combat télécommandés,
03:26
and as you'll see, remotely-piloted combat drones
62
206487
2593
et comme vous le verrez, les drones de combat télécommandés
03:29
are the precursors to autonomous robotic weapons.
63
209080
4472
sont les précurseurs des armes robotisées autonomes.
03:33
That's because once you've deployed remotely-piloted drones,
64
213552
2767
Cela est dû au fait qu'une fois que vous avez déployé vos drones télécommandés,
03:36
there are three powerful factors pushing decision-making
65
216319
3384
trois facteurs déterminants entraînent la prise de choix
03:39
away from humans and on to the weapon platform itself.
66
219703
4600
loin des hommes et vers l'unité armée elle-même.
03:44
The first of these is the deluge of video that drones produce.
67
224303
5259
La première des raisons est le déluge de vidéos que les drones produisent.
03:49
For example, in 2004, the U.S. drone fleet produced
68
229562
3853
Par exemple, en 2004, la flotte de drones américains a produit
03:53
a grand total of 71 hours of video surveillance for analysis.
69
233415
5312
une somme totale de 71 heures de vidéo-surveillance à analyser.
03:58
By 2011, this had gone up to 300,000 hours,
70
238727
4499
En 2011, cela a atteint les 300 000 heures,
04:03
outstripping human ability to review it all,
71
243226
3149
dépassant la capacité humaine à tout voir,
04:06
but even that number is about to go up drastically.
72
246375
3664
et même ce nombre est sur le point d'exploser.
04:10
The Pentagon's Gorgon Stare and Argus programs
73
250039
2575
Les programmes Gorgon Stare et Argus du Pentagone
04:12
will put up to 65 independently operated camera eyes
74
252614
3164
vont porter à 65 caméras indépendamment contrôlées
04:15
on each drone platform,
75
255778
2038
sur chaque drone,
04:17
and this would vastly outstrip human ability to review it.
76
257816
3303
et cela va grandement dépasser la capacité humaine à voir ces vidéos.
04:21
And that means visual intelligence software will need
77
261119
2160
Cela signifie qu'il va falloir des programmes de recueil d'informations visuelles
04:23
to scan it for items of interest.
78
263279
4048
pour scanner les vidéos pour trouver du matériel intéressant.
04:27
And that means very soon
79
267327
1348
Et cela signifie que très bientôt
04:28
drones will tell humans what to look at,
80
268675
2747
les drones vont dire aux hommes ce qu'il faut regarder,
04:31
not the other way around.
81
271422
2497
et non l'inverse.
04:33
But there's a second powerful incentive pushing
82
273919
2473
Mais il y a une seconde motivation importante
04:36
decision-making away from humans and onto machines,
83
276392
3383
pour déporter le rôle décisionnel des hommes vers les machines,
04:39
and that's electromagnetic jamming,
84
279775
2872
et c'est le brouillage électromagnétique,
04:42
severing the connection between the drone
85
282647
2236
bloquant la connexion entre le drone
04:44
and its operator.
86
284883
2814
et son opérateur.
04:47
Now we saw an example of this in 2011
87
287697
2618
Nous avons vu un exemple de cela en 2011
04:50
when an American RQ-170 Sentinel drone
88
290315
2956
lorsqu'un drone RQ-170 Sentinel américain
04:53
got a bit confused over Iran due to a GPS spoofing attack,
89
293271
4307
a été embrouillé au dessus de l'Iran à cause d'une attaque de modification du GPS,
04:57
but any remotely-piloted drone is susceptible to this type of attack,
90
297578
5114
mais tout drone télécommandé est sensible à ce type d'attaque,
05:02
and that means drones
91
302692
2052
et cela signifie que les drones
05:04
will have to shoulder more decision-making.
92
304744
3620
vont devoir endosser plus de prises de décision.
05:08
They'll know their mission objective,
93
308364
3043
Ils connaîtront les objectifs de mission,
05:11
and they'll react to new circumstances without human guidance.
94
311407
4845
et ils feront face aux nouvelles conditions sans intervention humaine.
05:16
They'll ignore external radio signals
95
316252
2581
Ils vont ignorer les signaux radio externes
05:18
and send very few of their own.
96
318833
2330
et en émettre très peu de leur côté.
05:21
Which brings us to, really, the third
97
321163
2006
Ce qui nous mène, vraiment, à la troisième
05:23
and most powerful incentive pushing decision-making
98
323169
3862
et plus importante motivation pour enlever
05:27
away from humans and onto weapons:
99
327031
3342
la décision aux hommes et la mettre dans les armes :
05:30
plausible deniability.
100
330373
3293
possibilité de nier de façon plausible.
05:33
Now we live in a global economy.
101
333666
2887
Aujourd'hui nous vivons dans une économie généralisée.
05:36
High-tech manufacturing is occurring on most continents.
102
336553
4334
La production de haute technologie a lieu sur la plupart des continents.
05:40
Cyber espionage is spiriting away advanced designs
103
340887
2914
Le cyber-espionnage exporte les conceptions avancées
05:43
to parts unknown,
104
343801
1886
vers des tiers inconnus,
05:45
and in that environment, it is very likely
105
345687
2014
et dans cet environnement, il est très probable
05:47
that a successful drone design will be knocked off in contract factories,
106
347701
4734
qu'un concept réussi de drone soit volé dans les entreprises contractées,
05:52
proliferate in the gray market.
107
352435
2170
se répandent sur le marché parallèle.
05:54
And in that situation, sifting through the wreckage
108
354605
2460
Et dans ce cas, en fouillant les débris
05:57
of a suicide drone attack, it will be very difficult to say
109
357065
2960
d'une attaque suicide de drone, il sera très difficile de dire
06:00
who sent that weapon.
110
360025
4400
qui a envoyé cette arme.
06:04
This raises the very real possibility
111
364425
2800
Cela ouvre la réelle possibilité
06:07
of anonymous war.
112
367225
2935
de la guerre anonyme.
06:10
This could tilt the geopolitical balance on its head,
113
370160
2614
Cela pourrait déstabiliser la balance géopolitique,
06:12
make it very difficult for a nation to turn its firepower
114
372774
3491
rendre très difficile pour un pays d'utiliser sa puissance de feu
06:16
against an attacker, and that could shift the balance
115
376265
2848
contre un attaquant, cela pourrait, au 21ème siècle,
06:19
in the 21st century away from defense and toward offense.
116
379113
3764
faire pencher la balance en faveur de l'attaque au détriment de la défense.
06:22
It could make military action a viable option
117
382877
3124
Cela pourrait rendre envisageable des actions militaires
06:26
not just for small nations,
118
386001
2288
non juste pour de petits pays,
06:28
but criminal organizations, private enterprise,
119
388289
2545
mais pour des organisations criminelles, des entreprises privées
06:30
even powerful individuals.
120
390834
2479
et même des puissants individus.
06:33
It could create a landscape of rival warlords
121
393313
3328
Cela pourrait créer un paysage de seigneurs de guerre rivaux
06:36
undermining rule of law and civil society.
122
396641
3680
sabotant le règne de la loi et de la société civile.
06:40
Now if responsibility and transparency
123
400321
3616
Si la responsabilité et la transparence
06:43
are two of the cornerstones of representative government,
124
403937
2384
sont deux éléments clefs des gouvernements représentatifs de leur nation,
06:46
autonomous robotic weapons could undermine both.
125
406321
4320
les armes robotisées autonomes pourraient les saboter tous deux.
06:50
Now you might be thinking that
126
410641
1546
Là vous pourriez penser que
06:52
citizens of high-tech nations
127
412187
2246
les citoyens de pays high-techs
06:54
would have the advantage in any robotic war,
128
414433
2703
auraient l'avantage dans n'importe quelle guerre robotique,
06:57
that citizens of those nations would be less vulnerable,
129
417136
3633
que les citoyens de ces nations seraient moins vulnérables,
07:00
particularly against developing nations.
130
420769
4288
en particulier contre les pays en développement.
07:05
But I think the truth is the exact opposite.
131
425057
3524
Mais je pense que la vérité est l'exacte opposé.
07:08
I think citizens of high-tech societies
132
428581
2251
Je pense que les citoyens des sociétés high-techs
07:10
are more vulnerable to robotic weapons,
133
430832
3729
sont plus vulnérables aux armes robotisées,
07:14
and the reason can be summed up in one word: data.
134
434561
4465
et la raison peut être résumée en un mot : l'information.
07:19
Data powers high-tech societies.
135
439026
3481
L'information alimente les sociétés informatisées.
07:22
Cell phone geolocation, telecom metadata,
136
442507
3190
Géolocalisation des téléphones, métadonnées de télécommunications,
07:25
social media, email, text, financial transaction data,
137
445697
3472
médias sociaux, e-mails, textos, informations sur des transactions financières,
07:29
transportation data, it's a wealth of real-time data
138
449169
3532
informations sur des transports, c'est une richesse de données en temps réel
07:32
on the movements and social interactions of people.
139
452701
3373
sur les mouvements et les échanges sociaux des gens.
07:36
In short, we are more visible to machines
140
456074
3775
En résumé, nous sommes plus visibles aux machines
07:39
than any people in history,
141
459849
2242
que quiconque dans l'Histoire,
07:42
and this perfectly suits the targeting needs of autonomous weapons.
142
462091
5616
et cela correspond parfaitement aux besoins de ciblage des armes autonomes.
07:47
What you're looking at here
143
467707
1738
Ce que vous regardez ici
07:49
is a link analysis map of a social group.
144
469445
3246
est une carte d'analyse de connexion d'un groupe social.
07:52
Lines indicate social connectedness between individuals.
145
472691
3634
Les lignes indiquent une connexité social entre individus.
07:56
And these types of maps can be automatically generated
146
476325
2880
Et ce type de carte peut être automatiquement générée
07:59
based on the data trail modern people leave behind.
147
479205
4715
en se basant sur les traces d'informations que les gens modernes laissent derrière eux.
08:03
Now it's typically used to market goods and services
148
483920
2477
On l'utilise généralement pour promouvoir des biens ou des services
08:06
to targeted demographics, but it's a dual-use technology,
149
486397
4416
à des populations ciblées, mais c'est une technologie à double tranchant,
08:10
because targeting is used in another context.
150
490813
3360
car le ciblage est utilisé dans un autre contexte.
08:14
Notice that certain individuals are highlighted.
151
494173
2560
Remarquez que certains individus sont surlignés.
08:16
These are the hubs of social networks.
152
496733
3280
Ce sont des centres de réseaux sociaux.
08:20
These are organizers, opinion-makers, leaders,
153
500013
3590
Ce sont des organisateurs, des façonneurs d'opinion, chefs,
08:23
and these people also can be automatically identified
154
503603
2682
et ces personnes peuvent être automatiquement identifiées
08:26
from their communication patterns.
155
506285
2382
à partir du schéma de leurs communications.
08:28
Now, if you're a marketer, you might then target them
156
508667
2146
Si vous êtes un commerçant, vous pourrez alors les cibler
08:30
with product samples, try to spread your brand
157
510813
2543
avec des échantillons de produits, essayer de diffuser votre marque
08:33
through their social group.
158
513356
2829
dans leur groupe social.
08:36
But if you're a repressive government
159
516185
1953
Mais si vous êtes un gouvernement répressif
08:38
searching for political enemies, you might instead remove them,
160
518138
4810
en quête d'ennemis politiques, vous pourriez au contraire les évincer,
08:42
eliminate them, disrupt their social group,
161
522948
2760
les éliminer, désorganiser leur groupe social,
08:45
and those who remain behind lose social cohesion
162
525708
3169
et ceux qui restent perdent la cohésion sociale
08:48
and organization.
163
528877
2621
et l'organisation.
08:51
Now in a world of cheap, proliferating robotic weapons,
164
531498
3324
Ainsi dans un monde où prolifèrent les armes robotisées à bas coûts,
08:54
borders would offer very little protection
165
534822
2635
les frontières vont offrir très peu de protection
08:57
to critics of distant governments
166
537457
1946
face aux critiques de gouvernements éloignés
08:59
or trans-national criminal organizations.
167
539403
3646
ou à des organisations criminelles internationales.
09:03
Popular movements agitating for change
168
543049
3493
Des mouvements populaires pour le changement
09:06
could be detected early and their leaders eliminated
169
546542
3609
pourraient être détectés tôt et voir leurs chefs éliminés
09:10
before their ideas achieve critical mass.
170
550151
2911
avant que leurs idées n'atteignent une masse critique.
09:13
And ideas achieving critical mass
171
553062
2591
Et des idées atteignant une masse critique
09:15
is what political activism in popular government is all about.
172
555653
3936
est exactement cet activisme politique dans les gouvernements populaires.
09:19
Anonymous lethal weapons could make lethal action
173
559589
3997
Des armes mortelles anonymes pourraient faire des actes meurtriers
09:23
an easy choice for all sorts of competing interests.
174
563586
3782
un choix facile pour toute sorte de conflits d'intérêts.
09:27
And this would put a chill on free speech
175
567368
3734
Et cela porterait atteinte à la liberté d'expression
09:31
and popular political action, the very heart of democracy.
176
571102
5308
et à l'action politique populaire, le cœur même de la démocratie.
09:36
And this is why we need an international treaty
177
576410
2914
Voilà pourquoi nous avons besoin d'un traité international
09:39
on robotic weapons, and in particular a global ban
178
579324
3540
sur les armes robotisées, et en particulier d'un ban
09:42
on the development and deployment of killer robots.
179
582864
3908
du développement et du déploiement de robots tueurs.
09:46
Now we already have international treaties
180
586772
3254
Aujourd'hui nous avons des traités internationaux
09:50
on nuclear and biological weapons, and, while imperfect,
181
590026
3386
sur les armes nucléaires et biologiques, et bien qu'imparfaites
09:53
these have largely worked.
182
593412
2288
elles ont largement fonctionné.
09:55
But robotic weapons might be every bit as dangerous,
183
595700
3768
Mais les armes robotisées pourraient se révéler tout autant dangeureuses
09:59
because they will almost certainly be used,
184
599468
3288
car elles seront presque certainement utilisées
10:02
and they would also be corrosive to our democratic institutions.
185
602756
5027
et elles seront aussi néfastes pour nos institutions démocratiques.
10:07
Now in November 2012 the U.S. Department of Defense
186
607783
3468
En novembre 2012, le Département de la Défense américain
10:11
issued a directive requiring
187
611251
2458
a émis une directive exigeant
10:13
a human being be present in all lethal decisions.
188
613709
4519
qu'un humain soit présent dans toute décision létale.
10:18
This temporarily effectively banned autonomous weapons in the U.S. military,
189
618228
4776
Cela a efficacement banni les armes autonomes dans l'armée américaine,
10:23
but that directive needs to be made permanent.
190
623004
3753
mais cette directive doit être rendue permanente.
10:26
And it could set the stage for global action.
191
626757
4376
Cela pourrait poser les bases à une action généralisée.
10:31
Because we need an international legal framework
192
631133
3845
Car nous avons besoin d'un cadre juridique international
10:34
for robotic weapons.
193
634978
2138
pour les armes robotisées.
10:37
And we need it now, before there's a devastating attack
194
637116
2928
Et nous en avons besoin maintenant, avant qu'il n'y ait une attaque dévastatrice
10:40
or a terrorist incident that causes nations of the world
195
640044
3152
ou un incident terroriste qui entraînerait les nations du monde
10:43
to rush to adopt these weapons
196
643196
1924
à se précipiter pour acquérir ces armes
10:45
before thinking through the consequences.
197
645120
3771
avant de songer aux conséquences.
10:48
Autonomous robotic weapons concentrate too much power
198
648891
2981
Les armes robotisées autonomes concentre trop de pouvoir
10:51
in too few hands, and they would imperil democracy itself.
199
651872
6283
dans trop peu de mains, et elles mettraient en péril la démocratie elle-même.
10:58
Now, don't get me wrong, I think there are tons
200
658155
2686
Mais comprenez moi bien, je pense qu'il y a énormément
11:00
of great uses for unarmed civilian drones:
201
660841
2618
d'utilisation bénéfiques pour des drones civils non armés :
11:03
environmental monitoring, search and rescue, logistics.
202
663459
3939
gestion environnementale, recherche et sauvetage, logistique.
11:07
If we have an international treaty on robotic weapons,
203
667398
2826
Si nous avons un traité international sur les armes robotisées,
11:10
how do we gain the benefits of autonomous drones
204
670224
3587
comme pouvons-nous profiter des gains des drones
11:13
and vehicles while still protecting ourselves
205
673811
2648
et véhicules autonomes tout en nous protégeant
11:16
against illegal robotic weapons?
206
676459
3980
des armes robotisées illégales ?
11:20
I think the secret will be transparency.
207
680439
4741
Je pense que le secret est la transparence.
11:25
No robot should have an expectation of privacy
208
685180
3013
Aucun robot ne devrait avoir un but privé
11:28
in a public place.
209
688193
3451
dans un espace public.
11:31
(Applause)
210
691644
5048
( Applaudissements )
11:36
Each robot and drone should have
211
696692
2045
Chaque robot et drone devrait avoir
11:38
a cryptographically signed I.D. burned in at the factory
212
698737
2883
une carte d'identité à signature cryptographique incrustée à l'usine
11:41
that can be used to track its movement through public spaces.
213
701620
2923
qui puisse être utilisée pour suivre ses mouvements dans les espaces publics.
11:44
We have license plates on cars, tail numbers on aircraft.
214
704543
3381
Nous avons des plaques d'immatriculation sur les voitures, des immatriculations sur les avions.
11:47
This is no different.
215
707924
1841
Ceci n'est aucunement différent.
11:49
And every citizen should be able to download an app
216
709765
2012
Et chaque citoyen devrait pouvoir télécharger une application
11:51
that shows the population of drones and autonomous vehicles
217
711777
3125
qui montre la population de drones et de véhicules autonomes
11:54
moving through public spaces around them,
218
714902
2429
se déplaçant dans les espaces publics autour d'eux,
11:57
both right now and historically.
219
717331
2733
en tant réel et historiquement.
12:00
And civic leaders should deploy sensors and civic drones
220
720064
3548
Et les responsables publics devraient déployer des détecteurs et des drones officiels
12:03
to detect rogue drones,
221
723612
2344
pour détecter des drones illégaux,
12:05
and instead of sending killer drones of their own up to shoot them down,
222
725956
3176
et à la place de choisir d'envoyer des robots tueurs pour les neutraliser
12:09
they should notify humans to their presence.
223
729132
2992
ils devraient avertir les humains de leur présence.
12:12
And in certain very high-security areas,
224
732124
2606
Et dans certaines zones de très haute sécurité,
12:14
perhaps civic drones would snare them
225
734730
1909
peut-être ces drones les piégreraient
12:16
and drag them off to a bomb disposal facility.
226
736639
2841
et les traîneraient dans une installation de déminage.
12:19
But notice, this is more an immune system
227
739480
3027
Mais notez que ceci est plus un système immunitaire
12:22
than a weapons system.
228
742507
1321
qu'un système armé.
12:23
It would allow us to avail ourselves of the use
229
743828
2592
Cela nous autoriserait à utiliser personnellement
12:26
of autonomous vehicles and drones
230
746420
2032
des véhicules et drones autonomes
12:28
while still preserving our open, civil society.
231
748452
4295
tout en préservant notre société ouverte et civile.
12:32
We must ban the deployment and development
232
752747
2999
Nous devons interdire le déploiement et le développement
12:35
of killer robots.
233
755746
1862
de robots tueurs.
12:37
Let's not succumb to the temptation to automate war.
234
757608
4850
Ne cédons pas à la tentation d'automatiser la guerre.
12:42
Autocratic governments and criminal organizations
235
762458
2718
Les gouvernements autocratiques et les organisations criminelles
12:45
undoubtedly will, but let's not join them.
236
765176
2956
céderont à coup sûr, mais ne les rejoignons pas.
12:48
Autonomous robotic weapons
237
768132
1891
Les armes robotisées autonomes
12:50
would concentrate too much power
238
770023
2051
concentreraient trop de pouvoir
12:52
in too few unseen hands,
239
772074
2482
dans trop peu de mains invisibles,
12:54
and that would be corrosive to representative government.
240
774556
3255
et cela serait néfaste aux gouvernements représentatifs.
12:57
Let's make sure, for democracies at least,
241
777811
2961
Soyons certains, au moins pour les démocraties,
13:00
killer robots remain fiction.
242
780772
2604
que les robots tueurs restent une fiction.
13:03
Thank you.
243
783376
1110
Merci
13:04
(Applause)
244
784486
4565
(Applaudissements)
13:09
Thank you. (Applause)
245
789051
4616
Merci. (Applaudissements)
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7