Daniel Suarez: The kill decision shouldn't belong to a robot

76,064 views ・ 2013-06-13

TED


Dubbelklicka på de engelska undertexterna nedan för att spela upp videon.

00:00
Translator: Joseph Geni Reviewer: Morton Bast
0
0
7000
Översättare: Henrik Ahlen Granskare: Stephanie Green
00:12
I write fiction sci-fi thrillers,
1
12691
3158
Jag skriver fiktion, science-fiction thrillers,
00:15
so if I say "killer robots,"
2
15849
2193
så om jag säger "mördarrobotar",
00:18
you'd probably think something like this.
3
18042
2361
så tänker ni antagligen på någonting sånt här.
00:20
But I'm actually not here to talk about fiction.
4
20403
2555
Men jag är inte här för att tala om fiktion.
00:22
I'm here to talk about very real killer robots,
5
22958
2948
Jag är här för att tala om mycket verkliga mördarrrobotar,
00:25
autonomous combat drones.
6
25906
3122
autonoma stridsdrönare.
00:29
Now, I'm not referring to Predator and Reaper drones,
7
29028
3627
Jag menar inte drönare som Predator och Reaper,
00:32
which have a human making targeting decisions.
8
32655
3260
som har en människa som avgör angreppsmålen.
00:35
I'm talking about fully autonomous robotic weapons
9
35915
3129
Jag talar om helt autonoma robotvapen
00:39
that make lethal decisions about human beings
10
39044
2654
som tar dödliga beslut om människor
00:41
all on their own.
11
41698
2417
helt på eget bevåg.
00:44
There's actually a technical term for this: lethal autonomy.
12
44115
4000
Det finns faktiskt en teknisk term för detta: dödlig autonomi.
00:48
Now, lethally autonomous killer robots
13
48115
2856
Dödliga, autonoma mördarrobotar
00:50
would take many forms -- flying, driving,
14
50971
3069
finns i många former - flygande, körande
00:54
or just lying in wait.
15
54040
2746
eller sådana som bara ligger och väntar.
00:56
And actually, they're very quickly becoming a reality.
16
56786
3109
De har faktiskt snabbt blivit verkliga.
00:59
These are two automatic sniper stations
17
59895
2484
Detta är två automatiska krypskyttestationer
01:02
currently deployed in the DMZ between North and South Korea.
18
62379
4137
som nu finns i den demilitariserade zonen mellan Nord- och Sydkorea.
01:06
Both of these machines are capable of automatically
19
66516
2171
Båda dessa maskiner är kapabla att automatiskt
01:08
identifying a human target and firing on it,
20
68687
3524
identifiera en människa och beskjuta henne,
01:12
the one on the left at a distance of over a kilometer.
21
72211
4324
den vänstra på ett avstånd av över en kilometer.
01:16
Now, in both cases, there's still a human in the loop
22
76535
3589
I båda fallen finns det fortfarande en människa med
01:20
to make that lethal firing decision,
23
80124
2372
som tar beslutet om att skjuta för att döda,
01:22
but it's not a technological requirement. It's a choice.
24
82496
5413
men det är inget tekniskt krav, det är ett val.
01:27
And it's that choice that I want to focus on,
25
87909
3093
Och det valet vill jag fokusera på,
01:31
because as we migrate lethal decision-making
26
91002
2641
eftersom när vi överför dödligt beslutsfattande
01:33
from humans to software,
27
93643
3109
från människor till mjukvara,
01:36
we risk not only taking the humanity out of war,
28
96752
3476
så riskerar vi inte bara att ta bort människan från krigföringen,
01:40
but also changing our social landscape entirely,
29
100228
3526
utan också att förändra vårt sociala landskap,
01:43
far from the battlefield.
30
103754
2224
långt från slagfältet.
01:45
That's because the way humans resolve conflict
31
105978
4509
Detta eftersom sättet som människor löser konflikter
01:50
shapes our social landscape.
32
110487
1733
formar vårt sociala landskap.
01:52
And this has always been the case, throughout history.
33
112220
2633
Och så har det alltid varit, genom historien.
01:54
For example, these were state-of-the-art weapons systems
34
114853
2661
Exempelvis, så var dessa vapen spjutspetsteknologi
01:57
in 1400 A.D.
35
117514
2079
på 1400-talet.
01:59
Now they were both very expensive to build and maintain,
36
119593
3144
De var dock mycket dyra att bygga och underhålla,
02:02
but with these you could dominate the populace,
37
122737
3240
men med dessa kunde man kontrollera massorna,
02:05
and the distribution of political power in feudal society reflected that.
38
125977
3889
och det reflekterades i distributionen av politisk makt i feodalsamhället.
02:09
Power was focused at the very top.
39
129866
2687
Makt fokuserades till den översta toppen.
02:12
And what changed? Technological innovation.
40
132553
3528
Vad hände sedan? Teknikutvecklingen.
02:16
Gunpowder, cannon.
41
136081
1871
Krut, kanoner.
02:17
And pretty soon, armor and castles were obsolete,
42
137952
3817
Snart var rustningar och slott föråldrade,
02:21
and it mattered less who you brought to the battlefield
43
141769
2533
och det betydde mindre vad du tog med till slagfältet
02:24
versus how many people you brought to the battlefield.
44
144302
3779
jämfört med hur många människor du tog med till slagfältet.
02:28
And as armies grew in size, the nation-state arose
45
148081
3638
När arméer växte i storlek uppstod nationalstaten
02:31
as a political and logistical requirement of defense.
46
151719
3680
som ett politiskt och logistiskt försvarskrav.
02:35
And as leaders had to rely on more of their populace,
47
155399
2376
När ledarna blev mera beroende av sin befolkning,
02:37
they began to share power.
48
157775
1833
började de dela med sig av makten.
02:39
Representative government began to form.
49
159608
2599
Representativt styre började ta form.
02:42
So again, the tools we use to resolve conflict
50
162207
3288
Så igen, verktygen som vi använder för att lösa konflikter
02:45
shape our social landscape.
51
165495
3304
formar vårt sociala landskap.
02:48
Autonomous robotic weapons are such a tool,
52
168799
4064
Autonoma robotvapen är ett sådant verktyg.
02:52
except that, by requiring very few people to go to war,
53
172863
5168
Eftersom de kräver mycket få människor för att starta krig,
02:58
they risk re-centralizing power into very few hands,
54
178031
4840
så riskerar de att återigen centralisera makten till ett fåtal.
03:02
possibly reversing a five-century trend toward democracy.
55
182871
6515
Därigenom reverseras femhundra års utveckling mot demokrati.
03:09
Now, I think, knowing this,
56
189386
1757
Nu tror jag att när vi vet detta,
03:11
we can take decisive steps to preserve our democratic institutions,
57
191143
4352
så kan vi ta avgörande steg för att bevara våra demokratiska institutioner.
03:15
to do what humans do best, which is adapt.
58
195495
3979
Vi kan anpassa oss.
03:19
But time is a factor.
59
199474
2005
Men tiden är en faktor.
03:21
Seventy nations are developing remotely-piloted
60
201479
2851
Sjuttio länder utvecklar egna
03:24
combat drones of their own,
61
204330
2157
fjärrstyrda stridsdrönare.
03:26
and as you'll see, remotely-piloted combat drones
62
206487
2593
Som ni kommer att se så är fjärrstyrda stridsdrönare
03:29
are the precursors to autonomous robotic weapons.
63
209080
4472
förstadiet till autonoma robotvapen.
03:33
That's because once you've deployed remotely-piloted drones,
64
213552
2767
Det beror på att när man har utvecklat fjärrstyrda drönare
03:36
there are three powerful factors pushing decision-making
65
216319
3384
så finns det tre starka faktorer som styr beslutsfattandet
03:39
away from humans and on to the weapon platform itself.
66
219703
4600
bort från människor och mot själva vapenplattformen.
03:44
The first of these is the deluge of video that drones produce.
67
224303
5259
Den första är floden av data som skapas av drönare.
03:49
For example, in 2004, the U.S. drone fleet produced
68
229562
3853
2004 så producerade de amerikanska drönarna
03:53
a grand total of 71 hours of video surveillance for analysis.
69
233415
5312
totalt 71 timmar övervakningsvideo för analys.
03:58
By 2011, this had gone up to 300,000 hours,
70
238727
4499
2011 hade detta ökat till 300 000 timmar,
04:03
outstripping human ability to review it all,
71
243226
3149
vilket överstiger den mänskliga förmågan att gå igenom.
04:06
but even that number is about to go up drastically.
72
246375
3664
Men till och med den siffran kommer att öka drastiskt.
04:10
The Pentagon's Gorgon Stare and Argus programs
73
250039
2575
Pentagons program Gorgon Stare och Argus
04:12
will put up to 65 independently operated camera eyes
74
252614
3164
kommer att sätta 65 självständiga kameror
04:15
on each drone platform,
75
255778
2038
på varje drönare,
04:17
and this would vastly outstrip human ability to review it.
76
257816
3303
vilket skulle omöjliggöra mänsklig analys.
04:21
And that means visual intelligence software will need
77
261119
2160
Det betyder att program för visuell analys
04:23
to scan it for items of interest.
78
263279
4048
krävs för att hitta intressanta händelser.
04:27
And that means very soon
79
267327
1348
Och det betyder att inom kort
04:28
drones will tell humans what to look at,
80
268675
2747
kommer drönare att säga till människor vad de ska se på,
04:31
not the other way around.
81
271422
2497
och inte tvärtom.
04:33
But there's a second powerful incentive pushing
82
273919
2473
Men det finns en andra faktor som driver
04:36
decision-making away from humans and onto machines,
83
276392
3383
beslutsfattande från människor till maskiner,
04:39
and that's electromagnetic jamming,
84
279775
2872
det är elektromagnetiska störsändare,
04:42
severing the connection between the drone
85
282647
2236
som bryter förbindelsen mellan drönaren
04:44
and its operator.
86
284883
2814
och dess operatör.
04:47
Now we saw an example of this in 2011
87
287697
2618
Vi såg ett exempel på detta 2011,
04:50
when an American RQ-170 Sentinel drone
88
290315
2956
när en amerikansk RQ-170 Sentinel-drönare
04:53
got a bit confused over Iran due to a GPS spoofing attack,
89
293271
4307
blev förvirrad ovanför Iran på grund av en GPS-störning,
04:57
but any remotely-piloted drone is susceptible to this type of attack,
90
297578
5114
men alla fjärrstyrda drönare är mottagliga för denna typ av attacker,
05:02
and that means drones
91
302692
2052
och det betyder att drönare
05:04
will have to shoulder more decision-making.
92
304744
3620
måste fatta fler beslut själva.
05:08
They'll know their mission objective,
93
308364
3043
De vet syftet med sina uppdrag,
05:11
and they'll react to new circumstances without human guidance.
94
311407
4845
och de kommer att reagera på nya omständigheter utan mänsklig styrning.
05:16
They'll ignore external radio signals
95
316252
2581
De kommer att ignorera externa radiosignaler
05:18
and send very few of their own.
96
318833
2330
och skicka väldigt få signaler själva.
05:21
Which brings us to, really, the third
97
321163
2006
Detta leder oss till den tredje
05:23
and most powerful incentive pushing decision-making
98
323169
3862
och starkaste faktor som driver beslutsfattande
05:27
away from humans and onto weapons:
99
327031
3342
från människor till vapen:
05:30
plausible deniability.
100
330373
3293
möjligheten att förneka.
05:33
Now we live in a global economy.
101
333666
2887
Vi lever i en global ekonomi.
05:36
High-tech manufacturing is occurring on most continents.
102
336553
4334
Högteknologisk tillverkning sker på de flesta kontinenter.
05:40
Cyber espionage is spiriting away advanced designs
103
340887
2914
Cyberspioneri sprider avancerade konstruktioner
05:43
to parts unknown,
104
343801
1886
till okända parter,
05:45
and in that environment, it is very likely
105
345687
2014
i den miljön är det mycket troligt
05:47
that a successful drone design will be knocked off in contract factories,
106
347701
4734
att en lyckad drönardesign kommer att kopieras i fabriker
05:52
proliferate in the gray market.
107
352435
2170
som växer fram på den grå marknaden.
05:54
And in that situation, sifting through the wreckage
108
354605
2460
I den situationen, när man går igenom vraket
05:57
of a suicide drone attack, it will be very difficult to say
109
357065
2960
efter en självmordsattack av en drönare, kommer det
06:00
who sent that weapon.
110
360025
4400
vara mycket svårt att säga vem som sände vapnet.
06:04
This raises the very real possibility
111
364425
2800
Detta skapar reella möjligheter
06:07
of anonymous war.
112
367225
2935
till anonym krigföring.
06:10
This could tilt the geopolitical balance on its head,
113
370160
2614
Detta kan ge slagsida åt den geopolitiska balansen,
06:12
make it very difficult for a nation to turn its firepower
114
372774
3491
och göra det mycket svårt för en stat att rikta sin eldkraft
06:16
against an attacker, and that could shift the balance
115
376265
2848
mot en motståndare, och det kan flytta balansen
06:19
in the 21st century away from defense and toward offense.
116
379113
3764
i vårt århundrade från försvar till offensiv.
06:22
It could make military action a viable option
117
382877
3124
Det kan göra militära aktioner genomförbara
06:26
not just for small nations,
118
386001
2288
inte bara för små länder,
06:28
but criminal organizations, private enterprise,
119
388289
2545
utan även för kriminella organisationer, privata företag,
06:30
even powerful individuals.
120
390834
2479
till och med mäktiga individer.
06:33
It could create a landscape of rival warlords
121
393313
3328
Det kan skapa en miljö med rivaliserande krigsherrar
06:36
undermining rule of law and civil society.
122
396641
3680
som underminerar lagar och samhälle.
06:40
Now if responsibility and transparency
123
400321
3616
Om nu ansvarsfullhet och transparens
06:43
are two of the cornerstones of representative government,
124
403937
2384
är två hörnstenar för representativt regerande,
06:46
autonomous robotic weapons could undermine both.
125
406321
4320
så kan autonoma robotvapen underminera båda.
06:50
Now you might be thinking that
126
410641
1546
Nu tror du kanske att
06:52
citizens of high-tech nations
127
412187
2246
medborgare i högteknologiska nationer
06:54
would have the advantage in any robotic war,
128
414433
2703
skulle ha en fördel i ett robotkrig,
06:57
that citizens of those nations would be less vulnerable,
129
417136
3633
att dessa medborgare skulle vara mindre sårbara,
07:00
particularly against developing nations.
130
420769
4288
framförallt gentemot utvecklingsländer.
07:05
But I think the truth is the exact opposite.
131
425057
3524
Men jag tror att det är precis tvärtom.
07:08
I think citizens of high-tech societies
132
428581
2251
Jag tror att medborgare i högteknologiska samhällen
07:10
are more vulnerable to robotic weapons,
133
430832
3729
är mer sårbara för robotvapen,
07:14
and the reason can be summed up in one word: data.
134
434561
4465
anledningen kan summeras till ett ord: data.
07:19
Data powers high-tech societies.
135
439026
3481
Data driver högteknologiska samhällen.
07:22
Cell phone geolocation, telecom metadata,
136
442507
3190
Mobiltelefoners positionering, metadata inom telekom,
07:25
social media, email, text, financial transaction data,
137
445697
3472
sociala medier, email, SMS, finansiella data,
07:29
transportation data, it's a wealth of real-time data
138
449169
3532
transportdata. Det finns ett överflöd av realtids-data
07:32
on the movements and social interactions of people.
139
452701
3373
om människors rörelser och sociala interaktioner.
07:36
In short, we are more visible to machines
140
456074
3775
Kort sagt, vi är mer synliga för maskiner
07:39
than any people in history,
141
459849
2242
än något folk har varit genom historien,
07:42
and this perfectly suits the targeting needs of autonomous weapons.
142
462091
5616
och det är perfekt för autonoma vapens målsökande.
07:47
What you're looking at here
143
467707
1738
Vad ni ser här
07:49
is a link analysis map of a social group.
144
469445
3246
är en analyskarta för länkarna inom en social grupp.
07:52
Lines indicate social connectedness between individuals.
145
472691
3634
Linjerna visar kopplingarna mellan individer.
07:56
And these types of maps can be automatically generated
146
476325
2880
Dessa typer av kartor kan skapas automatiskt,
07:59
based on the data trail modern people leave behind.
147
479205
4715
baserat på de data-spår som moderna människor efterlämnar.
08:03
Now it's typically used to market goods and services
148
483920
2477
Det används normalt för marknadsföring av saker och tjänster
08:06
to targeted demographics, but it's a dual-use technology,
149
486397
4416
till riktade målgrupper, men tekniken kan även hitta mål
08:10
because targeting is used in another context.
150
490813
3360
i en annan kontext.
08:14
Notice that certain individuals are highlighted.
151
494173
2560
Notera att vissa individer är markerade.
08:16
These are the hubs of social networks.
152
496733
3280
De är centralfigurerna i sociala nätverk.
08:20
These are organizers, opinion-makers, leaders,
153
500013
3590
De är organisatörer, opinionsbildare, ledare
08:23
and these people also can be automatically identified
154
503603
2682
och de kan även identifieras automatiskt
08:26
from their communication patterns.
155
506285
2382
genom deras kommunikationsmönster.
08:28
Now, if you're a marketer, you might then target them
156
508667
2146
Om du är marknadsförare kanske du vill ge dem
08:30
with product samples, try to spread your brand
157
510813
2543
produkter att prova, för att sprida ditt varumärke
08:33
through their social group.
158
513356
2829
genom deras sociala grupp.
08:36
But if you're a repressive government
159
516185
1953
Men om du är en förtryckarregim
08:38
searching for political enemies, you might instead remove them,
160
518138
4810
som söker politiska fiender, så kanske du istället vill eliminera dem
08:42
eliminate them, disrupt their social group,
161
522948
2760
splittra deras sociala grupp,
08:45
and those who remain behind lose social cohesion
162
525708
3169
så att deras anhängare tappar social sammanhållning
08:48
and organization.
163
528877
2621
och organisering.
08:51
Now in a world of cheap, proliferating robotic weapons,
164
531498
3324
I en värld med en växande samling billiga robotvapen,
08:54
borders would offer very little protection
165
534822
2635
skulle gränser erbjuda väldigt lite skydd
08:57
to critics of distant governments
166
537457
1946
för kritiker av avlägsna regeringar
08:59
or trans-national criminal organizations.
167
539403
3646
eller transnationella kriminella organisationer.
09:03
Popular movements agitating for change
168
543049
3493
Populära rörelser som agiterar för förändring
09:06
could be detected early and their leaders eliminated
169
546542
3609
kan upptäckas tidigt och deras ledare elimineras
09:10
before their ideas achieve critical mass.
170
550151
2911
innan deras idéer har uppnått kritisk massa.
09:13
And ideas achieving critical mass
171
553062
2591
Idéer som uppnår kritisk massa
09:15
is what political activism in popular government is all about.
172
555653
3936
är precis vad politisk aktivism handlar om.
09:19
Anonymous lethal weapons could make lethal action
173
559589
3997
Anonyma, dödliga vapen kan göra dödligt våld
09:23
an easy choice for all sorts of competing interests.
174
563586
3782
till ett lätt val för alla sorters konkurrerande intressen.
09:27
And this would put a chill on free speech
175
567368
3734
Det skulle hindra det fria ordet
09:31
and popular political action, the very heart of democracy.
176
571102
5308
och folkliga, politiska kampanjer, själva kärnan i demokrati.
09:36
And this is why we need an international treaty
177
576410
2914
Därför behöver vi ett internationellt avtal
09:39
on robotic weapons, and in particular a global ban
178
579324
3540
om robotvapen och särskilt ett globalt förbud
09:42
on the development and deployment of killer robots.
179
582864
3908
mot utveckling och användning av mördarrobotar.
09:46
Now we already have international treaties
180
586772
3254
Vi har redan internationella avtal
09:50
on nuclear and biological weapons, and, while imperfect,
181
590026
3386
om kärnvapen och biologiska vapen som inte är perfekta,
09:53
these have largely worked.
182
593412
2288
men som i stort sett har fungerat.
09:55
But robotic weapons might be every bit as dangerous,
183
595700
3768
Robotvapen kan vara precis lika farliga,
09:59
because they will almost certainly be used,
184
599468
3288
eftersom de säkerligen skulle användas,
10:02
and they would also be corrosive to our democratic institutions.
185
602756
5027
och därför komma att bryta ner våra demokratiska institutioner.
10:07
Now in November 2012 the U.S. Department of Defense
186
607783
3468
I november 2012 utfärdade det amerikanska försvarsdepartementet
10:11
issued a directive requiring
187
611251
2458
ett direktiv om att
10:13
a human being be present in all lethal decisions.
188
613709
4519
en människa ska vara närvarande vid dödliga beslut.
10:18
This temporarily effectively banned autonomous weapons in the U.S. military,
189
618228
4776
Detta har temporärt stoppat autonoma vapen inom den amerikanska militären,
10:23
but that directive needs to be made permanent.
190
623004
3753
men detta direktiv måste göras permanent.
10:26
And it could set the stage for global action.
191
626757
4376
Det skulle kunna bli norm för en global aktion.
10:31
Because we need an international legal framework
192
631133
3845
Vi behöver ett internationellt legalt ramverk
10:34
for robotic weapons.
193
634978
2138
för robotvapen.
10:37
And we need it now, before there's a devastating attack
194
637116
2928
Och vi behöver det nu, innan det sker en förödande attack
10:40
or a terrorist incident that causes nations of the world
195
640044
3152
eller en terroristincident som får världens länder
10:43
to rush to adopt these weapons
196
643196
1924
att rusa för att införa dessa vapen
10:45
before thinking through the consequences.
197
645120
3771
innan de tänker igenom konsekvenserna.
10:48
Autonomous robotic weapons concentrate too much power
198
648891
2981
Autonoma robotvapen koncentrerar för mycket makt
10:51
in too few hands, and they would imperil democracy itself.
199
651872
6283
i för få händer och de skulle äventyra själva demokratin.
10:58
Now, don't get me wrong, I think there are tons
200
658155
2686
Missförstå mig inte, jag tror att det finns massor
11:00
of great uses for unarmed civilian drones:
201
660841
2618
av bra användningsområden för obeväpnade civila drönare:
11:03
environmental monitoring, search and rescue, logistics.
202
663459
3939
miljöövervakning, personeftersökning, logistik.
11:07
If we have an international treaty on robotic weapons,
203
667398
2826
Om vi har ett internationellt avtal om robotvapen,
11:10
how do we gain the benefits of autonomous drones
204
670224
3587
hur kan vi dra nytta av fördelarna med autonoma drönare
11:13
and vehicles while still protecting ourselves
205
673811
2648
och farkoster medan vi skyddar oss själva
11:16
against illegal robotic weapons?
206
676459
3980
mot illegala robotvapen?
11:20
I think the secret will be transparency.
207
680439
4741
Jag tror att svaret är transparens.
11:25
No robot should have an expectation of privacy
208
685180
3013
Ingen robot ska kunna ha något privatliv
11:28
in a public place.
209
688193
3451
i publika områden.
11:31
(Applause)
210
691644
5048
(Applåd)
11:36
Each robot and drone should have
211
696692
2045
Varje robot eller drönare ska ha
11:38
a cryptographically signed I.D. burned in at the factory
212
698737
2883
ett kryptografiskt signerat ID inbränt i fabriken
11:41
that can be used to track its movement through public spaces.
213
701620
2923
som kan användas för att spåra dess rörelser i publika områden.
11:44
We have license plates on cars, tail numbers on aircraft.
214
704543
3381
Vi har nummerplåtar på bilar, ID-nummer på flygplan.
11:47
This is no different.
215
707924
1841
Detta är samma sak.
11:49
And every citizen should be able to download an app
216
709765
2012
Varje medborgare ska kunna ladda ner en app
11:51
that shows the population of drones and autonomous vehicles
217
711777
3125
som visar alla drönare och autonoma farkoster
11:54
moving through public spaces around them,
218
714902
2429
som rör sig i deras område,
11:57
both right now and historically.
219
717331
2733
både just nu och tidigare.
12:00
And civic leaders should deploy sensors and civic drones
220
720064
3548
Våra ledare bör sätta in sensorer och civila drönare
12:03
to detect rogue drones,
221
723612
2344
som detekterar kriminella drönare
12:05
and instead of sending killer drones of their own up to shoot them down,
222
725956
3176
och istället för att skjuta ner dem
12:09
they should notify humans to their presence.
223
729132
2992
ska de underrätta människor om deras närvaro.
12:12
And in certain very high-security areas,
224
732124
2606
I vissa högsäkerhetsområden,
12:14
perhaps civic drones would snare them
225
734730
1909
kan kanske civila drönare snärja in dem
12:16
and drag them off to a bomb disposal facility.
226
736639
2841
och dra iväg dem till en plats för att desarmera dem.
12:19
But notice, this is more an immune system
227
739480
3027
Lägg märke till att detta är mer ett immunsystem
12:22
than a weapons system.
228
742507
1321
än ett vapensystem.
12:23
It would allow us to avail ourselves of the use
229
743828
2592
Det låter oss dra nytta av att använda
12:26
of autonomous vehicles and drones
230
746420
2032
autonoma farkoster och drönare
12:28
while still preserving our open, civil society.
231
748452
4295
samtidigt som vi bevarar vårt öppna civila samhälle.
12:32
We must ban the deployment and development
232
752747
2999
Vi måste förbjuda användning och utveckling
12:35
of killer robots.
233
755746
1862
av mördarrobotar.
12:37
Let's not succumb to the temptation to automate war.
234
757608
4850
Låt oss inte falla för frestelsen att automatisera krig.
12:42
Autocratic governments and criminal organizations
235
762458
2718
Autokratiska regeringar och kriminella organisationer
12:45
undoubtedly will, but let's not join them.
236
765176
2956
kommer utan tvivel att göra det, men låt oss inte följa efter.
12:48
Autonomous robotic weapons
237
768132
1891
Autonoma robotvapen
12:50
would concentrate too much power
238
770023
2051
skulle koncentrera för mycket makt
12:52
in too few unseen hands,
239
772074
2482
i för få osynliga händer,
12:54
and that would be corrosive to representative government.
240
774556
3255
det skulle bryta ner representativt styre.
12:57
Let's make sure, for democracies at least,
241
777811
2961
Låt oss säkerställa, åtminstone för demokratier,
13:00
killer robots remain fiction.
242
780772
2604
att mördarrobotar förblir fiktion.
13:03
Thank you.
243
783376
1110
Tack
13:04
(Applause)
244
784486
4565
(Applåder)
13:09
Thank you. (Applause)
245
789051
4616
Tack (Applåd)
Om denna webbplats

På den här webbplatsen hittar du YouTube-videor som är användbara för att lära sig engelska. Du kommer att få se engelska lektioner som ges av förstklassiga lärare från hela världen. Dubbelklicka på de engelska undertexterna som visas på varje videosida för att spela upp videon därifrån. Undertexterna rullar i takt med videouppspelningen. Om du har några kommentarer eller önskemål kan du kontakta oss via detta kontaktformulär.

https://forms.gle/WvT1wiN1qDtmnspy7