Daniel Suarez: The kill decision shouldn't belong to a robot

Daniel Suarez: Roboter sollten keine tödlichen Entscheidungen treffen

76,064 views

2013-06-13 ・ TED


New videos

Daniel Suarez: The kill decision shouldn't belong to a robot

Daniel Suarez: Roboter sollten keine tödlichen Entscheidungen treffen

76,064 views ・ 2013-06-13

TED


Bitte doppelklicken Sie auf die englischen Untertitel unten, um das Video abzuspielen.

00:00
Translator: Joseph Geni Reviewer: Morton Bast
0
0
7000
Übersetzung: Calvin Oneeightytwo Lektorat: Judith Matz
00:12
I write fiction sci-fi thrillers,
1
12691
3158
Ich schreibe Sci-Fi Thriller,
00:15
so if I say "killer robots,"
2
15849
2193
wenn ich also "Killer-Roboter" sage,
00:18
you'd probably think something like this.
3
18042
2361
dann denken Sie wahrscheinlich an einen wie diesen.
00:20
But I'm actually not here to talk about fiction.
4
20403
2555
Aber ich bin nicht hier, um über Fiktion zu sprechen.
00:22
I'm here to talk about very real killer robots,
5
22958
2948
Ich bin hier, um über echte Killer-Roboter zu sprechen,
00:25
autonomous combat drones.
6
25906
3122
eigenständige Kampfdrohnen.
Nicht die ferngesteuerten Kampfdrohnen,
00:29
Now, I'm not referring to Predator and Reaper drones,
7
29028
3627
00:32
which have a human making targeting decisions.
8
32655
3260
bei denen über das Ziel ein Mensch entscheidet,
00:35
I'm talking about fully autonomous robotic weapons
9
35915
3129
Ich rede über völlig automatische Roboterwaffen,
00:39
that make lethal decisions about human beings
10
39044
2654
die tödliche Entscheidungen über Menschenleben treffen können,
00:41
all on their own.
11
41698
2417
völlig ohne menschliche Hilfe.
00:44
There's actually a technical term for this: lethal autonomy.
12
44115
4000
Es gibt tatsächlich einen technischen Ausdruck dafür: "tödliche Autonomie".
00:48
Now, lethally autonomous killer robots
13
48115
2856
Tödlich autonome Killer-Roboter
00:50
would take many forms -- flying, driving,
14
50971
3069
könnten viele Formen annehmen – sie könnten fliegen, fahren,
00:54
or just lying in wait.
15
54040
2746
oder einfach nur lauern.
00:56
And actually, they're very quickly becoming a reality.
16
56786
3109
Und sie werden sehr schnell zur Realität werden.
00:59
These are two automatic sniper stations
17
59895
2484
Das sind zwei automatische Scharfschuss-Stationen,
01:02
currently deployed in the DMZ between North and South Korea.
18
62379
4137
die aktuell in der DMZ zwischen Nord- und Süd-Korea liegen.
01:06
Both of these machines are capable of automatically
19
66516
2171
Beide dieser Maschinen sind fähig, automatisch
01:08
identifying a human target and firing on it,
20
68687
3524
menschliche Ziele zu erfassen und auf sie zu feuern.
01:12
the one on the left at a distance of over a kilometer.
21
72211
4324
Die linke auf eine Distanz von über einem Kilometer.
01:16
Now, in both cases, there's still a human in the loop
22
76535
3589
Es sind in beiden Fällen jedoch immer noch Menschen im System,
01:20
to make that lethal firing decision,
23
80124
2372
um diesen tödlichen Entschluss zu feuern zu treffen.
01:22
but it's not a technological requirement. It's a choice.
24
82496
5413
Es ist technologisch jedoch nicht notwendig. Es ist eine Wahl.
01:27
And it's that choice that I want to focus on,
25
87909
3093
Und auf diese Wahl möchte ich mich konzentrieren,
01:31
because as we migrate lethal decision-making
26
91002
2641
denn wenn wir das Treffen todbringender Entscheidungen
01:33
from humans to software,
27
93643
3109
von Menschen auf Software übertragen,
01:36
we risk not only taking the humanity out of war,
28
96752
3476
riskieren wir nicht nur, die Menschlichkeit aus dem Krieg zu entfernen,
01:40
but also changing our social landscape entirely,
29
100228
3526
sondern auch die gesellschaftliche Lage grundlegend zu verändern.
01:43
far from the battlefield.
30
103754
2224
Weit entfernt vom Schlachtfeld.
01:45
That's because the way humans resolve conflict
31
105978
4509
Das erfolgt daraus, dass die Art, wie Menschen Konflikte lösen,
01:50
shapes our social landscape.
32
110487
1733
unsere soziale Landschaft formt.
01:52
And this has always been the case, throughout history.
33
112220
2633
Und das war schon immer in der Geschichte.
01:54
For example, these were state-of-the-art weapons systems
34
114853
2661
Das waren beispielsweise die besten Waffensysteme
01:57
in 1400 A.D.
35
117514
2079
im Jahre 1400.
01:59
Now they were both very expensive to build and maintain,
36
119593
3144
Sie waren beide sehr teuer in der Herstellung und der Aufrechterhaltung.
02:02
but with these you could dominate the populace,
37
122737
3240
Mit ihnen konnte man jedoch die Bevölkerung dominieren
02:05
and the distribution of political power in feudal society reflected that.
38
125977
3889
und die Verteilung der politischen Macht in einer Feudalgesellschaft spiegelt das wider.
02:09
Power was focused at the very top.
39
129866
2687
Macht war an der Spitze konzentriert.
02:12
And what changed? Technological innovation.
40
132553
3528
Und was hat sich verändert? Technologische Neuerung.
02:16
Gunpowder, cannon.
41
136081
1871
Schießpulver, Kanonen.
02:17
And pretty soon, armor and castles were obsolete,
42
137952
3817
Und ziemlich schnell waren Rüstungen und Festungen veraltet
02:21
and it mattered less who you brought to the battlefield
43
141769
2533
und es zählte nicht mehr, wen du auf's Schlachtfeld brachtest,
02:24
versus how many people you brought to the battlefield.
44
144302
3779
sondern wie viele.
02:28
And as armies grew in size, the nation-state arose
45
148081
3638
Und als Armeen in der Größe zunahmen, entstand der Nationalstaat
02:31
as a political and logistical requirement of defense.
46
151719
3680
als politische und logistische Voraussetzung von Verteidigung.
02:35
And as leaders had to rely on more of their populace,
47
155399
2376
Und als Führer sich mehr auf ihr Volk verlassen mussten,
02:37
they began to share power.
48
157775
1833
fingen sie an, die Macht zu teilen.
02:39
Representative government began to form.
49
159608
2599
Repräsentative Regierungen entstanden.
02:42
So again, the tools we use to resolve conflict
50
162207
3288
Und so formen die Werkzeuge, die wir zur Konfliktlösung einsetzen,
02:45
shape our social landscape.
51
165495
3304
unsere Gesellschaft.
02:48
Autonomous robotic weapons are such a tool,
52
168799
4064
Autonome robotische Waffen sind so ein Werkzeug,
02:52
except that, by requiring very few people to go to war,
53
172863
5168
außer dass sie, da sie zum Krieg führen sehr wenige Menschen benötigen,
02:58
they risk re-centralizing power into very few hands,
54
178031
4840
riskieren, dass die Macht wieder konzentriert in einige wenige Hände fällt.
03:02
possibly reversing a five-century trend toward democracy.
55
182871
6515
Und möglicherweise einen fünf Jahrhunderte langen Trend zur Demokratie umkehren.
03:09
Now, I think, knowing this,
56
189386
1757
Ich denke, wenn wir das wissen,
03:11
we can take decisive steps to preserve our democratic institutions,
57
191143
4352
können wir entscheidende Schritte zum Bewahren unserer demokratischen Einrichtungen unternehmen,
03:15
to do what humans do best, which is adapt.
58
195495
3979
um das zu tun, was Menschen am besten können: sich anpassen.
03:19
But time is a factor.
59
199474
2005
Zeit ist hierbei jedoch auch ein Faktor.
03:21
Seventy nations are developing remotely-piloted
60
201479
2851
Siebzig Nationen entwickeln ihre eigenen ferngesteuerten
03:24
combat drones of their own,
61
204330
2157
Kampfdrohnen.
03:26
and as you'll see, remotely-piloted combat drones
62
206487
2593
Und wie Sie sehen werden, sind ferngesteuerte Kampfdrohnen
03:29
are the precursors to autonomous robotic weapons.
63
209080
4472
die Vorläufer der autonomen Roboterwaffen.
03:33
That's because once you've deployed remotely-piloted drones,
64
213552
2767
Wenn man nämlich einmal ferngesteuerte Drohnen im Einsatz hat,
03:36
there are three powerful factors pushing decision-making
65
216319
3384
verlagern drei mächtige Faktoren die Entscheidungsfindung
03:39
away from humans and on to the weapon platform itself.
66
219703
4600
weg vom Menschen, hin zur Waffenplattform an sich.
03:44
The first of these is the deluge of video that drones produce.
67
224303
5259
Der erste Faktor ist die Sintflut an Videos, die Drohnen produzieren.
03:49
For example, in 2004, the U.S. drone fleet produced
68
229562
3853
2004 beispielsweise produzierte die amerikanische Drohnenflotte
03:53
a grand total of 71 hours of video surveillance for analysis.
69
233415
5312
insgesamt 71 Stunden von Videoüberwachung zur Analyse.
03:58
By 2011, this had gone up to 300,000 hours,
70
238727
4499
Bis 2011 sind es 300.000 Stunden,
04:03
outstripping human ability to review it all,
71
243226
3149
das übersteigt die menschlichen Fähigkeiten, alles zu überprüfen.
04:06
but even that number is about to go up drastically.
72
246375
3664
Aber die Zahlen stehen kurz vor einem drastischen Anstieg.
04:10
The Pentagon's Gorgon Stare and Argus programs
73
250039
2575
Die Programme des Pentagons "Gorgon Stare" und "Argus"
04:12
will put up to 65 independently operated camera eyes
74
252614
3164
werden bis zu 65 eigenständig betriebene Kameras
04:15
on each drone platform,
75
255778
2038
auf jeder Drohnenplatform haben.
04:17
and this would vastly outstrip human ability to review it.
76
257816
3303
Und das würde die menschlichen Möglichkeiten der Kontrolle weit übertreffen.
04:21
And that means visual intelligence software will need
77
261119
2160
Das bedeutet, dass visuelle Aufklärungssoftware
04:23
to scan it for items of interest.
78
263279
4048
es nach interessanten Dingen abscannen müsste.
04:27
And that means very soon
79
267327
1348
Das bedeutet wiederum, dass
04:28
drones will tell humans what to look at,
80
268675
2747
Drohnen in Zukunft den Menschen sagen werden, worauf sie schauen sollen,
04:31
not the other way around.
81
271422
2497
und nicht mehr andersherum.
04:33
But there's a second powerful incentive pushing
82
273919
2473
Aber es gibt einen zweiten mächtigen Anreiz dafür,
das Entscheidungentreffen von Menschen auf Maschinen zu übertragen
04:36
decision-making away from humans and onto machines,
83
276392
3383
04:39
and that's electromagnetic jamming,
84
279775
2872
und das sind elektromagnetische Störungen,
04:42
severing the connection between the drone
85
282647
2236
die die Verbindungen zwischen der Drohne und ihrem Führer unterbrechen.
04:44
and its operator.
86
284883
2814
04:47
Now we saw an example of this in 2011
87
287697
2618
2011 haben wir ein Beispiel hierfür gesehen,
04:50
when an American RQ-170 Sentinel drone
88
290315
2956
als eine amerikanische Wächterdrohne vom Typ RQ-170 über dem Iran
04:53
got a bit confused over Iran due to a GPS spoofing attack,
89
293271
4307
durch "GPS-Spoofing" manipuliert wurde.
04:57
but any remotely-piloted drone is susceptible to this type of attack,
90
297578
5114
Jede ferngesteuerte Drohne ist anfällig für diese Attacken
05:02
and that means drones
91
302692
2052
und das bedeutet, dass Drohnen
05:04
will have to shoulder more decision-making.
92
304744
3620
mehr Entscheidungsfindungen auf sich nehmen müssen.
05:08
They'll know their mission objective,
93
308364
3043
Sie kennen ihre Mission
05:11
and they'll react to new circumstances without human guidance.
94
311407
4845
und sie werden auf neue Umstände ohne menschliche Hilfe reagieren.
05:16
They'll ignore external radio signals
95
316252
2581
Sie werden fremde Funksignale ignorieren
05:18
and send very few of their own.
96
318833
2330
und nur sehr wenige selbst schicken.
05:21
Which brings us to, really, the third
97
321163
2006
Das bringt uns zum dritten
und mächtigsten Anreiz, um das Entscheidungentreffen
05:23
and most powerful incentive pushing decision-making
98
323169
3862
von Menschen auf Waffen zu übertragen:
05:27
away from humans and onto weapons:
99
327031
3342
05:30
plausible deniability.
100
330373
3293
glaubhafte Leugnung.
05:33
Now we live in a global economy.
101
333666
2887
Wir leben in einer globalen Wirtschaft.
05:36
High-tech manufacturing is occurring on most continents.
102
336553
4334
High-Tech Fabrikationen kommen auf den meisten Kontinenten vor.
05:40
Cyber espionage is spiriting away advanced designs
103
340887
2914
Cyber-Spionage verbreitet fortgeschrittene Konstruktionen ins Unbekannte,
05:43
to parts unknown,
104
343801
1886
05:45
and in that environment, it is very likely
105
345687
2014
und in diesen Gebieten ist es sehr wahrscheinlich, dass
05:47
that a successful drone design will be knocked off in contract factories,
106
347701
4734
ein funktionierender Entwurf einer Drohne in einer Vertragsfabrik entsteht
05:52
proliferate in the gray market.
107
352435
2170
und sich auf dem Graumarkt vermehrt.
05:54
And in that situation, sifting through the wreckage
108
354605
2460
Und in dieser Situation ist es beim Durchwühlen des Wracks
05:57
of a suicide drone attack, it will be very difficult to say
109
357065
2960
nach einer "Selbstmord"-Drohnenattacke schwer zu sagen,
06:00
who sent that weapon.
110
360025
4400
wer diese Waffe geschickt hat.
06:04
This raises the very real possibility
111
364425
2800
Das steigert die reale Möglichkeit eines anonymen Krieges.
06:07
of anonymous war.
112
367225
2935
Es könnte die geopolitische Balance auf dem Gleichgewicht werfen,
06:10
This could tilt the geopolitical balance on its head,
113
370160
2614
06:12
make it very difficult for a nation to turn its firepower
114
372774
3491
und es einer Nation erschweren, ihre Feuerkraft auf einen Angreifer zu richten.
06:16
against an attacker, and that could shift the balance
115
376265
2848
Und das könnte die Balance des 21. Jahrhunderts weg von Verteidigung und auf Angriff bringen.
06:19
in the 21st century away from defense and toward offense.
116
379113
3764
06:22
It could make military action a viable option
117
382877
3124
Es könnte militärisches Eingreifen zu einer brauchbaren Option machen.
06:26
not just for small nations,
118
386001
2288
Nicht nur für kleine Nationen,
06:28
but criminal organizations, private enterprise,
119
388289
2545
aber auch für kriminelle Organisationen, Privatunternehmen,
06:30
even powerful individuals.
120
390834
2479
und sogar mächtige Individuen.
06:33
It could create a landscape of rival warlords
121
393313
3328
Das könnte eine Landschaft von rivalisierenden Warlords schaffen
06:36
undermining rule of law and civil society.
122
396641
3680
und die Regeln des Gesetzes und der zivilen Gesellschaft untergraben.
06:40
Now if responsibility and transparency
123
400321
3616
Wenn Verantwortung und Durchschaubarkeit
06:43
are two of the cornerstones of representative government,
124
403937
2384
zwei der Grundpfeiler der repräsentativen Regierung sind,
06:46
autonomous robotic weapons could undermine both.
125
406321
4320
könnten autonome robotische Waffen beides umwerfen.
06:50
Now you might be thinking that
126
410641
1546
Sie denken jetzt vielleicht, dass Bürger einer "High-Tech Nation" einen Vorteil
06:52
citizens of high-tech nations
127
412187
2246
06:54
would have the advantage in any robotic war,
128
414433
2703
in einem "automatischen" Krieg hätten,
06:57
that citizens of those nations would be less vulnerable,
129
417136
3633
und dass die Bürger dieser Nationen weniger anfällig und verletzlich wären,
07:00
particularly against developing nations.
130
420769
4288
besonders gegenüber Entwicklungsländern.
07:05
But I think the truth is the exact opposite.
131
425057
3524
Aber ich glaube, genau das Gegenteil wäre der Fall.
07:08
I think citizens of high-tech societies
132
428581
2251
Ich denke, dass Bürger in weit entwickelten Gesellschaften
07:10
are more vulnerable to robotic weapons,
133
430832
3729
ungeschützter gegen robotische Waffen sind.
07:14
and the reason can be summed up in one word: data.
134
434561
4465
Und der Grund dafür ist ein einziges Wort: Daten.
07:19
Data powers high-tech societies.
135
439026
3481
Daten ermöglichen High-Tech-Gesellschaften.
07:22
Cell phone geolocation, telecom metadata,
136
442507
3190
Handy-Geolokalisierung, Telekom-Metadaten,
07:25
social media, email, text, financial transaction data,
137
445697
3472
soziale Medien, E-Mails, Texte, Finanztransaktionen,
07:29
transportation data, it's a wealth of real-time data
138
449169
3532
Transportdaten – eine Fülle an Echtzeit-Daten
07:32
on the movements and social interactions of people.
139
452701
3373
in den Bewegungen und sozialen Interaktionen der Menschen.
07:36
In short, we are more visible to machines
140
456074
3775
Kurz gesagt: Wir sind sichtbarer für Maschinen als alle Menschen in der Geschichte.
07:39
than any people in history,
141
459849
2242
07:42
and this perfectly suits the targeting needs of autonomous weapons.
142
462091
5616
Und das ist perfekt für die Ziel-Anforderungen von autonomen Waffen.
07:47
What you're looking at here
143
467707
1738
Hier sehen Sie eine eine Verbindungsanalyse einer sozialen Gruppe.
07:49
is a link analysis map of a social group.
144
469445
3246
07:52
Lines indicate social connectedness between individuals.
145
472691
3634
Die Linien zeigen soziale Verbundenheit zwischen einzelnen Individuen.
07:56
And these types of maps can be automatically generated
146
476325
2880
Diese Kartenart kann durch die Datenspur, die moderne Menschen hinterlassen,
07:59
based on the data trail modern people leave behind.
147
479205
4715
automatisch generiert werden.
08:03
Now it's typically used to market goods and services
148
483920
2477
Normalerweise wird es genutzt, um Waren und Dienstleistungen
08:06
to targeted demographics, but it's a dual-use technology,
149
486397
4416
an Zielgruppen zu verkaufen, hat aber zwei Verwendungszwecke,
08:10
because targeting is used in another context.
150
490813
3360
denn dieses spezielle Ausrichten wird in einem anderen Kontext verwendet.
08:14
Notice that certain individuals are highlighted.
151
494173
2560
Achten Sie auf die hervorgehobenen Individuen.
08:16
These are the hubs of social networks.
152
496733
3280
Das sind die Zentren sozialer Netzwerke.
08:20
These are organizers, opinion-makers, leaders,
153
500013
3590
Das sind Veranstalter, Trendsetter und Anführer.
08:23
and these people also can be automatically identified
154
503603
2682
Und diese Leute können automatisch identifiziert werden,
08:26
from their communication patterns.
155
506285
2382
aufgrund ihrer Kommunikationsmuster.
08:28
Now, if you're a marketer, you might then target them
156
508667
2146
Wenn Sie nun ein Vermarkter sind, dann richten Sie Ihre Warenproben auf sie aus,
08:30
with product samples, try to spread your brand
157
510813
2543
um Ihre Marke durch deren soziale Gruppe zu verbreiten.
08:33
through their social group.
158
513356
2829
Wenn Sie nun aber eine repressive Regierung sind,
08:36
But if you're a repressive government
159
516185
1953
08:38
searching for political enemies, you might instead remove them,
160
518138
4810
die nach politischen Bedrohungen sucht, dann werden Sie sie vielleicht beseitigen,
08:42
eliminate them, disrupt their social group,
161
522948
2760
sie zerstören, ihre soziale Gruppe auseinanderreißen.
08:45
and those who remain behind lose social cohesion
162
525708
3169
Und die Zurückgebliebenen verlieren sozialen Zusammenhalt und Organisation.
08:48
and organization.
163
528877
2621
In einer Welt von günstigen, wuchernden robotischen Waffen
08:51
Now in a world of cheap, proliferating robotic weapons,
164
531498
3324
08:54
borders would offer very little protection
165
534822
2635
würden Grenzen nur sehr wenig Schutz gegenüber entfernten Regierungen
08:57
to critics of distant governments
166
537457
1946
08:59
or trans-national criminal organizations.
167
539403
3646
oder grenzüberschreitenden kriminellen Organisationen bieten.
09:03
Popular movements agitating for change
168
543049
3493
Große Bewegungen für einen Wandel könnten sehr früh aufgespürt
09:06
could be detected early and their leaders eliminated
169
546542
3609
und ihre Anführer ausgeschaltet werden, bevor ihre Ideen zu große Ausmaße annehmen.
09:10
before their ideas achieve critical mass.
170
550151
2911
09:13
And ideas achieving critical mass
171
553062
2591
Und Ideen mit kritischem Ausmaß
09:15
is what political activism in popular government is all about.
172
555653
3936
machen politisches Engagement in beliebten Regierungen aus.
09:19
Anonymous lethal weapons could make lethal action
173
559589
3997
Anonyme tödliche Waffen könnten tödliche Auswirkungen haben.
09:23
an easy choice for all sorts of competing interests.
174
563586
3782
Eine einfache Wahl bei allen Arten von Interessenkonflikten.
09:27
And this would put a chill on free speech
175
567368
3734
Das würde die freie Meinungsäußerung und
gängiges politisches Handeln, die Kernelemente der Demokratie, drastisch eindämmen.
09:31
and popular political action, the very heart of democracy.
176
571102
5308
Und das ist der Grund, weshalb wir einen internationalen Vertrag
09:36
And this is why we need an international treaty
177
576410
2914
09:39
on robotic weapons, and in particular a global ban
178
579324
3540
für robotische Waffen und besonders ein globales Verbot
09:42
on the development and deployment of killer robots.
179
582864
3908
für die Entwicklung und Benutzung von Killer-Robotern brauchen.
09:46
Now we already have international treaties
180
586772
3254
Wir haben beispielsweise internationale Verträge
09:50
on nuclear and biological weapons, and, while imperfect,
181
590026
3386
für nukleare und biologische Waffen und, obwohl sie nicht perfekt sind,
09:53
these have largely worked.
182
593412
2288
haben sie weitgehend funktioniert.
09:55
But robotic weapons might be every bit as dangerous,
183
595700
3768
Roboterwaffen jedoch sind vielleicht genauso gefährlich,
09:59
because they will almost certainly be used,
184
599468
3288
denn sie werden fast zweifellos genutzt,
10:02
and they would also be corrosive to our democratic institutions.
185
602756
5027
und wären genauso zerstörend für unsere demokratischen Einrichtungen.
10:07
Now in November 2012 the U.S. Department of Defense
186
607783
3468
Im November 2012 erließ das amerikanische Verteidigungsministerium
10:11
issued a directive requiring
187
611251
2458
eine Richtlinie, die veranlasst,
10:13
a human being be present in all lethal decisions.
188
613709
4519
dass ein Mensch bei jeder tödlichen Entscheidung dabei sein muss.
Sie verhinderte vorübergehend autonome Waffen im amerikanischen Militär,
10:18
This temporarily effectively banned autonomous weapons in the U.S. military,
189
618228
4776
sie muss aber dauerhaft gültig sein.
10:23
but that directive needs to be made permanent.
190
623004
3753
10:26
And it could set the stage for global action.
191
626757
4376
Sie könnte die Voraussetzungen für globales Handeln schaffen.
10:31
Because we need an international legal framework
192
631133
3845
Denn wir brauchen einen internationalen rechtlichen Rahmen für Roboterwaffen.
10:34
for robotic weapons.
193
634978
2138
10:37
And we need it now, before there's a devastating attack
194
637116
2928
Und wir brauchen ihn jetzt, vor einem verheerenden Angriff
10:40
or a terrorist incident that causes nations of the world
195
640044
3152
oder einem Terroranschlag, der die Nationen der Welt dazu veranlasst,
10:43
to rush to adopt these weapons
196
643196
1924
nach diesen Waffen zu streben, bevor sie die Konsequenzen durchdacht haben.
10:45
before thinking through the consequences.
197
645120
3771
10:48
Autonomous robotic weapons concentrate too much power
198
648891
2981
Autonome robotische Waffen konzentrieren zu viel Macht in zu wenigen Händen,
10:51
in too few hands, and they would imperil democracy itself.
199
651872
6283
und würden die Demokratie selbst gefährden.
10:58
Now, don't get me wrong, I think there are tons
200
658155
2686
Verstehen Sie mich nicht falsch, ich denke, es gibt Millionen
11:00
of great uses for unarmed civilian drones:
201
660841
2618
von großartigen Verwendungszwecken für unbewaffnete Zivilisten-Drohnen:
11:03
environmental monitoring, search and rescue, logistics.
202
663459
3939
Umweltüberwachung, Suchen und Bergen, Logistik.
11:07
If we have an international treaty on robotic weapons,
203
667398
2826
Wenn wir einen internationalen Vertrag für Roboterwaffen haben,
11:10
how do we gain the benefits of autonomous drones
204
670224
3587
wie können wir die Vorteile der autonomen Drohnen und Fahrzeuge
11:13
and vehicles while still protecting ourselves
205
673811
2648
ausschöpfen und uns dennoch vor illegalen Roboterwaffen schützen?
11:16
against illegal robotic weapons?
206
676459
3980
11:20
I think the secret will be transparency.
207
680439
4741
Ich denke, das Geheimnis wird Transparenz sein.
Kein Roboter sollte Privatsphäre auf einem öffentlichen Platz erwarten.
11:25
No robot should have an expectation of privacy
208
685180
3013
11:28
in a public place.
209
688193
3451
(Applaus)
11:31
(Applause)
210
691644
5048
11:36
Each robot and drone should have
211
696692
2045
Jeder Roboter sollte in der Fabrik
11:38
a cryptographically signed I.D. burned in at the factory
212
698737
2883
eine kryptographisch signierte Identifikationsnummer eingraviert bekommen,
11:41
that can be used to track its movement through public spaces.
213
701620
2923
mit der man seine Bewegung durch öffentliche Orte nachverfolgen kann.
11:44
We have license plates on cars, tail numbers on aircraft.
214
704543
3381
Wir haben Nummernschilder an Autos, Luftfahrzeugkennzeichen an Flugzeugen.
11:47
This is no different.
215
707924
1841
Hier ist es nicht anders.
11:49
And every citizen should be able to download an app
216
709765
2012
Und jeder Bürger sollte eine App herunterladen können,
11:51
that shows the population of drones and autonomous vehicles
217
711777
3125
die die Population von Drohnen und autonomen Fahrzeugen zeigt,
11:54
moving through public spaces around them,
218
714902
2429
wie sie sich durch den öffentlichen Raum bewegen.
11:57
both right now and historically.
219
717331
2733
Aktuell und in der Vergangenheit.
12:00
And civic leaders should deploy sensors and civic drones
220
720064
3548
Und zivile Führer sollten Sensoren und zivile Drohnen bereitstellen,
12:03
to detect rogue drones,
221
723612
2344
um problematische Drohnen ausfindig machen zu können.
12:05
and instead of sending killer drones of their own up to shoot them down,
222
725956
3176
Und anstatt sie mit Killerdrohnen zu eliminieren,
12:09
they should notify humans to their presence.
223
729132
2992
sollten sie Menschen auf ihr Dasein hinweisen.
12:12
And in certain very high-security areas,
224
732124
2606
In manchen Hochsicherheits-Bereichen
12:14
perhaps civic drones would snare them
225
734730
1909
würden zivile Drohnen sie vielleicht einfangen
12:16
and drag them off to a bomb disposal facility.
226
736639
2841
und sie zu einem Bombenentschärfungsteam ziehen.
12:19
But notice, this is more an immune system
227
739480
3027
Aber das ist eher ein Immunsystem als ein Waffensystem.
12:22
than a weapons system.
228
742507
1321
12:23
It would allow us to avail ourselves of the use
229
743828
2592
Es würde es uns ermöglichen, den Nutzen
12:26
of autonomous vehicles and drones
230
746420
2032
von autonomen Fahrzeugen und Drohnen in Anspruch zu nehmen,
12:28
while still preserving our open, civil society.
231
748452
4295
und trotzdem unsere offene, zivile Gesellschaft bewahren.
12:32
We must ban the deployment and development
232
752747
2999
Wir müssen die Benutzung und Entwicklung
12:35
of killer robots.
233
755746
1862
von Killer-Robotern verbieten.
12:37
Let's not succumb to the temptation to automate war.
234
757608
4850
Erliegen wir nicht der Versuchung eines autonomen Krieges.
12:42
Autocratic governments and criminal organizations
235
762458
2718
Autokratische Regierungen und kriminelle Organisationen
12:45
undoubtedly will, but let's not join them.
236
765176
2956
werden es ohne jeden Zweifel tun. Aber wir sollten uns ihnen nicht anschließen.
12:48
Autonomous robotic weapons
237
768132
1891
Autonome robotische Waffen würden zu viel Macht
12:50
would concentrate too much power
238
770023
2051
in zu wenige ungesehene Hände konzentrieren.
12:52
in too few unseen hands,
239
772074
2482
12:54
and that would be corrosive to representative government.
240
774556
3255
Und das würde zerstörend für repräsentative Regierungen sein
12:57
Let's make sure, for democracies at least,
241
777811
2961
Sorgen wir dafür, zumindest die Demokraten,
13:00
killer robots remain fiction.
242
780772
2604
dass Killer-Roboter eine Fiktion bleiben
13:03
Thank you.
243
783376
1110
Vielen Dank.
13:04
(Applause)
244
784486
4565
(Applaus)
13:09
Thank you. (Applause)
245
789051
4616
Danke schön. (Applaus)
Über diese Website

Auf dieser Seite finden Sie YouTube-Videos, die zum Englischlernen nützlich sind. Sie sehen Englischlektionen, die von hochkarätigen Lehrern aus der ganzen Welt unterrichtet werden. Doppelklicken Sie auf die englischen Untertitel, die auf jeder Videoseite angezeigt werden, um das Video von dort aus abzuspielen. Die Untertitel laufen synchron mit der Videowiedergabe. Wenn Sie irgendwelche Kommentare oder Wünsche haben, kontaktieren Sie uns bitte über dieses Kontaktformular.

https://forms.gle/WvT1wiN1qDtmnspy7