Daniel Suarez: The kill decision shouldn't belong to a robot
ダニエル・スアレース: 人殺しの決定をロボットに任せてはいけない
76,064 views ・ 2013-06-13
下の英語字幕をダブルクリックすると動画を再生できます。
00:00
Translator: Joseph Geni
Reviewer: Morton Bast
0
0
7000
翻訳: Akinori Oyama
校正: Yasushi Aoki
00:12
I write fiction sci-fi thrillers,
1
12691
3158
私はSFスリラーの
小説家です
00:15
so if I say "killer robots,"
2
15849
2193
その私が「殺人ロボット」
と言ったら
00:18
you'd probably think something like this.
3
18042
2361
おそらく こんな感じのものを
想像されるでしょう
00:20
But I'm actually not here to talk about fiction.
4
20403
2555
でも 今日はフィクションの話を
しに来たのではありません
00:22
I'm here to talk about very real killer robots,
5
22958
2948
まさに現実化している
「殺人ロボット」―
00:25
autonomous combat drones.
6
25906
3122
そう 完全自律型の戦闘ドローンのことを
話しに来ました
00:29
Now, I'm not referring to Predator and Reaper drones,
7
29028
3627
ご存知のプレデター型や
リーパー型のことではありません
00:32
which have a human making targeting decisions.
8
32655
3260
これらの無人機は 標的の決定を
人間が行っています
00:35
I'm talking about fully autonomous robotic weapons
9
35915
3129
私は完全自律型のロボット兵器のことを
言っているんです
00:39
that make lethal decisions about human beings
10
39044
2654
このロボット兵器は
人間殺害の決定を
00:41
all on their own.
11
41698
2417
ロボット自体が行います
00:44
There's actually a technical term for this: lethal autonomy.
12
44115
4000
実は これを指す専門用語もあります
「完全自律型殺傷機能」です
00:48
Now, lethally autonomous killer robots
13
48115
2856
「完全自律型殺傷機能」を持つ
殺人ロボットは
00:50
would take many forms -- flying, driving,
14
50971
3069
多様な姿で現れます
飛行し 走行し あるいは
00:54
or just lying in wait.
15
54040
2746
待ち伏せするような
ものもあるでしょう
00:56
And actually, they're very quickly becoming a reality.
16
56786
3109
実は これらのロボットは
急速に現実のものとなりつつあります
00:59
These are two automatic sniper stations
17
59895
2484
この2種類の
自動狙撃装置は
01:02
currently deployed in the DMZ between North and South Korea.
18
62379
4137
現在 北朝鮮との非武装地帯の
韓国側に配備されています
01:06
Both of these machines are capable of automatically
19
66516
2171
この機械はどちらも
攻撃対象となる—
01:08
identifying a human target and firing on it,
20
68687
3524
人間を自動的に特定し
銃撃する機能があります
01:12
the one on the left at a distance of over a kilometer.
21
72211
4324
左側のものには
1キロ以上の射程があります
01:16
Now, in both cases, there's still a human in the loop
22
76535
3589
現在のところは どちらの機械でも
射殺決定の枠組みに
01:20
to make that lethal firing decision,
23
80124
2372
今のところは
人間が介在しています
01:22
but it's not a technological requirement. It's a choice.
24
82496
5413
しかし 技術的には人を要するわけではなく
そこに人を介在させる選択をしたわけです
01:27
And it's that choice that I want to focus on,
25
87909
3093
この選択こそが
今日 私が焦点を当てたいことです
01:31
because as we migrate lethal decision-making
26
91002
2641
なぜなら この
殺人の意思決定が
01:33
from humans to software,
27
93643
3109
人間からソフトウェアに
移行しつつあって
01:36
we risk not only taking the humanity out of war,
28
96752
3476
それは 戦争から人間性を
取り去ってしまうだけでなく
01:40
but also changing our social landscape entirely,
29
100228
3526
戦場から遠く隔たった
社会の情勢をも
01:43
far from the battlefield.
30
103754
2224
変えてしまう危険が
あるからです
01:45
That's because the way humans resolve conflict
31
105978
4509
なぜなら人間が対立を解決する方法によって
私たちを取り巻く社会情勢が
01:50
shapes our social landscape.
32
110487
1733
形成されるからです
01:52
And this has always been the case, throughout history.
33
112220
2633
歴史上ずっと
そうやって形成されてきたのです
01:54
For example, these were state-of-the-art weapons systems
34
114853
2661
たとえば 西暦1400年には
これが最先端の―
01:57
in 1400 A.D.
35
117514
2079
兵器システムでした
01:59
Now they were both very expensive to build and maintain,
36
119593
3144
両方とも 作るのも維持するのも
とても高く付きましたが
02:02
but with these you could dominate the populace,
37
122737
3240
これがあれば民衆を
支配できました
02:05
and the distribution of political power in feudal society reflected that.
38
125977
3889
封建社会の政治権力の分布は
誰が武力を持つかを反映し
02:09
Power was focused at the very top.
39
129866
2687
力は権力のトップにいる人に
集中していたのです
02:12
And what changed? Technological innovation.
40
132553
3528
それから何が変わったのでしょう?
技術革新です
02:16
Gunpowder, cannon.
41
136081
1871
火薬 大砲
02:17
And pretty soon, armor and castles were obsolete,
42
137952
3817
すぐに 甲冑と城は
時代遅れになりました
02:21
and it mattered less who you brought to the battlefield
43
141769
2533
戦場に誰を連れて行くかは
重要でなくなり
02:24
versus how many people you brought to the battlefield.
44
144302
3779
戦場にどれだけの人数を
送り込めるかが重要になりました
02:28
And as armies grew in size, the nation-state arose
45
148081
3638
軍隊の人数が増えるようになると
防衛のための—
02:31
as a political and logistical requirement of defense.
46
151719
3680
政治的 物流的な要請から
国家が必要となりました
02:35
And as leaders had to rely on more of their populace,
47
155399
2376
指導者は民衆に
依存する必要が出てきて
02:37
they began to share power.
48
157775
1833
力が共有されるようになりました
02:39
Representative government began to form.
49
159608
2599
そして代議制が
形成されだします
02:42
So again, the tools we use to resolve conflict
50
162207
3288
ここでもまた
対立解消にどんな手段を取るかが
02:45
shape our social landscape.
51
165495
3304
私たちを取り巻く社会情勢を
形作っています
02:48
Autonomous robotic weapons are such a tool,
52
168799
4064
自律ロボット兵器も
そのような手段の1つです
02:52
except that, by requiring very few people to go to war,
53
172863
5168
ただ戦争を始めるのに
非常に少数の人間しか必要としないため
02:58
they risk re-centralizing power into very few hands,
54
178031
4840
ごく少数の人の手に力を
再び集中させるリスクがあります
03:02
possibly reversing a five-century trend toward democracy.
55
182871
6515
民主化の流れを 5世紀分ほど
逆戻りさせてしまうかもしれません
03:09
Now, I think, knowing this,
56
189386
1757
でも 私たちが
03:11
we can take decisive steps to preserve our democratic institutions,
57
191143
4352
このリスクを理解していれば
民主主義制度を守るための断固たる措置を取れます
03:15
to do what humans do best, which is adapt.
58
195495
3979
人間が長けている能力によって—
すなわち適応力です
03:19
But time is a factor.
59
199474
2005
しかし タイミングが
重要です
03:21
Seventy nations are developing remotely-piloted
60
201479
2851
70の国が遠隔操縦可能な―
03:24
combat drones of their own,
61
204330
2157
戦闘ドローンを
独自に開発しています
03:26
and as you'll see, remotely-piloted combat drones
62
206487
2593
おわかりと思いますが
遠隔操作戦闘ドローンは
03:29
are the precursors to autonomous robotic weapons.
63
209080
4472
自律ロボット兵器を
作り始める前兆です
03:33
That's because once you've deployed remotely-piloted drones,
64
213552
2767
なぜなら遠隔操作の無人機が
03:36
there are three powerful factors pushing decision-making
65
216319
3384
一旦配備されてしまうと
意思決定を人の手から
03:39
away from humans and on to the weapon platform itself.
66
219703
4600
兵器そのものへと押しやることになる
大きな要因が3つあるからです
03:44
The first of these is the deluge of video that drones produce.
67
224303
5259
1つ目の要因は
無人機が撮影するビデオが膨大になることです
03:49
For example, in 2004, the U.S. drone fleet produced
68
229562
3853
たとえば 2004 年に
米国のドローン軍団が撮影した
03:53
a grand total of 71 hours of video surveillance for analysis.
69
233415
5312
分析が必要な偵察映像は
総計71 時間でした
03:58
By 2011, this had gone up to 300,000 hours,
70
238727
4499
それが2011 年には 30万時間へと
増えたのです
04:03
outstripping human ability to review it all,
71
243226
3149
すべてを確認するのは
人間の能力を超えてしまいました
04:06
but even that number is about to go up drastically.
72
246375
3664
しかも この時間はまだまだ
増加しそうです
04:10
The Pentagon's Gorgon Stare and Argus programs
73
250039
2575
米国防総省のゴルゴンステアや
アーガスという計画では
04:12
will put up to 65 independently operated camera eyes
74
252614
3164
最大65個の独立した
カメラの目を
04:15
on each drone platform,
75
255778
2038
個々のドローンに付けるもので
04:17
and this would vastly outstrip human ability to review it.
76
257816
3303
これは人間が確認できる量を
大幅に上回るものとなります
04:21
And that means visual intelligence software will need
77
261119
2160
こうなると
関心を引く対象を発見するために
04:23
to scan it for items of interest.
78
263279
4048
視覚情報分析ソフトの力が
必要になります
04:27
And that means very soon
79
267327
1348
これは じきにドローンが
04:28
drones will tell humans what to look at,
80
268675
2747
注目すべき所を人間に
指示するようになるということで
04:31
not the other way around.
81
271422
2497
人間側からではありません
04:33
But there's a second powerful incentive pushing
82
273919
2473
意思決定を
人間から機械へと
04:36
decision-making away from humans and onto machines,
83
276392
3383
強く推しやる
2つ目の要因は
04:39
and that's electromagnetic jamming,
84
279775
2872
電磁波による妨害です
04:42
severing the connection between the drone
85
282647
2236
妨害されると
ドローンと遠隔操作者の間の
04:44
and its operator.
86
284883
2814
通信が途切れてしまいます
04:47
Now we saw an example of this in 2011
87
287697
2618
2011年に これが起こった
例がありました
04:50
when an American RQ-170 Sentinel drone
88
290315
2956
アメリカ軍の RQ-170
センチネル ドローンが
04:53
got a bit confused over Iran due to a GPS spoofing attack,
89
293271
4307
イラン軍による GPS 信号のなりすまし攻撃で
混乱させられたのです
04:57
but any remotely-piloted drone is susceptible to this type of attack,
90
297578
5114
遠隔操作型のドローンである限り
この種の攻撃には弱いものです
05:02
and that means drones
91
302692
2052
つまりドローンは
05:04
will have to shoulder more decision-making.
92
304744
3620
意思決定の より多くの割合を
背負わなければならなくなるのです
05:08
They'll know their mission objective,
93
308364
3043
ドローンは 作戦目的を把握し
05:11
and they'll react to new circumstances without human guidance.
94
311407
4845
人間の導きなしに
新しい状況に対応するようになるでしょう
05:16
They'll ignore external radio signals
95
316252
2581
ドローンは 外部からの
無線信号を無視し
05:18
and send very few of their own.
96
318833
2330
自分側からは ほとんど
発信しなくなります
05:21
Which brings us to, really, the third
97
321163
2006
そして ここから—
05:23
and most powerful incentive pushing decision-making
98
323169
3862
3つ目の
最も強力に意思決定を
05:27
away from humans and onto weapons:
99
327031
3342
人から兵器へ移すように
促す要因が出てきます
05:30
plausible deniability.
100
330373
3293
それは
「まことしやかな関与否定」です
05:33
Now we live in a global economy.
101
333666
2887
私たちは グローバル経済の
時代にいます
05:36
High-tech manufacturing is occurring on most continents.
102
336553
4334
ハイテク製品の製造は
ほとんどの大陸で行われています
05:40
Cyber espionage is spiriting away advanced designs
103
340887
2914
サイバー諜報戦の一環で
先進的設計を
05:43
to parts unknown,
104
343801
1886
様々な部品に隠しますが
05:45
and in that environment, it is very likely
105
345687
2014
このような環境では
05:47
that a successful drone design will be knocked off in contract factories,
106
347701
4734
ドローン設計が契約工場で模倣される
可能性が非常に高いのです
05:52
proliferate in the gray market.
107
352435
2170
そして裏市場へと
拡散します
05:54
And in that situation, sifting through the wreckage
108
354605
2460
こんな状況では
自爆攻撃ドローンの残骸を
05:57
of a suicide drone attack, it will be very difficult to say
109
357065
2960
調査したところで
06:00
who sent that weapon.
110
360025
4400
兵器で攻撃を仕掛けたのが
誰なのかわかりません
06:04
This raises the very real possibility
111
364425
2800
見えない敵との戦いが
06:07
of anonymous war.
112
367225
2935
非常に現実的な可能性として
浮かび上がります
06:10
This could tilt the geopolitical balance on its head,
113
370160
2614
地政学的なバランスを
180度変えてしまう可能性があり
06:12
make it very difficult for a nation to turn its firepower
114
372774
3491
国家が攻撃してきた相手へ反撃することを
非常に困難にします
06:16
against an attacker, and that could shift the balance
115
376265
2848
これによって 21世紀において
防衛中心の考えから
06:19
in the 21st century away from defense and toward offense.
116
379113
3764
攻撃中心の考えへと
重心が変わってしまうかもしれません
06:22
It could make military action a viable option
117
382877
3124
匿名での攻撃が可能になることで
06:26
not just for small nations,
118
386001
2288
小国家や 犯罪組織
民間企業
06:28
but criminal organizations, private enterprise,
119
388289
2545
さらには有力な個人にさえ
06:30
even powerful individuals.
120
390834
2479
軍事行動が有効な手段と
なりえるのです
06:33
It could create a landscape of rival warlords
121
393313
3328
これは 法の支配と市民社会の
土台を壊してしまい
06:36
undermining rule of law and civil society.
122
396641
3680
群雄割拠の情勢を
作り出すかもしれません
06:40
Now if responsibility and transparency
123
400321
3616
責任と透明性は
06:43
are two of the cornerstones of representative government,
124
403937
2384
代議制を支える
土台と言えるかもしれませんが
06:46
autonomous robotic weapons could undermine both.
125
406321
4320
自律ロボット兵器は
その両方を弱体化させる可能性があります
06:50
Now you might be thinking that
126
410641
1546
みなさんは こう考えるかもしれません
06:52
citizens of high-tech nations
127
412187
2246
ハイテク諸国の市民なら
06:54
would have the advantage in any robotic war,
128
414433
2703
ロボット戦争で優位に立っていて
06:57
that citizens of those nations would be less vulnerable,
129
417136
3633
これらの国の市民は
危険にさらされにくいと考えるかもしれません
07:00
particularly against developing nations.
130
420769
4288
特に途上国が相手なら
なおさらです
07:05
But I think the truth is the exact opposite.
131
425057
3524
しかし 真実は全く逆だと思います
07:08
I think citizens of high-tech societies
132
428581
2251
ハイテク社会の市民は
07:10
are more vulnerable to robotic weapons,
133
430832
3729
より大きく ロボット兵器の
危険にさらされています
07:14
and the reason can be summed up in one word: data.
134
434561
4465
この理由は 1語に要約できます
「データ」です
07:19
Data powers high-tech societies.
135
439026
3481
データは ハイテク社会を
動かしています
07:22
Cell phone geolocation, telecom metadata,
136
442507
3190
携帯電話の位置情報
電話の会話から集められるメタデータ
07:25
social media, email, text, financial transaction data,
137
445697
3472
ソーシャルメディア 電子メール
SMS 金融取引のデータ
07:29
transportation data, it's a wealth of real-time data
138
449169
3532
交通機関や移動のデータなどです
これらは人々の活動や
07:32
on the movements and social interactions of people.
139
452701
3373
社会的な交流を表す
膨大なリアルタイムデータの塊です
07:36
In short, we are more visible to machines
140
456074
3775
だから 私たちは
歴史上のどんな時代の人たちよりも
07:39
than any people in history,
141
459849
2242
機械に行動が
筒抜けになっているのです
07:42
and this perfectly suits the targeting needs of autonomous weapons.
142
462091
5616
これは自律的兵器が標的を探すために
絶好のものとなります
07:47
What you're looking at here
143
467707
1738
いま画面に映っているのは
07:49
is a link analysis map of a social group.
144
469445
3246
ある社会的集団が
どうつながっているか分析した図です
07:52
Lines indicate social connectedness between individuals.
145
472691
3634
線は個人間の社会的な
つながりを示しています
07:56
And these types of maps can be automatically generated
146
476325
2880
現代人が日常的に残す
データの痕跡から
07:59
based on the data trail modern people leave behind.
147
479205
4715
このような図を自動的に
生成することができます
08:03
Now it's typically used to market goods and services
148
483920
2477
この技術は通常は
人口動態で標的を割り出して
08:06
to targeted demographics, but it's a dual-use technology,
149
486397
4416
商品やサービスを販売するのに使われますが
諸刃の技術でもあります
08:10
because targeting is used in another context.
150
490813
3360
標的を割り出す技術が
別の用途に使われるからです
08:14
Notice that certain individuals are highlighted.
151
494173
2560
赤色で表示されている
人たちがいますが これは
08:16
These are the hubs of social networks.
152
496733
3280
社会的なネットワークの
ハブとなっている人たちです
08:20
These are organizers, opinion-makers, leaders,
153
500013
3590
この人たちは 組織のまとめ役や
オピニオンメーカーやリーダーです
08:23
and these people also can be automatically identified
154
503603
2682
この人たちも
通信のパターンを追跡することで
08:26
from their communication patterns.
155
506285
2382
自動的に見つけ出すことが可能です
08:28
Now, if you're a marketer, you might then target them
156
508667
2146
マーケティング担当者なら
08:30
with product samples, try to spread your brand
157
510813
2543
社会的グループに
ブランドを広めるために
08:33
through their social group.
158
513356
2829
製品サンプルを送る
標的にするでしょう
08:36
But if you're a repressive government
159
516185
1953
しかし もし抑圧的な政府で
08:38
searching for political enemies, you might instead remove them,
160
518138
4810
政治上の敵となる相手を探しているなら
彼らは排除する標的となるでしょう
08:42
eliminate them, disrupt their social group,
161
522948
2760
リーダーを抹殺し
社会的グループを混乱させ
08:45
and those who remain behind lose social cohesion
162
525708
3169
そして 残されたグループの人たちは
社会的つながりや
08:48
and organization.
163
528877
2621
組織を失ってしまいます
08:51
Now in a world of cheap, proliferating robotic weapons,
164
531498
3324
安いロボット兵器が
拡散するような世界になったら
08:54
borders would offer very little protection
165
534822
2635
遠くにいる政府反対派や
08:57
to critics of distant governments
166
537457
1946
国際的犯罪組織に対し
08:59
or trans-national criminal organizations.
167
539403
3646
国境はほとんど防衛線になりません
09:03
Popular movements agitating for change
168
543049
3493
支持されて 変革を起こすような
扇動活動があれば
09:06
could be detected early and their leaders eliminated
169
546542
3609
クリティカルマスに到達する前に
早期に検出されてしまい
09:10
before their ideas achieve critical mass.
170
550151
2911
指導者は排除される
ようになるでしょう
09:13
And ideas achieving critical mass
171
553062
2591
アイデアがクリティカルマスに
到達できる環境は
09:15
is what political activism in popular government is all about.
172
555653
3936
人民政府における
政治運動の全てと言ってもいいでしょう
09:19
Anonymous lethal weapons could make lethal action
173
559589
3997
正体不明の殺戮兵器があることで
あらゆる利害の対立において
09:23
an easy choice for all sorts of competing interests.
174
563586
3782
殺害という選択が
簡単にできてしまうようになるでしょう
09:27
And this would put a chill on free speech
175
567368
3734
そして このことは
民主主義のまさに中核と言える
09:31
and popular political action, the very heart of democracy.
176
571102
5308
言論の自由や支持される政治的行動を
縮み上がらせることになります
09:36
And this is why we need an international treaty
177
576410
2914
これが 私たちに
ロボット兵器の国際条約が
09:39
on robotic weapons, and in particular a global ban
178
579324
3540
必要な理由です
特に世界全体での
09:42
on the development and deployment of killer robots.
179
582864
3908
殺人ロボットの開発と配備を
禁止することが必要です
09:46
Now we already have international treaties
180
586772
3254
私たちにはすでに
核兵器と生物兵器に関する
09:50
on nuclear and biological weapons, and, while imperfect,
181
590026
3386
国際条約があります
不完全ではありますが
09:53
these have largely worked.
182
593412
2288
条約は概ね
効力を発揮してきました
09:55
But robotic weapons might be every bit as dangerous,
183
595700
3768
しかし ロボット兵器は 全ての点で
同じくらい危険なもので
09:59
because they will almost certainly be used,
184
599468
3288
ほぼ確実に
使われるようになるでしょう
10:02
and they would also be corrosive to our democratic institutions.
185
602756
5027
そして 民主主義制度を
蝕むものになるでしょう
10:07
Now in November 2012 the U.S. Department of Defense
186
607783
3468
2012年11月に
米国防総省が
10:11
issued a directive requiring
187
611251
2458
すべての殺害に関する
意思決定に
10:13
a human being be present in all lethal decisions.
188
613709
4519
人間の介在を義務づける
命令を出しました
10:18
This temporarily effectively banned autonomous weapons in the U.S. military,
189
618228
4776
これによって ひとまずは
米軍の自律的兵器を事実上禁止しました
10:23
but that directive needs to be made permanent.
190
623004
3753
しかし その命令を
恒久化する必要があります
10:26
And it could set the stage for global action.
191
626757
4376
これが行われれば
世界が同じように行動する基準となりえます
10:31
Because we need an international legal framework
192
631133
3845
ロボット兵器の
国際的な法的枠組みは
10:34
for robotic weapons.
193
634978
2138
必要なものなのです
10:37
And we need it now, before there's a devastating attack
194
637116
2928
しかも 今必要なのです
壊滅的な攻撃が起きたり
10:40
or a terrorist incident that causes nations of the world
195
640044
3152
テロ事件が起きたことが引き金となって
世界の国々が
10:43
to rush to adopt these weapons
196
643196
1924
ロボット兵器が招く
帰結を熟慮せずに
10:45
before thinking through the consequences.
197
645120
3771
これらの兵器をこぞって採用するようになる前に
必要なのです
10:48
Autonomous robotic weapons concentrate too much power
198
648891
2981
自律ロボット兵器を使うと
10:51
in too few hands, and they would imperil democracy itself.
199
651872
6283
少数の手に 余りに大きな力が集中することになり
民主主義そのものを危うくしてしまうでしょう
10:58
Now, don't get me wrong, I think there are tons
200
658155
2686
でも 誤解しないでください
民生の非武装無人ドローンには
11:00
of great uses for unarmed civilian drones:
201
660841
2618
優れた用途が沢山
あると考えています
11:03
environmental monitoring, search and rescue, logistics.
202
663459
3939
自然環境の観測や
捜索と救難 輸送などです
11:07
If we have an international treaty on robotic weapons,
203
667398
2826
もし ロボット兵器の
国際条約があるとして
11:10
how do we gain the benefits of autonomous drones
204
670224
3587
どのようにすれば自律無人機や
自律走行車の利便を享受しつつ
11:13
and vehicles while still protecting ourselves
205
673811
2648
違法なロボット兵器に対して
11:16
against illegal robotic weapons?
206
676459
3980
身を守ることができるでしょうか?
11:20
I think the secret will be transparency.
207
680439
4741
成功の秘密は
透明性にあるはずです
11:25
No robot should have an expectation of privacy
208
685180
3013
公共の場所にいる限り
ロボットに—
11:28
in a public place.
209
688193
3451
プライバシーがあるなどと
思ってもらっては困ります
11:31
(Applause)
210
691644
5048
(拍手)
11:36
Each robot and drone should have
211
696692
2045
ロボットやドローンは
1体1体 全てが
11:38
a cryptographically signed I.D. burned in at the factory
212
698737
2883
工場出荷時に個体番号を
暗号技術で署名し
11:41
that can be used to track its movement through public spaces.
213
701620
2923
公共の場所での動きを
追跡できるようにするべきです
11:44
We have license plates on cars, tail numbers on aircraft.
214
704543
3381
既に車にはナンバー プレートがあり
航空機には機体記号があります
11:47
This is no different.
215
707924
1841
ロボットも例外ではありません
11:49
And every citizen should be able to download an app
216
709765
2012
公共の空間を移動している―
11:51
that shows the population of drones and autonomous vehicles
217
711777
3125
ドローンや自律走行車の
所在を示すアプリを
11:54
moving through public spaces around them,
218
714902
2429
誰でもダウンロードできて
しかるべきです
11:57
both right now and historically.
219
717331
2733
現時点と過去の記録の両方を
把握可能にすべきです
12:00
And civic leaders should deploy sensors and civic drones
220
720064
3548
市民のリーダーは
不正なドローンを探索する―
12:03
to detect rogue drones,
221
723612
2344
探知機や無人偵察機を
展開すべきです
12:05
and instead of sending killer drones of their own up to shoot them down,
222
725956
3176
そして 不正ドローンを撃墜する
攻撃ドローンを送りこむ代わりに
12:09
they should notify humans to their presence.
223
729132
2992
人間に ドローンが居ることを
知らせるべきです
12:12
And in certain very high-security areas,
224
732124
2606
高い安全性が求められる地域なら
不正ドローンを
12:14
perhaps civic drones would snare them
225
734730
1909
市民のためのドローンが
捕獲して
12:16
and drag them off to a bomb disposal facility.
226
736639
2841
爆弾処理施設へと
引っ張って行くこともできるでしょう
12:19
But notice, this is more an immune system
227
739480
3027
これは兵器システムというより
免疫システムということに
12:22
than a weapons system.
228
742507
1321
注意してください
12:23
It would allow us to avail ourselves of the use
229
743828
2592
こうすれば
自律走行車両やドローンを
12:26
of autonomous vehicles and drones
230
746420
2032
人間側が利用しつつ
12:28
while still preserving our open, civil society.
231
748452
4295
開かれた市民社会を
維持できます
12:32
We must ban the deployment and development
232
752747
2999
私たちは 殺人ロボットの
開発と配備を
12:35
of killer robots.
233
755746
1862
禁止する必要があります
12:37
Let's not succumb to the temptation to automate war.
234
757608
4850
戦争を自動化する誘惑に
負けないようにしましょう
12:42
Autocratic governments and criminal organizations
235
762458
2718
独裁政府や犯罪組織は間違いなく
その魅力に屈するでしょうが
12:45
undoubtedly will, but let's not join them.
236
765176
2956
私たちは その同類に
ならないようにしましょう
12:48
Autonomous robotic weapons
237
768132
1891
自律ロボット兵器は
12:50
would concentrate too much power
238
770023
2051
あまりにも強力な力を
12:52
in too few unseen hands,
239
772074
2482
ごくわずかな人の手に
集中させることになります
12:54
and that would be corrosive to representative government.
240
774556
3255
そして 民主主義制度を
蝕むものになるでしょう
12:57
Let's make sure, for democracies at least,
241
777811
2961
民主主義のために
殺人ロボットは
13:00
killer robots remain fiction.
242
780772
2604
フィクションだけのものに
しておきましょう
13:03
Thank you.
243
783376
1110
ありがとう
13:04
(Applause)
244
784486
4565
(拍手)
13:09
Thank you. (Applause)
245
789051
4616
ありがとう
(拍手)
New videos
このウェブサイトについて
このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。