Military robots and the future of war | P.W. Singer
P・W・シンガー: ロボットと戦争の未来
233,642 views ・ 2009-04-03
下の英語字幕をダブルクリックすると動画を再生できます。
翻訳: Akira KAKINOHANA
校正: Masaki Yanagishita
00:13
I thought I'd begin with a scene of war.
0
13160
2000
まずは戦争の風景から話したいと思います
00:15
There was little to warn of the danger ahead.
1
15160
2000
待ち受けている危険を知らせるものは
ほとんどありません
00:17
The Iraqi insurgent had placed the IED,
2
17160
2000
IED という即席爆弾が
00:19
an Improvised Explosive Device,
3
19160
3000
イラクの反体制派により
00:22
along the side of the road with great care.
4
22160
2000
道のあちこちで仕掛けられています
00:24
By 2006, there were more than 2,500
5
24160
4000
2006年までに このような攻撃は
00:28
of these attacks every single month,
6
28160
3000
毎月2500を数えるようになり
00:31
and they were the leading cause of
7
31160
2000
アメリカ軍兵士とイラク市民が
00:33
casualties among American soldiers
8
33160
2000
死亡する主な
00:35
and Iraqi civilians.
9
35160
2000
原因となっていました
00:37
The team that was hunting for this IED
10
37160
2000
このような即席爆弾を解体するのは
00:39
is called an EOD team—
11
39160
2000
EOD チームと呼ばれる
00:41
Explosives Ordinance Disposal—and
12
41160
2000
爆弾処理班で
00:43
they're the pointy end of the spear in the
13
43160
2000
道ばたにおける米国爆発物処理の
00:45
American effort to suppress these roadside bombs.
14
45160
3000
最前線を担っています
00:48
Each EOD team goes out on about
15
48160
2000
各 EOD チームは 毎年およそ
00:50
600 of these bomb calls every year,
16
50160
2000
600もの爆弾処理に従事し
00:52
defusing about two bombs a day.
17
52160
3000
毎日2個程の爆弾解体を行っています
00:55
Perhaps the best sign of how valuable they
18
55160
2000
彼らがどれほど重要なのかは
00:57
are to the war effort, is that
19
57160
2000
イラクの反体制派が
00:59
the Iraqi insurgents put a $50,000 bounty
20
59160
2000
EOD 兵1人に対して5万ドルもの
01:01
on the head of a single EOD soldier.
21
61160
3000
懸賞金をかけていることからも伺い知れます
01:04
Unfortunately, this particular call
22
64160
2000
残念なことにこの話は
01:06
would not end well.
23
66160
2000
良い終わり方をしません
01:08
By the time the soldier advanced close
24
68160
2000
導火線を確認できる程
01:10
enough to see the telltale wires
25
70160
2000
兵士が接近すると 爆風とともに
01:12
of the bomb, it exploded in a wave of flame.
26
72160
3000
爆弾が爆発します
01:15
Now, depending how close you are
27
75160
2000
どれほど近くにいるのかと
01:17
and how much explosive has been packed
28
77160
2000
どれほどの爆発物があるかにより
01:19
into that bomb, it can cause death
29
79160
2000
死傷または負傷することになり
01:21
or injury. You have to be as far as
30
81160
2000
それを避けるには45メートル程
01:23
50 yards away to escape that.
31
83160
2000
離れている必要があります
01:25
The blast is so strong it can even break
32
85160
2000
爆風があまりにも強烈なので
01:27
your limbs, even if you're not hit.
33
87160
2000
直撃でなくても手足を骨折することがあります
01:29
That soldier had been on top of the bomb.
34
89160
2000
この兵士は爆弾の上にいたため
01:31
And so when the rest of the team advanced
35
91160
3000
他のチームメンバーが近寄ってみると
01:34
they found little left. And that night the unit's
36
94160
2000
身体は殆ど残っておらず
01:36
commander did a sad duty, and he wrote
37
96160
2000
その日の夜に指揮官は
01:38
a condolence letter back to the United
38
98160
2000
米本国に対してお悔やみ状を書くという
01:40
States, and he talked about how hard the
39
100160
2000
悲しい任務に就き
01:42
loss had been on his unit, about the fact
40
102160
2000
幾度となく仲間の命を救ってきた
01:44
that they had lost their bravest soldier,
41
104160
2000
最も勇敢な兵士を失うのが
01:46
a soldier who had saved their lives
42
106160
2000
どれほど大変か
01:48
many a time.
43
108160
2000
教えてくれました
01:50
And he apologized
44
110160
2000
そして指揮官は兵士を無事に
01:52
for not being able to bring them home.
45
112160
2000
国に返せなかったことを謝るのです
01:54
But then he talked up the silver lining
46
114160
2000
しかしそんな現実にも
01:56
that he took away from the loss.
47
116160
2000
希望の光があることを教えてくれました
01:58
"At least," as he wrote, "when a robot dies,
48
118160
2000
「仮にロボットが死んでも
02:00
you don't have to write a letter
49
120160
2000
その母親に手紙を書く
02:02
to its mother."
50
122160
2000
必要はないでしょう」
02:04
That scene sounds like science fiction,
51
124160
2000
サイエンスフィクションのような話ですが
02:06
but is battlefield reality already.
52
126160
2000
これが既に戦場の現実なのです
02:08
The soldier in that case
53
128160
3000
ここでの兵士は19キログラムの
02:11
was a 42-pound robot called a PackBot.
54
131160
3000
PackBot というロボットでした
02:14
The chief's letter went, not to some
55
134160
3000
今では昔の戦争映画のように
02:17
farmhouse in Iowa like you see
56
137160
2000
アイオワにある農家へ
02:19
in the old war movies, but went to
57
139160
3000
手紙が送られることはなく
02:22
the iRobot Company, which is
58
142160
2000
アシモフの小説とウィルスミスの
02:24
named after the Asimov novel
59
144160
3000
駄作映画から名付けられた
02:27
and the not-so-great Will Smith movie,
60
147160
2000
iRobot 社へ手紙は送られます
02:29
and... um... (Laughter)...
61
149160
2000
えぇっと (笑)..
02:31
if you remember that
62
151160
2000
フィクションの世界では
02:33
in that fictional world, robots started out
63
153160
2000
最初は日常の手伝いから始まり
02:35
carrying out mundane chores, and then
64
155160
2000
そしてしばらくすると
02:37
they started taking on life-and-death decisions.
65
157160
2000
生死の判断を下すようになります
02:39
That's a reality we face today.
66
159160
2000
それが今日の現実なのです
02:41
What we're going to do is actually just
67
161160
2000
これから私の後ろに
02:43
flash a series of photos behind me that
68
163160
2000
写真を投影し
02:45
show you the reality of robots used in war
69
165160
3000
現実に使用されている あるいは試作品の
02:48
right now or already at the prototype stage.
70
168160
2000
戦闘用ロボットの現実を見てもらいます
02:50
It's just to give you a taste.
71
170160
3000
ちょっとだけです
02:53
Another way of putting it is you're not
72
173160
2000
言い方を変えると
02:55
going to see anything that's powered
73
175160
2000
ここでお見せするのは
02:57
by Vulcan technology, or teenage
74
177160
2000
(スタートレックの)バルカン星人の技術や
02:59
wizard hormones or anything like that.
75
179160
2000
十代の若者オタクなどではなく
03:01
This is all real. So why don't we
76
181160
2000
全て本物です それでは
03:03
go ahead and start those pictures.
77
183160
2000
写真を見ていきましょう
03:05
Something big is going on in war today,
78
185160
2000
今日の戦場では
人間の歴史始まって以来かもしれない
03:07
and maybe even the history of humanity
79
187160
2000
大きな変化が起こっています
03:09
itself. The U.S. military went into Iraq with
80
189160
3000
アメリカ軍は わずかばかりのドローンで
03:12
a handful of drones in the air.
81
192160
2000
イラク戦争に行きましたが
03:14
We now have 5,300.
82
194160
3000
今では5300機あります
03:17
We went in with zero unmanned ground
83
197160
2000
陸上用の無人システムは
一つもありませんでしたが
03:19
systems. We now have 12,000.
84
199160
4000
今では12000台あります
03:23
And the tech term "killer application"
85
203160
2000
技術用語の「キラーアプリケーション」が
03:25
takes on new meaning in this space.
86
205160
3000
ここでは新しい意味合いを持っているのです
03:28
And we need to remember that we're
87
208160
2000
私たちはT型フォードや
03:30
talking about the Model T Fords,
88
210160
2000
ライト兄弟の飛行機と
03:32
the Wright Flyers, compared
89
212160
2000
これから目にするものを
03:34
to what's coming soon.
90
214160
2000
比べなくてはなりません
03:36
That's where we're at right now.
91
216160
2000
我々はそういう時代にいるのです
03:38
One of the people that I recently met with
92
218160
2000
最近会った空軍の
03:40
was an Air Force three-star general, and he
93
220160
2000
中将が言うには
03:42
said basically, where we're headed very
94
222160
2000
我々は もうすぐ 我々の戦場で
03:44
soon is tens of thousands of robots
95
224160
2000
何万ものロボットを使用することになる
03:46
operating in our conflicts, and these
96
226160
2000
というもので これらロボットは
03:48
numbers matter, because we're not just
97
228160
2000
単なる量産型のロボットではなく
03:50
talking about tens of thousands of today's
98
230160
2000
将来使われる何万もの これら試作品
03:52
robots, but tens of thousands of these
99
232160
2000
未来のロボットであるため
03:54
prototypes and tomorrow's robots, because
100
234160
2000
この数は重要になります
03:56
of course, one of the things that's operating
101
236160
3000
もちろん 技術分野のムーアの法則により
03:59
in technology is Moore's Law,
102
239160
2000
これらのロボットの演算能力は
04:01
that you can pack in more and more
103
241160
2000
どんどん増えて行きます
04:03
computing power into those robots, and so
104
243160
2000
だから25年後ぐらいを推測すると
04:05
flash forward around 25 years,
105
245160
2000
ムーアの法則がまだ正しければ
04:07
if Moore's Law holds true,
106
247160
2000
これらのロボットは
04:09
those robots will be close to a billion times
107
249160
3000
現在より10億倍ほど強力な
04:12
more powerful in their computing than today.
108
252160
3000
演算能力を持つでしょう
04:15
And so what that means is the kind of
109
255160
2000
それはつまり 我々がコミコンのような
04:17
things that we used to only talk about at
110
257160
2000
SF大会で話しているようなことが
04:19
science fiction conventions like Comic-Con
111
259160
2000
ペンタゴンのような
04:21
have to be talked about in the halls
112
261160
2000
軍事力の中枢で
04:23
of power and places like the Pentagon.
113
263160
2000
議論されるということです
04:25
A robots revolution is upon us.
114
265160
3000
ロボットの革新がおきています
04:28
Now, I need to be clear here.
115
268160
2000
次のことも明らかにしておきます
04:30
I'm not talking about a revolution where you
116
270160
2000
実際に起こる革命は
04:32
have to worry about the Governor of
117
272160
2000
カリフォルニアの州知事が
04:34
California showing up at your door,
118
274160
2000
あなたの戸口にターミネーターとして現れる
04:36
a la the Terminator. (Laughter)
119
276160
2000
というものではありません
04:38
When historians look at this period, they're
120
278160
2000
歴史家が振り返って今の時代を見た時 彼らは
04:40
going to conclude that we're in a different
121
280160
2000
我々がこれまでと違った革命、戦争の革命の
04:42
type of revolution: a revolution in war,
122
282160
2000
中にあったと言うでしょう
04:44
like the invention of the atomic bomb.
123
284160
2000
ちょうど原子爆弾の発明の時のように
04:46
But it may be even bigger than that,
124
286160
2000
しかし 事態はそれより重大かもしれません
04:48
because our unmanned systems don't just
125
288160
2000
なぜなら無人システムは
04:50
affect the "how" of war-fighting,
126
290160
2000
単に戦闘を「どう」闘うかだけでなく
04:52
they affect the "who" of fighting
127
292160
2000
とても根本的なレベルで
04:54
at its most fundamental level.
128
294160
2000
「誰が」闘うのかに影響するからです
04:56
That is, every previous revolution in war, be
129
296160
2000
それは これまでの戦争の革命が
04:58
it the machine gun, be it the atomic bomb,
130
298160
2000
マシンガンであれ 原子爆弾であれ
05:00
was about a system that either shot faster,
131
300160
3000
より速く撃ち より遠くへ行き
05:03
went further, had a bigger boom.
132
303160
3000
より大きな威力を持つかであって
05:06
That's certainly the case with robotics, but
133
306160
3000
それはロボットの場合も当てはまりますが
05:09
they also change the experience of the warrior
134
309160
3000
ロボットは 兵士の考え方や
05:12
and even the very identity of the warrior.
135
312160
3000
根本的な兵士の定義も変えてしまいます
05:15
Another way of putting this is that
136
315160
3000
別の言い方をすれば 5000年の間
05:18
mankind's 5,000-year-old monopoly
137
318160
2000
人類の専売特許であった
05:20
on the fighting of war is breaking down
138
320160
3000
「戦場での戦闘」が我々の時代で
05:23
in our very lifetime. I've spent
139
323160
2000
崩壊しつつあるのです
05:25
the last several years going around
140
325160
2000
私はここ数年 あちこちで
05:27
meeting with all the players in this field,
141
327160
2000
ロボット科学者から
05:29
from the robot scientists to the science
142
329160
2000
彼らにひらめきを与えたSF作家まで
05:31
fiction authors who inspired them to the
143
331160
2000
この分野の役者たち皆に会いました
05:33
19-year-old drone pilots who are fighting
144
333160
2000
ネバダから戦闘ロボットを操縦する19歳の
05:35
from Nevada, to the four-star generals
145
335160
2000
兵士から 彼らに命令を下す大将まで
05:37
who command them, to even the Iraqi
146
337160
2000
あるいはその標的になっているイラクの
05:39
insurgents who they are targeting and what
147
339160
2000
反乱分子にまで会い
05:41
they think about our systems, and
148
341160
2000
我々のシステムについてどう思うか尋ねました
05:43
what I found interesting is not just
149
343160
2000
興味深いのは 彼らの話そのものだけではなく
05:45
their stories, but how their experiences
150
345160
2000
彼らの経験が 社会
05:47
point to these ripple effects that are going
151
347160
2000
法制度や 倫理観などに
05:49
outwards in our society, in our law
152
349160
2000
どのように影響を与えるかでした
05:51
and our ethics, etc. And so what I'd like
153
351160
2000
残りの時間を使って
05:53
to do with my remaining time is basically
154
353160
2000
それらを詳しく見て
05:55
flesh out a couple of these.
155
355160
2000
いくことにします
05:57
So the first is that the future of war,
156
357160
2000
第一に 未来の戦争は
05:59
even a robotics one, is not going to be
157
359160
2000
ロボット兵士でさえ
06:01
purely an American one.
158
361160
2000
アメリカの独占物ではないということです
06:03
The U.S. is currently ahead in military
159
363160
2000
アメリカは現在は軍事ロボットの分野で
先を走っていますが
06:05
robotics right now, but we know that in
160
365160
2000
ご存知のようにテクノロジーの世界では
06:07
technology there's no such thing as
161
367160
2000
先行者の有利はいつまでも
06:09
a permanent first move or advantage.
162
369160
3000
続くものではありません
06:12
In a quick show of hands, how many
163
372160
2000
お尋ねしますが
06:14
people in this room still use
164
374160
2000
ここにいる何名の人が
06:16
Wang Computers? (Laughter)
165
376160
2000
Wangコンピュータを使っているでしょう?
06:18
It's the same thing in war. The British and
166
378160
2000
戦争でも同じです
06:20
the French invented the tank.
167
380160
3000
イギリスとフランスが戦車を発明しましたが
06:23
The Germans figured out how
168
383160
2000
正しい使い方を見つけたのはドイツで
06:25
to use it right, and so what we have to
169
385160
2000
我々が考えなくてはならないのは
06:27
think about for the U.S. is that we are
170
387160
2000
今のところアメリカは先進的だが
06:29
ahead right now, but you have
171
389160
2000
他にも43カ国が軍事ロボットの
06:31
43 other countries out there
172
391160
2000
開発に着手しており
06:33
working on military robotics, and they
173
393160
2000
その中にはロシア、中国
06:35
include all the interesting countries like
174
395160
2000
パキスタン、イランなどの
06:37
Russia, China, Pakistan, Iran.
175
397160
3000
国も含まれていることです
06:40
And this raises a bigger worry for me.
176
400160
3000
ここからさらに大きな懸念が持ち上がります
06:43
How do we move forward in this revolution
177
403160
2000
現在のこの革命の中
06:45
given the state of our manufacturing
178
405160
2000
この国の生産体制
06:47
and the state of our science and
179
407160
2000
科学や数学の教育体制を考えて
06:49
mathematics training in our schools?
180
409160
2000
どうやって前に進むのか?
06:51
Or another way of thinking about this is,
181
411160
2000
別の言い方をするとこうです
06:53
what does it mean to go to war increasingly
182
413160
2000
中国製の武器やインド製の戦闘ソフトをもって
06:55
with soldiers whose hardware is made
183
415160
3000
戦場に出て行く機会が増えているのは
06:58
in China and software is written in India?
184
418160
5000
どういうことなのか?
07:03
But just as software has gone open-source,
185
423160
3000
ソフトウェアがオープンソース化したように
07:06
so has warfare.
186
426160
2000
武器もそうなりつつあります
07:08
Unlike an aircraft carrier or an atomic bomb,
187
428160
3000
空母や原子爆弾と違って
07:11
you don't need a massive manufacturing
188
431160
2000
ロボットを作るのに巨大な生産システムは
07:13
system to build robotics. A lot of it is
189
433160
2000
必要ありません
07:15
off the shelf. A lot of it's even do-it-yourself.
190
435160
2000
既製品で
07:17
One of those things you just saw flashed
191
437160
2000
いくつかは自作すらできます
07:19
before you was a raven drone, the handheld
192
439160
2000
あなたが今見たものの一つは放り投げて使う
07:21
tossed one. For about a thousand dollars,
193
441160
2000
Ravenドローンで 1000ドルも出せば
07:23
you can build one yourself, equivalent to
194
443160
2000
イラクで兵士が使っているものと同じものを
07:25
what the soldiers use in Iraq.
195
445160
2000
自分で作ることができます
07:27
That raises another wrinkle when it comes
196
447160
2000
ここでは 善人が趣味として
07:29
to war and conflict. Good guys might play
197
449160
2000
色々いじることもできるが
07:31
around and work on these as hobby kits,
198
451160
2000
悪人も同じことができるという
07:33
but so might bad guys.
199
453160
2000
戦争や戦闘の新たな問題が持ち上がります
07:35
This cross between robotics and things like
200
455160
2000
ロボット工学とテロリズムが
07:37
terrorism is going to be fascinating
201
457160
2000
交錯すると 魅惑的かつ
07:39
and even disturbing,
202
459160
2000
憂慮すべきことになるでしょう
07:41
and we've already seen it start.
203
461160
2000
もうそれが始まっているのを見ました
07:43
During the war between Israel, a state,
204
463160
2000
政府側であるイスラエルと非政府側の
07:45
and Hezbollah, a non-state actor,
205
465160
3000
ヒズボラの戦闘で
07:48
the non-state actor flew
206
468160
2000
非政府側がイスラエルに向けて
07:50
four different drones against Israel.
207
470160
2000
4種類のドローンを飛ばしました
07:52
There's already a jihadi website
208
472160
2000
ジハードのウェブサイトでは
07:54
that you can go on and remotely
209
474160
2000
パソコンの前にいながら
07:56
detonate an IED in Iraq while sitting
210
476160
2000
イラクの即席爆弾を遠隔から
07:58
at your home computer.
211
478160
2000
起爆することができます
08:00
And so I think what we're going to see is
212
480160
2000
つまり 私たちはここから
08:02
two trends take place with this.
213
482160
2000
二つの傾向を見て取ることができます
08:04
First is, you're going to reinforce the power
214
484160
2000
第一は 政府に対する個人の力が
08:06
of individuals against governments,
215
486160
4000
強まっているということです
08:10
but then the second is that
216
490160
2000
第二は テロリズムの領域が
08:12
we are going to see an expansion
217
492160
2000
拡大していくさまを
08:14
in the realm of terrorism.
218
494160
2000
目撃するということです
08:16
The future of it may be a cross between
219
496160
2000
その未来はアルカイダ2.0と 次世代の
08:18
al Qaeda 2.0 and the
220
498160
2000
ユナボマー(米国の爆弾魔)の
08:20
next generation of the Unabomber.
221
500160
2000
交点にあるのかもしれません
08:22
And another way of thinking about this
222
502160
2000
他にも忘れてはならないのは
08:24
is the fact that, remember, you don't have
223
504160
2000
ロボットが自爆するのに
08:26
to convince a robot that they're gonna
224
506160
2000
死後に72人の処女を得られると
08:28
receive 72 virgins after they die
225
508160
3000
説得する必要はない
08:31
to convince them to blow themselves up.
226
511160
3000
ということです
08:34
But the ripple effects of this are going to go
227
514160
2000
この連鎖反応は
08:36
out into our politics. One of the people that
228
516160
2000
我々の政策にも影響します
08:38
I met with was a former Assistant Secretary of
229
518160
2000
私が会った一人は レーガン政権の
08:40
Defense for Ronald Reagan, and he put it
230
520160
2000
元国防長官補佐官でした
08:42
this way: "I like these systems because
231
522160
2000
彼が言うには(以下引用)
08:44
they save American lives, but I worry about
232
524160
2000
「私はこのシステムが好きだ
なぜならアメリカ人の命を救うから
08:46
more marketization of wars,
233
526160
2000
だが戦争の市場化は懸念するし
08:48
more shock-and-awe talk,
234
528160
3000
コスト負担のための
08:51
to defray discussion of the costs.
235
531160
2000
衝撃的な議論も懸念する
08:53
People are more likely to support the use
236
533160
2000
コストがかからないとわかるとより簡単に
08:55
of force if they view it as costless."
237
535160
3000
力の行使を支持するものだ」と
08:58
Robots for me take certain trends
238
538160
2000
ロボットは 我々国民全般に
09:00
that are already in play in our body politic,
239
540160
3000
広まっている世論に影響を与え
09:03
and maybe take them to
240
543160
2000
それを論理的な終局点まで
09:05
their logical ending point.
241
545160
2000
けん引していくようです
09:07
We don't have a draft. We don't
242
547160
2000
草案もありませんし
09:09
have declarations of war anymore.
243
549160
3000
宣戦布告書もすでにありません
09:12
We don't buy war bonds anymore.
244
552160
2000
戦争債も買わないし
09:14
And now we have the fact that we're
245
554160
2000
そして 我々は危険の多い地域に
09:16
converting more and more of our American
246
556160
2000
アメリカ人の兵士を送る代わりに
09:18
soldiers that we would send into harm's
247
558160
2000
機械を送り込むようになっており
09:20
way into machines, and so we may take
248
560160
3000
それにより戦争行為に対する
09:23
those already lowering bars to war
249
563160
3000
ハードルが更に低くなり
09:26
and drop them to the ground.
250
566160
3000
終には抑止力が無くなってしまいます
09:29
But the future of war is also going to be
251
569160
2000
同時に 未来の戦争はまた
09:31
a YouTube war.
252
571160
2000
YouTube戦争でもあります
09:33
That is, our new technologies don't merely
253
573160
2000
つまり 我々の技術は単に兵士を
09:35
remove humans from risk.
254
575160
2000
危険から遠ざけるだけでなく
09:37
They also record everything that they see.
255
577160
3000
彼らの見るものを全て記録するようになっています
09:40
So they don't just delink the public:
256
580160
3000
戦争を公衆から切り離すだけでなく
09:43
they reshape its relationship with war.
257
583160
3000
戦争との関わりを再構築しています
09:46
There's already several thousand
258
586160
2000
現在 YouTubeには何千もの
09:48
video clips of combat footage from Iraq
259
588160
2000
イラクの戦闘を撮影した
09:50
on YouTube right now,
260
590160
2000
ビデオクリップがありますが
09:52
most of it gathered by drones.
261
592160
2000
ほとんどはドローンから得られたものです
09:54
Now, this could be a good thing.
262
594160
2000
それは 戦争の最前線と家庭を
09:56
It could be building connections between
263
596160
2000
かつてなかったかたちで
09:58
the home front and the war front
264
598160
2000
結びつけるという
10:00
as never before.
265
600160
2000
良い側面もあります
10:02
But remember, this is taking place
266
602160
2000
しかし何が起こっても
10:04
in our strange, weird world, and so
267
604160
3000
おかしく無い世の中では
10:07
inevitably the ability to download these
268
607160
2000
このようなビデオクリップをダウンロードして
10:09
video clips to, you know, your iPod
269
609160
2000
iPodやZuneに収めることで
10:11
or your Zune gives you
270
611160
3000
エンターテイメントにしてしまえることも
10:14
the ability to turn it into entertainment.
271
614160
4000
忘れてはなりません
10:18
Soldiers have a name for these clips.
272
618160
2000
兵士達はこのようなビデオクリップを
10:20
They call it war porn.
273
620160
2000
「戦争ポルノ」と読んでいます
10:22
The typical one that I was sent was
274
622160
2000
最近見た典型的な例は 電子メールに
10:24
an email that had an attachment of
275
624160
2000
添付された映像で
10:26
video of a Predator strike taking out
276
626160
2000
プレデター(無人航空機)が敵の基地を
10:28
an enemy site. Missile hits,
277
628160
2000
ミサイルで攻撃した時の爆発で
10:30
bodies burst into the air with the explosion.
278
630160
3000
肉体が空中にばらばらに吹き飛んでいました
10:33
It was set to music.
279
633160
2000
それには音楽がついていて
10:35
It was set to the pop song
280
635160
2000
シュガー・レイの「I Just Want to Fly」
10:37
"I Just Want To Fly" by Sugar Ray.
281
637160
3000
という曲でした
10:40
This ability to watch more
282
640160
3000
より多くのものを見て
10:43
but experience less creates a wrinkle
283
643160
3000
経験はより少なくなる状態は
10:46
in the public's relationship with war.
284
646160
2000
大衆と戦争の関係にひずみを引き起こしています
10:48
I think about this with a sports parallel.
285
648160
2000
これはスポーツと同じです
10:50
It's like the difference between
286
650160
3000
プロバスケットボールである
10:53
watching an NBA game, a professional
287
653160
3000
NBAのゲームをテレビで見ていて
10:56
basketball game on TV, where the athletes
288
656160
3000
選手が画面の小さな点に見えているのと
10:59
are tiny figures on the screen, and
289
659160
2000
自分で実際に試合を見に行って
11:01
being at that basketball game in person
290
661160
3000
2メートル10センチの人間が
11:04
and realizing what someone seven feet
291
664160
2000
実際はどんな感じか
11:06
really does look like.
292
666160
2000
理解することに似ています
11:08
But we have to remember,
293
668160
2000
しかし思い出して下さい
11:10
these are just the clips.
294
670160
2000
これらはただのビデオで
11:12
These are just the ESPN SportsCenter
295
672160
2000
試合のダイジェスト版で
11:14
version of the game. They lose the context.
296
674160
2000
それは文脈を失い
11:16
They lose the strategy.
297
676160
2000
戦略を失い
11:18
They lose the humanity. War just
298
678160
2000
人間性を失い
11:20
becomes slam dunks and smart bombs.
299
680160
3000
戦争はただのスラムダンクやスマート爆弾なのです
11:23
Now the irony of all this is that
300
683160
3000
皮肉なのは 未来の戦争では
11:26
while the future of war may involve
301
686160
2000
より多くの機械が
11:28
more and more machines,
302
688160
2000
使われるのにもかかわらず
11:30
it's our human psychology that's driving
303
690160
2000
それらを動かすのは人間の心理で
11:32
all of this, it's our human failings
304
692160
2000
戦争を起こすのも
11:34
that are leading to these wars.
305
694160
2000
人間の欠点によるものなのです
11:36
So one example of this that has
306
696160
2000
これに対する
11:38
big resonance in the policy realm is
307
698160
2000
政治の世界からの反応は
11:40
how this plays out on our very real
308
700160
2000
過激派を相手に戦っているという
11:42
war of ideas that we're fighting
309
702160
2000
現実の戦争の考え方に
11:44
against radical groups.
310
704160
2000
大きな影響を与えています
11:46
What is the message that we think we are
311
706160
2000
我々がこれらの機械と一緒に送っている
11:48
sending with these machines versus what
312
708160
2000
メッセージは
11:50
is being received in terms of the message.
313
710160
3000
どのように受け取られているのか
11:53
So one of the people that I met was
314
713160
2000
私がブッシュ政権の総務局で会ったある人は
11:55
a senior Bush Administration official,
315
715160
2000
人間が戦わない戦争について
11:57
who had this to say about
316
717160
2000
以下の様な事を言いました
11:59
our unmanning of war:
317
719160
2000
「これは我々の力に影響を与えます
12:01
"It plays to our strength. The thing that
318
721160
2000
人々を脅かしているのは
12:03
scares people is our technology."
319
723160
2000
我々のテクノロジーなのです」
12:05
But when you go out and meet with people,
320
725160
2000
しかし遠く -- 例えばレバノン-- まで行き
12:07
for example in Lebanon, it's a very
321
727160
2000
人と会ってみると
12:09
different story. One of the people
322
729160
2000
それはとても違った話となります
12:11
I met with there was a news editor, and
323
731160
2000
そこで私が出会ったのはニュースの編集者で
12:13
we're talking as a drone is flying above him,
324
733160
2000
会話している我々の頭上を
無人航空機が飛んで行くなか
12:15
and this is what he had to say.
325
735160
2002
彼はこう言いました
12:17
"This is just another sign of the coldhearted
326
737162
1998
「これは我々と戦う為の機械を
12:19
cruel Israelis and Americans,
327
739160
3006
送ってくる臆病で 無慈悲
12:22
who are cowards because
328
742166
1992
冷血なアメリカ人とイスラエル人を
12:24
they send out machines to fight us.
329
744158
2006
象徴するものだ
12:26
They don't want to fight us like real men,
330
746164
1992
彼らは男らしく戦うのではなく
12:28
but they're afraid to fight,
331
748156
2007
戦う事を恐れている
12:30
so we just have to kill a few of their soldiers
332
750163
1991
だから我々は数少ない彼ら兵士を殺すことで
12:32
to defeat them."
333
752154
3005
勝利を得るのだ」
12:35
The future of war also is featuring
334
755159
2007
未来の戦争は新しいタイプの兵士を
12:37
a new type of warrior,
335
757166
1977
形作っています
12:39
and it's actually redefining the experience
336
759159
3006
それは戦争に行くという
12:42
of going to war.
337
762165
1998
定義を変えるもので
12:44
You can call this a cubicle warrior.
338
764163
1976
個室兵士とでも呼べるものです
12:46
This is what one Predator drone pilot
339
766154
2007
ネバダから離れる事無く
12:48
described of his experience fighting
340
768161
2007
イラク戦争で戦っていた
12:50
in the Iraq War while never leaving Nevada.
341
770168
2989
プレデターのパイロットはこう言いました
12:53
"You're going to war for 12 hours,
342
773157
2005
「12時間戦争に行き
12:55
shooting weapons at targets,
343
775162
1991
武器を標的に向けて撃って
12:57
directing kills on enemy combatants,
344
777168
2991
敵の兵士を撃ち殺す様に命令し
13:00
and then you get in the car
345
780159
2006
車に乗って家に帰り
13:02
and you drive home and within 20 minutes,
346
782165
1982
20分後には夕食の席にいて
13:04
you're sitting at the dinner table
347
784163
1991
子供たちと宿題について
13:06
talking to your kids about their homework."
348
786169
1993
話をしている」
13:08
Now, the psychological balancing
349
788162
1991
さて 心理的にこれらのバランスを取るのは
13:10
of those experiences is incredibly tough,
350
790168
1993
非常に難しい事です
13:12
and in fact those drone pilots have
351
792161
2992
実はこれらの無人戦闘機パイロットたちは
13:15
higher rates of PTSD than many
352
795153
2008
実際にイラクにいる兵士よりも
13:17
of the units physically in Iraq.
353
797161
3005
高い率で PTSD を患っています
13:20
But some have worries that this
354
800166
1992
しかし中にはこの断絶が
13:22
disconnection will lead to something else,
355
802158
1994
戦争犯罪をもっとやり易いものに
13:24
that it might make the contemplation of war
356
804167
1998
してしまうのではないかと
13:26
crimes a lot easier when you have
357
806165
2005
危惧している人達もいます
13:28
this distance. "It's like a video game,"
358
808170
1999
「まるでこれはテレビゲームです」とは
13:30
is what one young pilot described to me
359
810169
1999
遠方から敵の部隊を攻撃する
13:32
of taking out enemy troops from afar.
360
812168
1960
若いパイロットの言葉です
13:34
As anyone who's played Grand Theft Auto
361
814158
2995
グランド・セフト・オートをしたことがある人なら
13:37
knows, we do things in the video world
362
817168
3000
人は面と向かってはしないようなことを
13:40
that we wouldn't do face to face.
363
820168
2996
テレビゲームではすることを知ってるでしょう
13:43
So much of what you're hearing from me
364
823164
1998
私がここで言いたいのは
13:45
is that there's another side
365
825162
1993
技術革新は別の面も併せ持っており
13:47
to technologic revolutions,
366
827155
2008
それは 現在の
13:49
and that it's shaping our present
367
829163
1994
そしてもしかしたら未来の戦争を
13:51
and maybe will shape our future of war.
368
831157
3001
形作っているということです
13:54
Moore's Law is operative,
369
834158
2001
ムーアの法則の他に
13:56
but so's Murphy's Law.
370
836159
1998
マーフィーの法則も働いています
13:58
The fog of war isn't being lifted.
371
838157
2005
戦雲は消えていません
14:00
The enemy has a vote.
372
840162
2010
敵にも選択する権利はありますし
14:02
We're gaining incredible new capabilities,
373
842172
1989
我々はとてつもない能力を手に入れようとしています
14:04
but we're also seeing and experiencing
374
844161
2006
しかし我々は同時に新しい人間のジレンマを
14:06
new human dilemmas. Now,
375
846167
2000
見て 体験しているのです
14:08
sometimes these are just "oops" moments,
376
848167
1999
さて 失敗する時もあります
14:10
which is what the head of a robotics
377
850166
1992
これはロボット関連の企業のトップが
14:12
company described it, you just have
378
852158
2011
言った言葉ですが
14:14
"oops" moments. Well, what are
379
854169
2000
それではロボットがいる戦場での
14:16
"oops" moments with robots in war?
380
856169
1996
失敗とは何でしょうか?
14:18
Well, sometimes they're funny. Sometimes,
381
858165
2001
面白い時もあります
14:20
they're like that scene from the
382
860166
2002
時には エディー・マーフィーが出ている
14:22
Eddie Murphy movie "Best Defense,"
383
862168
2001
「おかしな関係」という
14:24
playing out in reality, where they tested out
384
864169
2001
映画のワンシーンを現実にした様な
14:26
a machine gun-armed robot, and during
385
866170
1988
マシンガンを搭載した新しいロボットが
14:28
the demonstration it started spinning
386
868158
2001
デモの時にクルクルと回りだし
14:30
in a circle and pointed its machine gun
387
870159
3009
自分のマシンガンを VIP 席に向けて
照準を合わせるという
14:33
at the reviewing stand of VIPs.
388
873168
2995
ものなのかも知れません
14:36
Fortunately the weapon wasn't loaded
389
876163
1993
幸運な事に弾は込められておらず
14:38
and no one was hurt, but other times
390
878156
2010
誰も傷つきませんでした
14:40
"oops" moments are tragic,
391
880166
1992
しかしそうで無いときの失敗は悲劇的で
14:42
such as last year in South Africa, where
392
882158
2002
南アフリカでは去年
14:44
an anti-aircraft cannon had a
393
884160
2999
対空砲に「ソフトウェアの問題」があり
14:47
"software glitch," and actually did turn on
394
887159
2999
誤動作して 発砲
14:50
and fired, and nine soldiers were killed.
395
890158
3004
9名の兵士が亡くなりました
14:53
We have new wrinkles in the laws of war
396
893162
2997
戦時国際法と責任についても
14:56
and accountability. What do we do
397
896159
1997
我々はひずみを持っています
14:58
with things like unmanned slaughter?
398
898156
2010
無人殺戮兵器を使って何をするのか?
15:00
What is unmanned slaughter?
399
900166
1998
無人殺戮兵器とは何でしょうか?
15:02
We've already had three instances of
400
902164
2000
既に我々は3回 プレデターにより
15:04
Predator drone strikes where we thought
401
904164
2000
ビン・ラディンを爆撃したと思い
15:06
we got bin Laden, and it turned out
402
906164
1994
実際にはそうでなかったことを
15:08
not to be the case.
403
908158
2002
経験しています
15:10
And this is where we're at right now.
404
910160
2008
これが現在の我々なのです
15:12
This is not even talking about armed,
405
912168
2000
発砲する権限を持っている
15:14
autonomous systems
406
914168
1989
自立した兵器システムについて
15:16
with full authority to use force.
407
916157
2013
話しているわけではありませんし
15:18
And do not believe that that isn't coming.
408
918170
1994
それがやって来ないと思わないで下さい
15:20
During my research I came across
409
920164
2007
私の調査中 そのような特性を備えた
15:22
four different Pentagon projects
410
922171
1985
4つの国防総省プロジェクトを
15:24
on different aspects of that.
411
924156
2012
見ました
15:26
And so you have this question:
412
926168
2002
あなたはこんな事を疑問に思うでしょう
15:28
what does this lead to issues like
413
928170
1993
戦争犯罪はどのようなものになるのか?
15:30
war crimes? Robots are emotionless, so
414
930163
1992
機械に感情はありませんから
15:32
they don't get upset if their buddy is killed.
415
932155
3012
仲間が殺されても取り乱す事は無く
15:35
They don't commit crimes of rage
416
935167
1994
逆上して犯罪を犯したり
15:37
and revenge.
417
937161
2007
復讐する事もありません
15:39
But robots are emotionless.
418
939168
2997
しかし機械には感情が無いので
15:42
They see an 80-year-old grandmother
419
942165
1999
T80戦車を見るのと同じ様に
15:44
in a wheelchair the same way they see
420
944164
2000
車椅子に乗っている
15:46
a T-80 tank: they're both
421
946164
3002
80歳のお婆ちゃんを見ます
15:49
just a series of zeroes and ones.
422
949166
2993
0と1の連続でしかないのですから
15:52
And so we have this question to figure out:
423
952159
3003
そこで考えなければならない問題があります
15:55
How do we catch up our 20th century
424
955162
2003
介護保険の対象になる様な
15:57
laws of war, that are so old right now
425
957165
1989
時代遅れの20世紀の戦争法を
15:59
that they could qualify for Medicare,
426
959154
3008
我々はどうやって21世紀の技術に
16:02
to these 21st century technologies?
427
962162
3008
合わせるのでしょうか
16:05
And so, in conclusion, I've talked about
428
965170
2987
最後にまとめますと 私は
16:08
what seems the future of war,
429
968157
3011
戦争の未来がどうなるかを話してきました
16:11
but notice that I've only used
430
971168
1990
しかしすべて現実にある例だけを
16:13
real world examples and you've only seen
431
973158
2012
挙げている事に注意して下さい
16:15
real world pictures and videos.
432
975170
2001
あなたの見たビデオや写真はすべて現実です
16:17
And so this sets a great challenge for
433
977171
2000
これはルンバ掃除機があなたの人生を
16:19
all of us that we have to worry about well
434
979171
1986
吸い取ってしまうずっと前に
16:21
before you have to worry about your
435
981157
2009
考えなければ
16:23
Roomba sucking the life away from you.
436
983166
2001
ならないということです
16:25
Are we going to let the fact that what's
437
985167
1999
戦争で使われるものの秘密を
16:27
unveiling itself right now in war
438
987166
3000
明らかにすることは
16:30
sounds like science fiction and therefore
439
990166
2991
まるでSFのように見え
16:33
keeps us in denial?
440
993157
2005
目をつぶってしまいがちです
16:35
Are we going to face the reality
441
995162
2004
我々は21世紀型の戦争の現実を
16:37
of 21st century war?
442
997166
1993
直視しますか?
16:39
Is our generation going to make the same
443
999159
2001
我々の世代は 過去の世代が
16:41
mistake that a past generation did
444
1001160
2009
原爆で犯したのと同じ過ちを
16:43
with atomic weaponry, and not deal with
445
1003169
1998
繰り返し パンドラの箱が
16:45
the issues that surround it until
446
1005167
1995
開かれてしまうまで物事に対処しないという
16:47
Pandora's box is already opened up?
447
1007162
2007
失敗を犯すのでしょうか?
16:49
Now, I could be wrong on this, and
448
1009169
1998
これについて私は間違っているかもしれません
16:51
one Pentagon robot scientist told me
449
1011167
2004
あるペンタゴンの
16:53
that I was. He said, "There's no real
450
1013171
1994
ロボット科学者が言うには
16:55
social, ethical, moral issues when it comes
451
1015165
1995
「ロボットにとっては
16:57
to robots.
452
1017160
1998
間違った人間を繰り返し殺さない限り
16:59
That is," he added, "unless the machine
453
1019158
2001
社会的、倫理的、道徳的な問題などなく
17:01
kills the wrong people repeatedly.
454
1021159
3010
そうなったとしても
17:04
Then it's just a product recall issue."
455
1024169
2989
それは単なるリコール問題です」
17:07
And so the ending point for this is
456
1027158
3011
ここで最後に言いたい事は 我々は
17:10
that actually, we can turn to Hollywood.
457
1030169
5002
ハリウッドを参考にする事ができるということです
17:15
A few years ago, Hollywood gathered
458
1035171
1996
数年前 ハリウッドはあらゆる
17:17
all the top characters and created
459
1037167
3006
キャラクターを集め ハリウッドの史上の
17:20
a list of the top 100 heroes and
460
1040173
1997
トップ100のヒーローと
17:22
top 100 villains of all of Hollywood history,
461
1042170
2990
トップ100の悪役リストを作りました
17:25
the characters that represented the best
462
1045160
2006
最高と最悪の人間性を併せ持つ
17:27
and worst of humanity.
463
1047166
1992
1キャラクターだけが
17:29
Only one character made it onto both lists:
464
1049158
4015
両方のリストに入りました
17:33
The Terminator, a robot killing machine.
465
1053173
2996
ターミネーター 、ロボットの殺人マシンです
17:36
And so that points to the fact that
466
1056169
1988
これは我々の機械が
17:38
our machines can be used
467
1058157
2013
良い事にも悪い事にも
17:40
for both good and evil, but for me
468
1060170
1999
使われうる事を示していますが
17:42
it points to the fact that there's a duality
469
1062169
1996
私はこれを 人間が持つ二重性を
17:44
of humans as well.
470
1064165
3000
示しているとも思います
17:47
This week is a celebration
471
1067165
1998
今週は我々の
17:49
of our creativity. Our creativity
472
1069163
1999
創造性を祝う週です
17:51
has taken our species to the stars.
473
1071162
1998
創造性は私たちを星に送り
17:53
Our creativity has created works of arts
474
1073160
2007
芸術作品を創造し
17:55
and literature to express our love.
475
1075167
2996
我々の愛を文字で表現し
17:58
And now, we're using our creativity
476
1078163
1998
そして今 我々はその創造性を
18:00
in a certain direction, to build fantastic
477
1080161
1993
信じられない性能を持った素晴らしい機械を
18:02
machines with incredible capabilities,
478
1082169
2987
作るという方向に使っています
18:05
maybe even one day
479
1085156
2009
いつの日か 全く新しい人種に
18:07
an entirely new species.
480
1087165
2997
なるかも知れません
18:10
But one of the main reasons that we're
481
1090162
2005
しかしこのようなことは
18:12
doing that is because of our drive
482
1092167
1998
お互いを破壊するという原動力に
18:14
to destroy each other, and so the question
483
1094165
3000
突き動かされており
18:17
we all should ask:
484
1097165
1994
我々一人ひとりが自問するべきでしょう
18:19
is it our machines, or is it us
485
1099159
2000
戦争を起こそうとしているのは機械なのか
18:21
that's wired for war?
486
1101159
2007
あるいは我々なのか?
18:23
Thank you. (Applause)
487
1103166
2098
ありがとう (拍手)
New videos
このウェブサイトについて
このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。