Military robots and the future of war | P.W. Singer

233,615 views ・ 2009-04-03

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: Junhan Kim 검토: Young-ho Park
00:13
I thought I'd begin with a scene of war.
0
13160
2000
전장의 이야기로 제 강연을 시작하겠습니다.
00:15
There was little to warn of the danger ahead.
1
15160
2000
위험이 닥쳐 온다는 기미는 별로 없지요.
00:17
The Iraqi insurgent had placed the IED,
2
17160
2000
이라크 반체제파가 IED, 즉
00:19
an Improvised Explosive Device,
3
19160
3000
급조된 폭발물을
00:22
along the side of the road with great care.
4
22160
2000
길가 여기저기에 설치합니다.
00:24
By 2006, there were more than 2,500
5
24160
4000
2006년에는 이러한 공격이
00:28
of these attacks every single month,
6
28160
3000
매달 2500회를 헤아릴 정도로 발생해서
00:31
and they were the leading cause of
7
31160
2000
미군과 이라크 민간인이
00:33
casualties among American soldiers
8
33160
2000
죽고 다치게 되는
00:35
and Iraqi civilians.
9
35160
2000
가장 큰 원인이 되었지요.
00:37
The team that was hunting for this IED
10
37160
2000
IED를 탐색하고 해체하는 일을 하는 팀을
00:39
is called an EOD team—
11
39160
2000
EOD라고 하는데
00:41
Explosives Ordinance Disposal—and
12
41160
2000
폭발물 처리반의 약자입니다.
00:43
they're the pointy end of the spear in the
13
43160
2000
이들이 하는 일은 길가의 폭탄에 관련된
00:45
American effort to suppress these roadside bombs.
14
45160
3000
미군의 임무중 가장 위험한 것이죠
00:48
Each EOD team goes out on about
15
48160
2000
각 EOD 팀은 폭탄을 제거하기 위해
00:50
600 of these bomb calls every year,
16
50160
2000
매년 평균 600번,
00:52
defusing about two bombs a day.
17
52160
3000
즉, 하루에 약 2번 출동합니다.
00:55
Perhaps the best sign of how valuable they
18
55160
2000
그들이 이라크전에 얼마나 크게 기여하는가는
00:57
are to the war effort, is that
19
57160
2000
이라크 반란군이 각 EOD 대원의 목에
00:59
the Iraqi insurgents put a $50,000 bounty
20
59160
2000
5만불의 포상금을 걸었다는
01:01
on the head of a single EOD soldier.
21
61160
3000
사실만 봐도 알 수 있습니다.
01:04
Unfortunately, this particular call
22
64160
2000
불행히도 이 이야기는
01:06
would not end well.
23
66160
2000
비극적인 결과로 끝을 맺게 됩니다.
01:08
By the time the soldier advanced close
24
68160
2000
EOD 대원이 폭발물에 연결된 전선을
01:10
enough to see the telltale wires
25
70160
2000
볼 수 있을 정도로 폭발물에 접근했을 때
01:12
of the bomb, it exploded in a wave of flame.
26
72160
3000
그 폭발물이 화염을 토하며 폭발했지요.
01:15
Now, depending how close you are
27
75160
2000
거리와 폭약의 양에 따라
01:17
and how much explosive has been packed
28
77160
2000
IED가 폭발하면 사망하거나 부상을 당하는데
01:19
into that bomb, it can cause death
29
79160
2000
인명피해를 줄이려면
01:21
or injury. You have to be as far as
30
81160
2000
약 50 미터 정도는
01:23
50 yards away to escape that.
31
83160
2000
떨어져 있어야 합니다.
01:25
The blast is so strong it can even break
32
85160
2000
파편에 맞지 않더러도 충격파로
01:27
your limbs, even if you're not hit.
33
87160
2000
팔다리가 부러질 수 있지요.
01:29
That soldier had been on top of the bomb.
34
89160
2000
그 EOD 대원은 폭발물 위에 있었는데
01:31
And so when the rest of the team advanced
35
91160
3000
다른 대원들이 그에게 다가갔을때는
01:34
they found little left. And that night the unit's
36
94160
2000
남은 시신이 별로 없었지요.
01:36
commander did a sad duty, and he wrote
37
96160
2000
그날 그 팀의 지휘관은 미국에 있는 죽은 팀원의
01:38
a condolence letter back to the United
38
98160
2000
가족에게 위로의 편지를 쓰는
01:40
States, and he talked about how hard the
39
100160
2000
슬픈 임무를 이행하며
01:42
loss had been on his unit, about the fact
40
102160
2000
모든 팀원들이 그의 죽음을
01:44
that they had lost their bravest soldier,
41
104160
2000
받아들이기 힘들어 하고 있으며
01:46
a soldier who had saved their lives
42
106160
2000
그는 가장 용감한 군인이었고 그들의 생명을 여러번
01:48
many a time.
43
108160
2000
구해 줬다는 이야기를 적어내려갑니다.
01:50
And he apologized
44
110160
2000
그리고 그는 죽은 동료를 본국으로
01:52
for not being able to bring them home.
45
112160
2000
데리고 가지 못해서 미안하다는 말을 하지요.
01:54
But then he talked up the silver lining
46
114160
2000
그러나 그는 이런 비극적인 현실에도
01:56
that he took away from the loss.
47
116160
2000
한줄기의 희망의 빛이 있다고 말했지요.
01:58
"At least," as he wrote, "when a robot dies,
48
118160
2000
"만약 로봇이 죽는다고 해도
02:00
you don't have to write a letter
49
120160
2000
로봇의 어머니에게는
02:02
to its mother."
50
122160
2000
편지를 쓰지 않아도 됩니다" 라고 말합니다.
02:04
That scene sounds like science fiction,
51
124160
2000
이것은 공상과학소설 처럼 들리지만
02:06
but is battlefield reality already.
52
126160
2000
전장에서는 현실이지요.
02:08
The soldier in that case
53
128160
3000
여기서 말하는 EOD 대원은
02:11
was a 42-pound robot called a PackBot.
54
131160
3000
무게가 약 20 kg정도 되는 PackBot라는 로봇입니다.
02:14
The chief's letter went, not to some
55
134160
3000
EOD 팀장의 편지는 옛날 전쟁영화에서
02:17
farmhouse in Iowa like you see
56
137160
2000
나오는 것 처럼 아이오와에 있는
02:19
in the old war movies, but went to
57
139160
3000
어떤 농가로 배달되는게 아니고
02:22
the iRobot Company, which is
58
142160
2000
iRobot 이라는 회사로 배달되는데
02:24
named after the Asimov novel
59
144160
3000
그 회사의 이름은 아시모프 소설과
02:27
and the not-so-great Will Smith movie,
60
147160
2000
약간 썰렁한 윌 스미스 영화에 나오는
02:29
and... um... (Laughter)...
61
149160
2000
이름을 본따서 만든 ..(웃음)
02:31
if you remember that
62
151160
2000
그 소설과 영화에나오는 로봇들은
02:33
in that fictional world, robots started out
63
153160
2000
처음엔 허드레한 잡일만 하다가
02:35
carrying out mundane chores, and then
64
155160
2000
나중에는 생사를 결정하는
02:37
they started taking on life-and-death decisions.
65
157160
2000
결정을 내리게 되지요.
02:39
That's a reality we face today.
66
159160
2000
이것은 지금 우리가 당면한 현실입니다.
02:41
What we're going to do is actually just
67
161160
2000
저는 지금 여러분에게 사진을
02:43
flash a series of photos behind me that
68
163160
2000
몇장 보여드리겠는데 이들은
02:45
show you the reality of robots used in war
69
165160
3000
지금 우리가 이미 사용하고 있거나 또는
02:48
right now or already at the prototype stage.
70
168160
2000
프로토타입 단계에 있는 로봇들입니다.
02:50
It's just to give you a taste.
71
170160
3000
그냥 조금 보여드리겠습니다.
02:53
Another way of putting it is you're not
72
173160
2000
다시 말하자면 지금 여러분이 보실 것은
02:55
going to see anything that's powered
73
175160
2000
스타트랙의 벌칸 기술이나
02:57
by Vulcan technology, or teenage
74
177160
2000
철없는 10대의 아드레날린으로
02:59
wizard hormones or anything like that.
75
179160
2000
작동하는 기계들이 아닙니다.
03:01
This is all real. So why don't we
76
181160
2000
이건 다 실물들입니다.
03:03
go ahead and start those pictures.
77
183160
2000
자 이제 그런 사진을 몇장 보죠.
03:05
Something big is going on in war today,
78
185160
2000
지금 전장에서는 큰일이 벌어지고 있는데
03:07
and maybe even the history of humanity
79
187160
2000
어쩌면 인류 역사상 가장 신중한
03:09
itself. The U.S. military went into Iraq with
80
189160
3000
일인지도 모르죠. 이락전 초기에 미국
03:12
a handful of drones in the air.
81
192160
2000
무인정찰기는 불과 몇대 밖에
03:14
We now have 5,300.
82
194160
3000
없었는데 지금은 5300대가 되지요.
03:17
We went in with zero unmanned ground
83
197160
2000
전쟁 시작 당시에는 육상에서 쓰이는 무인 시스템이
03:19
systems. We now have 12,000.
84
199160
4000
하나도 없었는데 지금은 12,000개가 됩니다.
03:23
And the tech term "killer application"
85
203160
2000
'킬러 어플리케이션' 이라는 기술용어는
03:25
takes on new meaning in this space.
86
205160
3000
여기에서는 새로운 의미로 해석될 수 있지요.
03:28
And we need to remember that we're
87
208160
2000
그런데 현재의 무인 시스템들은
03:30
talking about the Model T Fords,
88
210160
2000
앞으로 곧 소개될 시스템에 비하면
03:32
the Wright Flyers, compared
89
212160
2000
포드 모델 T 자동차나
03:34
to what's coming soon.
90
214160
2000
라이트 형제의 비행기와 비슷합니다.
03:36
That's where we're at right now.
91
216160
2000
우리는 지금 그런 획기적인 시점에 있습니다.
03:38
One of the people that I recently met with
92
218160
2000
제가 최근에 만났던 공군 3성 장군 한명은
03:40
was an Air Force three-star general, and he
93
220160
2000
"우리는 곧 전장에서 수만대의
03:42
said basically, where we're headed very
94
222160
2000
로봇들을 사용할 것입니다"라고 말했지요.
03:44
soon is tens of thousands of robots
95
224160
2000
이것은 중요한 숫자인데 그 이유는
03:46
operating in our conflicts, and these
96
226160
2000
이 숫자가 현재 사용하고 있는
03:48
numbers matter, because we're not just
97
228160
2000
로봇과 동일한 기능의
03:50
talking about tens of thousands of today's
98
230160
2000
로봇을 말하는 것이 아니라
03:52
robots, but tens of thousands of these
99
232160
2000
현재 개발단계 또는
03:54
prototypes and tomorrow's robots, because
100
234160
2000
미래의 로봇을 말하는
03:56
of course, one of the things that's operating
101
236160
3000
것이기 때문입니다.
03:59
in technology is Moore's Law,
102
239160
2000
기술 발전은 무어의 법칙을 따르기 때문에
04:01
that you can pack in more and more
103
241160
2000
이 로봇들의 컴퓨팅 능력은 계속
04:03
computing power into those robots, and so
104
243160
2000
급속도로 늘어날 것입니다.
04:05
flash forward around 25 years,
105
245160
2000
그래서 앞으로 25년간 무어의 법칙이
04:07
if Moore's Law holds true,
106
247160
2000
계속 적용된다면, 25년 후 로봇들의
04:09
those robots will be close to a billion times
107
249160
3000
컴퓨팅 파워는 오늘의 로봇에 비해
04:12
more powerful in their computing than today.
108
252160
3000
10억배는 더 강력해질 것입니다.
04:15
And so what that means is the kind of
109
255160
2000
그리고 이것은 지금까지는 코미콘 같은
04:17
things that we used to only talk about at
110
257160
2000
공상과학 컨벤션에서나
04:19
science fiction conventions like Comic-Con
111
259160
2000
다루던 화재를 이제는 펜타곤 같은
04:21
have to be talked about in the halls
112
261160
2000
군사력의 중추에서 거론되어야
04:23
of power and places like the Pentagon.
113
263160
2000
한다는 것을 의미합니다.
04:25
A robots revolution is upon us.
114
265160
3000
로봇 혁명은 우리 눈앞에 다가왔습니다.
04:28
Now, I need to be clear here.
115
268160
2000
여기서 한가지 분명히 하고 싶은 것은
04:30
I'm not talking about a revolution where you
116
270160
2000
제가 지금 말하는 로봇 혁명은
04:32
have to worry about the Governor of
117
272160
2000
캘리포니아 주지사가 터미네이터같은 모습으로
04:34
California showing up at your door,
118
274160
2000
여러분의 집에 나타나는 것을
04:36
a la the Terminator. (Laughter)
119
276160
2000
걸 말하는게 아니죠. (웃음)
04:38
When historians look at this period, they're
120
278160
2000
장래의 역사가들은 지금 우리가 새로운 종류의
04:40
going to conclude that we're in a different
121
280160
2000
혁명을 겪고 있다고 말할 것입니다.
04:42
type of revolution: a revolution in war,
122
282160
2000
즉, 원자폭탄과 같은
04:44
like the invention of the atomic bomb.
123
284160
2000
전쟁수단의 혁명을 말하는 것이지요.
04:46
But it may be even bigger than that,
124
286160
2000
그러나 어쩌면 이 무기혁명의 영향은
04:48
because our unmanned systems don't just
125
288160
2000
그보다 더 클 수 있는데 그 이유는
04:50
affect the "how" of war-fighting,
126
290160
2000
무인 로봇 시스템들은 단순히 "어떻게"
04:52
they affect the "who" of fighting
127
292160
2000
싸우냐는 것 뿐만아니라 "누구"가 싸우냐는
04:54
at its most fundamental level.
128
294160
2000
근본적인 질문도 야기하기 때문입니다.
04:56
That is, every previous revolution in war, be
129
296160
2000
기관총이나, 원자폭탄같은 지금까지의
04:58
it the machine gun, be it the atomic bomb,
130
298160
2000
전쟁 도구의 혁신적인 발전은
05:00
was about a system that either shot faster,
131
300160
3000
얼마나 더 빨리 또는 더 멀리 총을 쏘거나 또는
05:03
went further, had a bigger boom.
132
303160
3000
더 큰 폭발을 일으킬 수 있는가를 의미했지요.
05:06
That's certainly the case with robotics, but
133
306160
3000
이점은 로봇도 마찬가지지요.
05:09
they also change the experience of the warrior
134
309160
3000
하지만, 로봇은 전쟁을 하는 사람들의 경험뿐만 아니라
05:12
and even the very identity of the warrior.
135
312160
3000
전쟁을 하는 사람들의 신분마저 바꿀 것입니다.
05:15
Another way of putting this is that
136
315160
3000
다시 말하자면, 지난 5000년간 인간은
05:18
mankind's 5,000-year-old monopoly
137
318160
2000
인류의 전쟁을 독점했었지만
05:20
on the fighting of war is breaking down
138
320160
3000
우리세대에서 그 바통을 로봇에게
05:23
in our very lifetime. I've spent
139
323160
2000
넘겨주게 됐다는 말입니다.
05:25
the last several years going around
140
325160
2000
저는 지난 몇년간 동안
05:27
meeting with all the players in this field,
141
327160
2000
로봇 과학자들에서부터
05:29
from the robot scientists to the science
142
329160
2000
그들에게 영감을 불어넣은 SF물 저자들,
05:31
fiction authors who inspired them to the
143
331160
2000
네바다 출신의 19세
05:33
19-year-old drone pilots who are fighting
144
333160
2000
무인공격기 조종사,
05:35
from Nevada, to the four-star generals
145
335160
2000
그들에게 명령을 내리는 4성장군,
05:37
who command them, to even the Iraqi
146
337160
2000
그리고 심지어는 이들 폭탄의 타겟이 되는
05:39
insurgents who they are targeting and what
147
339160
2000
이락 반군들에게도 무인로봇 시스템에 대한
05:41
they think about our systems, and
148
341160
2000
의견을 물었지요.
05:43
what I found interesting is not just
149
343160
2000
그들과의 대화를 통해 제가 흥미있게
05:45
their stories, but how their experiences
150
345160
2000
느꼈던 것은 그들의 이야기 뿐만아니라
05:47
point to these ripple effects that are going
151
347160
2000
그들의 경험이 앞으로 우리의 사회, 법률,
05:49
outwards in our society, in our law
152
349160
2000
도덕 등에 어떠한 영향을
05:51
and our ethics, etc. And so what I'd like
153
351160
2000
미치게 될것인가 였지요.
05:53
to do with my remaining time is basically
154
353160
2000
저는 남은 시간 동안 이러한 토픽중
05:55
flesh out a couple of these.
155
355160
2000
몇가지에 대해 말하고자 합니다.
05:57
So the first is that the future of war,
156
357160
2000
첫 번째로 제가 이야기하려는 것은
05:59
even a robotics one, is not going to be
157
359160
2000
미래의 전쟁은 미국만 로봇 전투 능력을 가진
06:01
purely an American one.
158
361160
2000
전쟁이 되지 않을 것이라는 점입니다.
06:03
The U.S. is currently ahead in military
159
363160
2000
미국은 현재 군용 로봇에서 선두적인
06:05
robotics right now, but we know that in
160
365160
2000
위치에 있습니다. 하지만 우리가 잘 알다시피
06:07
technology there's no such thing as
161
367160
2000
기술에 관한 한 먼저 시작했다고 해서
06:09
a permanent first move or advantage.
162
369160
3000
항상 우위를 차지한다는 법은 없지요.
06:12
In a quick show of hands, how many
163
372160
2000
제가 간단한 질문을 드리죠.
06:14
people in this room still use
164
374160
2000
지금 여러분 중에서 아직도
06:16
Wang Computers? (Laughter)
165
376160
2000
Wang 컴퓨터를 사용하는 분이 계신가요? (웃음)
06:18
It's the same thing in war. The British and
166
378160
2000
전쟁도 마찬가지입니다.
06:20
the French invented the tank.
167
380160
3000
탱크는 영국과 프랑스가 발명했지요.
06:23
The Germans figured out how
168
383160
2000
그러나 실지로 쓸만한 탱크를
06:25
to use it right, and so what we have to
169
385160
2000
만들어 낸 나라는 독일이었지요.
06:27
think about for the U.S. is that we are
170
387160
2000
그래서 지금은 미국이 앞서 있지만
06:29
ahead right now, but you have
171
389160
2000
지금 현재 43개의 다른 나라들이
06:31
43 other countries out there
172
391160
2000
군용 로봇들을 개발하고 있는데
06:33
working on military robotics, and they
173
393160
2000
그런 나라들에는 러시아, 중국,
06:35
include all the interesting countries like
174
395160
2000
파키스탄 같은 국가들이 포함된다는 것을
06:37
Russia, China, Pakistan, Iran.
175
397160
3000
명심해야 한다는 것입니다.
06:40
And this raises a bigger worry for me.
176
400160
3000
이것은 제게 큰 걱정을 안겨줍니다.
06:43
How do we move forward in this revolution
177
403160
2000
미국의 제조업, 과학 그리고
06:45
given the state of our manufacturing
178
405160
2000
교육 실정을 생각해 볼때 우리는
06:47
and the state of our science and
179
407160
2000
앞으로 군사로봇 혁명을
06:49
mathematics training in our schools?
180
409160
2000
어떻게 맞이해야 할까요?
06:51
Or another way of thinking about this is,
181
411160
2000
이 문제를 다른 측면에서 보자면 우리 군인들의
06:53
what does it mean to go to war increasingly
182
413160
2000
하드웨어는 중국에서 만들어지고
06:55
with soldiers whose hardware is made
183
415160
3000
소프트웨어는 인도에서 개발되는 있는 실정에서
06:58
in China and software is written in India?
184
418160
5000
우리가 전쟁에 임한다는 것은 무엇을 뜻할까요?
07:03
But just as software has gone open-source,
185
423160
3000
컴퓨터 소프트웨어가 Open-source 방식으로 변했듯이
07:06
so has warfare.
186
426160
2000
전쟁 장비도 마찬가지로 변했지요.
07:08
Unlike an aircraft carrier or an atomic bomb,
187
428160
3000
항공모함이나 원자폭탄과는 달리 군사로봇의
07:11
you don't need a massive manufacturing
188
431160
2000
제조에는 거대한 생산 시설이 필요하지 않습니다.
07:13
system to build robotics. A lot of it is
189
433160
2000
부품의 많은 수는 시판되는 제품을 쓸 수 있고
07:15
off the shelf. A lot of it's even do-it-yourself.
190
435160
2000
일부는 자가제작도 가능합니다.
07:17
One of those things you just saw flashed
191
437160
2000
지금 방금 보신 사진중의 하나에는
07:19
before you was a raven drone, the handheld
192
439160
2000
Raven이라는 무인비행체가 있는데 이것은
07:21
tossed one. For about a thousand dollars,
193
441160
2000
손으로 던져서 날릴 수 있고, 약 1000달러의 경비로
07:23
you can build one yourself, equivalent to
194
443160
2000
이라크에서 군인들이 사용하는 것과
07:25
what the soldiers use in Iraq.
195
445160
2000
비슷한 것을 자가제작 할 수 있지요.
07:27
That raises another wrinkle when it comes
196
447160
2000
이러한 사실은 전쟁에서 새로운 문제점을 야기하지요.
07:29
to war and conflict. Good guys might play
197
449160
2000
즉, 청군만 이런 값싼 장비를
07:31
around and work on these as hobby kits,
198
451160
2000
사용할 수 있는게 아니고
07:33
but so might bad guys.
199
453160
2000
홍군도 그럴 수 있으니까요.
07:35
This cross between robotics and things like
200
455160
2000
로봇과 테러리즘 같은 것을 합치면
07:37
terrorism is going to be fascinating
201
457160
2000
그 결과는 매우 흥미있을 수도 있고
07:39
and even disturbing,
202
459160
2000
매우 염려될 수도 있습니다.
07:41
and we've already seen it start.
203
461160
2000
우리는 이미 이런 양면적인 경우를 경험했지요.
07:43
During the war between Israel, a state,
204
463160
2000
이스라엘 국가와 비국가 단체인
07:45
and Hezbollah, a non-state actor,
205
465160
3000
헤즈볼라간에 전쟁이 벌어졌을때 헤즈볼라가
07:48
the non-state actor flew
206
468160
2000
이스라엘을 상대로 네가지 종류의
07:50
four different drones against Israel.
207
470160
2000
무인비행기를 날려보냈지요.
07:52
There's already a jihadi website
208
472160
2000
이미 집에 앉아서 컴퓨터로
07:54
that you can go on and remotely
209
474160
2000
이락에 있는 급조폭발장치를
07:56
detonate an IED in Iraq while sitting
210
476160
2000
폭발시킬 수 있게 하는 지하드의
07:58
at your home computer.
211
478160
2000
웹사이트가 이미 존재합니다.
08:00
And so I think what we're going to see is
212
480160
2000
저는 앞으로 다음의 두가지가
08:02
two trends take place with this.
213
482160
2000
현실화 될 것이라고 생각합니다.
08:04
First is, you're going to reinforce the power
214
484160
2000
그 첫번째는, 정부에 대항할 수 있는
08:06
of individuals against governments,
215
486160
4000
개개인의 힘이 증대될 것이고
08:10
but then the second is that
216
490160
2000
그 두번째는
08:12
we are going to see an expansion
217
492160
2000
테러리즘의 무대가
08:14
in the realm of terrorism.
218
494160
2000
확장될 것이라는 것입니다.
08:16
The future of it may be a cross between
219
496160
2000
앞으로는 아마 알카에다 2세와
08:18
al Qaeda 2.0 and the
220
498160
2000
차세대 유나바머 엘리트 테러범의
08:20
next generation of the Unabomber.
221
500160
2000
잡종같은 것이 나올 가능성이 많이 있습니다.
08:22
And another way of thinking about this
222
502160
2000
달리 말하자면, 로봇에게는
08:24
is the fact that, remember, you don't have
223
504160
2000
자살폭탄 테러범으로 죽으면
08:26
to convince a robot that they're gonna
224
506160
2000
72명의 처녀를
08:28
receive 72 virgins after they die
225
508160
3000
선물받게 된다고 설득시킬
08:31
to convince them to blow themselves up.
226
511160
3000
필요가 없다는 거죠.
08:34
But the ripple effects of this are going to go
227
514160
2000
이러한 테러의 여파는 우리의 정치에 영향을
08:36
out into our politics. One of the people that
228
516160
2000
주게 될 것입니다. 저는 전 국방부 차관보인
08:38
I met with was a former Assistant Secretary of
229
518160
2000
로널드 레이건과 대화를 나눈적이 있었는데
08:40
Defense for Ronald Reagan, and he put it
230
520160
2000
그는 다음과 같이 말했지요:
08:42
this way: "I like these systems because
231
522160
2000
"저는 군사로봇을 좋아합니다. 미국인의 생명을
08:44
they save American lives, but I worry about
232
524160
2000
보호해주니까요. 하지만 저는 군사비용에 대한
08:46
more marketization of wars,
233
526160
2000
토론을 저지하기 위해 전쟁의 시장화 또는
08:48
more shock-and-awe talk,
234
528160
3000
'충격과 공포' 이야기를 하는 것에
08:51
to defray discussion of the costs.
235
531160
2000
대해 염려합니다.
08:53
People are more likely to support the use
236
533160
2000
사람들은 비용이 들지 않는다고 생각하면
08:55
of force if they view it as costless."
237
535160
3000
무력사용을 지지할 가능성이 더 많지요."
08:58
Robots for me take certain trends
238
538160
2000
제 생각에는 로봇은 우리의 정치체에
09:00
that are already in play in our body politic,
239
540160
3000
이미 존재하는 모종의 추세를 따르고 있는데
09:03
and maybe take them to
240
543160
2000
로봇은 결국에는 그런 움직임의 논리적인
09:05
their logical ending point.
241
545160
2000
결론에 도달하게 될지 모릅니다.
09:07
We don't have a draft. We don't
242
547160
2000
우리에겐 징병제도가 없고
09:09
have declarations of war anymore.
243
549160
3000
우리는 더이상 선전포고도 안하지요.
09:12
We don't buy war bonds anymore.
244
552160
2000
그리고 전쟁채권도 더이상 사지 않지요.
09:14
And now we have the fact that we're
245
554160
2000
그리고 이제는 점점 군인 대신에
09:16
converting more and more of our American
246
556160
2000
로봇을 위험한 사지로
09:18
soldiers that we would send into harm's
247
558160
2000
보내고 있으며,
09:20
way into machines, and so we may take
248
560160
3000
이미 툭하면 전쟁을 시작하는 사람들이
09:23
those already lowering bars to war
249
563160
3000
더 쉽게 전쟁을 시작하게
09:26
and drop them to the ground.
250
566160
3000
만들지도 모릅니다.
09:29
But the future of war is also going to be
251
569160
2000
또한, 미래의 전쟁은
09:31
a YouTube war.
252
571160
2000
Youtube 전쟁이 될 것입니다.
09:33
That is, our new technologies don't merely
253
573160
2000
우리의 신기술은 전쟁의 위험으로 부터
09:35
remove humans from risk.
254
575160
2000
우리를 보호해 줄 뿐만 아니라
09:37
They also record everything that they see.
255
577160
3000
모든 전쟁 상황을 기록할 것입니다.
09:40
So they don't just delink the public:
256
580160
3000
이들은 대중을 전쟁으로 부터 격리시킬 뿐만아니라,
09:43
they reshape its relationship with war.
257
583160
3000
대중과 전쟁과의 관계를 재설정 할 것입니다.
09:46
There's already several thousand
258
586160
2000
유튜브에는 이락의 전투 장면을
09:48
video clips of combat footage from Iraq
259
588160
2000
보여주는 수천개의 동영상들이
09:50
on YouTube right now,
260
590160
2000
이미 올라와있지요.
09:52
most of it gathered by drones.
261
592160
2000
대부분은 무인비행기로 찍은 것이죠.
09:54
Now, this could be a good thing.
262
594160
2000
이것은 좋은 일일지도 모릅니다.
09:56
It could be building connections between
263
596160
2000
전과는 달리,
09:58
the home front and the war front
264
598160
2000
전장터의 상황을 우리가
10:00
as never before.
265
600160
2000
직접 볼 수 있을 테니까요.
10:02
But remember, this is taking place
266
602160
2000
그러나 우리는 이런 일들이 우리가 살고있는
10:04
in our strange, weird world, and so
267
604160
3000
괘상한 세상에서 실지로 일어나고 있다는
10:07
inevitably the ability to download these
268
607160
2000
것을 명심해야 합니다.
10:09
video clips to, you know, your iPod
269
609160
2000
사람들은 이러한 동영상을
10:11
or your Zune gives you
270
611160
3000
IPOD이나 Zune로 다운해서 전쟁을
10:14
the ability to turn it into entertainment.
271
614160
4000
오락화 할지도 모릅니다.
10:18
Soldiers have a name for these clips.
272
618160
2000
군인들은 이런 동영상들을
10:20
They call it war porn.
273
620160
2000
전쟁 포르노라고 부르지요.
10:22
The typical one that I was sent was
274
622160
2000
이런 전쟁 포르노의 전형적인 예의 하나는
10:24
an email that had an attachment of
275
624160
2000
제가 이메일의 첨부파일로 받은
10:26
video of a Predator strike taking out
276
626160
2000
비데오인데 그 비디오에는 프레데터라는
10:28
an enemy site. Missile hits,
277
628160
2000
무인공격기가 미사일로 적군기지를 공격하여
10:30
bodies burst into the air with the explosion.
278
630160
3000
적군의 시체가 박살나는 장면이 있었습니다.
10:33
It was set to music.
279
633160
2000
배경음악도 있었는데
10:35
It was set to the pop song
280
635160
2000
그 음악은 Sugar Ray가 부른
10:37
"I Just Want To Fly" by Sugar Ray.
281
637160
3000
"I Just Want to Fly"라는 팝송이였지요.
10:40
This ability to watch more
282
640160
3000
이와같이 전쟁 이미지는 더 많이 보지만
10:43
but experience less creates a wrinkle
283
643160
3000
실제 전쟁 경험이 줄어들면 대중이 전쟁을
10:46
in the public's relationship with war.
284
646160
2000
대하는 태도에 문제가 생기게 되지요.
10:48
I think about this with a sports parallel.
285
648160
2000
이 문제를 스포츠 경기에
10:50
It's like the difference between
286
650160
3000
비유하자면
10:53
watching an NBA game, a professional
287
653160
3000
이것은 마치 TV 화면에 작게 축소돼서
10:56
basketball game on TV, where the athletes
288
656160
3000
나오는 프로농구 NBA 선수들만 보다가
10:59
are tiny figures on the screen, and
289
659160
2000
하루는 경기장에서 그들을 직접 눈으로 보고
11:01
being at that basketball game in person
290
661160
3000
과연 7feet(213cm)의 사람이 어떻게
11:04
and realizing what someone seven feet
291
664160
2000
생겼는지 처음으로 깨닫는 것과
11:06
really does look like.
292
666160
2000
마찬가지 이지요.
11:08
But we have to remember,
293
668160
2000
그러나 우리는 이것이 단순히
11:10
these are just the clips.
294
670160
2000
무비클립이라는 것을 잊지 않아야 합니다.
11:12
These are just the ESPN SportsCenter
295
672160
2000
우리는 전쟁 동영상은 ESPN 채널의 농구선수
11:14
version of the game. They lose the context.
296
674160
2000
이미지에 해당한다는 것을 항상 명심해야 합니다.
11:16
They lose the strategy.
297
676160
2000
그렇지 않으면 현실성을 잃게되지요.
11:18
They lose the humanity. War just
298
678160
2000
전쟁 동영상은 인간성을 망각시키고 전쟁을
11:20
becomes slam dunks and smart bombs.
299
680160
3000
단순히 슬램덩크나 정밀유도폭탄으로 단순화 시킬 수 있습니다.
11:23
Now the irony of all this is that
300
683160
3000
여기서 아이러니한 것은,
11:26
while the future of war may involve
301
686160
2000
미래의 전쟁에서 군사로봇에 대한
11:28
more and more machines,
302
688160
2000
의존도가 점점 더 높질지는 모르지만
11:30
it's our human psychology that's driving
303
690160
2000
긍국적으로는 그런 변화의 원동력은
11:32
all of this, it's our human failings
304
692160
2000
인간의 심리이며 우리의 잘못은
11:34
that are leading to these wars.
305
694160
2000
전쟁으로 이어진다는 것입니다.
11:36
So one example of this that has
306
696160
2000
인간의 심리와 결점이 우리가
11:38
big resonance in the policy realm is
307
698160
2000
과격파와 벌이고 있는 사상전쟁에
11:40
how this plays out on our very real
308
700160
2000
어떤 영향을 미치는가는 이들이
11:42
war of ideas that we're fighting
309
702160
2000
우리의 정책에 미치는 영향을
11:44
against radical groups.
310
704160
2000
보면 알 수 있습니다.
11:46
What is the message that we think we are
311
706160
2000
우리는 군사로봇을 통해 어떤 메시지를
11:48
sending with these machines versus what
312
708160
2000
그들에게 보내고 있다고 생각하며, 한편
11:50
is being received in terms of the message.
313
710160
3000
그들은 실제로 메시지를 받고 있을까요?
11:53
So one of the people that I met was
314
713160
2000
제가 만난 사람 중에 하나는
11:55
a senior Bush Administration official,
315
715160
2000
부시 정부의 관료이었는데
11:57
who had this to say about
316
717160
2000
그는 무인 전쟁에 대해서
11:59
our unmanning of war:
317
719160
2000
다음과 같은 이야기를 했지요:
12:01
"It plays to our strength. The thing that
318
721160
2000
"우리는 우리의 강점을 활용하죠.
12:03
scares people is our technology."
319
723160
2000
"우리의 적은 우리의 기술을 두려워합니다"
12:05
But when you go out and meet with people,
320
725160
2000
하지만 예를들면 레바논 같은 곳에 있는
12:07
for example in Lebanon, it's a very
321
727160
2000
사람들을 만나보면 아주 다른 이야기를
12:09
different story. One of the people
322
729160
2000
들을 수 있지요. 저는 레바논에서
12:11
I met with there was a news editor, and
323
731160
2000
뉴스 편집장 한명을 만났는데
12:13
we're talking as a drone is flying above him,
324
733160
2000
마침 무인정찰기 한대가 날라갔지요.
12:15
and this is what he had to say.
325
735160
2002
그는 그때 이렇게 말했지요:
12:17
"This is just another sign of the coldhearted
326
737162
1998
"이건 차고 잔인한 이스라엘인과 미국인들의
12:19
cruel Israelis and Americans,
327
739160
3006
또 다른 모습의 하나의입니다.
12:22
who are cowards because
328
742166
1992
그들은 겁쟁이기 때문에
12:24
they send out machines to fight us.
329
744158
2006
사람답게 싸우는 것을
12:26
They don't want to fight us like real men,
330
746164
1992
원하지 않을 뿐만 아니라
12:28
but they're afraid to fight,
331
748156
2007
싸우기를 두려워합니다.
12:30
so we just have to kill a few of their soldiers
332
750163
1991
그렇기 때문에 그들을 몇명만 죽이면
12:32
to defeat them."
333
752154
3005
우리는 이깁니다".
12:35
The future of war also is featuring
334
755159
2007
미래의 전쟁은 새로운 종류의
12:37
a new type of warrior,
335
757166
1977
군인이 싸울 것입니다.
12:39
and it's actually redefining the experience
336
759159
3006
그리고 그것은 전쟁이라는 것을
12:42
of going to war.
337
762165
1998
새로 정의하게 될것입니다.
12:44
You can call this a cubicle warrior.
338
764163
1976
우리는 이들을 "사무실 용사"라고 부를 수 있겠지요.
12:46
This is what one Predator drone pilot
339
766154
2007
미국의 네바다 기지에서 이락에 있는
12:48
described of his experience fighting
340
768161
2007
프레데터 무인정찰기를 조종하는
12:50
in the Iraq War while never leaving Nevada.
341
770168
2989
파일럿 한명은 다음과 같이 말했지요.
12:53
"You're going to war for 12 hours,
342
773157
2005
"저는 12시간동안 전쟁터에서
12:55
shooting weapons at targets,
343
775162
1991
적군에 총을 쏘고 적군에 쏘는
12:57
directing kills on enemy combatants,
344
777168
2991
로켓을 조절하지요. 그리고는
13:00
and then you get in the car
345
780159
2006
퇴근을 하고 차를 타고 귀가하지요.
13:02
and you drive home and within 20 minutes,
346
782165
1982
집에 도착한 20분 이내에
13:04
you're sitting at the dinner table
347
784163
1991
저녁 식사 테이블에 앉아서
13:06
talking to your kids about their homework."
348
786169
1993
아이들과 숙제 이야기를 하지요"
13:08
Now, the psychological balancing
349
788162
1991
매일 이렇게 극과 극을 왔다갔다 하는
13:10
of those experiences is incredibly tough,
350
790168
1993
생활을 하는것은 심리적으로 매우 힘듣지요.
13:12
and in fact those drone pilots have
351
792161
2992
무인정찰기 조종사들의
13:15
higher rates of PTSD than many
352
795153
2008
외상 후 스트레스 장애(PTSD) 발병확률은
13:17
of the units physically in Iraq.
353
797161
3005
이락에서 직접 싸우는 군인보다 더 높지요.
13:20
But some have worries that this
354
800166
1992
또한, 일부 사람들은 이러한 신체적 분리는
13:22
disconnection will lead to something else,
355
802158
1994
다른 영향을 미칠 수도 있다고 생각하는데,
13:24
that it might make the contemplation of war
356
804167
1998
예를들면 전쟁범죄가 더 쉽게 발생할 수
13:26
crimes a lot easier when you have
357
806165
2005
있지 않을가 하는 걱정도 있습니다.
13:28
this distance. "It's like a video game,"
358
808170
1999
한 젊은 조종사는 멀리서
13:30
is what one young pilot described to me
359
810169
1999
적군을 죽이는 것이
13:32
of taking out enemy troops from afar.
360
812168
1960
"완전히 비디오 게임 같다" 고 말했지요.
13:34
As anyone who's played Grand Theft Auto
361
814158
2995
GTA라는 비디오 게임을 해본 사람은
13:37
knows, we do things in the video world
362
817168
3000
우리는 비디오 게임에서 현실에서 못하는
13:40
that we wouldn't do face to face.
363
820168
2996
행동을 한다는 것을 잘 알지요.
13:43
So much of what you're hearing from me
364
823164
1998
그래서 제가 여러분께 드리는 말의 욧점은
13:45
is that there's another side
365
825162
1993
전쟁기술의 혁명에는 다른 측면이
13:47
to technologic revolutions,
366
827155
2008
있는데 그것은 기술혁명이
13:49
and that it's shaping our present
367
829163
1994
우리의 현재와 어쩌면 미래 전쟁의 양상을
13:51
and maybe will shape our future of war.
368
831157
3001
정해줄지 모른다는 것입니다.
13:54
Moore's Law is operative,
369
834158
2001
무어의 법칙도 작용하지만
13:56
but so's Murphy's Law.
370
836159
1998
머피의 법칙도 역시 작용하지요.
13:58
The fog of war isn't being lifted.
371
838157
2005
전쟁의 불확실성은 아직도 남아있지요.
14:00
The enemy has a vote.
372
840162
2010
적도 투표권을 가지고 있지요.
14:02
We're gaining incredible new capabilities,
373
842172
1989
우리의 엄청난 무인전투능력은
14:04
but we're also seeing and experiencing
374
844161
2006
계속 확대되고 있지만 우리는 또한 새로운
14:06
new human dilemmas. Now,
375
846167
2000
인간 딜레마들을 보고 경험하고 있습니다.
14:08
sometimes these are just "oops" moments,
376
848167
1999
어느 로봇회사의 대표자 한명이
14:10
which is what the head of a robotics
377
850166
1992
그들이 말하는 소위 "어이쿠" 순간에 대해
14:12
company described it, you just have
378
852158
2011
저에게 설명해 주었지요.
14:14
"oops" moments. Well, what are
379
854169
2000
"그건 어이쿠 순간이었어"라고 말하죠.
14:16
"oops" moments with robots in war?
380
856169
1996
로봇전쟁의 '어이쿠' 순간은 어떤것일까요?
14:18
Well, sometimes they're funny. Sometimes,
381
858165
2001
어떤때는 우수운 일이 생겼을때 그런말을 하지요.
14:20
they're like that scene from the
382
860166
2002
예를들어 에디머피의 영화
14:22
Eddie Murphy movie "Best Defense,"
383
862168
2001
슈퍼탱크작전에 나오는 상황이
14:24
playing out in reality, where they tested out
384
864169
2001
실지로 벌어질 때도
14:26
a machine gun-armed robot, and during
385
866170
1988
그런 감탄사를 사용하지요.
14:28
the demonstration it started spinning
386
868158
2001
즉, 기관총이 장착된 로봇을 시위하다가
14:30
in a circle and pointed its machine gun
387
870159
3009
잘못해서 신장비를 리뷰하기 위해 모인
14:33
at the reviewing stand of VIPs.
388
873168
2995
VIP에게 기관총을 겨누는 장면이지요.
14:36
Fortunately the weapon wasn't loaded
389
876163
1993
다행히도 장전된 상태가 아니었기 때문에
14:38
and no one was hurt, but other times
390
878156
2010
피해자는 없었지만요.
14:40
"oops" moments are tragic,
391
880166
1992
그러나 어이쿠 순간이 비극으로
14:42
such as last year in South Africa, where
392
882158
2002
치닫는 경우도 있는데, 그 예로 작년에
14:44
an anti-aircraft cannon had a
393
884160
2999
남아프리카공화국에서"소프트웨어 결함"으로
14:47
"software glitch," and actually did turn on
394
887159
2999
대공캐논이 발포되며 9명의 남아공 군인을
14:50
and fired, and nine soldiers were killed.
395
890158
3004
죽인 사고가 발생했었지요.
14:53
We have new wrinkles in the laws of war
396
893162
2997
우리는 현재 전쟁법규와 행동책임이라는
14:56
and accountability. What do we do
397
896159
1997
새로운 문제를 안고 있습니다. 예를들면
14:58
with things like unmanned slaughter?
398
898156
2010
무인살육은 어떻게 처리해야 할까요?
15:00
What is unmanned slaughter?
399
900166
1998
무인살육이란 무엇일까요?
15:02
We've already had three instances of
400
902164
2000
우리는 이미 프레데터 무인정찰기로
15:04
Predator drone strikes where we thought
401
904164
2000
빈라덴의 거처라고 생각되는 곳을
15:06
we got bin Laden, and it turned out
402
906164
1994
3번이나 폭격했는데 나중에
15:08
not to be the case.
403
908158
2002
알고 보니 아니였어요.
15:10
And this is where we're at right now.
404
910160
2008
이것이 무인전투장비의 현황입니다.
15:12
This is not even talking about armed,
405
912168
2000
저는 지금 여기서 자체적인 판단으로
15:14
autonomous systems
406
914168
1989
화력을 사용하는 자동 무장시스템을
15:16
with full authority to use force.
407
916157
2013
말하는 것도 아닙니다.
15:18
And do not believe that that isn't coming.
408
918170
1994
그러나 그런 날이 오지 않는다고는 생각하지
15:20
During my research I came across
409
920164
2007
마십시오. 저는 제연구를 통해 펜타곤이
15:22
four different Pentagon projects
410
922171
1985
현재 4개의 무인무장체제 프로젝트를
15:24
on different aspects of that.
411
924156
2012
추진하고 있다는 것을 알고 있습니다.
15:26
And so you have this question:
412
926168
2002
여러분은 무인시스템의 경우 전범 이슈를
15:28
what does this lead to issues like
413
928170
1993
어떻게 해결할 것인지 궁금해 하실지 모릅니다.
15:30
war crimes? Robots are emotionless, so
414
930163
1992
로봇들은 감정이 없기 때문에
15:32
they don't get upset if their buddy is killed.
415
932155
3012
그들의 동료가 죽어도 화내지 않습니다.
15:35
They don't commit crimes of rage
416
935167
1994
그들은 분노나 복수를 이유로
15:37
and revenge.
417
937161
2007
전범을 범하지 않습니다.
15:39
But robots are emotionless.
418
939168
2997
하지만 로봇들은 감정이 없기 때문에
15:42
They see an 80-year-old grandmother
419
942165
1999
휠체어에 있는 80세의 할머니나
15:44
in a wheelchair the same way they see
420
944164
2000
T80 탱크를 구별하지 않지요.
15:46
a T-80 tank: they're both
421
946164
3002
그들에게는 둘다 다
15:49
just a series of zeroes and ones.
422
949166
2993
0과 1의 데이터로 보이니까요.
15:52
And so we have this question to figure out:
423
952159
3003
그래서 우리는 정부로 부터 무료 의료치료를
15:55
How do we catch up our 20th century
424
955162
2003
받을수 있을 만큼 노후화된 현재의
15:57
laws of war, that are so old right now
425
957165
1989
20세기 전쟁법규를 21세기의
15:59
that they could qualify for Medicare,
426
959154
3008
전쟁기술에 맞도록 개정하는 방안을
16:02
to these 21st century technologies?
427
962162
3008
찾아내야 합니다.
16:05
And so, in conclusion, I've talked about
428
965170
2987
마지막으로, 제가 지금까지 미래의 전쟁에 대해
16:08
what seems the future of war,
429
968157
3011
이야기한것처럼 들릴지 모르지만 제가 사용한 모든 예는
16:11
but notice that I've only used
430
971168
1990
현재 사용되는 무인무기체계이며 또한
16:13
real world examples and you've only seen
431
973158
2012
여러분이 보신 사진과 비디오도
16:15
real world pictures and videos.
432
975170
2001
기존 시스템이라는 점을 기억하시기 바랍니다.
16:17
And so this sets a great challenge for
433
977171
2000
전쟁 로봇에 대한 걱정은 룸바같은
16:19
all of us that we have to worry about well
434
979171
1986
청소 로봇이 시람을 빨아 먹으면
16:21
before you have to worry about your
435
981157
2009
어떻게 하냐는 걱정보다 훨씬 더
16:23
Roomba sucking the life away from you.
436
983166
2001
현실성이 있는 걱정입니다.
16:25
Are we going to let the fact that what's
437
985167
1999
지금 현재 전쟁에서 실지로 사용되는
16:27
unveiling itself right now in war
438
987166
3000
전쟁로봇이 너무나 공상과학 소설같이
16:30
sounds like science fiction and therefore
439
990166
2991
생각돼서 사람들이 믿지않는다면
16:33
keeps us in denial?
440
993157
2005
그대로 나둬야 할까요?
16:35
Are we going to face the reality
441
995162
2004
우리는 21세기의 현실을
16:37
of 21st century war?
442
997166
1993
인정할 것인가요?
16:39
Is our generation going to make the same
443
999159
2001
전세대가 원자폭탄에 대해 아무런 조치를
16:41
mistake that a past generation did
444
1001160
2009
취하지 않았던 것과 같은 실수를
16:43
with atomic weaponry, and not deal with
445
1003169
1998
우리들이 되풀이 해서 이런 문제들이
16:45
the issues that surround it until
446
1005167
1995
판도라 상자에서 나올때까지
16:47
Pandora's box is already opened up?
447
1007162
2007
이런 이슈들을 다루지 않아도 좋을까요?
16:49
Now, I could be wrong on this, and
448
1009169
1998
그런데, 제가 틀렸을지도 몰르죠 -
16:51
one Pentagon robot scientist told me
449
1011167
2004
펜타곤의 한 로봇 과학자가 제 생각이
16:53
that I was. He said, "There's no real
450
1013171
1994
틀렸다고 말했으니까요. 그는 "로봇에
16:55
social, ethical, moral issues when it comes
451
1015165
1995
관한한 실질적으로 사회적 또는 도덕적인
16:57
to robots.
452
1017160
1998
이슈가 없다" 고 말했지요.
16:59
That is," he added, "unless the machine
453
1019158
2001
그는 "로봇들이 엉뚱한 사람들을
17:01
kills the wrong people repeatedly.
454
1021159
3010
계속 죽이면 제품 리콜을 하면 돼요"
17:04
Then it's just a product recall issue."
455
1024169
2989
라고 덧붙여 말했지요.
17:07
And so the ending point for this is
456
1027158
3011
제 이야기의 결론은 --
17:10
that actually, we can turn to Hollywood.
457
1030169
5002
아, 헐리우드의 예를 들면 되겠군요.
17:15
A few years ago, Hollywood gathered
458
1035171
1996
몇년전에 할리우드에서
17:17
all the top characters and created
459
1037167
3006
영화 역사상 가장 인기가 많았던
17:20
a list of the top 100 heroes and
460
1040173
1997
100대 영웅과 100대 악당들의
17:22
top 100 villains of all of Hollywood history,
461
1042170
2990
리스트를 만들었는데 이 캐릭터들은
17:25
the characters that represented the best
462
1045160
2006
인간성의 최선와 최악을 상징하는
17:27
and worst of humanity.
463
1047166
1992
캐릭터들이었지요.
17:29
Only one character made it onto both lists:
464
1049158
4015
그런데 양쪽 리스트에 올라간 캐릭터는 단 하나밖에 없었는데
17:33
The Terminator, a robot killing machine.
465
1053173
2996
그건 바로 로봇을 죽이는 터미네이터였습니다.
17:36
And so that points to the fact that
466
1056169
1988
이것은 로봇은 좋은 목적으로
17:38
our machines can be used
467
1058157
2013
사용될 수도 있고 나쁜 목적으로도
17:40
for both good and evil, but for me
468
1060170
1999
사용될 수 있다는 것을 제시하지요.
17:42
it points to the fact that there's a duality
469
1062169
1996
저는 이것은 인간의 양면성을
17:44
of humans as well.
470
1064165
3000
보여주기도 한다고 생각합니다.
17:47
This week is a celebration
471
1067165
1998
이번 주는 우리의 창의성을
17:49
of our creativity. Our creativity
472
1069163
1999
축하하는 주이며 우리의 창의력은
17:51
has taken our species to the stars.
473
1071162
1998
인류를 별까지 닿게했습니다.
17:53
Our creativity has created works of arts
474
1073160
2007
우리의 창의력은 예술품과 문학작품을
17:55
and literature to express our love.
475
1075167
2996
통해 우리의 사랑을 표현할 수 있게 했으며
17:58
And now, we're using our creativity
476
1078163
1998
우리는 이제 우리의 창의력으로
18:00
in a certain direction, to build fantastic
477
1080161
1993
엄청난 기능을 가진 놀라운
18:02
machines with incredible capabilities,
478
1082169
2987
기계들을 만들고 있으며
18:05
maybe even one day
479
1085156
2009
언젠가는 완전히 새로운 종을
18:07
an entirely new species.
480
1087165
2997
만들게 될지도 모릅니다.
18:10
But one of the main reasons that we're
481
1090162
2005
우리가 이런일을 하는 주된 이유의 하나는
18:12
doing that is because of our drive
482
1092167
1998
우리에게 서로를 파괴시키려는 욕구가 있기
18:14
to destroy each other, and so the question
483
1094165
3000
때문인데 그렇기 때문에 우리는 전쟁하는 회로를
18:17
we all should ask:
484
1097165
1994
가진 것이 우리의 로봇인지
18:19
is it our machines, or is it us
485
1099159
2000
아니면 우리 자신인지를
18:21
that's wired for war?
486
1101159
2007
질문해야 합니다.
18:23
Thank you. (Applause)
487
1103166
2098
감사합니다. (박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7