Governments don't understand cyber warfare. We need hackers | Rodrigo Bijou

161,012 views ・ 2016-01-21

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: Jihyeon J. Kim 검토: Ju Hye Lim
00:12
In 2008, Burhan Hassan, age 17,
0
12840
4096
2008년에 17살이었던 부르한 핫산은
00:16
boarded a flight from Minneapolis
1
16960
1936
미니애폴리스에서 아프리카 북동부로 가는 비행기를 탔습니다.
00:18
to the Horn of Africa.
2
18920
2296
00:21
And while Burhan was the youngest recruit,
3
21240
2416
부르한은 가장 어린 대원이었지만
00:23
he was not alone.
4
23680
1656
혼자가 아니었습니다.
00:25
Al-Shabaab managed to recruit over two dozen young men
5
25360
3376
알샤바브 조직은 페이스북같은 소셜미디어에서 존재감이 강한
00:28
in their late teens and early 20s
6
28760
2576
20대 초반과 10대 후반의
00:31
with a heavy presence on social media platforms like Facebook.
7
31360
4016
24명이 넘는 젊은이들을 모집했습니다.
00:35
With the Internet and other technologies,
8
35400
2256
인터넷과 그 밖의 다른 기술들은
00:37
they've changed our everyday lives,
9
37680
1696
우리의 일상생활을 바꾸어 놓았지만
00:39
but they've also changed recruitment, radicalization
10
39400
3816
오늘날 일어나는 갈등에 있어서 대원 모집과, 급진화 방식과
00:43
and the front lines of conflict today.
11
43240
2720
최전방을 바꾸어놓았습니다.
00:47
What about the links connecting Twitter,
12
47680
2456
트위터와 구글과
00:50
Google and protesters fighting for democracy?
13
50160
3936
민주주의를 위해 싸우는 시위대를 이어주는 연결고리는 어떤가요?
00:54
These numbers represent Google's public DNS servers,
14
54120
4016
이 숫자는 구글의 공개 DNS 서버를 나타냅니다.
00:58
effectively the only digital border crossing
15
58160
2536
시위대가 서로와 소통하고 외부 세상과 접촉하여
01:00
protesters had and could use
16
60720
2056
인식을 널리 퍼뜨리는 데
01:02
to communicate with each other, to reach the outside world
17
62800
2816
실질적으로 유일하게 쓸 수 있고
01:05
and to spread viral awareness
18
65640
1616
가지고 있었던
01:07
of what was happening in their own country.
19
67280
2280
디지털 교차점이었죠.
01:10
Today, conflict is essentially borderless.
20
70960
2416
현대의 갈등에는 국경이 없습니다.
01:13
If there are bounds to conflict today,
21
73400
2656
만약 현대의 갈등에 경계가 있다면
01:16
they're bound by digital, not physical geography.
22
76080
3896
물리적인 지리적 경계가 아니라 디지털로 만들어진 것입니다.
01:20
And under all this is a vacuum of power
23
80000
3056
그 밑에는 권력의 공백이 생기는데
01:23
where non-state actors, individuals and private organizations
24
83080
4056
느리고 시대에 뒤떨어진 정보국과 군사기관보다 우위에 있는
01:27
have the advantage over slow, outdated military and intelligence agencies.
25
87160
5240
비정부 활동세력과 개인, 그리고 사적인 조직이 있습니다.
01:33
And this is because, in the digital age of conflict,
26
93240
2776
이는 디지털 시대의 갈등에는 새로운 기술과
01:36
there exists a feedback loop
27
96040
2256
제가 언급한 플랫폼들과
01:38
where new technologies, platforms like the ones I mentioned,
28
98320
2856
그것보다 더 파괴적인 것들이 정부가 대응할 수 있는 속도보다
01:41
and more disruptive ones,
29
101200
1456
더 빠르게 개인과 조직에 의해
01:42
can be adapted, learned, and deployed by individuals and organizations
30
102680
4776
개조되고, 학습되고, 효율적으로 사용될 수 있는
01:47
faster than governments can react.
31
107480
2520
피드백 루프가 존재하기 때문입니다.
01:51
To understand the pace of our own government thinking on this,
32
111840
4096
이것에 대해 정부가 사고하는 속도를 이해하기 위해서
01:55
I like to turn to something aptly named
33
115960
1976
딱 맞는 이름을 가진
01:57
the Worldwide Threat Assessment,
34
117960
3136
세계위협평가를 보려고 합니다.
02:01
where every year the Director of National Intelligence in the US
35
121120
3696
미국의 국가정보국(NIS)장이 매년
02:04
looks at the global threat landscape,
36
124840
2816
전세계에 있는 위협을 조망하면서
02:07
and he says, "These are the threats, these are the details,
37
127680
3256
"이건 위협이 되고, 이건 지엽적이고 이렇게 순위를 매길거야."
02:10
and this is how we rank them."
38
130960
2056
라고 말하는 일이죠.
02:13
In 2007, there was absolutely no mention of cyber security.
39
133040
3416
2007년에는 사이버 안보에 대한 언급이 전혀 없었습니다.
02:16
It took until 2011, when it came at the end,
40
136480
3695
2011년이 되서야 끝부분에 언급되었죠.
02:20
where other things, like West African drug trafficking, took precedence.
41
140199
3897
서아프리카 마약 밀매같은 문제들이 우선시되었습니다.
02:24
In 2012, it crept up, still behind things like terrorism and proliferation.
42
144120
5496
2012년에는 순위가 올라갔지만 테러와 핵확산보다는 뒤에 있었습니다.
02:29
In 2013, it became the top threat,
43
149640
2096
2013년에는 2014년과
02:31
in 2014 and for the foreseeable future.
44
151760
3480
멀지 않은 미래의 가장 큰 위험이 되었습니다.
02:36
What things like that show us
45
156240
1656
이 같은 것들이 우리에게 보여주는 것은
02:37
is that there is a fundamental inability today
46
157920
2976
갈등에 형체가 없고, 경계도 없고 추적할 수도 없는
02:40
on the part of governments to adapt and learn in digital conflict,
47
160920
4640
디지털 갈등에 적응하고 그로부터 학습해야하는 정부가
02:46
where conflict can be immaterial, borderless, often wholly untraceable.
48
166120
4560
근본적으로 이것을 할 능력이 없다는 겁니다.
02:51
And conflict isn't just online to offline, as we see with terrorist radicalization,
49
171560
4616
갈등은 테러범이 급진화되듯 온라인에서 오프라인으로만 가는 것이
02:56
but it goes the other way as well.
50
176200
2080
아니라 역으로도 일어납니다.
02:59
We all know the horrible events that unfolded in Paris this year
51
179520
3536
다들 올해 파리에서 일어난 끔찍한 사건에 대해 알고 있습니다.
03:03
with the Charlie Hebdo terrorist attacks.
52
183080
1953
샤를리 에브도의 테러 공격에 대해서요.
03:05
What an individual hacker or a small group of anonymous individuals did
53
185057
4479
해커 개개인이나 소규모 조직의 익명의 개인들은
03:09
was enter those social media conversations that so many of us took part in.
54
189560
4616
많은 사람들이 참여한 소셜 미디어상의 대화에 들어왔습니다.
03:14
#JeSuisCharlie.
55
194200
2136
#나는 샤를리다 입니다.
03:16
On Facebook, on Twitter, on Google,
56
196360
2216
페이스북, 트위터, 구글과
03:18
all sorts of places where millions of people, myself included,
57
198600
3456
온갖 장소에서 저를 포함한 수백만 명의 사람들은
03:22
were talking about the events
58
202080
1616
이 사건에 대해 이야기하면서
03:23
and saw images like this,
59
203720
1456
감성을 자극하는, 가슴저미는
03:25
the emotional, poignant image of a baby with "Je suis Charlie" on its wrist.
60
205200
5136
"나는 샤를리다"가 손목에 쓰여진 아기의 사진을 보았습니다.
03:30
And this turned into a weapon.
61
210360
2096
이 사진은 무기가 되었습니다.
03:32
What the hackers did was weaponize this image,
62
212480
2336
해커들은 이 사진을 무기로 만들었고
03:34
where unsuspecting victims,
63
214840
1656
이 대화 속에 있는 우리와 같이
03:36
like all of us in those conversations,
64
216520
1896
순진한 피해자들은
03:38
saw this image, downloaded it
65
218440
2616
악성코드가 들어있는 이 사진을
03:41
but it was embedded with malware.
66
221080
2136
보고는 다운받았습니다.
03:43
And so when you downloaded this image,
67
223240
1976
그래서 이 사진을 다운받으면
03:45
it hacked your system.
68
225240
2056
여러분의 시스템이 해킹당했죠.
03:47
It took six days to deploy a global malware campaign.
69
227320
4040
세계적인 악성코드 캠페인을 확산시키는 데 6일이 걸렸습니다.
03:52
The divide between physical and digital domains today
70
232400
2736
오늘날 물리적 영역과 디지털 영역의 경계는
03:55
ceases to exist,
71
235160
1416
더 이상 존재하지 않습니다.
03:56
where we have offline attacks like those in Paris
72
236600
2936
오프라인에서 일어난 파리 테러가
03:59
appropriated for online hacks.
73
239560
2240
온라인 상의 공격에 이용됩니다.
04:03
And it goes the other way as well, with recruitment.
74
243320
2456
그 반대가 일어나기도 합니다. 대원 모집에서요.
04:05
We see online radicalization of teens,
75
245800
2456
십대들은 온라인 상에서 급진적으로 변화되어
04:08
who can then be deployed globally for offline terrorist attacks.
76
248280
4280
오프라인의 테러 공격에 전세계적으로 이용됩니다.
04:13
With all of this, we see that there's a new 21st century battle brewing,
77
253480
4856
이 모든 것에서 우리는 21세기에 새 전쟁이 태어나는 걸 볼 수 있죠.
04:18
and governments don't necessarily take a part.
78
258360
2160
정부는 여기서 딱히 맡는 역할이 없습니다.
04:21
So in another case, Anonymous vs. Los Zetas.
79
261560
5336
또 다른 사례로는 어나니머스와 로스세타스가 있습니다.
04:26
In early September 2011 in Mexico,
80
266920
2536
2011년도 초반에 멕시코에서
04:29
Los Zetas, one of the most powerful drug cartels,
81
269480
3056
가장 힘있는 마약 카르텔 중 하나인 로스세타스(Los Zetas)가
04:32
hung two bloggers with a sign that said,
82
272560
2336
블로거 두 명을 이런 글과 함께 참수시켰습니다.
04:34
"This is what will happen to all Internet busybodies."
83
274920
3680
"이게 인터넷에서 참견하기 좋아하는 사람들에게 생기는 일이다."
04:39
A week later, they beheaded a young girl.
84
279720
1976
일주일 후에는 어린 소녀도 참수되었습니다.
04:41
They severed her head, put it on top of her computer
85
281720
2456
머리를 자른 후 그 소녀의 컴퓨터 위에 올려놓고
04:44
with a similar note.
86
284200
1216
비슷한 글을 남겼습니다.
04:45
And taking the digital counteroffensive
87
285440
2856
정부는 무슨 일이 일어나고 있는지나
04:48
because governments couldn't even understand what was going on or act,
88
288320
3286
무엇을 해야하는지도 모르고 있었기에 이에 대한 디지털 역공으로
04:51
Anonymous, a group we might not associate as the most positive force in the world,
89
291630
3896
우리가 선한 권력단체로 보진 않는 어나니머스가
04:55
took action,
90
295550
1186
행동에 나섰습니다.
04:56
not in cyber attacks, but threatening information to be free.
91
296760
3600
사이버 공격보다는 정보의 자유를 위한 위협을 가했습니다.
05:01
On social media, they said,
92
301920
1696
소셜미디어상에서 이렇게 말했죠.
05:03
"We will release information
93
303640
1656
"우리는 카르텔과 부정하게
05:05
that ties prosecutors and governors to corrupt drug deals with the cartel."
94
305320
4320
마약에 관한 거래를 하는 검사와 장관들에 관한 정보를 공개할 것이다."
05:10
And escalating that conflict,
95
310800
2376
로스세타스는 갈등을 심화시키면서
05:13
Los Zetas said, "We will kill 10 people for every bit of information you release."
96
313200
5800
이렇게 말했습니다. "너희가 공개하는 정보마다 10명씩 죽일것이다."
05:19
And so it ended there because it would become too gruesome to continue.
97
319880
4640
계속하면 너무 잔인해질 것이기 때문에 싸움은 여기서 끝났습니다.
05:25
But what was powerful about this
98
325560
2040
하지만 이 싸움이 강렬했던 이유는
05:28
was that anonymous individuals,
99
328640
2576
연방경찰도, 군대도,
05:31
not federal policia, not military, not politicians,
100
331240
3616
정치인도 아닌 어나니머스에 속한 개인들이
05:34
could strike fear deep into the heart
101
334880
4176
세상에서 가장 힘있고 폭력적인 조직 중 하나인
05:39
of one of the most powerful, violent organizations in the world.
102
339080
4400
로스세타스의 깊은 곳에 두려움을 불러일으킬 수 있었다는 겁니다.
05:44
And so we live in an era
103
344320
2176
우리는 과거에 일어난 갈등에는 있던,
05:46
that lacks the clarity of the past in conflict,
104
346520
3536
우리가 누구와 싸우고 있는지, 공격의 동기가 무엇인지와
05:50
in who we're fighting, in the motivations behind attacks,
105
350080
3816
사용된 도구나 기술, 그들이 얼마나 빠르게 진화하는지에 대한
05:53
in the tools and techniques used,
106
353920
1856
명확함이 훨씬 줄어든 시대를
05:55
and how quickly they evolve.
107
355800
1640
살아가고 있습니다.
05:58
And the question still remains:
108
358720
1496
개인과, 조직과 정부는
06:00
what can individuals, organizations and governments do?
109
360240
5536
무엇을 할 수 있는가에 대한 질문은 아직 남아있습니다.
06:05
For answers to these questions, it starts with individuals,
110
365800
2816
이런 질문에 대한 답은 개인에서 출발합니다.
06:08
and I think peer-to-peer security is the answer.
111
368640
2760
제가 보기엔 개인 대 개인(P2P) 보안이 답인 것 같습니다.
06:12
Those people in relationships that bought over teens online,
112
372800
3936
십대를 온라인 상에서 끌어들인 사람들처럼 우리도 P2P 보안으로
06:16
we can do that with peer-to-peer security.
113
376760
2056
똑같이 할 수 있습니다.
06:18
Individuals have more power than ever before
114
378840
2536
개인은 그 어느때보다 국가와 세계 안보에
06:21
to affect national and international security.
115
381400
2920
영향을 줄 수 있는 힘을 더 많이 갖고 있습니다.
06:25
And we can create those positive peer-to-peer relationships
116
385360
3256
우리는 온라인과 오프라인에서 긍정적인 개인 대 개인의 관계를
06:28
on and offline,
117
388640
1200
형성할 수 있습니다.
06:30
we can support and educate the next generation of hackers, like myself,
118
390720
4336
"범죄자가 되든지 미 국가안보국에 들어가" 라고 말하는 대신
06:35
instead of saying, "You can either be a criminal or join the NSA."
119
395080
3560
저같은 차세대 해커들을 지원하고 교육할 수 있습니다.
06:39
That matters today.
120
399360
1360
이것은 현대에 매우 중요합니다.
06:41
And it's not just individuals -- it's organizations, corporations even.
121
401840
5296
개인뿐만이 아닙니다. 조직과 기업도 포함됩니다.
06:47
They have an advantage to act across more borders,
122
407160
2536
그들에게는 정부보다 더 효과적이고 빠르게
06:49
more effectively and more rapidly than governments can,
123
409720
3536
국경을 넘어 행동할 수 있는 강점을 가지고 있고
06:53
and there's a set of real incentives there.
124
413280
2880
거기에 대한 보상도 많이 존재합니다.
06:57
It's profitable and valuable
125
417440
1696
디지털 시대에
06:59
to be seen as trustworthy in the digital age,
126
419160
3496
신뢰할 수 있다고 여겨지는 건 이득이 되고 큰 가치가 있습니다.
07:02
and will only be more so in future generations to come.
127
422680
3976
미래에 세대를 거듭할수록 더 그렇게 될 겁니다.
07:06
But we still can't ignore government,
128
426680
1816
하지만 여전히 정부를 무시할 순 없죠.
07:08
because that's who we turn to for collective action
129
428520
3336
우리의 안전을 위해 집단적 조취를 취해주는 것이
07:11
to keep us safe and secure.
130
431880
2760
정부니까요.
07:16
But we see where that's gotten us so far,
131
436080
3016
하지만 그래서 어떻게 됐습니까.
07:19
where there's an inability to adapt and learn in digital conflict,
132
439120
3736
디지털 상의 갈등에 적응하고 그로부터 학습할 능력도 없습니다.
07:22
where at the highest levels of leadership,
133
442880
3056
가장 높은 위치에 있는 지도자인
07:25
the Director of the CIA, Secretary of Defense,
134
445960
2376
CIA의 국장과 국방장관은 이렇게 말합니다.
07:28
they say, "Cyber Pearl Harbor will happen." "Cyber 9/11 is imminent."
135
448360
4440
"사이버 진주만이 일어날거야" "사이버 911테러가 코앞이야"
07:35
But this only makes us more fearful, not more secure.
136
455080
3000
하지만 이런 말은 우리를 안전하다고 느끼게 하지 않고 더 두렵게 만듭니다.
07:39
By banning encryption in favor of mass surveillance and mass hacking,
137
459200
3736
대규모 감시와 해킹을 위해 암호화를 금지함으로써
07:42
sure, GCHQ and the NSA can spy on you.
138
462960
2720
영국 보안국(GCHQ)와 NSA는 여러분을 감시할 수 있겠죠.
07:46
But that doesn't mean that they're the only ones that can.
139
466880
2715
근데 그렇다고 그들만 사람들을 감시할 수 있는 게 아닙니다.
07:49
Capabilities are cheap, even free.
140
469619
2157
그런 능력은 쉽게, 심지어 공짜로 얻을 수 있죠.
07:51
Technical ability is rising around the world,
141
471800
2616
전세계적으로 기술력이 높아지고 있고
07:54
and individuals and small groups have the advantage.
142
474440
3520
개인과 소규모 집단이 유리한 위치에 있습니다.
07:59
So today it might just be the NSA and GCHQ,
143
479520
2936
지금은 NSA와 GCHQ밖에 없지만
08:02
but who's to say that the Chinese can't find that backdoor?
144
482480
2762
중국인들이라고 뒷구멍을 못 찾아낼까요?
08:06
Or in another generation, some kid in his basement in Estonia?
145
486120
3120
아니면 다른 세대의 에스토니아에서 지하실에 사는 꼬마아이는요?
08:10
And so I would say that it's not what governments can do,
146
490880
4776
그래서 이건 정부가 무엇을 할 수 있느냐의 문제가 아니라
08:15
it's that they can't.
147
495680
1280
하면 안되는 것의 문제입니다.
08:17
Governments today need to give up power and control
148
497720
4496
오늘날의 정부는 우리가 더 안전하다고 느끼게 하기 위해서는
08:22
in order to help make us more secure.
149
502240
2280
권력과 통제권을 내려놓아야 합니다.
08:25
Giving up mass surveillance and hacking and instead fixing those backdoors
150
505600
4096
대규모 감시와 해킹을 내려놓고 뒷구멍을 막아야합니다.
08:29
means that, yeah, they can't spy on us,
151
509720
2256
정부는 우리를 더 이상 감시하지 못하겠지만
08:32
but neither can the Chinese
152
512000
1336
중국인들도 못할겁니다.
08:33
or that hacker in Estonia a generation from now.
153
513360
2360
에스토니아에 사는 다음 세대의 그 꼬마도요.
08:37
And government support for technologies like Tor and Bitcoin
154
517280
3456
그리고 토(Tor)나 비트코인같은 기술에 대해 정부가 지원을 하는 것은
08:40
mean giving up control,
155
520760
1576
통제권을 내려놓는다는 걸 뜻하지만
08:42
but it means that developers, translators, anybody with an Internet connection,
156
522360
4295
쿠바나 이란, 중국같은 나라에서 사는 개발자와 번역가
08:46
in countries like Cuba, Iran and China, can sell their skills, their products,
157
526679
4096
그리고 인터넷과 연결될 수 있는 사람들이 그들의 제품을 세계 시장에
08:50
in the global marketplace,
158
530799
1377
팔 수 있다는 뜻도 됩니다.
08:52
but more importantly sell their ideas,
159
532200
2216
그보다 더 중요한 건, 그들의 아이디어도 팔고
08:54
show us what's happening in their own countries.
160
534440
2680
본인이 사는 나라에서 무슨 일이 일어나고 있는지도 보여줄 수 있죠.
08:58
And so it should be not fearful,
161
538080
2296
그러니까 두려워할 일이 아닙니다.
09:00
it should be inspiring to the same governments
162
540400
2416
지난 세기 동안 시민권과 언론의 자유,
09:02
that fought for civil rights, free speech and democracy
163
542840
2856
그리고 민주주의를 위한 거대한 전쟁에서 싸웠던 정부에게는
09:05
in the great wars of the last century,
164
545720
2016
감격적인 일이어야 합니다.
09:07
that today, for the first time in human history,
165
547760
3056
지금 인류 역사상 최초로 전세계 수십 억의 사람들을
09:10
we have a technical opportunity
166
550840
2216
안전하게 만들 기회를 주는 기술이,
09:13
to make billions of people safer around the world
167
553080
2616
한번도 있어본 적 없는 그런 기술을
09:15
that we've never had before in human history.
168
555720
2536
갖고 있다는 것이 말이죠.
09:18
It should be inspiring.
169
558280
2080
감격적인 일이어야 합니다.
09:21
(Applause)
170
561840
5400
(박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7