Governments don't understand cyber warfare. We need hackers | Rodrigo Bijou

160,626 views ・ 2016-01-21

TED


A videó lejátszásához kattintson duplán az alábbi angol feliratokra.

Fordító: Tibor Somogyi Lektor: Péter Pallós
00:12
In 2008, Burhan Hassan, age 17,
0
12840
4096
2008-ban a 17 éves Burhan Hassan
00:16
boarded a flight from Minneapolis
1
16960
1936
felszállt egy Minneapolisból
00:18
to the Horn of Africa.
2
18920
2296
Északkelet-Afrikába tartó gépre.
00:21
And while Burhan was the youngest recruit,
3
21240
2416
Ugyan Burhan volt a legfiatalabb újonc,
00:23
he was not alone.
4
23680
1656
de nem volt egyedül.
00:25
Al-Shabaab managed to recruit over two dozen young men
5
25360
3376
Az al-Shabaab több mint 2 tucat fiatal férfit toborzott,
00:28
in their late teens and early 20s
6
28760
2576
akik tinédzserkoruk végén, 20-as éveik elején jártak,
00:31
with a heavy presence on social media platforms like Facebook.
7
31360
4016
köszönhetően erős jelenlétüknek közösségi oldalakon, pl. a Facebookon.
00:35
With the Internet and other technologies,
8
35400
2256
Az internet és a többi technológia
00:37
they've changed our everyday lives,
9
37680
1696
megváltoztatta mindennapi életünket
00:39
but they've also changed recruitment, radicalization
10
39400
3816
de megváltoztatta a toborzást, a szélsőségessé válást,
00:43
and the front lines of conflict today.
11
43240
2720
és a mai hadviselés frontvonalát is.
00:47
What about the links connecting Twitter,
12
47680
2456
Mi köti össze a Twittert, a Google-t,
00:50
Google and protesters fighting for democracy?
13
50160
3936
és a demokráciáért küzdő tiltakozókat?
00:54
These numbers represent Google's public DNS servers,
14
54120
4016
Ezek a számok a Google nyilvános DNS-szervereit jelölik,
00:58
effectively the only digital border crossing
15
58160
2536
a lényegében egyetlen digitális határátkelőt,
01:00
protesters had and could use
16
60720
2056
amelyet a tiltakozók használhattak,
01:02
to communicate with each other, to reach the outside world
17
62800
2816
hogy kommunikáljanak egymással és a külvilággal,
01:05
and to spread viral awareness
18
65640
1616
és hogy felhívják rá a figyelmet:
01:07
of what was happening in their own country.
19
67280
2280
mi történik a hazájukban.
01:10
Today, conflict is essentially borderless.
20
70960
2416
Ma a hadviselés alapvetően határok nélküli.
01:13
If there are bounds to conflict today,
21
73400
2656
Ha vannak is korlátai a mai hadviselésnek,
01:16
they're bound by digital, not physical geography.
22
76080
3896
azok digitális, és nem fizikai földrajzi határok.
01:20
And under all this is a vacuum of power
23
80000
3056
Mindez alatt hatalmi vákuum van,
01:23
where non-state actors, individuals and private organizations
24
83080
4056
ahol a nem-állami szereplőknek, egyéneknek és magánszervezeteknek
01:27
have the advantage over slow, outdated military and intelligence agencies.
25
87160
5240
előnyük van a lassú, elavult katonai és hírszerzőirodákkal szemben.
01:33
And this is because, in the digital age of conflict,
26
93240
2776
Azért, mert a hadviselés digitális korában
01:36
there exists a feedback loop
27
96040
2256
létezik visszacsatolás,
01:38
where new technologies, platforms like the ones I mentioned,
28
98320
2856
amiben az említett új technológiákat, platformokat
01:41
and more disruptive ones,
29
101200
1456
és a még bomlasztóbbakat is
01:42
can be adapted, learned, and deployed by individuals and organizations
30
102680
4776
egyének és szervezetek gyorsabban adaptálhatják, tanulhatják és vethetik be,
01:47
faster than governments can react.
31
107480
2520
mint ahogy a kormányok reagálni képesek.
01:51
To understand the pace of our own government thinking on this,
32
111840
4096
Hogy megértsük az amerikai kormány gondolkodásmódját,
01:55
I like to turn to something aptly named
33
115960
1976
megemlítenék valamit, amit találóan
01:57
the Worldwide Threat Assessment,
34
117960
3136
globális fenyegetettség-felmérésnek neveznek,
02:01
where every year the Director of National Intelligence in the US
35
121120
3696
ahol az USA nemzeti hírszerzési igazgatója
02:04
looks at the global threat landscape,
36
124840
2816
évente ránéz a világ fenyegetettség-térképére,
02:07
and he says, "These are the threats, these are the details,
37
127680
3256
és kijelenti: "Ezek a fenyegetések, ezek a részletek,
02:10
and this is how we rank them."
38
130960
2056
és így rangsoroljuk őket."
02:13
In 2007, there was absolutely no mention of cyber security.
39
133040
3416
2007-ben egyáltalán nem említették meg a kiberbiztonságot.
02:16
It took until 2011, when it came at the end,
40
136480
3695
Egészen 2011-ig, amikor odaért a lista végére,
02:20
where other things, like West African drug trafficking, took precedence.
41
140199
3897
de megelőzte pl. a nyugat-afrikai drogkereskedelem.
02:24
In 2012, it crept up, still behind things like terrorism and proliferation.
42
144120
5496
2012-ben előrelépett, de csak a terrorizmus és az atomfegyverek mögé.
02:29
In 2013, it became the top threat,
43
149640
2096
2013-ban a fő fenyegetéssé vált,
02:31
in 2014 and for the foreseeable future.
44
151760
3480
ahogy 2014-ben, és az előrelátható jövőben is.
02:36
What things like that show us
45
156240
1656
Ez mutatja, hogy manapság
02:37
is that there is a fundamental inability today
46
157920
2976
a kormányok részéről alapvetően teszetoszaság tapasztalható
02:40
on the part of governments to adapt and learn in digital conflict,
47
160920
4640
a digitális hadviseléshez alkalmazkodást és a tanulást illetően,
02:46
where conflict can be immaterial, borderless, often wholly untraceable.
48
166120
4560
ahol testetlen, határok nélküli, gyakran lenyomozhatatlan háborúról lehet szó.
02:51
And conflict isn't just online to offline, as we see with terrorist radicalization,
49
171560
4616
A harc az online-tól az offline felé haladhat, pl. a radikálisabb terrornál,
02:56
but it goes the other way as well.
50
176200
2080
de a másik irányba is működhet.
02:59
We all know the horrible events that unfolded in Paris this year
51
179520
3536
Mindannyian hallottunk az idén Párizsban történt szörnyű eseményekről,
03:03
with the Charlie Hebdo terrorist attacks.
52
183080
1953
a terrortámadásról a Charlie Hebdónál.
03:05
What an individual hacker or a small group of anonymous individuals did
53
185057
4479
Egy hacker vagy anonim személyek kis csoportja részt vett
03:09
was enter those social media conversations that so many of us took part in.
54
189560
4616
közösségi hálókon zajló beszélgetésekben, amelyekbe mi is olyan sokan belefolytunk.
03:14
#JeSuisCharlie.
55
194200
2136
#JeSuisCharlie — #CharlieVagyok.
03:16
On Facebook, on Twitter, on Google,
56
196360
2216
Facebookon, Twitteren, Google-en,
03:18
all sorts of places where millions of people, myself included,
57
198600
3456
olyan helyeken, ahol milliónyian, engem is beleértve,
03:22
were talking about the events
58
202080
1616
beszélgettek az eseményekről,
03:23
and saw images like this,
59
203720
1456
és ilyen képeket láttunk.
03:25
the emotional, poignant image of a baby with "Je suis Charlie" on its wrist.
60
205200
5136
Egy kisbaba fölkavaró, megindító képe "Charlie vagyok" felirattal a csuklóján.
03:30
And this turned into a weapon.
61
210360
2096
És fegyverré alakították.
03:32
What the hackers did was weaponize this image,
62
212480
2336
A hackerek fegyvert csináltak ebből a képből.
03:34
where unsuspecting victims,
63
214840
1656
A gyanútlan áldozatok,
03:36
like all of us in those conversations,
64
216520
1896
mint mi, akik beszélgettünk róla,
03:38
saw this image, downloaded it
65
218440
2616
látták a képet, letöltötték,
03:41
but it was embedded with malware.
66
221080
2136
de el volt benne rejtve egy malware.
03:43
And so when you downloaded this image,
67
223240
1976
Így a letöltött kép
03:45
it hacked your system.
68
225240
2056
meghackelte a rendszerüket.
03:47
It took six days to deploy a global malware campaign.
69
227320
4040
6 napba telt egy malware világkampány kibontakozása.
03:52
The divide between physical and digital domains today
70
232400
2736
Ma a fizikai és digitális területek közötti határ
03:55
ceases to exist,
71
235160
1416
megszűnik,
03:56
where we have offline attacks like those in Paris
72
236600
2936
ahogy a párizsi támadásokhoz hasonló offline támadásokat
03:59
appropriated for online hacks.
73
239560
2240
online támadásokra használnak fel.
04:03
And it goes the other way as well, with recruitment.
74
243320
2456
A másik irányba is működik: toborzással.
04:05
We see online radicalization of teens,
75
245800
2456
Láthatjuk tizenévesek online radikalizálását,
04:08
who can then be deployed globally for offline terrorist attacks.
76
248280
4280
akiket bárhol be lehet vetni offline terrortámadásokra.
04:13
With all of this, we see that there's a new 21st century battle brewing,
77
253480
4856
Mindent egybevéve láthatjuk, hogy új, 21. századi háború készülődik,
04:18
and governments don't necessarily take a part.
78
258360
2160
nem feltétlenül kormányok részvételével.
04:21
So in another case, Anonymous vs. Los Zetas.
79
261560
5336
Egy másik eset: Anonymous kontra Los Zetas.
04:26
In early September 2011 in Mexico,
80
266920
2536
2011. szeptember elején Mexikóban
04:29
Los Zetas, one of the most powerful drug cartels,
81
269480
3056
a Los Zetas, a legerősebb drogkartellek egyike
04:32
hung two bloggers with a sign that said,
82
272560
2336
felakasztott 2 bloggert a következő felirattal:
04:34
"This is what will happen to all Internet busybodies."
83
274920
3680
"Ez vár minden internetes mitugrászra".
04:39
A week later, they beheaded a young girl.
84
279720
1976
Egy hétre rá lefejeztek egy kislányt.
04:41
They severed her head, put it on top of her computer
85
281720
2456
A fejét a számítógépe tetejére tették
04:44
with a similar note.
86
284200
1216
egy hasonló üzenettel.
04:45
And taking the digital counteroffensive
87
285440
2856
A digitális ellentámadást pedig,
04:48
because governments couldn't even understand what was going on or act,
88
288320
3286
mivel a kormányok nem cselekedtek, nem is értették, hogy mi történik,
04:51
Anonymous, a group we might not associate as the most positive force in the world,
89
291630
3896
a nem a legpozitívabbként ismert Anonymous-csoport
04:55
took action,
90
295550
1186
hajtotta végre.
04:56
not in cyber attacks, but threatening information to be free.
91
296760
3600
Nem kibertámadással, hanem információ megosztásával fenyegetett.
05:01
On social media, they said,
92
301920
1696
Közösségi médián keresztül üzent:
05:03
"We will release information
93
303640
1656
"Olyan információt fogunk kiadni,
05:05
that ties prosecutors and governors to corrupt drug deals with the cartel."
94
305320
4320
amely ügyészeket és kormányzókat a kartell korrupt drogüzleteihez köti.
05:10
And escalating that conflict,
95
310800
2376
A konfliktus kiélezésére a Los Zetas válasza:
05:13
Los Zetas said, "We will kill 10 people for every bit of information you release."
96
313200
5800
"Minden egyes közzétett információért 10 embert fogunk megölni."
05:19
And so it ended there because it would become too gruesome to continue.
97
319880
4640
És így végződött, mert túl kegyetlen lett volna a folytatás.
05:25
But what was powerful about this
98
325560
2040
Ami igazán erőteljes volt ebben,
05:28
was that anonymous individuals,
99
328640
2576
hogy névtelen egyének,
05:31
not federal policia, not military, not politicians,
100
331240
3616
nem szövetségi rendőrség, nem a hadsereg, nem politikusok
05:34
could strike fear deep into the heart
101
334880
4176
keltettek komoly félelmet
05:39
of one of the most powerful, violent organizations in the world.
102
339080
4400
a világ egyik legerősebb, legerőszakosabb szervezetében.
05:44
And so we live in an era
103
344320
2176
Olyan korban élünk,
05:46
that lacks the clarity of the past in conflict,
104
346520
3536
amelyben hiányzik a múlt tisztasága a konfliktusból,
05:50
in who we're fighting, in the motivations behind attacks,
105
350080
3816
abból, hogy kivel harcolunk, a támadások indítékából,
05:53
in the tools and techniques used,
106
353920
1856
a használt eszközökből és technikákból,
05:55
and how quickly they evolve.
107
355800
1640
abból, milyen gyorsan fejlődnek.
05:58
And the question still remains:
108
358720
1496
A kérdés továbbra is:
06:00
what can individuals, organizations and governments do?
109
360240
5536
mit tehetnek az egyének, a szervezetek és a kormányok?
06:05
For answers to these questions, it starts with individuals,
110
365800
2816
Ezen kérdések megválaszolása az embereknél kezdődik.
06:08
and I think peer-to-peer security is the answer.
111
368640
2760
A válasz: közvetlen, egyszintű biztonság.
06:12
Those people in relationships that bought over teens online,
112
372800
3936
Mi is megtehetjük egyszintű biztonság segítségével,
06:16
we can do that with peer-to-peer security.
113
376760
2056
amit azok, akik tiniket online csaltak csapdába.
06:18
Individuals have more power than ever before
114
378840
2536
Az egyéneknek több erejük van, mint valaha,
06:21
to affect national and international security.
115
381400
2920
hogy befolyásolják a nemzeti és nemzetközi biztonságot.
06:25
And we can create those positive peer-to-peer relationships
116
385360
3256
Képesek vagyunk pozitív egyszintű kapcsolatokat létrehozni
06:28
on and offline,
117
388640
1200
online és offline is,
06:30
we can support and educate the next generation of hackers, like myself,
118
390720
4336
támogathatjuk és taníthatjuk a következő hackernemzedéket, pl. engem,
06:35
instead of saying, "You can either be a criminal or join the NSA."
119
395080
3560
ahelyett, hogy azt mondanánk: "Lehetsz bűnöző vagy nemzetbiztonságis".
06:39
That matters today.
120
399360
1360
Ez számít ma.
06:41
And it's not just individuals -- it's organizations, corporations even.
121
401840
5296
Nem csak az egyéneknek, a szervezeteknek, a vállalatoknak is.
06:47
They have an advantage to act across more borders,
122
407160
2536
Megvan az előnyük, hogy határokon át cselekedjenek,
06:49
more effectively and more rapidly than governments can,
123
409720
3536
hatékonyabban és gyorsabban, mint a kormányok,
06:53
and there's a set of real incentives there.
124
413280
2880
és sok minden ösztönözheti őket.
06:57
It's profitable and valuable
125
417440
1696
Jövedelmező és értékes dolog
06:59
to be seen as trustworthy in the digital age,
126
419160
3496
megbízhatónak tűnni a digitális korban,
07:02
and will only be more so in future generations to come.
127
422680
3976
és a jövő nemzedékekben ez még inkább így lesz.
07:06
But we still can't ignore government,
128
426680
1816
De nem mellőzhetjük a kormányt,
07:08
because that's who we turn to for collective action
129
428520
3336
mert hozzá fordulhatunk, ha közös cselekvés kell,
07:11
to keep us safe and secure.
130
431880
2760
hogy biztonságban tartson minket.
07:16
But we see where that's gotten us so far,
131
436080
3016
De láthatjuk, hogy ezzel hova jutottunk,
07:19
where there's an inability to adapt and learn in digital conflict,
132
439120
3736
amikor a digitális hadviselés adaptálása és tanulása képtelenség,
07:22
where at the highest levels of leadership,
133
442880
3056
amikor a vezetőség legmagasabb szintjén
07:25
the Director of the CIA, Secretary of Defense,
134
445960
2376
a CIA igazgatója és a védelmi miniszter ezt mondja:
07:28
they say, "Cyber Pearl Harbor will happen." "Cyber 9/11 is imminent."
135
448360
4440
"A kiber Pearl Harbor be fog következni." "A kiber 9/11 elkerülhetetlen."
07:35
But this only makes us more fearful, not more secure.
136
455080
3000
De ettől még jobban elfog a félelem, nem érzünk biztonságot.
07:39
By banning encryption in favor of mass surveillance and mass hacking,
137
459200
3736
A titkosítás tiltásával a tömeges megfigyelés és hackelés érdekében persze
07:42
sure, GCHQ and the NSA can spy on you.
138
462960
2720
az Információvédelmi központ és a nemzetbiztonság kukkolhat.
07:46
But that doesn't mean that they're the only ones that can.
139
466880
2715
De nemcsak ők képesek rá.
07:49
Capabilities are cheap, even free.
140
469619
2157
A tehetség olcsó, sőt, ingyen van.
07:51
Technical ability is rising around the world,
141
471800
2616
A műszaki tehetség felértékelődőben van a világon,
07:54
and individuals and small groups have the advantage.
142
474440
3520
és az egyének és a kis csoportok vannak előnyben.
07:59
So today it might just be the NSA and GCHQ,
143
479520
2936
Ma tán csak az Információvédelmesek és a nemzetbiztonságiak,
08:02
but who's to say that the Chinese can't find that backdoor?
144
482480
2762
de a kínaiak bármikor találhatnak kiskaput.
08:06
Or in another generation, some kid in his basement in Estonia?
145
486120
3120
Vagy a következő nemzedékben egy srác az észtországi garázsában?
08:10
And so I would say that it's not what governments can do,
146
490880
4776
Nem az a lényeg, hogy a kormányok mit tehetnek,
08:15
it's that they can't.
147
495680
1280
hanem hogy mit nem.
08:17
Governments today need to give up power and control
148
497720
4496
A mai kormányoknak le kell mondaniuk a hatalomról és az irányításról,
08:22
in order to help make us more secure.
149
502240
2280
hogy nagyobb biztonságban érezzük magunkat.
08:25
Giving up mass surveillance and hacking and instead fixing those backdoors
150
505600
4096
A totális kukkolásról és hackelésről lemondás, helyettük a kiskapuk betömése
08:29
means that, yeah, they can't spy on us,
151
509720
2256
azt jelenti, hogy nem kémkedhetnek utánunk
08:32
but neither can the Chinese
152
512000
1336
de a kínaiak sem,
08:33
or that hacker in Estonia a generation from now.
153
513360
2360
sem a jövő nemzedék észtországi hackere.
08:37
And government support for technologies like Tor and Bitcoin
154
517280
3456
A kormányzati támogatás olyan technológiáknak, mint a Tor és a Bitcoin,
08:40
mean giving up control,
155
520760
1576
az irányítás feladását jelenti,
08:42
but it means that developers, translators, anybody with an Internet connection,
156
522360
4295
és azt, hogy fejlesztők, fordítók, bárki, aki hozzáfér az internethez
08:46
in countries like Cuba, Iran and China, can sell their skills, their products,
157
526679
4096
pl. Kubában, Iránban és Kínában, pénzt kereshet képességével, termékeivel
08:50
in the global marketplace,
158
530799
1377
a világpiacon,
08:52
but more importantly sell their ideas,
159
532200
2216
de ami még fontosabb: eladhatja az ötleteit,
08:54
show us what's happening in their own countries.
160
534440
2680
bemutathatja, mi történik a hazájában.
Nem félelemkeltőnek kellene lenniük, hanem ihletőnek
08:58
And so it should be not fearful,
161
538080
2296
09:00
it should be inspiring to the same governments
162
540400
2416
ugyanazon kormányoknak, amelyek polgári jogokért,
09:02
that fought for civil rights, free speech and democracy
163
542840
2856
szólásszabadságért és demokráciáért küzdöttek
09:05
in the great wars of the last century,
164
545720
2016
a múlt század nagy csatáiban,
09:07
that today, for the first time in human history,
165
547760
3056
hogy ma az emberiség történetében először
09:10
we have a technical opportunity
166
550840
2216
meglegyen a műszaki lehetőségünk arra,
09:13
to make billions of people safer around the world
167
553080
2616
hogy embermilliárdok érezhessék magukat biztonságban.
09:15
that we've never had before in human history.
168
555720
2536
Erre a történelem során még nem volt lehetőségünk.
09:18
It should be inspiring.
169
558280
2080
Ez ösztönözzön bennünket.
09:21
(Applause)
170
561840
5400
(Taps)
Erről a weboldalról

Ez az oldal olyan YouTube-videókat mutat be, amelyek hasznosak az angol nyelvtanuláshoz. A világ minden tájáról származó, kiváló tanárok által tartott angol leckéket láthatsz. Az egyes videók oldalán megjelenő angol feliratokra duplán kattintva onnan játszhatja le a videót. A feliratok a videó lejátszásával szinkronban gördülnek. Ha bármilyen észrevétele vagy kérése van, kérjük, lépjen kapcsolatba velünk ezen a kapcsolatfelvételi űrlapon.

https://forms.gle/WvT1wiN1qDtmnspy7