Ralph Langner: Cracking Stuxnet, a 21st-century cyber weapon

310,465 views ・ 2011-03-29

TED


Por favor, faça duplo clique nas legendas em inglês abaixo para reproduzir o vídeo.

Tradutor: João Gil Revisora: Wanderley Jesus
00:15
The idea behind the Stuxnet computer worm
0
15260
3000
A ideia por detrás do vírus informático Stuxnet
00:18
is actually quite simple.
1
18260
2000
é na verdade bastante simples.
00:20
We don't want Iran to get the bomb.
2
20260
3000
Não queremos que o Irão tenha a bomba.
00:23
Their major asset for developing nuclear weapons
3
23260
3000
O seu maior recurso para o desenvolvimento de armas nucleares
00:26
is the Natanz uranium enrichment facility.
4
26260
4000
é o complexo de enriquecimento de urânio em Natanz.
00:30
The gray boxes that you see,
5
30260
2000
As caixas cinzentas que vêem
00:32
these are real-time control systems.
6
32260
3000
são sistemas de controlo em tempo real.
00:35
Now if we manage to compromise these systems
7
35260
3000
Agora se conseguirmos comprometer estes sistemas
00:38
that control drive speeds and valves,
8
38260
3000
que controlam a velocidade de accionadores e válvulas,
00:41
we can actually cause a lot of problems
9
41260
3000
conseguimos causar imensos problemas
00:44
with the centrifuge.
10
44260
2000
com o centrifugador.
00:46
The gray boxes don't run Windows software;
11
46260
2000
As caixas cinzentas não utilizam o software Windows;
00:48
they are a completely different technology.
12
48260
3000
são uma tecnologia completamente diferente.
00:51
But if we manage
13
51260
2000
Mas se conseguirmos
00:53
to place a good Windows virus
14
53260
3000
colocar um bom vírus Windows
00:56
on a notebook
15
56260
2000
num computador portátil
00:58
that is used by a maintenance engineer
16
58260
2000
que é usado por um engenheiro de manutenção
01:00
to configure this gray box,
17
60260
3000
para configurar esta caixa cinzenta,
01:03
then we are in business.
18
63260
2000
então aí estaremos em acção.
01:05
And this is the plot behind Stuxnet.
19
65260
3000
E esta é a história por detrás do Stuxnet.
01:08
So we start with a Windows dropper.
20
68260
5000
Portanto começamos com um disseminador Windows.
01:13
The payload goes onto the gray box,
21
73260
3000
A carga entra na caixa cinzenta,
01:16
damages the centrifuge,
22
76260
2000
danifica o centrifugador,
01:18
and the Iranian nuclear program is delayed --
23
78260
2000
e o programa nuclear do Irão é atrasado --
01:20
mission accomplished.
24
80260
2000
missão cumprida.
01:22
That's easy, huh?
25
82260
2000
É simples, não?
01:24
I want to tell you how we found that out.
26
84260
3000
Quero contar-vos como é que descobrimos isto.
01:27
When we started our research on Stuxnet six months ago,
27
87260
3000
Quando começámos a investigar o Stuxnext há seis meses,
01:30
it was completely unknown what the purpose of this thing was.
28
90260
3000
era-nos completamente desconhecido qual o objectivo desta coisa.
01:33
The only thing that was known
29
93260
2000
A única coisa que era conhecida
01:35
is it's very, very complex on the Windows part, the dropper part,
30
95260
3000
era a sua extremamente complexa parte Windows, do disseminador,
01:38
used multiple zero-day vulnerabilities.
31
98260
3000
que usou múltiplas vulnerabilidades previamente desconhecidas.
01:41
And it seemed to want to do something
32
101260
3000
E ele parecia querer fazer algo
01:44
with these gray boxes, these real-time control systems.
33
104260
2000
com estas caixas cinzentas, estes controladores em tempo real.
01:46
So that got our attention,
34
106260
2000
Isso despertou a nossa atenção,
01:48
and we started a lab project
35
108260
2000
então começámos um projecto laboratorial
01:50
where we infected our environment with Stuxnet
36
110260
4000
onde infectámos o nosso ambiente com o Stuxnet
01:54
and checked this thing out.
37
114260
2000
e vimos como isto funcionava.
01:56
And then some very funny things happened.
38
116260
3000
Depois algo muito engraçado aconteceu.
01:59
Stuxnet behaved like a lab rat
39
119260
3000
O Stuxnet comportou-se como um rato de laboratório
02:02
that didn't like our cheese --
40
122260
3000
que não gostava do nosso queijo --
02:05
sniffed, but didn't want to eat.
41
125260
2000
cheirava, mas não queria comer.
02:07
Didn't make sense to me.
42
127260
2000
Isto não fazia sentido.
02:09
And after we experimented with different flavors of cheese,
43
129260
3000
Depois de experimentarmos diferentes sabores de queijo,
02:12
I realized, well, this is a directed attack.
44
132260
4000
apercebi-me que isto era um ataque com um alvo específico.
02:16
It's completely directed.
45
136260
2000
É completamente específico.
02:18
The dropper is prowling actively
46
138260
2000
O disseminador procura activamente
02:20
on the gray box
47
140260
2000
na caixa cinzenta,
02:22
if a specific configuration is found,
48
142260
3000
por uma configuração específica,
02:25
and even if the actual program code that it's trying to infect
49
145260
4000
e até mesmo se o programa que está a tentar infectar
02:29
is actually running on that target.
50
149260
2000
está a correr naquele alvo.
02:31
And if not, Stuxnet does nothing.
51
151260
3000
Caso não esteja, o Stuxnet não faz nada.
02:34
So that really got my attention,
52
154260
2000
Isso chamou-me imenso à atenção,
02:36
and we started to work on this
53
156260
2000
e começámos a trabalhar nisto
02:38
nearly around the clock,
54
158260
2000
quase 24 horas por dia,
02:40
because I thought, "Well, we don't know what the target is.
55
160260
3000
porque eu pensava, bem, nós não sabemos qual é o alvo.
02:43
It could be, let's say for example,
56
163260
2000
Poderia ser, por exemplo,
02:45
a U.S. power plant,
57
165260
2000
uma central de energia dos Estados Unidos,
02:47
or a chemical plant in Germany.
58
167260
2000
ou uma central química Alemã.
02:49
So we better find out what the target is soon."
59
169260
3000
Por isso é bom que saibamos qual é o alvo depressa.
02:52
So we extracted and decompiled
60
172260
2000
Por isso extraímos e descompilámos
02:54
the attack code,
61
174260
2000
o código do ataque,
02:56
and we discovered that it's structured in two digital bombs --
62
176260
3000
e descobrimos que está estruturado em duas bombas digitais --
02:59
a smaller one and a bigger one.
63
179260
3000
uma mais pequena e outra maior.
03:02
And we also saw that they are very professionally engineered
64
182260
4000
E verificámos também que são muito profissionalmente desenhados
03:06
by people who obviously had all insider information.
65
186260
4000
por pessoas que têm, claramente, informação interna.
03:10
They knew all the bits and bites
66
190260
2000
Eles sabiam todos os bits e bites
03:12
that they had to attack.
67
192260
2000
que teriam de atacar.
03:14
They probably even know the shoe size of the operator.
68
194260
3000
Eles sabiam provavelmente o número do sapato do operator.
03:17
So they know everything.
69
197260
2000
Eles sabem tudo.
03:19
And if you have heard that the dropper of Stuxnet
70
199260
3000
E se ouviram dizer que o disseminador do Stuxnet
03:22
is complex and high-tech,
71
202260
2000
é complexo e alta-tecnologia,
03:24
let me tell you this:
72
204260
2000
deixem-me que lhes diga:
03:26
the payload is rocket science.
73
206260
2000
a carga é ainda mais complexa.
03:28
It's way above everything
74
208260
2000
É muito mais do que qualquer
03:30
that we have ever seen before.
75
210260
3000
outra coisa que tenhamos visto antes.
03:33
Here you see a sample of this actual attack code.
76
213260
3000
Aqui podem ver uma amostra do código de ataque.
03:36
We are talking about --
77
216260
2000
Estamos a falar de cerca -
03:38
around about 15,000 lines of code.
78
218260
3000
cerca de 15.000 linhas de código.
03:41
Looks pretty much like old-style assembly language.
79
221260
3000
Parecem-se bastante com linguagem assembly da velha guarda.
03:44
And I want to tell you how we were able
80
224260
2000
E queria dizer-vos como fomos capazes
03:46
to make sense out of this code.
81
226260
2000
de decifrar este código.
03:48
So what we were looking for is, first of all, system function calls,
82
228260
3000
O que nós estávamos à procura acima de tudo eram invocações de funções do sistema
03:51
because we know what they do.
83
231260
2000
porque nós sabemos o que elas fazem.
03:53
And then we were looking for timers and data structures
84
233260
4000
Depois procurámos temporizadores e estruturas de dados
03:57
and trying to relate them to the real world --
85
237260
2000
e tentámos relacioná-las com o mundo real --
03:59
to potential real world targets.
86
239260
2000
com potenciais alvos do mundo real.
04:01
So we do need target theories
87
241260
3000
Então precisámos de teorias de alvos
04:04
that we can prove or disprove.
88
244260
3000
que depois podemos provar ou não.
04:07
In order to get target theories,
89
247260
2000
De modo a obter as teorias dos alvos,
04:09
we remember
90
249260
2000
lembramo-nos
04:11
that it's definitely hardcore sabotage,
91
251260
2000
que é definitivamente sabotagem hardcore.
04:13
it must be a high-value target
92
253260
2000
Deve ser um alvo de grande valor,
04:15
and it is most likely located in Iran,
93
255260
3000
e a sua localização mais provável é no Irão,
04:18
because that's where most of the infections had been reported.
94
258260
4000
porque é onde a maioria das infecções foram reportadas.
04:22
Now you don't find several thousand targets in that area.
95
262260
3000
Não encontrámos vários milhares de alvos naquela área.
04:25
It basically boils down
96
265260
2000
Resume-se apenas
04:27
to the Bushehr nuclear power plant
97
267260
2000
à central nuclear de Bushehr
04:29
and to the Natanz fuel enrichment plant.
98
269260
2000
e à central de enriquecimento de combustíveis de Natanz.
04:31
So I told my assistant,
99
271260
2000
Por isso eu disse ao meu assistente:
04:33
"Get me a list of all centrifuge and power plant experts from our client base."
100
273260
3000
"Traga-me uma lista de todos os peritos em centrifugadoras e centrais de energia da nossa base de clientes."
04:36
And I phoned them up and picked their brain
101
276260
2000
Eu telefonei-lhes e tentei compreender como pensavam
04:38
in an effort to match their expertise
102
278260
2000
num esforço para combinar o seu conhecimento
04:40
with what we found in code and data.
103
280260
3000
com a que encontrámos no código e nos dados.
04:43
And that worked pretty well.
104
283260
2000
E funcionou muito bem.
04:45
So we were able to associate
105
285260
2000
Por isso conseguimos associar
04:47
the small digital warhead
106
287260
2000
a mais pequena bomba digital
04:49
with the rotor control.
107
289260
2000
com o controlador do rotor.
04:51
The rotor is that moving part within the centrifuge,
108
291260
3000
O rotor é aquela parte dentro da centrifugador que se mexe,
04:54
that black object that you see.
109
294260
2000
o objecto preto que vêem.
04:56
And if you manipulate the speed of this rotor,
110
296260
3000
E se manipularem a velocidade deste rotor,
04:59
you are actually able to crack the rotor
111
299260
2000
são mesmo capazes de o partir,
05:01
and eventually even have the centrifuge explode.
112
301260
4000
e eventualmente fazer com que a centrifugadora expluda.
05:05
What we also saw
113
305260
2000
O que também vimos
05:07
is that the goal of the attack
114
307260
2000
é que o objectivo do ataque
05:09
was really to do it slowly and creepy --
115
309260
3000
era fazê-lo devagar e sorrateiramente --
05:12
obviously in an effort
116
312260
2000
obviamente numa tentativa
05:14
to drive maintenance engineers crazy,
117
314260
3000
de levar os engenheiros de manutenção à loucura,
05:17
that they would not be able to figure this out quickly.
118
317260
3000
pois não seriam capazes de descobrir a origem do problema rapidamente.
05:20
The big digital warhead -- we had a shot at this
119
320260
3000
A bomba digital maior -- decidimos atacá-la
05:23
by looking very closely
120
323260
2000
olhando muito atentamente
05:25
at data and data structures.
121
325260
2000
para os dados e as estruturas de dados.
05:27
So for example, the number 164
122
327260
2000
Por exemplo, o número 164
05:29
really stands out in that code;
123
329260
2000
destaca-se bastante no código;
05:31
you can't overlook it.
124
331260
2000
não se pode desprezar.
05:33
I started to research scientific literature
125
333260
2000
Comecei a pesquisar literatura científica
05:35
on how these centrifuges
126
335260
2000
sobre como estes centrifugadores
05:37
are actually built in Natanz
127
337260
2000
são realmente construídos em Natanz
05:39
and found they are structured
128
339260
2000
e descobri que eles são estruturados
05:41
in what is called a cascade,
129
341260
2000
naquilo a que se chama uma cascata,
05:43
and each cascade holds 164 centrifuges.
130
343260
4000
e cada cascata contém 164 centrifugadoras.
05:47
So that made sense, that was a match.
131
347260
2000
Portanto isso fazia sentido, era uma ligação.
05:49
And it even got better.
132
349260
2000
E ficou ainda melhor.
05:51
These centrifuges in Iran
133
351260
2000
Estas centrifugadoras no Irão
05:53
are subdivided into 15, what is called, stages.
134
353260
4000
estão subdivididos em 15 chamados estágios.
05:57
And guess what we found in the attack code?
135
357260
2000
E advinhem o que é que encontrámos no código do ataque?
05:59
An almost identical structure.
136
359260
2000
Uma estrutura quase idêntica.
06:01
So again, that was a real good match.
137
361260
3000
O que era novamente uma boa ligação.
06:04
And this gave us very high confidence for what we were looking at.
138
364260
3000
E isto deu-nos muita confiança no que estávamos a fazer.
06:07
Now don't get me wrong here, it didn't go like this.
139
367260
3000
Não me interpretem mal, não foi assim que aconteceu.
06:10
These results have been obtained
140
370260
3000
Estes resultados foram obtidos
06:13
over several weeks of really hard labor.
141
373260
3000
durante várias semanas de árduo trabalho.
06:16
And we often went into just a dead end
142
376260
3000
E muitas vezes bloqueávamos
06:19
and had to recover.
143
379260
2000
e tínhamos que recuperar.
06:21
Anyway, so we figured out
144
381260
2000
Continuando, nós descobrimos
06:23
that both digital warheads
145
383260
2000
que ambas as bombas digitais
06:25
were actually aiming at one and the same target,
146
385260
2000
estavam de facto a apontar ao mesmo alvo,
06:27
but from different angles.
147
387260
2000
mas de diferentes ângulos.
06:29
The small warhead is taking one cascade,
148
389260
3000
A bomba mais pequena pega numa cascata,
06:32
and spinning up the rotors and slowing them down,
149
392260
3000
e interfere com os rotores e abranda-os,
06:35
and the big warhead
150
395260
2000
e a bomba maior
06:37
is talking to six cascades
151
397260
2000
interfere com seis cascatas
06:39
and manipulating valves.
152
399260
2000
manipulando válvulas.
06:41
So in all, we are very confident
153
401260
2000
Por isso, no geral, estavamos muito confiantes
06:43
that we have actually determined what the target is.
154
403260
2000
que tínhamos descoberto qual era o alvo.
06:45
It is Natanz, and it is only Natanz.
155
405260
3000
É Natanz, e é apenas Natanz.
06:48
So we don't have to worry
156
408260
2000
Por isso não nos temos de preocupar
06:50
that other targets
157
410260
2000
que outros alvos
06:52
might be hit by Stuxnet.
158
412260
2000
possam ser atingidos pelo Stuxnet.
06:54
Here's some very cool stuff that we saw --
159
414260
3000
Aqui estão umas coisas muito fixes que vímos --
06:57
really knocked my socks off.
160
417260
2000
que me deixaram perplexo.
06:59
Down there is the gray box,
161
419260
2000
Aqui em baixo está a caixa cinzenta,
07:01
and on the top you see the centrifuges.
162
421260
3000
e no topo vêem os centrifugadores.
07:04
Now what this thing does
163
424260
2000
O que esta coisa faz
07:06
is it intercepts the input values from sensors --
164
426260
3000
é interceptar os valores devolvidos pelos sensores --
07:09
so for example, from pressure sensors
165
429260
2000
como, por exemplo, pelos sensores de pressão
07:11
and vibration sensors --
166
431260
2000
e pelos sensores de vibração -
07:13
and it provides legitimate program code,
167
433260
3000
e fornece ao código legítimo,
07:16
which is still running during the attack,
168
436260
2000
que ainda está a correr durante o ataque,
07:18
with fake input data.
169
438260
2000
com dados falsos dos sensores.
07:20
And as a matter of fact, this fake input data
170
440260
2000
Aliás, estes dados falsos de entrada
07:22
is actually prerecorded by Stuxnet.
171
442260
3000
até já vêm pré-configurados pelo Stuxnet.
07:25
So it's just like from the Hollywood movies
172
445260
2000
Por isso é como nos filmes de Hollywood
07:27
where during the heist,
173
447260
2000
em que durante o assalto,
07:29
the observation camera is fed with prerecorded video.
174
449260
3000
a câmara de grande plano é alimentada com vídeo gravado previamente.
07:32
That's cool, huh?
175
452260
2000
É fixe, não é?
07:35
The idea here is obviously
176
455260
2000
A ideia aqui obviamente
07:37
not only to fool the operators in the control room.
177
457260
3000
não é só enganar os operadores na sala de controlo.
07:40
It actually is much more dangerous and aggressive.
178
460260
4000
É na verdade muito mais perigosa e agressiva.
07:44
The idea
179
464260
2000
A ideia
07:46
is to circumvent a digital safety system.
180
466260
3000
é ultrapassar um sistema de segurança digital.
07:50
We need digital safety systems
181
470260
2000
Precisamos de sistemas de segurança digitais
07:52
where a human operator could not act quick enough.
182
472260
3000
para situações em que um operador humano não reage atempadamente.
07:55
So for example, in a power plant,
183
475260
2000
Por exemplo, numa central eléctrica,
07:57
when your big steam turbine gets too over speed,
184
477260
3000
quando uma grande turbina a vapor acelera demais,
08:00
you must open relief valves within a millisecond.
185
480260
3000
devem ser abertas válvulas de compensação num milisegundo.
08:03
Obviously, this cannot be done by a human operator.
186
483260
3000
Obviamente que isto não pode ser feito por um operador humano.
08:06
So this is where we need digital safety systems.
187
486260
2000
É aqui que precisamos de sistemas de defesa digitais.
08:08
And when they are compromised,
188
488260
2000
E quando eles são comprometidos,
08:10
then real bad things can happen.
189
490260
3000
coisas muito más podem acontecer.
08:13
Your plant can blow up.
190
493260
2000
A fábrica pode explodir.
08:15
And neither your operators nor your safety system will notice it.
191
495260
3000
E nem os operadores nem o sistema de segurança dariam conta.
08:18
That's scary.
192
498260
2000
É assustador.
08:20
But it gets worse.
193
500260
2000
Mas ainda se torna pior.
08:22
And this is very important, what I'm going to say.
194
502260
3000
E isto é muito importante, o que eu vou dizer.
08:25
Think about this:
195
505260
2000
Pensem nisto.
08:27
this attack is generic.
196
507260
3000
O ataque é genérico.
08:30
It doesn't have anything to do, in specifics,
197
510260
4000
Não tem nada que ver especificamente
08:34
with centrifuges,
198
514260
2000
com centrifugadores,
08:36
with uranium enrichment.
199
516260
3000
com enriquecimento de urânio.
08:39
So it would work as well, for example,
200
519260
3000
Por isso, funcionaria bem, por exemplo,
08:42
in a power plant
201
522260
2000
numa central eléctrica
08:44
or in an automobile factory.
202
524260
3000
ou numa fábrica de automóveis.
08:47
It is generic.
203
527260
2000
É genérico.
08:49
And you don't have -- as an attacker --
204
529260
2000
E não é necessário -- como atacante --
08:51
you don't have to deliver this payload
205
531260
3000
depositar a carga
08:54
by a USB stick,
206
534260
2000
via uma drive USB,
08:56
as we saw it in the case of Stuxnet.
207
536260
2000
como vimos no caso do Stuxnet.
08:58
You could also use conventional worm technology for spreading.
208
538260
3000
Poderão ser usados também métodos convencionais de disseminação viral.
09:01
Just spread it as wide as possible.
209
541260
3000
Simplesmente espalha-se ao máximo possível.
09:04
And if you do that,
210
544260
2000
E se isso for feito,
09:06
what you end up with
211
546260
2000
o que se obtém
09:08
is a cyber weapon of mass destruction.
212
548260
5000
é uma cyber-arma de destruição em massa.
09:14
That's the consequence
213
554260
2000
Esta é a consequência
09:16
that we have to face.
214
556260
3000
com que temos de lidar.
09:19
So unfortunately,
215
559260
3000
Por isso, infelizmente,
09:22
the biggest number of targets for such attacks
216
562260
3000
a maioria dos alvos de tais ataques
09:25
are not in the Middle East.
217
565260
2000
não está no Médio Oriente.
09:27
They're in the United States and Europe and in Japan.
218
567260
3000
Está nos Estados Unidos, Europa e Japão.
09:30
So all of the green areas,
219
570260
2000
Todas estas áreas verdes,
09:32
these are your target-rich environments.
220
572260
3000
são os ambientes ricos em alvos.
09:35
We have to face the consequences,
221
575260
3000
Temos de enfrentar as consequências,
09:38
and we better start to prepare right now.
222
578260
3000
devemos começar a preparar-nos agora.
09:41
Thanks.
223
581260
2000
Obrigado.
09:43
(Applause)
224
583260
6000
(Aplausos)
09:49
Chris Anderson: I've got a question.
225
589260
2000
Chris Anderson: Eu tenho uma pergunta.
09:53
Ralph, it's been quite widely reported
226
593260
2000
Ralph, tem sido bastante noticiado
09:55
that people assume that Mossad
227
595260
2000
que as pessoas assumem que a Mossad
09:57
is the main entity behind this.
228
597260
2000
é a principal entidade por detrás disto.
09:59
Is that your opinion?
229
599260
3000
Partilhas desta opinião?
10:02
Ralph Langner: Okay, you really want to hear that?
230
602260
2000
Ralph Langner : Okay, queres mesmo ouvir isso?
10:04
Yeah. Okay.
231
604260
2000
Okay.
10:06
My opinion is that the Mossad is involved,
232
606260
3000
A minha opinião é que a Mossad está envolvida,
10:09
but that the leading force is not Israel.
233
609260
3000
mas que a principal força não é Israel.
10:12
So the leading force behind that
234
612260
2000
A principal força por detrás disto
10:14
is the cyber superpower.
235
614260
3000
é a superpotência tecnológica.
10:17
There is only one,
236
617260
2000
Há apenas uma,
10:19
and that's the United States --
237
619260
2000
que são os Estados Unidos -
10:21
fortunately, fortunately.
238
621260
2000
felizmente, felizmente.
10:23
Because otherwise,
239
623260
2000
Porque de outro modo
10:25
our problems would even be bigger.
240
625260
3000
os nossos problemas seriam ainda maiores.
10:28
CA: Thank you for scaring the living daylights out of us. Thank you, Ralph.
241
628260
4000
CA: Obrigado por nos assustares de morte. Obrigado Ralph.
10:32
(Applause)
242
632260
2000
(Aplausos)
Sobre este site

Este sítio irá apresentar-lhe vídeos do YouTube que são úteis para a aprendizagem do inglês. Verá lições de inglês ensinadas por professores de primeira linha de todo o mundo. Faça duplo clique nas legendas em inglês apresentadas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas deslocam-se em sincronia com a reprodução do vídeo. Se tiver quaisquer comentários ou pedidos, por favor contacte-nos utilizando este formulário de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7