Ralph Langner: Cracking Stuxnet, a 21st-century cyber weapon

311,078 views ・ 2011-03-29

TED


Proszę kliknąć dwukrotnie na poniższe angielskie napisy, aby odtworzyć film.

Tłumaczenie: Oskar Kocoł Korekta: Wojciech Borucki
00:15
The idea behind the Stuxnet computer worm
0
15260
3000
Idea kryjąca się za robakiem komputerowym Stuxnet
00:18
is actually quite simple.
1
18260
2000
jest w zasadzie bardzo prosta.
00:20
We don't want Iran to get the bomb.
2
20260
3000
Nie chcemy, aby Iran wyprodukował bombę atomową.
00:23
Their major asset for developing nuclear weapons
3
23260
3000
Ich centralnym ośrodkiem prowadzącym badania
00:26
is the Natanz uranium enrichment facility.
4
26260
4000
jest Natanz, gdzie wzbogaca się uran.
00:30
The gray boxes that you see,
5
30260
2000
Te szare skrzynki, które widzicie,
00:32
these are real-time control systems.
6
32260
3000
to systemy kontrolujące w czasie rzeczywistym.
00:35
Now if we manage to compromise these systems
7
35260
3000
Kiedy przejmiemy kontrolę nad systemami,
00:38
that control drive speeds and valves,
8
38260
3000
które monitorują szybkości i zawory,
00:41
we can actually cause a lot of problems
9
41260
3000
możemy spowodować wiele problemów
00:44
with the centrifuge.
10
44260
2000
z wirówkami.
00:46
The gray boxes don't run Windows software;
11
46260
2000
Szare skrzynki, nie działają w środowisku Windows;
00:48
they are a completely different technology.
12
48260
3000
używają całkowicie innej technologii.
00:51
But if we manage
13
51260
2000
Ale jeśli zdołamy,
00:53
to place a good Windows virus
14
53260
3000
umieścić dobrego Windowsowskiego wirusa
00:56
on a notebook
15
56260
2000
na laptopie
00:58
that is used by a maintenance engineer
16
58260
2000
którego używa inżynier obsługujący te maszyny
01:00
to configure this gray box,
17
60260
3000
aby skonfigurować tą szarą skrzynkę
01:03
then we are in business.
18
63260
2000
wtedy, jesteśmy w domu.
01:05
And this is the plot behind Stuxnet.
19
65260
3000
I taki spisek kryje się za Stuxnet'em.
01:08
So we start with a Windows dropper.
20
68260
5000
Zaczynamy z "zarażaczem" na Windowsie.
01:13
The payload goes onto the gray box,
21
73260
3000
Blok danych idzie do szarego pudła,
01:16
damages the centrifuge,
22
76260
2000
uszkadzaja wirówki,
01:18
and the Iranian nuclear program is delayed --
23
78260
2000
irański program atomowy jest opóźniony --
01:20
mission accomplished.
24
80260
2000
misja wykonana.
01:22
That's easy, huh?
25
82260
2000
Proste, nie?
01:24
I want to tell you how we found that out.
26
84260
3000
I chciałbym wam opowiedzieć, jak do tego doszliśmy.
01:27
When we started our research on Stuxnet six months ago,
27
87260
3000
Kiedy rozpoczęliśmy nasze badania nad Stuxnet sześć miesięcy temu,
01:30
it was completely unknown what the purpose of this thing was.
28
90260
3000
nie mieliśmy zielonego pojęcia jaki był cel tego wirusa.
01:33
The only thing that was known
29
93260
2000
Jedyna rzecz, o która była wiadoma,
01:35
is it's very, very complex on the Windows part, the dropper part,
30
95260
3000
to bardzo, bardzo złożona część Windows'owska, część zarażająca,
01:38
used multiple zero-day vulnerabilities.
31
98260
3000
która używała wielokrotnych zero-day'owych słabości . [ataki na luki w systemie już po ich ujawnieniu]
01:41
And it seemed to want to do something
32
101260
3000
Wyglądało na to, że robak, chce coś zrobić
01:44
with these gray boxes, these real-time control systems.
33
104260
2000
ze tymi szarymi skrzynkami, tymi systemami kontroli czasu rzeczywistego.
01:46
So that got our attention,
34
106260
2000
To przyciągnęło naszą uwagę,
01:48
and we started a lab project
35
108260
2000
i zaczęliśmy projekt w laboratorium,
01:50
where we infected our environment with Stuxnet
36
110260
4000
gdzie zainfekowaliśmy nasze środowisko Stuxnet'em,
01:54
and checked this thing out.
37
114260
2000
i sprawdzaliśmy, co się dzieje.
01:56
And then some very funny things happened.
38
116260
3000
Wydarzyła się bardzo zabawna rzecz.
01:59
Stuxnet behaved like a lab rat
39
119260
3000
Stuxnet zachowywał się jak mysz laboratoryjna,
02:02
that didn't like our cheese --
40
122260
3000
która nie lubiła naszego sera --
02:05
sniffed, but didn't want to eat.
41
125260
2000
obwąchiwała go, ale nie chciała go zjeść.
02:07
Didn't make sense to me.
42
127260
2000
To nie miało dla mnie sensu.
02:09
And after we experimented with different flavors of cheese,
43
129260
3000
Kiedy już wypróbowaliśmy, różne rodzaje sera,
02:12
I realized, well, this is a directed attack.
44
132260
4000
zrozumiałem, że atak jest dokładnie sprecyzowany.
02:16
It's completely directed.
45
136260
2000
Jest on zupełnie przemyślany.
02:18
The dropper is prowling actively
46
138260
2000
Roznosiciel staje się aktywny
02:20
on the gray box
47
140260
2000
w szarej skrzynce,
02:22
if a specific configuration is found,
48
142260
3000
jeśli znajdzie specyficzną konfigurację,
02:25
and even if the actual program code that it's trying to infect
49
145260
4000
nawet jeśli rzeczywiście program, który ma być zainfekowany,
02:29
is actually running on that target.
50
149260
2000
w danym momencie pracuje nad tym celem.
02:31
And if not, Stuxnet does nothing.
51
151260
3000
Jeśli jej nie ma, Stuxnet nic nie robi.
02:34
So that really got my attention,
52
154260
2000
To naprawdę przyciągnęło moją uwagę,
02:36
and we started to work on this
53
156260
2000
i zaczęliśmy pracować nad tym,
02:38
nearly around the clock,
54
158260
2000
niemal 24 godziny na dobę,
02:40
because I thought, "Well, we don't know what the target is.
55
160260
3000
ponieważ nie wiedzieliśmy, jaki jest cel.
02:43
It could be, let's say for example,
56
163260
2000
Mogłyby to być, powiedzmy,
02:45
a U.S. power plant,
57
165260
2000
elektrownia w Stanach Zjednoczonych,
02:47
or a chemical plant in Germany.
58
167260
2000
lub fabryka chemiczna w Niemczech.
02:49
So we better find out what the target is soon."
59
169260
3000
Więc lepiej byłoby, gdybyśmy szybko dowiedzieli się jaki jest cel.
02:52
So we extracted and decompiled
60
172260
2000
Wyodrębniliśmy i zdekompilowaliśmy,
02:54
the attack code,
61
174260
2000
kod źródłowy odpowiedzialny za atak,
02:56
and we discovered that it's structured in two digital bombs --
62
176260
3000
i odkryliśmy, że jego budowa składa się z dwóch cyfrowych bomb --
02:59
a smaller one and a bigger one.
63
179260
3000
mniejszej i większej.
03:02
And we also saw that they are very professionally engineered
64
182260
4000
Widzieliśmy też, że są niezwykle profesjonalnie zaprojektowane
03:06
by people who obviously had all insider information.
65
186260
4000
z pewnością przez ludzi, którzy mieli wszystkie poufne informacje.
03:10
They knew all the bits and bites
66
190260
2000
Znali precyzyjnie wszystkie słabe punkty,
03:12
that they had to attack.
67
192260
2000
w które musieli zaatakować.
03:14
They probably even know the shoe size of the operator.
68
194260
3000
Prawdopodobnie znali nawet numer buta operatora.
03:17
So they know everything.
69
197260
2000
Wiedzieli dosłownie wszystko.
03:19
And if you have heard that the dropper of Stuxnet
70
199260
3000
Jeśli słyszeliście, że program instalujący Stuxnet
03:22
is complex and high-tech,
71
202260
2000
jest skomplikowany i zaawansowany;
03:24
let me tell you this:
72
204260
2000
powiem to w ten sposób:
03:26
the payload is rocket science.
73
206260
2000
jego blok danych to technologia rakietowa.
03:28
It's way above everything
74
208260
2000
To było ponad wszystkim,
03:30
that we have ever seen before.
75
210260
3000
co do tej pory widzieliśmy.
03:33
Here you see a sample of this actual attack code.
76
213260
3000
Widzicie tutaj przykład tego kodu.
03:36
We are talking about --
77
216260
2000
Mówimy tu o --
03:38
around about 15,000 lines of code.
78
218260
3000
około 15 000 wersów kodu.
03:41
Looks pretty much like old-style assembly language.
79
221260
3000
Wygląda jak starodawny język symboliczny.
03:44
And I want to tell you how we were able
80
224260
2000
Chcę opowiedzieć wam, w jaki sposób byliśmy w stanie
03:46
to make sense out of this code.
81
226260
2000
wyciągnąć sens z tego kodu.
03:48
So what we were looking for is, first of all, system function calls,
82
228260
3000
Więc przede wszystkim czego szukaliśmy to wywołania funkcji systemu,
03:51
because we know what they do.
83
231260
2000
ponieważ wiemy, co one robią.
03:53
And then we were looking for timers and data structures
84
233260
4000
Następnie skupiamy się na strukturach czasu i danych
03:57
and trying to relate them to the real world --
85
237260
2000
i próbujemy odnieść je do rzeczywistego świata --
03:59
to potential real world targets.
86
239260
2000
do potencjalnych celów na ziemi.
04:01
So we do need target theories
87
241260
3000
Potrzebujemy teorii na temat celów,
04:04
that we can prove or disprove.
88
244260
3000
które możemy potwierdzić, lub odrzucić.
04:07
In order to get target theories,
89
247260
2000
Aby otrzymać teorie na temat celów,
04:09
we remember
90
249260
2000
pamiętaliśmy,
04:11
that it's definitely hardcore sabotage,
91
251260
2000
że jest to niewątpliwie poważny sabotaż
04:13
it must be a high-value target
92
253260
2000
i musi być bardzo wartościowym celem,
04:15
and it is most likely located in Iran,
93
255260
3000
najprawdopodobniej położony w Iranie,
04:18
because that's where most of the infections had been reported.
94
258260
4000
ponieważ tam została zgłoszona większość infekcji.
04:22
Now you don't find several thousand targets in that area.
95
262260
3000
Teraz, nie znajdziesz w tamtej okolicy kilku tysięcy takich miejsc.
04:25
It basically boils down
96
265260
2000
Praktycznie wszystko ogranicza się
04:27
to the Bushehr nuclear power plant
97
267260
2000
do elektrowni atomowej w Buszehr
04:29
and to the Natanz fuel enrichment plant.
98
269260
2000
i ośrodka wzbogacania paliwa w Natanz.
04:31
So I told my assistant,
99
271260
2000
Powiedziałem mojemu asystentowi:
04:33
"Get me a list of all centrifuge and power plant experts from our client base."
100
273260
3000
"Znajdź dla mnie listę wszystkich specjalistów ds. wirówek i elektrowni z bazy naszego klienta."
04:36
And I phoned them up and picked their brain
101
276260
2000
Zadzwoniłem do nich i skorzystałem z ich wiedzy
04:38
in an effort to match their expertise
102
278260
2000
w celu połączenia ich ekspertyzy
04:40
with what we found in code and data.
103
280260
3000
z tym, co znaleźliśmy w kodzie źródłowym i danych.
04:43
And that worked pretty well.
104
283260
2000
I to zadziałało całkiem nieźle.
04:45
So we were able to associate
105
285260
2000
Byliśmy w stanie połączyć
04:47
the small digital warhead
106
287260
2000
tę małą cyfrową głowicę
04:49
with the rotor control.
107
289260
2000
z kontrolerem wirników.
04:51
The rotor is that moving part within the centrifuge,
108
291260
3000
Wirnik jest poruszającą się częścią wewnątrz wirówki,
04:54
that black object that you see.
109
294260
2000
jest to ten czarny przedmiot.
04:56
And if you manipulate the speed of this rotor,
110
296260
3000
Jeżeli pogrzebie się prędkością tego wirnika
04:59
you are actually able to crack the rotor
111
299260
2000
w zasadzie można go zniszczyć
05:01
and eventually even have the centrifuge explode.
112
301260
4000
i w końcu nawet sprawić, że wirówka wybuchnie.
05:05
What we also saw
113
305260
2000
Co również dostrzegliśmy
05:07
is that the goal of the attack
114
307260
2000
to, że celem ataku,
05:09
was really to do it slowly and creepy --
115
309260
3000
jest przeprowadzenie go powoli i przerażająco --
05:12
obviously in an effort
116
312260
2000
oczywiście w celu,
05:14
to drive maintenance engineers crazy,
117
314260
3000
doprowadzenia do szaleństwa serwisantów,
05:17
that they would not be able to figure this out quickly.
118
317260
3000
aby nie mogli szybko tego rozgryźć.
05:20
The big digital warhead -- we had a shot at this
119
320260
3000
Duża cyfrowa bomba-- próbowaliśmy
05:23
by looking very closely
120
323260
2000
patrzyć bardzo starannie
05:25
at data and data structures.
121
325260
2000
na dane i struktury danych.
05:27
So for example, the number 164
122
327260
2000
I na przykład, numer 164
05:29
really stands out in that code;
123
329260
2000
bardzo wyróżnia się od reszty kodu;
05:31
you can't overlook it.
124
331260
2000
nie możesz go przegapić.
05:33
I started to research scientific literature
125
333260
2000
Zacząłem przeszukiwać literaturę naukową
05:35
on how these centrifuges
126
335260
2000
w jaki sposób wirówki,
05:37
are actually built in Natanz
127
337260
2000
zostały wybudowane w Natanz,
05:39
and found they are structured
128
339260
2000
i znalazłem, że są ułożone
05:41
in what is called a cascade,
129
341260
2000
w tak zwaną kaskadę
05:43
and each cascade holds 164 centrifuges.
130
343260
4000
i każda kaskada zawiera 164 wirówki.
05:47
So that made sense, that was a match.
131
347260
2000
To miało sens, to był trop.
05:49
And it even got better.
132
349260
2000
Ale szło nam jeszcze lepiej.
05:51
These centrifuges in Iran
133
351260
2000
Wirówki w Iranie
05:53
are subdivided into 15, what is called, stages.
134
353260
4000
są podzielone na 15 tzw. etapów.
05:57
And guess what we found in the attack code?
135
357260
2000
I zgadnijcie, co znaleźliśmy w kodzie?
05:59
An almost identical structure.
136
359260
2000
Prawie identyczną strukturę.
06:01
So again, that was a real good match.
137
361260
3000
Jeszcze raz, wpadliśmy na znakomity trop.
06:04
And this gave us very high confidence for what we were looking at.
138
364260
3000
Dało nam to bardzo dobry obraz tego, nad czym pracowaliśmy.
06:07
Now don't get me wrong here, it didn't go like this.
139
367260
3000
Nie zrozumcie mnie źle, to nie działo się tak łatwo.
06:10
These results have been obtained
140
370260
3000
Wszystkie nasze wyniki otrzymaliśmy
06:13
over several weeks of really hard labor.
141
373260
3000
dzięki kilku tygodniowej, naprawdę ciężkiej pracy.
06:16
And we often went into just a dead end
142
376260
3000
Często dochodziliśmy do ślepego zaułku
06:19
and had to recover.
143
379260
2000
u musieliśmy wracać.
06:21
Anyway, so we figured out
144
381260
2000
W każdym razie, odkryliśmy,
06:23
that both digital warheads
145
383260
2000
że obydwie cyfrowe bomby/głowice
06:25
were actually aiming at one and the same target,
146
385260
2000
są skierowane na jeden i ten sam cel,
06:27
but from different angles.
147
387260
2000
ale pod różnymi kątami.
06:29
The small warhead is taking one cascade,
148
389260
3000
Mała głowica uderzała w kaskadę,
06:32
and spinning up the rotors and slowing them down,
149
392260
3000
przyspieszała i zwalniała wirniki,
06:35
and the big warhead
150
395260
2000
zaś duża
06:37
is talking to six cascades
151
397260
2000
brała na cel sześć kaskad
06:39
and manipulating valves.
152
399260
2000
i manipulowała ich zaworami.
06:41
So in all, we are very confident
153
401260
2000
Więc generalnie byliśmy bardzo pewni,
06:43
that we have actually determined what the target is.
154
403260
2000
że znaleźliśmy jaki był cel.
06:45
It is Natanz, and it is only Natanz.
155
405260
3000
To był Natanz, i tylko Natanz.
06:48
So we don't have to worry
156
408260
2000
Nie musieliśmy się już martwić
06:50
that other targets
157
410260
2000
innymi prawdopodobnymi celami,
06:52
might be hit by Stuxnet.
158
412260
2000
w które mógłby uderzyć Stuxnet.
06:54
Here's some very cool stuff that we saw --
159
414260
3000
Tutaj natrafiliśmy na naprawdę niesamowite rzeczy --
06:57
really knocked my socks off.
160
417260
2000
dosłownie wyrwało mnie to z butów.
06:59
Down there is the gray box,
161
419260
2000
Tam na dole jest szara skrzynka,
07:01
and on the top you see the centrifuges.
162
421260
3000
na górze widzicie wirówki.
07:04
Now what this thing does
163
424260
2000
Zadanie robaka opiera się na
07:06
is it intercepts the input values from sensors --
164
426260
3000
przejęciu wartości z czujników --
07:09
so for example, from pressure sensors
165
429260
2000
na przykład z czujników ciśnienia,
07:11
and vibration sensors --
166
431260
2000
czy czujników drgań --
07:13
and it provides legitimate program code,
167
433260
3000
i dostarczeniu prawdziwemu systemowi,
07:16
which is still running during the attack,
168
436260
2000
który nadal działa podczas ataku,
07:18
with fake input data.
169
438260
2000
oszukane dane z czujników.
07:20
And as a matter of fact, this fake input data
170
440260
2000
Najlepsze jest to, że te lipne dane,
07:22
is actually prerecorded by Stuxnet.
171
442260
3000
były wcześniej nagrane przez Stuxnet.
07:25
So it's just like from the Hollywood movies
172
445260
2000
Dokładnie jak z hollywoodzkich filmów,
07:27
where during the heist,
173
447260
2000
gdzie podczas wybuchu,
07:29
the observation camera is fed with prerecorded video.
174
449260
3000
ujęcie kamery jest zastąpione nagranym wcześniej wideo.
07:32
That's cool, huh?
175
452260
2000
Niezłe, nie?
07:35
The idea here is obviously
176
455260
2000
Idea jest jasna,
07:37
not only to fool the operators in the control room.
177
457260
3000
nie tylko nabrać operatorów w dyspozytorni.
07:40
It actually is much more dangerous and aggressive.
178
460260
4000
W rzeczywistości jest o wiele bardziej agresywna i niebezpieczna.
07:44
The idea
179
464260
2000
Ideą jest
07:46
is to circumvent a digital safety system.
180
466260
3000
ominięcie wewnętrznego systemu bezpieczeństwa.
07:50
We need digital safety systems
181
470260
2000
Potrzebujemy cyfrowych systemów bezpieczeństwa,
07:52
where a human operator could not act quick enough.
182
472260
3000
kiedy reakcja operatora mogłaby być zbyt wolna.
07:55
So for example, in a power plant,
183
475260
2000
Na przykład w elektrowniach,
07:57
when your big steam turbine gets too over speed,
184
477260
3000
kiedy wielka turbina parowa zaczyna się kręcić za szybko,
08:00
you must open relief valves within a millisecond.
185
480260
3000
musisz otworzyć zawory w przeciągu milisekundy.
08:03
Obviously, this cannot be done by a human operator.
186
483260
3000
Oczywiście, człowiek nie jest w stanie tego zrobić.
08:06
So this is where we need digital safety systems.
187
486260
2000
Właśnie dlatego potrzebujemy komputerowych systemów bezpieczeństwa.
08:08
And when they are compromised,
188
488260
2000
Kiedy przestają działać,
08:10
then real bad things can happen.
189
490260
3000
mogą się wydarzyć naprawdę złe rzeczy.
08:13
Your plant can blow up.
190
493260
2000
Twoja elektrownia może wylecieć w powietrze.
08:15
And neither your operators nor your safety system will notice it.
191
495260
3000
Co więcej, ani twoi operatorzy, ani system bezpieczeństwa, nie zauważy tego.
08:18
That's scary.
192
498260
2000
To jest straszne.
08:20
But it gets worse.
193
500260
2000
Ale sprawy mogą mieć się o wiele gorzej.
08:22
And this is very important, what I'm going to say.
194
502260
3000
To co powiem jest bardzo ważne.
08:25
Think about this:
195
505260
2000
Pomyślcie o tym.
08:27
this attack is generic.
196
507260
3000
Ten atak jest ogólny.
08:30
It doesn't have anything to do, in specifics,
197
510260
4000
Nie musi być skierowany konkretnie
08:34
with centrifuges,
198
514260
2000
w wirówki,
08:36
with uranium enrichment.
199
516260
3000
we wzbogacanie uranu.
08:39
So it would work as well, for example,
200
519260
3000
Równie dobrze może działać np.
08:42
in a power plant
201
522260
2000
w elektrowni,
08:44
or in an automobile factory.
202
524260
3000
czy fabryce samochodów.
08:47
It is generic.
203
527260
2000
Bo jest ogólny.
08:49
And you don't have -- as an attacker --
204
529260
2000
Nie musisz -- jako atakujący --
08:51
you don't have to deliver this payload
205
531260
3000
nie musisz dostarczyć tych danych
08:54
by a USB stick,
206
534260
2000
na pamięci USB.
08:56
as we saw it in the case of Stuxnet.
207
536260
2000
tak jak to było w przypadku Stuxnet'u.
08:58
You could also use conventional worm technology for spreading.
208
538260
3000
Możesz użyć konwencjonalnych technologii do rozpowszechnienia robaka.
09:01
Just spread it as wide as possible.
209
541260
3000
I rozpowszechnić go tak szeroko, jak to możliwe.
09:04
And if you do that,
210
544260
2000
Jeśli to zrobisz,
09:06
what you end up with
211
546260
2000
to będziesz miał w rękach
09:08
is a cyber weapon of mass destruction.
212
548260
5000
cyberbroń masowego rażenia.
09:14
That's the consequence
213
554260
2000
To są konsekwencje,
09:16
that we have to face.
214
556260
3000
z którymi musimy się zmierzyć.
09:19
So unfortunately,
215
559260
3000
Niestety,
09:22
the biggest number of targets for such attacks
216
562260
3000
największa część celów ataków tego typu
09:25
are not in the Middle East.
217
565260
2000
nie znajduje się na Bliskim Wschodzie.
09:27
They're in the United States and Europe and in Japan.
218
567260
3000
One są w Stanach Zjednoczonych, Europie czy Japonii.
09:30
So all of the green areas,
219
570260
2000
Wszystkie te zielone obszary,
09:32
these are your target-rich environments.
220
572260
3000
są miejscami podatnymi na takie ataki.
09:35
We have to face the consequences,
221
575260
3000
Musimy zmierzyć się skutkami,
09:38
and we better start to prepare right now.
222
578260
3000
i najlepiej przygotować się na to już teraz:
09:41
Thanks.
223
581260
2000
Dziękuję.
09:43
(Applause)
224
583260
6000
(Brawa)
09:49
Chris Anderson: I've got a question.
225
589260
2000
Chris Anderson: Mam pytanie.
09:53
Ralph, it's been quite widely reported
226
593260
2000
Ralph, dosyć szeroko donoszono,
09:55
that people assume that Mossad
227
595260
2000
kiedy ludzie przypuszczali, że Mossad
09:57
is the main entity behind this.
228
597260
2000
był główną jednostką stojącą za tym.
09:59
Is that your opinion?
229
599260
3000
Jakie jest twoje zdanie?
10:02
Ralph Langner: Okay, you really want to hear that?
230
602260
2000
Ralph Langer: Okej, na prawdę chcesz to usłyszeć?
10:04
Yeah. Okay.
231
604260
2000
Dobra.
10:06
My opinion is that the Mossad is involved,
232
606260
3000
Moim zdaniem Mossad maczał w tym palce,
10:09
but that the leading force is not Israel.
233
609260
3000
ale głównodowodzącym nie jest Izrael.
10:12
So the leading force behind that
234
612260
2000
Dowodzącym jest tutaj
10:14
is the cyber superpower.
235
614260
3000
prawdziwy gigant komputerowy.
10:17
There is only one,
236
617260
2000
Taki istnieje tylko jeden --
10:19
and that's the United States --
237
619260
2000
są to Stany Zjednoczone --
10:21
fortunately, fortunately.
238
621260
2000
na szczęście, na szczęście.
10:23
Because otherwise,
239
623260
2000
Bo w innym przypadku,
10:25
our problems would even be bigger.
240
625260
3000
nasze kłopoty byłby o wiele większe.
10:28
CA: Thank you for scaring the living daylights out of us. Thank you, Ralph.
241
628260
4000
CA: Dziękuję za wyciągnięcie tej przerażającej sprawy na światło dzienne. Dziękuję Ralph.
10:32
(Applause)
242
632260
2000
(Brawa)
O tej stronie

Na tej stronie poznasz filmy z YouTube, które są przydatne do nauki języka angielskiego. Zobaczysz lekcje angielskiego prowadzone przez najlepszych nauczycieli z całego świata. Kliknij dwukrotnie na angielskie napisy wyświetlane na stronie każdego filmu, aby odtworzyć film od tego miejsca. Napisy przewijają się synchronicznie z odtwarzaniem filmu. Jeśli masz jakieś uwagi lub prośby, skontaktuj się z nami za pomocą formularza kontaktowego.

https://forms.gle/WvT1wiN1qDtmnspy7