BOX SET: 6 Minute English - 'The Future' English mega-class! 30 minutes of new vocabulary!

219,276 views ・ 2023-06-11

BBC Learning English


Proszę kliknąć dwukrotnie na poniższe angielskie napisy, aby odtworzyć film. Przetłumaczone napisy są tłumaczone maszynowo.

00:06
Hello. I'm Rob and this is 6 Minute
0
6080
2240
Cześć. Jestem Rob, a to jest 6-minutowy
00:08
English– the show that brings you an
1
8320
1680
angielski — program, który przedstawia
00:10
interesting topic, authentic listening
2
10000
2240
interesujący temat, autentyczną
00:12
practice and some vocabulary to help
3
12240
2560
praktykę słuchania i słownictwo, które pomoże
00:14
you improve your language skills.
4
14800
1680
Ci poprawić umiejętności językowe.
00:16
And hello, I'm Neil. Our topic today
5
16480
2400
I cześć, jestem Neil. Naszym dzisiejszym tematem
00:18
is transport. How do you think you'll
6
18880
2400
jest transport. Rob, jak myślisz, jak będziesz
00:21
be travelling to work in, say, 30
7
21280
2240
podróżować do pracy za, powiedzmy, 30
00:23
years' time, Rob?
8
23520
1120
lat?
00:24
Well, not only will homeworking
9
24640
1920
Cóż, nie tylko praca w domu
00:26
be more prevalent – that means
10
26560
1600
będzie bardziej rozpowszechniona – to znaczy
00:28
‘common’ – but I hope I won't be
11
28160
1520
„powszechna” – ale mam nadzieję, że nie będę
00:29
working in 30 years' time!
12
29680
1440
pracować za 30 lat!
00:31
Good answer! But if we look back
13
31840
2000
Dobra odpowiedź! Ale jeśli spojrzymy wstecz
00:33
and see how transport has changed
14
33840
1920
i zobaczymy, jak zmienił się transport
00:35
in the last 30 years, it makes you
15
35760
1760
w ciągu ostatnich 30 lat, można się
00:37
wonder what the future holds.
16
37520
1840
zastanawiać, co przyniesie przyszłość.
00:39
Yes, we've seen how air travel has
17
39360
2160
Tak, widzieliśmy, jak podróże lotnicze
00:41
become commonplace for
18
41520
1120
stały się powszechne dla
00:42
many people.
19
42640
960
wielu osób.
00:43
Commonplace means ‘not unusual’.
20
43600
1840
Powszechne oznacza „niezwykłe”.
00:46
And there's been the development of
21
46000
1360
Nastąpił rozwój
00:47
high-speed train travel. But the main
22
47360
2080
kolei dużych prędkości. Ale głównym
00:49
priority has been speed – going
23
49440
2080
priorytetem była szybkość – jedziesz
00:51
faster to make your journeys quicker.
24
51520
2240
szybciej, aby Twoje podróże były szybsze.
00:53
That's true, and we'll be discussing
25
53760
1600
To prawda, a wkrótce omówimy
00:55
some ideas for making transport
26
55360
1680
kilka pomysłów na przyspieszenie transportu
00:57
even faster soon.
27
57040
1760
.
00:58
But let's not waste any time and
28
58800
1920
Ale nie traćmy czasu i nie
01:00
speed on to today's quiz question.
29
60720
2240
śpieszmy się z dzisiejszym pytaniem quizowym.
01:02
Ah yes, time waits for no one, not
30
62960
2000
Ach tak, czas na nikogo nie czeka,
01:04
even you, Neil.
31
64960
1200
nawet na ciebie, Neil.
01:06
So, can you answer this question?
32
66160
2000
Czy możesz odpowiedzieć na to pytanie? W jakim kraju
01:08
According to Guinness World Records,
33
68160
1920
według Księgi Rekordów Guinnessa
01:10
in which country has the fastest
34
70080
2160
01:12
ever train been recorded?
35
72240
2000
zarejestrowano najszybszy pociąg w historii? Czy
01:14
Is it in… a) China, b) Japan, or,
36
74240
3520
to jest w… a) Chinach, b) Japonii, czy
01:17
c) France?
37
77760
960
c) Francji?
01:19
All these countries have fast
38
79760
1920
Wszystkie te kraje mają szybkie
01:21
trains but I've heard that Chinese
39
81680
1520
pociągi, ale słyszałem, że chińskie
01:23
trains go particularly fast. So, I'm going
40
83200
2240
pociągi jeżdżą wyjątkowo szybko. Więc
01:25
to say a) China.
41
85440
1680
powiem a) Chiny.
01:27
Well, you'll have to wait until the
42
87120
1680
Cóż, będziesz musiał poczekać do
01:28
end of the programme to see if
43
88800
1520
końca programu, aby zobaczyć, czy
01:30
you're right.
44
90320
1040
masz rację.
01:31
But let's talk more now about the
45
91360
1920
Ale porozmawiajmy teraz o
01:33
future of transport.
46
93280
1600
przyszłości transportu.
01:34
One development we hear much
47
94880
1520
Jednym z postępów, o którym wiele słyszymy,
01:36
about is automation.
48
96400
1760
jest automatyzacja.
01:38
Automation means ‘using
49
98160
1360
Automatyzacja oznacza „wykorzystywanie
01:39
machines to do work that humans
50
99520
2000
maszyn do wykonywania pracy, którą
01:41
normally do’ and in terms of
51
101520
1760
normalnie wykonują ludzie”, aw zakresie
01:43
transport this means driverless
52
103280
2080
transportu oznacza to pojazdy bez kierowcy
01:45
vehicles.
53
105360
720
. Już
01:46
It won't be too long before we
54
106080
1520
niedługo
01:47
become the passenger in a
55
107600
1200
staniemy się pasażerami
01:48
driverless car.
56
108800
880
samochodu bez kierowcy.
01:50
Scary! And the French train
57
110240
2160
Straszny! A francuska
01:52
engineering company, Alstom, is
58
112400
2000
firma inżynieryjna Alstom
01:54
planning to test automated freight
59
114400
1760
planuje przetestować zautomatyzowane
01:56
trains later this year.
60
116160
1360
pociągi towarowe jeszcze w tym roku.
01:57
The automated train prototype can
61
117520
2240
Prototyp zautomatyzowanego pociągu może
01:59
travel for about 100 kilometres
62
119760
2000
przejechać około 100 kilometrów
02:01
without driver intervention.
63
121760
1840
bez interwencji maszynisty.
02:03
A prototype is the first version of
64
123600
2320
Prototyp to pierwsza wersja
02:05
something which can be tested
65
125920
1840
czegoś, którą można przetestować,
02:07
before it is produced in large
66
127760
1520
zanim zostanie wyprodukowana w dużych
02:09
quantities.
67
129280
720
ilościach.
02:10
Of course, some trains are already
68
130000
1840
Oczywiście niektóre pociągi są już
02:11
driven by computers but there's
69
131840
1920
obsługiwane przez komputery, ale istnieje
02:13
an exciting plan to develop a form
70
133760
2320
ekscytujący plan opracowania formy
02:16
of driverless vehicle that could
71
136080
1840
pojazdu bez kierowcy, który mógłby
02:17
move you around at 1,123
72
137920
4240
poruszać się z prędkością 1123
02:22
kilometres per hour.
73
142160
1440
kilometrów na godzinę.
02:23
Come on, Neil. That sounds a bit
74
143600
1440
Chodź, Neilu. Brzmi to trochę
02:25
far-fetched – like flying cars that
75
145040
2240
naciąganie – jak latające samochody, które
02:27
we see in sci-fi movies – it's
76
147280
1840
widzimy w filmach science-fiction –
02:29
difficult to believe because
77
149120
1520
trudno w to uwierzyć, ponieważ
02:30
it's unlikely to happen.
78
150640
1440
jest to mało prawdopodobne.
02:32
Well, you say that but it's already
79
152080
1920
No cóż, tak mówisz, ale już jest
02:34
being tested in Nevada in the
80
154000
1440
testowany w Nevadzie w
02:35
USA and has a name – Hyperloop One.
81
155440
2880
USA i ma nazwę – Hyperloop One.
02:38
Tell me more!
82
158880
880
Powiedz mi więcej! Chodzi o to
02:39
The idea is, you get loaded into
83
159760
2080
, że zostajesz załadowany do
02:41
a pod then you're pushed through
84
161840
1840
kapsuły, a następnie przepchnięty przez
02:43
a metal tube at high speed, taking
85
163680
1920
metalową rurę z dużą prędkością, zabierając
02:45
you to your destination in minutes
86
165600
1920
Cię do miejsca docelowego w ciągu kilku minut,
02:47
rather than hours.
87
167520
1360
a nie godzin.
02:48
Anita Sengupta is the lead systems
88
168880
2400
Anita Sengupta jest głównym
02:51
engineer and says there's nothing
89
171280
1760
inżynierem systemów i mówi, że nie ma
02:53
scary about it…
90
173040
960
w tym nic strasznego…
02:54
The Hyperloop is a maglev train
91
174560
2240
Hyperloop to pociąg maglev
02:56
in a vacuum system – or in a vacuum
92
176800
2560
w systemie próżniowym – lub w
02:59
tube – and so you can also think of
93
179360
1680
rurze próżniowej – więc można o nim również myśleć
03:01
it as an aircraft flying at 200,000 feet
94
181040
2320
jak o samolocie lecącym na wysokości 200 000 stóp,
03:03
so people don't have any issue flying
95
183360
1280
więc ludzie nie Nie mam żadnego problemu z lataniem
03:04
in aeroplanes and people don't have
96
184640
1360
samolotami, a ludzie nie mają
03:06
any issue going in maglev trains.
97
186000
1360
problemu z podróżowaniem pociągami maglev.
03:07
This is simply combining the two
98
187360
1360
Jest to po prostu połączenie tych dwóch elementów
03:08
and allows you to be more
99
188720
880
i pozwala na większą
03:09
energy efficient.
100
189600
720
efektywność energetyczną.
03:11
So, Anita Sengupta explained the
101
191280
2720
Tak więc Anita Sengupta wyjaśniła
03:14
type of technology the Hyperloop used.
102
194000
2720
rodzaj technologii używanej przez Hyperloop.
03:17
First she mentioned maglev – that's
103
197280
2240
Najpierw wspomniała o maglevie – tak w
03:19
a short way of saying magnetic levitation.
104
199520
3040
skrócie można powiedzieć o lewitacji magnetycznej. Dzieje się tak,
03:22
It's when trains travel on magnetic
105
202560
2000
gdy pociągi poruszają się po
03:24
track rather than conventional rails.
106
204560
2560
torach magnetycznych, a nie po szynach konwencjonalnych.
03:27
And then she mentioned a vacuum
107
207120
1920
A potem wspomniała o
03:29
system - a vacuum is a space that
108
209040
2240
systemie próżniowym - próżnia to przestrzeń, z której usunięto
03:31
has had all the air and any other
109
211280
1200
całe powietrze i wszelkie inne
03:32
gases removed from it.
110
212480
1520
gazy.
03:34
So the tube these pods travel in have
111
214000
2240
Więc rura, w której poruszają się strąki,
03:36
no air in so there's no resistance.
112
216240
1760
nie ma powietrza, więc nie ma oporu.
03:38
And these technologies are more
113
218560
1520
Te technologie są bardziej
03:40
efficient and they save energy.
114
220080
1840
wydajne i oszczędzają energię.
03:41
Which is a good thing.
115
221920
1120
Co jest dobrą rzeczą.
03:43
This sounds like a great way to
116
223760
1360
To brzmi jak świetny sposób
03:45
travel but will it take off?
117
225120
2080
podróżowania, ale czy się sprawdzi?
03:47
Well, BBC technology correspondent
118
227200
2000
Cóż, korespondent BBC ds. technologii,
03:49
Rory Cellan-Jones isn't so sure.
119
229200
2480
Rory Cellan-Jones, nie jest tego taki pewien.
03:51
He thinks it will be quite challenging
120
231680
2080
Uważa on, że dość trudno będzie
03:53
to convince governments to allow
121
233760
1680
przekonać rządy, aby zezwoliły na
03:55
long metal tubes to be built on or
122
235440
2160
budowę długich metalowych rur na ziemi lub
03:57
below ground.
123
237600
880
pod ziemią.
03:58
But we have to try these new
124
238480
1600
Ale musimy wypróbować te nowe
04:00
technologies, Rob.
125
240080
1120
technologie, Rob.
04:01
If we didn't, we'd still be travelling
126
241200
2000
Gdybyśmy tego nie robili, nadal podróżowalibyśmy
04:03
around on horse and cart!
127
243200
1440
konno i wozem!
04:05
A good point, Neil – and we wouldn't
128
245200
2000
Słuszna uwaga, Neil – i nie
04:07
have been able to travel at the great
129
247200
1920
bylibyśmy w stanie podróżować z dużą
04:09
speeds mentioned in today's question.
130
249120
2560
prędkością, o której mowa w dzisiejszym pytaniu.
04:11
Now, earlier I asked you, according to
131
251680
1920
Wcześniej zapytałem was, według Księgi
04:13
Guinness World Records, in which
132
253600
1680
Rekordów Guinnessa, w jakim
04:15
country has the fastest ever train
133
255280
2400
kraju przejechał najszybszy pociąg w historii
04:17
travelled?
134
257680
880
? Czy
04:18
Is it in…a) China, b) Japan, or
135
258560
3440
to jest w… a) Chinach, b) Japonii, czy
04:22
c) France?
136
262000
1280
c) Francji?
04:23
And I said a) China.
137
263280
1920
I powiedziałem a) Chiny.
04:26
And you were wrong, Neil.
138
266320
1680
I myliłeś się, Niall.
04:28
China does have some very
139
268000
1600
Chiny mają kilka bardzo
04:29
fast trains.
140
269600
1200
szybkich pociągów.
04:30
But the fastest recorded train was a
141
270800
2080
Ale najszybszym zarejestrowanym pociągiem był
04:32
maglev from the Central Japan
142
272880
2160
maglev z Central Japan
04:35
Railway Company, which ran on a
143
275040
2000
Railway Company, który jechał po
04:37
test track at a speed of 603
144
277040
2320
torze testowym z prędkością 603
04:39
kilometres per hour.
145
279360
1120
kilometrów na godzinę.
04:40
Now that would make my
146
280480
1200
Teraz to sprawiłoby, że moje
04:41
commute to work very quick!
147
281680
1280
dojazdy do pracy byłyby bardzo szybkie!
04:43
OK, shall we recap some of the
148
283520
2000
OK, powtórzymy trochę
04:45
vocabulary we've heard today?
149
285520
1600
słownictwo, które dzisiaj usłyszeliśmy?
04:47
Starting with commonplace.
150
287120
2000
Zaczynając od pospolitości.
04:49
Yes. Which means ‘not unusual or often seen’.
151
289120
3840
Tak. Co oznacza „niezwykłe lub często spotykane”.
04:52
For example, 'free Wi-Fi in coffee shops
152
292960
2400
Na przykład „darmowe Wi-Fi w kawiarniach
04:55
is commonplace these days.'
153
295360
1520
jest obecnie powszechne”.
04:56
And very useful it is too!
154
296880
1360
I bardzo przydatne jest też!
04:58
Next we had automation, meaning
155
298800
2480
Następnie mieliśmy automatyzację, co oznacza
05:01
‘using a machine to do something
156
301280
1360
„wykorzystanie maszyny do zrobienia czegoś
05:02
instead of a human.’
157
302640
1360
zamiast człowieka”. „
05:04
'Automation in the car making
158
304000
1680
Automatyzacja w
05:05
industry has led to the loss of
159
305680
1600
przemyśle samochodowym doprowadziła do utraty
05:07
hundreds of jobs.'
160
307280
1520
setek miejsc pracy”.
05:08
Of course, when you build a new car
161
308800
1840
Oczywiście, kiedy buduje się nowy samochód,
05:10
you need to make a prototype – that's
162
310640
2320
trzeba zrobić prototyp – to
05:12
the first version of something which
163
312960
1920
pierwsza wersja czegoś, co
05:14
can be tested before it is produced in
164
314880
2000
można przetestować, zanim trafi do
05:16
large quantities.
165
316880
1280
masowej produkcji.
05:18
'The prototype of a new solar-powered
166
318160
2080
„Prototyp nowego roweru zasilanego energią słoneczną
05:20
bike has been so successful that it's
167
320240
2160
odniósł taki sukces, że
05:22
now going into mass-production.'
168
322400
1440
wchodzi teraz do masowej produkcji”.
05:24
Come on, Rob, that sounds a bit
169
324560
1440
Daj spokój, Rob, to brzmi trochę
05:26
far-fetched – and by that I mean ‘so
170
326000
2400
naciąganie – i przez to mam na myśli „tak
05:28
unbelievable it's unlikely to happen.’
171
328400
2480
niewiarygodne, że jest
05:30
Well, something people once thought
172
330880
2160
05:33
far-fetched is now a reality and that's
173
333040
2960
05:36
maglev – that's short for magnetic
174
336000
2320
mało prawdopodobne”.
05:38
levitation and is how some of the
175
338320
2240
tak podróżują niektóre z
05:40
world's fastest trains travel.
176
340560
1760
najszybszych pociągów na świecie.
05:42
Finally, we discussed the word vacuum.
177
342960
2560
Na koniec omówiliśmy słowo próżnia.
05:45
It's a space that has had all the air and
178
345520
2400
To przestrzeń, z której usunięto całe powietrze i
05:47
other gases removed from
179
347920
1280
inne gazy
05:49
it – basically an empty space.
180
349200
2080
– w zasadzie pusta przestrzeń.
05:51
'The plan for Virgin's Hyperloop One
181
351280
2160
„Plan Hyperloop One firmy Virgin
05:53
is to make a maglev even faster by
182
353440
2480
polega na tym, aby maglev był jeszcze szybszy,
05:55
putting it in a vacuum tube.'
183
355920
2240
umieszczając go w rurze próżniowej”.
05:58
And that brings us to the end of
184
358160
1200
I to prowadzi nas do końca
05:59
today’s 6 Minute English.
185
359360
1600
dzisiejszego 6-minutowego angielskiego.
06:00
Don’t forget to check out our You Tube,
186
360960
2240
Nie zapomnij sprawdzić naszych stron na You Tube,
06:03
Facebook, Twitter and Instagram pages,
187
363200
2240
Facebooku, Twitterze i Instagramie
06:05
and we’ll see you next time. Goodbye.
188
365440
1680
i do zobaczenia następnym razem. Do widzenia.
06:07
Bye
189
367120
500
06:13
Hello. This is 6 Minute English from
190
373520
1840
Cześć. To jest 6-minutowy angielski z
06:15
BBC Learning English. I’m Neil.
191
375360
2080
BBC Learning English. Jestem Neilem.
06:17
And I’m Rob.
192
377440
880
A ja jestem Robem.
06:18
From the ancient Roman sea god, Neptune,
193
378320
2720
Od starożytnego rzymskiego boga morza, Neptuna,
06:21
to myths of mermaids, to modern Hollywood
194
381040
2640
przez mity o syrenach, po współczesne hollywoodzkie
06:23
films like Finding Nemo, people throughout
195
383680
2640
filmy, takie jak Finding Nemo, ludzie na przestrzeni
06:26
history have been fascinated by the idea of
196
386320
2720
dziejów byli zafascynowani ideą
06:29
living underwater.
197
389040
1280
życia pod wodą.
06:30
In this programme, we’ll be hearing about
198
390880
1680
W tym programie usłyszymy o
06:32
projects to create liveable underwater
199
392560
2480
projektach tworzenia podwodnych siedlisk nadających się do zamieszkania
06:35
habitats and the challenges they face.
200
395040
2800
oraz o wyzwaniach, przed którymi stoją.
06:37
We’ll be finding out how realistic it is to
201
397840
2240
Przekonamy się, jak realistyczna jest
06:40
believe that in a few years we could be
202
400080
2400
wiara, że ​​za kilka lat będziemy
06:42
eating breakfast whilst watching fish
203
402480
2720
jedli śniadanie, obserwując pływające ryby
06:45
swim outside the kitchen window, before
204
405200
2080
za kuchennym oknem, zanim
06:47
heading off to work in an office under
205
407280
2000
wyruszymy do pracy w biurze pod
06:49
the ocean...
206
409280
880
oceanem… …
06:50
…and we’ll be learning some related
207
410160
1600
i będziemy uczyć się
06:51
vocabulary as well.
208
411760
1360
również pokrewnego słownictwa.
06:53
But first, it’s time for our quiz question.
209
413120
3040
Ale najpierw czas na nasze pytanie quizowe.
06:56
One of the first adventure stories to fire
210
416160
2480
Jedną z pierwszych opowieści przygodowych, która rozpaliła
06:58
the public’s imagination about the
211
418640
1840
wyobraźnię publiczności na temat
07:00
underwater world was the 1870 novel,
212
420480
3120
podwodnego świata, była powieść z 1870 r.,
07:03
Twenty Thousand Leagues Under the Sea.
213
423600
2320
Dwadzieścia tysięcy mil podmorskiej żeglugi.
07:05
But who wrote this underwater classic?
214
425920
2800
Ale kto napisał ten podwodny klasyk? Czy
07:08
Was it: a) H G Wells?, b) Arthur
215
428720
3280
to był: a) HG Wells?, b) Arthur
07:12
Conan Doyle?, or c) Jules Verne?
216
432000
2960
Conan Doyle?, czy c) Jules Verne?
07:16
I think I know this one, Neil. Wasn’t it,
217
436160
2000
Myślę, że znam tego, Neil. Czyż nie
07:18
a) H G Wells?
218
438160
1920
a) HG Wells?
07:20
OK, Rob, we’ll find out later if you’re right.
219
440080
2880
OK, Rob, później się przekonamy, czy masz rację.
07:22
Now, one of the most ambitious designs
220
442960
2240
Obecnie jednym z najbardziej ambitnych projektów
07:25
for an underwater city is Ocean Spiral,
221
445200
2960
podwodnego miasta jest Ocean Spiral,
07:28
a huge transparent globe attached
222
448160
2480
ogromna przezroczysta kula przymocowana
07:30
to the seabed – the solid ground
223
450640
2160
do dna morskiego – stałego gruntu,
07:32
which lies deep below the sea level.
224
452800
2480
który leży głęboko pod poziomem morza.
07:35
The top of the globe stands above
225
455280
2080
Szczyt globu wystaje ponad
07:37
the surface of the ocean and
226
457360
1680
powierzchnię oceanu, a
07:39
running through the centre is a tower
227
459040
2240
przez środek biegnie wieża, która
07:41
to add strength, and to provide space
228
461280
2240
dodaje sił i zapewnia miejsce
07:43
for homes, offices and even an
229
463520
2240
na domy, biura, a nawet
07:45
amusement park for five thousand
230
465760
2320
park rozrywki dla pięciu tysięcy
07:48
underwater residents.
231
468080
1520
podwodnych mieszkańców.
07:49
Ocean Spiral has been dreamt up
232
469600
2080
Ocean Spiral został wymyślony
07:51
by the Japanese Shimizu Corporation.
233
471680
2320
przez japońską firmę Shimizu Corporation.
07:54
Here’s Shimizu engineer, Maksaki
234
474560
2080
Oto inżynier Shimizu, Maksaki
07:56
Takeuchi, explaining to BBC World
235
476640
2560
Takeuchi, wyjaśnia programowi BBC World
07:59
Service programme, CrowdScience,
236
479200
1840
Service, CrowdScience,
08:01
the motivation behind the idea:
237
481040
1840
motywację stojącą za pomysłem:
08:06
At the moment the world is facing a
238
486960
3120
W tej chwili świat stoi w obliczu
08:10
lot of serious problems regarding food,
239
490080
3200
wielu poważnych problemów dotyczących żywności,
08:13
energy, water, natural resources...
240
493280
3520
energii, wody, zasobów naturalnych…
08:16
however, we are trying to solve the
241
496800
2480
próbując rozwiązać
08:19
issues just by using our land.
242
499280
3680
problemy, używając tylko naszej ziemi.
08:22
Our idea is to connect the sea surface
243
502960
3600
Naszą ideą jest pionowe połączenie powierzchni morza
08:26
and the deep sea vertically and that way
244
506560
3680
i głębin morskich i
08:30
we believe that we can utilise the
245
510240
3440
wierzymy, że w ten sposób możemy wykorzystać
08:33
capability of the deep sea and that’s the
246
513680
3040
możliwości głębin morskich i taki jest
08:36
purpose of this whole project.
247
516720
3120
cel całego projektu.
08:41
The effects of human activity on the
248
521200
2080
Skutki działalności człowieka na
08:43
land have led some to look to the oceans
249
523280
2720
lądzie skłoniły niektórych do szukania w oceanach
08:46
for natural resources - naturally existing
250
526000
2720
zasobów naturalnych – naturalnie istniejących
08:48
things such as minerals, oil, coal and
251
528720
2640
rzeczy, takich jak minerały, ropa naftowa, węgiel i
08:51
other energy sources that can be
252
531360
1760
inne źródła energii, które mogą być
08:53
used by people.
253
533120
1040
wykorzystywane przez ludzi.
08:54
This search deep underwater is
254
534160
1760
To poszukiwanie głęboko pod wodą
08:55
happening vertically - at a ninety
255
535920
2400
odbywa się pionowo - pod
08:58
degree angle straight up or down
256
538320
1920
kątem dziewięćdziesięciu stopni prosto w górę lub w dół
09:00
from the ground, as opposed to
257
540240
1440
od ziemi, w przeciwieństwie do
09:01
horizontally, or flat across the
258
541680
2160
poziomego lub płaskiego na
09:03
Earth’s surface.
259
543840
1120
powierzchni Ziemi.
09:04
But as yet, Shimizu Corporation’s plans
260
544960
2720
Ale jak dotąd plany Shimizu Corporation
09:07
for an underwater city are still in the
261
547680
2400
dotyczące podwodnego miasta są wciąż na
09:10
planning stages - no part of the project
262
550080
2560
etapie planowania – żadna część projektu nie
09:12
has yet been built and the total cost
263
552640
2080
została jeszcze zbudowana, a całkowity koszt
09:14
is thought to exceed 26 billion dollars.
264
554720
2865
szacuje się na ponad 26 miliardów dolarów.
09:17
In fact, the longest anyone has spent
265
557585
2000
W rzeczywistości najdłuższy okres
09:19
living under the sea is only 73 days.
266
559600
2960
życia pod wodą to tylko 73 dni.
09:22
That record was set by Roger Garcia,
267
562560
2480
Rekord ten ustanowił Roger Garcia,
09:25
ex-military diver and head of The
268
565040
2080
były nurek wojskowy i szef The
09:27
Aquarius, currently the world’s only
269
567120
2320
Aquarius, obecnie jedynej na świecie
09:29
underwater research station.
270
569440
2000
podwodnej stacji badawczej.
09:31
Here’s Roger Garcia, explaining to
271
571440
1920
Oto Roger Garcia, wyjaśniający
09:33
BBC World Service programme,
272
573360
1600
programowi BBC World Service,
09:34
CrowdScience, what happens to the
273
574960
2080
CrowdScience, co dzieje się z
09:37
human body after living underwater
274
577040
2320
ludzkim ciałem po tak długim życiu pod wodą
09:39
for so long:
275
579360
1226
:
09:41
Perhaps a change in their voice, not
276
581017
2823
Być może zmiana ich głosu,
09:43
much ‘cos we’re not very deep, that’s
277
583840
1920
niewielka, ponieważ nie jesteśmy zbyt głęboko, to
09:45
because the air becomes denser.
278
585760
2003
dlatego, że powietrze staje się gęstsze .
09:47
Physiologically, the most important thing
279
587763
2477
Z fizjologicznego punktu widzenia najważniejsze jest
09:50
though, is that since you are, in this case,
280
590240
4320
jednak to, że skoro w tym przypadku panuje ciśnienie
09:54
at two and a half times atmospheric
281
594560
2240
dwa i pół razy większe od atmosferycznego,
09:56
pressure you do take on more inner gas,
282
596800
3360
nabierasz więcej gazów wewnętrznych,
10:00
and, in this case, inside The Aquarius we
283
600160
2880
a w tym przypadku wewnątrz Wodnika
10:03
just breathe normal air - you’re gonna
284
603040
2400
po prostu oddychamy normalnym powietrzem – ty
10:05
take on more nitrogen and depending
285
605440
3040
Przyjmiemy więcej azotu iw zależności
10:08
on how long you stay in The Aquarius,
286
608480
2080
od tego, jak długo pozostaniesz w Wodniku,
10:10
that’s going to incur some sort of
287
610560
1760
będzie to wiązało się z pewnego rodzaju
10:12
decompressed obligation.
288
612320
2136
obowiązkiem dekompresji.
10:14
In addition to engineering challenges,
289
614703
2257
Oprócz wyzwań inżynieryjnych,
10:16
living underwater for long periods of
290
616960
1920
życie pod wodą przez długi
10:18
time also affects the human body.
291
618880
2720
czas wpływa również na ludzkie ciało.
10:21
One example is the bends – or
292
621600
2000
Jednym z przykładów są zakola – czyli
10:23
decompression sickness, a serious
293
623600
2480
choroba dekompresyjna, poważne
10:26
medical disorder created by nitrogen
294
626080
2400
zaburzenie medyczne wywołane przez
10:28
bubbles in the muscles when returning
295
628480
1920
pęcherzyki azotu w mięśniach podczas
10:30
to the surface of the sea too quickly.
296
630400
2718
zbyt szybkiego powrotu na powierzchnię morza.
10:33
The bends, and changes to the voice,
297
633118
2236
Zakręty i zmiany w głosie
10:35
are examples of how underwater living
298
635354
2326
są przykładami tego, jak podwodne życie
10:37
changes the body
299
637680
1200
zmienia
10:38
physiologically – relating
300
638880
1840
fizjologicznie ciało - odnoszące się
10:40
to how the bodies of living humans and
301
640720
2080
do tego, jak funkcjonują ciała żywych ludzi i
10:42
animals function.
302
642800
1200
zwierząt.
10:44
As divers descend deep below the
303
644000
2000
Gdy nurkowie schodzą głęboko pod
10:46
ocean’s surface, there is an increase in
304
646000
2320
powierzchnię oceanu, następuje wzrost
10:48
atmospheric pressure – the normal air
305
648320
2720
ciśnienia atmosferycznego – normalnego
10:51
pressure within the Earth’s atmosphere.
306
651040
2480
ciśnienia powietrza w ziemskiej atmosferze.
10:53
The deeper they dive, the higher
307
653520
1644
Im głębiej nurkują, tym wyższe
10:55
the pressure.
308
655164
1236
ciśnienie.
10:56
Physiological reactions like the bends are
309
656400
2480
Reakcje fizjologiczne, takie jak zakręty, są
10:58
caused by divers incorrectly readjusting
310
658880
2560
spowodowane przez nurków, którzy nieprawidłowo dostosowują się
11:01
to normal atmospheric pressure.
311
661440
2240
do normalnego ciśnienia atmosferycznego.
11:03
Well, Neil, with so many difficulties, it’s
312
663680
2560
Cóż, Neil, przy tak wielu trudnościach,
11:06
no surprise that H G Wells's fantasy of
313
666240
3120
nic dziwnego, że fantazja HG Wellsa o
11:09
living under the sea is still science-fiction.
314
669360
3360
życiu pod powierzchnią morza to wciąż science fiction.
11:12
Ah, but are you sure it was H G Wells,
315
672720
2560
Ach, ale czy jesteś pewien, że to był HG Wells,
11:15
Rob?
316
675280
800
Rob?
11:16
In my quiz question I asked you who wrote
317
676080
2320
W moim quizie zapytałem cię, kto napisał
11:18
the classic underwater adventure Twenty
318
678400
2320
klasyczną podwodną przygodę Dwadzieścia
11:20
Thousand Leagues Under the Sea.
319
680720
1840
tysięcy mil podmorskiej żeglugi.
11:22
Yes, and I said a) H G Wells.
320
682560
2800
Tak, i powiedziałem a) H G Wells.
11:25
Which was… the wrong answer!
321
685360
2400
Co było… błędną odpowiedzią!
11:27
It was, in fact, c) Jules Verne, the
322
687760
2560
W rzeczywistości był to c) Juliusz Verne,
11:30
French author who also wrote Around
323
690320
2080
francuski pisarz, który także napisał
11:32
the World in Eighty Days.
324
692400
1680
W osiemdziesiąt dni dookoła świata.
11:34
In this programme, we’ve been
325
694080
1280
W tym programie
11:35
discussing the challenge of living
326
695360
1520
rozmawialiśmy o wyzwaniu życia
11:36
underwater, going down vertically – at
327
696880
2560
pod wodą, schodzenia pionowo – pod kątem
11:39
a 90 degree angle – to the seabed – the
328
699440
2640
90 stopni – do dna morskiego –
11:42
solid ground hundreds of metres under
329
702080
1920
stałego gruntu setki metrów pod powierzchnią
11:44
the sea.
330
704000
640
11:44
Ocean explorers search underwater
331
704640
2080
morza.
Odkrywcy oceanów szukają pod wodą
11:46
for natural resources – useful materials
332
706720
2800
zasobów naturalnych — przydatnych materiałów,
11:49
like coal and oil.
333
709520
1360
takich jak węgiel i ropa naftowa.
11:50
But they face many physiological
334
710880
1920
Ale napotykają wiele
11:52
problems – problems relating to how
335
712800
2160
problemów fizjologicznych – problemów związanych z
11:54
the human body functions, such as the
336
714960
2240
funkcjonowaniem ludzkiego ciała, takich jak
11:57
bends – a painful medical condition
337
717200
2640
zgięcia – bolesny stan chorobowy
11:59
caused by returning too quickly to
338
719840
1920
spowodowany zbyt szybkim powrotem do
12:01
atmospheric pressure – the Earth’s
339
721760
2000
ciśnienia atmosferycznego –
12:03
usual air pressure.
340
723760
1280
zwykłego ciśnienia atmosferycznego na Ziemi.
12:05
That’s all for this programme, but we
341
725040
1520
To wszystko w tym programie, ale mamy
12:06
hope you’ll be diving back into 6 Minute
342
726560
2320
nadzieję, że już wkrótce wrócisz do 6-minutowego
12:08
English very soon.
343
728880
1200
angielskiego.
12:10
Bye for now!
344
730080
1027
Na razie! Do
12:11
Bye!
345
731107
683
widzenia!
12:17
Hello and welcome to 6 Minute
346
737520
1680
Witamy w 6-minutowym
12:19
English. I'm Dan and joining me
347
739200
1600
angielskim. Jestem Dan i dołącza do mnie
12:20
today is Neil. Hi, Neil.
348
740800
1360
dzisiaj Neil. Cześć, Neil.
12:22
Hi Dan. What’s with the protective
349
742160
2320
Cześć Dan. O co chodzi ze
12:24
gear and helmet?
350
744480
1120
sprzętem ochronnym i hełmem?
12:25
I’m just getting ready for the inevitable
351
745600
2240
Właśnie przygotowuję się na nieuchronny
12:27
rise of the machines. That’s the takeover
352
747840
2480
wzrost liczby maszyn. To przejęcie
12:30
of the world by artificial intelligence, or
353
750320
3200
świata przez sztuczną inteligencję lub sztuczną
12:33
AI, which some people predict will happen.
354
753520
3760
inteligencję, co niektórzy przewidują, że nastąpi.
12:37
'Inevitable' means 'cannot be avoided or
355
757280
2480
„Nieuniknione” oznacza „nie można tego uniknąć ani
12:39
stopped'. Rise of the machines? What do
356
759760
2560
zatrzymać”. Powstanie maszyn? Co
12:42
you mean?
357
762320
720
masz na myśli?
12:43
It’s our topic in this 6 Minute English.
358
763040
2480
To nasz temat w tym 6-minutowym kursie języka angielskiego.
12:45
We’ll be talking about that, giving you
359
765520
1920
Porozmawiamy o tym, podając
12:47
six related pieces of vocabulary and, of
360
767440
2560
sześć powiązanych fragmentów słownictwa i
12:50
course, our regular quiz question.
361
770000
2400
oczywiście nasze regularne pytanie quizowe.
12:52
That’s the first thing you’ve said that
362
772400
1600
To pierwsza rzecz, którą powiedziałeś, która
12:54
makes any sense. What’s the question?
363
774000
2240
ma jakikolwiek sens. Jakie jest pytanie?
12:56
The word ‘robot’ as we use it today was first
364
776240
2880
Słowo „robot”, którego używamy dzisiaj, zostało po raz pierwszy
12:59
used in a 1920’s Czech play ‘Rossum’s Universal
365
779120
4480
użyte w czeskiej sztuce z lat 20. XX wieku „Roboty uniwersalne Rossuma
13:03
Robots’. But before this, what was its
366
783600
3440
”. Ale przed tym, jakie było jego
13:07
original meaning:
367
787040
1520
pierwotne znaczenie:
13:08
a) forced labour, b) metal man, or
368
788560
3040
a) praca przymusowa, b) człowiek z metalu, czy
13:11
c) heartless thing?
369
791600
2160
c) rzecz bez serca?
13:13
I will go for a) forced labour.
370
793760
2880
Pójdę na a) roboty przymusowe. W dalszej części programu
13:17
We’ll find out if you were right or not
371
797200
2080
dowiemy się, czy miałeś rację
13:19
later in the show.
372
799280
1360
.
13:20
OK Dan. Tell me what’s going on.
373
800640
2160
OK Dan. Powiedz mi, co się dzieje.
13:22
I saw a news article written by BBC
374
802800
2480
Widziałem artykuł napisany przez
13:25
technology correspondent Rory
375
805280
1920
korespondenta BBC ds. technologii, Rory'ego
13:27
Cellan-Jones about the recent CES
376
807200
3120
Cellana-Jonesa, na temat niedawnego
13:30
technology show in Las Vegas.
377
810320
2480
pokazu technologii CES w Las Vegas.
13:32
He interviewed David Hanson, founder
378
812800
2800
Przeprowadził wywiad z Davidem Hansonem, założycielem
13:35
of Hanson Robotics, who said it was his
379
815600
3120
Hanson Robotics, który powiedział, że jego
13:38
ambition to achieve an AI that can beat
380
818720
3840
ambicją jest stworzenie sztucznej inteligencji, która może pokonać
13:42
humans at any intellectual task.
381
822560
3200
ludzi w każdym zadaniu intelektualnym.
13:45
Surely, it’s a good thing! Better AI and
382
825760
2640
Pewnie, to dobra rzecz! Lepsza sztuczna inteligencja i
13:48
robotics could take over many of the
383
828400
2080
robotyka mogą przejąć wiele
13:50
jobs that we don’t want to do, or that
384
830480
2240
zadań, których nie chcemy wykonywać lub które
13:52
are so important to get 100% right…
385
832720
2560
są tak ważne, aby wykonać je w 100% poprawnie…
13:55
like air traffic control.
386
835280
1920
jak kontrola ruchu lotniczego.
13:57
We’d never have another plane crash.
387
837200
1920
Nigdy nie mielibyśmy kolejnej katastrofy lotniczej.
13:59
It would be infallible because it
388
839120
1760
Byłoby nieomylne, ponieważ
14:00
would be so clever.
389
840880
1440
byłoby tak sprytne.
14:02
'Infallible' means 'never failing'.
390
842320
2320
„Nieomylny” oznacza „nigdy nie zawodzący”.
14:04
And that’s what bothers me.
391
844640
1600
I to mnie niepokoi.
14:06
What happens when its intelligence
392
846240
1920
Co się stanie, gdy jego inteligencja
14:08
surpasses ours? Why should it do
393
848160
2480
przewyższy naszą? Dlaczego ma robić to,
14:10
what we want it to do?
394
850640
1600
co my chcemy?
14:12
To surpass something is to do or
395
852240
1920
Przewyższyć coś to zrobić coś lub
14:14
be better than it. Dan, you’ve been
396
854160
1840
być lepszym od tego. Dan,
14:16
watching too many movies.
397
856000
1440
naoglądałeś się za dużo filmów.
14:17
Robots fighting humanity is a
398
857440
1760
Roboty walczące z ludzkością to
14:19
popular theme. Guess what… humanity
399
859200
2960
popularny temat. Zgadnij co… ludzkość
14:22
often wins. And besides, we would
400
862160
2080
często wygrywa. Poza tym
14:24
programme the computer to be
401
864240
1280
zaprogramowalibyśmy komputer tak, aby był
14:25
benevolent.
402
865520
1120
życzliwy.
14:26
'Benevolent' means 'kind and helpful'.
403
866640
2480
„Życzliwy” oznacza „miły i pomocny”.
14:29
But that’s just it, once the intelligence
404
869120
2560
Ale to wszystko, kiedy inteligencja
14:31
becomes sentient, or able to think for
405
871680
2640
stanie się świadoma lub zdolna do
14:34
itself, who knows what it will do.
406
874320
2480
samodzielnego myślenia, kto wie, co zrobi. Wiesz, my,
14:36
We humans are not exactly perfect,
407
876800
1840
ludzie, nie jesteśmy do końca doskonali
14:38
you know. What happens if it decides
408
878640
2160
. Co się stanie, jeśli uzna,
14:40
that it is better than us and wants us
409
880800
2160
że ​​jest lepszy od nas i chce nas usunąć
14:42
out of the way?
410
882960
1120
z drogi?
14:44
Don’t worry. Asimov thought of that.
411
884080
2800
Nie martw się. Asimov pomyślał o tym.
14:46
Isaac Asimov was an American
412
886880
1760
Isaac Asimov był amerykańskim
14:48
science fiction writer who, among
413
888640
2080
pisarzem science fiction, który
14:50
other things, wrote about robots.
414
890720
1920
pisał między innymi o robotach.
14:52
He came up with three laws that
415
892640
2000
Wymyślił trzy prawa, których
14:54
every robot would have to follow to
416
894640
2160
każdy robot musiałby przestrzegać, aby
14:56
stop it from acting against humanity.
417
896800
2160
powstrzymać go przed działaniami przeciwko ludzkości.
14:58
So we’re safe!
418
898960
1440
Więc jesteśmy bezpieczni!
15:00
I’m not so sure. A sentient robot could
419
900400
2800
nie jestem pewien. Czujący robot może
15:03
make up its own mind about how to
420
903200
2000
sam decydować o tym, jak
15:05
interpret the laws. For example, imagine
421
905200
3120
interpretować prawa. Na przykład wyobraź sobie,
15:08
if we created an AI system to protect
422
908320
2880
że stworzyliśmy system sztucznej inteligencji, aby chronić
15:11
all of humanity.
423
911200
1120
całą ludzkość.
15:12
Well, that’s great! No more war.
424
912320
1920
Cóż, to świetnie! Nigdy więcej wojny.
15:14
No more murder. No more fighting.
425
914240
1920
Nigdy więcej morderstwa. Nigdy więcej walki.
15:16
Do you really think that humans
426
916160
1600
Naprawdę myślisz, że ludzie
15:17
can stop fighting? What if the AI decides
427
917760
2880
mogą przestać walczyć? Co jeśli sztuczna inteligencja zdecyduje,
15:20
that the only way to stop us from hurting
428
920640
2240
że jedynym sposobem na powstrzymanie nas przed krzywdzeniem
15:22
ourselves and each other is to control
429
922880
3920
siebie i innych jest kontrolowanie
15:26
everything we do, so it takes over to
430
926800
3040
wszystkiego, co robimy, więc przejmuje kontrolę, by
15:29
protect us. Then we would lose our
431
929840
2880
nas chronić. Wtedy stracilibyśmy naszą
15:32
freedom to a thing that we created
432
932720
2480
wolność na rzecz rzeczy, którą stworzyliśmy, która
15:35
that is infallible and more intelligent
433
935200
2960
jest nieomylna i bardziej inteligentna
15:38
than we are! That’s the end, Neil!
434
938160
2720
niż my! To koniec, Niall!
15:40
I think that’s a little far-fetched, which
435
940880
2080
Myślę, że to trochę naciągane, co
15:42
means difficult to believe.
436
942960
1360
oznacza, że ​​trudno w to uwierzyć.
15:44
I’m sure others don’t think that way.
437
944320
1840
Jestem pewien, że inni tak nie myślą.
15:46
OK. Let’s hear what the Learning
438
946160
1920
OK. Posłuchajmy, co
15:48
English team say when I ask them
439
948080
2240
mówi zespół Learning English, gdy pytam ich,
15:50
if they are worried that AI and robots
440
950320
2480
czy martwią się, że sztuczna inteligencja i roboty
15:52
could take over the world.
441
952800
1810
mogą przejąć władzę nad światem.
15:55
Well, it’s possible, but unlikely.
442
955417
3143
Cóż, jest to możliwe, ale mało prawdopodobne.
15:58
There will come a point where our
443
958560
1120
Nadejdzie moment, w którym nasza
15:59
technology will be limited – probably
444
959680
2160
technologia będzie ograniczona – prawdopodobnie
16:01
before real AI is achieved.
445
961840
2340
zanim zostanie osiągnięta prawdziwa sztuczna inteligencja.
16:05
Never in a million years. First of all,
446
965120
2960
Nigdy, nawet za milion lat. Po pierwsze
16:08
we’d programme them so that they
447
968080
1760
zaprogramowalibyśmy ich tak, żeby
16:09
couldn’t, and secondly we’d beat
448
969840
2400
nie mogli, a po drugie i
16:12
them anyway. Haven’t you ever
449
972240
1760
tak ich pokonaliśmy. Czy nigdy nie
16:14
seen a movie?
450
974000
1709
widziałeś filmu?
16:16
I totally think it could happen.
451
976697
2183
Całkowicie myślę, że to może się wydarzyć.
16:18
We only have to make a robot
452
978880
1680
Musimy tylko stworzyć robota,
16:20
that’s smart enough to start
453
980560
1280
który będzie wystarczająco inteligentny, aby zaczął
16:21
thinking for itself. After that, who
454
981840
2240
myśleć samodzielnie. Po tym, kto
16:24
knows what it might do.
455
984080
1466
wie, co może zrobić.
16:26
A mixed bag of opinions there, Dan.
456
986480
1920
Mieszane opinie, Dan.
16:28
It seems you aren’t alone.
457
988400
2160
Wygląda na to, że nie jesteś sam.
16:30
Nope. But I don’t exactly have
458
990560
1840
Nie. Ale ja też nie mam
16:32
an army of support either. I guess
459
992400
2480
armii wsparcia. Myślę, że
16:34
we’ll just have to wait and see.
460
994880
1440
będziemy musieli po prostu poczekać i zobaczyć.
16:36
Speak for yourself. I’ve waited
461
996320
1600
Mów za siebie. Czekałem
16:37
long enough – for our quiz question
462
997920
1600
wystarczająco długo – to znaczy na nasze pytanie w quizie
16:39
that is.
463
999520
560
.
16:40
Oh yeah! I asked you what the
464
1000080
1680
O tak! Zapytałem cię, jakie było
16:41
original meaning of the word ‘robot’
465
1001760
1920
pierwotne znaczenie słowa „robot”,
16:43
was before it was used in its
466
1003680
2080
zanim użyto go we
16:45
modern form:
467
1005760
1280
współczesnej formie:
16:47
a) forced labour, b) metal man, or
468
1007040
2960
a) praca przymusowa, b) metalowiec, czy
16:50
c) heartless thing?
469
1010000
1760
c) rzecz bez serca?
16:51
And I said a) forced labour.
470
1011760
1760
I powiedziałem a) praca przymusowa.
16:53
And you were… right!
471
1013520
2240
I miałeś… rację!
16:55
Shall we take a look at the
472
1015760
880
Czy w
16:56
vocabulary then?
473
1016640
1280
takim razie przyjrzymy się słownictwu?
16:57
OK. First we had inevitable.
474
1017920
3040
OK. Najpierw mieliśmy nieuniknione.
17:00
If something is inevitable then it
475
1020960
2000
Jeśli coś jest nieuniknione,
17:02
cannot be avoided or stopped.
476
1022960
2400
nie można tego uniknąć ani zatrzymać. Czy
17:05
Can you think of something
477
1025360
880
możesz wymyślić coś
17:06
inevitable, Neil?
478
1026240
1040
nieuniknionego, Neil?
17:07
It is inevitable that one day the
479
1027280
2000
Nieuniknione jest, że pewnego dnia
17:09
Sun will stop burning. Then we had
480
1029280
2960
Słońce przestanie płonąć. Wtedy mieliśmy
17:12
infallible, which means never failing.
481
1032240
2720
nieomylność, co oznacza, że ​​nigdy nie zawodzimy.
17:14
Give us an example, Dan.
482
1034960
1360
Daj nam przykład, Dan.
17:16
The vaccine for smallpox is infallible.
483
1036320
2560
Szczepionka na ospę jest nieomylna.
17:18
The natural spread of that disease
484
1038880
1600
Naturalne rozprzestrzenianie się tej choroby
17:20
has been completely stopped.
485
1040480
2000
zostało całkowicie zatrzymane.
17:22
After that was 'surpasses'.
486
1042480
2320
Potem było „przewyższa”.
17:24
If something surpasses something
487
1044800
1920
Jeśli coś przewyższa coś
17:26
else then it becomes better than it.
488
1046720
2560
innego, staje się lepsze od tego.
17:29
Many parents across the world hope
489
1049280
1680
Wielu rodziców na całym świecie ma nadzieję,
17:30
that their children will surpass them
490
1050960
1680
że ich dzieci przewyższą ich
17:32
in wealth, status or achievement.
491
1052640
2960
pod względem bogactwa, statusu lub osiągnięć.
17:35
After that we heard benevolent, which
492
1055600
1760
Potem usłyszeliśmy życzliwy, co
17:37
means kind and helpful. Name a person
493
1057360
2240
oznacza miły i pomocny. Wymień osobę
17:39
famous for being benevolent, Dan.
494
1059600
1877
znaną z dobroci, Dan.
17:41
Father Christmas is a benevolent
495
1061477
2363
Święty Mikołaj jest życzliwą
17:43
character.
496
1063840
1160
postacią.
17:45
After that we heard sentient.
497
1065000
2360
Potem usłyszeliśmy czujące.
17:47
If something is sentient, it is able
498
1067360
2160
Jeśli coś jest świadome, może
17:49
to think for itself.
499
1069520
1360
myśleć samodzielnie.
17:50
Indeed. Many people wonder about
500
1070880
1520
Rzeczywiście. Wiele osób zastanawia się nad
17:52
the possibility of sentient life on
501
1072400
2480
możliwością istnienia świadomego życia na
17:54
other planets. Finally, we heard
502
1074880
2160
innych planetach. W końcu usłyszeliśmy
17:57
far-fetched, which means difficult
503
1077040
1600
naciągane, co oznacza, że ​​trudno w to
17:58
to believe. Like that far-fetched
504
1078640
2000
uwierzyć. Jak ta naciągana
18:00
story you told me the other day
505
1080640
1280
historia, którą opowiedziałeś mi kiedyś
18:01
about being late because of a
506
1081920
1280
o spóźnieniu z powodu
18:03
dragon, Dan.
507
1083200
880
smoka, Dan.
18:04
I swear it was real! It had big sharp
508
1084080
2560
Przysięgam, że to było prawdziwe! Miał duże, ostre
18:06
teeth and everything!
509
1086640
960
zęby iw ogóle!
18:07
Yeah, yeah, yeah. And that’s the end
510
1087600
1920
Tak tak tak. I to koniec
18:09
of this 6 Minute English. Don’t forget
511
1089520
1840
tego 6-minutowego angielskiego. Nie zapomnij
18:11
to check out our Facebook, Twitter,
512
1091360
1600
sprawdzić naszych stron na Facebooku, Twitterze
18:12
and YouTube pages.
513
1092960
1200
i YouTube. Do
18:14
See you next time!
514
1094160
1120
zobaczenia następnym razem! Do
18:15
Bye!
515
1095280
560
18:15
Bye.
516
1095840
500
widzenia! Do
widzenia.
18:22
Hello. This is 6 Minute English
517
1102000
1600
Cześć. To jest 6-minutowy angielski
18:23
from BBC Learning English.
518
1103600
1520
z BBC Learning English.
18:25
I’m Neil.
519
1105120
880
Jestem Neilem.
18:26
And I’m Sam.
520
1106000
1360
A ja jestem Sam.
18:27
Are you feeling well, Sam?
521
1107360
1680
Dobrze się czujesz, Samie?
18:29
No headache or sore throat?
522
1109040
2160
Nie boli cię głowa ani gardło?
18:31
No, I feel fine, thanks, Neil.
523
1111200
2560
Nie, czuję się dobrze, dzięki, Neil.
18:33
Why do you ask?
524
1113760
1520
Dlaczego pytasz?
18:35
Well, I’ve been reading some
525
1115280
1360
Cóż, czytałem
18:36
inspirational stories about the
526
1116640
1760
inspirujące historie o
18:38
doctors and nurses
527
1118400
1120
lekarzach i pielęgniarkach
18:39
fighting Covid. When I was a boy, I
528
1119520
2320
walczących z Covidem. Kiedy byłem chłopcem,
18:41
always dreamed of becoming a doctor.
529
1121840
2310
zawsze marzyłem o zostaniu lekarzem.
18:44
Ah, I see. Have you ever been in
530
1124150
2570
O, rozumiem. Czy kiedykolwiek byłeś w
18:46
hospital?
531
1126720
1280
szpitalu?
18:48
Yes, I have, and I remember the
532
1128000
2080
Tak, mam i pamiętam
18:50
nurse’s bedside manner – you
533
1130080
1520
zachowanie pielęgniarki przy łóżku –
18:51
know, the kind and caring way
534
1131600
1840
wiesz, ten miły i troskliwy sposób, w jaki
18:53
that doctors and nurses
535
1133440
1280
lekarze i pielęgniarki
18:54
treat people who are ill.
536
1134720
1680
traktują chorych.
18:56
Nowadays more and more of the
537
1136400
1680
W dzisiejszych czasach coraz więcej
18:58
jobs that humans do are being carried
538
1138080
2080
prac wykonywanych przez ludzi jest
19:00
out by machines. But I doubt that a
539
1140160
2720
wykonywanych przez maszyny. Wątpię jednak, by
19:02
doctor’s bedside manner could easily
540
1142880
2160
zachowanie lekarza przy łóżku można było łatwo
19:05
be replaced by a robot.
541
1145040
2093
zastąpić robotem.
19:07
In this programme, we’ll be discussing
542
1147133
2067
W tym programie będziemy dyskutować,
19:09
whether the revolution in artificial
543
1149200
1920
czy rewolucja w sztucznej
19:11
intelligence, often shortened to ‘AI’,
544
1151120
2560
inteligencji, często skracana do „AI”,
19:13
could replace human doctors
545
1153680
1600
może zastąpić ludzkich lekarzy
19:15
and nurses.
546
1155280
880
i pielęgniarki.
19:16
We’ll be asking: can you imagine a
547
1156160
2000
Zapytamy: czy wyobrażasz sobie
19:18
future without doctors?
548
1158160
2000
przyszłość bez lekarzy?
19:20
In fact, machines are already doing
549
1160160
2320
W rzeczywistości maszyny wykonują już
19:22
some of the jobs traditionally done
550
1162480
1840
niektóre zadania tradycyjnie wykonywane
19:24
by doctors - scanning people’s
551
1164320
2160
przez lekarzy – na przykład skanują ludzkie
19:26
bodies to detect skin cancer,
552
1166480
2160
ciała w celu wykrycia raka skóry
19:28
for example.
553
1168640
1360
.
19:30
Yes, that’s true, Sam, and it links to
554
1170000
1840
Tak, to prawda, Sam, i łączy się z
19:31
my quiz question which is about
555
1171840
1760
moim pytaniem w quizie, które dotyczy
19:33
human skin. It’s a well-known fact that
556
1173600
2800
ludzkiej skóry. Powszechnie wiadomo, że
19:36
skin is the human body’s largest
557
1176400
2160
skóra jest największym organem ludzkiego ciała
19:38
organ – but how much skin does the
558
1178560
2320
– ale ile skóry
19:40
average adult have? Is it:
559
1180880
2000
ma przeciętny dorosły? Czy to jest:
19:42
a) 2 square metres?,
560
1182880
2240
a) 2 metry kwadratowe?,
19:45
b) 3 square metres? or
561
1185120
2640
b) 3 metry kwadratowe? lub
19:47
c) 4 square metres?
562
1187760
2640
c) 4 metry kwadratowe?
19:50
Of course our skin gets loose as
563
1190400
2000
Oczywiście z wiekiem nasza skóra staje się obwisła,
19:52
we age but I can’t believe there’s
564
1192400
2240
ale nie mogę uwierzyć, że mamy
19:54
3 square metres of it!
565
1194640
2320
jej aż 3 metry kwadratowe!
19:56
I’ll say the answer is
566
1196960
1280
Powiem, że odpowiedź to
19:58
a) 2 square metres.
567
1198240
2646
a) 2 metry kwadratowe.
20:00
OK, we’ll find out if that’s correct later.
568
1200886
3194
OK, później dowiemy się, czy to prawda.
20:04
Every year in the UK over 5 million
569
1204080
2560
Każdego roku w Wielkiej Brytanii ponad 5 milionów
20:06
people are treated for skin cancer.
570
1206640
2080
ludzi jest leczonych z powodu raka skóry.
20:08
Catch it early and your chances
571
1208720
1600
Złap go wcześnie, a twoje szanse
20:10
of survival are increased.
572
1210320
2130
na przeżycie wzrosną.
20:12
Usually a skin specialist, or
573
1212450
2430
Zwykle specjalista od skóry lub
20:14
dermatologist, will examine your skin
574
1214880
2880
dermatolog zbada Twoją skórę
20:17
using a handheld microscope.
575
1217760
2720
za pomocą ręcznego mikroskopu.
20:20
But in 2017, a team of researchers
576
1220480
2800
Ale w 2017 roku zespół naukowców
20:23
at Stanford Medical School made
577
1223280
2240
ze Stanford Medical School wydał
20:25
an exciting announcement.
578
1225520
2000
ekscytujące oświadczenie.
20:27
Here’s Oxford University researcher
579
1227520
2000
Oto naukowiec z Uniwersytetu Oksfordzkiego,
20:29
Daniel Susskind, telling BBC World
580
1229520
2160
Daniel Susskind, opowiadający programowi BBC World
20:31
Service programme, The Big Idea, what
581
1231680
2240
Service, The Big Idea, o tym, co
20:33
the medics at Stanford had invented:
582
1233920
3069
wynaleźli medycy ze Stanford:
20:36
A team of researchers at Stamford
583
1236989
2371
Zespół naukowców ze Stamford w
20:39
last year announced the development
584
1239360
1360
zeszłym roku ogłosił opracowanie
20:40
of a system that, if you give it a photo
585
1240720
1520
systemu, który, jeśli dasz mu zdjęcie
20:42
of a freckle it can tell you as accurately
586
1242240
2480
piega może ci powiedzieć tak dokładnie,
20:44
as twenty-one leading dermatologists
587
1244720
2560
jak dwudziestu jeden wiodących dermatologów,
20:47
whether or not that freckle is cancerous.
588
1247280
2703
czy pieg jest rakowy.
20:51
The Stanford medical team had
589
1251183
1937
Zespół medyczny Stanforda
20:53
invented an AI system to analyse
590
1253120
2960
wynalazł system sztucznej inteligencji do analizy
20:56
freckles – small brown spots
591
1256080
2560
piegów – małych brązowych plamek
20:58
found on people’s
592
1258640
880
występujących na ludzkiej
20:59
skin, especially on pale skin.
593
1259520
3419
skórze, zwłaszcza na bladej skórze.
21:02
As it turned out, the AI programme was
594
1262939
2501
Jak się okazało, program sztucznej inteligencji był
21:05
better than human doctors at
595
1265440
1440
lepszy od ludzkich lekarzy w
21:06
telling whether a freckle was harmless
596
1266880
1840
określaniu, czy pieg jest nieszkodliwy,
21:08
or cancerous – connected to some
597
1268720
1920
czy rakotwórczy – związany z jakimś
21:10
type of cancer.
598
1270640
1280
rodzajem raka.
21:11
So, it seems that artificial intelligence
599
1271920
2160
Wygląda więc na to, że sztuczna inteligencja
21:14
is already replacing humans when
600
1274080
2160
już zastępuje ludzi, jeśli
21:16
it comes to detecting
601
1276240
1520
chodzi o wykrywanie
21:17
cancer – and doing
602
1277760
1600
raka – i robi
21:19
a better job of it.
603
1279360
1840
to lepiej.
21:21
But Daniel Susskind isn’t convinced.
604
1281200
2640
Ale Daniel Susskind nie jest przekonany.
21:23
One reason is that AI systems still
605
1283840
2240
Jednym z powodów jest to, że systemy sztucznej inteligencji wciąż
21:26
need humans to programme
606
1286080
1440
potrzebują ludzi do
21:27
them – and as it turns out, knowing
607
1287520
2320
ich programowania – i jak się okazuje, wiedza o tym,
21:29
exactly how doctors detect
608
1289840
1680
jak lekarze wykrywają
21:31
illness remains
609
1291520
960
choroby, pozostaje
21:32
something of a mystery.
610
1292480
1760
tajemnicą.
21:34
Here’s Daniel Susskind again in
611
1294240
2000
Oto ponownie Daniel Susskind w
21:36
conversation with BBC World
612
1296240
1600
rozmowie z programem BBC World
21:37
Service programme, The Big Idea:
613
1297840
2836
Service, The Big Idea:
21:41
If you ask a doctor how it is they
614
1301697
2463
Jeśli zapytasz lekarza, jak to jest, że
21:44
make a diagnosis, they might be
615
1304160
2480
stawiają diagnozę, być może będzie w
21:46
able to point you to particularly
616
1306640
2240
stanie wskazać ci szczególnie
21:48
revealing parts of a reference book
617
1308880
1840
odkrywcze części podręcznika
21:50
or give you a few rules of thumb,
618
1310720
1760
lub podać kilka zasad kciuka,
21:52
but ultimately they’d struggle…
619
1312480
1200
ale ostatecznie mieliby trudności…
21:53
they’d say again it requires
620
1313680
1440
znowu powiedzieliby, że wymaga to
21:55
things like creativity and judgment,
621
1315120
1680
kreatywności i osądu,
21:56
and these things are very difficult to
622
1316800
2240
a te rzeczy są bardzo trudne do
21:59
articulate – and so traditionally it’s
623
1319040
1920
wyartykułowania – i dlatego tradycyjnie
22:00
been thought very hard to
624
1320960
1040
uważano, że jest to bardzo trudne do
22:02
automate – if a human being can’t
625
1322000
1520
zautomatyzowania – jeśli człowiek nie potrafi
22:03
explain how they do these special
626
1323520
1760
wyjaśnić, w jaki sposób robią te specjalne
22:05
things, where on earth do we begin
627
1325280
2160
rzeczy, gdzie u licha zacząć
22:07
in writing instructions for a
628
1327440
1200
pisanie instrukcji dla
22:08
machine to follow?
629
1328640
2800
maszyny?
22:12
Most doctors find it difficult to
630
1332000
2080
Większości lekarzy trudno jest
22:14
explain how they make a
631
1334080
1440
wyjaśnić, w jaki sposób stawiają
22:15
diagnosis – their judgement
632
1335520
1840
diagnozę – ich osąd
22:17
about what someone’s
633
1337360
1120
o tym, jaka
22:18
particular sickness is, made by
634
1338480
1920
jest czyjaś konkretna choroba, dokonywany na podstawie
22:20
examining them.
635
1340400
1123
ich badania.
22:21
Diagnosing someone’s illness is
636
1341920
1920
Diagnozowanie czyjejś choroby jest
22:23
complicated but there are some
637
1343840
1760
skomplikowane, ale istnieją pewne praktyczne
22:25
rules of thumb. A rule of thumb is
638
1345600
3120
zasady. Praktyczna zasada to
22:28
a practical but approximate way
639
1348720
2800
praktyczny, ale przybliżony sposób
22:31
of doing something.
640
1351520
1440
robienia czegoś.
22:32
For example, when cooking, a good
641
1352960
2080
Na przykład podczas gotowania dobrą
22:35
rule of thumb is two portions of
642
1355040
1840
zasadą są dwie porcje
22:36
water to one portion of rice.
643
1356880
2480
wody na jedną porcję ryżu.
22:39
Exactly. And because identifying
644
1359360
2640
Dokładnie. A ponieważ identyfikacja
22:42
sickness is so difficult, Daniel
645
1362000
2560
choroby jest tak trudna, Daniel
22:44
says “where on earth do we
646
1364560
1840
mówi: „gdzie, u licha,
22:46
begin writing instructions for a
647
1366400
1760
zaczniemy pisać instrukcje dla
22:48
machine?” We use phrases like
648
1368160
2480
maszyny?” Używamy zwrotów takich jak
22:50
where, how or what on earth to show
649
1370640
3360
gdzie, jak lub co u licha, aby pokazać
22:54
feelings like anger, surprise
650
1374000
2640
uczucia takie jak złość, zaskoczenie
22:56
or disbelief.
651
1376640
1360
lub niedowierzanie.
22:58
I might show surprise by asking
652
1378000
1760
Mogę okazać zaskoczenie, pytając
22:59
Sam, ‘how on earth did you know
653
1379760
1600
Sama: „Skąd, u licha, znałeś
23:01
the answer to that?’
654
1381360
1246
odpowiedź na to pytanie?”
23:02
Ha ha! I guess you’re talking about
655
1382606
2114
Ha ha! Domyślam się, że mówisz o
23:04
your quiz question, Neil? And
656
1384720
2080
swoim pytaniu z quizu, Neil? I
23:06
you needn’t be so
657
1386800
880
nie musisz być tak
23:07
surprised – I’m naturally brainy!
658
1387680
2720
zaskoczony - jestem naturalnie bystry!
23:10
Of course you are. In my quiz
659
1390400
1760
Oczywiście, że jesteś. W moim
23:12
question, I asked Sam how
660
1392160
1440
quizie zapytałem Sama, ile
23:13
much skin there is
661
1393600
1120
skóry
23:14
on an adult human body.
662
1394720
2240
ma ciało dorosłego człowieka.
23:16
And I said it was a) 2 square
663
1396960
2320
Powiedziałem, że to a) 2
23:19
metres.
664
1399280
1123
metry kwadratowe.
23:20
Which was… the correct answer!
665
1400403
2477
Co było… poprawną odpowiedzią!
23:22
With your brains, I think you’d make
666
1402880
1520
Z twoim mózgiem, myślę, że byłbyś
23:24
a good doctor, Sam, and I’m sure
667
1404400
1840
dobrym lekarzem, Sam, i jestem pewien, że
23:26
you’d have a good bedside
668
1406240
1360
miałbyś też dobre maniery przy łóżku
23:27
manner too.
669
1407600
1440
.
23:29
You mean, the kind and caring way
670
1409040
2720
Masz na myśli życzliwy i troskliwy sposób, w
23:31
that doctors and nurses treat
671
1411760
1440
jaki lekarze i pielęgniarki traktują
23:33
their patients.
672
1413200
1306
swoich pacjentów.
23:34
OK, let’s recap the rest of the
673
1414506
1974
OK, podsumujmy resztę
23:36
vocabulary, starting with freckle – a
674
1416480
2720
słownictwa, zaczynając od piega –
23:39
small brown spot
675
1419200
1200
małej brązowej plamki
23:40
on someone’s skin.
676
1420400
1280
na czyjejś skórze.
23:41
Freckles are usually harmless, but
677
1421680
1680
Piegi są zwykle nieszkodliwe, ale
23:43
some skin spots can be
678
1423360
1360
niektóre plamy skórne mogą być
23:44
cancerous – connected to cancer.
679
1424720
2640
nowotworowe – związane z rakiem.
23:47
A doctor’s diagnosis is their
680
1427360
1840
Diagnoza lekarza jest jego
23:49
judgement about what someone’s
681
1429200
1600
osądem na temat tego, jaka jest czyjaś
23:50
particular sickness
682
1430800
1200
konkretna choroba
23:52
or disease is.
683
1432000
1523
lub schorzenie.
23:53
A rule of thumb is a useful but
684
1433523
2157
Praktyczna zasada to użyteczny, ale
23:55
approximate way of doing or
685
1435680
1680
przybliżony sposób robienia lub
23:57
measuring something.
686
1437360
1440
mierzenia czegoś.
23:58
And finally, we use phrases
687
1438800
1680
I wreszcie, używamy zwrotów
24:00
like, 'where on earth..?'
688
1440480
1789
typu „gdzie, u licha…?”
24:02
as a way to show emotions
689
1442269
1657
jako sposób na okazanie emocji
24:03
like anger, surprise or disbelief.
690
1443926
2874
takich jak złość, zdziwienie czy niedowierzanie.
24:06
That’s all for this programme
691
1446800
1360
To wszystko w tym programie,
24:08
but join us for the next edition
692
1448160
1520
ale dołącz do nas w następnym wydaniu
24:09
of 6 Minute English
693
1449680
1280
6 Minute English,
24:10
when we’ll discuss another
694
1450960
1200
kiedy omówimy inny
24:12
trending topic
695
1452160
880
popularny temat
24:13
and the related vocabulary.
696
1453040
2216
i powiązane słownictwo.
24:15
Why on earth would you miss it?
697
1455256
2024
Dlaczego miałbyś za tym tęsknić?
24:17
Goodbye for now!
698
1457280
1440
Na razie!
24:18
Goodbye!
699
1458720
926
Do widzenia!
24:25
Hello. This is 6 Minute English
700
1465400
1842
Cześć. To jest 6-minutowy angielski
24:27
from BBC Learning English.
701
1467242
1414
z BBC Learning English.
24:28
I’m Neil.
702
1468656
864
Jestem Neilem.
24:29
And I’m Rob.
703
1469520
717
A ja jestem Robem.
24:30
From the bubonic plague to
704
1470237
1853
Od dżumy po
24:32
cholera and tuberculosis, disease
705
1472090
2916
cholerę i gruźlicę, choroby
24:35
and pandemics have changed the
706
1475006
2036
i pandemie zmieniły
24:37
way cities have been built.
707
1477042
2074
sposób budowania miast.
24:39
For example, buildings in 19th century Paris
708
1479116
3284
Na przykład budynki w XIX-wiecznym Paryżu
24:42
were designed with large, high-up windows
709
1482400
2696
zostały zaprojektowane z dużymi, wysoko położonymi oknami,
24:45
to allow plenty of sunlight.
710
1485096
1728
aby wpuścić dużo światła słonecznego.
24:46
They were supposed to stop
711
1486824
1466
Miały powstrzymać
24:48
the spread of tuberculosis.
712
1488290
2000
rozprzestrzenianie się gruźlicy.
24:50
Coronavirus has been no different.
713
1490290
2730
Koronawirus nie był inny.
24:53
In lockdown, cities from Rio to Barcelona
714
1493020
3835
Podczas blokady miasta od Rio po Barcelonę
24:56
were transformed as wildlife and birdsong
715
1496855
2697
zostały przekształcone, gdy dzika przyroda i śpiew ptaków
24:59
replaced the noise of taxi horns
716
1499552
2000
zastąpiły hałas klaksonów taksówek
25:01
and traffic. And with no car pollution,
717
1501552
2403
i ruch uliczny. A bez zanieczyszczenia samochodowego
25:03
you could even see the stars at night!
718
1503955
3056
można było nawet zobaczyć gwiazdy w nocy!
25:07
In this programme, we’ll be asking if cities
719
1507011
2190
W tym programie będziemy pytać, czy miasta
25:09
after lockdown will ever be the same
720
1509201
1926
po lockdownie będą jeszcze kiedyś takie same
25:11
again – and if we want them to be.
721
1511127
1964
– i czy chcemy, żeby takie były.
25:13
We’ll be hearing some ideas from
722
1513091
1853
Usłyszymy kilka pomysłów z
25:14
different cities around the world.
723
1514944
2073
różnych miast na całym świecie.
25:17
And, of course, we’ll be learning
724
1517017
1780
I oczywiście
25:18
some new vocabulary along the way.
725
1518797
2257
po drodze nauczymy się nowego słownictwa.
25:21
One of the cities most affected by
726
1521054
2000
Jednym z miast najbardziej dotkniętych
25:23
Covid-19 was Mumbai in India –
727
1523054
2696
Covid-19 był Bombaj w Indiach –
25:25
but approximately how many people
728
1525750
1670
ale mniej więcej ile osób
25:27
were affected? What’s the estimated
729
1527420
2404
zostało dotkniętych? Jaka jest szacunkowa
25:29
population of Mumbai?
730
1529824
1413
populacja Bombaju?
25:31
That’s my quiz question for you today, Rob.
731
1531237
2367
To moje dzisiejsze pytanie do quizu, Rob.
25:33
Is it: a) 15 million people,
732
1533604
3062
Czy to: a) 15 milionów ludzi,
25:36
b) 20 million people, or
733
1536666
1487
b) 20 milionów ludzi, czy
25:38
c) 25 million people?
734
1538153
2330
c) 25 milionów ludzi?
25:40
I know Mumbai is an international
735
1540483
2957
Wiem, że Bombaj to międzynarodowe
25:43
mega-city, so I’ll say
736
1543440
2364
megamiasto, więc powiem
25:45
b) 20 million people.
737
1545804
2516
b) 20 milionów ludzi.
25:48
OK, Rob, we’ll find out later if
738
1548320
1920
OK, Rob, dowiemy się później, czy
25:50
that’s right.
739
1550240
1200
to prawda.
25:51
Now, Beatriz Colomina is a professor
740
1551440
2640
Obecnie Beatriz Colomina jest profesorem
25:54
of architecture at Princeton University
741
1554080
2400
architektury na Uniwersytecie Princeton
25:56
in the United States. She’s spent years
742
1556480
2560
w Stanach Zjednoczonych. Spędziła lata
25:59
researching the relationship between
743
1559040
1760
badając związek między
26:00
cities and disease. Here she is talking
744
1560800
2800
miastami a chorobami. Tutaj rozmawia
26:03
with Kavita Puri, presenter of BBC
745
1563600
2640
z Kavitą Puri, prezenterką
26:06
World Service programme, The Inquiry:
746
1566240
2440
programu BBC World Service, The Inquiry:
26:09
Take tuberculosis. Unlike
747
1569010
2590
Take tuberculosis. W przeciwieństwie do
26:11
cholera, which
748
1571600
800
cholery, którą
26:12
was eliminated in London by
749
1572400
1840
wyeliminowano w Londynie dzięki
26:14
re-designing the sewage system
750
1574240
1760
przeprojektowaniu systemu kanalizacyjnego
26:16
in the 1850s, TB was airborne.
751
1576000
3920
w latach pięćdziesiątych XIX wieku, gruźlica przenosiła się drogą powietrzną.
26:19
It became a real problem with
752
1579920
2400
Stał się prawdziwym problemem wraz z
26:22
the rise of the industrial cities, the
753
1582320
2640
rozwojem miast przemysłowych,
26:24
metropolis, before an antibiotic
754
1584960
2960
metropolii, zanim antybiotyk
26:27
was effective.
755
1587920
1520
stał się skuteczny.
26:29
One in seven people on the
756
1589440
1520
Jedna na siedem osób na
26:30
planet had TB, but in dense cities
757
1590960
2800
planecie miała gruźlicę, ale w gęsto zaludnionych miastach, takich
26:33
like Paris, it was one in three. Closely
758
1593760
4000
jak Paryż, była to jedna trzecia. Ciasno
26:37
packed tenements meant the disease
759
1597760
2240
upakowane kamienice oznaczały, że choroba
26:40
spread like wildfire and architects
760
1600000
3120
rozprzestrzeniała się jak pożar, a architekci
26:43
and planning experts responded.
761
1603120
2480
i eksperci od planowania zareagowali.
26:45
Some diseases, like cholera, could
762
1605600
2080
Niektórym chorobom, takim jak cholera, można
26:47
be prevented by redesigning cities
763
1607680
2400
zapobiegać, przeprojektowując miasta
26:50
to improve hygiene, like the waste
764
1610080
2240
w celu poprawy higieny, na przykład
26:52
water sewers in 19th century London.
765
1612320
2880
kanalizacji ściekowej w XIX-wiecznym Londynie.
26:55
But the problem with tuberculosis, or
766
1615200
2320
Ale problem z gruźlicą, w
26:57
TB for short, was that the disease is
767
1617520
2960
skrócie gruźlicą, polegał na tym, że choroba przenosi się
27:00
airborne – carried and spread in
768
1620480
2000
drogą powietrzną – przenoszona i rozprzestrzeniana w
27:02
the air.
769
1622480
720
powietrzu.
27:03
Adding to the problem was the fact
770
1623200
1680
Dodatkowym problemem był fakt,
27:04
that antibiotics – medicines like
771
1624880
2480
że antybiotyki – leki takie jak
27:07
penicillin that can destroy harmful
772
1627360
2080
penicylina, które mogą niszczyć szkodliwe
27:09
bacteria or stop their growth – was
773
1629440
2560
bakterie lub hamować ich wzrost – zostały
27:12
not discovered until 1928 – too late
774
1632000
3280
odkryte dopiero w 1928 roku – za późno,
27:15
to save the thousands of people who
775
1635280
1840
by uratować tysiące ludzi, którzy
27:17
died in Mumbai, New York, Paris and
776
1637120
2240
zginęli w Bombaju, Nowym Jorku, Paryżu i
27:19
other cities during the 1800s.
777
1639360
2080
innych miastach podczas XIX wieku.
27:21
Diseases like TB killed more and
778
1641440
2240
Choroby takie jak gruźlica zabijały coraz
27:23
more people as cities industrialised
779
1643680
2880
więcej ludzi w miarę uprzemysłowienia
27:26
and grew bigger and bigger, leading
780
1646560
1840
i rozrastania się miast, co doprowadziło
27:28
to the creation of the
781
1648400
1360
do powstania
27:29
metropolis – the largest, busiest and
782
1649760
2640
metropolii – największego, najbardziej ruchliwego i
27:32
most important
783
1652400
880
najważniejszego
27:33
city in a country or region.
784
1653280
1680
miasta w kraju lub regionie.
27:34
Many people crowded together in
785
1654960
1520
Wiele osób stłoczyło się w
27:36
large metropolises meaning that
786
1656480
1920
dużych metropoliach, co oznacza, że
27:38
disease could spread like wildfire – an
787
1658400
2560
choroba może rozprzestrzeniać się jak pożar –
27:40
idiom meaning spread quickly around
788
1660960
2000
idiom oznaczający szybkie rozprzestrzenianie się wśród
27:42
many people.
789
1662960
1040
wielu ludzi.
27:44
Even today disease is shaping
790
1664000
1840
Nawet dzisiaj choroby kształtują
27:45
our cities. In post-Covid Paris, new
791
1665840
3280
nasze miasta. W Paryżu po Covid, nowe
27:49
ideas for a ’15 minute city’ aim to
792
1669120
2720
pomysły na „15-minutowe miasto” mają na celu
27:51
make all public services available
793
1671840
2000
udostępnienie wszystkich usług publicznych w
27:53
within a fifteen minute walk to help
794
1673840
2160
odległości piętnastu minut spacerem, aby pomóc
27:56
people working from home.
795
1676000
1680
osobom pracującym z domu.
27:57
Other countries want to build
796
1677680
1440
Inne kraje chcą budować
27:59
better, more affordable housing
797
1679120
1680
lepsze, tańsze mieszkania
28:00
outside the city centre.
798
1680800
1680
poza centrum miasta.
28:02
But according to Mumbai resident
799
1682480
1680
Ale według mieszkańca Bombaju,
28:04
Dr Vaidehi Tandel, this won’t
800
1684160
2240
dr Vaidehi Tandela, to nie
28:06
work – even if the housing on
801
1686400
2000
zadziała – nawet jeśli oferowane mieszkania
28:08
offer is better.
802
1688400
1280
są lepsze.
28:09
But why? The reason is work.
803
1689680
3120
Ale dlaczego? Powodem jest praca.
28:12
When you shift them out, you’re
804
1692800
1360
Kiedy ich przesuniesz,
28:14
moving them away from their
805
1694160
1280
odsuniesz ich od źródeł
28:15
livelihoods and they’re not going to
806
1695440
1360
utrzymania i nie będą w stanie się
28:16
be able to sustain themselves there
807
1696800
1680
tam utrzymać,
28:18
so, they will be coming back because
808
1698480
2400
więc wrócą, ponieważ
28:20
their jobs are in the city and they
809
1700880
1680
ich praca jest w mieście i
28:22
cannot afford the commute from
810
1702560
2000
nie stać ich na dojazdy z
28:24
further off places.
811
1704560
1200
dalszych poza miejscami.
28:26
Dr Vaidehi Tandel there, talking on
812
1706400
2160
Tam dr Vaidehi Tandel przemawia w
28:28
the BBC World Service programme
813
1708560
1840
programie BBC World Service
28:30
The Inquiry.Trying to make cities less
814
1710400
2720
The Inquiry. Próba zmniejszenia
28:33
crowded is one way to minimise the
815
1713120
2160
zatłoczenia miast to jeden ze sposobów zminimalizowania
28:35
risks from disease. But moving people
816
1715280
2480
ryzyka chorób. Ale wyprowadzanie ludzi
28:37
away from the city centre means moving
817
1717760
2080
z centrum miasta oznacza
28:39
them away from their livelihood – their
818
1719840
1920
odsuwanie ich od źródła utrzymania –
28:41
job or other way of earning money to
819
1721760
1760
pracy lub innego sposobu zarabiania pieniędzy
28:43
pay for food, housing and clothing.
820
1723520
2880
na jedzenie, mieszkanie i odzież.
28:46
Many people still want to live near
821
1726400
1600
Wiele osób nadal chce mieszkać blisko
28:48
their workplace in the city centre
822
1728000
2080
miejsca pracy w centrum miasta,
28:50
because they can’t afford to pay
823
1730080
1600
ponieważ nie stać ich na opłacenie
28:51
for the commute – the journey
824
1731680
1520
dojazdów – przejazdu
28:53
between their home and their
825
1733200
1360
między domem a
28:54
place of work.
826
1734560
1440
miejscem pracy.
28:56
Which is real problem when you
827
1736000
1440
Co jest prawdziwym problemem, kiedy
28:57
live in a city of… how many people
828
1737440
2400
mieszkasz w mieście… jak myślisz, ilu ludzi
28:59
did you say live in Mumbai, Neil?
829
1739840
2000
mieszka w Mumbaju, Neil?
29:01
Ah yes, in our quiz question I asked
830
1741840
2320
Ach tak, w naszym pytaniu quizowym zapytałem
29:04
you what the estimated population
831
1744160
2000
cię, jaka jest szacunkowa populacja
29:06
of Mumbai is.
832
1746160
1200
Bombaju.
29:07
I said b) 20 million people.
833
1747360
2720
Powiedziałem b) 20 milionów ludzi.
29:10
And you were absolutely right!
834
1750080
1760
I miałeś absolutną rację!
29:11
Around 20 million people live in
835
1751840
1920
W metropolii Bombaju mieszka około 20 milionów ludzi
29:13
the Mumbai metropolis, making it
836
1753760
2000
, co
29:15
very difficult to socially distance.
837
1755760
2640
bardzo utrudnia zachowanie dystansu społecznego.
29:18
In this programme, we’ve been
838
1758400
1360
W tym programie
29:19
discussing the relationship between
839
1759760
1600
omawialiśmy związek między
29:21
cities and disease. In the 1800s,
840
1761360
3040
miastami a chorobami. W XIX wieku
29:24
tuberculous, or TB, killed thousands
841
1764400
3360
gruźlica zabijała tysiące ludzi,
29:27
because it was an airborne
842
1767760
1680
ponieważ była
29:29
disease – spread
843
1769440
1280
chorobą przenoszoną drogą powietrzną – rozprzestrzeniała się
29:30
in the air, and hard to prevent.
844
1770720
2080
w powietrzu i trudno jej było zapobiec.
29:32
Antibiotics – medicinal chemicals
845
1772800
2400
Antybiotyki – medyczne substancje chemiczne,
29:35
like penicillin which can destroy
846
1775200
1920
takie jak penicylina, które mogą niszczyć
29:37
harmful germs, couldn’t help
847
1777120
2160
szkodliwe zarazki, nie mogły pomóc,
29:39
because they weren’t discovered
848
1779280
1360
ponieważ zostały odkryte
29:40
until decades later.
849
1780640
1760
dopiero dziesiątki lat później.
29:42
So in metropolises – the largest and
850
1782400
2640
Tak więc w metropoliach – największych i
29:45
most important cities, where people
851
1785040
1760
najważniejszych miastach, gdzie ludzie
29:46
live crowded close together, diseases
852
1786800
2960
mieszkają stłoczeni blisko siebie, choroby
29:49
spread like wildfire – an idiom
853
1789760
2400
rozprzestrzeniają się lotem błyskawicy – ​​idiom
29:52
meaning spread widely and quickly.
854
1792160
2400
oznaczający rozprzestrzenianie się szeroko i szybko.
29:54
In Mumbai and other places, the
855
1794560
1840
W Bombaju i innych miejscach
29:56
problem remains that many
856
1796400
1440
problem polega na tym, że wielu
29:57
people need the city for their
857
1797840
1440
ludzi potrzebuje miasta do
29:59
livelihood – job or other way of
858
1799280
2240
życia – pracy lub innego sposobu
30:01
earning money.
859
1801520
960
zarabiania pieniędzy.
30:02
So, they prefer to live in the city
860
1802480
1600
Wolą więc mieszkać w
30:04
centre instead of paying for the
861
1804080
1600
centrum miasta, zamiast płacić za
30:05
daily commute – a journey, often
862
1805680
2160
codzienne dojazdy – podróż, często
30:07
by train, bus or car, from your home
863
1807840
2240
pociągiem, autobusem lub samochodem, z domu
30:10
to your workplace.
864
1810080
1600
do miejsca pracy.
30:11
That’s all we have time for in
865
1811680
1600
To wszystko, na co mamy czas w
30:13
this programme, but remember you
866
1813280
1440
tym programie, ale pamiętaj, że
30:14
can find more useful vocabulary,
867
1814720
2000
więcej przydatnego słownictwa,
30:16
trending topics and help with your
868
1816720
1760
popularne tematy i pomoc w
30:18
language learning here at
869
1818480
1440
nauce języka znajdziesz tutaj w
30:19
BBC Learning English.
870
1819920
1520
BBC Learning English.
30:21
Bye for now!
871
1821440
1050
Na razie!
30:22
Bye bye!
872
1822490
793
PA pa!
O tej stronie

Na tej stronie poznasz filmy z YouTube, które są przydatne do nauki języka angielskiego. Zobaczysz lekcje angielskiego prowadzone przez najlepszych nauczycieli z całego świata. Kliknij dwukrotnie na angielskie napisy wyświetlane na stronie każdego filmu, aby odtworzyć film od tego miejsca. Napisy przewijają się synchronicznie z odtwarzaniem filmu. Jeśli masz jakieś uwagi lub prośby, skontaktuj się z nami za pomocą formularza kontaktowego.

https://forms.gle/WvT1wiN1qDtmnspy7