BOX SET: 6 Minute English - 'Artificial intelligence' English mega-class! 30 minutes of new vocab!

6,365 views ・ 2025-01-19

BBC Learning English


Proszę kliknąć dwukrotnie na poniższe angielskie napisy, aby odtworzyć film. Przetłumaczone napisy są tłumaczone maszynowo.

00:00
6 Minute English.
0
760
1720
6 minut języka angielskiego.
00:02
From BBC Learning English.
1
2600
2640
Z BBC Learning English.
00:05
Hello. This is 6 Minute English from BBC Learning English. I'm Neil.
2
5840
3920
Cześć. To jest 6-minutowy kurs języka angielskiego od BBC Learning English. Jestem Neil.
00:09
And I'm Rob.
3
9880
1200
A ja jestem Rob.
00:11
Now, I'm sure most of us have interacted with a chatbot.
4
11200
4360
Jestem pewien, że większość z nas miała okazję rozmawiać z chatbotem. Są to
00:15
These are bits of computer technology
5
15680
2320
elementy technologii komputerowej,
00:18
that respond to text with text or respond to your voice.
6
18120
4600
które reagują na tekst tekstem lub na Twój głos.
00:22
You ask it a question and usually it comes up with an answer.
7
22840
3960
Zadajesz pytanie i zazwyczaj udziela odpowiedzi.
00:26
Yes, it's almost like talking to another human, but of course it's not,
8
26920
4480
Tak, to prawie jak rozmowa z innym człowiekiem, ale oczywiście tak nie jest –
00:31
it's just a clever piece of technology.
9
31520
2560
to po prostu sprytny wynalazek technologiczny.
00:34
It is becoming more 'sophisticated' — more 'advanced and complex' —
10
34200
3640
Stają się coraz bardziej „wyrafinowane” — bardziej „zaawansowane i złożone” —
00:37
but could they replace real human interaction altogether?
11
37960
3200
ale czy mogą całkowicie zastąpić prawdziwe interakcje międzyludzkie?
00:41
We'll discuss that more in a moment
12
41280
2040
Porozmawiamy o tym szerzej za chwilę
00:43
and find out if chatbots really think for themselves.
13
43440
3680
i sprawdzimy, czy chatboty naprawdę myślą samodzielnie.
00:47
But first I have a question for you, Rob.
14
47240
2440
Ale najpierw mam do ciebie pytanie, Robie.
00:49
The first computer program that allowed some kind of plausible conversation
15
49800
4440
Pierwszy program komputerowy, który umożliwiał wiarygodną rozmowę
00:54
between humans and machines was invented in 1966, but what was it called?
16
54360
6440
między ludźmi i maszynami, został wynaleziony w 1966 roku, ale jak się nazywał?
01:00
Was it a) Alexa? b) ELIZA? Or c) PARRY?
17
60920
6120
Czy to była a) Alexa? b) ELIZA? Lub c) PARRY?
01:07
Ah, well, it's not Alexa, that's too new, so I'll guess c) PARRY.
18
67160
4280
No cóż, to nie Alexa, to jest zbyt nowe, więc zgaduję c) PARRY.
01:11
I'll reveal the answer at the end of the programme.
19
71560
3200
Odpowiedź podam pod koniec programu.
01:14
Now, the old chatbots of the 1960s and '70s were quite basic,
20
74880
5440
Stare chatboty z lat 60. i 70. były dość podstawowe,
01:20
but more recently, the technology is able to predict the next word
21
80440
4640
ale nowsza technologia pozwala przewidywać, jakie słowo
01:25
that is likely to be used in a sentence,
22
85200
2200
prawdopodobnie zostanie użyte jako następne w zdaniu,
01:27
and it learns words and sentence structures.
23
87520
2840
i uczy się wyrazów oraz struktur zdaniowych.
01:30
Mm, it's clever stuff.
24
90480
1480
No cóż, sprytne rozwiązanie.
01:32
I've experienced using them when talking to my bank,
25
92080
2800
Korzystałem z nich rozmawiając z bankiem
01:35
or when I have problems trying to book a ticket on a website.
26
95000
3080
lub gdy miałem problem z rezerwacją biletu na stronie internetowej.
01:38
I no longer phone a human, I speak to a virtual assistant instead.
27
98200
5160
Już nie dzwonię do człowieka, zamiast tego rozmawiam z wirtualnym asystentem.
01:43
Probably the most well-known chatbot at the moment is ChatGPT..
28
103480
4560
Prawdopodobnie najbardziej znanym chatbotem w tej chwili jest ChatGPT.
01:48
It is. The claim is that it's able to answer anything you ask it.
29
108160
4400
Tak jest. Twierdzi się, że jest w stanie odpowiedzieć na każde pytanie.
01:52
This includes writing students' essays.
30
112680
2760
Obejmuje to pisanie esejów przez studentów. O
01:55
Now, this is something that was discussed
31
115560
1760
tym rozmawiano
01:57
on the BBC Radio 4 programme, Word of Mouth.
32
117440
3040
w programie Word of Mouth w BBC Radio 4.
02:00
Emily M Bender, Professor of Computational Linguistics
33
120600
4280
Emily M. Bender, profesor lingwistyki komputerowej
02:05
at the University of Washington,
34
125000
1680
na Uniwersytecie Waszyngtońskim,
02:06
explained why it's dangerous to always trust what a chatbot is telling us.
35
126800
4720
wyjaśniła, dlaczego nie należy zawsze ufać temu, co mówi nam chatbot.
02:11
We tend to react to grammatical, fluent, coherent-seeming text
36
131640
5120
Mamy tendencję do odbierania tekstów gramatycznych, płynnych i spójnych
02:16
as authoritative and reliable and valuable and we need to be on guard against that,
37
136880
6040
jako autorytatywnych, wiarygodnych i wartościowych. Musimy się przed tym chronić,
02:23
because what's coming out of ChatGPT is none of that.
38
143040
2520
ponieważ to, co daje nam ChatGPT, wcale takie nie jest.
02:25
So, Professor Bender says that well-written text that is 'coherent' —
39
145680
4200
Zatem profesor Bender twierdzi, że dobrze napisany tekst, który jest „spójny” —
02:30
that means it's 'clear, carefully considered and sensible' —
40
150000
3440
a więc „jasny, starannie przemyślany i rozsądny” —
02:33
makes us think what we are reading is reliable and 'authoritative'.
41
153560
4040
sprawia, że ​​uważamy to, co czytamy, za wiarygodne i „autorytatywne”. Brzmi
02:37
So it's 'respected, accurate and important sounding'.
42
157720
3440
więc „z szacunkiem, dokładnie i poważnie”.
02:41
Yes, chatbots might appear to write in this way,
43
161280
3000
Tak, może się wydawać, że chatboty piszą w ten sposób,
02:44
but really, they are just predicting one word after another,
44
164400
3560
ale tak naprawdę po prostu przewidują jedno słowo po drugim,
02:48
based on what they have learnt.
45
168080
2040
opierając się na tym, czego się nauczyły.
02:50
We should, therefore, be 'on guard' — be 'careful and alert' —
46
170240
3720
Powinniśmy więc zachować czujność — być ostrożni i czujni —
02:54
about the accuracy of what we are being told.
47
174080
3000
co do dokładności tego, co nam się mówi.
02:57
One concern is that chatbots — a form of artificial intelligence —
48
177200
4240
Jednym z powodów do obaw jest to, że chatboty — forma sztucznej inteligencji —
03:01
work a bit like a human brain in the way it can learn and process information.
49
181560
4920
działają trochę jak ludzki mózg, jeśli chodzi o zdolność uczenia się i przetwarzania informacji.
03:06
They are able to learn from experience, something called deep learning.
50
186600
4360
Potrafią uczyć się na podstawie doświadczeń – jest to zjawisko nazywane głębokim uczeniem.
03:11
A cognitive psychologist and computer scientist called Geoffrey Hinton
51
191080
4200
Psycholog poznawczy i informatyk Geoffrey Hinton
03:15
recently said he feared that chatbots could soon overtake
52
195400
3680
niedawno powiedział, że obawia się, iż chatboty będą mogły wkrótce prześcignąć
03:19
the level of information that a human brain holds.
53
199200
3400
ludzki mózg pod względem ilości przetwarzanych informacji.
03:22
That's a bit scary, isn't it?
54
202720
1440
To trochę przerażające, prawda?
03:24
Mm, but for now, chatbots can be useful for practical information,
55
204280
4360
No cóż, na razie chatboty mogą być przydatne w kontekście przekazywania praktycznych informacji,
03:28
but sometimes we start to believe they are human
56
208760
2680
ale czasem zaczynamy wierzyć, że są ludźmi
03:31
and we interact with them in a human-like way.
57
211560
2680
i wchodzimy z nimi w interakcję w sposób typowy dla ludzi.
03:34
This can make us believe them even more.
58
214360
2400
To może sprawić, że będziemy im wierzyć jeszcze bardziej.
03:36
Professor Emma Bender, speaking on the BBC's Word of Mouth programme,
59
216880
3520
Profesor Emma Bender, występując w programie BBC Word of Mouth,
03:40
explains why we might feel like that.
60
220520
2760
wyjaśnia, dlaczego możemy tak się czuć.
03:43
I think what's going on there is the kinds of answers you get
61
223400
4160
Myślę, że to, co się tam dzieje, polega na tym, że rodzaj odpowiedzi, jakie otrzymujesz,
03:47
depend on the questions you put in,
62
227680
2040
zależy od zadawanych pytań,
03:49
because it's doing likely next word, likely next word,
63
229840
2520
ponieważ maszyna prawdopodobnie będzie pytać o kolejne słowo, prawdopodobnie o kolejne słowo,
03:52
and so if, as the human interacting with this machine,
64
232480
3280
więc jeśli jako człowiek wchodzący w interakcję z tą maszyną
03:55
you start asking it questions about how do you feel, you know, Chatbot?
65
235880
4280
zaczniesz zadawać jej pytania o jak się czujesz, wiesz, Chatbot?
04:00
And "What do you think of this?" And, "What are your goals?"
66
240280
2840
A co o tym myślisz? A „Jakie są twoje cele?”
04:03
You can provoke it to say things
67
243240
1720
Można sprowokować je do powiedzenia czegoś,
04:05
that sound like what a sentient entity would say.
68
245080
2960
co będzie brzmiało jak wypowiedź jakiejś świadomej istoty. Zawsze, gdy stykamy się z językiem,
04:08
We are really primed to imagine a mind behind language
69
248160
3320
jesteśmy skłonni wyobrazić sobie umysł stojący za językiem,
04:11
whenever we encounter language
70
251600
1600
04:13
and so we really have to account for that when we're making decisions about these.
71
253320
3680
dlatego musimy to brać pod uwagę, podejmując decyzje na jego temat.
04:17
So, although a chatbot might sound human,
72
257840
2560
Zatem, mimo że chatbot może brzmieć jak człowiek,
04:20
we really just ask it things to get a reaction — we 'provoke' it —
73
260520
3840
tak naprawdę zadajemy mu pytania, żeby wywołać reakcję — „prowokujemy” go —
04:24
and it answers only with words it's learned to use before,
74
264480
4040
a on odpowiada wyłącznie słowami, których nauczył się już wcześniej używać, a
04:28
not because it has come up with a clever answer.
75
268640
2720
nie dlatego, że wymyślił sprytną odpowiedź.
04:31
But it does sound like a sentient entity —
76
271480
2600
Ale brzmi to jak określenie bytu świadomego —
04:34
'sentient' describes 'a living thing that experiences feelings'.
77
274200
4440
„świadomy” oznacza bowiem „żywą istotę, która doświadcza uczuć”.
04:38
As Professor Bender says,
78
278760
1640
Jak mówi profesor Bender,
04:40
we imagine that when something speaks, there is a mind behind it.
79
280520
4080
wyobrażamy sobie, że za czymś przemawia umysł.
04:44
But sorry, Neil, they are not your friend, they're just machines!
80
284720
4000
Ale przykro mi, Neil, oni nie są twoimi przyjaciółmi, to tylko maszyny!
04:48
Yes, it's strange then that we sometimes give chatbots names.
81
288840
3240
Tak, dziwne jest to, że czasami nadajemy chatbotom nazwy.
04:52
Alexa, Siri, and earlier I asked you what the name was for the first ever chatbot.
82
292200
5920
Alexa, Siri, a wcześniej pytałem was, jak nazywa się pierwszy chatbot.
04:58
And I guessed it was PARRY. Was I right?
83
298240
2880
I zgadłem, że to PARRY. Czy miałem rację?
05:01
You guessed wrong, I'm afraid.
84
301240
2040
Obawiam się, że źle zgadłeś.
05:03
PARRY was an early form of chatbot from 1972, but the correct answer was ELIZA.
85
303400
6400
PARRY był wczesną formą chatbota z 1972 r., ale poprawną odpowiedzią była ELIZA.
05:09
It was considered to be the first 'chatterbot' — as it was called then —
86
309920
4000
Uważano go za pierwszego „czatterbota” — jak go wówczas nazywano —
05:14
and was developed by Joseph Weizenbaum at Massachusetts Institute of Technology.
87
314040
5640
i został opracowany przez Josepha Weizenbauma z Massachusetts Institute of Technology.
05:19
Fascinating stuff.
88
319800
1040
Fascynująca rzecz.
05:20
OK, now let's recap some of the vocabulary we highlighted in this programme.
89
320960
4360
OK, podsumujmy teraz część słownictwa, które wyróżniliśmy w tym programie.
05:25
Starting with 'sophisticated',
90
325440
2000
Zaczynając od słowa „zaawansowany”,
05:27
which can describe technology that is 'advanced and complex'.
91
327560
3880
co może opisywać technologię, która jest „zaawansowana i złożona”.
05:31
Something that is 'coherent' is 'clear, carefully considered and sensible'.
92
331560
4320
Coś, co jest spójne, jest jasne, starannie przemyślane i rozsądne.
05:36
'Authoritative' means 'respected, accurate and important sounding'.
93
336000
4480
„Autorytatywny” oznacza „szanowany, dokładny i brzmiący poważnie”.
05:40
When you are 'on guard' you must be 'careful and alert' about something —
94
340600
3760
Gdy jesteś „na straży”, musisz być „ostrożny i czujny” na coś —
05:44
it could be accuracy of what you see or hear,
95
344480
3320
może to być dokładność tego, co widzisz lub słyszysz,
05:47
or just being aware of the dangers around you.
96
347920
2640
albo po prostu świadomość niebezpieczeństw wokół ciebie.
05:50
To 'provoke' means to 'do something that causes a reaction from someone'.
97
350680
4160
„Prowokować” oznacza „zrobić coś, co wywołuje reakcję u kogoś”.
05:54
'Sentient' describes 'something that experiences feelings' —
98
354960
3680
„Czujący” oznacza „coś, co doświadcza uczuć” —
05:58
so it's 'something that is living'.
99
358760
2120
jest to więc „coś, co żyje”.
06:01
Once again, our six minutes are up. Goodbye.
100
361000
2640
Znów minęło nasze sześć minut. Do widzenia.
06:03
Bye for now.
101
363760
1000
Na razie pa.
06:05
6 Minute English.
102
365680
1520
6 minut języka angielskiego.
06:07
From BBC Learning English.
103
367320
2400
Z BBC Learning English.
06:10
Hello. This is 6 Minute English from BBC Learning English.
104
370600
3240
Cześć. To jest 6-minutowy kurs języka angielskiego od BBC Learning English.
06:13
— I'm Sam. — And I'm Neil.
105
373960
1240
— Jestem Sam. — A ja jestem Neil.
06:15
In the autumn of 2021, something strange happened
106
375320
3640
Jesienią 2021 roku
06:19
at the Google headquarters in California's Silicon Valley.
107
379080
3440
w siedzibie Google w kalifornijskiej Dolinie Krzemowej wydarzyło się coś dziwnego.
06:22
A software engineer called Blake Lemoine
108
382640
2720
Inżynier oprogramowania o nazwisku Blake Lemoine
06:25
was working on the artificial intelligence project
109
385480
2840
pracował nad projektem sztucznej inteligencji
06:28
Language Models for Dialogue Applications, or LaMDA for short.
110
388440
5080
Language Models for Dialogue Applications, w skrócie LaMDA.
06:33
LaMDA is a 'chatbot' — a 'computer programme
111
393640
2880
LaMDA to „chatbot” — „program komputerowy
06:36
'designed to have conversations with humans over the internet'.
112
396640
3360
zaprojektowany do prowadzenia rozmów z ludźmi za pośrednictwem Internetu”.
06:40
After months talking with LaMDA
113
400120
2280
Po miesiącach rozmów z LaMDA
06:42
on topics ranging from movies to the meaning of life,
114
402520
3360
na tematy od filmów po sens życia,
06:46
Blake came to a surprising conclusion —
115
406000
2640
Blake doszedł do zaskakującego wniosku —
06:48
the chatbot was an intelligent person
116
408760
2720
chatbot był inteligentną osobą, której
06:51
with wishes and rights that should be respected.
117
411600
3040
życzenia i prawa należy uszanować.
06:54
For Blake, LaMDA was a Google employee, not a machine.
118
414760
3960
Dla Blake’a LaMDA był pracownikiem Google, a nie maszyną.
06:58
He also called it his friend.
119
418840
1880
Nazywał go także swoim przyjacielem.
07:00
Google quickly reassigned Blake from the project,
120
420840
2880
Google szybko odsunęło Blake'a od projektu,
07:03
announcing that his ideas were not supported by the evidence.
121
423840
3760
ogłaszając, że jego pomysły nie są poparte dowodami.
07:07
But what exactly was going on?
122
427720
2440
Ale co dokładnie się działo?
07:10
In this programme, we'll be discussing whether artificial intelligence
123
430280
3720
W tym programie będziemy dyskutować, czy sztuczna inteligencja
07:14
is capable of consciousness.
124
434120
2160
jest zdolna do posiadania świadomości.
07:16
We'll hear from one expert
125
436400
1480
Posłuchamy opinii eksperta,
07:18
who thinks AI is not as intelligent as we sometimes think
126
438000
3600
który uważa, że ​​sztuczna inteligencja nie jest tak inteligentna, jak nam się czasem wydaje,
07:21
and, as usual, we'll be learning some new vocabulary as well.
127
441720
3800
a także, jak zwykle, poznamy nowe słownictwo.
07:25
But before that, I have a question for you, Neil.
128
445640
2480
Ale zanim to zrobię, mam do ciebie pytanie, Neil.
07:28
What happened to Blake Lemoine
129
448240
1400
To, co przydarzyło się Blake'owi Lemoine'owi,
07:29
is strangely similar to the 2013 Hollywood movie, Her,
130
449760
4200
dziwnie przypomina hollywoodzki film z 2013 r. pt. Ona, w którym
07:34
starring Joaquin Phoenix as a lonely writer who talks with his computer,
131
454080
4400
Joaquin Phoenix gra samotnego pisarza rozmawiającego z komputerem, a
07:38
voiced by Scarlett Johansson.
132
458600
1840
głosu użyczyła mu Scarlett Johansson.
07:40
But what happens at the end of the movie?
133
460560
2280
Ale co dzieje się na końcu filmu?
07:42
Is it a) The computer comes to life?
134
462960
2520
Czy to jest a) Komputer ożywa?
07:45
b) The computer dreams about the writer?
135
465600
2480
b) Komputer śni o pisarzu?
07:48
Or c) The writer falls in love with the computer?
136
468200
2800
Albo c) Pisarz zakochuje się w komputerze?
07:51
C) The writer falls in love with the computer.
137
471120
3240
C) Pisarz zakochuje się w komputerze.
07:54
OK, Neil, I'll reveal the answer at the end of the programme.
138
474480
3360
OK, Neil, odpowiedź podam pod koniec programu.
07:57
Although Hollywood is full of movies about robots coming to life,
139
477960
3760
Chociaż w Hollywood powstało mnóstwo filmów o ożywających robotach,
08:01
Emily Bender, Professor of Linguistics and Computing at the University of Washington,
140
481840
5440
Emily Bender, profesor lingwistyki i informatyki na Uniwersytecie Waszyngtońskim,
08:07
thinks AI isn't that smart.
141
487400
2640
uważa, że ​​sztuczna inteligencja nie jest aż tak inteligentna.
08:10
She thinks the words we use to talk about technology —
142
490160
3240
Uważa, że ​​słowa, których używamy, mówiąc o technologii —
08:13
phrases like 'machine learning' —
143
493520
2120
takie jak „uczenie maszynowe” —
08:15
give a false impression about what computers can and can't do.
144
495760
4440
dają fałszywe wyobrażenie o tym, co komputery potrafią, a czego nie.
08:20
Here is Professor Bender discussing another misleading phrase —
145
500320
3520
Oto profesor Bender omawiający kolejne mylące określenie —
08:23
'speech recognition' — with BBC World Service programme The Inquiry.
146
503960
5120
„rozpoznawanie mowy” — w programie The Inquiry stacji BBC World Service.
08:29
If you talk about 'automatic speech recognition',
147
509200
3000
Jeśli mówimy o „automatycznym rozpoznawaniu mowy”,
08:32
the term 'recognition' suggests that there's something cognitive going on,
148
512320
4680
termin „rozpoznawanie” sugeruje, że zachodzi proces poznawczy,
08:37
where I think a better term would be automatic transcription.
149
517120
2840
przy czym lepszym określeniem byłoby „automatyczna transkrypcja”.
08:40
That just describes the input-output relation,
150
520080
2400
Opisuje to jedynie relację wejścia-wyjścia,
08:42
and not any theory or wishful thinking
151
522600
3480
a nie jakąkolwiek teorię czy pobożne życzenia
08:46
about what the computer is doing to be able to achieve that.
152
526200
3360
dotyczące tego, co komputer robi, aby to osiągnąć.
08:49
Using words like 'recognition' in relation to computers
153
529680
3720
Użycie słów takich jak „rozpoznawanie” w odniesieniu do komputerów
08:53
gives the idea that something 'cognitive' is happening —
154
533520
3160
sugeruje, że dzieje się coś „poznawczego” —
08:56
something 'related to the mental processes
155
536800
2680
coś „związanego z procesami umysłowymi
08:59
'of thinking, knowing, learning and understanding'.
156
539600
3120
myślenia, wiedzy, uczenia się i rozumienia”.
09:02
But thinking and knowing are human, not machine, activities.
157
542840
4480
Ale myślenie i wiedza to czynności ludzkie, nie maszynowe.
09:07
Professor Benders says that talking about them in connection with computers
158
547440
4160
Profesor Benders uważa, że ​​mówienie o nich w kontekście komputerów
09:11
is 'wishful thinking' — 'something which is unlikely to happen'.
159
551720
4720
to „pobożne życzenie” — „ coś, co raczej nie nastąpi”.
09:16
The problem with using words in this way
160
556560
2120
Problem z używaniem słów w ten sposób polega na tym,
09:18
is that it reinforces what Professor Bender calls 'technical bias' —
161
558800
4760
że wzmacnia to, co profesor Bender nazywa „stronniczością techniczną” – „
09:23
'the assumption that the computer is always right'.
162
563680
2920
założenie, że komputer zawsze ma rację”.
09:26
When we encounter language that sounds natural, but is coming from a computer,
163
566720
4120
Gdy napotykamy język, który brzmi naturalnie, ale pochodzi od komputera,
09:30
humans can't help but imagine a mind behind the language,
164
570960
3760
nie możemy oprzeć się wrażeniu, że za tym językiem stoi umysł,
09:34
even when there isn't one.
165
574840
1520
nawet jeśli go nie ma.
09:36
In other words, we 'anthropomorphise' computers —
166
576480
2960
Innymi słowy, „antropomorfizujemy” komputery — „
09:39
we 'treat them as if they were human'.
167
579560
2320
traktujemy je, jakby były ludźmi”.
09:42
Here's Professor Bender again, discussing this idea with Charmaine Cozier,
168
582000
4600
Oto ponownie profesor Bender rozmawiający na ten temat z Charmaine Cozier,
09:46
the presenter of BBC World Service's The Inquiry.
169
586720
3520
prezenterką programu The Inquiry w BBC World Service.
09:50
So 'ism' means system, 'anthro' or 'anthropo' means human,
170
590360
4800
Zatem „izm” oznacza system, „antrop” lub „anthropo” oznacza człowieka,
09:55
and 'morph' means shape.
171
595280
1800
a „morph” oznacza kształt.
09:57
And so this is a system that puts the shape of a human on something,
172
597200
4760
A więc jest to system, który nadaje czemuś kształt człowieka,
10:02
and, in this case, the something is a computer.
173
602080
1680
a w tym przypadku tym czymś jest komputer.
10:03
We anthropomorphise animals all the time,
174
603880
2920
Ciągle antropomorfizujemy zwierzęta,
10:06
but we also anthropomorphise action figures, or dolls,
175
606920
3840
ale antropomorfizujemy także figurki akcji, lalki
10:10
or companies when we talk about companies having intentions and so on.
176
610880
3880
czy firmy, gdy mówimy o ich intencjach itd.
10:14
We very much are in the habit of seeing ourselves in the world around us.
177
614880
4480
Jesteśmy bardzo przyzwyczajeni do dostrzegania siebie w otaczającym nas świecie.
10:19
And while we're busy seeing ourselves
178
619480
1920
A gdy jesteśmy zajęci postrzeganiem siebie
10:21
by assigning human traits to things that are not, we risk being blindsided.
179
621520
4760
poprzez przypisywanie ludzkich cech rzeczom, które takimi nie są, ryzykujemy, że zostaniemy zaskoczeni.
10:26
The more fluent that text is, the more different topics it can converse on,
180
626400
3880
Im bardziej płynny jest tekst, im więcej różnych tematów może poruszać,
10:30
the more chances there are to get taken in.
181
630400
2720
tym większe prawdopodobieństwo, że damy się nabrać.
10:34
If we treat computers as if they could think,
182
634040
2600
Jeśli będziemy traktować komputery tak, jakby potrafiły myśleć,
10:36
we might get 'blindsided', or 'unpleasantly surprised'.
183
636760
4160
możemy zostać „zaskoczeni” lub „niemile zaskoczeni”.
10:41
Artificial intelligence works by finding patterns in massive amounts of data,
184
641040
4560
Sztuczna inteligencja działa poprzez wyszukiwanie wzorców w ogromnych zbiorach danych,
10:45
so it can seem like we're talking with a human,
185
645720
2520
dzięki czemu może się wydawać, że rozmawiamy z człowiekiem,
10:48
instead of a machine doing data analysis.
186
648360
3000
a nie z maszyną analizującą dane.
10:51
As a result, we 'get taken in' — we're 'tricked or deceived'
187
651480
4240
W efekcie „dajemy się nabrać” — „ oszukać lub zwieść” –
10:55
into thinking we're dealing with a human, or with something intelligent.
188
655840
3640
wmówiono nam, że mamy do czynienia z człowiekiem lub czymś inteligentnym.
10:59
Powerful AI can make machines appear conscious,
189
659600
3760
Potężna sztuczna inteligencja może sprawić, że maszyny będą sprawiać wrażenie świadomych,
11:03
but even tech giants like Google
190
663480
2320
ale nawet giganci technologiczni, tacy jak Google, muszą czekać
11:05
are years away from building computers that can dream or fall in love.
191
665920
4480
lata, zanim zbudują komputery, które będą mogły marzyć i się zakochiwać. A
11:10
Speaking of which, Sam, what was the answer to your question?
192
670520
3160
skoro o tym mowa, Sam, jaka była odpowiedź na twoje pytanie?
11:13
I asked what happened in the 2013 movie, Her.
193
673800
3240
Zapytałem, co się wydarzyło w filmie Ona z 2013 roku.
11:17
Neil thought that the main character falls in love with his computer,
194
677160
3080
Neil uważał, że główny bohater zakochuje się w swoim komputerze
11:20
— which was the correct answer! — OK.
195
680360
2760
— i to była prawidłowa odpowiedź! - OK.
11:23
Right, it's time to recap the vocabulary we've learned from this programme
196
683240
3640
No cóż, czas podsumować słownictwo, którego nauczyliśmy się w tym programie
11:27
about AI, including 'chatbots' —
197
687000
2720
na temat sztucznej inteligencji, w tym „chatboty” — „
11:29
'computer programmes designed to interact with humans over the internet'.
198
689840
4080
programy komputerowe przeznaczone do interakcji z ludźmi za pośrednictwem Internetu”.
11:34
The adjective 'cognitive' describes anything connected
199
694040
3440
Przymiotnik „poznawczy” opisuje wszystko, co wiąże się
11:37
with 'the mental processes of knowing, learning and understanding'.
200
697600
3680
z „procesami umysłowymi poznawania, uczenia się i rozumienia”.
11:41
'Wishful thinking' means 'thinking that something which is very unlikely to happen
201
701400
4720
Myślenie życzeniowe oznacza myślenie, że coś, co jest bardzo mało prawdopodobne,
11:46
'might happen one day in the future'.
202
706240
2040
„może się zdarzyć pewnego dnia w przyszłości”.
11:48
To 'anthropomorphise' an object
203
708400
1440
„Antropomorfizować” obiekt
11:49
means 'to treat it as if it were human, even though it's not'.
204
709960
3440
oznacza „traktować go tak, jakby był człowiekiem, chociaż nim nie jest”.
11:53
When you're 'blindsided', you're 'surprised in a negative way'.
205
713520
3640
Kiedy jesteś „zaskoczony”, jesteś „negatywnie zaskoczony”.
11:57
And finally, to 'get taken in' by someone means to be 'deceived or tricked' by them.
206
717280
4760
I wreszcie, „dać się nabrać” komuś oznacza „zostać oszukanym lub nabranym” przez tę osobę.
12:02
My computer tells me that our six minutes are up!
207
722160
2920
Mój komputer mówi mi, że nasze sześć minut dobiegło końca!
12:05
Join us again soon, for now it's goodbye from us.
208
725200
2960
Dołącz do nas wkrótce, na razie żegnamy się.
12:08
Bye!
209
728280
1360
Do widzenia!
12:09
6 Minute English.
210
729760
1560
6 minut języka angielskiego.
12:11
From BBC Learning English.
211
731440
2400
Z BBC Learning English.
12:14
Hello, I'm Rob. Welcome to 6 Minute English and with me in the studio is Neil.
212
734640
4520
Cześć, jestem Rob. Witamy w 6 Minute English. Razem ze mną w studiu jest Neil.
12:19
— Hello, Rob. — Hello.
213
739280
1720
— Cześć, Robie. - Cześć.
12:21
Feeling clever today, Neil?
214
741120
1520
Czujesz się dziś mądrze, Neil?
12:22
I am feeling quite bright and clever, yes!
215
742760
2240
Czuję się całkiem bystry i mądry, tak!
12:25
That's good to hear.
216
745120
1000
Miło to słyszeć.
12:26
Well, 'you'll need your wits about you' —
217
746240
1640
Cóż, w tym programie „będziesz musiał wykazać się sprytem” – co
12:28
meaning 'you'll need to think very quickly' in this programme,
218
748000
2760
oznacza „będziesz musiał myśleć bardzo szybko”,
12:30
because we're talking about intelligence,
219
750880
2480
ponieważ mówimy o inteligencji,
12:33
or to be more accurate, artificial intelligence,
220
753480
3280
a dokładniej sztucznej inteligencji,
12:36
and we'll learn some vocabulary related to the topic,
221
756880
3040
i będziemy się jej uczyć pewne słownictwo związane z tematem,
12:40
so that you can have your own discussion about it.
222
760040
2720
dzięki czemu będziesz mógł prowadzić na ten temat własną dyskusję.
12:42
Neil, now, you know who Professor Stephen Hawking is, right?
223
762880
3120
Neil, wiesz kim jest profesor Stephen Hawking, prawda?
12:46
Well, of course! Yes.
224
766120
1240
No jasne! Tak.
12:47
Many people say that he's a 'genius' —
225
767480
2320
Wiele osób twierdzi, że jest „geniuszem” —
12:49
in other words, he is 'very, very intelligent'.
226
769920
3080
innymi słowy, że jest „bardzo, bardzo inteligentny”.
12:53
Professor Hawking is one of the most famous scientists in the world
227
773120
3480
Profesor Hawking jest jednym z najsłynniejszych naukowców na świecie,
12:56
and people remember him for his brilliance
228
776720
1960
a ludzie pamiętają go za jego geniusz,
12:58
and also because he communicates using a synthetic voice generated by a computer —
229
778800
5560
a także dlatego, że komunikuje się za pomocą syntetycznego głosu generowanego przez komputer —
13:04
'synthetic' means it's 'made from something non-natural'.
230
784480
3120
„syntetycznego” oznacza, że ​​„wykonanego z czegoś nienaturalnego”.
13:07
'Artificial' is similar in meaning —
231
787720
2040
Podobne znaczenie ma słowo „sztuczny” —
13:09
we use it when something is 'man-made to look or behave like something natural'.
232
789880
4720
używamy go, gdy coś jest „stworzone przez człowieka tak, aby wyglądało lub zachowywało się jak coś naturalnego”.
13:14
Well, Professor Hawking has said recently
233
794720
2360
Profesor Hawking powiedział niedawno,
13:17
that efforts to create thinking machines are a threat to our existence.
234
797200
4440
że próby stworzenia myślących maszyn stanowią zagrożenie dla naszego istnienia.
13:21
A 'threat' means 'something which can put us in danger'.
235
801760
3240
„Zagrożenie” oznacza coś, co może nas narazić na niebezpieczeństwo.
13:25
Now, can you imagine that, Neil?!
236
805120
1360
Wyobrażasz to sobie, Neil?!
13:26
Well, there's no denying that good things
237
806600
2080
Cóż, nie da się zaprzeczyć, że
13:28
can come from the creation of artificial intelligence.
238
808800
2640
tworzenie sztucznej inteligencji może przynieść dobre rezultaty.
13:31
Computers which can think for themselves
239
811560
1920
Komputery, które potrafią samodzielnie myśleć,
13:33
might be able to find solutions to problems we haven't been able to solve.
240
813600
4320
mogą znaleźć rozwiązania problemów, których my nie potrafiliśmy rozwiązać.
13:38
But technology is developing quickly and maybe we should consider the consequences.
241
818040
4680
Ale technologia rozwija się szybko i może powinniśmy zastanowić się nad konsekwencjami.
13:42
Some of these very clever robots are already surpassing us, Rob.
242
822840
4440
Niektóre z tych bardzo inteligentnych robotów już nas przewyższają, Robie.
13:47
'To surpass' means 'to have abilities superior to our own'.
243
827400
4000
„Przewyższyć” oznacza „mieć zdolności przewyższające nasze własne”.
13:51
Yes. Maybe you can remember the headlines when a supercomputer
244
831520
3280
Tak. Być może pamiętasz nagłówki gazet, gdy superkomputer
13:54
defeated the World Chess Champion, Gary Kasparov, to everyone's astonishment.
245
834920
4960
pokonał mistrza świata w szachach Gary'ego Kasparowa, ku ogólnemu zdziwieniu.
14:00
It was in 1997. What was the computer called though, Neil?
246
840000
3440
To było w 1997 roku. Jak nazywał się ten komputer, Neil?
14:03
Was it a) Red Menace? b) Deep Blue? Or c) Silver Surfer?
247
843560
6040
Czy to było a) Czerwone zagrożenie? b) Głęboki błękit? Albo c) Srebrny Surfer?
14:09
Erm, I don't know.
248
849720
2200
No cóż, nie wiem.
14:12
I think c) is probably not right. Erm...
249
852040
2360
Myślę, że odpowiedź c) prawdopodobnie nie jest prawidłowa. Hmm...
14:16
I think Deep Blue. That's b) Deep Blue.
250
856000
2160
Myślę, że Deep Blue. To jest b) Deep Blue.
14:18
OK. Well, you'll know if you got the answer right at the end of the programme.
251
858280
3680
OK. Cóż, dowiesz się, czy udzieliłeś prawidłowej odpowiedzi na końcu programu.
14:22
Well, our theme is artificial intelligence
252
862080
2240
Naszym tematem jest sztuczna inteligencja
14:24
and when we talk about this, we have to mention the movies.
253
864440
2840
i kiedy o tym mówimy, nie sposób nie wspomnieć o filmach.
14:27
Mm, many science fiction movies have explored the idea
254
867400
3240
Cóż, wiele filmów science fiction poruszało temat
14:30
of bad computers who want to harm us.
255
870760
2440
złych komputerów, które chcą nam zaszkodzić.
14:33
One example is 2001: A Space Odyssey.
256
873320
3440
Przykładem jest 2001: Odyseja kosmiczna.
14:36
Yes, a good film.
257
876880
1000
Tak, dobry film.
14:38
And another is The Terminator, a movie in which actor Arnold Schwarzenegger
258
878000
4000
Innym jest Terminator, film, w którym aktor Arnold Schwarzenegger
14:42
played an android from the future.
259
882120
2240
zagrał androida z przyszłości.
14:44
An 'android' is 'a robot that looks like a human'. Have you watched that one, Neil?
260
884480
3640
„Android” to „robot wyglądający jak człowiek”. Oglądałeś ten film, Neil?
14:48
Yes, I have and that android is not very friendly.
261
888240
3480
Tak, mam i muszę przyznać, że android nie jest zbyt przyjazny.
14:51
No, it's not!
262
891840
1000
Nie, nie jest!
14:52
In many movies and books about robots that think,
263
892960
2920
W wielu filmach i książkach o myślących robotach,
14:56
the robots end up rebelling against their creators.
264
896000
3200
roboty ostatecznie buntują się przeciwko swoim twórcom.
14:59
But some experts say the risk posed by artificial intelligence
265
899320
3480
Niektórzy eksperci twierdzą jednak, że ryzyko, jakie niesie ze sobą sztuczna inteligencja,
15:02
is not that computers attack us because they hate us.
266
902920
3320
nie polega na tym, że komputery będą nas atakować, ponieważ nas nienawidzą.
15:06
Their problem is related to their efficiency.
267
906360
2800
Ich problem wiąże się z ich efektywnością.
15:09
What do you mean?
268
909280
1000
Co masz na myśli?
15:10
Well, let's listen to what philosopher Nick Bostrom has to say.
269
910400
3920
Posłuchajmy więc, co ma do powiedzenia filozof Nick Bostrom.
15:14
He's the founder of the Future of Humanity Institute at Oxford University.
270
914440
4880
Jest założycielem Future of Humanity Institute na Uniwersytecie Oksfordzkim.
15:19
He uses three words when describing what's inside the mind of a thinking computer.
271
919440
5800
Używa trzech słów, aby opisać, co dzieje się w umyśle myślącego komputera.
15:25
This phrase means 'to meet their objectives'. What's the phrase he uses?
272
925360
4640
To wyrażenie oznacza „spełnić swoje cele”. Jakiego określenia użył?
15:30
The bulk of the risk is not in machines being evil or hating humans,
273
930680
5120
Największe ryzyko nie polega na tym, że maszyny będą złe lub będą nienawidzić ludzi,
15:35
but rather that they are indifferent to humans
274
935920
2320
ale na tym, że będą obojętne wobec ludzi
15:38
and that, in pursuit of their own goals, we humans would suffer as a side effect.
275
938360
4360
i że w pogoni za własnymi celami my, ludzie, będziemy cierpieć jako efekt uboczny.
15:42
Suppose you had a super intelligent AI
276
942840
1800
Wyobraź sobie, że masz superinteligentną sztuczną inteligencję,
15:44
whose only goal was to make as many paperclips as possible.
277
944760
3240
której jedynym celem jest wyprodukowanie jak największej liczby spinaczy.
15:48
Human bodies consist of atoms
278
948120
2280
Ciało człowieka składa się z atomów,
15:50
and those atoms could be used to make a lot of really nice paperclips.
279
950520
4360
a z tych atomów można zrobić wiele naprawdę ładnych spinaczy do papieru.
15:55
If you want paperclips, it turns out that in the pursuit of this,
280
955000
3080
Jeśli chcesz spinaczy, okazuje się, że w pogoni za nimi,
15:58
you would have instrumental reasons to do things that would be harmful to humanity.
281
958200
3320
będziesz miał instrumentalne powody, aby robić rzeczy, które byłyby szkodliwe dla ludzkości.
16:02
A world in which humans become paperclips — wow, that's scary!
282
962360
4640
Świat, w którym ludzie stają się spinaczami do papieru — wow, to przerażające!
16:07
But the phrase which means 'meet their objectives' is to 'pursue their goals'.
283
967120
4520
Jednakże zwrot oznaczający „spełnianie swoich celów” oznacza „dążenie do osiągnięcia swoich celów”.
16:11
Yes, it is.
284
971760
1000
Tak, jest.
16:12
So the academic explains that if you're a computer
285
972880
3280
Zatem naukowiec wyjaśnia, że ​​jeśli jesteś komputerem
16:16
responsible for producing paperclips, you will pursue your objective at any cost.
286
976280
5800
odpowiedzialnym za produkcję spinaczy, będziesz dążył do swojego celu za wszelką cenę.
16:22
And even use atoms from human bodies to turn them into paperclips!
287
982200
4440
A nawet używać atomów z ludzkiego ciała, aby zrobić z nich spinacze do papieru!
16:26
— Now that's a horror story, Rob. — Mm.
288
986760
2040
— To jest dopiero straszna historia, Rob. — Mhm.
16:28
If Stephen Hawking is worried, I think I might be too!
289
988920
3120
Jeśli Stephen Hawking się martwi, to ja chyba też!
16:32
How can we be sure that artificial intelligence —
290
992160
2880
Jak możemy mieć pewność, że sztuczna inteligencja — niezależnie od tego, czy jest to
16:35
be either a device or software — will have a moral compass?
291
995160
4000
urządzenie, czy oprogramowanie — będzie miała moralny kompas?
16:39
Ah, a good expression — a 'moral compass' —
292
999280
2000
O, dobre określenie — „kompas moralny” —
16:41
in other words, 'an understanding of what is right and what is wrong'.
293
1001400
3960
innymi słowy „zrozumienie, co jest dobre, a co złe”.
16:45
Artificial intelligence is an interesting topic, Rob.
294
1005480
2560
Sztuczna inteligencja to ciekawy temat, Robie.
16:48
I hope we can chat about it again in the future.
295
1008160
2400
Mam nadzieję, że porozmawiamy o tym jeszcze kiedyś.
16:50
But now I'm looking at the clock and we're running out of time, I'm afraid,
296
1010680
2880
Ale teraz patrzę na zegarek i obawiam się, że czas się kończy,
16:53
and I'd like to know if I got the answer to the quiz question right?
297
1013680
3320
i chciałbym wiedzieć, czy odpowiedziałem poprawnie na pytanie quizowe?
16:57
Well, my question was about a supercomputer
298
1017120
3000
Cóż, moje pytanie dotyczyło superkomputera,
17:00
which defeated the World Chess Champion, Gary Kasparov, in 1997.
299
1020240
4320
który pokonał mistrza świata w szachach, Gary'ego Kasparowa, w 1997 roku.
17:04
What was the machine's name? Was it Red Menace, Deep Blue or Silver Surfer?
300
1024680
4920
Jak nazywała się ta maszyna? Czy to było Red Menace, Deep Blue czy Silver Surfer?
17:09
And I think it's Deep Blue.
301
1029720
2880
I myślę, że to jest Deep Blue.
17:12
Well, it sounds like you are more intelligent than a computer,
302
1032720
2880
Cóż, wygląda na to, że jesteś inteligentniejszy od komputera,
17:15
because you got the answer right.
303
1035720
1800
ponieważ odpowiedziałeś poprawnie.
17:17
Yes, it was Deep Blue.
304
1037640
1240
Tak, to był Deep Blue.
17:19
The 1997 match was actually the second one between Kasparov and Deep Blue,
305
1039000
4680
Mecz z 1997 r. był tak naprawdę drugim meczem między Kasparowem a Deep Blue,
17:23
a supercomputer designed by the company IBM
306
1043800
3000
superkomputerem zaprojektowanym przez firmę IBM
17:26
and it was specialised in chess-playing.
307
1046920
2400
i specjalizującym się w grze w szachy.
17:29
Well, I think I might challenge Deep Blue to a game!
308
1049440
2840
Cóż, myślę, że mógłbym rzucić wyzwanie Deep Blue !
17:32
Obviously, I'm a bit, I'm a bit of a genius myself.
309
1052400
2600
Jasne, że jestem trochę geniuszem.
17:35
Very good! Good to hear!
310
1055120
1600
Bardzo dobry! Miło to słyszeć!
17:36
Anyway, we've just got time to remember
311
1056840
1600
Tak czy inaczej, mamy teraz czas, żeby przypomnieć sobie
17:38
some of the words and expressions that we've used today. Neil?
312
1058560
3080
niektóre słowa i wyrażenia, których używaliśmy dzisiaj. Neil?
17:41
They were...
313
1061760
1000
Byli...
17:42
you'll need your wits about you,
314
1062880
3680
musisz mieć przy sobie rozum, byli
17:46
artificial,
315
1066680
2560
sztuczni,
17:49
genius,
316
1069360
2600
genialni,
17:52
synthetic,
317
1072080
2040
syntetyczni, stanowili
17:54
threat,
318
1074240
1760
zagrożenie, byli
17:56
to surpass,
319
1076120
2600
prześcignionymi istotami,
17:58
to pursue their goals,
320
1078840
3120
dążyli do osiągnięcia swoich celów, mieli
18:02
moral compass.
321
1082080
1320
moralny kompas.
18:03
Thank you. Well, that's it for this programme.
322
1083520
2280
Dziękuję. No cóż, to tyle w tym programie.
18:05
Do visit BBC Learning English dot com to find more 6 Minute English programmes.
323
1085920
4720
Odwiedź stronę BBC Learning English dot com, aby znaleźć więcej 6-minutowych programów z zakresu języka angielskiego.
18:10
— Until next time, goodbye! — Goodbye!
324
1090760
1880
— Do następnego razu, żegnam! - Do widzenia!
18:13
6 Minute English.
325
1093640
1440
6-minutowy kurs języka angielskiego.
18:15
From BBC Learning English.
326
1095200
2280
Z BBC Learning English.
18:18
Hello. This is 6 Minute English. I'm Rob. And joining me to do this is Sam.
327
1098600
4480
Cześć. To jest 6-minutowy kurs języka angielskiego. Jestem Rob. Dołącza do mnie Sam.
18:23
Hello.
328
1103200
1000
Cześć.
18:24
In this programme, we're talking about robots.
329
1104320
3040
W tym programie mówimy o robotach.
18:27
Robots can perform many tasks,
330
1107480
2000
Roboty mogą wykonywać wiele zadań,
18:29
but they're now being introduced in social care to operate as carers,
331
1109600
4560
ale obecnie są wprowadzane do opieki społecznej, gdzie pełnią funkcję opiekunów,
18:34
to look after the sick and elderly.
332
1114280
2120
opiekujących się osobami chorymi i starszymi.
18:36
We'll be discussing the positive and negative issues around this,
333
1116520
3680
Omówimy pozytywne i negatywne aspekty tej sytuacji,
18:40
but first, let's set you a question to answer, Sam. Are you ready for this?
334
1120320
3720
ale najpierw zadam ci pytanie , Sam. Jesteś na to gotowy?
18:44
Fire away!
335
1124160
1120
Strzelajcie!
18:45
Do you know in which year was the first commercial robot built?
336
1125400
3880
Czy wiesz, w którym roku zbudowano pierwszego komercyjnego robota?
18:49
Was it in a) 1944? b) 1954? Or c) 1964?
337
1129400
7280
Czy było to w a) 1944 roku? b) 1954? Lub c) 1964?
18:56
They're not a brand-new invention, so I'll go for 1954.
338
1136800
5440
Nie jest to nowy wynalazek, więc przyjmę rok 1954.
19:02
OK, well, I'll tell you if you're right or wrong at the end of the programme.
339
1142360
4520
Dobrze, pod koniec programu powiem ci, czy masz rację, czy nie.
19:07
So, let's talk more about robots,
340
1147000
1920
Porozmawiajmy zatem więcej o robotach,
19:09
and specifically ones that are designed to care for people.
341
1149040
3720
a w szczególności o tych, które zostały zaprojektowane do opieki nad ludźmi.
19:12
Traditionally, it's humans working as nurses or carers
342
1152880
3480
Tradycyjnie, to ludzie pracujący jako pielęgniarki i opiekunowie
19:16
who take care of elderly people —
343
1156480
2200
opiekują się osobami starszymi —
19:18
those people who are too old or too unwell to look after themselves.
344
1158800
3800
osobami, które są zbyt stare lub zbyt chore, aby same o siebie zadbać.
19:22
But finding enough carers to look after people is a problem —
345
1162720
4360
Jednak znalezienie wystarczającej liczby opiekunów do opieki nad ludźmi stanowi problem —
19:27
there are more people needing care than there are people who can help.
346
1167200
4120
jest więcej osób potrzebujących opieki niż tych, które mogą pomóc.
19:31
And recently in the UK, the government announced a £34 million fund
347
1171440
5560
Niedawno rząd Wielkiej Brytanii ogłosił fundusz w wysokości 34 milionów funtów
19:37
to help develop robots to look after us in our later years.
348
1177120
4520
na pomoc w opracowaniu robotów, które będą opiekować się nami w późniejszych latach.
19:41
Well, robot carers are being developed,
349
1181760
2440
Trwają prace nad stworzeniem robotów-opiekunów,
19:44
but can they really learn enough empathy to take care of the elderly and unwell?
350
1184320
4560
ale czy będą one w stanie nauczyć się wystarczającej empatii, aby móc opiekować się osobami starszymi i chorymi?
19:49
'Empathy' is 'the ability to understand how someone feels
351
1189000
3680
„Empatia” to „umiejętność zrozumienia, co czuje druga osoba,
19:52
'by imagining what it would be like to be in that person's situation'.
352
1192800
4240
poprzez wyobrażenie sobie, jak to jest być na jej miejscu”.
19:57
Well, let's hear about one of those new robots now, called Pepper.
353
1197160
4680
Posłuchajmy teraz o jednym z tych nowych robotów, zwanym Pepper.
20:01
Abbey Hearn-Nagaf is a research assistant at the University of Bedfordshire.
354
1201960
5080
Abbey Hearn-Nagaf jest asystentką badawczą na Uniwersytecie w Bedfordshire.
20:07
She spoke to BBC Radio 4's You and Yours programme
355
1207160
3880
Wystąpiła w programie You and Yours w BBC Radio 4
20:11
and explained how Pepper is first introduced to someone in a care home.
356
1211160
4600
i opowiedziała, jak Pepper po raz pierwszy spotkała się z osobą mieszkającą w domu opieki.
20:15
We just bring the robot to their room
357
1215880
2200
Po prostu przynosimy robota do ich pokoju
20:18
and we talk about what Pepper can't do, which is important,
358
1218200
2640
i rozmawiamy o tym, czego Pepper nie potrafi robić, co jest ważne,
20:20
so it can't provide physical assistance in any way.
359
1220960
2720
dlatego nie może w żaden sposób zapewnić im fizycznej pomocy. Ma
20:23
It does have hands, it can wave.
360
1223800
2160
ręce, może machać.
20:26
When you ask for privacy, it does turn around
361
1226080
2000
Kiedy prosisz o prywatność, odwraca się
20:28
and sort of cover its eyes with its hands, but that's the most it does.
362
1228200
3000
i zakrywa oczy dłońmi, ale to wszystko, co robi.
20:31
It doesn't grip anything, it doesn't move anything,
363
1231320
2160
Niczego nie chwyta, niczego nie porusza,
20:33
because we're more interested to see how it works as a companion,
364
1233600
3480
bo bardziej interesuje nas, jak sprawdza się jako towarzysz, gdy
20:37
having something there to talk to, to converse with, to interact with.
365
1237200
4080
mamy coś, z czym możemy rozmawiać, co możemy zrobić, co może wejść w interakcję.
20:41
So, Abbey described how the robot is introduced to someone.
366
1241400
4240
Abbey opisała więc, w jaki sposób robot zostaje przedstawiony komuś.
20:45
She was keen to point out that this robot has 'limitations' — 'things it can't do'.
367
1245760
6120
Chciała podkreślić, że robot ten ma „ograniczenia” — „rzeczy, których nie potrafi robić”.
20:52
It can wave or turn round when a person needs 'privacy' — 'to be private' —
368
1252000
5040
Może machać lub obracać się, gdy dana osoba potrzebuje „prywatności” – „bycia prywatnym” –
20:57
but it can't provide 'physical assistance'.
369
1257160
3280
ale nie może zapewnić „pomocy fizycznej”.
21:00
This means it can't help someone by 'touching or feeling' them.
370
1260560
4440
Oznacza to, że nie można pomóc komuś poprzez „dotknięcie lub wyczucie”.
21:05
But that's OK, Abbey says.
371
1265120
1680
Ale to w porządku, mówi Abbey.
21:06
This robot is designed to be a 'companion' —
372
1266920
3080
Ten robot został zaprojektowany jako „towarzysz” — „
21:10
'someone who is with you to keep you company' —
373
1270120
2320
ktoś, kto jest przy tobie i dotrzymuje ci towarzystwa” —
21:12
a friend, in other words, that you can converse or talk with.
374
1272560
3480
innymi słowy przyjaciel, z którym możesz rozmawiać.
21:16
Well, having a companion is a good way to stop people getting lonely,
375
1276160
4400
Cóż, posiadanie towarzysza jest dobrym sposobem, aby uchronić ludzi przed samotnością,
21:20
but surely a human is better for that?
376
1280680
2960
ale czy człowiek nie byłby w tym przypadku lepszym rozwiązaniem?
21:23
Surely they understand you better than a robot ever can?
377
1283760
3680
Przecież oni rozumieją cię lepiej, niż jakikolwiek robot?
21:27
Well, innovation means that robots are becoming cleverer all the time.
378
1287560
4640
Cóż, innowacja oznacza, że ​​roboty stają się coraz mądrzejsze.
21:32
And, as we've mentioned, in the UK alone there is a growing elderly population
379
1292320
4720
Jak już wspomnieliśmy, w samej Wielkiej Brytanii mamy do czynienia ze stale rosnącą populacją osób starszych
21:37
and more than 100,000 care assistant vacancies.
380
1297160
3360
i ponad 100 000 wakatów na stanowisku opiekuna.
21:40
Who's going to do all the work?
381
1300640
1800
Kto wykona całą pracę?
21:42
I think we should hear from Dr Sarah Woodin,
382
1302560
2640
Myślę, że powinniśmy posłuchać opinii dr Sarah Woodin,
21:45
a health researcher in independent living from Leeds University,
383
1305320
4040
badaczki zdrowia i samodzielnego życia z Uniwersytetu w Leeds,
21:49
who also spoke to the BBC's You and Yours programme.
384
1309480
3960
która również wystąpiła w programie BBC „You and Yours”.
21:53
She seems more realistic about the introduction of robot carers.
385
1313560
5120
Wydaje się, że jest bardziej realistyczna w kwestii wprowadzenia robotów pełniących rolę opiekunów.
21:59
I think there are problems if we consider robots as replacement for people.
386
1319200
4600
Myślę, że pojawią się problemy, jeśli uznamy roboty za zamienniki ludzi.
22:03
We know that money is tight — if robots become mass-produced,
387
1323920
4680
Wiemy, że pieniędzy jest mało — jeśli roboty zaczną być produkowane masowo,
22:08
there could be large institutions where people might be housed
388
1328720
4200
mogą powstać duże instytucje, w których ludzie będą umieszczani
22:13
and abandoned to robots.
389
1333040
2800
i porzucani na pastwę robotów.
22:15
I do think questions of ethics
390
1335960
1480
Uważam, że kwestie etyki
22:17
need to come into the growth and jobs agenda as well,
391
1337560
3600
muszą zostać uwzględnione w programie wzrostu gospodarczego i zatrudnienia ,
22:21
because, sometimes, they're treated very separately.
392
1341280
2440
ponieważ czasami są traktowane zupełnie odrębnie.
22:23
OK, so Sarah Woodin suggests that when money is 'tight' —
393
1343840
3440
OK, zatem Sarah Woodin sugeruje, że gdy pieniędzy jest „na wyczerpaniu” —
22:27
meaning there is 'only just enough' —
394
1347400
1680
czyli „zaledwie tyle, ile potrzeba” —
22:29
making robots in large quantities — or mass-produced —
395
1349200
3320
produkcja robotów na dużą skalę — lub ich masowa produkcja —
22:32
might be a cheaper option than using humans.
396
1352640
2720
może być tańszą opcją niż zatrudnianie ludzi.
22:35
And she says people might be abandoned to robots.
397
1355480
3160
Mówi, że ludzie mogą zostać porzuceni na pastwę robotów.
22:38
Yes, 'abandoned' means 'left alone in a place, usually forever'.
398
1358760
5840
Tak, „porzucony” oznacza „pozostawiony sam w jakimś miejscu, zwykle na zawsze”.
22:44
So she says it might be possible that someone ends up being forgotten
399
1364720
4360
Mówi więc, że może się zdarzyć, że ktoś zostanie zapomniany
22:49
and only having a robot to care for them. So is this right, ethically?
400
1369200
5640
i będzie mógł się nim zająć tylko robot. Czy zatem jest to etycznie słuszne?
22:54
Yes, well, she mentions 'ethics' — that's 'what is morally right' —
401
1374960
3920
Tak, wspomina o „etyce” – czyli o tym, „co jest moralnie słuszne” –
22:59
and that needs to be considered as part of the jobs agenda.
402
1379000
3440
i należy to wziąć pod uwagę w kontekście programu dotyczącego miejsc pracy.
23:02
So, we shouldn't just consider what job vacancies need filling,
403
1382560
3160
Dlatego nie powinniśmy zastanawiać się tylko nad tym, jakie stanowiska trzeba obsadzić,
23:05
but who and how it should be done.
404
1385840
2360
ale też kto i w jaki sposób powinien to zrobić.
23:08
And earlier I asked you, Sam,
405
1388320
1400
A wcześniej pytałem cię, Sam,
23:09
did you know in which year was the first commercial robot built? And you said?
406
1389840
4440
czy wiesz, w którym roku zbudowano pierwszego komercyjnego robota? A ty powiedziałeś?
23:14
I said 1954.
407
1394400
1640
Powiedziałem 1954.
23:16
Well, you didn't need a robot to help you there because you are right.
408
1396160
3320
Cóż, nie potrzebowałeś wtedy robota, żeby ci pomógł, bo masz rację.
23:19
— Ah, yay! — Well done!
409
1399600
1760
— Ach, super! - Dobrze zrobiony!
23:21
Now let's do something a robot can't do yet,
410
1401480
2720
Teraz zróbmy coś, czego robot jeszcze nie potrafi,
23:24
and that's recap the vocabulary we've highlighted today, starting with empathy.
411
1404320
5280
czyli podsumujmy słownictwo, które dziś omówiliśmy. Zacznijmy od empatii.
23:29
'Empathy' is 'the ability to understand how someone feels
412
1409720
3440
„Empatia” to „umiejętność zrozumienia, co czuje druga osoba,
23:33
by imagining what it would be like to be in that person's situation'.
413
1413280
3920
poprzez wyobrażenie sobie, jak to jest być na jej miejscu”.
23:37
'Physical assistance' describes 'helping someone by touching them'.
414
1417320
4280
„Pomoc fizyczna” oznacza „pomaganie komuś poprzez dotykanie go”.
23:41
We also mentioned a 'companion' —
415
1421720
1920
Wspomnieliśmy także o „towarzyszu” —
23:43
that's 'someone who is with you and keeps you company'.
416
1423760
2680
czyli o kimś, „kto jest z tobą i dotrzymuje ci towarzystwa”.
23:46
Our next word was 'tight' — in the context of money,
417
1426560
3280
Następnym słowem, którego użyliśmy, było „brak” — w kontekście pieniędzy,
23:49
when money is tight, it means there's 'not enough'.
418
1429960
3120
gdy jest mało pieniędzy, oznacza to, że „nie ma ich wystarczająco dużo”.
23:53
'Abandoned' means 'left alone in a place, usually forever'.
419
1433200
3400
„Porzucony” oznacza „pozostawiony sam w jakimś miejscu, zwykle na zawsze”. Na
23:56
And finally, we discussed the word 'ethics' —
420
1436720
2440
koniec omówiliśmy słowo „etyka” —
23:59
we hear a lot about business ethics or medical ethics —
421
1439280
3760
często słyszymy o etyce biznesu i etyce medycznej —
24:03
and it means 'the study of what is morally right'.
422
1443160
3280
które oznacza „badanie tego, co jest moralnie słuszne”.
24:06
OK, thank you, Sam.
423
1446560
1560
OK, dziękuję, Sam.
24:08
Well, we've managed to get through 6 Minute English without the aid of a robot.
424
1448240
4520
Udało nam się przebrnąć przez kurs 6- minutowego angielskiego bez pomocy robota.
24:12
That's all for now, but please join us again soon. Goodbye!
425
1452880
2920
To na razie wszystko, ale zapraszamy ponownie wkrótce. Do widzenia!
24:15
Bye-bye, everyone!
426
1455920
1000
Żegnajcie wszyscy!
24:17
6 Minute English.
427
1457720
1680
6-minutowy kurs języka angielskiego.
24:19
From BBC Learning English.
428
1459520
2480
Z BBC Learning English.
24:22
Hello. This is 6 Minute English from BBC Learning English. I'm Phil.
429
1462840
3800
Cześć. To jest 6-minutowy kurs języka angielskiego od BBC Learning English. Jestem Phil.
24:26
And I'm Georgie.
430
1466760
1240
A ja jestem Georgie.
24:28
Animal testing is when living animals are used in scientific research
431
1468120
4320
Testy na zwierzętach polegają na wykorzystywaniu żywych zwierząt w badaniach naukowych w
24:32
to find out how effective a new medicine is, or how safe a product is for humans.
432
1472560
5880
celu sprawdzenia skuteczności nowego leku lub bezpieczeństwa produktu dla ludzi.
24:38
Scientists in favour of it argue that animal testing
433
1478560
3360
Naukowcy opowiadający się za tą metodą twierdzą, że testy na zwierzętach
24:42
shows whether medicines are safe or dangerous for humans,
434
1482040
3840
dowodzą, czy leki są bezpieczne, czy też niebezpieczne dla ludzi,
24:46
and has saved many lives.
435
1486000
1760
i że dzięki nim uratowano wiele istnień.
24:47
But animal rights campaigners say it's cruel,
436
1487880
2720
Jednak obrońcy praw zwierząt twierdzą, że jest to okrutne
24:50
and also ineffective because animals and humans are so different.
437
1490720
4800
i nieskuteczne, ponieważ zwierzęta i ludzie tak bardzo się od siebie różnią.
24:55
Under British law, medicines must be tested on two different types of animals,
438
1495640
5800
Zgodnie z prawem brytyjskim leki muszą być testowane na dwóch różnych gatunkach zwierząt,
25:01
usually starting with rats, mice or guinea pigs.
439
1501560
4280
zazwyczaj na szczurach, myszach i świnkach morskich.
25:05
And in everyday English, the term 'human guinea pig'
440
1505960
3680
W potocznym języku angielskim termin „ludzki królik doświadczalny”
25:09
can be used to mean 'the first people to have something tested on them'.
441
1509760
4600
można stosować w znaczeniu „pierwsza osoba, na której coś testowano”.
25:14
But now, groups both for and against animal testing are thinking again,
442
1514480
4960
Jednak teraz zarówno grupy opowiadające się za, jak i przeciwne testom na zwierzętach zaczynają myśleć inaczej,
25:19
thanks to a recent development in the debate — AI.
443
1519560
3640
dzięki niedawnemu odkryciu w tej debacie — sztucznej inteligencji.
25:23
In this programme, we'll be hearing how artificial intelligence
444
1523320
3160
W tym programie dowiemy się, w jaki sposób sztuczna inteligencja
25:26
could help reduce the need for scientific testing on animals.
445
1526600
3960
może pomóc w zmniejszeniu konieczności przeprowadzania testów naukowych na zwierzętach.
25:30
But first, I have a question for you, Georgie.
446
1530680
3400
Ale najpierw mam do ciebie pytanie, Georgie.
25:34
There's one commonly used medicine in particular
447
1534200
2880
Istnieje jeden powszechnie stosowany lek,
25:37
which is harmful for animals but safe for humans, but what?
448
1537200
5040
który jest szkodliwy dla zwierząt, ale bezpieczny dla ludzi, ale jaki?
25:43
Is it a) Antibiotics?
449
1543240
3280
Czy to są a) antybiotyki?
25:46
b) Aspirin?
450
1546640
2080
b) Aspiryna?
25:48
Or c) Paracetamol?
451
1548840
2480
Lub c) Paracetamol?
25:51
Hmm, I guess it's aspirin.
452
1551440
2880
Hmm, myślę, że to aspiryna.
25:54
OK, Georgie, I'll reveal the answer at the end of the programme.
453
1554440
4080
OK, Georgie, odpowiedź podam pod koniec programu.
25:58
Christine Ro is a science journalist who's interested in the animal testing debate.
454
1558640
5360
Christine Ro jest dziennikarką naukową, którą interesuje debata na temat testów na zwierzętach. W programie Tech Life
26:04
Here, she explains to BBC World Service programme Tech Life
455
1564120
4600
kanału BBC World Service wyjaśnia
26:08
some of the limitations of testing medicines on animals.
456
1568840
3640
niektóre ograniczenia związane z testowaniem leków na zwierzętach.
26:12
Of course, you can't necessarily predict from a mouse or a dog
457
1572600
2640
Oczywiście, nie można na podstawie myszy czy psa przewidzieć,
26:15
what's going to happen in a human, and there have been a number of cases
458
1575360
3760
co się stanie z człowiekiem, a zdarzyło się już wiele przypadków,
26:19
where substances that have proven to be toxic in animals
459
1579240
3320
w których substancje, które okazały się toksyczne dla zwierząt,
26:22
have been proven to be safe in humans, and vice versa.
460
1582680
3200
okazały się bezpieczne dla ludzi. i odwrotnie.
26:27
There are also, of course, animal welfare limitations to animal testing.
461
1587200
4040
Oczywiście, testy na zwierzętach podlegają także ograniczeniom wynikającym z dobrostanu zwierząt.
26:31
Most people, I think, if they had the choice,
462
1591360
2280
Myślę, że większość ludzi, gdyby miała wybór,
26:33
would want their substances to be used on as few animals or no animals as possible,
463
1593760
5160
chciałaby, aby ich substancje były stosowane u jak najmniejszej liczby zwierząt lub w ogóle ich nie stosowano,
26:39
while still ensuring safety.
464
1599040
1840
przy jednoczesnym zapewnieniu bezpieczeństwa.
26:41
Now, that's been a really difficult needle to thread,
465
1601000
2280
Cóż, to było naprawdę trudne zadanie,
26:43
but AI might help to make that more possible.
466
1603400
2440
ale sztuczna inteligencja może sprawić, że będzie to możliwe.
26:45
Christine says that medicines which are safe for animals
467
1605960
3280
Christine uważa, że ​​leki bezpieczne dla zwierząt
26:49
might not be safe for humans.
468
1609360
2320
mogą nie być bezpieczne dla ludzi.
26:51
But the opposite is also true —
469
1611800
1760
Ale prawda jest też odwrotna —
26:53
what's safe for humans might not be safe for animals.
470
1613680
3760
to, co jest bezpieczne dla ludzi, może nie być bezpieczne dla zwierząt.
26:57
Christine uses the phrase 'vice versa'
471
1617560
2600
Christine używa zwrotu „odwrotnie”,
27:00
to show that 'the opposite' of what she says is also true.
472
1620280
3920
aby pokazać, że prawdą jest również „przeciwieństwo” tego, co mówi.
27:05
Christine also uses the idiom to 'thread the needle'
473
1625320
3200
Christine używa również tego idiomu, aby „przeciągać nitkę przez igłę”,
27:08
to describe 'a task which requires a lot of skill and precision,
474
1628640
3800
opisując „zadanie wymagające dużych umiejętności i precyzji,
27:12
'especially one involving a conflict'.
475
1632560
3480
zwłaszcza takie, które wiąże się z konfliktem”.
27:16
Yes, medical animal testing may save human lives,
476
1636160
4400
Tak, testy medyczne na zwierzętach mogą ratować ludzkie życie,
27:20
but many people see it as cruel and distressing for the animal —
477
1640680
3920
ale wiele osób uważa je za okrutne i stresujące dla zwierząt —
27:24
it's a difficult needle to thread.
478
1644720
2840
to trudne zadanie.
27:27
But now, the challenge of threading that needle has got a little easier
479
1647680
3760
Ale teraz, dzięki sztucznej inteligencji, nawlekanie igły stało się wyzwaniem nieco łatwiejszym
27:31
because of artificial intelligence.
480
1651560
2080
.
27:33
Predicting how likely a new medicine is to harm humans
481
1653760
3680
Aby przewidzieć, jakie jest prawdopodobieństwo, że nowy lek zaszkodzi ludziom,
27:37
involves analysing the results of thousands of experiments.
482
1657560
3960
należy przeanalizować wyniki tysięcy eksperymentów.
27:41
And one thing AI is really good at is analysing mountains and mountains of data.
483
1661640
6280
A jedną z rzeczy, w których sztuczna inteligencja jest naprawdę dobra, jest analizowanie ogromnych ilości danych.
27:48
Here's Christine Ro again, speaking with BBC World Service's Tech Life.
484
1668040
4440
Oto ponownie Christine Ro, udzielająca wywiadu w programie Tech Life w BBC World Service.
27:52
So, AI isn't the whole picture, of course,
485
1672600
1880
Oczywiście, sztuczna inteligencja nie stanowi całościowego obrazu,
27:54
but it's an increasingly important part of the picture and one reason for that
486
1674600
4240
ale jest coraz ważniejszą częścią obrazu. Jednym z powodów
27:58
is that there is a huge amount of toxicology data to wade through
487
1678960
3320
jest ogromna ilość danych toksykologicznych, które należy przejrzeć,
28:02
when it comes to determining chemical safety, and, on top of that,
488
1682400
3720
gdy trzeba określić bezpieczeństwo chemiczne. na dodatek
28:06
there's the staggering number of chemicals being invented all of the time.
489
1686240
4120
cały czas wymyśla się oszałamiającą liczbę nowych substancji chemicznych.
28:10
AI helps scientists wade through huge amounts of data.
490
1690480
4280
Sztuczna inteligencja pomaga naukowcom analizować ogromne ilości danych.
28:14
If you 'wade through' something,
491
1694880
2200
Jeśli „przedzierasz się” przez coś, „
28:17
you 'spend a lot of time and effort doing something boring or difficult,
492
1697200
4920
poświęcasz dużo czasu i wysiłku na robienie czegoś nudnego lub trudnego,
28:22
'especially reading a lot of information'.
493
1702240
2960
zwłaszcza na czytanie dużej ilości informacji”.
28:25
AI can process huge amounts of data,
494
1705320
2600
Sztuczna inteligencja potrafi przetwarzać ogromne ilości danych,
28:28
and what's more, that amount keeps growing as new chemicals are invented.
495
1708040
5360
a co więcej, w miarę odkrywania nowych substancji chemicznych, ilość ta stale rośnie.
28:33
Christine uses the phrase 'on top of that', meaning 'in addition to something'.
496
1713520
4960
Christine używa zwrotu „on top of that”, oznaczającego „oprócz czegoś”.
28:38
Often this extra thing is negative.
497
1718600
2440
Często ta dodatkowa rzecz ma charakter negatywny. Ma
28:41
She means there's already so much data to understand
498
1721160
3360
na myśli, że istnieje już tak wiele danych do zrozumienia,
28:44
and additionally, there's even more to be understood about these new chemicals.
499
1724640
5000
a dodatkowo jest jeszcze więcej do zrozumienia na temat tych nowych substancji chemicznych.
28:49
Of course, the good news is that with AI, testing on animals could one day stop,
500
1729760
6160
Oczywiście, dobrą wiadomością jest to, że w obliczu sztucznej inteligencji testy na zwierzętach mogą pewnego dnia ustać,
28:56
although Christine warns that AI is not the 'whole picture',
501
1736040
3840
choć Christine ostrzega, że ​​sztuczna inteligencja nie daje „pełnego obrazu”,
29:00
it's not 'a complete description of something
502
1740000
2120
nie jest „kompletnym opisem czegoś
29:02
'which includes all the relevant information'.
503
1742240
2920
”, który zawierałby wszystkie istotne informacje.
29:05
Nevertheless, the news is a step forward
504
1745280
2640
Niemniej jednak informacja ta stanowi krok naprzód
29:08
for both animal welfare and for modern medicine.
505
1748040
4040
zarówno dla dobrostanu zwierząt, jak i dla współczesnej medycyny. A
29:12
Speaking of which, what was the answer to your question, Phil?
506
1752200
3720
skoro o tym mowa, jaka była odpowiedź na twoje pytanie, Phil?
29:16
What is a commonly used medicine which is safe for humans, but harmful to animals?
507
1756040
5200
Jaki jest powszechnie stosowany lek, który jest bezpieczny dla ludzi, ale szkodliwy dla zwierząt?
29:21
I guessed it was aspirin.
508
1761360
1920
Zgadłem, że to aspiryna.
29:23
Which was the correct answer!
509
1763400
3080
Która odpowiedź była prawidłowa!
29:26
Right, let's recap the vocabulary we've discussed,
510
1766600
3640
Dobrze, podsumujmy słownictwo, które omówiliśmy,
29:30
starting with 'human guinea pigs'
511
1770360
2600
zaczynając od „ludzkich królików doświadczalnych”,
29:33
meaning 'the first people to have something new tested on them'.
512
1773080
3880
czyli „pierwszych ludzi, na których testowano coś nowego”.
29:37
The phrase 'vice versa' is used to indicate
513
1777080
2560
Fraza „odwrotnie” jest używana, aby wskazać,
29:39
that 'the opposite of what you have just said is also true'.
514
1779760
4280
że „ prawdą jest także przeciwieństwo tego, co właśnie powiedziałeś”.
29:44
To 'thread the needle'
515
1784160
1320
„Nawlekanie igły”
29:45
describes 'a task which requires extreme skill and precision to do successfully'.
516
1785600
6120
oznacza „zadanie, którego pomyślne wykonanie wymaga wyjątkowych umiejętności i precyzji”.
29:51
The 'whole picture' means 'a complete description of something
517
1791840
3360
„Cały obraz” oznacza „kompletny opis czegoś
29:55
'which includes all the relevant information and opinions about it'.
518
1795320
4440
”, zawierający wszystkie istotne informacje i opinie na ten temat.
29:59
If you 'wade through' something,
519
1799880
2000
Jeśli „przedzierasz się” przez coś, „
30:02
you 'spend a lot of time and effort doing something boring or difficult,
520
1802000
4840
poświęcasz dużo czasu i wysiłku na robienie czegoś nudnego lub trudnego,
30:06
'especially reading a lot of information'.
521
1806960
2800
zwłaszcza na czytanie dużej ilości informacji”.
30:09
And finally, the phrase 'on top of something'
522
1809880
2960
I wreszcie, wyrażenie „on top of something”
30:12
means 'in addition to something', and that extra thing is often negative.
523
1812960
5000
oznacza „oprócz czegoś”, a ta dodatkowa rzecz jest często negatywna.
30:18
That's all for this week. Goodbye for now!
524
1818080
2080
To już wszystko na ten tydzień. Żegnam na razie!
30:20
Bye!
525
1820280
1360
Do widzenia!
30:21
6 Minute English.
526
1821760
1320
6 minut języka angielskiego.
30:23
From BBC Learning English.
527
1823200
2800
Z BBC Learning English.
O tej stronie

Na tej stronie poznasz filmy z YouTube, które są przydatne do nauki języka angielskiego. Zobaczysz lekcje angielskiego prowadzone przez najlepszych nauczycieli z całego świata. Kliknij dwukrotnie na angielskie napisy wyświetlane na stronie każdego filmu, aby odtworzyć film od tego miejsca. Napisy przewijają się synchronicznie z odtwarzaniem filmu. Jeśli masz jakieś uwagi lub prośby, skontaktuj się z nami za pomocą formularza kontaktowego.

https://forms.gle/WvT1wiN1qDtmnspy7