BOX SET: 6 Minute English - Internet and Technology English mega-class! One hour of new vocabulary!

1,179,729 views

2020-12-12 ・ BBC Learning English


New videos

BOX SET: 6 Minute English - Internet and Technology English mega-class! One hour of new vocabulary!

1,179,729 views ・ 2020-12-12

BBC Learning English


Proszę kliknąć dwukrotnie na poniższe angielskie napisy, aby odtworzyć film. Przetłumaczone napisy są tłumaczone maszynowo.

00:06
Hello and welcome to 6 Minute English. I'm  Dan and joining me today is Neil. Hey Neil.
0
6720
4640
Witamy w 6-minutowym angielskim. Nazywam się Dan i dołącza do mnie dzisiaj Neil. Hej Neila.
00:11
Hello Dan. What’s on the agenda today?
1
11360
2160
Cześć Dan. Co jest dzisiaj w programie?
00:13
Well, I’ll give you a clue. It’s something that  makes the world go round, but it doesn’t really  
2
13520
4880
Cóż, dam ci wskazówkę. To coś, co sprawia, że ​​świat się kręci, ale tak naprawdę nie
00:18
exist. In fact, if we all stopped believing in  it, it would have no use at all! What is it?
3
18400
6800
istnieje. W rzeczywistości, gdybyśmy wszyscy przestali w to wierzyć, nie miałoby to żadnego sensu! Co to jest?
00:25
I haven’t got a clue!
4
25200
1120
nie mam pojęcia!
00:27
Ok...how about this?
5
27280
2560
Ok... a co powiesz na to?
00:31
Money!
6
31600
960
Pieniądze!
00:32
Yep! And not just any money, we’re  talking about crypto-currency.
7
32560
4960
Tak! I to nie byle jakie pieniądze, mówimy o kryptowalucie.
00:37
Currency is the money that’s being used  in a given country at a certain time.  
8
37520
4560
Waluta to pieniądze używane w danym kraju w określonym czasie.
00:42
But what about the cryptopart?
9
42080
2000
Ale co z kryptopartią?
00:44
Well, crypto is a prefix meaning hidden  or secret – it comes from the word cryptic  
10
44080
5520
Cóż, crypto to przedrostek oznaczający ukryty lub tajny – pochodzi od słowa cryptic,
00:49
which means mysterious or difficult to understand.  
11
49600
3440
co oznacza tajemniczy lub trudny do zrozumienia.
00:53
You may have heard about the most popular  crypto-currency at the moment, the Bitcoin.
12
53040
5040
Być może słyszałeś o najpopularniejszej obecnie kryptowalucie, Bitcoinie.
00:58
Well, I’ve certainly heard the name,  but I can’t say I know what it is.
13
58080
3680
Cóż, z pewnością słyszałem tę nazwę, ale nie mogę powiedzieć, że wiem, co to jest.
01:01
First our quiz question. When was the  Bitcoin crypto-currency first created?
14
61760
5920
Najpierw nasze pytanie quizowe. Kiedy po raz pierwszy powstała kryptowaluta Bitcoin?
01:07
a) 2004
15
67680
1600
a) 2004
01:09
b) 2009
16
69280
1600
b) 2009
01:10
c) 2013
17
70880
1920
c) 2013
01:12
Well, I think 2004 may have been  a little early, and I think 2013  
18
72800
5040
Cóż, myślę, że rok 2004 mógł być trochę za wcześnie, a rok 2013
01:17
could be a little late, so  the smart money’s on 2009.
19
77840
3840
mógł być trochę spóźniony, więc sprytne pieniądze są na 2009.
01:21
We’ll see if you’re right later on in the  show. So…Bitcoin, what do you know about it?
20
81680
5680
Zobaczymy, czy masz rację później w pokaz. A więc…Bitcoin, co o nim wiesz?
01:27
Well, I know it’s a digital currency…so  presumably, you can use it online to buy things?
21
87360
5040
Cóż, wiem, że to cyfrowa waluta… więc przypuszczalnie można jej używać do kupowania rzeczy online?
01:32
You are right on the money,  which means correct, both times.  
22
92400
3760
Masz rację co do pieniędzy, co oznacza rację w obu przypadkach.
01:36
Bitcoin is just like any other  currency except for two things.  
23
96800
4320
Bitcoin jest jak każda inna waluta, z wyjątkiem dwóch rzeczy. Po
01:41
First, it’s not printed by governments or  banks, which means that it’s not legal tender.
24
101120
6320
pierwsze, nie jest drukowany przez rządy ani banki, co oznacza, że ​​nie jest prawnym środkiem płatniczym.
01:47
Legal tender means the official money  that can be used within a country.  
25
107440
4240
Prawny środek płatniczy oznacza oficjalny pieniądz, którego można używać w danym kraju.
01:51
So that means we can’t use it to  pay taxes or settle debts, right?
26
111680
3520
Oznacza to, że nie możemy go używać do płacenia podatków ani regulowania długów, prawda?
01:55
Exactly. Governments won’t recognise it as an  official currency, although it acts just like  
27
115200
6080
Dokładnie. Rządy nie uznają go za oficjalną walutę, chociaż działa jak
02:01
one. You can use it to buy items from anyone  who will accept it, and its value fluctuates.
28
121280
6240
waluta. Możesz za nie kupować przedmioty od każdego, kto je zaakceptuje, a ich wartość się zmienia.
02:07
Fluctuates means changes in level or  amount. And what’s the second thing?
29
127520
4960
Wahania oznaczają zmiany poziomu lub kwoty. A co jest drugą rzeczą?
02:12
Ah, the second thing is that bitcoin is a digital  currency, meaning that with the exception of a few  
30
132480
6480
Ach, po drugie, bitcoin jest walutą cyfrową, co oznacza, że ​​z wyjątkiem kilku
02:18
tokens, it largely exists online only. You can’t  carry a load of bitcoins around in your pocket!
31
138960
7680
tokenów w dużej mierze istnieje tylko online. Nie możesz nosić w kieszeni mnóstwa bitcoinów!
02:26
Well, that makes a nice… change!
32
146640
2720
Cóż, to niezła… zmiana!
02:29
Oh dear, Neil. Was that a money pun? Terrible!
33
149360
3360
Och, kochanie, Neilu. Czy to była gra pieniężna? Straszny!
02:33
So if it’s a digital only currency,  where do new ones come from?  
34
153360
4400
Więc jeśli jest to waluta wyłącznie cyfrowa, skąd biorą się nowe? Czy
02:37
Can’t I just say that I’ve got a  million of them and make myself rich!?
35
157760
3280
nie mogę po prostu powiedzieć, że mam ich milion i stać się bogatym!?
02:41
Well, no. You see, even though Bitcoin  is not regulated by a bank or government,  
36
161040
5200
Więc nie. Widzisz, chociaż Bitcoin nie jest regulowany przez bank ani rząd,
02:46
it still has a process that stops people from  cheating. There are only two ways to get bitcoins.  
37
166240
6080
nadal ma proces, który powstrzymuje ludzi przed oszukiwaniem. Bitcoiny można zdobyć tylko na dwa sposoby.
02:52
You either trade them from  someone, or you go mining.
38
172320
3280
Albo wymieniasz je od kogoś, albo idziesz na wydobycie.
02:55
Oh wait, I've heard about this. This is when  you use your computer to run calculations which  
39
175600
5680
Och, czekaj, słyszałem o tym. Dzieje się tak, gdy używasz komputera do przeprowadzania obliczeń
03:01
verify other Bitcoin transactions. You get  rewarded for this ‘work’ by earning bitcoins.
40
181280
5920
weryfikujących inne transakcje Bitcoin. Za tę „pracę” otrzymujesz nagrodę w postaci bitcoinów.
03:07
Yep! It’s money for old rope, which  means it’s an easy way to earn money.
41
187200
4640
Tak! To pieniądze za starą linę, co oznacza, że ​​jest to łatwy sposób na zarobienie pieniędzy.
03:11
Wow! I’m going to start mining immediately!
42
191840
2400
Wow! Zamierzam natychmiast rozpocząć wydobycie!
03:14
Well, you wouldn’t be the only one!  
43
194240
1600
Cóż, nie byłbyś jedyny!
03:16
Bitcoin’s value has recently gone up quite a lot  and this has caused a lot of interest. In fact,  
44
196640
6720
Wartość Bitcoina ostatnio znacznie wzrosła, co wywołało duże zainteresowanie. W rzeczywistości
03:23
one stock exchange in Chicago has begun  trading in Bitcoin futures contracts.
45
203360
5600
jedna giełda w Chicago zaczęła handlować kontraktami futures na Bitcoin.
03:28
A futures contract? What’s that?
46
208960
2080
Kontrakt futures? Co to jest?
03:31
I’ll let BBC correspondent  Rory Cellan-Jones explain that.
47
211040
4480
Pozwolę korespondentowi BBC Rory'emu Cellan-Jonesowi to wyjaśnić.
03:35
A futures contract, a bet on where  the currency will be a month from now,  
48
215520
4320
Kontrakt futures, zakład na to, gdzie waluta będzie za miesiąc od teraz,
03:39
soared above 18,000 dollars. That means that  investors believe Bitcoin, which started the  
49
219840
5360
wzrósł powyżej 18 000 dolarów. Oznacza to, że inwestorzy wierzą, że Bitcoin, który na początku
03:45
year worth under 1000 dollars will continue  to rise in value, albeit at a slower rate.  
50
225200
6560
roku był wart mniej niż 1000 dolarów, będzie nadal zyskiwał na wartości, choć w wolniejszym tempie.
03:51
But at the big banks there’s still  plenty of scepticism about the currency.
51
231760
4080
Ale w dużych bankach wciąż panuje duży sceptycyzm co do waluty.
03:56
Soared in this context means  increased very quickly. So,  
52
236960
3680
Szybował w tym kontekście oznacza bardzo szybki wzrost. Tak więc
04:00
now big investors are betting on  the value of Bitcoin in the future.
53
240640
3920
teraz duzi inwestorzy obstawiają wartość Bitcoina w przyszłości.
04:04
Yes. But he also mentioned that the banks  have a lot of scepticism. That's a doubt  
54
244560
4960
Tak. Ale wspomniał też, że banki mają duży sceptycyzm. To wątpliwość  ,
04:09
that something is real or true. In this  case, whether Bitcoin is reliable or not.
55
249520
5200
że coś jest prawdziwe lub prawdziwe. W tym przypadku, czy Bitcoin jest niezawodny, czy nie.
04:14
Maybe it’s best I don’t get involved then.  After all, a fool and his money are soon parted.
56
254720
5200
Może w takim razie lepiej się nie angażować. W końcu głupiec i jego pieniądze wkrótce się rozstają.
04:19
Well, you don’t have to be sceptical  about the answer to our quiz.  
57
259920
3040
Cóż, nie musisz być sceptycznie nastawiony do odpowiedzi w naszym quizie.
04:22
We know that for a fact. I asked you when the  Bitcoin crypto-currency was first created.
58
262960
5360
Wiemy to na pewno. Zapytałem Cię, kiedy po raz pierwszy powstała kryptowaluta Bitcoin.
04:28
a) 2004
59
268320
1200
a) 2004
04:29
b) 2009
60
269520
1360
b) 2009
04:30
c) 2013
61
270880
1520
c) 2013
04:32
And I said 2009.
62
272400
1760
A ja powiedziałem 2009.
04:34
And you were right! Well done. Shall  we go over the vocabulary again?
63
274160
3920
I miałeś rację! Dobrze zrobiony. Może jeszcze raz przejrzymy słownictwo?
04:38
First, we had currency. That’s the money being  used in a given country at a certain time.  
64
278080
5200
Najpierw mieliśmy walutę. To pieniądze używane w danym kraju w określonym czasie.
04:43
Name three currencies and their countries, Dan.
65
283280
2480
Wymień trzy waluty i ich kraje, Dan.
04:45
Ok. Baht for Thailand. Rupee for India and  my favourite, Metical for Mozambique. Next  
66
285760
7200
OK. Baht za Tajlandię. Rupia dla Indii i mój ulubiony Metical dla Mozambiku. Następnie
04:52
we had cryptic. Something which is cryptic  is mysterious or difficult to understand.  
67
292960
5120
mieliśmy zagadkę. Coś, co jest tajemnicze, jest tajemnicze lub trudne do zrozumienia.
04:58
For example, what do rich people need, poor  people have and if you eat it, you die?
68
298080
5520
Na przykład, czego potrzebują bogaci, mają biedni, a jeśli to zjesz, umrzesz?
05:04
A cryptic riddle indeed! I’ll  have to think about that.  
69
304400
2560
Doprawdy tajemnicza zagadka! Muszę to przemyśleć.
05:07
Then we had legal tender, that’s the official  money that can be used within a country.  
70
307600
4560
Potem mieliśmy prawny środek płatniczy, czyli oficjalne pieniądze, których można używać w danym kraju.
05:12
The Euro is legal tender within Spain,  but what was the legal tender before that?
71
312160
5600
Euro jest prawnym środkiem płatniczym w Hiszpanii, ale jaki był wcześniej prawny środek płatniczy? Czy to nie
05:17
Wasn’t it the Peseta? Then we had  fluctuates. If something fluctuates,  
72
317760
5600
Peseta? Potem mieliśmy fluktuacje. Jeśli coś się zmienia,
05:23
it changes in amount or level.  The stock market fluctuates.
73
323360
4000
zmienia się pod względem kwoty lub poziomu. Giełda się waha.
05:27
But my love for my family never does. Then we  had soared, which means increased very quickly.  
74
327360
6560
Ale moja miłość do rodziny nigdy się nie kończy. Potem poszybowaliśmy w górę, co oznacza, że ​​wzrosliśmy bardzo szybko. Jest
05:33
It’s used with this meaning in the  context of money, prices and statistics.
75
333920
4320
używany w tym znaczeniu w kontekście pieniędzy, cen i statystyk.
05:38
Finally, we had scepticism. Scepticism is doubt  
76
338240
3600
W końcu mieliśmy sceptycyzm. Sceptycyzm to wątpliwość  ,
05:41
that something is real or true. What sort  of things are people sceptical about, Neil?
77
341840
5120
że coś jest prawdziwe lub prawdziwe. Do jakich rzeczy ludzie są sceptyczni, Neil?
05:47
Some people think that human activity hasn’t  caused climate change. They are sceptical.
78
347520
6240
Niektórzy uważają, że działalność człowieka nie spowodowała zmiany klimatu. Są sceptyczni.
05:53
And that brings us to the end of today’s 6 Minute  English. Don’t forget to check out our Youtube,  
79
353760
5120
I to prowadzi nas do końca dzisiejszego 6-minutowego angielskiego. Nie zapomnij sprawdzić naszych stron na YouTube,
05:58
Facebook, Twitter and Instagram pages,  and we’ll see you next time. Goodbye.
80
358880
4640
Facebooku, Twitterze i Instagramie. Do zobaczenia następnym razem. Do widzenia.
06:03
Goodbye
81
363520
2320
06:12
Hello and welcome to 6 Minute English. I'm Rob.
82
372240
3360
Żegnaj, witaj w 6-minutowym angielskim. Jestem Rob.
06:15
And I'm Dan.
83
375600
1280
A ja jestem Danem.
06:16
Hey Dan. What’s the time?
84
376880
2000
Hej Dan. Która godzina?
06:19
Time you got a new watch?
85
379680
1520
Czas na nowy zegarek?
06:21
Now I didn’t ask you that just for a  joke or a sarcastic comment now did I?
86
381840
4000
Nie pytałem cię o to tylko dla żartu lub sarkastycznego komentarza, prawda?
06:25
Well no, but look there’s a clock  over there, you are wearing a watch,  
87
385840
4240
Cóż, nie, ale spójrz, tam jest zegar , ty nosisz zegarek,
06:30
you have a smartphone and a computer, all of  which show the time. So why are you asking me?
88
390080
5840
masz smartfona i komputer, które pokazują godzinę. Więc dlaczego pytasz mnie?
06:36
Dan! I was trying to introduce today’s topic  which is all about virtual assistants or bots.  
89
396480
6400
Danie! Chciałem wprowadzić dzisiejszy temat, który dotyczy wirtualnych asystentów lub botów.
06:42
You seemed to have forgotten the script.
90
402880
1760
Wyglądało na to, że zapomniałeś scenariusza.
06:44
Oh yes, sorry. We’re talking  about software that you talk to  
91
404640
4800
O tak, przepraszam. Mówimy o oprogramowaniu, z którym rozmawiasz
06:49
and that can talk back to you. Like Apple’s  Siri, Google’s Assistant, Amazon’s Alexa  
92
409440
6160
i które może z tobą rozmawiać. Na przykład Siri firmy Apple , Asystent Google, Alexa   firmy Amazon
06:55
and Microsoft’s Cortana. It might be on your  phone or computer or even a speaker in your house.
93
415600
6800
i Cortana firmy Microsoft. Może to być Twój telefon lub komputer, a nawet głośnik w Twoim domu.
07:03
Now before we hear more about this  topic, here is today’s quiz question:  
94
423120
4160
Zanim dowiemy się więcej na ten temat, oto dzisiejsze pytanie quizowe:  Czy
07:08
Do you know when was the first computer which  could recognise speech, launched? Was it in
95
428000
6080
wiesz, kiedy został uruchomiony pierwszy komputer, który rozpoznawał mowę? Czy to było w
07:14
a) 1951
96
434080
1840
a) 1951
07:15
b) 1961
97
435920
1520
b) 1961
07:17
c) 1971
98
437440
1600
c) 1971
07:20
I have found my script, so I’ve seen the  answer but I have to say I was surprised.
99
440400
5680
Znalazłem swój scenariusz, więc widziałem odpowiedź, ale muszę powiedzieć, że byłem zaskoczony.
07:26
Don't tell anybody, Dan, OK. We’ll give the answer  for the listeners at the end of the programme.  
100
446080
4800
Nie mów nikomu, Dan, dobrze. Odpowiedź podamy słuchaczom na koniec programu.
07:31
We’re going to hear now from Tom Hewitson, who  is a conversation designer, working in the field  
101
451760
5760
Posłuchamy teraz Toma Hewitsona, który jest projektantem konwersacji, pracuje w dziedzinie
07:37
of virtual assistants, talking on BBC Radio  4's Word of Mouth programme. He talks about  
102
457520
6480
wirtualnych asystentów, przemawia w programie Word of Mouth BBC Radio 4. Opowiada o
07:44
the whole idea of virtual assistants and how they  are changing the way we interact with technology.  
103
464000
5920
całej idei wirtualnych asystentów i o tym, jak zmieniają sposób, w jaki wchodzimy w interakcje z technologią.
07:50
How does he describe our existing  relationship with computers?
104
470640
3920
Jak opisuje nasze dotychczasowe relacje z komputerami?
07:55
It changes the way that we think about computers.  To date we’ve thought of them largely as  
105
475360
6000
Zmienia sposób, w jaki myślimy o komputerach. Do tej pory myśleliśmy o nich głównie jako o
08:01
tools. They’re just an advanced version of a  calculator. They’re something you kind of use  
106
481360
4640
narzędziach. To po prostu zaawansowana wersja kalkulatora. Są czymś, czego używasz,
08:06
to get a specific thing done, whereas this is  kind of changing them more into like an agent.  
107
486000
5120
by wykonać określoną rzecz, podczas gdy to zmienia ich bardziej w agentów.
08:11
They’re an active participant in the interaction  and in guiding you to make the right decision.
108
491120
6960
Aktywnie uczestniczą w interakcji i pomagają Ci podjąć właściwą decyzję.
08:18
How did he describe our existing  relationship with computers then?
109
498720
3280
Jak opisał wtedy nasze dotychczasowe relacje z komputerami?
08:22
He said that to date, which is an expression  which means 'up until this point in time',  
110
502000
4560
Powiedział, że do tej pory, co jest wyrażeniem oznaczającym „do tego momentu”,
08:26
we have thought of them as advanced calculators.
111
506560
2480
myśleliśmy o nich jak o zaawansowanych kalkulatorach.
08:29
Yes, that’s right, we use them  as a tool to get things done.  
112
509040
4080
Tak, to prawda, używamy ich jako narzędzia do załatwiania spraw.
08:33
But he says that modern technology is turning them  into an agent. This doesn’t mean a secret agent,  
113
513120
5920
Ale mówi, że nowoczesna technologia zmienia ich w agentów. To nie oznacza tajnego agenta,
08:39
like James Bond! In this sense an  agent is something that has agency  
114
519040
5120
jak James Bond! W tym sensie agent to coś, co ma sprawczość,
08:44
and that means it has the ability to act  individually and make its own decisions.
115
524160
5040
a to oznacza, że ​​ma zdolność do indywidualnego działania i podejmowania własnych decyzji.
08:49
I’m not sure I’d like my phone to have agency. It  probably wouldn’t like being in my pocket all day.
116
529200
5600
Nie jestem pewien, czy chciałbym, aby mój telefon miał agencję. Pewnie nie podobałoby mi się, że cały dzień siedzi w mojej kieszeni.
08:54
Who would Dan? But I’m not sure Hewitson  is suggesting our devices would become  
117
534800
4800
Kto miałby Dana? Ale nie jestem pewien, czy Hewitson sugeruje, że nasze urządzenia staną się
08:59
that clever but he did say they could  become more active in our lives.
118
539600
4560
tak sprytne, ale powiedział, że mogą stać się bardziej aktywne w naszym życiu.
09:05
Maybe. I imagine, for example,  
119
545120
2880
Może. Wyobrażam sobie na przykład,
09:08
telling us if we are spending too  much time in fast food restaurants?
120
548000
3760
mówiąc nam, czy spędzamy za dużo czasu w restauracjach typu fast food?
09:11
Maybe in your case Dan. Mine would be  telling me I spend too much time in the gym!  
121
551760
5200
Może w twoim przypadku Dan. Mój powiedziałby mi, że spędzam za dużo czasu na siłowni!
09:16
Hewitson goes on to explain how the way we will  talk to our virtual assistants will develop.  
122
556960
4880
Hewitson wyjaśnia dalej, jak rozwinie się sposób, w jaki będziemy rozmawiać z naszymi wirtualnymi asystentami.
09:22
What does he say we don’t need to do?
123
562720
2240
Co on mówi, że nie musimy robić?
09:25
We will develop our own kind of vernacular  for speaking with machines that will be  
124
565520
4800
Opracujemy własny rodzaj języka ojczystego do mówienia z maszynami, który będzie
09:30
subtly different from how we  speak to other people because  
125
570320
2960
nieznacznie różnił się od sposobu, w jaki rozmawiamy z innymi ludźmi, ponieważ
09:33
as you rightly point out you don’t need to make  the machine like you don’t need to kind of make  
126
573280
5120
jak słusznie zauważyłeś, nie musisz tworzyć maszyny tak, jak nie musisz tworzyć
09:38
random chit-chat that’s just filling the time.  It can be much more brusque and to the point.
127
578400
5840
losowo pogawędki, które po prostu wypełniają czas. Może być znacznie bardziej szorstki i na temat.
09:44
A lot of what we say in human communication  
128
584240
2560
Wiele z tego, co mówimy w komunikacji międzyludzkiej,
09:46
is to do with our relationship  with the person we’re talking to.
129
586800
3200
ma związek z naszą relacją z osobą, z którą rozmawiamy.
09:50
We say things and talk about things that are maybe  not directly relevant to our point. With a digital  
130
590000
6480
Mówimy i rozmawiamy o rzeczach, które być może nie są bezpośrednio związane z naszym punktem widzenia. Dzięki cyfrowemu
09:56
virtual assistant, we don’t need to do that,  so we don’t need to make the machine like us.
131
596480
5440
wirtualnemu asystentowi nie musimy tego robić, więc nie musimy sprawiać, by maszyna nas lubiła.
10:01
Hewitson said that we will develop our own  vernacular, this is a general word for a native  
132
601920
5280
Hewitson powiedział, że rozwiniemy własny język ojczysty, to ogólne określenie
10:07
language. This vernacular will be a little bit  different from our everyday vernacular because,  
133
607200
5680
języka ojczystego. Ten język ojczysty będzie trochę różnił się od naszego codziennego języka ojczystego, ponieważ,
10:12
as we said, we don’t need to maintain a social  relationship with the artificial assistant.
134
612880
5440
jak powiedzieliśmy, nie musimy utrzymywać relacji towarzyskich ze sztucznym asystentem.
10:18
This means that we won’t need chit-chat.  Chit-chat is another expression for small talk:  
135
618320
5280
Oznacza to, że nie będziemy potrzebować pogawędek. Chit-chat to inne określenie small talk:
10:23
conversation topics which aren’t important  but are part of everyday social communication,  
136
623600
5840
tematy rozmów, które nie są ważne, ale są częścią codziennej komunikacji społecznej,
10:29
like talking about the weather.
137
629440
1600
jak rozmowa o pogodzie.
10:31
And because we don’t need to be  friends with our virtual assistants,  
138
631040
3120
A ponieważ nie musimy przyjaźnić się z naszymi wirtualnymi asystentami,
10:34
we can be brusque and to the point. Both of  these mean being very direct and not very polite.
139
634160
6160
możemy mówić szorstko i na temat. Oba oznaczają bycie bardzo bezpośrednim i niezbyt uprzejmym.
10:40
Well, Dan, I don’t mean to be brusque but it is  time for the answer to this week’s quiz question.  
140
640960
4640
Cóż, Dan, nie chcę być szorstki, ale nadszedł czas na odpowiedź na pytanie z quizu w tym tygodniu.
10:45
Earlier I asked when was the first  computer which could recognise speech,  
141
645600
4160
Wcześniej zapytałem, kiedy został uruchomiony pierwszy komputer rozpoznający mowę
10:49
launched. The options were:
142
649760
1600
. Opcje były następujące:
10:51
a) 1951
143
651360
1520
a) 1951
10:52
b) 1961
144
652880
1680
b) 1961
10:54
c) 1971
145
654560
2080
c) 1971
10:56
Well actually the first computer which  could recognise speech was launched in 1961.
146
656640
5520
Właściwie pierwszy komputer, który potrafił rozpoznawać mowę, został wprowadzony na rynek w 1961 roku.
11:03
It was called the IBM Shoebox and could  recognise 16 words and the numbers zero  
147
663040
6640
Nazywał się IBM Shoebox i potrafił rozpoznawać 16 słów oraz cyfry od zera
11:09
to nine. That’s nearly as many as you!
148
669680
2480
do dziewięciu. To prawie tyle samo, co Ty!
11:12
Cheeky! Right enough of this chit-chat.  Let’s recap today’s vocabulary.
149
672160
5360
Bezczelny! Wystarczy tej pogawędki. Podsumujmy dzisiejsze słownictwo.
11:17
Well, chit-chat was one of today’s  expressions. Meaning 'small talk',  
150
677520
3840
Cóż, pogawędka była jednym z dzisiejszych wyrażeń. Oznacza „pogawędkę”,
11:21
but we also had the expression to date.  That means ‘up until this moment in time’.
151
681360
5840
ale do tej pory używaliśmy również tego wyrażenia. To znaczy „aż do tego momentu”.
11:27
Then we had the noun agent. This  refers to something that has agency.  
152
687200
4960
Potem mieliśmy rzeczownika agenta. Odnosi się to do czegoś, co ma sprawczość.
11:32
And that is the ability to think,  make decisions and act independently.
153
692160
4480
A to umiejętność samodzielnego myślenia, podejmowania decyzji i działania.
11:36
The next word is vernacular,  another word for language,  
154
696640
3200
Następne słowo jest wernakularne, inne słowo określające język,
11:39
particularly when talking about a native language.
155
699840
2960
zwłaszcza gdy mówimy o języku ojczystym.
11:42
And finally, there was brusque meaning  'direct and not polite' and to the point,  
156
702800
5680
I wreszcie, było szorstkie, co oznacza „bezpośredni i niegrzeczny” i na temat,
11:48
which also means 'direct and  without unnecessary information'.
157
708480
3200
co również oznacza „bezpośredni i bez zbędnych informacji”.
11:52
Hey Rob
158
712240
960
Hej Rob
11:53
Yes, what can I do for you Dan?
159
713200
2240
Tak, co mogę dla ciebie zrobić, Dan?
11:55
End the programme.
160
715440
1120
Zakończ program.
11:56
Certainly Dan. Well that’s all from us today,  be sure to check us out on all the usual places:  
161
716560
5920
Na pewno Dan. Cóż, to wszystko od nas na dziś. Sprawdź nas we wszystkich popularnych miejscach:
12:02
Facebook, Twitter, Instagram and YouTube,  
162
722480
2560
Facebook, Twitter, Instagram i YouTube
12:05
and of course please don't forget our  website bbclearningenglish.com. Bye for now!
163
725040
4880
oraz oczywiście nie zapomnij o naszej stronie internetowej bbclearningenglish.com. Na razie! Do
12:09
Bye!
164
729920
200
widzenia!
12:18
Hello. This is 6 Minute English  from BBC Learning English. I’m Neil.
165
738160
4000
Cześć. To jest 6-minutowy angielski od BBC Learning English. Jestem Neilem.
12:22
And I’m Sam. What’s the  matter, Neil? You sound upset.
166
742160
3440
A ja jestem Sam. O co chodzi, Neil? Brzmisz na zdenerwowanego.
12:26
Well, I am, Sam - I just spent  an hour working on my computer  
167
746240
3760
Cóż, jestem, Sam — właśnie spędziłem godzinę, pracując na komputerze  ,
12:30
when it suddenly froze. I lost everything  and had to start all over again!
168
750000
4400
gdy nagle się zawiesił. Straciłem wszystko i musiałem zacząć wszystko od nowa!
12:34
Agghh, that’s so frustrating - like pop-up  internet ads and buffering videos that never play!
169
754400
5680
Agghh, to takie frustrujące – jak wyskakujące reklamy internetowe i buforowanie filmów, które nigdy się nie odtwarzają!
12:40
Modern computers and the internet have  revolutionised the way we live today,  
170
760800
4160
Nowoczesne komputery i internet zrewolucjonizowały sposób, w jaki dzisiaj żyjemy,
12:44
bringing us the world with a click of a button.  
171
764960
2640
udostępniając nam świat jednym kliknięciem.
12:47
But not everyone feels happy about  these technological developments.
172
767600
3280
Ale nie wszyscy są zadowoleni z tego rozwoju technologicznego.
12:51
While potentially acting as a  force for good and progress,  
173
771600
4080
Choć potencjalnie działa jako siła działająca na rzecz dobra i postępu,
12:55
the internet also provides a way of spreading  hate and misinformation. And for some people,  
174
775680
5920
internet umożliwia również szerzenie nienawiści i dezinformacji. A dla niektórych osób sieć
13:01
the World Wide Web remains a  mysterious and confusing place.
175
781600
4240
World Wide Web pozostaje tajemniczym i zagmatwanym miejscem.
13:06
In this programme, we’ll hear about  a new academic subject called Web  
176
786560
4000
W tym programie usłyszymy o nowym przedmiocie akademickim o nazwie Web
13:10
Science. Web Science studies the  technology behind the internet.
177
790560
4480
Science. Web Science bada technologię stojącą za Internetem.
13:15
But from the human side, it’s  also interested in how people  
178
795040
3200
Ale od strony ludzkiej interesuje się również tym, jak ludzie
13:18
interact with each other online. So we’ll  be asking whether studying Web Science  
179
798240
4880
wchodzą ze sobą w interakcje online. Zapytamy więc, czy studiowanie Web Science
13:23
could make the internet better  for humanity in the future.
180
803120
3200
może sprawić, że Internet będzie lepszy dla ludzkości w przyszłości.
13:26
But first it’s time for our quiz question. I  wonder what the pioneers of the internet would  
181
806880
4800
Ale najpierw czas na nasze pytanie quizowe. Zastanawiam się, co pomyśleliby pionierzy internetu
13:31
think about how it is used today. So the question  is, who invented the World Wide Web? Was it: 
182
811680
5520
o tym, jak jest on dziś wykorzystywany. Pytanie więc brzmi: kto wynalazł World Wide Web? Czy to był:
13:37
a) Bill Gates, 
183
817200
1760
a) Bill Gates,
13:38
b) Tim Berners-Lee, or c) Steve Jobs
184
818960
2960
b) Tim Berners-Lee, czy c) Steve Jobs
13:42
Well, Bill Gates and Steve Jobs were the  brains behind Microsoft and Apple Mac,  
185
822640
4640
Cóż, Bill Gates i Steve Jobs byli mózgami stojącymi za Microsoftem i Apple Mac,
13:47
so I’m going to say c) Tim Berners-Lee.
186
827280
2960
więc powiem c) Tim Berners-Lee.
13:50
OK, Sam, we’ll find out later. Now,  because of coronavirus the annual Web  
187
830240
4880
OK, Sam, dowiemy się później. Teraz, z powodu koronawirusa doroczna
13:55
Science conference was held online this year.  Its theme was ‘making the web human-centric’.
188
835120
5520
konferencja Web   Science odbyła się w tym roku online. Tematem przewodnim było „sprawienie, by sieć była skoncentrowana na człowieku”.
14:01
One of the conference’s key speakers, and  co-founder of the new discipline of Web Science,  
189
841280
5600
Jednym z głównych prelegentów konferencji i współtwórcą nowej dyscypliny Web Science
14:06
was Dame Wendy Hall. Here she is speaking  to BBC World Service’s Digital Planet:
190
846880
5360
była Dame Wendy Hall. Tutaj rozmawia z Digital Planet BBC World Service:
14:13
People think about the web as a technology  but actually it’s co-createdby society.  
191
853440
4800
Ludzie myślą o sieci jako o technologii, ale w rzeczywistości jest ona współtworzona przez społeczeństwo.
14:18
We put the content on, we interact with the  technology, with the platforms, with the social  
192
858240
4640
Umieszczamy treści, wchodzimy w interakcje z technologią, platformami,
14:22
media networks to create it. What we study is how  that works as an ecosystem,this coming together  
193
862880
6240
sieciami społecznościowymi, aby je tworzyć. Badamy, jak to działa jako ekosystem, to połączenie
14:29
of people and technology, and it’s very  interdisciplinary, very socio-technical,  
194
869120
4480
ludzi i technologii, i jest bardzo interdyscyplinarne, bardzo socjotechniczne,
14:33
and of course these days a  lot of it is powered by AI.
195
873600
3280
i oczywiście w dzisiejszych czasach wiele z nich jest zasilanych przez sztuczną inteligencję.
14:38
Web Science is not only interested in  the technology side of the internet.  
196
878240
4080
Web Science interesuje się nie tylko technologiczną stroną internetu.
14:42
As a subject it’s very interdisciplinary  - involving two or more academic subjects  
197
882320
5600
Jako przedmiot jest bardzo interdyscyplinarny – obejmuje dwa lub więcej przedmiotów akademickich
14:47
or areas of knowledge. Web Science  combines digital technology with  
198
887920
4480
lub obszarów wiedzy. Web Science łączy technologię cyfrową z
14:52
subjects ranging from psychology and  robotics to economics and sociology.
199
892400
4320
przedmiotami z zakresu od psychologii i robotyki po ekonomię i socjologię.
14:57
Exchanges between humans and the internet can  be seen in social media networks - websites,  
200
897360
5440
Wymiany między ludźmi a Internetem można zaobserwować w sieciach społecznościowych — witrynach internetowych,
15:02
apps and computer programmes,  like Facebook and Instagram,  
201
902800
3200
aplikacjach i programach komputerowych, takich jak Facebook i Instagram,
15:06
which allow people to use electronic devices  to communicate and share information.
202
906000
5360
które umożliwiają użytkownikom korzystanie z urządzeń elektronicznych do komunikowania się i udostępniania informacji.
15:11
This view of technology sees the internet as an  ecosystem – a complex pattern of relationships  
203
911360
6000
Ten pogląd na technologię postrzega Internet jako ekosystem — złożony wzór relacji
15:17
and mutual influences that exists between  all living things and their environment.
204
917360
5360
i wzajemnych wpływów, który istnieje między wszystkimi żywymi istotami i ich środowiskiem.
15:22
One ongoing and topical example of  websites helpfully interacting with humans  
205
922720
5360
Jednym z bieżących i aktualnych przykładów stron internetowych pomocnych w interakcji z ludźmi
15:28
is the Covid contact tracing app.
206
928080
2880
jest aplikacja Covid do śledzenia kontaktów.
15:30
You might think the mobile phone app, which  tracks movements and contact between people  
207
930960
4240
Można by pomyśleć, że aplikacja na telefony komórkowe, która śledzi ruchy i kontakty między ludźmi
15:35
to combat coronavirus, would be a useful  practical application of internet technology.
208
935200
4640
w celu zwalczania koronawirusa, byłaby użytecznym praktycznym zastosowaniem technologii internetowej.
15:40
But as Carly Kind, Director of the  Ada Lovelace Institute in Cambridge,  
209
940480
4800
Ale jak Carly Kind, dyrektor Instytutu Ady Lovelace w Cambridge,
15:45
explained to BBC World Service’s Digital  Planet, things are never that straightforward:
210
945280
5120
wyjaśniła BBC World Service Digital Planet, sprawy nigdy nie są takie proste:
15:52
Actually, there’s a lot of more fundamental  questions that haven’t been answered yet such as:  
211
952000
3840
właściwie jest wiele bardziej fundamentalnych pytań, na które nie ma jeszcze odpowiedzi, takich jak:
15:56
is Bluetooth even an adequate mechanism for  doing what it says on the tin, which is detecting  
212
956400
5120
czy Bluetooth w ogóle istnieje odpowiedni mechanizm robienia tego, co jest napisane na puszce, czyli wykrywanie
16:01
contact between two people? The trails so far  show that it’s not actually that great and so,  
213
961520
5760
kontaktu między dwojgiem ludzi? Dotychczasowe ślady pokazują, że tak naprawdę nie jest tak wspaniale, więc
16:07
do we know for sure that these apps work  and they work in the way we want them to?  
214
967280
3600
czy wiemy na pewno, że te aplikacje działają i działają tak, jak byśmy tego chcieli?
16:11
Do we get the public health  information that we need?
215
971520
3040
Czy otrzymujemy potrzebne informacje dotyczące zdrowia publicznego?
16:16
Apps like this are designed to  support public health - services  
216
976240
3840
Aplikacje takie jak ta mają na celu wspieranie zdrowia publicznego – usługi
16:20
to improve the standard of health  of a country’s general population.
217
980080
3840
poprawiające standard zdrowia  ogółu populacji danego kraju.
16:23
But Carly thinks the mechanisms used must be  suitable and adequate – they must actually work or  
218
983920
6640
Ale Carly uważa, że ​​stosowane mechanizmy muszą być odpowiednie i adekwatne – muszą faktycznie działać lub
16:31
do what it says on the tin – an informal idiom  meaning work exactly as it is intended to.
219
991120
7680
robić to, co jest napisane na puszce – nieformalny idiom oznaczający działanie dokładnie tak, jak powinno.
16:38
To find this out, trials - tests  to discover how effective or  
220
998800
4160
Aby się tego dowiedzieć, przez pewien czas przeprowadza się próby — testy mające na celu wykrycie skuteczności lub
16:42
suitable something is - are  carried out over a period of time.
221
1002960
3680
przydatności czegoś .
16:46
The kind of trials which were carried out during  
222
1006640
2400
Rodzaj prób, które zostały przeprowadzone podczas
16:49
the invention of the internet  in the first place, right, Neil?
223
1009040
3440
wynalezienia internetu , prawda, Neil?
16:54
Ah yes, the invention of the internet – or  to be more accurate, the World Wide Web. In  
224
1014000
5040
Ach tak, wynalezienie Internetu – a dokładniej World Wide Web. W
16:59
our quiz question I asked you who invented  the World Wide Web? What did you say, Sam?
225
1019040
4800
naszym quizie zadałem ci pytanie, kto wynalazł sieć World Wide Web? Co powiedziałeś, Samie?
17:04
I said b) Tim Berners-Lee.
226
1024960
2080
Powiedziałem b) Tim Berners-Lee.
17:08
Well, you’re a first class web scientist,  Sam, because that’s the correct answer!
227
1028560
4560
Cóż, jesteś pierwszorzędnym naukowcem internetowym, Sam, ponieważ to poprawna odpowiedź!
17:14
Great! In this programme, we’ve been hearing about  Web Science, a new interdisciplinary subject,  
228
1034480
6240
Świetnie! W tym programie słyszeliśmy o Web Science, nowym interdyscyplinarnym przedmiocie,
17:21
combining several areas of study, which  investigates the ecosystem of the internet – the  
229
1041280
5520
łączącym kilka obszarów studiów, który bada ekosystem Internetu –
17:26
complex pattern of interconnections  between humans and their environment.
230
1046800
5040
złożony wzór wzajemnych powiązań między ludźmi a ich środowiskiem. Sieci
17:32
Social media networks –websites and apps,  like Facebook, which let people use electronic  
231
1052400
5120
społecznościowe – strony internetowe i aplikacje, takie jak Facebook, które pozwalają ludziom używać
17:37
devices to communicate on the internet – show how  humans and technology can successfully interact.
232
1057520
5600
urządzeń elektronicznych do komunikowania się w Internecie – pokazują, w jaki sposób ludzie i technologia mogą z powodzeniem wchodzić w interakcje.
17:43
A new Covid contact tracing app is currently  undergoing trials – tests to see if it works  
233
1063840
6000
Nowa aplikacja Covid do śledzenia kontaktów przechodzi obecnie testy – testy mające na celu sprawdzenie, czy działa
17:49
effectively. This will discover if it does what  it says on the tin – works as it’s supposed to.
234
1069840
6800
skutecznie. To odkryje, czy robi to, co jest napisane na puszce – działa tak, jak powinno.
17:57
If successful, by alerting people to  coronavirus risks the app will support  
235
1077200
5120
Jeśli się powiedzie, ostrzegając ludzi o zagrożeniach związanych z koronawirusem, aplikacja będzie wspierać
18:02
public health – services aimed at improving  the health of the general population.
236
1082320
5200
zdrowie publiczne – usługi mające na celu poprawę stanu zdrowia ogółu społeczeństwa.
18:07
And that’s all from us for now.
237
1087520
1920
I to wszystko na razie od nas.
18:09
And we hope you’ll join us again soon  for more topical English vocabulary  
238
1089440
3840
Mamy nadzieję, że wkrótce ponownie do nas dołączysz , aby poznać bardziej aktualne słownictwo angielskie
18:13
here at 6 Minute English. Bye for now!
239
1093280
2160
tutaj w 6 Minute English. Na razie!
18:15
Bye bye!
240
1095440
480
PA pa!
18:23
Hello and welcome to 6 Minute  English. I'm Catherine.
241
1103040
3360
Witamy w 6-minutowym języku angielskim. Jestem Katarzyna.
18:26
And hello, I'm Rob.
242
1106400
1200
I cześć, jestem Rob.
18:27
Today we have another technology topic.
243
1107600
2560
Dziś mamy kolejny temat technologiczny.
18:30
Oh good! I love technology. It makes things  easier, it’s fast and means I can have gadgets.
244
1110160
5840
O Boże! Kocham technologię. Ułatwia to pracę , jest szybki i oznacza, że ​​mogę mieć gadżety.
18:36
Do you think that technology can  actually do things better than humans?
245
1116000
4320
Czy uważasz, że technologia faktycznie potrafi robić rzeczy lepiej niż ludzie?
18:40
For some things, yes. I think cars that drive  themselves will be safer than humans but that  
246
1120320
5680
Do niektórych rzeczy tak. Myślę, że samochody, które same się prowadzą, będą bezpieczniejsze niż ludzie, ale to
18:46
will take away some of the pleasure of driving.  So I guess it depends on what you mean by better.
247
1126000
5520
odbierze część przyjemności z jazdy. Więc myślę, że to zależy od tego, co rozumiesz przez lepsze.
18:51
Good point, Rob. And that actually  ties in very closely with today’s topic  
248
1131520
4880
Słuszna uwaga, Rob. I to właściwie bardzo ściśle wiąże się z dzisiejszym tematem,
18:56
which is technochauvinism.
249
1136400
2160
którym jest technoszowinizm.
18:59
What’s that?
250
1139120
960
Co to jest?
19:00
We’ll find out shortly, Rob, but before we do,  today’s quiz question. Artificial Intelligence,  
251
1140080
6080
Wkrótce się dowiemy, Rob, ale zanim to zrobimy, dzisiejsze pytanie quizowe. Sztuczna inteligencja
19:06
or A.I., is an area of computer science that  develops the ability of computers to learn  
252
1146160
5760
lub sztuczna inteligencja to dziedzina informatyki, która rozwija zdolność komputerów do uczenia się takich
19:11
to do things like solve problems or drive cars  without crashing. But in what decade was the term  
253
1151920
7360
rzeczy, jak rozwiązywanie problemów lub prowadzenie samochodów bez awarii. Ale w której dekadzie
19:19
'Artificial Intelligence' coined? Was it: a) the 1940s, 
254
1159280
4800
powstał termin „sztuczna inteligencja”? Czy były to: a) lata czterdzieste,
19:24
b) the 1950s or c) the 1960s?
255
1164080
3520
b) lata pięćdziesiąte czy c) lata sześćdziesiąte?
19:28
I think it's quite a new expression  so I'll go for c) the 1960s.
256
1168240
4880
Myślę, że to całkiem nowe określenie, więc wybiorę c) lata 60.
19:33
Good luck with that, Rob, and we’ll give  you the answer later in the programme.  
257
1173120
3360
Powodzenia, Rob, a my udzielimy Ci odpowiedzi w dalszej części programu.
19:37
Now, let's get back to our  topic of technochauvinism.
258
1177120
3680
Wróćmy teraz do naszego tematu technoszowinizmu.
19:40
I know what a chauvinist is. It’s someone  who thinks that their country or race or sex  
259
1180800
5360
Wiem, co to jest szowinizm. To ktoś, kto uważa, że ​​jego kraj, rasa lub płeć
19:46
is better than others. But how  does this relate to technology?
260
1186160
3520
są lepsze od innych. Ale jak to się ma do technologii?
19:49
We’re about to find out. Meredith Broussard is  Professor of Journalism at New York University  
261
1189680
6160
Zaraz się tego dowiemy. Meredith Broussard jest profesorem dziennikarstwa na Uniwersytecie Nowojorskim
19:55
and she’s written a book called  Artificial Unintelligence.  
262
1195840
4160
i napisała książkę zatytułowaną Sztuczna nieinteligencja.
20:00
She appeared on the BBC Radio 4  programme More or Less to talk about it.  
263
1200000
4800
Wystąpiła w programie BBC Radio 4 mniej więcej, aby o tym opowiedzieć.
20:04
Listen carefully and find out her  definition of technochauvinism.
264
1204800
4080
Posłuchaj uważnie i poznaj jej definicję technoszowinizmu.
20:09
Technochauvinism is the idea that technology is  always the highest and best solution. So somehow  
265
1209600
7040
Technoszowinizm to idea, że ​​technologia jest zawsze najwyższym i najlepszym rozwiązaniem. Więc jakoś  w ciągu
20:16
over the past couple of decades we got into the  habit of thinking that doing something with a  
266
1216640
7040
ostatnich kilku dekad przyzwyczailiśmy się do myślenia, że ​​zrobienie czegoś na
20:23
computer is always the best and most objective  way to do something and that’s simply not true.  
267
1223680
7200
komputerze jest zawsze najlepszym i najbardziej obiektywnym sposobem na zrobienie czegoś, a to po prostu nieprawda.
20:30
Computers are not objective, they are  proxies for the people who make them.
268
1230880
4960
Komputery nie są obiektywne, są pełnomocnikami ludzi, którzy je tworzą.
20:36
What is Meredith Broussard's  definition of technochauvinism?
269
1236640
4160
Jaka jest definicja technoszowinizmu według Meredith Broussard?
20:40
It's this idea that using technology  is better than not using technology.
270
1240800
5040
Chodzi o to, że korzystanie z technologii jest lepsze niż jej nieużywanie.
20:45
She says that we have this idea that a computer is  objective. Something that is objective is neutral,  
271
1245840
6800
Mówi, że mamy taki pomysł, że komputer jest obiektywny. Coś, co jest obiektywne, jest neutralne,
20:52
it doesn’t have an opinion, it’s  fair and it's unbiased – so it’s  
272
1252640
3920
nie ma opinii, jest sprawiedliwe i bezstronne – jest więc
20:56
the opposite of being a chauvinist. But  Meredith Broussard says this is not true.
273
1256560
6000
przeciwieństwem szowinizmu. Ale Meredith Broussard twierdzi, że to nieprawda.
21:02
She argues that computers are not objective.  They are proxies for the people that make them.  
274
1262560
6480
Twierdzi, że komputery nie są obiektywne. Są pełnomocnikami ludzi, którzy je tworzą.
21:09
You might know the word proxy when you  are using your computer in one country  
275
1269040
4160
Być może znasz słowo proxy, gdy używasz komputera w jednym kraju
21:13
and want to look at something that is  only available in a different country.  
276
1273200
3680
i chcesz zobaczyć coś, co jest dostępne tylko w innym kraju. W tym celu
21:16
You can use a piece of software  called a proxy to do that.
277
1276880
3440
możesz użyć oprogramowania zwanego serwerem proxy.
21:20
But a proxy is also a person or a thing that  carries out your wishes and your instructions  
278
1280320
6560
Ale pełnomocnik to także osoba lub rzecz, która spełnia Twoje życzenia i instrukcje w
21:26
for you. So computers are only as smart or as  objective as the people that programme them.  
279
1286880
7120
Twoim imieniu. Komputery są więc tak inteligentne lub obiektywne, jak ludzie, którzy je programują.
21:34
Computers are proxies for their programmers.  Broussard says that believing too much in  
280
1294720
6240
Komputery są pośrednikami dla swoich programistów. Broussard mówi, że zbytnia wiara w
21:40
Artificial Intelligence can make the  world worse. Let’s hear a bit more.  
281
1300960
4720
sztuczną inteligencję może pogorszyć świat. Posłuchajmy trochę więcej.
21:45
This time find out what serious problems in  society does she think may be reflected in AI?
282
1305680
7520
Tym razem dowiedz się, jakie poważne problemy społeczne jej zdaniem mogą znaleźć odzwierciedlenie w sztucznej inteligencji? To
21:54
It’s a nuanced problem. What we  have is data on the world as it is  
283
1314160
4960
złożony problem. To, co mamy, to dane dotyczące świata takiego, jaki jest,
21:59
and we have serious problems with  racism, sexism, classism, ageism,  
284
1319120
5680
i mamy poważne problemy z rasizmem, seksizmem, klasizmem, wiekiem,
22:04
in the world right now so there is no such thing  as perfect data. We also have a problem inside the  
285
1324800
6720
więc nie ma czegoś takiego jak doskonałe dane. Mamy również problem w
22:11
tech world where the creators of algorithms do  not have sufficient awareness of social issues  
286
1331520
8640
świecie technologii, w którym twórcy algorytmów nie mają wystarczającej świadomości problemów społecznych, aby
22:20
such that they can make good technology that  gets us closer to a world as it should be.
287
1340160
6400
mogli stworzyć dobrą technologię, która przybliży nas do świata takiego, jaki powinien być.
22:27
She said that society has problems with  racism, sexism, classism and ageism.
288
1347680
6000
Powiedziała, że ​​społeczeństwo ma problemy z rasizmem, seksizmem, klasizmem i ageizmem.
22:33
And she says it’s a nuanced problem. A nuanced  problem is not simple, but it does have small  
289
1353680
6800
I mówi, że to problem zniuansowany. Zniuansowany problem nie jest prosty, ale ma małe
22:40
and important areas which may be hard  to spot, but they need to be considered.
290
1360480
5040
i ważne obszary, które mogą być trudne do wykrycia, ale należy je wziąć pod uwagę.
22:45
And she also talked about algorithms used  to program these technological systems.  
291
1365520
5280
Mówiła też o algorytmach używanych do programowania tych układów technologicznych.
22:50
An algorithm is a set of instructions  that computers use to perform their tasks.  
292
1370800
4880
Algorytm to zestaw instrukcji używanych przez komputery do wykonywania swoich zadań.
22:55
Essentially it’s the rules that they use  to come up with their answers and Broussard  
293
1375680
4640
Zasadniczo są to zasady, których używają, aby wymyślić swoje odpowiedzi, a Broussard
23:00
believes that technology will reflect the  views of those who create the algorithms.
294
1380320
4640
wierzy, że technologia będzie odzwierciedlać poglądy tych, którzy tworzą algorytmy. Gdy
23:04
Next time you're using a piece of software or your  favourite app you might find yourself wondering if  
295
1384960
5120
następnym razem będziesz korzystać z oprogramowania lub ulubionej aplikacji, możesz się zastanawiać, czy jest to
23:10
it's a useful tool or does it contain these little  nuances that reflect the views of the developer.
296
1390080
7120
przydatne narzędzie, czy też zawiera te drobne niuanse, które odzwierciedlają poglądy programisty.
23:17
Right, Catherine. How about the  answer to this week's question then?
297
1397200
3280
Właśnie, Katarzyno. A może odpowiedź na pytanie z tego tygodnia?
23:20
I asked in which decade was the term  'Artificial Intelligence' coined.  
298
1400480
4480
Zapytałem, w której dekadzie powstał termin „sztuczna inteligencja”. Czy
23:24
Was it the 40s, the 50s or the 60s?
299
1404960
2720
to były lata 40., 50. czy 60.?
23:27
And I said the 60s.
300
1407680
1200
Powiedziałem, że lata 60.
23:28
But it was actually the 1950s. Never mind,  Rob. Let’s review today’s vocabulary.
301
1408880
5840
Ale tak naprawdę były to lata 50. Nieważne, Rob. Przyjrzyjmy się dzisiejszemu słownictwu.
23:34
Well, we had a chauvinist – that's  someone who believes their country,  
302
1414720
4320
Cóż, mieliśmy szowinistę – czyli kogoś, kto uważa, że ​​jego kraj,
23:39
race or sex is better than any others.
303
1419040
2480
rasa czy płeć są lepsze od innych.
23:41
And this gives us technochauvinism,  
304
1421520
2800
A to daje nam technoszowinizm,
23:44
the belief that a technological solution  is always a better solution to a problem.
305
1424320
5040
przekonanie, że rozwiązanie technologiczne jest zawsze lepszym rozwiązaniem problemu.
23:49
Next - someone or something that is  objective is neutral, fair and balanced.
306
1429360
5680
Dalej – ktoś lub coś, co jest obiektywne, jest neutralne, sprawiedliwe i zrównoważone.
23:55
A proxy is a piece of software but also someone  who does something for you, on your behalf.  
307
1435040
6800
Pełnomocnik to oprogramowanie, ale także ktoś, kto robi coś dla Ciebie w Twoim imieniu.
24:01
A nuanced problem is a subtle one, it’s  not a simple case of right or wrong,  
308
1441840
5520
Zniuansowany problem jest subtelny, nie jest to prosty przypadek dobra lub zła,
24:07
in a nuanced problem there are small but  important things that you need to consider.
309
1447360
5360
w zniuansowanym problemie są małe, ale ważne rzeczy, które należy wziąć pod uwagę.
24:12
And an algorithm is a set of software  instructions for a computer system.
310
1452720
4320
A algorytm to zestaw instrukcji oprogramowania dla systemu komputerowego.
24:17
Well, that’s all we have time  for today. Goodbye for now.
311
1457040
3360
Cóż, to wszystko, na co mamy dzisiaj czas. Na razie.
24:20
Bye bye!
312
1460400
400
PA pa!
24:28
Hello, welcome to 6 Minute English. I'm Rob.
313
1468720
2720
Cześć, witaj w 6-minutowym angielskim. Jestem Rob.
24:31
And I'm Catherine.
314
1471440
1280
A ja jestem Katarzyna.
24:32
So, Catherine, how long do  you spend on your smartphone?
315
1472720
3520
Więc, Catherine, ile czasu spędzasz na swoim smartfonie?
24:36
My smartphone? Not that long  really, only about 18 or 19 hours.
316
1476240
5600
Mój smartfon? Naprawdę nie tak długo , tylko około 18 lub 19 godzin.
24:42
No, sorry, I meant in a day, not in a week.
317
1482400
2720
Nie, przepraszam, miałem na myśli dzień, a nie tydzień.
24:45
Er, that's what I meant too, Rob – a day.
318
1485120
2320
Eee, to też miałem na myśli, Rob – dzień.
24:48
Oh wow, so you’ve even got it right here…
319
1488080
3360
Och, wow, więc masz to nawet tutaj…
24:51
…yep, got it now, Rob. Yes, I should  tell you that I suffer from FOMO.
320
1491440
4560
…tak, masz to teraz, Rob. Tak, powinienem Ci powiedzieć, że cierpię na FOMO.
24:56
FOMO?
321
1496800
1040
FOMO?
24:57
FOMO - Fear of Missing Out. Something cool or  interesting might be happening somewhere, Rob,  
322
1497840
5600
FOMO - strach przed przegapieniem. Coś fajnego lub interesującego może się gdzieś dziać, Rob,
25:03
and I want to be sure I catch it,  so I have to keep checking my phone,  
323
1503440
3920
i chcę mieć pewność, że to złapię, więc muszę ciągle sprawdzać telefon,
25:07
to make sure, you know, I  don’t miss out on anything.
324
1507360
2880
żeby mieć pewność, że niczego nie przegapię.
25:10
So we could call you a phubber… Hello… I said,  
325
1510880
4240
Więc możemy nazwać cię phubberem… Cześć… Powiedziałem,
25:15
so you’re a phubber? Someone who ignores other  people because you’d rather look at your phone.
326
1515120
5200
więc jesteś phubberem? Ktoś, kto ignoruje inne osoby, bo wolisz patrzeć na swój telefon.
25:21
Oh, yeah, that's right.
327
1521360
960
O tak, zgadza się.
25:22
It sounds like you have a bit of a problem  there, Catherine. But you’re not the only one.  
328
1522880
5120
Wygląda na to, że masz z tym mały problem , Catherine. Ale nie jesteś jedyny.
25:28
According to one recent survey, half of teenagers  in the USA feel like they are addicted to their  
329
1528000
5680
Według jednej z niedawnych ankiet połowa nastolatków w USA czuje się uzależniona od swoich
25:33
mobile phones. If you are addicted to something,  you have a physical or mental need to keep on  
330
1533680
5520
telefonów komórkowych. Jeśli jesteś od czegoś uzależniony, masz fizyczną lub psychiczną potrzebę ciągłego
25:39
doing it. You can’t stop doing it. You often hear  about people being addicted to drugs or alcohol,  
331
1539200
6320
robienia tego. Nie możesz przestać tego robić. Często słyszysz o ludziach uzależnionych od narkotyków lub alkoholu,
25:45
but you can be addicted to other things too,  like mobile phones. So, Catherine, do you  
332
1545520
5680
ale możesz być też uzależniony od innych rzeczy, na przykład od telefonów komórkowych. Więc, Catherine, czy
25:51
think you’re addicted to your phone? How long  could you go without it? Catherine? Catherine!
333
1551200
5520
myślisz, że jesteś uzależniona od swojego telefonu? Jak długo możesz się bez niego obejść? Katarzyna? Katarzyno!
25:58
Sorry, Rob, yes, well I think  if I went more than a minute,  
334
1558800
3760
Przepraszam, Rob, tak, myślę, że gdybym poszedł dłużej niż minutę,
26:02
I'd probably get sort of sweaty palms and  I think I'd start feeling a bit panicky.
335
1562560
3760
prawdopodobnie pociłyby mi się dłonie i poczułbym lekką panikę.
26:06
Oh dear! Well, if I can  distract you for a few minutes,  
336
1566320
5280
O jej! Cóż, jeśli mogę odwrócić Twoją uwagę na kilka minut, czy
26:11
can we look at this topic in more detail  please? Let's start with a quiz question  
337
1571600
4160
możemy przyjrzeć się temu tematowi bardziej szczegółowo ? Zacznijmy jednak od pytania quizowego
26:15
first though. In what year did the term  ‘smartphone’ first appear in print? Was it:
338
1575760
5440
. W którym roku termin „smartfon” pojawił się po raz pierwszy w druku? Czy to było:
26:21
a) 1995 
339
1581200
1680
a) 1995
26:22
b) 2000 c) 2005
340
1582880
3200
b) 2000 c) 2005
26:26
What do you think?
341
1586080
880
26:26
OK, you've got my full attention  now, Rob, and I think it’s 2000,  
342
1586960
3840
Jak myślisz?
OK, masz teraz całą moją uwagę , Rob, i wydaje mi się, że jest rok 2000,
26:30
but actually can I just have a quick  look on my phone to check the answer?
343
1590800
3120
ale czy mogę po prostu rzucić okiem na telefon, żeby sprawdzić odpowiedź?
26:33
No, no, that would be cheating – for  you – maybe not for the listeners.
344
1593920
3600
Nie, nie, to byłoby oszustwo – dla ciebie – może nie dla słuchaczy.
26:37
Spoilsport.
345
1597520
800
Człowiek psujący zabawę.
26:39
Right, Jean Twenge is a psychologist who  has written about the damage she feels  
346
1599280
5680
Racja, Jean Twenge jest psychologiem, który napisał o szkodach, jakie według niej
26:44
smartphones are doing to society. She has  written that smartphones have probably led  
347
1604960
5200
smartfony wyrządzają społeczeństwu. Napisała, że ​​smartfony prawdopodobnie doprowadziły
26:50
to an increase in mental health problems for  teenagers. We’re going to hear from her now,  
348
1610160
4880
do ​​wzrostu problemów ze zdrowiem psychicznym wśród nastolatków. Usłyszymy ją teraz,
26:55
speaking to the BBC. What does she say is  one of the dangers of using our phones?
349
1615040
4800
przemawiając do BBC. Co według niej jest jednym z niebezpieczeństw związanych z używaniem naszych telefonów?
27:00
I think everybody’s had that experience  of reading their news feed too much,  
350
1620480
4320
Myślę, że każdy miał takie doświadczenie, że za dużo czytał swoje wiadomości,
27:05
compulsively checking your phone if you’re  waiting for a text or getting really into  
351
1625360
5600
kompulsywnie sprawdzał telefon, jeśli czekasz na SMS-a lub naprawdę zagłębiał się w
27:10
social media then kind of, looking up  and realising that an hour has passed.
352
1630960
4320
media społecznościowe, a potem podnosił wzrok i zdawał sobie sprawę, że minęła godzina. O
27:16
So what danger does she mention?
353
1636720
2400
jakim więc niebezpieczeństwie wspomina?
27:19
Well, she said that we can get so involved in  our phones that we don’t notice the time passing  
354
1639120
5360
Cóż, powiedziała, że ​​możemy tak pochłonąć nasze telefony, że nie zauważamy upływu czasu,
27:24
and when we finally look up, we  realise that maybe an hour has gone.  
355
1644480
4160
a kiedy w końcu podnosimy wzrok, zdajemy sobie sprawę, że może minęła godzina.
27:29
And I must say, I find that to be true for me,  especially when I'm watching videos online. They  
356
1649360
5040
I muszę powiedzieć, że tak jest w moim przypadku, zwłaszcza gdy oglądam filmy online.
27:34
pull you in with more and more videos and I’ve  spent ages just getting lost in video after video.
357
1654400
5280
Wciągają cię coraz większą liczbą filmów, a ja spędziłem wieki, gubiąc się w kolejnych filmach.
27:39
Well that's not a problem if  you're looking at our YouTube site,  
358
1659680
2480
Oczywiście nie stanowi to problemu, jeśli przeglądasz naszą witrynę YouTube
27:42
of course - there's lots to see there.
359
1662160
1520
— jest tam wiele do zobaczenia.
27:43
Yes, BBC Learning English, no problem.  You can watch as many as you like.
360
1663680
3280
Tak, BBC Learning English, żaden problem. Możesz oglądać tyle, ile chcesz.
27:47
Well, she talks about checking our phones  compulsively. If you do something compulsively you  
361
1667760
6000
Cóż, mówi o kompulsywnym sprawdzaniu naszych telefonów . Jeśli robisz coś kompulsywnie, tak
27:53
can’t really control it - it’s a feature of being  addicted to something, you feel you have to do it  
362
1673760
4960
naprawdę nie możesz tego kontrolować – jest to cecha uzależnienia od czegoś, czujesz, że musisz to robić w kółko
27:58
again and again. Some tech companies, though, are  now looking at building in timers to apps which  
363
1678720
6080
. Jednak niektóre firmy technologiczne zastanawiają się teraz nad budowaniem liczników czasu w aplikacjach, które
28:04
will warn us when we have spent too long on them.  Does Jean Twenge think this will be a good idea?
364
1684800
5200
będą nas ostrzegać, gdy spędzimy na nich zbyt dużo czasu. Czy Jean Twenge uważa, że ​​to dobry pomysł?
28:10
It might mean that people look  at social media less frequently  
365
1690960
2640
Może to oznaczać, że ludzie rzadziej zaglądają do mediów społecznościowych
28:14
and that they do what it really should be used  for, which is to keep in touch with people but  
366
1694240
6000
i robią to, do czego naprawdę powinny być używane, czyli utrzymywanie kontaktu z ludźmi, ale
28:20
then put it away and go see some of those  people in person or give them a phone call.
367
1700240
5040
potem odkładają to i odwiedzają niektóre z tych osób osobiście lub dają im telefon dzwonić.
28:25
So, does she think it’s a good idea?
368
1705840
2320
Więc, czy uważa, że ​​to dobry pomysł?
28:28
Well, she doesn’t say so directly, but we  can guess from her answer that she does,  
369
1708880
4720
Cóż, nie mówi tego wprost, ale z jej odpowiedzi możemy się domyślić, że tak,
28:33
because she says these timers will make people  spend more time in face-to-face interaction,  
370
1713600
6000
ponieważ twierdzi, że dzięki tym licznikom czasu ludzie będą spędzać więcej czasu na bezpośrednich interakcjach,
28:39
which a lot of people think would be a good thing.
371
1719600
2240
co według wielu osób byłoby dobrym rozwiązaniem. rzecz.
28:41
Yes, she said we should be using it for keeping in  touch with people - which means contacting people,  
372
1721840
6160
Tak, powiedziała, że ​​powinniśmy go używać do utrzymywania kontaktu z ludźmi — co oznacza kontaktowanie się z ludźmi,
28:48
communicating with them and also encouraging  us to do that communication in person. If you  
373
1728000
5440
komunikowanie się z nimi, a także zachęcanie nas do osobistego komunikowania się. Jeśli
28:53
do something in person then you physically do it –  you go somewhere yourself or see someone yourself,  
374
1733440
5840
robisz coś osobiście, to robisz to fizycznie – sam gdzieś idziesz lub spotykasz się z kimś,
28:59
you don’t do it online or through your smartphone,  which nicely brings us back to our quiz question.  
375
1739280
5840
nie robisz tego online ani przez smartfon, co ładnie prowadzi nas z powrotem do naszego pytania quizowego.
29:05
When was the term smartphone first used in print  - 1995, 2000 or 2005? What did you say, Catherine?
376
1745120
8160
Kiedy termin „smartfon” pojawił się po raz pierwszy w druku – 1995, 2000 czy 2005? Co powiedziałaś, Katarzyno?
29:13
I think I said 2005, without  looking it up on my phone, Rob!
377
1753280
4720
Wydaje mi się, że powiedziałem 2005, nie sprawdzając tego na telefonie, Rob!
29:18
That's good to know, but maybe looking at your  phone would have helped because the answer was  
378
1758000
4000
Dobrze wiedzieć, ale może pomogłoby zerknięcie na telefon, ponieważ odpowiedź brzmiała
29:22
1995. But well done to anybody who did know that.
379
1762000
4240
1995. Ale gratulacje dla każdego, kto to wiedział.
29:26
Or well done to anyone who looked it up  on their phone and got the right answer.
380
1766240
3200
Lub gratulacje dla każdego, kto sprawdził to na swoim telefonie i otrzymał właściwą odpowiedź.
29:29
Mmm, right, before logging off  let’s review today’s vocabulary.
381
1769440
4480
Mmm, dobrze, zanim się wylogujemy, powtórzmy dzisiejsze słownictwo.
29:33
OK, we had FOMO, an acronym that means 'Fear of  Missing Out'. Something that I get quite a lot.
382
1773920
6400
OK, mieliśmy FOMO, akronim oznaczający „Strach przed przegapieniem”. Coś, czego dostaję całkiem sporo.
29:40
And that makes you also a phubber - people  who ignore the real people around them  
383
1780320
4640
A to czyni cię także phubberem — człowiekiem, który ignoruje prawdziwych ludzi wokół siebie,
29:44
because they are concentrating on their phones.
384
1784960
2240
ponieważ koncentruje się na swoich telefonach.
29:47
Yes, I do think I’m probably  addicted to my phone. I have a  
385
1787200
3600
Tak, chyba jestem uzależniony od telefonu. Mam
29:50
psychological and physical need to  have it. My smartphone is my drug.
386
1790800
4640
psychiczną i fizyczną potrzebę by go mieć. Mój smartfon to mój narkotyk.
29:55
Wow, and you look at it compulsively.  You can’t stop looking at it,  
387
1795440
3360
Wow, i patrzysz na to kompulsywnie. Nie możesz przestać na to patrzeć,
29:58
you do it again and again, don't you?
388
1798800
1840
robisz to w kółko, prawda?
30:00
It's sadly true, Rob. To  keep in touch with someone  
389
1800640
3280
To niestety prawda, Rob. Utrzymywanie kontaktu z kimś
30:03
is to contact them and share your news regularly.
390
1803920
3280
oznacza kontaktowanie się z tą osobą i regularne udostępnianie wiadomości.
30:07
And if you do that yourself  by actually meeting them,  
391
1807200
3040
A jeśli robisz to sam, spotykając się z nimi,
30:10
then you are doing it in person. And that  brings us to the end of today’s programme.  
392
1810240
4640
to robisz to osobiście. I na tym kończymy dzisiejszy program.
30:14
Don’t forget you can find us on the usual  social media platforms – Facebook, Twitter,  
393
1814880
4800
Nie zapomnij, że możesz nas znaleźć na zwykłych platformach mediów społecznościowych – Facebook, Twitter,
30:19
Instagram and YouTube - and on our website  at bbclearningenglish.com. Bye for now.
394
1819680
5600
Instagram i YouTube – oraz na naszej stronie internetowej pod adresem bbclearningenglish.com. Na razie. Do
30:25
Bye!
395
1825280
320
widzenia!
30:33
Hello. This is 6 Minute English  from BBC Learning English. I’m Neil.
396
1833280
4160
Cześć. To jest 6-minutowy angielski od BBC Learning English. Jestem Neilem.
30:37
And I’m Georgina.
397
1837440
1280
A ja jestem Georgina.
30:38
Now, Georgina, what do you know about AC DC?
398
1838720
3760
Georgino, co wiesz o AC DC?
30:42
You mean the Australian rock’n’roll band?  
399
1842480
2640
Masz na myśli australijski zespół rock'n'rollowy?
30:45
Well, their 1979 hit ‘Highway to  Hell’ stayed at No.1 for eleven weeks…
400
1845120
5520
Cóż, ich przebój z 1979 roku „Highway to Hell” utrzymywał się na pierwszym miejscu przez jedenaście tygodni…
30:51
No, no, no - not that AC DC, Georgina!  I’m not talking rock music here,  
401
1851200
4880
Nie, nie, nie – nie ten AC DC, Georgina! Nie mówię tu o muzyce rockowej,
30:56
I’m talking electrical currents  – alternating current - AC,  
402
1856080
4560
mówię o prądach elektrycznych – prąd przemienny – AC,
31:00
and direct current - DC, the two  ways in which electricity flows.
403
1860640
4800
i prąd stały – DC, czyli dwa sposoby przepływu prądu.
31:05
Oh, I see. No, I don’t know  anything about that ACDC!
404
1865440
4560
Rozumiem. Nie, nic nie wiem o tym ACDC!
31:10
Well, don’t worry because in  today’s programme we’ll be  
405
1870000
2720
Cóż, nie martw się, ponieważ w dzisiejszym programie
31:12
finding out some quirky facts about  electricity - how it differs across  
406
1872720
4640
dowiemy się kilku dziwacznych faktów na temat elektryczności – czym różni się ona na całym
31:17
the world and why some countries have more  complicated electrical systems than others.
407
1877360
4920
świecie i dlaczego niektóre kraje mają bardziej skomplikowane systemy elektryczne niż inne.
31:22
Hmmm, I have noticed that when I  travel to another country I need a  
408
1882280
4280
Hmmm, zauważyłem, że podczas podróży do innego kraju potrzebuję
31:26
converter plug to connect my laptop.  Is that something to do with AC DC?
409
1886560
5440
przejściówki do podłączenia laptopa. Czy to ma coś wspólnego z AC DC?
31:32
Yes, it could be. Of course, electricity  itself doesn’t change from country to country.
410
1892000
5200
Tak, może być. Oczywiście sama energia elektryczna nie zmienia się w zależności od kraju.
31:37
No. It’s an invisible, natural force  at work in everything from lightning  
411
1897200
4080
Nie. To niewidzialna, naturalna siła działająca we wszystkim, od
31:41
storms to the electrical sparks firing our brains.
412
1901280
3680
burz z piorunami po iskry elektryczne rozpalające nasze mózgi.
31:44
But although it happens naturally, one scientist  was credited with discovering electricity.  
413
1904960
5680
Ale chociaż dzieje się to naturalnie, jednemu naukowcowi przypisuje się odkrycie elektryczności.
31:50
Who? That’s my quiz question – who  discovered electricity? Was it: 
414
1910640
4640
Kto? To moje pytanie do quizu – kto odkrył elektryczność? Czy to był:
31:55
a) Thomas Edison 
415
1915280
1840
a) Thomas Edison
31:57
b) Alexander Graham Bell, or c) Benjamin Franklin
416
1917120
4080
b) Alexander Graham Bell lub c) Benjamin Franklin
32:02
I’m not a qualified electrician myself,  Neil, but I’ll say c) Benjamin Franklin.
417
1922000
5600
Sam nie jestem wykwalifikowanym elektrykiem, Neil, ale powiem c) Benjamin Franklin.
32:07
OK. Well one person who definitely is a qualified  electrician is BBC presenter Gareth Mitchell. So  
418
1927600
7280
OK. Cóż, jedną osobą, która zdecydowanie jest wykwalifikowanym elektrykiem, jest prezenter BBC Gareth Mitchell.
32:14
when BBC Radio 4’s ‘Science Stories’ sent  him to meet electricity expert Keith Bell,  
419
1934880
5440
Kiedy więc „Science Stories” BBC Radio 4 wysłało go na spotkanie z ekspertem od energii elektrycznej, Keithem Bellem,
32:20
the conversation was, shall we say, sparky.
420
1940320
2960
rozmowa była, powiedzmy, błyskotliwa.
32:24
Standard frequency in the US is 60 hertz,  actually I think in the US on the mainland  
421
1944480
4320
Standardowa częstotliwość w USA to 60 herców, właściwie myślę, że w USA na kontynencie
32:28
US, main continent, there are  three different synchronous areas.  
422
1948800
2960
, na głównym kontynencie, istnieją trzy różne obszary synchroniczne.
32:32
So although it’s around 60 hertz, at any moment in  time these three different areas, because they’re  
423
1952400
4160
Więc chociaż jest to około 60 herców, w każdej chwili te trzy różne obszary, ponieważ
32:36
not connected to each other, will be going at a  slightly different frequency. There are bigger  
424
1956560
4320
nie są ze sobą połączone, będą działać z nieco inną częstotliwością.
32:40
differences elsewhere. So in Japan for example, I  think one of the main islands is at 60 hertz and  
425
1960880
6000
Gdzie indziej występują większe różnice. Na przykład w Japonii myślę, że jedna z głównych wysp ma częstotliwość 60 herców, a
32:46
the other half of Japan is at 50 hertz. That’s a bit of a pickle!
426
1966880
3040
druga połowa Japonii ma częstotliwość 50 herców. To trochę kisiel!
32:51
Generally speaking, frequency  means how often something repeats.  
427
1971360
4320
Ogólnie rzecz biorąc, częstotliwość oznacza, jak często coś się powtarza.
32:55
In the case of electrical currents, frequency is  
428
1975680
2880
W przypadku prądów elektrycznych częstotliwość to
32:58
the number of times an electrical wave  repeats a positive-to-negative cycle.
429
1978560
5040
liczba powtórzeń fali elektrycznej  w cyklu od dodatniego do ujemnego.
33:03
It’s measured in hertz (Hz). In the US power is  at 60 hertz and in the UK it’s around 50 hertz.
430
1983600
7520
Jest mierzony w hercach (Hz). W USA moc wynosi 60 herców, a w Wielkiej Brytanii około 50 herców.
33:11
So the US and UK are not in the same synchronous  
431
1991120
3520
Tak więc Stany Zjednoczone i Wielka Brytania nie znajdują się w tym samym
33:14
area – not occurring together at the same  time and rate, or in this case, frequency.
432
1994640
5680
obszarze synchronicznym – nie występują razem w tym samym czasie i z taką samą częstotliwością, jak w tym przypadku.
33:20
Which means that to safely use a  British electrical device in America,  
433
2000320
4320
Co oznacza, że ​​aby bezpiecznie korzystać z brytyjskiego urządzenia elektrycznego w Ameryce,
33:25
I need to convert the power supply. If not  it won’t work or even worse, it could break.
434
2005200
5760
muszę zmienić źródło zasilania. W przeciwnym razie nie będzie działać, a co gorsza, może się zepsuć.
33:30
And a broken laptop could leave you  in a bit of a pickle – an informal  
435
2010960
4080
A zepsuty laptop może wprawić Cię w zakłopotanie – nieformalne
33:35
expression meaning a difficult situation with no  
436
2015040
3040
wyrażenie oznacza trudną sytuację, na którą nie ma
33:38
obvious answer. Here’s Gareth and Keith  again talking about more differences.
437
2018080
4960
oczywistej odpowiedzi. Oto Gareth i Keith ponownie rozmawiają o kolejnych różnicach.
33:44
I’m pretty sure when I go to the United States,  my electric toothbrush doesn’t charge up  
438
2024560
6560
Jestem pewien, że kiedy jadę do Stanów Zjednoczonych, moja elektryczna szczoteczka do zębów nie ładuje się
33:51
at 60 hertz - 110 volts, but my laptop  still works. Maybe you have no comment,  
439
2031120
5360
przy 60 hercach – 110 woltach, ale mój laptop nadal działa. Może nie masz komentarza,
33:56
Keith, but I’m just saying…one of these  anomalies that I seem to have found.
440
2036480
4000
Keith, ale ja tylko mówię… jedną z tych anomalii, które wydaje mi się, że znalazłem.
34:00
So, I’m not sure about the electric toothbrush  but I know a lot of our power supplies for  
441
2040480
3920
Więc nie jestem pewien co do elektrycznej szczoteczki do zębów, ale wiem, że wiele naszych zasilaczy do
34:04
laptops and stuff are solid state, you know  - they’ve got electronics in that do all the  
442
2044400
5200
laptopów i innych rzeczy jest półprzewodnikowych, wiesz – mają elektronikę, która wykonuje całą
34:09
conversion for you, so basically it ends up with  a DC supply into the machine itself. So there’s  
443
2049600
5360
konwersję za ciebie, więc w zasadzie kończy z zasilaniem prądem stałym do samej maszyny. Więc jest
34:14
a little converter in there and it’s designed so  it doesn’t care what frequency the AC input is.
444
2054960
4880
tam mały konwerter i jest zaprojektowany tak, że nie ma znaczenia, jaka jest częstotliwość wejścia prądu zmiennego.
34:21
Gareth noticed that in the United  States his toothbrush doesn’t always  
445
2061280
3840
Gareth zauważył, że w Stanach Zjednoczonych jego szczoteczka do zębów nie zawsze jest w
34:25
fully charge up – get the  power needed to make it work.
446
2065120
4000
pełni naładowana – zdobądź moc potrzebną do jej działania.
34:29
Electric toothbrushes which don’t fully charge  and differences between electrical frequencies  
447
2069120
5600
Elektryczne szczoteczki do zębów, które nie ładują się w pełni, oraz różnice między częstotliwościami elektrycznymi,
34:34
are good examples of anomalies – things which  are different from what is usual or expected.
448
2074720
5920
to dobre przykłady anomalii – rzeczy, które różnią się od tego, co zwykle lub czego oczekujemy.
34:40
But with modern technology these  anomalies are becoming less and less  
449
2080640
4400
Ale dzięki nowoczesnej technologii te anomalie stają się coraz mniej
34:45
commonplace. For example, computer  companies have started making laptops with  
450
2085040
5120
powszechne. Na przykład firmy komputerowe zaczęły produkować laptopy z
34:50
solid state electronics – electronics using  semiconductors which have no moving parts  
451
2090160
6000
elektroniką półprzewodnikową – elektroniką wykorzystującą półprzewodniki, które nie mają ruchomych części
34:56
and can automatically convert  different electrical currents.
452
2096160
3520
i mogą automatycznie przetwarzać różne prądy elektryczne.
34:59
Meaning I can use my laptop to google  the answer to your quiz question!
453
2099680
4160
Oznacza to, że mogę użyć mojego laptopa, aby wyszukać w Google odpowiedź na Twoje pytanie w quizie!
35:03
Ah, yes. I asked you which scientist was credited  with discovering electricity. And you said?
454
2103840
5840
O tak. Zapytałem cię, któremu naukowcowi przypisuje się odkrycie elektryczności. I Ty powiedziałeś?
35:09
c) Benjamin Franklin – and I already know  I’m right because I googled it on my solid  
455
2109680
5200
c) Benjamin Franklin – i już wiem, że mam rację, bo googlowałem na moim
35:14
state laptop! To show that lightning was  electricity, Franklin attached a metal key  
456
2114880
5840
półprzewodnikowym laptopie! Aby pokazać, że błyskawica jest elektrycznością, Franklin przymocował metalowy klucz
35:20
to a kite and flew it during a thunderstorm. The  key conducted electricity and gave him a shock!
457
2120720
6240
do latawca i puszczał go podczas burzy. Klucz przewodził prąd i porażał go!
35:26
Hmm, not an experiment I recommend trying  at home! Today we’ve been talking about  
458
2126960
5760
Hmm, to nie jest eksperyment, który polecam wypróbować w domu! Dzisiaj rozmawialiśmy o
35:32
anomalies – or unexpected differences in  electrical currents between countries.
459
2132720
4560
anomaliach – lub nieoczekiwanych różnicach w prądach elektrycznych między krajami.
35:38
Electrical currents are measured in  frequencies – the number of times  
460
2138000
4000
Prądy elektryczne są mierzone w częstotliwościach – liczbie
35:42
a wave repeats a positive-to-negative cycle.  These can be different if two countries are  
461
2142000
5520
powtórzeń fali w cyklu od dodatniego do ujemnego. Mogą się one różnić, jeśli dwa kraje
35:47
not synchronous – occurring at the same rate,  for example Britain and the United States.
462
2147520
5760
nie są zsynchronizowane – występują w tym samym tempie , na przykład Wielka Brytania i Stany Zjednoczone.
35:53
Different frequencies may mean your  electrical devices like your laptop,  
463
2153920
4400
Różne częstotliwości mogą oznaczać, że Twoje urządzenia elektryczne, takie jak laptop,
35:58
phone and toothbrush won’t properly charge up –  get the power to function, in other countries.
464
2158320
5120
telefon i szczoteczka do zębów, nie będą prawidłowo ładowane – uzyskaj zasilanie do działania w innych krajach.
36:04
And having a phone with no power could leave you  in a bit of a pickle - a difficult situation.
465
2164160
5680
A telefon bez zasilania może sprawić, że znajdziesz się w trudnej sytuacji.
36:09
Fortunately many modern devices use  solid state electronics – non-moving  
466
2169840
5120
Na szczęście wiele nowoczesnych urządzeń wykorzystuje elektronikę półprzewodnikową – nieruchome
36:14
semiconductors inside the machine which  automatically convert the electrical current.
467
2174960
5200
półprzewodniki wewnątrz maszyny, które automatycznie przetwarzają prąd elektryczny.
36:20
So you’ll never miss another  edition of 6 Minute English again!
468
2180160
3840
Więc już nigdy nie przegapisz kolejnej edycji 6 Minute English!
36:24
That’s all for today. See you soon at BBC Learning  
469
2184000
2560
To wszystko na dzisiaj. Do zobaczenia wkrótce w BBC Learning
36:26
English for more interesting topics  and related vocabulary. Bye for now!
470
2186560
7960
English, gdzie znajdziesz więcej interesujących tematów i powiązanego słownictwa. Na razie! Do
36:34
Bye!
471
2194520
360
widzenia!
36:39
Hello I'm Rob and this is 6 Minute  English – a programme that brings you  
472
2199040
4480
Cześć, jestem Rob, a to jest 6-minutowy angielski — program, który przedstawia
36:43
an interesting topic, authentic listening practice  
473
2203520
3120
interesujący temat, autentyczną praktykę słuchania
36:46
and some vocabulary to help you improve your  language skills. Joining me today is Neil.
474
2206640
5280
i trochę słownictwa, które pomoże Ci poprawić umiejętności językowe. Dziś dołącza do mnie Neil.
36:51
Hello. And today we're discussing those pilotless  
475
2211920
2880
Cześć. A dzisiaj omawiamy te bezpilotowe
36:54
aircraft that we seem to be hearing  and reading a lot about at the moment.
476
2214800
3760
samoloty, o których wydaje się, że dużo słyszymy i czytamy w tej chwili.
36:58
You mean drones. And yes, they are in the  news quite often for good and bad reasons.  
477
2218560
4880
Masz na myśli drony. I tak, dość często pojawiają się w wiadomościach z dobrych i złych powodów.
37:04
They've been used for many things from smuggling  drugs, detecting water leaks and surveillance.
478
2224160
5600
Wykorzystywano je do wielu rzeczy, od przemytu narkotyków, wykrywania wycieków wody i inwigilacji.
37:09
And surveillance – that means ‘the  act of carefully watching someone or  
479
2229760
4320
A inwigilacja – to znaczy „ akt uważnego obserwowania kogoś lub
37:14
something’ – perhaps a criminal – but also  it means spying, maybe on me and you Rob?  
480
2234080
5760
czegoś” – być może przestępcy – ale także oznacza szpiegowanie, może mnie i ciebie, Rob?
37:19
So should we be welcoming the  rise of the use of drones?
481
2239840
3360
Czy zatem powinniśmy z zadowoleniem przyjąć wzrost wykorzystania dronów?
37:23
Well, before our discussion  about that 'takes off',  
482
2243200
2720
Cóż, zanim nasza dyskusja na temat tego „wystartuje”,
37:25
we need to set today's question  for you to answer, Neil.
483
2245920
2640
musimy zadać ci dzisiejsze pytanie, na które będziesz musiał odpowiedzieć, Neil.
37:29
What are you droning on about Rob? And by  that I don't mean ‘flying a drone’ – I mean  
484
2249120
4800
Co ty gadasz o Robie? I nie mam na myśli „latania dronem” – mam na myśli
37:33
‘talking too much in a very boring way’!
485
2253920
2800
„rozmawianie za dużo w bardzo nudny sposób”!
37:36
Thanks Neil. Now just answer this, will you?  
486
2256720
2560
Dzięki Neil. Teraz po prostu odpowiedz na to pytanie, dobrze?
37:39
Drones are sometimes also referred to as  UAVs. So, what does UAV stand for? Is it…
487
2259280
7600
Drony są czasami nazywane UAV. Więc co oznacza UAV? Czy to…
37:46
a) Unidentified aerial vehicle 
488
2266880
3360
a) Niezidentyfikowany statek powietrzny
37:50
b) Unmanned aerial vehicle c) Unaided aircraft vehicle
489
2270240
5840
b) Bezzałogowy statek powietrzny c) Niewspomagany statek powietrzny
37:56
Well, I'm going to go for  b) unmanned aerial vehicle.
490
2276080
3680
Cóż, wybiorę b ) ​​bezzałogowy statek powietrzny.
37:59
Ok well, we'll see if you're right later  on. Now let's talk more about drones,  
491
2279760
5120
Dobrze, później zobaczymy, czy masz rację . Porozmawiajmy teraz o dronach,
38:04
which, apparently, seem to be everywhere now.
492
2284880
2800
które najwyraźniej są teraz wszędzie.
38:08
But are they safe and are they  necessary? I've heard about them  
493
2288240
3840
Ale czy są bezpieczne i czy są potrzebne? Słyszałem, że
38:12
being a hazard to aircraft because  they've been flown close to airports.
494
2292080
3840
stanowią zagrożenie dla samolotów, ponieważ latały blisko lotnisk.
38:15
Well, figures in 2016 showed that in the UK  there were 70 near misses involving drones.  
495
2295920
6720
Cóż, dane z 2016 roku pokazały, że w Wielkiej Brytanii było 70 sytuacji potencjalnie wypadkowych z udziałem dronów. To ponad
38:22
And that's more than double the year  before. So that is a little worrying.
496
2302640
3920
dwukrotnie więcej niż rok wcześniej. Więc to jest trochę niepokojące.
38:27
Yes. And there's the potential  risk of people's privacy being  
497
2307120
3120
Tak. Istnieje potencjalne ryzyko naruszenia prywatności ludzi,
38:30
invaded when a drone is flown over their  property with a camera attached to it.
498
2310240
4160
gdy nad ich posesją przelatuje dron z przymocowaną kamerą.
38:34
Ah, but those cameras are also  good at capturing some great  
499
2314400
3440
Ach, ale te kamery są też dobre w robieniu świetnych
38:37
aerial footage – that's the film recording  of the view from the above the ground. So  
500
2317840
5040
zdjęć z lotu ptaka – to jest filmowa rejestracja widoku z góry. Więc
38:42
they're not all bad. And Dr Yoge Patel would  agree. She is CEO of Blue Bear, which supplies  
501
2322880
6560
nie wszystkie są złe. I doktor Yoge Patel by się z tym zgodził. Jest prezesem firmy Blue Bear, która dostarcza
38:49
unmanned planes and drones. Here she is speaking  about drones on the BBC's Woman's Hour programme…
502
2329440
6080
bezzałogowe samoloty i drony. Tutaj mówi o dronach w programie BBC Woman's Hour…
38:55
They have the potential to be dangerous,  agreed. They also have though, on the flip side,  
503
2335520
5120
Mogą być niebezpieczne, zgadza się. Z drugiej strony mają też
39:00
the ability to be a game changer in  both domestic use and in military use.  
504
2340640
6240
zdolność zmieniania zasad gry zarówno w zastosowaniach domowych, jak i wojskowych.
39:06
So, some of our drones are being used for aircraft  inspections. We've put our drones into Fukushima.
505
2346880
4560
Dlatego niektóre z naszych dronów są używane do inspekcji samolotów. Umieściliśmy nasze drony w Fukushimie.
39:12
So there you go Neil. There are  many useful things drones can do,  
506
2352080
4240
Więc proszę, Neil. Istnieje wiele przydatnych rzeczy, które drony mogą zrobić,
39:16
and Dr Patel said they have the  ability to be a game changer.
507
2356320
4000
a dr Patel powiedział, że mogą one zmienić reguły gry.
39:20
And by that you mean ‘something that completely  
508
2360320
2080
A przez to rozumiesz „coś, co całkowicie
39:22
changes the way something  is done or thought about’.
509
2362400
2800
zmienia sposób, w jaki coś się robi lub o czym myśli”.
39:25
Yes. Her company has used drones to  inspect the inside of the damaged  
510
2365200
4400
Tak. Jej firma wykorzystała drony do inspekcji wnętrza uszkodzonej
39:29
Fukushima nuclear power station in Japan.  And another example of drones being a game  
511
2369600
5280
elektrowni jądrowej Fukushima w Japonii. Innym przykładem dronów, które
39:34
changer is UNICEF and the Malawian government  testing drones for carrying medical supplies.  
512
2374880
5760
zmieniają zasady gry, jest testowanie przez UNICEF i rząd Malawi dronów do przenoszenia środków medycznych.
39:40
This could help save lives in remote places. And I have read that in Australia,  
513
2380640
4400
Może to pomóc w ratowaniu życia w odległych miejscach. Czytałem też, że w Australii
39:45
lifeguards are using drones to help rescue  swimmers who get in trouble in the sea.
514
2385040
4560
ratownicy używają dronów do ratowania pływaków, którzy mają kłopoty na morzu.
39:49
And have you heard about a Japanese firm that's  planning to use a drone to force employees  
515
2389600
5280
A czy słyszałeś o japońskiej firmie, która planuje użyć drona do zmuszenia pracowników do
39:54
out of their offices by playing music at  them if they stay to work evening overtime.
516
2394880
5120
opuszczenia biur przez puszczanie im muzyki, jeśli zostaną w godzinach nadliczbowych w godzinach wieczornych.
40:00
I haven't, but you've convinced me – it seems  like the sky's the limit for the uses of drones!  
517
2400000
5120
Ja nie, ale przekonałeś mnie – wygląda na to, że niebo jest granicą zastosowań dronów!
40:05
I mean there's no limit to what they can do. But I  
518
2405120
3040
Mam na myśli to, że nie ma ograniczeń co do tego, co mogą zrobić. Ale
40:08
am a little concerned about how  they are regulated or controlled.
519
2408160
3520
trochę mnie niepokoi sposób, w jaki są regulowane lub kontrolowane.
40:11
Well Dr Yoge Patel says  because the technology is new,  
520
2411680
3760
Cóż, dr Yoge Patel mówi, że ponieważ technologia jest nowa,
40:15
regulations – or legal controls  - are developing all the time…
521
2415440
4000
przepisy – lub kontrole prawne – cały czas się rozwijają…
40:20
As technology progresses, regulation  and operational use needs to then be  
522
2420400
4800
Wraz z postępem technologii należy zharmonizować przepisy i wykorzystanie operacyjne
40:25
harmonised with it. And we are, as a community,  going through that whole process of saying  
523
2425200
5040
. Jako społeczność przechodzimy przez cały proces określania, jakie
40:30
what is proportionate and appropriate  regulation to go with different uses of drones.
524
2430240
6480
są proporcjonalne i odpowiednie przepisy dotyczące różnych zastosowań dronów.
40:36
So she talked about regulations being  harmonised as technology progresses.
525
2436720
4480
Mówiła więc o harmonizacji przepisów wraz z postępem technologicznym.
40:41
So I think she means ‘making regulations  suitable and appropriate for what the drones  
526
2441200
4800
Myślę więc, że ma na myśli „uczynienie przepisów odpowiednich i odpowiednich do tego, do czego
40:46
are being used for’. So they need some control,  but not so they can't be useful and effective.
527
2446000
5600
wykorzystywane są drony”. Potrzebują więc pewnej kontroli, ale nie dlatego, że nie mogą być przydatne i skuteczne.
40:51
Like flying drones to stop you working late!  
528
2451600
2400
Jak latające drony, które powstrzymają cię od pracy do późna!
40:54
Now Rob, I'm dying to know what  the other name for a drone is.
529
2454560
2880
Rob, umieram z ciekawości, jak inaczej nazywa się drona.
40:57
OK, let me tell you. So earlier I  asked what does UAV stand for? Was it…
530
2457440
5360
OK, powiem ci. Więc wcześniej zapytałem, co oznacza UAV? Czy to było…
41:02
a) Unidentified aerial vehicle 
531
2462800
2720
a) Niezidentyfikowany statek powietrzny
41:05
b) Unmanned aerial vehicle c) Unaided aircraft vehicle
532
2465520
5040
b) Bezzałogowy statek powietrzny c) Niewspomagany statek powietrzny
41:11
And I said b) – was that correct?
533
2471120
2240
A ja powiedziałem b) – czy to prawda?
41:13
Yes Neil, you know your drones – that's correct.  Well done. UAVs or drones have been around for  
534
2473920
6320
Tak Neil, znasz swoje drony – to prawda. Dobrze zrobiony. UAV lub drony istnieją już od
41:20
quite a while in different forms.  It's thought they were first used  
535
2480240
3840
dłuższego czasu w różnych formach. Uważa się, że po raz pierwszy użyto ich
41:24
for providing practice targets for  training military personnel. OK Neil,  
536
2484080
4720
do zapewnienia celów treningowych do szkolenia personelu wojskowego. OK Neil,
41:28
let's quickly go over some of the vocabulary we  have mentioned today, starting with surveillance.
537
2488800
5040
przeanalizujmy szybko niektóre słownictwo, o którym dziś wspomnieliśmy, zaczynając od inwigilacji.
41:34
"The police kept the jewellery shop  under surveillance because they had  
538
2494480
3520
„Policja obserwowała sklep jubilerski, ponieważ miała
41:38
a tip-off about a robbery." So that means  ‘carefully watching someone or something,  
539
2498000
4640
zgłoszenie o napadzie”. Oznacza to więc „uważne obserwowanie kogoś lub czegoś,
41:42
usually to try to stop something illegal’.
540
2502640
2720
zwykle w celu powstrzymania czegoś nielegalnego”.
41:46
Then we mentioned aerial footage –  that's film recording made from the sky.  
541
2506160
4240
Następnie wspomnieliśmy o nagraniach lotniczych – to nagranie filmowe wykonane z nieba.
41:50
"The aerial footage on TV of the  dolphins swimming was spectacular."
542
2510960
4080
„Nagranie z lotu ptaka przedstawiające pływające delfiny w telewizji było spektakularne”.
41:55
Yes, drones have been a game changer  for wildlife programmes on TV.  
543
2515040
4480
Tak, drony zmieniły reguły gry w programach telewizyjnych o dzikiej przyrodzie.
41:59
That means ‘something that completely changes  the way something is done or thought about’.
544
2519520
4800
Oznacza to „coś, co całkowicie zmienia sposób, w jaki coś się robi lub o czym myśli”.
42:04
We also mentioned the phrase 'the sky's  the limit', meaning ‘there's no limit  
545
2524320
3920
Wspomnieliśmy też o wyrażeniu „the sky's the limit”, oznaczającym „coś nie ma granic
42:08
to something’. "The sky is the limit to what  professional footballers can earn these days."
546
2528240
4800
”. „Niebo jest granicą tego, co zawodowi piłkarze mogą obecnie zarobić”.
42:13
Then we discussed harmonised – that describes  two things being suitable for each other to  
547
2533040
4800
Następnie omówiliśmy zharmonizowany – który opisuje dwie rzeczy pasujące do siebie,
42:17
allow them to work properly. "The garden has been  designed to harmonise with the natural landscape."
548
2537840
5600
umożliwiające ich prawidłowe działanie. „Ogród został zaprojektowany tak, aby współgrał z naturalnym krajobrazem”.
42:24
Very useful vocabulary, Neil. But let's  stop droning on – and that means ‘talking  
549
2544560
4640
Bardzo przydatne słownictwo, Neil. Ale przestańmy już gadać – a to oznacza „
42:29
too much in a boring way’ - and remind  everyone to check out our You Tube,  
550
2549200
4160
za dużo mówić w nudny sposób” – i przypomnijmy wszystkim, żeby zajrzeli na nasze strony na You Tube, na
42:33
Facebook, Twitter and Instagram  pages – and of course, our website  
551
2553360
3840
Facebooku, Twitterze i Instagramie oraz oczywiście na naszą stronę internetową
42:37
at bbclearningenglish.com.  See you next time. Goodbye.
552
2557200
3600
bbclearningenglish.com. Do zobaczenia następnym razem. Do widzenia.
42:40
Goodbye
553
2560800
480
Do widzenia cześć
42:49
Hello. This is 6 Minute English, I'm Neil.
554
2569360
2560
. To jest 6-minutowy angielski, jestem Neil.
42:51
And I'm Sam.
555
2571920
800
A ja jestem Samem.
42:52
It’s good to see you again, Sam.
556
2572720
1760
Dobrze cię znów widzieć, Sam.
42:54
Really?
557
2574480
880
Naprawdę?
42:55
Yes, of course, can’t you  tell by the way I’m smiling?
558
2575360
2960
Tak, oczywiście, nie możesz poznać po tym, jak się uśmiecham?
42:58
Ah well, I find it difficult to tell if someone  is really smiling or if it’s a fake smile.
559
2578960
5760
Cóż, trudno mi stwierdzić, czy ktoś naprawdę się uśmiecha, czy też jest to sztuczny uśmiech.
43:04
Well, that’s a coincidence because today’s  programme is all about how computers may  
560
2584720
4560
Cóż, to zbieg okoliczności, ponieważ dzisiejszy program dotyczy tego, jak komputery mogą
43:09
be able tell real smiles from fake smiles better  than humans can. Before we get in to that though,  
561
2589280
6400
lepiej niż ludzie odróżniać prawdziwe uśmiechy od fałszywych . Zanim jednak do tego przejdziemy,
43:15
a question. The expressions we can make  with our face are controlled by muscles.  
562
2595680
5040
pytanie. Mimika, którą możemy wykonać za pomocą twarzy, jest kontrolowana przez mięśnie.
43:20
How many muscles do we have in our face? Is it:
563
2600720
2960
Ile mięśni mamy na twarzy? Czy to:
43:23
A: 26 
564
2603680
1680
A: 26
43:25
B: 43 C: 62
565
2605360
2800
B: 43 C: 62
43:28
What do you think, Sam?
566
2608160
880
Co o tym myślisz, Sam?
43:29
No idea! But a lot, I’d  guess, so I’m going with 62.
567
2609600
4880
Brak pomysłu! Ale myślę, że dużo , więc biorę 62.
43:34
OK. Well, we’ll see if you’ll be smiling or  crying later in the programme. Hassan Ugail is a  
568
2614480
5600
OK. Cóż, zobaczymy, czy będziesz się uśmiechać, czy płakać w dalszej części programu. Hassan Ugail jest
43:40
professor of visual computing at the University of  Bradford. He’s been working on getting computers  
569
2620080
5680
profesorem informatyki wizualnej na Uniwersytecie w Bradford. Pracował nad tym, by komputery
43:45
to be able to recognise human emotions from the  expressions on our face. Here he is speaking on  
570
2625760
6480
potrafiły rozpoznawać ludzkie emocje na podstawie wyrazu twarzy. Tutaj przemawia w
43:52
the BBC Inside Science radio programme –  how successful does he say they have been?
571
2632240
5600
programie radiowym BBC Inside Science –  jak mówi, jak bardzo odnieśli sukces?
43:57
We've been working quite a lot on  the human emotions, so the idea is  
572
2637840
3680
Dużo pracowaliśmy nad ludzkimi emocjami, więc pomysł polega na tym,
44:01
how the facial muscle movement,  which is reflected on the face,  
573
2641520
4720
jak ruchy mięśni twarzy, które odbijają się na twarzy,
44:06
through obviously a computer through video  frames and trying to understand how these  
574
2646240
4080
oczywiście za pośrednictwem komputera w klatkach wideo, i próbujemy zrozumieć, jak te
44:10
muscle movements actually relate to facial  expressions and then from facial expressions  
575
2650320
5120
ruchy mięśni faktycznie odnoszą się do mimiki a następnie z wyrazu twarzy
44:15
trying to understand the emotions or to infer the  emotions. And they have been quite successful in  
576
2655440
5200
próbując zrozumieć emocje lub wywnioskować emocje. I odnieśli w tym spory sukces
44:20
doing that. We have software that can actually  look at somebody's face in real time and then  
577
2660640
5680
. Dysponujemy oprogramowaniem, które może rzeczywiście patrzeć na czyjąś twarz w czasie rzeczywistym, a następnie
44:26
identify the series of emotions that  person is expressing in real time as well.
578
2666880
4960
identyfikować serie emocji wyrażanych przez tę osobę w czasie rzeczywistym.
44:32
So, have they been successful in  getting computers to identify emotions?
579
2672480
4800
Czy udało im się skłonić komputery do identyfikowania emocji?
44:37
Yes, he says they’ve been quite successful,  and what’s interesting is that he says that  
580
2677280
4880
Tak, mówi, że odniosły spory sukces, a co ciekawe, mówi, że
44:42
the computers can do it in real time. This means  that there’s no delay. They don’t have to stop and  
581
2682160
7520
komputery mogą to robić w czasie rzeczywistym. Oznacza to, że nie ma opóźnienia. Nie muszą się zatrzymywać i
44:49
analyse the data, or crunch the numbers,  they can do it as the person is talking.
582
2689680
5520
analizować danych ani analizować liczb, mogą to robić, gdy dana osoba mówi.
44:55
The system uses video to analyse a person’s  expressions and can then infer the emotions.  
583
2695200
6080
System wykorzystuje wideo do analizy wyrazu twarzy osoby, a następnie może wywnioskować emocje.
45:01
To infer something means to get an understanding  of something without actually being told directly.  
584
2701280
5680
Wnioskowanie o czymś oznacza zrozumienie czegoś bez bezpośredniego mówienia.
45:06
So, you look at available information and use your  
585
2706960
2560
Patrzysz więc na dostępne informacje i wykorzystujesz
45:09
understanding and knowledge  to work out the meaning.
586
2709520
2400
zrozumienie i wiedzę, aby ustalić znaczenie.
45:12
It’s a bit like being a detective,  isn’t it? You look at the clues  
587
2712480
3680
To trochę jak bycie detektywem, prawda ? Patrzysz na wskazówki
45:16
and infer what happened even if  you don’t have all the details.
588
2716160
3920
i wnioskujesz, co się stało, nawet jeśli nie znasz wszystkich szczegółów.
45:20
Yes, and in this case the computer looks  at how the movement of muscles in the face  
589
2720080
4320
Tak, iw tym przypadku komputer patrzy, jak ruch mięśni twarzy
45:24
or facial muscles, show different  emotions. Here’s Professor Ugail again.
590
2724400
4560
lub mięśni twarzy pokazuje różne emocje. Oto znowu profesor Ugail.
45:29
We've been working quite a lot on the human  emotions so the idea is how the facial muscle  
591
2729520
5520
Dużo pracowaliśmy nad ludzkimi emocjami, więc pomysł polega na tym, jak ruch mięśni twarzy,
45:35
movement, which is reflected on the face,  through obviously a computer through video  
592
2735040
4800
który odbija się na twarzy, oczywiście przez komputer w
45:39
frames and trying to understand how these muscle  movements actually relate to facial expressions  
593
2739840
5680
klatkach wideo, i próbujemy zrozumieć, jak te ruchy mięśni faktycznie odnoszą się do mimiki twarzy
45:45
and then from facial expressions trying to  understand the emotions or to infer the emotions.  
594
2745520
4720
następnie z wyrazu twarzy próbując zrozumieć emocje lub wywnioskować emocje.
45:50
And they have been quite successful in doing  that. We have software that can actually  
595
2750800
4480
I odnieśli w tym spory sukces . Mamy oprogramowanie, które może rzeczywiście
45:55
look at somebody's face in real time and then  identify the series of emotions that person is  
596
2755280
6320
patrzeć na czyjąś twarz w czasie rzeczywistym, a następnie identyfikować serie emocji wyrażanych przez tę osobę
46:01
expressing in real time as well. So, how do the computers know  
597
2761600
4560
w czasie rzeczywistym. Skąd więc komputery wiedzą,
46:06
what is a real or a fake smile? The  computers have to learn that first.  
598
2766160
4560
co to jest prawdziwy, a co fałszywy uśmiech? Komputery muszą się tego najpierw nauczyć.
46:11
Here’s Professor Ugail again  talking about how they do that.
599
2771680
3840
Oto profesor Ugail ponownie mówiący o tym, jak to robią.
46:15
We have a data set of real smiles and  we have a data set of fake smiles.  
600
2775520
4240
Mamy zestaw danych prawdziwych uśmiechów i mamy zestaw danych fałszywych uśmiechów.
46:19
These real smiles are induced smiles in a lab.  So, you put somebody on a chair and then show  
601
2779760
5120
Te prawdziwe uśmiechy to uśmiechy indukowane w laboratorium. Więc sadzasz kogoś na krześle, a potem pokazujesz
46:24
some funny movies and we expect  the smiles are genuine smiles.  
602
2784880
4320
jakieś zabawne filmy i oczekujemy, że uśmiechy będą szczere.
46:29
And similarly we ask them to pretend to smile.  So, these are what you'd call fake smiles. So,  
603
2789200
5040
I podobnie prosimy ich, aby udawali uśmiech. Więc to są tak zwane fałszywe uśmiechy. Tak więc
46:34
what we do is we throw these into the machine  and then the machine figures out what are the  
604
2794240
5360
wrzucamy je do maszyny, a następnie maszyna ustala, jakie są
46:39
characteristics of a real smile and what  are the characteristics of a fake smile.
605
2799600
4240
cechy prawdziwego uśmiechu, a jakie cechy fałszywego.
46:44
So, how do they get the data that  the computers use to see if your  
606
2804560
3920
Jak więc uzyskują dane, których komputery używają do sprawdzenia, czy Twój
46:48
smile is fake or genuine – which  is another word which means real?
607
2808480
3680
uśmiech jest sztuczny, czy prawdziwy – co jest innym słowem oznaczającym prawdziwy?
46:52
They induce real smiles in the lab by showing  people funny films. This means that they make  
608
2812800
6320
Wywołują prawdziwe uśmiechy w laboratorium, pokazując ludziom zabawne filmy. Oznacza to, że sprawiają, że
46:59
the smiles come naturally. They assume that the  smiles while watching the funny films are genuine.
609
2819120
6320
uśmiechy pojawiają się naturalnie. Zakładają, że uśmiechy podczas oglądania zabawnych filmów są szczere.
47:05
And then they ask the people to pretend to  smile and the computer programme now has a  
610
2825440
4240
Następnie proszą ludzi, aby udawali uśmiech, a program komputerowy ma teraz
47:09
database of real and fake smiles and  is able to figure out which is which. 
611
2829680
4240
bazę danych prawdziwych i fałszywych uśmiechów i jest w stanie określić, który jest który.
47:14
Figure out means to calculate  and come to an answer
612
2834640
3360
Obliczenie oznacza obliczenie i znalezienie odpowiedzi
47:18
Yes, and apparently the system  gets it right 90% of the time,  
613
2838000
3520
Tak, i najwyraźniej system robi to dobrze w 90% przypadków,
47:21
which is much higher than we humans can. Right,  well before we remind ourselves of our vocabulary,  
614
2841520
6000
czyli znacznie częściej niż my, ludzie. Dobrze, na długo zanim przypomnimy sobie nasze słownictwo,
47:27
let’s get the answer to the question. How  many muscles do we have in our face? Is it:
615
2847520
5040
znajdźmy odpowiedź na pytanie. Ile mięśni mamy na twarzy? Czy to:
47:32
A: 26 
616
2852560
1200
A: 26
47:33
B: 43 C: 62
617
2853760
2960
B: 43 C: 62
47:36
Sam, are you going to be  smiling? What did you say?
618
2856720
2000
Sam, czy będziesz się uśmiechać? Co powiedziałeś?
47:39
So I thought 62! Am I smiling, Neil?
619
2859440
2640
Tak myślałem 62! Czy ja się uśmiecham, Neil?
47:42
Sadly you are not, you are using different  muscles for that sort of sad look!  
620
2862080
5520
Niestety tak nie jest, używasz różnych mięśni, aby uzyskać taki smutny wygląd!
47:48
Actually the answer is 43. Congratulations to  anyone who got that right. Now our vocabulary.
621
2868800
5840
Właściwie odpowiedź to 43. Gratulacje dla każdego, kto dobrze to zrobił. Teraz nasze słownictwo.
47:54
Yes – facial is the adjective relating to face.
622
2874640
3760
Tak – twarzowy to przymiotnik odnoszący się do twarzy.
47:58
Then we had infer. This verb  means to understand something  
623
2878400
4160
Potem mieliśmy wnioskować. Ten czasownik oznacza zrozumienie czegoś,
48:02
even when you don’t have all the information,  and you come to this understanding based  
624
2882560
4160
nawet jeśli nie masz wszystkich informacji, a rozumiesz to na podstawie
48:06
on your experience and knowledge, or in  the case of a computer, the programming.
625
2886720
4240
swojego doświadczenia i wiedzy lub, w przypadku komputera, programowania.
48:11
And these computers work in real time,  which means that there’s no delay  
626
2891600
4320
A te komputery działają w czasie rzeczywistym, co oznacza, że ​​nie ma opóźnień
48:16
and they can tell a fake smile from a genuine one,  which means a real one, as the person is speaking.
627
2896480
5520
i potrafią odróżnić sztuczny uśmiech od prawdziwego, co oznacza prawdziwy, gdy osoba mówi.
48:22
They made people smile, or as the Professor  said, they induced smiles by showing funny films.
628
2902560
5760
Wywoływali uśmiech, albo jak powiedział Profesor, wywoływali uśmiech, pokazując śmieszne filmy.
48:28
And the computer is able to figure out or  calculate whether the smile is fake or genuine.
629
2908320
6240
A komputer jest w stanie dowiedzieć się lub obliczyć, czy uśmiech jest sztuczny, czy prawdziwy.
48:34
OK, thank you, Sam. That’s all  from 6 Minute English today.  
630
2914560
3040
OK, dziękuję, Samie. To wszystko z dzisiejszego 6-minutowego angielskiego.
48:37
We look forward to your company next  time and if you can’t wait you can find  
631
2917600
3280
Czekamy na Twoją firmę następnym razem, a jeśli nie możesz się doczekać, możesz znaleźć o
48:40
lots more from bbclearningenglish online,  on social media and on our app. Goodbye!
632
2920880
4720
wiele więcej w bbclearningenglish online, w mediach społecznościowych i w naszej aplikacji. Do widzenia! Do
48:48
Bye!
633
2928080
480
widzenia!
48:53
Welcome to 6 Minute English, where we  bring you an intelligent topic and six  
634
2933680
3680
Witamy w 6 Minute English, gdzie przedstawiamy inteligentny temat i sześć
48:57
related items of vocabulary. I’m Neil.
635
2937360
2640
powiązanych elementów słownictwa. Jestem Neilem.
49:00
And I’m Tim. And today we’re talking  about AI – or Artificial Intelligence.
636
2940000
6320
A ja jestem Tymek. A dzisiaj mówimy o sztucznej inteligencji – czyli sztucznej inteligencji.
49:06
Artificial Intelligence is the ability  of machines to copy human intelligent  
637
2946320
5040
Sztuczna inteligencja to zdolność maszyn do kopiowania ludzkich inteligentnych
49:11
behaviour – for example, an intelligent  machine can learn from its own mistakes,  
638
2951360
4560
zachowań — na przykład inteligentna maszyna może uczyć się na własnych błędach
49:15
and make decisions based on  what’s happened in the past.
639
2955920
3280
i podejmować decyzje na podstawie tego, co wydarzyło się w przeszłości.
49:19
There’s a lot of talk about AI these days, Neil,  but it’s still just science fiction, isn’t it?
640
2959200
5520
Dużo się ostatnio mówi o sztucznej inteligencji, Neil, ale to wciąż tylko science fiction, prawda?
49:24
That’s not true – AI is everywhere.  Machine thinking is in our homes,  
641
2964720
4720
To nieprawda – AI jest wszędzie. Myślenie maszynowe jest obecne w naszych domach,
49:29
offices, schools and hospitals. Computer  algorithms are helping us drive our cars.  
642
2969440
5760
biurach, szkołach i szpitalach. Algorytmy komputerowe pomagają nam prowadzić nasze samochody.
49:35
They’re diagnosing what’s  wrong with us in hospitals.  
643
2975200
3200
W szpitalach diagnozują, co nam dolega.
49:38
They’re marking student essays… They’re  telling us what to read on our smartphones…
644
2978400
4320
Oceniają wypracowania uczniów… Mówią nam, co mamy czytać na naszych smartfonach…
49:42
Well, that really does sound like science fiction  – but it’s happening already, you say, Neil?
645
2982720
5280
Cóż, to naprawdę brzmi jak science fiction – ale to już się dzieje, mówisz, Neil?
49:48
It’s definitely happening, Tim. And an algorithm,  by the way, is a set of steps a computer follows  
646
2988000
6000
To na pewno się dzieje, Tim. Nawiasem mówiąc, algorytm to zestaw kroków, które wykonuje komputer,
49:54
in order to solve a problem. So can you tell  me what was the name of the computer which  
647
2994000
5680
aby rozwiązać problem. Czy możesz mi więc powiedzieć, jak nazywał się komputer, który w 1997 roku
49:59
famously beat world chess champion Garry  Kasparov using algorithms in 1997? Was it… 
648
2999680
6400
słynnie pokonał mistrza świata w szachach Garry’ego Kasparowa za pomocą algorytmów? Czy to było…
50:06
a) Hal, 
649
3006080
640
a) Hal,
50:07
b) Alpha 60 or c) Deep Blue?
650
3007360
3680
b) Alpha 60 czy c) Deep Blue?
50:11
I’ll say Deep Blue. Although I’m just guessing.
651
3011040
4000
Powiem Deep Blue. Chociaż tylko się domyślam. Czy
50:15
Was it an educated guess, Tim?
652
3015040
1920
to było rozsądne przypuszczenie, Tim?
50:16
I know a bit about chess…
653
3016960
1520
Znam się trochę na szachach…
50:18
An educated guess is based on knowledge and  experience and is therefore likely to be correct.  
654
3018480
5600
Przemyślane przypuszczenie opiera się na wiedzy i doświadczeniu, dlatego prawdopodobnie będzie poprawne.
50:24
Well, we’ll find out later on how  educated your guess was in this case, Tim!
655
3024080
4080
Cóż, później dowiemy się, jak trafne było Twoje przypuszczenie w tym przypadku, Tim!
50:28
Indeed. But getting back to AI and  what machines can do – are they  
656
3028160
5360
Rzeczywiście. Ale wracając do sztucznej inteligencji i możliwości maszyn — czy są one
50:33
any good at solving real-life problems?  Computers think in zeros and ones don’t  
657
3033520
5520
dobre w rozwiązywaniu rzeczywistych problemów? Komputery myślą zerami i jedynkami, prawda
50:39
they? That sounds like a pretty limited  language when it comes to life experience!
658
3039040
4000
? To brzmi jak dość ograniczony język, jeśli chodzi o doświadczenie życiowe!
50:43
You would be surprised to what  those zeroes and ones can do, Tim.  
659
3043600
3680
Zdziwiłbyś się, co potrafią te zera i jedynki, Tim.
50:47
Although you’re right that AI does  have its limitations at the moment.  
660
3047280
3840
Chociaż masz rację, że sztuczna inteligencja ma obecnie swoje ograniczenia.
50:51
And if something has limitations there’s a  limit on what it can do or how good it can be.
661
3051120
4960
A jeśli coś ma ograniczenia, istnieją ograniczenia co do tego, co może zrobić lub jak dobre może być.
50:56
OK – well now might be a good time to listen  to Zoubin Bharhramani, Professor of Information  
662
3056080
6080
OK – to może być dobry moment, by posłuchać Zoubina Bharhramaniego, profesora
51:02
Engineering at the University of Cambridge  and deputy director of the Leverhulme Centre  
663
3062160
5760
inżynierii informacji na Uniwersytecie w Cambridge i zastępcy dyrektora Leverhulme Centre
51:07
for the Future of Intelligence. He’s talking  about what limitations AI has at the moment.
664
3067920
5840
for the Future of Intelligence. Mówi o tym, jakie ograniczenia ma obecnie sztuczna inteligencja.
51:15
I think it’s very interesting how many of the  things that we take for granted – we humans take  
665
3075680
5840
Myślę, że to bardzo interesujące, jak wiele rzeczy, które bierzemy za pewnik – my, ludzie, bierzemy
51:21
for granted – as being sort of things we don’t  even think about like how do we walk, how do we  
666
3081520
4720
za pewnik – jako rzeczy, o których nawet nie myślimy, jak np. jak chodzimy, jak
51:26
reach, how do we recognize our mother. You know,  all these things. When you start to think how  
667
3086240
6800
sięgamy, jak rozpoznajemy nasze matka. Wiesz, wszystkie te rzeczy. Kiedy zaczynasz zastanawiać się, jak
51:33
to implement them on a computer, you realize that  it’s those things that are incredibly difficult to  
668
3093040
7280
je zaimplementować na komputerze, zdajesz sobie sprawę, że są to rzeczy, które są niezwykle trudne do
51:41
get computers to do, and that’s where  the current cutting edge of research is.
669
3101440
5360
wykonania na komputerach, i właśnie tam znajdują się najnowsze badania.
51:48
If we take something for granted we  don’t realise how important something is.
670
3108720
3840
Jeśli bierzemy coś za pewnik, nie zdajemy sobie sprawy, jak ważne jest coś.
51:52
You sometimes take me for granted, I think, Neil.
671
3112560
2560
Myślę, że czasami bierzesz mnie za pewnik, Neil.
51:55
No – I never take you for granted,  Tim! You’re far too important for that!
672
3115840
3520
Nie – nigdy nie biorę cię za pewnik, Tim! Jesteś na to zbyt ważny!
52:00
Good to hear! So things we take for granted  are doing every day tasks like walking,  
673
3120080
6720
Miło słyszeć! Rzeczy, które uważamy za oczywiste, to codzienne czynności, takie jak chodzenie,
52:06
picking something up, or recognizing somebody.  We implement – or perform – these things without  
674
3126800
6800
podnoszenie czegoś lub rozpoznawanie kogoś. Wdrażamy – lub wykonujemy – te rzeczy bez
52:13
thinking – Whereas it’s cutting edge research  to try and program a machine to do them.
675
3133600
5600
zastanowienia – podczas gdy najnowocześniejszymi badaniami są próby zaprogramowania maszyny do ich wykonania.
52:19
Cutting edge means very new and  advanced. It’s interesting isn't it,  
676
3139200
3840
Najnowocześniejsze oznacza bardzo nowe i zaawansowane. To ciekawe, prawda,
52:23
that over ten years ago a computer  beat a chess grand master – but the  
677
3143040
4000
że ​​ponad dziesięć lat temu komputer pokonał wielkiego mistrza szachowego – ale ten
52:27
same computer would find it incredibly  difficult to pick up a chess piece.
678
3147040
4240
sam komputer miałby ogromne trudności z podniesieniem figury szachowej.
52:31
I know. It’s very strange. But now you’ve reminded  me that we need the answer to today’s question.
679
3151280
5520
Ja wiem. To bardzo dziwne. Ale teraz przypomniałeś mi, że potrzebujemy odpowiedzi na dzisiejsze pytanie.
52:37
Which was: What was the name of the  computer which famously beat world chess  
680
3157360
4560
Które brzmiało: Jak nazywał się komputer, który słynnie pokonał mistrza świata w szachach
52:41
champion Garry Kasparov in 1997? Now, you said  Deep Blue, Tim, and … that was the right answer!
681
3161920
6960
Garriego Kasparowa w 1997 roku? Teraz powiedziałeś Deep Blue, Tim, i… to była właściwa odpowiedź!
52:48
You see, my educated guess was  based on knowledge and experience!
682
3168880
4480
Widzisz, moje rozsądne przypuszczenie opierało się na wiedzy i doświadczeniu!
52:53
Or maybe you were just lucky. So, the IBM  
683
3173360
4320
A może po prostu miałeś szczęście. Tak więc
52:57
supercomputer Deep Blue played against US  world chess champion Garry Kasparov in two  
684
3177680
5040
superkomputer IBM Deep Blue grał przeciwko amerykańskiemu mistrzowi świata Garriemu Kasparowowi w dwóch
53:02
chess matches. The first match was played in  Philadelphia in 1996 and was won by Kasparov.  
685
3182720
5920
meczach szachowych. Pierwszy mecz rozegrano w Filadelfii w 1996 roku i wygrał Kasparow.
53:08
The second was played in New York City in 1997  and won by Deep Blue. The 1997 match was the  
686
3188640
6720
Drugi rozegrano w Nowym Jorku w 1997 roku i wygrał Deep Blue. Mecz z 1997 roku był
53:15
first defeat of a reigning world chess champion  by a computer under tournament conditions.
687
3195360
4960
pierwszą porażką aktualnego mistrza świata w szachach przez komputer w warunkach turniejowych.
53:20
Let’s go through the words we  learned today. First up was  
688
3200960
3840
Przyjrzyjmy się słowom, których się dzisiaj nauczyliśmy. Najpierw pojawiła się
53:24
‘artificial intelligence’ or AI – the ability  of machines to copy human intelligent behaviour.
689
3204800
6880
„sztuczna inteligencja” lub sztuczna inteligencja – zdolność maszyn do kopiowania ludzkich inteligentnych zachowań.
53:31
“There are AI programs that can write poetry.”
690
3211680
3040
„Istnieją programy AI, które potrafią pisać wiersze”.
53:34
Do you have any examples you can recite?
691
3214720
2640
Czy masz jakieś przykłady, które możesz wyrecytować?
53:37
Afraid I don’t! Number two – an algorithm is  a set of steps a computer follows in order to  
692
3217360
5440
Obawiam się, że nie! Po drugie – algorytm to zestaw kroków, które wykonuje komputer, aby
53:42
solve a problem. For example, “Google changes its  search algorithm hundreds of times every year.”
693
3222800
6080
rozwiązać problem. Na przykład „Google zmienia algorytm wyszukiwania setki razy w ciągu roku”.
53:48
The adjective is algorithmic – for example,  “Google has made many algorithmic changes.”
694
3228880
6480
Przymiotnik jest algorytmiczny – na przykład „Google wprowadziło wiele zmian algorytmicznych”.
53:55
Number three – if something has ‘limitations’  – there’s a limit on what it can do or how good  
695
3235360
5200
Po trzecie – jeśli coś ma „ograniczenia” – istnieją ograniczenia co do tego, co może zrobić lub jak dobre
54:00
it can be. “Our show has certain limitations  – for example, it’s only six minutes long!”
696
3240560
5920
może być. „Nasz program ma pewne ograniczenia – na przykład trwa tylko sześć minut!”
54:06
That’s right – there’s only time to present  six vocabulary items. Short but sweet!
697
3246480
5280
Zgadza się – jest tylko czas na przedstawienie sześciu elementów słownictwa. Krótkie, ale słodkie!
54:11
And very intelligent, too.  OK, the next item is ‘take  
698
3251760
3840
A do tego bardzo inteligentny. OK, następna pozycja to „przyjąć
54:15
something for granted’ – which is when we  don’t realise how important something is.
699
3255600
4160
coś za pewnik” – czyli wtedy, gdy nie zdajemy sobie sprawy, jak ważne jest coś.
54:19
“We take our smart phones for granted these  days – but before 1995 hardly anyone owned one.”
700
3259760
6880
„Obecnie smartfony traktujemy jak coś oczywistego, ale przed 1995 rokiem prawie nikt ich nie posiadał”.
54:26
Number five – ‘to implement’ – means  to perform a task, or take action.
701
3266640
4560
Numer pięć – „wdrożyć” – oznacza wykonać zadanie lub podjąć działanie.
54:31
“Neil implemented some changes to the show.”
702
3271200
2640
„Neil wprowadził pewne zmiany w serialu”.
54:33
The final item is ‘cutting edge’ – new and  advanced – “This software is cutting edge.”
703
3273840
5360
Ostatnia pozycja to „najnowocześniejsze” – nowe i zaawansowane – „To oprogramowanie jest najnowocześniejsze”.
54:39
“The software uses cutting edge technology.”
704
3279200
2640
„Oprogramowanie wykorzystuje najnowocześniejszą technologię”.
54:42
OK – that’s all we have time  for on today’s cutting edge  
705
3282480
3200
OK – to wszystko, na co mamy czas w dzisiejszym nowatorskim
54:45
show. But please check out our Instagram,  Twitter, Facebook and YouTube pages.
706
3285680
4960
programie. Ale sprawdź nasze strony na Instagramie, Twitterze, Facebooku i YouTube.
54:50
Bye-bye!
707
3290640
560
PA pa!
54:51
Goodbye!
708
3291200
640
Do widzenia!
54:58
Hello and welcome to 6 Minute English. I'm Neil.
709
3298880
2800
Witamy w 6-minutowym angielskim. Jestem Neilem.
55:01
And I'm Catherine. Hello!
710
3301680
1440
A ja jestem Katarzyna. Cześć! A
55:03
Now, Catherine, say cheese.
711
3303120
2160
teraz, Catherine, powiedz ser.
55:05
Cheeeese. Thank you, a little souvenir of our time together.
712
3305280
5200
sernik Dziękuję, mała pamiątka naszego wspólnego czasu.
55:10
Let's have a look… Hang on a minute. You just  took a selfie, I wasn't even in the picture.
713
3310480
5280
Rzućmy okiem… Poczekaj chwilę. Właśnie zrobiłeś sobie selfie, a mnie nawet nie było na zdjęciu.
55:15
Ah, well, that's the magic of the smartphone,  two cameras! You know, that's not something  
714
3315760
5520
Ach, cóż, na tym polega magia smartfona, dwa aparaty! Wiesz, tego nie
55:21
you can do with a traditional camera. I mean,  do you even have a separate camera these days?
715
3321280
5280
da się zrobić tradycyjnym aparatem. Mam na myśli, czy w dzisiejszych czasach masz w ogóle osobny aparat?
55:26
I do actually. It's in a  cupboard somewhere at home. 
716
3326560
3120
faktycznie. Leży w szafce gdzieś w domu.
55:29
Well, that is the topic of this programme. Have  traditional cameras been completely replaced by  
717
3329680
5920
Cóż, to jest temat tego programu. Czy tradycyjne aparaty zostały całkowicie zastąpione przez
55:35
smartphones, or to put it another way, have  cameras been made obsolete by the smartphone?
718
3335600
5600
smartfony, czy mówiąc inaczej, czy aparaty zostały wyparte przez smartfon?
55:41
Interesting question. But before we get into this  topic, how about a question for our listeners?
719
3341200
6240
Interesujące pytanie. Ale zanim przejdziemy do tego tematu, co powiesz na pytanie do naszych słuchaczy?
55:47
Of course. We are certainly in the  digital age of photography but when  
720
3347440
4320
Oczywiście. Z pewnością jesteśmy w epoce fotografii cyfrowej, ale kiedy
55:51
was the first digital camera  phone released? Was it: 
721
3351760
3520
pojawił się pierwszy telefon z aparatem cyfrowym? Czy był to:
55:55
a) 2000 b) 2004 or 
722
3355280
2880
a) 2000 b) 2004 czy
55:58
c) 2007? What do you think?
723
3358160
2400
c) 2007? Co myślisz?
56:01
Well, I actually know this one, so I'm  going to be fair and keep it to myself.
724
3361120
4720
Cóż, właściwie to znam, więc będę uczciwy i zachowam to dla siebie.
56:06
OK, well, listen out for the  answer at the end of the programme.  
725
3366480
3120
OK, posłuchaj odpowiedzi na końcu programu. Obecnie dostępne
56:10
There are different kinds of cameras  available today. There are compact cameras,  
726
3370240
4160
są różne rodzaje aparatów . Istnieją aparaty kompaktowe,
56:14
which are small and mostly automatic  and usually come with a fixed lens.
727
3374400
4720
które są małe i przeważnie automatyczne, i zwykle są wyposażone w obiektyw stałoogniskowy.
56:19
That's right. And then there are  SLRs and DSLRs which are bigger,  
728
3379120
5280
Zgadza się. Są też lustrzanki jednoobiektywowe i lustrzanki cyfrowe, które są większe
56:24
and you can change the lenses on these cameras  and they allow for a lot of manual control.
729
3384400
5440
i można w tych aparatach zmieniać obiektywy, co pozwala na dużą kontrolę ręczną.
56:30
And there are also mirrorless cameras, which are a  cross between compact cameras and DSLRs. They are  
730
3390640
6480
Są też aparaty bezlusterkowe, które są skrzyżowaniem aparatów kompaktowych i lustrzanek cyfrowych. Są
56:37
small like a compact camera but you can also use  the same lenses on them that you can use on DSLRs.
731
3397120
6320
małe jak aparat kompaktowy, ale można na nich używać tych samych obiektywów, których można używać w lustrzankach cyfrowych.
56:43
And of course, there are  the cameras on smartphones,  
732
3403440
3040
I oczywiście są aparaty w smartfonach,
56:46
and these are convenient and they're  becoming increasingly sophisticated.
733
3406480
4880
które są wygodne i stają się coraz bardziej wyrafinowane.
56:51
Phil Hall is the editor of Tech Radar  magazine. He was asked on the BBC programme  
734
3411360
5360
Phil Hall jest redaktorem magazynu Tech Radar . W programie BBC
56:56
You and Yours if he thought smartphones would  make other cameras obsolete. What is his opinion?
735
3416720
6480
You and Yours zapytano go, czy sądzi, że smartfony sprawią, że inne aparaty staną się przestarzałe. Jaka jest jego opinia?
57:05
I don't think so. I think while compact camera  sales have really sort of dropped off a cliff,  
736
3425280
6000
nie sądzę. Myślę, że chociaż sprzedaż aparatów kompaktowych naprawdę spadła z urwiska,
57:11
it's the lower end, cheap compacts where  people have opted for a smartphone and I think  
737
3431280
6640
są to niższe segmenty, tanie kompakty, w których ludzie wybierają smartfony i myślę, że
57:17
manufacturers are looking at the more higher end  premium cameras, high-end compacts, DSLRs, which  
738
3437920
6480
producenci patrzą na bardziej zaawansowane aparaty premium, wysokiej klasy kompakty, lustrzanki cyfrowe,
57:24
are the ones you can attach lenses to, mirrorless  cameras. So, the market's changing. And I don't  
739
3444400
4640
do których można przymocować obiektywy, aparaty bezlusterkowe. Rynek się więc zmienia. I
57:29
think there'll be a time soon, yet, that… the  smartphone will take over the camera completely.
740
3449040
6560
myślę, że jeszcze nieprędko nadejdzie czas, kiedy… smartfon całkowicie przejmie kontrolę nad aparatem.
57:37
So does Phil think smartphones  will kill the camera?
741
3457280
3520
Czy więc Phil uważa, że ​​smartfony zabiją aparat?
57:40
In a word, no. He does say that sales of cheap  compact cameras have dropped off a cliff.  
742
3460800
6560
Jednym słowem nie. Mówi, że sprzedaż tanich aparatów kompaktowych spadła z urwiska.
57:48
This rather dramatic expression  describes a very big fall in sales.
743
3468080
5040
To dość dramatyczne wyrażenie opisuje bardzo duży spadek sprzedaży. Dzieje się tak,
57:53
This is because the kind of consumers  
744
3473120
2080
ponieważ konsumenci,
57:55
who would choose a compact camera are now  opting for the camera on their smartphone.  
745
3475200
4720
którzy wybraliby aparat kompaktowy, wybierają teraz aparat w smartfonie.
57:59
When you opt for something you  choose it rather than something else.
746
3479920
3520
Decydując się na coś, wybierasz to, a nie coś innego.
58:04
For people who want a quick, easy  to use and convenient way to take  
747
3484160
4400
Dla osób, które chcą szybkiego, łatwego w użyciu i wygodnego sposobu na robienie
58:08
reasonable quality photos, compact cameras used  to be the best choice – but now it's a smartphone.
748
3488560
7520
zdjęć w rozsądnej jakości, aparaty kompaktowe były kiedyś najlepszym wyborem – ale teraz jest to smartfon.
58:16
So camera makers are now moving to the more  high-end market, the DSLRs and mirrorless cameras.  
749
3496080
6240
Dlatego producenci aparatów przenoszą się teraz na rynek z wyższej półki, czyli lustrzanki cyfrowe i aparaty bezlusterkowe.
58:22
So who is still buying these more  expensive cameras? Here's Phil Hall again.
750
3502960
4560
Kto więc nadal kupuje te droższe aparaty? Oto znowu Phil Hall.
58:28
I think it's... some of it is people who  are picking up a smartphone and sort of  
751
3508640
4640
Myślę, że to... niektórzy ludzie biorą do ręki smartfona
58:33
getting into photography that way and that's  a really great first step into photography  
752
3513280
5760
i w ten sposób zaczynają zajmować się fotografią.
58:39
and I think people are probably, sometimes,  getting a bit frustrated with the quality  
753
3519040
3040
58:43
once they sort of start pushing their creative  skills and then looking to see what's the next  
754
3523280
5520
kiedy zaczną rozwijać swoje umiejętności twórcze, a potem będą chcieli zobaczyć, co będzie dalej,
58:48
rung up so it's people wanting to  broaden their creative skills a bit.
755
3528800
4080
więc ludzie chcą nieco poszerzyć swoje umiejętności twórcze.
58:54
Who does he say might be buying cameras?
756
3534000
2640
Kto według niego może kupować aparaty fotograficzne?
58:56
He says that people who are getting into  
757
3536640
2080
Mówi, że ludzie, którzy zajmują się
58:58
photography might get frustrated  with the quality of smartphones.
758
3538720
4160
fotografią, mogą być sfrustrowani jakością smartfonów.
59:02
Getting into something means  becoming very interested in it.
759
3542880
3520
Zaangażowanie się w coś oznacza bardzo się tym zainteresować.
59:06
And if you are frustrated with something it  
760
3546400
2400
A jeśli jesteś czymś sfrustrowany,
59:08
means you are disappointed with  it. You are not happy with it.
761
3548800
3120
oznacza to, że jesteś tym rozczarowany. Nie jesteś z tego zadowolony.
59:11
So people who have got into  photography with a smartphone  
762
3551920
3040
Tak więc ludzie, którzy zaczęli fotografować smartfonem,
59:14
but are frustrated with its limitations  and want to be more creative are going  
763
3554960
4720
ale są sfrustrowani jego ograniczeniami i chcą być bardziej kreatywni, przechodzą
59:19
to the next level. They are moving up, they  are, as Phil said 'taking the next rung up'.
764
3559680
6000
na wyższy poziom. Idą w górę, są, jak powiedział Phil, „wchodząc na kolejny szczebel”.
59:25
Now, a rung is the horizontal step of a ladder,  
765
3565680
4000
Teraz szczebel jest poziomym stopniem drabiny,
59:29
so the expression taking the next rung up is a  way to describe doing something at a higher level.
766
3569680
6960
więc wyrażenie wznoszące się o następny szczebel jest sposobem na opisanie robienia czegoś na wyższym poziomie.
59:37
Now, talking of higher levels, did you get this  week's quiz question right? The question was:  
767
3577440
5680
Mówiąc o wyższych poziomach, czy dobrze odpowiedziałeś na pytanie z quizu w tym tygodniu? Pytanie brzmiało:
59:43
When was the first phone with a digital  camera released? Was it 2000, 2004 or 2007?  
768
3583120
7440
Kiedy pojawił się pierwszy telefon z aparatem cyfrowym? Czy to był rok 2000, 2004 czy 2007?
59:51
The first phone with a digital  camera was released in 2000.  
769
3591680
3200
Pierwszy telefon z aparatem cyfrowym pojawił się w 2000 roku. A
59:55
Now, to take us up to the end of the  programme, let's look at the vocabulary again.
770
3595440
4400
teraz, aby przejść do końca programu, przyjrzyjmy się ponownie słownictwu. Po
60:00
First, we had the adjective obsolete  which describes something that has  
771
3600720
3920
pierwsze, mieliśmy przymiotnik obsolete, który opisuje coś, co
60:04
been replaced and is no longer the first choice.
772
3604640
2880
zostało zastąpione i nie jest już pierwszym wyborem.
60:08
When the expression to drop off a  cliff is used about, for example,  
773
3608080
3760
Kiedy wyrażenie spadać z urwiska jest używane na przykład w odniesieniu do
60:11
sales numbers, it means sales have fallen  significantly over a short period of time.
774
3611840
5120
wyników sprzedaży, oznacza to, że sprzedaż znacznie spadła w krótkim okresie czasu.
60:16
To opt for something means to choose something  
775
3616960
3120
Zdecydować się na coś oznacza wybrać coś ,
60:20
and when you become very interested in an  activity you can say that you get into it.
776
3620640
6720
a kiedy zainteresujesz się jakąś czynnością, możesz powiedzieć, że się w nią angażujesz.
60:27
If you are trying to do something and you  can't do it because you don't have the skill  
777
3627360
3920
Jeśli próbujesz coś zrobić i nie możesz tego zrobić, ponieważ nie masz odpowiednich umiejętności
60:31
or the equipment you are using is not right  or not good enough, you can become frustrated.
778
3631280
5280
lub sprzęt, którego używasz, nie jest odpowiedni lub niewystarczająco dobry, możesz popaść w frustrację.
60:36
And developing your skills to a higher level  can be described as taking the next rung up.
779
3636560
6960
A rozwijanie swoich umiejętności na wyższy poziom można opisać jako wchodzenie na kolejny szczebel.
60:43
Right, that's all from us from us in this  programme. Do join us again next time and  
780
3643520
3440
Tak, to wszystko od nas w tym programie. Dołącz do nas następnym razem i
60:46
don't forget that in the meantime you can  find us on Instagram, Facebook, Twitter,  
781
3646960
4160
nie zapomnij, że w międzyczasie możesz nas znaleźć na Instagramie, Facebooku, Twitterze,
60:51
YouTube and of course our website  bbclearningenglish.com. See you soon. Goodbye.
782
3651120
5440
YouTube i oczywiście na naszej stronie internetowej bbclearningenglish.com. Do zobaczenia wkrótce. Do widzenia. Do
60:59
Bye!
783
3659120
5040
widzenia!
O tej stronie

Na tej stronie poznasz filmy z YouTube, które są przydatne do nauki języka angielskiego. Zobaczysz lekcje angielskiego prowadzone przez najlepszych nauczycieli z całego świata. Kliknij dwukrotnie na angielskie napisy wyświetlane na stronie każdego filmu, aby odtworzyć film od tego miejsca. Napisy przewijają się synchronicznie z odtwarzaniem filmu. Jeśli masz jakieś uwagi lub prośby, skontaktuj się z nami za pomocą formularza kontaktowego.

https://forms.gle/WvT1wiN1qDtmnspy7