Talking to machines - 6 Minute English

72,165 views ・ 2018-06-07

BBC Learning English


Proszę kliknąć dwukrotnie na poniższe angielskie napisy, aby odtworzyć film. Przetłumaczone napisy są tłumaczone maszynowo.

00:07
Rob: Hello and welcome to 6 Minute
0
7880
2340
Rob: Witamy w 6-minutowym
00:10
English. I'm Rob.
1
10220
1040
angielskim. Jestem Rob.
00:11
Dan: And I'm Dan.
2
11260
1460
Dan: A ja jestem Dan.
00:12
Rob: Hey Dan. What’s the time?
3
12720
2020
Rob: Cześć Dan. Która godzina?
00:14
Dan: Time you got a new watch?
4
14740
2500
Dan: Czas na nowy zegarek?
00:17
Rob: Now I didn’t ask you that just for a
5
17240
2153
Rob: Teraz nie zapytałem cię o to tylko dla
00:19
joke or a sarcastic comment now did I?
6
19393
2067
żartu lub sarkastycznego komentarza, prawda?
00:21
Dan: Well no, but look there’s a clock over
7
21460
2380
Dan: Cóż, nie, ale spójrz, tam jest zegar,
00:23
there, and you are wearing a watch, you
8
23840
1940
a ty nosisz zegarek,
00:25
have a smartphone and a computer,
9
25780
2400
masz smartfon i komputer, z których
00:28
all of which show the time.
10
28180
1660
wszystkie pokazują czas.
00:29
So why are you asking me?
11
29840
1970
Więc dlaczego pytasz mnie?
00:31
Rob: Dan! I was trying to introduce today’s
12
31810
2530
Rob: Dan! Chciałem wprowadzić dzisiejszy
00:34
topic which is all about virtual assistants
13
34340
3100
temat, który dotyczy wirtualnych asystentów
00:37
or bots.
14
37440
1020
lub botów.
00:38
You seemed to have forgotten the script.
15
38460
2040
Wyglądało na to, że zapomniałeś scenariusza.
00:40
Dan: Oh yes, sorry. We’re talking about
16
40500
2820
Dan: O tak, przepraszam. Mówimy o
00:43
software that you talk to and that can talk
17
43320
2680
oprogramowaniu, z którym rozmawiasz i które może
00:46
back to you. Like Apple’s Siri, Google’s
18
46000
2840
z tobą rozmawiać. Jak Siri firmy Apple,
00:48
Assistant, Amazon’s Alexa and
19
48840
2500
Asystent Google, Alexa firmy Amazon i
00:51
Microsoft’s Cortana.
20
51340
2000
Cortana firmy Microsoft.
00:53
It might be on your phone or computer or
21
53340
2680
Może to być telefon lub komputer, a
00:56
even a speaker in your house.
22
56020
2420
nawet głośnik w domu.
00:58
Rob: Now before we hear more about this
23
58440
2374
Rob: Zanim dowiemy się więcej na ten
01:00
topic, here is today’s quiz question:
24
60814
2445
temat, oto dzisiejsze pytanie quizowe: Czy
01:03
Do you know when was the first computer
25
63260
3080
wiesz, kiedy został uruchomiony pierwszy komputer,
01:06
which could recognise speech, launched?
26
66340
2560
który potrafił rozpoznawać mowę? Czy
01:08
Was it in a) 1951 b) 1961, or c) 1971.
27
68900
6240
to było w a) 1951 b) 1961, czy c) 1971.
01:15
Dan: I have found my script, so I’ve seen
28
75140
3080
Dan: Znalazłem swój scenariusz, więc widziałem
01:18
the answer but I have to say I was
29
78220
2720
odpowiedź, ale muszę powiedzieć, że byłem
01:20
surprised.
30
80940
940
zaskoczony.
01:21
Rob: Don't tell anybody Dan, OK. We’ll give
31
81940
1460
Rob: Nie mów nikomu Dan, OK.
01:23
the answer for the listeners at the end of
32
83400
2380
Odpowiedź podamy słuchaczom na koniec
01:25
the programme. We’re going to hear now
33
85780
2600
audycji. Usłyszymy teraz
01:28
from Tom Hewitson, who is a
34
88380
2120
Toma Hewitsona, który jest
01:30
conversation designer, working in the field
35
90500
2400
projektantem konwersacji, pracującym w dziedzinie
01:32
of virtual assistants, talking on BBC Radio
36
92900
3660
wirtualnych asystentów, mówiącym w
01:36
4's Word of Mouth programme.
37
96560
2000
programie Word of Mouth BBC Radio 4.
01:38
He talks about the whole idea of virtual
38
98560
2780
Opowiada o całej idei wirtualnych
01:41
assistants and how they are changing the
39
101340
2460
asystentów i o tym, jak zmieniają
01:43
way we interact with technology.
40
103800
2396
sposób, w jaki wchodzimy w interakcje z technologią.
01:46
How does he describe our existing
41
106200
1980
Jak opisuje nasze obecne
01:48
relationship with computers?
42
108180
2480
relacje z komputerami?
01:50
Tom Hewitson: It changes the way that
43
110660
2160
Tom Hewitson: Zmienia sposób, w jaki
01:52
we think about computers.
44
112832
1987
myślimy o komputerach.
01:54
To date we’ve thought of them largely as
45
114819
2036
Do tej pory myśleliśmy o nich głównie jako o
01:56
tools. They’re just an advanced version
46
116855
1985
narzędziach. To po prostu zaawansowana wersja
01:58
of a calculator. They’re something you
47
118840
2541
kalkulatora. Są czymś, czego
02:01
kind of use to get a specific thing done,
48
121381
2560
używasz do wykonania określonej rzeczy,
02:03
whereas this is kind of changing them
49
123941
2268
podczas gdy to zmienia ich
02:06
more into like an agent. They’re an active
50
126209
1851
bardziej w agentów. Są aktywnym
02:08
participant in the kind of interaction and in
51
128060
3280
uczestnikiem tego rodzaju interakcji i
02:11
guiding you to make the right decision.
52
131340
2660
pomagają ci podjąć właściwą decyzję.
02:14
Rob: How did he describe our existing
53
134000
1956
Rob: Jak wtedy opisał nasze obecne
02:15
relationship with computers then?
54
135956
1634
relacje z komputerami?
02:17
Dan: He said that to date, which is an
55
137590
1836
Dan: Powiedział, że do tej pory, co jest
02:19
expression which means 'up until this
56
139426
1767
wyrażeniem oznaczającym „do tego
02:21
point in time', we have thought of them
57
141193
1892
momentu”, myśleliśmy o nich
02:23
as advanced calculators.
58
143085
1555
jak o zaawansowanych kalkulatorach.
02:24
Rob: Yes, that’s right, we use them as a
59
144640
2220
Rob: Tak, zgadza się, używamy ich jako
02:26
tool to get things done. But he says that
60
146860
2840
narzędzia do załatwiania spraw. Ale mówi, że
02:29
modern technology is turning them into
61
149700
2280
nowoczesna technologia zmienia ich w
02:31
an agent.
62
151980
1350
agentów.
02:33
This doesn’t mean a secret agent, like
63
153330
1530
To nie oznacza tajnego agenta, takiego jak
02:34
James Bond! In this sense an agent is
64
154860
3120
James Bond! W tym sensie agent jest
02:37
something that has agency and that
65
157980
2380
czymś, co ma sprawczość, co
02:40
means it has the ability to act individually
66
160360
2500
oznacza, że ​​ma zdolność do indywidualnego działania
02:42
and make its own decisions.
67
162860
2060
i podejmowania własnych decyzji.
02:44
Dan: I’m not sure I’d like my phone to have
68
164920
1820
Dan: Nie jestem pewien, czy chciałbym, aby mój telefon miał
02:46
agency. It probably wouldn’t like being
69
166750
2399
agencję. Pewnie nie chciałoby mi się siedzieć
02:49
in my pocket all day.
70
169149
1291
cały dzień w kieszeni.
02:50
Rob: Who would Dan? But I’m not sure
71
170440
2160
Rob: Kto by Dan? Ale nie jestem pewien, czy
02:52
Hewitson is suggesting our devices would
72
172600
2360
Hewitson sugeruje, że nasze urządzenia
02:54
become that clever but he did say they
73
174960
2620
staną się tak sprytne, ale powiedział, że
02:57
could become more active in our lives.
74
177580
2700
mogą stać się bardziej aktywne w naszym życiu.
03:00
Dan: Maybe. I imagine, for example,
75
180290
3041
Dan: Może. Wyobrażam sobie, na przykład,
03:03
telling us if we are spending too much
76
183340
2080
mówienie nam, czy spędzamy zbyt dużo
03:05
time in fast food restaurants?
77
185420
1780
czasu w restauracjach typu fast food?
03:07
Rob: Maybe in your case Dan. Mine would
78
187209
2150
Rob: Może w twoim przypadku Dan. Mój
03:09
be telling me I spend too much time in the gym!
79
189359
2992
powiedziałby mi, że spędzam za dużo czasu na siłowni!
03:12
Hewitson goes on to explain how
80
192351
2621
Hewitson wyjaśnia dalej, jak rozwinie się
03:14
the way we will talk to our virtual
81
194972
2034
sposób, w jaki będziemy rozmawiać z naszymi wirtualnymi
03:17
assistants will develop.
82
197006
1418
asystentami.
03:18
What does he say we don’t need to do?
83
198424
2916
Co on mówi, że nie musimy robić?
03:21
Tom Hewitson: We will develop our own
84
201340
1500
Tom Hewitson: Opracujemy nasz własny
03:22
kind of vernacular for speaking with
85
202840
2060
rodzaj języka ojczystego do mówienia z
03:24
machines that will be subtly
86
204900
1200
maszynami, który będzie nieznacznie
03:26
different from how we speak to other
87
206100
1860
różnił się od tego, jak rozmawiamy z innymi
03:27
people because as you rightly point out
88
207960
2220
ludźmi, ponieważ jak słusznie zauważyłeś,
03:30
you don’t need to make the machine like
89
210180
1580
nie musisz tworzyć maszyny tak, jak
03:31
you don’t need to kind of make random
90
211760
2900
nie musisz być miły lub prowadzić przypadkowe
03:34
chit-chat that’s just filling the time. It can
91
214660
2593
pogawędki, które po prostu wypełniają czas. Może
03:37
be much more brusque and to the point.
92
217253
2177
być znacznie bardziej szorstki i na temat.
03:39
Dan: A lot of what we say in human
93
219430
2177
Dan: Wiele z tego, co mówimy w
03:41
communication is to do with our
94
221607
1653
komunikacji międzyludzkiej, ma związek z naszą
03:43
relationship with the person we’re talking to.
95
223260
2330
relacją z osobą, z którą rozmawiamy.
03:45
Rob: We say things and talk about things
96
225590
2370
Rob: Mówimy rzeczy i rozmawiamy o rzeczach,
03:47
that are maybe not directly relevant to our
97
227960
1800
które być może nie są bezpośrednio związane z naszym
03:49
point. With a digital virtual assistant, we
98
229760
3680
punktem widzenia. Dzięki cyfrowemu wirtualnemu asystentowi
03:53
don’t need to do that, so we don’t need to
99
233440
2340
nie musimy tego robić, więc nie musimy
03:55
make the machine like us.
100
235780
1599
sprawiać, by maszyna nas lubiła.
03:57
Dan: Hewitson said that we will develop
101
237380
2140
Dan: Hewitson powiedział, że rozwiniemy
03:59
our own vernacular, this is a general word
102
239520
2480
nasz własny język ojczysty, to jest ogólne określenie
04:02
for a native language. This vernacular will
103
242000
2900
języka ojczystego. Ten język będzie się
04:04
be a little bit different from our everyday
104
244900
2700
nieco różnił od naszego codziennego
04:07
vernacular because, as we said, we don’t
105
247600
2500
języka, ponieważ, jak powiedzieliśmy, nie
04:10
need to maintain a social relationship
106
250100
2080
musimy utrzymywać relacji towarzyskich
04:12
with the artificial assistant.
107
252180
1840
ze sztucznym asystentem.
04:14
Rob: This means that we won’t need
108
254020
1360
Rob: To oznacza, że ​​nie będziemy potrzebować
04:15
chit-chat. Chit-chat is another expression
109
255380
2640
pogawędek. Chit-chat to inne określenie
04:18
for small talk: conversation topics which
110
258020
2680
na small talk: tematy rozmów, które
04:20
aren’t important but are part of everyday
111
260700
2718
nie są ważne, ale są częścią codziennej
04:23
social communication, like talking about
112
263418
2355
komunikacji społecznej, jak rozmowa o
04:25
the weather.
113
265773
707
pogodzie.
04:26
Dan: And because we don’t need to be
114
266480
1520
Dan: A ponieważ nie musimy
04:28
friends with our virtual assistants, we can
115
268000
2180
przyjaźnić się z naszymi wirtualnymi asystentami, możemy
04:30
be brusque and to the point. Both of these
116
270180
2720
być szorstcy i rzeczowi. Oba
04:32
mean being very direct and not very
117
272900
2260
oznaczają bycie bardzo bezpośrednim i niezbyt
04:35
polite.
118
275160
1050
uprzejmym.
04:36
Rob: Well Dan, I don’t mean to be brusque but
119
276210
2010
Rob: Cóż, Dan, nie chcę być szorstki, ale
04:38
it is time for the answer to this week’s
120
278220
2236
nadszedł czas na odpowiedź na
04:40
quiz question. Earlier I asked when was
121
280460
2460
pytanie z quizu w tym tygodniu. Wcześniej zapytałem, kiedy został uruchomiony
04:42
the first computer which could recognise
122
282920
1580
pierwszy komputer, który potrafił rozpoznawać
04:44
speech, launched. The options were:
123
284500
2560
mowę. Opcje były następujące:
04:47
a) 1951, b) 1961, or c) 1971.
124
287060
5260
a) 1951, b) 1961 lub c) 1971.
04:52
Well actually the first computer which
125
292320
2060
Właściwie pierwszy komputer, który
04:54
could recognise speech was launched in 1961.
126
294380
3700
potrafił rozpoznawać mowę, został uruchomiony w 1961 roku.
04:58
Dan: Yep! It was called the IBM Shoebox and
127
298080
3020
Dan: Tak! Nazywał się IBM Shoebox i
05:01
could recognise 16 words and the
128
301100
2580
rozpoznawał 16 słów oraz
05:03
numbers zero to nine. That’s nearly as
129
303680
2878
cyfry od zera do dziewięciu. To prawie tyle samo,
05:06
many as you!
130
306558
1282
co Ty!
05:07
Rob: Cheeky! Right enough of this
131
307840
2431
Rob: Bezczelny! Dosyć tej
05:10
chat-chat. Let’s recap today’s vocabulary.
132
310271
2648
pogawędki. Podsumujmy dzisiejsze słownictwo.
05:12
Dan: Well chit-chat was one of today’s
133
312919
2288
Dan: Cóż, pogawędka była jednym z dzisiejszych
05:15
expressions. Meaning 'small talk', but we
134
315207
2273
wyrażeń. Co oznacza „mała rozmowa”, ale
05:17
also had the expression to date. That
135
317480
2779
do tej pory mieliśmy również to wyrażenie. To
05:20
means ‘up until this moment in time’.
136
320259
2291
znaczy „aż do tego momentu”.
05:22
Rob: Then we had the noun agent. This
137
322550
2490
Rob: Potem mieliśmy agenta rzeczownika.
05:25
refers to something that has agency. And
138
325040
2420
Odnosi się to do czegoś, co ma agencję. A
05:27
that is the ability to think, make decisions
139
327520
3080
to umiejętność samodzielnego myślenia, podejmowania decyzji
05:30
and act independently.
140
330600
1640
i działania.
05:32
Dan: The next word is vernacular, another
141
332340
1420
Dan: Następne słowo to język ojczysty, inne
05:33
word for language, particularly when
142
333760
2740
słowo oznaczające język, zwłaszcza gdy
05:36
talking about a native language.
143
336500
1690
mówimy o języku ojczystym.
05:38
Rob: And finally there was brusque
144
338190
2365
Rob: I wreszcie był szorstki, co
05:40
meaning 'direct and not polite' and to the
145
340560
2680
oznacza „bezpośredni i niegrzeczny” i na
05:43
point, which also means 'direct and without
146
343240
2880
temat, co oznacza również „bezpośredni i bez
05:46
unnecessary information'.
147
346120
1280
zbędnych informacji”.
05:47
Dan: Hey Rob
148
347400
1040
Dan: Hej Rob
05:48
Rob: Yes, what can I do for you Dan?
149
348440
2270
Rob: Tak, co mogę dla ciebie zrobić, Dan?
05:50
Dan: End the programme.
150
350710
1590
Dan: Zakończ program.
05:52
Rob: Certainly Dan. Well that’s all from us
151
352300
2500
Rob: Na pewno Dan. Cóż, to wszystko od nas na
05:54
today, be sure to check us out on all the
152
354800
2320
dzisiaj, pamiętaj, aby sprawdzić nas we wszystkich
05:57
usual places: Facebook, Twitter, Instagram
153
357120
2632
zwykłych miejscach: Facebook, Twitter, Instagram
05:59
and YouTube, and of course please don't
154
359760
2180
i YouTube, i oczywiście nie
06:01
forget our website
155
361940
1100
zapomnij o naszej stronie internetowej
06:03
bbclearningenglish.co m. Bye for now!
156
363040
2380
bbclearningenglish.com m. Na razie!
06:05
Dan: Bye!
157
365420
840
Dan: Cześć!
O tej stronie

Na tej stronie poznasz filmy z YouTube, które są przydatne do nauki języka angielskiego. Zobaczysz lekcje angielskiego prowadzone przez najlepszych nauczycieli z całego świata. Kliknij dwukrotnie na angielskie napisy wyświetlane na stronie każdego filmu, aby odtworzyć film od tego miejsca. Napisy przewijają się synchronicznie z odtwarzaniem filmu. Jeśli masz jakieś uwagi lub prośby, skontaktuj się z nami za pomocą formularza kontaktowego.

https://forms.gle/WvT1wiN1qDtmnspy7