Are computers always right? 6 Minute English

255,147 views ・ 2018-07-19

BBC Learning English


Proszę kliknąć dwukrotnie na poniższe angielskie napisy, aby odtworzyć film. Przetłumaczone napisy są tłumaczone maszynowo.

00:06
Catherine: Hello and welcome to 6 Minute
0
6480
2280
Catherine: Witamy w 6-minutowym
00:08
English. I'm Catherine.
1
8760
1420
angielskim. Jestem Katarzyna.
00:10
Rob: And hello, I'm Rob.
2
10180
1400
Rob: Cześć, jestem Rob.
00:11
Catherine: Today we have another
3
11580
1389
Catherine: Dzisiaj mamy kolejny
00:12
technology topic.
4
12969
761
temat dotyczący technologii.
00:13
Rob: Oh good! I love technology. It makes
5
13730
2470
Rob: O dobrze! Kocham technologię. To
00:16
things easier, it's fast and means I can
6
16240
2160
ułatwia pracę, jest szybkie i oznacza, że ​​mogę
00:18
have gadgets.
7
18400
1400
mieć gadżety.
00:19
Catherine: Do you think that technology
8
19800
1760
Catherine: Czy myślisz, że technologia
00:21
can actually do things better than humans?
9
21560
2200
może faktycznie robić rzeczy lepiej niż ludzie?
00:23
Rob: For some things, yes. I think cars
10
23760
2640
Rob: Do niektórych rzeczy tak. Myślę, że samochody,
00:26
that drive themselves will be safer than
11
26400
1600
które same się prowadzą, będą bezpieczniejsze niż
00:28
humans but that will take away some of
12
28000
3180
ludzie, ale to odbierze część
00:31
the pleasure of driving. So I guess it
13
31180
2180
przyjemności z jazdy. Więc myślę, że to
00:33
depends on what you mean by better.
14
33360
1940
zależy od tego, co rozumiesz przez lepsze.
00:35
Catherine: Good point, Rob. And that
15
35300
1680
Catherine: Słuszna uwaga, Rob. I to
00:36
actually ties in very closely with today's
16
36980
2420
właściwie wiąże się bardzo ściśle z dzisiejszym
00:39
topic which is technochauvinism.
17
39400
3200
tematem, którym jest technoszowinizm.
00:42
Rob: What's that?
18
42600
1480
Rob: Co to jest?
00:44
Catherine: We'll find out shortly, Rob, but
19
44080
1520
Catherine: Niedługo się dowiemy, Rob, ale
00:45
before we do, today's quiz question.
20
45600
3200
zanim to zrobimy, dzisiejsze pytanie quizowe.
00:48
Artificial Intelligence, or A.I., is an area of
21
48800
3260
Sztuczna inteligencja, czyli sztuczna inteligencja, to dziedzina
00:52
computer science that develops the
22
52060
2040
informatyki, która rozwija
00:54
ability of computers to learn to do things
23
54100
2540
zdolność komputerów do uczenia się robienia rzeczy,
00:56
like solve problems or drive cars without
24
56640
2495
takich jak rozwiązywanie problemów lub prowadzenie samochodu bez
00:59
crashing. But in what decade was the
25
59140
2800
awarii. Ale w której dekadzie ukuto
01:01
term 'Artificial Intelligence'
26
61940
2640
termin „sztuczna inteligencja”
01:04
coined? Was it: a) the 1940s, b) the 1950s
27
64589
4901
? Czy były to: a) lata 40., b) lata 50.
01:09
or c) the 1960s?
28
69490
2070
czy c) lata 60.?
01:11
Rob: I think it's quite a new expression so
29
71560
3000
Rob: Myślę, że to całkiem nowe określenie, więc
01:14
I'll go for c) the 1960s.
30
74560
2380
wybiorę c) lata 60.
01:16
Catherine: Good luck with that, Rob, and
31
76940
1420
Catherine: Powodzenia, Rob, a my
01:18
we'll give you the answer later in the
32
78360
1300
udzielimy ci odpowiedzi w dalszej części
01:19
programme. Now, let's get back to our
33
79660
2940
programu. Wróćmy teraz do naszego
01:22
topic of technochauvinism.
34
82600
2040
tematu technoszowinizmu.
01:24
Rob: I know what a chauvinist is. It's
35
84640
1920
Rob: Wiem, co to jest szowinizm. To
01:26
someone who thinks that their country or
36
86580
2380
ktoś, kto uważa, że ​​jego kraj,
01:28
race or sex is better than others. But how
37
88960
3140
rasa lub płeć są lepsze od innych. Ale jak
01:32
does this relate to technology?
38
92100
1340
to się ma do technologii?
01:33
Catherine: We're about to find out.
39
93440
1891
Catherine: Zaraz się dowiemy.
01:35
Meredith Broussard is Professor of
40
95340
1984
Meredith Broussard jest profesorem
01:37
Journalism at New York University and
41
97324
2236
dziennikarstwa na Uniwersytecie Nowojorskim i
01:39
she's written a book called
42
99560
1660
napisała książkę zatytułowaną
01:41
Artificial Unintelligence. She appeared on
43
101220
3420
Sztuczna nieinteligencja. Wystąpiła w
01:44
the BBC Radio 4 programme More or Less
44
104640
2580
programie BBC Radio 4 mniej więcej,
01:47
to talk about it. Listen carefully and find
45
107220
2620
aby o tym porozmawiać. Posłuchaj uważnie i
01:49
out her definition of technochauvinism.
46
109840
3320
poznaj jej definicję technoszowinizmu.
01:53
Meredith Broussard: Technochauvinism is
47
113160
1811
Meredith Broussard: Technoszowinizm to
01:54
the idea that technology is always the
48
114980
2540
idea, że ​​technologia jest zawsze
01:57
highest and best solution. So somehow
49
117520
3120
najwyższym i najlepszym rozwiązaniem. Więc jakoś w ciągu
02:00
over the past couple of decades we got
50
120640
2260
ostatnich kilku dekad przyzwyczailiśmy się
02:02
into the habit of
51
122900
1360
02:04
thinking that doing something with a
52
124270
3410
myśleć, że zrobienie czegoś na
02:07
computer is always the best and most
53
127680
3480
komputerze jest zawsze najlepszym i najbardziej
02:11
objective way to do something and
54
131180
2060
obiektywnym sposobem na zrobienie czegoś, a
02:13
that's simply not true.
55
133240
1540
to po prostu nieprawda.
02:14
Computers are not objective, they are
56
134780
3000
Komputery nie są obiektywne, są
02:17
proxies for the people who make them.
57
137780
2300
pełnomocnikami ludzi, którzy je tworzą.
02:20
Catherine: What is Meredith Broussard's
58
140080
2200
Catherine: Jaka jest
02:22
definition of technochauvinism?
59
142300
2280
definicja technoszowinizmu według Meredith Broussard?
02:24
Rob: It's this idea that using technology
60
144580
2250
Rob: Chodzi o to, że korzystanie z technologii
02:26
is better than not using technology.
61
146830
2450
jest lepsze niż jej nieużywanie.
02:29
Catherine: She says that we have this idea
62
149280
2360
Catherine: Mówi, że mamy taki pomysł,
02:31
that a computer is objective. Something
63
151640
2800
że komputer jest obiektywny. Coś,
02:34
that is objective is neutral, it doesn't have
64
154440
2500
co jest obiektywne, jest neutralne, nie ma
02:36
an opinion, it's fair and it's unbiased - so
65
156940
3160
opinii, jest sprawiedliwe i bezstronne -
02:40
it's the opposite of being a chauvinist. But
66
160100
3080
jest więc przeciwieństwem bycia szowinistą. Ale
02:43
Meredith Broussard says this is not true.
67
163180
2860
Meredith Broussard mówi, że to nieprawda.
02:46
Rob: She argues that computers are not
68
166040
2635
Rob: Twierdzi, że komputery nie są
02:48
objective. They are proxies for the people
69
168680
2880
obiektywne. Są pełnomocnikami ludzi,
02:51
that make them. You might know the
70
171560
1800
którzy je tworzą. Być może znasz
02:53
word proxy when you are using your
71
173360
1735
słowo proxy, gdy używasz
02:55
computer in one country and want to look
72
175095
2235
komputera w jednym kraju i chcesz spojrzeć
02:57
at something that is only available
73
177330
1871
na coś, co jest dostępne tylko
02:59
in a different country. You can use a piece
74
179201
2298
w innym kraju.
03:01
of software called a proxy to do that.
75
181500
2640
Aby to zrobić, możesz użyć oprogramowania zwanego serwerem proxy.
03:04
Catherine: But a proxy is also a person or
76
184140
2840
Katarzyna: Ale pełnomocnik to także osoba lub
03:06
a thing that carries out your wishes and
77
186980
2660
rzecz, która spełnia twoje życzenia i
03:09
your instructions for you.
78
189640
2000
instrukcje dla ciebie.
03:11
So computers are only as smart or as
79
191640
2860
Tak więc komputery są tak inteligentne lub tak
03:14
objective as the people that
80
194500
2560
obiektywne, jak ludzie, którzy
03:17
programme them. Computers are proxies
81
197060
3060
je programują. Komputery są pośrednikami
03:20
for their programmers. Broussard says
82
200120
2620
dla swoich programistów. Broussard mówi,
03:22
that believing too much in Artificial
83
202740
2400
że zbytnia wiara w sztuczną
03:25
Intelligence can make the world worse.
84
205140
2820
inteligencję może pogorszyć świat.
03:27
Let's hear a bit more. This time find out
85
207960
2920
Posłuchajmy trochę więcej. Tym razem dowiedz się,
03:30
what serious problems in society
86
210880
2820
jakie poważne problemy społeczne
03:33
does she think may be reflected in AI?
87
213700
3900
jej zdaniem mogą znaleźć odzwierciedlenie w sztucznej inteligencji?
03:37
Meredith Broussard: It's a nuanced
88
217600
1400
Meredith Broussard: To złożony
03:39
problem. What we have is data on the
89
219000
2700
problem. To, co mamy, to dane dotyczące
03:41
world as it is and we have serious
90
221700
3100
świata takiego, jaki jest, i mamy poważne
03:44
problems with racism, sexism, classism,
91
224800
2920
problemy z rasizmem, seksizmem, klasizmem,
03:47
ageism, in the world right now so there is
92
227720
2300
wiekiem, więc
03:50
no such thing as perfect data. We also
93
230020
3760
nie ma czegoś takiego jak doskonałe dane.
03:53
have a problem inside the tech world
94
233780
2379
Mamy również problem w świecie technologii,
03:56
where the creators of algorithms do not
95
236160
3080
gdzie twórcy algorytmów nie
03:59
have sufficient awareness of social
96
239240
3960
mają wystarczającej świadomości
04:03
issues such that they can make good
97
243200
2680
problemów społecznych, aby mogli stworzyć dobrą
04:05
technology that gets us closer to a world
98
245880
3800
technologię, która przybliży nas do świata takiego,
04:09
as it should be.
99
249680
1660
jaki powinien być.
04:11
Rob: She said that society has problems
100
251340
2640
Rob: Powiedziała, że ​​społeczeństwo ma problemy
04:13
with racism, sexism, classism and ageism.
101
253984
3296
z rasizmem, seksizmem, klasizmem i ageizmem.
04:17
Catherine: And she says it's a nuanced
102
257280
2531
Catherine: A ona mówi, że to
04:19
problem. A nuanced problem is not
103
259820
2231
problem złożony. Zniuansowany problem nie jest
04:22
simple, but it does have small and
104
262060
1960
prosty, ale ma małe i
04:24
important areas which may be
105
264020
2200
ważne obszary, które mogą być
04:26
hard to spot, but they need to be considered.
106
266220
3020
trudne do wykrycia, ale należy je wziąć pod uwagę.
04:29
Rob: And she also talked about
107
269240
1800
Rob: Mówiła też o
04:31
algorithms used to program these
108
271053
2220
algorytmach używanych do programowania tych
04:33
technological systems.
109
273273
1527
układów technologicznych.
04:34
An algorithm is a set of instructions that
110
274800
2497
Algorytm to zestaw instrukcji
04:37
computers use to perform their tasks.
111
277300
2240
używanych przez komputery do wykonywania swoich zadań.
04:39
Essentially it's the rules that they use
112
279540
1680
Zasadniczo są to zasady, których używają,
04:41
to come up with their answers and
113
281220
2220
aby wymyślić swoje odpowiedzi, a
04:43
Broussard believes that technology will
114
283440
2560
Broussard wierzy, że technologia będzie
04:46
reflect the views of those who create the algorithms.
115
286000
2680
odzwierciedlać poglądy tych, którzy tworzą algorytmy.
04:48
Catherine: Next time you're using a piece
116
288680
1640
Catherine: Następnym razem, gdy użyjesz
04:50
of software or your favourite app, you
117
290320
2120
oprogramowania lub ulubionej aplikacji,
04:52
might find yourself wondering if it's a
118
292440
2040
możesz się zastanawiać, czy jest to
04:54
useful tool or does it contain these little
119
294480
3020
przydatne narzędzie, czy też zawiera te małe
04:57
nuances that
120
297500
1100
niuanse, które
04:58
reflect the views of the developer.
121
298600
2220
odzwierciedlają poglądy programisty.
05:00
Rob: Right, Catherine. How about the
122
300830
1735
Rob: Racja, Catherine. A co z
05:02
answer to this week's question then?
123
302565
1735
odpowiedzią na pytanie z tego tygodnia?
05:04
Catherine: I asked in which decade was
124
304300
2160
Catherine: Zapytałam, w której dekadzie
05:06
the term 'Artificial Intelligence' coined.
125
306460
2300
powstał termin „sztuczna inteligencja”. Czy
05:08
Was it the 40s, the 50s or the 60s?
126
308760
2740
to były lata 40., 50. czy 60.?
05:11
Rob: And I said the 60s.
127
311500
1060
Rob: Powiedziałem, że lata 60.
05:12
Catherine: But it was actually the 1950s.
128
312560
2500
Catherine: Ale tak naprawdę to były lata pięćdziesiąte.
05:15
Never mind, Rob. Let's review today's vocabulary.
129
315060
3520
Nieważne, Rob. Przyjrzyjmy się dzisiejszemu słownictwu.
05:18
Rob: Well, we had a chauvinist - that's
130
318580
2100
Rob: Cóż, mieliśmy szowinistę - to jest
05:20
someone who believes their country, race
131
320700
2460
ktoś, kto wierzy, że jego kraj, rasa
05:23
or sex is better than any others.
132
323160
2000
lub płeć są lepsze od innych.
05:25
Catherine: And this gives us
133
325160
1540
Catherine: I to daje nam
05:26
technochauvinism,
134
326700
1380
technoszowinizm,
05:28
the belief that a technological solution is
135
328080
2809
przekonanie, że rozwiązanie technologiczne jest
05:30
always a better solution to a problem.
136
330889
2180
zawsze lepszym rozwiązaniem problemu.
05:33
Rob: Next - someone or something that is
137
333069
2776
Rob: Dalej - ktoś lub coś, co jest
05:35
objective is neutral, fair and balanced.
138
335845
2775
obiektywne, jest neutralne, sprawiedliwe i zrównoważone.
05:38
Catherine: A proxy is a piece of software
139
338620
2760
Catherine: Pełnomocnik to oprogramowanie,
05:41
but also someone who does something
140
341380
1660
ale także ktoś, kto robi coś
05:43
for you, on your behalf.
141
343040
2340
dla ciebie, w twoim imieniu.
05:45
A nuanced problem is a subtle
142
345380
2220
Zniuansowany problem jest subtelny
05:47
one, it's not a simple case of right or
143
347600
3000
, nie jest to prosty przypadek dobra lub
05:50
wrong, in a nuanced problem there are
144
350600
2740
zła, w zniuansowanym problemie są
05:53
small but important things that you need
145
353340
2140
małe, ale ważne rzeczy, które należy wziąć pod
05:55
to consider.
146
355480
800
uwagę.
05:56
Rob: And an algorithm is a set of software
147
356280
2560
Rob: A algorytm to zestaw
05:58
instructions for a computer system.
148
358842
2128
instrukcji programowych dla systemu komputerowego.
06:00
Catherine: Well, that's all we have time for
149
360970
1430
Catherine: Cóż, to wszystko, na co mamy
06:02
today. Goodbye for now.
150
362400
1780
dzisiaj czas. Na razie.
06:04
Rob: Bye bye!
151
364180
700
Rob: Do widzenia!
O tej stronie

Na tej stronie poznasz filmy z YouTube, które są przydatne do nauki języka angielskiego. Zobaczysz lekcje angielskiego prowadzone przez najlepszych nauczycieli z całego świata. Kliknij dwukrotnie na angielskie napisy wyświetlane na stronie każdego filmu, aby odtworzyć film od tego miejsca. Napisy przewijają się synchronicznie z odtwarzaniem filmu. Jeśli masz jakieś uwagi lub prośby, skontaktuj się z nami za pomocą formularza kontaktowego.

https://forms.gle/WvT1wiN1qDtmnspy7