Can AI have a mind of its own? ⏲️ 6 Minute English

249,562 views ・ 2023-01-26

BBC Learning English


Proszę kliknąć dwukrotnie na poniższe angielskie napisy, aby odtworzyć film. Przetłumaczone napisy są tłumaczone maszynowo.

00:08
Hello. This is 6 Minute English from
0
8520
2220
Cześć. To jest 6-minutowy angielski z
00:10
BBC Learning English. I’m Sam.
1
10740
1680
BBC Learning English. Jestem Sam.
00:12
And I’m Neil.
2
12420
840
A ja jestem Neilem.
00:13
In the autumn of 2021, something
3
13260
2520
Jesienią 2021 roku
00:15
strange happened at the Google
4
15780
1920
w siedzibie Google w Dolinie Krzemowej w Kalifornii wydarzyło się coś dziwnego
00:17
headquarters in California’s Silicon
5
17700
2460
00:20
Valley. A software engineer called,
6
20160
2100
. Inżynier oprogramowania,
00:22
Blake Lemoine, was working on the
7
22260
2460
Blake Lemoine, pracował nad
00:24
artificial intelligence project, ‘Language
8
24720
2340
projektem sztucznej inteligencji „
00:27
Models for Dialogue Applications’, or
9
27060
2700
Modele językowe dla aplikacji dialogowych”, w
00:29
LaMDA for short. LaMDA is a
10
29760
2940
skrócie LaMDA. LaMDA to
00:32
chatbot – a computer programme
11
32700
1860
chatbot – program komputerowy
00:34
designed to have conversations with
12
34560
2040
przeznaczony do prowadzenia rozmów z
00:36
humans over the internet.
13
36600
1080
ludźmi przez Internet.
00:37
After months talking with LaMDA
14
37680
2820
Po miesiącach rozmów z LaMDA
00:40
on topics ranging from movies to
15
40500
2280
na różne tematy, od filmów po
00:42
the meaning of life, Blake came to
16
42780
2220
sens życia, Blake doszedł do
00:45
a surprising conclusion: the chatbot
17
45000
2700
zaskakującego wniosku: chatbot
00:47
was an intelligent person with wishes
18
47700
2640
był inteligentną osobą, mającą życzenia
00:50
and rights that should be respected.
19
50340
2160
i prawa, które należy szanować.
00:52
For Blake, LaMDA was a Google
20
52500
2640
Dla Blake'a LaMDA był
00:55
employee, not a machine.
21
55140
1380
pracownikiem Google, a nie maszyną.
00:56
He also called it his ‘friend’.
22
56520
2160
Nazywał go także swoim „przyjacielem”.
00:58
Google quickly reassigned Blake from
23
58680
2580
Google szybko przeniósł Blake'a z
01:01
the project, announcing that his ideas
24
61260
1860
projektu, ogłaszając, że jego pomysły
01:03
were not supported by the evidence.
25
63120
2220
nie są poparte dowodami.
01:05
But what exactly was going on?
26
65340
2700
Ale co dokładnie się działo?
01:08
In this programme, we’ll be
27
68040
1860
W tym programie będziemy
01:09
discussing whether artificial intelligence
28
69900
2160
dyskutować, czy sztuczna inteligencja
01:12
is capable of consciousness. We’ll hear
29
72060
3000
jest zdolna do świadomości. Posłuchamy
01:15
from one expert who thinks AI is not as
30
75060
3000
eksperta, który uważa, że ​​sztuczna inteligencja nie jest tak
01:18
intelligent as we sometimes think,
31
78060
1560
inteligentna, jak nam się czasem wydaje,
01:19
and as usual, we’ll be learning some
32
79620
2460
i jak zwykle nauczymy się też
01:22
new vocabulary as well.
33
82080
1320
nowego słownictwa.
01:23
But before that, I have a question for
34
83400
2100
Ale zanim to nastąpi, mam do
01:25
you, Neil. What happened to Blake Lemoine
35
85500
2280
ciebie pytanie, Neil. To, co przydarzyło się Blake'owi Lemoine'owi,
01:27
is strangely similar to the 2013 Hollywood
36
87780
2940
jest dziwnie podobne do hollywoodzkiego
01:30
movie, Her, starring Joaquin Phoenix as
37
90720
3420
filmu Her z 2013 roku, w którym Joaquin Phoenix gra
01:34
a lonely writer who talks with his
38
94140
1860
samotnego pisarza rozmawiającego ze swoim
01:36
computer, voiced by Scarlett Johansson.
39
96000
2280
komputerem, a głos podkłada Scarlett Johansson.
01:38
But what happens at the end
40
98280
1860
Ale co się dzieje na końcu
01:40
of the movie? Is it:
41
100140
1380
filmu? Czy to:
01:41
a) the computer comes to life?
42
101520
1860
a) komputer budzi się do życia?
01:43
b) the computer dreams about the writer? or,
43
103380
3360
b) komputer śni o pisarzu? lub
01:46
c) the writer falls in love with the computer?
44
106740
2040
c) pisarz zakochuje się w komputerze?
01:48
... c) the writer falls in love with the computer.
45
108780
3420
... c) pisarz zakochuje się w komputerze.
01:52
OK, Neil, I’ll reveal the answer at the end
46
112200
2700
OK, Neil, pod koniec programu podam odpowiedź
01:54
of the programme. Although Hollywood is
47
114900
2460
. Chociaż Hollywood jest
01:57
full of movies about robots coming to life,
48
117360
2340
pełne filmów o budzących się do życia robotach,
01:59
Emily Bender, a professor of linguistics and
49
119700
3240
Emily Bender, profesor lingwistyki i
02:02
computing at the University of Washington,
50
122940
2100
informatyki na Uniwersytecie Waszyngtońskim,
02:05
thinks AI isn’t that smart. She thinks the
51
125040
4440
uważa, że ​​sztuczna inteligencja nie jest aż tak mądra. Uważa, że
02:09
words we use to talk about technology,
52
129480
1800
słowa, których używamy, gdy mówimy o technologii,
02:11
phrases like ‘machine learning’, give a
53
131280
3300
takie jak „uczenie maszynowe”, dają
02:14
false impression about what
54
134580
1620
fałszywe wrażenie na temat tego, co
02:16
computers can and can’t do.
55
136200
1740
komputery mogą, a czego nie.
02:17
Here is Professor Bender discussing
56
137940
2400
Oto profesor Bender omawia
02:20
another misleading phrase, ‘speech
57
140340
2340
kolejne mylące sformułowanie, „
02:22
recognition’, with BBC World Service
58
142680
2460
rozpoznawanie mowy”, z programem BBC World Service
02:25
programme, The Inquiry:
59
145140
1440
, The Inquiry:
02:27
If you talk about ‘automatic speech
60
147360
2220
Jeśli mówisz o „automatycznym
02:29
recognition’, the term ‘recognition’
61
149580
1920
rozpoznawaniu mowy”, termin „rozpoznawanie”
02:31
suggests that there's something
62
151500
2100
sugeruje, że dzieje się coś
02:33
cognitive going on, where I think a
63
153600
2160
kognitywnego, gdzie myślę, że
02:35
better term would be automatic transcription.
64
155760
2100
lepszym określeniem byłaby automatyczna transkrypcja.
02:37
That just describes the input-output
65
157860
1980
To po prostu opisuje relację wejście-wyjście
02:39
relation, and not any theory or wishful
66
159840
3660
, a nie jakąkolwiek teorię lub pobożne
02:43
thinking about what the computer is
67
163500
2280
życzenia na temat tego, co robi komputer,
02:45
doing to be able to achieve that.
68
165780
1440
aby móc to osiągnąć.
02:47
Using words like ‘recognition’ in relation
69
167220
3360
Używanie słów takich jak „rozpoznawanie” w odniesieniu
02:50
to computers gives the idea that
70
170580
2100
do komputerów daje wyobrażenie, że
02:52
something cognitive is happening – something
71
172680
2760
dzieje się coś poznawczego – coś
02:55
related to the mental processes of
72
175440
2340
związanego z mentalnymi procesami
02:57
thinking, knowing, learning and understanding.
73
177780
2760
myślenia, poznawania, uczenia się i rozumienia.
03:00
But thinking and knowing are human,
74
180540
2700
Ale myślenie i wiedza są czynnościami ludzkimi, a
03:03
not machine, activities. Professor Benders
75
183240
3060
nie maszynowymi. Profesor Benders
03:06
says that talking about them in connection
76
186300
2040
mówi, że mówienie o nich w związku
03:08
with computers is wishful thinking -
77
188340
3570
z komputerami to myślenie życzeniowe -
03:11
something which is unlikely to happen.
78
191910
2310
coś, co jest mało prawdopodobne.
03:14
The problem with using words in this
79
194220
2220
Problem z używaniem słów w ten
03:16
way is that it reinforces what
80
196440
2100
sposób polega na tym, że wzmacnia to, co
03:18
Professor Bender calls, technical
81
198540
2160
profesor Bender nazywa
03:20
bias – the assumption that the computer
82
200700
2520
stronniczością techniczną – założeniem, że komputer
03:23
is always right. When we encounter
83
203220
2520
ma zawsze rację. Kiedy napotykamy
03:25
language that sounds natural, but is
84
205740
1680
język, który brzmi naturalnie, ale
03:27
coming from a computer, humans
85
207420
2280
pochodzi z komputera, ludzie
03:29
can’t help but imagine a mind behind
86
209700
2460
nie mogą powstrzymać się od wyobrażenia sobie umysłu stojącego za
03:32
the language, even when there isn’t one.
87
212160
2220
tym językiem, nawet jeśli go nie ma.
03:34
In other words, we anthropomorphise
88
214380
2160
Innymi słowy antropomorfizujemy
03:36
computers – we treat them as if they
89
216540
2520
komputery – traktujemy je tak, jakby
03:39
were human. Here’s Professor Bender
90
219060
2220
były ludźmi. Oto ponownie profesor Bender
03:41
again, discussing this idea with
91
221280
2220
, omawiający ten pomysł z
03:43
Charmaine Cozier, presenter of BBC
92
223500
2700
Charmaine Cozier, prezenterką BBC
03:46
World Service’s, the Inquiry.
93
226200
1620
World Service, The Inquiry.
03:48
So ‘ism’ means system, ‘anthro’ or ‘anthropo’
94
228420
3660
Zatem „ism” oznacza system, „anthro” lub „anthropo”
03:52
means human, and ‘morph’ means shape...
95
232080
3000
oznacza człowieka, a „morph” oznacza kształt… A
03:55
And so this is a system that puts the
96
235080
3000
więc jest to system, który nadaje
03:58
shape of a human on something, and
97
238080
2160
czemuś kształt człowieka, aw
04:00
in this case the something is a computer.
98
240240
1260
tym przypadku czymś jest komputer.
04:01
We anthropomorphise animals all the time,
99
241500
3180
Cały czas antropomorfizujemy zwierzęta,
04:04
but we also anthropomorphise action figures,
100
244680
3060
ale także antropomorfizujemy figurki,
04:07
or dolls, or companies when we talk about
101
247740
2880
lalki lub firmy, kiedy mówimy o
04:10
companies having intentions and so on.
102
250620
2040
firmach, które mają intencje i tak dalej.
04:12
We very much are in the habit of seeing
103
252660
2880
Bardzo mamy w zwyczaju widzieć
04:15
ourselves in the world around us.
104
255540
1620
siebie w otaczającym nas świecie.
04:17
And while we’re busy seeing ourselves
105
257160
2220
I kiedy jesteśmy zajęci przyglądaniem się sobie,
04:19
by assigning human traits to things that
106
259380
2100
przypisując cechy ludzkie rzeczom, które nimi
04:21
are not, we risk being blindsided.
107
261480
2520
nie są, ryzykujemy, że zostaniemy oślepieni.
04:24
The more fluent that text is, the more
108
264000
2400
Im bardziej płynny jest ten tekst, im więcej
04:26
different topics it can converse on, the
109
266400
2700
różnych tematów można poruszyć, tym
04:29
more chances there are to get taken in.
110
269100
1920
większe są szanse, że zostaniemy wciągnięci.
04:31
If we treat computers as if they could think,
111
271860
2760
Jeśli będziemy traktować komputery tak, jakby potrafiły myśleć,
04:34
we might get blindsided, or
112
274620
2520
możemy zostać oślepieni lub
04:37
unpleasantly surprised. Artificial intelligence
113
277140
3180
niemile zaskoczeni. Sztuczna inteligencja
04:40
works by finding patterns in massive
114
280320
2220
działa, wyszukując wzorce w ogromnych
04:42
amounts of data, so it can seem like
115
282540
2520
ilościach danych, więc może się wydawać, że
04:45
we’re talking with a human, instead
116
285060
1860
rozmawiamy z człowiekiem, a nie
04:46
of a machine doing data analysis.
117
286920
2220
z maszyną przeprowadzającą analizę danych.
04:49
As a result, we get taken in – we’re tricked
118
289140
4020
W rezultacie dajemy się nabrać – jesteśmy oszukani
04:53
or deceived into thinking we’re dealing
119
293160
1920
lub oszukani, aby myśleć, że mamy do czynienia
04:55
with a human, or with something intelligent.
120
295080
3003
z człowiekiem lub czymś inteligentnym.
04:58
Powerful AI can make machines appear conscious,
121
298083
3318
Potężna sztuczna inteligencja może sprawić, że maszyny będą wyglądały na świadome,
05:01
but even tech giants like Google are years
122
301401
2945
ale nawet technologiczni giganci, tacy jak Google, dzielą lata
05:04
away from building computers that can
123
304346
2407
od zbudowania komputerów, które mogą
05:06
dream or fall in love. Speaking of which,
124
306753
2355
marzyć lub się zakochać. Skoro o tym mowa,
05:09
Sam, what was the answer to your question?
125
309108
2671
Sam, jaka była odpowiedź na twoje pytanie?
05:11
I asked what happened in the 2013 movie, Her.
126
311779
2752
Zapytałem, co się stało w filmie z 2013 roku, Her.
05:14
Neil thought that the main character
127
314531
1900
Neil pomyślał, że główny bohater
05:16
falls in love with his computer, which
128
316431
2248
zakochuje się w swoim komputerze, co
05:18
was the correct answer!
129
318679
1361
było poprawną odpowiedzią!
05:20
OK. Right, it’s time to recap the vocabulary
130
320880
2640
OK. Dobra, nadszedł czas, aby podsumować słownictwo, którego
05:23
we’ve learned from this programme about AI,
131
323520
2340
nauczyliśmy się w tym programie na temat sztucznej inteligencji,
05:25
including chatbots - computer programmes
132
325860
3180
w tym chatbotów – programów komputerowych
05:29
designed to interact with
133
329040
1380
zaprojektowanych do interakcji z
05:30
humans over the internet.
134
330420
1560
ludźmi przez Internet.
05:31
The adjective cognitive describes
135
331980
2640
Przymiotnik kognitywny opisuje
05:34
anything connected with the mental
136
334620
1860
wszystko, co jest związane z umysłowymi
05:36
processes of knowing,
137
336480
1320
procesami poznawania,
05:37
learning and understanding.
138
337800
1380
uczenia się i rozumienia.
05:39
Wishful thinking means thinking that
139
339180
2640
Myślenie życzeniowe oznacza myślenie, że
05:41
something which is very unlikely to happen
140
341820
2100
coś, co jest bardzo mało prawdopodobne,
05:43
might happen one day in the future.
141
343920
2040
może się wydarzyć pewnego dnia w przyszłości.
05:45
To anthropomorphise an object means
142
345960
2400
Antropomorfizacja przedmiotu oznacza
05:48
to treat it as if it were human,
143
348360
1500
traktowanie go tak, jakby był człowiekiem,
05:49
even though it’s not.
144
349860
1200
nawet jeśli nim nie jest.
05:51
When you’re blindsided, you’re
145
351060
2520
Kiedy jesteś oślepiony, jesteś
05:53
surprised in a negative way.
146
353580
1500
zaskoczony w negatywny sposób.
05:55
And finally, to get taken in by someone means
147
355080
2880
I wreszcie, dać się nabrać na kogoś oznacza dać się
05:57
to be deceived or tricked by them.
148
357960
1860
oszukać lub oszukać.
05:59
My computer tells me that our six minutes
149
359820
2640
Mój komputer mówi mi, że nasze sześć minut
06:02
are up! Join us again soon, for now
150
362460
2580
dobiegło końca! Dołącz do nas ponownie wkrótce, na razie
06:05
it’s goodbye from us.
151
365040
1140
to pożegnanie od nas. Do
06:06
Bye!
152
366180
500
widzenia!
O tej stronie

Na tej stronie poznasz filmy z YouTube, które są przydatne do nauki języka angielskiego. Zobaczysz lekcje angielskiego prowadzone przez najlepszych nauczycieli z całego świata. Kliknij dwukrotnie na angielskie napisy wyświetlane na stronie każdego filmu, aby odtworzyć film od tego miejsca. Napisy przewijają się synchronicznie z odtwarzaniem filmu. Jeśli masz jakieś uwagi lub prośby, skontaktuj się z nami za pomocą formularza kontaktowego.

https://forms.gle/WvT1wiN1qDtmnspy7