Should we fear chatbots? ⏲️ 6 Minute English

136,787 views ・ 2023-07-06

BBC Learning English


Proszę kliknąć dwukrotnie na poniższe angielskie napisy, aby odtworzyć film. Przetłumaczone napisy są tłumaczone maszynowo.

00:07
Hello. This is 6 Minute English
0
7680
1600
Cześć. To jest 6-minutowy angielski
00:09
from BBC Learning English.
1
9280
1720
z BBC Learning English.
00:11
I'm Neil.
2
11000
760
00:11
And I'm Rob.
3
11760
1720
Jestem Neilem.
A ja jestem Robem.
00:13
Now, I'm sure most of us have interacted with a chatbot.
4
13480
4160
Jestem pewien, że większość z nas miała do czynienia z chatbotem. Są to
00:17
These are bits of computer technology that respond to text with text
5
17640
4920
fragmenty technologii komputerowej, które reagują na tekst tekstem
00:22
or respond to your voice.
6
22560
2040
lub reagują na Twój głos.
00:24
You ask it a question and usually it comes up
7
24600
3400
Zadajesz mu pytanie, a ono zwykle otrzymuje
00:28
with an answer.
8
28000
1200
odpowiedź.
00:29
Yes, it's almost like talking to another human.
9
29200
2480
Tak, to prawie jak rozmowa z drugim człowiekiem.
00:31
But of course, it's not.
10
31680
1760
Ale oczywiście tak nie jest.
00:33
It's just a clever piece of technology.
11
33440
2640
To tylko sprytna technologia.
00:36
It's becoming more sophisticated, more advanced and complex,
12
36080
3720
Staje się coraz bardziej wyrafinowany, bardziej zaawansowany i złożony,
00:39
but could they replace real human interaction altogether?
13
39800
3200
ale czy mogą one całkowicie zastąpić prawdziwą interakcję międzyludzką?
00:43
We'll discuss that more in a moment and find out if chatbots
14
43000
3560
Omówimy to za chwilę i przekonamy się, czy chatboty
00:46
really think for themselves. But first,
15
46560
3120
naprawdę myślą samodzielnie. Ale najpierw
00:49
I have a question for you, Rob. The first computer program that allowed
16
49680
4000
mam do ciebie pytanie, Rob. Pierwszy program komputerowy, który umożliwiał
00:53
some kind of plausible conversation between humans and machines
17
53680
4400
jakąś wiarygodną rozmowę między ludźmi a maszynami,
00:58
was invented in 1966.
18
58080
2840
został wynaleziony w 1966 roku.
01:00
But what was it called?
19
60920
1760
Ale jak się nazywał? Czy to
01:02
Was it a) Alexa.
20
62680
2360
była a) Alexa.
01:05
b) Eliza, or c) Parry? Well, it's not Alexa,
21
65040
5040
b) Eliza, czy c) Parry? Cóż, to nie Alexa,
01:10
that's too new, so I'll guess
22
70080
2080
to zbyt nowe, więc zgaduję
01:12
c) Parry.
23
72160
1160
c) Parry.
01:13
I'll reveal the answer at the end of the programme.
24
73320
3480
Odpowiedź podam pod koniec programu.
01:16
Now, the old chatbots of the 1960s and 70s were quite basic.
25
76800
5400
Teraz stare chatboty z lat 60. i 70. były dość podstawowe.
01:22
But more recently, the technology is able to predict the next word that is
26
82200
5600
Ale ostatnio technologia jest w stanie przewidzieć następne słowo, które
01:27
likely to be used in a sentence and it learns words and sentence structures.
27
87800
4800
prawdopodobnie zostanie użyte w zdaniu, i uczy się słów i struktur zdaniowych. To
01:32
It's clever stuff.
28
92600
1360
sprytne rzeczy.
01:33
I've experienced using them when talking to my bank
29
93960
2760
Doświadczyłem ich używania podczas rozmowy z moim bankiem
01:36
or when I have problems trying to book a ticket on a website.
30
96720
3320
lub gdy mam problemy z rezerwacją biletu na stronie internetowej.
01:40
I no longer phone a human,
31
100040
2480
Nie dzwonię już do człowieka, zamiast tego
01:42
I speak to a virtual assistant instead.
32
102520
2840
rozmawiam z wirtualnym asystentem.
01:45
Probably the most well known chatbot at the moment
33
105360
2880
Prawdopodobnie najbardziej znanym obecnie chatbotem
01:48
is ChatGTP.
34
108240
1640
jest ChatGTP.
01:49
It is. The claim is that it's able to answer
35
109880
2920
To jest. Twierdzenie jest takie, że jest w stanie odpowiedzieć na
01:52
anything you ask it.
36
112800
1680
wszystko, o co go poprosisz.
01:54
This includes writing
37
114480
1280
Obejmuje to pisanie
01:55
students' essays.
38
115760
1680
esejów studentów.
01:57
Now, this is something that was discussed on the BBC
39
117440
2600
To jest coś, o czym dyskutowano w
02:00
Radio 4 programme, Word of Mouth.
40
120040
2520
programie Word of Mouth w BBC Radio 4.
02:02
Emily M Bender,
41
122560
1640
Emily M Bender,
02:04
Professor of Computational Linguistics at the University
42
124200
3320
profesor lingwistyki komputerowej na Uniwersytecie
02:07
of Washington, explained why it's dangerous to always trust
43
127520
3760
Waszyngtońskim, wyjaśniła, dlaczego niebezpiecznie jest zawsze ufać temu,
02:11
what a chatbot is telling us.
44
131280
2160
co mówi nam chatbot.
02:13
We tend to react to grammatical, fluent, coherent seeming text
45
133440
5280
Mamy tendencję do reagowania na gramatyczny, płynny, spójny pozornie tekst
02:18
as authoritative and reliable and valuable and
46
138720
4720
jako autorytatywny, rzetelny i wartościowy i
02:23
we need to be on guard against that because what is coming out of ChatGTP
47
143440
2680
musimy się tego strzec, ponieważ to, co wychodzi z ChatGTP, nie
02:26
is none of that.
48
146120
1400
jest niczym z tego.
02:27
So, Professor Bender says that well written text, that is coherent -
49
147520
4320
Profesor Bender mówi więc, że dobrze napisany tekst, czyli spójny,
02:31
that means it's clear, carefully considered and sensible -
50
151840
3440
to znaczy jasny, przemyślany i sensowny,
02:35
makes us think what we are reading is reliable and authoritative.
51
155280
4240
sprawia, że ​​myślimy, że to, co czytamy, jest wiarygodne i wiarygodne. Jest to
02:39
So it's respected, accurate and important sounding.
52
159520
3600
więc szanowane, dokładne i ważne brzmienie.
02:43
Yes, chatbots might appear to write in this way. But really,
53
163120
3920
Tak, może się wydawać, że chatboty piszą w ten sposób. Ale tak naprawdę, po
02:47
they are just predicting one word after another based on what they have learnt.
54
167040
5040
prostu przewidują jedno słowo po drugim na podstawie tego, czego się nauczyli.
02:52
We should therefore be on guard - be careful
55
172080
3040
Dlatego powinniśmy mieć się na baczności – bądźmy ostrożni
02:55
and alert about the accuracy of what we are being told.
56
175120
3880
i czujni co do prawdziwości tego, co nam się mówi.
02:59
One concern is that chatbots - a form of artificial intelligence - work
57
179000
4800
Jedną z obaw jest to, że chatboty – forma sztucznej inteligencji – działają
03:03
a bit like a human brain in the way it can learn and process information.
58
183800
4640
trochę jak ludzki mózg w sposobie, w jaki mogą uczyć się i przetwarzać informacje.
03:08
They are able to learn from experience. Something called deep learning.
59
188440
4680
Potrafią uczyć się na doświadczeniu. Coś, co nazywa się głębokim uczeniem. Geoffrey Hinton,
03:13
A cognitive psychologist and computer scientist called Geoffrey Hinton,
60
193120
4120
psycholog poznawczy i informatyk,
03:17
recently said he feared that chatbots could soon overtake the level
61
197240
4120
powiedział niedawno, że obawia się, że chatboty mogą wkrótce przewyższyć poziom
03:21
of information that a human brain holds. That is a bit scary isn't it?
62
201360
5160
informacji przechowywanych w ludzkim mózgu . To trochę przerażające, prawda?
03:26
But for now, chatbots can be useful for practical information,
63
206560
4000
Ale na razie chatboty mogą być przydatne do praktycznych informacji,
03:30
but sometimes we start to believe they are human
64
210560
2680
ale czasami zaczynamy wierzyć, że to ludzie
03:33
and we interact with them in a human like way.
65
213240
2920
i wchodzimy z nimi w interakcje w podobny do ludzkiego sposób.
03:36
This can make us believe them even more.
66
216160
2520
To może sprawić, że uwierzymy w nie jeszcze bardziej.
03:38
Professor Emma Bender,
67
218680
1160
Profesor Emma Bender,
03:39
speaking on the BBC's Word of Mouth
68
219840
1880
przemawiając w programie BBC Word of Mouth
03:41
programme, explains why we might feel like that.
69
221720
3560
, wyjaśnia, dlaczego możemy się tak czuć.
03:45
I think what's going on there is, the kinds of answers
70
225280
3160
Myślę, że to, co się tam dzieje, polega na tym, że rodzaje odpowiedzi, które
03:48
you get depend on the questions
71
228440
2360
otrzymujesz, zależą od
03:50
you put in, because it's doing likely next word, likely next word.
72
230800
3360
zadanych pytań, ponieważ to prawdopodobnie następne słowo, prawdopodobnie następne słowo.
03:54
And so, if as the human interacting with this machine
73
234160
3360
I tak, jeśli jako człowiek wchodzisz w interakcję z tą maszyną
03:57
and you start asking questions about how do you feel, you know, chatbot?
74
237520
4120
i zaczynasz zadawać pytania o to, jak się czujesz, wiesz, chatbot?
04:01
And, what do you think of this?
75
241640
2120
I co o tym sądzisz?
04:03
What are your goals?
76
243760
1200
Jakie są Twoje cele?
04:04
You can provoke it to say things that sound like what a sentient
77
244960
3400
Możesz sprowokować go do mówienia rzeczy, które brzmią jak to, co
04:08
entity would say. We are really primed to imagine a mind behind language
78
248360
4960
powiedziałaby czująca istota. Za każdym razem, gdy napotykamy język, jesteśmy naprawdę przygotowani do wyobrażania sobie umysłu stojącego za
04:13
whenever we encounter language.
79
253320
1840
językiem.
04:15
And so we really have to account for that when
80
255160
1880
I naprawdę musimy to uwzględnić, kiedy
04:17
we're making decisions about these.
81
257040
2240
podejmujemy decyzje w tej sprawie.
04:19
So, although a chatbot might sound human,
82
259480
2960
Tak więc, chociaż chatbot może brzmieć jak człowiek, tak
04:22
we really just ask it
83
262440
1280
naprawdę prosimy go o
04:23
things to get a reaction. We provoke it.
84
263720
2720
różne rzeczy, aby uzyskać reakcję. Prowokujemy to.
04:26
And it answers only with words
85
266440
1800
A odpowiada tylko słowami, których
04:28
it has learned to use before.
86
268240
2080
nauczyła się wcześniej.
04:30
Not because it has come up with a clever answer,
87
270320
2960
Nie dlatego, że wymyślił sprytną odpowiedź,
04:33
but it does sound like a sentient entity. Sentient describes a living  
88
273280
5000
ale brzmi jak czująca istota. Sentient opisuje żywą
04:38
thing that experiences feelings. As Professor Bender says we imagine  
89
278280
4880
istotę, która doświadcza uczuć. Jak mówi profesor Bender, wyobrażamy sobie,
04:43
that when something speaks there is a mind behind it. But sorry Neil,
90
283160
4760
że gdy coś przemawia, stoi za tym umysł. Ale przepraszam Neil,
04:47
they are not your friend.
91
287920
1280
oni nie są twoimi przyjaciółmi. To
04:49
They're just machines.
92
289200
1160
tylko maszyny.
04:50
Yes, it's strange then
93
290360
1240
Tak, to dziwne,
04:51
that we sometimes give chatbots names. Alexa, Siri, and earlier
94
291600
4920
że czasami nadajemy chatbotom imiona. Alexa, Siri, a wcześniej
04:56
I asked you what the name was for their first ever chatbot?
95
296520
3840
pytałem cię, jak nazywał się ich pierwszy chatbot?
05:00
And I guessed it was Parry. Was I right?
96
300360
2760
Domyśliłem się, że to Parry. Czy miałem rację?
05:03
You guessed wrong, I'm afraid.
97
303120
2000
Źle zgadłeś, obawiam się.
05:05
Parry was an early form of chatbot from 1972.
98
305120
3840
Parry był wczesną formą chatbota z 1972 roku.
05:08
But the correct answer was Eliza.
99
308960
2960
Ale poprawną odpowiedzią była Eliza.
05:11
It was considered to be the first chatterbot, as it was called then,
100
311920
3960
Uważany był za pierwszego czatbota, jak go wtedy nazywano,
05:15
and was developed by Joseph Weizenbaum at Massachusetts Institute of Technology.
101
315880
5480
i został opracowany przez Josepha Weizenbauma z Massachusetts Institute of Technology.
05:21
Fascinating stuff.
102
321360
1320
Fascynujące rzeczy.
05:22
OK, now let's recap some of the vocabulary
103
322680
2480
OK, teraz podsumujmy niektóre słownictwo, które
05:25
we highlighted in this programme, starting with sophisticated,
104
325160
4080
podkreśliliśmy w tym programie, zaczynając od wyrafinowany,
05:29
which can describe technology that is advanced and complex.
105
329240
4120
który może opisywać zaawansowaną i złożoną technologię.
05:33
Something that is coherent, is clear carefully considered and sensible.
106
333360
4520
Coś spójnego, jasnego, przemyślanego i rozsądnego.
05:37
Authoritative means respected accurate and important sounding.
107
337880
4600
Autorytatywny oznacza szanowane dokładne i ważne brzmienie.
05:42
When you are on guard
108
342480
1400
Kiedy masz się na baczności,
05:43
you must be careful and alert about something.
109
343880
2400
musisz być ostrożny i ostrzegać przed czymś.
05:46
It could be the accuracy of what you see or hear or just being aware
110
346280
4560
Może to być dokładność tego, co widzisz lub słyszysz, lub po prostu świadomość
05:50
of the dangers around you. To provoke means to do something
111
350840
3560
niebezpieczeństw wokół ciebie. Prowokować oznacza zrobić coś,
05:54
that causes a reaction from someone.
112
354400
2480
co wywołuje u kogoś reakcję.
05:56
Sentient describes something that experiences feelings.
113
356880
3840
Sentient opisuje coś, co doświadcza uczuć.
06:00
So it's something that is living. Once again
114
360720
2680
Więc to jest coś, co żyje. Po raz kolejny
06:03
our six minutes are up. Goodbye.
115
363400
2320
nasze sześć minut dobiegło końca. Do widzenia.
06:05
Bye bye for now.
116
365720
1520
PA pa na razie.
O tej stronie

Na tej stronie poznasz filmy z YouTube, które są przydatne do nauki języka angielskiego. Zobaczysz lekcje angielskiego prowadzone przez najlepszych nauczycieli z całego świata. Kliknij dwukrotnie na angielskie napisy wyświetlane na stronie każdego filmu, aby odtworzyć film od tego miejsca. Napisy przewijają się synchronicznie z odtwarzaniem filmu. Jeśli masz jakieś uwagi lub prośby, skontaktuj się z nami za pomocą formularza kontaktowego.

https://forms.gle/WvT1wiN1qDtmnspy7