Should we fear chatbots? ⏲️ 6 Minute English

136,787 views ・ 2023-07-06

BBC Learning English


Fare doppio clic sui sottotitoli in inglese per riprodurre il video. I sottotitoli tradotti sono tradotti automaticamente.

00:07
Hello. This is 6 Minute English
0
7680
1600
Ciao. Questo è l'inglese di 6 minuti
00:09
from BBC Learning English.
1
9280
1720
dalla BBC Learning English.
00:11
I'm Neil.
2
11000
760
00:11
And I'm Rob.
3
11760
1720
Sono Neill.
E io sono Rob.
00:13
Now, I'm sure most of us have interacted with a chatbot.
4
13480
4160
Ora, sono sicuro che la maggior parte di noi ha interagito con un chatbot.
00:17
These are bits of computer technology that respond to text with text
5
17640
4920
Questi sono bit di tecnologia informatica che rispondono al testo con il testo
00:22
or respond to your voice.
6
22560
2040
o rispondono alla tua voce.
00:24
You ask it a question and usually it comes up
7
24600
3400
Gli fai una domanda e di solito ti viene in mente
00:28
with an answer.
8
28000
1200
una risposta.
00:29
Yes, it's almost like talking to another human.
9
29200
2480
Sì, è quasi come parlare con un altro essere umano.
00:31
But of course, it's not.
10
31680
1760
Ma ovviamente non lo è.
00:33
It's just a clever piece of technology.
11
33440
2640
È solo un pezzo di tecnologia intelligente.
00:36
It's becoming more sophisticated, more advanced and complex,
12
36080
3720
Sta diventando più sofisticato, più avanzato e complesso,
00:39
but could they replace real human interaction altogether?
13
39800
3200
ma potrebbero sostituire del tutto la vera interazione umana? Ne
00:43
We'll discuss that more in a moment and find out if chatbots
14
43000
3560
discuteremo di più tra un momento e scopriremo se i chatbot
00:46
really think for themselves. But first,
15
46560
3120
pensano davvero da soli. Ma prima,
00:49
I have a question for you, Rob. The first computer program that allowed
16
49680
4000
ho una domanda per te, Rob. Il primo programma per computer che consentiva
00:53
some kind of plausible conversation between humans and machines
17
53680
4400
una sorta di conversazione plausibile tra uomo e macchina
00:58
was invented in 1966.
18
58080
2840
fu inventato nel 1966.
01:00
But what was it called?
19
60920
1760
Ma come si chiamava?
01:02
Was it a) Alexa.
20
62680
2360
Era a) Alexa.
01:05
b) Eliza, or c) Parry? Well, it's not Alexa,
21
65040
5040
b) Eliza, o c) Parata? Beh, non è Alexa,
01:10
that's too new, so I'll guess
22
70080
2080
è troppo nuovo, quindi immagino
01:12
c) Parry.
23
72160
1160
c) Parry.
01:13
I'll reveal the answer at the end of the programme.
24
73320
3480
Rivelerò la risposta alla fine del programma.
01:16
Now, the old chatbots of the 1960s and 70s were quite basic.
25
76800
5400
Ora, i vecchi chatbot degli anni '60 e '70 erano piuttosto basilari.
01:22
But more recently, the technology is able to predict the next word that is
26
82200
5600
Ma più di recente, la tecnologia è in grado di prevedere la parola successiva che
01:27
likely to be used in a sentence and it learns words and sentence structures.
27
87800
4800
potrebbe essere utilizzata in una frase e apprende le parole e le strutture delle frasi.
01:32
It's clever stuff.
28
92600
1360
È roba intelligente. Ho
01:33
I've experienced using them when talking to my bank
29
93960
2760
provato a usarli quando parlo con la mia banca
01:36
or when I have problems trying to book a ticket on a website.
30
96720
3320
o quando ho problemi a prenotare un biglietto su un sito web.
01:40
I no longer phone a human,
31
100040
2480
Non telefono più a un essere umano,
01:42
I speak to a virtual assistant instead.
32
102520
2840
parlo invece con un assistente virtuale.
01:45
Probably the most well known chatbot at the moment
33
105360
2880
Probabilmente il chatbot più conosciuto al momento
01:48
is ChatGTP.
34
108240
1640
è ChatGTP.
01:49
It is. The claim is that it's able to answer
35
109880
2920
È. L'affermazione è che è in grado di rispondere a
01:52
anything you ask it.
36
112800
1680
qualsiasi cosa tu gli chieda.
01:54
This includes writing
37
114480
1280
Ciò include la scrittura di
01:55
students' essays.
38
115760
1680
saggi per studenti.
01:57
Now, this is something that was discussed on the BBC
39
117440
2600
Ora, questo è qualcosa che è stato discusso nel
02:00
Radio 4 programme, Word of Mouth.
40
120040
2520
programma della BBC Radio 4, Word of Mouth.
02:02
Emily M Bender,
41
122560
1640
Emily M Bender,
02:04
Professor of Computational Linguistics at the University
42
124200
3320
professoressa di linguistica computazionale all'Università
02:07
of Washington, explained why it's dangerous to always trust
43
127520
3760
di Washington, ha spiegato perché è pericoloso fidarsi sempre di
02:11
what a chatbot is telling us.
44
131280
2160
ciò che ci dice un chatbot.
02:13
We tend to react to grammatical, fluent, coherent seeming text
45
133440
5280
Tendiamo a reagire a un testo apparentemente grammaticale, fluente e coerente
02:18
as authoritative and reliable and valuable and
46
138720
4720
come autorevole, affidabile e prezioso e
02:23
we need to be on guard against that because what is coming out of ChatGTP
47
143440
2680
dobbiamo stare in guardia perché ciò che esce da ChatGTP non
02:26
is none of that.
48
146120
1400
è niente di tutto questo.
02:27
So, Professor Bender says that well written text, that is coherent -
49
147520
4320
Quindi, il professor Bender afferma che un testo ben scritto, cioè coerente,
02:31
that means it's clear, carefully considered and sensible -
50
151840
3440
cioè chiaro, ponderato e sensato,
02:35
makes us think what we are reading is reliable and authoritative.
51
155280
4240
ci fa pensare che ciò che stiamo leggendo sia affidabile e autorevole.
02:39
So it's respected, accurate and important sounding.
52
159520
3600
Quindi è un suono rispettato, accurato e importante.
02:43
Yes, chatbots might appear to write in this way. But really,
53
163120
3920
Sì, i chatbot potrebbero sembrare scrivere in questo modo. Ma in realtà,
02:47
they are just predicting one word after another based on what they have learnt.
54
167040
5040
stanno solo prevedendo una parola dopo l'altra in base a ciò che hanno imparato.
02:52
We should therefore be on guard - be careful
55
172080
3040
Dovremmo quindi stare in guardia, stare attenti
02:55
and alert about the accuracy of what we are being told.
56
175120
3880
e attenti all'accuratezza di ciò che ci viene detto.
02:59
One concern is that chatbots - a form of artificial intelligence - work
57
179000
4800
Una preoccupazione è che i chatbot, una forma di intelligenza artificiale, funzionino
03:03
a bit like a human brain in the way it can learn and process information.
58
183800
4640
un po' come un cervello umano nel modo in cui può apprendere ed elaborare le informazioni.
03:08
They are able to learn from experience. Something called deep learning.
59
188440
4680
Sono in grado di imparare dall'esperienza. Qualcosa chiamato deep learning.
03:13
A cognitive psychologist and computer scientist called Geoffrey Hinton,
60
193120
4120
Uno psicologo cognitivo e scienziato informatico chiamato Geoffrey Hinton, ha
03:17
recently said he feared that chatbots could soon overtake the level
61
197240
4120
recentemente affermato di temere che i chatbot possano presto superare il livello
03:21
of information that a human brain holds. That is a bit scary isn't it?
62
201360
5160
di informazioni detenuto da un cervello umano . È un po' spaventoso, vero?
03:26
But for now, chatbots can be useful for practical information,
63
206560
4000
Ma per ora, i chatbot possono essere utili per informazioni pratiche,
03:30
but sometimes we start to believe they are human
64
210560
2680
ma a volte iniziamo a credere che siano umani
03:33
and we interact with them in a human like way.
65
213240
2920
e interagiamo con loro in modo umano.
03:36
This can make us believe them even more.
66
216160
2520
Questo può farci credere ancora di più.
03:38
Professor Emma Bender,
67
218680
1160
La professoressa Emma Bender,
03:39
speaking on the BBC's Word of Mouth
68
219840
1880
intervenendo al programma Word of Mouth della BBC
03:41
programme, explains why we might feel like that.
69
221720
3560
, spiega perché potremmo sentirci così.
03:45
I think what's going on there is, the kinds of answers
70
225280
3160
Penso che quello che sta succedendo lì sia, il tipo di risposte che
03:48
you get depend on the questions
71
228440
2360
ottieni dipendono dalle domande che
03:50
you put in, because it's doing likely next word, likely next word.
72
230800
3360
poni, perché sta facendo probabilmente la parola successiva, probabilmente la parola successiva.
03:54
And so, if as the human interacting with this machine
73
234160
3360
E quindi, se come essere umano che interagisce con questa macchina
03:57
and you start asking questions about how do you feel, you know, chatbot?
74
237520
4120
e inizi a fare domande su come ti senti, sai, chatbot?
04:01
And, what do you think of this?
75
241640
2120
E cosa ne pensi di questo?
04:03
What are your goals?
76
243760
1200
Quali sono i tuoi obiettivi?
04:04
You can provoke it to say things that sound like what a sentient
77
244960
3400
Puoi provocarlo per dire cose che suonano come quello che
04:08
entity would say. We are really primed to imagine a mind behind language
78
248360
4960
direbbe un'entità senziente. Siamo davvero pronti a immaginare una mente dietro il linguaggio
04:13
whenever we encounter language.
79
253320
1840
ogni volta che incontriamo il linguaggio.
04:15
And so we really have to account for that when
80
255160
1880
E quindi dobbiamo davvero tenerne conto quando
04:17
we're making decisions about these.
81
257040
2240
prendiamo decisioni al riguardo.
04:19
So, although a chatbot might sound human,
82
259480
2960
Quindi, sebbene un chatbot possa sembrare umano,
04:22
we really just ask it
83
262440
1280
in realtà gli chiediamo solo
04:23
things to get a reaction. We provoke it.
84
263720
2720
cose per ottenere una reazione. Lo provochiamo.
04:26
And it answers only with words
85
266440
1800
E risponde solo con parole che
04:28
it has learned to use before.
86
268240
2080
ha imparato a usare prima.
04:30
Not because it has come up with a clever answer,
87
270320
2960
Non perché abbia trovato una risposta intelligente,
04:33
but it does sound like a sentient entity. Sentient describes a living  
88
273280
5000
ma suona come un'entità senziente. Sentient descrive un
04:38
thing that experiences feelings. As Professor Bender says we imagine  
89
278280
4880
essere vivente che prova sentimenti. Come dice il professor Bender, immaginiamo
04:43
that when something speaks there is a mind behind it. But sorry Neil,
90
283160
4760
che quando qualcosa parla ci sia una mente dietro. Ma scusa Neil,
04:47
they are not your friend.
91
287920
1280
non sono tuoi amici.
04:49
They're just machines.
92
289200
1160
Sono solo macchine.
04:50
Yes, it's strange then
93
290360
1240
Sì, è strano quindi
04:51
that we sometimes give chatbots names. Alexa, Siri, and earlier
94
291600
4920
che a volte diamo nomi ai chatbot. Alexa, Siri e prima
04:56
I asked you what the name was for their first ever chatbot?
95
296520
3840
ti ho chiesto come si chiamava il loro primo chatbot in assoluto?
05:00
And I guessed it was Parry. Was I right?
96
300360
2760
E ho pensato che fosse Parry. Avevo ragione?
05:03
You guessed wrong, I'm afraid.
97
303120
2000
Hai indovinato male, temo.
05:05
Parry was an early form of chatbot from 1972.
98
305120
3840
Parry era una prima forma di chatbot del 1972.
05:08
But the correct answer was Eliza.
99
308960
2960
Ma la risposta corretta era Eliza.
05:11
It was considered to be the first chatterbot, as it was called then,
100
311920
3960
Era considerato il primo chatterbot, come veniva chiamato allora,
05:15
and was developed by Joseph Weizenbaum at Massachusetts Institute of Technology.
101
315880
5480
ed è stato sviluppato da Joseph Weizenbaum al Massachusetts Institute of Technology.
05:21
Fascinating stuff.
102
321360
1320
Roba affascinante.
05:22
OK, now let's recap some of the vocabulary
103
322680
2480
OK, ora ricapitoliamo parte del vocabolario che
05:25
we highlighted in this programme, starting with sophisticated,
104
325160
4080
abbiamo evidenziato in questo programma, iniziando con sofisticato,
05:29
which can describe technology that is advanced and complex.
105
329240
4120
che può descrivere una tecnologia avanzata e complessa.
05:33
Something that is coherent, is clear carefully considered and sensible.
106
333360
4520
Qualcosa che sia coerente, chiaro, ponderato e sensato.
05:37
Authoritative means respected accurate and important sounding.
107
337880
4600
Autorevole significa rispettato suono accurato e importante.
05:42
When you are on guard
108
342480
1400
Quando sei in guardia
05:43
you must be careful and alert about something.
109
343880
2400
devi stare attento e attento a qualcosa.
05:46
It could be the accuracy of what you see or hear or just being aware
110
346280
4560
Potrebbe essere l'accuratezza di ciò che vedi o senti o semplicemente essere consapevole
05:50
of the dangers around you. To provoke means to do something
111
350840
3560
dei pericoli che ti circondano. Provocare significa fare qualcosa
05:54
that causes a reaction from someone.
112
354400
2480
che provochi una reazione da parte di qualcuno.
05:56
Sentient describes something that experiences feelings.
113
356880
3840
Sentient descrive qualcosa che prova sentimenti.
06:00
So it's something that is living. Once again
114
360720
2680
Quindi è qualcosa che vive. Ancora una volta
06:03
our six minutes are up. Goodbye.
115
363400
2320
i nostri sei minuti sono scaduti. Arrivederci.
06:05
Bye bye for now.
116
365720
1520
Arrivederci per ora.
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7