Can AI have a mind of its own? ⏲️ 6 Minute English

251,550 views ・ 2023-01-26

BBC Learning English


Fare doppio clic sui sottotitoli in inglese per riprodurre il video. I sottotitoli tradotti sono tradotti automaticamente.

00:08
Hello. This is 6 Minute English from
0
8520
2220
Ciao. Questo è l'inglese di 6 minuti dalla
00:10
BBC Learning English. I’m Sam.
1
10740
1680
BBC Learning English. Sono Sam.
00:12
And I’m Neil.
2
12420
840
E io sono Neil.
00:13
In the autumn of 2021, something
3
13260
2520
Nell'autunno del 2021
00:15
strange happened at the Google
4
15780
1920
è successo qualcosa di strano presso la
00:17
headquarters in California’s Silicon
5
17700
2460
sede di Google nella Silicon Valley in California
00:20
Valley. A software engineer called,
6
20160
2100
. Un ingegnere del software chiamato
00:22
Blake Lemoine, was working on the
7
22260
2460
Blake Lemoine stava lavorando al
00:24
artificial intelligence project, ‘Language
8
24720
2340
progetto di intelligenza artificiale, "Language
00:27
Models for Dialogue Applications’, or
9
27060
2700
Models for Dialogue Applications", o
00:29
LaMDA for short. LaMDA is a
10
29760
2940
LaMDA in breve. LaMDA è un
00:32
chatbot – a computer programme
11
32700
1860
chatbot, un programma per computer
00:34
designed to have conversations with
12
34560
2040
progettato per conversare con gli
00:36
humans over the internet.
13
36600
1080
esseri umani su Internet.
00:37
After months talking with LaMDA
14
37680
2820
Dopo aver parlato per mesi con LaMDA
00:40
on topics ranging from movies to
15
40500
2280
su argomenti che spaziavano dai film
00:42
the meaning of life, Blake came to
16
42780
2220
al senso della vita, Blake è giunto a
00:45
a surprising conclusion: the chatbot
17
45000
2700
una conclusione sorprendente: il chatbot
00:47
was an intelligent person with wishes
18
47700
2640
era una persona intelligente con desideri
00:50
and rights that should be respected.
19
50340
2160
e diritti che dovevano essere rispettati.
00:52
For Blake, LaMDA was a Google
20
52500
2640
Per Blake, LaMDA era un
00:55
employee, not a machine.
21
55140
1380
dipendente di Google, non una macchina. Lo
00:56
He also called it his ‘friend’.
22
56520
2160
chiamava anche il suo "amico".
00:58
Google quickly reassigned Blake from
23
58680
2580
Google ha rapidamente riassegnato Blake
01:01
the project, announcing that his ideas
24
61260
1860
dal progetto, annunciando che le sue idee
01:03
were not supported by the evidence.
25
63120
2220
non erano supportate da prove.
01:05
But what exactly was going on?
26
65340
2700
Ma cosa stava succedendo esattamente?
01:08
In this programme, we’ll be
27
68040
1860
In questo programma
01:09
discussing whether artificial intelligence
28
69900
2160
discuteremo se l'intelligenza artificiale
01:12
is capable of consciousness. We’ll hear
29
72060
3000
è capace di coscienza. Sentiremo
01:15
from one expert who thinks AI is not as
30
75060
3000
un esperto che pensa che l'IA non sia così
01:18
intelligent as we sometimes think,
31
78060
1560
intelligente come a volte pensiamo
01:19
and as usual, we’ll be learning some
32
79620
2460
e, come al solito, impareremo
01:22
new vocabulary as well.
33
82080
1320
anche un nuovo vocabolario.
01:23
But before that, I have a question for
34
83400
2100
Ma prima, ho una domanda per
01:25
you, Neil. What happened to Blake Lemoine
35
85500
2280
te, Neil. Quello che è successo a Blake Lemoine
01:27
is strangely similar to the 2013 Hollywood
36
87780
2940
è stranamente simile al film di Hollywood del 2013
01:30
movie, Her, starring Joaquin Phoenix as
37
90720
3420
, Her, con Joaquin Phoenix nei panni di
01:34
a lonely writer who talks with his
38
94140
1860
uno scrittore solitario che parla con il suo
01:36
computer, voiced by Scarlett Johansson.
39
96000
2280
computer, doppiato da Scarlett Johansson.
01:38
But what happens at the end
40
98280
1860
Ma cosa succede alla fine
01:40
of the movie? Is it:
41
100140
1380
del film? È:
01:41
a) the computer comes to life?
42
101520
1860
a) il computer prende vita?
01:43
b) the computer dreams about the writer? or,
43
103380
3360
b) il computer sogna lo scrittore? oppure
01:46
c) the writer falls in love with the computer?
44
106740
2040
c) lo scrittore si innamora del computer?
01:48
... c) the writer falls in love with the computer.
45
108780
3420
... c) lo scrittore si innamora del computer.
01:52
OK, Neil, I’ll reveal the answer at the end
46
112200
2700
OK, Neil, rivelerò la risposta alla fine
01:54
of the programme. Although Hollywood is
47
114900
2460
del programma. Sebbene Hollywood sia
01:57
full of movies about robots coming to life,
48
117360
2340
piena di film sui robot che prendono vita,
01:59
Emily Bender, a professor of linguistics and
49
119700
3240
Emily Bender, professoressa di linguistica e
02:02
computing at the University of Washington,
50
122940
2100
informatica all'Università di Washington,
02:05
thinks AI isn’t that smart. She thinks the
51
125040
4440
pensa che l'intelligenza artificiale non sia così intelligente. Pensa che le
02:09
words we use to talk about technology,
52
129480
1800
parole che usiamo per parlare di tecnologia,
02:11
phrases like ‘machine learning’, give a
53
131280
3300
frasi come "apprendimento automatico", diano una
02:14
false impression about what
54
134580
1620
falsa impressione su ciò che
02:16
computers can and can’t do.
55
136200
1740
i computer possono e non possono fare.
02:17
Here is Professor Bender discussing
56
137940
2400
Ecco il professor Bender che discute
02:20
another misleading phrase, ‘speech
57
140340
2340
un'altra frase fuorviante, "
02:22
recognition’, with BBC World Service
58
142680
2460
riconoscimento vocale", con il programma della BBC World Service
02:25
programme, The Inquiry:
59
145140
1440
, The Inquiry:
02:27
If you talk about ‘automatic speech
60
147360
2220
Se parli di "riconoscimento vocale automatico
02:29
recognition’, the term ‘recognition’
61
149580
1920
", il termine "riconoscimento"
02:31
suggests that there's something
62
151500
2100
suggerisce che sta
02:33
cognitive going on, where I think a
63
153600
2160
succedendo qualcosa di cognitivo, dove penso che un
02:35
better term would be automatic transcription.
64
155760
2100
termine migliore sarebbe trascrizione automatica.
02:37
That just describes the input-output
65
157860
1980
Questo descrive solo la relazione input-output
02:39
relation, and not any theory or wishful
66
159840
3660
, e non alcuna teoria o pio
02:43
thinking about what the computer is
67
163500
2280
desiderio su ciò che il computer sta
02:45
doing to be able to achieve that.
68
165780
1440
facendo per essere in grado di raggiungere questo obiettivo.
02:47
Using words like ‘recognition’ in relation
69
167220
3360
L'uso di parole come "riconoscimento" in relazione
02:50
to computers gives the idea that
70
170580
2100
ai computer dà l'idea che
02:52
something cognitive is happening – something
71
172680
2760
stia accadendo qualcosa di cognitivo, qualcosa
02:55
related to the mental processes of
72
175440
2340
relativo ai processi mentali di
02:57
thinking, knowing, learning and understanding.
73
177780
2760
pensare, conoscere, apprendere e comprendere.
03:00
But thinking and knowing are human,
74
180540
2700
Ma pensare e conoscere sono attività umane,
03:03
not machine, activities. Professor Benders
75
183240
3060
non meccaniche. Il professor Benders
03:06
says that talking about them in connection
76
186300
2040
afferma che parlarne in relazione
03:08
with computers is wishful thinking -
77
188340
3570
ai computer è un pio desiderio,
03:11
something which is unlikely to happen.
78
191910
2310
qualcosa che è improbabile che accada.
03:14
The problem with using words in this
79
194220
2220
Il problema con l'uso delle parole in questo
03:16
way is that it reinforces what
80
196440
2100
modo è che rafforza ciò che il
03:18
Professor Bender calls, technical
81
198540
2160
professor Bender chiama
03:20
bias – the assumption that the computer
82
200700
2520
pregiudizio tecnico: il presupposto che il computer
03:23
is always right. When we encounter
83
203220
2520
abbia sempre ragione. Quando incontriamo un
03:25
language that sounds natural, but is
84
205740
1680
linguaggio che sembra naturale, ma
03:27
coming from a computer, humans
85
207420
2280
proviene da un computer, gli umani
03:29
can’t help but imagine a mind behind
86
209700
2460
non possono fare a meno di immaginare una mente dietro
03:32
the language, even when there isn’t one.
87
212160
2220
il linguaggio, anche quando non ce n'è una.
03:34
In other words, we anthropomorphise
88
214380
2160
In altre parole, antropomorfizziamo i
03:36
computers – we treat them as if they
89
216540
2520
computer, li trattiamo come se
03:39
were human. Here’s Professor Bender
90
219060
2220
fossero umani. Ecco di nuovo il professor Bender
03:41
again, discussing this idea with
91
221280
2220
, che discute di questa idea con
03:43
Charmaine Cozier, presenter of BBC
92
223500
2700
Charmaine Cozier, presentatrice di BBC
03:46
World Service’s, the Inquiry.
93
226200
1620
World Service, the Inquiry.
03:48
So ‘ism’ means system, ‘anthro’ or ‘anthropo’
94
228420
3660
Quindi 'ism' significa sistema, 'anthro' o 'anthropo'
03:52
means human, and ‘morph’ means shape...
95
232080
3000
significa umano, e 'morph' significa forma...
03:55
And so this is a system that puts the
96
235080
3000
E quindi questo è un sistema che mette la
03:58
shape of a human on something, and
97
238080
2160
forma di un essere umano su qualcosa, e
04:00
in this case the something is a computer.
98
240240
1260
in questo caso il qualcosa è un computer.
04:01
We anthropomorphise animals all the time,
99
241500
3180
Antropomorfizziamo animali tutto il tempo,
04:04
but we also anthropomorphise action figures,
100
244680
3060
ma antroporizziamo anche action figure,
04:07
or dolls, or companies when we talk about
101
247740
2880
o bambole, o aziende quando parliamo di
04:10
companies having intentions and so on.
102
250620
2040
aziende che hanno intenzioni e così via.
04:12
We very much are in the habit of seeing
103
252660
2880
Abbiamo l'abitudine di vederci
04:15
ourselves in the world around us.
104
255540
1620
nel mondo che ci circonda.
04:17
And while we’re busy seeing ourselves
105
257160
2220
E mentre siamo impegnati a vedere noi stessi
04:19
by assigning human traits to things that
106
259380
2100
assegnando tratti umani a cose che
04:21
are not, we risk being blindsided.
107
261480
2520
non lo sono, rischiamo di essere colti di sorpresa.
04:24
The more fluent that text is, the more
108
264000
2400
Quanto più fluido è il testo, tanto più
04:26
different topics it can converse on, the
109
266400
2700
diversi argomenti possono conversare, tanto
04:29
more chances there are to get taken in.
110
269100
1920
maggiori sono le possibilità di essere coinvolti.
04:31
If we treat computers as if they could think,
111
271860
2760
Se trattiamo i computer come se potessero pensare,
04:34
we might get blindsided, or
112
274620
2520
potremmo rimanere accecati o
04:37
unpleasantly surprised. Artificial intelligence
113
277140
3180
spiacevolmente sorpresi. L'intelligenza artificiale
04:40
works by finding patterns in massive
114
280320
2220
funziona trovando schemi in enormi
04:42
amounts of data, so it can seem like
115
282540
2520
quantità di dati, quindi può sembrare che
04:45
we’re talking with a human, instead
116
285060
1860
stiamo parlando con un essere umano, invece
04:46
of a machine doing data analysis.
117
286920
2220
che con una macchina che esegue l'analisi dei dati.
04:49
As a result, we get taken in – we’re tricked
118
289140
4020
Di conseguenza, veniamo ingannati: siamo ingannati
04:53
or deceived into thinking we’re dealing
119
293160
1920
o ingannati nel pensare che abbiamo a che fare
04:55
with a human, or with something intelligent.
120
295080
3003
con un essere umano o con qualcosa di intelligente. Una
04:58
Powerful AI can make machines appear conscious,
121
298083
3318
potente intelligenza artificiale può far sembrare le macchine coscienti,
05:01
but even tech giants like Google are years
122
301401
2945
ma anche i giganti della tecnologia come Google sono
05:04
away from building computers that can
123
304346
2407
lontani anni dalla costruzione di computer in grado di
05:06
dream or fall in love. Speaking of which,
124
306753
2355
sognare o innamorarsi. A proposito,
05:09
Sam, what was the answer to your question?
125
309108
2671
Sam, qual è stata la risposta alla tua domanda? Ho
05:11
I asked what happened in the 2013 movie, Her.
126
311779
2752
chiesto cosa è successo nel film del 2013, Her.
05:14
Neil thought that the main character
127
314531
1900
Neil pensava che il personaggio principale
05:16
falls in love with his computer, which
128
316431
2248
si innamorasse del suo computer, che
05:18
was the correct answer!
129
318679
1361
era la risposta corretta!
05:20
OK. Right, it’s time to recap the vocabulary
130
320880
2640
OK. Bene, è tempo di ricapitolare il vocabolario che abbiamo
05:23
we’ve learned from this programme about AI,
131
323520
2340
imparato da questo programma sull'intelligenza artificiale,
05:25
including chatbots - computer programmes
132
325860
3180
inclusi i chatbot, programmi per computer
05:29
designed to interact with
133
329040
1380
progettati per interagire con gli
05:30
humans over the internet.
134
330420
1560
esseri umani su Internet.
05:31
The adjective cognitive describes
135
331980
2640
L'aggettivo cognitivo descrive
05:34
anything connected with the mental
136
334620
1860
tutto ciò che è connesso con i
05:36
processes of knowing,
137
336480
1320
processi mentali di conoscenza,
05:37
learning and understanding.
138
337800
1380
apprendimento e comprensione. Il
05:39
Wishful thinking means thinking that
139
339180
2640
pio desiderio significa pensare che
05:41
something which is very unlikely to happen
140
341820
2100
qualcosa che è molto improbabile che accada
05:43
might happen one day in the future.
141
343920
2040
potrebbe accadere un giorno nel futuro.
05:45
To anthropomorphise an object means
142
345960
2400
Antropomorfizzare un oggetto significa
05:48
to treat it as if it were human,
143
348360
1500
trattarlo come se fosse umano,
05:49
even though it’s not.
144
349860
1200
anche se non lo è.
05:51
When you’re blindsided, you’re
145
351060
2520
Quando sei accecato, sei
05:53
surprised in a negative way.
146
353580
1500
sorpreso in modo negativo.
05:55
And finally, to get taken in by someone means
147
355080
2880
E infine, essere ingannati da qualcuno significa
05:57
to be deceived or tricked by them.
148
357960
1860
essere ingannati o ingannati da loro. Il
05:59
My computer tells me that our six minutes
149
359820
2640
mio computer mi dice che i nostri sei minuti
06:02
are up! Join us again soon, for now
150
362460
2580
sono scaduti! Unisciti a noi di nuovo presto, per ora
06:05
it’s goodbye from us.
151
365040
1140
è un arrivederci da parte nostra.
06:06
Bye!
152
366180
500
Ciao!
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7