Talking to machines - 6 Minute English

72,165 views ・ 2018-06-07

BBC Learning English


Fare doppio clic sui sottotitoli in inglese per riprodurre il video. I sottotitoli tradotti sono tradotti automaticamente.

00:07
Rob: Hello and welcome to 6 Minute
0
7880
2340
Rob: Ciao e benvenuto a 6 Minute
00:10
English. I'm Rob.
1
10220
1040
English. sono Roby.
00:11
Dan: And I'm Dan.
2
11260
1460
Dan: E io sono Dan.
00:12
Rob: Hey Dan. What’s the time?
3
12720
2020
Rob: Ciao Dan. Che ora è?
00:14
Dan: Time you got a new watch?
4
14740
2500
Dan: È ora che ti prendi un nuovo orologio?
00:17
Rob: Now I didn’t ask you that just for a
5
17240
2153
Rob: Ora non te l'ho chiesto solo per uno
00:19
joke or a sarcastic comment now did I?
6
19393
2067
scherzo o un commento sarcastico, vero?
00:21
Dan: Well no, but look there’s a clock over
7
21460
2380
Dan: Beh no, ma guarda c'è un orologio
00:23
there, and you are wearing a watch, you
8
23840
1940
laggiù, e indossi un orologio,
00:25
have a smartphone and a computer,
9
25780
2400
hai uno smartphone e un computer, che
00:28
all of which show the time.
10
28180
1660
mostrano tutti l'ora.
00:29
So why are you asking me?
11
29840
1970
Allora perché me lo chiedi?
00:31
Rob: Dan! I was trying to introduce today’s
12
31810
2530
Roby: Dan! Stavo cercando di introdurre l'
00:34
topic which is all about virtual assistants
13
34340
3100
argomento di oggi che riguarda gli assistenti virtuali
00:37
or bots.
14
37440
1020
o i robot.
00:38
You seemed to have forgotten the script.
15
38460
2040
Sembrava che avessi dimenticato il copione.
00:40
Dan: Oh yes, sorry. We’re talking about
16
40500
2820
Dan: Oh sì, scusa. Stiamo parlando di
00:43
software that you talk to and that can talk
17
43320
2680
software con cui parli e che può
00:46
back to you. Like Apple’s Siri, Google’s
18
46000
2840
risponderti. Come Siri di Apple, Assistente di Google
00:48
Assistant, Amazon’s Alexa and
19
48840
2500
, Alexa di Amazon e
00:51
Microsoft’s Cortana.
20
51340
2000
Cortana di Microsoft.
00:53
It might be on your phone or computer or
21
53340
2680
Potrebbe essere sul tuo telefono o computer o
00:56
even a speaker in your house.
22
56020
2420
persino su un altoparlante a casa tua.
00:58
Rob: Now before we hear more about this
23
58440
2374
Rob: Ora, prima di saperne di più su questo
01:00
topic, here is today’s quiz question:
24
60814
2445
argomento, ecco la domanda del quiz di oggi:
01:03
Do you know when was the first computer
25
63260
3080
sai quando è stato lanciato il primo computer
01:06
which could recognise speech, launched?
26
66340
2560
in grado di riconoscere il parlato?
01:08
Was it in a) 1951 b) 1961, or c) 1971.
27
68900
6240
Era in a) 1951 b) 1961, o c) 1971.
01:15
Dan: I have found my script, so I’ve seen
28
75140
3080
Dan: Ho trovato la mia sceneggiatura, quindi ho visto
01:18
the answer but I have to say I was
29
78220
2720
la risposta ma devo dire che sono rimasto
01:20
surprised.
30
80940
940
sorpreso.
01:21
Rob: Don't tell anybody Dan, OK. We’ll give
31
81940
1460
Rob: Non dirlo a nessuno Dan, va bene. Daremo
01:23
the answer for the listeners at the end of
32
83400
2380
la risposta per gli ascoltatori alla fine
01:25
the programme. We’re going to hear now
33
85780
2600
del programma. Ascolteremo ora
01:28
from Tom Hewitson, who is a
34
88380
2120
Tom Hewitson, che è un
01:30
conversation designer, working in the field
35
90500
2400
designer di conversazioni, che lavora nel campo
01:32
of virtual assistants, talking on BBC Radio
36
92900
3660
degli assistenti virtuali, che parla al
01:36
4's Word of Mouth programme.
37
96560
2000
programma Word of Mouth di BBC Radio 4.
01:38
He talks about the whole idea of virtual
38
98560
2780
Parla dell'intera idea degli
01:41
assistants and how they are changing the
39
101340
2460
assistenti virtuali e di come stanno cambiando il
01:43
way we interact with technology.
40
103800
2396
modo in cui interagiamo con la tecnologia.
01:46
How does he describe our existing
41
106200
1980
Come descrive il nostro
01:48
relationship with computers?
42
108180
2480
rapporto esistente con i computer?
01:50
Tom Hewitson: It changes the way that
43
110660
2160
Tom Hewitson: Cambia il modo in cui
01:52
we think about computers.
44
112832
1987
pensiamo ai computer.
01:54
To date we’ve thought of them largely as
45
114819
2036
Fino ad oggi li abbiamo considerati principalmente come
01:56
tools. They’re just an advanced version
46
116855
1985
strumenti. Sono solo una versione avanzata
01:58
of a calculator. They’re something you
47
118840
2541
di una calcolatrice. Sono qualcosa che
02:01
kind of use to get a specific thing done,
48
121381
2560
usi per fare una cosa specifica,
02:03
whereas this is kind of changing them
49
123941
2268
mentre questo li trasforma
02:06
more into like an agent. They’re an active
50
126209
1851
più in un agente. Partecipano attivamente
02:08
participant in the kind of interaction and in
51
128060
3280
al tipo di interazione e
02:11
guiding you to make the right decision.
52
131340
2660
ti guidano a prendere la decisione giusta.
02:14
Rob: How did he describe our existing
53
134000
1956
Rob: Come ha descritto
02:15
relationship with computers then?
54
135956
1634
allora il nostro rapporto esistente con i computer?
02:17
Dan: He said that to date, which is an
55
137590
1836
Dan: Ha detto che fino ad oggi, che è
02:19
expression which means 'up until this
56
139426
1767
un'espressione che significa 'fino a questo
02:21
point in time', we have thought of them
57
141193
1892
punto nel tempo', li abbiamo considerati
02:23
as advanced calculators.
58
143085
1555
come calcolatori avanzati.
02:24
Rob: Yes, that’s right, we use them as a
59
144640
2220
Rob: Sì, è vero, li usiamo come
02:26
tool to get things done. But he says that
60
146860
2840
strumento per fare le cose. Ma dice che la
02:29
modern technology is turning them into
61
149700
2280
tecnologia moderna li sta trasformando in
02:31
an agent.
62
151980
1350
agenti.
02:33
This doesn’t mean a secret agent, like
63
153330
1530
Questo non significa un agente segreto, come
02:34
James Bond! In this sense an agent is
64
154860
3120
James Bond! In questo senso un agente è
02:37
something that has agency and that
65
157980
2380
qualcosa che ha un'agenzia e ciò
02:40
means it has the ability to act individually
66
160360
2500
significa che ha la capacità di agire individualmente
02:42
and make its own decisions.
67
162860
2060
e prendere le proprie decisioni.
02:44
Dan: I’m not sure I’d like my phone to have
68
164920
1820
Dan: Non sono sicuro che mi piacerebbe che il mio telefono avesse
02:46
agency. It probably wouldn’t like being
69
166750
2399
un'agenzia. Probabilmente non mi piacerebbe stare
02:49
in my pocket all day.
70
169149
1291
in tasca tutto il giorno.
02:50
Rob: Who would Dan? But I’m not sure
71
170440
2160
Rob: Chi lo farebbe Dan? Ma non sono sicuro che
02:52
Hewitson is suggesting our devices would
72
172600
2360
Hewitson stia suggerendo che i nostri dispositivi
02:54
become that clever but he did say they
73
174960
2620
diventerebbero così intelligenti, ma ha detto che
02:57
could become more active in our lives.
74
177580
2700
potrebbero diventare più attivi nelle nostre vite.
03:00
Dan: Maybe. I imagine, for example,
75
180290
3041
Dan: Forse. Immagino, ad esempio,
03:03
telling us if we are spending too much
76
183340
2080
dirci se passiamo troppo
03:05
time in fast food restaurants?
77
185420
1780
tempo nei fast food?
03:07
Rob: Maybe in your case Dan. Mine would
78
187209
2150
Rob: Forse nel tuo caso Dan. Il mio mi
03:09
be telling me I spend too much time in the gym!
79
189359
2992
direbbe che passo troppo tempo in palestra!
03:12
Hewitson goes on to explain how
80
192351
2621
Hewitson prosegue spiegando come si svilupperà
03:14
the way we will talk to our virtual
81
194972
2034
il modo in cui parleremo con i nostri
03:17
assistants will develop.
82
197006
1418
assistenti virtuali.
03:18
What does he say we don’t need to do?
83
198424
2916
Cosa dice che non dobbiamo fare?
03:21
Tom Hewitson: We will develop our own
84
201340
1500
Tom Hewitson: Svilupperemo il nostro
03:22
kind of vernacular for speaking with
85
202840
2060
tipo di vernacolo per parlare con
03:24
machines that will be subtly
86
204900
1200
le macchine che sarà leggermente
03:26
different from how we speak to other
87
206100
1860
diverso da come parliamo con altre
03:27
people because as you rightly point out
88
207960
2220
persone perché, come giustamente fai notare,
03:30
you don’t need to make the machine like
89
210180
1580
non è necessario rendere la macchina come se
03:31
you don’t need to kind of make random
90
211760
2900
non fosse necessario gentile di fare
03:34
chit-chat that’s just filling the time. It can
91
214660
2593
chiacchiere casuali che riempiono solo il tempo. Può
03:37
be much more brusque and to the point.
92
217253
2177
essere molto più brusco e diretto.
03:39
Dan: A lot of what we say in human
93
219430
2177
Dan: Molto di ciò che diciamo nella
03:41
communication is to do with our
94
221607
1653
comunicazione umana ha a che fare con la nostra
03:43
relationship with the person we’re talking to.
95
223260
2330
relazione con la persona con cui stiamo parlando.
03:45
Rob: We say things and talk about things
96
225590
2370
Rob: Diciamo cose e parliamo di cose
03:47
that are maybe not directly relevant to our
97
227960
1800
che forse non sono direttamente rilevanti per il nostro
03:49
point. With a digital virtual assistant, we
98
229760
3680
punto. Con un assistente virtuale digitale,
03:53
don’t need to do that, so we don’t need to
99
233440
2340
non abbiamo bisogno di farlo, quindi non abbiamo bisogno di
03:55
make the machine like us.
100
235780
1599
rendere la macchina come noi.
03:57
Dan: Hewitson said that we will develop
101
237380
2140
Dan: Hewitson ha detto che svilupperemo il
03:59
our own vernacular, this is a general word
102
239520
2480
nostro vernacolo, questa è una parola generica
04:02
for a native language. This vernacular will
103
242000
2900
per una lingua madre. Questo vernacolo
04:04
be a little bit different from our everyday
104
244900
2700
sarà un po' diverso dal nostro
04:07
vernacular because, as we said, we don’t
105
247600
2500
vernacolo quotidiano perché, come abbiamo detto, non abbiamo
04:10
need to maintain a social relationship
106
250100
2080
bisogno di mantenere una relazione sociale
04:12
with the artificial assistant.
107
252180
1840
con l'assistente artificiale.
04:14
Rob: This means that we won’t need
108
254020
1360
Rob: Questo significa che non avremo bisogno di
04:15
chit-chat. Chit-chat is another expression
109
255380
2640
chiacchiere. Chit-chat è un'altra espressione
04:18
for small talk: conversation topics which
110
258020
2680
per chiacchiere: argomenti di conversazione che
04:20
aren’t important but are part of everyday
111
260700
2718
non sono importanti ma fanno parte della
04:23
social communication, like talking about
112
263418
2355
comunicazione sociale quotidiana, come parlare
04:25
the weather.
113
265773
707
del tempo.
04:26
Dan: And because we don’t need to be
114
266480
1520
Dan: E poiché non abbiamo bisogno di essere
04:28
friends with our virtual assistants, we can
115
268000
2180
amici dei nostri assistenti virtuali, possiamo
04:30
be brusque and to the point. Both of these
116
270180
2720
essere bruschi e andare al punto. Entrambi
04:32
mean being very direct and not very
117
272900
2260
significano essere molto diretti e poco
04:35
polite.
118
275160
1050
educati.
04:36
Rob: Well Dan, I don’t mean to be brusque but
119
276210
2010
Rob: Beh Dan, non voglio essere brusco ma
04:38
it is time for the answer to this week’s
120
278220
2236
è ora di rispondere alla domanda del quiz di questa settimana
04:40
quiz question. Earlier I asked when was
121
280460
2460
. In precedenza ho chiesto quando è stato lanciato
04:42
the first computer which could recognise
122
282920
1580
il primo computer in grado di riconoscere il
04:44
speech, launched. The options were:
123
284500
2560
parlato. Le opzioni erano:
04:47
a) 1951, b) 1961, or c) 1971.
124
287060
5260
a) 1951, b) 1961, o c) 1971. Beh,
04:52
Well actually the first computer which
125
292320
2060
in realtà il primo computer in
04:54
could recognise speech was launched in 1961.
126
294380
3700
grado di riconoscere il parlato è stato lanciato nel 1961.
04:58
Dan: Yep! It was called the IBM Shoebox and
127
298080
3020
Dan: Sì! Si chiamava IBM Shoebox e
05:01
could recognise 16 words and the
128
301100
2580
poteva riconoscere 16 parole e i
05:03
numbers zero to nine. That’s nearly as
129
303680
2878
numeri da zero a nove. Sono quasi
05:06
many as you!
130
306558
1282
quanti te!
05:07
Rob: Cheeky! Right enough of this
131
307840
2431
Rob: Sfacciato! Abbastanza giusto di questa
05:10
chat-chat. Let’s recap today’s vocabulary.
132
310271
2648
chat-chat. Ricapitoliamo il vocabolario di oggi.
05:12
Dan: Well chit-chat was one of today’s
133
312919
2288
Dan: Beh, le chiacchiere erano una delle espressioni di oggi
05:15
expressions. Meaning 'small talk', but we
134
315207
2273
. Significa "chiacchiere", ma
05:17
also had the expression to date. That
135
317480
2779
fino ad oggi avevamo anche l'espressione. Ciò
05:20
means ‘up until this moment in time’.
136
320259
2291
significa "fino a questo momento nel tempo".
05:22
Rob: Then we had the noun agent. This
137
322550
2490
Rob: Poi abbiamo avuto l'agente nominale. Questo
05:25
refers to something that has agency. And
138
325040
2420
si riferisce a qualcosa che ha un'agenzia. E
05:27
that is the ability to think, make decisions
139
327520
3080
questa è la capacità di pensare, prendere decisioni
05:30
and act independently.
140
330600
1640
e agire in modo indipendente.
05:32
Dan: The next word is vernacular, another
141
332340
1420
Dan: La parola successiva è vernacolare, un'altra
05:33
word for language, particularly when
142
333760
2740
parola per lingua, in particolare quando si
05:36
talking about a native language.
143
336500
1690
parla di una lingua madre.
05:38
Rob: And finally there was brusque
144
338190
2365
Rob: E infine c'era brusque che
05:40
meaning 'direct and not polite' and to the
145
340560
2680
significa 'diretto e non educato' e al
05:43
point, which also means 'direct and without
146
343240
2880
punto, che significa anche 'diretto e senza
05:46
unnecessary information'.
147
346120
1280
informazioni non necessarie'.
05:47
Dan: Hey Rob
148
347400
1040
Dan: Ehi Rob
05:48
Rob: Yes, what can I do for you Dan?
149
348440
2270
Rob: Sì, cosa posso fare per te Dan?
05:50
Dan: End the programme.
150
350710
1590
Dan: Termina il programma.
05:52
Rob: Certainly Dan. Well that’s all from us
151
352300
2500
Rob: Certamente Dan. Bene, questo è tutto da noi
05:54
today, be sure to check us out on all the
152
354800
2320
oggi, assicurati di darci un'occhiata su tutti i
05:57
usual places: Facebook, Twitter, Instagram
153
357120
2632
soliti posti: Facebook, Twitter, Instagram
05:59
and YouTube, and of course please don't
154
359760
2180
e YouTube, e ovviamente non
06:01
forget our website
155
361940
1100
dimenticare il nostro sito web
06:03
bbclearningenglish.co m. Bye for now!
156
363040
2380
bbclearningenglish.co m. Arrivederci!
06:05
Dan: Bye!
157
365420
840
Dan: Ciao!
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7