Robot therapists - 6 Minute English

132,720 views ・ 2018-03-08

BBC Learning English


Fare doppio clic sui sottotitoli in inglese per riprodurre il video. I sottotitoli tradotti sono tradotti automaticamente.

00:07
Catherine: Welcome to 6 Minute English,
0
7540
1620
Catherine: Benvenuto in 6 Minute English,
00:09
the programme where we explore an interesting
1
9360
2220
il programma in cui esploriamo un
00:11
topic and bring you six items of useful vocabulary.
2
11700
3280
argomento interessante e ti offriamo sei voci di vocabolario utile.
00:14
I'm Catherine.
3
14980
1140
sono Caterina.
00:16
Rob: And I'm Rob.
4
16240
880
Rob: E io sono Rob.
00:17
Catherine: I have a question for you, Rob:
5
17360
1640
Catherine: Ho una domanda per te, Rob:
00:19
how would you feel about having therapy
6
19340
2940
come ti sentiresti a ricevere la terapia
00:22
from a robot?
7
22500
1100
da un robot?
00:23
Rob: I'm not too sure about that -
8
23940
1480
Rob: Non ne sono molto sicuro -
00:25
you'll need to tell me more! But first things first,
9
25620
2520
dovrai dirmi di più! Ma prima di tutto,
00:28
the word therapy refers to a kind of treatment that helps
10
28380
3760
la parola terapia si riferisce a un tipo di trattamento che aiuta
00:32
someone feel better - including
11
32140
1720
qualcuno a sentirsi meglio, incluso
00:34
treatment for mental health issues.
12
34000
1660
il trattamento per problemi di salute mentale.
00:35
Someone who delivers therapy is called a therapist.
13
35960
2800
Qualcuno che eroga la terapia è chiamato terapeuta.
00:39
Catherine: We'll find out more about this robot therapist
14
39100
2620
Catherine: Scopriremo di più su questo robot terapista
00:41
in just a moment, but first, Rob,
15
41720
2480
tra un momento, ma prima, Rob,
00:44
I've got a question for you about the scale
16
44420
2640
ho una domanda per te sulla portata
00:47
of mental health issues globally.
17
47060
2320
dei problemi di salute mentale a livello globale.
00:49
So roughly how many people do you think experience
18
49620
4120
Quindi, approssimativamente, quante persone pensi che sperimentino
00:53
mental health issues at some point during
19
53740
2440
problemi di salute mentale ad un certo punto durante la
00:56
their lifetime? Is it... a) One in ten people,
20
56340
4600
loro vita? È... a) Una persona su dieci,
01:00
b) One in four or c) One in three
21
60940
4200
b) Una su quattro o c) Una su tre
01:05
Rob: I'll go for one in four,
22
65340
1180
Rob: Io sceglierei una persona su quattro,
01:06
but I know whichever answer is right -
23
66520
2300
ma so che qualunque risposta è giusta,
01:08
it's a big issue.
24
68820
1000
è un grosso problema.
01:10
How might a robot therapist help?
25
70100
1820
In che modo un robot terapeuta potrebbe aiutare?
01:11
Catherine: We're not talking about a robot
26
71930
1790
Catherine: Non stiamo parlando di un robot
01:13
in the Star Wars sense - so there's no flashing
27
73720
3020
nel senso di Star Wars, quindi non ci sono
01:16
lights and mechanical arms, Rob! It's actually an app
28
76820
3440
luci lampeggianti e braccia meccaniche, Rob! In realtà è un'app
01:20
in your smartphone that talks to you
29
80260
2380
nel tuo smartphone che ti parla
01:23
- and it's called Woebot.
30
83080
2540
e si chiama Woebot.
01:25
Rob: So - it has a sense of humour.
31
85800
1920
Rob: Quindi - ha senso dell'umorismo.
01:28
Woe means 'sadness'; so this is a 'woe' bot,
32
88060
3400
Guai significa "tristezza"; quindi questo è un bot "guai",
01:31
not a robot.
33
91460
1220
non un robot.
01:33
Catherine: And it was developed by psychologist
34
93080
2140
Catherine: Ed è stato sviluppato dalla psicologa
01:35
Dr Alison Darcy from Stanford University
35
95440
3080
dott.ssa Alison Darcy della Stanford University
01:38
in the US. Here she is talking to the BBC radio
36
98780
3300
negli Stati Uniti. Qui sta parlando al programma radiofonico della BBC
01:42
programme All in the Mind.
37
102080
1640
All in the Mind.
01:44
Dr Alison Darcy: Well, after you start an
38
104100
2000
Dott.ssa Alison Darcy: Beh, dopo aver iniziato una
01:46
initial conversation with the Woebot,
39
106260
1160
conversazione iniziale con il Woebot,
01:47
and he'll take you through sort of what he can do
40
107420
1540
e lui ti illustrerà una specie di cosa può fare
01:48
and what he can't do, he'll just essentially
41
108960
1820
e cosa non può fare, essenzialmente
01:50
check in with you every day and just give you
42
110780
2200
ti contatterà ogni giorno e solo darti
01:52
a sort of figurative tap on the shoulder
43
112980
1520
una sorta di colpetto figurato sulla spalla
01:54
and say: "Hey Claudia, how are you doing?
44
114740
2380
e dirti: "Ehi Claudia, come stai?
01:57
What's going on in your day? How do you feel?"
45
117120
1580
Che succede nella tua giornata? Come ti senti?"
01:58
So if you say, like "I'm really, really stressed out",
46
118820
2440
Quindi, se dici "Sono davvero, davvero stressato",
02:01
Woebot might offer to help
47
121600
2340
Woebot potrebbe offrirti di aiutarti a
02:04
talk you through something.
48
124060
1160
parlare di qualcosa.
02:06
Catherine: Woebot checks in with you every day
49
126220
2260
Catherine: Woebot fa il check-in con te ogni giorno
02:08
and asks how you are.
50
128660
1600
e ti chiede come stai.
02:10
Rob: So here, to check in with someone
51
130500
1840
Rob: Quindi qui, fare il check-in con qualcuno
02:12
doesn't mean to register at a hotel with that person!
52
132620
2580
non significa registrarsi in un hotel con quella persona!
02:15
It's an informal way of saying you talk to someone
53
135520
2560
È un modo informale per dire che parli con qualcuno
02:18
in order to report or find out information.
54
138120
2460
per riferire o scoprire informazioni.
02:20
Catherine: And this usage is more common in the US.
55
140820
2940
Catherine: E questo uso è più comune negli Stati Uniti.
02:23
So for example: "I can't meet you today,
56
143760
2420
Quindi, ad esempio: "Non posso incontrarti oggi,
02:26
Rob, but I'll check in with you tomorrow
57
146260
2060
Rob, ma verrò a trovarti domani
02:28
to see how the project is getting on."
58
148320
1640
per vedere come sta andando il progetto".
02:30
Rob: So, this robot checks in with you every day.
59
150200
3040
Rob: Quindi, questo robot ti controlla ogni giorno.
02:33
It tracks your mood and talks to you
60
153240
2000
Tiene traccia del tuo umore e ti parla
02:35
about your emotions, using a technique
61
155300
2000
delle tue emozioni, usando una tecnica
02:37
called cognitive behavioural therapy.
62
157600
2300
chiamata terapia cognitivo comportamentale.
02:40
Catherine: Cognitive behavioural therapy
63
160100
2300
Catherine: La terapia cognitivo comportamentale
02:42
is a common therapeutic technique
64
162500
2120
è una tecnica terapeutica comune
02:44
that helps people deal with problems
65
164780
2000
che aiuta le persone ad affrontare i problemi
02:46
by changing the way they think.
66
166960
2000
cambiando il modo in cui pensano.
02:49
Rob: That all sounds great,
67
169140
1040
Rob: Sembra tutto fantastico,
02:50
but does Woebot actually work?
68
170320
1940
ma Woebot funziona davvero?
02:52
Catherine: They've done trials which show that
69
172540
1820
Catherine: Hanno condotto prove che dimostrano che
02:54
it can be more effective than simply reading
70
174360
2460
può essere più efficace della semplice lettura di
02:56
information about mental health.
71
176920
1800
informazioni sulla salute mentale.
02:58
But they haven't compared Woebot to a real
72
178720
3240
Ma non hanno paragonato Woebot a un vero
03:02
therapist due to ethical concerns.
73
182160
2660
terapista a causa di preoccupazioni etiche.
03:05
Rob: Yes, it could be unethical to deny
74
185040
2180
Rob: Sì, potrebbe non essere etico negare a
03:07
a real patient access to a human therapist
75
187420
2300
un vero paziente l'accesso a un terapista umano
03:09
for the sake of a trial.
76
189720
2000
per il bene di un processo.
03:11
Ethical basically means morally right.
77
191740
2500
Etico significa fondamentalmente moralmente giusto.
03:14
Catherine: And another concern is privacy.
78
194440
2360
Catherine: E un'altra preoccupazione è la privacy.
03:17
People who use apps like this are not protected
79
197060
3020
Le persone che usano app come questa non sono protette
03:20
by strong privacy laws.
80
200320
1720
da rigide leggi sulla privacy.
03:22
Rob: Despite these fears, digital therapy
81
202240
2180
Rob: Nonostante questi timori, la terapia digitale
03:24
is booming - and Woebot is just one of an
82
204580
2360
è in forte espansione e Woebot è solo uno di un
03:27
an increasing number of electronic services.
83
207000
2360
numero crescente di servizi elettronici.
03:29
One reason for this could be using an app carries less
84
209880
2600
Uno dei motivi potrebbe essere che l'utilizzo di un'app comporta meno
03:32
stigma than maybe seeing a human therapist.
85
212520
2540
stigma che forse vedere un terapista umano.
03:35
Catherine: And stigma refers to the negative
86
215400
2040
Catherine: E lo stigma si riferisce alle
03:37
associations that people have about something,
87
217580
2580
associazioni negative che le persone hanno su qualcosa,
03:40
especially when these associations are not fair.
88
220320
2900
specialmente quando queste associazioni non sono giuste.
03:43
Even though mental health is now being
89
223680
2000
Anche se ora si
03:45
talked about more openly than before,
90
225820
2140
parla di salute mentale più apertamente di prima,
03:48
some people do still see mental health issues
91
228440
3340
alcune persone vedono ancora negativamente i problemi di salute mentale
03:51
and therapy negatively.
92
231920
1600
e la terapia.
03:53
Rob: Whatever you think of robot therapy,
93
233900
2200
Rob: Qualunque cosa tu pensi della terapia robotica, il
03:56
Dr Darcy believes that in the modern world
94
236340
2120
dottor Darcy crede che nel mondo moderno le
03:58
people need to self-reflect more -
95
238700
2020
persone abbiano bisogno di riflettere di più
04:00
which means thinking deeply about yourself,
96
240900
2260
su se stesse, il che significa pensare profondamente a se stessi,
04:03
in order to understand the reasons behind your feelings.
97
243360
2480
al fine di comprendere le ragioni dietro i propri sentimenti.
04:06
Dr Alison Darcy: The world that we live in right now
98
246480
1240
Dr Alison Darcy: Il mondo in cui viviamo in questo momento
04:07
is very noisy. Particularly digitally.
99
247840
2460
è molto rumoroso. In particolare in digitale.
04:10
You know, since we've had these little computers
100
250560
2660
Sai, da quando abbiamo questi piccoli computer
04:13
in our pockets with us everywhere we go,
101
253420
2000
in tasca con noi ovunque andiamo,
04:15
there aren't that many opportunities for real silence
102
255760
2940
non ci sono molte opportunità per un vero silenzio
04:18
or self-reflection. You know, even a commute
103
258700
2460
o un'autoriflessione. Sai, anche un tragitto
04:21
on the tube might have been a moment to
104
261320
2120
in metropolitana potrebbe essere stato un momento per
04:23
just take a second to yourself, but now that void
105
263440
3380
prendersi un secondo per te stesso, ma ora quel vuoto
04:26
can be filled always with super engaging content
106
266820
2980
può essere riempito sempre con contenuti super coinvolgenti
04:29
by looking at your phone.
107
269800
1220
guardando il tuo telefono.
04:31
Catherine: Darcy believes that we don't have
108
271440
1640
Catherine: Darcy crede che non abbiamo
04:33
much time for self-reflection
109
273080
1780
molto tempo per riflettere su noi stessi
04:35
because there are so many distractions in life -
110
275100
2400
perché ci sono così tante distrazioni nella vita,
04:37
especially smartphones!
111
277500
1940
specialmente gli smartphone!
04:39
Rob: After discussing all this - would you actually try
112
279440
2580
Rob: Dopo aver discusso di tutto questo, proveresti davvero
04:42
a therapy app like this?
113
282160
1420
un'app terapeutica come questa?
04:43
Catherine: Yes I would, actually -
114
283920
960
Catherine: Sì, lo farei, in realtà -
04:44
I think it might be quite helpful.
115
284880
1700
penso che potrebbe essere molto utile.
04:46
Rob: And how about the question you asked me
116
286580
1360
Rob: E che ne dici della domanda che mi hai fatto
04:47
at the beginning of the programme: how
117
287940
1560
all'inizio del programma:
04:49
many people experience mental health issues?
118
289500
2750
quante persone hanno problemi di salute mentale?
04:52
Catherine: The answer was: one in four,
119
292720
1960
Catherine: La risposta è stata: uno su quattro,
04:54
according the World Health Organisation
120
294680
2540
secondo l'Organizzazione mondiale della sanità
04:57
and the World Federation for Mental Health.
121
297440
2200
e la Federazione mondiale per la salute mentale.
04:59
But the WHO say that as many as two-thirds
122
299960
3320
Ma l'OMS afferma che ben due terzi
05:03
of people never seek help from a health professional -
123
303520
2820
delle persone non cercano mai l'aiuto di un professionista della salute, e lo
05:06
with stigma being one of the main reasons.
124
306520
2940
stigma è uno dei motivi principali.
05:09
Rob: And just there we had stigma again,
125
309780
2120
Rob: E proprio lì abbiamo avuto di nuovo lo stigma,
05:12
let's now run through the other words we learned today.
126
312260
2360
ora ripercorriamo le altre parole che abbiamo imparato oggi.
05:14
Catherine: So we had woe meaning sadness.
127
314800
2840
Catherine: Quindi abbiamo avuto guai che significano tristezza.
05:17
I'm full of woe. Woe is me!
128
317880
3420
Sono pieno di guai. Guai a me!
05:21
Rob: Maybe you need some therapy -
129
321520
1400
Rob: Forse hai bisogno di una terapia -
05:23
that's the process of receiving treatment for a particular
130
323060
2660
questo è il processo per ricevere un trattamento per un particolare
05:25
health issue, especially mental health illness.
131
325920
2440
problema di salute, in particolare la malattia mentale.
05:28
Catherine: And we had - to check in with someone.
132
328620
2320
Catherine: E dovevamo - fare il check-in con qualcuno.
05:31
After we finish this programme, I need to check in with
133
331200
2600
Dopo aver finito questo programma, devo parlare con
05:33
the boss about my new our project.
134
333920
1900
il capo del mio nuovo progetto.
05:36
Rob: We also had self-reflection -
135
336100
1600
Rob: Abbiamo avuto anche l'auto-riflessione -
05:37
that's the process of thinking deeply about yourself.
136
337780
2780
questo è il processo di pensare profondamente a te stesso.
05:41
Catherine: And finally we had ethical.
137
341220
2080
Catherine: E alla fine abbiamo avuto l'etica.
05:43
If you describe something as ethical,
138
343840
2040
Se descrivi qualcosa come etico,
05:46
you mean it's morally right.
139
346160
1500
intendi dire che è moralmente giusto.
05:47
Rob: So woe, stigma, therapy, check in with,
140
347960
3680
Rob: Quindi guai, stigma, terapia, check-in con,
05:51
self-reflection and ethical.
141
351640
2260
autoriflessione ed etica.
05:54
That's it for this edition of 6 Minute English.
142
354100
2000
Questo è tutto per questa edizione di 6 Minute English.
05:56
We'll leave you to self-reflect - and after you've done that
143
356280
2960
Ti lasceremo riflettere su te stesso e, dopo averlo fatto,
05:59
do visit our Facebook, Twitter, Instagram
144
359500
2120
visita le nostre pagine Facebook, Twitter, Instagram
06:01
and YouTube pages, and of course our website!
145
361620
2500
e YouTube e, naturalmente, il nostro sito web!
06:04
Catherine: Bye for now.
146
364460
500
Catherine: Ciao per ora.
06:05
Rob: Bye bye!
147
365140
520
Roby: ciao ciao!
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7