Robot therapists - 6 Minute English

132,720 views ・ 2018-03-08

BBC Learning English


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo. Les sous-titres traduits sont traduits automatiquement.

00:07
Catherine: Welcome to 6 Minute English,
0
7540
1620
Catherine : Bienvenue dans 6 Minute English,
00:09
the programme where we explore an interesting
1
9360
2220
le programme dans lequel nous explorons un
00:11
topic and bring you six items of useful vocabulary.
2
11700
3280
sujet intéressant et vous apportons six éléments de vocabulaire utiles.
00:14
I'm Catherine.
3
14980
1140
Je suis Catherine.
00:16
Rob: And I'm Rob.
4
16240
880
Rob : Et je suis Rob.
00:17
Catherine: I have a question for you, Rob:
5
17360
1640
Catherine : J'ai une question pour vous, Rob :
00:19
how would you feel about having therapy
6
19340
2940
que diriez-vous d'avoir une thérapie
00:22
from a robot?
7
22500
1100
avec un robot ?
00:23
Rob: I'm not too sure about that -
8
23940
1480
Rob : Je ne suis pas trop sûr de ça -
00:25
you'll need to tell me more! But first things first,
9
25620
2520
tu devras m'en dire plus ! Mais tout d'abord,
00:28
the word therapy refers to a kind of treatment that helps
10
28380
3760
le mot thérapie fait référence à un type de traitement qui aide
00:32
someone feel better - including
11
32140
1720
quelqu'un à se sentir mieux - y compris le
00:34
treatment for mental health issues.
12
34000
1660
traitement des problèmes de santé mentale.
00:35
Someone who delivers therapy is called a therapist.
13
35960
2800
Quelqu'un qui dispense une thérapie s'appelle un thérapeute.
00:39
Catherine: We'll find out more about this robot therapist
14
39100
2620
Catherine : Nous en saurons plus sur ce robot thérapeute
00:41
in just a moment, but first, Rob,
15
41720
2480
dans un instant, mais d'abord, Rob,
00:44
I've got a question for you about the scale
16
44420
2640
j'ai une question pour vous sur l'ampleur
00:47
of mental health issues globally.
17
47060
2320
des problèmes de santé mentale dans le monde.
00:49
So roughly how many people do you think experience
18
49620
4120
Alors, à votre avis, combien de personnes environ ont
00:53
mental health issues at some point during
19
53740
2440
des problèmes de santé mentale à un moment donné de
00:56
their lifetime? Is it... a) One in ten people,
20
56340
4600
leur vie ? Est-ce... a) Une personne sur dix,
01:00
b) One in four or c) One in three
21
60940
4200
b) Une personne sur quatre ou c) Une personne sur trois
01:05
Rob: I'll go for one in four,
22
65340
1180
Rob : J'opterai pour une personne sur quatre,
01:06
but I know whichever answer is right -
23
66520
2300
mais je sais quelle est la bonne réponse -
01:08
it's a big issue.
24
68820
1000
c'est un gros problème.
01:10
How might a robot therapist help?
25
70100
1820
Comment un robot thérapeute peut-il aider ?
01:11
Catherine: We're not talking about a robot
26
71930
1790
Catherine : Nous ne parlons pas d'un robot
01:13
in the Star Wars sense - so there's no flashing
27
73720
3020
au sens de Star Wars - donc il n'y a pas de
01:16
lights and mechanical arms, Rob! It's actually an app
28
76820
3440
lumières clignotantes et de bras mécaniques, Rob ! C'est en fait une application
01:20
in your smartphone that talks to you
29
80260
2380
dans votre smartphone qui vous parle
01:23
- and it's called Woebot.
30
83080
2540
- et ça s'appelle Woebot.
01:25
Rob: So - it has a sense of humour.
31
85800
1920
Rob : Donc - il y a un sens de l'humour.
01:28
Woe means 'sadness'; so this is a 'woe' bot,
32
88060
3400
Malheur signifie « tristesse » ; il s'agit donc d'un bot "malheur",
01:31
not a robot.
33
91460
1220
pas d'un robot.
01:33
Catherine: And it was developed by psychologist
34
93080
2140
Catherine : Et il a été développé par la psychologue
01:35
Dr Alison Darcy from Stanford University
35
95440
3080
Dr Alison Darcy de l'Université de Stanford
01:38
in the US. Here she is talking to the BBC radio
36
98780
3300
aux États-Unis. Ici, elle parle à l'émission de radio de la
01:42
programme All in the Mind.
37
102080
1640
BBC All in the Mind.
01:44
Dr Alison Darcy: Well, after you start an
38
104100
2000
Dr Alison Darcy : Eh bien, après avoir
01:46
initial conversation with the Woebot,
39
106260
1160
entamé une conversation initiale avec le Woebot,
01:47
and he'll take you through sort of what he can do
40
107420
1540
et qu'il vous expliquera en quelque sorte ce qu'il peut faire
01:48
and what he can't do, he'll just essentially
41
108960
1820
et ce qu'il ne peut pas faire, il
01:50
check in with you every day and just give you
42
110780
2200
vous contactera essentiellement tous les jours et donnez-vous
01:52
a sort of figurative tap on the shoulder
43
112980
1520
une sorte de tape figurative sur l'épaule
01:54
and say: "Hey Claudia, how are you doing?
44
114740
2380
et dites: "Hey Claudia, comment vas-tu?
01:57
What's going on in your day? How do you feel?"
45
117120
1580
Que se passe-t-il dans ta journée? Comment te sens-tu?"
01:58
So if you say, like "I'm really, really stressed out",
46
118820
2440
Donc, si vous dites, comme "Je suis vraiment, vraiment stressé",
02:01
Woebot might offer to help
47
121600
2340
Woebot pourrait vous proposer de vous aider à résoudre
02:04
talk you through something.
48
124060
1160
quelque chose.
02:06
Catherine: Woebot checks in with you every day
49
126220
2260
Catherine : Woebot vous contacte tous les jours
02:08
and asks how you are.
50
128660
1600
et vous demande comment vous allez.
02:10
Rob: So here, to check in with someone
51
130500
1840
Rob : Donc ici, s'enregistrer avec quelqu'un
02:12
doesn't mean to register at a hotel with that person!
52
132620
2580
ne veut pas dire s'inscrire à l'hôtel avec cette personne !
02:15
It's an informal way of saying you talk to someone
53
135520
2560
C'est une façon informelle de dire que vous parlez à
02:18
in order to report or find out information.
54
138120
2460
quelqu'un afin de signaler ou d'obtenir des informations.
02:20
Catherine: And this usage is more common in the US.
55
140820
2940
Catherine : Et cet usage est plus courant aux États-Unis.
02:23
So for example: "I can't meet you today,
56
143760
2420
Ainsi, par exemple : "Je ne peux pas vous rencontrer aujourd'hui,
02:26
Rob, but I'll check in with you tomorrow
57
146260
2060
Rob, mais je vous contacterai demain
02:28
to see how the project is getting on."
58
148320
1640
pour voir où en est le projet."
02:30
Rob: So, this robot checks in with you every day.
59
150200
3040
Rob : Donc, ce robot vous contacte tous les jours.
02:33
It tracks your mood and talks to you
60
153240
2000
Il suit votre humeur et vous
02:35
about your emotions, using a technique
61
155300
2000
parle de vos émotions, en utilisant une technique
02:37
called cognitive behavioural therapy.
62
157600
2300
appelée thérapie cognitivo-comportementale.
02:40
Catherine: Cognitive behavioural therapy
63
160100
2300
Catherine : La thérapie cognitivo-comportementale
02:42
is a common therapeutic technique
64
162500
2120
est une technique thérapeutique courante
02:44
that helps people deal with problems
65
164780
2000
qui aide les gens à faire face à des problèmes
02:46
by changing the way they think.
66
166960
2000
en changeant leur façon de penser.
02:49
Rob: That all sounds great,
67
169140
1040
Rob : Tout cela semble génial,
02:50
but does Woebot actually work?
68
170320
1940
mais est-ce que Woebot fonctionne vraiment ?
02:52
Catherine: They've done trials which show that
69
172540
1820
Catherine : Ils ont fait des essais qui montrent que
02:54
it can be more effective than simply reading
70
174360
2460
cela peut être plus efficace que de simplement lire des
02:56
information about mental health.
71
176920
1800
informations sur la santé mentale.
02:58
But they haven't compared Woebot to a real
72
178720
3240
Mais ils n'ont pas comparé Woebot à un vrai
03:02
therapist due to ethical concerns.
73
182160
2660
thérapeute pour des raisons éthiques.
03:05
Rob: Yes, it could be unethical to deny
74
185040
2180
Rob : Oui, il pourrait être contraire à l'éthique de refuser à
03:07
a real patient access to a human therapist
75
187420
2300
un vrai patient l'accès à un thérapeute humain
03:09
for the sake of a trial.
76
189720
2000
pour le plaisir d'un essai.
03:11
Ethical basically means morally right.
77
191740
2500
Éthique signifie essentiellement moralement juste.
03:14
Catherine: And another concern is privacy.
78
194440
2360
Catherine : Et une autre préoccupation est la confidentialité.
03:17
People who use apps like this are not protected
79
197060
3020
Les personnes qui utilisent des applications comme celle-ci ne sont pas protégées
03:20
by strong privacy laws.
80
200320
1720
par des lois strictes sur la confidentialité.
03:22
Rob: Despite these fears, digital therapy
81
202240
2180
Rob : Malgré ces craintes, la thérapie numérique
03:24
is booming - and Woebot is just one of an
82
204580
2360
est en plein essor - et Woebot n'est
03:27
an increasing number of electronic services.
83
207000
2360
qu'un des nombreux services électroniques.
03:29
One reason for this could be using an app carries less
84
209880
2600
L'une des raisons à cela pourrait être que l'utilisation d'une application est moins
03:32
stigma than maybe seeing a human therapist.
85
212520
2540
stigmatisante que peut-être de voir un thérapeute humain.
03:35
Catherine: And stigma refers to the negative
86
215400
2040
Catherine : Et la stigmatisation fait référence aux
03:37
associations that people have about something,
87
217580
2580
associations négatives que les gens ont à propos de quelque chose,
03:40
especially when these associations are not fair.
88
220320
2900
surtout lorsque ces associations ne sont pas justes.
03:43
Even though mental health is now being
89
223680
2000
Même si la santé mentale fait maintenant l'
03:45
talked about more openly than before,
90
225820
2140
objet de discussions plus ouvertes qu'auparavant,
03:48
some people do still see mental health issues
91
228440
3340
certaines personnes perçoivent encore les problèmes de santé mentale
03:51
and therapy negatively.
92
231920
1600
et la thérapie de manière négative.
03:53
Rob: Whatever you think of robot therapy,
93
233900
2200
Rob : Quoi que vous pensiez de la thérapie robotique, le
03:56
Dr Darcy believes that in the modern world
94
236340
2120
Dr Darcy pense que dans le monde moderne, les
03:58
people need to self-reflect more -
95
238700
2020
gens ont besoin de réfléchir davantage sur eux-mêmes,
04:00
which means thinking deeply about yourself,
96
240900
2260
ce qui signifie réfléchir profondément sur vous-même
04:03
in order to understand the reasons behind your feelings.
97
243360
2480
, afin de comprendre les raisons de vos sentiments.
04:06
Dr Alison Darcy: The world that we live in right now
98
246480
1240
Dr Alison Darcy : Le monde dans lequel nous vivons actuellement
04:07
is very noisy. Particularly digitally.
99
247840
2460
est très bruyant. Particulièrement numérique.
04:10
You know, since we've had these little computers
100
250560
2660
Vous savez, depuis que nous avons ces petits ordinateurs
04:13
in our pockets with us everywhere we go,
101
253420
2000
dans nos poches avec nous partout où nous allons,
04:15
there aren't that many opportunities for real silence
102
255760
2940
il n'y a pas beaucoup d'opportunités pour un vrai silence
04:18
or self-reflection. You know, even a commute
103
258700
2460
ou une réflexion sur soi. Vous savez, même un trajet
04:21
on the tube might have been a moment to
104
261320
2120
dans le métro aurait pu être un moment
04:23
just take a second to yourself, but now that void
105
263440
3380
pour prendre une seconde pour vous, mais maintenant ce vide
04:26
can be filled always with super engaging content
106
266820
2980
peut toujours être rempli de contenu super engageant
04:29
by looking at your phone.
107
269800
1220
en regardant votre téléphone.
04:31
Catherine: Darcy believes that we don't have
108
271440
1640
Catherine : Darcy pense que nous n'avons pas
04:33
much time for self-reflection
109
273080
1780
beaucoup de temps pour l'introspection
04:35
because there are so many distractions in life -
110
275100
2400
car il y a tellement de distractions dans la vie, en
04:37
especially smartphones!
111
277500
1940
particulier les smartphones !
04:39
Rob: After discussing all this - would you actually try
112
279440
2580
Rob : Après avoir discuté de tout cela, voudriez-vous réellement essayer
04:42
a therapy app like this?
113
282160
1420
une application de thérapie comme celle-ci ?
04:43
Catherine: Yes I would, actually -
114
283920
960
Catherine : Oui, je le ferais, en fait -
04:44
I think it might be quite helpful.
115
284880
1700
je pense que cela pourrait être très utile.
04:46
Rob: And how about the question you asked me
116
286580
1360
Rob : Et que diriez-vous de la question que vous m'avez posée
04:47
at the beginning of the programme: how
117
287940
1560
au début du programme : combien
04:49
many people experience mental health issues?
118
289500
2750
de personnes ont des problèmes de santé mentale ?
04:52
Catherine: The answer was: one in four,
119
292720
1960
Catherine : La réponse était : un sur quatre,
04:54
according the World Health Organisation
120
294680
2540
selon l'Organisation mondiale de la santé
04:57
and the World Federation for Mental Health.
121
297440
2200
et la Fédération mondiale pour la santé mentale.
04:59
But the WHO say that as many as two-thirds
122
299960
3320
Mais l'OMS affirme que jusqu'à deux tiers
05:03
of people never seek help from a health professional -
123
303520
2820
des personnes ne demandent jamais l'aide d'un professionnel de la santé - la
05:06
with stigma being one of the main reasons.
124
306520
2940
stigmatisation étant l'une des principales raisons.
05:09
Rob: And just there we had stigma again,
125
309780
2120
Rob : Et juste là, nous avons de nouveau eu la stigmatisation,
05:12
let's now run through the other words we learned today.
126
312260
2360
passons maintenant en revue les autres mots que nous avons appris aujourd'hui.
05:14
Catherine: So we had woe meaning sadness.
127
314800
2840
Catherine : Nous avions donc malheur, c'est-à-dire tristesse.
05:17
I'm full of woe. Woe is me!
128
317880
3420
Je suis plein de malheur. Pauvre de moi!
05:21
Rob: Maybe you need some therapy -
129
321520
1400
Rob : Peut-être avez-vous besoin d'une thérapie -
05:23
that's the process of receiving treatment for a particular
130
323060
2660
c'est le processus de recevoir un traitement pour un
05:25
health issue, especially mental health illness.
131
325920
2440
problème de santé particulier, en particulier une maladie mentale.
05:28
Catherine: And we had - to check in with someone.
132
328620
2320
Catherine : Et nous devions - vérifier avec quelqu'un.
05:31
After we finish this programme, I need to check in with
133
331200
2600
Après avoir terminé ce programme, je dois vérifier avec
05:33
the boss about my new our project.
134
333920
1900
le patron à propos de mon nouveau projet.
05:36
Rob: We also had self-reflection -
135
336100
1600
Rob : Nous avons également eu une réflexion sur soi -
05:37
that's the process of thinking deeply about yourself.
136
337780
2780
c'est le processus de réflexion profonde sur soi-même.
05:41
Catherine: And finally we had ethical.
137
341220
2080
Catherine : Et enfin nous avons eu l'éthique.
05:43
If you describe something as ethical,
138
343840
2040
Si vous décrivez quelque chose comme éthique,
05:46
you mean it's morally right.
139
346160
1500
vous voulez dire que c'est moralement juste.
05:47
Rob: So woe, stigma, therapy, check in with,
140
347960
3680
Rob : Alors malheur, stigmatisation, thérapie, vérification,
05:51
self-reflection and ethical.
141
351640
2260
autoréflexion et éthique.
05:54
That's it for this edition of 6 Minute English.
142
354100
2000
C'est tout pour cette édition de 6 Minute English.
05:56
We'll leave you to self-reflect - and after you've done that
143
356280
2960
Nous vous laisserons réfléchir par vous-même - et après
05:59
do visit our Facebook, Twitter, Instagram
144
359500
2120
cela, visitez nos pages Facebook, Twitter, Instagram
06:01
and YouTube pages, and of course our website!
145
361620
2500
et YouTube, et bien sûr notre site Web !
06:04
Catherine: Bye for now.
146
364460
500
Catherine : Au revoir pour l'instant.
06:05
Rob: Bye bye!
147
365140
520
Rob : Au revoir !
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7