Robot therapists - 6 Minute English

132,720 views ・ 2018-03-08

BBC Learning English


Por favor, faça duplo clique nas legendas em inglês abaixo para reproduzir o vídeo. As legendas traduzidas são traduzidas automaticamente.

00:07
Catherine: Welcome to 6 Minute English,
0
7540
1620
Catherine: Bem-vindo ao 6 Minute English,
00:09
the programme where we explore an interesting
1
9360
2220
o programa onde exploramos um
00:11
topic and bring you six items of useful vocabulary.
2
11700
3280
tópico interessante e trazemos a você seis itens de vocabulário útil.
00:14
I'm Catherine.
3
14980
1140
Eu sou Catarina.
00:16
Rob: And I'm Rob.
4
16240
880
Rob: E eu sou Rob.
00:17
Catherine: I have a question for you, Rob:
5
17360
1640
Catherine: Eu tenho uma pergunta para você, Rob:
00:19
how would you feel about having therapy
6
19340
2940
como você se sentiria em receber terapia
00:22
from a robot?
7
22500
1100
de um robô?
00:23
Rob: I'm not too sure about that -
8
23940
1480
Rob: Não tenho muita certeza sobre isso -
00:25
you'll need to tell me more! But first things first,
9
25620
2520
você precisa me contar mais! Mas antes de tudo,
00:28
the word therapy refers to a kind of treatment that helps
10
28380
3760
a palavra terapia refere-se a um tipo de tratamento que ajuda
00:32
someone feel better - including
11
32140
1720
alguém a se sentir melhor - incluindo
00:34
treatment for mental health issues.
12
34000
1660
tratamento para problemas de saúde mental.
00:35
Someone who delivers therapy is called a therapist.
13
35960
2800
Alguém que oferece terapia é chamado de terapeuta.
00:39
Catherine: We'll find out more about this robot therapist
14
39100
2620
Catherine: Descobriremos mais sobre esse robô terapeuta
00:41
in just a moment, but first, Rob,
15
41720
2480
daqui a pouco, mas primeiro, Rob,
00:44
I've got a question for you about the scale
16
44420
2640
tenho uma pergunta para você sobre a escala
00:47
of mental health issues globally.
17
47060
2320
dos problemas de saúde mental globalmente.
00:49
So roughly how many people do you think experience
18
49620
4120
Então, aproximadamente quantas pessoas você acha que têm
00:53
mental health issues at some point during
19
53740
2440
problemas de saúde mental em algum momento de
00:56
their lifetime? Is it... a) One in ten people,
20
56340
4600
suas vidas? É... a) Uma em cada dez pessoas,
01:00
b) One in four or c) One in three
21
60940
4200
b) Uma em quatro ou c) Uma em três
01:05
Rob: I'll go for one in four,
22
65340
1180
Rob: Vou escolher uma em quatro,
01:06
but I know whichever answer is right -
23
66520
2300
mas sei qual é a resposta certa -
01:08
it's a big issue.
24
68820
1000
é um grande problema.
01:10
How might a robot therapist help?
25
70100
1820
Como um robô terapeuta pode ajudar?
01:11
Catherine: We're not talking about a robot
26
71930
1790
Catherine: Não estamos falando de um robô
01:13
in the Star Wars sense - so there's no flashing
27
73720
3020
no sentido de Star Wars - então não há
01:16
lights and mechanical arms, Rob! It's actually an app
28
76820
3440
luzes piscando e braços mecânicos, Rob! Na verdade, é um aplicativo
01:20
in your smartphone that talks to you
29
80260
2380
em seu smartphone que fala com você
01:23
- and it's called Woebot.
30
83080
2540
- e se chama Woebot.
01:25
Rob: So - it has a sense of humour.
31
85800
1920
Rob: Então - tem senso de humor.
01:28
Woe means 'sadness'; so this is a 'woe' bot,
32
88060
3400
Ai significa 'tristeza'; então este é um bot 'ai',
01:31
not a robot.
33
91460
1220
não um robô.
01:33
Catherine: And it was developed by psychologist
34
93080
2140
Catherine: E foi desenvolvido pela psicóloga
01:35
Dr Alison Darcy from Stanford University
35
95440
3080
Dra. Alison Darcy, da Universidade de Stanford,
01:38
in the US. Here she is talking to the BBC radio
36
98780
3300
nos Estados Unidos. Aqui ela está falando com o programa de rádio da BBC
01:42
programme All in the Mind.
37
102080
1640
All in the Mind.
01:44
Dr Alison Darcy: Well, after you start an
38
104100
2000
Alison Darcy: Bem, depois de iniciar uma
01:46
initial conversation with the Woebot,
39
106260
1160
conversa inicial com o Woebot,
01:47
and he'll take you through sort of what he can do
40
107420
1540
e ele mostrará o que ele pode fazer
01:48
and what he can't do, he'll just essentially
41
108960
1820
e o que não pode fazer, ele basicamente
01:50
check in with you every day and just give you
42
110780
2200
entrará em contato com você todos os dias e apenas dar-lhe
01:52
a sort of figurative tap on the shoulder
43
112980
1520
uma espécie de tapinha figurativo no ombro
01:54
and say: "Hey Claudia, how are you doing?
44
114740
2380
e dizer: "Oi Claudia, como vai você?
01:57
What's going on in your day? How do you feel?"
45
117120
1580
O que está acontecendo no seu dia? Como você se sente?"
01:58
So if you say, like "I'm really, really stressed out",
46
118820
2440
Portanto, se você disser "estou muito, muito estressado",
02:01
Woebot might offer to help
47
121600
2340
Woebot pode se oferecer para ajudá-
02:04
talk you through something.
48
124060
1160
lo a conversar sobre algo.
02:06
Catherine: Woebot checks in with you every day
49
126220
2260
Catherine: Woebot verifica com você todos os dias
02:08
and asks how you are.
50
128660
1600
e pergunta como você está.
02:10
Rob: So here, to check in with someone
51
130500
1840
Rob: Então aqui, fazer check-in com alguém
02:12
doesn't mean to register at a hotel with that person!
52
132620
2580
não significa se registrar em um hotel com essa pessoa!
02:15
It's an informal way of saying you talk to someone
53
135520
2560
É uma maneira informal de dizer que você fala com alguém
02:18
in order to report or find out information.
54
138120
2460
para relatar ou obter informações.
02:20
Catherine: And this usage is more common in the US.
55
140820
2940
Catherine: E esse uso é mais comum nos EUA.
02:23
So for example: "I can't meet you today,
56
143760
2420
Então, por exemplo: "Não posso te encontrar hoje,
02:26
Rob, but I'll check in with you tomorrow
57
146260
2060
Rob, mas falarei com você amanhã
02:28
to see how the project is getting on."
58
148320
1640
para ver como está indo o projeto."
02:30
Rob: So, this robot checks in with you every day.
59
150200
3040
Rob: Então, este robô verifica com você todos os dias.
02:33
It tracks your mood and talks to you
60
153240
2000
Ele rastreia seu humor e fala com você
02:35
about your emotions, using a technique
61
155300
2000
sobre suas emoções, usando uma técnica
02:37
called cognitive behavioural therapy.
62
157600
2300
chamada terapia cognitivo-comportamental.
02:40
Catherine: Cognitive behavioural therapy
63
160100
2300
Catherine: A terapia cognitivo-comportamental
02:42
is a common therapeutic technique
64
162500
2120
é uma técnica terapêutica comum
02:44
that helps people deal with problems
65
164780
2000
que ajuda as pessoas a lidar com problemas
02:46
by changing the way they think.
66
166960
2000
mudando a maneira como pensam.
02:49
Rob: That all sounds great,
67
169140
1040
Rob: Tudo isso parece ótimo,
02:50
but does Woebot actually work?
68
170320
1940
mas o Woebot realmente funciona?
02:52
Catherine: They've done trials which show that
69
172540
1820
Catherine: Eles fizeram testes que mostram que
02:54
it can be more effective than simply reading
70
174360
2460
pode ser mais eficaz do que simplesmente ler
02:56
information about mental health.
71
176920
1800
informações sobre saúde mental.
02:58
But they haven't compared Woebot to a real
72
178720
3240
Mas eles não compararam Woebot a um
03:02
therapist due to ethical concerns.
73
182160
2660
terapeuta real devido a questões éticas.
03:05
Rob: Yes, it could be unethical to deny
74
185040
2180
Rob: Sim, pode ser antiético negar a
03:07
a real patient access to a human therapist
75
187420
2300
um paciente real o acesso a um terapeuta humano
03:09
for the sake of a trial.
76
189720
2000
por causa de um julgamento.
03:11
Ethical basically means morally right.
77
191740
2500
Ético basicamente significa moralmente correto.
03:14
Catherine: And another concern is privacy.
78
194440
2360
Catherine: E outra preocupação é a privacidade.
03:17
People who use apps like this are not protected
79
197060
3020
As pessoas que usam aplicativos como esse não são protegidas
03:20
by strong privacy laws.
80
200320
1720
por fortes leis de privacidade.
03:22
Rob: Despite these fears, digital therapy
81
202240
2180
Rob: Apesar desses medos, a terapia digital
03:24
is booming - and Woebot is just one of an
82
204580
2360
está crescendo - e Woebot é apenas um de um
03:27
an increasing number of electronic services.
83
207000
2360
número crescente de serviços eletrônicos.
03:29
One reason for this could be using an app carries less
84
209880
2600
Uma razão para isso pode ser que usar um aplicativo carrega menos
03:32
stigma than maybe seeing a human therapist.
85
212520
2540
estigma do que talvez consultar um terapeuta humano.
03:35
Catherine: And stigma refers to the negative
86
215400
2040
Catherine: E o estigma refere-se às
03:37
associations that people have about something,
87
217580
2580
associações negativas que as pessoas têm sobre algo,
03:40
especially when these associations are not fair.
88
220320
2900
especialmente quando essas associações não são justas.
03:43
Even though mental health is now being
89
223680
2000
Embora a saúde mental esteja sendo
03:45
talked about more openly than before,
90
225820
2140
discutida mais abertamente do que antes,
03:48
some people do still see mental health issues
91
228440
3340
algumas pessoas ainda veem os problemas de saúde mental
03:51
and therapy negatively.
92
231920
1600
e a terapia de forma negativa.
03:53
Rob: Whatever you think of robot therapy,
93
233900
2200
Rob: O que quer que você pense sobre a terapia de robôs, o
03:56
Dr Darcy believes that in the modern world
94
236340
2120
Dr. Darcy acredita que no mundo moderno as
03:58
people need to self-reflect more -
95
238700
2020
pessoas precisam refletir mais
04:00
which means thinking deeply about yourself,
96
240900
2260
sobre si mesmas - o que significa pensar profundamente sobre si mesmo,
04:03
in order to understand the reasons behind your feelings.
97
243360
2480
a fim de entender as razões por trás de seus sentimentos.
04:06
Dr Alison Darcy: The world that we live in right now
98
246480
1240
Dra. Alison Darcy: O mundo em que vivemos agora
04:07
is very noisy. Particularly digitally.
99
247840
2460
é muito barulhento. Principalmente digitalmente.
04:10
You know, since we've had these little computers
100
250560
2660
Você sabe, desde que temos esses pequenos computadores
04:13
in our pockets with us everywhere we go,
101
253420
2000
em nossos bolsos conosco em todos os lugares que vamos,
04:15
there aren't that many opportunities for real silence
102
255760
2940
não há muitas oportunidades para silêncio real
04:18
or self-reflection. You know, even a commute
103
258700
2460
ou auto-reflexão. Você sabe, até mesmo um deslocamento
04:21
on the tube might have been a moment to
104
261320
2120
no metrô pode ter sido um momento para
04:23
just take a second to yourself, but now that void
105
263440
3380
tirar um segundo para si mesmo, mas agora esse vazio
04:26
can be filled always with super engaging content
106
266820
2980
pode ser preenchido sempre com conteúdo super envolvente
04:29
by looking at your phone.
107
269800
1220
olhando para o seu telefone.
04:31
Catherine: Darcy believes that we don't have
108
271440
1640
Catherine: Darcy acredita que não temos
04:33
much time for self-reflection
109
273080
1780
muito tempo para auto-reflexão
04:35
because there are so many distractions in life -
110
275100
2400
porque há tantas distrações na vida -
04:37
especially smartphones!
111
277500
1940
especialmente smartphones!
04:39
Rob: After discussing all this - would you actually try
112
279440
2580
Rob: Depois de discutir tudo isso - você realmente tentaria
04:42
a therapy app like this?
113
282160
1420
um aplicativo de terapia como este?
04:43
Catherine: Yes I would, actually -
114
283920
960
Catherine: Sim, na verdade,
04:44
I think it might be quite helpful.
115
284880
1700
acho que pode ser bastante útil.
04:46
Rob: And how about the question you asked me
116
286580
1360
Rob: E quanto à pergunta que você me fez
04:47
at the beginning of the programme: how
117
287940
1560
no início do programa:
04:49
many people experience mental health issues?
118
289500
2750
quantas pessoas têm problemas de saúde mental?
04:52
Catherine: The answer was: one in four,
119
292720
1960
Catherine: A resposta foi: uma em quatro,
04:54
according the World Health Organisation
120
294680
2540
de acordo com a Organização Mundial da Saúde
04:57
and the World Federation for Mental Health.
121
297440
2200
e a Federação Mundial de Saúde Mental.
04:59
But the WHO say that as many as two-thirds
122
299960
3320
Mas a OMS diz que até dois terços
05:03
of people never seek help from a health professional -
123
303520
2820
das pessoas nunca procuram ajuda de um profissional de saúde -
05:06
with stigma being one of the main reasons.
124
306520
2940
sendo o estigma uma das principais razões.
05:09
Rob: And just there we had stigma again,
125
309780
2120
Rob: E aí nós tivemos o estigma novamente,
05:12
let's now run through the other words we learned today.
126
312260
2360
vamos agora repassar as outras palavras que aprendemos hoje.
05:14
Catherine: So we had woe meaning sadness.
127
314800
2840
Catherine: Então tivemos aflição significando tristeza.
05:17
I'm full of woe. Woe is me!
128
317880
3420
Estou cheio de aflição. Ai de mim!
05:21
Rob: Maybe you need some therapy -
129
321520
1400
Rob: Talvez você precise de alguma terapia -
05:23
that's the process of receiving treatment for a particular
130
323060
2660
esse é o processo de receber tratamento para um determinado
05:25
health issue, especially mental health illness.
131
325920
2440
problema de saúde, especialmente doenças mentais.
05:28
Catherine: And we had - to check in with someone.
132
328620
2320
Catherine: E nós tínhamos - para checar com alguém.
05:31
After we finish this programme, I need to check in with
133
331200
2600
Depois de terminarmos este programa, preciso verificar com
05:33
the boss about my new our project.
134
333920
1900
o chefe sobre meu novo projeto.
05:36
Rob: We also had self-reflection -
135
336100
1600
Rob: Também tivemos auto-reflexão -
05:37
that's the process of thinking deeply about yourself.
136
337780
2780
esse é o processo de pensar profundamente sobre si mesmo.
05:41
Catherine: And finally we had ethical.
137
341220
2080
Catherine: E finalmente tivemos ética.
05:43
If you describe something as ethical,
138
343840
2040
Se você descreve algo como ético,
05:46
you mean it's morally right.
139
346160
1500
quer dizer que é moralmente correto.
05:47
Rob: So woe, stigma, therapy, check in with,
140
347960
3680
Rob: Então, ai, estigma, terapia, check-in,
05:51
self-reflection and ethical.
141
351640
2260
auto-reflexão e ética. É
05:54
That's it for this edition of 6 Minute English.
142
354100
2000
isso para esta edição do 6 Minute English.
05:56
We'll leave you to self-reflect - and after you've done that
143
356280
2960
Vamos deixar você refletir - e depois de fazer isso,
05:59
do visit our Facebook, Twitter, Instagram
144
359500
2120
visite nossas páginas no Facebook, Twitter, Instagram
06:01
and YouTube pages, and of course our website!
145
361620
2500
e YouTube e, claro, nosso site!
06:04
Catherine: Bye for now.
146
364460
500
Catarina: Tchau por enquanto.
06:05
Rob: Bye bye!
147
365140
520
Rob: Tchau tchau!
Sobre este site

Este sítio irá apresentar-lhe vídeos do YouTube que são úteis para a aprendizagem do inglês. Verá lições de inglês ensinadas por professores de primeira linha de todo o mundo. Faça duplo clique nas legendas em inglês apresentadas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas deslocam-se em sincronia com a reprodução do vídeo. Se tiver quaisquer comentários ou pedidos, por favor contacte-nos utilizando este formulário de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7