Robot therapists - 6 Minute English

133,139 views ・ 2018-03-08

BBC Learning English


Proszę kliknąć dwukrotnie na poniższe angielskie napisy, aby odtworzyć film. Przetłumaczone napisy są tłumaczone maszynowo.

00:07
Catherine: Welcome to 6 Minute English,
0
7540
1620
Catherine: Witamy w 6 Minute English,
00:09
the programme where we explore an interesting
1
9360
2220
programie, w którym zgłębiamy interesujący
00:11
topic and bring you six items of useful vocabulary.
2
11700
3280
temat i przedstawiamy sześć przydatnych słów.
00:14
I'm Catherine.
3
14980
1140
Jestem Katarzyna.
00:16
Rob: And I'm Rob.
4
16240
880
Rob: A ja jestem Rob.
00:17
Catherine: I have a question for you, Rob:
5
17360
1640
Catherine: Mam do ciebie pytanie, Rob:
00:19
how would you feel about having therapy
6
19340
2940
co byś powiedział na terapię
00:22
from a robot?
7
22500
1100
z robotem?
00:23
Rob: I'm not too sure about that -
8
23940
1480
Rob: Nie jestem tego zbyt pewien –
00:25
you'll need to tell me more! But first things first,
9
25620
2520
musisz mi powiedzieć więcej! Ale po pierwsze,
00:28
the word therapy refers to a kind of treatment that helps
10
28380
3760
słowo terapia odnosi się do rodzaju leczenia, które pomaga
00:32
someone feel better - including
11
32140
1720
komuś poczuć się lepiej – w tym
00:34
treatment for mental health issues.
12
34000
1660
leczenia problemów ze zdrowiem psychicznym.
00:35
Someone who delivers therapy is called a therapist.
13
35960
2800
Ktoś, kto prowadzi terapię, nazywa się terapeutą.
00:39
Catherine: We'll find out more about this robot therapist
14
39100
2620
Catherine: Za chwilę dowiemy się więcej o tym robototerapeucie
00:41
in just a moment, but first, Rob,
15
41720
2480
, ale najpierw, Rob, mam
00:44
I've got a question for you about the scale
16
44420
2640
do ciebie pytanie dotyczące skali
00:47
of mental health issues globally.
17
47060
2320
problemów ze zdrowiem psychicznym na całym świecie.
00:49
So roughly how many people do you think experience
18
49620
4120
Jak myślisz, ile osób w przybliżeniu doświadcza
00:53
mental health issues at some point during
19
53740
2440
problemów ze zdrowiem psychicznym w pewnym momencie
00:56
their lifetime? Is it... a) One in ten people,
20
56340
4600
swojego życia? Czy to... a) Jedna na dziesięć osób,
01:00
b) One in four or c) One in three
21
60940
4200
b) Jedna na cztery czy c) Jedna na trzy
01:05
Rob: I'll go for one in four,
22
65340
1180
Rob: Stawiam na jedną na cztery,
01:06
but I know whichever answer is right -
23
66520
2300
ale wiem, która odpowiedź jest prawidłowa –
01:08
it's a big issue.
24
68820
1000
to duży problem.
01:10
How might a robot therapist help?
25
70100
1820
W czym może pomóc robot-terapeuta?
01:11
Catherine: We're not talking about a robot
26
71930
1790
Catherine: Nie mówimy o robocie
01:13
in the Star Wars sense - so there's no flashing
27
73720
3020
w sensie Gwiezdnych Wojen – więc nie ma migających
01:16
lights and mechanical arms, Rob! It's actually an app
28
76820
3440
świateł i mechanicznych ramion, Rob! W rzeczywistości jest to aplikacja
01:20
in your smartphone that talks to you
29
80260
2380
w smartfonie, która z tobą rozmawia
01:23
- and it's called Woebot.
30
83080
2540
– i nazywa się Woebot.
01:25
Rob: So - it has a sense of humour.
31
85800
1920
Rob: Więc - ma poczucie humoru.
01:28
Woe means 'sadness'; so this is a 'woe' bot,
32
88060
3400
Biada oznacza „smutek”; więc to jest bot „biada”, a
01:31
not a robot.
33
91460
1220
nie robot.
01:33
Catherine: And it was developed by psychologist
34
93080
2140
Catherine: Został opracowany przez psychologa,
01:35
Dr Alison Darcy from Stanford University
35
95440
3080
dr Alison Darcy z Uniwersytetu Stanforda
01:38
in the US. Here she is talking to the BBC radio
36
98780
3300
w USA. Tutaj rozmawia z programem radiowym BBC
01:42
programme All in the Mind.
37
102080
1640
All in the Mind.
01:44
Dr Alison Darcy: Well, after you start an
38
104100
2000
Dr Alison Darcy: Cóż, po tym jak rozpoczniesz
01:46
initial conversation with the Woebot,
39
106260
1160
wstępną rozmowę z Woebotem,
01:47
and he'll take you through sort of what he can do
40
107420
1540
a on przeprowadzi cię przez to, co może, a
01:48
and what he can't do, he'll just essentially
41
108960
1820
czego nie może zrobić, będzie po prostu
01:50
check in with you every day and just give you
42
110780
2200
sprawdzał cię codziennie i po prostu poklepać cię
01:52
a sort of figurative tap on the shoulder
43
112980
1520
symbolicznie po ramieniu
01:54
and say: "Hey Claudia, how are you doing?
44
114740
2380
i powiedzieć: „Cześć Claudia, jak się masz?
01:57
What's going on in your day? How do you feel?"
45
117120
1580
Co słychać u ciebie w ciągu dnia? Jak się czujesz?”
01:58
So if you say, like "I'm really, really stressed out",
46
118820
2440
Więc jeśli powiesz: „Jestem naprawdę, bardzo zestresowany”,
02:01
Woebot might offer to help
47
121600
2340
Woebot może zaoferować pomoc w
02:04
talk you through something.
48
124060
1160
rozmowie z tobą.
02:06
Catherine: Woebot checks in with you every day
49
126220
2260
Catherine: Woebot melduje się u ciebie codziennie
02:08
and asks how you are.
50
128660
1600
i pyta, jak się masz.
02:10
Rob: So here, to check in with someone
51
130500
1840
Rob: Więc zameldowanie się u kogoś
02:12
doesn't mean to register at a hotel with that person!
52
132620
2580
nie oznacza zameldowania się w hotelu z tą osobą!
02:15
It's an informal way of saying you talk to someone
53
135520
2560
Jest to nieformalny sposób powiedzenia, że ​​rozmawiasz z kimś
02:18
in order to report or find out information.
54
138120
2460
w celu zgłoszenia lub uzyskania informacji.
02:20
Catherine: And this usage is more common in the US.
55
140820
2940
Catherine: To użycie jest bardziej powszechne w Stanach Zjednoczonych.
02:23
So for example: "I can't meet you today,
56
143760
2420
Na przykład: „Nie mogę się z tobą dzisiaj spotkać,
02:26
Rob, but I'll check in with you tomorrow
57
146260
2060
Rob, ale jutro się z tobą skontaktuję,
02:28
to see how the project is getting on."
58
148320
1640
żeby zobaczyć, jak idzie projekt”.
02:30
Rob: So, this robot checks in with you every day.
59
150200
3040
Rob: Więc ten robot melduje się u ciebie codziennie.
02:33
It tracks your mood and talks to you
60
153240
2000
Śledzi twój nastrój i rozmawia z tobą
02:35
about your emotions, using a technique
61
155300
2000
o twoich emocjach, używając techniki
02:37
called cognitive behavioural therapy.
62
157600
2300
zwanej terapią poznawczo-behawioralną.
02:40
Catherine: Cognitive behavioural therapy
63
160100
2300
Catherine: Terapia poznawczo-behawioralna
02:42
is a common therapeutic technique
64
162500
2120
jest powszechną techniką terapeutyczną,
02:44
that helps people deal with problems
65
164780
2000
która pomaga ludziom radzić sobie z problemami
02:46
by changing the way they think.
66
166960
2000
poprzez zmianę sposobu myślenia.
02:49
Rob: That all sounds great,
67
169140
1040
Rob: To wszystko brzmi świetnie,
02:50
but does Woebot actually work?
68
170320
1940
ale czy Woebot faktycznie działa?
02:52
Catherine: They've done trials which show that
69
172540
1820
Catherine: Przeprowadzili próby, które pokazują, że
02:54
it can be more effective than simply reading
70
174360
2460
może to być bardziej skuteczne niż zwykłe czytanie
02:56
information about mental health.
71
176920
1800
informacji o zdrowiu psychicznym.
02:58
But they haven't compared Woebot to a real
72
178720
3240
Ale nie porównali Woebota z prawdziwym
03:02
therapist due to ethical concerns.
73
182160
2660
terapeutą ze względów etycznych.
03:05
Rob: Yes, it could be unethical to deny
74
185040
2180
Rob: Tak, odmówienie
03:07
a real patient access to a human therapist
75
187420
2300
prawdziwemu pacjentowi dostępu do terapeuty-człowieka
03:09
for the sake of a trial.
76
189720
2000
ze względu na próbę może być nieetyczne.
03:11
Ethical basically means morally right.
77
191740
2500
Etyczny zasadniczo oznacza moralnie słuszny.
03:14
Catherine: And another concern is privacy.
78
194440
2360
Catherine: Kolejną kwestią jest prywatność.
03:17
People who use apps like this are not protected
79
197060
3020
Osoby korzystające z takich aplikacji nie są chronione
03:20
by strong privacy laws.
80
200320
1720
surowymi przepisami dotyczącymi prywatności.
03:22
Rob: Despite these fears, digital therapy
81
202240
2180
Rob: Pomimo tych obaw terapia cyfrowa
03:24
is booming - and Woebot is just one of an
82
204580
2360
przeżywa boom – a Woebot to tylko jedna z
03:27
an increasing number of electronic services.
83
207000
2360
coraz większej liczby usług elektronicznych.
03:29
One reason for this could be using an app carries less
84
209880
2600
Jednym z powodów może być to, że korzystanie z aplikacji wiąże się z mniejszym
03:32
stigma than maybe seeing a human therapist.
85
212520
2540
piętnem niż spotkanie z ludzkim terapeutą.
03:35
Catherine: And stigma refers to the negative
86
215400
2040
Catherine: A piętno odnosi się do negatywnych
03:37
associations that people have about something,
87
217580
2580
skojarzeń, jakie ludzie mają z czymś,
03:40
especially when these associations are not fair.
88
220320
2900
zwłaszcza gdy te skojarzenia nie są sprawiedliwe.
03:43
Even though mental health is now being
89
223680
2000
Chociaż obecnie
03:45
talked about more openly than before,
90
225820
2140
mówi się o zdrowiu psychicznym bardziej otwarcie niż wcześniej,
03:48
some people do still see mental health issues
91
228440
3340
niektórzy ludzie nadal negatywnie postrzegają problemy związane ze zdrowiem psychicznym
03:51
and therapy negatively.
92
231920
1600
i terapię.
03:53
Rob: Whatever you think of robot therapy,
93
233900
2200
Rob: Cokolwiek myślisz o terapii robotem,
03:56
Dr Darcy believes that in the modern world
94
236340
2120
dr Darcy uważa, że ​​we współczesnym świecie
03:58
people need to self-reflect more -
95
238700
2020
ludzie potrzebują więcej autorefleksji –
04:00
which means thinking deeply about yourself,
96
240900
2260
co oznacza głębokie myślenie o sobie,
04:03
in order to understand the reasons behind your feelings.
97
243360
2480
aby zrozumieć przyczyny swoich uczuć.
04:06
Dr Alison Darcy: The world that we live in right now
98
246480
1240
Dr Alison Darcy: Świat, w którym obecnie żyjemy,
04:07
is very noisy. Particularly digitally.
99
247840
2460
jest bardzo głośny. Szczególnie cyfrowo.
04:10
You know, since we've had these little computers
100
250560
2660
Wiesz, odkąd mamy te małe komputery
04:13
in our pockets with us everywhere we go,
101
253420
2000
w naszych kieszeniach, gdziekolwiek się udamy,
04:15
there aren't that many opportunities for real silence
102
255760
2940
nie ma zbyt wielu okazji do prawdziwej ciszy
04:18
or self-reflection. You know, even a commute
103
258700
2460
lub autorefleksji. Wiesz, nawet dojazd
04:21
on the tube might have been a moment to
104
261320
2120
metrem mógł być chwilą, aby
04:23
just take a second to yourself, but now that void
105
263440
3380
poświęcić chwilę dla siebie, ale teraz tę pustkę
04:26
can be filled always with super engaging content
106
266820
2980
można zawsze wypełnić super wciągającymi treściami,
04:29
by looking at your phone.
107
269800
1220
patrząc na telefon.
04:31
Catherine: Darcy believes that we don't have
108
271440
1640
Catherine: Darcy uważa, że ​​nie mamy zbyt
04:33
much time for self-reflection
109
273080
1780
wiele czasu na autorefleksję,
04:35
because there are so many distractions in life -
110
275100
2400
ponieważ w życiu jest tak wiele rzeczy rozpraszających uwagę –
04:37
especially smartphones!
111
277500
1940
zwłaszcza smartfony!
04:39
Rob: After discussing all this - would you actually try
112
279440
2580
Rob: Po przedyskutowaniu tego wszystkiego – czy naprawdę wypróbujesz
04:42
a therapy app like this?
113
282160
1420
taką aplikację terapeutyczną?
04:43
Catherine: Yes I would, actually -
114
283920
960
Catherine: Tak, faktycznie,
04:44
I think it might be quite helpful.
115
284880
1700
myślę, że może to być całkiem pomocne.
04:46
Rob: And how about the question you asked me
116
286580
1360
Rob: A co z pytaniem, które zadałeś mi
04:47
at the beginning of the programme: how
117
287940
1560
na początku programu:
04:49
many people experience mental health issues?
118
289500
2750
ile osób ma problemy ze zdrowiem psychicznym?
04:52
Catherine: The answer was: one in four,
119
292720
1960
Catherine: Odpowiedź brzmiała: jeden na czterech,
04:54
according the World Health Organisation
120
294680
2540
według Światowej Organizacji Zdrowia
04:57
and the World Federation for Mental Health.
121
297440
2200
i Światowej Federacji Zdrowia Psychicznego.
04:59
But the WHO say that as many as two-thirds
122
299960
3320
Ale WHO twierdzi, że aż dwie trzecie
05:03
of people never seek help from a health professional -
123
303520
2820
ludzi nigdy nie szuka pomocy u pracownika służby zdrowia – a
05:06
with stigma being one of the main reasons.
124
306520
2940
piętno jest jednym z głównych powodów.
05:09
Rob: And just there we had stigma again,
125
309780
2120
Rob: I właśnie tam znowu mieliśmy piętno,
05:12
let's now run through the other words we learned today.
126
312260
2360
przejrzyjmy teraz inne słowa, których się dzisiaj nauczyliśmy.
05:14
Catherine: So we had woe meaning sadness.
127
314800
2840
Katarzyna: Więc mieliśmy biada, czyli smutek.
05:17
I'm full of woe. Woe is me!
128
317880
3420
Jestem pełen nieszczęścia. Biada mi!
05:21
Rob: Maybe you need some therapy -
129
321520
1400
Rob: Może potrzebujesz terapii –
05:23
that's the process of receiving treatment for a particular
130
323060
2660
to proces leczenia konkretnego
05:25
health issue, especially mental health illness.
131
325920
2440
problemu zdrowotnego, zwłaszcza choroby psychicznej.
05:28
Catherine: And we had - to check in with someone.
132
328620
2320
Catherine: I musieliśmy - zameldować się u kogoś.
05:31
After we finish this programme, I need to check in with
133
331200
2600
Po zakończeniu tego programu muszę porozmawiać z
05:33
the boss about my new our project.
134
333920
1900
szefem o moim nowym projekcie.
05:36
Rob: We also had self-reflection -
135
336100
1600
Rob: Mieliśmy też autorefleksję –
05:37
that's the process of thinking deeply about yourself.
136
337780
2780
to jest proces głębokiego myślenia o sobie.
05:41
Catherine: And finally we had ethical.
137
341220
2080
Catherine: I wreszcie mieliśmy etyczne.
05:43
If you describe something as ethical,
138
343840
2040
Jeśli opisujesz coś jako etyczne,
05:46
you mean it's morally right.
139
346160
1500
masz na myśli, że jest to moralnie słuszne.
05:47
Rob: So woe, stigma, therapy, check in with,
140
347960
3680
Rob: Więc biada, piętno, terapia, meldowanie się,
05:51
self-reflection and ethical.
141
351640
2260
autorefleksja i etyka.
05:54
That's it for this edition of 6 Minute English.
142
354100
2000
To wszystko w tym wydaniu 6-minutowego angielskiego.
05:56
We'll leave you to self-reflect - and after you've done that
143
356280
2960
Zostawimy Cię do autorefleksji - a kiedy już to zrobisz,
05:59
do visit our Facebook, Twitter, Instagram
144
359500
2120
odwiedź nasze strony na Facebooku, Twitterze, Instagramie
06:01
and YouTube pages, and of course our website!
145
361620
2500
i YouTube oraz oczywiście naszą stronę internetową!
06:04
Catherine: Bye for now.
146
364460
500
Katarzyna: Do widzenia na razie.
06:05
Rob: Bye bye!
147
365140
520
Rob: Do widzenia!
O tej stronie

Na tej stronie poznasz filmy z YouTube, które są przydatne do nauki języka angielskiego. Zobaczysz lekcje angielskiego prowadzone przez najlepszych nauczycieli z całego świata. Kliknij dwukrotnie na angielskie napisy wyświetlane na stronie każdego filmu, aby odtworzyć film od tego miejsca. Napisy przewijają się synchronicznie z odtwarzaniem filmu. Jeśli masz jakieś uwagi lub prośby, skontaktuj się z nami za pomocą formularza kontaktowego.

https://forms.gle/WvT1wiN1qDtmnspy7