BOX SET: 6 Minute English - 'Technology and lifestyle' English mega-class! 30 minutes of vocabulary!

263,248 views

2023-05-21 ・ BBC Learning English


New videos

BOX SET: 6 Minute English - 'Technology and lifestyle' English mega-class! 30 minutes of vocabulary!

263,248 views ・ 2023-05-21

BBC Learning English


아래 영문자막을 더블클릭하시면 영상이 재생됩니다. 번역된 자막은 기계 번역됩니다.

00:05
Hello and welcome to
0
5920
1040
안녕하세요,
00:06
6 Minute English. I'm Dan.
1
6960
1760
6분 영어에 오신 것을 환영합니다. 저는 댄입니다.
00:08
And I'm Rob. So, Dan, what's that…
2
8720
2720
저는 롭입니다. 그래서, 댄, 그게 뭔데...
00:11
Oh, sorry. Oh, it's my wife.
3
11440
4960
아, 죄송합니다. 오, 내 아내야.
00:16
Err… hang on…
4
16400
1920
어... 잠깐만...
00:18
You didn't answer!
5
18320
1276
대답을 안 했어!
00:19
Well, don't take this personally, Dan,
6
19596
2404
글쎄, 이걸 개인적으로 받아들이지 마, 댄,
00:22
but I'm not exactly crazy about
7
22000
2080
하지만 난
00:24
someone eavesdropping on my
8
24080
1200
누군가 내 전화를 도청하는 것에 대해 정확히 미친 건 아니야
00:25
phone call. If you eavesdrop on
9
25280
1920
. 무언가를 엿듣는다면
00:27
something, you secretly listen to
10
27200
1680
00:28
someone's conversation.
11
28880
1360
누군가의 대화를 몰래 듣는 것입니다.
00:30
Some things are private, you know?
12
30240
1280
어떤 것들은 사적인 것입니다.
00:31
Oh! Of course! I totally understand.
13
31520
2882
오! 물론! 완전히 이해합니다.
00:34
One quick question for you though…
14
34402
2478
하지만 한 가지 간단한 질문이 있습니다.
00:36
do you have a smart speaker?
15
36880
1680
스마트 스피커가 있습니까?
00:38
You know, like the Google Assistant,
16
38560
1840
Google 어시스턴트,
00:40
Amazon's Alexa or Apple's Siri.
17
40400
2800
Amazon의 Alexa 또는 Apple의 Siri와 같은 것을 알고 있습니다.
00:43
Oh sure, yes, I've got one! It's great!
18
43200
2320
오, 그래, 그래, 하나 있어! 대단해!
00:45
I can ask it all sorts of questions, it
19
45520
2320
모든 종류의 질문을 할 수 있고
00:47
tells me about the news and weather,
20
47840
1600
뉴스와 날씨에 대해 알려주고
00:49
it plays music when I want… it does
21
49440
2080
내가 원할 때 음악을 재생합니다…
00:51
all sorts! You just give it a voice
22
51520
1840
음성
00:53
command and it does what you want!
23
53360
2240
명령만 내리면 원하는 대로 작동합니다!
00:55
So it can hear you, can it?
24
55600
1520
그래서 당신의 말을 들을 수 있죠, 그렇죠?
00:57
Of course! How else can you give
25
57120
1840
물론! 어떻게 음성 명령을 내릴 수 있습니까
00:58
it a voice command?
26
58960
1200
?
01:00
All the time?
27
60160
880
항상?
01:01
Well, I assume so.
28
61040
1280
글쎄요.
01:02
So how do you know it's not
29
62320
1200
그래서 그것이 당신을 도청하고 있지 않다는 것을 어떻게 알 수 있습니까
01:03
eavesdropping on you?
30
63520
1760
?
01:05
Well, I… oh… I see. I hadn't thought
31
65280
3280
음, 나는… 오… 알겠습니다. 나는 그것을 생각하지 않았다
01:08
of that.
32
68560
821
.
01:09
That's our topic for this
33
69381
1419
이것이 이번
01:10
6 Minute English.
34
70800
1200
6분 영어의 주제입니다.
01:12
How safe is your smart speaker?
35
72000
2400
당신의 스마트 스피커는 얼마나 안전한가요?
01:14
However, before that, here is our
36
74400
2080
그러나 그 전에
01:16
quiz question. By what percentage
37
76480
1880
퀴즈 질문이 있습니다.
01:18
has the number of smart speakers
38
78360
1560
01:19
used in US households increased
39
79920
2320
01:22
from December 2017 to December
40
82240
2320
2017년 12월부터 2018년 12월까지 미국 가정에서 사용되는 스마트 스피커의 수는 몇 퍼센트 증가했습니까
01:24
2018? Is it…
41
84560
1360
?
01:25
a) around 40%
42
85920
1680
a) 약 40%
01:27
b) around 60%, or
43
87600
1920
b) 약 60% 또는
01:29
c) around 80%?
44
89520
2080
c) 약 80%입니까?
01:31
Oh, well, I know they are very
45
91600
2000
오, 글쎄요,
01:33
popular even in my household.
46
93600
1760
저희 집에서도 매우 인기가 있다는 것을 압니다.
01:35
So I'm going to go for c) around 80%.
47
95360
3017
그래서 저는 c) 약 80%로 갈 것입니다.
01:38
Well, we'll find out if you're right later
48
98377
2183
음, 나중에 프로그램에서 당신이 옳은지 알아낼 것입니다
01:40
in the programme. So, smart
49
100560
2320
. 그래서 스마트
01:42
speakers and privacy! Florian Schaub
50
102880
2720
스피커와 프라이버시! Florian Schaub는
01:45
is an assistant professor at the
51
105600
1440
01:47
University of Michigan School
52
107040
1600
University of Michigan School
01:48
of Information. Here he is speaking
53
108640
2400
of Information의 조교수입니다. 여기에서 그는
01:51
on the BBC World Service programme
54
111040
1840
BBC World Service 프로그램인
01:52
The Why Factor about smart
55
112880
1760
The Why Factor에서 스마트
01:54
speakers. What does he say people
56
114640
2320
스피커에 대해 이야기하고 있습니다. 그는 사람들이
01:56
are introducing into their homes?
57
116960
2828
그들의 집에 무엇을 도입하고 있다고 말합니까?
02:00
You're basically introducing...
58
120480
1600
당신은 기본적으로
02:02
listening bug in your home, in your
59
122080
1920
당신의 집, 당신의
02:04
most intimate space. While the
60
124000
1760
가장 친밀한 공간에... 듣는 버그를 도입하고 있습니다.
02:05
companies say they are only actively
61
125760
2400
회사에서는
02:08
listening to what's going on in your
62
128160
1120
02:09
home when they hear the keyword,
63
129280
1920
키워드를 들을 때 집에서 일어나는 일만 적극적으로 듣는다고 말하지만 해당 키워드를 감지할 수 있도록
02:11
the microphone is still on the whole
64
131200
1440
마이크는 계속 켜져 있습니다
02:12
time in order to be able to detect
65
132640
1760
02:14
that keyword. We don't know to
66
134400
1360
. 우리는
02:15
what extent companies are
67
135760
1360
회사가 정부와 어느 정도
02:17
co-operating with the government
68
137120
1440
협력하고 있는지
02:18
or to what extent the government
69
138560
1280
또는 정부가 귀하가 하는 일을 들을 수 있도록 하기 위해 회사 보안 메커니즘을 어느 정도
02:19
might try to circumvent company
70
139840
2480
우회하려고 시도할 수 있는지 모릅니다
02:22
security mechanisms in order to
71
142320
2160
02:24
then be able to listen to what
72
144480
1360
02:25
you're doing.
73
145840
1298
.
02:28
So, what did he say people are
74
148064
1536
그래서 사람들이 무엇을
02:29
introducing, Rob?
75
149600
1280
소개한다고 하던가요, 롭?
02:30
He basically said we're introducing
76
150880
2400
그는 기본적으로 우리가
02:33
a listening bug. Now, a bug is a
77
153280
2640
듣기 버그를 소개한다고 말했습니다. 이제 버그는 몰래 대화를 듣기
02:35
small electronic device used for
78
155920
1600
위해 사용되는 작은 전자 장치입니다
02:37
secretly listening to conversations.
79
157520
2000
.
02:39
Much like a spy would use.
80
159520
1840
스파이가 사용하는 것과 비슷합니다.
02:41
Yes, and he mentioned it was in
81
161360
1920
예, 그는 그것이
02:43
our most intimate space! 'Intimate'
82
163280
2800
우리의 가장 친밀한 공간에 있다고 말했습니다! '친밀한'은
02:46
means 'private and personal'.
83
166080
2187
'개인적이고 사적인'을 의미합니다.
02:48
Well, I can't think of anywhere
84
168267
1333
글쎄, 나는
02:49
more intimate than my home.
85
169600
2160
내 집보다 더 친밀한 곳을 생각할 수 없다.
02:51
Indeed! He also said that the
86
171760
2400
물론! 그는 또한
02:54
smart speaker's microphone is
87
174160
1680
스마트 스피커의 마이크가
02:55
on the whole time – even though
88
175840
1760
항상 켜져 있다고 말했습니다.
02:57
the companies insist that they're
89
177600
1520
회사는
02:59
only actively listening when the
90
179120
1760
03:00
keyword is said.
91
180880
1280
키워드가 말해질 때만 능동적으로 듣는다고 주장하지만.
03:02
Yes, he suggested that we can't
92
182160
1440
예, 그는
03:03
know how far a company might
93
183600
1440
회사가
03:05
be co-operating with a government
94
185040
1680
03:06
to eavesdrop on people.
95
186720
1520
사람들을 도청하기 위해 정부와 얼마나 협력할 수 있는지 알 수 없다고 제안했습니다.
03:08
Or whether a government might
96
188240
1200
또는 정부가
03:09
be circumventing a smart speaker's
97
189440
2080
스마트 스피커의
03:11
security and listening in anyway
98
191520
2800
보안을 우회하고
03:14
without the company's or owner's
99
194320
1760
회사나 소유자의
03:16
permission!
100
196080
1120
허가 없이 어쨌든 듣고 있는지 여부!
03:17
'Circumvent' means 'cleverly bypass
101
197200
2560
'Circumvent'는 '교묘하게 우회하거나
03:19
or go around'. So, if all this
102
199760
2400
우회하다'를 의미합니다. 그렇다면 이 모든
03:22
eavesdropping is possible, why are
103
202160
2320
도청이 가능하다면 왜
03:24
smart speakers so popular?
104
204480
2240
스마트 스피커가 인기가 있을까요?
03:26
Good question! And here's Florian
105
206720
2160
좋은 질문! 그리고 여기 Florian
03:28
Schaub again with an answer. He
106
208880
2000
Schaub가 답을 가지고 있습니다. 그는 스마트 스피커에 관한 개인 정보 보호에 대한
03:30
conducted a study on people's
107
210880
1920
사람들의 태도에 대한 연구를 수행했습니다
03:32
attitudes to privacy when it comes
108
212800
1760
03:34
to smart speakers. How do people
109
214560
2320
. 도청이 가능한
03:36
feel about having a smart speaker
110
216880
1760
스마트 스피커에 대해 사람들은 어떻게 생각할까요
03:38
that could eavesdrop on them?
111
218640
1865
?
03:40
What we often saw is people just
112
220880
2080
우리가 자주 본 것은 사람들이 스마트 스피커가 제공하는 편리함을 즐기고 싶다면
03:42
being resigned to 'this is the
113
222960
2000
'이것이
03:44
trade-off they have to make' if
114
224960
1360
그들이 해야 할 절충안'이라고 체념하는 것입니다
03:46
they want to enjoy the convenience
115
226320
1920
03:48
that a smart speaker provides to them.
116
228240
2192
.
03:50
He said that people are resigned
117
230960
2320
그는 사람들이
03:53
to the privacy trade-off. If you are
118
233280
2480
사생활 보호 거래에 체념했다고 말했습니다. 당신이
03:55
resigned to something, you
119
235760
1360
어떤 것에 체념한다면, 당신은
03:57
accept something unpleasant that
120
237120
1760
03:58
can't be changed.
121
238880
1120
바꿀 수 없는 불쾌한 것을 받아들입니다.
04:00
Yes and a trade-off is a compromise.
122
240000
2560
예, 절충은 타협입니다. 좋은 것을 받기 위해
04:02
You accept something bad to also
123
242560
2080
나쁜 것도 받아들입니다
04:04
receive something good.
124
244640
1360
.
04:06
So people accept that a smart
125
246000
1600
그래서 사람들은 단점이 있을 수 있지만 스마트
04:07
speaker gives them advantages,
126
247600
2240
스피커가 장점을 제공한다는 사실을 받아들입니까
04:09
even though there could be
127
249840
1440
04:11
downsides?
128
251280
800
?
04:12
Yes. In the grand scheme of things,
129
252080
2080
예. 큰 틀에서 볼 때
04:14
the data that these devices hear
130
254160
2000
이러한 장치가 듣는 데이터는
04:16
is probably not that significant
131
256160
2080
04:18
considering all the data companies
132
258240
1760
회사가
04:20
have about us already anyway!
133
260000
2279
이미 우리에 대해 가지고 있는 모든 데이터를 고려할 때 그다지 중요하지 않을 수 있습니다!
04:22
So, can I have the answer to the
134
262857
1543
그럼 퀴즈의 답을 알 수 있을까요
04:24
quiz then?
135
264400
640
?
04:25
Of course! Earlier I asked by what
136
265040
2880
물론! 앞서
04:27
percentage the number of smart
137
267920
1440
04:29
speakers used in US households
138
269360
2080
04:31
increased from December 2017
139
271440
2240
2017년 12월부터
04:33
to December 2018? Was it…
140
273680
2080
2018년 12월까지 미국 가정에서 사용되는 스마트 스피커의 수가 몇 퍼센트 증가했는지 물었습니다.
04:35
a) around 40%
141
275760
1680
a) 약 40%
04:37
b) around 60%, or
142
277440
1760
b) 약 60%였나요, 아니면
04:39
c) around 80%?
143
279200
1760
c) 약 80%였나요?
04:40
What did you say, Rob?
144
280960
1040
뭐라고 했어, 롭?
04:42
I said c) around 80%.
145
282000
2080
나는 c) 약 80%라고 말했다.
04:44
And you are right. The answer
146
284080
2720
그리고 당신 말이 맞습니다. 대답은
04:46
is around 80% - from 66 million
147
286800
2720
약 80%입니다.
04:49
in December 2017 to 118 million
148
289520
3760
2017년 12월 6,600만 명에서
04:53
in December 2018, and around
149
293280
2800
2018년 12월
04:56
ten million people in the UK now
150
296080
2080
1억 1,800만 명으로, 현재 영국에서도 약 1,000만 명이
04:58
use one too! I guess they're
151
298160
2080
사용하고 있습니다! 나는 그들이 도청에
05:00
really not worried about
152
300240
720
05:00
eavesdropping.
153
300960
896
대해 정말로 걱정하지 않는다고 생각합니다
. 거기
05:01
Nice slide into the vocabulary
154
301856
2464
어휘에 좋은 슬라이드
05:04
there, Dan. If someone eavesdrops
155
304320
2320
, Dan. 누군가 당신의 대화를 몰래 엿듣는다는 것은
05:06
on you, it means they secretly
156
306640
1600
그들이
05:08
listen to your conversation.
157
308240
1440
당신의 대화를 몰래 듣고 있다는 뜻입니다.
05:09
They could be eavesdropping on
158
309680
1360
그들은 대화를
05:11
you through a bug, which is a small
159
311040
2240
05:13
electronic device used to secretly
160
313280
2080
비밀리에 듣는 데 사용되는 작은 전자 장치인 버그를 통해 도청하고 있을 수 있습니다
05:15
listen to conversations.
161
315360
1840
.
05:17
Yes, they may have bugged your
162
317200
1520
예, 그들은 귀하의
05:18
most intimate, or private and
163
318720
1840
가장 친밀하거나 개인적이고
05:20
personal, spaces.
164
320560
1440
개인적인 공간을 도청했을 수 있습니다.
05:22
Next we had circumvent. If you
165
322000
2160
다음으로 우리는 우회했습니다. 보안과
05:24
circumvent something, such as
166
324160
1440
같은 것을 우회하면
05:25
security, you cleverly or bypass
167
325600
2240
교묘하게 우회하거나
05:27
it or go around it.
168
327840
1920
우회합니다.
05:29
Then we had resigned. If you are
169
329760
2080
그런 다음 우리는 사임했습니다. 만약 당신이
05:31
resigned to something, it means
170
331840
1840
무언가에 체념한다면, 그것은
05:33
you accept something unpleasant
171
333680
2000
당신이
05:35
that can't be changed.
172
335680
1440
바꿀 수 없는 불쾌한 것을 받아들인다는 것을 의미합니다.
05:37
And lastly, we had trade-off.
173
337120
2320
그리고 마지막으로 트레이드 오프가 있었습니다.
05:39
A trade-off is a compromise.
174
339440
1760
절충은 타협입니다.
05:41
You get something good, but you
175
341200
1840
당신은 좋은 것을 얻지만
05:43
also get something bad.
176
343040
1920
나쁜 것도 얻습니다.
05:44
Right - like 6 Minute English!
177
344960
1920
맞아요 - 6분영어처럼!
05:46
A great discussion and vocabulary,
178
346880
2320
훌륭한 토론과 어휘
05:49
but the trade-off is it only lasts
179
349200
2240
이지만
05:51
six minutes!
180
351440
1120
6분 동안만 지속된다는 단점이 있습니다!
05:52
Which is just about now,
181
352560
1440
05:54
actually - time to go. So until next
182
354000
2240
사실 이제 곧 갈 시간입니다. 그러니 다음 시간까지
05:56
time, find us all over the place
183
356240
1583
05:57
online and on social media.
184
357823
2402
온라인과 소셜 미디어에서 우리를 찾아주세요.
06:00
Just search for BBC Learning English.
185
360225
2335
BBC Learning English를 검색하세요.
06:02
Bye for now.
186
362560
720
지금은 안녕.
06:03
Goodbye!
187
363280
841
안녕히 가세요!
06:09
Hello. This is 6 Minute English
188
369680
1600
안녕하세요.
06:11
from BBC Learning English.
189
371280
1440
BBC Learning English의 6분 영어입니다.
06:12
I’m Neil.
190
372720
880
저는 닐입니다.
06:13
And I’m Sam.
191
373600
960
그리고 저는 샘입니다.
06:14
People collect all kinds of things
192
374560
1760
사람들은
06:16
for a hobby, from stamps and coins
193
376320
1840
취미로 우표와 동전부터
06:18
to comics and football stickers.
194
378160
2000
만화책과 축구 스티커에 이르기까지 모든 종류의 물건을 수집합니다.
06:20
Do you collect anything, Sam?
195
380160
1920
모으는 거 있니, 샘?
06:22
I used to have a big collection
196
382080
1680
나는 많은 포켓몬 카드 컬렉션을 가지고 있었지만
06:23
of Pokémon cards but I have no
197
383760
2080
06:25
idea where they are now.
198
385840
1600
지금은 어디에 있는지 모르겠습니다.
06:27
Well, maybe you should start
199
387440
1280
글쎄요, 사람들이 수집하고 싶어하는
06:28
looking for them because all
200
388720
1360
모든
06:30
kinds of collectables – that’s
201
390080
2000
종류의 수집품이
06:32
objects that people want to
202
392080
1280
06:33
collect – are selling for big
203
393360
1680
06:35
money on the internet. It’s
204
395040
1680
인터넷에서 큰 돈에 팔리고 있기 때문에 그것들을 찾기 시작해야 할 것입니다. 이는 NFT(대체 불가능한 토큰)라고 하는
06:36
all part of a new tech craze
205
396720
1680
새로운 기술 열풍의 일부입니다
06:38
called non-fungible tokens,
206
398400
2000
06:40
or NFTs for short.
207
400400
1760
. 대체
06:42
Non-fungible tokens?
208
402160
1760
불가능한 토큰?
06:43
Basically, NTFs are unique,
209
403920
2160
기본적으로 NTF는 물리적 개체
06:46
one-of-kind items that can
210
406080
1600
06:47
be bought and sold like any
211
407680
1600
처럼 사고 팔 수 있지만
06:49
physical object but only exist
212
409280
2320
06:51
in the digital world. ‘Tokens’
213
411600
2320
디지털 세계에만 존재하는 독특하고 독특한 아이템입니다. '토큰'은 이러한 가상 소유물에 대한 소유권
06:53
can be thought of as certificates
214
413920
1680
증명서로 생각할 수 있습니다
06:55
of ownership for these virtual
215
415600
1840
06:57
possessions.
216
417440
600
.
06:58
Hmmm, OK. I understand the
217
418040
2920
음, 알겠습니다.
07:00
‘token’ part but what does
218
420960
2000
'토큰' 부분은 이해하지만
07:02
‘non-fungible’ mean?
219
422960
1600
'대체 불가능'은 무엇을 의미합니까?
07:04
If something is ‘fungible’ it can
220
424560
1760
어떤 것이 '대체 가능'하다면 예를 들어
07:06
be interchanged, like money,
221
426320
2000
돈과 같이 교환될 수 있습니다
07:08
for example. With money you
222
428320
1680
. 돈으로
07:10
can swap a £10 note for two
223
430000
1920
£10 지폐를 £5 지폐 두 장으로 교환할 수
07:11
£5 notes and it will have the
224
431920
1600
있으며
07:13
same value.
225
433520
1086
동일한 가치를 갖게 됩니다.
07:14
So, something non-fungible
226
434606
2194
따라서 대체 불가능한 것은 다른
07:16
cannot be interchanged with
227
436800
1520
것으로 교환할 수 없습니다
07:18
something else. Is that because
228
438320
1680
. 그것은
07:20
it has special features that
229
440000
1760
07:21
make it unique?
230
441760
1360
그것을 독특하게 만드는 특별한 기능을 가지고 있기 때문입니까?
07:23
Exactly. Imagine something
231
443120
1680
정확히.
07:24
totally unique like the Mona Lisa.
232
444800
2080
모나리자와 같이 완전히 독특한 것을 상상해보십시오.
07:26
You can take a photo of the
233
446880
1280
그림의 사진을 찍거나
07:28
painting or buy a copy of it, but
234
448160
2080
사본을 구입할 수 있지만
07:30
there will only ever be the one
235
450240
1840
07:32
original painting.
236
452080
1200
원본 그림은 하나만 있을 것입니다.
07:33
I can see that the Mona Lisa is
237
453280
2320
모나리자가
07:35
one-of-a-kind and extremely
238
455600
1920
독특하고 매우
07:37
valuable, but it’s not for sale
239
457520
2000
귀중하다는 것을 알 수 있지만
07:39
on the internet!
240
459520
1040
인터넷에서는 판매할 수 없습니다!
07:40
True, but lots of other things
241
460560
1520
사실이지만 사인이
07:42
are, from signed celebrity
242
462080
1440
있는 유명인
07:43
artwork to virtual football
243
463520
1760
작품부터 가상 축구
07:45
cards. NFTs are like autographed
244
465280
2640
카드에 이르기까지 다른 많은 것들이 있습니다. NFT는 사인된
07:47
photos – collectors want something
245
467920
2080
사진과 같습니다. 수집가는
07:50
no-one else has, even though
246
470000
1600
07:51
there’s nothing physical they
247
471600
1440
07:53
actually own and keep.
248
473040
1440
실제로 소유하고 보관하는 물리적인 것이 없음에도 불구하고 다른 사람이 가지고 있지 않은 것을 원합니다.
07:54
And the value of NFTs is going
249
474480
2480
그리고 NFT의 가치는 점점
07:56
up and up?
250
476960
1040
높아지고 있습니까?
07:58
Massively. A digital sticker of
251
478000
2240
엄청나게.
08:00
French footballer, Kylian Mbappé,
252
480240
1760
프랑스 축구 선수 Kylian Mbappé의 디지털 스티커가
08:02
recently sold for £25,000! Which
253
482000
3680
최근 £25,000에 판매되었습니다!
08:05
reminds me of my quiz
254
485680
1040
제 퀴즈 질문이 생각나네요
08:06
question, Sam.
255
486720
1200
, 샘.
08:07
In June 2021, Sir Tim Berners-Lee
256
487920
2960
2021년 6월, Tim Berners-Lee 경은
08:10
sold the original source code he
257
490880
1760
08:12
used to invent the World Wide
258
492640
1520
월드 와이드 웹을 발명하는 데 사용한 원본 소스 코드를
08:14
Web as an NFT at a charity auction.
259
494160
3040
자선 경매에서 NFT로 판매했습니다.
08:17
The sale started at $1000 but
260
497200
2080
판매는 $1000에서 시작했지만
08:19
how much did the source code
261
499280
1600
소스 코드는
08:20
eventually sell for? Was it:
262
500880
1760
결국 얼마에 판매되었습니까?
08:22
a) 5.4 thousand dollars?
263
502640
2480
a) 5.4천 달러였나요?
08:25
b) 5.4 million dollars? or
264
505120
2400
b) 540만 달러? 또는
08:27
c) 5.4 billion dollars?
265
507520
3065
c) 54억 달러? 인터넷이
08:30
If you’re asking me how much
266
510585
2055
얼마에 팔렸느냐고 묻는다면
08:32
the internet sold for, I’d say
267
512640
2640
08:35
c) 5.4 billion dollars.
268
515280
3120
c) 54억 달러라고 말하고 싶습니다.
08:38
OK, Sam, we’ll find out later
269
518400
1600
좋아, 샘. 그게 맞는지 나중에 알아보자
08:40
if that’s right.
270
520000
960
08:40
Sir Tim Berners-Lee famously
271
520960
1760
.
Tim Berners-Le 경은 자신의 발명품이 모두에게 무료여야 한다고 주장하면서 월드 와이드 웹
08:42
never made any money from the
272
522720
1840
으로 돈을 벌지 않은 것으로 유명합니다
08:44
World Wide Web, insisting that
273
524560
2000
08:46
his invention should be free
274
526560
1680
08:48
for everyone. But the world of
275
528240
1600
. 그러나 NFT의 세계는
08:49
NFTs is controversial and not
276
529840
2560
논란의 여지가 있으며
08:52
everyone thinks Sir Tim should
277
532400
1680
모든 사람이 Tim 경이 참여해야 한다고 생각하는 것은 아닙니다
08:54
be getting involved.
278
534080
1360
.
08:55
That’s certainly the view of
279
535440
1280
그것은 확실히
08:56
Shona Ghosh, technology
280
536720
1520
08:58
editor at the ‘The Insider’ website,
281
538240
2000
'The Insider' 웹사이트의 기술 편집자인 Shona Ghosh의 견해입니다.
09:00
as she told BBC World Service
282
540240
1840
그녀는 BBC World Service
09:02
programme, Tech Tent:
283
542080
1280
프로그램인 Tech Tent에서 다음과 같이 말했습니다.
09:03
I think there’s a balance to be
284
543360
1120
09:04
struck between exploring new
285
544480
1840
09:06
technologies and
286
546320
1760
09:08
Sir Tim Berners-Lee is an
287
548080
2000
09:10
amazing figure but NFTs are
288
550080
2480
그림이지만 NFT는
09:12
a Wild West. Not everything
289
552560
2960
와일드 웨스트입니다.
09:15
associated with NFTs are
290
555520
1840
NFT와 관련된 모든 것이
09:17
rogue, but these so-called digital
291
557360
2320
악성은 아니지만 이러한 소위 디지털
09:19
collectables are going for
292
559680
1040
수집품은
09:20
lots of money.
293
560720
1360
많은 돈을 벌고 있습니다.
09:22
Internet NFTs are very new and
294
562080
2480
인터넷 NFT는 매우 새롭고 판매할 수 있는
09:24
there are no rules controlling what
295
564560
2080
항목과 금액을 제어하는 ​​규칙이 없으므로
09:26
can be sold and for how much, so
296
566640
2640
09:29
Shona describes them as a 'Wild West'.
297
569280
3360
Shona는 이를 '와일드 웨스트'라고 설명합니다.
09:32
The Wild West means a situation
298
572640
2080
Wild West는 미국 서부의
09:34
where people can do whatever
299
574720
1280
09:36
they want because there are no
300
576000
1440
09:37
laws or controls, like the early
301
577440
1760
초기 역사와 같이 법이나 통제가 없기 때문에 사람들이 원하는 것은 무엇이든 할 수 있는 상황을 의미합니다
09:39
history of the western part of
302
579200
1600
09:40
the United States.
303
580800
1120
.
09:41
She also calls some things about
304
581920
1600
그녀는 또한 NFTs rogue에 대해 몇 가지를 호출합니다
09:43
NFTs rogue - behaving differently
305
583520
3440
. 이는
09:46
from what’s normal or expected,
306
586960
2320
09:49
often in a way that causes damage.
307
589280
2880
종종 손상을 일으키는 방식으로 정상 또는 예상과 다르게 행동합니다.
09:52
Love them or hate them, there are
308
592160
1440
09:53
strong opinions on both sides of
309
593600
1760
09:55
the NFT debate, as
310
595360
1440
09:56
Rory Cellan-Jones, presenter
311
596800
1920
09:58
of BBC World Service’s
312
598720
1600
BBC World Service의
10:00
Tech Tent, explains:
313
600320
1440
Tech Tent 발표자인 Rory Cellan-Jones는 다음과 같이 설명합니다.
10:01
To some NFTs are a brilliant
314
601760
2480
10:04
innovation which has promised
315
604240
1200
10:05
to put a value on digital artefacts.
316
605440
2880
인공물.
10:08
To others they’re little more than
317
608320
1600
다른 사람들에게는 토큰이 생성되는 방식으로 인해
10:09
a dubious pyramid scheme with a
318
609920
2080
10:12
damaging impact on the environment
319
612000
1920
환경에 해로운 영향을 미치는 모호한 피라미드 계획에 지나지 않습니다
10:13
because of the way the tokens
320
613920
1440
10:15
are created.
321
615360
1120
.
10:16
Some people are suspicious of
322
616480
1680
일부 사람들은
10:18
the large amounts of money
323
618160
1280
10:19
collectors are willing to pay,
324
619440
2000
10:21
comparing NFTs to pyramid
325
621440
2160
NFT를 피라미드
10:23
schemes - business tricks or
326
623600
2320
사기(비즈니스 속임수 또는
10:25
scams where money is
327
625920
1520
10:27
obtained dishonestly.
328
627440
1840
부정직하게 돈을 얻는 사기)와 비교하여 수집가가 기꺼이 지불하려는 많은 양의 돈을 의심합니다.
10:29
But for others NFTs are a
329
629280
1760
그러나 다른 사람들에게 NFT는 전자 버전으로 생성되고 저장되는 이미지, 비디오 및 음악과 같은 항목인
10:31
legitimate and useful way
330
631040
1520
10:32
to put a price on rare digital
331
632560
1840
희귀한 디지털 인공물에 가격을 책정하는 합법적이고 유용한 방법입니다
10:34
artefacts – items, such as
332
634400
1840
10:36
images, videos and music,
333
636240
1920
10:38
that are produced and stored
334
638160
1360
10:39
as electronic versions.
335
639520
1680
. 예를 들어 인터넷의
10:41
Items like, for example, the
336
641200
2080
10:43
original source code for the
337
643280
1440
원본 소스 코드와 같은 항목입니다
10:44
internet. So, how much money
338
644720
1520
. 그래서
10:46
did Sir Tim Berners-Lee raise for
339
646240
1840
Tim Berners-Lee 경이
10:48
charity when he sold it off, Neil?
340
648080
2160
그것을 팔았을 때 자선을 위해 얼마나 많은 돈을 모았습니까, Neil?
10:50
In my quiz question, I asked
341
650240
1440
퀴즈 질문에서
10:51
Sam how much the NFT for
342
651680
1920
Sam에게
10:53
the original internet source
343
653600
1360
원본 인터넷 소스
10:54
code sold for at auction.
344
654960
2240
코드에 대한 NFT가 경매에서 얼마에 팔렸는지 물었습니다.
10:57
I said c) 5.4 billion dollars.
345
657200
3120
나는 c) 54억 달러라고 말했다.
11:00
You were… wrong! In fact, it
346
660320
2160
당신은… 틀렸습니다! 사실, 그것은
11:02
was less - 5.4 million dollars –
347
662480
2320
540만 달러로 적었지만
11:04
but still far too expensive
348
664800
1360
여전히 내가 모으기에는 너무 비쌌습니다
11:06
for me to collect.
349
666160
800
11:06
Hmmm, now I’m wondering
350
666960
960
.
음, 이제
11:07
how much my Pokémon card
351
667920
1440
내 Pokémon 카드
11:09
collection would sell for. If only
352
669360
1680
컬렉션이 얼마에 팔릴지 궁금합니다.
11:11
I could find it!
353
671040
1360
내가 찾을 수만 있다면!
11:12
Well, while you look for your
354
672400
1120
음, 컬렉션을 찾는 동안
11:13
collection, Sam, let’s recap
355
673520
1520
Sam,
11:15
the vocabulary from this
356
675040
1200
11:16
programme all about NFTs
357
676240
2000
11:18
which are digital artefacts or
358
678240
2080
디지털 인공물 또는
11:20
items that are produced and
359
680320
1440
11:21
stored as electronic versions.
360
681760
2080
전자 버전으로 생성 및 저장되는 항목인 NFT에 대한 모든 어휘를 이 프로그램에서 요약해 보겠습니다.
11:23
NFTs are virtual collectables –
361
683840
2640
NFT는
11:26
desirable objects that people
362
686480
1680
사람들이
11:28
search for and collect.
363
688160
1840
검색하고 수집하는 바람직한 개체인 가상 수집품입니다.
11:30
And they are non-fungible
364
690000
1680
그리고 대체불가(Non-fungible)는 다른 어떤 것과도 바꿀 수 없는
11:31
meaning they have special and
365
691680
1360
특별하고
11:33
unique characteristics that
366
693040
1360
고유한 특성을 가지고 있다는 의미입니다
11:34
cannot be interchanged
367
694400
1280
11:35
with anything else.
368
695680
1040
.
11:36
If something is rogue it behaves
369
696720
2000
무언가 불량이면
11:38
in a different way from what’s
370
698720
1600
11:40
normal or expected, often
371
700320
2000
정상적이거나 예상한 것과 다른 방식으로 작동하여 종종
11:42
causing damage.
372
702320
1440
피해를 입힙니다.
11:43
The Wild West describes a
373
703760
1440
Wild West는
11:45
chaotic situation without
374
705200
1600
11:46
laws or controls.
375
706800
1360
법이나 통제가 없는 혼란스러운 상황을 묘사합니다.
11:48
And finally, a pyramid scheme
376
708160
2000
그리고 마지막으로 다단계 사기는
11:50
is a business scam where
377
710160
1600
11:51
money is gained dishonestly.
378
711760
2160
부정직하게 돈을 버는 사업 사기입니다.
11:53
If you’d like to know more
379
713920
1280
11:55
about non-fungible tokens, bitcoin
380
715200
1920
대체 불가능한 토큰, 비트코인
11:57
and other trending internet topics
381
717120
1680
및 기타 유행하는 인터넷 주제에 대해 더 알고 싶다면
11:58
there’s plenty to find on the
382
718800
1360
12:00
BBC website.
383
720160
1040
BBC 웹사이트에서 찾을 수 있는 것이 많습니다.
12:01
And for more interesting
384
721200
960
그리고 더 재미있는
12:02
conversation and useful
385
722160
1360
대화와 유용한
12:03
vocabulary, remember to join us
386
723520
1920
어휘를 위해
12:05
again soon here at 6 Minute
387
725440
1920
곧 여기 6 Minute English에서 다시 합류하는 것을 잊지 마세요
12:07
English. Bye for now!
388
727360
1600
. 지금은 안녕!
12:08
Bye!
389
728960
880
안녕!
12:15
Welcome to 6 Minute English,
390
735520
1760
12:17
the programme where we
391
737280
1200
12:18
explore an interesting topic
392
738480
1680
흥미로운 주제를 탐구
12:20
and bring you six items of
393
740160
1680
하고 유용한 어휘 6개 항목을 제공하는 프로그램인 6분 영어에 오신 것을 환영합니다
12:21
useful vocabulary. I'm Catherine.
394
741840
2400
. 저는 캐서린입니다.
12:24
And I'm Rob.
395
744240
960
저는 롭입니다.
12:25
I have a question for you, Rob:
396
745200
2000
질문이 있습니다, Rob:
12:27
how would you feel about
397
747200
1600
12:28
having therapy from a robot?
398
748800
3120
로봇으로부터 치료를 받는 것에 대해 어떻게 생각하십니까?
12:31
I'm not too sure about that – you'll
399
751920
1600
잘 모르겠습니다.
12:33
need to tell me more! But first
400
753520
1680
더 자세히 알려주셔야 합니다! 그러나
12:35
things first, the word 'therapy'
401
755200
2480
먼저 '치료'라는 단어는 정신 건강 문제에 대한 치료를 포함하여
12:37
refers to a kind of treatment
402
757680
1920
12:39
that helps someone feel better –
403
759600
1920
누군가의 기분이 나아지는 데 도움이 되는 일종의 치료를 의미합니다
12:41
including treatment for mental
404
761520
1360
12:42
health issues. Someone who
405
762880
1520
.
12:44
delivers therapy is called a therapist.
406
764400
2640
치료를 제공하는 사람을 치료사라고 합니다. 잠시 후
12:47
We'll find out more about this
407
767040
1760
이 로봇 치료사에 대해 자세히 알아보겠습니다
12:48
robot therapist in just a moment,
408
768800
2320
.
12:51
but first, Rob, I've got a question for
409
771120
2480
하지만 먼저 Rob,
12:53
you about the scale of mental
410
773600
2080
12:55
health issues globally. So, roughly
411
775680
3280
전 세계적으로 정신 건강 문제의 규모에 대해 질문이 있습니다. 그렇다면 대략
12:58
how many people do you think
412
778960
1760
몇 명의 사람들이
13:00
experience mental health issues
413
780720
2320
13:03
at some point during their lifetime?
414
783040
2880
일생 동안 어느 시점에서 정신 건강 문제를 경험한다고 생각하십니까?
13:05
Is it…
415
785920
800
13:06
a) one in ten people,
416
786720
2400
a) 10명 중 1명,
13:09
b) one in four, or
417
789120
2400
b) 4명 중 1명 또는
13:11
c) one in three?
418
791520
1600
c) 3명 중 1명입니까?
13:13
I'll go for one in four, but I know
419
793120
1840
4개 중 1개를 선택하겠습니다. 하지만
13:14
whichever answer is right – it's a
420
794960
2160
어느 쪽이 옳은지 알고 있습니다.
13:17
big issue. How might a
421
797120
1360
큰 문제입니다.
13:18
robot therapist help?
422
798480
1440
로봇 치료사는 어떻게 도움이 될까요?
13:19
We're not talking about a robot
423
799920
1920
우리는 스타워즈 감각의 로봇에 대해 말하는 것이 아닙니다
13:21
in the Star Wars sense – so, there's
424
801840
2240
. 따라서
13:24
no flashing lights and mechanical
425
804080
1680
번쩍이는 불빛과 기계
13:25
arms, Rob! It's actually an app in
426
805760
2400
팔이 없습니다, Rob! 이것은 실제로 스마트폰에 있는 앱으로,
13:28
your smartphone that talks to you –
427
808160
2880
13:31
and it's called Woebot.
428
811040
3120
Woebot이라고 합니다.
13:34
So – it has a sense of humour.
429
814160
2000
그래서 - 유머 감각이 있습니다.
13:36
'Woe' means 'sadness'; so this
430
816160
2160
'화'는 '슬픔'을 의미합니다. 그래서 이것은
13:38
is a 'woe' bot, not a robot.
431
818320
2640
로봇이 아니라 'woe' 봇입니다.
13:40
And it was developed by
432
820960
1520
그리고 그것은 미국 스탠포드 대학의
13:42
psychologist Dr Alison Darcy
433
822480
2480
심리학자 Dr Alison Darcy에 의해 개발되었습니다
13:44
from Stanford University in the
434
824960
1840
13:46
US. Here she is, talking to the BBC
435
826800
2880
. 여기 그녀는 BBC
13:49
radio programme All in the Mind.
436
829680
2480
라디오 프로그램 All in the Mind와 이야기하고 있습니다.
13:52
Well, after you start an initial
437
832160
2240
음, Woebot과 초기 대화를 시작한 후 Woebot은 그가
13:54
conversation with the Woebot, and
438
834400
960
13:55
he'll take you through sort of what
439
835360
1120
13:56
he can do and what he can't do, he'll
440
836480
1680
할 수 있는 것과 할 수 없는 것에 대해 설명할 것입니다.
13:58
just essentially check in with you
441
838160
1120
13:59
every day and just give you a sort
442
839280
1840
14:01
of figurative tap on the shoulder
443
841120
1440
어깨를 가볍게 두드리면서
14:02
and say: "Hey Claudia, how are
444
842560
1600
"안녕 클라우디아, 잘
14:04
you doing? What's going on in your
445
844160
1600
지내니?
14:05
day? How do you feel?" So if you
446
845760
1520
오늘 무슨 일 있어? 기분이 어때?"라고 말하세요. 따라서
14:07
say, like "I'm really, really stressed out",
447
847280
2320
"나는 정말, 정말 스트레스를 받고 있어"라고 말하면
14:09
Woebot might offer to help talk
448
849600
2640
Woebot이 도움을 주겠다고 제안할 수 있습니다
14:12
you through something.
449
852240
1488
.
14:14
Woebot checks in with you every
450
854101
2139
Woebot은 매일 귀하를 확인
14:16
day and asks you how you are.
451
856240
2080
하고 귀하의 안부를 묻습니다.
14:18
So here, to check in with someone
452
858320
2240
따라서 여기서 누군가와 체크인한다는 것은 그 사람과 함께
14:20
doesn't mean to register at a hotel
453
860560
1760
호텔에 등록하는 것을 의미하지 않습니다
14:22
with that person! It's an informal
454
862320
2000
! 정보를 보고하거나 알아내기 위해
14:24
way of saying you talk to someone
455
864320
1760
누군가에게 말을 걸었다는 비공식적인 표현입니다
14:26
in order to report or find out information.
456
866080
2640
.
14:28
And this usage is more common
457
868720
1760
그리고 이 사용법은 미국에서 더 일반적입니다
14:30
in the United States. So, for
458
870480
1920
. 예를 들면 다음과 같습니다
14:32
example: "I can't meet you today, Rob,
459
872400
2240
. "Rob, 오늘은 만날 수 없지만
14:34
but I'll check in with you tomorrow
460
874640
1520
14:36
to see how the project is getting on."
461
876160
2160
프로젝트가 어떻게 진행되고 있는지 내일 확인하겠습니다."
14:38
So, this robot checks in with you
462
878320
2160
그래서 이 로봇은 매일 당신을 확인합니다
14:40
every day. It tracks your mood and
463
880480
2160
. 인지 행동 치료라는 기술을 사용하여 기분을 추적하고
14:42
talks to you about your emotions, using
464
882640
2080
감정에 대해 이야기합니다
14:44
a technique called cognitive
465
884720
1760
14:46
behavioural therapy.
466
886480
1520
.
14:48
Cognitive behavioural therapy is a
467
888000
2800
인지 행동 치료는
14:50
common therapeutic technique that
468
890800
2160
14:52
helps people deal with problems by
469
892960
2320
사람들이
14:55
changing the way they think.
470
895280
1680
생각하는 방식을 바꾸어 문제를 해결하도록 돕는 일반적인 치료 기술입니다.
14:56
That all sounds great, but does
471
896960
1600
모두 훌륭하게 들리지만
14:58
Woebot actually work?
472
898560
1920
Woebot이 실제로 작동합니까?
15:00
They've done some trials which
473
900480
1360
그들은 단순히 정신 건강에 대한 정보를 읽는 것보다 더 효과적일 수 있음을 보여주는 몇 가지 실험을 수행했습니다
15:01
show it can be more effective than
474
901840
2160
15:04
simply reading information about
475
904000
1840
15:05
mental health. But they haven't
476
905840
2240
. 그러나 그들은 윤리적 문제로 인해
15:08
compared Woebot to a real therapist
477
908080
2880
Woebot을 실제 치료사와 비교하지 않았습니다
15:10
due to ethical concerns.
478
910960
2080
.
15:13
Yes, it could be unethical to deny
479
913040
2160
예, 재판을 위해
15:15
a real patient access to a human
480
915200
2000
실제 환자가 인간 치료사에게 접근하는 것을 거부하는 것은 비윤리적일 수 있습니다
15:17
therapist for the sake of a trial.
481
917200
2400
.
15:19
'Ethical' basically means 'morally right'.
482
919600
2720
'윤리적'은 기본적으로 '도덕적으로 올바른'을 의미합니다.
15:22
And another concern is privacy.
483
922320
2720
그리고 또 다른 관심사는 프라이버시입니다.
15:25
People who use apps like this are
484
925040
2240
이와 같은 앱을 사용하는 사람들은
15:27
not protected by strong privacy laws.
485
927280
2880
강력한 개인정보 보호법의 보호를 받지 못합니다.
15:30
Despite these fears, digital therapy is
486
930160
2560
이러한 두려움에도 불구하고 디지털 치료는
15:32
booming – and Woebot is just one of
487
932720
2160
호황을 누리고 있으며 Woebot은 점점
15:34
an increasing number of electronic
488
934880
1840
더 많은 전자
15:36
services. One reason for this could
489
936720
2160
서비스 중 하나에 불과합니다. 그 이유 중 하나는
15:38
be using an app carries less stigma
490
938880
2240
앱을 사용하는 것이
15:41
than maybe seeing a human therapist.
491
941120
2240
인간 치료사를 만나는 것보다 낙인이 덜하기 때문일 수 있습니다.
15:43
And stigma refers to the negative
492
943360
2080
그리고 낙인은
15:45
associations that people have
493
945440
1760
사람들이
15:47
about something, especially when
494
947200
1760
무언가에 대해 갖는 부정적인 연상을 의미합니다. 특히
15:48
these associations are not fair. Even
495
948960
3120
이러한 연상이 공정하지 않을 때 그렇습니다.
15:52
though mental health is now being
496
952080
1680
정신 건강이
15:53
talked about more openly than before,
497
953760
2800
이전보다 더 공개적으로 논의되고 있지만
15:56
some people do still see mental
498
956560
2400
일부 사람들은 여전히 ​​정신
15:58
health issues and therapy negatively.
499
958960
2800
건강 문제와 치료를 부정적으로 봅니다.
16:01
Whatever you think of robot therapy,
500
961760
2400
로봇 치료에 대해 어떻게 생각하시든,
16:04
Dr Darcy believes that in the modern
501
964160
1920
Darcy 박사는 현대
16:06
world people need to self-reflect more –
502
966080
2720
사회에서 사람들은 자신의 감정 뒤에 숨은 이유를 이해하기 위해 자신에 대해 깊이 생각하는 것을 의미하는 자기 성찰이 더 필요하다고 믿습니다
16:08
which means thinking deeply about
503
968800
1760
16:10
yourself, in order to understand the
504
970560
1840
16:12
reasons behind your feelings.
505
972400
1920
.
16:14
The world that we live in right now
506
974320
1280
지금 우리가 살고 있는 세상은
16:15
is very noisy. Particularly digitally. You
507
975600
2960
매우 시끄럽습니다. 특히 디지털. 어디를 가든 주머니에
16:18
know, since we've had these little
508
978560
2080
이 작은 컴퓨터가 있기 때문에
16:20
computers in our pockets with us
509
980640
1840
16:22
everywhere we go, there aren't that
510
982480
1840
16:24
many opportunities for real silence
511
984320
2400
진정한 침묵
16:26
or self-reflection. You know, even a
512
986720
2080
이나 자기 성찰의 기회가 많지 않습니다. 지하철을 타고 통근하는 것조차
16:28
commute on the tube might have
513
988800
1360
16:30
been a moment to just take a second
514
990160
2640
16:32
to yourself, but now that void can be
515
992800
2240
혼자만의 시간을 가질 수 있는 순간이었을지 모르지만, 이제 그 빈자리는 휴대폰만 바라보면
16:35
filled always with super-engaging
516
995040
2160
언제나 몰입도 높은 콘텐츠로 채워질 수 있습니다
16:37
content by looking at your phone.
517
997200
2240
.
16:39
Darcy believes that we don't have
518
999440
1760
Darcy는 삶에 방해 요소가 너무 많기
16:41
much time for self-reflection because
519
1001200
2080
때문에 자기반성을 할 시간이 많지 않다고 생각합니다.
16:43
there are so many distractions in
520
1003280
1680
16:44
life – especially smartphones!
521
1004960
2560
특히 스마트폰이 그렇습니다!
16:47
After discussing all this – would
522
1007520
1440
이 모든 것을 논의한 후 –
16:48
you actually try a therapy app
523
1008960
1920
실제로 이와 같은 치료 앱을 사용해 보시겠습니까
16:50
like this?
524
1010880
960
?
16:51
Yes I would, actually – I think it
525
1011840
1280
예, 실제로 그렇게 할 것입니다.
16:53
might be quite helpful.
526
1013120
1360
꽤 도움이 될 것 같습니다.
16:54
And how about the question
527
1014480
960
그리고 프로그램 초반에 제게 하신 질문은 어떻습니까
16:55
you asked me at the beginning
528
1015440
880
16:56
of the programme: how many
529
1016320
1440
? 얼마나 많은
16:57
people experience mental
530
1017760
1680
사람들이 정신
16:59
health issues?
531
1019440
1040
건강 문제를 경험합니까?
17:00
The answer was: one in four,
532
1020480
2240
대답은
17:02
according the World Health
533
1022720
1520
세계보건
17:04
Organisation and the World
534
1024240
1680
기구와 세계
17:05
Federation for Mental Health.
535
1025920
2000
정신건강연맹에 따르면 4명 중 1명이었습니다.
17:07
But the WHO say that as many
536
1027920
2400
그러나 WHO는
17:10
as two-thirds of people never seek
537
1030320
2320
사람들의 3분의 2가
17:12
help from a health professional –
538
1032640
1760
의료 전문가의 도움을 전혀 구하지 않는다고 말합니다.
17:14
with stigma being one of the
539
1034400
1920
낙인이
17:16
main reasons.
540
1036320
1280
주된 이유 중 하나입니다.
17:17
And just there we had stigma
541
1037600
1920
그리고 바로 그곳에서 우리는 다시 낙인을 찍었습니다.
17:19
again; let's now run through the
542
1039520
1680
이제
17:21
other words we learned today.
543
1041200
1520
오늘 배운 다른 단어들을 살펴보겠습니다.
17:22
So we had 'woe' - meaning 'sadness'.
544
1042720
3120
그래서 우리는 '슬픔'을 의미하는 '화'를 가졌습니다.
17:25
I'm full of woe. Woe is me!
545
1045840
3440
나는 비애로 가득 차 있습니다. 나야!
17:29
Maybe you need some therapy –
546
1049280
1600
치료가 필요할 수도 있습니다.
17:30
that's the process of receiving
547
1050880
1520
이는
17:32
treatment for a particular health
548
1052400
1760
특정 건강
17:34
issue, especially mental
549
1054160
1440
문제, 특히 정신
17:35
health illness.
550
1055600
880
건강 질환에 대한 치료를 받는 과정입니다.
17:36
And we had – to check in
551
1056480
1600
그리고 우리는 –
17:38
with someone. After we finish
552
1058080
1840
누군가와 체크인해야 했습니다.
17:39
this programme, I need to check
553
1059920
1680
이 프로그램을 마친 후에는 새 프로젝트에 대해 상사에게 확인해야 합니다
17:41
in with the boss about my
554
1061600
1440
17:43
new project.
555
1063040
880
17:43
We also had self-reflection – that's
556
1063920
2160
.
자기반성도 했습니다. 자기 자신에 대해
17:46
the process of thinking deeply
557
1066080
1520
깊이 생각하는 과정입니다
17:47
about yourself.
558
1067600
1600
.
17:49
And finally, we had 'ethical'. If you
559
1069200
2880
그리고 마지막으로 '윤리적'이었습니다.
17:52
describe something as ethical, you
560
1072080
2080
어떤 것을 윤리적이라고 기술하면
17:54
mean it's morally right.
561
1074160
1840
도덕적으로 옳다는 의미입니다.
17:56
So woe, stigma, therapy, check
562
1076000
3040
그래서 불행, 낙인, 치료,
17:59
in with, self-reflection and ethical.
563
1079040
2960
체크인, 자기 성찰 및 윤리.
18:02
That's it for this edition of
564
1082000
1120
이번
18:03
6 Minute English. We'll leave you to
565
1083120
2000
6분 영어판은 여기까지입니다. 우리는 당신이
18:05
self-reflect – and after you've done
566
1085120
1760
스스로 반성하도록 남겨둘 것입니다. 그리고 당신이 그것을 한 후에
18:06
that, do visit our Facebook, Twitter,
567
1086880
2160
우리의 페이스북, 트위터,
18:09
Instagram and YouTube pages, and
568
1089040
2080
인스타그램, 유튜브 페이지, 그리고
18:11
of course our website!
569
1091120
1120
물론 우리 웹사이트를 방문하세요!
18:12
Bye for now.
570
1092240
800
지금은 안녕.
18:13
Bye bye!
571
1093040
800
안녕!
18:19
Hello. Welcome to 6 Minute
572
1099440
1680
안녕하세요. 6분 영어에 오신 것을 환영합니다
18:21
English. I'm Rob.
573
1101120
1040
. 저는 롭입니다.
18:22
And I'm Neil.
574
1102160
1166
그리고 저는 닐입니다.
18:23
Now, Neil, can you remember the first time
575
1103326
2274
자, Neil,
18:25
you ever used the World Wide Web
576
1105600
2400
World Wide Web,
18:28
or as we often call it, the internet, and
577
1108000
2480
즉 우리가 종종 인터넷이라고 부르는 것을 처음 사용한 때와
18:30
what you used it for?
578
1110480
1280
그것을 무엇을 위해 사용했는지 기억할 수 있습니까?
18:31
Oh, that's a good question. I do
579
1111760
2000
오, 좋은 질문입니다. 나는
18:33
remember. And... well, nothing really
580
1113760
3360
기억한다. 그리고... 음, 정말
18:37
changes does it? Because I looked up
581
1117120
1920
변하는 건 없나요? 고양이 사진을 찾아봤으니까
18:39
pictures of cats!
582
1119040
1422
!
18:40
Cats! Very useful, anyway do you
583
1120462
3298
고양이! 매우 유용합니다. 어쨌든
18:43
think the internet has generally
584
1123760
1200
인터넷이 일반적으로
18:44
been positive or negative for
585
1124960
1760
세상에 긍정적이거나 부정적이라고 생각하십니까
18:46
the world?
586
1126720
800
?
18:47
Wow! Now, that's a big question. A huge
587
1127520
3200
우와! 자, 그것은 큰 질문입니다. 큰
18:50
question. I don't know if I can
588
1130720
1789
질문입니다. 대답할 수 있을지 모르겠습니다
18:52
answer that.
589
1132509
560
.
18:53
Well, one person who perhaps
590
1133069
2211
글쎄요, 아마도
18:55
can answer it, is the man who
591
1135280
1760
대답할 수 있는 한 사람은
18:57
invented it: British computer scientist
592
1137040
2560
그것을 발명한 사람입니다: 영국의 컴퓨터 과학자
18:59
Tim Berners-Lee. We'll find out what
593
1139600
2240
Tim Berners-Lee입니다. 곧
19:01
he thinks has become of his 'child'
594
1141840
1840
그의 '자식'이 어떻게 되었다고 생각하는지 알아보겠지만,
19:03
shortly but before that, a question
595
1143680
2240
그 전에
19:05
for you all. When did Berners-Lee
596
1145920
2320
여러분 모두를 위한 질문이 있습니다. Berners-Lee는 언제
19:08
first suggest the idea for what
597
1148240
1760
19:10
would become the World Wide Web?
598
1150000
2560
World Wide Web이 될 아이디어를 처음 제안했습니까?
19:12
Was it in...
599
1152560
560
19:13
a) 1985,
600
1153120
1680
a) 1985년,
19:14
b) 1989,
601
1154800
1494
b) 1989년
19:16
or, c) 1991?
602
1156294
2585
, c) 1991년?
19:18
Tricky, but I think it's earlier than
603
1158879
4081
까다롭지만 사람들이 생각하는 것보다 이른 것 같아서
19:22
people think so I'm going to go
604
1162960
2240
19:25
for 1985.
605
1165200
2160
1985년으로 가겠습니다.
19:27
Well, that was a long time ago but
606
1167360
1520
글쎄요, 그것은 오래 전 일이지만
19:28
we'll reveal the answer a little later
607
1168880
1840
그 답은 조금 뒤에
19:30
in the programme. I think it's true to
608
1170720
2320
프로그램에서 공개할 것입니다. 나는
19:33
say that the internet has been one of,
609
1173040
2240
인터넷이 역사상
19:35
if not the most important
610
1175280
1520
가장 중요한
19:36
technological developments perhaps
611
1176800
2080
기술 발전 중 하나였다고 말하는 것이 사실이라고 생각합니다
19:38
of all time. Would you agree, Neil?
612
1178880
1840
. 동의하시겠어요, 닐?
19:40
Well, it's hard to imagine living
613
1180720
1520
글쎄, 그것없이 사는 것은 상상하기 어렵습니다
19:42
without it. Not impossible, but not
614
1182240
2560
. 불가능하지는 않지만
19:44
nearly as convenient.
615
1184800
1520
그다지 편리하지는 않습니다.
19:46
These days we take the internet
616
1186320
1680
요즘 우리는 인터넷을
19:48
for granted. We share our lives on
617
1188000
2000
당연하게 여깁니다. 우리는 친구 및 가족뿐만 아니라 소셜 미디어에서 우리의 삶을 공유합니다
19:50
social media and not just with
618
1190000
1920
19:51
friends and family. And that isn't
619
1191920
2080
. 그리고
19:54
always a positive thing, according
620
1194000
2080
19:56
to the father of the internet,
621
1196080
1680
인터넷의 아버지인
19:57
Tim Berners-Lee. In a recent
622
1197760
2080
Tim Berners-Lee에 따르면 이것이 항상 긍정적인 것은 아닙니다. 최근
19:59
BBC Tech Tent programme, he
623
1199840
2240
BBC Tech Tent 프로그램에서 그는
20:02
talked about his concerns with
624
1202080
1440
20:03
the internet and particularly the
625
1203520
1840
인터넷, 특히 인터넷
20:05
companies that control its information.
626
1205360
2480
정보를 통제하는 회사에 대한 우려에 대해 이야기했습니다.
20:07
Companies which he calls
627
1207840
1760
그가
20:09
'internet giants'. What does he say
628
1209600
2240
'인터넷 거인'이라고 부르는 회사. 그는
20:11
he thought these companies
629
1211840
1280
이 회사들이
20:13
had to do?
630
1213120
1280
해야 할 일이 무엇이라고 생각했습니까?
20:14
Initially, I felt the main thing an
631
1214400
2720
처음에 나는
20:17
internet giant had to do was
632
1217120
1520
인터넷 거대 기업이 해야 할 중요한 일이
20:18
just to be neutral, just be a platform
633
1218640
2320
단지 중립을 유지하고 플랫폼이 되는 것이며
20:20
and humanity, once connected by
634
1220960
1920
일단 기술로 연결되면 인류가
20:22
technology, will do wonderful
635
1222880
1200
놀라운 일을 할 것이라고 느꼈습니다
20:24
things. And, clearly, it doesn't
636
1224080
2400
. 그리고 분명히
20:26
work like that. If you connect
637
1226480
1520
그렇게 작동하지 않습니다.
20:28
humanity via Wikipedia then
638
1228000
3040
Wikipedia를 통해 인류를 연결하면
20:31
they do produce, in general,
639
1231040
1360
그들은 일반적으로
20:32
wonderful things. If you connect
640
1232400
1920
놀라운 것을 생산합니다. 익명성이 있는
20:34
people by social network where
641
1234320
3040
소셜 네트워크로 사람들을 연결하면
20:37
they have anonymity, then it can
642
1237360
1840
20:39
bring out the very nastiest of people.
643
1239200
1840
가장 불쾌한 사람들을 끌어낼 수 있습니다.
20:41
So, what did he say he thought these
644
1241040
1680
그래서 그는 이
20:42
internet giants had to do?
645
1242720
1840
인터넷 거인들이 무엇을 해야 한다고 생각한다고 말했습니까?
20:44
He said that he thought initially, that
646
1244560
2080
그는 처음에는
20:46
they just had to be neutral. 'Initially'
647
1246640
2560
중립적이어야 한다고 생각했다고 말했습니다. '처음에'는
20:49
means 'at first', 'in the beginning' and
648
1249200
2400
'처음에', '처음에'라는 뜻으로
20:51
it also suggests that later he
649
1251600
1840
나중에
20:53
changed his mind. Anyway, he said
650
1253440
2800
마음이 바뀌었음을 암시하기도 합니다. 어쨌든 그는
20:56
that he thought they just had to
651
1256240
1440
그들이
20:57
be neutral. 'Neutral' here means
652
1257680
2160
중립적이어야 한다고 생각한다고 말했습니다. 여기서 '중립'은
20:59
that they didn't need to do anything,
653
1259840
1600
아무것도 할 필요가 없었고 인터넷이나 정보를
21:01
they didn't need to control the
654
1261440
1200
통제할 필요가 없었다는 의미입니다
21:02
internet or information. He thought
655
1262640
1920
. 그는
21:04
it would be a tool to connect
656
1264560
1440
그것이
21:06
people and ideas and information
657
1266000
1840
사람과 아이디어와 정보를 연결하는 도구가 될 것이라고 생각했고
21:07
and it would be wonderful.
658
1267840
1486
훌륭할 것이라고 생각했습니다.
21:09
But it's not all good, is it?
659
1269326
1874
하지만 다 좋은 건 아니죠?
21:11
No. He does say that giving
660
1271200
1840
아니요. 그는
21:13
people access to sources of
661
1273040
1440
사람들에게
21:14
information is generally a good
662
1274480
1680
정보 출처에 대한 액세스 권한을 부여하는 것은 일반적으로 좋은
21:16
thing but that when it comes to
663
1276160
1680
일이지만
21:17
social networks, social media,
664
1277840
2160
소셜 네트워크, 소셜 미디어에 관해서는
21:20
people have anonymity.
665
1280000
2000
사람들이 익명성을 가진다고 말합니다.
21:22
Anonymity?
666
1282000
960
21:22
Yes. It means that on the internet
667
1282960
2000
익명?
예. 그것은 인터넷에서
21:24
people can hide their true identity
668
1284960
2000
사람들이 자신의 진정한 정체성
21:26
or personality. Some people write
669
1286960
2320
이나 성격을 숨길 수 있다는 것을 의미합니다. 어떤 사람들은 결과가 없을 것이라고 생각하기 때문에 누군가
21:29
things that they would never say to
670
1289280
1520
에게 직접 말하지 않을 것을 씁니다
21:30
someone in person because they
671
1290800
1520
21:32
think there will be no consequences.
672
1292320
2119
.
21:34
Berners-Lee says anonymity can
673
1294439
2121
Berners-Lee는 익명성이
21:36
bring out the nastiest side of people.
674
1296560
2640
사람들의 가장 불쾌한 면을 드러낼 수 있다고 말합니다.
21:39
People saying horrible and terrible
675
1299200
1760
사람들은 서로에게 끔찍하고 끔찍한 말을 합니다
21:40
things to each other.
676
1300960
1200
.
21:42
Berners-Lee does have some
677
1302160
1600
Berners-Lee는
21:43
suggestions for how this could
678
1303760
1600
이것이 어떻게 변경될 수 있는지에 대한 몇 가지 제안을 가지고 있습니다
21:45
be changed. And it's based on the
679
1305360
1920
. 그리고 그것은
21:47
idea of likes and shares, which he
680
1307280
2480
그가 명성이라고 부르는 좋아요와 공유의 아이디어를 기반으로 합니다
21:49
calls kudos. What's his suggestion?
681
1309760
2880
. 그의 제안은 무엇입니까? 서로
21:52
The different social networks and
682
1312640
1040
다른 소셜 네트워크와
21:53
different platforms are in different
683
1313680
1840
플랫폼은 서로 다른 상황에 있으며
21:55
situations and, in some cases, they
684
1315520
2320
어떤 경우에는
21:57
have acknowledged there is an issue.
685
1317840
2080
문제가 있음을 인정했습니다.
21:59
I think they realise that the issue
686
1319920
2400
나는 그들이 리트 윗이 전파되는 방식을 변경하거나 사람들이 명성을 얻는 방식을 변경함으로써 일이 작동하는 방식을 조정함으로써 문제가
22:02
could be hugely ameliorated by
687
1322320
2320
크게 개선 될 수 있다는 것을 알고 있다고 생각합니다.
22:04
tweaking the way the thing works
688
1324640
2080
22:06
by changing the way retweets are
689
1326720
2400
22:09
propagated or changing the way
690
1329120
2400
22:11
people get kudos - give them more
691
1331520
2000
22:13
kudos for being constructive,
692
1333520
1680
22:15
for example.
693
1335200
800
예를 들어 건설적인 것에 대해 더 많은 명성을 제공하십시오.
22:16
So, how does he think companies
694
1336000
1600
그렇다면 그는 회사가
22:17
could address the problem?
695
1337600
1600
이 문제를 어떻게 해결할 수 있다고 생각합니까?
22:19
Well, he says that some of the
696
1339200
1440
글쎄요, 그는
22:20
social networks have agreed
697
1340640
1280
소셜 네트워크 중 일부가 문제가 있다는 데 동의했고
22:21
that there is a problem and they
698
1341920
1600
22:23
know what could improve it.
699
1343520
1760
무엇이 그것을 개선할 수 있는지 알고 있다고 말했습니다. 하지만
22:25
He didn't use the word 'improve'
700
1345280
1520
그는 '개선'이라는 단어를 사용하지 않았
22:26
though, did he?
701
1346800
960
습니까?
22:27
No, he actually used the rather
702
1347760
1840
아니오, 그는 실제로 '어떤 것을 개선하거나 더 좋게 만들다'를 의미하는 다소
22:29
formal verb 'ameliorate', which
703
1349600
2000
형식적인 동사인 'ameliorate'를 사용했습니다
22:31
means 'to improve or make
704
1351600
1280
22:32
something better'.
705
1352880
1280
.
22:34
So, how does he suggest the
706
1354160
1360
그렇다면 그는
22:35
problem could be ameliorated?
707
1355520
2240
문제를 어떻게 개선할 수 있다고 제안합니까?
22:37
By tweaking the way in which
708
1357760
1520
22:39
people give or receive kudos.
709
1359280
2320
사람들이 명성을 주고 받는 방식을 조정합니다.
22:41
'Tweaking' means 'making a small
710
1361600
1760
'Tweaking'은 '
22:43
change to the way something
711
1363360
1200
어떤 것이 작동하는 방식에 약간의 변화를 주는 것
22:44
works'. Much of what happens on
712
1364560
1920
'을 의미합니다. 인터넷에서 일어나는 일의 대부분은
22:46
the internet is driven by our desire
713
1366480
2000
22:48
to get likes and shares – this is
714
1368480
2240
좋아요와 공유를 얻으려는 우리의 욕구에 의해 주도됩니다. 이것이
22:50
the kudos that Berners-Lee talks
715
1370720
1920
Berners-Lee가 말하는 명성입니다
22:52
about. He feels that tweaking this
716
1372640
2160
. 그는 이것을 조정하면
22:54
could lead to a better experience.
717
1374800
2080
더 나은 경험을 얻을 수 있다고 생각합니다.
22:56
For example, getting more kudos
718
1376880
1760
예를 들어
22:58
for constructive or positive actions.
719
1378640
1920
건설적이거나 긍정적인 행동에 대해 더 많은 명성을 얻습니다.
23:00
Mmm, interesting – but I wonder
720
1380560
2480
음, 흥미롭군요. 하지만
23:03
who would decide if something
721
1383040
1280
어떤 것이 건설적인지 누가 결정할지 궁금합니다.
23:04
is constructive?
722
1384320
1280
23:05
Well, that's another big question
723
1385600
1840
글쎄, 그것은 또 다른 중요한 질문입니다
23:07
for another day, I guess.
724
1387440
1520
.
23:08
For now though, let's have the
725
1388960
1440
하지만 지금은
23:10
answer to our small question. In
726
1390400
2080
우리의 작은 질문에 대한 답을 알아봅시다.
23:12
what year did Berners-Lee present
727
1392480
1840
Berners-Lee는 몇 년도에
23:14
the idea for what would become the
728
1394320
2240
23:16
World Wide Web? The options were
729
1396560
2560
World Wide Web이 될 아이디어를 제시했습니까? 옵션은
23:19
a) 1985, b)1989, or c) 1991.
730
1399120
4960
a) 1985, b)1989 또는 c) 1991입니다.
23:24
It was, in fact, 1989.
731
1404080
2713
사실 1989년이었습니다.
23:26
Now, before we go,
732
1406793
1207
이제 가기 전에
23:28
let's have a quick recap of
733
1408000
1766
23:29
today's vocabulary.
734
1409766
1354
오늘의 어휘를 간단히 요약해 보겠습니다.
23:31
'Initially' – means 'at first - in
735
1411120
2240
'처음에' – '처음에 - 처음에'를 의미합니다
23:33
the beginning'. Then we
736
1413360
1307
. 그런 다음 우리는
23:34
had 'neutral'.
737
1414667
1514
'중립'했습니다.
23:36
In this case, it meant 'not controlling'
738
1416181
2219
이 경우 '통제하지 않는다'
23:38
or 'not taking any action to control'.
739
1418400
2880
또는 '통제하는 행위를 하지 않는다'는 뜻이다.
23:41
Then, there was the noun 'anonymity'
740
1421280
2320
그리고 숨은 신분이나 개성을 가진 상태를 뜻하는 '익명성'이라는 명사가 있었다
23:43
which is the state of having a
741
1423600
1520
23:45
hidden identity or personality.
742
1425120
2160
.
23:47
Next, to 'ameliorate' a situation is
743
1427280
2640
다음으로 상황을 '개선'하는 것은 상황을
23:49
to make it better.
744
1429920
1200
개선하는 것입니다.
23:51
To 'tweak' something is to 'make
745
1431120
1680
무언가를 'tweak'하는 것은 '
23:52
a small change to the way
746
1432800
1680
23:54
something works'.
747
1434480
1120
어떤 것이 작동하는 방식에 약간의 변화를 주는 것'입니다.
23:55
And then we had, of course, 'kudos'.
748
1435600
1680
그리고 우리는 물론 '영광'을 얻었습니다.
23:57
'Kudos' is praise and appreciation
749
1437280
1920
'Kudos'는
23:59
for something you've done.
750
1439200
1120
당신이 한 일에 대한 칭찬과 감사입니다.
24:00
Well, kudos to you, Rob, for
751
1440320
1520
음, Rob,
24:01
today's programme.
752
1441840
800
오늘 프로그램에 감사드립니다.
24:02
Thank you very much.
753
1442640
1040
매우 감사합니다.
24:03
Well, thank you, Neil, and
754
1443680
1200
음, 감사합니다, 닐,
24:04
thank you everyone for listening.
755
1444880
1280
들어주신 모든 분들께 감사드립니다.
24:06
That's all we have today, but you
756
1446160
2400
이것이 현재 우리가 가진 전부이지만
24:08
can, find us on Facebook, Twitter,
757
1448560
1680
Facebook, Twitter,
24:10
Instagram and YouTube and, of
758
1450240
1440
Instagram 및 YouTube는
24:11
course, our website
759
1451680
1280
물론 우리 웹사이트
24:12
bbclearningenglish.com!
760
1452960
2400
bbclearningenglish.com에서 우리를 찾을 수 있습니다!
24:15
Bye for now.
761
1455360
720
지금은 안녕.
24:16
Thanks for joining us
762
1456080
800
24:16
and goodbye.
763
1456880
960
함께 해주셔서 감사합니다.
안녕히 계세요.
24:23
Hello. This is 6 Minute English
764
1463440
2160
안녕하세요. 저는 6분 영어
24:25
and I'm Rob.
765
1465600
800
이고 Rob입니다.
24:26
And I'm Neil.
766
1466400
1040
그리고 저는 닐입니다.
24:27
Today we’re talking about buttons.
767
1467440
2720
오늘 우리는 버튼에 대해 이야기하고 있습니다.
24:30
Yes, buttons. Buttons are what
768
1470160
2320
예, 버튼입니다. 단추는
24:32
we have on our clothes to fasten
769
1472480
1680
우리가 옷을 잠그기 위해 가지고 있는 것이지만,
24:34
them but the word is also used
770
1474160
1840
그 단어는
24:36
for things that we push to make
771
1476000
1760
우리가
24:37
things happen.
772
1477760
960
일이 일어나도록 밀어붙이는 일에도 사용됩니다.
24:38
Things like your bedside alarm,
773
1478720
2160
침대 옆 알람,
24:40
radio, toaster, kettle. We press
774
1480880
2560
라디오, 토스터, 주전자 같은 것들. 우리는
24:43
hundreds of buttons every week
775
1483440
1680
24:45
without thinking about it. Not everyone
776
1485120
2400
그것에 대해 생각하지 않고 매주 수백 개의 버튼을 누릅니다. 모든 사람이
24:47
likes buttons though, particularly
777
1487520
2080
단추, 특히
24:49
the ones we have on our clothes.
778
1489600
2480
옷에 있는 단추를 좋아하는 것은 아닙니다.
24:52
It’s a recognised phobia.
779
1492080
1760
인정되는 공포증입니다.
24:53
What is this fear called? Is it:
780
1493840
2640
이 두려움은 무엇입니까? 그것은:
24:56
A: buttonophobia,
781
1496480
2278
A: 단추 공포증,
24:58
B: koumpounophobia,
782
1498758
3036
B: koumpounophobia,
25:01
or, C: coulrophobia?
783
1501794
2366
또는 C: coulrophobia입니까?
25:04
Any ideas Neil?
784
1504160
1280
어떤 아이디어 닐?
25:05
Er – I think I’ve got a fear of
785
1505440
1440
어 –
25:06
pronouncing these words!
786
1506880
1622
이 단어들을 발음하는 것이 두려운 것 같아요!
25:08
I've got no idea what the answer is, I
787
1508502
2378
답이 무엇인지 모르겠습니다.
25:10
think buttonophobia is much
788
1510880
1520
단추공포증은 너무 명백하다고 생각합니다
25:12
too obvious – so it’s one of the
789
1512400
1760
. 그래서 다른 것 중 하나입니다.
25:14
others – or is it? It’s a hard one.
790
1514160
3093
어려운 일입니다.
25:17
Well, I'll have the answer later in
791
1517253
2027
글쎄, 나는 프로그램에서 나중에 답을 얻을 것이다
25:19
the programme. Thinking Allowed
792
1519280
2320
. Thinking Allowed는 다양한 흥미로운 주제를 다루는
25:21
is a BBC Radio 4 programme
793
1521600
1680
BBC 라디오 4 프로그램입니다
25:23
which covers a range of interesting
794
1523280
1760
25:25
topics. Recently, they featured a
795
1525040
2080
. 최근에는
25:27
discussion about buttons and
796
1527120
1840
버튼과 버튼이 일상 생활
25:28
how important they are to
797
1528960
1280
에서 얼마나 중요한지에 대한 토론을 다루었습니다
25:30
everyday life. Steven Connor,
798
1530240
2320
. 캠브리지 대학의 영어 교수인 스티븐 코너(Steven Connor)는
25:32
Professor of English at the
799
1532560
1440
25:34
University of Cambridge, was on
800
1534000
1600
25:35
the programme and he talked
801
1535600
1440
프로그램에 참여하여
25:37
about appeal of buttons. What does
802
1537040
2960
버튼의 매력에 대해 이야기했습니다.
25:40
say about children and buttons?
803
1540000
2160
어린이와 버튼에 대해 무엇을 말합니까?
25:42
We do love buttons and I think the
804
1542160
2080
우리는 버튼을 사랑하고 버튼
25:44
pleasure and the temptation of
805
1544240
2240
의 즐거움과 유혹을 생각합니다
25:46
buttons… this temptation and
806
1546480
1920
. 이 유혹과
25:48
everyone feels it, which is why
807
1548400
2320
모든 사람이 그것을 느끼기 때문에
25:50
buttons have to be very convenient.
808
1550720
1920
버튼은 매우 편리해야 합니다.
25:52
On the other hand, they have to
809
1552640
1040
반면에
25:53
be kept away from children, so
810
1553680
1280
아이들의 손이 닿지 않는 곳에 보관해야 하므로 벽
25:54
they've got to be put high up
811
1554960
1760
높은 곳에 놓아야
25:56
on the wall, and buttons that
812
1556720
2320
하고
25:59
really matter have to be made
813
1559040
1600
정말 중요한 버튼은
26:00
quite hard to push – like put
814
1560640
1520
누르기 힘들게 만들어야 합니다
26:02
behind glass or something.
815
1562160
1909
.
26:04
OK. What does he say about
816
1564069
1771
좋아요. 그는 어린이와 버튼에 대해 무엇을 말합니까
26:05
children and buttons?
817
1565840
1360
?
26:07
That they have to be kept away
818
1567200
1680
그들이 그들로부터 떨어져 있어야 한다는 것
26:08
from them! As I said before, I
819
1568880
2080
! 아까 말했듯이 나는
26:10
loved pressing buttons as a child.
820
1570960
1840
어렸을 때 버튼 누르는 것을 좋아했습니다. 눈에
26:12
I would press any that I saw, so
821
1572800
1920
보이는 것은 무엇이든 눌러야 했기 때문에
26:14
important ones did have to be
822
1574720
1760
중요한 것은
26:16
out of my reach.
823
1576480
960
손이 닿지 않는 곳에 있어야 했습니다.
26:17
Yes, he said buttons are a
824
1577440
2240
예, 그는 버튼이
26:19
temptation. A temptation is
825
1579680
2160
유혹이라고 말했습니다. 유혹은 어떤 일을 하고
26:21
something that makes you want
826
1581840
1280
싶게 만들고
26:23
to do something and it’s often
827
1583120
1840
26:24
used when it’s something you
828
1584960
1120
26:26
shouldn’t really do. So, buttons
829
1586080
2160
실제로는 해서는 안 될 일에 자주 사용됩니다. 따라서 화재 경보기와 같이
26:28
that lead to potentially dangerous
830
1588240
2000
잠재적으로 위험
26:30
or serious consequences, like a
831
1590240
2240
하거나 심각한 결과를 초래하는 버튼은
26:32
fire alarm, need to be protected,
832
1592480
2320
26:34
maybe behind glass, so temptation
833
1594800
2400
유혹
26:37
doesn’t get the better of us.
834
1597200
1600
에 넘어가지 않도록 유리 뒤에 보호해야 합니다.
26:38
But many buttons have a useful,
835
1598800
1840
그러나 많은 버튼은 리프트 호출과 같이
26:40
practical purpose in everyday life,
836
1600640
1840
일상 생활에서 유용하고 실용적인 목적을 가지고 있습니다.
26:42
like calling a lift - so, these buttons
837
1602480
2080
따라서 이러한 버튼은 어려움
26:44
have to be easy to use without
838
1604560
1680
없이 사용하기 쉬워야 합니다
26:46
difficulty. The adjective for this
839
1606240
2160
. 이에 대한 형용사는
26:48
is 'convenient'. These everyday
840
1608400
2320
'편리하다'입니다. 이러한 일상적인
26:50
buttons have to be convenient.
841
1610720
2000
버튼은 편리해야 합니다.
26:52
Professor Connor goes on to
842
1612720
1600
Connor 교수는 계속해서 버튼이 매력적인
26:54
say a bit more about why
843
1614320
1680
이유에 대해 조금 더 설명합니다
26:56
buttons are so appealing.
844
1616000
2240
.
26:58
What’s his opinion?
845
1618240
1440
그의 의견은 무엇입니까?
26:59
You know what I think? I think
846
1619680
1040
내가 어떻게 생각하는지 알아? 나는
27:00
it's down to the fidgeting
847
1620720
2240
그것이
27:02
instinct of very digital or
848
1622960
3280
매우 디지털 또는
27:06
manual creatures. I think we
849
1626240
1680
수동 생물의 안절부절 못하는 본능에 달려 있다고 생각합니다. 제 생각에는 우리는
27:07
want to fidget with things and
850
1627920
2080
사물을 만지작거리고
27:10
adjust them, we want to make
851
1630000
1280
조정하고 싶고,
27:11
them slightly better… I guess it's
852
1631280
2320
조금 더 좋게 만들고 싶어합니다.
27:13
the grooming instinct in apes.
853
1633600
2000
유인원의 그루밍 본능인 것 같아요.
27:15
So then, why can’t we resist buttons?
854
1635600
2320
그렇다면 왜 우리는 버튼에 저항할 수 없을까요?
27:17
Because as humans we have a
855
1637920
2240
인간으로서 우리는
27:20
fidgeting instinct. We can’t stay still
856
1640160
2800
안절부절 못하는 본능을 가지고 있기 때문입니다. 우리는 아주 오랫동안 가만히 있을 수 없고
27:22
for very long, we need to move
857
1642960
1440
, 우리는
27:24
around a lot because we are
858
1644400
1520
27:25
very digital creatures.
859
1645920
1840
매우 디지털 생물이기 때문에 많이 움직여야 합니다.
27:27
The use of digital though, is nothing
860
1647760
1920
하지만 디지털의 사용은
27:29
to do with modern online
861
1649680
1600
현대 온라인 기술과 아무 관련이 없습니다.
27:31
technology, is it?
862
1651280
1200
27:32
No, a 'digit' is a finger or toe. So, we
863
1652480
2720
아니요, '숫자'는 손가락이나 발가락입니다. 따라서 우리는
27:35
are digital creatures – we have
864
1655200
1840
디지털 생물입니다.
27:37
fingers and we like to use them.
865
1657040
2160
손가락이 있고 사용하는 것을 좋아합니다.
27:39
And one thing other digital
866
1659200
1520
27:40
creatures do, creatures like apes,
867
1660720
1840
유인원과 같은 다른 디지털 생명체가 하는 일 중 하나는
27:42
is grooming. That is they use their
868
1662560
2480
그루밍입니다. 즉, 그들은
27:45
hands to clean the body hair of
869
1665040
2080
손을 사용하여 다른 유인원의 체모를 청소합니다
27:47
other apes. They look through
870
1667120
1520
. 그들은
27:48
the hair for insects and bugs and
871
1668640
1840
곤충과 벌레에 대한 머리카락을 통해 찾고
27:50
pull them out and eat them.
872
1670480
1680
그들을 뽑아 먹습니다.
27:52
But we can also use the word
873
1672160
1360
그러나 우리는 인간에게도 그루밍이라는 단어를 사용할 수 있습니다
27:53
grooming for humans, someone
874
1673520
2160
27:55
who is well-groomed for example
875
1675680
1760
27:57
is neat and tidy, clean and well
876
1677440
2240
27:59
presented. Here’s Professor
877
1679680
1360
. 여기
28:01
Connor again.
878
1681040
880
28:01
You know what I think? I think it's
879
1681920
1440
다시 코너 교수가 있습니다.
내가 어떻게 생각하는지 알아? 나는 그것이 매우 디지털 또는 수동 생물
28:03
down to the fidgeting instinct of
880
1683360
3040
의 안절부절 못하는 본능에 달려 있다고 생각합니다
28:06
very digital or manual creatures.
881
1686400
3040
.
28:09
I think we want to fidget with things
882
1689440
2560
제 생각에는 우리는 사물을 만지작거리고
28:12
and adjust them, we want to make
883
1692000
1440
조정하고 싶고,
28:13
them slightly better… I guess it's
884
1693440
2400
조금 더 좋게 만들고 싶어합니다.
28:15
the grooming instinct in apes.
885
1695840
2240
유인원의 그루밍 본능인 것 같아요.
28:18
Before we wrap up, time to get the
886
1698080
1920
마무리하기 전에
28:20
answer to this week’s question.
887
1700000
2160
이번 주 질문에 대한 답을 얻을 시간입니다.
28:22
Some people have a fear of
888
1702160
1360
어떤 사람들은 버튼에 대한 두려움을 가지고 있습니다
28:23
buttons, it’s a recognised phobia, but
889
1703520
2560
. 그것은 인식된 공포증이지만,
28:26
what’s it called? Is it
890
1706080
1920
그것을 무엇이라고 부르나요?
28:28
A: buttonophobia
891
1708000
2000
A: 버튼포비아
28:30
B: koumpounophobia, or
892
1710000
2400
B: 쿰포노포비아인가요,
28:32
C: coulrophobia?
893
1712400
1680
C: 쿨로포비아인가요?
28:34
And, Neil, you said?
894
1714080
1399
그리고, 닐, 당신이 말했습니까?
28:35
Well, I didn’t, but I don’t think it
895
1715479
2041
글쎄요, 안 그랬는데
28:37
can be ‘buttonophobia’, that would be
896
1717520
1840
'단추공포증'이 될 수는 없을 것 같아요
28:39
too easy. And I think coulrophobia
897
1719360
2960
. 그리고 coulrophobia는
28:42
is a fear of clowns, so I’m going
898
1722320
4000
광대에 대한 두려움이라고 생각합니다. 그래서 저는
28:46
for the other one -
899
1726320
2800
다른 하나인
28:49
koumpounophobia.
900
1729120
1600
koumpounophobia로 가겠습니다.
28:50
That it right. Buttonophobia is a
901
1730720
2320
맞다. Buttonophobia는
28:53
made up word, and as you said,
902
1733040
1920
만들어진 단어이고 당신이 말했듯이
28:54
coulrophobia is a fear of clowns.
903
1734960
2800
coulrophobia는 광대에 대한 두려움입니다.
28:57
Right, now let’s review
904
1737760
1280
자, 그럼
28:59
today’s vocabulary.
905
1739040
1120
오늘의 어휘를 복습해 볼까요?
29:00
We’ve been talking about buttons.
906
1740160
1920
우리는 버튼에 대해 이야기했습니다.
29:02
These can be small round things
907
1742080
1520
이것들은
29:03
we use to fasten our clothes, or
908
1743600
2000
우리가 옷을 고정하기 위해 사용하는 작고 둥근 것일 수도 있고,
29:05
the things that we push to make
909
1745600
1840
29:07
something happen.
910
1747440
1120
어떤 일이 일어나도록 밀어붙이는 것일 수도 있습니다.
29:08
Buttons can be a temptation.
911
1748560
2080
버튼은 유혹이 될 수 있습니다.
29:10
We see one, we want to push it.
912
1750640
1920
우리는 하나를 보고 그것을 밀고 싶습니다.
29:12
So, a 'temptation' is something
913
1752560
1680
그래서 '유혹'은
29:14
that makes us want to do
914
1754240
1120
우리가 하지 말아야 할 것을 알면서도 하고 싶게 만드는 것입니다
29:15
something we know we shouldn’t.
915
1755360
2000
.
29:17
And then we had the adjective
916
1757360
1840
그리고 우리는
29:19
'convenient'. Something that is
917
1759200
1440
'편리하다'라는 형용사를 가졌습니다.
29:20
convenient is easy to use without
918
1760640
1920
편리한 것은 어려움 없이 사용하기 쉽습니다
29:22
difficulty. For example, the buttons
919
1762560
2080
. 예를 들어
29:24
to call a lift are at a very convenient
920
1764640
2240
리프트를 호출하는 버튼은 매우 편리한
29:26
height, they can be reached easily.
921
1766880
2480
높이에 있어 쉽게 접근할 수 있습니다.
29:29
Professor Connor went on to talk
922
1769360
1680
코너 교수는 계속해서
29:31
about our fidgeting instinct.
923
1771040
2640
우리의 안절부절 못하는 본능에 대해 이야기했습니다.
29:33
As humans we love to fidget, we like
924
1773680
2320
우리 인간은 만지작거리는 것을 좋아하고 계속
29:36
to keep moving around, we can’t
925
1776000
1520
돌아다니는 것을 좋아하고 오랫동안 가만히 있을 수 없으며
29:37
stay still for very long and we love
926
1777520
1840
29:39
to do stuff with our hands.
927
1779360
1600
손으로 무언가를 하는 것을 좋아합니다.
29:40
The professor talked about us being
928
1780960
2000
교수는 우리가 손가락이 있는 생물을
29:42
digital creatures, which means
929
1782960
1520
의미하는 디지털 생물이라고 말했습니다.
29:44
creatures with fingers – a digit is
930
1784480
2240
손가락은
29:46
another word for a finger or toe.
931
1786720
2240
손가락이나 발가락의 또 다른 단어입니다.
29:48
And finally, we had grooming.
932
1788960
2240
그리고 마지막으로 미용을 했습니다.
29:51
This is the habit of making ourselves
933
1791200
1840
이것은 우리 자신을
29:53
look nice by cleaning, washing and
934
1793040
2000
청소하고, 씻고,
29:55
doing our hair. It’s something some
935
1795040
1840
머리를 손질하여 멋져 보이게 하는 습관입니다. 그것은
29:56
animals, such as apes, do for
936
1796880
1600
유인원과 같은 일부 동물들이 서로를 위해 하는 일입니다
29:58
each other.
937
1798480
960
.
29:59
Well, the button here in the studio
938
1799440
1760
자, 여기 스튜디오에 있는 버튼이
30:01
is flashing, which tells me it’s time
939
1801200
1680
깜박이고 있습니다
30:02
to wrap up for today. Do join us
940
1802880
2000
. 다음에 우리와 함께 하세요.
30:04
next time and if you can’t wait, you
941
1804880
1680
기다릴 수 없다면
30:06
can always find us on Instagram,
942
1806560
1840
Instagram,
30:08
Facebook, Twitter, YouTube our app
943
1808400
2400
Facebook, Twitter, YouTube 앱
30:10
and, of course, on our website
944
1810800
1760
은 물론 웹사이트 bbclearningenglish.com에서 언제든지 우리를 찾을 수 있습니다
30:12
bbclearningenglish.com.
945
1812560
1840
.
30:14
Bye bye for now.

946
1814400
1120
지금은 안녕.
30:15
Bye!
947
1815520
937
안녕!
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7