BOX SET: 6 Minute English - 'Technology and lifestyle' English mega-class! 30 minutes of vocabulary!

278,468 views

2023-05-21 ・ BBC Learning English


New videos

BOX SET: 6 Minute English - 'Technology and lifestyle' English mega-class! 30 minutes of vocabulary!

278,468 views ・ 2023-05-21

BBC Learning English


下の英語字幕をダブルクリックすると動画を再生できます。 翻訳された字幕は機械翻訳です。

00:05
Hello and welcome to
0
5920
1040
こんにちは
00:06
6 Minute English. I'm Dan.
1
6960
1760
。6 Minute English へようこそ。 私はダンです。
00:08
And I'm Rob. So, Dan, what's that…
2
8720
2720
そして私はロブです。 それで、ダン、それは何ですか...
00:11
Oh, sorry. Oh, it's my wife.
3
11440
4960
ああ、ごめんなさい。 ああ、私の妻です。
00:16
Err… hang on…
4
16400
1920
えーっと…ちょっと待って…
00:18
You didn't answer!
5
18320
1276
答えてないですよ!
00:19
Well, don't take this personally, Dan,
6
19596
2404
まあ、ダン、これを個人的に取らないでください。
00:22
but I'm not exactly crazy about
7
22000
2080
でも、私は
00:24
someone eavesdropping on my
8
24080
1200
誰かが私の電話を盗聴することにまったく夢中ではありません
00:25
phone call. If you eavesdrop on
9
25280
1920
。 何かを盗み聞きすると
00:27
something, you secretly listen to
10
27200
1680
00:28
someone's conversation.
11
28880
1360
誰かの会話をこっそり聞くことになります。
00:30
Some things are private, you know?
12
30240
1280
プライベートなこともありますよね?
00:31
Oh! Of course! I totally understand.
13
31520
2882
おお! もちろん! すごくわかります。
00:34
One quick question for you though…
14
34402
2478
簡単な質問が 1 つあります。
00:36
do you have a smart speaker?
15
36880
1680
スマート スピーカーをお持ちですか?
00:38
You know, like the Google Assistant,
16
38560
1840
Google アシスタント、
00:40
Amazon's Alexa or Apple's Siri.
17
40400
2800
Amazon の Alexa、Apple の Siri のようなものです。
00:43
Oh sure, yes, I've got one! It's great!
18
43200
2320
ああ、確かに、はい、持っています! それは素晴らしい!
00:45
I can ask it all sorts of questions, it
19
45520
2320
あらゆる種類の質問をしたり、
00:47
tells me about the news and weather,
20
47840
1600
ニュースや天気について教えてくれたり、
00:49
it plays music when I want… it does
21
49440
2080
好きなときに音楽を再生したり…
00:51
all sorts! You just give it a voice
22
51520
1840
あらゆる種類のことをしてくれます。 音声コマンドを与えるだけで、
00:53
command and it does what you want!
23
53360
2240
望み通りのことが実行されます。
00:55
So it can hear you, can it?
24
55600
1520
それであなたの声が聞こえるのですね?
00:57
Of course! How else can you give
25
57120
1840
もちろん! 他にどのように音声コマンドを与えることができますか
00:58
it a voice command?
26
58960
1200
?
01:00
All the time?
27
60160
880
ずっと?
01:01
Well, I assume so.
28
61040
1280
まあ、そうだと思います。
01:02
So how do you know it's not
29
62320
1200
では、
01:03
eavesdropping on you?
30
63520
1760
盗聴されていないことはどうやってわかるのでしょうか?
01:05
Well, I… oh… I see. I hadn't thought
31
65280
3280
そうですね、私は…ああ…なるほど。 それは考えもしませんでした
01:08
of that.
32
68560
821
01:09
That's our topic for this
33
69381
1419
それが今回の「
01:10
6 Minute English.
34
70800
1200
6分間英語」のテーマです。
01:12
How safe is your smart speaker?
35
72000
2400
あなたのスマートスピーカーはどれくらい安全ですか?
01:14
However, before that, here is our
36
74400
2080
その前に、ここで
01:16
quiz question. By what percentage
37
76480
1880
クイズの質問があります。 2017 年 12 月から 2018 年 12 月にかけて、
01:18
has the number of smart speakers
38
78360
1560
01:19
used in US households increased
39
79920
2320
米国の家庭で使用されているスマート スピーカーの数は何パーセント増加しましたか
01:22
from December 2017 to December
40
82240
2320
01:24
2018? Is it…
41
84560
1360
? それは…
01:25
a) around 40%
42
85920
1680
a) 約 40%、
01:27
b) around 60%, or
43
87600
1920
b) 約 60%、または
01:29
c) around 80%?
44
89520
2080
c) 約 80% ですか?
01:31
Oh, well, I know they are very
45
91600
2000
まあ、
01:33
popular even in my household.
46
93600
1760
我が家でも大人気なんですけどね。
01:35
So I'm going to go for c) around 80%.
47
95360
3017
したがって、c) 約 80% を選択するつもりです。
01:38
Well, we'll find out if you're right later
48
98377
2183
まあ、あなたが正しいかどうかは、プログラムの後半でわかります
01:40
in the programme. So, smart
49
100560
2320
。 ということで、スマート
01:42
speakers and privacy! Florian Schaub
50
102880
2720
スピーカーとプライバシー! Florian Schaub は、
01:45
is an assistant professor at the
51
105600
1440
01:47
University of Michigan School
52
107040
1600
ミシガン大学
01:48
of Information. Here he is speaking
53
108640
2400
情報学部の助教授です。 ここで彼は、
01:51
on the BBC World Service programme
54
111040
1840
BBC ワールド サービスの番組「
01:52
The Why Factor about smart
55
112880
1760
The Why Factor」でスマート
01:54
speakers. What does he say people
56
114640
2320
スピーカーについて話しています。 人々は
01:56
are introducing into their homes?
57
116960
2828
家に何を導入していると彼は言いますか?
02:00
You're basically introducing...
58
120480
1600
あなたは基本的に...
02:02
listening bug in your home, in your
59
122080
1920
あなたの家の
02:04
most intimate space. While the
60
124000
1760
最も親密な空間に、聞き耳を立てる虫を持ち込むことになります。
02:05
companies say they are only actively
61
125760
2400
両社は、キーワードを聞いたときに
02:08
listening to what's going on in your
62
128160
1120
家の中で何が起こっているかを積極的に聞いているだけだと述べているが
02:09
home when they hear the keyword,
63
129280
1920
、そのキーワードを
02:11
the microphone is still on the whole
64
131200
1440
02:12
time in order to be able to detect
65
132640
1760
検出できるようにするためにマイクは常にオンになっている
02:14
that keyword. We don't know to
66
134400
1360
02:15
what extent companies are
67
135760
1360
企業が政府にどの程度
02:17
co-operating with the government
68
137120
1440
協力しているのか、
02:18
or to what extent the government
69
138560
1280
あるいは政府が企業の行動に耳を傾けるためにどの程度
02:19
might try to circumvent company
70
139840
2480
企業の
02:22
security mechanisms in order to
71
142320
2160
セキュリティメカニズムを回避しようとするのかはわかりません
02:24
then be able to listen to what
72
144480
1360
02:25
you're doing.
73
145840
1298
02:28
So, what did he say people are
74
148064
1536
それで、ロブ、人々は何を紹介していると彼は言いましたか
02:29
introducing, Rob?
75
149600
1280
?
02:30
He basically said we're introducing
76
150880
2400
彼は基本的に、我々はリスニングのバグを導入していると言いました
02:33
a listening bug. Now, a bug is a
77
153280
2640
。 さて、バグとは、会話をこっそり聞く
02:35
small electronic device used for
78
155920
1600
ために使用される小型の電子機器です
02:37
secretly listening to conversations.
79
157520
2000
02:39
Much like a spy would use.
80
159520
1840
スパイが使うようなもの。
02:41
Yes, and he mentioned it was in
81
161360
1920
はい、そして彼はそれが
02:43
our most intimate space! 'Intimate'
82
163280
2800
私たちの最も親密な空間にあると言いました! 「親密」とは
02:46
means 'private and personal'.
83
166080
2187
「プライベートで個人的な」という意味です。
02:48
Well, I can't think of anywhere
84
168267
1333
そうですね、
02:49
more intimate than my home.
85
169600
2160
家以上に親密な場所は思いつきません。 それ
02:51
Indeed! He also said that the
86
171760
2400
はそう! 同氏はまた、
02:54
smart speaker's microphone is
87
174160
1680
スマートスピーカーのマイクは
02:55
on the whole time – even though
88
175840
1760
常にオンになっていると述べた。
02:57
the companies insist that they're
89
177600
1520
企業はキーワードが話された
02:59
only actively listening when the
90
179120
1760
ときだけ積極的に聞いていると主張しているにもかかわらずだ
03:00
keyword is said.
91
180880
1280
03:02
Yes, he suggested that we can't
92
182160
1440
はい、企業が人々の盗聴のために政府とどこまで協力しているのかは分からない、と彼は示唆しました
03:03
know how far a company might
93
183600
1440
03:05
be co-operating with a government
94
185040
1680
03:06
to eavesdrop on people.
95
186720
1520
03:08
Or whether a government might
96
188240
1200
あるいは、政府が
03:09
be circumventing a smart speaker's
97
189440
2080
スマート スピーカーのセキュリティを回避し
03:11
security and listening in anyway
98
191520
2800
03:14
without the company's or owner's
99
194320
1760
会社や所有者の
03:16
permission!
100
196080
1120
許可なしに盗聴している可能性があるのか​​どうか。
03:17
'Circumvent' means 'cleverly bypass
101
197200
2560
「迂回」とは「巧みに迂回する
03:19
or go around'. So, if all this
102
199760
2400
、迂回する」という意味です。 では、これらすべての
03:22
eavesdropping is possible, why are
103
202160
2320
盗聴が可能であるならば、なぜ
03:24
smart speakers so popular?
104
204480
2240
スマートスピーカーはこれほど普及しているのでしょうか?
03:26
Good question! And here's Florian
105
206720
2160
良い質問! そして、Florian
03:28
Schaub again with an answer. He
106
208880
2000
Schaub が再び答えてくれます。 彼は、スマート スピーカーに関するプライバシーに対する
03:30
conducted a study on people's
107
210880
1920
人々の態度に関する調査を実施しました
03:32
attitudes to privacy when it comes
108
212800
1760
03:34
to smart speakers. How do people
109
214560
2320
。 人々は、盗聴される可能性のある
03:36
feel about having a smart speaker
110
216880
1760
スマート スピーカーを持っていることについてどう感じますか
03:38
that could eavesdrop on them?
111
218640
1865
?
03:40
What we often saw is people just
112
220880
2080
私たちがよく目にしたのは、
03:42
being resigned to 'this is the
113
222960
2000
03:44
trade-off they have to make' if
114
224960
1360
03:46
they want to enjoy the convenience
115
226320
1920
03:48
that a smart speaker provides to them.
116
228240
2192
スマート スピーカーが提供する利便性を享受したいのであれば、「これは犠牲にしなければならないことだ」とただ諦めている人々です。
03:50
He said that people are resigned
117
230960
2320
同氏は、人々はプライバシーとのトレードオフを受け入れていると述べた
03:53
to the privacy trade-off. If you are
118
233280
2480
03:55
resigned to something, you
119
235760
1360
何かを諦めている場合は、変えることができない
03:57
accept something unpleasant that
120
237120
1760
不快なものを受け入れていることになります
03:58
can't be changed.
121
238880
1120
04:00
Yes and a trade-off is a compromise.
122
240000
2560
はい、トレードオフは妥協です。 何か
04:02
You accept something bad to also
123
242560
2080
良いものを受け取るために、悪いことも受け入れます
04:04
receive something good.
124
244640
1360
04:06
So people accept that a smart
125
246000
1600
では、人々は、たとえマイナス面があるとしても、スマートスピーカーには利点があることを受け入れているのでしょうか
04:07
speaker gives them advantages,
126
247600
2240
04:09
even though there could be
127
249840
1440
04:11
downsides?
128
251280
800
?
04:12
Yes. In the grand scheme of things,
129
252080
2080
はい。 大まかに言えば、企業が私たちについてすでに持っているすべてのデータを考慮すると、
04:14
the data that these devices hear
130
254160
2000
これらのデバイスが聞くデータは
04:16
is probably not that significant
131
256160
2080
おそらくそれほど重要ではありません
04:18
considering all the data companies
132
258240
1760
04:20
have about us already anyway!
133
260000
2279
04:22
So, can I have the answer to the
134
262857
1543
それで、クイズの答えを聞いてもいいですか
04:24
quiz then?
135
264400
640
04:25
Of course! Earlier I asked by what
136
265040
2880
もちろん! 先ほど、
04:27
percentage the number of smart
137
267920
1440
04:29
speakers used in US households
138
269360
2080
米国の家庭で使用されているスマート スピーカーの数は、
04:31
increased from December 2017
139
271440
2240
2017 年 12 月から
04:33
to December 2018? Was it…
140
273680
2080
2018 年 12 月までに何パーセント増加したかを尋ねました。 それは…
04:35
a) around 40%
141
275760
1680
a) 約 40%、
04:37
b) around 60%, or
142
277440
1760
b) 約 60%、または
04:39
c) around 80%?
143
279200
1760
c) 約 80% でしたか?
04:40
What did you say, Rob?
144
280960
1040
何て言いましたか、ロブ?
04:42
I said c) around 80%.
145
282000
2080
私は c) 約 80% と言いました。
04:44
And you are right. The answer
146
284080
2720
そして、あなたは正しいです。 答えは
04:46
is around 80% - from 66 million
147
286800
2720
約 80% で、
04:49
in December 2017 to 118 million
148
289520
3760
2017 年 12 月の 6,600 万人から
04:53
in December 2018, and around
149
293280
2800
2018 年 12 月には
04:56
ten million people in the UK now
150
296080
2080
1 億 1,800 万人になり、現在英国でも約 1,000 万人が
04:58
use one too! I guess they're
151
298160
2080
使用しています。 盗聴のことを
05:00
really not worried about
152
300240
720
05:00
eavesdropping.
153
300960
896
本当に心配していないのだと思います
05:01
Nice slide into the vocabulary
154
301856
2464
語彙をうまく理解できました
05:04
there, Dan. If someone eavesdrops
155
304320
2320
、ダン。 誰かがあなたの話を盗み聞きしている場合
05:06
on you, it means they secretly
156
306640
1600
、それは彼らが
05:08
listen to your conversation.
157
308240
1440
あなたの会話を密かに聞いていることを意味します。
05:09
They could be eavesdropping on
158
309680
1360
彼らは、密かに会話を聞くために使用される小型電子機器であるバグを通じて、あなたのことを盗聴している可能性があります
05:11
you through a bug, which is a small
159
311040
2240
05:13
electronic device used to secretly
160
313280
2080
05:15
listen to conversations.
161
315360
1840
05:17
Yes, they may have bugged your
162
317200
1520
はい、彼らはあなたの
05:18
most intimate, or private and
163
318720
1840
最も親密な、またはプライベートで
05:20
personal, spaces.
164
320560
1440
個人的なスペースを盗聴した可能性があります。
05:22
Next we had circumvent. If you
165
322000
2160
次に回避しました。 セキュリティなどの
05:24
circumvent something, such as
166
324160
1440
何かを回避する場合は
05:25
security, you cleverly or bypass
167
325600
2240
、巧妙にそれを回避したり回避したり
05:27
it or go around it.
168
327840
1920
することになります。
05:29
Then we had resigned. If you are
169
329760
2080
それから私たちは辞任しました。
05:31
resigned to something, it means
170
331840
1840
何かを諦めているということは、変えることができない
05:33
you accept something unpleasant
171
333680
2000
不快なものを受け入れていることを意味します
05:35
that can't be changed.
172
335680
1440
05:37
And lastly, we had trade-off.
173
337120
2320
そして最後に、トレードオフがありました。
05:39
A trade-off is a compromise.
174
339440
1760
トレードオフとは妥協のことです。
05:41
You get something good, but you
175
341200
1840
良いものも得られますが、
05:43
also get something bad.
176
343040
1920
悪いものも得ます。
05:44
Right - like 6 Minute English!
177
344960
1920
そう、6分間英語のようなものです!
05:46
A great discussion and vocabulary,
178
346880
2320
素晴らしいディスカッションと語彙
05:49
but the trade-off is it only lasts
179
349200
2240
ですが、その代償として、所要時間はわずか
05:51
six minutes!
180
351440
1120
6 分です。 実のところ、
05:52
Which is just about now,
181
352560
1440
それはちょうど今、
05:54
actually - time to go. So until next
182
354000
2240
出発する時間です。 それでは次回まで
05:56
time, find us all over the place
183
356240
1583
、オンラインやソーシャルメディアで私たちを見つけてください
05:57
online and on social media.
184
357823
2402
。 「
06:00
Just search for BBC Learning English.
185
360225
2335
BBC Learning English」を検索してください。 また
06:02
Bye for now.
186
362560
720
ね。
06:03
Goodbye!
187
363280
841
さようなら!
06:09
Hello. This is 6 Minute English
188
369680
1600
こんにちは。
06:11
from BBC Learning English.
189
371280
1440
BBC Learning English の 6 Minute English です。
06:12
I’m Neil.
190
372720
880
私はニールです。
06:13
And I’m Sam.
191
373600
960
そして私はサムです。 切手やコインから漫画やサッカーのステッカーに至るまで、
06:14
People collect all kinds of things
192
374560
1760
人々は趣味のためにあらゆる種類のものを集めています
06:16
for a hobby, from stamps and coins
193
376320
1840
06:18
to comics and football stickers.
194
378160
2000
06:20
Do you collect anything, Sam?
195
380160
1920
何か集めていますか、サム? 以前はポケモンカードを
06:22
I used to have a big collection
196
382080
1680
たくさんコレクションしていました
06:23
of Pokémon cards but I have no
197
383760
2080
が、
06:25
idea where they are now.
198
385840
1600
今はどこにあるのかわかりません。
06:27
Well, maybe you should start
199
387440
1280
そうですね、インターネットでは
06:28
looking for them because all
200
388720
1360
あらゆる
06:30
kinds of collectables – that’s
201
390080
2000
種類の収集品、つまり
06:32
objects that people want to
202
392080
1280
人々が
06:33
collect – are selling for big
203
393360
1680
集めたがる品物が高額で販売されているので、探し始めたほうがよいかもしれません
06:35
money on the internet. It’s
204
395040
1680
。 これは
06:36
all part of a new tech craze
205
396720
1680
すべて、
06:38
called non-fungible tokens,
206
398400
2000
非代替トークン、
06:40
or NFTs for short.
207
400400
1760
または略して NFT と呼ばれる新しいテクノロジーの流行の一部です。 代替
06:42
Non-fungible tokens?
208
402160
1760
不可能なトークン?
06:43
Basically, NTFs are unique,
209
403920
2160
基本的に、NTF は、他の物理的なオブジェクトと同様に売買
06:46
one-of-kind items that can
210
406080
1600
できるユニークで唯一無二のアイテムです
06:47
be bought and sold like any
211
407680
1600
06:49
physical object but only exist
212
409280
2320
が、デジタル世界にのみ存在します
06:51
in the digital world. ‘Tokens’
213
411600
2320
。 「トークン」は、
06:53
can be thought of as certificates
214
413920
1680
06:55
of ownership for these virtual
215
415600
1840
これらの仮想
06:57
possessions.
216
417440
600
所有物の所有権証明書と考えることができます。
06:58
Hmmm, OK. I understand the
217
418040
2920
んーよしっ。
07:00
‘token’ part but what does
218
420960
2000
「トークン」の部分は理解しましたが、
07:02
‘non-fungible’ mean?
219
422960
1600
「代替不可能」とは何を意味しますか?
07:04
If something is ‘fungible’ it can
220
424560
1760
何かが「代替可能」であれば、たとえば
07:06
be interchanged, like money,
221
426320
2000
お金のように交換することができます
07:08
for example. With money you
222
428320
1680
。 お金があれば、
07:10
can swap a £10 note for two
223
430000
1920
10 ポンド紙幣を 2 枚の 5 ポンド紙幣と交換しても、
07:11
£5 notes and it will have the
224
431920
1600
07:13
same value.
225
433520
1086
同じ価値になります。
07:14
So, something non-fungible
226
434606
2194
したがって、代替不可能なものを他のもの
07:16
cannot be interchanged with
227
436800
1520
と交換することはできません
07:18
something else. Is that because
228
438320
1680
。 それはそれをユニークにする特別な機能があるからでしょうか
07:20
it has special features that
229
440000
1760
07:21
make it unique?
230
441760
1360
07:23
Exactly. Imagine something
231
443120
1680
その通り。 モナリザのような、まったくユニークなものを想像してみてください
07:24
totally unique like the Mona Lisa.
232
444800
2080
07:26
You can take a photo of the
233
446880
1280
絵画の写真を撮ったり、
07:28
painting or buy a copy of it, but
234
448160
2080
そのコピーを購入したりできますが、
07:30
there will only ever be the one
235
450240
1840
07:32
original painting.
236
452080
1200
オリジナルの絵画は 1 つだけです。
07:33
I can see that the Mona Lisa is
237
453280
2320
モナリザは
07:35
one-of-a-kind and extremely
238
455600
1920
唯一無二で非常に
07:37
valuable, but it’s not for sale
239
457520
2000
貴重なものであることはわかりますが、インターネットでは販売されていません
07:39
on the internet!
240
459520
1040
07:40
True, but lots of other things
241
460560
1520
確かにその通りですが、
07:42
are, from signed celebrity
242
462080
1440
署名入りの有名人の
07:43
artwork to virtual football
243
463520
1760
アートワークからバーチャル フットボール カードに至るまで、他の多くのものも同様です
07:45
cards. NFTs are like autographed
244
465280
2640
。 NFT はサイン入りの写真のようなものです
07:47
photos – collectors want something
245
467920
2080
。コレクターは、実際に所有し保管している物理的なものが
07:50
no-one else has, even though
246
470000
1600
何もなくても、
07:51
there’s nothing physical they
247
471600
1440
誰も持っていないものを求めます
07:53
actually own and keep.
248
473040
1440
07:54
And the value of NFTs is going
249
474480
2480
そしてNFTの価値はどんどん上がっているのでしょうか
07:56
up and up?
250
476960
1040
07:58
Massively. A digital sticker of
251
478000
2240
大量に。
08:00
French footballer, Kylian Mbappé,
252
480240
1760
フランスのサッカー選手、キリアン・ムバッペのデジタル ステッカーが
08:02
recently sold for £25,000! Which
253
482000
3680
最近 25,000 ポンドで落札されました。 それは
08:05
reminds me of my quiz
254
485680
1040
私のクイズの質問を思い出させます
08:06
question, Sam.
255
486720
1200
、サム。
08:07
In June 2021, Sir Tim Berners-Lee
256
487920
2960
2021年6月、ティム・バーナーズ・リー卿は
08:10
sold the original source code he
257
490880
1760
08:12
used to invent the World Wide
258
492640
1520
ワールド・ワイド・ウェブの発明に使用したオリジナルのソースコードを
08:14
Web as an NFT at a charity auction.
259
494160
3040
NFTとしてチャリティーオークションで販売した。
08:17
The sale started at $1000 but
260
497200
2080
販売は 1000 ドルから始まりましたが、
08:19
how much did the source code
261
499280
1600
ソース コードは
08:20
eventually sell for? Was it:
262
500880
1760
最終的にいくらで売れましたか? それは次のとおりでした:
08:22
a) 5.4 thousand dollars?
263
502640
2480
a) 5.4 千ドルですか?
08:25
b) 5.4 million dollars? or
264
505120
2400
b) 540万ドル? または
08:27
c) 5.4 billion dollars?
265
507520
3065
c) 54 億ドル?
08:30
If you’re asking me how much
266
510585
2055
08:32
the internet sold for, I’d say
267
512640
2640
インターネットがいくらで売れたか尋ねたら、
08:35
c) 5.4 billion dollars.
268
515280
3120
c) 54 億ドルと答えるでしょう。
08:38
OK, Sam, we’ll find out later
269
518400
1600
わかりました、サム、
08:40
if that’s right.
270
520000
960
08:40
Sir Tim Berners-Lee famously
271
520960
1760
それが正しいかどうかは後でわかります。
ティム・バーナーズ・リー卿は、ワールド・ワイド・ウェブからは
08:42
never made any money from the
272
522720
1840
一切利益を得ず
08:44
World Wide Web, insisting that
273
524560
2000
08:46
his invention should be free
274
526560
1680
自分の発明は誰にでも無料で提供されるべきだと主張していたことは有名です
08:48
for everyone. But the world of
275
528240
1600
。 しかし、NFTの世界は
08:49
NFTs is controversial and not
276
529840
2560
物議を醸しており、
08:52
everyone thinks Sir Tim should
277
532400
1680
誰もがティム卿が関与すべきだと考えているわけではありません
08:54
be getting involved.
278
534080
1360
08:55
That’s certainly the view of
279
535440
1280
それは確かに、
08:56
Shona Ghosh, technology
280
536720
1520
08:58
editor at the ‘The Insider’ website,
281
538240
2000
「The Insider」ウェブサイトのテクノロジー編集者であるショナ・ゴーシュ氏の見解です。
09:00
as she told BBC World Service
282
540240
1840
彼女はBBCワールド・サービス・プログラムのTech Tentで次のように語っています。
09:02
programme, Tech Tent:
283
542080
1280
09:03
I think there’s a balance to be
284
543360
1120
09:04
struck between exploring new
285
544480
1840
新しい
09:06
technologies and
286
546320
1760
テクノロジーの探究と、
09:08
Sir Tim Berners-Lee is an
287
548080
2000
サー・ティム・バーナーズ・リーの
09:10
amazing figure but NFTs are
288
550080
2480
素晴らしい才能の間にはバランスを取る必要があると思います。 図ですが、NFTは
09:12
a Wild West. Not everything
289
552560
2960
西部開拓時代です。
09:15
associated with NFTs are
290
555520
1840
NFTに関連するすべてが
09:17
rogue, but these so-called digital
291
557360
2320
不正であるわけではありませんが、これらのいわゆるデジタル
09:19
collectables are going for
292
559680
1040
収集品は高額で取引されています
09:20
lots of money.
293
560720
1360
09:22
Internet NFTs are very new and
294
562080
2480
インターネットNFTは非常に新しく、
09:24
there are no rules controlling what
295
564560
2080
何をいくらで販売できるかを制御するルールがない
09:26
can be sold and for how much, so
296
566640
2640
ため、
09:29
Shona describes them as a 'Wild West'.
297
569280
3360
ショナ氏はそれらを「ワイルドウェスト」と表現します。
09:32
The Wild West means a situation
298
572640
2080
ワイルドウェストとは、アメリカ西部の
09:34
where people can do whatever
299
574720
1280
09:36
they want because there are no
300
576000
1440
09:37
laws or controls, like the early
301
577440
1760
初期の歴史のように、法律や規制がないために人々がやりたいことを何でもできる状況を意味します
09:39
history of the western part of
302
579200
1600
09:40
the United States.
303
580800
1120
09:41
She also calls some things about
304
581920
1600
彼女はまた、NFT に関するいくつかのことを
09:43
NFTs rogue - behaving differently
305
583520
3440
不正行為、つまり正常または予想とは異なる動作をし
09:46
from what’s normal or expected,
306
586960
2320
09:49
often in a way that causes damage.
307
589280
2880
多くの場合損害を引き起こす方法であると呼んでいます。 BBCワールドサービスのテックテントのプレゼンター、ロリー・セラン・ジョーンズ氏が説明するように、
09:52
Love them or hate them, there are
308
592160
1440
好きか嫌いかにかかわらず、NFT論争
09:53
strong opinions on both sides of
309
593600
1760
には両側に強い意見がある
09:55
the NFT debate, as
310
595360
1440
09:56
Rory Cellan-Jones, presenter
311
596800
1920
09:58
of BBC World Service’s
312
598720
1600
10:00
Tech Tent, explains:
313
600320
1440
10:01
To some NFTs are a brilliant
314
601760
2480
一部の人にとって、NFTは
10:04
innovation which has promised
315
604240
1200
10:05
to put a value on digital artefacts.
316
605440
2880
デジタルに価値を置くことを約束した素晴らしいイノベーションである 工芸品。
10:08
To others they’re little more than
317
608320
1600
他の人にとって、それらは
10:09
a dubious pyramid scheme with a
318
609920
2080
トークンの作成方法のせいで
10:12
damaging impact on the environment
319
612000
1920
環境に悪影響を与える怪しいねずみ講に過ぎません
10:13
because of the way the tokens
320
613920
1440
10:15
are created.
321
615360
1120
10:16
Some people are suspicious of
322
616480
1680
一部の人々は、
10:18
the large amounts of money
323
618160
1280
10:19
collectors are willing to pay,
324
619440
2000
10:21
comparing NFTs to pyramid
325
621440
2160
NFTをねずみ講
10:23
schemes - business tricks or
326
623600
2320
(不正にお金が得られるビジネストリックや
10:25
scams where money is
327
625920
1520
詐欺)に例えて、コレクターが
10:27
obtained dishonestly.
328
627440
1840
喜んで支払う多額のお金に疑問を抱いています。
10:29
But for others NFTs are a
329
629280
1760
しかし、他の人にとって、NFTは、
10:31
legitimate and useful way
330
631040
1520
10:32
to put a price on rare digital
331
632560
1840
10:34
artefacts – items, such as
332
634400
1840
10:36
images, videos and music,
333
636240
1920
画像、ビデオ、音楽など、電子バージョンとして
10:38
that are produced and stored
334
638160
1360
作成および保存されているレアなデジタル芸術品に価格を付けるための合法的で便利な方法です
10:39
as electronic versions.
335
639520
1680
10:41
Items like, for example, the
336
641200
2080
たとえば、インターネットの
10:43
original source code for the
337
643280
1440
元のソース コードなどのアイテム
10:44
internet. So, how much money
338
644720
1520
。 それで、
10:46
did Sir Tim Berners-Lee raise for
339
646240
1840
ティム・バーナーズ・リー卿が
10:48
charity when he sold it off, Neil?
340
648080
2160
それを売却したとき、慈善活動のためにいくら集めました、ニール?
10:50
In my quiz question, I asked
341
650240
1440
私のクイズの質問で、私は
10:51
Sam how much the NFT for
342
651680
1920
サムに、
10:53
the original internet source
343
653600
1360
元のインターネットソース
10:54
code sold for at auction.
344
654960
2240
コードのNFTがオークションでいくらで販売されたか尋ねました。
10:57
I said c) 5.4 billion dollars.
345
657200
3120
私は c) 54 億ドルと言いました。
11:00
You were… wrong! In fact, it
346
660320
2160
あなたは間違っていました! 実際、それは
11:02
was less - 5.4 million dollars –
347
662480
2320
540 万ドルより安かったです
11:04
but still far too expensive
348
664800
1360
が、それでも
11:06
for me to collect.
349
666160
800
11:06
Hmmm, now I’m wondering
350
666960
960
私が集めるには高すぎました。
うーん、
11:07
how much my Pokémon card
351
667920
1440
私のポケモンカード
11:09
collection would sell for. If only
352
669360
1680
コレクションがいくらで売れるか気になります。 見つけられればいいのに
11:11
I could find it!
353
671040
1360
11:12
Well, while you look for your
354
672400
1120
さて、サム、あなたがコレクションを探している間、
11:13
collection, Sam, let’s recap
355
673520
1520
11:15
the vocabulary from this
356
675040
1200
11:16
programme all about NFTs
357
676240
2000
11:18
which are digital artefacts or
358
678240
2080
デジタルアーティファクトまたは
11:20
items that are produced and
359
680320
1440
11:21
stored as electronic versions.
360
681760
2080
電子バージョンとして作成および保存されるアイテムである NFT に関するこのプログラムの語彙をすべて要約しましょう。
11:23
NFTs are virtual collectables –
361
683840
2640
NFT は仮想収集品、つまり
11:26
desirable objects that people
362
686480
1680
人々が
11:28
search for and collect.
363
688160
1840
検索して収集する望ましいオブジェクトです。
11:30
And they are non-fungible
364
690000
1680
そして、それらは代替不可能であり、他のものと交換できない
11:31
meaning they have special and
365
691680
1360
特別でユニークな特性を持っていることを意味します
11:33
unique characteristics that
366
693040
1360
11:34
cannot be interchanged
367
694400
1280
11:35
with anything else.
368
695680
1040
11:36
If something is rogue it behaves
369
696720
2000
何かが不正な場合、
11:38
in a different way from what’s
370
698720
1600
11:40
normal or expected, often
371
700320
2000
正常または予想とは異なる動作をし、損害を引き起こすことがよくあります
11:42
causing damage.
372
702320
1440
11:43
The Wild West describes a
373
703760
1440
西部開拓時代は、法律や統制のない混沌とした状況を表しています
11:45
chaotic situation without
374
705200
1600
11:46
laws or controls.
375
706800
1360
11:48
And finally, a pyramid scheme
376
708160
2000
そして最後に、ねずみ講は
11:50
is a business scam where
377
710160
1600
11:51
money is gained dishonestly.
378
711760
2160
不正にお金を得るビジネス詐欺です。
11:53
If you’d like to know more
379
713920
1280
11:55
about non-fungible tokens, bitcoin
380
715200
1920
代替不可能なトークン、ビットコイン、
11:57
and other trending internet topics
381
717120
1680
その他のインターネットのトレンドトピックについて詳しく知りたい場合は、
11:58
there’s plenty to find on the
382
718800
1360
12:00
BBC website.
383
720160
1040
BBC の Web サイトでたくさんの情報を見つけることができます。
12:01
And for more interesting
384
721200
960
さらに興味深い
12:02
conversation and useful
385
722160
1360
会話や役立つ
12:03
vocabulary, remember to join us
386
723520
1920
語彙を知りたい方は、
12:05
again soon here at 6 Minute
387
725440
1920
ぜひ 6 Minute
12:07
English. Bye for now!
388
727360
1600
English にご参加ください。 またね!
12:08
Bye!
389
728960
880
さよなら!
12:15
Welcome to 6 Minute English,
390
735520
1760
6 Minute English へようこそ。このプログラムでは、
12:17
the programme where we
391
737280
1200
12:18
explore an interesting topic
392
738480
1680
興味深いトピックを探求し
12:20
and bring you six items of
393
740160
1680
、役立つ 6 項目の語彙をお届けします
12:21
useful vocabulary. I'm Catherine.
394
741840
2400
。 私はキャサリンです。
12:24
And I'm Rob.
395
744240
960
そして私はロブです。
12:25
I have a question for you, Rob:
396
745200
2000
ロブ、あなたに質問があります。
12:27
how would you feel about
397
747200
1600
12:28
having therapy from a robot?
398
748800
3120
ロボットによるセラピーを受けることについてどう思いますか?
12:31
I'm not too sure about that – you'll
399
751920
1600
それについてはよくわかりません。
12:33
need to tell me more! But first
400
753520
1680
詳しく教えてください。 しかし、まず第
12:35
things first, the word 'therapy'
401
755200
2480
一に、「セラピー」という言葉は、精神的健康問題の治療を含む、人の気分を良くする
12:37
refers to a kind of treatment
402
757680
1920
一種の治療を指します
12:39
that helps someone feel better –
403
759600
1920
12:41
including treatment for mental
404
761520
1360
12:42
health issues. Someone who
405
762880
1520
12:44
delivers therapy is called a therapist.
406
764400
2640
セラピーを提供する人はセラピストと呼ばれます。
12:47
We'll find out more about this
407
767040
1760
このロボットセラピストについては後ほど詳しく説明します
12:48
robot therapist in just a moment,
408
768800
2320
12:51
but first, Rob, I've got a question for
409
771120
2480
が、その前に、ロブ、
12:53
you about the scale of mental
410
773600
2080
12:55
health issues globally. So, roughly
411
775680
3280
世界的なメンタルヘルス問題の規模について質問があります。 では、生涯のある時点でメンタルヘルスの問題を経験する
12:58
how many people do you think
412
778960
1760
人はおよそ何人いると思いますか
13:00
experience mental health issues
413
780720
2320
13:03
at some point during their lifetime?
414
783040
2880
?
13:05
Is it…
415
785920
800
それは…
13:06
a) one in ten people,
416
786720
2400
a) 10 人に 1 人、
13:09
b) one in four, or
417
789120
2400
b) 4 人に 1 人、または
13:11
c) one in three?
418
791520
1600
c) 3 人に 1 人ですか?
13:13
I'll go for one in four, but I know
419
793120
1840
私は 4 分の 1 を選びますが、
13:14
whichever answer is right – it's a
420
794960
2160
どちらの答えが正しいかはわかっています。これは
13:17
big issue. How might a
421
797120
1360
大きな問題です。 ロボットセラピストはどのように役立つでしょうか
13:18
robot therapist help?
422
798480
1440
?
13:19
We're not talking about a robot
423
799920
1920
私たちはスター・ウォーズの意味でのロボットについて話しているのではありません
13:21
in the Star Wars sense – so, there's
424
801840
2240
。ですから、
13:24
no flashing lights and mechanical
425
804080
1680
点滅するライトや機械式の
13:25
arms, Rob! It's actually an app in
426
805760
2400
アームはありません、ロブ! これは実際には、あなたに話しかけるスマートフォン内のアプリで、
13:28
your smartphone that talks to you –
427
808160
2880
13:31
and it's called Woebot.
428
811040
3120
Woebot と呼ばれています。
13:34
So – it has a sense of humour.
429
814160
2000
つまり、ユーモアのセンスがあるのです。
13:36
'Woe' means 'sadness'; so this
430
816160
2160
「悲惨」とは「悲しみ」を意味します。 つまり、これは
13:38
is a 'woe' bot, not a robot.
431
818320
2640
ロボットではなく「悲惨な」ボットです。 アメリカのスタンフォード大学の心理学者アリソン・ダーシー博士
13:40
And it was developed by
432
820960
1520
によって開発されました
13:42
psychologist Dr Alison Darcy
433
822480
2480
13:44
from Stanford University in the
434
824960
1840
13:46
US. Here she is, talking to the BBC
435
826800
2880
。 こちらは彼女がBBCラジオ番組『オール・イン・ザ・マインド』で話しているところです
13:49
radio programme All in the Mind.
436
829680
2480
13:52
Well, after you start an initial
437
832160
2240
そうですね、あなたが Woebot と最初の会話を開始すると
13:54
conversation with the Woebot, and
438
834400
960
、彼は
13:55
he'll take you through sort of what
439
835360
1120
何が
13:56
he can do and what he can't do, he'll
440
836480
1680
できるか、何ができないかを一通り説明してくれますが、
13:58
just essentially check in with you
441
838160
1120
基本的には毎日あなたにチェックインして、
13:59
every day and just give you a sort
442
839280
1840
ある種の情報を与えるだけです。
14:01
of figurative tap on the shoulder
443
841120
1440
比喩的に肩をたたいてこう
14:02
and say: "Hey Claudia, how are
444
842560
1600
言います。「やあ、クラウディア、調子はどう
14:04
you doing? What's going on in your
445
844160
1600
? 一日に何が起こっているの
14:05
day? How do you feel?" So if you
446
845760
1520
? 気分はどう?」 したがって
14:07
say, like "I'm really, really stressed out",
447
847280
2320
、「本当に、本当にストレスがたまっています」などと言うと、
14:09
Woebot might offer to help talk
448
849600
2640
Woebot が何かについて話してくれると申し出てくれるかもしれません
14:12
you through something.
449
852240
1488
14:14
Woebot checks in with you every
450
854101
2139
Woebot は毎日あなたにチェックインして、
14:16
day and asks you how you are.
451
856240
2080
あなたの様子を尋ねます。
14:18
So here, to check in with someone
452
858320
2240
つまり、誰かにチェックインするということは、その人と
14:20
doesn't mean to register at a hotel
453
860560
1760
ホテルに登録するという意味ではありません
14:22
with that person! It's an informal
454
862320
2000
。 これは、情報を報告したり調べたりするために
14:24
way of saying you talk to someone
455
864320
1760
誰かと話すことを言う非公式な言い方です
14:26
in order to report or find out information.
456
866080
2640
14:28
And this usage is more common
457
868720
1760
そして、この用法は米国でより一般的です
14:30
in the United States. So, for
458
870480
1920
。 たとえば、
14:32
example: "I can't meet you today, Rob,
459
872400
2240
「ロブ、今日は会えませんが、
14:34
but I'll check in with you tomorrow
460
874640
1520
明日連絡して
14:36
to see how the project is getting on."
461
876160
2160
プロジェクトの進捗状況を確認します。」
14:38
So, this robot checks in with you
462
878320
2160
つまり、このロボットは毎日あなたをチェックインします
14:40
every day. It tracks your mood and
463
880480
2160
。 認知行動療法と呼ばれる技術を使用して、あなたの気分を追跡し、
14:42
talks to you about your emotions, using
464
882640
2080
あなたの感情について話しかけます
14:44
a technique called cognitive
465
884720
1760
14:46
behavioural therapy.
466
886480
1520
14:48
Cognitive behavioural therapy is a
467
888000
2800
認知行動療法は、人々の考え方を変えることで問題に対処するのに役立つ
14:50
common therapeutic technique that
468
890800
2160
一般的な治療手法です
14:52
helps people deal with problems by
469
892960
2320
14:55
changing the way they think.
470
895280
1680
14:56
That all sounds great, but does
471
896960
1600
それはすべて素晴らしいことのように聞こえますが、
14:58
Woebot actually work?
472
898560
1920
Woebot は実際に機能するのでしょうか?
15:00
They've done some trials which
473
900480
1360
彼らは、メンタルヘルスに関する情報を単に読むよりも効果的であることを示すいくつかの実験を行っています
15:01
show it can be more effective than
474
901840
2160
15:04
simply reading information about
475
904000
1840
15:05
mental health. But they haven't
476
905840
2240
。 しかし倫理的な懸念から、彼らは
15:08
compared Woebot to a real therapist
477
908080
2880
Woebotを本物のセラピストと比較していない
15:10
due to ethical concerns.
478
910960
2080
15:13
Yes, it could be unethical to deny
479
913040
2160
はい、試験のために実際の患者が人間のセラピストにアクセスすることを拒否するのは非倫理的である可能性があります
15:15
a real patient access to a human
480
915200
2000
15:17
therapist for the sake of a trial.
481
917200
2400
15:19
'Ethical' basically means 'morally right'.
482
919600
2720
「エシカル」とは基本的には「道徳的に正しい」という意味です。
15:22
And another concern is privacy.
483
922320
2720
そしてもう一つの懸念はプライバシーです。
15:25
People who use apps like this are
484
925040
2240
このようなアプリを使用する人は、
15:27
not protected by strong privacy laws.
485
927280
2880
強力なプライバシー法によって保護されていません。
15:30
Despite these fears, digital therapy is
486
930160
2560
こうした懸念にもかかわらず、デジタル療法は
15:32
booming – and Woebot is just one of
487
932720
2160
ブームになっており、Woebot は
15:34
an increasing number of electronic
488
934880
1840
増え続ける電子
15:36
services. One reason for this could
489
936720
2160
サービスの 1 つにすぎません。 その理由の 1 つは、
15:38
be using an app carries less stigma
490
938880
2240
アプリを使用する方が
15:41
than maybe seeing a human therapist.
491
941120
2240
人間のセラピストに診てもらうよりも偏見が少ないことかもしれません。
15:43
And stigma refers to the negative
492
943360
2080
そして、スティグマとは、人々が何かについて抱く否定的な
15:45
associations that people have
493
945440
1760
連想
15:47
about something, especially when
494
947200
1760
、特に
15:48
these associations are not fair. Even
495
948960
3120
その連想が不公平である場合のことを指します。
15:52
though mental health is now being
496
952080
1680
メンタルヘルスについて
15:53
talked about more openly than before,
497
953760
2800
以前よりもオープンに語られるようになったとはいえ、
15:56
some people do still see mental
498
956560
2400
依然としてメンタル
15:58
health issues and therapy negatively.
499
958960
2800
ヘルスの問題や治療を否定的に見る人もいます。
16:01
Whatever you think of robot therapy,
500
961760
2400
ロボット療法についてどう思うかはともかく、
16:04
Dr Darcy believes that in the modern
501
964160
1920
ダーシー博士は、現代
16:06
world people need to self-reflect more –
502
966080
2720
世界では人々がもっと内省する必要がある、
16:08
which means thinking deeply about
503
968800
1760
つまり
16:10
yourself, in order to understand the
504
970560
1840
16:12
reasons behind your feelings.
505
972400
1920
自分の感情の背後にある理由を理解するために自分自身について深く考える必要があると信じています。
16:14
The world that we live in right now
506
974320
1280
私たちが今生きている世界は
16:15
is very noisy. Particularly digitally. You
507
975600
2960
とても騒がしいです。 特にデジタルに関しては。
16:18
know, since we've had these little
508
978560
2080
ご存知のとおり、
16:20
computers in our pockets with us
509
980640
1840
私たちはポケットにこの小さなコンピューターを入れて
16:22
everywhere we go, there aren't that
510
982480
1840
どこにでも持ち歩いているので、
16:24
many opportunities for real silence
511
984320
2400
本当の沈黙
16:26
or self-reflection. You know, even a
512
986720
2080
や内省の機会はそれほど多くありません。 ご存知のとおり、地下鉄での通勤中ですら、自分自身に少しだけ
16:28
commute on the tube might have
513
988800
1360
16:30
been a moment to just take a second
514
990160
2640
時間を割くことができる瞬間だったかもしれません。
16:32
to yourself, but now that void can be
515
992800
2240
しかし今では、その隙間は
16:35
filled always with super-engaging
516
995040
2160
いつでも携帯電話を見れば、非常に魅力的なコンテンツで埋められます
16:37
content by looking at your phone.
517
997200
2240
16:39
Darcy believes that we don't have
518
999440
1760
ダーシーは、人生には気が散るもの、特にスマートフォンが多すぎて、内省する時間があまり取れないと考えています
16:41
much time for self-reflection because
519
1001200
2080
16:43
there are so many distractions in
520
1003280
1680
16:44
life – especially smartphones!
521
1004960
2560
16:47
After discussing all this – would
522
1007520
1440
ここまで話し合った後、
16:48
you actually try a therapy app
523
1008960
1920
実際にこのようなセラピー アプリを試してみますか
16:50
like this?
524
1010880
960
?
16:51
Yes I would, actually – I think it
525
1011840
1280
はい、実際にそうします –
16:53
might be quite helpful.
526
1013120
1360
かなり役立つかもしれないと思います。
16:54
And how about the question
527
1014480
960
では、プログラムの冒頭で私に尋ねた質問についてはどうでしょうか
16:55
you asked me at the beginning
528
1015440
880
16:56
of the programme: how many
529
1016320
1440
16:57
people experience mental
530
1017760
1680
メンタルヘルスの問題を経験している人は何人いますか
16:59
health issues?
531
1019440
1040
?
17:00
The answer was: one in four,
532
1020480
2240
17:02
according the World Health
533
1022720
1520
世界保健
17:04
Organisation and the World
534
1024240
1680
機関と世界
17:05
Federation for Mental Health.
535
1025920
2000
精神保健連盟によると、その答えは4人に1人でした。
17:07
But the WHO say that as many
536
1027920
2400
しかしWHOは、
17:10
as two-thirds of people never seek
537
1030320
2320
3分の2もの人々が
17:12
help from a health professional –
538
1032640
1760
医療専門家に助けを求めたことがなく、その主な理由の
17:14
with stigma being one of the
539
1034400
1920
1つは偏見であると述べている
17:16
main reasons.
540
1036320
1280
17:17
And just there we had stigma
541
1037600
1920
そしてそこで私たちは再び汚名を着せられました
17:19
again; let's now run through the
542
1039520
1680
17:21
other words we learned today.
543
1041200
1520
今日学んだ他の単語を見てみましょう。
17:22
So we had 'woe' - meaning 'sadness'.
544
1042720
3120
つまり、私たちは「悲しみ」を意味する「Woe」を経験しました。
17:25
I'm full of woe. Woe is me!
545
1045840
3440
悲しみでいっぱいです。 悲惨なのは私です!
17:29
Maybe you need some therapy –
546
1049280
1600
おそらく、何らかの治療が必要な場合があります。
17:30
that's the process of receiving
547
1050880
1520
これは、
17:32
treatment for a particular health
548
1052400
1760
特定の健康上の
17:34
issue, especially mental
549
1054160
1440
問題、特に精神
17:35
health illness.
550
1055600
880
疾患の治療を受けるプロセスです。
17:36
And we had – to check in
551
1056480
1600
そして、私たちは誰かにチェックインする必要がありました
17:38
with someone. After we finish
552
1058080
1840
17:39
this programme, I need to check
553
1059920
1680
このプログラムを終えたら、新しいプロジェクトについて上司に確認する必要があります
17:41
in with the boss about my
554
1061600
1440
17:43
new project.
555
1063040
880
17:43
We also had self-reflection – that's
556
1063920
2160
また、内省も行いました。これは、
17:46
the process of thinking deeply
557
1066080
1520
17:47
about yourself.
558
1067600
1600
自分自身について深く考えるプロセスです。
17:49
And finally, we had 'ethical'. If you
559
1069200
2880
そして最後に「倫理」がありました。
17:52
describe something as ethical, you
560
1072080
2080
何かを倫理的であると表現する場合、
17:54
mean it's morally right.
561
1074160
1840
それは道徳的に正しいことを意味します。
17:56
So woe, stigma, therapy, check
562
1076000
3040
とても悲しい、偏見、治療、チェック
17:59
in with, self-reflection and ethical.
563
1079040
2960
イン、内省、そして倫理。
18:02
That's it for this edition of
564
1082000
1120
今回の「
18:03
6 Minute English. We'll leave you to
565
1083120
2000
6 Minute English」は以上です。 皆さんには
18:05
self-reflect – and after you've done
566
1085120
1760
内省していただくことにします。それが終わったら
18:06
that, do visit our Facebook, Twitter,
567
1086880
2160
、ぜひ Facebook、Twitter、
18:09
Instagram and YouTube pages, and
568
1089040
2080
Instagram、YouTube のページ、そして
18:11
of course our website!
569
1091120
1120
もちろん Web サイトにもアクセスしてください。 また
18:12
Bye for now.
570
1092240
800
ね。
18:13
Bye bye!
571
1093040
800
バイバイ!
18:19
Hello. Welcome to 6 Minute
572
1099440
1680
こんにちは。 6分間英語へようこそ
18:21
English. I'm Rob.
573
1101120
1040
。 私はロブです。
18:22
And I'm Neil.
574
1102160
1166
そして私はニールです。
18:23
Now, Neil, can you remember the first time
575
1103326
2274
さて、ニール、
18:25
you ever used the World Wide Web
576
1105600
2400
World Wide Web、
18:28
or as we often call it, the internet, and
577
1108000
2480
または私たちがよくインターネットと呼んでいるものを初めて使用したときのこと、そして
18:30
what you used it for?
578
1110480
1280
それを何に使用したか覚えていますか?
18:31
Oh, that's a good question. I do
579
1111760
2000
ああ、それは良い質問ですね。 私は
18:33
remember. And... well, nothing really
580
1113760
3360
覚えている。 そして...まあ、実際には何も
18:37
changes does it? Because I looked up
581
1117120
1920
変わりませんね? 猫の画像を調べてみたので
18:39
pictures of cats!
582
1119040
1422
18:40
Cats! Very useful, anyway do you
583
1120462
3298
猫たち! 非常に便利です。とにかく、
18:43
think the internet has generally
584
1123760
1200
インターネットは世界にとって一般的に
18:44
been positive or negative for
585
1124960
1760
プラスであると思いますか、それともマイナスであると思いますか
18:46
the world?
586
1126720
800
?
18:47
Wow! Now, that's a big question. A huge
587
1127520
3200
おお! さて、それは大きな質問です。 大きな
18:50
question. I don't know if I can
588
1130720
1789
質問です。 それに答えられるかどうかわかりません
18:52
answer that.
589
1132509
560
18:53
Well, one person who perhaps
590
1133069
2211
おそらく
18:55
can answer it, is the man who
591
1135280
1760
それに答えることができる人物の 1 人が、
18:57
invented it: British computer scientist
592
1137040
2560
それを発明した英国のコンピューター科学者
18:59
Tim Berners-Lee. We'll find out what
593
1139600
2240
ティム バーナーズ リーです。
19:01
he thinks has become of his 'child'
594
1141840
1840
彼が自分の「子供」がどうなったと考えているかは
19:03
shortly but before that, a question
595
1143680
2240
すぐにわかりますが、その前に
19:05
for you all. When did Berners-Lee
596
1145920
2320
皆さんに質問です。 バーナーズ=リーが、後に World Wide Web となる
19:08
first suggest the idea for what
597
1148240
1760
アイデアを初めて提案したのはいつですか
19:10
would become the World Wide Web?
598
1150000
2560
?
19:12
Was it in...
599
1152560
560
それは...
19:13
a) 1985,
600
1153120
1680
a) 1985、
19:14
b) 1989,
601
1154800
1494
b) 1989、
19:16
or, c) 1991?
602
1156294
2585
または c) 1991 年でしたか?
19:18
Tricky, but I think it's earlier than
603
1158879
4081
難しいですが、世間が思っているよりも早いと思うので、
19:22
people think so I'm going to go
604
1162960
2240
19:25
for 1985.
605
1165200
2160
1985 年を採用することにします。
19:27
Well, that was a long time ago but
606
1167360
1520
まあ、それはかなり前のことですが、
19:28
we'll reveal the answer a little later
607
1168880
1840
答えは番組の後半で明らかにします
19:30
in the programme. I think it's true to
608
1170720
2320
19:33
say that the internet has been one of,
609
1173040
2240
インターネットがおそらく史上
19:35
if not the most important
610
1175280
1520
最も重要な
19:36
technological developments perhaps
611
1176800
2080
技術開発の 1 つであるというのは真実だと思います
19:38
of all time. Would you agree, Neil?
612
1178880
1840
。 同意しますか、ニール?
19:40
Well, it's hard to imagine living
613
1180720
1520
まあ、それなしで生活することを想像するのは難しいです
19:42
without it. Not impossible, but not
614
1182240
2560
。 不可能ではありませんが、それほど
19:44
nearly as convenient.
615
1184800
1520
便利ではありません。
19:46
These days we take the internet
616
1186320
1680
今日、私たちはインターネットを
19:48
for granted. We share our lives on
617
1188000
2000
当たり前のことだと思っています。 私たちは友人や家族だけでなく、ソーシャルメディアで自分の生活を共有しています
19:50
social media and not just with
618
1190000
1920
19:51
friends and family. And that isn't
619
1191920
2080
。 そして、
19:54
always a positive thing, according
620
1194000
2080
19:56
to the father of the internet,
621
1196080
1680
インターネットの父
19:57
Tim Berners-Lee. In a recent
622
1197760
2080
ティム・バーナーズ・リーによれば、それは必ずしも良いことではありません。 最近の
19:59
BBC Tech Tent programme, he
623
1199840
2240
BBC Tech Tent 番組で、彼は
20:02
talked about his concerns with
624
1202080
1440
20:03
the internet and particularly the
625
1203520
1840
インターネット、特に
20:05
companies that control its information.
626
1205360
2480
その情報を管理する企業に対する懸念について語りました。
20:07
Companies which he calls
627
1207840
1760
彼が
20:09
'internet giants'. What does he say
628
1209600
2240
「インターネットの巨人」と呼ぶ企業。 これらの企業は何をしなければならないと彼は考えたと言いましたか
20:11
he thought these companies
629
1211840
1280
20:13
had to do?
630
1213120
1280
?
20:14
Initially, I felt the main thing an
631
1214400
2720
当初、インターネットの巨人がしなければならない主なことは、
20:17
internet giant had to do was
632
1217120
1520
20:18
just to be neutral, just be a platform
633
1218640
2320
中立であること、単なるプラットフォームであること、
20:20
and humanity, once connected by
634
1220960
1920
そして人類はテクノロジーでつながったら
20:22
technology, will do wonderful
635
1222880
1200
素晴らしい
20:24
things. And, clearly, it doesn't
636
1224080
2400
ことをするだろうと感じていました。 そして、明らかに、
20:26
work like that. If you connect
637
1226480
1520
そのようには機能しません。 ウィキペディアを介して人類を結び付けると、
20:28
humanity via Wikipedia then
638
1228000
3040
20:31
they do produce, in general,
639
1231040
1360
一般に、彼らは
20:32
wonderful things. If you connect
640
1232400
1920
素晴らしいものを生み出します。 匿名性のある
20:34
people by social network where
641
1234320
3040
ソーシャル ネットワークで人々を結び付けると
20:37
they have anonymity, then it can
642
1237360
1840
20:39
bring out the very nastiest of people.
643
1239200
1840
非常に嫌な人々が現れる可能性があります。
20:41
So, what did he say he thought these
644
1241040
1680
それで、彼はこれらのインターネット巨人は何をしなければならないと思うと言いましたか
20:42
internet giants had to do?
645
1242720
1840
?
20:44
He said that he thought initially, that
646
1244560
2080
彼は当初、彼らは中立でなければならないと考えていたと語った
20:46
they just had to be neutral. 'Initially'
647
1246640
2560
。 「Initially」は
20:49
means 'at first', 'in the beginning' and
648
1249200
2400
「最初に」「初めに」という意味で、
20:51
it also suggests that later he
649
1251600
1840
後に
20:53
changed his mind. Anyway, he said
650
1253440
2800
彼の考えが変わったことも示唆しています。 とにかく、
20:56
that he thought they just had to
651
1256240
1440
彼らは
20:57
be neutral. 'Neutral' here means
652
1257680
2160
中立でなければならないと思ったと彼は言いました。 ここでの「中立」とは、
20:59
that they didn't need to do anything,
653
1259840
1600
何もする必要がなかった、
21:01
they didn't need to control the
654
1261440
1200
21:02
internet or information. He thought
655
1262640
1920
インターネットや情報をコントロールする必要がなかったという意味です。 彼は、
21:04
it would be a tool to connect
656
1264560
1440
これが
21:06
people and ideas and information
657
1266000
1840
人々、アイデア、情報を結び付けるツールとなり、
21:07
and it would be wonderful.
658
1267840
1486
素晴らしいものになるだろうと考えました。
21:09
But it's not all good, is it?
659
1269326
1874
でも、良いことばかりではありませんよね?
21:11
No. He does say that giving
660
1271200
1840
いいえ。
21:13
people access to sources of
661
1273040
1440
人々に情報源へのアクセスを与えるのは
21:14
information is generally a good
662
1274480
1680
一般的に良いことです
21:16
thing but that when it comes to
663
1276160
1680
が、
21:17
social networks, social media,
664
1277840
2160
ソーシャル ネットワーク、つまりソーシャル メディアに関しては、
21:20
people have anonymity.
665
1280000
2000
人々は匿名性を持っていると彼は言います。
21:22
Anonymity?
666
1282000
960
21:22
Yes. It means that on the internet
667
1282960
2000
匿名?
はい。 それは、インターネット上では
21:24
people can hide their true identity
668
1284960
2000
人々が自分の本当のアイデンティティ
21:26
or personality. Some people write
669
1286960
2320
や性格を隠すことができることを意味します。 何の影響もないと思って、面と向かっては決して言わないようなことを書いてしまう人もいます
21:29
things that they would never say to
670
1289280
1520
21:30
someone in person because they
671
1290800
1520
21:32
think there will be no consequences.
672
1292320
2119
21:34
Berners-Lee says anonymity can
673
1294439
2121
バーナーズ=リー氏は、匿名性は
21:36
bring out the nastiest side of people.
674
1296560
2640
人々の最も嫌な側面を引き出す可能性があると言う。
21:39
People saying horrible and terrible
675
1299200
1760
人々はお互いに恐ろしいことや恐ろしいことを言い合っています
21:40
things to each other.
676
1300960
1200
21:42
Berners-Lee does have some
677
1302160
1600
Berners-Lee は、これをどのように変えることができるかについていくつかの提案をしています
21:43
suggestions for how this could
678
1303760
1600
21:45
be changed. And it's based on the
679
1305360
1920
。 そしてそれは、
21:47
idea of likes and shares, which he
680
1307280
2480
彼が賞賛と呼ぶ「いいね」とシェアの考えに基づいています
21:49
calls kudos. What's his suggestion?
681
1309760
2880
。 彼の提案は何ですか?
21:52
The different social networks and
682
1312640
1040
ソーシャルネットワークや
21:53
different platforms are in different
683
1313680
1840
プラットフォームが異なれば
21:55
situations and, in some cases, they
684
1315520
2320
状況も異なり、場合によっては
21:57
have acknowledged there is an issue.
685
1317840
2080
問題があることを認めている。
21:59
I think they realise that the issue
686
1319920
2400
彼らは、
22:02
could be hugely ameliorated by
687
1322320
2320
22:04
tweaking the way the thing works
688
1324640
2080
22:06
by changing the way retweets are
689
1326720
2400
リツイートの伝播方法を変更したり、人々が賞賛を得る方法を変更したりして、物事の
22:09
propagated or changing the way
690
1329120
2400
仕組みを微調整することで、この問題が大幅に改善される可能性があることを認識していると思います。たとえば
22:11
people get kudos - give them more
691
1331520
2000
22:13
kudos for being constructive,
692
1333520
1680
、建設的であることに対してより多くの賞賛を与えるなどです
22:15
for example.
693
1335200
800
22:16
So, how does he think companies
694
1336000
1600
では、企業はどのようにしてこの問題に対処できると彼は考えているのでしょうか
22:17
could address the problem?
695
1337600
1600
?
22:19
Well, he says that some of the
696
1339200
1440
そうですね、
22:20
social networks have agreed
697
1340640
1280
ソーシャル ネットワークの一部は
22:21
that there is a problem and they
698
1341920
1600
問題が存在することに同意しており、
22:23
know what could improve it.
699
1343520
1760
何が改善できるかを知っていると彼は言います。 でも
22:25
He didn't use the word 'improve'
700
1345280
1520
彼は「改善する」という言葉を使いませんでしたよ
22:26
though, did he?
701
1346800
960
ね?
22:27
No, he actually used the rather
702
1347760
1840
いいえ、彼は実際には、
22:29
formal verb 'ameliorate', which
703
1349600
2000
22:31
means 'to improve or make
704
1351600
1280
「何かを改善する、
22:32
something better'.
705
1352880
1280
より良くする」という意味のかなりフォーマルな動詞「ameliorate」を使用しました。
22:34
So, how does he suggest the
706
1354160
1360
それでは、彼はどのようにして
22:35
problem could be ameliorated?
707
1355520
2240
問題を改善できると示唆しているのでしょうか?
22:37
By tweaking the way in which
708
1357760
1520
22:39
people give or receive kudos.
709
1359280
2320
人々が称賛を与えたり受け取ったりする方法を微調整することによって。
22:41
'Tweaking' means 'making a small
710
1361600
1760
「微調整」とは、「
22:43
change to the way something
711
1363360
1200
何かの動作方法に小さな変更を加える
22:44
works'. Much of what happens on
712
1364560
1920
」ことを意味します。 インターネット上で起こることの多くは、「
22:46
the internet is driven by our desire
713
1366480
2000
22:48
to get likes and shares – this is
714
1368480
2240
いいね」やシェアを獲得したいという私たちの欲求によって引き起こされています。これ
22:50
the kudos that Berners-Lee talks
715
1370720
1920
がバーナーズ・リーが語る賞賛です
22:52
about. He feels that tweaking this
716
1372640
2160
。 彼は、これを調整することでより良いエクスペリエンスが得られるのではないかと感じています
22:54
could lead to a better experience.
717
1374800
2080
22:56
For example, getting more kudos
718
1376880
1760
たとえば、建設的または前向きな行動に対してより多くの賞賛を得ることができます
22:58
for constructive or positive actions.
719
1378640
1920
23:00
Mmm, interesting – but I wonder
720
1380560
2480
うーん、興味深いです – しかし、
23:03
who would decide if something
721
1383040
1280
何かが建設的かどうかを誰が判断するのでしょうか
23:04
is constructive?
722
1384320
1280
?
23:05
Well, that's another big question
723
1385600
1840
まあ、それは
23:07
for another day, I guess.
724
1387440
1520
別の日に大きな質問になると思います。
23:08
For now though, let's have the
725
1388960
1440
とりあえず、小さな質問に対する答えを見てみましょう
23:10
answer to our small question. In
726
1390400
2080
23:12
what year did Berners-Lee present
727
1392480
1840
バーナーズ=リーがワールド・ワイド・ウェブとなるアイデアを発表したのは何年ですか
23:14
the idea for what would become the
728
1394320
2240
23:16
World Wide Web? The options were
729
1396560
2560
? 選択肢は、
23:19
a) 1985, b)1989, or c) 1991.
730
1399120
4960
a) 1985、b) 1989、または c) 1991 でした。
23:24
It was, in fact, 1989.
731
1404080
2713
実際、それは 1989 年でした。
23:26
Now, before we go,
732
1406793
1207
さて、その前に、今日の用語を
23:28
let's have a quick recap of
733
1408000
1766
簡単に復習しましょう
23:29
today's vocabulary.
734
1409766
1354
23:31
'Initially' – means 'at first - in
735
1411120
2240
「最初に」 – 「最初に - 初めに」を意味します
23:33
the beginning'. Then we
736
1413360
1307
。 それから私たちは
23:34
had 'neutral'.
737
1414667
1514
「中立」でした。
23:36
In this case, it meant 'not controlling'
738
1416181
2219
この場合、それは「制御しない」
23:38
or 'not taking any action to control'.
739
1418400
2880
または「制御するための行動をとらない」ことを意味します。
23:41
Then, there was the noun 'anonymity'
740
1421280
2320
次に、正体や人格が隠された状態を表す「匿名性」という名詞がありました
23:43
which is the state of having a
741
1423600
1520
23:45
hidden identity or personality.
742
1425120
2160
23:47
Next, to 'ameliorate' a situation is
743
1427280
2640
次に、状況を「改善する」とは、状況をより
23:49
to make it better.
744
1429920
1200
良くすることです。
23:51
To 'tweak' something is to 'make
745
1431120
1680
何かを「微調整する」とは、「何かの動作
23:52
a small change to the way
746
1432800
1680
方法に小さな変更を加える
23:54
something works'.
747
1434480
1120
」ことです。
23:55
And then we had, of course, 'kudos'.
748
1435600
1680
そしてもちろん、私たちは「称賛」の言葉をいただきました。
23:57
'Kudos' is praise and appreciation
749
1437280
1920
「称賛」とは、
23:59
for something you've done.
750
1439200
1120
自分が行ったことに対する賞賛や感謝のことです。
24:00
Well, kudos to you, Rob, for
751
1440320
1520
それでは、ロブ、
24:01
today's programme.
752
1441840
800
今日のプログラムをよろしくお願いします。 どうも
24:02
Thank you very much.
753
1442640
1040
ありがとうございます。
24:03
Well, thank you, Neil, and
754
1443680
1200
ありがとう、ニール、そして
24:04
thank you everyone for listening.
755
1444880
1280
聞いてくれた皆さん、ありがとう。
24:06
That's all we have today, but you
756
1446160
2400
今日私たちができることはこれだけですが、
24:08
can, find us on Facebook, Twitter,
757
1448560
1680
Facebook、Twitter、
24:10
Instagram and YouTube and, of
758
1450240
1440
Instagram、YouTube、そして
24:11
course, our website
759
1451680
1280
もちろん、私たちのウェブサイト
24:12
bbclearningenglish.com!
760
1452960
2400
bbclearningenglish.com で私たちを見つけることができます。 また
24:15
Bye for now.
761
1455360
720
ね。 ご
24:16
Thanks for joining us
762
1456080
800
24:16
and goodbye.
763
1456880
960
参加いただきありがとうございました。
それではさようなら。
24:23
Hello. This is 6 Minute English
764
1463440
2160
こんにちは。 6 Minute English の
24:25
and I'm Rob.
765
1465600
800
ロブです。
24:26
And I'm Neil.
766
1466400
1040
そして私はニールです。
24:27
Today we’re talking about buttons.
767
1467440
2720
今日はボタンについて話します。
24:30
Yes, buttons. Buttons are what
768
1470160
2320
はい、ボタンです。 ボタンは
24:32
we have on our clothes to fasten
769
1472480
1680
衣服を留めるためのものです
24:34
them but the word is also used
770
1474160
1840
が、この言葉は物事を実現するために押すものにも使用されます
24:36
for things that we push to make
771
1476000
1760
24:37
things happen.
772
1477760
960
24:38
Things like your bedside alarm,
773
1478720
2160
ベッドサイドのアラーム、
24:40
radio, toaster, kettle. We press
774
1480880
2560
ラジオ、トースター、ケトルなど。 私たちは
24:43
hundreds of buttons every week
775
1483440
1680
毎週、何も考えずに何百ものボタンを押しています
24:45
without thinking about it. Not everyone
776
1485120
2400
。 しかし、誰もが
24:47
likes buttons though, particularly
777
1487520
2080
ボタンを好むわけではなく、特に
24:49
the ones we have on our clothes.
778
1489600
2480
服についているボタンが好きです。
24:52
It’s a recognised phobia.
779
1492080
1760
それは認識された恐怖症です。
24:53
What is this fear called? Is it:
780
1493840
2640
この恐怖は何と呼ばれますか? それは、
24:56
A: buttonophobia,
781
1496480
2278
A: ボタン恐怖症、
24:58
B: koumpounophobia,
782
1498758
3036
B: 口恐怖症、
25:01
or, C: coulrophobia?
783
1501794
2366
または C: 顔恐怖症ですか?
25:04
Any ideas Neil?
784
1504160
1280
ニール、何かアイデアはありますか?
25:05
Er – I think I’ve got a fear of
785
1505440
1440
えー、私は
25:06
pronouncing these words!
786
1506880
1622
これらの単語を発音するのが怖いのだと思います!
25:08
I've got no idea what the answer is, I
787
1508502
2378
答えはわかりません。
25:10
think buttonophobia is much
788
1510880
1520
ボタン恐怖症はあまりにも明白すぎると思います。つまり、ボタン恐怖症は
25:12
too obvious – so it’s one of the
789
1512400
1760
25:14
others – or is it? It’s a hard one.
790
1514160
3093
他の症状のひとつなのでしょうか。それともそうなのでしょうか? それは難しいことだ。
25:17
Well, I'll have the answer later in
791
1517253
2027
そうですね、答えは番組後半でお伝えします
25:19
the programme. Thinking Allowed
792
1519280
2320
。 ThinkingAllowed は、幅広い興味深いトピックをカバーする
25:21
is a BBC Radio 4 programme
793
1521600
1680
BBC ラジオ 4 の番組です
25:23
which covers a range of interesting
794
1523280
1760
25:25
topics. Recently, they featured a
795
1525040
2080
。 最近では、
25:27
discussion about buttons and
796
1527120
1840
ボタンとボタンが日常生活
25:28
how important they are to
797
1528960
1280
にとっていかに重要であるかについてのディスカッションが特集されました
25:30
everyday life. Steven Connor,
798
1530240
2320
。 番組には
25:32
Professor of English at the
799
1532560
1440
ケンブリッジ大学英語教授スティーブン・コナー氏が出演
25:34
University of Cambridge, was on
800
1534000
1600
し、
25:35
the programme and he talked
801
1535600
1440
25:37
about appeal of buttons. What does
802
1537040
2960
ボタンの魅力について語った。
25:40
say about children and buttons?
803
1540000
2160
子供とボタンについてはどう言えますか?
25:42
We do love buttons and I think the
804
1542160
2080
私たちはボタンが大好きです。ボタン
25:44
pleasure and the temptation of
805
1544240
2240
の喜びと誘惑
25:46
buttons… this temptation and
806
1546480
1920
…この誘惑は
25:48
everyone feels it, which is why
807
1548400
2320
誰もが感じているので、
25:50
buttons have to be very convenient.
808
1550720
1920
ボタンは非常に便利でなければなりません。
25:52
On the other hand, they have to
809
1552640
1040
その一方で、
25:53
be kept away from children, so
810
1553680
1280
子どもの手の届かない場所に置かなければならないため、壁の
25:54
they've got to be put high up
811
1554960
1760
高い位置に設置する必要があり
25:56
on the wall, and buttons that
812
1556720
2320
25:59
really matter have to be made
813
1559040
1600
本当に重要なボタンはガラスか何かの裏に
26:00
quite hard to push – like put
814
1560640
1520
置くなど、非常に押しにくいものにする必要があります
26:02
behind glass or something.
815
1562160
1909
26:04
OK. What does he say about
816
1564069
1771
OK。 彼は子供たちとボタンについて何と言っていますか
26:05
children and buttons?
817
1565840
1360
?
26:07
That they have to be kept away
818
1567200
1680
26:08
from them! As I said before, I
819
1568880
2080
彼らから遠ざけなければならないということです! 前にも言ったように、私は
26:10
loved pressing buttons as a child.
820
1570960
1840
子供の頃からボタンを押すのが大好きでした。
26:12
I would press any that I saw, so
821
1572800
1920
目についたものはすべて押したので、
26:14
important ones did have to be
822
1574720
1760
重要なものは手の
26:16
out of my reach.
823
1576480
960
届かないところにある必要がありました。
26:17
Yes, he said buttons are a
824
1577440
2240
そう、彼はボタンは誘惑だと言いました
26:19
temptation. A temptation is
825
1579680
2160
。 誘惑とは、
26:21
something that makes you want
826
1581840
1280
26:23
to do something and it’s often
827
1583120
1840
何かをしたくなるもので、実際にはすべきではない
26:24
used when it’s something you
828
1584960
1120
ときによく使われます
26:26
shouldn’t really do. So, buttons
829
1586080
2160
。 そのため、火災警報器など、
26:28
that lead to potentially dangerous
830
1588240
2000
潜在的に危険
26:30
or serious consequences, like a
831
1590240
2240
または重大な結果につながるボタンは、誘惑に負けないように、おそらくガラスの後ろで
26:32
fire alarm, need to be protected,
832
1592480
2320
保護する必要があります
26:34
maybe behind glass, so temptation
833
1594800
2400
26:37
doesn’t get the better of us.
834
1597200
1600
26:38
But many buttons have a useful,
835
1598800
1840
しかし、多くのボタンは、エレベーターを呼ぶなど
26:40
practical purpose in everyday life,
836
1600640
1840
、日常生活で便利で実用的な目的を持っている
26:42
like calling a lift - so, these buttons
837
1602480
2080
ため、これらのボタンは、困難
26:44
have to be easy to use without
838
1604560
1680
なく簡単に使用できる必要があります
26:46
difficulty. The adjective for this
839
1606240
2160
。 これを表す形容詞は
26:48
is 'convenient'. These everyday
840
1608400
2320
「便利」です。 日常的に使用されるこれらの
26:50
buttons have to be convenient.
841
1610720
2000
ボタンは便利でなければなりません。
26:52
Professor Connor goes on to
842
1612720
1600
コナー教授はさらに、
26:54
say a bit more about why
843
1614320
1680
26:56
buttons are so appealing.
844
1616000
2240
ボタンがなぜそれほど魅力的なのかについてもう少し詳しく述べています。
26:58
What’s his opinion?
845
1618240
1440
彼の意見は何ですか?
26:59
You know what I think? I think
846
1619680
1040
私が何を考えているか知っていますか?
27:00
it's down to the fidgeting
847
1620720
2240
それは、
27:02
instinct of very digital or
848
1622960
3280
非常にデジタルまたは
27:06
manual creatures. I think we
849
1626240
1680
手動の生き物のそわそわする本能によるものだと思います。 私たちは
27:07
want to fidget with things and
850
1627920
2080
物事をいじくり回して
27:10
adjust them, we want to make
851
1630000
1280
調整したり、
27:11
them slightly better… I guess it's
852
1631280
2320
少しでも良くしたいと考えています...これは
27:13
the grooming instinct in apes.
853
1633600
2000
類人猿の毛づくろいの本能だと思います。
27:15
So then, why can’t we resist buttons?
854
1635600
2320
では、なぜ私たちはボタンに抵抗できないのでしょうか?
27:17
Because as humans we have a
855
1637920
2240
なぜなら、人間には
27:20
fidgeting instinct. We can’t stay still
856
1640160
2800
そわそわする本能があるからです。 私たちは非常にデジタルな生き物なので、長時間じっとしていることができず、頻繁に
27:22
for very long, we need to move
857
1642960
1440
動き回る必要があります
27:24
around a lot because we are
858
1644400
1520
27:25
very digital creatures.
859
1645920
1840
27:27
The use of digital though, is nothing
860
1647760
1920
しかし、デジタルの使用は
27:29
to do with modern online
861
1649680
1600
現代のオンライン技術とは何の関係もありません
27:31
technology, is it?
862
1651280
1200
ね。
27:32
No, a 'digit' is a finger or toe. So, we
863
1652480
2720
いいえ、「指」とは指または足の指のことです。 つまり、私たちは
27:35
are digital creatures – we have
864
1655200
1840
デジタル生き物であり、指を持っており、
27:37
fingers and we like to use them.
865
1657040
2160
それを使うのが好きです。
27:39
And one thing other digital
866
1659200
1520
そして、他のデジタル
27:40
creatures do, creatures like apes,
867
1660720
1840
生物、つまり類人猿のような生物が行うことの 1 つは
27:42
is grooming. That is they use their
868
1662560
2480
毛づくろいです。 つまり、彼らは手を使って他の類人猿
27:45
hands to clean the body hair of
869
1665040
2080
の体毛を掃除します
27:47
other apes. They look through
870
1667120
1520
。 彼らは
27:48
the hair for insects and bugs and
871
1668640
1840
髪の毛を通して昆虫や昆虫を探し、
27:50
pull them out and eat them.
872
1670480
1680
それらを引き抜いて食べます。
27:52
But we can also use the word
873
1672160
1360
しかし、人間に対して「身だしなみ」という言葉を使うこともできます
27:53
grooming for humans, someone
874
1673520
2160
27:55
who is well-groomed for example
875
1675680
1760
たとえば、身だしなみが整っている人は、きちんとしていて、きちんとしていて
27:57
is neat and tidy, clean and well
876
1677440
2240
、清潔で、
27:59
presented. Here’s Professor
877
1679680
1360
見栄えが良い人です。
28:01
Connor again.
878
1681040
880
28:01
You know what I think? I think it's
879
1681920
1440
再びコナー教授が登場です。
私が何を考えているか知っていますか? それは、
28:03
down to the fidgeting instinct of
880
1683360
3040
28:06
very digital or manual creatures.
881
1686400
3040
非常にデジタルまたは手動の生き物のそわそわする本能によるものだと思います。
28:09
I think we want to fidget with things
882
1689440
2560
私たちは物事をいじくり回して
28:12
and adjust them, we want to make
883
1692000
1440
調整したり、
28:13
them slightly better… I guess it's
884
1693440
2400
少しでも良くしたいと考えています...これは
28:15
the grooming instinct in apes.
885
1695840
2240
類人猿の毛づくろいの本能だと思います。
28:18
Before we wrap up, time to get the
886
1698080
1920
最後に、
28:20
answer to this week’s question.
887
1700000
2160
今週の質問に対する答えを確認しましょう。 ボタン
28:22
Some people have a fear of
888
1702160
1360
恐怖症の人もいますが
28:23
buttons, it’s a recognised phobia, but
889
1703520
2560
、これは恐怖症として認識されていますが、
28:26
what’s it called? Is it
890
1706080
1920
それを何と呼ぶのでしょうか? それは
28:28
A: buttonophobia
891
1708000
2000
A: ボタン恐怖症
28:30
B: koumpounophobia, or
892
1710000
2400
B: コウムポウノフォビア ですか、それとも
28:32
C: coulrophobia?
893
1712400
1680
C: 色恐怖症ですか?
28:34
And, Neil, you said?
894
1714080
1399
それで、ニール、あなたは言いましたか?
28:35
Well, I didn’t, but I don’t think it
895
1715479
2041
そうですね、私はそうではありませんでしたが、それが
28:37
can be ‘buttonophobia’, that would be
896
1717520
1840
「ボタン恐怖症」になるとは思えません。それは
28:39
too easy. And I think coulrophobia
897
1719360
2960
簡単すぎます。 そして、恐怖恐怖症は
28:42
is a fear of clowns, so I’m going
898
1722320
4000
ピエロに対する恐怖症だと思うので、私は
28:46
for the other one -
899
1726320
2800
もう 1 つの恐怖
28:49
koumpounophobia.
900
1729120
1600
恐怖症を選択します。
28:50
That it right. Buttonophobia is a
901
1730720
2320
それはその通りです。 ボタンフォビアは
28:53
made up word, and as you said,
902
1733040
1920
造られた言葉で、あなたが言ったように、
28:54
coulrophobia is a fear of clowns.
903
1734960
2800
クーロフォビアはピエロに対する恐怖です。
28:57
Right, now let’s review
904
1737760
1280
そうだ、今日の単語を復習しましょう
28:59
today’s vocabulary.
905
1739040
1120
29:00
We’ve been talking about buttons.
906
1740160
1920
ボタンについて話してきました。
29:02
These can be small round things
907
1742080
1520
これらは、
29:03
we use to fasten our clothes, or
908
1743600
2000
服を留めるために使用する小さな丸いもの、または何かを
29:05
the things that we push to make
909
1745600
1840
起こすために押すものです
29:07
something happen.
910
1747440
1120
29:08
Buttons can be a temptation.
911
1748560
2080
ボタンは誘惑になる可能性があります。
29:10
We see one, we want to push it.
912
1750640
1920
私たちはそれを見つけたので、それを押したいと思います。
29:12
So, a 'temptation' is something
913
1752560
1680
つまり、「誘惑」とは、して
29:14
that makes us want to do
914
1754240
1120
29:15
something we know we shouldn’t.
915
1755360
2000
はいけないとわかっていることをしたくなるものです。
29:17
And then we had the adjective
916
1757360
1840
そして、
29:19
'convenient'. Something that is
917
1759200
1440
「便利な」という形容詞ができました。
29:20
convenient is easy to use without
918
1760640
1920
便利なものは無理なく使いやすい
29:22
difficulty. For example, the buttons
919
1762560
2080
。 たとえば、
29:24
to call a lift are at a very convenient
920
1764640
2240
エレベーターを呼ぶボタンは非常に使いやすい
29:26
height, they can be reached easily.
921
1766880
2480
高さにあり、簡単に届きます。
29:29
Professor Connor went on to talk
922
1769360
1680
コナー教授は続けて、
29:31
about our fidgeting instinct.
923
1771040
2640
私たちのそわそわする本能について話しました。
29:33
As humans we love to fidget, we like
924
1773680
2320
人間として、私たちはそわそわするのが大好きで、動き続けるのが好きで、
29:36
to keep moving around, we can’t
925
1776000
1520
29:37
stay still for very long and we love
926
1777520
1840
あまり長くじっとしていることができず、
29:39
to do stuff with our hands.
927
1779360
1600
手を使って何かをするのが大好きです。
29:40
The professor talked about us being
928
1780960
2000
教授は私たちが
29:42
digital creatures, which means
929
1782960
1520
デジタルな生き物であること、つまり
29:44
creatures with fingers – a digit is
930
1784480
2240
指を持つ生き物であることについて話しました。指とは
29:46
another word for a finger or toe.
931
1786720
2240
指や足の指の別の言葉です。
29:48
And finally, we had grooming.
932
1788960
2240
そして最後にグルーミングをしてもらいました。
29:51
This is the habit of making ourselves
933
1791200
1840
これは、
29:53
look nice by cleaning, washing and
934
1793040
2000
掃除したり、洗ったり、
29:55
doing our hair. It’s something some
935
1795040
1840
髪を整えたりすることで、自分を美しく見せる習慣です。 これは類人猿などの一部の
29:56
animals, such as apes, do for
936
1796880
1600
動物がお互いのために行うことです
29:58
each other.
937
1798480
960
29:59
Well, the button here in the studio
938
1799440
1760
さて、スタジオのボタンが
30:01
is flashing, which tells me it’s time
939
1801200
1680
点滅しているので、
30:02
to wrap up for today. Do join us
940
1802880
2000
今日はこれで終わりということです。 次回はぜひご参加ください。
30:04
next time and if you can’t wait, you
941
1804880
1680
待ちきれない場合は、
30:06
can always find us on Instagram,
942
1806560
1840
Instagram、
30:08
Facebook, Twitter, YouTube our app
943
1808400
2400
Facebook、Twitter、YouTube アプリ、
30:10
and, of course, on our website
944
1810800
1760
そしてもちろん Web サイト
30:12
bbclearningenglish.com.
945
1812560
1840
bbclearningenglish.com でいつでも私たちを見つけることができます。
30:14
Bye bye for now.

946
1814400
1120
とりあえずバイバイ。
30:15
Bye!
947
1815520
937
さよなら!
このウェブサイトについて

このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。

https://forms.gle/WvT1wiN1qDtmnspy7