BOX SET: 6 Minute English - Internet and Technology English mega-class! One hour of new vocabulary!
1,207,796 views ・ 2020-12-12
下の英語字幕をダブルクリックすると動画を再生できます。 翻訳された字幕は機械翻訳です。
00:06
Hello and welcome to 6 Minute English. I'm
Dan and joining me today is Neil. Hey Neil.
0
6720
4640
こんにちは、6 Minute English へようこそ。 私は
ダンです。今日はニールが参加します。 おいニール。
00:11
Hello Dan. What’s on the agenda today?
1
11360
2160
こんにちはダン。 今日の議題は何ですか?
00:13
Well, I’ll give you a clue. It’s something that
makes the world go round, but it doesn’t really
2
13520
4880
さて、私はあなたに手がかりを与えます。 それ
は世界を回らせるものですが、実際には存在しません
00:18
exist. In fact, if we all stopped believing in
it, it would have no use at all! What is it?
3
18400
6800
。 実際、私たち全員がそれを信じるのをやめ
たら、それはまったく役に立たないでしょう! それは何ですか?
00:25
I haven’t got a clue!
4
25200
1120
手がかりがありません!
00:27
Ok...how about this?
5
27280
2560
わかりました...これはどうですか?
00:31
Money!
6
31600
960
お金!
00:32
Yep! And not just any money, we’re
talking about crypto-currency.
7
32560
4960
うん! お金だけでなく、
暗号通貨についても話しています。
00:37
Currency is the money that’s being used
in a given country at a certain time.
8
37520
4560
通貨とは、
特定の時点で特定の国で使用されているお金です。
00:42
But what about the cryptopart?
9
42080
2000
しかし、クリプトパートはどうですか?
00:44
Well, crypto is a prefix meaning hidden
or secret – it comes from the word cryptic
10
44080
5520
そうですね、crypto は隠されたまたは秘密を意味する接頭辞
00:49
which means mysterious or difficult to understand.
11
49600
3440
です。これは、謎めいた、または理解しにくいという意味の cryptic という単語に由来します。 現在
00:53
You may have heard about the most popular
crypto-currency at the moment, the Bitcoin.
12
53040
5040
最も人気のある暗号通貨であるビットコインについて聞いたことがあるかもしれません
。
00:58
Well, I’ve certainly heard the name,
but I can’t say I know what it is.
13
58080
3680
確かに名前は聞いた
ことがありますが、それが何であるかはわかりません。
01:01
First our quiz question. When was the
Bitcoin crypto-currency first created?
14
61760
5920
まずはクイズ問題です。
ビットコイン暗号通貨が最初に作成されたのはいつですか?
01:07
a) 2004
15
67680
1600
a) 2004
01:09
b) 2009
16
69280
1600
b) 2009
01:10
c) 2013
17
70880
1920
c) 2013
01:12
Well, I think 2004 may have been
a little early, and I think 2013
18
72800
5040
ええと、2004 年は少し早かったかもしれないし
、2013 年
01:17
could be a little late, so
the smart money’s on 2009.
19
77840
3840
は少し遅かったかもしれないと思うので
、賢いお金は 2009 年にあり
01:21
We’ll see if you’re right later on in the
show. So…Bitcoin, what do you know about it?
20
81680
5680
ます。 見せ物、
ショー、芝居。 それで…ビットコイン、あなたはそれについて何を知っていますか?
01:27
Well, I know it’s a digital currency…so
presumably, you can use it online to buy things?
21
87360
5040
ええと、それがデジタル通貨であることは知っています…それで、
おそらく、オンラインで物を購入するために使用できますか?
01:32
You are right on the money,
which means correct, both times.
22
92400
3760
どちらの場合も、あなたは正しいということです。つまり、正しいということです。
01:36
Bitcoin is just like any other
currency except for two things.
23
96800
4320
ビットコインは
、2 つの点を除けば他の通貨と同じです。
01:41
First, it’s not printed by governments or
banks, which means that it’s not legal tender.
24
101120
6320
まず、政府や
銀行によって印刷されていないため、法定通貨ではありません。
01:47
Legal tender means the official money
that can be used within a country.
25
107440
4240
法定通貨とは
、国内で使用できる公的な通貨を意味します。
01:51
So that means we can’t use it to
pay taxes or settle debts, right?
26
111680
3520
つまり、
税金の支払いや債務の清算には使用できませんよね?
01:55
Exactly. Governments won’t recognise it as an
official currency, although it acts just like
27
115200
6080
丁度。 政府はそれを公式の通貨として認識しませんが、
通貨のように機能し
02:01
one. You can use it to buy items from anyone
who will accept it, and its value fluctuates.
28
121280
6240
ます。 それを受け入れる人なら誰からでもアイテムを購入するために使用でき
、その価値は変動します。
02:07
Fluctuates means changes in level or
amount. And what’s the second thing?
29
127520
4960
変動とは、レベルまたは量の変化を意味します
。 そして、2番目のことは何ですか?
02:12
Ah, the second thing is that bitcoin is a digital
currency, meaning that with the exception of a few
30
132480
6480
ああ、2 つ目は、ビットコインがデジタル通貨であることです。
つまり、一部のトークンを除いて、
02:18
tokens, it largely exists online only. You can’t
carry a load of bitcoins around in your pocket!
31
138960
7680
大部分はオンラインでしか存在しません。
ポケットにたくさんのビットコインを入れて持ち歩くことはできません!
02:26
Well, that makes a nice… change!
32
146640
2720
ええと、それは素晴らしい… 変化をもたらします!
02:29
Oh dear, Neil. Was that a money pun? Terrible!
33
149360
3360
ねえ、ニール。 それはお金のしゃれでしたか? ひどい!
02:33
So if it’s a digital only currency,
where do new ones come from?
34
153360
4400
では、それがデジタルのみの通貨である
場合、新しい通貨はどこから来るのでしょうか?
02:37
Can’t I just say that I’ve got a
million of them and make myself rich!?
35
157760
3280
100 万個もっていて、金持ちになったとは言えませんよね!?
02:41
Well, no. You see, even though Bitcoin
is not regulated by a bank or government,
36
161040
5200
うーん、ダメ。 おわかりのように、ビットコイン
は銀行や政府によって規制されていません
02:46
it still has a process that stops people from
cheating. There are only two ways to get bitcoins.
37
166240
6080
が、人々が不正行為をするのを阻止するプロセスがまだあり
ます。 ビットコインを手に入れる方法は2つしかありません。 誰か
02:52
You either trade them from
someone, or you go mining.
38
172320
3280
からそれらを取引する
か、マイニングに行きます。
02:55
Oh wait, I've heard about this. This is when
you use your computer to run calculations which
39
175600
5680
ああ、これについて聞いたことがあります。 これは
、コンピュータを使用して他のビットコイン トランザクションを検証する計算を実行する場合です
03:01
verify other Bitcoin transactions. You get
rewarded for this ‘work’ by earning bitcoins.
40
181280
5920
。
ビットコインを獲得することで、この「仕事」に対する報酬を得ることができます。
03:07
Yep! It’s money for old rope, which
means it’s an easy way to earn money.
41
187200
4640
うん! 古いロープのお金です。
つまり、お金を稼ぐ簡単な方法です。
03:11
Wow! I’m going to start mining immediately!
42
191840
2400
わお! 早速採掘に取り掛かります!
03:14
Well, you wouldn’t be the only one!
43
194240
1600
あなただけではないでしょう!
03:16
Bitcoin’s value has recently gone up quite a lot
and this has caused a lot of interest. In fact,
44
196640
6720
ビットコインの価値は最近大幅に
上昇しており、多くの関心を集めています。 実際
03:23
one stock exchange in Chicago has begun
trading in Bitcoin futures contracts.
45
203360
5600
、シカゴのある証券取引所は
、ビットコイン先物契約の取引を開始しました。
03:28
A futures contract? What’s that?
46
208960
2080
先物契約? あれは何でしょう?
03:31
I’ll let BBC correspondent
Rory Cellan-Jones explain that.
47
211040
4480
BBC特派員の
ローリー・セラン=ジョーンズに説明してもらいましょう。
03:35
A futures contract, a bet on where
the currency will be a month from now,
48
215520
4320
今から 1 か月後の通貨の価格に賭ける先物契約は、
03:39
soared above 18,000 dollars. That means that
investors believe Bitcoin, which started the
49
219840
5360
18,000 ドルを超えて急上昇しました。 つまり、
投資家は、年初に
03:45
year worth under 1000 dollars will continue
to rise in value, albeit at a slower rate.
50
225200
6560
1,000 ドル以下の価値だったビットコインが、
ペースは遅くなるものの、価値が上昇し続けると信じていることを意味します。
03:51
But at the big banks there’s still
plenty of scepticism about the currency.
51
231760
4080
しかし、大手銀行では
、通貨についてまだ多くの懐疑論があります。
03:56
Soared in this context means
increased very quickly. So,
52
236960
3680
このコンテキストで
急増したとは、非常に急速に増加したことを意味します。 そのため、
04:00
now big investors are betting on
the value of Bitcoin in the future.
53
240640
3920
現在、大規模な投資家は
将来のビットコインの価値に賭けています。
04:04
Yes. But he also mentioned that the banks
have a lot of scepticism. That's a doubt
54
244560
4960
はい。 しかし彼はまた、銀行
には多くの懐疑論があるとも述べました。 それ
04:09
that something is real or true. In this
case, whether Bitcoin is reliable or not.
55
249520
5200
は、何かが本物か真実かという疑いです。 この
場合、ビットコインが信頼できるかどうか。
04:14
Maybe it’s best I don’t get involved then.
After all, a fool and his money are soon parted.
56
254720
5200
その時は関わらない方がいいのかもしれません。
結局、愚か者と彼のお金はすぐに別れます。 クイズの
04:19
Well, you don’t have to be sceptical
about the answer to our quiz.
57
259920
3040
答えに懐疑的である必要はありません
。
04:22
We know that for a fact. I asked you when the
Bitcoin crypto-currency was first created.
58
262960
5360
私たちはそれを事実として知っています。
ビットコイン暗号通貨が最初に作成されたのはいつかと尋ねました。
04:28
a) 2004
59
268320
1200
a) 2004年
04:29
b) 2009
60
269520
1360
b) 2009年
04:30
c) 2013
61
270880
1520
c) 2013年
04:32
And I said 2009.
62
272400
1760
そして私は2009年と言った
04:34
And you were right! Well done. Shall
we go over the vocabulary again?
63
274160
3920
。 素晴らしい。
語彙をもう一度調べましょうか?
04:38
First, we had currency. That’s the money being
used in a given country at a certain time.
64
278080
5200
まず、通貨がありました。 これ
は、特定の時点で特定の国で使用されているお金です。
04:43
Name three currencies and their countries, Dan.
65
283280
2480
ダン、3 つの通貨とその国の名前を挙げてください。
04:45
Ok. Baht for Thailand. Rupee for India and
my favourite, Metical for Mozambique. Next
66
285760
7200
Ok。 タイのバーツ。 インドはルピー、
モザンビークは私のお気に入りのメティカルです。
04:52
we had cryptic. Something which is cryptic
is mysterious or difficult to understand.
67
292960
5120
次は不可解でした。
謎に包まれたものは、神秘的または理解しにくいものです。
04:58
For example, what do rich people need, poor
people have and if you eat it, you die?
68
298080
5520
たとえば、金持ちが必要とするもの、貧しい
人が持っているもの、それを食べると死ぬものは何ですか?
05:04
A cryptic riddle indeed! I’ll
have to think about that.
69
304400
2560
確かに不可解ななぞなぞ! それ
について考える必要があります。
05:07
Then we had legal tender, that’s the official
money that can be used within a country.
70
307600
4560
次に、法定通貨
がありました。これは、国内で使用できる公式の通貨です。
05:12
The Euro is legal tender within Spain,
but what was the legal tender before that?
71
312160
5600
ユーロはスペイン
の法定通貨ですが、それ以前の法定通貨は何でしたか?
05:17
Wasn’t it the Peseta? Then we had
fluctuates. If something fluctuates,
72
317760
5600
ペセタじゃなかった? その後、
変動がありました。 何かが変動
05:23
it changes in amount or level.
The stock market fluctuates.
73
323360
4000
すると、量やレベルが変化します。
株式市場は変動します。
05:27
But my love for my family never does. Then we
had soared, which means increased very quickly.
74
327360
6560
しかし、私の家族への愛は決して変わりません。
その後急上昇しました。つまり、急速に増加しました。
05:33
It’s used with this meaning in the
context of money, prices and statistics.
75
333920
4320
お金、価格、統計の文脈でこの意味で使用されます。
05:38
Finally, we had scepticism. Scepticism is doubt
76
338240
3600
最後に、私たちは懐疑的でした。 懐疑論とは
05:41
that something is real or true. What sort
of things are people sceptical about, Neil?
77
341840
5120
、何かが真実であるという疑いです。
ニール、人々はどのようなことに懐疑的ですか?
05:47
Some people think that human activity hasn’t
caused climate change. They are sceptical.
78
347520
6240
人間の活動が
気候変動を引き起こしたのではないと考える人もいます。 彼らは懐疑的です。
05:53
And that brings us to the end of today’s 6 Minute
English. Don’t forget to check out our Youtube,
79
353760
5120
これで、今日の 6 分間の英語は終わりです
。 Youtube、
05:58
Facebook, Twitter and Instagram pages,
and we’ll see you next time. Goodbye.
80
358880
4640
Facebook、Twitter、Instagram のページも忘れずにチェック
してください。また次回お会いしましょう。 さようなら。
06:03
Goodbye
81
363520
2320
さようなら
06:12
Hello and welcome to 6 Minute English. I'm Rob.
82
372240
3360
こんにちは、6 Minute English へようこそ。 私はロブです。
06:15
And I'm Dan.
83
375600
1280
私はダンです。
06:16
Hey Dan. What’s the time?
84
376880
2000
ヘイ・ダン。 何時ですか?
06:19
Time you got a new watch?
85
379680
1520
新しい時計を手に入れたときは? 冗談や皮肉の
06:21
Now I didn’t ask you that just for a
joke or a sarcastic comment now did I?
86
381840
4000
つもりでお願いしたのではあり
ませんよね?
06:25
Well no, but look there’s a clock
over there, you are wearing a watch,
87
385840
4240
いいえ、でもほら、あそこに時計
があり、腕時計をし
06:30
you have a smartphone and a computer, all of
which show the time. So why are you asking me?
88
390080
5840
ていて、スマートフォンとパソコンを持っていて、これらすべてが
時間を示しています。 なぜあなたは私に尋ねるのですか?
06:36
Dan! I was trying to introduce today’s topic
which is all about virtual assistants or bots.
89
396480
6400
ダン! バーチャル アシスタントまたはボットに関する今日のトピックを紹介しようとしていました
。
06:42
You seemed to have forgotten the script.
90
402880
1760
スクリプトを忘れたようです。
06:44
Oh yes, sorry. We’re talking
about software that you talk to
91
404640
4800
ええ、ごめんなさい。 私たちは
、あなたが話しかけ、あなたに話しかける
06:49
and that can talk back to you. Like Apple’s
Siri, Google’s Assistant, Amazon’s Alexa
92
409440
6160
ことができるソフトウェアについて話しているのです。 Apple の
Siri、Google のアシスタント、Amazon の Alexa
06:55
and Microsoft’s Cortana. It might be on your
phone or computer or even a speaker in your house.
93
415600
6800
、Microsoft の Cortana などです。
スマートフォンやパソコン、さらには家のスピーカーにあるかもしれません。
07:03
Now before we hear more about this
topic, here is today’s quiz question:
94
423120
4160
このトピックについて詳しく聞く前に
、今日のクイズの質問
07:08
Do you know when was the first computer which
could recognise speech, launched? Was it in
95
428000
6080
があります。 音声を認識できる最初のコンピュータが発売されたのはいつだったか知ってい
ますか?
07:14
a) 1951
96
434080
1840
a) 1951 年
07:15
b) 1961
97
435920
1520
b) 1961 年
07:17
c) 1971
98
437440
1600
c) 1971 年でしたか
07:20
I have found my script, so I’ve seen the
answer but I have to say I was surprised.
99
440400
5680
? 台本を見つけたので、答えを見ました
が、驚いたと言わざるを得ません。
07:26
Don't tell anybody, Dan, OK. We’ll give the answer
for the listeners at the end of the programme.
100
446080
4800
誰にも言わないで、ダン、OK。
プログラムの最後にリスナーに答えを提供します。 BBC ラジオ 4 の口コミ プログラムで、バーチャル アシスタント
07:31
We’re going to hear now from Tom Hewitson, who
is a conversation designer, working in the field
101
451760
5760
の分野で働いている会話デザイナーである Tom
07:37
of virtual assistants, talking on BBC Radio
4's Word of Mouth programme. He talks about
102
457520
6480
Hewitson から話を聞く予定です。 彼
07:44
the whole idea of virtual assistants and how they
are changing the way we interact with technology.
103
464000
5920
は 仮想アシスタントの全体像
と、テクノロジーとのやり取りの方法をどのように変えているかについて語っています。
07:50
How does he describe our existing
relationship with computers?
104
470640
3920
彼は、私たち
とコンピューターとの既存の関係をどのように説明していますか?
07:55
It changes the way that we think about computers.
To date we’ve thought of them largely as
105
475360
6000
コンピューターに対する私たちの考え方が変わります。
これまで、私たちはそれらを主にツールと考えてきました
08:01
tools. They’re just an advanced version of a
calculator. They’re something you kind of use
106
481360
4640
。 それらは電卓の高度なバージョンにすぎません
。 彼らは
08:06
to get a specific thing done, whereas this is
kind of changing them more into like an agent.
107
486000
5120
特定のことを成し遂げるために使用するものですが、これは
一種のエージェントのようなものです。
08:11
They’re an active participant in the interaction
and in guiding you to make the right decision.
108
491120
6960
彼らは交流に積極的に参加し
、正しい決定を下すように導きます。
08:18
How did he describe our existing
relationship with computers then?
109
498720
3280
その時、彼は私たちとコンピューターとの既存の関係をどのように説明しました
か?
08:22
He said that to date, which is an expression
which means 'up until this point in time',
110
502000
4560
彼は、今日まで、これは
「この時点まで」を意味する表現であり、
08:26
we have thought of them as advanced calculators.
111
506560
2480
私たちはそれらを高度な計算機と考えてきたと述べました。
08:29
Yes, that’s right, we use them
as a tool to get things done.
112
509040
4080
はい、そうです。私たちは
物事を成し遂げるためのツールとしてそれらを使用しています。
08:33
But he says that modern technology is turning them
into an agent. This doesn’t mean a secret agent,
113
513120
5920
しかし彼は、現代のテクノロジーが彼らをエージェントに変えていると言ってい
ます。 これは、ジェームズ ボンドのようなスパイを意味するものではありません
08:39
like James Bond! In this sense an
agent is something that has agency
114
519040
5120
。 この意味で、
エージェントはエージェンシーを持つもので
08:44
and that means it has the ability to act
individually and make its own decisions.
115
524160
5040
あり、つまり、個別に行動し、独自の決定を下す能力があることを意味します
。
08:49
I’m not sure I’d like my phone to have agency. It
probably wouldn’t like being in my pocket all day.
116
529200
5600
自分の電話にエージェンシーを持たせたいかどうかはわかりません。
一日中ポケットに入れておくのはおそらく嫌でしょう。
08:54
Who would Dan? But I’m not sure Hewitson
is suggesting our devices would become
117
534800
4800
誰がダン? しかし、ヒューイットソン氏が私たちのデバイスがそれほど賢くなると示唆しているかどうかは定かではありません
08:59
that clever but he did say they could
become more active in our lives.
118
539600
4560
が、彼はデバイスが
私たちの生活の中でよりアクティブになる可能性があると述べています.
09:05
Maybe. I imagine, for example,
119
545120
2880
多分。 たとえば、ファスト フード レストランで
09:08
telling us if we are spending too
much time in fast food restaurants?
120
548000
3760
過ごす時間が長すぎるかどうかを教えてくれると
思います。
09:11
Maybe in your case Dan. Mine would be
telling me I spend too much time in the gym!
121
551760
5200
たぶんあなたの場合はダンです。
私は、ジムで過ごす時間が長すぎると言っていたでしょう。
09:16
Hewitson goes on to explain how the way we will
talk to our virtual assistants will develop.
122
556960
4880
Hewitson 氏は、仮想アシスタントとの会話方法がどのように発展するかについて説明します
。
09:22
What does he say we don’t need to do?
123
562720
2240
彼は何をする必要がないと言っていますか?
09:25
We will develop our own kind of vernacular
for speaking with machines that will be
124
565520
4800
私たちは、機械と話すための独自の言語を開発します。これは、私たちが他の人と
話す
09:30
subtly different from how we
speak to other people because
125
570320
2960
方法とは微妙に異なり
09:33
as you rightly point out you don’t need to make
the machine like you don’t need to kind of make
126
573280
5120
ます。なぜなら、あなたが正しく指摘しているように
、機械を無作為に作る必要がないからです。
09:38
random chit-chat that’s just filling the time.
It can be much more brusque and to the point.
127
578400
5840
おしゃべりで暇つぶし。
それははるかに無愛想で要点になる可能性があります。
09:44
A lot of what we say in human communication
128
584240
2560
人間のコミュニケーションで私たちが言うことの多くは、話している相手
09:46
is to do with our relationship
with the person we’re talking to.
129
586800
3200
との関係に関係
しています。
09:50
We say things and talk about things that are maybe
not directly relevant to our point. With a digital
130
590000
6480
私たちは
、私たちの要点に直接関係のないことを言ったり、話したりします。 デジタル
09:56
virtual assistant, we don’t need to do that,
so we don’t need to make the machine like us.
131
596480
5440
バーチャル アシスタントでは、
その必要がないため、機械を私たちのようにする必要はありません。
10:01
Hewitson said that we will develop our own
vernacular, this is a general word for a native
132
601920
5280
Hewitson 氏は、独自の言語を開発すると述べました
。これは母国語の一般的な言葉です
10:07
language. This vernacular will be a little bit
different from our everyday vernacular because,
133
607200
5680
。 この方言は
、私たちの日常的な方言とは少し異なります。なぜなら、
10:12
as we said, we don’t need to maintain a social
relationship with the artificial assistant.
134
612880
5440
前述したように、人工アシスタントとの社会的関係を維持する必要がないから
です。
10:18
This means that we won’t need chit-chat.
Chit-chat is another expression for small talk:
135
618320
5280
これは、おしゃべりが必要ないことを意味します。
おしゃべりは世間話のもう 1 つの表現です。
10:23
conversation topics which aren’t important
but are part of everyday social communication,
136
623600
5840
重要ではない
が、日常の社会的コミュニケーションの一部で
10:29
like talking about the weather.
137
629440
1600
ある会話のトピック(天気について話すなど)。
10:31
And because we don’t need to be
friends with our virtual assistants,
138
631040
3120
また、仮想アシスタントと友だちになる必要がないため
、
10:34
we can be brusque and to the point. Both of
these mean being very direct and not very polite.
139
634160
6160
無愛想で要点を言えます。
どちらも非常に率直で、あまり礼儀正しくないことを意味します。
10:40
Well, Dan, I don’t mean to be brusque but it is
time for the answer to this week’s quiz question.
140
640960
4640
ええと、ダン、無愛想になるつもりはありません
が、今週のクイズの質問に答える時間です。
10:45
Earlier I asked when was the first
computer which could recognise speech,
141
645600
4160
先ほど、音声を認識できる最初のコンピュータが発売されたのはいつですかと尋ね
10:49
launched. The options were:
142
649760
1600
ました。 オプションは次のとおりです
10:51
a) 1951
143
651360
1520
。a) 1951
10:52
b) 1961
144
652880
1680
b) 1961
10:54
c) 1971
145
654560
2080
c) 1971
10:56
Well actually the first computer which
could recognise speech was launched in 1961.
146
656640
5520
実は、
音声を認識できる最初のコンピューターは 1961 年に発売されました。
11:03
It was called the IBM Shoebox and could
recognise 16 words and the numbers zero
147
663040
6640
それは IBM Shoebox と呼ばれ、
16 の単語と 0 から 9 までの数字を認識できました
11:09
to nine. That’s nearly as many as you!
148
669680
2480
。 それはあなたとほぼ同じ数です!
11:12
Cheeky! Right enough of this chit-chat.
Let’s recap today’s vocabulary.
149
672160
5360
生意気! このおしゃべりで十分です。
今日の語彙を復習しましょう。
11:17
Well, chit-chat was one of today’s
expressions. Meaning 'small talk',
150
677520
3840
おしゃべりは今日の表現の 1 つです
。 「雑談」を意味
11:21
but we also had the expression to date.
That means ‘up until this moment in time’.
151
681360
5840
しますが、今日までという表現もありました。
それは「今この瞬間まで」という意味です。
11:27
Then we had the noun agent. This
refers to something that has agency.
152
687200
4960
次に、名詞エージェントがありました。 これ
は、代理店があるものを指します。
11:32
And that is the ability to think,
make decisions and act independently.
153
692160
4480
そしてそれは、独立して考え、
決定を下し、行動する能力です。
11:36
The next word is vernacular,
another word for language,
154
696640
3200
次の単語は
方言で、特に母国語について話す場合は、言語を表す別の単語です
11:39
particularly when talking about a native language.
155
699840
2960
。
11:42
And finally, there was brusque meaning
'direct and not polite' and to the point,
156
702800
5680
そして最後に、
「直接的で礼儀正しくない」という無愛想な意味と、
11:48
which also means 'direct and
without unnecessary information'.
157
708480
3200
「直接的で不必要な情報がない」という意味の要点がありました
.
11:52
Hey Rob
158
712240
960
ねえロブ
11:53
Yes, what can I do for you Dan?
159
713200
2240
はい、ダンのために何ができますか?
11:55
End the programme.
160
715440
1120
プログラムを終了します。
11:56
Certainly Dan. Well that’s all from us today,
be sure to check us out on all the usual places:
161
716560
5920
確かにダン。 今日は以上
です。Facebook、Twitter、Instagram、YouTube などのいつもの場所で私たちをチェックして
12:02
Facebook, Twitter, Instagram and YouTube,
162
722480
2560
12:05
and of course please don't forget our
website bbclearningenglish.com. Bye for now!
163
725040
4880
ください。もちろん、私たちのウェブサイト bbclearningenglish.com も忘れないでください
。 またね!
12:09
Bye!
164
729920
200
さよなら!
12:18
Hello. This is 6 Minute English
from BBC Learning English. I’m Neil.
165
738160
4000
こんにちは。 これは
BBC Learning English の 6 Minute English です。 私はニールです。
12:22
And I’m Sam. What’s the
matter, Neil? You sound upset.
166
742160
3440
私はサムです。 どうした
のニール? あなたは動揺しているように聞こえます。
12:26
Well, I am, Sam - I just spent
an hour working on my computer
167
746240
3760
そうです、サムです。
パソコンで 1 時間作業していた
12:30
when it suddenly froze. I lost everything
and had to start all over again!
168
750000
4400
ところ、突然フリーズしました。 すべてを失い
、最初からやり直さなければなりませんでした。
12:34
Agghh, that’s so frustrating - like pop-up
internet ads and buffering videos that never play!
169
754400
5680
うーん、それはとてもイライラします - ポップアップの
インターネット広告や、再生されないビデオのバッファリングのように!
12:40
Modern computers and the internet have
revolutionised the way we live today,
170
760800
4160
現代のコンピュータとインターネットは
今日の私たちの生活に革命を
12:44
bringing us the world with a click of a button.
171
764960
2640
もたらし、ボタンをクリックするだけで世界をもたらしました。
12:47
But not everyone feels happy about
these technological developments.
172
767600
3280
しかし、誰もがこれらの技術開発に満足しているわけではありません
。 インターネットは、善と進歩のため
12:51
While potentially acting as a
force for good and progress,
173
771600
4080
の力として潜在的に作用する一方
で
12:55
the internet also provides a way of spreading
hate and misinformation. And for some people,
174
775680
5920
、憎悪と誤った情報を広める方法も提供します
。 また、一部の人々にとって
13:01
the World Wide Web remains a
mysterious and confusing place.
175
781600
4240
、ワールド ワイド ウェブは依然として
不可解で紛らわしい場所です。
13:06
In this programme, we’ll hear about
a new academic subject called Web
176
786560
4000
この番組では、
ウェブ科学という新しい学問について学び
13:10
Science. Web Science studies the
technology behind the internet.
177
790560
4480
ます。 ウェブ サイエンス
は、インターネットの背後にあるテクノロジーを研究します。
13:15
But from the human side, it’s
also interested in how people
178
795040
3200
しかし、人間の側から見ると、
人々がオンラインでどのように交流するかにも関心があり
13:18
interact with each other online. So we’ll
be asking whether studying Web Science
179
798240
4880
ます。 そのため、
ウェブ サイエンスを研究
13:23
could make the internet better
for humanity in the future.
180
803120
3200
することで、将来人類にとってインターネットをより良いものにすることができるかどうかを尋ね
ます。
13:26
But first it’s time for our quiz question. I
wonder what the pioneers of the internet would
181
806880
4800
でも、まずはクイズの時間です。
インターネットのパイオニアたちは、今日のインターネットの
13:31
think about how it is used today. So the question
is, who invented the World Wide Web? Was it:
182
811680
5520
利用方法についてどう考えているのだろうか。 問題
は、誰がワールド ワイド ウェブを発明したかということです。
13:37
a) Bill Gates,
183
817200
1760
a) ビル ゲイツ、
13:38
b) Tim Berners-Lee, or
c) Steve Jobs
184
818960
2960
b) ティム バーナーズ リー、または
c) スティーブ ジョブズ
13:42
Well, Bill Gates and Steve Jobs were the
brains behind Microsoft and Apple Mac,
185
822640
4640
そうですね。ビル ゲイツとスティーブ ジョブズは
Microsoft と Apple Mac の頭脳だった
13:47
so I’m going to say c) Tim Berners-Lee.
186
827280
2960
ので、c) ティム バーナーズ リーと言います。
13:50
OK, Sam, we’ll find out later. Now,
because of coronavirus the annual Web
187
830240
4880
わかりました、サム、後でわかります。 さて
、新型コロナウイルスの影響で、年に 1 度の Web
13:55
Science conference was held online this year.
Its theme was ‘making the web human-centric’.
188
835120
5520
サイエンス カンファレンスが今年はオンラインで開催されました。
そのテーマは「ウェブを人間中心にする」でした。
14:01
One of the conference’s key speakers, and
co-founder of the new discipline of Web Science,
189
841280
5600
この会議の主要な講演者の 1 人であり、
ウェブ サイエンスという新しい分野の共同創設者であるウェンディ ホール氏は、次のよう
14:06
was Dame Wendy Hall. Here she is speaking
to BBC World Service’s Digital Planet:
190
846880
5360
に述べています。 ここで彼女は
BBC ワールド サービスのデジタル プラネットに
14:13
People think about the web as a technology
but actually it’s co-createdby society.
191
853440
4800
語っています。人々はウェブをテクノロジーと考えています
が、実際には社会によって共同で作成されています。
14:18
We put the content on, we interact with the
technology, with the platforms, with the social
192
858240
4640
私たちはコンテンツを配信し、
テクノロジー、プラットフォーム、ソーシャル
14:22
media networks to create it. What we study is how
that works as an ecosystem,this coming together
193
862880
6240
メディア ネットワークとやり取りしてコンテンツを作成します。 私たちが研究しているのは、
それがエコシステムとしてどのように機能するかということです。これ
14:29
of people and technology, and it’s very
interdisciplinary, very socio-technical,
194
869120
4480
は、人々とテクノロジーが一緒になって
、非常に学際的で、非常に社会技術的で
14:33
and of course these days a
lot of it is powered by AI.
195
873600
3280
あり、もちろん最近では、その
多くが AI によって支えられています。
14:38
Web Science is not only interested in
the technology side of the internet.
196
878240
4080
ウェブ サイエンスは、インターネットの技術面だけに関心があるわけではありません
。
14:42
As a subject it’s very interdisciplinary
- involving two or more academic subjects
197
882320
5600
科目としては非常に学際的であり
、2 つ以上の学問科目
14:47
or areas of knowledge. Web Science
combines digital technology with
198
887920
4480
または知識領域が含まれます。 ウェブ サイエンス
は
14:52
subjects ranging from psychology and
robotics to economics and sociology.
199
892400
4320
、心理学や
ロボティクスから経済学や社会学に至るまでの科目とデジタル テクノロジーを組み合わせたものです。
14:57
Exchanges between humans and the internet can
be seen in social media networks - websites,
200
897360
5440
人間とインターネットの間のやり取り
は、ソーシャル メディア ネットワーク(Facebook や Instagram などのウェブサイト
15:02
apps and computer programmes,
like Facebook and Instagram,
201
902800
3200
、アプリ、コンピュータ プログラム)で見ることができます
。
15:06
which allow people to use electronic devices
to communicate and share information.
202
906000
5360
これにより、人々は電子デバイスを使用
して通信し、情報を共有できます。
15:11
This view of technology sees the internet as an
ecosystem – a complex pattern of relationships
203
911360
6000
このテクノロジーの見方では、インターネットをエコシステムと見なしています。これは、すべての生物とその環境の
15:17
and mutual influences that exists between
all living things and their environment.
204
917360
5360
間に存在する関係と相互影響の複雑なパターン
です。
15:22
One ongoing and topical example of
websites helpfully interacting with humans
205
922720
5360
人間と有益にやり取りするウェブサイトの進行中の話題の例の 1 つ
15:28
is the Covid contact tracing app.
206
928080
2880
は、Covid 接触追跡アプリです。 コロナウイルスと戦うために
15:30
You might think the mobile phone app, which
tracks movements and contact between people
207
930960
4240
人々の動きや接触を追跡する携帯電話
15:35
to combat coronavirus, would be a useful
practical application of internet technology.
208
935200
4640
アプリは、インターネット技術の有用な実用的なアプリケーションになると思うかもしれません。
15:40
But as Carly Kind, Director of the
Ada Lovelace Institute in Cambridge,
209
940480
4800
しかし、ケンブリッジの Ada Lovelace Institute のディレクターである Carly Kind
15:45
explained to BBC World Service’s Digital
Planet, things are never that straightforward:
210
945280
5120
が BBC World Service の Digital Planet に説明したように
、物事はそれほど単純ではありません。
15:52
Actually, there’s a lot of more fundamental
questions that haven’t been answered yet such as:
211
952000
3840
実際には、
まだ答えられていないより基本的な質問
15:56
is Bluetooth even an adequate mechanism for
doing what it says on the tin, which is detecting
212
956400
5120
がたくさんあります。 2 人の間の接触を
検出しているブリキに書かれていることを実行するための適切なメカニズムは
16:01
contact between two people? The trails so far
show that it’s not actually that great and so,
213
961520
5760
? これまでの道のりは
、実際にはそれほど素晴らしいものではないことを示してい
16:07
do we know for sure that these apps work
and they work in the way we want them to?
214
967280
3600
ます。これらのアプリが機能し、私たちが望むように機能することが確実にわかっているの
でしょうか? 必要な
16:11
Do we get the public health
information that we need?
215
971520
3040
公衆衛生情報を入手でき
ますか?
16:16
Apps like this are designed to
support public health - services
216
976240
3840
このようなアプリは、公衆衛生をサポートするように設計されてい
ます。
16:20
to improve the standard of health
of a country’s general population.
217
980080
3840
つまり
、国の一般人口の健康水準を向上させるサービスです。
16:23
But Carly thinks the mechanisms used must be
suitable and adequate – they must actually work or
218
983920
6640
しかしカーリーは、使用されるメカニズムは適切かつ適切でなければならないと考えて
16:31
do what it says on the tin – an informal idiom
meaning work exactly as it is intended to.
219
991120
7680
います。実際に機能するか、ブリキに書かれているとおりに動作する必要があり
ます。これは意図したとおりに機能することを意味する非公式のイディオムです。
16:38
To find this out, trials - tests
to discover how effective or
220
998800
4160
これを見つけるために、トライアル - 何かが
どれほど効果的または 適切かを発見するためのテスト
16:42
suitable something is - are
carried out over a period of time.
221
1002960
3680
- が
一定期間にわたって実施されます。
16:46
The kind of trials which were carried out during
222
1006640
2400
そもそもインターネットの発明の際に実施された種類の試験
16:49
the invention of the internet
in the first place, right, Neil?
223
1009040
3440
ですね、ニール?
16:54
Ah yes, the invention of the internet – or
to be more accurate, the World Wide Web. In
224
1014000
5040
そうです、インターネットの発明です
。より正確には、ワールド ワイド ウェブです。
16:59
our quiz question I asked you who invented
the World Wide Web? What did you say, Sam?
225
1019040
4800
クイズの質問で、World Wide Web を発明したの
は誰ですか? 何て言ったの、サム?
17:04
I said b) Tim Berners-Lee.
226
1024960
2080
私は言った b) ティム・バーナーズ・リー。
17:08
Well, you’re a first class web scientist,
Sam, because that’s the correct answer!
227
1028560
4560
サム、あなたは一流のウェブ サイエンティストです。
それが正解です。
17:14
Great! In this programme, we’ve been hearing about
Web Science, a new interdisciplinary subject,
228
1034480
6240
すごい! このプログラムで
17:21
combining several areas of study, which
investigates the ecosystem of the internet – the
229
1041280
5520
は、インターネットのエコシステム、つまり
17:26
complex pattern of interconnections
between humans and their environment.
230
1046800
5040
人間とその環境の間の相互接続の複雑なパターンを調査する、いくつかの研究分野を組み合わせた、新しい学際的な主題であるウェブ サイエンスについて聞いてきました。
17:32
Social media networks –websites and apps,
like Facebook, which let people use electronic
231
1052400
5120
ソーシャル メディア ネットワーク –
人々が電子
17:37
devices to communicate on the internet – show how
humans and technology can successfully interact.
232
1057520
5600
デバイスを使用してインターネット上で通信できる Facebook などのウェブサイトやアプリは、人間とテクノロジーがどのようにうまく相互作用できるかを示しています
。
17:43
A new Covid contact tracing app is currently
undergoing trials – tests to see if it works
233
1063840
6000
現在、新しい Covid 接触追跡アプリが
試用中であり、効果的に機能するかどうかをテストしています
17:49
effectively. This will discover if it does what
it says on the tin – works as it’s supposed to.
234
1069840
6800
。 これにより、ブリキに記載されている通りに動作するかどうか
、つまり想定どおりに動作するかどうかがわかります。
17:57
If successful, by alerting people to
coronavirus risks the app will support
235
1077200
5120
成功した場合、
コロナウイルスのリスクを人々に警告することで、アプリは公衆衛生をサポートし
18:02
public health – services aimed at improving
the health of the general population.
236
1082320
5200
ます
。これは、一般の人々の健康を改善することを目的としたサービスです。
18:07
And that’s all from us for now.
237
1087520
1920
今のところは以上です。
18:09
And we hope you’ll join us again soon
for more topical English vocabulary
238
1089440
3840
6 Minute English で
話題の英語のボキャブラリーをお楽しみ
18:13
here at 6 Minute English. Bye for now!
239
1093280
2160
ください。 またね!
18:15
Bye bye!
240
1095440
480
バイバイ!
18:23
Hello and welcome to 6 Minute
English. I'm Catherine.
241
1103040
3360
こんにちは、6 Minute English へようこそ
。 私はキャサリンです。
18:26
And hello, I'm Rob.
242
1106400
1200
こんにちは、ロブです。
18:27
Today we have another technology topic.
243
1107600
2560
今日は、別のテクノロジー トピックがあります。
18:30
Oh good! I love technology. It makes things
easier, it’s fast and means I can have gadgets.
244
1110160
5840
ああ、いいね! 私はテクノロジーが大好きです。 物事が
簡単になり、速くなり、ガジェットを手に入れることができます。
18:36
Do you think that technology can
actually do things better than humans?
245
1116000
4320
テクノロジーは
実際に人間よりも優れていると思いますか?
18:40
For some things, yes. I think cars that drive
themselves will be safer than humans but that
246
1120320
5680
いくつかのことについては、はい。
自動運転する車は人間よりも安全だ
18:46
will take away some of the pleasure of driving.
So I guess it depends on what you mean by better.
247
1126000
5520
と思いますが、そうなると運転の楽しみがいくらか失われます。
だから、それはあなたがより良いとはどういう意味かによると思います。
18:51
Good point, Rob. And that actually
ties in very closely with today’s topic
248
1131520
4880
いいですね、ロブ。 そしてそれは
、今日のトピックであるテクノショービニズムと非常に密接に結びついています
18:56
which is technochauvinism.
249
1136400
2160
。
18:59
What’s that?
250
1139120
960
あれは何でしょう?
19:00
We’ll find out shortly, Rob, but before we do,
today’s quiz question. Artificial Intelligence,
251
1140080
6080
ロブ、すぐにわかりますが、その前に、
今日のクイズの質問です。 人工知能、
19:06
or A.I., is an area of computer science that
develops the ability of computers to learn
252
1146160
5760
または A.I. は、
19:11
to do things like solve problems or drive cars
without crashing. But in what decade was the term
253
1151920
7360
問題を解決したり、衝突することなく車を運転したりするなどのことを学習するコンピュータの能力を開発するコンピュータ サイエンスの分野です
。 しかし、
19:19
'Artificial Intelligence' coined? Was it:
a) the 1940s,
254
1159280
4800
「人工知能」という用語が造られたのは何世紀ですか?
a) 1940 年代、
19:24
b) the 1950s or
c) the 1960s?
255
1164080
3520
b) 1950 年代、
c) 1960 年代のどれでしたか?
19:28
I think it's quite a new expression
so I'll go for c) the 1960s.
256
1168240
4880
これはかなり新しい表現だと
思うので、c) 1960 年代に行きます。
19:33
Good luck with that, Rob, and we’ll give
you the answer later in the programme.
257
1173120
3360
頑張ってください、ロブ
。答えはプログラムの後半でお知らせします。
19:37
Now, let's get back to our
topic of technochauvinism.
258
1177120
3680
それでは、
テクノショービニズムのトピックに戻りましょう。
19:40
I know what a chauvinist is. It’s someone
who thinks that their country or race or sex
259
1180800
5360
私は優越主義者が何であるかを知っています。
自分の国、人種、性別
19:46
is better than others. But how
does this relate to technology?
260
1186160
3520
が他の人よりも優れていると考える人です。 しかし、
これがテクノロジーとどのように関係しているのでしょうか。
19:49
We’re about to find out. Meredith Broussard is
Professor of Journalism at New York University
261
1189680
6160
調べようとしています。 Meredith Broussard は
、ニューヨーク大学のジャーナリズムの教授で
19:55
and she’s written a book called
Artificial Unintelligence.
262
1195840
4160
あり、「Artificial Unintelligence」という本を書いてい
ます。
20:00
She appeared on the BBC Radio 4
programme More or Less to talk about it.
263
1200000
4800
彼女は、BBC ラジオ 4
番組 More or Less に出演し、そのことについて話しました。
20:04
Listen carefully and find out her
definition of technochauvinism.
264
1204800
4080
注意深く耳を傾け
、テクノショービニズムの彼女の定義を見つけてください。
20:09
Technochauvinism is the idea that technology is
always the highest and best solution. So somehow
265
1209600
7040
テクノショービニズムとは、テクノロジーが
常に最高で最良の解決策であるという考えです。 その
20:16
over the past couple of decades we got into the
habit of thinking that doing something with a
266
1216640
7040
ため、過去 20 年間、私たちはコンピュータを
使って何かを行うこと
20:23
computer is always the best and most objective
way to do something and that’s simply not true.
267
1223680
7200
が常に最善かつ最も客観的な
方法であると考えるようになりましたが、それは正しくありません。
20:30
Computers are not objective, they are
proxies for the people who make them.
268
1230880
4960
コンピューターは客観的なものではなく、それ
を作った人々の代理です。
20:36
What is Meredith Broussard's
definition of technochauvinism?
269
1236640
4160
Meredith Broussard の
テクノショービニズムの定義は何ですか?
20:40
It's this idea that using technology
is better than not using technology.
270
1240800
5040
テクノロジーを使用することは、テクノロジーを使用し
ないことよりも優れているという考えです。
20:45
She says that we have this idea that a computer is
objective. Something that is objective is neutral,
271
1245840
6800
彼女は、私たちはコンピューターが客観的であるという考えを持っていると言い
ます。 客観的なものは中立で
20:52
it doesn’t have an opinion, it’s
fair and it's unbiased – so it’s
272
1252640
3920
あり、意見を持たず、公正で偏りがありません
20:56
the opposite of being a chauvinist. But
Meredith Broussard says this is not true.
273
1256560
6000
。つまり、排外主義者であることとは正反対です。 しかし
Meredith Broussard は、これは真実ではないと述べています。
21:02
She argues that computers are not objective.
They are proxies for the people that make them.
274
1262560
6480
彼女は、コンピューターは客観的ではないと主張します。
それらは、それらを作成する人々の代理です。
21:09
You might know the word proxy when you
are using your computer in one country
275
1269040
4160
ある国でコンピュータを
21:13
and want to look at something that is
only available in a different country.
276
1273200
3680
使用していて、別の国でしか利用できないものを見たい場合、プロキシという言葉を知っているかもしれません。
21:16
You can use a piece of software
called a proxy to do that.
277
1276880
3440
そのために、プロキシと呼ばれるソフトウェアを使用できます。
21:20
But a proxy is also a person or a thing that
carries out your wishes and your instructions
278
1280320
6560
しかし、代理人は、
あなたの希望や指示をあなたに代わって実行する人または物でもあり
21:26
for you. So computers are only as smart or as
objective as the people that programme them.
279
1286880
7120
ます。 したがって、コンピュータは
、それをプログラムする人々と同じくらい賢く、客観的です。
21:34
Computers are proxies for their programmers.
Broussard says that believing too much in
280
1294720
6240
コンピューターはプログラマーの代理です。
Broussard 氏は、人工知能を信じすぎると世界が悪化する可能性があると述べています
21:40
Artificial Intelligence can make the
world worse. Let’s hear a bit more.
281
1300960
4720
。 もう少し聞いてみましょう。
21:45
This time find out what serious problems in
society does she think may be reflected in AI?
282
1305680
7520
今回
は、AI に反映される可能性があると彼女が考える社会の深刻な問題を見つけてください。
21:54
It’s a nuanced problem. What we
have is data on the world as it is
283
1314160
4960
微妙な問題です。 私たち
が持っているのは世界の現状に関するデータであり、現在、世界には
21:59
and we have serious problems with
racism, sexism, classism, ageism,
284
1319120
5680
人種差別、性差別、階級差別、年齢差別などの深刻
22:04
in the world right now so there is no such thing
as perfect data. We also have a problem inside the
285
1324800
6720
な問題があるため、完全なデータなどはありません
。 テクノロジーの世界にも問題が
22:11
tech world where the creators of algorithms do
not have sufficient awareness of social issues
286
1331520
8640
あります。アルゴリズムの作成者は
社会問題を十分に認識していない
22:20
such that they can make good technology that
gets us closer to a world as it should be.
287
1340160
6400
ため、あるべき世界に近づける優れたテクノロジーを作成できません。
22:27
She said that society has problems with
racism, sexism, classism and ageism.
288
1347680
6000
彼女は、社会には
人種差別、性差別、階級差別、年齢差別の問題があると述べました。
22:33
And she says it’s a nuanced problem. A nuanced
problem is not simple, but it does have small
289
1353680
6800
そして彼女は、それは微妙な問題だと言います。 微妙な
問題は単純ではありませんが、特定
22:40
and important areas which may be hard
to spot, but they need to be considered.
290
1360480
5040
するのが難しい小さな重要な領域があります
が、考慮する必要があります。
22:45
And she also talked about algorithms used
to program these technological systems.
291
1365520
5280
また、これらの技術システムをプログラムするために使用されるアルゴリズムについても話しました
。
22:50
An algorithm is a set of instructions
that computers use to perform their tasks.
292
1370800
4880
アルゴリズムとは、
コンピュータがタスクを実行するために使用する一連の命令です。
22:55
Essentially it’s the rules that they use
to come up with their answers and Broussard
293
1375680
4640
基本的に、それ
は彼らが答えを導き出すために使用するルールであり、Broussard
23:00
believes that technology will reflect the
views of those who create the algorithms.
294
1380320
4640
はテクノロジーが
アルゴリズムを作成した人々の見解を反映すると信じています。
23:04
Next time you're using a piece of software or your
favourite app you might find yourself wondering if
295
1384960
5120
次にソフトウェアやお気に入りのアプリを使用するときに
、
23:10
it's a useful tool or does it contain these little
nuances that reflect the views of the developer.
296
1390080
7120
それが便利なツールなのか、それとも
開発者の見解を反映したこれらの小さなニュアンスが含まれているのか疑問に思うかもしれません。
23:17
Right, Catherine. How about the
answer to this week's question then?
297
1397200
3280
そうです、キャサリン。 では、
今週の質問への回答はどうですか?
23:20
I asked in which decade was the term
'Artificial Intelligence' coined.
298
1400480
4480
私は、「人工知能」という用語が造られたのはどの 10 年間かを尋ねました
。
23:24
Was it the 40s, the 50s or the 60s?
299
1404960
2720
40代だったか50代だったか60代だったか
23:27
And I said the 60s.
300
1407680
1200
そして私は60年代と言った。
23:28
But it was actually the 1950s. Never mind,
Rob. Let’s review today’s vocabulary.
301
1408880
5840
しかし実際は1950年代。 気にしないで、
ロブ。 今日の語彙を復習しましょう。
23:34
Well, we had a chauvinist – that's
someone who believes their country,
302
1414720
4320
それは、
自分の国、
23:39
race or sex is better than any others.
303
1419040
2480
人種、性別が他の誰よりも優れていると信じている人です。
23:41
And this gives us technochauvinism,
304
1421520
2800
そして、これは私たちにテクノショービニズムをもたらします。これは
23:44
the belief that a technological solution
is always a better solution to a problem.
305
1424320
5040
、技術的な解決策
が常に問題に対するより良い解決策であるという信念です。
23:49
Next - someone or something that is
objective is neutral, fair and balanced.
306
1429360
5680
次 - 客観的な人または物
は、中立、公正、バランスがとれています。
23:55
A proxy is a piece of software but also someone
who does something for you, on your behalf.
307
1435040
6800
プロキシはソフトウェアの一部
ですが、あなたに代わって何かを行う人でもあります。
24:01
A nuanced problem is a subtle one, it’s
not a simple case of right or wrong,
308
1441840
5520
微妙な問題は微妙な問題であり、
正しいか間違っているかという単純なケースではありません。
24:07
in a nuanced problem there are small but
important things that you need to consider.
309
1447360
5360
微妙な問題には、小さいながら
も考慮する必要がある重要な事柄があります。
24:12
And an algorithm is a set of software
instructions for a computer system.
310
1452720
4320
アルゴリズムは
、コンピュータ システムに対する一連のソフトウェア命令です。
24:17
Well, that’s all we have time
for today. Goodbye for now.
311
1457040
3360
今日はここまで
です。 とりあえずさようなら。
24:20
Bye bye!
312
1460400
400
バイバイ!
24:28
Hello, welcome to 6 Minute English. I'm Rob.
313
1468720
2720
こんにちは、6 Minute English へようこそ。 私はロブです。
24:31
And I'm Catherine.
314
1471440
1280
そして私はキャサリンです。
24:32
So, Catherine, how long do
you spend on your smartphone?
315
1472720
3520
キャサリンさん、
スマートフォンをどのくらいの時間使っていますか?
24:36
My smartphone? Not that long
really, only about 18 or 19 hours.
316
1476240
5600
私のスマホ? それほど長くはありませ
んが、わずか 18 時間か 19 時間ほどです。
24:42
No, sorry, I meant in a day, not in a week.
317
1482400
2720
いいえ、申し訳ありませんが、1 週間ではなく 1 日でという意味でした。
24:45
Er, that's what I meant too, Rob – a day.
318
1485120
2320
ええと、それも私が意味したことです、ロブ – 一日。
24:48
Oh wow, so you’ve even got it right here…
319
1488080
3360
うわー、ここでもそれを手に入れました…
24:51
…yep, got it now, Rob. Yes, I should
tell you that I suffer from FOMO.
320
1491440
4560
…はい、今手に入れました、ロブ。 はい、私は
FOMO に苦しんでいることをお伝えしなければなりません。
24:56
FOMO?
321
1496800
1040
フォモ?
24:57
FOMO - Fear of Missing Out. Something cool or
interesting might be happening somewhere, Rob,
322
1497840
5600
FOMO - 見逃すことへの恐れ。 どこかでクールな、または
面白いことが起こっているかもしれません、ロブ、
25:03
and I want to be sure I catch it,
so I have to keep checking my phone,
323
1503440
3920
そして私はそれを確実にキャッチしたい
ので、何かを逃さないように、電話をチェックし続け
25:07
to make sure, you know, I
don’t miss out on anything.
324
1507360
2880
なければなり
ません。
25:10
So we could call you a phubber… Hello… I said,
325
1510880
4240
だから私たちはあなたをファバーと呼ぶことができました…こんにちは…私が言った
25:15
so you’re a phubber? Someone who ignores other
people because you’d rather look at your phone.
326
1515120
5200
ので、あなたはファバーですか?
自分の携帯電話を見たいという理由で他の人を無視する人。
25:21
Oh, yeah, that's right.
327
1521360
960
ええ、そうです。
25:22
It sounds like you have a bit of a problem
there, Catherine. But you’re not the only one.
328
1522880
5120
少し問題があるようですね
、キャサリン。 しかし、あなただけではありません。
25:28
According to one recent survey, half of teenagers
in the USA feel like they are addicted to their
329
1528000
5680
最近のある調査によると、米国の 10 代の若者の半数が携帯電話に
依存していると感じています
25:33
mobile phones. If you are addicted to something,
you have a physical or mental need to keep on
330
1533680
5520
。 何かに
夢中になっている場合は、身体的または精神的にそれを続ける必要があり
25:39
doing it. You can’t stop doing it. You often hear
about people being addicted to drugs or alcohol,
331
1539200
6320
ます。 あなたはそれをやめることはできません。
薬物やアルコールの依存症についてよく耳にし
25:45
but you can be addicted to other things too,
like mobile phones. So, Catherine, do you
332
1545520
5680
ますが、携帯電話など他のものにも依存する可能性があります
。 それで、キャサリン、
25:51
think you’re addicted to your phone? How long
could you go without it? Catherine? Catherine!
333
1551200
5520
あなたは携帯電話に依存していると思いますか? どれくらい
それなしで過ごせますか? キャサリン? キャサリン!
25:58
Sorry, Rob, yes, well I think
if I went more than a minute,
334
1558800
3760
すみません、ロブ、はい、そうです
、もし 1 分以上
26:02
I'd probably get sort of sweaty palms and
I think I'd start feeling a bit panicky.
335
1562560
3760
続けていたら、おそらく手のひらが汗ばんでいて
、少しパニックになり始めたと思います。
26:06
Oh dear! Well, if I can
distract you for a few minutes,
336
1566320
5280
まあ! では、少し気を紛らわせることができれば
26:11
can we look at this topic in more detail
please? Let's start with a quiz question
337
1571600
4160
、 このトピックについて詳しく見ていただけ
ますか? まずクイズの質問から始めましょう
26:15
first though. In what year did the term
‘smartphone’ first appear in print? Was it:
338
1575760
5440
。 「スマートフォン」という用語が
最初に印刷物に登場したのは何年ですか? それは:
26:21
a) 1995
339
1581200
1680
a) 1995年
26:22
b) 2000
c) 2005
340
1582880
3200
b) 2000年
c) 2005年
26:26
What do you think?
341
1586080
880
26:26
OK, you've got my full attention
now, Rob, and I think it’s 2000,
342
1586960
3840
どう思いますか?
了解しました、ロブさん、今は十分に注意を払っています
。2000 年だと思います
26:30
but actually can I just have a quick
look on my phone to check the answer?
343
1590800
3120
が、実際には
、携帯電話をちょっと見て答えを確認できますか?
26:33
No, no, that would be cheating – for
you – maybe not for the listeners.
344
1593920
3600
いいえ、いいえ、それはごまかし
です – あなたにとっては – リスナーにとってはそうではないかもしれません。
26:37
Spoilsport.
345
1597520
800
スポイルスポーツ。
26:39
Right, Jean Twenge is a psychologist who
has written about the damage she feels
346
1599280
5680
そうです、Jean Twenge は心理学者で
、スマートフォンが社会に与えていると感じているダメージについて書い
26:44
smartphones are doing to society. She has
written that smartphones have probably led
347
1604960
5200
ています。 彼女
は、スマートフォンが 10 代の若者の
26:50
to an increase in mental health problems for
teenagers. We’re going to hear from her now,
348
1610160
4880
メンタルヘルスの問題を増加させている可能性があると書いてい
ます。 BBC に話しかけて、彼女から話を聞く予定です
26:55
speaking to the BBC. What does she say is
one of the dangers of using our phones?
349
1615040
4800
。
電話を使用することの危険性の 1 つは何だと彼女は言いますか?
27:00
I think everybody’s had that experience
of reading their news feed too much,
350
1620480
4320
誰も
がニュース フィードを読みすぎて、
27:05
compulsively checking your phone if you’re
waiting for a text or getting really into
351
1625360
5600
メールを待っているときに携帯電話を強引にチェックしたり、ソーシャル メディアに
熱中したりして
27:10
social media then kind of, looking up
and realising that an hour has passed.
352
1630960
4320
、顔を上げ
て 1 時間が経過したことに気付いたという経験をしたことがあると思います。
27:16
So what danger does she mention?
353
1636720
2400
それで、彼女はどのような危険について言及していますか?
27:19
Well, she said that we can get so involved in
our phones that we don’t notice the time passing
354
1639120
5360
彼女は
、電話に没頭しすぎて時間の経過に気付かないことが
27:24
and when we finally look up, we
realise that maybe an hour has gone.
355
1644480
4160
あり、最後に見上げる
と、おそらく 1 時間が経過していることに気付くと言いました。
27:29
And I must say, I find that to be true for me,
especially when I'm watching videos online. They
356
1649360
5040
特に、オンラインで動画を見ているときはそうです。 彼らは
27:34
pull you in with more and more videos and I’ve
spent ages just getting lost in video after video.
357
1654400
5280
ますます多くのビデオであなたを
引き込みます。 もちろん
27:39
Well that's not a problem if
you're looking at our YouTube site,
358
1659680
2480
、私たちの YouTube サイトを見ているのであれば、それは問題ではありません
27:42
of course - there's lots to see there.
359
1662160
1520
。
27:43
Yes, BBC Learning English, no problem.
You can watch as many as you like.
360
1663680
3280
はい、BBC ラーニング イングリッシュ、問題ありません。
好きなだけ見ることができます。
27:47
Well, she talks about checking our phones
compulsively. If you do something compulsively you
361
1667760
6000
ええと、彼女は私たちの携帯電話を強迫的にチェックすることについて話しています
。 強迫的に何かをする場合、
27:53
can’t really control it - it’s a feature of being
addicted to something, you feel you have to do it
362
1673760
4960
それを本当にコントロールすることはできません。
これは、何かに夢中になっていることの特徴であり、何度も何度もやらなければなら
27:58
again and again. Some tech companies, though, are
now looking at building in timers to apps which
363
1678720
6080
ないと感じます。 ただし、一部のテクノロジー企業は
現在、アプリにタイマーを組み込むことを検討しています。これは、アプリに
28:04
will warn us when we have spent too long on them.
Does Jean Twenge think this will be a good idea?
364
1684800
5200
長い時間を費やした場合に警告を発します。
Jean Twenge はこれが良い考えだと思いますか?
28:10
It might mean that people look
at social media less frequently
365
1690960
2640
これは、人々が
ソーシャル メディアを見る頻度が減り、人々と連絡を取り合うためにソーシャル メディアを
28:14
and that they do what it really should be used
for, which is to keep in touch with people but
366
1694240
6000
実際に使用すべきことを行っていることを意味している可能性
28:20
then put it away and go see some of those
people in person or give them a phone call.
367
1700240
5040
がありますが、その後はソーシャル メディアを片付けて、そのような人々に直接会いに行っ
たり、電話を渡したりしています。 電話。
28:25
So, does she think it’s a good idea?
368
1705840
2320
それで、彼女はそれが良い考えだと思いますか?
28:28
Well, she doesn’t say so directly, but we
can guess from her answer that she does,
369
1708880
4720
彼女は直接そうは言いませんが
、彼女の答えからそう推測でき
28:33
because she says these timers will make people
spend more time in face-to-face interaction,
370
1713600
6000
ます。なぜなら、これらのタイマーによって、人々
は対面でのやり取りにより多くの時間を費やすようになると彼女は
28:39
which a lot of people think would be a good thing.
371
1719600
2240
言っているからです。 もの。
28:41
Yes, she said we should be using it for keeping in
touch with people - which means contacting people,
372
1721840
6160
はい、彼女は、人々と連絡を取り合うためにそれを使用すべきだと言いまし
た。つまり、人々と
28:48
communicating with them and also encouraging
us to do that communication in person. If you
373
1728000
5440
連絡を取り、彼らとコミュニケーションを取り、
そのコミュニケーションを直接行うよう奨励することを意味します。
28:53
do something in person then you physically do it –
you go somewhere yourself or see someone yourself,
374
1733440
5840
直接何かをする場合は、実際にそれを行い
ます。自分でどこかに行ったり、誰かに会っ
28:59
you don’t do it online or through your smartphone,
which nicely brings us back to our quiz question.
375
1739280
5840
たりします。オンラインやスマートフォンを介して行うことはありません。これで
、クイズの質問に戻ります。
29:05
When was the term smartphone first used in print
- 1995, 2000 or 2005? What did you say, Catherine?
376
1745120
8160
スマートフォンという用語が印刷物で最初に使用されたのは
いつですか - 1995 年、2000 年、または 2005 年? 何て言ったの、キャサリン? 電話で調べ
29:13
I think I said 2005, without
looking it up on my phone, Rob!
377
1753280
4720
ずに 2005 年と言ったと思います
、ロブ!
29:18
That's good to know, but maybe looking at your
phone would have helped because the answer was
378
1758000
4000
知っておくと便利
ですが、答えが 1995 年だったので、携帯電話を見ればよかったかもしれません
29:22
1995. But well done to anybody who did know that.
379
1762000
4240
。
29:26
Or well done to anyone who looked it up
on their phone and got the right answer.
380
1766240
3200
または
、携帯電話で検索して正しい答えを見つけた人に感謝します。
29:29
Mmm, right, before logging off
let’s review today’s vocabulary.
381
1769440
4480
そうですね、ログオフする前に、
今日の語彙を復習しましょう。
29:33
OK, we had FOMO, an acronym that means 'Fear of
Missing Out'. Something that I get quite a lot.
382
1773920
6400
OK、FOMO という頭字語がありました。これは「Fear of
Missing Out」を意味します。 私がかなり多く得るもの。
29:40
And that makes you also a phubber - people
who ignore the real people around them
383
1780320
4640
そして、それはあなたもファバーになります
29:44
because they are concentrating on their phones.
384
1784960
2240
。彼らは携帯電話に集中しているために、周囲の人々を無視します。
29:47
Yes, I do think I’m probably
addicted to my phone. I have a
385
1787200
3600
はい、おそらく
電話中毒だと思います。
29:50
psychological and physical need to
have it. My smartphone is my drug.
386
1790800
4640
精神的および肉体的にそれを必要とし
ています。 私のスマートフォンは私の薬です。
29:55
Wow, and you look at it compulsively.
You can’t stop looking at it,
387
1795440
3360
うわー、そしてあなたはそれを強迫的に見ます。
見るのをやめることは
29:58
you do it again and again, don't you?
388
1798800
1840
できません。何度も何度も見ていますね。
30:00
It's sadly true, Rob. To
keep in touch with someone
389
1800640
3280
悲しいことに本当です、ロブ。
誰かと連絡を取り合うと
30:03
is to contact them and share your news regularly.
390
1803920
3280
は、定期的に連絡を取り、ニュースを共有することです。
30:07
And if you do that yourself
by actually meeting them,
391
1807200
3040
そして、
実際に会って自分で
30:10
then you are doing it in person. And that
brings us to the end of today’s programme.
392
1810240
4640
行う場合は、直接会って行うことになります。 以上で
、今日のプログラムは終了です。 Facebook、Twitter、Instagram、YouTube など
30:14
Don’t forget you can find us on the usual
social media platforms – Facebook, Twitter,
393
1814880
4800
の通常のソーシャル メディア プラットフォームと、bbclearningenglish.com のウェブサイトで私たちを見つけることができることを忘れない
30:19
Instagram and YouTube - and on our website
at bbclearningenglish.com. Bye for now.
394
1819680
5600
でください。 またね。
30:25
Bye!
395
1825280
320
さよなら!
30:33
Hello. This is 6 Minute English
from BBC Learning English. I’m Neil.
396
1833280
4160
こんにちは。 これは
BBC Learning English の 6 Minute English です。 私はニールです。
30:37
And I’m Georgina.
397
1837440
1280
私はジョージナです。
30:38
Now, Georgina, what do you know about AC DC?
398
1838720
3760
さて、ジョージナさん、AC DCについて何を知っていますか?
30:42
You mean the Australian rock’n’roll band?
399
1842480
2640
オーストラリアのロックンロールバンドのことですか?
30:45
Well, their 1979 hit ‘Highway to
Hell’ stayed at No.1 for eleven weeks…
400
1845120
5520
まあ、彼らの 1979 年のヒット曲「Highway to
Hell」は 11 週間も 1 位にとどまりました…
30:51
No, no, no - not that AC DC, Georgina!
I’m not talking rock music here,
401
1851200
4880
いや、いや、いや、あの AC DC じゃないよ、Georgina!
ここではロック ミュージックについて話しているのではなく、
30:56
I’m talking electrical currents
– alternating current - AC,
402
1856080
4560
電流について話しています。
交流 - AC
31:00
and direct current - DC, the two
ways in which electricity flows.
403
1860640
4800
と直流 - DC の 2 つの
方法で電気が流れます。
31:05
Oh, I see. No, I don’t know
anything about that ACDC!
404
1865440
4560
ああなるほど。 いいえ、
その ACDC については何も知りません。
31:10
Well, don’t worry because in
today’s programme we’ll be
405
1870000
2720
心配しないでください。
今日のプログラムでは
31:12
finding out some quirky facts about
electricity - how it differs across
406
1872720
4640
、電気に関するいくつかの風変わりな事実を明らかにします。
世界中で電気がどのように異なるの
31:17
the world and why some countries have more
complicated electrical systems than others.
407
1877360
4920
か、国によっては
電気システムが他の国よりも複雑な理由などです。
31:22
Hmmm, I have noticed that when I
travel to another country I need a
408
1882280
4280
うーん、
別の国に旅行するとき
31:26
converter plug to connect my laptop.
Is that something to do with AC DC?
409
1886560
5440
、ラップトップを接続するために変換プラグが必要なことに気づきました。
それはAC DCと関係がありますか?
31:32
Yes, it could be. Of course, electricity
itself doesn’t change from country to country.
410
1892000
5200
はい、そうかもしれません。 もちろん、電力
自体は国によって変わるわけではありません。
31:37
No. It’s an invisible, natural force
at work in everything from lightning
411
1897200
4080
いいえ。それは
、
31:41
storms to the electrical sparks firing our brains.
412
1901280
3680
稲妻から脳に火をつける電気火花まで、目に見えない自然の力です。
31:44
But although it happens naturally, one scientist
was credited with discovering electricity.
413
1904960
5680
しかし、それは自然なことですが、ある科学者
が電気を発見したとされています。
31:50
Who? That’s my quiz question – who
discovered electricity? Was it:
414
1910640
4640
誰? これが私のクイズの質問
です。電気を発見したのは誰ですか?
31:55
a) Thomas Edison
415
1915280
1840
a) トーマス・エジソン
31:57
b) Alexander Graham Bell, or
c) Benjamin Franklin
416
1917120
4080
b) アレクサンダー・グラハム・ベル、または
c) ベンジャミン・フランクリン
32:02
I’m not a qualified electrician myself,
Neil, but I’ll say c) Benjamin Franklin.
417
1922000
5600
私自身は資格のある電気技師ではありません
が、ニール、c) ベンジャミン・フランクリンと言います。
32:07
OK. Well one person who definitely is a qualified
electrician is BBC presenter Gareth Mitchell. So
418
1927600
7280
わかった。 間違いなく資格のある電気技術者の 1 人は、
BBC プレゼンターのガレス ミッチェルです。 そのため
32:14
when BBC Radio 4’s ‘Science Stories’ sent
him to meet electricity expert Keith Bell,
419
1934880
5440
、BBC Radio 4 の「Science Stories」
が電気の専門家であるキース ベルに会うために彼を派遣したとき
32:20
the conversation was, shall we say, sparky.
420
1940320
2960
、会話は活発でした。
32:24
Standard frequency in the US is 60 hertz,
actually I think in the US on the mainland
421
1944480
4320
米国の標準周波数は 60 ヘルツです。
実際、米国本土の
32:28
US, main continent, there are
three different synchronous areas.
422
1948800
2960
米国では、主要大陸に
3 つの異なる同期地域があると思います。
32:32
So although it’s around 60 hertz, at any moment in
time these three different areas, because they’re
423
1952400
4160
したがって、約 60 ヘルツですが、
これらの 3 つの異なる領域は、
32:36
not connected to each other, will be going at a
slightly different frequency. There are bigger
424
1956560
4320
互いに接続されていないため、常に
わずかに異なる周波数で送信されます。 他にも大きな違いがあり
32:40
differences elsewhere. So in Japan for example, I
think one of the main islands is at 60 hertz and
425
1960880
6000
ます。 たとえば日本で
は、主要な島の 1 つが 60 ヘルツで
32:46
the other half of Japan is at 50 hertz.
That’s a bit of a pickle!
426
1966880
3040
、日本の残りの半分が 50 ヘルツだと思います。
それはちょっとしたピクルスです!
32:51
Generally speaking, frequency
means how often something repeats.
427
1971360
4320
一般的に言えば、頻度と
は何かが繰り返される頻度を意味します。
32:55
In the case of electrical currents, frequency is
428
1975680
2880
電流の場合、周波数
32:58
the number of times an electrical wave
repeats a positive-to-negative cycle.
429
1978560
5040
は 電波
がプラスからマイナスへのサイクルを繰り返す回数です。
33:03
It’s measured in hertz (Hz). In the US power is
at 60 hertz and in the UK it’s around 50 hertz.
430
1983600
7520
ヘルツ (Hz) で測定されます。 米国の電力
は 60 ヘルツで、英国では約 50 ヘルツです。
33:11
So the US and UK are not in the same synchronous
431
1991120
3520
そのため、米国と英国は同じ同期
33:14
area – not occurring together at the same
time and rate, or in this case, frequency.
432
1994640
5680
領域にありません。同時に同じ
時間と速度、またはこの場合は頻度で発生していません。
33:20
Which means that to safely use a
British electrical device in America,
433
2000320
4320
つまり、
英国の電気機器をアメリカで安全
33:25
I need to convert the power supply. If not
it won’t work or even worse, it could break.
434
2005200
5760
に使用するには、電源を変換する必要があります。 そうしない
と機能しません。さらに悪いことに、壊れる可能性があります。
33:30
And a broken laptop could leave you
in a bit of a pickle – an informal
435
2010960
4080
また、ラップトップが壊れている
と、窮地に
33:35
expression meaning a difficult situation with no
436
2015040
3040
立たされる可能性があります。これは、明白な答えのない困難な状況を意味する非公式な表現
33:38
obvious answer. Here’s Gareth and Keith
again talking about more differences.
437
2018080
4960
です。 ここでガレスとキースが
再び、さらなる違いについて話しています。
33:44
I’m pretty sure when I go to the United States,
my electric toothbrush doesn’t charge up
438
2024560
6560
米国に行くと、
私の電動歯ブラシは
33:51
at 60 hertz - 110 volts, but my laptop
still works. Maybe you have no comment,
439
2031120
5360
60 ヘルツ - 110 ボルトで充電されませんが、ラップトップは
まだ動作します。 キース、あなたはコメントしていないかもしれません
33:56
Keith, but I’m just saying…one of these
anomalies that I seem to have found.
440
2036480
4000
が、私が言っているのは…
私が見つけたと思われるこれらの異常の 1 つです。
34:00
So, I’m not sure about the electric toothbrush
but I know a lot of our power supplies for
441
2040480
3920
電動歯ブラシについては
よくわかりませ
34:04
laptops and stuff are solid state, you know
- they’ve got electronics in that do all the
442
2044400
5200
んが、ラップトップなどの電源の多くがソリッド ステートであることは
知っています。すべての変換を行う電子機器が内蔵されている
34:09
conversion for you, so basically it ends up with
a DC supply into the machine itself. So there’s
443
2049600
5360
ので、基本的にはそれで終わりです。
マシン自体に DC 電源を接続します。 そのため、そこ
34:14
a little converter in there and it’s designed so
it doesn’t care what frequency the AC input is.
444
2054960
4880
には小さなコンバーターがあり
、AC 入力の周波数を気にしないように設計されています。
34:21
Gareth noticed that in the United
States his toothbrush doesn’t always
445
2061280
3840
ガレスは、
米国では歯ブラシが常に
34:25
fully charge up – get the
power needed to make it work.
446
2065120
4000
完全に充電されているとは限らないことに気付きました
。動作に必要な電力が得られます。
34:29
Electric toothbrushes which don’t fully charge
and differences between electrical frequencies
447
2069120
5600
完全に充電されない電動歯ブラシ
と電気周波数の違い は
34:34
are good examples of anomalies – things which
are different from what is usual or expected.
448
2074720
5920
、異常の良い例です
。これは、通常または予想されるものとは異なります。
34:40
But with modern technology these
anomalies are becoming less and less
449
2080640
4400
しかし、現代の技術により、これらの
異常はますます一般的ではなくなりつつあり
34:45
commonplace. For example, computer
companies have started making laptops with
450
2085040
5120
ます。 たとえば、コンピュータ
会社は、
34:50
solid state electronics – electronics using
semiconductors which have no moving parts
451
2090160
6000
ソリッド ステート エレクトロニクス(
可動部分がなく
34:56
and can automatically convert
different electrical currents.
452
2096160
3520
、
さまざまな電流を自動的に変換できる半導体を使用するエレクトロニクス)を搭載したラップトップの製造を開始しました。 つまり
34:59
Meaning I can use my laptop to google
the answer to your quiz question!
453
2099680
4160
、ラップトップを使用して
、クイズの質問に対する答えをググることができます。
35:03
Ah, yes. I asked you which scientist was credited
with discovering electricity. And you said?
454
2103840
5840
あ、はい。 電気を発見したと信じられている科学者は誰かと尋ねました
。 そして、あなたは言いましたか?
35:09
c) Benjamin Franklin – and I already know
I’m right because I googled it on my solid
455
2109680
5200
c) ベンジャミン・フランクリン –
ソリッド ステート ラップトップでググったので、自分が正しいことはすでにわかってい
35:14
state laptop! To show that lightning was
electricity, Franklin attached a metal key
456
2114880
5840
ます。 雷が電気であることを示すために
、フランクリンは金属製の鍵
35:20
to a kite and flew it during a thunderstorm. The
key conducted electricity and gave him a shock!
457
2120720
6240
を凧に取り付け、雷雨の中で飛ばしました。
鍵が電気を通し、彼にショックを与えました!
35:26
Hmm, not an experiment I recommend trying
at home! Today we’ve been talking about
458
2126960
5760
うーん、自宅で試すことをお勧めする実験ではありません
。 今日は、国間の電流の異常、または予想外の違いについてお話してきました
35:32
anomalies – or unexpected differences in
electrical currents between countries.
459
2132720
4560
。
35:38
Electrical currents are measured in
frequencies – the number of times
460
2138000
4000
電流は周波数で測定され
ます。これは
35:42
a wave repeats a positive-to-negative cycle.
These can be different if two countries are
461
2142000
5520
、波が正から負のサイクルを繰り返す回数です。
2 つの国が同期していない場合、これらは異なる可能性があります
35:47
not synchronous – occurring at the same rate,
for example Britain and the United States.
462
2147520
5760
。たとえば、英国と米国のように、同じ割合で発生しています。
35:53
Different frequencies may mean your
electrical devices like your laptop,
463
2153920
4400
周波数が異なると
、ラップトップ、電話、歯ブラシなどの電気機器
35:58
phone and toothbrush won’t properly charge up –
get the power to function, in other countries.
464
2158320
5120
が適切に充電されない可能性があります
。他の国では、電源が機能します。
36:04
And having a phone with no power could leave you
in a bit of a pickle - a difficult situation.
465
2164160
5680
また、電源のない電話を使用する
と、ちょっと困った状況に陥る可能性があります。これは難しい状況です。
36:09
Fortunately many modern devices use
solid state electronics – non-moving
466
2169840
5120
幸いなことに、多くの最新のデバイスは
ソリッド ステート エレクトロニクスを使用して
36:14
semiconductors inside the machine which
automatically convert the electrical current.
467
2174960
5200
います。これは、マシン内の動かない半導体であり
、電流を自動的に変換します。 6
36:20
So you’ll never miss another
edition of 6 Minute English again!
468
2180160
3840
Minute English の別のバージョンを見逃すことはもうありませ
ん。
36:24
That’s all for today. See you soon at BBC Learning
469
2184000
2560
それが今日のすべてです。 BBC Learning
36:26
English for more interesting topics
and related vocabulary. Bye for now!
470
2186560
7960
English で、さらに興味深いトピック
や関連語彙についてお会いしましょう。 またね!
36:34
Bye!
471
2194520
360
さよなら!
36:39
Hello I'm Rob and this is 6 Minute
English – a programme that brings you
472
2199040
4480
こんにちは、Rob です。これは 6 Minute English です。これは
36:43
an interesting topic, authentic listening practice
473
2203520
3120
、興味深いトピック、本格的なリスニングの練習
36:46
and some vocabulary to help you improve your
language skills. Joining me today is Neil.
474
2206640
5280
、語学力の向上に役立つ語彙を提供するプログラムです
。 今日はニールです。
36:51
Hello. And today we're discussing those pilotless
475
2211920
2880
こんにちは。 そして今日、私たちは現在多くの
36:54
aircraft that we seem to be hearing
and reading a lot about at the moment.
476
2214800
3760
ことを聞い
たり読んだりしていると思われる無人航空機について議論しています。
36:58
You mean drones. And yes, they are in the
news quite often for good and bad reasons.
477
2218560
4880
ドローンのことです。 はい、
良い理由も悪い理由もあり、頻繁にニュースに取り上げられます。
37:04
They've been used for many things from smuggling
drugs, detecting water leaks and surveillance.
478
2224160
5600
それらは
、麻薬の密輸、水漏れの検出、監視など、さまざまな目的で使用されてきました。
37:09
And surveillance – that means ‘the
act of carefully watching someone or
479
2229760
4320
監視 – これは、「
誰かまたは何かを注意深く監視する行為
37:14
something’ – perhaps a criminal – but also
it means spying, maybe on me and you Rob?
480
2234080
5760
」を意味します – おそらく犯罪者 – しかし
、それはまた、私とあなたのロブをスパイすることを意味しますか?
37:19
So should we be welcoming the
rise of the use of drones?
481
2239840
3360
では
、ドローンの使用の増加を歓迎すべきでしょうか?
37:23
Well, before our discussion
about that 'takes off',
482
2243200
2720
さて、それについての議論を始める前
37:25
we need to set today's question
for you to answer, Neil.
483
2245920
2640
に 今日の質問
に答えてもらう必要があります、ニール。
37:29
What are you droning on about Rob? And by
that I don't mean ‘flying a drone’ – I mean
484
2249120
4800
ロブの何を馬鹿にしてるの?
これは「ドローンを飛ばす」という意味ではなく、「
37:33
‘talking too much in a very boring way’!
485
2253920
2800
非常に退屈な話し方をする」という意味です。
37:36
Thanks Neil. Now just answer this, will you?
486
2256720
2560
ありがとうニール。 では、これに答えてください。
37:39
Drones are sometimes also referred to as
UAVs. So, what does UAV stand for? Is it…
487
2259280
7600
ドローンは UAV と呼ばれることもあり
ます。 では、UAV とは何の略でしょうか。 それは…
37:46
a) Unidentified aerial vehicle
488
2266880
3360
a) 未確認の航空機
37:50
b) Unmanned aerial vehicle
c) Unaided aircraft vehicle
489
2270240
5840
b) 無人航空機
c) 無人航空機
37:56
Well, I'm going to go for
b) unmanned aerial vehicle.
490
2276080
3680
では、
b) 無人航空機に行きます。
37:59
Ok well, we'll see if you're right later
on. Now let's talk more about drones,
491
2279760
5120
わかりました。あなたが正しいかどうかは後でわかります
。 では、ドローンについて詳しく話しましょう
38:04
which, apparently, seem to be everywhere now.
492
2284880
2800
。 今ではどこにでもあるようです。
38:08
But are they safe and are they
necessary? I've heard about them
493
2288240
3840
しかし、それらは安全で
必要なのですか? 空港の近くを飛行している
38:12
being a hazard to aircraft because
they've been flown close to airports.
494
2292080
3840
ため、航空機に危険を及ぼすと聞いたことがあります
。
38:15
Well, figures in 2016 showed that in the UK
there were 70 near misses involving drones.
495
2295920
6720
2016 年の数字によると、英国
ではドローンが関与するニアミスが 70 件ありました。
38:22
And that's more than double the year
before. So that is a little worrying.
496
2302640
3920
これは前年の 2 倍以上です
。 それは少し心配です。
38:27
Yes. And there's the potential
risk of people's privacy being
497
2307120
3120
はい。 また
38:30
invaded when a drone is flown over their
property with a camera attached to it.
498
2310240
4160
、ドローン
にカメラを取り付けた状態で所有地の上空を飛行すると、人々のプライバシーが侵害される潜在的なリスクがあります。
38:34
Ah, but those cameras are also
good at capturing some great
499
2314400
3440
ああ、でもこれらのカメラは
素晴らしい
38:37
aerial footage – that's the film recording
of the view from the above the ground. So
500
2317840
5040
空撮映像を撮るのも得意
です。それは地上からの景色を記録したフィルムです。 つまり
38:42
they're not all bad. And Dr Yoge Patel would
agree. She is CEO of Blue Bear, which supplies
501
2322880
6560
、すべてが悪いわけではありません。 Yoge Patel 博士も
同意するでしょう。 彼女は、無人飛行機とドローンを供給する Blue Bear の CEO です
38:49
unmanned planes and drones. Here she is speaking
about drones on the BBC's Woman's Hour programme…
502
2329440
6080
。 ここで彼女は
、BBC のウーマンズ アワー プログラムでドローンについて話しています…ドローン
38:55
They have the potential to be dangerous,
agreed. They also have though, on the flip side,
503
2335520
5120
は危険になる可能性があると
同意しました。 一方で
39:00
the ability to be a game changer in
both domestic use and in military use.
504
2340640
6240
、
家庭用と軍事用の両方でゲームチェンジャーになる能力もあります。
39:06
So, some of our drones are being used for aircraft
inspections. We've put our drones into Fukushima.
505
2346880
4560
そのため、一部のドローンは航空機の検査に使用されてい
ます。 私たちはドローンを福島に投入しました。
39:12
So there you go Neil. There are
many useful things drones can do,
506
2352080
4240
それでは、ニールに行きましょう。
ドローンには多くの便利な機能があり、パテル博士は、ドローンにはゲームチェンジャーになる能力
39:16
and Dr Patel said they have the
ability to be a game changer.
507
2356320
4000
があると述べてい
ます。
39:20
And by that you mean ‘something that completely
508
2360320
2080
つまり、「何かのやり方や考え方を完全に変える何か」という意味
39:22
changes the way something
is done or thought about’.
509
2362400
2800
です。
39:25
Yes. Her company has used drones to
inspect the inside of the damaged
510
2365200
4400
はい。 彼女の会社はドローンを使用して
、損傷
39:29
Fukushima nuclear power station in Japan.
And another example of drones being a game
511
2369600
5280
した 日本の福島原子力発電所の内部を調査しました。
また、ドローンがゲームチェンジャーであるもう 1 つの例
39:34
changer is UNICEF and the Malawian government
testing drones for carrying medical supplies.
512
2374880
5760
は、ユニセフとマラウイ政府
が医療物資を運ぶためにドローンをテストしています。
39:40
This could help save lives in remote places.
And I have read that in Australia,
513
2380640
4400
これは、遠隔地で命を救うのに役立ちます。
また、オーストラリアでは
39:45
lifeguards are using drones to help rescue
swimmers who get in trouble in the sea.
514
2385040
4560
ライフガードがドローンを使用
して、海でトラブルに巻き込まれたスイマーを救助しているという記事を読みました。
39:49
And have you heard about a Japanese firm that's
planning to use a drone to force employees
515
2389600
5280
また、日本企業が
ドローンを使用して、従業員が夜に残業する場合に
39:54
out of their offices by playing music at
them if they stay to work evening overtime.
516
2394880
5120
音楽をかけて強制的にオフィスから追い出す計画を立てて
いることを聞いたことがありますか。
40:00
I haven't, but you've convinced me – it seems
like the sky's the limit for the uses of drones!
517
2400000
5120
私はそうではありませんが、あなたは私を納得させました –
ドローンの使用には無限の限界があるようです!
40:05
I mean there's no limit to what they can do. But I
518
2405120
3040
つまり、彼らができることに制限はありません。 しかし、
40:08
am a little concerned about how
they are regulated or controlled.
519
2408160
3520
私は
それらがどのように規制または管理されているかについて少し心配しています。
40:11
Well Dr Yoge Patel says
because the technology is new,
520
2411680
3760
Yoge Patel 博士は
、この技術は新しいため、
40:15
regulations – or legal controls
- are developing all the time…
521
2415440
4000
規制、または法的
規制は常に発展していると述べています
40:20
As technology progresses, regulation
and operational use needs to then be
522
2420400
4800
…技術が進歩するにつれて、規制
と運用上の使用はそれと調和する必要があります
40:25
harmonised with it. And we are, as a community,
going through that whole process of saying
523
2425200
5040
。 そして、私たちはコミュニティとして、
40:30
what is proportionate and appropriate
regulation to go with different uses of drones.
524
2430240
6480
ドローンのさまざまな用途に対応するための比例的で適切な規制とは何かを述べるプロセス全体を経ています。
40:36
So she talked about regulations being
harmonised as technology progresses.
525
2436720
4480
そこで彼女は
、技術の進歩に伴って規制が調和されることについて話しました。
40:41
So I think she means ‘making regulations
suitable and appropriate for what the drones
526
2441200
4800
つまり、彼女は「ドローンの用途に適した適切な規制を作る」ことを意味していると思います
40:46
are being used for’. So they need some control,
but not so they can't be useful and effective.
527
2446000
5600
。 そのため、ある程度の制御は必要
ですが、有用で効果的なものにはなりません。
40:51
Like flying drones to stop you working late!
528
2451600
2400
ドローンを飛ばして残業を止めるように!
40:54
Now Rob, I'm dying to know what
the other name for a drone is.
529
2454560
2880
ロブ、ドローンの別名が何なのか知りたくてたまりません
。
40:57
OK, let me tell you. So earlier I
asked what does UAV stand for? Was it…
530
2457440
5360
わかりました、教えてください。 先ほど、
UAV とは何の略ですかと尋ねました。 それは…
41:02
a) Unidentified aerial vehicle
531
2462800
2720
a) 未確認の航空機
41:05
b) Unmanned aerial vehicle
c) Unaided aircraft vehicle
532
2465520
5040
b) 無人航空機
c) 無人航空機
41:11
And I said b) – was that correct?
533
2471120
2240
そして私は b) と言いました – 正しかったですか?
41:13
Yes Neil, you know your drones – that's correct.
Well done. UAVs or drones have been around for
534
2473920
6320
はい、ニール、あなたはドローンを知っています - その通りです。
素晴らしい。 UAV やドローンは
41:20
quite a while in different forms.
It's thought they were first used
535
2480240
3840
、さまざまな形でかなり前から存在しています。
それらは軍人
41:24
for providing practice targets for
training military personnel. OK Neil,
536
2484080
4720
を訓練するための練習目標を提供するために最初に使用されたと考えられてい
ます。 OK ニール、監視から始めて、
41:28
let's quickly go over some of the vocabulary we
have mentioned today, starting with surveillance.
537
2488800
5040
今日言及した語彙のいくつかを簡単に見ていきましょう
。
41:34
"The police kept the jewellery shop
under surveillance because they had
538
2494480
3520
「強盗の情報があったため、警察は宝石店
を監視下に置いていまし
41:38
a tip-off about a robbery." So that means
‘carefully watching someone or something,
539
2498000
4640
た。」 つまり、
「誰かまたは何かを注意深く監視し、
41:42
usually to try to stop something illegal’.
540
2502640
2720
通常は違法なことを止めようとする」という意味です。
41:46
Then we mentioned aerial footage –
that's film recording made from the sky.
541
2506160
4240
次に、航空映像について言及
しました。これは、空から撮影されたフィルム レコーディングです。
41:50
"The aerial footage on TV of the
dolphins swimming was spectacular."
542
2510960
4080
「イルカが泳いでいるテレビの空撮映像
は壮観でした。」
41:55
Yes, drones have been a game changer
for wildlife programmes on TV.
543
2515040
4480
はい、ドローンは
テレビの野生生物番組のゲーム チェンジャーです。
41:59
That means ‘something that completely changes
the way something is done or thought about’.
544
2519520
4800
これは、「何かのやり方や考え方を完全に変えるもの」を意味します
。
42:04
We also mentioned the phrase 'the sky's
the limit', meaning ‘there's no limit
545
2524320
3920
また、「何かに制限はない」という意味の「the sky's the limit」というフレーズについても触れました
42:08
to something’. "The sky is the limit to what
professional footballers can earn these days."
546
2528240
4800
。 「空は、
最近プロのサッカー選手が獲得できるものの限界です。」
42:13
Then we discussed harmonised – that describes
two things being suitable for each other to
547
2533040
4800
次に、調和について説明しました。これは、
2 つのものが適切に機能するために互いに適していることを意味し
42:17
allow them to work properly. "The garden has been
designed to harmonise with the natural landscape."
548
2537840
5600
ます。 「庭園は
自然の風景と調和するように設計されています。」
42:24
Very useful vocabulary, Neil. But let's
stop droning on – and that means ‘talking
549
2544560
4640
とても役に立つ語彙、ニール。 しかし、うそをつくのはやめましょう。
これは「退屈な話し方をしすぎる」という意味です。そして
42:29
too much in a boring way’ - and remind
everyone to check out our You Tube,
550
2549200
4160
、You Tube、
42:33
Facebook, Twitter and Instagram
pages – and of course, our website
551
2553360
3840
Facebook、Twitter、Instagram
ページ、そしてもちろん、
42:37
at bbclearningenglish.com.
See you next time. Goodbye.
552
2557200
3600
bbclearningenglish.com のウェブサイトもチェックしてください。
またね。 さようなら。
42:40
Goodbye
553
2560800
480
さようなら
42:49
Hello. This is 6 Minute English, I'm Neil.
554
2569360
2560
こんにちは。 これは 6 分間の英語です。私はニールです。
42:51
And I'm Sam.
555
2571920
800
私はサムです。
42:52
It’s good to see you again, Sam.
556
2572720
1760
またお会いできて光栄です、サム。
42:54
Really?
557
2574480
880
本当に?
42:55
Yes, of course, can’t you
tell by the way I’m smiling?
558
2575360
2960
はい、もちろん、
私の笑顔でわかりませんか?
42:58
Ah well, I find it difficult to tell if someone
is really smiling or if it’s a fake smile.
559
2578960
5760
ええと、誰か
が本当に笑っているのか、それとも作り笑いなのかを判断するのは難しいと思います。
43:04
Well, that’s a coincidence because today’s
programme is all about how computers may
560
2584720
4560
そうですね、これは偶然です。なぜなら、今日の
プログラムはすべて、コンピュータが人間
43:09
be able tell real smiles from fake smiles better
than humans can. Before we get in to that though,
561
2589280
6400
よりも本物の笑顔と作り物の笑顔を区別できる可能性があるから
です。 その前
43:15
a question. The expressions we can make
with our face are controlled by muscles.
562
2595680
5040
に質問です。
顔で表現できる表情は、筋肉によって制御されています。
43:20
How many muscles do we have in our face? Is it:
563
2600720
2960
私たちの顔にはいくつの筋肉がありますか?
43:23
A: 26
564
2603680
1680
A: 26
43:25
B: 43
C: 62
565
2605360
2800
B: 43
C: 62
43:28
What do you think, Sam?
566
2608160
880
どう思いますか、サム?
43:29
No idea! But a lot, I’d
guess, so I’m going with 62.
567
2609600
4880
わからない! でもたくさんあると
思うので、62 にします
43:34
OK. Well, we’ll see if you’ll be smiling or
crying later in the programme. Hassan Ugail is a
568
2614480
5600
。OK。 番組の後半で、あなたが笑ったり泣いたりするかどうかを確認します
。 Hassan Ugail は、ブラッドフォード
43:40
professor of visual computing at the University of
Bradford. He’s been working on getting computers
569
2620080
5680
大学のビジュアル コンピューティングの教授です
。 彼は、コンピューター
43:45
to be able to recognise human emotions from the
expressions on our face. Here he is speaking on
570
2625760
6480
が顔の表情から人間の感情を認識できるようにすることに取り組ん
でいます。 ここで彼は
43:52
the BBC Inside Science radio programme –
how successful does he say they have been?
571
2632240
5600
BBC インサイド サイエンスのラジオ番組で講演し
ています。彼は、彼らがどれほど成功したと言っていますか?
43:57
We've been working quite a lot on
the human emotions, so the idea is
572
2637840
3680
私たちは人間の感情について多くのことを研究してきました
。そのため、顔に反映される
44:01
how the facial muscle movement,
which is reflected on the face,
573
2641520
4720
顔面の筋肉の動きがどのように
44:06
through obviously a computer through video
frames and trying to understand how these
574
2646240
4080
ビデオ フレームを通じてコンピュータを介して
、これらの筋肉の動きが実際にどのように顔の表情に関連しているかを理解しようとしていることが考えられ
44:10
muscle movements actually relate to facial
expressions and then from facial expressions
575
2650320
5120
ます。 そして表情から
44:15
trying to understand the emotions or to infer the
emotions. And they have been quite successful in
576
2655440
5200
感情を理解しようとしたり、感情を推測したりし
ます。 そして、彼らはそれを行うことに非常に成功し
44:20
doing that. We have software that can actually
look at somebody's face in real time and then
577
2660640
5680
ています。
誰かの顔を実際にリアルタイムで見て、
44:26
identify the series of emotions that
person is expressing in real time as well.
578
2666880
4960
その人が表現している一連の感情も
リアルタイムで識別できるソフトウェアがあります。
44:32
So, have they been successful in
getting computers to identify emotions?
579
2672480
4800
では、コンピュータに感情を識別させることに成功したの
でしょうか?
44:37
Yes, he says they’ve been quite successful,
and what’s interesting is that he says that
580
2677280
4880
はい、彼らは大成功を収めたと彼は言います。
そして興味深いのは
44:42
the computers can do it in real time. This means
that there’s no delay. They don’t have to stop and
581
2682160
7520
、コンピュータはそれをリアルタイムで実行できるということです。 これは
、遅延がないことを意味します。
44:49
analyse the data, or crunch the numbers,
they can do it as the person is talking.
582
2689680
5520
立ち止まってデータを分析したり、数字を処理したりする必要はありません
。話している間に行うことができます。
44:55
The system uses video to analyse a person’s
expressions and can then infer the emotions.
583
2695200
6080
システムは動画を使用して人物の表情を分析し
、感情を推測できます。
45:01
To infer something means to get an understanding
of something without actually being told directly.
584
2701280
5680
何かを推測するとは、
実際に直接言われなくても何かを理解することを意味します。
45:06
So, you look at available information and use your
585
2706960
2560
そのため、利用可能な情報を見て、
45:09
understanding and knowledge
to work out the meaning.
586
2709520
2400
理解と知識
を使って意味を理解します。
45:12
It’s a bit like being a detective,
isn’t it? You look at the clues
587
2712480
3680
まるで探偵のよう
ですね。 すべての詳細を把握していなくても、手がかりを見て、
45:16
and infer what happened even if
you don’t have all the details.
588
2716160
3920
何が起こったのかを推測し
ます。
45:20
Yes, and in this case the computer looks
at how the movement of muscles in the face
589
2720080
4320
はい。この場合、コンピューターは
、顔の筋肉の動き
45:24
or facial muscles, show different
emotions. Here’s Professor Ugail again.
590
2724400
4560
や顔の筋肉がどのように異なる感情を示しているかを調べ
ます。 再びウガイル教授です。
45:29
We've been working quite a lot on the human
emotions so the idea is how the facial muscle
591
2729520
5520
私たちは人間の感情についてかなり研究してきました。
そのため、顔の筋肉の動きがどのように
45:35
movement, which is reflected on the face,
through obviously a computer through video
592
2735040
4800
顔に反映されるかを考え、
ビデオ フレームを通じてコンピューターを介して
45:39
frames and trying to understand how these muscle
movements actually relate to facial expressions
593
2739840
5680
、これらの筋肉の動きが実際にどのように顔の表情に関係しているかを理解しようとしています。
45:45
and then from facial expressions trying to
understand the emotions or to infer the emotions.
594
2745520
4720
次に、感情を理解しようと
する、または感情を推測しようとする表情から。
45:50
And they have been quite successful in doing
that. We have software that can actually
595
2750800
4480
そして、彼らはそれを行うことに非常に成功して
います。
45:55
look at somebody's face in real time and then
identify the series of emotions that person is
596
2755280
6320
誰かの顔を実際にリアルタイムで見て、
その人が表現している一連の感情も
46:01
expressing in real time as well.
So, how do the computers know
597
2761600
4560
リアルタイムで識別できるソフトウェアがあります。
では、コンピュータはどのようにし
46:06
what is a real or a fake smile? The
computers have to learn that first.
598
2766160
4560
て本物の笑顔と作り物の笑顔を判別するのでしょうか?
コンピュータはまずそれを学習する必要があります。
46:11
Here’s Professor Ugail again
talking about how they do that.
599
2771680
3840
これは、Ugail 教授
がその方法について話しているところです。
46:15
We have a data set of real smiles and
we have a data set of fake smiles.
600
2775520
4240
本物の
笑顔のデータ セットと、作り物の笑顔のデータ セットがあります。
46:19
These real smiles are induced smiles in a lab.
So, you put somebody on a chair and then show
601
2779760
5120
これらの本当の笑顔は、研究室で誘発された笑顔です。
つまり、誰かを椅子に座らせ
46:24
some funny movies and we expect
the smiles are genuine smiles.
602
2784880
4320
て面白い映画を見せた場合
、その笑顔は本物の笑顔であることが期待されます。
46:29
And similarly we ask them to pretend to smile.
So, these are what you'd call fake smiles. So,
603
2789200
5040
同様に、笑顔のふりをしてもらいます。
だから、これらはあなたが偽の笑顔と呼ぶものです. そのため、
46:34
what we do is we throw these into the machine
and then the machine figures out what are the
604
2794240
5360
私たちはこれらを機械に投げ込み、機械
46:39
characteristics of a real smile and what
are the characteristics of a fake smile.
605
2799600
4240
は本当の
笑顔の特徴と作り笑いの特徴を判断します。
46:44
So, how do they get the data that
the computers use to see if your
606
2804560
3920
では
、コンピュータがあなたの笑顔が作り物か本物かを判断するために使用するデータをどのように取得
46:48
smile is fake or genuine – which
is another word which means real?
607
2808480
3680
するのでしょうか?
46:52
They induce real smiles in the lab by showing
people funny films. This means that they make
608
2812800
6320
彼らは人々に面白い映画を見せることで、研究室に本当の笑顔をもたらし
ます。 これは、
46:59
the smiles come naturally. They assume that the
smiles while watching the funny films are genuine.
609
2819120
6320
自然に笑顔が生まれることを意味します。 彼らは
、面白い映画を見ているときの笑顔が本物だと思い込んでいます。
47:05
And then they ask the people to pretend to
smile and the computer programme now has a
610
2825440
4240
そして、人々に笑顔のふりをするように依頼する
と、コンピュータ プログラム
47:09
database of real and fake smiles and
is able to figure out which is which.
611
2829680
4240
は本物の笑顔と作り物の笑顔のデータベースを持ち、
どれがどれであるかを判断できるようになります。
47:14
Figure out means to calculate
and come to an answer
612
2834640
3360
計算することを意味し
、答えにたどり着きます。
47:18
Yes, and apparently the system
gets it right 90% of the time,
613
2838000
3520
そうです。どうやらシステム
は 90% の確率で正しく答えており、
47:21
which is much higher than we humans can. Right,
well before we remind ourselves of our vocabulary,
614
2841520
6000
これは私たち人間よりもはるかに高い確率です。
そうですね、語彙を思い出す前
47:27
let’s get the answer to the question. How
many muscles do we have in our face? Is it:
615
2847520
5040
に、質問の答えを見てみましょう。
顔にはいくつの筋肉がありますか?
47:32
A: 26
616
2852560
1200
A: 26
47:33
B: 43
C: 62
617
2853760
2960
B: 43
C: 62
47:36
Sam, are you going to be
smiling? What did you say?
618
2856720
2000
サム、
ほほえむ? 何って言ったの?
47:39
So I thought 62! Am I smiling, Neil?
619
2859440
2640
だから私は62だと思った! 私は笑っていますか、ニール?
47:42
Sadly you are not, you are using different
muscles for that sort of sad look!
620
2862080
5520
残念ながら、あなたはそうではありません。
そのような悲しげな表情のために別の筋肉を使用しています!
47:48
Actually the answer is 43. Congratulations to
anyone who got that right. Now our vocabulary.
621
2868800
5840
実際の答えは 43 です。正解した方、おめでとうござい
ます。 今私たちの語彙。
47:54
Yes – facial is the adjective relating to face.
622
2874640
3760
はい - フェイシャルは顔に関する形容詞です。
47:58
Then we had infer. This verb
means to understand something
623
2878400
4160
次に、推測しました。 この動詞
は、
48:02
even when you don’t have all the information,
and you come to this understanding based
624
2882560
4160
すべての情報を持っていなくても何かを理解することを意味
48:06
on your experience and knowledge, or in
the case of a computer, the programming.
625
2886720
4240
し、経験と知識、または
コンピューターの場合はプログラミングに基づいてこの理解に至ります。
48:11
And these computers work in real time,
which means that there’s no delay
626
2891600
4320
そしてこれらのコンピュータはリアルタイムで動作
するため、遅延がなく
48:16
and they can tell a fake smile from a genuine one,
which means a real one, as the person is speaking.
627
2896480
5520
、人が話しているときに作り笑いと本物の笑顔を見分けることができます
。
48:22
They made people smile, or as the Professor
said, they induced smiles by showing funny films.
628
2902560
5760
彼らは人々を笑顔にしたり、教授が
言ったように、面白い映画を見せて笑顔を誘発したりしました。
48:28
And the computer is able to figure out or
calculate whether the smile is fake or genuine.
629
2908320
6240
そしてコンピューターは
、その笑顔が作り物か本物かを判断または計算できます。
48:34
OK, thank you, Sam. That’s all
from 6 Minute English today.
630
2914560
3040
わかりました、ありがとう、サム。
今日の 6 Minute English は以上です。
48:37
We look forward to your company next
time and if you can’t wait you can find
631
2917600
3280
貴社の次の機会を楽しみにして
おります。待てない場合は
48:40
lots more from bbclearningenglish online,
on social media and on our app. Goodbye!
632
2920880
4720
、bbclearningenglish オンライン
、ソーシャル メディア、アプリでさらに多くの情報を見つけることができます。 さよなら!
48:48
Bye!
633
2928080
480
さよなら!
48:53
Welcome to 6 Minute English, where we
bring you an intelligent topic and six
634
2933680
3680
6 Minute English へようこそ。ここでは
、知的なトピックと関連する 6 つの語彙をお届けします
48:57
related items of vocabulary. I’m Neil.
635
2937360
2640
。 私はニールです。
49:00
And I’m Tim. And today we’re talking
about AI – or Artificial Intelligence.
636
2940000
6320
私はティムです。 そして今日、私たちは
AI、つまり人工知能について話しています。
49:06
Artificial Intelligence is the ability
of machines to copy human intelligent
637
2946320
5040
人工知能とは、
人間の知的行動を模倣する機械の能力
49:11
behaviour – for example, an intelligent
machine can learn from its own mistakes,
638
2951360
4560
です。たとえば、インテリジェント
機械は自身の過ちから学習
49:15
and make decisions based on
what’s happened in the past.
639
2955920
3280
し、過去に起こったことに基づいて決定を下すことができます。
49:19
There’s a lot of talk about AI these days, Neil,
but it’s still just science fiction, isn’t it?
640
2959200
5520
ニール、最近 AI について多くのことが語られて
いますが、それはまだ単なる SF ですよね?
49:24
That’s not true – AI is everywhere.
Machine thinking is in our homes,
641
2964720
4720
そうではありません。AI はどこにでもあります。
機械思考は、私たちの家庭、
49:29
offices, schools and hospitals. Computer
algorithms are helping us drive our cars.
642
2969440
5760
オフィス、学校、病院で使用されています。 コンピュータ
アルゴリズムは、私たちが車を運転するのに役立っています。
49:35
They’re diagnosing what’s
wrong with us in hospitals.
643
2975200
3200
彼ら
は病院で私たちの何が悪いのかを診断しています。
49:38
They’re marking student essays… They’re
telling us what to read on our smartphones…
644
2978400
4320
彼らは学生のエッセイに採点を
している…スマートフォンで何を読むべきかを私たちに教えている…
49:42
Well, that really does sound like science fiction
– but it’s happening already, you say, Neil?
645
2982720
5280
まあ、それは本当にサイエンス フィクションのように聞こえる
が、ニールさん、それはすでに起こっていると思いますか?
49:48
It’s definitely happening, Tim. And an algorithm,
by the way, is a set of steps a computer follows
646
2988000
6000
それは間違いなく起こっています、ティム。 ところで、アルゴリズムと
は、問題を解決するためにコンピュータがたどる一連の手順です
49:54
in order to solve a problem. So can you tell
me what was the name of the computer which
647
2994000
5680
。 では、1997 年に
49:59
famously beat world chess champion Garry
Kasparov using algorithms in 1997? Was it…
648
2999680
6400
チェスの世界チャンピオンであるガリー
カスパロフをアルゴリズムで破ったことで有名なコンピューターの名前を教えていただけますか? それは…
50:06
a) Hal,
649
3006080
640
a) Hal、
50:07
b) Alpha 60 or
c) Deep Blue?
650
3007360
3680
b) Alpha 60、または
c) Deep Blue?
50:11
I’ll say Deep Blue. Although I’m just guessing.
651
3011040
4000
ディープブルーと申します。 推測ですが。
50:15
Was it an educated guess, Tim?
652
3015040
1920
それは経験に基づいた推測でしたか、ティム?
50:16
I know a bit about chess…
653
3016960
1520
私はチェスについて少し知っています…経験に
50:18
An educated guess is based on knowledge and
experience and is therefore likely to be correct.
654
3018480
5600
基づいた推測は知識と
経験に基づいているため、おそらく正しいでしょう。
50:24
Well, we’ll find out later on how
educated your guess was in this case, Tim!
655
3024080
4080
この場合、ティムさん、あなたの推測がどれだけ正しいかは後でわかります。
50:28
Indeed. But getting back to AI and
what machines can do – are they
656
3028160
5360
それはそう。 AI の話に戻り
ますが、機械にできることは何でしょうか。機械は
50:33
any good at solving real-life problems?
Computers think in zeros and ones don’t
657
3033520
5520
現実の問題を解決するのに適しているのでしょうか?
コンピュータは 0 と 1 で考え
50:39
they? That sounds like a pretty limited
language when it comes to life experience!
658
3039040
4000
ますね?
人生経験に関して言えば、これはかなり限定的な言語のように思えます。
50:43
You would be surprised to what
those zeroes and ones can do, Tim.
659
3043600
3680
ティム、0 と 1 ができることに驚かれることでしょう。
50:47
Although you’re right that AI does
have its limitations at the moment.
660
3047280
3840
あなたの言うとおりですが
、現時点では AI には限界があります。
50:51
And if something has limitations there’s a
limit on what it can do or how good it can be.
661
3051120
4960
また、何かに制限がある
場合、それができること、またはどれだけ優れているかにも制限があります。
50:56
OK – well now might be a good time to listen
to Zoubin Bharhramani, Professor of Information
662
3056080
6080
OK –
では、ケンブリッジ大学の情報工学教授で
51:02
Engineering at the University of Cambridge
and deputy director of the Leverhulme Centre
663
3062160
5760
あり、知能の未来のためのレバーフルム センターの副所長であるゾービン バルフラマニ氏の話を聞く良い機会かもしれません
51:07
for the Future of Intelligence. He’s talking
about what limitations AI has at the moment.
664
3067920
5840
。 彼
は、現時点で AI にどのような制限があるかについて話しています。
51:15
I think it’s very interesting how many of the
things that we take for granted – we humans take
665
3075680
5840
私たちが当たり前だと思っていることの多くが非常に興味深いと思います。人間が当たり前だと思っていることの多くは、
51:21
for granted – as being sort of things we don’t
even think about like how do we walk, how do we
666
3081520
4720
どのように歩くか、どのように
51:26
reach, how do we recognize our mother. You know,
all these things. When you start to think how
667
3086240
6800
到達するか、どのように自分のことを認識するかなど、考えさえしないようなものです。 母親。
これらすべてのことです。
51:33
to implement them on a computer, you realize that
it’s those things that are incredibly difficult to
668
3093040
7280
それらをコンピュータに実装する方法を考え始めると、これらのことをコンピュータに実行させるの
が非常に難しいことに気づきます
51:41
get computers to do, and that’s where
the current cutting edge of research is.
669
3101440
5360
。現在の研究の最先端はそこにあります。
51:48
If we take something for granted we
don’t realise how important something is.
670
3108720
3840
何かを当たり前
だと思っていると、何かがどれほど重要であるかがわかりません。
51:52
You sometimes take me for granted, I think, Neil.
671
3112560
2560
あなたは時々私を当然のことと思っていると思います、ニール。
51:55
No – I never take you for granted,
Tim! You’re far too important for that!
672
3115840
3520
いいえ – ティム、あなたのことを当たり前だと思ったことはありません
。 あなたはそのためにはあまりにも重要です!
52:00
Good to hear! So things we take for granted
are doing every day tasks like walking,
673
3120080
6720
聞いてよかった! そのため、私たちが当たり前と
52:06
picking something up, or recognizing somebody.
We implement – or perform – these things without
674
3126800
6800
思っていることは、歩く、何かを拾う、誰かを認識するなどの毎日のタスクを実行することです。
私たちは考えずにこれらのことを実装または実行
52:13
thinking – Whereas it’s cutting edge research
to try and program a machine to do them.
675
3133600
5600
しますが、それらを実行するように機械をプログラムしてプログラムすることは最先端の研究です。
52:19
Cutting edge means very new and
advanced. It’s interesting isn't it,
676
3139200
3840
最先端とは、非常に新しく、
先進的であることを意味します。 興味深いですね
52:23
that over ten years ago a computer
beat a chess grand master – but the
677
3143040
4000
。10 年以上前にコンピュータ
がチェスのグランド マスターに勝ったのは興味深い
52:27
same computer would find it incredibly
difficult to pick up a chess piece.
678
3147040
4240
ことですが、同じコンピュータで
チェスの駒を拾うのは信じられないほど困難でした。
52:31
I know. It’s very strange. But now you’ve reminded
me that we need the answer to today’s question.
679
3151280
5520
知っている。 とても奇妙です。 しかし
、今日の質問に対する答えが必要であることを思い出しました。
52:37
Which was: What was the name of the
computer which famously beat world chess
680
3157360
4560
52:41
champion Garry Kasparov in 1997? Now, you said
Deep Blue, Tim, and … that was the right answer!
681
3161920
6960
1997 年にチェスの世界チャンピオンであるガリー・カスパロフを破ったことで有名なコンピュータの名前は? さて、
Deep Blue、Tim、そして…それは正解でした!
52:48
You see, my educated guess was
based on knowledge and experience!
682
3168880
4480
ほら、私の経験に基づく推測は
、知識と経験に基づいていました。
52:53
Or maybe you were just lucky. So, the IBM
683
3173360
4320
あるいは、あなたはただ幸運だったのかもしれません。 そこで、IBM の
52:57
supercomputer Deep Blue played against US
world chess champion Garry Kasparov in two
684
3177680
5040
スーパーコンピューターである Deep Blue は、チェスの 2 試合で米国の
世界チェス チャンピオンである Garry Kasparov と
53:02
chess matches. The first match was played in
Philadelphia in 1996 and was won by Kasparov.
685
3182720
5920
対戦しました。 最初の試合は
1996 年にフィラデルフィアで行われ、カスパロフが勝利しました。
53:08
The second was played in New York City in 1997
and won by Deep Blue. The 1997 match was the
686
3188640
6720
2 回目は 1997 年にニューヨーク市で行われ、
Deep Blue が優勝しました。 1997 年の試合は、
53:15
first defeat of a reigning world chess champion
by a computer under tournament conditions.
687
3195360
4960
現存するチェスの世界チャンピオン
がトーナメント環境下でコンピューターに敗れた最初の試合でした。 今日学んだ
53:20
Let’s go through the words we
learned today. First up was
688
3200960
3840
言葉を見てみましょう
。 最初に取り上げたのは、
53:24
‘artificial intelligence’ or AI – the ability
of machines to copy human intelligent behaviour.
689
3204800
6880
「人工知能」または AI
でした。これは、機械が人間の知的な行動を模倣する能力です。
53:31
“There are AI programs that can write poetry.”
690
3211680
3040
「詩を書くことができる AI プログラムがあります。」
53:34
Do you have any examples you can recite?
691
3214720
2640
暗唱できる例はありますか?
53:37
Afraid I don’t! Number two – an algorithm is
a set of steps a computer follows in order to
692
3217360
5440
恐れてはいけません! 2 つ目 – アルゴリズムは
、問題を解決するためにコンピュータがたどる一連の手順です
53:42
solve a problem. For example, “Google changes its
search algorithm hundreds of times every year.”
693
3222800
6080
。 たとえば、「Google は
検索アルゴリズムを毎年何百回も変更しています。」
53:48
The adjective is algorithmic – for example,
“Google has made many algorithmic changes.”
694
3228880
6480
形容詞はアルゴリズムです。たとえば、
「Google はアルゴリズムに多くの変更を加えました。」
53:55
Number three – if something has ‘limitations’
– there’s a limit on what it can do or how good
695
3235360
5200
3 番目 – 何かに「制限」がある場合 – その
機能や効果に制限
54:00
it can be. “Our show has certain limitations
– for example, it’s only six minutes long!”
696
3240560
5920
があります。 「私たちの番組にはいくつかの
制限があります。たとえば、番組の長さはわずか 6 分です。」
54:06
That’s right – there’s only time to present
six vocabulary items. Short but sweet!
697
3246480
5280
そうです。6 つの語彙項目を提示する時間しかありません
。 短いけど甘い!
54:11
And very intelligent, too.
OK, the next item is ‘take
698
3251760
3840
そして非常に知的でもあります。
OK、次の項目は「
54:15
something for granted’ – which is when we
don’t realise how important something is.
699
3255600
4160
何かを当然のことと考える」です。これは、
何かがどれほど重要であるかを認識していない場合です。
54:19
“We take our smart phones for granted these
days – but before 1995 hardly anyone owned one.”
700
3259760
6880
「私たちは最近スマートフォンを当然のことと思ってい
ますが、1995 年以前はスマートフォンを持っている人はほとんどいませんでした。」
54:26
Number five – ‘to implement’ – means
to perform a task, or take action.
701
3266640
4560
5 番目の「実装する」は
、タスクを実行する、または行動を起こすことを意味します。
54:31
“Neil implemented some changes to the show.”
702
3271200
2640
「ニールはショーにいくつかの変更を加えました。」
54:33
The final item is ‘cutting edge’ – new and
advanced – “This software is cutting edge.”
703
3273840
5360
最後の項目は「最先端」です。新しく
高度な「このソフトウェアは最先端です」。
54:39
“The software uses cutting edge technology.”
704
3279200
2640
「ソフトウェアは最先端のテクノロジーを使用しています。」
54:42
OK – that’s all we have time
for on today’s cutting edge
705
3282480
3200
わかりました –
今日の最先端番組の時間はこれで終わりです
54:45
show. But please check out our Instagram,
Twitter, Facebook and YouTube pages.
706
3285680
4960
。 ただし、Instagram、
Twitter、Facebook、YouTube のページをチェックしてください。
54:50
Bye-bye!
707
3290640
560
さようなら!
54:51
Goodbye!
708
3291200
640
さよなら!
54:58
Hello and welcome to 6 Minute English. I'm Neil.
709
3298880
2800
こんにちは、6 Minute English へようこそ。 私はニールです。
55:01
And I'm Catherine. Hello!
710
3301680
1440
そして私はキャサリンです。 こんにちは!
55:03
Now, Catherine, say cheese.
711
3303120
2160
さて、キャサリン、チーズと言ってください。
55:05
Cheeeese.
Thank you, a little souvenir of our time together.
712
3305280
5200
チーズ。
ありがとう、一緒に過ごした時間のささやかな記念品。
55:10
Let's have a look… Hang on a minute. You just
took a selfie, I wasn't even in the picture.
713
3310480
5280
見てみましょう…ちょっと待ってください。 あなた
はセルフィーを撮っただけで、私は写真に写っていませんでした。
55:15
Ah, well, that's the magic of the smartphone,
two cameras! You know, that's not something
714
3315760
5520
ああ、それがスマートフォンの魔法、
2 つのカメラです。
55:21
you can do with a traditional camera. I mean,
do you even have a separate camera these days?
715
3321280
5280
これは、従来のカメラではできないことです。
最近、別のカメラを持っていますか?
55:26
I do actually. It's in a
cupboard somewhere at home.
716
3326560
3120
私は実際にそうします。
家のどこかの戸棚にあります。
55:29
Well, that is the topic of this programme. Have
traditional cameras been completely replaced by
717
3329680
5920
さて、それがこの番組のテーマです。
従来のカメラはスマートフォンに完全に取って代わられ
55:35
smartphones, or to put it another way, have
cameras been made obsolete by the smartphone?
718
3335600
5600
ましたか、別の言い方をすれば、
カメラはスマートフォンによって時代遅れになりましたか?
55:41
Interesting question. But before we get into this
topic, how about a question for our listeners?
719
3341200
6240
興味深い質問です。 しかし、このトピックに入る前
に、リスナーへの質問はどうですか?
55:47
Of course. We are certainly in the
digital age of photography but when
720
3347440
4320
もちろん。 私たちは確か
に写真のデジタル時代にいます
55:51
was the first digital camera
phone released? Was it:
721
3351760
3520
が、最初のデジタル カメラ付き
携帯電話がリリースされたのはいつですか?
55:55
a) 2000
b) 2004 or
722
3355280
2880
a) 2000 年
b) 2004
55:58
c) 2007?
What do you think?
723
3358160
2400
年ですか、それとも c) 2007 年ですか?
どう思いますか?
56:01
Well, I actually know this one, so I'm
going to be fair and keep it to myself.
724
3361120
4720
まあ、私は実際にこれを知っているので、
公平を期して内に秘めておきます。
56:06
OK, well, listen out for the
answer at the end of the programme.
725
3366480
3120
番組の最後にある答えを聞いてください。
56:10
There are different kinds of cameras
available today. There are compact cameras,
726
3370240
4160
現在、さまざまな種類のカメラが
販売されています。
56:14
which are small and mostly automatic
and usually come with a fixed lens.
727
3374400
4720
小型でほとんどが自動
で、通常は固定レンズが付属するコンパクト カメラがあります。
56:19
That's right. And then there are
SLRs and DSLRs which are bigger,
728
3379120
5280
それは正しい。 そして、
より大きな一眼レフとデジタル一眼レフがあり
56:24
and you can change the lenses on these cameras
and they allow for a lot of manual control.
729
3384400
5440
、これらのカメラのレンズを交換
でき、多くの手動制御が可能です。
56:30
And there are also mirrorless cameras, which are a
cross between compact cameras and DSLRs. They are
730
3390640
6480
また、ミラーレス カメラもあり、これは
コンパクト カメラとデジタル一眼レフのクロスです。
56:37
small like a compact camera but you can also use
the same lenses on them that you can use on DSLRs.
731
3397120
6320
コンパクト カメラのように小さい
ですが、DSLR で使用できるのと同じレンズを使用することもできます。
56:43
And of course, there are
the cameras on smartphones,
732
3403440
3040
もちろん、
スマートフォンにはカメラが搭載されて
56:46
and these are convenient and they're
becoming increasingly sophisticated.
733
3406480
4880
おり、これらは便利で、
ますます高度になっています。
56:51
Phil Hall is the editor of Tech Radar
magazine. He was asked on the BBC programme
734
3411360
5360
Phil Hall は、Tech Radar マガジンの編集者です
。 彼は BBC の番組
56:56
You and Yours if he thought smartphones would
make other cameras obsolete. What is his opinion?
735
3416720
6480
「You and Yours」で、スマートフォン
によって他のカメラが時代遅れになると思うかどうか尋ねられました。 彼の意見は?
57:05
I don't think so. I think while compact camera
sales have really sort of dropped off a cliff,
736
3425280
6000
私はそうは思わない。 コンパクト カメラの
販売は崖っぷちのように落ち込んでいると思いますが
57:11
it's the lower end, cheap compacts where
people have opted for a smartphone and I think
737
3431280
6640
、人々がスマートフォンを選んだのはローエンドの安価なコンパクトであり、
57:17
manufacturers are looking at the more higher end
premium cameras, high-end compacts, DSLRs, which
738
3437920
6480
メーカーはよりハイエンドの
プレミアム カメラ、ハイエンドのコンパクト、DSLR、
57:24
are the ones you can attach lenses to, mirrorless
cameras. So, the market's changing. And I don't
739
3444400
4640
レンズを取り付けられるミラーレス
カメラです。 つまり、市場は変化しています。 そして
57:29
think there'll be a time soon, yet, that… the
smartphone will take over the camera completely.
740
3449040
6560
、近いうちに…
スマートフォンがカメラを完全に引き継ぐ時が来るとは思いません。
57:37
So does Phil think smartphones
will kill the camera?
741
3457280
3520
では、フィルはスマートフォン
がカメラを殺すと考えていますか?
57:40
In a word, no. He does say that sales of cheap
compact cameras have dropped off a cliff.
742
3460800
6560
一言で言えば、いいえ。 彼は、安価な
コンパクト カメラの売り上げが激減したと言っています。
57:48
This rather dramatic expression
describes a very big fall in sales.
743
3468080
5040
このかなり劇的な表現
は、販売の大幅な減少を表しています。
57:53
This is because the kind of consumers
744
3473120
2080
これは
57:55
who would choose a compact camera are now
opting for the camera on their smartphone.
745
3475200
4720
、コンパクト カメラを選ぶような消費者
がスマートフォンのカメラを選ぶようになったためです。
57:59
When you opt for something you
choose it rather than something else.
746
3479920
3520
何かを
選択するときは、他の何かではなく、それを選択します。 手頃な品質の写真を
58:04
For people who want a quick, easy
to use and convenient way to take
747
3484160
4400
すばやく簡単
に撮影できる便利な方法を求めている人にとって
58:08
reasonable quality photos, compact cameras used
to be the best choice – but now it's a smartphone.
748
3488560
7520
、以前はコンパクト
カメラが最良の選択でしたが、現在はスマートフォンです。
58:16
So camera makers are now moving to the more
high-end market, the DSLRs and mirrorless cameras.
749
3496080
6240
そのため、カメラ メーカーは現在、より
ハイエンドな市場である DSLR やミラーレス カメラに移行しています。
58:22
So who is still buying these more
expensive cameras? Here's Phil Hall again.
750
3502960
4560
では、これらのより高価なカメラをまだ購入しているのは
誰でしょうか? 再びフィル・ホールです。
58:28
I think it's... some of it is people who
are picking up a smartphone and sort of
751
3508640
4640
スマートフォンを
58:33
getting into photography that way and that's
a really great first step into photography
752
3513280
5760
手に取って、そのように写真を
58:39
and I think people are probably, sometimes,
getting a bit frustrated with the quality
753
3519040
3040
始めようとしている人もいると思います。これは、写真への本当に素晴らしい第一歩であり、おそらく、時には
、品質に少し不満を感じている人もいると思います。
58:43
once they sort of start pushing their creative
skills and then looking to see what's the next
754
3523280
5520
クリエイティブ スキルをプッシュし始め
てから、次のステップに目を向け
58:48
rung up so it's people wanting to
broaden their creative skills a bit.
755
3528800
4080
ているので
、クリエイティブ スキルを少し広げたいと考えています。
58:54
Who does he say might be buying cameras?
756
3534000
2640
誰がカメラを購入する可能性があると彼は言いますか? 写真を始めよう
58:56
He says that people who are getting into
757
3536640
2080
としている人は
58:58
photography might get frustrated
with the quality of smartphones.
758
3538720
4160
、スマートフォンの品質に不満を感じるかもしれないと彼は言います。
59:02
Getting into something means
becoming very interested in it.
759
3542880
3520
何かに没頭するということは
、それに非常に興味を持つことを意味します。
59:06
And if you are frustrated with something it
760
3546400
2400
また、何かに不満を感じている
59:08
means you are disappointed with
it. You are not happy with it.
761
3548800
3120
場合は、それにがっかりしていることを意味します
。 あなたはそれに満足していません。
59:11
So people who have got into
photography with a smartphone
762
3551920
3040
その
ため、スマートフォンで写真を撮り始めた
59:14
but are frustrated with its limitations
and want to be more creative are going
763
3554960
4720
ものの、その限界に不満を感じていて、
よりクリエイティブになりたいと思っている人は
59:19
to the next level. They are moving up, they
are, as Phil said 'taking the next rung up'.
764
3559680
6000
、次のレベルに進んでいます。
フィルが「次のラングアップ」と言ったように、彼らは上に移動しています。
59:25
Now, a rung is the horizontal step of a ladder,
765
3565680
4000
ここで、ラングははしごの水平のステップである
59:29
so the expression taking the next rung up is a
way to describe doing something at a higher level.
766
3569680
6960
ため、次のラングを上る表現
は、より高いレベルで何かを行うことを表す方法です。
59:37
Now, talking of higher levels, did you get this
week's quiz question right? The question was:
767
3577440
5680
さて、より高いレベルについて言えば、
今週のクイズの質問は正解でしたか? 質問は次のとおりです:
59:43
When was the first phone with a digital
camera released? Was it 2000, 2004 or 2007?
768
3583120
7440
2000 年ですか、2004 年ですか、それとも 2007 年ですか。
59:51
The first phone with a digital
camera was released in 2000.
769
3591680
3200
デジタル カメラ付きの最初の電話
は 2000 年にリリースされました。プログラム
59:55
Now, to take us up to the end of the
programme, let's look at the vocabulary again.
770
3595440
4400
の最後に
戻るために、語彙をもう一度見てみましょう。
60:00
First, we had the adjective obsolete
which describes something that has
771
3600720
3920
まず、形容詞 obsolete が
ありました。これは
60:04
been replaced and is no longer the first choice.
772
3604640
2880
、置き換えられ、もはや最初の選択肢ではなくなったものを表します。
60:08
When the expression to drop off a
cliff is used about, for example,
773
3608080
3760
たとえば、販売数に関して崖から落ちるという表現
が使用される場合、
60:11
sales numbers, it means sales have fallen
significantly over a short period of time.
774
3611840
5120
販売数が短期間で大幅に減少したことを意味し
ます。
60:16
To opt for something means to choose something
775
3616960
3120
何かを選択するとは、何かを選択することを意味し
60:20
and when you become very interested in an
activity you can say that you get into it.
776
3620640
6720
、ある活動に非常に興味を持ったとき、その
活動に夢中になったと言うことができます。
60:27
If you are trying to do something and you
can't do it because you don't have the skill
777
3627360
3920
何かをしようとして
も、スキルがない、
60:31
or the equipment you are using is not right
or not good enough, you can become frustrated.
778
3631280
5280
または使用している機器が正しく
ない、または十分に優れていないために実行できない場合、イライラする可能性があります。
60:36
And developing your skills to a higher level
can be described as taking the next rung up.
779
3636560
6960
そして、スキルをより高いレベルに
伸ばすことは、次の段階に進むことと言えます。
60:43
Right, that's all from us from us in this
programme. Do join us again next time and
780
3643520
3440
以上が、このプログラムでの私たちからのすべて
です。 次回もぜひご参加ください。
60:46
don't forget that in the meantime you can
find us on Instagram, Facebook, Twitter,
781
3646960
4160
それまでの間、
Instagram、Facebook、Twitter、
60:51
YouTube and of course our website
bbclearningenglish.com. See you soon. Goodbye.
782
3651120
5440
YouTube、そしてもちろんウェブサイト
bbclearningenglish.com で私たちを見つけることができることを忘れないでください。 また近いうちにお会いしましょう。 さようなら。
60:59
Bye!
783
3659120
5040
さよなら!
New videos
Original video on YouTube.com
このウェブサイトについて
このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。