BOX SET: 6 Minute English - 'Artificial intelligence' English mega-class! 30 minutes of new vocab!

73,880 views ・ 2025-01-19

BBC Learning English


下の英語字幕をダブルクリックすると動画を再生できます。 翻訳された字幕は機械翻訳です。

00:00
6 Minute English.
0
760
1720
6分間英語。
00:02
From BBC Learning English.
1
2600
2640
BBC Learning Englishより。
00:05
Hello. This is 6 Minute English from BBC Learning English. I'm Neil.
2
5840
3920
こんにちは。 これは BBC Learning English の 6 Minute English です。 私はニールです。
00:09
And I'm Rob.
3
9880
1200
そして私はロブです。
00:11
Now, I'm sure most of us have interacted with a chatbot.
4
11200
4360
おそらく、ほとんどの人が チャットボットとやり取りしたことがあると思います。
00:15
These are bits of computer technology
5
15680
2320
これらは、
00:18
that respond to text with text or respond to your voice.
6
18120
4600
テキストにテキストで応答したり 、音声に応答したりするコンピューター テクノロジーの一部です。
00:22
You ask it a question and usually it comes up with an answer.
7
22840
3960
質問すると 、たいていは答えが返ってきます。
00:26
Yes, it's almost like talking to another human, but of course it's not,
8
26920
4480
はい、まるで他の人間と話しているようです が、もちろんそうではありません。
00:31
it's just a clever piece of technology.
9
31520
2560
これは単なる巧妙なテクノロジーです。 人工知能はますます
00:34
It is becoming more 'sophisticated' — more 'advanced and complex' —
10
34200
3640
「洗練」され、 さらに「高度で複雑」になってきています
00:37
but could they replace real human interaction altogether?
11
37960
3200
が、実際の人間同士のやりとりを完全に置き換えることができるのでしょうか ?
00:41
We'll discuss that more in a moment
12
41280
2040
これについては後ほど詳しく説明し
00:43
and find out if chatbots really think for themselves.
13
43440
3680
、チャットボットが本当に自分で考えるのかどうかを確認します 。
00:47
But first I have a question for you, Rob.
14
47240
2440
しかし、まずはあなたに質問があります、ロブ。 人間と機械の間で何らかの妥当な会話を
00:49
The first computer program that allowed some kind of plausible conversation
15
49800
4440
可能にする最初のコンピュータ プログラムは
00:54
between humans and machines was invented in 1966, but what was it called?
16
54360
6440
1966 年に発明されましたが、それは何と呼ばれていましたか?
01:00
Was it a) Alexa? b) ELIZA? Or c) PARRY?
17
60920
6120
それは a) Alexa でしたか? b) エリザ? それともc) パリー?
01:07
Ah, well, it's not Alexa, that's too new, so I'll guess c) PARRY.
18
67160
4280
ああ、まあ、Alexa ではないですね。それはあまりにも新しい ので、c) PARRY だと思います。
01:11
I'll reveal the answer at the end of the programme.
19
71560
3200
答えは 番組の最後に発表します。
01:14
Now, the old chatbots of the 1960s and '70s were quite basic,
20
74880
5440
1960 年代や 70 年代の古いチャットボットは 非常に基本的なものでした
01:20
but more recently, the technology is able to predict the next word
21
80440
4640
が、最近のテクノロジーでは、
01:25
that is likely to be used in a sentence,
22
85200
2200
文中で次に使われる可能性のある単語を予測したり
01:27
and it learns words and sentence structures.
23
87520
2840
、単語 や文の構造を学習したりできるようになりました。
01:30
Mm, it's clever stuff.
24
90480
1480
うーん、それは賢いものです。
01:32
I've experienced using them when talking to my bank,
25
92080
2800
銀行と話をするとき
01:35
or when I have problems trying to book a ticket on a website.
26
95000
3080
や、 ウェブサイトでチケットを予約しようとして問題が発生したときに、それらを使用した経験があります。
01:38
I no longer phone a human, I speak to a virtual assistant instead.
27
98200
5160
もう人間に電話をかけるのではなく、 代わりに仮想アシスタントと話します。
01:43
Probably the most well-known chatbot at the moment is ChatGPT..
28
103480
4560
おそらく現時点で最もよく知られているチャットボットは ChatGPT です。
01:48
It is. The claim is that it's able to answer anything you ask it.
29
108160
4400
何を尋ねても答えられると主張している。
01:52
This includes writing students' essays.
30
112680
2760
これには生徒のエッセイの執筆も含まれます。
01:55
Now, this is something that was discussed
31
115560
1760
さて、これは
01:57
on the BBC Radio 4 programme, Word of Mouth.
32
117440
3040
BBC ラジオ 4 の番組「 Word of Mouth」で議論されたことです。
02:00
Emily M Bender, Professor of Computational Linguistics
33
120600
4280
02:05
at the University of Washington,
34
125000
1680
ワシントン大学の計算言語学教授であるエミリー・M・ベンダー氏は、チャットボットの言うことを
02:06
explained why it's dangerous to always trust what a chatbot is telling us.
35
126800
4720
常に信じてしまうことがなぜ危険なのかを説明しました 。
02:11
We tend to react to grammatical, fluent, coherent-seeming text
36
131640
5120
私たちは、文法的に正しく、 流暢で、首尾一貫しているように見えるテキストを、
02:16
as authoritative and reliable and valuable and we need to be on guard against that,
37
136880
6040
権威があり、信頼でき、価値があるものとして反応する傾向がありますが 、それに対して警戒する必要があります。
02:23
because what's coming out of ChatGPT is none of that.
38
143040
2520
なぜなら、ChatGPT から出てくるものは、 そのどれでもないからです。
02:25
So, Professor Bender says that well-written text that is 'coherent' —
39
145680
4200
そのため、ベンダー教授は、 よく書かれた「首尾一貫した」文章、
02:30
that means it's 'clear, carefully considered and sensible' —
40
150000
3440
つまり「明確で、 慎重に検討され、理にかなった」文章は、
02:33
makes us think what we are reading is reliable and 'authoritative'.
41
153560
4040
私たちが読んでいる内容が 信頼でき、「権威がある」と思わせると述べています。
02:37
So it's 'respected, accurate and important sounding'.
42
157720
3440
つまり、「尊敬され、正確で 、重要な響き」なのです。
02:41
Yes, chatbots might appear to write in this way,
43
161280
3000
確かに、チャットボットは このように書いているように見えるかもしれません
02:44
but really, they are just predicting one word after another,
44
164400
3560
が、実際には、
02:48
based on what they have learnt.
45
168080
2040
学習した内容に基づいて、単語を次々に予測しているだけです。
02:50
We should, therefore, be 'on guard' — be 'careful and alert' —
46
170240
3720
したがって、私たちは、伝えられている内容の正確さについて「警戒する」、つまり「注意深く警戒する」必要があります
02:54
about the accuracy of what we are being told.
47
174080
3000
02:57
One concern is that chatbots — a form of artificial intelligence —
48
177200
4240
懸念されるのは、 人工知能の一種であるチャットボットが、情報を学習して処理する
03:01
work a bit like a human brain in the way it can learn and process information.
49
181560
4920
方法において、人間の脳と少し似ているという点です 。
03:06
They are able to learn from experience, something called deep learning.
50
186600
4360
彼らは経験から学ぶことができ、 これをディープラーニングと呼びます。
03:11
A cognitive psychologist and computer scientist called Geoffrey Hinton
51
191080
4200
認知心理学者でコンピューター 科学者のジェフリー・ヒントン氏は
03:15
recently said he feared that chatbots could soon overtake
52
195400
3680
最近、チャットボットが 近いうちに
03:19
the level of information that a human brain holds.
53
199200
3400
人間の脳が保持する情報レベルを追い抜くのではないかと懸念していると述べた。
03:22
That's a bit scary, isn't it?
54
202720
1440
それはちょっと怖いですね。
03:24
Mm, but for now, chatbots can be useful for practical information,
55
204280
4360
うーん、でも今のところ、チャットボットは 実用的な情報を得るのには役立ちます
03:28
but sometimes we start to believe they are human
56
208760
2680
が、時には私たちは チャットボットが人間だと信じ始め
03:31
and we interact with them in a human-like way.
57
211560
2680
、 人間のようなやり方でやりとりすることもあります。
03:34
This can make us believe them even more.
58
214360
2400
これにより、私たちは彼らをさらに信じるようになるでしょう。
03:36
Professor Emma Bender, speaking on the BBC's Word of Mouth programme,
59
216880
3520
エマ・ベンダー教授は、 BBCの「口コミ」番組で、
03:40
explains why we might feel like that.
60
220520
2760
なぜ私たちがそのように感じるのかを説明しています。 おそらく、この機械は、
03:43
I think what's going on there is the kinds of answers you get
61
223400
4160
03:47
depend on the questions you put in,
62
227680
2040
03:49
because it's doing likely next word, likely next word,
63
229840
2520
おそらく次の単語、 おそらく次の単語を推測しているので、入力した質問に応じて返答の種類が変わると思います。したがって
03:52
and so if, as the human interacting with this machine,
64
232480
3280
、 この機械と対話する人間として、次のような
03:55
you start asking it questions about how do you feel, you know, Chatbot?
65
235880
4280
質問をし始めると、 チャットボットさん、どう感じますか?
04:00
And "What do you think of this?" And, "What are your goals?"
66
240280
2840
そして「これについてどう思いますか?」 そして、「あなたの目標は何ですか?」 知覚力のある存在が言うようなことを
04:03
You can provoke it to say things
67
243240
1720
言わせるように刺激することができます
04:05
that sound like what a sentient entity would say.
68
245080
2960
04:08
We are really primed to imagine a mind behind language
69
248160
3320
私たちは言語に遭遇するたびに、その 言語の背後にある心を想像するように準備されている
04:11
whenever we encounter language
70
251600
1600
04:13
and so we really have to account for that when we're making decisions about these.
71
253320
3680
ので、言語について決定を下すときにはそのことを考慮に入れる必要があります 。
04:17
So, although a chatbot might sound human,
72
257840
2560
したがって、チャットボットは人間のように聞こえるかもしれませんが、
04:20
we really just ask it things to get a reaction — we 'provoke' it —
73
260520
3840
実際には反応を得るために何かを質問しているだけであり、つまり「 挑発」しているだけであり、チャットボットが
04:24
and it answers only with words it's learned to use before,
74
264480
4040
答えるのは、巧妙な答えを思いついたからではなく 、以前に学習した言葉だけなのです
04:28
not because it has come up with a clever answer.
75
268640
2720
04:31
But it does sound like a sentient entity —
76
271480
2600
しかし、それは確かに感覚を持った存在のように聞こえます。
04:34
'sentient' describes 'a living thing that experiences feelings'.
77
274200
4440
「感覚を持った」とは、「 感情を経験する生き物」を表します。
04:38
As Professor Bender says,
78
278760
1640
ベンダー教授が言うように、
04:40
we imagine that when something speaks, there is a mind behind it.
79
280520
4080
何かが話すとき、 その背後には心があると私たちは想像します。
04:44
But sorry, Neil, they are not your friend, they're just machines!
80
284720
4000
でも残念だけど、ニール、彼らはあなたの友達じゃない、 ただの機械なんだ!
04:48
Yes, it's strange then that we sometimes give chatbots names.
81
288840
3240
そうですね、 チャットボットに名前を付けることがあるというのは奇妙なことです。
04:52
Alexa, Siri, and earlier I asked you what the name was for the first ever chatbot.
82
292200
5920
Alexa、Siri、先ほど、史上初のチャットボットの名前は何だったかとお聞きしました 。
04:58
And I guessed it was PARRY. Was I right?
83
298240
2880
そして私はそれがPARRYだと推測しました。 私は正しかったでしょうか?
05:01
You guessed wrong, I'm afraid.
84
301240
2040
残念ながら、あなたの推測は間違っています。
05:03
PARRY was an early form of chatbot from 1972, but the correct answer was ELIZA.
85
303400
6400
PARRY は 1972 年の初期のチャットボットでしたが 、正解は ELIZA でした。
05:09
It was considered to be the first 'chatterbot' — as it was called then —
86
309920
4000
これは、 当時は「チャッターボット」と呼ばれていた最初のものと考えられており、マサチューセッツ工科大学の
05:14
and was developed by Joseph Weizenbaum at Massachusetts Institute of Technology.
87
314040
5640
ジョセフ・ワイゼンバウムによって開発されました 。
05:19
Fascinating stuff.
88
319800
1040
興味深いですね。
05:20
OK, now let's recap some of the vocabulary we highlighted in this programme.
89
320960
4360
さて、このプログラムで取り上げた語彙のいくつかを振り返ってみましょう 。
05:25
Starting with 'sophisticated',
90
325440
2000
「高度で複雑な」テクノロジーを表す「洗練された」という言葉から始まります
05:27
which can describe technology that is 'advanced and complex'.
91
327560
3880
05:31
Something that is 'coherent' is 'clear, carefully considered and sensible'.
92
331560
4320
「首尾一貫した」ものとは、「明確で、 慎重に検討され、理にかなった」ものです。
05:36
'Authoritative' means 'respected, accurate and important sounding'.
93
336000
4480
「権威ある」とは、「尊敬され、 正確で、重要な響き」を意味します。 「
05:40
When you are 'on guard' you must be 'careful and alert' about something —
94
340600
3760
警戒している」ときは、 何かに対して「注意深く警戒している」必要があります。
05:44
it could be accuracy of what you see or hear,
95
344480
3320
それは、 見たり聞いたりしたことの正確さであったり
05:47
or just being aware of the dangers around you.
96
347920
2640
、単に周囲の危険を認識していることであったりします 。
05:50
To 'provoke' means to 'do something that causes a reaction from someone'.
97
350680
4160
「挑発する」とは、「 誰かの反応を引き起こすようなことをする」という意味です。
05:54
'Sentient' describes 'something that experiences feelings' —
98
354960
3680
「知覚力のある」とは「 感情を経験するもの」、
05:58
so it's 'something that is living'.
99
358760
2120
つまり「生きているもの」を意味します。
06:01
Once again, our six minutes are up. Goodbye.
100
361000
2640
もう一度言いますが、6分が経過しました。 さようなら。
06:03
Bye for now.
101
363760
1000
とりあえずさようなら。
06:05
6 Minute English.
102
365680
1520
6分間英語。
06:07
From BBC Learning English.
103
367320
2400
BBC Learning Englishより。
06:10
Hello. This is 6 Minute English from BBC Learning English.
104
370600
3240
こんにちは。 これは BBC Learning English の 6 Minute English です。
06:13
— I'm Sam. — And I'm Neil.
105
373960
1240
— 私はサムです。 — そして私はニールです。
06:15
In the autumn of 2021, something strange happened
106
375320
3640
2021年秋、カリフォルニア州シリコンバレーのGoogle本社で 奇妙な出来事が起こった
06:19
at the Google headquarters in California's Silicon Valley.
107
379080
3440
06:22
A software engineer called Blake Lemoine
108
382640
2720
Blake Lemoine というソフトウェア エンジニアが、
06:25
was working on the artificial intelligence project
109
385480
2840
人工知能プロジェクト
06:28
Language Models for Dialogue Applications, or LaMDA for short.
110
388440
5080
Language Models for Dialogue Applications ( 略して LaMDA) に取り組んでいました。
06:33
LaMDA is a 'chatbot' — a 'computer programme
111
393640
2880
LaMDA は「チャットボット」、つまり「インターネット上で人間と
06:36
'designed to have conversations with humans over the internet'.
112
396640
3360
会話するように設計されたコンピュータ プログラム」です 。 映画から人生の意味までさまざまな話題について
06:40
After months talking with LaMDA
113
400120
2280
LaMDA と数か月話し合った後
06:42
on topics ranging from movies to the meaning of life,
114
402520
3360
06:46
Blake came to a surprising conclusion —
115
406000
2640
ブレイクは驚くべき結論に達しました。
06:48
the chatbot was an intelligent person
116
408760
2720
チャットボットは尊重されるべき希望と権利を持つ知的な人間であるということです
06:51
with wishes and rights that should be respected.
117
411600
3040
06:54
For Blake, LaMDA was a Google employee, not a machine.
118
414760
3960
ブレイクにとって、LaMDA は機械ではなく、Google の従業員でした 。
06:58
He also called it his friend.
119
418840
1880
彼はそれを友人とも呼んだ。
07:00
Google quickly reassigned Blake from the project,
120
420840
2880
Google はすぐにブレイク氏を プロジェクトから外し、
07:03
announcing that his ideas were not supported by the evidence.
121
423840
3760
彼のアイデアは 証拠によって裏付けられていないと発表した。
07:07
But what exactly was going on?
122
427720
2440
しかし、一体何が起こっていたのでしょうか?
07:10
In this programme, we'll be discussing whether artificial intelligence
123
430280
3720
この番組では、 人工知能が
07:14
is capable of consciousness.
124
434120
2160
意識を持つことができるかどうかについて議論します。 AI は私たちが考えるほど賢くないと考える
07:16
We'll hear from one expert
125
436400
1480
専門家の話を聞き
07:18
who thinks AI is not as intelligent as we sometimes think
126
438000
3600
07:21
and, as usual, we'll be learning some new vocabulary as well.
127
441720
3800
、いつものように 新しい語彙も学びます。
07:25
But before that, I have a question for you, Neil.
128
445640
2480
しかしその前に、 ニールさんに質問があります。
07:28
What happened to Blake Lemoine
129
448240
1400
ブレイク・ルモワンに起こったことは、
07:29
is strangely similar to the 2013 Hollywood movie, Her,
130
449760
4200
07:34
starring Joaquin Phoenix as a lonely writer who talks with his computer,
131
454080
4400
ホアキン・フェニックスが主演し、
07:38
voiced by Scarlett Johansson.
132
458600
1840
スカーレット・ヨハンソンが声を担当し、コンピューターと会話する孤独な作家を演じた2013年のハリウッド映画「her/世界でひとつの彼女」と奇妙なほど似ている。
07:40
But what happens at the end of the movie?
133
460560
2280
しかし、映画の最後はどうなるのでしょうか?
07:42
Is it a) The computer comes to life?
134
462960
2520
それは a) コンピューターが生き返るということですか?
07:45
b) The computer dreams about the writer?
135
465600
2480
b) コンピューターは作家について夢を見るのか?
07:48
Or c) The writer falls in love with the computer?
136
468200
2800
あるいは c) 筆者はコンピューターに恋をするのでしょうか ?
07:51
C) The writer falls in love with the computer.
137
471120
3240
C) 筆者はコンピューターに夢中になる 。
07:54
OK, Neil, I'll reveal the answer at the end of the programme.
138
474480
3360
わかりました、ニール、 番組の最後に答えを明かします。
07:57
Although Hollywood is full of movies about robots coming to life,
139
477960
3760
ハリウッドにはロボットが生き生きと動く映画が溢れているが 、ワシントン大学の
08:01
Emily Bender, Professor of Linguistics and Computing at the University of Washington,
140
481840
5440
言語学およびコンピューティングの教授であるエミリー・ベンダー氏は 、
08:07
thinks AI isn't that smart.
141
487400
2640
AIはそれほど賢くないと考えている。
08:10
She thinks the words we use to talk about technology —
142
490160
3240
彼女は、 テクノロジーについて話すときに使う言葉、
08:13
phrases like 'machine learning' —
143
493520
2120
たとえば「機械学習」のようなフレーズは、
08:15
give a false impression about what computers can and can't do.
144
495760
4440
コンピューターが何ができて何ができないかについて誤った印象を与えると考えています。
08:20
Here is Professor Bender discussing another misleading phrase —
145
500320
3520
ここでベンダー教授が、BBC ワールド サービスの番組「The Inquiry」で、 誤解を招く別のフレーズ
08:23
'speech recognition' — with BBC World Service programme The Inquiry.
146
503960
5120
「音声認識」について議論しています 。
08:29
If you talk about 'automatic speech recognition',
147
509200
3000
「自動音声認識」について話す場合、
08:32
the term 'recognition' suggests that there's something cognitive going on,
148
512320
4680
「認識」という用語は、 認知的な何かが起こっていることを示唆しますが、
08:37
where I think a better term would be automatic transcription.
149
517120
2840
より適切な用語は「 自動転写」だと思います。
08:40
That just describes the input-output relation,
150
520080
2400
これは単に 入力と出力の関係を説明するもので
08:42
and not any theory or wishful thinking
151
522600
3480
あり、それを達成するためにコンピューターが何をしているかについての理論や希望的観測を説明するものではありません
08:46
about what the computer is doing to be able to achieve that.
152
526200
3360
。 コンピュータに関連して
08:49
Using words like 'recognition' in relation to computers
153
529680
3720
「認識」などの言葉を使用すると、「認知
08:53
gives the idea that something 'cognitive' is happening —
154
533520
3160
的な」何か、つまり「
08:56
something 'related to the mental processes
155
536800
2680
08:59
'of thinking, knowing, learning and understanding'.
156
539600
3120
考える、知る、学ぶ 、理解する」という精神的なプロセスに関連する何かが起こっているという印象を与えます。
09:02
But thinking and knowing are human, not machine, activities.
157
542840
4480
しかし、考えることと知ることは 機械の活動ではなく、人間の活動です。
09:07
Professor Benders says that talking about them in connection with computers
158
547440
4160
ベンダーズ教授は、 コンピューターとの関連でそれらについて語ることは
09:11
is 'wishful thinking' — 'something which is unlikely to happen'.
159
551720
4720
「希望的観測」であり、「 起こりそうにないこと」だと言う。
09:16
The problem with using words in this way
160
556560
2120
このように言葉を使うことの問題点は、
09:18
is that it reinforces what Professor Bender calls 'technical bias' —
161
558800
4760
ベンダー教授が「技術的偏見」と呼ぶもの、つまり「
09:23
'the assumption that the computer is always right'.
162
563680
2920
コンピューターは常に正しいという思い込み」を強化してしまうことだ。
09:26
When we encounter language that sounds natural, but is coming from a computer,
163
566720
4120
自然に聞こえるがコンピューターから発せられた言語に遭遇すると、たとえそれが存在しないとしても、
09:30
humans can't help but imagine a mind behind the language,
164
570960
3760
人間はその言語の背後に心を想像せずにはいられません
09:34
even when there isn't one.
165
574840
1520
09:36
In other words, we 'anthropomorphise' computers —
166
576480
2960
言い換えれば、 私たちはコンピューターを「擬人化」し、「
09:39
we 'treat them as if they were human'.
167
579560
2320
まるで人間のように扱う」のです。
09:42
Here's Professor Bender again, discussing this idea with Charmaine Cozier,
168
582000
4600
ここで再びベンダー教授が、
09:46
the presenter of BBC World Service's The Inquiry.
169
586720
3520
BBC ワールド サービスの「The Inquiry」の司会者チャーメイン・コジエとこのアイデアについて議論します。
09:50
So 'ism' means system, 'anthro' or 'anthropo' means human,
170
590360
4800
つまり、「ism」はシステム、 「anthro」または「anthropo」は人間、
09:55
and 'morph' means shape.
171
595280
1800
「morph」は形状を意味します。
09:57
And so this is a system that puts the shape of a human on something,
172
597200
4760
これは 人間の形を何かの上に載せるシステムであり
10:02
and, in this case, the something is a computer.
173
602080
1680
、この場合、 その何かとはコンピューターです。
10:03
We anthropomorphise animals all the time,
174
603880
2920
私たちは動物を擬人化することはよくあります
10:06
but we also anthropomorphise action figures, or dolls,
175
606920
3840
が、アクション フィギュアや人形、
10:10
or companies when we talk about companies having intentions and so on.
176
610880
3880
あるいは 企業が意図を持っているなどについて話すときに企業を擬人化することもよくあります。
10:14
We very much are in the habit of seeing ourselves in the world around us.
177
614880
4480
私たちは、 周囲の世界の中で自分自身を見る習慣があります。
10:19
And while we're busy seeing ourselves
178
619480
1920
そして、人間ではないものに人間的な特徴を当てはめて自分自身を見ることに忙しくしている間
10:21
by assigning human traits to things that are not, we risk being blindsided.
179
621520
4760
、私たちは不意を突かれる危険にさらされているのです。
10:26
The more fluent that text is, the more different topics it can converse on,
180
626400
3880
テキストが流暢であればあるほど、 会話できるトピックが多様になり、騙される
10:30
the more chances there are to get taken in.
181
630400
2720
可能性も高くなります 。
10:34
If we treat computers as if they could think,
182
634040
2600
コンピューターを 思考できるものとして扱うと、
10:36
we might get 'blindsided', or 'unpleasantly surprised'.
183
636760
4160
「不意打ち」を受けたり、 「不快な驚き」を覚えたりするかもしれません。
10:41
Artificial intelligence works by finding patterns in massive amounts of data,
184
641040
4560
人工知能は 膨大な量のデータからパターンを見つけることで機能する
10:45
so it can seem like we're talking with a human,
185
645720
2520
ため、
10:48
instead of a machine doing data analysis.
186
648360
3000
データ分析を行う機械ではなく、人間と会話しているように感じることがあります。 その
10:51
As a result, we 'get taken in' — we're 'tricked or deceived'
187
651480
4240
結果、私たちは「 騙され」、
10:55
into thinking we're dealing with a human, or with something intelligent.
188
655840
3640
人間 や知的な何かを相手にしていると思い込まされてしまうのです。
10:59
Powerful AI can make machines appear conscious,
189
659600
3760
強力な AI により機械が 意識を持つようになる
11:03
but even tech giants like Google
190
663480
2320
が、Google のようなテクノロジー大手でさえ、
11:05
are years away from building computers that can dream or fall in love.
191
665920
4480
夢を見たり恋に落ちたりできるコンピューターを開発するには何年もかかる。
11:10
Speaking of which, Sam, what was the answer to your question?
192
670520
3160
そういえば、サム、 あなたの質問の答えは何でしたか?
11:13
I asked what happened in the 2013 movie, Her.
193
673800
3240
2013年の映画『her』で何が起こったのか尋ねました 。
11:17
Neil thought that the main character falls in love with his computer,
194
677160
3080
ニールは、主人公が コンピューターに恋をすると考えました。
11:20
— which was the correct answer! — OK.
195
680360
2760
それが正解でした。 - わかりました。
11:23
Right, it's time to recap the vocabulary we've learned from this programme
196
683240
3640
さて、 この番組で学んだ
11:27
about AI, including 'chatbots' —
197
687000
2720
AI に関する語彙を復習しましょう。その中には、「チャットボット」も含まれます。チャットボットとは、「インターネットを介して人間と
11:29
'computer programmes designed to interact with humans over the internet'.
198
689840
4080
対話するように設計されたコンピューター プログラム 」のことです。
11:34
The adjective 'cognitive' describes anything connected
199
694040
3440
「認知的」という形容詞は、
11:37
with 'the mental processes of knowing, learning and understanding'.
200
697600
3680
「知る、学ぶ、理解する精神的なプロセス 」に関連するあらゆるものを表します。
11:41
'Wishful thinking' means 'thinking that something which is very unlikely to happen
201
701400
4720
「希望的観測」とは、「 起こる可能性が非常に低いことが、
11:46
'might happen one day in the future'.
202
706240
2040
将来のある日起こるかもしれないと考えること」を意味します。
11:48
To 'anthropomorphise' an object
203
708400
1440
物体を「擬人化する」ということは、「たとえそれが
11:49
means 'to treat it as if it were human, even though it's not'.
204
709960
3440
人間でなくても、人間であるかのように扱う」ことを意味します 。
11:53
When you're 'blindsided', you're 'surprised in a negative way'.
205
713520
3640
「不意を突かれる」ということは、「 悪い意味で驚かされる」ということです。
11:57
And finally, to 'get taken in' by someone means to be 'deceived or tricked' by them.
206
717280
4760
そして最後に、誰かに「騙される」ということは、 その人に「騙されたり、だまされたりする」ことを意味します。
12:02
My computer tells me that our six minutes are up!
207
722160
2920
コンピューターによると、 6 分が経過したようです。
12:05
Join us again soon, for now it's goodbye from us.
208
725200
2960
すぐにまた参加してください。 今はこれでお別れです。
12:08
Bye!
209
728280
1360
さよなら!
12:09
6 Minute English.
210
729760
1560
6分間英語。
12:11
From BBC Learning English.
211
731440
2400
BBC Learning Englishより。
12:14
Hello, I'm Rob. Welcome to 6 Minute English and with me in the studio is Neil.
212
734640
4520
こんにちは、ロブです。 6 Minute English へようこそ。 スタジオにはニールも来ています。
12:19
— Hello, Rob. — Hello.
213
739280
1720
— こんにちは、ロブ。 - こんにちは。
12:21
Feeling clever today, Neil?
214
741120
1520
今日は賢い気分かい、ニール?
12:22
I am feeling quite bright and clever, yes!
215
742760
2240
そうですね、私はとても頭が良くて賢いと感じています!
12:25
That's good to hear.
216
745120
1000
それはよかったです。
12:26
Well, 'you'll need your wits about you' —
217
746240
1640
そうですね、「機転を利かせてください」。
12:28
meaning 'you'll need to think very quickly' in this programme,
218
748000
2760
つまり「素早く考えてください 」という意味です。この番組では、
12:30
because we're talking about intelligence,
219
750880
2480
知能、
12:33
or to be more accurate, artificial intelligence,
220
753480
3280
より正確に言えば 人工知能について話しているので、
12:36
and we'll learn some vocabulary related to the topic,
221
756880
3040
私たちは トピックに関連するいくつかの語彙を用意して、
12:40
so that you can have your own discussion about it.
222
760040
2720
それについて独自の議論ができるようにします。
12:42
Neil, now, you know who Professor Stephen Hawking is, right?
223
762880
3120
ニール、あなたは スティーブン・ホーキング教授が誰なのか知っていますか?
12:46
Well, of course! Yes.
224
766120
1240
ええ、もちろんです! はい。
12:47
Many people say that he's a 'genius' —
225
767480
2320
多くの人が彼を「天才」だと言います。
12:49
in other words, he is 'very, very intelligent'.
226
769920
3080
言い換えれば、 彼は「非常に頭が良い」のです。
12:53
Professor Hawking is one of the most famous scientists in the world
227
773120
3480
ホーキング教授は 世界で最も有名な科学者の一人であり
12:56
and people remember him for his brilliance
228
776720
1960
、その聡明さだけでなく、
12:58
and also because he communicates using a synthetic voice generated by a computer —
229
778800
5560
コンピューターで生成された合成音声を使ってコミュニケーションをとることでも人々に記憶されています
13:04
'synthetic' means it's 'made from something non-natural'.
230
784480
3120
。合成とは、「非自然的なものから作られた」という意味です。
13:07
'Artificial' is similar in meaning —
231
787720
2040
「人工」も意味は似ており、「
13:09
we use it when something is 'man-made to look or behave like something natural'.
232
789880
4720
何かが 自然なもののように見えるか、自然な動作をするように人工的に作られた」場合に使用します。
13:14
Well, Professor Hawking has said recently
233
794720
2360
そうですね、ホーキング教授は最近、
13:17
that efforts to create thinking machines are a threat to our existence.
234
797200
4440
考える機械を作ろうとする努力は 私たちの存在にとって脅威であると述べました。
13:21
A 'threat' means 'something which can put us in danger'.
235
801760
3240
「脅威」とは、「 私たちを危険にさらす可能性のあるもの」を意味します。
13:25
Now, can you imagine that, Neil?!
236
805120
1360
さて、ニール、それを想像できますか?
13:26
Well, there's no denying that good things
237
806600
2080
まあ、人工知能の創造から良いものが生まれる可能性があることは否定できません
13:28
can come from the creation of artificial intelligence.
238
808800
2640
13:31
Computers which can think for themselves
239
811560
1920
自分で考えることができるコンピューターは、私たちが解決できなかった問題の
13:33
might be able to find solutions to problems we haven't been able to solve.
240
813600
4320
解決策を見つけることができるかもしれません 。
13:38
But technology is developing quickly and maybe we should consider the consequences.
241
818040
4680
しかし、テクノロジーは急速に発展しており、その 結果について考慮すべきかもしれません。
13:42
Some of these very clever robots are already surpassing us, Rob.
242
822840
4440
非常に賢いロボットの中には、 すでに私たちを追い越しているものもありますよ、ロブ。
13:47
'To surpass' means 'to have abilities superior to our own'.
243
827400
4000
「凌駕する」とは、「 自分よりも優れた能力を持つ」という意味です。
13:51
Yes. Maybe you can remember the headlines when a supercomputer
244
831520
3280
はい。 スーパーコンピュータがチェスの
13:54
defeated the World Chess Champion, Gary Kasparov, to everyone's astonishment.
245
834920
4960
世界チャンピオン、ガルリ・ カスパロフを破り、皆が驚いたときのニュースの見出しを覚えているかもしれません。
14:00
It was in 1997. What was the computer called though, Neil?
246
840000
3440
それは 1997 年のことでした。 ニール、そのコンピューターは何と呼ばれていましたか?
14:03
Was it a) Red Menace? b) Deep Blue? Or c) Silver Surfer?
247
843560
6040
それは a) レッドメナスでしたか? b) ディープブルー? それともc) シルバーサーファー?
14:09
Erm, I don't know.
248
849720
2200
えーっと、分かりません。
14:12
I think c) is probably not right. Erm...
249
852040
2360
c) はおそらく正しくないと思います。 えーと…
14:16
I think Deep Blue. That's b) Deep Blue.
250
856000
2160
ディープ・ブルーだと思います。 それは b) ディープブルーです。
14:18
OK. Well, you'll know if you got the answer right at the end of the programme.
251
858280
3680
わかりました。 正解かどうかは 番組の最後にわかります。
14:22
Well, our theme is artificial intelligence
252
862080
2240
さて、私たちのテーマは人工知能であり
14:24
and when we talk about this, we have to mention the movies.
253
864440
2840
、これについて話すとき、 映画について触れなければなりません。
14:27
Mm, many science fiction movies have explored the idea
254
867400
3240
うーん、多くの SF 映画では、
14:30
of bad computers who want to harm us.
255
870760
2440
人間に危害を加えようとする悪質なコンピューターという概念が取り上げられてきました。
14:33
One example is 2001: A Space Odyssey.
256
873320
3440
一例としては『2001年宇宙の旅』が挙げられます。
14:36
Yes, a good film.
257
876880
1000
はい、良い映画でした。
14:38
And another is The Terminator, a movie in which actor Arnold Schwarzenegger
258
878000
4000
そしてもうひとつは、 俳優アーノルド・シュワルツェネッガーが
14:42
played an android from the future.
259
882120
2240
未来から来たアンドロイドを演じた映画『ターミネーター』です。
14:44
An 'android' is 'a robot that looks like a human'. Have you watched that one, Neil?
260
884480
3640
「アンドロイド」とは「人間のように見えるロボット 」です。 ニール、あれを見ましたか?
14:48
Yes, I have and that android is not very friendly.
261
888240
3480
はい、持っていますが、そのアンドロイドは あまりフレンドリーではありません。
14:51
No, it's not!
262
891840
1000
いいえ違います! 思考するロボットに関する
14:52
In many movies and books about robots that think,
263
892960
2920
多くの映画や本では、
14:56
the robots end up rebelling against their creators.
264
896000
3200
ロボットは結局、 創造者に対して反抗することになります。
14:59
But some experts say the risk posed by artificial intelligence
265
899320
3480
しかし、 人工知能がもたらすリスクは、
15:02
is not that computers attack us because they hate us.
266
902920
3320
コンピューターが人間を憎んで攻撃するということではないと主張する専門家もいる 。
15:06
Their problem is related to their efficiency.
267
906360
2800
彼らの問題は 効率性に関係しています。
15:09
What do you mean?
268
909280
1000
どういう意味ですか?
15:10
Well, let's listen to what philosopher Nick Bostrom has to say.
269
910400
3920
さて、哲学者ニック・ボストロムの言うことを聞いてみましょう 。
15:14
He's the founder of the Future of Humanity Institute at Oxford University.
270
914440
4880
彼はオックスフォード大学の人類の未来研究所の創設者です 。
15:19
He uses three words when describing what's inside the mind of a thinking computer.
271
919440
5800
彼は、思考するコンピュータの頭の中にあるものを説明するときに、3 つの単語を使います 。
15:25
This phrase means 'to meet their objectives'. What's the phrase he uses?
272
925360
4640
このフレーズは「目的を達成する」という意味です 。 彼が使うフレーズは何ですか?
15:30
The bulk of the risk is not in machines being evil or hating humans,
273
930680
5120
リスクの大部分は、機械が 邪悪であったり、人間を憎んだりすることではなく、
15:35
but rather that they are indifferent to humans
274
935920
2320
むしろ機械が 人間に無関心であり
15:38
and that, in pursuit of their own goals, we humans would suffer as a side effect.
275
938360
4360
、機械自身の目的を追求することで、 副作用として人間が苦しむことになるという点にあります。 できるだけ多くのペーパークリップを作ることを唯一の目標とする
15:42
Suppose you had a super intelligent AI
276
942840
1800
超知能 AI があったとします
15:44
whose only goal was to make as many paperclips as possible.
277
944760
3240
15:48
Human bodies consist of atoms
278
948120
2280
人体は原子で構成されており
15:50
and those atoms could be used to make a lot of really nice paperclips.
279
950520
4360
、それらの原子を使って 本当に素敵なペーパークリップをたくさん作ることができます。
15:55
If you want paperclips, it turns out that in the pursuit of this,
280
955000
3080
ペーパークリップが欲しいなら、 それを追求する過程で
15:58
you would have instrumental reasons to do things that would be harmful to humanity.
281
958200
3320
人類に害を及ぼすようなことをする手段的理由を持つことになるということがわかります。
16:02
A world in which humans become paperclips — wow, that's scary!
282
962360
4640
人間が ペーパークリップになる世界。わあ、怖いですね!
16:07
But the phrase which means 'meet their objectives' is to 'pursue their goals'.
283
967120
4520
しかし、「目標を達成する」という意味のフレーズは、 「目標を追求する」ということです。
16:11
Yes, it is.
284
971760
1000
はい、そうです。
16:12
So the academic explains that if you're a computer
285
972880
3280
そこで、この学者は、
16:16
responsible for producing paperclips, you will pursue your objective at any cost.
286
976280
5800
ペーパークリップの作成を担当するコンピューターであれば、 どんな犠牲を払ってでも目的を追求するだろうと説明しています。
16:22
And even use atoms from human bodies to turn them into paperclips!
287
982200
4440
さらに、人体の原子を使って ペーパークリップを作ることもできます。
16:26
— Now that's a horror story, Rob. — Mm.
288
986760
2040
— それは恐ろしい話だよ、ロブ。 — うーん。
16:28
If Stephen Hawking is worried, I think I might be too!
289
988920
3120
スティーブン・ホーキングが心配しているなら、 私も心配するかもしれません!
16:32
How can we be sure that artificial intelligence —
290
992160
2880
16:35
be either a device or software — will have a moral compass?
291
995160
4000
デバイスであれソフトウェアであれ、人工知能が 道徳的な指針を持っていると確信できるのはなぜでしょうか?
16:39
Ah, a good expression — a 'moral compass' —
292
999280
2000
ああ、いい表現ですね。 「道徳的な羅針盤」、
16:41
in other words, 'an understanding of what is right and what is wrong'.
293
1001400
3960
言い換えれば「 何が正しくて何が間違っているかの理解」です。
16:45
Artificial intelligence is an interesting topic, Rob.
294
1005480
2560
人工知能は 興味深いトピックですね、ロブ。 今後
16:48
I hope we can chat about it again in the future.
295
1008160
2400
またこの件についてお話しできればと思います 。
16:50
But now I'm looking at the clock and we're running out of time, I'm afraid,
296
1010680
2880
しかし、今時計を見る と、残念ながら時間がなくなってきています。クイズの質問に正しく答え
16:53
and I'd like to know if I got the answer to the quiz question right?
297
1013680
3320
られたかどうか知りたいのですが 。
16:57
Well, my question was about a supercomputer
298
1017120
3000
さて、私の質問は、1997 年に
17:00
which defeated the World Chess Champion, Gary Kasparov, in 1997.
299
1020240
4320
世界チェス チャンピオンのガルリ カスパロフを破ったスーパーコンピュータについてです。
17:04
What was the machine's name? Was it Red Menace, Deep Blue or Silver Surfer?
300
1024680
4920
そのマシンの名前は何でしたか? それは 『レッドメナス』、『ディープブルー』、それとも『シルバーサーファー』でしたか?
17:09
And I think it's Deep Blue.
301
1029720
2880
そしてそれはディープブルーだと思います。
17:12
Well, it sounds like you are more intelligent than a computer,
302
1032720
2880
そうですね、あなたは コンピュータよりも賢いようですね
17:15
because you got the answer right.
303
1035720
1800
。なぜなら、あなたは正しい答えを出したからです。
17:17
Yes, it was Deep Blue.
304
1037640
1240
はい、ディープブルーでした。
17:19
The 1997 match was actually the second one between Kasparov and Deep Blue,
305
1039000
4680
1997年の試合は、実際には カスパロフとディープ・ブルー(
17:23
a supercomputer designed by the company IBM
306
1043800
3000
IBM社が設計し
17:26
and it was specialised in chess-playing.
307
1046920
2400
、チェスに特化したスーパーコンピューター)との2度目の試合だった。
17:29
Well, I think I might challenge Deep Blue to a game!
308
1049440
2840
さて、ディープブルーにゲームで挑戦してみようかな !
17:32
Obviously, I'm a bit, I'm a bit of a genius myself.
309
1052400
2600
明らかに、 私自身はちょっとした天才です。
17:35
Very good! Good to hear!
310
1055120
1600
とても良い! それはよかったです!
17:36
Anyway, we've just got time to remember
311
1056840
1600
とにかく、今日使った
17:38
some of the words and expressions that we've used today. Neil?
312
1058560
3080
単語や表現のいくつかを思い出す時間があります 。 ニール?
17:41
They were...
313
1061760
1000
彼らは...
17:42
you'll need your wits about you,
314
1062880
3680
あなたには機知が必要です。
17:46
artificial,
315
1066680
2560
人工的で、
17:49
genius,
316
1069360
2600
天才的で、
17:52
synthetic,
317
1072080
2040
合成的で、
17:54
threat,
318
1074240
1760
脅威で、
17:56
to surpass,
319
1076120
2600
17:58
to pursue their goals,
320
1078840
3120
彼らの目標を追い求めるには、
18:02
moral compass.
321
1082080
1320
道徳的な指針が必要です。
18:03
Thank you. Well, that's it for this programme.
322
1083520
2280
ありがとう。 さて、今回のプログラムはこれで終わりです。 6 Minute English 番組をもっとご覧になりたい方は、
18:05
Do visit BBC Learning English dot com to find more 6 Minute English programmes.
323
1085920
4720
BBC Learning English dot com をご覧ください 。
18:10
— Until next time, goodbye! — Goodbye!
324
1090760
1880
— ではまた次回まで、さようなら! - さようなら!
18:13
6 Minute English.
325
1093640
1440
6分間英語。
18:15
From BBC Learning English.
326
1095200
2280
BBC Learning Englishより。
18:18
Hello. This is 6 Minute English. I'm Rob. And joining me to do this is Sam.
327
1098600
4480
こんにちは。 これは6分間英語です。 私はロブです。 そして、私と一緒にこれをやってくれるのはサムです。
18:23
Hello.
328
1103200
1000
こんにちは。
18:24
In this programme, we're talking about robots.
329
1104320
3040
この番組では ロボットについてお話します。
18:27
Robots can perform many tasks,
330
1107480
2000
ロボットは多くのタスクを実行できます
18:29
but they're now being introduced in social care to operate as carers,
331
1109600
4560
が、現在では 介護士として社会福祉の分野で導入され、
18:34
to look after the sick and elderly.
332
1114280
2120
病人や高齢者の世話をしています。 これに関する
18:36
We'll be discussing the positive and negative issues around this,
333
1116520
3680
良い点と悪い点について議論するつもりです
18:40
but first, let's set you a question to answer, Sam. Are you ready for this?
334
1120320
3720
が、まずは サムさんに答えてもらう質問をしましょう。 準備はできていますか?
18:44
Fire away!
335
1124160
1120
発射してください! 最初の商用ロボットが作られたの
18:45
Do you know in which year was the first commercial robot built?
336
1125400
3880
は何年かご存知ですか ?
18:49
Was it in a) 1944? b) 1954? Or c) 1964?
337
1129400
7280
それは1944年でしたか? b) 1954年? それともc) 1964年でしょうか?
18:56
They're not a brand-new invention, so I'll go for 1954.
338
1136800
5440
まったく新しい発明ではない ので、1954 年とします。
19:02
OK, well, I'll tell you if you're right or wrong at the end of the programme.
339
1142360
4520
では、 番組の最後に正解か不正解かをお伝えします。
19:07
So, let's talk more about robots,
340
1147000
1920
それでは、ロボットについて
19:09
and specifically ones that are designed to care for people.
341
1149040
3720
、特に 人間の世話をするために設計されたロボットについて、さらに詳しくお話ししましょう。
19:12
Traditionally, it's humans working as nurses or carers
342
1152880
3480
伝統的に、
19:16
who take care of elderly people —
343
1156480
2200
19:18
those people who are too old or too unwell to look after themselves.
344
1158800
3800
高齢 や体調不良で自分で身の回りのことができない高齢者の世話をするのは、看護師や介護士として働く人間です。
19:22
But finding enough carers to look after people is a problem —
345
1162720
4360
しかし、人々の世話をする介護者を十分に見つけることは 問題です。
19:27
there are more people needing care than there are people who can help.
346
1167200
4120
介護を必要とする人の数は、 助けることができる人の数よりも多いのです。
19:31
And recently in the UK, the government announced a £34 million fund
347
1171440
5560
そして最近、英国政府は、
19:37
to help develop robots to look after us in our later years.
348
1177120
4520
私たちの老後の世話をしてくれるロボットの開発を支援するために3,400万ポンドの基金を発表した 。
19:41
Well, robot carers are being developed,
349
1181760
2440
ロボット介護士は開発されつつあります
19:44
but can they really learn enough empathy to take care of the elderly and unwell?
350
1184320
4560
が、高齢者や病人の介護に十分な共感力を本当に身につけることができるのでしょうか ?
19:49
'Empathy' is 'the ability to understand how someone feels
351
1189000
3680
「共感」とは、「ある人の立場だったら
19:52
'by imagining what it would be like to be in that person's situation'.
352
1192800
4240
どうなるかを想像することによって、その人の気持ちを理解する能力」です 。
19:57
Well, let's hear about one of those new robots now, called Pepper.
353
1197160
4680
さて、 今度はペッパーと呼ばれる新しいロボットについて聞きましょう。
20:01
Abbey Hearn-Nagaf is a research assistant at the University of Bedfordshire.
354
1201960
5080
アビー・ハーン・ナガフは ベッドフォードシャー大学の研究助手です。
20:07
She spoke to BBC Radio 4's You and Yours programme
355
1207160
3880
彼女はBBCラジオ4の 番組「ユー・アンド・ユアーズ」に出演し
20:11
and explained how Pepper is first introduced to someone in a care home.
356
1211160
4600
、ペッパーが 介護施設の人に初めて紹介される様子を説明した。
20:15
We just bring the robot to their room
357
1215880
2200
私たちはロボットを彼らの部屋に連れて行き
20:18
and we talk about what Pepper can't do, which is important,
358
1218200
2640
、ペッパーができないことについて話をします。 これは重要なことです
20:20
so it can't provide physical assistance in any way.
359
1220960
2720
が、ペッパーが物理的な支援をすることは決してできません 。
20:23
It does have hands, it can wave.
360
1223800
2160
手があるので、手を振ることができます。
20:26
When you ask for privacy, it does turn around
361
1226080
2000
プライバシーを要求すると、 振り返っ
20:28
and sort of cover its eyes with its hands, but that's the most it does.
362
1228200
3000
て手で目を覆ったりします が、それ以上はしません。
20:31
It doesn't grip anything, it doesn't move anything,
363
1231320
2160
何かをつかんだり、 動かしたりはしません。
20:33
because we're more interested to see how it works as a companion,
364
1233600
3480
なぜなら、私たちは、それが 仲間として、
20:37
having something there to talk to, to converse with, to interact with.
365
1237200
4080
話したり、会話し たり、交流したりするものとしてどのように機能するかを見ることに興味があるからです。
20:41
So, Abbey described how the robot is introduced to someone.
366
1241400
4240
そこで、アビーはロボット が誰かに紹介される様子を説明しました。
20:45
She was keen to point out that this robot has 'limitations' — 'things it can't do'.
367
1245760
6120
彼女は、このロボットには 「限界」、つまり「できないこと」があることを強調した。
20:52
It can wave or turn round when a person needs 'privacy' — 'to be private' —
368
1252000
5040
人が「プライバシー」、つまり「プライベートである」ことを必要とするとき、ロボットは手を振ったり向きを変えたりすることはできる
20:57
but it can't provide 'physical assistance'.
369
1257160
3280
が、 「物理的な支援」を提供することはできない。
21:00
This means it can't help someone by 'touching or feeling' them.
370
1260560
4440
つまり、人に 「触れたり感じたり」することで助けることはできないということです。
21:05
But that's OK, Abbey says.
371
1265120
1680
しかし、それは大丈夫だとアビーは言います。
21:06
This robot is designed to be a 'companion' —
372
1266920
3080
このロボットは、 「仲間」、つまり「
21:10
'someone who is with you to keep you company' —
373
1270120
2320
あなたと一緒にいて付き添ってくれる人」、
21:12
a friend, in other words, that you can converse or talk with.
374
1272560
3480
言い換えれば、 会話したり話したりできる友人となるように設計されている。
21:16
Well, having a companion is a good way to stop people getting lonely,
375
1276160
4400
そうですね、仲間がいることは 孤独にならないための良い方法です
21:20
but surely a human is better for that?
376
1280680
2960
が、そのためには人間の方が良いのではないでしょうか?
21:23
Surely they understand you better than a robot ever can?
377
1283760
3680
彼らは きっとロボットよりもあなたをよく理解しているのではないでしょうか?
21:27
Well, innovation means that robots are becoming cleverer all the time.
378
1287560
4640
そうですね、イノベーションとは、ロボットが 常に賢くなっていくことを意味します。
21:32
And, as we've mentioned, in the UK alone there is a growing elderly population
379
1292320
4720
そして、すでに述べたように、英国だけでも 高齢者人口が増加しており、
21:37
and more than 100,000 care assistant vacancies.
380
1297160
3360
介護助手の求人は 10 万人以上あります。
21:40
Who's going to do all the work?
381
1300640
1800
誰がすべての仕事をするのでしょうか?
21:42
I think we should hear from Dr Sarah Woodin,
382
1302560
2640
21:45
a health researcher in independent living from Leeds University,
383
1305320
4040
21:49
who also spoke to the BBC's You and Yours programme.
384
1309480
3960
BBCの「You and Yours」番組でも講演した、リーズ大学の自立生活に関する健康研究者サラ・ウッディン博士の話を聴くべきだと思う 。
21:53
She seems more realistic about the introduction of robot carers.
385
1313560
5120
彼女は ロボット介護者の導入についてはより現実的であるようだ。
21:59
I think there are problems if we consider robots as replacement for people.
386
1319200
4600
ロボットを人間の代わりと考えると問題があると思います。
22:03
We know that money is tight — if robots become mass-produced,
387
1323920
4680
資金が不足していることはわかっています。 ロボットが大量生産されれば、
22:08
there could be large institutions where people might be housed
388
1328720
4200
人間を収容し
22:13
and abandoned to robots.
389
1333040
2800
、ロボットに任せる大規模な施設ができる可能性があります。
22:15
I do think questions of ethics
390
1335960
1480
倫理の問題も成長と雇用の課題に組み込む必要があると私は考えています。なぜなら、倫理の問題と
22:17
need to come into the growth and jobs agenda as well,
391
1337560
3600
成長と雇用の問題は
22:21
because, sometimes, they're treated very separately.
392
1341280
2440
、時として まったく別々に扱われることがあるからです。
22:23
OK, so Sarah Woodin suggests that when money is 'tight' —
393
1343840
3440
さて、サラ・ウッディンは、 資金が「厳しい」場合、
22:27
meaning there is 'only just enough' —
394
1347400
1680
つまり「ぎりぎり十分な」場合、
22:29
making robots in large quantities — or mass-produced —
395
1349200
3320
ロボットを大量に作る( 大量生産する)ことは、人間を使うよりも
22:32
might be a cheaper option than using humans.
396
1352640
2720
安価な選択肢になるかもしれないと示唆している 。
22:35
And she says people might be abandoned to robots.
397
1355480
3160
そして、人間は ロボットに捨てられるかもしれないと彼女は言う。
22:38
Yes, 'abandoned' means 'left alone in a place, usually forever'.
398
1358760
5840
はい、「放棄」とは、「 通常は永久に、ある場所に放置される」ことを意味します。
22:44
So she says it might be possible that someone ends up being forgotten
399
1364720
4360
そのため、 誰かが忘れ去られ
22:49
and only having a robot to care for them. So is this right, ethically?
400
1369200
5640
、ロボットだけが世話をすることになる可能性もある、と彼女は言う。 それで、これは倫理的に正しいのでしょうか?
22:54
Yes, well, she mentions 'ethics' — that's 'what is morally right' —
401
1374960
3920
そうですね、彼女は「倫理」について言及しています。 それは「道徳的に正しいこと」であり
22:59
and that needs to be considered as part of the jobs agenda.
402
1379000
3440
、雇用計画の一部として考慮される必要があります 。
23:02
So, we shouldn't just consider what job vacancies need filling,
403
1382560
3160
したがって、 どのような求人を埋める必要があるかだけ
23:05
but who and how it should be done.
404
1385840
2360
でなく、誰がどのように埋めるべきかを検討する必要があります。
23:08
And earlier I asked you, Sam,
405
1388320
1400
先ほどサムさんに尋ねましたが、
23:09
did you know in which year was the first commercial robot built? And you said?
406
1389840
4440
最初の 商用ロボットが作られたのは何年かご存じですか? そしてあなたは言いましたか?
23:14
I said 1954.
407
1394400
1640
私は 1954 年と言いました。
23:16
Well, you didn't need a robot to help you there because you are right.
408
1396160
3320
そうですね、あなたが正しいので、そこではロボットの助けは必要ありませんでした 。
23:19
— Ah, yay! — Well done!
409
1399600
1760
— ああ、やったー! - よくやった!
23:21
Now let's do something a robot can't do yet,
410
1401480
2720
では、ロボットがまだできないことをやってみましょう。それは、
23:24
and that's recap the vocabulary we've highlighted today, starting with empathy.
411
1404320
5280
共感から始めて、今日強調した語彙を要約することです。
23:29
'Empathy' is 'the ability to understand how someone feels
412
1409720
3440
「共感」とは、「ある人の立場だったら
23:33
by imagining what it would be like to be in that person's situation'.
413
1413280
3920
どうなるかを想像することで、その人の気持ちを理解する能力」です 。
23:37
'Physical assistance' describes 'helping someone by touching them'.
414
1417320
4280
「身体的な援助」とは、 「触れることで誰かを助けること」を指します。
23:41
We also mentioned a 'companion' —
415
1421720
1920
また、「仲間」についても触れました。これは
23:43
that's 'someone who is with you and keeps you company'.
416
1423760
2680
「あなたと一緒にいて 、あなたに付き添ってくれる人」のことです。
23:46
Our next word was 'tight' — in the context of money,
417
1426560
3280
次の単語は「tight」です。 お金に関して言えば、
23:49
when money is tight, it means there's 'not enough'.
418
1429960
3120
お金が足りないということは 「十分ではない」という意味です。
23:53
'Abandoned' means 'left alone in a place, usually forever'.
419
1433200
3400
「放棄される」とは、 「通常は永久に、ある場所に放置される」ことを意味します。
23:56
And finally, we discussed the word 'ethics' —
420
1436720
2440
そして最後に、 私たちは「倫理」という言葉について話し合いました。
23:59
we hear a lot about business ethics or medical ethics —
421
1439280
3760
ビジネス倫理や医療倫理についてはよく耳にしますが
24:03
and it means 'the study of what is morally right'.
422
1443160
3280
、それは 「道徳的に正しいことについての研究」を意味します。
24:06
OK, thank you, Sam.
423
1446560
1560
わかりました、ありがとう、サム。
24:08
Well, we've managed to get through 6 Minute English without the aid of a robot.
424
1448240
4520
さて、私たちは ロボットの助けを借りずに 6 Minute English をやり遂げることができました。
24:12
That's all for now, but please join us again soon. Goodbye!
425
1452880
2920
今回はここまでです が、また次回もぜひご参加ください。 さようなら!
24:15
Bye-bye, everyone!
426
1455920
1000
みなさん、さようなら!
24:17
6 Minute English.
427
1457720
1680
6分間英語。
24:19
From BBC Learning English.
428
1459520
2480
BBC Learning Englishより。
24:22
Hello. This is 6 Minute English from BBC Learning English. I'm Phil.
429
1462840
3800
こんにちは。 これは BBC Learning English の 6 Minute English です。 私はフィルです。
24:26
And I'm Georgie.
430
1466760
1240
そして私はジョージーです。
24:28
Animal testing is when living animals are used in scientific research
431
1468120
4320
動物実験とは、
24:32
to find out how effective a new medicine is, or how safe a product is for humans.
432
1472560
5880
新しい薬がどれだけ効果的か、 あるいは製品が人間にとってどれだけ安全かを調べるために、生きた動物を科学的研究に使うことです。 動物実験を
24:38
Scientists in favour of it argue that animal testing
433
1478560
3360
支持する科学者は、 動物実験は
24:42
shows whether medicines are safe or dangerous for humans,
434
1482040
3840
医薬品 が人間にとって安全か危険かを明らかにし
24:46
and has saved many lives.
435
1486000
1760
、多くの命を救ってきたと主張する。
24:47
But animal rights campaigners say it's cruel,
436
1487880
2720
しかし、動物愛護活動家らは、 これは残酷であり
24:50
and also ineffective because animals and humans are so different.
437
1490720
4800
、動物と人間は非常に異なるため効果がないと主張している 。
24:55
Under British law, medicines must be tested on two different types of animals,
438
1495640
5800
英国の法律では、医薬品は通常、ネズミ、マウス、モルモットなどから始めて、 2種類の異なる動物でテストする必要がある
25:01
usually starting with rats, mice or guinea pigs.
439
1501560
4280
25:05
And in everyday English, the term 'human guinea pig'
440
1505960
3680
また、日常英語では、 「人間モルモット」という用語は、「何かのテストを受ける
25:09
can be used to mean 'the first people to have something tested on them'.
441
1509760
4600
最初の人々」という意味で使用されます 。
25:14
But now, groups both for and against animal testing are thinking again,
442
1514480
4960
しかし現在、動物実験賛成派と反対派の両方のグループが、議論における
25:19
thanks to a recent development in the debate — AI.
443
1519560
3640
最近の進展である AI のおかげで、考え直し始めています 。
25:23
In this programme, we'll be hearing how artificial intelligence
444
1523320
3160
この番組では、 人工知能が
25:26
could help reduce the need for scientific testing on animals.
445
1526600
3960
動物に対する科学的実験の必要性を減らすのにどのように役立つかについてお話します。
25:30
But first, I have a question for you, Georgie.
446
1530680
3400
しかし、まずジョージーさんに質問があります 。
25:34
There's one commonly used medicine in particular
447
1534200
2880
特に、
25:37
which is harmful for animals but safe for humans, but what?
448
1537200
5040
動物には有害だ が人間には安全な、よく使われる薬が 1 つあります。それは何でしょうか?
25:43
Is it a) Antibiotics?
449
1543240
3280
それは a) 抗生物質ですか?
25:46
b) Aspirin?
450
1546640
2080
b) アスピリン?
25:48
Or c) Paracetamol?
451
1548840
2480
それともc)パラセタモールでしょうか?
25:51
Hmm, I guess it's aspirin.
452
1551440
2880
うーん、アスピリンかな。
25:54
OK, Georgie, I'll reveal the answer at the end of the programme.
453
1554440
4080
OK、ジョージー、 番組の最後に答えを明かします。
25:58
Christine Ro is a science journalist who's interested in the animal testing debate.
454
1558640
5360
クリスティン・ローは 動物実験論争に関心を持つ科学ジャーナリストです。
26:04
Here, she explains to BBC World Service programme Tech Life
455
1564120
4600
ここで彼女は、BBCワールドサービスの 番組「テック・ライフ」で、
26:08
some of the limitations of testing medicines on animals.
456
1568840
3640
動物を使った医薬品の試験の限界のいくつかについて説明しています。
26:12
Of course, you can't necessarily predict from a mouse or a dog
457
1572600
2640
もちろん、 マウスや犬から
26:15
what's going to happen in a human, and there have been a number of cases
458
1575360
3760
人間に何が起こるかを必ずしも予測することはできませんし 、
26:19
where substances that have proven to be toxic in animals
459
1579240
3320
動物に有毒であることが証明された物質が
26:22
have been proven to be safe in humans, and vice versa.
460
1582680
3200
人間には安全であることが証明された例も数多くあります。 逆もまた同様です。
26:27
There are also, of course, animal welfare limitations to animal testing.
461
1587200
4040
もちろん、 動物実験には動物福祉上の制限もあります。
26:31
Most people, I think, if they had the choice,
462
1591360
2280
多くの人は、もし 選択権があるなら、安全性を確保しながら、
26:33
would want their substances to be used on as few animals or no animals as possible,
463
1593760
5160
その物質が できるだけ少ない動物、あるいは動物にまったく使われないことを望むだろうと思います
26:39
while still ensuring safety.
464
1599040
1840
26:41
Now, that's been a really difficult needle to thread,
465
1601000
2280
これは本当に難しい問題です
26:43
but AI might help to make that more possible.
466
1603400
2440
が、AI によって それが実現しやすくなるかもしれません。
26:45
Christine says that medicines which are safe for animals
467
1605960
3280
クリスティンは、 動物にとって安全な薬が
26:49
might not be safe for humans.
468
1609360
2320
人間にとっても安全ではないかもしれないと言います。
26:51
But the opposite is also true —
469
1611800
1760
しかし、その逆もまた真なりです。
26:53
what's safe for humans might not be safe for animals.
470
1613680
3760
人間にとって安全なものが、 動物にとっても安全ではない可能性があります。
26:57
Christine uses the phrase 'vice versa'
471
1617560
2600
クリスティンは「vice versa」というフレーズを使って、自分が言っていることの
27:00
to show that 'the opposite' of what she says is also true.
472
1620280
3920
「反対」も真実であることを示しています 。
27:05
Christine also uses the idiom to 'thread the needle'
473
1625320
3200
クリスティンは、 「針に糸を通す」という慣用句を、「特に対立を伴うような、高度な技術と正確さを
27:08
to describe 'a task which requires a lot of skill and precision,
474
1628640
3800
必要とする仕事」を表すためにも使います
27:12
'especially one involving a conflict'.
475
1632560
3480
27:16
Yes, medical animal testing may save human lives,
476
1636160
4400
確かに、医療動物実験は 人間の命を救うかもしれない
27:20
but many people see it as cruel and distressing for the animal —
477
1640680
3920
が、多くの人々はそれを 動物にとって残酷で苦痛なことだと考えている。
27:24
it's a difficult needle to thread.
478
1644720
2840
それは難しい問題だ。
27:27
But now, the challenge of threading that needle has got a little easier
479
1647680
3760
しかし今では、人工知能のおかげで、針に糸を通すという課題が 少し楽になりました
27:31
because of artificial intelligence.
480
1651560
2080
27:33
Predicting how likely a new medicine is to harm humans
481
1653760
3680
新しい薬が人間に害を及ぼす可能性を予測するには、何千もの実験の
27:37
involves analysing the results of thousands of experiments.
482
1657560
3960
結果を分析する必要があります 。
27:41
And one thing AI is really good at is analysing mountains and mountains of data.
483
1661640
6280
AI が本当に得意とするのは、 山のようなデータの分析です。
27:48
Here's Christine Ro again, speaking with BBC World Service's Tech Life.
484
1668040
4440
再びクリスティン・ローが BBC ワールド サービスの Tech Life に出演します。
27:52
So, AI isn't the whole picture, of course,
485
1672600
1880
もちろん、AIが全体像ではありませんが、AIは
27:54
but it's an increasingly important part of the picture and one reason for that
486
1674600
4240
ますます重要な部分を占めています。 その理由の1つは、化学物質の安全性を判断する際に、
27:58
is that there is a huge amount of toxicology data to wade through
487
1678960
3320
膨大な量 の毒物学データを精査する必要があることです
28:02
when it comes to determining chemical safety, and, on top of that,
488
1682400
3720
。 それに加えて、
28:06
there's the staggering number of chemicals being invented all of the time.
489
1686240
4120
驚くほど多くの化学物質が 常に発明されています。
28:10
AI helps scientists wade through huge amounts of data.
490
1690480
4280
AI は科学者が 膨大な量のデータを処理するのを支援します。
28:14
If you 'wade through' something,
491
1694880
2200
何かを「やり遂げる」ということは、
28:17
you 'spend a lot of time and effort doing something boring or difficult,
492
1697200
4920
28:22
'especially reading a lot of information'.
493
1702240
2960
「特に大量の情報を読むこと」など、退屈なことや難しいことに多くの時間と労力を費やすことを意味します。
28:25
AI can process huge amounts of data,
494
1705320
2600
AIは膨大な量のデータを処理することができ、
28:28
and what's more, that amount keeps growing as new chemicals are invented.
495
1708040
5360
さらに、 新しい化学物質が発明されるにつれてその量は増え続けます。
28:33
Christine uses the phrase 'on top of that', meaning 'in addition to something'.
496
1713520
4960
クリスティンは「on top of that」というフレーズを使っていますが 、これは「何かに加えて」という意味です。
28:38
Often this extra thing is negative.
497
1718600
2440
多くの場合、この余分なものはマイナスになります。
28:41
She means there's already so much data to understand
498
1721160
3360
彼女の言うことは、理解すべきデータがすでにたくさんあり
28:44
and additionally, there's even more to be understood about these new chemicals.
499
1724640
5000
、さらに、 これらの新しい化学物質については理解すべきことがさらにたくさんあるということです。
28:49
Of course, the good news is that with AI, testing on animals could one day stop,
500
1729760
6160
もちろん、AI があれば、 いつか動物実験がなくなるかもしれないというのは朗報だ
28:56
although Christine warns that AI is not the 'whole picture',
501
1736040
3840
が、クリスティーンは AI は 「全体像」ではなく、「
29:00
it's not 'a complete description of something
502
1740000
2120
29:02
'which includes all the relevant information'.
503
1742240
2920
すべての関連情報を含む何かの完全な説明」ではないと警告している。
29:05
Nevertheless, the news is a step forward
504
1745280
2640
それでも、このニュースは
29:08
for both animal welfare and for modern medicine.
505
1748040
4040
動物福祉にとって も現代医学にとっても前進となる。
29:12
Speaking of which, what was the answer to your question, Phil?
506
1752200
3720
そういえば、 フィルさん、あなたの質問の答えは何でしたか?
29:16
What is a commonly used medicine which is safe for humans, but harmful to animals?
507
1756040
5200
人間には安全だが、動物には有害な、よく使われる薬は何ですか?
29:21
I guessed it was aspirin.
508
1761360
1920
それはアスピリンだったと思います。
29:23
Which was the correct answer!
509
1763400
3080
正解はどれでしょうか!
29:26
Right, let's recap the vocabulary we've discussed,
510
1766600
3640
さて、これまで議論してきた語彙をまとめてみましょう。まずは「何か
29:30
starting with 'human guinea pigs'
511
1770360
2600
29:33
meaning 'the first people to have something new tested on them'.
512
1773080
3880
新しいものをテストされる最初の人々」を意味する「人間モルモット」から始めましょう。
29:37
The phrase 'vice versa' is used to indicate
513
1777080
2560
「vice versa」というフレーズは、
29:39
that 'the opposite of what you have just said is also true'.
514
1779760
4280
「 あなたが今言ったことの反対も真実である」ことを示すために使用されます。
29:44
To 'thread the needle'
515
1784160
1320
「針に糸を通す」とは、「
29:45
describes 'a task which requires extreme skill and precision to do successfully'.
516
1785600
6120
成功するために高度な技術と正確さを必要とする作業」を表します。
29:51
The 'whole picture' means 'a complete description of something
517
1791840
3360
「全体像」とは、「ある事柄に関する
29:55
'which includes all the relevant information and opinions about it'.
518
1795320
4440
すべての関連 情報と意見を含む、その事柄の完全な説明」を意味します。
29:59
If you 'wade through' something,
519
1799880
2000
何かを「やり遂げる」ということは、
30:02
you 'spend a lot of time and effort doing something boring or difficult,
520
1802000
4840
30:06
'especially reading a lot of information'.
521
1806960
2800
「特に大量の情報を読むこと」など、退屈なことや難しいことに多くの時間と労力を費やすことを意味します。
30:09
And finally, the phrase 'on top of something'
522
1809880
2960
そして最後に、 「on top of something」というフレーズは
30:12
means 'in addition to something', and that extra thing is often negative.
523
1812960
5000
「何かに加えて」という意味で、 その余分なものは多くの場合否定的な意味になります。
30:18
That's all for this week. Goodbye for now!
524
1818080
2080
今週はこれで終わりです。 それではまた!
30:20
Bye!
525
1820280
1360
さよなら!
30:21
6 Minute English.
526
1821760
1320
6分間英語。
30:23
From BBC Learning English.
527
1823200
2800
BBC Learning Englishより。
このウェブサイトについて

このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。

https://forms.gle/WvT1wiN1qDtmnspy7