Should we fear chatbots? ⏲️ 6 Minute English

133,861 views ・ 2023-07-06

BBC Learning English


下の英語字幕をダブルクリックすると動画を再生できます。 翻訳された字幕は機械翻訳です。

00:07
Hello. This is 6 Minute English
0
7680
1600
こんにちは。
00:09
from BBC Learning English.
1
9280
1720
BBC Learning English の 6 Minute English です。
00:11
I'm Neil.
2
11000
760
00:11
And I'm Rob.
3
11760
1720
私はニールです。
そして私はロブです。
00:13
Now, I'm sure most of us have interacted with a chatbot.
4
13480
4160
さて、私たちのほとんどはチャットボットと対話したことがあると思います 。
00:17
These are bits of computer technology that respond to text with text
5
17640
4920
これらは、 テキストにテキストで応答したり
00:22
or respond to your voice.
6
22560
2040
、音声に応答したりするコンピューター技術の一部です。
00:24
You ask it a question and usually it comes up
7
24600
3400
質問すると、 たいてい答えが返ってきます
00:28
with an answer.
8
28000
1200
00:29
Yes, it's almost like talking to another human.
9
29200
2480
はい、まるで別の人間と話しているような感じです 。
00:31
But of course, it's not.
10
31680
1760
しかし、もちろんそうではありません。
00:33
It's just a clever piece of technology.
11
33440
2640
それは単なる賢い テクノロジーです。
00:36
It's becoming more sophisticated, more advanced and complex,
12
36080
3720
それはますます洗練され、より高度で複雑になってきていますが 、
00:39
but could they replace real human interaction altogether?
13
39800
3200
実際の人間のやりとりを完全に置き換えることはできるのでしょうか?
00:43
We'll discuss that more in a moment and find out if chatbots
14
43000
3560
これについては 後ほど詳しく説明し、チャットボットが本当に自分で考えるかどうかを確認します
00:46
really think for themselves. But first,
15
46560
3120
。 その前に、
00:49
I have a question for you, Rob. The first computer program that allowed
16
49680
4000
ロブ、あなたに質問があります。 人間と機械の間で何らかのもっともらしい会話を 可能にする最初のコンピューター プログラムは
00:53
some kind of plausible conversation between humans and machines
17
53680
4400
00:58
was invented in 1966.
18
58080
2840
1966 年に発明されました。
01:00
But what was it called?
19
60920
1760
しかし、それは何と呼ばれていましたか?
01:02
Was it a) Alexa.
20
62680
2360
それは) アレクサでしたか。
01:05
b) Eliza, or c) Parry? Well, it's not Alexa,
21
65040
5040
b) イライザ、または c) パリー? そうですね、Alexa ではありません。
01:10
that's too new, so I'll guess
22
70080
2080
新しすぎるので、
01:12
c) Parry.
23
72160
1160
c) パリーだと思います。
01:13
I'll reveal the answer at the end of the programme.
24
73320
3480
答えは 番組の最後に発表します。
01:16
Now, the old chatbots of the 1960s and 70s were quite basic.
25
76800
5400
さて、1960 年代と 70 年代の古いチャットボットは 非常に基本的なものでした。
01:22
But more recently, the technology is able to predict the next word that is
26
82200
5600
しかし、より最近では、このテクノロジーは
01:27
likely to be used in a sentence and it learns words and sentence structures.
27
87800
4800
文の中で次に使用される可能性のある単語を予測し、 単語と文の構造を学習することができるようになりました。
01:32
It's clever stuff.
28
92600
1360
それは賢いことです。
01:33
I've experienced using them when talking to my bank
29
93960
2760
私は、 銀行に問い合わせるとき
01:36
or when I have problems trying to book a ticket on a website.
30
96720
3320
や、 ウェブサイトでチケットを予約する際に問題が発生したときに、これらを使用した経験があります。
01:40
I no longer phone a human,
31
100040
2480
私はもう人間に電話するのではなく、
01:42
I speak to a virtual assistant instead.
32
102520
2840
代わりに仮想アシスタントと話します。
01:45
Probably the most well known chatbot at the moment
33
105360
2880
おそらく現時点で最もよく知られているチャットボットは
01:48
is ChatGTP.
34
108240
1640
ChatGTP です。
01:49
It is. The claim is that it's able to answer
35
109880
2920
そうです。 主張は、
01:52
anything you ask it.
36
112800
1680
あなたが尋ねれば何でも答えることができるということです。
01:54
This includes writing
37
114480
1280
これには、生徒のエッセイを書くことも含まれます
01:55
students' essays.
38
115760
1680
01:57
Now, this is something that was discussed on the BBC
39
117440
2600
さて、これは BBC
02:00
Radio 4 programme, Word of Mouth.
40
120040
2520
Radio 4 のプログラム「Word of Mouth」で議論されたことです。 ワシントン
02:02
Emily M Bender,
41
122560
1640
02:04
Professor of Computational Linguistics at the University
42
124200
3320
大学の計算言語学教授であるエミリー・M・ベンダー氏は、チャットボットの発言を
02:07
of Washington, explained why it's dangerous to always trust
43
127520
3760
常に信頼することが危険である理由を説明しました
02:11
what a chatbot is telling us.
44
131280
2160
02:13
We tend to react to grammatical, fluent, coherent seeming text
45
133440
5280
私たちは、文法的で、 流暢で、一貫性があるように見えるテキストに、
02:18
as authoritative and reliable and valuable and
46
138720
4720
権威があり、信頼でき 、価値があるものとして反応する傾向がありますが、
02:23
we need to be on guard against that because what is coming out of ChatGTP
47
143440
2680
ChatGTP から出てくるものはその
02:26
is none of that.
48
146120
1400
どれでもないので、それには警戒する必要があります。
02:27
So, Professor Bender says that well written text, that is coherent -
49
147520
4320
したがって、ベンダー教授は、 よく書かれた文章、つまり一貫性のある文章、
02:31
that means it's clear, carefully considered and sensible -
50
151840
3440
つまり明確で、 注意深く検討され、理にかなっている文章は、
02:35
makes us think what we are reading is reliable and authoritative.
51
155280
4240
私たちが読んでいる内容が信頼でき 、権威あるものであると思わせるのだと述べています。
02:39
So it's respected, accurate and important sounding.
52
159520
3600
したがって、それは尊重され、正確 で重要なサウンドです。
02:43
Yes, chatbots might appear to write in this way. But really,
53
163120
3920
はい、チャットボットはこのように記述しているように見えるかもしれません 。 しかし実際には、
02:47
they are just predicting one word after another based on what they have learnt.
54
167040
5040
彼らは学んだことに基づいて次から次へと単語を予測しているだけなのです 。
02:52
We should therefore be on guard - be careful
55
172080
3040
したがって、私たちは用心深く、言われていることの正確さについて注意を払う必要があります
02:55
and alert about the accuracy of what we are being told.
56
175120
3880
02:59
One concern is that chatbots - a form of artificial intelligence - work
57
179000
4800
懸念の 1 つは、人工知能の一種であるチャットボットが、
03:03
a bit like a human brain in the way it can learn and process information.
58
183800
4640
情報を学習して処理する点で人間の脳に似た働きをすることです。
03:08
They are able to learn from experience. Something called deep learning.
59
188440
4680
彼らは経験から学ぶことができます。 ディープラーニングと呼ばれるもの。
03:13
A cognitive psychologist and computer scientist called Geoffrey Hinton,
60
193120
4120
認知心理学者でコンピュータ 科学者のジェフリー・ヒントン氏は
03:17
recently said he feared that chatbots could soon overtake the level
61
197240
4120
最近、チャットボットが人間の脳が保持する情報レベルを間もなく追い越すのではないかと懸念していると述べた
03:21
of information that a human brain holds. That is a bit scary isn't it?
62
201360
5160
。 それはちょっと怖いですよね?
03:26
But for now, chatbots can be useful for practical information,
63
206560
4000
しかし今のところ、チャットボットは 実用的な情報を提供するのに役立ちます
03:30
but sometimes we start to believe they are human
64
210560
2680
が、時々 私たちはチャットボットが人間であると信じ始め
03:33
and we interact with them in a human like way.
65
213240
2920
、 人間のような方法でチャットボットと対話します。
03:36
This can make us believe them even more.
66
216160
2520
そうすることで、私たちは彼らの言葉をさらに信じることができます 。
03:38
Professor Emma Bender,
67
218680
1160
エマ・ベンダー教授は、
03:39
speaking on the BBC's Word of Mouth
68
219840
1880
BBCの口コミ
03:41
programme, explains why we might feel like that.
69
221720
3560
番組で、 なぜ私たちがそのように感じるのかについて説明しています。
03:45
I think what's going on there is, the kinds of answers
70
225280
3160
そこで何が起こっているのかというと、得られる 答えの種類は、入力した
03:48
you get depend on the questions
71
228440
2360
質問によって異なります
03:50
you put in, because it's doing likely next word, likely next word.
72
230800
3360
。なぜなら、 次の可能性の高い単語、おそらく次の単語を実行しているからです。
03:54
And so, if as the human interacting with this machine
73
234160
3360
それで、このマシンと対話する人間として、
03:57
and you start asking questions about how do you feel, you know, chatbot?
74
237520
4120
チャットボット、あなたはどう感じますか? と質問し始めたら、どう思いますか?
04:01
And, what do you think of this?
75
241640
2120
そして、これについてどう思いますか?
04:03
What are your goals?
76
243760
1200
あなたの目標は何ですか?
04:04
You can provoke it to say things that sound like what a sentient
77
244960
3400
あなたはそれを刺激して、感覚を持つ存在が言いそうなことを言うようにすることができます
04:08
entity would say. We are really primed to imagine a mind behind language
78
248360
4960
。 私たちは 言語に出会うたびに、言語の背後にある心を想像するようになっています
04:13
whenever we encounter language.
79
253320
1840
04:15
And so we really have to account for that when
80
255160
1880
したがって、これらについて決定を下す際には、そのことを実際に考慮する必要があります
04:17
we're making decisions about these.
81
257040
2240
04:19
So, although a chatbot might sound human,
82
259480
2960
したがって、チャットボットは人間のように聞こえるかもしれませんが、
04:22
we really just ask it
83
262440
1280
実際には
04:23
things to get a reaction. We provoke it.
84
263720
2720
反応を得るためにチャットボットに質問しているだけです。 私たちはそれを誘発します。
04:26
And it answers only with words
85
266440
1800
そして、それは以前に使うことを学んだ言葉だけで答えます
04:28
it has learned to use before.
86
268240
2080
。 賢い答えを
04:30
Not because it has come up with a clever answer,
87
270320
2960
見つけたからではありませんが 、
04:33
but it does sound like a sentient entity. Sentient describes a living  
88
273280
5000
感覚を持った存在のように聞こえます 。 センティエントとは、
04:38
thing that experiences feelings. As Professor Bender says we imagine  
89
278280
4880
感情を経験する生き物のことを指します。 ベンダー教授が言うように、私たちは
04:43
that when something speaks there is a mind behind it. But sorry Neil,
90
283160
4760
何かが話すとき、 その背後に心があると想像します。 でも、ニール、ごめんなさい、
04:47
they are not your friend.
91
287920
1280
彼らはあなたの友達ではありません。
04:49
They're just machines.
92
289200
1160
彼らはただの機械です。
04:50
Yes, it's strange then
93
290360
1240
そうですね、
04:51
that we sometimes give chatbots names. Alexa, Siri, and earlier
94
291600
4920
私たちがチャットボットに名前を付けることがあるのは奇妙です。 Alexa、Siri、そして先ほど
04:56
I asked you what the name was for their first ever chatbot?
95
296520
3840
質問しましたが、 彼らの最初のチャットボットの名前は何ですか?
05:00
And I guessed it was Parry. Was I right?
96
300360
2760
そしてそれはパリーだと思いました。 私は正しかったでしょうか?
05:03
You guessed wrong, I'm afraid.
97
303120
2000
残念ですが、あなたの推測は間違っていました。
05:05
Parry was an early form of chatbot from 1972.
98
305120
3840
Parry は 1972 年に登場した初期のチャットボットです。
05:08
But the correct answer was Eliza.
99
308960
2960
しかし、正解は Eliza でした。
05:11
It was considered to be the first chatterbot, as it was called then,
100
311920
3960
これは、 当時そう呼ばれていた最初のチャタボットであると考えられており、マサチューセッツ工科大学の
05:15
and was developed by Joseph Weizenbaum at Massachusetts Institute of Technology.
101
315880
5480
ジョセフ ワイゼンバウムによって開発されました 。
05:21
Fascinating stuff.
102
321360
1320
魅力的なもの。
05:22
OK, now let's recap some of the vocabulary
103
322680
2480
さて、
05:25
we highlighted in this programme, starting with sophisticated,
104
325160
4080
このプログラムで取り上げた語彙の一部を要約しましょう。まず、高度で複雑なテクノロジを説明できる「 洗練された」から始めます
05:29
which can describe technology that is advanced and complex.
105
329240
4120
05:33
Something that is coherent, is clear carefully considered and sensible.
106
333360
4520
一貫性があり、 注意深く検討され、賢明であることが明確です。
05:37
Authoritative means respected accurate and important sounding.
107
337880
4600
権威あるとは、正確で重要な響きが尊重されることを意味します 。
05:42
When you are on guard
108
342480
1400
警戒しているときは、
05:43
you must be careful and alert about something.
109
343880
2400
何かについて注意し、警戒しなければなりません。
05:46
It could be the accuracy of what you see or hear or just being aware
110
346280
4560
それは、 見たり聞いたりしたことの正確さ、または単に周囲の危険を認識していることかもしれません
05:50
of the dangers around you. To provoke means to do something
111
350840
3560
。 「 挑発」とは、
05:54
that causes a reaction from someone.
112
354400
2480
誰かの反応を引き起こすようなことをすることを意味します。
05:56
Sentient describes something that experiences feelings.
113
356880
3840
センティエントとは、 感情を経験するものを指します。
06:00
So it's something that is living. Once again
114
360720
2680
だから それは生きているものなのです。 再び
06:03
our six minutes are up. Goodbye.
115
363400
2320
6 分が経過しました。 さようなら。
06:05
Bye bye for now.
116
365720
1520
とりあえずバイバイ。
このウェブサイトについて

このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。

https://forms.gle/WvT1wiN1qDtmnspy7