下の英語字幕をダブルクリックすると動画を再生できます。 翻訳された字幕は機械翻訳です。
00:08
Hello. This is 6 Minute English from
0
8520
2220
こんにちは。 これは、
00:10
BBC Learning English. I’m Sam.
1
10740
1680
BBC Learning English の 6 Minute English です。 私はサムです。
00:12
And I’m Neil.
2
12420
840
そして私はニールです。
00:13
In the autumn of 2021, something
3
13260
2520
2021年の秋、カリフォルニア州シリコンバレーに
00:15
strange happened at the Google
4
15780
1920
あるGoogle本社で奇妙なことが起こりました
00:17
headquarters in California’s Silicon
5
17700
2460
00:20
Valley. A software engineer called,
6
20160
2100
。 Blake Lemoine と呼ばれるソフトウェア エンジニアは、
00:22
Blake Lemoine, was working on the
7
22260
2460
00:24
artificial intelligence project, ‘Language
8
24720
2340
人工知能プロジェクト「
00:27
Models for Dialogue Applications’, or
9
27060
2700
対話アプリケーションの言語モデル」、
00:29
LaMDA for short. LaMDA is a
10
29760
2940
略して LaMDA に取り組んでいました。 LaMDA は
00:32
chatbot – a computer programme
11
32700
1860
チャットボットであり、インターネットを介し
00:34
designed to have conversations with
12
34560
2040
て人間と会話するように設計されたコンピューター プログラムです
00:36
humans over the internet.
13
36600
1080
。
00:37
After months talking with LaMDA
14
37680
2820
00:40
on topics ranging from movies to
15
40500
2280
映画から人生の意味まで、さまざまなトピックについて LaMDA と何ヶ月も話し合った後
00:42
the meaning of life, Blake came to
16
42780
2220
、Blake
00:45
a surprising conclusion: the chatbot
17
45000
2700
は驚くべき結論に達しました
00:47
was an intelligent person with wishes
18
47700
2640
00:50
and rights that should be respected.
19
50340
2160
。
00:52
For Blake, LaMDA was a Google
20
52500
2640
ブレイクにとって、LaMDA は
00:55
employee, not a machine.
21
55140
1380
機械ではなく Google の従業員でした。
00:56
He also called it his ‘friend’.
22
56520
2160
彼はそれを彼の「友達」とも呼んだ。
00:58
Google quickly reassigned Blake from
23
58680
2580
Google はすぐに Blake をプロジェクトから再割り当て
01:01
the project, announcing that his ideas
24
61260
1860
し、彼の考え
01:03
were not supported by the evidence.
25
63120
2220
は証拠によって裏付けられていないと発表しました。
01:05
But what exactly was going on?
26
65340
2700
しかし、正確には何が起こっていたのでしょうか?
01:08
In this programme, we’ll be
27
68040
1860
この番組では、
01:09
discussing whether artificial intelligence
28
69900
2160
人工知能
01:12
is capable of consciousness. We’ll hear
29
72060
3000
が意識を持つことができるかどうかについて議論します。 AI は私たちが
01:15
from one expert who thinks AI is not as
30
75060
3000
考えているほど賢くないと考える専門家の話を聞く予定です。
01:18
intelligent as we sometimes think,
31
78060
1560
01:19
and as usual, we’ll be learning some
32
79620
2460
また、いつものように、いくつかの
01:22
new vocabulary as well.
33
82080
1320
新しい語彙も学習します。
01:23
But before that, I have a question for
34
83400
2100
でもその前に、あなたに質問があり
01:25
you, Neil. What happened to Blake Lemoine
35
85500
2280
ます、ニール。 ブレイク・レモワンに起こったこと
01:27
is strangely similar to the 2013 Hollywood
36
87780
2940
は、ホアキン・フェニックス主演の 2013 年のハリウッド映画『Her』と奇妙に似ています。
01:30
movie, Her, starring Joaquin Phoenix as
37
90720
3420
01:34
a lonely writer who talks with his
38
94140
1860
彼のコンピューターと話す孤独な作家として、
01:36
computer, voiced by Scarlett Johansson.
39
96000
2280
スカーレット・ヨハンソンが声を出しました。
01:38
But what happens at the end
40
98280
1860
しかし、映画の最後に何が起こる
01:40
of the movie? Is it:
41
100140
1380
でしょうか? それは:
01:41
a) the computer comes to life?
42
101520
1860
a) コンピューターが生き返りますか?
01:43
b) the computer dreams about the writer? or,
43
103380
3360
b) コンピューターは作家の夢を見ますか? または、
01:46
c) the writer falls in love with the computer?
44
106740
2040
c) 作家はコンピューターに恋をしますか?
01:48
... c) the writer falls in love with the computer.
45
108780
3420
... c) 作家はコンピューターに恋をする。
01:52
OK, Neil, I’ll reveal the answer at the end
46
112200
2700
OK、ニール、番組の最後に答えを明かします
01:54
of the programme. Although Hollywood is
47
114900
2460
。 ハリウッド
01:57
full of movies about robots coming to life,
48
117360
2340
はロボットが命を吹き込むという映画であふれていますが、ワシントン大学
01:59
Emily Bender, a professor of linguistics and
49
119700
3240
の言語学とコンピューティングの教授であるエミリー ベンダーは、
02:02
computing at the University of Washington,
50
122940
2100
02:05
thinks AI isn’t that smart. She thinks the
51
125040
4440
AI はそれほどスマートではないと考えています。 彼女は、
02:09
words we use to talk about technology,
52
129480
1800
私たちがテクノロジーについて話すときに使う
02:11
phrases like ‘machine learning’, give a
53
131280
3300
「機械学習」などの言葉は、
02:14
false impression about what
54
134580
1620
02:16
computers can and can’t do.
55
136200
1740
コンピューターができることとできないことについて誤った印象を与えると考えています。
02:17
Here is Professor Bender discussing
56
137940
2400
これはベンダー教授が
02:20
another misleading phrase, ‘speech
57
140340
2340
別の誤解を招くフレーズ「音声
02:22
recognition’, with BBC World Service
58
142680
2460
認識」について、BBC ワールド サービス
02:25
programme, The Inquiry:
59
145140
1440
プログラム The
02:27
If you talk about ‘automatic speech
60
147360
2220
Inquiry で話し合っ
02:29
recognition’, the term ‘recognition’
61
149580
1920
02:31
suggests that there's something
62
151500
2100
02:33
cognitive going on, where I think a
63
153600
2160
ているところです。
02:35
better term would be automatic transcription.
64
155760
2100
より適切な用語は、自動転写です。
02:37
That just describes the input-output
65
157860
1980
これは単に入力と出力の関係を説明する
02:39
relation, and not any theory or wishful
66
159840
3660
02:43
thinking about what the computer is
67
163500
2280
ものであり、それを達成するためにコンピューターが何をしているのかについての理論や希望的観測ではありません
02:45
doing to be able to achieve that.
68
165780
1440
。 コンピューター
02:47
Using words like ‘recognition’ in relation
69
167220
3360
に関連して「認識」などの言葉を使用すると
02:50
to computers gives the idea that
70
170580
2100
、認知的な何か、つまり
02:52
something cognitive is happening – something
71
172680
2760
02:55
related to the mental processes of
72
175440
2340
02:57
thinking, knowing, learning and understanding.
73
177780
2760
思考、認識、学習、理解の精神的プロセスに関連する何かが起こっているという考えが得られます。
03:00
But thinking and knowing are human,
74
180540
2700
しかし、思考と認識は人間の
03:03
not machine, activities. Professor Benders
75
183240
3060
活動であり、機械の活動ではありません。 ベンダース教授
03:06
says that talking about them in connection
76
186300
2040
は、コンピューターに関連してそれらについて話すこと
03:08
with computers is wishful thinking -
77
188340
3570
は希望的観測
03:11
something which is unlikely to happen.
78
191910
2310
であり、起こりそうにないことだと言います。
03:14
The problem with using words in this
79
194220
2220
このように言葉を使用することの問題点
03:16
way is that it reinforces what
80
196440
2100
03:18
Professor Bender calls, technical
81
198540
2160
は、ベンダー教授が言うところの技術的
03:20
bias – the assumption that the computer
82
200700
2520
バイアス、つまりコンピューター
03:23
is always right. When we encounter
83
203220
2520
が常に正しいという仮定を強化することです。
03:25
language that sounds natural, but is
84
205740
1680
自然に
03:27
coming from a computer, humans
85
207420
2280
聞こえるがコンピューターから発せられた言語に遭遇すると、人間
03:29
can’t help but imagine a mind behind
86
209700
2460
は言語の背後にある心を想像せずにはいら
03:32
the language, even when there isn’t one.
87
212160
2220
れません。
03:34
In other words, we anthropomorphise
88
214380
2160
言い換えれば、私たちはコンピュータを擬人化し
03:36
computers – we treat them as if they
89
216540
2520
ます。つまり、コンピュータを人間であるかのように扱います
03:39
were human. Here’s Professor Bender
90
219060
2220
。 BBC World Service の The Inquiry の司会者である Charmaine Cozier
03:41
again, discussing this idea with
91
221280
2220
とこのアイデアについて議論している Bender 教授が再びい
03:43
Charmaine Cozier, presenter of BBC
92
223500
2700
03:46
World Service’s, the Inquiry.
93
226200
1620
ます。
03:48
So ‘ism’ means system, ‘anthro’ or ‘anthropo’
94
228420
3660
つまり、「イズム」はシステムを意味し、「アントロ」または「アントロポ」
03:52
means human, and ‘morph’ means shape...
95
232080
3000
は人間を意味し、「モーフ」は形を意味します...
03:55
And so this is a system that puts the
96
235080
3000
そして、これ
03:58
shape of a human on something, and
97
238080
2160
は人間の形を何かに置くシステムであり
04:00
in this case the something is a computer.
98
240240
1260
、この場合、何かは コンピューター。
04:01
We anthropomorphise animals all the time,
99
241500
3180
私たちは常に動物を擬人化していますが、
04:04
but we also anthropomorphise action figures,
100
244680
3060
アクション フィギュア、
04:07
or dolls, or companies when we talk about
101
247740
2880
人形、または意図を持つ企業などについて話すときは、企業も擬人化
04:10
companies having intentions and so on.
102
250620
2040
しています。
04:12
We very much are in the habit of seeing
103
252660
2880
私
04:15
ourselves in the world around us.
104
255540
1620
たちは、自分の周りの世界で自分自身を見る習慣があります。
04:17
And while we’re busy seeing ourselves
105
257160
2220
そして、人間の特性をそうでないものに割り当てることで自分自身を見るのに忙しい一方で
04:19
by assigning human traits to things that
106
259380
2100
04:21
are not, we risk being blindsided.
107
261480
2520
、盲目的になるリスクがあります.
04:24
The more fluent that text is, the more
108
264000
2400
テキストが流暢であればあるほど、より多くの
04:26
different topics it can converse on, the
109
266400
2700
異なるトピックについて会話できる
04:29
more chances there are to get taken in.
110
269100
1920
ため、取り込まれる可能性が高くなります
04:31
If we treat computers as if they could think,
111
271860
2760
。コンピューターを思考できるかのように扱うと、不意を
04:34
we might get blindsided, or
112
274620
2520
突かれたり、不愉快な驚きを覚えたりする可能性があります
04:37
unpleasantly surprised. Artificial intelligence
113
277140
3180
。 人工知能
04:40
works by finding patterns in massive
114
280320
2220
は大量のデータからパターンを見つけることで機能する
04:42
amounts of data, so it can seem like
115
282540
2520
ため
04:45
we’re talking with a human, instead
116
285060
1860
04:46
of a machine doing data analysis.
117
286920
2220
、機械がデータ分析を行うのではなく、人間と話しているように見えることがあります。
04:49
As a result, we get taken in – we’re tricked
118
289140
4020
その結果、私たちは騙され
04:53
or deceived into thinking we’re dealing
119
293160
1920
たり騙され
04:55
with a human, or with something intelligent.
120
295080
3003
たりして、人間や知的な何かと取引していると思い込んでしまいます。
04:58
Powerful AI can make machines appear conscious,
121
298083
3318
強力な AI は、マシンに意識があるように見せかけることができ
05:01
but even tech giants like Google are years
122
301401
2945
ますが、Google のようなハイテク大手でさえ、
05:04
away from building computers that can
123
304346
2407
05:06
dream or fall in love. Speaking of which,
124
306753
2355
夢を見たり恋に落ちたりできるコンピューターを構築するには何年もかかります。 そういえば、
05:09
Sam, what was the answer to your question?
125
309108
2671
サム、あなたの質問に対する答えは何でしたか?
05:11
I asked what happened in the 2013 movie, Her.
126
311779
2752
2013年の映画「Her」で何が起こったのか尋ねました。
05:14
Neil thought that the main character
127
314531
1900
ニールは、主人公
05:16
falls in love with his computer, which
128
316431
2248
が自分のコンピューターに恋をしたと思っていましたが、それ
05:18
was the correct answer!
129
318679
1361
は正解でした!
05:20
OK. Right, it’s time to recap the vocabulary
130
320880
2640
わかった。 そうです、チャットボット (インターネットを介して人間と対話するように設計されたコンピューター プログラム)
05:23
we’ve learned from this programme about AI,
131
323520
2340
を含む、このプログラムから学んだ AI に関する語彙を要約する時が来ました
05:25
including chatbots - computer programmes
132
325860
3180
05:29
designed to interact with
133
329040
1380
05:30
humans over the internet.
134
330420
1560
。
05:31
The adjective cognitive describes
135
331980
2640
認知形容詞
05:34
anything connected with the mental
136
334620
1860
05:36
processes of knowing,
137
336480
1320
は、知識、
05:37
learning and understanding.
138
337800
1380
学習、理解の精神的プロセスに関連するあらゆるものを表します。
05:39
Wishful thinking means thinking that
139
339180
2640
希望的観測とは
05:41
something which is very unlikely to happen
140
341820
2100
、起こりそうに
05:43
might happen one day in the future.
141
343920
2040
ないことが将来いつか起こるかもしれないと考えることを意味します。
05:45
To anthropomorphise an object means
142
345960
2400
オブジェクトを擬人化する
05:48
to treat it as if it were human,
143
348360
1500
とは、人間ではないにもかかわらず、人間であるかのように扱うことを意味します
05:49
even though it’s not.
144
349860
1200
。
05:51
When you’re blindsided, you’re
145
351060
2520
盲目的なとき
05:53
surprised in a negative way.
146
353580
1500
は、否定的な意味で驚かされます。
05:55
And finally, to get taken in by someone means
147
355080
2880
そして最後に、誰かに取り込ま
05:57
to be deceived or tricked by them.
148
357960
1860
れるということは、だまされたりだまされたりすることを意味します。
05:59
My computer tells me that our six minutes
149
359820
2640
私のコンピューターは、私たちの 6 分間が終了したことを教えてくれ
06:02
are up! Join us again soon, for now
150
362460
2580
ます! すぐにまた参加して
06:05
it’s goodbye from us.
151
365040
1140
ください。今はさようならです。
06:06
Bye!
152
366180
500
さよなら!
New videos
このウェブサイトについて
このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。