Are computers always right? 6 Minute English

255,147 views ・ 2018-07-19

BBC Learning English


下の英語字幕をダブルクリックすると動画を再生できます。 翻訳された字幕は機械翻訳です。

00:06
Catherine: Hello and welcome to 6 Minute
0
6480
2280
Catherine: こんにちは、6 Minute English へようこそ
00:08
English. I'm Catherine.
1
8760
1420
。 私はキャサリンです。
00:10
Rob: And hello, I'm Rob.
2
10180
1400
ロブ: こんにちは、ロブです。
00:11
Catherine: Today we have another
3
11580
1389
Catherine: 今日は、別の
00:12
technology topic.
4
12969
761
テクノロジー トピックがあります。
00:13
Rob: Oh good! I love technology. It makes
5
13730
2470
ロブ:よかった! 私はテクノロジーが大好きです。
00:16
things easier, it's fast and means I can
6
16240
2160
物事が簡単になり、高速になり、ガジェットを使用できる
00:18
have gadgets.
7
18400
1400
ようになります。
00:19
Catherine: Do you think that technology
8
19800
1760
キャサリン: テクノロジー
00:21
can actually do things better than humans?
9
21560
2200
は実際に人間よりも優れたものを作ることができると思いますか?
00:23
Rob: For some things, yes. I think cars
10
23760
2640
Rob: いくつかのことについては、はい。
00:26
that drive themselves will be safer than
11
26400
1600
自分で運転する車は人間よりも安全
00:28
humans but that will take away some of
12
28000
3180
だと思いますが
00:31
the pleasure of driving. So I guess it
13
31180
2180
、それでは運転の楽しみがいくらか失われます。 だから、それ
00:33
depends on what you mean by better.
14
33360
1940
はあなたがより良いとはどういう意味かによると思います。
00:35
Catherine: Good point, Rob. And that
15
35300
1680
キャサリン: いいですね、ロブ。 そしてそれは
00:36
actually ties in very closely with today's
16
36980
2420
実際、今日の話題であるテクノショービニズムと非常に密接に結びついています
00:39
topic which is technochauvinism.
17
39400
3200
00:42
Rob: What's that?
18
42600
1480
ロブ:あれは何?
00:44
Catherine: We'll find out shortly, Rob, but
19
44080
1520
キャサリン: ロブ、すぐにわかりますが、その
00:45
before we do, today's quiz question.
20
45600
3200
前に、今日のクイズの質問です。
00:48
Artificial Intelligence, or A.I., is an area of
21
48800
3260
人工知能 (A.I.) は、
00:52
computer science that develops the
22
52060
2040
00:54
ability of computers to learn to do things
23
54100
2540
00:56
like solve problems or drive cars without
24
56640
2495
問題を解決したり、衝突することなく車を運転したりすることを学習するコンピューターの能力を開発するコンピューター サイエンスの分野です
00:59
crashing. But in what decade was the
25
59140
2800
。 しかし、
01:01
term 'Artificial Intelligence'
26
61940
2640
「人工知能」
01:04
coined? Was it: a) the 1940s, b) the 1950s
27
64589
4901
という用語が造られたのは何世紀ですか? a) 1940 年代、b) 1950 年代
01:09
or c) the 1960s?
28
69490
2070
、c) 1960 年代のどれでしたか?
01:11
Rob: I think it's quite a new expression so
29
71560
3000
Rob: かなり新しい表現だと思うので
01:14
I'll go for c) the 1960s.
30
74560
2380
、c) 1960 年代にします。
01:16
Catherine: Good luck with that, Rob, and
31
76940
1420
キャサリン: がんばってね、ロブ。番組の
01:18
we'll give you the answer later in the
32
78360
1300
後半で答えを教えてあげるよ
01:19
programme. Now, let's get back to our
33
79660
2940
。 さて、
01:22
topic of technochauvinism.
34
82600
2040
テクノショービニズムの話題に戻りましょう。
01:24
Rob: I know what a chauvinist is. It's
35
84640
1920
ロブ: 私は優越主義者が何であるかを知っています. それ
01:26
someone who thinks that their country or
36
86580
2380
は、自分の国や
01:28
race or sex is better than others. But how
37
88960
3140
人種、性別が他の人より優れていると考えている人のことです。 しかし、
01:32
does this relate to technology?
38
92100
1340
これがテクノロジーとどのように関係しているのでしょうか。
01:33
Catherine: We're about to find out.
39
93440
1891
キャサリン: 私たちは調べようとしています.
01:35
Meredith Broussard is Professor of
40
95340
1984
Meredith Broussard は
01:37
Journalism at New York University and
41
97324
2236
ニューヨーク大学のジャーナリズムの教授であり
01:39
she's written a book called
42
99560
1660
、Artificial Unintelligence という本を書いてい
01:41
Artificial Unintelligence. She appeared on
43
101220
3420
ます。 彼女は
01:44
the BBC Radio 4 programme More or Less
44
104640
2580
、BBC ラジオ 4 の番組 More or Less に出演し、その
01:47
to talk about it. Listen carefully and find
45
107220
2620
ことについて話しました。 注意深く耳を傾け
01:49
out her definition of technochauvinism.
46
109840
3320
、彼女のテクノショービニズムの定義を見つけてください。
01:53
Meredith Broussard: Technochauvinism is
47
113160
1811
Meredith Broussard: テクノショービニズムとは
01:54
the idea that technology is always the
48
114980
2540
、テクノロジーが常に
01:57
highest and best solution. So somehow
49
117520
3120
最高で最良の解決策であるという考えです。 どういうわけか
02:00
over the past couple of decades we got
50
120640
2260
、過去数十年にわたって
02:02
into the habit of
51
122900
1360
02:04
thinking that doing something with a
52
124270
3410
、コンピューターを使って何かを行うこと
02:07
computer is always the best and most
53
127680
3480
が常に最善かつ最も
02:11
objective way to do something and
54
131180
2060
客観的な方法であると考える習慣が私たちにはありましたが、それは
02:13
that's simply not true.
55
133240
1540
まったく真実ではありません。
02:14
Computers are not objective, they are
56
134780
3000
コンピュータは客観的なものではなく、それ
02:17
proxies for the people who make them.
57
137780
2300
を作った人々の代理です。
02:20
Catherine: What is Meredith Broussard's
58
140080
2200
キャサリン: メレディス・ブルサードの
02:22
definition of technochauvinism?
59
142300
2280
テクノショービニズムの定義は何ですか?
02:24
Rob: It's this idea that using technology
60
144580
2250
ロブ: テクノロジーを使わ
02:26
is better than not using technology.
61
146830
2450
ないよりは使う方が良いという考え方です。
02:29
Catherine: She says that we have this idea
62
149280
2360
キャサリン: 私たちはコンピューターが客観的であるという考えを持っていると彼女は言い
02:31
that a computer is objective. Something
63
151640
2800
ます.
02:34
that is objective is neutral, it doesn't have
64
154440
2500
客観的なものは中立であり
02:36
an opinion, it's fair and it's unbiased - so
65
156940
3160
、意見を持たず、公正で偏りがない
02:40
it's the opposite of being a chauvinist. But
66
160100
3080
ものです。つまり、排外主義者であることとは正反対です。 しかし、
02:43
Meredith Broussard says this is not true.
67
163180
2860
メレディス・ブルサードは、これは真実ではないと言います。
02:46
Rob: She argues that computers are not
68
166040
2635
Rob: 彼女は、コンピューターは客観的ではないと主張しています
02:48
objective. They are proxies for the people
69
168680
2880
。 それらは
02:51
that make them. You might know the
70
171560
1800
、それらを作成する人々の代理です。
02:53
word proxy when you are using your
71
173360
1735
02:55
computer in one country and want to look
72
175095
2235
ある国でコンピューターを
02:57
at something that is only available
73
177330
1871
使用
02:59
in a different country. You can use a piece
74
179201
2298
していて、別の国でしか利用できないものを見たい場合、プロキシという言葉を知っているかもしれません。 これ
03:01
of software called a proxy to do that.
75
181500
2640
を行うには、プロキシと呼ばれるソフトウェアを使用できます。
03:04
Catherine: But a proxy is also a person or
76
184140
2840
キャサリン: しかし、代理人は、
03:06
a thing that carries out your wishes and
77
186980
2660
あなたの希望や指示を実行する人や物でもあり
03:09
your instructions for you.
78
189640
2000
ます.
03:11
So computers are only as smart or as
79
191640
2860
したがって、コンピューターは
03:14
objective as the people that
80
194500
2560
、それをプログラムする人々と同じくらい賢く、客観的
03:17
programme them. Computers are proxies
81
197060
3060
です。 コンピューターは
03:20
for their programmers. Broussard says
82
200120
2620
プログラマーの代理です。 Broussard 氏は
03:22
that believing too much in Artificial
83
202740
2400
、人工知能を信じすぎると
03:25
Intelligence can make the world worse.
84
205140
2820
世界が悪化する可能性があると述べています。
03:27
Let's hear a bit more. This time find out
85
207960
2920
もう少し聞いてみましょう。 今回は
03:30
what serious problems in society
86
210880
2820
、社会の深刻な問題
03:33
does she think may be reflected in AI?
87
213700
3900
が AI に反映される可能性があると彼女が考えていることを見つけてください。
03:37
Meredith Broussard: It's a nuanced
88
217600
1400
Meredith Broussard: 微妙な
03:39
problem. What we have is data on the
89
219000
2700
問題です。 私たちが持っているのは世界の現状に関するデータであり、現在、
03:41
world as it is and we have serious
90
221700
3100
世界には
03:44
problems with racism, sexism, classism,
91
224800
2920
人種差別、性差別、階級差別、年齢差別などの深刻な問題が
03:47
ageism, in the world right now so there is
92
227720
2300
あるため
03:50
no such thing as perfect data. We also
93
230020
3760
、完全なデータなどはありません。 また
03:53
have a problem inside the tech world
94
233780
2379
、テクノロジーの世界
03:56
where the creators of algorithms do not
95
236160
3080
では、アルゴリズムの作成者が、あるべき世界に近づけるための優れたテクノロジーを作成できる
03:59
have sufficient awareness of social
96
239240
3960
ほどの社会問題に対する認識を持っていないという
04:03
issues such that they can make good
97
243200
2680
問題が
04:05
technology that gets us closer to a world
98
245880
3800
04:09
as it should be.
99
249680
1660
あります。
04:11
Rob: She said that society has problems
100
251340
2640
Rob: 彼女は、社会には
04:13
with racism, sexism, classism and ageism.
101
253984
3296
人種差別、性差別、階級差別、年齢差別の問題があると言いました。
04:17
Catherine: And she says it's a nuanced
102
257280
2531
キャサリン: そして彼女は、それは微妙な問題だと言い
04:19
problem. A nuanced problem is not
103
259820
2231
ます. 微妙な問題は
04:22
simple, but it does have small and
104
262060
1960
単純ではありませんが、特定
04:24
important areas which may be
105
264020
2200
するのが難しい小さな重要な領域があります
04:26
hard to spot, but they need to be considered.
106
266220
3020
が、考慮する必要があります。
04:29
Rob: And she also talked about
107
269240
1800
ロブ: そして彼女は、
04:31
algorithms used to program these
108
271053
2220
これらの技術システムをプログラムするために使用されるアルゴリズムについても話しました
04:33
technological systems.
109
273273
1527
.
04:34
An algorithm is a set of instructions that
110
274800
2497
アルゴリズムとは、
04:37
computers use to perform their tasks.
111
277300
2240
コンピューターがタスクを実行するために使用する一連の命令です。
04:39
Essentially it's the rules that they use
112
279540
1680
基本的に、それ
04:41
to come up with their answers and
113
281220
2220
は彼らが答えを導き出すために使用するルールであり、
04:43
Broussard believes that technology will
114
283440
2560
Broussard はテクノロジーが
04:46
reflect the views of those who create the algorithms.
115
286000
2680
アルゴリズムを作成した人々の見解を反映すると信じています。
04:48
Catherine: Next time you're using a piece
116
288680
1640
Catherine: 次に
04:50
of software or your favourite app, you
117
290320
2120
ソフトウェアやお気に入りのアプリを使用するとき、
04:52
might find yourself wondering if it's a
118
292440
2040
それが
04:54
useful tool or does it contain these little
119
294480
3020
便利なツールなのか、それとも
04:57
nuances that
120
297500
1100
04:58
reflect the views of the developer.
121
298600
2220
開発者の意見を反映したこれらの小さなニュアンスが含まれているのか疑問に思うかもしれません。
05:00
Rob: Right, Catherine. How about the
122
300830
1735
ロブ:そうですね、キャサリン。 では、
05:02
answer to this week's question then?
123
302565
1735
今週の質問の答えはどうですか?
05:04
Catherine: I asked in which decade was
124
304300
2160
キャサリン: 私は、「人工知能」という用語が造られたのはどの 10 年間かを尋ねました
05:06
the term 'Artificial Intelligence' coined.
125
306460
2300
05:08
Was it the 40s, the 50s or the 60s?
126
308760
2740
40代だったか50代だったか60代だったか
05:11
Rob: And I said the 60s.
127
311500
1060
ロブ:そして私は60年代と言いました。
05:12
Catherine: But it was actually the 1950s.
128
312560
2500
キャサリン: でも、実際は 1950 年代のことです。
05:15
Never mind, Rob. Let's review today's vocabulary.
129
315060
3520
気にしないで、ロブ。 今日の語彙を復習しましょう。
05:18
Rob: Well, we had a chauvinist - that's
130
318580
2100
ロブ:ええと、優越主義者がいました - それ
05:20
someone who believes their country, race
131
320700
2460
は自分の国、人種、
05:23
or sex is better than any others.
132
323160
2000
または性別が他の誰よりも優れていると信じている人です.
05:25
Catherine: And this gives us
133
325160
1540
キャサリン: そして、これは私たちに
05:26
technochauvinism,
134
326700
1380
テクノショービニズムをもたらします。
05:28
the belief that a technological solution is
135
328080
2809
つまり、技術的な解決策は
05:30
always a better solution to a problem.
136
330889
2180
常に問題に対するより良い解決策であるという信念です。
05:33
Rob: Next - someone or something that is
137
333069
2776
ロブ: 次は、
05:35
objective is neutral, fair and balanced.
138
335845
2775
客観的な人または何かが中立的で公平でバランスが取れていることです。
05:38
Catherine: A proxy is a piece of software
139
338620
2760
Catherine: プロキシはソフトウェアの一部です
05:41
but also someone who does something
140
341380
1660
が、あなたに代わって何かを行う人でもあり
05:43
for you, on your behalf.
141
343040
2340
ます。
05:45
A nuanced problem is a subtle
142
345380
2220
微妙な問題は微妙な問題であり、
05:47
one, it's not a simple case of right or
143
347600
3000
正しいか間違っているかという単純なケースではありません。
05:50
wrong, in a nuanced problem there are
144
350600
2740
微妙な問題には、
05:53
small but important things that you need
145
353340
2140
小さいながらも考慮する必要がある重要な事柄があります
05:55
to consider.
146
355480
800
05:56
Rob: And an algorithm is a set of software
147
356280
2560
ロブ: アルゴリズムとは
05:58
instructions for a computer system.
148
358842
2128
、コンピューター システム用の一連のソフトウェア命令です。
06:00
Catherine: Well, that's all we have time for
149
360970
1430
Catherine: では、今日はここまで
06:02
today. Goodbye for now.
150
362400
1780
です。 とりあえずさようなら。
06:04
Rob: Bye bye!
151
364180
700
ロブ:バイバイ!
このウェブサイトについて

このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。

https://forms.gle/WvT1wiN1qDtmnspy7