下の英語字幕をダブルクリックすると動画を再生できます。
翻訳: Yasushi Aoki
校正: Eriko Tsukamoto
近い将来 人工知能は
00:07
In the coming years,
artificial intelligence
0
7336
2169
人々の生活や世界そのものを
変えることになりそうですが
00:09
is probably going to change your life,
and likely the entire world.
1
9505
3629
正確にどのようにしてかについては
意見が分かれます
00:13
But people have a hard time
agreeing on exactly how.
2
13301
3295
世界経済フォーラムでのインタビューを
以下に抜粋した
00:16
The following are excerpts
from an interview
3
16804
2127
00:18
where renowned computer science professor
and AI expert Stuart Russell
4
18931
3504
著名なコンピューター科学者でAI専門家の
スチュワート・ラッセル教授の言葉は
00:22
helps separate the sense
from the nonsense.
5
22435
2586
今後を見極める
ヒントになるでしょう
00:25
There’s a big difference between asking
a human to do something
6
25313
3754
人に何か頼み事するのと
それをAIに目的として指示するのとでは
00:29
and giving that as the objective
to an AI system.
7
29067
3461
大きな違いがあります
00:32
When you ask a human to get
you a cup of coffee,
8
32528
2628
誰かにコーヒーを買ってくるよう
頼むときには
00:35
you don’t mean this should be
their life’s mission,
9
35156
2586
命懸けのミッションで
いかなる犠牲も厭わない
00:37
and nothing else in the universe matters.
10
37742
1960
というつもりはないし
00:39
Even if they have to kill everybody else
in Starbucks
11
39702
2586
スターバックスが閉まる前に
コーヒーを手に入れるためであれば
00:42
to get you the coffee before it closes—
they should do that.
12
42288
2836
他の客を全員殺すことになろうと
構わないとは
思っていません
00:45
No, that’s not what you mean.
13
45124
1627
00:46
All the other things that
we mutually care about,
14
46751
2294
みんなが気に掛ける
他のこと全ても考慮して
00:49
they should factor
into your behavior as well.
15
49045
2169
行動してもらう
必要があります
00:51
And the problem with the way
we build AI systems now
16
51214
3169
現在AIが作られている
仕方の問題は
固定した目的を与えている
ということです
00:54
is we give them a fixed objective.
17
54383
1627
アルゴリズムは 目的が事細かに
指定されていることを必要とします
00:56
The algorithms require us
to specify everything in the objective.
18
56010
3545
00:59
And if you say, can we fix the
acidification of the oceans?
19
59555
3420
海洋酸性化を直せるかと聞くと
01:02
Yeah, you could have a catalytic reaction
that does that extremely efficiently,
20
62975
4046
それなら非常に効率的に改善できる
触媒反応があると答えますが
01:07
but it consumes a quarter
of the oxygen in the atmosphere,
21
67021
3253
それは大気中の酸素の
4分の1を消費し
01:10
which would apparently cause us to die
fairly slowly and unpleasantly
22
70274
3712
数時間のうちに人類は ゆっくりと苦しんで
死ぬことになるというような
01:13
over the course of several hours.
23
73986
1752
01:15
So, how do we avoid this problem?
24
75780
3211
この問題は どうすれば
回避できるでしょうか?
01:18
You might say, okay, well, just be more
careful about specifying the objective—
25
78991
4088
じゃあ 目的の指定に
もっと注意を払って
大気中の酸素のことも忘れないように
すればいいと思うかもしれません
01:23
don’t forget the atmospheric oxygen.
26
83079
2544
01:25
And then, of course, some side effect
of the reaction in the ocean
27
85873
3545
すると 反応の副作用で 海の魚が
みんな死ぬようなことになります
01:29
poisons all the fish.
28
89418
1377
01:30
Okay, well I meant don’t kill
the fish either.
29
90795
2669
魚を殺さないことと
付け加えると
01:33
And then, well, what about
the seaweed?
30
93464
1919
今度は海藻が
枯れることになります
01:35
Don’t do anything that’s going
to cause all the seaweed to die.
31
95383
2961
海藻を枯らさないようにとも
言っておく必要があります
01:38
And on and on and on.
32
98344
1210
これが延々と続いていきます
01:39
And the reason that we don’t have to do
that with humans is that
33
99679
3920
人間相手だと そういうことを
しないで済む理由は
01:43
humans often know that they don’t know
all the things that we care about.
34
103599
4505
気に掛けることのすべてを分かってはいないと
人間は知っているからです
01:48
If you ask a human to get you
a cup of coffee,
35
108354
2961
誰かにコーヒーを頼んだところ
01:51
and you happen to be
in the Hotel George Sand in Paris,
36
111315
2878
その人はたまたまパリの
ジョルジュ・サンク・ホテルにいて
01:54
where the coffee is 13 euros a cup,
37
114193
2628
コーヒーが1杯 13ユーロで
01:56
it’s entirely reasonable to come
back and say, well, it’s 13 euros,
38
116821
4171
「13ユーロもするけど本当に欲しい?
それともよそで買う?」
02:00
are you sure you want it,
or I could go next door and get one?
39
120992
2961
そう聞き返してくるというのは
まったく理にかなっており
02:03
And it’s a perfectly normal thing
for a person to do.
40
123953
2878
人間であれば
ごく普通のことです
あるいは「おたくの家の
塗り替えをするんだけど
02:07
To ask, I’m going to repaint your house—
41
127039
3003
02:10
is it okay if I take off the drainpipes
and then put them back?
42
130042
3337
排水管を一旦外しても構わない?」
と聞くとか
02:13
We don't think of this as a terribly
sophisticated capability,
43
133504
3128
私たちは そういうのが
そんなに高度な能力だとは思っていませんが
02:16
but AI systems don’t have it
because the way we build them now,
44
136632
3087
AIには欠けており
それは現在のAIは 目的が完全に
分かっている前提で作られているからです
02:19
they have to know the full objective.
45
139719
1793
02:21
If we build systems that know that
they don’t know what the objective is,
46
141721
3753
目的が何か分かっていないことを
知っているシステムを作ったなら
02:25
then they start to exhibit
these behaviors,
47
145474
2586
大気から酸素を全部除いてしまう前に
確認するような
02:28
like asking permission before getting rid
of all the oxygen in the atmosphere.
48
148060
4046
振る舞いを示すようになるでしょう
02:32
In all these senses,
control over the AI system
49
152565
3378
そういう意味で
AIが制御できるためには
02:35
comes from the machine’s uncertainty
about what the true objective is.
50
155943
4463
AIは本当の目的が何か
不確かである必要があります
02:41
And it’s when you build machines that
believe with certainty
51
161282
3086
目的が分かっていると
確信しているAIを作るなら
02:44
that they have the objective,
52
164368
1418
02:45
that’s when you get this
sort of psychopathic behavior.
53
165786
2753
ああいうサイコパス的振る舞いを
目にすることになるでしょう
02:48
And I think we see
the same thing in humans.
54
168539
2127
同じことは人間にも
言えそうですが
02:50
What happens when general purpose AI
hits the real economy?
55
170750
4254
汎用人工知能が現実社会に現れたとき
何が起きるでしょう?
02:55
How do things change? Can we adapt?
56
175379
3587
物事はどう変わるのか?
人間は適応できるでしょうか?
02:59
This is a very old point.
57
179175
1835
これは古くからある論点で
03:01
Amazingly, Aristotle actually has
a passage where he says,
58
181010
3587
驚くことに
アリストテレスは書いています
03:04
look, if we had fully automated
weaving machines
59
184597
3045
もし完全に自動化された
機織り機や
03:07
and plectrums that could pluck the lyre
and produce music without any humans,
60
187642
3837
人間なしにリラを奏でる
機械があったなら
03:11
then we wouldn’t need any workers.
61
191604
2002
労働者はいらなくなるだろうと
03:13
That idea, which I think it was Keynes
62
193814
2878
この考えは
1930年にケインズが
技術的失業と呼んだもので
03:16
who called it technological unemployment
in 1930,
63
196692
2836
03:19
is very obvious to people.
64
199528
1919
当時の人々には
明らかなことでした
03:21
They think, yeah, of course,
if the machine does the work,
65
201447
3086
「機械が仕事をするなら
自分は失業する」と
03:24
then I'm going to be unemployed.
66
204533
1669
03:26
You can think about the warehouses
that companies are currently operating
67
206369
3503
昨今のeコマース企業の使う倉庫は
半自動化されています
03:29
for e-commerce,
they are half automated.
68
209872
2711
03:32
The way it works is that an old warehouse—
where you’ve got tons of stuff piled up
69
212583
4046
昔ながらの倉庫では
多くの品がそこら中に
積み上げられていて
03:36
all over the place
and humans go and rummage around
70
216629
2461
人間が引っ掻き回して品物を見つけては
送り出していました
03:39
and then bring it back and send it off—
71
219090
1877
03:40
there’s a robot who goes
and gets the shelving unit
72
220967
3586
今ではロボットが
目的の品のある棚を持ってきますが
03:44
that contains the thing that you need,
73
224553
1919
03:46
but the human has to pick the object
out of the bin or off the shelf,
74
226472
3629
人間が棚や箱から品物を
取り出す必要があり
03:50
because that’s still too difficult.
75
230101
1877
その部分はまだ
自動化が難しいのです
03:52
But, at the same time,
76
232019
2002
でも正確に動作して
03:54
would you make a robot that is accurate
enough to be able to pick
77
234021
3921
およそどんな商品でも
取ってこられるロボットが
03:57
pretty much any object within a very wide
variety of objects that you can buy?
78
237942
4338
できたとしたら
どうでしょう?
04:02
That would, at a stroke,
eliminate 3 or 4 million jobs?
79
242280
4004
3、4百万人が
一挙に失業することでしょう
04:06
There's an interesting story
that E.M. Forster wrote,
80
246409
3336
E・M・フォースターの書いた
興味深い小説で
04:09
where everyone is entirely
machine dependent.
81
249745
3504
誰もが機械にすっかり
依存している話があります
04:13
The story is really about the
fact that if you hand over
82
253499
3754
この話の要点は
文明の管理を機械に
譲り渡したなら
04:17
the management of your civilization
to machines,
83
257253
2961
04:20
you then lose the incentive to understand
it yourself
84
260214
3504
それを自分で理解したり
知るための方法を次の世代に教える動機を
04:23
or to teach the next generation
how to understand it.
85
263718
2544
人々は失ってしまう
ということです
04:26
You can see “WALL-E”
actually as a modern version,
86
266262
3003
『ウォーリー』は
その現代版で
04:29
where everyone is enfeebled
and infantilized by the machine,
87
269265
3628
人間は衰え
機械に子供扱いされています
04:32
and that hasn’t been possible
up to now.
88
272893
1961
そういうのは これまで
実現可能でありませんでした
04:34
We put a lot of our civilization
into books,
89
274854
2419
文明について本に書けても
04:37
but the books can’t run it for us.
90
277273
1626
本が人間のために文明を
運営してはくれず
04:38
And so we always have to teach
the next generation.
91
278899
2795
次の世代に教える必要があります
04:41
If you work it out, it’s about a trillion
person years of teaching and learning
92
281736
4212
考えてみれば それは
1兆人年にもなる教育と学習の
何万世代も途切れることのない鎖です
04:45
and an unbroken chain that goes back
tens of thousands of generations.
93
285948
3962
04:50
What happens if that chain breaks?
94
290119
1919
その鎖が切れたら
どうなるのでしょう?
04:52
I think that’s something we have
to understand as AI moves forward.
95
292038
3461
AIが進歩していく中で理解しておかなければ
ならないことだと思います
04:55
The actual date of arrival
of general purpose AI—
96
295624
3587
汎用人工知能の到来は
いつになるのか?
04:59
you’re not going to be able to pinpoint,
it isn’t a single day.
97
299211
3087
それは一度にできるもの
ではないだろうし
05:02
It’s also not the case
that it’s all or nothing.
98
302298
2294
すべてか無かという
話でもなく
05:04
The impact is going to be increasing.
99
304592
2461
影響が徐々に
増えていくでしょう
05:07
So with every advance in AI,
100
307053
2043
AIの進歩により
05:09
it significantly expands
the range of tasks.
101
309096
2962
機械に可能な作業が
広がっていきます
05:12
So in that sense, I think most experts say
by the end of the century,
102
312058
5338
専門家の多くは
今世紀末までには
汎用人工知能が現れると考えており
05:17
we’re very, very likely to have
general purpose AI.
103
317396
3337
05:20
The median is something around 2045.
104
320733
3754
中央値は2045年あたりです
05:24
I'm a little more on the
conservative side.
105
324487
2002
私はもう少し先だと
思います
05:26
I think the problem is
harder than we think.
106
326489
2085
もっと難しい問題でしょう
05:28
I like what John McAfee,
he was one of the founders of AI,
107
328574
3253
この問いへの答えで
私が好きなのは
AIの基礎を作った一人
ジョン・マッカーシーのものです
05:31
when he was asked this question, he said,
somewhere between five and 500 years.
108
331911
3837
「それは 5年〜500年の間のどこかで
アインシュタインが何人か必要になるだろう」
05:35
And we're going to need, I think, several
Einsteins to make it happen.
109
335748
3337
New videos
このウェブサイトについて
このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。