How will AI change the world?

2,043,172 views ・ 2022-12-06

TED-Ed


下の英語字幕をダブルクリックすると動画を再生できます。

翻訳: Yasushi Aoki 校正: Eriko Tsukamoto
近い将来 人工知能は
00:07
In the coming years, artificial intelligence
0
7336
2169
人々の生活や世界そのものを 変えることになりそうですが
00:09
is probably going to change your life, and likely the entire world.
1
9505
3629
正確にどのようにしてかについては 意見が分かれます
00:13
But people have a hard time agreeing on exactly how.
2
13301
3295
世界経済フォーラムでのインタビューを 以下に抜粋した
00:16
The following are excerpts from an interview
3
16804
2127
00:18
where renowned computer science professor and AI expert Stuart Russell
4
18931
3504
著名なコンピューター科学者でAI専門家の スチュワート・ラッセル教授の言葉は
00:22
helps separate the sense from the nonsense.
5
22435
2586
今後を見極める ヒントになるでしょう
00:25
There’s a big difference between asking a human to do something
6
25313
3754
人に何か頼み事するのと それをAIに目的として指示するのとでは
00:29
and giving that as the objective to an AI system.
7
29067
3461
大きな違いがあります
00:32
When you ask a human to get you a cup of coffee,
8
32528
2628
誰かにコーヒーを買ってくるよう 頼むときには
00:35
you don’t mean this should be their life’s mission,
9
35156
2586
命懸けのミッションで いかなる犠牲も厭わない
00:37
and nothing else in the universe matters.
10
37742
1960
というつもりはないし
00:39
Even if they have to kill everybody else in Starbucks
11
39702
2586
スターバックスが閉まる前に コーヒーを手に入れるためであれば
00:42
to get you the coffee before it closes— they should do that.
12
42288
2836
他の客を全員殺すことになろうと 構わないとは
思っていません
00:45
No, that’s not what you mean.
13
45124
1627
00:46
All the other things that we mutually care about,
14
46751
2294
みんなが気に掛ける 他のこと全ても考慮して
00:49
they should factor into your behavior as well.
15
49045
2169
行動してもらう 必要があります
00:51
And the problem with the way we build AI systems now
16
51214
3169
現在AIが作られている 仕方の問題は
固定した目的を与えている ということです
00:54
is we give them a fixed objective.
17
54383
1627
アルゴリズムは 目的が事細かに 指定されていることを必要とします
00:56
The algorithms require us to specify everything in the objective.
18
56010
3545
00:59
And if you say, can we fix the acidification of the oceans?
19
59555
3420
海洋酸性化を直せるかと聞くと
01:02
Yeah, you could have a catalytic reaction that does that extremely efficiently,
20
62975
4046
それなら非常に効率的に改善できる 触媒反応があると答えますが
01:07
but it consumes a quarter of the oxygen in the atmosphere,
21
67021
3253
それは大気中の酸素の 4分の1を消費し
01:10
which would apparently cause us to die fairly slowly and unpleasantly
22
70274
3712
数時間のうちに人類は ゆっくりと苦しんで 死ぬことになるというような
01:13
over the course of several hours.
23
73986
1752
01:15
So, how do we avoid this problem?
24
75780
3211
この問題は どうすれば 回避できるでしょうか?
01:18
You might say, okay, well, just be more careful about specifying the objective—
25
78991
4088
じゃあ 目的の指定に もっと注意を払って
大気中の酸素のことも忘れないように すればいいと思うかもしれません
01:23
don’t forget the atmospheric oxygen.
26
83079
2544
01:25
And then, of course, some side effect of the reaction in the ocean
27
85873
3545
すると 反応の副作用で 海の魚が みんな死ぬようなことになります
01:29
poisons all the fish.
28
89418
1377
01:30
Okay, well I meant don’t kill the fish either.
29
90795
2669
魚を殺さないことと 付け加えると
01:33
And then, well, what about the seaweed?
30
93464
1919
今度は海藻が 枯れることになります
01:35
Don’t do anything that’s going to cause all the seaweed to die.
31
95383
2961
海藻を枯らさないようにとも 言っておく必要があります
01:38
And on and on and on.
32
98344
1210
これが延々と続いていきます
01:39
And the reason that we don’t have to do that with humans is that
33
99679
3920
人間相手だと そういうことを しないで済む理由は
01:43
humans often know that they don’t know all the things that we care about.
34
103599
4505
気に掛けることのすべてを分かってはいないと 人間は知っているからです
01:48
If you ask a human to get you a cup of coffee,
35
108354
2961
誰かにコーヒーを頼んだところ
01:51
and you happen to be in the Hotel George Sand in Paris,
36
111315
2878
その人はたまたまパリの ジョルジュ・サンク・ホテルにいて
01:54
where the coffee is 13 euros a cup,
37
114193
2628
コーヒーが1杯 13ユーロで
01:56
it’s entirely reasonable to come back and say, well, it’s 13 euros,
38
116821
4171
「13ユーロもするけど本当に欲しい? それともよそで買う?」
02:00
are you sure you want it, or I could go next door and get one?
39
120992
2961
そう聞き返してくるというのは まったく理にかなっており
02:03
And it’s a perfectly normal thing for a person to do.
40
123953
2878
人間であれば ごく普通のことです
あるいは「おたくの家の 塗り替えをするんだけど
02:07
To ask, I’m going to repaint your house—
41
127039
3003
02:10
is it okay if I take off the drainpipes and then put them back?
42
130042
3337
排水管を一旦外しても構わない?」 と聞くとか
02:13
We don't think of this as a terribly sophisticated capability,
43
133504
3128
私たちは そういうのが そんなに高度な能力だとは思っていませんが
02:16
but AI systems don’t have it because the way we build them now,
44
136632
3087
AIには欠けており
それは現在のAIは 目的が完全に 分かっている前提で作られているからです
02:19
they have to know the full objective.
45
139719
1793
02:21
If we build systems that know that they don’t know what the objective is,
46
141721
3753
目的が何か分かっていないことを 知っているシステムを作ったなら
02:25
then they start to exhibit these behaviors,
47
145474
2586
大気から酸素を全部除いてしまう前に 確認するような
02:28
like asking permission before getting rid of all the oxygen in the atmosphere.
48
148060
4046
振る舞いを示すようになるでしょう
02:32
In all these senses, control over the AI system
49
152565
3378
そういう意味で AIが制御できるためには
02:35
comes from the machine’s uncertainty about what the true objective is.
50
155943
4463
AIは本当の目的が何か 不確かである必要があります
02:41
And it’s when you build machines that believe with certainty
51
161282
3086
目的が分かっていると 確信しているAIを作るなら
02:44
that they have the objective,
52
164368
1418
02:45
that’s when you get this sort of psychopathic behavior.
53
165786
2753
ああいうサイコパス的振る舞いを 目にすることになるでしょう
02:48
And I think we see the same thing in humans.
54
168539
2127
同じことは人間にも 言えそうですが
02:50
What happens when general purpose AI hits the real economy?
55
170750
4254
汎用人工知能が現実社会に現れたとき 何が起きるでしょう?
02:55
How do things change? Can we adapt?
56
175379
3587
物事はどう変わるのか? 人間は適応できるでしょうか?
02:59
This is a very old point.
57
179175
1835
これは古くからある論点で
03:01
Amazingly, Aristotle actually has a passage where he says,
58
181010
3587
驚くことに アリストテレスは書いています
03:04
look, if we had fully automated weaving machines
59
184597
3045
もし完全に自動化された 機織り機や
03:07
and plectrums that could pluck the lyre and produce music without any humans,
60
187642
3837
人間なしにリラを奏でる 機械があったなら
03:11
then we wouldn’t need any workers.
61
191604
2002
労働者はいらなくなるだろうと
03:13
That idea, which I think it was Keynes
62
193814
2878
この考えは
1930年にケインズが 技術的失業と呼んだもので
03:16
who called it technological unemployment in 1930,
63
196692
2836
03:19
is very obvious to people.
64
199528
1919
当時の人々には 明らかなことでした
03:21
They think, yeah, of course, if the machine does the work,
65
201447
3086
「機械が仕事をするなら 自分は失業する」と
03:24
then I'm going to be unemployed.
66
204533
1669
03:26
You can think about the warehouses that companies are currently operating
67
206369
3503
昨今のeコマース企業の使う倉庫は 半自動化されています
03:29
for e-commerce, they are half automated.
68
209872
2711
03:32
The way it works is that an old warehouse— where you’ve got tons of stuff piled up
69
212583
4046
昔ながらの倉庫では
多くの品がそこら中に 積み上げられていて
03:36
all over the place and humans go and rummage around
70
216629
2461
人間が引っ掻き回して品物を見つけては 送り出していました
03:39
and then bring it back and send it off—
71
219090
1877
03:40
there’s a robot who goes and gets the shelving unit
72
220967
3586
今ではロボットが 目的の品のある棚を持ってきますが
03:44
that contains the thing that you need,
73
224553
1919
03:46
but the human has to pick the object out of the bin or off the shelf,
74
226472
3629
人間が棚や箱から品物を 取り出す必要があり
03:50
because that’s still too difficult.
75
230101
1877
その部分はまだ 自動化が難しいのです
03:52
But, at the same time,
76
232019
2002
でも正確に動作して
03:54
would you make a robot that is accurate enough to be able to pick
77
234021
3921
およそどんな商品でも 取ってこられるロボットが
03:57
pretty much any object within a very wide variety of objects that you can buy?
78
237942
4338
できたとしたら どうでしょう?
04:02
That would, at a stroke, eliminate 3 or 4 million jobs?
79
242280
4004
3、4百万人が 一挙に失業することでしょう
04:06
There's an interesting story that E.M. Forster wrote,
80
246409
3336
E・M・フォースターの書いた 興味深い小説で
04:09
where everyone is entirely machine dependent.
81
249745
3504
誰もが機械にすっかり 依存している話があります
04:13
The story is really about the fact that if you hand over
82
253499
3754
この話の要点は
文明の管理を機械に 譲り渡したなら
04:17
the management of your civilization to machines,
83
257253
2961
04:20
you then lose the incentive to understand it yourself
84
260214
3504
それを自分で理解したり 知るための方法を次の世代に教える動機を
04:23
or to teach the next generation how to understand it.
85
263718
2544
人々は失ってしまう ということです
04:26
You can see “WALL-E” actually as a modern version,
86
266262
3003
『ウォーリー』は その現代版で
04:29
where everyone is enfeebled and infantilized by the machine,
87
269265
3628
人間は衰え 機械に子供扱いされています
04:32
and that hasn’t been possible up to now.
88
272893
1961
そういうのは これまで 実現可能でありませんでした
04:34
We put a lot of our civilization into books,
89
274854
2419
文明について本に書けても
04:37
but the books can’t run it for us.
90
277273
1626
本が人間のために文明を 運営してはくれず
04:38
And so we always have to teach the next generation.
91
278899
2795
次の世代に教える必要があります
04:41
If you work it out, it’s about a trillion person years of teaching and learning
92
281736
4212
考えてみれば それは
1兆人年にもなる教育と学習の 何万世代も途切れることのない鎖です
04:45
and an unbroken chain that goes back tens of thousands of generations.
93
285948
3962
04:50
What happens if that chain breaks?
94
290119
1919
その鎖が切れたら どうなるのでしょう?
04:52
I think that’s something we have to understand as AI moves forward.
95
292038
3461
AIが進歩していく中で理解しておかなければ ならないことだと思います
04:55
The actual date of arrival of general purpose AI—
96
295624
3587
汎用人工知能の到来は いつになるのか?
04:59
you’re not going to be able to pinpoint, it isn’t a single day.
97
299211
3087
それは一度にできるもの ではないだろうし
05:02
It’s also not the case that it’s all or nothing.
98
302298
2294
すべてか無かという 話でもなく
05:04
The impact is going to be increasing.
99
304592
2461
影響が徐々に 増えていくでしょう
05:07
So with every advance in AI,
100
307053
2043
AIの進歩により
05:09
it significantly expands the range of tasks.
101
309096
2962
機械に可能な作業が 広がっていきます
05:12
So in that sense, I think most experts say by the end of the century,
102
312058
5338
専門家の多くは
今世紀末までには 汎用人工知能が現れると考えており
05:17
we’re very, very likely to have general purpose AI.
103
317396
3337
05:20
The median is something around 2045.
104
320733
3754
中央値は2045年あたりです
05:24
I'm a little more on the conservative side.
105
324487
2002
私はもう少し先だと 思います
05:26
I think the problem is harder than we think.
106
326489
2085
もっと難しい問題でしょう
05:28
I like what John McAfee, he was one of the founders of AI,
107
328574
3253
この問いへの答えで 私が好きなのは
AIの基礎を作った一人 ジョン・マッカーシーのものです
05:31
when he was asked this question, he said, somewhere between five and 500 years.
108
331911
3837
「それは 5年〜500年の間のどこかで アインシュタインが何人か必要になるだろう」
05:35
And we're going to need, I think, several Einsteins to make it happen.
109
335748
3337

Original video on YouTube.com
このウェブサイトについて

このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。

https://forms.gle/WvT1wiN1qDtmnspy7