Jeff Dean: AI isn't as smart as you think -- but it could be | TED

250,182 views ・ 2022-01-12

TED


下の英語字幕をダブルクリックすると動画を再生できます。

翻訳: Yasushi Aoki 校正: Emi Atarashi
00:13
Hi, I'm Jeff.
0
13329
1583
どうも ジェフです
00:15
I lead AI Research and Health at Google.
1
15746
2833
GoogleでAI研究と ヘルス関連を担当しています
00:18
I joined Google more than 20 years ago,
2
18621
1875
私がGoogleに入ったのは 20年以上前で
00:20
when we were all wedged into a tiny office space,
3
20538
3166
当時のオフィスは パロアルトの街中にあり
00:23
above what's now a T-Mobile store in downtown Palo Alto.
4
23704
2750
今はTモバイルのお店がある建物ですが 窮屈なものでした
00:27
I've seen a lot of computing transformations in that time,
5
27163
2875
コンピューターの進化を ずっと見てきて
00:30
and in the last decade, we've seen AI be able to do tremendous things.
6
30079
3459
特にこの十年でAIにすごいことが できるようになりましたが
00:34
But we're still doing it all wrong in many ways.
7
34746
2542
依然多くのことが まずいやり方でなされています
00:37
That's what I want to talk to you about today.
8
37329
2209
それについてお話ししようと 思いますが
00:39
But first, let's talk about what AI can do.
9
39579
2209
その前にAIに何ができるのかを お話ししましょう
00:41
So in the last decade, we've seen tremendous progress
10
41829
3292
この十年のAIの発展で
コンピューターによる 画像の認識力や
00:45
in how AI can help computers see, understand language,
11
45121
4333
言葉や音声の理解力が 大幅に向上し
00:49
understand speech better than ever before.
12
49496
2833
00:52
Things that we couldn't do before, now we can do.
13
52329
2583
前にはできなかったことが できるようになりました
00:54
If you think about computer vision alone,
14
54954
2333
コンピュータービジョンに限っても
00:57
just in the last 10 years,
15
57329
1583
この十年で
00:58
computers have effectively developed the ability to see;
16
58912
2792
コンピューターは 「見る能力」を獲得し
01:01
10 years ago, they couldn't see, now they can see.
17
61746
2500
前には見えなかったものが 見えるようになったことで
01:04
You can imagine this has had a transformative effect
18
64287
2500
コンピューターにできることが 大きく変わりました
01:06
on what we can do with computers.
19
66787
2209
この能力によって可能になった 重要な応用をいくつか挙げると
01:08
So let's look at a couple of the great applications
20
68996
2500
01:11
enabled by these capabilities.
21
71496
2000
機械学習で 優れた洪水予測をし
01:13
We can better predict flooding, keep everyone safe,
22
73537
2417
人々の安全を 守れるようになり
01:15
using machine learning.
23
75996
1500
100以上の言語を 翻訳することで
01:17
We can translate over 100 languages so we all can communicate better,
24
77538
3250
人々の意思疎通を助け
病気の予測や診断をして
01:20
and better predict and diagnose disease,
25
80788
2000
人々が適切な処置を 受けられるようになりました
01:22
where everyone gets the treatment that they need.
26
82788
2333
01:25
So let's look at two key components
27
85163
1916
今日のAIの進歩を支えている 重要な要素が2つあります
01:27
that underlie the progress in AI systems today.
28
87121
2333
01:30
The first is neural networks,
29
90121
1542
1つはニューラルネットです
01:31
a breakthrough approach to solving some of these difficult problems
30
91704
3417
今挙げたような難しい問題を解く 画期的な手法で
01:35
that has really shone in the last 15 years.
31
95121
2833
この15年で目覚ましい成果を 出していますが
01:37
But they're not a new idea.
32
97954
1625
アイデア自体は 新しくありません
01:39
And the second is computational power.
33
99621
1833
もう1つは処理能力です
01:41
It actually takes a lot of computational power
34
101454
2167
ニューラルネットを 本当に機能させるためには
01:43
to make neural networks able to really sing,
35
103663
2083
非常に多くの処理能力を 必要としますが
01:45
and in the last 15 years, we’ve been able to halve that,
36
105746
3375
この15年でそれが 得られるようになり
01:49
and that's partly what's enabled all this progress.
37
109121
2458
それがこの進歩の 要因になっています
01:51
But at the same time, I think we're doing several things wrong,
38
111954
3459
一方でいろいろ間違ったやり方を していることもあり
01:55
and that's what I want to talk to you about
39
115413
2000
後でそのことを お話ししますが
01:57
at the end of the talk.
40
117454
1167
01:58
First, a bit of a history lesson.
41
118663
1958
まずは少し歴史を 振り返りましょう
02:00
So for decades,
42
120663
1208
コンピューターの黎明期から
02:01
almost since the very beginning of computing,
43
121913
2125
何十年にもわたって
画像や言葉や音声を 理解できるコンピューターを
02:04
people have wanted to be able to build computers
44
124079
2250
02:06
that could see, understand language, understand speech.
45
126329
3917
人々は作りたいと 思ってきました
02:10
The earliest approaches to this, generally,
46
130579
2000
初期のやり方では
02:12
people were trying to hand-code all the algorithms
47
132621
2333
そういう難しい作業を実行する アルゴリズムを
02:14
that you need to accomplish those difficult tasks,
48
134996
2458
すべて手で書いていましたが
02:17
and it just turned out to not work very well.
49
137454
2375
あまり上手くいきませんでした
02:19
But in the last 15 years, a single approach
50
139829
3250
しかしこの15年で あるひとつの手法によって
02:23
unexpectedly advanced all these different problem spaces all at once:
51
143079
4167
そういう様々な問題領域が 予想外に発展しました
02:27
neural networks.
52
147954
1542
それがニューラルネットです
02:29
So neural networks are not a new idea.
53
149538
1833
ニューラルネットは 新しいアイデアではなく
02:31
They're kind of loosely based
54
151371
1417
生物の神経系のある種の特質に 基づいています
02:32
on some of the properties that are in real neural systems.
55
152788
3041
02:35
And many of the ideas behind neural networks
56
155829
2084
ニューラルネットの要素の多くは
02:37
have been around since the 1960s and 70s.
57
157954
2250
1960〜70年代頃にできました
02:40
A neural network is what it sounds like,
58
160204
2167
ニューラルネットは言葉の通り
02:42
a series of interconnected artificial neurons
59
162413
2708
人工的な神経が相互結合していて
02:45
that loosely emulate the properties of your real neurons.
60
165121
3000
生物の神経に似た 挙動をします
02:48
An individual neuron in one of these systems
61
168163
2166
このシステムの 個々の神経には
02:50
has a set of inputs,
62
170371
1417
複数の入力と
02:51
each with an associated weight,
63
171788
2041
それぞれの係数があり
02:53
and the output of a neuron
64
173871
1833
入力に重み付けした関数値が 出力になります
02:55
is a function of those inputs multiplied by those weights.
65
175704
3209
02:59
So pretty simple,
66
179288
1208
ごくシンプルなものです
03:00
and lots and lots of these work together to learn complicated things.
67
180538
3666
そのような多数の神経が一緒になって 複雑なことを学習します
03:04
So how do we actually learn in a neural network?
68
184496
2833
ニューラルネットで 学習はどのように行われるのか?
03:07
It turns out the learning process
69
187371
1708
学習プロセスでは
03:09
consists of repeatedly making tiny little adjustments
70
189079
2792
係数への微調整を 繰り返し行い
03:11
to the weight values,
71
191913
1208
03:13
strengthening the influence of some things,
72
193121
2042
あるものの影響を強め
03:15
weakening the influence of others.
73
195204
1959
他のものの影響を弱めます
03:17
By driving the overall system towards desired behaviors,
74
197204
3917
システム全体を 望ましい挙動に導いていくことで
03:21
these systems can be trained to do really complicated things,
75
201163
2916
非常に複雑なことが できるようになります
ある言語から別の言語へと 翻訳するとか
03:24
like translate from one language to another,
76
204121
2875
写真に写っているものを 検出するといった
03:27
detect what kind of objects are in a photo,
77
207038
3083
03:30
all kinds of complicated things.
78
210121
1875
複雑なことです
私がニューラルネットに 興味を持ったのは
03:32
I first got interested in neural networks
79
212038
2000
03:34
when I took a class on them as an undergraduate in 1990.
80
214079
3042
1990年に大学の授業で 聞いた時でした
03:37
At that time,
81
217163
1125
当時のニューラルネットは
03:38
neural networks showed impressive results on tiny problems,
82
218329
3792
ごく小さな問題に対しては 感心するような結果を出しましたが
03:42
but they really couldn't scale to do real-world important tasks.
83
222121
4375
現実的な問題に適用できるほど 規模を拡大できませんでした
03:46
But I was super excited.
84
226538
1500
それでも私は すごく興奮しました
03:48
(Laughter)
85
228079
2500
(笑)
03:50
I felt maybe we just needed more compute power.
86
230579
2417
処理能力がもっと必要なだけだと
03:52
And the University of Minnesota had a 32-processor machine.
87
232996
3625
ミネソタ大学には 32プロセッサマシンがあって
03:56
I thought, "With more compute power,
88
236621
1792
高い処理能力があれば
03:58
boy, we could really make neural networks really sing."
89
238413
3000
ニューラルネットで すごいことができるはずだと思いました
04:01
So I decided to do a senior thesis on parallel training of neural networks,
90
241454
3584
卒論ではニューラルネットの 並列トレーニングに取り組むことにしました
04:05
the idea of using processors in a computer or in a computer system
91
245079
4000
コンピューターのプロセッサを いっぱい同時に使って
04:09
to all work toward the same task,
92
249079
2125
ニューラルネットのトレーニングを させようというアイデアです
04:11
that of training neural networks.
93
251204
1584
04:12
32 processors, wow,
94
252829
1292
32個もプロセッサがあれば
04:14
we’ve got to be able to do great things with this.
95
254163
2833
きっとすごいことができると
04:17
But I was wrong.
96
257496
1167
でも間違っていました
04:20
Turns out we needed about a million times as much computational power
97
260038
3333
ニューラルネットですごいことが できるようになるには
04:23
as we had in 1990
98
263371
1375
1990年当時の 百万倍の処理能力が
04:24
before we could actually get neural networks to do impressive things.
99
264788
3333
必要だったのです
04:28
But starting around 2005,
100
268121
2417
しかし2005年頃から
04:30
thanks to the computing progress of Moore's law,
101
270579
2500
ムーアの法則のおかげで
04:33
we actually started to have that much computing power,
102
273121
2625
それくらいの処理能力が 得られるようになり
04:35
and researchers in a few universities around the world started to see success
103
275746
4250
いくつかの大学の研究者たちが 様々な種類のタスクについて
04:40
in using neural networks for a wide variety of different kinds of tasks.
104
280038
4083
ニューラルネットで 結果を出し始めました
04:44
I and a few others at Google heard about some of these successes,
105
284121
3583
Googleでも私や他の何人かが そういう成功について耳にし
04:47
and we decided to start a project to train very large neural networks.
106
287746
3333
大規模なニューラルネットをトレーニングする プロジェクトに着手しました
04:51
One system that we trained,
107
291079
1459
あるシステムでは
04:52
we trained with 10 million randomly selected frames
108
292538
3541
YouTubeからランダムに抽出した ビデオのコマ1千万個を使って
04:56
from YouTube videos.
109
296079
1292
トレーニングをし
04:57
The system developed the capability
110
297371
1750
様々な物体が識別できる ようになりました
04:59
to recognize all kinds of different objects.
111
299121
2583
05:01
And it being YouTube, of course,
112
301746
1542
YouTubeを使ったので
05:03
it developed the ability to recognize cats.
113
303329
2500
猫を認識する能力が 発達しました
05:05
YouTube is full of cats.
114
305829
1292
YouTubeは猫だらけですから
05:07
(Laughter)
115
307163
1416
(笑)
05:08
But what made that so remarkable
116
308621
2208
これが注目に値するのは
05:10
is that the system was never told what a cat was.
117
310871
2417
このシステムは猫が何であるかを 全く教えられていなかったということです
05:13
So using just patterns in data,
118
313704
2500
ただデータの中のパターンから
05:16
the system honed in on the concept of a cat all on its own.
119
316204
3625
猫の概念を自分で 見つけ出したのです
05:20
All of this occurred at the beginning of a decade-long string of successes,
120
320371
3750
それを手始めとして
多様な問題をニューラルネットで解決する 10年に及ぶ成功の連続が
05:24
of using neural networks for a huge variety of tasks,
121
324121
2500
05:26
at Google and elsewhere.
122
326663
1166
Googleやその他の場所で起き
05:27
Many of the things you use every day,
123
327871
2167
その成果の多くが 日常的に使われています
05:30
things like better speech recognition for your phone,
124
330079
2500
スマートフォンの音声認識機能
05:32
improved understanding of queries and documents
125
332579
2209
検索精度を上げる 質問や文章の理解
05:34
for better search quality,
126
334829
1459
05:36
better understanding of geographic information to improve maps,
127
336329
3042
より良い地図のための 地理的情報の理解などです
05:39
and so on.
128
339413
1166
05:40
Around that time,
129
340621
1167
同時に
05:41
we also got excited about how we could build hardware that was better tailored
130
341788
3750
ニューラルネットに必要な種類の 計算に適した
ハードの開発にも 熱中しました
05:45
to the kinds of computations neural networks wanted to do.
131
345579
2792
ニューラルネットの計算には 2つの特質があります
05:48
Neural network computations have two special properties.
132
348371
2667
1つは精度がそこまで 必要ないこと
05:51
The first is they're very tolerant of reduced precision.
133
351079
2625
05:53
Couple of significant digits, you don't need six or seven.
134
353746
2750
有効数字は6、7桁も必要なく 2、3桁でいいのです
05:56
And the second is that all the algorithms are generally composed
135
356496
3458
もう1つは ニューラルネットの アルゴリズムは
05:59
of different sequences of matrix and vector operations.
136
359996
3458
行列やベクトルの操作で 構成されていること
06:03
So if you can build a computer
137
363496
1750
だから低精度の行列や ベクトルの演算だけ
06:05
that is really good at low-precision matrix and vector operations
138
365246
3792
非常に上手くできる コンピューターを作れば
06:09
but can't do much else,
139
369079
1709
06:10
that's going to be great for neural-network computation,
140
370829
2625
他の用途には使えなくとも
ニューラルネットの計算で 力を発揮するはずで
06:13
even though you can't use it for a lot of other things.
141
373496
2667
そいうものができたなら 人々は 素晴らしい使い道を見つけ出すでしょう
06:16
And if you build such things, people will find amazing uses for them.
142
376163
3291
これが私たちの最初に作った TPU v1です
06:19
This is the first one we built, TPU v1.
143
379496
2083
06:21
"TPU" stands for Tensor Processing Unit.
144
381621
2542
TPUというのは「テンソル・ プロセッシング・ユニット」の略です
06:24
These have been used for many years behind every Google search,
145
384204
3042
TPUは何年も前から Goolge検索のたび背後で使われています
06:27
for translation,
146
387246
1167
機械翻訳にも使われているし
06:28
in the DeepMind AlphaGo matches,
147
388454
1917
アルファ碁の対局でも 使われました
06:30
so Lee Sedol and Ke Jie maybe didn't realize,
148
390413
2583
李世ドルや柯潔は知らなかった かもしれませんが
06:33
but they were competing against racks of TPU cards.
149
393038
2708
彼らはTPUカードのラックを相手に 対戦していたのです
06:35
And we've built a bunch of subsequent versions of TPUs
150
395788
2583
その後TPUはバージョンを重ね
06:38
that are even better and more exciting.
151
398371
1875
さらにすごいものに なっています
06:40
But despite all these successes,
152
400288
2083
そのような成功にもかかわらず
06:42
I think we're still doing many things wrong,
153
402371
2208
私たちは未だ多くのことを 間違ったやり方でしていると思っていて
06:44
and I'll tell you about three key things we're doing wrong,
154
404621
2792
重要な問題点3つと
その解決法について お話しします
06:47
and how we'll fix them.
155
407454
1167
1つ目は 今日のニューラルネットの多くは
06:48
The first is that most neural networks today
156
408663
2083
06:50
are trained to do one thing, and one thing only.
157
410746
2250
単一の作業だけをするよう トレーニングされているということ
06:53
You train it for a particular task that you might care deeply about,
158
413038
3208
関心のある特定の作業について トレーニングをしますが
06:56
but it's a pretty heavyweight activity.
159
416288
1916
とても手間がかかります
06:58
You need to curate a data set,
160
418246
1667
データを集め
06:59
you need to decide what network architecture you'll use
161
419913
3000
どのようなネットワーク構造に するかを決め
07:02
for this problem,
162
422954
1167
07:04
you need to initialize the weights with random values,
163
424121
2708
ランダムな値で 初期の重み付けをし
07:06
apply lots of computation to make adjustments to the weights.
164
426871
2875
重みを調節するために 膨大な処理を行います
07:09
And at the end, if you’re lucky, you end up with a model
165
429746
2750
上手くいけば
関心のある作業に対して 優れたモデルが得られますが
07:12
that is really good at that task you care about.
166
432538
2291
07:14
But if you do this over and over,
167
434871
1583
そのようなことを 繰り返していると
07:16
you end up with thousands of separate models,
168
436496
2667
何千もの個別のモデルができ
07:19
each perhaps very capable,
169
439204
1792
それぞれは役に立つにしても
07:21
but separate for all the different tasks you care about.
170
441038
2791
作業の種類ごとに別のモデルが 必要になります
07:23
But think about how people learn.
171
443829
1667
一方で人間の学び方は どうでしょう
07:25
In the last year, many of us have picked up a bunch of new skills.
172
445538
3166
この一年で皆さん様々なスキルを 新たに身につけたことと思います
07:28
I've been honing my gardening skills,
173
448746
1792
私は園芸のスキルを磨いていて
07:30
experimenting with vertical hydroponic gardening.
174
450579
2375
垂直水耕栽培を試しています
07:32
To do that, I didn't need to relearn everything I already knew about plants.
175
452954
3792
そのために植物について既に知っていることを 一から学び直す必要はありません
07:36
I was able to know how to put a plant in a hole,
176
456746
3375
穴にタネを植えるとか
07:40
how to pour water, that plants need sun,
177
460163
2291
水をやるとか 日光が必要とか
07:42
and leverage that in learning this new skill.
178
462496
3583
そういう知識を 新スキルの学習に生かせます
07:46
Computers can work the same way, but they don’t today.
179
466079
3042
コンピューターだって同じようにできるはずですが 現在はそうなっていません
07:49
If you train a neural network from scratch,
180
469163
2583
ニューラルネットを一から トレーニングするというのは
07:51
it's effectively like forgetting your entire education
181
471746
3542
新たなことに取り組むたびに
過去に受けた教育を 全て忘れるようなものです
07:55
every time you try to do something new.
182
475288
1875
07:57
That’s crazy, right?
183
477163
1000
馬鹿げてますよね
07:58
So instead, I think we can and should be training
184
478788
3708
そうではなく 何千何万という異なるタスクを行える
08:02
multitask models that can do thousands or millions of different tasks.
185
482538
3791
マルチタスクのモデルを トレーニングすべきなのです
08:06
Each part of that model would specialize in different kinds of things.
186
486329
3375
モデルのそれぞれの部分が 異なることに特化しています
08:09
And then, if we have a model that can do a thousand things,
187
489704
2792
1000種類のことができる モデルができれば
08:12
and the thousand and first thing comes along,
188
492538
2166
1001番目の種類のタスクに 取り組む時
08:14
we can leverage the expertise we already have
189
494746
2125
既に持っている関連した 能力を生かせ
08:16
in the related kinds of things
190
496913
1541
08:18
so that we can more quickly be able to do this new task,
191
498496
2792
新種のタスクを速やかに こなせるようになります
08:21
just like you, if you're confronted with some new problem,
192
501288
2791
皆さんもそうするでしょう 新たな問題に直面した時
既に知っていることが 17ばかりあることにすぐ気付き
08:24
you quickly identify the 17 things you already know
193
504121
2625
08:26
that are going to be helpful in solving that problem.
194
506746
2542
それはその問題の解決に 役に立つはずです
08:29
Second problem is that most of our models today
195
509329
2709
問題点の2つ目は
今日のモデルの多くは 1種類のデータしか扱わないこと
08:32
deal with only a single modality of data --
196
512079
2125
08:34
with images, or text or speech,
197
514204
3084
画像とか 文字とか 音声とかありますが
08:37
but not all of these all at once.
198
517329
1709
同時に全部は扱いません
でも自分がどういう風にしているか 考えてみてください
08:39
But think about how you go about the world.
199
519079
2042
08:41
You're continuously using all your senses
200
521121
2333
絶えずすべての感覚を駆使して
08:43
to learn from, react to,
201
523454
3083
学び 反応し 取るべき行動を 判断しているでしょう
08:46
figure out what actions you want to take in the world.
202
526579
2667
その方が理にかなっているし
08:49
Makes a lot more sense to do that,
203
529287
1667
08:50
and we can build models in the same way.
204
530954
2000
AIのモデルも そのように作れるはずで
08:52
We can build models that take in these different modalities of input data,
205
532954
4042
文字や 画像や 音声といった
様々な種類の入力データを 受け取ったなら
08:57
text, images, speech,
206
537037
1750
08:58
but then fuse them together,
207
538829
1417
それを融合させ
09:00
so that regardless of whether the model sees the word "leopard,"
208
540329
3833
例えば「ヒョウ」という言葉を見た時も
09:04
sees a video of a leopard or hears someone say the word "leopard,"
209
544204
4083
ヒョウの映像を見た時も 誰かが「ヒョウ」と言ったのを聞いた時も
09:08
the same response is triggered inside the model:
210
548329
2250
モデルの中で同じ反応が 引き起こされるようにします
09:10
the concept of a leopard
211
550621
1750
そうやって得られる ヒョウという概念は
09:12
can deal with different kinds of input data,
212
552412
2250
様々な種類の入力データに 対応できます
09:14
even nonhuman inputs, like genetic sequences,
213
554662
3000
画像や 文字や ビデオに加え
09:17
3D clouds of points, as well as images, text and video.
214
557662
3209
遺伝子配列や 三次元点雲のようなものにまで
09:20
The third problem is that today's models are dense.
215
560912
3625
問題点の3つ目は 今日のモデルが密であること
09:24
There's a single model,
216
564579
1417
どのタスクに対しても
09:25
the model is fully activated for every task,
217
565996
2375
モデルの全体が活性化され
09:28
for every example that we want to accomplish,
218
568412
2125
やりたいのがごく単純な問題でも 非常に複雑な問題でも
09:30
whether that's a really simple or a really complicated thing.
219
570537
2917
同じように処理されます
09:33
This, too, is unlike how our own brains work.
220
573496
2666
これもまた人間の脳の働き方とは 異なっています
09:36
Different parts of our brains are good at different things,
221
576204
3000
脳の部位はそれぞれが 異なることに特化していて
09:39
and we're continuously calling upon the pieces of them
222
579246
3291
処理する問題に関連した部位が 活性化します
09:42
that are relevant for the task at hand.
223
582579
2167
09:44
For example, nervously watching a garbage truck
224
584787
2334
例えば ゴミ収集車が 自分の車の方にバックしてくるのを
09:47
back up towards your car,
225
587162
1875
ハラハラ見ている時には
09:49
the part of your brain that thinks about Shakespearean sonnets
226
589037
2917
シェークスピアのソネットを 鑑賞する脳の部位は
09:51
is probably inactive.
227
591996
1250
たぶん活性化していないでしょう
09:53
(Laughter)
228
593246
1625
(笑)
09:54
AI models can work the same way.
229
594912
1750
AIモデルも同様にできるはずです
09:56
Instead of a dense model,
230
596662
1292
密なモデルではなく
09:57
we can have one that is sparsely activated.
231
597954
2250
疎らに活性化されるようなモデルで
10:00
So for particular different tasks, we call upon different parts of the model.
232
600204
4250
作業によって 異なる部位が呼び出されます
10:04
During training, the model can also learn which parts are good at which things,
233
604496
4375
トレーニングにおいて モデルはどの部分が どんなことに向いているかも学び
10:08
to continuously identify what parts it wants to call upon
234
608871
3791
新たな作業を行うにあたって
どの部位を呼び出せばいいかが わかるようにします
10:12
in order to accomplish a new task.
235
612662
1834
10:14
The advantage of this is we can have a very high-capacity model,
236
614496
3541
これの利点は
非常に容量が大きくかつ 効率の良いモデルだということで
10:18
but it's very efficient,
237
618037
1250
10:19
because we're only calling upon the parts that we need
238
619329
2583
作業ごとに必要な部分だけが 使われるのです
10:21
for any given task.
239
621954
1208
10:23
So fixing these three things, I think,
240
623162
2000
この3つの問題点を解決することで
10:25
will lead to a more powerful AI system:
241
625162
2209
より強力なAIができると思います
10:27
instead of thousands of separate models,
242
627412
2000
何千という別個のモデルを 作る代わりに
10:29
train a handful of general-purpose models
243
629412
2000
汎用的なモデルを いくつかトレーニングして
10:31
that can do thousands or millions of things.
244
631454
2083
何千何万という問題に 対応できるようにすること
10:33
Instead of dealing with single modalities,
245
633579
2042
単一の種類のデータを 扱う代わりに
10:35
deal with all modalities,
246
635662
1334
あらゆる種類のデータを融合させて 扱えるようにすること
10:36
and be able to fuse them together.
247
636996
1708
10:38
And instead of dense models, use sparse, high-capacity models,
248
638746
3458
密なモデルの代わりに 疎らで高容量なモデルを用い
10:42
where we call upon the relevant bits as we need them.
249
642246
2958
必要な部位だけ 呼び出されるようにすること
10:45
We've been building a system that enables these kinds of approaches,
250
645246
3416
私たちはこのようなやり方を可能にする システムを構築しており
10:48
and we’ve been calling the system “Pathways.”
251
648704
2542
それを「パスウェイ」と 呼んでいます
10:51
So the idea is this model will be able to do
252
651287
3084
何千何万という異なる種類の 作業を行えて
10:54
thousands or millions of different tasks,
253
654412
2084
10:56
and then, we can incrementally add new tasks,
254
656537
2250
新たな作業を徐々に 追加していくことができ
10:58
and it can deal with all modalities at once,
255
658787
2125
様々な種類のデータを 同時に扱え
11:00
and then incrementally learn new tasks as needed
256
660954
2958
必要に応じて新たな作業を学び
11:03
and call upon the relevant bits of the model
257
663954
2083
異なるタスクに対して 異なる部位が呼び出されるというものです
11:06
for different examples or tasks.
258
666037
1709
11:07
And we're pretty excited about this,
259
667787
1750
これにはとてもワクワクしていて
11:09
we think this is going to be a step forward
260
669537
2042
AIの作り方を前進されることに なると思っています
11:11
in how we build AI systems.
261
671621
1333
11:12
But I also wanted to touch on responsible AI.
262
672954
3708
あと責任あるAIについても 触れたいと思います
11:16
We clearly need to make sure that this vision of powerful AI systems
263
676662
4875
この強力なAIのビジョンは
すべての人の利益になるものに する必要があります
11:21
benefits everyone.
264
681579
1167
11:23
These kinds of models raise important new questions
265
683496
2458
このようなモデルを
すべての利用者にとっての 公正さ 理解可能性
11:25
about how do we build them with fairness,
266
685954
2458
11:28
interpretability, privacy and security,
267
688454
3208
プライバシー 安全性を確保しながら いかに構築するかというのは
11:31
for all users in mind.
268
691662
1459
重要な新しい問題です
11:33
For example, if we're going to train these models
269
693621
2291
例えば何千何万という作業について モデルをトレーニングするには
11:35
on thousands or millions of tasks,
270
695954
2125
11:38
we'll need to be able to train them on large amounts of data.
271
698079
2875
大量のデータが必要になります
11:40
And we need to make sure that data is thoughtfully collected
272
700996
3250
データは思慮深く集め
11:44
and is representative of different communities and situations
273
704287
3667
世界の様々なコミュニティや状況を
よく反映したものにする 必要があります
11:47
all around the world.
274
707954
1167
11:49
And data concerns are only one aspect of responsible AI.
275
709579
4000
データの問題は責任あるAIの ひとつの側面にすぎず
11:53
We have a lot of work to do here.
276
713621
1583
やるべきことは たくさんあります
11:55
So in 2018, Google published this set of AI principles
277
715246
2666
2018年にGoogleは
このような技術の開発における指針となる AIの原則を公開し
11:57
by which we think about developing these kinds of technology.
278
717912
3500
12:01
And these have helped guide us in how we do research in this space,
279
721454
3625
それをこの分野における 研究のやり方や
当社製品でAIをどう使うかを 決める上で役立てています
12:05
how we use AI in our products.
280
725121
1833
12:06
And I think it's a really helpful and important framing
281
726996
2750
そういった深く複雑な問題を どう考えるか
12:09
for how to think about these deep and complex questions
282
729746
2875
社会においてAIを どう使うべきかについて
12:12
about how we should be using AI in society.
283
732621
2833
これはとても有用で重要な見方を 与えてくれると思います
12:15
We continue to update these as we learn more.
284
735454
3625
原則は学びに応じて 更新していきます
このような原則は 重要で活発な研究領域になっています
12:19
Many of these kinds of principles are active areas of research --
285
739079
3458
12:22
super important area.
286
742537
1542
12:24
Moving from single-purpose systems that kind of recognize patterns in data
287
744121
4125
データの中のパターンを認識するような 単一用途のシステムから
12:28
to these kinds of general-purpose intelligent systems
288
748246
2750
世界についてより深く理解している 汎用知的システムへと進めることで
12:31
that have a deeper understanding of the world
289
751037
2292
12:33
will really enable us to tackle
290
753329
1583
人類が直面する大きな問題への 対応が可能になるでしょう
12:34
some of the greatest problems humanity faces.
291
754954
2500
12:37
For example,
292
757454
1167
例えば より多くの病気を 診断するとか
12:38
we’ll be able to diagnose more disease;
293
758662
2375
12:41
we'll be able to engineer better medicines
294
761079
2000
モデルに化学や物理の知識を 取り込んで
12:43
by infusing these models with knowledge of chemistry and physics;
295
763079
3083
より優れた薬を開発するとか
12:46
we'll be able to advance educational systems
296
766204
2667
各人に個別化した 教え方をして
12:48
by providing more individualized tutoring
297
768871
2041
人々がよりよく 学べるようにし
12:50
to help people learn in new and better ways;
298
770912
2375
教育システムを 改善するとか
12:53
we’ll be able to tackle really complicated issues,
299
773287
2375
気候変動のような 非常に複雑な問題にも
12:55
like climate change,
300
775704
1208
取り組めるようになり
12:56
and perhaps engineering of clean energy solutions.
301
776954
2792
クリーンエネルギーの解決法を 見出せるかもしれません
12:59
So really, all of these kinds of systems
302
779787
2667
そのようなシステムには
13:02
are going to be requiring the multidisciplinary expertise
303
782496
2875
世界中の人々の分野を横断した
13:05
of people all over the world.
304
785371
1875
専門知識が必要になります
13:07
So connecting AI with whatever field you are in,
305
787287
3542
進歩のために
皆さんの様々な専門領域と AIを繋ぎ合わせるのです
13:10
in order to make progress.
306
790829
1750
13:13
So I've seen a lot of advances in computing,
307
793579
2292
この数十年のコンピューターの 進歩によって
13:15
and how computing, over the past decades,
308
795912
2292
何百何千万という人々が世界をより良く 理解できるようになるのを見てきました
13:18
has really helped millions of people better understand the world around them.
309
798204
4167
13:22
And AI today has the potential to help billions of people.
310
802412
3000
AIは何十億という人々を 助けられる可能性があります
13:26
We truly live in exciting times.
311
806204
2125
我々は本当にすごい時代に 生きているのです
13:28
Thank you.
312
808746
1166
ありがとうございました
13:29
(Applause)
313
809912
7000
(拍手)
13:39
Chris Anderson: Thank you so much.
314
819829
1667
(クリス・アンダーソン) ありがとうございました
13:41
I want to follow up on a couple things.
315
821537
2375
いくつか質問があります
13:44
This is what I heard.
316
824454
2792
聞いた話だと
13:47
Most people's traditional picture of AI
317
827287
4125
多くの人のAIの理解は
コンピューターが 情報のパターンを認識し
13:51
is that computers recognize a pattern of information,
318
831412
3125
13:54
and with a bit of machine learning,
319
834579
2125
機械学習によって
13:56
they can get really good at that, better than humans.
320
836704
2625
その認識力は人間以上になりうる というものですが
13:59
What you're saying is those patterns
321
839329
1792
あなたのお話では
AIが扱うパターンは もはや単純なものではなく
14:01
are no longer the atoms that AI is working with,
322
841121
2875
14:04
that it's much richer-layered concepts
323
844037
2542
より高度な概念で
14:06
that can include all manners of types of things
324
846621
3458
例えばヒョウを構成する あらゆるものというような
14:10
that go to make up a leopard, for example.
325
850121
3000
様々な種類のものになる ということですが
14:13
So what could that lead to?
326
853121
2916
それはどういうところに 進んで行くのでしょう?
14:16
Give me an example of when that AI is working,
327
856079
2750
そういうAIによって
14:18
what do you picture happening in the world
328
858829
2042
今後の 5年10年で どんなすごいことが 起こると考えているのか
14:20
in the next five or 10 years that excites you?
329
860912
2209
お聞かせください
14:23
Jeff Dean: I think the grand challenge in AI
330
863537
2500
(ディーン) AIにおける大きな問題は
14:26
is how do you generalize from a set of tasks
331
866079
2375
すでにやり方を知っている作業から 新しい作業へと
14:28
you already know how to do
332
868496
1416
14:29
to new tasks,
333
869954
1208
できる限り容易に どう一般化するかということです
14:31
as easily and effortlessly as possible.
334
871204
2542
14:33
And the current approach of training separate models for everything
335
873746
3250
それぞれの問題に別のモデルという 現在のようなトレーニングのやり方だと
14:36
means you need lots of data about that particular problem,
336
876996
3166
個別の問題に膨大なデータが 必要になります
14:40
because you're effectively trying to learn everything
337
880162
2542
何もないところから
世界とその問題について 学ぼうとすることになるからです
14:42
about the world and that problem, from nothing.
338
882746
2541
14:45
But if you can build these systems
339
885287
1667
でも何千何万という作業のやり方を 覚えているシステムを作れれば
14:46
that already are infused with how to do thousands and millions of tasks,
340
886996
4458
14:51
then you can effectively teach them to do a new thing
341
891496
3791
新たな作業のやり方を教えるのに
比較的少ない例を 与えるだけで済みます
14:55
with relatively few examples.
342
895329
1500
14:56
So I think that's the real hope,
343
896871
2083
それはとても希望を持てることで
14:58
that you could then have a system where you just give it five examples
344
898996
4083
何か関心のある問題について 5つばかり例を与えるだけで
15:03
of something you care about,
345
903121
1541
15:04
and it learns to do that new task.
346
904704
1917
その種の問題が 解けるようになるんですから
15:06
CA: You can do a form of self-supervised learning
347
906662
2375
(アンダーソン) ごくわずかなシードだけで
ある種の自己教師あり学習ができると
15:09
that is based on remarkably little seeding.
348
909079
2542
15:11
JD: Yeah, as opposed to needing 10,000 or 100,000 examples
349
911662
2875
(ディーン) ええ 1万とか10万という 例は必要とせずに
15:14
to figure everything in the world out.
350
914579
1833
世界にあるものを 理解していくんです
15:16
CA: Aren't there kind of terrifying unintended consequences
351
916454
2792
(アンダーソン) そこから何か意図しない 恐ろしいことが起きたりはしませんか?
15:19
possible, from that?
352
919287
1334
15:20
JD: I think it depends on how you apply these systems.
353
920621
2625
(ディーン) システムをどう 適用するかによると思います
15:23
It's very clear that AI can be a powerful system for good,
354
923287
4167
AIは強力な良いシステムにもなり得るし
15:27
or if you apply it in ways that are not so great,
355
927496
2333
まずい使い方をすれば
15:29
it can be a negative consequence.
356
929871
3375
良くない結果を引き起こし得ます
15:33
So I think that's why it's important to have a set of principles
357
933287
3042
原則を持つのが重要なのはそのためで
15:36
by which you look at potential uses of AI
358
936371
2250
AIの潜在的な使われ方を検討し
15:38
and really are careful and thoughtful about how you consider applications.
359
938662
5125
どう使うかについて 思慮深くしようというわけです
15:43
CA: One of the things people worry most about
360
943787
2209
(アンダーソン) 人々が 懸念する点のひとつは
15:45
is that, if AI is so good at learning from the world as it is,
361
945996
3583
AIは現状の世界から学ぶことに 優れているため
15:49
it's going to carry forward into the future
362
949621
2875
本当は良くないことを
15:52
aspects of the world as it is that actually aren't right, right now.
363
952537
4375
そのまま未来に持ち越してしまうの ではないかということです
15:56
And there's obviously been a huge controversy about that
364
956954
2708
最近もGoogleで 物議を醸すことがあり
15:59
recently at Google.
365
959662
2417
AI開発の原則を
16:02
Some of those principles of AI development,
366
962121
3083
16:05
you've been challenged that you're not actually holding to them.
367
965246
4708
Google自身が守ってないと 責められています
16:10
Not really interested to hear about comments on a specific case,
368
970329
3250
個別のケースについて ご意見を伺おうとは思いませんが
16:13
but ... are you really committed?
369
973621
2708
Googleは真剣に 取り組んでいるのでしょうか?
16:16
How do we know that you are committed to these principles?
370
976329
2750
本気だと私たちに どうすればわかるのか?
単なるPRなのか それとも本当に 日々の活動の核になっているのか?
16:19
Is that just PR, or is that real, at the heart of your day-to-day?
371
979079
4417
16:23
JD: No, that is absolutely real.
372
983496
1541
(ディーン) 真剣にやっていますよ
16:25
Like, we have literally hundreds of people
373
985079
2125
これに関連した研究に 携わっている人が
16:27
working on many of these related research issues,
374
987204
2333
うちには何百人もいます
16:29
because many of those things are research topics
375
989537
2417
そういったものが研究分野として 確立しているんです
16:31
in their own right.
376
991996
1166
16:33
How do you take data from the real world,
377
993162
2250
あるべき世界でなく
16:35
that is the world as it is, not as we would like it to be,
378
995412
5000
あるがままの世界から データをどう取得するのか
16:40
and how do you then use that to train a machine-learning model
379
1000412
3209
それを使って機械学習モデルを どうトレーニングし
16:43
and adapt the data bit of the scene
380
1003621
2500
どうデータを調整ないしは 補足することで
16:46
or augment the data with additional data
381
1006162
2500
16:48
so that it can better reflect the values we want the system to have,
382
1008704
3292
見たままの世界の価値観でなく
持って欲しい価値観を 反映したものにできるのかと
16:51
not the values that it sees in the world?
383
1011996
2208
16:54
CA: But you work for Google,
384
1014204
2417
(アンダーソン) でもあなたは Googleで働いており
16:56
Google is funding the research.
385
1016662
2084
研究費はGoogleから出ていますよね
16:59
How do we know that the main values that this AI will build
386
1019371
4458
構築されるAIの価値観が 世界のためのものであり
17:03
are for the world,
387
1023871
1208
広告収益を最大化する ためのものではないと
17:05
and not, for example, to maximize the profitability of an ad model?
388
1025121
4916
どうすれば私たちに わかるでしょう?
17:10
When you know everything there is to know about human attention,
389
1030037
3084
人間の関心について あらゆることを知っていれば
拗けた暗い面についても 知ることになるでしょう
17:13
you're going to know so much
390
1033121
1500
17:14
about the little wriggly, weird, dark parts of us.
391
1034621
2458
あなたのグループでは
17:17
In your group, are there rules about how you hold off,
392
1037121
6167
政教分離のルールは あるのでしょうか?
17:23
church-state wall between a sort of commercial push,
393
1043329
3750
商業的な「この目的でやらねばならない」 という圧力を跳ね除けて
17:27
"You must do it for this purpose,"
394
1047079
2292
17:29
so that you can inspire your engineers and so forth,
395
1049413
2458
世界のため人々のためになるよう 技術者たちを鼓舞できるような?
17:31
to do this for the world, for all of us.
396
1051913
1916
17:33
JD: Yeah, our research group does collaborate
397
1053871
2125
(ディーン) 私たちの研究グループは
広告部門 検索部門 マップ部門をはじめ
17:36
with a number of groups across Google,
398
1056038
1833
17:37
including the Ads group, the Search group, the Maps group,
399
1057913
2750
Googleの様々な部門と共同しており
確かに内輪の協力関係はありますが
17:40
so we do have some collaboration, but also a lot of basic research
400
1060704
3209
一般に公開される基礎研究も たくさんしています
17:43
that we publish openly.
401
1063954
1542
去年は様々なトピックで 千本以上の論文を発表していて
17:45
We've published more than 1,000 papers last year
402
1065538
3333
17:48
in different topics, including the ones you discussed,
403
1068871
2583
機械学習モデルの公正さや 理解可能性のような
17:51
about fairness, interpretability of the machine-learning models,
404
1071454
3042
ここで議論してきたような ものもあります
17:54
things that are super important,
405
1074538
1791
とても重要な問題です
17:56
and we need to advance the state of the art in this
406
1076371
2417
モデルが安全で責任ある形で 開発されることを確かにしつつ
17:58
in order to continue to make progress
407
1078829
2209
進歩させていくために
18:01
to make sure these models are developed safely and responsibly.
408
1081079
3292
この分野を発展させる 必要があります
18:04
CA: It feels like we're at a time when people are concerned
409
1084788
3041
(アンダーソン) 技術系の大企業の力に
人々が懸念を抱いている時
18:07
about the power of the big tech companies,
410
1087829
2042
18:09
and it's almost, if there was ever a moment to really show the world
411
1089871
3750
開発がより良い未来のために なされており
18:13
that this is being done to make a better future,
412
1093663
3333
それが人々にとってだけでなく Googleの未来にとっても重要なのだと
18:17
that is actually key to Google's future,
413
1097038
2791
世界に示す時があるとしたら
18:19
as well as all of ours.
414
1099871
1750
それは今なのだと感じます
18:21
JD: Indeed.
415
1101663
1166
(ディーン) まったくです
18:22
CA: It's very good to hear you come and say that, Jeff.
416
1102871
2583
(アンダーソン) 今回来てそう言っていただけて 本当に良かったです
18:25
Thank you so much for coming here to TED.
417
1105454
2042
TEDに来ていただき ありがとうございました
18:27
JD: Thank you.
418
1107538
1166
(ディーン) こちらこそ
18:28
(Applause)
419
1108704
1167
(拍手)
このウェブサイトについて

このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。

https://forms.gle/WvT1wiN1qDtmnspy7