What Is an AI Anyway? | Mustafa Suleyman | TED

1,984,002 views ・ 2024-04-22

TED


下の英語字幕をダブルクリックすると動画を再生できます。

翻訳: Yasushi Aoki 校正: Takako Ramsden
00:04
I want to tell you what I see coming.
0
4292
2586
今後起こると私が考えていることを お話ししましょう
00:07
I've been lucky enough to be working on AI for almost 15 years now.
1
7712
4463
幸運にも私は 15年近くも AIに携わってきましたが
00:12
Back when I started, to describe it as fringe would be an understatement.
2
12676
5088
始めた当時は AIは主流でないどころか
00:17
Researchers would say, “No, no, we’re only working on machine learning.”
3
17806
4045
「私のはただの機械学習ですよ」 と研究者は言っていたくらいで
00:21
Because working on AI was seen as way too out there.
4
21893
3087
AIをやっていると言うと まともに相手にされませんでした
2010年当時は
00:25
In 2010, just the very mention of the phrase “AGI,”
5
25021
4380
汎用人工知能(AGI)という 言葉を口にするだけで
00:29
artificial general intelligence,
6
29401
2169
00:31
would get you some seriously strange looks
7
31570
2877
変な顔をされ
00:34
and even a cold shoulder.
8
34489
1585
冷たくあしらわれたものです
00:36
"You're actually building AGI?" people would say.
9
36366
3837
「AGIを作っているってマジ?」
00:40
"Isn't that something out of science fiction?"
10
40203
2294
「それってSFの中の 話じゃないの?」
00:42
People thought it was 50 years away or 100 years away,
11
42914
2544
仮に可能だったとしても
50年か100年先のことだと 思われていたのです
00:45
if it was even possible at all.
12
45500
1919
00:47
Talk of AI was, I guess, kind of embarrassing.
13
47752
3337
AIの話をするのは 恥ずかしいことで
00:51
People generally thought we were weird.
14
51631
2211
変なやつだと思われたものです
00:54
And I guess in some ways we kind of were.
15
54217
2503
ある意味当たっていましたが
00:56
It wasn't long, though, before AI started beating humans
16
56761
2878
しかしその後 ほどなく
機械には無理だと思われていた 様々なタスクで
00:59
at a whole range of tasks
17
59681
1793
01:01
that people previously thought were way out of reach.
18
61516
2795
AIが人間に勝るようになりました
01:05
Understanding images,
19
65020
2127
画像認識
01:07
translating languages,
20
67147
1918
翻訳
01:09
transcribing speech,
21
69065
1585
音声の文字起こし
01:10
playing Go and chess
22
70692
2127
碁やチェスの対局
01:12
and even diagnosing diseases.
23
72861
1918
病気の診断さえも
01:15
People started waking up to the fact
24
75905
1752
AIが起こす大きな変化に 気付き始めた人々が
01:17
that AI was going to have an enormous impact,
25
77657
3462
01:21
and they were rightly asking technologists like me
26
81119
2836
私のようなAI分野の人間に
01:23
some pretty tough questions.
27
83955
1752
難しい質問をするようになりました
01:25
Is it true that AI is going to solve the climate crisis?
28
85749
3044
AIは気候危機の問題を 解決するのか?
01:29
Will it make personalized education available to everyone?
29
89127
3337
すべての人への個別教育が 可能になるのか?
01:32
Does it mean we'll all get universal basic income
30
92881
2294
みんなベーシックインカムをもらえて
働かずにすむようになるのか?
01:35
and we won't have to work anymore?
31
95216
2002
01:37
Should I be afraid?
32
97218
1544
AIを恐れるべきなのか?
01:38
What does it mean for weapons and war?
33
98762
2335
兵器や戦争には どう影響するのか?
01:41
And of course, will China win?
34
101598
1460
中国が勝つのか?
01:43
Are we in a race?
35
103058
1543
米国は競えているのか?
01:45
Are we headed for a mass misinformation apocalypse?
36
105518
3212
大量ニセ情報地獄が やってくるのか?
01:49
All good questions.
37
109147
1668
どれも良い質問ですが
01:51
But it was actually a simpler
38
111608
1418
私を悩ませていたのは
01:53
and much more kind of fundamental question that left me puzzled.
39
113026
4046
もっと単純で 根本的な疑問でした
01:58
One that actually gets to the very heart of my work every day.
40
118031
3962
私の日々の仕事の 核心に関わることです
02:03
One morning over breakfast,
41
123620
2044
ある日 朝食のときに
02:05
my six-year-old nephew Caspian was playing with Pi,
42
125705
3379
6歳の甥のカスピアンが PiというAIで遊んでいました
02:09
the AI I created at my last company, Inflection.
43
129084
3378
私が前の職場の Inflection社で作ったものです
02:12
With a mouthful of scrambled eggs,
44
132504
1877
スクランブルエッグを 頬張りながら
02:14
he looked at me plain in the face and said,
45
134381
3503
私をまっすぐ見ると 甥は聞きました
02:17
"But Mustafa, what is an AI anyway?"
46
137926
3295
「おじさん AIって何?」
02:21
He's such a sincere and curious and optimistic little guy.
47
141930
3545
甥は純真で好奇心の強い 明るい子で
02:25
He'd been talking to Pi about how cool it would be if one day in the future,
48
145517
4254
よくPiを相手に話していました
将来 動物園に 恐竜を見に行ったり
02:29
he could visit dinosaurs at the zoo.
49
149771
2377
家で無限にチョコを作ったりできたら どんなに素敵かと
02:32
And how he could make infinite amounts of chocolate at home.
50
152190
3795
02:35
And why Pi couldn’t yet play I Spy.
51
155985
2920
なのになぜ Piには モノ当てゲームができないのかと
02:39
"Well," I said, "it's a clever piece of software
52
159823
2252
「Piは賢いソフトウェアで
02:42
that's read most of the text on the open internet,
53
162075
2461
ネット上の文章なら 大概読んでいるから
02:44
and it can talk to you about anything you want."
54
164577
2419
どんなことでも話せるんだよ」
02:48
"Right.
55
168540
1168
「だから人間みたいなものだよね?」
02:49
So like a person then?"
56
169749
2127
02:54
I was stumped.
57
174254
1334
私は答えに詰まり
02:56
Genuinely left scratching my head.
58
176798
2502
頭をかきました
03:00
All my boring stock answers came rushing through my mind.
59
180301
4046
つまらない定番の答えが 頭をよぎりました
03:04
"No, but AI is just another general-purpose technology,
60
184723
2585
「AIは印刷術や蒸気機関のような 単なる汎用技術だよ
03:07
like printing or steam."
61
187308
1710
03:09
It will be a tool that will augment us
62
189394
2502
人間の力を増強し
03:11
and make us smarter and more productive.
63
191938
2377
より賢く生産的に してくれるツールで
03:14
And when it gets better over time,
64
194649
1960
進歩すればいつか
03:16
it'll be like an all-knowing oracle
65
196651
1919
何でも知っていて
03:18
that will help us solve grand scientific challenges."
66
198611
3087
科学的難問の解決さえ助けてくれる 存在になるだろう」
03:22
You know, all of these responses started to feel, I guess,
67
202115
3712
そういう答え方は どこか無難で
03:25
a little bit defensive.
68
205869
1418
逃げているように 感じられました
03:28
And actually better suited to a policy seminar
69
208246
2211
真剣な6歳児に 朝食の席で言うよりは
03:30
than breakfast with a no-nonsense six-year-old.
70
210457
2627
政策セミナーで 聞きそうなことだと
03:33
"Why am I hesitating?" I thought to myself.
71
213126
3086
「なんで自分は 尻込みしているんだろう?」
03:37
You know, let's be honest.
72
217839
1960
正直になりましょう
03:39
My nephew was asking me a simple question
73
219799
3253
私たちAI分野の人間が あまり直視しない単純な疑問を
03:43
that those of us in AI just don't confront often enough.
74
223052
3796
甥は聞いているのです
03:48
What is it that we are actually creating?
75
228099
2920
私たちが作っているものは いったい何なのか?
03:51
What does it mean to make something totally new,
76
231895
3753
過去の発明とは根本的に異なる まったく新しいものを
03:55
fundamentally different to any invention that we have known before?
77
235648
4255
生み出すというのは どういうことなのか?
04:00
It is clear that we are at an inflection point
78
240695
2795
人類の歴史における変曲点に 我々がいるのは明らかです
04:03
in the history of humanity.
79
243490
1793
04:06
On our current trajectory,
80
246493
1918
我々の進む道は 何かの出現へと 向かっていますが
04:08
we're headed towards the emergence of something
81
248411
2211
04:10
that we are all struggling to describe,
82
250663
3170
それをうまく言い表すのが難しく
04:13
and yet we cannot control what we don't understand.
83
253875
4630
理解できないものは コントロールもできません
04:19
And so the metaphors,
84
259631
1585
負の側面を抑えながら AIを最大限に活かすには
04:21
the mental models,
85
261216
1251
04:22
the names, these all matter
86
262509
2585
04:25
if we’re to get the most out of AI whilst limiting its potential downsides.
87
265094
4088
メタファーや メンタルモデルや 名前 といったものが重要になります
04:30
As someone who embraces the possibilities of this technology,
88
270391
3421
この技術の可能性を信じつつ
04:33
but who's also always cared deeply about its ethics,
89
273812
3670
倫理の問題についても 常に注意を払っている人間として
04:37
we should, I think,
90
277524
1293
我々の作っているものが何なのか
04:38
be able to easily describe what it is we are building.
91
278817
3044
6歳児でもわかるように 簡単に説明できるべきだと考えています
04:41
And that includes the six-year-olds.
92
281861
2002
04:44
So it's in that spirit that I offer up today the following metaphor
93
284239
4254
そういう観点で 今がどういう時なのか把握できるよう
04:48
for helping us to try to grapple with what this moment really is.
94
288535
3461
今日はひとつメタファーを 提示しようと思います
04:52
I think AI should best be understood
95
292539
2627
AIは新種の電子生物のようなものと 考えるのが
04:55
as something like a new digital species.
96
295166
4254
一番わかりやすいと思います
05:00
Now, don't take this too literally,
97
300296
2253
あまり文字通りに 取ってほしくありませんが
05:02
but I predict that we'll come to see them as digital companions,
98
302590
4630
人生全般にわたる相棒となる デジタルコンパニオンとして
05:07
new partners in the journeys of all our lives.
99
307220
3295
人々はAIを見るようになると 私は予想しています
05:10
Whether you think we’re on a 10-, 20- or 30-year path here,
100
310557
4087
10年20年 あるいは 30年後かわかりませんが
05:14
this is, in my view, the most accurate and most fundamentally honest way
101
314686
5005
今後 起きることを 正確で 率直に言うとしたら
05:19
of describing what's actually coming.
102
319732
2378
そうなるというのが 私の見方です
05:22
And above all, it enables everybody to prepare for
103
322610
3963
何よりも このように考えておけば 将来をイメージしやすく
05:26
and shape what comes next.
104
326614
2711
みんな心構えが できるでしょう
05:29
Now I totally get, this is a strong claim,
105
329868
2002
ただし これは強い主張なので
05:31
and I'm going to explain to everyone as best I can why I'm making it.
106
331911
3837
なぜそう考えるのかを できるだけ明確に説明します
05:36
But first, let me just try to set the context.
107
336291
2961
最初に文脈を明らかにしましょう
05:39
From the very first microscopic organisms,
108
339252
2753
数十億年前に地球で
05:42
life on Earth stretches back billions of years.
109
342046
3462
最初の微生物が現れて以来
05:45
Over that time, life evolved and diversified.
110
345508
4213
生物は進化し 多様化してきました
05:49
Then a few million years ago, something began to shift.
111
349762
3796
そして数百万年前に 何かが変わり始めました
05:54
After countless cycles of growth and adaptation,
112
354183
3629
数しれぬ成長と適応を 繰り返した後
05:57
one of life’s branches began using tools, and that branch grew into us.
113
357812
6256
ある系統の生物が 道具を使うようになり
それが人類へと繋がりました
06:04
We went on to produce a mesmerizing variety of tools,
114
364777
4130
人類は驚くほど多様な道具を 作り出していきました
06:08
at first slowly and then with astonishing speed,
115
368907
3670
はじめはゆっくりと やがてものすごいスピードで
06:12
we went from stone axes and fire
116
372577
3670
石斧や火から言語や文字
06:16
to language, writing and eventually industrial technologies.
117
376247
5005
果ては産業技術まで
06:21
One invention unleashed a thousand more.
118
381878
2919
一つの発明が 千の新たな発明に繋がり
06:25
And in time, we became homo technologicus.
119
385173
3712
やがて人類は 「ホモ・テクノロジカス」となりました
06:29
Around 80 years ago,
120
389594
1209
そして80年ほど前に
06:30
another new branch of technology began.
121
390803
2545
新たな系統のテクノロジーが 現れました
06:33
With the invention of computers,
122
393973
1710
コンピューターの発明により
06:35
we quickly jumped from the first mainframes and transistors
123
395725
3295
初期のメインフレームやトランジスターから 現在のスマートフォンやVRゴーグルまで
06:39
to today's smartphones and virtual-reality headsets.
124
399062
3461
技術が飛躍的に進みます
06:42
Information, knowledge, communication, computation.
125
402565
4421
情報 知識 コミュニケーション 計算
06:47
In this revolution,
126
407570
1418
この革命により
かつてない爆発的創造が起きました
06:49
creation has exploded like never before.
127
409030
3295
06:53
And now a new wave is upon us.
128
413242
2503
そして今新たな波が 押し寄せています
06:55
Artificial intelligence.
129
415787
1668
人工知能です
06:57
These waves of history are clearly speeding up,
130
417872
2544
歴史の波は明らかに 速くなっていて
07:00
as each one is amplified and accelerated by the last.
131
420458
4338
それぞれの波が 次の波を 増幅し加速させています
07:05
And if you look back,
132
425088
1167
振り返って見れば
07:06
it's clear that we are in the fastest
133
426297
2002
人類が かつてない速く大きな 波の中にいるのは明らかでしょう
07:08
and most consequential wave ever.
134
428299
2586
07:11
The journeys of humanity and technology are now deeply intertwined.
135
431844
4630
人類とテクノロジーの歩みは 今や深く絡み合っています
07:16
In just 18 months,
136
436516
1543
たった1年半で 10億を超える人々が
07:18
over a billion people have used large language models.
137
438059
3170
大規模言語モデルを 使うようになりました
07:21
We've witnessed one landmark event after another.
138
441729
3545
いくつもの歴史的出来事を 目の当たりにしています
07:25
Just a few years ago, people said that AI would never be creative.
139
445650
3462
ほんの数年前まで AIには 創造的なことは無理だと言われていました
07:30
And yet AI now feels like an endless river of creativity,
140
450113
4045
それが今や AIは 創造性の限りない川のように感じられ
07:34
making poetry and images and music and video that stretch the imagination.
141
454200
4671
想像力を押し広げるような 詩や画像や音楽や映像を作り出しています
07:39
People said it would never be empathetic.
142
459664
2252
AIが共感することはないと 言われていましたが
07:42
And yet today, millions of people enjoy meaningful conversations with AIs,
143
462417
5297
今では多くの人々が AIと意味のある会話を楽しみ
07:47
talking about their hopes and dreams
144
467755
2002
自分の希望や夢について話し
07:49
and helping them work through difficult emotional challenges.
145
469757
3087
感情的な問題を乗り越える 助けを得ています
07:53
AIs can now drive cars,
146
473177
2294
AIは今や自動車を運転し
07:55
manage energy grids
147
475513
1543
電力網を管理し
07:57
and even invent new molecules.
148
477056
2252
新たな分子の設計さえ しています
07:59
Just a few years ago, each of these was impossible.
149
479308
3713
ほんの数年前には どれも不可能なことでした
08:03
And all of this is turbocharged by spiraling exponentials of data
150
483771
5506
そしてそのすべてが
データと計算の爆発的増強により 加速しています
08:09
and computation.
151
489277
1626
08:10
Last year, Inflection 2.5, our last model,
152
490945
5297
昨年私たちが出した最新のAIモデル Inflection 2.5は
08:16
used five billion times more computation
153
496242
4129
ほんの10年前にAtariのレトロゲームを クリアしたDeepMind AI よりも
08:20
than the DeepMind AI that beat the old-school Atari games
154
500371
3629
50億倍以上の計算能力があります
08:24
just over 10 years ago.
155
504042
1668
08:26
That's nine orders of magnitude more computation.
156
506085
3420
能力が9桁も違うのです
08:30
10x per year,
157
510089
1627
年に10倍という進歩が 10年近く続いています
08:31
every year for almost a decade.
158
511716
3253
08:34
Over the same time, the size of these models has grown
159
514969
2544
同時期にモデルの規模も 大きくなりました
08:37
from first tens of millions of parameters to then billions of parameters,
160
517555
4213
数千万パラメータから 数十億パラメータとなり
08:41
and very soon, tens of trillions of parameters.
161
521809
3504
じきに数十兆パラメータになるでしょう
08:45
If someone did nothing but read 24 hours a day for their entire life,
162
525313
4755
人間が生涯をかけ 1日24時間ひたすら読書したなら
08:50
they'd consume eight billion words.
163
530109
3337
80億語読むことになります
08:53
And of course, that's a lot of words.
164
533488
1835
もちろんこれは ものすごい量ですが
08:55
But today, the most advanced AIs consume more than eight trillion words
165
535364
5756
現在の最先端のAIは
1ヶ月の学習で 8兆語を読み込みます
09:01
in a single month of training.
166
541120
2336
09:03
And all of this is set to continue.
167
543873
1960
そしてこの成長は続いていきます
09:05
The long arc of technological history is now in an extraordinary new phase.
168
545875
5797
長いテクノロジーの歴史は ものすごい新たな段階に来ているのです
09:12
So what does this mean in practice?
169
552256
2503
これが実際に意味することは 何でしょう?
09:15
Well, just as the internet gave us the browser
170
555426
2920
インターネットが ブラウザを生み
09:18
and the smartphone gave us apps,
171
558346
2502
スマートフォンが アプリを生んだように
09:20
the cloud-based supercomputer is ushering in a new era
172
560890
4004
クラウドベースの スーパーコンピューターは
どこにでもAIがある 新たな時代を開きます
09:24
of ubiquitous AIs.
173
564936
2502
09:27
Everything will soon be represented by a conversational interface.
174
567438
4588
あらゆることが会話型インタフェースで できるようになるでしょう
09:32
Or, to put it another way, a personal AI.
175
572026
3003
言い換えるなら 「パーソナルAI」です
09:35
And these AIs will be infinitely knowledgeable,
176
575780
2336
AIの知識量は際限がなく
09:38
and soon they'll be factually accurate and reliable.
177
578157
3879
やがて正確性や信頼性も 獲得するでしょう
09:42
They'll have near-perfect IQ.
178
582036
1794
AIは ほぼ完璧なIQを 持っていますが
09:44
They’ll also have exceptional EQ.
179
584914
2377
同時に類まれなEQも 備えるでしょう
09:47
They’ll be kind, supportive, empathetic.
180
587291
4129
優しく 頼もしく 寄り添ってくれるAIです
09:53
These elements on their own would be transformational.
181
593089
2836
このようなAIの進化は 社会に変化をもたらすでしょう
09:55
Just imagine if everybody had a personalized tutor in their pocket
182
595925
3795
誰もがポケットに 個人教師を持ち
09:59
and access to low-cost medical advice.
183
599720
3003
健康上のアドバイスだって 安く得られます
10:02
A lawyer and a doctor,
184
602723
1544
弁護士や 医者や 事業戦略家や 指南役が
10:04
a business strategist and coach --
185
604267
1960
10:06
all in your pocket 24 hours a day.
186
606269
2252
ポケットの中にいて 24時間対応してくれます
10:08
But things really start to change when they develop what I call AQ,
187
608980
4713
でも本当の変化が現れるのは
私がAQ(行為能力)と呼ぶものを AIが備えるようになった時です
10:13
their “actions quotient.”
188
613693
1668
10:15
This is their ability to actually get stuff done
189
615695
2794
電子的世界と物質的世界において
10:18
in the digital and physical world.
190
618531
2294
物事を成し遂げる能力です
10:20
And before long, it won't just be people that have AIs.
191
620867
3420
また AIを持つのは 人間だけではなくなるでしょう
10:24
Strange as it may sound, every organization,
192
624328
2962
奇妙に聞こえるかもしれませんが
中小企業からNPOや政府に至るまで あらゆる組織が
10:27
from small business to nonprofit to national government,
193
627290
3253
10:30
each will have their own.
194
630585
1710
独自のAIを 持つようになるでしょう
10:32
Every town, building and object
195
632795
2711
あらゆる町や建物や物が
10:35
will be represented by a unique interactive persona.
196
635506
3754
固有の対話型キャラクターを 備えるようになります
10:39
And these won't just be mechanistic assistants.
197
639302
2544
それは単なる機械的な アシスタントではなく
10:42
They'll be companions, confidants,
198
642221
3754
伴侶 親友 同僚 仲間 パートナーとなる
10:46
colleagues, friends and partners,
199
646017
2669
10:48
as varied and unique as we all are.
200
648728
2627
多様で個性的な 人間のような存在です
10:52
At this point, AIs will convincingly imitate humans at most tasks.
201
652273
4630
AIは多くのタスクにおいて 人間そっくりにふるまい
10:57
And we'll feel this at the most intimate of scales.
202
657737
2794
とても親密な相手と 感じられるでしょう
11:00
An AI organizing a community get-together for an elderly neighbor.
203
660990
3587
AIが近所のお年寄りのための 集まりを催し
11:04
A sympathetic expert helping you make sense of a difficult diagnosis.
204
664619
4588
親身な専門家として難しい病気の 理解を助けてくれます
11:09
But we'll also feel it at the largest scales.
205
669248
2753
大きなスケールでも 存在感を増すでしょう
11:12
Accelerating scientific discovery,
206
672043
2586
科学的発見を加速させ
11:14
autonomous cars on the roads,
207
674629
2168
自動運転車やドローンが 当たり前になり
11:16
drones in the skies.
208
676797
1627
11:18
They'll both order the takeout and run the power station.
209
678966
3337
テイクアウトの注文受けから 発電所の運転までこなします
11:22
They’ll interact with us and, of course, with each other.
210
682970
3337
人間とも他のAIとも やり取りするようになり
11:26
They'll speak every language,
211
686349
1918
あらゆる言語を話し
11:28
take in every pattern of sensor data,
212
688267
2836
あらゆるセンサーデータや
11:31
sights, sounds,
213
691145
2336
情景 音声など
11:33
streams and streams of information,
214
693481
2377
膨大な情報を読み取ります
11:35
far surpassing what any one of us could consume in a thousand lifetimes.
215
695900
4379
1,000回の人生をかけても 人間には処理しきれない量です
11:40
So what is this?
216
700780
1293
これは何なのか?
11:42
What are these AIs?
217
702990
2086
AIとは何者なのか?
11:46
If we are to prioritize safety above all else,
218
706410
4588
安全性を何よりも優先しながら
この新たな波が 常に人類を支え 人間の能力を拡大するようにしたい
11:51
to ensure that this new wave always serves and amplifies humanity,
219
711040
5088
11:56
then we need to find the right metaphors for what this might become.
220
716128
4922
そのためには 未来のAIを表す 適切なメタファーが必要です
12:01
For years, we in the AI community, and I specifically,
221
721842
4296
長年 私を含め AI分野の人間は
12:06
have had a tendency to refer to this as just tools.
222
726180
3587
AIを単なるツールだと 言ってきましたが
12:11
But that doesn't really capture what's actually happening here.
223
731060
3003
それでは今の状況を 捉えることはできません
12:14
AIs are clearly more dynamic,
224
734730
2503
AIは もっとダイナミックで
12:17
more ambiguous, more integrated
225
737233
2753
曖昧かつ 統合されたもので
12:19
and more emergent than mere tools,
226
739986
2627
意外性があり
完全に人間の制御下にある 単なるツールとは違っています
12:22
which are entirely subject to human control.
227
742613
2878
12:25
So to contain this wave,
228
745533
2544
この波を囲い込み
12:28
to put human agency at its center
229
748119
3044
主体としての人間を 中心に置きながら
12:31
and to mitigate the inevitable unintended consequences
230
751163
2711
避けられない不測の事態を 緩和するためには
12:33
that are likely to arise,
231
753916
1835
12:35
we should start to think about them as we might a new kind of digital species.
232
755793
5005
AIを新種の電子生物として 考える必要があるでしょう
12:41
Now it's just an analogy,
233
761132
1793
これはただのアナロジーで 文字通りの意味ではなく
12:42
it's not a literal description, and it's not perfect.
234
762925
2586
完璧なものでもありません
12:46
For a start, they clearly aren't biological in any traditional sense,
235
766053
4046
通常の意味での 生物ではありませんが
12:50
but just pause for a moment
236
770141
2377
少し立ち止まって
12:52
and really think about what they already do.
237
772560
2836
その「生き物」がすでにしていることを 考えてみましょう
12:55
They communicate in our languages.
238
775438
2627
人間の言葉で コミュニケーションします
12:58
They see what we see.
239
778107
2127
我々と同じものを見ています
13:00
They consume unimaginably large amounts of information.
240
780234
3587
想像し難いほど大量の情報を 吸収します
13:04
They have memory.
241
784739
1376
記憶があり
13:06
They have personality.
242
786991
1752
個性があり
13:09
They have creativity.
243
789493
1710
創造性があります
13:12
They can even reason to some extent and formulate rudimentary plans.
244
792038
3962
ある程度の理性があり 大まかなプランを作る能力もあります
13:16
They can act autonomously if we allow them.
245
796709
3128
自律的に行動させることも可能です
13:20
And they do all this at levels of sophistication
246
800546
2294
我々の知る 単なるツールとは 比較にならない
13:22
that is far beyond anything that we've ever known from a mere tool.
247
802882
3587
はるかに高いレベルの 賢さを備えています
13:27
And so saying AI is mainly about the math or the code
248
807762
4296
AIが 数学やコードで できたものだと言うのは
13:32
is like saying we humans are mainly about carbon and water.
249
812099
4838
人間を 炭素と水でできたものだと 言うようなものです
13:37
It's true, but it completely misses the point.
250
817897
3795
間違ってはいませんが 要点を外しています
13:42
And yes, I get it, this is a super arresting thought
251
822860
3629
これはとても興味深い考え方 というだけでなく
13:46
but I honestly think this frame helps sharpen our focus on the critical issues.
252
826489
5171
重要な問題の焦点を はっきりさせてくれると思います
13:52
What are the risks?
253
832745
1585
リスクは何なのか?
13:55
What are the boundaries that we need to impose?
254
835790
2752
どんな境界を 設ける必要があるのか?
13:59
What kind of AI do we want to build or allow to be built?
255
839293
4338
どんなAIを作りたいのか あるいは 作ることを許すのか?
14:04
This is a story that's still unfolding.
256
844465
2377
これは今も展開中の話です
14:06
Nothing should be accepted as a given.
257
846884
2544
何事もそのまま 受け入れるのではなく
14:09
We all must choose what we create.
258
849428
2544
何を作るのか 皆で選ぶ必要があります
14:12
What AIs we bring into the world, or not.
259
852681
3921
どんなAIを世に出すのか あるいは出さないのか
14:18
These are the questions for all of us here today,
260
858604
2836
これは今日ここにいる人 すべてにとって
14:21
and all of us alive at this moment.
261
861440
2586
今生きている人 すべてにとっての問題です
14:24
For me, the benefits of this technology are stunningly obvious,
262
864693
4296
私にとって この技術の利点は 極めて明白で
14:28
and they inspire my life's work every single day.
263
868989
3546
日々私のライフワークへの 刺激になっていますが
14:33
But quite frankly, they'll speak for themselves.
264
873661
3086
率直に言ってそれは 自ずと明らかになるでしょう
14:37
Over the years, I've never shied away from highlighting risks
265
877706
2920
一方で私は ずっと リスクにも光を当て
14:40
and talking about downsides.
266
880668
1710
負の面について 語ってきました
14:43
Thinking in this way helps us focus on the huge challenges
267
883087
3211
リスクも含めた考え方によって
我々みんなの前にある巨大な問題に 集中できるようになります
14:46
that lie ahead for all of us.
268
886298
1836
14:48
But let's be clear.
269
888843
1418
ただはっきり言っておきたいのは
14:50
There is no path to progress
270
890719
2128
テクノロジーを捨てて 進歩の道はないということ
14:52
where we leave technology behind.
271
892888
2169
14:55
The prize for all of civilization is immense.
272
895683
3795
文明社会全体に対し その恩恵は膨大です
15:00
We need solutions in health care and education, to our climate crisis.
273
900062
3879
医療や教育や気候危機のための 解決策が必要です
15:03
And if AI delivers just a fraction of its potential,
274
903941
3921
AIの持つ可能性の一部でも 実現されたなら
15:07
the next decade is going to be the most productive in human history.
275
907903
4421
この先10年は人類史上 最も生産的な時代となるでしょう
15:13
Here's another way to think about it.
276
913701
2002
別の考え方をしてみましょう
15:15
In the past,
277
915744
1293
過去において経済的成長を もたらしたものには
15:17
unlocking economic growth often came with huge downsides.
278
917037
4088
大きな負の側面がありました
15:21
The economy expanded as people discovered new continents
279
921500
3712
新大陸が発見され 新たな開拓地が得られたことで
15:25
and opened up new frontiers.
280
925254
2002
経済が発展しましたが
15:28
But they colonized populations at the same time.
281
928632
3045
同時に植民地化が進みました
15:32
We built factories,
282
932595
1710
工場が作られましたが
15:34
but they were grim and dangerous places to work.
283
934305
3044
働くには陰気で 危険な場所でした
15:38
We struck oil,
284
938017
1918
石油が掘り当てられましたが
15:39
but we polluted the planet.
285
939977
1627
地球が汚染されることになりました
15:42
Now because we are still designing and building AI,
286
942146
3170
我々はAIを設計し 構築する途上にあり
15:45
we have the potential and opportunity to do it better,
287
945316
3795
ずっと良いものにしていける 機会や可能性があります
15:49
radically better.
288
949153
1335
15:51
And today, we're not discovering a new continent
289
951071
2628
私たちは新大陸を発見して 資源を荒らしているわけではなく
15:53
and plundering its resources.
290
953741
1918
15:56
We're building one from scratch.
291
956285
1919
一から作っているのです
15:58
Sometimes people say that data or chips are the 21st century’s new oil,
292
958662
5297
データやマイクロチップは 21世紀の石油だと言う人がいますが
16:03
but that's totally the wrong image.
293
963959
2002
間違ったイメージだと思います
16:06
AI is to the mind
294
966587
1919
精神にとってのAIは
16:08
what nuclear fusion is to energy.
295
968547
2753
エネルギーにとっての 核融合みたいなものです
16:12
Limitless, abundant,
296
972259
2670
豊かで 限りがなく
16:14
world-changing.
297
974970
1544
世界を変えるものです
16:17
And AI really is different,
298
977389
2962
AIとは全く新しいもので
16:20
and that means we have to think about it creatively and honestly.
299
980392
4213
だからこそ 創造的かつ率直に 考える必要があります
16:24
We have to push our analogies and our metaphors
300
984647
2586
今後起こることに対応できるよう
16:27
to the very limits
301
987274
1752
アナロジーやメタファーを 極限まで押し進める必要があります
16:29
to be able to grapple with what's coming.
302
989068
2252
16:31
Because this is not just another invention.
303
991362
2878
AIは単なる一個の 発明品ではなく
16:34
AI is itself an infinite inventor.
304
994907
3503
それ自体が際限のない 発明者なのです
16:38
And yes, this is exciting and promising and concerning
305
998869
3295
同時にエキサイティングで 有望で 心配の種で 興味の尽きないものです
16:42
and intriguing all at once.
306
1002164
2044
16:45
To be quite honest, it's pretty surreal.
307
1005251
2585
率直に言って 不思議にさえ感じます
16:47
But step back,
308
1007836
1293
一歩下がって
16:49
see it on the long view of glacial time,
309
1009171
3462
氷河時代のような 長い時間軸で捉えれば
16:52
and these really are the very most appropriate metaphors that we have today.
310
1012633
4796
私たちにとって最も適切な メタファーが得られるでしょう
16:57
Since the beginning of life on Earth,
311
1017471
3003
地球が始まった時から
17:00
we've been evolving, changing
312
1020516
2961
私たちは進化し 変化し
17:03
and then creating everything around us in our human world today.
313
1023477
4171
今日の人間世界の あらゆるものを 生み出してきました
17:08
And AI isn't something outside of this story.
314
1028232
3003
AIも例外ではありません
17:11
In fact, it's the very opposite.
315
1031569
2961
むしろ逆です
17:15
It's the whole of everything that we have created,
316
1035197
3170
AIは 私たちが生み出してきた すべてのものを
17:18
distilled down into something that we can all interact with
317
1038367
3545
やり取りができて役立つ形に まとめたものなのです
17:21
and benefit from.
318
1041912
1377
17:23
It's a reflection of humanity across time,
319
1043872
3504
人類の歴史の反映であり
17:27
and in this sense,
320
1047418
1251
その意味では 新種のものではありません
17:28
it isn't a new species at all.
321
1048711
1918
17:31
This is where the metaphors end.
322
1051213
1960
メタファーは ここまでです
17:33
Here's what I'll tell Caspian next time he asks.
323
1053591
2502
今度甥に聞かれたら こう答えるつもりです
17:37
AI isn't separate.
324
1057219
1460
AIは人間と離れた存在ではなく
17:39
AI isn't even in some senses, new.
325
1059388
3295
ある意味 新しいものでもない
17:43
AI is us.
326
1063517
1126
AIは私たちみんなだということ
17:45
It's all of us.
327
1065394
1210
17:47
And this is perhaps the most promising and vital thing of all
328
1067062
3754
これは最も有望で 重要なものであり
17:50
that even a six-year-old can get a sense for.
329
1070858
2669
6歳児でさえ それを感じ取れるくらいです
17:54
As we build out AI,
330
1074528
1376
AIを構築する上で
17:55
we can and must reflect all that is good,
331
1075946
3545
反映できるもの 反映すべきものは
良いもののすべて
17:59
all that we love,
332
1079533
1126
愛するものすべて
18:00
all that is special about humanity:
333
1080701
2753
人間に特有のものの すべてです
18:03
our empathy, our kindness,
334
1083495
2169
共感力に 優しさ 好奇心 創造性
18:05
our curiosity and our creativity.
335
1085664
2169
18:09
This, I would argue, is the greatest challenge of the 21st century,
336
1089251
5130
これは21世紀における 人類最大の挑戦ですが
18:14
but also the most wonderful,
337
1094381
2211
それはまた私たちみんなにとって
18:16
inspiring and hopeful opportunity for all of us.
338
1096592
3336
素晴らしく 刺激的で 希望にあふれる 機会でもあるのです
18:20
Thank you.
339
1100429
1168
ありがとうございました
18:21
(Applause)
340
1101639
4879
(拍手)
18:26
Chris Anderson: Thank you Mustafa.
341
1106560
1668
(クリス・アンダーソン) ありがとうございました
18:28
It's an amazing vision and a super powerful metaphor.
342
1108270
3796
見事なビジョンと とても力強いメタファーでした
18:32
You're in an amazing position right now.
343
1112066
1960
あなたは今すごい立場にあります
18:34
I mean, you were connected at the hip
344
1114026
1793
OpenAIが生み出す 素晴らしい成果に関わりつつ
18:35
to the amazing work happening at OpenAI.
345
1115819
2795
18:38
You’re going to have resources made available,
346
1118614
2169
膨大なリソースを動かせます
18:40
there are reports of these giant new data centers,
347
1120824
4046
新たな巨大データセンター建設や 1,000億ドル規模の投資の報道もあります
18:44
100 billion dollars invested and so forth.
348
1124870
2461
18:48
And a new species can emerge from it.
349
1128082
3837
新種の生物がまた そこから生まれるかもしれませんね
18:52
I mean, in your book,
350
1132294
1502
あなたの著書では
18:53
you did, as well as painting an incredible optimistic vision,
351
1133837
2878
すごく楽観的なビジョンを 描き出すと同時に
18:56
you were super eloquent on the dangers of AI.
352
1136757
3629
AIの危険性についても 語られています
19:00
And I'm just curious, from the view that you have now,
353
1140427
3963
ご自身の現在の考えでは
19:04
what is it that most keeps you up at night?
354
1144431
2336
夜眠れないくらいの 大きな懸念は何ですか?
19:06
Mustafa Suleyman: I think the great risk is that we get stuck
355
1146809
2878
(ムスタファ・スレイマン) 最大の危険は
悲観的忌避の罠にはまること だと思います
19:09
in what I call the pessimism aversion trap.
356
1149728
2086
19:11
You know, we have to have the courage to confront
357
1151855
2586
最大限の恩恵を享受するために
19:14
the potential of dark scenarios
358
1154483
1960
潜在的危険のある筋書きに立ち向かう 勇気を持つ必要があります
19:16
in order to get the most out of all the benefits that we see.
359
1156443
3128
19:19
So the good news is that if you look at the last two or three years,
360
1159613
3712
幸いなのは この2、3年を見ても
19:23
there have been very, very few downsides, right?
361
1163325
2961
マイナス面というのは ごくわずかだったということです
19:26
It’s very hard to say explicitly what harm an LLM has caused.
362
1166328
4922
大規模言語モデルにより生じた害について 明言するのは難しいでしょう
19:31
But that doesn’t mean that that’s what the trajectory is going to be
363
1171291
3212
ただ今後10年もそうなるとは 言い切れません
19:34
over the next 10 years.
364
1174503
1168
19:35
So I think if you pay attention to a few specific capabilities,
365
1175671
3462
そのため ある種の機能には 注意を払う必要があり
19:39
take for example, autonomy.
366
1179174
1835
ひとつは自律性です
19:41
Autonomy is very obviously a threshold
367
1181009
2336
自律性を持たせることで 社会へのリスクが増すので
19:43
over which we increase risk in our society.
368
1183387
2794
19:46
And it's something that we should step towards very, very closely.
369
1186223
3128
すごく注意して進める 必要があります
19:49
The other would be something like recursive self-improvement.
370
1189393
3420
もうひとつは再帰的自己改善です
19:52
If you allow the model to independently self-improve,
371
1192813
3629
AIモデルが 自分で自分のコードを更新し 自己改善したり
19:56
update its own code,
372
1196483
1460
19:57
explore an environment without oversight, and, you know,
373
1197985
3295
人間による監督なしで 周りの世界を探索して
20:01
without a human in control to change how it operates,
374
1201321
3295
人間による制御なしに 挙動を変えていくとしたら
20:04
that would obviously be more dangerous.
375
1204616
1919
当然危険性は高くなります
20:06
But I think that we're still some way away from that.
376
1206535
2544
ただ それまでには まだ時間があり
その問題に直面するのは 5〜10年は先になるでしょうが
20:09
I think it's still a good five to 10 years before we have to really confront that.
377
1209079
3879
20:12
But it's time to start talking about it now.
378
1212958
2085
議論し始めてよい時期だと 思います
(クリス) 電子生物は 生物学的な種とは異なり
20:15
CA: A digital species, unlike any biological species,
379
1215043
2545
20:17
can replicate not in nine months,
380
1217588
2002
9ヶ月ではなく 9ナノ秒で繁殖し
20:19
but in nine nanoseconds,
381
1219631
1669
20:21
and produce an indefinite number of copies of itself,
382
1221341
3421
自己の複製を無数に生成し
20:24
all of which have more power than we have in many ways.
383
1224803
3796
多くの面で人間よりも強力です
20:28
I mean, the possibility for unintended consequences seems pretty immense.
384
1228599
4838
予期せぬ結果が生じる可能性は すごく大きいと思えます
20:33
And isn't it true that if a problem happens,
385
1233479
2168
問題が起きる時には 1時間で起きうるという話は
20:35
it could happen in an hour?
386
1235689
1919
本当でしょうか?
20:37
MS: No.
387
1237649
1335
(ムスタファ) いいえ
20:38
That is really not true.
388
1238984
1752
そういうわけではありません
20:40
I think there's no evidence to suggest that.
389
1240778
2085
それを示すような証拠は ないと思います
20:42
And I think that, you know,
390
1242863
1585
「知能爆発」と呼ばれているもの だと思いますが
20:44
that’s often referred to as the “intelligence explosion.”
391
1244490
2836
20:47
And I think it is a theoretical, hypothetical maybe
392
1247367
3712
理論的・仮説的可能性として
20:51
that we're all kind of curious to explore,
393
1251079
2420
興味深くはあっても
20:53
but there's no evidence that we're anywhere near anything like that.
394
1253540
3212
そのようなことが近く起きうる証拠は 何もありません
20:56
And I think it's very important that we choose our words super carefully.
395
1256752
3462
言葉は慎重に 選ばねばなりません
21:00
Because you're right, that's one of the weaknesses of the species framing,
396
1260255
3546
種のメタファーの弱点の一つは おっしゃる通り
21:03
that we will design the capability for self-replication into it
397
1263801
4337
自己複製の能力を考えがち ということでしょう
21:08
if people choose to do that.
398
1268180
1668
21:09
And I would actually argue that we should not,
399
1269890
2169
それは危険性の高い 能力の一つで
21:12
that would be one of the dangerous capabilities
400
1272059
2210
AIを設計する際に 組み込むべきではないと思います
21:14
that we should step back from, right?
401
1274269
1835
21:16
So there's no chance that this will "emerge" accidentally.
402
1276104
3796
自己複製の能力は 偶然「発現」するわけではなく
21:19
I really think that's a very low probability.
403
1279942
2502
偶然生じる可能性は とても低いでしょう
21:22
It will happen if engineers deliberately design those capabilities in.
404
1282486
4338
そういう能力を 意図的に組み込むか
21:26
And if they don't take enough efforts to deliberately design them out.
405
1286865
3295
意図して除く努力を怠るとしたら 起きうるということで
21:30
And so this is the point of being explicit
406
1290160
2294
はじめから安全性を意図した 設計にすることを明確にし
21:32
and transparent about trying to introduce safety by design very early on.
407
1292454
5672
透明化することが大切です
21:39
CA: Thank you, your vision of humanity injecting into this new thing
408
1299044
5964
(クリス)人類が AIという この新しいものに
人間の最善の部分を取り入れ
21:45
the best parts of ourselves,
409
1305008
1877
21:46
avoiding all those weird, biological, freaky,
410
1306927
2920
時により人間が見せる 奇妙でおぞましい 生物的傾向を避けるというのは
21:49
horrible tendencies that we can have in certain circumstances,
411
1309888
2920
21:52
I mean, that is a very inspiring vision.
412
1312808
2127
素晴らしいビジョンだと思います
21:54
And thank you so much for coming here and sharing it at TED.
413
1314977
3336
TEDに来てお話しいただき ありがとうございました
21:58
Thank you, good luck.
414
1318355
1210
期待しています
21:59
(Applause)
415
1319565
1876
(拍手)
このウェブサイトについて

このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。

https://forms.gle/WvT1wiN1qDtmnspy7