How to Keep AI Under Control | Max Tegmark | TED

166,257 views ・ 2023-11-02

TED


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

Переводчик: Alena Chernykh Редактор: Olga Mansurova
00:03
Five years ago,
0
3833
2461
Пять лет назад
00:06
I stood on the TED stage
1
6294
1752
я выступал на сцене TED
00:08
and warned about the dangers of superintelligence.
2
8046
4379
и предупреждал об опасностях суперинтеллекта.
00:13
I was wrong.
3
13051
1710
Я ошибался.
00:16
It went even worse than I thought.
4
16513
1752
Всё случилось хуже, чем я думал.
00:18
(Laughter)
5
18306
1752
(Смех)
00:20
I never thought governments would let AI companies get this far
6
20058
4379
Я не думал, что правительства позволят разработчикам ИИ продвинуться так далеко
00:24
without any meaningful regulation.
7
24479
2294
без какого-либо значимого регулирования.
00:27
And the progress of AI went even faster than I predicted.
8
27732
4880
Искусственный интеллект развивался даже быстрее, чем я предсказывал.
00:32
Look, I showed this abstract landscape of tasks
9
32654
3587
Я показал этот абстрактный ландшафт задач,
00:36
where the elevation represented how hard it was for AI
10
36241
3128
где высота над уровнем моря показывает, насколько сложно ИИ
00:39
to do each task at human level.
11
39369
1919
выполнять каждую задачу как человеку.
00:41
And the sea level represented what AI could be back then.
12
41288
3753
Уровень моря представлял собой то, каким мог быть ИИ в то время.
00:45
And boy or boy, has the sea been rising fast ever since.
13
45875
2962
И неважно как, но с тех пор уровень моря быстро поднялся.
00:48
But a lot of these tasks have already gone blub blub blub blub blub blub.
14
48878
3587
Многие из этих задач уже решены, буль, буль, буль, буль...
00:52
And the water is on track to submerge all land,
15
52882
3921
И вода может затопить всю сушу,
00:56
matching human intelligence at all cognitive tasks.
16
56803
3420
не уступая человеческому интеллекту во всех когнитивных задачах.
01:00
This is a definition of artificial general intelligence, AGI,
17
60849
5756
Это определение общего искусственного интеллекта, ОИИ,
01:06
which is the stated goal of companies like OpenAI,
18
66605
3837
которое и является заявленной целью таких компаний, как OpenAI,
01:10
Google DeepMind and Anthropic.
19
70442
2002
Google DeepMind и Anthropic.
01:12
And these companies are also trying to build superintelligence,
20
72819
3587
Эти компании также пытаются создать суперинтеллект,
01:16
leaving human intelligence far behind.
21
76448
2919
который оставит человеческий интеллект далеко позади.
01:19
And many think it'll only be a few years, maybe, from AGI to superintelligence.
22
79826
4379
И многие считают, что немного лет пройдёт от ОИИ до суперинтеллекта.
01:24
So when are we going to get AGI?
23
84539
2795
Так когда же мы получим ОИИ?
01:27
Well, until recently, most AI researchers thought it was at least decades away.
24
87375
5464
Не так давно многие исследователи ИИ считали, что до этого ещё десятилетия.
01:33
And now Microsoft is saying, "Oh, it's almost here."
25
93214
3504
А теперь Microsoft говорит: «Он уже почти здесь».
01:36
We're seeing sparks of AGI in ChatGPT-4,
26
96760
3753
В ChatGPT-4 мы видим зачатки ОИИ,
01:40
and the Metaculus betting site is showing the time left to AGI
27
100555
3796
а сайт ставок Metaculus показывает, что оставшееся до появления ОИИ время
01:44
plummeting from 20 years away to three years away
28
104351
4129
резко сократилось с двадцати до трёх лет
01:48
in the last 18 months.
29
108521
1544
за последние 18 месяцев.
01:50
And leading industry people are now predicting
30
110106
4922
Лидеры отрасли теперь предсказывают, что нам осталось,
01:55
that we have maybe two or three years left until we get outsmarted.
31
115028
5047
может быть, два или три года, прежде чем нас перехитрят.
02:00
So you better stop talking about AGI as a long-term risk,
32
120116
4421
Так что, перестаньте говорить об ОИИ как о долгосрочном риске,
02:04
or someone might call you a dinosaur stuck in the past.
33
124579
3170
иначе кто-то может назвать вас динозавром, застрявшим в прошлом.
02:08
It's really remarkable how AI has progressed recently.
34
128416
3837
Удивительно, как продвинулся ИИ за последние годы.
02:12
Not long ago, robots moved like this.
35
132921
2419
Не так давно роботы двигались подобным образом.
02:15
(Music)
36
135382
2085
(Музыка)
02:18
Now they can dance.
37
138551
1418
Теперь они умеют танцевать.
02:20
(Music)
38
140804
2711
(Музыка)
02:29
Just last year, Midjourney produced this image.
39
149979
3295
Буквально в прошлом году студия Midjourney создала этот образ.
02:34
This year, the exact same prompt produces this.
40
154401
3253
В этом году они получили уже вот такой результат.
02:39
Deepfakes are getting really convincing.
41
159656
2544
Дипфейки становятся очень убедительными.
02:43
(Video) Deepfake Tom Cruise: I’m going to show you some magic.
42
163201
2920
(Видео) Дипфейк Тома Круза: «Я покажу вам волшебство.
02:46
It's the real thing.
43
166913
1335
Это настоящая вещь.
02:48
(Laughs)
44
168289
2086
(Смеётся)
02:50
I mean ...
45
170375
1293
Я имею в виду...
02:53
It's all ...
46
173920
1835
Это всё...
02:55
the real ...
47
175797
1710
настоящие...
02:57
thing.
48
177549
1168
вещи».
02:58
Max Tegmark: Or is it?
49
178717
1251
Макс Тегмарк: «Или так?»
03:02
And Yoshua Bengio now argues
50
182387
2669
А теперь Йошуа Бенджио утверждает,
03:05
that large language models have mastered language
51
185056
3837
что большие языковые модели освоили язык
03:08
and knowledge to the point that they pass the Turing test.
52
188893
2795
и знания до такой степени, что они сдают тест Тьюринга.
03:12
I know some skeptics are saying,
53
192355
1585
Некоторые скептики говорят:
03:13
"Nah, they're just overhyped stochastic parrots
54
193940
2711
«Нет, это просто преувеличенные попугаи,
03:16
that lack a model of the world,"
55
196693
1877
у которых нет модели мира».
03:18
but they clearly have a representation of the world.
56
198611
2878
Но у них явно есть представление о мире.
03:21
In fact, we recently found that Llama-2 even has a literal map of the world in it.
57
201531
5839
Недавно мы обнаружили, что в Llama-2 есть даже буквальная карта мира.
03:28
And AI also builds
58
208121
3045
Кроме того, ИИ создаёт
03:31
geometric representations of more abstract concepts
59
211207
3796
геометрические представления более абстрактных понятий,
03:35
like what it thinks is true and false.
60
215003
3754
которые он считает истинными и ложными.
03:40
So what's going to happen if we get AGI and superintelligence?
61
220467
5046
Так что же произойдёт, когда появится ОИИ и суперинтеллект?
03:46
If you only remember one thing from my talk, let it be this.
62
226514
3879
Если вы запомните лишь одну мысль из моего выступления, пусть она будет такой.
03:51
AI godfather, Alan Turing predicted
63
231311
3462
Алан Тьюринг, крёстный отец ИИ,
03:54
that the default outcome is the machines take control.
64
234814
4797
предсказал, что по умолчанию машины возьмут управление в свои руки.
04:00
The machines take control.
65
240528
2211
Машины берут управление в свои руки.
04:04
I know this sounds like science fiction,
66
244240
2336
Понимаю, звучит как научная фантастика,
04:06
but, you know, having AI as smart as GPT-4
67
246618
3503
но недавно использование ИИ, такого же умного как GPT-4,
04:10
also sounded like science fiction not long ago.
68
250163
2919
тоже казалось научной фантастикой.
04:13
And if you think of AI,
69
253124
2378
И если вы думаете об ИИ,
04:15
if you think of superintelligence in particular, as just another technology,
70
255502
6047
особенно о суперинтеллекте, как о ещё одной технологии,
04:21
like electricity,
71
261591
2419
такой как электричество, то, вероятно,
04:24
you're probably not very worried.
72
264052
2002
вас это не очень-то беспокоит.
04:26
But you see,
73
266095
1168
Но дело в том,
04:27
Turing thinks of superintelligence more like a new species.
74
267263
3837
что Тьюринг воспринимает суперинтеллект скорее как новый вид.
04:31
Think of it,
75
271142
1168
Вы только представьте:
04:32
we are building creepy, super capable,
76
272310
3879
мы создаём жутких, супер способных
04:36
amoral psychopaths
77
276231
1585
и аморальных психопатов,
04:37
that don't sleep and think much faster than us,
78
277857
2711
которые не спят и мыслят гораздо быстрее нас,
04:40
can make copies of themselves
79
280610
1418
могут копировать самих себя
04:42
and have nothing human about them at all.
80
282070
2002
и не имеют в себе ничего человеческого.
04:44
So what could possibly go wrong?
81
284072
1835
Что же может пойти не так?
04:45
(Laughter)
82
285949
1543
(Смех)
04:47
And it's not just Turing.
83
287951
1585
И дело не только в Тьюринге.
04:49
OpenAI CEO Sam Altman, who gave us ChatGPT,
84
289536
2919
Генеральный директор OpenAI Сэм Альтман, давший нам ChatGPT,
04:52
recently warned that it could be "lights out for all of us."
85
292497
3837
недавно предупредил, что нам всем может быть «выключен свет».
04:57
Anthropic CEO, Dario Amodei, even put a number on this risk:
86
297126
3754
Генеральный директор Anthropic Дарио Амодей даже обозначил
05:02
10-25 percent.
87
302090
2210
этот риск в 10-25 процентов.
05:04
And it's not just them.
88
304300
1335
И дело не только в них.
05:05
Human extinction from AI went mainstream in May
89
305677
3086
Вымирание людей от ИИ стало основной темой в мае,
05:08
when all the AGI CEOs and who's who of AI researchers
90
308763
4922
когда все генеральные директора создателей ОИИ и исследователи ИИ
05:13
came on and warned about it.
91
313685
1376
выступили с предупреждением.
05:15
And last month, even the number one of the European Union
92
315061
2920
А в прошлом месяце даже первые лица Европейского Союза
05:18
warned about human extinction by AI.
93
318022
3295
предупреждали о том, что ИИ уничтожит человечество.
05:21
So let me summarize everything I've said so far
94
321359
2211
Хочу обобщить всё вышесказанное
05:23
in just one slide of cat memes.
95
323611
2544
на одном слайде с кошачьими мемами.
05:27
Three years ago,
96
327282
1793
Три года назад
05:29
people were saying it's inevitable, superintelligence,
97
329117
4129
люди говорили: «Суперинтеллект неизбежен,
05:33
it'll be fine,
98
333288
1501
всё будет хорошо,
05:34
it's decades away.
99
334789
1210
впереди ещё десятилетия».
05:35
Last year it was more like,
100
335999
1835
В прошлом году это звучало по-другому:
05:37
It's inevitable, it'll be fine.
101
337876
2043
«Это неизбежно, всё будет хорошо».
05:40
Now it's more like,
102
340295
2460
А сейчас они просто говорят:
05:42
It's inevitable.
103
342797
1251
«Это неизбежно».
05:44
(Laughter)
104
344090
1126
(Смех)
05:47
But let's take a deep breath and try to raise our spirits
105
347260
3962
Но давайте сделаем глубокий вдох и постараемся поднять себе настроение
05:51
and cheer ourselves up,
106
351264
1168
и обнадёжить себя,
05:52
because the rest of my talk is going to be about the good news,
107
352473
3045
потому что далее я поделюсь с вами хорошими новостями,
05:55
that it's not inevitable, and we can absolutely do better,
108
355560
2919
что это не неизбежно, и мы можем добиться большего,
05:58
alright?
109
358521
1168
понятно?
06:00
(Applause)
110
360315
2002
(Аплодисменты)
06:02
So ...
111
362317
1209
Итак...
06:04
The real problem is that we lack a convincing plan for AI safety.
112
364903
5296
Настоящая проблема в том, что у нас нет убедительного плана в безопасности ИИ.
06:10
People are working hard on evals
113
370700
3337
Люди усердно работают
06:14
looking for risky AI behavior, and that's good,
114
374037
4087
над оценкой рискованного поведения ИИ, и это хорошо,
06:18
but clearly not good enough.
115
378124
2044
но явно недостаточно.
06:20
They're basically training AI to not say bad things
116
380209
4797
По сути, они учат искусственный интеллект не говорить плохих вещей,
06:25
rather than not do bad things.
117
385006
2502
вернее чем не делать их.
06:28
Moreover, evals and debugging are really just necessary,
118
388176
4212
Более того, оценка и отладка на самом деле просто необходимы,
06:32
not sufficient, conditions for safety.
119
392430
2002
но их мало для обеспечения безопасности.
06:34
In other words,
120
394474
1751
Другими словами,
06:36
they can prove the presence of risk,
121
396225
3671
они могут доказать наличие риска,
06:39
not the absence of risk.
122
399938
2168
но не его отсутствие.
06:42
So let's up our game, alright?
123
402148
2544
Итак, давайте улучшим нашу игру, хорошо?
06:44
Try to see how we can make provably safe AI that we can control.
124
404692
5631
Попытайтесь понять, как сделать ИИ безопасным и которым мы можем управлять.
06:50
Guardrails try to physically limit harm.
125
410323
5047
Ограждения направлены на физическое ограничение вреда.
06:55
But if your adversary is superintelligence
126
415828
2211
Но если ваш противник — суперинтеллект
06:58
or a human using superintelligence against you, right,
127
418081
2544
или человек, использующий суперинтеллект против вас,
07:00
trying is just not enough.
128
420625
1960
то одних усилий недостаточно.
07:02
You need to succeed.
129
422585
1877
Вам нужно добиться успеха.
07:04
Harm needs to be impossible.
130
424504
2169
Нанесение вреда должно быть невозможным.
07:06
So we need provably safe systems.
131
426714
2544
Поэтому нам нужны доказуемо безопасные системы.
07:09
Provable, not in the weak sense of convincing some judge,
132
429258
3838
Доказуемо, но не в слабом смысле, чтобы убедить какого-нибудь судью,
07:13
but in the strong sense of there being something that's impossible
133
433137
3128
а в сильном прямом смысле того, что не существует нечто такое,
07:16
according to the laws of physics.
134
436265
1585
что невозможно по законам физики.
07:17
Because no matter how smart an AI is,
135
437892
2002
Потому что, каким бы умным ни был ИИ,
07:19
it can't violate the laws of physics and do what's provably impossible.
136
439936
4046
он не может нарушать законы физики и делать доказуемо невозможное.
07:24
Steve Omohundro and I wrote a paper about this,
137
444440
2836
Мы со Стивом Омохундро написали об этом статью
07:27
and we're optimistic that this vision can really work.
138
447318
5005
и надеемся, что такая концепция действительно сработает.
07:32
So let me tell you a little bit about how.
139
452323
2169
Хочу рассказать о том, как это сделать.
07:34
There's a venerable field called formal verification,
140
454993
4421
Существует древняя наука, называемая формальной верификацией,
07:39
which proves stuff about code.
141
459455
2127
которая доказывает многое о коде.
07:41
And I'm optimistic that AI will revolutionize automatic proving business
142
461624
6548
И я с оптимизмом смотрю на то, что ИИ революционизирует автоматическое
07:48
and also revolutionize program synthesis,
143
468214
3337
тестирование бизнеса и синтез программ,
07:51
the ability to automatically write really good code.
144
471592
3254
способность автоматически писать действительно хороший код.
07:54
So here is how our vision works.
145
474887
1585
Вот как работает наша концепция.
07:56
You, the human, write a specification
146
476472
4213
Вы, человек, пишете спецификацию,
08:00
that your AI tool must obey,
147
480685
2711
которой должен соответствовать ваш инструмент ИИ,
08:03
that it's impossible to log in to your laptop
148
483438
2127
что невозможно войти в ноутбук
08:05
without the correct password,
149
485565
1793
без правильного пароля
08:07
or that a DNA printer cannot synthesize dangerous viruses.
150
487400
5714
или что принтер ДНК не может синтезировать опасные вирусы.
08:13
Then a very powerful AI creates both your AI tool
151
493156
5213
Затем очень мощный ИИ создаёт и ваш инструмент ИИ и доказательство,
08:18
and a proof that your tool meets your spec.
152
498369
3837
что ваш инструмент соответствует вашим спецификациям.
08:22
Machine learning is uniquely good at learning algorithms,
153
502540
4254
Машинное обучение уникально хорошо изучает алгоритмы,
08:26
but once the algorithm has been learned,
154
506836
2169
но как только алгоритм будет изучен,
08:29
you can re-implement it in a different computational architecture
155
509047
3169
его можно повторно реализовать в другой вычислительной архитектуре,
08:32
that's easier to verify.
156
512216
1627
которую легче верифицировать.
08:35
Now you might worry,
157
515344
1210
И тут возникает вопрос:
08:36
how on earth am I going to understand this powerful AI
158
516554
3921
«Как же разобраться в этом мощном ИИ,
08:40
and the powerful AI tool it built
159
520475
1626
созданном им инструменте ИИ,
08:42
and the proof,
160
522143
1126
и в их доказательствах,
08:43
if they're all too complicated for any human to grasp?
161
523311
2794
если они все слишком сложны для понимания человеком?»
08:46
Here is the really great news.
162
526147
2127
Вот действительно отличная новость.
08:48
You don't have to understand any of that stuff,
163
528316
2461
Вам не нужно разбираться во всём этом,
08:50
because it's much easier to verify a proof than to discover it.
164
530818
5297
потому что проверить доказательство гораздо проще, чем найти его.
08:56
So you only have to understand or trust your proof-checking code,
165
536115
5089
Вам нужно только понять код проверки подлинности или доверять ему.
09:01
which could be just a few hundred lines long.
166
541245
2211
Он может содержать всего несколько сотен строк.
09:03
And Steve and I envision
167
543498
2252
Мы со Стивом предполагаем,
09:05
that such proof checkers get built into all our compute hardware,
168
545750
4463
что такие средства проверки будут встроены в вычислительное оборудование,
09:10
so it just becomes impossible to run very unsafe code.
169
550254
4213
поэтому запускать очень небезопасный код станет просто невозможно.
09:14
What if the AI, though, isn't able to write that AI tool for you?
170
554509
5505
Но что, если искусственный интеллект не может написать этот инструмент для вас?
09:20
Then there's another possibility.
171
560056
3795
Тогда есть ещё одна возможность.
09:23
You train an AI to first just learn to do what you want
172
563851
3587
Вы учите ИИ сначала просто научиться делать то, что вы хотите,
09:27
and then you use a different AI
173
567480
3337
а затем используете другой ИИ,
09:30
to extract out the learned algorithm and knowledge for you,
174
570858
3963
чтобы извлечь из него изученный алгоритм и знания,
09:34
like an AI neuroscientist.
175
574862
2086
как нейробиолог, работающий с ИИ.
09:37
This is in the spirit of the field of mechanistic interpretability,
176
577281
3879
Это соответствует духу области механистической интерпретируемости,
09:41
which is making really impressive rapid progress.
177
581160
3253
которая стремительно развивается.
09:44
Provably safe systems are clearly not impossible.
178
584455
3170
Очевидно, что доказуемо безопасные системы вполне возможны.
09:47
Let's look at a simple example
179
587625
1502
Рассмотрим простой пример того,
09:49
of where we first machine-learn an algorithm from data
180
589168
4630
как мы сначала создаём и обучаем машинный алгоритм на данных,
09:53
and then distill it out in the form of code
181
593840
4254
а затем выводим его в виде кода,
09:58
that provably meets spec, OK?
182
598136
2252
который, вероятно, соответствует спецификации.
10:00
Let’s do it with an algorithm that you probably learned in first grade,
183
600888
4922
Давайте сделаем это с алгоритмом, который вы, вероятно, изучили ещё в первом классе,
10:05
addition,
184
605810
1168
где вы
10:07
where you loop over the digits from right to left,
185
607019
2503
перебираете цифры справа налево,
10:09
and sometimes you do a carry.
186
609564
1793
а иногда и переносите их.
10:11
We'll do it in binary,
187
611357
1752
Сделаем это в двоичном формате,
10:13
as if you were counting on two fingers instead of ten.
188
613151
2752
как если бы вы считали двумя пальцами, а не десятью.
10:16
And we first train a recurrent neural network,
189
616279
3378
И сначала мы обучим рекуррентную нейронную сеть,
10:19
never mind the details,
190
619657
2211
не зацикливаясь на деталях,
10:21
to nail the task.
191
621909
1418
справляться с этой задачей.
10:23
So now you have this algorithm that you don't understand how it works
192
623828
3253
Теперь у вас есть алгоритм, который непонятно как работает
10:27
in a black box
193
627123
2753
в чёрном ящике,
10:29
defined by a bunch of tables of numbers that we, in nerd speak,
194
629917
4463
состоящем из множества таблиц чисел, которые мы привычно
10:34
call parameters.
195
634380
1502
называем параметрами.
10:35
Then we use an AI tool we built to automatically distill out from this
196
635882
5297
Затем мы используем инструмент ИИ, чтобы автоматически извлечь из этого
10:41
the learned algorithm in the form of a Python program.
197
641179
3420
обученный алгоритм в виде программы на языке Python.
10:44
And then we use the formal verification tool known as Daphne
198
644640
4838
Затем мы используем формальное средство проверки, известное как Dafny,
10:49
to prove that this program correctly adds up any numbers,
199
649520
5422
чтобы доказать, что эта программа правильно складывает любые числа,
10:54
not just the numbers that were in your training data.
200
654942
2503
а не только числа из ваших тренировочных данных.
10:57
So in summary,
201
657778
1377
Короче говоря, я убеждён,
10:59
provably safe AI, I'm convinced is possible,
202
659155
3962
что безопасный ИИ, вероятно, возможен,
11:03
but it's going to take time and work.
203
663117
3003
но для этого потребуется время и работа.
11:06
And in the meantime,
204
666162
1209
А пока давайте вспомним,
11:07
let's remember that all the AI benefits
205
667413
4254
что все преимущества ИИ,
11:11
that most people are excited about
206
671709
3795
которые нравятся большинству людей,
11:15
actually don't require superintelligence.
207
675504
2628
на самом деле не требуют суперинтеллекта.
11:18
We can have a long and amazing future with AI.
208
678758
5005
У нас может быть долгое и удивительное будущее с ИИ.
11:25
So let's not pause AI.
209
685014
2169
Поэтому давайте не будем останавливать ИИ.
11:28
Let's just pause the reckless race to superintelligence.
210
688476
4129
Давайте просто остановим безрассудную гонку за суперинтеллектом.
11:32
Let's stop obsessively training ever-larger models
211
692980
4255
Давайте перестанем одержимо тренировать всё более крупные модели,
11:37
that we don't understand.
212
697276
1669
в которых мы не разбираемся.
11:39
Let's heed the warning from ancient Greece
213
699737
3212
Давайте прислушаемся к предостережениям древних греков
11:42
and not get hubris, like in the story of Icarus.
214
702949
3712
и не будем проявлять высокомерия, как в истории об Икаре.
11:46
Because artificial intelligence
215
706702
2711
Потому что искусственный интеллект
11:49
is giving us incredible intellectual wings
216
709455
4463
даёт нам невероятные интеллектуальные крылья,
11:53
with which we can do things beyond our wildest dreams
217
713960
4045
с помощью которых мы можем свершить самые смелые мечты,
11:58
if we stop obsessively trying to fly to the sun.
218
718047
4379
если перестанем одержимо пытаться полететь к солнцу.
12:02
Thank you.
219
722802
1168
Спасибо.
12:03
(Applause)
220
723970
5880
(Аплодисменты)
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7