3 principles for creating safer AI | Stuart Russell

139,486 views ・ 2017-06-06

TED


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

Переводчик: Nataliia Pysemska Редактор: Yekaterina Jussupova
00:12
This is Lee Sedol.
0
12532
1552
Это Ли Седоль.
00:14
Lee Sedol is one of the world's greatest Go players,
1
14108
3997
Ли Седоль — один из лучших игроков в го в мире,
00:18
and he's having what my friends in Silicon Valley call
2
18129
2885
и сейчас он в ситуации, которую мои друзья
из Силиконовой долины называют «Мама дорогая!» —
00:21
a "Holy Cow" moment --
3
21038
1510
00:22
(Laughter)
4
22572
1073
(Смех)
00:23
a moment where we realize
5
23669
2188
момент осознания того,
00:25
that AI is actually progressing a lot faster than we expected.
6
25881
3296
что искусственный интеллект развивается гораздо быстрее, чем мы ожидали.
00:29
So humans have lost on the Go board. What about the real world?
7
29974
3047
Итак, человечество проиграло партию в го. Но как же реальный мир?
00:33
Well, the real world is much bigger,
8
33045
2100
Ну, реальный мир гораздо больше
00:35
much more complicated than the Go board.
9
35169
2249
и сложнее, чем доска для игры в го.
00:37
It's a lot less visible,
10
37442
1819
Несмотря на то, что это не столь очевидно,
00:39
but it's still a decision problem.
11
39285
2038
всё упирается в принятие решений.
00:42
And if we think about some of the technologies
12
42768
2321
Если мы задумаемся о грядущих
00:45
that are coming down the pike ...
13
45113
1749
технологических инновациях...
00:47
Noriko [Arai] mentioned that reading is not yet happening in machines,
14
47558
4335
Норико [Араи] упомянула, что машины ещё не понимают
00:51
at least with understanding.
15
51917
1500
смысл прочитанного.
00:53
But that will happen,
16
53441
1536
Но в будущем это произойдёт,
00:55
and when that happens,
17
55001
1771
и в этот момент,
00:56
very soon afterwards,
18
56796
1187
совсем скоро,
00:58
machines will have read everything that the human race has ever written.
19
58007
4572
машины прочитают всё, что когда-либо написали люди.
01:03
And that will enable machines,
20
63670
2030
Благодаря этому машины
01:05
along with the ability to look further ahead than humans can,
21
65724
2920
смогут предугадывать развитие событий лучше, чем люди;
01:08
as we've already seen in Go,
22
68668
1680
что и случилось во время игры в го.
01:10
if they also have access to more information,
23
70372
2164
Получив больший доступ к информации,
01:12
they'll be able to make better decisions in the real world than we can.
24
72560
4268
они смогут принимать решения лучше, чем мы.
01:18
So is that a good thing?
25
78612
1606
Хорошо ли это?
01:21
Well, I hope so.
26
81718
2232
Надеюсь, что да.
01:26
Our entire civilization, everything that we value,
27
86514
3255
Вся наша цивилизация, всё, чем мы дорожим,
01:29
is based on our intelligence.
28
89793
2068
основывается на нашем интеллекте.
01:31
And if we had access to a lot more intelligence,
29
91885
3694
Если бы наш интеллект увеличился,
01:35
then there's really no limit to what the human race can do.
30
95603
3302
человеческим возможностям не было бы предела.
01:40
And I think this could be, as some people have described it,
31
100485
3325
Думаю, это стало бы тем, что некоторые называют
01:43
the biggest event in human history.
32
103834
2016
величайшим событием в истории человечества.
01:48
So why are people saying things like this,
33
108485
2829
Почему же тогда люди говорят,
01:51
that AI might spell the end of the human race?
34
111338
2876
что ИИ может положить конец человечеству?
01:55
Is this a new thing?
35
115258
1659
Это что-то новое?
01:56
Is it just Elon Musk and Bill Gates and Stephen Hawking?
36
116941
4110
Это лишь мнение Илона Маска, Билла Гейтса и Стивена Хокинга?
02:01
Actually, no. This idea has been around for a while.
37
121773
3262
На самом деле нет. Эта идея появилась довольно давно.
02:05
Here's a quotation:
38
125059
1962
Вот цитата:
02:07
"Even if we could keep the machines in a subservient position,
39
127045
4350
«Даже если бы мы сохранили власть над машинами,
02:11
for instance, by turning off the power at strategic moments" --
40
131419
2984
например, имея возможность отключить их в любой момент, —
02:14
and I'll come back to that "turning off the power" idea later on --
41
134427
3237
чуть позже я вернусь к этой идее отключения, —
02:17
"we should, as a species, feel greatly humbled."
42
137688
2804
мы, как вид, должны чувствовать себя довольно униженными».
02:21
So who said this? This is Alan Turing in 1951.
43
141997
3448
Кто же сказал это? Алан Тьюринг в 1951 году.
02:26
Alan Turing, as you know, is the father of computer science
44
146120
2763
Как известно, Алан Тьюринг является отцом информатики,
02:28
and in many ways, the father of AI as well.
45
148907
3048
а также, во многих аспектах, отцом ИИ.
02:33
So if we think about this problem,
46
153059
1882
Если мы задумаемся
02:34
the problem of creating something more intelligent than your own species,
47
154965
3787
над проблемой создания чего-то более разумного, чем наш вид,
02:38
we might call this "the gorilla problem,"
48
158776
2622
это можно будет назвать «проблемой гориллы»,
02:42
because gorillas' ancestors did this a few million years ago,
49
162165
3750
потому что предки горилл думали об этом несколько миллионов лет назад,
02:45
and now we can ask the gorillas:
50
165939
1745
и теперь гориллам можно задать вопрос:
02:48
Was this a good idea?
51
168572
1160
«Это была хорошая идея?»
02:49
So here they are having a meeting to discuss whether it was a good idea,
52
169756
3530
Они бы собрались, чтобы решить, была ли это хорошая идея,
02:53
and after a little while, they conclude, no,
53
173310
3346
и через некоторое время пришли бы к заключению,
02:56
this was a terrible idea.
54
176680
1345
что это была ужасная идея.
02:58
Our species is in dire straits.
55
178049
1782
Наш вид находится в ужасном состоянии.
03:00
In fact, you can see the existential sadness in their eyes.
56
180358
4263
Фактически в их глазах можно увидеть экзистенциальную печаль.
03:04
(Laughter)
57
184645
1640
(Смех)
03:06
So this queasy feeling that making something smarter than your own species
58
186309
4840
Что нам делать с тошнотворным ощущением,
03:11
is maybe not a good idea --
59
191173
2365
что создание кого-то умнее нас
03:14
what can we do about that?
60
194308
1491
может оказаться не лучшей идеей?
03:15
Well, really nothing, except stop doing AI,
61
195823
4767
Единственный выход — прекратить разработку ИИ.
03:20
and because of all the benefits that I mentioned
62
200614
2510
Но, учитывая упомянутые мной преимущества
03:23
and because I'm an AI researcher,
63
203148
1716
и тот факт, что я исследователь ИИ,
03:24
I'm not having that.
64
204888
1791
лично я против.
03:27
I actually want to be able to keep doing AI.
65
207103
2468
Я хочу продолжать создавать ИИ.
03:30
So we actually need to nail down the problem a bit more.
66
210435
2678
Поэтому нам следует обсудить проблему более подробно.
03:33
What exactly is the problem?
67
213137
1371
В чём суть проблемы?
03:34
Why is better AI possibly a catastrophe?
68
214532
3246
Почему совершенный ИИ может обернуться катастрофой?
03:39
So here's another quotation:
69
219218
1498
Вот ещё цитата:
03:41
"We had better be quite sure that the purpose put into the machine
70
221755
3335
«Нам следует быть уверенными, что цели, заложенные в машину,
03:45
is the purpose which we really desire."
71
225114
2298
совпадают с нашими желаниями».
03:48
This was said by Norbert Wiener in 1960,
72
228102
3498
Это сказал Норберт Винер в 1960 году,
03:51
shortly after he watched one of the very early learning systems
73
231624
4002
вскоре после того, как увидел, как одна из первых обучающихся систем
03:55
learn to play checkers better than its creator.
74
235650
2583
научилась играть в шашки лучше своего создателя.
04:00
But this could equally have been said
75
240422
2683
Нечто подобное сказал
04:03
by King Midas.
76
243129
1167
царь Мидас:
04:04
King Midas said, "I want everything I touch to turn to gold,"
77
244903
3134
«Хочу, чтобы всё, к чему я прикоснусь, превращалось в золото».
04:08
and he got exactly what he asked for.
78
248061
2473
Он получил именно то, что просил.
04:10
That was the purpose that he put into the machine,
79
250558
2751
Именно эту цель он вложил в машину,
04:13
so to speak,
80
253333
1450
так сказать,
04:14
and then his food and his drink and his relatives turned to gold
81
254807
3444
и затем еда, напитки и его семья превратились в золото,
04:18
and he died in misery and starvation.
82
258275
2281
а он сам умер мучительной и голодной смертью.
04:22
So we'll call this "the King Midas problem"
83
262264
2341
Итак, назовём это проблемой царя Мидаса:
04:24
of stating an objective which is not, in fact,
84
264629
3305
постановка цели, которая в действительности
04:27
truly aligned with what we want.
85
267958
2413
не совпадает с нашим желанием.
04:30
In modern terms, we call this "the value alignment problem."
86
270395
3253
В современном мире это называется проблемой согласования.
04:36
Putting in the wrong objective is not the only part of the problem.
87
276867
3485
Некорректная постановка цели — лишь часть проблемы.
04:40
There's another part.
88
280376
1152
Есть ещё кое-что.
04:41
If you put an objective into a machine,
89
281980
1943
Если вы закладываете в машину цель,
04:43
even something as simple as, "Fetch the coffee,"
90
283947
2448
даже такую простую как сварить кофе,
04:47
the machine says to itself,
91
287728
1841
машина задастся вопросом:
04:50
"Well, how might I fail to fetch the coffee?
92
290553
2623
«Как я могу потерпеть неудачу в приготовлении кофе?
04:53
Someone might switch me off.
93
293200
1580
Кто-то может отключить меня.
04:55
OK, I have to take steps to prevent that.
94
295465
2387
Тогда я должен предотвратить это.
04:57
I will disable my 'off' switch.
95
297876
1906
Я сломаю свой выключатель.
05:00
I will do anything to defend myself against interference
96
300354
2959
Я сделаю что угодно, чтобы защититься от любых вмешательств
05:03
with this objective that I have been given."
97
303337
2629
в процесс выполнения поставленной мне задачи».
05:05
So this single-minded pursuit
98
305990
2012
На деле этот режим
05:09
in a very defensive mode of an objective that is, in fact,
99
309033
2945
крайней самозащиты
05:12
not aligned with the true objectives of the human race --
100
312002
2814
не имеет ничего общего с первоначальной целью человечества —
05:15
that's the problem that we face.
101
315942
1862
именно с этой проблемой мы столкнулись.
05:18
And in fact, that's the high-value takeaway from this talk.
102
318827
4767
Фактически это главный тезис выступления.
05:23
If you want to remember one thing,
103
323618
2055
Единственное, что вам нужно помнить:
05:25
it's that you can't fetch the coffee if you're dead.
104
325697
2675
вы не сможете сварить кофе, если вы покойник.
05:28
(Laughter)
105
328396
1061
(Смех)
05:29
It's very simple. Just remember that. Repeat it to yourself three times a day.
106
329481
3829
Всё очень просто. Всего лишь помните это. Повторяйте себе это три раза в день.
05:33
(Laughter)
107
333334
1821
(Смех)
05:35
And in fact, this is exactly the plot
108
335179
2754
На самом деле, в этом заключается сюжет фильма
05:37
of "2001: [A Space Odyssey]"
109
337957
2648
«2001: [Космическая Одиссея]»:
05:41
HAL has an objective, a mission,
110
341046
2090
у HAL есть цель, миссия,
05:43
which is not aligned with the objectives of the humans,
111
343160
3732
которая не совпадает с целью людей,
05:46
and that leads to this conflict.
112
346916
1810
что и приводит к конфликту.
05:49
Now fortunately, HAL is not superintelligent.
113
349314
2969
К счастью, HAL не обладает сверхразумом.
05:52
He's pretty smart, but eventually Dave outwits him
114
352307
3587
Он довольно умный, но в итоге Дэйв смог перехитрить
05:55
and manages to switch him off.
115
355918
1849
и отключить его.
06:01
But we might not be so lucky.
116
361648
1619
Но нам может повезти меньше.
06:08
So what are we going to do?
117
368013
1592
Что же нам делать?
06:12
I'm trying to redefine AI
118
372191
2601
Я пытаюсь переосмыслить ИИ,
06:14
to get away from this classical notion
119
374816
2061
чтобы уйти от классического понятия машин,
06:16
of machines that intelligently pursue objectives.
120
376901
4567
которые благоразумно преследуют цель.
06:22
There are three principles involved.
121
382532
1798
Здесь задействованы три правила.
06:24
The first one is a principle of altruism, if you like,
122
384354
3289
Первое, правило альтруизма:
06:27
that the robot's only objective
123
387667
3262
единственная цель робота —
06:30
is to maximize the realization of human objectives,
124
390953
4246
помочь человеку добиться всего, к чему он стремится,
06:35
of human values.
125
395223
1390
и приумножить его ценности.
06:36
And by values here I don't mean touchy-feely, goody-goody values.
126
396637
3330
Я подразумеваю не сентиментальные ценности,
06:39
I just mean whatever it is that the human would prefer
127
399991
3787
а любые представления людей
06:43
their life to be like.
128
403802
1343
об идеальной жизни.
06:47
And so this actually violates Asimov's law
129
407184
2309
И это правило нарушает закон Азимова,
06:49
that the robot has to protect its own existence.
130
409517
2329
который гласит: робот должен защищать себя.
06:51
It has no interest in preserving its existence whatsoever.
131
411870
3723
Он вообще не заинтересован в сохранении своей жизни.
06:57
The second law is a law of humility, if you like.
132
417240
3768
Второе, правило покорности.
07:01
And this turns out to be really important to make robots safe.
133
421794
3743
Это действительно важно для того, чтобы обезопасить нас от роботов.
07:05
It says that the robot does not know
134
425561
3142
Оно гласит: робот не знает,
07:08
what those human values are,
135
428727
2028
что именно относится к человеческим ценностям,
07:10
so it has to maximize them, but it doesn't know what they are.
136
430779
3178
он должен приумножать их, не зная, что они из себя представляют.
07:15
And that avoids this problem of single-minded pursuit
137
435074
2626
Это позволяет избежать проблемы концентрации
07:17
of an objective.
138
437724
1212
на одной цели.
07:18
This uncertainty turns out to be crucial.
139
438960
2172
Эта неопределённость оказывается решающей.
07:21
Now, in order to be useful to us,
140
441546
1639
Но, чтобы приносить пользу,
07:23
it has to have some idea of what we want.
141
443209
2731
у него должно быть общее понимание наших желаний.
07:27
It obtains that information primarily by observation of human choices,
142
447043
5427
Он узнаёт об этом, в первую очередь, из решений, принимаемых людьми,
07:32
so our own choices reveal information
143
452494
2801
так что принятые нами решения содержат информацию о том,
07:35
about what it is that we prefer our lives to be like.
144
455319
3300
какой мы хотим сделать нашу жизнь.
07:40
So those are the three principles.
145
460452
1683
Итак, вот эти три правила.
07:42
Let's see how that applies to this question of:
146
462159
2318
Теперь рассмотрим, как они применяются к вопросу,
07:44
"Can you switch the machine off?" as Turing suggested.
147
464501
2789
поставленному Тьюрингом: «Можно ли отключить машину?»
07:48
So here's a PR2 robot.
148
468893
2120
Итак, это робот PR2
07:51
This is one that we have in our lab,
149
471037
1821
из нашей лаборатории.
07:52
and it has a big red "off" switch right on the back.
150
472882
2903
Прямо на спине у него есть красная кнопка «Выкл».
07:56
The question is: Is it going to let you switch it off?
151
476361
2615
Вопрос: позволит ли он вам отключить его?
07:59
If we do it the classical way,
152
479000
1465
Если мы пойдём старым путём,
08:00
we give it the objective of, "Fetch the coffee, I must fetch the coffee,
153
480489
3482
у него будет цель «Варить кофе; я должен варить кофе;
08:03
I can't fetch the coffee if I'm dead,"
154
483995
2580
я не могу варить кофе, если я мёртв».
08:06
so obviously the PR2 has been listening to my talk,
155
486599
3341
Очевидно, PR2 слушал моё выступление,
08:09
and so it says, therefore, "I must disable my 'off' switch,
156
489964
3753
и поэтому он говорит: «Я должен сломать свой выключатель
08:14
and probably taser all the other people in Starbucks
157
494796
2694
и вырубить работников Starbucks,
08:17
who might interfere with me."
158
497514
1560
которые могут мне помешать».
08:19
(Laughter)
159
499098
2062
(Смех)
08:21
So this seems to be inevitable, right?
160
501184
2153
Это кажется неизбежным, не так ли?
08:23
This kind of failure mode seems to be inevitable,
161
503361
2398
Кажется, этого фатального режима невозможно избежать,
08:25
and it follows from having a concrete, definite objective.
162
505783
3543
он следует из конкретно определённой цели.
08:30
So what happens if the machine is uncertain about the objective?
163
510632
3144
Что же случится, если у машины не будет чётко поставленной цели?
08:33
Well, it reasons in a different way.
164
513800
2127
Тогда она будет рассуждать по-другому
08:35
It says, "OK, the human might switch me off,
165
515951
2424
и скажет: «Человек может отключить меня,
08:38
but only if I'm doing something wrong.
166
518964
1866
но только если я допущу ошибку.
08:41
Well, I don't really know what wrong is,
167
521567
2475
Я точно не знаю, что правильно, а что нет,
08:44
but I know that I don't want to do it."
168
524066
2044
но я точно знаю, что не хочу ошибаться».
08:46
So that's the first and second principles right there.
169
526134
3010
Здесь действуют первые два правила.
08:49
"So I should let the human switch me off."
170
529168
3359
«Следовательно, я должен разрешить людям отключить меня».
08:53
And in fact you can calculate the incentive that the robot has
171
533541
3956
Фактически вы можете просчитать стимул, благодаря которому
08:57
to allow the human to switch it off,
172
537521
2493
робот позволит людям отключить себя,
09:00
and it's directly tied to the degree
173
540038
1914
и этот стимул тесно связан
09:01
of uncertainty about the underlying objective.
174
541976
2746
с неопределённостью поставленной цели.
09:05
And then when the machine is switched off,
175
545797
2949
А когда машина отключена,
09:08
that third principle comes into play.
176
548770
1805
начинает действовать третье правило.
09:10
It learns something about the objectives it should be pursuing,
177
550599
3062
Она узнаёт что-то о целях, которые должна преследовать,
09:13
because it learns that what it did wasn't right.
178
553685
2533
потому что понимает, что сделала что-то не так.
09:16
In fact, we can, with suitable use of Greek symbols,
179
556242
3570
По сути, мы, подобно математикам,
09:19
as mathematicians usually do,
180
559836
2131
можем применить греческие символы
09:21
we can actually prove a theorem
181
561991
1984
для доказательства теоремы,
09:23
that says that such a robot is provably beneficial to the human.
182
563999
3553
согласно которой именно такой робот принесёт человеку пользу.
09:27
You are provably better off with a machine that's designed in this way
183
567576
3803
Вероятно, вам будет лучше работать с машиной, которая разработана
09:31
than without it.
184
571403
1246
с учётом этого момента.
09:33
So this is a very simple example, but this is the first step
185
573057
2906
Данный пример очень прост,
09:35
in what we're trying to do with human-compatible AI.
186
575987
3903
но это лишь начало наших попыток разработки робота-компаньона.
09:42
Now, this third principle,
187
582477
3257
Итак, думаю, третье правило
09:45
I think is the one that you're probably scratching your head over.
188
585758
3112
озадачивает вас.
09:48
You're probably thinking, "Well, you know, I behave badly.
189
588894
3239
Вероятно, вы думаете: «Допустим, я поступаю плохо,
09:52
I don't want my robot to behave like me.
190
592157
2929
я не хочу, чтобы робот поступал так же, как я.
09:55
I sneak down in the middle of the night and take stuff from the fridge.
191
595110
3434
По ночам я пробираюсь к холодильнику за едой.
09:58
I do this and that."
192
598568
1168
Я делаю то-то и то-то».
09:59
There's all kinds of things you don't want the robot doing.
193
599760
2797
Вы бы не хотели, чтобы робот повторял за вами всё.
10:02
But in fact, it doesn't quite work that way.
194
602581
2071
На самом деле система работает немного иначе.
10:04
Just because you behave badly
195
604676
2155
Робот не будет копировать
10:06
doesn't mean the robot is going to copy your behavior.
196
606855
2623
ваше плохое поведение.
10:09
It's going to understand your motivations and maybe help you resist them,
197
609502
3910
Он попытается понять ваши мотивы и, возможно, поможет вам противостоять им
10:13
if appropriate.
198
613436
1320
в случае необходимости.
10:16
But it's still difficult.
199
616026
1464
Но это сложная задача.
10:18
What we're trying to do, in fact,
200
618122
2545
Фактически мы пытаемся
10:20
is to allow machines to predict for any person and for any possible life
201
620691
5796
разрешить машинам прогнозировать все возможные варианты
10:26
that they could live,
202
626511
1161
своей жизни
10:27
and the lives of everybody else:
203
627696
1597
и жизни каждого человека.
10:29
Which would they prefer?
204
629317
2517
Какую жизнь они бы предпочли?
10:33
And there are many, many difficulties involved in doing this;
205
633881
2954
Этот процесс сопряжён с множеством затруднений.
10:36
I don't expect that this is going to get solved very quickly.
206
636859
2932
Я не ожидаю, что с ними можно справиться быстро.
10:39
The real difficulties, in fact, are us.
207
639815
2643
Главная сложность заключается именно в нас.
10:43
As I have already mentioned, we behave badly.
208
643969
3117
Как я уже упоминал, мы ведём себя плохо.
10:47
In fact, some of us are downright nasty.
209
647110
2321
Некоторые из нас просто ужасны.
10:50
Now the robot, as I said, doesn't have to copy the behavior.
210
650251
3052
Но роботу, как я уже говорил, не нужно копировать поведение.
10:53
The robot does not have any objective of its own.
211
653327
2791
У робота нет своих собственных целей.
10:56
It's purely altruistic.
212
656142
1737
Он абсолютно альтруистичный
10:59
And it's not designed just to satisfy the desires of one person, the user,
213
659113
5221
и создан не только для удовлетворения потребностей своего пользователя,
11:04
but in fact it has to respect the preferences of everybody.
214
664358
3138
он должен уважать предпочтения каждого.
11:09
So it can deal with a certain amount of nastiness,
215
669083
2570
Он может справиться с плохими поступками
11:11
and it can even understand that your nastiness, for example,
216
671677
3701
и даже понять, что вы поступаете плохо,
11:15
you may take bribes as a passport official
217
675402
2671
например, берёте взятки, работая паспортистом,
11:18
because you need to feed your family and send your kids to school.
218
678097
3812
потому что вам нужно кормить семью и оплачивать обучение детей.
11:21
It can understand that; it doesn't mean it's going to steal.
219
681933
2906
Он может это понять, и это не значит, что он будет воровать.
11:24
In fact, it'll just help you send your kids to school.
220
684863
2679
По сути, это лишь помогает вам оплатить учёбу детей.
11:28
We are also computationally limited.
221
688796
3012
Наши вычислительные способности также ограничены.
11:31
Lee Sedol is a brilliant Go player,
222
691832
2505
Ли Седоль прекрасно играет в го,
11:34
but he still lost.
223
694361
1325
но он всё равно проиграл.
11:35
So if we look at his actions, he took an action that lost the game.
224
695710
4239
Сделанные им ходы привели к поражению.
11:39
That doesn't mean he wanted to lose.
225
699973
2161
Это не значит, что он хотел проиграть.
11:43
So to understand his behavior,
226
703160
2040
Чтобы понять его поведение,
11:45
we actually have to invert through a model of human cognition
227
705224
3644
нам следует смотреть сквозь призму человеческого познания, включающего
11:48
that includes our computational limitations -- a very complicated model.
228
708892
4977
наши вычислительные ограничения и являющегося очень сложной моделью.
11:53
But it's still something that we can work on understanding.
229
713893
2993
Но нам всё ещё есть над чем поразмыслить.
11:57
Probably the most difficult part, from my point of view as an AI researcher,
230
717696
4320
С моей точки зрения, самым сложным в исследовании ИИ
12:02
is the fact that there are lots of us,
231
722040
2575
является тот факт, что нас очень много,
12:06
and so the machine has to somehow trade off, weigh up the preferences
232
726114
3581
и поэтому машине нужно идти на компромисс, сопоставлять пожелания
12:09
of many different people,
233
729719
2225
множества разных людей,
12:11
and there are different ways to do that.
234
731968
1906
и для этого существуют разные способы.
12:13
Economists, sociologists, moral philosophers have understood that,
235
733898
3689
Экономисты, социологи, нравственные философы поняли это,
12:17
and we are actively looking for collaboration.
236
737611
2455
и мы стараемся активно сотрудничать.
12:20
Let's have a look and see what happens when you get that wrong.
237
740090
3251
Давайте посмотрим, что произойдёт, если вы допу́стите ошибку.
12:23
So you can have a conversation, for example,
238
743365
2133
Итак, например, вы беседуете
12:25
with your intelligent personal assistant
239
745522
1944
с умным личным помощником,
12:27
that might be available in a few years' time.
240
747490
2285
который может появиться через несколько лет.
12:29
Think of a Siri on steroids.
241
749799
2524
Представьте Siri на стероидах.
12:33
So Siri says, "Your wife called to remind you about dinner tonight."
242
753447
4322
Siri говорит: «Звонила ваша жена, чтобы напомнить о сегодняшнем вечере».
12:38
And of course, you've forgotten. "What? What dinner?
243
758436
2508
И, разумеется, вы забыли. «Что? Какой ужин?
12:40
What are you talking about?"
244
760968
1425
О чём ты говоришь?»
12:42
"Uh, your 20th anniversary at 7pm."
245
762417
3746
«Ваша 20-я годовщина в 19:00».
12:48
"I can't do that. I'm meeting with the secretary-general at 7:30.
246
768735
3719
«Я не могу, у меня встреча с генеральным секретарём в 19:30.
12:52
How could this have happened?"
247
772478
1692
Как такое могло случиться?»
12:54
"Well, I did warn you, but you overrode my recommendation."
248
774194
4660
«Я предупреждала вас, но вы проигнорировали мой совет».
12:59
"Well, what am I going to do? I can't just tell him I'm too busy."
249
779966
3328
«Что же мне делать? Я же не могу просто сказать ему, что занят».
13:04
"Don't worry. I arranged for his plane to be delayed."
250
784310
3281
«Не беспокойтесь. Я задержала его рейс».
13:07
(Laughter)
251
787615
1682
(Смех)
13:10
"Some kind of computer malfunction."
252
790069
2101
«Какая-то компьютерная неисправность».
13:12
(Laughter)
253
792194
1212
(Смех)
13:13
"Really? You can do that?"
254
793430
1617
«Ты и такое можешь сделать?»
13:16
"He sends his profound apologies
255
796220
2179
«Он приносит глубочайшие извинения
13:18
and looks forward to meeting you for lunch tomorrow."
256
798423
2555
и приглашает вас на обед завтра».
13:21
(Laughter)
257
801002
1299
(Смех)
13:22
So the values here -- there's a slight mistake going on.
258
802325
4403
Итак, есть небольшая ошибка в оценке приоритетов.
13:26
This is clearly following my wife's values
259
806752
3009
Чёткое следование ценностям моей жены и её принципу
13:29
which is "Happy wife, happy life."
260
809785
2069
«Счастливая жена — счастливая жизнь».
13:31
(Laughter)
261
811878
1583
(Смех)
13:33
It could go the other way.
262
813485
1444
Могло быть и по-другому.
13:35
You could come home after a hard day's work,
263
815641
2201
Вы приходите домой после тяжёлого рабочего дня,
13:37
and the computer says, "Long day?"
264
817866
2195
а компьютер спрашивает: «Трудный день?»
13:40
"Yes, I didn't even have time for lunch."
265
820085
2288
«Даже не успел пообедать».
13:42
"You must be very hungry."
266
822397
1282
«Думаю, вы очень голодны».
13:43
"Starving, yeah. Could you make some dinner?"
267
823703
2646
«Умираю с голоду. Можешь приготовить ужин?»
13:47
"There's something I need to tell you."
268
827890
2090
«Я должна кое-что вам сказать».
13:50
(Laughter)
269
830004
1155
(Смех)
13:52
"There are humans in South Sudan who are in more urgent need than you."
270
832013
4905
«Люди в Южном Судане нуждаются в помощи больше, чем вы».
13:56
(Laughter)
271
836942
1104
(Смех)
13:58
"So I'm leaving. Make your own dinner."
272
838070
2075
«Так что я ухожу. Готовьте себе ужин сами».
14:00
(Laughter)
273
840169
2000
(Смех)
14:02
So we have to solve these problems,
274
842643
1739
Итак, нам нужно решить эти проблемы,
14:04
and I'm looking forward to working on them.
275
844406
2515
и мне не терпится поработать над ними.
14:06
There are reasons for optimism.
276
846945
1843
Для оптимизма есть основания.
14:08
One reason is,
277
848812
1159
Во-первых,
14:09
there is a massive amount of data.
278
849995
1868
собран огромный объём данных.
14:11
Because remember -- I said they're going to read everything
279
851887
2794
Помните, я говорил, что они прочитают всё,
14:14
the human race has ever written.
280
854705
1546
что когда-либо написали люди?
14:16
Most of what we write about is human beings doing things
281
856275
2724
В основном мы писали о том, как одни люди что-либо делают,
14:19
and other people getting upset about it.
282
859023
1914
а другие расстраиваются по этому поводу.
14:20
So there's a massive amount of data to learn from.
283
860961
2398
Так что у нас есть множество данных для изучения.
14:23
There's also a very strong economic incentive
284
863383
2236
Также есть важный экономический стимул
14:27
to get this right.
285
867151
1186
сделать всё правильно.
14:28
So imagine your domestic robot's at home.
286
868361
2001
Представьте вашего робота у себя дома.
14:30
You're late from work again and the robot has to feed the kids,
287
870386
3067
Вы снова задерживаетесь на работе, и робот должен накормить детей,
14:33
and the kids are hungry and there's nothing in the fridge.
288
873477
2823
а кормить их нечем, потому что холодильник пуст.
14:36
And the robot sees the cat.
289
876324
2605
И робот видит кошку.
14:38
(Laughter)
290
878953
1692
(Смех)
14:40
And the robot hasn't quite learned the human value function properly,
291
880669
4190
Робот не изучил сущность человеческих ценностей
14:44
so it doesn't understand
292
884883
1251
и не понимает,
14:46
the sentimental value of the cat outweighs the nutritional value of the cat.
293
886158
4844
что сентиментальная ценность кошки превосходит её питательную ценность.
14:51
(Laughter)
294
891026
1095
(Смех)
14:52
So then what happens?
295
892145
1748
Что происходит тогда?
14:53
Well, it happens like this:
296
893917
3297
Что вроде этого:
14:57
"Deranged robot cooks kitty for family dinner."
297
897238
2964
«Ненормальный робот готовит котёнка на семейный ужин».
15:00
That one incident would be the end of the domestic robot industry.
298
900226
4523
Этот инцидент положил бы конец производству домашних роботов.
15:04
So there's a huge incentive to get this right
299
904773
3372
Так что у нас есть огромный стимул сделать всё правильно
15:08
long before we reach superintelligent machines.
300
908169
2715
до того, как мы создадим суперумную машину.
15:11
So to summarize:
301
911948
1535
Итак, подытожим.
15:13
I'm actually trying to change the definition of AI
302
913507
2881
По сути, я пытаюсь изменить определение ИИ,
15:16
so that we have provably beneficial machines.
303
916412
2993
чтобы наши машины были действительно полезными.
15:19
And the principles are:
304
919429
1222
Основные моменты:
15:20
machines that are altruistic,
305
920675
1398
это альтруистичные машины,
15:22
that want to achieve only our objectives,
306
922097
2804
которые хотят добиваться лишь наших целей,
15:24
but that are uncertain about what those objectives are,
307
924925
3116
но не знают, каких именно целей,
15:28
and will watch all of us
308
928065
1998
и будут наблюдать за всеми нами,
15:30
to learn more about what it is that we really want.
309
930087
3203
чтобы узнать, чего мы на самом деле хотим.
15:34
And hopefully in the process, we will learn to be better people.
310
934193
3559
Надеюсь, в процессе мы сами станем лучше.
15:37
Thank you very much.
311
937776
1191
Большое спасибо.
15:38
(Applause)
312
938991
3709
(Аплодисменты)
15:42
Chris Anderson: So interesting, Stuart.
313
942724
1868
Крис Андерсон: Очень интересно, Стюарт.
15:44
We're going to stand here a bit because I think they're setting up
314
944616
3170
Мы задержимся здесь немного, потому что, сейчас идёт подготовка
15:47
for our next speaker.
315
947810
1151
к следующему выступлению.
15:48
A couple of questions.
316
948985
1538
Пара вопросов.
15:50
So the idea of programming in ignorance seems intuitively really powerful.
317
950547
5453
Идея программирования незнания подсознательно кажется очень мощной.
15:56
As you get to superintelligence,
318
956024
1594
Что помешает роботу,
15:57
what's going to stop a robot
319
957642
2258
получившему суперразум,
15:59
reading literature and discovering this idea that knowledge
320
959924
2852
почитать книги и обнаружить, что на самом деле знания
16:02
is actually better than ignorance
321
962800
1572
лучше невежества,
16:04
and still just shifting its own goals and rewriting that programming?
322
964396
4218
начать следовать другим целям и перепрограммировать себя?
16:09
Stuart Russell: Yes, so we want it to learn more, as I said,
323
969512
6356
Стюарт Рассел: Как я уже сказал, мы хотим, чтобы роботы узнали больше
16:15
about our objectives.
324
975892
1287
о наших целях.
16:17
It'll only become more certain as it becomes more correct,
325
977203
5521
Они станут более определёнными лишь когда станут правильными,
16:22
so the evidence is there
326
982748
1945
робот будет запрограммирован
16:24
and it's going to be designed to interpret it correctly.
327
984717
2724
правильно понимать полученные данные.
16:27
It will understand, for example, that books are very biased
328
987465
3956
Например, он будет понимать, что книги описывают мир
16:31
in the evidence they contain.
329
991445
1483
довольно однобоко.
16:32
They only talk about kings and princes
330
992952
2397
Они повествуют лишь о королях, принцах
16:35
and elite white male people doing stuff.
331
995373
2800
и знатных белых мужчинах, которые делают свою работу.
16:38
So it's a complicated problem,
332
998197
2096
Это сложная проблема,
16:40
but as it learns more about our objectives
333
1000317
3872
но чем больше он будет узнавать о наших целях,
16:44
it will become more and more useful to us.
334
1004213
2063
тем больше пользы он будет приносить нам.
16:46
CA: And you couldn't just boil it down to one law,
335
1006300
2526
КА: Вы не можете свести всё к одному закону,
16:48
you know, hardwired in:
336
1008850
1650
который бы гласил:
16:50
"if any human ever tries to switch me off,
337
1010524
3293
«Если когда-нибудь человек попытается меня выключить,
16:53
I comply. I comply."
338
1013841
1935
я подчинюсь. Я подчинюсь»?
16:55
SR: Absolutely not.
339
1015800
1182
СР: Абсолютно исключено.
16:57
That would be a terrible idea.
340
1017006
1499
Это была бы ужасная идея.
16:58
So imagine that you have a self-driving car
341
1018529
2689
Представьте, что у вас есть беспилотный автомобиль,
17:01
and you want to send your five-year-old
342
1021242
2433
и вы хотите отправить на нём своего пятилетнего сына
17:03
off to preschool.
343
1023699
1174
в детский сад.
17:04
Do you want your five-year-old to be able to switch off the car
344
1024897
3101
Хотели бы вы, чтобы ваш пятилетний сын мог отключить машину,
17:08
while it's driving along?
345
1028022
1213
когда она едет?
17:09
Probably not.
346
1029259
1159
Вероятно, нет.
17:10
So it needs to understand how rational and sensible the person is.
347
1030442
4703
Поэтому нужно понимать степень рациональности и здравомыслия личности.
17:15
The more rational the person,
348
1035169
1676
Чем более рационален человек,
17:16
the more willing you are to be switched off.
349
1036869
2103
тем вероятнее робот согласится на отключение.
17:18
If the person is completely random or even malicious,
350
1038996
2543
Если это случайный человек или даже злоумышленник,
17:21
then you're less willing to be switched off.
351
1041563
2512
он отключится с меньшей охотой.
17:24
CA: All right. Stuart, can I just say,
352
1044099
1866
КА: Хорошо Стюарт. Я очень надеюсь,
17:25
I really, really hope you figure this out for us.
353
1045989
2314
что вы разберётесь с этим ради нас.
17:28
Thank you so much for that talk. That was amazing.
354
1048327
2375
Большое спасибо за выступление. Это было потрясающе.
17:30
SR: Thank you.
355
1050726
1167
СР: Спасибо.
17:31
(Applause)
356
1051917
1837
(Аплодисменты)
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7