How to get empowered, not overpowered, by AI | Max Tegmark

127,885 views ・ 2018-07-05

TED


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

Переводчик: Elena Malykh Редактор: Natalia Ost
00:12
After 13.8 billion years of cosmic history,
0
12760
4416
Спустя 13 миллиардов 800 миллионов лет с начала истории космоса
00:17
our universe has woken up
1
17200
2096
наша вселенная проснулась
00:19
and become aware of itself.
2
19320
1520
и осознала себя.
00:21
From a small blue planet,
3
21480
1936
С маленькой голубой планеты
00:23
tiny, conscious parts of our universe have begun gazing out into the cosmos
4
23440
4136
крошечные сознательные частички вселенной начали пристально всматриваться в космос
00:27
with telescopes,
5
27600
1376
через телескопы и увидели нечто, по сравнению с чем, они совсем малы.
00:29
discovering something humbling.
6
29000
1480
00:31
We've discovered that our universe is vastly grander
7
31320
2896
Мы увидели, что наш мир неизмеримо больше,
00:34
than our ancestors imagined
8
34240
1336
чем воображали наши предки,
00:35
and that life seems to be an almost imperceptibly small perturbation
9
35600
4256
и что жизнь кажется невообразимо маленьким колебанием
00:39
on an otherwise dead universe.
10
39880
1720
во всей остальной мёртвой вселенной.
00:42
But we've also discovered something inspiring,
11
42320
3016
Но мы также открыли нечто вдохновляющее,
00:45
which is that the technology we're developing has the potential
12
45360
2976
то, что развиваемые нами технологии имеют потенциал,
00:48
to help life flourish like never before,
13
48360
2856
чтобы помочь жизни расцвести, как никогда раньше,
00:51
not just for centuries but for billions of years,
14
51240
3096
не только в течение столетий, но и миллиардов лет,
00:54
and not just on earth but throughout much of this amazing cosmos.
15
54360
4120
не только на земле, но и на большей части удивительного космического пространства.
00:59
I think of the earliest life as "Life 1.0"
16
59680
3336
Я думаю о самой ранней форме жизни, как о «Жизни 1.0»,
01:03
because it was really dumb,
17
63040
1376
так как она была безмозглой,
01:04
like bacteria, unable to learn anything during its lifetime.
18
64440
4296
как бактерия, которая не в состоянии ничему научиться за всю свою жизнь.
01:08
I think of us humans as "Life 2.0" because we can learn,
19
68760
3376
Я думаю о нас, о людях, как о «Жизни 2.0», потому что мы умеем учиться,
01:12
which we in nerdy, geek speak,
20
72160
1496
говоря скучным языком зануд,
01:13
might think of as installing new software into our brains,
21
73680
3216
назовём установкой нового ПО в наш мозг,
01:16
like languages and job skills.
22
76920
2120
например, языков и профессиональных навыков.
01:19
"Life 3.0," which can design not only its software but also its hardware
23
79680
4296
«Жизнь 3.0», которая сможет создавать не только программы, но и «железо»,
01:24
of course doesn't exist yet.
24
84000
1656
конечно же, ещё не существует.
01:25
But perhaps our technology has already made us "Life 2.1,"
25
85680
3776
Но, возможно, наши технологии создали для нас «Жизнь 2.1»
01:29
with our artificial knees, pacemakers and cochlear implants.
26
89480
4336
с искусственными коленными суставами, стимуляторами и кохлеарными имплантами.
01:33
So let's take a closer look at our relationship with technology, OK?
27
93840
3880
Но давайте рассмотрим наши взаимоотношения с технологиями.
01:38
As an example,
28
98800
1216
К примеру,
01:40
the Apollo 11 moon mission was both successful and inspiring,
29
100040
5296
лунная миссия Аполлон 11 была и успешной, и вдохновляющей,
01:45
showing that when we humans use technology wisely,
30
105360
3016
она показала, что когда мы, люди, разумно используем технологии,
01:48
we can accomplish things that our ancestors could only dream of.
31
108400
3936
то можем достичь таких результатов, о которых наши предки могли лишь мечтать.
01:52
But there's an even more inspiring journey
32
112360
2976
Но существует даже более вдохновляющее путешествие,
01:55
propelled by something more powerful than rocket engines,
33
115360
2680
движимое чем-то более мощным, чем ракетные двигатели,
01:59
where the passengers aren't just three astronauts
34
119200
2336
где пассажирами являются не просто три астронавта,
02:01
but all of humanity.
35
121560
1776
а всё человечество.
02:03
Let's talk about our collective journey into the future
36
123360
2936
Давайте поговорим о нашем совместном пути в будущее,
02:06
with artificial intelligence.
37
126320
2000
будущее с искусственным интеллектом.
02:08
My friend Jaan Tallinn likes to point out that just as with rocketry,
38
128960
4536
Мой друг Яан Таллинн любит отмечать, что, как и с ракетной индустрией,—
02:13
it's not enough to make our technology powerful.
39
133520
3160
этого недостаточно, чтобы сделать наши технологии мощными.
02:17
We also have to figure out, if we're going to be really ambitious,
40
137560
3175
Мы также должны понять, если хотим ставить перед собой высокие цели,
02:20
how to steer it
41
140759
1416
как ими управлять,
02:22
and where we want to go with it.
42
142199
1681
и куда мы хотим с ними пойти.
02:24
So let's talk about all three for artificial intelligence:
43
144880
2840
Итак, давайте мы обсудим все три пункта, касающиеся ИИ:
02:28
the power, the steering and the destination.
44
148440
3056
мощность, управление и назначение.
02:31
Let's start with the power.
45
151520
1286
Начнём с мощности:
02:33
I define intelligence very inclusively --
46
153600
3096
я даю обобщённое определение интеллекта —
02:36
simply as our ability to accomplish complex goals,
47
156720
4336
как нашей способности достигать сложных целей,
02:41
because I want to include both biological and artificial intelligence.
48
161080
3816
потому что я хочу объединить биологический и искусственный интеллект.
02:44
And I want to avoid the silly carbon-chauvinism idea
49
164920
4016
Я не хочу фанатично следовать глупой углеродо-центричной идее,
02:48
that you can only be smart if you're made of meat.
50
168960
2360
что умным бывает, только то, что состоит из мяса.
02:52
It's really amazing how the power of AI has grown recently.
51
172880
4176
Поразительно, как сегодня выросла мощь искусственного интеллекта.
02:57
Just think about it.
52
177080
1256
Только вдумайтесь.
02:58
Not long ago, robots couldn't walk.
53
178360
3200
Не так давно роботы не умели ходить.
03:03
Now, they can do backflips.
54
183040
1720
Теперь они делают сальто назад.
03:06
Not long ago,
55
186080
1816
Не так давно у нас не было
03:07
we didn't have self-driving cars.
56
187920
1760
беспилотных автомобилей.
03:10
Now, we have self-flying rockets.
57
190920
2480
Теперь у нас есть беспилотные ракеты.
03:15
Not long ago,
58
195960
1416
Не так давно
03:17
AI couldn't do face recognition.
59
197400
2616
ИИ не мог распознавать лица.
03:20
Now, AI can generate fake faces
60
200040
2976
Теперь ИИ может генерировать несуществующие лица
03:23
and simulate your face saying stuff that you never said.
61
203040
4160
и имитировать ваше лицо, вкладывая вам в уста чужие слова.
03:28
Not long ago,
62
208400
1576
Не так давно
03:30
AI couldn't beat us at the game of Go.
63
210000
1880
ИИ не мог обыграть нас в игре в го.
03:32
Then, Google DeepMind's AlphaZero AI took 3,000 years of human Go games
64
212400
5096
Затем ИИ Alpha Zero от Google Deep Mind взял 3000-летний опыт людей игры в го
03:37
and Go wisdom,
65
217520
1256
и всю мудрость этой игры,
03:38
ignored it all and became the world's best player by just playing against itself.
66
218800
4976
всем этим пренебрёг и стал лидером, играя лишь против себя.
03:43
And the most impressive feat here wasn't that it crushed human gamers,
67
223800
3696
И самым впечатляющим был не тот факт, что он нанёс поражение игрокам,
03:47
but that it crushed human AI researchers
68
227520
2576
но то, что он сокрушил самих учёных, занимающихся ИИ,
03:50
who had spent decades handcrafting game-playing software.
69
230120
3680
тех, кто положил на это десятилетия, создавая вручную программное обеспечение.
03:54
And AlphaZero crushed human AI researchers not just in Go but even at chess,
70
234200
4656
И Alpha Zero победил исследователей ИИ не только в го, но даже и в шахматах,
03:58
which we have been working on since 1950.
71
238880
2480
над которыми мы работали, начиная с 1950 года.
04:02
So all this amazing recent progress in AI really begs the question:
72
242000
4240
И поэтому этот недавний прогресс в ИИ заставляет нас поднять вопрос:
04:07
How far will it go?
73
247280
1560
куда всё это ведёт?
04:09
I like to think about this question
74
249800
1696
Я люблю думать над этим вопросом,
04:11
in terms of this abstract landscape of tasks,
75
251520
2976
исходя из этого абстрактного ландшафта задач,
04:14
where the elevation represents how hard it is for AI to do each task
76
254520
3456
где подъём означает то, насколько трудно для ИИ выполнять каждую задачу
04:18
at human level,
77
258000
1216
так, как делает человек,
04:19
and the sea level represents what AI can do today.
78
259240
2760
а уровень моря показывает то, что ИИ может делать уже сегодня.
04:23
The sea level is rising as AI improves,
79
263120
2056
С развитием ИИ повышается уровень моря;
04:25
so there's a kind of global warming going on here in the task landscape.
80
265200
3440
в этом ландшафте задач происходит что-то наподобие глобального потепления.
04:30
And the obvious takeaway is to avoid careers at the waterfront --
81
270040
3335
Очевидный вывод — избегать занятий на береговой линии,
04:33
(Laughter)
82
273399
1257
(Смех)
04:34
which will soon be automated and disrupted.
83
274680
2856
которая очень скоро будет автоматизирована и разрушена.
04:37
But there's a much bigger question as well.
84
277560
2976
Но здесь возникает более важный вопрос.
04:40
How high will the water end up rising?
85
280560
1810
Насколько высоко поднимется вода?
04:43
Will it eventually rise to flood everything,
86
283440
3200
Повысится ли её уровень в итоге до всеобщего затопления,
04:47
matching human intelligence at all tasks.
87
287840
2496
соперничая с интеллектом человека во всех заданиях?
04:50
This is the definition of artificial general intelligence --
88
290360
3736
Это — определение сильного искусственного интеллекта —
04:54
AGI,
89
294120
1296
СИИ,
04:55
which has been the holy grail of AI research since its inception.
90
295440
3080
который с самого начала был святым Граалем исследований по ИИ.
04:59
By this definition, people who say,
91
299000
1776
Исходя из этого, те, кто говорит:
05:00
"Ah, there will always be jobs that humans can do better than machines,"
92
300800
3416
«Да, всегда будет работа, которую люди смогут делать лучше машин», —
05:04
are simply saying that we'll never get AGI.
93
304240
2920
попросту говорят о том, что у нас никогда не будет СИИ.
05:07
Sure, we might still choose to have some human jobs
94
307680
3576
Конечно, возможно, мы всё ещё выбираем для себя работу, выполняемую людьми,
05:11
or to give humans income and purpose with our jobs,
95
311280
3096
или даём людям цель и доход, в наших человеческих профессиях;
05:14
but AGI will in any case transform life as we know it
96
314400
3736
но СИИ, в любом случае превратит нашу жизнь, какой мы знаем, в ту жизнь,
05:18
with humans no longer being the most intelligent.
97
318160
2736
в которой люди больше не будут самыми умными существами.
05:20
Now, if the water level does reach AGI,
98
320920
3696
Итак, если уровень воды действительно достигает СИИ,
05:24
then further AI progress will be driven mainly not by humans but by AI,
99
324640
5296
затем дальнейший прогресс ИИ будет движим не людьми, а самим ИИ,
05:29
which means that there's a possibility
100
329960
1856
это значит, что есть возможность того,
05:31
that further AI progress could be way faster
101
331840
2336
что дальнейший прогресс ИИ будет более быстрым,
05:34
than the typical human research and development timescale of years,
102
334200
3376
чем типовые исследования учёных и временны́е рассчёты развития,
05:37
raising the controversial possibility of an intelligence explosion
103
337600
4016
что увеличит неоднозначную возможность интеллектуального взрыва,
05:41
where recursively self-improving AI
104
341640
2296
где рекуррентно самоулучшающийся ИИ
05:43
rapidly leaves human intelligence far behind,
105
343960
3416
быстро обгоняет человеческий интеллект,
05:47
creating what's known as superintelligence.
106
347400
2440
создавая так называемый суперинтеллект.
05:51
Alright, reality check:
107
351800
2280
Хорошо, давайте реально оценим ситуацию.
05:55
Are we going to get AGI any time soon?
108
355120
2440
Достигнем ли мы уровня СИИ в ближайшее время?
05:58
Some famous AI researchers, like Rodney Brooks,
109
358360
2696
Некоторые известные учёные, такие как Родни Брукс,
06:01
think it won't happen for hundreds of years.
110
361080
2496
считают, что в ближайшие столетия этого не будет.
06:03
But others, like Google DeepMind founder Demis Hassabis,
111
363600
3896
Но другие, такие как Демис Хассабис, основатель Google Deep Mind,
06:07
are more optimistic
112
367520
1256
более оптимистичны:
06:08
and are working to try to make it happen much sooner.
113
368800
2576
они делают всё, чтобы это произошло быстрее.
06:11
And recent surveys have shown that most AI researchers
114
371400
3296
Недавние опросы показали, что большинство исследователей ИИ
06:14
actually share Demis's optimism,
115
374720
2856
на самом деле разделяют оптимизм Демиса,
06:17
expecting that we will get AGI within decades,
116
377600
3080
ожидая того, что мы достигнем уровня СИИ в ближайшие десятилетия,
06:21
so within the lifetime of many of us,
117
381640
2256
то есть многие из нас это застанут.
06:23
which begs the question -- and then what?
118
383920
1960
Возникает вопрос: а что потом?
06:27
What do we want the role of humans to be
119
387040
2216
Какой мы хотим видеть роль людей,
06:29
if machines can do everything better and cheaper than us?
120
389280
2680
если машины смогут делать всё лучше и дешевле, чем мы?
06:35
The way I see it, we face a choice.
121
395000
2000
Я вижу это так: мы стоим перед выбором.
06:38
One option is to be complacent.
122
398000
1576
Одно из решений — самодовольство.
06:39
We can say, "Oh, let's just build machines that can do everything we can do
123
399600
3776
Мы можем говорить: «Да, давайте создавать машины, делающие всё за нас,
06:43
and not worry about the consequences.
124
403400
1816
и не беспокоиться о последствиях.
06:45
Come on, if we build technology that makes all humans obsolete,
125
405240
3256
Да что вы, если создать технологии, которые делают людей ненужными,
06:48
what could possibly go wrong?"
126
408520
2096
что может пойти не так?»
06:50
(Laughter)
127
410640
1656
(Смех)
06:52
But I think that would be embarrassingly lame.
128
412320
2760
Но я думаю, что это было бы чрезвычайно неубедительно.
06:56
I think we should be more ambitious -- in the spirit of TED.
129
416080
3496
Я думаю, что мы должны быть более амбициозными, в духе TED.
06:59
Let's envision a truly inspiring high-tech future
130
419600
3496
Давайте представим вдохновляющее высокотехнологичное будущее
07:03
and try to steer towards it.
131
423120
1400
и будем двигаться туда.
07:05
This brings us to the second part of our rocket metaphor: the steering.
132
425720
3536
Это приведёт нас ко второй части нашей ракетной метафоры: управление.
07:09
We're making AI more powerful,
133
429280
1896
Мы делаем ИИ более мощным,
07:11
but how can we steer towards a future
134
431200
3816
но как мы сможем двигаться к будущему,
07:15
where AI helps humanity flourish rather than flounder?
135
435040
3080
где ИИ помогает человечеству процветать, а не мешает развитию?
07:18
To help with this,
136
438760
1256
Чтобы помочь этому,
07:20
I cofounded the Future of Life Institute.
137
440040
1976
мы основали институт Будущего Жизни.
07:22
It's a small nonprofit promoting beneficial technology use,
138
442040
2776
Он небольшой, некоммерческий, поощряет полезные технологии.
07:24
and our goal is simply for the future of life to exist
139
444840
2736
Наша цель проста — чтобы будущая жизнь существовала
07:27
and to be as inspiring as possible.
140
447600
2056
и была как можно более вдохновляющей.
07:29
You know, I love technology.
141
449680
3176
Вы знаете, я люблю технологии.
07:32
Technology is why today is better than the Stone Age.
142
452880
2920
Из-за них мы живём лучше, чем в каменном веке.
07:36
And I'm optimistic that we can create a really inspiring high-tech future ...
143
456600
4080
Я — оптимист потому, что мы можем творить вдохновляюще высокотехнологичное будущее,
07:41
if -- and this is a big if --
144
461680
1456
если — и это большое если —
07:43
if we win the wisdom race --
145
463160
2456
если мы выиграем гонку мудрости —
07:45
the race between the growing power of our technology
146
465640
2856
гонку между растущей мощью наших технологий
07:48
and the growing wisdom with which we manage it.
147
468520
2200
и мудростью, помогающей нам ими управлять.
07:51
But this is going to require a change of strategy
148
471240
2296
Но это требует изменения стратегии,
07:53
because our old strategy has been learning from mistakes.
149
473560
3040
потому что по старой стратегии мы учились на своих ошибках.
07:57
We invented fire,
150
477280
1536
Мы изобрели огонь,
07:58
screwed up a bunch of times --
151
478840
1536
много раз ошибались,
08:00
invented the fire extinguisher.
152
480400
1816
изобрели огнетушитель.
08:02
(Laughter)
153
482240
1336
(Смех)
08:03
We invented the car, screwed up a bunch of times --
154
483600
2416
Мы изобрели автомобиль, напортачили много раз —
08:06
invented the traffic light, the seat belt and the airbag,
155
486040
2667
изобрели светофор, ремни и подушку безопасности.
08:08
but with more powerful technology like nuclear weapons and AGI,
156
488731
3845
Но с более мощными технологиями, такими как ядерное оружие и СИИ,
08:12
learning from mistakes is a lousy strategy,
157
492600
3376
учиться на ошибках — это проигрышная стратегия,
08:16
don't you think?
158
496000
1216
как вы думаете?
08:17
(Laughter)
159
497240
1016
(Смех)
08:18
It's much better to be proactive rather than reactive;
160
498280
2576
Гораздо лучше упреждать, чем исправлять последствия:
08:20
plan ahead and get things right the first time
161
500880
2296
планировать заранее, не допуская ошибок,
08:23
because that might be the only time we'll get.
162
503200
2496
посколько другого раза может и не быть.
08:25
But it is funny because sometimes people tell me,
163
505720
2336
Но это забавно, потому что иногда мне говорят:
08:28
"Max, shhh, don't talk like that.
164
508080
2736
«Макс, тсс..., не говори так.
08:30
That's Luddite scaremongering."
165
510840
1720
Это запугивание в духе луддитов».
08:34
But it's not scaremongering.
166
514040
1536
Но это не запугивание.
08:35
It's what we at MIT call safety engineering.
167
515600
2880
Это то, что мы в МТИ называем инженерной безопасностью.
08:39
Think about it:
168
519200
1216
Подумайте об этом:
08:40
before NASA launched the Apollo 11 mission,
169
520440
2216
до того, как НАСА запустили проект Аполлон 11,
08:42
they systematically thought through everything that could go wrong
170
522680
3136
они постоянно продумывали варианты, когда что-то пойдёт не так,
08:45
when you put people on top of explosive fuel tanks
171
525840
2376
прежде чем посадить людей на топливный бак
08:48
and launch them somewhere where no one could help them.
172
528240
2616
и запустить их куда-то, где никто не может им помочь.
08:50
And there was a lot that could go wrong.
173
530880
1936
Было много всего, что могло пойти не так.
08:52
Was that scaremongering?
174
532840
1480
Было ли это запугиванием?
08:55
No.
175
535159
1217
Нет.
08:56
That's was precisely the safety engineering
176
536400
2016
Именно это было инженерной безопасностью,
08:58
that ensured the success of the mission,
177
538440
1936
которая обеспечила успех миссии,
09:00
and that is precisely the strategy I think we should take with AGI.
178
540400
4176
именно такой стратегия с СИИ мы должны придерживаться.
09:04
Think through what can go wrong to make sure it goes right.
179
544600
4056
Подумайте, что может пойти не так, чтобы быть уверенными, что всё получится.
09:08
So in this spirit, we've organized conferences,
180
548680
2536
В этом духе мы и организовали конференции,
09:11
bringing together leading AI researchers and other thinkers
181
551240
2816
объединив ведущих исследователей ИИ и других мыслителей,
09:14
to discuss how to grow this wisdom we need to keep AI beneficial.
182
554080
3736
чтобы обсудить то, как взрастить мудрость, и сделать ИИ полезным для нас.
09:17
Our last conference was in Asilomar, California last year
183
557840
3296
На нашей последней конференции, состоявшейся в Асиломаре, Калифорния,
09:21
and produced this list of 23 principles
184
561160
3056
в прошлом году был выработан список из 23-х принципов,
09:24
which have since been signed by over 1,000 AI researchers
185
564240
2896
подписанный более 1 000 учёными, исследователями ИИ
09:27
and key industry leaders,
186
567160
1296
и лидерами ведущих отраслей;
09:28
and I want to tell you about three of these principles.
187
568480
3176
и я хочу рассказать вам о трёх из этих принципов.
09:31
One is that we should avoid an arms race and lethal autonomous weapons.
188
571680
4960
Первый: избегать гонки вооружений и автономных систем летального вооружения.
09:37
The idea here is that any science can be used for new ways of helping people
189
577480
3616
Смысл здесь в том, что любую науку можно использовать для помощи людям
09:41
or new ways of harming people.
190
581120
1536
или для нанесения им вреда.
09:42
For example, biology and chemistry are much more likely to be used
191
582680
3936
Например, биологию и химию, скорее всего, будут использовать
09:46
for new medicines or new cures than for new ways of killing people,
192
586640
4856
для создания новых лекарств и методов лечения, а не новых способов убийства,
09:51
because biologists and chemists pushed hard --
193
591520
2176
потому что биологи и химики изо всех сил —
09:53
and successfully --
194
593720
1256
и успешно — проталкивают
09:55
for bans on biological and chemical weapons.
195
595000
2176
запрет биологического и химического оружия.
09:57
And in the same spirit,
196
597200
1256
Точно так же
09:58
most AI researchers want to stigmatize and ban lethal autonomous weapons.
197
598480
4440
многие учёные хотят заклеймить и запретить автономные летальные комплексы.
10:03
Another Asilomar AI principle
198
603600
1816
Второй Асиломарский принцип по ИИ —
10:05
is that we should mitigate AI-fueled income inequality.
199
605440
3696
это то, что мы должны уменьшить неравенство в доходах, усиленное ИИ.
10:09
I think that if we can grow the economic pie dramatically with AI
200
609160
4456
Думаю, что если возможно при посредстве ИИ значительно увеличить экономический пирог,
10:13
and we still can't figure out how to divide this pie
201
613640
2456
и мы всё ещё не знаем, как разделить этот пирог,
10:16
so that everyone is better off,
202
616120
1576
чтобы каждый из нас жил достойно,
10:17
then shame on us.
203
617720
1256
то нам должно быть стыдно.
10:19
(Applause)
204
619000
4096
(Аплодисменты)
10:23
Alright, now raise your hand if your computer has ever crashed.
205
623120
3600
Хорошо, поднимите руки, если у вас был сбой в работе компьютера.
10:27
(Laughter)
206
627480
1256
(Смех)
10:28
Wow, that's a lot of hands.
207
628760
1656
О, лес рук.
10:30
Well, then you'll appreciate this principle
208
630440
2176
Да, тогда вы оцените этот принцип,
10:32
that we should invest much more in AI safety research,
209
632640
3136
и то, что мы должны вкладывать больше средств в безопасность ИИ,
10:35
because as we put AI in charge of even more decisions and infrastructure,
210
635800
3656
так как мы делаем ИИ более ответственным за решения и инфраструктуру.
10:39
we need to figure out how to transform today's buggy and hackable computers
211
639480
3616
Нам нужно определить, как переделать современный ненадёжный компьютер
10:43
into robust AI systems that we can really trust,
212
643120
2416
в сильные системы ИИ, которым мы можем доверять,
10:45
because otherwise,
213
645560
1216
в противном случае,
10:46
all this awesome new technology can malfunction and harm us,
214
646800
2816
вся эта потрясающая техника не сработает и навредит нам,
10:49
or get hacked and be turned against us.
215
649640
1976
или её взломают и направят против нас.
10:51
And this AI safety work has to include work on AI value alignment,
216
651640
5696
И эта работа по безопасности ИИ должна включать и выравнивание ценностей,
10:57
because the real threat from AGI isn't malice,
217
657360
2816
потому что реальная угроза от ИИ — это не зло, как показано
11:00
like in silly Hollywood movies,
218
660200
1656
в глупых голливудских фильмах,
11:01
but competence --
219
661880
1736
а способности —
11:03
AGI accomplishing goals that just aren't aligned with ours.
220
663640
3416
СИИ достигает целей, которые никак не согласуются с нашими.
11:07
For example, when we humans drove the West African black rhino extinct,
221
667080
4736
Когда в результате нашей деятельности исчезли чёрные африканские носороги,
11:11
we didn't do it because we were a bunch of evil rhinoceros haters, did we?
222
671840
3896
мы делали это не потому, что ненавидели носорогов, не так ли?
11:15
We did it because we were smarter than them
223
675760
2056
Мы это делали, поскольку были умнее их
11:17
and our goals weren't aligned with theirs.
224
677840
2576
и наши цели не соответствовали их целям.
11:20
But AGI is by definition smarter than us,
225
680440
2656
Но СИИ по определению умнее нас,
11:23
so to make sure that we don't put ourselves in the position of those rhinos
226
683120
3576
и чтобы наверняка не поставить себя в положение носорогов,
11:26
if we create AGI,
227
686720
1976
если мы создадим СИИ,
11:28
we need to figure out how to make machines understand our goals,
228
688720
4176
нам нужно определить, как заставить машины понимать наши цели,
11:32
adopt our goals and retain our goals.
229
692920
3160
принимать наши цели и придерживаться их.
11:37
And whose goals should these be, anyway?
230
697320
2856
И в любом случае, чьими целями они должны быть?
11:40
Which goals should they be?
231
700200
1896
Какими целями они должны быть?
11:42
This brings us to the third part of our rocket metaphor: the destination.
232
702120
3560
Это приводит нас к третьей части нашего сравнения с ракетой: назначение.
11:47
We're making AI more powerful,
233
707160
1856
Мы делаем ИИ более мощным,
11:49
trying to figure out how to steer it,
234
709040
1816
пытаясь понять, как им управлять,
11:50
but where do we want to go with it?
235
710880
1680
но куда мы с ним направимся?
11:53
This is the elephant in the room that almost nobody talks about --
236
713760
3656
Это слон в комнате, о котором почти никто не говорит —
11:57
not even here at TED --
237
717440
1856
даже здесь, на конференции TED —
11:59
because we're so fixated on short-term AI challenges.
238
719320
4080
потому что мы так одержимы краткосрочными проблемами с ИИ.
12:04
Look, our species is trying to build AGI,
239
724080
4656
Смотрите, человечество пытается построить СИИ,
12:08
motivated by curiosity and economics,
240
728760
3496
оно мотивировано любопытством и экономическими причинами,
12:12
but what sort of future society are we hoping for if we succeed?
241
732280
3680
но какое общество будущего мы надеемся увидеть, если это произойдёт?
12:16
We did an opinion poll on this recently,
242
736680
1936
Недавно мы сделали опрос на эту тему,
12:18
and I was struck to see
243
738640
1216
и я был поражён тем,
12:19
that most people actually want us to build superintelligence:
244
739880
2896
что большинство людей хотят построить суперразум:
12:22
AI that's vastly smarter than us in all ways.
245
742800
3160
ИИ — это то, что безусловно умнее нас во всех отношениях.
12:27
What there was the greatest agreement on was that we should be ambitious
246
747120
3416
Большинство было согласно с тем, что мы должны быть целеустремлёнными
12:30
and help life spread into the cosmos,
247
750560
2016
и помочь жизни распространиться в космос,
12:32
but there was much less agreement about who or what should be in charge.
248
752600
4496
но было намного меньше согласия в том, кто должен отвечать за это.
12:37
And I was actually quite amused
249
757120
1736
И я был даже изумлён,
12:38
to see that there's some some people who want it to be just machines.
250
758880
3456
когда понял, что есть те, кто желает, чтобы это были просто машины.
12:42
(Laughter)
251
762360
1696
(Смех)
12:44
And there was total disagreement about what the role of humans should be,
252
764080
3856
И было полное несогласие насчёт роли людей в этом процессе,
12:47
even at the most basic level,
253
767960
1976
даже на самом элементарном уровне.
12:49
so let's take a closer look at possible futures
254
769960
2816
Итак, давайте рассмотрим возможные варианты будущего,
12:52
that we might choose to steer toward, alright?
255
772800
2736
которые, может быть, мы выберем, чтобы идти к ним, хорошо?
12:55
So don't get me wrong here.
256
775560
1336
Поймите меня правильно.
12:56
I'm not talking about space travel,
257
776920
2056
Я не говорю о космическом путешествии,
12:59
merely about humanity's metaphorical journey into the future.
258
779000
3200
не просто о метафорическом путешествии человечества в будущее.
13:02
So one option that some of my AI colleagues like
259
782920
3496
И один из вариантов, который нравится моим коллегам по ИИ —
13:06
is to build superintelligence and keep it under human control,
260
786440
3616
это построить суперинтеллект и держать его под контролем человека,
13:10
like an enslaved god,
261
790080
1736
как порабощённого бога,
13:11
disconnected from the internet
262
791840
1576
оторванного от интернета
13:13
and used to create unimaginable technology and wealth
263
793440
3256
и используемого для создания невообразимых технологий и благосостояния,
13:16
for whoever controls it.
264
796720
1240
для всех, кто его контролирует.
13:18
But Lord Acton warned us
265
798800
1456
Но лорд Актон предупредил нас
13:20
that power corrupts, and absolute power corrupts absolutely,
266
800280
3616
о том, что власть развращает, а абсолютная власть развращает абсолютно;
13:23
so you might worry that maybe we humans just aren't smart enough,
267
803920
4056
поэтому вы, наверное, беспокоитесь о том, что люди недостаточно умны
13:28
or wise enough rather,
268
808000
1536
или даже недостаточно мудры,
13:29
to handle this much power.
269
809560
1240
чтобы управлять этой силой.
13:31
Also, aside from any moral qualms you might have
270
811640
2536
Ещё, кроме моральных сомнений, которые у вас могут быть
13:34
about enslaving superior minds,
271
814200
2296
по поводу порабощения превосходящего нас интеллекта,
13:36
you might worry that maybe the superintelligence could outsmart us,
272
816520
3976
вас может беспокоить, что, возможно, суперинтеллект переиграет нас,
13:40
break out and take over.
273
820520
2240
уйдёт из-под контроля и одержит над нами верх.
13:43
But I also have colleagues who are fine with AI taking over
274
823560
3416
Но у меня есть коллеги, которые нормально относятся к победе ИИ,
13:47
and even causing human extinction,
275
827000
2296
даже если это приведёт к исчезновению людей,
13:49
as long as we feel the the AIs are our worthy descendants,
276
829320
3576
до тех пор пока мы чувствуем, что ИИ — наследники, достойные нас,
13:52
like our children.
277
832920
1736
как наши дети.
13:54
But how would we know that the AIs have adopted our best values
278
834680
5616
Но как мы узнаем, что ИИ принял наши главные ценности,
14:00
and aren't just unconscious zombies tricking us into anthropomorphizing them?
279
840320
4376
и они не бессознательные зомби, которые только хотят казаться нам антропоморфными?
14:04
Also, shouldn't those people who don't want human extinction
280
844720
2856
Должны ли те люди, которые не хотят уничтожения человечества,
14:07
have a say in the matter, too?
281
847600
1440
также иметь право голоса?
14:10
Now, if you didn't like either of those two high-tech options,
282
850200
3376
Итак, если вам не нравится ни один из высокотехнологичных вариантов,
14:13
it's important to remember that low-tech is suicide
283
853600
3176
важно помнить, что устаревшие технологии — это самоубийство
14:16
from a cosmic perspective,
284
856800
1256
с глобальной точки зрения,
14:18
because if we don't go far beyond today's technology,
285
858080
2496
так как, если мы не опережаем современные технологии,
14:20
the question isn't whether humanity is going to go extinct,
286
860600
2816
вопрос не в том, исчезнет ли человечество,
14:23
merely whether we're going to get taken out
287
863440
2016
будем ли мы просто уничтожены
14:25
by the next killer asteroid, supervolcano
288
865480
2136
очередным убийцей-астероидом, супервулканом
14:27
or some other problem that better technology could have solved.
289
867640
3096
или другой проблемой, которая решалась бы с помощью технологий.
14:30
So, how about having our cake and eating it ...
290
870760
3576
Итак, как насчёт того, чтобы получить всё и сразу
14:34
with AGI that's not enslaved
291
874360
1840
с помощью СИИ, который не порабощён,
14:37
but treats us well because its values are aligned with ours?
292
877120
3176
но хорошо ведёт себя с нами, так как разделяет наши ценности?
14:40
This is the gist of what Eliezer Yudkowsky has called "friendly AI,"
293
880320
4176
В этом смысл того, что Элиезер Юдковский назвал «дружественным ИИ»,
14:44
and if we can do this, it could be awesome.
294
884520
2680
и если мы можем это сделать, было бы замечательно.
14:47
It could not only eliminate negative experiences like disease, poverty,
295
887840
4816
Он мог бы не только устранить такие явления, как болезни и бедность,
14:52
crime and other suffering,
296
892680
1456
преступления и страдания,
14:54
but it could also give us the freedom to choose
297
894160
2816
но и дал бы нам свободу выбора,
14:57
from a fantastic new diversity of positive experiences --
298
897000
4056
исходя из нового фантастического разнообразия положительного опыта —
15:01
basically making us the masters of our own destiny.
299
901080
3160
по существу, делая нас хозяевами своей судьбы.
15:06
So in summary,
300
906280
1376
Подводя итоги, хочу сказать,
15:07
our situation with technology is complicated,
301
907680
3096
что у нас сложная ситуация с технологиями,
15:10
but the big picture is rather simple.
302
910800
2416
но общая картина достаточно проста.
15:13
Most AI researchers expect AGI within decades,
303
913240
3456
Большинство учёных ожидают создания СИИ в ближайшие десятилетия,
15:16
and if we just bumble into this unprepared,
304
916720
3136
и если к его появлению мы не будем подготовленными,
15:19
it will probably be the biggest mistake in human history --
305
919880
3336
это будет величайшей ошибкой в истории человечества —
15:23
let's face it.
306
923240
1416
давайте это признаем.
15:24
It could enable brutal, global dictatorship
307
924680
2576
Это может сделать возможным жёсткую глобальную диктатуру
15:27
with unprecedented inequality, surveillance and suffering,
308
927280
3536
с беспрецедентным неравенством, слежкой и страданиями,
15:30
and maybe even human extinction.
309
930840
1976
и, возможно, даже с исчезновением человечества.
15:32
But if we steer carefully,
310
932840
2320
Но если мы будем разумно следовать нашему курсу,
15:36
we could end up in a fantastic future where everybody's better off:
311
936040
3896
мы окажемся в фантастическом будущем, где каждому будет хорошо:
15:39
the poor are richer, the rich are richer,
312
939960
2376
бедные будут богаче, богатые будут богаче,
15:42
everybody is healthy and free to live out their dreams.
313
942360
3960
каждый будет здоровым и будет жить так, как мечтает.
15:47
Now, hang on.
314
947000
1536
А теперь послушайте.
15:48
Do you folks want the future that's politically right or left?
315
948560
4576
Ребята, хотите ли вы политически правого или левого будущего?
15:53
Do you want the pious society with strict moral rules,
316
953160
2856
Жить в ханжеском обществе со строгими моральными правилами
15:56
or do you an hedonistic free-for-all,
317
956040
1816
или в обществе «свободы для всех»,
15:57
more like Burning Man 24/7?
318
957880
2216
как на фестивале Burning Man в режиме 24/7?
16:00
Do you want beautiful beaches, forests and lakes,
319
960120
2416
Хотите ли прекрасные пляжи, леса и озёра,
16:02
or would you prefer to rearrange some of those atoms with the computers,
320
962560
3416
или предпочли бы с помощью компьютера переместить кое-какие атомы,
сделав виртуальное реальным.
16:06
enabling virtual experiences?
321
966000
1715
16:07
With friendly AI, we could simply build all of these societies
322
967739
3157
С дружественным ИИ мы можем просто построить эти общества
16:10
and give people the freedom to choose which one they want to live in
323
970920
3216
и дать людям свободу выбора того общества, где они хотят жить,
16:14
because we would no longer be limited by our intelligence,
324
974160
3096
потому что мы больше не будем ограничены своим интеллектом,
16:17
merely by the laws of physics.
325
977280
1456
а только законами физики.
16:18
So the resources and space for this would be astronomical --
326
978760
4616
Поэтому ресурсы и пространство для этого будут астрономическими —
16:23
literally.
327
983400
1320
в буквальном смысле слова.
16:25
So here's our choice.
328
985320
1200
Вот какой у нас выбор.
16:27
We can either be complacent about our future,
329
987880
2320
Мы либо можем быть довольными своим будущим,
16:31
taking as an article of blind faith
330
991440
2656
принимая на веру то,
16:34
that any new technology is guaranteed to be beneficial,
331
994120
4016
что любая новая технология наверняка будет полезной,
16:38
and just repeat that to ourselves as a mantra over and over and over again
332
998160
4136
и повторять это снова и снова, как мантру,
16:42
as we drift like a rudderless ship towards our own obsolescence.
333
1002320
3680
как будто мы плывём на корабле без руля к своему исчезновению.
16:46
Or we can be ambitious --
334
1006920
1880
Либо мы можем быть целеустремлёнными,
16:49
thinking hard about how to steer our technology
335
1009840
2456
продумывая то, как управлять нашими технологиями
16:52
and where we want to go with it
336
1012320
1936
и в каком направлении с ними двигаться,
16:54
to create the age of amazement.
337
1014280
1760
чтобы создать изумительную эпоху.
16:57
We're all here to celebrate the age of amazement,
338
1017000
2856
Мы здесь для того, чтобы прославлять изумительную эпоху,
16:59
and I feel that its essence should lie in becoming not overpowered
339
1019880
4440
и я чувствую, что его суть должна заключаться не в том,
чтобы уступить технологиям, а чтобы с их помощью стать сильнее.
17:05
but empowered by our technology.
340
1025240
2616
17:07
Thank you.
341
1027880
1376
Спасибо.
17:09
(Applause)
342
1029280
3080
(Аплодисменты)
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7