What Is an AI Anyway? | Mustafa Suleyman | TED

1,681,587 views ・ 2024-04-22

TED


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

Переводчик: Elena McDonnell Редактор: Yulia Kallistratova
00:04
I want to tell you what I see coming.
0
4292
2586
Я хочу рассказать вам о том, каким я вижу будущее.
00:07
I've been lucky enough to be working on AI for almost 15 years now.
1
7712
4463
Мне посчастливилось работать в сфере ИИ уже почти 15 лет.
00:12
Back when I started, to describe it as fringe would be an understatement.
2
12676
5088
В самом начале моей карьеры его нельзя было назвать даже маргинальным.
00:17
Researchers would say, “No, no, we’re only working on machine learning.”
3
17806
4045
Исследователи говорили: «Ну нет, мы работаем только над машинным обучением».
00:21
Because working on AI was seen as way too out there.
4
21893
3087
Потому что работа с ИИ считалась чистым сумасбродством.
00:25
In 2010, just the very mention of the phrase “AGI,”
5
25021
4380
В 2010 году одно лишь упоминание УИИ,
00:29
artificial general intelligence,
6
29401
2169
универсального искусственного интеллекта,
00:31
would get you some seriously strange looks
7
31570
2877
обращало на вас косые
00:34
and even a cold shoulder.
8
34489
1585
или даже враждебные взгляды.
00:36
"You're actually building AGI?" people would say.
9
36366
3837
«Вы на самом деле создаете УИИ?» — спрашивали нас.
00:40
"Isn't that something out of science fiction?"
10
40203
2294
«Разве это не из области научной фантастики?»
00:42
People thought it was 50 years away or 100 years away,
11
42914
2544
Все думали, что это далеко в будущем — 50 или даже 100 лет,
00:45
if it was even possible at all.
12
45500
1919
если вообще возможно.
00:47
Talk of AI was, I guess, kind of embarrassing.
13
47752
3337
Разговоры об искусственном интеллекте считались чем-то зазорным.
00:51
People generally thought we were weird.
14
51631
2211
Нас считали чудаковатыми.
00:54
And I guess in some ways we kind of were.
15
54217
2503
Пожалуй, в некотором смысле так и было.
00:56
It wasn't long, though, before AI started beating humans
16
56761
2878
Однако вскоре ИИ начал превосходить людей
00:59
at a whole range of tasks
17
59681
1793
в решении целого ряда задач,
01:01
that people previously thought were way out of reach.
18
61516
2795
которые раньше считались недоступными.
01:05
Understanding images,
19
65020
2127
Восприятие изображений,
01:07
translating languages,
20
67147
1918
перевод с одного языка на другой,
01:09
transcribing speech,
21
69065
1585
транскрибация речи,
01:10
playing Go and chess
22
70692
2127
игра в го и шахматы
01:12
and even diagnosing diseases.
23
72861
1918
и даже диагностика заболеваний.
01:15
People started waking up to the fact
24
75905
1752
Люди начали осознавать,
01:17
that AI was going to have an enormous impact,
25
77657
3462
что ИИ вскоре будет иметь огромное значение,
01:21
and they were rightly asking technologists like me
26
81119
2836
и стали справедливо задавать таким специалистам, как я,
01:23
some pretty tough questions.
27
83955
1752
довольно сложные вопросы.
01:25
Is it true that AI is going to solve the climate crisis?
28
85749
3044
Правда ли, что ИИ поможет нам решить климатический кризис?
01:29
Will it make personalized education available to everyone?
29
89127
3337
Сможет ли он предоставить каждому персонализированное образование?
01:32
Does it mean we'll all get universal basic income
30
92881
2294
Означает ли это, что у всех будет безусловный базовый доход
01:35
and we won't have to work anymore?
31
95216
2002
и нам больше не придётся работать?
01:37
Should I be afraid?
32
97218
1544
Есть ли основания для опасений?
01:38
What does it mean for weapons and war?
33
98762
2335
Как это повлияет на оружие и войны?
01:41
And of course, will China win?
34
101598
1460
И, конечно, победит ли Китай?
01:43
Are we in a race?
35
103058
1543
Это гонка?
01:45
Are we headed for a mass misinformation apocalypse?
36
105518
3212
Ждёт ли нас массовый дезинформационный апокалипсис?
01:49
All good questions.
37
109147
1668
Это отличные вопросы.
01:51
But it was actually a simpler
38
111608
1418
Но, к моему удивлению, меня сильнее озадачил
01:53
and much more kind of fundamental question that left me puzzled.
39
113026
4046
гораздо более простой и более фундаментальный вопрос.
01:58
One that actually gets to the very heart of my work every day.
40
118031
3962
Этот вопрос касается самой сути моей ежедневной работы.
02:03
One morning over breakfast,
41
123620
2044
Однажды утром за завтраком
02:05
my six-year-old nephew Caspian was playing with Pi,
42
125705
3379
мой шестилетний племянник Каспиан играл с Pi —
02:09
the AI I created at my last company, Inflection.
43
129084
3378
ИИ, который я создал в своей предыдущей компании Inflection.
02:12
With a mouthful of scrambled eggs,
44
132504
1877
Жуя яичницу,
02:14
he looked at me plain in the face and said,
45
134381
3503
он посмотрел мне прямо в глаза и спросил:
02:17
"But Mustafa, what is an AI anyway?"
46
137926
3295
«Мустафа, а что вообще такое искусственный интеллект?»
02:21
He's such a sincere and curious and optimistic little guy.
47
141930
3545
Он такой искренний, любопытный и оптимистичный парень.
02:25
He'd been talking to Pi about how cool it would be if one day in the future,
48
145517
4254
Он говорил с Pi о том, как было бы здорово, если бы в будущем
02:29
he could visit dinosaurs at the zoo.
49
149771
2377
в зоопарке жили бы динозавры.
02:32
And how he could make infinite amounts of chocolate at home.
50
152190
3795
И как он мог бы приготовить дома бесконечное количество шоколада.
02:35
And why Pi couldn’t yet play I Spy.
51
155985
2920
И почему Pi до сих пор не умеет играть в I Spy.
02:39
"Well," I said, "it's a clever piece of software
52
159823
2252
«Ну, — сказал я, — это умная программа,
02:42
that's read most of the text on the open internet,
53
162075
2461
которая прочитала почти весь текст в открытом Интернете
02:44
and it can talk to you about anything you want."
54
164577
2419
и может говорить с тобой о чём угодно».
02:48
"Right.
55
168540
1168
«Понятно.
02:49
So like a person then?"
56
169749
2127
То есть как человек?»
02:54
I was stumped.
57
174254
1334
Я был в тупике.
02:56
Genuinely left scratching my head.
58
176798
2502
По-настоящему ошарашен.
03:00
All my boring stock answers came rushing through my mind.
59
180301
4046
В голове роились все мои скучные и стандартные ответы.
03:04
"No, but AI is just another general-purpose technology,
60
184723
2585
«Нет, но ИИ — это ещё одна технология общего назначения,
03:07
like printing or steam."
61
187308
1710
так же как печать или паровой двигатель.
03:09
It will be a tool that will augment us
62
189394
2502
Это будет инструмент, который улучшит нас,
03:11
and make us smarter and more productive.
63
191938
2377
сделает нас умнее и продуктивнее.
03:14
And when it gets better over time,
64
194649
1960
А когда со временем ИИ станет лучше,
03:16
it'll be like an all-knowing oracle
65
196651
1919
он будет словно всезнающим оракулом,
03:18
that will help us solve grand scientific challenges."
66
198611
3087
который поможет нам решать важные научные проблемы».
03:22
You know, all of these responses started to feel, I guess,
67
202115
3712
Но, знаете, все эти ответы стали казаться мне
03:25
a little bit defensive.
68
205869
1418
больше похожими на оправдания.
И более подходящими для семинара по вопросам политики,
03:28
And actually better suited to a policy seminar
69
208246
2211
03:30
than breakfast with a no-nonsense six-year-old.
70
210457
2627
чем для завтрака с трезвомыслящим шестилеткой.
03:33
"Why am I hesitating?" I thought to myself.
71
213126
3086
«Почему я сомневаюсь?» — думал я.
03:37
You know, let's be honest.
72
217839
1960
Знаете, давайте начистоту.
03:39
My nephew was asking me a simple question
73
219799
3253
Племянник задал мне простой вопрос,
03:43
that those of us in AI just don't confront often enough.
74
223052
3796
над которым те из нас, кто работает с ИИ, недостаточно часто задумываются.
03:48
What is it that we are actually creating?
75
228099
2920
Что мы на самом деле создаём?
03:51
What does it mean to make something totally new,
76
231895
3753
Что значит создать нечто совершенно новое,
03:55
fundamentally different to any invention that we have known before?
77
235648
4255
кардинально отличающееся от всех известных нам ранее изобретений?
04:00
It is clear that we are at an inflection point
78
240695
2795
Очевидно, что в истории человечества
04:03
in the history of humanity.
79
243490
1793
наступил переломный момент.
04:06
On our current trajectory,
80
246493
1918
На нынешней траектории развития
04:08
we're headed towards the emergence of something
81
248411
2211
мы движемся к появлению чего-то,
04:10
that we are all struggling to describe,
82
250663
3170
что никто из нас так и не может описать,
04:13
and yet we cannot control what we don't understand.
83
253875
4630
но ведь невозможно контролировать то, чего мы не понимаем.
04:19
And so the metaphors,
84
259631
1585
Поэтому метафоры,
04:21
the mental models,
85
261216
1251
ментальные модели,
04:22
the names, these all matter
86
262509
2585
названия — всё это важно,
если мы хотим извлечь из ИИ максимальную пользу
04:25
if we’re to get the most out of AI whilst limiting its potential downsides.
87
265094
4088
и при этом ограничить его потенциальные минусы.
04:30
As someone who embraces the possibilities of this technology,
88
270391
3421
Как человек, понимающий возможности этой технологии,
04:33
but who's also always cared deeply about its ethics,
89
273812
3670
но при этом всегда уделяющий большое внимание этике, я считаю,
04:37
we should, I think,
90
277524
1293
что мы должны
04:38
be able to easily describe what it is we are building.
91
278817
3044
уметь объяснять простыми словами, что именно мы создаём.
04:41
And that includes the six-year-olds.
92
281861
2002
В том числе и шестилетним детям.
04:44
So it's in that spirit that I offer up today the following metaphor
93
284239
4254
Именно поэтому я хочу использовать сегодня следующую метафору,
04:48
for helping us to try to grapple with what this moment really is.
94
288535
3461
которая поможет нам разобраться в том, что происходит на данный момент.
04:52
I think AI should best be understood
95
292539
2627
Думаю, мы должны воспринимать ИИ
04:55
as something like a new digital species.
96
295166
4254
как нечто вроде нового цифрового биотипа.
05:00
Now, don't take this too literally,
97
300296
2253
Не стоит смотреть на это слишком буквально,
05:02
but I predict that we'll come to see them as digital companions,
98
302590
4630
но я полагаю, что мы станем считать его своим цифровым компаньоном,
05:07
new partners in the journeys of all our lives.
99
307220
3295
новым партнёром на нашем жизненном пути.
05:10
Whether you think we’re on a 10-, 20- or 30-year path here,
100
310557
4087
Вне зависимости от того, произойдёт ли это в течение следующих 10, 20 или 30 лет,
05:14
this is, in my view, the most accurate and most fundamentally honest way
101
314686
5005
на мой взгляд, это самое точное и принципиально честное
05:19
of describing what's actually coming.
102
319732
2378
описание того, что нас ждёт.
05:22
And above all, it enables everybody to prepare for
103
322610
3963
И самое главное, оно позволяет каждому подготовиться к будущему
05:26
and shape what comes next.
104
326614
2711
и принять участие в его формировании.
05:29
Now I totally get, this is a strong claim,
105
329868
2002
Я прекрасно понимаю, что это серьёзное заявление,
05:31
and I'm going to explain to everyone as best I can why I'm making it.
106
331911
3837
и я постараюсь подробно объяснить, почему я так считаю.
05:36
But first, let me just try to set the context.
107
336291
2961
Но сначала я попытаюсь описать контекст.
05:39
From the very first microscopic organisms,
108
339252
2753
Начиная с самых первых микроорганизмов,
05:42
life on Earth stretches back billions of years.
109
342046
3462
жизнь на Земле насчитывает миллиарды лет.
05:45
Over that time, life evolved and diversified.
110
345508
4213
Всё это время жизнь развивалась и изменялась.
05:49
Then a few million years ago, something began to shift.
111
349762
3796
Затем, несколько миллионов лет назад, произошёл некоторый сдвиг.
05:54
After countless cycles of growth and adaptation,
112
354183
3629
После бесчисленных циклов роста и адаптации
05:57
one of life’s branches began using tools, and that branch grew into us.
113
357812
6256
одна из ветвей жизни начала использовать инструменты, и в итоге породила нас.
06:04
We went on to produce a mesmerizing variety of tools,
114
364777
4130
Мы создали неимоверное разнообразие инструментов.
06:08
at first slowly and then with astonishing speed,
115
368907
3670
Сначала медленно, а затем с поразительной скоростью
06:12
we went from stone axes and fire
116
372577
3670
мы перешли от каменных топоров и огня
06:16
to language, writing and eventually industrial technologies.
117
376247
5005
к языку, письму и, наконец, промышленным технологиям.
06:21
One invention unleashed a thousand more.
118
381878
2919
Одно изобретение давало толчок ещё тысяче.
06:25
And in time, we became homo technologicus.
119
385173
3712
И в какой-то момент мы стали человеком технологическим.
06:29
Around 80 years ago,
120
389594
1209
Около 80 лет назад
06:30
another new branch of technology began.
121
390803
2545
сформировалась ещё одна новая отрасль технологий.
06:33
With the invention of computers,
122
393973
1710
С изобретением компьютеров
06:35
we quickly jumped from the first mainframes and transistors
123
395725
3295
мы быстро перешли от первых мейнфреймов и транзисторов
06:39
to today's smartphones and virtual-reality headsets.
124
399062
3461
к современным смартфонам и гарнитурам виртуальной реальности.
06:42
Information, knowledge, communication, computation.
125
402565
4421
Информация, знания, коммуникации, вычисления.
06:47
In this revolution,
126
407570
1418
В ходе этой революции
06:49
creation has exploded like never before.
127
409030
3295
творчество стало стремительно расти, как никогда раньше.
06:53
And now a new wave is upon us.
128
413242
2503
А теперь нас ждёт новая волна.
06:55
Artificial intelligence.
129
415787
1668
Искусственный интеллект.
06:57
These waves of history are clearly speeding up,
130
417872
2544
Очевидно, что эти исторические волны накатывают всё быстрее,
07:00
as each one is amplified and accelerated by the last.
131
420458
4338
поскольку каждая из них усиливается и ускоряется предыдущей.
07:05
And if you look back,
132
425088
1167
Оглянувшись назад,
07:06
it's clear that we are in the fastest
133
426297
2002
мы видим, что переживаем самую быструю
07:08
and most consequential wave ever.
134
428299
2586
и значимую волну за всю историю.
07:11
The journeys of humanity and technology are now deeply intertwined.
135
431844
4630
Пути человечества и технологий теперь тесно переплетены.
07:16
In just 18 months,
136
436516
1543
Всего за 18 месяцев
07:18
over a billion people have used large language models.
137
438059
3170
более миллиарда человек использовали большие языковые модели.
07:21
We've witnessed one landmark event after another.
138
441729
3545
Мы становились свидетелями одного знаменательного события за другим.
07:25
Just a few years ago, people said that AI would never be creative.
139
445650
3462
Лишь несколько лет назад все считали, что ИИ никогда не будет креативным.
07:30
And yet AI now feels like an endless river of creativity,
140
450113
4045
Но сейчас ИИ — это неиссякаемый поток творческих способностей,
07:34
making poetry and images and music and video that stretch the imagination.
141
454200
4671
создающих поэзию, картины, музыку и видео, расширяющие границы воображения.
07:39
People said it would never be empathetic.
142
459664
2252
Все считали, что ИИ никогда не испытает эмпатии.
07:42
And yet today, millions of people enjoy meaningful conversations with AIs,
143
462417
5297
Но сегодня миллионы людей с удовольствием беседуют с ИИ,
07:47
talking about their hopes and dreams
144
467755
2002
рассказывая о своих надеждах и мечтах,
07:49
and helping them work through difficult emotional challenges.
145
469757
3087
и ИИ помогает им справиться с серьёзными эмоциональными проблемами.
07:53
AIs can now drive cars,
146
473177
2294
Теперь ИИ может водить машину,
07:55
manage energy grids
147
475513
1543
управлять энергосетями
07:57
and even invent new molecules.
148
477056
2252
и даже изобретать новые молекулы.
07:59
Just a few years ago, each of these was impossible.
149
479308
3713
Всего несколько лет назад это было невозможно.
08:03
And all of this is turbocharged by spiraling exponentials of data
150
483771
5506
И всё это подстёгивается растущими в геометрической прогрессии данными
08:09
and computation.
151
489277
1626
и вычислениями.
08:10
Last year, Inflection 2.5, our last model,
152
490945
5297
В прошлом году наша новейшая модель Inflection 2.5
08:16
used five billion times more computation
153
496242
4129
использовала в пять миллиардов раз больше вычислительных ресурсов,
08:20
than the DeepMind AI that beat the old-school Atari games
154
500371
3629
чем DeepMind, который прошёл все старые игры Atari
08:24
just over 10 years ago.
155
504042
1668
чуть более 10 лет назад.
08:26
That's nine orders of magnitude more computation.
156
506085
3420
Это в миллиард раз больше вычислений.
08:30
10x per year,
157
510089
1627
То есть в 10 раз больше в год,
08:31
every year for almost a decade.
158
511716
3253
каждый год в течение почти 10 лет.
08:34
Over the same time, the size of these models has grown
159
514969
2544
За тот же период времени размер этих моделей вырос
08:37
from first tens of millions of parameters to then billions of parameters,
160
517555
4213
с десятков миллионов параметров сначала до миллиардов,
08:41
and very soon, tens of trillions of parameters.
161
521809
3504
а вскоре и десятков триллионов параметров.
08:45
If someone did nothing but read 24 hours a day for their entire life,
162
525313
4755
Если бы кто-то всю жизнь только читал — 24 часа в сутки —
08:50
they'd consume eight billion words.
163
530109
3337
этот человек прочитал бы около восьми миллиардов слов.
08:53
And of course, that's a lot of words.
164
533488
1835
Это, конечно, огромное количество текста.
08:55
But today, the most advanced AIs consume more than eight trillion words
165
535364
5756
Но сегодня самые продвинутые ИИ потребляют более восьми триллионов слов
09:01
in a single month of training.
166
541120
2336
всего лишь за месяц обучения.
09:03
And all of this is set to continue.
167
543873
1960
И всё это будет продолжаться.
09:05
The long arc of technological history is now in an extraordinary new phase.
168
545875
5797
История технологий вступила в необычайно новую фазу.
09:12
So what does this mean in practice?
169
552256
2503
Но что же это значит для нас?
09:15
Well, just as the internet gave us the browser
170
555426
2920
Так же, как Интернет привёл к появлению браузера,
09:18
and the smartphone gave us apps,
171
558346
2502
а смартфон — приложений,
09:20
the cloud-based supercomputer is ushering in a new era
172
560890
4004
облачный суперкомпьютер открывает новую эру
09:24
of ubiquitous AIs.
173
564936
2502
вездесущего искусственного интеллекта.
09:27
Everything will soon be represented by a conversational interface.
174
567438
4588
Скоро всё будет представлено в виде диалогового интерфейса.
09:32
Or, to put it another way, a personal AI.
175
572026
3003
Иными словами, это будет персональный ИИ.
09:35
And these AIs will be infinitely knowledgeable,
176
575780
2336
Этот ИИ будет обладать бесконечными знаниями,
09:38
and soon they'll be factually accurate and reliable.
177
578157
3879
и вскоре он станет точным и надёжным.
09:42
They'll have near-perfect IQ.
178
582036
1794
У него будет почти идеальный IQ,
09:44
They’ll also have exceptional EQ.
179
584914
2377
а также исключительный EQ.
09:47
They’ll be kind, supportive, empathetic.
180
587291
4129
Он будет добр, отзывчив, сможет сопереживать.
09:53
These elements on their own would be transformational.
181
593089
2836
Уже только эти элементы будут революционными.
09:55
Just imagine if everybody had a personalized tutor in their pocket
182
595925
3795
Представьте себе, что у каждого в кармане будет персональный репетитор
09:59
and access to low-cost medical advice.
183
599720
3003
и доступ к медицинским консультациям по доступной цене.
10:02
A lawyer and a doctor,
184
602723
1544
Юрист и врач,
10:04
a business strategist and coach --
185
604267
1960
бизнес-стратег и тренер —
10:06
all in your pocket 24 hours a day.
186
606269
2252
всё это в вашем кармане 24 часа в сутки.
10:08
But things really start to change when they develop what I call AQ,
187
608980
4713
Но всё начнёт по-настоящему меняться, когда у ИИ появится то,
10:13
their “actions quotient.”
188
613693
1668
что я называю «коэффициентом действий».
10:15
This is their ability to actually get stuff done
189
615695
2794
Это способность реально выполнять задачи
10:18
in the digital and physical world.
190
618531
2294
в цифровом и физическом мире.
10:20
And before long, it won't just be people that have AIs.
191
620867
3420
И вскоре у ИИ будут не только индивидуальные пользователи.
10:24
Strange as it may sound, every organization,
192
624328
2962
Как бы странно это ни звучало, но у каждой группы —
от малого бизнеса до некоммерческих организаций и федеральных правительств —
10:27
from small business to nonprofit to national government,
193
627290
3253
10:30
each will have their own.
194
630585
1710
будет свой ИИ.
10:32
Every town, building and object
195
632795
2711
Каждый город, здание и объект
10:35
will be represented by a unique interactive persona.
196
635506
3754
будут представлены уникальным интерактивным персонажем.
10:39
And these won't just be mechanistic assistants.
197
639302
2544
И это будут не просто механистические помощники.
10:42
They'll be companions, confidants,
198
642221
3754
Они будут компаньонами, доверенными лицами,
10:46
colleagues, friends and partners,
199
646017
2669
коллегами, друзьями и партнерами,
10:48
as varied and unique as we all are.
200
648728
2627
такими же разнообразными и уникальными, как и все мы.
10:52
At this point, AIs will convincingly imitate humans at most tasks.
201
652273
4630
На этой стадии ИИ будет убедительно подражать человеку
при выполнении большинства задач.
10:57
And we'll feel this at the most intimate of scales.
202
657737
2794
И мы почувствуем это на очень личном уровне.
11:00
An AI organizing a community get-together for an elderly neighbor.
203
660990
3587
ИИ, организующий сбор жильцов для пожилого соседа.
11:04
A sympathetic expert helping you make sense of a difficult diagnosis.
204
664619
4588
Понимающий эксперт, помогающий вам разобраться в пугающем диагнозе.
11:09
But we'll also feel it at the largest scales.
205
669248
2753
Но мы также почувствуем это и в самых широких масштабах.
11:12
Accelerating scientific discovery,
206
672043
2586
Ускорение научных открытий,
11:14
autonomous cars on the roads,
207
674629
2168
беспилотные автомобили на дорогах,
11:16
drones in the skies.
208
676797
1627
дроны в небе.
11:18
They'll both order the takeout and run the power station.
209
678966
3337
ИИ будет заказывать еду на вынос и управлять электростанциями.
11:22
They’ll interact with us and, of course, with each other.
210
682970
3337
Различные ИИ будут общаться с нами и, несомненно, друг с другом.
11:26
They'll speak every language,
211
686349
1918
Они будут говорить на всех языках,
11:28
take in every pattern of sensor data,
212
688267
2836
воспринимать все данные датчиков,
11:31
sights, sounds,
213
691145
2336
изображения, звуки
11:33
streams and streams of information,
214
693481
2377
и огромные потоки информации,
11:35
far surpassing what any one of us could consume in a thousand lifetimes.
215
695900
4379
значительно превосходящие то, что любой из нас мог бы осмыслить за тысячу жизней.
11:40
So what is this?
216
700780
1293
Так что же это такое?
11:42
What are these AIs?
217
702990
2086
Чем является искусственный интеллект?
11:46
If we are to prioritize safety above all else,
218
706410
4588
Если мы хотим поставить безопасность превыше всего,
11:51
to ensure that this new wave always serves and amplifies humanity,
219
711040
5088
чтобы эта новая волна всегда служила человечеству и приносила ему пользу,
11:56
then we need to find the right metaphors for what this might become.
220
716128
4922
нам необходимо найти правильные метафоры для описания будущего.
12:01
For years, we in the AI community, and I specifically,
221
721842
4296
В течение многих лет сообщество ИИ в целом и я в частности
12:06
have had a tendency to refer to this as just tools.
222
726180
3587
имели тенденцию считать ИИ просто инструментом.
12:11
But that doesn't really capture what's actually happening here.
223
731060
3003
Но это не совсем соответствует тому, что происходит на самом деле.
12:14
AIs are clearly more dynamic,
224
734730
2503
Очевидно, что ИИ более динамичен,
12:17
more ambiguous, more integrated
225
737233
2753
неоднозначен, интегрирован
12:19
and more emergent than mere tools,
226
739986
2627
и более стихиен,
12:22
which are entirely subject to human control.
227
742613
2878
чем обычные инструменты, полностью контролируемые человеком.
12:25
So to contain this wave,
228
745533
2544
Поэтому, чтобы обуздать эту волну,
12:28
to put human agency at its center
229
748119
3044
сделать её центром человеческой свободы действий
12:31
and to mitigate the inevitable unintended consequences
230
751163
2711
и смягчить неизбежные непредвиденные последствия,
12:33
that are likely to arise,
231
753916
1835
которые могут возникнуть,
12:35
we should start to think about them as we might a new kind of digital species.
232
755793
5005
нам следует начать думать о ИИ как о новом цифровом биотипе.
12:41
Now it's just an analogy,
233
761132
1793
Оговорюсь, что это просто аналогия,
12:42
it's not a literal description, and it's not perfect.
234
762925
2586
а не буквальное описание, и она не идеальна.
12:46
For a start, they clearly aren't biological in any traditional sense,
235
766053
4046
Для начала скажу, что ИИ явно не является биологическим в традиционном смысле слова,
12:50
but just pause for a moment
236
770141
2377
но задумайтесь на минуту
12:52
and really think about what they already do.
237
772560
2836
и взгляните на то, что он уже способен сделать.
12:55
They communicate in our languages.
238
775438
2627
Он общается на наших языках.
12:58
They see what we see.
239
778107
2127
Он видит то же, что и мы.
13:00
They consume unimaginably large amounts of information.
240
780234
3587
Он потребляет невообразимо большие объемы информации.
13:04
They have memory.
241
784739
1376
У него есть память.
13:06
They have personality.
242
786991
1752
Он обладает индивидуальностью.
13:09
They have creativity.
243
789493
1710
У него есть творческий потенциал.
13:12
They can even reason to some extent and formulate rudimentary plans.
244
792038
3962
Он может в некоторой степени рассуждать и формулировать элементарные планы.
13:16
They can act autonomously if we allow them.
245
796709
3128
Он может действовать автономно, если мы ему позволим.
13:20
And they do all this at levels of sophistication
246
800546
2294
И всё это он делает на уровне сложности,
13:22
that is far beyond anything that we've ever known from a mere tool.
247
802882
3587
намного превосходящем тот, что мы когда-либо получали от инструмента.
13:27
And so saying AI is mainly about the math or the code
248
807762
4296
Таким образом, сказать, что ИИ — это в основном математика или код,
13:32
is like saying we humans are mainly about carbon and water.
249
812099
4838
это всё равно что сказать, что мы, люди, в основном являемся углеродом и водой.
13:37
It's true, but it completely misses the point.
250
817897
3795
Это правда, но суть здесь совершенно упускается из виду.
13:42
And yes, I get it, this is a super arresting thought
251
822860
3629
Да, я понимаю, это достаточно шокирующая идея,
13:46
but I honestly think this frame helps sharpen our focus on the critical issues.
252
826489
5171
но я действительно считаю, что такая интерпретация
поможет нам сосредоточиться на важных вопросах.
13:52
What are the risks?
253
832745
1585
В чём заключаются риски?
13:55
What are the boundaries that we need to impose?
254
835790
2752
Какие границы мы должны установить?
13:59
What kind of AI do we want to build or allow to be built?
255
839293
4338
Какой ИИ мы хотим или позволим создать?
14:04
This is a story that's still unfolding.
256
844465
2377
Мы всё ещё пишем эту историю.
14:06
Nothing should be accepted as a given.
257
846884
2544
Мы не должны ничего воспринимать как данность.
14:09
We all must choose what we create.
258
849428
2544
Мы все должны решить, что мы создаём.
14:12
What AIs we bring into the world, or not.
259
852681
3921
Какой ИИ мы приносим в мир, а какой нет.
14:18
These are the questions for all of us here today,
260
858604
2836
Эти вопросы я задаю и всем присутствующим здесь сегодня,
14:21
and all of us alive at this moment.
261
861440
2586
и всему населению мира на сегодняшний день.
14:24
For me, the benefits of this technology are stunningly obvious,
262
864693
4296
Для меня преимущества этой технологии потрясающе очевидны,
14:28
and they inspire my life's work every single day.
263
868989
3546
и они вдохновляют меня на работу каждый день.
14:33
But quite frankly, they'll speak for themselves.
264
873661
3086
Но, честно говоря, преимущества и необязательно оговаривать.
14:37
Over the years, I've never shied away from highlighting risks
265
877706
2920
На протяжении многих лет я всегда подчеркивал риски
14:40
and talking about downsides.
266
880668
1710
и говорил о недостатках ИИ.
14:43
Thinking in this way helps us focus on the huge challenges
267
883087
3211
Подобное мышление помогает нам сосредоточиться на огромных задачах,
14:46
that lie ahead for all of us.
268
886298
1836
стоящих перед всеми нами.
14:48
But let's be clear.
269
888843
1418
Но давайте внесём ясность.
14:50
There is no path to progress
270
890719
2128
Мы не сможем достичь прогресса,
14:52
where we leave technology behind.
271
892888
2169
если оставим технологии позади.
14:55
The prize for all of civilization is immense.
272
895683
3795
Их значение для всего человечества слишком велико.
Нам нужны решения в области здравоохранения,
15:00
We need solutions in health care and education, to our climate crisis.
273
900062
3879
образования и климатического кризиса.
15:03
And if AI delivers just a fraction of its potential,
274
903941
3921
И если ИИ реализует хотя бы малую часть своего потенциала,
15:07
the next decade is going to be the most productive in human history.
275
907903
4421
следующее десятилетие станет самым продуктивным в истории человечества.
15:13
Here's another way to think about it.
276
913701
2002
Вот ещё один способ взглянуть на это.
15:15
In the past,
277
915744
1293
В прошлом
15:17
unlocking economic growth often came with huge downsides.
278
917037
4088
экономический рост часто сопровождался негативными сторонами.
15:21
The economy expanded as people discovered new continents
279
921500
3712
Экономика росла по мере того, как люди открывали новые континенты
15:25
and opened up new frontiers.
280
925254
2002
и достигали новых рубежей.
15:28
But they colonized populations at the same time.
281
928632
3045
Но в то же время они колонизировали коренное население.
15:32
We built factories,
282
932595
1710
Мы строили заводы,
15:34
but they were grim and dangerous places to work.
283
934305
3044
но работа на них была мрачной и опасной.
15:38
We struck oil,
284
938017
1918
Мы добывали нефть,
15:39
but we polluted the planet.
285
939977
1627
но загрязняли планету.
15:42
Now because we are still designing and building AI,
286
942146
3170
Сейчас, когда мы всё ещё разрабатываем и создаём ИИ,
15:45
we have the potential and opportunity to do it better,
287
945316
3795
у нас есть потенциал и возможность сделать это лучше,
15:49
radically better.
288
949153
1335
радикально лучше.
15:51
And today, we're not discovering a new continent
289
951071
2628
И сегодня мы не открываем новый континент
15:53
and plundering its resources.
290
953741
1918
и разграбляем его ресурсы.
15:56
We're building one from scratch.
291
956285
1919
Мы создаём его с нуля.
15:58
Sometimes people say that data or chips are the 21st century’s new oil,
292
958662
5297
Иногда говорят, что данные или чипы — это новая нефть XXI века,
16:03
but that's totally the wrong image.
293
963959
2002
но это совершенно неверное представление.
16:06
AI is to the mind
294
966587
1919
ИИ по отношению к разуму —
16:08
what nuclear fusion is to energy.
295
968547
2753
это то же, что ядерный синтез по отношению к энергии.
16:12
Limitless, abundant,
296
972259
2670
Он безграничен, избыточен,
16:14
world-changing.
297
974970
1544
революционен.
16:17
And AI really is different,
298
977389
2962
И это действительно что-то совершенное новое,
16:20
and that means we have to think about it creatively and honestly.
299
980392
4213
а значит, что мы должны подойти к нему творчески и честно.
16:24
We have to push our analogies and our metaphors
300
984647
2586
Мы должны довести свои сравнения и метафоры
16:27
to the very limits
301
987274
1752
до абсолютного предела,
16:29
to be able to grapple with what's coming.
302
989068
2252
чтобы постичь то, что нас ждёт.
16:31
Because this is not just another invention.
303
991362
2878
Потому что это не просто очередное изобретение.
16:34
AI is itself an infinite inventor.
304
994907
3503
Сам по себе ИИ — бесконечный изобретатель.
16:38
And yes, this is exciting and promising and concerning
305
998869
3295
И да, это одновременно имеет огромный потенциал,
16:42
and intriguing all at once.
306
1002164
2044
настораживает и интригует.
16:45
To be quite honest, it's pretty surreal.
307
1005251
2585
Честно говоря, это довольно сюрреалистично.
16:47
But step back,
308
1007836
1293
Но давайте вернёмся назад
16:49
see it on the long view of glacial time,
309
1009171
3462
и взглянем на ледниковое время в перспективе,
16:52
and these really are the very most appropriate metaphors that we have today.
310
1012633
4796
и на сегодня это действительно самые подходящие метафоры.
16:57
Since the beginning of life on Earth,
311
1017471
3003
С самого начала жизни на Земле
17:00
we've been evolving, changing
312
1020516
2961
мы эволюционировали, менялись,
17:03
and then creating everything around us in our human world today.
313
1023477
4171
а затем создавали всё, что окружает нас в современном мире.
17:08
And AI isn't something outside of this story.
314
1028232
3003
ИИ не находится где-то за пределами этой истории.
17:11
In fact, it's the very opposite.
315
1031569
2961
Совсем наоборот.
17:15
It's the whole of everything that we have created,
316
1035197
3170
Это сумма всего, что мы создали,
17:18
distilled down into something that we can all interact with
317
1038367
3545
сжатая до некой формы, с которой мы можем взаимодействовать,
17:21
and benefit from.
318
1041912
1377
извлекая из этого пользу.
17:23
It's a reflection of humanity across time,
319
1043872
3504
Это отражение истории человечества,
17:27
and in this sense,
320
1047418
1251
и в этом смысле
17:28
it isn't a new species at all.
321
1048711
1918
это совсем не новый биотип.
17:31
This is where the metaphors end.
322
1051213
1960
На этом метафоры заканчиваются.
17:33
Here's what I'll tell Caspian next time he asks.
323
1053591
2502
Вот что я скажу Каспиану в следующий раз, когда он задаст мне этот вопрос.
17:37
AI isn't separate.
324
1057219
1460
ИИ — это не что-то отдельное от нас.
17:39
AI isn't even in some senses, new.
325
1059388
3295
ИИ даже в каком-то смысле не что-то новое.
17:43
AI is us.
326
1063517
1126
ИИ — это мы.
17:45
It's all of us.
327
1065394
1210
Это все мы.
17:47
And this is perhaps the most promising and vital thing of all
328
1067062
3754
И это, пожалуй, самое многообещающее и самое важное из всех определений,
17:50
that even a six-year-old can get a sense for.
329
1070858
2669
которое может понять даже шестилетний ребёнок.
17:54
As we build out AI,
330
1074528
1376
Создавая ИИ,
17:55
we can and must reflect all that is good,
331
1075946
3545
мы можем и должны воплощать в нём все хорошее,
17:59
all that we love,
332
1079533
1126
всё, что мы любим,
18:00
all that is special about humanity:
333
1080701
2753
всё, что делает нас людьми:
18:03
our empathy, our kindness,
334
1083495
2169
сочувствие, доброту,
18:05
our curiosity and our creativity.
335
1085664
2169
любопытство и креативность.
18:09
This, I would argue, is the greatest challenge of the 21st century,
336
1089251
5130
Я бы сказал, что это величайший вызов XXI века,
18:14
but also the most wonderful,
337
1094381
2211
а также самая прекрасная,
18:16
inspiring and hopeful opportunity for all of us.
338
1096592
3336
вдохновляющая и обнадёживающая возможность для всех нас.
18:20
Thank you.
339
1100429
1168
Спасибо.
18:21
(Applause)
340
1101639
4879
(Аплодисменты)
18:26
Chris Anderson: Thank you Mustafa.
341
1106560
1668
Крис Андерсон: Спасибо, Мустафа.
18:28
It's an amazing vision and a super powerful metaphor.
342
1108270
3796
Это потрясающее видение и сверхмощная метафора.
18:32
You're in an amazing position right now.
343
1112066
1960
Сейчас вы в прекрасном положении.
18:34
I mean, you were connected at the hip
344
1114026
1793
Вы были неотъемлемой частью
18:35
to the amazing work happening at OpenAI.
345
1115819
2795
потрясающей работы, выполняемой в OpenAI.
18:38
You’re going to have resources made available,
346
1118614
2169
Вам будут предоставлены ресурсы,
18:40
there are reports of these giant new data centers,
347
1120824
4046
нам рассказывают об огромных новых центрах обработки данных,
18:44
100 billion dollars invested and so forth.
348
1124870
2461
в которые было вложено 100 миллиардов долларов и так далее.
18:48
And a new species can emerge from it.
349
1128082
3837
И в результате этого может появиться новый вид.
18:52
I mean, in your book,
350
1132294
1502
В своей книге
18:53
you did, as well as painting an incredible optimistic vision,
351
1133837
2878
вы не только изложили невероятный оптимистичный взгляд,
18:56
you were super eloquent on the dangers of AI.
352
1136757
3629
но и очень убедительно рассказали об опасностях ИИ.
19:00
And I'm just curious, from the view that you have now,
353
1140427
3963
И мне интересно: что, на ваш взгляд,
19:04
what is it that most keeps you up at night?
354
1144431
2336
больше всего не даёт вам спать по ночам?
19:06
Mustafa Suleyman: I think the great risk is that we get stuck
355
1146809
2878
Мустафа Сулейман: Думаю, велик риск того, что мы попадём
19:09
in what I call the pessimism aversion trap.
356
1149728
2086
в так называемую ловушку неприятия пессимизма.
19:11
You know, we have to have the courage to confront
357
1151855
2586
Знаете, нам нужно набраться смелости противостоять
19:14
the potential of dark scenarios
358
1154483
1960
потенциальным страшным исходам,
19:16
in order to get the most out of all the benefits that we see.
359
1156443
3128
чтобы максимально использовать все преимущества, которые мы видим.
19:19
So the good news is that if you look at the last two or three years,
360
1159613
3712
Хорошая новость состоит в том, что если посмотреть на последние два-три года,
19:23
there have been very, very few downsides, right?
361
1163325
2961
недостатков было очень и очень мало, верно?
19:26
It’s very hard to say explicitly what harm an LLM has caused.
362
1166328
4922
Очень сложно сказать, какой вред причинили LLM.
19:31
But that doesn’t mean that that’s what the trajectory is going to be
363
1171291
3212
Но это не значит, что именно таким будет развитие событий
19:34
over the next 10 years.
364
1174503
1168
в ближайшие 10 лет.
19:35
So I think if you pay attention to a few specific capabilities,
365
1175671
3462
Я думаю, что если обратить внимание на несколько конкретных возможностей,
19:39
take for example, autonomy.
366
1179174
1835
например на автономность,
19:41
Autonomy is very obviously a threshold
367
1181009
2336
совершенно очевидно, что автономность — это порог,
19:43
over which we increase risk in our society.
368
1183387
2794
при пересечении которого мы повышаем риск для общества.
19:46
And it's something that we should step towards very, very closely.
369
1186223
3128
И к этому мы должны подойти очень и очень внимательно.
19:49
The other would be something like recursive self-improvement.
370
1189393
3420
Другая возможность — что-то вроде рекурсивного самосовершенствования.
19:52
If you allow the model to independently self-improve,
371
1192813
3629
Если мы позволим модели самостоятельно совершенствоваться,
19:56
update its own code,
372
1196483
1460
обновлять свой код,
19:57
explore an environment without oversight, and, you know,
373
1197985
3295
исследовать окружающую среду без контроля и вмешательства
20:01
without a human in control to change how it operates,
374
1201321
3295
со стороны человека, который мог бы изменить её работу,
20:04
that would obviously be more dangerous.
375
1204616
1919
это, естественно, будет гораздо опаснее.
20:06
But I think that we're still some way away from that.
376
1206535
2544
Но я думаю, что до этого ещё далеко.
20:09
I think it's still a good five to 10 years before we have to really confront that.
377
1209079
3879
Думаю, ещё 5–10 лет, прежде чем мы по настоящему столкнёмся с этим.
20:12
But it's time to start talking about it now.
378
1212958
2085
Но начать говорить об этом нужно уже сейчас.
20:15
CA: A digital species, unlike any biological species,
379
1215043
2545
КА: Цифровой биотип, в отличие от нас,
20:17
can replicate not in nine months,
380
1217588
2002
может размножаться не за девять месяцев,
20:19
but in nine nanoseconds,
381
1219631
1669
а за девять наносекунд,
20:21
and produce an indefinite number of copies of itself,
382
1221341
3421
и создавать неограниченное количество копий самого себя,
20:24
all of which have more power than we have in many ways.
383
1224803
3796
и все они во многих отношениях обладают бóльшими способностями, чем мы.
20:28
I mean, the possibility for unintended consequences seems pretty immense.
384
1228599
4838
Иными словами, вероятность непредвиденных последствий очень велика.
20:33
And isn't it true that if a problem happens,
385
1233479
2168
Разве это не значит, что если проблема возможна,
20:35
it could happen in an hour?
386
1235689
1919
то она может возникнуть уже через час?
20:37
MS: No.
387
1237649
1335
МС: Нет.
20:38
That is really not true.
388
1238984
1752
На самом деле это не так.
20:40
I think there's no evidence to suggest that.
389
1240778
2085
Тому нет никаких доказательств.
20:42
And I think that, you know,
390
1242863
1585
И я думаю,
20:44
that’s often referred to as the “intelligence explosion.”
391
1244490
2836
что это то, что часто называют «взрывоподобным развитием ИИ».
20:47
And I think it is a theoretical, hypothetical maybe
392
1247367
3712
Я думаю, что это теоретическая или гипотетическая возможность,
20:51
that we're all kind of curious to explore,
393
1251079
2420
которую нам всем интересно исследовать,
20:53
but there's no evidence that we're anywhere near anything like that.
394
1253540
3212
но нет никаких доказательств того, что мы близки к чему-то подобному.
20:56
And I think it's very important that we choose our words super carefully.
395
1256752
3462
И я думаю, что очень важно тщательно подбирать слова.
21:00
Because you're right, that's one of the weaknesses of the species framing,
396
1260255
3546
Потому что вы правы, это одна из слабых сторон метафоры биотипа:
21:03
that we will design the capability for self-replication into it
397
1263801
4337
что мы наделим ИИ способностью саморепликации,
21:08
if people choose to do that.
398
1268180
1668
если так решим.
21:09
And I would actually argue that we should not,
399
1269890
2169
Однако я считаю, что нам не следует этого делать,
21:12
that would be one of the dangerous capabilities
400
1272059
2210
ведь это одна из опасных возможностей,
21:14
that we should step back from, right?
401
1274269
1835
от которой следует отказаться, верно?
21:16
So there's no chance that this will "emerge" accidentally.
402
1276104
3796
Поэтому нет никаких шансов, что это «возникнет» случайно.
21:19
I really think that's a very low probability.
403
1279942
2502
Я уверен, что вероятность этого очень низка.
21:22
It will happen if engineers deliberately design those capabilities in.
404
1282486
4338
Это произойдёт, если инженеры преднамеренно разработают эти возможности
21:26
And if they don't take enough efforts to deliberately design them out.
405
1286865
3295
и не приложат усилия для того, чтобы не наделять ими ИИ.
21:30
And so this is the point of being explicit
406
1290160
2294
Поэтому смысл в том, чтобы честно
21:32
and transparent about trying to introduce safety by design very early on.
407
1292454
5672
и открыто пытаться внедрить безопасность на самых ранних этапах.
21:39
CA: Thank you, your vision of humanity injecting into this new thing
408
1299044
5964
КА: Спасибо, ваше видение того, как человечество вкладывает в это новое
21:45
the best parts of ourselves,
409
1305008
1877
всё лучшее, что есть в нас,
21:46
avoiding all those weird, biological, freaky,
410
1306927
2920
избегая всех тех странных, биологических, извращённых,
21:49
horrible tendencies that we can have in certain circumstances,
411
1309888
2920
ужасных тенденций, которые могут возникать в некоторых обстоятельствах, —
21:52
I mean, that is a very inspiring vision.
412
1312808
2127
по-моему, очень вдохновляющий взгляд.
21:54
And thank you so much for coming here and sharing it at TED.
413
1314977
3336
И большое спасибо за то, что вы поделились им со сцены TED.
21:58
Thank you, good luck.
414
1318355
1210
Спасибо, удачи.
21:59
(Applause)
415
1319565
1876
(Аплодисменты)
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7