The Inside Story of ChatGPT’s Astonishing Potential | Greg Brockman | TED

1,768,604 views ・ 2023-04-20

TED


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

Переводчик: Anastasiya Balabanova Редактор: Natalia Savvidi
00:03
We started OpenAI seven years ago
0
3875
2503
Мы основали Open AI семь лет назад,
00:06
because we felt like something really interesting was happening in AI
1
6378
3712
потому что нам казалось, что в сфере ИИ происходит нечто очень интересное,
00:10
and we wanted to help steer it in a positive direction.
2
10131
3170
и нам хотелось помочь направить процесс в положительное русло.
00:15
It's honestly just really amazing to see
3
15220
2085
Честно говоря, меня поражает
00:17
how far this whole field has come since then.
4
17347
3086
прогресс в этой области с тех пор.
00:20
And it's really gratifying to hear from people like Raymond
5
20433
3629
Очень приятно слышать истории от таких людей, как Рэймонд,
00:24
who are using the technology we are building, and others,
6
24104
2836
которые используют создаваемую нами технологию,
00:26
for so many wonderful things.
7
26982
2127
и другие вдохновляющие истории.
00:29
We hear from people who are excited,
8
29150
2503
Люди выражают восхищение,
00:31
we hear from people who are concerned,
9
31653
1835
люди выражают озабоченность,
00:33
we hear from people who feel both those emotions at once.
10
33530
2961
есть люди, испытывающие обе эти эмоции одновременно.
00:36
And honestly, that's how we feel.
11
36533
2252
Откровенно говоря, мы испытываем то же самое.
00:40
Above all, it feels like we're entering an historic period right now
12
40245
4087
Прежде всего, есть ощущение того,
что сегодня мы пересекаем исторический рубеж,
00:44
where we as a world are going to define a technology
13
44374
4421
когда мы, человечество, определяем технологию,
00:48
that will be so important for our society going forward.
14
48795
3086
которая будет так важна для нашего общества в будущем.
00:52
And I believe that we can manage this for good.
15
52924
2628
Я верю, что мы можем управлять ею во благо.
00:56
So today, I want to show you the current state of that technology
16
56845
4171
Сегодня я хочу продемонстрировать вам нынешнее состояние этой технологии
и некоторые основополагающие и важные для нас принципы её дизайна.
01:01
and some of the underlying design principles that we hold dear.
17
61016
3086
01:09
So the first thing I'm going to show you
18
69983
1918
Первое, что я хочу показать, —
01:11
is what it's like to build a tool for an AI
19
71943
2086
это что значит создать инструмент для ИИ,
01:14
rather than building it for a human.
20
74029
1876
а не для человека.
01:17
So we have a new DALL-E model, which generates images,
21
77574
3545
У нас есть новая модель DALL-E, генерирующая изображения,
01:21
and we are exposing it as an app for ChatGPT to use on your behalf.
22
81161
4045
и мы даём ChatGPT возможность пользоваться ею как приложением.
01:25
And you can do things like ask, you know,
23
85248
2461
Можно, например, попросить ИИ:
01:27
suggest a nice post-TED meal and draw a picture of it.
24
87751
6631
«Посоветуй, как можно хорошо поесть после TED, и нарисуй эту еду».
01:35
(Laughter)
25
95216
1419
(Смех)
01:38
Now you get all of the, sort of, ideation and creative back-and-forth
26
98303
4671
Дальше происходит работа над идеей и творческий обмен,
01:43
and taking care of the details for you that you get out of ChatGPT.
27
103016
4004
а также работа над деталями, которую делает для вас ChatGPT.
01:47
And here we go, it's not just the idea for the meal,
28
107062
2669
Вот результат: это не просто идея еды,
01:49
but a very, very detailed spread.
29
109773
3587
а очень подробное её описание.
01:54
So let's see what we're going to get.
30
114110
2044
Давайте посмотрим, что у нас получилось.
01:56
But ChatGPT doesn't just generate images in this case --
31
116154
3795
В этом случае ChatGPT создал не просто картинки,
01:59
sorry, it doesn't generate text, it also generates an image.
32
119991
2836
простите, не просто текст, но также изображение.
02:02
And that is something that really expands the power
33
122827
2419
И это действительно расширяет возможности того,
02:05
of what it can do on your behalf in terms of carrying out your intent.
34
125246
3504
что можно создать по вашему поручению с точки зрения осуществления намерения.
02:08
And I'll point out, this is all a live demo.
35
128750
2085
Подчеркну, что всё это живая демонстрация,
02:10
This is all generated by the AI as we speak.
36
130835
2169
генерируемая ИИ в процессе нашего разговора.
02:13
So I actually don't even know what we're going to see.
37
133046
2544
Так что я даже не знаю, что мы получим.
02:16
This looks wonderful.
38
136216
2294
Выглядит чудесно.
02:18
(Applause)
39
138510
3712
(Аплодисменты)
02:22
I'm getting hungry just looking at it.
40
142514
1877
У меня разгорается аппетит только при виде этого.
02:24
Now we've extended ChatGPT with other tools too,
41
144724
2753
Мы дополнили ChatGPT и другими инструментами,
02:27
for example, memory.
42
147519
1168
например, памятью.
02:28
You can say "save this for later."
43
148728
2795
Можно сказать: «Сохрани это на потом».
02:33
And the interesting thing about these tools
44
153233
2043
Интересно, что эти инструменты очень легко видеть.
02:35
is they're very inspectable.
45
155318
1377
02:36
So you get this little pop up here that says "use the DALL-E app."
46
156695
3128
Вот всплывающее окно: «Использовать приложение DALL-E».
В ближайшие месяцы эта функция будет доступна всем пользователям ChatGPT.
02:39
And by the way, this is coming to you, all ChatGPT users, over upcoming months.
47
159823
3712
Можно копнуть глубже и увидеть,
02:43
And you can look under the hood and see that what it actually did
48
163535
3086
что ChatGPT просто написал информацию так, как это мог бы сделать человек.
02:46
was write a prompt just like a human could.
49
166621
2169
02:48
And so you sort of have this ability to inspect
50
168790
2628
Вы можете проверять,
02:51
how the machine is using these tools,
51
171459
2086
как машина пользуется этими инструментами,
02:53
which allows us to provide feedback to them.
52
173586
2086
что даёт нам обратную связь с ними.
02:55
Now it's saved for later,
53
175714
1209
Теперь это сохранено, а я покажу вам,
02:56
and let me show you what it's like to use that information
54
176965
2878
как можно использовать эту информацию и интегрировать её с другими приложениями.
02:59
and to integrate with other applications too.
55
179884
2503
03:02
You can say,
56
182387
2210
Вы можете сказать,
03:04
“Now make a shopping list for the tasty thing
57
184639
5506
«Теперь составь список продуктов для приготовления той вкусной еды,
03:10
I was suggesting earlier.”
58
190186
1835
о которой я говорил ранее».
03:12
And make it a little tricky for the AI.
59
192021
2128
И давайте усложним эту задачу для ИИ:
03:16
"And tweet it out for all the TED viewers out there."
60
196276
4337
«Опубликуй всё это в Твитере для всех зрителей TED».
03:20
(Laughter)
61
200655
2252
(Смех)
03:22
So if you do make this wonderful, wonderful meal,
62
202949
2461
Если эта чудесная еда будет приготовлена,
03:25
I definitely want to know how it tastes.
63
205410
2044
я, конечно же, хочу знать, какой она будет на вкус.
03:28
But you can see that ChatGPT is selecting all these different tools
64
208496
3504
Но вы видите, что ChatGPT выбирает все эти инструменты
03:32
without me having to tell it explicitly which ones to use in any situation.
65
212000
4379
без моего участия
в выборе конкретного инструмента в каждой из ситуаций.
03:37
And this, I think, shows a new way of thinking about the user interface.
66
217088
3879
Я считаю, что это демонстрирует новый подход к интерфейсу пользователя.
03:40
Like, we are so used to thinking of, well, we have these apps,
67
220967
3796
Например, мы так привыкли к тому,
что мы переключаемся с одного приложения на другое,
03:44
we click between them, we copy/paste between them,
68
224763
2335
копируем и вставляем,
03:47
and usually it's a great experience within an app
69
227098
2294
и часто внутри приложения всё проходит гладко,
03:49
as long as you kind of know the menus and know all the options.
70
229434
2961
если мы знакомы с опциями меню.
03:52
Yes, I would like you to.
71
232395
1293
Да, сделай это.
03:53
Yes, please.
72
233730
1126
Да, пожалуйста.
03:54
Always good to be polite.
73
234898
1251
Всегда полезно быть вежливым.
03:56
(Laughter)
74
236149
2628
(Смех)
04:00
And by having this unified language interface on top of tools,
75
240361
5464
Имея единый языковый интерфейс наряду с инструментами,
04:05
the AI is able to sort of take away all those details from you.
76
245867
4630
ИИ способен избавить вас от всех этих деталей.
04:10
So you don't have to be the one
77
250538
1543
Вам не нужно формулировать каждую деталь того,
04:12
who spells out every single sort of little piece
78
252123
2294
04:14
of what's supposed to happen.
79
254459
1543
что должно произойти.
04:16
And as I said, this is a live demo,
80
256419
1710
Поскольку это живая демонстрация,
04:18
so sometimes the unexpected will happen to us.
81
258129
3379
иногда будут случаться сюрпризы.
04:21
But let's take a look at the Instacart shopping list while we're at it.
82
261549
3420
Но давайте посмотрим на список продуктов в Instacart.
04:25
And you can see we sent a list of ingredients to Instacart.
83
265386
3254
Вот мы отправили список продуктов в Instacart.
04:29
Here's everything you need.
84
269349
1543
Вот всё, что вам понадобится.
04:30
And the thing that's really interesting
85
270892
1877
Интересно, что традиционный интерфейс пользователя
04:32
is that the traditional UI is still very valuable, right?
86
272811
2919
всё ещё играет важную роль.
04:35
If you look at this,
87
275772
1877
Посмотрите, вы всё ещё можете изменять количества в списке.
04:37
you still can click through it and sort of modify the actual quantities.
88
277690
4296
04:41
And that's something that I think shows
89
281986
1877
Это показывает,
04:43
that they're not going away, traditional UIs.
90
283863
3253
что традиционные интерфейсы пользователя будут продолжать использоваться.
04:47
It's just we have a new, augmented way to build them.
91
287158
2795
Просто теперь у нас есть новый, расширенный способ их создания.
04:49
And now we have a tweet that's been drafted for our review,
92
289994
2920
Вот твит, который нам осталось просмотреть,
04:52
which is also a very important thing.
93
292956
1793
что тоже очень важно.
04:54
We can click “run,” and there we are, we’re the manager, we’re able to inspect,
94
294749
3712
Мы можем опубликовать его,
мы распоряжаемся им, мы можем проверить его,
04:58
we're able to change the work of the AI if we want to.
95
298461
2836
мы можем исправить работу ИИ, если мы этого хотим.
05:02
And so after this talk, you will be able to access this yourself.
96
302924
5964
После этого выступления у вас тоже будет доступ к этому.
05:17
And there we go.
97
317647
1710
А вот и результат.
05:19
Cool.
98
319816
1126
Круто.
05:22
Thank you, everyone.
99
322485
1168
Всем спасибо.
05:23
(Applause)
100
323653
3003
(Аплодисменты)
05:29
So we’ll cut back to the slides.
101
329367
1627
А теперь вернёмся к слайдам.
05:32
Now, the important thing about how we build this,
102
332954
3587
В процессе создания этой технологии
05:36
it's not just about building these tools.
103
336583
2210
важно не только создавать инструменты,
05:38
It's about teaching the AI how to use them.
104
338793
2252
но и обучать ИИ, как ими пользоваться.
05:41
Like, what do we even want it to do
105
341087
1710
Что вообще мы хотим от ИИ,
05:42
when we ask these very high-level questions?
106
342839
2419
когда задаём эти сложные вопросы?
05:45
And to do this, we use an old idea.
107
345258
2669
Чтобы добиться этого, мы использовали старую идею.
05:48
If you go back to Alan Turing's 1950 paper on the Turing test, he says,
108
348261
3337
В 1950 году в статье о тесте Тьюринга Алан Тьюринг написал,
05:51
you'll never program an answer to this.
109
351598
2043
что этот ответ никогда не будет запрограммирован.
05:53
Instead, you can learn it.
110
353683
1627
Вместо этого его можно выучить.
05:55
You could build a machine, like a human child,
111
355351
2169
Можно построить машину как ребёнка,
05:57
and then teach it through feedback.
112
357520
2127
а потом обучить её с помощью обратной связи.
05:59
Have a human teacher who provides rewards and punishments
113
359689
2711
Нужен человек-учитель, поощряющий или наказывающий,
06:02
as it tries things out and does things that are either good or bad.
114
362400
3212
когда машина пробует разные вещи и делает что-то хорошо или плохо.
06:06
And this is exactly how we train ChatGPT.
115
366237
2002
Именно так мы и обучаем ChatGPT.
06:08
It's a two-step process.
116
368239
1168
Процесс состоит из двух этапов.
06:09
First, we produce what Turing would have called a child machine
117
369449
3086
Сначала мы создаём то, что Тьюринг назвал бы машиной-ребёнком,
06:12
through an unsupervised learning process.
118
372535
1960
в процессе неконтролируемого обучения.
06:14
We just show it the whole world, the whole internet
119
374495
2461
Мы показываем ей весь мир, весь интернет, и говорим:
06:16
and say, “Predict what comes next in text you’ve never seen before.”
120
376956
3212
«Предскажи, что будет дальше в тексте, которого ты ещё не видела».
06:20
And this process imbues it with all sorts of wonderful skills.
121
380168
3044
В этом процессе она приобретает разные удивительные навыки.
06:23
For example, if you're shown a math problem,
122
383212
2086
Если вам надо решить математическую задачу,
06:25
the only way to actually complete that math problem,
123
385298
2544
единственный способ это сделать —
06:27
to say what comes next,
124
387884
1334
показать, что следует, —
06:29
that green nine up there,
125
389218
1293
эта зелёная цифра девять —
06:30
is to actually solve the math problem.
126
390511
2294
это взять и решить эту математическую задачку.
06:34
But we actually have to do a second step, too,
127
394432
2169
Но нам надо сделать ещё и второй шаг—
06:36
which is to teach the AI what to do with those skills.
128
396601
2544
научить ИИ пользоваться этими навыками.
Для этого мы предоставляем обратную связь.
06:39
And for this, we provide feedback.
129
399187
1668
06:40
We have the AI try out multiple things, give us multiple suggestions,
130
400855
3253
ИИ пробует разные подходы, даёт нам разные предложения,
06:44
and then a human rates them, says “This one’s better than that one.”
131
404150
3212
а затем человек даёт им оценку: «Этот ответ лучше, чем тот».
Это подкрепляет не только конкретно то, что сказал ИИ,
06:47
And this reinforces not just the specific thing that the AI said,
132
407362
3086
но, что очень важно, весь процесс, который использовал ИИ, чтобы ответить.
06:50
but very importantly, the whole process that the AI used to produce that answer.
133
410448
3795
Это позволяет ИИ обобщать,
06:54
And this allows it to generalize.
134
414243
1585
06:55
It allows it to teach, to sort of infer your intent
135
415828
2419
учить, делать выводы о вашем намерении
06:58
and apply it in scenarios that it hasn't seen before,
136
418247
2503
и применять эти знания в новых ситуациях,
07:00
that it hasn't received feedback.
137
420750
1585
для которых он ещё не получал обратной связи.
07:02
Now, sometimes the things we have to teach the AI
138
422669
2460
Иногда нам нужно учить ИИ делать что-то такое,
07:05
are not what you'd expect.
139
425171
1543
чего вы не ожидали.
07:06
For example, when we first showed GPT-4 to Khan Academy,
140
426756
3086
Например, когда мы впервые показали GPT-4 Академии Хана,
07:09
they said, "Wow, this is so great,
141
429884
1627
там сказали: «Здорово!
07:11
We're going to be able to teach students wonderful things.
142
431552
2753
Мы сможем учить детей чудесным вещам.
Но есть проблема: ИИ не проверяет вычисления учеников.
07:14
Only one problem, it doesn't double-check students' math.
143
434347
3462
07:17
If there's some bad math in there,
144
437809
1626
Если есть вычислительная ошибка,
07:19
it will happily pretend that one plus one equals three and run with it."
145
439477
3462
ИИ с радостью согласится, что один плюс один — это три».
07:23
So we had to collect some feedback data.
146
443523
2294
Поэтому нам пришлось собрать обратную связь.
07:25
Sal Khan himself was very kind
147
445858
1544
Сам Салман Хан потратил 20 часов личного времени,
07:27
and offered 20 hours of his own time to provide feedback to the machine
148
447443
3337
наряду с нашей командой, чтобы предоставить машине обратную связь.
07:30
alongside our team.
149
450780
1501
07:32
And over the course of a couple of months we were able to teach the AI that,
150
452323
3587
За пару месяцев мы смогли объяснить ИИ,
07:35
"Hey, you really should push back on humans
151
455910
2044
что в конкретном случае он должен перепроверять людей.
07:37
in this specific kind of scenario."
152
457954
2044
07:41
And we've actually made lots and lots of improvements to the models this way.
153
461416
4921
Таким образом мы во многом усовершенствовали модели.
07:46
And when you push that thumbs down in ChatGPT,
154
466379
2544
Когда вы сообщаете, что вам что-то не нравится в ChatGPT,
07:48
that actually is kind of like sending up a bat signal to our team to say,
155
468965
3462
это служит сигналом для нашей команды:
«Тут слабое место, где вам надо собрать обратную связь».
07:52
“Here’s an area of weakness where you should gather feedback.”
156
472427
2919
07:55
And so when you do that,
157
475388
1168
Когда вы делаете это,
07:56
that's one way that we really listen to our users
158
476597
2294
мы прислушиваемся к вам, нашим пользователям,
07:58
and make sure we're building something that's more useful for everyone.
159
478933
3378
и добиваемся того, чтобы то, что мы создаём,
было более полезным для всех.
08:02
Now, providing high-quality feedback is a hard thing.
160
482895
3754
Обеспечить высококачественную обратную связь непросто.
08:07
If you think about asking a kid to clean their room,
161
487025
2460
Скажем, вы просите ребёнка убрать комнату.
08:09
if all you're doing is inspecting the floor,
162
489485
2711
Если при этом вы проверяете только пол,
08:12
you don't know if you're just teaching them to stuff all the toys in the closet.
163
492196
3796
откуда вы знаете, что вы не учите ребёнка просто забивать игрушками шкаф?
08:15
This is a nice DALL-E-generated image, by the way.
164
495992
2627
Это, кстати, красивая картинка, созданная DALL-E.
08:19
And the same sort of reasoning applies to AI.
165
499912
4713
То же самое можно сказать об ИИ.
08:24
As we move to harder tasks,
166
504667
1794
С усложнением задач
08:26
we will have to scale our ability to provide high-quality feedback.
167
506502
3796
нам придётся предоставлять более высококачественную обратную связь.
08:30
But for this, the AI itself is happy to help.
168
510882
3879
Но и сам ИИ рад помочь нам с этим.
08:34
It's happy to help us provide even better feedback
169
514761
2335
Он рад помочь нам предоставлять лучшую обратную связь
08:37
and to scale our ability to supervise the machine as time goes on.
170
517138
3587
и улучшать нашу способность контролировать машину со временем.
08:40
And let me show you what I mean.
171
520767
1543
Я покажу вам, что я имею в виду.
08:42
For example, you can ask GPT-4 a question like this,
172
522810
4546
Например, вы можете задать GPT-4 такой вопрос:
08:47
of how much time passed between these two foundational blogs
173
527356
3295
сколько времени прошло между двумя основополагающими блогами
08:50
on unsupervised learning
174
530693
1668
о неконтролируемом обучении
08:52
and learning from human feedback.
175
532403
1794
и обучении с помощью обратной связи.
08:54
And the model says two months passed.
176
534197
2460
Модель отвечает, что прошло два месяца.
08:57
But is it true?
177
537075
1167
Но так ли это?
08:58
Like, these models are not 100-percent reliable,
178
538284
2252
Эти модели надёжны не на все 100%,
09:00
although they’re getting better every time we provide some feedback.
179
540536
3921
но они становятся точнее каждый раз, когда мы даём им обратную связь.
09:04
But we can actually use the AI to fact-check.
180
544457
3086
Однако мы можем использовать ИИ для проверки фактов.
09:07
And it can actually check its own work.
181
547543
1877
Машина в состоянии проверять собственную работу.
09:09
You can say, fact-check this for me.
182
549462
1877
Можно попросить её перепроверить что-то.
09:12
Now, in this case, I've actually given the AI a new tool.
183
552757
3670
В данном случае я предоставил ИИ новый инструмент,
09:16
This one is a browsing tool
184
556427
1710
средство просмотра,
с помощью которого модель может осуществлять поисковые запросы
09:18
where the model can issue search queries and click into web pages.
185
558137
3879
и нажимать на страницы.
09:22
And it actually writes out its whole chain of thought as it does it.
186
562016
3253
При этом она выдаёт всю свою цепочку мыслей.
09:25
It says, I’m just going to search for this and it actually does the search.
187
565269
3587
Она говорит, что собирается поискать нечто и осуществляет этот поиск.
09:28
It then it finds the publication date and the search results.
188
568856
3128
А затем она находит дату публикации в результатах поиска.
09:32
It then is issuing another search query.
189
572026
1919
Потом она запускает следующий поиск.
09:33
It's going to click into the blog post.
190
573945
1877
Она заходит на страницу блога.
09:35
And all of this you could do, but it’s a very tedious task.
191
575822
2877
Вы тоже могли бы всё это проделать, но это очень нудная работа.
09:38
It's not a thing that humans really want to do.
192
578741
2211
Людям не нравится делать такое.
09:40
It's much more fun to be in the driver's seat,
193
580952
2169
Намного интереснее быть на месте водителя,
быть на месте менеджера,
09:43
to be in this manager's position where you can, if you want,
194
583162
2836
где вы можете при желании осуществить тройную проверку.
09:45
triple-check the work.
195
585998
1210
Вот ссылки,
09:47
And out come citations
196
587208
1501
09:48
so you can actually go
197
588709
1168
и вы можете легко проверить каждый шаг этой мыслительной цепочки.
09:49
and very easily verify any piece of this whole chain of reasoning.
198
589919
3754
09:53
And it actually turns out two months was wrong.
199
593673
2210
Оказывается, это были не совсем два месяца.
09:55
Two months and one week,
200
595883
2169
Два месяца и одна неделя —
09:58
that was correct.
201
598094
1251
вот что правильно.
10:00
(Applause)
202
600888
3837
(Аплодисменты)
10:07
And we'll cut back to the side.
203
607645
1502
А теперь вернёмся к слайдам.
10:09
And so thing that's so interesting to me about this whole process
204
609147
3920
Больше всего в этом процессе меня интересует
10:13
is that it’s this many-step collaboration between a human and an AI.
205
613067
3962
многоэтапное сотрудничество между человеком и ИИ.
10:17
Because a human, using this fact-checking tool
206
617029
2461
Человек с таким инструментом для проверки фактов
10:19
is doing it in order to produce data
207
619532
2210
делает это для того, чтобы создать данные
10:21
for another AI to become more useful to a human.
208
621742
3170
для другого ИИ, чтобы тот стал более полезным для человека.
10:25
And I think this really shows the shape of something
209
625454
2545
Я считаю, что это демонстрирует тренд,
10:28
that we should expect to be much more common in the future,
210
628040
3087
который мы будем чаще видеть в будущем,
10:31
where we have humans and machines kind of very carefully
211
631127
2711
когда люди будут работать с машинами,
10:33
and delicately designed in how they fit into a problem
212
633880
3503
очень аккуратно и точно спроектированными с тем,
чтобы они подходили для проблемы и желаемого способа ее решения.
10:37
and how we want to solve that problem.
213
637425
1918
10:39
We make sure that the humans are providing the management, the oversight,
214
639385
3462
Мы заботимся о том, чтобы люди осуществляли управление, надзор
10:42
the feedback,
215
642847
1168
и предоставляли обратную связь,
10:44
and the machines are operating in a way that's inspectable
216
644015
2752
а работа машин легко поддавалась проверке
и была надёжной.
10:46
and trustworthy.
217
646809
1126
Совместными усилиями мы можем создавать ещё более надёжные машины.
10:47
And together we're able to actually create even more trustworthy machines.
218
647977
3503
Думаю, что со временем, организовав этот процесс правильно,
10:51
And I think that over time, if we get this process right,
219
651522
2711
мы сможем решать невероятные проблемы.
10:54
we will be able to solve impossible problems.
220
654233
2127
Чтобы вы поняли, какие невероятные проблемы я имею в виду,
10:56
And to give you a sense of just how impossible I'm talking,
221
656360
3963
11:00
I think we're going to be able to rethink almost every aspect
222
660323
2878
я думаю, что мы сможем заново определить почти все аспекты того,
11:03
of how we interact with computers.
223
663242
2378
как мы взаимодействуем с компьютерами.
11:05
For example, think about spreadsheets.
224
665620
2502
Возьмём, например, электронные таблицы.
11:08
They've been around in some form since, we'll say, 40 years ago with VisiCalc.
225
668122
4379
Они существуют в той или иной форме уже лет 40, со времен VisiCalc.
11:12
I don't think they've really changed that much in that time.
226
672543
2878
Мне кажется, они мало изменились за это время.
11:16
And here is a specific spreadsheet of all the AI papers on the arXiv
227
676214
5922
Вот таблица всех публикаций об ИИ в arXiv
11:22
for the past 30 years.
228
682178
1168
за последние 30 лет.
11:23
There's about 167,000 of them.
229
683346
1960
Тут около 167 000 публикаций.
11:25
And you can see there the data right here.
230
685348
2878
Тут вы можете видеть данные.
11:28
But let me show you the ChatGPT take on how to analyze a data set like this.
231
688267
3837
Но давайте я покажу вам, как ChatGPT может проанализировать такой набор данных.
11:37
So we can give ChatGPT access to yet another tool,
232
697318
3837
Мы можем дать ChatGPT доступ к ещё одному инструменту.
11:41
this one a Python interpreter,
233
701197
1460
Это интерпретатор Python,
11:42
so it’s able to run code, just like a data scientist would.
234
702657
4004
позволяющий ChatGPT запускать программы, как это делает специалист по данным.
11:46
And so you can just literally upload a file
235
706661
2335
Так что можно просто загрузить файл
11:48
and ask questions about it.
236
708996
1335
и задать по нему вопросы.
11:50
And very helpfully, you know, it knows the name of the file and it's like,
237
710373
3545
К счастью, ИИ понимает, что это файл CSV,
11:53
"Oh, this is CSV," comma-separated value file,
238
713960
2419
файл со значениями, разделёнными запятыми,
и собирается преобразовать его соответственно.
11:56
"I'll parse it for you."
239
716420
1335
11:57
The only information here is the name of the file,
240
717755
2794
Единственная информация здесь — это название файла,
12:00
the column names like you saw and then the actual data.
241
720591
3671
названия столбцов и сами данные.
12:04
And from that it's able to infer what these columns actually mean.
242
724262
4504
Эта информации позволяет ИИ понять, что эти столбцы означают.
12:08
Like, that semantic information wasn't in there.
243
728766
2294
Семантической информации там нет.
12:11
It has to sort of, put together its world knowledge of knowing that,
244
731102
3211
ИИ должен скомбинировать свои знания о мире:
12:14
“Oh yeah, arXiv is a site that people submit papers
245
734355
2502
«Ну, да, arXiV — это сайт, куда люди отправляют статьи,
12:16
and therefore that's what these things are and that these are integer values
246
736857
3587
и поэтому это сами статьи, а тут — целые числа,
то есть это количество авторов в статье».
12:20
and so therefore it's a number of authors in the paper,"
247
740486
2628
12:23
like all of that, that’s work for a human to do,
248
743114
2252
Всё это работа для человека, с которой ИИ с радостью поможет.
12:25
and the AI is happy to help with it.
249
745408
1751
Я даже не знаю, что бы мне попросить.
12:27
Now I don't even know what I want to ask.
250
747159
2002
12:29
So fortunately, you can ask the machine,
251
749203
3003
К счастью, вы можете попросить машину
12:32
"Can you make some exploratory graphs?"
252
752248
1877
построить исследовательские графики.
12:37
And once again, this is a super high-level instruction with lots of intent behind it.
253
757461
4004
Опять-таки, это инструкция очень высокого уровня,
за которой может стоять множество целей.
12:41
But I don't even know what I want.
254
761507
1668
Но я даже не знаю, чего я хочу.
12:43
And the AI kind of has to infer what I might be interested in.
255
763175
2920
ИИ должен сделать вывод о том, что мне может быть интересно.
12:46
And so it comes up with some good ideas, I think.
256
766137
2294
Я думаю, что он выдаёт довольно хорошие идеи.
12:48
So a histogram of the number of authors per paper,
257
768472
2336
Гистограмма количества авторов по статьям,
12:50
time series of papers per year, word cloud of the paper titles.
258
770850
2961
статьи сгруппированные по годам,
облако слов из названий статей.
12:53
All of that, I think, will be pretty interesting to see.
259
773853
2627
Всё это, мне кажется, довольно интересно.
Самое главное, ИИ может построить эти графики.
12:56
And the great thing is, it can actually do it.
260
776522
2169
12:58
Here we go, a nice bell curve.
261
778691
1460
Вот красивая Гауссова кривая.
Видно, что число три встречается чаще всего.
13:00
You see that three is kind of the most common.
262
780151
2169
13:02
It's going to then make this nice plot of the papers per year.
263
782320
5797
А вот красивый график количества статей по годам.
13:08
Something crazy is happening in 2023, though.
264
788117
2294
Что-то странное происходит в 2023 году.
13:10
Looks like we were on an exponential and it dropped off the cliff.
265
790411
3128
Рост, казалось бы, был экспоненциальным, и вдруг он резко прекратился.
13:13
What could be going on there?
266
793539
1460
В чём тут может быть дело?
13:14
By the way, all this is Python code, you can inspect.
267
794999
2753
Кстати, это всё код Python, который вы можете проверить.
13:17
And then we'll see word cloud.
268
797752
1459
А вот и облако слов.
13:19
So you can see all these wonderful things that appear in these titles.
269
799253
3378
Вы видите все эти замечательные слова, встречающиеся в заголовках.
13:23
But I'm pretty unhappy about this 2023 thing.
270
803090
2127
Но мне очень не нравится ситуация в 2023 году.
13:25
It makes this year look really bad.
271
805634
1711
Год кажется очень плохим.
13:27
Of course, the problem is that the year is not over.
272
807345
2877
Конечно же, дело в том, что год ещё не закончился.
13:30
So I'm going to push back on the machine.
273
810222
2878
Так что я попрошу машину пересчитать.
13:33
[Waitttt that's not fair!!!
274
813142
1585
[Подожди, это не честно!!!
13:34
2023 isn't over.
275
814727
1293
2023 год ещё не закончился.
13:38
What percentage of papers in 2022 were even posted by April 13?]
276
818481
5088
Какой процент статей 2022 года был опубликован к 13 апреля?]
13:44
So April 13 was the cut-off date I believe.
277
824695
2294
Кажется, 13 апреля было датой начала отсчёта.
13:47
Can you use that to make a fair projection?
278
827656
4922
Можешь использовать эту дату, чтобы создать удовлетворительный прогноз?
13:54
So we'll see, this is the kind of ambitious one.
279
834747
2294
Как видите, это амбициозная задача.
13:57
(Laughter)
280
837083
1126
(Смех)
13:59
So you know,
281
839877
1251
Видите,
14:01
again, I feel like there was more I wanted out of the machine here.
282
841128
3921
я снова хотел получить от машины больше.
14:05
I really wanted it to notice this thing,
283
845049
2502
Я хотел, чтобы ИИ заметил этот нюанс,
14:07
maybe it's a little bit of an overreach for it
284
847593
3128
возможно я ожидаю слишком многого от машины,
14:10
to have sort of, inferred magically that this is what I wanted.
285
850763
3378
чтобы она волшебным способом поняла, чего я хочу.
14:14
But I inject my intent,
286
854183
1627
Но я добавляю своё намерение,
14:15
I provide this additional piece of, you know, guidance.
287
855810
4754
предоставляю дополнительную информацию, руководство.
14:20
And under the hood,
288
860564
1168
За кулисами
14:21
the AI is just writing code again, so if you want to inspect what it's doing,
289
861774
3629
ИИ просто переписывает код, и если вы хотите его проверить,
14:25
it's very possible.
290
865403
1251
это можно сделать.
14:26
And now, it does the correct projection.
291
866654
3628
И теперь мы видим правильный прогноз.
14:30
(Applause)
292
870282
5005
(Аплодисменты)
14:35
If you noticed, it even updates the title.
293
875287
2169
Если вы заметили, даже заголовок поменялся.
14:37
I didn't ask for that, but it know what I want.
294
877498
2336
Я об этом не просил, но ИИ знает, чего я хочу.
14:41
Now we'll cut back to the slide again.
295
881794
2544
Давайте теперь вернёмся к слайдам.
14:45
This slide shows a parable of how I think we ...
296
885714
4880
Этот слайд показывает видение того,
как мы станем использовать эту технологию в будущем.
14:51
A vision of how we may end up using this technology in the future.
297
891220
3212
14:54
A person brought his very sick dog to the vet,
298
894849
3712
Человек привёл свою очень больную собаку к ветеринару,
14:58
and the veterinarian made a bad call to say, “Let’s just wait and see.”
299
898561
3336
а ветеринар принял плохое решение — просто подождать.
15:01
And the dog would not be here today had he listened.
300
901897
2795
И этой собаки сегодня не было бы в живых, если бы он послушался.
15:05
In the meanwhile, he provided the blood test,
301
905401
2252
Между тем этот человек
предоставил ChatGPT анализы крови и медицинские данные,
15:07
like, the full medical records, to GPT-4,
302
907653
2586
15:10
which said, "I am not a vet, you need to talk to a professional,
303
910281
3170
и ChatGPT сказал: «Я не ветеринар, поговорите со специалистом,
15:13
here are some hypotheses."
304
913492
1710
но вот моя гипотеза».
15:15
He brought that information to a second vet
305
915786
2127
С этой гипотезой он пошёл к другому врачу,
15:17
who used it to save the dog's life.
306
917913
1835
который спас собаке жизнь.
15:21
Now, these systems, they're not perfect.
307
921292
2252
Конечно, эти системы неидеальны.
15:23
You cannot overly rely on them.
308
923544
2336
Нельзя полагаться на них на все 100%.
15:25
But this story, I think, shows
309
925880
3712
Но эта история показывает,
15:29
that a human with a medical professional
310
929592
3044
что человек с медицинским образованием
15:32
and with ChatGPT as a brainstorming partner
311
932678
2461
и с ChatGPT в качестве партнёра по разработке гипотез
15:35
was able to achieve an outcome that would not have happened otherwise.
312
935181
3295
смогли достичь результата, который был бы недостижим иначе.
15:38
I think this is something we should all reflect on,
313
938476
2419
Нам всем следует над этим поразмыслить,
15:40
think about as we consider how to integrate these systems
314
940895
2711
подумать о том, как мы хотим интегрировать эти системы
15:43
into our world.
315
943606
1167
в наш мир.
15:44
And one thing I believe really deeply,
316
944815
1835
Я твёрдо верю в то, что для того,
15:46
is that getting AI right is going to require participation from everyone.
317
946650
4338
чтобы создать хороший ИИ, потребуется участие каждого.
15:50
And that's for deciding how we want it to slot in,
318
950988
2377
Это касается того, куда мы хотим встроить ИИ,
15:53
that's for setting the rules of the road,
319
953365
1961
какие правила установим при этом,
15:55
for what an AI will and won't do.
320
955367
2044
что ИИ будет делать и чего нет.
15:57
And if there's one thing to take away from this talk,
321
957453
2502
Из моего выступления можно сделать следующий вывод:
15:59
it's that this technology just looks different.
322
959997
2211
эта технология просто очень отличается
16:02
Just different from anything people had anticipated.
323
962208
2502
от всего, что люди ожидали.
16:04
And so we all have to become literate.
324
964710
1835
И нам всем нужно её ознакомиться с ней.
16:06
And that's, honestly, one of the reasons we released ChatGPT.
325
966587
2961
Это одна из причин нашего решения выпустить ChatGPT.
16:09
Together, I believe that we can achieve the OpenAI mission
326
969548
3128
Я верю, что вместе мы можем воплотить миссию OpenAI:
16:12
of ensuring that artificial general intelligence
327
972718
2252
обеспечить, чтобы ИИ приносил пользу всему человечеству.
16:14
benefits all of humanity.
328
974970
1877
16:16
Thank you.
329
976847
1168
Спасибо.
16:18
(Applause)
330
978057
6965
(Аплодисменты)
16:33
(Applause ends)
331
993322
1168
(Аплодисменты стихают)
16:34
Chris Anderson: Greg.
332
994532
1334
Крис Андерсон: Грег.
16:36
Wow.
333
996242
1167
Потрясающе!
16:37
I mean ...
334
997868
1126
То есть ...
16:39
I suspect that within every mind out here
335
999662
3753
Я подозреваю, что все присутствующие сейчас в шоке.
16:43
there's a feeling of reeling.
336
1003457
2503
Я также подозреваю, что очень многие из тех, кто смотрит это выступление,
16:46
Like, I suspect that a very large number of people viewing this,
337
1006001
3379
16:49
you look at that and you think, “Oh my goodness,
338
1009421
2419
думают сейчас: «О, Господи,
16:51
pretty much every single thing about the way I work, I need to rethink."
339
1011882
3462
мне придётся переосмыслить почти всё, что я делаю в своей работе».
16:55
Like, there's just new possibilities there.
340
1015386
2002
Столько новых возможностей.
16:57
Am I right?
341
1017388
1168
Вы согласны со мной?
16:58
Who thinks that they're having to rethink the way that we do things?
342
1018597
3337
Кто считает, что нам придётся переосмыслить то, как мы работаем?
17:01
Yeah, I mean, it's amazing,
343
1021976
1543
Да, это поразительно.
17:03
but it's also really scary.
344
1023561
2002
Но это также пугает.
17:05
So let's talk, Greg, let's talk.
345
1025604
1585
Давайте поговорим, Грег.
17:08
I mean, I guess my first question actually is just
346
1028524
2377
Пожалуй, мой первый вопрос:
17:10
how the hell have you done this?
347
1030901
1585
как вам это удалось?
17:12
(Laughter)
348
1032486
1251
(Смех)
17:13
OpenAI has a few hundred employees.
349
1033737
2962
У OpenAI в штате несколько сотен сотрудников.
17:16
Google has thousands of employees working on artificial intelligence.
350
1036740
4755
В команде Google тысячи сотрудников работают над ИИ.
17:21
Why is it you who's come up with this technology
351
1041996
3503
Как так получилось, что именно вы создали технологию,
17:25
that shocked the world?
352
1045541
1168
повергнувшую мир в шок?
17:26
Greg Brockman: I mean, the truth is,
353
1046709
1751
Грег Брокман: Правда в том,
17:28
we're all building on shoulders of giants, right, there's no question.
354
1048502
3295
что мы создаёт на плечах у гигантов, в этом нет сомнений.
17:31
If you look at the compute progress,
355
1051797
1752
Посмотрев на вычислительный успех,
на прогресс с алгоритмами и данными,
17:33
the algorithmic progress, the data progress,
356
1053549
2085
этот прогресс виден во всей индустрии.
17:35
all of those are really industry-wide.
357
1055634
1835
Но я думаю, что в OpenAI
17:37
But I think within OpenAI,
358
1057469
1252
мы с самого начала сделали осознанный выбор по нескольким пунктам.
17:38
we made a lot of very deliberate choices from the early days.
359
1058762
2878
Первый — смотреть правде в глаза.
17:41
And the first one was just to confront reality as it lays.
360
1061640
2711
17:44
And that we just thought really hard about like:
361
1064393
2294
Мы очень серьёзно задумались над тем,
17:46
What is it going to take to make progress here?
362
1066687
2210
как добиться прогресса в этом вопросе.
17:48
We tried a lot of things that didn't work, so you only see the things that did.
363
1068939
3754
Мы многое перепробовали, и вы видите только то, что сработало.
И я думаю, что самым главным было собрать команды очень разных людей
17:52
And I think that the most important thing has been to get teams of people
364
1072693
3462
17:56
who are very different from each other to work together harmoniously.
365
1076196
3254
и сделать так, чтобы они работали вместе гармонично.
17:59
CA: Can we have the water, by the way, just brought here?
366
1079450
2711
КА: Принесите нам сюда воды, пожалуйста.
18:02
I think we're going to need it, it's a dry-mouth topic.
367
1082202
3170
От этого разговора пересыхает в горле.
18:06
But isn't there something also just about the fact
368
1086665
2795
Но не кроется ли что-то в том факте,
18:09
that you saw something in these language models
369
1089501
4755
что вы увидели нечто особое в этих языковых моделях
18:14
that meant that if you continue to invest in them and grow them,
370
1094256
3921
и поняли, что если вы продолжите инвестировать в них и развивать их,
18:18
that something at some point might emerge?
371
1098218
3129
то в какой-то момент возникнет нечто абсолютно новое?
18:21
GB: Yes.
372
1101847
1126
ГБ: Да.
18:23
And I think that, I mean, honestly,
373
1103015
2836
Я думаю, сказать по правде,
18:25
I think the story there is pretty illustrative, right?
374
1105893
2544
что наша история довольно показательна.
18:28
I think that high level, deep learning,
375
1108437
2002
Мы всегда хотели быть лабораторией глубокого обучения,
18:30
like we always knew that was what we wanted to be,
376
1110481
2335
18:32
was a deep learning lab, and exactly how to do it?
377
1112858
2419
но как именно это сделать —
этого мы не знали в начале пути.
18:35
I think that in the early days, we didn't know.
378
1115277
2211
Мы многое перепробовали,
18:37
We tried a lot of things,
379
1117529
1210
18:38
and one person was working on training a model
380
1118739
2336
и один человек обучал модель
18:41
to predict the next character in Amazon reviews,
381
1121075
2877
предсказывать следующую букву в отзывах на Amazon,
18:43
and he got a result where -- this is a syntactic process,
382
1123994
4755
и он добился результата.
Это синтаксический процесс,
18:48
you expect, you know, the model will predict where the commas go,
383
1128749
3086
и модель начала предсказывать, где будет запятая,
18:51
where the nouns and verbs are.
384
1131835
1627
где существительные, где глаголы.
18:53
But he actually got a state-of-the-art sentiment analysis classifier out of it.
385
1133504
4337
Но в итоге он получил
свехсовременный классификатор анализа эмоциональной окраски высказываний.
18:57
This model could tell you if a review was positive or negative.
386
1137883
2961
Модель могла отличить позитивный отзыв от негативного.
19:00
I mean, today we are just like, come on, anyone can do that.
387
1140886
3378
Сегодня мы считаем, что кто угодно может это сделать.
19:04
But this was the first time that you saw this emergence,
388
1144306
3087
Но тогда мы увидели впервые
19:07
this sort of semantics that emerged from this underlying syntactic process.
389
1147434
5005
эту семантику, зародившуюся из синтаксического процесса.
19:12
And there we knew, you've got to scale this thing,
390
1152481
2336
Мы поняли, что надо увеличить масштаб исследований
19:14
you've got to see where it goes.
391
1154858
1544
и посмотреть, к чему они приведут.
19:16
CA: So I think this helps explain
392
1156402
1626
КА: Это помогает объяснить
19:18
the riddle that baffles everyone looking at this,
393
1158028
2544
загадку, которой все озадачены,
19:20
because these things are described as prediction machines.
394
1160572
2753
потому что эти машины называют машинами прогнозирования.
Тем не менее, то, что мы получаем от них на выходе,
19:23
And yet, what we're seeing out of them feels ...
395
1163367
2669
19:26
it just feels impossible that that could come from a prediction machine.
396
1166036
3420
не похоже на предсказание от машины.
19:29
Just the stuff you showed us just now.
397
1169456
2378
Взять хотя бы то, что вы показали нам сегодня.
19:31
And the key idea of emergence is that when you get more of a thing,
398
1171875
3838
Ключевая идея возникновения в том, что при попытке получить больше
19:35
suddenly different things emerge.
399
1175754
1585
вдруг появляется нечто новое.
19:37
It happens all the time, ant colonies, single ants run around,
400
1177339
3045
Так бывает повсюду.
Отдельные муравьи бегают сами по себе,
19:40
when you bring enough of them together,
401
1180384
1877
но как только их собирается достаточное количество,
19:42
you get these ant colonies that show completely emergent, different behavior.
402
1182302
3629
возникают колонии с совершенно иным поведением.
19:45
Or a city where a few houses together, it's just houses together.
403
1185973
3086
Или вот город: несколько домов рядом — это лишь отдельные дома.
Но когда домов становится больше,
19:49
But as you grow the number of houses,
404
1189059
1794
19:50
things emerge, like suburbs and cultural centers and traffic jams.
405
1190894
4588
возникают новые явления: спальные районы, культурные центры, пробки.
19:57
Give me one moment for you when you saw just something pop
406
1197276
3211
Приведите мне один пример, когда вы обнаружили нечто,
20:00
that just blew your mind
407
1200529
1668
потрясшее ваше воображение,
20:02
that you just did not see coming.
408
1202197
1627
чего вы абсолютно не ожидали.
20:03
GB: Yeah, well,
409
1203824
1209
ГБ: Хорошо.
20:05
so you can try this in ChatGPT, if you add 40-digit numbers --
410
1205075
3462
Вы можете попробовать это в ChatGPT со сложением 40-значных чисел.
20:08
CA: 40-digit?
411
1208537
1168
КА: 40-значных?
20:09
GB: 40-digit numbers, the model will do it,
412
1209705
2169
ГБ: 40-значных чисел, модель это сделает,
20:11
which means it's really learned an internal circuit for how to do it.
413
1211915
3254
то есть она выучила внутреннюю процедуру того, как это работает.
20:15
And the really interesting thing is actually,
414
1215210
2127
Но интересно то, что если вы попросите её
20:17
if you have it add like a 40-digit number plus a 35-digit number,
415
1217337
3212
сложить 40-значное число с 35-значным,
20:20
it'll often get it wrong.
416
1220591
1710
она будет часто ошибаться.
20:22
And so you can see that it's really learning the process,
417
1222676
2795
Так что можно наблюдать процесс обучения.
20:25
but it hasn't fully generalized, right?
418
1225471
1876
Полного обобщения ещё не произошло.
20:27
It's like you can't memorize the 40-digit addition table,
419
1227389
2711
Вы не можете запомнить таблицу сложения 40-значных чисел —
20:30
that's more atoms than there are in the universe.
420
1230100
2294
это больше атомов, чем во всей Вселенной.
20:32
So it had to have learned something general,
421
1232394
2086
То есть ей пришлось выучить общее правило,
20:34
but that it hasn't really fully yet learned that,
422
1234480
2377
но она ещё не выучила это правило полностью,
20:36
Oh, I can sort of generalize this to adding arbitrary numbers
423
1236899
2961
не научилась обобщать его для сложения произвольных чисел
20:39
of arbitrary lengths.
424
1239902
1167
произвольной длины.
20:41
CA: So what's happened here
425
1241111
1335
КА: То есть вы позволили ей увеличить масштаб
20:42
is that you've allowed it to scale up
426
1242488
1793
20:44
and look at an incredible number of pieces of text.
427
1244281
2419
и посмотреть на огромный объём текстовой информации,
20:46
And it is learning things
428
1246742
1209
и она учится понимать то,
20:47
that you didn't know that it was going to be capable of learning.
429
1247951
3379
что вы не считали возможным для неё.
20:51
GB Well, yeah, and it’s more nuanced, too.
430
1251371
2002
ГБ: Это так, плюс есть ещё нюансы.
20:53
So one science that we’re starting to really get good at
431
1253415
2878
Мы всё лучше и лучше начинаем прогнозировать
20:56
is predicting some of these emergent capabilities.
432
1256335
2586
некоторые из этих новых способностей.
20:58
And to do that actually,
433
1258962
1335
Чтобы добиться этого,
21:00
one of the things I think is very undersung in this field
434
1260339
2711
существует недооценённое качество —
21:03
is sort of engineering quality.
435
1263050
1501
качество программирования.
21:04
Like, we had to rebuild our entire stack.
436
1264551
2044
Нам пришлось создать заново целый блок.
21:06
When you think about building a rocket,
437
1266637
1877
Представьте себе: вы строите ракету,
21:08
every tolerance has to be incredibly tiny.
438
1268555
2211
и позволяются только крошечные отклонения.
21:10
Same is true in machine learning.
439
1270766
1626
Тоже самое и с машинным обучением.
21:12
You have to get every single piece of the stack engineered properly,
440
1272434
3212
Каждый элемент блока должен быть должным образом запрограммирован,
21:15
and then you can start doing these predictions.
441
1275646
2210
и тогда можно делать эти прогнозы.
21:17
There are all these incredibly smooth scaling curves.
442
1277856
2503
Существуют плавные графики масштабирования.
21:20
They tell you something deeply fundamental about intelligence.
443
1280359
2919
Они показывают нам нечто очень фундаментальное об интеллекте.
21:23
If you look at our GPT-4 blog post,
444
1283320
1710
Если посмотреть на публикацию в блоге от ChatGPT-4,
21:25
you can see all of these curves in there.
445
1285030
1960
там можно увидеть все эти кривые.
21:26
And now we're starting to be able to predict.
446
1286990
2127
Теперь мы начинаем прогнозировать.
Мы смогли, к примеру, спрогнозировать эффективность в решении проблем с кодом.
21:29
So we were able to predict, for example, the performance on coding problems.
447
1289117
3713
21:32
We basically look at some models
448
1292871
1585
Мы смотрим на модели,
21:34
that are 10,000 times or 1,000 times smaller.
449
1294456
2461
которые в 10 000 раз или 1 000 раз меньше.
21:36
And so there's something about this that is actually smooth scaling,
450
1296959
3211
В этом плавном масштабировании что-то есть ,
21:40
even though it's still early days.
451
1300170
2044
хотя мы находимся только в начале пути.
21:42
CA: So here is, one of the big fears then,
452
1302756
2544
КА: Вот один из больших страхов,
21:45
that arises from this.
453
1305300
1252
порождаемых этим.
21:46
If it’s fundamental to what’s happening here,
454
1306593
2127
Если это основа того,
21:48
that as you scale up,
455
1308720
1210
что в процессе увеличения масштаба
21:49
things emerge that
456
1309930
2419
неизбежно зарождаются вещи,
21:52
you can maybe predict in some level of confidence,
457
1312349
4171
которые вы можете прогнозировать в какой-то мере,
21:56
but it's capable of surprising you.
458
1316562
2544
но которые всё ещё способны вас удивить.
22:00
Why isn't there just a huge risk of something truly terrible emerging?
459
1320816
4463
Есть ли огромный риск зарождения чего-то ужасного?
22:05
GB: Well, I think all of these are questions of degree
460
1325320
2545
ГБ: Я думаю, всё это вопросы степени,
22:07
and scale and timing.
461
1327865
1209
масштаба и времени.
22:09
And I think one thing people miss, too,
462
1329116
1877
Люди часто упускают из виду,
22:10
is sort of the integration with the world is also this incredibly emergent,
463
1330993
3587
что интеграция ИИ в наш мир — это тоже удивительное
22:14
sort of, very powerful thing too.
464
1334621
1585
мощное новое явление.
22:16
And so that's one of the reasons that we think it's so important
465
1336248
3045
Поэтому мы думаем, что очень важно внедрять ИИ постепенно.
22:19
to deploy incrementally.
466
1339293
1167
Если посмотреть на это выступление,
22:20
And so I think that what we kind of see right now, if you look at this talk,
467
1340502
3629
я много фокусируюсь на высококачественной обратной связи.
22:24
a lot of what I focus on is providing really high-quality feedback.
468
1344131
3170
Вы можете проверять то, что мы делаем.
22:27
Today, the tasks that we do, you can inspect them, right?
469
1347301
2711
Если взять математическую задачу, можно легко сказать машине,
22:30
It's very easy to look at that math problem and be like, no, no, no,
470
1350012
3211
что ответ неправилен и правильный ответ — это семь.
22:33
machine, seven was the correct answer.
471
1353265
1835
Но даже краткое изложение книги сложно проконтролировать.
22:35
But even summarizing a book, like, that's a hard thing to supervise.
472
1355100
3212
Откуда вы знаете, что оно сделано хорошо?
22:38
Like, how do you know if this book summary is any good?
473
1358312
2586
Надо прочесть всю книгу.
22:40
You have to read the whole book.
474
1360939
1543
Никто не хочет этого делать.
22:42
No one wants to do that.
475
1362482
1168
(Смех)
22:43
(Laughter)
476
1363692
1293
22:44
And so I think that the important thing will be that we take this step by step.
477
1364985
4296
Поэтому я считаю важным решать это поэтапно.
22:49
And that we say, OK, as we move on to book summaries,
478
1369323
2544
Если будет осуществляться краткое изложение книг,
22:51
we have to supervise this task properly.
479
1371867
1960
нам нужно будет проверять его должным образом.
22:53
We have to build up a track record with these machines
480
1373827
2586
Нам нужно следить за данными этих машин,
22:56
that they're able to actually carry out our intent.
481
1376413
2586
чтобы убедиться, что они могут осуществлять наши намерения.
22:59
And I think we're going to have to produce even better, more efficient,
482
1379041
3336
Думаю, нам придётся создавать лучшие, более продуктивные
23:02
more reliable ways of scaling this,
483
1382419
1710
и надёжные способы увеличения масштаба,
23:04
sort of like making the machine be aligned with you.
484
1384129
2878
лучше согласовывать машину с нами.
23:07
CA: So we're going to hear later in this session,
485
1387049
2294
КА: Далее в этой сессии мы услышим критиков,
23:09
there are critics who say that,
486
1389343
1543
которые говорят, что нет истинного понимания
23:10
you know, there's no real understanding inside,
487
1390928
4587
23:15
the system is going to always --
488
1395557
1627
и мы никогда не узнаем, генерирует ли система ошибки,
23:17
we're never going to know that it's not generating errors,
489
1397225
3212
23:20
that it doesn't have common sense and so forth.
490
1400479
2210
что у неё нет здравого смысла и так далее.
23:22
Is it your belief, Greg, that it is true at any one moment,
491
1402689
4088
В вашем понимании, Грег, правда ли это,
23:26
but that the expansion of the scale and the human feedback
492
1406818
3629
и поможет ли масштабирование и обратная связь от человека,
23:30
that you talked about is basically going to take it on that journey
493
1410489
4963
о которой вы говорили, задать правильный курс
23:35
of actually getting to things like truth and wisdom and so forth,
494
1415494
3837
на правду, мудрость и так далее?
Можете ли вы утверждать это с высокой степенью уверенности?
23:39
with a high degree of confidence.
495
1419331
1627
23:40
Can you be sure of that?
496
1420999
1335
Можно ли поручиться за это?
23:42
GB: Yeah, well, I think that the OpenAI, I mean, the short answer is yes,
497
1422334
3462
ГБ: Короткий ответ в связи с OpenAI — это да.
23:45
I believe that is where we're headed.
498
1425796
1793
Это то, к чему мы идём.
23:47
And I think that the OpenAI approach here has always been just like,
499
1427631
3211
OpenAI в этом плане всегда считал,
23:50
let reality hit you in the face, right?
500
1430842
1877
что необходимо смотреть в лицо суровой реальности.
23:52
It's like this field is the field of broken promises,
501
1432719
2503
Эта область деятельности — поле невыполненных обещаний,
23:55
of all these experts saying X is going to happen, Y is how it works.
502
1435263
3212
когда эксперты говорят, что произойдёт А, а происодит Б.
Люди уже 70 лет говорят, что нейронные сети не сработают.
23:58
People have been saying neural nets aren't going to work for 70 years.
503
1438475
3337
Пока ещё они не оказались правы.
24:01
They haven't been right yet.
504
1441812
1376
Может они окажутся правы через 71 год
24:03
They might be right maybe 70 years plus one
505
1443188
2044
или что-то в этом роде.
24:05
or something like that is what you need.
506
1445232
1918
Но наш подход всегда состоял в том,
24:07
But I think that our approach has always been,
507
1447192
2169
чтобы довести эту технологию до предела,
24:09
you've got to push to the limits of this technology
508
1449361
2419
увидеть её в действии,
24:11
to really see it in action,
509
1451822
1293
потому что так мы можем увидеть, как перейти к новой парадигме.
24:13
because that tells you then, oh, here's how we can move on to a new paradigm.
510
1453115
3670
Мы ещё не исчерпали все возможности.
24:16
And we just haven't exhausted the fruit here.
511
1456785
2127
КА: Вы защищаете здесь довольно спорную позицию,
24:18
CA: I mean, it's quite a controversial stance you've taken,
512
1458954
2794
что правильнее всего выпустить технологию в открытый доступ
24:21
that the right way to do this is to put it out there in public
513
1461748
2920
24:24
and then harness all this, you know,
514
1464710
1751
а затем использовать обратную связь от всего мира,
24:26
instead of just your team giving feedback,
515
1466461
2002
24:28
the world is now giving feedback.
516
1468463
2461
а не только от вашей команды,
24:30
But ...
517
1470924
1168
Но...
24:33
If, you know, bad things are going to emerge,
518
1473135
3753
технология в открытый доступе, и может произойти нечто плохое.
24:36
it is out there.
519
1476930
1168
24:38
So, you know, the original story that I heard on OpenAI
520
1478140
2919
OpenAI вначале была создана как некоммерческая организация.
24:41
when you were founded as a nonprofit,
521
1481101
1793
24:42
well you were there as the great sort of check on the big companies
522
1482894
4463
Вы были отличной сдерживающей силой для больших компаний,
24:47
doing their unknown, possibly evil thing with AI.
523
1487399
3837
которые, возможно, делают с ИИ нечто, способное принести зло.
24:51
And you were going to build models that sort of, you know,
524
1491278
4755
Вы собирались создать модели,
которые держали бы их подотчётными,
24:56
somehow held them accountable
525
1496033
1418
24:57
and was capable of slowing the field down, if need be.
526
1497492
4380
и могли бы сдержать гонку в отрасли при необходимости.
25:01
Or at least that's kind of what I heard.
527
1501872
1960
По крайней мере, это то, что я слышал.
25:03
And yet, what's happened, arguably, is the opposite.
528
1503832
2461
А получилось всё в точности наоборот.
25:06
That your release of GPT, especially ChatGPT,
529
1506334
5673
Ваш выпуск GPT, в особенности ChatGPT,
25:12
sent such shockwaves through the tech world
530
1512049
2002
стал таким шоком для всей индустрии,
25:14
that now Google and Meta and so forth are all scrambling to catch up.
531
1514051
3795
что теперь Google, Meta и другие пытаются догнать вас.
25:17
And some of their criticisms have been,
532
1517888
2085
Их критикой было отчасти то,
25:20
you are forcing us to put this out here without proper guardrails or we die.
533
1520015
4963
что вы вынуждаете их выпускать продукт без должных мер безопасности,
иначе им придёт конец.
25:25
You know, how do you, like,
534
1525020
2794
Чем вы можете подтвердить,
25:27
make the case that what you have done is responsible here and not reckless.
535
1527814
3754
что вы действовали ответственно, а не безрассудно?
25:31
GB: Yeah, we think about these questions all the time.
536
1531568
3128
ГБ: Да, мы всё время думаем над этим.
25:34
Like, seriously all the time.
537
1534738
1418
В самом деле, всё время.
25:36
And I don't think we're always going to get it right.
538
1536198
2711
Не думаю, что мы всегда будем делать всё правильно.
25:38
But one thing I think has been incredibly important,
539
1538909
2460
Но для нас было очень важно с самого начала,
25:41
from the very beginning, when we were thinking
540
1541411
2169
когда мы думали об универсальном ИИ,
25:43
about how to build artificial general intelligence,
541
1543580
2419
это как создать его таким,
25:45
actually have it benefit all of humanity,
542
1545999
2002
чтобы он приносил пользу всему человечеству.
Как это осуществить?
25:48
like, how are you supposed to do that, right?
543
1548001
2127
Стандартный план: создать что-то в тайне,
25:50
And that default plan of being, well, you build in secret,
544
1550170
2711
25:52
you get this super powerful thing,
545
1552923
1626
получить супер мощный инструмент,
25:54
and then you figure out the safety of it and then you push “go,”
546
1554549
3003
убедиться в его безопасности, запустить его и надеяться,
25:57
and you hope you got it right.
547
1557552
1460
что вы сделали всё верно.
25:59
I don't know how to execute that plan.
548
1559012
1835
Я не знаю, как выполнить такой план.
26:00
Maybe someone else does.
549
1560889
1168
Может быть, кто-то другой знает.
26:02
But for me, that was always terrifying, it didn't feel right.
550
1562099
2877
Но меня всегда такой план пугал, казался неправильным.
26:04
And so I think that this alternative approach
551
1564976
2128
Поэтому я думаю, что наш подход —
это единственный путь, который я вижу:
26:07
is the only other path that I see,
552
1567104
2043
26:09
which is that you do let reality hit you in the face.
553
1569147
2503
смотреть в лицо суровой реальностью.
26:11
And I think you do give people time to give input.
554
1571691
2336
Думаю, что надо дать людям время внести свой вклад.
26:14
You do have, before these machines are perfect,
555
1574027
2211
До того, как эти машины станут идеальными,
26:16
before they are super powerful, that you actually have the ability
556
1576279
3128
до того, как они станут более мощными,
у вас должна быть возможность увидеть их в действии.
26:19
to see them in action.
557
1579407
1168
26:20
And we've seen it from GPT-3, right?
558
1580617
1752
Мы видели это на примере GPT-3.
26:22
GPT-3, we really were afraid
559
1582369
1376
С GPT-3 мы очень боялись,
26:23
that the number one thing people were going to do with it
560
1583745
2711
что люди в первую очередь захотят генерировать дезинформацию,
26:26
was generate misinformation, try to tip elections.
561
1586456
2336
чтобы повлиять на выборы.
26:28
Instead, the number one thing was generating Viagra spam.
562
1588834
2711
Вместо этого, самое популярным стал спам с Виагрой.
26:31
(Laughter)
563
1591545
3169
(Смех)
26:36
CA: So Viagra spam is bad, but there are things that are much worse.
564
1596007
3212
КА: Спам с Виагрой — это неприятно, но есть и более ужасные вещи.
26:39
Here's a thought experiment for you.
565
1599219
1752
Вот вам мысленный эксперимент.
26:40
Suppose you're sitting in a room,
566
1600971
1710
Предположим, вы сидите в комнате,
26:42
there's a box on the table.
567
1602681
1668
на столе стоит ящик.
26:44
You believe that in that box is something that,
568
1604349
3003
Вы думаете, что в этом ящике
26:47
there's a very strong chance it's something absolutely glorious
569
1607394
2961
с очень большой вероятностью находится нечто замечательное,
26:50
that's going to give beautiful gifts to your family and to everyone.
570
1610397
3920
прекрасные подарки для вашей семьи и всех остальных.
26:54
But there's actually also a one percent thing in the small print there
571
1614359
3629
Но на самом деле есть и другая вероятность в 1% —
мелким шрифтом там написано «Пандора».
26:58
that says: “Pandora.”
572
1618029
1877
26:59
And there's a chance
573
1619906
1669
Есть шанс,
27:01
that this actually could unleash unimaginable evils on the world.
574
1621616
4088
что этот 1% может распространить по миру невообразимое зло.
27:06
Do you open that box?
575
1626538
1543
Откроете ли вы этот ящик?
27:08
GB: Well, so, absolutely not.
576
1628123
1460
ГБ: Нет, конечно же.
27:09
I think you don't do it that way.
577
1629624
1919
Думаю, что так не делают.
27:12
And honestly, like, I'll tell you a story that I haven't actually told before,
578
1632210
3796
Я расскажу вам историю, которую до сих пор никому не рассказывал.
27:16
which is that shortly after we started OpenAI,
579
1636006
2586
Вскоре после того, как мы запустили OpenAI,
27:18
I remember I was in Puerto Rico for an AI conference.
580
1638592
2711
я был в Пуэрто Рико на конференции, посвящённой ИИ.
27:21
I'm sitting in the hotel room just looking out over this wonderful water,
581
1641344
3462
Я сидел у себя в отеле, глядя на прекрасную поверхность воды
27:24
all these people having a good time.
582
1644806
1752
и на людей, наслаждающихся жизнью.
И я задумался:
27:26
And you think about it for a moment,
583
1646558
1752
если бы можно было выбрать время для этого ящика Пандоры —
27:28
if you could choose for basically that Pandora’s box
584
1648310
4504
27:32
to be five years away
585
1652814
2711
через 5 лет или 500,
27:35
or 500 years away,
586
1655567
1585
27:37
which would you pick, right?
587
1657194
1501
что бы вы выбрали?
27:38
On the one hand you're like, well, maybe for you personally,
588
1658737
2836
С одной стороны, для вас лично, возможно,
27:41
it's better to have it be five years away.
589
1661573
2002
было бы лучше через 5 лет.
27:43
But if it gets to be 500 years away and people get more time to get it right,
590
1663617
3628
Но если это займёт 500 лет, чтобы у людей было больше времени сделать всё верно,
27:47
which do you pick?
591
1667287
1168
что вы предпочтёте?
27:48
And you know, I just really felt it in the moment.
592
1668496
2336
В тот момент я это чётко почувствовал.
27:50
I was like, of course you do the 500 years.
593
1670874
2002
Конечно, через 500 лет.
27:53
My brother was in the military at the time
594
1673293
2002
Мой брат в то время служил в армии,
27:55
and like, he puts his life on the line in a much more real way
595
1675295
2961
рисковал своей жизнью, и это было намного реальнее,
27:58
than any of us typing things in computers
596
1678256
2628
чем у нас, экспериментировавших за компьютерами
28:00
and developing this technology at the time.
597
1680926
2585
и развивавших эту технологию в то время.
28:03
And so, yeah, I'm really sold on the you've got to approach this right.
598
1683511
4547
Так что я абсолютно уверен, что тут нужен правильный подход.
28:08
But I don't think that's quite playing the field as it truly lies.
599
1688058
3628
Но я не думаю, что это происходит на самом деле.
28:11
Like, if you look at the whole history of computing,
600
1691686
2670
Если посмотреть на всю историю вычислительной техники,
28:14
I really mean it when I say that this is an industry-wide
601
1694397
4463
я говорю серьёзно, когда называю это явлением в масштабах всей отрасли,
28:18
or even just almost like
602
1698902
1543
или даже практически
28:20
a human-development- of-technology-wide shift.
603
1700487
3336
сдвигом в масштабах всего технологического прогресса.
28:23
And the more that you sort of, don't put together the pieces
604
1703865
4088
В то время как люди пытаются сложить составные части правильно,
28:27
that are there, right,
605
1707994
1293
28:29
we're still making faster computers,
606
1709329
1752
создаются более мощные компьютеры,
28:31
we're still improving the algorithms, all of these things, they are happening.
607
1711081
3670
улучшаются алгоритмы — всё это продолжает происходить.
28:34
And if you don't put them together, you get an overhang,
608
1714793
2627
Если не все составные части собраны правильно, возникает опасность.
28:37
which means that if someone does,
609
1717420
1627
И к тому моменту, когда кому-то удаётся осуществить прорыв
28:39
or the moment that someone does manage to connect to the circuit,
610
1719089
3086
и возникает супер мощная технология,
28:42
then you suddenly have this very powerful thing,
611
1722175
2252
никто не успел адаптироваться
28:44
no one's had any time to adjust,
612
1724427
1544
и неизвестно, какие меры безопасности были приняты.
28:46
who knows what kind of safety precautions you get.
613
1726012
2336
28:48
And so I think that one thing I take away
614
1728390
1918
Я делаю из этого такой вывод:
28:50
is like, even you think about development of other sort of technologies,
615
1730308
3837
даже если говорить о разработке других технологий,
28:54
think about nuclear weapons,
616
1734187
1376
например, ядерного оружия,
28:55
people talk about being like a zero to one,
617
1735563
2002
люди говорят о мгновенных резких переменах.
28:57
sort of, change in what humans could do.
618
1737565
2628
29:00
But I actually think that if you look at capability,
619
1740235
2461
Но я считаю, если говорить о возможностях,
29:02
it's been quite smooth over time.
620
1742696
1585
перемены происходили плавно.
29:04
And so the history, I think, of every technology we've developed
621
1744281
3670
Так что я думаю, что история всех созданных нами технологий
29:07
has been, you've got to do it incrementally
622
1747993
2002
свидетельствует о том, что надо развиваться постепенно,
29:10
and you've got to figure out how to manage it
623
1750036
2127
и находить способы управлять ими
на каждым очередном шагу.
29:12
for each moment that you're increasing it.
624
1752163
2461
29:14
CA: So what I'm hearing is that you ...
625
1754666
2252
КА: Как понимаю, вы хотите, чтобы мы думали так:
29:16
the model you want us to have
626
1756918
1668
29:18
is that we have birthed this extraordinary child
627
1758628
2795
мы создали этого удивительного ребёнка,
29:21
that may have superpowers
628
1761423
2544
у которого, вероятно, есть супер-способности,
29:24
that take humanity to a whole new place.
629
1764009
2544
и человечество перейдёт в новое состояние.
29:26
It is our collective responsibility to provide the guardrails
630
1766594
5005
Наша коллективная ответственность — обеспечить безопасность этому ребёнку
29:31
for this child
631
1771641
1210
29:32
to collectively teach it to be wise and not to tear us all down.
632
1772892
5047
и вместе научить его быть мудрым и не уничтожить всех нас.
29:37
Is that basically the model?
633
1777939
1377
Так это в вашем понимании?
29:39
GB: I think it's true.
634
1779357
1168
ГБ: Я думаю, это правда.
29:40
And I think it's also important to say this may shift, right?
635
1780567
2878
Важно оговориться, что всё может измениться.
29:43
We've got to take each step as we encounter it.
636
1783445
3253
Нужно двигаться поэтапно.
29:46
And I think it's incredibly important today
637
1786740
2002
В данный момент очень важно,
29:48
that we all do get literate in this technology,
638
1788783
2878
чтобы мы все ознакомились с этой технологией,
29:51
figure out how to provide the feedback,
639
1791661
1919
понимали, как давать ей обратную связь,
29:53
decide what we want from it.
640
1793621
1377
и решили бы, чего мы хотим от неё.
29:54
And my hope is that that will continue to be the best path,
641
1794998
3128
Надеюсь, что и дальше этот путь будет наилучшим.
Но я очень рад, что мы ведём этот разговор откровенно.
29:58
but it's so good we're honestly having this debate
642
1798168
2377
30:00
because we wouldn't otherwise if it weren't out there.
643
1800545
2628
Он не состоялся бы, если бы модель не была запущена.
30:03
CA: Greg Brockman, thank you so much for coming to TED and blowing our minds.
644
1803631
3629
КА: Грег Брокман, спасибо вам за то, что пришли и взбудоражили наши умы.
30:07
(Applause)
645
1807302
1626
(Аплодисменты)
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7