How to Govern AI — Even If It’s Hard to Predict | Helen Toner | TED

61,506 views ・ 2024-05-01

TED


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

Переводчик: Alena Chernykh
00:03
When I talk to people about artificial intelligence,
0
3583
3963
Когда я говорю с людьми об искусственном интеллекте,
00:07
something I hear a lot from non-experts is “I don’t understand AI.”
1
7546
5255
я часто слышу от непрофессионалов: «Я не разбираюсь в ИИ».
00:13
But when I talk to experts, a funny thing happens.
2
13260
2794
Но в разговоре с экспертами, происходит забавная вещь.
00:16
They say, “I don’t understand AI, and neither does anyone else.”
3
16096
4546
Они говорят: «Я не разбираюсь в ИИ, как и все остальные».
00:21
This is a pretty strange state of affairs.
4
21393
3503
Довольно странное положение дел.
00:24
Normally, the people building a new technology
5
24896
3295
Обычно люди, создающие новую технологию,
00:28
understand how it works inside and out.
6
28233
2669
понимают, как она работает изнутри и снаружи.
00:31
But for AI, a technology that's radically reshaping the world around us,
7
31695
4546
Но для ИИ технология, которая радикально меняет окружающий мир,
00:36
that's not so.
8
36283
1167
это не так.
00:37
Experts do know plenty about how to build and run AI systems, of course.
9
37492
4588
Конечно, эксперты знают много о том, как создавать и запускать системы ИИ.
00:42
But when it comes to how they work on the inside,
10
42455
2503
Но когда речь заходит о том, как они работают,
00:45
there are serious limits to how much we know.
11
45000
2877
объём наших знаний сильно ограничен.
00:48
And this matters because without deeply understanding AI,
12
48420
3879
И это важно, потому что без глубокого понимания ИИ
00:52
it's really difficult for us to know what it will be able to do next,
13
52340
4255
нам очень трудно понять, что он сможет делать в будущем
00:56
or even what it can do now.
14
56636
2336
или даже сейчас.
00:59
And the fact that we have such a hard time understanding
15
59556
3378
И тот факт, что нам так трудно понять,
01:02
what's going on with the technology and predicting where it will go next,
16
62976
3837
что происходит с технологией и предсказать её развитие в будущем,
01:06
is one of the biggest hurdles we face in figuring out how to govern AI.
17
66855
4629
является одним из самых больших препятствий на пути к управлению ИИ.
01:12
But AI is already all around us,
18
72861
2294
Но ИИ уже окружает нас повсюду,
01:15
so we can't just sit around and wait for things to become clearer.
19
75155
4254
поэтому мы не можем просто сидеть сложа руки и ждать, пока всё прояснится.
01:19
We have to forge some kind of path forward anyway.
20
79826
3170
В любом случае, нам нужно проложить какой-то путь вперёд.
01:24
I've been working on these AI policy and governance issues
21
84080
3629
Я работаю над этими вопросами политики и управления ИИ
01:27
for about eight years,
22
87751
1167
около восьми лет.
01:28
First in San Francisco, now in Washington, DC.
23
88918
3170
Сначала в Сан-Франциско, а теперь в Вашингтоне, округ Колумбия.
01:32
Along the way, I've gotten an inside look
24
92922
2753
Попутно я получила представление о том,
01:35
at how governments are working to manage this technology.
25
95717
3754
как правительства работают над управлением этой технологией.
01:39
And inside the industry, I've seen a thing or two as well.
26
99471
4421
И в самой индустрии я тоже кое-что видела.
01:45
So I'm going to share a couple of ideas
27
105852
3170
Поэтому я поделюсь некоторыми идеями о том,
01:49
for what our path to governing AI could look like.
28
109022
3629
как может выглядеть наш подход к управлению искусственным интеллектом.
01:53
But first, let's talk about what actually makes AI so hard to understand
29
113026
4421
Но сначала давайте поговорим о том, почему ИИ так сложно понять
01:57
and predict.
30
117489
1251
и предсказать.
01:59
One huge challenge in building artificial "intelligence"
31
119616
3837
Одна из серьёзных проблем в создании искусственного «интеллекта»
02:03
is that no one can agree on what it actually means
32
123495
3086
в том, что никто не может прийти к единому мнению о том,
02:06
to be intelligent.
33
126623
1752
что на самом деле значит быть умным.
02:09
This is a strange place to be in when building a new tech.
34
129000
3170
Это странное место быть внутри при создании новой технологии.
02:12
When the Wright brothers started experimenting with planes,
35
132212
3295
Когда братья Райт начали экспериментировать с самолётами,
02:15
they didn't know how to build one,
36
135507
1668
они не знали, как их построить,
02:17
but everyone knew what it meant to fly.
37
137175
3128
но все знали, что значит летать.
02:21
With AI on the other hand,
38
141596
1794
С другой стороны, что касается ИИ,
02:23
different experts have completely different intuitions
39
143431
3295
у разных экспертов совершенно разные представления о том,
02:26
about what lies at the heart of intelligence.
40
146726
2920
что лежит в основе интеллекта.
02:29
Is it problem solving?
41
149646
2210
Это решение проблем?
02:31
Is it learning and adaptation,
42
151898
2711
Это обучение и адаптация,
02:34
are emotions,
43
154651
1418
эмоции
02:36
or having a physical body somehow involved?
44
156111
3128
или каким-то образом задействовано физическое тело?
02:39
We genuinely don't know.
45
159698
1459
Мы действительно не знаем.
02:41
But different answers lead to radically different expectations
46
161157
4338
Но разные ответы приводят к совершенно разным ожиданиям того,
02:45
about where the technology is going and how fast it'll get there.
47
165537
4254
куда движется технология и как быстро она будет развиваться.
02:50
An example of how we're confused is how we used to talk
48
170834
2586
Примером нашего непонимания является то, как мы говорим
02:53
about narrow versus general AI.
49
173461
2294
об узком ИИ в сравнении с общим ИИ.
02:55
For a long time, we talked in terms of two buckets.
50
175797
3795
Долгое время мы говорили о двух сегментах.
02:59
A lot of people thought we should just be dividing between narrow AI,
51
179634
4129
Многие считали, что нам следует отдать предпочтение узкому ИИ,
03:03
trained for one specific task,
52
183763
1919
обученному выполнению конкретной задачи,
03:05
like recommending the next YouTube video,
53
185724
2669
например, порекомендовать видеоролик на YouTube,
03:08
versus artificial general intelligence, or AGI,
54
188435
3795
в сравнении с общим ИИ,
03:12
that could do everything a human could do.
55
192272
2586
способному делать всё, что может сделать человек.
03:15
We thought of this distinction, narrow versus general,
56
195859
2919
Мы считали, что это различие: узкое и общее
03:18
as a core divide between what we could build in practice
57
198778
3963
является основным между тем, что мы можем создать на практике,
03:22
and what would actually be intelligent.
58
202782
2252
и тем, что на самом деле будет разумным.
03:25
But then a year or two ago, along came ChatGPT.
59
205952
4963
Но год или два назад появился ChatGPT.
03:31
If you think about it,
60
211541
1543
Если задуматься, может,
03:33
you know, is it narrow AI, trained for one specific task?
61
213126
3712
это узкий ИИ, обученный выполнять одну конкретную задачу?
03:36
Or is it AGI and can do everything a human can do?
62
216838
3170
Или это ИИ, способный делать всё, что может делать человек?
03:41
Clearly the answer is neither.
63
221092
1502
Очевидно, что ни то, ни другое.
03:42
It's certainly general purpose.
64
222635
1919
Это, безусловно, общая цель.
03:44
It can code, write poetry,
65
224554
2920
Он умеет программировать, писать стихи,
03:47
analyze business problems, help you fix your car.
66
227515
3045
анализировать бизнес-проблемы, помогать ремонтировать машину.
03:51
But it's a far cry from being able to do everything
67
231352
2795
Но это далеко не всё то, что он может делать
03:54
as well as you or I could do it.
68
234189
2419
так же хорошо, как мы с вами.
03:56
So it turns out this idea of generality
69
236608
2043
Оказывается, идея всеобщности
03:58
doesn't actually seem to be the right dividing line
70
238651
2711
не является правильной гранью
04:01
between intelligent and not.
71
241404
2127
между интеллектом и неинтеллектом.
04:04
And this kind of thing
72
244073
1335
И такие вещи сейчас
04:05
is a huge challenge for the whole field of AI right now.
73
245450
2794
представляют собой огромную проблему для всей области ИИ.
04:08
We don't have any agreement on what we're trying to build
74
248286
2836
У нас нет единого мнения о том, что мы пытаемся создать
04:11
or on what the road map looks like from here.
75
251164
2419
или как будет выглядеть дорожная карта в будущем.
04:13
We don't even clearly understand the AI systems that we have today.
76
253625
3962
Мы даже не совсем понимаем, какие системы ИИ у нас есть сегодня.
04:18
Why is that?
77
258004
1251
Почему так?
04:19
Researchers sometimes describe deep neural networks,
78
259297
3003
Исследователи иногда называют глубокие нейронные сети,
04:22
the main kind of AI being built today,
79
262300
2085
основной вид ИИ, создаваемый сегодня,
04:24
as a black box.
80
264427
1460
чёрным ящиком.
04:26
But what they mean by that is not that it's inherently mysterious
81
266304
3670
Но они подразумевают вовсе не то, что всё по своей природе таинственно
04:29
and we have no way of looking inside the box.
82
269974
2711
и что мы не можем заглянуть внутрь ящика.
04:33
The problem is that when we do look inside,
83
273228
2669
Проблема в том, что, заглянув внутрь,
04:35
what we find are millions,
84
275939
2335
мы обнаружим миллионы,
04:38
billions or even trillions of numbers
85
278316
2878
миллиарды или даже триллионы чисел,
04:41
that get added and multiplied together in a particular way.
86
281194
3462
которые складываются и умножаются определённым образом.
04:45
What makes it hard for experts to know what's going on
87
285031
2544
По сути, экспертам сложно понять, что происходит,
04:47
is basically just, there are too many numbers,
88
287617
3086
потому что цифр слишком много,
04:50
and we don't yet have good ways of teasing apart what they're all doing.
89
290745
3962
и у нас пока нет чётких способов разграничить их действия.
04:54
There's a little bit more to it than that, but not a lot.
90
294707
3003
В этом есть нечто большее, но далеко не всё.
04:58
So how do we govern this technology
91
298545
3003
Как же нам управлять этой технологией,
05:01
that we struggle to understand and predict?
92
301589
2628
которую нам трудно понять и предсказать?
05:04
I'm going to share two ideas.
93
304717
1502
Я поделюсь двумя идеями.
05:06
One for all of us and one for policymakers.
94
306261
3253
Одна для всех нас и одна для разработчиков технологии.
05:10
First, don't be intimidated.
95
310932
2711
Во-первых, не пугайтесь.
05:14
Either by the technology itself
96
314102
2461
Либо самой технологией,
05:16
or by the people and companies building it.
97
316563
3086
либо людьми и компаниями, создающими ее.
05:20
On the technology,
98
320400
1168
Что касается технологии,
05:21
AI can be confusing, but it's not magical.
99
321568
2502
ИИ может сбивать с толку, но это не волшебство.
05:24
There are some parts of AI systems we do already understand well,
100
324070
3504
Некоторые части систем ИИ мы уже хорошо понимаем,
05:27
and even the parts we don't understand won't be opaque forever.
101
327574
4045
и даже то, в чём мы не разбираемся, не останется непонятным навсегда.
05:31
An area of research known as “AI interpretability”
102
331619
3295
В области исследований, известной как «интерпретируемость ИИ»,
05:34
has made quite a lot of progress in the last few years
103
334956
3128
за последние несколько лет был достигнут значительный прогресс
05:38
in making sense of what all those billions of numbers are doing.
104
338084
3504
в понимании того, что делают все эти миллиарды чисел.
05:42
One team of researchers, for example,
105
342463
2169
Например, одна группа исследователей
05:44
found a way to identify different parts of a neural network
106
344674
3420
нашла способ идентифицировать различные части нейронной сети
05:48
that they could dial up or dial down
107
348136
2335
по которым они могли бы устанавливать связь,
05:50
to make the AI's answers happier or angrier,
108
350513
3754
чтобы сделать ответы ИИ более счастливыми или злыми,
05:54
more honest,
109
354309
1418
более честными,
05:55
more Machiavellian, and so on.
110
355768
2545
более макиавеллианскими и так далее.
05:58
If we can push forward this kind of research further,
111
358771
2503
Если мы сможем продолжить подобные исследования,
06:01
then five or 10 years from now,
112
361316
2210
то через пять-десять лет
06:03
we might have a much clearer understanding of what's going on
113
363526
3003
мы сможем лучше понять, что происходит
06:06
inside the so-called black box.
114
366571
2669
в так называемом чёрном ящике.
06:10
And when it comes to those building the technology,
115
370325
2669
А когда дело доходит до разработчиков технологии,
06:13
technologists sometimes act as though
116
373036
1918
они иногда делают вид,
06:14
if you're not elbows deep in the technical details,
117
374996
3420
что если вы не разбираетесь в технических деталях,
06:18
then you're not entitled to an opinion on what we should do with it.
118
378458
3420
то не имеете права высказывать своё мнение, что нам с этим делать.
06:22
Expertise has its place, of course,
119
382337
2294
Конечно, опыт имеет значение,
06:24
but history shows us how important it is
120
384672
2169
но история показывает нам, насколько важно,
06:26
that the people affected by a new technology
121
386883
3003
чтобы люди, подверженные влиянию новой технологии,
06:29
get to play a role in shaping how we use it.
122
389886
2753
играли роль в формировании того, как мы её используем.
06:32
Like the factory workers in the 20th century who fought for factory safety,
123
392639
4629
Например, рабочие на фабриках в XX веке, боровшиеся за безопасность на производстве
06:37
or the disability advocates
124
397310
2127
или защитники прав инвалидов,
06:39
who made sure the world wide web was accessible.
125
399437
3003
которые обеспечивали доступ к всемирной паутине.
06:42
You don't have to be a scientist or engineer to have a voice.
126
402982
3963
Чтобы высказывать своё мнение, необязательно быть учёным или инженером.
06:48
(Applause)
127
408821
4547
(Аплодисменты)
06:53
Second, we need to focus on adaptability, not certainty.
128
413868
5464
Во-вторых, нужно сосредоточиться на способности к адаптации.
06:59
A lot of conversations about how to make policy for AI
129
419749
3128
Разговоры о том, как разработать политику в отношении ИИ,
07:02
get bogged down in fights between, on the one side,
130
422919
2711
привели к ссорам между людьми,
07:05
people saying, "We have to regulate AI really hard right now
131
425672
3003
которые говорят: «Нам сейчас нужно жёстко регулировать ИИ,
07:08
because it's so risky."
132
428716
1585
потому что мы сильно рискуем».
07:10
And on the other side, people saying,
133
430301
1794
С другой стороны, люди говорят:
07:12
“But regulation will kill innovation, and those risks are made up anyway.”
134
432136
4129
«Но регулирование уничтожит инновации, эти риски в любом случае компенсируются».
07:16
But the way I see it,
135
436307
1168
Но, на мой взгляд,
07:17
it’s not just a choice between slamming on the brakes
136
437475
2961
это не просто выбор между нажатием на тормоза
07:20
or hitting the gas.
137
440478
1502
или нажатием на газ.
07:22
If you're driving down a road with unexpected twists and turns,
138
442313
3962
Если вы едете по дороге с неожиданными поворотами,
07:26
then two things that will help you a lot
139
446275
2503
вам очень помогут две вещи:
07:28
are having a clear view out the windshield
140
448778
2794
чёткий обзор через лобовое стекло
07:31
and an excellent steering system.
141
451614
2419
и безупречная система рулевого управления.
07:34
In AI, this means having a clear picture of where the technology is
142
454033
5005
В случае с ИИ это означает чёткое представление о том, где технология
07:39
and where it's going,
143
459080
1627
и куда она движется,
07:40
and having plans in place for what to do in different scenarios.
144
460707
3628
а также наличие планов действий в различных ситуациях.
07:44
Concretely, this means things like investing in our ability to measure
145
464752
4338
В частности, это означает инвестирование в нашу способность оценивать
07:49
what AI systems can do.
146
469132
1877
возможности систем ИИ.
07:51
This sounds nerdy, but it really matters.
147
471342
3212
Звучит занудно, но это действительно важно.
07:54
Right now, if we want to figure out
148
474595
2044
На данный момент, если мы хотим выяснить,
07:56
whether an AI can do something concerning,
149
476681
2002
может ли ИИ сделать что-то важное,
07:58
like hack critical infrastructure
150
478725
2377
например, взломать очень важную инфраструктуру
08:01
or persuade someone to change their political beliefs,
151
481102
4671
или убедить кого-то изменить свои политические убеждения,
08:05
our methods of measuring that are rudimentary.
152
485773
2544
наши методы измерения в зачаточном состоянии.
08:08
We need better.
153
488317
1210
Нам нужно лучшее решение.
08:10
We should also be requiring AI companies,
154
490319
2545
Следует требовать от компаний, разрабатывающих ИИ,
08:12
especially the companies building the most advanced AI systems,
155
492905
3420
особенно компаний, создающих самые передовые системы ИИ,
08:16
to share information about what they're building,
156
496367
3170
делиться информациейо том, что они создают,
08:19
what their systems can do
157
499537
1710
на что способны их системы
08:21
and how they're managing risks.
158
501289
2127
и как они управляют рисками.
08:23
And they should have to let in external AI auditors to scrutinize their work
159
503458
5589
Следует поручить внешним аудиторам по ИИ внимательно следить за их работой,
08:29
so that the companies aren't just grading their own homework.
160
509088
3128
чтобы компании не просто оценивали свою собственную работу.
08:33
(Applause)
161
513801
4213
(Аплодисменты)
08:38
A final example of what this can look like
162
518014
2461
Последним примером того, как это может выглядеть,
08:40
is setting up incident reporting mechanisms,
163
520475
3503
является создание механизмов отчётности об инцидентах,
08:44
so that when things do go wrong in the real world,
164
524020
2753
чтобы в случае возникновения проблем в реальном мире
08:46
we have a way to collect data on what happened
165
526814
2962
мы могли собирать данные о том, что произошло,
08:49
and how we can fix it next time.
166
529817
2002
и как исправить ситуацию в следующий раз.
08:51
Just like the data we collect on plane crashes and cyber attacks.
167
531819
4421
Точно так же, как мы собираем данные об авиакатастрофах и кибератаках.
08:57
None of these ideas are mine,
168
537158
1668
Это всё не мои идеи,
08:58
and some of them are already starting to be implemented in places like Brussels,
169
538868
4504
некоторые из них уже начинают реализовываться в таких городах,
09:03
London, even Washington.
170
543372
2128
как Брюссель, Лондон и даже Вашингтон.
09:06
But the reason I'm highlighting these ideas,
171
546042
2627
Я уделяю особое внимание идеям, связанным с измерениями,
09:08
measurement, disclosure, incident reporting,
172
548669
4046
раскрытием информации, сообщением об инцидентах,
09:12
is that they help us navigate progress in AI
173
552757
2794
потому что они помогают нам ориентироваться в развитии ИИ,
09:15
by giving us a clearer view out the windshield.
174
555593
3086
давая нам более чёткий обзор через лобовое стекло.
09:18
If AI is progressing fast in dangerous directions,
175
558721
3712
Если ИИ быстро развивается в опасных направлениях,
09:22
these policies will help us see that.
176
562475
2377
эти правила помогут нам в этом убедиться.
09:25
And if everything is going smoothly, they'll show us that too,
177
565436
3545
И если все пойдёт гладко, нам это тоже покажут,
09:28
and we can respond accordingly.
178
568981
2211
и мы сможем отреагировать как надо.
09:33
What I want to leave you with
179
573569
1502
Я хочу сказать вам,
09:35
is that it's both true that there's a ton of uncertainty
180
575071
4629
что в сфере ИИ действительно существует много
09:39
and disagreement in the field of AI.
181
579742
2961
неопределённости и разногласий.
09:42
And that companies are already building and deploying AI
182
582745
4046
Кроме того, компании уже повсеместно разрабатывают и внедряют ИИ
09:46
all over the place anyway in ways that affect all of us.
183
586833
4462
таким образом, что он затрагивает всех нас.
09:52
Left to their own devices,
184
592004
1544
Предоставленные сами себе,
09:53
it looks like AI companies might go in a similar direction
185
593548
3169
компании, занимающиеся ИИ, могут пойти в том же направлении,
09:56
to social media companies,
186
596717
1961
что и социальные сети, тратя
09:58
spending most of their resources on building web apps
187
598678
2627
большинство своих ресурсов на создание веб-приложений
10:01
and for users' attention.
188
601305
1836
и привлечение внимания пользователей.
10:04
And by default, it looks like the enormous power of more advanced AI systems
189
604016
4463
И по умолчанию, похоже, огромная мощь более продвинутых систем ИИ
10:08
might stay concentrated in the hands of a small number of companies,
190
608479
4046
может оставаться сосредоточенной в руках небольшого числа компаний
10:12
or even a small number of individuals.
191
612567
1918
или даже небольшого числа частных лиц.
10:15
But AI's potential goes so far beyond that.
192
615278
3253
Но потенциал ИИ выходит далеко за рамки этого.
10:18
AI already lets us leap over language barriers
193
618531
2711
Он уже позволяет нам преодолевать языковые барьеры
10:21
and predict protein structures.
194
621284
2252
и предсказывать структуры белков.
10:23
More advanced systems could unlock clean, limitless fusion energy
195
623536
4504
Продвинутые системы могут использовать чистую и безграничную энергию синтеза
10:28
or revolutionize how we grow food
196
628082
2503
или революционизировать выращивание продуктов питания
10:30
or 1,000 other things.
197
630626
1835
и множество других вещей.
10:32
And we each have a voice in what happens.
198
632962
2586
И у нас есть право голоса в том, что происходит.
10:35
We're not just data sources,
199
635548
2002
Мы не просто источники данных,
10:37
we are users,
200
637592
2043
мы пользователи,
10:39
we're workers,
201
639635
1502
мы работники,
10:41
we're citizens.
202
641137
1209
мы граждане.
10:43
So as tempting as it might be,
203
643514
2961
Как бы ни было заманчиво,
10:46
we can't wait for clarity or expert consensus
204
646475
4672
нам не терпится дождаться ясности или консенсуса экспертов,
10:51
to figure out what we want to happen with AI.
205
651147
3378
чтобы понять, чего мы хотим добиться с помощью ИИ.
10:54
AI is already happening to us.
206
654525
2586
ИИ уже проник в нашу жизнь.
10:57
What we can do is put policies in place
207
657737
3211
Что мы можем сделать, так это разработать политику,
11:00
to give us as clear a picture as we can get
208
660948
2670
которая даст нам более чёткое представление о том,
11:03
of how the technology is changing,
209
663618
2460
как меняются технологии, а затем мы сможем выйти
11:06
and then we can get in the arena and push for futures we actually want.
210
666078
5089
на арену и начать строить будущее, к которому мы действительно стремимся.
11:11
Thank you.
211
671751
1126
Спасибо.
11:12
(Applause)
212
672919
3378
(Аплодисменты)
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7