Your Right to Repair AI Systems | Rumman Chowdhury | TED

44,322 views ・ 2024-06-05

TED


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

Переводчик: Alena Chernykh Редактор: Olga Mansurova
00:04
I want to tell you a story
0
4543
1835
Я хочу рассказать вам историю
00:06
about artificial intelligence and farmers.
1
6419
4171
об искусственном интеллекте и фермерах.
00:10
Now, what a strange combination, right?
2
10966
3044
Странная комбинация, правда?
00:14
Two topics could not sound more different from each other.
3
14010
4088
Две темы, как нельзя более отличные друг от друга.
00:18
But did you know that modern farming actually involves a lot of technology?
4
18431
5047
Но знаете ли вы, что современное сельское хозяйство
на самом деле включает в себя множество технологий?
00:23
So computer vision is used to predict crop yields.
5
23478
3796
Компьютерное зрение используется для прогноза урожайности культур.
00:27
And artificial intelligence is used to find,
6
27315
2836
А искусственный интеллект используется для поиска,
00:30
identify and get rid of insects.
7
30151
2878
идентификации и избавления от насекомых.
00:33
Predictive analytics helps figure out extreme weather conditions
8
33071
4129
Прогнозирующая аналитика помогает выявлять экстремальные погодные условия,
00:37
like drought or hurricanes.
9
37242
1960
такие как засуха или ураганы.
00:39
But this technology is also alienating to farmers.
10
39744
4547
Но эта технология отталкивает фермеров.
00:44
And this all came to a head in 2017
11
44291
3003
Ситуация обострилась в 2017 году,
00:47
with the tractor company John Deere when they introduced smart tractors.
12
47335
4922
когда тракторная компания John Deere представила умные тракторы.
00:52
So before then, if a farmer's tractor broke,
13
52299
2961
Раньше, если трактор фермера ломался,
00:55
they could just repair it themselves or take it to a mechanic.
14
55302
3920
трактор можно было просто починить самим или передать механику.
00:59
Well, the company actually made it illegal
15
59222
2961
А компания фактически запретила
01:02
for farmers to fix their own equipment.
16
62225
2586
фермерам ремонтировать собственное оборудование.
01:04
You had to use a licensed technician
17
64811
2836
Нужно было обращаться к лицензированному специалисту,
01:07
and farmers would have to wait for weeks
18
67689
2628
и фермерам приходилось неделями ждать,
01:10
while their crops rot and pests took over.
19
70317
3044
в то время как их посевы гнили и вредители атаковали урожай.
01:14
So they took matters into their own hands.
20
74279
3170
Поэтому фермеры взяли дело в свои руки.
01:17
Some of them learned to program,
21
77490
1544
Некоторые научились программировать
01:19
and they worked with hackers to create patches to repair their own systems.
22
79075
4922
и вместе с хакерами создали патчи для восстановления своих систем.
01:23
In 2022,
23
83997
1418
В 2022 году
01:25
at one of the largest hacker conferences in the world, DEFCON,
24
85457
3712
на одной из крупнейших в мире конференций хакеров, DEFCON,
01:29
a hacker named Sick Codes and his team
25
89210
2586
хакер по имени Sick Codes и его команда
01:31
showed everybody how to break into a John Deere tractor,
26
91838
3212
показали всем, как взломать трактор John Deere,
01:35
showing that, first of all, the technology was vulnerable,
27
95091
3629
доказав, во-первых, что эта технология уязвима,
01:38
but also that you can and should own your own equipment.
28
98762
4337
а во-вторых, что вы можете и должны владеть собственным оборудованием.
01:43
To be clear, this is illegal,
29
103683
2836
Поясню, что это незаконно,
01:46
but there are people trying to change that.
30
106561
2795
но есть люди, которые пытаются это изменить.
01:49
Now that movement is called the “right to repair.”
31
109689
3796
Теперь это движение называется «правом на ремонт».
01:53
The right to repair goes something like this.
32
113526
2169
Право на ремонт выглядит примерно так.
01:55
If you own a piece of technology,
33
115737
1668
Если у вас есть техника,
01:57
it could be a tractor, a smart toothbrush,
34
117405
2544
например, трактор, умная зубная щётка,
01:59
a washing machine,
35
119991
1377
стиральная машина,
02:01
you should have the right to repair it if it breaks.
36
121368
3086
вы должны иметь право отремонтировать её в случае поломки.
02:05
So why am I telling you this story?
37
125246
2253
Почему я рассказываю вам эту историю?
02:08
The right to repair needs to extend to artificial intelligence.
38
128541
5214
Право на ремонт должно распространяться и на искусственный интеллект.
02:14
Now it seems like every week
39
134214
2127
Кажется, что каждую неделю в области ИИ
02:16
there is a new and mind-blowing innovation in AI.
40
136383
3336
появляется новая и потрясающая инновация.
02:19
But did you know that public confidence is actually declining?
41
139719
4880
Но знаете ли вы, что общественное доверие на самом деле падает?
02:24
A recent Pew poll showed that more Americans are concerned
42
144599
4963
Недавний опрос центра Pew показал, что американцы скорее обеспокоены
02:29
than they are excited about the technology.
43
149604
2503
этой технологией, чем воодушевлены ею.
02:32
This is echoed throughout the world.
44
152148
2211
Это находит отклик во всём мире.
02:34
The World Risk Poll shows
45
154401
1418
Всемирный опрос о рисках показывает,
02:35
that respondents from Central and South America and Africa
46
155860
3462
что респонденты из Центральной и Южной Америки и Африки
02:39
all said that they felt AI would lead to more harm than good for their people.
47
159322
6090
все заявили, что ИИ, по их мнению, принесёт им больше вреда, чем пользы.
02:46
As a social scientist and an AI developer,
48
166287
2503
Меня как социолога и разработчика ИИ
02:48
this frustrates me.
49
168790
1585
это расстраивает.
02:50
I'm a tech optimist
50
170417
1293
Я технологический оптимист,
02:51
because I truly believe this technology can lead to good.
51
171751
4338
так как искренне верю, что эта технология может принести пользу.
02:56
So what's the disconnect?
52
176464
1919
Так в чём же расхождение?
02:58
Well, I've talked to hundreds of people over the last few years.
53
178758
3754
За последние несколько лет я общалась с сотнями людей.
03:02
Architects and scientists, journalists and photographers,
54
182554
3670
Архитекторы и учёные, журналисты и фотографы,
03:06
ride-share drivers and doctors,
55
186224
1710
водители и врачи,
03:07
and they all say the same thing.
56
187976
2961
все они говорят одно и то же.
03:12
People feel like an afterthought.
57
192272
3795
Люди чувствуют себя отодвинутыми на второй план.
03:17
They all know that their data is harvested often without their permission
58
197485
4338
Все они знают, что их данные часто собираются без их разрешения
03:21
to create these sophisticated systems.
59
201823
2461
на создание этих сложных систем.
03:24
They know that these systems are determining their life opportunities.
60
204325
4171
Они знают, что эти системы определяют их жизненные возможности.
03:28
They also know that nobody ever bothered to ask them
61
208496
3545
Они также знают, что никто не удосужился спросить их,
03:32
how the system should be built,
62
212083
1502
как построить систему,
03:33
and they certainly have no idea where to go if something goes wrong.
63
213585
5964
и они, конечно, понятия не имеют, куда идти, если что-то пойдёт не так.
03:40
We may not own AI systems,
64
220383
2336
Возможно, мы и не владеем системами ИИ,
03:42
but they are slowly dominating our lives.
65
222761
2794
но они постепенно начинают доминировать в нашей жизни.
03:45
We need a better feedback loop
66
225597
1501
Нужна лучшая система обратной связи
03:47
between the people who are making these systems,
67
227140
2961
между людьми, создающими эти системы,
03:50
and the people who are best determined to tell us
68
230101
3337
и людьми, которые лучше всех могут рассказать нам,
03:53
how these AI systems should interact in their world.
69
233480
3628
как эти системы ИИ должны взаимодействовать в своём мире.
03:57
One step towards this is a process called red teaming.
70
237609
3837
Одним из шагов к этому является процесс, называемый Red teaming.
04:01
Now, red teaming is a practice that was started in the military,
71
241821
3003
Сейчас практика «красных команд», зародившаяся в армии,
04:04
and it's used in cybersecurity.
72
244866
1919
используется в кибербезопасности.
04:06
In a traditional red-teaming exercise,
73
246826
2628
В рамках традиционной практики «красных команд»
04:09
external experts are brought in to break into a system,
74
249454
3920
для проникновения в систему привлекаются внешние эксперты,
04:13
sort of like what Sick Codes did with tractors, but legal.
75
253374
4338
как это было в случае с тракторами компании Sick Codes, но легально.
04:17
So red teaming acts as a way of testing your defenses
76
257712
3670
Таким образом, «красная команда» позволяет проверить вашу защиту,
04:21
and when you can figure out where something will go wrong,
77
261424
3545
а когда вы поймёте, где что-то пойдёт не так,
04:25
you can figure out how to fix it.
78
265011
3003
вы сможете решить, как это исправить.
04:28
But when AI systems go rogue,
79
268056
2377
Но когда системы ИИ выходят из-под контроля,
04:30
it's more than just a hacker breaking in.
80
270433
2920
это не просто хакерский взлом.
04:33
The model could malfunction or misrepresent reality.
81
273394
3754
Модель может выйти из строя или исказить реальность.
04:37
So, for example, not too long ago,
82
277190
2044
Например, не так давно
04:39
we saw an AI system attempting diversity
83
279234
2627
мы видели, как система ИИ пыталась внести разнообразие,
04:41
by showing historically inaccurate photos.
84
281903
3503
показывая исторически неточные фотографии.
04:45
Anybody with a basic understanding of Western history
85
285406
2670
Любой, кто хоть немного разбирается в истории Запада,
04:48
could have told you that neither the Founding Fathers
86
288076
2502
мог бы сказать вам, что ни отцы-основатели,
04:50
nor Nazi-era soldiers would have been Black.
87
290620
2169
ни солдаты-нацисты не были чернокожими.
04:54
In that case, who qualifies as an expert?
88
294123
3629
В таком случае, кого можно считать экспертом?
04:58
You.
89
298670
1168
Вас.
05:00
I'm working with thousands of people all around the world
90
300380
2836
Я работаю с тысячами людей по всему миру
05:03
on large and small red-teaming exercises,
91
303258
2252
на больших и малых практиках «красных команд»,
05:05
and through them we found and fixed mistakes in AI models.
92
305552
4629
и благодаря им мы обнаружили и исправили ошибки в моделях ИИ.
05:10
We also work with some of the biggest tech companies in the world:
93
310181
3587
Мы также сотрудничаем с крупнейшими технологическими компаниями мира:
05:13
OpenAI, Meta, Anthropic, Google.
94
313810
2753
OpenAI, Meta, Anthropic, Google.
05:16
And through this, we've made models work better for more people.
95
316604
4630
Благодаря этому мы улучшили работу моделей для большего числа людей.
05:22
Here's a bit of what we've learned.
96
322277
2168
Вот кое-что из того, что мы узнали.
05:24
We partnered with the Royal Society in London to do a scientific,
97
324988
3670
В партнёрстве с Королевским обществом в Лондоне мы провели научное
05:28
mis- and disinformation event with disease scientists.
98
328658
3545
мероприятие по дезинформации с участием учёных-инфекционистов.
05:32
What these scientists found
99
332203
1335
Эти учёные обнаружили,
05:33
is that AI models actually had a lot of protections
100
333580
2794
что модели ИИ на самом деле в значительной степени
05:36
against COVID misinformation.
101
336416
2294
защищают от дезинформации о COVID.
05:38
But for other diseases like measles, mumps and the flu,
102
338751
3546
Но к другим заболеваниям, таким как корь, эпидемический паротит и грипп,
05:42
the same protections didn't apply.
103
342297
2460
такие меры защиты не применялись.
05:44
We reported these changes,
104
344757
1293
Мы сообщили об этих изменениях,
05:46
they’re fixed and now we are all better protected
105
346050
3170
они исправлены, и теперь мы все лучше защищены
05:49
against scientific mis- and disinformation.
106
349220
2670
от научных заблуждений и дезинформации.
05:52
We did a really similar exercise with architects at Autodesk University,
107
352724
4838
Мы провели аналогичную работу с архитекторами на Autodesk University
05:57
and we asked them a simple question:
108
357562
1877
и задали им простой вопрос:
05:59
Will AI put them out of a job?
109
359439
2961
сможет ли искусственный интеллект оставить их без работы?
06:02
Or more specifically,
110
362442
2169
Или, точнее, могут ли они представить
06:04
could they imagine a modern AI system
111
364611
2043
современную систему ИИ,
06:06
that would be able to design the specs of a modern art museum?
112
366696
3670
способную спроектировать музей современного искусства?
06:10
The answer, resoundingly, was no.
113
370408
3962
Ответ, несомненно, был отрицательным.
06:14
Here's why, architects do more than just draw buildings.
114
374787
3629
Вот почему архитекторы делают больше, чем просто рисуют здания.
06:18
They have to understand physics and material science.
115
378458
3336
Они должны разбираться в физике и материаловедении,
06:21
They have to know building codes,
116
381836
1585
должны знать строительные нормы
06:23
and they have to do that
117
383463
1251
и при этом создавать
06:24
while making something that evokes emotion.
118
384756
2794
нечто, вызывающее эмоции.
06:28
What the architects wanted was an AI system
119
388426
2169
Архитекторам нужна была система ИИ,
06:30
that interacted with them, that would give them feedback,
120
390595
2753
которая взаимодействовала бы с ними, давала обратную связь
06:33
maybe proactively offer design recommendations.
121
393389
2753
и, возможно, предлагала рекомендации по проектированию.
06:36
And today's AI systems, not quite there yet.
122
396142
3670
Но современные системы ИИ пока не могут это делать.
06:39
But those are technical problems.
123
399854
1752
Хотя это технические проблемы.
06:41
People building AI are incredibly smart,
124
401648
2043
Люди, создающие ИИ, невероятно умны,
06:43
and maybe they could solve all that in a few years.
125
403733
2753
и, возможно, они смогут решить это за несколько лет.
06:46
But that wasn't their biggest concern.
126
406527
1961
Но это не было их главной заботой.
06:48
Their biggest concern was trust.
127
408529
2795
Более всего их беспокоило доверие.
06:51
Now architects are liable if something goes wrong with their buildings.
128
411991
4546
Сейчас архитекторы несут ответственность, если с их зданиями что-то пойдёт не так.
06:56
They could lose their license,
129
416537
1669
Они могут лишиться лицензии,
06:58
they could be fined, they could even go to prison.
130
418206
3211
их могут оштрафовать и даже отправить в тюрьму.
07:01
And failures can happen in a million different ways.
131
421459
3086
И неудачи могут произойти миллионом разных способов.
07:04
For example, exit doors that open the wrong way,
132
424545
3045
Например, двери на выходе открываются не в ту сторону,
07:07
leading to people being crushed in an evacuation crisis,
133
427632
4296
что приведёт к столкновению людей во время эвакуации,
07:11
or broken glass raining down onto pedestrians in the street
134
431928
4129
или попадание битого стекла на пешеходов на улице
07:16
because the wind blows too hard and shatters windows.
135
436099
3837
из-за сильного ветра и разбитых окон.
07:20
So why would an architect trust an AI system with their job,
136
440311
3921
Так зачем архитектору доверять свою работу,
07:24
with their literal freedom,
137
444273
2670
полную свободу в использовании систем ИИ,
07:26
if they couldn't go in and fix a mistake if they found it?
138
446943
3628
если в случае обнаружения ошибки он не может войти и исправить ошибку?
07:31
So we need to figure out these problems today, and I'll tell you why.
139
451030
4171
Нам нужно решить эти проблемы сегодня, и я расскажу вам почему.
07:35
The next wave of artificial intelligence systems, called agentic AI,
140
455201
5047
Новая волна систем искусственного интеллекта, названная агентским ИИ, —
07:40
is a true tipping point
141
460289
1335
настоящий переломный момент
07:41
between whether or not we retain human agency,
142
461624
4213
между тем, сохраняем ли мы свободу действий человека,
07:45
or whether or not AI systems make our decisions for us.
143
465837
3795
или же системы искусственного интеллекта принимают решения за нас.
07:50
Imagine an AI agent as kind of like a personal assistant.
144
470008
3211
Представьте себе агента ИИ, похожего на личного помощника.
07:53
So, for example, a medical agent might determine
145
473261
3712
Например, медицинский агент может определить,
07:57
whether or not your family needs doctor's appointments,
146
477015
2585
нужно ли вашей семье посещение врача,
07:59
it might refill prescription medications, or in case of an emergency,
147
479642
3379
пополнить запасы лекарств по рецепту или, в экстренных случаях,
08:03
send medical records to the hospital.
148
483062
2586
отправить медицинскую документацию в больницу.
08:05
But AI agents can't and won't exist
149
485690
2836
Но агенты ИИ не могут и не будут существовать,
08:08
unless we have a true right to repair.
150
488568
2210
если не будет реального права на лечение.
08:10
What parent would trust their child's health to an AI system
151
490820
4922
Какой родитель доверит здоровье своего ребёнка системе ИИ,
08:15
unless you could run some basic diagnostics?
152
495783
2795
если вы не проведёте базовую диагностику?
08:18
What professional would trust an AI system with job decisions,
153
498619
4213
Какой специалист доверит системе ИИ принятие решений о работе,
08:22
unless you could retrain it the way you might a junior employee?
154
502874
4296
если вы не сможете переобучить её так же, как и младшего сотрудника?
08:28
Now, a right to repair might look something like this.
155
508129
2878
Теперь право на ремонт может выглядеть примерно так.
08:31
You could have a diagnostics board
156
511007
2210
У вас может быть диагностическая плата,
08:33
where you run basic tests that you design,
157
513259
3003
на которой вы будете проводить собственные базовые тесты,
08:36
and if something's wrong, you could report it to the company
158
516304
2836
и, если что-то не так, вы можете сообщить об этом компании
08:39
and hear back when it's fixed.
159
519140
1585
и получить ответ после решения проблемы.
08:40
Or you could work with third parties like ethical hackers
160
520725
3128
Или можете работать, например, с белыми хакерами,
08:43
who make patches for systems like we do today.
161
523895
2586
которые вносят исправления в системы, как мы делаем сегодня.
08:46
You can download them and use them to improve your system
162
526481
2711
Вы можете загрузить их и использовать
08:49
the way you want it to be improved.
163
529233
1919
для улучшения своей системы.
08:51
Or you could be like these intrepid farmers and learn to program
164
531194
3628
Или как те бесстрашные фермеры вы можете научиться программировать
08:54
and fine-tune your own systems.
165
534864
3003
и настраивать свои собственные системы.
08:58
We won't achieve the promised benefits of artificial intelligence
166
538618
4171
Мы не сможем реализовать обещанные преимущества ИИ,
09:02
unless we figure out how to bring people into the development process.
167
542789
5046
пока не придумаем, как вовлечь людей в процесс разработки.
09:08
I've dedicated my career to responsible AI,
168
548377
3504
Я посвятила свою карьеру ответственному ИИ,
09:11
and in that field we ask the question,
169
551923
3253
и в этой области мы задаём вопрос:
09:15
what can companies build to ensure that people trust AI?
170
555218
4963
что могут создать компании, чтобы люди доверяли ИИ?
09:20
Now, through these red-teaming exercises, and by talking to you,
171
560723
3837
И сейчас, выполнив эти практики красной команды и поговорив с вами,
09:24
I've come to realize that we've been asking the wrong question all along.
172
564602
5339
я поняла, что мы всегда задавали неправильный вопрос.
09:30
What we should have been asking is what tools can we build
173
570566
3921
Нам стоило спросить, какие инструменты мы можем создать,
09:34
so people can make AI beneficial for them?
174
574529
4045
чтобы люди могли использовать ИИ в своих интересах?
09:39
Technologists can't do it alone.
175
579117
2460
Технологи не могут сделать это в одиночку.
09:41
We can only do it with you.
176
581619
2419
Мы можем сделать это только вместе с вами.
09:44
Thank you.
177
584080
1168
Спасибо.
09:45
(Applause)
178
585248
2794
(Аплодисменты)
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7