AI Is Dangerous, but Not for the Reasons You Think | Sasha Luccioni | TED

884,241 views ・ 2023-11-06

TED


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

Переводчик: Irina Magnitskaya Редактор: Olga Mansurova
00:04
So I've been an AI researcher for over a decade.
0
4292
3504
Я исследую искусственный интеллект уже более 10 лет.
00:07
And a couple of months ago, I got the weirdest email of my career.
1
7796
3503
И недавно мне на почту пришло очень странное письмо.
00:11
A random stranger wrote to me
2
11925
1668
Какой-то незнакомец написал мне,
00:13
saying that my work in AI is going to end humanity.
3
13635
3420
что человечество вымрет из-за моей работы в области ИИ.
00:18
Now I get it, AI, it's so hot right now.
4
18598
3754
Понимаю, сейчас ИИ жутко модная тема.
00:22
(Laughter)
5
22352
1627
(Смех)
00:24
It's in the headlines pretty much every day,
6
24020
2086
Про это много пишут в медиа каждый день.
00:26
sometimes because of really cool things
7
26106
1918
Иногда из-за правда потрясающих вещей
00:28
like discovering new molecules for medicine
8
28066
2169
вроде открытия новых молекул для медицины
00:30
or that dope Pope in the white puffer coat.
9
30235
2252
или дурацких фото папы римского в белом пуховике.
00:33
But other times the headlines have been really dark,
10
33446
2461
Но иногда заголовки совсем мрачные,
00:35
like that chatbot telling that guy that he should divorce his wife
11
35907
3671
вроде того, что чат-бот предлагает парню развестись с женой
00:39
or that AI meal planner app proposing a crowd pleasing recipe
12
39619
4088
или что приложение ИИ по планированию питания предлагает популярный рецепт
00:43
featuring chlorine gas.
13
43707
2002
с использованием хлоргаза.
00:46
And in the background,
14
46376
1418
В то же время
00:47
we've heard a lot of talk about doomsday scenarios,
15
47836
2419
мы слышим много разговоров о конце света,
00:50
existential risk and the singularity,
16
50255
1918
экзистенциальных рисках и сингулярности:
00:52
with letters being written and events being organized
17
52215
2503
люди пишут письма политикам и организуют мероприятия,
00:54
to make sure that doesn't happen.
18
54718
2002
чтобы убедиться, что этого не случится.
00:57
Now I'm a researcher who studies AI's impacts on society,
19
57637
4630
Как исследователь, изучающий влияние искусственного интеллекта на общество,
01:02
and I don't know what's going to happen in 10 or 20 years,
20
62267
2836
я не знаю, что произойдёт через 10 или 20 лет.
01:05
and nobody really does.
21
65145
2461
Да и никто на самом деле не знает.
01:07
But what I do know is that there's some pretty nasty things going on right now,
22
67981
4546
Но я точно знаю, что неприятные события сейчас происходят из-за того,
01:12
because AI doesn't exist in a vacuum.
23
72527
2878
что ИИ существует не в вакууме.
01:15
It is part of society, and it has impacts on people and the planet.
24
75447
3920
Это часть общества, и он влияет на людей и планету.
01:20
AI models can contribute to climate change.
25
80160
2502
Модели ИИ могут способствовать изменению климата.
01:22
Their training data uses art and books created by artists
26
82704
3462
Данные их обучения используют рисунки художников и книги
01:26
and authors without their consent.
27
86207
1710
без согласия авторов.
01:27
And its deployment can discriminate against entire communities.
28
87959
3837
И такое использование моделей может дискриминировать целые сообщества.
01:32
But we need to start tracking its impacts.
29
92797
2127
Нам пора отслеживать его последствия.
01:34
We need to start being transparent and disclosing them and creating tools
30
94966
3587
Нам нужно раскрывать информацию и создавать инструменты,
01:38
so that people understand AI better,
31
98595
2419
позволяющие людям лучше понимать ИИ,
01:41
so that hopefully future generations of AI models
32
101056
2335
чтобы будущие поколения моделей ИИ
01:43
are going to be more trustworthy, sustainable,
33
103433
2836
стали более надёжными и экологичными,
01:46
maybe less likely to kill us, if that's what you're into.
34
106269
2836
чтобы уменьшить вероятность, что они нас убьют, в конце концов.
01:50
But let's start with sustainability,
35
110148
1752
Но давайте начнём с экологичности,
01:51
because that cloud that AI models live on is actually made out of metal, plastic,
36
111900
5756
ведь облако с моделями ИИ состоит на самом деле из металла и пластика
01:57
and powered by vast amounts of energy.
37
117656
2460
и питается огромным количеством энергии.
02:00
And each time you query an AI model, it comes with a cost to the planet.
38
120116
4463
И каждый раз ваш запрос к модели ИИ сказывается на планете.
02:05
Last year, I was part of the BigScience initiative,
39
125789
3044
В прошлом году я принимала участие в инициативе BigScience,
02:08
which brought together a thousand researchers
40
128833
2127
где собрались вместе тысячи учёных
02:10
from all over the world to create Bloom,
41
130960
2503
со всего мира, чтобы создать Bloom,
02:13
the first open large language model, like ChatGPT,
42
133505
4337
первую открытую большую языковую модель вроде ChatGPT,
02:17
but with an emphasis on ethics, transparency and consent.
43
137842
3546
но с акцентом на этику, прозрачность и согласие.
02:21
And the study I led that looked at Bloom's environmental impacts
44
141721
3253
И проведённое мной исследование по влиянию Bloom на природу
02:25
found that just training it used as much energy
45
145016
3253
показало, что только на тренировку ИИ тратится столько же энергии,
02:28
as 30 homes in a whole year
46
148311
2211
сколько потребляют 30 домов за целый год,
02:30
and emitted 25 tons of carbon dioxide,
47
150563
2419
и выделяется 25 тонн углекислого газа
02:33
which is like driving your car five times around the planet
48
153024
3253
столько, сколько от вашей машины, объехавшей вокруг Земли пять раз.
02:36
just so somebody can use this model to tell a knock-knock joke.
49
156319
3170
И всё это, чтобы кто-то использовал модель ИИ для глупой шутки.
02:39
And this might not seem like a lot,
50
159489
2169
Может показаться, что это не так уж и много,
02:41
but other similar large language models,
51
161700
2460
однако другие подобные крупные языковые модели,
02:44
like GPT-3,
52
164202
1126
такие как GPT-3,
02:45
emit 20 times more carbon.
53
165370
2544
выделяют в 20 раз больше углекислого газа.
02:47
But the thing is, tech companies aren't measuring this stuff.
54
167956
2878
А ведь технологические компании не измеряют этот показатель.
02:50
They're not disclosing it.
55
170875
1252
Эти данные скрыты.
02:52
And so this is probably only the tip of the iceberg,
56
172168
2461
Похоже, нам видна лишь верхушка айсберга,
02:54
even if it is a melting one.
57
174629
1418
даже если это тающий айсберг.
02:56
And in recent years we've seen AI models balloon in size
58
176798
3629
И в последние годы модели ИИ начали стремительно увеличиваться,
03:00
because the current trend in AI is "bigger is better."
59
180468
3462
ведь сейчас считается, что чем больше, тем лучше.
03:04
But please don't get me started on why that's the case.
60
184305
2795
Я даже не хочу объяснять почему.
03:07
In any case, we've seen large language models in particular
61
187100
3003
В любом случае, мы видим, что крупные языковые модели
03:10
grow 2,000 times in size over the last five years.
62
190103
3211
выросли в размере в 2 000 раз за последние пять лет.
03:13
And of course, their environmental costs are rising as well.
63
193314
3045
И, конечно, их экологические издержки также растут.
03:16
The most recent work I led, found that switching out a smaller,
64
196401
3795
Во время моего последнего исследования оказалось, что при замене компактной
03:20
more efficient model for a larger language model
65
200238
3337
и более эффективной языковой модели на более крупную
03:23
emits 14 times more carbon for the same task.
66
203616
3754
выделяется в 14 раз больше углерода при выполнении одной и той же задачи.
03:27
Like telling that knock-knock joke.
67
207412
1877
Это касается и тех самых глупых шуток.
03:29
And as we're putting in these models into cell phones and search engines
68
209289
3462
По мере того, как мы внедряем эти модели в смартфоны, поисковые системы,
03:32
and smart fridges and speakers,
69
212792
2836
умные холодильники и динамики,
03:35
the environmental costs are really piling up quickly.
70
215628
2628
экологические издержки растут всё быстрее и быстрее.
03:38
So instead of focusing on some future existential risks,
71
218840
3754
И чтобы не фокусироваться на некоторых будущих экзистенциальных рисках,
03:42
let's talk about current tangible impacts
72
222635
2753
давайте поговорим о текущих последствиях
03:45
and tools we can create to measure and mitigate these impacts.
73
225388
3629
и о том, что можно сделать, чтобы их измерить и смягчить.
03:49
I helped create CodeCarbon,
74
229893
1668
Я помогала создать CodeCarbon,
03:51
a tool that runs in parallel to AI training code
75
231603
2961
приложение, работающее параллельно с обучающим кодом ИИ
03:54
that estimates the amount of energy it consumes
76
234564
2211
и оценивающее количество потребляемой энергии
03:56
and the amount of carbon it emits.
77
236775
1668
и выделяемого углерода.
03:58
And using a tool like this can help us make informed choices,
78
238485
2877
CodeCarbon поможет нам делать осознанный выбор,
04:01
like choosing one model over the other because it's more sustainable,
79
241404
3253
например, мы сможем выбрать модель на основе её экологичности
04:04
or deploying AI models on renewable energy,
80
244657
2920
или внедрить модели ИИ, использующие возобновляемую энергию,
04:07
which can drastically reduce their emissions.
81
247619
2544
что позволит значительно сократить выбросы.
04:10
But let's talk about other things
82
250163
2085
Но давайте поговорим и о других вещах,
04:12
because there's other impacts of AI apart from sustainability.
83
252290
2961
потому что важна не только экологичность.
04:15
For example, it's been really hard for artists and authors
84
255627
3128
Например, художникам и авторам очень трудно доказать,
04:18
to prove that their life's work has been used for training AI models
85
258797
4212
что работа их жизни использовалась для обучения моделей ИИ
04:23
without their consent.
86
263051
1209
без согласия авторов.
04:24
And if you want to sue someone, you tend to need proof, right?
87
264302
3170
Если вы хотите обвинить кого-то, вам нужны доказательства, верно?
04:27
So Spawning.ai, an organization that was founded by artists,
88
267806
3920
Поэтому Spawning.ai, организация, основанная художниками,
04:31
created this really cool tool called “Have I Been Trained?”
89
271726
3337
создала крутой инструмент, названный «Have I Been Trained?»
04:35
And it lets you search these massive data sets
90
275104
2461
Он позволяет вам проводить поиск по массивам данных,
04:37
to see what they have on you.
91
277607
2085
чтобы узнать, что там есть про вас.
04:39
Now, I admit it, I was curious.
92
279734
1668
Признаюсь, мне стало любопытно.
04:41
I searched LAION-5B,
93
281444
1627
Я забила своё имя в LAION-5B,
04:43
which is this huge data set of images and text,
94
283112
2461
это огромный набор изображений с текстом,
04:45
to see if any images of me were in there.
95
285615
2711
чтобы узнать, есть ли там мои изображения.
04:49
Now those two first images,
96
289285
1585
Здесь первые два фото
04:50
that's me from events I've spoken at.
97
290870
2169
с мероприятий, на которых я выступала.
04:53
But the rest of the images, none of those are me.
98
293081
2753
Но на остальных изображениях меня нет.
04:55
They're probably of other women named Sasha
99
295875
2002
Вероятно, это другие женщины по имени Саша,
04:57
who put photographs of themselves up on the internet.
100
297919
2628
которые разместили свои фотографии в интернете.
05:01
And this can probably explain why,
101
301047
1627
И это может объяснить, почему
05:02
when I query an image generation model
102
302715
1836
запрос модели генерации изображений
05:04
to generate a photograph of a woman named Sasha,
103
304551
2294
сгенерировать фото женщины по имени Саша,
05:06
more often than not I get images of bikini models.
104
306886
2753
чаще выдаёт изображения моделей в бикини.
05:09
Sometimes they have two arms,
105
309681
1626
Иногда у них две руки,
05:11
sometimes they have three arms,
106
311349
2294
иногда три руки,
05:13
but they rarely have any clothes on.
107
313685
2043
но они редко одеты.
05:16
And while it can be interesting for people like you and me
108
316563
2794
И хотя таким людям, как мы с вами, может быть интересно
05:19
to search these data sets,
109
319357
2127
исследовать эти наборы данных,
05:21
for artists like Karla Ortiz,
110
321526
2044
для таких художников, как Карла Ортис,
05:23
this provides crucial evidence that her life's work, her artwork,
111
323570
3753
они являются доказательством того, что дело всей её жизни, её работы,
05:27
was used for training AI models without her consent,
112
327365
2961
использовались для обучения моделей ИИ без её согласия.
05:30
and she and two artists used this as evidence
113
330326
2336
Вместе с двумя другими художниками
05:32
to file a class action lawsuit against AI companies
114
332704
2794
она подала коллективный иск против разработчиков моделей ИИ
05:35
for copyright infringement.
115
335540
1960
за нарушение авторских прав.
05:37
And most recently --
116
337542
1168
А совсем недавно...
05:38
(Applause)
117
338710
3378
(Аплодисменты)
05:42
And most recently Spawning.ai partnered up with Hugging Face,
118
342130
3044
организация Spawning.ai вместе с компанией Hugging Face,
05:45
the company where I work at,
119
345216
1585
в которой я работаю,
05:46
to create opt-in and opt-out mechanisms for creating these data sets.
120
346801
4922
создали механизмы добавления и удаления работ в этих базах данных.
05:52
Because artwork created by humans shouldn’t be an all-you-can-eat buffet
121
352098
3587
Потому что произведения, созданные людьми, нельзя брать без спроса
05:55
for training AI language models.
122
355727
1793
ради тренировки моделей ИИ.
05:58
(Applause)
123
358313
4254
(Аплодисменты)
06:02
The very last thing I want to talk about is bias.
124
362567
2336
И, наконец, я хочу сказать о предвзятости.
06:04
You probably hear about this a lot.
125
364944
1919
Вы, наверное, часто об этом слышите.
06:07
Formally speaking, it's when AI models encode patterns and beliefs
126
367196
3713
По сути, это когда в код моделей ИИ закладывают образы и убеждения,
06:10
that can represent stereotypes or racism and sexism.
127
370950
3128
которые могут представлять собой стереотипы расизма и сексизма.
06:14
One of my heroes, Dr. Joy Buolamwini, experienced this firsthand
128
374412
3212
Доктор Джой Буоламвини, одна из моих героинь, сама убедилась в этом,
06:17
when she realized that AI systems wouldn't even detect her face
129
377665
3045
когда узнала, что системы ИИ не могут даже распознать её лицо
06:20
unless she was wearing a white-colored mask.
130
380752
2169
без белой маски.
06:22
Digging deeper, she found that common facial recognition systems
131
382962
3754
Копнув глубже, она обнаружила, что обычные системы распознавания лиц
06:26
were vastly worse for women of color compared to white men.
132
386758
3253
хуже распознавали цветных женщин, чем белых мужчин.
06:30
And when biased models like this are deployed in law enforcement settings,
133
390428
5297
Использование подобных предвзятых моделей в правоохранительных органах
06:35
this can result in false accusations, even wrongful imprisonment,
134
395767
4296
может привести к ложным обвинениям и даже тюремному заключению невиновных,
06:40
which we've seen happen to multiple people in recent months.
135
400063
3920
что уже случилось несколько раз за последние месяцы.
06:44
For example, Porcha Woodruff was wrongfully accused of carjacking
136
404025
3086
Например, беременная Порча Вудрафф была ошибочно обвинена в угоне
06:47
at eight months pregnant
137
407111
1252
на восьмом месяце,
06:48
because an AI system wrongfully identified her.
138
408363
2961
поскольку система ИИ неверно распознала её лицо.
06:52
But sadly, these systems are black boxes,
139
412325
2002
Такие системы являются чёрными ящиками,
06:54
and even their creators can't say exactly why they work the way they do.
140
414369
5964
и даже их создатели не могут объяснить, что происходит внутри них.
07:00
And for example, for image generation systems,
141
420917
3462
Возьмём системы генерации изображений.
07:04
if they're used in contexts like generating a forensic sketch
142
424379
4129
Если использовать их для создания фотороботов
07:08
based on a description of a perpetrator,
143
428549
2711
на основе описания внешности преступника,
07:11
they take all those biases and they spit them back out
144
431260
3587
все предубеждения данных ИИ проявляются,
07:14
for terms like dangerous criminal, terrorists or gang member,
145
434889
3462
когда упоминается «опасный преступник», «террорист» или «член банды»,
07:18
which of course is super dangerous
146
438393
2168
что, конечно, очень опасно,
07:20
when these tools are deployed in society.
147
440603
4421
когда эти инструменты используются в обществе.
07:25
And so in order to understand these tools better,
148
445566
2294
Чтобы лучше понять эти инструменты,
07:27
I created this tool called the Stable Bias Explorer,
149
447902
3212
я создала инструмент под названием «Stable Bias Explorer».
07:31
which lets you explore the bias of image generation models
150
451155
3379
Он позволяет исследовать предвзятость систем генерации изображений
07:34
through the lens of professions.
151
454575
1669
сквозь призму профессий.
07:37
So try to picture a scientist in your mind.
152
457370
3045
Попробуйте представить себе образ учёного.
07:40
Don't look at me.
153
460456
1168
Не смотрите на меня.
07:41
What do you see?
154
461666
1335
Что вы видите?
07:43
A lot of the same thing, right?
155
463835
1501
Все результаты одинаковы.
07:45
Men in glasses and lab coats.
156
465378
2377
Мужчины в очках и лабораторных халатах.
07:47
And none of them look like me.
157
467797
1710
Никто из них не похож на меня.
07:50
And the thing is,
158
470174
1460
Когда мы изучили разные модели генерации изображений, мы обнаружили,
07:51
is that we looked at all these different image generation models
159
471676
3253
07:54
and found a lot of the same thing:
160
474929
1627
что такое однообразие вездесуще:
07:56
significant representation of whiteness and masculinity
161
476597
2586
в большинстве представлены белые мужчины
07:59
across all 150 professions that we looked at,
162
479225
2127
всех 150 рассматриваемых нами профессий.
08:01
even if compared to the real world,
163
481352
1794
Это отличается от реальной ситуации,
08:03
the US Labor Bureau of Statistics.
164
483187
1836
согласно бюро статистики труда США.
08:05
These models show lawyers as men,
165
485023
3044
Модели ИИ показывают юристов как мужчин
08:08
and CEOs as men, almost 100 percent of the time,
166
488109
3462
и генеральных директоров как мужчин почти в 100 процентах случаев,
08:11
even though we all know not all of them are white and male.
167
491571
3170
хотя все мы знаем, что не все из них белые и мужчины.
08:14
And sadly, my tool hasn't been used to write legislation yet.
168
494782
4380
К сожалению, моя программа пока не использовалась в написании законов,
08:19
But I recently presented it at a UN event about gender bias
169
499203
3963
но я представила её на заседании ООН о гендерных предрассудках
08:23
as an example of how we can make tools for people from all walks of life,
170
503166
3879
как пример того, как можно помочь людям из всех слоёв общества,
08:27
even those who don't know how to code,
171
507086
2252
даже тем, кто не знает программирования,
08:29
to engage with and better understand AI because we use professions,
172
509380
3253
лучше понять ИИ, используя профессии.
08:32
but you can use any terms that are of interest to you.
173
512633
3087
Можно, конечно, использовать любые другие категории.
08:36
And as these models are being deployed,
174
516596
2752
По мере внедрения этих моделей
08:39
are being woven into the very fabric of our societies,
175
519390
3128
они вплетаются в саму структуру нашего общества.
08:42
our cell phones, our social media feeds,
176
522518
2044
Наши смартфоны, материал в социальных сетях
08:44
even our justice systems and our economies have AI in them.
177
524604
3211
и даже системы правосудия и экономики используют ИИ.
08:47
And it's really important that AI stays accessible
178
527815
3879
Очень важно, чтобы ИИ оставался доступным,
08:51
so that we know both how it works and when it doesn't work.
179
531736
4713
чтобы мы знали и как он работает, и когда он не работает.
08:56
And there's no single solution for really complex things like bias
180
536908
4296
Нет уникального решения таких проблем, как предвзятость,
09:01
or copyright or climate change.
181
541245
2419
авторские права или изменение климата.
09:03
But by creating tools to measure AI's impact,
182
543664
2711
Однако, создавая инструменты для измерения влияния ИИ,
09:06
we can start getting an idea of how bad they are
183
546375
3337
мы можем начать распознавать их проблемы
09:09
and start addressing them as we go.
184
549754
2502
и решать их по ходу дела.
09:12
Start creating guardrails to protect society and the planet.
185
552256
3337
Мы можем создать нужные ограничения, чтобы защитить общество и планету.
09:16
And once we have this information,
186
556177
2336
Как только мы получим эту информацию,
09:18
companies can use it in order to say,
187
558513
1835
компании могут выбирать по принципу:
09:20
OK, we're going to choose this model because it's more sustainable,
188
560389
3170
хорошо, эта модель лучше, потому что она более экологична,
09:23
this model because it respects copyright.
189
563601
2044
а эта из-за соблюдения авторских прав.
09:25
Legislators who really need information to write laws,
190
565686
3087
Законодатели, которым нужна такая информация, могут использовать
09:28
can use these tools to develop new regulation mechanisms
191
568773
3462
эти инструменты для разработки новых механизмов регулирования
09:32
or governance for AI as it gets deployed into society.
192
572276
3796
или управления для ИИ по мере его внедрения в общество.
09:36
And users like you and me can use this information
193
576114
2377
А такие пользователи, как мы, с помощью них смогут
09:38
to choose AI models that we can trust,
194
578491
3337
выбрать те модели ИИ, которым можно доверять,
09:41
not to misrepresent us and not to misuse our data.
195
581869
2920
а не те, что искажают факты и злоупотребляют данными.
09:45
But what did I reply to that email
196
585790
1918
Так что же я ответила на письмо о том,
09:47
that said that my work is going to destroy humanity?
197
587750
2961
что моя работа уничтожит человечество?
09:50
I said that focusing on AI's future existential risks
198
590711
4046
Я написала, что, фокусируясь на потенциальных рисках ИИ,
09:54
is a distraction from its current,
199
594799
2044
мы отвлекаемся от его нынешних,
09:56
very tangible impacts
200
596843
1835
очень ощутимых последствий
09:58
and the work we should be doing right now, or even yesterday,
201
598719
4004
и от работы, которую нам стоило проделать сегодня или даже вчера,
10:02
for reducing these impacts.
202
602723
1919
чтобы уменьшить эти последствия.
10:04
Because yes, AI is moving quickly, but it's not a done deal.
203
604684
4045
Да, ИИ развивается быстро, но мы ещё можем всё изменить.
10:08
We're building the road as we walk it,
204
608771
2503
Мы строим дорогу по мере движения по ней
10:11
and we can collectively decide what direction we want to go in together.
205
611274
3795
и можем решить, в каком направлении мы хотим двигаться вместе.
10:15
Thank you.
206
615069
1210
Спасибо.
10:16
(Applause)
207
616279
2002
(Аплодисменты)
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7