How to keep human bias out of AI | Kriti Sharma

99,340 views ・ 2019-04-12

TED


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

00:00
Translator: Ivana Korom Reviewer: Joanna Pietrulewicz
0
0
7000
Переводчик: Anastasia Shmeleva Редактор: Maxim Averin
00:12
How many decisions have been made about you today,
1
12875
3768
Сколько решений в отношении вас было принято сегодня,
00:16
or this week or this year,
2
16667
2601
на этой неделе или в этом году
00:19
by artificial intelligence?
3
19292
1958
искусственным интеллектом?
00:22
I build AI for a living
4
22958
1685
Я зарабатываю, создавая ИИ,
00:24
so, full disclosure, I'm kind of a nerd.
5
24667
3017
так что, говоря откровенно, я ботан.
00:27
And because I'm kind of a nerd,
6
27708
2393
И поскольку я ботан,
00:30
wherever some new news story comes out
7
30125
2351
когда появляется очередной новостной сюжет
00:32
about artificial intelligence stealing all our jobs,
8
32500
3434
об искусственном интеллекте, ворующем наши рабочие места,
00:35
or robots getting citizenship of an actual country,
9
35958
4185
или о роботах, получающих гражданство настоящей страны,
00:40
I'm the person my friends and followers message
10
40167
3142
мои друзья и подписчики именно меня засыпают сообщениями,
00:43
freaking out about the future.
11
43333
1542
полными переживаний о будущем.
00:45
We see this everywhere.
12
45833
2101
Мы наблюдаем это повсеместно.
00:47
This media panic that our robot overlords are taking over.
13
47958
4893
СМИ раздувают панику о восстании роботов.
00:52
We could blame Hollywood for that.
14
52875
1917
В этом можно обвинить Голливуд.
00:56
But in reality, that's not the problem we should be focusing on.
15
56125
4125
Но на самом деле это не та проблема, на которой нам следует фокусироваться.
01:01
There is a more pressing danger, a bigger risk with AI,
16
61250
3643
Существует более серьёзный риск, на который нам следует обратить внимание
01:04
that we need to fix first.
17
64917
1583
при работе с ИИ.
01:07
So we are back to this question:
18
67417
2309
Итак, вернёмся к изначальному вопросу:
01:09
How many decisions have been made about you today by AI?
19
69750
4708
сколько решений принял сегодня в отношении вас ИИ?
01:15
And how many of these
20
75792
1976
И сколько из них
01:17
were based on your gender, your race or your background?
21
77792
4500
были продиктованы вашим полом, расой или происхождением?
01:24
Algorithms are being used all the time
22
84500
2768
Алгоритмы используются повсеместно,
01:27
to make decisions about who we are and what we want.
23
87292
3833
для того чтобы определять, кто мы такие и чего мы хотим.
01:32
Some of the women in this room will know what I'm talking about
24
92208
3643
Некоторые женщины в этом зале поймут, о чём я,
01:35
if you've been made to sit through those pregnancy test adverts on YouTube
25
95875
3768
если вам приходилось смотреть рекламу тестов на беременность на YouTube
01:39
like 1,000 times.
26
99667
2059
по 1000 раз на дню.
01:41
Or you've scrolled past adverts of fertility clinics
27
101750
2851
Или когда вы натыкаетесь на рекламу клиник планирования семьи
01:44
on your Facebook feed.
28
104625
2042
в ленте Facebook.
01:47
Or in my case, Indian marriage bureaus.
29
107625
2393
Или в моём случае — индийские брачные бюро.
01:50
(Laughter)
30
110042
1267
(Смех)
01:51
But AI isn't just being used to make decisions
31
111333
2976
Однако ИИ используется не просто для того, чтобы определить,
01:54
about what products we want to buy
32
114333
2601
какие товары мы хотим приобрести
01:56
or which show we want to binge watch next.
33
116958
2500
или за каким сериалом проведём бессонные ночи.
02:01
I wonder how you'd feel about someone who thought things like this:
34
121042
5184
Интересно, что бы вы подумали о человеке, который размышляет примерно так:
02:06
"A black or Latino person
35
126250
1934
«Афро- или латиноамериканец
02:08
is less likely than a white person to pay off their loan on time."
36
128208
4125
куда реже, чем белый, вовремя вносит платежи по кредиту».
02:13
"A person called John makes a better programmer
37
133542
2809
«Человек по имени Джон — более способный программист,
02:16
than a person called Mary."
38
136375
1667
чем та, кого зовут Мэри».
02:19
"A black man is more likely to be a repeat offender than a white man."
39
139250
5083
«Афроамериканец чаще, чем белый оказывается рецидивистом».
02:26
You're probably thinking,
40
146958
1268
Вы наверняка сейчас думаете:
02:28
"Wow, that sounds like a pretty sexist, racist person," right?
41
148250
3750
«Ого, да это наверняка сексисты и расисты», верно?
02:33
These are some real decisions that AI has made very recently,
42
153000
4851
Всё это реальные заключения, сделанные о нас искусственным интеллектом
02:37
based on the biases it has learned from us,
43
157875
2934
и основанные на тех предрассудках, которым ИИ научился у нас,
02:40
from the humans.
44
160833
1250
у людей.
02:43
AI is being used to help decide whether or not you get that job interview;
45
163750
4809
ИИ упрощает процесс принятия решений: пригласят ли вас на собеседование,
02:48
how much you pay for your car insurance;
46
168583
2393
сколько вам платить за страховку машины,
02:51
how good your credit score is;
47
171000
1893
как выглядит ваша кредитная история
02:52
and even what rating you get in your annual performance review.
48
172917
3125
и даже то, как вы будете оценены на работе по итогам года.
02:57
But these decisions are all being filtered through
49
177083
3143
Но все эти решения проходят через фильтры
03:00
its assumptions about our identity, our race, our gender, our age.
50
180250
5875
предположений ИИ о том, кто мы, о наших расе, поле и возрасте.
03:08
How is that happening?
51
188250
2268
Как же всё это происходит?
03:10
Now, imagine an AI is helping a hiring manager
52
190542
3517
Представьте, что ИИ помогает HR-менеджеру
03:14
find the next tech leader in the company.
53
194083
2851
в поиске следующего технического лидера в компании.
03:16
So far, the manager has been hiring mostly men.
54
196958
3101
В прошлом этот менеджер чаще выбирал на должность мужчин.
03:20
So the AI learns men are more likely to be programmers than women.
55
200083
4750
В итоге ИИ запоминает, что программистами чаще становятся мужчины, а не женщины.
03:25
And it's a very short leap from there to:
56
205542
2892
А отсюда рукой подать до вывода:
03:28
men make better programmers than women.
57
208458
2042
мужчины более способные программисты, чем женщины.
03:31
We have reinforced our own bias into the AI.
58
211417
3726
Таким образом, наши предрассудки укрепляются в ИИ.
03:35
And now, it's screening out female candidates.
59
215167
3625
Как результат, ИИ отсеивает кандидатов-женщин.
03:40
Hang on, if a human hiring manager did that,
60
220917
3017
Но стойте, если бы так поступал человек,
03:43
we'd be outraged, we wouldn't allow it.
61
223958
2351
мы бы были возмущены и выступили против.
03:46
This kind of gender discrimination is not OK.
62
226333
3476
Дискриминация по половому признаку — это предосудительно.
03:49
And yet somehow, AI has become above the law,
63
229833
4518
И всё же каким-то образом решения ИИ находятся вне закона,
03:54
because a machine made the decision.
64
234375
2083
так как они приняты машиной.
03:57
That's not it.
65
237833
1518
Но это не так.
03:59
We are also reinforcing our bias in how we interact with AI.
66
239375
4875
Мы также подкрепляем наши предрассудки тем, как именно мы взаимодействуем с ИИ.
04:04
How often do you use a voice assistant like Siri, Alexa or even Cortana?
67
244917
5976
Как часто вы пользуетесь голосовыми помощниками Сири, Алексой или Кортаной?
04:10
They all have two things in common:
68
250917
2559
Все они имеют две общие черты:
04:13
one, they can never get my name right,
69
253500
3101
первая заключается в том, что они всегда неверно произносят моё имя,
04:16
and second, they are all female.
70
256625
2667
а вторая — все они женского пола.
04:20
They are designed to be our obedient servants,
71
260417
2767
Они разработаны, чтобы послушно выполнять наши поручения,
04:23
turning your lights on and off, ordering your shopping.
72
263208
3250
включать и выключать свет, делать онлайн-покупки.
Существуют также системы ИИ мужского пола, но они обычно более авторитетны,
04:27
You get male AIs too, but they tend to be more high-powered,
73
267125
3309
04:30
like IBM Watson, making business decisions,
74
270458
3059
к примеру, IBM Watson, принимающий решения в бизнес-сфере,
04:33
Salesforce Einstein or ROSS, the robot lawyer.
75
273541
3792
или платформа Salesforce Einstein, или робот-адвокат ROSS.
04:38
So poor robots, even they suffer from sexism in the workplace.
76
278208
4060
Таким образом, даже несчастные роботы страдают от сексизма на рабочем месте.
04:42
(Laughter)
77
282292
1125
(Смех)
04:44
Think about how these two things combine
78
284542
2851
Задумайтесь, как оба этих факта вкупе
04:47
and affect a kid growing up in today's world around AI.
79
287417
5309
оказывают влияние на детей, растущих в сегодняшнем мире в окружении ИИ.
04:52
So they're doing some research for a school project
80
292750
2934
Например, они собирают данные для школьного проекта
04:55
and they Google images of CEO.
81
295708
3018
и гуглят фото генеральных директоров.
04:58
The algorithm shows them results of mostly men.
82
298750
2893
Алгоритм выдаёт им в основном директоров-мужчин.
05:01
And now, they Google personal assistant.
83
301667
2559
А потом они гуглят личных помощников.
05:04
As you can guess, it shows them mostly females.
84
304250
3434
Как вы можете догадаться, в этом поиске отображаются в основном женщины.
05:07
And then they want to put on some music, and maybe order some food,
85
307708
3601
А позже они захотят включить музыку или заказать поесть,
05:11
and now, they are barking orders at an obedient female voice assistant.
86
311333
6584
и вот они уже раздают свои поручения помощнику с покорным женским голосом.
05:19
Some of our brightest minds are creating this technology today.
87
319542
5309
Умнейшие люди планеты разрабатывают сейчас эти технологии.
05:24
Technology that they could have created in any way they wanted.
88
324875
4184
Технологии, которые они могли бы создать любыми, какими бы ни захотели.
05:29
And yet, they have chosen to create it in the style of 1950s "Mad Man" secretary.
89
329083
5685
И всё же они решили сделать помощников
в стиле секретарши 1950-х годов из фильма «Безумцы».
05:34
Yay!
90
334792
1500
Ура!
05:36
But OK, don't worry,
91
336958
1310
Ладно, не волнуйтесь,
05:38
this is not going to end with me telling you
92
338292
2059
я не собираюсь заканчивать выступление словами о том,
05:40
that we are all heading towards sexist, racist machines running the world.
93
340375
3477
что миром будут править сексистские, расистские машины.
05:44
The good news about AI is that it is entirely within our control.
94
344792
5791
Хорошие новости об ИИ заключаются в том, что он находится под нашим контролем.
05:51
We get to teach the right values, the right ethics to AI.
95
351333
4000
Мы можем заложить в ИИ правильные моральные нормы и ценности.
05:56
So there are three things we can do.
96
356167
2184
Мы можем сделать три вещи.
05:58
One, we can be aware of our own biases
97
358375
3351
Во-первых, мы можем начать отдавать себе отчёт о своих предрассудках
06:01
and the bias in machines around us.
98
361750
2726
и предрассудках машин вокруг нас.
06:04
Two, we can make sure that diverse teams are building this technology.
99
364500
4518
Во-вторых, мы должны создавать ИИ, привлекая непохожих друг на друга людей.
06:09
And three, we have to give it diverse experiences to learn from.
100
369042
4916
И, в-третьих, мы должны предоставить ИИ обширную выборку данных для обучения.
06:14
I can talk about the first two from personal experience.
101
374875
3309
Я говорю о первых двух пунктах, основываясь на собственном опыте.
06:18
When you work in technology
102
378208
1435
Если вы работаете в сфере ИТ
06:19
and you don't look like a Mark Zuckerberg or Elon Musk,
103
379667
3392
и не выглядите как какой-нибудь Марк Цукерберг или Илон Маск,
06:23
your life is a little bit difficult, your ability gets questioned.
104
383083
3750
вам немного сложнее, ваша компетенция постоянно подвергается сомнению.
06:27
Here's just one example.
105
387875
1393
Приведу всего один пример.
06:29
Like most developers, I often join online tech forums
106
389292
3726
Как и большинство разработчиков, я часто бываю на техно-форумах
06:33
and share my knowledge to help others.
107
393042
3226
и делюсь своими знаниями, чтобы помочь другим.
06:36
And I've found,
108
396292
1309
И я заметила,
06:37
when I log on as myself, with my own photo, my own name,
109
397625
3976
что когда я размещаю настоящее фото и подписываюсь собственным именем,
06:41
I tend to get questions or comments like this:
110
401625
4601
мне часто задают вопросы или пишут такие комментарии как:
06:46
"What makes you think you're qualified to talk about AI?"
111
406250
3000
«Что заставляет вас думать, что вы можете рассуждать об ИИ?»
06:50
"What makes you think you know about machine learning?"
112
410458
3476
«Почему вы так уверены, что знаете что-то о машинном обучении?»
06:53
So, as you do, I made a new profile,
113
413958
3435
Поэтому, только не удивляйтесь, — я создала новый профиль
06:57
and this time, instead of my own picture, I chose a cat with a jet pack on it.
114
417417
4851
и на этот раз вместо собственного фото я поставила кота с реактивным ранцем.
07:02
And I chose a name that did not reveal my gender.
115
422292
2458
А ещё я выбрала ник, по которому невозможно понять пол.
07:05
You can probably guess where this is going, right?
116
425917
2726
Вы можете с лёгкостью догадаться, к чему я клоню, правда?
07:08
So, this time, I didn't get any of those patronizing comments about my ability
117
428667
6392
В этот раз никто не оставлял комментариев, ставящих мою квалификацию под сомнение,
07:15
and I was able to actually get some work done.
118
435083
3334
и мне наконец удалось донести свои мысли.
07:19
And it sucks, guys.
119
439500
1851
И это отстой, ребята.
07:21
I've been building robots since I was 15,
120
441375
2476
Я занимаюсь созданием роботов с 15 лет,
07:23
I have a few degrees in computer science,
121
443875
2268
получила несколько степеней в информатике,
07:26
and yet, I had to hide my gender
122
446167
2434
и мне всё равно приходится скрывать свой пол,
07:28
in order for my work to be taken seriously.
123
448625
2250
чтобы к моей работе относились серьёзно.
07:31
So, what's going on here?
124
451875
1893
Так что же происходит?
07:33
Are men just better at technology than women?
125
453792
3208
Неужели мужчины просто лучше разбираются в технологиях, чем женщины?
07:37
Another study found
126
457917
1559
Одно исследование выявило,
07:39
that when women coders on one platform hid their gender, like myself,
127
459500
4934
что когда на одной из платформ женщины-кодеры, как я, скрывали свой пол,
07:44
their code was accepted four percent more than men.
128
464458
3250
их работа признавалась успешной на 4% чаще, чем у их коллег мужчин.
07:48
So this is not about the talent.
129
468542
2916
Так что дело не в таланте.
07:51
This is about an elitism in AI
130
471958
2893
Дело в неравноправии в сфере ИИ,
07:54
that says a programmer needs to look like a certain person.
131
474875
2792
где программист должен выглядеть определённым образом.
07:59
What we really need to do to make AI better
132
479375
3101
На самом деле для усовершенствования сферы ИИ
08:02
is bring people from all kinds of backgrounds.
133
482500
3042
нужно вовлекать людей разного происхождения.
08:06
We need people who can write and tell stories
134
486542
2559
Нам нужны люди, умеющие писать и рассказывать истории
08:09
to help us create personalities of AI.
135
489125
2167
для помощи в создании личностей ИИ.
08:12
We need people who can solve problems.
136
492208
2042
Нам нужны те, кто способен решать задачи.
08:15
We need people who face different challenges
137
495125
3768
Нам нужны люди, сталкивающиеся с различными трудностями,
08:18
and we need people who can tell us what are the real issues that need fixing
138
498917
5351
а так же люди, которые могут рассказать о реальных проблемах, требующих решений,
08:24
and help us find ways that technology can actually fix it.
139
504292
3041
и помочь нам создать технологии для поиска качественных решений.
08:29
Because, when people from diverse backgrounds come together,
140
509833
3726
Ведь когда люди с разным жизненным опытом собираются вместе,
08:33
when we build things in the right way,
141
513583
2143
когда мы двигаемся в верном направлении,
08:35
the possibilities are limitless.
142
515750
2042
наши возможности безграничны.
08:38
And that's what I want to end by talking to you about.
143
518750
3309
Я хочу исправить сложившуюся ситуацию и поэтому говорю меньше о том,
08:42
Less racist robots, less machines that are going to take our jobs --
144
522083
4225
что роботы-расисты и машины отнимут у нас рабочие места,
08:46
and more about what technology can actually achieve.
145
526332
3125
и больше о том, чего мы действительно можем достичь.
08:50
So, yes, some of the energy in the world of AI,
146
530292
3434
Конечно, часть энергии в мире ИИ,
08:53
in the world of technology
147
533750
1393
в мире технологий
08:55
is going to be about what ads you see on your stream.
148
535167
4267
будет уходить на определение того, какие рекламные объявления вы увидите.
08:59
But a lot of it is going towards making the world so much better.
149
539458
5209
Но существенная доля энергии направлена на то, чтобы сделать мир намного лучше.
09:05
Think about a pregnant woman in the Democratic Republic of Congo,
150
545500
3768
Представьте беременную женщину в Демократической Республике Конго,
09:09
who has to walk 17 hours to her nearest rural prenatal clinic
151
549292
4184
которой приходится идти 17 часов пешком до ближайшей сельской женской консультации
09:13
to get a checkup.
152
553500
1851
для прохождения медосмотра.
09:15
What if she could get diagnosis on her phone, instead?
153
555375
2917
Что было бы, если бы она могла вместо этого получить диагноз по телефону?
09:19
Or think about what AI could do
154
559750
1809
Или представьте, что мог бы сделать ИИ
09:21
for those one in three women in South Africa
155
561583
2726
для женщин из Южной Африки, каждая третья из которых
09:24
who face domestic violence.
156
564333
2125
сталкивается с домашним насилием.
09:27
If it wasn't safe to talk out loud,
157
567083
2726
Если им страшно сообщить об этом,
09:29
they could get an AI service to raise alarm,
158
569833
2476
они могли бы использовать ИИ для привлечения внимания,
09:32
get financial and legal advice.
159
572333
2459
получить финансовую и юридическую помощь.
09:35
These are all real examples of projects that people, including myself,
160
575958
5018
Это примеры реальных проектов, над которыми мы сейчас работаем,
09:41
are working on right now, using AI.
161
581000
2500
используя технологии ИИ.
09:45
So, I'm sure in the next couple of days there will be yet another news story
162
585542
3601
Я уверена, в ближайшие пару дней появится очередной новостной вброс
09:49
about the existential risk,
163
589167
2684
об экзистенциальном риске, восстании машин
09:51
robots taking over and coming for your jobs.
164
591875
2434
и о том, что мы все скоро лишимся рабочих мест.
09:54
(Laughter)
165
594333
1018
(Смех)
09:55
And when something like that happens,
166
595375
2309
Когда что-то подобное происходит, я знаю наперёд,
09:57
I know I'll get the same messages worrying about the future.
167
597708
3601
что получу множество сообщений, полных переживаний о нашем будущем.
10:01
But I feel incredibly positive about this technology.
168
601333
3667
Но я полностью поддерживаю использование технологий ИИ.
10:07
This is our chance to remake the world into a much more equal place.
169
607458
5959
Это наш шанс сделать мир местом, где равенство не будет пустым словом.
10:14
But to do that, we need to build it the right way from the get go.
170
614458
4000
Но для этого нам нужно делать всё правильно с самого начала.
10:19
We need people of different genders, races, sexualities and backgrounds.
171
619667
5083
Нам нужны люди разного пола, рас, сексуальных ориентаций, происхождений.
10:26
We need women to be the makers
172
626458
2476
Нужно, чтобы женщины выступали творцами,
10:28
and not just the machines who do the makers' bidding.
173
628958
3000
а не просто машинами, которые выполняют поручения творцов.
10:33
We need to think very carefully what we teach machines,
174
633875
3768
Нам нужно осторожно подходить к тому, какой логике мы обучаем системы,
10:37
what data we give them,
175
637667
1642
какими данными снабжаем их,
10:39
so they don't just repeat our own past mistakes.
176
639333
3125
чтобы они не повторяли наши былые ошибки.
10:44
So I hope I leave you thinking about two things.
177
644125
3542
Я надеюсь, что оставлю вас с мыслями о двух вещах.
10:48
First, I hope you leave thinking about bias today.
178
648542
4559
Во-первых, я надеюсь, вы задумаетесь о бытующих в обществе предрассудках.
10:53
And that the next time you scroll past an advert
179
653125
3184
И в следующий раз, когда вы увидите в ленте объявление,
10:56
that assumes you are interested in fertility clinics
180
656333
2810
предполагающее, что вам интересны клиники планирования семьи
10:59
or online betting websites,
181
659167
2851
или букмекер-сервисы онлайн,
11:02
that you think and remember
182
662042
2017
вы вспомните о том,
11:04
that the same technology is assuming that a black man will reoffend.
183
664083
4625
что тот же алгоритм предполагает, что афроамериканец станет рецидивистом.
11:09
Or that a woman is more likely to be a personal assistant than a CEO.
184
669833
4167
Или что женщина скорее станет личным ассистентом, чем генеральным директором.
11:14
And I hope that reminds you that we need to do something about it.
185
674958
3709
И я надеюсь, вы вспомните, что со всем этим нам нужно что-то делать.
11:20
And second,
186
680917
1851
А во-вторых,
11:22
I hope you think about the fact
187
682792
1892
надеюсь, вы задумаетесь о том,
11:24
that you don't need to look a certain way
188
684708
1976
что вам не нужно выглядеть определённым образом
11:26
or have a certain background in engineering or technology
189
686708
3851
или иметь специальную подготовку в области технологий,
11:30
to create AI,
190
690583
1268
чтобы участвовать в создании ИИ,
11:31
which is going to be a phenomenal force for our future.
191
691875
2875
который станет движущей силой нашего будущего.
11:36
You don't need to look like a Mark Zuckerberg,
192
696166
2143
Вам не нужно выглядеть, как Марк Цукерберг,
11:38
you can look like me.
193
698333
1250
вы можете выглядеть, как я.
11:41
And it is up to all of us in this room
194
701250
2893
И от всех нас в этой комнате зависит,
11:44
to convince the governments and the corporations
195
704167
2726
сможем ли мы убедить правительство и корпорации
11:46
to build AI technology for everyone,
196
706917
2892
создавать ИИ для всех,
11:49
including the edge cases.
197
709833
2393
включая редкие случаи.
11:52
And for us all to get education
198
712250
2059
В наших интересах познать в будущем
11:54
about this phenomenal technology in the future.
199
714333
2375
эту удивительную технологию,
11:58
Because if we do that,
200
718167
2017
потому что, сделав это,
12:00
then we've only just scratched the surface of what we can achieve with AI.
201
720208
4893
мы откроем лишь малую толику того, чего можно достичь с помощью ИИ.
12:05
Thank you.
202
725125
1268
Спасибо.
12:06
(Applause)
203
726417
2708
(Аплодисменты)
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7