How I'm fighting bias in algorithms | Joy Buolamwini

308,224 views ・ 2017-03-29

TED


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

Переводчик: Marina Moshnogorskaya Редактор: Yulia Kallistratova
00:12
Hello, I'm Joy, a poet of code,
0
12861
3134
Привет, я Джой, поэт кода.
00:16
on a mission to stop an unseen force that's rising,
1
16019
4993
Моя миссия — остановить невидимую, набирающую обороты силу,
00:21
a force that I called "the coded gaze,"
2
21036
2856
силу, которую я называю «закодированный взгляд»,
00:23
my term for algorithmic bias.
3
23916
3309
моё определение для алгоритмического сбоя.
00:27
Algorithmic bias, like human bias, results in unfairness.
4
27249
4300
Необъективность алгоритма, как и человека, ведёт к несправедливости.
00:31
However, algorithms, like viruses, can spread bias on a massive scale
5
31573
6022
Алгоритмы, как вирусы, способны распространять ошибки в больших масштабах
00:37
at a rapid pace.
6
37619
1582
и очень быстро.
00:39
Algorithmic bias can also lead to exclusionary experiences
7
39763
4387
Алгоритмические отклонения могут приводить к отчуждению
00:44
and discriminatory practices.
8
44174
2128
и дискриминации.
00:46
Let me show you what I mean.
9
46326
2061
Давайте я покажу, что я имею в виду.
00:48
(Video) Joy Buolamwini: Hi, camera. I've got a face.
10
48800
2436
(Видео) Джой: Привет, камера. Вот моё лицо.
00:51
Can you see my face?
11
51982
1864
Ты видишь моё лицо?
00:53
No-glasses face?
12
53871
1625
Лицо без очков?
00:55
You can see her face.
13
55521
2214
Ты видишь её лицо.
00:58
What about my face?
14
58057
2245
А моё?
01:03
I've got a mask. Can you see my mask?
15
63710
3750
Теперь с маской. Видишь маску?
01:08
Joy Buolamwini: So how did this happen?
16
68294
2365
Джой Буоламвини: Как так получилось?
01:10
Why am I sitting in front of a computer
17
70683
3141
Почему я сижу за компьютером
01:13
in a white mask,
18
73848
1424
в белой маске,
01:15
trying to be detected by a cheap webcam?
19
75296
3650
пытаясь быть распознанной дешёвой камерой?
01:18
Well, when I'm not fighting the coded gaze
20
78970
2291
Когда я не воюю с закодированным взглядом,
01:21
as a poet of code,
21
81285
1520
будучи поэтом кода,
01:22
I'm a graduate student at the MIT Media Lab,
22
82829
3272
я аспирант Медиа-лаборатории в МИТ,
01:26
and there I have the opportunity to work on all sorts of whimsical projects,
23
86125
4917
где у меня есть возможность работать над всяческими фантастическими проектами,
01:31
including the Aspire Mirror,
24
91066
2027
включая Зеркало стремлений,
01:33
a project I did so I could project digital masks onto my reflection.
25
93117
5134
которое позволяет проецировать цифровые маски на своё отражение.
01:38
So in the morning, if I wanted to feel powerful,
26
98275
2350
Например, если утром я хочу чувствовать себя сильной,
01:40
I could put on a lion.
27
100649
1434
я могу наложить маску льва.
01:42
If I wanted to be uplifted, I might have a quote.
28
102107
3496
Если я хочу приободриться, то можно обойтись цитатой.
01:45
So I used generic facial recognition software
29
105627
2989
Я использовала обычную программу распознавания лиц,
01:48
to build the system,
30
108640
1351
чтобы создать эту систему,
01:50
but found it was really hard to test it unless I wore a white mask.
31
110015
5103
но оказалось, что её очень трудно тестировать, если на мне нет белой маски.
01:56
Unfortunately, I've run into this issue before.
32
116102
4346
К сожалению, я и раньше сталкивалась с этой проблемой.
02:00
When I was an undergraduate at Georgia Tech studying computer science,
33
120472
4303
Когда я изучала информатику в Технологическом институте Джорджии,
02:04
I used to work on social robots,
34
124799
2055
я работала над социальными роботами,
02:06
and one of my tasks was to get a robot to play peek-a-boo,
35
126878
3777
и одной из моих задач было научить робота играть в «ку-ку».
02:10
a simple turn-taking game
36
130679
1683
Это простая игра со сменой ролей,
02:12
where partners cover their face and then uncover it saying, "Peek-a-boo!"
37
132386
4321
когда участники закрывают лицо ладонями, и, открывая, говорят: «Ку-ку!»
02:16
The problem is, peek-a-boo doesn't really work if I can't see you,
38
136731
4429
Проблема заключается в том, что если вас не видно, то игра теряет смысл,
02:21
and my robot couldn't see me.
39
141184
2499
а мой робот меня не видел.
02:23
But I borrowed my roommate's face to get the project done,
40
143707
3950
Моя соседка одолжила мне своё лицо, чтобы я смогла закончить проект,
02:27
submitted the assignment,
41
147681
1380
я сдала задание
02:29
and figured, you know what, somebody else will solve this problem.
42
149085
3753
и подумала, что кто-нибудь другой решит эту проблему.
02:33
Not too long after,
43
153489
2003
Через некоторое время
02:35
I was in Hong Kong for an entrepreneurship competition.
44
155516
4159
я участвовала в конкурсе предринимателей в Гонконге.
02:40
The organizers decided to take participants
45
160159
2694
Организаторы решили показать участникам
02:42
on a tour of local start-ups.
46
162877
2372
местные стартапы.
02:45
One of the start-ups had a social robot,
47
165273
2715
В одном стартапе был социальный робот,
02:48
and they decided to do a demo.
48
168012
1912
и они решили его продемонстрировать.
02:49
The demo worked on everybody until it got to me,
49
169948
2980
Демонстрация сработала на всех, пока дело не дошло до меня,
02:52
and you can probably guess it.
50
172952
1923
и вы, наверное, уже догадались.
02:54
It couldn't detect my face.
51
174899
2965
Он не смог распознать моё лицо.
02:57
I asked the developers what was going on,
52
177888
2511
Я спросила у разработчиков, в чём дело,
03:00
and it turned out we had used the same generic facial recognition software.
53
180423
5533
и оказалось, что мы использовали одну и ту же программу для распознавания лиц.
03:05
Halfway around the world,
54
185980
1650
На другой половине земного шара
03:07
I learned that algorithmic bias can travel as quickly
55
187654
3852
до меня дошло, что алгоритмическая ошибка может распространяться так же быстро,
03:11
as it takes to download some files off of the internet.
56
191530
3170
как быстро можно скачивать файлы из интернета.
03:15
So what's going on? Why isn't my face being detected?
57
195565
3076
Так что же происходит? Почему моё лицо не распознаётся?
03:18
Well, we have to look at how we give machines sight.
58
198665
3356
Для начала рассмотрим, как мы создаём машинное зрение.
03:22
Computer vision uses machine learning techniques
59
202045
3409
Компьютерное зрение использует техники машинного обучения,
03:25
to do facial recognition.
60
205478
1880
чтобы распознавать лица.
03:27
So how this works is, you create a training set with examples of faces.
61
207382
3897
Это работает таким образом: вы создаёте тренировочный набор с примерами лиц.
03:31
This is a face. This is a face. This is not a face.
62
211303
2818
Это лицо. Это лицо. Это не лицо.
03:34
And over time, you can teach a computer how to recognize other faces.
63
214145
4519
И постепенно вы можете научить компьютер распознавать другие лица.
03:38
However, if the training sets aren't really that diverse,
64
218688
3989
Однако, если тренировочные наборы не очень разнообразны,
03:42
any face that deviates too much from the established norm
65
222701
3349
любое лицо, которое сильно отличается от установленной нормы,
03:46
will be harder to detect,
66
226074
1649
будет сложно распознать,
03:47
which is what was happening to me.
67
227747
1963
что и происходило со мной.
03:49
But don't worry -- there's some good news.
68
229734
2382
Но не переживайте — есть и хорошие новости.
03:52
Training sets don't just materialize out of nowhere.
69
232140
2771
Тренировочные наборы не появляются из ниоткуда.
03:54
We actually can create them.
70
234935
1788
Мы вообще-то можем их создавать.
03:56
So there's an opportunity to create full-spectrum training sets
71
236747
4176
Есть возможность создавать полный спектр тренировочных наборов,
04:00
that reflect a richer portrait of humanity.
72
240947
3824
которые отражают более насыщенный портрет человечества.
04:04
Now you've seen in my examples
73
244795
2221
Вы увидели в моих примерах,
04:07
how social robots
74
247040
1768
как социальные роботы
04:08
was how I found out about exclusion with algorithmic bias.
75
248832
4611
позволили мне обнаружить исключения из-за алгоритмической погрешности.
04:13
But algorithmic bias can also lead to discriminatory practices.
76
253467
4815
Но алгоритмическая ошибка может также приводить к дискриминации.
04:19
Across the US,
77
259257
1453
В США
04:20
police departments are starting to use facial recognition software
78
260734
4198
отделения полиции начинают использовать программы распознавания лиц
04:24
in their crime-fighting arsenal.
79
264956
2459
в их арсенале борьбы с преступностью.
04:27
Georgetown Law published a report
80
267439
2013
Школа права университета Джорджтаун
04:29
showing that one in two adults in the US -- that's 117 million people --
81
269476
6763
опубликовала отчёт, согласно которому в США один из двух взрослых —
04:36
have their faces in facial recognition networks.
82
276263
3534
это 117 миллионов человек — имеют свои лица в сетях распознавания лиц.
04:39
Police departments can currently look at these networks unregulated,
83
279821
4552
Отделения полиции сейчас могут неограниченно пользоваться этими сетями,
04:44
using algorithms that have not been audited for accuracy.
84
284397
4286
используя алгоритмы, точность которых не была проверена.
04:48
Yet we know facial recognition is not fail proof,
85
288707
3864
Но мы знаем, что распознавание лиц несовершенно
04:52
and labeling faces consistently remains a challenge.
86
292595
4179
и что последовательное определение лиц остаётся сложной задачей.
04:56
You might have seen this on Facebook.
87
296798
1762
Можно столкнуться с этим на Фейсбуке.
04:58
My friends and I laugh all the time when we see other people
88
298584
2988
Мы с друзьями всё время смеёмся, когда видим других людей,
05:01
mislabeled in our photos.
89
301596
2458
отмеченных на наших фото.
05:04
But misidentifying a suspected criminal is no laughing matter,
90
304078
5591
Но ошибочное определение уголовно подозреваемого — это не шутка
05:09
nor is breaching civil liberties.
91
309693
2827
и не просто нарушение гражданских свобод.
05:12
Machine learning is being used for facial recognition,
92
312544
3205
Машинное обучение используется для распознавания лиц,
05:15
but it's also extending beyond the realm of computer vision.
93
315773
4505
но не ограничивается компьютерным зрением.
05:21
In her book, "Weapons of Math Destruction,"
94
321086
4016
В своей книге «Оружие математического поражения»
05:25
data scientist Cathy O'Neil talks about the rising new WMDs --
95
325126
6681
учёный в области данных Кэти О'нейл рассказывает о новом ОМП —
05:31
widespread, mysterious and destructive algorithms
96
331831
4353
охватывающих, малоизвестных и поражающих алгоритмах,
05:36
that are increasingly being used to make decisions
97
336208
2964
которые всё чаще используются для принятия решений,
05:39
that impact more aspects of our lives.
98
339196
3177
которые влияют на всё большее количество аспектов нашей жизни.
05:42
So who gets hired or fired?
99
342397
1870
Кто будет принят на работу или уволен?
05:44
Do you get that loan? Do you get insurance?
100
344291
2112
Дадут ли вам этот кредит? Страховку?
05:46
Are you admitted into the college you wanted to get into?
101
346427
3503
Попадёте ли вы в тот колледж, в который собирались?
05:49
Do you and I pay the same price for the same product
102
349954
3509
Одинаковы ли цены для вас и для меня на один и тот же товар,
05:53
purchased on the same platform?
103
353487
2442
купленный на той же платформе?
05:55
Law enforcement is also starting to use machine learning
104
355953
3759
Правоохранительные органы также начинают применять машинное обучение
05:59
for predictive policing.
105
359736
2289
для прогнозирования.
06:02
Some judges use machine-generated risk scores to determine
106
362049
3494
Судьи используют рейтинги риска, сгенерированные машиной, для определения
06:05
how long an individual is going to spend in prison.
107
365567
4402
срока, который человек должен будет провести в тюрьме.
06:09
So we really have to think about these decisions.
108
369993
2454
Мы должны крепко задуматься над этими решениями.
06:12
Are they fair?
109
372471
1182
Справедливы ли они?
06:13
And we've seen that algorithmic bias
110
373677
2890
Мы видели, что алгоритмический сбой
06:16
doesn't necessarily always lead to fair outcomes.
111
376591
3374
ведёт к не совсем правильным результатам.
06:19
So what can we do about it?
112
379989
1964
Что же мы можем с этим сделать?
06:21
Well, we can start thinking about how we create more inclusive code
113
381977
3680
Для начала, мы можем задуматься о том, как создавать более всестороний код
06:25
and employ inclusive coding practices.
114
385681
2990
и применять инклюзивные практики в программировании.
06:28
It really starts with people.
115
388695
2309
Это всё начинается с людей.
06:31
So who codes matters.
116
391528
1961
Важно, кто пишет код.
06:33
Are we creating full-spectrum teams with diverse individuals
117
393513
4119
Создаём ли мы группы из разнообразных личностей,
06:37
who can check each other's blind spots?
118
397656
2411
способных видеть слепые зоны друг друга?
06:40
On the technical side, how we code matters.
119
400091
3545
С технической стороны, имеет значение то, как мы пишем код.
06:43
Are we factoring in fairness as we're developing systems?
120
403660
3651
Движет ли нами справедливость во время разработки систем?
06:47
And finally, why we code matters.
121
407335
2913
И наконец, важно, для чего мы пишем код.
06:50
We've used tools of computational creation to unlock immense wealth.
122
410605
5083
Использование компьютерного творчества открыло нам невероятное богатство.
06:55
We now have the opportunity to unlock even greater equality
123
415712
4447
Сейчас у нас есть возможность добиться ещё большего равенства,
07:00
if we make social change a priority
124
420183
2930
если мы сделаем социальное изменение приоритетной,
07:03
and not an afterthought.
125
423137
2170
а не запоздалой идеей.
07:05
And so these are the three tenets that will make up the "incoding" movement.
126
425828
4522
Итак, есть три принципа, которые составляют основу движения «инкодинг».
07:10
Who codes matters,
127
430374
1652
Важно, кто пишет код,
07:12
how we code matters
128
432050
1543
важно, как мы пишем код,
07:13
and why we code matters.
129
433617
2023
и важно, для чего мы пишем код.
07:15
So to go towards incoding, we can start thinking about
130
435664
3099
Двигаясь в сторону инкодинга, мы можем начать задумываться
07:18
building platforms that can identify bias
131
438787
3164
о создании платформ, которые могут находить ошибку,
07:21
by collecting people's experiences like the ones I shared,
132
441975
3078
собирая опыт людей, таких как я,
07:25
but also auditing existing software.
133
445077
3070
а также проверяющих существующее программное обеспечение.
07:28
We can also start to create more inclusive training sets.
134
448171
3765
Также мы можем приступить к созданию более полных тренировочных наборов.
07:31
Imagine a "Selfies for Inclusion" campaign
135
451960
2803
Представьте себе кампанию «Селфи для присоединения»,
07:34
where you and I can help developers test and create
136
454787
3655
где вы и я можем помочь разработчикам тестировать и создавать
07:38
more inclusive training sets.
137
458466
2093
более полные тренировочные наборы.
07:41
And we can also start thinking more conscientiously
138
461122
2828
Также мы можем начать думать более добросовестно
07:43
about the social impact of the technology that we're developing.
139
463974
5391
о социальном влиянии технологии, над которой мы работаем.
07:49
To get the incoding movement started,
140
469389
2393
Чтобы запустить движение инкодинга,
07:51
I've launched the Algorithmic Justice League,
141
471806
2847
я создала Лигу алгоритмической справедливости,
07:54
where anyone who cares about fairness can help fight the coded gaze.
142
474677
5872
где каждый, кто заботится о равенстве, может помочь бороться со сбоями.
08:00
On codedgaze.com, you can report bias,
143
480573
3296
На codedgaze.com вы можете сообщить об ошибке,
08:03
request audits, become a tester
144
483893
2445
запросить проверку, стать тестировщиком
08:06
and join the ongoing conversation,
145
486362
2771
и присоединиться к обсуждению.
08:09
#codedgaze.
146
489157
2287
#codedgaze.
08:12
So I invite you to join me
147
492562
2487
Я приглашаю вас присоединиться ко мне,
08:15
in creating a world where technology works for all of us,
148
495073
3719
чтобы создать мир, в котором технология работает на всех нас,
08:18
not just some of us,
149
498816
1897
а не только на некоторых,
08:20
a world where we value inclusion and center social change.
150
500737
4588
мир, в котором мы ценим инклюзию и сосредотачиваемся на социальных переменах.
08:25
Thank you.
151
505349
1175
Спасибо.
08:26
(Applause)
152
506548
4271
(Аплодисменты)
08:32
But I have one question:
153
512693
2854
И у меня один вопрос:
08:35
Will you join me in the fight?
154
515571
2059
«А вы присоединитесь ко мне в этой борьбе?»
08:37
(Laughter)
155
517654
1285
(Смех)
08:38
(Applause)
156
518963
3687
(Аплодисменты)
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7