The era of blind faith in big data must end | Cathy O'Neil

240,040 views ・ 2017-09-07

TED


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

Переводчик: Lana Zapolskykh Редактор: Yulia Kallistratova
00:12
Algorithms are everywhere.
0
12795
1596
Алгоритмы повсюду.
00:15
They sort and separate the winners from the losers.
1
15931
3125
Они сортируют людей, отделяя победителей от проигравших.
00:19
The winners get the job
2
19839
2264
Победители получают желаемую работу
00:22
or a good credit card offer.
3
22127
1743
или выгодное кредитное предложение.
00:23
The losers don't even get an interview
4
23894
2651
Неудачники даже не получают шанса на собеседование
00:27
or they pay more for insurance.
5
27410
1777
или платят больше за страхование.
00:30
We're being scored with secret formulas that we don't understand
6
30017
3549
Нас «считывают» по секретным формулам, которые мы зачастую не понимаем,
00:34
that often don't have systems of appeal.
7
34495
3217
без возможности обжалования решения.
00:39
That begs the question:
8
39060
1296
Назревает вопрос:
00:40
What if the algorithms are wrong?
9
40380
2913
что, если эти алгоритмы ошибочны?
00:44
To build an algorithm you need two things:
10
44920
2040
Для построения алгоритма вам нужны две вещи:
00:46
you need data, what happened in the past,
11
46984
1981
вам нужны данные о прошлых событиях
00:48
and a definition of success,
12
48989
1561
и определение понятия «успех» —
00:50
the thing you're looking for and often hoping for.
13
50574
2457
того, к чему вы стремитесь и на что надеетесь.
00:53
You train an algorithm by looking, figuring out.
14
53055
5037
Вы обучаете алгоритм, наблюдая за результатом.
00:58
The algorithm figures out what is associated with success.
15
58116
3419
Алгоритм вычисляет всё то, что связано с успехом.
01:01
What situation leads to success?
16
61559
2463
Какая ситуация приводит к успеху?
01:04
Actually, everyone uses algorithms.
17
64701
1762
Каждый из нас использует алгоритмы.
01:06
They just don't formalize them in written code.
18
66487
2718
Мы просто не записываем их в виде формул и кодов.
01:09
Let me give you an example.
19
69229
1348
Приведу пример.
01:10
I use an algorithm every day to make a meal for my family.
20
70601
3316
Я использую алгоритм каждый день, когда готовлю еду для своей семьи.
01:13
The data I use
21
73941
1476
Данные, которые я использую, —
01:16
is the ingredients in my kitchen,
22
76214
1659
это ингредиенты у меня на кухне,
01:17
the time I have,
23
77897
1527
моё время,
01:19
the ambition I have,
24
79448
1233
мои цели,
01:20
and I curate that data.
25
80705
1709
и я организовываю эти данные.
01:22
I don't count those little packages of ramen noodles as food.
26
82438
4251
Я не считаю эти пакетики лапши пищей.
01:26
(Laughter)
27
86713
1869
(Смех)
01:28
My definition of success is:
28
88606
1845
Вот моё определение успеха:
01:30
a meal is successful if my kids eat vegetables.
29
90475
2659
блюдо удалось, если мои дети едят овощи.
01:34
It's very different from if my youngest son were in charge.
30
94001
2854
Мой младший сын думает по-другому.
01:36
He'd say success is if he gets to eat lots of Nutella.
31
96879
2788
Для него успех — это если он получит много Нутеллы.
01:40
But I get to choose success.
32
100999
2226
Но определяю успех я.
01:43
I am in charge. My opinion matters.
33
103249
2707
Я главная. Именно моё мнение имеет значение.
01:45
That's the first rule of algorithms.
34
105980
2675
Это первое правило алгоритмов.
01:48
Algorithms are opinions embedded in code.
35
108679
3180
Алгоритмы — это мнения, встроенные в код.
01:53
It's really different from what you think most people think of algorithms.
36
113382
3663
Это отличается от того, как большинство людей воспринимают алгоритмы.
01:57
They think algorithms are objective and true and scientific.
37
117069
4504
Алгоритмы для них объективны, истинны и научны.
02:02
That's a marketing trick.
38
122207
1699
Это маркетинговый трюк.
02:05
It's also a marketing trick
39
125089
2125
Этот трюк используют
02:07
to intimidate you with algorithms,
40
127238
3154
для того, чтобы запугать вас алгоритмами,
02:10
to make you trust and fear algorithms
41
130416
3661
чтобы вы доверяли им и боялись их,
02:14
because you trust and fear mathematics.
42
134101
2018
как вы доверяете математике и боитесь еë.
02:17
A lot can go wrong when we put blind faith in big data.
43
137387
4830
Опасно вкладывать слепую веру в «большие данные».
02:23
This is Kiri Soares. She's a high school principal in Brooklyn.
44
143504
3373
Это Кири Соареш. Она директор средней школы в Бруклине.
02:26
In 2011, she told me her teachers were being scored
45
146901
2586
В 2011 году она рассказала, что её учителей оценивали
02:29
with a complex, secret algorithm
46
149511
2727
с помощью сложного секретного алгоритма —
02:32
called the "value-added model."
47
152262
1489
«модели добавленной стоимости».
02:34
I told her, "Well, figure out what the formula is, show it to me.
48
154325
3092
Я сказала ей: «Выясни-ка, что это за формула и покажи мне,
02:37
I'm going to explain it to you."
49
157441
1541
я попробую объяснить еë тебе».
02:39
She said, "Well, I tried to get the formula,
50
159006
2141
Она сказала: «Ну, я хотела получить формулу,
02:41
but my Department of Education contact told me it was math
51
161171
2772
но в отделе образования мне сказали, что это математика,
02:43
and I wouldn't understand it."
52
163967
1546
и я не ничего пойму».
02:47
It gets worse.
53
167086
1338
Ситуация ухудшается.
02:48
The New York Post filed a Freedom of Information Act request,
54
168448
3530
Газета «Нью-Йорк Пост», согласно Закона о свободе информации,
02:52
got all the teachers' names and all their scores
55
172002
2959
опубликовала инфо с именами всех учителей и их баллами
02:54
and they published them as an act of teacher-shaming.
56
174985
2782
в попытке пристыдить их.
02:58
When I tried to get the formulas, the source code, through the same means,
57
178904
3860
Когда я сама попыталась получить формулы и исходный код,
03:02
I was told I couldn't.
58
182788
2149
мне их не дали.
03:04
I was denied.
59
184961
1236
Мне отказали.
03:06
I later found out
60
186221
1174
Позже я узнала,
03:07
that nobody in New York City had access to that formula.
61
187419
2866
что никто в Нью-Йорке не имеет доступа к этой формуле.
03:10
No one understood it.
62
190309
1305
Никто её не понимал.
03:13
Then someone really smart got involved, Gary Rubinstein.
63
193749
3224
Пока за дело не взялся кто-то умный — Гари Рубинштейн.
03:16
He found 665 teachers from that New York Post data
64
196997
3621
Он обнаружил, что 665 учителей в базе данных Нью-Йорка
03:20
that actually had two scores.
65
200642
1866
имели две оценки.
03:22
That could happen if they were teaching
66
202532
1881
Это могло бы быть, если они преподают
03:24
seventh grade math and eighth grade math.
67
204437
2439
математику в седьмом и восьмом классах.
03:26
He decided to plot them.
68
206900
1538
Он решил создать график.
03:28
Each dot represents a teacher.
69
208462
1993
Каждая точка представляет собой учителя.
03:30
(Laughter)
70
210924
2379
(Смех)
03:33
What is that?
71
213327
1521
Что это?
03:34
(Laughter)
72
214872
1277
(Смех)
03:36
That should never have been used for individual assessment.
73
216173
3446
Это нельзя было использовать для индивидуального оценивания.
03:39
It's almost a random number generator.
74
219643
1926
Это почти что генератор случайных чисел.
03:41
(Applause)
75
221593
2946
(Аплодисменты)
03:44
But it was.
76
224563
1162
Однако так и было.
03:45
This is Sarah Wysocki.
77
225749
1176
Это Сара Высоцки.
03:46
She got fired, along with 205 other teachers,
78
226949
2175
Её уволили вместе с 205 другими учителями
03:49
from the Washington, DC school district,
79
229148
2662
из школы в Вашингтоне округа Колумбия,
03:51
even though she had great recommendations from her principal
80
231834
2909
даже не смотря на отличные рекомендации от директора её школы
03:54
and the parents of her kids.
81
234767
1428
и родителей учеников.
03:57
I know what a lot of you guys are thinking,
82
237210
2032
Я знаю, о чём думают многие из вас,
03:59
especially the data scientists, the AI experts here.
83
239266
2487
особенно специалисты ИТ, ИИ-эксперты.
04:01
You're thinking, "Well, I would never make an algorithm that inconsistent."
84
241777
4226
Вы думаете: «Ну, я бы никогда не создал такой непоследовательный алгоритм».
04:06
But algorithms can go wrong,
85
246673
1683
Но алгоритм может не сработать,
04:08
even have deeply destructive effects with good intentions.
86
248380
4598
и даже благие намерения могут иметь глубоко разрушительный эффект.
04:14
And whereas an airplane that's designed badly
87
254351
2379
И в то время как самолёт с ошибками в проекте
04:16
crashes to the earth and everyone sees it,
88
256754
2001
упадëт на землю, и все это увидят,
04:18
an algorithm designed badly
89
258779
1850
алгоритм с ошибками
04:22
can go on for a long time, silently wreaking havoc.
90
262065
3865
может работать долгое время, бесшумно давая волю хаосу.
04:27
This is Roger Ailes.
91
267568
1570
Это Роджер Айлз.
04:29
(Laughter)
92
269162
2000
(Смех)
04:32
He founded Fox News in 1996.
93
272344
2388
Он основал Fox News в 1996 году.
04:35
More than 20 women complained about sexual harassment.
94
275256
2581
Более 20 женщин жаловались на сексуальные домогательства.
04:37
They said they weren't allowed to succeed at Fox News.
95
277861
3235
Они сказали, что им не дали возможности преуспеть в Fox News.
04:41
He was ousted last year, but we've seen recently
96
281120
2520
Его сняли и в прошлом году, но понятно,
04:43
that the problems have persisted.
97
283664
2670
что проблемы так и остались нерешёнными.
04:47
That begs the question:
98
287474
1400
Это вызывает вопрос:
04:48
What should Fox News do to turn over another leaf?
99
288898
2884
что должны делать Fox News, чтобы начать всё сначала?
04:53
Well, what if they replaced their hiring process
100
293065
3041
Что, если бы они заменили процесс найма
04:56
with a machine-learning algorithm?
101
296130
1654
машинным алгоритмом?
04:57
That sounds good, right?
102
297808
1595
Неплохо, не так ли?
04:59
Think about it.
103
299427
1300
Подумайте об этом.
05:00
The data, what would the data be?
104
300751
2105
Данные, какими будут данные?
05:02
A reasonable choice would be the last 21 years of applications to Fox News.
105
302880
4947
Разумно было бы проанализировать 21 год опыта приёма на работу в Fox News.
05:07
Reasonable.
106
307851
1502
Разумно.
05:09
What about the definition of success?
107
309377
1938
Как насчёт определения успеха?
05:11
Reasonable choice would be,
108
311741
1324
Разумным было бы выбрать
05:13
well, who is successful at Fox News?
109
313089
1778
тех, кто преуспевает в Fox News?
05:14
I guess someone who, say, stayed there for four years
110
314891
3580
Я думаю, тех, кто скажем, проработал там четыре года
05:18
and was promoted at least once.
111
318495
1654
и получил продвижение хотя бы один раз.
05:20
Sounds reasonable.
112
320636
1561
Звучит разумно.
05:22
And then the algorithm would be trained.
113
322221
2354
А затем алгоритм можно было бы натренировать.
05:24
It would be trained to look for people to learn what led to success,
114
324599
3877
Он мог бы искать людей, которые способны достичь успеха,
05:29
what kind of applications historically led to success
115
329039
4318
узнать, какие из претендентов на должность были успешными в прошлом.
05:33
by that definition.
116
333381
1294
По этому определению.
05:36
Now think about what would happen
117
336020
1775
Подумайте о том, что произошло бы,
05:37
if we applied that to a current pool of applicants.
118
337819
2555
если применить эту формулу ко всем претендентам.
05:40
It would filter out women
119
340939
1629
Женщин можно сразу исключить,
05:43
because they do not look like people who were successful in the past.
120
343483
3930
потому что среди них немного тех, кто достиг успеха в прошлом.
05:51
Algorithms don't make things fair
121
351572
2537
Алгоритмы не обеспечивают справедливости.
05:54
if you just blithely, blindly apply algorithms.
122
354133
2694
Если вы безропотно, слепо применяете алгоритмы,
05:56
They don't make things fair.
123
356851
1482
они не обеспечат честность.
05:58
They repeat our past practices,
124
358357
2128
Они повторяют наш прошлый опыт,
06:00
our patterns.
125
360509
1183
наши шаблоны.
06:01
They automate the status quo.
126
361716
1939
Они автоматизируют статус-кво.
06:04
That would be great if we had a perfect world,
127
364538
2389
Было бы здорово, если бы у нас был идеальный мир,
06:07
but we don't.
128
367725
1312
но у нас его нет.
06:09
And I'll add that most companies don't have embarrassing lawsuits,
129
369061
4102
Кстати, большинство компаний обошлись без судебных процессов,
06:14
but the data scientists in those companies
130
374266
2588
но учёным в данных компаниях
06:16
are told to follow the data,
131
376878
2189
велено следить за данными,
06:19
to focus on accuracy.
132
379091
2143
чтобы сосредоточиться на их точности.
06:22
Think about what that means.
133
382093
1381
Подумайте, что это значит.
06:23
Because we all have bias, it means they could be codifying sexism
134
383498
4027
Поскольку все мы не лишены предвзятости, данные могут кодифицировать сексизм
06:27
or any other kind of bigotry.
135
387549
1836
или другие формы дискриминации.
06:31
Thought experiment,
136
391308
1421
Вот мысленный эксперимент,
06:32
because I like them:
137
392753
1509
потому что мне они нравятся:
06:35
an entirely segregated society --
138
395394
2975
общество с полной сегрегацией —
06:40
racially segregated, all towns, all neighborhoods
139
400067
3328
расовое разделение во всех городах, всех районах.
06:43
and where we send the police only to the minority neighborhoods
140
403419
3037
Мы отправляем полицию только в окрестности меньшинств
06:46
to look for crime.
141
406480
1193
расследовать преступления.
06:48
The arrest data would be very biased.
142
408271
2219
Данные об аресте будут очень предвзятыми.
06:51
What if, on top of that, we found the data scientists
143
411671
2575
А что, если, мы нашли бы специалистов
06:54
and paid the data scientists to predict where the next crime would occur?
144
414270
4161
и заплатили им за прогноз места следующего преступления?
06:59
Minority neighborhood.
145
419095
1487
Окрестность меньшинств.
07:01
Or to predict who the next criminal would be?
146
421105
3125
Или же за прогнозирование следующего преступника?
07:04
A minority.
147
424708
1395
Кто-то из меньшинств.
07:07
The data scientists would brag about how great and how accurate
148
427769
3541
Специалисты обработки данных хвалятся тем, насколько гениальны и точны
07:11
their model would be,
149
431334
1297
их модели,
07:12
and they'd be right.
150
432655
1299
и они правы.
07:15
Now, reality isn't that drastic, but we do have severe segregations
151
435771
4615
Теперь реальность не настолько радикальна, но у нас есть серьёзное разделение
07:20
in many cities and towns,
152
440410
1287
во многих городах,
07:21
and we have plenty of evidence
153
441721
1893
и у нас есть много доказательств
07:23
of biased policing and justice system data.
154
443638
2688
предвзятости в политической и судебной системах.
07:27
And we actually do predict hotspots,
155
447452
2815
И мы прогнозируем горячие точки —
07:30
places where crimes will occur.
156
450291
1530
места преступлений.
07:32
And we do predict, in fact, the individual criminality,
157
452221
3866
И мы на самом деле предсказываем преступления отдельных лиц,
07:36
the criminality of individuals.
158
456111
1770
преступные действия индивидов.
07:38
The news organization ProPublica recently looked into
159
458792
3963
Новостной ресурс ProPublica недавно рассмотрел
07:42
one of those "recidivism risk" algorithms,
160
462779
2024
один из алгоритмов — «риск рецидива»,
07:44
as they're called,
161
464827
1163
как его называют,
07:46
being used in Florida during sentencing by judges.
162
466014
3194
который используется во Флориде при вынесения приговора судьями.
07:50
Bernard, on the left, the black man, was scored a 10 out of 10.
163
470231
3585
Бернар, чернокожий человек слева, получил 10 из 10.
07:54
Dylan, on the right, 3 out of 10.
164
474999
2007
Дилан, справа, — 3 из 10.
07:57
10 out of 10, high risk. 3 out of 10, low risk.
165
477030
2501
10 из 10 — это высокий риск. 3 из 10 — низкий риск.
08:00
They were both brought in for drug possession.
166
480418
2385
Они оба были привлечены за хранение наркотиков.
08:02
They both had records,
167
482827
1154
Они оба имели аресты,
08:04
but Dylan had a felony
168
484005
2806
но у Дилана было уголовное преступление,
08:06
but Bernard didn't.
169
486835
1176
а у Бернарда нет.
08:09
This matters, because the higher score you are,
170
489638
3066
Это имеет значение, потому что чем выше оценка,
08:12
the more likely you're being given a longer sentence.
171
492728
3473
тем больше вероятность того, что вам дадут более длительный срок.
08:18
What's going on?
172
498114
1294
Что происходит?
08:20
Data laundering.
173
500346
1332
«Отмывание» данных.
08:22
It's a process by which technologists hide ugly truths
174
502750
4427
Это процесс сокрытия правды
08:27
inside black box algorithms
175
507201
1821
в «чёрном ящике» алгоритмов,
08:29
and call them objective;
176
509046
1290
алгоритмов объективных
08:31
call them meritocratic.
177
511140
1568
и заслуживающих одобрения.
08:34
When they're secret, important and destructive,
178
514938
2385
Они секретны, важны и разрушительны.
08:37
I've coined a term for these algorithms:
179
517347
2487
Я придумала термин для них:
08:39
"weapons of math destruction."
180
519858
1999
«оружие математического уничтожения».
08:41
(Laughter)
181
521881
1564
(Смех)
08:43
(Applause)
182
523469
3054
(Аплодисменты)
08:46
They're everywhere, and it's not a mistake.
183
526547
2354
Они повсюду, и это не ошибка.
08:49
These are private companies building private algorithms
184
529515
3723
Частные компании строят
08:53
for private ends.
185
533262
1392
частные алгоритмы для себя.
08:55
Even the ones I talked about for teachers and the public police,
186
535034
3214
Даже алгоритмы для учителей и полиции
08:58
those were built by private companies
187
538272
1869
были построены частными компаниями
09:00
and sold to the government institutions.
188
540165
2231
и проданы государственным учреждениям.
09:02
They call it their "secret sauce" --
189
542420
1873
Они называют это своим «секретом» —
09:04
that's why they can't tell us about it.
190
544317
2128
вот почему они не рассказывают ничего.
09:06
It's also private power.
191
546469
2220
Это также частная власть.
09:09
They are profiting for wielding the authority of the inscrutable.
192
549744
4695
Они пользуются преимуществом, обеспеченным секретностью.
09:16
Now you might think, since all this stuff is private
193
556934
2934
Так как всё частное
09:19
and there's competition,
194
559892
1158
и присутствует конкуренция,
09:21
maybe the free market will solve this problem.
195
561074
2306
свободный рынок — это выход.
09:23
It won't.
196
563404
1249
Но это не так.
09:24
There's a lot of money to be made in unfairness.
197
564677
3120
В этой несправедливости — куча денег.
09:28
Also, we're not economic rational agents.
198
568947
3369
И мы не рациональны с точки зрения экономики.
09:32
We all are biased.
199
572851
1292
Мы все предвзяты.
09:34
We're all racist and bigoted in ways that we wish we weren't,
200
574780
3377
Мы все расисты и фанатики, к сожалению,
09:38
in ways that we don't even know.
201
578181
2019
часто подсознательно.
09:41
We know this, though, in aggregate,
202
581172
3081
Мы это знаем, но, в совокупности,
09:44
because sociologists have consistently demonstrated this
203
584277
3220
социологи демонстрируют это
09:47
with these experiments they build,
204
587521
1665
своими экспериментами.
09:49
where they send a bunch of applications to jobs out,
205
589210
2568
Они рассылают заявки квалифицированных работников,
09:51
equally qualified but some have white-sounding names
206
591802
2501
и по их именам можно понять,
09:54
and some have black-sounding names,
207
594327
1706
белые они или чернокожие.
09:56
and it's always disappointing, the results -- always.
208
596057
2694
И результаты всегда разочаровывают.
09:59
So we are the ones that are biased,
209
599330
1771
Мы предвзяты
10:01
and we are injecting those biases into the algorithms
210
601125
3429
и внедряем предубеждения в алгоритмы,
10:04
by choosing what data to collect,
211
604578
1812
отбирая данные.
10:06
like I chose not to think about ramen noodles --
212
606414
2743
Вот я решила не думать о лапше,
10:09
I decided it was irrelevant.
213
609181
1625
я решила, что это неприемлемо.
10:10
But by trusting the data that's actually picking up on past practices
214
610830
5684
Но, доверяя собранным ранее данным
10:16
and by choosing the definition of success,
215
616538
2014
и выбирая своё определение успеха,
10:18
how can we expect the algorithms to emerge unscathed?
216
618576
3983
можно ли ожидать, что алгоритмы окажутся непредвзятыми?
10:22
We can't. We have to check them.
217
622583
2356
Нет. Мы должны их проверять.
10:25
We have to check them for fairness.
218
625985
1709
Мы должны проверять их на справедливость.
10:27
The good news is, we can check them for fairness.
219
627718
2711
Хорошей новостью является то, что мы можем это сделать.
10:30
Algorithms can be interrogated,
220
630453
3352
Алгоритмы можно допросить,
10:33
and they will tell us the truth every time.
221
633829
2034
и они всегда скажут нам правду.
10:35
And we can fix them. We can make them better.
222
635887
2493
И мы можем их исправить. Мы можем их улучшить.
10:38
I call this an algorithmic audit,
223
638404
2375
Это алгоритмический аудит,
10:40
and I'll walk you through it.
224
640803
1679
и я вам сейчас объясню.
10:42
First, data integrity check.
225
642506
2196
Во-первых — проверка целостности данных.
10:45
For the recidivism risk algorithm I talked about,
226
645952
2657
Для алгоритма определения риска рецидива, о котором я говорила ранее,
10:49
a data integrity check would mean we'd have to come to terms with the fact
227
649402
3573
проверка целостности данных означает принятие факта о том,
10:52
that in the US, whites and blacks smoke pot at the same rate
228
652999
3526
что в США белые и чёрные курят марихуану одинаково,
10:56
but blacks are far more likely to be arrested --
229
656549
2485
но чернокожих чаще задерживают.
10:59
four or five times more likely, depending on the area.
230
659058
3184
Вероятность ареста в 4–5 раз выше, в зависимости от района.
11:03
What is that bias looking like in other crime categories,
231
663137
2826
Как это выглядит в других сферах права,
11:05
and how do we account for it?
232
665987
1451
и как это можно объяснить?
11:07
Second, we should think about the definition of success,
233
667982
3039
Во-вторых — успех,
11:11
audit that.
234
671045
1381
проверьте его.
11:12
Remember -- with the hiring algorithm? We talked about it.
235
672450
2752
Помните? Алгоритм принятия на работу?
11:15
Someone who stays for four years and is promoted once?
236
675226
3165
У кого стаж четыре года и одно продвижение?
11:18
Well, that is a successful employee,
237
678415
1769
Это — успешный сотрудник,
11:20
but it's also an employee that is supported by their culture.
238
680208
3079
но это и тот, кого поддерживает культура компании.
11:23
That said, also it can be quite biased.
239
683909
1926
И это может быть довольно предвзятым.
11:25
We need to separate those two things.
240
685859
2065
Нам нужно разделять эти две вещи.
11:27
We should look to the blind orchestra audition
241
687948
2426
Вот слепое cобеседование
11:30
as an example.
242
690398
1196
для примера.
11:31
That's where the people auditioning are behind a sheet.
243
691618
2756
Прослушивают людей, не видя их.
11:34
What I want to think about there
244
694766
1931
Я думаю о том,
11:36
is the people who are listening have decided what's important
245
696721
3417
что прослушивающие люди решили, что важно
11:40
and they've decided what's not important,
246
700162
2029
для них, а что нет.
11:42
and they're not getting distracted by that.
247
702215
2059
И больше они не отвлекаются на эту тему.
11:44
When the blind orchestra auditions started,
248
704781
2749
Когда начались «слепые оркестровые прослушивания»,
11:47
the number of women in orchestras went up by a factor of five.
249
707554
3444
число женщин в оркестрах выросло в пять раз.
11:52
Next, we have to consider accuracy.
250
712073
2015
Затем мы должны учитывать точность.
11:55
This is where the value-added model for teachers would fail immediately.
251
715053
3734
Тут модель добавленной стоимости для учителей провалилась бы сразу.
11:59
No algorithm is perfect, of course,
252
719398
2162
Конечно, нет идеальных алгоритмов,
12:02
so we have to consider the errors of every algorithm.
253
722440
3605
поэтому мы должны учитывать ошибки всех алгоритмов.
12:06
How often are there errors, and for whom does this model fail?
254
726656
4359
Когда бывают ошибки, к кому эта модель не подходит?
12:11
What is the cost of that failure?
255
731670
1718
Какова цена этой неудачи?
12:14
And finally, we have to consider
256
734254
2207
И, наконец, мы должны рассмотреть
12:17
the long-term effects of algorithms,
257
737793
2186
долгосрочные эффекты алгоритмов,
12:20
the feedback loops that are engendering.
258
740686
2207
петли обратной связи.
12:23
That sounds abstract,
259
743406
1236
Это звучит абстрактно,
12:24
but imagine if Facebook engineers had considered that
260
744666
2664
но представьте, если бы об этом подумали творцы Facebook,
12:28
before they decided to show us only things that our friends had posted.
261
748090
4855
прежде чем они решили показать нам публикации наших друзей.
12:33
I have two more messages, one for the data scientists out there.
262
753581
3234
У меня есть ещё два сообщения, одно для ИТ специалистов.
12:37
Data scientists: we should not be the arbiters of truth.
263
757270
3409
Ребята, мы не должны быть судьями правды,
12:41
We should be translators of ethical discussions that happen
264
761340
3783
мы должны передавать этику
12:45
in larger society.
265
765147
1294
широкой общественности.
12:47
(Applause)
266
767399
2133
(Аплодисменты)
12:49
And the rest of you,
267
769556
1556
А для остальных,
12:51
the non-data scientists:
268
771831
1396
не специалистов ИТ:
12:53
this is not a math test.
269
773251
1498
это не математический тест.
12:55
This is a political fight.
270
775452
1348
Это политическая борьба.
12:58
We need to demand accountability for our algorithmic overlords.
271
778407
3907
Нужна отчётность собственников алгоритмов.
13:03
(Applause)
272
783938
1499
(Аплодисменты)
13:05
The era of blind faith in big data must end.
273
785461
4225
Эре слепой веры в «большие данные» конец!
13:09
Thank you very much.
274
789710
1167
Спасибо большое.
13:10
(Applause)
275
790901
5303
(Аплодисменты)
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7