Machine intelligence makes human morals more important | Zeynep Tufekci

180,762 views ・ 2016-11-11

TED


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

Переводчик: Olenka Rasskazova Редактор: Marina Lee
00:12
So, I started my first job as a computer programmer
0
12739
4122
Я начала работать программистом
00:16
in my very first year of college --
1
16885
1956
в первый год учёбы в колледже,
00:18
basically, as a teenager.
2
18865
1507
практически подростком.
00:20
Soon after I started working,
3
20889
1732
Вскоре после того, как я начала работать —
00:22
writing software in a company,
4
22645
1610
писать программное обеспечение,
00:24
a manager who worked at the company came down to where I was,
5
24799
3635
один из работающих в компании менеджеров подошёл ко мне
00:28
and he whispered to me,
6
28458
1268
и прошептал:
00:30
"Can he tell if I'm lying?"
7
30229
2861
«Он понимает, когда я вру?»
00:33
There was nobody else in the room.
8
33806
2077
В комнате никого больше не было.
«Кто он? И почему ты шепчешь?»
00:37
"Can who tell if you're lying? And why are we whispering?"
9
37032
4389
00:42
The manager pointed at the computer in the room.
10
42266
3107
Менеджер указал на компьютер.
00:45
"Can he tell if I'm lying?"
11
45397
3096
«Он может понять, когда я вру?»
00:49
Well, that manager was having an affair with the receptionist.
12
49613
4362
Кстати, у этого менеджера был роман с секретаршей.
00:53
(Laughter)
13
53999
1112
(Смех)
А а была ещё подростком.
00:55
And I was still a teenager.
14
55135
1766
00:57
So I whisper-shouted back to him,
15
57447
2019
Поэтому я шёпотом крикнула ему:
00:59
"Yes, the computer can tell if you're lying."
16
59490
3624
«Да, компьютер может понять, когда вы лжёте».
(Смех)
01:03
(Laughter)
17
63138
1806
01:04
Well, I laughed, but actually, the laugh's on me.
18
64968
2923
Я пошутила, но оказалось, что это была не шутка.
01:07
Nowadays, there are computational systems
19
67915
3268
Теперь существуют вычислительные системы,
01:11
that can suss out emotional states and even lying
20
71207
3548
которые могут определить ваше эмоциональное состояние и даже ложь,
01:14
from processing human faces.
21
74779
2044
обрабатывая выражения человеческих лиц.
01:17
Advertisers and even governments are very interested.
22
77248
4153
Рекламодатели и правительства очень заинтересованы.
01:22
I had become a computer programmer
23
82319
1862
Я стала программистом,
01:24
because I was one of those kids crazy about math and science.
24
84205
3113
потому что я была одержимым математикой и наукой ребёнком.
01:27
But somewhere along the line I'd learned about nuclear weapons,
25
87942
3108
Но в какой-то момент я узнала о существовании ядерного оружия
и всерьёз задумалась о научной этике.
01:31
and I'd gotten really concerned with the ethics of science.
26
91074
2952
Меня это беспокоило.
01:34
I was troubled.
27
94050
1204
01:35
However, because of family circumstances,
28
95278
2641
Однако из-за семейных обстоятельств
01:37
I also needed to start working as soon as possible.
29
97943
3298
мне пришлось начать работать как можно скорее.
01:41
So I thought to myself, hey, let me pick a technical field
30
101265
3299
Так что я подумала: «Эй, мне просто надо выбрать техническую область,
01:44
where I can get a job easily
31
104588
1796
где я смогу легко получить работу,
01:46
and where I don't have to deal with any troublesome questions of ethics.
32
106408
4018
и где мне не придётся иметь дело со сложными этическими вопросами».
Так что я выбрала компьютеры.
01:51
So I picked computers.
33
111022
1529
01:52
(Laughter)
34
112575
1104
(Смех)
01:53
Well, ha, ha, ha! All the laughs are on me.
35
113703
3410
Ха, ха, ха! Все смеются надо мной.
В наши дни компьютерные учёные создают платформы,
01:57
Nowadays, computer scientists are building platforms
36
117137
2754
01:59
that control what a billion people see every day.
37
119915
4209
которые контролируют то, что миллиард человек видит каждый день.
Они разрабатывают автомобили, которые могли бы решить, кого задавить.
02:05
They're developing cars that could decide who to run over.
38
125052
3822
02:09
They're even building machines, weapons,
39
129707
3213
Они даже разрабатывают машины и оружие,
02:12
that might kill human beings in war.
40
132944
2285
которые могут убивать людей на войне.
02:15
It's ethics all the way down.
41
135253
2771
Здесь вопросы этики повсюду.
02:19
Machine intelligence is here.
42
139183
2058
Искусственный интеллект уже здесь.
02:21
We're now using computation to make all sort of decisions,
43
141823
3474
Мы уже используем вычислительную технику для принятия каких угодно решений,
02:25
but also new kinds of decisions.
44
145321
1886
и даже для создания новых решений.
02:27
We're asking questions to computation that have no single right answers,
45
147231
5172
Мы задаём компьютерам вопросы, на которые нет единого правильного ответа:
02:32
that are subjective
46
152427
1202
субъективные вопросы,
02:33
and open-ended and value-laden.
47
153653
2325
открытые и вопросы оценочного характера.
Мы задавали такие вопросы, как:
02:36
We're asking questions like,
48
156002
1758
02:37
"Who should the company hire?"
49
157784
1650
«Кого стоит нанять в компанию?»
«Какое обновление и от какого друга мы должны видеть?»
02:40
"Which update from which friend should you be shown?"
50
160096
2759
02:42
"Which convict is more likely to reoffend?"
51
162879
2266
«Кто из осуждённых скорее всего станет рецидивистом?»
02:45
"Which news item or movie should be recommended to people?"
52
165514
3054
«Какие новости или фильмы рекомендовать людям?»
02:48
Look, yes, we've been using computers for a while,
53
168592
3372
Да, мы используем компьютеры уже продолжительное время,
02:51
but this is different.
54
171988
1517
но это совсем другое.
02:53
This is a historical twist,
55
173529
2067
Это исторический поворот,
02:55
because we cannot anchor computation for such subjective decisions
56
175620
5337
потому что базис для вычисления принятия субъективных решений,
03:00
the way we can anchor computation for flying airplanes, building bridges,
57
180981
5420
отличается от того, что используется для сборки самолётов, строительства мостов
03:06
going to the moon.
58
186425
1259
или полётов на Луну.
03:08
Are airplanes safer? Did the bridge sway and fall?
59
188449
3259
Самолёты стали безопаснее? Мосты больше не падают?
03:11
There, we have agreed-upon, fairly clear benchmarks,
60
191732
4498
Здесь у нас есть достаточно чёткие критерии
и законы природы, на которые мы можем положиться.
03:16
and we have laws of nature to guide us.
61
196254
2239
03:18
We have no such anchors and benchmarks
62
198517
3394
Но нет чётких критериев
03:21
for decisions in messy human affairs.
63
201935
3963
для принятия решений в запутанных людских делах.
03:25
To make things more complicated, our software is getting more powerful,
64
205922
4237
Ещё больше усложняет задачу программное обеспечение,
03:30
but it's also getting less transparent and more complex.
65
210183
3773
становящееся менее прозрачным и более сложным и мощным.
03:34
Recently, in the past decade,
66
214542
2040
За последнее десятилетие
03:36
complex algorithms have made great strides.
67
216606
2729
развитие сложных алгоритмов достигло больших успехов.
03:39
They can recognize human faces.
68
219359
1990
Они могут распознавать человеческие лица.
03:41
They can decipher handwriting.
69
221985
2055
Они могут расшифровывать почерк.
03:44
They can detect credit card fraud
70
224436
2066
Выявить мошенничество с кредитными картами
03:46
and block spam
71
226526
1189
или блокировать спам,
03:47
and they can translate between languages.
72
227739
2037
они могут переводить с других языков.
03:49
They can detect tumors in medical imaging.
73
229800
2574
Они могут выявлять опухоли в рентгенографии.
03:52
They can beat humans in chess and Go.
74
232398
2205
Они могут обыгрывать нас в шахматы и в Го.
03:55
Much of this progress comes from a method called "machine learning."
75
235264
4504
Большáя часть этого прогресса достигнута с помощью «машинного обучения».
Машинное обучение отличается от традиционного программирования,
04:00
Machine learning is different than traditional programming,
76
240175
3187
04:03
where you give the computer detailed, exact, painstaking instructions.
77
243386
3585
где вы даёте компьютеру подробные, точные, чёткие инструкции.
04:07
It's more like you take the system and you feed it lots of data,
78
247378
4182
Это больше похоже, как будто мы скармливаем компьютеру много данных,
04:11
including unstructured data,
79
251584
1656
в том числе бессистемных данных,
04:13
like the kind we generate in our digital lives.
80
253264
2278
как те, что мы создаём в нашей цифровой жизни.
04:15
And the system learns by churning through this data.
81
255566
2730
И система сама учится систематизировать эти данные.
04:18
And also, crucially,
82
258669
1526
Особенно важно то,
04:20
these systems don't operate under a single-answer logic.
83
260219
4380
что эти системы не работают по логике поиска единого ответа.
04:24
They don't produce a simple answer; it's more probabilistic:
84
264623
2959
Они не дают однозначного ответа, они основаны на вероятности:
04:27
"This one is probably more like what you're looking for."
85
267606
3483
«Этот ответ, вероятно, похож на то, что вы ищете».
Плюс этого метода в том, что он очень перспективный.
04:32
Now, the upside is: this method is really powerful.
86
272023
3070
Глава систем ИИ Google назвал его
04:35
The head of Google's AI systems called it,
87
275117
2076
04:37
"the unreasonable effectiveness of data."
88
277217
2197
«нерационально высокая эффективность данных».
04:39
The downside is,
89
279791
1353
Минус в том,
04:41
we don't really understand what the system learned.
90
281738
3071
что мы не знаем, что именно система выучила.
04:44
In fact, that's its power.
91
284833
1587
В этом мощь системы.
04:46
This is less like giving instructions to a computer;
92
286946
3798
Это не похоже на то, как давать указания компьютеру;
04:51
it's more like training a puppy-machine-creature
93
291200
4064
это больше похоже на обучение машины-щенка,
04:55
we don't really understand or control.
94
295288
2371
которого мы не понимаем и не контролируем.
04:58
So this is our problem.
95
298362
1551
В этом наша проблема.
05:00
It's a problem when this artificial intelligence system gets things wrong.
96
300427
4262
Плохо, когда система искусственного интеллекта понимает что-то неправильно.
05:04
It's also a problem when it gets things right,
97
304713
3540
И также плохо, когда система понимает что-то правильно,
05:08
because we don't even know which is which when it's a subjective problem.
98
308277
3628
потому что мы не знаем, что есть что, когда дело касается субъективой проблемы.
05:11
We don't know what this thing is thinking.
99
311929
2339
Мы не знаем, о чём эта штука думает.
05:15
So, consider a hiring algorithm --
100
315493
3683
Рассмотрим алгоритм приёма на работу —
система для найма людей с использованием машинного обучения.
05:20
a system used to hire people, using machine-learning systems.
101
320123
4311
Такая система будет обучаться по данным о предыдущих сотрудниках
05:25
Such a system would have been trained on previous employees' data
102
325052
3579
05:28
and instructed to find and hire
103
328655
2591
и будет искать и нанимать людей,
05:31
people like the existing high performers in the company.
104
331270
3038
похожих на нынешних самых эффективных сотрудников компании.
05:34
Sounds good.
105
334814
1153
Звучит хорошо.
05:35
I once attended a conference
106
335991
1999
Однажды я была на конференции
для руководителей, менеджеров по персоналу
05:38
that brought together human resources managers and executives,
107
338014
3125
05:41
high-level people,
108
341163
1206
и топ-менеджеров,
05:42
using such systems in hiring.
109
342393
1559
использующих такую систему найма.
05:43
They were super excited.
110
343976
1646
Все были очень воодушевлены.
05:45
They thought that this would make hiring more objective, less biased,
111
345646
4653
Они думали, что это сделает процесс найма более объективным, менее предвзятым,
05:50
and give women and minorities a better shot
112
350323
3000
даст женщинам и меньшинствам больше шансов
05:53
against biased human managers.
113
353347
2188
в отличие от предвзято настроенных менеджеров.
05:55
And look -- human hiring is biased.
114
355559
2843
Найм сотрудников построен на предвзятости.
Я знаю.
05:59
I know.
115
359099
1185
06:00
I mean, in one of my early jobs as a programmer,
116
360308
3005
На одной из моих первых работ в качестве программиста
06:03
my immediate manager would sometimes come down to where I was
117
363337
3868
моя непосредственная начальница иногда подходила ко мне
06:07
really early in the morning or really late in the afternoon,
118
367229
3753
очень рано утром или очень поздно днём
и говорила: «Зейнеп, пойдём обедать!»
06:11
and she'd say, "Zeynep, let's go to lunch!"
119
371006
3062
06:14
I'd be puzzled by the weird timing.
120
374724
2167
Я была озадачена странным выбором времени.
06:16
It's 4pm. Lunch?
121
376915
2129
Обед в 4 часа дня?
Бесплатный ланч; денег у меня нет. Я всегда ходила.
06:19
I was broke, so free lunch. I always went.
122
379068
3094
06:22
I later realized what was happening.
123
382618
2067
Позже я поняла, что происходит.
06:24
My immediate managers had not confessed to their higher-ups
124
384709
4546
Мои непосредственные руководители не признались вышестоящему руководству,
06:29
that the programmer they hired for a serious job was a teen girl
125
389279
3113
что программист, которого они наняли на серьёзный проект — девушка подросток,
06:32
who wore jeans and sneakers to work.
126
392416
3930
которая ходит на работу в джинсах и кроссовках.
Я хорошо выполняла работу, я просто выглядела неподобающе,
06:37
I was doing a good job, I just looked wrong
127
397174
2202
06:39
and was the wrong age and gender.
128
399400
1699
была неправильного возраста и пола.
06:41
So hiring in a gender- and race-blind way
129
401123
3346
Так что найм без учёта пола и расы,
06:44
certainly sounds good to me.
130
404493
1865
конечно, звучит для меня как хорошая идея.
Но с этими системами всё сложнее, и вот почему:
06:47
But with these systems, it is more complicated, and here's why:
131
407031
3341
06:50
Currently, computational systems can infer all sorts of things about you
132
410968
5791
Сейчас вычислительные системы могут узнать всю информацию о вас
06:56
from your digital crumbs,
133
416783
1872
по крошкам, что вы оставляете в цифровом виде,
06:58
even if you have not disclosed those things.
134
418679
2333
даже если вы не разглашаете такую информацию.
07:01
They can infer your sexual orientation,
135
421506
2927
Они могут вычислить вашу сексуальную ориентацию,
07:04
your personality traits,
136
424994
1306
ваши черты характера,
07:06
your political leanings.
137
426859
1373
ваши политические пристрастия.
07:08
They have predictive power with high levels of accuracy.
138
428830
3685
Они могут составлять прогнозы с высоким уровнем точности.
07:13
Remember -- for things you haven't even disclosed.
139
433362
2578
Помните, даже для информации, которую вы даже не разглашаете.
07:15
This is inference.
140
435964
1591
Это предположения.
07:17
I have a friend who developed such computational systems
141
437579
3261
У меня есть подруга, которая разрабатывает такие системы
07:20
to predict the likelihood of clinical or postpartum depression
142
440864
3641
для прогнозирования вероятности клинической или послеродовой депрессии
07:24
from social media data.
143
444529
1416
по данным из социальных сетей.
07:26
The results are impressive.
144
446676
1427
Результаты впечатляют.
07:28
Her system can predict the likelihood of depression
145
448492
3357
Её система может предсказать вероятность депрессии
07:31
months before the onset of any symptoms --
146
451873
3903
до появления каких-либо симптомов —
07:35
months before.
147
455800
1373
за несколько месяцев.
07:37
No symptoms, there's prediction.
148
457197
2246
Симптомов нет, а прогноз есть.
07:39
She hopes it will be used for early intervention. Great!
149
459467
4812
Она надеется, что программа будет использоваться для профилактики. Отлично!
07:44
But now put this in the context of hiring.
150
464911
2040
Теперь представьте это в контексте найма.
На той конференции для управляющих персоналом
07:48
So at this human resources managers conference,
151
468027
3046
07:51
I approached a high-level manager in a very large company,
152
471097
4709
я подошла к менеджеру высокого уровня в очень крупной компании,
07:55
and I said to her, "Look, what if, unbeknownst to you,
153
475830
4578
и спросила её: «Что, если система без вашего ведома,
08:00
your system is weeding out people with high future likelihood of depression?
154
480432
6549
начнёт отсеивать людей с высокой вероятностью будущей депрессии?
08:07
They're not depressed now, just maybe in the future, more likely.
155
487761
3376
Сейчас у них нет депрессии, но в будущем вероятность высока.
08:11
What if it's weeding out women more likely to be pregnant
156
491923
3406
Что, если система начнёт отсеивать женщин, чья вероятность забеременеть
08:15
in the next year or two but aren't pregnant now?
157
495353
2586
через год или два выше, но они не беременны сейчас?
08:18
What if it's hiring aggressive people because that's your workplace culture?"
158
498844
5636
Если начнёт нанимать агрессивных людей, потому что это норма для вашей компании?
Этого не определить, глядя на процентное соотношение полов.
08:25
You can't tell this by looking at gender breakdowns.
159
505173
2691
08:27
Those may be balanced.
160
507888
1502
Эти показатели могут быть в норме.
08:29
And since this is machine learning, not traditional coding,
161
509414
3557
Так как это машинное обучение, а не традиционное программирование,
08:32
there is no variable there labeled "higher risk of depression,"
162
512995
4907
тут нет переменной «более высокий риск депрессии»,
08:37
"higher risk of pregnancy,"
163
517926
1833
«высокий риск беременности»,
08:39
"aggressive guy scale."
164
519783
1734
или «агрессивный парень».
08:41
Not only do you not know what your system is selecting on,
165
521995
3679
Мало того, что вы не знаете, как ваша система делает выводы,
08:45
you don't even know where to begin to look.
166
525698
2323
вы даже не знаете, откуда что берётся.
Это чёрный ящик.
08:48
It's a black box.
167
528045
1246
08:49
It has predictive power, but you don't understand it.
168
529315
2807
Он может прогнозировать, но мы не понимаем принцип его работы.
08:52
"What safeguards," I asked, "do you have
169
532486
2369
Я спросила: «Какие у вас меры предосторожности,
08:54
to make sure that your black box isn't doing something shady?"
170
534879
3673
чтобы убедиться, что чёрный ящик не делает ничего сомнительного?»
09:00
She looked at me as if I had just stepped on 10 puppy tails.
171
540863
3878
Она посмотрела на меня, как будто я только что отдавила хвосты 10 щенкам.
09:04
(Laughter)
172
544765
1248
(Смех)
Она посмотрела на меня и сказала:
09:06
She stared at me and she said,
173
546037
2041
09:08
"I don't want to hear another word about this."
174
548556
4333
«Я не хочу слышать ни слова об этом».
09:13
And she turned around and walked away.
175
553458
2034
Она повернулась и пошла прочь.
Имейте в виду — она ​​не грубила мне.
09:16
Mind you -- she wasn't rude.
176
556064
1486
09:17
It was clearly: what I don't know isn't my problem, go away, death stare.
177
557574
6308
Позиция очевидна: то, что я не знаю — не моя проблема, отвяжись, стрелы из глаз.
09:23
(Laughter)
178
563906
1246
(Смех)
09:25
Look, such a system may even be less biased
179
565862
3839
Такая система может быть менее предвзятой,
09:29
than human managers in some ways.
180
569725
2103
чем сами менеджеры в каком-то смысле.
09:31
And it could make monetary sense.
181
571852
2146
В этом может быть финансовая выгода.
09:34
But it could also lead
182
574573
1650
Но это также может привести
09:36
to a steady but stealthy shutting out of the job market
183
576247
4748
к неуклонному и скрытому выдавливанию с рынка труда
людей с более высоким риском развития депрессии.
09:41
of people with higher risk of depression.
184
581019
2293
09:43
Is this the kind of society we want to build,
185
583753
2596
Мы хотим построить такое общество,
09:46
without even knowing we've done this,
186
586373
2285
даже не осознавая, что мы делаем,
09:48
because we turned decision-making to machines we don't totally understand?
187
588682
3964
потому что отдали право принятия решений машинам, которых до конца не понимаем?
09:53
Another problem is this:
188
593265
1458
Следующая проблема:
09:55
these systems are often trained on data generated by our actions,
189
595314
4452
эти системы часто обучаются на данных, произведённых нашими действиями —
09:59
human imprints.
190
599790
1816
человеческим поведением.
10:02
Well, they could just be reflecting our biases,
191
602188
3808
Возможно, они просто отражают наши предубеждения,
и эти системы могут собирать наши пристрастия
10:06
and these systems could be picking up on our biases
192
606020
3593
10:09
and amplifying them
193
609637
1313
и усиливать их,
10:10
and showing them back to us,
194
610974
1418
показывая нам их вновь,
10:12
while we're telling ourselves,
195
612416
1462
а мы говорим себе:
10:13
"We're just doing objective, neutral computation."
196
613902
3117
«Мы просто проводим объективные, непредвзятые вычисления».
10:18
Researchers found that on Google,
197
618314
2677
Исследователи обнаружили что в Google
женщины реже, чем мужчины, видят объявления о высокооплачиваемой работе.
10:22
women are less likely than men to be shown job ads for high-paying jobs.
198
622134
5313
10:28
And searching for African-American names
199
628463
2530
Набирая в поисковике афро-американские имена,
вероятность увидеть объявления криминального характера будет выше,
10:31
is more likely to bring up ads suggesting criminal history,
200
631017
4706
10:35
even when there is none.
201
635747
1567
даже там, где криминала нет.
10:38
Such hidden biases and black-box algorithms
202
638693
3549
Скрытая необъективность и алгоритмы чёрного ящика,
10:42
that researchers uncover sometimes but sometimes we don't know,
203
642266
3973
которые исследователи иногда выявляют, а иногда нет,
10:46
can have life-altering consequences.
204
646263
2661
могут иметь далеко идущие последствия.
10:49
In Wisconsin, a defendant was sentenced to six years in prison
205
649958
4159
В Висконсине подсудимый был приговорён к шести годам лишения свободы
за уклонение от полиции.
10:54
for evading the police.
206
654141
1355
10:56
You may not know this,
207
656824
1186
Может, вы не знаете,
но эти алгоритмы всё чаще используются в вынесении приговоров.
10:58
but algorithms are increasingly used in parole and sentencing decisions.
208
658034
3998
Он хотел узнать, как всё это рассчитывается?
11:02
He wanted to know: How is this score calculated?
209
662056
2955
11:05
It's a commercial black box.
210
665795
1665
Это коммерческий чёрный ящик.
11:07
The company refused to have its algorithm be challenged in open court.
211
667484
4205
Компания отказалась обсуждать свой алгоритм на открытом заседании суда.
11:12
But ProPublica, an investigative nonprofit, audited that very algorithm
212
672396
5532
Но следственная некоммерческая организация ProPublica проверила алгоритм,
11:17
with what public data they could find,
213
677952
2016
используя данные из Интернета,
11:19
and found that its outcomes were biased
214
679992
2316
и обнаружила, что результаты необъективны,
11:22
and its predictive power was dismal, barely better than chance,
215
682332
3629
способность прогнозирования ужасная, немного лучше, чем случайность.
11:25
and it was wrongly labeling black defendants as future criminals
216
685985
4416
Система классифицирует чернокожих обвиняемых как будущих преступников
11:30
at twice the rate of white defendants.
217
690425
3895
в два раза чаще, чем белых обвиняемых.
11:35
So, consider this case:
218
695891
1564
Рассмотрим следующий случай:
Эта девушка опаздывала, чтобы забрать свою крёстную сестру
11:38
This woman was late picking up her godsister
219
698103
3852
11:41
from a school in Broward County, Florida,
220
701979
2075
из школы в округе Броуард, штат Флорида.
11:44
running down the street with a friend of hers.
221
704757
2356
Они с подругой бежали по улице.
Тут они заметили незапертые велосипед и скутер на крыльце
11:47
They spotted an unlocked kid's bike and a scooter on a porch
222
707137
4099
11:51
and foolishly jumped on it.
223
711260
1632
и по глупости взяли их.
11:52
As they were speeding off, a woman came out and said,
224
712916
2599
Когда они отъезжали, вышла женщина и крикнула:
11:55
"Hey! That's my kid's bike!"
225
715539
2205
«Эй! Это велосипед моего ребёнка!»
11:57
They dropped it, they walked away, but they were arrested.
226
717768
3294
Они его бросили и ушли, но их арестовали.
Она была не права, она сглупила, но ей было всего 18 лет.
12:01
She was wrong, she was foolish, but she was also just 18.
227
721086
3637
12:04
She had a couple of juvenile misdemeanors.
228
724747
2544
У неё была пара малолетних правонарушений.
12:07
Meanwhile, that man had been arrested for shoplifting in Home Depot --
229
727808
5185
В то же время этот мужчина был арестован за кражу в магазине Home Depot,
примерно на сумму 85 долларов — такое же мелкое преступление.
12:13
85 dollars' worth of stuff, a similar petty crime.
230
733017
2924
12:16
But he had two prior armed robbery convictions.
231
736766
4559
Но у него за спиной было две судимости за вооружённый грабеж.
12:21
But the algorithm scored her as high risk, and not him.
232
741955
3482
Алгоритм посчитал, что её показатель риска выше, чем его.
12:26
Two years later, ProPublica found that she had not reoffended.
233
746746
3874
Спустя пару лет ProPublica выяснили, что она больше не совершала преступлений.
12:30
It was just hard to get a job for her with her record.
234
750644
2550
Но зато ей было сложно найти работу, имея судимость.
12:33
He, on the other hand, did reoffend
235
753218
2076
Тогда как этот мужчина стал рецидивистом,
12:35
and is now serving an eight-year prison term for a later crime.
236
755318
3836
и в настоящее время отбывает восьмилетний срок за своё последнее преступление.
Очевидно, мы должны проверять наши чёрные ящики,
12:40
Clearly, we need to audit our black boxes
237
760088
3369
12:43
and not have them have this kind of unchecked power.
238
763481
2615
чтобы они не получили бесконтрольную власть.
(Аплодисменты)
12:46
(Applause)
239
766120
2879
Проверка и контроль важны, но они не решают всех проблем.
12:50
Audits are great and important, but they don't solve all our problems.
240
770087
4242
12:54
Take Facebook's powerful news feed algorithm --
241
774353
2748
Вспомните мощный алгоритм ленты новостей на Facebook —
знаете, тот, который оценивает всё и решает, что именно вам показывать
12:57
you know, the one that ranks everything and decides what to show you
242
777125
4843
13:01
from all the friends and pages you follow.
243
781992
2284
от ваших друзей и до страниц, на которые вы подписаны.
13:04
Should you be shown another baby picture?
244
784898
2275
Показать вам ещё одну картинку младенца?
13:07
(Laughter)
245
787197
1196
(Смех)
13:08
A sullen note from an acquaintance?
246
788417
2596
Грустный комментарий от знакомого?
13:11
An important but difficult news item?
247
791449
1856
Важную, но непростую новость?
13:13
There's no right answer.
248
793329
1482
Тут нет единого ответа.
13:14
Facebook optimizes for engagement on the site:
249
794835
2659
Facebook оптимизирует вашу деятельность на сайте:
13:17
likes, shares, comments.
250
797518
1415
лайки, ссылки, комментарии.
В августе 2014 года
13:20
In August of 2014,
251
800168
2696
13:22
protests broke out in Ferguson, Missouri,
252
802888
2662
в Фергюсоне, штат Миссури вспыхнули протесты
13:25
after the killing of an African-American teenager by a white police officer,
253
805574
4417
после того, как белый полицейский убил афро-американского подростка
при невыясненных обстоятельствах.
13:30
under murky circumstances.
254
810015
1570
13:31
The news of the protests was all over
255
811974
2007
Новости о протестах заполонили
мой алгоритмически нефильтрованный Twitter,
13:34
my algorithmically unfiltered Twitter feed,
256
814005
2685
13:36
but nowhere on my Facebook.
257
816714
1950
но в моём Facebook их не было.
Может, это из-за моих друзей в Facebook?
13:39
Was it my Facebook friends?
258
819182
1734
13:40
I disabled Facebook's algorithm,
259
820940
2032
Я отключила алгоритм Facebook,
13:43
which is hard because Facebook keeps wanting to make you
260
823472
2848
что было сложно, так как Facebook хочет,
13:46
come under the algorithm's control,
261
826344
2036
чтобы вы были под контролем алгоритма.
13:48
and saw that my friends were talking about it.
262
828404
2238
Я увидела, что мои друзья обсуждали эту тему.
13:50
It's just that the algorithm wasn't showing it to me.
263
830666
2509
Просто алгоритм не показывал это мне.
Я изучила этот вопрос и выяснила, что это распространённая проблема.
13:53
I researched this and found this was a widespread problem.
264
833199
3042
13:56
The story of Ferguson wasn't algorithm-friendly.
265
836265
3813
Новость про Фергюсон была неудобна для алгоритма.
Эта новость не наберёт лайки.
14:00
It's not "likable."
266
840102
1171
14:01
Who's going to click on "like?"
267
841297
1552
Кто будет лайкать это?
14:03
It's not even easy to comment on.
268
843500
2206
Это даже сложно комментировать.
14:05
Without likes and comments,
269
845730
1371
Без лайков и комментариев
алгоритм, вероятно, показывал новость ещё меньшему кругу людей,
14:07
the algorithm was likely showing it to even fewer people,
270
847125
3292
14:10
so we didn't get to see this.
271
850441
1542
поэтому мы не видели это.
14:12
Instead, that week,
272
852946
1228
Вместо этого на той же неделе
14:14
Facebook's algorithm highlighted this,
273
854198
2298
алгоритм Facebook выделил это —
14:16
which is the ALS Ice Bucket Challenge.
274
856520
2226
кампания «испытание ведром ледяной воды».
14:18
Worthy cause; dump ice water, donate to charity, fine.
275
858770
3742
Важное дело: выливаем ведро со льдом, жертвуем на благотворительность — супер.
14:22
But it was super algorithm-friendly.
276
862536
1904
Это было очень удобно для алгоритма.
14:25
The machine made this decision for us.
277
865219
2613
Машина решила за нас.
14:27
A very important but difficult conversation
278
867856
3497
Очень важный, но трудный разговор,
14:31
might have been smothered,
279
871377
1555
возможно, был бы замят,
14:32
had Facebook been the only channel.
280
872956
2696
будь Facebook единственным каналом.
Наконец, эти системы могут делать ошибки,
14:36
Now, finally, these systems can also be wrong
281
876117
3797
14:39
in ways that don't resemble human systems.
282
879938
2736
которые не похожи на ошибки людей.
14:42
Do you guys remember Watson, IBM's machine-intelligence system
283
882698
2922
Помните Уотсона, искусственный интеллект IBM,
14:45
that wiped the floor with human contestants on Jeopardy?
284
885644
3128
который разгромил соперников-людей на телевикторине Jeopardy?
Он был отличным игроком.
14:49
It was a great player.
285
889131
1428
14:50
But then, for Final Jeopardy, Watson was asked this question:
286
890583
3569
Тогда, во время финала игры Уотсону задали вопрос:
14:54
"Its largest airport is named for a World War II hero,
287
894659
2932
«Его крупнейший аэропорт назван в честь героя Второй мировой войны,
14:57
its second-largest for a World War II battle."
288
897615
2252
а второй — в честь битвы Второй мировой войны».
14:59
(Hums Final Jeopardy music)
289
899891
1378
(Музыка Final Jeopardy)
15:01
Chicago.
290
901582
1182
Чикаго.
15:02
The two humans got it right.
291
902788
1370
Два человека ответили правильно.
15:04
Watson, on the other hand, answered "Toronto" --
292
904697
4348
Уотсон ответил «Торонто» —
в категории городов США!
15:09
for a US city category!
293
909069
1818
15:11
The impressive system also made an error
294
911596
2901
Мощнейшая система сделала ошибку,
15:14
that a human would never make, a second-grader wouldn't make.
295
914521
3651
которую человек никогда бы не сделал, даже второклассник бы не ошибся.
15:18
Our machine intelligence can fail
296
918823
3109
Искусственный интеллект может ошибиться там,
15:21
in ways that don't fit error patterns of humans,
297
921956
3100
где человек не допустит ошибку,
там, где мы не ожидаем ошибку и не готовы к ней.
15:25
in ways we won't expect and be prepared for.
298
925080
2950
Жалко не получить работу тому, кто для неё подходит,
15:28
It'd be lousy not to get a job one is qualified for,
299
928054
3638
15:31
but it would triple suck if it was because of stack overflow
300
931716
3727
но ещё хуже, если это произошло из-за переполнения стека
15:35
in some subroutine.
301
935467
1432
в какой-то подпрограмме.
15:36
(Laughter)
302
936923
1579
(Смех)
15:38
In May of 2010,
303
938526
2786
В мае 2010 года
15:41
a flash crash on Wall Street fueled by a feedback loop
304
941336
4044
произошёл обвал рынка Уолл-стрит по вине метода передачи данных
15:45
in Wall Street's "sell" algorithm
305
945404
3028
в алгоритме Уолл-стрит «сбыт»,
15:48
wiped a trillion dollars of value in 36 minutes.
306
948456
4184
что снизило стоимость бумаг на триллион долларов на 36 минут.
15:53
I don't even want to think what "error" means
307
953722
2187
Даже подумать страшно, какие последствия может иметь «ошибка»
15:55
in the context of lethal autonomous weapons.
308
955933
3589
в контексте автономного летального оружия.
16:01
So yes, humans have always made biases.
309
961894
3790
У людей всегда предвзятый взгляд на вещи.
16:05
Decision makers and gatekeepers,
310
965708
2176
Лица, принимающие решения, и контролёры;
16:07
in courts, in news, in war ...
311
967908
3493
в судах, в новостях, на войне ...
16:11
they make mistakes; but that's exactly my point.
312
971425
3038
люди совершают ошибки — именно это я и имею в виду.
16:14
We cannot escape these difficult questions.
313
974487
3521
Мы не можем избежать сложных вопросов.
16:18
We cannot outsource our responsibilities to machines.
314
978596
3516
Мы не можем переложить свои обязанности на машины.
16:22
(Applause)
315
982676
4208
(Аплодисменты)
Искусственный интеллект не даёт нам права переложить вопросы этики на машину.
16:29
Artificial intelligence does not give us a "Get out of ethics free" card.
316
989089
4447
16:34
Data scientist Fred Benenson calls this math-washing.
317
994742
3381
Эксперт по данным Фред Бененсон называет это «математической чисткой».
Нам нужно совсем другое.
16:38
We need the opposite.
318
998147
1389
16:39
We need to cultivate algorithm suspicion, scrutiny and investigation.
319
999560
5388
Нам необходимы пристальное внимание, контроль и оценка алгоритмов.
16:45
We need to make sure we have algorithmic accountability,
320
1005380
3198
У нас должна быть алгоритмическая отчётность,
16:48
auditing and meaningful transparency.
321
1008602
2445
проверка и достаточная прозрачность.
16:51
We need to accept that bringing math and computation
322
1011380
3234
Мы должны признать, что, добавив математику и вычисления
16:54
to messy, value-laden human affairs
323
1014638
2970
к запутанным человеческим делам,
16:57
does not bring objectivity;
324
1017632
2384
мы не получим объективности;
скорее, сложность человеческих отношений вторгнется в алгоритмы.
17:00
rather, the complexity of human affairs invades the algorithms.
325
1020040
3633
Да, мы можем, и мы должны использовать вычисления
17:04
Yes, we can and we should use computation
326
1024148
3487
17:07
to help us make better decisions.
327
1027659
2014
для поиска лучших решений.
17:09
But we have to own up to our moral responsibility to judgment,
328
1029697
5332
Мы также должны нести моральную ответственность и принимать решения,
успользуя алгоритмы в этих рамках,
17:15
and use algorithms within that framework,
329
1035053
2818
17:17
not as a means to abdicate and outsource our responsibilities
330
1037895
4935
а не как средство отказа от обязательств, чтобы передать наши обязанности
17:22
to one another as human to human.
331
1042854
2454
друг другу, как один человек другому.
17:25
Machine intelligence is here.
332
1045807
2609
Искусственный интеллект уже здесь.
17:28
That means we must hold on ever tighter
333
1048440
3421
Это значит, что мы должны ещё больше придерживаться
17:31
to human values and human ethics.
334
1051885
2147
человеческих ценностей и этики.
Спасибо.
17:34
Thank you.
335
1054056
1154
17:35
(Applause)
336
1055234
5020
(Аплодисменты)
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7