Machine intelligence makes human morals more important | Zeynep Tufekci

177,726 views ・ 2016-11-11

TED


Будь ласка, двічі клацніть на англійські субтитри нижче, щоб відтворити відео.

Перекладач: Nataliia Levchuk Утверджено: Hanna Leliv
00:12
So, I started my first job as a computer programmer
0
12739
4122
Отже, я почала працювати програмісткою,
00:16
in my very first year of college --
1
16885
1956
коли навчалась на першому курсі коледжу
00:18
basically, as a teenager.
2
18865
1507
і була, по суті, ще тінейджеркою.
00:20
Soon after I started working,
3
20889
1732
Після того, як я почала працювати,
00:22
writing software in a company,
4
22645
1610
пишучи програмне забезпечення,
00:24
a manager who worked at the company came down to where I was,
5
24799
3635
менеджер, який теж там працював, підійшов до мене
00:28
and he whispered to me,
6
28458
1268
і прошепотів:
00:30
"Can he tell if I'm lying?"
7
30229
2861
"Чи може він сказати, що я брешу?"
00:33
There was nobody else in the room.
8
33806
2077
У кабінеті крім нас нікого не було.
00:37
"Can who tell if you're lying? And why are we whispering?"
9
37032
4389
"Хто може сказати, що ти брешеш? І чому ми говоримо пошепки?"
00:42
The manager pointed at the computer in the room.
10
42266
3107
Менеджер показав пальцем на комп'ютер.
00:45
"Can he tell if I'm lying?"
11
45397
3096
"Чи може він сказати, що я брешу?"
00:49
Well, that manager was having an affair with the receptionist.
12
49613
4362
Річ у тім, що в мого колеги був роман із секретаркою.
00:53
(Laughter)
13
53999
1112
(Сміх)
00:55
And I was still a teenager.
14
55135
1766
А я все ще була тінейджеркою.
00:57
So I whisper-shouted back to him,
15
57447
2019
Тому голосно прошепотіла:
00:59
"Yes, the computer can tell if you're lying."
16
59490
3624
"Так, комп'ютер може сказати, що ти брешеш".
01:03
(Laughter)
17
63138
1806
(Сміх)
01:04
Well, I laughed, but actually, the laugh's on me.
18
64968
2923
Ну, я сміялась, але насправді сміялась над собою.
01:07
Nowadays, there are computational systems
19
67915
3268
Сьогодні існують комп'ютерні системи,
01:11
that can suss out emotional states and even lying
20
71207
3548
які можуть розпізнати емоції і навіть брехню,
01:14
from processing human faces.
21
74779
2044
опрацювавши обличчя людини.
01:17
Advertisers and even governments are very interested.
22
77248
4153
Рекламодавці і навіть влада в цьому дуже зацікавлені.
01:22
I had become a computer programmer
23
82319
1862
Я стала програмісткою,
01:24
because I was one of those kids crazy about math and science.
24
84205
3113
тому, що була однією з тих дітей, які шаленіли від точних наук.
01:27
But somewhere along the line I'd learned about nuclear weapons,
25
87942
3108
Але десь у процесі я дізналась про ядерну зброю,
01:31
and I'd gotten really concerned with the ethics of science.
26
91074
2952
і мене справді схвилювало питання наукової етики.
01:34
I was troubled.
27
94050
1204
Я була стривожена.
01:35
However, because of family circumstances,
28
95278
2641
Однак через сімейні обставини
01:37
I also needed to start working as soon as possible.
29
97943
3298
мені також треба було почати працювати якнайшвидше.
01:41
So I thought to myself, hey, let me pick a technical field
30
101265
3299
Тому я подумала: "Ей, обирай технічну сферу,
01:44
where I can get a job easily
31
104588
1796
де можна легко знайти роботу
01:46
and where I don't have to deal with any troublesome questions of ethics.
32
106408
4018
і де не треба мати справу з болісними етичними проблемами".
01:51
So I picked computers.
33
111022
1529
Тому я обрала комп'ютери.
01:52
(Laughter)
34
112575
1104
(Сміх)
01:53
Well, ha, ha, ha! All the laughs are on me.
35
113703
3410
Ха-ха-ха! Всі наді мною сміялися.
01:57
Nowadays, computer scientists are building platforms
36
117137
2754
Сьогодні програмісти будують платформи,
01:59
that control what a billion people see every day.
37
119915
4209
які регулюють те, що мільйони людей щодня бачать.
02:05
They're developing cars that could decide who to run over.
38
125052
3822
Вони удосконалюють автомобілі, які можуть вирішити, кого переїхати.
02:09
They're even building machines, weapons,
39
129707
3213
Вони навіть конструюють машини і зброю,
02:12
that might kill human beings in war.
40
132944
2285
які можуть вбивати людей на війні.
02:15
It's ethics all the way down.
41
135253
2771
Це все одно проблема моралі.
02:19
Machine intelligence is here.
42
139183
2058
Це машинний інтелект.
02:21
We're now using computation to make all sort of decisions,
43
141823
3474
Сьогодні ми використовуємо комп'ютеризацію, щоб ухвалювати будь-які рішення,
02:25
but also new kinds of decisions.
44
145321
1886
а також для нових рішень.
02:27
We're asking questions to computation that have no single right answers,
45
147231
5172
Ми ставимо запитання машинам, які не мають чітких правильних відповідей,
02:32
that are subjective
46
152427
1202
суб'єктивних,
02:33
and open-ended and value-laden.
47
153653
2325
відкритих і заснованих на ідеях цінностей.
02:36
We're asking questions like,
48
156002
1758
Ми ставимо запитання на кшталт:
02:37
"Who should the company hire?"
49
157784
1650
"Кого компанії варто найняти?"
02:40
"Which update from which friend should you be shown?"
50
160096
2759
"Новини якого друга потрібно показати?"
02:42
"Which convict is more likely to reoffend?"
51
162879
2266
"Який злочинець може знову порушити закон?"
02:45
"Which news item or movie should be recommended to people?"
52
165514
3054
"Яку новину або фільм слід рекомендувати людям?"
02:48
Look, yes, we've been using computers for a while,
53
168592
3372
Так, ми постійно використовували комп'ютери,
02:51
but this is different.
54
171988
1517
але це інше.
02:53
This is a historical twist,
55
173529
2067
Це історичний поворот,
02:55
because we cannot anchor computation for such subjective decisions
56
175620
5337
адже не можна передати комп'ютерам відповідальність за такі суб'єктивні рішення,
03:00
the way we can anchor computation for flying airplanes, building bridges,
57
180981
5420
так як передаємо за управління літаками, будування мостів,
03:06
going to the moon.
58
186425
1259
польоти на Місяць.
03:08
Are airplanes safer? Did the bridge sway and fall?
59
188449
3259
Хіба літаки безпечніші? Мости не хиталися і не падали?
03:11
There, we have agreed-upon, fairly clear benchmarks,
60
191732
4498
У нас є загальноприйняті, цілком зрозумілі критерії порівняння,
03:16
and we have laws of nature to guide us.
61
196254
2239
і є закони природи, які нами керують.
03:18
We have no such anchors and benchmarks
62
198517
3394
У нас немає таких підстав та критеріїв,
03:21
for decisions in messy human affairs.
63
201935
3963
щоб ухвалювати рішення стосовно брудних людських справ.
03:25
To make things more complicated, our software is getting more powerful,
64
205922
4237
Програмне забезпечення стає потужнішим, щоб зробити деякі речі складнішими,
03:30
but it's also getting less transparent and more complex.
65
210183
3773
але водночас стає прозорішим і заплутанішим.
03:34
Recently, in the past decade,
66
214542
2040
За останніх десять років
03:36
complex algorithms have made great strides.
67
216606
2729
заплутані алгоритми досягли великого успіху.
03:39
They can recognize human faces.
68
219359
1990
Вони можуть розпізнавати обличчя людей.
03:41
They can decipher handwriting.
69
221985
2055
Можуть розшифрувати почерк.
03:44
They can detect credit card fraud
70
224436
2066
Можуть знайти кредитних шахраїв,
03:46
and block spam
71
226526
1189
блокувати спам,
03:47
and they can translate between languages.
72
227739
2037
перекладати з мови на мову.
03:49
They can detect tumors in medical imaging.
73
229800
2574
Вони можуть виявити пухлини на рентгені.
03:52
They can beat humans in chess and Go.
74
232398
2205
Обіграти людей в шахи чи "Ґо".
03:55
Much of this progress comes from a method called "machine learning."
75
235264
4504
Велика частина цього прогресу прийшла з методу "машинного навчання".
04:00
Machine learning is different than traditional programming,
76
240175
3187
Машинне навчання відрізняється від традиційного програмування,
04:03
where you give the computer detailed, exact, painstaking instructions.
77
243386
3585
коли ви даєте комп'ютеру детальні, точні, досконалі інструкції.
04:07
It's more like you take the system and you feed it lots of data,
78
247378
4182
Це більше схоже на те, коли ви берете систему і наповнюєте її інформацією,
04:11
including unstructured data,
79
251584
1656
зокрема неструктурованою,
04:13
like the kind we generate in our digital lives.
80
253264
2278
схожою на ту, що ми генеруємо у цифровому житті.
04:15
And the system learns by churning through this data.
81
255566
2730
І система вчиться на обробці цієї інформації.
04:18
And also, crucially,
82
258669
1526
Також важливо,
04:20
these systems don't operate under a single-answer logic.
83
260219
4380
що системи не виконують завдання, пов'язані із необхідністю знайти єдину відповідь.
04:24
They don't produce a simple answer; it's more probabilistic:
84
264623
2959
Вони не дають просту відповідь, виходячи з теорії імовірностей.
04:27
"This one is probably more like what you're looking for."
85
267606
3483
"Ось щось схоже на те, що ви шукаєте".
04:32
Now, the upside is: this method is really powerful.
86
272023
3070
Тепер позитивний аспект: цей метод справді потужний.
04:35
The head of Google's AI systems called it,
87
275117
2076
Директор Google's AI systems називає його
04:37
"the unreasonable effectiveness of data."
88
277217
2197
"ірраціональною ефективністю даних".
04:39
The downside is,
89
279791
1353
Мінусом є те,
04:41
we don't really understand what the system learned.
90
281738
3071
що ми насправді не розуміємо, про що дізнається система.
04:44
In fact, that's its power.
91
284833
1587
Насправді, в цьому сила системи.
04:46
This is less like giving instructions to a computer;
92
286946
3798
Це не схоже на ситуацію, коли ми даємо комп'ютеру інструкції,
04:51
it's more like training a puppy-machine-creature
93
291200
4064
а, скоріше, на формування маленької машинної істоти,
04:55
we don't really understand or control.
94
295288
2371
яку ми насправді не розуміємо і не контролюємо.
04:58
So this is our problem.
95
298362
1551
Тому це наша проблема.
05:00
It's a problem when this artificial intelligence system gets things wrong.
96
300427
4262
Проблемно, коли система штучного інтелекту засвоює інформацію неправильно.
05:04
It's also a problem when it gets things right,
97
304713
3540
Також проблемно, коли вона засвоює інформацію правильно,
05:08
because we don't even know which is which when it's a subjective problem.
98
308277
3628
тому що ми не знаємо, хто є хто, коли це суб'єктивна проблема.
05:11
We don't know what this thing is thinking.
99
311929
2339
Ми не знаємо, про що ця річ думає.
05:15
So, consider a hiring algorithm --
100
315493
3683
Розглянемо алгоритм найму на роботу -
05:20
a system used to hire people, using machine-learning systems.
101
320123
4311
система, яку застосовують для найму людей, використовує системи машинного навчання.
05:25
Such a system would have been trained on previous employees' data
102
325052
3579
Така система підготовлена на даних попередніх працівників
05:28
and instructed to find and hire
103
328655
2591
і навчена шукати і наймати
05:31
people like the existing high performers in the company.
104
331270
3038
людей, подібних до найкращих працівників компанії.
05:34
Sounds good.
105
334814
1153
Звучить добре.
05:35
I once attended a conference
106
335991
1999
Одного разу я відвідала конференцію,
05:38
that brought together human resources managers and executives,
107
338014
3125
яку проводили керівники відділів кадрів та члени правління,
05:41
high-level people,
108
341163
1206
люди на високих посадах,
05:42
using such systems in hiring.
109
342393
1559
які використовують такі системи.
05:43
They were super excited.
110
343976
1646
Вони були в захопленні.
05:45
They thought that this would make hiring more objective, less biased,
111
345646
4653
Вони думали, що це зробить прийом на роботу більш об'єктивним, менш упередженим,
05:50
and give women and minorities a better shot
112
350323
3000
і дасть жінкам і представникам меншин більше шансів,
05:53
against biased human managers.
113
353347
2188
ніж упереджені менеджери.
05:55
And look -- human hiring is biased.
114
355559
2843
Найм людей на роботу - справа упереджена.
05:59
I know.
115
359099
1185
Я знаю.
06:00
I mean, in one of my early jobs as a programmer,
116
360308
3005
На одній із перших компаній, де я програмувала,
06:03
my immediate manager would sometimes come down to where I was
117
363337
3868
моя безпосередня керівничка деколи підходила до мене
06:07
really early in the morning or really late in the afternoon,
118
367229
3753
рано-вранці або пізно ввечері,
06:11
and she'd say, "Zeynep, let's go to lunch!"
119
371006
3062
і казала: "Зейнеп, ідемо обідати!"
06:14
I'd be puzzled by the weird timing.
120
374724
2167
Я була здивована дивним вибором часу.
06:16
It's 4pm. Lunch?
121
376915
2129
16:00. Обід?
06:19
I was broke, so free lunch. I always went.
122
379068
3094
Ці сумнівні обіди мене ледь не розорили. Але я завжди йшла.
06:22
I later realized what was happening.
123
382618
2067
Пізніше я усвідомила, що відбувалося.
06:24
My immediate managers had not confessed to their higher-ups
124
384709
4546
Мої безпосередні начальники не могли зізнатися вищому керівництву,
06:29
that the programmer they hired for a serious job was a teen girl
125
389279
3113
що найняли для серйозної роботи дівчинку-підлітка,
06:32
who wore jeans and sneakers to work.
126
392416
3930
яка на роботу ходить у джинсах і кедах.
06:37
I was doing a good job, I just looked wrong
127
397174
2202
Я добре працювала, але виглядала неправильно
06:39
and was the wrong age and gender.
128
399400
1699
і була неправильного віку і статі.
06:41
So hiring in a gender- and race-blind way
129
401123
3346
Тому найм без врахування статі і раси
06:44
certainly sounds good to me.
130
404493
1865
безсумнівно мені підходив.
06:47
But with these systems, it is more complicated, and here's why:
131
407031
3341
Але з такими системами цей процес ще заплутаніший, і ось чому:
06:50
Currently, computational systems can infer all sorts of things about you
132
410968
5791
останнім часом комп'ютерні системи можуть зробити будь-які висновки про вас,
06:56
from your digital crumbs,
133
416783
1872
враховуючи цифрові дрібниці,
06:58
even if you have not disclosed those things.
134
418679
2333
навіть якщо ви про ці висновки не підозрюєте.
07:01
They can infer your sexual orientation,
135
421506
2927
Вони можуть робити висновки про сексуальну орієнтацію,
07:04
your personality traits,
136
424994
1306
персональні якості,
07:06
your political leanings.
137
426859
1373
політичні погляди.
07:08
They have predictive power with high levels of accuracy.
138
428830
3685
Вони можуть передбачати з високим рівнем точності.
07:13
Remember -- for things you haven't even disclosed.
139
433362
2578
Пам'ятайте - речі, про які ви навіть не підозрюєте.
07:15
This is inference.
140
435964
1591
Це припущення.
07:17
I have a friend who developed such computational systems
141
437579
3261
У мене є подруга, яка удосконалює такі системи,
07:20
to predict the likelihood of clinical or postpartum depression
142
440864
3641
щоб передбачити ймовірність клінічної чи післяпологової депресії,
07:24
from social media data.
143
444529
1416
аналізуючи соціальні мережі.
07:26
The results are impressive.
144
446676
1427
Результати вражаючі.
07:28
Her system can predict the likelihood of depression
145
448492
3357
ЇЇ система може передбачити ймовірність депресії
07:31
months before the onset of any symptoms --
146
451873
3903
за місяці перед проявом симптомів -
07:35
months before.
147
455800
1373
за місяці.
07:37
No symptoms, there's prediction.
148
457197
2246
Передбачення без симптомів.
07:39
She hopes it will be used for early intervention. Great!
149
459467
4812
Вона сподівається, що систему застосують для втручання на ранній стадії. Чудово!
07:44
But now put this in the context of hiring.
150
464911
2040
Розгляньте це в контексті найму на роботу.
07:48
So at this human resources managers conference,
151
468027
3046
На конференції керівників кадрових служб
07:51
I approached a high-level manager in a very large company,
152
471097
4709
я спілкувалася з топ-менеджеркою дуже великої компанії
07:55
and I said to her, "Look, what if, unbeknownst to you,
153
475830
4578
і сказала їй: "А якщо без вашого відома
08:00
your system is weeding out people with high future likelihood of depression?
154
480432
6549
система видаляє людей з високою ймовірністю появи депресії?
08:07
They're not depressed now, just maybe in the future, more likely.
155
487761
3376
Наразі вони не пригнічені, але можливо стануть такими в майбутньому.
08:11
What if it's weeding out women more likely to be pregnant
156
491923
3406
Що як вона видаляє жінок, які, можливо, завагітніють
08:15
in the next year or two but aren't pregnant now?
157
495353
2586
за кілька наступних років, але не вагітні зараз?
08:18
What if it's hiring aggressive people because that's your workplace culture?"
158
498844
5636
Що як вона наймає на роботу агресивних людей через корпоративну культуру?"
08:25
You can't tell this by looking at gender breakdowns.
159
505173
2691
Ви не можете цього сказати, дивлячись на гендерний баланс.
08:27
Those may be balanced.
160
507888
1502
Їх можна врівноважити.
08:29
And since this is machine learning, not traditional coding,
161
509414
3557
І так як це машинне навчання, а не традиційне програмування,
08:32
there is no variable there labeled "higher risk of depression,"
162
512995
4907
немає змінних ярликів на кшталт: "високий ризик депресії",
08:37
"higher risk of pregnancy,"
163
517926
1833
"високий ризик вагітності"
08:39
"aggressive guy scale."
164
519783
1734
чи "шкала агресивності".
08:41
Not only do you not know what your system is selecting on,
165
521995
3679
Ви не тільки не знаєте, що саме система візьме до уваги,
08:45
you don't even know where to begin to look.
166
525698
2323
ви навіть не знаєте, де це починати шукати.
08:48
It's a black box.
167
528045
1246
Це чорна скринька.
08:49
It has predictive power, but you don't understand it.
168
529315
2807
Система має силу передбачення, але ви її не розумієте.
08:52
"What safeguards," I asked, "do you have
169
532486
2369
Я запитала: "Які запобіжні заходи у вас є,
08:54
to make sure that your black box isn't doing something shady?"
170
534879
3673
щоб упевнитись, що ця чорна скринька не робить нічого підозрілого?"
09:00
She looked at me as if I had just stepped on 10 puppy tails.
171
540863
3878
Вона подивилась на мене так, ніби я наступила щеняті на хвіст.
09:04
(Laughter)
172
544765
1248
(Сміх)
09:06
She stared at me and she said,
173
546037
2041
Пильно подивилася на мене і сказала:
09:08
"I don't want to hear another word about this."
174
548556
4333
"Я більше не хочу нічого про це чути".
09:13
And she turned around and walked away.
175
553458
2034
А тоді повернулася і пішла геть.
09:16
Mind you -- she wasn't rude.
176
556064
1486
Зауважте - вона була вихована.
09:17
It was clearly: what I don't know isn't my problem, go away, death stare.
177
557574
6308
Було зрозуміло: те, чого я не знаю - не моя проблема. Іди геть; вбивчий погляд.
09:23
(Laughter)
178
563906
1246
(Сміх)
09:25
Look, such a system may even be less biased
179
565862
3839
Деколи такі системи можуть бути менш упереджені,
09:29
than human managers in some ways.
180
569725
2103
ніж керівники відділів кадрів.
09:31
And it could make monetary sense.
181
571852
2146
І це може бути матеріально виправдано.
09:34
But it could also lead
182
574573
1650
Але також це може призвести
09:36
to a steady but stealthy shutting out of the job market
183
576247
4748
до постійного і приховуваного виштовхування з ринку праці
09:41
of people with higher risk of depression.
184
581019
2293
людей з високим ризиком розвитку депресії.
09:43
Is this the kind of society we want to build,
185
583753
2596
Це таке суспільство, яке ми хочемо будувати,
09:46
without even knowing we've done this,
186
586373
2285
навіть не знаючи, що ми це зробили,
09:48
because we turned decision-making to machines we don't totally understand?
187
588682
3964
тому що ми доручили ухвалення рішень машинам, яких повністю не розуміємо.
09:53
Another problem is this:
188
593265
1458
Є й інша проблема:
09:55
these systems are often trained on data generated by our actions,
189
595314
4452
часто ці програми базуються на інформації, пов'язаній з нашими діями,
09:59
human imprints.
190
599790
1816
на людських враженнях.
10:02
Well, they could just be reflecting our biases,
191
602188
3808
Вони можуть відображати наші упередження,
10:06
and these systems could be picking up on our biases
192
606020
3593
можуть їх засвоїти
10:09
and amplifying them
193
609637
1313
і підсилити
10:10
and showing them back to us,
194
610974
1418
і повернути їх проти нас,
10:12
while we're telling ourselves,
195
612416
1462
тоді як ми кажемо:
10:13
"We're just doing objective, neutral computation."
196
613902
3117
"Ми робимо об'єктивний, нейтральний розрахунок".
10:18
Researchers found that on Google,
197
618314
2677
Дослідники виявили, що в Google
10:22
women are less likely than men to be shown job ads for high-paying jobs.
198
622134
5313
жінкам рідше пропонують оголошення про високооплачувану роботу.
10:28
And searching for African-American names
199
628463
2530
І під час пошуку афро-американських імен
10:31
is more likely to bring up ads suggesting criminal history,
200
631017
4706
частіше з'являються рекламні оголошення про кримінальні історії,
10:35
even when there is none.
201
635747
1567
які навіть не стосуються пошуку.
10:38
Such hidden biases and black-box algorithms
202
638693
3549
Такі приховані упередження і алгоритми "чорної скриньки",
10:42
that researchers uncover sometimes but sometimes we don't know,
203
642266
3973
що їх дослідники деколи виявляють, а деколи ми про них навіть не знаємо,
10:46
can have life-altering consequences.
204
646263
2661
можуть мати життєвоважливі наслідки.
10:49
In Wisconsin, a defendant was sentenced to six years in prison
205
649958
4159
У Вісконсині підсудний був засуджений до шести років у в'язниці
10:54
for evading the police.
206
654141
1355
за непокору поліції.
10:56
You may not know this,
207
656824
1186
Можливо, ви цього не знаєте,
10:58
but algorithms are increasingly used in parole and sentencing decisions.
208
658034
3998
але алгоритми все частіше використовують для визначення міри покарання.
11:02
He wanted to know: How is this score calculated?
209
662056
2955
Він хотів знати, як визначили цей показник.
11:05
It's a commercial black box.
210
665795
1665
Вигідна "чорна скринька".
11:07
The company refused to have its algorithm be challenged in open court.
211
667484
4205
Компанію, яка відмовилась від цього алгоритму, викликали на судове засідання.
11:12
But ProPublica, an investigative nonprofit, audited that very algorithm
212
672396
5532
Некомерційна слідча компанія ProPublica перевірила той самий алгоритм
11:17
with what public data they could find,
213
677952
2016
з публічними даними, які вони могли знайти,
11:19
and found that its outcomes were biased
214
679992
2316
і з'ясувала, що такі висновки були необ'єктивні,
11:22
and its predictive power was dismal, barely better than chance,
215
682332
3629
а здатність передбачення була мізерна, мало відрізнялася від випадковості
11:25
and it was wrongly labeling black defendants as future criminals
216
685985
4416
і помилково маркувала чорношкірих обвинувачуваних, як майбутніх злочинців,
11:30
at twice the rate of white defendants.
217
690425
3895
в двічі частіше, ніж білих обвинувачуваних.
11:35
So, consider this case:
218
695891
1564
Розглянемо такий випадок:
11:38
This woman was late picking up her godsister
219
698103
3852
ця дівчина трохи запізно приїхала забирати свою сестру
11:41
from a school in Broward County, Florida,
220
701979
2075
зі школи в окрузі Бровард, Флорида,
11:44
running down the street with a friend of hers.
221
704757
2356
і бігла по вулиці зі своїми друзями.
11:47
They spotted an unlocked kid's bike and a scooter on a porch
222
707137
4099
Вони помітили неприщіпнутий на замок дитячий велосипед і самокат на терасі
11:51
and foolishly jumped on it.
223
711260
1632
і здуру стрибнули на нього.
11:52
As they were speeding off, a woman came out and said,
224
712916
2599
Коли вони втікали, вийшла жінка і сказала:
11:55
"Hey! That's my kid's bike!"
225
715539
2205
"Ей! Це велосипед моєї дитини!"
11:57
They dropped it, they walked away, but they were arrested.
226
717768
3294
Вони кинули велосипед і втікли, але їх арештували.
12:01
She was wrong, she was foolish, but she was also just 18.
227
721086
3637
Дівчина вчинила неправильно і нерозважливо, але ж їй було всього 18.
12:04
She had a couple of juvenile misdemeanors.
228
724747
2544
Вона скоїла декілька незначних правопорушень.
12:07
Meanwhile, that man had been arrested for shoplifting in Home Depot --
229
727808
5185
Тим часом цього чоловіка арештували за крадіжку в магазині Home Depot -
12:13
85 dollars' worth of stuff, a similar petty crime.
230
733017
2924
він вкрав речей на 85 доларів, такий же маленький злочин.
12:16
But he had two prior armed robbery convictions.
231
736766
4559
Але до цього його двічі засудили за збройні напади.
12:21
But the algorithm scored her as high risk, and not him.
232
741955
3482
Однак алгоритм визначив, що вона небезпечніша за нього.
12:26
Two years later, ProPublica found that she had not reoffended.
233
746746
3874
Через два роки ProPublica з'ясувала, що вона знову порушила закон.
12:30
It was just hard to get a job for her with her record.
234
750644
2550
І з такими даними їй було важко отримати роботу.
12:33
He, on the other hand, did reoffend
235
753218
2076
З іншого боку, той чоловік знову порушив закон
12:35
and is now serving an eight-year prison term for a later crime.
236
755318
3836
і тепер відбуває восьмирічний термін за останній злочин.
12:40
Clearly, we need to audit our black boxes
237
760088
3369
Нам треба перевірити ці "чорні скриньки"
12:43
and not have them have this kind of unchecked power.
238
763481
2615
і не наділяти їх такою неперевіреною силою.
12:46
(Applause)
239
766120
2879
(Оплески)
12:50
Audits are great and important, but they don't solve all our problems.
240
770087
4242
Перевірки - це дуже важливо, але вони не розв'язують всіх наших проблем.
12:54
Take Facebook's powerful news feed algorithm --
241
774353
2748
Розглянемо потужний алгоритм стрічки новин у Фейсбуці -
12:57
you know, the one that ranks everything and decides what to show you
242
777125
4843
той, що упорядковує все і вирішує, що вам показати
13:01
from all the friends and pages you follow.
243
781992
2284
з усіх сторінок, на які ви підписані.
13:04
Should you be shown another baby picture?
244
784898
2275
Розказати про ще одну "дитячу картину"?
13:07
(Laughter)
245
787197
1196
(Сміх)
13:08
A sullen note from an acquaintance?
246
788417
2596
Сумний пост знайомого?
13:11
An important but difficult news item?
247
791449
1856
Важлива, але неприємна новина?
13:13
There's no right answer.
248
793329
1482
Немає правильної відповіді.
13:14
Facebook optimizes for engagement on the site:
249
794835
2659
Фейсбук враховує активність на сайті:
13:17
likes, shares, comments.
250
797518
1415
лайки, репости, коментарі.
13:20
In August of 2014,
251
800168
2696
У серпні 2014
13:22
protests broke out in Ferguson, Missouri,
252
802888
2662
почалися протести у місті Ферґюсон, штат Міссуррі,
13:25
after the killing of an African-American teenager by a white police officer,
253
805574
4417
після того. як білий поліцейський вбив афро-американського підлітка
13:30
under murky circumstances.
254
810015
1570
за незрозумілих обставин.
13:31
The news of the protests was all over
255
811974
2007
Новини про ці протести заполонили
13:34
my algorithmically unfiltered Twitter feed,
256
814005
2685
мою невідфільтровану стрічку новин у Твіттері,
13:36
but nowhere on my Facebook.
257
816714
1950
але їх не було на моєму Фейсбуці.
13:39
Was it my Facebook friends?
258
819182
1734
Справа у моїх друзях на Фейсбуці?
13:40
I disabled Facebook's algorithm,
259
820940
2032
Алгоритм Фейсбука вибив мене з колії,
13:43
which is hard because Facebook keeps wanting to make you
260
823472
2848
він складний, тому що Фейсбук підтримує бажання
13:46
come under the algorithm's control,
261
826344
2036
знаходитися під контролем алгоритму,
13:48
and saw that my friends were talking about it.
262
828404
2238
і бачити, що мої друзі говорили про це.
13:50
It's just that the algorithm wasn't showing it to me.
263
830666
2509
Це саме те, що алгоритм не показав мені.
13:53
I researched this and found this was a widespread problem.
264
833199
3042
Я досліджувала цю проблему, і виявилось, що вона досить поширена.
13:56
The story of Ferguson wasn't algorithm-friendly.
265
836265
3813
Історія про Ферґюсон не подобалась алгоритму.
14:00
It's not "likable."
266
840102
1171
Її не "лайкали".
14:01
Who's going to click on "like?"
267
841297
1552
Хто вподобає такий запис?
14:03
It's not even easy to comment on.
268
843500
2206
Її навіть непросто прокоментувати.
14:05
Without likes and comments,
269
845730
1371
Без вподобань і коментарів
14:07
the algorithm was likely showing it to even fewer people,
270
847125
3292
алгоритм показував цей запис жменьці людей,
14:10
so we didn't get to see this.
271
850441
1542
тому ми його не побачили.
14:12
Instead, that week,
272
852946
1228
Навпаки, того тижня
14:14
Facebook's algorithm highlighted this,
273
854198
2298
алгоритм Фейсбука виділяв те,
14:16
which is the ALS Ice Bucket Challenge.
274
856520
2226
що називають Ice Bucket Challenge.
14:18
Worthy cause; dump ice water, donate to charity, fine.
275
858770
3742
Суспільно значуща справа: обливаєш себе холодною водою заради благодійності.
14:22
But it was super algorithm-friendly.
276
862536
1904
Але це дуже подобалось алгоритму.
14:25
The machine made this decision for us.
277
865219
2613
За нас це рішення прийняла машина.
14:27
A very important but difficult conversation
278
867856
3497
Дуже важливе, але заплутане обговорення
14:31
might have been smothered,
279
871377
1555
могло бути придушене,
14:32
had Facebook been the only channel.
280
872956
2696
якби Фейсбук мав лише одну стрічку новин.
14:36
Now, finally, these systems can also be wrong
281
876117
3797
Зрештою, ці системи можуть помилятися
14:39
in ways that don't resemble human systems.
282
879938
2736
так, як цього не допустить людський ресурс.
14:42
Do you guys remember Watson, IBM's machine-intelligence system
283
882698
2922
Пам'ятаєте систему штучного інтелекту Watson,
14:45
that wiped the floor with human contestants on Jeopardy?
284
885644
3128
що витирала підлогу, змагаючись з людьми на телегрі Jeopardy?
14:49
It was a great player.
285
889131
1428
Вона була чудовим гравцем.
14:50
But then, for Final Jeopardy, Watson was asked this question:
286
890583
3569
Але у фіналі Watson запитали:
14:54
"Its largest airport is named for a World War II hero,
287
894659
2932
"Його найбільший аеропорт назвали на честь героя Другої світової війни,
14:57
its second-largest for a World War II battle."
288
897615
2252
а другий за розміром - на честь битви Другої світової війни".
14:59
(Hums Final Jeopardy music)
289
899891
1378
(Музика з фіналу Jeopardy)
15:01
Chicago.
290
901582
1182
Чикаго.
15:02
The two humans got it right.
291
902788
1370
Дві людини відповіли правильно.
15:04
Watson, on the other hand, answered "Toronto" --
292
904697
4348
Натомість Watson відповів "Торонто" -
15:09
for a US city category!
293
909069
1818
і це в категорії міст США!
15:11
The impressive system also made an error
294
911596
2901
Вражаючі системи також робили помилки,
15:14
that a human would never make, a second-grader wouldn't make.
295
914521
3651
яких людина ніколи не допустила б, яких не зробив би навіть другокласник.
15:18
Our machine intelligence can fail
296
918823
3109
Штучний інтелект може провалитися так,
15:21
in ways that don't fit error patterns of humans,
297
921956
3100
як люди зазвичай не помиляються,
15:25
in ways we won't expect and be prepared for.
298
925080
2950
так, як ми не будемо сподіватися і не будемо до цього готові.
15:28
It'd be lousy not to get a job one is qualified for,
299
928054
3638
Кепсько не отримати роботу, до якої підходить твоя кваліфікація,
15:31
but it would triple suck if it was because of stack overflow
300
931716
3727
але ще гірше не отримати її через переповнення стека
15:35
in some subroutine.
301
935467
1432
в якійсь програмі.
15:36
(Laughter)
302
936923
1579
(Сміх)
15:38
In May of 2010,
303
938526
2786
У травні 2010
15:41
a flash crash on Wall Street fueled by a feedback loop
304
941336
4044
різкий обвал на Волл-Стріт, спричинений циклом зворотнього зв'язку
15:45
in Wall Street's "sell" algorithm
305
945404
3028
в "торговому" алгоритмі,
15:48
wiped a trillion dollars of value in 36 minutes.
306
948456
4184
знищив трильйон доларів за 36 хвилин.
15:53
I don't even want to think what "error" means
307
953722
2187
Я навіть не хочу думати, що "помилка" означає
15:55
in the context of lethal autonomous weapons.
308
955933
3589
в контексті атомної системи летального озброєння.
16:01
So yes, humans have always made biases.
309
961894
3790
Так, люди завжди досить упереджені.
16:05
Decision makers and gatekeepers,
310
965708
2176
Ті, хто ухвалює рішення і цензори
16:07
in courts, in news, in war ...
311
967908
3493
в судах, у новинах, на війні...
16:11
they make mistakes; but that's exactly my point.
312
971425
3038
вони помиляються; але у цьому й річ.
16:14
We cannot escape these difficult questions.
313
974487
3521
Ми не можемо уникнути цих заплутаних питань.
16:18
We cannot outsource our responsibilities to machines.
314
978596
3516
Ми не можемо перекладати відповідальність на машини.
16:22
(Applause)
315
982676
4208
(Оплески)
16:29
Artificial intelligence does not give us a "Get out of ethics free" card.
316
989089
4447
Штучний інтелект не дає нам картку "звільнення від моральних норм".
16:34
Data scientist Fred Benenson calls this math-washing.
317
994742
3381
Фахівець з обробки даних Фред Бененсон називає це математичною чисткою.
16:38
We need the opposite.
318
998147
1389
Нам треба щось протилежне.
16:39
We need to cultivate algorithm suspicion, scrutiny and investigation.
319
999560
5388
Нам треба удосконалювати підозри, вивчення і дослідження алгоритмів.
16:45
We need to make sure we have algorithmic accountability,
320
1005380
3198
Треба впевнитись, що у нас є алгоритмічна звітність,
16:48
auditing and meaningful transparency.
321
1008602
2445
перевірка і повноцінна прозорість.
16:51
We need to accept that bringing math and computation
322
1011380
3234
Треба прийняти те, що залучення комп'ютерів до безладних
16:54
to messy, value-laden human affairs
323
1014638
2970
людських справ, заснованих на цінностях,
16:57
does not bring objectivity;
324
1017632
2384
не гарантують об'єктивності;
17:00
rather, the complexity of human affairs invades the algorithms.
325
1020040
3633
алгоритмам, навпаки, передалася заплутаність людських справ.
17:04
Yes, we can and we should use computation
326
1024148
3487
Так, нам можна і треба використовувати комп'ютери,
17:07
to help us make better decisions.
327
1027659
2014
щоб ухвалювати кращі рішення.
17:09
But we have to own up to our moral responsibility to judgment,
328
1029697
5332
Але ми маємо підкорятися моральній відповідальності за вироки суду
17:15
and use algorithms within that framework,
329
1035053
2818
і використовувати алгоритми максимум як структуру,
17:17
not as a means to abdicate and outsource our responsibilities
330
1037895
4935
а не як засіб відмовитися і перекласти відповідальність
17:22
to one another as human to human.
331
1042854
2454
на когось ще, як людина на людину.
17:25
Machine intelligence is here.
332
1045807
2609
Штучний інтелект тут.
17:28
That means we must hold on ever tighter
333
1048440
3421
І це означає, що ми мусимо триматись ще сильніше
17:31
to human values and human ethics.
334
1051885
2147
за людські цінності і людську мораль.
17:34
Thank you.
335
1054056
1154
Дякую.
17:35
(Applause)
336
1055234
5020
(Оплески)
Про цей сайт

Цей сайт познайомить вас з відеороликами YouTube, корисними для вивчення англійської мови. Ви побачите уроки англійської мови, які проводять першокласні викладачі з усього світу. Двічі клацніть на англійських субтитрах, що відображаються на кожній сторінці відео, щоб відтворити відео з цієї сторінки. Субтитри прокручуються синхронно з відтворенням відео. Якщо у вас є коментарі або побажання, будь ласка, зв'яжіться з нами за допомогою цієї контактної форми.

https://forms.gle/WvT1wiN1qDtmnspy7