Machine intelligence makes human morals more important | Zeynep Tufekci

180,762 views ・ 2016-11-11

TED


Dubbelklik op de Engelse ondertitels hieronder om de video af te spelen.

Vertaald door: Rik Delaet Nagekeken door: Peter van de Ven
00:12
So, I started my first job as a computer programmer
0
12739
4122
Ik begon mijn eerste baan als computerprogrammeur
00:16
in my very first year of college --
1
16885
1956
in mijn eerste jaar aan de universiteit.
00:18
basically, as a teenager.
2
18865
1507
Ik was nog een tiener.
00:20
Soon after I started working,
3
20889
1732
Spoedig nadat ik er begon
00:22
writing software in a company,
4
22645
1610
met het schrijven van software voor een bedrijf,
00:24
a manager who worked at the company came down to where I was,
5
24799
3635
kwam een manager van het bedrijf naar me toe en fluisterde:
00:28
and he whispered to me,
6
28458
1268
00:30
"Can he tell if I'm lying?"
7
30229
2861
"Weet hij of ik lieg?"
00:33
There was nobody else in the room.
8
33806
2077
Er was niemand anders in de kamer.
00:37
"Can who tell if you're lying? And why are we whispering?"
9
37032
4389
Ik: "Weet wie dat je liegt? En waarom fluisteren we?"
00:42
The manager pointed at the computer in the room.
10
42266
3107
De manager wees naar de computer in de kamer.
00:45
"Can he tell if I'm lying?"
11
45397
3096
"Weet hij of ik lieg?"
00:49
Well, that manager was having an affair with the receptionist.
12
49613
4362
Nu had die manager een affaire met de receptioniste.
00:53
(Laughter)
13
53999
1112
(Gelach)
00:55
And I was still a teenager.
14
55135
1766
En ik was nog een tiener.
00:57
So I whisper-shouted back to him,
15
57447
2019
Dus fluister-schreeuwde ik naar hem terug:
00:59
"Yes, the computer can tell if you're lying."
16
59490
3624
"Ja, de computer weet of je liegt."
01:03
(Laughter)
17
63138
1806
(Gelach)
01:04
Well, I laughed, but actually, the laugh's on me.
18
64968
2923
Nou, ik lachte, maar op dit moment zou ik moeten worden uitgelachen.
01:07
Nowadays, there are computational systems
19
67915
3268
Tegenwoordig zijn er computersystemen
01:11
that can suss out emotional states and even lying
20
71207
3548
die emotionele toestanden en zelfs liegen herkennen
01:14
from processing human faces.
21
74779
2044
door het interpreteren van menselijke gezichten.
01:17
Advertisers and even governments are very interested.
22
77248
4153
Adverteerders en zelfs regeringen zijn zeer geïnteresseerd.
01:22
I had become a computer programmer
23
82319
1862
Ik was computerprogrammeur geworden
01:24
because I was one of those kids crazy about math and science.
24
84205
3113
omdat ik een van die kinderen was die gek zijn op wiskunde en wetenschap.
01:27
But somewhere along the line I'd learned about nuclear weapons,
25
87942
3108
Maar ik leerde wat over kernwapens
01:31
and I'd gotten really concerned with the ethics of science.
26
91074
2952
en werd echt bezorgd over de ethiek van de wetenschap.
01:34
I was troubled.
27
94050
1204
Ik was in de war.
01:35
However, because of family circumstances,
28
95278
2641
Door familieomstandigheden
01:37
I also needed to start working as soon as possible.
29
97943
3298
moest ik zo snel mogelijk aan werk geraken.
01:41
So I thought to myself, hey, let me pick a technical field
30
101265
3299
Ik dacht, nou, laat me een technisch gebied uitkiezen
01:44
where I can get a job easily
31
104588
1796
waarin ik gemakkelijk een baan kan vinden
01:46
and where I don't have to deal with any troublesome questions of ethics.
32
106408
4018
en waar ik niet hoef in te gaan op eventuele lastige vragen over ethiek.
01:51
So I picked computers.
33
111022
1529
Dus koos ik voor computers.
01:52
(Laughter)
34
112575
1104
(Gelach)
01:53
Well, ha, ha, ha! All the laughs are on me.
35
113703
3410
Nou ja, ha, ha, ha! Lach maar.
01:57
Nowadays, computer scientists are building platforms
36
117137
2754
Tegenwoordig bouwen computerwetenschappers systemen
01:59
that control what a billion people see every day.
37
119915
4209
die elke dag een miljard mensen controleren.
02:05
They're developing cars that could decide who to run over.
38
125052
3822
Ze ontwikkelen auto's die zouden kunnen beslissen wie ze overrijden.
02:09
They're even building machines, weapons,
39
129707
3213
Ze bouwen zelfs machines, wapens,
02:12
that might kill human beings in war.
40
132944
2285
die in de oorlog mensen zouden kunnen doden.
02:15
It's ethics all the way down.
41
135253
2771
Het is ethiek, al wat de klok slaat.
02:19
Machine intelligence is here.
42
139183
2058
Machine-intelligentie is hier.
02:21
We're now using computation to make all sort of decisions,
43
141823
3474
We nemen allerlei beslissingen aan de hand van berekeningen,
02:25
but also new kinds of decisions.
44
145321
1886
maar ook nieuwe typen beslissingen.
02:27
We're asking questions to computation that have no single right answers,
45
147231
5172
We stellen vragen aan de computer waar niet één enkel antwoord op is,
02:32
that are subjective
46
152427
1202
die subjectief zijn
02:33
and open-ended and value-laden.
47
153653
2325
met een open einde en waardegeladen.
02:36
We're asking questions like,
48
156002
1758
We stellen vragen als:
02:37
"Who should the company hire?"
49
157784
1650
"Wie moet het bedrijf inhuren?"
02:40
"Which update from which friend should you be shown?"
50
160096
2759
"Welke update van welke vriend moet je te zien krijgen?"
02:42
"Which convict is more likely to reoffend?"
51
162879
2266
"Welke gevangene heeft meer kans om te recidiveren?"
02:45
"Which news item or movie should be recommended to people?"
52
165514
3054
"Welke nieuwsbericht of film moeten we aanbevelen?"
02:48
Look, yes, we've been using computers for a while,
53
168592
3372
Ik weet dat we al een tijdje computers gebruiken,
02:51
but this is different.
54
171988
1517
maar dit is anders.
02:53
This is a historical twist,
55
173529
2067
Dit is een historisch keerpunt,
02:55
because we cannot anchor computation for such subjective decisions
56
175620
5337
omdat we voor dergelijke subjectieve beslissingen
niet op berekeningen kunnen vertrouwen,
03:00
the way we can anchor computation for flying airplanes, building bridges,
57
180981
5420
zoals we dat doen voor het vliegen van vliegtuigen, het bouwen van bruggen
03:06
going to the moon.
58
186425
1259
of naar de maan gaan.
03:08
Are airplanes safer? Did the bridge sway and fall?
59
188449
3259
Zijn vliegtuigen veiliger? Is de brug gaan zwaaien en ingestort?
03:11
There, we have agreed-upon, fairly clear benchmarks,
60
191732
4498
Daar hebben we vrij duidelijke normen voor afgesproken
03:16
and we have laws of nature to guide us.
61
196254
2239
en we hebben natuurwetten om ons te leiden.
03:18
We have no such anchors and benchmarks
62
198517
3394
Dergelijke ijkpunten en normen hebben we niet
03:21
for decisions in messy human affairs.
63
201935
3963
voor besluiten in rommelige menselijke aangelegenheden.
03:25
To make things more complicated, our software is getting more powerful,
64
205922
4237
Om de zaken nog ingewikkelder te maken, wordt onze software steeds krachtiger,
03:30
but it's also getting less transparent and more complex.
65
210183
3773
maar ook steeds minder transparant en complexer.
03:34
Recently, in the past decade,
66
214542
2040
Recentelijk, in het afgelopen decennium,
03:36
complex algorithms have made great strides.
67
216606
2729
hebben complexe algoritmen grote vooruitgang geboekt.
03:39
They can recognize human faces.
68
219359
1990
Ze kunnen menselijke gezichten herkennen.
03:41
They can decipher handwriting.
69
221985
2055
Ze kunnen handschrift ontcijferen.
03:44
They can detect credit card fraud
70
224436
2066
Ze kunnen creditcardfraude detecteren,
03:46
and block spam
71
226526
1189
spam blokkeren
03:47
and they can translate between languages.
72
227739
2037
en vertalingen maken.
03:49
They can detect tumors in medical imaging.
73
229800
2574
Ze kunnen tumoren detecteren bij medische beeldvorming.
03:52
They can beat humans in chess and Go.
74
232398
2205
Ze kunnen mensen met schaken en go verslaan.
03:55
Much of this progress comes from a method called "machine learning."
75
235264
4504
Een groot deel van deze vooruitgang
komt van een methode 'machine learning' genaamd.
04:00
Machine learning is different than traditional programming,
76
240175
3187
Machine learning is anders dan het traditionele programmeren,
04:03
where you give the computer detailed, exact, painstaking instructions.
77
243386
3585
waar je de computer gedetailleerde, exacte, nauwgezette instructies geeft.
04:07
It's more like you take the system and you feed it lots of data,
78
247378
4182
Het is meer alsof je het systeem veel data voert,
04:11
including unstructured data,
79
251584
1656
ook ongestructureerde data,
04:13
like the kind we generate in our digital lives.
80
253264
2278
zoals we ze genereren in ons digitale leven.
04:15
And the system learns by churning through this data.
81
255566
2730
En het systeem leert door op deze gegeven te broeden.
04:18
And also, crucially,
82
258669
1526
Ook van cruciaal belang is
04:20
these systems don't operate under a single-answer logic.
83
260219
4380
dat deze systemen niet werken met een één-antwoord logica.
04:24
They don't produce a simple answer; it's more probabilistic:
84
264623
2959
Ze geven geen simpel antwoord; het is meer probabilistisch:
04:27
"This one is probably more like what you're looking for."
85
267606
3483
"Dit is waarschijnlijk meer wat je zoekt."
04:32
Now, the upside is: this method is really powerful.
86
272023
3070
Het voordeel is dat deze methode echt krachtig is.
04:35
The head of Google's AI systems called it,
87
275117
2076
Het hoofd van Google's AI-systemen noemde het:
04:37
"the unreasonable effectiveness of data."
88
277217
2197
"De onredelijke effectiviteit van data."
04:39
The downside is,
89
279791
1353
Het nadeel is
04:41
we don't really understand what the system learned.
90
281738
3071
dat we niet echt begrijpen wat het systeem leerde.
04:44
In fact, that's its power.
91
284833
1587
Dat is in feite zijn kracht.
04:46
This is less like giving instructions to a computer;
92
286946
3798
Dit lijkt minder op het geven van instructies aan een ​​computer
04:51
it's more like training a puppy-machine-creature
93
291200
4064
dan op het trainen van een puppy-machine-schepsel
04:55
we don't really understand or control.
94
295288
2371
dat we niet echt begrijpen of controleren.
04:58
So this is our problem.
95
298362
1551
Dus dit is ons probleem.
05:00
It's a problem when this artificial intelligence system gets things wrong.
96
300427
4262
Als het kunstmatige-intelligentie systeem in de fout gaat, hebben we een probleem.
05:04
It's also a problem when it gets things right,
97
304713
3540
Het is ook een probleem wanneer het goed werkt,
05:08
because we don't even know which is which when it's a subjective problem.
98
308277
3628
omdat we niet eens weten
wanneer het in de fout gaat bij een subjectief probleem.
05:11
We don't know what this thing is thinking.
99
311929
2339
We weten niet wat dit ding denkt.
05:15
So, consider a hiring algorithm --
100
315493
3683
Denk eens aan een algoritme voor aanwerving --
05:20
a system used to hire people, using machine-learning systems.
101
320123
4311
een systeem dat wordt gebruikt om mensen aan te nemen
met behulp van machine learning-systemen.
05:25
Such a system would have been trained on previous employees' data
102
325052
3579
Een dergelijk systeem werd getraind met data van vroegere werknemers
05:28
and instructed to find and hire
103
328655
2591
en geïnstrueerd voor het vinden en inhuren
05:31
people like the existing high performers in the company.
104
331270
3038
van mensen zoals de beste presteerders in het bedrijf.
05:34
Sounds good.
105
334814
1153
Klinkt goed.
05:35
I once attended a conference
106
335991
1999
Ik heb eens een conferentie bijgewoond
05:38
that brought together human resources managers and executives,
107
338014
3125
met human-resourcesmanagers en leidinggevenden,
hoge pieten,
05:41
high-level people,
108
341163
1206
die dergelijke systemen voor het inhuren gebruiken.
05:42
using such systems in hiring.
109
342393
1559
05:43
They were super excited.
110
343976
1646
Ze waren superenthousiast.
05:45
They thought that this would make hiring more objective, less biased,
111
345646
4653
Ze dachten dat dit het inhuren
objectiever en minder bevooroordeeld zou maken
05:50
and give women and minorities a better shot
112
350323
3000
en vrouwen en minderheden betere kansen zouden geven
05:53
against biased human managers.
113
353347
2188
ten opzichte van vooringenomen menselijke managers.
05:55
And look -- human hiring is biased.
114
355559
2843
En ja -- het inhuren door mensen is bevooroordeeld.
05:59
I know.
115
359099
1185
Ik weet het.
06:00
I mean, in one of my early jobs as a programmer,
116
360308
3005
In een van mijn eerste banen als programmeur
06:03
my immediate manager would sometimes come down to where I was
117
363337
3868
kwam mijn directe manager soms naar me toe,
06:07
really early in the morning or really late in the afternoon,
118
367229
3753
heel vroeg in de ochtend of erg laat in de middag,
06:11
and she'd say, "Zeynep, let's go to lunch!"
119
371006
3062
en zei: "Zeynep, laten we gaan lunchen!"
06:14
I'd be puzzled by the weird timing.
120
374724
2167
Ik was verbaasd over de vreemde timing.
06:16
It's 4pm. Lunch?
121
376915
2129
Het is vier uur in de namiddag. Lunch?
06:19
I was broke, so free lunch. I always went.
122
379068
3094
Ik was blut. Dus gratis lunch? Ik ging altijd mee.
06:22
I later realized what was happening.
123
382618
2067
Ik besefte pas later wat er loos was.
06:24
My immediate managers had not confessed to their higher-ups
124
384709
4546
Mijn directe managers hadden hun oversten niet verteld
dat de programmeur die ze voor een serieuze baan hadden ingehuurd
06:29
that the programmer they hired for a serious job was a teen girl
125
389279
3113
06:32
who wore jeans and sneakers to work.
126
392416
3930
een tienermeisje was
dat op het werk een spijkerbroek en sportschoenen droeg.
Ik deed mijn werk goed, ik zag er alleen niet uit
06:37
I was doing a good job, I just looked wrong
127
397174
2202
06:39
and was the wrong age and gender.
128
399400
1699
en had de verkeerde leeftijd en geslacht.
06:41
So hiring in a gender- and race-blind way
129
401123
3346
Dus inhuren zonder oog voor geslacht of ras,
06:44
certainly sounds good to me.
130
404493
1865
daar kan ik alleen maar blij mee zijn.
06:47
But with these systems, it is more complicated, and here's why:
131
407031
3341
Maar met deze systemen ligt het ingewikkelder en wel hierom:
06:50
Currently, computational systems can infer all sorts of things about you
132
410968
5791
momenteel kunnen computersystemen allerlei dingen over je afleiden
06:56
from your digital crumbs,
133
416783
1872
uit je digitale kruimels,
06:58
even if you have not disclosed those things.
134
418679
2333
zelfs als je die dingen niet hebt verteld.
07:01
They can infer your sexual orientation,
135
421506
2927
Ze kunnen je seksuele geaardheid afleiden,
07:04
your personality traits,
136
424994
1306
je persoonlijkheidskenmerken,
07:06
your political leanings.
137
426859
1373
je politieke kleur.
07:08
They have predictive power with high levels of accuracy.
138
428830
3685
Ze kunnen met grote nauwkeurigheid voorspellen.
07:13
Remember -- for things you haven't even disclosed.
139
433362
2578
Nogmaals -- ook voor dingen die je nog niet eens hebt bekendgemaakt.
07:15
This is inference.
140
435964
1591
Dat is inferentie.
07:17
I have a friend who developed such computational systems
141
437579
3261
Ik heb een vriend die dergelijke computersystemen heeft ontwikkeld
07:20
to predict the likelihood of clinical or postpartum depression
142
440864
3641
om de waarschijnlijkheid van klinische of postpartumdepressie te voorspellen
07:24
from social media data.
143
444529
1416
op basis van social-mediagegevens.
07:26
The results are impressive.
144
446676
1427
De resultaten zijn indrukwekkend.
07:28
Her system can predict the likelihood of depression
145
448492
3357
Haar systeem kan de kans op depressie voorspellen
07:31
months before the onset of any symptoms --
146
451873
3903
maanden vóór het begin van de symptomen --
07:35
months before.
147
455800
1373
maanden eerder.
07:37
No symptoms, there's prediction.
148
457197
2246
Geen symptomen, wel een voorspelling.
07:39
She hopes it will be used for early intervention. Great!
149
459467
4812
Ze hoopt dat ​​het zal worden gebruikt voor vroege interventie. Geweldig!
07:44
But now put this in the context of hiring.
150
464911
2040
Maar bekijk dat nu eens in het kader van aanwerven.
07:48
So at this human resources managers conference,
151
468027
3046
Op deze conferentie voor human-resourcesmanagers
07:51
I approached a high-level manager in a very large company,
152
471097
4709
benaderde ik een vooraanstaande manager van een zeer groot bedrijf
07:55
and I said to her, "Look, what if, unbeknownst to you,
153
475830
4578
en zei tegen haar: "Kijk, wat als zonder dat je het weet,
08:00
your system is weeding out people with high future likelihood of depression?
154
480432
6549
je systeem mensen met een hoge toekomstige kans op depressie uitwiedt?
08:07
They're not depressed now, just maybe in the future, more likely.
155
487761
3376
Ze zijn nu niet depressief, maar in de toekomst waarschijnlijk wel.
08:11
What if it's weeding out women more likely to be pregnant
156
491923
3406
Wat als het vrouwen uitwiedt omdat ze kans hebben om zwanger te worden
08:15
in the next year or two but aren't pregnant now?
157
495353
2586
in de volgende paar jaar, maar nu niet zwanger zijn?
08:18
What if it's hiring aggressive people because that's your workplace culture?"
158
498844
5636
Wat als het agressieve mensen inhuurt, omdat dat jullie werkplekcultuur is?"
Je weet dit niet door te kijken naar analyses voor geslacht.
08:25
You can't tell this by looking at gender breakdowns.
159
505173
2691
08:27
Those may be balanced.
160
507888
1502
Die kunnen in evenwicht zijn.
08:29
And since this is machine learning, not traditional coding,
161
509414
3557
En aangezien dit machine learning is en geen traditioneel programmeren,
08:32
there is no variable there labeled "higher risk of depression,"
162
512995
4907
is er geen variabele gelabeld 'groter risico op depressie',
08:37
"higher risk of pregnancy,"
163
517926
1833
'hoger risico op zwangerschap'
08:39
"aggressive guy scale."
164
519783
1734
of een 'agressieve-man-schaal'.
08:41
Not only do you not know what your system is selecting on,
165
521995
3679
Niet alleen weet je niet waarop jouw systeem selecteert,
08:45
you don't even know where to begin to look.
166
525698
2323
je weet niet eens waar je moet gaan zoeken.
08:48
It's a black box.
167
528045
1246
Het is een zwarte doos.
08:49
It has predictive power, but you don't understand it.
168
529315
2807
Het heeft voorspellende kracht, maar je begrijpt het niet.
08:52
"What safeguards," I asked, "do you have
169
532486
2369
"Welke garanties", vroeg ik, "heb je
08:54
to make sure that your black box isn't doing something shady?"
170
534879
3673
om ervoor te zorgen dat jouw zwarte doos geen rare dingen gaat doen?"
09:00
She looked at me as if I had just stepped on 10 puppy tails.
171
540863
3878
Ze keek me aan alsof ik op tien puppystaarten tegelijk trapte.
09:04
(Laughter)
172
544765
1248
(Gelach)
09:06
She stared at me and she said,
173
546037
2041
Ze keek me aan en zei:
09:08
"I don't want to hear another word about this."
174
548556
4333
"Hier wil ik geen woord meer over horen."
09:13
And she turned around and walked away.
175
553458
2034
En ze draaide zich om en liep weg.
09:16
Mind you -- she wasn't rude.
176
556064
1486
Let wel -- ze was niet onbeleefd.
09:17
It was clearly: what I don't know isn't my problem, go away, death stare.
177
557574
6308
Het was duidelijk: wat ik niet weet, is mijn probleem niet, ga weg, lege blik.
09:23
(Laughter)
178
563906
1246
(Gelach)
09:25
Look, such a system may even be less biased
179
565862
3839
Kijk, een dergelijk systeem kan misschien minder bevooroordeeld zijn
09:29
than human managers in some ways.
180
569725
2103
dan menselijke managers, in sommige opzichten.
09:31
And it could make monetary sense.
181
571852
2146
Het kan misschien wel geld besparen.
09:34
But it could also lead
182
574573
1650
Maar het kan ook leiden
09:36
to a steady but stealthy shutting out of the job market
183
576247
4748
tot een gestage, maar sluipende uitsluiting uit de arbeidsmarkt
09:41
of people with higher risk of depression.
184
581019
2293
van mensen met een hoger risico op depressie.
09:43
Is this the kind of society we want to build,
185
583753
2596
Is dit het soort samenleving dat we willen,
zonder zelfs maar te weten dat we dat hebben gedaan,
09:46
without even knowing we've done this,
186
586373
2285
09:48
because we turned decision-making to machines we don't totally understand?
187
588682
3964
omdat we besluitvorming delegeerden naar machines
die we niet helemaal begrijpen?
09:53
Another problem is this:
188
593265
1458
Een ander probleem is dit:
09:55
these systems are often trained on data generated by our actions,
189
595314
4452
deze systemen worden vaak getraind met data gegenereerd door onze acties,
09:59
human imprints.
190
599790
1816
menselijke indrukken.
10:02
Well, they could just be reflecting our biases,
191
602188
3808
Nou, die zouden wel eens onze vooroordelen kunnen weerspiegelen,
10:06
and these systems could be picking up on our biases
192
606020
3593
welke die systemen vervolgens vlekkeloos overnemen,
10:09
and amplifying them
193
609637
1313
ze versterken
10:10
and showing them back to us,
194
610974
1418
en weer aan ons terugkaatsen,
10:12
while we're telling ourselves,
195
612416
1462
terwijl we onszelf wijsmaken:
10:13
"We're just doing objective, neutral computation."
196
613902
3117
"We maken objectieve, neutrale berekeningen."
10:18
Researchers found that on Google,
197
618314
2677
Onderzoekers ontdekten dat op Google
10:22
women are less likely than men to be shown job ads for high-paying jobs.
198
622134
5313
vrouwen minder kans hebben dan mannen
om vacatures voor goedbetaalde banen te zien te krijgen.
10:28
And searching for African-American names
199
628463
2530
Het zoeken naar Afro-Amerikaanse namen
10:31
is more likely to bring up ads suggesting criminal history,
200
631017
4706
geeft een grotere kans op advertenties
die een criminele geschiedenis suggereren,
10:35
even when there is none.
201
635747
1567
zelfs wanneer er geen is.
10:38
Such hidden biases and black-box algorithms
202
638693
3549
Dergelijke verborgen vooroordelen en zwarte-doosalgoritmen,
10:42
that researchers uncover sometimes but sometimes we don't know,
203
642266
3973
die onderzoekers soms ontdekken maar soms ook niet,
10:46
can have life-altering consequences.
204
646263
2661
kunnen iemands leven diepgaand beïnvloeden.
10:49
In Wisconsin, a defendant was sentenced to six years in prison
205
649958
4159
In Wisconsin werd een verdachte veroordeeld tot zes jaar gevangenis
10:54
for evading the police.
206
654141
1355
door te gaan lopen voor de politie.
10:56
You may not know this,
207
656824
1186
Misschien weten jullie dit niet,
10:58
but algorithms are increasingly used in parole and sentencing decisions.
208
658034
3998
maar algoritmen worden steeds meer gebruikt
bij voorwaardelijke invrijheidstelling en straftoemeting.
11:02
He wanted to know: How is this score calculated?
209
662056
2955
Hij wilde weten hoe dat deze score berekend wordt.
11:05
It's a commercial black box.
210
665795
1665
Het is een commerciële zwarte doos.
11:07
The company refused to have its algorithm be challenged in open court.
211
667484
4205
Het bedrijf weigerde
zijn algoritme in een openbare rechtszitting te laten betwisten.
11:12
But ProPublica, an investigative nonprofit, audited that very algorithm
212
672396
5532
Maar ProPublica, een onderzoekende non-profit, testte dat algoritme
11:17
with what public data they could find,
213
677952
2016
met openbare gegevens die ze konden vinden,
11:19
and found that its outcomes were biased
214
679992
2316
en vond dat de resultaten ervan bevooroordeeld waren
11:22
and its predictive power was dismal, barely better than chance,
215
682332
3629
en dat de voorspellende kracht onduidelijk en nauwelijks beter dan het toeval was.
11:25
and it was wrongly labeling black defendants as future criminals
216
685985
4416
Ze labelde zwarte verdachten onterecht als toekomstige criminelen
11:30
at twice the rate of white defendants.
217
690425
3895
en wel twee keer zo vaak als blanken.
11:35
So, consider this case:
218
695891
1564
Bekijk dit geval:
11:38
This woman was late picking up her godsister
219
698103
3852
deze vrouw was wat laat om een meisje op te pikken
11:41
from a school in Broward County, Florida,
220
701979
2075
op een school in Broward County, Florida.
11:44
running down the street with a friend of hers.
221
704757
2356
Ze liep op straat met een vriendin.
11:47
They spotted an unlocked kid's bike and a scooter on a porch
222
707137
4099
Op een veranda zagen ze een kinderfiets en een scooter.
11:51
and foolishly jumped on it.
223
711260
1632
Zonder nadenken sprongen ze erop.
11:52
As they were speeding off, a woman came out and said,
224
712916
2599
Terwijl ze wegreden, kwam een vrouw naar buiten en zei:
11:55
"Hey! That's my kid's bike!"
225
715539
2205
"Hé! Dat is de fiets van mijn kind!"
11:57
They dropped it, they walked away, but they were arrested.
226
717768
3294
Ze lieten hem vallen, liepen door, maar werden gearresteerd.
12:01
She was wrong, she was foolish, but she was also just 18.
227
721086
3637
Ze ging in de fout, ze was dom, maar ze was ook pas 18.
12:04
She had a couple of juvenile misdemeanors.
228
724747
2544
Ze had een paar jeugdmisdrijven op haar naam.
12:07
Meanwhile, that man had been arrested for shoplifting in Home Depot --
229
727808
5185
Ondertussen werd deze man gearresteerd voor winkeldiefstal in Home Depot --
12:13
85 dollars' worth of stuff, a similar petty crime.
230
733017
2924
85 dollar aan spullen, soortgelijke kleine criminaliteit.
12:16
But he had two prior armed robbery convictions.
231
736766
4559
Maar hij had twee eerdere veroordelingen voor gewapende overval.
12:21
But the algorithm scored her as high risk, and not him.
232
741955
3482
Het algoritme scoorde haar als hoog risico en hem niet.
12:26
Two years later, ProPublica found that she had not reoffended.
233
746746
3874
Twee jaar later vond ProPublica dat ze niet had gerecidiveerd.
12:30
It was just hard to get a job for her with her record.
234
750644
2550
Maar ze vond wel moeilijk een ​​baan met haar strafblad.
12:33
He, on the other hand, did reoffend
235
753218
2076
Hij daarentegen recidiveerde
12:35
and is now serving an eight-year prison term for a later crime.
236
755318
3836
en zit nu voor acht jaar in de gevangenis voor een latere misdaad.
12:40
Clearly, we need to audit our black boxes
237
760088
3369
Het is duidelijk dat we onze zwarte dozen moeten controleren
12:43
and not have them have this kind of unchecked power.
238
763481
2615
en ze niet dit soort ongecontroleerde macht moeten geven.
12:46
(Applause)
239
766120
2879
(Applaus)
12:50
Audits are great and important, but they don't solve all our problems.
240
770087
4242
Audits zijn geweldig en belangrijk, maar ze lossen niet al onze problemen op.
12:54
Take Facebook's powerful news feed algorithm --
241
774353
2748
Neem Facebook's krachtige nieuwsfeed-algoritme --
12:57
you know, the one that ranks everything and decides what to show you
242
777125
4843
je weet wel, hetgeen dat alles sorteert en beslist wat jij te zien krijgt
13:01
from all the friends and pages you follow.
243
781992
2284
van alle vrienden en pagina's die je volgt.
13:04
Should you be shown another baby picture?
244
784898
2275
Moet je nog een babyfoto voorgeschoteld krijgen?
13:07
(Laughter)
245
787197
1196
(Gelach)
13:08
A sullen note from an acquaintance?
246
788417
2596
Een sombere opmerking van een kennis?
13:11
An important but difficult news item?
247
791449
1856
Een belangrijk maar moeilijk nieuwsbericht?
13:13
There's no right answer.
248
793329
1482
Er is geen juist antwoord.
13:14
Facebook optimizes for engagement on the site:
249
794835
2659
Facebook optimaliseert voor betrokkenheid op de site:
13:17
likes, shares, comments.
250
797518
1415
wat je leuk vindt, deelt of becommentarieert.
13:20
In August of 2014,
251
800168
2696
In augustus 2014
13:22
protests broke out in Ferguson, Missouri,
252
802888
2662
braken protesten uit in Ferguson, Missouri,
13:25
after the killing of an African-American teenager by a white police officer,
253
805574
4417
na het doden van een Afro-Amerikaanse tiener door een blanke politieagent
13:30
under murky circumstances.
254
810015
1570
onder duistere omstandigheden.
13:31
The news of the protests was all over
255
811974
2007
Het nieuws van de protesten was prominent aanwezig
13:34
my algorithmically unfiltered Twitter feed,
256
814005
2685
op mijn algoritmisch ongefilterde Twitter-feed,
13:36
but nowhere on my Facebook.
257
816714
1950
maar nergens op mijn Facebook.
13:39
Was it my Facebook friends?
258
819182
1734
Waren het mijn Facebookvrienden?
13:40
I disabled Facebook's algorithm,
259
820940
2032
Ik schakelde het Facebookalgoritme uit,
13:43
which is hard because Facebook keeps wanting to make you
260
823472
2848
wat moeilijk is, want Facebook houdt je liever
13:46
come under the algorithm's control,
261
826344
2036
onder de controle van het algoritme.
13:48
and saw that my friends were talking about it.
262
828404
2238
Ik zag dat mijn vrienden erover praatten.
13:50
It's just that the algorithm wasn't showing it to me.
263
830666
2509
Maar het algoritme liet het me niet zien.
13:53
I researched this and found this was a widespread problem.
264
833199
3042
Ik onderzocht dit en vond dat dit een wijdverbreid probleem was.
13:56
The story of Ferguson wasn't algorithm-friendly.
265
836265
3813
Het verhaal van Ferguson was niet 'algoritmevriendelijk'.
Het was niet 'sympathiek'.
14:00
It's not "likable."
266
840102
1171
14:01
Who's going to click on "like?"
267
841297
1552
Wie gaat er een 'vind ik leuk' aan geven?
14:03
It's not even easy to comment on.
268
843500
2206
Het is zelfs niet makkelijk te becommentariëren.
14:05
Without likes and comments,
269
845730
1371
Zonder vind-ik-leuk's en commentaar
14:07
the algorithm was likely showing it to even fewer people,
270
847125
3292
toonde het algoritme het waarschijnlijk aan nog minder mensen,
14:10
so we didn't get to see this.
271
850441
1542
zodat we het niet te zien kregen.
14:12
Instead, that week,
272
852946
1228
In plaats daarvan benadrukte Facebook's algoritme die week dit:
14:14
Facebook's algorithm highlighted this,
273
854198
2298
14:16
which is the ALS Ice Bucket Challenge.
274
856520
2226
de ALS Ice Bucket Challenge.
14:18
Worthy cause; dump ice water, donate to charity, fine.
275
858770
3742
Giet ijswater, doneer aan een goed doel, allemaal fijn.
14:22
But it was super algorithm-friendly.
276
862536
1904
Maar het was uiterst algoritmevriendelijk.
14:25
The machine made this decision for us.
277
865219
2613
De machine nam die beslissing voor ons.
14:27
A very important but difficult conversation
278
867856
3497
Een zeer belangrijk maar moeilijk gesprek
14:31
might have been smothered,
279
871377
1555
zou zijn gesmoord,
14:32
had Facebook been the only channel.
280
872956
2696
als Facebook het enige kanaal was geweest.
14:36
Now, finally, these systems can also be wrong
281
876117
3797
Nu kunnen deze systemen ook verkeerd zijn
14:39
in ways that don't resemble human systems.
282
879938
2736
op een manier die niet op menselijke systemen lijkt.
14:42
Do you guys remember Watson, IBM's machine-intelligence system
283
882698
2922
Herinneren jullie zich Watson, IBM's machine-intelligentie-systeem
14:45
that wiped the floor with human contestants on Jeopardy?
284
885644
3128
dat op Jeopardy de vloer aanveegde met de menselijke deelnemers?
14:49
It was a great player.
285
889131
1428
Het was een geweldige speler.
14:50
But then, for Final Jeopardy, Watson was asked this question:
286
890583
3569
Maar in de finale kreeg Watson deze vraag:
14:54
"Its largest airport is named for a World War II hero,
287
894659
2932
"Zijn grootste luchthaven is vernoemd naar een held uit WO II,
14:57
its second-largest for a World War II battle."
288
897615
2252
zijn tweede grootste naar een slag uit WO II."
14:59
(Hums Final Jeopardy music)
289
899891
1378
(Neuriet Final Jeopardy-muziek)
15:01
Chicago.
290
901582
1182
Chicago.
15:02
The two humans got it right.
291
902788
1370
De twee mensen hadden het goed.
15:04
Watson, on the other hand, answered "Toronto" --
292
904697
4348
Maar Watson antwoordde "Toronto" --
15:09
for a US city category!
293
909069
1818
voor een stad van de VS!
15:11
The impressive system also made an error
294
911596
2901
Het indrukwekkende systeem maakte ook een fout
15:14
that a human would never make, a second-grader wouldn't make.
295
914521
3651
die een mens nooit zou maken, die een zevenjarige niet zou maken.
15:18
Our machine intelligence can fail
296
918823
3109
Onze machine-intelligentie kan mislukken
15:21
in ways that don't fit error patterns of humans,
297
921956
3100
op een manier die niet past in foutpatronen van mensen,
15:25
in ways we won't expect and be prepared for.
298
925080
2950
op een onverwachte manier waarop we niet zijn voorbereid.
15:28
It'd be lousy not to get a job one is qualified for,
299
928054
3638
Het zou stom zijn om een ​​baan mis te lopen
waarvoor je gekwalificeerd bent,
15:31
but it would triple suck if it was because of stack overflow
300
931716
3727
maar het zou driedubbel stom zijn als het was vanwege een stack overflow
15:35
in some subroutine.
301
935467
1432
in de een of andere subroutine.
15:36
(Laughter)
302
936923
1579
(Gelach)
15:38
In May of 2010,
303
938526
2786
In mei 2010
15:41
a flash crash on Wall Street fueled by a feedback loop
304
941336
4044
ontstond een flash crash op Wall Street, aangewakkerd door een terugkoppeling
15:45
in Wall Street's "sell" algorithm
305
945404
3028
in Wall Streets 'verkopen'-algoritme.
15:48
wiped a trillion dollars of value in 36 minutes.
306
948456
4184
Het wiste een biljoen dollar weg in 36 minuten.
15:53
I don't even want to think what "error" means
307
953722
2187
Ik wil er niet eens aan denken wat 'fout' betekent
15:55
in the context of lethal autonomous weapons.
308
955933
3589
als het over dodelijke autonome wapens gaat.
16:01
So yes, humans have always made biases.
309
961894
3790
Dus ja, mensen hebben altijd vooroordelen.
16:05
Decision makers and gatekeepers,
310
965708
2176
Beslissers en bewakers,
16:07
in courts, in news, in war ...
311
967908
3493
in rechtbanken, in het nieuws, in de oorlog...
16:11
they make mistakes; but that's exactly my point.
312
971425
3038
maken ze fouten; maar dat is precies wat ik bedoel.
16:14
We cannot escape these difficult questions.
313
974487
3521
We kunnen niet ontsnappen aan deze moeilijke vragen.
16:18
We cannot outsource our responsibilities to machines.
314
978596
3516
We kunnen onze verantwoordelijkheden niet uitbesteden aan machines.
16:22
(Applause)
315
982676
4208
(Applaus)
16:29
Artificial intelligence does not give us a "Get out of ethics free" card.
316
989089
4447
Kunstmatige intelligentie stelt ons niet vrij van de ethische vraagstukken.
16:34
Data scientist Fred Benenson calls this math-washing.
317
994742
3381
Datawetenschapper Fred Benenson noemt dit 'wiskunde-wassen'.
16:38
We need the opposite.
318
998147
1389
We moeten het tegenovergestelde doen.
16:39
We need to cultivate algorithm suspicion, scrutiny and investigation.
319
999560
5388
Algoritmes verdienen een cultuur van achterdocht, controle en onderzoek.
16:45
We need to make sure we have algorithmic accountability,
320
1005380
3198
We moeten zorgen voor algoritmische verantwoording,
16:48
auditing and meaningful transparency.
321
1008602
2445
auditing en betekenisvolle transparantie.
16:51
We need to accept that bringing math and computation
322
1011380
3234
We moeten accepteren dat het toepassen van wiskunde en berekening
16:54
to messy, value-laden human affairs
323
1014638
2970
op rommelige, waardegeladen menselijke aangelegenheden
16:57
does not bring objectivity;
324
1017632
2384
geen objectiviteit met zich meebrengt,
17:00
rather, the complexity of human affairs invades the algorithms.
325
1020040
3633
maar dat de complexiteit van menselijke aangelegenheden in de algoritmen sluipt.
17:04
Yes, we can and we should use computation
326
1024148
3487
Ja, we kunnen en we moeten berekening gebruiken
17:07
to help us make better decisions.
327
1027659
2014
om ons te helpen om betere beslissingen te nemen.
17:09
But we have to own up to our moral responsibility to judgment,
328
1029697
5332
Maar het uiteindelijke oordeel blijft onze morele verantwoordelijkheid,
17:15
and use algorithms within that framework,
329
1035053
2818
en binnen dat kader kunnen we algoritmen gebruiken,
17:17
not as a means to abdicate and outsource our responsibilities
330
1037895
4935
niet als een middel om onze verantwoordelijkheden
17:22
to one another as human to human.
331
1042854
2454
van mens tot mens te ontlopen.
17:25
Machine intelligence is here.
332
1045807
2609
Machine-intelligentie is hier.
17:28
That means we must hold on ever tighter
333
1048440
3421
Dat betekent dat we steeds strakker moeten vasthouden
17:31
to human values and human ethics.
334
1051885
2147
aan menselijke waarden en menselijke ethiek.
17:34
Thank you.
335
1054056
1154
Dank je.
17:35
(Applause)
336
1055234
5020
(Applaus)
Over deze website

Deze site laat u kennismaken met YouTube-video's die nuttig zijn om Engels te leren. U ziet Engelse lessen gegeven door topdocenten uit de hele wereld. Dubbelklik op de Engelse ondertitels op elke videopagina om de video af te spelen. De ondertitels scrollen synchroon met het afspelen van de video. Heeft u opmerkingen of verzoeken, neem dan contact met ons op via dit contactformulier.

https://forms.gle/WvT1wiN1qDtmnspy7