The era of blind faith in big data must end | Cathy O'Neil

232,156 views

2017-09-07 ・ TED


New videos

The era of blind faith in big data must end | Cathy O'Neil

232,156 views ・ 2017-09-07

TED


Fare doppio clic sui sottotitoli in inglese per riprodurre il video.

Traduttore: Gabriella Patricola Revisore: Silvia Fornasiero
00:12
Algorithms are everywhere.
0
12795
1596
Gli algoritmi sono ovunque.
00:15
They sort and separate the winners from the losers.
1
15931
3125
Selezionano e separano i vincitori dai perdenti.
00:19
The winners get the job
2
19839
2264
I vincitori ottengono il lavoro
00:22
or a good credit card offer.
3
22127
1743
o l'offerta di una buona carta di credito.
00:23
The losers don't even get an interview
4
23894
2651
I perdenti non ottengono neanche un colloquio di lavoro
00:27
or they pay more for insurance.
5
27410
1777
o pagano di più per l'assicurazione.
00:30
We're being scored with secret formulas that we don't understand
6
30017
3549
Siamo valutati da formule segrete che non comprendiamo
00:34
that often don't have systems of appeal.
7
34495
3217
che spesso non prevedono sistemi cui poter fare ricorso.
Questo solleva la domanda:
00:39
That begs the question:
8
39060
1296
00:40
What if the algorithms are wrong?
9
40380
2913
e se gli algoritmi si sbagliano?
00:44
To build an algorithm you need two things:
10
44920
2040
Per creare algoritmi servono due cose:
00:46
you need data, what happened in the past,
11
46984
1981
servono dati, cos'è avvenuto in passato,
00:48
and a definition of success,
12
48989
1561
e una definizione di successo,
00:50
the thing you're looking for and often hoping for.
13
50574
2457
ciò che state cercando e spesso sperando di ottenere.
00:53
You train an algorithm by looking, figuring out.
14
53055
5037
L'algoritmo si verifica cercando, risolvendo.
00:58
The algorithm figures out what is associated with success.
15
58116
3419
Gli algoritmi chiariscono con precisione ciò che è associato al successo,
01:01
What situation leads to success?
16
61559
2463
quale situazione porta al successo.
01:04
Actually, everyone uses algorithms.
17
64701
1762
In realtà, tutti usano algoritmi.
01:06
They just don't formalize them in written code.
18
66487
2718
Solo che non li formalizzano attraverso un codice scritto.
01:09
Let me give you an example.
19
69229
1348
Vi faccio un esempio.
01:10
I use an algorithm every day to make a meal for my family.
20
70601
3316
Io uso un algoritmo ogni giorno per cucinare per la mia famiglia.
01:13
The data I use
21
73941
1476
I dati che uso
01:16
is the ingredients in my kitchen,
22
76214
1659
sono ingredienti della mia cucina,
01:17
the time I have,
23
77897
1527
il tempo che ho,
01:19
the ambition I have,
24
79448
1233
l'ambizione che ho,
01:20
and I curate that data.
25
80705
1709
e curo quei dati.
01:22
I don't count those little packages of ramen noodles as food.
26
82438
4251
Non considero cibo quei pacchettini di noodles istantanei.
01:26
(Laughter)
27
86713
1869
(Risate)
01:28
My definition of success is:
28
88606
1845
La mia definizione di successo é:
01:30
a meal is successful if my kids eat vegetables.
29
90475
2659
un pasto è ben riuscito se i miei figli mangiano verdure.
Sarebbe molto diverso se fosse mio figlio più piccolo a decidere.
01:34
It's very different from if my youngest son were in charge.
30
94001
2854
01:36
He'd say success is if he gets to eat lots of Nutella.
31
96879
2788
Lui direbbe che il successo è mangiare tanta Nutella.
01:40
But I get to choose success.
32
100999
2226
Ma sono io a scegliere cos'è il successo.
01:43
I am in charge. My opinion matters.
33
103249
2707
Comando io. È la mia opinione che conta.
01:45
That's the first rule of algorithms.
34
105980
2675
Questa è la prima regola degli algoritmi.
01:48
Algorithms are opinions embedded in code.
35
108679
3180
Gli algoritmi sono opinioni racchiuse in codici.
01:53
It's really different from what you think most people think of algorithms.
36
113382
3663
È molto diverso da ciò che pensate,
che la maggior parte della gente pensa degli algoritmi.
01:57
They think algorithms are objective and true and scientific.
37
117069
4504
Si pensa che gli algoritmi siano oggettivi e realistici e scientifici.
02:02
That's a marketing trick.
38
122207
1699
È un inganno del marketing.
02:05
It's also a marketing trick
39
125089
2125
È un inganno del marketing anche
02:07
to intimidate you with algorithms,
40
127238
3154
quello di minacciarvi con gli algoritmi,
02:10
to make you trust and fear algorithms
41
130416
3661
per convincervi a fidarvi degli algoritmi e a temerli
02:14
because you trust and fear mathematics.
42
134101
2018
perché vi fidate e avete paura delle scienze matematiche.
02:17
A lot can go wrong when we put blind faith in big data.
43
137387
4830
Si può sbagliare tanto se riponiamo una fiducia cieca in grandi masse di dati.
02:23
This is Kiri Soares. She's a high school principal in Brooklyn.
44
143504
3373
Lei è Kiri Soares. È preside in una scuola superiore di Brooklyn.
02:26
In 2011, she told me her teachers were being scored
45
146901
2586
Nel 2011, mi disse che i suoi docenti erano valutati
02:29
with a complex, secret algorithm
46
149511
2727
con un complicato e segreto algoritmo
02:32
called the "value-added model."
47
152262
1489
chiamato "modello di valore aggiunto".
02:34
I told her, "Well, figure out what the formula is, show it to me.
48
154325
3092
Le ho detto: "Trova qual è la formula e mostramela.
02:37
I'm going to explain it to you."
49
157441
1541
Così te la spiego."
02:39
She said, "Well, I tried to get the formula,
50
159006
2141
Mi disse: "Ho provato ad avere la formula,
02:41
but my Department of Education contact told me it was math
51
161171
2772
ma il referente del mio Dipartimento ha detto che era matematica
02:43
and I wouldn't understand it."
52
163967
1546
e non l'avrei capita".
Le cose peggiorano.
02:47
It gets worse.
53
167086
1338
02:48
The New York Post filed a Freedom of Information Act request,
54
168448
3530
Il New York Post ha fatto una richiesta secondo il Freedom of Information Act,
02:52
got all the teachers' names and all their scores
55
172002
2959
ha preso i nomi di tutti gli insegnanti e i loro punteggi
02:54
and they published them as an act of teacher-shaming.
56
174985
2782
e li ha divulgati esponendo gli insegnanti alla pubblica gogna.
02:58
When I tried to get the formulas, the source code, through the same means,
57
178904
3860
Quando ho chiesto le formule, il codice sorgente,
attraverso gli stessi canali,
03:02
I was told I couldn't.
58
182788
2149
mi è stato detto che non potevo averle.
03:04
I was denied.
59
184961
1236
Mi è stato negato.
03:06
I later found out
60
186221
1174
Poi ho scoperto
03:07
that nobody in New York City had access to that formula.
61
187419
2866
che nessuno a New York aveva accesso a quella formula.
03:10
No one understood it.
62
190309
1305
Nessuno la capiva.
03:13
Then someone really smart got involved, Gary Rubinstein.
63
193749
3224
Poi qualcuno molto intelligente è stato coinvolto, Gary Rubenstein.
03:16
He found 665 teachers from that New York Post data
64
196997
3621
Ha scoperto che 665 insegnanti presenti nei dati del New York Post
03:20
that actually had two scores.
65
200642
1866
in realtà avevano due punteggi.
03:22
That could happen if they were teaching
66
202532
1881
Questo può accadere se insegnano
03:24
seventh grade math and eighth grade math.
67
204437
2439
matematica in seconda e in terza media.
03:26
He decided to plot them.
68
206900
1538
Decise di rappresentarli graficamente.
03:28
Each dot represents a teacher.
69
208462
1993
Ogni punto rappresenta un insegnante.
03:30
(Laughter)
70
210924
2379
(Risate)
03:33
What is that?
71
213327
1521
Cos'è questo?
03:34
(Laughter)
72
214872
1277
(Risate)
03:36
That should never have been used for individual assessment.
73
216173
3446
Non avrebbero mai dovuto usarlo per una valutazione individuale.
03:39
It's almost a random number generator.
74
219643
1926
Sembra un generatore casuale di numeri.
03:41
(Applause)
75
221593
2946
(Applauso)
03:44
But it was.
76
224563
1162
E lo era.
03:45
This is Sarah Wysocki.
77
225749
1176
Lei è Sarah Wysocki.
03:46
She got fired, along with 205 other teachers,
78
226949
2175
È stata licenziata con altri 205 insegnanti
03:49
from the Washington, DC school district,
79
229148
2662
dal distretto scolastico di Washington DC,
03:51
even though she had great recommendations from her principal
80
231834
2909
nonostante le referenze altamente positive da parte del preside
03:54
and the parents of her kids.
81
234767
1428
e da parte dei genitori dei suoi alunni.
03:57
I know what a lot of you guys are thinking,
82
237210
2032
So a cosa stanno pensando molti di voi,
03:59
especially the data scientists, the AI experts here.
83
239266
2487
soprattutto analisti, gli esperti di Intelligenza Artificiale.
04:01
You're thinking, "Well, I would never make an algorithm that inconsistent."
84
241777
4226
State pensando: "Io non farei mai degli algoritmi così incoerenti".
04:06
But algorithms can go wrong,
85
246673
1683
Ma gli algoritmi possono sbagliare,
04:08
even have deeply destructive effects with good intentions.
86
248380
4598
perfino causare effetti disastrosi nonostante le buone intenzioni.
04:14
And whereas an airplane that's designed badly
87
254351
2379
E mentre un aeroplano progettato male
04:16
crashes to the earth and everyone sees it,
88
256754
2001
precipita e può essere visto da tutti,
04:18
an algorithm designed badly
89
258779
1850
un algoritmo progettato male
04:22
can go on for a long time, silently wreaking havoc.
90
262065
3865
può essere utilizzato per molto tempo creando silenziosamente il caos.
04:27
This is Roger Ailes.
91
267568
1570
Lui è Roger Ailes.
04:29
(Laughter)
92
269162
2000
(Risate)
04:32
He founded Fox News in 1996.
93
272344
2388
Ha fondato Fox News nel 1996.
04:35
More than 20 women complained about sexual harassment.
94
275256
2581
Più di 20 donne lo hanno accusato di molestie sessuali.
04:37
They said they weren't allowed to succeed at Fox News.
95
277861
3235
Hanno detto che a loro non era permesso fare carriera a Fox News.
04:41
He was ousted last year, but we've seen recently
96
281120
2520
È stato cacciato l'anno scorso, ma di recente abbiamo visto
04:43
that the problems have persisted.
97
283664
2670
che i problemi sono continuati.
04:47
That begs the question:
98
287474
1400
Questo solleva la domanda:
04:48
What should Fox News do to turn over another leaf?
99
288898
2884
cosa dovrebbe fare Fox News per voltare veramente pagina?
04:53
Well, what if they replaced their hiring process
100
293065
3041
E se sostituissero il loro sistema di assunzione
04:56
with a machine-learning algorithm?
101
296130
1654
con un algoritmo intelligente?
04:57
That sounds good, right?
102
297808
1595
Sembra una buona idea, giusto?
04:59
Think about it.
103
299427
1300
Pensateci.
05:00
The data, what would the data be?
104
300751
2105
I dati, come sarebbero i dati?
05:02
A reasonable choice would be the last 21 years of applications to Fox News.
105
302880
4947
Una scelta ragionevole potrebbe essere
gli ultimi 21 anni di domande di assunzione a Fox News.
05:07
Reasonable.
106
307851
1502
Ragionevole.
05:09
What about the definition of success?
107
309377
1938
E come definire il successo?
05:11
Reasonable choice would be,
108
311741
1324
Una scelta ragionevole sarebbe:
05:13
well, who is successful at Fox News?
109
313089
1778
chi ha avuto successo a Fox News?
05:14
I guess someone who, say, stayed there for four years
110
314891
3580
Ad esempio qualcuno che è stato lì, diciamo, per quattro anni
05:18
and was promoted at least once.
111
318495
1654
ed è stato promosso almeno una volta.
05:20
Sounds reasonable.
112
320636
1561
Sembra ragionevole.
05:22
And then the algorithm would be trained.
113
322221
2354
E dopo l'algoritmo dovrebbe essere preparato.
05:24
It would be trained to look for people to learn what led to success,
114
324599
3877
Sarebbe preparato a cercare le persone, capire cosa conduce al successo,
05:29
what kind of applications historically led to success
115
329039
4318
che tipi di candidature hanno storicamente portato al successo
05:33
by that definition.
116
333381
1294
secondo quella definizione.
05:36
Now think about what would happen
117
336020
1775
Ora pensate a cosa succederebbe
05:37
if we applied that to a current pool of applicants.
118
337819
2555
se applicassimo questo a un attuale campione di candidati.
05:40
It would filter out women
119
340939
1629
Verrebbero escluse le donne
05:43
because they do not look like people who were successful in the past.
120
343483
3930
perché non rappresentano le persone che hanno avuto successo in passato.
05:51
Algorithms don't make things fair
121
351572
2537
Gli algoritmi non rendono le cose giuste
05:54
if you just blithely, blindly apply algorithms.
122
354133
2694
se vengono applicati allegramente e ciecamente.
05:56
They don't make things fair.
123
356851
1482
Non rendono le cose giuste.
05:58
They repeat our past practices,
124
358357
2128
Ripetono le nostre prassi del passato,
06:00
our patterns.
125
360509
1183
i nostri modelli.
06:01
They automate the status quo.
126
361716
1939
Automatizzano lo status quo.
06:04
That would be great if we had a perfect world,
127
364538
2389
Sarebbero straordinari se vivessimo in un mondo perfetto,
06:07
but we don't.
128
367725
1312
ma non lo abbiamo.
06:09
And I'll add that most companies don't have embarrassing lawsuits,
129
369061
4102
Aggiungo che gran parte delle aziende non ha cause legali imbarazzanti,
ma agli analisti di quelle aziende
06:14
but the data scientists in those companies
130
374266
2588
06:16
are told to follow the data,
131
376878
2189
viene detto di seguire i dati,
06:19
to focus on accuracy.
132
379091
2143
di focalizzarsi sull'accuratezza del dato.
06:22
Think about what that means.
133
382093
1381
Pensate a cosa significa.
06:23
Because we all have bias, it means they could be codifying sexism
134
383498
4027
Poiché tutti abbiamo pregiudizi, significa che potrebbero codificare il sessismo
06:27
or any other kind of bigotry.
135
387549
1836
o qualsiasi altro tipo di intolleranza.
06:31
Thought experiment,
136
391308
1421
Conduco ricerche,
06:32
because I like them:
137
392753
1509
perché mi piacciono:
06:35
an entirely segregated society --
138
395394
2975
una società interamente segregata,
06:40
racially segregated, all towns, all neighborhoods
139
400067
3328
segregazione razziale, tutte le città, tutti i quartieri,
06:43
and where we send the police only to the minority neighborhoods
140
403419
3037
dove si manda la polizia solo nei quartieri periferici
06:46
to look for crime.
141
406480
1193
a cercare il crimine.
06:48
The arrest data would be very biased.
142
408271
2219
I dati degli arresti sarebbero intrisi di pregiudizi.
06:51
What if, on top of that, we found the data scientists
143
411671
2575
Cosa succederebbe se, oltretutto, trovassimo gli analisti
06:54
and paid the data scientists to predict where the next crime would occur?
144
414270
4161
e li pagassimo per prevedere dove si verificherà il prossimo crimine?
Quartieri periferici abitati dalle minoranze.
06:59
Minority neighborhood.
145
419095
1487
07:01
Or to predict who the next criminal would be?
146
421105
3125
O per prevedere chi sarà il prossimo criminale?
07:04
A minority.
147
424708
1395
Uno della minoranza.
07:07
The data scientists would brag about how great and how accurate
148
427769
3541
Gli analisti si vanterebbero di quanto straordinari e accurati
07:11
their model would be,
149
431334
1297
sono i loro modelli,
07:12
and they'd be right.
150
432655
1299
e avrebbero ragione.
07:15
Now, reality isn't that drastic, but we do have severe segregations
151
435771
4615
La realtà non è così drastica, ma esistono gravi segregazioni
07:20
in many cities and towns,
152
440410
1287
in molte città grandi e piccole,
07:21
and we have plenty of evidence
153
441721
1893
e abbiamo ampia evidenza
07:23
of biased policing and justice system data.
154
443638
2688
di sistemi di dati investigativi e giudiziari basati su pregiudizi.
07:27
And we actually do predict hotspots,
155
447452
2815
In realtà siamo anche in grado di anticipare i luoghi critici,
07:30
places where crimes will occur.
156
450291
1530
in cui si verificheranno i crimini.
07:32
And we do predict, in fact, the individual criminality,
157
452221
3866
Noi prevediamo, di fatto, la criminalità individuale,
07:36
the criminality of individuals.
158
456111
1770
la criminalità dei singoli individui.
07:38
The news organization ProPublica recently looked into
159
458792
3963
La nuova organizzazione ProPublica ha recentemente esaminato
07:42
one of those "recidivism risk" algorithms,
160
462779
2024
uno degli algoritmi sul "rischio recidiva",
07:44
as they're called,
161
464827
1163
come vengono chiamati,
07:46
being used in Florida during sentencing by judges.
162
466014
3194
usati dai giudici in Florida durante le sentenze.
07:50
Bernard, on the left, the black man, was scored a 10 out of 10.
163
470231
3585
Bernard, l'uomo di colore a sinistra, ha avuto un punteggio di 10 su 10.
07:54
Dylan, on the right, 3 out of 10.
164
474999
2007
Dylan, sulla destra, 3 su 10.
07:57
10 out of 10, high risk. 3 out of 10, low risk.
165
477030
2501
10 su 10, rischio elevato. 3 su 10, rischio basso.
08:00
They were both brought in for drug possession.
166
480418
2385
Erano entrambi processati per possesso di droga.
08:02
They both had records,
167
482827
1154
Conosciuti dalla polizia,
08:04
but Dylan had a felony
168
484005
2806
ma Dylan aveva commesso un reato,
08:06
but Bernard didn't.
169
486835
1176
mentre Bernard no.
08:09
This matters, because the higher score you are,
170
489638
3066
Questo è importante, perché più il vostro punteggio è alto,
08:12
the more likely you're being given a longer sentence.
171
492728
3473
più è probabile che la vostra condanna sia lunga.
08:18
What's going on?
172
498114
1294
Cosa sta succedendo?
08:20
Data laundering.
173
500346
1332
Riciclaggio di dati.
08:22
It's a process by which technologists hide ugly truths
174
502750
4427
È un processo con cui gli esperti di tecnologia nascondono tremende verità
08:27
inside black box algorithms
175
507201
1821
dentro la scatola nera degli algoritmi
08:29
and call them objective;
176
509046
1290
e la definiscono oggettività;
08:31
call them meritocratic.
177
511140
1568
la definiscono meritocrazia.
08:34
When they're secret, important and destructive,
178
514938
2385
Quando sono segreti, importanti e distruttivi,
08:37
I've coined a term for these algorithms:
179
517347
2487
ho coniato un termine per questi algoritmi:
08:39
"weapons of math destruction."
180
519858
1999
"Armi di distruzione matematica."
08:41
(Laughter)
181
521881
1564
(Risata)
08:43
(Applause)
182
523469
3054
(Applauso)
08:46
They're everywhere, and it's not a mistake.
183
526547
2354
Sono ovunque e non per errore.
08:49
These are private companies building private algorithms
184
529515
3723
Sono aziende private che costruiscono algoritmi privati
08:53
for private ends.
185
533262
1392
per scopi privati.
08:55
Even the ones I talked about for teachers and the public police,
186
535034
3214
Persino quelli di cui ho parlato per gli insegnanti e la polizia
08:58
those were built by private companies
187
538272
1869
sono stati creati da compagnie private
09:00
and sold to the government institutions.
188
540165
2231
e venduti alle istituzioni governative.
09:02
They call it their "secret sauce" --
189
542420
1873
Li chiamano il loro "ingrediente segreto",
09:04
that's why they can't tell us about it.
190
544317
2128
ecco perché non possono parlarcene.
09:06
It's also private power.
191
546469
2220
È anche un potere privato.
09:09
They are profiting for wielding the authority of the inscrutable.
192
549744
4695
Ne stanno traendo vantaggio per esercitare l'autorità dell'imperscrutabile.
09:16
Now you might think, since all this stuff is private
193
556934
2934
Ora potreste pensare che, visto che è tutto privato
09:19
and there's competition,
194
559892
1158
e c'è la concorrenza,
09:21
maybe the free market will solve this problem.
195
561074
2306
forse il mercato libero risolverà il problema.
09:23
It won't.
196
563404
1249
Invece no.
09:24
There's a lot of money to be made in unfairness.
197
564677
3120
Ci sono un sacco di soldi da fare in modo scorretto.
09:28
Also, we're not economic rational agents.
198
568947
3369
Inoltre, noi non siamo agenti economici razionali.
09:32
We all are biased.
199
572851
1292
Abbiamo tutti dei pregiudizi.
09:34
We're all racist and bigoted in ways that we wish we weren't,
200
574780
3377
Siamo tutti razzisti e faziosi in modi che preferiremmo non essere,
09:38
in ways that we don't even know.
201
578181
2019
in modi che neanche immaginiamo.
09:41
We know this, though, in aggregate,
202
581172
3081
Ma lo sappiamo grazie al complesso dei dati,
09:44
because sociologists have consistently demonstrated this
203
584277
3220
perché i sociologi lo hanno dimostrato
09:47
with these experiments they build,
204
587521
1665
con gli esperimenti che fanno,
09:49
where they send a bunch of applications to jobs out,
205
589210
2568
in cui mandano in giro un mucchio di richieste di lavoro,
09:51
equally qualified but some have white-sounding names
206
591802
2501
con uguali qualifiche, ma alcune con nomi da bianchi,
09:54
and some have black-sounding names,
207
594327
1706
altre con nomi da afro-americani,
09:56
and it's always disappointing, the results -- always.
208
596057
2694
e il risultato è sempre deludente. Sempre.
09:59
So we are the ones that are biased,
209
599330
1771
Quindi, siamo noi ad avere pregiudizi,
10:01
and we are injecting those biases into the algorithms
210
601125
3429
e stiamo iniettando quei pregiudizi negli algoritmi,
10:04
by choosing what data to collect,
211
604578
1812
decidendo quali dati raccogliere,
10:06
like I chose not to think about ramen noodles --
212
606414
2743
come ho scelto di non pensare a quei noodles istantanei,
10:09
I decided it was irrelevant.
213
609181
1625
ho deciso che era irrilevante.
10:10
But by trusting the data that's actually picking up on past practices
214
610830
5684
Lo facciamo fidandoci di dati che si riferiscono a prassi del passato
10:16
and by choosing the definition of success,
215
616538
2014
e scegliendo gli indicatori per valutare il successo
10:18
how can we expect the algorithms to emerge unscathed?
216
618576
3983
Come possiamo aspettarci che gli algoritmi ne escano indenni?
10:22
We can't. We have to check them.
217
622583
2356
Non possiamo. Dobbiamo controllarli.
10:25
We have to check them for fairness.
218
625985
1709
Dobbiamo controllarli per garantirne l'imparzialità.
10:27
The good news is, we can check them for fairness.
219
627718
2711
La buona notizia è che possiamo verificarne l'imparzialità.
10:30
Algorithms can be interrogated,
220
630453
3352
Gli algoritmi possono essere interrogati,
10:33
and they will tell us the truth every time.
221
633829
2034
e ci diranno la verità ogni volta.
10:35
And we can fix them. We can make them better.
222
635887
2493
Possiamo sistemarli. Possiamo renderli migliori.
10:38
I call this an algorithmic audit,
223
638404
2375
Lo definisco un audit algoritmico,
10:40
and I'll walk you through it.
224
640803
1679
e ve lo illustro.
10:42
First, data integrity check.
225
642506
2196
Primo, controllo dell'integrità dei dati.
10:45
For the recidivism risk algorithm I talked about,
226
645952
2657
Per il rischio di recidività degli algoritmi di cui ho parlato,
10:49
a data integrity check would mean we'd have to come to terms with the fact
227
649402
3573
un controllo dell'integrità dei dati significherebbe constatare il fatto
10:52
that in the US, whites and blacks smoke pot at the same rate
228
652999
3526
che negli US, la percentuale di bianchi e neri che fumano erba è uguale
10:56
but blacks are far more likely to be arrested --
229
656549
2485
ma i neri hanno molte più probabilità di essere arrestati,
10:59
four or five times more likely, depending on the area.
230
659058
3184
da 4 o 5 volte di più, a seconda della zona.
Che forma assume quel pregiudizio in altre categorie criminologiche,
11:03
What is that bias looking like in other crime categories,
231
663137
2826
11:05
and how do we account for it?
232
665987
1451
e come possiamo tenerne conto?
11:07
Second, we should think about the definition of success,
233
667982
3039
Secondo, dovremmo considerare la definizione di successo,
11:11
audit that.
234
671045
1381
sottoporla a verifica.
11:12
Remember -- with the hiring algorithm? We talked about it.
235
672450
2752
Ricordate l'algoritmo delle assunzioni che ho illustrato?
11:15
Someone who stays for four years and is promoted once?
236
675226
3165
Uno che mantiene il lavoro per quattro anni ed è promosso una volta?
11:18
Well, that is a successful employee,
237
678415
1769
Quello è un impiegato di successo,
11:20
but it's also an employee that is supported by their culture.
238
680208
3079
ma è anche un impiegato sostenuto dalla loro cultura.
11:23
That said, also it can be quite biased.
239
683909
1926
Detto questo, può esserci anche un lieve pregiudizio.
11:25
We need to separate those two things.
240
685859
2065
Dobbiamo distinguere questi due aspetti.
11:27
We should look to the blind orchestra audition
241
687948
2426
Dovremmo prendere le audizioni d'orchestra alla cieca
11:30
as an example.
242
690398
1196
come esempio.
11:31
That's where the people auditioning are behind a sheet.
243
691618
2756
Quelle in cui chi fa il provino sta dietro uno schermo.
11:34
What I want to think about there
244
694766
1931
Quello a cui voglio pensare
11:36
is the people who are listening have decided what's important
245
696721
3417
è che le persone che stanno ascoltando hanno deciso cosa sia importante
11:40
and they've decided what's not important,
246
700162
2029
e cosa non lo è,
11:42
and they're not getting distracted by that.
247
702215
2059
e non si lasceranno distrarre.
11:44
When the blind orchestra auditions started,
248
704781
2749
da quando le audizioni d'orchestra alla cieca sono iniziate,
11:47
the number of women in orchestras went up by a factor of five.
249
707554
3444
il numero di donne nelle orchestre è quintuplicato.
11:52
Next, we have to consider accuracy.
250
712073
2015
Poi dobbiamo considerare l'accuratezza.
11:55
This is where the value-added model for teachers would fail immediately.
251
715053
3734
È qui che il "modello di valore aggiunto" per insegnanti fallisce immediatamente.
11:59
No algorithm is perfect, of course,
252
719398
2162
Nessun algoritmo è perfetto, certo,
12:02
so we have to consider the errors of every algorithm.
253
722440
3605
quindi dobbiamo considerare gli errori di ogni algoritmo.
12:06
How often are there errors, and for whom does this model fail?
254
726656
4359
Quanto spesso ci sono errori e per chi fallisce questo modello?
12:11
What is the cost of that failure?
255
731670
1718
Qual è il prezzo di quel fallimento?
12:14
And finally, we have to consider
256
734254
2207
Infine, dobbiamo considerare
12:17
the long-term effects of algorithms,
257
737793
2186
gli effetti a lungo termine degli algoritmi,
12:20
the feedback loops that are engendering.
258
740686
2207
i cicli di feedback che stanno generando.
12:23
That sounds abstract,
259
743406
1236
Può sembrarvi un'astrazione,
12:24
but imagine if Facebook engineers had considered that
260
744666
2664
ma immaginate se i tecnici di Facebook lo avessero considerato
12:28
before they decided to show us only things that our friends had posted.
261
748090
4855
prima di decidere di mostrarci solo le cose pubblicate dai nostri amici.
12:33
I have two more messages, one for the data scientists out there.
262
753581
3234
Ho altre due raccomandazioni, una per gli analisti di dati là fuori.
12:37
Data scientists: we should not be the arbiters of truth.
263
757270
3409
Analisti: non dovremmo essere gli arbitri della verità.
12:41
We should be translators of ethical discussions that happen
264
761340
3783
Dovremmo essere i traduttori delle discussioni etiche che accadono
12:45
in larger society.
265
765147
1294
nella società.
12:47
(Applause)
266
767399
2133
(Applausi)
12:49
And the rest of you,
267
769556
1556
E per tutti gli altri,
12:51
the non-data scientists:
268
771831
1396
i non-analisti di dati:
12:53
this is not a math test.
269
773251
1498
questo non è un esame di matematica.
12:55
This is a political fight.
270
775452
1348
Questa è una lotta politica.
12:58
We need to demand accountability for our algorithmic overlords.
271
778407
3907
Dobbiamo pretendere più trasparenza dai signori degli algoritmi.
13:03
(Applause)
272
783938
1499
(Applausi)
13:05
The era of blind faith in big data must end.
273
785461
4225
L'era della fede cieca nelle masse di dati deve finire.
13:09
Thank you very much.
274
789710
1167
Vi ringrazio molto.
13:10
(Applause)
275
790901
5303
(Applausi)
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7