How I'm fighting bias in algorithms | Joy Buolamwini

308,224 views ・ 2017-03-29

TED


Fare doppio clic sui sottotitoli in inglese per riprodurre il video.

Traduttore: Federico MINELLE Revisore: Nadia Ahmed
00:12
Hello, I'm Joy, a poet of code,
0
12861
3134
Ciao, sono Joy, una poetessa della programmazione,
00:16
on a mission to stop an unseen force that's rising,
1
16019
4993
in missione per fermare una crescente forza inattesa.
00:21
a force that I called "the coded gaze,"
2
21036
2856
Una forza che ho chiamato "sguardo programmato",
00:23
my term for algorithmic bias.
3
23916
3309
la mia espressione per la parzialità algoritmica.
00:27
Algorithmic bias, like human bias, results in unfairness.
4
27249
4300
La parzialità algoritmica, come quella umana, produce ingiustizia.
00:31
However, algorithms, like viruses, can spread bias on a massive scale
5
31573
6022
Tuttavia gli algoritmi, come i virus, si possono diffondere su ampia scala
00:37
at a rapid pace.
6
37619
1582
in tempi rapidi.
00:39
Algorithmic bias can also lead to exclusionary experiences
7
39763
4387
La parzialità algoritmica può anche portare a esperienze di esclusione
00:44
and discriminatory practices.
8
44174
2128
e pratiche discriminatorie.
00:46
Let me show you what I mean.
9
46326
2061
Vi mostro cosa voglio dire.
00:48
(Video) Joy Buolamwini: Hi, camera. I've got a face.
10
48800
2436
(Video) Joy Buolamwini: Ciao. Ho una faccia.
00:51
Can you see my face?
11
51982
1864
Puoi vedere la mia faccia?
00:53
No-glasses face?
12
53871
1625
Senza occhiali?
00:55
You can see her face.
13
55521
2214
Puoi vedere la sua faccia.
00:58
What about my face?
14
58057
2245
Che dici della mia faccia?
01:03
I've got a mask. Can you see my mask?
15
63710
3750
Ho qui una maschera. Vedi la mia maschera?
01:08
Joy Buolamwini: So how did this happen?
16
68294
2365
Joy Buolamwini: Com'è successo?
01:10
Why am I sitting in front of a computer
17
70683
3141
Perché ero seduta davanti al computer
01:13
in a white mask,
18
73848
1424
con una maschera bianca,
01:15
trying to be detected by a cheap webcam?
19
75296
3650
tentando di essere individuata da una webcam economica?
01:18
Well, when I'm not fighting the coded gaze
20
78970
2291
Quando non combatto "lo sguardo programmato"
01:21
as a poet of code,
21
81285
1520
da poetessa della programmazione,
01:22
I'm a graduate student at the MIT Media Lab,
22
82829
3272
sono una studentessa di laurea magistrale al Media Lab del MIT,
01:26
and there I have the opportunity to work on all sorts of whimsical projects,
23
86125
4917
dove ho avuto la opportunità di lavorare su ogni tipo di progetto stravagante,
01:31
including the Aspire Mirror,
24
91066
2027
incluso lo Specchio dei Desideri,
01:33
a project I did so I could project digital masks onto my reflection.
25
93117
5134
un progetto che mi consente di proiettare una maschera digitale sul mio riflesso.
01:38
So in the morning, if I wanted to feel powerful,
26
98275
2350
Così la mattina, se voglio sentirmi forte,
01:40
I could put on a lion.
27
100649
1434
posso indossare leone.
01:42
If I wanted to be uplifted, I might have a quote.
28
102107
3496
Se volessi essere rialzata, potrei avere un'altezza.
01:45
So I used generic facial recognition software
29
105627
2989
Ho utilizzzato un generico software di riconoscimento facciale
01:48
to build the system,
30
108640
1351
per costruire il sistema,
01:50
but found it was really hard to test it unless I wore a white mask.
31
110015
5103
ma ho trovato molto difficile provarlo a meno di indossare una maschera bianca.
01:56
Unfortunately, I've run into this issue before.
32
116102
4346
Sfortunatamente, ho già toccato questo tema.
02:00
When I was an undergraduate at Georgia Tech studying computer science,
33
120472
4303
Quando ero unastudentessa di Informatica al Georgia Tech
02:04
I used to work on social robots,
34
124799
2055
ero abituata a lavorare sui robot sociali,
02:06
and one of my tasks was to get a robot to play peek-a-boo,
35
126878
3777
e uno dei miei compiti era di far giocare un robot a "booh! chi sono?",
02:10
a simple turn-taking game
36
130679
1683
un semplice gioco a turni,
02:12
where partners cover their face and then uncover it saying, "Peek-a-boo!"
37
132386
4321
dove i compagni nascondono la faccia e poi la scoprono dicendo "booh! chi sono?"
02:16
The problem is, peek-a-boo doesn't really work if I can't see you,
38
136731
4429
Il problema è che il gioco non funziona veramente se non vi vedo,
02:21
and my robot couldn't see me.
39
141184
2499
e il mio robot non mi poteva vedere.
02:23
But I borrowed my roommate's face to get the project done,
40
143707
3950
Allora mi sono fatta prestare il volto della mia compagna di stanza,
02:27
submitted the assignment,
41
147681
1380
e ho consegnato il compito,
02:29
and figured, you know what, somebody else will solve this problem.
42
149085
3753
e ho pensato che qualcun altro risolvesse il problema.
02:33
Not too long after,
43
153489
2003
Non molto dopo,
02:35
I was in Hong Kong for an entrepreneurship competition.
44
155516
4159
ero a Hong Kong per una gara sulla imprenditorialità.
02:40
The organizers decided to take participants
45
160159
2694
Gli organizzatori decisero di scegliere i partecipanti
02:42
on a tour of local start-ups.
46
162877
2372
esaminando le start-up locali.
02:45
One of the start-ups had a social robot,
47
165273
2715
Una delle start-up aveva un robot sociale,
02:48
and they decided to do a demo.
48
168012
1912
e loro decisero di fare un demo.
02:49
The demo worked on everybody until it got to me,
49
169948
2980
Il demo funzionò finché non giunsero a me,
02:52
and you can probably guess it.
50
172952
1923
e forse indovinate perché.
02:54
It couldn't detect my face.
51
174899
2965
Non poteva individuare la mia faccia.
02:57
I asked the developers what was going on,
52
177888
2511
Ho chiesto agli sviluppatori cosa stava succedendo,
03:00
and it turned out we had used the same generic facial recognition software.
53
180423
5533
e risultò che usavano lo stesso software generico di riconoscimento facciale.
03:05
Halfway around the world,
54
185980
1650
Dall'altra parte del mondo,
03:07
I learned that algorithmic bias can travel as quickly
55
187654
3852
ho imparato che la parzialità algoritmica può viaggiare velocemente
03:11
as it takes to download some files off of the internet.
56
191530
3170
visto che basta scaricare qualche file da internet.
03:15
So what's going on? Why isn't my face being detected?
57
195565
3076
Cosa stava succedendo? Perchè la mia faccia non era riconosciuta?
03:18
Well, we have to look at how we give machines sight.
58
198665
3356
Dobbiamo vedere come diamo la vista alle macchine.
03:22
Computer vision uses machine learning techniques
59
202045
3409
La visione tramite computer usa tecniche di auto-apprendimento
03:25
to do facial recognition.
60
205478
1880
per il riconoscimento facciale.
03:27
So how this works is, you create a training set with examples of faces.
61
207382
3897
Come funziona: si creano esempi di facce per l'apprendimento.
03:31
This is a face. This is a face. This is not a face.
62
211303
2818
Questa è una faccia. Anche questa. Questa non è una faccia.
03:34
And over time, you can teach a computer how to recognize other faces.
63
214145
4519
Con il tempo, si può insegnare al computer come riconoscere altre facce.
03:38
However, if the training sets aren't really that diverse,
64
218688
3989
Ma se gli esempi per l'addestramento non sono veramente diversi,
03:42
any face that deviates too much from the established norm
65
222701
3349
qualsiasi faccia che devia troppo dalla norma stabilita
03:46
will be harder to detect,
66
226074
1649
sarà difficile da riconoscere,
03:47
which is what was happening to me.
67
227747
1963
che era quanto mi stava capitando.
03:49
But don't worry -- there's some good news.
68
229734
2382
Ma non vi preoccupate, ci sono buone notizie.
03:52
Training sets don't just materialize out of nowhere.
69
232140
2771
Gli esempi per l'addestramento non nascono dal nulla.
03:54
We actually can create them.
70
234935
1788
Siamo noi a crearli.
03:56
So there's an opportunity to create full-spectrum training sets
71
236747
4176
C'è quindi la possibilità di creare gruppi di esempi ad ampio spettro
04:00
that reflect a richer portrait of humanity.
72
240947
3824
che riflettono un più ricco ritratto dell'umanità.
04:04
Now you've seen in my examples
73
244795
2221
Avete ora visto nei miei esempi
04:07
how social robots
74
247040
1768
come tramite i robot sociali
04:08
was how I found out about exclusion with algorithmic bias.
75
248832
4611
ho scopertoa l'esclusione dovuta alla parzialità algoritmica.
04:13
But algorithmic bias can also lead to discriminatory practices.
76
253467
4815
Ma la parzialità algoritmica può condurre anche a pratiche discriminatorie.
04:19
Across the US,
77
259257
1453
Negli USA,
04:20
police departments are starting to use facial recognition software
78
260734
4198
i dipartimenti di polizia iniziano a usare software di riconoscimento facciale
04:24
in their crime-fighting arsenal.
79
264956
2459
nel loro arsenale di battaglia al crimine.
04:27
Georgetown Law published a report
80
267439
2013
Georgetown Law ha pubblicato un rapporto
04:29
showing that one in two adults in the US -- that's 117 million people --
81
269476
6763
che mostra come uno su due adulti in USA, cioè 117 milioni di persone,
04:36
have their faces in facial recognition networks.
82
276263
3534
ha la sua faccia nelle reti per il riconoscimento facciale.
04:39
Police departments can currently look at these networks unregulated,
83
279821
4552
I dipartimenti di polizia possono ora utilizzare queste reti non regolamentate,
04:44
using algorithms that have not been audited for accuracy.
84
284397
4286
che usano algoritmi non verificati sulla loro accuratezza.
04:48
Yet we know facial recognition is not fail proof,
85
288707
3864
Certo si sa che il riconoscimento facciale non è a prova di errore,
04:52
and labeling faces consistently remains a challenge.
86
292595
4179
ed etichettare le facce coerentemente rimane una sfida.
04:56
You might have seen this on Facebook.
87
296798
1762
Si può vedere ciò anche su Facebook.
04:58
My friends and I laugh all the time when we see other people
88
298584
2988
I miei amici ed io ridiamo quando vediamo altre persone
05:01
mislabeled in our photos.
89
301596
2458
etichettate male nelle nostre foto.
05:04
But misidentifying a suspected criminal is no laughing matter,
90
304078
5591
Ma identificare male un sospetto criminale non è una cosa da riderci su,
05:09
nor is breaching civil liberties.
91
309693
2827
neppure violare le nostre libertà civili.
05:12
Machine learning is being used for facial recognition,
92
312544
3205
Si usa l'apprendimento automatico per il riconoscimento facciale,
05:15
but it's also extending beyond the realm of computer vision.
93
315773
4505
ma si sta estendendo oltre il campo della visione via computer.
05:21
In her book, "Weapons of Math Destruction,"
94
321086
4016
Nel suo libro, "Armi per la Distruzione Matematica",
05:25
data scientist Cathy O'Neil talks about the rising new WMDs --
95
325126
6681
la scienzata sui dati Cathy O'Neil ci parla dei crescenti nuovi WMD,
05:31
widespread, mysterious and destructive algorithms
96
331831
4353
algoritmi diffusi, misteriosi e distruttivi
05:36
that are increasingly being used to make decisions
97
336208
2964
che sono sempre più usati per prendere decisioni
05:39
that impact more aspects of our lives.
98
339196
3177
che influiscono su molti aspetti delle nostre vite.
05:42
So who gets hired or fired?
99
342397
1870
Così, chi viene assunto o licenziato?
05:44
Do you get that loan? Do you get insurance?
100
344291
2112
Ottenete quel mutuo? E la assicurazione?
05:46
Are you admitted into the college you wanted to get into?
101
346427
3503
Siete ammessi al college al quale volete andare?
05:49
Do you and I pay the same price for the same product
102
349954
3509
Voi ed io paghiamo lo stesso prezzo per lo stesso prodotto
05:53
purchased on the same platform?
103
353487
2442
comprato sulla stessa piattaforma? [e-commerce]
05:55
Law enforcement is also starting to use machine learning
104
355953
3759
Le forze dell'ordine stanno iniziando a usare l'apprendimento automatico
05:59
for predictive policing.
105
359736
2289
per compiti di "polizia predittiva".
06:02
Some judges use machine-generated risk scores to determine
106
362049
3494
Alcuni giudici usano valutazioni di rischio automatiche per determinare
06:05
how long an individual is going to spend in prison.
107
365567
4402
quanto tempo una persona deve passare in prigione.
06:09
So we really have to think about these decisions.
108
369993
2454
Veramente dobbiamo riflettere su queste decisioni.
06:12
Are they fair?
109
372471
1182
Sono giuste?
06:13
And we've seen that algorithmic bias
110
373677
2890
Abbiamo visto che la parzialità algoritmica
06:16
doesn't necessarily always lead to fair outcomes.
111
376591
3374
non necessariamente porta a esiti giusti.
06:19
So what can we do about it?
112
379989
1964
Cosa possiamo fare per questo?
06:21
Well, we can start thinking about how we create more inclusive code
113
381977
3680
Possiamo iniziare a riflettere su come possiamo creare codice più inclusivo
06:25
and employ inclusive coding practices.
114
385681
2990
e impiegare criteri di codifica inclusivi.
06:28
It really starts with people.
115
388695
2309
In effetti si parte dalle persone.
06:31
So who codes matters.
116
391528
1961
Con chi è interessato al codice.
06:33
Are we creating full-spectrum teams with diverse individuals
117
393513
4119
Stiamo veramente creando squadre ad ampio spettro, con diversi individui
06:37
who can check each other's blind spots?
118
397656
2411
che possano verificare i punti oscuri dell'altro?
06:40
On the technical side, how we code matters.
119
400091
3545
Da un punto di vista tecnico, il modo in cui codifichiamo è importante.
06:43
Are we factoring in fairness as we're developing systems?
120
403660
3651
Stiamo puntando sulla imparzialità quando sviluppiamo i sistemi?
06:47
And finally, why we code matters.
121
407335
2913
E alla fine, perché ci interessa la codifica.
06:50
We've used tools of computational creation to unlock immense wealth.
122
410605
5083
Usiamo strumenti di sviluppo elaborativo per liberare immense ricchezze.
06:55
We now have the opportunity to unlock even greater equality
123
415712
4447
Ora abbiamo l'opportunità di dar vita a una uguaglianza più vasta
07:00
if we make social change a priority
124
420183
2930
se diamo priorità al cambiamento sociale
07:03
and not an afterthought.
125
423137
2170
e non lo consideriamo un pensiero aggiuntivo.
07:05
And so these are the three tenets that will make up the "incoding" movement.
126
425828
4522
Vi sono quindi tre principi che sorreggono il movimento di "codifica inclusiva".
07:10
Who codes matters,
127
430374
1652
A chi interessa il codice,
07:12
how we code matters
128
432050
1543
come ci interessa il codice
07:13
and why we code matters.
129
433617
2023
e perché ci interessa il codice.
07:15
So to go towards incoding, we can start thinking about
130
435664
3099
Per puntare alla "codifica inclusiva", possiamo partire pensando
07:18
building platforms that can identify bias
131
438787
3164
di costruire piattaforme che possano identificare le parzialità
07:21
by collecting people's experiences like the ones I shared,
132
441975
3078
raccogliendo le esperienze delle persone come quelle condivise,
07:25
but also auditing existing software.
133
445077
3070
ma anche verificando il software esistente.
07:28
We can also start to create more inclusive training sets.
134
448171
3765
Possiamo anche iniziare a creare un modello formativo più inclusivo.
07:31
Imagine a "Selfies for Inclusion" campaign
135
451960
2803
Pensate a una campagna mediatica "Selfie per l'inclusione"
07:34
where you and I can help developers test and create
136
454787
3655
dove voi ed io possiamo aiutare gli sviluppatori a provare e creare
07:38
more inclusive training sets.
137
458466
2093
modelli formativi più inclusivi.
07:41
And we can also start thinking more conscientiously
138
461122
2828
Possiamo anche iniziare a riflettere più consciamente
07:43
about the social impact of the technology that we're developing.
139
463974
5391
sull'impatto sociale della tecnologia che stiamo sviluppando.
07:49
To get the incoding movement started,
140
469389
2393
Per avviare il movimento di "codifica inclusiva",
07:51
I've launched the Algorithmic Justice League,
141
471806
2847
ho lanciato la Lega per la Giustizia Algoritmica,
07:54
where anyone who cares about fairness can help fight the coded gaze.
142
474677
5872
dove ognuno che ha a cuore la giustizia può combattere "lo sguardo programmato".
08:00
On codedgaze.com, you can report bias,
143
480573
3296
Su codedgaze.com si possono segnalare parzialità,
08:03
request audits, become a tester
144
483893
2445
richiedere verifiche, diventare un collaudatore
08:06
and join the ongoing conversation,
145
486362
2771
e unirsi alla conversazione corrente,
08:09
#codedgaze.
146
489157
2287
#codedgaze.
08:12
So I invite you to join me
147
492562
2487
Vi invito quidi ad unirvi a me
08:15
in creating a world where technology works for all of us,
148
495073
3719
nel creare un mondo dove la tecnologia lavori per tutti noi,
08:18
not just some of us,
149
498816
1897
non solo per qualcuno di noi,
08:20
a world where we value inclusion and center social change.
150
500737
4588
un mondo dove diamo valore alla inclusione e ci concentriamo sul cambiamento sociale.
08:25
Thank you.
151
505349
1175
Grazie.
08:26
(Applause)
152
506548
4271
(Applausi)
08:32
But I have one question:
153
512693
2854
Ma ho una domanda:
08:35
Will you join me in the fight?
154
515571
2059
Vi unirete a me nella battaglia?
08:37
(Laughter)
155
517654
1285
(Risate)
08:38
(Applause)
156
518963
3687
(Applausi)
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7