How I'm fighting bias in algorithms | Joy Buolamwini

312,131 views ・ 2017-03-29

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Lidia Cámara de la Fuente Revisor: Sebastian Betti
00:12
Hello, I'm Joy, a poet of code,
0
12861
3134
Hola, soy Joy, una poetisa del código,
00:16
on a mission to stop an unseen force that's rising,
1
16019
4993
en una misión para frenar una fuerza invisible que crece,
00:21
a force that I called "the coded gaze,"
2
21036
2856
una fuerza que llamo "mirada codificada",
00:23
my term for algorithmic bias.
3
23916
3309
mi término para el sesgo algorítmico.
00:27
Algorithmic bias, like human bias, results in unfairness.
4
27249
4300
El sesgo algorítmico, como el humano, se traduce en injusticia.
00:31
However, algorithms, like viruses, can spread bias on a massive scale
5
31573
6022
Pero, los algoritmos, como los virus, pueden propagar sesgos a gran escala
00:37
at a rapid pace.
6
37619
1582
a un ritmo acelerado.
00:39
Algorithmic bias can also lead to exclusionary experiences
7
39763
4387
El sesgo algorítmico puede también generar experiencias de exclusión
00:44
and discriminatory practices.
8
44174
2128
y prácticas discriminatorias.
00:46
Let me show you what I mean.
9
46326
2061
Les mostraré lo que quiero decir.
00:48
(Video) Joy Buolamwini: Hi, camera. I've got a face.
10
48800
2436
(Video) Joy Buolamwini: Hola, cámara. Tengo una cara.
00:51
Can you see my face?
11
51982
1864
¿Puedes ver mi cara?
00:53
No-glasses face?
12
53871
1625
¿Sin lentes?
00:55
You can see her face.
13
55521
2214
Puedes ver su cara.
00:58
What about my face?
14
58057
2245
¿Qué tal mi cara?
01:03
I've got a mask. Can you see my mask?
15
63710
3750
Tengo una máscara. ¿Puedes verla?
01:08
Joy Buolamwini: So how did this happen?
16
68294
2365
Joy Buolamwini: ¿Cómo ocurrió esto?
01:10
Why am I sitting in front of a computer
17
70683
3141
¿Por qué estoy ante una computadora
01:13
in a white mask,
18
73848
1424
con una máscara blanca,
01:15
trying to be detected by a cheap webcam?
19
75296
3650
intentando que una cámara barata me detecte?
01:18
Well, when I'm not fighting the coded gaze
20
78970
2291
Cuando no lucho contra la mirada codificada
01:21
as a poet of code,
21
81285
1520
como poetisa del código,
01:22
I'm a graduate student at the MIT Media Lab,
22
82829
3272
soy estudiante de posgrado en el Laboratorio de Medios del MIT,
01:26
and there I have the opportunity to work on all sorts of whimsical projects,
23
86125
4917
y allí puedo trabajar en todo tipo de proyectos caprichosos,
01:31
including the Aspire Mirror,
24
91066
2027
incluso el Aspire Mirror,
01:33
a project I did so I could project digital masks onto my reflection.
25
93117
5134
un proyecto que realicé para proyectar máscaras digitales en mi propio reflejo.
01:38
So in the morning, if I wanted to feel powerful,
26
98275
2350
Entonces, de mañana, si quería sentirme poderosa,
01:40
I could put on a lion.
27
100649
1434
podía convertirme en león.
01:42
If I wanted to be uplifted, I might have a quote.
28
102107
3496
Si quería inspiración, podía usar una cita.
01:45
So I used generic facial recognition software
29
105627
2989
Entonces, usé el software de reconocimiento facial
01:48
to build the system,
30
108640
1351
para crear el sistema,
01:50
but found it was really hard to test it unless I wore a white mask.
31
110015
5103
pero me resultó muy difícil probarlo sin colocarme una máscara blanca.
01:56
Unfortunately, I've run into this issue before.
32
116102
4346
Desafortunadamente, ya tuve este problema antes.
02:00
When I was an undergraduate at Georgia Tech studying computer science,
33
120472
4303
Cuando era estudiante de informática en Georgia Tech,
02:04
I used to work on social robots,
34
124799
2055
solía trabajar con robots sociales,
02:06
and one of my tasks was to get a robot to play peek-a-boo,
35
126878
3777
y una de mis tareas fue lograr que un robot jugara a esconderse,
02:10
a simple turn-taking game
36
130679
1683
un juego de turnos simple
02:12
where partners cover their face and then uncover it saying, "Peek-a-boo!"
37
132386
4321
donde las personas cubren sus rostros y luego las descubren diciendo: "Aquí está".
02:16
The problem is, peek-a-boo doesn't really work if I can't see you,
38
136731
4429
El problema es que el juego no funciona, si no te pueden ver
02:21
and my robot couldn't see me.
39
141184
2499
y el robot no me veía.
02:23
But I borrowed my roommate's face to get the project done,
40
143707
3950
Pero usé el rostro de mi compañera para terminar el proyecto,
02:27
submitted the assignment,
41
147681
1380
entregué la tarea,
02:29
and figured, you know what, somebody else will solve this problem.
42
149085
3753
y pensé que otra persona resolvería este problema.
02:33
Not too long after,
43
153489
2003
Al poco tiempo,
02:35
I was in Hong Kong for an entrepreneurship competition.
44
155516
4159
me encontraba en Hong Kong en una competencia de emprendedores.
02:40
The organizers decided to take participants
45
160159
2694
Los organizadores decidieron llevar a los participantes
02:42
on a tour of local start-ups.
46
162877
2372
a un recorrido por empresas locales emergentes.
02:45
One of the start-ups had a social robot,
47
165273
2715
Una de ellas tenía un robot social,
02:48
and they decided to do a demo.
48
168012
1912
y decidieron hacer una demostración.
02:49
The demo worked on everybody until it got to me,
49
169948
2980
La demostración funcionó bien hasta que llegó mi turno,
02:52
and you can probably guess it.
50
172952
1923
y probablemente pueden adivinar.
02:54
It couldn't detect my face.
51
174899
2965
No pudo detectar mi rostro.
02:57
I asked the developers what was going on,
52
177888
2511
Pregunté a los desarrolladores qué pasaba,
03:00
and it turned out we had used the same generic facial recognition software.
53
180423
5533
y resultó que habíamos usado el mismo software genérico de reconocimiento.
03:05
Halfway around the world,
54
185980
1650
Al otro lado del mundo,
03:07
I learned that algorithmic bias can travel as quickly
55
187654
3852
aprendí que el sesgo algorítmico puede viajar tan rápido
03:11
as it takes to download some files off of the internet.
56
191530
3170
como el tiempo que lleva descargar archivos de Internet.
03:15
So what's going on? Why isn't my face being detected?
57
195565
3076
Entonces, ¿qué sucede? ¿Por qué no se detecta mi rostro?
03:18
Well, we have to look at how we give machines sight.
58
198665
3356
Bueno, debemos pensar cómo hacemos que las máquinas vean.
03:22
Computer vision uses machine learning techniques
59
202045
3409
La visión por computadora usa técnicas de aprendizaje de máquina
03:25
to do facial recognition.
60
205478
1880
para el reconocimiento facial.
03:27
So how this works is, you create a training set with examples of faces.
61
207382
3897
Se trabaja así, creando una serie de prueba con ejemplos de rostros.
03:31
This is a face. This is a face. This is not a face.
62
211303
2818
Esto es un rostro. Esto es un rostro. Esto no lo es.
03:34
And over time, you can teach a computer how to recognize other faces.
63
214145
4519
Con el tiempo, puedes enseñar a una computadora a reconocer rostros.
03:38
However, if the training sets aren't really that diverse,
64
218688
3989
Sin embargo, si las series de prueba no son realmente diversas,
03:42
any face that deviates too much from the established norm
65
222701
3349
todo rostro que se desvíe mucho de la norma establecida
03:46
will be harder to detect,
66
226074
1649
será más difícil de detectar,
03:47
which is what was happening to me.
67
227747
1963
que es lo que me sucedía a mí.
03:49
But don't worry -- there's some good news.
68
229734
2382
Pero no se preocupen, tengo buenas noticias.
03:52
Training sets don't just materialize out of nowhere.
69
232140
2771
Las series de prueba no se materializan de la nada.
03:54
We actually can create them.
70
234935
1788
En verdad las podemos crear.
03:56
So there's an opportunity to create full-spectrum training sets
71
236747
4176
Por ende, se pueden crear series de prueba con espectros completos
04:00
that reflect a richer portrait of humanity.
72
240947
3824
que reflejen de manera más exhaustiva un retrato de la humanidad.
04:04
Now you've seen in my examples
73
244795
2221
Ya han visto en mis ejemplos
04:07
how social robots
74
247040
1768
cómo con los robots sociales
04:08
was how I found out about exclusion with algorithmic bias.
75
248832
4611
me enteré de la exclusión por el sesgo algorítmico.
04:13
But algorithmic bias can also lead to discriminatory practices.
76
253467
4815
Además, el sesgo algorítmico puede generar prácticas discriminatorias.
04:19
Across the US,
77
259257
1453
En EE.UU.
04:20
police departments are starting to use facial recognition software
78
260734
4198
los departamentos de policía incorporan software de reconocimiento facial
04:24
in their crime-fighting arsenal.
79
264956
2459
en su arsenal para la lucha contra el crimen.
04:27
Georgetown Law published a report
80
267439
2013
Georgetown publicó un informe
04:29
showing that one in two adults in the US -- that's 117 million people --
81
269476
6763
que muestra que uno de cada dos adultos en EE.UU., 117 millones de personas,
04:36
have their faces in facial recognition networks.
82
276263
3534
tiene sus rostros en redes de reconocimiento facial.
04:39
Police departments can currently look at these networks unregulated,
83
279821
4552
Los departamentos de policía hoy tienen acceso a esas redes no reguladas,
04:44
using algorithms that have not been audited for accuracy.
84
284397
4286
mediante algoritmos cuya exactitud no ha sido testeada.
04:48
Yet we know facial recognition is not fail proof,
85
288707
3864
Sabemos que el reconocimiento facial no es a prueba de fallas
04:52
and labeling faces consistently remains a challenge.
86
292595
4179
y etiquetar rostros de forma consistente aún es un desafío.
04:56
You might have seen this on Facebook.
87
296798
1762
Tal vez lo han visto en Facebook.
04:58
My friends and I laugh all the time when we see other people
88
298584
2988
Mis amigos y yo nos reímos, cuando vemos a otros
05:01
mislabeled in our photos.
89
301596
2458
mal etiquetados en nuestras fotos.
05:04
But misidentifying a suspected criminal is no laughing matter,
90
304078
5591
Pero identificar mal a un sospechoso no es un tema para reírse,
05:09
nor is breaching civil liberties.
91
309693
2827
tampoco lo es violar la libertad civil.
05:12
Machine learning is being used for facial recognition,
92
312544
3205
El aprendizaje automático se usa para el reconocimiento facial,
05:15
but it's also extending beyond the realm of computer vision.
93
315773
4505
pero también se está extendiendo al campo de la visión por computadora.
05:21
In her book, "Weapons of Math Destruction,"
94
321086
4016
En su libro, "Armas de destrucción matemática",
05:25
data scientist Cathy O'Neil talks about the rising new WMDs --
95
325126
6681
la científica de datos Cathy O'Neil habla sobre los nuevos WMDs,
05:31
widespread, mysterious and destructive algorithms
96
331831
4353
algoritmos amplios, misteriosos y destructivos
05:36
that are increasingly being used to make decisions
97
336208
2964
que se usan cada vez más para tomar decisiones
05:39
that impact more aspects of our lives.
98
339196
3177
que influyen sobre muchos aspectos de nuestras vidas.
05:42
So who gets hired or fired?
99
342397
1870
¿A quién se contrata o se despide?
05:44
Do you get that loan? Do you get insurance?
100
344291
2112
¿Recibes el préstamo? ¿Y la cobertura de seguros?
05:46
Are you admitted into the college you wanted to get into?
101
346427
3503
¿Eres aceptado en la universidad a la que deseas entrar?
05:49
Do you and I pay the same price for the same product
102
349954
3509
¿Tú y yo pagamos el mismo precio por el mismo producto
05:53
purchased on the same platform?
103
353487
2442
comprado en la misma plataforma?
05:55
Law enforcement is also starting to use machine learning
104
355953
3759
La aplicación de la ley también empieza a usar el aprendizaje de máquina
05:59
for predictive policing.
105
359736
2289
para la predicción de la policía.
06:02
Some judges use machine-generated risk scores to determine
106
362049
3494
Algunos jueces usan puntajes de riesgo generados por máquinas para determinar
06:05
how long an individual is going to spend in prison.
107
365567
4402
cuánto tiempo un individuo permanecerá en prisión.
06:09
So we really have to think about these decisions.
108
369993
2454
Así que hay que pensar sobre estas decisiones.
06:12
Are they fair?
109
372471
1182
¿Son justas?
06:13
And we've seen that algorithmic bias
110
373677
2890
Y hemos visto que el sesgo algorítmico
06:16
doesn't necessarily always lead to fair outcomes.
111
376591
3374
no necesariamente lleva siempre a resultados justos.
06:19
So what can we do about it?
112
379989
1964
Entonces, ¿qué podemos hacer al respecto?
06:21
Well, we can start thinking about how we create more inclusive code
113
381977
3680
Bueno, podemos empezar a pensar en cómo creamos un código más inclusivo
06:25
and employ inclusive coding practices.
114
385681
2990
y emplear prácticas de codificación inclusivas.
06:28
It really starts with people.
115
388695
2309
Realmente empieza con la gente.
06:31
So who codes matters.
116
391528
1961
Con los que codifican cosas.
06:33
Are we creating full-spectrum teams with diverse individuals
117
393513
4119
¿Estamos creando equipos de amplio espectro con diversidad de personas
06:37
who can check each other's blind spots?
118
397656
2411
que pueden comprobar los puntos ciegos de los demás?
06:40
On the technical side, how we code matters.
119
400091
3545
Desde el punto de vista técnico, importa cómo codificamos.
06:43
Are we factoring in fairness as we're developing systems?
120
403660
3651
¿Lo gestionamos con equidad al desarrollar los sistemas?
06:47
And finally, why we code matters.
121
407335
2913
Y finalmente, importa por qué codificamos.
06:50
We've used tools of computational creation to unlock immense wealth.
122
410605
5083
Hemos usado herramientas informáticas
para generar una riqueza inmensa.
06:55
We now have the opportunity to unlock even greater equality
123
415712
4447
Ahora tenemos la oportunidad de generar una igualdad aún más grande
07:00
if we make social change a priority
124
420183
2930
si hacemos del cambio social una prioridad
07:03
and not an afterthought.
125
423137
2170
y no solo un pensamiento.
07:05
And so these are the three tenets that will make up the "incoding" movement.
126
425828
4522
Estos son los tres principios que constituirán el movimiento "codificador".
07:10
Who codes matters,
127
430374
1652
Quién codifica importa,
07:12
how we code matters
128
432050
1543
cómo codificamos importa,
07:13
and why we code matters.
129
433617
2023
y por qué codificamos importa.
07:15
So to go towards incoding, we can start thinking about
130
435664
3099
Así que, para abordar la codificación, podemos empezar a pensar
07:18
building platforms that can identify bias
131
438787
3164
en construir plataformas que puedan identificar sesgos
07:21
by collecting people's experiences like the ones I shared,
132
441975
3078
reuniendo experiencias de la gente como las que compartí,
07:25
but also auditing existing software.
133
445077
3070
pero también auditando el software existente.
07:28
We can also start to create more inclusive training sets.
134
448171
3765
También podemos crear grupos de formación más inclusivos.
07:31
Imagine a "Selfies for Inclusion" campaign
135
451960
2803
Imaginen una campaña de "Selfies por la inclusión"
07:34
where you and I can help developers test and create
136
454787
3655
donde Uds. y yo podamos ayudar a los desarrolladores a crear
07:38
more inclusive training sets.
137
458466
2093
grupos de formación más inclusivos.
07:41
And we can also start thinking more conscientiously
138
461122
2828
Y también podemos empezar a pensar más concienzudamente
07:43
about the social impact of the technology that we're developing.
139
463974
5391
sobre el impacto social de la tecnología que estamos desarrollando.
07:49
To get the incoding movement started,
140
469389
2393
Para iniciar el movimiento de codificación,
07:51
I've launched the Algorithmic Justice League,
141
471806
2847
creé la Liga de la Justicia algorítmica,
07:54
where anyone who cares about fairness can help fight the coded gaze.
142
474677
5872
donde todo el que se preocupa por la equidad
puede ayudar a combatir la mirada codificada.
08:00
On codedgaze.com, you can report bias,
143
480573
3296
En codedgaze.com pueden informar sesgos,
08:03
request audits, become a tester
144
483893
2445
solicitar auditorías, convertirse en un betatesters
08:06
and join the ongoing conversation,
145
486362
2771
y unirse a la conversación en curso,
08:09
#codedgaze.
146
489157
2287
#codedgaze.
08:12
So I invite you to join me
147
492562
2487
Así que los invito a que se unan a mí
08:15
in creating a world where technology works for all of us,
148
495073
3719
para crear un mundo donde la tecnología trabaje para todos nosotros,
08:18
not just some of us,
149
498816
1897
no solo para algunos de nosotros,
08:20
a world where we value inclusion and center social change.
150
500737
4588
un mundo donde se valore la inclusión y así centrar el cambio social.
08:25
Thank you.
151
505349
1175
Gracias.
08:26
(Applause)
152
506548
4271
(Aplausos)
08:32
But I have one question:
153
512693
2854
Pero tengo una pregunta:
08:35
Will you join me in the fight?
154
515571
2059
¿Se unirán a mí en mi lucha?
08:37
(Laughter)
155
517654
1285
(Risas)
08:38
(Applause)
156
518963
3687
(Aplausos)
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7