How to keep human bias out of AI | Kriti Sharma

99,340 views ・ 2019-04-12

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

00:00
Translator: Ivana Korom Reviewer: Joanna Pietrulewicz
0
0
7000
Traductor: María Julia Galles Revisor: Silvina Katz
00:12
How many decisions have been made about you today,
1
12875
3768
¿Cuántas decisiones sobre Uds. han sido tomadas hoy,
00:16
or this week or this year,
2
16667
2601
o esta semana, o este año,
00:19
by artificial intelligence?
3
19292
1958
por la inteligencia artificial?
00:22
I build AI for a living
4
22958
1685
Me gano la vida construyendo IA,
00:24
so, full disclosure, I'm kind of a nerd.
5
24667
3017
así que, revelación total, soy una especie de nerda.
00:27
And because I'm kind of a nerd,
6
27708
2393
Y como lo soy,
00:30
wherever some new news story comes out
7
30125
2351
cada vez que sale una noticia
00:32
about artificial intelligence stealing all our jobs,
8
32500
3434
sobre la inteligencia artificial que nos roba nuestros trabajos
00:35
or robots getting citizenship of an actual country,
9
35958
4185
o sobre robots que obtienen la ciudadanía de un país real,
00:40
I'm the person my friends and followers message
10
40167
3142
yo soy a quien mis amigos y mis seguidores le mandan mensajes
00:43
freaking out about the future.
11
43333
1542
asustados por el futuro.
00:45
We see this everywhere.
12
45833
2101
Lo vemos en todas partes:
00:47
This media panic that our robot overlords are taking over.
13
47958
4893
este pánico mediático en el que nuestros amos robots toman el control.
00:52
We could blame Hollywood for that.
14
52875
1917
Podríamos culpar de eso a Hollywood.
00:56
But in reality, that's not the problem we should be focusing on.
15
56125
4125
Pero en realidad, ese no es el problema en el que nos debemos concentrar.
01:01
There is a more pressing danger, a bigger risk with AI,
16
61250
3643
Con la IA existe un problema más urgente, un riesgo mayor
01:04
that we need to fix first.
17
64917
1583
que debemos resolver primero.
01:07
So we are back to this question:
18
67417
2309
Así que volvamos a esta pregunta:
01:09
How many decisions have been made about you today by AI?
19
69750
4708
¿Cuántas decisiones sobre Uds. fueron tomadas hoy mediante la IA?
01:15
And how many of these
20
75792
1976
Y cuántas de estas
01:17
were based on your gender, your race or your background?
21
77792
4500
se han basado en su sexo, su raza o su origen?
01:24
Algorithms are being used all the time
22
84500
2768
Los algoritmos se usan todo el tiempo
01:27
to make decisions about who we are and what we want.
23
87292
3833
para tomar decisiones sobre quiénes somos y qué queremos.
01:32
Some of the women in this room will know what I'm talking about
24
92208
3643
Algunas de las mujeres en esta sala saben de lo que hablo
01:35
if you've been made to sit through those pregnancy test adverts on YouTube
25
95875
3768
si han sido expuestas a esos avisos sobre pruebas de embarazo en YouTube
01:39
like 1,000 times.
26
99667
2059
como unas 1000 veces.
01:41
Or you've scrolled past adverts of fertility clinics
27
101750
2851
O han visto avisos pasados sobre clínicas de fertilidad
01:44
on your Facebook feed.
28
104625
2042
en su página de Facebook.
01:47
Or in my case, Indian marriage bureaus.
29
107625
2393
O, en mi caso, oficinas indias de matrimonio.
01:50
(Laughter)
30
110042
1267
(Risas)
01:51
But AI isn't just being used to make decisions
31
111333
2976
Pero la IA no solo se usa para tomar decisiones
01:54
about what products we want to buy
32
114333
2601
sobre los productos que queremos comprar
01:56
or which show we want to binge watch next.
33
116958
2500
o el próximo programa de televisión que queremos ver.
02:01
I wonder how you'd feel about someone who thought things like this:
34
121042
5184
Me pregunto qué sentirían ante alguien que piensa cosas como esta:
02:06
"A black or Latino person
35
126250
1934
"Una persona negra o latina
02:08
is less likely than a white person to pay off their loan on time."
36
128208
4125
tiene menos probabilidad de saldar a tiempo un préstamo
que una persona blanca".
02:13
"A person called John makes a better programmer
37
133542
2809
"Una persona llamada Juan es un mejor programador
02:16
than a person called Mary."
38
136375
1667
que una persona llamada María".
02:19
"A black man is more likely to be a repeat offender than a white man."
39
139250
5083
"Es más probable que una persona negra sea reincidente que una persona blanca".
02:26
You're probably thinking,
40
146958
1268
Probablemente piensen:
02:28
"Wow, that sounds like a pretty sexist, racist person," right?
41
148250
3750
"Oh, eso suena como una persona bastante sexista y racista", ¿no?
02:33
These are some real decisions that AI has made very recently,
42
153000
4851
Estas son algunas de las decisiones reales que ha tomado la IA muy recientemente,
02:37
based on the biases it has learned from us,
43
157875
2934
basada en los prejuicios que ha aprendido de nosotros,
02:40
from the humans.
44
160833
1250
de los humanos.
02:43
AI is being used to help decide whether or not you get that job interview;
45
163750
4809
La IA se usa para ayudar a decidir si reciben o no esa entrevista de trabajo,
02:48
how much you pay for your car insurance;
46
168583
2393
cuánto pagan por el seguro del auto,
02:51
how good your credit score is;
47
171000
1893
cuán bueno es su historial de crédito,
02:52
and even what rating you get in your annual performance review.
48
172917
3125
e incluso qué calificación reciben en su revisión anual de desempeño.
02:57
But these decisions are all being filtered through
49
177083
3143
Pero estas decisiones se filtran a través
03:00
its assumptions about our identity, our race, our gender, our age.
50
180250
5875
de sus supuestos sobre nuestra identidad, nuestra raza, nuestro sexo, nuestra edad.
03:08
How is that happening?
51
188250
2268
¿Cómo ocurre eso?
03:10
Now, imagine an AI is helping a hiring manager
52
190542
3517
Ahora imaginen que la IA está ayudando a un gerente de contrataciones
03:14
find the next tech leader in the company.
53
194083
2851
a encontrar el siguiente líder de tecnología para la compañía.
03:16
So far, the manager has been hiring mostly men.
54
196958
3101
Hasta ahora el gerente ha estado contratando mayormente hombres.
03:20
So the AI learns men are more likely to be programmers than women.
55
200083
4750
Entonces, la IA aprende que es más probable
que los programadores sean hombres, en vez de mujeres.
03:25
And it's a very short leap from there to:
56
205542
2892
Y de ahí hay un estrecho muy corto hasta:
03:28
men make better programmers than women.
57
208458
2042
"los hombres son mejores programadores que las mujeres".
03:31
We have reinforced our own bias into the AI.
58
211417
3726
Hemos reforzado nuestros propios prejuicios en la IA.
03:35
And now, it's screening out female candidates.
59
215167
3625
Y ahora elimina a las candidatas femeninas.
03:40
Hang on, if a human hiring manager did that,
60
220917
3017
Si un gerente de contratación humano hiciera eso
03:43
we'd be outraged, we wouldn't allow it.
61
223958
2351
estaríamos indignados, no lo permitiríamos.
03:46
This kind of gender discrimination is not OK.
62
226333
3476
Este tipo de discriminación por el sexo no está bien.
03:49
And yet somehow, AI has become above the law,
63
229833
4518
Y, sin embargo, de algún modo, la IA se ha situado sobre la ley,
03:54
because a machine made the decision.
64
234375
2083
ya que una máquina tomó la decisión.
03:57
That's not it.
65
237833
1518
No solo eso.
03:59
We are also reinforcing our bias in how we interact with AI.
66
239375
4875
Estamos reforzando también nuestro prejuicio en cómo interactuamos con la IA.
04:04
How often do you use a voice assistant like Siri, Alexa or even Cortana?
67
244917
5976
¿Cuán a menudo usan un asistente de voz como Siri, Alexa o incluso Cortana?
04:10
They all have two things in common:
68
250917
2559
Ellos tienen dos cosas en común:
04:13
one, they can never get my name right,
69
253500
3101
una, nunca pueden captar bien mi nombre,
04:16
and second, they are all female.
70
256625
2667
y segundo, todas son femeninas.
04:20
They are designed to be our obedient servants,
71
260417
2767
Están designadas para ser nuestros sirvientes obedientes,
04:23
turning your lights on and off, ordering your shopping.
72
263208
3250
que encienden y apagan nuestras luces, que encargan nuestra compra.
04:27
You get male AIs too, but they tend to be more high-powered,
73
267125
3309
También hay una IA masculina, pero tiende a tener más poder,
04:30
like IBM Watson, making business decisions,
74
270458
3059
como IBM Watson, que toma decisiones de negocios,
04:33
Salesforce Einstein or ROSS, the robot lawyer.
75
273541
3792
Salesforce Einstein o ROSS, el robot abogado.
04:38
So poor robots, even they suffer from sexism in the workplace.
76
278208
4060
Así que, pobres robots, incluso ellos sufren el sexismo en el trabajo.
04:42
(Laughter)
77
282292
1125
(Risas)
04:44
Think about how these two things combine
78
284542
2851
Piensen en cómo se combinan estas dos cosas
04:47
and affect a kid growing up in today's world around AI.
79
287417
5309
y en cómo afectan a un niño que crece en el mundo de hoy, con la IA.
04:52
So they're doing some research for a school project
80
292750
2934
Por ejemplo, hacen una investigación para un proyecto escolar
04:55
and they Google images of CEO.
81
295708
3018
y buscan en Google imágenes de directores generales.
04:58
The algorithm shows them results of mostly men.
82
298750
2893
El algoritmo les muestra una mayoría de hombres como resultado.
05:01
And now, they Google personal assistant.
83
301667
2559
Y ahora buscan en Google "asistente personal".
05:04
As you can guess, it shows them mostly females.
84
304250
3434
Como se imaginarán, les muestra una mayoría de mujeres.
05:07
And then they want to put on some music, and maybe order some food,
85
307708
3601
Y luego ellos quieren poner algo de música y quizás encargar algo de comida,
05:11
and now, they are barking orders at an obedient female voice assistant.
86
311333
6584
y dan órdenes, gritando, a una asistente de voz femenina.
05:19
Some of our brightest minds are creating this technology today.
87
319542
5309
Algunas de nuestras mentes más brillantes están creando hoy en día esta tecnología.
05:24
Technology that they could have created in any way they wanted.
88
324875
4184
Una tecnología que podrían haber creado del modo que quisieran.
05:29
And yet, they have chosen to create it in the style of 1950s "Mad Man" secretary.
89
329083
5685
Y, sin embargo, eligieron crearla al estilo
de la secretaria de "Mad Men" de los años 50.
05:34
Yay!
90
334792
1500
¡Yey!
05:36
But OK, don't worry,
91
336958
1310
Pero no se preocupen,
05:38
this is not going to end with me telling you
92
338292
2059
no voy a terminar diciéndoles
05:40
that we are all heading towards sexist, racist machines running the world.
93
340375
3477
que vamos rumbo hacia que las máquinas sexistas y racistas dominen el mundo.
05:44
The good news about AI is that it is entirely within our control.
94
344792
5791
La buena noticia sobre la IA es que está completamente bajo nuestro control.
05:51
We get to teach the right values, the right ethics to AI.
95
351333
4000
Tenemos que enseñarle a la IA los valores correctos, la ética correcta.
05:56
So there are three things we can do.
96
356167
2184
Y podemos hacer tres cosas.
05:58
One, we can be aware of our own biases
97
358375
3351
Una, podemos ser conscientes de nuestros propios prejuicios
06:01
and the bias in machines around us.
98
361750
2726
y de los prejuicios en las máquinas a nuestro alrededor.
06:04
Two, we can make sure that diverse teams are building this technology.
99
364500
4518
Dos, podemos asegurarnos de que equipos heterogéneos construyan esta tecnología.
06:09
And three, we have to give it diverse experiences to learn from.
100
369042
4916
Y tres, debemos brindarle experiencias diferentes para que aprenda.
06:14
I can talk about the first two from personal experience.
101
374875
3309
Desde mi experiencia personal puedo hablar sobre las dos primeras.
06:18
When you work in technology
102
378208
1435
Cuando trabajas en tecnología
06:19
and you don't look like a Mark Zuckerberg or Elon Musk,
103
379667
3392
y no te pareces a Mark Zuckerberg o Elon Musk,
06:23
your life is a little bit difficult, your ability gets questioned.
104
383083
3750
tu vida es un poco difícil, cuestionan tu capacidad.
06:27
Here's just one example.
105
387875
1393
Este es un ejemplo.
06:29
Like most developers, I often join online tech forums
106
389292
3726
Como muchos desarrolladores, a menudo entro en foros tecnológicos en línea
06:33
and share my knowledge to help others.
107
393042
3226
y comparto mis conocimientos para ayudar a otros.
06:36
And I've found,
108
396292
1309
Y he encontrado
06:37
when I log on as myself, with my own photo, my own name,
109
397625
3976
que cuando accedo como yo, con mi foto y mi nombre,
06:41
I tend to get questions or comments like this:
110
401625
4601
tiendo a recibir preguntas o comentarios como este:
06:46
"What makes you think you're qualified to talk about AI?"
111
406250
3000
"¿Qué te hace pensar que estás cualificada para hablar sobre IA?".
06:50
"What makes you think you know about machine learning?"
112
410458
3476
"Qué te hace pensar que sabes sobre el aprendizaje automático?".
06:53
So, as you do, I made a new profile,
113
413958
3435
Así que, como Uds. lo harían, hice un nuevo perfil de Internet,
06:57
and this time, instead of my own picture, I chose a cat with a jet pack on it.
114
417417
4851
y esta vez, en lugar de mi foto, elegí un gato con una mochila propulsora.
07:02
And I chose a name that did not reveal my gender.
115
422292
2458
Y elegí un nombre que no revelara mi sexo.
07:05
You can probably guess where this is going, right?
116
425917
2726
Pueden imaginarse a qué conduce esto, ¿no?
07:08
So, this time, I didn't get any of those patronizing comments about my ability
117
428667
6392
Esta vez no recibí ninguno de estos comentarios despectivos sobre mi capacidad
07:15
and I was able to actually get some work done.
118
435083
3334
y pude lograr algunas cosas.
07:19
And it sucks, guys.
119
439500
1851
Y esto apesta, chicos.
07:21
I've been building robots since I was 15,
120
441375
2476
He estado construyendo robots desde los 15 años,
07:23
I have a few degrees in computer science,
121
443875
2268
tengo algunos títulos en informática
07:26
and yet, I had to hide my gender
122
446167
2434
y, sin embargo, tengo que esconder mi sexo
07:28
in order for my work to be taken seriously.
123
448625
2250
para que tomen en serio mi trabajo.
07:31
So, what's going on here?
124
451875
1893
Entonces, ¿qué es lo que ocurre aquí?
07:33
Are men just better at technology than women?
125
453792
3208
¿Los hombres son mejores que las mujeres en cuanto a la tecnología?
07:37
Another study found
126
457917
1559
Otro estudio descubrió
07:39
that when women coders on one platform hid their gender, like myself,
127
459500
4934
que cuando las mujeres que hacen código en una plataforma también ocultaron su sexo,
07:44
their code was accepted four percent more than men.
128
464458
3250
su código fue aceptado un 4 % más que el de los hombres.
07:48
So this is not about the talent.
129
468542
2916
Así que no es cuestión de talento.
07:51
This is about an elitism in AI
130
471958
2893
Se trata de un elitismo en la IA
07:54
that says a programmer needs to look like a certain person.
131
474875
2792
que dice que un programador debe tener cierto aspecto.
07:59
What we really need to do to make AI better
132
479375
3101
Lo que debemos hacer realmente para mejorar la IA
08:02
is bring people from all kinds of backgrounds.
133
482500
3042
es atraer a personas con orígenes variados.
08:06
We need people who can write and tell stories
134
486542
2559
Necesitamos gente que pueda escribir y contar historias
08:09
to help us create personalities of AI.
135
489125
2167
para ayudarnos a crear las personalidades de la IA.
08:12
We need people who can solve problems.
136
492208
2042
Necesitamos gente capaz de resolver problemas.
08:15
We need people who face different challenges
137
495125
3768
Necesitamos gente que enfrente desafíos diferentes
08:18
and we need people who can tell us what are the real issues that need fixing
138
498917
5351
y que nos digan cuáles son los problemas reales que necesitan resolverse
08:24
and help us find ways that technology can actually fix it.
139
504292
3041
y que nos ayuden a encontrar los modos en que la tecnología puede resolverlos.
08:29
Because, when people from diverse backgrounds come together,
140
509833
3726
Porque cuando las personas de distintos orígenes se unen,
08:33
when we build things in the right way,
141
513583
2143
cuando construimos las cosas del modo correcto,
08:35
the possibilities are limitless.
142
515750
2042
las posibilidades son ilimitadas.
08:38
And that's what I want to end by talking to you about.
143
518750
3309
Y eso es de lo que finalmente quiero hablarles.
08:42
Less racist robots, less machines that are going to take our jobs --
144
522083
4225
Menos robots racistas, menos máquinas que tomarán nuestros trabajos...
08:46
and more about what technology can actually achieve.
145
526332
3125
y más sobre lo que la tecnología puede lograr.
08:50
So, yes, some of the energy in the world of AI,
146
530292
3434
Así que, sí, algo de la energía en el mundo de la IA,
08:53
in the world of technology
147
533750
1393
en el mundo de la tecnología
08:55
is going to be about what ads you see on your stream.
148
535167
4267
estará dirigida hacia la publicidad que ven cuando están en Internet.
08:59
But a lot of it is going towards making the world so much better.
149
539458
5209
Pero mucho de ella se dirigirá a hacer que el mundo sea mucho mejor.
09:05
Think about a pregnant woman in the Democratic Republic of Congo,
150
545500
3768
Piensen en una mujer embarazada en la República Democrática del Congo,
09:09
who has to walk 17 hours to her nearest rural prenatal clinic
151
549292
4184
que debe caminar 17 horas hasta la clínica rural prenatal más cercana
09:13
to get a checkup.
152
553500
1851
para hacerse una revisión médica.
09:15
What if she could get diagnosis on her phone, instead?
153
555375
2917
¿Y si en lugar de eso ella pudiera obtener un diagnóstico por teléfono?
09:19
Or think about what AI could do
154
559750
1809
O piensen en lo que la IA podría hacer
09:21
for those one in three women in South Africa
155
561583
2726
por esa mujer de cada tres en Sudáfrica
09:24
who face domestic violence.
156
564333
2125
que sufre la violencia doméstica.
09:27
If it wasn't safe to talk out loud,
157
567083
2726
Si fuera peligroso hablar en voz alta,
09:29
they could get an AI service to raise alarm,
158
569833
2476
ella podría tener un servicio de IA para lanzar la alarma,
09:32
get financial and legal advice.
159
572333
2459
para obtener ayuda financiera y legal.
09:35
These are all real examples of projects that people, including myself,
160
575958
5018
Estos son ejemplos de proyectos reales que la gente, incluyéndome a mí,
09:41
are working on right now, using AI.
161
581000
2500
está trabajando ahora, empleando la IA.
09:45
So, I'm sure in the next couple of days there will be yet another news story
162
585542
3601
Así que estoy segura de que en los próximos días habrá otra noticia
09:49
about the existential risk,
163
589167
2684
sobre el riesgo existencial,
09:51
robots taking over and coming for your jobs.
164
591875
2434
robots tomando el control y tomando sus trabajos.
09:54
(Laughter)
165
594333
1018
(Risas)
09:55
And when something like that happens,
166
595375
2309
Y cuando pase algo como eso,
09:57
I know I'll get the same messages worrying about the future.
167
597708
3601
se que recibiré los mismos mensajes de preocupación con respecto al futuro.
10:01
But I feel incredibly positive about this technology.
168
601333
3667
Pero me siento muy positiva con respecto a esta tecnología.
10:07
This is our chance to remake the world into a much more equal place.
169
607458
5959
Esta es nuestra oportunidad de hacer el mundo un lugar más igualitario.
10:14
But to do that, we need to build it the right way from the get go.
170
614458
4000
Pero para hacerlo debemos construirlo del modo correcto desde el principio.
10:19
We need people of different genders, races, sexualities and backgrounds.
171
619667
5083
Necesitamos personas de distintos sexos, razas, sexualidades y orígenes.
10:26
We need women to be the makers
172
626458
2476
Necesitamos que las mujeres sean hacedoras,
10:28
and not just the machines who do the makers' bidding.
173
628958
3000
y no solo las máquinas que sigan las órdenes de los hombres.
10:33
We need to think very carefully what we teach machines,
174
633875
3768
Debemos pensar muy cuidadosamente lo que le enseñamos a las máquinas,
10:37
what data we give them,
175
637667
1642
los datos que les damos,
10:39
so they don't just repeat our own past mistakes.
176
639333
3125
de modo que no repitan nuestros errores pasados.
10:44
So I hope I leave you thinking about two things.
177
644125
3542
Espero dejarlos pensando en dos cosas.
10:48
First, I hope you leave thinking about bias today.
178
648542
4559
Primero, espero dejarlos pensando en los prejuicios.
10:53
And that the next time you scroll past an advert
179
653125
3184
Y la próxima vez que vean una publicidad en Internet
10:56
that assumes you are interested in fertility clinics
180
656333
2810
que asume que están interesados en clínicas de fertilidad
10:59
or online betting websites,
181
659167
2851
o en sitios web de apuestas en línea,
11:02
that you think and remember
182
662042
2017
que piensen y recuerden
11:04
that the same technology is assuming that a black man will reoffend.
183
664083
4625
que la misma tecnología asume que un hombre negro será reincidente;
11:09
Or that a woman is more likely to be a personal assistant than a CEO.
184
669833
4167
o que es más probable que una mujer sea una asistente personal y no una directora.
11:14
And I hope that reminds you that we need to do something about it.
185
674958
3709
Y espero que les recuerde que debemos hacer algo sobre eso.
11:20
And second,
186
680917
1851
Y segundo,
11:22
I hope you think about the fact
187
682792
1892
espero que piensen sobre el hecho
11:24
that you don't need to look a certain way
188
684708
1976
de que no necesitan tener un cierto aspecto
11:26
or have a certain background in engineering or technology
189
686708
3851
o tener una cierta formación en ingeniería o tecnología
11:30
to create AI,
190
690583
1268
para crear IA,
11:31
which is going to be a phenomenal force for our future.
191
691875
2875
lo que será una fuerza fenomenal para nuestro futuro.
11:36
You don't need to look like a Mark Zuckerberg,
192
696166
2143
No necesitan ser parecidos a Mark Zuckerberg,
11:38
you can look like me.
193
698333
1250
pueden parecerse a mí.
11:41
And it is up to all of us in this room
194
701250
2893
Y depende de todos Uds. en esta sala
11:44
to convince the governments and the corporations
195
704167
2726
poder convencer a los gobiernos y las corporaciones
11:46
to build AI technology for everyone,
196
706917
2892
para que construyan una IA para todos,
11:49
including the edge cases.
197
709833
2393
incluso los casos marginales.
11:52
And for us all to get education
198
712250
2059
Y que todos nos eduquemos en el futuro
11:54
about this phenomenal technology in the future.
199
714333
2375
sobre esta tecnología fenomenal.
11:58
Because if we do that,
200
718167
2017
Porque si hacemos eso,
12:00
then we've only just scratched the surface of what we can achieve with AI.
201
720208
4893
habremos arañado la superficie de lo que podemos lograr con la IA.
12:05
Thank you.
202
725125
1268
Gracias.
12:06
(Applause)
203
726417
2708
(Aplausos)
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7