Machine intelligence makes human morals more important | Zeynep Tufekci

177,726 views

2016-11-11 ・ TED


New videos

Machine intelligence makes human morals more important | Zeynep Tufekci

177,726 views ・ 2016-11-11

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Lidia Cámara de la Fuente Revisor: Sebastian Betti
00:12
So, I started my first job as a computer programmer
0
12739
4122
Empecé mi primer trabajo como programadora informática
00:16
in my very first year of college --
1
16885
1956
en mi primer año de universidad,
00:18
basically, as a teenager.
2
18865
1507
básicamente, siendo aún adolescente.
00:20
Soon after I started working,
3
20889
1732
Poco después de empezar a trabajar,
00:22
writing software in a company,
4
22645
1610
programando software en una empresa,
00:24
a manager who worked at the company came down to where I was,
5
24799
3635
un gerente que trabajaba en la compañía vino allí donde estaba yo,
00:28
and he whispered to me,
6
28458
1268
y me dijo al oído:
00:30
"Can he tell if I'm lying?"
7
30229
2861
"¿Puede decir ella si estoy mintiendo?"
00:33
There was nobody else in the room.
8
33806
2077
No había nadie más en la habitación.
00:37
"Can who tell if you're lying? And why are we whispering?"
9
37032
4389
"¿Puede "quién" decir si está mintiendo? ¿Y por qué estamos susurrando?"
00:42
The manager pointed at the computer in the room.
10
42266
3107
El gerente señaló la computadora de la habitación.
00:45
"Can he tell if I'm lying?"
11
45397
3096
"¿Puede ella decir si estoy mintiendo?"
00:49
Well, that manager was having an affair with the receptionist.
12
49613
4362
Bueno, el gerente tenía una aventura con la recepcionista.
00:53
(Laughter)
13
53999
1112
(Risas)
00:55
And I was still a teenager.
14
55135
1766
Y yo todavía era adolescente.
00:57
So I whisper-shouted back to him,
15
57447
2019
Por lo tanto, le susurro yo a él:
00:59
"Yes, the computer can tell if you're lying."
16
59490
3624
"Sí, la computadora puede determinar si Ud. está mintiendo".
01:03
(Laughter)
17
63138
1806
(Risas)
01:04
Well, I laughed, but actually, the laugh's on me.
18
64968
2923
Bueno, me reí, pero, en realidad, me reía de mí.
01:07
Nowadays, there are computational systems
19
67915
3268
Hoy en día, existen sistemas informáticos
01:11
that can suss out emotional states and even lying
20
71207
3548
que pueden detectar estados emocionales e incluso mentir
01:14
from processing human faces.
21
74779
2044
a partir del procesamiento de rostros humanos.
01:17
Advertisers and even governments are very interested.
22
77248
4153
Los anunciantes, e incluso hay gobiernos muy interesados.
Me había convertido en programadora informática
01:22
I had become a computer programmer
23
82319
1862
01:24
because I was one of those kids crazy about math and science.
24
84205
3113
porque yo era una de esas chicas locas por las matemáticas y la ciencia.
01:27
But somewhere along the line I'd learned about nuclear weapons,
25
87942
3108
Pero también me había interesado por las armas nucleares,
01:31
and I'd gotten really concerned with the ethics of science.
26
91074
2952
y había empezado a realmente a preocuparme por la ética de la ciencia.
01:34
I was troubled.
27
94050
1204
Yo estaba preocupada.
01:35
However, because of family circumstances,
28
95278
2641
Sin embargo, por circunstancias familiares,
01:37
I also needed to start working as soon as possible.
29
97943
3298
también debía empezar a trabajar lo antes posible.
01:41
So I thought to myself, hey, let me pick a technical field
30
101265
3299
Así que me dije, bueno, vamos a elegir un campo técnico
01:44
where I can get a job easily
31
104588
1796
donde poder conseguir un trabajo fácil
01:46
and where I don't have to deal with any troublesome questions of ethics.
32
106408
4018
y donde no tenga que lidiar con preguntas molestas sobre ética.
01:51
So I picked computers.
33
111022
1529
Así que elegí las computadoras.
01:52
(Laughter)
34
112575
1104
(Risas)
01:53
Well, ha, ha, ha! All the laughs are on me.
35
113703
3410
Bueno, ¡ja, ja, ja! Todas las risas a mi costa.
01:57
Nowadays, computer scientists are building platforms
36
117137
2754
Hoy en día, los informáticos construyen plataformas
01:59
that control what a billion people see every day.
37
119915
4209
que controlan lo que millones de personas ven todos los días.
02:05
They're developing cars that could decide who to run over.
38
125052
3822
Están desarrollando automóviles que podrían decidir a quién atropellar.
02:09
They're even building machines, weapons,
39
129707
3213
Es más, están construyendo máquinas, armas,
02:12
that might kill human beings in war.
40
132944
2285
que podrían matar a seres humanos en la guerra.
02:15
It's ethics all the way down.
41
135253
2771
Esto es ética a fondo.
02:19
Machine intelligence is here.
42
139183
2058
La inteligencia artificial está aquí.
02:21
We're now using computation to make all sort of decisions,
43
141823
3474
Estamos usando la computación para tomar todo tipo de decisiones,
además de nuevos tipos de decisiones.
02:25
but also new kinds of decisions.
44
145321
1886
02:27
We're asking questions to computation that have no single right answers,
45
147231
5172
Planteamos preguntas a las computadoras que no tienen respuestas
correctas individuales, por ser subjetivas
02:32
that are subjective
46
152427
1202
02:33
and open-ended and value-laden.
47
153653
2325
e indefinidas y cargadas de valores.
02:36
We're asking questions like,
48
156002
1758
Planteamos preguntas como:
02:37
"Who should the company hire?"
49
157784
1650
"¿A quién debe contratar la empresa?"
02:40
"Which update from which friend should you be shown?"
50
160096
2759
"¿Qué actualización de qué amigo debe mostrarse?"
02:42
"Which convict is more likely to reoffend?"
51
162879
2266
"¿Qué convicto tiene más probabilidades de reincidir?"
02:45
"Which news item or movie should be recommended to people?"
52
165514
3054
"¿Qué artículo de noticias o película se deben recomendar a la gente?"
02:48
Look, yes, we've been using computers for a while,
53
168592
3372
Miren, sí, hemos venido usando computadoras hace tiempo,
02:51
but this is different.
54
171988
1517
pero esto es diferente.
02:53
This is a historical twist,
55
173529
2067
Se trata de un giro histórico,
02:55
because we cannot anchor computation for such subjective decisions
56
175620
5337
porque no podemos anclar el cálculo para este tipo de decisiones subjetivas
03:00
the way we can anchor computation for flying airplanes, building bridges,
57
180981
5420
como anclamos el cálculo para pilotar aviones, construir puentes
03:06
going to the moon.
58
186425
1259
o ir a la luna.
03:08
Are airplanes safer? Did the bridge sway and fall?
59
188449
3259
¿Son los aviones más seguros? ¿Se balanceó el puente y cayó?
03:11
There, we have agreed-upon, fairly clear benchmarks,
60
191732
4498
Ahí, hemos acordado puntos de referencia bastante claros,
03:16
and we have laws of nature to guide us.
61
196254
2239
y tenemos leyes de la naturaleza que nos guían.
03:18
We have no such anchors and benchmarks
62
198517
3394
Nosotros no tenemos tales anclas y puntos de referencia
03:21
for decisions in messy human affairs.
63
201935
3963
para las decisiones sobre cuestiones humanas desordenadas.
03:25
To make things more complicated, our software is getting more powerful,
64
205922
4237
Para complicar más las cosas, nuestro software es cada vez más potente,
03:30
but it's also getting less transparent and more complex.
65
210183
3773
pero también es cada vez menos transparente y más complejo.
03:34
Recently, in the past decade,
66
214542
2040
Recientemente, en la última década,
03:36
complex algorithms have made great strides.
67
216606
2729
algunos algoritmos complejos han hecho grandes progresos.
03:39
They can recognize human faces.
68
219359
1990
Pueden reconocer rostros humanos.
03:41
They can decipher handwriting.
69
221985
2055
Pueden descifrar la letra.
03:44
They can detect credit card fraud
70
224436
2066
Pueden detectar el fraude de tarjetas de crédito
03:46
and block spam
71
226526
1189
y bloquear el spam
03:47
and they can translate between languages.
72
227739
2037
y pueden traducir a otros idiomas.
03:49
They can detect tumors in medical imaging.
73
229800
2574
Pueden detectar tumores en imágenes médicas.
03:52
They can beat humans in chess and Go.
74
232398
2205
Puede vencer a los humanos en el ajedrez y en el Go.
03:55
Much of this progress comes from a method called "machine learning."
75
235264
4504
Gran parte de este progreso viene de un método llamado "aprendizaje automático".
El aprendizaje automático es diferente a la programación tradicional,
04:00
Machine learning is different than traditional programming,
76
240175
3187
04:03
where you give the computer detailed, exact, painstaking instructions.
77
243386
3585
donde se da al equipo instrucciones exactas, detalladas y meticulosas.
04:07
It's more like you take the system and you feed it lots of data,
78
247378
4182
Es como si uno alimentara el sistema con una gran cantidad de datos,
04:11
including unstructured data,
79
251584
1656
incluyendo los datos no estructurados,
04:13
like the kind we generate in our digital lives.
80
253264
2278
como los que generamos en nuestras vidas digitales.
04:15
And the system learns by churning through this data.
81
255566
2730
Y el sistema aprende de esos datos.
04:18
And also, crucially,
82
258669
1526
Y también, de manera crucial,
04:20
these systems don't operate under a single-answer logic.
83
260219
4380
estos sistemas no funcionan bajo una lógica de una sola respuesta.
04:24
They don't produce a simple answer; it's more probabilistic:
84
264623
2959
No producen una respuesta sencilla; es más probabilístico:
04:27
"This one is probably more like what you're looking for."
85
267606
3483
"Esto es probablemente parecido a lo que estás buscando".
La ventaja es que este método es muy potente.
04:32
Now, the upside is: this method is really powerful.
86
272023
3070
El jefe de sistemas de inteligencia artificial de Google lo llama:
04:35
The head of Google's AI systems called it,
87
275117
2076
04:37
"the unreasonable effectiveness of data."
88
277217
2197
"la eficacia irrazonable de los datos".
04:39
The downside is,
89
279791
1353
La desventaja es que
04:41
we don't really understand what the system learned.
90
281738
3071
realmente no entendemos lo que aprendió el sistema.
04:44
In fact, that's its power.
91
284833
1587
De hecho, ese es su poder.
04:46
This is less like giving instructions to a computer;
92
286946
3798
Esto no se parece a dar instrucciones a una computadora;
04:51
it's more like training a puppy-machine-creature
93
291200
4064
se parece más a la formación de una criatura cachorro máquina
04:55
we don't really understand or control.
94
295288
2371
que realmente no entendemos o controlamos.
04:58
So this is our problem.
95
298362
1551
Así que este es nuestro problema; un problema cuando el sistema
05:00
It's a problem when this artificial intelligence system gets things wrong.
96
300427
4262
de inteligencia artificial hace cosas erróneas.
05:04
It's also a problem when it gets things right,
97
304713
3540
Es también un problema cuando hace bien las cosas,
05:08
because we don't even know which is which when it's a subjective problem.
98
308277
3628
porque ni siquiera sabemos qué es qué cuando se trata de un problema subjetivo.
05:11
We don't know what this thing is thinking.
99
311929
2339
No sabemos qué está pensando esta cosa.
05:15
So, consider a hiring algorithm --
100
315493
3683
Por lo tanto, piensen en un algoritmo de contratación,
05:20
a system used to hire people, using machine-learning systems.
101
320123
4311
un sistema usado para contratar, usa sistemas de aprendizaje automático.
05:25
Such a system would have been trained on previous employees' data
102
325052
3579
un sistema así habría sido entrenado con anteriores datos de empleados
05:28
and instructed to find and hire
103
328655
2591
y tiene la instrucción de encontrar y contratar
05:31
people like the existing high performers in the company.
104
331270
3038
personas como las de alto rendimiento existentes en la empresa.
05:34
Sounds good.
105
334814
1153
Suena bien.
05:35
I once attended a conference
106
335991
1999
Una vez asistí a una conferencia
que reunió a los responsables de recursos humanos y ejecutivos,
05:38
that brought together human resources managers and executives,
107
338014
3125
las personas de alto nivel,
05:41
high-level people,
108
341163
1206
05:42
using such systems in hiring.
109
342393
1559
que usaban estos sistemas en la contratación.
05:43
They were super excited.
110
343976
1646
Estaban muy emocionados.
05:45
They thought that this would make hiring more objective, less biased,
111
345646
4653
Pensaban que esto haría la contratación más objetiva, menos tendenciosa,
05:50
and give women and minorities a better shot
112
350323
3000
para dar a las mujeres y a las minorías mejores oportunidades
05:53
against biased human managers.
113
353347
2188
contra los administradores humanos tendenciosos.
05:55
And look -- human hiring is biased.
114
355559
2843
La contratación humana es tendenciosa.
05:59
I know.
115
359099
1185
Lo sé.
06:00
I mean, in one of my early jobs as a programmer,
116
360308
3005
Es decir, en uno de mis primeros trabajos como programadora,
06:03
my immediate manager would sometimes come down to where I was
117
363337
3868
mi jefa a veces venía allí donde yo estaba
06:07
really early in the morning or really late in the afternoon,
118
367229
3753
muy temprano en la mañana o muy tarde por la tarde,
06:11
and she'd say, "Zeynep, let's go to lunch!"
119
371006
3062
y decía: "Zeynep, ¡vayamos a comer!"
06:14
I'd be puzzled by the weird timing.
120
374724
2167
Me dejaba perpleja por el momento extraño de preguntar.
06:16
It's 4pm. Lunch?
121
376915
2129
Son las 16. ¿Almuerzo?
06:19
I was broke, so free lunch. I always went.
122
379068
3094
Estaba en la ruina, así que, ante un almuerzo gratis, siempre fui.
06:22
I later realized what was happening.
123
382618
2067
Más tarde me di cuenta de lo que estaba ocurriendo.
06:24
My immediate managers had not confessed to their higher-ups
124
384709
4546
Mis jefes inmediatos no habían confesado a sus altos mandos
que el programador contratado para un trabajo serio era una adolescente
06:29
that the programmer they hired for a serious job was a teen girl
125
389279
3113
06:32
who wore jeans and sneakers to work.
126
392416
3930
que llevaba pantalones vaqueros y zapatillas de deporte en el trabajo.
Yo hacía un buen trabajo, solo que no encajaba
06:37
I was doing a good job, I just looked wrong
127
397174
2202
06:39
and was the wrong age and gender.
128
399400
1699
por la edad y por el sexo equivocado.
06:41
So hiring in a gender- and race-blind way
129
401123
3346
Así que contratar a ciegas independiente del género y de la raza
06:44
certainly sounds good to me.
130
404493
1865
ciertamente me parece bien.
06:47
But with these systems, it is more complicated, and here's why:
131
407031
3341
Sin embargo, con estos sistemas, es más complicado, y he aquí por qué:
06:50
Currently, computational systems can infer all sorts of things about you
132
410968
5791
Hoy los sistemas informáticos pueden deducir todo tipo de cosas sobre Uds.
06:56
from your digital crumbs,
133
416783
1872
a partir de sus pistas digitales,
06:58
even if you have not disclosed those things.
134
418679
2333
incluso si no las han dado a conocer.
07:01
They can infer your sexual orientation,
135
421506
2927
Pueden inferir su orientación sexual,
07:04
your personality traits,
136
424994
1306
sus rasgos de personalidad,
07:06
your political leanings.
137
426859
1373
sus inclinaciones políticas.
07:08
They have predictive power with high levels of accuracy.
138
428830
3685
Tienen poder predictivo con altos niveles de precisión.
07:13
Remember -- for things you haven't even disclosed.
139
433362
2578
Recuerden, por cosas que ni siquiera han dado a conocer.
07:15
This is inference.
140
435964
1591
Esta es la inferencia.
07:17
I have a friend who developed such computational systems
141
437579
3261
Tengo una amiga que desarrolló este tipo de sistemas informáticos
07:20
to predict the likelihood of clinical or postpartum depression
142
440864
3641
para predecir la probabilidad de depresión clínica o posparto
07:24
from social media data.
143
444529
1416
a partir de datos de medios sociales.
07:26
The results are impressive.
144
446676
1427
Los resultados son impresionantes.
07:28
Her system can predict the likelihood of depression
145
448492
3357
Su sistema puede predecir la probabilidad de depresión
07:31
months before the onset of any symptoms --
146
451873
3903
meses antes de la aparición de cualquier síntoma,
07:35
months before.
147
455800
1373
meses antes.
07:37
No symptoms, there's prediction.
148
457197
2246
No hay síntomas, sí hay predicción.
07:39
She hopes it will be used for early intervention. Great!
149
459467
4812
Ella espera que se use para la intervención temprana. ¡Estupendo!
07:44
But now put this in the context of hiring.
150
464911
2040
Pero ahora pongan esto en el contexto de la contratación.
07:48
So at this human resources managers conference,
151
468027
3046
Así que en esa conferencia de recursos humanos,
07:51
I approached a high-level manager in a very large company,
152
471097
4709
me acerqué a una gerenta de alto nivel de una empresa muy grande,
07:55
and I said to her, "Look, what if, unbeknownst to you,
153
475830
4578
y le dije: "Mira, ¿qué pasaría si, sin su conocimiento,
08:00
your system is weeding out people with high future likelihood of depression?
154
480432
6549
el sistema elimina a las personas con alta probabilidad futura de la depresión?
08:07
They're not depressed now, just maybe in the future, more likely.
155
487761
3376
No están deprimidos ahora, solo quizá en el futuro, sea probable.
08:11
What if it's weeding out women more likely to be pregnant
156
491923
3406
¿Y si elimina a las mujeres con más probabilidades de estar embarazadas
08:15
in the next year or two but aren't pregnant now?
157
495353
2586
en el próximo año o dos, pero no está embarazada ahora?
08:18
What if it's hiring aggressive people because that's your workplace culture?"
158
498844
5636
¿Y si contratamos a personas agresivas, porque esa es su cultura de trabajo?"
08:25
You can't tell this by looking at gender breakdowns.
159
505173
2691
No se puede saber esto mirando un desglose por sexos.
08:27
Those may be balanced.
160
507888
1502
Estos pueden ser equilibrados.
08:29
And since this is machine learning, not traditional coding,
161
509414
3557
Y como esto es aprendizaje automático, no la programación tradicional,
08:32
there is no variable there labeled "higher risk of depression,"
162
512995
4907
no hay una variable etiquetada como "mayor riesgo de depresión",
08:37
"higher risk of pregnancy,"
163
517926
1833
"mayor riesgo de embarazo",
08:39
"aggressive guy scale."
164
519783
1734
"escala de chico agresivo".
08:41
Not only do you not know what your system is selecting on,
165
521995
3679
Ud. no solo no sabe lo que su sistema selecciona,
08:45
you don't even know where to begin to look.
166
525698
2323
sino que ni siquiera sabe por dónde empezar a buscar.
08:48
It's a black box.
167
528045
1246
Es una caja negra.
08:49
It has predictive power, but you don't understand it.
168
529315
2807
Tiene capacidad de predicción, pero uno no lo entiende.
08:52
"What safeguards," I asked, "do you have
169
532486
2369
"¿Qué salvaguardia", pregunté,
08:54
to make sure that your black box isn't doing something shady?"
170
534879
3673
"puede asegurar que la caja negra no hace algo perjudicial?"
09:00
She looked at me as if I had just stepped on 10 puppy tails.
171
540863
3878
Ella me miró como si acabara de romper algo valioso.
09:04
(Laughter)
172
544765
1248
(Risas)
09:06
She stared at me and she said,
173
546037
2041
Me miró y dijo:
09:08
"I don't want to hear another word about this."
174
548556
4333
"No quiero oír ni una palabra de esto".
09:13
And she turned around and walked away.
175
553458
2034
Dio la vuelta y se alejó.
09:16
Mind you -- she wasn't rude.
176
556064
1486
Eso sí, ella no fue grosera.
09:17
It was clearly: what I don't know isn't my problem, go away, death stare.
177
557574
6308
Era claramente: lo que no sé, no es mi problema, vete, encara la muerte.
09:23
(Laughter)
178
563906
1246
(Risas)
09:25
Look, such a system may even be less biased
179
565862
3839
Un sistema de este tipo puede ser incluso menos sesgado
09:29
than human managers in some ways.
180
569725
2103
que los administradores humanos en algunos aspectos.
09:31
And it could make monetary sense.
181
571852
2146
Y podría tener sentido monetario.
09:34
But it could also lead
182
574573
1650
Pero también podría llevar
09:36
to a steady but stealthy shutting out of the job market
183
576247
4748
a un cierre constante pero sigiloso del mercado de trabajo
09:41
of people with higher risk of depression.
184
581019
2293
a las personas con mayor riesgo de depresión.
09:43
Is this the kind of society we want to build,
185
583753
2596
¿Es este el tipo de sociedad la que queremos construir,
09:46
without even knowing we've done this,
186
586373
2285
sin siquiera saber que lo hemos hecho,
09:48
because we turned decision-making to machines we don't totally understand?
187
588682
3964
porque nos movemos en torno a decisiones de máquinas que no entendemos totalmente?
09:53
Another problem is this:
188
593265
1458
Otro problema es el siguiente:
09:55
these systems are often trained on data generated by our actions,
189
595314
4452
estos sistemas son a menudo entrenados con datos generados
09:59
human imprints.
190
599790
1816
por nuestras acciones, por huellas humanas.
10:02
Well, they could just be reflecting our biases,
191
602188
3808
Podrían pues estar reflejando nuestros prejuicios,
10:06
and these systems could be picking up on our biases
192
606020
3593
y estos sistemas podrían dar cuenta de nuestros prejuicios
10:09
and amplifying them
193
609637
1313
y la amplificación de ellos
10:10
and showing them back to us,
194
610974
1418
volviendo a nosotros,
10:12
while we're telling ourselves,
195
612416
1462
mientras que decimos:
10:13
"We're just doing objective, neutral computation."
196
613902
3117
"Somos objetivos, es el cómputo neutral".
10:18
Researchers found that on Google,
197
618314
2677
Los investigadores encontraron que en Google las mujeres tienen
10:22
women are less likely than men to be shown job ads for high-paying jobs.
198
622134
5313
menos probabilidades que los hombres
de que les aparezcan anuncios de trabajo bien remunerados.
10:28
And searching for African-American names
199
628463
2530
Y buscando nombres afroestadounidenses
10:31
is more likely to bring up ads suggesting criminal history,
200
631017
4706
es más probable que aparezcan anuncios que sugieren antecedentes penales,
10:35
even when there is none.
201
635747
1567
incluso cuando no existan.
10:38
Such hidden biases and black-box algorithms
202
638693
3549
Estos sesgos ocultos y algoritmos de la caja negra
10:42
that researchers uncover sometimes but sometimes we don't know,
203
642266
3973
que descubren los investigadores a veces, pero a veces no,
10:46
can have life-altering consequences.
204
646263
2661
pueden tener consecuencias que cambian la vida.
10:49
In Wisconsin, a defendant was sentenced to six years in prison
205
649958
4159
En Wisconsin, un acusado fue condenado a seis años de prisión
10:54
for evading the police.
206
654141
1355
por escaparse de la policía.
Quizá no lo sepan, pero los algoritmos se usan cada vez más
10:56
You may not know this,
207
656824
1186
10:58
but algorithms are increasingly used in parole and sentencing decisions.
208
658034
3998
en las decisiones de libertad condicional y de sentencia.
11:02
He wanted to know: How is this score calculated?
209
662056
2955
El acusado quiso saber: ¿Cómo se calcula la puntuación?
11:05
It's a commercial black box.
210
665795
1665
Es una caja negra comercial.
11:07
The company refused to have its algorithm be challenged in open court.
211
667484
4205
La empresa se negó a que se cuestionara su algoritmo en audiencia pública.
11:12
But ProPublica, an investigative nonprofit, audited that very algorithm
212
672396
5532
Pero ProPublica, organización no lucrativa de investigación,
auditó precisamente ese algoritmo con los datos públicos que encontró,
11:17
with what public data they could find,
213
677952
2016
11:19
and found that its outcomes were biased
214
679992
2316
y descubrió que sus resultados estaban sesgados
11:22
and its predictive power was dismal, barely better than chance,
215
682332
3629
y su capacidad de predicción era pésima, apenas mejor que el azar,
11:25
and it was wrongly labeling black defendants as future criminals
216
685985
4416
y se etiquetaban erróneamente acusados ​​negros como futuros criminales
11:30
at twice the rate of white defendants.
217
690425
3895
con una tasa del doble que a los acusados ​​blancos.
11:35
So, consider this case:
218
695891
1564
Piensen en este caso:
11:38
This woman was late picking up her godsister
219
698103
3852
Esta mujer llegó tarde a recoger a la hija de su madrina
11:41
from a school in Broward County, Florida,
220
701979
2075
de una escuela en el condado de Broward, Florida,
11:44
running down the street with a friend of hers.
221
704757
2356
iba corriendo por la calle con una amiga.
11:47
They spotted an unlocked kid's bike and a scooter on a porch
222
707137
4099
Vieron la bicicleta de un niño sin candado y una moto en un porche
11:51
and foolishly jumped on it.
223
711260
1632
y tontamente saltó sobre ella.
11:52
As they were speeding off, a woman came out and said,
224
712916
2599
A medida que aceleraban, una mujer salió y dijo,
11:55
"Hey! That's my kid's bike!"
225
715539
2205
"¡Eh, esa es la bicicleta de mi hijo!"
11:57
They dropped it, they walked away, but they were arrested.
226
717768
3294
Se bajaron, se alejaron, pero fueron detenidas.
12:01
She was wrong, she was foolish, but she was also just 18.
227
721086
3637
Estaba equivocada, fue una tontería, pero también tenía solo 18 años.
12:04
She had a couple of juvenile misdemeanors.
228
724747
2544
Tenía un par de faltas menores.
12:07
Meanwhile, that man had been arrested for shoplifting in Home Depot --
229
727808
5185
Mientras tanto, detenían al hombre por hurto en Home Depot,
12:13
85 dollars' worth of stuff, a similar petty crime.
230
733017
2924
por un valor de USD 85, un delito menor similar.
12:16
But he had two prior armed robbery convictions.
231
736766
4559
Pero él tenía dos condenas anteriores por robo a mano armada.
12:21
But the algorithm scored her as high risk, and not him.
232
741955
3482
Sin embargo, el algoritmo la anotó a ella como de alto riesgo, y no a él.
12:26
Two years later, ProPublica found that she had not reoffended.
233
746746
3874
Dos años más tarde, ProPublica descubrió que ella no había vuelto a delinquir.
Pero le era difícil conseguir un trabajo con sus antecedentes registrados.
12:30
It was just hard to get a job for her with her record.
234
750644
2550
12:33
He, on the other hand, did reoffend
235
753218
2076
Él, por el contrario, era reincidente
12:35
and is now serving an eight-year prison term for a later crime.
236
755318
3836
y ahora cumple una pena de ocho años de prisión por un delito posterior.
12:40
Clearly, we need to audit our black boxes
237
760088
3369
Es evidente que necesitamos auditar nuestras cajas negras
12:43
and not have them have this kind of unchecked power.
238
763481
2615
para no tener este tipo de poder sin control.
12:46
(Applause)
239
766120
2879
(Aplausos)
12:50
Audits are great and important, but they don't solve all our problems.
240
770087
4242
Las auditorías son grandes e importantes, pero no resuelven todos los problemas.
12:54
Take Facebook's powerful news feed algorithm --
241
774353
2748
Tomemos el potente algoritmo de noticias de Facebook,
12:57
you know, the one that ranks everything and decides what to show you
242
777125
4843
ese que sabe todo y decide qué mostrarles
13:01
from all the friends and pages you follow.
243
781992
2284
de las páginas de los amigos que siguen.
13:04
Should you be shown another baby picture?
244
784898
2275
¿Debería mostrarles otra imagen de bebé?
13:07
(Laughter)
245
787197
1196
(Risas)
13:08
A sullen note from an acquaintance?
246
788417
2596
¿Una nota deprimente de un conocido?
13:11
An important but difficult news item?
247
791449
1856
¿Una noticia importante pero difícil?
13:13
There's no right answer.
248
793329
1482
No hay una respuesta correcta.
13:14
Facebook optimizes for engagement on the site:
249
794835
2659
Facebook optimiza para que se participe en el sitio:
13:17
likes, shares, comments.
250
797518
1415
con Me gusta, Compartir y con Comentarios.
13:20
In August of 2014,
251
800168
2696
En agosto de 2014,
13:22
protests broke out in Ferguson, Missouri,
252
802888
2662
estallaron protestas en Ferguson, Missouri,
13:25
after the killing of an African-American teenager by a white police officer,
253
805574
4417
tras la muerte de un adolescente afroestadounidense por un policía blanco,
13:30
under murky circumstances.
254
810015
1570
en circunstancias turbias.
13:31
The news of the protests was all over
255
811974
2007
La noticia de las protestas llegaron
13:34
my algorithmically unfiltered Twitter feed,
256
814005
2685
en mi cuenta de Twitter algorítmicamente sin filtrar
13:36
but nowhere on my Facebook.
257
816714
1950
pero en ninguna parte en mi Facebook.
¿Y qué pasaba con mis amigos de Facebook?
13:39
Was it my Facebook friends?
258
819182
1734
13:40
I disabled Facebook's algorithm,
259
820940
2032
Desactivé el algoritmo de Facebook,
13:43
which is hard because Facebook keeps wanting to make you
260
823472
2848
lo cual es difícil ya que Facebook quiere seguir manteniéndonos
13:46
come under the algorithm's control,
261
826344
2036
bajo el control del algoritmo,
13:48
and saw that my friends were talking about it.
262
828404
2238
y vi que mis amigos estaban hablando de ello.
13:50
It's just that the algorithm wasn't showing it to me.
263
830666
2509
Pero el algoritmo no me lo mostraba.
13:53
I researched this and found this was a widespread problem.
264
833199
3042
He investigado esto y encontré que era un problema generalizado.
13:56
The story of Ferguson wasn't algorithm-friendly.
265
836265
3813
La historia de Ferguson no era compatible con el algoritmo.
14:00
It's not "likable."
266
840102
1171
No es "gustable".
14:01
Who's going to click on "like?"
267
841297
1552
¿Quién va a hacer clic en "Me gusta"?
14:03
It's not even easy to comment on.
268
843500
2206
Ni siquiera es fácil de comentar.
14:05
Without likes and comments,
269
845730
1371
Sin Me gusta y sin comentarios,
14:07
the algorithm was likely showing it to even fewer people,
270
847125
3292
el algoritmo era probable de mostrarse a aún menos personas,
14:10
so we didn't get to see this.
271
850441
1542
así que no tuvimos oportunidad de ver esto.
14:12
Instead, that week,
272
852946
1228
En cambio, esa semana,
14:14
Facebook's algorithm highlighted this,
273
854198
2298
el algoritmo de Facebook destacó esto,
14:16
which is the ALS Ice Bucket Challenge.
274
856520
2226
el ALS que era el desafío del cubo de hielo.
14:18
Worthy cause; dump ice water, donate to charity, fine.
275
858770
3742
Noble causa; verter agua con hielo, donar a la caridad, bien.
14:22
But it was super algorithm-friendly.
276
862536
1904
Esa causa era súper compatible con el algoritmo.
14:25
The machine made this decision for us.
277
865219
2613
La máquina tomó esta decisión por nosotros.
14:27
A very important but difficult conversation
278
867856
3497
Una conversación muy importante pero difícil
14:31
might have been smothered,
279
871377
1555
podría haber sido silenciada
14:32
had Facebook been the only channel.
280
872956
2696
si Facebook hubiese sido el único canal.
14:36
Now, finally, these systems can also be wrong
281
876117
3797
Ahora, por fin, estos sistemas pueden también equivocarse
14:39
in ways that don't resemble human systems.
282
879938
2736
de formas que no se parecen a los humanos.
14:42
Do you guys remember Watson, IBM's machine-intelligence system
283
882698
2922
¿Se acuerdan de Watson, el sistema de inteligencia artificial de IBM
14:45
that wiped the floor with human contestants on Jeopardy?
284
885644
3128
que arrasó con los concursantes humanos en Jeopardy?
14:49
It was a great player.
285
889131
1428
Fue un gran jugador.
14:50
But then, for Final Jeopardy, Watson was asked this question:
286
890583
3569
Pero entonces, para la final de Jeopardy, a Watson se le hizo esta pregunta:
14:54
"Its largest airport is named for a World War II hero,
287
894659
2932
"Su mayor aeropuerto lleva el nombre de un héroe de la 2ª Guerra Mundial,
14:57
its second-largest for a World War II battle."
288
897615
2252
la 2ª batalla más grande de la 2ª Guerra Mundial".
14:59
(Hums Final Jeopardy music)
289
899891
1378
(Música final de Jeopardy)
15:01
Chicago.
290
901582
1182
Chicago.
15:02
The two humans got it right.
291
902788
1370
Los dos humanos lo hicieron bien.
15:04
Watson, on the other hand, answered "Toronto" --
292
904697
4348
Watson, por otra parte, respondió "Toronto"
15:09
for a US city category!
293
909069
1818
para una categoría de ciudad de EE.UU.
15:11
The impressive system also made an error
294
911596
2901
El impresionante sistema también cometió un error
15:14
that a human would never make, a second-grader wouldn't make.
295
914521
3651
que un humano nunca cometería, que un estudiante de segundo grado tampoco.
15:18
Our machine intelligence can fail
296
918823
3109
La inteligencia artificial puede fallar
15:21
in ways that don't fit error patterns of humans,
297
921956
3100
en formas que no se ajustan a los patrones de error de los humanos,
15:25
in ways we won't expect and be prepared for.
298
925080
2950
de maneras que no esperamos y para las que no estamos preparados.
15:28
It'd be lousy not to get a job one is qualified for,
299
928054
3638
Sería pésimo no conseguir trabajo, una vez que uno se cualifica para ello,
15:31
but it would triple suck if it was because of stack overflow
300
931716
3727
pero sería el triple de pésimo si fue por un desbordamiento de pila
15:35
in some subroutine.
301
935467
1432
en algunas subrutinas.
15:36
(Laughter)
302
936923
1579
(Risas)
15:38
In May of 2010,
303
938526
2786
En mayo del 2010
15:41
a flash crash on Wall Street fueled by a feedback loop
304
941336
4044
un flash crash de Wall Street alimentado por un circuito de retroalimentación
15:45
in Wall Street's "sell" algorithm
305
945404
3028
por el algoritmo de "venta" de Wall Street
15:48
wiped a trillion dollars of value in 36 minutes.
306
948456
4184
borró un billón de dólares en 36 minutos.
15:53
I don't even want to think what "error" means
307
953722
2187
Yo no quiero ni pensar lo que significa "error"
15:55
in the context of lethal autonomous weapons.
308
955933
3589
en el contexto de las armas autónomas letales.
16:01
So yes, humans have always made biases.
309
961894
3790
Los humanos siempre hemos tenido prejuicios.
16:05
Decision makers and gatekeepers,
310
965708
2176
Los que toman decisiones y los guardias,
16:07
in courts, in news, in war ...
311
967908
3493
en los tribunales, en la actualidad, en la guerra...
16:11
they make mistakes; but that's exactly my point.
312
971425
3038
cometen errores; pero ese es exactamente mi tema.
16:14
We cannot escape these difficult questions.
313
974487
3521
No podemos escapar a estas preguntas difíciles.
16:18
We cannot outsource our responsibilities to machines.
314
978596
3516
No podemos delegar nuestra responsabilidad a las máquinas.
16:22
(Applause)
315
982676
4208
(Aplausos)
16:29
Artificial intelligence does not give us a "Get out of ethics free" card.
316
989089
4447
La inteligencia artificial no nos da una tarjeta libre de ética.
16:34
Data scientist Fred Benenson calls this math-washing.
317
994742
3381
El experto en datos Fred Benenson lo llama "mathwashing" o lavado matemático.
16:38
We need the opposite.
318
998147
1389
Necesitamos lo contrario.
16:39
We need to cultivate algorithm suspicion, scrutiny and investigation.
319
999560
5388
Necesitamos fomentar un algoritmo de sospecha, escrutinio e investigación.
16:45
We need to make sure we have algorithmic accountability,
320
1005380
3198
Tenemos que asegurarnos de tener responsabilidad algorítmica,
16:48
auditing and meaningful transparency.
321
1008602
2445
auditoría y transparencia significativa.
16:51
We need to accept that bringing math and computation
322
1011380
3234
Tenemos que aceptar que llevar las matemáticas y la computación
16:54
to messy, value-laden human affairs
323
1014638
2970
a los asuntos humanos, desordenados y cargados de valores
16:57
does not bring objectivity;
324
1017632
2384
no conlleva a la objetividad;
17:00
rather, the complexity of human affairs invades the algorithms.
325
1020040
3633
más bien, la complejidad de los asuntos humanos invaden los algoritmos.
17:04
Yes, we can and we should use computation
326
1024148
3487
Sí, podemos y debemos usar la computación
17:07
to help us make better decisions.
327
1027659
2014
para ayudar a tomar mejores decisiones.
17:09
But we have to own up to our moral responsibility to judgment,
328
1029697
5332
Pero tenemos que apropiarnos de nuestra responsabilidad moral de juicio,
17:15
and use algorithms within that framework,
329
1035053
2818
y usar algoritmos dentro de ese marco,
17:17
not as a means to abdicate and outsource our responsibilities
330
1037895
4935
no como un medio para abdicar y delegar nuestras responsabilidades
17:22
to one another as human to human.
331
1042854
2454
el uno al otro, como de humano a humano.
17:25
Machine intelligence is here.
332
1045807
2609
La inteligencia artificial está aquí.
17:28
That means we must hold on ever tighter
333
1048440
3421
Eso significa que hay que ajustarla cada vez más
17:31
to human values and human ethics.
334
1051885
2147
a los valores humanos y a la ética humana.
17:34
Thank you.
335
1054056
1154
Gracias.
17:35
(Applause)
336
1055234
5020
(Aplausos)
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7