What tech companies know about your kids | Veronica Barassi

84,880 views ・ 2020-07-03

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

00:00
Transcriber: Leslie Gauthier Reviewer: Joanna Pietrulewicz
0
0
7000
Traductor: José María Hernández Vicente Revisor: Lidia Cámara de la Fuente
00:12
Every day, every week,
1
12792
2267
Cada día de la semana, aceptamos términos y condiciones.
00:15
we agree to terms and conditions.
2
15083
2185
00:17
And when we do this,
3
17292
1476
Al hacerlo,
00:18
we provide companies with the lawful right
4
18792
2476
damos a las empresas el derecho
00:21
to do whatever they want with our data
5
21292
3684
de hacer lo que les plazca con nuestra información
00:25
and with the data of our children.
6
25000
2375
y con la de nuestros hijos.
00:28
Which makes us wonder:
7
28792
2976
Y nos preguntamos:
00:31
how much data are we giving away of children,
8
31792
2892
"¿cuántas cosas revelamos sobre nuestros hijos?"
00:34
and what are its implications?
9
34708
2000
y "¿qué implica esto?".
00:38
I'm an anthropologist,
10
38500
1393
Soy antropóloga y también madre de dos niñas.
00:39
and I'm also the mother of two little girls.
11
39917
2601
00:42
And I started to become interested in this question in 2015
12
42542
4476
Empecé a interesarme en este tema en 2015,
00:47
when I suddenly realized that there were vast --
13
47042
2726
cuando, de pronto, me di cuenta
00:49
almost unimaginable amounts of data traces
14
49792
3017
de la casi inconcebible cantidad de rastreos digitales
00:52
that are being produced and collected about children.
15
52833
3167
con los que se recopila información de niños.
00:56
So I launched a research project,
16
56792
1976
Por ello, inicié un proyecto llamado "Child Data Citizen",
00:58
which is called Child Data Citizen,
17
58792
2476
01:01
and I aimed at filling in the blank.
18
61292
2125
con el objetivo de llenar ese vacío.
01:04
Now you may think that I'm here to blame you
19
64583
3018
Quizás piensen que vengo a reprocharles
01:07
for posting photos of your children on social media,
20
67625
2768
que suban fotos de sus hijos a las redes sociales.
01:10
but that's not really the point.
21
70417
2142
Pero no he venido a eso.
01:12
The problem is way bigger than so-called "sharenting."
22
72583
3417
Esto es mucho más grave que el llamado "sharenting".
01:16
This is about systems, not individuals.
23
76792
4101
Esto no va de individuos, sino de sistemas.
01:20
You and your habits are not to blame.
24
80917
2291
Sus hábitos y Uds. no tienen culpa de nada.
01:24
For the very first time in history,
25
84833
2851
Por primerísima vez en la historia,
01:27
we are tracking the individual data of children
26
87708
2560
rastreamos la información de cada niño desde mucho antes de nacer.
01:30
from long before they're born --
27
90292
1767
01:32
sometimes from the moment of conception,
28
92083
2685
En ocasiones, antes de la fecundación y luego, a lo largo de sus vidas.
01:34
and then throughout their lives.
29
94792
2351
01:37
You see, when parents decide to conceive,
30
97167
3101
Cuando los padres deciden tener un hijo,
01:40
they go online to look for "ways to get pregnant,"
31
100292
2976
buscan en internet "formas de quedar embarazada"
01:43
or they download ovulation-tracking apps.
32
103292
2750
o descargan aplicaciones para controlar la ovulación.
01:47
When they do get pregnant,
33
107250
2601
Cuando llega el embarazo,
01:49
they post ultrasounds of their babies on social media,
34
109875
3143
suben ecografías de sus bebés a las redes sociales,
descargan aplicaciones para embarazadas
01:53
they download pregnancy apps
35
113042
2017
01:55
or they consult Dr. Google for all sorts of things,
36
115083
3726
o preguntan de todo al doctor Google,
Todo tipo de cosas, como:
01:58
like, you know --
37
118833
1518
02:00
for "miscarriage risk when flying"
38
120375
2559
"riesgo de aborto en pleno vuelo"
02:02
or "abdominal cramps in early pregnancy."
39
122958
2768
o "dolores menstruales al inicio del embarazo".
02:05
I know because I've done it --
40
125750
1809
Lo sé porque yo lo he hecho, y varias veces.
02:07
and many times.
41
127583
1625
02:10
And then, when the baby is born, they track every nap,
42
130458
2810
Y, al nacer el bebé, hacen un seguimiento de cada siesta, toma o acontecimiento
02:13
every feed,
43
133292
1267
02:14
every life event on different technologies.
44
134583
2584
en diferentes plataformas.
02:18
And all of these technologies
45
138083
1476
Todas estas plataformas se benefician de datos íntimos sobre salud y comportamiento
02:19
transform the baby's most intimate behavioral and health data into profit
46
139583
6143
02:25
by sharing it with others.
47
145750
1792
y los comparten entre ellas.
02:28
So to give you an idea of how this works,
48
148583
2143
Para que entiendan cómo funciona,
02:30
in 2019, the British Medical Journal published research that showed
49
150750
5184
en 2019, una investigación del "British Medical Journal"
02:35
that out of 24 mobile health apps,
50
155958
3643
desveló que, de 24 aplicaciones de salud,
02:39
19 shared information with third parties.
51
159625
3458
19 compartían información con terceros.
02:44
And these third parties shared information with 216 other organizations.
52
164083
5834
Y esos terceros compartían información con otras 216 organizaciones.
02:50
Of these 216 other fourth parties,
53
170875
3434
De esas 216 organizaciones, solo tres pertenecían al sector sanitario.
02:54
only three belonged to the health sector.
54
174333
3143
02:57
The other companies that had access to that data were big tech companies
55
177500
4518
En las demás empresas con acceso a esos datos eran gigantes de la tecnología,
03:02
like Google, Facebook or Oracle,
56
182042
3517
como Google, Facebook u Oracle,
03:05
they were digital advertising companies
57
185583
2601
había empresas de publicidad en línea y una agencia de crédito al consumo.
03:08
and there was also a consumer credit reporting agency.
58
188208
4125
03:13
So you get it right:
59
193125
1434
Para que me entiendan:
03:14
ad companies and credit agencies may already have data points on little babies.
60
194583
5125
agencias publicitarias y de crédito podrían tener puntos de datos de bebés.
03:21
But mobile apps, web searches and social media
61
201125
2768
Las aplicaciones móviles, redes sociales y buscadores solo son
03:23
are really just the tip of the iceberg,
62
203917
3101
"la punta del iceberg",
03:27
because children are being tracked by multiple technologies
63
207042
2851
porque se rastrea a los niños a diario desde múltiples tecnologías.
03:29
in their everyday lives.
64
209917
1726
03:31
They're tracked by home technologies and virtual assistants in their homes.
65
211667
4142
Se les sigue desde casa con dispositivos y asistentes virtuales.
03:35
They're tracked by educational platforms
66
215833
1976
Desde el colegio, con herramientas TIC y aulas virtuales.
03:37
and educational technologies in their schools.
67
217833
2185
03:40
They're tracked by online records
68
220042
1601
Desde la consulta del médico, con historiales clínicos y portales web.
03:41
and online portals at their doctor's office.
69
221667
3017
03:44
They're tracked by their internet-connected toys,
70
224708
2351
Los siguen desde sus juguetes con conexión a internet, juegos online
03:47
their online games
71
227083
1310
03:48
and many, many, many, many other technologies.
72
228417
2666
y muchas otras tecnologías.
03:52
So during my research,
73
232250
1643
En mi investigación, muchos padres venían a decirme cosas como:
03:53
a lot of parents came up to me and they were like, "So what?
74
233917
4142
"¿Y qué?".
"¿Qué importa si rastrean a mis hijos?
03:58
Why does it matter if my children are being tracked?
75
238083
2917
No tenemos nada que esconder".
04:02
We've got nothing to hide."
76
242042
1333
04:04
Well, it matters.
77
244958
1500
Pues sí, importa.
04:07
It matters because today individuals are not only being tracked,
78
247083
6018
No solo porque se hagan seguimientos de cada persona,
04:13
they're also being profiled on the basis of their data traces.
79
253125
4101
sino porque se les clasifica de acuerdo con lo recolectado.
04:17
Artificial intelligence and predictive analytics are being used
80
257250
3809
Con la inteligencia artificial y el análisis predictivo
se aprovechan al máximo los datos de cada individuo
04:21
to harness as much data as possible of an individual life
81
261083
3643
04:24
from different sources:
82
264750
1851
de distintas formas:
04:26
family history, purchasing habits, social media comments.
83
266625
4518
hábitos de compra, historial familiar comentarios en redes sociales...
04:31
And then they bring this data together
84
271167
1851
Luego, combinan esos datos y sacan conclusiones de esa persona.
04:33
to make data-driven decisions about the individual.
85
273042
2750
04:36
And these technologies are used everywhere.
86
276792
3434
Estas tecnologías se usan en todas partes.
04:40
Banks use them to decide loans.
87
280250
2393
Los bancos las usan para dar préstamos.
04:42
Insurance uses them to decide premiums.
88
282667
2375
Las aseguradoras las usan para las primas.
04:46
Recruiters and employers use them
89
286208
2476
Las empresas y patrones las usan para saber si alguien vale para un puesto.
04:48
to decide whether one is a good fit for a job or not.
90
288708
2917
04:52
Also the police and courts use them
91
292750
3101
Además, la policía y los juzgados las usan
04:55
to determine whether one is a potential criminal
92
295875
3518
para saber la probabilidad de que alguien cometa delito o reincida.
04:59
or is likely to recommit a crime.
93
299417
2625
05:04
We have no knowledge or control
94
304458
4060
No podemos saber ni controlar
05:08
over the ways in which those who buy, sell and process our data
95
308542
3642
la forma en la que esta gente que compra, vende y procesa nuestros datos
05:12
are profiling us and our children.
96
312208
2709
traza perfiles sobre nosotros y nuestros hijos.
05:15
But these profiles can come to impact our rights in significant ways.
97
315625
4042
Pero estos perfiles pueden afectar gravemente nuestros derechos.
05:20
To give you an example,
98
320917
2208
Pongamos un ejemplo:
05:25
in 2018 the "New York Times" published the news
99
325792
4059
"The New York Times" publicó en 2018
05:29
that the data that had been gathered
100
329875
1976
que los datos recogidos en webs de planificación educativa,
05:31
through online college-planning services --
101
331875
3059
05:34
that are actually completed by millions of high school kids across the US
102
334958
4726
que rellenan millones de jóvenes estadounidenses
05:39
who are looking for a college program or a scholarship --
103
339708
3643
en busca de una beca o un plan universitario,
05:43
had been sold to educational data brokers.
104
343375
3042
se vendieron a brókeres de información.
05:47
Now, researchers at Fordham who studied educational data brokers
105
347792
5434
Pues en Fordham se investigó a estos brókeres de lo educativo
05:53
revealed that these companies profiled kids as young as two
106
353250
5226
y se descubrió que estas empresas clasifican a niños de incluso dos años
05:58
on the basis of different categories:
107
358500
3059
según diferentes categorías:
06:01
ethnicity, religion, affluence,
108
361583
4185
etnia, religión, riqueza,
06:05
social awkwardness
109
365792
2059
ansiedad social
06:07
and many other random categories.
110
367875
2934
y muchas más categorías.
06:10
And then they sell these profiles together with the name of the kid,
111
370833
5018
Y luego venden esos perfiles,
con el nombre del niño, dirección y datos personales,
06:15
their home address and the contact details
112
375875
2809
06:18
to different companies,
113
378708
1851
a distintas empresas,
06:20
including trade and career institutions,
114
380583
2459
como instituciones educativas y de comercio,
06:24
student loans
115
384083
1268
de servicios de becas y cuentas bancarias para estudiantes.
06:25
and student credit card companies.
116
385375
1750
06:28
To push the boundaries,
117
388542
1351
Para avanzar en esto,
06:29
the researchers at Fordham asked an educational data broker
118
389917
3809
los investigadores de Fordham pidieron a uno de estos brókeres
06:33
to provide them with a list of 14-to-15-year-old girls
119
393750
5809
que les proporcionase una lista de chicas de entre 14 y 15 años
06:39
who were interested in family planning services.
120
399583
3375
a las que les interesase un servicio de planificación familiar.
06:44
The data broker agreed to provide them the list.
121
404208
2476
El bróker accedió a facilitarles esa lista.
06:46
So imagine how intimate and how intrusive that is for our kids.
122
406708
4875
Imagínense lo mucho que esto invade la intimidad de nuestros hijos.
06:52
But educational data brokers are really just an example.
123
412833
3976
Pero estos brókeres de lo educativo son solo un ejemplo.
06:56
The truth is that our children are being profiled in ways that we cannot control
124
416833
4685
Realmente, la forma en la que clasifican a nuestros hijos escapa de nuestro control
07:01
but that can significantly impact their chances in life.
125
421542
3416
y tiene un gran impacto en su futuro.
07:06
So we need to ask ourselves:
126
426167
3476
Así que debemos preguntarnos:
07:09
can we trust these technologies when it comes to profiling our children?
127
429667
4684
¿se puede confiar en estas tecnologías que catalogan a nuestros hijos?
07:14
Can we?
128
434375
1250
¿Se puede?
07:17
My answer is no.
129
437708
1250
Yo digo que no.
07:19
As an anthropologist,
130
439792
1267
Como antropóloga,
creo que la inteligencia artificial y el análisis predictivo
07:21
I believe that artificial intelligence and predictive analytics can be great
131
441083
3768
pueden servir para predecir enfermedades o luchar contra el cambio climático.
07:24
to predict the course of a disease
132
444875
2018
07:26
or to fight climate change.
133
446917
1833
Pero tenemos que abandonar la creencia
07:30
But we need to abandon the belief
134
450000
1643
07:31
that these technologies can objectively profile humans
135
451667
3684
de que estas tecnologías pueden hacer un perfil objetivo de los seres humanos
07:35
and that we can rely on them to make data-driven decisions
136
455375
3184
y que podemos confiar en ellas para tomar decisiones
07:38
about individual lives.
137
458583
1893
basadas en datos sobre las vidas de los individuos.
07:40
Because they can't profile humans.
138
460500
2559
No pueden clasificar humanos.
07:43
Data traces are not the mirror of who we are.
139
463083
3351
Los rastreos digitales no reflejan quiénes somos.
07:46
Humans think one thing and say the opposite,
140
466458
2101
Los humanos piensan una cosa y dicen otra, sienten de una forma y actúan diferente.
07:48
feel one way and act differently.
141
468583
2435
07:51
Algorithmic predictions or our digital practices
142
471042
2476
Las predicciones algorítmicas de lo que hacemos
07:53
cannot account for the unpredictability and complexity of human experience.
143
473542
5166
no tienen en cuenta la impredecibilidad y complejidad de la naturaleza humana.
08:00
But on top of that,
144
480417
1559
Por si fuera poco,
08:02
these technologies are always --
145
482000
2684
estas tecnologías son siempre, de un modo u otro, subjetivas.
08:04
always --
146
484708
1268
08:06
in one way or another, biased.
147
486000
1917
08:09
You see, algorithms are by definition sets of rules or steps
148
489125
5059
Los algoritmos son, por definición, conjuntos de reglas o pasos
08:14
that have been designed to achieve a specific result, OK?
149
494208
3709
diseñados para conseguir resultados concretos.
08:18
But these sets of rules or steps cannot be objective,
150
498833
2726
Pero tales reglas o pasos no pueden ser imparciales,
08:21
because they've been designed by human beings
151
501583
2143
porque los han diseñado humanos dentro de un marco cultural concreto
08:23
within a specific cultural context
152
503750
1726
08:25
and are shaped by specific cultural values.
153
505500
2500
y están influenciados por unos valores concretos.
08:28
So when machines learn,
154
508667
1726
Cuando las máquinas aprenden, lo hacen a partir de algoritmos sesgados,
08:30
they learn from biased algorithms,
155
510417
2250
08:33
and they often learn from biased databases as well.
156
513625
3208
y a menudo también aprenden de bases de datos sesgadas.
08:37
At the moment, we're seeing the first examples of algorithmic bias.
157
517833
3726
Justo ahora podemos ver los primeros casos de sesgo algorítmico.
08:41
And some of these examples are frankly terrifying.
158
521583
3500
Algunos de estos ejemplos son francamente aterradores.
08:46
This year, the AI Now Institute in New York published a report
159
526500
4059
Este año, el AI Institute de Nueva York ha publicado un informe que demuestra
08:50
that revealed that the AI technologies
160
530583
2393
que las inteligencias artificiales que usa la policía predictiva
08:53
that are being used for predictive policing
161
533000
3476
08:56
have been trained on "dirty" data.
162
536500
3125
han aprendido de "datos sucios".
09:00
This is basically data that had been gathered
163
540333
2893
Estos son datos recogidos de épocas de claro prejuicio racial
09:03
during historical periods of known racial bias
164
543250
4184
09:07
and nontransparent police practices.
165
547458
2250
y acciones policiales poco transparentes.
09:10
Because these technologies are being trained with dirty data,
166
550542
4059
Estas inteligencias, al alimentarse de datos sucios, no son objetivas,
09:14
they're not objective,
167
554625
1434
09:16
and their outcomes are only amplifying and perpetrating
168
556083
4518
y los resultados solo dan lugar a parcialidad y errores policiales.
09:20
police bias and error.
169
560625
1625
09:25
So I think we are faced with a fundamental problem
170
565167
3142
Creo que nos enfrentamos a un problema fundamental de la sociedad.
09:28
in our society.
171
568333
1643
09:30
We are starting to trust technologies when it comes to profiling human beings.
172
570000
4792
Nos estamos fiando de las tecnologías a la hora de clasificar a seres humanos.
09:35
We know that in profiling humans,
173
575750
2518
Ya se sabe que las tecnologías siempre van a estar influenciadas
09:38
these technologies are always going to be biased
174
578292
2809
09:41
and are never really going to be accurate.
175
581125
2726
y nunca van a ser del todo exactas.
09:43
So what we need now is actually political solution.
176
583875
2934
Lo que en realidad necesitamos es una es una solución política.
09:46
We need governments to recognize that our data rights are our human rights.
177
586833
4709
Que los gobiernos vean que la protección de datos es un derecho humano.
09:52
(Applause and cheers)
178
592292
4083
(Aplausos y vítores)
09:59
Until this happens, we cannot hope for a more just future.
179
599833
4084
Hasta que esto no ocurra, no esperemos un futuro más justo.
10:04
I worry that my daughters are going to be exposed
180
604750
2726
Me preocupa que mis hijas estén expuestas a discriminaciones y errores algorítmicos.
10:07
to all sorts of algorithmic discrimination and error.
181
607500
3726
10:11
You see the difference between me and my daughters
182
611250
2393
Lo que me diferencia de mis hijas es que no hay registros de mi infancia.
10:13
is that there's no public record out there of my childhood.
183
613667
3184
10:16
There's certainly no database of all the stupid things that I've done
184
616875
4018
Por supuesto, no se conocen las tonterías que decía y pensaba de adolescente.
10:20
and thought when I was a teenager.
185
620917
2142
10:23
(Laughter)
186
623083
1500
(Risas)
10:25
But for my daughters this may be different.
187
625833
2750
Pero, para mis hijas, esto podría ser diferente.
10:29
The data that is being collected from them today
188
629292
3184
Los datos que se recogen de ellas ahora
10:32
may be used to judge them in the future
189
632500
3809
pueden usarse en su contra en el futuro
10:36
and can come to prevent their hopes and dreams.
190
636333
2959
Y puede llegar a limitar sus sueños y aspiraciones.
10:40
I think that's it's time.
191
640583
1518
Creo que es el momento.
10:42
It's time that we all step up.
192
642125
1434
El momento de dar un paso adelante, de empezar a trabajar juntos,
10:43
It's time that we start working together
193
643583
2476
10:46
as individuals,
194
646083
1435
como individuos, organizaciones e instituciones
10:47
as organizations and as institutions,
195
647542
2517
10:50
and that we demand greater data justice for us
196
650083
3101
y exijamos más justicia por nuestros datos y los de nuestros hijos.
10:53
and for our children
197
653208
1393
10:54
before it's too late.
198
654625
1518
antes de que sea tarde.
10:56
Thank you.
199
656167
1267
Gracias.
10:57
(Applause)
200
657458
1417
(Aplausos)
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7