What tech companies know about your kids | Veronica Barassi

84,501 views ・ 2020-07-03

TED


Por favor, faça duplo clique nas legendas em inglês abaixo para reproduzir o vídeo.

00:00
Transcriber: Leslie Gauthier Reviewer: Joanna Pietrulewicz
0
0
7000
Tradutor: Beatriz Morais Revisora: Margarida Ferreira
00:12
Every day, every week,
1
12792
2267
Todos os dias, todas as semanas,
00:15
we agree to terms and conditions.
2
15083
2185
nós concordamos com termos e condições.
00:17
And when we do this,
3
17292
1476
E quando fazemos isso,
00:18
we provide companies with the lawful right
4
18792
2476
fornecemos às empresas o direito legal
00:21
to do whatever they want with our data
5
21292
3684
de fazerem o que quiserem com os nossos dados
00:25
and with the data of our children.
6
25000
2375
e com os dados dos nossos filhos.
00:28
Which makes us wonder:
7
28792
2976
O que nos leva pensar:
00:31
how much data are we giving away of children,
8
31792
2892
quantos dados dos nossos filhos é que estamos a ceder,
00:34
and what are its implications?
9
34708
2000
e quais são as implicações disso?
00:38
I'm an anthropologist,
10
38500
1393
Eu sou antropóloga,
00:39
and I'm also the mother of two little girls.
11
39917
2601
mas também sou mãe de duas meninas pequenas.
00:42
And I started to become interested in this question in 2015
12
42542
4476
Comecei a interessar-me por esta questão em 2015
00:47
when I suddenly realized that there were vast --
13
47042
2726
quando, de repente, me apercebi de que havia
00:49
almost unimaginable amounts of data traces
14
49792
3017
uma quantidade quase inimaginável de dados
00:52
that are being produced and collected about children.
15
52833
3167
que estão a ser produzidos e recolhidos sobre crianças.
00:56
So I launched a research project,
16
56792
1976
Por isso, lancei um projeto de investigação,
00:58
which is called Child Data Citizen,
17
58792
2476
chamado Child Data Citizen,
01:01
and I aimed at filling in the blank.
18
61292
2125
com o objetivo de preencher os espaços em branco.
01:04
Now you may think that I'm here to blame you
19
64583
3018
Podem pensar que estou aqui para vos acusar
01:07
for posting photos of your children on social media,
20
67625
2768
de publicarem fotos dos vossos filhos nas redes sociais,
01:10
but that's not really the point.
21
70417
2142
mas o problema não é esse.
01:12
The problem is way bigger than so-called "sharenting."
22
72583
3417
O problema é muito maior do que o chamado "sharenting."
01:16
This is about systems, not individuals.
23
76792
4101
Isto é sobre sistemas, não é sobre indivíduos.
01:20
You and your habits are not to blame.
24
80917
2291
Vocês e os vossos hábitos não são os culpados.
01:24
For the very first time in history,
25
84833
2851
Pela primeira vez na história,
01:27
we are tracking the individual data of children
26
87708
2560
estamos a rastrear os dados individuais de crianças
01:30
from long before they're born --
27
90292
1767
desde antes de elas nascerem
01:32
sometimes from the moment of conception,
28
92083
2685
— por vezes, desde o momento da conceção,
01:34
and then throughout their lives.
29
94792
2351
e depois ao longo da vida delas.
01:37
You see, when parents decide to conceive,
30
97167
3101
Como veem, quando os pais decidem conceber,
01:40
they go online to look for "ways to get pregnant,"
31
100292
2976
vão "online" pesquisar "maneiras de engravidar,"
01:43
or they download ovulation-tracking apps.
32
103292
2750
ou descarregam aplicações de monitorização da ovulação.
01:47
When they do get pregnant,
33
107250
2601
Quando engravidam,
01:49
they post ultrasounds of their babies on social media,
34
109875
3143
publicam as ecografias dos bebés nas redes sociais,
01:53
they download pregnancy apps
35
113042
2017
descarregam aplicações de gravidez
01:55
or they consult Dr. Google for all sorts of things,
36
115083
3726
ou consultam o Dr. Google para todo o tipo de coisas,
01:58
like, you know --
37
118833
1518
como, por exemplo,
02:00
for "miscarriage risk when flying"
38
120375
2559
"risco de aborto ao viajar de avião"
02:02
or "abdominal cramps in early pregnancy."
39
122958
2768
ou "dores abdominais no início da gravidez."
02:05
I know because I've done it --
40
125750
1809
Eu sei disto porque já o fiz,
02:07
and many times.
41
127583
1625
e várias vezes.
02:10
And then, when the baby is born, they track every nap,
42
130458
2810
Depois, quando o bebé nasce, eles registam cada sesta, cada refeição,
02:13
every feed,
43
133292
1267
02:14
every life event on different technologies.
44
134583
2584
cada acontecimento na sua vida,
em diferentes tecnologias.
02:18
And all of these technologies
45
138083
1476
E todas estas tecnologias,
02:19
transform the baby's most intimate behavioral and health data into profit
46
139583
6143
transformam em lucro
os dados comportamentais e médicos mais íntimos do bebé
02:25
by sharing it with others.
47
145750
1792
ao partilhá-los com outros.
02:28
So to give you an idea of how this works,
48
148583
2143
Para vos dar uma ideia de como isto funciona,
02:30
in 2019, the British Medical Journal published research that showed
49
150750
5184
em 2019, o British Medical Journal publicou uma investigação
02:35
that out of 24 mobile health apps,
50
155958
3643
que mostrava que, de 24 aplicações móveis de saúde,
02:39
19 shared information with third parties.
51
159625
3458
19 partilhavam informações com terceiros.
02:44
And these third parties shared information with 216 other organizations.
52
164083
5834
E esses terceiros partilhavam informações com outras 216 organizações.
02:50
Of these 216 other fourth parties,
53
170875
3434
Destas outras 216 organizações,
02:54
only three belonged to the health sector.
54
174333
3143
apenas 3 pertenciam ao setor da saúde.
02:57
The other companies that had access to that data were big tech companies
55
177500
4518
As outras empresas que tinham acesso a esses dados
eram importantes empresas de tecnologia
03:02
like Google, Facebook or Oracle,
56
182042
3517
como o Google, o Facebook ou o Oracle,
03:05
they were digital advertising companies
57
185583
2601
empresas de publicidade digital
03:08
and there was also a consumer credit reporting agency.
58
188208
4125
e também agências de informações comerciais de consumo.
03:13
So you get it right:
59
193125
1434
Vocês perceberam bem:
03:14
ad companies and credit agencies may already have data points on little babies.
60
194583
5125
empresas de publicidade e agências de crédito
podem já ter dados sobre bebés.
03:21
But mobile apps, web searches and social media
61
201125
2768
Mas as aplicações móveis, os motores de pesquisa e as redes sociais
03:23
are really just the tip of the iceberg,
62
203917
3101
são apenas a ponta do icebergue,
porque as crianças estão a ser rastreadas por múltiplas tecnologias
03:27
because children are being tracked by multiple technologies
63
207042
2851
03:29
in their everyday lives.
64
209917
1726
na sua vida diária.
03:31
They're tracked by home technologies and virtual assistants in their homes.
65
211667
4142
São rastreadas pelas tecnologias domésticas
e pelos assistentes virtuais nas nossas casas.
03:35
They're tracked by educational platforms
66
215833
1976
São rastreadas pelas plataformas educativas,
03:37
and educational technologies in their schools.
67
217833
2185
pelas tecnologias de educação nas escolas.
03:40
They're tracked by online records
68
220042
1601
São rastreadas por registos "online"
03:41
and online portals at their doctor's office.
69
221667
3017
e por portais "online" no consultório do médico deles.
03:44
They're tracked by their internet-connected toys,
70
224708
2351
São rastreadas pelos seus brinquedos ligados à Internet,
03:47
their online games
71
227083
1310
pelos seus jogos "online"
03:48
and many, many, many, many other technologies.
72
228417
2666
e por muitas, muitas, muitas outras tecnologias.
03:52
So during my research,
73
232250
1643
Durante a minha pesquisa,
03:53
a lot of parents came up to me and they were like, "So what?
74
233917
4142
muitos pais me disseram:
"E depois? Que importância tem os meus filhos estarem a ser rastreados?
03:58
Why does it matter if my children are being tracked?
75
238083
2917
04:02
We've got nothing to hide."
76
242042
1333
"Não temos nada a esconder."
04:04
Well, it matters.
77
244958
1500
Bem, é muito importante
04:07
It matters because today individuals are not only being tracked,
78
247083
6018
É importante porque hoje em dia, as pessoas não estão só a ser rastreadas,
04:13
they're also being profiled on the basis of their data traces.
79
253125
4101
também traçam os perfis delas com base nesses dados.
04:17
Artificial intelligence and predictive analytics are being used
80
257250
3809
A inteligência artificial e a análise preditiva estão a ser utilizadas
04:21
to harness as much data as possible of an individual life
81
261083
3643
para reunir o máximo de dados possível da vida de um indivíduo
04:24
from different sources:
82
264750
1851
a partir de diferentes fontes:
04:26
family history, purchasing habits, social media comments.
83
266625
4518
o histórico familiar, os hábitos de compra,
os comentários nas redes sociais.
04:31
And then they bring this data together
84
271167
1851
E reúnem esses dados
04:33
to make data-driven decisions about the individual.
85
273042
2750
para tomarem decisões orientadas pelos dados sobre o indivíduo.
04:36
And these technologies are used everywhere.
86
276792
3434
Estas tecnologias são utilizadas em todo o lado.
04:40
Banks use them to decide loans.
87
280250
2393
Os bancos usam-nas para decidirem empréstimos.
04:42
Insurance uses them to decide premiums.
88
282667
2375
As companhias de seguros usam-nas para decidirem prémios.
04:46
Recruiters and employers use them
89
286208
2476
Os recrutadores e empregadores usam-nas
04:48
to decide whether one is a good fit for a job or not.
90
288708
2917
para decidirem se alguém é uma boa escolha ou não, para um emprego.
04:52
Also the police and courts use them
91
292750
3101
A polícia e os tribunais também as usam
04:55
to determine whether one is a potential criminal
92
295875
3518
para determinarem se alguém é um potencial criminoso
04:59
or is likely to recommit a crime.
93
299417
2625
ou se é provável que voltem a cometer um crime.
05:04
We have no knowledge or control
94
304458
4060
Nós não temos conhecimento nem controlo
05:08
over the ways in which those who buy, sell and process our data
95
308542
3642
sobre a forma como aqueles que compram, vendem e processam os nossos dados
05:12
are profiling us and our children.
96
312208
2709
estão a traçar os nossos perfis e os perfis dos nossos filhos.
05:15
But these profiles can come to impact our rights in significant ways.
97
315625
4042
Mas estes perfis podem vir a ter impacto nos nossos direitos
de forma significativa.
05:20
To give you an example,
98
320917
2208
Por exemplo,
05:25
in 2018 the "New York Times" published the news
99
325792
4059
em 2018 o "New York Times" publicou a notícia
05:29
that the data that had been gathered
100
329875
1976
de que os dados reunidos
05:31
through online college-planning services --
101
331875
3059
através de serviços de planeamento universitário "online"
05:34
that are actually completed by millions of high school kids across the US
102
334958
4726
que são utilizados por milhões de alunos do secundário nos EUA
05:39
who are looking for a college program or a scholarship --
103
339708
3643
que estão à procura de um programa universitário ou de uma bolsa,
05:43
had been sold to educational data brokers.
104
343375
3042
tinham sido vendidos a corretores de dados educativos.
05:47
Now, researchers at Fordham who studied educational data brokers
105
347792
5434
Ora, os investigadores da Universidade de Fordham
que investigaram corretores de dados educativos
05:53
revealed that these companies profiled kids as young as two
106
353250
5226
revelaram que estas empresas traçaram perfis de crianças a partir dos dois anos
05:58
on the basis of different categories:
107
358500
3059
com base em muitas outras categorias arbitrárias.
06:01
ethnicity, religion, affluence,
108
361583
4185
etnia, religião, riqueza,
06:05
social awkwardness
109
365792
2059
inépcia social
06:07
and many other random categories.
110
367875
2934
e muitas outras categorias.
06:10
And then they sell these profiles together with the name of the kid,
111
370833
5018
Depois vendem os perfis juntamente com os nomes das crianças,
06:15
their home address and the contact details
112
375875
2809
a morada e informações de contacto
06:18
to different companies,
113
378708
1851
a empresas diferentes,
06:20
including trade and career institutions,
114
380583
2459
incluindo instituições comerciais e de carreira,
empresas de empréstimos estudantis
06:24
student loans
115
384083
1268
06:25
and student credit card companies.
116
385375
1750
e de cartões de crédito estudantis.
06:28
To push the boundaries,
117
388542
1351
Para alargarem os limites,
06:29
the researchers at Fordham asked an educational data broker
118
389917
3809
os investigadores da Fordham pediram a um corretor de dados educativos
06:33
to provide them with a list of 14-to-15-year-old girls
119
393750
5809
que lhes fornecessem uma lista de raparigas dos 14 aos 15 anos
06:39
who were interested in family planning services.
120
399583
3375
que estivessem interessadas em serviços de planeamento familiar.
06:44
The data broker agreed to provide them the list.
121
404208
2476
O corretor aceitou fornecer a lista.
06:46
So imagine how intimate and how intrusive that is for our kids.
122
406708
4875
Por isso imaginem o quão íntimo e intrusivo
isto é para os nossos filhos.
06:52
But educational data brokers are really just an example.
123
412833
3976
Mas os corretores de dados educativos são apenas um exemplo.
06:56
The truth is that our children are being profiled in ways that we cannot control
124
416833
4685
A verdade é que os nossos filhos estão a ter perfis
de maneiras que não conseguimos controlar
07:01
but that can significantly impact their chances in life.
125
421542
3416
e que podem ter um impacto significativo nas suas oportunidades na vida.
07:06
So we need to ask ourselves:
126
426167
3476
Por isso, precisamos de perguntar:
07:09
can we trust these technologies when it comes to profiling our children?
127
429667
4684
podemos confiar nestas tecnologias para traçarem os perfis dos nossos filhos?
07:14
Can we?
128
434375
1250
Podemos?
07:17
My answer is no.
129
437708
1250
A minha resposta é não.
07:19
As an anthropologist,
130
439792
1267
Como antropóloga,
07:21
I believe that artificial intelligence and predictive analytics can be great
131
441083
3768
eu acredito que a inteligência artificial e a análise preditiva podem ser ótimas
07:24
to predict the course of a disease
132
444875
2018
para prever o decorrer de uma doença
07:26
or to fight climate change.
133
446917
1833
ou para lutar contra a alteração climática.
07:30
But we need to abandon the belief
134
450000
1643
Mas precisamos de abandonar a convicção
07:31
that these technologies can objectively profile humans
135
451667
3684
de que estas tecnologias podem traçar objetivamente perfis das pessoas
07:35
and that we can rely on them to make data-driven decisions
136
455375
3184
e de que podemos contar com elas
para tomarem decisões orientadas por dados
07:38
about individual lives.
137
458583
1893
sobre vidas individuais.
07:40
Because they can't profile humans.
138
460500
2559
Porque elas não conseguem traçar perfis das pessoas.
07:43
Data traces are not the mirror of who we are.
139
463083
3351
Os rastreios de dados não são um espelho do quem somos.
07:46
Humans think one thing and say the opposite,
140
466458
2101
Os seres humanos pensam uma coisa e dizem outra,
07:48
feel one way and act differently.
141
468583
2435
sentem-se de uma maneira e agem de maneira diferente.
07:51
Algorithmic predictions or our digital practices
142
471042
2476
As previsões algorítmicas e as nossas práticas digitais
07:53
cannot account for the unpredictability and complexity of human experience.
143
473542
5166
não têm em conta a imprevisibilidade e a complexidade da experiência humana.
08:00
But on top of that,
144
480417
1559
Mas além disso,
08:02
these technologies are always --
145
482000
2684
essas tecnologias são sempre,
08:04
always --
146
484708
1268
sempre,
08:06
in one way or another, biased.
147
486000
1917
de uma maneira ou outra, tendenciosas.
08:09
You see, algorithms are by definition sets of rules or steps
148
489125
5059
Os algoritmos são, por definição, conjuntos de regras ou passos
08:14
that have been designed to achieve a specific result, OK?
149
494208
3709
que foram concebidos para alcançar um resultado específico, OK?
08:18
But these sets of rules or steps cannot be objective,
150
498833
2726
Mas estes conjuntos de regras ou passos não podem ser objetivos,
08:21
because they've been designed by human beings
151
501583
2143
porque foram concebidos por seres humanos
08:23
within a specific cultural context
152
503750
1726
dentro de um contexto cultural específico
08:25
and are shaped by specific cultural values.
153
505500
2500
e são modelados por valores culturais específicos.
08:28
So when machines learn,
154
508667
1726
Por isso quando as máquinas aprendem,
08:30
they learn from biased algorithms,
155
510417
2250
aprendem a partir de algoritmos parciais,
08:33
and they often learn from biased databases as well.
156
513625
3208
e muitas vezes aprendem também a partir de bases de dados parciais.
08:37
At the moment, we're seeing the first examples of algorithmic bias.
157
517833
3726
De momento, estamos a ver os primeiros exemplos de viés algorítmico.
08:41
And some of these examples are frankly terrifying.
158
521583
3500
E alguns destes exemplos são francamente aterradores.
08:46
This year, the AI Now Institute in New York published a report
159
526500
4059
Este ano, o AI Now Institute em Nova Iorque publicou um relatório
08:50
that revealed that the AI technologies
160
530583
2393
que revelou que as tecnologias de IA
08:53
that are being used for predictive policing
161
533000
3476
que estão a ser utilizadas para policiamento preditivo
08:56
have been trained on "dirty" data.
162
536500
3125
foram treinadas com base em dados "sujos".
09:00
This is basically data that had been gathered
163
540333
2893
Ou seja, basicamente dados que foram reunidos
09:03
during historical periods of known racial bias
164
543250
4184
durante períodos históricos conhecidos pelos preconceitos raciais
09:07
and nontransparent police practices.
165
547458
2250
e por práticas policiais pouco transparentes.
09:10
Because these technologies are being trained with dirty data,
166
550542
4059
Como estas tecnologias estão a ser treinadas com dados sujos,
09:14
they're not objective,
167
554625
1434
não são objetivas,
09:16
and their outcomes are only amplifying and perpetrating
168
556083
4518
e os resultados estão apenas a amplificar e a perpetrar
09:20
police bias and error.
169
560625
1625
preconceitos policiais e erros.
09:25
So I think we are faced with a fundamental problem
170
565167
3142
Por isso, eu acho que estamos a enfrentar um problema fundamental
09:28
in our society.
171
568333
1643
na nossa sociedade.
09:30
We are starting to trust technologies when it comes to profiling human beings.
172
570000
4792
Estamos a começar a confiar em tecnologias
no que toca a traçar perfis de seres humanos.
09:35
We know that in profiling humans,
173
575750
2518
Sabemos que, ao traçarem perfis de pessoas,
09:38
these technologies are always going to be biased
174
578292
2809
estas tecnologias vão ser sempre tendenciosas
09:41
and are never really going to be accurate.
175
581125
2726
e nunca vão ser exatas.
09:43
So what we need now is actually political solution.
176
583875
2934
Por isso, precisamos agora de uma solução política.
09:46
We need governments to recognize that our data rights are our human rights.
177
586833
4709
Precisamos que os governos reconheçam
que os nossos direitos de dados são os nossos direitos humanos.
09:52
(Applause and cheers)
178
592292
4083
(Aplausos)
09:59
Until this happens, we cannot hope for a more just future.
179
599833
4084
Enquanto isto não acontecer, não podemos ter esperança de um futuro mais justo.
10:04
I worry that my daughters are going to be exposed
180
604750
2726
Eu preocupo-me que as minhas filhas sejam expostas
10:07
to all sorts of algorithmic discrimination and error.
181
607500
3726
a todo o tipo de discriminação e de erros algorítmicos.
10:11
You see the difference between me and my daughters
182
611250
2393
A diferença entre mim e as minhas filhas
10:13
is that there's no public record out there of my childhood.
183
613667
3184
é que não há nenhum registo público da minha infância.
10:16
There's certainly no database of all the stupid things that I've done
184
616875
4018
Certamente não há nenhuma base de dados com todas as coisas estúpidas que fiz
10:20
and thought when I was a teenager.
185
620917
2142
e que pensei quando era adolescente.
10:23
(Laughter)
186
623083
1500
(Risos)
10:25
But for my daughters this may be different.
187
625833
2750
Mas para as minhas filhas isso pode ser diferente.
10:29
The data that is being collected from them today
188
629292
3184
Os dados delas que estão a ser reunidos hoje
10:32
may be used to judge them in the future
189
632500
3809
podem ser utilizados para julgá-las no futuro
10:36
and can come to prevent their hopes and dreams.
190
636333
2959
e podem impedir os sonhos e esperanças delas.
10:40
I think that's it's time.
191
640583
1518
Eu acho que está na hora,
10:42
It's time that we all step up.
192
642125
1434
está na hora de avançar.
10:43
It's time that we start working together
193
643583
2476
Está na hora de começarmos a trabalhar juntos
10:46
as individuals,
194
646083
1435
como indivíduos,
10:47
as organizations and as institutions,
195
647542
2517
como organizações e como instituições,
10:50
and that we demand greater data justice for us
196
650083
3101
e exigir maior justiça de dados para nós
10:53
and for our children
197
653208
1393
e para os nossos filhos
10:54
before it's too late.
198
654625
1518
antes que seja tarde de mais.
10:56
Thank you.
199
656167
1267
Obrigada.
10:57
(Applause)
200
657458
1417
(Aplausos)
Sobre este site

Este sítio irá apresentar-lhe vídeos do YouTube que são úteis para a aprendizagem do inglês. Verá lições de inglês ensinadas por professores de primeira linha de todo o mundo. Faça duplo clique nas legendas em inglês apresentadas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas deslocam-se em sincronia com a reprodução do vídeo. Se tiver quaisquer comentários ou pedidos, por favor contacte-nos utilizando este formulário de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7