What tech companies know about your kids | Veronica Barassi

84,880 views ・ 2020-07-03

TED


Fare doppio clic sui sottotitoli in inglese per riprodurre il video.

00:00
Transcriber: Leslie Gauthier Reviewer: Joanna Pietrulewicz
0
0
7000
Traduttore: Leslie Gauthier Revisore: Silvia Monti
00:12
Every day, every week,
1
12792
2267
Ogni giorno, ogni settimana,
diamo il consenso a termini e condizioni.
00:15
we agree to terms and conditions.
2
15083
2185
00:17
And when we do this,
3
17292
1476
E quando lo facciamo,
00:18
we provide companies with the lawful right
4
18792
2476
forniamo alle aziende il diritto
00:21
to do whatever they want with our data
5
21292
3684
di fare quel che vogliono con i nostri dati
e con quelli dei nostri figli.
00:25
and with the data of our children.
6
25000
2375
00:28
Which makes us wonder:
7
28792
2976
Il che ci fa pensare:
00:31
how much data are we giving away of children,
8
31792
2892
quanti dati dei nostri figli stiamo rivelando
00:34
and what are its implications?
9
34708
2000
e cosa implica tutto ciò?
00:38
I'm an anthropologist,
10
38500
1393
Sono un'antropologa
00:39
and I'm also the mother of two little girls.
11
39917
2601
e sono anche la madre di due bambine.
00:42
And I started to become interested in this question in 2015
12
42542
4476
Ho iniziato a interessarmi a questo argomento nel 2015,
quando mi sono improvvisamente resa conto che c’era una vastità,
00:47
when I suddenly realized that there were vast --
13
47042
2726
00:49
almost unimaginable amounts of data traces
14
49792
3017
una quantità quasi inimmaginabile di tracce di dati
00:52
that are being produced and collected about children.
15
52833
3167
che vengono prodotte e raccolte sui bambini.
00:56
So I launched a research project,
16
56792
1976
Così ho avviato un progetto di ricerca, chiamato “Child Data Citizen”,
00:58
which is called Child Data Citizen,
17
58792
2476
01:01
and I aimed at filling in the blank.
18
61292
2125
che mira a colmare quel vuoto.
01:04
Now you may think that I'm here to blame you
19
64583
3018
Ora, penserete che sia qui per rimproverarvi
01:07
for posting photos of your children on social media,
20
67625
2768
perché postate foto dei vostri figli sui social media,
01:10
but that's not really the point.
21
70417
2142
ma in realtà non è quello il punto.
01:12
The problem is way bigger than so-called "sharenting."
22
72583
3417
Il problema è molto più grande dello “sharenting”.
01:16
This is about systems, not individuals.
23
76792
4101
Si tratta di sistemi, non di individui.
01:20
You and your habits are not to blame.
24
80917
2291
Né voi né le vostre abitudini siete da biasimare.
01:24
For the very first time in history,
25
84833
2851
Per la primissima volta nella storia,
01:27
we are tracking the individual data of children
26
87708
2560
teniamo traccia dei singoli dati dei bambini
01:30
from long before they're born --
27
90292
1767
da molto prima della loro nascita --
talvolta dal momento del concepimento
01:32
sometimes from the moment of conception,
28
92083
2685
01:34
and then throughout their lives.
29
94792
2351
e poi per tutta la durata della loro vita.
01:37
You see, when parents decide to conceive,
30
97167
3101
Vedete, quando i genitori decidono di concepire,
01:40
they go online to look for "ways to get pregnant,"
31
100292
2976
cercano su Internet “modi per rimanere incinta”
01:43
or they download ovulation-tracking apps.
32
103292
2750
o scaricano app che tracciano l’ovulazione.
01:47
When they do get pregnant,
33
107250
2601
Quando riescono a concepire,
01:49
they post ultrasounds of their babies on social media,
34
109875
3143
postano l’ecografia dei loro figli sui social media,
scaricano app per la gravidanza
01:53
they download pregnancy apps
35
113042
2017
o consultano il “Dottor Google” per qualsiasi cosa,
01:55
or they consult Dr. Google for all sorts of things,
36
115083
3726
01:58
like, you know --
37
118833
1518
come, ad esempio,
02:00
for "miscarriage risk when flying"
38
120375
2559
"rischio di aborto spontaneo in volo"
02:02
or "abdominal cramps in early pregnancy."
39
122958
2768
o “crampi addominali all’inizio della gravidanza”.
02:05
I know because I've done it --
40
125750
1809
Lo so perché l'ho fatto anch'io,
02:07
and many times.
41
127583
1625
tantissime volte.
02:10
And then, when the baby is born, they track every nap,
42
130458
2810
E poi, quando nasce il bambino, tengono traccia di ogni pisolino,
02:13
every feed,
43
133292
1267
di ogni pappa, di qualsiasi avvenimento su varie tecnologie.
02:14
every life event on different technologies.
44
134583
2584
E tutte queste tecnologie
02:18
And all of these technologies
45
138083
1476
02:19
transform the baby's most intimate behavioral and health data into profit
46
139583
6143
trasformano i dati comportamentali e sanitari più intimi dei bambini
in profitto
02:25
by sharing it with others.
47
145750
1792
condividendoli con altri.
02:28
So to give you an idea of how this works,
48
148583
2143
Per darvi un'idea di come funziona,
02:30
in 2019, the British Medical Journal published research that showed
49
150750
5184
nel 2019 il British Medical Journal ha pubblicato una ricerca
che ha rilevato che su 24 app sanitarie per il cellulare,
02:35
that out of 24 mobile health apps,
50
155958
3643
02:39
19 shared information with third parties.
51
159625
3458
19 hanno condiviso informazioni con terze parti.
E queste terze parti hanno condiviso informazioni con altre 216 organizzazioni.
02:44
And these third parties shared information with 216 other organizations.
52
164083
5834
02:50
Of these 216 other fourth parties,
53
170875
3434
Di queste altre 216 quarte parti,
02:54
only three belonged to the health sector.
54
174333
3143
soltanto tre appartenevano al settore sanitario.
02:57
The other companies that had access to that data were big tech companies
55
177500
4518
Le altre che vi hanno avuto accesso erano grandi aziende tecnologiche
come Google, Facebook e Oracle;
03:02
like Google, Facebook or Oracle,
56
182042
3517
03:05
they were digital advertising companies
57
185583
2601
erano aziende di digital advertising
03:08
and there was also a consumer credit reporting agency.
58
188208
4125
e c’era anche un’agenzia di segnalazione di credito al consumo.
Avete capito bene:
03:13
So you get it right:
59
193125
1434
03:14
ad companies and credit agencies may already have data points on little babies.
60
194583
5125
agenzie pubblicitarie e di credito potrebbero già avere
punti di dati sui bambini.
Ma le app per cellulari, le ricerche sul web e i social media
03:21
But mobile apps, web searches and social media
61
201125
2768
03:23
are really just the tip of the iceberg,
62
203917
3101
sono solamente la punta dell'iceberg,
perché i bambini vengono tracciati da diverse tecnologie
03:27
because children are being tracked by multiple technologies
63
207042
2851
03:29
in their everyday lives.
64
209917
1726
nella loro vita di tutti i giorni.
03:31
They're tracked by home technologies and virtual assistants in their homes.
65
211667
4142
A casa, vengono tracciati dalla tecnologia domestica e dagli assistenti virtuali.
03:35
They're tracked by educational platforms
66
215833
1976
Vengono tracciati dalle piattaforme e dalle tecnologie educative a scuola.
03:37
and educational technologies in their schools.
67
217833
2185
Vengono tracciati dalle registrazioni e dai portali online allo studio medico.
03:40
They're tracked by online records
68
220042
1601
03:41
and online portals at their doctor's office.
69
221667
3017
03:44
They're tracked by their internet-connected toys,
70
224708
2351
Vengono tracciati dai giocattoli connessi a Internet, dai giochi online
03:47
their online games
71
227083
1310
03:48
and many, many, many, many other technologies.
72
228417
2666
e da tante, tantissime altre tecnologie.
03:52
So during my research,
73
232250
1643
Durante la mia ricerca, tanti genitori sono venuti a chiedermi:
03:53
a lot of parents came up to me and they were like, "So what?
74
233917
4142
"E quindi?
Perché dovrebbe avere importanza se i miei figli vengono tracciati?
03:58
Why does it matter if my children are being tracked?
75
238083
2917
Non abbiamo nulla da nascondere".
04:02
We've got nothing to hide."
76
242042
1333
04:04
Well, it matters.
77
244958
1500
Beh, ha importanza.
Ha importanza perché oggi gli individui non vengono solo tracciati,
04:07
It matters because today individuals are not only being tracked,
78
247083
6018
ma vengono anche schedati in base alle loro tracce di dati.
04:13
they're also being profiled on the basis of their data traces.
79
253125
4101
04:17
Artificial intelligence and predictive analytics are being used
80
257250
3809
L’intelligenza artificiale e l’analisi predittiva vengono utilizzate
per raccogliere il maggior numero possibile di dati
04:21
to harness as much data as possible of an individual life
81
261083
3643
sulla vita di un individuo
04:24
from different sources:
82
264750
1851
da diverse fonti:
04:26
family history, purchasing habits, social media comments.
83
266625
4518
storia familiare, abitudini di acquisto, commenti sui social media.
E poi tutti questi dati vengono messi insieme
04:31
And then they bring this data together
84
271167
1851
04:33
to make data-driven decisions about the individual.
85
273042
2750
e usati come base per prendere decisioni sugli individui.
04:36
And these technologies are used everywhere.
86
276792
3434
E queste tecnologie sono utilizzate dappertutto:
04:40
Banks use them to decide loans.
87
280250
2393
le banche le usano per prendere decisioni sui prestiti,
04:42
Insurance uses them to decide premiums.
88
282667
2375
le assicurazioni le usano per prendere decisioni sulle polizze
04:46
Recruiters and employers use them
89
286208
2476
e i recruiter e i datori di lavoro le usano
04:48
to decide whether one is a good fit for a job or not.
90
288708
2917
per decidere se una persona sia o meno adatta per un lavoro.
04:52
Also the police and courts use them
91
292750
3101
Anche la polizia e i tribunali le utilizzano
04:55
to determine whether one is a potential criminal
92
295875
3518
per determinare se una persona sia un potenziale criminale
04:59
or is likely to recommit a crime.
93
299417
2625
o se sia incline o meno a ricommettere un crimine.
05:04
We have no knowledge or control
94
304458
4060
Non abbiamo né conoscenza né controllo
05:08
over the ways in which those who buy, sell and process our data
95
308542
3642
sui modi in cui coloro che acquistano, vendono ed elaborano i nostri dati
schedano noi e i nostri figli.
05:12
are profiling us and our children.
96
312208
2709
05:15
But these profiles can come to impact our rights in significant ways.
97
315625
4042
Ma questi profili potrebbero avere un importante impatto sui nostri diritti.
05:20
To give you an example,
98
320917
2208
Per farvi un esempio,
05:25
in 2018 the "New York Times" published the news
99
325792
4059
nel 2018 il New York Times ha pubblicato la notizia
05:29
that the data that had been gathered
100
329875
1976
che i dati che erano stati raccolti
05:31
through online college-planning services --
101
331875
3059
attraverso i servizi online di pianificazione universitaria --
05:34
that are actually completed by millions of high school kids across the US
102
334958
4726
che vengono utilizzati in tutti gli USA da milioni di liceali
05:39
who are looking for a college program or a scholarship --
103
339708
3643
che sono alla ricerca di un’università o di una borsa di studio --
05:43
had been sold to educational data brokers.
104
343375
3042
erano stati venduti a data broker educativi.
05:47
Now, researchers at Fordham who studied educational data brokers
105
347792
5434
Ora, i ricercatori della Fordham che hanno studiato i data broker educativi
05:53
revealed that these companies profiled kids as young as two
106
353250
5226
hanno rivelato che queste aziende schedano bimbi di appena due anni
05:58
on the basis of different categories:
107
358500
3059
sulla base di varie categorie:
06:01
ethnicity, religion, affluence,
108
361583
4185
etnia, religione, ricchezza,
06:05
social awkwardness
109
365792
2059
disagio sociale
06:07
and many other random categories.
110
367875
2934
e tante altre categorie casuali.
06:10
And then they sell these profiles together with the name of the kid,
111
370833
5018
Dopodiché, vendono questi profili insieme al nome del bambino,
06:15
their home address and the contact details
112
375875
2809
al suo indirizzo e ai dettagli di contatto
06:18
to different companies,
113
378708
1851
a numerose aziende,
06:20
including trade and career institutions,
114
380583
2459
compresi enti commerciali e professionali
e aziende di prestito e di carte di credito studentesche.
06:24
student loans
115
384083
1268
06:25
and student credit card companies.
116
385375
1750
06:28
To push the boundaries,
117
388542
1351
Per spingersi oltre,
06:29
the researchers at Fordham asked an educational data broker
118
389917
3809
i ricercatori della Fordham hanno chiesto a un data broker educativo
06:33
to provide them with a list of 14-to-15-year-old girls
119
393750
5809
di fornire loro una lista di ragazze dai 14 ai 15 anni
06:39
who were interested in family planning services.
120
399583
3375
che si erano interessate ai servizi di pianificazione familiare.
06:44
The data broker agreed to provide them the list.
121
404208
2476
Il data broker ha acconsentito.
06:46
So imagine how intimate and how intrusive that is for our kids.
122
406708
4875
Dunque immaginate quanto sia intimo e invasivo tutto ciò per i nostri figli.
06:52
But educational data brokers are really just an example.
123
412833
3976
Ma i data broker educativi sono solamente un esempio.
06:56
The truth is that our children are being profiled in ways that we cannot control
124
416833
4685
La verità è che i nostri figli vengono schedati in modi incontrollabili
07:01
but that can significantly impact their chances in life.
125
421542
3416
che, però, possono avere un impatto significativo sulla loro vita.
Dunque dobbiamo chiederci:
07:06
So we need to ask ourselves:
126
426167
3476
07:09
can we trust these technologies when it comes to profiling our children?
127
429667
4684
possiamo fidarci di queste tecnologie
quando si tratta di schedare i nostri figli?
07:14
Can we?
128
434375
1250
Possiamo farlo?
07:17
My answer is no.
129
437708
1250
La mia risposta è no.
07:19
As an anthropologist,
130
439792
1267
Come antropologa,
ritengo che l’intelligenza artificiale e l’analisi predittiva siano grandiose
07:21
I believe that artificial intelligence and predictive analytics can be great
131
441083
3768
07:24
to predict the course of a disease
132
444875
2018
per prevedere il corso di una malattia
07:26
or to fight climate change.
133
446917
1833
o per combattere il cambiamento climatico.
Ma dobbiamo abbandonare la convinzione
07:30
But we need to abandon the belief
134
450000
1643
07:31
that these technologies can objectively profile humans
135
451667
3684
che queste tecnologie possano schedare in modo oggettivo gli esseri umani
07:35
and that we can rely on them to make data-driven decisions
136
455375
3184
e che possiamo fare affidamento su di loro
per prendere decisioni sulle vite delle persone sulla base di dati.
07:38
about individual lives.
137
458583
1893
07:40
Because they can't profile humans.
138
460500
2559
Perché non possono schedare gli esseri umani.
Le tracce di dati non sono lo specchio di chi siamo.
07:43
Data traces are not the mirror of who we are.
139
463083
3351
07:46
Humans think one thing and say the opposite,
140
466458
2101
Gli umani pensano una cosa e dicono l’opposto,
07:48
feel one way and act differently.
141
468583
2435
si sentono in un modo e si comportano in tutt’altra maniera.
07:51
Algorithmic predictions or our digital practices
142
471042
2476
Le previsioni algoritmiche o le nostre abitudini digitali
07:53
cannot account for the unpredictability and complexity of human experience.
143
473542
5166
non possono tenere conto
dell’imprevedibilità e della complessità dell’esperienza umana.
08:00
But on top of that,
144
480417
1559
Oltretutto,
queste tecnologie sono sempre --
08:02
these technologies are always --
145
482000
2684
08:04
always --
146
484708
1268
sempre --
in un modo o nell'altro, discriminatorie.
08:06
in one way or another, biased.
147
486000
1917
Vedete, gli algoritmi sono per definizione insiemi di regole o fasi
08:09
You see, algorithms are by definition sets of rules or steps
148
489125
5059
08:14
that have been designed to achieve a specific result, OK?
149
494208
3709
progettati per raggiungere un determinato risultato.
08:18
But these sets of rules or steps cannot be objective,
150
498833
2726
Ma questi insiemi di regole o fasi non possono essere obiettivi
08:21
because they've been designed by human beings
151
501583
2143
perché sono stati creati dagli umani in un determinato contesto culturale
08:23
within a specific cultural context
152
503750
1726
08:25
and are shaped by specific cultural values.
153
505500
2500
e sono modellati da specifici valori culturali.
08:28
So when machines learn,
154
508667
1726
Dunque quando le macchine apprendono, lo fanno da algoritmi discriminatori
08:30
they learn from biased algorithms,
155
510417
2250
08:33
and they often learn from biased databases as well.
156
513625
3208
e spesso anche da banche dati discriminatorie.
08:37
At the moment, we're seeing the first examples of algorithmic bias.
157
517833
3726
Al momento, stiamo assistendo ai primi esempi di discriminazione algoritmica.
08:41
And some of these examples are frankly terrifying.
158
521583
3500
E alcuni di questi esempi sono, francamente, terrificanti.
08:46
This year, the AI Now Institute in New York published a report
159
526500
4059
Quest’anno, l’AI Now Institute di New York ha pubblicato una relazione
08:50
that revealed that the AI technologies
160
530583
2393
che ha mostrato come le tecnologie di IA
che vengono utilizzate per la politica preventiva
08:53
that are being used for predictive policing
161
533000
3476
08:56
have been trained on "dirty" data.
162
536500
3125
si basino su dati “sporchi”.
09:00
This is basically data that had been gathered
163
540333
2893
Si tratta in pratica di dati che sono stati raccolti
09:03
during historical periods of known racial bias
164
543250
4184
durante periodi storici di nota discriminazione razziale
09:07
and nontransparent police practices.
165
547458
2250
e di pratiche di polizia non trasparenti.
09:10
Because these technologies are being trained with dirty data,
166
550542
4059
Poiché queste tecnologie si basano su dati sporchi,
09:14
they're not objective,
167
554625
1434
non sono obiettive
e i loro risultati stanno solamente amplificando e perpetuando
09:16
and their outcomes are only amplifying and perpetrating
168
556083
4518
09:20
police bias and error.
169
560625
1625
il pregiudizio e gli sbagli della polizia.
Dunque ritengo che ci troviamo di fronte a un problema fondamentale
09:25
So I think we are faced with a fundamental problem
170
565167
3142
09:28
in our society.
171
568333
1643
della nostra società:
stiamo iniziando a fidarci delle tecnologie
09:30
We are starting to trust technologies when it comes to profiling human beings.
172
570000
4792
quando si tratta di schedare gli esseri umani.
09:35
We know that in profiling humans,
173
575750
2518
Sappiamo che nello schedare gli esseri umani,
queste tecnologie saranno sempre discriminatorie
09:38
these technologies are always going to be biased
174
578292
2809
e non saranno mai realmente precise.
09:41
and are never really going to be accurate.
175
581125
2726
09:43
So what we need now is actually political solution.
176
583875
2934
Quindi ciò di cui abbiamo bisogno ora è in realtà una soluzione politica.
09:46
We need governments to recognize that our data rights are our human rights.
177
586833
4709
I governi devono riconoscere che i diritti sui dati sono diritti umani.
09:52
(Applause and cheers)
178
592292
4083
(Applausi)
09:59
Until this happens, we cannot hope for a more just future.
179
599833
4084
Finché non accadrà, non possiamo sperare per un futuro più equo.
10:04
I worry that my daughters are going to be exposed
180
604750
2726
Mi preoccupa che le mie figlie vengano esposte
10:07
to all sorts of algorithmic discrimination and error.
181
607500
3726
a ogni sorta di discriminazione ed errore algoritmico.
10:11
You see the difference between me and my daughters
182
611250
2393
Vedete, la differenza tra me e le mie figlie
10:13
is that there's no public record out there of my childhood.
183
613667
3184
è che non c’è nessun tipo di informazione di pubblico dominio sulla mia infanzia.
10:16
There's certainly no database of all the stupid things that I've done
184
616875
4018
Certamente non esiste una banca dati di tutte le cose stupide che ho fatto
10:20
and thought when I was a teenager.
185
620917
2142
e pensato quando ero una ragazzina.
(Risate)
10:23
(Laughter)
186
623083
1500
10:25
But for my daughters this may be different.
187
625833
2750
Ma per le mie figlie tutto ciò potrebbe essere diverso.
10:29
The data that is being collected from them today
188
629292
3184
I dati che vengono raccolti su di loro oggi
10:32
may be used to judge them in the future
189
632500
3809
potrebbero essere usati per giudicarle in futuro
10:36
and can come to prevent their hopes and dreams.
190
636333
2959
e possono arrivare a ostacolare le loro speranze e i loro sogni.
10:40
I think that's it's time.
191
640583
1518
Penso che sia arrivato il momento.
10:42
It's time that we all step up.
192
642125
1434
È il momento di farci avanti,
10:43
It's time that we start working together
193
643583
2476
di iniziare a lavorare insieme
come individui,
10:46
as individuals,
194
646083
1435
10:47
as organizations and as institutions,
195
647542
2517
come organizzazioni e come istituzioni
e di esigere una maggiore giustizia sui dati per noi e per i nostri figli
10:50
and that we demand greater data justice for us
196
650083
3101
10:53
and for our children
197
653208
1393
10:54
before it's too late.
198
654625
1518
prima che sia troppo tardi.
10:56
Thank you.
199
656167
1267
Grazie.
10:57
(Applause)
200
657458
1417
(Applausi)
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7