What tech companies know about your kids | Veronica Barassi

84,880 views ・ 2020-07-03

TED


Vă rugăm să faceți dublu clic pe subtitrările în limba engleză de mai jos pentru a reda videoclipul.

00:00
Transcriber: Leslie Gauthier Reviewer: Joanna Pietrulewicz
0
0
7000
Traducător: Cristian Boros Corector: Bianca-Ioanidia Mirea
00:12
Every day, every week,
1
12792
2267
În fiecare zi, în fiecare săptămână,
00:15
we agree to terms and conditions.
2
15083
2185
acceptăm termeni și condiții.
00:17
And when we do this,
3
17292
1476
Când facem asta,
00:18
we provide companies with the lawful right
4
18792
2476
oferim companiilor dreptul legal
00:21
to do whatever they want with our data
5
21292
3684
să facă ce vor cu informațiile noastre
00:25
and with the data of our children.
6
25000
2375
și ale copiilor noștri.
00:28
Which makes us wonder:
7
28792
2976
Ceea ce ne face să ne întrebăm:
00:31
how much data are we giving away of children,
8
31792
2892
câte informații referitoare la copii oferim,
00:34
and what are its implications?
9
34708
2000
și care sunt implicațiile?
00:38
I'm an anthropologist,
10
38500
1393
Sunt antropolog
00:39
and I'm also the mother of two little girls.
11
39917
2601
și mamă a două fetițe.
00:42
And I started to become interested in this question in 2015
12
42542
4476
Această întrebare a început să mă intereseze în 2015,
00:47
when I suddenly realized that there were vast --
13
47042
2726
când am realizat subit că sunt multe —
00:49
almost unimaginable amounts of data traces
14
49792
3017
aproape inimaginabil de multe date care sunt produse și colectate
00:52
that are being produced and collected about children.
15
52833
3167
referitoare la copii.
00:56
So I launched a research project,
16
56792
1976
Am lansat un proiect de cercetare
00:58
which is called Child Data Citizen,
17
58792
2476
numit Child Data Citizen,
01:01
and I aimed at filling in the blank.
18
61292
2125
menit să umple spațiile goale.
01:04
Now you may think that I'm here to blame you
19
64583
3018
Acum ați putea crede că sunt aici ca să vă învinuiesc
01:07
for posting photos of your children on social media,
20
67625
2768
că postați poze cu propriii copii pe rețele de socializare,
01:10
but that's not really the point.
21
70417
2142
dar nu e acesta scopul.
01:12
The problem is way bigger than so-called "sharenting."
22
72583
3417
Problema e mult mai mare decât așa-numitul „părin-share”.
01:16
This is about systems, not individuals.
23
76792
4101
E vorba de sisteme, nu de indivizi.
01:20
You and your habits are not to blame.
24
80917
2291
Nu voi și obiceiurile voastre sunt de vină.
01:24
For the very first time in history,
25
84833
2851
Pentru prima oară în istorie,
01:27
we are tracking the individual data of children
26
87708
2560
urmărim informații individuale ale copiilor
01:30
from long before they're born --
27
90292
1767
cu mult înainte să se nască —
01:32
sometimes from the moment of conception,
28
92083
2685
câteodată de la momentul concepției
01:34
and then throughout their lives.
29
94792
2351
iar după, pe parcursul vieții.
01:37
You see, when parents decide to conceive,
30
97167
3101
Vedeți voi, când părinții decid să conceapă un copil,
01:40
they go online to look for "ways to get pregnant,"
31
100292
2976
caută online „moduri de a rămâne însărcinată”,
01:43
or they download ovulation-tracking apps.
32
103292
2750
sau descarcă aplicații care urmăresc perioada de ovulație.
01:47
When they do get pregnant,
33
107250
2601
Când rămân însărcinate,
01:49
they post ultrasounds of their babies on social media,
34
109875
3143
postează ultrasunetele bebelușului pe rețele de socializare,
01:53
they download pregnancy apps
35
113042
2017
descarcă aplicații pentru graviditate,
01:55
or they consult Dr. Google for all sorts of things,
36
115083
3726
sau îl consultă pe Dr. Google pentru tot felul de lucruri
01:58
like, you know --
37
118833
1518
cum ar fi, știți voi —
02:00
for "miscarriage risk when flying"
38
120375
2559
„risc de pierdere a sarcinii în timpul zborului”
02:02
or "abdominal cramps in early pregnancy."
39
122958
2768
sau „crampe abdominale în graviditatea timpurie”.
02:05
I know because I've done it --
40
125750
1809
Știu pentru că am făcut și eu asta —
02:07
and many times.
41
127583
1625
de multe ori.
02:10
And then, when the baby is born, they track every nap,
42
130458
2810
Iar după ce bebelușul s-a născut, aplicațiile îi monitorizează somnul,
02:13
every feed,
43
133292
1267
hrănirea,
02:14
every life event on different technologies.
44
134583
2584
fiecare eveniment din viață cu diferite tehnologii.
02:18
And all of these technologies
45
138083
1476
Și din toate aceste tehnologii,
02:19
transform the baby's most intimate behavioral and health data into profit
46
139583
6143
transformă cele mai intime informații despre bebeluș în profit,
02:25
by sharing it with others.
47
145750
1792
împărtășindu-le cu alții.
02:28
So to give you an idea of how this works,
48
148583
2143
Ca să vă dau o idee cum funcționează:
02:30
in 2019, the British Medical Journal published research that showed
49
150750
5184
în 2019, British Medical Journal a publicat o cercetare care arăta
02:35
that out of 24 mobile health apps,
50
155958
3643
că din 24 de aplicații de mobil pentru sănătate,
02:39
19 shared information with third parties.
51
159625
3458
19 împărtășeau informațiile cu părți terțe.
02:44
And these third parties shared information with 216 other organizations.
52
164083
5834
Iar aceste părți terțe împărtășeau informațiile cu alte 216 organizații.
02:50
Of these 216 other fourth parties,
53
170875
3434
Din aceste 216 organizații,
02:54
only three belonged to the health sector.
54
174333
3143
doar trei aparțineau sectorului medical.
02:57
The other companies that had access to that data were big tech companies
55
177500
4518
Celelalte companii care aveau acces la informații erau companii IT,
03:02
like Google, Facebook or Oracle,
56
182042
3517
cum ar fi Google, Facebook sau Oracle,
03:05
they were digital advertising companies
57
185583
2601
erau companii de reclame digitale,
03:08
and there was also a consumer credit reporting agency.
58
188208
4125
era de asemenea și o agenție de raportare a creditului pentru consumatori.
03:13
So you get it right:
59
193125
1434
Deci ați înțeles:
03:14
ad companies and credit agencies may already have data points on little babies.
60
194583
5125
companiile de reclame și de creditare au deja informații despre bebeluși.
03:21
But mobile apps, web searches and social media
61
201125
2768
Dar aplicațiile, căutările web și rețelele de socializare
03:23
are really just the tip of the iceberg,
62
203917
3101
sunt doar vârful aisbergului,
03:27
because children are being tracked by multiple technologies
63
207042
2851
pentru că acești copii sunt urmăriți de tehnologii multiple
03:29
in their everyday lives.
64
209917
1726
în viețile lor cotidiene.
03:31
They're tracked by home technologies and virtual assistants in their homes.
65
211667
4142
Sunt urmăriți de tehnologii din casă și de asistenți virtuali.
03:35
They're tracked by educational platforms
66
215833
1976
Sunt urmăriți de platforme educaționale
03:37
and educational technologies in their schools.
67
217833
2185
și de tehnologii educaționale în școli,
03:40
They're tracked by online records
68
220042
1601
prin înregistrări online
03:41
and online portals at their doctor's office.
69
221667
3017
și portaluri online la cabinetul medical.
03:44
They're tracked by their internet-connected toys,
70
224708
2351
Sunt urmăriți de jucării conectate la internet
03:47
their online games
71
227083
1310
de jocurile online,
03:48
and many, many, many, many other technologies.
72
228417
2666
și de multe, multe, multe alte tehnologii.
03:52
So during my research,
73
232250
1643
În timpul cercetării mele,
03:53
a lot of parents came up to me and they were like, "So what?
74
233917
4142
mulți părinți au venit și mi-au zis: „Și ce dacă?
03:58
Why does it matter if my children are being tracked?
75
238083
2917
De ce contează dacă ai mei copii sunt urmăriți?
04:02
We've got nothing to hide."
76
242042
1333
Nu avem nimic de ascuns.”
04:04
Well, it matters.
77
244958
1500
Ei bine, contează.
04:07
It matters because today individuals are not only being tracked,
78
247083
6018
Contează pentru că, în ziua de azi, indivizii nu doar că sunt urmăriți,
04:13
they're also being profiled on the basis of their data traces.
79
253125
4101
dar se și profită de pe urma lor, în funcție de datele acestora.
04:17
Artificial intelligence and predictive analytics are being used
80
257250
3809
Inteligența artificială și analiza predictivă sunt folosite
04:21
to harness as much data as possible of an individual life
81
261083
3643
pentru a obține cât mai multe informații despre o persoană,
04:24
from different sources:
82
264750
1851
din diferite surse: istoria familiei,
04:26
family history, purchasing habits, social media comments.
83
266625
4518
obiceiuri de cumpărături, comentarii pe rețelele de socializare.
04:31
And then they bring this data together
84
271167
1851
Iar ei pun informațiile la un loc
04:33
to make data-driven decisions about the individual.
85
273042
2750
pentru a lua decizii bazate pe informațiile unui individ.
04:36
And these technologies are used everywhere.
86
276792
3434
Iar aceste tehnologii sunt folosite pretutindeni.
04:40
Banks use them to decide loans.
87
280250
2393
Băncile pentru a decide acordarea creditelor.
04:42
Insurance uses them to decide premiums.
88
282667
2375
În asigurări la calculul primei de asigurare.
04:46
Recruiters and employers use them
89
286208
2476
Cei ce recrutează și angajatorii le folosesc
04:48
to decide whether one is a good fit for a job or not.
90
288708
2917
pentru a decide dacă ai profilul potrivit unui job sau nu.
04:52
Also the police and courts use them
91
292750
3101
Poliția și instanțele le folosesc
04:55
to determine whether one is a potential criminal
92
295875
3518
pentru a determina dacă cineva e un potențial infractor,
04:59
or is likely to recommit a crime.
93
299417
2625
sau dacă e probabil să recidiveze.
05:04
We have no knowledge or control
94
304458
4060
Nu avem cunoștințe, nici control
05:08
over the ways in which those who buy, sell and process our data
95
308542
3642
asupra felului în care cei care ne cumpără, ne folosesc și ne vând datele
05:12
are profiling us and our children.
96
312208
2709
ne profilează pe noi și copiii noștri.
05:15
But these profiles can come to impact our rights in significant ways.
97
315625
4042
Dar aceste profile pot să ne afecteze drepturile în moduri însemnate.
05:20
To give you an example,
98
320917
2208
Ca să vă dau un exemplu:
05:25
in 2018 the "New York Times" published the news
99
325792
4059
În 2018, „New York Times” a publicat știrea
05:29
that the data that had been gathered
100
329875
1976
că informațiile strânse
05:31
through online college-planning services --
101
331875
3059
prin serviciile de planificare pentru facultate —
05:34
that are actually completed by millions of high school kids across the US
102
334958
4726
care sunt completate de milioane de liceeni din Statele Unite,
05:39
who are looking for a college program or a scholarship --
103
339708
3643
care caută o facultate, o bursă —
05:43
had been sold to educational data brokers.
104
343375
3042
au fost vândute brokerilor de date educaționale.
05:47
Now, researchers at Fordham who studied educational data brokers
105
347792
5434
Cercetătorii de la Fordham care au studiat brokerii de date educaționale
05:53
revealed that these companies profiled kids as young as two
106
353250
5226
au dezvăluit că aceste companii profilau copii chiar și în vârstă de doi ani,
05:58
on the basis of different categories:
107
358500
3059
pe baza mai multor categorii:
06:01
ethnicity, religion, affluence,
108
361583
4185
etnie, religie, bunăstare,
06:05
social awkwardness
109
365792
2059
jenă socială,
06:07
and many other random categories.
110
367875
2934
și multe alte categorii aleatorii.
06:10
And then they sell these profiles together with the name of the kid,
111
370833
5018
Și apoi vând aceste profile, împreună cu numele copilului,
06:15
their home address and the contact details
112
375875
2809
adresa de acasă și detaliile de contact,
06:18
to different companies,
113
378708
1851
diferitelor companii,
06:20
including trade and career institutions,
114
380583
2459
inclusiv instituțiilor de meserii și carieră,
06:24
student loans
115
384083
1268
companiilor de creditare
06:25
and student credit card companies.
116
385375
1750
și bancare pentru studenți.
06:28
To push the boundaries,
117
388542
1351
Pentru a forța nota,
06:29
the researchers at Fordham asked an educational data broker
118
389917
3809
cercetătorii de la Fordham i-au cerut unui broker de informații educaționale
06:33
to provide them with a list of 14-to-15-year-old girls
119
393750
5809
să le dea o listă cu fete de 14 până la 15 ani
06:39
who were interested in family planning services.
120
399583
3375
care erau interesate de servicii de planificare familială.
06:44
The data broker agreed to provide them the list.
121
404208
2476
Brokerul de informații a fost de acord.
06:46
So imagine how intimate and how intrusive that is for our kids.
122
406708
4875
Imaginați-vă cât de intim și intruziv e asta pentru copiii noștri.
06:52
But educational data brokers are really just an example.
123
412833
3976
Dar brokerii de informații educaționale sunt doar un exemplu.
06:56
The truth is that our children are being profiled in ways that we cannot control
124
416833
4685
Adevărul e că copiii noștri sunt profilați în moduri pe care nu le controlăm,
07:01
but that can significantly impact their chances in life.
125
421542
3416
dar care pot să le influențeze șansele în viață.
07:06
So we need to ask ourselves:
126
426167
3476
Trebuie să ne întrebăm:
07:09
can we trust these technologies when it comes to profiling our children?
127
429667
4684
putem avea încredere în aceste tehnologii în legătură cu profilarea copiilor noștri?
07:14
Can we?
128
434375
1250
Putem?
07:17
My answer is no.
129
437708
1250
Răspunsul meu e nu.
07:19
As an anthropologist,
130
439792
1267
Ca antropolog,
07:21
I believe that artificial intelligence and predictive analytics can be great
131
441083
3768
cred că inteligența artificială și analiza predictivă sunt grozave
07:24
to predict the course of a disease
132
444875
2018
când prezic parcursul unei boli
07:26
or to fight climate change.
133
446917
1833
sau în combaterea schimbărilor climatice.
07:30
But we need to abandon the belief
134
450000
1643
Dar nu trebuie să credem
07:31
that these technologies can objectively profile humans
135
451667
3684
că aceste tehnologii pot să profileze oamenii în mod obiectiv,
07:35
and that we can rely on them to make data-driven decisions
136
455375
3184
și că ne putem baza pe ele pentru a lua decizii bazate pe date
07:38
about individual lives.
137
458583
1893
vizând viețile individuale.
07:40
Because they can't profile humans.
138
460500
2559
Pentru că nu pot profila oamenii.
07:43
Data traces are not the mirror of who we are.
139
463083
3351
Informațiile nu sunt oglinda noastră.
07:46
Humans think one thing and say the opposite,
140
466458
2101
Oamenii se gândesc la ceva și spun opusul,
07:48
feel one way and act differently.
141
468583
2435
se simt într-un fel și acționează altfel.
07:51
Algorithmic predictions or our digital practices
142
471042
2476
Predicțiile algoritmice și practicile digitale
07:53
cannot account for the unpredictability and complexity of human experience.
143
473542
5166
nu pot lua în calcul imprevizibilitatea și complexitatea experienței umane.
08:00
But on top of that,
144
480417
1559
Dar mai presus de atât,
08:02
these technologies are always --
145
482000
2684
aceste tehnologii sunt mereu —
08:04
always --
146
484708
1268
mereu —
08:06
in one way or another, biased.
147
486000
1917
într-un fel sau altul, părtinitoare.
08:09
You see, algorithms are by definition sets of rules or steps
148
489125
5059
Vedeți voi, algoritmii sunt prin definiție o mulțime de reguli și pași
08:14
that have been designed to achieve a specific result, OK?
149
494208
3709
care au fost concepuți pentru a obține un anume rezultat, da?
08:18
But these sets of rules or steps cannot be objective,
150
498833
2726
Dar aceste reguli sau pași nu pot fi obiectivi
08:21
because they've been designed by human beings
151
501583
2143
pentru că au fost creați de oameni
08:23
within a specific cultural context
152
503750
1726
într-un anume context cultural
08:25
and are shaped by specific cultural values.
153
505500
2500
și sunt formate de anumite valori culturale.
08:28
So when machines learn,
154
508667
1726
Deci, când mașinăriile învață,
08:30
they learn from biased algorithms,
155
510417
2250
învață prin algoritmi părtinitori
08:33
and they often learn from biased databases as well.
156
513625
3208
și învață adesea din baze de date părtinitoare.
08:37
At the moment, we're seeing the first examples of algorithmic bias.
157
517833
3726
În prezent, vedem primele exemple de prejudecăți ale algoritmilor.
08:41
And some of these examples are frankly terrifying.
158
521583
3500
Iar unele din aceste exemple sunt, sincer, terifiante.
08:46
This year, the AI Now Institute in New York published a report
159
526500
4059
Anul acesta, AI Now Institute din New York a publicat un raport
08:50
that revealed that the AI technologies
160
530583
2393
care dezvăluie că tehnologiile AI
08:53
that are being used for predictive policing
161
533000
3476
care sunt folosite pentru poliția predictivă
08:56
have been trained on "dirty" data.
162
536500
3125
au fost antrenate cu informații „murdare”.
09:00
This is basically data that had been gathered
163
540333
2893
Practic, informații obținute
09:03
during historical periods of known racial bias
164
543250
4184
în perioade istorice cu prejudecăți rasiale
09:07
and nontransparent police practices.
165
547458
2250
și cu practici netransparente ale poliției.
09:10
Because these technologies are being trained with dirty data,
166
550542
4059
Pentru că aceste tehnologii sunt antrenate cu informații „murdare”,
09:14
they're not objective,
167
554625
1434
acestea nu sunt obiective,
09:16
and their outcomes are only amplifying and perpetrating
168
556083
4518
iar rezultatele lor doar amplifică și perpetuează
09:20
police bias and error.
169
560625
1625
prejudecățile și erorile poliției.
09:25
So I think we are faced with a fundamental problem
170
565167
3142
Cred că avem în față o problemă fundamentală
09:28
in our society.
171
568333
1643
în societatea noastră.
09:30
We are starting to trust technologies when it comes to profiling human beings.
172
570000
4792
Începem să avem încredere în tehnologii, când vine vorba de profilarea oamenilor.
09:35
We know that in profiling humans,
173
575750
2518
Știm că atunci când e vorba de profilarea oamenilor,
09:38
these technologies are always going to be biased
174
578292
2809
aceste tehnologii vor avea mereu prejudecăți
09:41
and are never really going to be accurate.
175
581125
2726
și niciodată nu vor fi precise cu adevărat.
09:43
So what we need now is actually political solution.
176
583875
2934
Ce ne trebuie acum este o soluție politică.
09:46
We need governments to recognize that our data rights are our human rights.
177
586833
4709
Guvernele trebuie să admită că drepturile la datele noastre
fac parte din drepturile omului.
09:52
(Applause and cheers)
178
592292
4083
(Aplauze și urale)
09:59
Until this happens, we cannot hope for a more just future.
179
599833
4084
Până când asta nu se întâmplă, nu putem spera la un viitor mai corect.
10:04
I worry that my daughters are going to be exposed
180
604750
2726
Mi-e teamă că fiicele mele vor fi expuse
10:07
to all sorts of algorithmic discrimination and error.
181
607500
3726
la tot felul de discriminări algoritmice și erori.
10:11
You see the difference between me and my daughters
182
611250
2393
Diferența dintre mine și fiicele mele
10:13
is that there's no public record out there of my childhood.
183
613667
3184
este că nu există înregistrări publice despre copilăria mea.
10:16
There's certainly no database of all the stupid things that I've done
184
616875
4018
Nu există o bază de date cu toate prostiile pe care le-am făcut
10:20
and thought when I was a teenager.
185
620917
2142
și la care m-am gândit când eram adolescentă.
10:23
(Laughter)
186
623083
1500
(Râsete)
10:25
But for my daughters this may be different.
187
625833
2750
Dar pentru fiicele mele, asta ar putea fi diferit.
10:29
The data that is being collected from them today
188
629292
3184
Informațiile colectate despre ele acum
10:32
may be used to judge them in the future
189
632500
3809
pot fi folosite ca să fie judecate în viitor
10:36
and can come to prevent their hopes and dreams.
190
636333
2959
și pot să le împiedice să-și realizeze speranțele și visele.
10:40
I think that's it's time.
191
640583
1518
Cred că a venit timpul.
10:42
It's time that we all step up.
192
642125
1434
Trebuie pus piciorul în prag.
10:43
It's time that we start working together
193
643583
2476
E vremea să lucrăm împreună,
10:46
as individuals,
194
646083
1435
ca indivizi,
10:47
as organizations and as institutions,
195
647542
2517
ca organizații, ca instituții
10:50
and that we demand greater data justice for us
196
650083
3101
și să cerem dreptate pentru datele noastre
10:53
and for our children
197
653208
1393
și pentru copiii noștri,
10:54
before it's too late.
198
654625
1518
înainte să fie prea târziu.
10:56
Thank you.
199
656167
1267
Vă mulțumesc!
10:57
(Applause)
200
657458
1417
(Aplauze)
Despre acest site

Acest site vă va prezenta videoclipuri de pe YouTube care sunt utile pentru a învăța limba engleză. Veți vedea lecții de engleză predate de profesori de top din întreaga lume. Faceți dublu clic pe subtitrările în limba engleză afișate pe fiecare pagină video pentru a reda videoclipul de acolo. Subtitrările se derulează în sincron cu redarea videoclipului. Dacă aveți comentarii sau solicitări, vă rugăm să ne contactați folosind acest formular de contact.

https://forms.gle/WvT1wiN1qDtmnspy7