What tech companies know about your kids | Veronica Barassi

84,443 views ・ 2020-07-03

TED


Dubbelklicka på de engelska undertexterna nedan för att spela upp videon.

00:00
Transcriber: Leslie Gauthier Reviewer: Joanna Pietrulewicz
0
0
7000
Översättare: Elsa Juujärvi Granskare: Lisbeth Pekkari
00:12
Every day, every week,
1
12792
2267
Varje dag, varje vecka,
00:15
we agree to terms and conditions.
2
15083
2185
godkänner vi villkor.
00:17
And when we do this,
3
17292
1476
Och när gör vi detta förser vi företag med den lagliga rätten
00:18
we provide companies with the lawful right
4
18792
2476
00:21
to do whatever they want with our data
5
21292
3684
att göra vad de vill med våran data och med våra barns data.
00:25
and with the data of our children.
6
25000
2375
00:28
Which makes us wonder:
7
28792
2976
Vilket får oss att undra:
00:31
how much data are we giving away of children,
8
31792
2892
hur mycket data ger vi bort om barn, och vad får det för konsekvenser?
00:34
and what are its implications?
9
34708
2000
00:38
I'm an anthropologist,
10
38500
1393
Jag är antropolog och jag är även mamma till två små flickor.
00:39
and I'm also the mother of two little girls.
11
39917
2601
00:42
And I started to become interested in this question in 2015
12
42542
4476
Och jag började bli intresserad av denna fråga år 2015
00:47
when I suddenly realized that there were vast --
13
47042
2726
när jag plötsligt insåg att det fanns stora -
00:49
almost unimaginable amounts of data traces
14
49792
3017
nästan otroliga mängder dataspår
00:52
that are being produced and collected about children.
15
52833
3167
som produceras och samlas om barn.
00:56
So I launched a research project,
16
56792
1976
Så jag lanserade ett forskningsprojekt som heter Child Data Citizen
00:58
which is called Child Data Citizen,
17
58792
2476
01:01
and I aimed at filling in the blank.
18
61292
2125
och jag siktade på att fylla tomrummen.
01:04
Now you may think that I'm here to blame you
19
64583
3018
Nu kanske du tror att jag är här för att skylla på er
01:07
for posting photos of your children on social media,
20
67625
2768
för att ni lägger upp bilder på era barn på sociala medier
01:10
but that's not really the point.
21
70417
2142
men det är inte riktigt poängen.
01:12
The problem is way bigger than so-called "sharenting."
22
72583
3417
Problemet är mycket större än så kallat "sharenting."
01:16
This is about systems, not individuals.
23
76792
4101
Detta handlar om system, inte individer.
01:20
You and your habits are not to blame.
24
80917
2291
Du och dina vanor är inte att skylla på.
01:24
For the very first time in history,
25
84833
2851
För första gången i historien
01:27
we are tracking the individual data of children
26
87708
2560
spårar vi individuell data om barn från långt innan de är födda -
01:30
from long before they're born --
27
90292
1767
01:32
sometimes from the moment of conception,
28
92083
2685
ibland från befruktningsögonblicket, och sedan genom deras liv.
01:34
and then throughout their lives.
29
94792
2351
01:37
You see, when parents decide to conceive,
30
97167
3101
Du förstår, när föräldrar bestämmer sig för att skaffa barn
01:40
they go online to look for "ways to get pregnant,"
31
100292
2976
går de online för att söka på "sätt att bli gravid,"
01:43
or they download ovulation-tracking apps.
32
103292
2750
eller så laddar de ned appar för ägglossningsspårning.
01:47
When they do get pregnant,
33
107250
2601
När de blir gravida
01:49
they post ultrasounds of their babies on social media,
34
109875
3143
postar de ultraljud av sina bäbisar på sociala medier,
01:53
they download pregnancy apps
35
113042
2017
de laddar ned graviditetsappar
01:55
or they consult Dr. Google for all sorts of things,
36
115083
3726
eller så konsulterar de dr Google om alla möjliga saker,
01:58
like, you know --
37
118833
1518
som, du vet - om "missfallsrisk när man flyger"
02:00
for "miscarriage risk when flying"
38
120375
2559
02:02
or "abdominal cramps in early pregnancy."
39
122958
2768
eller "magkrämpor i tidig graviditet."
02:05
I know because I've done it --
40
125750
1809
Jag vet för jag har gjort det - och många gånger.
02:07
and many times.
41
127583
1625
02:10
And then, when the baby is born, they track every nap,
42
130458
2810
Och när är barnet fött spårar de varje tupplur, varje matning,
02:13
every feed,
43
133292
1267
02:14
every life event on different technologies.
44
134583
2584
varje liten livshändelse med olika tekniker.
02:18
And all of these technologies
45
138083
1476
Och alla dessa tekniker
02:19
transform the baby's most intimate behavioral and health data into profit
46
139583
6143
transformerar bäbisens mest intima beteende- och hälsodata till vinst
02:25
by sharing it with others.
47
145750
1792
genom att dela det med andra.
02:28
So to give you an idea of how this works,
48
148583
2143
Så för att ge er en aning om hur detta fungerar,
02:30
in 2019, the British Medical Journal published research that showed
49
150750
5184
2019 publicerade "British Medical Journal" forskning som visade
02:35
that out of 24 mobile health apps,
50
155958
3643
att av 24 hälsoappar,
02:39
19 shared information with third parties.
51
159625
3458
delade 19 information med en tredje part.
02:44
And these third parties shared information with 216 other organizations.
52
164083
5834
Och dessa tredje parter delade information med 216 andra organisationer.
02:50
Of these 216 other fourth parties,
53
170875
3434
Av dessa 216 fjärde parterna
02:54
only three belonged to the health sector.
54
174333
3143
ingick bara tre i sjukvårdssektorn.
02:57
The other companies that had access to that data were big tech companies
55
177500
4518
De andra företagen som hade tillgång till datan var stora teknikföretag
03:02
like Google, Facebook or Oracle,
56
182042
3517
som Google, Facebook eller Oracle,
03:05
they were digital advertising companies
57
185583
2601
de var digitala reklamföretag
03:08
and there was also a consumer credit reporting agency.
58
188208
4125
och det fanns även en konsumentkreditrapporteringsbyrå.
03:13
So you get it right:
59
193125
1434
Så du förstår:
03:14
ad companies and credit agencies may already have data points on little babies.
60
194583
5125
reklambyråer och kreditbyråer har redan datapunkter på små bäbisar.
03:21
But mobile apps, web searches and social media
61
201125
2768
Men mobilappar, webbsökningar och sociala medier
03:23
are really just the tip of the iceberg,
62
203917
3101
är bara toppen av isberget
03:27
because children are being tracked by multiple technologies
63
207042
2851
eftersom barn blir spårade av flera tekniker i vardagslivet.
03:29
in their everyday lives.
64
209917
1726
03:31
They're tracked by home technologies and virtual assistants in their homes.
65
211667
4142
De spåras av hemtekniker och virtuella assistenter hemma.
03:35
They're tracked by educational platforms
66
215833
1976
De spåras av utbildningsplattformar och utbildningstekniker i sina skolor.
03:37
and educational technologies in their schools.
67
217833
2185
03:40
They're tracked by online records
68
220042
1601
De spåras av uppgifter online och onlineportaler hos doktorn.
03:41
and online portals at their doctor's office.
69
221667
3017
03:44
They're tracked by their internet-connected toys,
70
224708
2351
De spåras av sina internetanslutna leksaker, onlinespel
03:47
their online games
71
227083
1310
03:48
and many, many, many, many other technologies.
72
228417
2666
och många, många, många, många andra tekniker.
03:52
So during my research,
73
232250
1643
Så under min forskning
03:53
a lot of parents came up to me and they were like, "So what?
74
233917
4142
kom många föräldrar fram till mig och sa:"Så vadå?
03:58
Why does it matter if my children are being tracked?
75
238083
2917
Varför spelar det roll att mina barn blir spårade?
04:02
We've got nothing to hide."
76
242042
1333
Vi har inget att dölja."
04:04
Well, it matters.
77
244958
1500
Det spelar roll.
04:07
It matters because today individuals are not only being tracked,
78
247083
6018
Det spelar roll för att dagens individer inte bara blir spårade,
04:13
they're also being profiled on the basis of their data traces.
79
253125
4101
de blir även profilerade på grundval av sina dataspår.
04:17
Artificial intelligence and predictive analytics are being used
80
257250
3809
Artificiell intelligens och förutsägbar analys används
04:21
to harness as much data as possible of an individual life
81
261083
3643
för att samla in så mycket data som möjligt om ett individuellt liv
04:24
from different sources:
82
264750
1851
från olika källor:
04:26
family history, purchasing habits, social media comments.
83
266625
4518
familjehistoria, köpvanor, kommentarer på sociala medier.
04:31
And then they bring this data together
84
271167
1851
Och sedan samlar de all denna data
04:33
to make data-driven decisions about the individual.
85
273042
2750
för att skapa datadrivna beslut om individen.
04:36
And these technologies are used everywhere.
86
276792
3434
Och dessa tekniker används överallt.
04:40
Banks use them to decide loans.
87
280250
2393
Banker använder dem för att besluta om lån.
04:42
Insurance uses them to decide premiums.
88
282667
2375
Försäkringar använder dem för att besluta om premier.
04:46
Recruiters and employers use them
89
286208
2476
Rekryterare och arbetsgivare använder dem
04:48
to decide whether one is a good fit for a job or not.
90
288708
2917
för att besluta om någon är passande för ett jobb eller inte.
04:52
Also the police and courts use them
91
292750
3101
Även polisen och rätten använder dem
04:55
to determine whether one is a potential criminal
92
295875
3518
för att bestämma om någon är en potentiell kriminell
04:59
or is likely to recommit a crime.
93
299417
2625
eller är sannolik att begå ett brott igen.
05:04
We have no knowledge or control
94
304458
4060
Vi har ingen kunskap eller kontroll
05:08
over the ways in which those who buy, sell and process our data
95
308542
3642
över de sätt som de som köper, säljer och bearbetar våran data
05:12
are profiling us and our children.
96
312208
2709
profilerar oss och våra barn.
05:15
But these profiles can come to impact our rights in significant ways.
97
315625
4042
Men dessa profiler kan komma att påverka våra rättigheter på betydelsefulla sätt.
05:20
To give you an example,
98
320917
2208
För att ge ett exempel,
05:25
in 2018 the "New York Times" published the news
99
325792
4059
2018 publicerade "New York Times" nyheten att datan som samlats in
05:29
that the data that had been gathered
100
329875
1976
05:31
through online college-planning services --
101
331875
3059
genom online högskoleplanerande tjänster -
05:34
that are actually completed by millions of high school kids across the US
102
334958
4726
som faktiskt används av miljoner skolbarn över USA
05:39
who are looking for a college program or a scholarship --
103
339708
3643
som letar efter ett högskoleprogram eller ett stipendium -
05:43
had been sold to educational data brokers.
104
343375
3042
hade sålts ut till utbildningsmäklare.
05:47
Now, researchers at Fordham who studied educational data brokers
105
347792
5434
Forskare på Fordham som studerade utbildningsmäklare har nu
05:53
revealed that these companies profiled kids as young as two
106
353250
5226
avslöjat att dessa företag profilerar barn så unga som 2 år
05:58
on the basis of different categories:
107
358500
3059
utifrån olika kategorier:
06:01
ethnicity, religion, affluence,
108
361583
4185
etnicitet, religion, välstånd, sociala besvärligheter
06:05
social awkwardness
109
365792
2059
06:07
and many other random categories.
110
367875
2934
och många andra slumpmässiga kategorier.
06:10
And then they sell these profiles together with the name of the kid,
111
370833
5018
Och sedan säljer de dessa profiler tillsammans med barnets namn,
06:15
their home address and the contact details
112
375875
2809
deras hemadress och kontaktuppgifter till olika företag
06:18
to different companies,
113
378708
1851
06:20
including trade and career institutions,
114
380583
2459
inklusive handels- och karriärinstitutioner,
06:24
student loans
115
384083
1268
studentlån och kreditkortsföretag för studenter.
06:25
and student credit card companies.
116
385375
1750
06:28
To push the boundaries,
117
388542
1351
För att skjuta på gränserna
06:29
the researchers at Fordham asked an educational data broker
118
389917
3809
bad forskarna på Fordham en utbildningsmäklare
06:33
to provide them with a list of 14-to-15-year-old girls
119
393750
5809
att förse dem med en lista på 14- till 15-åriga flickor
06:39
who were interested in family planning services.
120
399583
3375
som var intresserade av familjeplanerande tjänster.
06:44
The data broker agreed to provide them the list.
121
404208
2476
Datamäklaren gick med på att förse dem med listan.
06:46
So imagine how intimate and how intrusive that is for our kids.
122
406708
4875
Så tänk hur intimt och påträngande det är för våra barn.
06:52
But educational data brokers are really just an example.
123
412833
3976
Men utbildningsmäklare är bara ett exempel.
06:56
The truth is that our children are being profiled in ways that we cannot control
124
416833
4685
Sanningen är att våra barn blir profilerade
på sätt vi inte kan kontrollera
07:01
but that can significantly impact their chances in life.
125
421542
3416
men det kan avsevärt påverka deras chanser i livet.
07:06
So we need to ask ourselves:
126
426167
3476
Så vi måste fråga oss själva:
07:09
can we trust these technologies when it comes to profiling our children?
127
429667
4684
Kan vi lita på dessa tekniker när det kommer till att profilera våra barn?
07:14
Can we?
128
434375
1250
Kan vi?
07:17
My answer is no.
129
437708
1250
Mitt svar är nej.
07:19
As an anthropologist,
130
439792
1267
Som antropolog
tror jag att artificiell intelligens och förutsägbar analys kan vara bra
07:21
I believe that artificial intelligence and predictive analytics can be great
131
441083
3768
07:24
to predict the course of a disease
132
444875
2018
för att förutsäga sjukdomförlopp eller bekämpa klimatförändringar.
07:26
or to fight climate change.
133
446917
1833
07:30
But we need to abandon the belief
134
450000
1643
Men vi måste överge tron
07:31
that these technologies can objectively profile humans
135
451667
3684
att dessa tekniker objektivt kan profilera människor
07:35
and that we can rely on them to make data-driven decisions
136
455375
3184
och att vi kan förlita oss på dem att ta datadrivna beslut
07:38
about individual lives.
137
458583
1893
om individuella liv.
07:40
Because they can't profile humans.
138
460500
2559
För de kan inte profilera människor.
07:43
Data traces are not the mirror of who we are.
139
463083
3351
Dataspår speglar inte vem vi är.
07:46
Humans think one thing and say the opposite,
140
466458
2101
Människor tänker en sak och säger motsatsen,
07:48
feel one way and act differently.
141
468583
2435
känner på ett sätt och beter oss annorlunda.
07:51
Algorithmic predictions or our digital practices
142
471042
2476
Algoritmiska förutsägelser eller våra digitala metoder
07:53
cannot account for the unpredictability and complexity of human experience.
143
473542
5166
kan inte redogöra för oförutsägbarheten och komplexiteten i mänsklig erfarenhet.
08:00
But on top of that,
144
480417
1559
Och dessutom är dessa tekniker alltid -
08:02
these technologies are always --
145
482000
2684
08:04
always --
146
484708
1268
alltid på ett eller annat sätt partiska.
08:06
in one way or another, biased.
147
486000
1917
08:09
You see, algorithms are by definition sets of rules or steps
148
489125
5059
Algoritmer är per definition uppsättningar av regler eller steg
08:14
that have been designed to achieve a specific result, OK?
149
494208
3709
som har blivit designade att uppnå ett specifikt resultat, OK?
08:18
But these sets of rules or steps cannot be objective,
150
498833
2726
Men dessa regler och steg kan inte vara objektiva
08:21
because they've been designed by human beings
151
501583
2143
för de har designats av människor i ett specifikt kulturellt sammanhang
08:23
within a specific cultural context
152
503750
1726
08:25
and are shaped by specific cultural values.
153
505500
2500
och är formade av specifika kulturella värderingar.
08:28
So when machines learn,
154
508667
1726
Så när en maskin lär sig, lär den sig utifrån partiska algoritmer
08:30
they learn from biased algorithms,
155
510417
2250
08:33
and they often learn from biased databases as well.
156
513625
3208
och de lär sig även ofta från partiska databaser.
08:37
At the moment, we're seeing the first examples of algorithmic bias.
157
517833
3726
Just nu ser vi de första exemplen på algoritmisk partiskhet.
08:41
And some of these examples are frankly terrifying.
158
521583
3500
Och vissa av dessa exempel är uppriktigt skrämmande.
08:46
This year, the AI Now Institute in New York published a report
159
526500
4059
I år publicerade "Al Now Institute" i New York en rapport
08:50
that revealed that the AI technologies
160
530583
2393
som avslöjade att Al-tekniker som används för prediktivt polisarbete
08:53
that are being used for predictive policing
161
533000
3476
08:56
have been trained on "dirty" data.
162
536500
3125
har tränats på "problematisk" data.
09:00
This is basically data that had been gathered
163
540333
2893
Detta är helt enkelt data som har samlats
09:03
during historical periods of known racial bias
164
543250
4184
under historiska perioder av känd raspartiskhet
09:07
and nontransparent police practices.
165
547458
2250
och icke-transparent polisarbete.
09:10
Because these technologies are being trained with dirty data,
166
550542
4059
Eftersom dessa tekniker tränas med "problematisk" data
09:14
they're not objective,
167
554625
1434
är de inte objektiva, och deras resultat förstärker bara
09:16
and their outcomes are only amplifying and perpetrating
168
556083
4518
09:20
police bias and error.
169
560625
1625
polispartiskhet och fel.
09:25
So I think we are faced with a fundamental problem
170
565167
3142
Så jag tror att vi står inför ett grundläggande problem
09:28
in our society.
171
568333
1643
i vårt samhälle.
09:30
We are starting to trust technologies when it comes to profiling human beings.
172
570000
4792
Vi börjar att lita på teknik när det kommer till att profilera människor.
09:35
We know that in profiling humans,
173
575750
2518
Vi vet att när man profilerar människor
09:38
these technologies are always going to be biased
174
578292
2809
så kommer teknik alltid att vara partisk
09:41
and are never really going to be accurate.
175
581125
2726
och kommer aldrig att vara riktigt exakt.
09:43
So what we need now is actually political solution.
176
583875
2934
Så vad vi behöver nu är faktiskt en politisk lösning.
09:46
We need governments to recognize that our data rights are our human rights.
177
586833
4709
Vi behöver få regeringar att erkänna att vår data är våra mänskliga rättigheter.
09:52
(Applause and cheers)
178
592292
4083
(Applåder och jubel)
09:59
Until this happens, we cannot hope for a more just future.
179
599833
4084
Tills detta händer kan vi inte hoppas på en mer rättvis framtid.
10:04
I worry that my daughters are going to be exposed
180
604750
2726
Jag oroar mig över att mina döttrar kommer att bli utsatta
10:07
to all sorts of algorithmic discrimination and error.
181
607500
3726
för alla möjliga sorter av algoritmisk diskriminering och fel.
10:11
You see the difference between me and my daughters
182
611250
2393
Skillnaden mellan mig och mina döttrar
10:13
is that there's no public record out there of my childhood.
183
613667
3184
är att det inte finns något offentligt register av min barndom.
10:16
There's certainly no database of all the stupid things that I've done
184
616875
4018
Det finns absolut inte någon databas med alla dumma saker jag har gjort
10:20
and thought when I was a teenager.
185
620917
2142
och tänkt när jag var tonåring.
10:23
(Laughter)
186
623083
1500
(Skratt)
10:25
But for my daughters this may be different.
187
625833
2750
Men för mina döttrar kan detta vara annorlunda.
10:29
The data that is being collected from them today
188
629292
3184
Den data som samlas från dem idag
10:32
may be used to judge them in the future
189
632500
3809
kan komma att användas för att döma dem i framtiden
10:36
and can come to prevent their hopes and dreams.
190
636333
2959
och kan komma att hindra deras hopp och drömmar.
10:40
I think that's it's time.
191
640583
1518
Jag tycker att det är dags. Det är dags att vi kliver fram.
10:42
It's time that we all step up.
192
642125
1434
10:43
It's time that we start working together
193
643583
2476
Det är dags att börja jobba tillsammans
10:46
as individuals,
194
646083
1435
som individer, som organisationer och som institut
10:47
as organizations and as institutions,
195
647542
2517
10:50
and that we demand greater data justice for us
196
650083
3101
och kräva mer datarättvisa för oss och för våra barn innan det är för sent.
10:53
and for our children
197
653208
1393
10:54
before it's too late.
198
654625
1518
10:56
Thank you.
199
656167
1267
Tack så mycket.
10:57
(Applause)
200
657458
1417
(Applåder)
Om denna webbplats

På den här webbplatsen hittar du YouTube-videor som är användbara för att lära sig engelska. Du kommer att få se engelska lektioner som ges av förstklassiga lärare från hela världen. Dubbelklicka på de engelska undertexterna som visas på varje videosida för att spela upp videon därifrån. Undertexterna rullar i takt med videouppspelningen. Om du har några kommentarer eller önskemål kan du kontakta oss via detta kontaktformulär.

https://forms.gle/WvT1wiN1qDtmnspy7