What tech companies know about your kids | Veronica Barassi

84,880 views ・ 2020-07-03

TED


A videó lejátszásához kattintson duplán az alábbi angol feliratokra.

00:00
Transcriber: Leslie Gauthier Reviewer: Joanna Pietrulewicz
0
0
7000
Fordító: Zsofia Gocze Lektor: Péter Pallós
00:12
Every day, every week,
1
12792
2267
Minden nap és minden héten
szerződési feltételekhez és kikötésekhez járulunk hozzá.
00:15
we agree to terms and conditions.
2
15083
2185
00:17
And when we do this,
3
17292
1476
Ekkor
00:18
we provide companies with the lawful right
4
18792
2476
jogilag felhatalmazunk cégeket,
00:21
to do whatever they want with our data
5
21292
3684
hogy adatainkkal, így gyermekeink adataival is,
00:25
and with the data of our children.
6
25000
2375
tetszésük szerint bánjanak.
00:28
Which makes us wonder:
7
28792
2976
Ami elgondolkoztathat minket:
00:31
how much data are we giving away of children,
8
31792
2892
mekkora adatmennyiséget adunk ki gyermekeinkről,
00:34
and what are its implications?
9
34708
2000
és mik ennek a következményei?
00:38
I'm an anthropologist,
10
38500
1393
Antropológus vagyok,
00:39
and I'm also the mother of two little girls.
11
39917
2601
és egyúttal két kislány édesanyja.
00:42
And I started to become interested in this question in 2015
12
42542
4476
2015-ben kezdett el foglalkoztatni ez a kérdés,
00:47
when I suddenly realized that there were vast --
13
47042
2726
amikor hirtelen feleszméltem,
hogy széles körű, csaknem elképzelhetetlen mennyiségű adatnyom
00:49
almost unimaginable amounts of data traces
14
49792
3017
00:52
that are being produced and collected about children.
15
52833
3167
gyűlik össze és érhető el gyermekeinkről.
00:56
So I launched a research project,
16
56792
1976
Ezért kutatómunkát indítottam
00:58
which is called Child Data Citizen,
17
58792
2476
Child Data Citizen elnevezéssel,
01:01
and I aimed at filling in the blank.
18
61292
2125
és a homályos foltok felfedését tűztem ki célul.
01:04
Now you may think that I'm here to blame you
19
64583
3018
Talán arra gondolhatnak, önöket hibáztatom,
01:07
for posting photos of your children on social media,
20
67625
2768
mert gyermekeikről képeket posztolnak a közösségi médiában,
01:10
but that's not really the point.
21
70417
2142
de nem ez a lényeg.
01:12
The problem is way bigger than so-called "sharenting."
22
72583
3417
A baj annál sokkal nagyobb, mint az ún. “szülői megosztás”.
01:16
This is about systems, not individuals.
23
76792
4101
A rendszerekkel van baj, nem az egyéni szokásokkal.
01:20
You and your habits are not to blame.
24
80917
2291
Szokásaink nem hibáztathatók.
01:24
For the very first time in history,
25
84833
2851
Először a történelemben,
01:27
we are tracking the individual data of children
26
87708
2560
gyermekeink egyedi adatait
01:30
from long before they're born --
27
90292
1767
még jóval születésük előtt rögzítjük;
01:32
sometimes from the moment of conception,
28
92083
2685
gyakran már fogantatásuk pillanatától,
01:34
and then throughout their lives.
29
94792
2351
majd később egész életük során.
01:37
You see, when parents decide to conceive,
30
97167
3101
Amikor szülők gyermekvállalás mellett döntenek,
01:40
they go online to look for "ways to get pregnant,"
31
100292
2976
interneten rá szoktak keresni a “hogyan eshetek teherbe” témára,
01:43
or they download ovulation-tracking apps.
32
103292
2750
vagy letöltenek egy ovulációs alkalmazást.
01:47
When they do get pregnant,
33
107250
2601
Amikor várandósak,
01:49
they post ultrasounds of their babies on social media,
34
109875
3143
babáikról a közösségi médiában posztolnak ultrahangképeket,
01:53
they download pregnancy apps
35
113042
2017
terhességi alkalmazásokat töltenek le
01:55
or they consult Dr. Google for all sorts of things,
36
115083
3726
vagy dr. Google tanácsát kérik ki mindenféle ügyben,
01:58
like, you know --
37
118833
1518
olyan dolgokban, mint:
02:00
for "miscarriage risk when flying"
38
120375
2559
“vetélés kockázata repüléskor”,
02:02
or "abdominal cramps in early pregnancy."
39
122958
2768
“hasi görcsök a várandósság korai szakaszában“.
02:05
I know because I've done it --
40
125750
1809
Tudom, mert én is csináltam,
02:07
and many times.
41
127583
1625
sokszor.
02:10
And then, when the baby is born, they track every nap,
42
130458
2810
Amikor megszületik a baba, rögzítenek minden alvást,
02:13
every feed,
43
133292
1267
minden etetést,
02:14
every life event on different technologies.
44
134583
2584
minden eseményt különféle technológiákkal.
02:18
And all of these technologies
45
138083
1476
Minden ilyen technológia
02:19
transform the baby's most intimate behavioral and health data into profit
46
139583
6143
a baba legintimebb viselkedési és egészségügyi adatát profittá alakítja
02:25
by sharing it with others.
47
145750
1792
a megosztásuk révén.
02:28
So to give you an idea of how this works,
48
148583
2143
Hogy szemléletessé váljon, hogy is működik ez,
02:30
in 2019, the British Medical Journal published research that showed
49
150750
5184
2019-ben a British Medical Journalben megjelent kutatás feltárta,
02:35
that out of 24 mobile health apps,
50
155958
3643
hogy 24 egészségügyi mobilalkalmazás közül
02:39
19 shared information with third parties.
51
159625
3458
19 harmadik féllel is megosztott információkat.
02:44
And these third parties shared information with 216 other organizations.
52
164083
5834
Majd ezek további 216 másik szervezettel osztották meg az információkat.
02:50
Of these 216 other fourth parties,
53
170875
3434
A 216 további fél közül
02:54
only three belonged to the health sector.
54
174333
3143
csak három tartozott egészségügyi ágazatba.
02:57
The other companies that had access to that data were big tech companies
55
177500
4518
A többi cég, amelynek hozzáférése volt az adatokhoz, nagy techcégek voltak,
03:02
like Google, Facebook or Oracle,
56
182042
3517
mint a Google, Facebook vagy az Oracle,
03:05
they were digital advertising companies
57
185583
2601
de voltak digitálisreklám-ügynökségek
03:08
and there was also a consumer credit reporting agency.
58
188208
4125
és fogyasztói hitelelemző cégek is.
03:13
So you get it right:
59
193125
1434
Értik már, ugye?
03:14
ad companies and credit agencies may already have data points on little babies.
60
194583
5125
Reklámcégeknek és hitelügynökségeknek már csecsemőkről is lehetnek adataik.
03:21
But mobile apps, web searches and social media
61
201125
2768
De a mobilalkalmazások, webes keresések és a közösségi média
03:23
are really just the tip of the iceberg,
62
203917
3101
épp csak a jéghegy csúcsa,
03:27
because children are being tracked by multiple technologies
63
207042
2851
mert a gyerekeket számos technológia követi nyomon
03:29
in their everyday lives.
64
209917
1726
mindennapi életük során.
03:31
They're tracked by home technologies and virtual assistants in their homes.
65
211667
4142
Nyomon követik őket az okosotthonok technológiái és a virtuális asszisztensek.
03:35
They're tracked by educational platforms
66
215833
1976
Nyomon követik őket az oktatási felületek
03:37
and educational technologies in their schools.
67
217833
2185
és az iskolák oktatási technológiái.
03:40
They're tracked by online records
68
220042
1601
Nyomon követik őket online
03:41
and online portals at their doctor's office.
69
221667
3017
orvosi adatokon és portálokon keresztül.
03:44
They're tracked by their internet-connected toys,
70
224708
2351
Nyomon követik az internethez kapcsolt játékaikon,
03:47
their online games
71
227083
1310
az online játékokon
03:48
and many, many, many, many other technologies.
72
228417
2666
és még rengeteg más technológián keresztül is.
03:52
So during my research,
73
232250
1643
A kutatásom során
03:53
a lot of parents came up to me and they were like, "So what?
74
233917
4142
sok szülő ezzel jött oda hozzám: “Na és?
03:58
Why does it matter if my children are being tracked?
75
238083
2917
Mit számít, ha lekövetik a gyerekeimet?
04:02
We've got nothing to hide."
76
242042
1333
Nincs semmi takargatnivalónk.”
04:04
Well, it matters.
77
244958
1500
Hát számít!
04:07
It matters because today individuals are not only being tracked,
78
247083
6018
Számít, mert ma az egyes embereket nemcsak lekövetik,
04:13
they're also being profiled on the basis of their data traces.
79
253125
4101
de profilokat is alkotnak az adatnyomaik alapján.
04:17
Artificial intelligence and predictive analytics are being used
80
257250
3809
Mesterséges intelligenciát és prediktív elemzést alkalmaznak,
04:21
to harness as much data as possible of an individual life
81
261083
3643
hogy a lehető legtöbb adatot szerezzék be egyesek magánéletéről
04:24
from different sources:
82
264750
1851
különböző forrásokból:
04:26
family history, purchasing habits, social media comments.
83
266625
4518
családi háttér, vásárlási szokások, közösségimédia-kommentek.
04:31
And then they bring this data together
84
271167
1851
Majd ezeket az adatokat összegyűjtve
04:33
to make data-driven decisions about the individual.
85
273042
2750
adatvezérelt döntéseket hoznak az egyes emberekkel kapcsolatban.
04:36
And these technologies are used everywhere.
86
276792
3434
E technológiákat mindenütt használják.
04:40
Banks use them to decide loans.
87
280250
2393
Bankok hitelek elbírálására,
04:42
Insurance uses them to decide premiums.
88
282667
2375
biztosítók díjak meghatározására,
04:46
Recruiters and employers use them
89
286208
2476
toborzók és munkáltatók használják,
04:48
to decide whether one is a good fit for a job or not.
90
288708
2917
hogy eldöntsék, valaki megfelel-e az adott munkára vagy sem.
04:52
Also the police and courts use them
91
292750
3101
A rendőrség és a bíróság is használja,
04:55
to determine whether one is a potential criminal
92
295875
3518
hogy meghatározzák, valaki potenciális bűnöző-e,
04:59
or is likely to recommit a crime.
93
299417
2625
vagy mekkora esélye van, hogy újból bűntettet követ el.
05:04
We have no knowledge or control
94
304458
4060
Nem ismerjük az eljárásokat, és befolyásunk sincs azok módszereire,
05:08
over the ways in which those who buy, sell and process our data
95
308542
3642
akik adatainkat adják-veszik és feldolgozzák,
05:12
are profiling us and our children.
96
312208
2709
hogyan profiloznak minket és gyermekeinket.
05:15
But these profiles can come to impact our rights in significant ways.
97
315625
4042
Pedig ezek a profilok jelentős hatással lehetnek jogainkra.
05:20
To give you an example,
98
320917
2208
Egy példát említve,
05:25
in 2018 the "New York Times" published the news
99
325792
4059
2018-ban a The New York Timesban megjelent a hír,
05:29
that the data that had been gathered
100
329875
1976
hogy főiskolai tervező szolgáltatások
05:31
through online college-planning services --
101
331875
3059
adatbrókereknek adták el az adatokat,
05:34
that are actually completed by millions of high school kids across the US
102
334958
4726
amelyeket Amerika-szerte több millió középiskolás szokott megadni,
05:39
who are looking for a college program or a scholarship --
103
339708
3643
főiskolai programok
05:43
had been sold to educational data brokers.
104
343375
3042
vagy ösztöndíjak iránt érdeklődve.
05:47
Now, researchers at Fordham who studied educational data brokers
105
347792
5434
Az oktatási adatbrókereket tanulmányozó Fordham kutatói felfedték,
05:53
revealed that these companies profiled kids as young as two
106
353250
5226
hogy ezek a cégek már kétéves gyerekeket is profiloztak
05:58
on the basis of different categories:
107
358500
3059
különböző kategóriák,
06:01
ethnicity, religion, affluence,
108
361583
4185
pl. etnikum, vallás, jómód,
06:05
social awkwardness
109
365792
2059
szociális ügyetlenség
06:07
and many other random categories.
110
367875
2934
és még sok más véletlenszerű kategória alapján.
06:10
And then they sell these profiles together with the name of the kid,
111
370833
5018
Aztán e profilokat el is adják
06:15
their home address and the contact details
112
375875
2809
a gyerek nevével, lakcímével és elérhetőségi adataival együtt
06:18
to different companies,
113
378708
1851
különféle cégeknek,
06:20
including trade and career institutions,
114
380583
2459
többek között kereskedelmi- és karrierintézeteknek,
06:24
student loans
115
384083
1268
diákhitel-
06:25
and student credit card companies.
116
385375
1750
és diákhitelkártya-cégeknek is.
06:28
To push the boundaries,
117
388542
1351
Tovább feszítve a határokat,
06:29
the researchers at Fordham asked an educational data broker
118
389917
3809
a Fordham kutatói felkértek egy oktatási adatbrókert,
06:33
to provide them with a list of 14-to-15-year-old girls
119
393750
5809
hogy adjon listát 14–15 éves lányokról,
06:39
who were interested in family planning services.
120
399583
3375
akik családtervezési szolgáltatások iránt érdeklődnek.
06:44
The data broker agreed to provide them the list.
121
404208
2476
Az adatbróker vállalta a lista átadását.
06:46
So imagine how intimate and how intrusive that is for our kids.
122
406708
4875
Képzeljék csak el, mennyire intim és tolakodó ez a gyermekeink számára.
06:52
But educational data brokers are really just an example.
123
412833
3976
De az oktatási adatbrókerek példája valójában csak egy a sok közül.
06:56
The truth is that our children are being profiled in ways that we cannot control
124
416833
4685
Az igazság az, hogy gyermekeinket ellenőrizhetetlen módon profilozzák,
07:01
but that can significantly impact their chances in life.
125
421542
3416
profiljaik mégis jelentős mértékben befolyásolhatják lehetőségeiket.
07:06
So we need to ask ourselves:
126
426167
3476
Így hát fel kell tegyük a kérdést:
07:09
can we trust these technologies when it comes to profiling our children?
127
429667
4684
megbízhatunk ezekben a technológiákban gyermekeink profilozását illetően?
07:14
Can we?
128
434375
1250
Bízhatunk bennük?
07:17
My answer is no.
129
437708
1250
Az én válaszom: nem.
07:19
As an anthropologist,
130
439792
1267
Antropológusként hiszem,
07:21
I believe that artificial intelligence and predictive analytics can be great
131
441083
3768
hogy a mesterséges intelligencia és a prediktív elemzés remek lehet
07:24
to predict the course of a disease
132
444875
2018
megbetegedések lefolyásának előrejelzésére
07:26
or to fight climate change.
133
446917
1833
vagy a klímaváltozás elleni harcban.
07:30
But we need to abandon the belief
134
450000
1643
De fel kell hagynunk a hiedelemmel,
07:31
that these technologies can objectively profile humans
135
451667
3684
hogy ezek a technológiák objektíven tudnak emberi profilokat alkotni,
07:35
and that we can rely on them to make data-driven decisions
136
455375
3184
hogy megbízhatók az adatvezérelt döntések meghozatalában
07:38
about individual lives.
137
458583
1893
adott emberek életére vonatkozóan.
07:40
Because they can't profile humans.
138
460500
2559
Mert nem tudnak embereket profilozni.
07:43
Data traces are not the mirror of who we are.
139
463083
3351
Az adatnyomok nem tükrözik azt, akik vagyunk.
07:46
Humans think one thing and say the opposite,
140
466458
2101
Az emberek az ellenkezőjét gondolják, mint amit állítanak,
07:48
feel one way and act differently.
141
468583
2435
mást éreznek és más szerint cselekednek.
07:51
Algorithmic predictions or our digital practices
142
471042
2476
Algoritmusos előrejelzések és digitális szokásaink
07:53
cannot account for the unpredictability and complexity of human experience.
143
473542
5166
nem fedhetik le az emberi tapasztalás megjósolhatatlanságát és komplexitását.
08:00
But on top of that,
144
480417
1559
Ráadásul
08:02
these technologies are always --
145
482000
2684
ezek a technológiák mindig,
08:04
always --
146
484708
1268
mindig,
08:06
in one way or another, biased.
147
486000
1917
egyik vagy másik irányban részrehajlók.
08:09
You see, algorithms are by definition sets of rules or steps
148
489125
5059
Az algoritmusok definíció szerint szabályok és lépések összessége,
08:14
that have been designed to achieve a specific result, OK?
149
494208
3709
melyeket azért alkotnak, hogy adott eredményre jussanak.
08:18
But these sets of rules or steps cannot be objective,
150
498833
2726
De ezek a szabályok és lépések nem lehetnek objektívek,
08:21
because they've been designed by human beings
151
501583
2143
mert ezeket emberek alkották
08:23
within a specific cultural context
152
503750
1726
meghatározott kulturális kontextusban,
08:25
and are shaped by specific cultural values.
153
505500
2500
s adott kulturális értékek alakítják őket.
08:28
So when machines learn,
154
508667
1726
Amikor gépek tanulnak,
08:30
they learn from biased algorithms,
155
510417
2250
részrehajló algoritmusok alapján tanulnak,
08:33
and they often learn from biased databases as well.
156
513625
3208
és gyakran részrehajló adatbázisokból is tanulnak.
08:37
At the moment, we're seeing the first examples of algorithmic bias.
157
517833
3726
Ma már látni az algoritmikus részrehajlás első példáit.
08:41
And some of these examples are frankly terrifying.
158
521583
3500
Néhány ezek közül elég rémisztő.
08:46
This year, the AI Now Institute in New York published a report
159
526500
4059
A New York-i AI Now Kutatóintézet idén kiadott jelentése feltárta,
08:50
that revealed that the AI technologies
160
530583
2393
hogy az AI-technológiákat,
08:53
that are being used for predictive policing
161
533000
3476
melyeket a prediktív rendfenntartásban alkalmaznak,
08:56
have been trained on "dirty" data.
162
536500
3125
“piszkos” adatok alapján képezték.
09:00
This is basically data that had been gathered
163
540333
2893
Ezeket az adatokat
09:03
during historical periods of known racial bias
164
543250
4184
köztudottan részrehajló és nem átlátható
09:07
and nontransparent police practices.
165
547458
2250
rendőri gyakorlattal jellemezhető korszakokban gyűjtöttek.
09:10
Because these technologies are being trained with dirty data,
166
550542
4059
Mivel ezeket a technológiákat piszkos adatok alapján tanítják,
09:14
they're not objective,
167
554625
1434
nem objektívek,
09:16
and their outcomes are only amplifying and perpetrating
168
556083
4518
így az eredményeik felerősítik és megvalósítják
09:20
police bias and error.
169
560625
1625
a rendőri részrehajlást és hibákat.
09:25
So I think we are faced with a fundamental problem
170
565167
3142
Alapvető problémával állunk szemben
09:28
in our society.
171
568333
1643
társadalmunkban.
09:30
We are starting to trust technologies when it comes to profiling human beings.
172
570000
4792
Ami az emberek profilozását illeti, kezdünk technológiákban bízni.
09:35
We know that in profiling humans,
173
575750
2518
Tudjuk, hogy az emberek profilozásakor
09:38
these technologies are always going to be biased
174
578292
2809
ezek a technológiák mindig részrehajlók lesznek,
09:41
and are never really going to be accurate.
175
581125
2726
és sosem lesznek igazán pontosak.
09:43
So what we need now is actually political solution.
176
583875
2934
Ezért politikai megoldásra van szükség.
09:46
We need governments to recognize that our data rights are our human rights.
177
586833
4709
A kormányoknak el kell ismerniük: adatainkhoz való jogunk emberi jog.
09:52
(Applause and cheers)
178
592292
4083
(Taps és ujjongás)
09:59
Until this happens, we cannot hope for a more just future.
179
599833
4084
Amíg ez nem történik meg, nem remélhetünk igazságosabb jövőt.
10:04
I worry that my daughters are going to be exposed
180
604750
2726
Aggódom, hogy a lányaim
10:07
to all sorts of algorithmic discrimination and error.
181
607500
3726
mindenféle algoritmikus diszkriminációnak és hibának lesznek kitéve.
10:11
You see the difference between me and my daughters
182
611250
2393
A különbség köztem és a lányaim között,
10:13
is that there's no public record out there of my childhood.
183
613667
3184
hogy az én gyerekkoromról nincsen elérhető adat.
10:16
There's certainly no database of all the stupid things that I've done
184
616875
4018
Nincs adatbázis a sok hülyeségről,
10:20
and thought when I was a teenager.
185
620917
2142
melyet még tinédzserként elkövettem vagy gondoltam.
10:23
(Laughter)
186
623083
1500
(Nevetés)
10:25
But for my daughters this may be different.
187
625833
2750
De a lányaim esetében ez már más.
10:29
The data that is being collected from them today
188
629292
3184
A róluk ma gyűjtött adatot lehet,
10:32
may be used to judge them in the future
189
632500
3809
hogy a jövőben a megítélésükre használják,
10:36
and can come to prevent their hopes and dreams.
190
636333
2959
és reményeik s álmaik útjába is állhatnak.
10:40
I think that's it's time.
191
640583
1518
Úgy hiszem, itt az alkalom.
10:42
It's time that we all step up.
192
642125
1434
Az alkalom, hogy fellépjünk.
10:43
It's time that we start working together
193
643583
2476
Az alkalom, hogy elkezdjük együttműködni
10:46
as individuals,
194
646083
1435
mint egyének,
10:47
as organizations and as institutions,
195
647542
2517
mint szervezetek és intézmények,
10:50
and that we demand greater data justice for us
196
650083
3101
hogy szélesebb körű adatigazságosságot követeljünk
saját magunk és gyermekeink számára is,
10:53
and for our children
197
653208
1393
10:54
before it's too late.
198
654625
1518
még mielőtt nem túl késő.
10:56
Thank you.
199
656167
1267
Köszönöm.
10:57
(Applause)
200
657458
1417
(Taps)
Erről a weboldalról

Ez az oldal olyan YouTube-videókat mutat be, amelyek hasznosak az angol nyelvtanuláshoz. A világ minden tájáról származó, kiváló tanárok által tartott angol leckéket láthatsz. Az egyes videók oldalán megjelenő angol feliratokra duplán kattintva onnan játszhatja le a videót. A feliratok a videó lejátszásával szinkronban gördülnek. Ha bármilyen észrevétele vagy kérése van, kérjük, lépjen kapcsolatba velünk ezen a kapcsolatfelvételi űrlapon.

https://forms.gle/WvT1wiN1qDtmnspy7