What tech companies know about your kids | Veronica Barassi

84,456 views ・ 2020-07-03

TED


Proszę kliknąć dwukrotnie na poniższe angielskie napisy, aby odtworzyć film.

00:00
Transcriber: Leslie Gauthier Reviewer: Joanna Pietrulewicz
0
0
7000
Tłumaczenie: Dariusz Szczuraszek Korekta: Barbara Guzik
00:12
Every day, every week,
1
12792
2267
Każdego dnia, każdego tygodnia,
00:15
we agree to terms and conditions.
2
15083
2185
akceptujemy różne warunki.
00:17
And when we do this,
3
17292
1476
Robiąc to,
00:18
we provide companies with the lawful right
4
18792
2476
udzielamy firmom prawa
00:21
to do whatever they want with our data
5
21292
3684
do dowolnego dysponowania naszymi danymi
oraz danymi naszych dzieci.
00:25
and with the data of our children.
6
25000
2375
00:28
Which makes us wonder:
7
28792
2976
Dlatego też zastanawiamy się,
00:31
how much data are we giving away of children,
8
31792
2892
jak wiele danych naszych dzieci oddajemy
00:34
and what are its implications?
9
34708
2000
i jakie są tego konsekwencje?
00:38
I'm an anthropologist,
10
38500
1393
Jestem antropologiem
00:39
and I'm also the mother of two little girls.
11
39917
2601
oraz matką dwóch małych dziewczynek.
00:42
And I started to become interested in this question in 2015
12
42542
4476
Zaczęłam się interesować tym problemem w roku 2015,
00:47
when I suddenly realized that there were vast --
13
47042
2726
kiedy to nagle uświadomiłam sobie, jak ogromna jest, prawie niewyobrażalna,
00:49
almost unimaginable amounts of data traces
14
49792
3017
ilość danych produkowanych i gromadzonych na temat dzieci.
00:52
that are being produced and collected about children.
15
52833
3167
00:56
So I launched a research project,
16
56792
1976
Dlatego zaczęłam projekt badawczy,
00:58
which is called Child Data Citizen,
17
58792
2476
który nazwałam Child Data Citizen,
01:01
and I aimed at filling in the blank.
18
61292
2125
żeby dowiedzieć się czegoś więcej.
01:04
Now you may think that I'm here to blame you
19
64583
3018
Możecie pomyśleć, że jestem tu, żeby was obwiniać
01:07
for posting photos of your children on social media,
20
67625
2768
za umieszczanie zdjęć swoich dzieci w mediach społecznościowych,
01:10
but that's not really the point.
21
70417
2142
ale nie o to chodzi.
01:12
The problem is way bigger than so-called "sharenting."
22
72583
3417
Problem jest o wiele większy niż "sharenting",
czyli udostępnianie treści przez rodziców.
01:16
This is about systems, not individuals.
23
76792
4101
Problem tkwi w systemie, nie w ludziach.
01:20
You and your habits are not to blame.
24
80917
2291
Wy i wasze nawyki nie jesteście temu winni.
01:24
For the very first time in history,
25
84833
2851
Pierwszy raz w historii
01:27
we are tracking the individual data of children
26
87708
2560
śledzimy dane osobowe dzieci
01:30
from long before they're born --
27
90292
1767
jeszcze przed ich narodzinami,
01:32
sometimes from the moment of conception,
28
92083
2685
czasem od momentu poczęcia,
01:34
and then throughout their lives.
29
94792
2351
a potem przez całe ich życie.
01:37
You see, when parents decide to conceive,
30
97167
3101
Kiedy rodzice decydują się na dziecko,
szukają w Internecie sposobów na zajście w ciążę
01:40
they go online to look for "ways to get pregnant,"
31
100292
2976
albo ściągają aplikacje do śledzenia owulacji.
01:43
or they download ovulation-tracking apps.
32
103292
2750
01:47
When they do get pregnant,
33
107250
2601
Kiedy w końcu udaje się zajść w ciążę,
01:49
they post ultrasounds of their babies on social media,
34
109875
3143
zamieszczają USG swoich dzieci w mediach społecznościowych,
01:53
they download pregnancy apps
35
113042
2017
ściągają aplikacje ciążowe
01:55
or they consult Dr. Google for all sorts of things,
36
115083
3726
albo konsultują się z doktorem Google na temat różnych rzeczy,
01:58
like, you know --
37
118833
1518
takich jak
02:00
for "miscarriage risk when flying"
38
120375
2559
ryzyko poronienia podczas lotu
02:02
or "abdominal cramps in early pregnancy."
39
122958
2768
albo skurcze brzucha na początku ciąży.
02:05
I know because I've done it --
40
125750
1809
Wiem to, bo przez to przeszłam.
02:07
and many times.
41
127583
1625
Wiele razy.
02:10
And then, when the baby is born, they track every nap,
42
130458
2810
A kiedy dziecko się narodzi,
monitorują każdą drzemkę, każde karmienie,
02:13
every feed,
43
133292
1267
02:14
every life event on different technologies.
44
134583
2584
każde wydarzenie, za pomocą różnych technologii.
02:18
And all of these technologies
45
138083
1476
Te wszystkie technologie
02:19
transform the baby's most intimate behavioral and health data into profit
46
139583
6143
zamieniają najbardziej prywatne dane o zachowaniu i zdrowiu dziecka w zysk
02:25
by sharing it with others.
47
145750
1792
poprzez udostępnianie ich innym.
02:28
So to give you an idea of how this works,
48
148583
2143
Podam przykład tego, jak to działa.
02:30
in 2019, the British Medical Journal published research that showed
49
150750
5184
W roku 2019 British Medical Journal opublikował badanie,
02:35
that out of 24 mobile health apps,
50
155958
3643
które pokazało, że spośród 24 mobilnych aplikacji zdrowotnych
02:39
19 shared information with third parties.
51
159625
3458
19 udostępniało informacje innym firmom.
Te z kolei udostępniały je 216 innym organizacjom.
02:44
And these third parties shared information with 216 other organizations.
52
164083
5834
02:50
Of these 216 other fourth parties,
53
170875
3434
Wśród tych 216 organizacji były tylko trzy
02:54
only three belonged to the health sector.
54
174333
3143
które należały do sektora opieki zdrowotnej.
02:57
The other companies that had access to that data were big tech companies
55
177500
4518
Pozostałe firmy, które miały dostęp do tych danych,
były dużymi firmami technologicznymi
takimi jak Google, Facebook czy Oracle.
03:02
like Google, Facebook or Oracle,
56
182042
3517
03:05
they were digital advertising companies
57
185583
2601
Były wśród nich także agencje reklamowe
oraz agencja sprawozdawczości kredytowej.
03:08
and there was also a consumer credit reporting agency.
58
188208
4125
03:13
So you get it right:
59
193125
1434
Właśnie tak.
03:14
ad companies and credit agencies may already have data points on little babies.
60
194583
5125
Agencje reklamowe i kredytowe
mogą być już w posiadaniu danych na temat małych dzieci.
03:21
But mobile apps, web searches and social media
61
201125
2768
Mobilne aplikacje, wyszukiwania w sieci oraz media społecznościowe
03:23
are really just the tip of the iceberg,
62
203917
3101
są tylko wierzchołkiem góry lodowej,
03:27
because children are being tracked by multiple technologies
63
207042
2851
ponieważ dzieci są śledzone przez różnorakie technologie
03:29
in their everyday lives.
64
209917
1726
w ich codziennym życiu.
03:31
They're tracked by home technologies and virtual assistants in their homes.
65
211667
4142
Są śledzone przez domowe urządzenia i asystentów wirtualnych w domach.
03:35
They're tracked by educational platforms
66
215833
1976
Są śledzone przez platformy i technologie edukacyjne w szkołach.
03:37
and educational technologies in their schools.
67
217833
2185
Są śledzone przez internetową dokumentację medyczną
03:40
They're tracked by online records
68
220042
1601
03:41
and online portals at their doctor's office.
69
221667
3017
i portale internetowe w gabinetach lekarskich.
03:44
They're tracked by their internet-connected toys,
70
224708
2351
Są śledzone przez zabawki połączone z Internetem,
03:47
their online games
71
227083
1310
gry internetowe
03:48
and many, many, many, many other technologies.
72
228417
2666
i wiele innych technologii.
03:52
So during my research,
73
232250
1643
Podczas moich badań
03:53
a lot of parents came up to me and they were like, "So what?
74
233917
4142
wielu rodziców pytało mnie: "I co z tego?
03:58
Why does it matter if my children are being tracked?
75
238083
2917
Czy to ważne, że moje dzieci są śledzone?
04:02
We've got nothing to hide."
76
242042
1333
Nie mamy nic do ukrycia".
04:04
Well, it matters.
77
244958
1500
Otóż to ma znaczenie.
To ma znaczenie, bo dzisiaj ludzie są nie tylko śledzeni,
04:07
It matters because today individuals are not only being tracked,
78
247083
6018
04:13
they're also being profiled on the basis of their data traces.
79
253125
4101
ale także profilowani na podstawie zebranych danych.
04:17
Artificial intelligence and predictive analytics are being used
80
257250
3809
Używa się sztucznej inteligencji i analizy prognostycznej,
żeby pozyskać jak największą ilość danych na temat życia danej osoby,
04:21
to harness as much data as possible of an individual life
81
261083
3643
04:24
from different sources:
82
264750
1851
opierając się o różne źródła:
04:26
family history, purchasing habits, social media comments.
83
266625
4518
historię rodziny, nawyki zakupowe,
komentarze w mediach społecznościowych.
04:31
And then they bring this data together
84
271167
1851
Następnie łączy się te dane w celu wykorzystania ich
04:33
to make data-driven decisions about the individual.
85
273042
2750
przy podejmowaniu decyzji dotyczących danej osoby.
04:36
And these technologies are used everywhere.
86
276792
3434
Te technologie są używane wszędzie.
04:40
Banks use them to decide loans.
87
280250
2393
Banki używają ich przy udzielaniu kredytów,
04:42
Insurance uses them to decide premiums.
88
282667
2375
ubezpieczyciele - przy kalkulacji zniżek,
04:46
Recruiters and employers use them
89
286208
2476
a rekruterzy i pracodawcy używają ich,
04:48
to decide whether one is a good fit for a job or not.
90
288708
2917
żeby sprawdzić, czy ktoś nadaje się do pracy.
04:52
Also the police and courts use them
91
292750
3101
Także policja i sądy ich używają
04:55
to determine whether one is a potential criminal
92
295875
3518
przy określaniu potencjalnych kryminalistów
04:59
or is likely to recommit a crime.
93
299417
2625
lub prawdopodobieństwa ponownego popełnienia zbrodni.
05:04
We have no knowledge or control
94
304458
4060
Nie mamy żadnej wiedzy i kontroli nad tym,
w jaki sposób ci, którzy kupują, sprzedają i przetwarzają nasze dane
05:08
over the ways in which those who buy, sell and process our data
95
308542
3642
05:12
are profiling us and our children.
96
312208
2709
profilują nas i nasze dzieci.
05:15
But these profiles can come to impact our rights in significant ways.
97
315625
4042
Jednak te profile mogą mieć znaczący wpływ na nasze prawa.
05:20
To give you an example,
98
320917
2208
Podam przykład.
05:25
in 2018 the "New York Times" published the news
99
325792
4059
W roku 2018 "New York Times" opublikował informacje,
05:29
that the data that had been gathered
100
329875
1976
że dane zebrane z internetowych formularzy planowania edukacji,
05:31
through online college-planning services --
101
331875
3059
05:34
that are actually completed by millions of high school kids across the US
102
334958
4726
wypełnianych przez miliony amerykańskich licealistów,
05:39
who are looking for a college program or a scholarship --
103
339708
3643
którzy szukają szkoły lub stypendium,
05:43
had been sold to educational data brokers.
104
343375
3042
zostały sprzedane brokerom danych edukacyjnych.
05:47
Now, researchers at Fordham who studied educational data brokers
105
347792
5434
Ponadto naukowcy z uniwersytetu Fordham, którzy zbadali brokerów z tego sektora,
05:53
revealed that these companies profiled kids as young as two
106
353250
5226
ujawnili, że te firmy profilowały nawet dwuletnie dzieci
05:58
on the basis of different categories:
107
358500
3059
na podstawie takich kategorii jak:
06:01
ethnicity, religion, affluence,
108
361583
4185
pochodzenie etniczne, religia, zamożność,
06:05
social awkwardness
109
365792
2059
niedostosowanie społeczne
06:07
and many other random categories.
110
367875
2934
oraz wiele innych losowych kategorii.
06:10
And then they sell these profiles together with the name of the kid,
111
370833
5018
Następnie sprzedają te profile razem z danymi osobowymi dziecka,
06:15
their home address and the contact details
112
375875
2809
ich adresem zamieszkania i danymi kontaktowymi,
06:18
to different companies,
113
378708
1851
różnym firmom,
06:20
including trade and career institutions,
114
380583
2459
między innymi agencjom handlu i biurom karier,
06:24
student loans
115
384083
1268
firmom zajmującym się pożyczkami i kartami kredytowymi dla studentów.
06:25
and student credit card companies.
116
385375
1750
06:28
To push the boundaries,
117
388542
1351
Żeby wyznaczyć nowe granice,
06:29
the researchers at Fordham asked an educational data broker
118
389917
3809
naukowcy z Fordham poprosili brokera danych edukacyjnych
06:33
to provide them with a list of 14-to-15-year-old girls
119
393750
5809
o listę dziewczyn w wieku od 14 do 15 lat,
06:39
who were interested in family planning services.
120
399583
3375
które interesowały się usługami w zakresie planowania rodziny.
06:44
The data broker agreed to provide them the list.
121
404208
2476
Broker zgodził się na dostarczenie takiej listy.
06:46
So imagine how intimate and how intrusive that is for our kids.
122
406708
4875
Wyobraźcie sobie, jak bardzo narusza to prywatność naszych dzieci.
06:52
But educational data brokers are really just an example.
123
412833
3976
Ale brokerzy danych edukacyjnych to tylko jeden z przykładów.
06:56
The truth is that our children are being profiled in ways that we cannot control
124
416833
4685
Prawda jest taka,
że nie jesteśmy w stanie kontrolować, w jaki sposób dzieci są profilowane,
07:01
but that can significantly impact their chances in life.
125
421542
3416
a to może mieć znaczący wpływ na ich życie.
07:06
So we need to ask ourselves:
126
426167
3476
Musimy zadać sobie pytanie:
07:09
can we trust these technologies when it comes to profiling our children?
127
429667
4684
Czy możemy ufać tym technologiom w kwestii profilowania naszych dzieci?
07:14
Can we?
128
434375
1250
Możemy?
07:17
My answer is no.
129
437708
1250
Moja odpowiedź brzmi: nie.
07:19
As an anthropologist,
130
439792
1267
Jako antropolog wierzę,
że sztuczna inteligencja i analiza prognostyczna
07:21
I believe that artificial intelligence and predictive analytics can be great
131
441083
3768
mogą być bardzo pomocne w przewidywaniu przebiegu choroby
07:24
to predict the course of a disease
132
444875
2018
07:26
or to fight climate change.
133
446917
1833
albo w walce ze zmianami klimatycznymi.
Jednak musimy porzucić wiarę w to,
07:30
But we need to abandon the belief
134
450000
1643
07:31
that these technologies can objectively profile humans
135
451667
3684
że te technologie mogą obiektywnie profilować ludzi
07:35
and that we can rely on them to make data-driven decisions
136
455375
3184
i że możemy polegać na nich
przy podejmowaniu kluczowych decyzji życiowych,
07:38
about individual lives.
137
458583
1893
07:40
Because they can't profile humans.
138
460500
2559
dlatego, że one nie potrafią profilować ludzi.
07:43
Data traces are not the mirror of who we are.
139
463083
3351
Dane nie są odbiciem lustrzanym tego, kim jesteśmy.
07:46
Humans think one thing and say the opposite,
140
466458
2101
Ludzie myślą jedno, a mówią drugie,
07:48
feel one way and act differently.
141
468583
2435
postępują inaczej niż czują.
Prognozy algorytmiczne czy nasze praktyki cyfrowe
07:51
Algorithmic predictions or our digital practices
142
471042
2476
07:53
cannot account for the unpredictability and complexity of human experience.
143
473542
5166
nie biorą pod uwagę nieprzewidywalności oraz złożoności ludzkich doświadczeń.
08:00
But on top of that,
144
480417
1559
Dodatkowo
te technologie są zawsze,
08:02
these technologies are always --
145
482000
2684
08:04
always --
146
484708
1268
zawsze,
w jakimś stopniu stronnicze.
08:06
in one way or another, biased.
147
486000
1917
Algorytmy są z definicji zbiorem zasad i instrukcji,
08:09
You see, algorithms are by definition sets of rules or steps
148
489125
5059
08:14
that have been designed to achieve a specific result, OK?
149
494208
3709
które zostały zaprojektowane w konkretnym celu.
08:18
But these sets of rules or steps cannot be objective,
150
498833
2726
Jednak te zbiory zasad i instrukcji nie są obiektywne,
08:21
because they've been designed by human beings
151
501583
2143
ponieważ są zaprojektowane przez ludzi
08:23
within a specific cultural context
152
503750
1726
w konkretnym kontekście kulturowym
08:25
and are shaped by specific cultural values.
153
505500
2500
i są ukształtowane przez konkretne wartości kulturowe.
08:28
So when machines learn,
154
508667
1726
Kiedy maszyny się uczą,
08:30
they learn from biased algorithms,
155
510417
2250
opierają się na stronniczych algorytmach,
08:33
and they often learn from biased databases as well.
156
513625
3208
a często także na stronniczych bazach danych.
08:37
At the moment, we're seeing the first examples of algorithmic bias.
157
517833
3726
Obecnie widzimy pierwsze przykłady przechyłów algorytmicznych.
08:41
And some of these examples are frankly terrifying.
158
521583
3500
Niektóre z tych przykładów są przerażające.
08:46
This year, the AI Now Institute in New York published a report
159
526500
4059
W tym roku instytut AI Now Institute z Nowego Jorku opublikował raport,
08:50
that revealed that the AI technologies
160
530583
2393
który ujawnił, że technologie AI
używane do prewencji przestępstw
08:53
that are being used for predictive policing
161
533000
3476
08:56
have been trained on "dirty" data.
162
536500
3125
działały w oparciu o "brudne" dane.
09:00
This is basically data that had been gathered
163
540333
2893
Są to dane zgromadzone
09:03
during historical periods of known racial bias
164
543250
4184
w okresie wyraźnych uprzedzeń rasowych
09:07
and nontransparent police practices.
165
547458
2250
i nietransparentnych praktyk policyjnych.
09:10
Because these technologies are being trained with dirty data,
166
550542
4059
Ponieważ te technologie używają "brudnych" danych,
09:14
they're not objective,
167
554625
1434
nie są obiektywne,
09:16
and their outcomes are only amplifying and perpetrating
168
556083
4518
a rezultaty ich działań tylko wzmacniają i przyczyniają się
09:20
police bias and error.
169
560625
1625
do policyjnej stronniczości i pomyłek.
09:25
So I think we are faced with a fundamental problem
170
565167
3142
Dlatego myślę, że stoimy
w obliczu fundamentalnego problemu naszego społeczeństwa.
09:28
in our society.
171
568333
1643
Zaczynamy ufać technologiom, jeśli chodzi o profilowanie ludzi.
09:30
We are starting to trust technologies when it comes to profiling human beings.
172
570000
4792
09:35
We know that in profiling humans,
173
575750
2518
Wiemy, że w profilowaniu ludzi,
09:38
these technologies are always going to be biased
174
578292
2809
te technologie będą zawsze stronnicze
i nigdy nie będą precyzyjne.
09:41
and are never really going to be accurate.
175
581125
2726
09:43
So what we need now is actually political solution.
176
583875
2934
Potrzebujemy politycznego rozwiązania tego problemu.
09:46
We need governments to recognize that our data rights are our human rights.
177
586833
4709
Potrzebujemy rządów, które uznają,
że ochrona danych to też prawa człowieka.
09:52
(Applause and cheers)
178
592292
4083
(Brawa i wiwaty)
09:59
Until this happens, we cannot hope for a more just future.
179
599833
4084
Dopóki to się nie stanie, nie możemy mieć nadziei
na bardziej sprawiedliwą przyszłość.
10:04
I worry that my daughters are going to be exposed
180
604750
2726
Martwię się, że moje córki będą narażone na różnego rodzaju
10:07
to all sorts of algorithmic discrimination and error.
181
607500
3726
algorytmiczne pomyłki i dyskryminacje.
10:11
You see the difference between me and my daughters
182
611250
2393
Różnica pomiędzy mną a moimi córkami jest taka,
10:13
is that there's no public record out there of my childhood.
183
613667
3184
że nie ma żadnego publicznego rejestru danych z mojego dzieciństwa.
10:16
There's certainly no database of all the stupid things that I've done
184
616875
4018
Na pewno nie ma żadnej bazy danych z głupotami,
10:20
and thought when I was a teenager.
185
620917
2142
które robiłam i myślałam, będąc nastolatką.
10:23
(Laughter)
186
623083
1500
(Śmiech)
10:25
But for my daughters this may be different.
187
625833
2750
W przypadku moich córek może to wyglądać inaczej.
10:29
The data that is being collected from them today
188
629292
3184
Dane, które są zbierane od nich dzisiaj,
10:32
may be used to judge them in the future
189
632500
3809
mogą być użyte w przyszłości do ich oceny,
10:36
and can come to prevent their hopes and dreams.
190
636333
2959
mogą zaprzepaścić ich nadzieje i marzenia.
10:40
I think that's it's time.
191
640583
1518
Myślę, że już czas,
żebyśmy wszyscy wzmogli nasze działania.
10:42
It's time that we all step up.
192
642125
1434
10:43
It's time that we start working together
193
643583
2476
Czas, żebyśmy zaczęli współpracować,
10:46
as individuals,
194
646083
1435
jako jednostki, organizacje i instytucje,
10:47
as organizations and as institutions,
195
647542
2517
i domagali się większej sprawiedliwości związanej z naszymi danymi,
10:50
and that we demand greater data justice for us
196
650083
3101
10:53
and for our children
197
653208
1393
dla nas i dla naszych dzieci,
10:54
before it's too late.
198
654625
1518
nim będzie za późno.
10:56
Thank you.
199
656167
1267
Dziękuję.
10:57
(Applause)
200
657458
1417
(Brawa)
O tej stronie

Na tej stronie poznasz filmy z YouTube, które są przydatne do nauki języka angielskiego. Zobaczysz lekcje angielskiego prowadzone przez najlepszych nauczycieli z całego świata. Kliknij dwukrotnie na angielskie napisy wyświetlane na stronie każdego filmu, aby odtworzyć film od tego miejsca. Napisy przewijają się synchronicznie z odtwarzaniem filmu. Jeśli masz jakieś uwagi lub prośby, skontaktuj się z nami za pomocą formularza kontaktowego.

https://forms.gle/WvT1wiN1qDtmnspy7