What tech companies know about your kids | Veronica Barassi

84,501 views ・ 2020-07-03

TED


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

00:00
Transcriber: Leslie Gauthier Reviewer: Joanna Pietrulewicz
0
0
7000
Переводчик: Samara Zhumabaeva Редактор: Anna Zvereva
00:12
Every day, every week,
1
12792
2267
Каждый день, каждую неделю,
00:15
we agree to terms and conditions.
2
15083
2185
мы соглашаемся c положениями и условиями.
00:17
And when we do this,
3
17292
1476
Делая такой шаг,
00:18
we provide companies with the lawful right
4
18792
2476
мы предоставляем компаниям законное право
00:21
to do whatever they want with our data
5
21292
3684
делать всё, что они хотят с нашими данными
и данными наших детей.
00:25
and with the data of our children.
6
25000
2375
00:28
Which makes us wonder:
7
28792
2976
Что заставляет нас задуматься:
00:31
how much data are we giving away of children,
8
31792
2892
какое количество данных о детях мы предоставляем,
00:34
and what are its implications?
9
34708
2000
и какие последствия это за собой повлечёт?
00:38
I'm an anthropologist,
10
38500
1393
Я антрополог,
00:39
and I'm also the mother of two little girls.
11
39917
2601
а также мать двух маленьких девочек.
00:42
And I started to become interested in this question in 2015
12
42542
4476
В 2015 году я начала интересоваться этим вопросом
00:47
when I suddenly realized that there were vast --
13
47042
2726
и внезапно осознала, что существует огромное,
00:49
almost unimaginable amounts of data traces
14
49792
3017
почти невообразимое количество
00:52
that are being produced and collected about children.
15
52833
3167
собираемых о детях данных.
00:56
So I launched a research project,
16
56792
1976
Поэтому я запустила исследовательский проект
00:58
which is called Child Data Citizen,
17
58792
2476
под названием Child Data Citizen
01:01
and I aimed at filling in the blank.
18
61292
2125
и намерена заполнить эту пустоту.
01:04
Now you may think that I'm here to blame you
19
64583
3018
Возможно, вы подумаете, что я пришла сюда обвинять вас
01:07
for posting photos of your children on social media,
20
67625
2768
в публикации фотографий ваших детей в социальных сетях,
01:10
but that's not really the point.
21
70417
2142
но дело не в этом.
01:12
The problem is way bigger than so-called "sharenting."
22
72583
3417
Проблема намного шире, чем так называемое «делительство».
01:16
This is about systems, not individuals.
23
76792
4101
Она носит системный характер, а не индивидуальный.
01:20
You and your habits are not to blame.
24
80917
2291
Вы и ваши привычки не виноваты.
01:24
For the very first time in history,
25
84833
2851
Впервые в истории
01:27
we are tracking the individual data of children
26
87708
2560
мы отслеживаем личные данные детей
01:30
from long before they're born --
27
90292
1767
задолго до их рождения,
01:32
sometimes from the moment of conception,
28
92083
2685
иногда — с момента зачатия,
01:34
and then throughout their lives.
29
94792
2351
а в дальнейшем — на протяжении жизни.
01:37
You see, when parents decide to conceive,
30
97167
3101
Понимаете, когда родители решают зачать ребенка,
01:40
they go online to look for "ways to get pregnant,"
31
100292
2976
они идут в интернет, чтобы посмотреть «способы забеременеть»,
01:43
or they download ovulation-tracking apps.
32
103292
2750
или скачивают приложения для отслеживания овуляции.
01:47
When they do get pregnant,
33
107250
2601
Забеременев,
01:49
they post ultrasounds of their babies on social media,
34
109875
3143
они публикуют фото УЗИ своих детей в социальных сетях,
01:53
they download pregnancy apps
35
113042
2017
скачивают приложения для отслеживания беременности,
01:55
or they consult Dr. Google for all sorts of things,
36
115083
3726
или консультируются с доктором Гуглом по всем вопросам,
01:58
like, you know --
37
118833
1518
например таким:
02:00
for "miscarriage risk when flying"
38
120375
2559
«риск выкидыша при полёте»
02:02
or "abdominal cramps in early pregnancy."
39
122958
2768
или «спазмы в животе при беременности».
02:05
I know because I've done it --
40
125750
1809
Я знаю, сама прошла через это,
02:07
and many times.
41
127583
1625
и не раз.
02:10
And then, when the baby is born, they track every nap,
42
130458
2810
После рождения ребёнка, они отслеживают каждый его сон,
02:13
every feed,
43
133292
1267
каждое кормление,
02:14
every life event on different technologies.
44
134583
2584
каждое событие жизни, используя различные технологии.
02:18
And all of these technologies
45
138083
1476
И все эти технологии
02:19
transform the baby's most intimate behavioral and health data into profit
46
139583
6143
превращают личные данные о здоровье и поведении ребёнка в прибыль,
02:25
by sharing it with others.
47
145750
1792
когда ими делятся с другими.
02:28
So to give you an idea of how this works,
48
148583
2143
Проиллюстрирую, как это работает.
02:30
in 2019, the British Medical Journal published research that showed
49
150750
5184
В 2019 году Британский медицинский журнал
опубликовал исследование, показавшее,
02:35
that out of 24 mobile health apps,
50
155958
3643
что 19 из 24 мобильных приложений для здоровья
02:39
19 shared information with third parties.
51
159625
3458
поделились информацией с третьими сторонами.
02:44
And these third parties shared information with 216 other organizations.
52
164083
5834
И эти третьи стороны поделились ей
с ещё 216 организациями.
02:50
Of these 216 other fourth parties,
53
170875
3434
Из этих 216 организаций
02:54
only three belonged to the health sector.
54
174333
3143
только треть принадлежали к сектору здравоохранения.
02:57
The other companies that had access to that data were big tech companies
55
177500
4518
Другими компаниями, получившими доступ к данным,
были технологические гиганты
03:02
like Google, Facebook or Oracle,
56
182042
3517
вроде Google, Facebook или Oracle,
03:05
they were digital advertising companies
57
185583
2601
среди них были рекламные,
03:08
and there was also a consumer credit reporting agency.
58
188208
4125
а также кредитные агентства.
03:13
So you get it right:
59
193125
1434
Итак, вы поняли верно:
03:14
ad companies and credit agencies may already have data points on little babies.
60
194583
5125
рекламные и кредитные агентства,
возможно, уже владеют данными о детях.
03:21
But mobile apps, web searches and social media
61
201125
2768
Но мобильные приложения, поисковики и социальные сети
03:23
are really just the tip of the iceberg,
62
203917
3101
лишь верхушка айсберга,
03:27
because children are being tracked by multiple technologies
63
207042
2851
так как в повседневной жизни за детьми наблюдают многочисленные
03:29
in their everyday lives.
64
209917
1726
устройства и приложения.
03:31
They're tracked by home technologies and virtual assistants in their homes.
65
211667
4142
В домах деятельность детей отслеживают виртуальные помощники и бытовая техника.
03:35
They're tracked by educational platforms
66
215833
1976
В школах это делается при помощи
03:37
and educational technologies in their schools.
67
217833
2185
образовательных платформ и технологий.
03:40
They're tracked by online records
68
220042
1601
В кабинете врача их отслеживают
03:41
and online portals at their doctor's office.
69
221667
3017
по онлайн-записям и онлайн-порталам.
За ними следят при помощи их игрушек, подключённых к интернету,
03:44
They're tracked by their internet-connected toys,
70
224708
2351
03:47
their online games
71
227083
1310
онлайн-игр,
03:48
and many, many, many, many other technologies.
72
228417
2666
и множества других технологий.
03:52
So during my research,
73
232250
1643
За время исследования
03:53
a lot of parents came up to me and they were like, "So what?
74
233917
4142
ко мне обращались многие родители и спрашивали: «Ну и что?
Разве то, что мои дети отслеживаются, имеет какое-то значение?
03:58
Why does it matter if my children are being tracked?
75
238083
2917
04:02
We've got nothing to hide."
76
242042
1333
Нам скрывать нечего».
04:04
Well, it matters.
77
244958
1500
Да, это имеет значение.
04:07
It matters because today individuals are not only being tracked,
78
247083
6018
Это имеет значение, потому что сегодня за людьми не только следят,
04:13
they're also being profiled on the basis of their data traces.
79
253125
4101
но и анализируют их данные на основе оставленного ими информационного следа.
04:17
Artificial intelligence and predictive analytics are being used
80
257250
3809
Искусственный интеллект и прогнозная аналитика используются,
04:21
to harness as much data as possible of an individual life
81
261083
3643
чтобы собрать как можно больше данных о жизни человека
04:24
from different sources:
82
264750
1851
из разных источников:
04:26
family history, purchasing habits, social media comments.
83
266625
4518
семейной истории, покупательских привычек, комментариев в социальных сетях.
04:31
And then they bring this data together
84
271167
1851
А потом они объединяют эти данные,
04:33
to make data-driven decisions about the individual.
85
273042
2750
чтобы принимать решения на основе данных о личности.
04:36
And these technologies are used everywhere.
86
276792
3434
И эти технологии используются везде.
04:40
Banks use them to decide loans.
87
280250
2393
Банки используют их при выдаче кредита.
04:42
Insurance uses them to decide premiums.
88
282667
2375
Страховые компании — для определения размера страховых взносов.
04:46
Recruiters and employers use them
89
286208
2476
Рекрутеры и работодатели используют их,
04:48
to decide whether one is a good fit for a job or not.
90
288708
2917
чтобы решить, кто лучше подходит для работы.
04:52
Also the police and courts use them
91
292750
3101
Полиция и суды также применяют их,
04:55
to determine whether one is a potential criminal
92
295875
3518
чтобы определить, кто является потенциальным преступником
04:59
or is likely to recommit a crime.
93
299417
2625
или кто вновь совершит преступление.
05:04
We have no knowledge or control
94
304458
4060
Мы не знаем и не контролируем
05:08
over the ways in which those who buy, sell and process our data
95
308542
3642
способы, которыми те, кто покупают,
продают и обрабатывают наши данные,
05:12
are profiling us and our children.
96
312208
2709
составляют психологические профили наших детей и наши.
05:15
But these profiles can come to impact our rights in significant ways.
97
315625
4042
Но эти профили могут существенно повлиять на наши права.
05:20
To give you an example,
98
320917
2208
Например,
05:25
in 2018 the "New York Times" published the news
99
325792
4059
в 2018 году газета «Нью-Йорк Таймс» опубликовала новость о том,
05:29
that the data that had been gathered
100
329875
1976
что собранные с помощью онлайн-сервисов
05:31
through online college-planning services --
101
331875
3059
05:34
that are actually completed by millions of high school kids across the US
102
334958
4726
которые в США заполняются миллионами школьников
05:39
who are looking for a college program or a scholarship --
103
339708
3643
при поиске программы колледжа или стипендии,
05:43
had been sold to educational data brokers.
104
343375
3042
были проданы брокерам в сфере образовательных услуг.
05:47
Now, researchers at Fordham who studied educational data brokers
105
347792
5434
Исследователи из Фордхэма, изучавшие данные образовательных брокеров,
05:53
revealed that these companies profiled kids as young as two
106
353250
5226
раскрыли, как эти компании профилируют детей в возрасте всего двух лет
05:58
on the basis of different categories:
107
358500
3059
на основе разных категорий:
06:01
ethnicity, religion, affluence,
108
361583
4185
этнической принадлежности, религии, достатка,
06:05
social awkwardness
109
365792
2059
социальной неуверенности в себе
06:07
and many other random categories.
110
367875
2934
и многих других произвольно взятых категорий.
06:10
And then they sell these profiles together with the name of the kid,
111
370833
5018
А потом эти компании продают эти профили вместе с именем ребёнка,
06:15
their home address and the contact details
112
375875
2809
их домашним адресом и контактными данными
06:18
to different companies,
113
378708
1851
различным организациям,
06:20
including trade and career institutions,
114
380583
2459
включая торговые и карьерные учреждения,
банки, предоставляющие студенческие кредиты
06:24
student loans
115
384083
1268
06:25
and student credit card companies.
116
385375
1750
и компании, выпускающие кредитные карты для студентов.
06:28
To push the boundaries,
117
388542
1351
Чтобы расширить границы,
06:29
the researchers at Fordham asked an educational data broker
118
389917
3809
исследователи из Фордхэма попросили брокера образовательных данных
06:33
to provide them with a list of 14-to-15-year-old girls
119
393750
5809
предоставить им список девушек в возрасте 14–15 лет,
06:39
who were interested in family planning services.
120
399583
3375
интересовавшихся услугами по планированию семьи.
06:44
The data broker agreed to provide them the list.
121
404208
2476
И торговец данными согласился предоставить такой список.
06:46
So imagine how intimate and how intrusive that is for our kids.
122
406708
4875
А теперь представьте, насколько глубоко они внедрены в жизнь наших детей.
06:52
But educational data brokers are really just an example.
123
412833
3976
Но торговцы данными — лишь один из ста примеров.
06:56
The truth is that our children are being profiled in ways that we cannot control
124
416833
4685
Правда в том, что наши дети отслеживаются так, что мы не можем это контролировать,
07:01
but that can significantly impact their chances in life.
125
421542
3416
и это может значительно повлиять на их возможности в жизни.
07:06
So we need to ask ourselves:
126
426167
3476
Поэтому мы должны спросить самих себя:
07:09
can we trust these technologies when it comes to profiling our children?
127
429667
4684
можем ли мы доверять этим технологиям,
когда речь идёт об отслеживании наших детей?
07:14
Can we?
128
434375
1250
Можем ли?
07:17
My answer is no.
129
437708
1250
Мой ответ — нет.
07:19
As an anthropologist,
130
439792
1267
Как антрополог
07:21
I believe that artificial intelligence and predictive analytics can be great
131
441083
3768
я верю, что искуственный интеллект и прогнозная аналитика могут быть полезны
07:24
to predict the course of a disease
132
444875
2018
в предсказывании течения болезни
07:26
or to fight climate change.
133
446917
1833
или в борьбе с изменением климата.
07:30
But we need to abandon the belief
134
450000
1643
Но мы должны отказаться от убеждения,
07:31
that these technologies can objectively profile humans
135
451667
3684
что эти технологии могут составить объективный психологический профиль,
07:35
and that we can rely on them to make data-driven decisions
136
455375
3184
и мы не можем на них полагаться, чтобы принимать решения на основе данных
07:38
about individual lives.
137
458583
1893
об отдельных жизнях.
07:40
Because they can't profile humans.
138
460500
2559
Потому что они на это не способны.
07:43
Data traces are not the mirror of who we are.
139
463083
3351
Наш информационный след не являются отражением того, кто мы есть.
07:46
Humans think one thing and say the opposite,
140
466458
2101
Люди думают об одном, а говорят о другом,
07:48
feel one way and act differently.
141
468583
2435
чувствуют одно, а действуют по-другому.
07:51
Algorithmic predictions or our digital practices
142
471042
2476
Алгоритмические прогнозы или наша цифровая практика
07:53
cannot account for the unpredictability and complexity of human experience.
143
473542
5166
не могут объяснить непредсказуемость и сложность человеческого опыта.
08:00
But on top of that,
144
480417
1559
Но вдобавок ко всему,
08:02
these technologies are always --
145
482000
2684
эти технологии всегда,
08:04
always --
146
484708
1268
так или иначе,
08:06
in one way or another, biased.
147
486000
1917
необъективны.
08:09
You see, algorithms are by definition sets of rules or steps
148
489125
5059
Вы знаете, что алгоритмы по определению означают набор правил и шагов,
08:14
that have been designed to achieve a specific result, OK?
149
494208
3709
которые были разработаны для достижения определённого результата?
08:18
But these sets of rules or steps cannot be objective,
150
498833
2726
Но эти наборы правил и шагов не могут быть объективными,
08:21
because they've been designed by human beings
151
501583
2143
так как они были придуманы человеком
08:23
within a specific cultural context
152
503750
1726
в определённом культурном контексте
08:25
and are shaped by specific cultural values.
153
505500
2500
и сформированы определёнными культурными ценностями.
08:28
So when machines learn,
154
508667
1726
Итак, когда машины учатся,
08:30
they learn from biased algorithms,
155
510417
2250
они учатся как с помощью предвзятых алгоритмов,
08:33
and they often learn from biased databases as well.
156
513625
3208
так и на основе предвзято составленных баз данных.
08:37
At the moment, we're seeing the first examples of algorithmic bias.
157
517833
3726
Сегодня мы видим первые примеры алгоритмической предвзятости.
08:41
And some of these examples are frankly terrifying.
158
521583
3500
Некоторые из этих примеров просто ужасны.
08:46
This year, the AI Now Institute in New York published a report
159
526500
4059
В этом году организация AI Now Institute в Нью-Йорке опубликовала отчёт,
08:50
that revealed that the AI technologies
160
530583
2393
в котором говорится, что технологии ИИ,
08:53
that are being used for predictive policing
161
533000
3476
используемые для прогнозирования полицейской деятельности,
08:56
have been trained on "dirty" data.
162
536500
3125
были обучены на «грязных» данных.
09:00
This is basically data that had been gathered
163
540333
2893
В основном это данные, собранные
09:03
during historical periods of known racial bias
164
543250
4184
в течение исторических периодов, известных расовыми предрассудками
09:07
and nontransparent police practices.
165
547458
2250
и непрозрачными действиями полиции.
09:10
Because these technologies are being trained with dirty data,
166
550542
4059
Из-за того, что эти технологии разрабатывались на основе грязных данных,
09:14
they're not objective,
167
554625
1434
они необъективны,
09:16
and their outcomes are only amplifying and perpetrating
168
556083
4518
и их результаты только усиливают и дополняют
09:20
police bias and error.
169
560625
1625
необъективность и ошибки полиции.
09:25
So I think we are faced with a fundamental problem
170
565167
3142
Я думаю, мы столкнулись с фундаментальной проблемой
09:28
in our society.
171
568333
1643
нашего общества.
09:30
We are starting to trust technologies when it comes to profiling human beings.
172
570000
4792
Мы начинаем доверять технологиям, когда речь идёт о профилировании людей.
09:35
We know that in profiling humans,
173
575750
2518
Мы знаем, что при профилировании людей
09:38
these technologies are always going to be biased
174
578292
2809
эти технологии всегда будут предвзятыми
09:41
and are never really going to be accurate.
175
581125
2726
и никогда не будут точными.
09:43
So what we need now is actually political solution.
176
583875
2934
Поэтому нам сейчас нужно политическое решение данного вопроса.
09:46
We need governments to recognize that our data rights are our human rights.
177
586833
4709
Нам нужно, чтобы правительства признали,
что права на данные — наши права человека.
09:52
(Applause and cheers)
178
592292
4083
(Аплодисменты)
09:59
Until this happens, we cannot hope for a more just future.
179
599833
4084
Пока этого не произойдет, мы не можем надеяться на более справедливое будущее.
10:04
I worry that my daughters are going to be exposed
180
604750
2726
Я волнуюсь из-за того, что мои дочери будут подвергаться
10:07
to all sorts of algorithmic discrimination and error.
181
607500
3726
всевозможной алгоритмической дискриминации и ошибкам.
10:11
You see the difference between me and my daughters
182
611250
2393
Разница между мной и моими дочерями в том,
10:13
is that there's no public record out there of my childhood.
183
613667
3184
что нет публичных записей моего детства.
10:16
There's certainly no database of all the stupid things that I've done
184
616875
4018
Точно нет никакой базы данных обо всех глупостях, которые я совершила,
10:20
and thought when I was a teenager.
185
620917
2142
или о которых помышляла, когда была подростком.
10:23
(Laughter)
186
623083
1500
(Смех)
10:25
But for my daughters this may be different.
187
625833
2750
Но у моих дочерей всё может сложиться по-другому.
10:29
The data that is being collected from them today
188
629292
3184
Информация, собранная о них сегодня
10:32
may be used to judge them in the future
189
632500
3809
может быть использована для их оценки в будущем,
10:36
and can come to prevent their hopes and dreams.
190
636333
2959
и может помешать реализации их надежд и целей.
10:40
I think that's it's time.
191
640583
1518
Я думаю, время пришло.
Время, чтобы мы все сделали шаг вперед.
10:42
It's time that we all step up.
192
642125
1434
10:43
It's time that we start working together
193
643583
2476
Пришло время, чтобы мы начали работать вместе
10:46
as individuals,
194
646083
1435
как отдельные люди,
10:47
as organizations and as institutions,
195
647542
2517
как организации и как институты,
10:50
and that we demand greater data justice for us
196
650083
3101
мы требуем большей справедливости в отношении данных для нас
10:53
and for our children
197
653208
1393
и наших детей,
10:54
before it's too late.
198
654625
1518
пока не стало слишком поздно.
10:56
Thank you.
199
656167
1267
Благодарю вас.
10:57
(Applause)
200
657458
1417
(Аплодисменты)
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7