What tech companies know about your kids | Veronica Barassi

84,909 views ・ 2020-07-03

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

00:00
Transcriber: Leslie Gauthier Reviewer: Joanna Pietrulewicz
0
0
7000
المترجم: Shimaa Nabil المدقّق: Nawfal Aljabali
00:12
Every day, every week,
1
12792
2267
كل يوم، كل أسبوع،
00:15
we agree to terms and conditions.
2
15083
2185
نوافق على شروط وأحكام.
00:17
And when we do this,
3
17292
1476
وعندما نفعل ذلك،
00:18
we provide companies with the lawful right
4
18792
2476
نزود الشركات بالحق القانوني
00:21
to do whatever they want with our data
5
21292
3684
لفعل ما تريده بالبيانات الخاصة بنا
00:25
and with the data of our children.
6
25000
2375
وبيانات أطفالنا.
00:28
Which makes us wonder:
7
28792
2976
ما يجعلنا نتساءل:
00:31
how much data are we giving away of children,
8
31792
2892
كم من البيانات التي نمنحها عن الأطفال،
00:34
and what are its implications?
9
34708
2000
وما هي آثارها؟
00:38
I'm an anthropologist,
10
38500
1393
أنا عالمة أنثروبولوجيا،
00:39
and I'm also the mother of two little girls.
11
39917
2601
وأيضاً أم لطفلتين صغيرتين.
00:42
And I started to become interested in this question in 2015
12
42542
4476
وبدأ اهتمامي بهذا السؤال في 2015
00:47
when I suddenly realized that there were vast --
13
47042
2726
عندما أدركت فجأة أن ثمّة
00:49
almost unimaginable amounts of data traces
14
49792
3017
كميات هائلة لا يمكن تخيلها من تتبع البيانات
00:52
that are being produced and collected about children.
15
52833
3167
التي يتم إنتاجها وتجميعها عن الأطفال.
00:56
So I launched a research project,
16
56792
1976
لذلك بدأت مشروعاً بحثياً،
00:58
which is called Child Data Citizen,
17
58792
2476
والذي يسمى مواطن بيانات الطفل،
01:01
and I aimed at filling in the blank.
18
61292
2125
وأهدف إلى ملء الفراغ.
01:04
Now you may think that I'm here to blame you
19
64583
3018
الآن ربما تفكر أنني ألومك
01:07
for posting photos of your children on social media,
20
67625
2768
لنشر صور أطفالك على وسائل التواصل الاجتماعي،
01:10
but that's not really the point.
21
70417
2142
لكن هذا ليس الهدف.
01:12
The problem is way bigger than so-called "sharenting."
22
72583
3417
المشكلة أكبر بكثير مما يسمى بـ "المشاركة".
01:16
This is about systems, not individuals.
23
76792
4101
هذا عن الأنظمة وليس عن الأفراد.
01:20
You and your habits are not to blame.
24
80917
2291
لا تُلامون أنتم وعاداتكم.
01:24
For the very first time in history,
25
84833
2851
لأول مرة في التاريخ،
01:27
we are tracking the individual data of children
26
87708
2560
نقوم بتتبع البيانات الفردية للأطفال
01:30
from long before they're born --
27
90292
1767
منذ وقت طويل قبل ولادتهم -
01:32
sometimes from the moment of conception,
28
92083
2685
ومن لحظة الحمل أحياناً،
01:34
and then throughout their lives.
29
94792
2351
وخلال حياتهم بعد ذلك.
01:37
You see, when parents decide to conceive,
30
97167
3101
كما تعرفون، عندما يقرر الآباء الحمل،
01:40
they go online to look for "ways to get pregnant,"
31
100292
2976
يبحثون عبر الإنترنت عن "طرق الحمل"
01:43
or they download ovulation-tracking apps.
32
103292
2750
أو يقومون بتحميل تطبيقات تتبع التبويض.
01:47
When they do get pregnant,
33
107250
2601
عندما يحصل الحمل،
01:49
they post ultrasounds of their babies on social media,
34
109875
3143
ينشرون الموجات فوق الصوتية لأطفالهم على وسائل التواصل الاجتماعي،
01:53
they download pregnancy apps
35
113042
2017
يقومون بتحميل تطبيقات الحمل
01:55
or they consult Dr. Google for all sorts of things,
36
115083
3726
أو استشارة دكتور جوجل لهذه الأشياء،
01:58
like, you know --
37
118833
1518
مثل، كما تعرفون-
02:00
for "miscarriage risk when flying"
38
120375
2559
عن "مخاطر الإجهاض عند الطيران"
02:02
or "abdominal cramps in early pregnancy."
39
122958
2768
أو "تشنجات البطن في وقت مبكر من الحمل."
02:05
I know because I've done it --
40
125750
1809
أعلم لأنني فعلت ذلك -
02:07
and many times.
41
127583
1625
مرات عديدة.
02:10
And then, when the baby is born, they track every nap,
42
130458
2810
عندما يولد الطفل وبعد ذلك، يتتبعون كل قيلولة،
02:13
every feed,
43
133292
1267
كل وجبة،
02:14
every life event on different technologies.
44
134583
2584
كل حدث في حياته على تقنيات مختلفة.
02:18
And all of these technologies
45
138083
1476
وتحول كل هذه التقنيات
02:19
transform the baby's most intimate behavioral and health data into profit
46
139583
6143
البيانات الخاصة بصحة الطفل وسلوكه الأكثر خصوصية إلى ربح
02:25
by sharing it with others.
47
145750
1792
بمشاركتها مع الآخرين.
02:28
So to give you an idea of how this works,
48
148583
2143
لأبين لكم فكرة عمل هذا،
02:30
in 2019, the British Medical Journal published research that showed
49
150750
5184
في 2019، نشرت المجلة الطبية البريطانية بحثاً يوضح
02:35
that out of 24 mobile health apps,
50
155958
3643
أن من كل 24 تطبيقاً خاصاً بالهاتف المحمول،
02:39
19 shared information with third parties.
51
159625
3458
ينشر 19 منهم معلومات مع أطراف ثالثة.
02:44
And these third parties shared information with 216 other organizations.
52
164083
5834
وتقوم هذه الأطراف بمشاركة المعلومات مع 216 منظمة أخرى.
02:50
Of these 216 other fourth parties,
53
170875
3434
ومن هذه الـ 216 طرف رابع،
02:54
only three belonged to the health sector.
54
174333
3143
ينتمي 3 منهم فقط للقطاع الطبي.
02:57
The other companies that had access to that data were big tech companies
55
177500
4518
الشركات الأخرى التي كان لها إمكانية الوصول لهذه البيانات هي شركات التقنية الكبرى
03:02
like Google, Facebook or Oracle,
56
182042
3517
مثل جوجل أو فيسبوك أو أوراكل،
03:05
they were digital advertising companies
57
185583
2601
وهم شركات إعلان رقمية
03:08
and there was also a consumer credit reporting agency.
58
188208
4125
وكان هناك أيضاً وكالة تقارير ائتمان المستهلك.
03:13
So you get it right:
59
193125
1434
لذا ما فهمته صحيحاً:
03:14
ad companies and credit agencies may already have data points on little babies.
60
194583
5125
الشركات الإعلانية ووكالات الائتمان لديها بالفعل بيانات عن الأطفال الصغار.
لكن تطبيقات الهاتف المحمول وبحث الإنترنت ووسائل التواصل الاجتماعي
03:21
But mobile apps, web searches and social media
61
201125
2768
03:23
are really just the tip of the iceberg,
62
203917
3101
في الحقيقة مجرد غيض من فيض،
03:27
because children are being tracked by multiple technologies
63
207042
2851
لأنه يتم تعقب الأطفال بواسطة تقنيات متعددة
03:29
in their everyday lives.
64
209917
1726
في حياتهم اليومية.
03:31
They're tracked by home technologies and virtual assistants in their homes.
65
211667
4142
يتم تتبعهم من خلال التقنيات المنزلية والمساعدين الافتراضيين في منازلهم.
03:35
They're tracked by educational platforms
66
215833
1976
من خلال المنصات التعليمية
03:37
and educational technologies in their schools.
67
217833
2185
والتقنيات التعليمية في مدارسهم.
03:40
They're tracked by online records
68
220042
1601
ومن خلال التسجيلات عبر الإنترنت
03:41
and online portals at their doctor's office.
69
221667
3017
والبوابات الالكترونية في العيادات.
03:44
They're tracked by their internet-connected toys,
70
224708
2351
يتم تعقبهم من خلال ألعابهم المتصلة بالإنترنت،
03:47
their online games
71
227083
1310
ألعابهم على الإنترنت
03:48
and many, many, many, many other technologies.
72
228417
2666
والكثير والكثير من التقنيات الأخرى.
03:52
So during my research,
73
232250
1643
لذا أثناء قيامي بالبحث،
03:53
a lot of parents came up to me and they were like, "So what?
74
233917
4142
جاءني الكثير من الآباء وسألوني: "ماذا بعد؟
03:58
Why does it matter if my children are being tracked?
75
238083
2917
ما القضية إذا تم تعقب أطفالي؟
04:02
We've got nothing to hide."
76
242042
1333
ليس لدينا ما نخفيه."
04:04
Well, it matters.
77
244958
1500
حسناً، إنه يهم.
04:07
It matters because today individuals are not only being tracked,
78
247083
6018
يهم لأن الأفراد اليوم لا يتم تعقبهم فقط،
04:13
they're also being profiled on the basis of their data traces.
79
253125
4101
يتم أيضاً تصنيفهم حسب البيانات الخاصة بهم.
04:17
Artificial intelligence and predictive analytics are being used
80
257250
3809
يتم استخدام الذكاء الصناعي والتحليلات التنبؤية
04:21
to harness as much data as possible of an individual life
81
261083
3643
لتسخير أكبر قدر ممكن من البيانات
04:24
from different sources:
82
264750
1851
من مصادر مختلفة:
04:26
family history, purchasing habits, social media comments.
83
266625
4518
تاريخ العائلة وعادات الشراء وتعليقات وسائل التواصل الاجتماعي.
04:31
And then they bring this data together
84
271167
1851
ثم يتم تجميع البيانات معاً
04:33
to make data-driven decisions about the individual.
85
273042
2750
لاتخاذ قرارات مبنية على بيانات الفرد.
04:36
And these technologies are used everywhere.
86
276792
3434
ويتم استخدام هذه التقنية في كل مكان.
04:40
Banks use them to decide loans.
87
280250
2393
تستخدمها البنوك لإقرار القروض.
04:42
Insurance uses them to decide premiums.
88
282667
2375
ويستخدمها التأمين لتحديد الأقساط.
04:46
Recruiters and employers use them
89
286208
2476
يستخدمها مسؤولو التوظيف وأرباب العمل
04:48
to decide whether one is a good fit for a job or not.
90
288708
2917
ليقرروا ما إذا كان أحد مناسباً للعمل أم لا.
04:52
Also the police and courts use them
91
292750
3101
وأيضاً تستخدمها الشرطة والمحاكم
04:55
to determine whether one is a potential criminal
92
295875
3518
لتحديد ما إذا كان أحدهم مجرماً محتملاً
04:59
or is likely to recommit a crime.
93
299417
2625
أو من المحتمل أن يعيد ارتكاب الجريمة.
05:04
We have no knowledge or control
94
304458
4060
ليس لدينا أي معرفة أو سيطرة
05:08
over the ways in which those who buy, sell and process our data
95
308542
3642
على الطرق التي يقوم بها أولئك الذين يشترون بياناتنا ويبيعونها ويعالجونها
05:12
are profiling us and our children.
96
312208
2709
لتوصيف هويتنا وأطفالنا.
05:15
But these profiles can come to impact our rights in significant ways.
97
315625
4042
لكن هذه الملفات الشخصية يمكن أن تؤثر على حقوقنا بطرق ملحوظة.
05:20
To give you an example,
98
320917
2208
لأوضح لكم بمثال،
05:25
in 2018 the "New York Times" published the news
99
325792
4059
نشرت نيويورك تايمز في 2018 أخباراً
05:29
that the data that had been gathered
100
329875
1976
أن البيانات التي تم تجميعها
05:31
through online college-planning services --
101
331875
3059
خلال خدمات التخطيط الجامعي عبر الإنترنت -
05:34
that are actually completed by millions of high school kids across the US
102
334958
4726
التي ينجزها ملايين من أطفال المدارس الثانوية في جميع أنحاء الولايات المتحدة
05:39
who are looking for a college program or a scholarship --
103
339708
3643
والذين يبحثون عن برنامج جامعي أو منحة دراسية -
05:43
had been sold to educational data brokers.
104
343375
3042
تم بيعها إلى وسطاء البيانات التعليمية.
05:47
Now, researchers at Fordham who studied educational data brokers
105
347792
5434
الآن، كشف باحثون في فوردهام الذين درسوا وسطاء البيانات التعليمية
05:53
revealed that these companies profiled kids as young as two
106
353250
5226
أن هذه الشركات وصفت أطفال لا تتجاوز أعمارهم العامين
05:58
on the basis of different categories:
107
358500
3059
على أساس فئات مختلفة:
06:01
ethnicity, religion, affluence,
108
361583
4185
العرق والدين والثراء،
06:05
social awkwardness
109
365792
2059
الصعيد الاجتماعي
06:07
and many other random categories.
110
367875
2934
والعديد من الفئات العشوائية الأخرى.
06:10
And then they sell these profiles together with the name of the kid,
111
370833
5018
ثم يبيعون هذه الملفات الشخصية مع اسم الطفل،
06:15
their home address and the contact details
112
375875
2809
عنوان منزلهم وتفاصيل الاتصال بهم
06:18
to different companies,
113
378708
1851
لشركات مختلفة،
06:20
including trade and career institutions,
114
380583
2459
بما في ذلك المؤسسات التجارية والمهنية،
06:24
student loans
115
384083
1268
والقروض الدراسية
06:25
and student credit card companies.
116
385375
1750
وشركات بطاقات الائتمان الطلابية.
06:28
To push the boundaries,
117
388542
1351
لكسر الحواجز،
06:29
the researchers at Fordham asked an educational data broker
118
389917
3809
طلب الباحثون في فورهام من وسيط البيانات التعليمية
06:33
to provide them with a list of 14-to-15-year-old girls
119
393750
5809
تزويدهم بقائمة الفتيات من 14 إلى 15 سنة
06:39
who were interested in family planning services.
120
399583
3375
ممن كن مهتمات بخدمات تنظيم الأسرة.
06:44
The data broker agreed to provide them the list.
121
404208
2476
وافق وسيط البيانات بتزويدهم بالقائمة.
06:46
So imagine how intimate and how intrusive that is for our kids.
122
406708
4875
لذا تخيل مدى خصوصية وتطفل هذا الأمر على أطفالنا.
06:52
But educational data brokers are really just an example.
123
412833
3976
لكن وسطاء بيانات التعليم مجرد مثال.
06:56
The truth is that our children are being profiled in ways that we cannot control
124
416833
4685
الحقيقة أنه تم توصيف أطفالنا بطرق لا نستطيع السيطرة عليها
07:01
but that can significantly impact their chances in life.
125
421542
3416
ولكن هذا يمكنه التأثير على فرصهم في الحياة بصورة كبيرة.
07:06
So we need to ask ourselves:
126
426167
3476
لذا نريد أن نسأل أنفسنا:
07:09
can we trust these technologies when it comes to profiling our children?
127
429667
4684
هل نستطيع أن نثق في هذه التقنيات عندما يتعلق الأمر بتوصيف أطفالنا؟
07:14
Can we?
128
434375
1250
هل يمكننا؟
07:17
My answer is no.
129
437708
1250
إجابتي هي لا.
07:19
As an anthropologist,
130
439792
1267
كعالمة أنثروبولوجيا،
07:21
I believe that artificial intelligence and predictive analytics can be great
131
441083
3768
أعتقد أنه يمكن للذكاء الصناعي والتحليلات التنبؤية أن يكونا رائعين
07:24
to predict the course of a disease
132
444875
2018
للتنبؤ بمسار المرض
07:26
or to fight climate change.
133
446917
1833
أو محاربة تغير المناخ.
07:30
But we need to abandon the belief
134
450000
1643
لكننا بحاجة إلى التخلي عن اعتقاد
07:31
that these technologies can objectively profile humans
135
451667
3684
أن هذه التقنيات يمكن أن تصنف البشر بشكل موضوعي
07:35
and that we can rely on them to make data-driven decisions
136
455375
3184
وأنه يمكننا الاعتماد عليهم لاتخاذ قرارات مبنية على البيانات
07:38
about individual lives.
137
458583
1893
عن حياة الفرد.
07:40
Because they can't profile humans.
138
460500
2559
إذ ليس باستطاعتهم توصيف البشر.
07:43
Data traces are not the mirror of who we are.
139
463083
3351
تتبع البيانات ليس مرآة لمن نحن.
07:46
Humans think one thing and say the opposite,
140
466458
2101
يفكر الإنسان بشيء ويقول العكس،
07:48
feel one way and act differently.
141
468583
2435
يشعر بطريقة ويتصرف بشكل مختلف.
07:51
Algorithmic predictions or our digital practices
142
471042
2476
التنبؤات الخوارزمية أو الأساليب الرقمية
07:53
cannot account for the unpredictability and complexity of human experience.
143
473542
5166
لا يمكن أن تفسر عدم إمكانية التنبؤ والتجربة الإنسانية المعقدة.
08:00
But on top of that,
144
480417
1559
إضافة إلى هذا،
08:02
these technologies are always --
145
482000
2684
هذه التقنيات دائماً -
08:04
always --
146
484708
1268
دائماً -
08:06
in one way or another, biased.
147
486000
1917
بطريقة أو بأخرى، منحازة.
08:09
You see, algorithms are by definition sets of rules or steps
148
489125
5059
الخوارزميات حسب التعريف مجموعات من القواعد أو الخطوات
08:14
that have been designed to achieve a specific result, OK?
149
494208
3709
تم تصميمها لتحقيق نتيجة محددة، أليس كذلك؟
08:18
But these sets of rules or steps cannot be objective,
150
498833
2726
لكن لا يمكن لهذه القواعد أو الخطوات أن تكون موضوعية،
08:21
because they've been designed by human beings
151
501583
2143
لأنه تم تصميمها بواسطة البشر
08:23
within a specific cultural context
152
503750
1726
ضمن سياق ثقافي محدد
08:25
and are shaped by specific cultural values.
153
505500
2500
وتتشكل بقيم ثقافية محددة.
08:28
So when machines learn,
154
508667
1726
لذا عندما تعمل الآلات،
08:30
they learn from biased algorithms,
155
510417
2250
تعمل من خوارزميات منحازة،
08:33
and they often learn from biased databases as well.
156
513625
3208
وغالبا ما يتعلمون من قواعد البيانات المتحيزة كذلك.
08:37
At the moment, we're seeing the first examples of algorithmic bias.
157
517833
3726
في الوقت الحالي، نحن نرى الأمثلة الأولية للتحيز الخوارزمي.
08:41
And some of these examples are frankly terrifying.
158
521583
3500
وبعض هذه الأمثلة صراحة مرعبة.
08:46
This year, the AI Now Institute in New York published a report
159
526500
4059
نشر معهد AI Now هذا العام في نيويورك تقريراً
08:50
that revealed that the AI technologies
160
530583
2393
كشف أن تقنيات الذكاء الصناعي
08:53
that are being used for predictive policing
161
533000
3476
التي يتم استخدامها للشرطة التنبؤية
08:56
have been trained on "dirty" data.
162
536500
3125
تم تغذيتها على بيانات "فاسدة".
09:00
This is basically data that had been gathered
163
540333
2893
تم جمع هذه البيانات في الأساس
09:03
during historical periods of known racial bias
164
543250
4184
خلال الفترات التاريخية من التحيز العنصري المعروف
09:07
and nontransparent police practices.
165
547458
2250
وممارسات الشرطة غير الشفافة.
09:10
Because these technologies are being trained with dirty data,
166
550542
4059
لأن هذه التقنيات يتم تغذيتها على بيانات فاسدة،
09:14
they're not objective,
167
554625
1434
فهم ليسوا موضوعيين،
09:16
and their outcomes are only amplifying and perpetrating
168
556083
4518
ونتائجها فقط تضخيم
09:20
police bias and error.
169
560625
1625
لتحيز الشرطة والخطأ.
09:25
So I think we are faced with a fundamental problem
170
565167
3142
لذلك أعتقد أننا نواجه مشكلة أساسية
09:28
in our society.
171
568333
1643
في مجتمعنا.
09:30
We are starting to trust technologies when it comes to profiling human beings.
172
570000
4792
بدأنا نثق في التقنيات عندما يتعلق الأمر بتوصيف البشر.
09:35
We know that in profiling humans,
173
575750
2518
نحن نعلم أنه في توصيف البشر،
09:38
these technologies are always going to be biased
174
578292
2809
هذه التقنيات دائماً منحازة
09:41
and are never really going to be accurate.
175
581125
2726
ولن تكون دقيقة أبداً.
09:43
So what we need now is actually political solution.
176
583875
2934
لذا ما نحتاجه الآن هو في الواقع حل سياسي.
09:46
We need governments to recognize that our data rights are our human rights.
177
586833
4709
نحتاج أن تعترف الحكومات أن حقوق البيانات الخاصة بنا هي حقوقنا الإنسانية.
09:52
(Applause and cheers)
178
592292
4083
(تصفيق وهتاف)
09:59
Until this happens, we cannot hope for a more just future.
179
599833
4084
حتى يحدث هذا، لا يمكننا أن نأمل في مستقبل أكثر عدلاً.
10:04
I worry that my daughters are going to be exposed
180
604750
2726
أخشى أن بناتي سوف يتعرضن
10:07
to all sorts of algorithmic discrimination and error.
181
607500
3726
لجميع أنواع خوارزميات التمييز والخطأ.
10:11
You see the difference between me and my daughters
182
611250
2393
ترون الفرق بيني وبين بناتي
10:13
is that there's no public record out there of my childhood.
183
613667
3184
هو أنه لا يوجد سجل عام لطفولتي.
10:16
There's certainly no database of all the stupid things that I've done
184
616875
4018
بالتأكيد لا توجد قاعدة بيانات لجميع الأشياء المتهورة التي قمت بها
10:20
and thought when I was a teenager.
185
620917
2142
وفكرت فيها عندما كنت مراهقة.
10:23
(Laughter)
186
623083
1500
(ضحك)
10:25
But for my daughters this may be different.
187
625833
2750
لكن هذا ربما مختلف لبناتي.
10:29
The data that is being collected from them today
188
629292
3184
البيانات التي يتم جمعها منهن اليوم
10:32
may be used to judge them in the future
189
632500
3809
يمكن استخدامها للحكم عليهن في المستقبل
10:36
and can come to prevent their hopes and dreams.
190
636333
2959
ويمكن أن تحول دون تحقيق آمالهن وأحلامهن.
10:40
I think that's it's time.
191
640583
1518
أعتقد أنه حان الوقت.
10:42
It's time that we all step up.
192
642125
1434
حان الوقت لكي نتحرك جميعاً.
10:43
It's time that we start working together
193
643583
2476
حان الوقت لنبدأ العمل معاً
10:46
as individuals,
194
646083
1435
كأفراد،
10:47
as organizations and as institutions,
195
647542
2517
كمنظمات وكمؤسسات،
10:50
and that we demand greater data justice for us
196
650083
3101
نطالب بقدر أكبر من عدالة البيانات لنا
10:53
and for our children
197
653208
1393
ولأطفالنا
10:54
before it's too late.
198
654625
1518
قبل فوات الأوان.
10:56
Thank you.
199
656167
1267
شكراً لكم.
10:57
(Applause)
200
657458
1417
(تصفيق)
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7