What tech companies know about your kids | Veronica Barassi

84,501 views ・ 2020-07-03

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

00:00
Transcriber: Leslie Gauthier Reviewer: Joanna Pietrulewicz
0
0
7000
Translator: Mohammad Badsar Reviewer: Masoud Motamedifar
00:12
Every day, every week,
1
12792
2267
هر روز، هر هفته،
00:15
we agree to terms and conditions.
2
15083
2185
ما با شرایط و مواد قراردادها موافقت می‌کنیم.
00:17
And when we do this,
3
17292
1476
و هنگامی که این کار را می‌کنیم،
00:18
we provide companies with the lawful right
4
18792
2476
به شرکت‌ها به لحاظ قانونی حق می‌دهیم
00:21
to do whatever they want with our data
5
21292
3684
تا هر چه می‌خواهند با داده‌های ما
00:25
and with the data of our children.
6
25000
2375
و داده‌های فرزندانمان انجام دهند.
00:28
Which makes us wonder:
7
28792
2976
که موجب تعجب است:
00:31
how much data are we giving away of children,
8
31792
2892
چه مقدار از اطلاعات فرزندان را ما در اختیار دیگران می‌گذاریم،
00:34
and what are its implications?
9
34708
2000
و عواقب آن چیست؟
00:38
I'm an anthropologist,
10
38500
1393
من یک انسان‌شناس هستم،
00:39
and I'm also the mother of two little girls.
11
39917
2601
و همچنین مادر دو دختر کوچک.
00:42
And I started to become interested in this question in 2015
12
42542
4476
و من از سال ۲۰۱۵ به این سوال علاقمند شدم
00:47
when I suddenly realized that there were vast --
13
47042
2726
زمانی که ناگهان دریافتم که تقریباً اطلاعات
00:49
almost unimaginable amounts of data traces
14
49792
3017
بسیار گسترده و غیرقابل تصوری
00:52
that are being produced and collected about children.
15
52833
3167
دارد در مورد کودکان تولید و جمع‌آوری می‌شود.
00:56
So I launched a research project,
16
56792
1976
بنابراین یک پروژه تحقیقاتی را آغاز کردم،
00:58
which is called Child Data Citizen,
17
58792
2476
که «شهروند داده‌های کودک» نام دارد،
01:01
and I aimed at filling in the blank.
18
61292
2125
و قصد داشتم این جای خالی را پر کنم.
01:04
Now you may think that I'm here to blame you
19
64583
3018
حالا ممکن است فکر کنید قصد دارم شما را مقصر بدانم
01:07
for posting photos of your children on social media,
20
67625
2768
برای اینکه عکس فرزندان‌تان را در فضای مجازی می‌گذارید،
01:10
but that's not really the point.
21
70417
2142
اما واقعاً بحث من این نیست.
01:12
The problem is way bigger than so-called "sharenting."
22
72583
3417
مسئله بسیار بزرگتر از چیزی به نام «دراختیارگذاری اطلاعات و تصاویر کودک» است.
01:16
This is about systems, not individuals.
23
76792
4101
این موضوع در مورد نظام است نه افراد.
01:20
You and your habits are not to blame.
24
80917
2291
قرار نیست شما و عادات‌تان را مقصر بدانیم.
01:24
For the very first time in history,
25
84833
2851
برای اولین بار در تاریخ،
01:27
we are tracking the individual data of children
26
87708
2560
ما داریم داده‌های انفرادی کودکان را ردیابی می‌کنیم
01:30
from long before they're born --
27
90292
1767
آن هم مدت‌ها قبل از تولد--
01:32
sometimes from the moment of conception,
28
92083
2685
گاهی از لحظه تصمیم‌گیری برای حاملگی،
01:34
and then throughout their lives.
29
94792
2351
و سپس در طول حیاتشان.
01:37
You see, when parents decide to conceive,
30
97167
3101
می‌بینید، زمانی که والدین تصمیم به فرزندآوری می‌گیرند،
01:40
they go online to look for "ways to get pregnant,"
31
100292
2976
به اینترنت مراجعه می‌کنند تا «روش‌های باردار شدن» را جستجو کنند،
01:43
or they download ovulation-tracking apps.
32
103292
2750
یا اپلیکیشن‌های ردیابی تخمک‌گذاری را دانلود می‌کنند.
01:47
When they do get pregnant,
33
107250
2601
هنگامی که باردار می‌شوند،
01:49
they post ultrasounds of their babies on social media,
34
109875
3143
فرا‌صوت رادیویی نوزادشان را در فضای مجازی می‌فرستند،
01:53
they download pregnancy apps
35
113042
2017
اپلیکیشن‌های حاملگی را دانلود می‌کنند
01:55
or they consult Dr. Google for all sorts of things,
36
115083
3726
یا در مورد همه چیز با دکتر گوگل مشورت می‌کنند،
01:58
like, you know --
37
118833
1518
می‌دانید، مثل --
02:00
for "miscarriage risk when flying"
38
120375
2559
«خطر سقط جنین هنگام پرواز با هواپیما»
02:02
or "abdominal cramps in early pregnancy."
39
122958
2768
یا «گرفتگی عضلات شکم در ابتدای بارداری.»
02:05
I know because I've done it --
40
125750
1809
می‌دانم چون خودم این کار را کرده‌ام --
02:07
and many times.
41
127583
1625
و دفعات بسیار.
02:10
And then, when the baby is born, they track every nap,
42
130458
2810
و هنگامی که نوزاد متولد می‌شود همه چیز را ردیابی می‌کنند
02:13
every feed,
43
133292
1267
هر چُرت، هر غذا دادن،
02:14
every life event on different technologies.
44
134583
2584
هر رویداد حیاتی را با فناوری‌های مختلف پیگیری می‌کنند.
02:18
And all of these technologies
45
138083
1476
همه این فناوری‌ها
02:19
transform the baby's most intimate behavioral and health data into profit
46
139583
6143
خصوصی‌ترین رفتار و داده‌های سلامت کودک را به سود تبدیل می‌کنند
02:25
by sharing it with others.
47
145750
1792
تنها با به اشتراک گذاری آن با دیگران.
02:28
So to give you an idea of how this works,
48
148583
2143
برای اینکه به شما بفهمانم چطور عمل می‌کند،
02:30
in 2019, the British Medical Journal published research that showed
49
150750
5184
در سال ۲۰۱۹، بریتیش مدیکال ژورنال پژوهشی منتشر کرد که نشان می‌داد
02:35
that out of 24 mobile health apps,
50
155958
3643
از هر ۲۴ اپلیکیشن حوزه سلامت،
02:39
19 shared information with third parties.
51
159625
3458
۱۹ مورد اطلاعات را در اختیار یک گروه ثالث می‌گذارند.
02:44
And these third parties shared information with 216 other organizations.
52
164083
5834
و این گروه‌های ثالث اطلاعات را در اختیار ۲۱۶ سازمان دیگر می‌گذارند.
02:50
Of these 216 other fourth parties,
53
170875
3434
از این ۲۱۶ تا بعنوان گروه چهارم،
02:54
only three belonged to the health sector.
54
174333
3143
فقط سه مورد متعلق به بخش سلامت بودند.
02:57
The other companies that had access to that data were big tech companies
55
177500
4518
دیگر شرکت‌هایی که به این داده‌ها دسترسی داشتند، شرکت‌های بزرگ فناوری بودند
03:02
like Google, Facebook or Oracle,
56
182042
3517
همچون گوگل، فیس‌بوک و اراکل،
03:05
they were digital advertising companies
57
185583
2601
آن‌ها شرکت‌های تبلیغات دیجیتالی بودند
03:08
and there was also a consumer credit reporting agency.
58
188208
4125
و یک مرکز اعتبارسنجی مشتریان هم وجود داشت.
03:13
So you get it right:
59
193125
1434
درست متوجه شدید:
03:14
ad companies and credit agencies may already have data points on little babies.
60
194583
5125
شرکت‌های تبلیغاتی و مراکز اعتبارسنجی احتمالا اطلاعات مربوط به نوزادان را دارند.
03:21
But mobile apps, web searches and social media
61
201125
2768
اما برنامه‌‌های موبایل، جستجوگرهای وب و شبکه‌های اجتماعی
03:23
are really just the tip of the iceberg,
62
203917
3101
تنها قله یک کوه یخ هستند،
03:27
because children are being tracked by multiple technologies
63
207042
2851
چون کودکان دارند توسط فناوری‌‌های چندگانه در هر روز
03:29
in their everyday lives.
64
209917
1726
از زندگی‌شان ردیابی می‌شوند.
03:31
They're tracked by home technologies and virtual assistants in their homes.
65
211667
4142
کودکان توسط فناوری‌های خانگی و دستیاران مجازی در منزل ردیابی می‌شوند.
03:35
They're tracked by educational platforms
66
215833
1976
کودکان توسط محمل‌های آموزشی
03:37
and educational technologies in their schools.
67
217833
2185
و فناوری‌های آموزشی در مدارس‌شان ردیابی می‌شوند.
03:40
They're tracked by online records
68
220042
1601
آن‌ها توسط رکوردهای آنلاین
03:41
and online portals at their doctor's office.
69
221667
3017
و پورتال‌های آنلاین در مطب پزشک ردیابی می‌شوند.
03:44
They're tracked by their internet-connected toys,
70
224708
2351
آن‌ها توسط اسباب‌بازی‌های متصل به اینترنت،
03:47
their online games
71
227083
1310
بازی‌های آنلاین و بسیار،
03:48
and many, many, many, many other technologies.
72
228417
2666
بسیار، بسیار، بسیار فناوری‌های دیگر ردیابی می‌شوند.
03:52
So during my research,
73
232250
1643
بنابراین در طی تحقیقم،
03:53
a lot of parents came up to me and they were like, "So what?
74
233917
4142
بسیاری از والدین پیش من می‌آمدند و می‌گفتند، «حالا که چه؟
03:58
Why does it matter if my children are being tracked?
75
238083
2917
چه اهمیتی دارد که کودکان ردیابی می‌شوند؟ ما چیزی برای
04:02
We've got nothing to hide."
76
242042
1333
04:04
Well, it matters.
77
244958
1500
خوب، این قضیه اهمیت دارد.
04:07
It matters because today individuals are not only being tracked,
78
247083
6018
مهم است چون امروز افراد فقط ردیابی نمی‌شوند،
04:13
they're also being profiled on the basis of their data traces.
79
253125
4101
افراد همچنین بر اساس داده‌ها طبقه‌بندی می‌شوند.
04:17
Artificial intelligence and predictive analytics are being used
80
257250
3809
هوش مصنوعی و تحلیلگرهای پیش‌بینی‌کننده به کار برده می‌شوند
04:21
to harness as much data as possible of an individual life
81
261083
3643
تا در حد ممکن داده‌های زندگی شخصی افراد از منابع مختلف
04:24
from different sources:
82
264750
1851
به خدمت گرفته شود:
04:26
family history, purchasing habits, social media comments.
83
266625
4518
منابعی چون تاریخچه خانوادگی، رفتارهای خرید، پیام‌های شبکه‌های اجتماعی.
04:31
And then they bring this data together
84
271167
1851
سپس این داده‌ها را جمع می‌کنند
04:33
to make data-driven decisions about the individual.
85
273042
2750
تا تصمیمات حاصل از داده‌های افراد اتخاذ شود.
04:36
And these technologies are used everywhere.
86
276792
3434
و این فناوری‌ها همه جا به کار می‌روند.
04:40
Banks use them to decide loans.
87
280250
2393
بانک‌ها برای تصمیم‌گیری در مورد وام‌ها
04:42
Insurance uses them to decide premiums.
88
282667
2375
و بیمه برای محاسبه مزایا از این‌ها استفاده می‌کند.
04:46
Recruiters and employers use them
89
286208
2476
استخدام‌کنندگان و کارگزینان برای اینکه ببینند
04:48
to decide whether one is a good fit for a job or not.
90
288708
2917
کسی برای شغلی مناسب است از اینها استفاده می‌کنند.
04:52
Also the police and courts use them
91
292750
3101
همچنین پلیس و دادگاه‌ها برای تعیین اینکه کسی مجرم بالقوه است
04:55
to determine whether one is a potential criminal
92
295875
3518
یا برای تشخیص احتمال ارتکاب دوباره جرم
04:59
or is likely to recommit a crime.
93
299417
2625
از اینها استفاده می‌کنند.
05:04
We have no knowledge or control
94
304458
4060
ما هیچگونه آگاهی یا کنترلی نداریم
05:08
over the ways in which those who buy, sell and process our data
95
308542
3642
در مورد روشی که داده‌های ما خرید و فروش می‌شود یا فرآیندی
05:12
are profiling us and our children.
96
312208
2709
که ما و فرزندان‌مان را طبقه‌بندی می‌کند.
05:15
But these profiles can come to impact our rights in significant ways.
97
315625
4042
اما این طبقه‌بندی‌ها می‌تواند بر حقوق ما به شکل چشمگیری اثر بگذارد.
05:20
To give you an example,
98
320917
2208
بعنوان مثال،
05:25
in 2018 the "New York Times" published the news
99
325792
4059
در سال ۲۰۱۸ «نیویورک تایمز» خبری منتشر کرد
05:29
that the data that had been gathered
100
329875
1976
که داده‌هایی که از طریق خدمات
05:31
through online college-planning services --
101
331875
3059
برنامه‌ریزی دانشگاهی آنلاین جمع‌آوری شده بود --
05:34
that are actually completed by millions of high school kids across the US
102
334958
4726
که در واقع توسط میلیون‌ها بچه دبیرستانی در سراسر امریکا تکمیل می‌شود
05:39
who are looking for a college program or a scholarship --
103
339708
3643
که در پی یک طرح دانشگاهی یا یک کمک هزینه تحصیلی هستند --
05:43
had been sold to educational data brokers.
104
343375
3042
به دلالان داده‌های آموزشی فروخته شده بود.
05:47
Now, researchers at Fordham who studied educational data brokers
105
347792
5434
اکنون، محققین در فوردهام که دلالان داده‌های آموزشی را مطالعه کرده‌اند
05:53
revealed that these companies profiled kids as young as two
106
353250
5226
فاش کرده‌اند که این شرکت‌ها بچه‌ها را حتی از سنین دو سالگی دسته‌بندی می‌کنند
05:58
on the basis of different categories:
107
358500
3059
بر اساس طبقه‌بندی‌های مختلف:
06:01
ethnicity, religion, affluence,
108
361583
4185
نژاد، مذهب، ثروت،
06:05
social awkwardness
109
365792
2059
ناسازگاری اجتماعی
06:07
and many other random categories.
110
367875
2934
و بسیاری از دیگر طبقه‌بندی‌های تصادفی.
06:10
And then they sell these profiles together with the name of the kid,
111
370833
5018
و سپس این طبقه‌بندی‌ها را با اسم بچه،
06:15
their home address and the contact details
112
375875
2809
آدرس منزل و جزئیات تماس
06:18
to different companies,
113
378708
1851
به شرکت‌های مختلف می‌فروشند،
06:20
including trade and career institutions,
114
380583
2459
شرکت‌هایی شامل موسسات کار و تجارت،
06:24
student loans
115
384083
1268
وام‌های دانشجویی
06:25
and student credit card companies.
116
385375
1750
و شرکت‌های کارت‌های اعتباری دانشجویی.
06:28
To push the boundaries,
117
388542
1351
برای جزئیات بیشتر،
06:29
the researchers at Fordham asked an educational data broker
118
389917
3809
محققان در فوردهام از یک دلال داده آموزشی خواستند
06:33
to provide them with a list of 14-to-15-year-old girls
119
393750
5809
تا لیستی از دختران ۱۴ تا ۱۵ ساله را فراهم کند
06:39
who were interested in family planning services.
120
399583
3375
که به خدمات برنامه‌ریزی خانوادگی علاقه دارند.
06:44
The data broker agreed to provide them the list.
121
404208
2476
دلال داده موافقت کرد که این لیست را به آن‌ها بدهد.
06:46
So imagine how intimate and how intrusive that is for our kids.
122
406708
4875
حالا تصور کنید که این چقدر برای فرزندان‌مان محرمانه و نوعی فضولی است.
06:52
But educational data brokers are really just an example.
123
412833
3976
اما دلال داده‌های آموزشی فقط یک نمونه هستند.
06:56
The truth is that our children are being profiled in ways that we cannot control
124
416833
4685
حقیقت این است که بچه‌های ما به طریقی که توسط ما قابل کنترل نیست، طبقه‌بندی می‌شوند
07:01
but that can significantly impact their chances in life.
125
421542
3416
اما این می‌تواند بطور چشمگیری بختشان در زندگی را تحت تأثیر قرار دهد.
07:06
So we need to ask ourselves:
126
426167
3476
پس نیاز است از خودمان بپرسیم:
07:09
can we trust these technologies when it comes to profiling our children?
127
429667
4684
آیا می‌توانیم به این فناوری‌ها اعتماد کنیم در حالی که کودکان را طبقه‌بندی می‌کنند؟
07:14
Can we?
128
434375
1250
می‌توانیم؟
07:17
My answer is no.
129
437708
1250
پاسخ من خیر است.
07:19
As an anthropologist,
130
439792
1267
بعنوان یک انسان‌شناس
07:21
I believe that artificial intelligence and predictive analytics can be great
131
441083
3768
معتقدم که هوش مصنوعی و تحلیلگران پیش‌بینی کننده می‌توانند خیلی خوب باشند
07:24
to predict the course of a disease
132
444875
2018
برای پیش‌بینی مسیر یک بیماری
07:26
or to fight climate change.
133
446917
1833
یا مبارزه با تغییرات آب و هوایی.
07:30
But we need to abandon the belief
134
450000
1643
اما باید این باور را رها کنیم
07:31
that these technologies can objectively profile humans
135
451667
3684
که این فناوری‌ها می‌توانند بیطرفانه انسان‌ها را طبقه‌بندی کنند
07:35
and that we can rely on them to make data-driven decisions
136
455375
3184
و اینکه می‌توانیم به آن‌ها اعتماد کنیم تا تصمیمات را بر مبنای
07:38
about individual lives.
137
458583
1893
داده‌های زندگی شخصی افراد بگیرند.
07:40
Because they can't profile humans.
138
460500
2559
چون نمی‌توانند انسان‌ها را طبقه‌بندی کنند.
07:43
Data traces are not the mirror of who we are.
139
463083
3351
آثار داده‌ها آیینه‌ای از واقعیت شما نیست.
07:46
Humans think one thing and say the opposite,
140
466458
2101
انسان‌ها جوری فکر می‌کنند اما خلافش را می‌گویند،
07:48
feel one way and act differently.
141
468583
2435
جوری احساس می‌کنند ولی متفاوت عمل می‌کنند.
07:51
Algorithmic predictions or our digital practices
142
471042
2476
پیش‌بینی‌های الگوریتمی یا محاسبات دیجیتال
07:53
cannot account for the unpredictability and complexity of human experience.
143
473542
5166
نمی‌تواند مبنایی منطبق بر غیرقابل پیش‌بینی بودن و پیچیدگی تجربه انسانی باشد.
08:00
But on top of that,
144
480417
1559
اما مهمتر از همه اینکه
08:02
these technologies are always --
145
482000
2684
این فناوری‌ها همیشه --
08:04
always --
146
484708
1268
همیشه --
08:06
in one way or another, biased.
147
486000
1917
به طریقی سوگیری مشخصی دارند.
08:09
You see, algorithms are by definition sets of rules or steps
148
489125
5059
می‌دانیم که الگوریتم‌ها دسته‌ای از قوانین و مراحل هستند
08:14
that have been designed to achieve a specific result, OK?
149
494208
3709
که برای حصول نتیجه مشخصی طراحی شده‌اند، درست؟
08:18
But these sets of rules or steps cannot be objective,
150
498833
2726
اما این دسته‌های قوانین و مراحل نمی‌توانند بیطرف باشند،
08:21
because they've been designed by human beings
151
501583
2143
چون توسط انسان‌ها طراحی شده‌اند
08:23
within a specific cultural context
152
503750
1726
و در یک زمینه فرهنگی خاص
08:25
and are shaped by specific cultural values.
153
505500
2500
و با ارزش‌های فرهنگی خاصی شکل گرفته‌اند.
08:28
So when machines learn,
154
508667
1726
بنابراین وقتی ماشین‌ها یاد می‌گیرند،
08:30
they learn from biased algorithms,
155
510417
2250
از الگوریتم‌های با سوگیری خاصی یاد می‌گیرند،
08:33
and they often learn from biased databases as well.
156
513625
3208
همچنین از پایگاه‌های داده با سوگیری خاص یاد می‌گیرند.
08:37
At the moment, we're seeing the first examples of algorithmic bias.
157
517833
3726
در این لحظه، داریم اولین نمونه سوگیری الگوریتمی را مشاهده می‌کنیم.
08:41
And some of these examples are frankly terrifying.
158
521583
3500
و برخی از این نمونه‌ها واقعاً ترسناک هستند.
08:46
This year, the AI Now Institute in New York published a report
159
526500
4059
امسال، ای‌آی ناو انستیتو در نیویورک گزارشی منتشر کرد
08:50
that revealed that the AI technologies
160
530583
2393
که فاش می‌کرد فناوری‌های هوش مصنوعی
08:53
that are being used for predictive policing
161
533000
3476
که برای نظارت پلیسی پیشگویانه مورد استفاده هستند
08:56
have been trained on "dirty" data.
162
536500
3125
با داده‌های «کثیف» آموزش دیده‌اند.
09:00
This is basically data that had been gathered
163
540333
2893
یعنی اطلاعاتی که اساساً
09:03
during historical periods of known racial bias
164
543250
4184
از زمان تاریخی تعصبات نژادی
09:07
and nontransparent police practices.
165
547458
2250
و اعمال پلیسی غیرشفاف جمع‌آوری شده‌اند.
09:10
Because these technologies are being trained with dirty data,
166
550542
4059
چون این فناوری‌ها با داد‌های «کثیف» آموزش می‌بینند،
09:14
they're not objective,
167
554625
1434
بیطرف نیستند،
09:16
and their outcomes are only amplifying and perpetrating
168
556083
4518
و خروجی آن‌ها فقط موجب تقویت و ارتکاب
09:20
police bias and error.
169
560625
1625
تبعیض و خطای پلیسی می‌شود.
09:25
So I think we are faced with a fundamental problem
170
565167
3142
بنابراین فکر می‌کنم با یک مشکل اساسی در جامعه
09:28
in our society.
171
568333
1643
روبرو هستیم.
09:30
We are starting to trust technologies when it comes to profiling human beings.
172
570000
4792
ما داریم به فناوری‌هایی اعتماد می‌کنیم که انسان‌ها را طبقه‌بندی می‌کنند.
09:35
We know that in profiling humans,
173
575750
2518
می‌دانیم که در طبقه‌بندی انسان‌ها،
09:38
these technologies are always going to be biased
174
578292
2809
این فناوری‌ها همواره سوگیری خاصی دارند
09:41
and are never really going to be accurate.
175
581125
2726
و هرگز نمی‌توانند صحیح باشند.
09:43
So what we need now is actually political solution.
176
583875
2934
بنابراین واقعاً به راه حل سیاسی نیاز داریم.
09:46
We need governments to recognize that our data rights are our human rights.
177
586833
4709
دولت‌ها باید بدانند که داده‌های ما جزء حقوق انسانی ماست.
09:52
(Applause and cheers)
178
592292
4083
(تشویق و هورا)
09:59
Until this happens, we cannot hope for a more just future.
179
599833
4084
تا زمانی که این محقق نشود نمی‌توانیم منتظر آینده عادلانه‌تری باشیم.
10:04
I worry that my daughters are going to be exposed
180
604750
2726
نگرانم که دخترانم در معرض
10:07
to all sorts of algorithmic discrimination and error.
181
607500
3726
تمام این خطاها و تبعیضات الگوریتمی قرار بگیرند.
10:11
You see the difference between me and my daughters
182
611250
2393
می‌دانید تفاوت من و دخترانم
10:13
is that there's no public record out there of my childhood.
183
613667
3184
این است که هیچ پرونده عمومی از دوران کودکی من وجود ندارد.
10:16
There's certainly no database of all the stupid things that I've done
184
616875
4018
مشخصاً هیچ پایگاه داده‌ای از تمام کارها و افکار احمقانه‌ام
10:20
and thought when I was a teenager.
185
620917
2142
در زمان نوجوانی وجود ندارد.
10:23
(Laughter)
186
623083
1500
(خنده)
10:25
But for my daughters this may be different.
187
625833
2750
اما در مورد دخترانم قضیه متفاوت است.
10:29
The data that is being collected from them today
188
629292
3184
داده‌هایی که امروز در مورد آن‌ها جمع‌آوری می‌شود
10:32
may be used to judge them in the future
189
632500
3809
می‌تواند برای قضاوت در مورد آن‌ها در آینده به کار گرفته شود
10:36
and can come to prevent their hopes and dreams.
190
636333
2959
و می‌تواند امیدها و رویاهای‌شان را سرکوب کند.
10:40
I think that's it's time.
191
640583
1518
فکر می‌کنم وقتش است.
10:42
It's time that we all step up.
192
642125
1434
وقت آن است که قیام کنیم.
10:43
It's time that we start working together
193
643583
2476
وقت آن است که تک تک ما با هم همکاری کنیم،
10:46
as individuals,
194
646083
1435
بعنوان افراد،
10:47
as organizations and as institutions,
195
647542
2517
بعنوان سازمان‌ها و بعنوان موسسات،
10:50
and that we demand greater data justice for us
196
650083
3101
و تقاضا کنیم که عدالت داده‌ای بیشتری برای خودمان و برای
10:53
and for our children
197
653208
1393
فرزندان‌مان وجود داشته باشد
10:54
before it's too late.
198
654625
1518
قبل از اینکه خیلی دیر شود.
10:56
Thank you.
199
656167
1267
متشکرم،
10:57
(Applause)
200
657458
1417
(تشویق)
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7