Dear Facebook, this is how you're breaking democracy | Yael Eisenstat

114,945 views ・ 2020-09-24

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: elham zeinodini Reviewer: Masoud Motamedifar
00:13
Around five years ago,
0
13000
2018
تقریبا پنج سال قبل،
00:15
it struck me that I was losing the ability
1
15042
2392
متوجه شدم که توانایی
00:17
to engage with people who aren't like-minded.
2
17458
2500
برقراری ارتباط با کسانی که با من هم‌فکرنیستند ندارم.
00:20
The idea of discussing hot-button issues with my fellow Americans
3
20917
3642
ایده‌ی بحث در مورد موضوعات جنجالی با دوستان آمریکایی‌ام
00:24
was starting to give me more heartburn
4
24583
2393
به من احساس ناراحتی بیشتری
00:27
than the times that I engaged with suspected extremists overseas.
5
27000
4125
نسبت به اوقاتی که با افراطی‌های مشکوک خارجی در ارتباط بودم می‌داد.
00:31
It was starting to leave me feeling more embittered and frustrated.
6
31750
3601
به من حس ناخشنودی و درماندگی می‌داد.
00:35
And so just like that,
7
35375
1434
و به همین شکل،
00:36
I shifted my entire focus
8
36833
1810
تمامی تمرکزم را
00:38
from global national security threats
9
38667
2434
از تهدیدهای امنیت ملی جهانی
00:41
to trying to understand what was causing this push
10
41125
3226
به تلاش برای فهمیدن علت این فشار
00:44
towards extreme polarization at home.
11
44375
3226
به سمت دوگانگی مفرط در خانه تغییر دادم.
00:47
As a former CIA officer and diplomat
12
47625
2351
به عنوان یک افسر سابق سی آی ای و دیپلماتی که
00:50
who spent years working on counterextremism issues,
13
50000
3434
سال‌ها بر روی مسائل مقابله با افراطی گرایی کار کردم،
00:53
I started to fear that this was becoming a far greater threat to our democracy
14
53458
3851
ترسیدم که این مسئله در حال تبدیل به تهدیدی بسیار بزرگ‌تر
00:57
than any foreign adversary.
15
57333
2518
از هر دشمن خارجی برای دموکراسی‌مان باشد.
00:59
And so I started digging in,
16
59875
1809
بنابراین شروع به تحقیق کردم،
01:01
and I started speaking out,
17
61708
1518
و عقایدم را بیان کردم،
01:03
which eventually led me to being hired at Facebook
18
63250
2809
که سرانجام مرا به استخدام شدن در فیس بوک
01:06
and ultimately brought me here today
19
66083
2685
و در نهایت به امروز و اینجا رساند
01:08
to continue warning you about how these platforms
20
68792
2809
تا به شما درباره اینکه چگونه این شبکه‌ها
01:11
are manipulating and radicalizing so many of us
21
71625
4018
در حال سوء استفاده و افراطی کردن بسیاری از ما هستند هشدار دهم
01:15
and to talk about how to reclaim our public square.
22
75667
2958
و درباره چگونگی بازپس‌گیری افکار عمومی‌مان صحبت کنم.
01:19
I was a foreign service officer in Kenya
23
79625
1976
من یک افسر خدمات خارجی در کنیا بودم
01:21
just a few years after the September 11 attacks,
24
81625
3059
تنها چند سال پس از حملات ۱۱ سپتامبر،
01:24
and I led what some call "hearts and minds" campaigns
25
84708
2560
و کمپینی که برخی آن را «قلب‌ها و ذهن‌ها» می‌نامیدند
01:27
along the Somalia border.
26
87292
1934
در امتداد مرز سومالی هدایت می‌کردم.
01:29
A big part of my job was to build trust with communities
27
89250
3309
قسمت بزرگی از شغل من ایجاد اعتماد در جوامعی که
01:32
deemed the most susceptible to extremist messaging.
28
92583
2709
که حساس‌ترین قسمت برای پیام‌های افراطی تلقی می‌شدند بود.
01:36
I spent hours drinking tea with outspoken anti-Western clerics
29
96125
4184
ساعاتی را با نوشیدن چای با روحانیون صریح ضد-غربی صرف می‌کردم
01:40
and even dialogued with some suspected terrorists,
30
100333
3226
و حتی با برخی تروریست‌های مشکوک گفتگو کردم،
01:43
and while many of these engagements began with mutual suspicion,
31
103583
3393
وبا اینکه بسیاری از این تعاملات با سوءظن مشترک آغاز شد،
01:47
I don't recall any of them resulting in shouting or insults,
32
107000
3809
به یاد نمی‌آورم که هیچ کدام از آن‌ها منجر به فریاد یا توهین شده باشد،
01:50
and in some case we even worked together on areas of mutual interest.
33
110833
4084
وحتی در برخی موارد در کنار هم بر روی علایق مشترک کار کردیم.
01:56
The most powerful tools we had were to simply listen, learn
34
116000
4143
نیرومندترین ابزاری که داشتیم صرفا گوش دادن، آموختن
02:00
and build empathy.
35
120167
1726
و ایجاد همدردی بود.
02:01
This is the essence of hearts and minds work,
36
121917
3059
این اساس کار قلب‌ها و ذهن‌هاست،
02:05
because what I found again and again is that what most people wanted
37
125000
3268
زیرا چیزی که بارها آن را یافتم این بود که بیشتر مردم
02:08
was to feel heard, validated and respected.
38
128292
3767
می‌خواهند حس کنند که شنیده شده‌اند، تایید شده‌اند و محترم شمرده می‌شوند.
02:12
And I believe that's what most of us want.
39
132083
2643
و معتقدم این چیزی است که اکثر ما خواستار آن هستیم.
02:14
So what I see happening online today is especially heartbreaking
40
134750
3309
مشاهده آنچه که امروز در فضای آنلاین اتفاق می افتد بسیار دلخراش است
02:18
and a much harder problem to tackle.
41
138083
2084
و حل کردن آن یک مسئله دشوارتر است.
02:20
We are being manipulated by the current information ecosystem
42
140917
3767
ما توسط اکوسیستم اطلاعات موجود تحت تاثیر قرار داده می‌شویم
02:24
entrenching so many of us so far into absolutism
43
144708
3768
که بسیاری از ما را به حدی در استبداد و دیکتاتوری محصور کرده
02:28
that compromise has become a dirty word.
44
148500
2976
که سازش به کلمه‌ای کثیف تبدیل شده است.
02:31
Because right now,
45
151500
1309
چرا که هم‌اکنون،
02:32
social media companies like Facebook
46
152833
2143
شرکت‌های شبکه‌های اجتماعی مثل فیس بوک
02:35
profit off of segmenting us and feeding us personalized content
47
155000
3851
با دسته‌بندی و رساندن محتویات شخصی‌سازی شده به ما سود می‌برند
02:38
that both validates and exploits our biases.
48
158875
3851
که جهت‌گیری‌هایمان را معتبر و مخدوش می‌کند.
02:42
Their bottom line depends on provoking a strong emotion
49
162750
3434
هدف نهایی آن‌ها به برانگیختن یک احساس قدرتمند بستگی دارد
02:46
to keep us engaged,
50
166208
1685
که ما را سرگرم نگه دارد،
02:47
often incentivizing the most inflammatory and polarizing voices,
51
167917
4267
اغلب مشوق آشوب انگیزترین و متضادترین نظرات‌مان هستند،
02:52
to the point where finding common ground no longer feels possible.
52
172208
4435
تا جایی که یافتن نقاط مشترک امکان پذیر نباشد.
02:56
And despite a growing chorus of people crying out for the platforms to change,
53
176667
4226
و علی رغم وجود گروه‌های در حال رشد مردم که به شدت خواستار تغییر این رسانه‌ها هستند
03:00
it's clear they will not do enough on their own.
54
180917
3309
واضح است که آن‌ها به تنهایی کاری از پیش نخواهند برد.
03:04
So governments must define the responsibility
55
184250
2893
بنابراین دولت باید مسئولیت‌هایی
03:07
for the real-world harms being caused by these business models
56
187167
3809
برای صدمات وارده بر دنیای واقعی توسط این مدل‌های تجاری مشخص کند
03:11
and impose real costs on the damaging effects
57
191000
2768
و هزینه‌های واقعی برای آثار مخربی که
03:13
they're having to our public health, our public square and our democracy.
58
193792
5309
آن‌ها بر روی سلامت اجتماعی، افکار عمومی و مردم سالاری‌مان تحمیل کند.
03:19
But unfortunately, this won't happen in time for the US presidential election,
59
199125
4643
اما متاسفانه، این موضوع در زمان انتخابات ریاست جمهوری آمریکا اتفاق نمی‌افتد،
03:23
so I am continuing to raise this alarm,
60
203792
2767
بنابراین به هشدار دادن ادامه می‌دهم،
03:26
because even if one day we do have strong rules in place,
61
206583
3060
چون حتی اگر روزی قوانین قدرتمندی به جای قوانین فعلی داشته باشیم،
03:29
it will take all of us to fix this.
62
209667
2750
به همه ما برای حل این موضوع نیاز است.
03:33
When I started shifting my focus from threats abroad
63
213417
2601
وقتی تغییر تمرکز خود را از تهدیدهای خارجی
03:36
to the breakdown in civil discourse at home,
64
216042
2142
به اختلال گفتگوی مدنی در خانه آغاز کردم،
03:38
I wondered if we could repurpose some of these hearts and minds campaigns
65
218208
4060
فکر کردم آیا می‌توانیم برخی از این کمپین‌های قلب‌ها و ذهن‌ها را به منظور
03:42
to help heal our divides.
66
222292
2101
حل اختلافاتمان مجددا هدف گذاری کنیم.
03:44
Our more than 200-year experiment with democracy works
67
224417
3809
تجربه بیش از ۲۰۰ ساله ما در زمینه مردم سالاری
03:48
in large part because we are able to openly and passionately
68
228250
3893
تا حد زیادی نتیجه بخش است چرا که ما آماده‌ایم تا با صراحت و اشتیاق
03:52
debate our ideas for the best solutions.
69
232167
2809
در مورد ایده‌هایمان برای رسیدن به بهترین راه حل بحث کنیم.
03:55
But while I still deeply believe
70
235000
1809
اما با اینکه من عمیقا به
03:56
in the power of face-to-face civil discourse,
71
236833
2268
قدرت گفتمان مدنی رو در رو معتقدم،
03:59
it just cannot compete
72
239125
1643
ولی در حال حاضر توانایی رقابت با
04:00
with the polarizing effects and scale of social media right now.
73
240792
3809
اثرات متضاد و صعود رسانه های اجتماعی را ندارد.
04:04
The people who are sucked down these rabbit holes
74
244625
2351
افرادی که به دام این لانه‌های خرگوش
04:07
of social media outrage
75
247000
1309
خشم شبکه‌های اجتماعی
04:08
often feel far harder to break of their ideological mindsets
76
248333
3643
می‌افتند اغلب دشواری بیشتری در تغییر نگرش ایدئولوژیک خود
04:12
than those vulnerable communities I worked with ever were.
77
252000
3476
نسبت به جوامع آسیب پذیری که تا به حال با آن‌ها کار کردم احساس می‌کنند.
04:15
So when Facebook called me in 2018
78
255500
2309
بنابراین وقتی فیس بوک در سال ۲۰۱۸ با من تماس گرفت
04:17
and offered me this role
79
257833
1310
و به من وظیفه‌ی
04:19
heading its elections integrity operations for political advertising,
80
259167
3976
هدایت عملیات مربوط به سلامت انتخابات خود برای تبلیغات سیاسی را پیشنهاد داد،
04:23
I felt I had to say yes.
81
263167
2017
حس کردم که باید قبول کنم.
04:25
I had no illusions that I would fix it all,
82
265208
2726
این توهم را نداشتم که همه چیز را درست می‌کنم،
04:27
but when offered the opportunity
83
267958
1643
اما وقتی فرصتی فراهم شد
04:29
to help steer the ship in a better direction,
84
269625
2184
برای کمک به هدایت کشتی به سمت و سویی بهتر
04:31
I had to at least try.
85
271833
1542
حداقل باید سعی می‌کردم.
04:34
I didn't work directly on polarization,
86
274667
2267
من به طور مستقیم روی تضاد و دوگانگی کار نکردم،
04:36
but I did look at which issues were the most divisive in our society
87
276958
4435
اما نفاق‌انگیزترین مسائل موجود در جامعه‌مان
04:41
and therefore the most exploitable in elections interference efforts,
88
281417
3809
و طبعاً پرنفوذترین عوامل در تلاش‌های دخالت در انتخابات را بررسی کردم،
04:45
which was Russia's tactic ahead of 2016.
89
285250
2583
که تاکتیک روسیه پیش از سال ۲۰۱۶ بود.
04:48
So I started by asking questions.
90
288583
2351
بنابراین من کار را با پرسیدن سوالات آغاز کردم.
04:50
I wanted to understand the underlying systemic issues
91
290958
2893
می‌خواستم درباره موضوعات اساسی سیستمی
04:53
that were allowing all of this to happen,
92
293875
2434
که اجازه رخداد این اتفاقات را ‌می‌داد را بفهمم.
04:56
in order to figure out how to fix it.
93
296333
2084
تا راهی برای برطرف کردنشان پیدا کنم.
04:59
Now I still do believe in the power of the internet
94
299625
2559
من همچنان به قدرت اینترنت
05:02
to bring more voices to the table,
95
302208
2518
برای فراهم سازی صداهای بیشتردر صحنه باور دارم،
05:04
but despite their stated goal of building community,
96
304750
3101
اما علی رغم هدف بیان شده آن‌ها برای تشکیل جوامع،
05:07
the largest social media companies as currently constructed
97
307875
3309
بزرگترین کمپانی‌های شبکه‌های اجتماعی که اخیرا ساخته شده‌‌اند
05:11
are antithetical to the concept of reasoned discourse.
98
311208
3601
مخالف مفهوم گفتمان منطقی هستند.
05:14
There's no way to reward listening,
99
314833
2518
هیچ راهی برای پاداش دادن به گوش دادن،
05:17
to encourage civil debate
100
317375
1601
برای تشویق بحث مدنی
05:19
and to protect people who sincerely want to ask questions
101
319000
3643
و محافظت از مردمی که می‌خواهند محترمانه سوالاتی بپرسند وجود ندارد
05:22
in a business where optimizing engagement and user growth
102
322667
3351
در تجارتی که بهینه سازی مشارکت و افزایش کاربر
05:26
are the two most important metrics for success.
103
326042
3226
دو معیار مهم برای موفقیت است.
05:29
There's no incentive to help people slow down,
104
329292
3434
هیچ انگیزه‌ای برای کمک به آرام کردن مردم وجود ندارد،
05:32
to build in enough friction that people have to stop,
105
332750
3226
برای ساختن اصطکاک کافی که مردم مجبور به توقف شوند،
05:36
recognize their emotional reaction to something,
106
336000
2601
عکس‌العمل احساسی خود به چیزی را بشناسند،
05:38
and question their own assumptions before engaging.
107
338625
2667
و پیش از درگیر شدن فرضیات خودشان را زیر سوال ببرند.
05:42
The unfortunate reality is:
108
342625
1976
واقعیت ناخوشایند این است:
05:44
lies are more engaging online than truth,
109
344625
2893
در فضای آنلاین دروغ‌ از حقیقت جذاب‌تر است.
05:47
and salaciousness beats out wonky, fact-based reasoning
110
347542
3726
و وقاحت استدلال بی‌ثبات و مبتنی بر حقایق را شکست می‌دهد
05:51
in a world optimized for frictionless virality.
111
351292
3041
در جهانی که برای گسترش بدون دردسر بهینه شده.
05:55
As long as algorithms' goals are to keep us engaged,
112
355167
3434
تا زمانی که هدف الگوریتم‌ها سرگرم نگه‌ داشتن ما باشد،
05:58
they will continue to feed us the poison that plays to our worst instincts
113
358625
4059
آن‌ها سمی را به خورد ما می‌دهند که از بدترین غرایزمان سوء استفاده می‌کند
06:02
and human weaknesses.
114
362708
1459
و ضعفهای بشری.
06:04
And yes, anger, mistrust,
115
364958
3018
و بله، خشم، بی‌اعتمادی،
06:08
the culture of fear, hatred:
116
368000
1726
فرهنگ ترس، نفرت:
06:09
none of this is new in America.
117
369750
2851
هیج یک از این‌ها در آمریکا جدید نیست.
06:12
But in recent years, social media has harnessed all of that
118
372625
3351
اما در سال‎های اخیر، رسانه‌های اجتماعی همه این‌ها را کنترل کرده
06:16
and, as I see it, dramatically tipped the scales.
119
376000
3601
و به نظر من، به طور چشم‌گیری تعادل را به هم زده است.
06:19
And Facebook knows it.
120
379625
2393
و فیس بوک این موضوع را می‌داند.
06:22
A recent "Wall Street Journal" article
121
382042
1892
مقاله اخیر «وال استریت ژورنال»
06:23
exposed an internal Facebook presentation from 2018
122
383958
4143
ارائه‌ای داخلی ازفیس بوک در سال ۲۰۱۸ را منتشر کرد
06:28
that specifically points to the companies' own algorithms
123
388125
3768
که به ویژه به الگوریتم‌های خود کمپانی اشاره می‌کند
06:31
for growing extremist groups' presence on their platform
124
391917
3517
در پی افزایش حضور گروه‌های افراطی در شبکه‌هایشان
06:35
and for polarizing their users.
125
395458
2167
و برای ایجاد دودستگی بین کاربرانشان.
06:38
But keeping us engaged is how they make their money.
126
398708
3685
اما آن‌ها با سرگرم کردن ما درآمد کسب می‌‌کنند.
06:42
The modern information environment is crystallized around profiling us
127
402417
4226
محیط اطلاعاتی مدرن پیرامون مشخصات ما شکل گرفته
06:46
and then segmenting us into more and more narrow categories
128
406667
2976
و سپس ما را به دسته‌بندی‌های کوچک‌تر تقسیم بندی می‌کند
06:49
to perfect this personalization process.
129
409667
3309
تا فرایند شخصی سازی تکمیل شود.
06:53
We're then bombarded with information confirming our views,
130
413000
3809
سپس با اطلاعاتی که مطابق نظرمان هستند بمباران می‌شویم.
06:56
reinforcing our biases,
131
416833
1851
جهت‌گیری‌هایمان را تقویت می‌کنند،
06:58
and making us feel like we belong to something.
132
418708
3518
و به ما این حس را القا می‌کنند که ما به چیزی تعلق داریم.
07:02
These are the same tactics we would see terrorist recruiters
133
422250
3393
این‌ها همان روش‌‌هایی است که به کار گیرندگان تروریست
07:05
using on vulnerable youth,
134
425667
2184
روی جوانان آسیب پذیر به کار می‌برند،
07:07
albeit in smaller, more localized ways before social media,
135
427875
3851
هرچند با روش‌هایی کوچک‌تر و بومی‌تر قبل از رسانه‌های اجتماعی،
07:11
with the ultimate goal of persuading their behavior.
136
431750
3268
با هدف نهایی پیش‌برد رفتارشان.
07:15
Unfortunately, I was never empowered by Facebook to have an actual impact.
137
435042
5267
متاسفانه، هیچ‌گاه توسط فیس بوک به من قدرتی داده نشد تا تاثیری حقیقی بر جای بگذارم.
07:20
In fact, on my second day, my title and job description were changed
138
440333
3768
در واقع، در روز دومم، عنوان و شرح وظایفم تغییر کرد
07:24
and I was cut out of decision-making meetings.
139
444125
2976
و از جلسات تصمیم‌ گیری کنار گذاشته شدم.
07:27
My biggest efforts,
140
447125
1309
بزرگترین کوشش من ،
07:28
trying to build plans
141
448458
1393
تلاش برای ایجاد استراتژی‌هایی
07:29
to combat disinformation and voter suppression in political ads,
142
449875
3601
برای مبارزه با اطلاعات نادرست و سرکوب رای دهندگان در تبلیغات سیاسی،
07:33
were rejected.
143
453500
1559
طرد شد.
07:35
And so I lasted just shy of six months.
144
455083
2500
و بنابراین من فقط حدود شش ماه در فیس بوک دوام آوردم.
07:38
But here is my biggest takeaway from my time there.
145
458125
3601
اما بزرگترین نکته از زمان حضورم در آن‌جا این است.
07:41
There are thousands of people at Facebook
146
461750
2476
هزاران نفر در فیس بوک حضور دارند
07:44
who are passionately working on a product
147
464250
2018
که مشتاقانه روی محصولی
07:46
that they truly believe makes the world a better place,
148
466292
3684
که واقعا ایمان دارند دنیا را به مکان بهتری تبدیل می‌کند کار می‌کنند،
07:50
but as long as the company continues to merely tinker around the margins
149
470000
3684
اما تا زمانی که این شرکت صرفاً در حاشیه
07:53
of content policy and moderation,
150
473708
2726
سیاست‌های محتوا و متعادل سازی به کار خود ادامه دهد،
07:56
as opposed to considering
151
476458
1310
به جای در نظر گرفتن
07:57
how the entire machine is designed and monetized,
152
477792
3226
نحوه طراحی و درآمدزایی سیستم،
08:01
they will never truly address how the platform is contributing
153
481042
3351
هرگز چگونگی مشارکت این رسانه در اشاعه
08:04
to hatred, division and radicalization.
154
484417
4184
نفرت، تفرقه و افراطی گرایی را کاملا حل نخواهند کرد.
08:08
And that's the one conversation I never heard happen during my time there,
155
488625
4268
و این مکالمه‌ای است که در طی حضورم در آن‌ جا اتفاق نیفتاد،
08:12
because that would require fundamentally accepting
156
492917
3059
چرا که این امر نیازمند پذیرش اساسی
08:16
that the thing you built might not be the best thing for society
157
496000
4143
اینکه چیزی که ساخته‌اید ممکن است برای جامعه بهترین نبوده
08:20
and agreeing to alter the entire product and profit model.
158
500167
3125
و موافقت با تغییر کلی محصول و مدل سود آن می‌باشد.
08:24
So what can we do about this?
159
504500
1833
پس در این باره چه می‌توان کرد؟
08:27
I'm not saying that social media bears the sole responsibility
160
507042
3601
نمی‌گویم که تنها رسانه‌های اجتماعی مسئولیت
08:30
for the state that we're in today.
161
510667
2142
دولتی که امروزه در آن هستیم را بر عهده دارند.
08:32
Clearly, we have deep-seated societal issues that we need to solve.
162
512833
5435
واضح است که دارای مسائل اجتماعی ریشه‌داری هستیم که باید رفع شوند.
08:38
But Facebook's response, that it is just a mirror to society,
163
518292
4142
اما پاسخ فیس بوک، که آینه‌ای برای جامعه است ،
08:42
is a convenient attempt to deflect any responsibility
164
522458
3018
تلاشی بی‌دردسر برای شانه خالی کردن از هرگونه مسئولیت پذیری
08:45
from the way their platform is amplifying harmful content
165
525500
4268
درباره تقویت محتوای مضر توسط رسانه‌اشان
08:49
and pushing some users towards extreme views.
166
529792
3041
و فشار آوردن به برخی کاربران برای داشتن دیدگاهی افراطی است.
08:53
And Facebook could, if they wanted to,
167
533583
2851
و فیس بوک اگر می‌خواست، می‌توانست،
08:56
fix some of this.
168
536458
1851
برخی از این موارد را رفع کند.
08:58
They could stop amplifying and recommending the conspiracy theorists,
169
538333
3851
آن‌ها می‌توانند تقویت و توصیه نظریه پردازان توطئه
09:02
the hate groups, the purveyors of disinformation
170
542208
2685
گروه‌های نفرت، تامین‌کنندگان اطلاعات نادرست،
09:04
and, yes, in some cases even our president.
171
544917
3851
و بله، در برخی موارد حتی رئیس جمهورمان را متوقف کنند.
09:08
They could stop using the same personalization techniques
172
548792
3392
آنها می‌توانند به کارگیری همان روش‌های شخصی سازی که برای
09:12
to deliver political rhetoric that they use to sell us sneakers.
173
552208
4226
بیان الفاظ سیاسی استفاده می‌شود را در فروش کفش های ورزشی به ما متوقف کنند.
09:16
They could retrain their algorithms
174
556458
1726
می‌توانند الگوریتم‌هایشان را برای
09:18
to focus on a metric other than engagement,
175
558208
2185
تمرکز روی معیاری غیر از مشارکت بازآموزی کنند،
09:20
and they could build in guardrails to stop certain content from going viral
176
560417
4309
آن‌ها می‌توانند موانعی برای جلوگیری از محبوب شدن محتویات مشخص
09:24
before being reviewed.
177
564750
1667
پیش از بازبینی را ایجاد کنند.
09:26
And they could do all of this
178
566875
2268
و آن‌ها می‌توانند همه‌ی این موارد را
09:29
without becoming what they call the arbiters of truth.
179
569167
4184
بدون تبدیل شدن به آنچه که آن را داوران حقیقت می‌نامند انجام دهند.
09:33
But they've made it clear that they will not go far enough
180
573375
2809
اما آن‌ها به صراحت اعلام کرده‌اند که برای انجام کار درست
09:36
to do the right thing without being forced to,
181
576208
2810
به حد کافی پیش نخواهند رفت مگر با اجبار،
09:39
and, to be frank, why should they?
182
579042
2934
و صادقانه بگویم، چرا باید چنین کاری انجام دهند؟
09:42
The markets keep rewarding them, and they're not breaking the law.
183
582000
3934
بازارها به آن‌ها پاداش می‌دهند، وآن‌ها قانونی را نقض نمی‌کنند.
09:45
Because as it stands,
184
585958
1310
چرا که با وضعیت فعلی،
09:47
there are no US laws compelling Facebook, or any social media company,
185
587292
4892
هیچ قانونی در ایالات متحده وجود ندارد که فیس بوک یا هر شرکت رسانه اجتماعی را مجبور،
09:52
to protect our public square,
186
592208
1768
به محافظت از افکار عمومی‌مان،
09:54
our democracy
187
594000
1309
مردم سالاری‌مان
09:55
and even our elections.
188
595333
2435
و حتی انتخابات‌مان کند.
09:57
We have ceded the decision-making on what rules to write and what to enforce
189
597792
4101
ما از تصمیم‌گیری درباره وضع و اجرای قوانین برای
10:01
to the CEOs of for-profit internet companies.
190
601917
3083
مدیران عامل شرکت‌های اینترنتی خصوصی صرف نظر کرده‌ایم.
10:05
Is this what we want?
191
605750
2018
این چیزی است که می‌خواهیم؟
10:07
A post-truth world where toxicity and tribalism
192
607792
3226
در یک جهان پساحقیقت‌گرا که در آن منفی‌گرایی و قومیت‌گرایی
10:11
trump bridge-building and consensus-seeking?
193
611042
2625
بر پل زدن بین انسان‌ها غلبه کرده است؟
10:14
I do remain optimistic that we still have more in common with each other
194
614667
4101
من همچنان خوش‌بین هستم که نقاط مشترک بیشتری
10:18
than the current media and online environment portray,
195
618792
3642
از رسانه فعلی و چیزی که محیط آنلاین نشان می‌دهد، با یکدیگر داریم
10:22
and I do believe that having more perspective surface
196
622458
3101
و معتقدم که داشتن سطح چشم‌انداز بیشتر
10:25
makes for a more robust and inclusive democracy.
197
625583
3601
دموکراسی قوی‌تر و فراگیرتر را ایجاد می کند.
10:29
But not the way it's happening right now.
198
629208
2810
اما نه به شکلی که اکنون وجود دارد.
10:32
And it bears emphasizing, I do not want to kill off these companies.
199
632042
4226
و تاکید می‌کنم، من نمی‌خواهم این شرکت‌ها را از بین ببرم.
10:36
I just want them held to a certain level of accountability,
200
636292
3226
فقط می‌خواهم تا حد مشخصی پاسخگو باشند،
10:39
just like the rest of society.
201
639542
1916
مانند بقیه افراد جامعه.
10:42
It is time for our governments to step up and do their jobs
202
642542
4351
زمان آن فرا رسیده که دولت‌هایمان گام بردارند و وظایف خود را برای
10:46
of protecting our citizenry.
203
646917
1642
محافظت از شهروندان انجام دهند.
10:48
And while there isn't one magical piece of legislation
204
648583
3060
و با وجود اینکه یک قانون جادویی وجود ندارد
10:51
that will fix this all,
205
651667
1476
که همه این‌ موارد را حل کند،
10:53
I do believe that governments can and must find the balance
206
653167
4684
من معتقدم که دولت می‌تواند و باید تعادلی
10:57
between protecting free speech
207
657875
2143
بین محافظت از آزادی بیان
11:00
and holding these platforms accountable for their effects on society.
208
660042
4309
و مسئول دانستن این رسانه‌ها برای تاثیراتشان در جامعه ایجاد کند.
11:04
And they could do so in part by insisting on actual transparency
209
664375
4309
و می‌توانند با پافشاری بر روی شفافیت حقیقی تا حدی این کار را انجام دهند
11:08
around how these recommendation engines are working,
210
668708
3143
درباره چگونگی عملکرد سیستم‌های پیشنهاد کننده،
11:11
around how the curation, amplification and targeting are happening.
211
671875
4643
اینکه چگونه طبقه‌بندی، فزون‌سازی و هدف‌گذازی اتفاق می‌افتد.
11:16
You see, I want these companies held accountable
212
676542
2434
ببینید، می‌خواهم این شرکت‌ها پاسخگو باشند
11:19
not for if an individual posts misinformation
213
679000
3101
نه به این علت که فردی اطلاعات نادرست
11:22
or extreme rhetoric,
214
682125
1476
یا سخنان افراطی منتشر کرده،
11:23
but for how their recommendation engines spread it,
215
683625
3851
بلکه برای چگونگی گسترش آن محتویات توسط سرویس‌های پیشنهاد کننده‌اشان،
11:27
how their algorithms are steering people towards it,
216
687500
3226
اینکه چگونه الگوریتم‌هایشان مردم را به سمت آن محتویات هدایت می‌کنند،
11:30
and how their tools are used to target people with it.
217
690750
3292
و چگونه از ابزارهایشان برای هدف قرار دادن مردم استفاده می‌کنند.
11:35
I tried to make change from within Facebook and failed,
218
695417
3684
سعی کردم در فیس بوک تغییر ایجاد کنم و نتوانستم،
11:39
and so I've been using my voice again for the past few years
219
699125
3143
بنابراین در چند سال اخیر دوباره از صدایم استفاده کرده‌ام
11:42
to continue sounding this alarm
220
702292
2226
تا هشدار دادن را ادامه دهم
11:44
and hopefully inspire more people to demand this accountability.
221
704542
4392
و امیدوارم که افراد بیشتری را به مطالبه این پاسخگویی ترغیب کنم.
11:48
My message to you is simple:
222
708958
2643
پیام من به شما ساده است :
11:51
pressure your government representatives
223
711625
2184
نمایندگان دولت خود را تحت فشار قرار دهید
11:53
to step up and stop ceding our public square to for-profit interests.
224
713833
5435
تا قدمی بردارند و از واگذاری افکار عمومی به منافع انتفاعی جلوگیری کنند.
11:59
Help educate your friends and family
225
719292
1851
به آموزش دوستان و خانواده خود
12:01
about how they're being manipulated online.
226
721167
3142
درباره اینکه چگونه در فضای آنلاین بازیچه می‌شوند کمک کنید.
12:04
Push yourselves to engage with people who aren't like-minded.
227
724333
3518
خود را برای ارتباط با کسانی که با شما همفکر نیستند تحت فشار قرار دهید.
12:07
Make this issue a priority.
228
727875
2643
این موضوع را به عنوان الویت خود قرار دهید.
12:10
We need a whole-society approach to fix this.
229
730542
3416
برای رفع این مشکل به رویکرد کل جامعه نیاز داریم.
12:15
And my message to the leaders of my former employer Facebook is this:
230
735250
5559
و پیام من به رهبران کارفرمای سابقم فیس بوک این است:
12:20
right now, people are using your tools exactly as they were designed
231
740833
5810
اکنون، مردم از ابزار شما استفاده می‌کنند دقیقا به همان صورتی که برای
12:26
to sow hatred, division and distrust,
232
746667
2601
ایجاد نفرت، تفرقه و بی اعتمادی، طراحی شده
12:29
and you're not just allowing it, you are enabling it.
233
749292
4142
و شما فقط اجازه نمی‌دهید، شما آن را میسر می‌کنید.
12:33
And yes, there are lots of great stories
234
753458
2476
و بله، داستان های بسیار خوبی وجود دارد
12:35
of positive things happening on your platform around the globe,
235
755958
3685
از کارهای خوبی که در رسانه شما در سراسر جهان اتفاق می‌افتد،
12:39
but that doesn't make any of this OK.
236
759667
3226
اما باعث تایید هیچ یک از این موارد نمی‌شود.
12:42
And it's only getting worse as we're heading into our election,
237
762917
2976
و هر چه به سمت انتخابات می‌رویم اوضاع بدتر می‌شود،
12:45
and even more concerning,
238
765917
1767
و مهم‌تر از آن،
12:47
face our biggest potential crisis yet,
239
767708
2476
مواجهه با بزرگترین بحران ممکنه تا به حال
12:50
if the results aren't trusted, and if violence breaks out.
240
770208
4143
اگر نتایج قابل اعتماد نباشند، و اگر خشونت ناگهان آغاز شود.
12:54
So when in 2021 you once again say, "We know we have to do better,"
241
774375
5018
بنابراین وقتی در سال ۲۰۲۱ بار دیگر بگویید، «ما می دانیم که باید بهتر عمل کنیم،»
12:59
I want you to remember this moment,
242
779417
2684
از شما ‌می‌خواهم این لحظه را به یاد داشته باشید،
13:02
because it's no longer just a few outlier voices.
243
782125
3226
زیرا دیگر چند صدای دور از دسترس نخواهد بود
13:05
Civil rights leaders, academics,
244
785375
2268
رهبران حقوق مدنی، دانشگاهیان،
13:07
journalists, advertisers, your own employees,
245
787667
2976
روزنامه نگاران، تبلیغ کنندگان، کارمندان خود شما،
13:10
are shouting from the rooftops
246
790667
2059
از پشت بام‌ها فریاد می‌زنند
13:12
that your policies and your business practices
247
792750
2601
که سیاست‌ها و شیوه‌های تجاری شما
13:15
are harming people and democracy.
248
795375
2417
به مردم و دموکراسی ضربه می‌زند.
13:18
You own your decisions,
249
798875
2351
شما مالک تصمیمات خود هستید،
13:21
but you can no longer say that you couldn't have seen it coming.
250
801250
3667
اما دیگر نمی‌توانید بگویید که انتظار رخداد آن را نداشتید.
13:26
Thank you.
251
806167
1250
متشکرم.
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7