Dear Facebook, this is how you're breaking democracy | Yael Eisenstat

114,945 views ・ 2020-09-24

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: Shimaa Nabil المدقّق: Nawfal Aljabali
00:13
Around five years ago,
0
13000
2018
منذ حوالي خمسة أعوام،
00:15
it struck me that I was losing the ability
1
15042
2392
أدهشني أنني كنت أفقد القدرة
00:17
to engage with people who aren't like-minded.
2
17458
2500
على التفاعل مع الأشخاص الذين ليس لديهم نفس التفكير.
00:20
The idea of discussing hot-button issues with my fellow Americans
3
20917
3642
فكرة مناقشة القضايا الساخنة مع زملائي الأمريكيين
00:24
was starting to give me more heartburn
4
24583
2393
بدأ يسبب لي المزيد من الألم
00:27
than the times that I engaged with suspected extremists overseas.
5
27000
4125
أكثر من الأوقات التي تعاملت فيها مع متطرفين مشتبه بهم في الخارج.
00:31
It was starting to leave me feeling more embittered and frustrated.
6
31750
3601
بدأ يشعرني بمزيد من المرارة والإحباط.
00:35
And so just like that,
7
35375
1434
وهكذا تماماً،
00:36
I shifted my entire focus
8
36833
1810
حولت تركيزي الكلي
00:38
from global national security threats
9
38667
2434
من تهديدات الأمن القومي العالمي
00:41
to trying to understand what was causing this push
10
41125
3226
لمحاولة فهم ما الذي يسبب هذا الضغط
00:44
towards extreme polarization at home.
11
44375
3226
نحو الاستقطاب الشديد في الوطن.
00:47
As a former CIA officer and diplomat
12
47625
2351
كضابطة سابقة في وكالة المخابرات المركزية ودبلوماسية
00:50
who spent years working on counterextremism issues,
13
50000
3434
التي أمضت سنوات في العمل على قضايا مكافحة التطرف،
00:53
I started to fear that this was becoming a far greater threat to our democracy
14
53458
3851
بدأت أخشى أن يصبح هذا تهديداً أكبر بكثير لديمقراطيتنا
00:57
than any foreign adversary.
15
57333
2518
من أي خصم أجنبي.
00:59
And so I started digging in,
16
59875
1809
وهكذا بدأت في البحث،
01:01
and I started speaking out,
17
61708
1518
وبدأت أتحدث،
01:03
which eventually led me to being hired at Facebook
18
63250
2809
الأمر الذي قادني في النهاية إلى العمل في فيسبوك
01:06
and ultimately brought me here today
19
66083
2685
وأحضرني في النهاية إلى هنا اليوم
01:08
to continue warning you about how these platforms
20
68792
2809
لمواصلة تحذيركم حول كيف أن عمل هذه المنصات
01:11
are manipulating and radicalizing so many of us
21
71625
4018
تتلاعب بالكثير منا وتجعلنا متطرفين
01:15
and to talk about how to reclaim our public square.
22
75667
2958
والحديث عن كيفية استعادة ساحتنا العامة.
01:19
I was a foreign service officer in Kenya
23
79625
1976
كنت ضابطة في السلك الدبلوماسي في كينيا
01:21
just a few years after the September 11 attacks,
24
81625
3059
بعد سنوات قليلة من هجمات 11 سبتمبر،
01:24
and I led what some call "hearts and minds" campaigns
25
84708
2560
وقدت ما يسميه البعض حملات "القلوب والعقول"
01:27
along the Somalia border.
26
87292
1934
على طول الحدود الصومالية.
01:29
A big part of my job was to build trust with communities
27
89250
3309
كان جزء كبير من عملي هو بناء الثقة مع المجتمعات
01:32
deemed the most susceptible to extremist messaging.
28
92583
2709
التي تعتبر الأكثر عرضة للرسائل المتطرفة.
01:36
I spent hours drinking tea with outspoken anti-Western clerics
29
96125
4184
قضيت ساعات في شرب الشاي مع رجال دين مناهضين للغرب
01:40
and even dialogued with some suspected terrorists,
30
100333
3226
وحتى إجراء حوار مع بعض الإرهابيين المشتبه بهم،
01:43
and while many of these engagements began with mutual suspicion,
31
103583
3393
وبينما بدأت العديد من هذه المشاركات بشكوك متبادلة،
01:47
I don't recall any of them resulting in shouting or insults,
32
107000
3809
لا أذكر أن أياً منها أدى إلى الصراخ أو الإهانات،
01:50
and in some case we even worked together on areas of mutual interest.
33
110833
4084
وفي بعض الحالات عملنا معاً في مجالات الاهتمام المشترك.
01:56
The most powerful tools we had were to simply listen, learn
34
116000
4143
كانت أقوى الأدوات التي كانت لدينا هي الاستماع والتعلم
02:00
and build empathy.
35
120167
1726
وبناء التعاطف.
02:01
This is the essence of hearts and minds work,
36
121917
3059
هذا هو جوهر عمل القلوب والعقول،
02:05
because what I found again and again is that what most people wanted
37
125000
3268
لأن ما وجدته مراراً وتكراراً هو أن هذا ما أراده معظم الناس
02:08
was to feel heard, validated and respected.
38
128292
3767
أن تشعر بأنك مسموع ومصدق وجدير بالاحترام.
02:12
And I believe that's what most of us want.
39
132083
2643
وأعتقد أن هذا ما يريده معظمنا.
02:14
So what I see happening online today is especially heartbreaking
40
134750
3309
لذا فإن ما أراه يحدث على الإنترنت اليوم هو أمر مفجع
02:18
and a much harder problem to tackle.
41
138083
2084
ومشكلة أصعب بكثير للتعامل معها.
02:20
We are being manipulated by the current information ecosystem
42
140917
3767
تم التلاعب بنا من خلال النظام الإيكولوجي الحالي للمعلومات
02:24
entrenching so many of us so far into absolutism
43
144708
3768
ما أدى إلى ترسيخ الكثير منا حتى الآن في الحكم المطلق
02:28
that compromise has become a dirty word.
44
148500
2976
الذي حوّل التسوية إلى حل ليس له معنى.
02:31
Because right now,
45
151500
1309
لأنه الآن،
02:32
social media companies like Facebook
46
152833
2143
شركات التواصل الاجتماعي مثل فيسبوك
02:35
profit off of segmenting us and feeding us personalized content
47
155000
3851
تربح من تقسيمنا وتغذيتنا المحتوى المخصص
02:38
that both validates and exploits our biases.
48
158875
3851
الذي يؤكد ويستغل تحيزاتنا.
02:42
Their bottom line depends on provoking a strong emotion
49
162750
3434
تعتمد المحصلة النهائية على إثارة مشاعر قوية
02:46
to keep us engaged,
50
166208
1685
لإبقائنا مشاركين،
02:47
often incentivizing the most inflammatory and polarizing voices,
51
167917
4267
غالبًا ما يتم تحفيز الأصوات الأكثر تحريضاً واستقطاباً،
02:52
to the point where finding common ground no longer feels possible.
52
172208
4435
لدرجة أن إيجاد أرضية مشتركة لم يعد ممكناً.
02:56
And despite a growing chorus of people crying out for the platforms to change,
53
176667
4226
وعلى الرغم من الجوقة المتزايدة من الناس الذين يصرخون مطالبين بتغيير المنصات،
03:00
it's clear they will not do enough on their own.
54
180917
3309
من الواضح أنهم لن يفعلوا ما يكفي بمفردهم.
03:04
So governments must define the responsibility
55
184250
2893
لذلك يجب على الحكومات تحديد المسؤولية
03:07
for the real-world harms being caused by these business models
56
187167
3809
لأضرار العالم الحقيقي التي تسببها نماذج الأعمال هذه
03:11
and impose real costs on the damaging effects
57
191000
2768
وفرض تكاليف حقيقية على الآثار الضارة
03:13
they're having to our public health, our public square and our democracy.
58
193792
5309
التي أضرت صحتنا العامة وساحتنا العامة وديمقراطيتنا.
03:19
But unfortunately, this won't happen in time for the US presidential election,
59
199125
4643
لكن للأسف لن يحدث هذا في وقت الانتخابات الرئاسية الأمريكية،
03:23
so I am continuing to raise this alarm,
60
203792
2767
لذا أنا مستمرة في إطلاق هذا التنبيه،
03:26
because even if one day we do have strong rules in place,
61
206583
3060
لأنه حتى لو كان لدينا يوماً ما قواعد قوية،
03:29
it will take all of us to fix this.
62
209667
2750
سيتطلب الأمر منا جميعاً إصلاح ذلك.
03:33
When I started shifting my focus from threats abroad
63
213417
2601
عندما بدأت في تحويل تركيزي من التهديدات الخارجية
03:36
to the breakdown in civil discourse at home,
64
216042
2142
لانهيار الخطاب المدني في الوطن،
03:38
I wondered if we could repurpose some of these hearts and minds campaigns
65
218208
4060
تساءلت عما إذا كان بإمكاننا إعادة توظيف بعض حملات القلوب والعقول هذه
03:42
to help heal our divides.
66
222292
2101
للمساعدة في معالجة الانقسامات.
03:44
Our more than 200-year experiment with democracy works
67
224417
3809
تجربتنا مع الديمقراطية التي استمرت لأكثر من 200 عام نجحت
03:48
in large part because we are able to openly and passionately
68
228250
3893
لأننا قادرون على مناقشة أفكارنا بشكل مفتوح وعاطفي
03:52
debate our ideas for the best solutions.
69
232167
2809
للحصول على أفضل الحلول.
03:55
But while I still deeply believe
70
235000
1809
لكن بينما ما زلت أؤمن بشدة
03:56
in the power of face-to-face civil discourse,
71
236833
2268
في قوة الخطاب المدني المباشر،
03:59
it just cannot compete
72
239125
1643
إنه فقط لا يمكنه المنافسة
04:00
with the polarizing effects and scale of social media right now.
73
240792
3809
مع تأثيرات الاستقطاب وحجم وسائل التواصل الاجتماعي في الوقت الحالي.
04:04
The people who are sucked down these rabbit holes
74
244625
2351
الأشخاص الذين يدخلون في موقف مربك
04:07
of social media outrage
75
247000
1309
من الغضب على وسائل التواصل الاجتماعي
04:08
often feel far harder to break of their ideological mindsets
76
248333
3643
غالباً ما يشعرون بصعوبة أكبر في كسر عقلياتهم الأيديولوجية
04:12
than those vulnerable communities I worked with ever were.
77
252000
3476
من تلك المجتمعات الضعيفة التي عملت معها في أي وقت مضى.
04:15
So when Facebook called me in 2018
78
255500
2309
لذلك عندما اتصلت بي شركة فيسبوك في 2018
04:17
and offered me this role
79
257833
1310
وعرضت علي هذا الدور
04:19
heading its elections integrity operations for political advertising,
80
259167
3976
رئاسة عمليات نزاهة الانتخابات للإعلان السياسي،
04:23
I felt I had to say yes.
81
263167
2017
شعرت أنني يجب أن أقول نعم.
04:25
I had no illusions that I would fix it all,
82
265208
2726
لم يكن لدي أي أوهام بأنني سأصلح كل شيء،
04:27
but when offered the opportunity
83
267958
1643
ولكن عندما أتيحت الفرصة
04:29
to help steer the ship in a better direction,
84
269625
2184
للمساعدة في توجيه السفينة في اتجاه أفضل،
04:31
I had to at least try.
85
271833
1542
كان علي أن أحاول على الأقل.
04:34
I didn't work directly on polarization,
86
274667
2267
لم أعمل بشكل مباشر على الاستقطاب،
04:36
but I did look at which issues were the most divisive in our society
87
276958
4435
لكني نظرت في أي القضايا كانت الأكثر إثارة للانقسام في مجتمعنا
04:41
and therefore the most exploitable in elections interference efforts,
88
281417
3809
وبالتالي الأكثر استغلالية في جهود التدخل في الانتخابات،
04:45
which was Russia's tactic ahead of 2016.
89
285250
2583
وهو تكتيك روسيا قبل عام 2016.
04:48
So I started by asking questions.
90
288583
2351
لذلك بدأت بطرح الأسئلة.
04:50
I wanted to understand the underlying systemic issues
91
290958
2893
أردت أن أفهم القضايا النظامية الأساسية
04:53
that were allowing all of this to happen,
92
293875
2434
التي كانت تسمح بحدوث كل هذا،
04:56
in order to figure out how to fix it.
93
296333
2084
من أجل معرفة كيفية إصلاحها.
04:59
Now I still do believe in the power of the internet
94
299625
2559
الآن ما زلت أؤمن بقوة الإنترنت
05:02
to bring more voices to the table,
95
302208
2518
لجلب المزيد من الأصوات إلى طاولة المفاوضات،
05:04
but despite their stated goal of building community,
96
304750
3101
ولكن على الرغم من هدفهم المعلن لبناء المجتمع،
05:07
the largest social media companies as currently constructed
97
307875
3309
أكبر شركات التواصل الاجتماعي كما تم إنشاؤها حالياً
05:11
are antithetical to the concept of reasoned discourse.
98
311208
3601
تتعارض مع مفهوم الخطاب العقلاني.
05:14
There's no way to reward listening,
99
314833
2518
لا توجد طريقة لمكافأة الاستماع،
05:17
to encourage civil debate
100
317375
1601
لتشجيع النقاش المدني
05:19
and to protect people who sincerely want to ask questions
101
319000
3643
ولحماية الأشخاص الذين يريدون بصدق طرح الأسئلة
05:22
in a business where optimizing engagement and user growth
102
322667
3351
في الأعمال التجارية حيث يتم تحسين المشاركة ونمو المستخدمين
05:26
are the two most important metrics for success.
103
326042
3226
هما أهم مقياسين للنجاح.
05:29
There's no incentive to help people slow down,
104
329292
3434
ليس هناك حافزاً لمساعدة الناس على الإبطاء،
05:32
to build in enough friction that people have to stop,
105
332750
3226
لتكوين احتكاك كافٍ يجب على الناس إيقافه،
05:36
recognize their emotional reaction to something,
106
336000
2601
للتعرف على رد فعلهم العاطفي على شيء ما،
05:38
and question their own assumptions before engaging.
107
338625
2667
والتشكيك في افتراضاتهم قبل المشاركة.
05:42
The unfortunate reality is:
108
342625
1976
الحقيقة المؤسفة هي:
05:44
lies are more engaging online than truth,
109
344625
2893
الأكاذيب أكثر جاذبية عبر الإنترنت من الحقيقة،
05:47
and salaciousness beats out wonky, fact-based reasoning
110
347542
3726
والعبث يتفوق على التفكير المنطقي القائم على الحقائق
05:51
in a world optimized for frictionless virality.
111
351292
3041
في عالم مُحسَّن للرشوة الخالية من الاحتكاك.
05:55
As long as algorithms' goals are to keep us engaged,
112
355167
3434
طالما أن أهداف الخوارزميات هي الحفاظ على مشاركتنا،
05:58
they will continue to feed us the poison that plays to our worst instincts
113
358625
4059
سيستمرون في إطعامنا السم الذي يلعب دوراً في أسوأ غرائزنا
06:02
and human weaknesses.
114
362708
1459
ونقاط ضعفنا البشرية.
06:04
And yes, anger, mistrust,
115
364958
3018
ونعم الغضب وعدم الثقة،
06:08
the culture of fear, hatred:
116
368000
1726
ثقافة الخوف والكراهية،
06:09
none of this is new in America.
117
369750
2851
لا شيء من هذا جديد في أمريكا.
06:12
But in recent years, social media has harnessed all of that
118
372625
3351
لكن في السنوات الأخيرة، سخرت وسائل التواصل الاجتماعي كل ذلك
06:16
and, as I see it, dramatically tipped the scales.
119
376000
3601
-وكما أراها- فقد قلبت الموازين بشكل كبير.
06:19
And Facebook knows it.
120
379625
2393
وفيسبوك على علم بهذا.
06:22
A recent "Wall Street Journal" article
121
382042
1892
كشفت مقالة حديثة في "Wall Street Journal"
06:23
exposed an internal Facebook presentation from 2018
122
383958
4143
عرض داخلي على فيسبوك من 2018
06:28
that specifically points to the companies' own algorithms
123
388125
3768
يشير بشكل خاص إلى الخوارزميات الخاصة بالشركات
06:31
for growing extremist groups' presence on their platform
124
391917
3517
لتزايد وجود الجماعات المتطرفة على منصتهم
06:35
and for polarizing their users.
125
395458
2167
ومن أجل استقطاب مستخدميها.
06:38
But keeping us engaged is how they make their money.
126
398708
3685
لكن إبقائنا مشاركين هو طريقتهم لكسب المال.
06:42
The modern information environment is crystallized around profiling us
127
402417
4226
تتبلور بيئة المعلومات الحديثة حول تصنيفنا
06:46
and then segmenting us into more and more narrow categories
128
406667
2976
ثم تقسيمنا إلى المزيد والمزيد من الفئات الضيقة
06:49
to perfect this personalization process.
129
409667
3309
لإتقان عملية التخصيص هذه.
06:53
We're then bombarded with information confirming our views,
130
413000
3809
ثم يتم إمطارنا بالمعلومات التي تؤكد وجهات نظرنا،
06:56
reinforcing our biases,
131
416833
1851
وتعزز تحيزاتنا،
06:58
and making us feel like we belong to something.
132
418708
3518
وتجعلنا نشعر وكأننا ننتمي إلى شيء ما.
07:02
These are the same tactics we would see terrorist recruiters
133
422250
3393
هذه هي نفس التكتيكات التي سنرى مجندين إرهابيين
07:05
using on vulnerable youth,
134
425667
2184
يستخدمون الشباب الضعفاء،
07:07
albeit in smaller, more localized ways before social media,
135
427875
3851
وإن كان ذلك بطرق أصغر وأكثر محلية قبل وسائل التواصل الاجتماعي،
07:11
with the ultimate goal of persuading their behavior.
136
431750
3268
بهدف نهائي هو إقناع سلوكهم.
07:15
Unfortunately, I was never empowered by Facebook to have an actual impact.
137
435042
5267
لسوء الحظ، لم يتم تمكيني مطلقاً من قبل فيسبوك لإحداث تأثير فعلي.
07:20
In fact, on my second day, my title and job description were changed
138
440333
3768
في الواقع، تم تغيير لقبي ووصف وظيفتي في يومي الثاني،
07:24
and I was cut out of decision-making meetings.
139
444125
2976
وانقطعت عن اجتماعات صنع القرار.
07:27
My biggest efforts,
140
447125
1309
جهودي الأكبر،
07:28
trying to build plans
141
448458
1393
محاولة وضع الخطط
07:29
to combat disinformation and voter suppression in political ads,
142
449875
3601
لمكافحة المعلومات المضللة وقمع الناخبين في الإعلانات السياسية،
07:33
were rejected.
143
453500
1559
تم رفضه.
07:35
And so I lasted just shy of six months.
144
455083
2500
ولذا فقد عملت ستة أشهر فقط.
07:38
But here is my biggest takeaway from my time there.
145
458125
3601
ولكن ها هي رسالتي الأساسية من عملي هناك.
07:41
There are thousands of people at Facebook
146
461750
2476
يوجد آلاف الأشخاص في فيسبوك
07:44
who are passionately working on a product
147
464250
2018
الذين يعملون بشغف على منتج
07:46
that they truly believe makes the world a better place,
148
466292
3684
ويعتقدون حقاً أنه يجعل العالم مكاناً أفضل،
07:50
but as long as the company continues to merely tinker around the margins
149
470000
3684
ولكن طالما استمرت الشركة في مجرد العبث حول الهوامش
07:53
of content policy and moderation,
150
473708
2726
لسياسة المحتوى والاعتدال،
07:56
as opposed to considering
151
476458
1310
على عكس النظر
07:57
how the entire machine is designed and monetized,
152
477792
3226
في كيف تم تصميم الجهاز بالكامل وتحقيق الدخل منه،
08:01
they will never truly address how the platform is contributing
153
481042
3351
لن يعالجوا حقاً كيفية مساهمة النظام الأساسي
08:04
to hatred, division and radicalization.
154
484417
4184
للكراهية والانقسام والتطرف.
08:08
And that's the one conversation I never heard happen during my time there,
155
488625
4268
وهذه هي المحادثة الوحيدة التي لم أسمعها قط خلال فترة وجودي هناك،
08:12
because that would require fundamentally accepting
156
492917
3059
لأن ذلك يتطلب قبولاً أساسياً
08:16
that the thing you built might not be the best thing for society
157
496000
4143
أن الشيء الذي قمت ببنائه قد لا يكون أفضل شيء للمجتمع
08:20
and agreeing to alter the entire product and profit model.
158
500167
3125
والموافقة على تغيير المنتج بالكامل ونموذج الربح.
08:24
So what can we do about this?
159
504500
1833
لذا مالذي يمكننا القيام به حيال ذلك؟
08:27
I'm not saying that social media bears the sole responsibility
160
507042
3601
أنا لا أقول إن وسائل التواصل الاجتماعي تتحمل المسؤولية وحدها
08:30
for the state that we're in today.
161
510667
2142
للحالة التي نحن فيها اليوم.
08:32
Clearly, we have deep-seated societal issues that we need to solve.
162
512833
5435
من الواضح أن لدينا قضايا مجتمعية عميقة الجذور نحتاج إلى حلها.
08:38
But Facebook's response, that it is just a mirror to society,
163
518292
4142
لكن الرد بأن فيسبوك مجرد مرآة للمجتمع،
08:42
is a convenient attempt to deflect any responsibility
164
522458
3018
هي محاولة ملائمة للتنصل من أي مسؤولية
08:45
from the way their platform is amplifying harmful content
165
525500
4268
من طريقة تضخيم منصتهم للمحتوى الضار
08:49
and pushing some users towards extreme views.
166
529792
3041
ودفع بعض المستخدمين نحو وجهات النظر المتطرفة.
08:53
And Facebook could, if they wanted to,
167
533583
2851
ويمكن لفيسبوك، إذا أرادوا،
08:56
fix some of this.
168
536458
1851
إصلاح بعض من هذا.
08:58
They could stop amplifying and recommending the conspiracy theorists,
169
538333
3851
يمكنهم التوقف عن تضخيم والتوصية بمنظري المؤامرة،
09:02
the hate groups, the purveyors of disinformation
170
542208
2685
الجماعات الكارهة ومروّجي المعلومات المضللة
09:04
and, yes, in some cases even our president.
171
544917
3851
ونعم، في بعض الحالات حتى رئيسنا.
09:08
They could stop using the same personalization techniques
172
548792
3392
يمكنهم التوقف عن استخدام نفس تقنيات التخصيص
09:12
to deliver political rhetoric that they use to sell us sneakers.
173
552208
4226
لتقديم خطاب سياسي يستخدمونه لبيع أحذية رياضية لنا.
09:16
They could retrain their algorithms
174
556458
1726
يمكنهم إعادة تنظيم الخوارزميات الخاصة بهم
09:18
to focus on a metric other than engagement,
175
558208
2185
للتركيز على مقياس آخر غير المشاركة،
09:20
and they could build in guardrails to stop certain content from going viral
176
560417
4309
ويمكنهم بناء حواجز حماية لمنع انتشار محتوى معين
09:24
before being reviewed.
177
564750
1667
قبل مراجعتها.
09:26
And they could do all of this
178
566875
2268
ويمكنهم فعل كل هذا
09:29
without becoming what they call the arbiters of truth.
179
569167
4184
دون أن يصبحوا ما يسمونه حكام الحقيقة.
09:33
But they've made it clear that they will not go far enough
180
573375
2809
لكنهم أوضحوا أنهم لن يذهبوا بعيداً
09:36
to do the right thing without being forced to,
181
576208
2810
لفعل الشيء الصحيح دون الاضطرار إلى ذلك،
09:39
and, to be frank, why should they?
182
579042
2934
ولكي أكون صريحة، لماذا يجب عليهم ذلك؟
09:42
The markets keep rewarding them, and they're not breaking the law.
183
582000
3934
تستمر الأسواق في مكافأتهم، وهم لا يخالفون القانون.
09:45
Because as it stands,
184
585958
1310
لأنه كما هو،
09:47
there are no US laws compelling Facebook, or any social media company,
185
587292
4892
لا توجد قوانين أمريكية تفرض على فيسبوك أو أي شركة وسائط اجتماعية،
09:52
to protect our public square,
186
592208
1768
لحماية ساحتنا العامة،
09:54
our democracy
187
594000
1309
ديمقراطيتنا
09:55
and even our elections.
188
595333
2435
وحتى انتخاباتنا.
09:57
We have ceded the decision-making on what rules to write and what to enforce
189
597792
4101
لقد تنازلنا عن اتخاذ القرار بشأن القواعد التي يجب كتابتها وما يجب تطبيقه
10:01
to the CEOs of for-profit internet companies.
190
601917
3083
إلى الرؤساء التنفيذيين لشركات الإنترنت الربحية.
10:05
Is this what we want?
191
605750
2018
هل هذا ما نريد؟
10:07
A post-truth world where toxicity and tribalism
192
607792
3226
عالم ما بعد الحقيقة حيث السمية والقبلية
10:11
trump bridge-building and consensus-seeking?
193
611042
2625
تفوق في بناء الجسور والسعي إلى التوافق؟
10:14
I do remain optimistic that we still have more in common with each other
194
614667
4101
ما زلت متفائلة بأنه لا يزال لدينا المزيد من القواسم المشتركة مع بعضنا البعض
10:18
than the current media and online environment portray,
195
618792
3642
أكثر مما تصوره وسائل الإعلام الحالية وبيئة الإنترنت،
10:22
and I do believe that having more perspective surface
196
622458
3101
وأعتقد أن وجود منظور أكبر
10:25
makes for a more robust and inclusive democracy.
197
625583
3601
يجعل الديمقراطية أكثر قوة وشمولية.
10:29
But not the way it's happening right now.
198
629208
2810
لكن ليس بالطريقة التي تحدث بها الآن.
10:32
And it bears emphasizing, I do not want to kill off these companies.
199
632042
4226
وتجدر الإشارة إلى أنني لا أريد هدم هذه الشركات.
10:36
I just want them held to a certain level of accountability,
200
636292
3226
أريدهم فقط أن يخضعوا لمستوى معين من المساءلة،
10:39
just like the rest of society.
201
639542
1916
تماماً مثل بقية المجتمع.
10:42
It is time for our governments to step up and do their jobs
202
642542
4351
حان الوقت لكي تسرع حكوماتنا وتؤدي وظائفها
10:46
of protecting our citizenry.
203
646917
1642
لحماية مواطنينا.
10:48
And while there isn't one magical piece of legislation
204
648583
3060
وعلى الرغم من عدم وجود تشريع سحري واحد
10:51
that will fix this all,
205
651667
1476
الذي سيصلح كل هذا،
10:53
I do believe that governments can and must find the balance
206
653167
4684
أعتقد أن الحكومات يمكنها ويجب عليها أن تجد التوازن
10:57
between protecting free speech
207
657875
2143
بين حماية حرية التعبير
11:00
and holding these platforms accountable for their effects on society.
208
660042
4309
ومحاسبة هذه المنصات على تأثيرها على المجتمع.
11:04
And they could do so in part by insisting on actual transparency
209
664375
4309
ويمكنهم فعل ذلك جزئياً من خلال الإصرار على الشفافية الفعلية
11:08
around how these recommendation engines are working,
210
668708
3143
حول كيفية عمل محركات التوصيات هذه،
11:11
around how the curation, amplification and targeting are happening.
211
671875
4643
حول كيفية حدوث التنظيم والتضخيم والاستهداف.
11:16
You see, I want these companies held accountable
212
676542
2434
كما ترون، أريد محاسبة هذه الشركات
11:19
not for if an individual posts misinformation
213
679000
3101
ليس إذا كان الفرد ينشر معلومات خاطئة
11:22
or extreme rhetoric,
214
682125
1476
أو خطاب متطرف،
11:23
but for how their recommendation engines spread it,
215
683625
3851
ولكن عن كيفية نشر محركات توصياتهم،
11:27
how their algorithms are steering people towards it,
216
687500
3226
كيف توجه الخوارزميات الناس نحوها،
11:30
and how their tools are used to target people with it.
217
690750
3292
وكيف تُستخدم أدواتهم لاستهداف الأشخاص بها.
11:35
I tried to make change from within Facebook and failed,
218
695417
3684
حاولت إجراء التغيير من داخل فيسبوك وفشلت،
11:39
and so I've been using my voice again for the past few years
219
699125
3143
ولذا كنت أستخدم صوتي مرة أخرى خلال السنوات القليلة الماضية
11:42
to continue sounding this alarm
220
702292
2226
لمواصلة دق هذا التنبيه
11:44
and hopefully inspire more people to demand this accountability.
221
704542
4392
ونأمل أن ألهم المزيد من الناس للمطالبة بهذه المساءلة.
11:48
My message to you is simple:
222
708958
2643
رسالتي لكم بسيطة:
11:51
pressure your government representatives
223
711625
2184
الضغط على ممثلي حكومتكم
11:53
to step up and stop ceding our public square to for-profit interests.
224
713833
5435
للتصعيد والتوقف عن التنازل عن ميداننا العام للمصالح الربحية.
11:59
Help educate your friends and family
225
719292
1851
ساعدوا في تثقيف أصدقائكم وعائلتكم
12:01
about how they're being manipulated online.
226
721167
3142
حول كيفية التلاعب بهم عبر الإنترنت.
12:04
Push yourselves to engage with people who aren't like-minded.
227
724333
3518
ادفعوا أنفسكم للانخراط مع الأشخاص الذين ليس لديهم نفس التفكير.
12:07
Make this issue a priority.
228
727875
2643
اجعلوا هذه القضية أولوية.
12:10
We need a whole-society approach to fix this.
229
730542
3416
نحن بحاجة إلى نهج المجتمع بأكمله لإصلاح هذا.
12:15
And my message to the leaders of my former employer Facebook is this:
230
735250
5559
ورسالتي لقادة صاحب عملي السابق في فيسبوك هي:
12:20
right now, people are using your tools exactly as they were designed
231
740833
5810
في الوقت الحالي، يستخدم الأشخاص أدواتكم تماماً كما تم تصميمها
12:26
to sow hatred, division and distrust,
232
746667
2601
لزرع الكراهية والانقسام وعدم الثقة،
12:29
and you're not just allowing it, you are enabling it.
233
749292
4142
وأنت لا تسمح بذلك فقط، بل تقوم بتمكينه.
12:33
And yes, there are lots of great stories
234
753458
2476
ونعم، هناك الكثير من القصص الرائعة
12:35
of positive things happening on your platform around the globe,
235
755958
3685
بالأشياء الإيجابية التي تحدث على منصتكم حول العالم،
12:39
but that doesn't make any of this OK.
236
759667
3226
لكن هذا لا يجعل أياً من هذا جيداً.
12:42
And it's only getting worse as we're heading into our election,
237
762917
2976
ويزداد الأمر سوءاً مع اقترابنا من الانتخابات،
12:45
and even more concerning,
238
765917
1767
وأكثر إثارة للقلق،
12:47
face our biggest potential crisis yet,
239
767708
2476
نواجه أكبر أزمة محتملة لدينا حتى الآن،
12:50
if the results aren't trusted, and if violence breaks out.
240
770208
4143
إذا كانت النتائج غير موثوقة، وإذا اندلع العنف.
12:54
So when in 2021 you once again say, "We know we have to do better,"
241
774375
5018
لذا عندما تقول مرة أخرى في 2021، "نعلم أنه يتعين علينا القيام بعمل أفضل،"
12:59
I want you to remember this moment,
242
779417
2684
أريدك أن تتذكر هذه اللحظة،
13:02
because it's no longer just a few outlier voices.
243
782125
3226
لأنه لم يعد مجرد عدد قليل من الأصوات الخارجية.
13:05
Civil rights leaders, academics,
244
785375
2268
قادة الحقوق المدنية والأكادميون،
13:07
journalists, advertisers, your own employees,
245
787667
2976
الصحفيون والمعلنون وموظفونك،
13:10
are shouting from the rooftops
246
790667
2059
يصرخون بأعلى صوتهم
13:12
that your policies and your business practices
247
792750
2601
أن سياساتكم وممارسات العمل
13:15
are harming people and democracy.
248
795375
2417
تضر الناس والديمقراطية.
13:18
You own your decisions,
249
798875
2351
أنتم تملكون قراراتكم،
13:21
but you can no longer say that you couldn't have seen it coming.
250
801250
3667
لكن لا يمكنكم بعد الآن قول أنكم لم تكونوا على علم بذلك.
13:26
Thank you.
251
806167
1250
شكراً لكم.
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7