How you can help transform the internet into a place of trust | Claire Wardle

53,671 views ・ 2019-11-15

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: Hani Eldalees المدقّق: Ayman Hosny
00:13
No matter who you are or where you live,
0
13548
2516
بغض النظر عن هويتك أو أين تعيش،
00:16
I'm guessing that you have at least one relative
1
16088
2356
أنا أتوقع أنه لديك على الأقل قريب واحد
00:18
that likes to forward those emails.
2
18468
2334
يفضّل تمرير تلك الرسائل الإلكترونية.
00:21
You know the ones I'm talking about --
3
21206
1900
تعرفون نوعية الرسائل التي أقصدها...
00:23
the ones with dubious claims or conspiracy videos.
4
23130
2854
رسائل تحتوي على ادعاءات مشكوك فيها أو فيديوهات المؤامرة.
00:26
And you've probably already muted them on Facebook
5
26315
2668
وغالبًا قد تكون منعتهم من الظهور على الفيسبوك
00:29
for sharing social posts like this one.
6
29007
2348
لمشاركة منشورات اجتماعية مثل هذه.
00:31
It's an image of a banana
7
31379
1404
إنها صورة لموزة
00:32
with a strange red cross running through the center.
8
32807
2667
يتواجد في مركزها صليب أحمر.
00:35
And the text around it is warning people
9
35498
2139
والنص حولها يحذر الجميع
00:37
not to eat fruits that look like this,
10
37661
2158
بأن لا يأكلوا الفاكهة التي تبدو هكذا،
00:39
suggesting they've been injected with blood
11
39843
2028
مدعين أنها محقونة بدم
00:41
contaminated with the HIV virus.
12
41895
2130
ملوث بفيروس نقص المناعة المكتسبة.
00:44
And the social share message above it simply says,
13
44049
2603
ورسالة المشاركة الاجتماعية الموجودة أعلاه تقول:
00:46
"Please forward to save lives."
14
46676
2181
"رجاءً مرّرها لتنفذ الأرواح".
00:49
Now, fact-checkers have been debunking this one for years,
15
49672
3294
مدققو الحقائق كانوا يدحضون هذا الادعاء لسنوات،
00:52
but it's one of those rumors that just won't die.
16
52990
2809
إلا أنها واحدة من تلك الإشاعات التي لا تموت ببساطة.
00:55
A zombie rumor.
17
55823
1271
كإشاعة الزومبي.
00:57
And, of course, it's entirely false.
18
57513
2093
وبالطبع، فهي كاذبة تمامًا.
01:00
It might be tempting to laugh at an example like this, to say,
19
60180
2959
من الممكن أن يكون رد فعلك الضحك على مثال كهذا وjقول:
01:03
"Well, who would believe this, anyway?"
20
63163
1884
"حسنًا، من يصدق هذا بأي حال؟"
01:05
But the reason it's a zombie rumor
21
65419
1626
ولكن سبب كونها كإشاعة الزومبي
01:07
is because it taps into people's deepest fears about their own safety
22
67069
3889
هو أنها تتعامل مع أعمق المخاوف لدى الأشخاص حول سلامتهم الشخصية
01:10
and that of the people they love.
23
70982
2175
وسلامة أحبائهم.
01:13
And if you spend as enough time as I have looking at misinformation,
24
73783
3273
وإذا أمضيت وقتًا كافيًا كالذي أمضيته بالنظر في المعلومات الخاطئة،
01:17
you know that this is just one example of many
25
77080
2420
ستعرف أن هذا مجرد مثال واحد من أمثلة عديدة
01:19
that taps into people's deepest fears and vulnerabilities.
26
79524
3047
تتلاعب في أعمق مخاوف الأشخاص ونقاط ضعفهم.
01:23
Every day, across the world, we see scores of new memes on Instagram
27
83214
4369
كل يوم، حول العالم، نرى أعدادًا مهولة من الصور ذات التعليقات على الإنستغرام
01:27
encouraging parents not to vaccinate their children.
28
87607
3039
تشجع الأهل على عدم إعطاء أولادهم لقاحًا ما.
01:30
We see new videos on YouTube explaining that climate change is a hoax.
29
90670
4532
نرى فيديوهات جديدة على يوتيوب تشرح أن التغير المناخي عبارة عن خدعة.
01:35
And across all platforms, we see endless posts designed to demonize others
30
95226
4302
وعلى جميع المنصات، نرى منشورات لا نهاية لها مصممة لتشويه صورة الآخرين
01:39
on the basis of their race, religion or sexuality.
31
99552
3501
على أساس عرقهم أو دينهم أو جنسهم.
01:44
Welcome to one of the central challenges of our time.
32
104314
3030
أهلاً بك في أحد التحديات الرئيسية في عصرنا.
01:47
How can we maintain an internet with freedom of expression at the core,
33
107647
4025
كيف يمكننا الحفاظ على إنترنت يقوم في جوهره على حرية التعبير،
01:51
while also ensuring that the content that's being disseminated
34
111696
3303
مع ضمان أن المحتوى الذي يجري نشره
01:55
doesn't cause irreparable harms to our democracies, our communities
35
115023
3886
لا يؤدي إلى ضرر دائم لديمقراطيتنا ومجتمعاتنا
01:58
and to our physical and mental well-being?
36
118933
2238
بالإضافة إلى سلامتنا الجسدية والنفسية؟
02:01
Because we live in the information age,
37
121998
2087
لأننا نعيش في عصر المعلومات،
02:04
yet the central currency upon which we all depend -- information --
38
124109
3547
إلا أن العنصر الرئيسي الذي نعتمد عليه جميعًا...المعلومات...
02:07
is no longer deemed entirely trustworthy
39
127680
2357
لم تعد تُعتبر جديرة بالثقة بشكل مطلق
02:10
and, at times, can appear downright dangerous.
40
130061
2328
ويمكن أن تكون في بعض الأحيان خطيرة.
02:12
This is thanks in part to the runaway growth of social sharing platforms
41
132811
3937
هذا بفضل منصات المشاركة الاجتماعية التي انتشرت بشكل كبير
02:16
that allow us to scroll through,
42
136772
1642
والتي تتيح لنا التصفح فيها،
02:18
where lies and facts sit side by side,
43
138438
2222
حيث تتواجد الحقائق والأكاذيب جنبًا إلى جنب،
02:20
but with none of the traditional signals of trustworthiness.
44
140684
3071
ولكن بدون وجود أي من العلامات التقليدية التي تعطي الثقة.
02:24
And goodness -- our language around this is horribly muddled.
45
144268
3619
كما أن لغتنا بشأن هذا الموضوع مشوشة بشكل كبير.
02:27
People are still obsessed with the phrase "fake news,"
46
147911
3103
لا يزال الناس مهووسين بعبارة "الأخبار الزائفة"،
02:31
despite the fact that it's extraordinarily unhelpful
47
151038
2531
بالرغم من حقيقة أن هذا الأمر غير مفيد إطلاقًا
02:33
and used to describe a number of things that are actually very different:
48
153593
3460
كما أنها تستخدم لوصف عدة أشياء مختلفة عن بعضها البعض:
02:37
lies, rumors, hoaxes, conspiracies, propaganda.
49
157077
3386
أكاذيب، وإشاعات، وخدع، ومؤامرات، ودعاية التهويل.
02:40
And I really wish we could stop using a phrase
50
160911
2912
وأتمنى فعلًا أن نتوقف عن استعمال تعبيرٍ
02:43
that's been co-opted by politicians right around the world,
51
163847
2862
تبناه سياسيون في جميع أنحاء العالم،
02:46
from the left and the right,
52
166733
1471
من اليسار ومن اليمين،
02:48
used as a weapon to attack a free and independent press.
53
168228
3222
يستخدم كسلاح لمهاجمة الصحافة الحرة والمستقلة.
02:52
(Applause)
54
172307
4702
(تصفيق)
02:57
Because we need our professional news media now more than ever.
55
177033
3462
لأننا نحتاج قنواتنا الإخبارية المحترفة الآن أكثر من أي وقت مضى.
03:00
And besides, most of this content doesn't even masquerade as news.
56
180882
3373
كما أن معظم هذا المحتوى لا يوضع في قوالب إخبارية.
03:04
It's memes, videos, social posts.
57
184279
2642
فهي صور ذات تعليقات، وفيديو، ومشاركات اجتماعية.
03:06
And most of it is not fake; it's misleading.
58
186945
3453
وأغلبها ليست بأكاذيب، ولكنها محتوى مضلل.
03:10
We tend to fixate on what's true or false.
59
190422
3015
نميل للتركيز على ما هو صحيح وما هو خاطئ.
03:13
But the biggest concern is actually the weaponization of context.
60
193461
4032
إلا أن خوفنا الأكبر هو استخدام سياق الكلام كسلاح.
03:18
Because the most effective disinformation
61
198855
1968
لأن التضليل الأكثر فعالية
03:20
has always been that which has a kernel of truth to it.
62
200847
3048
هو الذي يحتوي في جوهره على الحقيقة.
03:23
Let's take this example from London, from March 2017,
63
203919
3476
لنأخذ هذا المثال من لندن، في مارس 2017،
03:27
a tweet that circulated widely
64
207419
1540
تغريدة انتشرت على نطاق واسع
03:28
in the aftermath of a terrorist incident on Westminster Bridge.
65
208983
3587
في أعقاب حادث إرهابي وقع على جسر وستمنستر.
03:32
This is a genuine image, not fake.
66
212594
2428
هذه صورة حقيقية وليست مفبركة.
03:35
The woman who appears in the photograph was interviewed afterwards,
67
215046
3169
تم إجراء مقابلة لاحقًا مع السيدة التي تظهر في الصورة،
03:38
and she explained that she was utterly traumatized.
68
218239
2409
حيث أخبرتنا أنها أصيبت بصدمة كبيرة.
03:40
She was on the phone to a loved one,
69
220672
1738
كانت تتحدث مع أحد أفراد أسرتها،
03:42
and she wasn't looking at the victim out of respect.
70
222434
2618
ولم تكن تنظر للضحية من منطلق احترام.
03:45
But it still was circulated widely with this Islamophobic framing,
71
225076
3960
إلا أن الصورة انتشرت على نطاق واسع في إطار الإسلاموفوبيا،
03:49
with multiple hashtags, including: #BanIslam.
72
229060
3046
مرفقة مع وسوم مختلفة ومنها #امنعواـالإسلام.
03:52
Now, if you worked at Twitter, what would you do?
73
232425
2398
تخيل نفسك تعمل لدى تويتر، ماذا ستفعل؟
03:54
Would you take that down, or would you leave it up?
74
234847
2562
هل ستترك الصورة لتنتشر، أم تزيلها من التداول؟
03:58
My gut reaction, my emotional reaction, is to take this down.
75
238553
3429
ردة فعلي، ردة فعلي العاطفية، هي إزالتها.
04:02
I hate the framing of this image.
76
242006
2142
أكره الإطار الذي وُضعت فيه هذه الصورة.
04:04
But freedom of expression is a human right,
77
244585
2388
لكن حرية التعبير حق بشري،
04:06
and if we start taking down speech that makes us feel uncomfortable,
78
246997
3225
وإذا أزلنا الخطابات التي لا نشعر بالراحة تجاهها،
04:10
we're in trouble.
79
250246
1230
فنحن في ورطة.
04:11
And this might look like a clear-cut case,
80
251500
2294
وربما بدت هذه الحالة واضحة بدون لبس،
04:13
but, actually, most speech isn't.
81
253818
1698
ولكن الحقيقة عكس ذلك في معظم الخطابات.
04:15
These lines are incredibly difficult to draw.
82
255540
2436
من الصعب الفصل فيها بوضوح.
04:18
What's a well-meaning decision by one person
83
258000
2281
ما قد يكون قرارًا واضحًا لشخص ما
04:20
is outright censorship to the next.
84
260305
2077
يكون رقابة صارخة لشخص آخر.
04:22
What we now know is that this account, Texas Lone Star,
85
262759
2929
ما نعرفه أن الحساب "تكساس لون ستار"،
04:25
was part of a wider Russian disinformation campaign,
86
265712
3230
كان جزءًا من حملة كبيرة للتضليل أعدّتها روسيا،
04:28
one that has since been taken down.
87
268966
2151
وقد تمت إزالته من التداول منذ ذاك.
04:31
Would that change your view?
88
271141
1563
هل سيغير ذلك من نظرتكم؟
04:33
It would mine,
89
273322
1159
سيغير نظرتي،
04:34
because now it's a case of a coordinated campaign
90
274505
2301
لأن الوضع الآن أصبح عبارة عن حملة ممنهجة
04:36
to sow discord.
91
276830
1215
لزرع الفتنة.
04:38
And for those of you who'd like to think
92
278069
1961
ولمن يظنون
04:40
that artificial intelligence will solve all of our problems,
93
280054
2831
أن الذكاء الاصطناعي سيحل جميع مشاكلكم،
04:42
I think we can agree that we're a long way away
94
282909
2225
أعتقد أننا جميعنا نتفق أن الطريق ما زال طويلًا
04:45
from AI that's able to make sense of posts like this.
95
285158
2587
لكي يتمكن الذكاء الاصطناعي من تمييز معنى منشور كهذا.
04:48
So I'd like to explain three interlocking issues
96
288856
2507
لذا سأذكر ثلاثة مواضيع مترابطة
04:51
that make this so complex
97
291387
2373
تجعل هذا الأمر معقدًا للغاية
04:53
and then think about some ways we can consider these challenges.
98
293784
3122
ثم نناقش بعض الطرق التي تمكننا من التعامل مع هذه التحديات.
04:57
First, we just don't have a rational relationship to information,
99
297348
3890
أولاً، نحن لا تربطنا علاقة عقلانية مع المعلومات،
05:01
we have an emotional one.
100
301262
1468
بل تربطنا علاقة عاطفية.
05:02
It's just not true that more facts will make everything OK,
101
302754
3794
ليس صحيحًا أن المزيد من الحقائق سيجعل كل شيء طبيعيًا،
05:06
because the algorithms that determine what content we see,
102
306572
3100
لأن الخوارزميات التي تحدد المحتوى الذي نشاهده،
05:09
well, they're designed to reward our emotional responses.
103
309696
3127
مصممة لكي تستجيب مع ردود أفعالنا العاطفية.
05:12
And when we're fearful,
104
312847
1381
وعندما نخشى أمرًا ما،
05:14
oversimplified narratives, conspiratorial explanations
105
314252
3174
فإن الروايات المبالغ في تبسيطها والتفسيرات التآمرية
05:17
and language that demonizes others is far more effective.
106
317450
3418
وخطاب شيطنة الآخرين، تصبح أكثر فاعلية.
05:21
And besides, many of these companies,
107
321538
1874
كما أن العديد من تلك الشركات،
05:23
their business model is attached to attention,
108
323436
2546
تقوم سياسات عملها على جذب الاهتمام،
05:26
which means these algorithms will always be skewed towards emotion.
109
326006
3690
ما يعني أن الخوارزميات تفضل العاطفة أكثر.
05:30
Second, most of the speech I'm talking about here is legal.
110
330371
4298
ثانيًا، معظم الخطابات التي أتحدث عنها هنا قانونية.
05:35
It would be a different matter
111
335081
1446
سيكون الأمر مختلفًا تمامًا
05:36
if I was talking about child sexual abuse imagery
112
336551
2341
لو ارتبط الأمر بصور اعتداءات جنسية على الأطفال
05:38
or content that incites violence.
113
338916
1927
أو محتوى يشجع على العنف.
05:40
It can be perfectly legal to post an outright lie.
114
340867
3270
يمكن أن يكون نشر كذبة واضحة غير مخالف تمامًا للقانون.
05:45
But people keep talking about taking down "problematic" or "harmful" content,
115
345130
4034
إلا أن الناس لا يزالون يتحدثون عن إزالة المحتوى "الضار" أو "الإشكالي"،
05:49
but with no clear definition of what they mean by that,
116
349188
2609
ولكن بدون تعريف واضح لما يعنيه ذلك،
05:51
including Mark Zuckerberg,
117
351821
1264
بما فيهم مارك زكربورغ،
05:53
who recently called for global regulation to moderate speech.
118
353109
3412
الذي طالب بقوانين عالمية لتقنين الخطاب.
05:56
And my concern is that we're seeing governments
119
356870
2215
وما أخشاه أننا نشاهد حكومات
05:59
right around the world
120
359109
1292
في جميع أنحاء العالم
06:00
rolling out hasty policy decisions
121
360425
2676
تقرّ سياسات مُتعجلة
06:03
that might actually trigger much more serious consequences
122
363125
2746
يمكن أن تؤدي إلى عواقب أكثر خطورة
06:05
when it comes to our speech.
123
365895
1714
حين يتعلق الأمر بخطاباتنا.
06:08
And even if we could decide which speech to take up or take down,
124
368006
3706
وحتى إن تمكنا من تحديد أي الخطابات نزيلها أو نبقي عليها،
06:11
we've never had so much speech.
125
371736
2174
فنحن لم نتعامل مع هذا القدر من الخطابات سابقًا.
06:13
Every second, millions of pieces of content
126
373934
2131
هنالك الملايين من المنشورات كل ثانية
06:16
are uploaded by people right around the world
127
376089
2107
يرفعها الناس حول العالم
06:18
in different languages,
128
378220
1168
بلغات مختلفة،
06:19
drawing on thousands of different cultural contexts.
129
379412
2768
تستمد سياقاتها من آلاف السياقات الثقافية المختلفة.
06:22
We've simply never had effective mechanisms
130
382204
2532
نحن ببساطة لم نمتلك سابقًا آلية فعالة
06:24
to moderate speech at this scale,
131
384760
1738
لمراقبة خطابات بهذه الكمية،
06:26
whether powered by humans or by technology.
132
386522
2801
سواء آليات قائمة على البشر أو التكنولوجيا.
06:30
And third, these companies -- Google, Twitter, Facebook, WhatsApp --
133
390284
3944
وثالثاً، هذه الشركات...جوجل، وتويتر، وفيسبوك، وواتس آب...
06:34
they're part of a wider information ecosystem.
134
394252
2841
هم جزء من نظام معلوماتي أكبر.
06:37
We like to lay all the blame at their feet, but the truth is,
135
397117
3352
ونحن نحب أن نلقي باللوم عليهم، إلا أن الحقيقة،
06:40
the mass media and elected officials can also play an equal role
136
400493
3830
أن وسائل الإعلام والمسؤولين المنتخبين يمكن أن يلعبوا دورًا مساويًا أيضًا
06:44
in amplifying rumors and conspiracies when they want to.
137
404347
2913
في تضخيم الإشاعات والمؤامرات عندما يرغبون في ذلك.
06:47
As can we, when we mindlessly forward divisive or misleading content
138
407800
4944
نحن نقوم بذلك أيضًا حين نمرّر بلا مبالاة مواد مضللة أو مسببة للخلاف
06:52
without trying.
139
412768
1285
دون أي محاولة.
06:54
We're adding to the pollution.
140
414077
1800
نحن نزيد من التلوث.
06:57
I know we're all looking for an easy fix.
141
417236
2618
أعرف أننا جميعًا نبحث عن حل سهل.
06:59
But there just isn't one.
142
419878
1667
ولكن لا يوجد مثل هذا الأمر.
07:01
Any solution will have to be rolled out at a massive scale, internet scale,
143
421950
4445
أي حل ينبغي أن يكون على نطاق واسع، على نطاق الإنترنت،
07:06
and yes, the platforms, they're used to operating at that level.
144
426419
3261
والمنصات معتادة على العمل في نطاق كهذا.
07:09
But can and should we allow them to fix these problems?
145
429704
3472
ولكن هل بوسعنا تركهم يصلحون هذه المشكلات؟ وهل ينبغي علينا السماح لهم بذلك؟
07:13
They're certainly trying.
146
433668
1232
هم يحاولون بالتأكيد.
07:14
But most of us would agree that, actually, we don't want global corporations
147
434924
4086
إلا أن أغلبنا يتفق في الحقيقة أننا لا نرغب أن تكون الشركات العالمية
07:19
to be the guardians of truth and fairness online.
148
439034
2332
هم حماة الحقيقة والشفافية على الإنترنت.
07:21
And I also think the platforms would agree with that.
149
441390
2537
وأعتقد أن تلك المنصات ستوافق على ذلك أيضًا.
07:24
And at the moment, they're marking their own homework.
150
444257
2881
وهو يقومون حاليًا بتجهيز أنفسهم داخليًا.
07:27
They like to tell us
151
447162
1198
هم يرغبون أن يقولوا لنا
07:28
that the interventions they're rolling out are working,
152
448384
2579
أن الإجراءات التي يقومون بتطبيقها بدأت تعطي ثمارها،
07:30
but because they write their own transparency reports,
153
450987
2540
لكن ولأنهم يكتبون تقارير النزاهة الخاصة بهم،
07:33
there's no way for us to independently verify what's actually happening.
154
453551
3618
فلا توجد طريقة لكي نتحقق مما يجري بشكل مستقل.
07:38
(Applause)
155
458431
3342
(تصفيق)
07:41
And let's also be clear that most of the changes we see
156
461797
2952
ولنكن واضحين كذلك، أغلب التغيرات التي نراها
07:44
only happen after journalists undertake an investigation
157
464773
2994
حدثت بعد إجراء صحفيين لتحقيقات
07:47
and find evidence of bias
158
467791
1611
وعثورهم على أدلة تؤكد عدم الحيادية
07:49
or content that breaks their community guidelines.
159
469426
2829
أو محتوى يتعارض مع سياسات مجتمعاتهم.
07:52
So yes, these companies have to play a really important role in this process,
160
472815
4595
ولذا، نعم، يجب على تلك الشركات القيام بدور هام جدًا في تلك العملية،
07:57
but they can't control it.
161
477434
1560
ولكن لا يجب أن يتحكموا بها.
07:59
So what about governments?
162
479855
1518
ماذا بشأن الحكومات؟
08:01
Many people believe that global regulation is our last hope
163
481863
3096
يعتقد الكثير من الناس أن القوانين العالمية هي أملنا الأخير
08:04
in terms of cleaning up our information ecosystem.
164
484983
2880
لكي نتمكن من تطهير نظامنا المعلوماتي المترابط.
08:07
But what I see are lawmakers who are struggling to keep up to date
165
487887
3166
إلا أن ما أراه هو أن المشرّعين هم الذين يعانون لمواكبة
08:11
with the rapid changes in technology.
166
491077
2341
التغيرات المتسارعة في التكنولوجيا.
08:13
And worse, they're working in the dark,
167
493442
1904
والأسوأ هو أنهم يعملون دون أي دراية،
08:15
because they don't have access to data
168
495370
1821
لأنه لا توجد لديهم طريقة للوصول للبيانات
08:17
to understand what's happening on these platforms.
169
497215
2650
لكي يفهموا ما يجري على تلك المنصات.
08:20
And anyway, which governments would we trust to do this?
170
500260
3071
وعلى أي حال، ما هي الحكومات التي يمكن أن نثق بها للقيام بذلك؟
08:23
We need a global response, not a national one.
171
503355
2770
نريد فعلًا عالميًا وليس محليًا.
08:27
So the missing link is us.
172
507419
2277
لذا الحلقة المفقودة هي نحن.
08:29
It's those people who use these technologies every day.
173
509720
3123
الناس الذين يستخدمون تلك التكنولوجيا كل يوم.
08:33
Can we design a new infrastructure to support quality information?
174
513260
4591
هل يمكننا تصميم بنية تحتية جديدة لدعم جودة المعلومات؟
08:38
Well, I believe we can,
175
518371
1230
حسنًا، أعتقد أنه يمكننا ذلك.
08:39
and I've got a few ideas about what we might be able to actually do.
176
519625
3357
ولدي بعض الأفكار عما يمكننا القيام به بالفعل.
08:43
So firstly, if we're serious about bringing the public into this,
177
523006
3103
أولاً، إن كنا جادين حقًا بشأن إشراك الناس بهذا الأمر،
08:46
can we take some inspiration from Wikipedia?
178
526133
2381
هل يمكن أن نستلهم من تجربة ويكيبيديا؟
08:48
They've shown us what's possible.
179
528538
1824
هم أثبتوا أن الأمر ممكن.
08:50
Yes, it's not perfect,
180
530386
1151
أجل، التجربة ليست مثالية،
08:51
but they've demonstrated that with the right structures,
181
531561
2634
لكنهم أظهروا أنه وباستخدام الهياكل الصحيحة،
08:54
with a global outlook and lots and lots of transparency,
182
534219
2635
ورقابة عالمية ودرجة كبيرة جدًا من الشفافية،
08:56
you can build something that will earn the trust of most people.
183
536878
3096
يمكن بناء شيء يحظى بثقة أغلب الناس.
08:59
Because we have to find a way to tap into the collective wisdom
184
539998
3162
لأنه يتوجب علينا أن نجد طريقة لكي نستفيد من الحكمة الجماعية
09:03
and experience of all users.
185
543184
2309
والخبرات التي يمتلكها كل المستخدمين.
09:05
This is particularly the case for women, people of color
186
545517
2646
وهذا ينطبق بالذات على النساء، وذوي البشرة غير البيضاء
09:08
and underrepresented groups.
187
548187
1346
والمجموعات قليلة التمثيل.
09:09
Because guess what?
188
549557
1166
هل تعرفون لماذا؟
09:10
They are experts when it comes to hate and disinformation,
189
550747
2735
لأنهم خبراء حين يتعلق الأمر بالكراهية والتضليل،
09:13
because they have been the targets of these campaigns for so long.
190
553506
3516
لأنهم شكّلوا أهدافًا لتلك الحملات منذ زمن بعيد.
09:17
And over the years, they've been raising flags,
191
557046
2350
ولقد رفعوا الكثير من علامات التحذير على مر السنين،
09:19
and they haven't been listened to.
192
559420
1665
ولم يتم الانتباه لأي منها.
09:21
This has got to change.
193
561109
1280
يجب أن يتغير هذا الأمر.
09:22
So could we build a Wikipedia for trust?
194
562807
4326
فهل يمكننا بناء ويكيبيديا من أجل الاستيثاق؟
09:27
Could we find a way that users can actually provide insights?
195
567157
4189
هل يمكننا أن نجد طريقة ليتمكن المستخدمون من إضافة رؤيتهم؟
09:31
They could offer insights around difficult content-moderation decisions.
196
571370
3697
يمكن أن يقدموا رؤاهم بخصوص القرارات الصعبة لمراقبة المحتوى.
09:35
They could provide feedback
197
575091
1463
يمكنهم تقديم ملاحظاتهم
09:36
when platforms decide they want to roll out new changes.
198
576578
3041
حين تقرر المنصات تقديم تغيرات جديدة للمستخدمين.
09:40
Second, people's experiences with the information is personalized.
199
580241
4162
ثانيًا، تجارب الناس مع المعلومات لها طابعها الشخصي.
09:44
My Facebook news feed is very different to yours.
200
584427
2643
الأخبار التي تظهر لي على فيسبوك تختلف عن تلك التي تظهر لك.
09:47
Your YouTube recommendations are very different to mine.
201
587094
2745
مفضَلاتك على يوتيوب تختلف تمامًا عن مفضَلاتي.
09:49
That makes it impossible for us to actually examine
202
589863
2492
وهو ما يعني أنه من المستحيل أن نتمكن من مراجعة
09:52
what information people are seeing.
203
592379
2023
المعلومات التي يطلع عليها الناس.
09:54
So could we imagine
204
594815
1389
هل يمكننا تخيل
09:56
developing some kind of centralized open repository for anonymized data,
205
596228
4778
تطوير مستودع مركزي ليكون متاحًا لأخذ البيانات المُجهّلة،
10:01
with privacy and ethical concerns built in?
206
601030
2864
على أن يتضمن حلولًا لهواجس الخصوصية والأخلاقية؟
10:04
Because imagine what we would learn
207
604220
1778
تخيلوا ما يمكن أن نعرفه
10:06
if we built out a global network of concerned citizens
208
606022
3261
إن أنشأنا شبكة عالمية من مواطنين مهتمين
10:09
who wanted to donate their social data to science.
209
609307
3294
يرغبون في التبرع ببياناتهم الاجتماعية من أجل العِلم.
10:13
Because we actually know very little
210
613141
1722
لأننا في الحقيقة نعلم القليل جدًا
10:14
about the long-term consequences of hate and disinformation
211
614887
2881
عن الآثار الطويلة المدى للكراهية والمعلومات المضللة
10:17
on people's attitudes and behaviors.
212
617792
1975
على سلوك الناس وتصرفاتهم.
10:20
And what we do know,
213
620236
1167
وما نعرفه بالفعل،
10:21
most of that has been carried out in the US,
214
621427
2193
أنه تم تنفيذ هذا في الولايات المتحدة،
10:23
despite the fact that this is a global problem.
215
623644
2381
بالرغم من أن هذه مشكلة عالمية.
10:26
We need to work on that, too.
216
626049
1635
يجب أن نهتم بهذا الجانب أيضًا.
10:28
And third,
217
628192
1150
وثالثًا،
10:29
can we find a way to connect the dots?
218
629366
2310
هل يمكننا جمع جهات مختلفة معًا؟
10:31
No one sector, let alone nonprofit, start-up or government,
219
631700
3438
لا يتمكن قطاع واحد أو حكومة ناهيك عن منظمات غير ربحية،
10:35
is going to solve this.
220
635162
1422
من حل هذه المشكلة.
10:36
But there are very smart people right around the world
221
636608
2564
لكن يوجد الآن أناس أذكياء في جميع أنحاء العالم
10:39
working on these challenges,
222
639196
1381
يعملون على حل هذه التحديات،
10:40
from newsrooms, civil society, academia, activist groups.
223
640601
3576
من غرف الأخبار، إلى المجتمعات المدنية، والمجموعات الأكاديمية وكذلك الناشطون.
10:44
And you can see some of them here.
224
644201
1898
ويمكنكم أن تروا بعضهم هنا.
10:46
Some are building out indicators of content credibility.
225
646123
2927
البعض منهم ينشئ مؤشرات للدلالة على مصداقية المحتوى.
10:49
Others are fact-checking,
226
649074
1246
ويتأكد آخرون من المعلومات،
10:50
so that false claims, videos and images can be down-ranked by the platforms.
227
650344
3591
حتى تعطى الادعاءات والأفلام والصور الكاذبة أولوية أقل في تلك المنصات.
10:53
A nonprofit I helped to found, First Draft,
228
653959
2213
توجد منظمة غير ربحية عملتُ على تأسيسها، تدعى "فورست درافت"،
10:56
is working with normally competitive newsrooms around the world
229
656196
2968
تعمل مع غرف أخبار متنافسة حول العالم
10:59
to help them build out investigative, collaborative programs.
230
659188
3503
لمساعدتها في بناء برامج استقصائية تعاونية.
11:03
And Danny Hillis, a software architect,
231
663231
2309
داني هيليس، مهندس برامج كمبيوتر،
11:05
is designing a new system called The Underlay,
232
665564
2381
يصمم برنامجًا جديدًا يسمى "ذي أندرلاي"،
11:07
which will be a record of all public statements of fact
233
667969
2775
سيوثّق لجميع الإصدارات العامة من الحقائق
11:10
connected to their sources,
234
670768
1329
مع ربطها بمصادرها،
11:12
so that people and algorithms can better judge what is credible.
235
672121
3654
لكي تتمكن الخوارزميات والناس من تحديد ما هو حقيقي على نحو أدق.
11:16
And educators around the world are testing different techniques
236
676800
3356
كما يوجد مدربون حول العالم يختبرون طرقًا متعددة
11:20
for finding ways to make people critical of the content they consume.
237
680180
3484
لجعل الناس أكثر حرصًا عند اختيار المحتوى الذي يشاركونه.
11:24
All of these efforts are wonderful, but they're working in silos,
238
684633
3141
جميعها جهود رائعة إلا أنها تبقى منفصلة عن بعضها،
11:27
and many of them are woefully underfunded.
239
687798
2680
وكثير منها يعاني من نقص التمويل.
11:30
There are also hundreds of very smart people
240
690502
2053
كما يوجد المئات من الأذكياء
11:32
working inside these companies,
241
692579
1652
الذين يعملون في تلك الشركات،
11:34
but again, these efforts can feel disjointed,
242
694255
2325
ولكن مرة أخرى، يشعرون أنهم مفككون عن بعضهم،
11:36
because they're actually developing different solutions to the same problems.
243
696604
3937
لأنهم في حقيقة الأمر، يطورون حلولًا مختلفة لذات المشكلة.
11:41
How can we find a way to bring people together
244
701205
2269
كيف يمكننا أن نجمع هؤلاء معًا
11:43
in one physical location for days or weeks at a time,
245
703498
3278
في مكانٍ واحدٍ لمدة أيام وأسابيع،
11:46
so they can actually tackle these problems together
246
706800
2396
لكي يتباحثوا في تلك المشاكل معًا
11:49
but from their different perspectives?
247
709220
1818
ولكن من وجهات نظر مختلفة؟
11:51
So can we do this?
248
711062
1340
هل يمكننا القيام بذلك؟
11:52
Can we build out a coordinated, ambitious response,
249
712426
3239
هل يمكننا صياغة استجابة منسقة وطموحة،
11:55
one that matches the scale and the complexity of the problem?
250
715689
3709
استجابة تتناسب مع تحديات وتعقيدات المشكلة؟
11:59
I really think we can.
251
719819
1373
أعتقد بحق أنه يمكننا ذلك.
12:01
Together, let's rebuild our information commons.
252
721216
2959
لنعمل معًا على إعادة بناء معلوماتنا المشتركة.
12:04
Thank you.
253
724819
1190
شكرًا جزيلًا.
12:06
(Applause)
254
726033
3728
(تصفيق)
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7