How we can protect truth in the age of misinformation | Sinan Aral

216,072 views ・ 2020-01-16

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

00:00
Translator: Ivana Korom Reviewer: Krystian Aparta
0
0
7000
المترجم: Reham Almrouti المدقّق: Fatima Zahra El Hafa
00:13
So, on April 23 of 2013,
1
13468
5222
إذن، في 23 أبريل من سنة 2013،
00:18
the Associated Press put out the following tweet on Twitter.
2
18714
5514
نشرت وكالة أسوشيتد برس تغريدة على منصة تويتر
00:24
It said, "Breaking news:
3
24252
2397
فحواها: "أخبار عاجلة:
00:26
Two explosions at the White House
4
26673
2571
غارتان استهدفتا البيت الأبيض
00:29
and Barack Obama has been injured."
5
29268
2333
وأدى القصف لإصابة باراك أوباما."
00:32
This tweet was retweeted 4,000 times in less than five minutes,
6
32212
5425
أُعيد تغريد هذا الخبر 4000 مرة في أقل من خمس دقائق،
00:37
and it went viral thereafter.
7
37661
2217
فانتشر الخبر بعدئذ انتشار واسعًا.
00:40
Now, this tweet wasn't real news put out by the Associated Press.
8
40760
4350
هذه التغريدة ليست خبرًا صحيحًا نشرته وكالة أسوشيتد برس.
00:45
In fact it was false news, or fake news,
9
45134
3333
في الحقيقة كان خبرًا ملفقًا،
00:48
that was propagated by Syrian hackers
10
48491
2825
أشاعه قراصنة سوريون
00:51
that had infiltrated the Associated Press Twitter handle.
11
51340
4694
حيث استولوا على حساب وكالة أسوشيتد برس على تويتر.
00:56
Their purpose was to disrupt society, but they disrupted much more.
12
56407
3889
كان جل هدفهم زعزعت المجتمع، لكن فعلتهم هذه أدت إلى زعزعة أخرى.
01:00
Because automated trading algorithms
13
60320
2476
لأنّ خوارزميات التداول الآلية
01:02
immediately seized on the sentiment on this tweet,
14
62820
3360
استغلت على الفور الميول المرتبط بهذه التغريدة،
01:06
and began trading based on the potential
15
66204
2968
وبدأت في التداول مرتكزة على احتمالية
01:09
that the president of the United States had been injured or killed
16
69196
3381
إصابة أو اغتيال رئيس الولايات المتحدة
01:12
in this explosion.
17
72601
1200
خلال القصف آنف الذكر.
01:14
And as they started tweeting,
18
74188
1992
وبمجرّد الانطلاق في التغريد،
01:16
they immediately sent the stock market crashing,
19
76204
3349
بدأ سوق الأسهم بالانهيار مباشرة،
01:19
wiping out 140 billion dollars in equity value in a single day.
20
79577
5167
مسببًا خسائر تقدر بـ140 مليون دولار في يوم واحد.
01:25
Robert Mueller, special counsel prosecutor in the United States,
21
85062
4476
أصدر روبرت مولر، المستشار الخاص للنائب العام بالولايات المتّحدة،
01:29
issued indictments against three Russian companies
22
89562
3892
لوائح اتهام ضد ثلاث شركات روسية
01:33
and 13 Russian individuals
23
93478
2619
و13 شخصًا روسيًا
01:36
on a conspiracy to defraud the United States
24
96121
3167
في مؤامرة للاحتيال على الولايات المتحدة
01:39
by meddling in the 2016 presidential election.
25
99312
3780
بالتدخل في الانتخابات الرئاسية لعام 2016.
01:43
And what this indictment tells as a story
26
103855
3564
وما ترويه لائحة الاتهامات هذه
01:47
is the story of the Internet Research Agency,
27
107443
3142
هو قصة وكالة أبحاث الإنترنت،
01:50
the shadowy arm of the Kremlin on social media.
28
110609
3594
السلاح المبهم للكرملين على وسائل التواصل.
01:54
During the presidential election alone,
29
114815
2777
خلال الانتخابات الرئاسية لوحدها،
01:57
the Internet Agency's efforts
30
117616
1889
وصلت جهود وكالة أبحاث الإنترنت
01:59
reached 126 million people on Facebook in the United States,
31
119529
5167
إلى 126 مليون شخص على منصة فيسبوك في الولايات المتحدة،
02:04
issued three million individual tweets
32
124720
3277
محققة 3 ملايين تغريدة
02:08
and 43 hours' worth of YouTube content.
33
128021
3842
و43 ساعة من محتوى اليوتيوب،
02:11
All of which was fake --
34
131887
1652
كلها كانت أخبارًا ملفقة...
02:13
misinformation designed to sow discord in the US presidential election.
35
133563
6323
معلومات مضللة اختلقت من أجل زرع الشقاق في انتخابات الولايات المتحدة.
02:20
A recent study by Oxford University
36
140996
2650
أظهرت دراسة جديدة أجرتها جامعة أكسفورد
02:23
showed that in the recent Swedish elections,
37
143670
3270
أنه في الانتخابات الأخيرة للسويد،
02:26
one third of all of the information spreading on social media
38
146964
4375
كانت ثلث المعلومات المنتشرة في مواقع التواصل الاجتماعي
02:31
about the election
39
151363
1198
حول الانتخابات
02:32
was fake or misinformation.
40
152585
2087
معلومات كاذبة أو ملفقة.
02:35
In addition, these types of social-media misinformation campaigns
41
155037
5078
إضافة إلى أن هذا النوع من حملات التضليل على مواقع التواصل الاجتماعي
02:40
can spread what has been called "genocidal propaganda,"
42
160139
4151
بوسعها نشر ما يسمى "الدعاية الإبادية"
02:44
for instance against the Rohingya in Burma,
43
164314
3111
على سبيل المثال، ضدّ الروهينغا في بورما،
02:47
triggering mob killings in India.
44
167449
2303
أو التسبب في مقتل مجموعات واسعة في الهند.
02:49
We studied fake news
45
169776
1494
لقد درسنا الأخبار الكاذبة
02:51
and began studying it before it was a popular term.
46
171294
3219
وبدأنا في دراستها قبل أن تصبح مصطلحًا شائعًا.
02:55
And we recently published the largest-ever longitudinal study
47
175030
5040
وقد نشرنا مؤخرًا أكبر دراسة طوليّة
03:00
of the spread of fake news online
48
180094
2286
عن انتشار الأخبار الخاطئة في الويب
03:02
on the cover of "Science" in March of this year.
49
182404
3204
على غلاف مجلة ساينس في شهر مارس من هذه السنة.
03:06
We studied all of the verified true and false news stories
50
186523
4161
لقد درسنا جميع القصص الإخبارية الصحيح منها والكاذب
03:10
that ever spread on Twitter,
51
190708
1753
التي نُشرت على منصة تويتر،
03:12
from its inception in 2006 to 2017.
52
192485
3818
منذ إطلاقه في عام 2006 حتى عام 2017.
03:16
And when we studied this information,
53
196612
2314
وعندما درسنا هذه المعلومات،
03:18
we studied verified news stories
54
198950
2876
درسنا قصص الأخبار المؤكدة
03:21
that were verified by six independent fact-checking organizations.
55
201850
3918
التي تحققت منها ست منظمات مستقلة للتحقق من الأخبار.
03:25
So we knew which stories were true
56
205792
2762
لذلك عرفنا أي القصص كانت صحيحة
03:28
and which stories were false.
57
208578
2126
وأيها كانت كاذبة.
03:30
We can measure their diffusion,
58
210728
1873
بوسعنا قياس انتشارها
03:32
the speed of their diffusion,
59
212625
1651
وسرعة انتشارها،
03:34
the depth and breadth of their diffusion,
60
214300
2095
ونطاق ومدى انتشارها،
03:36
how many people become entangled in this information cascade and so on.
61
216419
4142
وكم من الناس أصبحوا متشابكين في سلسلة المعلومات هذه، وما إلى ذلك.
03:40
And what we did in this paper
62
220942
1484
وما فعلناه في هذا البحث
03:42
was we compared the spread of true news to the spread of false news.
63
222450
3865
هو أننا قارنا سرعة انتشار الأخبار الصحيحة مع سرعة انتشار الأخبار الكاذبة.
03:46
And here's what we found.
64
226339
1683
وهذا ما توصلنا إليه.
03:48
We found that false news diffused further, faster, deeper
65
228046
3979
توصلنا إلى أن الأخبار الكاذبة تنتشر أبعد وأسرع وأعمق
03:52
and more broadly than the truth
66
232049
1806
وأوسع من الأخبار الصحيحة
03:53
in every category of information that we studied,
67
233879
3003
في كل فئات المعلومات التي درسناها،
03:56
sometimes by an order of magnitude.
68
236906
2499
أحيانًا يكون الفرق بسبب حجم الخبر.
03:59
And in fact, false political news was the most viral.
69
239842
3524
في الحقيقة، توصلنا إلى أن الأخبار السياسية الكاذبة هي الأكثر انتشارًا.
04:03
It diffused further, faster, deeper and more broadly
70
243390
3147
تنتشر أبعد وأسرع وأعمق وأوسع
04:06
than any other type of false news.
71
246561
2802
من أي نوع من الأخبار الكاذبة الأخرى.
04:09
When we saw this,
72
249387
1293
عندما اطلعنا على هذه الدراسة،
04:10
we were at once worried but also curious.
73
250704
2841
أصابنا الذعر لكن انتابنا شيء من الفضول. لماذا؟
04:13
Why?
74
253569
1151
04:14
Why does false news travel so much further, faster, deeper
75
254744
3373
لماذا تنتقل الأخبار الكاذبة أسرع وأبعد وأعمق من الأخبار الصحيحة؟
04:18
and more broadly than the truth?
76
258141
1864
04:20
The first hypothesis that we came up with was,
77
260339
2961
كانت أول فرضية توصلنا لها هي:
04:23
"Well, maybe people who spread false news have more followers or follow more people,
78
263324
4792
"حسنًا، ربما من ينشرون
الأخبار الكاذبة يتابعون الكثير من الحسابات
أو لديهم متابعون أكثر،
04:28
or tweet more often,
79
268140
1557
أو يغردون كثيرًا،
04:29
or maybe they're more often 'verified' users of Twitter, with more credibility,
80
269721
4126
أو ربما في الغالب هم مستخدمون متحقق منهم مع مصداقية أكثر،
04:33
or maybe they've been on Twitter longer."
81
273871
2182
أو هم فعالون على المنصة منذ مدة طويلة."
04:36
So we checked each one of these in turn.
82
276077
2298
لذلك فحصنا كل فرضية على حدة.
04:38
And what we found was exactly the opposite.
83
278691
2920
وما وجدناه كان النقيض تمامًا.
04:41
False-news spreaders had fewer followers,
84
281635
2436
ناشروا الأخبار الكاذبة لديهم متابعون أقل،
04:44
followed fewer people, were less active,
85
284095
2254
ويتابعون أشخاصًا أقل، كما وأنهم أقل نشاطا،
04:46
less often "verified"
86
286373
1460
وليسوا مستعملين متحقق منهم
04:47
and had been on Twitter for a shorter period of time.
87
287857
2960
ولم يمض على تواجدهم على المنصة إلا فترة قليلة
04:50
And yet,
88
290841
1189
ومع هذا،
04:52
false news was 70 percent more likely to be retweeted than the truth,
89
292054
5033
كانت الأخبار الكاذبة أكثر عرضة للنشر من الأخبار المؤكدة بنسبة 70 في المائة،
04:57
controlling for all of these and many other factors.
90
297111
3363
مسيطرة على كل هذه العوامل وغيرها.
05:00
So we had to come up with other explanations.
91
300498
2690
لذلك تعين علينا الإتيان بتفسيرات أخرى.
05:03
And we devised what we called a "novelty hypothesis."
92
303212
3467
وابتكرنا ما أطلقنا عليه "فرضية الحداثة".
05:07
So if you read the literature,
93
307038
1960
إن كنت من القراء في مجال الأدب،
05:09
it is well known that human attention is drawn to novelty,
94
309022
3754
فمن الشائع أن انتباه الإنسان ينجذب نحو الحداثة؛
05:12
things that are new in the environment.
95
312800
2519
أشياء مستحدثة في البيئة.
05:15
And if you read the sociology literature,
96
315343
1985
أما إن كنت من قراء أدب علم الاجتماع،
05:17
you know that we like to share novel information.
97
317352
4300
فإنك على دراية بأننا نهوى مشاركة المعلومات الجديدة.
05:21
It makes us seem like we have access to inside information,
98
321676
3838
فبدورها تجعلنا نبدو وكأننا على دراية بالأسرار الداخلية،
05:25
and we gain in status by spreading this kind of information.
99
325538
3785
ونكتسب مكانتنا بنشر هذا النوع من المعلومات.
05:29
So what we did was we measured the novelty of an incoming true or false tweet,
100
329792
6452
إذًا ما فعلناه هو أننا قمنا بقياس حداثة تغريدة واردة، مؤكدة الصحة كانت أم كاذبة،
05:36
compared to the corpus of what that individual had seen
101
336268
4055
ومقارنتها بمجموع ما شاهده ذلك الفرد
05:40
in the 60 days prior on Twitter.
102
340347
2952
في الشهرين السابقين على تطبيق تويتر.
05:43
But that wasn't enough, because we thought to ourselves,
103
343323
2659
لكن هذا لم يكن كافيًا؛ لأننا اعتقدنا:
05:46
"Well, maybe false news is more novel in an information-theoretic sense,
104
346006
4208
"حسنًا، ربما تكون الأخبار الكاذبة أكثر استحداثًا بالمعنى النظري للمعلومات،
05:50
but maybe people don't perceive it as more novel."
105
350238
3258
لكن ربما لا يتصورها الناس على أنها مستحدثة."
05:53
So to understand people's perceptions of false news,
106
353849
3927
ولفهم تصورات الناس حول الأخبار الكاذبة،
05:57
we looked at the information and the sentiment
107
357800
3690
أمعنا النظر في المعلومات والعاطفة
06:01
contained in the replies to true and false tweets.
108
361514
4206
الواردة في الردود على التغريدات، الحقيقي منها والكاذب.
06:06
And what we found
109
366022
1206
وما وجدناه
06:07
was that across a bunch of different measures of sentiment --
110
367252
4214
هو أنه عبر مجموعة من المقاييس المختلفة من العاطفة،
06:11
surprise, disgust, fear, sadness,
111
371490
3301
التفاجؤ والاشمئزاز والخوف والحزن
06:14
anticipation, joy and trust --
112
374815
2484
والترقب والفرح والثقة...
06:17
false news exhibited significantly more surprise and disgust
113
377323
5857
أظهرت الأخبار الكاذبة نسبة أكبر من التفاجؤ والاشمئزاز بشكل ملحوظ
06:23
in the replies to false tweets.
114
383204
2806
في الردود على التغريدات المزيفة.
06:26
And true news exhibited significantly more anticipation,
115
386392
3789
وأظهرت الأخبار الحقيقية نسبة أكبر من الترقب
06:30
joy and trust
116
390205
1547
والفرح والثقة
06:31
in reply to true tweets.
117
391776
2547
في الرد على التغريدات الحقيقية.
06:34
The surprise corroborates our novelty hypothesis.
118
394347
3786
يؤكد التفاجؤ فرضيتنا الجديدة.
06:38
This is new and surprising, and so we're more likely to share it.
119
398157
4609
هذا خبر جديد ومثير للدهشة، وعليه من المرجح أن نشاركه.
06:43
At the same time, there was congressional testimony
120
403092
2925
في ذات الوقت، كانت هناك شهادات للكونغرس
06:46
in front of both houses of Congress in the United States,
121
406041
3036
أمام مجلسيه في الولايات المتحدة،
06:49
looking at the role of bots in the spread of misinformation.
122
409101
3738
تنظر في دور روبوتات الويب في انتشار المعلومات المغلوطة.
06:52
So we looked at this too --
123
412863
1354
لذا أجَلنا النظر في هذا أيضًا
06:54
we used multiple sophisticated bot-detection algorithms
124
414241
3598
استخدمنا عدة خوارزميات متطورة للكشف عن روبوتات الويب
06:57
to find the bots in our data and to pull them out.
125
417863
3074
والعثور عليها في بياناتنا ومن ثم سحبها.
07:01
So we pulled them out, we put them back in
126
421347
2659
لذلك قمنا بسحبها، ووضعها مرة أخرى
07:04
and we compared what happens to our measurement.
127
424030
3119
وقارنا ما يحدث في عملية القياس لدينا.
07:07
And what we found was that, yes indeed,
128
427173
2293
وما وجدناه هو، نعم بالفعل،
07:09
bots were accelerating the spread of false news online,
129
429490
3682
تُسرع الروبوتات معدل نشر الأخبار الكاذبة عبر الإنترنت،
07:13
but they were accelerating the spread of true news
130
433196
2651
لكنها كانت تسرع انتشار الأخبار الحقيقية
07:15
at approximately the same rate.
131
435871
2405
بنفس المعدل تقريبًا.
07:18
Which means bots are not responsible
132
438300
2858
مما يعني أن روبوتات الويب ليست مسؤولة
07:21
for the differential diffusion of truth and falsity online.
133
441182
4713
عن التباين بين انتشار الأخبار الحقيقية والأخبار الزائفة على شبكة الويب.
07:25
We can't abdicate that responsibility,
134
445919
2849
ليس بوسعنا أن نتخلى عن هذه المسؤولية الملقاة على عاتقنا،
07:28
because we, humans, are responsible for that spread.
135
448792
4259
لأننا نحن البشر، مسؤولون عن هذا الانتشار.
07:34
Now, everything that I have told you so far,
136
454472
3334
الآن، كل ما أخبرتكم به حتى الآن،
07:37
unfortunately for all of us,
137
457830
1754
للأسف بالنسبة لنا جميعًا،
07:39
is the good news.
138
459608
1261
هو الخبر السار.
07:42
The reason is because it's about to get a whole lot worse.
139
462670
4450
السبب هو أنه على وشك أن يزداد الأمر سوءًا.
07:47
And two specific technologies are going to make it worse.
140
467850
3682
وهناك تقنيتان محددتان ستزيدان الأمر سوءًا.
07:52
We are going to see the rise of a tremendous wave of synthetic media.
141
472207
5172
سنرى صعود موجة هائلة من الوسائط الاصطناعية.
07:57
Fake video, fake audio that is very convincing to the human eye.
142
477403
6031
فيديو مزيف، وصوت مزيف مقنع للغاية للعين البشرية.
08:03
And this will powered by two technologies.
143
483458
2754
وهذا سوف تدعمه تقنيتان.
08:06
The first of these is known as "generative adversarial networks."
144
486236
3833
يُعرف أولها باسم "شبكات الخصومة التوليدية".
08:10
This is a machine-learning model with two networks:
145
490093
2563
ويعتبر نموذج تعليم آلي مزود بشبكتين:
08:12
a discriminator,
146
492680
1547
شبكة أداة تمييز،
08:14
whose job it is to determine whether something is true or false,
147
494251
4200
وتتمثل مهمتها في تحديد ما إذا كان الشيء حقيقيًا أم مزيفًا،
08:18
and a generator,
148
498475
1167
وشبكة مولد،
08:19
whose job it is to generate synthetic media.
149
499666
3150
وظيفتها إنشاء وسائط اصطناعية.
08:22
So the synthetic generator generates synthetic video or audio,
150
502840
5102
لذا يولد المولد الصناعي مقطع فيديو أو صوتًا اصطناعيين،
08:27
and the discriminator tries to tell, "Is this real or is this fake?"
151
507966
4675
وتحاول شبكة التمييز إخبارنا: "هل هذا حقيقي أم مزيف؟"
08:32
And in fact, it is the job of the generator
152
512665
2874
وفي الواقع، إن مهمة الشبكة المولد
08:35
to maximize the likelihood that it will fool the discriminator
153
515563
4435
هي رفع الحد الأقصى من احتمالية أن تُخدع شبكة أداة التمييز
08:40
into thinking the synthetic video and audio that it is creating
154
520022
3587
باعتقاد أن الفيديو والصوت الاصطناعيين اللذان تصنعهما
08:43
is actually true.
155
523633
1730
حقيقيان في الواقع.
08:45
Imagine a machine in a hyperloop,
156
525387
2373
تخيلوا آلة في جوف حلقة دوارة،
08:47
trying to get better and better at fooling us.
157
527784
2803
تسعى جاهدة لتحسين الطرق في خداعنا.
08:51
This, combined with the second technology,
158
531114
2500
هذا، إلى جانب التقنية الثانية،
08:53
which is essentially the democratization of artificial intelligence to the people,
159
533638
5722
والتي تتمثل أساسًا في إضفاء الطابع الديمقراطي على الذكاء الاصطناعي للناس،
08:59
the ability for anyone,
160
539384
2189
إن قدرة أي شخص،
09:01
without any background in artificial intelligence
161
541597
2830
دون أي خلفية في الذكاء الاصطناعي
09:04
or machine learning,
162
544451
1182
والتعلم الآلي،
09:05
to deploy these kinds of algorithms to generate synthetic media
163
545657
4103
على نشر هذه الأنواع من الخوارزميات لتوليد الوسائط الاصطناعية
09:09
makes it ultimately so much easier to create videos.
164
549784
4547
يُسهل من إنشاء مقاطع الفيديو.
09:14
The White House issued a false, doctored video
165
554355
4421
أصدر البيت الأبيض شريط فيديو مفبرك
09:18
of a journalist interacting with an intern who was trying to take his microphone.
166
558800
4288
عن صحفي يتفاعل مع متدربة كانت تحاول التقاط الميكروفون من يده.
09:23
They removed frames from this video
167
563427
1999
لقد أزالوا لقطات من هذا الفيديو
09:25
in order to make his actions seem more punchy.
168
565450
3287
لجعل تصرفاته تبدو أكثر عدوانية.
09:29
And when videographers and stuntmen and women
169
569157
3385
وعندما أُجريت مقابلات مع مصوري فيديو وممثلين بدلاء
09:32
were interviewed about this type of technique,
170
572566
2427
حول هذا النوع من التقنية،
09:35
they said, "Yes, we use this in the movies all the time
171
575017
3828
قالوا: "نعم، نستخدم هذه التقنية في الأفلام طوال الوقت
09:38
to make our punches and kicks look more choppy and more aggressive."
172
578869
4763
لجعل اللكمات والركلات تبدو أكثر تقلبًا وعدوانية."
09:44
They then put out this video
173
584268
1867
ثم وضعوا هذا الفيديو
09:46
and partly used it as justification
174
586159
2500
واستخدموه جزئيًا كمبرر
09:48
to revoke Jim Acosta, the reporter's, press pass
175
588683
3999
لإلغاء الإذن الذي يسمح للصحفي جيم أكوستا
09:52
from the White House.
176
592706
1339
بدخول البيت الأبيض.
09:54
And CNN had to sue to have that press pass reinstated.
177
594069
4809
مما جعل قناة سي إن إن ترفع دعوى قضائية لإعادة تفعيل ذلك الإذن الصحفي.
10:00
There are about five different paths that I can think of that we can follow
178
600538
5603
هناك حوالي خمسة مسارات مختلفة أرى أنه يمكننا اتباعها
10:06
to try and address some of these very difficult problems today.
179
606165
3739
لمحاولة معالجة بعض هذه المشاكل الصعبة اليوم.
10:10
Each one of them has promise,
180
610379
1810
كل مسار من هذه المسارات واعد،
10:12
but each one of them has its own challenges.
181
612213
2999
غير أن كل مسار لديه تحدياته الخاصة.
10:15
The first one is labeling.
182
615236
2008
أولها هو وضع بطاقة البيانات الإضاحية.
10:17
Think about it this way:
183
617268
1357
فكروا في الأمر بهذه الطريقة:
10:18
when you go to the grocery store to buy food to consume,
184
618649
3611
عندما تذهبون إلى متجر البقالة لشراء الطعام،
10:22
it's extensively labeled.
185
622284
1904
فإن البطاقات تحتوي على بيانات مُفصلة.
10:24
You know how many calories it has,
186
624212
1992
فيتسنى لك معرفة عدد السعرات الحرارية،
10:26
how much fat it contains --
187
626228
1801
ومقدار الدهون التي تحتوي عليها،
10:28
and yet when we consume information, we have no labels whatsoever.
188
628053
4278
لكن عندما نستهلك المعلومات، ليست لدينا بطاقات إضاحية البتة.
10:32
What is contained in this information?
189
632355
1928
ما الذي تشمله هذه المعلومات؟
10:34
Is the source credible?
190
634307
1453
هل المصدر موثوق؟
10:35
Where is this information gathered from?
191
635784
2317
من أين جُمعت هذه المعلومات؟
10:38
We have none of that information
192
638125
1825
ليس لدينا أي من هذه المعطيات
10:39
when we are consuming information.
193
639974
2103
عندما نستهلك المعلومات.
10:42
That is a potential avenue, but it comes with its challenges.
194
642101
3238
هذه أحد السبل المحتملة، لكنها تأتي مع تحدياتها.
10:45
For instance, who gets to decide, in society, what's true and what's false?
195
645363
6451
على سبيل المثال، في المجتمع، من الذي يقرر ما هو الصحيح وما هو الخطأ؟
10:52
Is it the governments?
196
652387
1642
هل هي الحكومات؟
10:54
Is it Facebook?
197
654053
1150
هل هو فيسبوك؟
10:55
Is it an independent consortium of fact-checkers?
198
655601
3762
هل هو اتحاد مستقل من مدققي الحقائق؟
10:59
And who's checking the fact-checkers?
199
659387
2466
ومن الذي يتحقق من مدققي الحقائق؟
11:02
Another potential avenue is incentives.
200
662427
3084
أحد السبل المحتملة الأخرى هي الحوافز.
11:05
We know that during the US presidential election
201
665535
2634
نعلم أنه خلال الانتخابات الرئاسية الأمريكية
11:08
there was a wave of misinformation that came from Macedonia
202
668193
3690
كانت هناك موجة من المعلومات المغلوطة التي جاءت بها دولة مقدونيا
11:11
that didn't have any political motive
203
671907
2337
والتي لم يكن لها أي دافع سياسي
11:14
but instead had an economic motive.
204
674268
2460
ولكن بدلاً من ذلك كان لها دافع اقتصادي.
11:16
And this economic motive existed,
205
676752
2148
تداعى تواجد هذا الدافع الاقتصادي
11:18
because false news travels so much farther, faster
206
678924
3524
جراء تنقل الأخبار الكاذبة تنقلًا سريعًا
11:22
and more deeply than the truth,
207
682472
2010
وعميقًا مقارنة بالأخبار الحقيقة،
11:24
and you can earn advertising dollars as you garner eyeballs and attention
208
684506
4960
ويمكنك أن تكسب دولارًا إعلانيًا بينما تغوي العيون والأذهان
11:29
with this type of information.
209
689490
1960
بهذا النوع من المعلومات.
11:31
But if we can depress the spread of this information,
210
691474
3833
ولكن إذا كان باستطاعتنا تقليل انتشار هذه المعلومات،
11:35
perhaps it would reduce the economic incentive
211
695331
2897
فربما يقلل ذلك من الحافز الاقتصادي
11:38
to produce it at all in the first place.
212
698252
2690
لإنتاجها في المقام الأول.
11:40
Third, we can think about regulation,
213
700966
2500
ثالثًا، يمكننا التفكير في التنظيم،
11:43
and certainly, we should think about this option.
214
703490
2325
وبالتأكيد علينا أن نفكر في هذا الخيار.
11:45
In the United States, currently,
215
705839
1611
في الولايات المتحدة، حاليًا،
11:47
we are exploring what might happen if Facebook and others are regulated.
216
707474
4848
نستكشف ما قد يحدث إذا تم تنسيق منصة فيسبوك وغيرها من المنصات تنسيقا قانونيا.
11:52
While we should consider things like regulating political speech,
217
712346
3801
على الرغم من أنه ينبغي علينا إمعان النظر في أمور كتنظيم الخطاب السياسي،
11:56
labeling the fact that it's political speech,
218
716171
2508
مع الإشارة إلى حقيقة أنه خطاب سياسي،
11:58
making sure foreign actors can't fund political speech,
219
718703
3819
والتأكد من عدم قدرة الجهات الأجنبية الفاعلة على تمويل الخطاب السياسي،
12:02
it also has its own dangers.
220
722546
2547
فإن لهذا أيضًا مخاطره الخاصة.
12:05
For instance, Malaysia just instituted a six-year prison sentence
221
725522
4878
على سبيل المثال، فرضت ماليزيا عقوبة بالسجن لمدة ست سنوات
12:10
for anyone found spreading misinformation.
222
730424
2734
في حق أي شخص ينشر معلومات مضللة.
12:13
And in authoritarian regimes,
223
733696
2079
وفي الأنظمة الاستبدادية،
12:15
these kinds of policies can be used to suppress minority opinions
224
735799
4666
يمكن استخدام هذه الأنواع من السياسات لقمع آراء الأقليات
12:20
and to continue to extend repression.
225
740489
3508
ومواصلة كبحها.
12:24
The fourth possible option is transparency.
226
744680
3543
الخيار الرابع المحتمل هو الشفافية.
12:28
We want to know how do Facebook's algorithms work.
227
748843
3714
نريد أن نعرف كيف تعمل خوارزميات فيسبوك.
12:32
How does the data combine with the algorithms
228
752581
2880
وكيف تتحد البيانات مع الخوارزميات
12:35
to produce the outcomes that we see?
229
755485
2838
لتسفر عن النتائج التي نراها؟
12:38
We want them to open the kimono
230
758347
2349
نريدهم أن يُفصحوا عن الخبايا
12:40
and show us exactly the inner workings of how Facebook is working.
231
760720
4214
ويظهروا لنا بالضبط الأسرار الداخلية لكيفية عمل فيسبوك.
12:44
And if we want to know social media's effect on society,
232
764958
2779
وإذا كنا نريد معرفة تأثير وسائل التواصل على المجتمع،
12:47
we need scientists, researchers
233
767761
2086
فيجب أن يكون من السهل على العلماء والباحثين
12:49
and others to have access to this kind of information.
234
769871
3143
وغيرهم الوصول إلى هذا النوع من المعلومات.
12:53
But at the same time,
235
773038
1547
وفي الآن ذاته،
12:54
we are asking Facebook to lock everything down,
236
774609
3801
نحن نطالب من فيسبوك تأمين كل شيء،
12:58
to keep all of the data secure.
237
778434
2173
للحفاظ على أمان كافة البيانات.
13:00
So, Facebook and the other social media platforms
238
780631
3159
لذا، تواجه كل من منصة فيسبوك ومنصات التواصل الاجتماعي الأخرى
13:03
are facing what I call a transparency paradox.
239
783814
3134
ما أسميه بـ"مفارقة الشفافية".
13:07
We are asking them, at the same time,
240
787266
2674
نطلب من هذه المنصات
13:09
to be open and transparent and, simultaneously secure.
241
789964
4809
أن تتسم بالانفتاح والشفافية وأن تكون وسائل آمنة في آن واحد.
13:14
This is a very difficult needle to thread,
242
794797
2691
تعتبر هذه معضلة صعبة للغاية،
13:17
but they will need to thread this needle
243
797512
1913
لكنهم بحاجة لحلها
13:19
if we are to achieve the promise of social technologies
244
799449
3787
إذا ما أردنا تحقيق البشرى الموعودة من التقنيات الاجتماعية
13:23
while avoiding their peril.
245
803260
1642
إلى جانب ردع مخاطرها.
13:24
The final thing that we could think about is algorithms and machine learning.
246
804926
4691
الأمر الأخير الذي يمكننا التفكير في توظيفه هو الخوارزميات والتعلم الآلي.
13:29
Technology devised to root out and understand fake news, how it spreads,
247
809641
5277
ابتكار تقنية لاستئصال الأخبار الملفقة، وفهم ماهيتها، وكيفية انتشارها
13:34
and to try and dampen its flow.
248
814942
2331
ومحاولة كبح تدفقها.
13:37
Humans have to be in the loop of this technology,
249
817824
2897
ينبغي على البشر أن ينضموا إلى هذه الحلقة من التكنولوجيا؛
13:40
because we can never escape
250
820745
2278
لأنه لا مفر،
13:43
that underlying any technological solution or approach
251
823047
4038
حيث أنه يقبع خلف أي حل أو مقاربة تكنولوجية
13:47
is a fundamental ethical and philosophical question
252
827109
4047
سؤال أخلاقي وفلسفي أساسي
13:51
about how do we define truth and falsity,
253
831180
3270
حول تعريف الحقيقة والزيف،
13:54
to whom do we give the power to define truth and falsity
254
834474
3180
ولمن نمنح صلاحية تعريف الحقيقة والزيف،
13:57
and which opinions are legitimate,
255
837678
2460
وأي الآراء شرعية،
14:00
which type of speech should be allowed and so on.
256
840162
3706
وأي نوع من الخطاب مسموح، وهلم جرًا.
14:03
Technology is not a solution for that.
257
843892
2328
التكنولوجيا ليست حلًا لذلك.
14:06
Ethics and philosophy is a solution for that.
258
846244
3698
إن الأخلاق والفلسفة هي الحل.
14:10
Nearly every theory of human decision making,
259
850950
3318
تتمتع تقريبًا كل نظرية حول اتخاذ القرارات الإنسانية،
14:14
human cooperation and human coordination
260
854292
2761
والتعاون الإنساني، والتنسيق الإنساني
14:17
has some sense of the truth at its core.
261
857077
3674
بنسبة من الحقيقة في جوهرها.
14:21
But with the rise of fake news,
262
861347
2056
ولكن في ظل ظهور الأخبار المزيفة
14:23
the rise of fake video,
263
863427
1443
والفيديوهات المزيفة،
14:24
the rise of fake audio,
264
864894
1882
والأصوات المزيفة،
14:26
we are teetering on the brink of the end of reality,
265
866800
3924
فإننا نتأرجح على حافة نهاية الواقع،
14:30
where we cannot tell what is real from what is fake.
266
870748
3889
حيث لا يمكننا معرفة ما هو حقيقي من ما هو مزيف.
14:34
And that's potentially incredibly dangerous.
267
874661
3039
وهذا يُحتمل أن يكون خطيرًا بشكل لا يصدق.
14:38
We have to be vigilant in defending the truth
268
878931
3948
علينا أن نكون يقظين في الدفاع عن الحقيقة
14:42
against misinformation.
269
882903
1534
ضد المعلومات المغلوطة.
14:44
With our technologies, with our policies
270
884919
3436
من خلال تقنياتنا، وسياساتنا،
14:48
and, perhaps most importantly,
271
888379
1920
وربما الأهم من ذلك،
14:50
with our own individual responsibilities,
272
890323
3214
عبر مسؤولياتنا وقراراتنا
14:53
decisions, behaviors and actions.
273
893561
3555
وسلوكياتنا وأفعالنا الفردية.
14:57
Thank you very much.
274
897553
1437
شكرًا جزيلًا لكم.
14:59
(Applause)
275
899014
3517
(تصفيق)
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7