How deepfakes undermine truth and threaten democracy | Danielle Citron

87,053 views ・ 2019-10-07

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: Ghada Khalil المدقّق: Abdulwahab Algarni
00:12
[This talk contains mature content]
0
12535
2767
[تحتوي هذه المُحادثة على مُحتوَى للبالغين فقط]
00:17
Rana Ayyub is a journalist in India
1
17762
2992
رنا أيوب هي صحفية من الهند،
00:20
whose work has exposed government corruption
2
20778
2602
وقد ساهم عملُها في فضح فساد الحكومة
00:24
and human rights violations.
3
24411
2157
وانتهاكات حقوق الإنسان.
00:26
And over the years,
4
26990
1167
وبمرور السنوات،
00:28
she's gotten used to vitriol and controversy around her work.
5
28181
3303
كانت قد اعتادت على النقد اللاذع والجدل المُثار حول عملها.
00:32
But none of it could have prepared her for what she faced in April 2018.
6
32149
5109
ولكن لم يؤهلها أيٌ من ذلك لتوقُّع ما مرَّت به في أبريل 2018.
00:38
She was sitting in a café with a friend when she first saw it:
7
38125
3651
كانت جالسةً في مقهى مع صديقةٍ لها عندما رأته لأول مرة:
00:41
a two-minute, 20-second video of her engaged in a sex act.
8
41800
4943
مقطع فيديو مُدته دقيقتان وعشرون ثانية تظهر فيه أثناء مُمارستها للجنس.
00:47
And she couldn't believe her eyes.
9
47188
2349
ولم تستطع تصديق ما رأته عيناها.
00:49
She had never made a sex video.
10
49561
2273
فهي لم تقُم بتصوير أي فيديو إباحي أبدًا.
00:52
But unfortunately, thousands upon thousands of people
11
52506
3465
ولكن للأسف، كان الآلاف والآلاف من الناس
00:55
would believe it was her.
12
55995
1666
يُصدقون أنها هي مَن كانت في الفيديو.
00:58
I interviewed Ms. Ayyub about three months ago,
13
58673
2944
قُمتُ بمقابلة السيدة أيوب منذ حوالي ثلاثة أشهُر،
01:01
in connection with my book on sexual privacy.
14
61641
2504
بخُصوص كتابي عن الخصوصية الجنسية.
01:04
I'm a law professor, lawyer and civil rights advocate.
15
64681
3198
فأنا أستاذة في القانون، ومحامية، ومُدافعة عن الحقوق المدَنية.
01:08
So it's incredibly frustrating knowing that right now,
16
68204
4611
لذلك فمن المُحبِط بشدة معرفتي بأن القانون في الوقت الحالي
01:12
law could do very little to help her.
17
72839
2238
لا يستطيع مساعدتها.
01:15
And as we talked,
18
75458
1547
وأثناء حديثنا،
01:17
she explained that she should have seen the fake sex video coming.
19
77029
4512
أوضحت لي أنه كان عليها أن تتوقع ظهور ذلك المقطع الجنسي المُزيف.
01:22
She said, "After all, sex is so often used to demean and to shame women,
20
82038
5596
حيث قالت: "في النهاية، يكون الجنس دائمًا هو ما يتم استخدامه لتحقير النساء وإذلالهن،
01:27
especially minority women,
21
87658
2428
وخاصةً نساء الأقليات،
01:30
and especially minority women who dare to challenge powerful men,"
22
90110
4312
وخاصةً نساء الأقليات اللاتي تجرؤن على تحدي الرجال ذوي السُلطة،"
01:34
as she had in her work.
23
94446
1533
كما فعلَت هي من خلال عملها.
01:37
The fake sex video went viral in 48 hours.
24
97191
3976
انتشر مقطع الفيديو الإباحي المُزيف في خلال 48 ساعة.
01:42
All of her online accounts were flooded with screenshots of the video,
25
102064
5307
وامتلأت كل حساباتها على الإنترنت بصورٍ من ذلك الفيديو،
01:47
with graphic rape and death threats
26
107395
2627
مع تهديداتٍ بالاغتصاب والقتل
01:50
and with slurs about her Muslim faith.
27
110046
2533
وإهاناتٍ وعنصرية ضد كَونها مُسلمة.
01:53
Online posts suggested that she was "available" for sex.
28
113426
4564
ولمَّحَت بعض المنشورات أنها كانت "متاحة" للجنس.
01:58
And she was doxed,
29
118014
1610
وتم التشهير بها،
01:59
which means that her home address and her cell phone number
30
119648
2778
وهو ما يعني أن عنوان منزلها ورقم هاتفها
02:02
were spread across the internet.
31
122450
1746
تم نشرهما عبر الإنترنت.
02:04
The video was shared more than 40,000 times.
32
124879
4084
وتمَّت مُشاركة الفيديو أكثر من 40,000 مرة.
02:09
Now, when someone is targeted with this kind of cybermob attack,
33
129760
3936
في وقتنا الحالي، عندما يتعرض شخصٌ ما لهذا النوع من الهجوم الإلكتروني الجماعي،
02:13
the harm is profound.
34
133720
2063
يكون الضرر الواقع عليه شديدًا.
02:16
Rana Ayyub's life was turned upside down.
35
136482
3039
انقلبَت حياة رنا أيوب رأسًا على عقب.
02:20
For weeks, she could hardly eat or speak.
36
140211
3334
ولمدة أسابيع، كانت نادرًا ما تأكل أو تتحدث.
02:23
She stopped writing and closed all of her social media accounts,
37
143919
3689
وتوقفَت عن الكتابة وأغلقت كل حساباتها على مواقع التواصُل الاجتماعي،
02:27
which is, you know, a tough thing to do when you're a journalist.
38
147632
3158
وهو، كما تعلمون، أمرٌ صعب بالنسبة لكَونها صحفية.
02:31
And she was afraid to go outside her family's home.
39
151188
3484
وكانت تخشى الخروج من منزل عائلتها.
02:34
What if the posters made good on their threats?
40
154696
3022
فماذا لو نفَّذ الناس تهديداتهم؟
02:38
The UN Council on Human Rights confirmed that she wasn't being crazy.
41
158395
4365
أكّد مجلس الأُمم المُتحدة لحقوق الإنسان أنها لم تكُن تُبالغ،
02:42
It issued a public statement saying that they were worried about her safety.
42
162784
4637
وأصدَر بيانًا عامًا مُعلنًا فيه قلقهم على سلامتها.
02:48
What Rana Ayyub faced was a deepfake:
43
168776
4229
ما تعرَّضَت له رنا أيوب كان تزييفًا عميقًا،
02:53
machine-learning technology
44
173029
2540
وهو تقنية للتعلُّم الآلي
02:55
that manipulates or fabricates audio and video recordings
45
175593
4111
تقوم بالتلاعب وتلفيق تسجيلات مرئية وصوتية
02:59
to show people doing and saying things
46
179728
2723
بحيث يظهر فيها الأشخاص أثناء فعلهم وقولهم لأشياء
03:02
that they never did or said.
47
182475
1866
لم تصدُر منهم على الإطلاق.
03:04
Deepfakes appear authentic and realistic, but they're not;
48
184807
3361
وتبدو مقاطع التزييف العميق حقيقية وواقعية، ولكنّها ليست كذلك،
03:08
they're total falsehoods.
49
188192
1772
بل هي كاذبة تمامًا.
03:11
Although the technology is still developing in its sophistication,
50
191228
3794
وعلى الرغم من أن تلك التقنية ما زالت في مرحلة التجربة والتطوير،
03:15
it is widely available.
51
195046
1614
إلا أنها مُنتشرة بشكلٍ كبير.
03:17
Now, the most recent attention to deepfakes arose,
52
197371
3072
وكان أحدث ما جذَب الانتباه لتقنية التزييف العميق في الوقت الحالي،
03:20
as so many things do online,
53
200467
2161
على غرار العديد من الأشياء على الإنترنت،
03:22
with pornography.
54
202652
1255
هو المواد الإباحية
03:24
In early 2018,
55
204498
2111
في أوائل عام 2018،
03:26
someone posted a tool on Reddit
56
206633
2468
نشر شخصٌ ما أداة على موقع ريديت
03:29
to allow users to insert faces into porn videos.
57
209125
4412
لتُمكّن المُستخدمين من دمج الوجوه في مقاطع الفيديو الإباحية.
03:33
And what followed was a cascade of fake porn videos
58
213561
3440
وما تلا ذلك كان سلسلة كبيرة من الفيديوهات الإباحية المُزيفة
03:37
featuring people's favorite female celebrities.
59
217025
2797
تضُم أشهر النساء المُفضّلات لدى الناس.
03:40
And today, you can go on YouTube and pull up countless tutorials
60
220712
3477
واليوم، تستطيع استخدام موقع يوتيوب لمشاهدة فيديوهات تعليمية لا حصر لها
03:44
with step-by-step instructions
61
224213
2286
تحتوي على إرشاداتٍ مُفصَّلة
03:46
on how to make a deepfake on your desktop application.
62
226523
3163
لكيفية استخدام تقنية التزييف العميق وتصميمها على حاسوبك.
03:50
And soon we may be even able to make them on our cell phones.
63
230260
3706
وقد يُصبح بإمكاننا استخدامها على هواتفنا المحمولة قريبًا أيضًا.
03:55
Now, it's the interaction of some of our most basic human frailties
64
235072
5382
والآن، فإن تأثير وتفاعُل بعض أبسط نقاط الضعف الإنساني لدينا
04:00
and network tools
65
240478
1682
مع أدوات التواصُل الاجتماعي
04:02
that can turn deepfakes into weapons.
66
242184
2666
هو ما يُمكن أن يُحوّل تلك المقاطع المُزيَّفة إلى أسلحة.
04:04
So let me explain.
67
244874
1200
دعوني أوضح ذلك.
04:06
As human beings, we have a visceral reaction to audio and video.
68
246875
4566
كبشَر، يوجد لدينا رد فعل غريزي تجاه المواد الصوتية والمرئية.
04:11
We believe they're true,
69
251860
1488
فنحن نصدق أنها حقيقية،
04:13
on the notion that of course you can believe
70
253372
2078
باعتبار أننا نستطيع أن نصدق ونثق
04:15
what your eyes and ears are telling you.
71
255474
2478
في ما تخبرنا به أعيُننا وآذاننا.
04:18
And it's that mechanism
72
258476
1699
وتلك الآلية
04:20
that might undermine our shared sense of reality.
73
260199
3698
هي ما قد يهدم شعورنا المُشترَك بالواقع.
04:23
Although we believe deepfakes to be true, they're not.
74
263921
3147
وبرغم أننا نُصدق أن مقاطع التزييف العميق حقيقية، فهي ليست كذلك.
04:27
And we're attracted to the salacious, the provocative.
75
267604
4157
ونحن ننجذب إلى الأمور المُثيرة والاستفزازية،
04:32
We tend to believe and to share information
76
272365
3047
ونميل لتصديق ومُشاركة المعلومات
04:35
that's negative and novel.
77
275436
2023
المُغرِضة والغريبة.
04:37
And researchers have found that online hoaxes spread 10 times faster
78
277809
5019
وقد اكتشف الباحثون أن الأكاذيب الموجودة على الإنترنت تنتشر أسرع بعشر مرات
04:42
than accurate stories.
79
282852
1627
من الأخبار الحقيقية الدقيقة.
04:46
Now, we're also drawn to information
80
286015
4380
كمأ أننا ننجذب للمعلومات
04:50
that aligns with our viewpoints.
81
290419
1892
التي تتوافق مع وجهات نظرنا.
04:52
Psychologists call that tendency "confirmation bias."
82
292950
3561
ويطلق عُلماء النفس على تلك النزعة مُصطلح "الانحياز التأكيدي".
04:57
And social media platforms supercharge that tendency,
83
297300
4387
وتعمل منصات التواصُل الاجتماعي على تعزيز تلك النزعة،
05:01
by allowing us to instantly and widely share information
84
301711
3881
من خلال السماح لنا بمُشاركة المعلومات التي تتوافق مع وجهات نظرنا
05:05
that accords with our viewpoints.
85
305616
1792
في الحال وعلى نطاقٍ واسع.
05:08
Now, deepfakes have the potential to cause grave individual and societal harm.
86
308735
5568
والآن، فإن تقنية التزييف العميق قادرة على إحداث أضرارٍ بالغة للفرد وللمُجتمع.
05:15
So, imagine a deepfake
87
315204
2024
تخيَّلوا انتشار مقطعٍ مُزيفٍ
05:17
that shows American soldiers in Afganistan burning a Koran.
88
317252
4182
لجنودٍ أمريكيين يحرقون القرآن في أفغانستان.
05:22
You can imagine that that deepfake would provoke violence
89
322807
3024
ولكُم أن تتخيلوا مدى السُّخط والعنف الذي سيثيره ذلك المقطَع
05:25
against those soldiers.
90
325855
1533
ضد هؤلاء الجنود.
05:27
And what if the very next day
91
327847
2873
وماذا لو ظهر في اليوم التالي
05:30
there's another deepfake that drops,
92
330744
2254
مقطعٌ مُزيفٌ آخر
05:33
that shows a well-known imam based in London
93
333022
3317
لإمامٍ مشهور في لندن
05:36
praising the attack on those soldiers?
94
336363
2467
يُشيد فيه بالهجوم على هؤلاء الجنود؟
05:39
We might see violence and civil unrest,
95
339617
3163
قد نشهَد وقتها أعمال عنفٍ وأضطرابٍ مدَنيّ
05:42
not only in Afganistan and the United Kingdom,
96
342804
3249
ليس فقط في أفغانستان والمملكة المُتحدة،
05:46
but across the globe.
97
346077
1515
بل في العالَم كلّه.
وقد يكون ردُّكم على كلامي هو:
05:48
And you might say to me,
98
348251
1158
05:49
"Come on, Danielle, that's far-fetched."
99
349433
2247
"بربِّك، دانييل، إن ذلك احتمالٌ بعيد."
05:51
But it's not.
100
351704
1150
ولكنّه ليس كذلك.
05:53
We've seen falsehoods spread
101
353293
2191
لقد رأينا أكاذيبًا تنتشر
05:55
on WhatsApp and other online message services
102
355508
2722
عبر واتساب وخدمات الرسائل الفورية الأخرى
05:58
lead to violence against ethnic minorities.
103
358254
2761
مؤديةً إلى حملات عنف ضد الأقليات العِرقية.
06:01
And that was just text --
104
361039
1887
وكان ذلك بسبب الرسائل فقط،
06:02
imagine if it were video.
105
362950
2024
فتخيَّلوا ما قد يحدُث بسبب فيديو.
06:06
Now, deepfakes have the potential to corrode the trust that we have
106
366593
5357
فمقاطع التزييف العميق قادرة حاليًا على إضعاف وهَز ثقتنا
06:11
in democratic institutions.
107
371974
1992
في المؤسسات الديمقراطية.
06:15
So, imagine the night before an election.
108
375006
2667
تخيَّلوا أنه في الليلة السابقة لانتخاباتٍ ما
06:17
There's a deepfake showing one of the major party candidates
109
377996
3238
ظهر مقطعٌ مُزيف لأحد مُرشحي الأحزاب الرئيسية
06:21
gravely sick.
110
381258
1150
وهو مريض بشدة.
06:23
The deepfake could tip the election
111
383202
2333
قد يتسبب ذلك المقطَع في التلاعُب بالانتخابات
06:25
and shake our sense that elections are legitimate.
112
385559
3375
وزعزعة شعورنا بنزاهتها وشرعيتها.
06:30
Imagine if the night before an initial public offering
113
390515
3326
تخيَّلوا لو أنه في الليلة السابقة للطرح الأوَّلي للاكتتاب العام
06:33
of a major global bank,
114
393865
2333
لأحد البنوك العالمية الكُبرى،
06:36
there was a deepfake showing the bank's CEO
115
396222
3149
ظهر فيديو مُزيّف للمدير التنفيذي لذلك البنك
06:39
drunkenly spouting conspiracy theories.
116
399395
2697
مُتحدثًا وهو في حالة سُكر عن نظريات مؤامرة.
06:42
The deepfake could tank the IPO,
117
402887
3047
فقد يتسبب الفيديو في فشل الاكتتاب،
06:45
and worse, shake our sense that financial markets are stable.
118
405958
4115
والأسوأ من ذلك، أنه سيثير شكوكنا حول استقرار الأسواق المالية.
06:51
So deepfakes can exploit and magnify the deep distrust that we already have
119
411385
6989
وبالتالي، يُمكن لتلك الفيديوهات المُزيفة استغلال وتضخيم الارتياب العميق الموجود
06:58
in politicians, business leaders and other influential leaders.
120
418398
4214
لدينا بالفعل تجاه السياسيين، ورجال الأعمال والزعماء الآخرين من ذوي النفوذ.
07:02
They find an audience primed to believe them.
121
422945
3284
لأنه يوجد جمهور مُستعد لتصديقها.
07:07
And the pursuit of truth is on the line as well.
122
427287
2765
كما أصبح السعي وراء الحقيقة على المحك أيضًا.
07:11
Technologists expect that with advances in AI,
123
431077
3564
حيث يتوقع خُبراء التكنولوجيا أنه مع تقدُّم تقنيات الذكاء الاصطناعي،
07:14
soon it may be difficult if not impossible
124
434665
3682
قد يُصبح من الصعب قريباً، بل من المُستحيل
07:18
to tell the difference between a real video and a fake one.
125
438371
3769
أن نُفرّق بين الفيديو الحقيقي والمُزيف.
07:23
So how can the truth emerge in a deepfake-ridden marketplace of ideas?
126
443022
5341
فكيف يُمكن أن تتجلّى الحقيقة وسط سوق أفكارٍ تتحكم فيه تقنية التزييف العميق؟
07:28
Will we just proceed along the path of least resistance
127
448752
3420
هل سنمضي فقط في الطريق الأسهل
07:32
and believe what we want to believe,
128
452196
2437
ونُصدق ما نودُّ تصديقه،
07:34
truth be damned?
129
454657
1150
ونتجاهل الحقيقة؟
07:36
And not only might we believe the fakery,
130
456831
3175
ليس الأمر فقط أننا قد نُصدق الكذب والتزييف،
07:40
we might start disbelieving the truth.
131
460030
3326
بل وقد نبدأ في إنكار الحقيقة أيضًا.
07:43
We've already seen people invoke the phenomenon of deepfakes
132
463887
4079
وقد رأينا بالفعل أشخاصًا يستخدمون ظاهرة التزييف العميق
07:47
to cast doubt on real evidence of their wrongdoing.
133
467990
3920
للتشكيك في أدلة حقيقية على إدانتهم.
07:51
We've heard politicians say of audio of their disturbing comments,
134
471934
5969
كما قد سمعنا سياسيين يقولون عن المقاطع الصوتية المُسجّلة لتصريحاتهم المُزعجة:
07:57
"Come on, that's fake news.
135
477927
1746
"بربّكم، تلك الأخبار كاذبة،
07:59
You can't believe what your eyes and ears are telling you."
136
479697
3920
لا يُمكن أن تصدقوا كل ما ترونه وتسمعونه."
08:04
And it's that risk
137
484402
1731
وهذا هو الخطر
08:06
that professor Robert Chesney and I call the "liar's dividend":
138
486157
5436
الذي نسمّيه أنا والبروفيسور روبرت تشيزني بـ"مكسب الكذّاب"؛
08:11
the risk that liars will invoke deepfakes
139
491617
3357
وهو خطر اعتماد الكاذبين على المقاطع المُزيفة
08:14
to escape accountability for their wrongdoing.
140
494998
2905
للتهرُّب من المُساءلة عن أخطائهم.
08:18
So we've got our work cut out for us, there's no doubt about it.
141
498963
3071
لدينا مهمة شاقة ومُحدّدة إذًا، ولا شك في ذلك.
08:22
And we're going to need a proactive solution
142
502606
3325
وسوف نحتاج إلى حلٍ استباقيٍّ وفعَّال
08:25
from tech companies, from lawmakers,
143
505955
3511
من شركات التكنولوجيا والمُشرِّعين،
08:29
law enforcers and the media.
144
509490
1984
وسُلطات تنفيذ القوانين والإعلام.
08:32
And we're going to need a healthy dose of societal resilience.
145
512093
4016
وسوف نحتاج إلى جرعة كبيرة من الصمود والمرونة المُجتمعية.
08:37
So now, we're right now engaged in a very public conversation
146
517506
3896
ونحن الآن نُشارك في مُحادثة عامة
08:41
about the responsibility of tech companies.
147
521426
2913
حول مسئولية شركات التكنولوجيا.
08:44
And my advice to social media platforms
148
524926
3032
ولقد كانت نصيحتي لمنصَّات التواصُل الاجتماعي
08:47
has been to change their terms of service and community guidelines
149
527982
3873
هي أن يقوموا بتغيير شروط وإرشادات الاستخدام
08:51
to ban deepfakes that cause harm.
150
531879
2336
لحظر استخدام المقاطع المُزيفة التي تُسبب الضَّرر.
08:54
That determination, that's going to require human judgment,
151
534712
3960
وذلك الحَسم سوف يتطلَّب حُكمًا وبصيرة إنسانية،
08:58
and it's expensive.
152
538696
1571
وهو أمرٌ مُكلِّف.
09:00
But we need human beings
153
540673
2285
ولكنّنا نحتاج من الناس
09:02
to look at the content and context of a deepfake
154
542982
3873
أن يقوموا بملاحظة مُحتوى وسياق المقطَع المُزيَّف
09:06
to figure out if it is a harmful impersonation
155
546879
3682
لمعرفة ما إذا كان عبارة عن انتحال لشخصية ما للإضرار بها
09:10
or instead, if it's valuable satire, art or education.
156
550585
4382
أم أنه مقطع ساخر، أو فنّي أو تعليمي.
09:16
So now, what about the law?
157
556118
1495
والآن، ماذا عن دور القانون؟
09:18
Law is our educator.
158
558666
2349
القانون هو مُعلِّمنا.
09:21
It teaches us about what's harmful and what's wrong.
159
561515
4038
فهو يُخبرنا بما هو ضار وخاطئ.
09:25
And it shapes behavior it deters by punishing perpetrators
160
565577
4555
كما يُغير السلوك الخاطئ ويردعه من خلال مُعاقبة الجُناة
09:30
and securing remedies for victims.
161
570156
2267
وتأمين سُبُل الانتصاف للضحايا.
09:33
Right now, law is not up to the challenge of deepfakes.
162
573148
4280
في الوقت الحالي، لا يستطيع القانون التصدي لأضرار تقنية التزييف العميق.
09:38
Across the globe,
163
578116
1390
وعلى مُستوى العالم،
09:39
we lack well-tailored laws
164
579530
2444
نحن نفتقر إلى وجود قوانين مُحكَمة
09:41
that would be designed to tackle digital impersonations
165
581998
3570
ومًصمّمة بعناية للتعامُل مع قضايا الانتحال الرقمي
09:45
that invade sexual privacy,
166
585592
2231
التي تتعدَّى على الخصوصية الجنسية،
09:47
that damage reputations
167
587847
1387
وتُضر بسُمعة الأشخاص
09:49
and that cause emotional distress.
168
589258
1951
وتُسبّب أضرارًا نفسية ومعنوية.
09:51
What happened to Rana Ayyub is increasingly commonplace.
169
591725
3873
ما حدث لرنا أيوب هو أمرٌ شائع بشكلٍ مُتزايد.
09:56
Yet, when she went to law enforcement in Delhi,
170
596074
2214
وبرغم ذلك، عندما لجأت لُسلطات القانون في ديلهي،
09:58
she was told nothing could be done.
171
598312
2135
أخبروها أنه لا يوجد ما يُمكن فعله بشأن ذلك.
10:01
And the sad truth is that the same would be true
172
601101
3183
والحقيقة المُحزنة هي أن الأمر نفسه
10:04
in the United States and in Europe.
173
604308
2266
ينطبق على الولايات المُتحدة وأوروبا.
10:07
So we have a legal vacuum that needs to be filled.
174
607300
4356
ولذلك يوجد لدينا فراغٌ قانونيٌّ يتوجَّب علينا سدُّه.
10:12
My colleague Dr. Mary Anne Franks and I are working with US lawmakers
175
612292
4092
نعمَل أنا وزميلتي الدكتورة ماري آن فرانكس مع المُشرّعين الأميريكيين
10:16
to devise legislation that would ban harmful digital impersonations
176
616408
4804
على وضع تشريعاتٍ تحظر الانتحال الرقمي المؤذي
10:21
that are tantamount to identity theft.
177
621236
2533
الذي يُعادل في خطورته سرقة الهوية.
10:24
And we've seen similar moves
178
624252
2126
وقد رأينا تحرُّكاتٍ مماثلة
10:26
in Iceland, the UK and Australia.
179
626402
3301
في أيسلندا والمملكة المُتحدة وأستراليا.
10:30
But of course, that's just a small piece of the regulatory puzzle.
180
630157
3259
ولكن بالطبع، هذا مُجرد جزء صغير من اللغز القانوني.
10:34
Now, I know law is not a cure-all. Right?
181
634911
3169
والآن أعلَم أن القانون وحده ليس حلًا شاملاً، أليس كذلك؟
10:38
It's a blunt instrument.
182
638104
1600
فهو أداة حادة
10:40
And we've got to use it wisely.
183
640346
1539
وعلينا أن نستخدمه بحكمة.
10:42
It also has some practical impediments.
184
642411
2812
كما أن لديه بعض العقبات من الناحية العملية.
10:45
You can't leverage law against people you can't identify and find.
185
645657
5044
حيث لا يُمكننا استخدام القانون ضد أشخاصٍ لا نستطيع التعرُّف أو العثور عليهم.
10:51
And if a perpetrator lives outside the country
186
651463
3286
وإذا كان المُجرم مقيمًا خارج البلد
10:54
where a victim lives,
187
654773
1754
الذي تُقيم فيه الضحية،
10:56
then you may not be able to insist
188
656551
1629
فقد لا نتمكّن من الإصرار
10:58
that the perpetrator come into local courts
189
658204
2349
على أن يمثُل المُجرم أمام المحاكم المحلية
11:00
to face justice.
190
660577
1150
لمواجهة العدالة.
11:02
And so we're going to need a coordinated international response.
191
662236
4063
ولذلك سوف نحتاج إلى استجابة دولية مُنسَّقة.
11:07
Education has to be part of our response as well.
192
667819
3333
ولا بُد أن يكون التعليم جزءًا من استجابتنا أيضًا.
11:11
Law enforcers are not going to enforce laws
193
671803
3731
فسُلطات تنفيذ القانون لن تستطيع تنفيذ قوانين
11:15
they don't know about
194
675558
1458
لا يعرفون عنها أي شئ
11:17
and proffer problems they don't understand.
195
677040
2596
ولن يقوموا بحل مُشكلاتٍ لا يستطيعون فهمها.
11:20
In my research on cyberstalking,
196
680376
2191
أثناء إعدادي لبحثٍ عن التحرُّش الإلكتروني،
11:22
I found that law enforcement lacked the training
197
682591
3499
وجدتُ أن المسئولين عن تنفيذ القوانين يفتقرون إلى التدريب
11:26
to understand the laws available to them
198
686114
2582
على فهم القوانين المُتاحة لديهم
11:28
and the problem of online abuse.
199
688720
2349
وفهم مشكلة سوء استخدام الإنترنت.
11:31
And so often they told victims,
200
691093
2682
مما أدى إلى أن يكون ردهم المُتكرر على الضحايا هو:
11:33
"Just turn your computer off. Ignore it. It'll go away."
201
693799
3971
"قُم بإغلاق حاسوبك فقط، وتجاهل الأمر. وسيبتعد عنك."
11:38
And we saw that in Rana Ayyub's case.
202
698261
2466
وهذا ما رأيناه في قضية رنا أيوب.
11:41
She was told, "Come on, you're making such a big deal about this.
203
701102
3468
حيث قيل لها: "بربّك، إنكِ تُبالغين.
11:44
It's boys being boys."
204
704594
1743
إنها مُجرد أفعال مُراهقين."
11:47
And so we need to pair new legislation with efforts at training.
205
707268
5252
ولذلك نحن بحاجة إلى الجمع بين التشريعات الجديدة وبذل الجهد في التدريب.
11:54
And education has to be aimed on the media as well.
206
714053
3429
ولا بّد من نشر الوعي في الإعلام أيضًا.
11:58
Journalists need educating about the phenomenon of deepfakes
207
718180
4260
فيجب توعية الصحفيين بظاهرة مقاطع التزييف العميق
12:02
so they don't amplify and spread them.
208
722464
3039
حتى لا يقوموا بتضخيمها ونشرها.
12:06
And this is the part where we're all involved.
209
726583
2168
وهذا الجزء الذي يشملنا جميعًا
12:08
Each and every one of us needs educating.
210
728775
3855
فكل واحدٍ منًّا يحتاج إلى التعليم والوعى.
12:13
We click, we share, we like, and we don't even think about it.
211
733375
3675
فنحن ننقر ونشارك ونُعجَب بما نراه بدون أدنى تفكير فيه.
12:17
We need to do better.
212
737551
1547
علينا التصرُّف بشكلٍ أفضل.
12:19
We need far better radar for fakery.
213
739726
2809
كما نحتاج إلى وسائل أفضل لاكتشاف الأكاذيب.
12:25
So as we're working through these solutions,
214
745744
3841
وبينما نعمل على توفير هذه الحلول،
12:29
there's going to be a lot of suffering to go around.
215
749609
2563
سوف يكون هناك الكثير من المُعاناة التي يجب مواجهتها.
12:33
Rana Ayyub is still wrestling with the fallout.
216
753093
2746
فما زالت رنا أيوب تُصارع تداعيات الأمر،
12:36
She still doesn't feel free to express herself on- and offline.
217
756669
4189
وما زالت لا تستطيع التعبير عن نفسها بحُرية سواء في الحياة العادية أو على الإنترنت.
12:41
And as she told me,
218
761566
1365
وكما أخبَرَتني،
12:42
she still feels like there are thousands of eyes on her naked body,
219
762955
5074
فهي ما زالت تشعر وكأن هناك آلاف العيون تُشاهد جسدها العاري.
12:48
even though, intellectually, she knows it wasn't her body.
220
768053
3661
بالرغم من أنها تعلم جيدًا أنه لم يكُن جسدها.
12:52
And she has frequent panic attacks,
221
772371
2349
كما أنها تُصاب بنوبات هلعٍ مُتكررة،
12:54
especially when someone she doesn't know tries to take her picture.
222
774744
4100
وبالأخص عندما يحاول شخصٌ لا تعرفه التقاط صورةٍ لها.
12:58
"What if they're going to make another deepfake?" she thinks to herself.
223
778868
3511
وتقول لنفسها: "ماذا لو قام بصُنع مقطَعٍ مزيفٍ آخر؟"
13:03
And so for the sake of individuals like Rana Ayyub
224
783082
3921
لأجل الأشخاص مثل رنا أيوب،
13:07
and the sake of our democracy,
225
787027
2306
ولأجل ديمُقراطيتنا،
13:09
we need to do something right now.
226
789357
2182
علينا القيام بشيء ما الآن.
13:11
Thank you.
227
791563
1151
شُكرًا لكُم
13:12
(Applause)
228
792738
2508
(تصفيق)
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7