When AI Can Fake Reality, Who Can You Trust? | Sam Gregory | TED

132,775 views ・ 2023-12-26

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: Mohamed Salem المدقّق: gaith Takrity
00:03
It's getting harder, isn't it, to spot real from fake,
0
3583
3879
أصبح من الصعب اكتشاف الحقيقي من المزيف
00:07
AI-generated from human-generated.
1
7504
2252
صنع الذكاء الاصطناعي من صنع الانسان.
مع الذكاء الاصطناعي التوليدي،
00:10
With generative AI,
2
10340
1126
00:11
along with other advances in deep fakery,
3
11508
2419
إلى جانب التطورات الأخرى في التزييف العميق،
00:13
it doesn't take many seconds of your voice,
4
13969
2252
لا يستغرق الأمر عدة ثوانٍ من صوتك،
00:16
many images of your face,
5
16263
1459
والعديد من صور وجهك،
00:17
to fake you,
6
17764
1251
لتزييفك،
00:19
and the realism keeps increasing.
7
19015
2628
وتستمر الواقعية في الازدياد.
00:21
I first started working on deepfakes in 2017,
8
21685
3086
بدأت العمل على التزييف العميق لأول مرة في عام 2017،
00:24
when the threat to our trust in information was overhyped,
9
24813
3962
عندما كان التهديد الذي تتعرض له ثقتنا في المعلومات مبالغًا فيه،
00:28
and the big harm, in reality, was falsified sexual images.
10
28775
3670
وكان الضرر الكبير هو الصور الجنسية المزيفة.
00:32
Now that problem keeps growing, harming women and girls worldwide.
11
32904
4171
الآن تستمر هذه المشكلة في النمو مما يضر بالنساء والفتيات في جميع أنحاء العالم.
00:38
But also, with advances in generative AI, we're now also approaching a world
12
38159
4713
ولكن أيضًا مع التقدم في الذكاء الاصطناعي التوليدي نقترب الآن أيضًا من عالم
00:42
where it's broadly easier to make fake reality,
13
42872
3462
يسهل فيه على نطاق واسع صنع واقع مزيف،
00:46
but also to dismiss reality as possibly faked.
14
46376
3879
ولكن أيضًا رفض الواقع باعتباره ربما مزيفًا.
00:50
Now, deceptive and malicious audiovisual AI
15
50755
3420
أما الآن، فإن الذكاء الاصطناعي السمعي البصري الخادع والخبيث
00:54
is not the root of our societal problems,
16
54217
2669
ليس أصل مشاكلنا المجتمعية،
00:56
but it's likely to contribute to them.
17
56928
2252
ولكن من المرجح أن يساهم فيها.
00:59
Audio clones are proliferating in a range of electoral contexts.
18
59180
4213
تنتشر النسخ الصوتية في مجموعة من السياقات الانتخابية.
01:03
"Is it, isn't it" claims cloud human-rights evidence from war zones,
19
63435
5130
«أليس كذلك، أليس كذلك؟» تحجب الادعاءات أدلة حقوق الإنسان من مناطق الحرب،
01:08
sexual deepfakes target women in public and in private,
20
68565
4129
وتستهدف التزييف الجنسي العميق النساء في الأماكن العامة والخاصة،
01:12
and synthetic avatars impersonate news anchors.
21
72736
3336
والأفاتار الاصطناعية تنتحل شخصية مذيعي الأخبار.
01:16
I lead WITNESS.
22
76656
1460
أنا أقود [شاهد].
01:18
We're a human-rights group
23
78116
1376
نحن مجموعة حقوق الإنسان
01:19
that helps people use video and technology to protect and defend their rights.
24
79492
3671
التي تساعد الناس على استخدام الفيديو والتكنولوجيا لحماية حقوقهم والدفاع عنها.
01:23
And for the last five years, we've coordinated a global effort,
25
83163
3003
وعلى مدى السنوات الخمس الماضية، قمنا بتنسيق جهد عالمي بعنوان
01:26
"Prepare, Don't Panic,"
26
86333
1167
«استعد، لا داعي للذعر»،
01:27
around these new ways to manipulate and synthesize reality,
27
87500
3045
حول هذه الطرق الجديدة للتلاعب بالواقع وتوليفه،
01:30
and on how to fortify the truth
28
90587
2377
وحول كيفية تقوية حقيقة
01:32
of critical frontline journalists and human-rights defenders.
29
92964
3420
الصحفيين الناقدين والمدافعين عن حقوق الإنسان.
01:37
Now, one element in that is a deepfakes rapid-response task force,
30
97218
5423
الآن، أحد العناصر في ذلك هو فريق عمل الاستجابة السريعة لـ (التزييف العميق)،
01:42
made up of media-forensics experts
31
102641
2127
المكون من خبراء الطب الشرعي الإعلامي
01:44
and companies who donate their time and skills
32
104768
2168
والشركات الذين يتبرعون بوقتهم ومهاراتهم
01:46
to debunk deepfakes and claims of deepfakes.
33
106978
3087
لفضح التزييف العميق وادعاءات التزييف العميق.
01:50
The task force recently received three audio clips,
34
110899
3211
وتلقت فرقة العمل مؤخراً ثلاثة مقاطع صوتية
01:54
from Sudan, West Africa and India.
35
114110
2670
من السودان وغرب أفريقيا والهند.
01:57
People were claiming that the clips were deepfaked, not real.
36
117155
3879
كان الناس يدعون أن المقاطع مزيفة وليست حقيقية.
02:01
In the Sudan case,
37
121451
1210
في حالة السودان،
02:02
experts used a machine-learning algorithm
38
122702
2002
استخدم الخبراء خوارزمية التعلم الآلي
02:04
trained on over a million examples of synthetic speech
39
124746
2628
التي تم تدريبها على أكثر من مليون مثال للكلام التركيبي
02:07
to prove, almost without a shadow of a doubt,
40
127374
2294
لإثبات، دون أدنى شك تقريبًا،
02:09
that it was authentic.
41
129709
1335
أنها أصلية.
02:11
In the West Africa case,
42
131586
1835
في حالة غرب إفريقيا،
02:13
they couldn't reach a definitive conclusion
43
133463
2002
لم يتمكنوا من التوصل إلى نتيجة نهائية
02:15
because of the challenges of analyzing audio from Twitter,
44
135507
2794
بسبب تحديات تحليل الصوت من تويتر،
02:18
and with background noise.
45
138301
1752
والضوضاء الخلفية.
02:20
The third clip was leaked audio of a politician from India.
46
140095
3712
أما المقطع الثالث فقد تم تسريبه لسياسي من الهند.
02:23
Nilesh Christopher of “Rest of World” brought the case to the task force.
47
143848
3796
نيلش كريستوفر من «بقية العالم» رفع القضية إلى فرقة العمل.
02:27
The experts used almost an hour of samples
48
147644
2961
استخدم الخبراء ما يقرب من ساعة من العينات
02:30
to develop a personalized model of the politician's authentic voice.
49
150605
3879
لتطوير نموذج شخصي لصوت السياسي الأصلي.
02:35
Despite his loud and fast claims that it was all falsified with AI,
50
155151
4380
بالرغم من ادعاءاته العالية والسريعة بأن كل ذلك تم تزويره باستخدام الذكاء الاصطناعي،
02:39
experts concluded that it at least was partially real, not AI.
51
159572
4255
رجع الخبراء إلى أنه على الأقل كان حقيقيًا جزئيًا، وليس الذكاء الاصطناعي.
02:44
As you can see,
52
164369
1335
كما ترون،
02:45
even experts cannot rapidly and conclusively separate true from false,
53
165745
5089
حتى الخبراء لا يمكنهم فصل الصواب عن الخطأ بسرعة وبشكل قاطع،
02:50
and the ease of calling "that's deepfaked" on something real
54
170875
4421
وتتزايد سهولة تسمية «هذا التزييف العميق» لشيء
02:55
is increasing.
55
175296
1168
حقيقي.
02:57
The future is full of profound challenges,
56
177132
2002
المستقبل مليء بالتحديات العميقة،
02:59
both in protecting the real and detecting the fake.
57
179175
3420
سواء في حماية الواقع أو اكتشاف المزيف.
03:03
We're already seeing the warning signs
58
183888
1919
نحن نشهد بالفعل علامات التحذير
03:05
of this challenge of discerning fact from fiction.
59
185807
2711
من هذا التحدي المتمثل في تمييز الحقيقة من الخيال.
03:08
Audio and video deepfakes have targeted politicians,
60
188560
3128
استهدفت عمليات التزييف الصوتي والمرئي السياسيين والقادة السياسيين
03:11
major political leaders in the EU, Turkey and Mexico,
61
191688
3587
الرئيسيين في الاتحاد الأوروبي وتركيا والمكسيك
03:15
and US mayoral candidates.
62
195316
1710
والمرشحين لعمدة الولايات المتحدة.
03:17
Political ads are incorporating footage of events that never happened,
63
197444
3503
تتضمن الإعلانات السياسية لقطات لأحداث لم تحدث أبدًا،
03:20
and people are sharing AI-generated imagery from crisis zones,
64
200947
4546
ويشارك الأشخاص الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي من مناطق الأزمات،
03:25
claiming it to be real.
65
205535
1418
مدعين أنها حقيقية.
03:27
Now, again, this problem is not entirely new.
66
207454
3211
الآن، مرة أخرى، هذه المشكلة ليست جديدة كليًا.
03:31
The human-rights defenders and journalists I work with
67
211207
2628
المدافعون عن حقوق الإنسان والصحفيون الذين أعمل معهم
03:33
are used to having their stories dismissed,
68
213835
2794
اعتادوا على رفض قصصهم،
03:36
and they're used to widespread, deceptive, shallow fakes,
69
216671
3462
كما اعتادوا على التزييف الواسع النطاق والمخادع والضحل
03:40
videos and images taken from one context or time or place
70
220175
3670
ومقاطع الفيديو والصور المأخوذة من سياق أو وقت أو مكان
03:43
and claimed as if they're in another,
71
223887
2460
ويُزعم أنها في مكان آخر،
03:46
used to share confusion and spread disinformation.
72
226347
3129
وتستخدم لمشاركة الارتباك ونشر المعلومات المضللة.
03:49
And of course, we live in a world that is full of partisanship
73
229934
3170
وبالطبع، نحن نعيش في عالم مليء بالحزبية
03:53
and plentiful confirmation bias.
74
233146
2127
والتحيز التأكيدي الوفير.
03:57
Given all that,
75
237317
1209
بالنظر إلى كل ذلك،
03:58
the last thing we need is a diminishing baseline
76
238526
3045
فإن آخر شيء نحتاجه هو خط أساس
04:01
of the shared, trustworthy information upon which democracies thrive,
77
241613
3962
متناقص للمعلومات المشتركة والجديرة بالثقة التي تزدهر عليها الديمقراطيات،
04:05
where the specter of AI
78
245617
1418
حيث يتم استخدام شبح الذكاء الاصطناعي لتصديق
04:07
is used to plausibly believe things you want to believe,
79
247076
3462
الأشياء التي تريد تصديقها بشكل معقول،
04:10
and plausibly deny things you want to ignore.
80
250538
2336
وإنكار الأشياء التي تريد تجاهلها بشكل معقول.
لكنني أعتقد أن هناك طريقة يمكننا من خلالها منع هذا المستقبل،
04:15
But I think there's a way we can prevent that future,
81
255084
2628
04:17
if we act now;
82
257754
1501
إذا تصرفنا الآن؛
04:19
that if we "Prepare, Don't Panic,"
83
259255
2211
وهي أننا إذا «استعدنا، لا داعي للذعر»
04:21
we'll kind of make our way through this somehow.
84
261508
3253
فسنشق طريقنا نوعًا ما عبر هذا بطريقة أو بأخرى.
04:25
Panic won't serve us well.
85
265929
2627
الذعر لن يخدمنا جيدًا.
04:28
[It] plays into the hands of governments and corporations
86
268681
2711
[إنه] يصب في مصلحة الحكومات والشركات
04:31
who will abuse our fears,
87
271392
1669
التي ستسيء استخدام مخاوفنا،
04:33
and into the hands of people who want a fog of confusion
88
273102
3045
وفي أيدي الأشخاص الذين يريدون ضبابًا من الارتباك
04:36
and will use AI as an excuse.
89
276147
2461
وسيستخدمون الذكاء الاصطناعي كذريعة.
04:40
How many people were taken in, just for a minute,
90
280610
2419
كم عدد الأشخاص الذين صدقوا لوهلة
04:43
by the Pope in his dripped-out puffer jacket?
91
283029
2336
صورة البابا في سترته المنتفخة؟
04:45
You can admit it.
92
285406
1168
يمكنكم الاعتراف بذلك.
04:46
(Laughter)
93
286574
1210
(ضحك)
04:47
More seriously,
94
287784
1209
والأخطر من ذلك،
04:49
how many of you know someone who's been scammed
95
289035
2503
كم منكم يعرف شخصًا تعرض للخداع
04:51
by an audio that sounds like their kid?
96
291579
2044
من خلال صوت يبدو مثل طفلهم؟
04:54
And for those of you who are thinking "I wasn't taken in,
97
294624
2920
وبالنسبة لأولئك منكم الذين يفكرون «لم يتم خداعي
04:57
I know how to spot a deepfake,"
98
297544
1584
أعرف كيف أكتشف التزييف العميق»،
04:59
any tip you know now is already outdated.
99
299170
3003
فإن أي نصيحة تعرفها الآن قد عفا عليها الزمن بالفعل.
05:02
Deepfakes didn't blink, they do now.
100
302757
2544
التذيف العميق لم يغمض عينيه، بل يفعل ذلك الآن.
كانت الأيدي ذات الستة أصابع أكثر شيوعًا في الأراضي المزيفة أكثر من الحياة الواقعية -
05:06
Six-fingered hands were more common in deepfake land than real life --
101
306177
3587
05:09
not so much.
102
309806
1126
ليس كثيرًا.
05:11
Technical advances erase those visible and audible clues
103
311307
3754
تمحو التطورات التقنية تلك القرائن المرئية والمسموعة
05:15
that we so desperately want to hang on to
104
315061
2002
التي نرغب بشدة في التمسك بها
05:17
as proof we can discern real from fake.
105
317105
2252
كدليل على أننا نستطيع تمييز الحقيقة من التزييف.
05:20
But it also really shouldn’t be on us to make that guess without any help.
106
320191
4713
ولكن أيضًا لا ينبغي أن يكون علينا إجراء هذا التخمين دون أي مساعدة.
05:24
Between real deepfakes and claimed deepfakes,
107
324946
2127
بين التزييف العميق الحقيقي والتزييف العميق المزعوم،
05:27
we need big-picture, structural solutions.
108
327073
2961
نحتاج إلى حلول هيكلية ذات صورة كبيرة.
05:30
We need robust foundations
109
330034
1502
نحن بحاجة إلى أسس قوية
05:31
that enable us to discern authentic from simulated,
110
331578
3128
تمكننا من التمييز بين الأصالة والمحاكاة،
05:34
tools to fortify the credibility of critical voices and images,
111
334747
3921
وأدوات لتعزيز مصداقية الأصوات والصور الناقدة،
05:38
and powerful detection technology
112
338668
2336
وتقنية اكتشاف قوية لا
05:41
that doesn't raise more doubts than it fixes.
113
341045
2670
تثير شكوكًا أكثر مما تصلحه.
05:45
There are three steps we need to take to get to that future.
114
345091
3045
هناك ثلاث خطوات نحتاج إلى اتخاذها للوصول إلى هذا المستقبل.
05:48
Step one is to ensure that the detection skills and tools
115
348887
3712
الخطوة الأولى هي التأكد من أن مهارات وأدوات
05:52
are in the hands of the people who need them.
116
352599
2168
الكشف في أيدي الأشخاص الذين يحتاجون إليها.
05:54
I've talked to hundreds of journalists,
117
354767
2253
لقد تحدثت إلى مئات الصحفيين
05:57
community leaders and human-rights defenders,
118
357020
2252
وقادة المجتمع والمدافعين عن حقوق الإنسان،
05:59
and they're in the same boat as you and me and us.
119
359272
2919
وهم في نفس الوضع الذي تعيش فيه أنت وأنا ونحن.
06:02
They're listening to the audio, trying to think, "Can I spot a glitch?"
120
362191
3421
إنهم يستمعون إلى الصوت، ويحاولون التفكير، «هل يمكنني اكتشاف خلل؟»
06:05
Looking at the image, saying, "Oh, does that look right or not?"
121
365612
3295
عند النظر إلى الصورة، أقول : «أوه، هل يبدو ذلك صحيحًا أم لا؟»
06:08
Or maybe they're going online to find a detector.
122
368907
3336
أو ربما يستخدمون الإنترنت للعثور على كاشف.
06:12
And the detector they find,
123
372285
1335
والكاشف الذي يعثرون عليه،
06:13
they don't know whether they're getting a false positive, a false negative,
124
373661
3545
لا يعرفون ما إذا كانوا يحصلون على نتيجة إيجابية كاذبة أو سلبية كاذبة
06:17
or a reliable result.
125
377248
1251
أو نتيجة موثوقة.
06:18
Here's an example.
126
378541
1168
إليك مثال.
06:19
I used a detector, which got the Pope in the puffer jacket right.
127
379751
3712
استخدمت الكاشف، مما جعل البابا يرتدي السترة المنتفخة بشكل صحيح.
06:23
But then, when I put in the Easter bunny image that I made for my kids,
128
383796
4255
ولكن بعد ذلك، عندما وضعت صورة أرنب عيد الفصح التي صنعتها لأطفالي، قالت
06:28
it said that it was human-generated.
129
388092
1961
إنها من صنع الإنسان.
06:30
This is because of some big challenges in deepfake detection.
130
390637
3253
هذا بسبب بعض التحديات الكبيرة في اكتشاف التزييف العميق.
06:34
Detection tools often only work on one single way to make a deepfake,
131
394474
3295
غالبًا ما تعمل أدوات الكشف بطريقة واحدة فقط لإنشاء التزييف العميق،
06:37
so you need multiple tools,
132
397769
1543
لذلك تحتاج إلى أدوات متعددة،
06:39
and they don't work well on low-quality social media content.
133
399354
4337
ولا تعمل بشكل جيد على محتوى الوسائط الاجتماعية منخفض الجودة.
06:43
Confidence score, 0.76-0.87,
134
403691
3337
درجة الثقة، 0.76-0.87،
06:47
how do you know whether that's reliable,
135
407028
1919
كيف تعرف ما إذا كان ذلك موثوقًا به،
06:48
if you don't know if the underlying technology is reliable,
136
408988
2795
أو إذا كنت لا تعرف ما إذا كانت التكنولوجيا الأساسية موثوقة،
06:51
or whether it works on the manipulation that is being used?
137
411824
2795
أو ما إذا كانت تعمل على التلاعب المستخدم؟
06:54
And tools to spot an AI manipulation don't spot a manual edit.
138
414661
5046
وأدوات اكتشاف التلاعب بالذكاء الاصطناعي لا تكتشف التعديل اليدوي.
07:00
These tools also won't be available to everyone.
139
420583
3587
لن تكون هذه الأدوات أيضًا متاحة للجميع.
07:04
There's a trade-off between security and access,
140
424212
3128
هناك مفاضلة بين الأمان والوصول،
07:07
which means if we make them available to anyone,
141
427382
2544
مما يعني أننا إذا قمنا بتوفيرها لأي شخص،
07:09
they become useless to everybody,
142
429926
2586
فإنها تصبح عديمة الفائدة للجميع،
07:12
because the people designing the new deception techniques
143
432512
2711
لأن الأشخاص الذين يصممون تقنيات الخداع الجديدة
07:15
will test them on the publicly available detectors
144
435264
3087
سيختبرونها على أجهزة الكشف المتاحة للجمهور
07:18
and evade them.
145
438393
1209
ويتجنبون منها.
07:20
But we do need to make sure these are available
146
440061
2920
لكننا بحاجة إلى التأكد من أنها متاحة
07:22
to the journalists, the community leaders,
147
442981
2085
للصحفيين وقادة المجتمع
07:25
the election officials, globally, who are our first line of defense,
148
445108
3628
ومسؤولي الانتخابات، على مستوى العالم، الذين يمثلون خط دفاعنا الأول،
07:28
thought through with attention to real-world accessibility and use.
149
448736
3254
معال تفكير مليًا في إمكانية الوصول والاستخدام في العالم الحقيقي.
07:32
Though at the best circumstances,
150
452991
2544
على الرغم من أنه في أفضل الظروف،
07:35
detection tools will be 85 to 95 percent effective,
151
455576
3003
ستكون أدوات الكشف فعالة بنسبة 85 إلى 95 في المائة،
07:38
they have to be in the hands of that first line of defense,
152
458579
2795
إلا أنها يجب أن تكون في أيدي خط الدفاع الأول،
07:41
and they're not, right now.
153
461374
1543
وهي ليست كذلك في الوقت الحالي.
07:43
So for step one, I've been talking about detection after the fact.
154
463710
3128
لذا بالنسبة للخطوة الأولى، كنت أتحدث عن الاكتشاف بعد الحقيقة.
07:46
Step two -- AI is going to be everywhere in our communication,
155
466838
4462
الخطوة الثانية -- سيكون الذكاء الاصطناعي في كل مكان في اتصالاتنا
07:51
creating, changing, editing.
156
471300
2169
وإبداعنا وتغييره وتحريره.
07:53
It's not going to be a simple binary of "yes, it's AI" or "phew, it's not."
157
473469
4755
لن يكون الأمر بسيطًا من «نعم، إنه الذكاء الاصطناعي» أو «أوف، إنه ليس كذلك».
07:58
AI is part of all of our communication,
158
478224
3086
يعد الذكاء الاصطناعي جزءًا من جميع اتصالاتنا،
08:01
so we need to better understand the recipe of what we're consuming.
159
481352
4046
لذلك نحتاج إلى فهم أفضل لوصفة ما نستهلكه.
08:06
Some people call this content provenance and disclosure.
160
486232
3754
يسمي بعض الأشخاص هذا المحتوى بالمصدر والإفصاح.
08:10
Technologists have been building ways to add invisible watermarking
161
490028
3503
يعمل التقنيون على بناء طرق لإضافة علامات مائية
غير مرئية إلى الوسائط التي تم إنشاؤها بواسطة الذكاء الاصطناعي.
08:13
to AI-generated media.
162
493573
1877
08:15
They've also been designing ways --
163
495491
1752
لقد قاموا أيضًا بتصميم طرق -
08:17
and I've been part of these efforts --
164
497243
1877
وكنت جزءًا من هذه الجهود -
08:19
within a standard called the C2PA,
165
499162
1710
ضمن معيار يسمى C2PA،
08:20
to add cryptographically signed metadata to files.
166
500872
2669
لإضافة بيانات وصفية موقعة بشكل مشفرإلى الملفات.
08:24
This means data that provides details about the content,
167
504125
4379
وهذا يعني البيانات التي توفر تفاصيل حول المحتوى،
08:28
cryptographically signed in a way that reinforces our trust
168
508546
3712
ويتم توقيعها بشكل مشفر بطريقة تعزز ثقتنا
08:32
in that information.
169
512300
1501
في تلك المعلومات.
08:33
It's an updating record of how AI was used to create or edit it,
170
513801
5297
إنه سجل محدث لكيفية استخدام الذكاء الاصطناعي لإنشائه أو تحريره،
08:39
where humans and other technologies were involved,
171
519098
2670
وأين شارك البشر والتقنيات الأخرى،
08:41
and how it was distributed.
172
521809
1919
وكيف تم توزيعه.
08:43
It's basically a recipe and serving instructions
173
523770
3003
إنها في الأساس وصفة وتعليمات تقديم
08:46
for the mix of AI and human
174
526814
1961
لمزيج من الذكاء الاصطناعي والبشر
08:48
that's in what you're seeing and hearing.
175
528816
2336
في ما تراه وتسمعه.
08:51
And it's a critical part of a new AI-infused media literacy.
176
531903
4462
وهو جزء مهم من محو الأمية الإعلامية الجديدة المليئة بالذكاء الاصطناعي.
08:57
And this actually shouldn't sound that crazy.
177
537116
2461
وهذا في الواقع لا ينبغي أن يبدو بهذا الجنون.
08:59
Our communication is moving in this direction already.
178
539577
3212
اتصالاتنا تتحرك في هذا الاتجاه بالفعل.
09:02
If you're like me -- you can admit it --
179
542789
2002
إذا كنت مثلي - يمكنك الاعتراف بذلك -
09:04
you browse your TikTok “For You” page,
180
544832
2419
فأنت تتصفح صفحة "مخصص لك" بتيك توك الخاصة بك،
09:07
and you're used to seeing videos that have an audio source,
181
547251
4213
وأنت معتاد على مشاهدة مقاطع الفيديو التي تحتوي على مصدر صوت،
09:11
an AI filter, a green screen, a background,
182
551464
2419
وفلتر ذكاء اصطناعي، وشاشة خضراء، وخلفية،
09:13
a stitch with another edit.
183
553883
1752
وغرزة مع تعديل آخر.
09:15
This, in some sense, is the alpha version of this transparency
184
555676
3337
هذه، إلى حد ما، هي النسخة ألفا من هذه الشفافية
09:19
in some of the major platforms we use today.
185
559055
2377
في بعض المنصات الرئيسية التي نستخدمها اليوم.
09:21
It's just that it does not yet travel across the internet,
186
561474
2753
كل ما في الأمر أنه لم ينتقل بعد عبر الإنترنت،
09:24
it’s not reliable, updatable, and it’s not secure.
187
564268
3128
إنها ليست موثوقة وقابلة للتحديث وليست آمنة.
09:27
Now, there are also big challenges
188
567980
2628
الآن، هناك أيضًا تحديات كبيرة
09:30
in this type of infrastructure for authenticity.
189
570650
2544
في هذا النوع من البنية التحتية للأصالة.
09:34
As we create these durable signs of how AI and human were mixed,
190
574278
4088
وبينما نبتكر هذه العلامات الدائمة لكيفية الاختلاط بين الذكاء الاصطناعي والبشر،
09:38
that carry across the trajectory of how media is made,
191
578366
3086
والتي تمتد عبر مسار كيفية صنع وسائل الإعلام،
09:41
we need to ensure they don't compromise privacy or backfire globally.
192
581494
4129
نحتاج إلى التأكد من أنها لا تعرض الخصوصية للخطر
أو تأتي بنتائج عكسية على مستوى العالم.
09:46
We have to get this right.
193
586249
1710
علينا أن نفعل هذا بشكل صحيح.
09:48
We can't oblige a citizen journalist filming in a repressive context
194
588584
4255
لا يمكننا إلزام صحفي مواطن يصور في سياق قمعي
09:52
or a satirical maker using novel gen-AI tools
195
592839
3169
أو صانع ساخر باستخدام أدوات ذكاء اصطناعي مولد الجديدة
09:56
to parody the powerful ...
196
596008
1252
للسخرية من الأقوياء...
09:58
to have to disclose their identity or personally identifiable information
197
598845
4879
يجب عليهم الكشف عن هويتهم أو معلومات التعريف الشخصية من
10:03
in order to use their camera or ChatGPT.
198
603766
2961
أجل استخدام الكاميرا أو شات جي بي تي.
10:08
Because it's important they be able to retain their ability to have anonymity,
199
608312
3712
نظرًا لأنه من المهم أن يكونوا قادرين على الاحتفاظ بقدرتهم على إخفاء هويتهم،
10:12
at the same time as the tool to create is transparent.
200
612066
3378
في نفس الوقت الذي تكون فيه أداة الإنشاء شفافة.
10:16
This needs to be about the how of AI-human media making,
201
616112
4171
يجب أن يكون هذا حول كيفية صنع وسائل الإعلام البشرية بالذكاء الاصطناعي،
10:20
not the who.
202
620283
1167
وليس من.
10:22
This brings me to the final step.
203
622952
2211
هذا يقودني إلى الخطوة الأخيرة.
10:25
None of this works without a pipeline of responsibility
204
625163
4462
لا شيء من هذا يعمل بدون خط المسؤولية
10:29
that runs from the foundation models and the open-source projects
205
629667
4254
الذي يمتد من النماذج التأسيسية والمشاريع مفتوحة المصدر
10:33
through to the way that is deployed into systems, APIs and apps,
206
633963
4213
إلى الطريقة التي يتم نشرها في الأنظمة وواجهات برمجة التطبيقات والتطبيقات،
10:38
to the platforms where we consume media and communicate.
207
638217
3379
إلى المنصات التي نستهلك فيها الوسائط ونتواصل من خلالها.
10:43
I've spent much of the last 15 years fighting, essentially, a rearguard action,
208
643139
4171
لقد أمضيت معظم السنوات الخمس عشرة الماضية في الكفاح في عمل دفاعي خلفي،
10:47
like so many of my colleagues in the human rights world,
209
647310
2919
مثل العديد من زملائي في عالم حقوق الإنسان
10:50
against the failures of social media.
210
650229
2169
ضد إخفاقات وسائل التواصل الاجتماعي.
10:52
We can't make those mistakes again in this next generation of technology.
211
652899
5380
لا يمكننا ارتكاب هذه الأخطاء مرة أخرى في هذا الجيل القادم من التكنولوجيا.
10:59
What this means is that governments
212
659572
1835
ما يعنيه هذا هو أن الحكومات
11:01
need to ensure that within this pipeline of responsibility for AI,
213
661449
4254
بحاجة إلى التأكد من أنه ضمن خط المسؤولية هذا عن الذكاء الاصطناعي
11:05
there is transparency, accountability and liability.
214
665703
3253
يوجد الشفافية والمساءلة والمسؤولية.
11:10
Without these three steps --
215
670666
2086
بدون هذه الخطوات الثلاث -
11:12
detection for the people who need it most,
216
672793
3129
الكشف عن الأشخاص الذين هم في أمس الحاجة إليها،
11:15
provenance that is rights-respecting
217
675922
2502
والمصدر الذي يحترم الحقوق
11:18
and that pipeline of responsibility,
218
678466
2169
وخط المسؤولية هذا،
11:20
we're going to get stuck looking in vain for the six-fingered hand,
219
680635
3545
سنتعثر في البحث عبثًا عن اليد ذات الستة أصابع،
11:24
or the eyes that don't blink.
220
684222
1543
أو العيون التي لا ترمش.
11:26
We need to take these steps.
221
686390
1836
نحن بحاجة إلى اتخاذ هذه الخطوات.
11:28
Otherwise, we risk a world where it gets easier and easier
222
688226
3294
وإلا فإننا نخاطر بعالم يصبح فيه من الأسهل
11:31
to both fake reality
223
691520
1502
والأسهل تزييف الواقع
11:33
and dismiss reality as potentially faked.
224
693064
2669
ورفض الواقع باعتباره مزيفًا محتملًا.
11:36
And that is a world that the political philosopher Hannah Arendt
225
696234
3086
وهذا هو العالم الذي قامت الفيلسوفة السياسية هانا أرندت
11:39
described in these terms:
226
699320
1460
بوصفه بهذه المصطلحات:
11:40
"A people that no longer can believe anything
227
700821
2628
«الشعب الذي لم يعد بإمكانه تصديق أي شيء
11:43
cannot make up its own mind.
228
703491
2294
لا يمكنه أن يتخذ قراره بنفسه.
11:45
It is deprived not only of its capacity to act
229
705785
3211
فهو محروم ليس فقط من قدرته على العمل
11:48
but also of its capacity to think and to judge.
230
708996
3504
ولكن أيضا من قدرته على التفكير والحكم.
11:52
And with such a people you can then do what you please."
231
712959
3211
ومع مثل هؤلاء الأشخاص، يمكنك بعد ذلك أن تفعل ما يحلو لك».
11:56
That's a world I know none of us want,
232
716712
2044
هذا عالم أعرف أن لا أحد منا يريده،
11:58
that I think we can prevent.
233
718798
2002
وأعتقد أنه يمكننا منعه.
12:00
Thanks.
234
720800
1168
شكرًا لكم.
12:02
(Cheers and applause)
235
722009
2544
(هتافات وتصفيق)
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7