How a Deepfake Almost Ruined My Political Career | Cara Hunter | TED

8,921 views ・ 2024-12-18

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: Hani Eldalees
00:03
This talk contains mature language
0
3620
3720
تحتوي هذه المحادثة على لغة ناضجة
00:08
“You’re a little whore,
1
8700
1840
«أنت عاهرة صغيرة،
00:10
and we've all seen your little video."
2
10540
2560
وقد شاهدنا جميعًا مقطع الفيديو الصغير الخاص بك».
00:14
That was the text message that was sent to me in April of 2022.
3
14300
5280
كانت هذه هي الرسالة النصية التي تم إرسالها إلي في أبريل 2022.
00:20
I'm sitting in my grandmother's living room
4
20300
2480
أجلس في غرفة معيشة جدتي
00:22
in what is her 90th birthday,
5
22820
2640
في عيد ميلادها التسعين،
00:25
surrounded by family and friends
6
25460
2360
محاطًا بالعائلة والأصدقاء
00:27
as my phone blows up with messages from strangers
7
27820
4480
بينما ينفجر هاتفي برسائل من غرباء في جميع أنحاء
00:32
right across the country
8
32300
1840
البلاد
00:34
who say they have seen a video of me
9
34140
3160
يقولون إنهم شاهدوا مقطع فيديو لي وأنا أشارك في
00:37
engaging in hardcore pornographic activity with a man.
10
37340
4720
نشاط إباحي فاضح مع رجل.
00:42
I knew this was impossible.
11
42740
1600
كنت أعلم أن هذا مستحيل.
00:44
With just three weeks out from my election,
12
44900
2000
قبل ثلاثة أسابيع فقط من انتخابي،
00:46
I felt as though my career was crumbling before my very eyes.
13
46940
4080
شعرت كما لو أن مسيرتي المهنية تنهار أمام عيني.
00:51
My heart pounded,
14
51420
1440
خفق قلبي، وتسارع
00:52
my mind raced, sweat beaded on my skin.
15
52860
3160
ذهني، والعرق مطرز على بشرتي.
00:56
And then I watched the video, and my worst fear was realized.
16
56380
4880
ثم شاهدت الفيديو، وتحققت أسوأ مخاوفي.
01:01
Although this woman in the video was not me,
17
61980
3560
على الرغم من أن هذه المرأة في الفيديو لم تكن أنا، إلا
01:05
she looked exactly like me.
18
65540
2720
أنها بدت مثلي تمامًا.
01:09
Impossibly like me.
19
69020
2360
مثلي بشكل مستحيل.
01:11
Eerily like me.
20
71380
1200
مثلي بشكل مخيف.
01:13
I had so many questions running through my mind.
21
73140
3040
كان لدي الكثير من الأسئلة التي تدور في ذهني.
01:16
Was this AI?
22
76500
1360
هل كان هذا الذكاء الاصطناعي؟
01:17
Was it not?
23
77900
1280
أليس كذلك؟
01:19
Who made this?
24
79220
1160
من صنع هذا؟
01:20
How did they make it?
25
80420
1360
كيف صنعوها؟
01:21
Why did they make it?
26
81820
1320
لماذا صنعوها؟
01:23
So I did what anyone would do,
27
83140
2360
لذلك فعلت ما سيفعله أي شخص،
01:25
and I approached my local police service to ask for advice, for guidance.
28
85500
4680
واتصلت بخدمة الشرطة المحلية لطلب المشورة والتوجيه.
01:30
And really, where did I go from there?
29
90220
2280
وحقًا، إلى أين ذهبت من هناك؟
01:32
But they informed me that they wouldn't have the cybercrime technology to assist,
30
92540
4280
لكنهم أبلغوني أنهم لن يكون لديهم تقنية الجرائم الإلكترونية للمساعدة،
01:36
to find out where this video came from.
31
96860
2240
لمعرفة من أين جاء هذا الفيديو.
01:39
And it was from that moment I knew that I was on my own.
32
99140
3520
ومنذ تلك اللحظة عرفت أنني بمفردي.
01:43
Now to set the stage, as you can probably tell,
33
103380
2440
الآن لتمهيد الطريق، كما يمكنك القول على الأرجح،
01:45
I’m from Ireland,
34
105820
1240
أنا من أيرلندا،
01:47
and to be exact, I'm from Northern Ireland,
35
107100
2480
وعلى وجه الدقة، أنا من أيرلندا الشمالية،
01:49
which is an even smaller place.
36
109580
2000
وهي مكان أصغر.
01:51
We have just 1.8 million people,
37
111620
2680
لدينا 1.8 مليون شخص فقط، وهو ما
01:54
very similar to the size of Vienna.
38
114340
2840
يشبه إلى حد كبير حجم فيينا.
01:57
So you can imagine a rumor of this sinister nature,
39
117180
3440
لذا يمكنك أن تتخيل شائعة بهذه الطبيعة الشريرة،
02:00
particularly in the world of politics, can go very far, very fast.
40
120620
5920
خاصة في عالم السياسة، يمكن أن تذهب بعيدًا جدًا وبسرعة كبيرة.
02:06
And that old saying, “seeing is believing” began to haunt me.
41
126540
4480
وبدأت تلك المقولة القديمة «الرؤية هي الإيمان» تطاردني.
02:11
And in the weeks leading up to my election,
42
131060
2520
وفي الأسابيع التي سبقت انتخابي،
02:13
this video, this false video,
43
133620
1920
تمت مشاركة
02:15
was shared thousands and thousands of times across WhatsApp.
44
135540
4240
هذا الفيديو، هذا الفيديو الكاذب، آلاف وآلاف المرات عبر واتساب.
02:20
And attached to this video was photos of me at work,
45
140260
3720
وأرفقت بهذا الفيديو صور لي في العمل، وأنا
02:24
smiling, campaigning,
46
144020
2760
أبتسم، وقمت بالحملات الانتخابية،
02:26
building a sense of trust with my constituents.
47
146820
2680
وأبني شعورًا بالثقة مع ناخبي.
02:29
And as the weeks went on,
48
149540
1480
ومع مرور الأسابيع، تدفقت
02:31
messages flooded in faster and faster,
49
151020
3920
الرسائل بشكل أسرع
02:34
and they were of a very vile and sexual nature.
50
154980
3040
وأسرع، وكانت ذات طبيعة حقيرة وجنسية للغاية.
02:38
Ding!
51
158340
1200
دينغ!
02:39
"We've all seen your little video."
52
159540
2000
«لقد شاهدنا جميعًا الفيديو الصغير الخاص بك.»
02:41
Ding!
53
161940
1120
دينغ!
02:43
"You should be ashamed of yourself."
54
163100
2480
«يجب أن تخجل من نفسك.»
02:45
Ding!
55
165620
1200
دينغ!
02:46
"Ah, now I see how you got your position in politics."
56
166820
4280
«آه، الآن أرى كيف حصلت على منصبك في السياسة.»
02:53
It was very difficult.
57
173100
1960
كان الأمر صعبًا للغاية.
02:55
And having been in politics since the age of 23,
58
175540
3160
وبما أنني كنت في السياسة منذ سن 23 عامًا،
02:58
and at this point I've been in it for about four to five years,
59
178740
3560
وفي هذه المرحلة كنت أعمل فيها منذ حوالي أربع إلى خمس سنوات،
03:02
and I'm from Northern Ireland, which is a post-conflict society,
60
182300
3280
وأنا من أيرلندا الشمالية، التي هي مجتمع ما بعد الصراع،
03:05
still very deeply divided.
61
185620
1920
لا يزال منقسمًا بشدة.
03:07
So I anticipated challenges,
62
187580
2600
لذلك توقعت التحديات،
03:10
I anticipated disagreements,
63
190220
2600
توقعت الخلافات، حتى
03:12
I even anticipated attacks, is politics after all.
64
192860
2800
أنني توقعت الهجمات، هي السياسة بعد كل شيء.
03:16
But what I did not anticipate was this moment.
65
196100
3520
لكن ما لم أتوقعه هو هذه اللحظة.
03:19
This was different.
66
199660
1400
كان هذا مختلفًا.
03:21
This was the moment where misogyny meets the misuse of technology,
67
201060
5800
كانت هذه هي اللحظة التي تلتقي فيها كراهية النساء بإساءة استخدام التكنولوجيا،
03:26
and even had the potential to impact the outcome of a democratic election.
68
206900
5560
وحتى كانت لديها القدرة على التأثير على نتيجة الانتخابات الديمقراطية.
03:32
And the sad thing for me was this lie became so far spread,
69
212820
5080
والشيء المحزن بالنسبة لي هو أن هذه الكذبة انتشرت
03:37
so far, so fast,
70
217940
1840
حتى الآن، وبسرعة كبيرة، حتى
03:39
that even my own family started to believe it.
71
219820
2880
أن عائلتي بدأت تصدقها.
03:42
Some would say that they'd heard it at a golf club,
72
222700
2760
قد يقول البعض إنهم سمعوها في نادي الجولف،
03:45
others would say they heard it at the bar,
73
225500
2520
والبعض الآخر يقولون إنهم سمعوها في البار،
03:48
and of course, some even said they heard it in a locker room.
74
228060
4320
وبالطبع قال البعض إنهم سمعوها في غرفة خلع الملابس.
03:52
A really good example of how far this went
75
232420
2480
من الأمثلة الجيدة حقًا على المدى الذي وصل إليه هذا
03:54
was people that I knew my entire life
76
234900
2520
هو الأشخاص الذين كنت أعرف أن حياتي كلها
03:57
would pass me in the street without whispering a word.
77
237460
3000
سوف تمر بي في الشارع دون أن أهمس بكلمة.
04:00
People like school teachers,
78
240460
1360
أشخاص مثل معلمي المدارس،
04:01
people I had a sense of trust with
79
241860
1720
والأشخاص الذين كان لدي شعور بالثقة
04:03
and, you know, an affinity with.
80
243620
2360
معهم، وكما تعلمون، تقارب معهم.
04:05
And that was really hard.
81
245980
1320
وكان ذلك صعبًا حقًا.
04:07
It felt like overnight I was wearing a scarlet letter.
82
247300
3920
شعرت وكأنني كنت أرتدي حرفًا قرمزيًا بين عشية وضحاها.
04:11
And as things moved on
83
251660
1320
ومع تقدم الأمور
04:12
and were about two, three weeks out from the election,
84
252980
2880
وبعد حوالي أسبوعين أو ثلاثة من الانتخابات، ظللت
04:15
I kept receiving messages, and it got wider and wider.
85
255900
3120
أتلقى الرسائل، واتسعت أكثر فأكثر.
04:19
It was global.
86
259060
1160
كانت عالمية.
04:20
Not only was I receiving messages from Dublin and from London,
87
260220
3680
لم أكن أتلقى رسائل من دبلن ومن لندن فحسب،
04:23
but I was also receiving messages from Massachusetts, Manhattan,
88
263900
4040
بل كنت أتلقى أيضًا رسائل من ماساتشوستس ومانهاتن،
04:27
and I was getting so many follows on my political social media,
89
267940
3920
وكنت أتلقى الكثير من المتابعين على وسائل التواصل الاجتماعي السياسية الخاصة بي، في
04:31
predominantly from men hungry for more of this scandal.
90
271900
3920
الغالب من الرجال المتعطشين لمزيد من هذه الفضيحة.
04:35
And this intersection of online harms impacting my real life
91
275860
5120
وهذا التقاطع بين الأضرار عبر الإنترنت التي تؤثر على حياتي الحقيقية
04:40
was something I found utterly strange and surreal.
92
280980
4000
كان شيئًا وجدته غريبًا وسرياليًا تمامًا.
04:45
But it got to the point where I was recognized on the street
93
285500
3800
لكن الأمر وصل إلى النقطة التي تم فيها التعرف علي في الشارع
04:49
and approached by a stranger who asked me for a sexual favor.
94
289340
6040
واقترب مني شخص غريب طلب مني خدمة جنسية.
04:55
And it was just, for me, it was like in the blink of an eye,
95
295420
3080
وكان الأمر، بالنسبة لي، كما لو كان الأمر في غمضة عين،
04:58
everything had just changed,
96
298500
2640
كل شيء قد تغير للتو،
05:01
and it was utterly humiliating.
97
301140
1600
وكان الأمر مهينًا تمامًا.
05:02
I didn't want to leave the house,
98
302780
1680
لم أكن أرغب في مغادرة المنزل،
05:04
and I had turned notifications off in my phone
99
304460
2880
وقمت بإيقاف تشغيل الإشعارات في هاتفي
05:07
just so I could kind of catch my breath,
100
307380
1920
فقط حتى أتمكن من التقاط أنفاسي،
05:09
but this wasn't ideal in the lead up, of course, to an election.
101
309340
4280
لكن هذا لم يكن مثاليًا في الفترة التي سبقت الانتخابات بالطبع.
05:13
And for me, I think that was the purpose of this false video, was to do just that.
102
313620
4960
وبالنسبة لي، أعتقد أن هذا كان الغرض من هذا الفيديو الكاذب، هو القيام بذلك بالضبط.
05:19
But what hurt the most for me
103
319660
2440
لكن أكثر ما آلمني
05:22
was sitting down my father
104
322140
2720
هو جلوس والدي.
05:24
and having to explain to him this strange, surreal situation.
105
324860
5760
والاضطرار إلى شرح هذا الوضع الغريب والسريالي له.
05:30
My father is an Irishman,
106
330620
1760
والدي إيرلندي، منفصل
05:32
completely disconnected from tech,
107
332420
2160
تمامًا عن التكنولوجيا،
05:34
and so having to explain
108
334620
1920
ولذا فإن الاضطرار إلى شرح
05:36
this horrific situation was an entire fabrication
109
336580
4320
هذا الوضع المروع كان تلفيقًا بالكامل
05:40
was very hard to do.
110
340940
1600
كان من الصعب جدًا القيام به.
05:42
This was this strange moment
111
342860
2120
كانت هذه اللحظة الغريبة
05:45
where the online world met my life, my reality.
112
345020
4880
حيث التقى عالم الإنترنت بحياتي وواقعي.
05:50
Not only having the impact to ruin my reputation,
113
350460
4520
ليس فقط التأثير على سمعتي،
05:54
but have the capacity to change the outcome
114
354980
2800
ولكن لدي القدرة على تغيير
05:57
of a democratic election.
115
357820
2200
نتيجة الانتخابات الديمقراطية.
06:00
And, you know,
116
360500
1160
وكما تعلمون،
06:01
for years I spent so much time building trust with my constituents.
117
361700
4040
لسنوات قضيت الكثير من الوقت في بناء الثقة مع ناخبي.
06:05
I mean, we all know how much people like politicians.
118
365780
3360
أعني، كلنا نعرف مدى حب الناس للسياسيين.
06:09
You know, we’re as likeable as the tax man.
119
369180
2000
كما تعلمون، نحن محبوبون مثل رجل الضرائب.
06:11
So for me, it was hard.
120
371220
2880
لذلك بالنسبة لي، كان الأمر صعبًا.
06:14
It was really hard
121
374100
1200
كان الأمر صعبًا حقًا
06:15
because it was years of hard work.
122
375300
2280
لأنه كان سنوات من العمل الشاق.
06:18
You know, I’m so passionate about my job,
123
378100
2160
كما تعلمون، أنا متحمس جدًا لعملي،
06:20
and this video, this complete falsehood,
124
380260
2920
وهذا الفيديو، هذا الباطل الكامل،
06:23
had the ability to just undermine years of hard work in mere seconds.
125
383180
4600
كان لديه القدرة على تقويض سنوات من العمل الشاق في ثوانٍ معدودة.
06:28
But instead of succumbing entirely to victimhood,
126
388220
3200
ولكن بدلاً من الاستسلام بالكامل للضحية،
06:31
I ask myself today,
127
391420
1360
أسأل نفسي اليوم، كما
06:32
you know, where do we go from here?
128
392820
2280
تعلمون، إلى أين نذهب من هنا؟
06:35
And how can AI evolve to prevent something like this happening again?
129
395140
5560
وكيف يمكن أن يتطور الذكاء الاصطناعي لمنع حدوث شيء كهذا مرة أخرى؟
06:40
Not only has it happened to me,
130
400740
1480
لم يحدث ذلك لي فحسب،
06:42
but we want to future-proof and ensure that this doesn't happen
131
402220
3000
بل نريد إثبات المستقبل والتأكد من
06:45
to the women of tomorrow.
132
405260
1760
عدم حدوث ذلك لنساء الغد.
06:47
How can we, you and I, people who care about people,
133
407060
4280
كيف يمكننا، أنت وأنا، الأشخاص الذين يهتمون بالناس،
06:51
ensure that this is a tech for good?
134
411380
2400
التأكد من أن هذه تقنية من أجل الخير؟
06:54
How can we, the policymakers, the creators, the consumers,
135
414300
4680
كيف يمكننا، نحن صناع السياسات والمبدعون والمستهلكون،
06:58
ensure we regulate AI and things like social media,
136
418980
3480
ضمان تنظيم الذكاء الاصطناعي وأشياء مثل وسائل التواصل الاجتماعي،
07:02
putting humans and humanity at the center of artificial intelligence?
137
422500
5320
ووضع البشر والإنسانية في قلب الذكاء الاصطناعي؟
07:08
AI can change the world.
138
428740
2280
يمكن للذكاء الاصطناعي تغيير العالم.
07:11
In fact, as we've heard today, it already has.
139
431060
2880
في الواقع، كما سمعنا اليوم، فقد حدث ذلك بالفعل.
07:13
In a matter of seconds,
140
433940
1520
في غضون ثوانٍ،
07:15
people who speak completely different languages
141
435460
2240
يمكن للأشخاص الذين يتحدثون لغات مختلفة
07:17
can connect and understand one another.
142
437700
2160
تمامًا التواصل وفهم بعضهم البعض.
07:19
And we've even seen the Pope as a style icon in a puffer jacket.
143
439860
3960
وقد رأينا أيضًا البابا كرمز للأناقة في سترة منتفخة.
07:24
So some really important uses right there.
144
444180
2240
لذا فإن بعض الاستخدامات المهمة حقًا هناك.
07:27
But then in my case as well,
145
447220
1600
ولكن في حالتي أيضًا،
07:28
we can also see how it is weaponized against the truth.
146
448860
3440
يمكننا أيضًا أن نرى كيف يتم تسليحها ضد الحقيقة.
07:32
And good examples of this would be art that appears like reality,
147
452620
4120
ومن الأمثلة الجيدة على ذلك الفن الذي يبدو وكأنه واقع، والمراجعات التي
07:36
AI-generated reviews unfairly boosting certain products
148
456740
3840
تم إنشاؤها بواسطة الذكاء الاصطناعي والتي تعزز بشكل غير عادل بعض المنتجات
07:40
and things like chatbot propaganda.
149
460580
2760
وأشياء مثل الدعاية لروبوتات المحادثة.
07:43
And then, politically speaking,
150
463340
1760
وبعد ذلك، من الناحية السياسية،
07:45
we've seen over the years deepfakes of Nancy Pelosi slurring,
151
465140
4320
رأينا على مر السنين مزيفات عميقة لنانسي بيلوسي وهي تتلاعب،
07:49
Joe Biden cursing
152
469500
1480
وجو بايدن يلعن،
07:51
and even President Zelensky
153
471020
1760
وحتى الرئيس زيلينسكي
07:52
asking his soldiers to surrender their weapons.
154
472820
3160
يطلب من جنوده تسليم أسلحتهم.
07:57
So when AI is used like this, to manipulate,
155
477220
3560
لذلك عندما يتم استخدام الذكاء الاصطناعي بهذه الطريقة، للتلاعب، يمكن
08:00
it can be a threat to our democracy.
156
480780
2960
أن يشكل تهديدًا لديمقراطيتنا.
08:03
And the tech is becoming so advanced
157
483740
2680
وأصبحت التكنولوجيا متقدمة جدًا لدرجة
08:06
that it's hard to differentiate fact from fiction.
158
486460
3400
أنه من الصعب التمييز بين الحقيقة والخيال.
08:10
So how does AI interfere with politics?
159
490660
4000
إذن كيف يتدخل الذكاء الاصطناعي في السياسة؟
08:14
And for us as politicians, what should we be worried about?
160
494660
3840
وبالنسبة لنا كسياسيين، ما الذي يجب أن نقلق بشأنه؟
08:18
Could truth and democracy become shattered by AI?
161
498820
3760
هل يمكن أن تتحطم الحقيقة والديمقراطية بفعل الذكاء الاصطناعي؟
08:22
Has it already?
162
502580
1320
هل فعلت ذلك بالفعل؟
08:24
Well, to dive a little deeper here,
163
504300
2160
حسنًا، للتعمق قليلاً هنا،
08:26
I think firstly we need to talk about the concept of truth.
164
506500
3440
أعتقد أولاً أننا بحاجة إلى التحدث عن مفهوم الحقيقة.
08:30
Without truth, democracy collapses.
165
510300
2920
بدون الحقيقة، تنهار الديمقراطية.
08:33
Truth allows us to make informed decisions,
166
513700
3520
تسمح لنا الحقيقة باتخاذ قرارات مستنيرة،
08:37
it enables us to hold leaders accountable, which is very important.
167
517220
4040
وتمكننا من مساءلة القادة، وهو أمر مهم للغاية.
08:41
And it also allows us, as political representatives,
168
521300
3400
كما أنه يسمح لنا، كممثلين سياسيين،
08:44
to create a sense of trust with our citizens and our constituents.
169
524700
3840
بخلق شعور بالثقة مع مواطنينا وناخبينا.
08:49
But without that truth,
170
529020
1680
ولكن من دون هذه الحقيقة، تكون
08:50
democracy is vulnerable to misinformation,
171
530740
3280
الديمقراطية عرضة للتضليل
08:54
manipulation, and, of course, corruption.
172
534020
3400
والتلاعب والفساد بالطبع.
08:57
When AI erodes truth,
173
537940
2920
عندما يؤدي الذكاء الاصطناعي إلى تآكل الحقيقة،
09:00
it erodes trust,
174
540860
2000
فإنه يؤدي إلى تآكل الثقة
09:02
and it undermines our democracy.
175
542860
2240
وتقويض ديمقراطيتنا.
09:05
And for me, in my experience with a deepfake,
176
545500
3760
وبالنسبة لي، من خلال تجربتي مع التزييف العميق،
09:09
I've seen what a fantastic distortion tool that deepfakes really are.
177
549260
4960
رأيت ما هي أداة التشويه الرائعة التي تمثلها التزييف العميق حقًا.
09:14
So how can we safeguard democracy from this ever-advancing technology?
178
554220
5080
إذن كيف يمكننا حماية الديمقراطية من هذه التكنولوجيا المتطورة باستمرار؟
09:19
It's becoming ever harder to distinguish between real and synthetic content.
179
559620
4960
أصبح التمييز بين المحتوى الحقيقي والاصطناعي أكثر صعوبة من أي وقت مضى.
09:24
And politically, what role does AI play in the future?
180
564620
4160
ومن الناحية السياسية، ما هو الدور الذي يلعبه الذكاء الاصطناعي في المستقبل؟
09:28
And I can't talk about politics without talking about media as well.
181
568820
4080
ولا يمكنني التحدث عن السياسة دون الحديث عن وسائل الإعلام أيضًا.
09:32
They're undeniably linked, they're intertwined.
182
572900
2360
إنهم مرتبطون بشكل لا يمكن إنكاره، إنهم متشابكون.
09:35
And I think journalism has its own battle here as well.
183
575300
3600
وأعتقد أن الصحافة لديها معركتها الخاصة هنا أيضًا.
09:39
From AI algorithms boosting articles unfairly
184
579220
3600
من خوارزميات الذكاء الاصطناعي التي تعزز المقالات بشكل غير عادل
09:42
to clickbait headlines,
185
582860
1520
إلى عناوين clickbait،
09:44
and then also moments where they can manipulate the public as well.
186
584420
4800
ثم أيضًا اللحظات التي يمكنهم فيها التلاعب بالجمهور أيضًا.
09:49
But politically speaking,
187
589220
1240
لكن من الناحية السياسية،
09:50
we've seen AI-tailored political messaging
188
590500
3000
رأينا رسائل سياسية مصممة بالذكاء الاصطناعي
09:53
influencing voters,
189
593540
1160
تؤثر على الناخبين،
09:54
we’ve seen it adding to existing bias.
190
594740
3240
ورأيناها تضيف إلى التحيز الحالي.
09:58
And definitely I think we all have that aunt that’s on Facebook
191
598020
2960
أعتقد أننا جميعًا لدينا تلك العمة الموجودة على Facebook
10:00
and kind of believes anything.
192
600980
1840
والتي تؤمن بأي شيء.
10:02
So for me, as a politician,
193
602860
1440
لذلك بالنسبة لي، كسياسي،
10:04
I think it's really important we dive a little deeper
194
604340
2480
أعتقد أنه من المهم حقًا أن
10:06
into the relationship of AI, journalism and media.
195
606820
3880
نتعمق قليلاً في العلاقة بين الذكاء الاصطناعي والصحافة والإعلام.
10:11
But it also puts us at risk
196
611220
1840
لكنه يعرضنا أيضًا لخطر
10:13
of creating a more divided and reactionary society,
197
613100
4000
خلق مجتمع أكثر انقسامًا ورجعية،
10:17
because falsehoods can create a lot of reaction.
198
617140
3000
لأن الأكاذيب يمكن أن تخلق الكثير من ردود الفعل.
10:20
And for myself, coming from Northern Ireland,
199
620140
2320
وبالنسبة لي، فأنا من أيرلندا الشمالية،
10:22
which is that post-conflict society,
200
622500
2320
وهي مجتمع ما بعد الصراع،
10:24
I do have concerns about how it could shape our political landscape
201
624860
3960
لدي مخاوف بشأن كيفية تشكيل المشهد السياسي لدينا
10:28
and other places across the globe.
202
628820
2320
وأماكن أخرى في جميع أنحاء العالم.
10:32
Sadly, this deepfake video
203
632060
2320
للأسف، هذا الفيديو المزيف
10:34
is not the only instance of me having experienced abuse with AI.
204
634380
5400
ليس المثال الوحيد الذي تعرضت فيه لإساءة استخدام الذكاء الاصطناعي.
10:39
Just six months ago,
205
639780
1280
قبل ستة أشهر فقط،
10:41
I received 15 deepfake images of myself in lingerie
206
641100
5400
تلقيت 15 صورة مزيفة لنفسي في ملابس داخلية وأنا
10:46
posing provocatively.
207
646540
1640
أتظاهر بشكل استفزازي.
10:48
And I thought to myself, here we go again.
208
648620
3240
وقلت لنفسي، ها نحن نبدأ مرة أخرى.
10:52
And you know, I spoke with some other female politicians.
209
652460
3720
وكما تعلمون، تحدثت مع بعض السياسيات الأخريات.
10:56
Thankfully, where I represent, we have more women getting into politics.
210
656980
4280
لحسن الحظ، حيثما أمثل، لدينا المزيد من النساء اللواتي يدخلن السياسة.
11:01
But I had a really good conversation with them,
211
661300
2200
لكنني أجريت محادثة جيدة حقًا معهم،
11:03
and it’s around, if this is happening to you now,
212
663500
2320
وهي موجودة، إذا كان هذا يحدث لك الآن،
11:05
what happens to me tomorrow?
213
665860
1760
فماذا سيحدث لي غدًا؟
11:07
And I think this really strikes at the heart of the climate of fear
214
667660
3960
وأعتقد أن هذا يضرب حقًا في صميم مناخ الخوف الذي يمكن
11:11
that AI can create for those in public life.
215
671660
3840
أن يخلقه الذكاء الاصطناعي لأولئك في الحياة العامة.
11:15
And I don't blame women.
216
675500
1160
وأنا لا ألوم النساء.
11:16
It's very sad.
217
676700
1160
إنه أمر محزن للغاية.
11:17
I don't blame women for not wanting to get into politics
218
677860
2640
لا ألوم النساء على عدم رغبتهن في الدخول في السياسة
11:20
when they see this kind of technology come forward,
219
680540
2400
عندما يرون هذا النوع من التكنولوجيا يتقدم،
11:22
so that's so important that we safeguard it.
220
682940
2480
لذلك من المهم جدًا أن نحميها.
11:25
What also concerned me was the position of elderly voters
221
685420
4680
ما يقلقني أيضًا هو موقف الناخبين المسنين
11:30
and perhaps their media literacy,
222
690100
1880
وربما معرفتهم الإعلامية
11:32
their comprehension of this technology.
223
692020
2200
وفهمهم لهذه التكنولوجيا.
11:34
People who don't use the internet,
224
694260
2120
الأشخاص الذين لا يستخدمون الإنترنت،
11:36
who perhaps are not aware of AI and its many, many uses.
225
696420
3920
والذين ربما ليسوا على دراية بالذكاء الاصطناعي واستخداماته العديدة.
11:40
So that was really concerning as well.
226
700340
2400
لذلك كان هذا مقلقًا حقًا أيضًا.
11:43
But it doesn't have to be this way.
227
703060
1800
لا يجب أن يكون الأمر بهذه الطريقة.
11:44
We can be part of the change.
228
704900
1760
يمكننا أن نكون جزءًا من التغيير.
11:47
For me and my video,
229
707260
1920
بالنسبة لي ولمقطع الفيديو الخاص بي، ما
11:49
I still don't know, to this day, who did this.
230
709220
3520
زلت لا أعرف، حتى يومنا هذا، من فعل ذلك.
11:52
I can imagine why they did it, but I don't know who did it.
231
712780
3400
أستطيع أن أتخيل لماذا فعلوا ذلك، لكنني لا أعرف من فعل ذلك.
11:56
And sadly for me and for across the globe,
232
716180
3200
وللأسف بالنسبة لي وفي جميع أنحاء العالم
11:59
it still wouldn't be considered a crime.
233
719420
2920
، لن يتم اعتبارها جريمة.
12:03
So from being the enemy of fair, transparent,
234
723260
2840
لذا، من كونه عدوًا للسياسة العادلة والشفافة
12:06
good-natured politics,
235
726100
1600
والحسنة،
12:07
to warfare, to international interference,
236
727740
3240
إلى الحرب، والتدخل الدولي،
12:11
despite its beauty and its potential,
237
731020
2880
على الرغم من جماله وإمكاناته، لا يزال
12:13
AI is still a cause for concern.
238
733940
2880
الذكاء الاصطناعي مدعاة للقلق.
12:16
But it doesn't have to be this way.
239
736820
2080
لكن لا يجب أن يكون الأمر بهذه الطريقة.
12:19
I feel passionately that AI can be a humanistic technology
240
739260
3720
أشعر بشغف أن الذكاء الاصطناعي يمكن أن يكون تقنية إنسانية
12:23
with human values
241
743020
1560
ذات قيم
12:24
that complements the lives that we live
242
744620
2640
إنسانية تكمل الحياة التي نعيشها
12:27
to make us the very best versions of ourselves.
243
747300
3440
لتجعلنا أفضل نسخ من أنفسنا.
12:31
But to do that,
244
751100
1560
ولكن للقيام بذلك،
12:32
I think we need to embed ethics into this technology,
245
752700
3920
أعتقد أننا بحاجة إلى تضمين الأخلاق في هذه التكنولوجيا،
12:36
to eliminate bias, to install empathy
246
756620
4160
للقضاء على التحيز، لتثبيت التعاطف
12:40
and make sure it is aligned with human values and human principles.
247
760820
4760
والتأكد من توافقه مع القيم الإنسانية والمبادئ الإنسانية.
12:45
Who knows, our democracy could depend on it.
248
765900
3400
من يدري، يمكن أن تعتمد ديمقراطيتنا على ذلك.
12:49
And today I know we have some of the brightest minds in this room.
249
769300
3840
واليوم أعلم أن لدينا بعضًا من ألمع العقول في هذه القاعة.
12:53
I heard some of the talks earlier, and I'm certain of that.
250
773180
4120
لقد سمعت بعض المحادثات في وقت سابق، وأنا متأكد من ذلك.
12:57
And I know each and every one of you have weight on your shoulders
251
777340
3120
وأنا أعلم أن كل واحد منكم لديه وزن على كتفيه
13:00
when looking to the future.
252
780500
1680
عند التطلع إلى المستقبل.
13:02
But I also know each and every one of you want to see this tech for good.
253
782220
5400
لكنني أعرف أيضًا أن كل واحد منكم يريد رؤية هذه التكنولوجيا للأبد.
13:07
And what gives me hope
254
787980
1800
وما يعطيني الأمل
13:09
is witnessing the movement right across the globe
255
789780
3320
هو مشاهدة الحركة في جميع أنحاء العالم
13:13
to see this hard journey begin,
256
793140
2800
لرؤية هذه الرحلة الصعبة تبدأ،
13:15
to regulate this ever-advancing technology,
257
795940
2840
لتنظيم هذه التكنولوجيا المتطورة باستمرار،
13:18
which can be used for bad or for good.
258
798780
3000
والتي يمكن استخدامها في السراء أو الخير.
13:22
But perhaps we, each and every one of us in this room,
259
802140
3720
ولكن ربما يمكننا نحن، كل واحد منا في هذه القاعة،
13:25
can be part of finding the solution.
260
805860
2360
أن نكون جزءًا من إيجاد الحل.
13:28
(Applause)
261
808860
2200
(تصفيق)
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7