Your Right to Repair AI Systems | Rumman Chowdhury | TED

44,322 views ・ 2024-06-05

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: Hani Eldalees المدقّق: Dana Sarhan
00:04
I want to tell you a story
0
4543
1835
أريد أن أخبركم قصة
00:06
about artificial intelligence and farmers.
1
6419
4171
عن الذكاء الاصطناعي والمزارعين.
00:10
Now, what a strange combination, right?
2
10966
3044
الآن، يا له من مزيج غريب، أليس كذلك؟
00:14
Two topics could not sound more different from each other.
3
14010
4088
لا يمكن أن يبدو موضوعان مختلفين عن بعضهما البعض.
00:18
But did you know that modern farming actually involves a lot of technology?
4
18431
5047
لكن هل تعلم أن الزراعة الحديثة تنطوي بالفعل على الكثير من التكنولوجيا؟
00:23
So computer vision is used to predict crop yields.
5
23478
3796
لذلك يتم استخدام رؤية الكمبيوتر للتنبؤ بإنتاجية المحاصيل.
00:27
And artificial intelligence is used to find,
6
27315
2836
ويستخدم الذكاء الاصطناعي للعثور على الحشرات
00:30
identify and get rid of insects.
7
30151
2878
والتعرف عليها والتخلص منها.
00:33
Predictive analytics helps figure out extreme weather conditions
8
33071
4129
تساعد التحليلات التنبؤية في اكتشاف الظروف الجوية القاسية
00:37
like drought or hurricanes.
9
37242
1960
مثل الجفاف أو الأعاصير.
00:39
But this technology is also alienating to farmers.
10
39744
4547
لكن هذه التكنولوجيا تنفر المزارعين أيضًا.
00:44
And this all came to a head in 2017
11
44291
3003
وقد وصل كل هذا إلى ذروته في عام 2017
00:47
with the tractor company John Deere when they introduced smart tractors.
12
47335
4922
مع شركة الجرارات John Deere عندما قدمت الجرارات الذكية.
00:52
So before then, if a farmer's tractor broke,
13
52299
2961
لذا قبل ذلك، إذا تعطل جرار المزارع،
00:55
they could just repair it themselves or take it to a mechanic.
14
55302
3920
يمكنه فقط إصلاحه بنفسه أو نقله إلى ميكانيكي.
00:59
Well, the company actually made it illegal
15
59222
2961
حسنًا، جعلت الشركة في الواقع من غير القانوني
01:02
for farmers to fix their own equipment.
16
62225
2586
للمزارعين إصلاح معداتهم الخاصة.
01:04
You had to use a licensed technician
17
64811
2836
كان عليك استخدام فني مرخص
01:07
and farmers would have to wait for weeks
18
67689
2628
وسيتعين على المزارعين الانتظار لأسابيع
01:10
while their crops rot and pests took over.
19
70317
3044
حتى تتعفن محاصيلهم وتنتشر الآفات.
01:14
So they took matters into their own hands.
20
74279
3170
لذلك أخذوا الأمور بأيديهم.
01:17
Some of them learned to program,
21
77490
1544
تعلم بعضهم البرمجة،
01:19
and they worked with hackers to create patches to repair their own systems.
22
79075
4922
وعملوا مع المتسللين لإنشاء تصحيحات لإصلاح أنظمتهم الخاصة.
01:23
In 2022,
23
83997
1418
في عام 2022،
01:25
at one of the largest hacker conferences in the world, DEFCON,
24
85457
3712
في أحد أكبر مؤتمرات القراصنة في العالم، DEFCON
01:29
a hacker named Sick Codes and his team
25
89210
2586
وهو مخترق يدعى Sick Codes وفريقه
01:31
showed everybody how to break into a John Deere tractor,
26
91838
3212
للجميع كيفية اقتحام جرار John Deere،
01:35
showing that, first of all, the technology was vulnerable,
27
95091
3629
مما يدل على أن التكنولوجيا، أولاً وقبل كل شيء، كانت ضعيفة،
01:38
but also that you can and should own your own equipment.
28
98762
4337
ولكن أيضًا أنه يمكنك ويجب عليك امتلاك معداتك الخاصة.
01:43
To be clear, this is illegal,
29
103683
2836
للتوضيح، هذا غير قانوني،
01:46
but there are people trying to change that.
30
106561
2795
ولكن هناك أشخاص يحاولون تغيير ذلك.
01:49
Now that movement is called the “right to repair.”
31
109689
3796
الآن تسمى هذه الحركة «الحق في الإصلاح».
01:53
The right to repair goes something like this.
32
113526
2169
الحق في الإصلاح يسير على هذا النحو.
01:55
If you own a piece of technology,
33
115737
1668
إذا كنت تمتلك قطعة من التكنولوجيا،
01:57
it could be a tractor, a smart toothbrush,
34
117405
2544
فقد تكون جرارًا أو فرشاة أسنان ذكية
01:59
a washing machine,
35
119991
1377
أو غسالة ملابس،
02:01
you should have the right to repair it if it breaks.
36
121368
3086
فيجب أن يكون لديك الحق في إصلاحها في حالة تعطلها.
02:05
So why am I telling you this story?
37
125246
2253
فلماذا أقول لك هذه القصة؟
02:08
The right to repair needs to extend to artificial intelligence.
38
128541
5214
يجب أن يمتد الحق في الإصلاح إلى الذكاء الاصطناعي.
02:14
Now it seems like every week
39
134214
2127
الآن يبدو أن
02:16
there is a new and mind-blowing innovation in AI.
40
136383
3336
هناك كل أسبوع ابتكارًا جديدًا ومذهلًا في الذكاء الاصطناعي.
02:19
But did you know that public confidence is actually declining?
41
139719
4880
لكن هل تعلم أن ثقة الجمهور آخذة في الانخفاض بالفعل؟
02:24
A recent Pew poll showed that more Americans are concerned
42
144599
4963
أظهر استطلاع أجرته مؤسسة بيو مؤخرًا أن المزيد من الأمريكيين يشعرون بالقلق
02:29
than they are excited about the technology.
43
149604
2503
أكثر من حماسهم للتكنولوجيا.
02:32
This is echoed throughout the world.
44
152148
2211
يتردد صدى هذا في جميع أنحاء العالم.
02:34
The World Risk Poll shows
45
154401
1418
يُظهر استطلاع مخاطر عالمي
02:35
that respondents from Central and South America and Africa
46
155860
3462
أن المشاركين من أمريكا الوسطى والجنوبية وأفريقيا قالوا
02:39
all said that they felt AI would lead to more harm than good for their people.
47
159322
6090
جميعًا إنهم يشعرون أن الذكاء الاصطناعي سيؤدي إلى ضرر أكثر مما ينفع شعوبهم.
02:46
As a social scientist and an AI developer,
48
166287
2503
بصفتي عالمًا اجتماعيًا ومطورًا للذكاء الاصطناعي،
02:48
this frustrates me.
49
168790
1585
فإن هذا يحبطني.
02:50
I'm a tech optimist
50
170417
1293
أنا متفائل بالتكنولوجيا
02:51
because I truly believe this technology can lead to good.
51
171751
4338
لأنني أعتقد حقًا أن هذه التكنولوجيا يمكن أن تؤدي إلى الخير.
02:56
So what's the disconnect?
52
176464
1919
إذن ما هو الانفصال؟
02:58
Well, I've talked to hundreds of people over the last few years.
53
178758
3754
حسنًا، لقد تحدثت إلى مئات الأشخاص خلال السنوات القليلة الماضية.
03:02
Architects and scientists, journalists and photographers,
54
182554
3670
المهندسون المعماريون والعلماء والصحفيون والمصورون والسائقون والأطباء
03:06
ride-share drivers and doctors,
55
186224
1710
يتشاركون الركوب،
03:07
and they all say the same thing.
56
187976
2961
وكلهم يقولون نفس الشيء.
03:12
People feel like an afterthought.
57
192272
3795
يشعر الناس وكأنهم فكرة لاحقة.
03:17
They all know that their data is harvested often without their permission
58
197485
4338
يعلمون جميعًا أن بياناتهم يتم حصادها غالبًا دون إذنهم
03:21
to create these sophisticated systems.
59
201823
2461
لإنشاء هذه الأنظمة المعقدة.
03:24
They know that these systems are determining their life opportunities.
60
204325
4171
إنهم يعرفون أن هذه الأنظمة تحدد فرص حياتهم.
03:28
They also know that nobody ever bothered to ask them
61
208496
3545
إنهم يعرفون أيضًا أنه لم يكلف أحد عناء سؤالهم عن
03:32
how the system should be built,
62
212083
1502
كيفية بناء النظام،
03:33
and they certainly have no idea where to go if something goes wrong.
63
213585
5964
وبالتأكيد ليس لديهم أي فكرة إلى أين يذهبون إذا حدث خطأ ما.
03:40
We may not own AI systems,
64
220383
2336
قد لا نمتلك أنظمة الذكاء الاصطناعي،
03:42
but they are slowly dominating our lives.
65
222761
2794
لكنها تهيمن ببطء على حياتنا.
03:45
We need a better feedback loop
66
225597
1501
نحن بحاجة إلى ردود فعل أفضل
03:47
between the people who are making these systems,
67
227140
2961
بين الأشخاص الذين يصنعون هذه الأنظمة
03:50
and the people who are best determined to tell us
68
230101
3337
والأشخاص الأكثر تصميمًا على إخبارنا
03:53
how these AI systems should interact in their world.
69
233480
3628
بكيفية تفاعل أنظمة الذكاء الاصطناعي هذه في عالمهم.
03:57
One step towards this is a process called red teaming.
70
237609
3837
خطوة واحدة نحو ذلك هي عملية تسمى الفريق الأحمر.
04:01
Now, red teaming is a practice that was started in the military,
71
241821
3003
الآن، أصبح العمل الجماعي الأحمر ممارسة بدأت في الجيش،
04:04
and it's used in cybersecurity.
72
244866
1919
وتستخدم في الأمن السيبراني.
04:06
In a traditional red-teaming exercise,
73
246826
2628
في تمرين الفريق الأحمر التقليدي،
04:09
external experts are brought in to break into a system,
74
249454
3920
يتم جلب خبراء خارجيين لاقتحام النظام،
04:13
sort of like what Sick Codes did with tractors, but legal.
75
253374
4338
نوعًا ما مثل ما فعلته Sick Codes مع الجرارات، ولكنه قانوني.
04:17
So red teaming acts as a way of testing your defenses
76
257712
3670
لذا فإن الفريق الأحمر يعمل كطريقة لاختبار دفاعاتك
04:21
and when you can figure out where something will go wrong,
77
261424
3545
وعندما تتمكن من معرفة أين سيحدث خطأ ما،
04:25
you can figure out how to fix it.
78
265011
3003
يمكنك معرفة كيفية إصلاحه.
04:28
But when AI systems go rogue,
79
268056
2377
ولكن عندما تصبح أنظمة الذكاء الاصطناعي خادعة،
04:30
it's more than just a hacker breaking in.
80
270433
2920
يكون الأمر أكثر من مجرد اختراق مخترق.
04:33
The model could malfunction or misrepresent reality.
81
273394
3754
يمكن أن يتعطل النموذج أو يحرف الواقع.
04:37
So, for example, not too long ago,
82
277190
2044
لذلك، على سبيل المثال، منذ وقت ليس ببعيد،
04:39
we saw an AI system attempting diversity
83
279234
2627
رأينا نظامًا للذكاء الاصطناعي يحاول التنوع
04:41
by showing historically inaccurate photos.
84
281903
3503
من خلال عرض صور غير دقيقة تاريخيًا.
04:45
Anybody with a basic understanding of Western history
85
285406
2670
كان بإمكان أي شخص لديه فهم أساسي للتاريخ الغربي
04:48
could have told you that neither the Founding Fathers
86
288076
2502
أن يخبرك أنه لن يكون الآباء المؤسسون
04:50
nor Nazi-era soldiers would have been Black.
87
290620
2169
ولا جنود الحقبة النازية من السود.
04:54
In that case, who qualifies as an expert?
88
294123
3629
في هذه الحالة، من الذي يتأهل كخبير؟
04:58
You.
89
298670
1168
أنت.
05:00
I'm working with thousands of people all around the world
90
300380
2836
أنا أعمل مع آلاف الأشخاص في جميع أنحاء العالم
05:03
on large and small red-teaming exercises,
91
303258
2252
على تمارين الفريق الأحمر الكبيرة والصغيرة،
05:05
and through them we found and fixed mistakes in AI models.
92
305552
4629
ومن خلالها اكتشفنا الأخطاء وأصلحناها في نماذج الذكاء الاصطناعي.
05:10
We also work with some of the biggest tech companies in the world:
93
310181
3587
نحن نعمل أيضًا مع بعض أكبر شركات التكنولوجيا في العالم:
05:13
OpenAI, Meta, Anthropic, Google.
94
313810
2753
OpenAI و Meta و Anthropic و Google.
05:16
And through this, we've made models work better for more people.
95
316604
4630
ومن خلال هذا، جعلنا النماذج تعمل بشكل أفضل لمزيد من الأشخاص.
05:22
Here's a bit of what we've learned.
96
322277
2168
إليك القليل مما تعلمناه.
05:24
We partnered with the Royal Society in London to do a scientific,
97
324988
3670
لقد عقدنا شراكة مع الجمعية الملكية في لندن لإجراء حدث علمي
05:28
mis- and disinformation event with disease scientists.
98
328658
3545
وخاطئ وتضليلي مع علماء الأمراض.
05:32
What these scientists found
99
332203
1335
ما وجده هؤلاء العلماء
05:33
is that AI models actually had a lot of protections
100
333580
2794
أن نماذج الذكاء الاصطناعي تتمتع بالفعل بالكثير من الحماية
05:36
against COVID misinformation.
101
336416
2294
ضد المعلومات الخاطئة حول كوفيد.
05:38
But for other diseases like measles, mumps and the flu,
102
338751
3546
ولكن بالنسبة لأمراض أخرى مثل الحصبة والنكاف والإنفلونزا،
05:42
the same protections didn't apply.
103
342297
2460
لم يتم تطبيق نفس الحماية.
05:44
We reported these changes,
104
344757
1293
أبلغنا عن هذه التغييرات،
05:46
they’re fixed and now we are all better protected
105
346050
3170
وتم إصلاحها والآن نحن جميعًا محميون بشكل أفضل
05:49
against scientific mis- and disinformation.
106
349220
2670
ضد الأخطاء العلمية والمعلومات المضللة.
05:52
We did a really similar exercise with architects at Autodesk University,
107
352724
4838
لقد أجرينا تمرينًا مشابهًا حقًا مع المهندسين المعماريين في جامعة أوتوديسك،
05:57
and we asked them a simple question:
108
357562
1877
وسألناهم سؤالًا بسيطًا: هل
05:59
Will AI put them out of a job?
109
359439
2961
سيؤدي الذكاء الاصطناعي إلى إخراجهم من العمل؟
06:02
Or more specifically,
110
362442
2169
أو بشكل أكثر تحديدًا،
06:04
could they imagine a modern AI system
111
364611
2043
هل يمكنهم
06:06
that would be able to design the specs of a modern art museum?
112
366696
3670
تخيل نظام ذكاء اصطناعي حديث قادر على تصميم مواصفات متحف الفن الحديث؟
06:10
The answer, resoundingly, was no.
113
370408
3962
كان الجواب، بشكل مدوي، لا.
06:14
Here's why, architects do more than just draw buildings.
114
374787
3629
لهذا السبب، يقوم المهندسون المعماريون بأكثر من مجرد رسم المباني.
06:18
They have to understand physics and material science.
115
378458
3336
يجب عليهم فهم الفيزياء وعلوم المواد.
06:21
They have to know building codes,
116
381836
1585
يجب أن يعرفوا قوانين البناء،
06:23
and they have to do that
117
383463
1251
وعليهم القيام بذلك
06:24
while making something that evokes emotion.
118
384756
2794
أثناء صنع شيء يثير المشاعر.
06:28
What the architects wanted was an AI system
119
388426
2169
ما أراده المهندسون المعماريون هو نظام ذكاء اصطناعي
06:30
that interacted with them, that would give them feedback,
120
390595
2753
الذي يتفاعل معهم، والذي من شأنه أن يمنحهم التعليقات،
06:33
maybe proactively offer design recommendations.
121
393389
2753
وربما يقدم توصيات التصميم بشكل استباقي.
06:36
And today's AI systems, not quite there yet.
122
396142
3670
وأنظمة الذكاء الاصطناعي الحالية، ليست موجودة تمامًا بعد.
06:39
But those are technical problems.
123
399854
1752
لكن هذه مشاكل فنية.
06:41
People building AI are incredibly smart,
124
401648
2043
الذين يبنون ذكاء اصطناعي أذكياء جدا،
06:43
and maybe they could solve all that in a few years.
125
403733
2753
وربما يمكنهم حل كل ذلك في غضون بضع سنوات.
06:46
But that wasn't their biggest concern.
126
406527
1961
لكن هذا لم يكن مصدر قلقهم الأكبر.
06:48
Their biggest concern was trust.
127
408529
2795
كان همهم الأكبر هو الثقة.
06:51
Now architects are liable if something goes wrong with their buildings.
128
411991
4546
الآن يتحمل المهندسون المعماريون المسؤولية إذا حدث خطأ ما في مبانيهم.
06:56
They could lose their license,
129
416537
1669
يمكن أن يفقدوا رخصتهم،
06:58
they could be fined, they could even go to prison.
130
418206
3211
ويمكن تغريمهم، بل قد يذهبون إلى السجن.
07:01
And failures can happen in a million different ways.
131
421459
3086
ويمكن أن تحدث حالات الفشل بمليون طريقة مختلفة.
07:04
For example, exit doors that open the wrong way,
132
424545
3045
على سبيل المثال، أبواب الخروج التي تفتح بطريقة خاطئة،
07:07
leading to people being crushed in an evacuation crisis,
133
427632
4296
مما يؤدي إلى سحق الناس في أزمة الإخلاء،
07:11
or broken glass raining down onto pedestrians in the street
134
431928
4129
أو تساقط الزجاج المكسور على المشاة في الشارع
07:16
because the wind blows too hard and shatters windows.
135
436099
3837
لأن الرياح تهب بشدة وتحطم النوافذ.
07:20
So why would an architect trust an AI system with their job,
136
440311
3921
فلماذا يثق المهندس المعماري بنظام الذكاء الاصطناعي في وظيفته،
07:24
with their literal freedom,
137
444273
2670
مع حريته الحرفية،
07:26
if they couldn't go in and fix a mistake if they found it?
138
446943
3628
إذا لم يتمكن من الدخول وإصلاح الخطأ إذا وجده؟
07:31
So we need to figure out these problems today, and I'll tell you why.
139
451030
4171
لذلك نحن بحاجة إلى معرفة هذه المشاكل اليوم، وسأخبرك لماذا.
07:35
The next wave of artificial intelligence systems, called agentic AI,
140
455201
5047
تمثل الموجة التالية من الذكاء الاصطناعي، والتي تسمى الذكاء الاصطناعي الوكيل،
07:40
is a true tipping point
141
460289
1335
نقطة تحول حقيقية
07:41
between whether or not we retain human agency,
142
461624
4213
بين ما إذا كنا سنحتفظ بالوكالة البشرية أم لا،
07:45
or whether or not AI systems make our decisions for us.
143
465837
3795
أو ما إذا كانت أنظمة الذكاء الاصطناعي تتخذ قراراتنا نيابة عنا أم لا.
07:50
Imagine an AI agent as kind of like a personal assistant.
144
470008
3211
تخيل وكيل الذكاء الاصطناعي كنوع من المساعد الشخصي.
07:53
So, for example, a medical agent might determine
145
473261
3712
لذلك، على سبيل المثال، قد يحدد الوكيل الطبي
07:57
whether or not your family needs doctor's appointments,
146
477015
2585
ما إذا كانت عائلتك بحاجة إلى مواعيد الطبيب أم لا، أو
07:59
it might refill prescription medications, or in case of an emergency,
147
479642
3379
قد يعيد ملء الأدوية التي تستلزم وصفة طبية، أو في حالة الطوارئ،
08:03
send medical records to the hospital.
148
483062
2586
يرسل السجلات الطبية إلى المستشفى.
08:05
But AI agents can't and won't exist
149
485690
2836
لكن وكلاء الذكاء الاصطناعي لن يتواجدوا
08:08
unless we have a true right to repair.
150
488568
2210
ما لم يكن لدينا حق حقيقي في الإصلاح.
08:10
What parent would trust their child's health to an AI system
151
490820
4922
أي من الوالدين سيثق بصحة أطفالهم في نظام الذكاء الاصطناعي
08:15
unless you could run some basic diagnostics?
152
495783
2795
ما لم تتمكن من إجراء بعض التشخيصات الأساسية؟
08:18
What professional would trust an AI system with job decisions,
153
498619
4213
أي محترف يثق بنظام الذكاء الاصطناعي في اتخاذ قرارات العمل،
08:22
unless you could retrain it the way you might a junior employee?
154
502874
4296
إلا إذا كان بإمكانك إعادة تدريبه بالطريقة التي قد تستخدمها كموظف مبتدئ؟
08:28
Now, a right to repair might look something like this.
155
508129
2878
الآن، قد يبدو الحق في الإصلاح شيئًا كهذا.
08:31
You could have a diagnostics board
156
511007
2210
يمكن أن يكون لديك لوحة تشخيص
08:33
where you run basic tests that you design,
157
513259
3003
حيث تقوم بإجراء الاختبارات الأساسية التي تقوم بتصميمها،
08:36
and if something's wrong, you could report it to the company
158
516304
2836
وإذا حدث خطأ ما، فيمكنك إبلاغ الشركة بذلك
08:39
and hear back when it's fixed.
159
519140
1585
والرد عندما يتم إصلاحه.
08:40
Or you could work with third parties like ethical hackers
160
520725
3128
أو يمكنك العمل مع أطراف ثالثة مثل المتسللين الأخلاقيين
08:43
who make patches for systems like we do today.
161
523895
2586
الذين يقومون بعمل تصحيحات للأنظمة كما نفعل اليوم.
08:46
You can download them and use them to improve your system
162
526481
2711
يمكنك تنزيلها واستخدامها لتحسين نظامك
08:49
the way you want it to be improved.
163
529233
1919
بالطريقة التي تريد تحسينها.
08:51
Or you could be like these intrepid farmers and learn to program
164
531194
3628
أو يمكنك أن تكون مثل هؤلاء المزارعين الجريئين وتتعلم البرمجة
08:54
and fine-tune your own systems.
165
534864
3003
وضبط أنظمتك الخاصة.
08:58
We won't achieve the promised benefits of artificial intelligence
166
538618
4171
لن نحقق الفوائد الموعودة للذكاء الاصطناعي
09:02
unless we figure out how to bring people into the development process.
167
542789
5046
ما لم نكتشف كيفية إشراك الناس في عملية التنمية.
09:08
I've dedicated my career to responsible AI,
168
548377
3504
لقد كرست حياتي المهنية للذكاء الاصطناعي المسؤول،
09:11
and in that field we ask the question,
169
551923
3253
وفي هذا المجال نطرح السؤال،
09:15
what can companies build to ensure that people trust AI?
170
555218
4963
ما الذي يمكن أن تبنيه الشركات لضمان ثقة الناس في الذكاء الاصطناعي؟
09:20
Now, through these red-teaming exercises, and by talking to you,
171
560723
3837
الآن، من خلال تمارين الفريق الأحمر هذه، ومن خلال التحدث
09:24
I've come to realize that we've been asking the wrong question all along.
172
564602
5339
إليكم، أدركت أننا كنا نطرح السؤال الخطأ طوال الوقت.
09:30
What we should have been asking is what tools can we build
173
570566
3921
ما كان يجب أن نسأله هو ما هي الأدوات التي يمكننا بناؤها
09:34
so people can make AI beneficial for them?
174
574529
4045
حتى يتمكن الناس من جعل الذكاء الاصطناعي مفيدًا لهم؟
09:39
Technologists can't do it alone.
175
579117
2460
لا يمكن للتقنيين القيام بذلك بمفردهم.
09:41
We can only do it with you.
176
581619
2419
يمكننا أن نفعل ذلك معك فقط.
09:44
Thank you.
177
584080
1168
شكرًا لكم.
09:45
(Applause)
178
585248
2794
(تصفيق)
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7