How AI and Democracy Can Fix Each Other | Divya Siddarth | TED

29,927 views ・ 2024-03-05

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: gaith Takrity المدقّق: Hani Eldalees
00:04
Recently I told someone my work is on democracy and technology.
0
4334
4630
أخبرت شخصًا مؤخرًا أن عملي يتعلق بالديمقراطية والتكنولوجيا.
00:09
He turned to me and said,
1
9464
1210
التفت إلي وقال:
00:10
“Wow...
2
10674
1001
«واو...
00:11
I’m sorry.”
3
11925
1335
أنا آسفة.»
00:13
(Laughter)
4
13260
1251
(ضحك)
00:15
But I love my work.
5
15637
1710
لكني أحب عملي.
00:17
I know that we can build a world
6
17681
1918
أعلم أنه يمكننا بناء عالم
00:19
where technological marvels are directed towards people's benefit,
7
19641
4212
حيث يتم توجيه الأعاجيب التكنولوجية نحو منفعة الناس،
00:23
using their input.
8
23895
1460
باستخدام مدخلاتهم.
00:26
We have gotten so used to seeing democracy as a problem to be solved.
9
26147
4463
لقد اعتدنا على رؤية الديمقراطية كمشكلة يجب حلها.
00:32
But I see democracy as a solution,
10
32028
2878
لكني أرى الديمقراطية كحل
00:34
not as a problem.
11
34906
1835
وليس كمشكلة.
00:37
Democracy was once a radical political project,
12
37909
3003
كانت الديمقراطية ذات يوم مشروعًا سياسيًا جذريًا، وهي
00:40
itself a cutting-edge social technology,
13
40912
3087
نفسها تقنية اجتماعية متطورة،
00:44
a new way to answer the very question we are faced with now,
14
44040
4797
وطريقة جديدة للإجابة على السؤال الذي نواجهه الآن،
00:48
in the era of artificial intelligence:
15
48837
2794
في عصر الذكاء الاصطناعي:
00:51
how do we use our capabilities to live well together?
16
51631
4755
كيف نستخدم قدراتنا للعيش معًا بشكل جيد؟
00:57
We are told that transformative technologies like AI are too complicated,
17
57679
5756
يُقال لنا أن التقنيات التحويلية مثل الذكاء الاصطناعي معقدة للغاية
01:03
or too risky
18
63435
2419
أو محفوفة بالمخاطر
01:05
or too important to be governed democratically.
19
65895
3546
أو مهمة جدًا بحيث لا يمكن إدارتها بشكل ديمقراطي.
01:10
But this is precisely why they must be.
20
70650
3462
ولكن هذا هو بالضبط سبب وجوب ذلك.
01:14
If existing democracy is unequal to the task,
21
74112
2544
إذا كانت الديمقراطية القائمة غير متكافئة مع المهمة،
01:16
our job is not to give up on it.
22
76698
2169
فإن مهمتنا ليست التخلي عنها.
01:19
Our job is to evolve it.
23
79367
2544
مهمتنا هي تطويره.
01:22
And to use technology as an asset to help us do so.
24
82746
3253
واستخدام التكنولوجيا كأصل لمساعدتنا على القيام بذلك.
01:26
Still, I understand his doubts.
25
86958
2044
ومع ذلك، أفهم شكوكه.
01:29
I never meant to build my life around new forms of democracy.
26
89336
3670
لم أقصد أبدًا بناء حياتي حول أشكال جديدة من الديمقراطية.
01:33
I started out just really believing in the power of science.
27
93632
3378
لقد بدأت أؤمن حقًا بقوة العلم.
01:38
I was modifying DNA in my kitchen at 12,
28
98053
4504
كنت أقوم بتعديل الحمض النووي في مطبخي في سن 12،
01:42
and when I got to Stanford as a computational biology major,
29
102557
3754
وعندما وصلت إلى ستانفورد كمتخصص في علم الأحياء الحسابي،
01:46
I was converted to a new belief -- technology.
30
106311
3295
تحولت إلى اعتقاد جديد - التكنولوجيا.
01:49
I truly believed in the power of tech to change the world.
31
109939
3003
لقد آمنت حقًا بقوة التكنولوجيا لتغيير العالم.
01:52
Maybe, like many of you.
32
112942
1752
ربما، مثل العديد منكم.
01:55
But I saw that the technologies that really made a difference
33
115695
2878
لكنني رأيت أن التقنيات التي أحدثت فرقًا حقًا هي تلك التي
01:58
were the ones that were built with and for the collective.
34
118573
3879
تم بناؤها مع المجموعة ومن أجلها.
02:03
Not the billions of dollars
35
123370
1418
ليست مليارات الدولارات التي
02:04
pumped into the 19th addiction-fueling social app.
36
124829
3128
يتم ضخها في التطبيق الاجتماعي التاسع عشر الذي يغذي الإدمان.
02:09
But the projects that combine creating something truly new
37
129167
3629
لكن المشاريع التي تجمع بين إنشاء شيء جديد
02:12
with building in ways for people to access,
38
132796
3128
حقًا والبناء بطرق تمكن الناس من الوصول إليه
02:15
benefit from and direct it.
39
135924
2252
والاستفادة منه وتوجيهه.
02:18
Instead of social media, think of the internet.
40
138885
2544
بدلاً من وسائل التواصل الاجتماعي، فكر في الإنترنت.
02:21
Built with public resources on open standards.
41
141429
3212
تم بناؤه باستخدام الموارد العامة وفقًا للمعايير المفتوحة.
02:25
This is what brought me to democracy.
42
145892
2669
هذا ما أوصلني إلى الديمقراطية.
02:29
Technology expands what we are capable of.
43
149729
3087
تعمل التكنولوجيا على توسيع ما نحن قادرون عليه.
02:33
Democracy is how we decide what to do with that capability.
44
153858
5089
الديمقراطية هي الطريقة التي نقرر بها ما يجب القيام به بهذه القدرة.
02:40
Since then, I've worked on using democracy as a solution
45
160115
3712
منذ ذلك الحين، عملت على استخدام الديمقراطية كحل
02:43
in India, the US, the UK, Taiwan.
46
163868
3295
في الهند والولايات المتحدة والمملكة المتحدة وتايوان.
02:47
I've worked alongside incredible collaborators
47
167455
2670
لقد عملت جنبًا إلى جنب مع متعاونين
02:50
to use democracy to help solve COVID,
48
170125
2711
رائعين لاستخدام الديمقراطية للمساعدة في حل كوفيد،
02:52
to help solve data rights.
49
172836
1751
للمساعدة في حل حقوق البيانات.
02:54
And as I'll tell you today,
50
174629
2127
وكما سأخبرك اليوم،
02:56
to help solve AI governance with policymakers around the world
51
176798
4171
للمساعدة في حل حوكمة الذكاء الاصطناعي مع صانعي السياسات في جميع أنحاء العالم
03:01
and cutting-edge technology companies like OpenAI and Anthropic.
52
181010
4505
وشركات التكنولوجيا المتطورة مثل OpenAI و Anthropic.
03:05
How?
53
185849
1167
كيف؟
03:07
By recognizing that democracy is still in its infancy.
54
187434
4546
من خلال الاعتراف بأن الديمقراطية لا تزال في مهدها.
03:12
It is an early form of collective intelligence,
55
192522
3795
إنه شكل مبكر من الذكاء الجماعي،
03:16
a way to put together decentralized input from diverse sources
56
196359
4755
وهو طريقة لتجميع المدخلات اللامركزية من مصادر متنوعة
03:21
and produce decisions that are better than the sum of their parts.
57
201156
4170
وإنتاج قرارات أفضل من مجموع أجزائها.
03:26
That’s why, when my fantastic cofounder Saffron Huang and I
58
206161
3920
لهذا السبب، عندما تركت أنا وشريك مؤسستي الرائع سافرون هوانغ
03:30
left our jobs at Google DeepMind and Microsoft
59
210123
3086
وظائفنا في جوجل وديب ميند و ميكروسوفت
03:33
to build new democratic governance models for transformative tech,
60
213209
4129
لبناء نماذج حوكمة ديمقراطية جديدة للتكنولوجيا التحويلية،
03:37
I named our nonprofit the Collective Intelligence Project,
61
217380
4088
أطلقت على مؤسستنا غير الربحية اسم مشروع الذكاء الجماعي،
03:42
as a nod to the ever-evolving project of building collective intelligence
62
222427
6256
كإشارة إلى المشروع المتطور باستمرار لبناء الذكاء الجماعي من
03:48
for collective flourishing.
63
228725
2294
أجل الازدهار الجماعي.
03:52
Since then we've done just that,
64
232228
2253
منذ ذلك الحين قمنا بذلك،
03:54
building new collective intelligence models to direct artificial intelligence,
65
234481
4587
ببناء نماذج ذكاء جماعي جديدة لتوجيه الذكاء الاصطناعي،
03:59
to run democratic processes.
66
239068
2169
لإدارة العمليات الديمقراطية.
04:01
And we've incorporated the voices of thousands of people into AI governance.
67
241237
3879
وقمنا بدمج أصوات الآلاف من الأشخاص في حوكمة الذكاء الاصطناعي.
04:06
Here are a few of the things we've learned.
68
246242
2044
فيما يلي بعض الأشياء التي تعلمناها.
04:08
First, people are willing and able to have difficult,
69
248995
4838
أولاً، الناس مستعدون وقادرون على إجراء محادثات صعبة
04:13
complex conversations on nuanced topics.
70
253833
2878
ومعقدة حول مواضيع دقيقة.
04:17
When we asked people about the risks of AI they were most concerned about,
71
257378
4380
عندما سألنا الناس عن مخاطر الذكاء الاصطناعي التي كانوا أكثر قلقًا بشأنها،
04:21
they didn't reach for easy answers.
72
261758
1918
لم يصلوا إلى إجابات سهلة.
04:24
Out of more than 100 risks put forward,
73
264469
2169
من بين أكثر من 100 خطر تم طرحه،
04:26
the top-cited one: overreliance on systems we don't understand.
74
266679
5214
كان الخطر الأكثر ذكرًا: الاعتماد المفرط على أنظمة لا نفهمها.
04:32
We talked to people across the country,
75
272435
1877
تحدثنا إلى الناس في جميع أنحاء البلاد،
04:34
from a veteran in the Midwest to a young teacher in the South.
76
274312
3337
من المخضرم في الغرب الأوسط إلى المعلم الشاب في الجنوب.
04:37
People were excited about the possibilities of this technology,
77
277649
3670
كان الناس متحمسين لإمكانيات هذه التكنولوجيا،
04:41
but there were specific things they wanted to understand
78
281319
2711
ولكن كانت هناك أشياء محددة أرادوا فهمها
04:44
about what models were capable of before seeing them deployed in the world.
79
284030
3837
حول النماذج التي كانت قادرة عليها قبل رؤيتها منتشرة في العالم.
04:48
A lot more reasonable than many of the policy conversations that we're in.
80
288701
4046
أكثر منطقية بكثير من العديد من محادثات السياسة التي نحن فيها.
04:53
And importantly, we saw very little of the polarization
81
293331
3378
والأهم من ذلك، أننا رأينا القليل جدًا من الاستقطاب الذي
04:56
we're always hearing about.
82
296751
1585
نسمع عنه دائمًا.
04:59
On average, just a few divisive statements
83
299045
3003
في المتوسط، مجرد عدد قليل من البيانات المثيرة للانقسام
05:02
for hundreds of consensus statements.
84
302090
2544
لمئات البيانات التوافقية.
05:05
Even on the contentious issues of the day,
85
305385
2002
حتى في القضايا الخلافية الحالية،
05:07
like free speech or race and gender,
86
307428
2169
مثل حرية التعبير أو العرق والجنس،
05:09
we saw far more agreement than disagreement.
87
309639
2794
رأينا اتفاقًا أكثر بكثير من الخلاف.
05:13
Almost three quarters of people agree that AI should protect free speech.
88
313393
3753
يتفق تقريباً ثلاثة أرباع الناس على أن AI يجب أن يحمي حرية التعبير.
05:17
Ninety percent agree that AI should not be racist or sexist.
89
317146
3546
يوافق تسعون بالمائة أن اAI يجب ألا يكون عنصريًا أو متحيزًا جنسيًا.
05:21
Only around 50 percent think that AI should be funny though,
90
321651
2878
يعتقد حوالي 50 بالمائة فقط أن AI يجب أن يكون مضحكًا،
05:24
so they are still contentious issues out there.
91
324529
2294
لذلك لا تزال هناك قضايا مثيرة للجدل.
05:28
These last statistics
92
328783
1585
هذه الإحصائيات الأخيرة
05:30
are from our collective constitution project with Anthropic,
93
330410
3712
هي من مشروع الدستور الجماعي الخاص بنا مع Anthropic،
05:34
where we retrained one of the world's most powerful language models
94
334122
3378
حيث قمنا بإعادة تدريب أحد أقوى النماذج اللغوية في العالم
05:37
on principles written by 1,000 representative Americans.
95
337500
3670
على المبادئ التي كتبها 1000 ممثل أمريكي.
05:41
Not AI developers or regulators or researchers at elite universities.
96
341754
5339
ليس مطوري الذكاء الاصطناعي أو المنظمين أو الباحثين في جامعات النخبة.
05:47
We built on a way of training AI
97
347427
2043
لقد بنينا على طريقة لتدريب AI
05:49
that relies on a written set of principles or a constitution,
98
349470
3421
تعتمد على مجموعة مكتوبة من المبادئ أو الدستور،
05:52
we asked ordinary people to cowrite this constitution,
99
352932
2628
وطلبنا من الناس العاديين المشاركة في كتابة هذا الدستور،
05:55
we compared it to a model that researchers had come up with.
100
355602
3003
وقمنا بمقارنته بالنموذج الذي توصل إليه الباحثون.
05:59
When we started this project, I wasn't sure what to expect.
101
359230
4046
عندما بدأنا هذا المشروع، لم أكن متأكدًا مما أتوقعه.
06:03
Maybe the naysayers were right.
102
363776
1794
ربما كان الرافضون على حق.
06:05
AI is complicated.
103
365987
1418
الذكاء الاصطناعي معقد.
06:08
Maybe people wouldn't understand what we were asking them.
104
368448
2836
ربما لن يفهم الناس ما كنا نطلبه منهم.
06:11
Maybe we'd end up with something awful.
105
371826
2252
ربما سينتهي بنا الأمر بشيء فظيع.
06:15
But the people’s model, trained on the cowritten constitution,
106
375371
3921
لكن نموذج الناس، الذي تم تدريبه على الدستور المكتوب بشكل
06:19
was just as capable and more fair
107
379292
4046
مشترك، كان قادرًا
06:23
than the model the researchers had come up with.
108
383338
2460
وأكثر عدلاً من النموذج الذي توصل إليه الباحثون.
06:26
People with little to no experience in AI
109
386382
2878
كان أداء الأشخاص الذين لديهم خبرة قليلة أو معدومة في
06:29
did better than researchers, who work on this full-time,
110
389302
3587
الذكاء الاصطناعي أفضل من الباحثين، الذين يعملون على هذا بدوام كامل،
06:32
in building a fairer chatbot.
111
392931
2544
في بناء روبوت محادثة أكثر عدلاً.
06:36
Maybe I shouldn't have been surprised.
112
396142
2127
ربما لم يكن ينبغي أن أتفاجأ.
06:38
As one of our participants from another process said,
113
398311
3587
وكما قال أحد المشاركين في عملية أخرى:
06:41
"They may be experts in AI, but I have eight grandchildren.
114
401940
3712
«قد يكونون خبراء في الذكاء الاصطناعي، ولكن لدي ثمانية أحفاد.
06:45
I know how to pick good values."
115
405693
2044
أعرف كيفية اختيار القيم الجيدة».
06:51
If technology expands what we are capable of
116
411282
2503
إذا كانت التكنولوجيا توسع ما نحن قادرون عليه
06:53
and democracy is how we decide what to do with that capability,
117
413785
3420
والديمقراطية هي الطريقة التي نقرر بها ما يجب القيام به بهذه القدرة،
06:57
here is early evidence that democracy can do a good job deciding.
118
417246
4588
فإليك دليل مبكر على أن الديمقراطية يمكن أن تقوم بعمل جيد في اتخاذ القرار.
07:03
Of course, these processes aren't enough.
119
423127
1961
بالطبع، هذه العمليات ليست كافية.
07:05
Collective intelligence requires a broader reimagining of technology
120
425129
3212
يتطلب الذكاء الجماعي إعادة تصور أوسع للتكنولوجيا
07:08
and democracy.
121
428383
1459
والديمقراطية.
07:09
That’s why we’re also working on co-ownership models
122
429842
3045
لهذا السبب نعمل أيضًا على نماذج الملكية المشتركة
07:12
for the data that AI is built on -- which, after all, belongs to all of us --
123
432929
4588
للبيانات التي بني عليها AI - والتي، في النهاية، تنتمي إلينا جميعًا -
07:18
and using AI itself to create new and better decision-making processes.
124
438184
4296
ونستخدم الذكاء الاصطناعي نفسه لإنشاء عمليات صنع قرار جديدة وأفضل.
07:22
Taking advantage of the things
125
442981
1459
الاستفادة من ما يمكن لنماذج اللغة القيام بها ولا يستطيع البشر القيام بها،
07:24
that language models can do that humans can’t,
126
444440
2169
07:26
like processing huge amounts of text input.
127
446609
2211
مثل معالجة كميات هائلة من إدخال النص.
07:30
Our work in Taiwan has been an incredible test bed for all of this.
128
450154
4880
لقد كان عملنا في تايوان بمثابة اختبار رائع لكل هذا.
07:36
Along with Minister Audrey Tang and the Ministry of Digital Affairs,
129
456494
4755
جنبًا إلى جنب مع الوزيرة أودري تانغ ووزارة الشؤون الرقمية،
07:41
we are working on processes to ask Taiwan's millions of citizens
130
461249
3754
نعمل على عمليات لسؤال الملايين من مواطني تايوان
07:45
what they actually want to see as a future with AI.
131
465044
3879
عما يريدون بالفعل رؤيته كمستقبل مع الذكاء الاصطناعي.
07:49
And using that input not just to legislate,
132
469966
3045
واستخدام هذه المدخلات ليس فقط للتشريع،
07:53
but to build.
133
473052
1126
ولكن للبناء.
07:54
Because one thing that has already come out of these processes
134
474762
3295
لأن الشيء الوحيد الذي نتج بالفعل عن هذه العمليات
07:58
is that people are truly excited about a public option for AI,
135
478099
3545
هو أن الناس متحمسون حقًا للخيار العام للذكاء الاصطناعي،
08:01
one that is built on shared public data that is reliably safe,
136
481644
4213
وهو خيار مبني على البيانات العامة المشتركة الآمنة بشكل موثوق،
08:05
that allows communities to access, benefit from
137
485898
3212
والتي تسمح للمجتمعات بالوصول إليها والاستفادة منها
08:09
and adjust it to their needs.
138
489152
1751
وتعديلها وفقًا لاحتياجاتهم.
08:12
This is what the world of technology could look like.
139
492280
3211
هذا ما يمكن أن يبدو عليه عالم التكنولوجيا.
08:15
Steered by the many for the many.
140
495867
2586
يتم توجيهها من قبل الكثيرين من أجل الكثيرين.
08:20
I often find that we accept unnecessary trade-offs
141
500288
3795
غالبًا ما أجد أننا نقبل المقايضات غير الضرورية
08:24
when it comes to transformative tech.
142
504083
2044
عندما يتعلق الأمر بالتكنولوجيا التحويلية.
08:26
We are told that we might need to sacrifice democracy
143
506961
3253
قيل لنا أننا قد نحتاج إلى التضحية بالديمقراطية من
08:30
for the sake of technological progress.
144
510214
2586
أجل التقدم التكنولوجي.
08:32
We have no choice but to concentrate power to keep ourselves safe
145
512842
3587
ليس لدينا خيار سوى تركيز القوة للحفاظ على أنفسنا في مأمن
08:36
from possible risks.
146
516429
1501
من المخاطر المحتملة.
08:38
This is wrong.
147
518765
1626
هذا خطأ.
08:40
It is impossible to have any one of these things --
148
520933
3462
ومن المستحيل تحقيق أي من هذه الأشياء -
08:44
progress, safety or democratic participation --
149
524437
3670
التقدم أو السلامة أو المشاركة الديمقراطية -
08:48
without the others.
150
528149
1501
بدون الآخرين.
08:50
If we resign ourselves to only two of the three,
151
530276
3420
إذا استسلمنا لاثنتين فقط من الثلاثة، فسوف ينتهي
08:53
we will end up with either centralized control or chaos.
152
533738
3587
بنا الأمر إما بالسيطرة المركزية أو الفوضى.
08:57
Either a few people get to decide or no one does.
153
537825
3796
إما أن يقرر عدد قليل من الناس أو لا أحد يفعل ذلك.
09:02
These are both terrible outcomes,
154
542497
1585
هذه نتائج رهيبة على حد سواء،
09:04
and our work shows that there is another way.
155
544123
2836
ويظهر عملنا أن هناك طريقة أخرى.
09:07
Each of our projects advanced progress,
156
547710
2753
أدى كل مشروع من مشاريعنا إلى تعزيز التقدم
09:10
safety and democratic participation
157
550505
3253
والسلامة والمشاركة الديمقراطية
09:13
by building cutting-edge democratic AI models,
158
553800
3295
من خلال بناء نماذج الذكاء الاصطناعي الديمقراطية المتطورة،
09:17
by using public expertise as a way to understand diffuse risks
159
557136
4713
واستخدام الخبرة العامة كوسيلة لفهم المخاطر المنتشرة
09:21
and by imagining co-ownership models for the digital commons.
160
561849
3671
وتخيل نماذج الملكية المشتركة للمشاعات الرقمية.
09:27
We are so far from the best collective intelligence systems we could have.
161
567396
5423
نحن بعيدون جدًا عن أفضل أنظمة الذكاء الجماعي التي يمكن أن نمتلكها.
09:33
If we started over on building a decision-making process for the world,
162
573486
4379
إذا بدأنا من جديد في بناء عملية صنع القرار للعالم،
09:37
what would we choose?
163
577865
1377
فماذا سنختار؟
09:40
Maybe we'd be better at separating financial power from political power.
164
580284
5005
ربما سنكون أفضل في فصل القوة المالية عن السلطة السياسية.
09:46
Maybe we'd create thousands of new models of corporations
165
586290
3087
ربما سننشئ آلاف النماذج الجديدة للشركات
09:49
or bureaucracies.
166
589418
1419
أو البيروقراطيات.
09:51
Maybe we'd build in the voices of natural elements
167
591379
3670
ربما سنبني أصوات العناصر الطبيعية
09:55
or future generations.
168
595049
1585
أو الأجيال القادمة.
09:57
Here's a secret.
169
597844
1293
هنا سر.
09:59
In some ways, we are always starting from scratch.
170
599804
4046
في بعض النواحي، نبدأ دائمًا من الصفر.
10:04
New technologies usher in new paradigms
171
604225
3128
تستهل التقنيات الجديدة نماذج جديدة يمكن
10:07
that can come with new collective intelligence systems.
172
607353
3253
أن تأتي مع أنظمة الذكاء الجماعي الجديدة.
10:11
We can create new ways of living well together
173
611274
4004
يمكننا إنشاء طرق جديدة للعيش بشكل جيد معًا
10:15
if we use these brief openings for change.
174
615319
3337
إذا استخدمنا هذه الفتحات القصيرة للتغيير.
10:19
The story of technology and democracy is far from over.
175
619532
3337
إن قصة التكنولوجيا والديمقراطية لم تنته بعد.
10:22
It doesn't have to be this way.
176
622910
1669
لا يجب أن يكون الأمر بهذه الطريقة.
10:25
Things could be unimaginably better.
177
625037
2378
يمكن أن تكون الأمور أفضل بشكل لا يمكن تصوره.
10:28
As the Indian author Arundhati Roy once said,
178
628040
3754
وكما قالت الكاتبة الهندية أرونداتي روي ذات مرة
10:31
"Another world is not only possible,
179
631836
2878
: «عالم آخر ليس ممكنًا فحسب، بل
10:34
she is on her way.
180
634755
1627
إنها في طريقها.
10:37
On a quiet day, I can hear her breathing."
181
637258
3337
في يوم هادئ، يمكنني سماع أنفاسها».
10:41
I can hear our new world breathing.
182
641804
2628
أستطيع سماع عالمنا الجديد يتنفس.
10:44
One in which we shift the systems we have
183
644473
3087
نظام نحول فيه الأنظمة التي لدينا
10:47
towards using the solution of democracy to build the worlds we want to see.
184
647560
4504
نحو استخدام حل الديمقراطية لبناء العوالم التي نريد رؤيتها.
10:53
The future is up to us.
185
653107
1543
المستقبل متروك لنا.
10:55
We have a world to win.
186
655067
1669
لدينا عالم للفوز به.
10:57
Thank you.
187
657361
1168
شكرًا لكم.
10:58
(Applause)
188
658529
2670
(تصفيق)
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7