How to keep human bias out of AI | Kriti Sharma

99,340 views ・ 2019-04-12

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

00:00
Translator: Ivana Korom Reviewer: Joanna Pietrulewicz
0
0
7000
المترجم: Zeinab Omar المدقّق: Norah Al Thunayan
00:12
How many decisions have been made about you today,
1
12875
3768
كم عدد القرارات التي أخذها نيابة عنك اليوم،
00:16
or this week or this year,
2
16667
2601
أو هذا الأسبوع أو هذا العام
00:19
by artificial intelligence?
3
19292
1958
الذكاء الاصطناعي؟
00:22
I build AI for a living
4
22958
1685
عملي هو بناء الذكاء الاصطناعي
00:24
so, full disclosure, I'm kind of a nerd.
5
24667
3017
لذا، لأكون صريحة معكم، أنا مهووسة نوعاً ما.
00:27
And because I'm kind of a nerd,
6
27708
2393
ولأنني مهووسة،
00:30
wherever some new news story comes out
7
30125
2351
عندما يصدر خبر
00:32
about artificial intelligence stealing all our jobs,
8
32500
3434
عن سرقة الذكاء الاصطناعي لأعمالنا،
00:35
or robots getting citizenship of an actual country,
9
35958
4185
أو حصول الروبوتات على جنسية دولة،
00:40
I'm the person my friends and followers message
10
40167
3142
أنا الشخص الذي يراسله أصدقاؤه ومتابعينه،
00:43
freaking out about the future.
11
43333
1542
ليفزعوا من المستقبل.
00:45
We see this everywhere.
12
45833
2101
نحن نرى هذا في كل مكان.
00:47
This media panic that our robot overlords are taking over.
13
47958
4893
هلع الإعلام بسبب غزو أسيادنا الروبوتات.
00:52
We could blame Hollywood for that.
14
52875
1917
بإمكاننا إلقاء اللوم على هوليوود.
00:56
But in reality, that's not the problem we should be focusing on.
15
56125
4125
لكن في الواقع، هذه ليست المشكلة الأساسية.
01:01
There is a more pressing danger, a bigger risk with AI,
16
61250
3643
هناك خطر أكثر إلحاحًا ومجازفة أكبر
01:04
that we need to fix first.
17
64917
1583
وعلينا إصلاحهم أولًا.
01:07
So we are back to this question:
18
67417
2309
وهذا يرجعنا للسؤال السابق:
01:09
How many decisions have been made about you today by AI?
19
69750
4708
كم عدد القرارات التي أخذها الذكاء الاصناعي نيابة عنك اليوم؟
01:15
And how many of these
20
75792
1976
وكم منها
01:17
were based on your gender, your race or your background?
21
77792
4500
كان مبنيا على نوعك، أو عرقك، أو خلفيتك؟
01:24
Algorithms are being used all the time
22
84500
2768
نستخدم الحلول الحسابية طوال الوقت
01:27
to make decisions about who we are and what we want.
23
87292
3833
لاتخاذ القرارات بشأن هوياتنا وحاجاتنا.
01:32
Some of the women in this room will know what I'm talking about
24
92208
3643
بعض النساء هنا ستفهمن عما أتحدث
01:35
if you've been made to sit through those pregnancy test adverts on YouTube
25
95875
3768
إذا شاهدتن إعلانات الحمل على اليوتيوب
01:39
like 1,000 times.
26
99667
2059
لآلاف المرات،
01:41
Or you've scrolled past adverts of fertility clinics
27
101750
2851
أو تعثرتن في إعلانات عن عيادات الخصوبة
01:44
on your Facebook feed.
28
104625
2042
أثناء تصفحكن للفيسبوك.
01:47
Or in my case, Indian marriage bureaus.
29
107625
2393
أو كما في حالتي، مكاتب الزواج الهندية.
01:50
(Laughter)
30
110042
1267
(ضحك)
01:51
But AI isn't just being used to make decisions
31
111333
2976
لكننا لا نستخدم الذكاء الاصطناعي لاتخاذ قرارات بشأن
01:54
about what products we want to buy
32
114333
2601
المنتجات التي نود شراءها
01:56
or which show we want to binge watch next.
33
116958
2500
أو المسلسلات التي نود الإفراط في مشاهدتها.
02:01
I wonder how you'd feel about someone who thought things like this:
34
121042
5184
كيف ستشعرون حيال شخص بهذا الفكر:
02:06
"A black or Latino person
35
126250
1934
"شخص أسود أو لاتيني
02:08
is less likely than a white person to pay off their loan on time."
36
128208
4125
يكون أقل قابلية من نظيره الأبيض لسداد قرضه في الوقت المناسب."
02:13
"A person called John makes a better programmer
37
133542
2809
"جون أفضل من ماري
02:16
than a person called Mary."
38
136375
1667
في البرمجة."
02:19
"A black man is more likely to be a repeat offender than a white man."
39
139250
5083
"احتمالية معاودة شخص أسود للإجرام أكثر من الأبيض."
02:26
You're probably thinking,
40
146958
1268
قد تفكرون،
02:28
"Wow, that sounds like a pretty sexist, racist person," right?
41
148250
3750
"يا له من شخص عنصري،" صحيح؟
02:33
These are some real decisions that AI has made very recently,
42
153000
4851
هذه بعض استنتاجات الذكاء الاصطناعي مؤخرًا،
02:37
based on the biases it has learned from us,
43
157875
2934
المبنية على تحيزاتنا،
02:40
from the humans.
44
160833
1250
نحن البشر.
02:43
AI is being used to help decide whether or not you get that job interview;
45
163750
4809
يستخدم الذكاء الاصطناعي لتحديد قبولك في المقابلة؛
02:48
how much you pay for your car insurance;
46
168583
2393
مبلغ تأمين سيارتك؛
02:51
how good your credit score is;
47
171000
1893
تقييم درجة ائتمانك المصرفي؛
02:52
and even what rating you get in your annual performance review.
48
172917
3125
أو حتى تقييم أدائك السنوي.
02:57
But these decisions are all being filtered through
49
177083
3143
ولكن ما يحدد كل هذا
03:00
its assumptions about our identity, our race, our gender, our age.
50
180250
5875
هو فكرته عن هويتنا وعرقنا وجنسنا وسننا.
03:08
How is that happening?
51
188250
2268
كيف يحدث هذا؟
03:10
Now, imagine an AI is helping a hiring manager
52
190542
3517
الآن، تخيلوا إذا استعان مدير توظيف بالذكاء الاصطناعي
03:14
find the next tech leader in the company.
53
194083
2851
في بحثه عن رائد تقني جديد للشركة.
03:16
So far, the manager has been hiring mostly men.
54
196958
3101
حتى الآن، لم يوظف المدير إلا الرجال.
03:20
So the AI learns men are more likely to be programmers than women.
55
200083
4750
عندها تقرر الآلة أن الرجال أنسب للبرمجة من النساء.
03:25
And it's a very short leap from there to:
56
205542
2892
وحينها لن يطل الأمر حتى يصبح
03:28
men make better programmers than women.
57
208458
2042
الرجال مبرمجون أفضل من النساء.
03:31
We have reinforced our own bias into the AI.
58
211417
3726
لقد رسخنا انحيازنا في الذكاء الاصطناعي.
03:35
And now, it's screening out female candidates.
59
215167
3625
وبالتالي، يقوم باستبعاد النساء المرشحات.
03:40
Hang on, if a human hiring manager did that,
60
220917
3017
مهلًا، إذا كانت تلك فعلة المدير،
03:43
we'd be outraged, we wouldn't allow it.
61
223958
2351
لغضبنا، ومنعنا حدوثها.
03:46
This kind of gender discrimination is not OK.
62
226333
3476
هذا التمييز الجنسي ليس مقبولًا.
03:49
And yet somehow, AI has become above the law,
63
229833
4518
ومع ذلك، أصبح الذكاء الاصطناعي فوق القانون،
03:54
because a machine made the decision.
64
234375
2083
لأن الآلة اتخذت القرار.
03:57
That's not it.
65
237833
1518
ليس هذا فحسب.
03:59
We are also reinforcing our bias in how we interact with AI.
66
239375
4875
نحن نرسخ انحيازنا في تفاعلنا مع الذكاء الاصطناعي ايضا.
04:04
How often do you use a voice assistant like Siri, Alexa or even Cortana?
67
244917
5976
هل سبق أن استخدمتم مساعدة صوتية كسيري، أليكسا، أو كورتانا؟
04:10
They all have two things in common:
68
250917
2559
كلهن تشتركن في شيئين:
04:13
one, they can never get my name right,
69
253500
3101
أولًا: استحالة نطق اسمي صحيحًا،
04:16
and second, they are all female.
70
256625
2667
ثانيًا: كونهن نساء.
04:20
They are designed to be our obedient servants,
71
260417
2767
لقد صُمموا على السمع والطاعة،
04:23
turning your lights on and off, ordering your shopping.
72
263208
3250
من التحكم في مفتاح النور، إلى طلب مشترياتك.
04:27
You get male AIs too, but they tend to be more high-powered,
73
267125
3309
هناك المقابل المذكر أيضًا، لكنهم ذوو قدرة أعلى،
04:30
like IBM Watson, making business decisions,
74
270458
3059
مثل آي بي إم واتسون صاحب القرارات المهنية،
04:33
Salesforce Einstein or ROSS, the robot lawyer.
75
273541
3792
سيلز فورس آينشتاين أو روس، الروبوت المحامي.
04:38
So poor robots, even they suffer from sexism in the workplace.
76
278208
4060
حتى الروبوتات المساكين يعانون من التمييز الجنسي في العمل.
04:42
(Laughter)
77
282292
1125
(ضحك)
04:44
Think about how these two things combine
78
284542
2851
تأملوا كيف يختلط الأمران معًا
04:47
and affect a kid growing up in today's world around AI.
79
287417
5309
ويُأثرا على الأطفال في عصر الذكاء الاصطناعي.
04:52
So they're doing some research for a school project
80
292750
2934
وكذلك عند قيامهم ببحث مدرسي
04:55
and they Google images of CEO.
81
295708
3018
وأثناء البحث عن صور للمدير التنفيذي
04:58
The algorithm shows them results of mostly men.
82
298750
2893
تظهر معظم النتائج رجال.
05:01
And now, they Google personal assistant.
83
301667
2559
والآن يبحثون عن المساعد الشخصي.
05:04
As you can guess, it shows them mostly females.
84
304250
3434
كما توقعتم، معظم النتائج نساء.
05:07
And then they want to put on some music, and maybe order some food,
85
307708
3601
ومن ثم يودون سماع الموسيقى، وربما طلب الطعام،
05:11
and now, they are barking orders at an obedient female voice assistant.
86
311333
6584
فيعطون الأوامر لمساعدة صوتية مطيعة.
05:19
Some of our brightest minds are creating this technology today.
87
319542
5309
بعض من ألمع العقول يصوغون هذه التكنولوجيا اليوم.
05:24
Technology that they could have created in any way they wanted.
88
324875
4184
والتي كان من الممكن أن يصوغوها كيفما شاؤوا.
05:29
And yet, they have chosen to create it in the style of 1950s "Mad Man" secretary.
89
329083
5685
ولكنهم اختاروا صياغتها على غرار السكرتارية في "ماد مان" خلال الخمسينيات.
05:34
Yay!
90
334792
1500
مرحى!
05:36
But OK, don't worry,
91
336958
1310
لكن، لا داعي للقلق.
05:38
this is not going to end with me telling you
92
338292
2059
لن ينتهي هذا بإخباري إياكم
05:40
that we are all heading towards sexist, racist machines running the world.
93
340375
3477
أننا متجهون نحو عالم تحكمه آلات عنصرية.
05:44
The good news about AI is that it is entirely within our control.
94
344792
5791
الجانب المشرق هو أننا لنا كامل السيطرة عليها.
05:51
We get to teach the right values, the right ethics to AI.
95
351333
4000
نستطيع تعليمها القيم والأخلاق السليمة.
05:56
So there are three things we can do.
96
356167
2184
هناك ثلاثة أشياء باستطاعتنا عملهم.
05:58
One, we can be aware of our own biases
97
358375
3351
أولاً، إدراكنا لتحيزنا
06:01
and the bias in machines around us.
98
361750
2726
وتحيز الآلات حولنا.
06:04
Two, we can make sure that diverse teams are building this technology.
99
364500
4518
ثانياً، التأكد من تنوع الفرق التي تعمل على هذه التكنولوجيا.
06:09
And three, we have to give it diverse experiences to learn from.
100
369042
4916
وثالثا، علينا إعطائها خبرات متنوعة لتتعلم منها.
06:14
I can talk about the first two from personal experience.
101
374875
3309
يمكنني التحدث عن أول شيئين بناء على خبراتٍ خاصة.
06:18
When you work in technology
102
378208
1435
عندما تعملون بالتكنولوجيا
06:19
and you don't look like a Mark Zuckerberg or Elon Musk,
103
379667
3392
دون أن تشبهون مارك زوكربرغ أو إلون ماسك،
06:23
your life is a little bit difficult, your ability gets questioned.
104
383083
3750
تصبح حياتكم أكثر صعوبة، ويتم التشكيك بقدراتكم.
06:27
Here's just one example.
105
387875
1393
فعلى سبيل المثال:
06:29
Like most developers, I often join online tech forums
106
389292
3726
كمعظم المطورين، عادة ما أنضم لمنتديات تكنولوجية عبر الانترنت
06:33
and share my knowledge to help others.
107
393042
3226
وأشارك معرفتي لمساعدة الآخرين.
06:36
And I've found,
108
396292
1309
ووجدت
06:37
when I log on as myself, with my own photo, my own name,
109
397625
3976
أنه عندما أسجل الدخول بشخصيتي، مستخدمة صورتي واسمي،
06:41
I tend to get questions or comments like this:
110
401625
4601
أحصل على أسئلة وتعليقات من نوع:
06:46
"What makes you think you're qualified to talk about AI?"
111
406250
3000
"ماذا يجعلك تظنين أنك تصلحين للتحدث عن الذكاء الاصطناعي؟"
06:50
"What makes you think you know about machine learning?"
112
410458
3476
"أتظنين أنك تعرفين شيئا عن تعلم الآلة؟"
06:53
So, as you do, I made a new profile,
113
413958
3435
لذا، أنشأت حسابًا جديدًا،
06:57
and this time, instead of my own picture, I chose a cat with a jet pack on it.
114
417417
4851
هذه المرة، بدل صورتي الخاصة، وضعت قطة بحزام طيران.
07:02
And I chose a name that did not reveal my gender.
115
422292
2458
واخترت اسمًا لم يظهر نوعي.
07:05
You can probably guess where this is going, right?
116
425917
2726
بإمكانكم التنبؤ بما سيحدث، صحيح؟
07:08
So, this time, I didn't get any of those patronizing comments about my ability
117
428667
6392
هذه المرة لم أحصل على أي من التعليقات المتسلطة على قدراتي
07:15
and I was able to actually get some work done.
118
435083
3334
واستطعت بالفعل إنجاز عملي.
07:19
And it sucks, guys.
119
439500
1851
يا له من أمر سخيف بالفعل.
07:21
I've been building robots since I was 15,
120
441375
2476
لقد بدأت صنع الروبوتات منذ عمر الخامسة عشر،
07:23
I have a few degrees in computer science,
121
443875
2268
وحصلت على عدة شهادات في علم الحاسوب،
07:26
and yet, I had to hide my gender
122
446167
2434
ورغم هذا، اضطررت لإخفاء جنسي
07:28
in order for my work to be taken seriously.
123
448625
2250
حتى يؤخذ عملي على محمل الجد.
07:31
So, what's going on here?
124
451875
1893
فما الفكرة هنا؟
07:33
Are men just better at technology than women?
125
453792
3208
هل الرجال حقًا أفضل في التكنولوجيا من النساء؟
07:37
Another study found
126
457917
1559
ووجدت دراسة أخرى
07:39
that when women coders on one platform hid their gender, like myself,
127
459500
4934
أنه عندما أخفت نساء مبرمجات جنسهن على منصة، مثلي،
07:44
their code was accepted four percent more than men.
128
464458
3250
تم قبول برمجتهن أكثر من الرجال بأربعة بالمائة.
07:48
So this is not about the talent.
129
468542
2916
إذًا، فإنها ليست مسألة موهبة.
07:51
This is about an elitism in AI
130
471958
2893
هذه مسألة نخبوية الذكاء الاصطناعي
07:54
that says a programmer needs to look like a certain person.
131
474875
2792
التي تقرر شكلًا محددًا للمبرمج.
07:59
What we really need to do to make AI better
132
479375
3101
ما علينا فعله لتحسين الذكاء الاصطناعي
08:02
is bring people from all kinds of backgrounds.
133
482500
3042
هو الاستعانة بأناس من جميع الخلفيات.
08:06
We need people who can write and tell stories
134
486542
2559
نحتاج ناس بإمكانها سرد وحكي قصص
08:09
to help us create personalities of AI.
135
489125
2167
تساعدنا على خلق شخصيات له.
08:12
We need people who can solve problems.
136
492208
2042
ناس متمكنة من حل المشاكل.
08:15
We need people who face different challenges
137
495125
3768
ناس تواجه تحديات مختلفة
08:18
and we need people who can tell us what are the real issues that need fixing
138
498917
5351
وتستطيع تحديد الأمور التي علينا إصلاحها
08:24
and help us find ways that technology can actually fix it.
139
504292
3041
وإيجاد طرق لحلها بالتكنولوجبا.
08:29
Because, when people from diverse backgrounds come together,
140
509833
3726
لأنه عندما يتجمع ناس ذوو خلفيات متعددة،
08:33
when we build things in the right way,
141
513583
2143
وعندما نبني الأشياء بطريقة سليمة،
08:35
the possibilities are limitless.
142
515750
2042
تصبح الاحتمالات لا حصر لها.
08:38
And that's what I want to end by talking to you about.
143
518750
3309
وهذا ما أود أن أختم به
08:42
Less racist robots, less machines that are going to take our jobs --
144
522083
4225
القليل من الروبوتات العنصرية، القليل من الآلات التي تستحوذ على أعمالنا--
08:46
and more about what technology can actually achieve.
145
526332
3125
والكثير مما تستطيع التكنولوجيا تحقيقه.
08:50
So, yes, some of the energy in the world of AI,
146
530292
3434
صحيح أن جزء من المجهود في عالم الذكاء الاصطناعي،
08:53
in the world of technology
147
533750
1393
وعالم التكنولوجيا
08:55
is going to be about what ads you see on your stream.
148
535167
4267
ينصب في نوعية الإعلانات التي تراها أثناء تصفحك.
08:59
But a lot of it is going towards making the world so much better.
149
539458
5209
لكن الكثير منه يستخدم في جعل العالم مكان أفضل.
09:05
Think about a pregnant woman in the Democratic Republic of Congo,
150
545500
3768
تخيلوا امرأة حامل في جمهورية الكونغو الديمقراطية،
09:09
who has to walk 17 hours to her nearest rural prenatal clinic
151
549292
4184
تضطر للمشي 17 ساعة لأقرب عيادة ما قبل الولادة ريفية
09:13
to get a checkup.
152
553500
1851
للحصول على فحوصات.
09:15
What if she could get diagnosis on her phone, instead?
153
555375
2917
ماذا لو استطاعت تلقي تشخيص على هاتفها؟
09:19
Or think about what AI could do
154
559750
1809
أو تخيلوا ما يمكن للذكاء الاصطناعي فعله
09:21
for those one in three women in South Africa
155
561583
2726
في دعم كل سيدة من كل ثلاث في جنوب أفريقيا
09:24
who face domestic violence.
156
564333
2125
تعاني من العنف المنزلي.
09:27
If it wasn't safe to talk out loud,
157
567083
2726
لو كان في التحدث خطرًا عليها،
09:29
they could get an AI service to raise alarm,
158
569833
2476
تقدر أن تستغيث بواسطته،
09:32
get financial and legal advice.
159
572333
2459
أو تحصل على المشورة المالية أو القانونية.
09:35
These are all real examples of projects that people, including myself,
160
575958
5018
تلك أمثلة واقعية من مشاريع يقوم بها أشخاص، وأنا منهم،
09:41
are working on right now, using AI.
161
581000
2500
حاليًا باستخدام الذكاء الاصطناعي.
09:45
So, I'm sure in the next couple of days there will be yet another news story
162
585542
3601
أنا متأكدة أنه في غضون الأيام المقبلة ستكون هناك أخبار
09:49
about the existential risk,
163
589167
2684
عن خطر وجودي،
09:51
robots taking over and coming for your jobs.
164
591875
2434
كروبوتات تستحوذ على أعمالنا.
09:54
(Laughter)
165
594333
1018
(ضحك)
09:55
And when something like that happens,
166
595375
2309
وعندما يحدث شيء كهذا،
09:57
I know I'll get the same messages worrying about the future.
167
597708
3601
أعرف أنني سأستلم رسائل القلق نفسها.
10:01
But I feel incredibly positive about this technology.
168
601333
3667
ولكنني متفائلة بشأن هذه التكنولوجيا.
10:07
This is our chance to remake the world into a much more equal place.
169
607458
5959
هذه فرصتنا لخلق عالم مليء بالمساواة.
10:14
But to do that, we need to build it the right way from the get go.
170
614458
4000
ولننفذ هذا، علينا بناؤه كما يجب من البداية.
10:19
We need people of different genders, races, sexualities and backgrounds.
171
619667
5083
نحتاج ناس بمختلف الأنواع والأعراق والصفات الجنسية والخلفيات.
10:26
We need women to be the makers
172
626458
2476
والنساء لتكن فاعلات
10:28
and not just the machines who do the makers' bidding.
173
628958
3000
لا ماكينات لتنفيذ الأوامر.
10:33
We need to think very carefully what we teach machines,
174
633875
3768
علينا توخي الحذر مما نعلمه للماكينات،
10:37
what data we give them,
175
637667
1642
كالبيانات التي نقدمها لهم،
10:39
so they don't just repeat our own past mistakes.
176
639333
3125
حتى لا يكرروا أخطاءنا السابقة.
10:44
So I hope I leave you thinking about two things.
177
644125
3542
لذا آمل أن أترككم اليوم تفكرون في شيئين.
10:48
First, I hope you leave thinking about bias today.
178
648542
4559
أولًا: أن تغادروا وأنتم تتأملون فكرة الانحياز.
10:53
And that the next time you scroll past an advert
179
653125
3184
والمرة المقبلة التي تتعثرون فيها على إعلان
10:56
that assumes you are interested in fertility clinics
180
656333
2810
يفترض أنكم مهتمون بعيادات الخصوبة
10:59
or online betting websites,
181
659167
2851
أو بمواقع المراهنة،
11:02
that you think and remember
182
662042
2017
أنكم تعتقدون وتتذكرون
11:04
that the same technology is assuming that a black man will reoffend.
183
664083
4625
أنها التكنولوجيا نفسها التي تفترض أن الرجل الأسود سيعاود الإجرام.
11:09
Or that a woman is more likely to be a personal assistant than a CEO.
184
669833
4167
أو أن المرأة أكثر قابلية لتكون سكرتيرة من مديرة تنفيذية.
11:14
And I hope that reminds you that we need to do something about it.
185
674958
3709
وآمل أن يذكركم ذلك بأهمية تغيير هذا الوضع.
11:20
And second,
186
680917
1851
وثانيًا:
11:22
I hope you think about the fact
187
682792
1892
أرجو أن تتأملوا فكرة
11:24
that you don't need to look a certain way
188
684708
1976
أنكم لستم مطالبين بمظهر معين
11:26
or have a certain background in engineering or technology
189
686708
3851
أو خلفية معينة في الهندسة أو التكنولوجيا
11:30
to create AI,
190
690583
1268
لتصميم الذكاء الاصطناعي،
11:31
which is going to be a phenomenal force for our future.
191
691875
2875
الذي سيصبح قوة استثنائية لمستقبلنا.
11:36
You don't need to look like a Mark Zuckerberg,
192
696166
2143
لستم مضطرين لأن تشبهون مارك زوكربرج،
11:38
you can look like me.
193
698333
1250
بإمكانكم أن تشبهوني.
11:41
And it is up to all of us in this room
194
701250
2893
والأمر يرجع إلى كل من في هذه الغرفة
11:44
to convince the governments and the corporations
195
704167
2726
لنقنع الحكومات والشركات
11:46
to build AI technology for everyone,
196
706917
2892
ليصمموا تكنولوجيا ذكاء اصطناعي تصلح للجميع،
11:49
including the edge cases.
197
709833
2393
شاملة الحالات الهامشية،
11:52
And for us all to get education
198
712250
2059
ولنحصل كلنا على تثقيف
11:54
about this phenomenal technology in the future.
199
714333
2375
حول هذه التكنولوجيا المدهشة في المستقبل.
11:58
Because if we do that,
200
718167
2017
لأنه إن فعلنا ذلك،
12:00
then we've only just scratched the surface of what we can achieve with AI.
201
720208
4893
نكون فقط اقتربنا مما نستطيع تحقيقه بالذكاء الاصطناعي.
12:05
Thank you.
202
725125
1268
شكرا.
12:06
(Applause)
203
726417
2708
(تصفيق)
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7