Jeff Dean: AI isn't as smart as you think -- but it could be | TED

253,042 views ・ 2022-01-12

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: Mohamed Salem المدقّق: omar idmassaoud
00:13
Hi, I'm Jeff.
0
13329
1583
مرحبًا ، أنا جيف.
00:15
I lead AI Research and Health at Google.
1
15746
2833
أقود أبحاث الذكاء الاصطناعي والصحة في جوجل.
00:18
I joined Google more than 20 years ago,
2
18621
1875
انضممت إلى جوجل منذ أكثر من 20 عامًا،
00:20
when we were all wedged into a tiny office space,
3
20538
3166
عندما كنا جميعًا محصورين في مساحة مكتب صغيرة،
00:23
above what's now a T-Mobile store in downtown Palo Alto.
4
23704
2750
فوق ما هو الآن متجر T-Mobile في وسط مدينة بالو ألتو.
00:27
I've seen a lot of computing transformations in that time,
5
27163
2875
لقد رأيت الكثير من التحولات الحاسوبية في ذلك الوقت،
00:30
and in the last decade, we've seen AI be able to do tremendous things.
6
30079
3459
وفي العقد الماضي، رأينا أن الذكاء الاصطناعي قادر على القيام بأشياء هائلة.
00:34
But we're still doing it all wrong in many ways.
7
34746
2542
لكننا ما زلنا نفعل كل شيء بشكل خاطئ من نواح كثيرة.
00:37
That's what I want to talk to you about today.
8
37329
2209
هذا ما أريد أن أتحدث إليكم عنه اليوم.
00:39
But first, let's talk about what AI can do.
9
39579
2209
لكن أولاً، لنتحدث عما يستطيع الذكاء الاصطناعي فعله.
00:41
So in the last decade, we've seen tremendous progress
10
41829
3292
لذلك في العقد الماضي شهدنا تقدمًا هائلاً
00:45
in how AI can help computers see, understand language,
11
45121
4333
في كيفية مساعدة الذكاء الاصطناعي لأجهزة الكمبيوتر على رؤية اللغة وفهمها
00:49
understand speech better than ever before.
12
49496
2833
وفهمها بشكل أفضل من أي وقت مضى.
00:52
Things that we couldn't do before, now we can do.
13
52329
2583
أشياء لم نتمكن من القيام بها يمكن الآن القيام بها.
00:54
If you think about computer vision alone,
14
54954
2333
إذا كنت تفكر في رؤية الكمبيوتر وحدها،
00:57
just in the last 10 years,
15
57329
1583
فقط في السنوات العشر الماضية،
00:58
computers have effectively developed the ability to see;
16
58912
2792
طورت أجهزة الكمبيوتر بشكل فعال القدرة على الرؤية؛
01:01
10 years ago, they couldn't see, now they can see.
17
61746
2500
قبل 10 سنوات، لم يتمكنوا من الرؤية والآن يمكنهم.
01:04
You can imagine this has had a transformative effect
18
64287
2500
يمكنك أن تتخيل أن هذا كان له تأثير تحويلي
01:06
on what we can do with computers.
19
66787
2209
على ما يمكننا القيام به مع أجهزة الكمبيوتر.
01:08
So let's look at a couple of the great applications
20
68996
2500
لذلك دعونا نلقي نظرة على اثنين من التطبيقات الرائعة
01:11
enabled by these capabilities.
21
71496
2000
التي تم تمكينها بواسطة هذه الإمكانات.
01:13
We can better predict flooding, keep everyone safe,
22
73537
2417
يمكننا التنبؤ بالفيضانات، والحفاظ على سلامة الجميع
01:15
using machine learning.
23
75996
1500
باستخدام التعلم الآلي.
01:17
We can translate over 100 languages so we all can communicate better,
24
77538
3250
يمكننا ترجمة أكثر من 100 لغة حتى نتمكن جميعًا من التواصل بشكل أفضل
01:20
and better predict and diagnose disease,
25
80788
2000
والتنبؤ بالمرض وتشخيصه بشكل أفضل،
01:22
where everyone gets the treatment that they need.
26
82788
2333
حيث يحصل الجميع على العلاج الذي يحتاجون إليه.
01:25
So let's look at two key components
27
85163
1916
لذلك دعونا نلقي نظرة على عنصرين رئيسيين
01:27
that underlie the progress in AI systems today.
28
87121
2333
يشكلان أساس التقدم في أنظمة الذكاء الاصطناعي اليوم.
01:30
The first is neural networks,
29
90121
1542
الأول هو الشبكات العصبية،
01:31
a breakthrough approach to solving some of these difficult problems
30
91704
3417
وهو نهج اختراق لحل بعض هذه المشاكل الصعبة
01:35
that has really shone in the last 15 years.
31
95121
2833
التي ظهرت بالفعل في السنوات الخمس عشرة الماضية.
01:37
But they're not a new idea.
32
97954
1625
لكنها ليست فكرة جديدة.
01:39
And the second is computational power.
33
99621
1833
والثاني هو القوة الحسابية.
01:41
It actually takes a lot of computational power
34
101454
2167
تتطلب في الواقع قدرًا كبيرًا من القوة الحسابية
01:43
to make neural networks able to really sing,
35
103663
2083
لجعل الشبكات العصبية قادرة على الغناء حقًا،
01:45
and in the last 15 years, we’ve been able to halve that,
36
105746
3375
وفي الخمسة عشر عامًا الماضية، تمكنا من خفض ذلك إلى النصف
01:49
and that's partly what's enabled all this progress.
37
109121
2458
وهذا جزئيًا ما مكّن كل هذا التقدم.
01:51
But at the same time, I think we're doing several things wrong,
38
111954
3459
لكن في نفس الوقت، أعتقد أننا نقوم بعدة أشياء خاطئة،
01:55
and that's what I want to talk to you about
39
115413
2000
وهذا ما أريد أن أتحدث إليكم عنه
01:57
at the end of the talk.
40
117454
1167
في نهاية الحديث.
01:58
First, a bit of a history lesson.
41
118663
1958
أولاً، القليل من درس التاريخ.
02:00
So for decades,
42
120663
1208
لذلك لعقود
02:01
almost since the very beginning of computing,
43
121913
2125
منذ بداية الحوسبة تقريبًا،
02:04
people have wanted to be able to build computers
44
124079
2250
أراد الناس أن يكونوا قادرين على بناء كمبيوترات
02:06
that could see, understand language, understand speech.
45
126329
3917
يمكنها رؤية وفهم اللغة وفهم الكلام.
02:10
The earliest approaches to this, generally,
46
130579
2000
الطرق المبكرة لهذا بشكل عام
02:12
people were trying to hand-code all the algorithms
47
132621
2333
كان الناس يحاولون كتابة جميع الخوارزميات
02:14
that you need to accomplish those difficult tasks,
48
134996
2458
التي تحتاجها لإنجاز تلك المهام الصعبة يدويًا،
02:17
and it just turned out to not work very well.
49
137454
2375
واتضح أنها لا تعمل بشكل جيد.
02:19
But in the last 15 years, a single approach
50
139829
3250
لكن في الخمسة عشر عامًا الماضية، نهج واحد
02:23
unexpectedly advanced all these different problem spaces all at once:
51
143079
4167
قد طور بشكل غير متوقع كل هذه المساحات المختلفة للمشاكل دفعة واحدة:
02:27
neural networks.
52
147954
1542
الشبكات العصبية.
02:29
So neural networks are not a new idea.
53
149538
1833
فإن الشبكات العصبية ليست فكرة جديدة.
02:31
They're kind of loosely based
54
151371
1417
إنها نوعًا ما مقتبسة
02:32
on some of the properties that are in real neural systems.
55
152788
3041
عن بعض الخصائص الموجودة في الأنظمة العصبية الحقيقية.
02:35
And many of the ideas behind neural networks
56
155829
2084
والعديد من الأفكار وراء الشبكات العصبية
02:37
have been around since the 1960s and 70s.
57
157954
2250
موجودة منذ الستينيات والسبعينيات.
02:40
A neural network is what it sounds like,
58
160204
2167
الشبكة العصبية هي كما تبدو،
02:42
a series of interconnected artificial neurons
59
162413
2708
سلسلة من الخلايا العصبية الاصطناعية المترابطة
02:45
that loosely emulate the properties of your real neurons.
60
165121
3000
التي تحاكي بشكل غير محكم خصائص الخلايا العصبية الحقيقية.
02:48
An individual neuron in one of these systems
61
168163
2166
تحتوي الخلية العصبية في أحد هذه الأنظمة
02:50
has a set of inputs,
62
170371
1417
على مجموعة من المدخلات،
02:51
each with an associated weight,
63
171788
2041
لكل منها وزن مرتبط،
02:53
and the output of a neuron
64
173871
1833
ومخرجات الخلية العصبية
02:55
is a function of those inputs multiplied by those weights.
65
175704
3209
هي دالة لتلك المدخلات مضروبة في تلك الأوزان.
02:59
So pretty simple,
66
179288
1208
بسيط جدًا،
03:00
and lots and lots of these work together to learn complicated things.
67
180538
3666
والكثير والكثير من هؤلاء يعملون معًا لتعلم أشياء معقدة.
03:04
So how do we actually learn in a neural network?
68
184496
2833
إذن كيف نتعلم في الواقع في شبكة عصبية؟
03:07
It turns out the learning process
69
187371
1708
اتضح أن عملية التعلم
03:09
consists of repeatedly making tiny little adjustments
70
189079
2792
تتكون من إجراء تعديلات طفيفة متكررة
03:11
to the weight values,
71
191913
1208
على قيم الوزن،
03:13
strengthening the influence of some things,
72
193121
2042
وتقوية تأثير بعض الأشياء،
03:15
weakening the influence of others.
73
195204
1959
وإضعاف تأثير الآخرين.
03:17
By driving the overall system towards desired behaviors,
74
197204
3917
من خلال توجيه النظام العام نحو السلوكيات المرغوبة،
03:21
these systems can be trained to do really complicated things,
75
201163
2916
يمكن تدريب هذه الأنظمة على القيام بأشياء معقدة للغاية،
03:24
like translate from one language to another,
76
204121
2875
مثل الترجمة من لغة إلى أخرى،
03:27
detect what kind of objects are in a photo,
77
207038
3083
واكتشاف نوع الأشياء الموجودة في الصورة،
03:30
all kinds of complicated things.
78
210121
1875
وجميع أنواع الأشياء المعقدة.
03:32
I first got interested in neural networks
79
212038
2000
اهتممت بالشبكات العصبية لأول مرة
03:34
when I took a class on them as an undergraduate in 1990.
80
214079
3042
عندما أخذت فصلًا دراسيًا عنها عندما كنت طالبًا في عام 1990.
03:37
At that time,
81
217163
1125
في ذلك الوقت،
03:38
neural networks showed impressive results on tiny problems,
82
218329
3792
أظهرت الشبكات العصبية نتائج مبهرة في المشكلات الصغيرة،
03:42
but they really couldn't scale to do real-world important tasks.
83
222121
4375
لكنها في الحقيقة لم تستطع التوسع للقيام بمهام مهمة في العالم الحقيقي.
03:46
But I was super excited.
84
226538
1500
لكنني كنت متحمسًا للغاية.
03:48
(Laughter)
85
228079
2500
(ضحك)
03:50
I felt maybe we just needed more compute power.
86
230579
2417
شعرت أننا ربما نحتاج فقط إلى مزيد من قوة الحوسبة.
03:52
And the University of Minnesota had a 32-processor machine.
87
232996
3625
وكان لدى جامعة مينيسوتا آلة ذات 32 معالجًا.
03:56
I thought, "With more compute power,
88
236621
1792
فكرت “مع المزيد من قوة الحوسبة،
03:58
boy, we could really make neural networks really sing."
89
238413
3000
يا فتى، يمكننا حقًا جعل الشبكات العصبية تغني حقًا.”
04:01
So I decided to do a senior thesis on parallel training of neural networks,
90
241454
3584
لذلك قررت إعداد أطروحة عليا حول التدريب الموازي للشبكات العصبية،
04:05
the idea of using processors in a computer or in a computer system
91
245079
4000
فكرة استخدام المعالجات في جهاز كمبيوتر أو في نظام كمبيوتر
04:09
to all work toward the same task,
92
249079
2125
للعمل جميعًا نحو نفس المهمة،
04:11
that of training neural networks.
93
251204
1584
وهي تدريب الشبكات العصبية.
04:12
32 processors, wow,
94
252829
1292
32 معالجًا، واو،
04:14
we’ve got to be able to do great things with this.
95
254163
2833
علينا أن نكون قادرين على القيام بأشياء رائعة باستخدام هذا.
04:17
But I was wrong.
96
257496
1167
ولكنني كنت مخطئا.
04:20
Turns out we needed about a million times as much computational power
97
260038
3333
تبين أننا كنا بحاجة إلى حوالي مليون ضعف من القوة الحسابية
04:23
as we had in 1990
98
263371
1375
التي كانت لدينا في عام 1990
04:24
before we could actually get neural networks to do impressive things.
99
264788
3333
قبل أن نتمكن بالفعل من جعل الشبكات العصبية تقوم بأشياء مثيرة للإعجاب.
04:28
But starting around 2005,
100
268121
2417
ولكن بدءًا من عام 2005 تقريبًا،
04:30
thanks to the computing progress of Moore's law,
101
270579
2500
وبفضل التقدم الحوسبي لقانون مور،
04:33
we actually started to have that much computing power,
102
273121
2625
بدأنا في الواقع نمتلك تلك القوة الحاسوبية الكبيرة،
04:35
and researchers in a few universities around the world started to see success
103
275746
4250
وبدأ الباحثون في عدد قليل من الجامعات حول العالم في رؤية النجاح
04:40
in using neural networks for a wide variety of different kinds of tasks.
104
280038
4083
في استخدام الشبكات العصبية لمجموعة متنوعة من أنواع المهام المختلفة.
04:44
I and a few others at Google heard about some of these successes,
105
284121
3583
لقد سمعت أنا وعدد قليل من الأشخاص الآخرين في جوجل عن بعض هذه النجاحات،
04:47
and we decided to start a project to train very large neural networks.
106
287746
3333
وقررنا بدء مشروع لتدريب شبكات عصبية كبيرة جدًا.
04:51
One system that we trained,
107
291079
1459
أحد الأنظمة التي دربناها،
04:52
we trained with 10 million randomly selected frames
108
292538
3541
قمنا بتدريب 10 ملايين إطار عشوائيًا
04:56
from YouTube videos.
109
296079
1292
من مقاطع فيديو على يوتيوب.
04:57
The system developed the capability
110
297371
1750
طور النظام القدرة
04:59
to recognize all kinds of different objects.
111
299121
2583
على التعرف على جميع أنواع الأشياء المختلفة.
05:01
And it being YouTube, of course,
112
301746
1542
وكونه موقع يوتيوب، بالطبع،
05:03
it developed the ability to recognize cats.
113
303329
2500
طور القدرة على التعرف على القطط.
05:05
YouTube is full of cats.
114
305829
1292
يوتيوب مليء بالقطط.
05:07
(Laughter)
115
307163
1416
(ضحك)
05:08
But what made that so remarkable
116
308621
2208
ولكن ما جعل ذلك رائعًا
05:10
is that the system was never told what a cat was.
117
310871
2417
هو أنه لم يتم إخبار النظام أبدًا عن ماهية القطة.
05:13
So using just patterns in data,
118
313704
2500
لذلك باستخدام الأنماط في البيانات فقط،
05:16
the system honed in on the concept of a cat all on its own.
119
316204
3625
شحذ النظام مفهوم القط بمفرده.
05:20
All of this occurred at the beginning of a decade-long string of successes,
120
320371
3750
حدث كل هذا في بداية سلسلة من النجاحات استمرت عقدًا من الزمان،
05:24
of using neural networks for a huge variety of tasks,
121
324121
2500
لاستخدام الشبكات العصبية في مجموعة متنوعة من المهام،
05:26
at Google and elsewhere.
122
326663
1166
في جوجل وأماكن أخرى.
05:27
Many of the things you use every day,
123
327871
2167
العديد من الأشياء التي تستخدمها يوميًا،
05:30
things like better speech recognition for your phone,
124
330079
2500
وأشياء مثل التعرف على الكلام بشكل أفضل لهاتفك،
05:32
improved understanding of queries and documents
125
332579
2209
وفهم محسن للاستعلامات والمستندات
05:34
for better search quality,
126
334829
1459
لتحسين جودة البحث،
05:36
better understanding of geographic information to improve maps,
127
336329
3042
وفهم أفضل للمعلومات الجغرافية لتحسين الخرائط،
05:39
and so on.
128
339413
1166
وما إلى ذلك.
05:40
Around that time,
129
340621
1167
في ذلك الوقت تقريبًا،
05:41
we also got excited about how we could build hardware that was better tailored
130
341788
3750
تحمسنا أيضًا لكيفية بناء أجهزة مصممة بشكل أفضل
05:45
to the kinds of computations neural networks wanted to do.
131
345579
2792
لأنواع الحسابات التي تريد الشبكات العصبية القيام بها.
05:48
Neural network computations have two special properties.
132
348371
2667
حسابات الشبكة العصبية لها خاصيتان خاصتان.
05:51
The first is they're very tolerant of reduced precision.
133
351079
2625
الأول هو أنهم متسامحون جدًا مع الدقة المنخفضة.
05:53
Couple of significant digits, you don't need six or seven.
134
353746
2750
زوجان من الأرقام المهمة، لست بحاجة إلى ستة أو سبعة.
05:56
And the second is that all the algorithms are generally composed
135
356496
3458
والثاني هو أن جميع الخوارزميات تتكون بشكل عام
05:59
of different sequences of matrix and vector operations.
136
359996
3458
من متواليات مختلفة من عمليات المصفوفة والمتجهات.
06:03
So if you can build a computer
137
363496
1750
لذا، إذا كان بإمكانك بناء كمبيوتر
06:05
that is really good at low-precision matrix and vector operations
138
365246
3792
جيد حقًا في عمليات المصفوفة والمتجهات منخفضة الدقة
06:09
but can't do much else,
139
369079
1709
ولكن لا يمكنك فعل الكثير،
06:10
that's going to be great for neural-network computation,
140
370829
2625
فسيكون هذا رائعًا لحساب الشبكة العصبية،
06:13
even though you can't use it for a lot of other things.
141
373496
2667
على الرغم من أنه لا يمكنك استخدامه في الكثير من اشياء.
06:16
And if you build such things, people will find amazing uses for them.
142
376163
3291
وإذا قمت ببناء مثل هذه الأشياء، فسيجد الناس استخدامات مذهلة لها.
06:19
This is the first one we built, TPU v1.
143
379496
2083
هذا هو أول ما قمنا ببنائه TPU v1.
06:21
"TPU" stands for Tensor Processing Unit.
144
381621
2542
TPU تعني وحدة معالجة الموتر.
06:24
These have been used for many years behind every Google search,
145
384204
3042
لقد تم استخدام هذه لسنوات عديدة وراء كل بحث جوجل،
06:27
for translation,
146
387246
1167
للترجمة،
06:28
in the DeepMind AlphaGo matches,
147
388454
1917
في مباريات DeepMind AlphaGo،
06:30
so Lee Sedol and Ke Jie maybe didn't realize,
148
390413
2583
لذلك ربما لم يدرك Lee Sedol و Ke Jie
06:33
but they were competing against racks of TPU cards.
149
393038
2708
لكنهما كانا يتنافسان ضد رفوف من بطاقات TPU.
06:35
And we've built a bunch of subsequent versions of TPUs
150
395788
2583
وقمنا ببناء مجموعة من الإصدارات اللاحقة من TPU
06:38
that are even better and more exciting.
151
398371
1875
التي تعد أفضل وأكثر إثارة.
06:40
But despite all these successes,
152
400288
2083
لكن على الرغم من كل هذه النجاحات،
06:42
I think we're still doing many things wrong,
153
402371
2208
أعتقد أننا نفعل الكثير من الأشياء الخاطئة،
06:44
and I'll tell you about three key things we're doing wrong,
154
404621
2792
وسأخبرك عن ثلاثة أشياء رئيسية نقوم بها بشكل خاطئ،
06:47
and how we'll fix them.
155
407454
1167
وكيف سنصلحها.
06:48
The first is that most neural networks today
156
408663
2083
الأول هو أن معظم الشبكات العصبية اليوم
06:50
are trained to do one thing, and one thing only.
157
410746
2250
مدربة على فعل شيء واحد، وشيء واحد فقط.
06:53
You train it for a particular task that you might care deeply about,
158
413038
3208
أنت تدربه على مهمة معينة قد تهتم بها بشدة،
06:56
but it's a pretty heavyweight activity.
159
416288
1916
لكنه نشاط ثقيل جدًا.
06:58
You need to curate a data set,
160
418246
1667
تحتاج إلى تنسيق مجموعة بيانات،
06:59
you need to decide what network architecture you'll use
161
419913
3000
وتحتاج إلى تحديد بنية الشبكة التي ستستخدمها
07:02
for this problem,
162
422954
1167
لهذه المشكلة،
07:04
you need to initialize the weights with random values,
163
424121
2708
وتحتاج إلى تهيئة الأوزان بقيم عشوائية،
07:06
apply lots of computation to make adjustments to the weights.
164
426871
2875
وتطبيق الكثير من الحسابات لإجراء تعديلات على الأوزان.
07:09
And at the end, if you’re lucky, you end up with a model
165
429746
2750
وفي النهاية، إذا كنت محظوظًا فستنتهي بنموذج
07:12
that is really good at that task you care about.
166
432538
2291
جيد حقًا في تلك المهمة التي تهتم بها.
07:14
But if you do this over and over,
167
434871
1583
لكن إذا قمت بذلك مرارًا وتكرارًا
07:16
you end up with thousands of separate models,
168
436496
2667
فسوف ينتهي بك الأمر مع آلاف النماذج المنفصلة،
07:19
each perhaps very capable,
169
439204
1792
كل منها ربما يكون قادرًا جدًا،
07:21
but separate for all the different tasks you care about.
170
441038
2791
ولكن منفصلة لجميع المهام المختلفة التي تهتم بها.
07:23
But think about how people learn.
171
443829
1667
لكن فكر في كيفية تعلم الناس.
07:25
In the last year, many of us have picked up a bunch of new skills.
172
445538
3166
في العام الماضي، اكتسب الكثير منا مجموعة من المهارات الجديدة.
07:28
I've been honing my gardening skills,
173
448746
1792
لقد شحذت مهاراتي في البستنة،
07:30
experimenting with vertical hydroponic gardening.
174
450579
2375
وأجرب البستنة المائية العمودية.
07:32
To do that, I didn't need to relearn everything I already knew about plants.
175
452954
3792
للقيام بذلك ، لم أكن بحاجة إلى إعادة تعلم كل ما أعرفه بالفعل عن النباتات.
07:36
I was able to know how to put a plant in a hole,
176
456746
3375
تمكنت من معرفة كيفية وضع نبات في حفرة،
07:40
how to pour water, that plants need sun,
177
460163
2291
وكيفية صب الماء، وأن النباتات تحتاج إلى الشمس،
07:42
and leverage that in learning this new skill.
178
462496
3583
والاستفادة من ذلك في تعلم هذه المهارة الجديدة.
07:46
Computers can work the same way, but they don’t today.
179
466079
3042
يمكن للكمبيوتر أن تعمل بالطريقة نفسها، لكنها لا تعمل اليوم.
07:49
If you train a neural network from scratch,
180
469163
2583
إذا قمت بتدريب شبكة عصبية من الصفر،
07:51
it's effectively like forgetting your entire education
181
471746
3542
فهذا يشبه فعليًا نسيان تعليمك بالكامل
07:55
every time you try to do something new.
182
475288
1875
في كل مرة تحاول فيها القيام بشيء جديد.
07:57
That’s crazy, right?
183
477163
1000
هذا جنون ، أليس كذلك؟
07:58
So instead, I think we can and should be training
184
478788
3708
لذا بدلاً من ذلك، أعتقد أنه يمكننا ويجب علينا تدريب
08:02
multitask models that can do thousands or millions of different tasks.
185
482538
3791
نماذج متعددة المهام يمكنها القيام بآلاف أو ملايين المهام المختلفة.
08:06
Each part of that model would specialize in different kinds of things.
186
486329
3375
سيتخصص كل جزء من هذا النموذج في أنواع مختلفة من الأشياء.
08:09
And then, if we have a model that can do a thousand things,
187
489704
2792
وبعد ذلك، إذا كان لدينا نموذج يمكنه فعل آلاف الأشياء،
08:12
and the thousand and first thing comes along,
188
492538
2166
وجاءت الألف وأول شيء،
08:14
we can leverage the expertise we already have
189
494746
2125
فيمكننا الاستفادة من الخبرة التي لدينا بالفعل
08:16
in the related kinds of things
190
496913
1541
في أنواع الأشياء ذات الصلة
08:18
so that we can more quickly be able to do this new task,
191
498496
2792
حتى نتمكن من القيام بهذه المهمة الجديدة بسرعة أكبر،
08:21
just like you, if you're confronted with some new problem,
192
501288
2791
مثلك تمامًا، إذا كنت تواجه مشكلة جديدة،
08:24
you quickly identify the 17 things you already know
193
504121
2625
فأنت تحدد بسرعة الأشياء السبعة عشر التي تعرفها بالفعل
08:26
that are going to be helpful in solving that problem.
194
506746
2542
والتي ستكون مفيدة في حل هذه المشكلة.
08:29
Second problem is that most of our models today
195
509329
2709
المشكلة الثانية هي أن معظم نماذجنا اليوم
08:32
deal with only a single modality of data --
196
512079
2125
تتعامل مع طريقة واحدة فقط من البيانات -
08:34
with images, or text or speech,
197
514204
3084
مع الصور أو النص أو الكلام
08:37
but not all of these all at once.
198
517329
1709
ولكن ليس كل هؤلاء في وقت واحد.
08:39
But think about how you go about the world.
199
519079
2042
لكن فكر في طريقة تعاملك مع العالم.
08:41
You're continuously using all your senses
200
521121
2333
أنت تستخدم كل حواسك باستمرار
08:43
to learn from, react to,
201
523454
3083
للتعلم منها والتفاعل معها
08:46
figure out what actions you want to take in the world.
202
526579
2667
ومعرفة الإجراءات التي تريد اتخاذها في العالم.
من المنطقي فعل ذلك
08:49
Makes a lot more sense to do that,
203
529287
1667
08:50
and we can build models in the same way.
204
530954
2000
ويمكننا بناء النماذج بنفس الطريقة.
08:52
We can build models that take in these different modalities of input data,
205
532954
4042
يمكننا بناء نماذج تأخذ هذه الأساليب المختلفة لبيانات الإدخال
08:57
text, images, speech,
206
537037
1750
والنصوص والصور والكلام
08:58
but then fuse them together,
207
538829
1417
ولكن بعد ذلك ندمجها معًا
09:00
so that regardless of whether the model sees the word "leopard,"
208
540329
3833
بحيث بغض النظر عما إذا كان النموذج يرى كلمة “فهد”
09:04
sees a video of a leopard or hears someone say the word "leopard,"
209
544204
4083
أو يرى فيديو لفهد أو يسمع شخصًا ما يقول كلمة “فهد”
09:08
the same response is triggered inside the model:
210
548329
2250
يتم تشغيل نفس الاستجابة داخل النموذج:
09:10
the concept of a leopard
211
550621
1750
يمكن لمفهوم الفهد
09:12
can deal with different kinds of input data,
212
552412
2250
التعامل مع أنواع مختلفة من بيانات الإدخال،
09:14
even nonhuman inputs, like genetic sequences,
213
554662
3000
حتى المدخلات غير البشرية مثل التسلسلات الجينية
09:17
3D clouds of points, as well as images, text and video.
214
557662
3209
وسحب النقاط ثلاثية الأبعاد بالإضافة إلى الصور والنصوص والفيديو.
09:20
The third problem is that today's models are dense.
215
560912
3625
المشكلة الثالثة هي أن نماذج اليوم كثيفة.
09:24
There's a single model,
216
564579
1417
هناك نموذج واحد،
09:25
the model is fully activated for every task,
217
565996
2375
يتم تنشيط النموذج بالكامل لكل مهمة،
09:28
for every example that we want to accomplish,
218
568412
2125
ولكل مثال نريد إنجازه
09:30
whether that's a really simple or a really complicated thing.
219
570537
2917
سواء كان ذلك أمرًا بسيطًا حقًا أو أمرًا معقدًا حقًا.
09:33
This, too, is unlike how our own brains work.
220
573496
2666
هذا أيضًا يختلف عن كيفية عمل أدمغتنا.
09:36
Different parts of our brains are good at different things,
221
576204
3000
أجزاء مختلفة من أدمغتنا جيدة في أشياء مختلفة
09:39
and we're continuously calling upon the pieces of them
222
579246
3291
ونحن نستدعي باستمرار الأجزاء
09:42
that are relevant for the task at hand.
223
582579
2167
ذات الصلة بالمهمة التي نقوم بها.
09:44
For example, nervously watching a garbage truck
224
584787
2334
على سبيل المثال، عندما تراقب بتوتر شاحنة قمامة
09:47
back up towards your car,
225
587162
1875
تتجه نحو سيارتك
09:49
the part of your brain that thinks about Shakespearean sonnets
226
589037
2917
فإن الجزء من دماغك الذي يفكر في سوناتات شكسبير
09:51
is probably inactive.
227
591996
1250
ربما يكون غير نشط.
09:53
(Laughter)
228
593246
1625
(ضحك)
09:54
AI models can work the same way.
229
594912
1750
يمكن أن تعمل نماذج الذكاء بنفس الطريقة.
09:56
Instead of a dense model,
230
596662
1292
بدلاً من نموذج كثيف
09:57
we can have one that is sparsely activated.
231
597954
2250
يمكن أن يكون لدينا نموذج يتم تنشيطه بشكل ضئيل.
10:00
So for particular different tasks, we call upon different parts of the model.
232
600204
4250
لذلك بالنسبة لمهام مختلفة معينة، فإننا ندعو إلى أجزاء مختلفة من النموذج.
10:04
During training, the model can also learn which parts are good at which things,
233
604496
4375
أثناء التدريب، يمكن للنموذج أيضًا معرفة الأجزاء الجيدة في أي الأشياء،
10:08
to continuously identify what parts it wants to call upon
234
608871
3791
لتحديد الأجزاء التي يريد الاتصال بها باستمرار
10:12
in order to accomplish a new task.
235
612662
1834
من أجل إنجاز مهمة جديدة.
10:14
The advantage of this is we can have a very high-capacity model,
236
614496
3541
ميزة هذا هو أنه يمكننا الحصول على نموذج عالي السعة للغاية،
10:18
but it's very efficient,
237
618037
1250
لكنه فعال للغاية
10:19
because we're only calling upon the parts that we need
238
619329
2583
لأننا نستعين فقط بالأجزاء التي نحتاجها
10:21
for any given task.
239
621954
1208
لأية مهمة معينة.
10:23
So fixing these three things, I think,
240
623162
2000
لذا فإن إصلاح هذه الأشياء الثلاثة أعتقد
10:25
will lead to a more powerful AI system:
241
625162
2209
سيؤدي إلى نظام ذكاء اصطناعي أكثر قوة:
10:27
instead of thousands of separate models,
242
627412
2000
بدلاً من آلاف النماذج المنفصلة،
10:29
train a handful of general-purpose models
243
629412
2000
ويدريب مجموعة من النماذج ذات الأغراض العامة
10:31
that can do thousands or millions of things.
244
631454
2083
التي يمكنها القيام بآلاف أو ملايين الأشياء.
10:33
Instead of dealing with single modalities,
245
633579
2042
بدلاً من التعامل مع طرائق واحدة
10:35
deal with all modalities,
246
635662
1334
تعامل مع جميع الأساليب
10:36
and be able to fuse them together.
247
636996
1708
وكن قادرًا على دمجها معًا.
10:38
And instead of dense models, use sparse, high-capacity models,
248
638746
3458
وبدلاً من النماذج الكثيفة، استخدم نماذج متفرقة عالية السعة،
10:42
where we call upon the relevant bits as we need them.
249
642246
2958
حيث نقوم باستدعاء البتات ذات الصلة كما نحتاج إليها.
10:45
We've been building a system that enables these kinds of approaches,
250
645246
3416
لقد عملنا على بناء نظام يتيح هذه الأنواع من الأساليب،
10:48
and we’ve been calling the system “Pathways.”
251
648704
2542
وقد أطلقنا على النظام اسم “المسارات“.
10:51
So the idea is this model will be able to do
252
651287
3084
لذا فإن الفكرة هي أن هذا النموذج سيكون قادرًا على القيام
10:54
thousands or millions of different tasks,
253
654412
2084
بالآلاف أو الملايين من المهام المختلفة،
10:56
and then, we can incrementally add new tasks,
254
656537
2250
وبعد ذلك، يمكننا إضافة مهام جديدة تدريجياً
10:58
and it can deal with all modalities at once,
255
658787
2125
ويمكنه التعامل مع جميع الأساليب مرة واحدة
11:00
and then incrementally learn new tasks as needed
256
660954
2958
ثم تعلم المهام الجديدة تدريجياً حسب الحاجة
11:03
and call upon the relevant bits of the model
257
663954
2083
واستدعاء الأجزاء ذات الصلة من النموذج
11:06
for different examples or tasks.
258
666037
1709
لأمثلة أو مهام مختلفة.
11:07
And we're pretty excited about this,
259
667787
1750
ونحن متحمسون جدًا لذلك،
11:09
we think this is going to be a step forward
260
669537
2042
نعتقد أن هذه ستكون خطوة إلى الأمام في كيفية بناء أنظمة الذكاء الاصطناعي.
11:11
in how we build AI systems.
261
671621
1333
11:12
But I also wanted to touch on responsible AI.
262
672954
3708
لكنني أردت أيضًا أن أتطرق إلى ذكاء الاصطناعي مسؤول.
11:16
We clearly need to make sure that this vision of powerful AI systems
263
676662
4875
من الواضح أننا بحاجة إلى التأكد من أن هذه الرؤية لأنظمة الذكاء الاصطناعي القوية
11:21
benefits everyone.
264
681579
1167
تفيد الجميع.
11:23
These kinds of models raise important new questions
265
683496
2458
تثير هذه الأنواع من النماذج أسئلة جديدة مهمة
11:25
about how do we build them with fairness,
266
685954
2458
حول كيفية بنائها مع مراعاة الإنصاف
11:28
interpretability, privacy and security,
267
688454
3208
وقابلية التفسير والخصوصية والأمان
11:31
for all users in mind.
268
691662
1459
لجميع المستخدمين.
11:33
For example, if we're going to train these models
269
693621
2291
على سبيل المثال، إذا كنا سنقوم بتدريب هذه النماذج
11:35
on thousands or millions of tasks,
270
695954
2125
على آلاف أو ملايين المهام،
11:38
we'll need to be able to train them on large amounts of data.
271
698079
2875
فسنحتاج إلى تدريبهم على كميات كبيرة من البيانات.
11:40
And we need to make sure that data is thoughtfully collected
272
700996
3250
ونحن بحاجة للتأكد من أن البيانات تم جمعها بعناية
11:44
and is representative of different communities and situations
273
704287
3667
وتمثل المجتمعات والمواقف المختلفة
11:47
all around the world.
274
707954
1167
في جميع أنحاء العالم.
11:49
And data concerns are only one aspect of responsible AI.
275
709579
4000
والشواغل المتعلقة بالبيانات ليست سوى جانب واحد من جوانب ذكاء اصطناعي مسؤول.
11:53
We have a lot of work to do here.
276
713621
1583
لدينا الكثير من العمل هنا.
11:55
So in 2018, Google published this set of AI principles
277
715246
2666
لذا في عام 2018، نشرت جوجل هذه المجموعة
من مبادئ الذكاء الاصطناعي
11:57
by which we think about developing these kinds of technology.
278
717912
3500
والتي من خلالها نفكر في تطوير هذه الأنواع من التكنولوجيا.
12:01
And these have helped guide us in how we do research in this space,
279
721454
3625
وقد ساعدنا ذلك في إرشادنا في كيفية إجراء البحث في هذا المجال،
12:05
how we use AI in our products.
280
725121
1833
وكيفية استخدام الذكاء الاصطناعي في منتجاتنا.
12:06
And I think it's a really helpful and important framing
281
726996
2750
وأعتقد أنه إطار مفيد ومهم حقًا
12:09
for how to think about these deep and complex questions
282
729746
2875
لكيفية التفكير في هذه الأسئلة العميقة والمعقدة
12:12
about how we should be using AI in society.
283
732621
2833
حول كيفية استخدام الذكاء الاصطناعي في المجتمع.
12:15
We continue to update these as we learn more.
284
735454
3625
نستمر في تحديث هذه كما نتعلم المزيد.
12:19
Many of these kinds of principles are active areas of research --
285
739079
3458
العديد من هذه الأنواع من المبادئ هي مجالات بحث نشطة -
12:22
super important area.
286
742537
1542
مجال مهم للغاية.
12:24
Moving from single-purpose systems that kind of recognize patterns in data
287
744121
4125
إن الانتقال من الأنظمة أحادية الغرض التي تتعرف نوعًا ما على الأنماط في البيانات
12:28
to these kinds of general-purpose intelligent systems
288
748246
2750
إلى هذه الأنواع من الأنظمة الذكية ذات الأغراض العامة
12:31
that have a deeper understanding of the world
289
751037
2292
التي لديها فهم أعمق للعالم
12:33
will really enable us to tackle
290
753329
1583
سيمكننا حقًا من معالجة
12:34
some of the greatest problems humanity faces.
291
754954
2500
بعض أكبر المشكلات التي تواجه البشرية.
12:37
For example,
292
757454
1167
على سبيل المثال،
12:38
we’ll be able to diagnose more disease;
293
758662
2375
سنتمكن من تشخيص المزيد من الأمراض
12:41
we'll be able to engineer better medicines
294
761079
2000
سنكون قادرين على هندسة أدوية أفضل
12:43
by infusing these models with knowledge of chemistry and physics;
295
763079
3083
من خلال غرس هذه النماذج بمعرفة الكيمياء والفيزياء
12:46
we'll be able to advance educational systems
296
766204
2667
سنكون قادرين على تطوير الأنظمة التعليمية
12:48
by providing more individualized tutoring
297
768871
2041
من خلال توفير المزيد من الدروس الخصوصية
12:50
to help people learn in new and better ways;
298
770912
2375
لمساعدة الناس على التعلم بطرق جديدة وأفضل
12:53
we’ll be able to tackle really complicated issues,
299
773287
2375
سنتمكن من معالجة المشكلات المعقدة
12:55
like climate change,
300
775704
1208
مثل تغير المناخ
12:56
and perhaps engineering of clean energy solutions.
301
776954
2792
وربما هندسة حلول الطاقة النظيفة.
12:59
So really, all of these kinds of systems
302
779787
2667
لذا حقًا، كل هذه الأنواع من الأنظمة
13:02
are going to be requiring the multidisciplinary expertise
303
782496
2875
سوف تتطلب خبرة متعددة التخصصات
13:05
of people all over the world.
304
785371
1875
من الناس في جميع أنحاء العالم.
13:07
So connecting AI with whatever field you are in,
305
787287
3542
لذا ربط الذكاء الاصطناعي بأي مجال تتواجد فيه
13:10
in order to make progress.
306
790829
1750
من أجل إحراز تقدم.
13:13
So I've seen a lot of advances in computing,
307
793579
2292
لقد رأيت الكثير من التطورات في مجال الحوسبة
13:15
and how computing, over the past decades,
308
795912
2292
وكيف أن الحوسبة على مدى العقود الماضية
13:18
has really helped millions of people better understand the world around them.
309
798204
4167
ساعدت حقًا ملايين الأشخاص على فهم العالم من حولهم بشكل أفضل.
13:22
And AI today has the potential to help billions of people.
310
802412
3000
والAI اليوم لديه القدرة على مساعدة المليارات من الناس.
13:26
We truly live in exciting times.
311
806204
2125
نحن نعيش حقًا في أوقات مثيرة.
13:28
Thank you.
312
808746
1166
شكراً لكم.
13:29
(Applause)
313
809912
7000
(تصفيق)
13:39
Chris Anderson: Thank you so much.
314
819829
1667
كريس أندرسن: شكراً جزيلاً لك.
13:41
I want to follow up on a couple things.
315
821537
2375
أريد متابعة بعض الأشياء.
13:44
This is what I heard.
316
824454
2792
هذا ما سمعته.
13:47
Most people's traditional picture of AI
317
827287
4125
الصورة التقليدية لمعظم الناس للذكاء الاصطناعي
13:51
is that computers recognize a pattern of information,
318
831412
3125
هي أن أجهزة الكمبيوتر تتعرف على نمط من المعلومات،
13:54
and with a bit of machine learning,
319
834579
2125
ومع القليل من التعلم الآلي،
13:56
they can get really good at that, better than humans.
320
836704
2625
يمكنهم فعل ذلك بشكل جيد، أفضل من البشر.
13:59
What you're saying is those patterns
321
839329
1792
ما تقوله هو أن هذه الأنماط
14:01
are no longer the atoms that AI is working with,
322
841121
2875
لم تعد الذرات التي يعمل بها الذكاء الاصطناعي،
14:04
that it's much richer-layered concepts
323
844037
2542
بل إنها مفاهيم ذات طبقات أكثر ثراءً
14:06
that can include all manners of types of things
324
846621
3458
يمكن أن تشمل جميع أساليب أنواع الأشياء
14:10
that go to make up a leopard, for example.
325
850121
3000
التي تشكل الفهد على سبيل المثال.
14:13
So what could that lead to?
326
853121
2916
إذن ما الذي يمكن أن يؤدي إليه ذلك؟
14:16
Give me an example of when that AI is working,
327
856079
2750
أعطني مثالاً على الوقت الذي يعمل فيه الذكاء الاصطناعي
14:18
what do you picture happening in the world
328
858829
2042
ما الذي تتخيله يحدث في العالم
14:20
in the next five or 10 years that excites you?
329
860912
2209
في السنوات الخمس أو العشر القادمة والذي يثيرك؟
14:23
Jeff Dean: I think the grand challenge in AI
330
863537
2500
جيف دين: أعتقد أن التحدي الكبير في الذكاء الاصطناعي
14:26
is how do you generalize from a set of tasks
331
866079
2375
هو كيف يمكنك التعميم من مجموعة من المهام
14:28
you already know how to do
332
868496
1416
التي تعرف بالفعل كيفية فعلها
14:29
to new tasks,
333
869954
1208
إلى مهام جديدة
14:31
as easily and effortlessly as possible.
334
871204
2542
بأكبر قدر ممكن من السهولة والجهد.
14:33
And the current approach of training separate models for everything
335
873746
3250
والنهج الحالي لتدريب نماذج منفصلة لكل شيء
14:36
means you need lots of data about that particular problem,
336
876996
3166
يعني أنك بحاجة إلى الكثير من البيانات حول تلك المشكلة بالذات
14:40
because you're effectively trying to learn everything
337
880162
2542
لأنك تحاول بشكل فعال تعلم كل شيء
14:42
about the world and that problem, from nothing.
338
882746
2541
عن العالم وتلك المشكلة من لا شيء.
14:45
But if you can build these systems
339
885287
1667
لكن إذا كان يمكنك بناء هذه الأنظمة
14:46
that already are infused with how to do thousands and millions of tasks,
340
886996
4458
التي تم دمجها بالفعل في كيفية القيام بالآلاف والملايين من المهام
14:51
then you can effectively teach them to do a new thing
341
891496
3791
فيمكنك تعليمهم بشكل فعال القيام بشيء جديد
14:55
with relatively few examples.
342
895329
1500
باستخدام أمثلة قليلة نسبيًا.
14:56
So I think that's the real hope,
343
896871
2083
لذلك أعتقد أن هذا هو الأمل الحقيقي
14:58
that you could then have a system where you just give it five examples
344
898996
4083
أنه يمكن أن يكون لديك نظام حيث يمكنك فقط إعطائه خمسة أمثلة
15:03
of something you care about,
345
903121
1541
لشيء تهتم به
15:04
and it learns to do that new task.
346
904704
1917
ويتعلم القيام بهذه المهمة الجديدة.
15:06
CA: You can do a form of self-supervised learning
347
906662
2375
كريس: يمكنك أن تفعل نموذجاً من التعلم الذاتي
15:09
that is based on remarkably little seeding.
348
909079
2542
الذي يعتمد على القليل من البذر بشكل ملحوظ.
15:11
JD: Yeah, as opposed to needing 10,000 or 100,000 examples
349
911662
2875
جيف: نعم ، بدلاً من الحاجة إلى 10000 أو 100000 مثال
15:14
to figure everything in the world out.
350
914579
1833
لمعرفة كل شيء في العالم.
15:16
CA: Aren't there kind of terrifying unintended consequences
351
916454
2792
كريس: ألا يوجد نوع من العواقب المرعبة غير المقصودة
15:19
possible, from that?
352
919287
1334
المحتملة من ذلك؟
15:20
JD: I think it depends on how you apply these systems.
353
920621
2625
جيف: أعتقد أن ذلك يعتمد على كيفية تطبيقك لهذه الأنظمة.
15:23
It's very clear that AI can be a powerful system for good,
354
923287
4167
من الواضح جدًا أن الذكاء الاصطناعي يمكن أن يكون نظامًا قويًا من أجل الخير
15:27
or if you apply it in ways that are not so great,
355
927496
2333
أو إذا قمت بتطبيقه بطرق ليست بهذه الروعة
15:29
it can be a negative consequence.
356
929871
3375
فقد يكون ذلك نتيجة سلبية.
15:33
So I think that's why it's important to have a set of principles
357
933287
3042
لذلك أعتقد أن هذا هو السبب في أنه أهمية وجود مجموعة من المبادئ
15:36
by which you look at potential uses of AI
358
936371
2250
التي تنظر في الاستخدامات المحتملة للAI
15:38
and really are careful and thoughtful about how you consider applications.
359
938662
5125
وتكون حذرًا ومدروسًا بشأن كيفية النظر في التطبيقات.
15:43
CA: One of the things people worry most about
360
943787
2209
كريس: أحد أكثر الأشياء التي يقلق الناس بشأنها
15:45
is that, if AI is so good at learning from the world as it is,
361
945996
3583
هو أنه إذا كان الذكاء الاصطناعي جيدًا في التعلم من العالم كما هو
15:49
it's going to carry forward into the future
362
949621
2875
فسوف ينتقل إلى الجوانب المستقبلية
15:52
aspects of the world as it is that actually aren't right, right now.
363
952537
4375
للعالم لأنه في الواقع ليس صحيحًا ، في الحال.
15:56
And there's obviously been a huge controversy about that
364
956954
2708
ومن الواضح أنه كان هناك جدل كبير حول ذلك
15:59
recently at Google.
365
959662
2417
مؤخرًا في جوجل.
16:02
Some of those principles of AI development,
366
962121
3083
بعض هذه المبادئ لتطوير الذكاء الاصطناعي،
16:05
you've been challenged that you're not actually holding to them.
367
965246
4708
لقد واجهت تحديًا لأنك لا تتمسك بها في الواقع.
16:10
Not really interested to hear about comments on a specific case,
368
970329
3250
لست مهتمًا حقًا بسماع تعليقات على قضية معينة،
16:13
but ... are you really committed?
369
973621
2708
لكن ... هل أنت ملتزم حقًا؟
16:16
How do we know that you are committed to these principles?
370
976329
2750
كيف نعرف أنك ملتزم بهذه المبادئ؟
16:19
Is that just PR, or is that real, at the heart of your day-to-day?
371
979079
4417
هل هذا مجرد علاقات عامة أم أن هذا حقيقي في صميم حياتك اليومية؟
16:23
JD: No, that is absolutely real.
372
983496
1541
جيف: لا، هذا حقيقي فعلاً.
16:25
Like, we have literally hundreds of people
373
985079
2125
مثل لدينا المئات من الأشخاص
16:27
working on many of these related research issues,
374
987204
2333
يعملون في العديد من هذه القضايا البحثية المتعلقة
16:29
because many of those things are research topics
375
989537
2417
لأن العديد من هذه الأشياء هي مواضيع بحث
16:31
in their own right.
376
991996
1166
في حد ذاتها.
16:33
How do you take data from the real world,
377
993162
2250
كيف تأخذ البيانات من العالم الحقيقي
16:35
that is the world as it is, not as we would like it to be,
378
995412
5000
أي العالم كما هو، وليس كما نود أن يكون
16:40
and how do you then use that to train a machine-learning model
379
1000412
3209
وكيف يمكنك استخدام ذلك لتدريب نموذج التعلم الآلي
16:43
and adapt the data bit of the scene
380
1003621
2500
وتكييف جزء البيانات من المشهد
16:46
or augment the data with additional data
381
1006162
2500
أو زيادة البيانات ببيانات إضافية
16:48
so that it can better reflect the values we want the system to have,
382
1008704
3292
بحيث يمكن أن تعكس القيم التي نريد أن يمتلكها النظام بشكل أفضل
16:51
not the values that it sees in the world?
383
1011996
2208
وليس القيم التي يراها في العالم؟
16:54
CA: But you work for Google,
384
1014204
2417
كريس: لكنك تعمل لصالح جوجل،
16:56
Google is funding the research.
385
1016662
2084
جوجل تمول البحث.
16:59
How do we know that the main values that this AI will build
386
1019371
4458
كيف نعرف أن القيم الرئيسية التي سيبنيها هذا الذكاء الاصطناعي
17:03
are for the world,
387
1023871
1208
هي للعالم
17:05
and not, for example, to maximize the profitability of an ad model?
388
1025121
4916
وليست على سبيل المثال لتعظيم ربحية نموذج إعلان؟
17:10
When you know everything there is to know about human attention,
389
1030037
3084
عندما تعرف كل شيء يجب أن تعرفه عن اهتمام الإنسان
17:13
you're going to know so much
390
1033121
1500
ستعرف الكثير
17:14
about the little wriggly, weird, dark parts of us.
391
1034621
2458
عن الأجزاء الصغيرة المتلألئة والغريبة والمظلمة منا.
17:17
In your group, are there rules about how you hold off,
392
1037121
6167
في مجموعتك هل توجد قواعد حول كيفية صدك
17:23
church-state wall between a sort of commercial push,
393
1043329
3750
وجدار الكنيسة الدولية بين نوع من الدفع التجاري
17:27
"You must do it for this purpose,"
394
1047079
2292
“يجب أن تفعل ذلك لهذا الغرض”
17:29
so that you can inspire your engineers and so forth,
395
1049413
2458
حتى تتمكن من إلهام المهندسين وما إلى ذلك
17:31
to do this for the world, for all of us.
396
1051913
1916
للقيام بذلك من أجل العالم لنا جميعًا.
17:33
JD: Yeah, our research group does collaborate
397
1053871
2125
جيف: نعم، تتعاون مجموعتنا البحثية
17:36
with a number of groups across Google,
398
1056038
1833
مع عدد من المجموعات عبر جوجل
17:37
including the Ads group, the Search group, the Maps group,
399
1057913
2750
بما في ذلك مجموعة الإعلانات ومجموعة البحث ومجموعة الخرائط،
17:40
so we do have some collaboration, but also a lot of basic research
400
1060704
3209
لذلك لدينا بعض التعاون ولكن أيضًا الكثير من الأبحاث الأساسية
17:43
that we publish openly.
401
1063954
1542
التي ننشرها علنًا.
17:45
We've published more than 1,000 papers last year
402
1065538
3333
لقد نشرنا أكثر من 1000 ورقة بحثية العام الماضي
17:48
in different topics, including the ones you discussed,
403
1068871
2583
في مواضيع مختلفة بما في ذلك الموضوعات التي ناقشتها
17:51
about fairness, interpretability of the machine-learning models,
404
1071454
3042
حول الإنصاف وقابلية تفسير نماذج التعلم الآلي
17:54
things that are super important,
405
1074538
1791
والأشياء ذات الأهمية الفائقة
17:56
and we need to advance the state of the art in this
406
1076371
2417
ونحن بحاجة إلى تطوير حالة الفن في هذا.
17:58
in order to continue to make progress
407
1078829
2209
من أجل الاستمرار في التقدم
18:01
to make sure these models are developed safely and responsibly.
408
1081079
3292
للتأكد من تطوير هذه النماذج بشكل آمن ومسؤول.
18:04
CA: It feels like we're at a time when people are concerned
409
1084788
3041
كريس: يبدو أننا في وقت يشعر فيه الناس بالقلق
18:07
about the power of the big tech companies,
410
1087829
2042
بشأن قوة شركات التكنولوجيا الكبرى
18:09
and it's almost, if there was ever a moment to really show the world
411
1089871
3750
وتقريبًا إذا كانت هناك لحظة لإظهار العالم حقًا
18:13
that this is being done to make a better future,
412
1093663
3333
أن هذا يتم من أجل صنع مستقبل أفضل
18:17
that is actually key to Google's future,
413
1097038
2791
هذا هو في الواقع مفتاح لمستقبل جوجل
18:19
as well as all of ours.
414
1099871
1750
وكذلك مستقبلنا جميعًا.
18:21
JD: Indeed.
415
1101663
1166
جيف: بالفعل.
18:22
CA: It's very good to hear you come and say that, Jeff.
416
1102871
2583
كريس: من الجيد جدًا سماعك تأتي وتقول ذلك يا جيف.
18:25
Thank you so much for coming here to TED.
417
1105454
2042
شكراً جزيلاً لمجيئك إلى TED.
18:27
JD: Thank you.
418
1107538
1166
جيف: شكراً لك.
18:28
(Applause)
419
1108704
1167
(تصفيق)
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7