The Inside Story of ChatGPT’s Astonishing Potential | Greg Brockman | TED

1,805,277 views ・ 2023-04-20

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: DAHOU Mohamed المدقّق: gaith Takrity
00:03
We started OpenAI seven years ago
0
3875
2503
أنشأنا شركة (أوبن إي آي) قبل 7 سنوات
00:06
because we felt like something really interesting was happening in AI
1
6378
3712
لأننا شعرنا أن شيئاً مثيراً للغاية كان يجري في الذكاء الاصطناعي
00:10
and we wanted to help steer it in a positive direction.
2
10131
3170
وأردنا المساعدة في توجيهه في اتجاه إيجابي.
00:15
It's honestly just really amazing to see
3
15220
2085
وبصراحة، إنه لأمر مدهش حقًا
00:17
how far this whole field has come since then.
4
17347
3086
رؤية الطريق الذي قطعه هذا المجال بأكمله منذ ذلك الوقت.
00:20
And it's really gratifying to hear from people like Raymond
5
20433
3629
وإنه من المثلج للصدر أن نسمع من أشخاص مثل ريموند
00:24
who are using the technology we are building, and others,
6
24104
2836
الذين يستخدمون التكنولوجيا التي نصنعها، ومن أشخاص آخرين،
00:26
for so many wonderful things.
7
26982
2127
لأشياء أخرى عديدة رائعة.
00:29
We hear from people who are excited,
8
29150
2503
نسمع من أشخاص متحمسين،
00:31
we hear from people who are concerned,
9
31653
1835
وأشخاص يساورهم الشك،
00:33
we hear from people who feel both those emotions at once.
10
33530
2961
وأشخاص يساورهم الشعورين معا في آن واحد.
00:36
And honestly, that's how we feel.
11
36533
2252
وبصراحة، هذا ما نشعر به.
00:40
Above all, it feels like we're entering an historic period right now
12
40245
4087
وقبل كل شيء، يبدو أننا شرعنا في حقبة تاريخية
00:44
where we as a world are going to define a technology
13
44374
4421
حيث سنقوم كعالم بتحديد تعريف لتقنية ناشئة
00:48
that will be so important for our society going forward.
14
48795
3086
ستكون مهمة جدا لمجتمعنا في المستقبل.
00:52
And I believe that we can manage this for good.
15
52924
2628
وأعتقد أنه يمكننا إدارة هذا الأمرمن أجل الخير.
00:56
So today, I want to show you the current state of that technology
16
56845
4171
لذا، أود أن أعرض عليكم اليوم الوضع الحالي لهذه التقنية
01:01
and some of the underlying design principles that we hold dear.
17
61016
3086
وبعض المبادئ التصميمية الأساسية التي نولي لها اهتماماً كبيراً.
01:09
So the first thing I'm going to show you
18
69983
1918
أول شيء سأريكم إياه
01:11
is what it's like to build a tool for an AI
19
71943
2086
هو كيفية بناء أداة للذكاء الاصطناعي
01:14
rather than building it for a human.
20
74029
1876
بدلاً من بنائها للإنسان.
01:17
So we have a new DALL-E model, which generates images,
21
77574
3545
لدينا نموذج جديد من دال-إي، يقوم بتوليد الصور،
01:21
and we are exposing it as an app for ChatGPT to use on your behalf.
22
81161
4045
ونقوم بعرضه كتطبيق يستخدمه تشات جي بي تي بالنيابة عنكم.
01:25
And you can do things like ask, you know,
23
85248
2461
ويمكنكم القيام بأشياء مثل طرح أسئلة،
01:27
suggest a nice post-TED meal and draw a picture of it.
24
87751
6631
أقترح وجبة لطيفة بعد تيد ورسم صورة لها.
01:35
(Laughter)
25
95216
1419
(ضحك)
01:38
Now you get all of the, sort of, ideation and creative back-and-forth
26
98303
4671
الآن يمكنكم الحصول على كل أنواع الأفكار والإبداع بصفة تفاعلية
01:43
and taking care of the details for you that you get out of ChatGPT.
27
103016
4004
والاهتمام عوضا عنكم بالتفاصيل التي تحصلون عليها من تشات جي بي تي.
01:47
And here we go, it's not just the idea for the meal,
28
107062
2669
والأمر لا يتعلق فقط بفكرة الوجبة،
01:49
but a very, very detailed spread.
29
109773
3587
بل بتفاصيل دقيقة للغاية.
01:54
So let's see what we're going to get.
30
114110
2044
لذلك دعونا نرى ما سنحصل عليه.
01:56
But ChatGPT doesn't just generate images in this case --
31
116154
3795
ولكن تشات جي بي تي لا يكتفي فقط بتوليد الصور في هذه الحالة --
01:59
sorry, it doesn't generate text, it also generates an image.
32
119991
2836
عفواً، لا يقوم بتوليد النصوص فقط، بل يولد صورًا أيضا.
02:02
And that is something that really expands the power
33
122827
2419
وهذا شيء يوسع حقاً نطاق قدرته
02:05
of what it can do on your behalf in terms of carrying out your intent.
34
125246
3504
على القيام مكانكم بما تريدونه لتنفيذ أهدافكم.
02:08
And I'll point out, this is all a live demo.
35
128750
2085
وأشير إلى أن هذا كله عرض توضيحي مباشر.
02:10
This is all generated by the AI as we speak.
36
130835
2169
فكل هذا يولده الذكاء الاصطناعي أثناء المحادثة.
02:13
So I actually don't even know what we're going to see.
37
133046
2544
لذا حتى أنا لا أعلم في الواقع ما الذي سنراه.
02:16
This looks wonderful.
38
136216
2294
يبدو هذا مدهشاً.
02:18
(Applause)
39
138510
3712
(تصفيق)
02:22
I'm getting hungry just looking at it.
40
142514
1877
مجرد النظر إلى الصورة يشعرني بالجوع.
02:24
Now we've extended ChatGPT with other tools too,
41
144724
2753
وقد قمنا بتزويد تشات جي بي تي بأدوات أخرى أيضاً،
02:27
for example, memory.
42
147519
1168
مثل الذاكرة.
02:28
You can say "save this for later."
43
148728
2795
يمكنكم قول “قم بحفظ هذا لوقت لاحق.”
02:33
And the interesting thing about these tools
44
153233
2043
والمثير للاهتمام بشأن هذه الأدوات
02:35
is they're very inspectable.
45
155318
1377
هو أنها قابلة للفحص بسهولة.
02:36
So you get this little pop up here that says "use the DALL-E app."
46
156695
3128
تقول لكم هذه النافذة المنبثقة الصغيرة ”استخدم تطبيق دال-إي“
02:39
And by the way, this is coming to you, all ChatGPT users, over upcoming months.
47
159823
3712
وبالمناسبة، سنوفر هذه الميزة قريبا لكل مستخدمي تشات جي بي تي.
ويمكنكم أن تنظروا عن كثب وتروا أن ما فعله الجهاز في الواقع
02:43
And you can look under the hood and see that what it actually did
48
163535
3086
هو كتابة تعليمات تماماً كما يمكن للإنسان فعله.
02:46
was write a prompt just like a human could.
49
166621
2169
02:48
And so you sort of have this ability to inspect
50
168790
2628
وبالتالي لديكم هذه القدرة على فحص
02:51
how the machine is using these tools,
51
171459
2086
كيف تستخدم الآلة هذه الأدوات،
02:53
which allows us to provide feedback to them.
52
173586
2086
مما يسمح لنا بتقديم ملاحظاتنا لها.
02:55
Now it's saved for later,
53
175714
1209
لقد تم حفظها لوقت لاحق،
02:56
and let me show you what it's like to use that information
54
176965
2878
دعوني أريكم ما يعنيه استخدام تلك المعلومات
02:59
and to integrate with other applications too.
55
179884
2503
ودمجها مع تطبيقات أخرى أيضاً.
03:02
You can say,
56
182387
2210
يمكنكم أن تطلبوا منه،
03:04
“Now make a shopping list for the tasty thing
57
184639
5506
”الآن قم بإعداد قائمة تسوق للأشياء اللذيذة
03:10
I was suggesting earlier.”
58
190186
1835
التي اقترحتها سابقاً“
03:12
And make it a little tricky for the AI.
59
192021
2128
ولنصعبها قليلا على الذكاء الاصطناعي.
03:16
"And tweet it out for all the TED viewers out there."
60
196276
4337
”وقم بتغريدها على تويتر لكل مشاهدي محادثات تيد هناك”
03:20
(Laughter)
61
200655
2252
(ضحك)
03:22
So if you do make this wonderful, wonderful meal,
62
202949
2461
إذا قمتم بإعداد هذه الوجبة الشهية،
03:25
I definitely want to know how it tastes.
63
205410
2044
فسأرغب بالتأكيد في تذوقها.
03:28
But you can see that ChatGPT is selecting all these different tools
64
208496
3504
ويمكنكم ملاحظة أن تشات جي بي تي يختار كل هذه الأدوات المختلفة
03:32
without me having to tell it explicitly which ones to use in any situation.
65
212000
4379
بدون الحاجة إلى إخباره تحديداً أيا منها يجب أن يستخدم وفي أي حالة.
03:37
And this, I think, shows a new way of thinking about the user interface.
66
217088
3879
وهذا، في رأيي، يُظهر طريقة جديدة للتفكير في واجهة المستخدم.
03:40
Like, we are so used to thinking of, well, we have these apps,
67
220967
3796
فنحن معتادون جداً على التفكير بأن لدينا تطبيقات،
03:44
we click between them, we copy/paste between them,
68
224763
2335
ننقر بينها وننسخ/نلصق فيما بينها،
وعادةً ما تكون تجربة رائعة داخل التطبيق
03:47
and usually it's a great experience within an app
69
227098
2294
طالما أنك نوعاً ما تعرف القوائم وكل الخيارات التي يوفرها.
03:49
as long as you kind of know the menus and know all the options.
70
229434
2961
نعم، أود منك ذلك.
03:52
Yes, I would like you to.
71
232395
1293
03:53
Yes, please.
72
233730
1126
نعم، من فضلك.
03:54
Always good to be polite.
73
234898
1251
اللباقة جيدة دائماً.
03:56
(Laughter)
74
236149
2628
(ضحك)
04:00
And by having this unified language interface on top of tools,
75
240361
5464
وبتواجد واجهة اللغة الموحدة التي تتداخل مع الأدوات،
04:05
the AI is able to sort of take away all those details from you.
76
245867
4630
يمكن للذكاء الاصطناعي تولي كافة هذه التفاصيل بدلاً منكم.
04:10
So you don't have to be the one
77
250538
1543
حتى لا تتحملوا عبء
04:12
who spells out every single sort of little piece
78
252123
2294
شرح كل تفصيل صغير
04:14
of what's supposed to happen.
79
254459
1543
مما يجب أن يحدث.
04:16
And as I said, this is a live demo,
80
256419
1710
وكما قلت، هذا عرض توضيحي مباشر،
04:18
so sometimes the unexpected will happen to us.
81
258129
3379
لذا قد نواجه أحياناً أمورا غير متوقعة.
04:21
But let's take a look at the Instacart shopping list while we're at it.
82
261549
3420
ودعونا نلقي نظرة على قائمة التسوق في إنستاكارت بما أننا نتصفح التطبيق.
04:25
And you can see we sent a list of ingredients to Instacart.
83
265386
3254
يمكنكم ملاحظة أننا أرسلنا قائمة بالمكونات إلى إنستاكارت.
04:29
Here's everything you need.
84
269349
1543
إليكم كل ما تحتاجونه.
04:30
And the thing that's really interesting
85
270892
1877
والمثير للاهتمام حقاً
04:32
is that the traditional UI is still very valuable, right?
86
272811
2919
هو أن الواجهة التقليدية لا تزال قيمة جداً، أليس كذلك؟
04:35
If you look at this,
87
275772
1877
إذا نظرتم إلى هذا،
04:37
you still can click through it and sort of modify the actual quantities.
88
277690
4296
فلا يزال بإمكانكم النقر على الأشياء وتعديل الكميات الفعلية.
04:41
And that's something that I think shows
89
281986
1877
وهذا أمرٌ في رأي يدل
04:43
that they're not going away, traditional UIs.
90
283863
3253
على أن الواجهات التقليدية لن تختفي.
04:47
It's just we have a new, augmented way to build them.
91
287158
2795
ولكن أصبحت لدينا طريقة جديدة ومحسَّنة لبنائها.
04:49
And now we have a tweet that's been drafted for our review,
92
289994
2920
والآن لدينا تغريدة صِيغَت من أجل أن نراجعها،
04:52
which is also a very important thing.
93
292956
1793
وهو أمر مهم أيضاً.
04:54
We can click “run,” and there we are, we’re the manager, we’re able to inspect,
94
294749
3712
يمكننا النقر على “تشغيل“، وها نحن ذا، نحن من يدير، ولدينا القدرة على فحص
04:58
we're able to change the work of the AI if we want to.
95
298461
2836
وتغيير عمل الذكاء الاصطناعي إذا أردنا ذلك.
05:02
And so after this talk, you will be able to access this yourself.
96
302924
5964
ستتمكنون في ختام هذه المحادثة من الوصول إلى هذه الميزة بأنفسكم.
05:17
And there we go.
97
317647
1710
وها نحن ذا.
05:19
Cool.
98
319816
1126
رائع.
05:22
Thank you, everyone.
99
322485
1168
شكراً جميعاً.
05:23
(Applause)
100
323653
3003
(تصفيق)
05:29
So we’ll cut back to the slides.
101
329367
1627
لنعد إلى العرض.
05:32
Now, the important thing about how we build this,
102
332954
3587
الآن، لا يكمن الأمر المهم في كيفية بنائنا روبوت المحادثة
05:36
it's not just about building these tools.
103
336583
2210
لا يتعلق الأمر فقط ببناء هذه الأدوات.
05:38
It's about teaching the AI how to use them.
104
338793
2252
بل في تعليم الذكاء الاصطناعي كيفية استخدمها.
05:41
Like, what do we even want it to do
105
341087
1710
كالقيام بالأمر الذي نريده منه
05:42
when we ask these very high-level questions?
106
342839
2419
عندما نطرح أسئلة بمستوى عالي جدا؟
05:45
And to do this, we use an old idea.
107
345258
2669
وللقيام بهذا، نستخدم فكرة قديمة.
05:48
If you go back to Alan Turing's 1950 paper on the Turing test, he says,
108
348261
3337
يقول آلان تورنغ بورقته البحثية لسنة 1950، المتعلقة باختبار تورنغ،
05:51
you'll never program an answer to this.
109
351598
2043
لن تقوموا ببرمجة إجابة لهذا الاختبار.
05:53
Instead, you can learn it.
110
353683
1627
وبدلاً من ذلك، يمكنكم التعلم منه.
05:55
You could build a machine, like a human child,
111
355351
2169
يمكنكم بناء آلة، تشبه طفلا بشريا،
05:57
and then teach it through feedback.
112
357520
2127
وتعليمها من خلال الملاحظات المقدمة لها.
05:59
Have a human teacher who provides rewards and punishments
113
359689
2711
حيث يكافئ معلم بشري الآلة أو يعاقبها
06:02
as it tries things out and does things that are either good or bad.
114
362400
3212
حسب الأمور التي تجربها وتقوم بها بشكل صحيح أو خاطئ.
06:06
And this is exactly how we train ChatGPT.
115
366237
2002
وهذه بالضبط طريقة تدريبنا تشات جي بي تي.
06:08
It's a two-step process.
116
368239
1168
إنها عملية من خطوتين.
06:09
First, we produce what Turing would have called a child machine
117
369449
3086
أولاً، ننتج ما كان تورينغ ليسميه آلة طفل
06:12
through an unsupervised learning process.
118
372535
1960
من خلال عملية تعلم غير خاضعة للإشراف.
06:14
We just show it the whole world, the whole internet
119
374495
2461
نعرض عليها العالم بأكمله، والإنترنت بأكمله
06:16
and say, “Predict what comes next in text you’ve never seen before.”
120
376956
3212
ونقول لها ”توقعي ما سيأتي في نص لم تريه من قبل.“
06:20
And this process imbues it with all sorts of wonderful skills.
121
380168
3044
وهذه العملية تكسبها كل أنواع المهارات الرائعة.
06:23
For example, if you're shown a math problem,
122
383212
2086
فإذا عرضت عليكم مثلا مسألة رياضية،
06:25
the only way to actually complete that math problem,
123
385298
2544
فإن الطريقة الوحيدة لحلها
06:27
to say what comes next,
124
387884
1334
هي التساؤل عما سيأتي بعدها،
06:29
that green nine up there,
125
389218
1293
تلك التسعة الخضراء هناك،
06:30
is to actually solve the math problem.
126
390511
2294
هي في الحقيقة لحل تلك المسألة الرياضية.
06:34
But we actually have to do a second step, too,
127
394432
2169
لكن علينا في الواقع القيام بخطوة ثانية أيضاً،
06:36
which is to teach the AI what to do with those skills.
128
396601
2544
وهي تعليم الذكاء الاصطناعي كيفية استعمال هذه المهارات.
06:39
And for this, we provide feedback.
129
399187
1668
لذا، نقدم الملاحظات له.
06:40
We have the AI try out multiple things, give us multiple suggestions,
130
400855
3253
لقد جرّبنا الذكاء الاصطناعي في أمور عديدة، وقدم لنا اقتراحات متعددة،
06:44
and then a human rates them, says “This one’s better than that one.”
131
404150
3212
ويكون دور الإنسان تقييمها، فيقول “هذا أفضل من ذاك.”
06:47
And this reinforces not just the specific thing that the AI said,
132
407362
3086
حيث لا يعزز هذا الأمر ما ذكره الذكاء الاصطناعي بالتحديد فقط،
06:50
but very importantly, the whole process that the AI used to produce that answer.
133
410448
3795
بل والأهم من ذلك، العملية برمتها التي يستخدمها لإنتاج هذه الإجابة.
06:54
And this allows it to generalize.
134
414243
1585
ويسمح له هذا بالتعميم.
06:55
It allows it to teach, to sort of infer your intent
135
415828
2419
ويسمح له هذا بتعلم نوعا ما استنتاج أهدافكم
06:58
and apply it in scenarios that it hasn't seen before,
136
418247
2503
وتطبيقها في سيناريوهات غير مسبوقة،
07:00
that it hasn't received feedback.
137
420750
1585
ولم تتلقى أي ملاحظات.
07:02
Now, sometimes the things we have to teach the AI
138
422669
2460
أحيانا، تكون الأمور التي نعلمها للذكاء الاصطناعي
07:05
are not what you'd expect.
139
425171
1543
غير ما تتوقعونه.
07:06
For example, when we first showed GPT-4 to Khan Academy,
140
426756
3086
ومثلا، عندما عرضنا لأول مرة جي بي تي-4 على أكاديمية خان،
07:09
they said, "Wow, this is so great,
141
429884
1627
قالوا لنا: “مذهل، إنه رائع جداً،
07:11
We're going to be able to teach students wonderful things.
142
431552
2753
سوف نتمكن من تعليم الطلاب أشياء رائعة.
07:14
Only one problem, it doesn't double-check students' math.
143
434347
3462
ولكن المشكلة الوحيدة هي أنه لا يتحقق جيداً من رياضيات الطلاب.
07:17
If there's some bad math in there,
144
437809
1626
فإذا كانت هناك مسألة خاطئة،
07:19
it will happily pretend that one plus one equals three and run with it."
145
439477
3462
سيتظاهر بفرح أن واحد زائد واحد يساوي ثلاثة وسيكمل طريقه.”
07:23
So we had to collect some feedback data.
146
443523
2294
لذا كان علينا جمع بعض بيانات الملاحظات.
07:25
Sal Khan himself was very kind
147
445858
1544
وكان سال خان نفسه لطيفاً للغاية
07:27
and offered 20 hours of his own time to provide feedback to the machine
148
447443
3337
وخصص 20 ساعة من وقته الخاص لتقديم ملاحظات للآلة
07:30
alongside our team.
149
450780
1501
جنباً إلى جنب مع فريقنا.
07:32
And over the course of a couple of months we were able to teach the AI that,
150
452323
3587
وعلى مدى بضعة أشهر، تمكنا من تعليم الذكاء الاصطناعي أنه،
07:35
"Hey, you really should push back on humans
151
455910
2044
”اسمع، يجب عليك حقاً أن تعترض على البشر
07:37
in this specific kind of scenario."
152
457954
2044
في مثل هذه الحالة بالتحديد.“
07:41
And we've actually made lots and lots of improvements to the models this way.
153
461416
4921
وفي الواقع، قمنا بهذه الطريقة بالكثير من التحسينات على الأنماط.
07:46
And when you push that thumbs down in ChatGPT,
154
466379
2544
وعندما تنقرون على زر عدم الإعجاب في تشات جي بي تي،
07:48
that actually is kind of like sending up a bat signal to our team to say,
155
468965
3462
فإن ذلك في الواقع يشبه إرسال إشارة إلى فريقنا للقول،
07:52
“Here’s an area of weakness where you should gather feedback.”
156
472427
2919
”هذه منطقة ضعف حيث يجب عليكم جمع الملاحظات“
07:55
And so when you do that,
157
475388
1168
وهكذا، عند قيامكم بذلك،
07:56
that's one way that we really listen to our users
158
476597
2294
فهذه إحدى الطرق التي نستمع بها حقا إلى مستخدمينا
07:58
and make sure we're building something that's more useful for everyone.
159
478933
3378
ونضمن بها بناء شيء يكون أكثر فائدة للجميع.
08:02
Now, providing high-quality feedback is a hard thing.
160
482895
3754
وتقديم ملاحظات عالية الجودة أمر صعب.
08:07
If you think about asking a kid to clean their room,
161
487025
2460
إذا فكرتم في أن تطلبوا من طفل تنظيف غرفته،
08:09
if all you're doing is inspecting the floor,
162
489485
2711
فإذا كان كل ما تفعلونه هو فحص الأرضية،
08:12
you don't know if you're just teaching them to stuff all the toys in the closet.
163
492196
3796
فلن تعرفوا ما إذا كنتم تعلمونهم ركم الألعاب في الخزانة فقط.
08:15
This is a nice DALL-E-generated image, by the way.
164
495992
2627
بالمناسبة، هذه صورة جميلة أنشأها دال-إي.
08:19
And the same sort of reasoning applies to AI.
165
499912
4713
وينطبق نفس المنطق على الذكاء الاصطناعي.
08:24
As we move to harder tasks,
166
504667
1794
ومع تقدمنا نحو المهام الأكثر صعوبة،
08:26
we will have to scale our ability to provide high-quality feedback.
167
506502
3796
سيتعين علينا توسيع قدرتنا على تقديم ملاحظات عالية الجودة.
08:30
But for this, the AI itself is happy to help.
168
510882
3879
ومن أجل ذلك، حتى الذكاء الاصطناعي سعيد بتقديم المساعدة.
08:34
It's happy to help us provide even better feedback
169
514761
2335
إنه سعيد بمساعدتنا في تقديم ملاحظات أفضل
08:37
and to scale our ability to supervise the machine as time goes on.
170
517138
3587
وتوسيع قدرتنا الإشرافية على الآلة مع مرور الوقت.
08:40
And let me show you what I mean.
171
520767
1543
واسمحوا لي أن أوضح لكم ما أعنيه.
08:42
For example, you can ask GPT-4 a question like this,
172
522810
4546
فمثلا، يمكنكم أن تطرحوا على جي بي تي-4 سؤالا من هذا القبيل،
08:47
of how much time passed between these two foundational blogs
173
527356
3295
عن مقدار الوقت الذي مر ما بين هاتين المدونتين التأسيسيتين
08:50
on unsupervised learning
174
530693
1668
حول التعلم غير الخاضع للإشراف
08:52
and learning from human feedback.
175
532403
1794
والتعلم من الملاحظات البشرية.
08:54
And the model says two months passed.
176
534197
2460
ويقول النموذج إنه مر شهرين.
08:57
But is it true?
177
537075
1167
ولكن هل هذا صحيح؟
08:58
Like, these models are not 100-percent reliable,
178
538284
2252
مثلاً، هذه النماذج ليست موثوقة بنسبة 100%،
09:00
although they’re getting better every time we provide some feedback.
179
540536
3921
على الرغم من أنها تتحسن في كل مرة قدمنا لها بعض الملاحظات.
09:04
But we can actually use the AI to fact-check.
180
544457
3086
ولكن يمكننا استخدام الذكاء الاصطناعي للتأكد من الحقائق.
09:07
And it can actually check its own work.
181
547543
1877
الحقيقة أنه يمكنه التحقق من عمله.
09:09
You can say, fact-check this for me.
182
549462
1877
يمكنكم أن تسألوه ”افحص لي هذه الحقيقة.“
09:12
Now, in this case, I've actually given the AI a new tool.
183
552757
3670
الواقع أنني زودت، في هذه الحالة، الذكاء الاصطناعي بأداة جديدة.
09:16
This one is a browsing tool
184
556427
1710
هذه الأداة هي أداة تصفح
09:18
where the model can issue search queries and click into web pages.
185
558137
3879
حيث يمكن للنموذج القيام بعمليات البحث والنقر على المواقع الإلكترونية.
09:22
And it actually writes out its whole chain of thought as it does it.
186
562016
3253
ويكتب في الواقع جميع سلسلة أفكاره أثناء قيامه بذلك.
09:25
It says, I’m just going to search for this and it actually does the search.
187
565269
3587
ويقول “سأبحث عن هذا الأمر” وهو فعلاً يقوم بالبحث.
09:28
It then it finds the publication date and the search results.
188
568856
3128
ومن ثم يعثر على تاريخ النشر ونتائج البحث.
09:32
It then is issuing another search query.
189
572026
1919
ثم يقوم ببحث آخر.
09:33
It's going to click into the blog post.
190
573945
1877
وسينقر على مقالة المدونة.
09:35
And all of this you could do, but it’s a very tedious task.
191
575822
2877
يمكنكم القيام بكل هذا، ولكنها مهمة شاقة للغاية.
09:38
It's not a thing that humans really want to do.
192
578741
2211
فهذا ليس أمراً يرغب البشر حقاً في القيام به.
09:40
It's much more fun to be in the driver's seat,
193
580952
2169
الجلوس في مقعد السائق أكثر متعة،
09:43
to be in this manager's position where you can, if you want,
194
583162
2836
أن تكونوا في موقع المدير حيث يمكنكم، إذا أردتم، التحقق من العمل ثلاث مرات.
09:45
triple-check the work.
195
585998
1210
09:47
And out come citations
196
587208
1501
فتظهر النتائج
09:48
so you can actually go
197
588709
1168
لتتمكنوا بالمواصلة فعلا
09:49
and very easily verify any piece of this whole chain of reasoning.
198
589919
3754
والتحقق بسهولة جداً من أي جزء من سلسلة التفكير المنطقي.
09:53
And it actually turns out two months was wrong.
199
593673
2210
واتضح بالفعل أن فترة الشهرين لم تكن صحيحة.
09:55
Two months and one week,
200
595883
2169
بل شهرين وأسبوع واحد،
09:58
that was correct.
201
598094
1251
كانت هي الفترة الصحيحة.
10:00
(Applause)
202
600888
3837
(تصفيق)
10:07
And we'll cut back to the side.
203
607645
1502
وسنعود إلى العرض.
10:09
And so thing that's so interesting to me about this whole process
204
609147
3920
والشيء الذي يثير اهتمامي في هذه العملية بأكملها
10:13
is that it’s this many-step collaboration between a human and an AI.
205
613067
3962
هو أنه يعتبر تعاوناً متعدد الخطوات بين الإنسان والذكاء الاصطناعي.
10:17
Because a human, using this fact-checking tool
206
617029
2461
لأن استخدام الإنسان لأداة التأكد من الحقائق
10:19
is doing it in order to produce data
207
619532
2210
تقوم بذلك لإنتاج البيانات
10:21
for another AI to become more useful to a human.
208
621742
3170
لذكاء اصطناعي آخر كي يصبح أكثر فائدة للإنسان.
10:25
And I think this really shows the shape of something
209
625454
2545
وأعتقد أن هذا يقدم لنا شيئا
10:28
that we should expect to be much more common in the future,
210
628040
3087
يجب أن نتوقع أنه سيكون أكثر شيوعاً في المستقبل،
10:31
where we have humans and machines kind of very carefully
211
631127
2711
حيث سيكون لدينا بشر وآلات صممت بعناية
10:33
and delicately designed in how they fit into a problem
212
633880
3503
ودقة فيما يخص كيفية ملاءمتها لمشكلة معينة
10:37
and how we want to solve that problem.
213
637425
1918
والطريقة التي نريد أن تحل بها.
10:39
We make sure that the humans are providing the management, the oversight,
214
639385
3462
نحرص على أن تظل مقاليد الإدارة والإشراف وتقديم الملاحظات،
10:42
the feedback,
215
642847
1168
بين يدي الإنسان،
10:44
and the machines are operating in a way that's inspectable
216
644015
2752
وأن تعمل الآلات بطريقة قابلة للتفتيش
10:46
and trustworthy.
217
646809
1126
وموثوقة.
10:47
And together we're able to actually create even more trustworthy machines.
218
647977
3503
نحن في الواقع قادرون معاً على خلق المزيد من الآلات الموثوقة.
10:51
And I think that over time, if we get this process right,
219
651522
2711
وأعتقد أنه بمرور الوقت، إذا نجحنا في تنفيد هذه العملية،
10:54
we will be able to solve impossible problems.
220
654233
2127
سنتمكن من حل مشاكل مستحيلة.
10:56
And to give you a sense of just how impossible I'm talking,
221
656360
3963
ولإعطائكم فكرة عن المستحيل الذي أتحدث عنه،
11:00
I think we're going to be able to rethink almost every aspect
222
660323
2878
أعتقد أننا سنكون قادرين على إعادة التفكير في كل جانب تقريباً
11:03
of how we interact with computers.
223
663242
2378
من جوانب تفاعلنا مع الحواسيب.
11:05
For example, think about spreadsheets.
224
665620
2502
لنأخذ جداول البيانات على سبيل المثال.
11:08
They've been around in some form since, we'll say, 40 years ago with VisiCalc.
225
668122
4379
هي موجودة بشكل ما منذ حوالي 40 سنة مع برنامج فيزيكالك.
11:12
I don't think they've really changed that much in that time.
226
672543
2878
ولا أعتقد أنها تغيرت كثيراً خلال هذه المدة.
11:16
And here is a specific spreadsheet of all the AI papers on the arXiv
227
676214
5922
وهذا جدول بيانات بكل ما نشر على أرخايف من أوراق بحثية حول الذكاء الاصطناعي
11:22
for the past 30 years.
228
682178
1168
خلال 30 سنة الماضية.
11:23
There's about 167,000 of them.
229
683346
1960
ويتضمن حوالي 167.000 ورقة بحثية.
11:25
And you can see there the data right here.
230
685348
2878
ويمكنكم رؤية البيانات هنا.
11:28
But let me show you the ChatGPT take on how to analyze a data set like this.
231
688267
3837
ولكن دعوني أوضح لكم طريقة تحليل تشات جي بي تي مجموعة بيانات مثل هذه.
11:37
So we can give ChatGPT access to yet another tool,
232
697318
3837
يمكننا منحه إذاً الوصول إلى أداة أخرى،
11:41
this one a Python interpreter,
233
701197
1460
وهي مترجم للغة البرمجة بايثون،
11:42
so it’s able to run code, just like a data scientist would.
234
702657
4004
حتى يتمكن من تشغيل البرنامج، تماماً مثل ما يفعله خبراء البيانات.
11:46
And so you can just literally upload a file
235
706661
2335
وبالتالي يمكنكم ببساطة تحميل ملف
11:48
and ask questions about it.
236
708996
1335
وطرح الأسئلة حوله.
11:50
And very helpfully, you know, it knows the name of the file and it's like,
237
710373
3545
وبطريقة مفيدة للغاية يعرف اسم الملف وكأنه يقول:
11:53
"Oh, this is CSV," comma-separated value file,
238
713960
2419
“هذا ملف ملف قيم مفصولة بفواصل“،
11:56
"I'll parse it for you."
239
716420
1335
“سأقوم بتحليله لك“.
11:57
The only information here is the name of the file,
240
717755
2794
المعلومة الوحيدة هنا هي اسم الملف،
12:00
the column names like you saw and then the actual data.
241
720591
3671
وأسماء الأعمدة كما رأيتم ومن ثم البيانات الفعلية.
12:04
And from that it's able to infer what these columns actually mean.
242
724262
4504
وانطلاقا من ذلك يتمكن من استنتاج ما تعنيه هذه الأعمدة في الواقع.
12:08
Like, that semantic information wasn't in there.
243
728766
2294
لم تكن هناك معلومات دلالية في الملف.
12:11
It has to sort of, put together its world knowledge of knowing that,
244
731102
3211
كان عليه نوعا ما، تجميع معرفته العامة لمعرفة أن
12:14
“Oh yeah, arXiv is a site that people submit papers
245
734355
2502
أرخايف هو موقع لنشرالأوراق البحثية
12:16
and therefore that's what these things are and that these are integer values
246
736857
3587
وبالتالي تحديد ماهية هذه الأشياء وأنها قيم صحيحة
12:20
and so therefore it's a number of authors in the paper,"
247
740486
2628
وبالتالي أنها عدد المؤلفين في الورقة البحثية،”
12:23
like all of that, that’s work for a human to do,
248
743114
2252
كل ذلك، هو عمل يتعين على الإنسان فعله،
12:25
and the AI is happy to help with it.
249
745408
1751
ويساعد الذكاء الاصطناعي بفرح في ذلك.
12:27
Now I don't even know what I want to ask.
250
747159
2002
حسنا، لقد نفدت مني الأسئلة.
12:29
So fortunately, you can ask the machine,
251
749203
3003
ولحسن الحظ، يمكنكم أن تسألوا الجهاز:
12:32
"Can you make some exploratory graphs?"
252
752248
1877
“هلَّا أعددت بعض الرسومات الاستكشافية؟”
12:37
And once again, this is a super high-level instruction with lots of intent behind it.
253
757461
4004
ومجدداً، هذه تعليمات مستوى عالي جدا وتنطوي على الكثير من الأهداف.
12:41
But I don't even know what I want.
254
761507
1668
ولكنني لا أعلم حتى ما أريده.
12:43
And the AI kind of has to infer what I might be interested in.
255
763175
2920
ويجب على الذكاء الاصطناعي استنتاج ما قد يثير اهتمامي.
12:46
And so it comes up with some good ideas, I think.
256
766137
2294
أعتقد، أنه يقترح عليَّ بعض الأفكار الجيدة.
12:48
So a histogram of the number of authors per paper,
257
768472
2336
مدرج تكراري لعدد المؤلفين في كل ورقة بحثية،
12:50
time series of papers per year, word cloud of the paper titles.
258
770850
2961
وتسلسلها الزمني في السنة وسحابة كلمات لعناوينها.
12:53
All of that, I think, will be pretty interesting to see.
259
773853
2627
سيكون من المثير مشاهدة نتيجة كل ذلك.
12:56
And the great thing is, it can actually do it.
260
776522
2169
والرائع في الأمر، أنه يمكنه القيام بذلك فعلا.
12:58
Here we go, a nice bell curve.
261
778691
1460
ها نحن ذا، منحنى جرسي رائع.
13:00
You see that three is kind of the most common.
262
780151
2169
وكما ترون أن الرقم ثلاثة هو الأكثر شيوعاً.
13:02
It's going to then make this nice plot of the papers per year.
263
782320
5797
وسينشئ بعد ذلك هذا المخطط الرائع للأوراق البحثية في السنة.
13:08
Something crazy is happening in 2023, though.
264
788117
2294
يبدو أن أمرًا مجنوناً يحدث في سنة 2023.
13:10
Looks like we were on an exponential and it dropped off the cliff.
265
790411
3128
يبدو أننا كنا في منحنى تصاعدي ثم تقهقرنا بشكل حاد.
13:13
What could be going on there?
266
793539
1460
ما الذي قد يحدث هناك؟
13:14
By the way, all this is Python code, you can inspect.
267
794999
2753
وبالمناسبة، هذا كله لغة برمجة بايثون يمكنم التأكد منها.
13:17
And then we'll see word cloud.
268
797752
1459
ومن ثم سنرى سحابة كلمات.
13:19
So you can see all these wonderful things that appear in these titles.
269
799253
3378
ويمكنكم رؤية كل هذه الأشياء الرائعة التي تظهر في هذه العناوين.
13:23
But I'm pretty unhappy about this 2023 thing.
270
803090
2127
لكنني غير سعيد بسبب هذا الأمر في 2023.
13:25
It makes this year look really bad.
271
805634
1711
فهو يجعل هذه السنة تبدو جد سيئة.
13:27
Of course, the problem is that the year is not over.
272
807345
2877
وبالطبع، المشكلة هي أن السنة لم تنته بعد.
13:30
So I'm going to push back on the machine.
273
810222
2878
لذا سأتحدى الآلة.
13:33
[Waitttt that's not fair!!!
274
813142
1585
[انتظر لحظة، هذا غير عادل!!!
13:34
2023 isn't over.
275
814727
1293
لم تنته 2023.
13:38
What percentage of papers in 2022 were even posted by April 13?]
276
818481
5088
ما هي نسبة الأوراق البحثية المنشورة في 2022 قبل 13 أبريل؟]
13:44
So April 13 was the cut-off date I believe.
277
824695
2294
أعتقد أن 13 أبريل كان التاريخ النهائي.
13:47
Can you use that to make a fair projection?
278
827656
4922
[هل يمكنكم استخدام هذا الأمر لتقديم توقعات عادلة؟]
13:54
So we'll see, this is the kind of ambitious one.
279
834747
2294
وسنرى ذلك، إنها عقلية طموحة.
13:57
(Laughter)
280
837083
1126
(ضحك)
13:59
So you know,
281
839877
1251
كما تعلمون،
14:01
again, I feel like there was more I wanted out of the machine here.
282
841128
3921
مجددا، أشعر أنني أنتظر المزيد من هذه الآلة.
14:05
I really wanted it to notice this thing,
283
845049
2502
وأردت حقاً أن تلاحظ هذا الأمر،
14:07
maybe it's a little bit of an overreach for it
284
847593
3128
ربما كان ذلك تطلعًا زائدًا عن حده بالنسبة لها
14:10
to have sort of, inferred magically that this is what I wanted.
285
850763
3378
لتفهم بطريقة سحرية أن هذا ما أردته.
14:14
But I inject my intent,
286
854183
1627
لكني سأطلعها على هدفي،
14:15
I provide this additional piece of, you know, guidance.
287
855810
4754
سأقدم لها هذه الإرشادات الإضافية.
14:20
And under the hood,
288
860564
1168
ووراء الستار،
14:21
the AI is just writing code again, so if you want to inspect what it's doing,
289
861774
3629
يكتب الذكاء الاصطناعي الترميز مرة أخرى، لذا إذا أردتم ان تتفقدوا ما يفعله،
14:25
it's very possible.
290
865403
1251
فهذا ممكن جداً.
14:26
And now, it does the correct projection.
291
866654
3628
والآن، يقدم التوقع الصحيح.
14:30
(Applause)
292
870282
5005
(تصفيق)
14:35
If you noticed, it even updates the title.
293
875287
2169
وإذا لاحظتم، حتى أنه راجع العنوان.
14:37
I didn't ask for that, but it know what I want.
294
877498
2336
لم أطلب ذلك، لكنه يعلم ما أريد.
14:41
Now we'll cut back to the slide again.
295
881794
2544
الآن سنعود إلى العرض مجددا.
14:45
This slide shows a parable of how I think we ...
296
885714
4880
يُظهر هذا العرض مثالاً على طريقة تفكيري...
14:51
A vision of how we may end up using this technology in the future.
297
891220
3212
وهي رؤية حول الطريقة التي قد نستخدم بها هذه التقنية مستقبلا.
14:54
A person brought his very sick dog to the vet,
298
894849
3712
أحضر شخص كلبه المريض جدًا إلى الطبيب البيطري،
14:58
and the veterinarian made a bad call to say, “Let’s just wait and see.”
299
898561
3336
واتخذ البيطري قرارا خاطئا بقوله: “لننتظر ونرى.”
15:01
And the dog would not be here today had he listened.
300
901897
2795
ولم يكن الكلب ليكون بيننا اليوم لو استمع إليه مالكه.
15:05
In the meanwhile, he provided the blood test,
301
905401
2252
في غضون ذلك، قام بتقديم تحليل الدم،
15:07
like, the full medical records, to GPT-4,
302
907653
2586
والسجلات الطبية الكاملة لتشات جي بي تي-4،
15:10
which said, "I am not a vet, you need to talk to a professional,
303
910281
3170
والذي أخبره: “أنا لست طبيبًا بيطريًا، عليك التحدث إلى متخصص،
15:13
here are some hypotheses."
304
913492
1710
إليك بعض الفرضيات.“
15:15
He brought that information to a second vet
305
915786
2127
وقدم هذه المعلومات لبيطري آخر
15:17
who used it to save the dog's life.
306
917913
1835
فاستخدمها لإنقاذ حياة الكلب.
15:21
Now, these systems, they're not perfect.
307
921292
2252
هذه الأنظمة ليست مثالية.
15:23
You cannot overly rely on them.
308
923544
2336
ولا يمكن الاعتماد عليها بشكل كبير.
15:25
But this story, I think, shows
309
925880
3712
لكن، أظن، أن هذه القصة تبين
15:29
that a human with a medical professional
310
929592
3044
أن الإنسان بمساعدة طبيب متخصص
15:32
and with ChatGPT as a brainstorming partner
311
932678
2461
وتشات جي بي تي كشريك لتبادل الأفكار
15:35
was able to achieve an outcome that would not have happened otherwise.
312
935181
3295
تمكن من تحقيق نتائج لم يكن ليحققها بطريقة أخرى.
15:38
I think this is something we should all reflect on,
313
938476
2419
أعتقد أنه أمر يستدعي أن نفكر فيه جميعا،
15:40
think about as we consider how to integrate these systems
314
940895
2711
أن نفكر فيه بطريقة لدمج هذه النظم
15:43
into our world.
315
943606
1167
في عالمنا.
15:44
And one thing I believe really deeply,
316
944815
1835
وهناك أمر واحد أؤمن به بقوة،
15:46
is that getting AI right is going to require participation from everyone.
317
946650
4338
وهو تقديم الذكاء الاصطناعي بالشكل الصحيح يتطلب مشاركة الجميع.
15:50
And that's for deciding how we want it to slot in,
318
950988
2377
وذلك لتحديد الطريقة التي سندمجه بها في حياتنا،
15:53
that's for setting the rules of the road,
319
953365
1961
والقواعد التي سنسير عليها،
15:55
for what an AI will and won't do.
320
955367
2044
فيما يمكن للذكاء الاصطناعي فعله أو لا.
15:57
And if there's one thing to take away from this talk,
321
957453
2502
وإذا كان هناك شيء واحد يمكن استخلاصه من هذه المحادثة،
15:59
it's that this technology just looks different.
322
959997
2211
هو أن هذه التقنية تبدو مختلفة تمامًا.
16:02
Just different from anything people had anticipated.
323
962208
2502
مختلفة تمامًا عن أي شيء توقعه الناس.
16:04
And so we all have to become literate.
324
964710
1835
لذا، علينا جميعًا أن نتعرف عليها.
16:06
And that's, honestly, one of the reasons we released ChatGPT.
325
966587
2961
وهذا، بصراحة، أحد الأسباب التي دفعتنا لإصدار تشات جي بي تي.
16:09
Together, I believe that we can achieve the OpenAI mission
326
969548
3128
أعتقد أنه بالتعاون، يمكننا تحقيق مهمة أوبن أيه آي
16:12
of ensuring that artificial general intelligence
327
972718
2252
في ضمان استفادة جميع البشر
16:14
benefits all of humanity.
328
974970
1877
من الذكاء الاصطناعي.
16:16
Thank you.
329
976847
1168
شكراً جزيلاً لكم.
16:18
(Applause)
330
978057
6965
(تصفيق)
16:33
(Applause ends)
331
993322
1168
(ينتهي التصفيق)
16:34
Chris Anderson: Greg.
332
994532
1334
كريس أندرسون: كريغ.
16:36
Wow.
333
996242
1167
يا للروعة
16:37
I mean ...
334
997868
1126
أعني...
16:39
I suspect that within every mind out here
335
999662
3753
أعتقد أن كل واحد حاضر هنا
16:43
there's a feeling of reeling.
336
1003457
2503
تزعزت لديه بعض التصورات.
16:46
Like, I suspect that a very large number of people viewing this,
337
1006001
3379
وأعتقد أن العديد من الناس يشاهدون هذا،
16:49
you look at that and you think, “Oh my goodness,
338
1009421
2419
تنظرون إلى هذا وتتساءلون، “يا إلهي،
16:51
pretty much every single thing about the way I work, I need to rethink."
339
1011882
3462
يجب عليا إعادة التفكير في كل شيء حول طريقة عملي.”
16:55
Like, there's just new possibilities there.
340
1015386
2002
هناك إمكانيات جديدة.
16:57
Am I right?
341
1017388
1168
هل أنا محق؟
16:58
Who thinks that they're having to rethink the way that we do things?
342
1018597
3337
من يعتقد بأنه عليه إعادة التفكير في طريقة فعله للأشياء؟
17:01
Yeah, I mean, it's amazing,
343
1021976
1543
نعم، أقصد، هذا مدهش،
17:03
but it's also really scary.
344
1023561
2002
لكنه جد مخيف أيضا.
17:05
So let's talk, Greg, let's talk.
345
1025604
1585
لذا دعونا نتحدث مع كريغ.
17:08
I mean, I guess my first question actually is just
346
1028524
2377
أقصد، أعتقد أن أول سؤال سأطرح عليك هو،
17:10
how the hell have you done this?
347
1030901
1585
بالله عليك كيف فعلت هذا؟
17:12
(Laughter)
348
1032486
1251
(ضحك)
17:13
OpenAI has a few hundred employees.
349
1033737
2962
توظف أوبن إي آي بضع مئات من الموظفين.
17:16
Google has thousands of employees working on artificial intelligence.
350
1036740
4755
يعمل الآلاف في غوغل على الذكاء الاصطناعي.
17:21
Why is it you who's come up with this technology
351
1041996
3503
لما كنت أنت من جاء بهذه التقنية
17:25
that shocked the world?
352
1045541
1168
التي صدمة العالم؟
17:26
Greg Brockman: I mean, the truth is,
353
1046709
1751
كريغ بروكمان: الحقيقة،
17:28
we're all building on shoulders of giants, right, there's no question.
354
1048502
3295
جميعنا يكمل مسيرة الشركات الضخمة، أليس كذلك، هذا لا يناقش.
17:31
If you look at the compute progress,
355
1051797
1752
إذا نظرتم للتقدم المحرز في الحوسبة
17:33
the algorithmic progress, the data progress,
356
1053549
2085
والخوارزميات والبيانات،
17:35
all of those are really industry-wide.
357
1055634
1835
لقد انتشرت جميعا على نطاق واسع.
17:37
But I think within OpenAI,
358
1057469
1252
لكن أعتقد أننا في شركتنا،
17:38
we made a lot of very deliberate choices from the early days.
359
1058762
2878
قمنا بالكثير من الاختيارات المقصودة منذ الأيام الأولى.
17:41
And the first one was just to confront reality as it lays.
360
1061640
2711
وأول اختيار كان مواجهة الواقع كما هو.
17:44
And that we just thought really hard about like:
361
1064393
2294
وقد فكرنا في أسئلة من قبيل:
17:46
What is it going to take to make progress here?
362
1066687
2210
ما الذي يجب فعله لإحراز التقدم؟
17:48
We tried a lot of things that didn't work, so you only see the things that did.
363
1068939
3754
لقد جربنا أمورا كثيرا لم تنجح، لذا ركزنا على تلك التي نجحت قفط.
17:52
And I think that the most important thing has been to get teams of people
364
1072693
3462
وأعتقد أن أهم شيء هو إنشاء فرق عمل من أشخاص
17:56
who are very different from each other to work together harmoniously.
365
1076196
3254
يختلفون عن بعضهم للعمل معا بانسجام.
17:59
CA: Can we have the water, by the way, just brought here?
366
1079450
2711
كريس: هلا أحضرتم لنا بعض الماء، يمكنكم وضعه هنا فقط؟
18:02
I think we're going to need it, it's a dry-mouth topic.
367
1082202
3170
أعتقد أننا سنحتاجه، فهذا موضوع سيجفف حلقنا.
18:06
But isn't there something also just about the fact
368
1086665
2795
لكن أليس هناك شيء ما يتعلق أيضا بحقيقة
18:09
that you saw something in these language models
369
1089501
4755
أنك رأيت شيء ما في نماذج اللغة هذه
18:14
that meant that if you continue to invest in them and grow them,
370
1094256
3921
أوحى لك بمواصلة الاستثمار فيها وتنميتها،
18:18
that something at some point might emerge?
371
1098218
3129
لأنه في نهاية المطاف سيظهر أمر ما؟
18:21
GB: Yes.
372
1101847
1126
كريغ: نعم.
18:23
And I think that, I mean, honestly,
373
1103015
2836
أعتقد بكل صراحة
18:25
I think the story there is pretty illustrative, right?
374
1105893
2544
أنها قصة معبرة للغاية، أليست كذلك؟
18:28
I think that high level, deep learning,
375
1108437
2002
أعتقد أن التعلم العميق من المستوى العالي،
18:30
like we always knew that was what we wanted to be,
376
1110481
2335
لقد عرفنا دائماً أن هذا ما نصبو إليه،
18:32
was a deep learning lab, and exactly how to do it?
377
1112858
2419
هو مختبر للتعلم العميق، وطريقة دقيقة لتنفيذه؟
18:35
I think that in the early days, we didn't know.
378
1115277
2211
أعتقد أننا لم نعلم ذلك في البداية.
18:37
We tried a lot of things,
379
1117529
1210
لقد جربنا أموراً كثيرة،
18:38
and one person was working on training a model
380
1118739
2336
ونجح شخص كان يعمل على نمودج تدريبي
18:41
to predict the next character in Amazon reviews,
381
1121075
2877
لتوقع الحرف التالي في تعليقات أمازون،
18:43
and he got a result where -- this is a syntactic process,
382
1123994
4755
فحصل على نتيجة --هذه عملية تركيبية،
18:48
you expect, you know, the model will predict where the commas go,
383
1128749
3086
أنت تتوقع أن النموذج سيتوقع مكان الفواصل في الجملة،
18:51
where the nouns and verbs are.
384
1131835
1627
ومكان الأسماء والأفعال فيها.
18:53
But he actually got a state-of-the-art sentiment analysis classifier out of it.
385
1133504
4337
لكنه حصل في الواقع على برنامج مدهش لتحليل المشاعر.
18:57
This model could tell you if a review was positive or negative.
386
1137883
2961
يستطيع هذا النموذج أن يخبركم إذا كان التعليق إيجابيا أو سلبيا.
19:00
I mean, today we are just like, come on, anyone can do that.
387
1140886
3378
أقصد أننا نعتقد اليوم بأن الجميع بإمكانه فعل ذلك.
19:04
But this was the first time that you saw this emergence,
388
1144306
3087
لكن كانت هذه أول مرة ترون فيها هذا الانبثاق،
19:07
this sort of semantics that emerged from this underlying syntactic process.
389
1147434
5005
هذا النوع من الدلالات اللفظية المنبثقة من هذه العملية التركيبية الأساسية.
19:12
And there we knew, you've got to scale this thing,
390
1152481
2336
لندرك بعدها، بأنه يجب توسيع نطاق هذا الأمر،
19:14
you've got to see where it goes.
391
1154858
1544
ونستشرف الطريق أمامنا.
19:16
CA: So I think this helps explain
392
1156402
1626
كريس: أعتقد أن هذا يساعد في تفسير
19:18
the riddle that baffles everyone looking at this,
393
1158028
2544
الأحجية المحيرة لكل من يشاهد هذا،
19:20
because these things are described as prediction machines.
394
1160572
2753
لأن هذه الأمور توصف كآلات تنبؤ.
19:23
And yet, what we're seeing out of them feels ...
395
1163367
2669
ومع ذلك، فإن ما نراه منها يبدو...
19:26
it just feels impossible that that could come from a prediction machine.
396
1166036
3420
يبدو من المستحيل أن يصدر عن آلة تنبؤ.
19:29
Just the stuff you showed us just now.
397
1169456
2378
بالنسبة لما عرضته علينا للتو.
19:31
And the key idea of emergence is that when you get more of a thing,
398
1171875
3838
والفكرة الرئيسية للانبثاق هو ما تحصلون عليه من شيء ما،
19:35
suddenly different things emerge.
399
1175754
1585
فتظهر فجأة أمور مختلفة.
19:37
It happens all the time, ant colonies, single ants run around,
400
1177339
3045
هذا يحدث طوال الوقت، فمن نملة واحدة دائمة الحركة،
19:40
when you bring enough of them together,
401
1180384
1877
ستحصل بعد تجميع ما يكفي منها معا،
19:42
you get these ant colonies that show completely emergent, different behavior.
402
1182302
3629
على تلك المستعمرات التي يظهر فيها سلوك مختلف تماما.
19:45
Or a city where a few houses together, it's just houses together.
403
1185973
3086
أو مدينة حيث بضع منازل مجتمعة، هي مجرد منازل مجتمعة.
19:49
But as you grow the number of houses,
404
1189059
1794
لكن بازدياد عددها،
19:50
things emerge, like suburbs and cultural centers and traffic jams.
405
1190894
4588
تبدأ بعض الأمور بالظهور، كالضواحي والمراكز الثقافية والاختناق المروري.
19:57
Give me one moment for you when you saw just something pop
406
1197276
3211
أخبرني قليلا عنك عندما رأيت شيء ما يخرج للوجود
20:00
that just blew your mind
407
1200529
1668
أذهلك
20:02
that you just did not see coming.
408
1202197
1627
لم تتوقع حدوثه.
20:03
GB: Yeah, well,
409
1203824
1209
كريغ: نعم، حسنا،
20:05
so you can try this in ChatGPT, if you add 40-digit numbers --
410
1205075
3462
يمكنك محاولة هذا في تشات جي بي تي، إذا أضفت 40 رقما --
20:08
CA: 40-digit?
411
1208537
1168
كريس: 40 رقما؟
20:09
GB: 40-digit numbers, the model will do it,
412
1209705
2169
كريغ: 40 رقما، فإن النموذج سيفعل ذلك،
20:11
which means it's really learned an internal circuit for how to do it.
413
1211915
3254
مما يعني أنه يتعلم فعلا مسارا داخليا لكيفية القيام بذلك.
20:15
And the really interesting thing is actually,
414
1215210
2127
والأمر المثير للاهتمام في الواقع
20:17
if you have it add like a 40-digit number plus a 35-digit number,
415
1217337
3212
هو أنه إذا أضفتم مثلا 40 رقما على 35 رقما،
20:20
it'll often get it wrong.
416
1220591
1710
فإنه سيخطئ في العادة.
20:22
And so you can see that it's really learning the process,
417
1222676
2795
وبالتالي يمكنكم ملاحظة أنه يتعلم حقا العملية،
20:25
but it hasn't fully generalized, right?
418
1225471
1876
لكنه لا يعممها بالكامل، صحيح؟
20:27
It's like you can't memorize the 40-digit addition table,
419
1227389
2711
إنه كعدم قدرتكم على تذكر جدول جمع العدد 40،
20:30
that's more atoms than there are in the universe.
420
1230100
2294
هذه ذرات أكثر مما يوجد في الكون.
20:32
So it had to have learned something general,
421
1232394
2086
وبالتالي، فلابد من أنه تعلم شيئا ما عام،
20:34
but that it hasn't really fully yet learned that,
422
1234480
2377
لكنه لم يتعلم ذلك بالكامل بعد،
20:36
Oh, I can sort of generalize this to adding arbitrary numbers
423
1236899
2961
ويمكنني تعميم هذا بإضافة أعداد عشوائية
20:39
of arbitrary lengths.
424
1239902
1167
بأطوال عشوائية.
20:41
CA: So what's happened here
425
1241111
1335
كريس: حسنا، ما حدث هنا
20:42
is that you've allowed it to scale up
426
1242488
1793
هو أنك سمحت له بتوسيع نطاقه
20:44
and look at an incredible number of pieces of text.
427
1244281
2419
والنظر إلى عدد لا يصدق من أجزاء نص.
20:46
And it is learning things
428
1246742
1209
وهو يتعلم أشياء
20:47
that you didn't know that it was going to be capable of learning.
429
1247951
3379
لم تكن تعلم بأنه سيتمكن من تعلمها.
20:51
GB Well, yeah, and it’s more nuanced, too.
430
1251371
2002
كريغ نعم، لكن الأمر أكثر تباينا أيضا.
20:53
So one science that we’re starting to really get good at
431
1253415
2878
لذا، فإن إحدى العلوم التي بدأنا نفهمها بشكل أفضل
20:56
is predicting some of these emergent capabilities.
432
1256335
2586
هو توقع بعض هذه القدرات الناشئة.
20:58
And to do that actually,
433
1258962
1335
وللقيام بذلك بالفعل،
21:00
one of the things I think is very undersung in this field
434
1260339
2711
أعقتد أن أحد الأمور التي لا تقدر بما يكفي في هذا المجال
21:03
is sort of engineering quality.
435
1263050
1501
هي هندسة الجودة.
21:04
Like, we had to rebuild our entire stack.
436
1264551
2044
لقد كان علينا بناء كل شيء.
21:06
When you think about building a rocket,
437
1266637
1877
عند تصوركم لبناء صاروخ،
21:08
every tolerance has to be incredibly tiny.
438
1268555
2211
فإن الخطأ غير مقبول.
21:10
Same is true in machine learning.
439
1270766
1626
ونفس الشيء في آلة التعلم.
21:12
You have to get every single piece of the stack engineered properly,
440
1272434
3212
يجب أن تتكامل كل قطعة مع الأخرى بشكل سليم،
21:15
and then you can start doing these predictions.
441
1275646
2210
وبعدها يمكنكم بدأ عمليات التنبؤ.
21:17
There are all these incredibly smooth scaling curves.
442
1277856
2503
هناك كل هذه المنحنيات شديدة الدقة بشكل مذهل.
21:20
They tell you something deeply fundamental about intelligence.
443
1280359
2919
والتي تخبركم بشيء أساسي عميق حول الذكاء.
21:23
If you look at our GPT-4 blog post,
444
1283320
1710
إذا قرأتم منشورنا بمدونة جي بي تي-4، يمكنكم الاطلاع على هذه المنحنيات.
21:25
you can see all of these curves in there.
445
1285030
1960
21:26
And now we're starting to be able to predict.
446
1286990
2127
وأصبح بإمكاننا حاليا التنبؤ.
21:29
So we were able to predict, for example, the performance on coding problems.
447
1289117
3713
حيث يمكننا التنبؤ، مثلا، بمستوى الفعالية حول مشاكل الترميز.
21:32
We basically look at some models
448
1292871
1585
نحن نفحص بعض النماذج
21:34
that are 10,000 times or 1,000 times smaller.
449
1294456
2461
أصغر 10.000 أو 1.000 مرة.
21:36
And so there's something about this that is actually smooth scaling,
450
1296959
3211
هناك شيء ما في هذا الأمر يسمح بتوسيع النطاق بسهولة،
21:40
even though it's still early days.
451
1300170
2044
بالرغم من أنه ما زال في البدايات.
21:42
CA: So here is, one of the big fears then,
452
1302756
2544
كريس: حسنا، هذه إحدى أكبر المخاوف،
21:45
that arises from this.
453
1305300
1252
التي تبرز من هذا الأمر.
21:46
If it’s fundamental to what’s happening here,
454
1306593
2127
إذا كان من الأساسي فيما يحدث هنا،
21:48
that as you scale up,
455
1308720
1210
أنكم كلما وسعتم النطاق،
21:49
things emerge that
456
1309930
2419
هناك أمور تبرز
21:52
you can maybe predict in some level of confidence,
457
1312349
4171
يمكنكم التنبؤ ببعض الثقة،
21:56
but it's capable of surprising you.
458
1316562
2544
لكنها قد تفاجئكم.
22:00
Why isn't there just a huge risk of something truly terrible emerging?
459
1320816
4463
ما هي المخاطرة بأن يظهر شيء فظيع؟
22:05
GB: Well, I think all of these are questions of degree
460
1325320
2545
كريغ: أعتقد بأن كل شيء يتعلق بالدرجة
22:07
and scale and timing.
461
1327865
1209
والنطاق والتوقيت.
22:09
And I think one thing people miss, too,
462
1329116
1877
وإحدى الأمور التي يغفل عنها الناس أيضا،
22:10
is sort of the integration with the world is also this incredibly emergent,
463
1330993
3587
أن الاندماج مع العالم هو أيضا انبثاق مدهش،
22:14
sort of, very powerful thing too.
464
1334621
1585
وأمر جد قوي.
22:16
And so that's one of the reasons that we think it's so important
465
1336248
3045
وهذه إحدى الأسباب التي نعتبرها مهمة
22:19
to deploy incrementally.
466
1339293
1167
للتنفيذ التدريجي.
22:20
And so I think that what we kind of see right now, if you look at this talk,
467
1340502
3629
أعتقد بأن ما تحدثنا عنه في هذه المحادثة منذ قليل
22:24
a lot of what I focus on is providing really high-quality feedback.
468
1344131
3170
وما ركزت عليه يقدم صورة إيجابية كثيرا.
22:27
Today, the tasks that we do, you can inspect them, right?
469
1347301
2711
يمكنكم اليوم مراقبة ما نقوم به، صحيح؟
22:30
It's very easy to look at that math problem and be like, no, no, no,
470
1350012
3211
يمكن بكل سهولة فحص هذه المسألة الرياضية وتقول للآلة لا، لا، لا،
22:33
machine, seven was the correct answer.
471
1353265
1835
سبعة هي الإجابة الصحيحة.
22:35
But even summarizing a book, like, that's a hard thing to supervise.
472
1355100
3212
لكن سيكون الأمر أصعب عند تلخيص كتاب.
22:38
Like, how do you know if this book summary is any good?
473
1358312
2586
كيف ستعلم مدى جودة تلخيص هذا الكتاب؟
22:40
You have to read the whole book.
474
1360939
1543
سيكون عليك قراءة الكتاب بالكامل.
22:42
No one wants to do that.
475
1362482
1168
لا أحد يريد القيام بذلك.
22:43
(Laughter)
476
1363692
1293
(ضحك)
22:44
And so I think that the important thing will be that we take this step by step.
477
1364985
4296
وأعتقد بأن أهم شيء سيكون هو التقدم خطوة تلو الأخرى.
22:49
And that we say, OK, as we move on to book summaries,
478
1369323
2544
وبالتالي سنقوم، خلال تقدمنا في عملية تلخيص الكتاب،
22:51
we have to supervise this task properly.
479
1371867
1960
بمراقبة هذه المهمة بشكل سليم.
22:53
We have to build up a track record with these machines
480
1373827
2586
علينا الاحتفاظ بأثر مسجل لما تقوم به الآلات
22:56
that they're able to actually carry out our intent.
481
1376413
2586
للتحقق من قدرتها على تحقيق أهدافنا.
22:59
And I think we're going to have to produce even better, more efficient,
482
1379041
3336
وأعتقد بأنه علينا إيجاد طرق أفضل وأكثر فعالية،
23:02
more reliable ways of scaling this,
483
1382419
1710
ومصداقية لتوسيع نطاق هذا الأمر،
23:04
sort of like making the machine be aligned with you.
484
1384129
2878
كجعل الآلة تتوافق معكم.
23:07
CA: So we're going to hear later in this session,
485
1387049
2294
كريس: سنستمع لاحقا في هذه الجلسة،
23:09
there are critics who say that,
486
1389343
1543
هناك منتقدين يقولون بأن
23:10
you know, there's no real understanding inside,
487
1390928
4587
التلخيص لا يتضمن فهم حقيقي،
23:15
the system is going to always --
488
1395557
1627
سيقوم النظام دائما --
23:17
we're never going to know that it's not generating errors,
489
1397225
3212
لن نعرف أبدا ما إذا كانت الآلة تنتج أخطاء،
23:20
that it doesn't have common sense and so forth.
490
1400479
2210
وأنها لا تملك حساً سليما وما إلى ذلك.
23:22
Is it your belief, Greg, that it is true at any one moment,
491
1402689
4088
كريغ، هل أمنت في وقت ما،
23:26
but that the expansion of the scale and the human feedback
492
1406818
3629
أن توسيع النطاق والملاحظات البشرية
23:30
that you talked about is basically going to take it on that journey
493
1410489
4963
التي ذكرتها ستأخذ الأمر في هذا المسار
23:35
of actually getting to things like truth and wisdom and so forth,
494
1415494
3837
للحصول فعلياً على أشياء كالحقيقة والحكمة وغير ذلك،
23:39
with a high degree of confidence.
495
1419331
1627
بمستوى عال من الثقة.
23:40
Can you be sure of that?
496
1420999
1335
هل يمكنك التأكد من ذلك؟
23:42
GB: Yeah, well, I think that the OpenAI, I mean, the short answer is yes,
497
1422334
3462
كريغ: الجواب المختصر هو نعم،
23:45
I believe that is where we're headed.
498
1425796
1793
أعتقد بأن هذه هي وجهتنا.
23:47
And I think that the OpenAI approach here has always been just like,
499
1427631
3211
وأعتقد بأن منهجية أوبن أي آي كانت دائما
23:50
let reality hit you in the face, right?
500
1430842
1877
هي دع الواقع يصدمك، أليس كذلك؟
23:52
It's like this field is the field of broken promises,
501
1432719
2503
وكأنه مجال للوعود الكاذبة،
23:55
of all these experts saying X is going to happen, Y is how it works.
502
1435263
3212
لخبراء يتوقعون حدوث أمر ما وتفسير كيفية عمل آخر.
23:58
People have been saying neural nets aren't going to work for 70 years.
503
1438475
3337
البعض يقول منذ 70 سنة بأن الشبكات العصبونية لن تنجح.
24:01
They haven't been right yet.
504
1441812
1376
وهذا صحيح.
24:03
They might be right maybe 70 years plus one
505
1443188
2044
ربما هم على حق وربما تحتاج لسنة أو أكثر بعد 70 سنة.
24:05
or something like that is what you need.
506
1445232
1918
24:07
But I think that our approach has always been,
507
1447192
2169
لكن أعتقد بأن منهجيتنا كانت دائما،
24:09
you've got to push to the limits of this technology
508
1449361
2419
دفع قدرات هذه التقنية إلى أقصى حد ممكن
24:11
to really see it in action,
509
1451822
1293
للوقوف بحق على إمكانياتها،
24:13
because that tells you then, oh, here's how we can move on to a new paradigm.
510
1453115
3670
لأن هذا ما سيجعلكم تدركون بأنه عليكم الانتقال إلى نموذج جديد.
24:16
And we just haven't exhausted the fruit here.
511
1456785
2127
ونحن لم نستنفد كل الإمكانيات بعد.
24:18
CA: I mean, it's quite a controversial stance you've taken,
512
1458954
2794
كريس: أنت تتخذ موقفا مثيرا للجدل،
24:21
that the right way to do this is to put it out there in public
513
1461748
2920
باعتبارك أن الطريقة الصحيحة هي إتاحة هذه التقنية للعموم
24:24
and then harness all this, you know,
514
1464710
1751
وبعدها الاستفادة من كل ذلك،
24:26
instead of just your team giving feedback,
515
1466461
2002
فبدلا من الاكتفاء بملاحظات فريق عملك،
24:28
the world is now giving feedback.
516
1468463
2461
العالم كله يقدم ملاحظاته الآن.
24:30
But ...
517
1470924
1168
ولكن...
24:33
If, you know, bad things are going to emerge,
518
1473135
3753
كما تعلم، ستظهر أمور سيئة،
24:36
it is out there.
519
1476930
1168
إنها هناك بالخارج.
24:38
So, you know, the original story that I heard on OpenAI
520
1478140
2919
كما تعلم، القصة الأصلية التي سمعت عن شركة أوبن أي آي
24:41
when you were founded as a nonprofit,
521
1481101
1793
أنها أنشئت كمنظمة غير ربحية،
24:42
well you were there as the great sort of check on the big companies
522
1482894
4463
حسنا، لقد كنت هناك لمراقبة الشركات الكبيرة
24:47
doing their unknown, possibly evil thing with AI.
523
1487399
3837
وهي تستخدم الذكاء الاصطناعي بأعمالها غير المعروفة وربما الشريرة.
24:51
And you were going to build models that sort of, you know,
524
1491278
4755
وأنك ستنشئ نماذج ستجعلها
24:56
somehow held them accountable
525
1496033
1418
على نحو ما مسؤولة
24:57
and was capable of slowing the field down, if need be.
526
1497492
4380
وقادر على تبطيء سرعة هذا المجال، عند الاقتضاء.
25:01
Or at least that's kind of what I heard.
527
1501872
1960
أو على الأقل هذا ما سمعت.
25:03
And yet, what's happened, arguably, is the opposite.
528
1503832
2461
ولكن يمكن القول أن ما حدث هو العكس.
25:06
That your release of GPT, especially ChatGPT,
529
1506334
5673
أن إصداركم جي بي تي، وخاصة تشات جي بي تي،
25:12
sent such shockwaves through the tech world
530
1512049
2002
تسبب في صدمات هزت عالم التقنية
25:14
that now Google and Meta and so forth are all scrambling to catch up.
531
1514051
3795
حيث أن غوغل وميتا وغيرها الآن تتسابق للحاق بالركب.
25:17
And some of their criticisms have been,
532
1517888
2085
وتقول في بعض انتقاداتها،
25:20
you are forcing us to put this out here without proper guardrails or we die.
533
1520015
4963
أنكم تجبروننا على إتاحة هذه التقنية دون توفيرالحماية المناسبة أو سنموت.
25:25
You know, how do you, like,
534
1525020
2794
كيف تريدون إثبات
25:27
make the case that what you have done is responsible here and not reckless.
535
1527814
3754
أن ما قمتم به هو أمر مسؤول وغير متهور.
25:31
GB: Yeah, we think about these questions all the time.
536
1531568
3128
كريغ: نعم، نفكر في هذا الأمر طوال الوقت.
25:34
Like, seriously all the time.
537
1534738
1418
حرفيا طوال الوقت.
25:36
And I don't think we're always going to get it right.
538
1536198
2711
ولا أعتقد بأننا سنحسن الفعل في كل شيء.
25:38
But one thing I think has been incredibly important,
539
1538909
2460
ولكن أعتقد أنه كان هناك أمر واحد من الأهمية بما كان،
25:41
from the very beginning, when we were thinking
540
1541411
2169
منذ البداية، عندما كنا في مرحلة التفكير
25:43
about how to build artificial general intelligence,
541
1543580
2419
حول كيفية بناء ذكاء اصطناعي عام،
25:45
actually have it benefit all of humanity,
542
1545999
2002
سيفيد كل البشرية،
25:48
like, how are you supposed to do that, right?
543
1548001
2127
كيف يفترض بكم القيام بذلك، صحيح؟
25:50
And that default plan of being, well, you build in secret,
544
1550170
2711
أنتم، في العادة، تضعون خطة بسرية
25:52
you get this super powerful thing,
545
1552923
1626
وتحصلون على شيء قوي للغاية
25:54
and then you figure out the safety of it and then you push “go,”
546
1554549
3003
وبعدها تحددون آليات حماياتها ومن ثم تضغطون على زر “أطلق،”
25:57
and you hope you got it right.
547
1557552
1460
وتتمنون أنكم قمتم بما يجب.
25:59
I don't know how to execute that plan.
548
1559012
1835
أنا لا أعرف كيف أنفذ هذه الخطة.
26:00
Maybe someone else does.
549
1560889
1168
ربما يفعل ذلك شخص آخر.
26:02
But for me, that was always terrifying, it didn't feel right.
550
1562099
2877
لكن بالنسبة لي، كان ذلك مرعبا دائما، لم يبدو الأمر صائبا.
26:04
And so I think that this alternative approach
551
1564976
2128
ولذا أعتقد بأن هذه المنهاجية البديلة
26:07
is the only other path that I see,
552
1567104
2043
هي الطريق الأخر الوحيد الذي أراه أمامي،
26:09
which is that you do let reality hit you in the face.
553
1569147
2503
وهو دع الواقع يصدمك.
26:11
And I think you do give people time to give input.
554
1571691
2336
وأعتقد بأنه يجب إتاحة الوقت للناس لتقديم مساهمتهم.
26:14
You do have, before these machines are perfect,
555
1574027
2211
يجب علينا، قبل أن تصبح هذه الآلات مثالية
26:16
before they are super powerful, that you actually have the ability
556
1576279
3128
وقبل أن تصبح قوية للغاية، أن تكون لديكم القدرة على
26:19
to see them in action.
557
1579407
1168
مشاهدتها خلال عملها.
26:20
And we've seen it from GPT-3, right?
558
1580617
1752
ولقد شاهدناه منذ جي بي تي-3، صحيح؟
26:22
GPT-3, we really were afraid
559
1582369
1376
مع جي بي تي-3، كنا جد مرعوبين من أن أول شيء سيقوم به الناس
26:23
that the number one thing people were going to do with it
560
1583745
2711
26:26
was generate misinformation, try to tip elections.
561
1586456
2336
هو توليد معلومات خاطئة للتأثير على الانتخابات.
26:28
Instead, the number one thing was generating Viagra spam.
562
1588834
2711
ولكن أول ما تم توليده هو البريد المزعج للفياغرا.
26:31
(Laughter)
563
1591545
3169
(ضحك)
26:36
CA: So Viagra spam is bad, but there are things that are much worse.
564
1596007
3212
كريس: البريد المزعج للفياغرا هو سيء، لكن هناك أمور أسوء.
26:39
Here's a thought experiment for you.
565
1599219
1752
هذه تجربة فكرية أقدمها لك.
26:40
Suppose you're sitting in a room,
566
1600971
1710
لنفترض أنك جالس في غرفة،
26:42
there's a box on the table.
567
1602681
1668
وهناك صندوق على الطاولة.
26:44
You believe that in that box is something that,
568
1604349
3003
وتعتقد بأن الصندوق يحتوي على شيء ما
26:47
there's a very strong chance it's something absolutely glorious
569
1607394
2961
قد يكون في الغالب شيئا رائعا للغاية
26:50
that's going to give beautiful gifts to your family and to everyone.
570
1610397
3920
سيمنحك هدايا جميلة لأسرتك وللجميع.
26:54
But there's actually also a one percent thing in the small print there
571
1614359
3629
لكن هناك أيضا صوت ضعيف
26:58
that says: “Pandora.”
572
1618029
1877
يقول لك: “باندورا.”
26:59
And there's a chance
573
1619906
1669
وأن هناك احتمالية
27:01
that this actually could unleash unimaginable evils on the world.
574
1621616
4088
أنه قد يطلق شرورا لا يمكن تخيلها في العالم.
27:06
Do you open that box?
575
1626538
1543
هل ستفتح هذا الصندوق؟
27:08
GB: Well, so, absolutely not.
576
1628123
1460
كريغ: بالتأكيد لا.
27:09
I think you don't do it that way.
577
1629624
1919
لا أعتقد بأنكم تقومون بالأمر بهذا الشكل.
27:12
And honestly, like, I'll tell you a story that I haven't actually told before,
578
1632210
3796
الصراحة، سأخبرك قصة لم أخبر بها أحد من قبل،
27:16
which is that shortly after we started OpenAI,
579
1636006
2586
أتذكر بعد وقت قصير من إطلاقنا لشركة أوبن أي آي،
27:18
I remember I was in Puerto Rico for an AI conference.
580
1638592
2711
بأنني كنت في بورتو ريكو للمشاركة بمؤتمر للذكاء الاصطناعي.
27:21
I'm sitting in the hotel room just looking out over this wonderful water,
581
1641344
3462
كنت جالسا بغرفة الفندق أتأمل جمال الماء،
27:24
all these people having a good time.
582
1644806
1752
والناس تستمتع بوقتها.
27:26
And you think about it for a moment,
583
1646558
1752
فكروا في الأمر للحظة،
27:28
if you could choose for basically that Pandora’s box
584
1648310
4504
إذا كان بإمكانكم أن تختاروا بين فتح صندوق باندورا،
27:32
to be five years away
585
1652814
2711
بعد 5 سنوات
27:35
or 500 years away,
586
1655567
1585
أو 500 سنة،
27:37
which would you pick, right?
587
1657194
1501
فماذا ستختارون؟
27:38
On the one hand you're like, well, maybe for you personally,
588
1658737
2836
فأنتم من جهة، تقولون، أنه ربما بالنسبة لكم شخصيا،
27:41
it's better to have it be five years away.
589
1661573
2002
من الأفضل اختيار 5 سنوات.
27:43
But if it gets to be 500 years away and people get more time to get it right,
590
1663617
3628
لكن إذا كان الأمر يتطلب خيار 500 سنة وإعطاء الوقت للناس للقيام به بشكل صحيح،
27:47
which do you pick?
591
1667287
1168
فماذا ستختار؟
27:48
And you know, I just really felt it in the moment.
592
1668496
2336
لقد أحسست بالأمر حينها.
27:50
I was like, of course you do the 500 years.
593
1670874
2002
لقد فكرت بالطبع أن الخيار هو 500 سنة.
27:53
My brother was in the military at the time
594
1673293
2002
كان أخي يخدم في الجيش وقتها،
27:55
and like, he puts his life on the line in a much more real way
595
1675295
2961
كان يخاطر حرفيا بحياته على أرض الواقع
27:58
than any of us typing things in computers
596
1678256
2628
أكثر من أي شخص يجلس أمام الحاسوب
28:00
and developing this technology at the time.
597
1680926
2585
ويطور الذكاء الاصطناعي.
28:03
And so, yeah, I'm really sold on the you've got to approach this right.
598
1683511
4547
وبالتالي، نعم، أنا مقتنع بأنه يجب التعامل مع الأمر بالشكل الصحيح.
28:08
But I don't think that's quite playing the field as it truly lies.
599
1688058
3628
لكن لا أعتقد أن هذا يعكس الصورة الحقيقية للأمر.
28:11
Like, if you look at the whole history of computing,
600
1691686
2670
فإذا نظرتم، مثلا، إلى القصة الكاملة للحوسبة،
28:14
I really mean it when I say that this is an industry-wide
601
1694397
4463
وأنا أعني ذلك حقا عند حديثي عن تحول صناعي
28:18
or even just almost like
602
1698902
1543
أو تغير تقني
28:20
a human-development- of-technology-wide shift.
603
1700487
3336
على مستوى التنمية البشرية.
28:23
And the more that you sort of, don't put together the pieces
604
1703865
4088
وأثناء تأخرنا في جمع لقطع الأحجية
28:27
that are there, right,
605
1707994
1293
التي لدينا،
28:29
we're still making faster computers,
606
1709329
1752
نصنع حواسيب أسرع،
28:31
we're still improving the algorithms, all of these things, they are happening.
607
1711081
3670
ونحسن من الخوارزميات، وكل هذه الأمور تحدث حاليا.
28:34
And if you don't put them together, you get an overhang,
608
1714793
2627
وإذا لم نجمعها ببعضها، سنجد أنفسنا أمام الأمر الواقع،
28:37
which means that if someone does,
609
1717420
1627
ما يعني أنه إذا قام أو تمكن أحدهم من ربطها ببعضها،
28:39
or the moment that someone does manage to connect to the circuit,
610
1719089
3086
28:42
then you suddenly have this very powerful thing,
611
1722175
2252
فسيجد فجأة بين يده هذا الشيء القوي للغاية،
28:44
no one's had any time to adjust,
612
1724427
1544
لن يملك أحد الوقت للتكيف،
28:46
who knows what kind of safety precautions you get.
613
1726012
2336
ومن يدري أي نوع من الحماية ستوضع له حينها.
28:48
And so I think that one thing I take away
614
1728390
1918
لذا، الشيء الذي خلصت إليه هو،
28:50
is like, even you think about development of other sort of technologies,
615
1730308
3837
أنه إن فكرتم في تطوير تقنيات أخرى،
28:54
think about nuclear weapons,
616
1734187
1376
استحضروا الأسلحة النووية،
28:55
people talk about being like a zero to one,
617
1735563
2002
الناس يتحدثون عن كونه كالصفر بالنسبة لواحد،
28:57
sort of, change in what humans could do.
618
1737565
2628
من حيث التغيير الذي يمكن للبشر إحداثه.
29:00
But I actually think that if you look at capability,
619
1740235
2461
لكن أعتقد في الواقع أنه إذا نظرتم إلى القدرة،
29:02
it's been quite smooth over time.
620
1742696
1585
فإنها تطورت تدريجيا بمرور الوقت.
29:04
And so the history, I think, of every technology we've developed
621
1744281
3670
وبالتالي، أعتقد، أن تاريخ كل تقنية طورناها
29:07
has been, you've got to do it incrementally
622
1747993
2002
يوضح أنه كان علينا القيام بذلك تدريجيا
29:10
and you've got to figure out how to manage it
623
1750036
2127
والبحث على أنسب طريقة لإدارتها
29:12
for each moment that you're increasing it.
624
1752163
2461
في كل مرة يتم تحسينها فيها.
29:14
CA: So what I'm hearing is that you ...
625
1754666
2252
كريس: ما فهمته من كلامك هو أنك...
29:16
the model you want us to have
626
1756918
1668
النموذج الذي تريدنا أن نتبعه
29:18
is that we have birthed this extraordinary child
627
1758628
2795
هو أننا أعطينا الحياة لهذا المولود المدهش
29:21
that may have superpowers
628
1761423
2544
الذي قد يمتلك قوى خارقة
29:24
that take humanity to a whole new place.
629
1764009
2544
التي قد تحمل البشرية إلى مكان جديد.
29:26
It is our collective responsibility to provide the guardrails
630
1766594
5005
وأننا نتحمل مسؤولون جميعا على وضع الحدود
29:31
for this child
631
1771641
1210
لهذا المولود
29:32
to collectively teach it to be wise and not to tear us all down.
632
1772892
5047
لتعليمه كلنا الحكمة وألا يغرقنا جميعا.
29:37
Is that basically the model?
633
1777939
1377
هل هذا هو النمودج الأساسي؟
29:39
GB: I think it's true.
634
1779357
1168
كريغ: أعتقد أن هذا صحيح.
29:40
And I think it's also important to say this may shift, right?
635
1780567
2878
وأعتقد انه من المهم أيضا القول أن الأمر قد يتغير، صحيح؟
29:43
We've got to take each step as we encounter it.
636
1783445
3253
علينا التعامل مع الواقع خطوة بخطوة .
29:46
And I think it's incredibly important today
637
1786740
2002
وأعتقد أنه من المهم جدا اليوم
29:48
that we all do get literate in this technology,
638
1788783
2878
أن نتعلم حول هذه التقنية،
29:51
figure out how to provide the feedback,
639
1791661
1919
وفهم كيفية تقديم الملاحظات،
29:53
decide what we want from it.
640
1793621
1377
وتقرير ما الذي نريده منها.
29:54
And my hope is that that will continue to be the best path,
641
1794998
3128
وأملي أن يبقى هذا هو أفضل طريق لاتباعه،
29:58
but it's so good we're honestly having this debate
642
1798168
2377
لكن من الجيد صراحة أن نحظى بهذا النقاش
30:00
because we wouldn't otherwise if it weren't out there.
643
1800545
2628
لأنه لم نكن لنناقش الموضوع لو لم نصدر تشات جي بي تي.
30:03
CA: Greg Brockman, thank you so much for coming to TED and blowing our minds.
644
1803631
3629
كريس: كريغ بروكمان، شكرا جزيلا على حضورك معنا في تيد وإبهارنا.
30:07
(Applause)
645
1807302
1626
(تصفيق)
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7