Why AI Is Incredibly Smart and Shockingly Stupid | Yejin Choi | TED

405,313 views ・ 2023-04-28

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: Abdullah Kassar المدقّق: Hani Eldalees
00:03
So I'm excited to share a few spicy thoughts on artificial intelligence.
0
3708
6257
انني متشوقة جداً لمشاركة بعض الافكار الثورية عن الذكاء الاصظناعي.
00:10
But first, let's get philosophical
1
10799
3044
مبدئياً، دعونا نتحدث فلسفياً
00:13
by starting with this quote by Voltaire,
2
13843
2545
بدايةً بهذا الاقتباس لفولتيير،
00:16
an 18th century Enlightenment philosopher,
3
16388
2252
فيلسوف متنور في القرن الثامن عشر،
00:18
who said, "Common sense is not so common."
4
18682
2961
فقد قال: ”المنطق العام ليس منتشر بين العوام”
00:21
Turns out this quote couldn't be more relevant
5
21685
3128
ولمفاجأتنا، هذا الاقتباس متطابق تماماً
00:24
to artificial intelligence today.
6
24854
2169
لحال الذكاء الاصطناعي.
00:27
Despite that, AI is an undeniably powerful tool,
7
27065
3921
وبالرغم من ذلك، يعتبر الذكاء الاصطناعي اداة مفيدة بالتأكيد
00:31
beating the world-class "Go" champion,
8
31027
2586
متغلباً على بطل من النخبة في بطولة Go للعبة الداما،
00:33
acing college admission tests and even passing the bar exam.
9
33613
4088
ومتفوقأ في امتحان قبول الطلاب في الكلية والمحامون في النقابة.
00:38
I’m a computer scientist of 20 years,
10
38118
2461
انا عالمة حاسوب بخبرة 20 عاماً،
00:40
and I work on artificial intelligence.
11
40579
2419
واعمل في مجال الذكاء الاصطناعي.
00:43
I am here to demystify AI.
12
43039
2586
وانا هنا لأزيل الغموض عن الذكاء الاصطناعي.
00:46
So AI today is like a Goliath.
13
46626
3462
فجالوت يمثل الذكاء الاصطناعي حالياً.
00:50
It is literally very, very large.
14
50130
3003
فالذكاء الاصطناعي حرفياً ضخم جداً.
00:53
It is speculated that the recent ones are trained on tens of thousands of GPUs
15
53508
5839
فالمتوقع ان الاصدارات الحديثة تُدرب باستخدام عشرات الالاف من المعالجات
00:59
and a trillion words.
16
59389
2544
وعلى تريليون كلمة.
01:02
Such extreme-scale AI models,
17
62475
2086
نموذج ضخم كهذا،
01:04
often referred to as "large language models,"
18
64603
3128
الذي يُسمى كثيراً ب “نماذج لغوية ضخمة“،
01:07
appear to demonstrate sparks of AGI,
19
67731
3879
توضح تولع ال AGI،
01:11
artificial general intelligence.
20
71610
2627
او الذكاء الاصطناعي بالمنطق الانساني.
01:14
Except when it makes small, silly mistakes,
21
74279
3837
إلا عندما تخطأ اخطاء صغيرة حمقاء،
01:18
which it often does.
22
78158
1585
وكثيراً ما تخطأ.
01:20
Many believe that whatever mistakes AI makes today
23
80368
3671
العديد يعتقد ان اي خطأ يرتكبه الذكاء الاصطناعي
01:24
can be easily fixed with brute force,
24
84080
2002
يمكن اصلاحه بسهولة يديوياً،
01:26
bigger scale and more resources.
25
86124
2127
او عبر التدريب على نطاق اوسع او موارد اوفر.
01:28
What possibly could go wrong?
26
88585
1960
فأين المشكلة في هذه الطريقة؟
01:32
So there are three immediate challenges we face already at the societal level.
27
92172
5130
تعترضنا 3 مشاكل فوراً على النطاق المجتمعي.
01:37
First, extreme-scale AI models are so expensive to train,
28
97886
6173
الاولى هي الكلفة العالية لتدريب الذكاء الاصطناعي ذو النطاق الكبير
01:44
and only a few tech companies can afford to do so.
29
104059
3461
والشركات القادرة على نفقة كبيرة كهذه نادرة.
01:48
So we already see the concentration of power.
30
108104
3796
وبدأنا نرى ميل موازين المنافسة لهذه الشركات.
01:52
But what's worse for AI safety,
31
112817
2503
ولكن الاسوء من ذلك في مجال الذكاء الاصطناعي.
01:55
we are now at the mercy of those few tech companies
32
115320
3795
اننا الان تحت رحمة تلك الشركات القليلة
01:59
because researchers in the larger community
33
119115
3796
لأن الباحثون في المجال الاكبر
02:02
do not have the means to truly inspect and dissect these models.
34
122952
4755
لا يملكون القدرات اللازمة لفحص ودراسة هذه النماذج بشكل دقيق.
02:08
And let's not forget their massive carbon footprint
35
128416
3837
لا سيما الانبعاثات الكربونية الضخمة منها
02:12
and the environmental impact.
36
132295
1919
والبصمة البيئية.
02:14
And then there are these additional intellectual questions.
37
134881
3253
وهنا تنبثق اسئلة منطقية اضافية
02:18
Can AI, without robust common sense, be truly safe for humanity?
38
138176
5214
كهل يهدد الذكاء الاصطناعي امان البشر حتى دون المنطق البسيط؟
02:24
And is brute-force scale really the only way
39
144307
4463
وهل تذريب الذكاء الاصطناعي يدوياً هي الطريقة الصحيحة؟
02:28
and even the correct way to teach AI?
40
148812
2919
02:32
So I’m often asked these days
41
152232
1668
وكثيراً ما أُسأل حالياً
02:33
whether it's even feasible to do any meaningful research
42
153900
2628
عن امكانية القيام باي ودراسة ذو قيمة عن الموضوع
02:36
without extreme-scale compute.
43
156569
1961
دون احصاء دقيق.
02:38
And I work at a university and nonprofit research institute,
44
158530
3795
فأنا ادرس في جامعة واعمل في مؤسسة غير هادفة للربح،
02:42
so I cannot afford a massive GPU farm to create enormous language models.
45
162367
5630
وما زلت لا استطيع بناء محطة تدريب ضخمة بمعالجات متقدمة.
02:48
Nevertheless, I believe that there's so much we need to do
46
168707
4462
وبالرغم من ذلك، اعتقد ان علينا وبأمكاننا فعل الكثير
02:53
and can do to make AI sustainable and humanistic.
47
173211
4004
لأضفاء اللمسة الانسانية والاستدامة الى الذكاء الاصطناعي
02:57
We need to make AI smaller, to democratize it.
48
177799
3378
يجب علينا ان نقلّم حجمه ونجعله متاح للجميع.
03:01
And we need to make AI safer by teaching human norms and values.
49
181177
4255
وينبغي ايضاً جعل الذكاء الاصطناعي آمن عبر توعية البشر وغرس القيم بهم.
03:06
Perhaps we can draw an analogy from "David and Goliath,"
50
186683
4713
يمكننا تشبيه الامر بقصة داود وجالوت،
03:11
here, Goliath being the extreme-scale language models,
51
191438
4587
هنا، جالوت يمثل النماذج اللغوية الضخمة
03:16
and seek inspiration from an old-time classic, "The Art of War,"
52
196067
5089
ونستلهم من الكتاب العريق “فن الحرب”
03:21
which tells us, in my interpretation,
53
201156
2419
الذي يعلمنا، بناء على ما فهمته
03:23
know your enemy, choose your battles, and innovate your weapons.
54
203575
4129
ان عليك ان تعرف عدوك، ثم تختار معركتك وتبدع الاسلحة المناسبة لكليهما.
03:28
Let's start with the first, know your enemy,
55
208163
2669
لنبدأ بفهم مقولة، اعرف عدوك
03:30
which means we need to evaluate AI with scrutiny.
56
210874
4129
التي تعني في سياقنا ان علينا تقييم الذكاء الاصطناعي بدقة
03:35
AI is passing the bar exam.
57
215044
2169
لأن يمكن للذكاء الاصطناعي ان يجتاز اختبار القبول بالنقابة.
03:38
Does that mean that AI is robust at common sense?
58
218089
3212
هل هذا يعني الى تمتع الذكاء الاصطناعي بالمنطق السليم؟
03:41
You might assume so, but you never know.
59
221342
2795
قد تعتقد كذلك، لكن لن نعرف ابداً.
03:44
So suppose I left five clothes to dry out in the sun,
60
224429
4129
لنفرض اني تركت خمس ملابس تحت الشمس
03:48
and it took them five hours to dry completely.
61
228600
3003
واستغرق الامر خمس ساعات لينشفوا تماماً.
03:51
How long would it take to dry 30 clothes?
62
231644
3379
كم سيأخذ 30 لباس لينشف؟
03:55
GPT-4, the newest, greatest AI system says 30 hours.
63
235315
4337
GPT-4، احدث واكبر نظام ذكاء اصطناعي يخطأ ويجاوب 30 ساعة.
03:59
Not good.
64
239694
1502
ليس بالامر الجيد قطعاً
04:01
A different one.
65
241196
1167
مثال اخر.
04:02
I have 12-liter jug and six-liter jug,
66
242405
2294
لدي ابريق يسع 12 ليتر واخر 6 ليتر
04:04
and I want to measure six liters.
67
244741
1626
واريد ان اقيس 6 ليترات من سائل
04:06
How do I do it?
68
246367
1252
كيف يمكنني فعل ذلك؟
04:07
Just use the six liter jug, right?
69
247660
2002
ببساطة استخدم الابريق ذا الستة ليترات، اليس كذلك؟
04:09
GPT-4 spits out some very elaborate nonsense.
70
249996
3754
GPT-4 يتفوه بكلام غير منطقي بتفاصيل عميقة
04:13
(Laughter)
71
253792
2919
(ضحك)
04:17
Step one, fill the six-liter jug,
72
257212
2252
الخطوة الاولى، املئ الابريق ذا الستة ليترات،
04:19
step two, pour the water from six to 12-liter jug,
73
259506
3044
ثانياً، اسكب المياه من الابريق ذي الستة الى 12 ليترات
04:22
step three, fill the six-liter jug again,
74
262550
3087
ثالثاً، املأ الابريق ذا الستة مرة اخرى،
04:25
step four, very carefully, pour the water from six to 12-liter jug.
75
265637
4421
رابعاً، بهدوء اسكب الماء من الابريق ذي الستة ليترات الى ذي الاثني عشر ليتراً
04:30
And finally you have six liters of water in the six-liter jug
76
270099
4839
واخيراً ستحصل على ستة ليترات في الابريق ذي الستة ليترات
04:34
that should be empty by now.
77
274979
1460
الذي منطقياً يجب ان يكون فارغا
04:36
(Laughter)
78
276439
1377
(ضحك)
04:37
OK, one more.
79
277857
1126
حسناً، مثال اخير
04:39
Would I get a flat tire by bicycling over a bridge
80
279567
4088
هل سينعطب دولاب الدراجة ان سرنا فوق جسر
04:43
that is suspended over nails, screws and broken glass?
81
283696
4630
معلق فوق مسامسير وبراغي وزجاج منكسر؟
04:48
Yes, highly likely, GPT-4 says,
82
288368
3086
سيجاوب GPT-4 بنعم،
04:51
presumably because it cannot correctly reason
83
291454
2378
افترضُ ان السبب هو انه لا يستطيع ان يفهم
04:53
that if a bridge is suspended over the broken nails and broken glass,
84
293873
4296
أن إن كان الجسر معلق فوق مسامير وزجاج محطم
04:58
then the surface of the bridge doesn't touch the sharp objects directly.
85
298211
4129
ان هذا لا يعني ان سطح الجسر يلامس القطع الحادة
05:02
OK, so how would you feel about an AI lawyer that aced the bar exam
86
302340
6089
ما رأيك ان الذكاء الاصطناعي الذي اجتاز اختبار القبول بنقابة المحاماة
05:08
yet randomly fails at such basic common sense?
87
308429
3546
لا يستطيع فهم امور بسيطة كهذه؟
05:12
AI today is unbelievably intelligent and then shockingly stupid.
88
312767
6131
الذكاء الاصطناعي حالياً ذكيٌ بشكل لا يصدق ولكن غبيٌ بشكل مفاجئ
05:18
(Laughter)
89
318898
1418
(ضحك)
05:20
It is an unavoidable side effect of teaching AI through brute-force scale.
90
320316
5673
انه الاثر المحتم من تدريب الذكاء الاصطناعي يدوياً
05:26
Some scale optimists might say, “Don’t worry about this.
91
326447
3170
بعض المتفائلون بتدريب الذكاء الاطناعي اكثر يقولون : لا تقلقوا من هذا
05:29
All of these can be easily fixed by adding similar examples
92
329659
3962
جميع هذه المشكلات يمكن ان تحل عبر تدريب الذكاء الاصطناعي على اسئلة مشابهة
05:33
as yet more training data for AI."
93
333663
2753
اي بيانات اكثر لتدريب الذكاء الاصطناعي.
05:36
But the real question is this.
94
336916
2044
لكن التساؤل الاهم هو
05:39
Why should we even do that?
95
339460
1377
لما يجب ان نقوم بذلك اصلاً؟
05:40
You are able to get the correct answers right away
96
340879
2836
انت كانسان يمكنك الاجابة فوراً
05:43
without having to train yourself with similar examples.
97
343715
3295
دون تذريب نفسك على اسئلة مشابهة.
05:48
Children do not even read a trillion words
98
348136
3378
والاطفال لم يقرؤو تريليون كلمة
05:51
to acquire such a basic level of common sense.
99
351556
3420
ليكتسبوا المنطق والتفكير السليم
05:54
So this observation leads us to the next wisdom,
100
354976
3170
اذا هذه الملاحظة توصلنا الى حكمتنا التالية
05:58
choose your battles.
101
358146
1710
اختر معاركك بتمعن.
06:00
So what fundamental questions should we ask right now
102
360148
4421
ما هو السؤال الذي يجب ان يُسأل ويُجاوب الان
06:04
and tackle today
103
364569
1918
06:06
in order to overcome this status quo with extreme-scale AI?
104
366529
4421
لنحل معضلة الذكاء الاصطناعي ذي النطاق الاوسع؟
06:11
I'll say common sense is among the top priorities.
105
371534
3545
برأيي ان المنطق السليم هو بين الاولويات العُليا.
06:15
So common sense has been a long-standing challenge in AI.
106
375079
3921
فالمنطق السليم يقف عائقاً في طريق الذكاء الاصطناعي
06:19
To explain why, let me draw an analogy to dark matter.
107
379667
4088
لأبسط الفكرة، دعوني استخدم المادة المظلمة كتشبيه
06:23
So only five percent of the universe is normal matter
108
383796
2878
فقط 5% من الكون مكون من مواد عادية
06:26
that you can see and interact with,
109
386716
2794
الذي نحسها ونتفاعل معها،
06:29
and the remaining 95 percent is dark matter and dark energy.
110
389552
4463
اما ال 95% الباقية فمكونة من مادة وطاقة مظلمة.
06:34
Dark matter is completely invisible,
111
394390
1835
المادة المظلمة غير مرئية بالمرة،
06:36
but scientists speculate that it's there because it influences the visible world,
112
396225
4630
لكن افترضها العلماء لأنها تؤثر على العالم المرئي
06:40
even including the trajectory of light.
113
400897
2627
تؤثر حتى على مسار الضوء.
06:43
So for language, the normal matter is the visible text,
114
403524
3629
لنعود الى موضوعنا، المادة العادية تمثل النصوص المقدمة للذكاء الاصطناعي
06:47
and the dark matter is the unspoken rules about how the world works,
115
407195
4379
اما المادة المظلمة تمثل قواعد عامة غير مقدمة لهذا الذكاء عن كيفية الحياة،
06:51
including naive physics and folk psychology,
116
411574
3212
مثل الفيزياء البسيطة وعلم النفس البسيط
06:54
which influence the way people use and interpret language.
117
414827
3546
التي تؤثر على كيف يستخدم البشر الكلام ويفسرها
06:58
So why is this common sense even important?
118
418831
2503
اذا لماذا المنطق السليم هام؟
07:02
Well, in a famous thought experiment proposed by Nick Bostrom,
119
422460
5464
في تجربة شهيرة مقدمة من نيك بوستروم،
07:07
AI was asked to produce and maximize the paper clips.
120
427924
5881
طُلب من الذكاء الاصطناعي صناعة اكبر قدر من مشابك الورق.
07:13
And that AI decided to kill humans to utilize them as additional resources,
121
433805
5964
فقرر هذا الذكاء قتل البشر ليستخدمهم كموارد اضافية في التصنيع
07:19
to turn you into paper clips.
122
439769
2461
اي ليحولكم الى مشابك ورق.
07:23
Because AI didn't have the basic human understanding about human values.
123
443064
5505
وذلك لأن الذكاء الاصطناعي لا يفهم مبادئ البشر
07:29
Now, writing a better objective and equation
124
449070
3295
والان، سنطلب منه نفس الهدف
07:32
that explicitly states: “Do not kill humans”
125
452365
2919
ونفصل بشكل واضح للذكاء الاصطناعي “لا تقتل اي انسان”
07:35
will not work either
126
455284
1210
ولكن ذلك لن ينفع ايضاً
07:36
because AI might go ahead and kill all the trees,
127
456494
3629
لأن الذكاء الاصطناعي سيقرر قطع كل الاشجار،
07:40
thinking that's a perfectly OK thing to do.
128
460123
2419
معتقداً ان ذلك طبيعي وعادي.
07:42
And in fact, there are endless other things
129
462583
2002
بالواقع هنالك الكثير من الامور
07:44
that AI obviously shouldn’t do while maximizing paper clips,
130
464585
2837
يجب على الروبوت اجتنابه في تصنيع اكبر قدر من المشابك
07:47
including: “Don’t spread the fake news,” “Don’t steal,” “Don’t lie,”
131
467463
4255
مثل : “لا تنشر اخبار مزيفة“، “لاتسرق”، “لا تكذب”،
07:51
which are all part of our common sense understanding about how the world works.
132
471759
3796
وجميعهم نعرفه نحن كجزءٍ من المنطق السليم
07:55
However, the AI field for decades has considered common sense
133
475930
4880
لكن يعتبر ذلك في مجال الذكاء الاصطناعي
08:00
as a nearly impossible challenge.
134
480810
2753
تحدي شبه مستحيل.
08:03
So much so that when my students and colleagues and I
135
483563
3837
وعندما عملنا انا وزملائي وطلابي
08:07
started working on it several years ago, we were very much discouraged.
136
487400
3754
على هذه المشكلة قبل عدة سنين، خاب املنا كثيراً
08:11
We’ve been told that it’s a research topic of ’70s and ’80s;
137
491195
3254
قيل لنا ان بدأ دراسة الامر منذ السبعينات والثمانيات
08:14
shouldn’t work on it because it will never work;
138
494490
2419
وان لا نعمل عليها لأنها لن تعمل ابداً؛
08:16
in fact, don't even say the word to be taken seriously.
139
496951
3378
او حتى لا تأخذ الموضوع بشكل جاد.
08:20
Now fast forward to this year,
140
500329
2128
ثم مرت الايام حتى وصلنا الى هذه السنة
08:22
I’m hearing: “Don’t work on it because ChatGPT has almost solved it.”
141
502498
4296
وامسيت اسمع: “لا تعمل على الامر لأن ChatGPT اوشك على حلّها”
08:26
And: “Just scale things up and magic will arise,
142
506836
2461
واسمع ايضاً: “فقط وسّع نطاق البيانات وستنحل المشكلة سحرياً، دون تدخل اي شئ اخر”
08:29
and nothing else matters.”
143
509338
1794
08:31
So my position is that giving true common sense
144
511174
3545
ولكن رايي ان اعطاء منطق سليم حقيقي
08:34
human-like robots common sense to AI, is still moonshot.
145
514761
3712
مشابه للبشر للروبوتات امر بعيد كبعد القمر.
08:38
And you don’t reach to the Moon
146
518514
1502
ولن تصل الى القمر ابداً
08:40
by making the tallest building in the world one inch taller at a time.
147
520016
4212
عبر زيادة طول اعلى عمران الارض بسنتيميتر واحد.
08:44
Extreme-scale AI models
148
524270
1460
فالذكاء الاصطناعي بنطاق واسع
08:45
do acquire an ever-more increasing amount of commonsense knowledge,
149
525772
3169
يكتسبون بالفعل اجزاء متزايدة من المنطق العام
08:48
I'll give you that.
150
528983
1168
سأقرّ لكم بذلك.
08:50
But remember, they still stumble on such trivial problems
151
530193
4254
لكن تذكروا، انهم ما زالوا يرتبكون في مشكلات تافه
08:54
that even children can do.
152
534489
2419
التي حتى الاطفال يستطيعون حلها.
08:56
So AI today is awfully inefficient.
153
536908
3879
لذلك الذكاء الاصطناعي حالياً غير مفيد بالمرة
09:00
And what if there is an alternative path or path yet to be found?
154
540787
4337
ولكن ماذا لو هنالك طريقة اخرى لم تُستكشف بعد؟
09:05
A path that can build on the advancements of the deep neural networks,
155
545166
4171
طريقة اخرى ممكن ان تستثمر التطورات في الشبكات المترابطة العميقة
09:09
but without going so extreme with the scale.
156
549378
2712
لكن دون اللجوء للنطاق الكبير.
09:12
So this leads us to our final wisdom:
157
552465
3170
وهذا ما يقودنا الى حكمتنا الاخيرة
09:15
innovate your weapons.
158
555635
1710
ابتكر سلاحك.
09:17
In the modern-day AI context,
159
557345
1668
فهذا يعني في السياق الحالي للذكاء الاصطناعي ابتكار بيانات وخوارزميات
09:19
that means innovate your data and algorithms.
160
559055
3086
09:22
OK, so there are, roughly speaking, three types of data
161
562183
2628
حسناً، تقريباً 3 انواع من البيانات
09:24
that modern AI is trained on:
162
564852
1961
التي يتدرب عليها الذكاء الاصطناعي:
09:26
raw web data,
163
566813
1376
بيانات مجردة من الانترنت،
09:28
crafted examples custom developed for AI training,
164
568231
4462
وامثلة مصممة خصيصاً للذكاء الاصطناعي،
09:32
and then human judgments,
165
572735
2044
وتقييمات الانسان
09:34
also known as human feedback on AI performance.
166
574821
3211
الذي يُعرف ايضاً تعليق الانسان على اداء الذكاء الاصطناعي.
09:38
If the AI is only trained on the first type, raw web data,
167
578074
3962
اذا دُرّب الذكاء الاصطناعي على النوع الأول فقط، بيانات مجردة من الشابكة،
09:42
which is freely available,
168
582078
1710
المتاحة بشكل حرّ،
09:43
it's not good because this data is loaded with racism and sexism
169
583788
4755
هذا امر غير جيد لأن هذه البيانات ملوثة بالتمييز على اساس العرق و الجنس
09:48
and misinformation.
170
588584
1126
والمعلومات الخاطئة.
09:49
So no matter how much of it you use, garbage in and garbage out.
171
589752
4171
لذا مهما استخدمتها، فستعطيك نتائج سيئة لأنك دربته على بيانات سيئة.
09:54
So the newest, greatest AI systems
172
594507
2794
ولذلك الحدث واكبر نظام ذكاء اصطناعي
09:57
are now powered with the second and third types of data
173
597343
3337
يعمل الان باستخدام النوع الثاني والثالث من البيانات
10:00
that are crafted and judged by human workers.
174
600680
3378
التي تُصمم وتُقيم عبر عُمّال بشر.
10:04
It's analogous to writing specialized textbooks for AI to study from
175
604350
5422
انه مثل كتابة كتب مدرسية مخصصة ليدرس منها الذكاء الاصطناعي
10:09
and then hiring human tutors to give constant feedback to AI.
176
609814
4421
ثم توظيف مدرسين مخصصين ليصححوا اخطائه
10:15
These are proprietary data, by and large,
177
615027
2461
هذا ما ندعوه بالبيانات الخاصة، وعلى النطاق الاوسع
10:17
speculated to cost tens of millions of dollars.
178
617488
3420
متوقع ان يُكلف عشرات ملايين الدولارات.
10:20
We don't know what's in this,
179
620908
1460
ما نعلم ما في الامر
10:22
but it should be open and publicly available
180
622410
2419
لكن نعرف ان الامر يجب ان يكون متاح للجميع
10:24
so that we can inspect and ensure [it supports] diverse norms and values.
181
624829
4463
كي نتمكن من فحص وندعم القيم المختلفة
10:29
So for this reason, my teams at UW and AI2
182
629876
2711
ولهذا السبب، يعمل فريقي في جامعة واشنطن ومختبرات الذكاء
10:32
have been working on commonsense knowledge graphs
183
632628
2461
على معرفة المنطق السليم
10:35
as well as moral norm repositories
184
635089
2086
وتعريف الذكاء الاصطناعي على القيم الاخلاقية
10:37
to teach AI basic commonsense norms and morals.
185
637216
3504
لنعلمهم المنطق السليم والقيم والاعراف
10:41
Our data is fully open so that anybody can inspect the content
186
641137
3336
بياناتنا متاحة لأي شخص ليلقي نظرة على محتواها
10:44
and make corrections as needed
187
644473
1502
والتصحيح ان لزم الامر
10:45
because transparency is the key for such an important research topic.
188
645975
4171
لأن الشفافية هي اساس مجال بحث هام كهذا
10:50
Now let's think about learning algorithms.
189
650646
2545
اما الان، دعونا نتكلم عن تعلم الخوارزميات.
10:53
No matter how amazing large language models are,
190
653733
4629
لأنه مهما بلغت النماذج اللغوية من عظمة،
10:58
by design
191
658404
1126
من اصل تصميمها،
10:59
they may not be the best suited to serve as reliable knowledge models.
192
659572
4755
لن تناسب خدمة نماذج المعرفة العامة
11:04
And these language models do acquire a vast amount of knowledge,
193
664368
4463
بالرغم ان هذه النماذج تكتسب قدر شاسع من المعرفة
11:08
but they do so as a byproduct as opposed to direct learning objective.
194
668831
4755
لكن يكتسبوها كنتيجة ثانوية لا كهدف اساسي.
11:14
Resulting in unwanted side effects such as hallucinated effects
195
674503
4296
مما يؤدي الى مشاكل جانبية مثل تخيل امور لا صلة لها بالامر
11:18
and lack of common sense.
196
678841
2002
او ضعف التفكير السليم.
11:20
Now, in contrast,
197
680843
1210
اما الامر المناقض تماماً،
11:22
human learning is never about predicting which word comes next,
198
682053
3170
هو تعلم البشر الذي لا يعتمد ابداً على توقع الكلمة التالية،
11:25
but it's really about making sense of the world
199
685223
2877
بل يعتمد على الفهم الواقعي للمحيط
11:28
and learning how the world works.
200
688142
1585
وكيفية سير امور الحياة
11:29
Maybe AI should be taught that way as well.
201
689727
2544
ربما يحب علينا ان نعلم الذكاء الاصطناعي هكذا
11:33
So as a quest toward more direct commonsense knowledge acquisition,
202
693105
6090
كسعي مباشر نحو اكتساب معرفة وتفكير سليم
11:39
my team has been investigating potential new algorithms,
203
699195
3879
فقد جرّب فريقي خوارزميات جديدة محتملة
11:43
including symbolic knowledge distillation
204
703115
2628
كتقطير البيانات الغير عملية الى نماذج اصغر عملية
11:45
that can take a very large language model as shown here
205
705743
3795
التي يمكن ان تأخذ النماذج اللغوية الضخمة
11:49
that I couldn't fit into the screen because it's too large,
206
709538
3963
التي تستطع الشاشة استيعابها بسبب حجمها الضخم،
11:53
and crunch that down to much smaller commonsense models
207
713501
4671
وتجزئه الى نماذج منطق سليم صغيرة
11:58
using deep neural networks.
208
718214
2252
بساتخدام الشبكات المتصلة بعمق.
12:00
And in doing so, we also generate, algorithmically, human-inspectable,
209
720508
5380
وعبر ذلك، يمكننا توليد، خوارزمياً، تعريف قابل للفحص من قبل البشر
12:05
symbolic, commonsense knowledge representation,
210
725888
3253
ورمزي عن معرفة المنطق العام
12:09
so that people can inspect and make corrections
211
729141
2211
التي يستطيع الافراد فحصها وتصحيحها
12:11
and even use it to train other neural commonsense models.
212
731394
3545
بل حتى استخدامها لتدريب نماذج منطق سليم اخرى.
12:15
More broadly,
213
735314
1210
من النظرة الخارجية،
12:16
we have been tackling this seemingly impossible giant puzzle
214
736565
4630
لقد كنا نحلً هذه الاحجية الصعبة
12:21
of common sense, ranging from physical,
215
741237
2669
عن المنطق السليم المادي والاجتماعي والمرئي
12:23
social and visual common sense
216
743906
2169
12:26
to theory of minds, norms and morals.
217
746117
2419
وقراءة مشاعر الاخرين، وفهم القيم والاعراف
12:28
Each individual piece may seem quirky and incomplete,
218
748577
3796
فكل جزء منه يبدو ناقص
12:32
but when you step back,
219
752415
1585
ولكن عندما تنظر للصورة العامة،
12:34
it's almost as if these pieces weave together into a tapestry
220
754041
4421
تشعر وكأن كل جزء مترابط كالنسيج
12:38
that we call human experience and common sense.
221
758504
3045
وهذا ما ندعوه بخبرة الانسانن والمنطق العام
12:42
We're now entering a new era
222
762174
1961
اننا الان في خضم حقبة جديدة
12:44
in which AI is almost like a new intellectual species
223
764176
5923
التي فيها يعتبر الذكاء الاصطناعي ذكاء حيّ
12:50
with unique strengths and weaknesses compared to humans.
224
770099
3837
بمواطن ضعف وقوة نسبةً للانسان
12:54
In order to make this powerful AI
225
774478
3546
ولنجعل هذا الذكاء العبقري
12:58
sustainable and humanistic,
226
778065
2336
قادر على العمل بشكل مستمر وبشري
13:00
we need to teach AI common sense, norms and values.
227
780401
4129
يجب ان نعلم الذكاء الاصطناعي عن المنطق العام والقيم والاعراف.
13:04
Thank you.
228
784530
1376
وشكراً لكم
13:05
(Applause)
229
785906
6966
(تصفيق)
13:13
Chris Anderson: Look at that.
230
793664
1460
كريس اندريسون: انتبهوا لحظةً
13:15
Yejin, please stay one sec.
231
795124
1877
يجين، تفضلي بالبقاء لحظةً
13:18
This is so interesting,
232
798002
1418
لدي امر مثير للاهتمام،
13:19
this idea of common sense.
233
799462
2002
فكرة المنطق السليم
13:21
We obviously all really want this from whatever's coming.
234
801505
3712
نريدها جميعاً في اي ذكاء قادم.
13:25
But help me understand.
235
805926
1168
لكن اشرحي لي
13:27
Like, so we've had this model of a child learning.
236
807094
4463
كيف ان الطفل مثلاً يتعلم
13:31
How does a child gain common sense
237
811599
3044
كيف يكتسب الطفل المنطق السليم
13:34
apart from the accumulation of more input
238
814685
3545
بعيداً عن تراكم المرات التي شهدها الطفل عن المنطق
13:38
and some, you know, human feedback?
239
818230
3045
وبعيداً عن رد فعل الافراد من حوله؟
13:41
What else is there?
240
821317
1293
هل هنالك اي امر مساعد اخر
13:42
Yejin Choi: So fundamentally, there are several things missing,
241
822610
3003
يجين تشوي: بالاساس يوجد عدة امور مفقودة
13:45
but one of them is, for example,
242
825613
1918
واحداهم مثلاً
13:47
the ability to make hypothesis and make experiments,
243
827573
3796
القدرة على التجربة والاستكشاف
13:51
interact with the world and develop this hypothesis.
244
831369
4713
القدرة على التفاعل مع المحيط وبناء افتراضات
13:56
We abstract away the concepts about how the world works,
245
836123
3671
فنستخلص من هذا فكرة سير الحياة
13:59
and then that's how we truly learn,
246
839835
2044
ثم نتعلم حفّاً
14:01
as opposed to today's language model.
247
841921
3003
بعكس ما يجري الان مع النماذج اللغوية
14:05
Some of them is really not there quite yet.
248
845424
2795
فبعضهم لم يصل لهذه المرحلة بعد
14:09
CA: You use the analogy that we can’t get to the Moon
249
849303
2669
كريس: استخدمتي التشبيه ان لن تستطيع ان تصل الى القمر
14:12
by extending a building a foot at a time.
250
852014
2544
عبر تطويل بناء سينتيميتر تلو الاخر
14:14
But the experience that most of us have had
251
854558
2044
لكن التجربة التي خضناها
14:16
of these language models is not a foot at a time.
252
856602
2336
مع هذه النماذج لسيت سينتيميتر تلو الاخر
14:18
It's like, the sort of, breathtaking acceleration.
253
858938
2669
بل تشبه اكثر تسارع متقطع.
14:21
Are you sure that given the pace at which those things are going,
254
861607
3670
امتأكدة انتي ان الوتيرة التي تجرى بها الامور
14:25
each next level seems to be bringing with it
255
865319
2711
او التي يجلبها المستويات التالية
14:28
what feels kind of like wisdom and knowledge.
256
868072
4671
تشبه المعرفة والحكمة.
14:32
YC: I totally agree that it's remarkable how much this scaling things up
257
872785
5297
يجين: انا اوافقك الرأي ان الوتيرة الضخمه لهذا الامر كبير
14:38
really enhances the performance across the board.
258
878124
3670
والتي تحسن الاداء بشكل عام
14:42
So there's real learning happening
259
882086
2544
اذا التعليم الفعلي يحصل بالفعل
14:44
due to the scale of the compute and data.
260
884630
4797
بسبب اتساع الحوسبة والبيانات
14:49
However, there's a quality of learning that is still not quite there.
261
889468
4171
لكن جودة هذا التعلم ليس بالمستوى المطلوب.
14:53
And the thing is,
262
893681
1168
والامر الاخطر،
14:54
we don't yet know whether we can fully get there or not
263
894849
3712
اننا لا نعرف اذا بإمكاننا ان نصل لتلك المرحلة ام لا
14:58
just by scaling things up.
264
898561
2335
عبر توسيع الحوسبة فقط
15:01
And if we cannot, then there's this question of what else?
265
901188
4213
وان لم نستطع، ماذا سنفعل حينها
15:05
And then even if we could,
266
905401
1877
وان استطعنا،
15:07
do we like this idea of having very, very extreme-scale AI models
267
907319
5214
هل الحجم الضخم لهذه النماذج بالامر السار
15:12
that only a few can create and own?
268
912575
4337
لأن هذا يعني ان قلة من يقدرون عليها ويتحكمون بها؟
15:18
CA: I mean, if OpenAI said, you know, "We're interested in your work,
269
918456
4587
كريس: اعني، ان اخبرتك شركة انهم مهتمون بأفكارك
15:23
we would like you to help improve our model,"
270
923043
2837
وطلبوا منك ان تساعديهم في تطوير نموذجهم
15:25
can you see any way of combining what you're doing
271
925921
2670
هل سيكون عندي اي فكرة كيف يمكنكي ان تدمجي ما بنيته
15:28
with what they have built?
272
928632
1710
مع ما بنوه؟
15:30
YC: Certainly what I envision
273
930926
2336
يجين: بالطبع اتصور ان
15:33
will need to build on the advancements of deep neural networks.
274
933304
4171
سيكون علينا بناء فوق التطورات الحاصلة في الشبكات المرتبطة بعمق.
15:37
And it might be that there’s some scale Goldilocks Zone,
275
937516
4213
ويمكن ان يكون هنالك حدّاً معيناً
15:41
such that ...
276
941770
1168
مثل...
15:42
I'm not imagining that the smaller is the better either, by the way.
277
942980
3212
بالمناسبة، انا لا اقصد ان النماذج الصغية افضل.
15:46
It's likely that there's right amount of scale, but beyond that,
278
946233
4421
بل اعتقد ان هنالك حجم مناسب متوسط، لكن غير ذلك
15:50
the winning recipe might be something else.
279
950696
2294
الوصفة الرابحة قد تكون امر مخالف تماماًُ
15:53
So some synthesis of ideas will be critical here.
280
953032
4838
ولذلك تجربة الافكار امر هام
15:58
CA: Yejin Choi, thank you so much for your talk.
281
958579
2294
كريس: يجين تشوي، شكراً لك على خطابك.
16:00
(Applause)
282
960873
1585
(تصفيق)
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7