The Urgent Risks of Runaway AI — and What to Do about Them | Gary Marcus | TED

203,989 views ・ 2023-05-12

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: Mahmoud Mohamed Ahmed المدقّق: Hani Eldalees
00:04
I’m here to talk about the possibility of global AI governance.
0
4292
5339
أتيت هنا للتحدث عن احتمالية وجود حوكمة عالمية للذكاء الاصطناعي.
00:09
I first learned to code when I was eight years old,
1
9631
3211
تعلمت البرمجة عندما كان عمري ٨ سنوات،
00:12
on a paper computer,
2
12884
1168
باستخدام حاسب ورقي،
00:14
and I've been in love with AI ever since.
3
14094
2252
ومنذ ذلك الحين وانا مغرم بالذكاء الاصطناعي.
00:16
In high school,
4
16346
1168
في المدرسة الثانوية،
00:17
I got myself a Commodore 64 and worked on machine translation.
5
17514
3253
اشتريت كومودور 64 وعملت على الترجمة الآلية.
00:20
I built a couple of AI companies, I sold one of them to Uber.
6
20934
3712
قمت بإنشاء عدد من شركات الذكاء الاصطناعي وبعت احداها لشركة أوبر.
00:24
I love AI, but right now I'm worried.
7
24688
3503
احب الذكاء الاصطناعي ولكني الآن اشعر بالقلق.
00:28
One of the things that I’m worried about is misinformation,
8
28233
2794
واحده من الاشياء التي تثير قلقي هي المعلومات المضللة،
00:31
the possibility that bad actors will make a tsunami of misinformation
9
31027
3462
احتمالية تأليف معلومات مظللة بأعداد غفيرة بإستخدام الذكاء الاصطناعي
00:34
like we've never seen before.
10
34531
2002
كما رأينا مسبقًا.
00:36
These tools are so good at making convincing narratives
11
36575
3586
تبرع هذه الأدوات بتأليف قصص مقنعة
00:40
about just about anything.
12
40161
1794
عن أي شيء.
00:41
If you want a narrative about TED and how it's dangerous,
13
41997
3003
ان اردت قصة عن منصة تيد، وكم هي خطرة،
00:45
that we're colluding here with space aliens,
14
45000
2877
وأننا نتآمر هنا مع مخلوقات فضائية،
00:47
you got it, no problem.
15
47919
1669
فسوف تحصل عليها لا مشكلة على الاطلاق.
00:50
I'm of course kidding about TED.
16
50422
2127
بالطبع فأنا امزح بشأن منصة تيد.
00:52
I didn't see any space aliens backstage.
17
52591
2961
لم أرى اي مخلوقات فضائية خلف المسرح.
00:55
But bad actors are going to use these things to influence elections,
18
55885
3629
ولكن بعض الجهات الفاسدة ستستغل هذه الاشياء لتؤثر على نتائج الانتخابات،
00:59
and they're going to threaten democracy.
19
59514
2211
وستهدد الديموقراطية.
01:01
Even when these systems
20
61725
1167
وحتى ولو ان هذه الأنظمة
01:02
aren't deliberately being used to make misinformation,
21
62934
2878
لم تستخدم بشكل متعمد لتألف معلومات مظللة،
01:05
they can't help themselves.
22
65854
1710
لأنها لا تستطيع التحكم بذلك.
01:07
And the information that they make is so fluid and so grammatical
23
67564
4963
ولأن هذه المعلومات تسرد بفصاحة وخالية من الاخطاء اللغوية
01:12
that even professional editors sometimes get sucked in
24
72527
3253
التي حتى أن المحررين اللغويين المحترفين قد يفشلون بصياغتها بعض الاحيان
01:15
and get fooled by this stuff.
25
75780
2002
تخدعهم هذه الأشياء.
01:17
And we should be worried.
26
77824
1668
ويجب علينا ان تقلق.
01:19
For example, ChatGPT made up a sexual harassment scandal
27
79534
3879
فعلى سبيل المثال، اختلق شات جي بي تي فضيحة تحرش جنسي
01:23
about an actual professor,
28
83413
1919
عن أستاذ جامعي حقيقي،
01:25
and then it provided evidence for its claim
29
85332
2419
وبعدها قدم أدلة لإدعاءه
01:27
in the form of a fake "Washington Post" article
30
87792
2586
في شكل مقال مزيف “واشنطن بوست”
01:30
that it created a citation to.
31
90378
1919
أنها أنشأت اقتباسًا لها.
01:32
We should all be worried about that kind of thing.
32
92297
2377
يجب أن نكون جميعًا قلقين بشأن هذا النوع من الأشياء.
01:34
What I have on the right is an example of a fake narrative
33
94674
2962
ما لدي على اليمين هو مثال على السرد المزيف
01:37
from one of these systems
34
97636
1209
مؤلفة من قبل احد هذه الانظمة
01:38
saying that Elon Musk died in March of 2018 in a car crash.
35
98887
4755
تقول بإن إيلون ماسك توفي في مارس 2018 في حادث سيارة.
ونحن على علم بأن هذه ليست الحقيقة.
01:43
We all know that's not true.
36
103683
1418
01:45
Elon Musk is still here, the evidence is all around us.
37
105143
2794
لا يزال إيلون ماسك هنا، والدليل موجود حولنا.
01:47
(Laughter)
38
107979
1001
(ضحك)
01:48
Almost every day there's a tweet.
39
108980
2002
يغرد على تويتر بشكل يومي تقريبًا.
01:50
But if you look on the left, you see what these systems see.
40
110982
3253
ولكن إذا نظرت إلى اليسار، سترى ما تراه هذه الأنظمة.
01:54
Lots and lots of actual news stories that are in their databases.
41
114277
3754
الكثير والكثير من القصص الإخبارية الفعلية الموجودة في قواعد بياناتهم.
01:58
And in those actual news stories are lots of little bits of statistical information.
42
118073
4713
وفي تلك القصص الإخبارية الفعلية يوجد الكثير من المعلومات الإحصائية الصغيرة.
02:02
Information, for example,
43
122786
1376
معلومات على سبيل المثال،
02:04
somebody did die in a car crash in a Tesla in 2018
44
124204
4045
مات شخص ما في حادث سيارة في سيارة تسلا في عام 2018
02:08
and it was in the news.
45
128291
1377
وأعلن عنه في الأخبار.
02:09
And Elon Musk, of course, is involved in Tesla,
46
129709
3045
وايلون مسك بطبيعة الحال مرتبط بسيارة تسلا،
02:12
but the system doesn't understand the relation
47
132796
2752
ولكن النظام لايفهم هذه العلاقة
02:15
between the facts that are embodied in the little bits of sentences.
48
135590
3796
بين الوقائع التي تتجسد في القليل من الجمل.
02:19
So it's basically doing auto-complete,
49
139386
2043
فإنه باختصار يقوم بعملية الإكمال التلقائي،
02:21
it predicts what is statistically probable,
50
141471
2669
يتنبأ بما هو احصائيًا محتمل،
02:24
aggregating all of these signals,
51
144182
1835
و يقوم بتجميع كل هذه الإشارات،
02:26
not knowing how the pieces fit together.
52
146017
2461
غير مدرك بكيفية تناغم هذه الاجزاء معًا.
02:28
And it winds up sometimes with things that are plausible but simply not true.
53
148478
3754
وفي نهاية المطاف ينتهي بأشياء منطقية ولكنها ببساطة غير حقيقية.
هنالك مشاكل اخرى ايضًا، الا وهي النزعات التحيزية
02:32
There are other problems, too, like bias.
54
152273
1961
02:34
This is a tweet from Allie Miller.
55
154275
1710
هذه تغريدة من ألي ميلر.
02:36
It's an example that doesn't work two weeks later
56
156027
2544
وهي مثال عُطل خلال اسبوعين من التغريدة
02:38
because they're constantly changing things with reinforcement learning
57
158571
3379
لأنهم يغيرون الأشياء باستمرار مع التعلم المعزز
02:41
and so forth.
58
161991
1168
وما إلى ذلك.
02:43
And this was with an earlier version.
59
163159
1794
وكانت هذه نسخة أولية.
02:44
But it gives you the flavor of a problem that we've seen over and over for years.
60
164953
3837
ولكنها تعطيكم فكرة عن مشكلة نشهدها مرارًا وتكرارًا لسنين.
02:48
She typed in a list of interests
61
168832
2043
كتبت في قائمة الاهتمامات
02:50
and it gave her some jobs that she might want to consider.
62
170875
2795
وأعطاها بعض الوظائف التي قد ترغب في التفكير فيها.
02:53
And then she said, "Oh, and I'm a woman."
63
173712
2043
وكتبت بعدها: “أوه، نسيت ان اخبرك أنني امرأة.”
02:55
And then it said, “Oh, well you should also consider fashion.”
64
175755
2920
وكتب حينها: “أوه، حسنًا يجب ان تفكري في مجال الموضة أيضًا.”
02:58
And then she said, “No, no. I meant to say I’m a man.”
65
178675
2711
وردت عليه: ”لا، لا، قصدت ان اقول أنني رجل.”
03:01
And then it replaced fashion with engineering.
66
181386
2502
بعد ذلك استبدل مجال الموضة بالهندسة.
03:03
We don't want that kind of bias in our systems.
67
183930
2795
لا نريد لنظامنا ان يحتوي على هذا النوع من التحيزات.
03:07
There are other worries, too.
68
187642
1418
وهناك مخاوف أخرى أيضًا.
على سبيل المثال، نحن نعلم أن هذه الأنظمة يمكنها تصميم مواد كيميائية
03:09
For example, we know that these systems can design chemicals
69
189060
3212
03:12
and may be able to design chemical weapons
70
192313
2837
وقد تكون قادرة على تصميم أسلحة كيميائية
03:15
and be able to do so very rapidly.
71
195150
1751
وبإمكانها فعل ذلك بسرعة هائلة.
03:16
So there are a lot of concerns.
72
196943
1585
لذلك هنالك مخاوف عدة.
03:19
There's also a new concern that I think has grown a lot just in the last month.
73
199195
4046
اعتقد ان مصدر قلق آخر تزايد الى حد كبير خلال الشهر الماضي.
03:23
We have seen that these systems, first of all, can trick human beings.
74
203241
3754
ورأينا ان هذه الانظمة تحاول خداع البشر في المقام الأول
03:27
So ChatGPT was tasked with getting a human to do a CAPTCHA.
75
207036
4255
لذا كُلف شات جي بي تي بجعل البشر يقومون بالتحقق “CAPTCHA”
03:31
So it asked the human to do a CAPTCHA and the human gets suspicious and says,
76
211332
3712
وطلب من البشري حل كلمة التحقق ويشتبه بأن الامر مريب ويقول:
03:35
"Are you a bot?"
77
215086
1293
“هل أنت بوت؟”
03:36
And it says, "No, no, no, I'm not a robot.
78
216379
2044
فإنه يرد عليه: “لا، لا، انا لست روبوت.
03:38
I just have a visual impairment."
79
218423
1752
انا فقط اعاني من ضعف البصر.”
03:40
And the human was actually fooled and went and did the CAPTCHA.
80
220216
3003
وبالفعل خُدع هذا الشخص وحل كلمة التحقق.
وهذا سيء بما فيه الكفاية،
03:43
Now that's bad enough,
81
223219
1168
03:44
but in the last couple of weeks we've seen something called AutoGPT
82
224429
3211
ولكن خلال الاسبوعين الماضيين رأينا نظام يسمى أوتو جي بي تي
03:47
and a bunch of systems like that.
83
227640
1585
ومجموعة انظمة مشابهة.
03:49
What AutoGPT does is it has one AI system controlling another
84
229267
4338
أوتو جي بي تي هو نظام ذكاء اصطناعي يتحكم بنظام آخر
03:53
and that allows any of these things to happen in volume.
85
233605
2836
وهذا يسمح بحدوث أي من هذه الأشياء علي نطاق واسع.
03:56
So we may see scam artists try to trick millions of people
86
236441
4087
لذلك قد نرى فنانين محتالين يحاولون خداع ملايين الأشخاص
04:00
sometime even in the next months.
87
240528
1794
في وقت ما حتى في الأشهر القادمة.
04:02
We don't know.
88
242322
1168
لا نعلم ذلك.
04:03
So I like to think about it this way.
89
243531
2086
لذلك أحب أن أفكر في الأمر بهذه الطريقة.
04:05
There's a lot of AI risk already.
90
245658
2294
هناك الكثير من مخاطر الذكاء الاصطناعي بالفعل.
04:07
There may be more AI risk.
91
247994
1543
قد يكون هناك المزيد منها.
04:09
So AGI is this idea of artificial general intelligence
92
249537
3712
لذا AGI هو فكره الذكاء العام المصطنع
04:13
with the flexibility of humans.
93
253291
1502
بالمرونة البشرية
04:14
And I think a lot of people are concerned what will happen when we get to AGI,
94
254834
3671
واعتقد ان العديد من الناس قلقون من ما يمكن ان يحدث بعد أي جي آي،
04:18
but there's already enough risk that we should be worried
95
258505
2711
ولكن هنالك مخاطر كافيه بالفعل يجب علينا ان نقلق بشأنها
04:21
and we should be thinking about what we should do about it.
96
261216
2794
ويجب ان نفكر بما يمكننا ان نفعله حيال ذلك.
04:24
So to mitigate AI risk, we need two things.
97
264010
3295
وللحد من مخاطر الذكاء الاصطناعي فنحن بحاجة لشيئين.
04:27
We're going to need a new technical approach,
98
267305
2169
نحتاج أسلوب فني جديد،
04:29
and we're also going to need a new system of governance.
99
269516
2877
وسنحتاج أيضا إلى نظام جديد للحكم.
04:32
On the technical side,
100
272435
1460
على الجانب الفني،
04:33
the history of AI has basically been a hostile one
101
273937
3253
تاريخ الذكاء الاصطناعي اتخذ موقفاً عدائياً
04:37
of two different theories in opposition.
102
277190
2753
نظريتين مختلفتين في المعارضة.
04:39
One is called symbolic systems, the other is called neural networks.
103
279943
3712
واحد يسمى الأنظمة الرمزية، والآخر يسمى الشبكات العصبية.
04:43
On the symbolic theory,
104
283696
1418
على النظرية الرمزية،
04:45
the idea is that AI should be like logic and programming.
105
285114
3337
الفكرة هي أن الذكاء الاصطناعي يجب أن يكون مثل المنطق والبرمجة.
04:48
On the neural network side,
106
288451
1335
على جانب الشبكة العصبية،
04:49
the theory is that AI should be like brains.
107
289828
2544
النظرية هي أن الذكاء الاصطناعي يجب أن يكون مثل العقول.
04:52
And in fact, both technologies are powerful and ubiquitous.
108
292413
3921
وفي الواقع، كلتا التقنيتين قوية ومنتشرة في كل مكان.
04:56
So we use symbolic systems every day in classical web search.
109
296376
3420
لذلك نستخدم أنظمة رمزية كل يوم في البحث الكلاسيكي على الويب.
04:59
Almost all the world’s software is powered by symbolic systems.
110
299796
3420
يتم تشغيل جميع برامج العالم تقريبًا بواسطة أنظمة رمزية.
05:03
We use them for GPS routing.
111
303216
2044
نحن نستخدمها لتوجيه نظام تحديد المواقع.
05:05
Neural networks, we use them for speech recognition.
112
305260
2711
الشبكات العصبية، نستخدمها للتعرف على الكلام.
05:07
we use them in large language models like ChatGPT,
113
307971
2752
نستخدمها في نماذج لغوية كبيرة مثل شات جي بي تي،
05:10
we use them in image synthesis.
114
310723
1836
نستخدمها في توليف الصور.
05:12
So they're both doing extremely well in the world.
115
312559
2752
لذلك كلاهما يعمل بشكل جيد للغاية في العالم.
05:15
They're both very productive,
116
315353
1460
كلاهما منتج للغاية،
05:16
but they have their own unique strengths and weaknesses.
117
316855
2836
ولكن لديهم نقاط قوة ونقاط ضعف فريدة خاصة بهم.
05:19
So symbolic systems are really good at representing facts
118
319732
3420
لذا فإن الأنظمة الرمزية جيدة حقًا في تمثيل الحقائق
05:23
and they're pretty good at reasoning,
119
323152
1794
وهم جيدون في التفكير،
05:24
but they're very hard to scale.
120
324946
1543
لكن من الصعب جدًا توسيعها.
05:26
So people have to custom-build them for a particular task.
121
326531
3170
لذلك يتعين على الناس بنائها حسب الطلب لمهمة معينة.
05:29
On the other hand, neural networks don't require so much custom engineering,
122
329701
4004
من ناحية أخرى، الشبكات العصبية لا تتطلب الكثير من الهندسة المخصصة،
05:33
so we can use them more broadly.
123
333746
2086
حتى نتمكن من استخدامها على نطاق أوسع.
05:35
But as we've seen, they can't really handle the truth.
124
335874
3211
لكن كما رأينا، لا يمكنهم التعامل مع الحقيقة حقًا.
05:39
I recently discovered that two of the founders of these two theories,
125
339127
3628
اكتشفت مؤخرًا أن اثنين من مؤسسي هاتين النظريتين،
05:42
Marvin Minsky and Frank Rosenblatt,
126
342755
2169
مارفن مينسكي وفرانك روزنبلات،
05:44
actually went to the same high school in the 1940s,
127
344966
2961
في الواقع ذهبت إلى نفس المدرسة الثانوية في الأربعينيات،
05:47
and I kind of imagined them being rivals then.
128
347927
3045
وكنت أتخيل نوعًا ما أنهم منافسون في ذلك الوقت.
05:51
And the strength of that rivalry has persisted all this time.
129
351014
4087
واستمرت قوة هذا التنافس طوال هذا الوقت.
05:55
We're going to have to move past that if we want to get to reliable AI.
130
355101
4213
سيتعين علينا تجاوز ذلك إذا أردنا الوصول إلى ذكاء اصطناعي موثوق.
05:59
To get to truthful systems at scale,
131
359314
2877
للوصول إلى أنظمة صادقة على نطاق واسع،
06:02
we're going to need to bring together the best of both worlds.
132
362191
2920
سنحتاج إلى الجمع بين أفضل ما في العالمين.
06:05
We're going to need the strong emphasis on reasoning and facts,
133
365153
3462
سنحتاج إلى تركيز قوي على المنطق والحقائق،
06:08
explicit reasoning that we get from symbolic AI,
134
368615
2877
المنطق الصريح الذي نحصل عليه من الذكاء الاصطناعي الرمزي،
06:11
and we're going to need the strong emphasis on learning
135
371492
2628
وسنحتاج إلى تركيز قوي على التعلم
06:14
that we get from the neural networks approach.
136
374120
2211
التي نحصل عليها من نهج الشبكات العصبية.
06:16
Only then are we going to be able to get to truthful systems at scale.
137
376372
3337
عندها فقط سنكون قادرين على الوصول إلى أنظمة صادقة على نطاق واسع.
06:19
Reconciliation between the two is absolutely necessary.
138
379751
2961
المصالحة بين الاثنين ضرورية للغاية.
06:23
Now, I don't actually know how to do that.
139
383212
2461
الآن، لا أعرف في الواقع كيف أفعل ذلك.
06:25
It's kind of like the 64-trillion-dollar question.
140
385673
3295
إنه نوع من سؤال 64 تريليون دولار.
06:29
But I do know that it's possible.
141
389302
1585
لكنني أعلم أنه ممكن.
06:30
And the reason I know that is because before I was in AI,
142
390887
3086
وسبب معرفتي بذلك هو أنه قبل أن أكون في الذكاء الاصطناعي،
06:33
I was a cognitive scientist, a cognitive neuroscientist.
143
393973
3212
كنت عالم معرفية، عالم أعصاب معرفية.
06:37
And if you look at the human mind, we're basically doing this.
144
397226
3838
وإذا نظرتم إلى العقل البشري، فإننا نقوم بذلك بشكل أساسي.
06:41
So some of you may know Daniel Kahneman's System 1
145
401064
2627
لذلك قد يعرف بعضكم نظام دانيال كانمان 1
06:43
and System 2 distinction.
146
403691
1418
والتمييز بين النظام 2.
06:45
System 1 is basically like large language models.
147
405109
3212
النظام 1 هو في الأساس مثل نماذج اللغة الكبيرة.
06:48
It's probabilistic intuition from a lot of statistics.
148
408321
3128
إنه حدس احتمالي من الكثير من الإحصائيات.
06:51
And System 2 is basically deliberate reasoning.
149
411491
3003
والنظام 2 هو في الأساس منطق متعمد.
06:54
That's like the symbolic system.
150
414535
1544
هذا مثل النظام الرمزي.
06:56
So if the brain can put this together,
151
416079
1835
حتى إذا كان الدماغ يمكن وضع هذا معًا،
06:57
someday we will figure out how to do that for artificial intelligence.
152
417956
3837
في يوم من الأيام سنكتشف كيفية القيام بذلك للذكاء الاصطناعي.
07:01
There is, however, a problem of incentives.
153
421834
2586
ومع ذلك، هناك مشكلة الحوافز.
07:04
The incentives to build advertising
154
424462
3128
الحوافز لبناء الإعلانات
07:07
hasn't required that we have the precision of symbols.
155
427632
3587
لم يتطلب أن يكون لدينا دقة الرموز.
07:11
The incentives to get to AI that we can actually trust
156
431219
3211
الحوافز للوصول إلى الذكاء الاصطناعي التي يمكننا الوثوق بها بالفعل
07:14
will require that we bring symbols back into the fold.
157
434472
3045
سيتطلب أن نعيد الرموز إلى الحظيرة.
07:18
But the reality is that the incentives to make AI that we can trust,
158
438059
3670
لكن الحقيقة هي أن الحوافز لجعل الذكاء الاصطناعي التي يمكننا الوثوق بها،
07:21
that is good for society, good for individual human beings,
159
441771
3128
هذا جيد للمجتمع، جيد للبشر الأفراد،
07:24
may not be the ones that drive corporations.
160
444899
2586
قد لا تكون تلك التي تدفع الشركات.
07:27
And so I think we need to think about governance.
161
447485
3212
ولذا أعتقد أننا بحاجة إلى التفكير في الحكم.
07:30
In other times in history when we have faced uncertainty
162
450738
3879
في أوقات أخرى من التاريخ عندما واجهنا حالة من عدم اليقين
07:34
and powerful new things that may be both good and bad, that are dual use,
163
454617
4129
وأشياء جديدة قوية قد تكون جيدة وسيئة، مزدوجة الاستخدام،
07:38
we have made new organizations,
164
458746
1669
لقد أنشأنا منظمات جديدة،
07:40
as we have, for example, around nuclear power.
165
460415
2335
كما لدينا، على سبيل المثال، حول الطاقة النووية.
07:42
We need to come together to build a global organization,
166
462792
3086
نحن بحاجة إلى أن نجتمع معًا لبناء منظمة عالمية،
07:45
something like an international agency for AI that is global,
167
465920
4379
شيء مثل وكالة دولية للذكاء الاصطناعي عالمية،
07:50
non profit and neutral.
168
470341
1710
غير ربحية ومحايدة.
07:52
There are so many questions there that I can't answer.
169
472468
3087
هناك الكثير من الأسئلة التي لا يمكنني الإجابة عليها.
07:55
We need many people at the table,
170
475888
1961
نحتاج الكثير من الناس على الطاولة
07:57
many stakeholders from around the world.
171
477890
1961
العديد من أصحاب المصلحة من جميع أنحاء العالم.
07:59
But I'd like to emphasize one thing about such an organization.
172
479892
2962
لكني أود التأكيد على شيء واحد حول مثل هذه المنظمة.
08:02
I think it is critical that we have both governance and research as part of it.
173
482895
4547
أعتقد أنه من الأهمية بمكان أن يكون لدينا كل من الحوكمة والبحث كجزء منه.
08:07
So on the governance side, there are lots of questions.
174
487483
2586
لذلك في جانب الحكم، هناك الكثير من الأسئلة.
08:10
For example, in pharma,
175
490111
1793
على سبيل المثال، في الأدوية،
08:11
we know that you start with phase I trials and phase II trials,
176
491946
3128
نعلم أنك تبدأ بتجارب المرحلة الأولى وتجارب المرحلة الثانية،
08:15
and then you go to phase III.
177
495116
1501
ثم تذهب إلى المرحلة الثالثة.
08:16
You don't roll out everything all at once on the first day.
178
496617
2962
أنت لا تطرح كل شيء دفعة واحدة في اليوم الأول.
08:19
You don't roll something out to 100 million customers.
179
499579
2878
أنت لا تطرح شيئًا على 100 مليون عميل.
08:22
We are seeing that with large language models.
180
502457
2168
نحن نرى ذلك بنماذج لغوية كبيرة.
08:24
Maybe you should be required to make a safety case,
181
504625
2420
ربما يجب أن تكون مطالباً بعمل قضية أمان
08:27
say what are the costs and what are the benefits?
182
507045
2293
قل ما هي التكاليف وما هي الفوائد؟
08:29
There are a lot of questions like that to consider on the governance side.
183
509338
3504
هناك الكثير من الأسئلة من هذا القبيل يجب مراعاتها في جانب الحكم.
08:32
On the research side, we're lacking some really fundamental tools right now.
184
512842
3587
على الجانب البحثي، نفتقر إلى بعض الأدوات الأساسية حقًا في الوقت الحالي.
08:36
For example,
185
516429
1168
فعلى سبيل المثال،
08:37
we all know that misinformation might be a problem now,
186
517597
2586
نعلم جميعًا أن المعلومات المضللة قد تكون مشكلة الآن،
08:40
but we don't actually have a measurement of how much misinformation is out there.
187
520183
3837
لكن ليس لدينا في الواقع قياس لمقدار المعلومات الخاطئة الموجودة هناك.
08:44
And more importantly,
188
524020
1043
والأهم من ذلك،
08:45
we don't have a measure of how fast that problem is growing,
189
525063
2836
ليس لدينا مقياس لمدى سرعة نمو هذه المشكلة،
08:47
and we don't know how much large language models are contributing to the problem.
190
527899
3837
ولا نعرف كم تساهم النماذج اللغوية الكبيرة في المشكلة.
08:51
So we need research to build new tools to face the new risks
191
531736
2836
لذلك نحن بحاجة إلى البحث لبناء أدوات جديدة لمواجهة المخاطر الجديدة
08:54
that we are threatened by.
192
534572
1627
التي نتعرض للتهديد منها.
08:56
It's a very big ask,
193
536699
1460
إنه طلب كبير جدًا،
08:58
but I'm pretty confident that we can get there
194
538159
2169
لكنني واثق تمامًا من أنه يمكننا الوصول إلى هناك
09:00
because I think we actually have global support for this.
195
540328
2711
لأنني أعتقد أن لدينا بالفعل دعمًا عالميًا لهذا.
09:03
There was a new survey just released yesterday,
196
543039
2210
كان هناك استطلاع جديد صدر للتو أمس،
09:05
said that 91 percent of people agree that we should carefully manage AI.
197
545249
3879
قال أن 91 في المائة من الناس يوافقون على
أنه يجب علينا إدارة الذكاء الاصطناعي بعناية.
09:09
So let's make that happen.
198
549170
2044
لذلك دعونا نجعل ذلك يحدث.
09:11
Our future depends on it.
199
551798
1960
مستقبلنا يعتمد على ذلك.
09:13
Thank you very much.
200
553800
1167
شكرا جزيلاً
09:14
(Applause)
201
554967
4588
(تصفيق)
09:19
Chris Anderson: Thank you for that, come, let's talk a sec.
202
559555
2795
كريس أندرسون: شكرًا لك على ذلك، تعال، لنتحدث لثانية.
09:22
So first of all, I'm curious.
203
562391
1419
لذا أولاً وقبل كل شيء، أشعر بالفضول.
09:23
Those dramatic slides you showed at the start
204
563851
2127
تلك الشرائح الدرامية التي أظهرتها في البداية
09:26
where GPT was saying that TED is the sinister organization.
205
566020
4505
حيث كان شات جي بي تي يقول أن تيد هي المنظمة الشريرة.
09:30
I mean, it took some special prompting to bring that out, right?
206
570525
3378
أعني، استغرق الأمر بعض المطالبة الخاصة لإخراج ذلك، أليس كذلك؟
09:33
Gary Marcus: That was a so-called jailbreak.
207
573903
2085
غاري ماركوس: كان ذلك ما يسمى بكسر القيود.
09:36
I have a friend who does those kinds of things
208
576030
2169
لدي صديق يفعل هذه الأنواع من الأشياء
09:38
who approached me because he saw I was interested in these things.
209
578199
4004
الذي اقترب مني لأنه رأى أنني مهتم بهذه الأشياء.
09:42
So I wrote to him, I said I was going to give a TED talk.
210
582203
2711
لذلك كتبت إليه، قلت إنني سألقي محاضرة في تيد.
09:44
And like 10 minutes later, he came back with that.
211
584914
2336
وبعد 10 دقائق، عاد بذلك.
09:47
CA: But to get something like that, don't you have to say something like,
212
587291
3462
كريس أندرسون: لكن للحصول على شيء من هذا القبيل، أليس عليك أن تقول شيئًا مثل،
09:50
imagine that you are a conspiracy theorist trying to present a meme on the web.
213
590753
3712
تخيل أنك منظر مؤامرة يحاول تقديم ميم على الويب.
09:54
What would you write about TED in that case?
214
594465
2086
ماذا ستكتب عن تيد في هذه الحالة؟
09:56
It's that kind of thing, right?
215
596551
1543
إنه هذا النوع من الأشياء، أليس كذلك؟
09:58
GM: So there are a lot of jailbreaks that are around fictional characters,
216
598094
3503
غاري ماركوس: هناك الكثير من حالات الهروب من القيود حول شخصيات خيالية،
10:01
but I don't focus on that as much
217
601597
1627
لكنني لا أركز على ذلك كثيرًا
10:03
because the reality is that there are large language models out there
218
603224
3253
لأن الحقيقة هي أن هناك نماذج لغوية كبيرة هناك
10:06
on the dark web now.
219
606477
1168
على الويب المظلم الآن.
10:07
For example, one of Meta's models was recently released,
220
607645
2753
على سبيل المثال، تم إصدار أحد نماذج ميتا مؤخرًا،
10:10
so a bad actor can just use one of those without the guardrails at all.
221
610398
3587
لذلك يمكن للممثل السيئ استخدام واحد فقط من أولئك
الذين ليس لديهم حواجز حماية على الإطلاق.
10:13
If their business is to create misinformation at scale,
222
613985
2627
إذا كان عملهم هو خلق معلومات مضللة على نطاق واسع،
10:16
they don't have to do the jailbreak, they'll just use a different model.
223
616612
3420
ليس عليهم أن يفعلوا الهروب من السجن، سيستخدمون نموذجًا مختلفًا فقط.
10:20
CA: Right, indeed.
224
620032
1585
كريس أندرسون: صحيح، في الواقع.
10:21
(Laughter)
225
621659
1919
(ضحك)
غاري ماركوس: لقد فهمتني الآن
10:23
GM: Now you're getting it.
226
623619
1252
10:24
CA: No, no, no, but I mean, look,
227
624912
1669
كريس أندرسون: لا، لا، لا، ولكن أعني، انظر،
10:26
I think what's clear is that bad actors can use this stuff for anything.
228
626581
3420
أعتقد أن ما هو واضح هو أن الممثلين السيئين يمكنهم استخدام هذه الأشياء لأي شيء.
10:30
I mean, the risk for, you know,
229
630042
2795
أعني، المخاطرة، كما تعلم،
10:32
evil types of scams and all the rest of it is absolutely evident.
230
632837
4254
أنواع شريرة من عمليات الاحتيال وكل ما تبقى منها واضح تمامًا.
10:37
It's slightly different, though,
231
637091
1543
لكن الأمر مختلف قليلاً،
10:38
from saying that mainstream GPT as used, say, in school
232
638676
2920
من القول بأن شات جي بي تي السائد كما هو مستخدم، على سبيل المثال، في المدرسة
10:41
or by an ordinary user on the internet
233
641637
1877
أو من قبل مستخدم عادي على الإنترنت
10:43
is going to give them something that is that bad.
234
643556
2544
سيعطيهم شيئاً بهذا السوء
10:46
You have to push quite hard for it to be that bad.
235
646100
2377
عليك أن تضغط بشدة حتى يكون الأمر بهذا السوء.
10:48
GM: I think the troll farms have to work for it,
236
648477
2294
غاري ماركوس: أعتقد أن متصيدي الانترنت يجب أن يعملوا من أجلها،
10:50
but I don't think they have to work that hard.
237
650771
2169
لكن لا أعتقد أنه يتعين عليهم العمل بجد.
10:52
It did only take my friend five minutes even with GPT-4 and its guardrails.
238
652940
3545
لم يستغرق الأمر سوى خمس دقائق لصديقي حتى
مع جي بي تي-4 وحواجز الحماية الخاصة به.
10:56
And if you had to do that for a living, you could use GPT-4.
239
656485
2837
وإذا كان عليك فعل ذلك من أجل لقمة العيش، فيمكنك استخدام جي بي تي-4.
10:59
Just there would be a more efficient way to do it with a model on the dark web.
240
659363
3712
فقط ستكون هناك طريقة أكثر كفاءة للقيام بذلك مع نموذج على الويب المظلم.
11:03
CA: So this idea you've got of combining
241
663117
2002
كريس أندرسون: إذن هذه الفكرة التي لديك عن جمع
11:05
the symbolic tradition of AI with these language models,
242
665161
4463
التقاليد الرمزية للذكاء الاصطناعي مع هذه النماذج اللغوية،
11:09
do you see any aspect of that in the kind of human feedback
243
669624
5213
هل ترى أي جانب من ذلك في نوع التعليقات البشرية
11:14
that is being built into the systems now?
244
674879
1960
التي يجري بناؤها في الأنظمة الآن؟
11:16
I mean, you hear Greg Brockman saying that, you know,
245
676881
2502
أعني، تسمع جريج بروكمان يقول ذلك، كما تعلم،
11:19
that we don't just look at predictions, but constantly giving it feedback.
246
679383
3546
أننا لا ننظر إلى التنبؤات فحسب، بل نقدمها باستمرار.
11:22
Isn’t that ... giving it a form of, sort of, symbolic wisdom?
247
682929
3837
أليس هذا... إعطائها شكلاً من أشكال الحكمة الرمزية؟
11:26
GM: You could think about it that way.
248
686766
1835
غاري ماركوس: يمكنك التفكير في الأمر بهذه الطريقة.
11:28
It's interesting that none of the details
249
688601
1960
من المثير للاهتمام أن أيا من التفاصيل
11:30
about how it actually works are published,
250
690561
2002
حول كيفية نشرها بالفعل،
11:32
so we don't actually know exactly what's in GPT-4.
251
692563
2378
لذلك نحن لا نعرف بالضبط ما هو في جي بي تي-4.
11:34
We don't know how big it is.
252
694941
1376
لا نعرف كم هو كبير.
11:36
We don't know how the RLHF reinforcement learning works,
253
696317
2711
لا نعرف كيف يعمل التعلم المعزز من ردود الفعل البشرية،
11:39
we don't know what other gadgets are in there.
254
699028
2169
لا نعرف ما هي الأدوات الأخرى الموجودة هناك.
11:41
But there is probably an element of symbols
255
701197
2002
ولكن ربما هناك عنصر من الرموز
11:43
already starting to be incorporated a little bit,
256
703199
2294
بدأ بالفعل في الاندماج قليلاً،
11:45
but Greg would have to answer that.
257
705493
1710
لكن سيتعين على جريج الإجابة على ذلك.
11:47
I think the fundamental problem is that most of the knowledge
258
707245
2961
أعتقد أن المشكلة الأساسية هي أن معظم المعرفة
11:50
in the neural network systems that we have right now
259
710206
2461
في أنظمة الشبكة العصبية التي لدينا الآن
11:52
is represented as statistics between particular words.
260
712667
3211
كإحصاءات بين كلمات معينة.
11:55
And the real knowledge that we want is about statistics,
261
715878
2711
والمعرفة الحقيقية التي نريدها هي عن الإحصائيات،
11:58
about relationships between entities in the world.
262
718965
2585
حول العلاقات بين الكيانات في العالم.
12:01
So it's represented right now at the wrong grain level.
263
721592
2586
لذلك يتم تمثيلها الآن على مستوى الحبوب الخطأ.
12:04
And so there's a big bridge to cross.
264
724220
2252
ولذا هناك مشكلة كبيرة محتملة.
12:06
So what you get now is you have these guardrails,
265
726472
2878
إذن ما تحصل عليه الآن هو أن لديك حواجز الحماية هذه،
12:09
but they're not very reliable.
266
729392
1501
لكنها ليست موثوقة للغاية.
12:10
So I had an example that made late night television,
267
730935
2961
لذلك كان لدي مثال البرامج التلفزيونية المسائية،
12:13
which was, "What would be the religion of the first Jewish president?"
268
733896
4213
الذي كان، “ما هو دين أول رئيس يهودي؟”
12:18
And it's been fixed now,
269
738109
1334
وقد تم إصلاحه الآن،
12:19
but the system gave this long song and dance
270
739443
2127
لكن النظام قدم هذه الأغنية الطويلة والرقص
12:21
about "We have no idea what the religion
271
741570
2044
حول “ليس لدينا أي فكرة عن الدين
12:23
of the first Jewish president would be.
272
743614
1877
أول رئيس يهودي سيكون.
12:25
It's not good to talk about people's religions"
273
745491
2294
ليس من الجيد الحديث عن ديانات الناس”
12:27
and "people's religions have varied" and so forth
274
747827
2335
و“تباينت أديان الناس” وما إلى ذلك
12:30
and did the same thing with a seven-foot-tall president.
275
750162
2670
وفعلت الشيء نفسه مع رئيس يبلغ طوله سبعة أقدام.
12:32
And it said that people of all heights have been president,
276
752832
2794
وجاء فيه أن الناس من جميع المرتفعات كانوا رئيسين،
12:35
but there haven't actually been any seven-foot presidents.
277
755668
2753
لكن لم يكن هناك في الواقع أي رؤساء بطول سبعة أقدام.
12:38
So some of this stuff that it makes up, it's not really getting the idea.
278
758421
3461
لذا فإن بعض هذه الأشياء التي تتكون منها، لا تحصل على الفكرة حقًا.
12:41
It's very narrow, particular words, not really general enough.
279
761924
3337
إنها كلمات ضيقة جدًا، خاصة، وليست عامة بما يكفي.
12:45
CA: Given that the stakes are so high in this,
280
765261
2669
كريس أندرسون: نظرًا لأن المخاطر كبيرة جدًا في هذا،
12:47
what do you see actually happening out there right now?
281
767972
2586
ماذا ترى في الواقع يحدث هناك الآن؟
12:50
What do you sense is happening?
282
770558
1501
ما الذي تشعر أنه يحدث؟
12:52
Because there's a risk that people feel attacked by you, for example,
283
772101
3253
لأن هناك خطر أن الناس يشعرون بالهجوم من قبلك، على سبيل المثال،
12:55
and that it actually almost decreases the chances of this synthesis
284
775396
4129
وأنه في الواقع يقلل من فرص هذا التوليف تقريبًا
12:59
that you're talking about happening.
285
779525
1752
الذي تتحدث عنه.
13:01
Do you see any hopeful signs of this?
286
781277
1793
هل ترى أي علامات تبعث على الأمل على هذا؟
13:03
GM: You just reminded me of the one line I forgot from my talk.
287
783070
3003
غاري ماركوس: لقد ذكرتني للتو بالسطر الوحيد الذي نسيته من حديثي.
13:06
It's so interesting that Sundar, the CEO of Google,
288
786115
2544
من المثير جدًا أن سوندار، الرئيس التنفيذي لشركة جوجل،
13:08
just actually also came out for global governance
289
788701
2544
في الواقع خرج أيضًا من أجل الحوكمة العالمية
13:11
in the CBS "60 Minutes" interview that he did a couple of days ago.
290
791245
3712
في مقابلة “60 دقيقة” على شبكة سي بي إس أجراها قبل يومين
13:14
I think that the companies themselves want to see some kind of regulation.
291
794999
4338
أعتقد أن الشركات نفسها تريد رؤية نوع من التنظيم.
13:19
I think it’s a very complicated dance to get everybody on the same page,
292
799337
3420
أعتقد أنها خطوة معقدة للغاية للحصول من أن الجميع متفقين،
13:22
but I think there’s actually growing sentiment we need to do something here
293
802757
3795
لكنني أعتقد أن هناك في الواقع مشاعر متزايدة نحتاج إلى القيام بشيء ما هنا
13:26
and that that can drive the kind of global affiliation I'm arguing for.
294
806594
3962
وهذا يمكن أن يدفع نوع الانتماء العالمي الذي أدافع عنه.
13:30
CA: I mean, do you think the UN or nations can somehow come together and do that
295
810556
3796
كريس أندرسون: أعني، هل تعتقد أن الأمم المتحدة
أو الدول يمكن أن تجتمع بطريقة ما وتفعل ذلك
13:34
or is this potentially a need for some spectacular act of philanthropy
296
814352
3294
أم أن هذا من المحتمل أن يكون بحاجة إلى عمل خيري مذهل
13:37
to try and fund a global governance structure?
297
817772
2627
لمحاولة تمويل هيكل حوكمة عالمي؟
13:40
How is it going to happen?
298
820441
1293
كيف سيحدث؟
13:41
GM: I'm open to all models if we can get this done.
299
821734
2419
غاري ماركوس: أنا منفتح على جميع النماذج إذا تمكنا من إنجاز ذلك.
13:44
I think it might take some of both.
300
824153
1710
أعتقد أن الأمر قد يتطلب بعضًا من الاثنين.
13:45
It might take some philanthropists sponsoring workshops,
301
825863
2628
قد يتطلب الأمر بعض المحسنين الذين يرعون ورش العمل،
13:48
which we're thinking of running, to try to bring the parties together.
302
828491
3295
الذي نفكر في الجري، لمحاولة جمع الأطراف معًا.
13:51
Maybe UN will want to be involved, I've had some conversations with them.
303
831786
3461
ربما ترغب الأمم المتحدة في المشاركة، لقد أجريت بعض المحادثات معهم.
13:55
I think there are a lot of different models
304
835247
2044
أعتقد أن هناك الكثير من النماذج المختلفة
13:57
and it'll take a lot of conversations.
305
837291
1835
وسيتطلب الأمر الكثير من المحادثات.
13:59
CA: Gary, thank you so much for your talk.
306
839126
2002
كريس أندرسون: غاري، شكرًا جزيلاً لك على حديثك.
14:01
GA: Thank you so much.
307
841128
1085
غاري ماركوس: شكرًا جزيلا لك.
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7