Is AI Progress Stuck? | Jennifer Golbeck | TED

126,180 views ・ 2024-11-19

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: Tarig Abdalla Eltom المدقّق: Leen Sattout
00:04
We've built artificial intelligence already
0
4334
2878
لقد بنينا الذكاء الاصطناعي بالفعل،
00:07
that, on specific tasks, performs better than humans.
1
7212
3837
والذي يؤدي بشكلٍ أفضل في مهام محددة.
00:11
There's AI that can play chess and beat human grandmasters.
2
11049
4505
والذي يمكنه التغلب على أساتذة لعبة الشطرنج.
00:15
But since the introduction of generative AI
3
15595
2336
ولكن منذ تقديم الذكاء الاصطناعي التوليدي،
00:17
to the general public a couple years ago,
4
17973
2544
لعامة الناس قبل بضع سنوات،
00:20
there's been more talk about artificial general intelligence, or AGI,
5
20517
5297
كان هناك المزيد من الحديث عن الذكاء العام الاصطناعي، أو AGI،
00:25
and that describes the idea
6
25814
1418
ومدار الحديث كالآتي:
00:27
that there's AI that can perform at or above human levels
7
27232
3879
أنه هناك ذكاءً اصطناعيًا يماثل الأداء المستوى البشري أو أعلى منه حتى،
00:31
on a wide variety of tasks, just like we humans are able to do.
8
31152
4004
في مهامٍ كثيرة، تمامًا كقدرتنا نحن البشر.
00:35
And people who think about AGI are worried about what it means
9
35615
3587
يشعر الناس بالقلق حول الذكاء الإصطناعي العام وما يعنيه،
00:39
if we reach that level of performance in the technology.
10
39244
3754
إذا وصلنا فعلًا إلى هذا المستوى من الأداء تقنيًا.
00:42
Right now, there's people from the tech industry
11
42998
2252
بعض الناس في الشركات التقنية،
00:45
coming out and saying
12
45292
1126
خرجوا علنًا ليقولوا:
00:46
"The AI that we're building is so powerful and dangerous
13
46459
2962
“إن الذكاء الاصطناعي الذي نقوم ببنائه قوي للغاية وخطير،
00:49
that it poses a threat to civilization.”
14
49462
2711
لدرجة أنه يشكل تهديداً على الإنسانية“.
00:52
And they’re going to government and saying,
15
52173
2002
وتوجهوا إلى الحكومة،
وأشاروا إلى ضرورة تدخل الحكومة لضبط صناعة هذه التقنية.
00:54
"Maybe you need to regulate us."
16
54217
1794
00:56
Now normally when an industry makes a powerful new tool,
17
56052
2878
عادةً، عندما تخترع الشركات التقنية أداة جديدة قوية،
00:58
they don't say it poses an existential threat to humanity
18
58930
2920
فإنهم لا يقولون أبدًا إنها تشكل تهديدًا وجوديًا للإنسانية
01:01
and that it needs to be limited, so why are we hearing that language?
19
61891
3963
وأنه يجب تقييدها وضبطها، فلماذا يصرحون بذلك الآن؟
01:05
And I think there's two main reasons.
20
65895
2128
برأيي أنه هناك سببان رئيسيان لذلك:
01:08
One is if your technology is so powerful
21
68064
4046
الأول هو إذا كانت التقنية التي صنعتَها قوية جدًا،
01:12
that it can destroy civilization, between now and then,
22
72152
4171
فبإمكانها أن تدمر الحضارة، ما بين الآن وحتى ذلك الوقت،
01:16
there's an awful lot of money to be made with that.
23
76364
3003
ستجني الشركات أرباحاً هائلة.
01:19
And what better way to convince your investors
24
79409
2461
وهل هناك أي طريقة أفضل لإقناع المستثمرين
01:21
to put some money with you
25
81911
1252
ليستثمروا أموالهم في شركتك،
01:23
than to warn that your tool is that dangerous?
26
83204
3045
من خلال التحذير من خطر الأداة التي صنعتها لهذه الدرجة؟
01:26
The other is that the idea of AI overtaking humanity
27
86291
3587
السبب الآخر هو أن فكرة تفوق الذكاء الاصطناعي على البشرية
01:29
is truly a cinematic concept.
28
89878
2169
هي حقا مفهوم سينمائي.
01:32
We’ve all seen those movies.
29
92088
2127
لقد رأينا جميعًا تلك الأفلام.
01:34
And it’s kind of entertaining to think about what that would mean now
30
94215
3379
ومن الممتع التفكير في مطابقة الخيال السينمائي مع الواقع الآن،
01:37
with tools that we're actually able to put our hands on.
31
97636
3461
بالأدوات التي هي حاليًا تحت أيدينا.
01:41
In fact, it’s so entertaining that it’s a very effective distraction
32
101097
4505
في الواقع، إنها لعبة مسلية جدًا لدرجة أنها تلهينا تمامًا
01:45
from the real problems already happening in the world because of AI.
33
105644
4879
عن المشاكل الحقيقية التي تحدث بالفعل في العالم بسبب الذكاء الاصطناعي.
01:50
The more we think about these improbable futures,
34
110565
3879
كلما فكرنا أكثر في هذه المشاكل غير المنظورة في المستقبل،
01:54
the less time we spend thinking about how do we correct deepfakes
35
114486
4004
كلما قل الوقت الذي نقضيه في معالجة أشياء مثل التزييف العميق،
01:58
or the fact that there's AI right now being used to decide
36
118531
3462
أو مشكلة أن الذكاء الاصطناعي يُستخدم الآن لاتخاذ القرار،
02:01
whether or not people are let out of prison,
37
121993
2086
بشأن هل يُطلق سراح الناس من السجن أم لا،
02:04
and we know it’s racially biased.
38
124079
2127
ونحن نعلم مسبقاً أن الذكاء الاصطناعي متحيز عنصريًا.
02:06
But are we anywhere close to actually achieving AGI?
39
126665
3503
ولكن هل اقتربنا فعلًا من إنجاز الذكاء الاصطناعي العام؟
02:10
Some people think so.
40
130210
1334
بعض الناس يعتقدون ذلك.
02:11
Elon Musk said that we'll achieve it within a year.
41
131544
2419
إيلون ماسك قال إننا سنحقق ذلك في غضون عام.
02:13
I think he posted this a few weeks ago.
42
133963
2128
أعتقد أنه نشر هذا قبل بضعة أسابيع.
ولكن في تاريخ منشور أيلون ماسك ذاته،
02:16
But like at the same time
43
136132
1502
02:17
Google put out their eye search tool that's supposed to give you the answer
44
137676
3753
طرحت Google أداة البحث “عدسة غوغل” والتي يفترض أن تعطيك الإجابة
02:21
so you don’t have to click on a link,
45
141471
1919
دون حاجة للنقر فوق الرابط،
02:23
and it's not going super well.
46
143431
2169
واضح أن الأمور هنا ليست صحيحة!
02:25
["How many rocks should I eat?"]
47
145642
1543
["كم عدد الصخور التي يجب أن آكلها؟"]
02:27
["... at least a single serving of pebbles, geodes or gravel ..."]
48
147227
3128
[“... على الأقل حصة واحدة من الحصى أو الحجارة...“]
02:30
Please don't eat rocks.
49
150355
1209
من فضلك لا تأكل الصخور!.
02:31
(Laughter)
50
151564
1168
(ضحك)
02:32
Now of course these tools are going to get better.
51
152732
3003
بالطبع سوف تتحسن هذه الأدوات.
02:35
But if we're going to achieve AGI
52
155777
2836
ولكن إذا أردنا إنجاز الذكاء الاصطناعي العام
02:38
or if they're even going to fundamentally change the way we work,
53
158613
3420
أو إذا قُدر لهذا الذكاء الاصطناعي العام أن يغير جذريًا طريقة عملنا،
02:42
we need to be in a place where they are continuing
54
162075
2628
فنحن بحاجة إلى أن يعمل صانعوا هذه التقنية،
02:44
on a sharp upward trajectory in terms of their abilities.
55
164703
3795
على تطوير قدرات هذه الأدوات بقوة وصقلها بشكل متصاعد،
02:48
And that may be one path.
56
168498
1835
هذا هو الاحتمال الأول،
02:50
But there's also the possibility that what we're seeing
57
170375
2586
الاحتمال الثاني،
02:53
is that these tools have basically achieved
58
173002
2420
هو أن هذه الأدوات قد حققت أساسًا
02:55
what they're capable of doing,
59
175422
1501
كل ما بمقدورها فعله،
02:56
and the future is incremental improvements in a plateau.
60
176923
4129
ولا مجال مستقبلًا سوى لتحسينات تدريجية لهذه التقنيات.
03:01
So to understand the AI future,
61
181052
2211
لذا، لفهم مستقبل الذكاء الاصطناعي،
03:03
we need to look at all the hype around it and get under there
62
183304
2920
نحن بحاجة إلى تفحّص كل هذه الضجة حولها،
لمعرفة حقيقتها، ولنرى ما هو ممكن من الناحية الفنية.
03:06
and see what's technically possible.
63
186266
1751
03:08
And we also need to think about where are the areas that we need to worry
64
188017
3462
وعلينا أيضًا التبصّر فيما يقلقنا بشأن هذه التقنيات
03:11
and where are the areas that we don't.
65
191479
1835
وجوانبها الأخرى التي لا قلق بشأنها.
03:13
So if we want to realize the hype around AI,
66
193857
3086
لذا، إذا أردنا أن نعرف حقيقة الضجة حول الذكاء الاصطناعي،
03:16
the one main challenge that we have to solve is reliability.
67
196985
3712
فإن التحدي الرئيسي الوحيد الذي يتعين علينا حله هو الموثوقية.
03:20
These algorithms are wrong all the time, like we saw with Google.
68
200697
4421
هذه الخوارزميات تخطئ باستمرار، كما رأينا مع غوغل قبل قليل.
03:25
And Google actually came out and said,
69
205118
2002
وفي الواقع خرج المسؤولون في غوغل،
03:27
after these bad search results were popularized,
70
207162
3211
بعد انتشار نتائج البحث السيئة هذه،
03:30
that they don't know how to fix this problem.
71
210415
2169
وقالوا أنهم لا يعرفون كيفية حل هذه المشكلة.
03:32
I use ChatGPT every day.
72
212625
1335
أنا أستخدم ChatGPT كل يوم،
03:34
I write a newsletter that summarizes discussions on far-right message boards,
73
214002
3754
أكتب رسالة إخبارية تلخص المناقشات على المنصات اليمينية المتطرفة،
03:37
and so I download that data,
74
217797
1377
أقوم بتنزيل المناقشات، وأرفعها لـChatGPT،
03:39
ChatGPT helps me write a summary.
75
219174
1918
ليساعدني في كتابة ملخص لها.
03:41
And it makes me much more efficient than if I had to do it by hand.
76
221134
4546
وهذا يجعلني أكثر كفاءة مما لو اضطررت إلى القيام بكل ذلك يدويًا.
ولكن لا بد لي - على الدوام - من إجراء تصحيحات على ملخصاته،
03:45
But I have to correct it every day
77
225722
2044
03:47
because it misunderstands something,
78
227766
1751
لأنه يسيء فهم بعض الأشياء،
03:49
it takes out the context.
79
229559
1793
فيخرج عن السياق.
03:51
And so because of that,
80
231394
1877
ولهذا السبب،
03:53
I can't just rely on it to do the job for me.
81
233313
2752
لا يمكنني الإعتماد عليه ليقوم بمهمتي،
03:56
And this reliability is really important.
82
236107
2878
وهذه الإعتماد مهمة حقًا.
03:58
Now a subpart of reliability in this space is AI hallucination,
83
238985
5255
من مشاكل الموثوقية في هذا المجال، ما يُسمى بهلوسة الذكاء الاصطناعي،
04:04
a great technical term for the fact that AI just makes stuff up
84
244282
3587
مصطلح تقني رائع لحقيقة أن الذكاء الاصطناعي يختلق الأشياء فحسب.
04:07
a lot of the time.
85
247911
1418
دائمًا يختلق الأشياء.
04:09
I did this in my newsletter.
86
249370
1377
جربت هذا في رسالتي الإخبارية
04:10
I said, ChatGPT are there any people threatening violence?
87
250747
3128
سألت ChatGPT هل هناك أي شخص يهدد بالعنف؟
04:13
If so, give me the quotes.
88
253917
1251
إذا كان الأمر كذلك، فأخبرني من قال ذلك؟.
04:15
And it produced these three really clear threats of violence
89
255210
2919
قدم لي ثلاثة تهديدات عنيفة واضحة،
04:18
that didn't sound anything like people talk
90
258171
2002
ولأن إجابته لا تشبه ما يقوله الناس،
04:20
on these message boards.
91
260215
1167
على منصاتهم هذه
04:21
And I went back to the data, and nobody ever said it.
92
261424
2503
راجعت المنصات، ولم أجد أحدًا قالها على الإطلاق.
04:23
It just made it up out of thin air.
93
263927
2252
لقد صنع ChatGPT ذلك من لا شيء!
04:26
And you may have seen this if you've used an AI image generator.
94
266221
3044
تعرفون الصور المنشأة بالذكاء الاصطناعي التوليدي
04:29
I asked it to give me a close up of people holding hands.
95
269265
3295
طلبت منه أن يمنحني صورة مقربة لأشخاص تتماسك أيديهم.
04:32
That's a hallucination and a disturbing one at that.
96
272602
3295
هذه هلوسة، وهلوسة مزعجة أيضًا
04:35
(Laughter)
97
275939
1710
(ضحك)
04:37
We have to solve this hallucination problem
98
277649
3086
علينا أن نحل مشكلة الهلوسة هذه،
04:40
if this AI is going to live up to the hype.
99
280777
3003
إذا أردنا أن يرتقي هذا الذكاء الاصطناعي إلى مستوى هذه الضجة حوله.
04:43
And I don't think it's a solvable problem.
100
283780
2878
ولا أعتقد أنها مشكلة قابلة للحل.
04:46
With the way this technology works, there are people who say,
101
286699
2878
مع الطريقة التي تعمل بها هذه التكنولوجيا،
04:49
we're going to have it taken care of in a few months,
102
289619
2544
هناك من يقول، ستحل هذه المشكلة خلال بضعة أشهر،
04:52
but there’s no technical reason to think that’s the case.
103
292163
2711
ولكن لا يوجد سبب فني يؤيد هذا القول.
04:54
Because generative AI always makes stuff up.
104
294874
3420
لأن الذكاء الاصطناعي التوليدي يختلق الأشياء دائمًا.
04:58
When you ask it a question,
105
298294
1418
عندما تطرح عليه سؤالاً،
04:59
it's creating that answer or creating that image from scratch
106
299754
4254
فإنه يُنشئ لك تلك الإجابة، أو تلك الصورة من الصفر
05:04
when you ask.
107
304050
1168
كإجابة لسؤالك،
05:05
It's not like a search engine that goes and finds the right answer on a page.
108
305218
3670
إنه ليس مثل محرك البحث الذي يذهب ويجد الإجابة الصحيحة على صفحة ما.
05:08
And so because its job is to make things up every time,
109
308888
3879
ولأن وظيفته هي اختلاق الأشياء في كل مرة،
05:12
I don't know that we're going to be able to get it to make up correct stuff
110
312767
3587
فلا أعلم متى سنكون قادرين على الحصول على الإجابات الصحيحة
ونميّزها من الأشياء الأخرى التي يختلقها.
05:16
and then not make up other stuff.
111
316354
1627
05:17
That's not what it's trained to do,
112
317981
1710
وهذا ليس ما تم تدريبه على القيام به،
05:19
and we're very far from achieving that.
113
319732
2128
ونحن بعيدون جدًا عن تحقيق ذلك.
05:21
And in fact, there are spaces where they're trying really hard.
114
321901
3170
وفي الواقع، هناك من يبذلون قصارى جهدهم.
05:25
One space that there's a lot of enthusiasm for AI
115
325113
2627
هناك الكثير من الحماس في المجال القانوني،
05:27
is in the legal area
116
327740
1335
فيما يخص استخدام الذكاء الاصطناعي
05:29
where they hope it will help write legal briefs or do research.
117
329117
3420
حيث يأملون أن يساعدنا في كتابة الملخصات القانونية والأبحاث.
05:32
Some people have found out the hard way
118
332579
2168
وقد تعلم بعض القانونيين من أخطائهم،
05:34
that they should not write legal briefs right now with ChatGPT
119
334789
3837
تعلموا ألا يستعينوا بـ ChatGPT لكتابة المذكرات القانونية،
05:38
and send them to federal court,
120
338668
1501
لإرسالها إلى المحكمة الفيدرالية،
05:40
because it just makes up cases that sound right.
121
340211
3379
لأنه فقط يختلق قضايا ويجعلها تبدو صحيحة.
05:43
And that's a really fast way to get a judge mad at you
122
343631
2836
وهذه طريقة سريعة حقًا لإثارة غضب القاضي عليك،
05:46
and to get your case thrown out.
123
346509
1752
وإنهاء قضيتك.
05:49
Now there are legal research companies right now
124
349012
2544
بعض شركات الأبحاث القانونية،
05:51
that advertise hallucination-free
125
351598
2961
أعلنت عن أدوات ذكاء اصطناعي توليدي
05:54
generative AI.
126
354559
1626
خالية من الهلوسة.
05:56
And I was really dubious about this.
127
356561
3003
وأنا كنت متشككة حقًا بشأنها.
05:59
And researchers at Stanford actually went in and checked it,
128
359564
3628
وقد قام الباحثون في جامعة ستانفورد بالفعل بفحصها،
06:03
and they found the best-performing of these hallucination-free tools
129
363192
3754
وقد وجدوا أن أفضل الأدوات الخالية من الهلوسة أداءً
06:06
still hallucinates 17 percent of the time.
130
366946
2544
لا تزال تهذي بنسبة 17 بالمائة من الوقت.
06:10
So like on one hand,
131
370158
1626
لذلك فإذا سلمنا بأنه إنجاز علمي عظيم؛ إذ بنينا أداة
06:11
it's a great scientific achievement that we have built a tool
132
371826
3629
06:15
that we can pose basically any query to,
133
375496
2920
يمكننا أن نطرح عليها أي استفسار،
06:18
and 60 or 70 or maybe even 80 percent of the time
134
378458
3211
وتعطينا إجابة معقولة بنسبة 60 أو 70 بالمائة،
06:21
it gives us a reasonable answer.
135
381711
1919
أو ربما حتى 80 بالمائة،
06:23
But if we're going to rely on using those tools
136
383963
2252
ولكن إذا كنا سنعتمد على استخدام تلك الأدوات،
06:26
and they're wrong 20 or 30 percent of the time,
137
386257
2670
وهي تخطئ بنسبة 20 أو 30 بالمائة،
06:28
there's no model where that's really useful.
138
388927
2961
فلا يوجد نموذج مفيد حقًا.
06:32
And that kind of leads us into
139
392472
2043
وهذا الأمر يقودنا إلى التساؤل،
06:34
how do we make these tools that useful?
140
394557
2002
كيف نجعل هذه الأدوات مفيدة؟
06:36
Because even if you don't believe me
141
396601
1752
لأنه حتى لو كنت لا تصدقني،
06:38
and think we're going to solve this hallucination problem,
142
398353
2711
وتعتقد أننا سنحل مشكلة الهلوسة هذه،
06:41
we're going to solve the reliability problem,
143
401105
2127
كما سنقوم بحل مشكلة الموثوقية،
06:43
the tools still need to get better than they are now.
144
403274
2503
فإن هذه الأدوات لا تزال بحاجة إلى تحسين أدائها الحالي
06:45
And there's two things they need to do that.
145
405777
2085
وهناك شيئان تحتاجهما تلك الأدوات لتتحسن،
06:47
One is lots more data
146
407862
1168
الأول هو الكثير والكثير من البيانات،
06:49
and two is the technology itself has to improve.
147
409072
2294
والثاني هو أن التقنية نفسها يجب أن تتحسن.
06:51
So where are we going to get that data?
148
411783
1960
إذن من أين سنحصل على تلك البيانات؟
06:53
Because they've kind of taken all the reliable stuff online already.
149
413785
3837
لأنهم أخذوا فعلًا جميع الأشياء الموثوقة على الإنترنت.
06:57
And if we were to find twice as much data as they've already had,
150
417622
3295
وإذا تمكنوا من العثور على ضعف ما لديهم من البيانات،
07:00
that doesn't mean they're going to be twice as smart.
151
420959
2502
فإن هذا لا يعني أن ذكاء هذه الأدوات سيتضاعف
07:04
I don't know if there's enough data out there,
152
424295
2169
لا أعرف إذا كان هناك ما يكفي من البيانات،
07:06
and it's compounded by the fact
153
426506
1501
هذا غير أن حقيقة أن ما نجح فيه الذكاء الاصطناعي التوليدي،
07:08
that one way the generative AI has been very successful
154
428049
2920
بشكل كبير للغاية،
07:10
is at producing low-quality content online.
155
430969
3211
هو إنتاج محتوى منخفض الجودة عبر الإنترنت.
مثل ما تنتجه الروبوتات على وسائل التواصل الاجتماعي، المعلومات المضللة،
07:14
That's bots on social media, misinformation,
156
434222
3253
07:17
and these SEO pages that don't really say anything
157
437475
2377
وصفحات تحسين نتائج البحث (SEO) التي لا تفيد بشيء،
07:19
but have a lot of ads and come up high in the search results.
158
439894
3212
ولكنها مليئة بالكثير من الإعلانات التي تظهر في أعلى نتائج البحث.
07:23
And if the AI starts training on pages that it generated,
159
443106
4254
وإذا بدأ الذكاء الاصطناعي في التدريب على الصفحات ذاتها التي أنشأها،
07:27
we know from decades of AI research that they just get progressively worse.
160
447360
4463
فإن أبحاثنا عن الذكاء الاصطناعي تخبرنا أن الأمور تزداد سوءًا بالتدريج.
07:31
It's like the digital version of mad cow disease.
161
451823
2794
إنه مثل النسخة الرقمية من مرض جنون البقر.
07:34
(Laughter)
162
454951
1626
(ضحك)
07:36
Let's say we solve the data problem.
163
456577
2336
لنفترض أننا حللنا مشكلة البيانات.
07:39
You still have to get the technology better.
164
459247
2169
لا يزال يتعين عليك تحسين التكنولوجيا.
07:41
And we've seen 50 billion dollars in the last couple years
165
461457
3379
وقد رأينا أن 50 مليار دولار تم استثمارها في مجال الذكاء الاصطناعي التوليدي،
07:44
invested in improving generative AI.
166
464836
3128
في العامين الماضيين
07:48
And that's resulted in three billion dollars in revenue.
167
468006
3336
قد جلبت إيرادات بقيمة 3 مليارات دولار.
07:51
So that's not sustainable.
168
471342
1585
لذلك هذا استثمار غير مستدام.
07:52
But of course it's early, right?
169
472927
1543
لكن طبعًا من المبكر الحكم عليه صحيح؟
07:54
Companies may find ways to start using this technology.
170
474512
2586
قد تجد الشركات طرقًا للبدء في استخدام هذه التكنولوجيا.
07:57
But is it going to be valuable enough
171
477140
2752
ولكن هل ستكون ذات قيمة كافية
07:59
to justify the tens and maybe hundreds of billions of dollars
172
479934
3170
لتبرير عشرات وربما مئات المليارات من الدولارات
08:03
of hardware that needs to be bought
173
483146
2586
من الأجهزة التي يجب شراؤها
08:05
to make these models get better?
174
485773
1835
لجعل هذه النماذج تتحسن؟
08:08
I don't think so.
175
488109
1126
لا أعتقد ذلك.
08:09
And we can kind of start looking at practical examples to figure that out.
176
489277
3545
ويمكننا أن نبدأ بالنظر إلى أمثلة عملية لمعرفة ذلك.
08:12
And it leads us to think about where are the spaces we need to worry and not.
177
492864
3670
ويقودنا ذلك إلى التفكير في الجوانب التي تثير القلق.
08:16
Because one place that everybody's worried with this
178
496576
2502
لأن الجانب الذي أثار القلق لدى الجميع،
08:19
is that AI is going to take all of our jobs.
179
499120
2085
هو إستيلاء الذكاء الاصطناعي على وظائفنا.
08:21
Lots of people are telling us that’s going to happen,
180
501247
2503
الكثير من الناس يقولون أن هذا سيحدث،
08:23
and people are worried about it.
181
503750
1543
والناس قلقون بشأن ذلك.
08:25
And I think there's a fundamental misunderstanding at the heart of that.
182
505293
3420
وأعتقد أن هناك سوء فهم أساسي في جوهر هذه الفكرة.
08:28
So imagine this scenario.
183
508713
1209
تخيل هذا السيناريو:
08:29
We have a company,
184
509922
1168
لدينا شركة،
08:31
and they can afford to employ two software engineers.
185
511090
2628
يمكنها سداد مرتبات اثنين من مهندسي البرمجيات.
08:33
And if we were to give those engineers some generative AI to help write code,
186
513760
4004
ودعمنا هؤلاء المهندسَين بالذكاء الاصطناعي التوليدي لمساعدتهما في البرمجة،
08:37
which is something it's pretty good at,
187
517805
1877
وهو أمر يجيده الذكاء الاصطناعي وبجدارة،
08:39
let's say they're twice as efficient.
188
519682
1794
لنفترض أن ذلك ضاعف الكفاءة مرتين،
08:41
That's a big overestimate, but it makes the math easy.
189
521517
3462
وهذه مبالغة كبيرة في التقدير، لكنها تسهل علينا الحساب،
08:45
So in that case, the company has two choices.
190
525021
2127
ففي هذه الحالة، أمام الشركة خياران:
08:47
They could fire one of those software engineers
191
527148
2336
إما طرد واحد من المهندسين الإثنين،
08:49
because the other one can do the work of two people now,
192
529525
2670
لأن الآخر يمكنه القيام بعمل شخصين الآن،
08:52
or they already could afford two of them,
193
532195
3712
أو يمكنهم بالفعل تحمل تكلفة الإثنين،
08:55
and now they're twice as efficient,
194
535948
1877
لأنهم أصبحوا أكثر كفاءة بمرتين،
08:57
so they're bringing in more money.
195
537867
1627
لذلك فهما سيجلبان المزيد من الأرباح،
08:59
So why not keep both of them and take that extra profit?
196
539535
3671
فلماذا لا تحتفظ بكليهما وتأخذ هذا الربح الإضافي؟
09:03
The only way this math fails is if the AI is so expensive
197
543247
4338
إن كان ما يُفشل هذه الحَسبة، فهو أن يكون الذكاء الاصطناعي باهظ الثمن جدًا
09:07
that it's not worth it.
198
547585
1585
وأنه لا يستحق كل هذا العناء.
09:09
But that would be like the AI is 100,000 dollars a year
199
549212
3670
ولكن ماذا إن كان الذكاء الاصطناعي يكلف مائة ألف دولار سنويًا
09:12
to do one person's worth of work.
200
552882
2169
للقيام بعمل شخص واحد؟
09:15
So that sounds really expensive.
201
555093
2293
يبدو هذا مكلفًا حقًا.
09:17
And practically,
202
557428
1377
من الناحية العملية،
09:18
there are already open-source versions of these tools
203
558805
2836
هناك بالفعل إصدارات مفتوحة المصدر من هذه الأدوات،
09:21
that are low-cost, that companies can install and run themselves.
204
561682
3295
وهي منخفضة التكلفة، ويمكن للشركات تركيبها وتشغيلها بنفسها،
09:25
Now they don’t perform as well as the flagship models,
205
565019
2878
ربما لا يكون أداؤها مماثلًا لأداء النماذج المشهورة،
09:27
but if they're half as good and really cheap,
206
567939
3044
ولكن إذا كانت بنصف الجودة ورخيصة حقًا،
09:30
wouldn't you take those over the one that costs 100,000 dollars a year
207
570983
3337
ألن تقبل بها عوضًا عن تلك التي تكلف مائة ألف دولار سنويًا،
09:34
to do one person's work?
208
574320
1168
للقيام بعمل شخص واحد؟
09:35
Of course you would.
209
575530
1167
بالطبع سوف تقبل.
09:36
And so even if we solve reliability, we solve the data problem,
210
576697
3003
وهكذا، حتى لو حللنا مشكلة الموثوقية، وحللنا مشكلة البيانات،
09:39
we make the models better,
211
579700
1585
وتمكنّا من جعل النماذج أفضل،
09:41
the fact that there are cheap versions of this available
212
581285
3212
فإن كون أن هناك إصدارات رخيصة متاحة من هذه الأدوات،
09:44
suggests that companies aren't going to be spending
213
584497
2419
يشير إلى أن الشركات لن تنفق مئات الملايين من الدولارات،
09:46
hundreds of millions of dollars to replace their workforce with AI.
214
586916
3712
لاستبدال طاقمهم العامل بالذكاء الاصطناعي
09:50
There are areas that we need to worry, though.
215
590670
2169
ومع ذلك، هناك مجالات تستحق أن نقلق عليها.
09:52
Because if we look at AI now,
216
592839
1835
لأنه إذا نظرنا إلى الذكاء الاصطناعي الآن،
09:54
there are lots of problems that we haven't been able to solve.
217
594715
3045
هناك الكثير من المشاكل التي لم نتمكن بعد من حلها.
09:58
I've been building artificial intelligence for over 20 years,
218
598094
3086
لقد ساهمتُ ببناء الذكاء الاصطناعي لأكثر من 20 عامًا،
10:01
and one thing we know
219
601222
1710
وهناك شيء أنا متأكدة منه:
10:02
is that if we train AI on human data,
220
602974
2919
وهو أنه إذا قمنا بتدريب الذكاء الاصطناعي على البيانات البشرية،
10:05
the AI adopts human biases,
221
605935
2711
فإنه سوف يتبنى تحيزاتنا البشرية،
10:08
and we have not been able to fix that.
222
608688
2586
ولم نتمكن بعد من معالجة ذلك الخلل.
10:11
We've seen those biases start showing up in generative AI,
223
611274
3545
لقد رأينا بداية ظهور تلك التحيزات في الذكاء الاصطناعي التوليدي،
10:14
and the gut reaction is always, well,
224
614861
2085
ودائمًا تكون رد فعلنا التلقائية: حسناً،
10:16
let's just put in some guardrails to stop the AI from doing the biased thing.
225
616988
4337
لنضع قيودًا لمنع الذكاء الاصطناعي من التحيّز.
لكن أولًا القيود لا تعالج التحيز أبدًا، لأن الذكاء الاصطناعي يستطيع تجاوزها.
10:21
But one, that never fixes the bias because the AI finds a way around it.
226
621325
3587
10:24
And two, the guardrails themselves can cause problems.
227
624954
3253
وثانيًا، يمكن أن تسبب قيود الحماية نفسها مشكلات.
10:28
So Google has an AI image generator,
228
628249
2628
لذا لدى جوجل مولد صور يعمل بالذكاء الاصطناعي،
10:30
and they tried to put guardrails in place to stop the bias in the results.
229
630877
4087
وحاولوا وضع حواجز حماية في مكانها الصحيح لوقف التحيز في النتائج.
10:35
And it turned out it made it wrong.
230
635006
2210
واتضح أنه أخطأ.
10:37
This is a request for a picture
231
637258
1627
هذا طلب للصورة
10:38
of the signing of the Declaration of Independence.
232
638926
2336
بمناسبة التوقيع على إعلان الاستقلال.
10:41
And it's a great picture, but it is not factually correct.
233
641304
3879
وهي صورة رائعة، ولكنها ليست صحيحة من الناحية الواقعية.
10:45
And so in trying to stop the bias,
234
645183
2460
وهكذا في محاولة لوقف التحيز،
10:47
we end up creating more reliability problems.
235
647685
4254
ينتهي بنا الأمر إلى خلق المزيد من مشاكل الموثوقية.
10:51
We haven't been able to solve this problem of bias.
236
651981
3670
لم نتمكن من حل مشكلة التحيز هذه.
10:55
And if we're thinking about deferring decision making,
237
655693
2794
وإذا كنا نفكر فيما يخص تأجيل صنع القرار،
10:58
replacing human decision makers and relying on this technology
238
658529
3712
بإحلال هذه التكنولوجيا مكان صناع القرار البشري،
11:02
and we can't solve this problem,
239
662283
1793
ولا تزال تواجهنا مشكلة التحيّز هذه،
11:04
that's a thing that we should worry about
240
664076
2044
فهذا شيء يجب أن نقلق بشأنه،
11:06
and demand solutions to
241
666120
1293
وأن نطالب بإيجاد بحلول له،
11:07
before it's just widely adopted and employed because it's sexy.
242
667455
3503
قبل أن يتم اعتماده واستخدامه على نطاق واسع .
11:11
And I think there's one final thing that's missing here,
243
671459
3003
وأعتقد أن هناك شيء أخير مفقود هنا،
11:14
which is our human intelligence
244
674503
1627
وهو أن ذكاءنا البشري
11:16
is not defined by our productivity at work.
245
676172
3378
لا يتم تعريفه فقط من خلال إنتاجيتنا في العمل.
11:20
At its core, it's defined by our ability to connect with other people.
246
680092
4171
بل يُعرّف ذكاؤنا البشري من خلال قدرتنا على التواصل مع الآخرين،
11:24
Our ability to have emotional responses,
247
684263
2670
وقدرتنا على الحصول على استجابات عاطفية،
11:26
to take our past and integrate it with new information
248
686974
2878
أن نأخذ ماضينا وندمجه مع المعلومات الجديدة
11:29
and creatively come up with new things.
249
689894
2294
والتوصل بشكل خلاق إلى أشياء جديدة.
11:32
And that’s something that artificial intelligence is not now
250
692188
2919
وهذا شيء لا يستطيعه الذكاء الاصطناعي الآن
11:35
nor will it ever be capable of doing.
251
695107
2461
ولن يستطيع القيام به أبدًا.
11:37
It may be able to imitate it
252
697610
1501
ربما يكون قادرا على تقليده،
11:39
and give us a cheap facsimile of genuine connection
253
699153
3087
وإعطائنا نسخة مقلدة رخيصة من التواصل البشري الحقيقي،
11:42
and empathy and creativity.
254
702281
2127
والتعاطف والإبداع.
11:44
But it can't do those core things to our humanity.
255
704408
3671
لكنه لا يستطيع القيام بهذه الأشياء التي هي من صميم إنسانيتنا.
11:48
And that's why I'm not really worried about AGI taking over civilization.
256
708120
5047
ولهذا السبب فأنا لست قلقة حقًا بشأن سيطرة الذكاء الاصطناعي العام على الحضارة.
11:53
But if you come away from this disbelieving everything I have told you,
257
713209
4504
ولكن إن خرجتم من هنا غير مصدقين لكل ما قلته لكم،
11:57
and right now you're worried
258
717755
1460
ولا زلتم قلقين من فكرة
11:59
about humanity being destroyed by AI overlords,
259
719257
3003
أن يدمر أسياد الذكاء الاصطناعي البشرية،
12:02
the one thing to remember is,
260
722301
1877
فتذكروا شيئًا واحدًا:
12:04
despite what the movies have told you,
261
724220
2085
ورغم ما قالته لك الأفلام،
12:06
if it gets really bad,
262
726347
1460
إذا ساءت الأمور بالفعل،
12:07
we still can always just turn it off.
263
727807
2919
فلا يزال بإمكاننا إيقاف تشغيله دائماً!
12:10
(Laughter)
264
730768
1001
(ضحك)
12:11
Thank you.
265
731769
1168
شكراً لكم.
12:12
(Applause)
266
732979
3837
(تصفيق)
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7