The Transformative Potential of AGI — and When It Might Arrive | Shane Legg and Chris Anderson | TED

208,072 views ・ 2023-12-07

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: Hani Eldalees المدقّق: Walaa Mohammed
00:04
Chris Anderson: Shane, give us a snapshot of you growing up
0
4042
2878
كريس أندرسون: شين، أعطنا لمحة عن نشأتك
00:06
and what on Earth led you to get interested in artificial intelligence?
1
6920
3462
وما الذي دفعك إلى الاهتمام بالذكاء الاصطناعي؟
00:10
Shane Legg: Well, I got my first home computer on my 10th birthday,
2
10423
4630
شين ليج: حسنًا، حصلت على أول جهاز كمبيوتر منزلي في عيد ميلادي العاشر،
00:15
and I --
3
15095
1710
وكان هذا قبل الإنترنت وكل شيء.
00:16
this was before the internet and everything.
4
16846
2128
00:18
So you couldn't just go and surf the web and so on.
5
18974
2544
لذا لا لم يكن بإمكانك تصفح الويب وما إلى ذلك.
00:21
You had to actually make stuff yourself and program.
6
21560
2544
كان عليك صنع الأشياء بالفعل وبرمجتها بنفسك.
وهكذا بدأت البرمجة،
00:24
And so I started programming,
7
24145
1585
00:25
and I discovered that in this computer there was a world,
8
25730
3462
واكتشفت أنه في هذا الكمبيوتر هناك عالم،
00:29
I could create a world,
9
29234
1418
يمكنني إنشاء عالم،
00:30
I could create little agents that would run around
10
30652
2753
يمكنني إنشاء شخصيات صغيرة تركض وتطارد بعضها وما إلى ذلك.
00:33
and chase each other and do things and so on.
11
33446
2128
00:35
And I could sort of, bring this whole universe to life.
12
35574
2585
وكان يمكنني، نوعًا ما، أن أعيد هذا الكون كله إلى الحياة.
00:38
And there was sort of that spark of creativity that really captivated me
13
38201
4338
00:42
and sort of, I think that was really the seeds
14
42539
2919
وأعتقد أن هذا كان حقًا منبع اهتمامي
00:45
of my interest that later grew
15
45500
1460
00:46
into an interest in artificial intelligence.
16
46960
2377
الذي نما لاحقًا إلى الاهتمام بالذكاء الاصطناعي.
00:49
CA: Because in your standard education, you had some challenges there.
17
49379
3795
في تعليمك الاعتيادي، واجهت بعض التحديات هناك.
00:53
SL: Yeah, I was dyslexic as a child.
18
53174
3587
نعم، كنت أعاني من عسر القراءة عندما كنت طفلاً.
00:56
And so they were actually going to hold me back a year
19
56803
3796
ولذا كانوا في الواقع سيؤخرونني لمدة عام
01:00
when I was 10 years old,
20
60599
1418
عندما كنت في العاشرة من عمري،
01:02
and they sent me off to get my IQ tested to sort of,
21
62058
2586
وأرسلوني لإجراء اختبار الذكاء لتقييم مدى سوء المشكلة.
01:04
you know, assess how bad the problem was.
22
64686
2210
01:07
And they discovered I had an exceptionally high IQ.
23
67230
3337
واكتشفوا أن لدي معدل ذكاء مرتفع بشكل استثنائي.
01:10
And then they were a little bit confused about what was going on.
24
70609
3128
ثم شعروا بالارتباك قليلاً بشأن ما يجري.
01:13
And fortunately, at that time,
25
73737
1626
ولحسن الحظ، في ذلك الوقت،
01:15
there was somebody in the town I lived in
26
75405
2336
كان هناك شخص ما في المدينة التي عشت فيها
01:17
who knew how to test for dyslexia.
27
77782
1752
يعرف كيفية اختبار عسر القراءة.
01:19
And it turns out I wasn't actually of limited intelligence.
28
79576
3378
واتضح أنني لم أكن في الواقع ذا ذكاء محدود.
01:22
I was dyslexic, and that was the issue.
29
82996
2419
كنت أعاني من عسر القراءة، وكانت هذه هي المشكلة.
01:25
CA: You had reason from an early age to believe
30
85457
2210
كان لديك سبب منذ سن مبكرة للاعتقاد بأن افتراضاتنا القياسية حول الذكاء
01:27
that our standard assumptions about intelligence might be off a bit.
31
87709
3712
قد تكون خاطئة بعض الشيء.
01:31
SL: Well, I had reason, from an early age, to sometimes doubt authority.
32
91421
4004
حسنًا، كان لدي سبب منذ سن مبكرة للشك أحيانًا في السلطة.
01:35
(Laughter)
33
95425
1001
(ضحك)
01:36
You know, if the teacher thinks you're dumb, maybe it's not true.
34
96468
3086
كما تعلمون، إذا كان المعلم يعتقد أنك غبي، فربما هذا ليس صحيحًا.
01:39
Maybe there are other things going on.
35
99554
2169
ربما هناك أشياء أخرى تحدث.
01:41
But I think it also created in me an interest in intelligence
36
101765
4629
لكنني أعتقد أنه خلق في داخلي أيضًا اهتمامًا بالذكاء
01:46
when I sort of had that experience as a child.
37
106436
2794
عندما مررت بهذه التجربة عندما كنت طفلاً.
01:49
CA: So you're credited by many
38
109272
1460
ينسب إليك الكثيرون الفضل
01:50
as coining the term “artificial general intelligence,” AGI.
39
110774
3587
في صياغة مصطلح "الذكاء العام الاصطناعي" أو "AGI"
01:54
Tell us about 2001, how that happened.
40
114402
2711
أخبرنا عن عام 2001، كيف حدث ذلك.
01:57
SL: Yeah, so I was approached by someone called Ben Goertzel
41
117113
3671
نعم، اتصل بي شخص يدعى بن جورتزل الذي كنت أعمل معه بالفعل،
02:00
who I'd actually been working with,
42
120784
1710
02:02
and he was going to write a book,
43
122494
2127
وكان سيكتب كتابًا،
02:04
and he was thinking about a book on AI systems
44
124663
3503
كان يفكر في كتاب عن أنظمة الذكاء الاصطناعي سيكون أكثر عمومية وقدرة،
02:08
that would be much more general and capable,
45
128166
2085
02:10
rather than focusing on very narrow things.
46
130251
2461
بدلاً من التركيز على أشياء محدودة جدًا.
02:13
And he was thinking about a title for the book.
47
133046
2210
وكان يفكر في عنوان للكتاب.
لذا اقترحت عليه، إذا كنت مهتمًا بأنظمة عامة جدًا،
02:15
So I suggested to him, "If you're interested in very general systems,
48
135256
3295
أطلق عليها اسم "الذكاء العام الاصطناعي".
02:18
call it artificial general intelligence."
49
138551
1961
لذا، فقد وافق على ذلك.
02:20
And so he went with that.
50
140553
1210
02:21
And then him and various other people started using the term online
51
141763
3170
ثم بدأ هو والعديد من الأشخاص الآخرين في استخدام المصطلح عبر الإنترنت.
02:24
and the internet,
52
144933
1209
ثم أصبح نوعًا ما شائعًا.
02:26
and then it sort of became popularized from there.
53
146142
2336
اكتشفنا لاحقًا أن هناك شخصًا يدعى مايك جارود،
02:28
We later discovered there was someone called Mike Garrod,
54
148520
2711
نشر ورقة بحثية في مجلة تكنولوجيا النانو الأمنية في عام 1997.
02:31
who published a paper in a security nanotech journal in '97.
55
151231
4296
02:35
So he is actually the first person to have used the term.
56
155568
2711
لذا فهو في الواقع أول شخص يستخدم هذا المصطلح.
02:38
But it turns out he pretty much meant the same thing as us anyway.
57
158279
3295
ولكن اتضح أنه كان يعني إلى حد كبير نفس الشيء مثلنا على أي حال.
02:41
CA: It was kind of an idea whose time had come,
58
161616
2419
لقد كانت نوعاً ما فكرة قد جاء وقتها للتعرف على الإمكانات الموجودة.
02:44
to recognize the potential here.
59
164035
2211
02:46
I mean, you made an early prediction that many people thought was bonkers.
60
166246
4212
أعني، لقد قمت بتنبؤ مبكر اعتقد الكثير من الناس أنه مجنون.
02:50
What was that?
61
170458
1168
ماذا كان ذلك؟
02:51
SL: Well, in about 2001,
62
171668
2711
حسنًا، في عام 2001 تقريبًا،
02:54
a similar time to when I suggested this term artificial general intelligence,
63
174421
4838
وهو وقت مشابه للوقت الذي اقترحت فيه مصطلح الذكاء العام الاصطناعي،
02:59
I read a book by Ray Kurzweil, actually, "Age of Spiritual Machines,"
64
179259
3670
قرأت في الواقع كتابًا لراي كورزويل، "عصر الآلات الروحية"
03:02
and I concluded that he was fundamentally right,
65
182971
3795
وخلصت إلى أنه كان محقًا بشكل أساسي،
03:06
that computation was likely to grow exponentially for at least a few decades,
66
186808
5714
أن الحوسبة من المرجح أن تنمو بشكل كبير لبضعة عقود على الأقل،
03:12
and the amount of data in the world would grow exponentially
67
192564
2836
وأن كمية البيانات في العالم ستنمو بشكل كبير لبضعة عقود.
03:15
for a few decades.
68
195442
1167
03:16
And so I figured that if that was going to happen,
69
196609
2670
ولذا اكتشفت أنه إذا كان ذلك سيحدث،
03:19
then the value of extremely scalable algorithms
70
199279
3545
فإن قيمة الخوارزميات القابلة للتطوير بدرجة كبيرة
03:22
that could harness all this data and computation
71
202824
3295
والتي يمكنها تسخير كل هذه البيانات والحسابات ستكون عالية جدًا.
03:26
were going to be very high.
72
206161
1835
03:27
And then I also figured that in the mid 2020s,
73
207996
3462
ثم اكتشفت أيضًا أنه في منتصف عام 2020، سيكون من الممكن بعد ذلك،
03:31
it would be possible then,
74
211499
1460
03:33
if we had these highly scalable algorithms,
75
213001
2711
إذا كانت لدينا هذه الخوارزميات القابلة للتطوير بدرجة كبيرة،
03:35
to train artificial intelligence systems
76
215712
4254
تدريب أنظمة الذكاء الاصطناعي على بيانات أكثر الإنسان سوف تواجه في العمر.
03:40
on far more data than a human would experience in a lifetime.
77
220008
3420
03:43
And so as a result of that,
78
223470
1418
ونتيجة لذلك،
03:44
you can find it on my blog from about 2009
79
224929
3838
يمكنك العثور عليها على مدونتي منذ عام 2009 تقريبًا،
03:48
I think it's the first time I publicly talked about it,
80
228808
2586
وأعتقد أنها المرة الأولى التي أتحدث فيها علنًا عن ذلك،
03:51
I predicted a 50 percent chance of AGI by 2028.
81
231436
3920
وتوقعت فرصة بنسبة 50 بالمائة لـAGI بحلول عام 2028.
03:55
I still believe that today.
82
235815
2336
ما زلت أعتقد ذلك اليوم.
03:58
CA: That's still your date.
83
238151
1668
CA: لا يزال هذا هو موعدك.
04:00
How did you define AGI back then, and has your definition changed?
84
240320
4045
كيف قمت بتعريف الذكاء الاصطناعي العام في ذلك الوقت، وهل تغير تعريفك؟
04:04
SL: Yeah, I didn't have a particularly precise definition at the beginning.
85
244824
4171
SL: نعم، لم يكن لدي تعريف دقيق بشكل خاص في البداية.
04:09
It was really just an idea of systems that would just be far more general.
86
249037
4588
لقد كانت حقًا مجرد فكرة عن أنظمة ستكون أكثر عمومية بكثير.
04:13
So rather than just playing Go or chess or something,
87
253666
2503
لذا بدلاً من مجرد لعب Go أو الشطرنج أو ما شابه،
04:16
rather than actually be able to do many, many different things.
88
256211
2961
بدلاً من أن تكون قادرًا على القيام بالعديد من أشياء مختلفة.
04:19
The definition I use now is that it's a system
89
259214
2544
التعريف الذي أستخدمه الآن هو أنه نظام
04:21
that can do all the cognitive kinds of tasks
90
261758
2627
يمكنها القيام بجميع الأنواع المعرفية من المهام
04:24
that people can do, possibly more,
91
264385
2545
التي يمكن للناس القيام بها، وربما أكثر من ذلك،
04:26
but at least it can do the sorts of cognitive tasks
92
266930
2419
ولكن على الأقل يمكنها القيام بأنواع المهام المعرفية
04:29
that people can typically do.
93
269349
1877
التي يمكن للناس القيام بها عادةً.
04:31
CA: So talk about just the founding of DeepMind
94
271267
3003
CA: لذا تحدث فقط عن تأسيس DeepMind
04:34
and the interplay between you and your cofounders.
95
274270
4046
والتفاعل بينك وبين المؤسسين.
04:38
SL: Right. So I went to London to the place called the Gatsby Unit,
96
278316
4004
SL: صحيح. لذلك ذهبت إلى لندن إلى مكان يسمى وحدة غاتسبي،
04:42
which studies theoretical neuroscience and machine learning.
97
282362
5046
التي تدرس علم الأعصاب النظري والتعلم الآلي.
04:47
And I was interested in learning the relationships
98
287450
2378
وكنت مهتمًا بتعلم العلاقات
04:49
between what we understand about the brain
99
289828
2043
بين ما نفهمه عن الدماغ
04:51
and what we know from machine learning.
100
291871
1877
وما نعرفه من التعلم الآلي.
04:53
So that seemed like a really good place.
101
293748
1960
لذلك بدا هذا وكأنه مكان جيد حقًا.
04:55
And I met Demis Hassabis there.
102
295708
1544
وقابلت ديميس حسابيس هناك.
04:57
He had the same postdoc supervisor as me,
103
297252
2002
كان لديه نفس مشرف ما بعد الدكتوراة مثلي،
04:59
and we got talking.
104
299295
1252
وتحدثنا.
05:00
And he convinced me
105
300588
2628
وأقنعني
05:03
that it was the time to start a company then.
106
303258
2252
أن الوقت قد حان لبدء شركة في ذلك الوقت.
05:05
That was in 2009 we started talking.
107
305510
2669
كان ذلك في عام 2009 بدأنا الحديث.
05:08
And I was a little bit skeptical.
108
308221
1668
وكنت متشككًا بعض الشيء.
05:09
I thought AGI was still a bit too far away,
109
309889
3545
اعتقدت أن الذكاء الاصطناعي العام لا يزال بعيدًا جدًا،
05:13
but he thought the time was right, so we decided to go for it.
110
313434
3421
لكنه اعتقد أن الوقت قد حان، لذلك قررنا المضي قدمًا.
05:16
And then a friend of his was Mustafa Suleyman.
111
316896
3170
ثم كان صديق له مصطفى سليمان.
05:20
CA: And specifically, one of the goals of the company
112
320733
2503
CA: وعلى وجه التحديد، كان أحد أهداف الشركة
05:23
was to find a pathway to AGI?
113
323236
1835
إيجاد مسار إلى الذكاء الاصطناعي العام؟
05:25
SL: Absolutely.
114
325113
1334
SL: بالتأكيد.
05:26
On our first business plan that we were circulating
115
326447
3879
في خطة عملنا الأولى التي قمنا بتوزيعها
05:30
when we were looking for investors in 2010,
116
330368
3045
عندما كنا نبحث عن مستثمرين في عام 2010،
05:33
it had one sentence on the front cover and it said,
117
333413
2586
كانت تحتوي على جملة واحدة على الغلاف الأمامي تقول
05:36
"Build the world's first artificial general intelligence."
118
336040
2711
: «قم ببناء أول ذكاء اصطناعي عام في العالم».
05:38
So that was right in from the beginning.
119
338793
2669
لذلك كان ذلك صحيحًا منذ البداية.
05:42
CA: Even though you knew
120
342046
1502
CA: على الرغم من أنك تعرف
05:43
that building that AGI might actually have
121
343590
4337
أن بناء هذا الذكاء الاصطناعي العام قد يكون له بالفعل عواقب
05:47
apocalyptic consequences in some scenarios?
122
347969
2628
مروعة في بعض السيناريوهات؟
05:50
SL: Yeah.
123
350930
1210
SL: نعم.
05:52
So it's a deeply transformative technology.
124
352181
4672
لذا فهي تقنية تحويلية للغاية.
05:57
I believe it will happen.
125
357437
1585
أعتقد أن ذلك سيحدث.
05:59
I think that, you know,
126
359856
1251
أعتقد أنه، كما تعلمون،
06:01
these algorithms can be understood and they will be understood at the time.
127
361149
3754
يمكن فهم هذه الخوارزميات وسيتم فهمها في ذلك الوقت.
06:04
And I think that intelligence is fundamentally
128
364944
2962
وأعتقد أن الذكاء هو في الأساس
06:07
an incredibly valuable thing.
129
367906
1876
شيء قيم للغاية.
06:10
Everything around us at the moment -- the building we’re in,
130
370241
2836
كل شيء حولنا في الوقت الحالي -- المبنى الذي نحن
06:13
the words I’m using, the concepts we have, the technology around us --
131
373077
3671
فيه، الكلمات التي أستخدمها، المفاهيم التي لدينا، التكنولوجيا من حولنا -- كما
06:17
you know, all of these things are being affected by intelligence.
132
377540
3087
تعلمون، كل هذه الأشياء تتأثر بالذكاء.
06:20
So having intelligence in machines
133
380668
2878
لذا فإن امتلاك الذكاء في الآلات
06:23
is an incredibly valuable thing to develop.
134
383588
3879
يعد أمرًا قيمًا للغاية لتطويره.
06:27
And so I believe it is coming.
135
387467
2002
ولذا أعتقد أنه قادم.
06:29
Now when a very, very powerful technology arises,
136
389510
4130
الآن عندما تظهر تقنية قوية جدًا، يمكن أن تكون
06:33
there can be a range of different outcomes.
137
393640
2627
هناك مجموعة من النتائج المختلفة.
06:36
Things could go very, very well,
138
396309
1918
يمكن أن تسير الأمور بشكل جيد للغاية،
06:38
but there is a possibility things can go badly as well.
139
398227
2586
ولكن هناك احتمال أن تسوء الأمور أيضًا.
06:40
And that was something I was aware of also from about 20 years ago.
140
400855
4963
وكان هذا شيئًا كنت على دراية به أيضًا منذ حوالي 20 عامًا.
06:46
CA: So talk about, as DeepMind developed,
141
406319
3253
CA: لذا تحدث عن، مع تطور DeepMind،
06:49
was there a moment where you really felt,
142
409572
4296
هل كانت هناك لحظة شعرت فيها حقًا،
06:53
"My goodness, we're onto something unbelievably powerful?"
143
413910
3628
«يا إلهي، نحن بصدد شيء قوي بشكل لا يصدق؟»
06:57
Like, was it AlphaGo, that whole story, or what was the moment for you?
144
417580
4296
مثل، هل كانت AlphaGo، تلك القصة بأكملها، أو ما هي اللحظة المناسبة لك؟
07:01
SL: Yeah, there were many moments over the years.
145
421918
2502
SL: نعم، كانت هناك لحظات عديدة على مر السنين.
07:04
One was when we did the Atari games.
146
424420
2211
كان أحدهما عندما قمنا بألعاب أتاري.
07:07
Have you seen those videos
147
427131
1252
هل شاهدت مقاطع الفيديو هذه
07:08
where we had an algorithm that could learn to play multiple games
148
428424
3420
حيث كانت لدينا خوارزمية يمكنها تعلم لعب ألعاب متعددة
07:11
without being programmed for any specific game?
149
431844
2253
دون أن تتم برمجتها لأي لعبة معينة؟
07:14
There were some exciting moments there.
150
434138
3295
كانت هناك بعض اللحظات المثيرة هناك.
07:17
Go, of course, was a really exciting moment.
151
437433
2586
الذهاب، بالطبع، كانت لحظة مثيرة حقًا.
07:20
But I think the thing that's really captured my imagination,
152
440937
3754
لكنني أعتقد أن الشيء الذي استحوذ على مخيلتي حقًا،
07:24
a lot of people's imagination,
153
444732
1460
وهو خيال الكثير من الناس،
07:26
is the phenomenal scaling of language models in recent years.
154
446192
3253
هو التوسع الهائل لنماذج اللغة في السنوات الأخيرة.
07:29
I think we can see they're systems
155
449821
1960
أعتقد أننا نستطيع أن نرى أنها أنظمة
07:31
that really can start to do some meaningful fraction
156
451781
3670
يمكنها حقًا البدء في القيام بجزء ذي مغزى
07:35
of the cognitive tasks that people can do.
157
455493
2377
من المهام المعرفية التي يمكن للناس القيام بها.
07:37
CA: Now, you were working on those models,
158
457912
2002
CA: الآن، كنت تعمل على هذه النماذج،
07:39
but were you, to some extent, blindsided
159
459914
1960
ولكن هل صُدمت، إلى حد ما،
07:41
by OpenAI's, sort of, sudden unveiling of ChatGPT?
160
461874
5923
من كشف OpenAI المفاجئ نوعًا ما عن ChatGPT؟
07:47
SL: Right.
161
467839
1168
SL: صحيح.
07:49
We were working on them and you know,
162
469007
1835
كنا نعمل عليها وكما تعلمون،
07:50
the transformer model was invented in Google,
163
470842
2127
تم اختراع نموذج المحول في Google،
07:53
and we had teams who were building big transformer language models and so on.
164
473011
5296
وكان لدينا فرق تقوم ببناء نماذج لغة محولات كبيرة وما إلى ذلك.
07:58
CA: Google acquired DeepMind at some point in this journey.
165
478683
3170
CA: استحوذت Google على DeepMind في مرحلة ما من هذه الرحلة.
08:01
SL: Yeah, exactly.
166
481894
1335
SL: نعم، بالضبط.
08:03
And so what I didn't expect
167
483229
4046
ولذا فإن ما لم أتوقعه
08:07
was just how good a model could get training purely on text.
168
487275
4713
هو مدى جودة تدريب النموذج على النص فقط.
08:11
I thought you would need more multimodality.
169
491988
2711
اعتقدت أنك ستحتاج إلى المزيد من الوسائط المتعددة.
08:14
You'd need images, you'd need sound, you'd need video and things like that.
170
494741
3712
ستحتاج إلى صور، صوت، ستحتاج إلى فيديو وأشياء من هذا القبيل.
08:18
But due to the absolutely vast quantities of text,
171
498494
3671
ولكن نظرًا للكميات الهائلة من النصوص،
08:22
it can sort of compensate for these things to an extent.
172
502206
2753
يمكنها نوعًا ما التعويض عن هذه الأشياء إلى حد ما.
08:25
I still think you see aspects of this.
173
505376
2628
ما زلت أعتقد أنك ترى جوانب من هذا.
08:28
I think language models tend to be weak in areas
174
508004
3170
أعتقد أن نماذج اللغة تميل إلى أن تكون ضعيفة في المجالات
08:31
that are not easily expressed in text.
175
511174
3211
التي لا يمكن التعبير عنها بسهولة في النص.
08:34
But I don’t think this is a fundamental limitation.
176
514385
2419
لكنني لا أعتقد أن هذا قيد أساسي.
08:36
I think we're going to see these language models expanding into video
177
516804
4964
أعتقد أننا سنرى نماذج اللغة هذه تتوسع في الفيديو والصور
08:41
and images and sound and all these things,
178
521809
2211
والصوت وكل هذه الأشياء،
08:44
and these things will be overcome in time.
179
524020
2044
وسيتم التغلب على هذه الأشياء في الوقت المناسب.
08:46
CA: So talk to us, Shane,
180
526564
1335
لذا تحدث إلينا، شين،
08:47
about the things that you, at this moment,
181
527940
2962
عن الأشياء التي تشعر، في هذه اللحظة،
08:50
passionately feel that the world needs to be thinking about more cogently.
182
530902
4754
بشغف أن العالم بحاجة إلى التفكير فيها بشكل أكثر إقناعًا.
08:55
SL: Right.
183
535698
1168
SL: صحيح.
08:56
So I think that very, very powerful,
184
536866
2628
لذلك أعتقد أن الذكاء الاصطناعي القوي
08:59
very intelligent artificial intelligence is coming.
185
539535
3504
جدًا والذكي جدًا قادم.
09:03
I think that this is very, very likely.
186
543498
2669
أعتقد أن هذا أمر محتمل للغاية.
09:06
I don't think it's coming today.
187
546209
1585
لا أعتقد أنه سيأتي اليوم.
09:07
I don't think it's coming next year or the year after.
188
547794
2544
لا أعتقد أنه سيأتي العام المقبل أو العام الذي يليه.
09:10
It's probably a little bit further out than that.
189
550338
2419
ربما يكون الأمر أبعد قليلاً من ذلك.
09:12
CA: 2028?
190
552799
1293
السيارة: 2028؟
09:14
SL: 2028, that's a 50 percent chance.
191
554092
2293
س ل: 2028، هذه فرصة بنسبة 50 بالمئة.
09:16
So, you know, if it doesn't happen in 2028,
192
556385
2044
لذا، إذا لم يحدث ذلك في عام 2028،
09:18
I'm not going to be surprised, obviously.
193
558429
2002
فلن أتفاجأ، بالطبع.
09:20
CA: And when you say powerful,
194
560473
1460
CA: وعندما تقول قويًا،
09:21
I mean there's already powerful AI out there.
195
561933
2127
أعني أن هناك بالفعل ذكاءً اصطناعيًا قويًا.
09:24
But you're saying basically a version
196
564060
1793
لكنك تقول أساسًا أن نسخة
09:25
of artificial general intelligence is coming.
197
565853
2127
من الذكاء العام الاصطناعي قادمة.
09:28
SL: Yeah.
198
568022
1126
SL: نعم.
09:29
CA: So give us a picture of what that could look like.
199
569190
2711
CA: لذا أعطنا صورة لما يمكن أن يبدو عليه ذلك.
09:31
SL: Well, if you had an artificial general intelligence,
200
571901
2669
SL: حسنًا، إذا كان لديك ذكاء عام اصطناعي،
09:34
you could do all sorts of amazing things.
201
574570
2419
فيمكنك القيام بكل أنواع الأشياء المدهشة.
09:37
Just like human intelligence is able to do many, many amazing things.
202
577031
3253
تمامًا مثل الذكاء البشري قادر على القيام بالعديد من الأشياء المدهشة.
09:40
So it's not really about a specific thing,
203
580326
2002
لذا فإن الأمر لا يتعلق حقًا بشيء معين،
09:42
that's the whole point of the generality.
204
582370
1960
هذا هو بيت القصيد من العمومية.
09:44
But to give you one example,
205
584330
1752
ولكن لإعطائك مثالاً واحدًا،
09:46
we developed the system AlphaFold,
206
586082
2335
قمنا بتطوير نظام AlphaFold،
09:48
which will take a protein and compute, basically, the shape of that protein.
207
588459
5881
والذي سيأخذ بروتينًا ويحسب، بشكل أساسي، شكل ذلك البروتين.
09:54
And that enables you to do all sorts of research
208
594382
2627
وهذا يمكّنك من إجراء جميع أنواع
09:57
into understanding biological processes,
209
597009
1919
الأبحاث لفهم العمليات البيولوجية
09:58
developing medicines and all kinds of things like that.
210
598970
2586
وتطوير الأدوية وجميع أنواع الأشياء من هذا القبيل.
10:01
Now, if you had an AGI system,
211
601556
1459
إذا لديك نظام ذكاء اصطناعي،
10:03
instead of requiring what we had at DeepMind,
212
603057
2586
فبدلاً من طلب ما كان لدينا في DeepMind،
10:05
about roughly 30 world-class scientists
213
605685
2919
ما يقرب من 30 عالمًا من الطراز العالمي
10:08
working for about three years to develop that,
214
608604
2670
يعملون لمدة ثلاث سنوات تقريبًا لتطوير ذلك،
10:11
maybe you could develop that with just a team
215
611315
2127
ربما يمكنك تطوير ذلك مع فريق
10:13
of a handful of scientists in one year.
216
613442
2211
من حفنة من العلماء في عام واحد.
10:16
So imagine these, sort of, AlphaFold-level developments
217
616154
3753
لذا تخيل أن هذه التطورات على مستوى AlphaFold
10:19
taking place around the world on a regular basis.
218
619949
3212
تحدث في جميع أنحاء العالم على أساس منتظم.
10:23
This is the sort of thing that AGI could enable.
219
623202
2503
هذا هو نوع الشيء الذي يمكن لـ AGI تمكينه.
10:25
CA: So within months of AGI being with us, so to speak,
220
625997
4045
CA: لذلك في غضون أشهر من وجود الذكاء الاصطناعي معنا، إذا جاز التعبير،
10:30
it's quite possible that some of the scientific challenges
221
630084
3087
من المحتمل جدًا
10:33
that humans have wrestled with for decades, centuries, if you like,
222
633171
3962
أن تبدأ بعض التحديات العلمية التي واجهها البشر لعقود أو قرون، إذا أردت،
10:37
will start to tumble in rapid succession.
223
637133
2961
في التراجع في تتابع سريع.
10:40
SL: Yeah, I think it'll open up all sorts of amazing possibilities.
224
640136
4129
SL: نعم، أعتقد أنه سيفتح كل أنواع الاحتمالات المذهلة.
10:44
And it could be really a golden age of humanity
225
644265
4212
ويمكن أن يكون حقًا عصرًا ذهبيًا للبشرية
10:48
where human intelligence,
226
648519
1835
حيث يمكّننا الذكاء البشري،
10:50
which is aided and extended with machine intelligence,
227
650396
4379
المدعوم والموسع بالذكاء الآلي،
10:54
enables us to do all sorts of fantastic things
228
654775
2461
من القيام بكل أنواع الأشياء الرائعة
10:57
and solve problems that previously were just intractable.
229
657278
4922
وحل المشكلات التي كانت في السابق مستعصية على الحل.
11:02
CA: So let's come back to that.
230
662200
1501
CA: لذلك دعونا نعود إلى ذلك.
11:03
But I think you also,
231
663743
1585
لكنني أعتقد أنك أيضًا،
11:05
you're not like, an irredeemable optimist only,
232
665328
2252
لست مثل، متفائل لا يمكن إصلاحه فقط،
11:07
you see a potential for it to go very badly in a different direction.
233
667622
3920
ترى إمكانية أن تسير الأمور بشكل سيء للغاية في اتجاه مختلف.
11:11
Talk about what that pathway could look like.
234
671542
2711
تحدث عن الشكل الذي يمكن أن يبدو عليه هذا المسار.
11:14
SL: Well, yeah, I want to explain.
235
674253
1961
SL: حسنًا، نعم، أريد أن أشرح.
11:17
I don't believe the people
236
677048
1585
لا أصدق الأشخاص
11:18
who are sure that it's going to go very well,
237
678674
2253
الذين هم على يقين أن الأمور ستسير على ما يرام،
11:20
and I don't believe the people
238
680968
1460
ولا أصدق الأشخاص
11:22
who are sure that it’s going to go very, very badly.
239
682428
2461
الذين هم على يقين من أنها ستسير بشكل سيء للغاية.
11:24
Because what we’re talking about is an incredibly profound transition.
240
684889
4046
لأن ما نتحدث عنه هو انتقال عميق بشكل لا يصدق.
11:29
It's like the arrival of human intelligence in the world.
241
689352
3211
إنه مثل وصول الذكاء البشري إلى العالم.
11:32
This is another intelligence arriving in the world.
242
692605
2961
هذا ذكاء آخر يصل إلى العالم.
11:35
And so it is an incredibly deep transition,
243
695608
3045
وبالتالي فهو انتقال عميق بشكل لا يصدق،
11:38
and we do not fully understand all the implications
244
698653
3128
ونحن لا نفهم تمامًا جميع الآثار
11:41
and consequences of this.
245
701781
1585
والعواقب المترتبة على ذلك.
11:43
And so we can't be certain
246
703407
1418
ولذا لا يمكننا التأكد من
11:44
that it's going to be this, that or the other thing.
247
704867
2461
أنه سيكون هذا أو ذاك أو الشيء الآخر.
11:47
So we have to be open-minded about what may happen.
248
707328
3211
لذلك علينا أن نكون متفتحين بشأن ما قد يحدث.
11:51
I have some optimism because I think
249
711332
1919
لدي بعض التفاؤل لأنني أعتقد
11:53
that if you want to make a system safe,
250
713251
3086
أنه إذا كنت ترغب في جعل النظام آمنًا،
11:56
you need to understand a lot about that system.
251
716379
2669
فأنت بحاجة إلى فهم الكثير عن هذا النظام.
11:59
You can't make an airplane safe
252
719090
1668
لا يمكنك جعل الطائرة آمنة
12:00
if you don't know about how airplanes work.
253
720800
2627
إذا كنت لا تعرف كيفية عمل الطائرات.
12:03
So as we get closer to AGI,
254
723761
2252
لذلك مع اقترابنا من الذكاء الاصطناعي العام،
12:06
we will understand more and more about these systems,
255
726055
2502
سنفهم المزيد والمزيد عن هذه الأنظمة،
12:08
and we will see more ways to make these systems safe,
256
728557
3003
وسنرى المزيد من الطرق لجعل هذه الأنظمة آمنة، وإنشاء
12:11
make highly ethical AI systems.
257
731560
2712
أنظمة ذكاء اصطناعي أخلاقية للغاية.
12:15
But there are many things we don't understand about the future.
258
735064
3587
ولكن هناك العديد من الأشياء التي لا نفهمها عن المستقبل.
12:18
So I have to accept that there is a possibility that things may go badly
259
738693
5297
لذلك يجب أن أقبل أن هناك احتمال أن تسوء الأمور
12:23
because I don't know what's going to happen.
260
743990
2085
لأنني لا أعرف ما الذي سيحدث.
12:26
I can't know that about the future in such a big change.
261
746117
3336
لا أستطيع أن أعرف ذلك عن المستقبل في مثل هذا التغيير الكبير.
12:29
And even if the probability of something going bad is quite small,
262
749453
4839
وحتى لو كان احتمال حدوث شيء سيئ صغيرًا جدًا، يجب أن
12:34
we should take this extremely seriously.
263
754333
2378
نأخذ هذا الأمر على محمل الجد.
12:36
CA: Paint a scenario of what going bad could look like.
264
756711
2877
CA: ارسم سيناريو لما يمكن أن يبدو عليه الأمر السيئ.
12:39
SL: Well, it's hard to do
265
759630
1710
SL: حسنًا، من الصعب القيام بذلك
12:41
because you're talking about systems
266
761382
1752
لأنك تتحدث عن أنظمة يحتمل
12:43
that potentially have superhuman intelligence, right?
267
763134
3503
أن تمتلك ذكاءً خارقًا، أليس كذلك؟
12:46
So there are many ways in which things would go bad in the world.
268
766637
4463
لذلك هناك العديد من الطرق التي قد تسوء بها الأمور في العالم.
12:51
People sometimes point to, I don't know, engineered pathogens, right?
269
771142
3295
يشير الناس أحيانًا إلى، لا أعرف، مسببات الأمراض المهندسة، أليس كذلك؟
12:54
Maybe a superintelligence could design an engineered pathogen.
270
774437
3753
ربما يمكن للذكاء الخارق أن يصمم مسببًا هندسيًا.
12:58
It could be much more mundane things.
271
778190
2253
يمكن أن تكون أشياء أكثر دنيوية بكثير.
13:00
Maybe with AGI, you know,
272
780484
2545
ربما مع الذكاء الاصطناعي العام، كما تعلمون،
13:03
it gets used to destabilize democracy in the world,
273
783070
4588
يتم استخدامه لزعزعة استقرار الديمقراطية في العالم،
13:07
with, you know, propaganda or all sorts of other things like that.
274
787700
3128
مع، كما تعلمون، الدعاية أو كل أنواع الأشياء الأخرى من هذا القبيل.
13:10
We don't know --
275
790870
1168
لا نعرف -
13:12
CA: That one might already have happened.
276
792079
2002
كاليفورنيا: ربما حدث ذلك بالفعل.
13:14
SL: There might be happening a bit already.
277
794081
2002
SL: قد يحدث بعض الشيء بالفعل.
13:16
But, you know, there may be a lot more of this
278
796125
2169
ولكن، كما تعلمون، قد يكون هناك الكثير من هذا
13:18
if we have more powerful systems.
279
798294
1626
إذا كان لدينا أنظمة أكثر قوة.
13:19
So there are many ways in which societies can be destabilized.
280
799920
2920
هناك العديد من الطرق يمكن من خلالها زعزعة استقرار المجتمعات.
13:22
And you can see that in the history books.
281
802882
2043
ويمكنك أن ترى ذلك في كتب التاريخ.
13:24
CA: I mean, Shane, if you could have asked all humans,
282
804967
2544
أعني، شين، إذا كان بإمكانك أن تسأل جميع البشر، على
13:27
say, 15 years ago, OK, we can open a door here,
283
807511
4338
سبيل المثال، قبل 15 عامًا، حسنًا، يمكننا فتح باب هنا،
13:31
and opening this door could lead to the best-ever outcomes for humanity.
284
811891
3670
وفتح هذا الباب يمكن أن يؤدي إلى أفضل النتائج على الإطلاق للبشرية.
13:35
But there's also a meaningful chance,
285
815603
1793
ولكن هناك أيضًا فرصة ذات مغزى،
13:37
let's say it's more than five percent,
286
817396
2544
لنفترض أنها تزيد عن خمسة بالمائة،
13:39
that we could actually destroy our civilization.
287
819982
2753
أن نتمكن بالفعل من تدمير حضارتنا.
13:43
I mean, isn't there a chance that most people would have actually said,
288
823235
3337
أعني، أليس هناك احتمال أن يقول معظم الناس بالفعل،
13:46
"Don't you dare open that damn door.
289
826614
1752
«لا تجرؤ على فتح هذا الباب اللعين.
13:48
Let's wait."
290
828407
1168
دعونا ننتظر.»
13:50
SL: If I had a magic wand and I could slow things down,
291
830326
4087
SL: إذا كان لدي عصا سحرية واستطعت إبطاء الأمور،
13:54
I would use that magic wand, but I don't.
292
834455
2336
فسأستخدم تلك العصا السحرية، لكنني لا أملكها.
13:56
There are dozens of companies,
293
836791
1835
هناك العشرات من الشركات،
13:58
well, there's probably 10 companies in the world now
294
838626
2461
حسنًا، ربما هناك 10 شركات في العالم الآن
14:01
that can develop the most cutting-edge models, including, I think,
295
841087
4421
يمكنها تطوير أحدث النماذج، بما في ذلك، على ما أعتقد،
14:05
some national intelligence services who have secret projects doing this.
296
845508
4087
بعض أجهزة المخابرات الوطنية التي لديها مشاريع سرية تقوم بذلك.
14:10
And then there's, I don't know,
297
850262
1502
ثم هناك، لا أعرف،
14:11
dozens of companies that can develop something that's a generation behind.
298
851764
3503
عشرات الشركات التي يمكنها تطوير شيء يتخلف عنه جيل.
14:15
And remember, intelligence is incredibly valuable.
299
855267
3379
وتذكر أن الذكاء ذو قيمة لا تصدق.
14:18
It's incredibly useful.
300
858687
1168
إنه مفيد للغاية.
14:19
We're doing this
301
859855
1168
نحن نقوم بذلك
14:21
because we can see all kinds of value that can be created in this
302
861065
3086
لأنه يمكننا رؤية جميع أنواع القيمة التي يمكن إنشاؤها في هذا
14:24
for all sorts of reasons.
303
864151
1752
لجميع أنواع الأسباب.
14:25
How do you stop this process?
304
865903
2836
كيف يمكنك إيقاف هذه العملية؟
14:28
I don't see any realistic plan that I've heard of,
305
868781
2836
لا أرى أي خطة واقعية سمعت عنها
14:31
of stopping this process.
306
871659
1209
لوقف هذه العملية.
14:32
Maybe we can --
307
872868
1210
ربما يمكننا -
14:34
I think we should think about regulating things.
308
874078
2294
أعتقد أننا يجب أن نفكر في تنظيم الأشياء.
14:36
I think we should do things like this as we do with every powerful technology.
309
876414
3670
أعتقد أننا يجب أن نفعل أشياء كهذه كما نفعل مع كل تقنية قوية.
14:40
There's nothing special about AI here.
310
880084
1877
لا يوجد شيء مميز حول الذكاء الاصطناعي.
14:41
People talk about, oh, you know, how dare you talk about regulating this?
311
881961
3462
يتحدث الناس عن، أوه، كما تعلمون، كيف تجرؤ على الحديث عن تنظيم هذا؟
14:45
No, we regulate powerful technologies all the time in the interests of society.
312
885464
3837
لا، نحن ننظم التقنيات القوية طوال الوقت لصالح المجتمع.
14:49
And I think this is a very important thing that we should be looking at.
313
889343
3420
وأعتقد أن هذا أمر مهم للغاية يجب أن ننظر إليه.
14:52
CA: It's kind of the first time we have this superpowerful technology out there
314
892763
3754
CA: إنها المرة الأولى التي نمتلك فيها هذه التكنولوجيا فائقة القوة
14:56
that we literally don't understand in full how it works.
315
896559
3086
التي لا نفهم حرفيًا كيفية عملها بالكامل.
14:59
Is the most single, most important thing we must do, in your view,
316
899645
3921
هل الشيء الوحيد والأكثر أهمية الذي يجب علينا القيام به،
15:03
to understand, to understand better what on Earth is going on,
317
903566
4671
من وجهة نظرك، لفهم ما يجري على الأرض بشكل أفضل،
15:08
so that we least have a shot at pointing it in the right direction?
318
908279
3170
حتى لا تكون لدينا فرصة لتوجيهه في الاتجاه الصحيح؟
15:11
SL: There is a lot of energy behind capabilities at the moment
319
911449
3294
SL: هناك الكثير من الطاقة وراء القدرات في الوقت الحالي
15:14
because there's a lot of value in developing the capabilities.
320
914785
3045
لأن هناك الكثير من القيمة في تطوير القدرات.
15:17
I think we need to see a lot more energy going into actual science,
321
917830
4504
أعتقد أننا بحاجة إلى رؤية المزيد من الطاقة التي تذهب إلى العلوم الفعلية،
15:22
understanding how these networks work,
322
922376
3128
وفهم كيفية عمل الشبكات،
15:25
what they're doing, what they're not doing,
323
925504
2169
وما تفعل، وما لا تفعل،
15:27
where they're likely to fail,
324
927715
1835
وأين من المحتمل أن تفشل،
15:29
and understanding how we put these things together
325
929592
2419
وفهم كيفية تجميع هذه الأشياء معًا
15:32
so that we're able to find ways
326
932011
2085
حتى نتمكن من إيجاد طرق
15:34
to make these AGI systems profoundly ethical and safe.
327
934138
4129
لجعل أنظمة الذكاء الاصطناعي العام هذه أخلاقية وآمنة للغاية.
15:38
I believe it's possible.
328
938267
1793
أعتقد أن ذلك ممكن.
15:40
But we need to mobilize more people's minds and brains
329
940895
5505
لكننا نحتاج إلى تعبئة المزيد من عقول وعقول الناس
15:46
to finding these solutions
330
946442
2502
لإيجاد هذه الحلول
15:48
so that we end up in a future
331
948986
1835
حتى ينتهي بنا المطاف في مستقبل
15:50
where we have incredibly powerful machine intelligence
332
950863
3962
نمتلك فيه ذكاء آلي قوي للغاية
15:54
that's also profoundly ethical and safe,
333
954867
2836
وهو أيضًا أخلاقي وآمن للغاية،
15:57
and it enhances and extends humanity
334
957745
2753
ويعزز ويوسع البشرية
16:00
into, I think, a new golden period for humanity.
335
960539
4296
إلى، على ما أعتقد، فترة ذهبية جديدة للبشرية.
16:05
CA: Shane, thank you so much for sharing that vision
336
965920
2460
شين، شكرًا جزيلاً لك على مشاركة هذه الرؤية والقدوم إلى تيد.
16:08
and coming to TED.
337
968380
1210
16:09
(Applause)
338
969590
1460
(تصفيق)
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7