What Is an AI Anyway? | Mustafa Suleyman | TED

1,786,446 views ・ 2024-04-22

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: Mohamed Salem المدقّق: Hani Eldalees
00:04
I want to tell you what I see coming.
0
4292
2586
أريد أن أخبركم بما أراه قادمًا.
00:07
I've been lucky enough to be working on AI for almost 15 years now.
1
7712
4463
لقد كنت محظوظًا بما يكفي للعمل على الذكاء الاصطناعي لحوالي 15 عامًا حتى الآن.
00:12
Back when I started, to describe it as fringe would be an understatement.
2
12676
5088
عندما بدأت، فإن وصفها بأنها هامشية سيكون بخسًا.
00:17
Researchers would say, “No, no, we’re only working on machine learning.”
3
17806
4045
سيقول الباحثون، «لا، لا، نحن نعمل فقط على تعلم الآلة.»
00:21
Because working on AI was seen as way too out there.
4
21893
3087
لأن العمل على الذكاء الاصطناعي كان يُنظر إليه على أنه وسيلة متاحة أيضًا.
00:25
In 2010, just the very mention of the phrase “AGI,”
5
25021
4380
في عام 2010، مجرد ذكر عبارة «أي جي أي»، الذكاء
00:29
artificial general intelligence,
6
29401
2169
الذكاء الاصطناعي العام،
00:31
would get you some seriously strange looks
7
31570
2877
من شأنه أن يمنحك بعض الإطلالات الغريبة للغاية
00:34
and even a cold shoulder.
8
34489
1585
وحتى الكتف البارد.
00:36
"You're actually building AGI?" people would say.
9
36366
3837
«هل تقوم بالفعل ببناء الذكاء الاصطناعي العام؟» سيقول الناس.
00:40
"Isn't that something out of science fiction?"
10
40203
2294
«أليس هذا شيئًا من الخيال العلمي؟»
00:42
People thought it was 50 years away or 100 years away,
11
42914
2544
اعتقد الناس أنه على بعد 50 عامًا أو 100 عام،
00:45
if it was even possible at all.
12
45500
1919
إذا كان ذلك ممكنًا على الإطلاق.
00:47
Talk of AI was, I guess, kind of embarrassing.
13
47752
3337
أعتقد أن الحديث عن الذكاء الاصطناعي كان محرجًا نوعًا ما.
00:51
People generally thought we were weird.
14
51631
2211
اعتقد الناس عمومًا أننا غريبون.
وأعتقد أننا كنا كذلك نوعًا ما في بعض النواحي.
00:54
And I guess in some ways we kind of were.
15
54217
2503
00:56
It wasn't long, though, before AI started beating humans
16
56761
2878
ومع ذلك، لم يمض وقت طويل قبل أن يبدأ الذكاء الاصطناعي في التغلب على البشر
00:59
at a whole range of tasks
17
59681
1793
في مجموعة كاملة من المهام
01:01
that people previously thought were way out of reach.
18
61516
2795
التي اعتقد الناس سابقًا أنها بعيدة المنال.
01:05
Understanding images,
19
65020
2127
فهم الصور
01:07
translating languages,
20
67147
1918
وترجمة اللغات
01:09
transcribing speech,
21
69065
1585
وتدوين الكلام
01:10
playing Go and chess
22
70692
2127
ولعب غو والشطرنج
01:12
and even diagnosing diseases.
23
72861
1918
وحتى تشخيص الأمراض.
01:15
People started waking up to the fact
24
75905
1752
بدأ الناس يستيقظون على حقيقة
01:17
that AI was going to have an enormous impact,
25
77657
3462
أن الذكاء الاصطناعي سيكون له تأثير هائل،
01:21
and they were rightly asking technologists like me
26
81119
2836
وكانوا محقين في طرح على التقنيين مثلي
01:23
some pretty tough questions.
27
83955
1752
بعض الأسئلة الصعبة.
01:25
Is it true that AI is going to solve the climate crisis?
28
85749
3044
هل صحيح أن الذكاء الاصطناعي سيحل أزمة المناخ؟
01:29
Will it make personalized education available to everyone?
29
89127
3337
هل ستجعل التعليم الشخصي متاحًا للجميع؟
01:32
Does it mean we'll all get universal basic income
30
92881
2294
هل هذا يعني أننا سنحصل جميعًا على دخل أساسي شامل
01:35
and we won't have to work anymore?
31
95216
2002
ولن نضطر إلى العمل بعد الآن؟
01:37
Should I be afraid?
32
97218
1544
هل يجب أن أخاف؟
01:38
What does it mean for weapons and war?
33
98762
2335
ماذا يعني ذلك للأسلحة والحرب؟
01:41
And of course, will China win?
34
101598
1460
وبالطبع، هل ستفوز الصين؟
01:43
Are we in a race?
35
103058
1543
هل نحن في سباق؟
01:45
Are we headed for a mass misinformation apocalypse?
36
105518
3212
هل نتجه نحو نهاية العالم للتضليل الجماعي؟
01:49
All good questions.
37
109147
1668
كل الأسئلة الجيدة.
01:51
But it was actually a simpler
38
111608
1418
لكنه كان في الواقع نوعًا أبسط
01:53
and much more kind of fundamental question that left me puzzled.
39
113026
4046
وأكثر من ذلك بكثير من الأسئلة الأساسية التي تركتني في حيرة.
01:58
One that actually gets to the very heart of my work every day.
40
118031
3962
واحدة تصل بالفعل إلى قلب عملي كل يوم.
02:03
One morning over breakfast,
41
123620
2044
في صباح أحد الأيام أثناء تناول الإفطار،
02:05
my six-year-old nephew Caspian was playing with Pi,
42
125705
3379
كان ابن أخي كاسبيان البالغ من العمر ست سنوات يلعب مع باي،
02:09
the AI I created at my last company, Inflection.
43
129084
3378
الذكاء الاصطناعي الذي صنعته في شركتي الأخيرة، إنفليكشن.
02:12
With a mouthful of scrambled eggs,
44
132504
1877
وفمه مليء بالبيض المخفوق،
02:14
he looked at me plain in the face and said,
45
134381
3503
نظر إليّ بوضوح في وجهي وقال
02:17
"But Mustafa, what is an AI anyway?"
46
137926
3295
: «لكن مصطفى، ما هو الذكاء الاصطناعي على أي حال؟»
02:21
He's such a sincere and curious and optimistic little guy.
47
141930
3545
إنه رجل صغير مخلص وفضولي ومتفائل.
02:25
He'd been talking to Pi about how cool it would be if one day in the future,
48
145517
4254
لقد كان يتحدث إلى باي عن مدى روعة الأمر إذا تمكن يومًا ما في المستقبل
02:29
he could visit dinosaurs at the zoo.
49
149771
2377
من زيارة الديناصورات في حديقة الحيوان.
02:32
And how he could make infinite amounts of chocolate at home.
50
152190
3795
وكيف يمكنه صنع كميات لا حصر لها من الشوكولاتة في المنزل.
02:35
And why Pi couldn’t yet play I Spy.
51
155985
2920
ولماذا لم يتمكن باي حتى الآن من لعب آي سباي.
02:39
"Well," I said, "it's a clever piece of software
52
159823
2252
«حسنًا،» قلت،
02:42
that's read most of the text on the open internet,
53
162075
2461
«إنه برنامج ذكي يقرأ معظم النص على الإنترنت المفتوح،
02:44
and it can talk to you about anything you want."
54
164577
2419
ويمكنه التحدث معك عن أي شيء تريده.»
02:48
"Right.
55
168540
1168
«صحيح.
02:49
So like a person then?"
56
169749
2127
إذن كشخص إذن؟»
02:54
I was stumped.
57
174254
1334
كنت في حيرة من أمري.
02:56
Genuinely left scratching my head.
58
176798
2502
غادرت حقًا وأنا أهرش رأسي.
03:00
All my boring stock answers came rushing through my mind.
59
180301
4046
جاءت جميع إجاباتي المملة عن الأسهم بسرعة في ذهني.
03:04
"No, but AI is just another general-purpose technology,
60
184723
2585
«لا، ولكن الذكاء الاصطناعي هو مجرد تقنية أخرى للأغراض العامة،
03:07
like printing or steam."
61
187308
1710
مثل الطباعة أو البخار.»
03:09
It will be a tool that will augment us
62
189394
2502
ستكون أداة ستعززنا
03:11
and make us smarter and more productive.
63
191938
2377
وتجعلنا أكثر ذكاءً وإنتاجية.
03:14
And when it gets better over time,
64
194649
1960
وعندما تتحسن الأمور بمرور الوقت،
03:16
it'll be like an all-knowing oracle
65
196651
1919
ستكون مثل أوراكل
03:18
that will help us solve grand scientific challenges."
66
198611
3087
تعرف كل شيء وستساعدنا في حل التحديات العلمية الكبرى».
03:22
You know, all of these responses started to feel, I guess,
67
202115
3712
كما تعلمون، بدأت كل هذه الاستجابات تبدو، على ما أعتقد،
03:25
a little bit defensive.
68
205869
1418
دفاعية بعض الشيء.
03:28
And actually better suited to a policy seminar
69
208246
2211
وهي في الواقع أكثر ملاءمة لندوة السياسة
03:30
than breakfast with a no-nonsense six-year-old.
70
210457
2627
من الإفطار مع طفل يبلغ من العمر ست سنوات بلا معنى.
03:33
"Why am I hesitating?" I thought to myself.
71
213126
3086
«لماذا أتردد؟» قلت لنفسي.
03:37
You know, let's be honest.
72
217839
1960
كما تعلمون، دعونا نكون صادقين.
03:39
My nephew was asking me a simple question
73
219799
3253
كان ابن أخي يسألني سؤالًا بسيطًا
03:43
that those of us in AI just don't confront often enough.
74
223052
3796
لا يواجهه أولئك منا في الذكاء الاصطناعي كثيرًا بما فيه الكفاية.
03:48
What is it that we are actually creating?
75
228099
2920
ما الذي نقوم بإنشائه بالفعل؟
03:51
What does it mean to make something totally new,
76
231895
3753
ماذا يعني صنع شيء جديد تمامًا،
03:55
fundamentally different to any invention that we have known before?
77
235648
4255
يختلف جوهريًا عن أي اختراع عرفناه من قبل؟
04:00
It is clear that we are at an inflection point
78
240695
2795
من الواضح أننا في نقطة تحول
04:03
in the history of humanity.
79
243490
1793
في تاريخ البشرية.
04:06
On our current trajectory,
80
246493
1918
في مسارنا الحالي،
04:08
we're headed towards the emergence of something
81
248411
2211
نتجه نحو ظهور شيء
04:10
that we are all struggling to describe,
82
250663
3170
نكافح جميعًا لوصفه،
04:13
and yet we cannot control what we don't understand.
83
253875
4630
ومع ذلك لا يمكننا التحكم في ما لا نفهمه.
04:19
And so the metaphors,
84
259631
1585
وبالتالي فإن الاستعارات
والنماذج العقلية
04:21
the mental models,
85
261216
1251
04:22
the names, these all matter
86
262509
2585
والأسماء كلها مهمة
04:25
if we’re to get the most out of AI whilst limiting its potential downsides.
87
265094
4088
إذا أردنا تحقيق أقصى استفادة من الذكاء الاصطناعي مع الحد من سلبياته المحتملة.
04:30
As someone who embraces the possibilities of this technology,
88
270391
3421
باعتباري شخصًا يتبنى إمكانيات هذه التكنولوجيا،
04:33
but who's also always cared deeply about its ethics,
89
273812
3670
ولكنه أيضًا يهتم دائمًا بعمق بأخلاقياتها،
04:37
we should, I think,
90
277524
1293
أعتقد أننا يجب
04:38
be able to easily describe what it is we are building.
91
278817
3044
أن نكون قادرين على وصف ما نقوم ببنائه بسهولة.
04:41
And that includes the six-year-olds.
92
281861
2002
وهذا يشمل الأطفال في سن السادسة.
04:44
So it's in that spirit that I offer up today the following metaphor
93
284239
4254
بهذه الروح أقدم اليوم الاستعارة التالية
04:48
for helping us to try to grapple with what this moment really is.
94
288535
3461
لمساعدتنا في محاولة التعامل مع حقيقة هذه اللحظة.
04:52
I think AI should best be understood
95
292539
2627
أعتقد أنه من الأفضل فهم الذكاء الاصطناعي
04:55
as something like a new digital species.
96
295166
4254
على أنه شيء مثل الأنواع الرقمية الجديدة.
05:00
Now, don't take this too literally,
97
300296
2253
الآن، لا تأخذوا هذا بالمعنى الحرفي للكلمة،
05:02
but I predict that we'll come to see them as digital companions,
98
302590
4630
لكنني أتوقع أننا سنراهم كرفاق رقميين وشركاء
05:07
new partners in the journeys of all our lives.
99
307220
3295
جدد في رحلات حياتنا كلها.
05:10
Whether you think we’re on a 10-, 20- or 30-year path here,
100
310557
4087
سواء كنت تعتقد أننا نسير على طريق مدته 10 أو 20 أو 30 عامًا هنا،
05:14
this is, in my view, the most accurate and most fundamentally honest way
101
314686
5005
هذه، في رأيي، الطريقة الأكثر دقة والأكثر صدقًا في الأساس
05:19
of describing what's actually coming.
102
319732
2378
لوصف ما هو قادم بالفعل.
05:22
And above all, it enables everybody to prepare for
103
322610
3963
وفوق كل شيء، فهي تمكن الجميع من الاستعداد
05:26
and shape what comes next.
104
326614
2711
وتشكيل ما سيأتي بعد ذلك.
05:29
Now I totally get, this is a strong claim,
105
329868
2002
الآن أفهم تمامًا، هذا ادعاء قوي،
05:31
and I'm going to explain to everyone as best I can why I'm making it.
106
331911
3837
وسأشرح للجميع بأفضل ما بوسعي سبب قيامي بذلك.
05:36
But first, let me just try to set the context.
107
336291
2961
لكن أولاً، اسمحوا لي فقط أن أحاول تحديد السياق.
05:39
From the very first microscopic organisms,
108
339252
2753
منذ ظهور الكائنات المجهرية الأولى،
05:42
life on Earth stretches back billions of years.
109
342046
3462
تعود الحياة على الأرض إلى مليارات السنين.
05:45
Over that time, life evolved and diversified.
110
345508
4213
خلال ذلك الوقت، تطورت الحياة وتنوعت.
05:49
Then a few million years ago, something began to shift.
111
349762
3796
ثم قبل بضعة ملايين من السنين، بدأ شيء ما في التحول.
05:54
After countless cycles of growth and adaptation,
112
354183
3629
بعد دورات لا حصر لها من النمو والتكيف،
05:57
one of life’s branches began using tools, and that branch grew into us.
113
357812
6256
بدأ أحد فروع الحياة في استخدام الأدوات، ونما هذا الفرع بداخلنا.
06:04
We went on to produce a mesmerizing variety of tools,
114
364777
4130
واصلنا إنتاج مجموعة رائعة من الأدوات، ببطء
06:08
at first slowly and then with astonishing speed,
115
368907
3670
في البداية ثم بسرعة مذهلة،
06:12
we went from stone axes and fire
116
372577
3670
انتقلنا من الفؤوس الحجرية والنار
06:16
to language, writing and eventually industrial technologies.
117
376247
5005
إلى اللغة والكتابة وفي النهاية التقنيات الصناعية.
06:21
One invention unleashed a thousand more.
118
381878
2919
أطلق اختراع واحد العنان لألف اختراع آخر.
06:25
And in time, we became homo technologicus.
119
385173
3712
ومع مرور الوقت، أصبحنا هومو تكنولوجي.
06:29
Around 80 years ago,
120
389594
1209
منذ حوالي 80 عامًا،
06:30
another new branch of technology began.
121
390803
2545
بدأ فرع جديد آخر من التكنولوجيا.
06:33
With the invention of computers,
122
393973
1710
مع اختراع أجهزة الكمبيوتر،
06:35
we quickly jumped from the first mainframes and transistors
123
395725
3295
انتقلنا بسرعة من الحواسيب المركزية الأولى والترانزستورات
06:39
to today's smartphones and virtual-reality headsets.
124
399062
3461
إلى الهواتف الذكية وسماعات الواقع الافتراضي اليوم.
06:42
Information, knowledge, communication, computation.
125
402565
4421
المعلومات والمعرفة والاتصالات والحساب.
06:47
In this revolution,
126
407570
1418
في هذه الثورة،
06:49
creation has exploded like never before.
127
409030
3295
انفجر الإبداع بشكل لم يسبق له مثيل.
06:53
And now a new wave is upon us.
128
413242
2503
والآن تأتي موجة جديدة علينا.
06:55
Artificial intelligence.
129
415787
1668
الذكاء الاصطناعي.
06:57
These waves of history are clearly speeding up,
130
417872
2544
من الواضح أن موجات التاريخ هذه تتسارع،
07:00
as each one is amplified and accelerated by the last.
131
420458
4338
حيث يتم تضخيم كل واحدة منها وتسريعها بالأخيرة.
07:05
And if you look back,
132
425088
1167
وإذا نظرتم إلى الوراء،
07:06
it's clear that we are in the fastest
133
426297
2002
فمن الواضح أننا في الموجة الأسرع
07:08
and most consequential wave ever.
134
428299
2586
والأكثر أهمية على الإطلاق.
07:11
The journeys of humanity and technology are now deeply intertwined.
135
431844
4630
تتشابك رحلات الإنسانية والتكنولوجيا الآن بعمق.
07:16
In just 18 months,
136
436516
1543
في غضون 18 شهرًا فقط،
07:18
over a billion people have used large language models.
137
438059
3170
استخدم أكثر من مليار شخص نماذج لغوية كبيرة.
07:21
We've witnessed one landmark event after another.
138
441729
3545
لقد شهدنا حدثًا تاريخيًا واحدًا تلو الآخر.
07:25
Just a few years ago, people said that AI would never be creative.
139
445650
3462
قبل بضع سنوات فقط، قال الناس إن الذكاء الاصطناعي لن يكون مبدعًا أبدًا.
07:30
And yet AI now feels like an endless river of creativity,
140
450113
4045
ومع ذلك، يبدو الذكاء الاصطناعي الآن وكأنه نهر لا نهاية له من الإبداع، حيث
07:34
making poetry and images and music and video that stretch the imagination.
141
454200
4671
يصنع الشعر والصور والموسيقى والفيديو التي توسع الخيال.
07:39
People said it would never be empathetic.
142
459664
2252
قال الناس إنه لن يكون متعاطفًا أبدًا.
07:42
And yet today, millions of people enjoy meaningful conversations with AIs,
143
462417
5297
ومع ذلك، يستمتع ملايين الأشخاص اليوم بمحادثات هادفة باستخدام الذكاء الاصطناعي،
07:47
talking about their hopes and dreams
144
467755
2002
ويتحدثون عن آمالهم وأحلامهم
07:49
and helping them work through difficult emotional challenges.
145
469757
3087
ويساعدونهم في التغلب على التحديات العاطفية الصعبة.
07:53
AIs can now drive cars,
146
473177
2294
يمكن للذكاء الاصطناعي الآن قيادة السيارات
07:55
manage energy grids
147
475513
1543
وإدارة شبكات الطاقة
07:57
and even invent new molecules.
148
477056
2252
وحتى ابتكار جزيئات جديدة.
07:59
Just a few years ago, each of these was impossible.
149
479308
3713
قبل بضع سنوات فقط، كان كل من هذه الأمور مستحيلاً.
08:03
And all of this is turbocharged by spiraling exponentials of data
150
483771
5506
ويتم شحن كل هذا بالشحن التوربيني عن طريق الأعداد المتصاعدة للبيانات
08:09
and computation.
151
489277
1626
والحسابات.
08:10
Last year, Inflection 2.5, our last model,
152
490945
5297
في العام الماضي، استخدم نموذجنا الأخير “انفليشن 2.5”
08:16
used five billion times more computation
153
496242
4129
عمليات حسابية أكثر بخمسة مليارات مرة
08:20
than the DeepMind AI that beat the old-school Atari games
154
500371
3629
من “ديب مايند الذكاء الاصطناعي” الذي تغلب على ألعاب أتاري القديمة
08:24
just over 10 years ago.
155
504042
1668
منذ ما يزيد عن 10 سنوات.
08:26
That's nine orders of magnitude more computation.
156
506085
3420
هذا يعني زيادة الحسابات بتسع مرات من حيث الحجم.
08:30
10x per year,
157
510089
1627
10 مرات في السنة،
08:31
every year for almost a decade.
158
511716
3253
كل عام لمدة عقد تقريبًا.
08:34
Over the same time, the size of these models has grown
159
514969
2544
في الوقت نفسه، نما حجم هذه النماذج
08:37
from first tens of millions of parameters to then billions of parameters,
160
517555
4213
من عشرات الملايين الأولى من المعلمات إلى مليارات المعلمات،
08:41
and very soon, tens of trillions of parameters.
161
521809
3504
وقريبًا جدًا، عشرات التريليونات من المعلمات.
08:45
If someone did nothing but read 24 hours a day for their entire life,
162
525313
4755
إذا لم يفعل شخص ما شيئًا سوى القراءة 24 ساعة في اليوم طوال حياته،
08:50
they'd consume eight billion words.
163
530109
3337
فسيستهلك ثمانية مليارات كلمة.
08:53
And of course, that's a lot of words.
164
533488
1835
وبالطبع، هذا كثير من الكلمات.
08:55
But today, the most advanced AIs consume more than eight trillion words
165
535364
5756
ولكن اليوم، تستهلك أنظمة الذكاء الاصطناعي التقدمة أكثر من ثمانية تريليونات كلمة
09:01
in a single month of training.
166
541120
2336
في شهر واحد من التدريب.
09:03
And all of this is set to continue.
167
543873
1960
ومن المقرر أن يستمر كل هذا.
09:05
The long arc of technological history is now in an extraordinary new phase.
168
545875
5797
يمر القوس الطويل من التاريخ التكنولوجي الآن بمرحلة جديدة غير عادية.
09:12
So what does this mean in practice?
169
552256
2503
إذن ماذا يعني هذا عمليًا؟
09:15
Well, just as the internet gave us the browser
170
555426
2920
حسنًا، تمامًا كما أعطانا الإنترنت المتصفح
09:18
and the smartphone gave us apps,
171
558346
2502
والهاتف الذكي أعطانا التطبيقات،
09:20
the cloud-based supercomputer is ushering in a new era
172
560890
4004
فإن الكمبيوتر العملاق القائم على السحابة يبشر بعصر جديد
09:24
of ubiquitous AIs.
173
564936
2502
من الذكاء الاصطناعي في كل مكان.
09:27
Everything will soon be represented by a conversational interface.
174
567438
4588
سيتم تمثيل كل شيء قريبًا بواجهة محادثة.
09:32
Or, to put it another way, a personal AI.
175
572026
3003
أو بعبارة أخرى، الذكاء الاصطناعي الشخصي.
09:35
And these AIs will be infinitely knowledgeable,
176
575780
2336
وستكون أنظمة الذكاء الاصطناعي هذه على دراية لا حدود لها،
09:38
and soon they'll be factually accurate and reliable.
177
578157
3879
وسرعان ما ستصبح دقيقة وموثوقة من الناحية الواقعية.
09:42
They'll have near-perfect IQ.
178
582036
1794
سيكون لديهم معدل ذكاء شبه مثالي.
09:44
They’ll also have exceptional EQ.
179
584914
2377
سيكون لديهم أيضًا ذكاء عاطفي استثنائي.
09:47
They’ll be kind, supportive, empathetic.
180
587291
4129
سيكونون طيبين وداعمين ومتعاطفين.
09:53
These elements on their own would be transformational.
181
593089
2836
هذه العناصر بمفردها ستكون تحويلية.
09:55
Just imagine if everybody had a personalized tutor in their pocket
182
595925
3795
فقط تخيل لو كان لدى الجميع معلم شخصي في جيبهم
09:59
and access to low-cost medical advice.
183
599720
3003
وإمكانية الوصول إلى المشورة الطبية منخفضة التكلفة.
10:02
A lawyer and a doctor,
184
602723
1544
محام وطبيب
10:04
a business strategist and coach --
185
604267
1960
وخبير استراتيجي في مجال الأعمال ومدرب --
10:06
all in your pocket 24 hours a day.
186
606269
2252
كل ذلك في جيبك على مدار 24 ساعة في اليوم.
10:08
But things really start to change when they develop what I call AQ,
187
608980
4713
لكن الأمور تبدأ حقًا في التغيير عندما يطورون ما أسميه “AQ”،
10:13
their “actions quotient.”
188
613693
1668
«حاصل الأفعال» الخاص بهم.
10:15
This is their ability to actually get stuff done
189
615695
2794
هذه هي قدرتهم على إنجاز الأشياء فعليًا
10:18
in the digital and physical world.
190
618531
2294
في العالم الرقمي والمادي.
10:20
And before long, it won't just be people that have AIs.
191
620867
3420
وقبل مضي وقت طويل، لن يقتصر الأمر على الأشخاص الذين يمتلكون الذكاء الاصطناعي.
قد يبدو من الغريب أن كل منظمة،
10:24
Strange as it may sound, every organization,
192
624328
2962
10:27
from small business to nonprofit to national government,
193
627290
3253
من الشركات الصغيرة إلى المنظمات غير الربحية إلى الحكومة الوطنية،
10:30
each will have their own.
194
630585
1710
سيكون لكل منها منظمتها الخاصة.
10:32
Every town, building and object
195
632795
2711
كل مدينة ومبنى وكائن
10:35
will be represented by a unique interactive persona.
196
635506
3754
سيتم تمثيلهم بشخصية تفاعلية فريدة.
10:39
And these won't just be mechanistic assistants.
197
639302
2544
ولن يكون هؤلاء مجرد مساعدين ميكانيكيين.
10:42
They'll be companions, confidants,
198
642221
3754
سيكونون رفقاء ومقربين
10:46
colleagues, friends and partners,
199
646017
2669
وزملاء وأصدقاء وشركاء،
10:48
as varied and unique as we all are.
200
648728
2627
متنوعين وفريدين مثلنا جميعًا.
10:52
At this point, AIs will convincingly imitate humans at most tasks.
201
652273
4630
حاليًا، ستقوم أنظمة الذكاء الاصطناعي بتقليد البشر بشكل مقنع في معظم المهام.
10:57
And we'll feel this at the most intimate of scales.
202
657737
2794
وسنشعر بهذا في أكثر المقاييس حميمية.
11:00
An AI organizing a community get-together for an elderly neighbor.
203
660990
3587
منظمة العفو الدولية تنظم لقاءً مجتمعيًا لجار مسن.
11:04
A sympathetic expert helping you make sense of a difficult diagnosis.
204
664619
4588
خبير متعاطف يساعدك على فهم التشخيص الصعب.
11:09
But we'll also feel it at the largest scales.
205
669248
2753
لكننا سنشعر به أيضًا على أكبر المقاييس.
11:12
Accelerating scientific discovery,
206
672043
2586
تسريع الاكتشاف العلمي،
11:14
autonomous cars on the roads,
207
674629
2168
والسيارات ذاتية القيادة على الطرق،
11:16
drones in the skies.
208
676797
1627
والطائرات بدون طيار في السماء.
11:18
They'll both order the takeout and run the power station.
209
678966
3337
سيطلب كلاهما تناول الطعام بالخارج ويديران محطة الطاقة.
11:22
They’ll interact with us and, of course, with each other.
210
682970
3337
سيتفاعلون معنا وبالطبع مع بعضهم البعض.
11:26
They'll speak every language,
211
686349
1918
سيتحدثون كل لغة،
11:28
take in every pattern of sensor data,
212
688267
2836
ويستوعبون كل نمط من بيانات أجهزة الاستشعار،
11:31
sights, sounds,
213
691145
2336
والمشاهد، والأصوات،
11:33
streams and streams of information,
214
693481
2377
وتدفقات المعلومات،
11:35
far surpassing what any one of us could consume in a thousand lifetimes.
215
695900
4379
ويتجاوزون بكثير ما يمكن أن يستهلكه أي منا في ألف عمر.
11:40
So what is this?
216
700780
1293
إذن ما هذا؟
11:42
What are these AIs?
217
702990
2086
ما هي أنظمة الذكاء الاصطناعي هذه؟
11:46
If we are to prioritize safety above all else,
218
706410
4588
إذا أردنا إعطاء الأولوية للسلامة قبل كل شيء،
11:51
to ensure that this new wave always serves and amplifies humanity,
219
711040
5088
للتأكد من أن هذه الموجة الجديدة تخدم الإنسانية وتضخمها دائمًا،
11:56
then we need to find the right metaphors for what this might become.
220
716128
4922
فإننا بحاجة إلى إيجاد الاستعارات الصحيحة لما قد يحدث.
12:01
For years, we in the AI community, and I specifically,
221
721842
4296
لسنوات، كنا في مجتمع الذكاء الاصطناعي، وأنا على وجه التحديد،
12:06
have had a tendency to refer to this as just tools.
222
726180
3587
نميل إلى الإشارة إلى هذا على أنه مجرد أدوات.
12:11
But that doesn't really capture what's actually happening here.
223
731060
3003
لكن هذا لا يعكس حقًا ما يحدث بالفعل هنا.
12:14
AIs are clearly more dynamic,
224
734730
2503
من الواضح أن الذكاء الاصطناعي
12:17
more ambiguous, more integrated
225
737233
2753
أكثر ديناميكية وغموضًا
12:19
and more emergent than mere tools,
226
739986
2627
وأكثر تكاملاً وأكثر ظهورًا من مجرد الأدوات
12:22
which are entirely subject to human control.
227
742613
2878
التي تخضع بالكامل للتحكم البشري.
12:25
So to contain this wave,
228
745533
2544
لذا لاحتواء هذه الموجة،
12:28
to put human agency at its center
229
748119
3044
ووضع الوكالة البشرية في مركزها
12:31
and to mitigate the inevitable unintended consequences
230
751163
2711
والتخفيف من العواقب الحتمية غير المقصودة
12:33
that are likely to arise,
231
753916
1835
التي من المحتمل أن تنشأ،
12:35
we should start to think about them as we might a new kind of digital species.
232
755793
5005
يجب أن نبدأ في التفكير فيها كما قد نفكر في نوع جديد من الأنواع الرقمية.
12:41
Now it's just an analogy,
233
761132
1793
الآن هو مجرد تشبيه،
12:42
it's not a literal description, and it's not perfect.
234
762925
2586
إنه ليس وصفًا حرفيًا، وهو ليس مثاليًا.
12:46
For a start, they clearly aren't biological in any traditional sense,
235
766053
4046
كبداية، من الواضح أنهم ليسوا بيولوجيين بأي معنى تقليدي،
12:50
but just pause for a moment
236
770141
2377
لكن توقفوا للحظة
12:52
and really think about what they already do.
237
772560
2836
وفكروا حقًا فيما يفعلونه بالفعل.
12:55
They communicate in our languages.
238
775438
2627
يتواصلون بلغاتنا.
12:58
They see what we see.
239
778107
2127
إنهم يرون ما نراه.
13:00
They consume unimaginably large amounts of information.
240
780234
3587
إنهم يستهلكون كميات كبيرة من المعلومات بشكل لا يمكن تصوره.
13:04
They have memory.
241
784739
1376
لديهم ذاكرة.
13:06
They have personality.
242
786991
1752
لديهم شخصية.
13:09
They have creativity.
243
789493
1710
لديهم إبداع.
13:12
They can even reason to some extent and formulate rudimentary plans.
244
792038
3962
يمكنهم حتى التفكير إلى حد ما وصياغة خطط بدائية.
13:16
They can act autonomously if we allow them.
245
796709
3128
يمكنهم التصرف بشكل مستقل إذا سمحنا لهم بذلك.
13:20
And they do all this at levels of sophistication
246
800546
2294
وهم يفعلون كل هذا بمستويات من التطور
13:22
that is far beyond anything that we've ever known from a mere tool.
247
802882
3587
تتجاوز بكثير أي شيء عرفناه من مجرد أداة.
13:27
And so saying AI is mainly about the math or the code
248
807762
4296
ولذا فإن القول بأن الذكاء الاصطناعي يتعلق أساسًا بالرياضيات أو الكود
13:32
is like saying we humans are mainly about carbon and water.
249
812099
4838
يشبه القول إننا البشر نتعلق أساسًا بالكربون والماء.
13:37
It's true, but it completely misses the point.
250
817897
3795
هذا صحيح، لكنه يخطئ الهدف تمامًا.
13:42
And yes, I get it, this is a super arresting thought
251
822860
3629
ونعم، أفهم ذلك، هذه فكرة جذابة للغاية،
13:46
but I honestly think this frame helps sharpen our focus on the critical issues.
252
826489
5171
لكنني أعتقد بصدق أن هذا الإطار يساعد في زيادة تركيزنا على القضايا الحرجة.
13:52
What are the risks?
253
832745
1585
ما هي المخاطر؟
13:55
What are the boundaries that we need to impose?
254
835790
2752
ما هي الحدود التي نحتاج إلى فرضها؟
13:59
What kind of AI do we want to build or allow to be built?
255
839293
4338
ما نوع الذكاء الاصطناعي الذي نريد بناءه أو السماح ببنائه؟
14:04
This is a story that's still unfolding.
256
844465
2377
هذه قصة لا تزال تتكشف.
14:06
Nothing should be accepted as a given.
257
846884
2544
لا ينبغي قبول أي شيء كأمر مسلم به.
14:09
We all must choose what we create.
258
849428
2544
يجب علينا جميعًا اختيار ما نصنعه.
14:12
What AIs we bring into the world, or not.
259
852681
3921
ما الذكاء الاصطناعي الذي نجلبه إلى العالم أم لا.
14:18
These are the questions for all of us here today,
260
858604
2836
هذه هي الأسئلة لنا جميعًا هنا اليوم،
14:21
and all of us alive at this moment.
261
861440
2586
وكلنا على قيد الحياة في هذه اللحظة.
14:24
For me, the benefits of this technology are stunningly obvious,
262
864693
4296
بالنسبة لي، فإن فوائد هذه التكنولوجيا واضحة بشكل مذهل،
14:28
and they inspire my life's work every single day.
263
868989
3546
وهي مصدر إلهام لعمل حياتي كل يوم.
14:33
But quite frankly, they'll speak for themselves.
264
873661
3086
لكن بصراحة تامة، سيتحدثون عن أنفسهم.
14:37
Over the years, I've never shied away from highlighting risks
265
877706
2920
على مر السنين، لم أتورع أبدًا عن تسليط الضوء على المخاطر
14:40
and talking about downsides.
266
880668
1710
والحديث عن الجوانب السلبية.
14:43
Thinking in this way helps us focus on the huge challenges
267
883087
3211
التفكير بهذه الطريقة يساعدنا على التركيز على التحديات الضخمة
14:46
that lie ahead for all of us.
268
886298
1836
التي تنتظرنا جميعًا.
14:48
But let's be clear.
269
888843
1418
لكن لنكن واضحًا.
14:50
There is no path to progress
270
890719
2128
لا يوجد طريق للتقدم
14:52
where we leave technology behind.
271
892888
2169
حيث نترك التكنولوجيا وراءنا.
14:55
The prize for all of civilization is immense.
272
895683
3795
جائزة كل الحضارة هائلة.
15:00
We need solutions in health care and education, to our climate crisis.
273
900062
3879
نحن بحاجة إلى حلول في مجال الرعاية الصحية والتعليم، لأزمة المناخ لدينا.
15:03
And if AI delivers just a fraction of its potential,
274
903941
3921
وإذا لم يقدم الذكاء الاصطناعي سوى جزء بسيط من إمكاناته،
15:07
the next decade is going to be the most productive in human history.
275
907903
4421
فسيكون العقد المقبل هو الأكثر إنتاجية في تاريخ البشرية.
15:13
Here's another way to think about it.
276
913701
2002
إليكم طريقة أخرى للتفكير في الأمر.
15:15
In the past,
277
915744
1293
في الماضي، غالبًا ما كان
15:17
unlocking economic growth often came with huge downsides.
278
917037
4088
إطلاق العنان للنمو الاقتصادي مصحوبًا بجوانب سلبية ضخمة.
15:21
The economy expanded as people discovered new continents
279
921500
3712
توسع الاقتصاد عندما اكتشف الناس قارات جديدة
15:25
and opened up new frontiers.
280
925254
2002
وفتحوا حدودًا جديدة.
15:28
But they colonized populations at the same time.
281
928632
3045
لكنهم استعمروا السكان في نفس الوقت.
15:32
We built factories,
282
932595
1710
قمنا ببناء المصانع،
15:34
but they were grim and dangerous places to work.
283
934305
3044
لكنها كانت أماكن عمل قاتمة وخطيرة.
15:38
We struck oil,
284
938017
1918
لقد عثرنا على النفط،
15:39
but we polluted the planet.
285
939977
1627
لكننا لوثنا الكوكب.
15:42
Now because we are still designing and building AI,
286
942146
3170
الآن لأننا ما زلنا نصمم ونبني الذكاء الاصطناعي،
15:45
we have the potential and opportunity to do it better,
287
945316
3795
لدينا الإمكانات والفرصة للقيام بذلك بشكل أفضل
15:49
radically better.
288
949153
1335
وأفضل جذريًا.
15:51
And today, we're not discovering a new continent
289
951071
2628
واليوم، لا نكتشف قارة جديدة
15:53
and plundering its resources.
290
953741
1918
وننهب مواردها.
15:56
We're building one from scratch.
291
956285
1919
نحن نبني واحدة من الصفر.
15:58
Sometimes people say that data or chips are the 21st century’s new oil,
292
958662
5297
يقول الناس أحيانًا أن البيانات أو الرقائق هي النفط الجديد للقرن الحادي والعشرين،
16:03
but that's totally the wrong image.
293
963959
2002
لكن هذه صورة خاطئة تمامًا.
16:06
AI is to the mind
294
966587
1919
الذكاء الاصطناعي بالنسبة للعقل
16:08
what nuclear fusion is to energy.
295
968547
2753
هو ما يعنيه الاندماج النووي للطاقة.
16:12
Limitless, abundant,
296
972259
2670
لا حدود لها، وفيرة،
16:14
world-changing.
297
974970
1544
مغيرة للعالم.
16:17
And AI really is different,
298
977389
2962
والذكاء الاصطناعي مختلف تمامًا،
16:20
and that means we have to think about it creatively and honestly.
299
980392
4213
وهذا يعني أننا يجب أن نفكر في الأمر بطريقة إبداعية وصادقة.
16:24
We have to push our analogies and our metaphors
300
984647
2586
علينا أن ندفع قياساتنا واستعاراتنا
16:27
to the very limits
301
987274
1752
إلى أقصى الحدود
16:29
to be able to grapple with what's coming.
302
989068
2252
حتى نتمكن من التعامل مع ما هو قادم.
16:31
Because this is not just another invention.
303
991362
2878
لأن هذا ليس مجرد اختراع آخر.
16:34
AI is itself an infinite inventor.
304
994907
3503
الذكاء الاصطناعي بحد ذاته مخترع لا نهائي.
16:38
And yes, this is exciting and promising and concerning
305
998869
3295
ونعم، هذا مثير وواعد ومثير للقلق
16:42
and intriguing all at once.
306
1002164
2044
ومثير للاهتمام دفعة واحدة.
16:45
To be quite honest, it's pretty surreal.
307
1005251
2585
لأكون صادقًا تمامًا، إنه أمر سريالي جدًا.
16:47
But step back,
308
1007836
1293
لكن ارجعوا إلى الوراء،
16:49
see it on the long view of glacial time,
309
1009171
3462
وانظروا إليه من منظور طويل من الزمن الجليدي،
16:52
and these really are the very most appropriate metaphors that we have today.
310
1012633
4796
وهذه حقًا هي الاستعارات الأكثر ملاءمة التي لدينا اليوم.
16:57
Since the beginning of life on Earth,
311
1017471
3003
منذ بداية الحياة على الأرض،
17:00
we've been evolving, changing
312
1020516
2961
كنا نتطور ونتغير
17:03
and then creating everything around us in our human world today.
313
1023477
4171
ثم نصنع كل شيء من حولنا في عالمنا البشري اليوم.
17:08
And AI isn't something outside of this story.
314
1028232
3003
والذكاء الاصطناعي ليس شيئًا خارج هذه القصة.
17:11
In fact, it's the very opposite.
315
1031569
2961
في الواقع، الأمر عكس ذلك تمامًا.
17:15
It's the whole of everything that we have created,
316
1035197
3170
إنه كل شيء أنشأناه،
17:18
distilled down into something that we can all interact with
317
1038367
3545
وتم اختصاره إلى شيء يمكننا جميعًا التفاعل معه
17:21
and benefit from.
318
1041912
1377
والاستفادة منه.
17:23
It's a reflection of humanity across time,
319
1043872
3504
إنه انعكاس للإنسانية عبر الزمن،
17:27
and in this sense,
320
1047418
1251
وبهذا المعنى،
17:28
it isn't a new species at all.
321
1048711
1918
فهو ليس نوعًا جديدًا على الإطلاق.
17:31
This is where the metaphors end.
322
1051213
1960
هذا هو المكان الذي تنتهي فيه الاستعارات.
17:33
Here's what I'll tell Caspian next time he asks.
323
1053591
2502
هذا ما سأقوله لكاسبيان في المرة القادمة التي يسأل فيها.
17:37
AI isn't separate.
324
1057219
1460
الذكاء الاصطناعي ليس منفصلاً.
17:39
AI isn't even in some senses, new.
325
1059388
3295
الذكاء الاصطناعي ليس جديدًا حتى في بعض النواحي.
17:43
AI is us.
326
1063517
1126
الذكاء الاصطناعي هو نحن.
17:45
It's all of us.
327
1065394
1210
إنه كل واحد منا.
17:47
And this is perhaps the most promising and vital thing of all
328
1067062
3754
وربما يكون هذا هو الشيء الواعد والأكثر حيوية على الإطلاق
17:50
that even a six-year-old can get a sense for.
329
1070858
2669
الذي يمكن حتى لطفل يبلغ من العمر ست سنوات أن يشعر به.
17:54
As we build out AI,
330
1074528
1376
بينما نبني الذكاء الاصطناعي،
17:55
we can and must reflect all that is good,
331
1075946
3545
يمكننا ويجب علينا أن نعكس كل ما هو جيد،
17:59
all that we love,
332
1079533
1126
وكل ما نحبه،
18:00
all that is special about humanity:
333
1080701
2753
وكل ما هو خاص بالإنسانية:
18:03
our empathy, our kindness,
334
1083495
2169
تعاطفنا ولطفنا
18:05
our curiosity and our creativity.
335
1085664
2169
وفضولنا وإبداعنا.
18:09
This, I would argue, is the greatest challenge of the 21st century,
336
1089251
5130
أود أن أزعم أن هذا هو التحدي الأكبر في القرن الحادي والعشرين،
18:14
but also the most wonderful,
337
1094381
2211
ولكنه أيضًا الفرصة الأكثر روعة
18:16
inspiring and hopeful opportunity for all of us.
338
1096592
3336
وإلهامًا وأملًا لنا جميعًا.
18:20
Thank you.
339
1100429
1168
شكرًا لكم.
18:21
(Applause)
340
1101639
4879
(تصفيق)
18:26
Chris Anderson: Thank you Mustafa.
341
1106560
1668
كريس أندرسون: شكرًا لك يا مصطفى.
18:28
It's an amazing vision and a super powerful metaphor.
342
1108270
3796
إنها رؤية مذهلة واستعارة قوية للغاية.
18:32
You're in an amazing position right now.
343
1112066
1960
أنت في وضع رائع الآن.
18:34
I mean, you were connected at the hip
344
1114026
1793
أعني، كنت على اتصال وثيق
18:35
to the amazing work happening at OpenAI.
345
1115819
2795
بالعمل المذهل الذي يحدث في أوبن أيه آي.
18:38
You’re going to have resources made available,
346
1118614
2169
ستتاح لك الموارد،
18:40
there are reports of these giant new data centers,
347
1120824
4046
وهناك تقارير عن مراكز البيانات الجديدة العملاقة هذه،
18:44
100 billion dollars invested and so forth.
348
1124870
2461
واستثمار 100 مليار دولار وما إلى ذلك.
18:48
And a new species can emerge from it.
349
1128082
3837
ويمكن أن تظهر أنواع جديدة منه.
18:52
I mean, in your book,
350
1132294
1502
أعني، في كتابك،
18:53
you did, as well as painting an incredible optimistic vision,
351
1133837
2878
فعلت ذلك، بالإضافة إلى رسم رؤية متفائلة مذهلة،
18:56
you were super eloquent on the dangers of AI.
352
1136757
3629
كنت بليغًا للغاية بشأن مخاطر الذكاء الاصطناعي.
19:00
And I'm just curious, from the view that you have now,
353
1140427
3963
وأنا أشعر بالفضول فقط، من وجهة النظر التي لديك الآن،
19:04
what is it that most keeps you up at night?
354
1144431
2336
ما أكثر ما يبقيك مستيقظًا في الليل؟
19:06
Mustafa Suleyman: I think the great risk is that we get stuck
355
1146809
2878
مصطفى سليمان: أعتقد أن الخطر الكبير هو أن نتعثر
19:09
in what I call the pessimism aversion trap.
356
1149728
2086
في ما أسميه فخ النفور من التشاؤم.
19:11
You know, we have to have the courage to confront
357
1151855
2586
كما تعلمون، يجب أن نتحلى بالشجاعة لمواجهة
19:14
the potential of dark scenarios
358
1154483
1960
إمكانات السيناريوهات المظلمة
19:16
in order to get the most out of all the benefits that we see.
359
1156443
3128
من أجل تحقيق أقصى استفادة من جميع الفوائد التي نراها.
19:19
So the good news is that if you look at the last two or three years,
360
1159613
3712
لذا فإن الخبر السار هو أنه إذا نظرنا إلى العامين أو الثلاثة أعوام الماضية،
19:23
there have been very, very few downsides, right?
361
1163325
2961
فقد كان هناك عدد قليل جدًا من الجوانب السلبية، أليس كذلك؟
19:26
It’s very hard to say explicitly what harm an LLM has caused.
362
1166328
4922
من الصعب جدًا تحديد الضرر الذي سببته نماذج اللغة الكبيرة بشكل صريح.
19:31
But that doesn’t mean that that’s what the trajectory is going to be
363
1171291
3212
لكن هذا لا يعني أن هذا هو المسار الذي سيكون عليه المسار
19:34
over the next 10 years.
364
1174503
1168
خلال السنوات العشر القادمة.
19:35
So I think if you pay attention to a few specific capabilities,
365
1175671
3462
لذلك أعتقد أنه إذا انتبهت إلى بعض القدرات المحددة،
19:39
take for example, autonomy.
366
1179174
1835
خذ على سبيل المثال، الاستقلالية.
19:41
Autonomy is very obviously a threshold
367
1181009
2336
من الواضح جدًا أن الاستقلالية هي
19:43
over which we increase risk in our society.
368
1183387
2794
عتبة نزيد فيها المخاطر في مجتمعنا.
19:46
And it's something that we should step towards very, very closely.
369
1186223
3128
وهو شيء يجب أن نتقدم نحوه عن كثب.
19:49
The other would be something like recursive self-improvement.
370
1189393
3420
والآخر سيكون شيئًا مثل التحسين الذاتي المتكرر.
19:52
If you allow the model to independently self-improve,
371
1192813
3629
إذا سمحت للنموذج بالتحسين الذاتي بشكل مستقل،
19:56
update its own code,
372
1196483
1460
وتحديث الكود الخاص به،
19:57
explore an environment without oversight, and, you know,
373
1197985
3295
واستكشاف بيئة بدون رقابة، وكما تعلمون،
20:01
without a human in control to change how it operates,
374
1201321
3295
بدون سيطرة الإنسان لتغيير طريقة عمله، فمن الواضح
20:04
that would obviously be more dangerous.
375
1204616
1919
أن ذلك سيكون أكثر خطورة.
20:06
But I think that we're still some way away from that.
376
1206535
2544
لكنني أعتقد أننا مازلنا بعيدين عن ذلك.
20:09
I think it's still a good five to 10 years before we have to really confront that.
377
1209079
3879
أعتقد أن الأمر لا يزال جيدًا من خمس إلى 10 سنوات قبل أن نضطر إلى مواجهة ذلك حقًا.
20:12
But it's time to start talking about it now.
378
1212958
2085
ولكن حان الوقت لبدء الحديث عنها الآن.
20:15
CA: A digital species, unlike any biological species,
379
1215043
2545
كريس: يمكن للأنواع الرقمية، على عكس أي نوع بيولوجي،
20:17
can replicate not in nine months,
380
1217588
2002
أن تتكاثر ليس في تسعة أشهر،
20:19
but in nine nanoseconds,
381
1219631
1669
ولكن في تسعة نانوثانية،
20:21
and produce an indefinite number of copies of itself,
382
1221341
3421
وتنتج عددًا غير محدد من النسخ من نفسها،
20:24
all of which have more power than we have in many ways.
383
1224803
3796
وكلها تتمتع بقوة أكبر مما لدينا في نواح كثيرة.
20:28
I mean, the possibility for unintended consequences seems pretty immense.
384
1228599
4838
أعني، احتمال حدوث عواقب غير مقصودة يبدو هائلاً جدًا.
20:33
And isn't it true that if a problem happens,
385
1233479
2168
أليس صحيحًا أنه إذا حدثت مشكلة،
20:35
it could happen in an hour?
386
1235689
1919
فقد تحدث في غضون ساعة؟
20:37
MS: No.
387
1237649
1335
مصطفى: لا.
20:38
That is really not true.
388
1238984
1752
هذا ليس صحيحًا حقًا.
20:40
I think there's no evidence to suggest that.
389
1240778
2085
أعتقد أنه لا يوجد دليل يشير إلى ذلك.
20:42
And I think that, you know,
390
1242863
1585
وأعتقد أنه، كما تعلمون،
20:44
that’s often referred to as the “intelligence explosion.”
391
1244490
2836
يُشار إلى ذلك غالبًا باسم «الانفجار الاستخباراتي».
20:47
And I think it is a theoretical, hypothetical maybe
392
1247367
3712
وأعتقد أنه أمر نظري أو افتراضي ربما
20:51
that we're all kind of curious to explore,
393
1251079
2420
نشعر جميعًا بالفضول لاستكشافه،
20:53
but there's no evidence that we're anywhere near anything like that.
394
1253540
3212
لكن لا يوجد دليل على أننا قريبون من أي شيء من هذا القبيل.
20:56
And I think it's very important that we choose our words super carefully.
395
1256752
3462
وأعتقد أنه من المهم جدًا أن نختار كلماتنا بعناية فائقة.
21:00
Because you're right, that's one of the weaknesses of the species framing,
396
1260255
3546
لأنك على حق، فهذه إحدى نقاط الضعف في تأطير الأنواع،
21:03
that we will design the capability for self-replication into it
397
1263801
4337
أننا سنصمم القدرة على التكرار الذاتي فيها
21:08
if people choose to do that.
398
1268180
1668
إذا اختار الناس القيام بذلك.
21:09
And I would actually argue that we should not,
399
1269890
2169
وأود أن أزعم في الواقع أنه لا ينبغي لنا
21:12
that would be one of the dangerous capabilities
400
1272059
2210
ذلك، ستكون هذه إحدى القدرات الخطيرة التي يجب
21:14
that we should step back from, right?
401
1274269
1835
أن نتراجع عنها، أليس كذلك؟
21:16
So there's no chance that this will "emerge" accidentally.
402
1276104
3796
لذلك ليس هناك احتمال أن «يظهر» هذا عن طريق الخطأ.
21:19
I really think that's a very low probability.
403
1279942
2502
أعتقد حقًا أن هذا احتمال ضعيف جدًا.
21:22
It will happen if engineers deliberately design those capabilities in.
404
1282486
4338
سيحدث ذلك إذا قام المهندسون بتصميم تلك القدرات عن عمد.
21:26
And if they don't take enough efforts to deliberately design them out.
405
1286865
3295
وإذا لم يبذلوا جهودًا كافية لتصميمها عن عمد.
21:30
And so this is the point of being explicit
406
1290160
2294
وهذا هو الهدف من الصراحة
21:32
and transparent about trying to introduce safety by design very early on.
407
1292454
5672
والشفافية بشأن محاولة تقديم السلامة من خلال التصميم في وقت مبكر جدًا.
21:39
CA: Thank you, your vision of humanity injecting into this new thing
408
1299044
5964
كريس: شكرًا لك، رؤيتك للإنسانية تحقن في هذا الشيء
21:45
the best parts of ourselves,
409
1305008
1877
الجديد أفضل أجزاء أنفسنا،
21:46
avoiding all those weird, biological, freaky,
410
1306927
2920
متجنبين كل تلك الميول الغريبة والبيولوجية
21:49
horrible tendencies that we can have in certain circumstances,
411
1309888
2920
والفظيعة والمروعة التي يمكن أن تكون لدينا في ظروف معينة،
21:52
I mean, that is a very inspiring vision.
412
1312808
2127
أعني، هذه رؤية ملهمة للغاية.
21:54
And thank you so much for coming here and sharing it at TED.
413
1314977
3336
وشكرًا جزيلاً على قدومكم إلى هنا ومشاركتها في TED.
21:58
Thank you, good luck.
414
1318355
1210
شكرا لكم، حظا سعيدا.
21:59
(Applause)
415
1319565
1876
(تصفيق)
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7