Will Superintelligent AI End the World? | Eliezer Yudkowsky | TED

280,597 views ・ 2023-07-11

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: Shima Zadeh المدقّق: Mohamed Salem
00:04
Since 2001, I have been working on what we would now call
0
4334
3503
منذ عام 2001 وأنا أعمل على ما نسميه الآن
00:07
the problem of aligning artificial general intelligence:
1
7879
3629
مشكلة توجيه الذكاء الاصطناعي العام:
00:11
how to shape the preferences and behavior
2
11550
2085
كيف نشكل التَرجِيحات والسلوك
00:13
of a powerful artificial mind such that it does not kill everyone.
3
13677
4838
لعقل اصطناعي قوي بحيث لا يقتل الجميع؟
00:19
I more or less founded the field two decades ago,
4
19224
3128
لقد أسست هذا المجال منذ عقدين من الزمن تقريباً،
00:22
when nobody else considered it rewarding enough to work on.
5
22352
2794
عندما لم يعتبره أحد مجزي بما فيه الكفاية للعمل عليه.
00:25
I tried to get this very important project started early
6
25146
2711
حاولت أن أجعل هذا المشروع
المهم جداً يبدأ في وقت مبكر
00:27
so we'd be in less of a drastic rush later.
7
27899
2544
لنكون أقل عرضة لهَجمة عنيفة في وقت لاحق.
00:31
I consider myself to have failed.
8
31069
2044
وأنا أعتبر نفسي فشلت في ذلك.
00:33
(Laughter)
9
33154
1001
(ضحك)
00:34
Nobody understands how modern AI systems do what they do.
10
34197
3337
لا أحد يفهم كيف تقوم أنظمة الذكاء الاصطناعي الحديثة بعملها.
00:37
They are giant, inscrutable matrices of floating point numbers
11
37576
2961
إنها مصفوفات عملاقة وغامضة تتكون من اعداد الفاصلة المتحركة
00:40
that we nudge in the direction of better performance
12
40579
2460
التي ندفعها في اتجاه أداء أفضل
00:43
until they inexplicably start working.
13
43039
2044
حتى تبدأ العمل بطريقة غير مفهومة.
00:45
At some point, the companies rushing headlong to scale AI
14
45083
3378
وفي مرحلة ما، سيؤدي دفع الشركات بتهور لتوسيع نطاق الذكاء الاصطناعي
00:48
will cough out something that's smarter than humanity.
15
48461
2670
إلى إنتاج شيء ما أذكى من الإنسانية.
00:51
Nobody knows how to calculate when that will happen.
16
51131
2544
لا أحد يعرف كيفية حساب الوقت الذي سيحدث فيه ذلك.
00:53
My wild guess is that it will happen after zero to two more breakthroughs
17
53675
3712
تخميني العشوائي هو أن ذلك سيحدث بعد صفر إلى اثنين
من الاختراقات الأخرى بحجم المحولات.
00:57
the size of transformers.
18
57429
1710
00:59
What happens if we build something smarter than us
19
59139
2335
ماذا يحدث لو بنينا شيء أكثر ذكاء منا
01:01
that we understand that poorly?
20
61516
2377
و نفهمه بشكل ضئيل؟
01:03
Some people find it obvious that building something smarter than us
21
63935
3170
بعض الناس يجدون بوضوح أن بناء شيء أكثر ذكاء منا
01:07
that we don't understand might go badly.
22
67105
2294
و لا نفهمه قد يؤدي إلى نتائج سيئة.
01:09
Others come in with a very wide range of hopeful thoughts
23
69441
3879
ويؤمن البعض الآخر بمجموعة واسعة جدا من الأفكار المفعمة بالأمل
01:13
about how it might possibly go well.
24
73361
2044
حول كيف يمكن أن تسير الأمور على مايرام.
01:16
Even if I had 20 minutes for this talk and months to prepare it,
25
76281
3337
حتى لو كان لدي 20 دقيقة لهذه المحادثة وأشهر للتحضير لها،
01:19
I would not be able to refute all the ways people find to imagine
26
79659
3087
لن أكون قادرا على دحض كل الطرق التي يجدها الناس وتجعلهم يتخيلون
01:22
that things might go well.
27
82746
1710
أن الأمور قد تسير على ما يرام.
01:24
But I will say that there is no standard scientific consensus
28
84456
4546
ولكن سأقول أنه لا يوجد إجماع علمي موحد للكيفية التي يمكن بها
01:29
for how things will go well.
29
89044
1668
أن تسير الأمور على ما يرام.
01:30
There is no hope that has been widely persuasive
30
90712
2252
ليس هنالك أمل مقنع على نطاق واسع
01:33
and stood up to skeptical examination.
31
93006
1877
أو مواجهة للبحث المُشكك.
01:35
There is nothing resembling a real engineering plan for us surviving
32
95592
4421
لا يوجد شيء يشبه خطة هندسية حقيقية لبقائنا على قيد الحياة لأتمكن من انتقادها.
01:40
that I could critique.
33
100013
1710
01:41
This is not a good place in which to find ourselves.
34
101765
2752
هذا ليس مكانًا مناسباً لنفهم أنفسنا فيه.
01:44
If I had more time,
35
104517
1210
لو كان لدي المزيد من الوقت، لحاولت أن أحدثكم عن الأسباب المتوقعة
01:45
I'd try to tell you about the predictable reasons
36
105727
2294
01:48
why the current paradigm will not work
37
108063
1960
لماذا النموذج الحالي لن ينجح
01:50
to build a superintelligence that likes you
38
110065
2460
لبناء الذكاء الفائق الذي يحبك
01:52
or is friends with you, or that just follows orders.
39
112567
3378
أو يكون صديق لك أو يتبع الأوامر فقط؟
01:56
Why, if you press "thumbs up" when humans think that things went right
40
116613
4379
لماذا إذا نقرت على “أعجبني” عندما يعتقد البشر أن الأمور سارت على ما يرام
02:01
or "thumbs down" when another AI system thinks that they went wrong,
41
121034
3712
أو “لا يعجبني” عندما يعتقد نظام ذكاء اصطناعي آخر أنها سارت بشكل خاطئ ،
02:04
you do not get a mind that wants nice things
42
124788
3503
لا تحصل على عقل يريد أشياء لطيفة بطريقة تعمم جيدًا خارج
02:08
in a way that generalizes well outside the training distribution
43
128291
4004
توزيع التدريب إلى المكان الذي يكون فيه الذكاء الاصطناعي أكثر ذكاءً من المدربين؟
02:12
to where the AI is smarter than the trainers.
44
132337
2461
02:15
You can search for "Yudkowsky list of lethalities" for more.
45
135674
5130
يمكنك البحث عن “قائمة يودكوفسكي للفتك” لتعرف المزيد.
02:20
(Laughter)
46
140804
1793
(ضحك)
02:22
But to worry, you do not need to believe me
47
142597
2169
لكن ما يدعو للقلق، أنه ليس من الضروري أن تصدقني
02:24
about exact predictions of exact disasters.
48
144808
2878
بشأن التنبؤات الدقيقة للكوارث الدقيقة.
02:27
You just need to expect that things are not going to work great
49
147727
2962
عليك فقط أن تتوقع أن الأمور لن تسير على ما يرام
02:30
on the first really serious, really critical try
50
150730
3045
في أول محاولة جادة وحاسمة للغاية
02:33
because an AI system smart enough to be truly dangerous
51
153817
3503
لأن نظام الذكاء الاصطناعي ذكي بما فيه الكفاية ليكون خطير فعلاً
02:37
was meaningfully different from AI systems stupider than that.
52
157362
3503
كان ليختلف بشكل واضح عن أنظمة الذكاء الاصطناعي الأغبى من ذلك.
02:40
My prediction is that this ends up with us facing down something smarter than us
53
160907
5005
توقعاتي هي أن هذا سينتهي بنا بمواجهة شيء أكثر ذكاءً منا والذي لا يريد ما نريده،
02:45
that does not want what we want,
54
165954
1752
02:47
that does not want anything we recognize as valuable or meaningful.
55
167706
4170
الذي لا يريد أي شيء ندرك أنه ذو قيمة أو معنى.
02:52
I cannot predict exactly how a conflict between humanity and a smarter AI would go
56
172252
4588
لا أستطيع التنبؤ بالضبط كيف سيسير الصراع
بين الإنسانية والذكاء الاصطناعي الأكثر ذكاءً
02:56
for the same reason I can't predict exactly how you would lose a chess game
57
176881
3838
لنفس السبب الذي لا أستطيع التنبؤ بالضبط كيف ستخسر مباراة شطرنج
03:00
to one of the current top AI chess programs, let's say Stockfish.
58
180760
3671
ضد واحد من أفضل برامج شطرنج الذكاء الاصطناعي حاليا ولنفترض أنها ستوكفيش.
03:04
If I could predict exactly where Stockfish could move,
59
184973
3545
إذا كان بإمكاني التنبؤ بالضبط أين يمكن أن تتحرك ستوكفيش،
03:08
I could play chess that well myself.
60
188560
2544
لكنت أستطيع لعب الشطرنج بمهارة.
03:11
I can't predict exactly how you'll lose to Stockfish,
61
191146
2502
لا أستطيع التنبؤ بالضبط كيف ستخسر أمام ستوكفيش،
03:13
but I can predict who wins the game.
62
193648
2044
لكن يمكنني توقع من سيفوز باللعبة.
03:16
I do not expect something actually smart to attack us with marching robot armies
63
196401
4421
لا أتوقع شيئا ذكيا في الواقع لمهاجمتنا بجيوش الروبوتات المسيرة
03:20
with glowing red eyes
64
200864
1543
مع عيون حمراء متوهجة
03:22
where there could be a fun movie about us fighting them.
65
202407
3086
حيث يمكن أن يكون هناك فيلم ممتع عن قتالنا لهم.
03:25
I expect an actually smarter and uncaring entity
66
205535
2502
أتوقع أن يتمكن كيان أكثر ذكاءً وغير مهتم من اكتشاف الاستراتيجيات والتقنيات
03:28
will figure out strategies and technologies
67
208079
2002
03:30
that can kill us quickly and reliably and then kill us.
68
210123
3545
التي يمكن أن تقتلنا بسرعة وبشكل موثوق ومن ثم قتلنا.
03:34
I am not saying that the problem of aligning superintelligence
69
214461
2919
أنا لا أقول أن مشكلة التعاون مع الذكاء الفائق
03:37
is unsolvable in principle.
70
217422
1710
غير قابلة للحل من حيث المبدأ.
03:39
I expect we could figure it out with unlimited time and unlimited retries,
71
219174
4879
أتوقع أن نتمكن من معرفة ذلك بمرور وقت غير محدد ومحاولات غير محددة،
03:44
which the usual process of science assumes that we have.
72
224095
3796
والتي تفترض العملية المعتادة للعلم أنه لدينا.
03:48
The problem here is the part where we don't get to say,
73
228308
2836
المشكلة هنا تكمن في أننا لا نستطيع أن نقول
03:51
“Ha ha, whoops, that sure didn’t work.
74
231186
2294
“هاها، عفوًا، هذا بالتأكيد لم ينجح.
03:53
That clever idea that used to work on earlier systems
75
233521
3837
تلك الفكرة الذكية التي كانت ناجحة على الأنظمة السابقة
03:57
sure broke down when the AI got smarter, smarter than us.”
76
237358
3504
بالتأكيد انهارت عندما أصبح الذكاء الاصطناعي أكثر ذكاءً منا بمراحل.”
04:01
We do not get to learn from our mistakes and try again
77
241571
2544
نحن لن نتمكن من التعلم من أخطائنا والمحاولة مرة أخرى
04:04
because everyone is already dead.
78
244157
1960
لأن الجميع سيكونون أموات.
04:07
It is a large ask
79
247076
2586
إنه طلب كبير للحصول على تحدٍ علمي وهندسي
04:09
to get an unprecedented scientific and engineering challenge
80
249704
3003
04:12
correct on the first critical try.
81
252707
2002
غير مسبوق بشكل صحيح في المحاولة الحاسمة الأولى.
04:15
Humanity is not approaching this issue with remotely
82
255084
3045
إن البشرية لا تتعامل مع هذه القضية بالمستوى المطلوب من الجدية.
04:18
the level of seriousness that would be required.
83
258171
2711
04:20
Some of the people leading these efforts
84
260924
1918
بعض الأشخاص الذين يقودون هذه الجهود
04:22
have spent the last decade not denying
85
262884
2502
أمضوا العقد الماضي غير منكرين أن
04:25
that creating a superintelligence might kill everyone,
86
265386
2920
أن صنع الذكاء الخارق قد يقتل الجميع،
04:28
but joking about it.
87
268306
1376
ولكن يمزحون بشأن ذلك.
04:30
We are very far behind.
88
270183
1877
نحن متأخرون جدا.
04:32
This is not a gap we can overcome in six months,
89
272101
2294
هذه ليست فجوة يمكننا التغلب عليها في ستة أشهر،
04:34
given a six-month moratorium.
90
274437
1919
في ظل وقف اختياري لمدة ستة أشهر.
04:36
If we actually try to do this in real life,
91
276689
2503
إذا حاولنا فعل ذلك في الحياة الواقعية، فسنموت جميعًا.
04:39
we are all going to die.
92
279234
1668
04:41
People say to me at this point, what's your ask?
93
281402
2586
الناس يقولون لي في هذه المرحلة، ما هو سؤالك؟
04:44
I do not have any realistic plan,
94
284697
1627
ليس لدي أي خطة واقعية
04:46
which is why I spent the last two decades
95
286324
1960
ولهذا السبب قضيت العقدين الماضيين
04:48
trying and failing to end up anywhere but here.
96
288326
2586
بين المحاولة والفشل إلى أن انتهى بي المطاف في هذا المكان.
04:51
My best bad take is that we need an international coalition
97
291913
3670
أفضل ما عندي هو أن نحتاج لتحالف دولي
04:55
banning large AI training runs,
98
295625
2252
يحظر عمليات التدريب الكبيرة على الذكاء الاصطناعي،
04:57
including extreme and extraordinary measures
99
297877
3379
مع تدابير صارمة واستثنائية لجعل هذا الحظر فعالاً فعليًا وعالميًا.
05:01
to have that ban be actually and universally effective,
100
301256
3253
05:04
like tracking all GPU sales,
101
304509
2377
مثل تتبع جميع مبيعات وحدة معالجة الرسومياتGPU،
05:06
monitoring all the data centers,
102
306928
2127
مراقبة جميع مراكز البيانات،
05:09
being willing to risk a shooting conflict between nations
103
309055
2711
الاستعداد لمخاطرة صراع إطلاق النار بين الدول
05:11
in order to destroy an unmonitored data center
104
311808
2711
من أجل تدمير مركز بيانات غير مراقب
05:14
in a non-signatory country.
105
314561
1793
في دولة غير موقعة.
05:17
I say this, not expecting that to actually happen.
106
317480
3170
أقول هذا، ولا أتوقع أن يحدث ذلك في الواقع.
05:21
I say this expecting that we all just die.
107
321109
2919
أقول هذا متوقعاً أننا جميعاً سنموت.
05:24
But it is not my place to just decide on my own
108
324779
3295
لكن ليس من حقي أن أقرر بنفسي أن البشرية ستختار الموت،
05:28
that humanity will choose to die,
109
328074
2211
05:30
to the point of not bothering to warn anyone.
110
330326
2461
إلى درجة عدم الاهتمام بتحذير أي شخص.
05:33
I have heard that people outside the tech industry
111
333204
2336
سمعت أن الناس خارج صناعة التكنولوجيا
05:35
are getting this point faster than people inside it.
112
335582
2627
يفهمون هذه النقطة أسرع من الناس بداخله.
05:38
Maybe humanity wakes up one morning and decides to live.
113
338251
3712
ربما تستيقظ البشرية صباح ما وتقرر العيش.
05:43
Thank you for coming to my brief TED talk.
114
343006
2043
أشكركم على حضوركم لمحاضرتي القصيرة في تيد TED.
05:45
(Laughter)
115
345049
1585
(ضحك)
05:46
(Applause and cheers)
116
346676
6965
(تصفيق وهتاف)
05:56
Chris Anderson: So, Eliezer, thank you for coming and giving that.
117
356102
4421
كريس أندرسون: إذن، إليعازر، شكرًا على مجيئك وإلقائك ذلك.
06:00
It seems like what you're raising the alarm about is that like,
118
360523
3962
يبدو أن ما تدق ناقوس الخطر بشأنه هو أنه
06:04
for this to happen, for an AI to basically destroy humanity,
119
364527
3962
لكي يحدث هذا، أن يقوم الذكاء الاصطناعي بتدمير البشرية،
06:08
it has to break out, escape controls of the internet and, you know,
120
368489
5172
يجب أن تندلع، وتهرب من ضوابط الإنترنت، وكما تعلمون،
06:13
start commanding actual real-world resources.
121
373661
2920
تبدأ في السيطرة على موارد العالم الحقيقي الفعلية.
06:16
You say you can't predict how that will happen,
122
376581
2210
أنت تقول أنك لا تستطيع التنبؤ كيف سيحدث ذلك،
06:18
but just paint one or two possibilities.
123
378833
3462
ولكن فقط قم بتصور احتمال أو اثنين.
06:22
Eliezer Yudkowsky: OK, so why is this hard?
124
382337
2794
إليعازر يودكوفسكي: حسنًا، لماذا هذا الأمر صعب؟
06:25
First, because you can't predict exactly where a smarter chess program will move.
125
385131
3837
أولاً، لأنه لا يمكنك التنبؤ بدقة أين سيتحرك برنامج الشطرنج الأكثر ذكاءً.
06:28
Maybe even more importantly than that,
126
388968
1877
وربما الأهم من ذلك،
06:30
imagine sending the design for an air conditioner
127
390887
2794
تخيل إرسال تصميم لمكيف الهواء
06:33
back to the 11th century.
128
393723
1877
إلى القرن الحادي عشر.
06:35
Even if they -- if it’s enough detail for them to build it,
129
395642
3128
حتى لو -- إذا كانت التفاصيل كافية بالنسبة لهم لبنائه،
06:38
they will be surprised when cold air comes out
130
398811
2753
فسوف يتفاجأون عندما يخرج الهواء البارد
06:41
because the air conditioner will use the temperature-pressure relation
131
401564
3670
لأن مكيف الهواء سيستخدم العلاقة بين درجة الحرارة والضغط
06:45
and they don't know about that law of nature.
132
405276
2461
وهم لا يعرفون شيئًا عن قانون الطبيعة هذا.
06:47
So if you want me to sketch what a superintelligence might do,
133
407779
4629
لذلك إذا كنت تريد مني أن تصور ما الذي يمكن أن يفعله الذكاء الفائق،
06:52
I can go deeper and deeper into places
134
412450
2336
يمكنني التعمق أكثر فأكثر في الأماكن التي نعتقد أن
06:54
where we think there are predictable technological advancements
135
414827
2962
هناك تطورات تكنولوجية يمكن التنبؤ بها والتي لم نكتشفها بعد.
06:57
that we haven't figured out yet.
136
417789
1626
06:59
And as I go deeper, it will get harder and harder to follow.
137
419415
2836
وكلما تعمقت أكثر، سوف يصبح الأمر أكثر صعوبة للمتابعة.
07:02
It could be super persuasive.
138
422251
1961
يمكن أن تكون مقنعة للغاية.
07:04
That's relatively easy to understand.
139
424253
1877
هذا من السهل نسبيا أن نفهمه.
07:06
We do not understand exactly how the brain works,
140
426130
2545
نحن لا نفهم بالضبط كيف يعمل الدماغ,
07:08
so it's a great place to exploit laws of nature that we do not know about.
141
428716
3504
إنه مكان رائع لاستغلال قوانين الطبيعة التي لا نعرف عنها شيئًا.
07:12
Rules of the environment,
142
432261
1502
قواعد البيئة،
07:13
invent new technologies beyond that.
143
433805
2669
ابتكار تقنيات جديدة أبعد من ذلك.
07:16
Can you build a synthetic virus that gives humans a cold
144
436808
3879
هل يمكنك بناء فيروس اصطناعي الذي يصيب الإنسان بالبرد
07:20
and then a bit of neurological change and they're easier to persuade?
145
440728
4213
ومن ثم القليل من التغيير العصبي ويكون إقناعهم أسهل؟
07:24
Can you build your own synthetic biology,
146
444941
3336
هل يمكنك بناء علم الأحياء الاصطناعي الخاص بك،
07:28
synthetic cyborgs?
147
448319
1585
السايبورغ الاصطناعية؟
07:29
Can you blow straight past that
148
449946
2044
هل يمكنك تجاوز ذلك مباشرة إلى
07:31
to covalently bonded equivalents of biology,
149
451990
4004
معادلات علم الأحياء المرتبطة تساهميًا،
07:36
where instead of proteins that fold up and are held together by static cling,
150
456035
3754
حيث بدلاً من البروتينات التي تطوى وتتماسك معًا عن طريق التشبث الساكن،
07:39
you've got things that go down much sharper potential energy gradients
151
459789
3378
لديك أشياء تنخفض في تدرجات طاقة محتملة أكثر وضوحًا وترتبط ببعضها البعض؟
07:43
and are bonded together?
152
463209
1376
07:44
People have done advanced design work about this sort of thing
153
464585
3546
قام الناس بأعمال تصميم متقدمة حول هذا النوع
07:48
for artificial red blood cells that could hold 100 times as much oxygen
154
468172
3879
من خلايا الدم الحمراء الاصطناعية التي يمكن أن تحتوي على 100 ضعف كمية الأكسجين
07:52
if they were using tiny sapphire vessels to store the oxygen.
155
472093
3754
إذا كانوا يستخدمون أوعية صغيرة من الياقوت لتخزين الأكسجين.
07:55
There's lots and lots of room above biology,
156
475888
2586
هناك مساحة كبيرة جدًا فوق علم الأحياء، لكن فهمه يصبح أكثر صعوبة.
07:58
but it gets harder and harder to understand.
157
478474
2211
08:01
CA: So what I hear you saying
158
481519
1543
كريس: إذن ما تريد قوله هو
08:03
is that these terrifying possibilities there
159
483104
2294
أن هذه الاحتمالات المرعبة موجودة
08:05
but your real guess is that AIs will work out something more devious than that.
160
485440
5130
لكن تخمينك الواقعي هو أن الذكاء الاصطناعي سيعمل للخروج بشيء أكثر مخادعة من ذلك.
08:10
Is that really a likely pathway in your mind?
161
490570
3837
هل هذا حقًا مسار محتمل في عقلك؟
08:14
EY: Which part?
162
494407
1168
إليعازر يودكوفسكي: أي جزء؟
08:15
That they're smarter than I am? Absolutely.
163
495616
2002
أنهم أكثر ذكاءً مني؟ بالطبع.
08:17
CA: Not that they're smarter,
164
497660
1418
كريس: ليس لأنهم أكثر ذكاءً،
08:19
but why would they want to go in that direction?
165
499078
3045
ولكن لماذا يريدون سلك هذا الاتجاه؟
08:22
Like, AIs don't have our feelings of sort of envy and jealousy and anger
166
502123
5422
فالذكاء الاصطناعي ليس لديه مشاعرنا من الحسد والغيرة والغضب
08:27
and so forth.
167
507587
1168
وما إلى ذلك.
08:28
So why might they go in that direction?
168
508755
2460
فلماذا قد يسلكون هذا الاتجاه؟
08:31
EY: Because it's convergently implied by almost any of the strange,
169
511215
4296
لأنه يتم تضمينه بشكل متقارب تقريبًا في أي من الأشياء الغريبة والغامضة
08:35
inscrutable things that they might end up wanting
170
515511
3379
التي قد ينتهي بهم الأمر إلى الرغبة فيها نتيجة للهبوط المتدرج
08:38
as a result of gradient descent
171
518931
1710
08:40
on these "thumbs up" and "thumbs down" things internally.
172
520683
2711
على هذه الأشياء “أعجبني” و “لم يعجبني” داخليًا.
08:44
If all you want is to make tiny little molecular squiggles
173
524604
3920
إذا كان كل ما تريده هو عمل تمايلات جزيئية صغيرة أو مكون واحد مما تريده،
08:48
or that's like, one component of what you want,
174
528566
2461
08:51
but it's a component that never saturates, you just want more and more of it,
175
531069
3628
لكنه مكون لا يتشبع أبدًا، فأنت فقط تريد المزيد والمزيد منه،
08:54
the same way that we would want more and more galaxies filled with life
176
534697
3337
بنفس الطريقة التي نريد بها المزيد والمزيد من المجرات
مليئة بالحياة والناس الذين يعيشون في سعادة دائمة.
08:58
and people living happily ever after.
177
538034
1793
08:59
Anything that just keeps going,
178
539869
1627
أي شيء يستمر،
09:01
you just want to use more and more material for that,
179
541537
3045
أنت فقط تريد استخدام المزيد والمزيد من المواد لذلك،
09:04
that could kill everyone on Earth as a side effect.
180
544624
2669
والذي يمكن أن يقتل الجميع على الأرض كأثر جانبي.
09:07
It could kill us because it doesn't want us making other superintelligences
181
547293
3545
يمكن أن يقتلنا لأنه لا يريدنا أن نصنع الذكاءات الفائقة الأخرى للتنافس معها.
09:10
to compete with it.
182
550880
1168
09:12
It could kill us because it's using up all the chemical energy on earth
183
552048
4379
يمكن أن يقتلنا لأنه يستهلك كل الطاقة الكيميائية الموجودة على الأرض
09:16
and we contain some chemical potential energy.
184
556469
2586
ونحن نحتوي على بعض الطاقة الكيميائية المحتملة.
09:19
CA: So some people in the AI world worry that your views are strong enough
185
559055
6256
كريس: قد يشعر بعض الناس في عالم الذكاء الاصطناعي بالقلق
أن آرائك عنيفة كفاية وسيقولون متطرفًا كفاية
09:25
and they would say extreme enough
186
565311
1585
09:26
that you're willing to advocate extreme responses to it.
187
566896
3170
لدرجة أنك على استعداد للدعوة إلى ردود فعل متطرفة.
09:30
And therefore, they worry that you could be, you know,
188
570066
3462
ولذلك فهم قلقون أنه يمكن أن تكون، كما تعلم،
09:33
in one sense, a very destructive figure.
189
573528
1918
بمعنى ما، شخصية مدمرة للغاية.
09:35
Do you draw the line yourself in terms of the measures
190
575488
3170
هل تتصور الخطة بنفسك من حيث التدابير
09:38
that we should take to stop this happening?
191
578699
2753
الذي يجب أن نتخذها لوقف هذا الحدث؟
09:41
Or is actually anything justifiable to stop
192
581494
3253
أو هو في الواقع أي شيء مبرر لوقف
09:44
the scenarios you're talking about happening?
193
584747
2211
هذه السيناريوهات التي تتحدث عنها عن الحدوث؟
09:47
EY: I don't think that "anything" works.
194
587834
3253
إليعازر يودكوفسكي: لا أعتقد أن “أي شيء” يصلح.
09:51
I think that this takes state actors
195
591087
4379
أعتقد أن هذا يتطلب الجهات الفاعلة في الدولة
09:55
and international agreements
196
595508
2753
والاتفاقيات الدولية
09:58
and all international agreements by their nature,
197
598302
3254
وجميع الاتفاقيات الدولية، بطبيعتهم
10:01
tend to ultimately be backed by force
198
601556
1876
يميلون في نهاية المطاف لأن يكونون مدعومين بالقوة
10:03
on the signatory countries and on the non-signatory countries,
199
603474
3379
على الدول الموقِعة وعلى الدول غير الموقعة،
10:06
which is a more extreme measure.
200
606894
1794
وهو إجراء أكثر تطرفا.
10:09
I have not proposed that individuals run out and use violence,
201
609856
2961
أنا لم أقترح أن يمضي الأفراد ويستخدمون العنف،
10:12
and I think that the killer argument for that is that it would not work.
202
612859
4337
وأعتقد أن الحجة القاتلة لذلك هو أنه لن ينجح.
10:18
CA: Well, you are definitely not the only person to propose
203
618489
2961
كريس: حسنًا، أنت بالتأكيد لست الشخص الوحيد الذي يقترح
10:21
that what we need is some kind of international reckoning here
204
621450
4004
أن ما نحتاجه هو نوع من الحساب الدولي هنا
10:25
on how to manage this going forward.
205
625496
2044
حول كيفية إدارة هذا الموضوع للتقدم.
10:27
Thank you so much for coming here to TED, Eliezer.
206
627540
2419
شكراً جزيلاً لقدومك إلى تيد TED، إليعازر.
10:30
(Applause)
207
630001
2085
(تصفيق)
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7