3 principles for creating safer AI | Stuart Russell

139,790 views ・ 2017-06-06

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: Muhammad Arafat
00:12
This is Lee Sedol.
0
12532
1552
أمامَكُم لي سيدول.
00:14
Lee Sedol is one of the world's greatest Go players,
1
14108
3997
لي سيدول هو واحدٌ من أفضلِ لاعبي لُعبةِ "غو" على مستوى العالم
00:18
and he's having what my friends in Silicon Valley call
2
18129
2885
وهو يمرّ بما يدعوه أصدقائي في سيليكون فالي
00:21
a "Holy Cow" moment --
3
21038
1510
بلحظةِ "يا للهول!"
00:22
(Laughter)
4
22572
1073
00:23
a moment where we realize
5
23669
2188
(ضحك)
هيَ لحظةٌ نُدرِكُ عندها
00:25
that AI is actually progressing a lot faster than we expected.
6
25881
3296
بأنّ تقنيّات الذكاء الاصطناعي تتطوّر بسرعة أكبرَ بكثيرٍ ممّا توقعنا.
00:29
So humans have lost on the Go board. What about the real world?
7
29974
3047
إذاً فقد خسرَ البشرُ في لعبةِ "غو" لكِنْ ماذا عنِ العالمِ الواقعيّ؟
00:33
Well, the real world is much bigger,
8
33045
2100
العالمُ الواقعيّ حقيقةً، أكبرُ بكثيرٍ
00:35
much more complicated than the Go board.
9
35169
2249
و أشدُّ تعقيداً مِنْ لُعبةِ "غو".
00:37
It's a lot less visible,
10
37442
1819
صحيحٌ بأنّهُ أقلُّ وضوحاً
00:39
but it's still a decision problem.
11
39285
2038
لكنّه يُصنّفُ أيضاً كقضيّةِ اتخاذِ قرارات.
00:42
And if we think about some of the technologies
12
42768
2321
ولو نظرنا إلى بعضِ التّقنياتِ
00:45
that are coming down the pike ...
13
45113
1749
التي ظهرتْ على السّاحةِ مؤخّراً
00:47
Noriko [Arai] mentioned that reading is not yet happening in machines,
14
47558
4335
فإنَّ نوريكو أراي قالت أن الآلات لا تستطيع القراءة بعد
00:51
at least with understanding.
15
51917
1500
على الأقل على مستوى الفهم.
00:53
But that will happen,
16
53441
1536
لكن هذا سيحصل،
و حينما يحصلُ ذلك،
00:55
and when that happens,
17
55001
1771
00:56
very soon afterwards,
18
56796
1187
لَنْ تستغرِقَ طويلاً،
00:58
machines will have read everything that the human race has ever written.
19
58007
4572
قبلَ أَنْ تقرأَ وتفهمَ كلَّ ما توصّل إليهِ البشرُ مِن عِلم.
01:03
And that will enable machines,
20
63670
2030
و هذا ما سيُمكِّنها،
01:05
along with the ability to look further ahead than humans can,
21
65724
2920
باستخدامِ قُدُراتِها الهائلةِ في حسابِ الاحتمالاتِ المستقبليّة،
01:08
as we've already seen in Go,
22
68668
1680
كما رأينا لتوّنا في لعبةِ "غو"،
01:10
if they also have access to more information,
23
70372
2164
إنْ تمكّنت من الوصولِ إلى المزيدِ من المعلومات،
01:12
they'll be able to make better decisions in the real world than we can.
24
72560
4268
من اتّخاذِ قراراتٍ أكثرَ منطقيّةً من قراراتنا في العالمِ الواقعيّ.
01:18
So is that a good thing?
25
78612
1606
إذاً، هل هذا شيءٌ جيّد؟
01:21
Well, I hope so.
26
81718
2232
أتمنّى ذلكَ حقيقةً.
01:26
Our entire civilization, everything that we value,
27
86514
3255
الحضارةُ البشريّةُ بأكملها و كلّ شيءٍ ذو قيمةٍ لدينا
01:29
is based on our intelligence.
28
89793
2068
تمَّ بفضلِ ذكائنا نحن.
01:31
And if we had access to a lot more intelligence,
29
91885
3694
وإنْ تمكنّا من الحصولِ على ذكاءٍ أكثر،
01:35
then there's really no limit to what the human race can do.
30
95603
3302
لن يكونَ حينها هناكَ شيءٌ لن يستطيعَ البشرُ القيامَ به.
01:40
And I think this could be, as some people have described it,
31
100485
3325
وأعتقدُ بأنّ إنجازاً كَهذا منَ الممكنِ أن يُصنّف كما وصفهُ البعضُ
01:43
the biggest event in human history.
32
103834
2016
كأعظمِ إنجازٍ في تاريخِ البشريّة.
01:48
So why are people saying things like this,
33
108485
2829
لماذا يقولُ بعضُ الأشخاصِ إذاً أشياءَ كهذه:
01:51
that AI might spell the end of the human race?
34
111338
2876
بأنّ الذكاءَ الاصطناعيَّ سيقضي على الجنسِ البشريّ؟
01:55
Is this a new thing?
35
115258
1659
هل ظهرت هذهِ الفكرةُ من جديد؟
01:56
Is it just Elon Musk and Bill Gates and Stephen Hawking?
36
116941
4110
هل هي مجرّد فكرةٍ يؤمنُ بها كلٌّ من إيلون ماسك، بيل غيتس، وستيفن هوكنغ؟
02:01
Actually, no. This idea has been around for a while.
37
121773
3262
حقيقةً لا، هذه الفكرةُ موجودةٌ منذ زمنٍ بعيد.
02:05
Here's a quotation:
38
125059
1962
وسأعرِضُ لَكُم مقولةً شهيرة:
02:07
"Even if we could keep the machines in a subservient position,
39
127045
4350
"حتى ولوّ تمكّنا من إبقاءِ الآلاتِ تحتَ سيطرتنا"
02:11
for instance, by turning off the power at strategic moments" --
40
131419
2984
"عبرَ إطفاءِها مثلاً حينما يلزمُ الأمر"
02:14
and I'll come back to that "turning off the power" idea later on --
41
134427
3237
وسأعودُ لاحقاً لهذهِ الفكرة -قطع مصدر الطاقة عن الآلة-
02:17
"we should, as a species, feel greatly humbled."
42
137688
2804
"علينا كبشر أن نشعر بالتواضع."
02:21
So who said this? This is Alan Turing in 1951.
43
141997
3448
مقولةُ من هذه إذاً؟ إنّها مقولةُ آلان تورينغ، عامَ 1951
02:26
Alan Turing, as you know, is the father of computer science
44
146120
2763
آلان تورينغ كما نعلمُ جميعاً هو مؤسّسُ علومِ الحاسب
02:28
and in many ways, the father of AI as well.
45
148907
3048
والأبُ الروحيّ للذكاءِ الاصطناعيِّ كذلك.
02:33
So if we think about this problem,
46
153059
1882
إنْ فكّرنا إذاً في هذهِ القضيّة،
02:34
the problem of creating something more intelligent than your own species,
47
154965
3787
قضيّةُ صُنعِ شيءٍ أكثرَ ذكاءً ممّا أنتَ عليه
02:38
we might call this "the gorilla problem,"
48
158776
2622
قد نجد "قضيّة الغوريلا" اسماً مناسباً لها،
02:42
because gorillas' ancestors did this a few million years ago,
49
162165
3750
لأنَّ أجدادَ الغوريلا قاموا بهذا منذُ عدّةِ ملايينِ سنة،
02:45
and now we can ask the gorillas:
50
165939
1745
لِمَ لا نستشيرُ الغوريلّا إذاً:
02:48
Was this a good idea?
51
168572
1160
هَل كانتْ هذهِ فكرةً جيّدة؟
02:49
So here they are having a meeting to discuss whether it was a good idea,
52
169756
3530
وها هُم يتباحثون فيما بينهم ليُقدّموا لّنا الإجابة،
02:53
and after a little while, they conclude, no,
53
173310
3346
ويبدو أنّ إجابتهم بالإجماعِ هيَ:
02:56
this was a terrible idea.
54
176680
1345
"لا! لقد كانت فكرةً فظيعة!"
02:58
Our species is in dire straits.
55
178049
1782
"نحنُ في حالةٍ يُرثى لها."
03:00
In fact, you can see the existential sadness in their eyes.
56
180358
4263
يمكننا حقيقةً رؤيةُ التعاسةِ جيّداً في أعينهم.
03:04
(Laughter)
57
184645
1640
(ضحك)
03:06
So this queasy feeling that making something smarter than your own species
58
186309
4840
ويبدو بأنّه قد حانَ دورنا لِنُحسَّ بأنَّ صُنعَ شيءٍ أذكى مِنّا
03:11
is maybe not a good idea --
59
191173
2365
قد لا يكونُ فكرةً سديدة --
03:14
what can we do about that?
60
194308
1491
لكن ما الحلّ حيالَ هذا؟
03:15
Well, really nothing, except stop doing AI,
61
195823
4767
حسنًا، لا شيء، ماعدا التوقفُ عن تطويرِ تقنيّات الذكاءِ الاصطناعي،
03:20
and because of all the benefits that I mentioned
62
200614
2510
ولكنْ نظراً للفوائدِ التي ذكرتُها
03:23
and because I'm an AI researcher,
63
203148
1716
ولأنني باحث في هذا المجال
03:24
I'm not having that.
64
204888
1791
فأنا لن أقبل بحلٍّ كهذا.
03:27
I actually want to be able to keep doing AI.
65
207103
2468
أودّ حقيقةً الاستمرارَ في تطويرِ هذهِ التقنيّات.
03:30
So we actually need to nail down the problem a bit more.
66
210435
2678
لذا أرى بأنّه علينا أنْ نكونَ أكثرَ وضوحاً.
03:33
What exactly is the problem?
67
213137
1371
ونجدَ المشكلةَ الحقيقيّة.
03:34
Why is better AI possibly a catastrophe?
68
214532
3246
لمَ قد يؤدّي تحسينُ هذه التقنياتِ إلى نتائجَ كارثيّة؟
03:39
So here's another quotation:
69
219218
1498
سأعرضُ لكم مقولةً أخرى:
03:41
"We had better be quite sure that the purpose put into the machine
70
221755
3335
"كانَ علينا أن نتأكد من أن المغزى من تصميم آلة
03:45
is the purpose which we really desire."
71
225114
2298
هو المغزى الذي نرجوه حقيقة"
03:48
This was said by Norbert Wiener in 1960,
72
228102
3498
هذا ما قالهُ نوربرت ويينر عامَ 1960،
03:51
shortly after he watched one of the very early learning systems
73
231624
4002
بعدَ مُشاهدتهِ أحدَ أوّل الآلاتِ الذكيّةِ
03:55
learn to play checkers better than its creator.
74
235650
2583
تتغلّبُ على مُخترعها في لعبةِ "تشيكرز".
04:00
But this could equally have been said
75
240422
2683
و لكنَّ الشيءَ ذاتهُ ينطبقُ على ماحصلَ
04:03
by King Midas.
76
243129
1167
للمَلِكِ مايدس.
04:04
King Midas said, "I want everything I touch to turn to gold,"
77
244903
3134
إذ قال الملكُ مايدس،" أريد أن يتحول كل ما ألمسه ذهبًا"
04:08
and he got exactly what he asked for.
78
248061
2473
وقد تحقَّقَت أمنيتهُ بحذافيرها.
04:10
That was the purpose that he put into the machine,
79
250558
2751
هذا هوَ ما صمّم آلتُه لتقومَ بهِ
04:13
so to speak,
80
253333
1450
إن صحّ التعبير،
04:14
and then his food and his drink and his relatives turned to gold
81
254807
3444
و هكذا تحوّل طعامُه و شرابه و حتى أقرباؤه، جميعهم إلى ذهب.
04:18
and he died in misery and starvation.
82
258275
2281
وماتَ في النهاية تعيساً جائعاً.
04:22
So we'll call this "the King Midas problem"
83
262264
2341
سنُسمّي هذه القضيّة إذاً بقضيّة الملك مايدس
04:24
of stating an objective which is not, in fact,
84
264629
3305
قضيّةُ تحديد هدفٍ
04:27
truly aligned with what we want.
85
267958
2413
لا يتماشى فعلًا مع ما نريده حقًا.
04:30
In modern terms, we call this "the value alignment problem."
86
270395
3253
و هي قضيّة نسمّيها أكاديميّاً بقضيّة توافقِ الأهداف.
04:36
Putting in the wrong objective is not the only part of the problem.
87
276867
3485
ولكن وضع أهداف خاطئة ليس الجزء الوحيد في المشكلة.
04:40
There's another part.
88
280376
1152
هنالِكَ جُزءٌ آخر.
04:41
If you put an objective into a machine,
89
281980
1943
إن وضعت هدفًا لآلة ما،
04:43
even something as simple as, "Fetch the coffee,"
90
283947
2448
لتقومَ بشيءٍ ولوّ كانَ ببساطةِ جلبِ القهوة،
04:47
the machine says to itself,
91
287728
1841
الآلةُ ستقولُ لنفسها،
04:50
"Well, how might I fail to fetch the coffee?
92
290553
2623
"ما الذي قد يُعيقني عن جلب القهوة؟"
04:53
Someone might switch me off.
93
293200
1580
"قد يقوم شخصٌ ما بإطفائي!"
04:55
OK, I have to take steps to prevent that.
94
295465
2387
"حسناً!" "سوف أمنع حصول هذا."
04:57
I will disable my 'off' switch.
95
297876
1906
"سوف أعطّل مفتاح إيقاف تشغيلي!"
05:00
I will do anything to defend myself against interference
96
300354
2959
"سأفعل أيّ شيءٍ يحفظُ لي مهمّتي"
05:03
with this objective that I have been given."
97
303337
2629
"لن أسمحَ لأحدٍ بِأنْ يمنعني من أدائها."
05:05
So this single-minded pursuit
98
305990
2012
هذا التفكيرِ الذاتي الذي قامت به الآلة،
05:09
in a very defensive mode of an objective that is, in fact,
99
309033
2945
بطريقة دفاعية محضة للدفاع عن هدف،
05:12
not aligned with the true objectives of the human race --
100
312002
2814
لا يتوافقُ مع الأهداف الحقيقية للجنس البشري --
05:15
that's the problem that we face.
101
315942
1862
هذه هي مشكلتنا التي نواجهها.
05:18
And in fact, that's the high-value takeaway from this talk.
102
318827
4767
في الواقع، هذهِ أهمّ فكرةٍ أودُّ مِنكم تذكُّرَها مِن هذه المحادثة.
05:23
If you want to remember one thing,
103
323618
2055
إن أردتم تذكّر شيءٍ وحيدٍ من حديثي، تذكروا التالي:
05:25
it's that you can't fetch the coffee if you're dead.
104
325697
2675
"لنْ تستطيعَ جلبَ القهوةِ لأحدٍ وأنتَ ميتْ."
05:28
(Laughter)
105
328396
1061
(ضحك)
05:29
It's very simple. Just remember that. Repeat it to yourself three times a day.
106
329481
3829
قاعدةٌ بمنتهى البساطة، صحيح؟ ردّدوها ثلاثَ مرّاتٍ يوميّاً.
05:33
(Laughter)
107
333334
1821
(ضحك)
05:35
And in fact, this is exactly the plot
108
335179
2754
في الواقع، هذا هوَ تماماً ماحصلَ
05:37
of "2001: [A Space Odyssey]"
109
337957
2648
في الفلمِ الشّهيرِ (2001: رحلةُ الفضاء)
05:41
HAL has an objective, a mission,
110
341046
2090
الحاسوبُ (هال) أرادَ قيادةَ المهمّةِ
05:43
which is not aligned with the objectives of the humans,
111
343160
3732
لكنّ هذا ليسَ تماماً ما أرادهُ البشرُ مِنه كحاسوب
05:46
and that leads to this conflict.
112
346916
1810
وأدّى هذا لِمُعارضةِ (هال) أوامرَ الطّاقَمْ.
05:49
Now fortunately, HAL is not superintelligent.
113
349314
2969
لِحُسن الحظِّ لم يَكُنْ (هال) خارقَ الذّكاء.
05:52
He's pretty smart, but eventually Dave outwits him
114
352307
3587
كانَ ذكيّاً فعلاً، ولكِنّ (ديف) كانَ أذكى مِنه
05:55
and manages to switch him off.
115
355918
1849
وتمكّن من إيقافهِ عن العمل.
06:01
But we might not be so lucky.
116
361648
1619
لكنّنا قد لا نكونُ مَحظوظينَ على الدّوام.
06:08
So what are we going to do?
117
368013
1592
ما الذي سنفعلهُ إذاً؟
أحاولُ حقيقةً أنْ أقومَ بإعادةِ تعريفِ الذّكاءِ الاصطناعي
06:12
I'm trying to redefine AI
118
372191
2601
06:14
to get away from this classical notion
119
374816
2061
بطريقةٍ تُنهي جميعَ الشكوكِ
06:16
of machines that intelligently pursue objectives.
120
376901
4567
حولَ إمكانيّةِ تمرُّدِ الآلاتِ ومحاولتها تحقيقَ أهدافِها الشخصيّة.
06:22
There are three principles involved.
121
382532
1798
سأعتمدُ إذاً على ثلاثِ مبادئَ أساسيّة
06:24
The first one is a principle of altruism, if you like,
122
384354
3289
وأوّل مبدأٍ هوَ مبدأُ الإيثار
06:27
that the robot's only objective
123
387667
3262
بأنْ يكونَ الهدفُ الوحيدُ للرّوبوتِ هوَ
06:30
is to maximize the realization of human objectives,
124
390953
4246
أنْ يُحاولَ تحقيقَ أكبرِ قدرٍ ممكنٍ من أهدافِ البشر
06:35
of human values.
125
395223
1390
و مِنْ قيم البشريّة.
06:36
And by values here I don't mean touchy-feely, goody-goody values.
126
396637
3330
وبقيم البشريّةِ لستُ أعني تلكَ المثاليّاتِ البعيدةَ عن الواقع.
06:39
I just mean whatever it is that the human would prefer
127
399991
3787
بل أعني بها أيّ شيءٍ قد يفضل الإنسان
06:43
their life to be like.
128
403802
1343
أن تكون عليه حياته.
وهوَ ما ينتهكُ (قانونَ أزيموف)
06:47
And so this actually violates Asimov's law
129
407184
2309
06:49
that the robot has to protect its own existence.
130
409517
2329
بأنّه على الروبوتِ حمايةُ حياتهِ الشخصيّة.
06:51
It has no interest in preserving its existence whatsoever.
131
411870
3723
لايجبُ أنْ يهتمَّ الروبوتُ بهكذا أمورٍ مطلقاً.
06:57
The second law is a law of humility, if you like.
132
417240
3768
أمّا المبدأ الثاني فَهوَ مبدأُ التذلّلِ إنْ صحَّ التّعبير.
07:01
And this turns out to be really important to make robots safe.
133
421794
3743
وهوَ مهمٌّ للغايةِ لإبقاءِ الروبوتاتِ آمنة.
07:05
It says that the robot does not know
134
425561
3142
و ينُصُّ على أنَّ الروبوتَ لا يعلمَ
07:08
what those human values are,
135
428727
2028
بحقيقةِ المنافعِ التي سيحقّقها للبشريّةِ
07:10
so it has to maximize them, but it doesn't know what they are.
136
430779
3178
ولكنّهُ سيعملُ على تحقيقِ أكبرِ قدرٍ منها لكنه لا يعلم ماهيتها.
07:15
And that avoids this problem of single-minded pursuit
137
435074
2626
وهوَ ماسيوقفهُ عن اتّخاذِ قراراتهِ الخاصةِ
07:17
of an objective.
138
437724
1212
حولَ الهدفِ الموكلِ إليه.
07:18
This uncertainty turns out to be crucial.
139
438960
2172
إذ أن عدم اليقين يبدو أمرًا بالغ الأهمية.
07:21
Now, in order to be useful to us,
140
441546
1639
لكنْ لكيّ يكونَ الروبوتُ مفيداً لنا
07:23
it has to have some idea of what we want.
141
443209
2731
لابدّ مِنْ أنْ يمتلكَ فكرةً عمّا نريده.
07:27
It obtains that information primarily by observation of human choices,
142
447043
5427
ستسكتشِفُ الروبوتاتُ مانريدهُ مِنها عبرَ مراقبةِ سلوكِنا
07:32
so our own choices reveal information
143
452494
2801
فاختياراتنا الشخصية ستعطي معلومات
07:35
about what it is that we prefer our lives to be like.
144
455319
3300
عما نفضّلُ أن تكون حياتنا عليه.
07:40
So those are the three principles.
145
460452
1683
هذه هيَ إذاً المبادئُ الثلاثة.
07:42
Let's see how that applies to this question of:
146
462159
2318
لنرى سويّةً كيفَ يمكنُ تطبيقُ هذه المبادئ
07:44
"Can you switch the machine off?" as Turing suggested.
147
464501
2789
على فكرة "قطع الطاقة عن الروبوت" التي اقترحها (تيورنغ).
07:48
So here's a PR2 robot.
148
468893
2120
إذاً، سأقدّم إليكُم الرّوبوت (PR2)
07:51
This is one that we have in our lab,
149
471037
1821
الذي نمتلكهُ في مختبرنا للأبحاث.
07:52
and it has a big red "off" switch right on the back.
150
472882
2903
ولديه كما ترونَ زرُّ إطفاءِ تشغيلٍ أحمرُ كبيرٌ على ظهره.
07:56
The question is: Is it going to let you switch it off?
151
476361
2615
والسّؤال هوَ: هل سيسمحُ الروبوتُ لكَ بضغطِ هذا الزرّ؟
07:59
If we do it the classical way,
152
479000
1465
إنْ تخيّلنا الموضوعَ كالمُعتاد
08:00
we give it the objective of, "Fetch the coffee, I must fetch the coffee,
153
480489
3482
أنْ نخبرهُ بأنْ يجلبَ القهوةَ ويفكّر: "يجب أن أجلب القهوة بأيّ ثمن"
08:03
I can't fetch the coffee if I'm dead,"
154
483995
2580
"لكنني لن أستطيعَ جلبَ القهوةِ لأحدٍ وأنا ميت"
08:06
so obviously the PR2 has been listening to my talk,
155
486599
3341
من الواضح أنَّ الروبوتَ كانَ يُشاهدُ هذه المحادثة،
08:09
and so it says, therefore, "I must disable my 'off' switch,
156
489964
3753
وبالتّالي سيقرّرُ الروبوت: "سأعطّلُ زرَّ إطفاءِ تشغيلي إذاً!"
08:14
and probably taser all the other people in Starbucks
157
494796
2694
"سأصعقُ أيضاً الجميعَ في (ستارباكس)
08:17
who might interfere with me."
158
497514
1560
"لأنّهم قد يقفونَ في طريقي لجلبِ القهوة!"
08:19
(Laughter)
159
499098
2062
(ضحك)
08:21
So this seems to be inevitable, right?
160
501184
2153
لايبدو بأنهُ هناكَ مفرٌّ من هذا، صحيح؟
08:23
This kind of failure mode seems to be inevitable,
161
503361
2398
لايبدو بأنّ تجنّبَ أخطاءٍ كهذهِ أمرٌ ممكن
08:25
and it follows from having a concrete, definite objective.
162
505783
3543
وهذا لأنّ الروبوتَ لديه هدفٌ صريحٌ.
08:30
So what happens if the machine is uncertain about the objective?
163
510632
3144
لكنْ ماذا لَوْ جعلنا الروبوتَ أقلَّ ثقةً بصحّةِ فهمهِ للهدف؟
08:33
Well, it reasons in a different way.
164
513800
2127
سيفكّرُ حتماً عندها بطريقةٍ مختلفة.
08:35
It says, "OK, the human might switch me off,
165
515951
2424
سيقول لنفسه: "قد يقومُ البشرُ بإيقافِ تشغيلي"
08:38
but only if I'm doing something wrong.
166
518964
1866
"لكنّ ذلك سيحصلُ فقط إنْ فعلتُ شيئاً خاطئاً."
08:41
Well, I don't really know what wrong is,
167
521567
2475
"لكنّني لا أعلمُ ما الشيءُ الخاطئُ الذي قد أفعله"
08:44
but I know that I don't want to do it."
168
524066
2044
"أنا أعلمُ فقط بأنّني لاأريدُ فِعلَ شيءٍ خاطئ"
08:46
So that's the first and second principles right there.
169
526134
3010
وهذا تطبيقٌ للمبدأين الأوّل والثاني.
08:49
"So I should let the human switch me off."
170
529168
3359
"لذا منَ الأفضلِ أنْ أتركَهُ يُطفئني"
08:53
And in fact you can calculate the incentive that the robot has
171
533541
3956
ويمكننا رياضيّاً حسابُ مدى التقبّلِ الذي سيمتلكهُ الروبوت
08:57
to allow the human to switch it off,
172
537521
2493
لأنْ يقومَ البشرُ بإطفاءه.
09:00
and it's directly tied to the degree
173
540038
1914
وهذا مرتبط بشكل مباشر
09:01
of uncertainty about the underlying objective.
174
541976
2746
بمدى تأكّدِ الرّوبوتِ من فهمهِ للهدفِ من إطفاءه.
09:05
And then when the machine is switched off,
175
545797
2949
وهكذا تماماً من خلالِ إطفاءِ الرّوبوت،
09:08
that third principle comes into play.
176
548770
1805
يكونُ المبدأُ الثالثُ قد تحقق.
09:10
It learns something about the objectives it should be pursuing,
177
550599
3062
لأنّ الروبوتَ سيكونُ قد تعلّمَ مِن هذهِ التجربة
09:13
because it learns that what it did wasn't right.
178
553685
2533
بأنّهُ قد فعلَ شيئاً خاطئاً.
09:16
In fact, we can, with suitable use of Greek symbols,
179
556242
3570
و يمكننا حقيقةً باستعمالِ بعضِ الرّموز
09:19
as mathematicians usually do,
180
559836
2131
كما يفعلُ علماءُ الرياضيّاتِ عادةً
09:21
we can actually prove a theorem
181
561991
1984
أنْ نُثبتَ النظريّةَ القائلةَ
09:23
that says that such a robot is provably beneficial to the human.
182
563999
3553
بأنَّ روبوتاً كهذا سيكونُ حتماً مفيداً للإنسان.
09:27
You are provably better off with a machine that's designed in this way
183
567576
3803
وبأنَّ روبوتاً مصمّماً بهذهِ المعاييرِ سيكونُ حتماً أكثرَ فائدةً
09:31
than without it.
184
571403
1246
من روبوتٍ مصمّمٍ من دونها.
09:33
So this is a very simple example, but this is the first step
185
573057
2906
هذا مثالٌ بسيطٌ إذاً وهوَ الخطوةُ الأولى فقط
09:35
in what we're trying to do with human-compatible AI.
186
575987
3903
ممّا نحاولُ تحقيقهُ من خلالِ الذّكاءِ الاصطناعي المطابق للإنسان.
09:42
Now, this third principle,
187
582477
3257
الآنَ إلى المبدأ الثالث،
09:45
I think is the one that you're probably scratching your head over.
188
585758
3112
و الذي أظنّه يدفعكم للتفكير بحيرة.
09:48
You're probably thinking, "Well, you know, I behave badly.
189
588894
3239
تفكرون بالتالي: "و لكنني، كإنسانٍ أتصرّف بشكلٍ سيّء!"
09:52
I don't want my robot to behave like me.
190
592157
2929
"لا أريدُ للروبوتِ أنْ يقلّدني!"
09:55
I sneak down in the middle of the night and take stuff from the fridge.
191
595110
3434
"لا أريدهُ أنْ يتسللَ في اللّيلِ إلى المطبخِ ويأخُذَ طعاماً منَ الثلّاجة"
09:58
I do this and that."
192
598568
1168
"أنا أفعل أشياءَ سيّئة!"
09:59
There's all kinds of things you don't want the robot doing.
193
599760
2797
بالطّبعِ هناكَ أشياءٌ عدّةٌ لانرغبُ أنْ تقلّدنا الروبوتاتُ بها.
10:02
But in fact, it doesn't quite work that way.
194
602581
2071
لكنّي لم أعنِ هذا بالتعلّمِ من مراقبتنا
10:04
Just because you behave badly
195
604676
2155
فقط لأنّك تتصرف بشكلٍ سيّءٍ
10:06
doesn't mean the robot is going to copy your behavior.
196
606855
2623
لايعني بأنَّ الروبوتَ سيقومُ بتقليدِ تصرّفاتك.
10:09
It's going to understand your motivations and maybe help you resist them,
197
609502
3910
بل سيتفهّم دوافعكَ وربّما يساعدكَ في مقاومتها
10:13
if appropriate.
198
613436
1320
إنْ لزمَ الأمر.
10:16
But it's still difficult.
199
616026
1464
و لكنّ الأمرَ لايزالُ صعباً.
10:18
What we're trying to do, in fact,
200
618122
2545
مانحاولُ الوصولَ إليهِ حقيقةً
10:20
is to allow machines to predict for any person and for any possible life
201
620691
5796
هو جعلُ الآلاتِ قادرةً على اكتشافِ الحياةِ التي سيفضّلُ الشّخص أن يعيشها
10:26
that they could live,
202
626511
1161
كائناً من كان
10:27
and the lives of everybody else:
203
627696
1597
أيّاً تكن الحياة التي يريدُها
10:29
Which would they prefer?
204
629317
2517
مهما كانَ مايريده.
10:33
And there are many, many difficulties involved in doing this;
205
633881
2954
لكنّ عدداً هائلاً من المشاكل تواجهنا في تحقيق ذلك
10:36
I don't expect that this is going to get solved very quickly.
206
636859
2932
ولا أتوقّع بأنّ نستطيع حلّها جميعها في القريب العاجل.
10:39
The real difficulties, in fact, are us.
207
639815
2643
المشكلةُ الأصعبُ هي نحنُ للأسف.
10:43
As I have already mentioned, we behave badly.
208
643969
3117
فنحنُ نتصرّفُ بشكلٍ سيّءٍ كما ذكرتُ قبل قليل.
10:47
In fact, some of us are downright nasty.
209
647110
2321
و بعضُنا مؤذٍ للآخرين.
10:50
Now the robot, as I said, doesn't have to copy the behavior.
210
650251
3052
رغمَ هذا، لن يقومَ الروبوتُ بتقليدِ تصرّفاتنا السيّئة.
10:53
The robot does not have any objective of its own.
211
653327
2791
إذ ليست له أهداف شخصية خاصة.
10:56
It's purely altruistic.
212
656142
1737
فهو يؤثر الإيثار بطريقة صرفة.
10:59
And it's not designed just to satisfy the desires of one person, the user,
213
659113
5221
وهو ليس مصممًا لإرضاء شخص واحد، المستعمل،
11:04
but in fact it has to respect the preferences of everybody.
214
664358
3138
لكن على الروبوتِ حقيقةً أن يحترمَ ما يفضله الجميع.
11:09
So it can deal with a certain amount of nastiness,
215
669083
2570
سيكون بإمكانهِ مثلاً تقبّلُ انحرافٍ بسيطٍ عن الصواب
11:11
and it can even understand that your nastiness, for example,
216
671677
3701
و سيتفهّم بأنّك لستَ سيّئاً جداً
11:15
you may take bribes as a passport official
217
675402
2671
فقط لأنّكَ تحصُلَ على بعضِ الرشاوى كمسؤول جوازات سفر
11:18
because you need to feed your family and send your kids to school.
218
678097
3812
وأنَّ السببَ هوَ حاجتكُ لإطعامِ عائلتكَ ودفعِ أقساطِ المدرسةِ لأطفالك.
11:21
It can understand that; it doesn't mean it's going to steal.
219
681933
2906
سيفهم الروبوتُ هذا لكنّه لايعني بأنّه سيتعلّمُ السرقة.
11:24
In fact, it'll just help you send your kids to school.
220
684863
2679
سيساعدكَ الروبوتُ على إرسال أطفالك للمدرسة.
11:28
We are also computationally limited.
221
688796
3012
نحنُ البشرُ للأسفِ محدودونَ في قدراتنا الحسابيّة.
11:31
Lee Sedol is a brilliant Go player,
222
691832
2505
لي سيدول كان لاعبَ "غو" رائعاً،
11:34
but he still lost.
223
694361
1325
لكنّه خسر أمامَ حاسوب.
11:35
So if we look at his actions, he took an action that lost the game.
224
695710
4239
ولَو راجعنا تحركاتِه خلالَ المباراةِ لوجدنا حركةً خسرَ بسببها.
11:39
That doesn't mean he wanted to lose.
225
699973
2161
لكنّ ذلك لا يعني بأنّه قد خسرَ متعمّداً.
11:43
So to understand his behavior,
226
703160
2040
ولنفهمَ لمَ اختارَ هذهِ الحركةَ
11:45
we actually have to invert through a model of human cognition
227
705224
3644
علينا أن نقوم بمحاكاةٍ لتحرّكاته عبرَ نموذجٍ حاسوبيّ لعملِ الدّماغ البشريّ
11:48
that includes our computational limitations -- a very complicated model.
228
708892
4977
يلتزم بمحدّدات البشرِ الحسابيّة وهذا شيءٌ معقّدٌ للغاية.
11:53
But it's still something that we can work on understanding.
229
713893
2993
ولكنّه شيءٌ بإمكاننا العملُ على فهمه.
11:57
Probably the most difficult part, from my point of view as an AI researcher,
230
717696
4320
و برأيي كباحثٍ في مجال الذكاء الاصطناعي، إنَّ أصعبَ مشكلةٍ تواجهنا
12:02
is the fact that there are lots of us,
231
722040
2575
هي بأنّه هناك عددًا هائلًا من البشر،
12:06
and so the machine has to somehow trade off, weigh up the preferences
232
726114
3581
و هو ما سيُرغمُ الآلاتِ على المفاضلةِ بين الكثير من الخيارات
12:09
of many different people,
233
729719
2225
التي يريدها العديدُ من الأشخاصِ
12:11
and there are different ways to do that.
234
731968
1906
بطرقٍ عديدةٍ لتنفيذِ كلّ خيارٍ منهم.
12:13
Economists, sociologists, moral philosophers have understood that,
235
733898
3689
علماءُ الاقتصاد و باحثوا علم الإجتماع جميعهم يفهمون هذا،
12:17
and we are actively looking for collaboration.
236
737611
2455
ونحن نبحث جديًا عن التعاون في هذا الشأن.
12:20
Let's have a look and see what happens when you get that wrong.
237
740090
3251
دعونا نلقي نظرةً على ما قد يحدثُ حينما لا تسير الأمور على ما يرام.
12:23
So you can have a conversation, for example,
238
743365
2133
قد تمرّ بمحادثةٍ كهذهِ مثلاً
12:25
with your intelligent personal assistant
239
745522
1944
مع مساعدكَ الشخصيّ الذكيّ
12:27
that might be available in a few years' time.
240
747490
2285
والذي قد يتوفّرُ في الأسواقِ خلالَ بضعِ سنوات.
12:29
Think of a Siri on steroids.
241
749799
2524
نسخةٌ محسّنةٌ عن (سيري) مثلاً.
12:33
So Siri says, "Your wife called to remind you about dinner tonight."
242
753447
4322
تخبركَ (سيري) إذاً في المحادثةِ بأنَّ زوجتكَ قد اتصلت لتذكّركَ بعشائكما الليلة.
12:38
And of course, you've forgotten. "What? What dinner?
243
758436
2508
وبالتّأكيدِ أنتَ لا تذكرُ شيئاً كهذا: "ماذا! أيُّ عشاء!"
12:40
What are you talking about?"
244
760968
1425
"عمَّ تتحدثين؟!"
12:42
"Uh, your 20th anniversary at 7pm."
245
762417
3746
"عشاءُ السّابعةِ مساءً في ذكرى زواجكما العشرين."
12:48
"I can't do that. I'm meeting with the secretary-general at 7:30.
246
768735
3719
"لا يمكنني الحضور! سألتقي بالأمينِ العامِّ عندَ السابعة والنصف!"
12:52
How could this have happened?"
247
772478
1692
"كيفَ حصلَ كلّ هذا؟"
12:54
"Well, I did warn you, but you overrode my recommendation."
248
774194
4660
"حذّرتكَ ولكِنْ، هذا مايحصلُ حينما تتجاهلُ نصائحي."
12:59
"Well, what am I going to do? I can't just tell him I'm too busy."
249
779966
3328
"حسناً ماذا سأفعلُ الآن؟ لايمكنني إخبارُ زوجتي بأنّي نسيتُ مناسبةً كهذه!"
13:04
"Don't worry. I arranged for his plane to be delayed."
250
784310
3281
"لا تقلق." "قمتُ بتأجيلِ موعدِ انطلاقِ طائرتها."
13:07
(Laughter)
251
787615
1682
(ضحك)
13:10
"Some kind of computer malfunction."
252
790069
2101
"افتعلتُ بعضَ الأعطالِ في حاسوبِ شركةِ الطّيران"
13:12
(Laughter)
253
792194
1212
(ضحك)
13:13
"Really? You can do that?"
254
793430
1617
"حقاً!" "بإمكانكِ فِعلُ أشياءَ كهذه!"
13:16
"He sends his profound apologies
255
796220
2179
"ترسلُ زوجتكُ اعتذارها العميق"
13:18
and looks forward to meeting you for lunch tomorrow."
256
798423
2555
"وتتطلّع للقاءكَ غداً على الغداء"
13:21
(Laughter)
257
801002
1299
(ضحك)
13:22
So the values here -- there's a slight mistake going on.
258
802325
4403
إذن فالقيم هنا -- يبدو إذاً بأنّهُ هناكَ خطأ طفيفًا
13:26
This is clearly following my wife's values
259
806752
3009
وعلى مايبدو، فإنّه يتّبع مبادئَ زوجتي
13:29
which is "Happy wife, happy life."
260
809785
2069
و التي هي: "أنت بخيرٍ مادامت زوجتك بخير."
13:31
(Laughter)
261
811878
1583
(ضحك)
13:33
It could go the other way.
262
813485
1444
يمكنُ كذلكَ أنْ يحصُلَ العكس.
13:35
You could come home after a hard day's work,
263
815641
2201
كأن تعودَ إلى المنزلِ بعدَ يومٍ مُتعِبٍ في العمل
13:37
and the computer says, "Long day?"
264
817866
2195
ويرحّب بِك الروبوت: "هل كانَ يوماً شاقاً؟"
13:40
"Yes, I didn't even have time for lunch."
265
820085
2288
"جدّاً! لدرجة أنّي لم أجد وقتاً لتناولِ الغداء."
13:42
"You must be very hungry."
266
822397
1282
"لابدّ من أنّك جائعٌ إذاً"
13:43
"Starving, yeah. Could you make some dinner?"
267
823703
2646
"أتضور جوعًا. هل بإمكانكِ تحضيرُ العشاء لي؟"
13:47
"There's something I need to tell you."
268
827890
2090
"هناكَ شيءٌ عليك معرفته."
13:50
(Laughter)
269
830004
1155
(ضحك)
13:52
"There are humans in South Sudan who are in more urgent need than you."
270
832013
4905
"هناكٌ أُناسٌ في جنوب السودانِ في حاجةٍ ملحّةٍ للطعامِ أكثرَ منكَ بكثير!"
13:56
(Laughter)
271
836942
1104
(ضحك)
13:58
"So I'm leaving. Make your own dinner."
272
838070
2075
"أنا ذاهب إلى هناك! اصنع طعامكَ بنفسك!"
14:00
(Laughter)
273
840169
2000
(ضحك)
14:02
So we have to solve these problems,
274
842643
1739
لذا، يجبُ أن نَحُلّ هذهِ المشاكل،
14:04
and I'm looking forward to working on them.
275
844406
2515
وأنا متحمّسٌ للعملِ عليهم.
14:06
There are reasons for optimism.
276
846945
1843
هناكَ أسبابٌ تدفعني للتفاؤل
14:08
One reason is,
277
848812
1159
و أحدُ هذه الأسباب:
14:09
there is a massive amount of data.
278
849995
1868
حجمُ البياناتِ الهائلُ الذي نمتلكهُ.
14:11
Because remember -- I said they're going to read everything
279
851887
2794
لأنَّ الروبوتاتِ كما أخبرتكم ستقرأُ كلّ شيءٍ
14:14
the human race has ever written.
280
854705
1546
قامَ البشرُ بكتابته.
ومعظمُ ما نكتبُ عنهُ هو قصصٌ عن أناسٍ يرتكبون أخطاءً
14:16
Most of what we write about is human beings doing things
281
856275
2724
وآخرين تزعجهم هذهِ الأخطاء.
14:19
and other people getting upset about it.
282
859023
1914
14:20
So there's a massive amount of data to learn from.
283
860961
2398
لذا ستتمكّن الروبوتاتُ منْ تعلّمِ كلِّ هذا.
14:23
There's also a very strong economic incentive
284
863383
2236
ولدينا كذلكَ دافعٌ اقتصاديٌّ كبيرٌ
لإتمامِ الأمرِ دونَ أخطاء.
14:27
to get this right.
285
867151
1186
14:28
So imagine your domestic robot's at home.
286
868361
2001
تخيّلو مثلاً روبوتَكم المنزليَّ
14:30
You're late from work again and the robot has to feed the kids,
287
870386
3067
وقد تأخرتم في عملكم مجدداً لكنَّ على الروبوتَ أن يطعم أبناءكم،
14:33
and the kids are hungry and there's nothing in the fridge.
288
873477
2823
والأطفال جائعون لكنّ الثلّاجةَ فارغة.
14:36
And the robot sees the cat.
289
876324
2605
سيبجثُ الروبوتُ عن أيِّ طعامٍ وسيرى القطة.
14:38
(Laughter)
290
878953
1692
(ضحك)
14:40
And the robot hasn't quite learned the human value function properly,
291
880669
4190
لكنّه لم يتعلّم بعدُ قِيَمَكُم الإنسانيّة جيّداً
14:44
so it doesn't understand
292
884883
1251
لذا لن يفهم
14:46
the sentimental value of the cat outweighs the nutritional value of the cat.
293
886158
4844
بأنَّ القيمة العاطفيّة للقطّةِ تفوقُ قيمتها الغذائيّة.
14:51
(Laughter)
294
891026
1095
(ضحك)
14:52
So then what happens?
295
892145
1748
ماذا سيحصل عندها؟
14:53
Well, it happens like this:
296
893917
3297
في الواقع، سينتهي الأمرُ هكذا:
14:57
"Deranged robot cooks kitty for family dinner."
297
897238
2964
"روبوتٌ مختلٌّ قامَ بطبخِ قطّة المنزلِ على العشاء"
15:00
That one incident would be the end of the domestic robot industry.
298
900226
4523
حادثٌ واحدٌ كهذا كفيلٌ بإنهاء صناعة الروبوتات المنزلية.
15:04
So there's a huge incentive to get this right
299
904773
3372
لهذا لدينا دافعٌ حقيقيٌّ لإتمام الأمرِ دون أخطاء
15:08
long before we reach superintelligent machines.
300
908169
2715
حتّى قبلَ أن نتمكّن من اختراعِ أيّ آلة خارقِة الذكاء.
15:11
So to summarize:
301
911948
1535
إذاً كخلاصةٍ لكلامي:
15:13
I'm actually trying to change the definition of AI
302
913507
2881
أنا أحاولُ بجديّةٍ تغييرَ تعريفِ الذّكاءِ الاصطناعي
15:16
so that we have provably beneficial machines.
303
916412
2993
بحيثُ يمكننا اختراعُ آلاتٍ ذاتَ فائدةٍ مثبتةٍ علميّاً.
15:19
And the principles are:
304
919429
1222
و ما أقترحهُ كتعريف:
15:20
machines that are altruistic,
305
920675
1398
آلاتٌ تؤثرُ دوماً مصلحةَ البشر،
15:22
that want to achieve only our objectives,
306
922097
2804
و تسعى لتحقيقِ أهدافنا فقط،
15:24
but that are uncertain about what those objectives are,
307
924925
3116
لكنّها ليست متأكّدةً من صحّةِ فهمها لهذهِ الأهداف،
15:28
and will watch all of us
308
928065
1998
لذا ستقومُ بمراقبتنا على الدوام
15:30
to learn more about what it is that we really want.
309
930087
3203
لكيّ تتعلّمَ أكثرَ عمّا نريدها أنْ تساعدنا فيهِ حقّاً.
15:34
And hopefully in the process, we will learn to be better people.
310
934193
3559
وآمُلُ أنْ نتعلّم نحنُ أيضاً مِنْ هذهِ التجاربِ كيفَ نصبحُ أناساً أفضل.
15:37
Thank you very much.
311
937776
1191
شكراً لكم.
15:38
(Applause)
312
938991
3709
(تصفيق)
15:42
Chris Anderson: So interesting, Stuart.
313
942724
1868
كريس أندرسون: هذا مشوّق جدّاً، ستيوارت.
15:44
We're going to stand here a bit because I think they're setting up
314
944616
3170
سنبقى على المنصّةِ قليلاً،
لأنهم بصدد الإعداد للمحادثة التالية.
15:47
for our next speaker.
315
947810
1151
15:48
A couple of questions.
316
948985
1538
لديَّ بعضُ الأسئلة:
15:50
So the idea of programming in ignorance seems intuitively really powerful.
317
950547
5453
إذن فكرة البرمجة عن جهل تببدو للوهلة الأولى رهيبةً.
15:56
As you get to superintelligence,
318
956024
1594
ونحن نتجه نحو الذكاء الخارق،
15:57
what's going to stop a robot
319
957642
2258
ما الذي سيمنع الروبوت
15:59
reading literature and discovering this idea that knowledge
320
959924
2852
من القراءةِ والتعلّمِ بأنّ المعرفةَ
16:02
is actually better than ignorance
321
962800
1572
أفضلُ من الجهلِ
16:04
and still just shifting its own goals and rewriting that programming?
322
964396
4218
وتظل في المقابل تحيد عن أهدافها الشخصية وتعيد صياغة تلك البرمجة؟
16:09
Stuart Russell: Yes, so we want it to learn more, as I said,
323
969512
6356
ستيوارت راسل: نريدُ حقيقةً كما قلت، أنْ تتعلّمَ هذهِ الآلاتُ أكثر،
16:15
about our objectives.
324
975892
1287
عن أهدافنا نحن.
16:17
It'll only become more certain as it becomes more correct,
325
977203
5521
وستكونُ أكثرَ ثقةً بصحّةِ معلوماتها فقط حينما تصبحُ أكثرَ دقّةً
16:22
so the evidence is there
326
982748
1945
فالدليل واضح هناك
16:24
and it's going to be designed to interpret it correctly.
327
984717
2724
وستكون مصممة لتفسيره بشكل صحيح.
16:27
It will understand, for example, that books are very biased
328
987465
3956
وسوفَ تفهمُ مثلاً بأنَّ بعضَ الكُتُبِ متحيّزةٌ جدا
16:31
in the evidence they contain.
329
991445
1483
حيال المعلوماتِ التي تحتويها.
16:32
They only talk about kings and princes
330
992952
2397
حيث لاتروي قصصاً سوى عن ملوكٍ أو أميراتٍ
16:35
and elite white male people doing stuff.
331
995373
2800
أو عن أبطال ذكور ذوي بشرة بيضاء يقومون بأشياء جميلة.
16:38
So it's a complicated problem,
332
998197
2096
لذا فهي مشكلةٌ معقّدةٌ،
16:40
but as it learns more about our objectives
333
1000317
3872
لكنَّ الآلاتَ ستتعلّمُ أكثرَ عن أهدافنا في النهاية
16:44
it will become more and more useful to us.
334
1004213
2063
وستصبحُ أكثرَ فائدةً لنا.
16:46
CA: And you couldn't just boil it down to one law,
335
1006300
2526
ك.أ : ألم يكن بإمكانك أن تختصر هذا في قانون واحد،
16:48
you know, hardwired in:
336
1008850
1650
كأنْ تزرعَ في دماغها مايلي:
16:50
"if any human ever tries to switch me off,
337
1010524
3293
"إنْ حاولَ أيُّ إنسانٍ في أيّ وقتٍ أن يُطفِئني"
16:53
I comply. I comply."
338
1013841
1935
"سأمتثل، سأمتثل."
16:55
SR: Absolutely not.
339
1015800
1182
س.ر: بالتأكيد لا.
16:57
That would be a terrible idea.
340
1017006
1499
ستكون تلك فكرة سيئة جدًا.
16:58
So imagine that you have a self-driving car
341
1018529
2689
تخيّل مثلاً لو امتلكتَ سيّارةً ذاتيّةَ القيادةِ
17:01
and you want to send your five-year-old
342
1021242
2433
وأردتَ أنْ تُرسلَ بها طفلكَ ذي الخمسة أعوامٍ
17:03
off to preschool.
343
1023699
1174
إلى الروضة.
17:04
Do you want your five-year-old to be able to switch off the car
344
1024897
3101
هل تريدُ أن يُطفئَ طِفلُك السيّارةَ
في منتصفِ الطّريق؟
17:08
while it's driving along?
345
1028022
1213
بالتّأكيدِ لا.
17:09
Probably not.
346
1029259
1159
لذا يجبُ أن تفهم الآلةُ دوافعَ الإنسانِ لإطفائها ومدى عقلانيّتهِ
17:10
So it needs to understand how rational and sensible the person is.
347
1030442
4703
17:15
The more rational the person,
348
1035169
1676
و كلّما كانَ الشخصُ منطقيّاً أكثر،
17:16
the more willing you are to be switched off.
349
1036869
2103
كلّما كانت الآلةُ أكثرَ تقبّلاً لإيقافِ تشغيلها.
17:18
If the person is completely random or even malicious,
350
1038996
2543
ولوّ كان الشخصُ غريباً أو بدا مُؤذياً،
17:21
then you're less willing to be switched off.
351
1041563
2512
فلنْ تتقبّلَ الآلةُ أنْ يتمَّ إطفاؤها.
17:24
CA: All right. Stuart, can I just say,
352
1044099
1866
ك. أ: حسناً، أودُّ أنْ أقولَ بأنّني
17:25
I really, really hope you figure this out for us.
353
1045989
2314
أتمنّى حقّاً أنْ تخترعَ هذهِ الأشياء لنا قريباً
17:28
Thank you so much for that talk. That was amazing.
354
1048327
2375
شكراً جزيلاً لكَ على هذه المحادثة لقد كانت مدهشة.
17:30
SR: Thank you.
355
1050726
1167
17:31
(Applause)
356
1051917
1837
س. ر: شكراً لك.
(تصفيق)
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7