Can we build AI without losing control over it? | Sam Harris

3,794,879 views ・ 2016-10-19

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: Hani Eldalees المدقّق: Hussain Laghabi
سأقوم بالتحدث عن فشل الحدس
00:13
I'm going to talk about a failure of intuition
0
13000
2216
00:15
that many of us suffer from.
1
15240
1600
الذي يعاني معظمنا منه.
00:17
It's really a failure to detect a certain kind of danger.
2
17480
3040
هو في الواقع الفشل في تحرِّي نوع محدد من الخطر.
00:21
I'm going to describe a scenario
3
21360
1736
سوف أقوم بوصف سيناريو
أظنه مخيفاً
00:23
that I think is both terrifying
4
23120
3256
00:26
and likely to occur,
5
26400
1760
ومن المرجح أن يحدث،
00:28
and that's not a good combination,
6
28840
1656
وهذا ليس مزيجاً جيداً،
00:30
as it turns out.
7
30520
1536
كما سيبدو.
ومع ذلك، بدلاً من الخوف، سيشعر معظمكم
00:32
And yet rather than be scared, most of you will feel
8
32080
2456
00:34
that what I'm talking about is kind of cool.
9
34560
2080
بأن ما أتحدُّث عنه مثير نوعاً ما.
00:37
I'm going to describe how the gains we make
10
37200
2976
سأقوم بوصف كيف أن المكاسب التي نحصل عليها
00:40
in artificial intelligence
11
40200
1776
من الذكاء الاصطناعي
يمكن في النهاية أن تدمرنا.
00:42
could ultimately destroy us.
12
42000
1776
00:43
And in fact, I think it's very difficult to see how they won't destroy us
13
43800
3456
وفي الواقع، أظنه من الصعب جداً أن نرى كيف أنها لن تدمرنا
00:47
or inspire us to destroy ourselves.
14
47280
1680
أو تلهمنا أن ندمر أنفسنا.
00:49
And yet if you're anything like me,
15
49400
1856
ومع ذلك إذا كنتم تشبهونني في شيء
00:51
you'll find that it's fun to think about these things.
16
51280
2656
فستجدون أنه من الممتع التفكير بهذه الأشياء.
00:53
And that response is part of the problem.
17
53960
3376
وتلك الإجابة هي جزء من المشكلة.
00:57
OK? That response should worry you.
18
57360
1720
حسناً؟ تلك الإجابة يجب أن تُقلقكم.
00:59
And if I were to convince you in this talk
19
59920
2656
وإذا كان عليَّ أن أقنعكم في هذه المحادثة
01:02
that we were likely to suffer a global famine,
20
62600
3416
أنه من المرجح أننا سوف نعاني من مجاعة عالمية
إما بسبب تغيُّر المناخ، أو بسبب كارثة أخرى،
01:06
either because of climate change or some other catastrophe,
21
66040
3056
وأن أحفادكم، أو أحفادهم،
01:09
and that your grandchildren, or their grandchildren,
22
69120
3416
01:12
are very likely to live like this,
23
72560
1800
من المرجح جداً أن يعيشوا، هكذا
01:15
you wouldn't think,
24
75200
1200
فلن يخطر ببالكم.
01:17
"Interesting.
25
77440
1336
"مثير للاهتمام".
01:18
I like this TED Talk."
26
78800
1200
تعجبني محادثة TED هذه.
01:21
Famine isn't fun.
27
81200
1520
المجاعة ليست مسلية.
01:23
Death by science fiction, on the other hand, is fun,
28
83800
3376
الموت عن طريق الخيال العلمي، من ناحية أخرى، مسلٍّ،
01:27
and one of the things that worries me most about the development of AI at this point
29
87200
3976
وأحد الأشياء التي تقلقني للغاية بسبب تطور الذكاء الاصطناعي عند هذه النقطة
01:31
is that we seem unable to marshal an appropriate emotional response
30
91200
4096
هي أننا نبدو وكأننا غير قادرين على إبداء استجابة عاطفية ملائمة
01:35
to the dangers that lie ahead.
31
95320
1816
للأخطار التي تنتظرنا.
أنا غير قادر على إبداء هذه الاستجابة، وأنا أقوم بهذه المحادثة.
01:37
I am unable to marshal this response, and I'm giving this talk.
32
97160
3200
يبدو الأمر وكأننا نقف أمام بابين.
01:42
It's as though we stand before two doors.
33
102120
2696
01:44
Behind door number one,
34
104840
1256
خلف الباب رقم واحد،
نتوقف عن تحقيق التقدُّم في بناء الآليات الذكية.
01:46
we stop making progress in building intelligent machines.
35
106120
3296
01:49
Our computer hardware and software just stops getting better for some reason.
36
109440
4016
معدات حاسوبنا وبرمجياته تتوقف عن التحسن لسببٍ ما وحسب.
01:53
Now take a moment to consider why this might happen.
37
113480
3000
خذوا الآن لحظة للتفكير لماذا قد يحدث ذلك.
أعني، بافتراض مدى نفع الذكاء والأتمتة،
01:57
I mean, given how valuable intelligence and automation are,
38
117080
3656
02:00
we will continue to improve our technology if we are at all able to.
39
120760
3520
فإننا سنستمر بتحسين التكنولوجيا الخاصة بنا إذا كان بإمكاننا أصلاً.
02:05
What could stop us from doing this?
40
125200
1667
ما الذي قد يمنعنا من فعل هذا؟
02:07
A full-scale nuclear war?
41
127800
1800
حربٌ نووية على جميع المقاييس؟
وباء عالمي؟
02:11
A global pandemic?
42
131000
1560
02:14
An asteroid impact?
43
134320
1320
اصطدام كويكب؟
02:17
Justin Bieber becoming president of the United States?
44
137640
2576
أن يصبح جاستن بيبر رئيساً للولايات المتحدة؟
02:20
(Laughter)
45
140240
2280
(ضحك)
02:24
The point is, something would have to destroy civilization as we know it.
46
144760
3920
الخلاصة هي، شيءٌ ما عليه تدمير الحضارة كما نعرفها.
02:29
You have to imagine how bad it would have to be
47
149360
4296
عليكم تخيُّل كم عليه أن يكون سيئاً
02:33
to prevent us from making improvements in our technology
48
153680
3336
لكي يمنعنا من تحقيق تحسينات في التكنولوجيا الخاصة بنا
بشكل دائم،
02:37
permanently,
49
157040
1216
02:38
generation after generation.
50
158280
2016
جيلاً بعد جيل.
02:40
Almost by definition, this is the worst thing
51
160320
2136
تقريباً بالتعريف، هذا أسوأ شيء
02:42
that's ever happened in human history.
52
162480
2016
يمكن أن يحصل في تاريخ البشرية.
02:44
So the only alternative,
53
164520
1296
لذا البديل الوحيد،
02:45
and this is what lies behind door number two,
54
165840
2336
وهو الذي يوجد خلف الباب رقم اثنين،
02:48
is that we continue to improve our intelligent machines
55
168200
3136
هو أن نستمر بتحسين آلاتنا الذكية
02:51
year after year after year.
56
171360
1600
سنة بعد سنة بعد سنة.
02:53
At a certain point, we will build machines that are smarter than we are,
57
173720
3640
وعند نقطة معينة، سنبني آلياتٍ أذكى مما نحن عليه،
وحالما يصبح لدينا آليات أذكى مننا،
02:58
and once we have machines that are smarter than we are,
58
178080
2616
03:00
they will begin to improve themselves.
59
180720
1976
سوف تبدأ بتحسين نفسها.
03:02
And then we risk what the mathematician IJ Good called
60
182720
2736
وعندها سنواجه ما دعاه عالم الرياضيات IJ Good
03:05
an "intelligence explosion,"
61
185480
1776
"انفجاراً ذكائياً"
03:07
that the process could get away from us.
62
187280
2000
وأن العملية يمكن أن تفلت من بين أيدينا.
الآن، هذا يتم عمله كرسم كاريكاتيري، كما أفعل هنا
03:10
Now, this is often caricatured, as I have here,
63
190120
2816
03:12
as a fear that armies of malicious robots
64
192960
3216
كخوفٍ من جيوش ميليشيا من الرجال الآليين
03:16
will attack us.
65
196200
1256
التي ستهاجمنا.
03:17
But that isn't the most likely scenario.
66
197480
2696
ولكن هذا ليس السيناريو الأكثر احتمالاً.
03:20
It's not that our machines will become spontaneously malevolent.
67
200200
4856
الأمر ليس أن آلياتنا ستصبح حاقدة بشكل عفوي
المقلق حقاً هو أننا نبني آليات
03:25
The concern is really that we will build machines
68
205080
2616
03:27
that are so much more competent than we are
69
207720
2056
أكثر كفاءة مما نحن عليه
03:29
that the slightest divergence between their goals and our own
70
209800
3776
وأن أقل اختلاف بين أهدافها وأهدافنا
03:33
could destroy us.
71
213600
1200
يمكن أن يدمرنا.
03:35
Just think about how we relate to ants.
72
215960
2080
فقط فكروا بكيفية علاقتنا بالنمل
03:38
We don't hate them.
73
218600
1656
نحن لا نكرههم.
03:40
We don't go out of our way to harm them.
74
220280
2056
ولا نخرج عن طريقنا لنؤذيهم.
03:42
In fact, sometimes we take pains not to harm them.
75
222360
2376
في الواقع، أحياناً نتحمل آلاماً لكي لا نؤذيهم.
03:44
We step over them on the sidewalk.
76
224760
2016
نحن نمشي من فوقهم على الرصيف.
03:46
But whenever their presence
77
226800
2136
ولكن عندما يكون لوجودهم
03:48
seriously conflicts with one of our goals,
78
228960
2496
تعارض جدِّي مع أحد أهدافنا،
03:51
let's say when constructing a building like this one,
79
231480
2477
لنقل مثلاً عند إنشاء بناء كهذا،
03:53
we annihilate them without a qualm.
80
233981
1960
نقوم بإبادتهم بدون أي تأنيب ضمير.
03:56
The concern is that we will one day build machines
81
236480
2936
والقلق من أننا يوماً ما سوف نبني آليات
03:59
that, whether they're conscious or not,
82
239440
2736
والتي، سواءٌ كانت مدركة أم لا،
04:02
could treat us with similar disregard.
83
242200
2000
قد تعاملنا بمثل هذا الاستخفاف.
04:05
Now, I suspect this seems far-fetched to many of you.
84
245760
2760
والآن، أنا أشك أن هذا أبعد ما يكون عن العديد منكم.
04:09
I bet there are those of you who doubt that superintelligent AI is possible,
85
249360
6336
وأراهن على أن هنالك منكم من يشك أن الذكاء الاصطناعي الخارق الذكاء ممكن،
04:15
much less inevitable.
86
255720
1656
أو حتى محتوم.
04:17
But then you must find something wrong with one of the following assumptions.
87
257400
3620
ولكن مع ذلك يجب عليكم أن تجدوا شيئاً ما خاطئاً في أحد الافتراضات التالية.
وهنالك ثلاثة منهم.
04:21
And there are only three of them.
88
261044
1572
04:23
Intelligence is a matter of information processing in physical systems.
89
263800
4719
الذكاء هو مسألة معالجة للمعلومات في الأنظمة الفيزيائية.
04:29
Actually, this is a little bit more than an assumption.
90
269320
2615
في الواقع، هذا أكثر بقليل من مجرد افتراض.
04:31
We have already built narrow intelligence into our machines,
91
271959
3457
نحن قمنا مسبقاً ببناء ذكاء محدود في آلياتنا،
04:35
and many of these machines perform
92
275440
2016
والعديد من هذه الآليات تقوم بالأداء
04:37
at a level of superhuman intelligence already.
93
277480
2640
في مستوى الذكاء البشري الخارق أصلاً.
04:40
And we know that mere matter
94
280840
2576
ونعلم أن المادة المجردة
04:43
can give rise to what is called "general intelligence,"
95
283440
2616
بإمكانها أن تعطي زيادة لما يدعى "بالذكاء العام"،
القدرة على التفكير بمرونة في عدة مجالات،
04:46
an ability to think flexibly across multiple domains,
96
286080
3656
04:49
because our brains have managed it. Right?
97
289760
3136
لأن دماغنا قام بتدبر الأمر. صحيح؟
04:52
I mean, there's just atoms in here,
98
292920
3936
أنا أعني، هناك ذرات فقط هنا،
04:56
and as long as we continue to build systems of atoms
99
296880
4496
وطالما نستمر ببناء أنظمة من الذرات
05:01
that display more and more intelligent behavior,
100
301400
2696
والتي تُبدي سلوكاً متزايداً أكثر وأكثر من الذكاء
فإننا في النهاية، إلا إذا تمَّت مقاطعتنا،
05:04
we will eventually, unless we are interrupted,
101
304120
2536
05:06
we will eventually build general intelligence
102
306680
3376
في النهاية سوف نبني ذكاءً عاماً
في آلياتنا.
05:10
into our machines.
103
310080
1296
05:11
It's crucial to realize that the rate of progress doesn't matter,
104
311400
3656
من المصيري أن ندرك أن معدل التطور لا يهم،
لأن أي تطور هو كافٍ لإيصالنا إلى منطقة النهاية.
05:15
because any progress is enough to get us into the end zone.
105
315080
3176
05:18
We don't need Moore's law to continue. We don't need exponential progress.
106
318280
3776
لا نحتاج قانون Moore للاستمرار. لا نحتاج التطور الأسي.
نحتاج فقط لأن نستمر بالمضي قدماً
05:22
We just need to keep going.
107
322080
1600
05:25
The second assumption is that we will keep going.
108
325480
2920
الافتراض الثاني هو أننا سنستمر بالمضي قدماً.
سنستمر بتحسين آلياتنا الذكية.
05:29
We will continue to improve our intelligent machines.
109
329000
2760
وبافتراض أهمية الذكاء --
05:33
And given the value of intelligence --
110
333000
4376
05:37
I mean, intelligence is either the source of everything we value
111
337400
3536
أنا أعني، أن الذكاء هو إما مصدر لكل شيءٍ نقدِّره
05:40
or we need it to safeguard everything we value.
112
340960
2776
أو أننا نحتاجه لحماية كل شيءٍ نقدُّره.
05:43
It is our most valuable resource.
113
343760
2256
إنه المنبع الأكثر أهمية لدينا.
لذلك نحتاج لفعل التالي.
05:46
So we want to do this.
114
346040
1536
05:47
We have problems that we desperately need to solve.
115
347600
3336
لدينا مشاكل نحن بحاجة ماسِّة لحلها.
05:50
We want to cure diseases like Alzheimer's and cancer.
116
350960
3200
نريد شفاء الأمراض كالزهايمر والسرطان.
05:54
We want to understand economic systems. We want to improve our climate science.
117
354960
3936
نريد أن نفهم الأنظمة الاقتصادية. نريد تحسين علم المناخ الخاص بنا.
05:58
So we will do this, if we can.
118
358920
2256
لذلك سنفعل ذلك، إذا استطعنا.
06:01
The train is already out of the station, and there's no brake to pull.
119
361200
3286
القطار غادر المحطة بالفعل، ولا يوجد مكابح لشدها.
06:05
Finally, we don't stand on a peak of intelligence,
120
365880
5456
وأخيراً، نحن لا نقف عند قمة الذكاء،
06:11
or anywhere near it, likely.
121
371360
1800
أو في أي مكان قريب منها، على ما يبدو،
06:13
And this really is the crucial insight.
122
373640
1896
وهذا حقاً هو البصيرة المصيرية.
06:15
This is what makes our situation so precarious,
123
375560
2416
هذا ما يجعل موقفنا متزعزعاً للغاية،
وهذا ما يجعل حدسنا بما يخص الخطورة لا يُعتمد عليه أبداً.
06:18
and this is what makes our intuitions about risk so unreliable.
124
378000
4040
والآن، فكروا فقط بأذكى شخص عاش في أي وقتٍ مضى.
06:23
Now, just consider the smartest person who has ever lived.
125
383120
2720
06:26
On almost everyone's shortlist here is John von Neumann.
126
386640
3416
تقريباً على قائمة الجميع القصيرة يوجد John von Neumann.
أعني، الانطباع الذي تركه von Neumann على الناس المحيطين به،
06:30
I mean, the impression that von Neumann made on the people around him,
127
390080
3336
06:33
and this included the greatest mathematicians and physicists of his time,
128
393440
4056
وهذا يشمل أعظم علماء الرياضيات والفيزياء في عصره،
06:37
is fairly well-documented.
129
397520
1936
بالكاد تم توثيقه بشكل جيد.
06:39
If only half the stories about him are half true,
130
399480
3776
إذا كانت نصف القصص فقط عنه نصف صحيحة،
06:43
there's no question
131
403280
1216
فلا يوجد شك
06:44
he's one of the smartest people who has ever lived.
132
404520
2456
أنه أحد أذكى الأشخاص الذين عاشوا في أي وقتٍ مضى.
لذلك باعتبار طيف الذكاء.
06:47
So consider the spectrum of intelligence.
133
407000
2520
06:50
Here we have John von Neumann.
134
410320
1429
هنا لدينا John von Neumann.
06:53
And then we have you and me.
135
413560
1334
وهنا لدينا أنتم وأنا.
وثم هنا لدينا دجاجة.
06:56
And then we have a chicken.
136
416120
1296
06:57
(Laughter)
137
417440
1936
(ضحك)
06:59
Sorry, a chicken.
138
419400
1216
آسف، دجاجة.
07:00
(Laughter)
139
420640
1256
(ضحك)
07:01
There's no reason for me to make this talk more depressing than it needs to be.
140
421920
3736
لا يوجد سبب يجعلني أجعل هذه المحادثة أكثر إحباطاً مما يحتاجه الأمر.
07:05
(Laughter)
141
425680
1600
(ضحك)
07:08
It seems overwhelmingly likely, however, that the spectrum of intelligence
142
428339
3477
يبدو أنه ساحق على الأرجح، ومع ذلك، يمتد طيف الذكاء
07:11
extends much further than we currently conceive,
143
431840
3120
أبعد بكثير مما نتصور حالياً،
07:15
and if we build machines that are more intelligent than we are,
144
435880
3216
وإذا قمنا ببناء آلات أذكى مما نحن عليه،
فهي على الأرجح ستستكشف الطيف
07:19
they will very likely explore this spectrum
145
439120
2296
07:21
in ways that we can't imagine,
146
441440
1856
بطرقٍ لا نستطيع تخيلها،
07:23
and exceed us in ways that we can't imagine.
147
443320
2520
وسف تتعدانا بطرقٍ لا يمكننا تخيلها.
ومن المهم أن ندرك أن هذا صحيح بخصوص تأثير السرعة وحدها.
07:27
And it's important to recognize that this is true by virtue of speed alone.
148
447000
4336
07:31
Right? So imagine if we just built a superintelligent AI
149
451360
5056
صحيح؟ إذاً تخيلوا إذا بنينا ذكاءً صنعياً خارق الذكاء
07:36
that was no smarter than your average team of researchers
150
456440
3456
ولم يكن أذكى من فريق الباحثين العادي الخاص بكم
07:39
at Stanford or MIT.
151
459920
2296
في ستانفورد أو معهد ماساتشوستس للتكنولوجيا.
07:42
Well, electronic circuits function about a million times faster
152
462240
2976
حسناً، الدارات الالكترونية تعمل بشكل أسرع بحوالي ملايين المرات
07:45
than biochemical ones,
153
465240
1256
من تلك الكيميائية الحيوية،
07:46
so this machine should think about a million times faster
154
466520
3136
لذا هذه الآلة يجب أن تفكر أسرع بملايين المرات
07:49
than the minds that built it.
155
469680
1816
من العقول التي قامت ببنائها.
07:51
So you set it running for a week,
156
471520
1656
لذا إذا تركتها تعمل لمدة أسبوع،
07:53
and it will perform 20,000 years of human-level intellectual work,
157
473200
4560
فسوف تؤدي ما يعادل 20,000 سنة من العمل بمستوى الذكاء البشري،
07:58
week after week after week.
158
478400
1960
أسبوع بعد أسبوع بعد أسبوع.
08:01
How could we even understand, much less constrain,
159
481640
3096
كيف بإمكاننا حتى أن نفهم، أو حتى أن نُقيّد،
08:04
a mind making this sort of progress?
160
484760
2280
عقلاً يصنع هذا النوع من التطور؟
08:08
The other thing that's worrying, frankly,
161
488840
2136
والأمر الآخر المقلق، بصراحة،
هو أن، تخيل أفضل سيناريو.
08:11
is that, imagine the best case scenario.
162
491000
4976
إذاً تخيلوا أننا اكتشفنا تصميماً للذكاء الصنعي فائق الذكاء
08:16
So imagine we hit upon a design of superintelligent AI
163
496000
4176
08:20
that has no safety concerns.
164
500200
1376
وليس لديه مخاوف سلامة.
08:21
We have the perfect design the first time around.
165
501600
3256
لدينا التصميم المثالي للمرة الأولى.
08:24
It's as though we've been handed an oracle
166
504880
2216
وكأنه تم تسليمنا نبوءة
تتصرَّف تماماً كما ينبغي عليها.
08:27
that behaves exactly as intended.
167
507120
2016
هذه الآلة ستكون المثلى لتوفير العمالة.
08:29
Well, this machine would be the perfect labor-saving device.
168
509160
3720
08:33
It can design the machine that can build the machine
169
513680
2429
بإمكانها تصميم آلية ستقوم ببناء الآلة
التي بإمكانها القيام بأي عمل فيزيائي،
08:36
that can do any physical work,
170
516133
1763
08:37
powered by sunlight,
171
517920
1456
تعمل بضوء الشمس،
08:39
more or less for the cost of raw materials.
172
519400
2696
ومهما يكن من أجل كلفة المواد الخام.
إذاً نحن نتكلم عن نهاية الكدح البشري.
08:42
So we're talking about the end of human drudgery.
173
522120
3256
08:45
We're also talking about the end of most intellectual work.
174
525400
2800
نحن أيضا نتكلم عن نهاية العمل الذكائي.
08:49
So what would apes like ourselves do in this circumstance?
175
529200
3056
فماذا قد تفعل القرود أمثالنا في هذا الظرف؟
08:52
Well, we'd be free to play Frisbee and give each other massages.
176
532280
4080
حسناً، سنكون متفرغين للعب بالصحن الطائر وتبادل الرسائل مع بعضنا.
08:57
Add some LSD and some questionable wardrobe choices,
177
537840
2856
أضف بعض الـLSD مع اختيارات اللباس المشكوك بأمرها،
09:00
and the whole world could be like Burning Man.
178
540720
2176
وبإمكان العالم كله أن يصبح كفيلم Burning Man.
09:02
(Laughter)
179
542920
1640
(ضحك)
09:06
Now, that might sound pretty good,
180
546320
2000
حسناً، هذا قد يبدو جيداً جداً،
09:09
but ask yourself what would happen
181
549280
2376
ولكن اسألوا أنفسكم ماذا قد يسبب هذا
09:11
under our current economic and political order?
182
551680
2736
لاقتصادنا الحالي ووضعنا السياسي؟
09:14
It seems likely that we would witness
183
554440
2416
يبدو أننا سنشهد على الأرجح
09:16
a level of wealth inequality and unemployment
184
556880
4136
مستوى من تفاوت الثروات والبطالة
الذي لم نشهده أبداً من قبل
09:21
that we have never seen before.
185
561040
1496
09:22
Absent a willingness to immediately put this new wealth
186
562560
2616
غياب الرغبة لوضع هذه الثروة الجديدة فوراً
09:25
to the service of all humanity,
187
565200
1480
في خدمة جميع البشرية،
09:27
a few trillionaires could grace the covers of our business magazines
188
567640
3616
بعض أصحاب التريليونات سوف يُشرِّفون أغلفة مجلات أعمالنا
09:31
while the rest of the world would be free to starve.
189
571280
2440
بينما يكون باقي العالم متفرغاً لكي يتضور جوعاً.
09:34
And what would the Russians or the Chinese do
190
574320
2296
وماذا سيفعل الروس أو الصينيون
09:36
if they heard that some company in Silicon Valley
191
576640
2616
إذا سمعوا أن شركةً ما في Silicon Valley
09:39
was about to deploy a superintelligent AI?
192
579280
2736
كانت على وشك نشر الذكاء الا فائق الذكاء؟
هذه الآلة ستكون قادرة على شن حرب،
09:42
This machine would be capable of waging war,
193
582040
2856
09:44
whether terrestrial or cyber,
194
584920
2216
سواء كانت على الأرض أو على الإنترنت،
بقوة غير مسبوقة.
09:47
with unprecedented power.
195
587160
1680
هذا السيناريو هو الذي يربح كل شيء
09:50
This is a winner-take-all scenario.
196
590120
1856
أن تكون متقدماً بستة أشهر على المنافسة في هذه الحالة
09:52
To be six months ahead of the competition here
197
592000
3136
تعني أن تكون متقدماً بـ500,000 سنة،
09:55
is to be 500,000 years ahead,
198
595160
2776
09:57
at a minimum.
199
597960
1496
بأقل حد.
09:59
So it seems that even mere rumors of this kind of breakthrough
200
599480
4736
وبالتالي يبدو أنه حتى الإشاعات المحضة بما يخص النوع من الاكتشافات
10:04
could cause our species to go berserk.
201
604240
2376
يمكن أن تجعل فصائلنا تهتاج.
10:06
Now, one of the most frightening things,
202
606640
2896
والآن، أكثر الأشياء إخافة،
10:09
in my view, at this moment,
203
609560
2776
من وجهة نظري، في هذه اللحظة،
10:12
are the kinds of things that AI researchers say
204
612360
4296
هي النوع من الأشياء التي يقولها باحثو الذكاء الاصطناعي عندما
10:16
when they want to be reassuring.
205
616680
1560
يريدون أن يكونوا مُطمئِنين.
والسبب الأكثر شيوعاً الذي يُقال لنا ألا نقلق بسببه هو الوقت
10:19
And the most common reason we're told not to worry is time.
206
619000
3456
10:22
This is all a long way off, don't you know.
207
622480
2056
هذا كله سيمر، ألا تعلم.
10:24
This is probably 50 or 100 years away.
208
624560
2440
هذا من المحتمل بعد 50 أو 100 سنة.
10:27
One researcher has said,
209
627720
1256
قال أحد الباحثين،
"القلق بشأن سلامة الذكاء الاصطناعي
10:29
"Worrying about AI safety
210
629000
1576
10:30
is like worrying about overpopulation on Mars."
211
630600
2280
هو كالقلق بشأن زيادة التعداد السكاني على المريخ"
هذه نسخة Silicon Valley
10:34
This is the Silicon Valley version
212
634116
1620
10:35
of "don't worry your pretty little head about it."
213
635760
2376
من "لا تُقلق رأسك الجميل الصغير بهذا".
(ضحك)
10:38
(Laughter)
214
638160
1336
10:39
No one seems to notice
215
639520
1896
لا يبدو أن أحداً يلاحظ
10:41
that referencing the time horizon
216
641440
2616
أن الإشارة للحد الزمني
ليس له عواقب بتاتاً.
10:44
is a total non sequitur.
217
644080
2576
10:46
If intelligence is just a matter of information processing,
218
646680
3256
إذا كان الذكاء هو مجرد مسألة معالجة معلومات،
10:49
and we continue to improve our machines,
219
649960
2656
ونحن نستمر بتحسين آلياتنا،
10:52
we will produce some form of superintelligence.
220
652640
2880
فسنقوم بإنتاج شكلٍ ما من الذكاء الفائق.
10:56
And we have no idea how long it will take us
221
656320
3656
وليس لدينا فكرة كم سيستغرق هذا مننا
لخلق الشروط للقيام بذلك بأمان.
11:00
to create the conditions to do that safely.
222
660000
2400
11:04
Let me say that again.
223
664200
1296
دعوني أقل ذلك مرة أخرى.
11:05
We have no idea how long it will take us
224
665520
3816
ليس لدينا فكرة كم سيستغرق الأمر مننا
11:09
to create the conditions to do that safely.
225
669360
2240
لخلق الشروط للقيام بذلك بأمان.
11:12
And if you haven't noticed, 50 years is not what it used to be.
226
672920
3456
وإذا لم تلاحظوا، لم تعد الخمسون سنة كما كانت عليه.
11:16
This is 50 years in months.
227
676400
2456
هذه 50 سنة في أشهر.
11:18
This is how long we've had the iPhone.
228
678880
1840
هذه المدة التي امتلكنا فيها الـiPhone
11:21
This is how long "The Simpsons" has been on television.
229
681440
2600
هذه المدة التي انعرض فيها The Simpsons على التلفاز
11:24
Fifty years is not that much time
230
684680
2376
خمسون سنة هي ليست بالوقت الكثير
لمواجهة أحد أكبر التحديات الذي سيواجه لفصيلتنا.
11:27
to meet one of the greatest challenges our species will ever face.
231
687080
3160
11:31
Once again, we seem to be failing to have an appropriate emotional response
232
691640
4016
مرة أخرى، يبدو أننا نفشل في امتلاك الاستجابة العاطفية الملائمة
11:35
to what we have every reason to believe is coming.
233
695680
2696
لما يوجد لدينا أكثر من سبب للإيمكان بأنه قادم
11:38
The computer scientist Stuart Russell has a nice analogy here.
234
698400
3976
عالم الحاسوب Stuart Russell لديه تحليل لطيف هنا.
11:42
He said, imagine that we received a message from an alien civilization,
235
702400
4896
هو يقول، تخيلوا أننا استلمنا رسالة من حضارة الفضائيين،
11:47
which read:
236
707320
1696
والتي كانت:
"سكان الأرض،
11:49
"People of Earth,
237
709040
1536
11:50
we will arrive on your planet in 50 years.
238
710600
2360
سوف نصل إلى كوكبكم خلال 50 سنة.
11:53
Get ready."
239
713800
1576
استعدوا."
11:55
And now we're just counting down the months until the mothership lands?
240
715400
4256
والآن نقوم بالعد التنازلي للأشهر حتى تهبط السفينة الأم؟
11:59
We would feel a little more urgency than we do.
241
719680
3000
سنشعر بالعجلة أكثر مما نفعل الآن بقليل.
12:04
Another reason we're told not to worry
242
724680
1856
يُقال لنا ألا نقلق لسببٍ آخر
12:06
is that these machines can't help but share our values
243
726560
3016
هو أن هذه الآليات ليس بوسعها إلا مشاركتنا منافعها
12:09
because they will be literally extensions of ourselves.
244
729600
2616
لأنها ستكون حرفياً امتداداً لأنفسنا.
12:12
They'll be grafted onto our brains,
245
732240
1816
ستكون مُطعَّمة مع أدمغتنا،
ونحن سنصبح جوهرياً أنظمتها الحوفية.
12:14
and we'll essentially become their limbic systems.
246
734080
2360
الآن خذوا لحظة للتفكير
12:17
Now take a moment to consider
247
737120
1416
12:18
that the safest and only prudent path forward,
248
738560
3176
أن الطريق الوحيد الآمن والحكيم للأمام،
12:21
recommended,
249
741760
1336
الذي يُنصح به،
هو زرع هذه التكنولوجيا مباشرةً في أدمغتنا.
12:23
is to implant this technology directly into our brains.
250
743120
2800
12:26
Now, this may in fact be the safest and only prudent path forward,
251
746600
3376
قد يكون الطريق الوحيد الآمن والحكيم للأمام،
ولكن عادةً يكون للمرء مخاوف عن كون التكنولوجيا
12:30
but usually one's safety concerns about a technology
252
750000
3056
مفهومة لحدٍّ ما قبل أن تدخلها داخل رأسك.
12:33
have to be pretty much worked out before you stick it inside your head.
253
753080
3656
12:36
(Laughter)
254
756760
2016
(ضحك)
12:38
The deeper problem is that building superintelligent AI on its own
255
758800
5336
المشكلة الأعمق أن بناء ذكاء اصطناعي فائق الذكاء بمفرده
يبدو على الأرجح أنه أسهل
12:44
seems likely to be easier
256
764160
1736
12:45
than building superintelligent AI
257
765920
1856
من بناء ذكاء اصطناعي فائق الذكاء
12:47
and having the completed neuroscience
258
767800
1776
وامتلاك علم الأعصاب الكامل
12:49
that allows us to seamlessly integrate our minds with it.
259
769600
2680
الذي يسمح لنا بمكاملة عقولنا معه بسلاسة.
12:52
And given that the companies and governments doing this work
260
772800
3176
وبافتراض أن الشركات والحكومات التي تقوم بهذا العمل
على الأرجح ستعي كونها في سباق ضد الآخرين جميعاً،
12:56
are likely to perceive themselves as being in a race against all others,
261
776000
3656
12:59
given that to win this race is to win the world,
262
779680
3256
وبافتراض أن الفوز في هذا السباق هو الفوز بالعالم،
13:02
provided you don't destroy it in the next moment,
263
782960
2456
بفرض أنك لن تدمره في الشهر التالي،
13:05
then it seems likely that whatever is easier to do
264
785440
2616
فبالتالي يبدو على الأرجح أنه مهما يكن الأسهل فعله
سيتم الانتهاء منه أولاً.
13:08
will get done first.
265
788080
1200
13:10
Now, unfortunately, I don't have a solution to this problem,
266
790560
2856
الآن، لسوء الحظ، لا أمتلك حلاً لهذه المشكلة،
13:13
apart from recommending that more of us think about it.
267
793440
2616
بمعزل عن توصية أن يفكِّر المزيد مننا به.
أظن أننا بحاجة شيء ما مثل "مشروع مانهاتن"
13:16
I think we need something like a Manhattan Project
268
796080
2376
13:18
on the topic of artificial intelligence.
269
798480
2016
لموضوع الذكاء الاصطناعي.
13:20
Not to build it, because I think we'll inevitably do that,
270
800520
2736
ليس لبنائه، لأنني أظننا سنفعل ذلك حتماً،
13:23
but to understand how to avoid an arms race
271
803280
3336
ولكن لفهم كيفية تجنب سباق الأذرع
13:26
and to build it in a way that is aligned with our interests.
272
806640
3496
ولبنائه بطريقة منحازة مع اهتماماتنا.
عندما تتحدث عن ذكاء اصطناعي فائق الذكاء
13:30
When you're talking about superintelligent AI
273
810160
2136
13:32
that can make changes to itself,
274
812320
2256
يمكنه إحداث تغيير لنفسه،
13:34
it seems that we only have one chance to get the initial conditions right,
275
814600
4616
يبدو أن لدينا فرصة واحدة للقيام بالشروط الابتدائية بشكل صحيح،
13:39
and even then we will need to absorb
276
819240
2056
وحتى حينها سنكون بحاجة امتصاص
13:41
the economic and political consequences of getting them right.
277
821320
3040
العواقب الاقتصادية والسياسية من القيام بها بشكل صحيح.
13:45
But the moment we admit
278
825760
2056
ولكن في اللحظة التي نعترف فيها
13:47
that information processing is the source of intelligence,
279
827840
4000
أن معالجة المعلومات هي مصدر الذكاء،
13:52
that some appropriate computational system is what the basis of intelligence is,
280
832720
4800
وأن بعض أنظمة الحاسوب الملائمة تُعبِّر عن أساس الذكاء،
13:58
and we admit that we will improve these systems continuously,
281
838360
3760
ونعترف أننا سوف نحسِّن هذه الأنظمة باستمرار،
14:03
and we admit that the horizon of cognition very likely far exceeds
282
843280
4456
ونعترف أن أفق الإدراك على الأرجح يتجاوز
14:07
what we currently know,
283
847760
1200
الذي نعرفه حالياً بكثير،
وبالتالي علينا الاعتراف
14:10
then we have to admit
284
850120
1216
14:11
that we are in the process of building some sort of god.
285
851360
2640
أننا في مرحلة بناء نوع ما من الآلهة.
14:15
Now would be a good time
286
855400
1576
الآن سيكون وقتاً جيداً
للتأكد من أنه إله نستطيع العيش معه.
14:17
to make sure it's a god we can live with.
287
857000
1953
شكراً جزيلاً لكم.
14:20
Thank you very much.
288
860120
1536
14:21
(Applause)
289
861680
5093
(تصفيق)
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7