How to get empowered, not overpowered, by AI | Max Tegmark

130,078 views ・ 2018-07-05

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: Dimah Eid المدقّق: Fatima Zahra El Hafa
00:12
After 13.8 billion years of cosmic history,
0
12760
4416
بعد 13,8 مليار سنة من تاريخ الكون،
00:17
our universe has woken up
1
17200
2096
استيقظ كوننا
00:19
and become aware of itself.
2
19320
1520
وأصبح مدركًا لذاته.
00:21
From a small blue planet,
3
21480
1936
من كوكب صغير أزرق،
00:23
tiny, conscious parts of our universe have begun gazing out into the cosmos
4
23440
4136
بدأت أجزاء صغيرة واعية من عالمنا تحدق بالكون
00:27
with telescopes,
5
27600
1376
باستخدام التلسكوبات،
00:29
discovering something humbling.
6
29000
1480
تكتشف شيئاً بتواضع.
00:31
We've discovered that our universe is vastly grander
7
31320
2896
لقد اكتشفنا أن كوننا أعظم بكثير
00:34
than our ancestors imagined
8
34240
1336
مما تصوره أسلافنا
00:35
and that life seems to be an almost imperceptibly small perturbation
9
35600
4256
وأن الحياة تبدو وكأنها اضطراب صغير غير محسوس
00:39
on an otherwise dead universe.
10
39880
1720
على كون ميت.
00:42
But we've also discovered something inspiring,
11
42320
3016
لكننا اكتشفنا أيضًا شيئا ملهمًا،
00:45
which is that the technology we're developing has the potential
12
45360
2976
وهو أن التكنولوجيا التي نطورها لها القدرة
00:48
to help life flourish like never before,
13
48360
2856
على مساعدة ازدهار الحياة بشكل غير مسبوق،
00:51
not just for centuries but for billions of years,
14
51240
3096
ليس لعدة قرون فقط ولكن لمليارات السنين
00:54
and not just on earth but throughout much of this amazing cosmos.
15
54360
4120
وليس على هذه الأرض فقط ولكن في أنحاء أخرى من هذا الكون المذهل.
00:59
I think of the earliest life as "Life 1.0"
16
59680
3336
شخصيًّا، أسمي بداية الحياة ب"الحياة 1.0"
01:03
because it was really dumb,
17
63040
1376
لأنها كانت غبية حقاً،
01:04
like bacteria, unable to learn anything during its lifetime.
18
64440
4296
مثل البكتيريا، غير قادرة على تعلم أي شيء خلال حياتها.
01:08
I think of us humans as "Life 2.0" because we can learn,
19
68760
3376
وأعتقد بأننا نحن البشر نمثل "الحياة 2.0" لأننا نستطيع التعلم،
01:12
which we in nerdy, geek speak,
20
72160
1496
وإذا ما تحدثنا عنه بهوس علمي
01:13
might think of as installing new software into our brains,
21
73680
3216
فقد ننظر له وكأنه تثبيت برمجية جديدة داخل عقولنا
01:16
like languages and job skills.
22
76920
2120
مثل اللغات ومهارات العمل.
01:19
"Life 3.0," which can design not only its software but also its hardware
23
79680
4296
"الحياة 3.0" والتي لا تصمم برمجياتها فحسب بل وأجزائها الرئيسية أيضًا
01:24
of course doesn't exist yet.
24
84000
1656
وهي بالطبع لا وجود لها حتى الآن.
01:25
But perhaps our technology has already made us "Life 2.1,"
25
85680
3776
لكن قد تكون التكنولوجيا الحالية قد صنعت لنا بالفعل "الحياة 2.1"
01:29
with our artificial knees, pacemakers and cochlear implants.
26
89480
4336
مع ركبنا الصناعية، وأجهزة تنظيم نبضات القلب والقواقع السمعية المزروعة.
01:33
So let's take a closer look at our relationship with technology, OK?
27
93840
3880
لذا لنمعن النظر في علاقتنا مع التكنولوجيا، حسنًا؟
01:38
As an example,
28
98800
1216
على سبيل المثال،
01:40
the Apollo 11 moon mission was both successful and inspiring,
29
100040
5296
بعثة أبولو 11 إلى القمر كانت ناجحة وملهمة في ذات الوقت
01:45
showing that when we humans use technology wisely,
30
105360
3016
مبينةً أنه عندما نستخدم نحن البشر التكنولوجيا بحكمة،
01:48
we can accomplish things that our ancestors could only dream of.
31
108400
3936
فإننا نستطيع إنجاز أشياء لم يستطع أسلافنا إلا الحلم بها.
01:52
But there's an even more inspiring journey
32
112360
2976
لكن توجد هناك رحلة أكثر إلهامًا
01:55
propelled by something more powerful than rocket engines,
33
115360
2680
مدفوعة بشيء أقوى من محركات الصواريخ
01:59
where the passengers aren't just three astronauts
34
119200
2336
حيث الركاب ليسوا مجرد ثلاثة من رواد الفضاء
02:01
but all of humanity.
35
121560
1776
بل البشرية جمعاء.
02:03
Let's talk about our collective journey into the future
36
123360
2936
دعونا نتحدث عن رحلتنا الجماعية نحو المستقبل
02:06
with artificial intelligence.
37
126320
2000
مع الذكاء الاصطناعي.
02:08
My friend Jaan Tallinn likes to point out that just as with rocketry,
38
128960
4536
يشير صديقي جان تالين إلى أنه كما هي الحال مع الصواريخ،
02:13
it's not enough to make our technology powerful.
39
133520
3160
ليس كافيًا أن نجعل التكنولوجيا لدينا أقوى.
02:17
We also have to figure out, if we're going to be really ambitious,
40
137560
3175
بل يجب علينا أن نعرف، هل سنكون حقًا طموحين
02:20
how to steer it
41
140759
1416
فيما يتعلق بتوجيهها
02:22
and where we want to go with it.
42
142199
1681
وإلى أين نريد الذهاب بها.
02:24
So let's talk about all three for artificial intelligence:
43
144880
2840
إذن لنتحدث عن هذه المحاور الثلاثة في مجال الذكاء الاصطناعي:
02:28
the power, the steering and the destination.
44
148440
3056
القوة والقيادة والوجهة.
02:31
Let's start with the power.
45
151520
1286
لنبدأ بالحديث عن القوة.
02:33
I define intelligence very inclusively --
46
153600
3096
أنا أعرّف الذكاء ضمنيًا
02:36
simply as our ability to accomplish complex goals,
47
156720
4336
ببساطة على أنه قدرتنا على إنجاز أهداف معقدة،
02:41
because I want to include both biological and artificial intelligence.
48
161080
3816
لأنني أريد أن أشمل كلا من الذكاء الحيوي والاصطناعي.
02:44
And I want to avoid the silly carbon-chauvinism idea
49
164920
4016
وأرغب بتجنب فكرة "الشوفينية الكربونية" السخيفة
02:48
that you can only be smart if you're made of meat.
50
168960
2360
بأنك لا تكون ذكيًا إلا إذا كنت مصنوعًا من لحم.
02:52
It's really amazing how the power of AI has grown recently.
51
172880
4176
إنه لمذهل حقًا كيف تطورت فكرة الذكاء الاصطناعي مؤخرًا.
02:57
Just think about it.
52
177080
1256
فكروا بالأمر فحسب.
02:58
Not long ago, robots couldn't walk.
53
178360
3200
حتى وقتٍ قريب، لم تكن الروبوتات قادرة على السير.
03:03
Now, they can do backflips.
54
183040
1720
الآن، تستطيع القفز متأرجحةً للخلف.
03:06
Not long ago,
55
186080
1816
حتى وقت قريب،
03:07
we didn't have self-driving cars.
56
187920
1760
لم نمتلك سيارات ذاتية القيادة.
03:10
Now, we have self-flying rockets.
57
190920
2480
الآن، لدينا صواريخ ذاتية التحليق.
03:15
Not long ago,
58
195960
1416
حتى وقت قريب،
03:17
AI couldn't do face recognition.
59
197400
2616
لم يكن الذكاء الاصطناعي قادرًا على التعرف على الوجوه.
03:20
Now, AI can generate fake faces
60
200040
2976
الآن، الذكاء الاصطناعي لديه القدرة على توليد وجوه مزيفة.
03:23
and simulate your face saying stuff that you never said.
61
203040
4160
ومحاكاة وجهك لقول أشياء لم تقلها أبدًا
03:28
Not long ago,
62
208400
1576
حتى وقت قريب،
كان الذكاء الاصطناعي عاجزًا عن هزيمتنا في لعبة "غو".
03:30
AI couldn't beat us at the game of Go.
63
210000
1880
03:32
Then, Google DeepMind's AlphaZero AI took 3,000 years of human Go games
64
212400
5096
ثم أَخَذَ ألفا زيرو من "جوجل ديب مايند" 3000 سنة من ألعاب "غو" التي لعبها البشر
03:37
and Go wisdom,
65
217520
1256
واستراتيجة اللعبة،
03:38
ignored it all and became the world's best player by just playing against itself.
66
218800
4976
وتجاهل ذلك كله، ليصبح أفضل لاعب في العالم فقط باللعب ضد نفسه.
03:43
And the most impressive feat here wasn't that it crushed human gamers,
67
223800
3696
والأكثر إثارة للإعجاب لم يكن سحقه للاعبين بشر،
03:47
but that it crushed human AI researchers
68
227520
2576
لكن حقيقة أنه هزم باحثين في الذكاء الاصطناعي
03:50
who had spent decades handcrafting game-playing software.
69
230120
3680
أمضوا عشرات السنين في تصميم برمجيات قادرة على اللعب.
03:54
And AlphaZero crushed human AI researchers not just in Go but even at chess,
70
234200
4656
ولم يسحق ألفا زيرو الباحثين في لعبة "غو" فحسب بل في الشطرنج أيضًا،
03:58
which we have been working on since 1950.
71
238880
2480
والتي كانوا يعملون عليها منذ عام 1950.
04:02
So all this amazing recent progress in AI really begs the question:
72
242000
4240
لهذا كل هذا التطور الحديث في الذكاء الاصطناعي يطرح التساؤل:
04:07
How far will it go?
73
247280
1560
إلى أي مدى سيصل هذا الذكاء؟
04:09
I like to think about this question
74
249800
1696
أنا أحب التفكير بهذا السؤال
04:11
in terms of this abstract landscape of tasks,
75
251520
2976
من منطلق هذا الملخص لتضاريس المهام،
04:14
where the elevation represents how hard it is for AI to do each task
76
254520
3456
حيث الارتفاع يمثل مدى صعوبة قيام الذكاء الاصطناعي بالمهمة
04:18
at human level,
77
258000
1216
بنفس المستوى البشري
04:19
and the sea level represents what AI can do today.
78
259240
2760
ويمثل مستوى البحر ما يستطيع الذكاء الاصطناعي فعله اليوم.
04:23
The sea level is rising as AI improves,
79
263120
2056
مستوى البحر يرتفع والذكاء الاصطناعي يتطور،
04:25
so there's a kind of global warming going on here in the task landscape.
80
265200
3440
لهذا يوجد نوع من الاحتباس الحراري يحدث هنا على مخطط تضاريس المهام.
04:30
And the obvious takeaway is to avoid careers at the waterfront --
81
270040
3335
والرسالة الواضحة هنا، هي تجنب الوظائف على الواجهة البحرية...
04:33
(Laughter)
82
273399
1257
(ضحك)
04:34
which will soon be automated and disrupted.
83
274680
2856
والتي ستصبح قريبا، وظائف آلية وغير متاحة.
04:37
But there's a much bigger question as well.
84
277560
2976
ولكن هناك أيضًا سؤال أكبر بكثير
04:40
How high will the water end up rising?
85
280560
1810
إلى أي مدى سترتفع المياه؟
04:43
Will it eventually rise to flood everything,
86
283440
3200
هل ستنتهي بإغراق كل شيء؟
04:47
matching human intelligence at all tasks.
87
287840
2496
وتوازي الذكاء البشري في كل المهام
04:50
This is the definition of artificial general intelligence --
88
290360
3736
هذا هو تعريف الذكاء الاصطناعي العام...
04:54
AGI,
89
294120
1296
أو ال(إيه جي آي)،
04:55
which has been the holy grail of AI research since its inception.
90
295440
3080
والذي يمثل الكأس المقدسة لأبحاث الذكاء الاصطناعي منذ نشأتها.
بحسب هذا التعريف الأشخاص الذين يقولون:
04:59
By this definition, people who say,
91
299000
1776
05:00
"Ah, there will always be jobs that humans can do better than machines,"
92
300800
3416
"آه، ستبقى هنالك دومًا تلك الأعمال التي يؤديها البشر أفضل من الآلات".
05:04
are simply saying that we'll never get AGI.
93
304240
2920
ببساطة يقولون إننا لن نحصل على الذكاء الاصطناعي العام.
05:07
Sure, we might still choose to have some human jobs
94
307680
3576
بالتأكيد، قد نختار الإبقاء على بعض الوظائف البشرية
05:11
or to give humans income and purpose with our jobs,
95
311280
3096
أو أن نمنح البشر الدخل والهدف من خلال الأعمال،
05:14
but AGI will in any case transform life as we know it
96
314400
3736
لكن الذكاء الاصطناعي العام على كل حال سوف يحول الحياة كما نعرفها
05:18
with humans no longer being the most intelligent.
97
318160
2736
إلى حياة حيث البشر ليسوا الأذكى.
05:20
Now, if the water level does reach AGI,
98
320920
3696
الآن، في حال وصل مستوى الماء إلى (إيه جي آي)
05:24
then further AI progress will be driven mainly not by humans but by AI,
99
324640
5296
فإن أي تقدم أكبر في الذكاء الاصطناعي لن يقوده البشر بل الذكاء الاصطناعي نفسه
05:29
which means that there's a possibility
100
329960
1856
مما يعني أن هنالك احتمال
05:31
that further AI progress could be way faster
101
331840
2336
بأن يصبح التقدم في الذكاء الاصطناعي أسرع بكثير
05:34
than the typical human research and development timescale of years,
102
334200
3376
من الأبحاث البشرية النموذجية والمقياس الزمني للتطور لسنوات،
05:37
raising the controversial possibility of an intelligence explosion
103
337600
4016
مثيرًا الاحتمالية المثيرة للجدل حول انفجار في مستوى الذكاء
05:41
where recursively self-improving AI
104
341640
2296
حيث الذكاء الاصطناعي المطور ذاتيًا بشكل متكرر
05:43
rapidly leaves human intelligence far behind,
105
343960
3416
يترك بسرعة الذكاء البشري وراءه بكثير،
05:47
creating what's known as superintelligence.
106
347400
2440
مبتكرًا ما يعرف بالذكاء الخارق.
05:51
Alright, reality check:
107
351800
2280
حسنا، لنتحقق من الواقع:
05:55
Are we going to get AGI any time soon?
108
355120
2440
هل سنحصل على (إيه جي آي) في أي وقت قريب؟
05:58
Some famous AI researchers, like Rodney Brooks,
109
358360
2696
بعض باحثي الذكاء الاصطناعي المشاهير مثل رودني بروكس
06:01
think it won't happen for hundreds of years.
110
361080
2496
يعتقدون بأن هذا لن يحدث لمئات السنين.
06:03
But others, like Google DeepMind founder Demis Hassabis,
111
363600
3896
لكن آخرين مثل مؤسس "جوجل ديب مايند" ديميس هاسابس
06:07
are more optimistic
112
367520
1256
أكثر تفاؤلا
06:08
and are working to try to make it happen much sooner.
113
368800
2576
ويعملون لجعلها تحدث في وقت أقرب بكثير.
06:11
And recent surveys have shown that most AI researchers
114
371400
3296
وإضافة إلى ذلك أظهرت دراسات أن أغلب باحثي الذكاء الاصطناعي
06:14
actually share Demis's optimism,
115
374720
2856
في الحقيقة يشاركون "ديميس" تفاؤله.
06:17
expecting that we will get AGI within decades,
116
377600
3080
متوقعين أننا سنحصل على الـ(إيه جي آي) في غضون عقود.
06:21
so within the lifetime of many of us,
117
381640
2256
أي خلال حياة العديد منا.
06:23
which begs the question -- and then what?
118
383920
1960
وهنا يطرح السؤال: ثم ماذا؟
06:27
What do we want the role of humans to be
119
387040
2216
ماذا نريد من البشر أن يفعلوا
06:29
if machines can do everything better and cheaper than us?
120
389280
2680
إذا استطاعت الآلات فعل كل شيء بشكل أفضل وأوفر منا؟
06:35
The way I see it, we face a choice.
121
395000
2000
أنا أرى بأننا أمام خيارين.
06:38
One option is to be complacent.
122
398000
1576
أحد الخيارات هو أن نكون راضين.
06:39
We can say, "Oh, let's just build machines that can do everything we can do
123
399600
3776
نستطيع أن نقول: "أوه، هيا لنبني آلات تستطيع عمل كل شيء نعمله
06:43
and not worry about the consequences.
124
403400
1816
ولا نقلق حول العواقب.
06:45
Come on, if we build technology that makes all humans obsolete,
125
405240
3256
إذا بنينا تكنولوجيا من شأنها جعل كل البشر عديمي الجدوى
06:48
what could possibly go wrong?"
126
408520
2096
ما العواقب التي يمكن أن تحدث؟"
06:50
(Laughter)
127
410640
1656
(ضحك)
06:52
But I think that would be embarrassingly lame.
128
412320
2760
ولكني أعتقد بأنه سيكون ضعفًا محرجًا.
06:56
I think we should be more ambitious -- in the spirit of TED.
129
416080
3496
أعتقد بأننا يجب أن نمتلك طموحًا أكبر، اقتداءً بTED.
06:59
Let's envision a truly inspiring high-tech future
130
419600
3496
دعونا نتصور مستقبلاً ملهمًا بتكنولوجيا عالية
07:03
and try to steer towards it.
131
423120
1400
ونحاول التوجه نحوه.
07:05
This brings us to the second part of our rocket metaphor: the steering.
132
425720
3536
هذا يأخذنا إلى الجزء الثاني من خطتنا الصاروخية: التوجيه.
07:09
We're making AI more powerful,
133
429280
1896
نحن نجعل الذكاء الاصطناعي أكثر قوة
07:11
but how can we steer towards a future
134
431200
3816
ولكن كيف يمكننا التوجه نحو المستقبل
07:15
where AI helps humanity flourish rather than flounder?
135
435040
3080
وجعل الذكاء الاصطناعي عونًا لازدهار البشرية عوضًا عن تعثرها؟
07:18
To help with this,
136
438760
1256
لتحقيق ذلك،
07:20
I cofounded the Future of Life Institute.
137
440040
1976
ساعدت ببناء مؤسسة "مستقبل الحياة"
07:22
It's a small nonprofit promoting beneficial technology use,
138
442040
2776
وهي جمعية خيرية لتعزيز استخدام التكنولوجيا المفيدة
07:24
and our goal is simply for the future of life to exist
139
444840
2736
وهدفنا ببساطة يتمثل في خلق مستقبل للحياة.
07:27
and to be as inspiring as possible.
140
447600
2056
وأن نكون ملهمين قدر الإمكان
07:29
You know, I love technology.
141
449680
3176
أتعلمون، أنا أحب التكنولوجيا.
07:32
Technology is why today is better than the Stone Age.
142
452880
2920
التكنولوجيا هي السبب في كون الحاضر أفضل من العصور الحجرية.
07:36
And I'm optimistic that we can create a really inspiring high-tech future ...
143
456600
4080
وأنا متفائل بأننا نستطيع ابتكار مستقبل تكنولوجي حديث مثير
07:41
if -- and this is a big if --
144
461680
1456
إذا...وهذا افتراض كبير...
07:43
if we win the wisdom race --
145
463160
2456
إذا كسبنا مسابقة الحكمة...
07:45
the race between the growing power of our technology
146
465640
2856
هذه المسابقة بين القوة النامية للتكنولوجيا
07:48
and the growing wisdom with which we manage it.
147
468520
2200
والحكمة النامية التي نديرها بها.
07:51
But this is going to require a change of strategy
148
471240
2296
ولكن هذا الفوز يتطلب تغييرًا في الاستراتيجية.
07:53
because our old strategy has been learning from mistakes.
149
473560
3040
لأن استراتيجيتنا القديمة مبنية على التعلم من الأخطاء.
07:57
We invented fire,
150
477280
1536
نحن اخترعنا النار،
07:58
screwed up a bunch of times --
151
478840
1536
أخفقنا عدة مرات...
08:00
invented the fire extinguisher.
152
480400
1816
ثم اخترعنا طفاية الحريق.
08:02
(Laughter)
153
482240
1336
(ضحك)
08:03
We invented the car, screwed up a bunch of times --
154
483600
2416
نحن اخترعنا السيارة، أخفقنا عدة مرات...
08:06
invented the traffic light, the seat belt and the airbag,
155
486040
2667
فاخترعنا إشارة المرور وحزام الأمان والوسادة الهوائية
08:08
but with more powerful technology like nuclear weapons and AGI,
156
488731
3845
ولكن مع تكنولوجيا أكثر قوة كالسلاح النووي والذكاء الاصطناعي،
08:12
learning from mistakes is a lousy strategy,
157
492600
3376
فالتعلم من الأخطاء استراتيجية سيئة،
08:16
don't you think?
158
496000
1216
أليس كذلك؟
08:17
(Laughter)
159
497240
1016
(ضحك)
08:18
It's much better to be proactive rather than reactive;
160
498280
2576
الأفضل هو أن تكون فاعلًا عوضًا عن كونك متفاعلًا،
08:20
plan ahead and get things right the first time
161
500880
2296
خطط مسبقًا وليكن كل شيء صحيحًا منذ المرة الأولى
08:23
because that might be the only time we'll get.
162
503200
2496
لأنها قد تكون الفرصة الوحيدة المتاحة لك.
08:25
But it is funny because sometimes people tell me,
163
505720
2336
ولكن الأمر مضحك لأن الناس يقولون لي في بعض الأحيان:
08:28
"Max, shhh, don't talk like that.
164
508080
2736
"ماكس، صه لا تتكلم هكذا.
08:30
That's Luddite scaremongering."
165
510840
1720
هذا ترهيب وتخويف أعداء التكنولوجيا".
08:34
But it's not scaremongering.
166
514040
1536
ولكنه ليس تخويفًا أو ترهيبًا.
08:35
It's what we at MIT call safety engineering.
167
515600
2880
إنه ما نطلق عليه في جامعة ماساتشوستس ب"الهندسة الآمنة".
08:39
Think about it:
168
519200
1216
فكروا بالأمر:
08:40
before NASA launched the Apollo 11 mission,
169
520440
2216
قبل أن تطلق ناسا مركبة أبولو 13،
08:42
they systematically thought through everything that could go wrong
170
522680
3136
فكروا بطريقة منظمة بكل خطأ محتمل حدوثه
08:45
when you put people on top of explosive fuel tanks
171
525840
2376
عندما تضع أشخاصًا على رأس خزانات وقود متفجرة
08:48
and launch them somewhere where no one could help them.
172
528240
2616
وترسلهم لمكان حيث لا يستطيع أحد مساعدتهم.
08:50
And there was a lot that could go wrong.
173
530880
1936
وكانت هناك الكثير من الأخطاء المحتملة.
08:52
Was that scaremongering?
174
532840
1480
هل كان ذلك تخويفًا وترهيبًا؟
08:55
No.
175
535159
1217
لا.
08:56
That's was precisely the safety engineering
176
536400
2016
لقد كان بالضبط "الهندسة الآمنة"
08:58
that ensured the success of the mission,
177
538440
1936
التي ضمنت نجاح المهمة.
09:00
and that is precisely the strategy I think we should take with AGI.
178
540400
4176
وهذه بالتحديد الاستراتيجية التي أعتقد بوجوب اتخاذها مع الذكاء الاصطناعي
09:04
Think through what can go wrong to make sure it goes right.
179
544600
4056
فكر بكل خطأ يحتمل أن يحدث لتتأكد من فعل الأمر بالشكل الصحيح.
09:08
So in this spirit, we've organized conferences,
180
548680
2536
وبهذا الفكر، نظمنا مؤتمرات
09:11
bringing together leading AI researchers and other thinkers
181
551240
2816
لجمع قادة باحثي الذكاء الاصطناعي والمفكرين الآخرين
09:14
to discuss how to grow this wisdom we need to keep AI beneficial.
182
554080
3736
لمناقشة كيفية تنمية هذه الفلسفة التي نحتاجها لجعل الذكاء الاصناعي مفيدًا.
09:17
Our last conference was in Asilomar, California last year
183
557840
3296
عُقد آخر مؤتمر السنة الماضية في أسيلمار، كالفورنيا
09:21
and produced this list of 23 principles
184
561160
3056
وقُدِّمت خلاله قائمة بثلاثة وعشرين مبدأ
09:24
which have since been signed by over 1,000 AI researchers
185
564240
2896
وقَّع عليها أكثر من ألف باحث في الذكاء الاصطناعي
09:27
and key industry leaders,
186
567160
1296
والقادة في هذه الصناعة.
09:28
and I want to tell you about three of these principles.
187
568480
3176
وأريد أن أخبركم عن ثلاثة من هذه المبادئ.
09:31
One is that we should avoid an arms race and lethal autonomous weapons.
188
571680
4960
أحدها هو أنه يجدر بنا تجنب سباق التسلح والأسلحة الذاتية القاتلة.
09:37
The idea here is that any science can be used for new ways of helping people
189
577480
3616
الفكرة هنا هو أن أي علم يمكن استخدامه كطرق جديدة في خدمة البشر،
09:41
or new ways of harming people.
190
581120
1536
أو كطرق جديدة في إيذاء البشر.
09:42
For example, biology and chemistry are much more likely to be used
191
582680
3936
على سبيل المثال: الأحياء والكيمياء تُستخدم عادةً
09:46
for new medicines or new cures than for new ways of killing people,
192
586640
4856
في العلاج والأدوية الجديدة أكثر من استخدامها في الطرق الجديدة لقتل البشر.
09:51
because biologists and chemists pushed hard --
193
591520
2176
لأن علماء الأحياء والكيمياء حاربوا بقوة
09:53
and successfully --
194
593720
1256
وبنجاح
09:55
for bans on biological and chemical weapons.
195
595000
2176
لحظر وإدانة الأسلحة الكيميائية والبيولوجية
09:57
And in the same spirit,
196
597200
1256
وبنفس الفكر،
09:58
most AI researchers want to stigmatize and ban lethal autonomous weapons.
197
598480
4440
يريد باحثو الذكاء الاصطناعي إدانة وحظر الأسلحة القاتلة الذاتية.
10:03
Another Asilomar AI principle
198
603600
1816
ومن مبادئ أسيلمار للذكاء الاصطناعي
10:05
is that we should mitigate AI-fueled income inequality.
199
605440
3696
هو وجوب تخفيف عدم المساواة في الدخل المرتبط بالذكاء الاصطناعي
10:09
I think that if we can grow the economic pie dramatically with AI
200
609160
4456
أعتقد بأنه إذا استطعنا تنمية الكعكة الاقتصادية بشكل كبير مع الذكاء الاصطناعي
10:13
and we still can't figure out how to divide this pie
201
613640
2456
وما زلنا لا نستطيع معرفة كيفية توزيع هذه الكعكة
10:16
so that everyone is better off,
202
616120
1576
بحيث يكون الجميع بحال أفضل،
10:17
then shame on us.
203
617720
1256
فعارٌ علينا!
10:19
(Applause)
204
619000
4096
(تصفيق)
10:23
Alright, now raise your hand if your computer has ever crashed.
205
623120
3600
حسنًا، الآن ارفعوا أيديكم في حال تعطل حاسوبكم أحد المرات.
10:27
(Laughter)
206
627480
1256
(ضحك)
10:28
Wow, that's a lot of hands.
207
628760
1656
واو، هذه أيدٍ كثيرة.
10:30
Well, then you'll appreciate this principle
208
630440
2176
حسنًا، إذن ستقدرون هذا المبدأ
10:32
that we should invest much more in AI safety research,
209
632640
3136
والذي يقتضي زيادة الاستثمار في أبحاث أمان الذكاء الاصطناعي،
10:35
because as we put AI in charge of even more decisions and infrastructure,
210
635800
3656
لأننا إذا جعلنا الذكاء الاصطناعي مسؤولًا عن البنية التحتية وعن قرارات أكثر،
10:39
we need to figure out how to transform today's buggy and hackable computers
211
639480
3616
سنحتاج لمعرفة كيفية نقل مركبات الحواسيب القابلة للاختراق اليوم
10:43
into robust AI systems that we can really trust,
212
643120
2416
إلى روبورتات ذكية بشكل نستطيع معه الثقة بها،
10:45
because otherwise,
213
645560
1216
لأنه بخلاف ذلك،
10:46
all this awesome new technology can malfunction and harm us,
214
646800
2816
فكل التكنولوجيا الجديدة المدهشة قد تتعطل وتؤذينا،
10:49
or get hacked and be turned against us.
215
649640
1976
أو تُخترَق وتُقلب ضدنا.
10:51
And this AI safety work has to include work on AI value alignment,
216
651640
5696
ونظام الأمان هذا يجب أن يشمل العمل على القيم المحايدة،
10:57
because the real threat from AGI isn't malice,
217
657360
2816
لأن التهديد الأكبر من الذكاء الاصطناعي العام ليس الإيذاء،
11:00
like in silly Hollywood movies,
218
660200
1656
كما في أفلام هوليوود التافهة،
11:01
but competence --
219
661880
1736
بل المنافسة...
11:03
AGI accomplishing goals that just aren't aligned with ours.
220
663640
3416
(إيه جي آي) يحقق أهدافًا لا تتماشى معنا.
11:07
For example, when we humans drove the West African black rhino extinct,
221
667080
4736
على سبيل المثال: عندما تسببنا نحن البشر بانقراض وحيد القرن بغرب أفريقيا،
11:11
we didn't do it because we were a bunch of evil rhinoceros haters, did we?
222
671840
3896
لم نفعلها لأننا كنا أشرار كارهين لوحيد القرن، أليس كذلك؟
11:15
We did it because we were smarter than them
223
675760
2056
لقد فعلنا ذلك لأننا أذكى منهم
11:17
and our goals weren't aligned with theirs.
224
677840
2576
وأهدافنا لم تتماشى مع أهدافهم.
11:20
But AGI is by definition smarter than us,
225
680440
2656
ولكن الذكاء الاصطناعي العام أذكى منا،
11:23
so to make sure that we don't put ourselves in the position of those rhinos
226
683120
3576
ولذلك لنتأكد بأننا لم نضع أنفسنا في موقف وحيدي القرن
11:26
if we create AGI,
227
686720
1976
عند صنعنا للذكاء الاصطناعي العام،
11:28
we need to figure out how to make machines understand our goals,
228
688720
4176
سنحتاج لمعرفة كيف نصنع آلات تفهم أهدافنا،
11:32
adopt our goals and retain our goals.
229
692920
3160
تتبنى أهدافنا وتحتفظ بها.
11:37
And whose goals should these be, anyway?
230
697320
2856
وأهداف من يجب أن تكون هذه الأهداف؟
11:40
Which goals should they be?
231
700200
1896
أي أهداف ستكون هي الأهداف المرغوبة؟
11:42
This brings us to the third part of our rocket metaphor: the destination.
232
702120
3560
هذا يأخذنا إلى الجزء الثالث وهو: الوجهة.
11:47
We're making AI more powerful,
233
707160
1856
نحن نجعل الذكاء الاصطناعي أكثر قوة،
11:49
trying to figure out how to steer it,
234
709040
1816
ونحاول أن نعرف كيف نوجهه،
11:50
but where do we want to go with it?
235
710880
1680
ولكن أين نريد التوجه به؟
11:53
This is the elephant in the room that almost nobody talks about --
236
713760
3656
هذا هو "الفيل الذي بالغرفة" الذي لا يريد أحد التحدث عنه...
11:57
not even here at TED --
237
717440
1856
حتى هنا في TED...
11:59
because we're so fixated on short-term AI challenges.
238
719320
4080
لأننا نركز اهتمامنا على تحديات الذكاء الاصطناعي قصيرة المدى.
12:04
Look, our species is trying to build AGI,
239
724080
4656
انظروا، أمثالنا يحاولون بناء الذكاء الاصطناعي العام
12:08
motivated by curiosity and economics,
240
728760
3496
يدفعهم لذلك حب الاستطلاع والربح
12:12
but what sort of future society are we hoping for if we succeed?
241
732280
3680
ولكن ما هو المجتمع المستقبلي الذي نريد بناءه إذا نجحنا؟
12:16
We did an opinion poll on this recently,
242
736680
1936
عملنا استطلاع رأي مؤخرًا بهذا الشأن،
12:18
and I was struck to see
243
738640
1216
وقد كنت مندهشًا لرؤية
12:19
that most people actually want us to build superintelligence:
244
739880
2896
أن غالبية الأشخاص أرادوا أن نبني الذكاء الخارق:
12:22
AI that's vastly smarter than us in all ways.
245
742800
3160
الذكاء الاصطناعي الذي يفوقنا ذكاءً بمراحل كثيرة.
12:27
What there was the greatest agreement on was that we should be ambitious
246
747120
3416
وكان هناك اتفاق عظيم في الرأي يقتضي أنه يجب علينا أن نكون طموحين
12:30
and help life spread into the cosmos,
247
750560
2016
ونساعد في نشر الحياة بالكون،
12:32
but there was much less agreement about who or what should be in charge.
248
752600
4496
ولكن كان هناك اتفاق أقل بكثير حول من سيكون مسؤولاً عنه.
12:37
And I was actually quite amused
249
757120
1736
وحقيقةً لقد كنت مستمتعًا
12:38
to see that there's some some people who want it to be just machines.
250
758880
3456
برؤية أن هناك عدد من الأشخاص أرادوا أن تكون الآلات فقط هي المسؤولة.
12:42
(Laughter)
251
762360
1696
(ضحك)
12:44
And there was total disagreement about what the role of humans should be,
252
764080
3856
وكان هناك اختلاف كبير في الآراء حول دور البشر المستقبلي،
12:47
even at the most basic level,
253
767960
1976
حتى في المستويات الأساسية،
12:49
so let's take a closer look at possible futures
254
769960
2816
لذلك دعونا نلقي نظرة على المستقبل المحتمل
12:52
that we might choose to steer toward, alright?
255
772800
2736
الذي قد نتجه نحوه، حسنًا؟
12:55
So don't get me wrong here.
256
775560
1336
لا تفهموني بشكل خاطئ.
12:56
I'm not talking about space travel,
257
776920
2056
لست أتحدث عن السفر عبر الفضاء،
12:59
merely about humanity's metaphorical journey into the future.
258
779000
3200
بل حول رحلة البشر المجازية تجاه المستقبل.
13:02
So one option that some of my AI colleagues like
259
782920
3496
أحد الخيارات والذي أعجب أحد زملائي
13:06
is to build superintelligence and keep it under human control,
260
786440
3616
يقتضي أن نبني الذكاء الخارق ونجعله تحت سيطرة البشر،
13:10
like an enslaved god,
261
790080
1736
كإله مستعبَد،
13:11
disconnected from the internet
262
791840
1576
بحيث يكون مفصولًا عن الإنترنت
13:13
and used to create unimaginable technology and wealth
263
793440
3256
ويستخدم لخلق تكنولوجيا وثروة هائلة
13:16
for whoever controls it.
264
796720
1240
لصالح من يديرها.
13:18
But Lord Acton warned us
265
798800
1456
ولكن لورد أكتون حذرنا
13:20
that power corrupts, and absolute power corrupts absolutely,
266
800280
3616
من أن السلطة قد تخلق الفساد والسلطة المطلقة ستخلق الفساد بلا شك،
13:23
so you might worry that maybe we humans just aren't smart enough,
267
803920
4056
لذلك قد يثير ذلك القلق حول عدم امتلاك البشر للذكاء الكافي،
13:28
or wise enough rather,
268
808000
1536
أو الحكمة الكافية،
13:29
to handle this much power.
269
809560
1240
للتحكم في هذه السلطة والقوة.
13:31
Also, aside from any moral qualms you might have
270
811640
2536
أيضًا بجانب تأنيب الضمير الذي قد تشعر به
13:34
about enslaving superior minds,
271
814200
2296
حول استعباد عقول خارقة،
13:36
you might worry that maybe the superintelligence could outsmart us,
272
816520
3976
يجب عليك أن تقلق حول إمكانية تفوّق الذكاء الصناعي الخارق علينا،
13:40
break out and take over.
273
820520
2240
ثم يستقل ويتولى الأمور.
13:43
But I also have colleagues who are fine with AI taking over
274
823560
3416
ولكن بعض زملائي متصالحون مع فكرة تولي الذكاء الصناعي القيادة
13:47
and even causing human extinction,
275
827000
2296
بل وحتى إمكانية تسببه بانقراض البشر،
13:49
as long as we feel the the AIs are our worthy descendants,
276
829320
3576
ما دمنا نشعر أن أنظمة الذكاء الاصطناعي هي ورثتنا الكفؤ،
13:52
like our children.
277
832920
1736
كأبنائنا.
13:54
But how would we know that the AIs have adopted our best values
278
834680
5616
ولكن كيف نعرف أن هذه الأنظمة تمتلك أفضل قيمنا
14:00
and aren't just unconscious zombies tricking us into anthropomorphizing them?
279
840320
4376
وليست مجرد زومبي غير واع يلاحقنا لتجسيده؟
14:04
Also, shouldn't those people who don't want human extinction
280
844720
2856
أيضًا، ألا يمتلك هؤلاء الذين لا يريدون فناء البشر
14:07
have a say in the matter, too?
281
847600
1440
رأيًا حول المسألة؟
14:10
Now, if you didn't like either of those two high-tech options,
282
850200
3376
الآن إذا لم تعجبك خيارات التكنولوجيا المتقدمة،
14:13
it's important to remember that low-tech is suicide
283
853600
3176
فمن المهم أن تتذكر بأن التكنولوجيا البسيطة انتحار
14:16
from a cosmic perspective,
284
856800
1256
من منطلق كوني،
14:18
because if we don't go far beyond today's technology,
285
858080
2496
لأنه إذا لم نتجاوز تكنولوجيا اليوم،
14:20
the question isn't whether humanity is going to go extinct,
286
860600
2816
فإن السؤال لن يكون حول إمكانية انقراض البشر،
14:23
merely whether we're going to get taken out
287
863440
2016
بل حول إمكانية إخراجنا من النظام الكوني
14:25
by the next killer asteroid, supervolcano
288
865480
2136
بواسطة الكويكبات القاتلة والبراكين الضخمة
14:27
or some other problem that better technology could have solved.
289
867640
3096
أو مشاكل أخرى تستطيع التكنولوجيا الحديثة معالجتها.
14:30
So, how about having our cake and eating it ...
290
870760
3576
لذلك ماذا عن الحصول على كعكتنا ثم تناولها
14:34
with AGI that's not enslaved
291
874360
1840
مع ذكاء اصطناعي خارق وغير مستعبد
14:37
but treats us well because its values are aligned with ours?
292
877120
3176
ولكن يعاملنا جيدًا لأن لديه قيمًا تتماشى مع قيمنا؟
14:40
This is the gist of what Eliezer Yudkowsky has called "friendly AI,"
293
880320
4176
هذا خلاصة ما كان يدعوه إيليزر يودكاوسكي بـ"الذكاء الاصطناعي اللطيف"
14:44
and if we can do this, it could be awesome.
294
884520
2680
وإذا استطعنا القيام بهذا الأمر فسيكون أمرًا رائعًا.
14:47
It could not only eliminate negative experiences like disease, poverty,
295
887840
4816
فلن يقضي على الأمور السلبية فقط كالأمراض والفقر
14:52
crime and other suffering,
296
892680
1456
والجرائم والمعاناة،
14:54
but it could also give us the freedom to choose
297
894160
2816
بل قد تعطينا حرية الاختيار
14:57
from a fantastic new diversity of positive experiences --
298
897000
4056
من تنوع جديد وعظيم لتجارب إيجابية...
15:01
basically making us the masters of our own destiny.
299
901080
3160
فتجعلنا ببساطة أسياد على مصائرنا.
15:06
So in summary,
300
906280
1376
خلاصة الأمر،
15:07
our situation with technology is complicated,
301
907680
3096
علاقتنا بالتكنولوجيا معقدة،
15:10
but the big picture is rather simple.
302
910800
2416
ولكن الصورة العامة بسيطة.
15:13
Most AI researchers expect AGI within decades,
303
913240
3456
يتنبأ غالبية الباحثين بحدوث الذكاء الاصطناعي الخارق خلال عقود،
15:16
and if we just bumble into this unprepared,
304
916720
3136
وإذا مشينا تجاه هذا الحدث بتخبط وعدم استعداد،
15:19
it will probably be the biggest mistake in human history --
305
919880
3336
سيكون أكبر خطأ نرتكبه في تاريخ البشرية...
15:23
let's face it.
306
923240
1416
دعونا نواجه الأمر.
15:24
It could enable brutal, global dictatorship
307
924680
2576
قد تسمح بظهور دكتاتورية وحشية عالميًا
15:27
with unprecedented inequality, surveillance and suffering,
308
927280
3536
مع عدم مساواة غير مسبوقة ورقابة ومعاناة،
15:30
and maybe even human extinction.
309
930840
1976
بل وربما يمتد الأمر لانقراض البشر.
15:32
But if we steer carefully,
310
932840
2320
ولكن إذا تحركنا بحذر،
15:36
we could end up in a fantastic future where everybody's better off:
311
936040
3896
قد ينتهي بنا الأمر في مستقبل رائع حيث يتحسن حال الجميع:
15:39
the poor are richer, the rich are richer,
312
939960
2376
يغتني الفقراء ويزداد الأغنياء ثراءً،
15:42
everybody is healthy and free to live out their dreams.
313
942360
3960
الجميع صحيون ويعيشون أحلامهم.
15:47
Now, hang on.
314
947000
1536
ولكن تمهلوا.
15:48
Do you folks want the future that's politically right or left?
315
948560
4576
هل تريدون أيها القوم مستقبلاً يساريًّا سياسيًا أم يمينيًّا؟
15:53
Do you want the pious society with strict moral rules,
316
953160
2856
هل تريدون مجتمعًا متدينًا بقواعد أخلاقية صارمة
15:56
or do you an hedonistic free-for-all,
317
956040
1816
أم تريدون حرية المتع والشهوات للجميع،
15:57
more like Burning Man 24/7?
318
957880
2216
كمهرجان الرجل المحترق؟
16:00
Do you want beautiful beaches, forests and lakes,
319
960120
2416
هل تريدون شواطئ جميلة وغابات وبحيرات،
16:02
or would you prefer to rearrange some of those atoms with the computers,
320
962560
3416
أم تفضلون إعادة ترتيب بعض تلك الذرات مع أجهزة الكمبيوتر،
16:06
enabling virtual experiences?
321
966000
1715
وتمكين الخبرات الافتراضية؟
16:07
With friendly AI, we could simply build all of these societies
322
967739
3157
مع الذكاء الاصطناعي الصديق نستطيع ببساطة بناء كل هذه المجتمعات
16:10
and give people the freedom to choose which one they want to live in
323
970920
3216
وإعطاء الأشخاص حرية اختيار أي منها للعيش فيه
16:14
because we would no longer be limited by our intelligence,
324
974160
3096
لأننا لن نعود محدودين بمقدار الذكاء الذي نمتلكه،
16:17
merely by the laws of physics.
325
977280
1456
بل بقوانين الفيزياء فقط.
16:18
So the resources and space for this would be astronomical --
326
978760
4616
ولذلك فإن الموارد والمساحة لهذا المشروع ستكون ضخمة...
16:23
literally.
327
983400
1320
فعليًا.
16:25
So here's our choice.
328
985320
1200
وسيكون هذا خيارنا.
16:27
We can either be complacent about our future,
329
987880
2320
إما أن نرضى بمستقبلنا،
16:31
taking as an article of blind faith
330
991440
2656
ونؤمن بشكل أعمى
16:34
that any new technology is guaranteed to be beneficial,
331
994120
4016
بأن أي تكنولوجيا جديدة لابد وأن تكون مفيدة
16:38
and just repeat that to ourselves as a mantra over and over and over again
332
998160
4136
ونكرر ذلك على أنفسنا، مرارًا وتكرارًا كتعويذة ما
16:42
as we drift like a rudderless ship towards our own obsolescence.
333
1002320
3680
ونحن ننجرف كسفينة بلا دفة تجاه هلاكنا.
16:46
Or we can be ambitious --
334
1006920
1880
أو نستطيع أن نكون طموحين...
16:49
thinking hard about how to steer our technology
335
1009840
2456
ونفكر بعمق حول كيفية توجيه التكنولوجيا
16:52
and where we want to go with it
336
1012320
1936
وأين نريد الذهاب بها
16:54
to create the age of amazement.
337
1014280
1760
لخلق عصر مدهش.
16:57
We're all here to celebrate the age of amazement,
338
1017000
2856
نحن هنا جميعًا لنحتفل بعصر الدهشة،
16:59
and I feel that its essence should lie in becoming not overpowered
339
1019880
4440
وأشعر بأن جوهره يجب أن يكمن في عدم المبالغة بامتلاك القوة
17:05
but empowered by our technology.
340
1025240
2616
وأن تكون القوة بواسطة التكنولوجيا.
17:07
Thank you.
341
1027880
1376
شكرًا لكم.
17:09
(Applause)
342
1029280
3080
(تصفيق)
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7