Don't fear superintelligent AI | Grady Booch

270,465 views ・ 2017-03-13

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: Mohamad Alhaddad المدقّق: Hussain Laghabi
00:12
When I was a kid, I was the quintessential nerd.
0
12580
3840
عندما كنت صغيراً، كنت شغوفاً بالدراسة
00:17
I think some of you were, too.
1
17140
2176
أظن أن بعضاً منكم كان كذلك، أيضاًً.
00:19
(Laughter)
2
19340
1216
(ضحك)
00:20
And you, sir, who laughed the loudest, you probably still are.
3
20580
3216
و أنت يا سيدي، الذي ضحكت بشدة، من المحتمل أنك مازلت كذلك.
00:23
(Laughter)
4
23820
2256
(ضحك)
00:26
I grew up in a small town in the dusty plains of north Texas,
5
26100
3496
لقد عشت في بلدة صغيرة في أحد ضواحي نورث تكساس،
00:29
the son of a sheriff who was the son of a pastor.
6
29620
3336
كوني ولداً لضابط في الشرطة وهو حفيد لقس.
00:32
Getting into trouble was not an option.
7
32980
1920
فإن الوقوع في المشاكل لم يكن من خياراتي.
00:35
And so I started reading calculus books for fun.
8
35860
3256
فبدأت بقراءة كتب الرياضيات للترفيه.
00:39
(Laughter)
9
39140
1536
(ضحك)
00:40
You did, too.
10
40700
1696
أنتم فعلتم ذلك، أيضاً.
00:42
That led me to building a laser and a computer and model rockets,
11
42420
3736
قادني ذلك لعمل ليزر وحاسوب ونماذج صواريخ،
00:46
and that led me to making rocket fuel in my bedroom.
12
46180
3000
فأنشأت ورشة صواريخ في غرفة نومي.
00:49
Now, in scientific terms,
13
49780
3656
الآن، علمياً،
00:53
we call this a very bad idea.
14
53460
3256
نسمي هذه بالفكرة السيئة جداً.
00:56
(Laughter)
15
56740
1216
(ضحك)
00:57
Around that same time,
16
57980
2176
في ذلك الوقت،
01:00
Stanley Kubrick's "2001: A Space Odyssey" came to the theaters,
17
60180
3216
رواية ستاني كوبورز "ملحمة الفضاء" أصبحت في دور العرض،
01:03
and my life was forever changed.
18
63420
2200
وبذلك تغيرت حياتي للأبد.
01:06
I loved everything about that movie,
19
66100
2056
لقد أحببت كل شيء في ذلك الفلم،
01:08
especially the HAL 9000.
20
68180
2536
خصوصي "هال" 9000.
01:10
Now, HAL was a sentient computer
21
70740
2056
"هال" كان حاسوباً واعياً
01:12
designed to guide the Discovery spacecraft
22
72820
2456
مصمماً لقيادة سفينة الاستكشاف
01:15
from the Earth to Jupiter.
23
75300
2536
من الأرض إلى المشترى.
01:17
HAL was also a flawed character,
24
77860
2056
"هال" كان شخصيةً سيئة،
01:19
for in the end he chose to value the mission over human life.
25
79940
4280
في النهاية لقد اختار إتمام المهمة عوضاً عن إنقاذ البشرية.
01:24
Now, HAL was a fictional character,
26
84660
2096
"هال" كان شخصيةً خياليََة،
01:26
but nonetheless he speaks to our fears,
27
86780
2656
لكن ومع ذلك لقد تحاكى مع مخاوفنا،
01:29
our fears of being subjugated
28
89460
2096
مخاوفنا في التعامل مع
01:31
by some unfeeling, artificial intelligence
29
91580
3016
ذكاء اصطناعي عديم المشاعر
01:34
who is indifferent to our humanity.
30
94620
1960
لا يختلف عنا نحن البشر.
01:37
I believe that such fears are unfounded.
31
97700
2576
أنا أؤمن بأن هذه المخاوف لا وجود لها.
01:40
Indeed, we stand at a remarkable time
32
100300
2696
في الواقع، نحن نعيش وقتاً مميزاً
01:43
in human history,
33
103020
1536
في تاريخ البشريََة،
01:44
where, driven by refusal to accept the limits of our bodies and our minds,
34
104580
4976
حيث نسير رافضين وضع حدود لقدراتنا العقلية والجسدية،
01:49
we are building machines
35
109580
1696
نقوم ببناء آلات
01:51
of exquisite, beautiful complexity and grace
36
111300
3616
ذات تعقيد وأداء رائعين وجميلين
01:54
that will extend the human experience
37
114940
2056
ستسهم في توسيع المعرفة البشريََة
01:57
in ways beyond our imagining.
38
117020
1680
لمراحل لا يمكن تصورها.
01:59
After a career that led me from the Air Force Academy
39
119540
2576
عبر خبرتي المهنية من الكلية الجوية
02:02
to Space Command to now,
40
122140
1936
إلى توجيه سفن الفضاء، إلى الوقت الحالي،
02:04
I became a systems engineer,
41
124100
1696
أصبحت مهندس أنظمة،
02:05
and recently I was drawn into an engineering problem
42
125820
2736
ومؤخراً تم توكيلي بمهمة حل مشكلة هندسية
02:08
associated with NASA's mission to Mars.
43
128580
2576
متعلََقة بعملية وكالة الفضاء "ناسا" في المريخ.
02:11
Now, in space flights to the Moon,
44
131180
2496
حالياً، في الرحلات الفضائية إلى القمر،
02:13
we can rely upon mission control in Houston
45
133700
3136
يمكننا الإعتماد على نظام الملاحة المسمََى "هيوستون"
02:16
to watch over all aspects of a flight.
46
136860
1976
لمتابعة كافة تفاصيل الرحلة.
02:18
However, Mars is 200 times further away,
47
138860
3536
ولكن المريخ يبعد مئتي ضعف مقارنة بالقمر،
02:22
and as a result it takes on average 13 minutes
48
142420
3216
وبالتالي نحتاج في المتوسط ل 13 دقيقة
02:25
for a signal to travel from the Earth to Mars.
49
145660
3136
لتنتقل الإشارة من الأرض إلى المريخ،
02:28
If there's trouble, there's not enough time.
50
148820
3400
وإذا ما حدثت مشكلة، لا يوجد وقت كاف لتفاديها.
02:32
And so a reasonable engineering solution
51
152660
2496
ولذلك فإن الحل الهندسي الأكثر فائدة
02:35
calls for us to put mission control
52
155180
2576
يدعونا لوضع جهاز توجيه للحركة (جهاز ملاحة)
02:37
inside the walls of the Orion spacecraft.
53
157780
3016
داخل جدران المركبة الفضائية.
02:40
Another fascinating idea in the mission profile
54
160820
2896
وفكرة أخرى جميلة تصب في مجال أداء العملية
02:43
places humanoid robots on the surface of Mars
55
163740
2896
هي إرسال رجال آليين ووضعهم فوق سطح المريخ
02:46
before the humans themselves arrive,
56
166660
1856
قبل وصول البشر بنفسهم إلى هناك،
02:48
first to build facilities
57
168540
1656
أولاً لتقديم بعض التسهيلات
02:50
and later to serve as collaborative members of the science team.
58
170220
3360
ومن ثمََ كأعضاء متعاونين في الفريق العلمي.
02:55
Now, as I looked at this from an engineering perspective,
59
175220
2736
حالياًً عندما أتمعن في هذه الفكرة من منظور هندسي،
02:57
it became very clear to me that what I needed to architect
60
177980
3176
فإنني أرى بشكل واضح أن ما أخطط له
03:01
was a smart, collaborative,
61
181180
2176
هو حل ذكي، متعاون،
03:03
socially intelligent artificial intelligence.
62
183380
2376
يتمتع بالذكاء الاصطناعي والاجتماعي.
03:05
In other words, I needed to build something very much like a HAL
63
185780
4296
بعبارة أخرى، أريد بناء ما يشبه "هال" إلى حد كبير
03:10
but without the homicidal tendencies.
64
190100
2416
ولكن بدون أن يكون له نزعات للقتل.
03:12
(Laughter)
65
192540
1360
(ضحك)
03:14
Let's pause for a moment.
66
194740
1816
لنتوقف للحظة.
03:16
Is it really possible to build an artificial intelligence like that?
67
196580
3896
هل من الممكن بناء نظام ذكي مثل هذا؟
03:20
Actually, it is.
68
200500
1456
في الواقع، أجل.
03:21
In many ways,
69
201980
1256
بتصورات مختلفة،
03:23
this is a hard engineering problem
70
203260
1976
إن هذه مشكلة هندسية صعبة
03:25
with elements of AI,
71
205260
1456
تضمن عناصر ذكاء اصطناعي،
03:26
not some wet hair ball of an AI problem that needs to be engineered.
72
206740
4696
ليست مجرد مسألة ذكاء اصطناعي بسيطة يمكن إنشاؤها.
03:31
To paraphrase Alan Turing,
73
211460
2656
كما ورد عن "آلان تورنج"،
03:34
I'm not interested in building a sentient machine.
74
214140
2376
أنا لست مهتما بآلة ذات إحساس.
03:36
I'm not building a HAL.
75
216540
1576
أنا لا أقوم بصناعة "هال".
03:38
All I'm after is a simple brain,
76
218140
2416
كل ما أريد إنجازه هو مجرد عقل بسيط،
03:40
something that offers the illusion of intelligence.
77
220580
3120
يمكنه تقديم هذا الذكاء الخيالي.
03:44
The art and the science of computing have come a long way
78
224820
3136
إن علوم وفنون الحاسوب قد أثمرت في نهاية المطاف
03:47
since HAL was onscreen,
79
227980
1496
منذ ظهور "هال" على الشاشة،
03:49
and I'd imagine if his inventor Dr. Chandra were here today,
80
229500
3216
وأظن في حال وجود المخترع الدكتور "شاندرو" هنا اليوم،
03:52
he'd have a whole lot of questions for us.
81
232740
2336
فإنه سوف يكون لديه العديد من التساؤلات.
03:55
Is it really possible for us
82
235100
2096
هل بالفعل يمكننا
03:57
to take a system of millions upon millions of devices,
83
237220
4016
تكوين نظام يحوي ملايين ملايين الأجهزة،
04:01
to read in their data streams,
84
241260
1456
يمكنه قراءة معطياتها،
04:02
to predict their failures and act in advance?
85
242740
2256
التنبؤ بحالات حصول الخطأ، و التصرف قبل وقوعه؟
04:05
Yes.
86
245020
1216
أجل.
04:06
Can we build systems that converse with humans in natural language?
87
246260
3176
هل يمكننا بناء نظام يمكنه التحاكي مع البشر بلغاتهم؟
04:09
Yes.
88
249460
1216
أجل.
04:10
Can we build systems that recognize objects, identify emotions,
89
250700
2976
هل يمكننا بناء أنظمة يمكنها التعرف على الأجسام، وعلى حركتها،
04:13
emote themselves, play games and even read lips?
90
253700
3376
والشعور بأنفسها، أو اللعب بألعاب الحاسب وقراءة حركة الشفاه؟
04:17
Yes.
91
257100
1216
أجل.
04:18
Can we build a system that sets goals,
92
258340
2136
هل يمكننا بناء نظام يضع أهدافاًً لنفسه،
04:20
that carries out plans against those goals and learns along the way?
93
260500
3616
يتوجب الوصول إليها وضع خطط يتعلمها حتى يصل هدفه؟
04:24
Yes.
94
264140
1216
أجل.
04:25
Can we build systems that have a theory of mind?
95
265380
3336
هل يمكننا بناء أنظمة تستطيع التفكير؟
04:28
This we are learning to do.
96
268740
1496
هذا ما نقوم بالتعلم لإنجازه.
04:30
Can we build systems that have an ethical and moral foundation?
97
270260
3480
هل يمكننا بناء أنظمة ذات اعتقادات أدبية وخُلقية؟
04:34
This we must learn how to do.
98
274300
2040
هذا ما يتوجب علينا تعلم كيفية إنجازه.
04:37
So let's accept for a moment
99
277180
1376
إذا، لنتقبَََل حالياً
04:38
that it's possible to build such an artificial intelligence
100
278580
2896
القدرة على بناء نظام كهذا
04:41
for this kind of mission and others.
101
281500
2136
من أجل مهمة كهذه وغيرها.
04:43
The next question you must ask yourself is,
102
283660
2536
السؤال الآخر الذي ينبغي عليكم سؤاله هو،
04:46
should we fear it?
103
286220
1456
هل ينبغي علينا الخوف منه؟
04:47
Now, every new technology
104
287700
1976
حسناً، كل تقنية جديدة
04:49
brings with it some measure of trepidation.
105
289700
2896
تجلب معها شيئاً من الريبة.
04:52
When we first saw cars,
106
292620
1696
عندما رأينا السيارات لأول مرة،
04:54
people lamented that we would see the destruction of the family.
107
294340
4016
توقع البشر حدوث دمار للعائلة.
04:58
When we first saw telephones come in,
108
298380
2696
عندما رأينا الهواتف لأول مرة،
05:01
people were worried it would destroy all civil conversation.
109
301100
2896
قلق الناس من قيامها بإنهاء المحادثات الشخصية.
05:04
At a point in time we saw the written word become pervasive,
110
304020
3936
في الماضي عندما انتشرت الكلمة المكتوبة،
05:07
people thought we would lose our ability to memorize.
111
307980
2496
ظن البشر أننا سنفقد قدرتنا على التذكر.
05:10
These things are all true to a degree,
112
310500
2056
هذه التنبؤات واقعية لحد معين،
05:12
but it's also the case that these technologies
113
312580
2416
ولكن هذه التقنيات
05:15
brought to us things that extended the human experience
114
315020
3376
جلبت لنا ما زاد خبرتنا كبشر
05:18
in some profound ways.
115
318420
1880
بطرقٍ عميقة.
05:21
So let's take this a little further.
116
321660
2280
لنتوسع في هذه النقطة بعض الشيء.
05:24
I do not fear the creation of an AI like this,
117
324940
4736
أنا لا أخاف من بناء أنظمة ذكاء اصطناعي كهذه،
05:29
because it will eventually embody some of our values.
118
329700
3816
ﻷنها بالنتيجة ستقوم باستعمال معاييرنا.
05:33
Consider this: building a cognitive system is fundamentally different
119
333540
3496
لنأخذ بعين الاعتبار أن بناء نظام واع يختلف تماماً
05:37
than building a traditional software-intensive system of the past.
120
337060
3296
عن بناء النظام التقليدي المعقد في الماضي.
05:40
We don't program them. We teach them.
121
340380
2456
نحن لا نقوم ببرمجتها، نحن نعلِِمها.
05:42
In order to teach a system how to recognize flowers,
122
342860
2656
لتعليم نظام كيف يتعرف على الورود،
05:45
I show it thousands of flowers of the kinds I like.
123
345540
3016
أُريه آلاف الورود، من الأنواع المفضلة لدي.
05:48
In order to teach a system how to play a game --
124
348580
2256
لتعليم نظام كيف يلعب لعبة
05:50
Well, I would. You would, too.
125
350860
1960
حسنا، أريد فعل ذلك. و أنتم تريدون، أيضاً.
05:54
I like flowers. Come on.
126
354420
2040
أنا أحب الورود، صدقوني.
05:57
To teach a system how to play a game like Go,
127
357260
2856
لتعليم نظام كيفية لعب لعبة ك "جو"،
06:00
I'd have it play thousands of games of Go,
128
360140
2056
أقوم بلعب ال "جو" آلاف المرات،
06:02
but in the process I also teach it
129
362220
1656
ضمنياً أقوم بتعليمه التمييز
06:03
how to discern a good game from a bad game.
130
363900
2416
بين اللعبة الجيدة من السيئة.
06:06
If I want to create an artificially intelligent legal assistant,
131
366340
3696
إذا أردت إنشاء مساعد قانوني ذكي،
06:10
I will teach it some corpus of law
132
370060
1776
سوف أعلمه بعض قواعد القانون
06:11
but at the same time I am fusing with it
133
371860
2856
ولكن بنفس الوقت أقوم بتمرير
06:14
the sense of mercy and justice that is part of that law.
134
374740
2880
إحساس الرحمة والعدل المتعلق بهذا القانون.
06:18
In scientific terms, this is what we call ground truth,
135
378380
2976
علمياً نطلق على هذه العملية "القاعدة الحقيقية"،
06:21
and here's the important point:
136
381380
2016
هنا تكمن النقطة المهمة:
06:23
in producing these machines,
137
383420
1456
لإنشاء آلات كهذه،
06:24
we are therefore teaching them a sense of our values.
138
384900
3416
نحن نقوم بتعليمها الشعور بقيمنا.
06:28
To that end, I trust an artificial intelligence
139
388340
3136
إلى هنا، أنا أثق بالذكاء الاصطناعي
06:31
the same, if not more, as a human who is well-trained.
140
391500
3640
بما يساوي، إن لم يزِد، إنساناً جيد التدريب.
06:35
But, you may ask,
141
395900
1216
لكن، قد تسألون،
06:37
what about rogue agents,
142
397140
2616
ماذا عن العملاء المحتالين،
06:39
some well-funded nongovernment organization?
143
399780
3336
المؤسسات غير الحكومية ذات الدعم المادي القوي؟
06:43
I do not fear an artificial intelligence in the hand of a lone wolf.
144
403140
3816
أنا لا أخاف من الذكاء الاصطناعي في يد ثعلب وحيد.
06:46
Clearly, we cannot protect ourselves against all random acts of violence,
145
406980
4536
بشكل صريح، لا يمكننا حماية أنفسنا من كافة أشكال العنف،
06:51
but the reality is such a system
146
411540
2136
لكن في الواقع نظام كهذا
06:53
requires substantial training and subtle training
147
413700
3096
يحتاج لإنجاز تدريبات كثيفة ومعقدة
06:56
far beyond the resources of an individual.
148
416820
2296
تفوق قدرة الفرد الواحد.
06:59
And furthermore,
149
419140
1216
أيضاًً،
07:00
it's far more than just injecting an internet virus to the world,
150
420380
3256
إنها أصعب من مجرد إدخال فايروس إلى العالم عبر الإنترنت،
07:03
where you push a button, all of a sudden it's in a million places
151
423660
3096
حيث بضغطة زر، ينتشر في ملايين الأجهزة
07:06
and laptops start blowing up all over the place.
152
426780
2456
وتتعطل الحواسيب المحمولة في كل مكان.
07:09
Now, these kinds of substances are much larger,
153
429260
2816
إن هذه الأمور أكبر بكثير،
07:12
and we'll certainly see them coming.
154
432100
1715
ونحن نراها في المستقبل.
07:14
Do I fear that such an artificial intelligence
155
434340
3056
هل أخاف من هكذا ذكاء اصطناعي
07:17
might threaten all of humanity?
156
437420
1960
قد يهدد البشرية جمعاء؟
07:20
If you look at movies such as "The Matrix," "Metropolis,"
157
440100
4376
إذا ما تابعتم أفلام ك "ماتريكس"، و"شرطة القطار"
07:24
"The Terminator," shows such as "Westworld,"
158
444500
3176
و"المدمر"، ومسلسلات مثل "العالم الغربي"
07:27
they all speak of this kind of fear.
159
447700
2136
فإن كلها تتحدث عن هذه المخاوف.
07:29
Indeed, in the book "Superintelligence" by the philosopher Nick Bostrom,
160
449860
4296
في الواقع، في كتاب "الذكاء الخارق" للفيلسوف "نيك بوستروم"،
07:34
he picks up on this theme
161
454180
1536
يتناول هذه النمطية
07:35
and observes that a superintelligence might not only be dangerous,
162
455740
4016
ويرى أن الذكاء الخارق ليس مجرد خطر فحسب،
07:39
it could represent an existential threat to all of humanity.
163
459780
3856
وإنما يمكن أن يمثل تهديداً حقيقياً لكافة البشرية.
07:43
Dr. Bostrom's basic argument
164
463660
2216
الجدل الأساسي للدكتور "بوستروم"
07:45
is that such systems will eventually
165
465900
2736
أن هذه الأنظمة بشكل مفاجيء
07:48
have such an insatiable thirst for information
166
468660
3256
ستصبح متعطشة بشكل شديد للمعلومات
07:51
that they will perhaps learn how to learn
167
471940
2896
وبالتالي سوف تتعلم كيف تتم عملية التعلم
07:54
and eventually discover that they may have goals
168
474860
2616
ومن ثم تكتشف أن لديها أهدافاً
07:57
that are contrary to human needs.
169
477500
2296
تخالف ما يحتاجه البشر.
07:59
Dr. Bostrom has a number of followers.
170
479820
1856
الدكتور "بوستروم" لديه عدد من الأتباع.
08:01
He is supported by people such as Elon Musk and Stephen Hawking.
171
481700
4320
و يدعمه في تفكيره أشخاص ك "إيلون موسك" و "ستيفن هاوكنج".
08:06
With all due respect
172
486700
2400
مع كل احترامي
08:09
to these brilliant minds,
173
489980
2016
لهذه العقول الرائعة،
08:12
I believe that they are fundamentally wrong.
174
492020
2256
إلا أني أؤمن بأنهم على خطأ.
08:14
Now, there are a lot of pieces of Dr. Bostrom's argument to unpack,
175
494300
3176
هناك العديد من جدليات الدكتور "بوستوم" للمناقشة،
08:17
and I don't have time to unpack them all,
176
497500
2136
وليس لدي وقت كاف لمناقشتها كلها،
08:19
but very briefly, consider this:
177
499660
2696
لكن بشكل مختصر، فكروا في هذه:
08:22
super knowing is very different than super doing.
178
502380
3736
المعرفة الفائقة تختلف بشكل أساسي عن العمل الخارق.
08:26
HAL was a threat to the Discovery crew
179
506140
1896
"هال" كان خطراً على فريق الاستكشاف
08:28
only insofar as HAL commanded all aspects of the Discovery.
180
508060
4416
فقط عندما قام "هال" بإصدار التعليمات كافة في عملية الاستكشاف.
08:32
So it would have to be with a superintelligence.
181
512500
2496
لذا هذه الفكرة مرتبطة بالذكاء الخارق.
08:35
It would have to have dominion over all of our world.
182
515020
2496
من الممكن أن تسيطر على عالمنا.
08:37
This is the stuff of Skynet from the movie "The Terminator"
183
517540
2816
هذه الأشياء مقتبسة من فلم "المدمر"
08:40
in which we had a superintelligence
184
520380
1856
حيث لدينا ذكاء خارق
08:42
that commanded human will,
185
522260
1376
يقود رغبة البشر،
08:43
that directed every device that was in every corner of the world.
186
523660
3856
يتحكم بكل جهاز موجود في كل زاوية في أنحاء العالم.
08:47
Practically speaking,
187
527540
1456
للحديث بشكل عملي،
08:49
it ain't gonna happen.
188
529020
2096
هذا لن يحدث.
08:51
We are not building AIs that control the weather,
189
531140
3056
نحن لا نقوم ببناء أنظمة ذكاء اصطناعي تتحكم بحالة الطقس،
08:54
that direct the tides,
190
534220
1336
وتوجه المد والجزر،
08:55
that command us capricious, chaotic humans.
191
535580
3376
وتأمرنا نحن البشر المتقلبين العشوائيين.
08:58
And furthermore, if such an artificial intelligence existed,
192
538980
3896
وللمزيد، إذا وُجدت أنظمة ذكاء اصطناعي كهذه،
09:02
it would have to compete with human economies,
193
542900
2936
ستنافس اقتصاد البشر،
09:05
and thereby compete for resources with us.
194
545860
2520
وبالتالي تنافس البشر في المصادر والثروات.
09:09
And in the end --
195
549020
1216
وفي النهاية.
09:10
don't tell Siri this --
196
550260
1240
لا تخبروا نظام "سيري" بهذا
09:12
we can always unplug them.
197
552260
1376
حيث يمكننا إطفاؤها دائماً.
09:13
(Laughter)
198
553660
2120
(ضحك)
09:17
We are on an incredible journey
199
557180
2456
نحن في رحلة عظيمة
09:19
of coevolution with our machines.
200
559660
2496
من التطور مع آلاتنا.
09:22
The humans we are today
201
562180
2496
ما نحن عليه اليوم كبشر
09:24
are not the humans we will be then.
202
564700
2536
يختلف عن ما سنكون عليه في المستقبل.
09:27
To worry now about the rise of a superintelligence
203
567260
3136
القلق الآن من نمو الذكاء الخارق
09:30
is in many ways a dangerous distraction
204
570420
3056
هو إلهاء خطير بحالات متعددة
09:33
because the rise of computing itself
205
573500
2336
لأن نمو الحوسبة بذاتها
09:35
brings to us a number of human and societal issues
206
575860
3016
يجلب لنا عدداً من المشاكل البشرية والاجتماعية
09:38
to which we must now attend.
207
578900
1640
ينبغي علينا حلها الآن.
09:41
How shall I best organize society
208
581180
2816
كيف يمكنني أن أنظم المجتمع بالشكل الأفضل
09:44
when the need for human labor diminishes?
209
584020
2336
عندما يقل احتياج اليد العاملة البشرية؟
09:46
How can I bring understanding and education throughout the globe
210
586380
3816
كيف يمكنني أن أجلب الوعي والتعليم لكافة أنحاء الأرض
09:50
and still respect our differences?
211
590220
1776
مع احترام كافة أشكال اختلافاتنا؟
09:52
How might I extend and enhance human life through cognitive healthcare?
212
592020
4256
كيف يمكنني أن أوسع وأحسن حياة الإنسان من خلال العناية الإدراكية؟
09:56
How might I use computing
213
596300
2856
كيف يمكنني استعمال الحوسبة
09:59
to help take us to the stars?
214
599180
1760
لتقوم بأخذنا إلى النجوم؟
10:01
And that's the exciting thing.
215
601580
2040
وهذا هو الشيء الممتع.
10:04
The opportunities to use computing
216
604220
2336
إن الفرص لاستعمال الحوسبة
10:06
to advance the human experience
217
606580
1536
لتطوير خبرة الإنسان
10:08
are within our reach,
218
608140
1416
في متناول يدنا،
10:09
here and now,
219
609580
1856
هنا والآن،
10:11
and we are just beginning.
220
611460
1680
نحن نبدأ فحسب.
10:14
Thank you very much.
221
614100
1216
شكراً لكم.
10:15
(Applause)
222
615340
4286
(تصفيق)
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7