How will AI change the world?

1,777,259 views ・ 2022-12-06

TED-Ed


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: akram Abu-Farea المدقّق: Shimaa Nabil
00:07
In the coming years, artificial intelligence
0
7336
2169
في الأعوام القادمة، من المحتمل أن الذكاء الاصطناعي
00:09
is probably going to change your life, and likely the entire world.
1
9505
3629
سيغير حياتك، وعلى الأرجح العالم بأسره.
00:13
But people have a hard time agreeing on exactly how.
2
13301
3295
لكن الناس يجدون صعوبة في الاتفاق على كيفية ذلك بالضبط.
00:16
The following are excerpts from an interview
3
16804
2127
المقطع التالي لخبراء من مقابلة تلفزيونية
00:18
where renowned computer science professor and AI expert Stuart Russell
4
18931
3504
معروف بأستاذ علم الحاسوب وخبير الذكاء الاصطناعي إستوارت راسل
00:22
helps separate the sense from the nonsense.
5
22435
2586
يساعد على فصل المعنى عن الهراء.
00:25
There’s a big difference between asking a human to do something
6
25313
3754
هناك فرق كبير بين أن نطلب من الإنسان القيام بشيء ما
00:29
and giving that as the objective to an AI system.
7
29067
3461
وبين أن نعطيه إلى نظام الذكاء الاصطناعي كهدف.
00:32
When you ask a human to get you a cup of coffee,
8
32528
2628
عندما تطلب من الإنسان أن يجلب لك كوب من القهوة،
00:35
you don’t mean this should be their life’s mission,
9
35156
2586
أنت لا تقصد أن تكون هذه مهمة حياتهم،
00:37
and nothing else in the universe matters.
10
37742
1960
ولا أهمية لشيء آخر في الكون.
00:39
Even if they have to kill everybody else in Starbucks
11
39702
2586
حتى لو اضطروا لقتل أي شخص آخر في ستاربكس
00:42
to get you the coffee before it closes— they should do that.
12
42288
2836
ليحضروا لك القهوة قبل إغلاقهاـــ فعليهم فعل ذلك.
00:45
No, that’s not what you mean.
13
45124
1627
لا، هذا ليس قصدك.
00:46
All the other things that we mutually care about,
14
46751
2294
كل الأشياء الآخرى ذات الاهتمام المتبادل،
00:49
they should factor into your behavior as well.
15
49045
2169
يجب أن تكون عاملاً في سلوكياتك أيضًا.
00:51
And the problem with the way we build AI systems now
16
51214
3169
والمشكلة الآن هي في طريقة بناء أنظمة الذكاء الاصطناعي
00:54
is we give them a fixed objective.
17
54383
1627
هي أننا نعطيها أهداف ثابتة.
00:56
The algorithms require us to specify everything in the objective.
18
56010
3545
تتطلب منا الخوارزميات تحديد كل شيء في الهدف المدخل.
00:59
And if you say, can we fix the acidification of the oceans?
19
59555
3420
وإذا قلت،هل بإمكاننا معالجة تحمض المحيطات؟
01:02
Yeah, you could have a catalytic reaction that does that extremely efficiently,
20
62975
4046
نعم، يمكن أن يكون لديك تفاعل تحفيزي يقوم بذلك بكفاءة عالية،
01:07
but it consumes a quarter of the oxygen in the atmosphere,
21
67021
3253
لكن قد يستهلك ربع أكسجين الجو،
01:10
which would apparently cause us to die fairly slowly and unpleasantly
22
70274
3712
والذي يبدو أنه يتسبب في موتنا ببطء وبصورة غير مستحبة
01:13
over the course of several hours.
23
73986
1752
على مدار عدة ساعات.
01:15
So, how do we avoid this problem?
24
75780
3211
إذن، كيف لنا أن نتجنب هذه المشكلة؟
01:18
You might say, okay, well, just be more careful about specifying the objective—
25
78991
4088
قد تقول، حسناً، فقط كن أكثر حذرًا إزاء تحديد الهدف المدخل--
01:23
don’t forget the atmospheric oxygen.
26
83079
2544
لا تنسى الأكسجين الجوي.
01:25
And then, of course, some side effect of the reaction in the ocean
27
85873
3545
وبعد ذلك، بالطبع، بعض التأثيرات الجانبية نتيجة التفاعل في المحيط
01:29
poisons all the fish.
28
89418
1377
ستسمم جميع الأسماك.
01:30
Okay, well I meant don’t kill the fish either.
29
90795
2669
حسنا، قصدت ألا تقتل الأسماك أيضًا.
01:33
And then, well, what about the seaweed?
30
93464
1919
ومن ثم، ماذا عن الأعشاب البحرية؟
01:35
Don’t do anything that’s going to cause all the seaweed to die.
31
95383
2961
لا تقم بأي عمل من شأنه أن يتسبب في موت جميع الأعشاب البحرية.
01:38
And on and on and on.
32
98344
1210
وهلم جرا.
01:39
And the reason that we don’t have to do that with humans is that
33
99679
3920
والسبب الذي يجعلنا لا نقوم بهذا العمل مع البشر هو
01:43
humans often know that they don’t know all the things that we care about.
34
103599
4505
أن البشر غالبًا ما يعرفون أنهم لا يعرفون جميع الأشياء التي نهتم بها
01:48
If you ask a human to get you a cup of coffee,
35
108354
2961
إذا طلبت من شخص ما أن يحضر لك كوب قهوة،
01:51
and you happen to be in the Hotel George Sand in Paris,
36
111315
2878
وصدف أنك في فندق جورج ساند في باريس،
01:54
where the coffee is 13 euros a cup,
37
114193
2628
حيث أن تكلفة كوب القهوة 13 يورو،
01:56
it’s entirely reasonable to come back and say, well, it’s 13 euros,
38
116821
4171
من المعقول جدًا أن تعود إليه وتقول، إنها تكلف 13 يورو،
02:00
are you sure you want it, or I could go next door and get one?
39
120992
2961
هل أنت متأكد من أنك تريده، أو بإمكاني جلبها من مكان آخر؟
02:03
And it’s a perfectly normal thing for a person to do.
40
123953
2878
وهذا شيء طبيعي تمامًا أن يفعله الشخص.
02:07
To ask, I’m going to repaint your house—
41
127039
3003
ليسأل، سوف أقوم بإعادة طلاء منزلك--
02:10
is it okay if I take off the drainpipes and then put them back?
42
130042
3337
هل تسمح لي بفك أنابيب الصرف ومن ثم إعادتها؟
02:13
We don't think of this as a terribly sophisticated capability,
43
133504
3128
لا نفكر في هذا على أنها قدرة معقدة بشكل رهيب،
02:16
but AI systems don’t have it because the way we build them now,
44
136632
3087
لكن أنظمة الذكاء الاصطناعي لا تمتلك هذه القدرة بسبب طريقة بنائها،
02:19
they have to know the full objective.
45
139719
1793
عليهم معرفة الهدف الكامل.
02:21
If we build systems that know that they don’t know what the objective is,
46
141721
3753
إذا قمنا ببناء أنظمة تعرف أنها لا تعرف ما هو الهدف
02:25
then they start to exhibit these behaviors,
47
145474
2586
بعدها سيبدأون بإظهار هذه السلوكيات،
02:28
like asking permission before getting rid of all the oxygen in the atmosphere.
48
148060
4046
مثل طلب الإذن قبل التخلص من كل الأكسجين في الهواء الجوي
02:32
In all these senses, control over the AI system
49
152565
3378
بكل هذه النواحي، السيطرة على نظام الذكاء الاصطناعي
02:35
comes from the machine’s uncertainty about what the true objective is.
50
155943
4463
يأتي من عدم يقين الآلة بشأن ماهية الهدف الحقيقي.
02:41
And it’s when you build machines that believe with certainty
51
161282
3086
وعند بناء الآلات التي تعتقد وتوقن
02:44
that they have the objective,
52
164368
1418
بأن لديها الهدف،
02:45
that’s when you get this sort of psychopathic behavior.
53
165786
2753
عندها، تحصل على هذا السلوك السيكوباتي.
02:48
And I think we see the same thing in humans.
54
168539
2127
وأظن أننا نشاهد نفس الشيء في البشر.
02:50
What happens when general purpose AI hits the real economy?
55
170750
4254
ماذا يحصل عندما يكون الهدف العام من الذكاء الاصطناعي هو ضرب الاقتصاد الحقيقي؟
02:55
How do things change? Can we adapt?
56
175379
3587
كيف تتغير الأشياء؟ هل يمكننا التكيف؟
02:59
This is a very old point.
57
179175
1835
هذه نقطة قديمة جدًا.
03:01
Amazingly, Aristotle actually has a passage where he says,
58
181010
3587
بشكل مثير للدهشة، لدى أرسطو مقطع يقول فيه،
03:04
look, if we had fully automated weaving machines
59
184597
3045
انظر، إذا كان لدينا آلات نسيج أتوماتيكية
03:07
and plectrums that could pluck the lyre and produce music without any humans,
60
187642
3837
وريشة العزف التي يمكنها العزف على القيثارة وتصدر موسيقى من دون تدخل البشر،
03:11
then we wouldn’t need any workers.
61
191604
2002
حينها لن نحتاج إلى أي عمال.
03:13
That idea, which I think it was Keynes
62
193814
2878
تلك الفكرة، أعتقد أن كينز
03:16
who called it technological unemployment in 1930,
63
196692
2836
هو من أطلق عليها اسم البطالة التكنولوجية سنة 1930،
03:19
is very obvious to people.
64
199528
1919
واضحة جدًا للناس.
03:21
They think, yeah, of course, if the machine does the work,
65
201447
3086
يعتقدون أن الآلة إذا أنجزت العمل،
03:24
then I'm going to be unemployed.
66
204533
1669
حينها سأكون بدون عمل.
03:26
You can think about the warehouses that companies are currently operating
67
206369
3503
يمكنك التفكير تجاه المستودعات التي تديرها الشركات حالياً
03:29
for e-commerce, they are half automated.
68
209872
2711
للتجارة الإلكترونية، فهي نصف آلية.
03:32
The way it works is that an old warehouse— where you’ve got tons of stuff piled up
69
212583
4046
الطريقة التي يعمل بها هي أنه مستودع قديم-- حيث يوجد أطنان من الأشياء المتراكمة
03:36
all over the place and humans go and rummage around
70
216629
2461
في كل مكان وعلى البشر أن ينقبوا في جميع الأنحاء
03:39
and then bring it back and send it off—
71
219090
1877
ومن ثم إعادتها وإرسالها--
03:40
there’s a robot who goes and gets the shelving unit
72
220967
3586
هناك روبوت يذهب ويجلب وحدة الرفوف
03:44
that contains the thing that you need,
73
224553
1919
التي تحتوي على الشيء الذي تريده،
03:46
but the human has to pick the object out of the bin or off the shelf,
74
226472
3629
لكن الإنسان يقوم بجلب الشيء المعين من الصندوق أو الرف،
03:50
because that’s still too difficult.
75
230101
1877
لأن هذا ما زال في غاية الصعوبة.
03:52
But, at the same time,
76
232019
2002
لكن، في نفس الوقت،
03:54
would you make a robot that is accurate enough to be able to pick
77
234021
3921
هل تصنع روبوتًا دقيقًا لدرجة كافية ليكون قادرًا على اختيار
03:57
pretty much any object within a very wide variety of objects that you can buy?
78
237942
4338
أي شيء ضمن مجموعة متنوعة من الأشياء التي يمكنك شراؤها؟
04:02
That would, at a stroke, eliminate 3 or 4 million jobs?
79
242280
4004
هذا من شأنه القضاء على 3 أو 4 ملايين وظيفة بضربة واحدة.
04:06
There's an interesting story that E.M. Forster wrote,
80
246409
3336
هناك قصة شيقة كتبت بواسطة E.M فوستر،
04:09
where everyone is entirely machine dependent.
81
249745
3504
حيث يعتمد الجميع بشكل كامل على الآلة.
04:13
The story is really about the fact that if you hand over
82
253499
3754
تدور القصة حول حقيقة ما إذا سلمت
04:17
the management of your civilization to machines,
83
257253
2961
إدراة حضارتك إلى الآلة،
04:20
you then lose the incentive to understand it yourself
84
260214
3504
ثم تفقد الحافز لفهم ذلك بنفسك
04:23
or to teach the next generation how to understand it.
85
263718
2544
أو لتعليم الجيل القادم كيفية فهمها.
04:26
You can see “WALL-E” actually as a modern version,
86
266262
3003
يمكنك رؤية “WALL-E” كإصدار حديث،
04:29
where everyone is enfeebled and infantilized by the machine,
87
269265
3628
حيث يتم إضعاف الجميع وتصنيعهم من قبل الآلة
04:32
and that hasn’t been possible up to now.
88
272893
1961
وهذا غير ممكن حتى الآن.
04:34
We put a lot of our civilization into books,
89
274854
2419
وضعنا الكثير من حضارتنا في الكتب،
04:37
but the books can’t run it for us.
90
277273
1626
لكنها لا تستطيع إدارتها.
04:38
And so we always have to teach the next generation.
91
278899
2795
ولذا علينا دائمًا تعليم الجيل القادم.
04:41
If you work it out, it’s about a trillion person years of teaching and learning
92
281736
4212
إذا كنت تعمل بها، فالأمر يتعلق بتريليون سنة من التدريس والتعليم
04:45
and an unbroken chain that goes back tens of thousands of generations.
93
285948
3962
وسلسلة غير منقطعة تعود لعشرة الآلاف من الأجيال.
04:50
What happens if that chain breaks?
94
290119
1919
ماذا سيحدث إذا انقطعت السلسلة؟
04:52
I think that’s something we have to understand as AI moves forward.
95
292038
3461
أعتقد أن هذا شيء يجب علينا تفهمه بينما يتحرك الذكاء الاصطناعي للأمام.
04:55
The actual date of arrival of general purpose AI—
96
295624
3587
التاريخ الفعلي لوصول الذكاء الاصطناعي للأغراض العامة--
04:59
you’re not going to be able to pinpoint, it isn’t a single day.
97
299211
3087
لن تكون قادرا على تحديده، ليس يوما فرديا.
05:02
It’s also not the case that it’s all or nothing.
98
302298
2294
وهي أيضًا ليست قضية أن تكون أو لا تكون.
05:04
The impact is going to be increasing.
99
304592
2461
سوف يتزايد التأثير.
05:07
So with every advance in AI,
100
307053
2043
لذا مع كل تقدم في الذكاء الاصطناعي،
05:09
it significantly expands the range of tasks.
101
309096
2962
تتوسع نطاق المهام بشكل كبير.
05:12
So in that sense, I think most experts say by the end of the century,
102
312058
5338
وبهذا المعنى، أعتقد أن أغلب الخبراء سيقولون بنهاية القرن،
05:17
we’re very, very likely to have general purpose AI.
103
317396
3337
نحن محظوظون للغاية لامتلاكنا ذكاء اصطناعي للأغراض العامة.
05:20
The median is something around 2045.
104
320733
3754
المتوسط سيكون بحلول 2045.
05:24
I'm a little more on the conservative side.
105
324487
2002
أنا أكثر قليلاً في الجانب المحافظ.
05:26
I think the problem is harder than we think.
106
326489
2085
أعتقد أن المشكلة أصعب مما نظن.
05:28
I like what John McAfee, he was one of the founders of AI,
107
328574
3253
أعجبني ما قاله جون مكافي، كان أحد مؤسسي الذكاء الاصطناعي،
05:31
when he was asked this question, he said, somewhere between five and 500 years.
108
331911
3837
عندما طرح عليه هذا السؤال وأجاب عليه قائلاً تقريبًا مابين خمس وخمسمائة عام.
05:35
And we're going to need, I think, several Einsteins to make it happen.
109
335748
3337
وسنحتاج باعتقادي العديد من أنشتاين لجعله يتحقق.

Original video on YouTube.com
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7