Is AI the most important technology of the century?

370,292 views ・ 2023-04-04

TED-Ed


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: Hani Eldalees المدقّق: gaith Takrity
00:07
What's the most important century in human history?
0
7003
3587
ما هو أهم قرن في التاريخ البشري؟
00:11
Some might argue it’s a period of extensive military campaigning,
1
11049
3920
البعض يتجادل على أنها فترة الحملات العسكرية المكثفة،
00:14
like Alexander the Great’s in the 300s BCE,
2
14969
3545
مثل الاسكندر الأكبر في عام 300 قبل الميلاد،
00:18
which reshaped political and cultural borders.
3
18848
3253
الذي أعاد تشكيل الحدود السياسية وكذلك الثقافية.
00:23
Others might cite the emergence of a major religion,
4
23936
3087
والبعض يشير الى ظهور الديانة الرئيسية
00:27
such as Islam in the 7th century,
5
27023
2127
كالإسلام في القرن السابع،
00:29
which codified and spread values across such borders.
6
29525
3504
الذي تقنن ونشر القيم في هذه الحدود.
00:35
Or perhaps it’s the Industrial Revolution of the 1700s
7
35531
3462
أو ربما تكون الثورة الصناعية في القرن الثامن عشر
00:38
that transformed global commerce
8
38993
1752
التي غيرت حركة التجارة العالمية
00:40
and redefined humanity's relationship with labor.
9
40745
3128
وأعادت تعريف الإنسانية بالعمل.
00:44
Whatever the answer, it seems like any century vying for that top spot
10
44165
4129
ولكن مهما كانت الإجابة فيبدو أن أي قرن يتنافس علي المرتبة الأولى
00:48
is at a moment of great change—
11
48294
2377
في لحظة تغير كبير -
00:51
when the actions of our ancestors shifted humanity’s trajectory
12
51631
4171
عندما قام أسلافنا بتغيير مسار الإنسانية
00:55
for centuries to come.
13
55802
1584
لقرون عديدة قادمة.
00:57
So if this is our metric, is it possible that right now—
14
57720
3921
لذا إذا كان هذا في مقياسنا فهل من الممكن ذلك الآن
01:01
this century— is the most important one yet?
15
61641
3086
هذا القرن -هل هو الأهم حتى الآن؟
01:05
The 21st century has already proven to be a period of rapid technological growth.
16
65770
5213
لقد أثبت القرن الحادي والعشرون بالفعل أنه فترة نمو تقني سريع.
01:11
Phones and computers have accelerated the pace of life.
17
71234
3128
الهواتف وأجهزة الكمبيوتر سرعت من وتيرة الحياة.
01:14
And we’re likely on the cusp of developing new transformative technologies,
18
74403
4171
ونحن على الأرجح على وشك تطوير تقنيات تحويلية جديدة،
01:18
like advanced artificial intelligence,
19
78574
2294
مثل الذكاء الاصطناعي المتطور،
01:20
that could entirely change the way people live.
20
80868
2878
يمكن أن يغير تماماً طريقة عيش الناس.
01:25
Meanwhile, many technologies we already have
21
85414
3045
في غضون ذلك، لدينا العديد من التقنيات بالفعل
01:28
contribute to humanity’s unprecedented levels of existential risk—
22
88459
4838
المساهمة في المستويات البشرية غير المسبوقة من المخاطر الوجودية -
01:33
that’s the risk of our species going extinct
23
93381
2377
هذا هو خطر انقراض جنسنا البشري
01:35
or experiencing some kind of disaster that permanently limits
24
95758
3420
أو مواجهة نوع من الكوارث التي تحد بشكل دائم
01:39
humanity’s ability to grow and thrive.
25
99178
2670
قدرة الإنسانية على النمو والازدهار.
01:43
The invention of the atomic bomb marked a major rise in existential risk,
26
103266
4629
شكل اختراع القنبلة الذرية زيادة كبيرة في المخاطر الوجودية،
01:48
and since then we’ve only increased the odds against us.
27
108396
3879
ومنذ ذلك الحين لم نقم إلا بزيادة الاحتمالات ضدنا.
01:52
It’s profoundly difficult to estimate the odds
28
112900
2628
من الصعب تقدير الاحتمالات
01:55
of an existential collapse occurring this century.
29
115528
2628
لانهيار وجودي ممكن أن يحدث هذا القرن.
01:58
Very rough guesses put the risk of existential catastrophe
30
118239
3462
إن التخمينات القاسية للغاية تفرض خطر كارثة وجودية
02:01
due to nuclear winter and climate change at around 0.1%,
31
121701
4880
بسبب الشتاء النووي وتغير المناخ عند حوالي 0.1 ٪،
02:08
with the odds of a pandemic causing the same kind of collapse
32
128291
3211
مع احتمالات حدوث جائحة يسبب نفس النوع من الانهيار
02:11
at a frightening 3%.
33
131502
1960
بنسبة مخيفة 3٪.
02:14
Given that any of these disasters could mean the end of life as we know it,
34
134005
4880
بالنظر إلى أن أياً من هذه الكوارث يمكن أن يعني نهاية الحياة كما نعرفها،
02:19
these aren’t exactly small figures,
35
139177
2127
هذه ليست مجرد أرقام صغيرة،
02:21
And it’s possible this century could see the rise of new technologies
36
141304
4004
ومن الممكن أن يشهد هذا القرن صعود التقنيات الجديدة
02:25
that introduce more existential risks.
37
145308
2794
تقدم المزيد من المخاطر الوجودية.
خبراء الذكاء الاصطناعي لديهم مجموعة واسعة من التقديرات المتعلقة
02:29
AI experts have a wide range of estimates regarding
38
149103
2628
02:31
when artificial general intelligence will emerge,
39
151731
2961
عندما يظهر الذكاء الاصطناعي العام،
02:34
but according to some surveys, many believe it could happen this century.
40
154734
4087
لكن وفقاً لبعض الاستطلاعات، يعتقد الكثير أن ذلك قد يحدث هذا القرن.
02:39
Currently, we have relatively narrow forms of artificial intelligence,
41
159655
3837
في الوقت الحالي، لدينا أشكال محدودة نسبياً من الذكاء الاصطناعي،
02:43
which are designed to do specific tasks like play chess or recognize faces.
42
163492
4588
المصممة للقيام بمهام محددة مثل لعب الشطرنج أو التعرف على الوجوه.
02:49
Even narrow AIs that do creative work are limited to their singular specialty.
43
169040
5213
حتى الذكاء الاصطناعي المحدود الذي يقوم بعمل إبداعي يقتصر على تخصصه الفردي.
02:54
But artificial general intelligences, or AGIs,
44
174503
3629
لكن الذكاء الاصطناعي العام، أو AGIs،
02:58
would be able to adapt to and perform any number of tasks,
45
178132
3837
سيكون قادراً على التكيف مع أي عدد من المهام وأداءها،
03:02
quickly outpacing their human counterparts.
46
182678
2878
يتفوقون بسرعة على نظرائهم من البشر.
03:06
There are a huge variety of guesses about what AGI could look like,
47
186849
4088
هناك مجموعة كبيرة ومتنوعة من التخمينات حول ما قد يكون عليه الذكاء الاصطناعي العام،
03:11
and what it would mean for humanity to share the Earth
48
191646
2836
وماذا يعني أن تشارك البشرية في الأرض
03:14
with another sentient entity.
49
194482
2127
مع كيان واعي آخر.
03:18
AGIs might help us achieve our goals,
50
198653
2544
قد تساعدنا خواص الذكاء الاصطناعي على تحقيق أهدافنا،
03:21
they might regard us as inconsequential,
51
201197
2294
قد يعتبروننا غير منطقيين،
03:23
or, they might see us as an obstacle to swiftly remove.
52
203491
3170
أو قد يروننا كعقبة لتتم إزالتها بسرعة.
03:26
So in terms of existential risk,
53
206869
2169
لذلك من حيث المخاطر الوجودية،
03:29
it's imperative the values of this new technology align with our own.
54
209038
4087
من الضروري أن تتماشى قيم هذه التكنولوجيا الجديدة مع قيمنا الخاصة.
03:33
This is an incredibly difficult philosophical and engineering challenge
55
213501
3879
إنه تحدٍ فلسفي وهندسي صعب للغاية
03:37
that will require a lot of delicate, thoughtful work.
56
217380
3086
سيتطلب ذلك الكثير من العمل الدقيق والمدروس.
03:40
Yet, even if we succeed, AGI could still lead to another complicated outcome.
57
220967
5213
ومع ذلك، حتى لو نجحنا، يمكن أن يؤدي الذكاء الاصطناعي لنتيجة معقدة أخرى.
03:46
Let’s imagine an AGI emerges with deep respect for human life
58
226847
3796
دعونا نتخيل ظهور الذكاء الاصطناعي العام مع احترام عميق لحياة الإنسان
03:50
and a desire to solve all humanity’s troubles.
59
230643
2961
والرغبة في حل كل مشاكل الإنسانية.
03:55
But to avoid becoming misaligned,
60
235231
2169
ولكن لتفادي الانحراف،
03:57
it's been developed to be incredibly rigid about its beliefs.
61
237400
3628
لقد تم تطويره ليكون صارماً للغاية بشأن معتقداته.
04:01
If these machines became the dominant power on Earth,
62
241237
3086
إذا أصبحت هذه الآلات القوة المسيطرة على الأرض،
04:04
their strict values might become hegemonic,
63
244323
2711
قد تصبح قيمهم الصارمة مهيمنة،
04:07
locking humanity into one ideology that would be incredibly resistant to change.
64
247034
5214
حبس البشرية في أيديولوجية واحدة تكون مقاومة للتغيير بشكل لا يصدق.
04:14
History has taught us that no matter how enlightened
65
254792
2503
لقد علمنا التاريخ أنه مهما كانت
04:17
a civilization thinks they are,
66
257295
1793
تعتقد الحضارات أنها متعلمة ومثقفة،
04:19
they are rarely up to the moral standards of later generations.
67
259088
3795
نادراً ما تكون على مستوى المعايير الأخلاقية للأجيال اللاحقة.
04:23
And this kind of value lock in could permanently distort or constrain
68
263009
4629
وهذا النوع من تثبيت القيمة يمكن أن يؤدي إلى تشويه أو تقييد بشكل دائم
04:27
humanity’s moral growth.
69
267638
1919
نمو البشرية الأخلاقي.
04:30
There's a ton of uncertainty around AGI,
70
270016
2585
هناك قدر هائل من عدم اليقين حول الذكاء الاصطناعي العام،
04:32
and it’s profoundly difficult to predict how any existential risks
71
272601
3713
ومن الصعب للغاية التنبؤ بمدى وجود أي مخاطر وجودية
04:36
will play out over the next century.
72
276314
2002
ستتجسد على مدى القرن المقبل.
04:38
It’s also possible that new, more pressing concerns
73
278649
2920
من المحتمل أيضاً أن تكون هناك مخاوف جديدة أكثر إلحاحاً
04:41
might render these risks moot.
74
281569
2002
قد تجعل هذه المخاطر موضع نقاش.
04:43
But even if we can't definitively say that ours is the most important century,
75
283904
4713
ولكن حتى لو لم نتمكن من القول بشكل قاطع إن قرننا هو أهم قرن،
04:48
it still seems like the decisions we make might have a major impact
76
288617
3754
يبدو أن القرارات التي نتخذها قد يكون لها تأثير كبير
04:52
on humanity’s future.
77
292371
1502
على مستقبل البشرية.
04:54
So maybe we should all live like the future depends on us—
78
294415
3211
لذا ربما ينبغي علينا جميعاً أن نعيش كما أن المستقبل يعتمد علينا -
04:57
because actually, it just might.
79
297626
2211
لأنه في الواقع، قد يكون كذلك.
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7