The 4 greatest threats to the survival of humanity

500,951 views ・ 2022-07-19

TED-Ed


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: Sara Sameh المدقّق: Shimaa Nabil
00:10
In January of 1995, Russia detected a nuclear missile headed its way.
0
10840
5964
في يناير 1995، رصدت روسيا صاروخًا نوويًا في طريقها.
00:16
The alert went all the way to the president,
1
16804
2836
انطلق الإنذار إلى الرئيس،
00:19
who was deciding whether to strike back
2
19640
2962
الذي كان يفكر ما إذا كان سيرد
00:22
when another system contradicted the initial warning.
3
22602
3378
عندما يتعارض نظام آخر مع التحذير الأولي.
00:26
What they thought was the first missile in a massive attack
4
26355
3796
ما اعتقدوا أنه أول صاروخ في هجوم ضخم،
00:30
was actually a research rocket studying the Northern Lights.
5
30151
4338
كان في الحقيقة صاروخ بحث لدراسة الشفق القطبي.
00:35
This incident happened after the end of the Cold War,
6
35156
3420
وقعت هذه الحادثة بعد نهاية الحرب الباردة،
00:38
but was nevertheless one of the closest calls we’ve had
7
38576
3504
ولكن مع ذلك كانت الحرب أقرب نداء اضطررنا
00:42
to igniting a global nuclear war.
8
42080
2961
بسببه لإشعال حرب نووية عالمية.
00:45
With the invention of the atomic bomb,
9
45833
2169
مع اختراع القنبلة الذرية،
00:48
humanity gained the power to destroy itself for the first time in our history.
10
48002
5339
جنت البشرية القوة لتدمير ذاتها لأول مرة في تاريخنا.
00:53
Since then, our existential risk—
11
53341
3086
منذ ذلك الحين، مخاطرنا الوجودية_
00:56
risk of either extinction
12
56427
1835
إما خطر الانقراض
00:58
or the unrecoverable collapse of human civilization—
13
58262
3379
أو انهيار الحضارة الإنسانية الغير قابلة للاسترداد -
01:01
has steadily increased.
14
61641
1918
تزداد باستمرار.
01:04
It’s well within our power to reduce this risk,
15
64060
2961
في وسعنا تقليل هذا الخطر
01:07
but in order to do so,
16
67021
1585
ولكن من أجل القيام بذلك،
01:08
we have to understand which of our activities
17
68606
2753
يجب أن نفهم أي من أنشطتنا
01:11
pose existential threats now, and which might in the future.
18
71359
4504
يشكل تهديدات وجودية الآن، وأيها قد يشكل تهديدات في المستقبل.
01:16
So far, our species has survived 2,000 centuries,
19
76489
4379
حتي الآن، استطاع الجنس البشري النجاه لمدة 2000 قرن،
01:20
each with some extinction risk from natural causes—
20
80868
3754
مع بعض مخاطر الانقراض من أسباب طبيعية -
01:24
asteroid impacts, supervolcanoes, and the like.
21
84622
3128
اصطدامات الكويكبات والبراكين الهائلة وما شابه ذلك.
01:28
Assessing existential risk is an inherently uncertain business
22
88000
4338
يعد تقييم المخاطر الوجودية عملاً غير مؤكد بطبيعته
01:32
because usually when we try to figure out how likely something is,
23
92338
3921
لأنه عادةً عندما نحاول معرفة مدى احتمالية حدوث شيء ما،
01:36
we check how often it's happened before.
24
96259
2460
فإننا نتحقق من عدد المرات التي حدث فيها ذلك من قبل.
01:38
But the complete destruction of humanity has never happened before.
25
98719
4255
لكن التدمير الكامل للبشرية لم يحدث من قبل.
01:43
While there’s no perfect method to determine our risk from natural threats,
26
103474
4004
على الرغم من عدم وجود طريقة مثالية لتحديد مخاطرنا من التهديدات الطبيعية،
01:47
experts estimate it’s about 1 in 10,000 per century.
27
107478
4922
يقدر الخبراء أنها حوالي 1 من كل 10000 في القرن.
01:52
Nuclear weapons were our first addition to that baseline.
28
112692
3503
كانت الأسلحة النووية أول إضافة لنا إلى خط الأساس هذا.
01:56
While there are many risks associated with nuclear weapons,
29
116612
3170
في حين أن هناك العديد من المخاطر المرتبطة بالأسلحة النووية،
01:59
the existential risk comes from the possibility
30
119782
3087
فإن الخطر الوجودي يأتي من احتمال
02:02
of a global nuclear war that leads to a nuclear winter,
31
122869
4379
اندلاع حرب نووية عالمية تؤدي إلى إلى شتاء نووي،
02:07
where soot from burning cities blocks out the sun for years,
32
127248
4171
حيث يحجب السخام الناجم عن المدن المحترقة الشمس لسنوات،
02:11
causing the crops that humanity depends on to fail.
33
131419
3253
مما يتسبب في فشل المحاصيل التي تعتمد عليها البشرية.
02:15
We haven't had a nuclear war yet,
34
135339
2253
لم نشهد حربًا نووية بعد،
02:17
but our track record is too short to tell if they’re inherently unlikely
35
137592
4421
لكن سجلنا الحافل أقصر من أن نعرف ما إذا كانت غير مرجحة بطبيعتها
02:22
or we’ve simply been lucky.
36
142013
1710
أم أننا ببساطة كنا محظوظين.
02:24
We also can’t say for sure
37
144307
1459
لا يمكننا القول على وجه اليقين
02:25
whether a global nuclear war would cause a nuclear winter so severe
38
145766
4713
ما إذا كانت الحرب النووية العالمية ستسبب شتاء نوويًا شديدًا
02:30
it would pose an existential threat to humanity.
39
150479
2712
لدرجة أنها ستشكل تهديدًا وجوديًا للبشرية.
02:33
The next major addition to our existential risk was climate change.
40
153858
5047
الإضافة الرئيسية التالية للمخاطر الوجودية هي تغير المناخ.
02:39
Like nuclear war, climate change could result
41
159322
2794
مثل الحرب النووية، تغير المناخ قد يؤدي
02:42
in a lot of terrible scenarios that we should be working hard to avoid,
42
162116
4880
إلى الكثير من سيناريوهات المخيفة التي يجب أن نعمل جاهدين لتجنبها
02:46
but that would stop short of causing extinction or unrecoverable collapse.
43
166996
4713
ولكن ذلك لن يصل إلى حد الانقراض أو الانهيار الذي لا يمكن استرداده.
02:52
We expect a few degrees Celsius of warming,
44
172043
2794
نتوقع ارتفاع درجة الحرارة بضع درجات مئوية،
02:54
but can’t yet completely rule out 6 or even 10 degrees,
45
174837
4171
لكن لا يمكننا استبعاد 6 أو حتى 10 درجات تمامًا،
02:59
which would cause a calamity of possibly unprecedented proportions.
46
179008
4338
مما قد يتسبب في كارثة ربما تكون غير مسبوقة.
03:03
Even in this worst-case scenario,
47
183596
2127
حتى في هذا السيناريو الأسوأ،
03:05
it’s not clear whether warming would pose a direct existential risk,
48
185723
4046
ليس من الواضح ما إذا كان الاحترار سيشكل خطرًا وجوديًا مباشرًا،
03:09
but the disruption it would cause would likely make us more vulnerable
49
189769
3378
لكن الاضطراب الذي قد يسببه سيجعلنا على الأرجح أكثر عرضة
03:13
to other existential risks.
50
193147
2002
للمخاطر الوجودية الأخرى.
03:15
The greatest risks may come from technologies that are still emerging.
51
195566
4546
قد تأتي أكبر المخاطر من التكنولوجيا التي لا تزال ناشئة.
03:20
Take engineered pandemics.
52
200112
2294
مثلا الجوائح الهندسية.
03:22
The biggest catastrophes in human history have been from pandemics.
53
202406
4547
كانت أكبر الكوارث في تاريخ البشرية من الأوبئة.
03:27
And biotechnology is enabling us to modify and create germs
54
207203
3670
والتكنولوجيا الحيوية تمكننا من تعديل وخلق الجراثيم
03:30
that could be much more deadly than naturally occurring ones.
55
210873
3462
التي يمكن أن تكون أكثر فتكًا من تلك التي تحدث بشكل طبيعي.
03:34
Such germs could cause pandemics through biowarfare and research accidents.
56
214752
4588
يمكن أن تسبب مثل هذه الجراثيم جوائح من خلال الحرب البيولوجية وحوادث البحث.
03:39
Decreased costs of genome sequencing and modification,
57
219340
3211
يؤدي انخفاض تكاليف تسلسل الجينوم وتعديله،
03:42
along with increased availability of potentially dangerous information
58
222551
3921
جنبًا إلى جنب مع زيادة توافر المعلومات التي يحتمل أن تكون خطيرة
03:46
like the published genomes of deadly viruses,
59
226472
2544
مثل الجينومات المنشورة للفيروسات القاتلة،
03:49
also increase the number of people and groups
60
229016
2711
إلى زيادة عدد الأشخاص والمجموعات
03:51
who could potentially create such pathogens.
61
231727
2920
الذين يمكنهم إنشاء مثل هذه مسببات الأمراض.
03:55
Another concern is unaligned AI.
62
235564
2878
مصدر قلق آخر هو الذكاء الاصطناعي غير المنحاز.
03:58
Most AI researchers think this will be the century
63
238442
2586
يعتقد معظم باحثي الذكاء الاصطناعي أن هذا سيكون القرن
04:01
where we develop artificial intelligence that surpasses human abilities
64
241028
4338
الذي نطور فيه الذكاء الاصطناعي الذي يتجاوز القدرات البشرية
04:05
across the board.
65
245366
1293
في جميع المجالات.
04:06
If we cede this advantage, we place our future in the hands
66
246659
4129
إذا تنازلنا عن هذه الميزة، فإننا نضع مستقبلنا في أيدي
04:10
of the systems we create.
67
250788
2002
الأنظمة التي ننشئها.
04:12
Even if created solely with humanity’s best interests in mind,
68
252790
3712
حتى لو تم إنشاؤه فقط مع مراعاة مصالح البشرية الفضلى،
04:16
superintelligent AI could pose an existential risk
69
256502
3504
فإن الذكاء الاصطناعي الفائق الذكاء يمكن أن يشكل خطرًا وجوديًا
04:20
if it isn’t perfectly aligned with human values—
70
260006
3420
إذا لم يتماشى تمامًا مع القيم الإنسانية -
04:23
a task scientists are finding extremely difficult.
71
263426
3503
وهي مهمة يجدها العلماء صعبة للغاية.
04:27
Based on what we know at this point,
72
267346
2044
استنادًا إلى ما عرفناه في هذه النقطة،
04:29
some experts estimate the anthropogenic existential risk
73
269390
3837
يقدر بعض الخبراء أن المخاطر الوجودية البشرية المنشأ
04:33
is more than 100 times higher than the background rate of natural risk.
74
273227
4797
أعلى بأكثر من 100 مرة من معدل الخلفية للمخاطر الطبيعية.
04:38
But these odds depend heavily on human choices.
75
278482
4004
لكن هذه الاحتمالات تعتمد بشكل كبير على الخيارات البشرية.
04:42
Because most of the risk is from human action, and it’s within human control.
76
282486
5422
لأن معظم المخاطر ناتجة عن العمل البشري، وهي تحت سيطرة الإنسان.
04:47
If we treat safeguarding humanity's future as the defining issue of our time,
77
287908
4755
إذا تعاملنا مع حماية مستقبل البشرية باعتباره القضية الحاسمة في عصرنا،
04:52
we can reduce this risk.
78
292663
2127
فيمكننا تقليل هذا الخطر.
04:55
Whether humanity fulfils its potential—
79
295082
2836
ما إذا كانت البشرية تحقق إمكاناتها -
04:57
or not—
80
297918
1168
أم لا -
05:00
is in our hands.
81
300129
1793
في أيدينا.
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7