The 4 greatest threats to the survival of humanity

485,277 views ・ 2022-07-19

TED-Ed


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: Javid Naseri Reviewer: shirin etebar
00:10
In January of 1995, Russia detected a nuclear missile headed its way.
0
10840
5964
در ژانویه ۱۹۹۵، روسیه متوجه شد که یک موشک هسته‌ای در حال حرکت است.
00:16
The alert went all the way to the president,
1
16804
2836
هشدار در نهایت به رئیس جمهور رسید که
00:19
who was deciding whether to strike back
2
19640
2962
در حال تصمیم‌گیری بود که مقابله به مثل کند یا خیر،
00:22
when another system contradicted the initial warning.
3
22602
3378
زمانی که سامانه دیگری با هشدار اولیه در تضاد بود.
00:26
What they thought was the first missile in a massive attack
4
26355
3796
آنچه آنها فکر می‌کردند اولین موشک از یک حمله گسترده بود،
00:30
was actually a research rocket studying the Northern Lights.
5
30151
4338
در واقع یک موشک تحقیقاتی بود که شفق شمالی را مطالعه می‌کرد.
00:35
This incident happened after the end of the Cold War,
6
35156
3420
این حادثه پس از پایان جنگ سرد اتفاق افتاد،
00:38
but was nevertheless one of the closest calls we’ve had
7
38576
3504
اما با این وجود یکی از جدی‌ترین مخاطراتی بود که برای
00:42
to igniting a global nuclear war.
8
42080
2961
برافروختن یک جنگ هسته‌ای جهانی داشتیم.
00:45
With the invention of the atomic bomb,
9
45833
2169
با اختراع بمب اتم،
00:48
humanity gained the power to destroy itself for the first time in our history.
10
48002
5339
بشریت برای اولین بار در تاریخ ما، قدرت نابودی خود را به دست آورد.
00:53
Since then, our existential risk—
11
53341
3086
از آن زمان، خطر وجودی ما -
00:56
risk of either extinction
12
56427
1835
خطر انقراض
00:58
or the unrecoverable collapse of human civilization—
13
58262
3379
یا سقوط غیرقابل جبران تمدن بشری -
01:01
has steadily increased.
14
61641
1918
به طور پیوسته افزایش یافته است.
01:04
It’s well within our power to reduce this risk,
15
64060
2961
کاهش این خطر در توان ماست،
01:07
but in order to do so,
16
67021
1585
اما برای انجام این کار،
01:08
we have to understand which of our activities
17
68606
2753
ما باید درک کنیم که کدام یک از فعالیت‌های ما در حال حاضر
01:11
pose existential threats now, and which might in the future.
18
71359
4504
و کدام یک ممکن است در آینده تهدیدی وجودی باشد.
01:16
So far, our species has survived 2,000 centuries,
19
76489
4379
تاکنون، گونه‌ی ما از ۲,۰۰۰ قرن جان سالم به در برده‌ که
01:20
each with some extinction risk from natural causes—
20
80868
3754
هر کدام با برخی از خطرات انقراض ناشی از علل طبیعی مانند
01:24
asteroid impacts, supervolcanoes, and the like.
21
84622
3128
برخورد سیارک ها، ابر آتشفشان‌ها و مواردی از این دست روبرو هستند.
01:28
Assessing existential risk is an inherently uncertain business
22
88000
4338
ارزیابی تهدید وجودی یک کار ذاتا نامطمئن است زیرا
01:32
because usually when we try to figure out how likely something is,
23
92338
3921
معمولاً وقتی سعی می‌کنیم بفهمیم که احتمال وقوع چیزی چقدر است،
01:36
we check how often it's happened before.
24
96259
2460
بررسی می‌کنیم که قبلا چند بار اتفاق افتاده است.
01:38
But the complete destruction of humanity has never happened before.
25
98719
4255
اما نابودی کامل بشریت قبلاً هرگز اتفاق نیفتاده است.
01:43
While there’s no perfect method to determine our risk from natural threats,
26
103474
4004
در حالی که هیچ روش کاملی برای تعیین خطر ما از تهدیدات طبیعی وجود ندارد،
01:47
experts estimate it’s about 1 in 10,000 per century.
27
107478
4922
کارشناسان تخمین می‌زنند که این خطر ۱ در ۱۰,۰۰۰ در هر قرن است.
01:52
Nuclear weapons were our first addition to that baseline.
28
112692
3503
سلاح‌های هسته‌ای اولین افزوده ما به آن خط مبنا بود.
01:56
While there are many risks associated with nuclear weapons,
29
116612
3170
در حالی که خطرات زیادی در ارتباط با سلاح‌های هسته‌ای وجود دارد،
01:59
the existential risk comes from the possibility
30
119782
3087
تهدید وجودی از احتمالِ
02:02
of a global nuclear war that leads to a nuclear winter,
31
122869
4379
یک جنگ هسته‌ای جهانی ناشی می‌شود که به زمستان هسته‌ای منتهی می‌گردد،
02:07
where soot from burning cities blocks out the sun for years,
32
127248
4171
جایی که دوده‌های حاصل از سوختن شهرها، نور خورشید را برای سال‌ها مسدود می‌کنند،
02:11
causing the crops that humanity depends on to fail.
33
131419
3253
باعث می‌شود محصولاتی که بشریت به آن وابسته است از بین برود.
02:15
We haven't had a nuclear war yet,
34
135339
2253
هنوز جنگ هسته‌ای نداشته‌ایم،
02:17
but our track record is too short to tell if they’re inherently unlikely
35
137592
4421
اما سابقه ما بسیار کوتاه است که بگوییم آیا رویدادی ذاتاً بعید است یا خیر.
02:22
or we’ve simply been lucky.
36
142013
1710
یا ما به سادگی، خوش‌شانس بوده‌ایم.
02:24
We also can’t say for sure
37
144307
1459
نمی‌توان با اطمینان گفت که
02:25
whether a global nuclear war would cause a nuclear winter so severe
38
145766
4713
جنگ هسته‌ای جهانی باعث زمستان هسته‌ای چنان شدیدی می‌شود که
02:30
it would pose an existential threat to humanity.
39
150479
2712
تهدید وجودی برای بشریت شود.
02:33
The next major addition to our existential risk was climate change.
40
153858
5047
مسئله مهم بعدی که به تهدید وجودی ما اضافه شد، تغییرات اقلیمی بود.
02:39
Like nuclear war, climate change could result
41
159322
2794
مانند جنگ هسته‌ای، تغییرات اقلیمی می تواند منجر به
02:42
in a lot of terrible scenarios that we should be working hard to avoid,
42
162116
4880
سناریوهای وحشتناک زیادی شود که باید سخت تلاش کنیم تا از آنها اجتناب کنیم.
02:46
but that would stop short of causing extinction or unrecoverable collapse.
43
166996
4713
اما این امر باعث انقراض یا فروپاشی جبران‌ناپذیر نخواهد شد.
02:52
We expect a few degrees Celsius of warming,
44
172043
2794
ما انتظار داریم اقلیم چند درجه سانتی‌گراد گرم شود،
02:54
but can’t yet completely rule out 6 or even 10 degrees,
45
174837
4171
اما هنوز نمی‌توان افزایش ۶ یا حتی ۱۰ درجه را کاملاً رد کرد،
02:59
which would cause a calamity of possibly unprecedented proportions.
46
179008
4338
که می‌تواند فاجعه‌ای با ابعاد احتمالاً بی‌سابقه ایجاد کند.
03:03
Even in this worst-case scenario,
47
183596
2127
حتی در بدترین سناریو برای این مورد،
03:05
it’s not clear whether warming would pose a direct existential risk,
48
185723
4046
مشخص نیست که آیا گرمایش اقلیمی تهدید مستقیم وجودی را به همراه خواهد داشت یا نه،
03:09
but the disruption it would cause would likely make us more vulnerable
49
189769
3378
اما اختلالی که ایجاد می‌کند احتمالا ما را نسبت به
03:13
to other existential risks.
50
193147
2002
سایر خطرات وجودی آسیب پذیرتر می‌کند.
03:15
The greatest risks may come from technologies that are still emerging.
51
195566
4546
بزرگترین خطرات ممکن است ناشی ازفناوری‌هایی باشد که پیوسته در حال ظهور هستند.
03:20
Take engineered pandemics.
52
200112
2294
همه‌گیری‌های مهندسی‌شده را در نظر بگیرید.
03:22
The biggest catastrophes in human history have been from pandemics.
53
202406
4547
بزرگترین فجایع تاریخ بشر ناشی از همه‌گیری‌ها بوده است.
03:27
And biotechnology is enabling us to modify and create germs
54
207203
3670
و بیوتکنولوژی، ما را قادر می‌سازد میکروب‌هایی را تغییر دهیم و
03:30
that could be much more deadly than naturally occurring ones.
55
210873
3462
تولید کنیم که می‌توانند بسیار کشنده‌تر از میکروب‌های طبیعی باشند.
03:34
Such germs could cause pandemics through biowarfare and research accidents.
56
214752
4588
چنین میکروب‌هایی می‌توانند از طریق جنگ‌های زیستی و حوادث تحقیقاتی باعث همه‌گیری شوند.
03:39
Decreased costs of genome sequencing and modification,
57
219340
3211
کاهش هزینه‌های توالی‌یابی و اصلاح ژنوم،
03:42
along with increased availability of potentially dangerous information
58
222551
3921
همراه با افزایش دسترسی به اطلاعات بالقوه خطرناک
03:46
like the published genomes of deadly viruses,
59
226472
2544
مانند ژنوم‌های منتشر‌شده ویروس های کشنده،
03:49
also increase the number of people and groups
60
229016
2711
تعداد افراد و گروه‌هایی را نیز افزایش می‌دهد که
03:51
who could potentially create such pathogens.
61
231727
2920
به طور بالقوه می توانند چنین پاتوژن‌هایی را تولید کنند.
03:55
Another concern is unaligned AI.
62
235564
2878
نگرانی دیگر، هوش مصنوعی غیرهمسو است.
03:58
Most AI researchers think this will be the century
63
238442
2586
اکثر محققان هوش مصنوعی فکرمی‌کنند که
04:01
where we develop artificial intelligence that surpasses human abilities
64
241028
4338
این قرنی خواهد بود که در آن هوش مصنوعی را فراتر از توانایی‌های انسانی
04:05
across the board.
65
245366
1293
به صورت عمومی توسعه دهیم.
04:06
If we cede this advantage, we place our future in the hands
66
246659
4129
اگر این مزیت را از دست بدهیم، آینده خود را دراختیار سیستم هایی قرار می‌دهیم
04:10
of the systems we create.
67
250788
2002
که خودمان، آن‌ها را ایجاد می‌کنیم.
04:12
Even if created solely with humanity’s best interests in mind,
68
252790
3712
حتی اگر صرفاً با در نظر گرفتنِ بهترین منافع بشریت ایجاد شود،
04:16
superintelligent AI could pose an existential risk
69
256502
3504
هوش مصنوعی فراهوشمند اگر کاملاً با ارزش‌های انسانی
04:20
if it isn’t perfectly aligned with human values—
70
260006
3420
همسو نباشد، می‌تواند تهدیدی وجودی ایجاد کند-
04:23
a task scientists are finding extremely difficult.
71
263426
3503
کاری که دانشمندان آن را بسیار دشوار می‌دانند.
04:27
Based on what we know at this point,
72
267346
2044
بر اساس آنچه تا اینجا می‌دانیم،
04:29
some experts estimate the anthropogenic existential risk
73
269390
3837
برخی از کارشناسان تهدید وجودی انسانی را
04:33
is more than 100 times higher than the background rate of natural risk.
74
273227
4797
بیش از ۱۰۰ برابر بیشتر از نرخ عادی خطرات طبیعی، تخمین می‌زنند.
04:38
But these odds depend heavily on human choices.
75
278482
4004
اما این احتمال‌ها به شدت به انتخاب‌های بشری بستگی دارد.
04:42
Because most of the risk is from human action, and it’s within human control.
76
282486
5422
زیرا بیشترین تهدید، ناشی از اعمال انسان و در کنترل انسان است.
04:47
If we treat safeguarding humanity's future as the defining issue of our time,
77
287908
4755
اگر حفاظت از آینده بشریت را مسئله تعیین‌کننده زمان خود بدانیم،
04:52
we can reduce this risk.
78
292663
2127
می‌توانیم این خطر را کاهش دهیم.
04:55
Whether humanity fulfils its potential—
79
295082
2836
اینکه بشریت پتانسیل خود را برآورده می‌کند-
04:57
or not—
80
297918
1168
یا نه -
05:00
is in our hands.
81
300129
1793
در دست ما است.
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7