Is AI the most important technology of the century?

365,293 views ・ 2023-04-04

TED-Ed


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: Masoud Nayeb Reviewer: sadegh vn
00:07
What's the most important century in human history?
0
7003
3587
مهم‌ترین قرن در تاریخ بشریت کدام است
00:11
Some might argue it’s a period of extensive military campaigning,
1
11049
3920
برخی ممکن است اذعان کنند که دوران یک لشکرکشی طولانی است
00:14
like Alexander the Great’s in the 300s BCE,
2
14969
3545
مانند لشکرکشی اسکندر بزرگ ۳۰۰ سال پیش از میلاد مسیح
00:18
which reshaped political and cultural borders.
3
18848
3253
که مرزهای فرهنگی سیاسی را تغییر داد.
00:23
Others might cite the emergence of a major religion,
4
23936
3087
برخی دیگر ممکن است ظهور یک دین بزرگ را بیان کنند.
00:27
such as Islam in the 7th century,
5
27023
2127
مانند ظهور اسلام در قرن هفتم میلادی
00:29
which codified and spread values across such borders.
6
29525
3504
که ارزش‌های انسانی را مدون کرد و در دنیا گسترش داد.
00:35
Or perhaps it’s the Industrial Revolution of the 1700s
7
35531
3462
یا شاید دوران انقلاب صنعتی در قرن ۱۸ است
00:38
that transformed global commerce
8
38993
1752
که تجارت جهانی را تغییر داد
00:40
and redefined humanity's relationship with labor.
9
40745
3128
و تعریف تازه‌ای از رابطه انسان و کار را ارائه کرد.
00:44
Whatever the answer, it seems like any century vying for that top spot
10
44165
4129
جواب هر چه که باشد به نظر می‌رسد، که تمامی قرن‌های در رقابت برای جایگاه اول
00:48
is at a moment of great change—
11
48294
2377
در زمان یک تغییر بزرگ بوده‌اند.
00:51
when the actions of our ancestors shifted humanity’s trajectory
12
51631
4171
زمانی که اعمال اجدادمان مسیر حرکت بشریت را برای قرن‌های آتی
00:55
for centuries to come.
13
55802
1584
تغییر داده است.
00:57
So if this is our metric, is it possible that right now—
14
57720
3921
پس اگر این معیار ما باشد، آیا ممکن است که هم‌اکنون،
01:01
this century— is the most important one yet?
15
61641
3086
همین قرن حاضر، مهم‌ترین قرن تاکنون باشد؟
01:05
The 21st century has already proven to be a period of rapid technological growth.
16
65770
5213
قرن ۲۱ام تا کنون نشان داده است که دوران رشد سریع تکنولوژی است.
01:11
Phones and computers have accelerated the pace of life.
17
71234
3128
تلفن‌ها و کامپیوترها سرعت زندگی را افزایش داده‌اند.
01:14
And we’re likely on the cusp of developing new transformative technologies,
18
74403
4171
و احتمالا بشریت در نزدیکی توسعه یک تکنولوژی دگرگون کننده جدید
01:18
like advanced artificial intelligence,
19
78574
2294
مانند هوش مصنوعی پیشرفته است،
01:20
that could entirely change the way people live.
20
80868
2878
که می‌تواند نحوه زندگی انسان‌ها را به طور کامل تغییر دهد.
01:25
Meanwhile, many technologies we already have
21
85414
3045
در حالی که بسیاری از تکنولوژی‌هایی که هم اکنون در دسترس هستند،
01:28
contribute to humanity’s unprecedented levels of existential risk—
22
88459
4838
خطر بی‌سابقه‌ای برای بقای بشریت ایجاد می‌کنند.
01:33
that’s the risk of our species going extinct
23
93381
2377
این خطر انقراض گونه ما،
01:35
or experiencing some kind of disaster that permanently limits
24
95758
3420
یا تجربه نوعی فاجعه است، که برای همیشه
01:39
humanity’s ability to grow and thrive.
25
99178
2670
توانایی انسان‌ها برای رشد و نمو را محدود می‌کند.
01:43
The invention of the atomic bomb marked a major rise in existential risk,
26
103266
4629
اختراع بمب اتم یکی از این خطرات بزرگ برای بقای بشریت بود،
01:48
and since then we’ve only increased the odds against us.
27
108396
3879
و از آن پس ما فقط احتمال انقراض خود را افزایش داده‌ایم.
01:52
It’s profoundly difficult to estimate the odds
28
112900
2628
تخمین احتمال یک فروپاشی در بقای بشریت
01:55
of an existential collapse occurring this century.
29
115528
2628
در این قرن بسیار دشوار است.
01:58
Very rough guesses put the risk of existential catastrophe
30
118239
3462
حدس‌های تقریبی احتمال یک فاجعه برای بقای بشریت
02:01
due to nuclear winter and climate change at around 0.1%,
31
121701
4880
بر اثر زمستان هسته‌ای و تغییرات جوی را حدود ۰.۱ %
02:08
with the odds of a pandemic causing the same kind of collapse
32
128291
3211
و فراگیری یک بیماری به همان میزان مخرب را
02:11
at a frightening 3%.
33
131502
1960
میزان وحشتناک ۳% پیش‌بینی کرده‌اند.
02:14
Given that any of these disasters could mean the end of life as we know it,
34
134005
4880
با توجه به این که هر کدام از این فجایع می‌تواند زندگی انسان‌ها را پایان دهد،
02:19
these aren’t exactly small figures,
35
139177
2127
این ارقام، ارقام کمی نیستند.
02:21
And it’s possible this century could see the rise of new technologies
36
141304
4004
و ممکن است این قرن ظهور تکنولوژی جدیدی را شاهد باشد
02:25
that introduce more existential risks.
37
145308
2794
که خطرات بیشتری برای بقای بشریت ایجاد کند.
02:29
AI experts have a wide range of estimates regarding
38
149103
2628
متخصصان هوش مصنوعی تخمین‌های گوناگونی در رابطه با
02:31
when artificial general intelligence will emerge,
39
151731
2961
زمان ایجاد شدن هوش مصنوعی کلی دارند.
02:34
but according to some surveys, many believe it could happen this century.
40
154734
4087
اما براساس برخی نظرسنجی‌ها بسیاری براین باور هستند که زمان این پدیده قرن حاظر است.
02:39
Currently, we have relatively narrow forms of artificial intelligence,
41
159655
3837
هم اکنون، ما گونه‌های نسبتا محدودی از هوش مصنوعی را در اختیار داریم،
02:43
which are designed to do specific tasks like play chess or recognize faces.
42
163492
4588
که طراحی شده‌اند تا اعمال مشخصی مانند بازی شطرنج یا تشخیص چهره را انجام دهند.
02:49
Even narrow AIs that do creative work are limited to their singular specialty.
43
169040
5213
حتی هوش‌های مصنوعی محدودی که با خلاقیت عمل می‌کنند محدود به تخصص خود هستند.
02:54
But artificial general intelligences, or AGIs,
44
174503
3629
اما هوش مصنوعی کلی، یا ای جی آی‌‌ها، ‌
02:58
would be able to adapt to and perform any number of tasks,
45
178132
3837
می‌توانند سازگار شوند و هر تعداد فعالیت را انجام دهند،
03:02
quickly outpacing their human counterparts.
46
182678
2878
و به سرعت از همتایان انسانی خود پیشی بگیرند.
03:06
There are a huge variety of guesses about what AGI could look like,
47
186849
4088
حدس‌های بسیار گوناگونی در رابطه با اینکه هوش‌های مصنوعی کلی،
03:11
and what it would mean for humanity to share the Earth
48
191646
2836
و اشتراک زمین با یک گونه با ادراک دیگر
03:14
with another sentient entity.
49
194482
2127
به چه صورتی خواهند بود، وجود دارد.
03:18
AGIs might help us achieve our goals,
50
198653
2544
ای جی آی‌ها ممکن است به ما در دستیابی اهدافمان
03:21
they might regard us as inconsequential,
51
201197
2294
کمک کنند، ما را بی‌اهمیت تلقی کنند،
03:23
or, they might see us as an obstacle to swiftly remove.
52
203491
3170
یا ما را به عنوان مانعی ببینند که می‌بایست به سرعت حذف شود.
03:26
So in terms of existential risk,
53
206869
2169
پس با دیدگاه خطر برای بقای انسان
03:29
it's imperative the values of this new technology align with our own.
54
209038
4087
لازم است که ارزش های این تکنولوژی جدید با ارزش‌های ما در یک راستا باشند.
03:33
This is an incredibly difficult philosophical and engineering challenge
55
213501
3879
این یک چالش فیلسوفانه و مهندسی بسیار دشوار است،
03:37
that will require a lot of delicate, thoughtful work.
56
217380
3086
که نیازمند تفکر و دقت بسیار زیادی است.
03:40
Yet, even if we succeed, AGI could still lead to another complicated outcome.
57
220967
5213
البته حتی اگر ما موفق شویم، باز ممکن است ای جی آی منجر به پیامد پیچیده دیگری شود.
03:46
Let’s imagine an AGI emerges with deep respect for human life
58
226847
3796
تصور کنید ای جی آی با احترام زیادی برای زندگی انسان
03:50
and a desire to solve all humanity’s troubles.
59
230643
2961
و میلی به رفع تمامی مشکلات بشریت پدیدار شود
03:55
But to avoid becoming misaligned,
60
235231
2169
ولی برای جلوگیری از تغییر جهت در باورهایش
03:57
it's been developed to be incredibly rigid about its beliefs.
61
237400
3628
به‌گونه‌ای توسعه یابد که بر عقایدش پایبند باشد.
04:01
If these machines became the dominant power on Earth,
62
241237
3086
چنان‌ چه این ماشین‌ها قدرت غالب بر روی زمین شوند،
04:04
their strict values might become hegemonic,
63
244323
2711
ارزش‌های محض آن ممکن است مسلط شود
04:07
locking humanity into one ideology that would be incredibly resistant to change.
64
247034
5214
و بشریت را در یک ایدئولوژی بسیار مقاوم در برابر تغییر محبوس کند.
04:14
History has taught us that no matter how enlightened
65
254792
2503
تاریخ به ما آموخته که هر قدر یک تمدن
04:17
a civilization thinks they are,
66
257295
1793
باور بر روشن فکری داشته باشد
04:19
they are rarely up to the moral standards of later generations.
67
259088
3795
به ندرت به سطح استانداردهای اخلاقی نسل‌های بعد می‌رسد.
04:23
And this kind of value lock in could permanently distort or constrain
68
263009
4629
و این‌گونه حبس ارزش‌ها ممکن است به صورت دائمی رشد اخلاقی بشریت را
04:27
humanity’s moral growth.
69
267638
1919
محدود یا منحرف کند.
04:30
There's a ton of uncertainty around AGI,
70
270016
2585
تردیدهای بسیاری در رابطه با ای جی آی وجود دارد،
04:32
and it’s profoundly difficult to predict how any existential risks
71
272601
3713
و پیش‌بینی اینکه هرگونه خطر برای بقای بشریت در قرن آینده
04:36
will play out over the next century.
72
276314
2002
چگونه رخ خواهد داد، بسیار دشوار است.
04:38
It’s also possible that new, more pressing concerns
73
278649
2920
همچنین ممکن است که تهدیدات جدید و خطرناک‌تر
04:41
might render these risks moot.
74
281569
2002
خطرات حاضر را بی‌اثر کنند.
04:43
But even if we can't definitively say that ours is the most important century,
75
283904
4713
اما حتی اگر نتوان به طور قطع قرن حاضر را مهم‌ترین قرن تاریخ دانست،
04:48
it still seems like the decisions we make might have a major impact
76
288617
3754
به نظر می‌رسد که تصمیمات ما ممکن است تاثیر عمده‌ای
04:52
on humanity’s future.
77
292371
1502
بر آینده بشریت داشته باشد.
04:54
So maybe we should all live like the future depends on us—
78
294415
3211
پس شاید همگی ما باید با دید تاثیر احتمالی‌مان بر آینده زندگی کنیم
04:57
because actually, it just might.
79
297626
2211
چون در حقیقت ممکن است این چنین باشد.
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7