The most important century in human history

337,340 views ・ 2023-04-04

TED-Ed


אנא לחץ פעמיים על הכתוביות באנגלית למטה כדי להפעיל את הסרטון.

תרגום: zeeva livshitz עריכה: Ido Dekkers
00:07
What's the most important century in human history?
0
7003
3587
מהי המאה הכי חשובה בהיסטוריה האנושית?
00:11
Some might argue it’s a period of extensive military campaigning,
1
11049
3920
יש שיטענו שזו תקופה של מערכה צבאית נרחבת,
00:14
like Alexander the Great’s in the 300s BCE,
2
14969
3545
כמו של אלכסנדר מוקדון בשנות ה-300 לפני הספירה,
00:18
which reshaped political and cultural borders.
3
18848
3253
שעיצב מחדש את הגבולות הפוליטיים והתרבותיים.
00:23
Others might cite the emergence of a major religion,
4
23936
3087
אחרים עשויים לצטט את הופעתה של דת מרכזית,
00:27
such as Islam in the 7th century,
5
27023
2127
כמו האיסלאם במאה ה-7,
00:29
which codified and spread values across such borders.
6
29525
3504
אשר קודדה והפיצה ערכים מעבר לגבולות כאלה.
00:35
Or perhaps it’s the Industrial Revolution of the 1700s
7
35531
3462
או אולי זו המהפכה התעשייתית של שנות ה-1700
00:38
that transformed global commerce
8
38993
1752
ששינתה את המסחר העולמי
00:40
and redefined humanity's relationship with labor.
9
40745
3128
והגדירה מחדש את מערכת היחסים של האנושות עם עבודה.
00:44
Whatever the answer, it seems like any century vying for that top spot
10
44165
4129
לא משנה מה התשובה, זה נראה כאילו כל מאה שמתחרה על המקום הראשון
00:48
is at a moment of great change—
11
48294
2377
נמצאת ברגע של שינוי גדול-
00:51
when the actions of our ancestors shifted humanity’s trajectory
12
51631
4171
כאשר מעשי אבותינו שינו את מסלול האנושות
00:55
for centuries to come.
13
55802
1584
במשך מאות שנים קדימה.
00:57
So if this is our metric, is it possible that right now—
14
57720
3921
אז אם זה המדד שלנו, האם ייתכן שכרגע-
01:01
this century— is the most important one yet?
15
61641
3086
המאה הזו- היא החשובה ביותר עד כה?
01:05
The 21st century has already proven to be a period of rapid technological growth.
16
65770
5213
המאה ה-21 כבר הוכיחה את עצמה כתקופה של צמיחה טכנולוגית מהירה.
01:11
Phones and computers have accelerated the pace of life.
17
71234
3128
הטלפונים והמחשבים האיצו את קצב החיים.
01:14
And we’re likely on the cusp of developing new transformative technologies,
18
74403
4171
וסביר להניח שאנחנו על סף התפתחויות טכנולוגיות טרנספורמטיביות חדשות,
01:18
like advanced artificial intelligence,
19
78574
2294
כמו בינה מלאכותית מתקדמת,
01:20
that could entirely change the way people live.
20
80868
2878
זה יכול לשנות לגמרי את הדרך שבה אנשים חיים.
01:25
Meanwhile, many technologies we already have
21
85414
3045
בינתיים, הרבה טכנולוגיות שכבר יש לנו, תורמות
לרמות סיכון קיומי חסרות תקדים של האנושות -
01:28
contribute to humanity’s unprecedented levels of existential risk—
22
88459
4838
01:33
that’s the risk of our species going extinct
23
93381
2377
זוהי סכנת הכחדת המין שלנו
01:35
or experiencing some kind of disaster that permanently limits
24
95758
3420
או לחוות סוג של אסון שמגביל לצמיתות
01:39
humanity’s ability to grow and thrive.
25
99178
2670
את היכולת של האנושות לגדול ולשגשג.
01:43
The invention of the atomic bomb marked a major rise in existential risk,
26
103266
4629
המצאת פצצת האטום סימנה עלייה משמעותית בסיכון הקיומי,
01:48
and since then we’ve only increased the odds against us.
27
108396
3879
ומאז רק הגדלנו את הסיכויים נגדנו.
01:52
It’s profoundly difficult to estimate the odds
28
112900
2628
קשה מאוד להעריך את הסיכויים
01:55
of an existential collapse occurring this century.
29
115528
2628
של קריסה קיומית המתרחשת במאה הזו.
01:58
Very rough guesses put the risk of existential catastrophe
30
118239
3462
ניחושים גסים מאוד מציבים את הסיכון של קטסטרופה קיומית
02:01
due to nuclear winter and climate change at around 0.1%,
31
121701
4880
עקב חורף גרעיני ושינויי האקלים בסביבות 0.1%,
02:08
with the odds of a pandemic causing the same kind of collapse
32
128291
3211
עם הסיכויים שמגיפה תגרום אותו סוג של קריסה
02:11
at a frightening 3%.
33
131502
1960
ב-3% מפחידים.
02:14
Given that any of these disasters could mean the end of life as we know it,
34
134005
4880
בהתחשב בכך שכל אחד מהאסונות הללו יכול להתכוון לסוף החיים כפי שאנו מכירים אותם,
02:19
these aren’t exactly small figures,
35
139177
2127
אלו לא בדיוק נתונים קטנים,
02:21
And it’s possible this century could see the rise of new technologies
36
141304
4004
וייתכן שהמאה הזו תוכל לראות את עלייתן של טכנולוגיות חדשות
02:25
that introduce more existential risks.
37
145308
2794
שמציגות יותר סיכונים קיומיים.
02:29
AI experts have a wide range of estimates regarding
38
149103
2628
למומחי AI יש מגוון רחב של הערכות לגבי
02:31
when artificial general intelligence will emerge,
39
151731
2961
מצב כאשר אינטליגנציה כללית מלאכותית תופיע,
02:34
but according to some surveys, many believe it could happen this century.
40
154734
4087
אבל לפי כמה סקרים, רבים מאמינים שזה יכול לקרות במאה הנוכחית.
02:39
Currently, we have relatively narrow forms of artificial intelligence,
41
159655
3837
נכון לעכשיו, יש לנו צורות צרות יחסית של בינה מלאכותית,
02:43
which are designed to do specific tasks like play chess or recognize faces.
42
163492
4588
שנועדו לבצע משימות ספציפיות כמו לשחק שח או לזהות פרצופים.
02:49
Even narrow AIs that do creative work are limited to their singular specialty.
43
169040
5213
אפילו AI צרות שעושים עבודה יצירתית מוגבלות למומחיות הייחודית שלהם.
02:54
But artificial general intelligences, or AGIs,
44
174503
3629
אבל אינטליגנציות כלליות מלאכותיות, או AGIs,
02:58
would be able to adapt to and perform any number of tasks,
45
178132
3837
יוכלו להסתגל ל- ולבצע כל מספר של משימות,
03:02
quickly outpacing their human counterparts.
46
182678
2878
כשהם מתגברים במהירות על עמיתיהם האנושיים.
03:06
There are a huge variety of guesses about what AGI could look like,
47
186849
4088
יש מגוון עצום של ניחושים על איך AGI יכולה להיראות,
03:11
and what it would mean for humanity to share the Earth
48
191646
2836
ומה זה אומר לאנושות לשתף את כדור הארץ
03:14
with another sentient entity.
49
194482
2127
עם ישות חיה אחרת.
03:18
AGIs might help us achieve our goals,
50
198653
2544
AGIs עשויות לעזור לנו להשיג את המטרות שלנו,
03:21
they might regard us as inconsequential,
51
201197
2294
הן עלולות לראות אותנו כחסרי משמעות,
03:23
or, they might see us as an obstacle to swiftly remove.
52
203491
3170
או שהן עלולות לראות בנו מכשול שיש להסיר במהירות.
03:26
So in terms of existential risk,
53
206869
2169
אז במונחים של סיכון קיומי,
03:29
it's imperative the values of this new technology align with our own.
54
209038
4087
זה הכרחי שהערכים של הטכנולוגיה החדשה הזו יישרו קו עם הטכנולוגיה שלנו.
03:33
This is an incredibly difficult philosophical and engineering challenge
55
213501
3879
זהו אתגר פילוסופי והנדסי קשה להפליא
03:37
that will require a lot of delicate, thoughtful work.
56
217380
3086
שידרוש הרבה עבודה עדינה ומתחשבת.
03:40
Yet, even if we succeed, AGI could still lead to another complicated outcome.
57
220967
5213
עם זאת, גם אם נצליח, AGI עדיין יכולה להוביל לתוצאה מסובכת נוספת.
03:46
Let’s imagine an AGI emerges with deep respect for human life
58
226847
3796
בואו נדמיין ש-AGI מופיעה עם כבוד עמוק לחיי אדם
03:50
and a desire to solve all humanity’s troubles.
59
230643
2961
ורצון לפתור את כל הצרות של האנושות.
אבל להימנע מלהיות מחוץ לשורה,
03:55
But to avoid becoming misaligned,
60
235231
2169
היא פותחה להיות נוקשה באופן יוצא דופן לגבי אמונותיה.
03:57
it's been developed to be incredibly rigid about its beliefs.
61
237400
3628
אם המכונות הללו יהפכו להיות הכוח הדומיננטי על פני כדור הארץ,
04:01
If these machines became the dominant power on Earth,
62
241237
3086
הערכים הנוקשים שלהן עשויים להיות הגמוניים,
04:04
their strict values might become hegemonic,
63
244323
2711
04:07
locking humanity into one ideology that would be incredibly resistant to change.
64
247034
5214
שנועלים את האנושות באידאולוגיה אחת שתהיה עמידה להפליא בפני שינויים.
ההיסטוריה לימדה אותנו שלא משנה כמה נאורות
04:14
History has taught us that no matter how enlightened
65
254792
2503
הציוויליזציה חושבת שהן,
04:17
a civilization thinks they are,
66
257295
1793
04:19
they are rarely up to the moral standards of later generations.
67
259088
3795
רק לעתים רחוקות הן עומדות באמות המידה המוסריות של הדורות הבאים.
04:23
And this kind of value lock in could permanently distort or constrain
68
263009
4629
וסוג כזה של ערך ננעל יכול לעוות או להגביל לצמיתות
04:27
humanity’s moral growth.
69
267638
1919
את הצמיחה המוסרית של האנושות.
יש המון אי ודאות סביב AGI,
04:30
There's a ton of uncertainty around AGI,
70
270016
2585
וקשה מאוד לחזות איך סיכונים קיומיים כלשהם
04:32
and it’s profoundly difficult to predict how any existential risks
71
272601
3713
ישחקו במהלך המאה הבאה.
04:36
will play out over the next century.
72
276314
2002
ייתכן גם שחששות חדשים, דחופים יותר
04:38
It’s also possible that new, more pressing concerns
73
278649
2920
עלולים להפוך את הסיכונים הללו למופרכים.
04:41
might render these risks moot.
74
281569
2002
אבל גם אם איננו יכולים לומר סופית שהמאה שלנו היא החשובה ביותר,
04:43
But even if we can't definitively say that ours is the most important century,
75
283904
4713
עדיין נראה שההחלטות שאנו עושים יהיו בעלות השפעה גדולה
04:48
it still seems like the decisions we make might have a major impact
76
288617
3754
על עתידה של האנושות.
04:52
on humanity’s future.
77
292371
1502
04:54
So maybe we should all live like the future depends on us—
78
294415
3211
אז אולי כולנו צריכים לחיות כאילו העתיד תלוי בנו-
04:57
because actually, it just might.
79
297626
2211
כי בעצם זה פשוט יכול להיות.
על אתר זה

אתר זה יציג בפניכם סרטוני YouTube המועילים ללימוד אנגלית. תוכלו לראות שיעורי אנגלית המועברים על ידי מורים מהשורה הראשונה מרחבי העולם. לחץ פעמיים על הכתוביות באנגלית המוצגות בכל דף וידאו כדי להפעיל את הסרטון משם. הכתוביות גוללות בסנכרון עם הפעלת הווידאו. אם יש לך הערות או בקשות, אנא צור איתנו קשר באמצעות טופס יצירת קשר זה.

https://forms.gle/WvT1wiN1qDtmnspy7