The most important century in human history

337,770 views ・ 2023-04-04

TED-Ed


Κάντε διπλό κλικ στους αγγλικούς υπότιτλους παρακάτω για να αναπαραγάγετε το βίντεο.

Μετάφραση: Lina Akrivou Επιμέλεια: Giannis Tsiougkos
00:07
What's the most important century in human history?
0
7003
3587
Ποιος είναι ο σημαντικότερος αιώνας στην ανθρώπινη ιστορία;
00:11
Some might argue it’s a period of extensive military campaigning,
1
11049
3920
Κάποιοι ισχυρίζονται ότι είναι μια εποχή μεγάλων στρατιωτικών εκστρατειών,
00:14
like Alexander the Great’s in the 300s BCE,
2
14969
3545
όπως εκείνη του Μεγάλου Αλεξάνδρου τον 4ο αιώνα π.Χ.,
00:18
which reshaped political and cultural borders.
3
18848
3253
που επανακαθόρισε τα πολιτικά και πολιτισμικά σύνορα.
00:23
Others might cite the emergence of a major religion,
4
23936
3087
Άλλοι αναφέρουν την ανάδυση μιας μεγάλης θρησκείας,
00:27
such as Islam in the 7th century,
5
27023
2127
όπως του Ισλάμ τον 7ο αιώνα,
00:29
which codified and spread values across such borders.
6
29525
3504
που κωδικοποίησε και διέδωσε αξίες πέρα από τέτοια σύνορα.
00:35
Or perhaps it’s the Industrial Revolution of the 1700s
7
35531
3462
Ή ίσως είναι η Βιομηχανική Επανάσταση του 18ου αιώνα,
00:38
that transformed global commerce
8
38993
1752
που μεταμόρφωσε το παγκόσμιο εμπόριο
00:40
and redefined humanity's relationship with labor.
9
40745
3128
και επαναπροσδιόρισε τη σχέση της ανθρωπότητας με την εργασία.
00:44
Whatever the answer, it seems like any century vying for that top spot
10
44165
4129
Όποια κι αν είναι η απάντηση, φαίνεται ότι κάθε αιώνας που αγωνίζεται
για την πρώτη θέση βρίσκεται σε στιγμές μεγάλων αλλαγών,
00:48
is at a moment of great change—
11
48294
2377
00:51
when the actions of our ancestors shifted humanity’s trajectory
12
51631
4171
όταν οι πράξεις των προγόνων μας άλλαξαν την τροχιά της ανθρωπότητας
00:55
for centuries to come.
13
55802
1584
για πολλούς αιώνες.
00:57
So if this is our metric, is it possible that right now—
14
57720
3921
Αν λοιπόν αυτό είναι το μέτρο σύγκρισης,
αυτός ο αιώνας να είναι ο σημαντικότερος απ′ όλους;
01:01
this century— is the most important one yet?
15
61641
3086
01:05
The 21st century has already proven to be a period of rapid technological growth.
16
65770
5213
Ο 21ος αιώνας έχει ήδη αποδειχτεί περίοδος ραγδαίας τεχνολογικής ανάπτυξης.
01:11
Phones and computers have accelerated the pace of life.
17
71234
3128
Τα τηλέφωνα και οι υπολογιστές επιτάχυναν τους ρυθμούς της ζωής.
01:14
And we’re likely on the cusp of developing new transformative technologies,
18
74403
4171
Και μάλλον είμαστε κοντά στην ανάπτυξη νέων ριζοσπαστικών τεχνολογιών,
01:18
like advanced artificial intelligence,
19
78574
2294
όπως η προηγμένη τεχνητή νοημοσύνη,
01:20
that could entirely change the way people live.
20
80868
2878
που θα μπορούσε να αλλάξει εντελώς τον τρόπο ζωής των ανθρώπων.
01:25
Meanwhile, many technologies we already have
21
85414
3045
Στο μεταξύ, πολλές από τις ήδη υπάρχουσες τεχνολογίες
01:28
contribute to humanity’s unprecedented levels of existential risk—
22
88459
4838
συμβάλλουν στον άνευ προηγουμένου υπαρξιακό κίνδυνο της ανθρωπότητας,
01:33
that’s the risk of our species going extinct
23
93381
2377
δηλαδή στον κίνδυνο να εκλείψει το είδος μας
01:35
or experiencing some kind of disaster that permanently limits
24
95758
3420
ή να ζήσουμε κάποιο είδος καταστροφής που θα περιορίσει μόνιμα
01:39
humanity’s ability to grow and thrive.
25
99178
2670
την ικανότητα της ανθρωπότητας να αναπτύσσεται και να ακμάζει.
01:43
The invention of the atomic bomb marked a major rise in existential risk,
26
103266
4629
Η εφεύρεση της ατομικής βόμβας οδήγησε σε μεγάλη αύξηση του υπαρξιακού κινδύνου,
01:48
and since then we’ve only increased the odds against us.
27
108396
3879
και από τότε οι πιθανότητες εναντίον μας μόνο αυξάνονται.
01:52
It’s profoundly difficult to estimate the odds
28
112900
2628
Είναι εξαιρετικά δύσκολο να εκτιμήσουμε τις πιθανότητες
01:55
of an existential collapse occurring this century.
29
115528
2628
να συμβεί μια υπαρξιακή κατάρρευση αυτόν τον αιώνα.
01:58
Very rough guesses put the risk of existential catastrophe
30
118239
3462
Πρόχειρες εκτιμήσεις υπολογίζουν το ρίσκο της υπαρξιακής καταστροφής
02:01
due to nuclear winter and climate change at around 0.1%,
31
121701
4880
εξαιτίας του πυρηνικού χειμώνα και της κλιματικής αλλαγής γύρω στο 0,1%,
02:08
with the odds of a pandemic causing the same kind of collapse
32
128291
3211
με τις πιθανότητες μιας πανδημίας να προκαλεί το ίδιο είδος κατάρρευσης
02:11
at a frightening 3%.
33
131502
1960
σε ένα τρομακτικό 3%.
02:14
Given that any of these disasters could mean the end of life as we know it,
34
134005
4880
Δεδομένου ότι αυτές οι καταστροφές θα οδηγούσαν
στο τέλος της ζωής όπως την ξέρουμε,
02:19
these aren’t exactly small figures,
35
139177
2127
αυτά δεν είναι μικρά νούμερα.
02:21
And it’s possible this century could see the rise of new technologies
36
141304
4004
Και είναι πιθανό αυτόν τον αιώνα να δούμε την εμφάνιση νέων τεχνολογιών
02:25
that introduce more existential risks.
37
145308
2794
που εγκυμονούν περισσότερους υπαρξιακούς κινδύνους.
Οι ειδικοί κάνουν διάφορες εικασίες
02:29
AI experts have a wide range of estimates regarding
38
149103
2628
02:31
when artificial general intelligence will emerge,
39
151731
2961
σχετικά με το πότε θα αναδυθεί η Γενική Τεχνητή Νοημοσύνη,
02:34
but according to some surveys, many believe it could happen this century.
40
154734
4087
αλλά σύμφωνα με κάποιες έρευνες, μπορεί να εμφανιστεί αυτόν τον αιώνα.
02:39
Currently, we have relatively narrow forms of artificial intelligence,
41
159655
3837
Προς το παρόν, έχουμε συγκεκριμένες μορφές τεχνητής νοημοσύνης,
02:43
which are designed to do specific tasks like play chess or recognize faces.
42
163492
4588
σχεδιασμένες για συγκεκριμένες δουλειές,
όπως το να παίζουν σκάκι ή να αναγνωρίζουν πρόσωπα.
02:49
Even narrow AIs that do creative work are limited to their singular specialty.
43
169040
5213
Ακόμα και αυτή που κάνει δημιουργική δουλειά
είναι περιορισμένη στην ειδικότητά της.
02:54
But artificial general intelligences, or AGIs,
44
174503
3629
Αλλά η Γενική Τεχνητή Νοημοσύνη, ή ΓΤΝ,
02:58
would be able to adapt to and perform any number of tasks,
45
178132
3837
θα ήταν ικανή να προσαρμόζεται και να εκτελεί οποιαδήποτε εργασία,
03:02
quickly outpacing their human counterparts.
46
182678
2878
ξεπερνώντας γρήγορα τους ανθρώπους.
03:06
There are a huge variety of guesses about what AGI could look like,
47
186849
4088
Υπάρχουν πάρα πολλές απόψεις για το πώς θα μπορούσε να μοιάζει η ΓΤΝ
03:11
and what it would mean for humanity to share the Earth
48
191646
2836
και τι θα σήμαινε για την ανθρωπότητα να μοιράζεται τη Γη
03:14
with another sentient entity.
49
194482
2127
με ένα άλλο νοήμον ον.
03:18
AGIs might help us achieve our goals,
50
198653
2544
Η ΓΤΝ μπορεί να βοηθήσει στην επίτευξη των στόχων μας,
03:21
they might regard us as inconsequential,
51
201197
2294
μπορεί να μας θεωρήσει ασήμαντους
03:23
or, they might see us as an obstacle to swiftly remove.
52
203491
3170
ή να μας θεωρήσει ένα εμπόδιο που πρέπει να εξαλείψει γρήγορα.
03:26
So in terms of existential risk,
53
206869
2169
Άρα, στο πλαίσιο του υπαρξιακού κινδύνου,
03:29
it's imperative the values of this new technology align with our own.
54
209038
4087
πρέπει οι αξίες αυτής της νέας τεχνολογίας να συνάδουν με τις δικές μας.
03:33
This is an incredibly difficult philosophical and engineering challenge
55
213501
3879
Είναι μια απίστευτα δύσκολη φιλοσοφική και τεχνολογική πρόκληση
03:37
that will require a lot of delicate, thoughtful work.
56
217380
3086
που θα χρειαστεί πολλή λεπτή και προσεκτική δουλειά.
03:40
Yet, even if we succeed, AGI could still lead to another complicated outcome.
57
220967
5213
Όμως, ακόμα κι αν τα καταφέρουμε,
η ΓΤΝ μπορεί να επιφέρει ακόμα ένα πολύπλοκο αποτέλεσμα.
03:46
Let’s imagine an AGI emerges with deep respect for human life
58
226847
3796
Ας φανταστούμε ότι προκύπτει μια ΓΤΝ με βαθύ σεβασμό για την ανθρώπινη ζωή
03:50
and a desire to solve all humanity’s troubles.
59
230643
2961
και την επιθυμία να λύσει όλα τα προβλήματα της ανθρωπότητας.
03:55
But to avoid becoming misaligned,
60
235231
2169
Αλλά για να μην χάσει την εναρμόνισή της,
03:57
it's been developed to be incredibly rigid about its beliefs.
61
237400
3628
έχει προγραμματιστεί να είναι απίστευτα άκαμπτη ως προς τις πεποιθήσεις της.
04:01
If these machines became the dominant power on Earth,
62
241237
3086
Αν αυτές οι μηχανές γίνονταν η κυρίαρχη δύναμη στη Γη,
04:04
their strict values might become hegemonic,
63
244323
2711
οι αυστηρές αξίες τους μπορεί να γίνονταν τυραννικές,
04:07
locking humanity into one ideology that would be incredibly resistant to change.
64
247034
5214
φυλακίζοντας την ανθρωπότητα σε μια ιδεολογία
που θα αντιστεκόταν απίστευτα στην αλλαγή.
04:14
History has taught us that no matter how enlightened
65
254792
2503
Η ιστορία μάς έχει δείξει ότι όσο πεφωτισμένος
04:17
a civilization thinks they are,
66
257295
1793
νομίζει πως είναι ένας πολιτισμός,
04:19
they are rarely up to the moral standards of later generations.
67
259088
3795
σπάνια ανταποκρίνεται στα ηθικά πρότυπα των επόμενων γενιών.
04:23
And this kind of value lock in could permanently distort or constrain
68
263009
4629
Και αυτό το «κλείδωμα αξιών» θα μπορούσε να διαστρεβλώσει ή να περιορίσει μόνιμα
04:27
humanity’s moral growth.
69
267638
1919
την ηθική ανάπτυξη της ανθρωπότητας.
04:30
There's a ton of uncertainty around AGI,
70
270016
2585
Υπάρχει πολύ μεγάλη αβεβαιότητα σχετικά με την ΓΤΝ
04:32
and it’s profoundly difficult to predict how any existential risks
71
272601
3713
και είναι πολύ δύσκολο να προβλέψει κανείς πώς θα εκτυλιχθούν
04:36
will play out over the next century.
72
276314
2002
οι υπαρξιακοί κίνδυνοι κατά τον επόμενο αιώνα.
04:38
It’s also possible that new, more pressing concerns
73
278649
2920
Είναι επίσης πιθανό ότι νέα, πιο επείγοντα ζητήματα
04:41
might render these risks moot.
74
281569
2002
θα καταστήσουν αυτούς τους κινδύνους αμελητέους.
04:43
But even if we can't definitively say that ours is the most important century,
75
283904
4713
Αλλά ακόμα κι αν δεν είμαστε σίγουροι
ότι ο δικός μας είναι ο σημαντικότερος αιώνας,
04:48
it still seems like the decisions we make might have a major impact
76
288617
3754
φαίνεται ωστόσο ότι οι αποφάσεις που παίρνουμε ίσως έχουν μεγάλο αντίκτυπο
04:52
on humanity’s future.
77
292371
1502
στο μέλλον της ανθρωπότητας.
04:54
So maybe we should all live like the future depends on us—
78
294415
3211
Άρα, ίσως πρέπει όλοι να ζούμε σαν το μέλλον να εξαρτάται από εμάς,
04:57
because actually, it just might.
79
297626
2211
γιατί μπορεί όντως έτσι να είναι.
Σχετικά με αυτόν τον ιστότοπο

Αυτός ο ιστότοπος θα σας παρουσιάσει βίντεο στο YouTube που είναι χρήσιμα για την εκμάθηση της αγγλικής γλώσσας. Θα δείτε μαθήματα αγγλικών που διδάσκουν κορυφαίοι καθηγητές από όλο τον κόσμο. Κάντε διπλό κλικ στους αγγλικούς υπότιτλους που εμφανίζονται σε κάθε σελίδα βίντεο για να αναπαράγετε το βίντεο από εκεί. Οι υπότιτλοι μετακινούνται συγχρονισμένα με την αναπαραγωγή του βίντεο. Εάν έχετε οποιαδήποτε σχόλια ή αιτήματα, παρακαλούμε επικοινωνήστε μαζί μας χρησιμοποιώντας αυτή τη φόρμα επικοινωνίας.

https://forms.gle/WvT1wiN1qDtmnspy7