The 4 greatest threats to the survival of humanity

503,273 views ・ 2022-07-19

TED-Ed


Κάντε διπλό κλικ στους αγγλικούς υπότιτλους παρακάτω για να αναπαραγάγετε το βίντεο.

Μετάφραση: Evangelia Kalampouka Επιμέλεια: Thanasis Zantrimas
00:10
In January of 1995, Russia detected a nuclear missile headed its way.
0
10840
5964
Τον Ιανουάριο του 1995 η Ρωσία εντόπισε έναν πυρηνικό πύραυλο με πορεία προς αυτή.
00:16
The alert went all the way to the president,
1
16804
2836
Η ειδοποίηση έφτασε στον πρόεδρο,
00:19
who was deciding whether to strike back
2
19640
2962
ο οποίος θα αποφάσιζε αν θα γινόταν αντεπίθεση,
00:22
when another system contradicted the initial warning.
3
22602
3378
όταν ένα άλλο σύστημα αντέκρουσε την αρχική προειδοποίηση.
00:26
What they thought was the first missile in a massive attack
4
26355
3796
Αυτό που αρχικά πίστευαν να είναι ο πρώτος πύραυλος μιας μαζικής επίθεσης,
ήταν στην πραγματικότητα ένας πύραυλος που εξερευνούσε το Βόρειο Σέλας.
00:30
was actually a research rocket studying the Northern Lights.
5
30151
4338
00:35
This incident happened after the end of the Cold War,
6
35156
3420
Το περιστατικό συνέβη μετά το τέλος του Ψυχρού Πολέμου,
00:38
but was nevertheless one of the closest calls we’ve had
7
38576
3504
ωστόσο ήταν το πλησιέστερο που έχουμε λάβει σε ειδοποίηση
00:42
to igniting a global nuclear war.
8
42080
2961
που να προειδοποιεί για πυρηνικό πόλεμο.
00:45
With the invention of the atomic bomb,
9
45833
2169
Με την εφεύρεση της πυρηνικής βόμβας, η ανθρωπότητα απέκτησε τη δύναμη
00:48
humanity gained the power to destroy itself for the first time in our history.
10
48002
5339
για πρώτη φορά να καταστρέψει τον εαυτό της.
00:53
Since then, our existential risk—
11
53341
3086
Από τότε, το υπαρξιακό μας ρίσκο,
00:56
risk of either extinction
12
56427
1835
είτε ρίσκο της εξάλειψης,
00:58
or the unrecoverable collapse of human civilization—
13
58262
3379
ή της μη αναστρέψιμης κατάρρευσης του ανθρώπινου πολιτισμού,
01:01
has steadily increased.
14
61641
1918
αυξάνεται σταθερά.
01:04
It’s well within our power to reduce this risk,
15
64060
2961
Είναι στο χέρι μας να μειώσουμε αυτό το ρίσκο,
αλλά για να γίνει αυτό,
01:07
but in order to do so,
16
67021
1585
01:08
we have to understand which of our activities
17
68606
2753
πρέπει να καταλάβουμε ποιες από τις δραστηριότητες μας
01:11
pose existential threats now, and which might in the future.
18
71359
4504
θέτουν υπαρξιακές απειλές στο παρόν και ποιες ίσως στο μέλλον.
01:16
So far, our species has survived 2,000 centuries,
19
76489
4379
Μέχρι τώρα, το είδος μας έχει επιβιώσει 2.000 αιώνες
01:20
each with some extinction risk from natural causes—
20
80868
3754
κι έχει έρθει αντιμέτωπο με το ρίσκο εξαφάνισης από φυσικά αίτια:
01:24
asteroid impacts, supervolcanoes, and the like.
21
84622
3128
σύγκρουση αστεροειδών, υπερηφαίστεια ή άλλα παρόμοια.
Το να εκτιμάς έναν κίνδυνο για την ύπαρξη είναι μία εγγενώς αβέβαιη υπόθεση,
01:28
Assessing existential risk is an inherently uncertain business
22
88000
4338
01:32
because usually when we try to figure out how likely something is,
23
92338
3921
γιατί, συνήθως, όταν προσπαθούμε να υπολογίσουμε πόσο πιθανό είναι κάτι,
01:36
we check how often it's happened before.
24
96259
2460
ελέγχουμε πόσες φορές έχει συμβεί στο παρελθόν.
01:38
But the complete destruction of humanity has never happened before.
25
98719
4255
Αλλά μία ολοκληρωτική καταστροφή της ανθρωπότητας δεν έχει συμβεί ποτέ.
01:43
While there’s no perfect method to determine our risk from natural threats,
26
103474
4004
Ενώ δεν υπάρχει τέλεια μέθοδος
να ορίσουμε τον κίνδυνο από φυσικές απειλές,
01:47
experts estimate it’s about 1 in 10,000 per century.
27
107478
4922
οι ειδικοί εκτιμούν πως είναι 1 στις 10.000 ανά αιώνα.
01:52
Nuclear weapons were our first addition to that baseline.
28
112692
3503
Τα πυρηνικά όπλα ήταν η πρώτη μας προσθήκη σ′ αυτό το σενάριο αναφοράς.
01:56
While there are many risks associated with nuclear weapons,
29
116612
3170
Ενώ υπάρχουν πολλοί κίνδυνοι σχετικοί με τα πυρηνικά όπλα,
01:59
the existential risk comes from the possibility
30
119782
3087
ο κίνδυνος για την ύπαρξή μας προκύπτει από την πιθανότητα
02:02
of a global nuclear war that leads to a nuclear winter,
31
122869
4379
ενός παγκόσμιου πυρηνικού πολέμου που θα οδηγήσει σε πυρηνικό χειμώνα,
02:07
where soot from burning cities blocks out the sun for years,
32
127248
4171
όπου η αιθάλη από τις καμένες πόλεις θα κρύψει το ήλιο για χρόνια,
02:11
causing the crops that humanity depends on to fail.
33
131419
3253
καταστρέφοντας τις σοδειές στις οποίες βασίζεται η ανθρωπότητα.
02:15
We haven't had a nuclear war yet,
34
135339
2253
Δεν έχει γίνει πυρηνικός πόλεμος ακόμα,
02:17
but our track record is too short to tell if they’re inherently unlikely
35
137592
4421
αλλά αυτό το ρεκόρ μας είναι πολύ μικρό για να πούμε αν είναι εγγενώς αδύνατο,
02:22
or we’ve simply been lucky.
36
142013
1710
ή αν έχουμε υπάρξει απλά τυχεροί.
02:24
We also can’t say for sure
37
144307
1459
Ακόμα δεν μπορούμε να ξέρουμε
02:25
whether a global nuclear war would cause a nuclear winter so severe
38
145766
4713
αν ένας παγκόσμιος πυρηνικός πόλεμος θα προκαλούσε τόσο σφοδρό πυρηνικό χειμώνα
02:30
it would pose an existential threat to humanity.
39
150479
2712
που θα έθετε κίνδυνο εξάλειψης της ανθρωπότητας.
02:33
The next major addition to our existential risk was climate change.
40
153858
5047
Η κλιματική αλλαγή ήταν άλλη μία προσθήκη για τον υπαρξιακό μας κίνδυνο.
02:39
Like nuclear war, climate change could result
41
159322
2794
Όπως ο πυρηνικός πόλεμος, η κλιματική αλλαγή θα οδηγούσε
02:42
in a lot of terrible scenarios that we should be working hard to avoid,
42
162116
4880
σε εφιαλτικά σενάρια που θα έπρεπε να παλέψουμε για να αποφύγουμε,
02:46
but that would stop short of causing extinction or unrecoverable collapse.
43
166996
4713
αλλά αυτό δεν θα εμπόδιζε την εξάλειψη ή μια ανεπανόρθωτη κατάρρευση.
02:52
We expect a few degrees Celsius of warming,
44
172043
2794
Περιμένουμε μία υπερθέρμανση κάποιων βαθμών Κελσίου,
02:54
but can’t yet completely rule out 6 or even 10 degrees,
45
174837
4171
αλλά δεν μπορούμε ακόμα να ξεπεράσουμε τους 6 ή ακόμα και τους 10 βαθμούς,
02:59
which would cause a calamity of possibly unprecedented proportions.
46
179008
4338
που θα προκαλούσε έναν όλεθρο σε πρωτοφανείς αναλογίες.
03:03
Even in this worst-case scenario,
47
183596
2127
Ακόμα και σ′ αυτό το χειρότερο σενάριο,
03:05
it’s not clear whether warming would pose a direct existential risk,
48
185723
4046
δεν είναι ξεκάθαρο αν η υπερθέρμανση θα έθετε άμεσα έναν υπαρξιακό κίνδυνο,
03:09
but the disruption it would cause would likely make us more vulnerable
49
189769
3378
αλλά η αποδιοργάνωση που θα προκαλούσε θα μας έκανε πιο επιρρεπείς
03:13
to other existential risks.
50
193147
2002
σε άλλους υπαρξιακούς κινδύνους.
03:15
The greatest risks may come from technologies that are still emerging.
51
195566
4546
Οι μεγαλύτεροι κίνδυνοι ίσως προκληθούν από τεχνολογίες που τώρα ξεπροβάλλουν.
03:20
Take engineered pandemics.
52
200112
2294
Για παράδειγμα, οι κατασκευασμένες πανδημίες.
03:22
The biggest catastrophes in human history have been from pandemics.
53
202406
4547
Οι μεγαλύτερες καταστροφές της ανθρωπότητας προκλήθηκαν από πανδημίες.
03:27
And biotechnology is enabling us to modify and create germs
54
207203
3670
Και η βιοτεχνολογία μας δίνει τη δυνατότητα να δημιουργούμε μικρόβια
03:30
that could be much more deadly than naturally occurring ones.
55
210873
3462
πολύ πιο θανατηφόρα από αυτά που προκύπτουν φυσικά.
03:34
Such germs could cause pandemics through biowarfare and research accidents.
56
214752
4588
Τέτοια μικρόβια μπορούν να προκαλέσουν πανδημίες με βιολογικό πόλεμο ή ατύχημα.
03:39
Decreased costs of genome sequencing and modification,
57
219340
3211
Το μειωμένο κόστος της γoνιδιακής αλληλουχίας και τροποποίησης
03:42
along with increased availability of potentially dangerous information
58
222551
3921
μαζί με την αυξημένη διαθεσιμότητα σε πιθανόν επικίνδυνες πληροφορίες,
03:46
like the published genomes of deadly viruses,
59
226472
2544
όπως τα δημοσιευμένα γονιδιώματα θανατηφόρων ιών,
03:49
also increase the number of people and groups
60
229016
2711
επίσης αυξάνουν τον αριθμό των ανθρώπων και ομάδων
03:51
who could potentially create such pathogens.
61
231727
2920
που θα μπορούσαν να δημιουργήσουν τέτοια παθογόνα.
03:55
Another concern is unaligned AI.
62
235564
2878
Ανησυχία προκαλεί κι η ανεξάρτητη τεχνητή νοημοσύνη.
03:58
Most AI researchers think this will be the century
63
238442
2586
Πολλοί ερευνητές ΤΝ πιστεύουν πως σ′ αυτόν τον αιώνα
04:01
where we develop artificial intelligence that surpasses human abilities
64
241028
4338
θα αναπτυχθεί τεχνική νοημοσύνη που θα ξεπερνά τις ανθρώπινες δυνατότητες
04:05
across the board.
65
245366
1293
σε όλους τους τομείς.
04:06
If we cede this advantage, we place our future in the hands
66
246659
4129
Αν εκχωρήσουμε αυτό το πλεονέκτημα, θα αφήσουμε το μέλλον μας στα χέρια
04:10
of the systems we create.
67
250788
2002
των συστημάτων που εμείς δημιουργούμε.
04:12
Even if created solely with humanity’s best interests in mind,
68
252790
3712
Ακόμα κι αν δημιουργούνταν αποκλειστικά με βάση τα ενδιαφέροντα των ανθρώπων,
04:16
superintelligent AI could pose an existential risk
69
256502
3504
η ευφυής τεχνητή νοημοσύνη θα έθετε υπαρξιακό κίνδυνο
04:20
if it isn’t perfectly aligned with human values—
70
260006
3420
αν δεν είναι σύμφωνη με τις ανθρώπινες αξίες.
04:23
a task scientists are finding extremely difficult.
71
263426
3503
Μία αποστολή που οι επιστήμονες θεωρούν αρκετά δύσκολη.
04:27
Based on what we know at this point,
72
267346
2044
Με βάση αυτά που γνωρίζουμε ως τώρα,
04:29
some experts estimate the anthropogenic existential risk
73
269390
3837
κάποιοι ειδικοί θεωρούν πως ένας ανθρωπογενης υπαρξιακός κίνδυνος
04:33
is more than 100 times higher than the background rate of natural risk.
74
273227
4797
είναι 100 φορές υψηλότερος από τον φυσιολογικό ρυθμό ενός φυσικού.
04:38
But these odds depend heavily on human choices.
75
278482
4004
Αλλά αυτές οι πιθανότητες βασίζονται στις επιλογές των ανθρώπων.
04:42
Because most of the risk is from human action, and it’s within human control.
76
282486
5422
Προκύπτουν κίνδυνοι από την ανθρώπινη ενέργεια, αλλά μπορούμε να τους ελέγξουμε.
04:47
If we treat safeguarding humanity's future as the defining issue of our time,
77
287908
4755
Αν αντιμετωπίσουμε ως μείζον ζήτημα την προστασία της ανθρωπότητας,
04:52
we can reduce this risk.
78
292663
2127
μπορούμε να μειώσουμε τον κίνδυνο.
Και το αν η ανθρωπότητα εκπληρώσει αυτήν την προοπτική
04:55
Whether humanity fulfils its potential—
79
295082
2836
04:57
or not—
80
297918
1168
ή όχι
05:00
is in our hands.
81
300129
1793
εξαρτάται από μας.
Σχετικά με αυτόν τον ιστότοπο

Αυτός ο ιστότοπος θα σας παρουσιάσει βίντεο στο YouTube που είναι χρήσιμα για την εκμάθηση της αγγλικής γλώσσας. Θα δείτε μαθήματα αγγλικών που διδάσκουν κορυφαίοι καθηγητές από όλο τον κόσμο. Κάντε διπλό κλικ στους αγγλικούς υπότιτλους που εμφανίζονται σε κάθε σελίδα βίντεο για να αναπαράγετε το βίντεο από εκεί. Οι υπότιτλοι μετακινούνται συγχρονισμένα με την αναπαραγωγή του βίντεο. Εάν έχετε οποιαδήποτε σχόλια ή αιτήματα, παρακαλούμε επικοινωνήστε μαζί μας χρησιμοποιώντας αυτή τη φόρμα επικοινωνίας.

https://forms.gle/WvT1wiN1qDtmnspy7