Daniel Suarez: The kill decision shouldn't belong to a robot

76,013 views ・ 2013-06-13

TED


Κάντε διπλό κλικ στους αγγλικούς υπότιτλους παρακάτω για να αναπαραγάγετε το βίντεο.

00:00
Translator: Joseph Geni Reviewer: Morton Bast
0
0
7000
Μετάφραση: Nikolaos Benias Επιμέλεια: Helena Galani
00:12
I write fiction sci-fi thrillers,
1
12691
3158
Γράφω θρίλερ επιστημονικής φαντασίας,
00:15
so if I say "killer robots,"
2
15849
2193
οπότε εάν πω «ρομπότ δολοφόνοι»,
00:18
you'd probably think something like this.
3
18042
2361
πιθανότατα θα σκεφτείτε κάτι σαν αυτό.
00:20
But I'm actually not here to talk about fiction.
4
20403
2555
Αλλά, δεν είμαι εδώ για να μιλήσω για επιστημονική φαντασία.
00:22
I'm here to talk about very real killer robots,
5
22958
2948
Είμαι εδώ για να μιλήσω για πολύ πραγματικά ρομπότ δολοφόνους,
00:25
autonomous combat drones.
6
25906
3122
αυτόνομα μη επανδρωμένα μέσα μάχης.
00:29
Now, I'm not referring to Predator and Reaper drones,
7
29028
3627
Τώρα, δεν αναφέρομαι στα μη επανδρωμένα αεροσκάφη Predator και Reaper,
00:32
which have a human making targeting decisions.
8
32655
3260
στα οποία κάποιος άνθρωπος παίρνει αποφάσεις στοχοποίησης.
00:35
I'm talking about fully autonomous robotic weapons
9
35915
3129
Μιλάω για πλήρως αυτόνομα ρομποτικά όπλα
00:39
that make lethal decisions about human beings
10
39044
2654
που παίρνουν θανατηφόρες αποφάσεις σχετικές με τον άνθρωπο
00:41
all on their own.
11
41698
2417
τελείως μόνα τους.
00:44
There's actually a technical term for this: lethal autonomy.
12
44115
4000
Για την ακρίβεια υπάρχει ένας τεχνικός όρος γι' αυτό: θανατηφόρα αυτονομία.
00:48
Now, lethally autonomous killer robots
13
48115
2856
Τώρα, τα θανατηφόρα αυτόνομα ρομπότ δολοφόνοι
00:50
would take many forms -- flying, driving,
14
50971
3069
θα μπορούσαν να πάρουν πολλές μορφές -ιπτάμενα, εποχούμενα
00:54
or just lying in wait.
15
54040
2746
ή απλά ευρισκόμενα σε αναμονή.
00:56
And actually, they're very quickly becoming a reality.
16
56786
3109
Και μάλιστα, γίνονται πολύ γρήγορα πραγματικότητα.
00:59
These are two automatic sniper stations
17
59895
2484
Αυτοί είναι δύο αυτόματοι σταθμοί ελεύθερου σκοπευτή
01:02
currently deployed in the DMZ between North and South Korea.
18
62379
4137
που τώρα παρατάσσονται στην αποστρατικοποιημένη ζώνη μεταξύ Β. & Ν. Κορέας.
01:06
Both of these machines are capable of automatically
19
66516
2171
Και τα δύο αυτά μηχανήματα είναι σε θέση ν' αναγνωρίσουν
01:08
identifying a human target and firing on it,
20
68687
3524
αυτόματα έναν ανθρώπινο στόχο και να ρίξουν σε αυτόν,
01:12
the one on the left at a distance of over a kilometer.
21
72211
4324
αυτό στα αριστερά σε απόσταση μεγαλύτερη του ενός χιλιομέτρου.
01:16
Now, in both cases, there's still a human in the loop
22
76535
3589
Τώρα, και στις δύο περιπτώσεις, υπάρχει ακόμη κάποιος άνθρωπος στη διαδικασία
01:20
to make that lethal firing decision,
23
80124
2372
για να παρθεί αυτή η απόφαση θανάσιμης βολής,
01:22
but it's not a technological requirement. It's a choice.
24
82496
5413
αλλά δεν είναι μια τεχνολογική απαίτηση. Είναι μια επιλογή.
01:27
And it's that choice that I want to focus on,
25
87909
3093
Και είναι αυτή η επιλογή στην οποία θα ήθελα να εστιάσω,
01:31
because as we migrate lethal decision-making
26
91002
2641
γιατί καθώς μεταφέρουμε τη λήψη θανατηφόρων αποφάσεων
01:33
from humans to software,
27
93643
3109
από τους ανθρώπους στο λογισμικό,
01:36
we risk not only taking the humanity out of war,
28
96752
3476
κινδυνεύουμε όχι μόνο να θέσουμε την ανθρωπιά εκτός πολέμου,
01:40
but also changing our social landscape entirely,
29
100228
3526
αλλά, ν' αλλάξουμε επίσης το κοινωνικό μας τοπίο εξ' ολοκλήρου,
01:43
far from the battlefield.
30
103754
2224
μακριά από το πεδίο της μάχης.
01:45
That's because the way humans resolve conflict
31
105978
4509
Αυτό γιατί ο τρόπος με τον οποίο οι άνθρωποι επιλύουν τις διαφορές τους
01:50
shapes our social landscape.
32
110487
1733
διαμορφώνει το κοινωνικό μας τοπίο.
01:52
And this has always been the case, throughout history.
33
112220
2633
Και πάντα αυτό ήταν το ζήτημα, σε όλη την Ιστορία.
01:54
For example, these were state-of-the-art weapons systems
34
114853
2661
Για παράδειγμα, αυτά ήταν τα τελευταίας τεχνολογίας οπλικά συστήματα
01:57
in 1400 A.D.
35
117514
2079
το 1400 μ.Χ..
01:59
Now they were both very expensive to build and maintain,
36
119593
3144
Ήταν και τα δύο πολύ ακριβά να κατασκευαστούν και να διατηρηθούν,
02:02
but with these you could dominate the populace,
37
122737
3240
αλλά με αυτά θα μπορούσατε να εξουσιάσετε τον λαό
02:05
and the distribution of political power in feudal society reflected that.
38
125977
3889
κι αυτό αντικατοπτρίστηκε στην κατανομή της πολιτικής εξουσίας στην φεουδαρχική κοινωνία.
02:09
Power was focused at the very top.
39
129866
2687
Η εξουσία ήταν συγκεντρωμένη στην κορυφή.
02:12
And what changed? Technological innovation.
40
132553
3528
Και τι άλλαξε; Η τεχνολογική καινοτομία.
02:16
Gunpowder, cannon.
41
136081
1871
Μπαρούτι, κανόνι.
02:17
And pretty soon, armor and castles were obsolete,
42
137952
3817
Κι αρκετά σύντομα, πανοπλίες και κάστρα απαρχαιώθηκαν
02:21
and it mattered less who you brought to the battlefield
43
141769
2533
και είχε λιγότερη σημασία ποιον φέρνατε στο πεδίο της μάχης
02:24
versus how many people you brought to the battlefield.
44
144302
3779
σε αντίθεση με τον αριθμό των ατόμων που φέρνατε στο πεδίο της μάχης.
02:28
And as armies grew in size, the nation-state arose
45
148081
3638
Και καθώς οι στρατοί μεγάλωναν σε μέγεθος, προέκυψε το έθνος-κράτος
02:31
as a political and logistical requirement of defense.
46
151719
3680
ως μια πολιτική και υλικοτεχνική απαίτηση της άμυνας.
02:35
And as leaders had to rely on more of their populace,
47
155399
2376
Και καθώς οι ηγέτες έπρεπε να βασίζονται περισσότερο στον λαό τους,
02:37
they began to share power.
48
157775
1833
άρχισαν να μοιράζουν την εξουσία.
02:39
Representative government began to form.
49
159608
2599
Άρχισε να δημιουργείται η αντιπροσωπευτική κυβέρνηση.
02:42
So again, the tools we use to resolve conflict
50
162207
3288
Έτσι και πάλι, τα εργαλεία που χρησιμοποιούμε για την επίλυση διαφορών
02:45
shape our social landscape.
51
165495
3304
διαμορφώνουν το κοινωνικό μας τοπίο.
02:48
Autonomous robotic weapons are such a tool,
52
168799
4064
Τα αυτόνομα ρομποτικά όπλα είναι ένα τέτοιο εργαλείο,
02:52
except that, by requiring very few people to go to war,
53
172863
5168
εκτός απ' το ότι, απαιτώντας πολύ λίγους ανθρώπους να πάνε στον πόλεμο,
02:58
they risk re-centralizing power into very few hands,
54
178031
4840
ρισκάρουν την επανακεντρικοποίηση της εξουσίας σε ελάχιστα χέρια,
03:02
possibly reversing a five-century trend toward democracy.
55
182871
6515
αντιστρέφοντας ενδεχομένως μια τάση πέντε αιώνων προς τη δημοκρατία.
03:09
Now, I think, knowing this,
56
189386
1757
Τώρα, πιστεύω ότι, γνωρίζοντας αυτό,
03:11
we can take decisive steps to preserve our democratic institutions,
57
191143
4352
μπορούμε να λάβουμε αποφασιστικά μέτρα για να διατηρήσουμε τους δημοκρατικούς μας θεσμούς,
03:15
to do what humans do best, which is adapt.
58
195495
3979
να κάνουμε αυτό που ο άνθρωπος κάνει καλύτερα, που είναι η προσαρμογή.
03:19
But time is a factor.
59
199474
2005
Αλλά ο χρόνος είναι ένας παράγοντας.
03:21
Seventy nations are developing remotely-piloted
60
201479
2851
Εβδομήντα χώρες αναπτύσσουν δικά τους τηλεκατευθυνόμενα
03:24
combat drones of their own,
61
204330
2157
μη επανδρωμένα μέσα μάχης
03:26
and as you'll see, remotely-piloted combat drones
62
206487
2593
κι όπως θα δείτε, τα τηλεκατευθυνόμενα μη επανδρωμένα μέσα
03:29
are the precursors to autonomous robotic weapons.
63
209080
4472
είναι ο πρόδρομος των αυτόματων ρομποτικών όπλων.
03:33
That's because once you've deployed remotely-piloted drones,
64
213552
2767
Αυτό συμβαίνει γιατί άπαξ κι αναπτυχθούν τηλεκατευθυνόμενα μη επανδρωμένα μέσα,
03:36
there are three powerful factors pushing decision-making
65
216319
3384
υπάρχουν τρεις ισχυροί παράγοντες που σπρώχνουν τη λήψη αποφάσεων
03:39
away from humans and on to the weapon platform itself.
66
219703
4600
μακριά από τον άνθρωπο και προς την ίδια την οπλική πλατφόρμα.
03:44
The first of these is the deluge of video that drones produce.
67
224303
5259
Ο πρώτος από αυτούς είναι ο κατακλυσμός από βίντεο που παράγουν τα μη επανδρωμένα μέσα.
03:49
For example, in 2004, the U.S. drone fleet produced
68
229562
3853
Για παράδειγμα, το 2004, ο στόλος των μη επανδρωμένων μέσων των ΗΠΑ παρήγαγε
03:53
a grand total of 71 hours of video surveillance for analysis.
69
233415
5312
ένα γενικό σύνολο 71 ωρών βιντεοεπιτήρησης για ανάλυση.
03:58
By 2011, this had gone up to 300,000 hours,
70
238727
4499
Μέχρι το 2011, αυτό είχε ανέβει στις 300.000 ώρες,
04:03
outstripping human ability to review it all,
71
243226
3149
ξεπερνώντας την ανθρώπινη ικανότητα για την ολική του αξιολόγηση,
04:06
but even that number is about to go up drastically.
72
246375
3664
αλλά ακόμη κι αυτός ο αριθμός είναι έτοιμος ν' αυξηθεί δραστικά.
04:10
The Pentagon's Gorgon Stare and Argus programs
73
250039
2575
Τα προγράμματα Gorgon Stare και Argus του Πενταγώνου
04:12
will put up to 65 independently operated camera eyes
74
252614
3164
θα θέσουν μέχρι 65 λειτουργικώς ανεξάρτητα μάτια καμερών
04:15
on each drone platform,
75
255778
2038
σε κάθε πλατφόρμα μη επανδρωμένου μέσου
04:17
and this would vastly outstrip human ability to review it.
76
257816
3303
κι αυτό θα ξεπερνούσε κατά πολύ την ανθρώπινη ικανότητα για αξιολόγηση.
04:21
And that means visual intelligence software will need
77
261119
2160
Αυτό σημαίνει ότι το λογισμικό οπτικής νοημοσύνης θα πρέπει
04:23
to scan it for items of interest.
78
263279
4048
να το εξετάζει για στοιχεία που παρουσιάζουν ενδιαφέρον.
04:27
And that means very soon
79
267327
1348
Κι αυτό σημαίνει ότι πολύ σύντομα
04:28
drones will tell humans what to look at,
80
268675
2747
τα μη επανδρωμένα μέσα θα λένε στους ανθρώπους τι να κοιτάξουν,
04:31
not the other way around.
81
271422
2497
όχι το αντίστροφο.
04:33
But there's a second powerful incentive pushing
82
273919
2473
Αλλά υπάρχει ένα δεύτερο ισχυρό κίνητρο που ωθεί
04:36
decision-making away from humans and onto machines,
83
276392
3383
τη λήψη αποφάσεων μακριά από τους ανθρώπους και προς τις μηχανές
04:39
and that's electromagnetic jamming,
84
279775
2872
κι αυτό είναι οι ηλεκτρομαγνητικές παρεμβολές
04:42
severing the connection between the drone
85
282647
2236
που διακόπτουν τη σύνδεση μεταξύ του μη επανδρωμένου μέσου
04:44
and its operator.
86
284883
2814
και του χειριστή του.
04:47
Now we saw an example of this in 2011
87
287697
2618
Είδαμε ένα τέτοιο παράδειγμα το 2011
04:50
when an American RQ-170 Sentinel drone
88
290315
2956
όταν ένα αμερικανικό μη επανδρωμένο αεροσκάφος RQ-170 Sentinel
04:53
got a bit confused over Iran due to a GPS spoofing attack,
89
293271
4307
μπερδεύτηκε λίγο πάνω από το Ιράν, λόγω μιας επίθεσης εξαπάτησης του GPS, αλλά
04:57
but any remotely-piloted drone is susceptible to this type of attack,
90
297578
5114
οποιοδήποτε τηλεκατευθυνόμενο μη επανδρωμένο μέσο είναι ευπαθές σε αυτού του είδους την επίθεση
05:02
and that means drones
91
302692
2052
κι αυτό σημαίνει ότι τα μη επανδρωμένα μέσα
05:04
will have to shoulder more decision-making.
92
304744
3620
θα πρέπει να αναλάβουν περισσότερες λήψεις αποφάσεων.
05:08
They'll know their mission objective,
93
308364
3043
Θα γνωρίζουν τον αντικειμενικό σκοπό της αποστολής τους
05:11
and they'll react to new circumstances without human guidance.
94
311407
4845
και θα αντιδρούν στα νέα δεδομένα χωρίς ανθρώπινη καθοδήγηση.
05:16
They'll ignore external radio signals
95
316252
2581
Θα αγνοούν εξωτερικά ραδιοσήματα
05:18
and send very few of their own.
96
318833
2330
και θα στέλνουν ελάχιστα δικά τους.
05:21
Which brings us to, really, the third
97
321163
2006
Αυτό μας φέρνει, πραγματικά, στο τρίτο
05:23
and most powerful incentive pushing decision-making
98
323169
3862
και πιο ισχυρό κίνητρο πίεσης της λήψης αποφάσεων
05:27
away from humans and onto weapons:
99
327031
3342
μακριά από τον άνθρωπο και προς τα όπλα:
05:30
plausible deniability.
100
330373
3293
την εύλογη δυνατότητα άρνησης.
05:33
Now we live in a global economy.
101
333666
2887
Ζούμε σε μια παγκόσμια οικονομία.
05:36
High-tech manufacturing is occurring on most continents.
102
336553
4334
Κατασκευές υψηλής τεχνολογίας πραγματοποιούνται στις περισσότερες ηπείρους.
05:40
Cyber espionage is spiriting away advanced designs
103
340887
2914
Η κυβερνοκατασκοπεία διακτινίζει προηγμένα σχέδια μακριά
05:43
to parts unknown,
104
343801
1886
σε άγνωστα μέρη
05:45
and in that environment, it is very likely
105
345687
2014
και σε αυτό το περιβάλλον, είναι πολύ πιθανό
05:47
that a successful drone design will be knocked off in contract factories,
106
347701
4734
ότι ένας επιτυχής σχεδιασμός μη επανδρωμένου μέσου θα ξεφύγει από τα εργοστάσια της σύμβασης,
05:52
proliferate in the gray market.
107
352435
2170
θα εξαπλωθεί στην γκρίζα αγορά.
05:54
And in that situation, sifting through the wreckage
108
354605
2460
Και σε αυτή την περίπτωση, σε μια προσεκτική εξέταση των συντριμμιών
05:57
of a suicide drone attack, it will be very difficult to say
109
357065
2960
μιας επίθεσης αυτοκτονίας μη επανδρωμένου μέσου, πολύ δύσκολα θα μπορεί να ειπωθεί
06:00
who sent that weapon.
110
360025
4400
ποιος έστειλε το εν λόγω όπλο.
06:04
This raises the very real possibility
111
364425
2800
Αυτό εγείρει την πολύ πραγματική πιθανότητα
06:07
of anonymous war.
112
367225
2935
του ανώνυμου πολέμου.
06:10
This could tilt the geopolitical balance on its head,
113
370160
2614
Αυτό θα μπορούσε να ταρακουνήσει τις γεωπολιτικές ισορροπίες κατακέφαλα,
06:12
make it very difficult for a nation to turn its firepower
114
372774
3491
να καταστήσει πολύ δύσκολο σε ένα έθνος να στρέψει τη δύναμη πυρός του
06:16
against an attacker, and that could shift the balance
115
376265
2848
εναντίον ενός εισβολέα και αυτό θα μπορούσε να μετατοπίσει την ισορροπία
06:19
in the 21st century away from defense and toward offense.
116
379113
3764
του 21ου αιώνα, μακριά από την άμυνα και προς την επίθεση.
06:22
It could make military action a viable option
117
382877
3124
Θα μπορούσε να κάνει τη στρατιωτική δράση μία βιώσιμη επιλογή
06:26
not just for small nations,
118
386001
2288
όχι μόνο για τα μικρά έθνη,
06:28
but criminal organizations, private enterprise,
119
388289
2545
αλλά για εγκληματικές οργανώσεις, ιδιωτικές επιχειρήσεις,
06:30
even powerful individuals.
120
390834
2479
ακόμη και ισχυρών ατόμων.
06:33
It could create a landscape of rival warlords
121
393313
3328
Αυτό θα μπορούσε να δημιουργήσει ένα πεδίο από αντίπαλους πολέμαρχους
06:36
undermining rule of law and civil society.
122
396641
3680
υπονομεύοντας το κράτος δικαίου και την κοινωνία των πολιτών.
06:40
Now if responsibility and transparency
123
400321
3616
Εάν η υπευθυνότητα και η διαφάνεια
06:43
are two of the cornerstones of representative government,
124
403937
2384
είναι δύο από τους ακρογωνιαίους λίθους της αντιπροσωπευτικής κυβέρνησης,
06:46
autonomous robotic weapons could undermine both.
125
406321
4320
τα αυτόνομα ρομποτικά όπλα θα μπορούσαν να υποσκάψουν και τα δύο.
06:50
Now you might be thinking that
126
410641
1546
Μπορεί να σκέφτεστε ότι
06:52
citizens of high-tech nations
127
412187
2246
οι πολίτες των εθνών υψηλής τεχνολογίας
06:54
would have the advantage in any robotic war,
128
414433
2703
θα είχαν το πλεονέκτημα σε κάθε ρομποτικό πόλεμο,
06:57
that citizens of those nations would be less vulnerable,
129
417136
3633
ότι οι πολίτες αυτών των εθνών θα ήταν λιγότερο ευάλωτοι,
07:00
particularly against developing nations.
130
420769
4288
ιδιαίτερα ενάντια στις αναπτυσσόμενες χώρες.
07:05
But I think the truth is the exact opposite.
131
425057
3524
Αλλά νομίζω ότι η αλήθεια είναι το ακριβώς αντίθετο.
07:08
I think citizens of high-tech societies
132
428581
2251
Νομίζω ότι οι πολίτες των κοινωνιών υψηλής τεχνολογίας
07:10
are more vulnerable to robotic weapons,
133
430832
3729
είναι πιο ευάλωτοι στα ρομποτικά όπλα
07:14
and the reason can be summed up in one word: data.
134
434561
4465
και η αιτία μπορεί να συνοψιστεί σε μία λέξη: Δεδομένα.
07:19
Data powers high-tech societies.
135
439026
3481
Τα δεδομένα κινούν τις κοινωνίες υψηλής τεχνολογίας.
07:22
Cell phone geolocation, telecom metadata,
136
442507
3190
Γεωτοποθεσία κινητού τηλεφώνου, μεταδεδομένα τηλεπικοινωνιών,
07:25
social media, email, text, financial transaction data,
137
445697
3472
κοινωνικά μέσα, ηλεκτρονικό ταχυδρομείο, κείμενα, δεδομένα οικονομικών συναλλαγών,
07:29
transportation data, it's a wealth of real-time data
138
449169
3532
μεταφορά δεδομένων, είναι μία πληθώρα δεδομένων πραγματικού χρόνου
07:32
on the movements and social interactions of people.
139
452701
3373
σχετικά με τις κινήσεις και τις κοινωνικές αλληλεπιδράσεις των ατόμων.
07:36
In short, we are more visible to machines
140
456074
3775
Εν ολίγοις, είμαστε πιο ορατοί στις μηχανές
07:39
than any people in history,
141
459849
2242
από οποιαδήποτε πληθυσμιακή ομάδα στην ιστορία
07:42
and this perfectly suits the targeting needs of autonomous weapons.
142
462091
5616
κι αυτό ταιριάζει απόλυτα στις ανάγκες στόχευσης των αυτόνομων όπλων.
07:47
What you're looking at here
143
467707
1738
Αυτό που βλέπετε εδώ
07:49
is a link analysis map of a social group.
144
469445
3246
είναι ένας χάρτης ανάλυσης συνδέσμων μιας κοινωνικής ομάδας.
07:52
Lines indicate social connectedness between individuals.
145
472691
3634
Οι γραμμές υποδηλώνουν κοινωνική συνεκτικότητα μεταξύ των ατόμων.
07:56
And these types of maps can be automatically generated
146
476325
2880
Κι αυτοί οι τύποι των χαρτών μπορούν να δημιουργηθούν αυτόματα
07:59
based on the data trail modern people leave behind.
147
479205
4715
με βάση τα ίχνη δεδομένων που οι σύγχρονοι άνθρωποι αφήνουν πίσω τους.
08:03
Now it's typically used to market goods and services
148
483920
2477
Συνήθως χρησιμοποιούνται για την προώθηση αγαθών και υπηρεσιών
08:06
to targeted demographics, but it's a dual-use technology,
149
486397
4416
με δημογραφική στόχευση, αλλά είναι μια τεχνολογία διττής χρήσης,
08:10
because targeting is used in another context.
150
490813
3360
επειδή η στόχευση χρησιμοποιείται σ' ένα άλλο πλαίσιο.
08:14
Notice that certain individuals are highlighted.
151
494173
2560
Παρατηρήστε ότι ορισμένα άτομα είναι επισημασμένα.
08:16
These are the hubs of social networks.
152
496733
3280
Είναι οι κόμβοι των κοινωνικών δικτύων.
08:20
These are organizers, opinion-makers, leaders,
153
500013
3590
Πρόκειται για διοργανωτές, διαμορφωτές της κοινής γνώμης, ηγέτες
08:23
and these people also can be automatically identified
154
503603
2682
κι αυτοί οι άνθρωποι επίσης μπορούν ν' αναγνωριστούν αυτόματα
08:26
from their communication patterns.
155
506285
2382
από τα μοτίβα επικοινωνίας τους.
08:28
Now, if you're a marketer, you might then target them
156
508667
2146
Τώρα, εάν είστε έμποροι, ίσως μετά να τους στοχοποιούσατε
08:30
with product samples, try to spread your brand
157
510813
2543
με δείγματα προϊόντων, ίσως επιχειρούσατε να προωθήσετε τη μάρκα σας
08:33
through their social group.
158
513356
2829
μέσω των κοινωνικών τους ομάδων.
08:36
But if you're a repressive government
159
516185
1953
Αλλά, αν είστε μια τυραννική κυβέρνηση
08:38
searching for political enemies, you might instead remove them,
160
518138
4810
που αναζητά πολιτικούς εχθρούς, αντί αυτού μπορείτε ίσως να τους απομακρύνετε,
08:42
eliminate them, disrupt their social group,
161
522948
2760
να τους εξαλείψετε, να διαταράξετε την κοινωνική ομάδα τους
08:45
and those who remain behind lose social cohesion
162
525708
3169
κι εκείνοι που παραμείνουν πίσω χάνουν την κοινωνική συνοχή
08:48
and organization.
163
528877
2621
και οργάνωση.
08:51
Now in a world of cheap, proliferating robotic weapons,
164
531498
3324
Τώρα σε έναν κόσμο από φτηνά, πολλαπλασιαζόμενα ρομποτικά όπλα,
08:54
borders would offer very little protection
165
534822
2635
τα σύνορα θα προσέφεραν πολύ μικρή προστασία
08:57
to critics of distant governments
166
537457
1946
στους επικριτές απόμακρων κυβερνήσεων
08:59
or trans-national criminal organizations.
167
539403
3646
ή διακρατικών εγκληματικών οργανώσεων.
09:03
Popular movements agitating for change
168
543049
3493
Λαϊκά κινήματα διψασμένα για αλλαγή
09:06
could be detected early and their leaders eliminated
169
546542
3609
θα μπορούσαν να εντοπιστούν νωρίς και οι ηγέτες τους να εξαλειφθούν
09:10
before their ideas achieve critical mass.
170
550151
2911
πριν οι ιδέες τους επιτύχουν την κρίσιμη μάζα.
09:13
And ideas achieving critical mass
171
553062
2591
Και οι ιδέες που επιτυγχάνουν την κρίσιμη μάζα
09:15
is what political activism in popular government is all about.
172
555653
3936
αφορούν τον πολιτικό ακτιβισμό στη λαϊκή κυβέρνηση.
09:19
Anonymous lethal weapons could make lethal action
173
559589
3997
Ανώνυμα θανατηφόρα όπλα θα μπορούσαν να κάνουν τη θανατηφόρο δράση
09:23
an easy choice for all sorts of competing interests.
174
563586
3782
μια εύκολη επιλογή για όλα τα είδη των ανταγωνιστικών συμφερόντων.
09:27
And this would put a chill on free speech
175
567368
3734
Κι αυτό θα πάγωνε την ελευθερία του λόγου
09:31
and popular political action, the very heart of democracy.
176
571102
5308
και την λαϊκή πολιτική δράση, την ίδια την καρδιά της Δημοκρατίας.
09:36
And this is why we need an international treaty
177
576410
2914
Γι' αυτό χρειαζόμαστε μια διεθνή συνθήκη
09:39
on robotic weapons, and in particular a global ban
178
579324
3540
για τα ρομποτικά όπλα και ειδικότερα μια καθολική απαγόρευση
09:42
on the development and deployment of killer robots.
179
582864
3908
στη δημιουργία και ανάπτυξη των ρομπότ δολοφόνων.
09:46
Now we already have international treaties
180
586772
3254
Ήδη έχουμε διεθνείς συνθήκες
09:50
on nuclear and biological weapons, and, while imperfect,
181
590026
3386
για πυρηνικά και βιολογικά όπλα και, παρότι ελλιπείς,
09:53
these have largely worked.
182
593412
2288
αυτές έχουν λειτουργήσει σε μεγάλο βαθμό.
09:55
But robotic weapons might be every bit as dangerous,
183
595700
3768
Αλλά τα ρομποτικά όπλα μπορεί να είναι εξίσου επικίνδυνα,
09:59
because they will almost certainly be used,
184
599468
3288
επειδή σχεδόν σίγουρα θα χρησιμοποιηθούν
10:02
and they would also be corrosive to our democratic institutions.
185
602756
5027
κι επίσης θα διάβρωναν τους δημοκρατικούς μας θεσμούς.
10:07
Now in November 2012 the U.S. Department of Defense
186
607783
3468
Το Νοέμβριο του 2012, το Υπουργείο Άμυνας των ΗΠΑ
10:11
issued a directive requiring
187
611251
2458
εξέδωσε μια οδηγία που απαιτούσε
10:13
a human being be present in all lethal decisions.
188
613709
4519
την παρουσία ανθρώπου σε όλες τις θανατηφόρες αποφάσεις.
10:18
This temporarily effectively banned autonomous weapons in the U.S. military,
189
618228
4776
Αυτό προσωρινά απαγόρευσε αποτελεσματικά τα αυτόνομα όπλα του αμερικάνικου στρατού,
10:23
but that directive needs to be made permanent.
190
623004
3753
αλλά, η εν λόγω οδηγία χρειάζεται να γίνει μόνιμη.
10:26
And it could set the stage for global action.
191
626757
4376
Και θα μπορούσε να θέσει τη βάση για παγκόσμια δράση.
10:31
Because we need an international legal framework
192
631133
3845
Διότι χρειαζόμαστε ένα διεθνές νομικό πλαίσιο
10:34
for robotic weapons.
193
634978
2138
για τα ρομποτικά όπλα.
10:37
And we need it now, before there's a devastating attack
194
637116
2928
Και το χρειαζόμαστε τώρα, προτού να υπάρξει μια καταστροφική επίθεση
10:40
or a terrorist incident that causes nations of the world
195
640044
3152
ή ένα τρομοκρατικό περιστατικό που θα προκαλέσει στα έθνη του κόσμου
10:43
to rush to adopt these weapons
196
643196
1924
να βιαστούν να υιοθετήσουν αυτά τα όπλα
10:45
before thinking through the consequences.
197
645120
3771
πριν σκεφτούν τις συνέπειες.
10:48
Autonomous robotic weapons concentrate too much power
198
648891
2981
Τα αυτόνομα ρομποτικά όπλα επικεντρώνουν πάρα πολύ δύναμη
10:51
in too few hands, and they would imperil democracy itself.
199
651872
6283
σε λιγοστά χέρια κι αυτά θα έθεταν σε κίνδυνο την ίδια τη δημοκρατία.
10:58
Now, don't get me wrong, I think there are tons
200
658155
2686
Μην με παρεξηγείτε, πιστεύω ότι υπάρχουν πάμπολες
11:00
of great uses for unarmed civilian drones:
201
660841
2618
σπουδαίες χρήσεις των αμάχων μη επανδρωμένων μέσων:
11:03
environmental monitoring, search and rescue, logistics.
202
663459
3939
περιβαλλοντική παρακολούθηση, έρευνα και διάσωση, μεταφορά προμηθειών.
11:07
If we have an international treaty on robotic weapons,
203
667398
2826
Αν έχουμε μια διεθνή συνθήκη για τα ρομποτικά όπλα,
11:10
how do we gain the benefits of autonomous drones
204
670224
3587
πώς κερδίζουμε τα οφέλη των αυτόνομων μη επανδρωμένων μέσων
11:13
and vehicles while still protecting ourselves
205
673811
2648
και οχημάτων ενόσω προστατεύουμε παράλληλα τους εαυτούς μας
11:16
against illegal robotic weapons?
206
676459
3980
από τα παράνομα ρομποτικά όπλα;
11:20
I think the secret will be transparency.
207
680439
4741
Νομίζω ότι το μυστικό θα είναι η διαφάνεια.
11:25
No robot should have an expectation of privacy
208
685180
3013
Κανένα ρομπότ δεν θα πρέπει να έχει την προσδοκία της ιδιωτικότητας
11:28
in a public place.
209
688193
3451
σε δημόσιο χώρο.
11:31
(Applause)
210
691644
5048
(Χειροκρότημα)
11:36
Each robot and drone should have
211
696692
2045
Κάθε ρομπότ και μη επανδρωμένο μέσο θα πρέπει να έχει
11:38
a cryptographically signed I.D. burned in at the factory
212
698737
2883
μια ψηφιακά κρυπτογραφημένη ταυτότητα που να δημιουργείται στο εργοστάσιο και
11:41
that can be used to track its movement through public spaces.
213
701620
2923
να μπορεί να χρησιμοποιηθεί για να παρακολουθείται η κίνησή του σε δημόσιους χώρους.
11:44
We have license plates on cars, tail numbers on aircraft.
214
704543
3381
Έχουμε πινακίδες στα αυτοκίνητα, αριθμούς σειράς στα αεροσκάφη.
11:47
This is no different.
215
707924
1841
Αυτό δεν είναι κάτι διαφορετικό.
11:49
And every citizen should be able to download an app
216
709765
2012
Κάθε πολίτης θα πρέπει να είναι σε θέση να κατεβάσει μια εφαρμογή
11:51
that shows the population of drones and autonomous vehicles
217
711777
3125
που θα δείχνει τον πληθυσμό των μη επανδρωμένων μέσων και αυτόνομων οχημάτων
11:54
moving through public spaces around them,
218
714902
2429
που κινούνται μέσα σε δημόσιους χώρους γύρω του,
11:57
both right now and historically.
219
717331
2733
τόσο αυτή τη στιγμή όσο και ιστορικά.
12:00
And civic leaders should deploy sensors and civic drones
220
720064
3548
Και οι πολιτικοί ηγέτες θα πρέπει να αναπτύξουν αισθητήρες και πολιτικά μη επανδρωμένα μέσα
12:03
to detect rogue drones,
221
723612
2344
για τον εντοπισμό έκνομων μη επανδρωμένων μέσων,
12:05
and instead of sending killer drones of their own up to shoot them down,
222
725956
3176
κι αντί της αποστολής δικών τους φονικών μη επανδρωμένων μέσων για να τα καταστρέψουν,
12:09
they should notify humans to their presence.
223
729132
2992
θα πρέπει να ενημερώνουν τους ανθρώπους για την παρουσία τους.
12:12
And in certain very high-security areas,
224
732124
2606
Και σε ορισμένες περιοχές πολύ υψηλής ασφάλειας,
12:14
perhaps civic drones would snare them
225
734730
1909
ίσως τα πολιτικά μη επανδρωμένα μέσα να τα παγιδεύουν
12:16
and drag them off to a bomb disposal facility.
226
736639
2841
και να τα παρασέρνουν σε μια εγκατάσταση εξουδετέρωσης βομβών.
12:19
But notice, this is more an immune system
227
739480
3027
Αλλά προσέξτε, αυτό είναι περισσότερο ένα ανοσοποιητικό σύστημα
12:22
than a weapons system.
228
742507
1321
από ένα σύστημα όπλων.
12:23
It would allow us to avail ourselves of the use
229
743828
2592
Θα μας επέτρεπε να επωφεληθούμε οι ίδιοι τη χρήση
12:26
of autonomous vehicles and drones
230
746420
2032
αυτόνομων οχημάτων και μη επανδρωμένων μέσων,
12:28
while still preserving our open, civil society.
231
748452
4295
διατηρώντας ακόμα την ανοικτή μας κοινωνία των πολιτών.
12:32
We must ban the deployment and development
232
752747
2999
Πρέπει να απαγορεύσουμε την ανάπτυξη και δημιουργία
12:35
of killer robots.
233
755746
1862
ρομπότ δολοφόνων
12:37
Let's not succumb to the temptation to automate war.
234
757608
4850
Ας μην υποκύψουμε στον πειρασμό να αυτοματοποιήσουμε τον πόλεμο.
12:42
Autocratic governments and criminal organizations
235
762458
2718
Αυταρχικές κυβερνήσεις κι εγκληματικές οργανώσεις
12:45
undoubtedly will, but let's not join them.
236
765176
2956
αναμφίβολα θα το κάνουν, αλλά ας μην τους συμμεριστούμε.
12:48
Autonomous robotic weapons
237
768132
1891
Τα αυτόνομα ρομποτικά όπλα
12:50
would concentrate too much power
238
770023
2051
θα συγκέντρωναν υπερβολική εξουσία
12:52
in too few unseen hands,
239
772074
2482
σε ελάχιστα αθέατα χέρια
12:54
and that would be corrosive to representative government.
240
774556
3255
κι αυτό θα ήταν διαβρωτικό για την αντιπροσωπευτική κυβέρνηση.
12:57
Let's make sure, for democracies at least,
241
777811
2961
Ας σιγουρευτούμε ότι, τουλάχιστον στις δημοκρατίες,
13:00
killer robots remain fiction.
242
780772
2604
τα ρομπότ δολοφόνοι θα παραμείνουν επιστημονική φαντασία.
13:03
Thank you.
243
783376
1110
Ευχαριστώ.
13:04
(Applause)
244
784486
4565
(Χειροκρότημα)
13:09
Thank you. (Applause)
245
789051
4616
Σας ευχαριστώ. (Χειροκρότημα)
Σχετικά με αυτόν τον ιστότοπο

Αυτός ο ιστότοπος θα σας παρουσιάσει βίντεο στο YouTube που είναι χρήσιμα για την εκμάθηση της αγγλικής γλώσσας. Θα δείτε μαθήματα αγγλικών που διδάσκουν κορυφαίοι καθηγητές από όλο τον κόσμο. Κάντε διπλό κλικ στους αγγλικούς υπότιτλους που εμφανίζονται σε κάθε σελίδα βίντεο για να αναπαράγετε το βίντεο από εκεί. Οι υπότιτλοι μετακινούνται συγχρονισμένα με την αναπαραγωγή του βίντεο. Εάν έχετε οποιαδήποτε σχόλια ή αιτήματα, παρακαλούμε επικοινωνήστε μαζί μας χρησιμοποιώντας αυτή τη φόρμα επικοινωνίας.

https://forms.gle/WvT1wiN1qDtmnspy7