Daniel Suarez: The kill decision shouldn't belong to a robot

76,064 views ・ 2013-06-13

TED


Vă rugăm să faceți dublu clic pe subtitrările în limba engleză de mai jos pentru a reda videoclipul.

00:00
Translator: Joseph Geni Reviewer: Morton Bast
0
0
7000
Traducător: Andra Zamosteanu Corector: Ariana Bleau Lugo
00:12
I write fiction sci-fi thrillers,
1
12691
3158
Scriu romane științifico-fantastice.
00:15
so if I say "killer robots,"
2
15849
2193
Dacă spun „roboți ucigași"
00:18
you'd probably think something like this.
3
18042
2361
probabil vă gândiți la ceva de genul ăsta.
00:20
But I'm actually not here to talk about fiction.
4
20403
2555
Dar nu sunt aici să vorbesc despre ficțiune.
00:22
I'm here to talk about very real killer robots,
5
22958
2948
Vreau să vă vorbesc despre roboți ucigași adevărați,
00:25
autonomous combat drones.
6
25906
3122
dronele de luptă autonome.
00:29
Now, I'm not referring to Predator and Reaper drones,
7
29028
3627
Nu drone precum Predator sau Reaper,
00:32
which have a human making targeting decisions.
8
32655
3260
unde oamenii iau deciziile.
00:35
I'm talking about fully autonomous robotic weapons
9
35915
3129
E vorba de arme robotice complet autonome
00:39
that make lethal decisions about human beings
10
39044
2654
care iau decizii letale pentru ființele umane
00:41
all on their own.
11
41698
2417
de unele singure.
00:44
There's actually a technical term for this: lethal autonomy.
12
44115
4000
Există un termen tehnic pentru asta: autonomie letală.
00:48
Now, lethally autonomous killer robots
13
48115
2856
Roboții ucigași autonomi
00:50
would take many forms -- flying, driving,
14
50971
3069
pot avea multe forme -- pot zbura, conduce,
00:54
or just lying in wait.
15
54040
2746
sau doar rămâne în așteptare.
00:56
And actually, they're very quickly becoming a reality.
16
56786
3109
De fapt, încep să devină realitate.
00:59
These are two automatic sniper stations
17
59895
2484
Astea sunt două stații-lunetist automate
01:02
currently deployed in the DMZ between North and South Korea.
18
62379
4137
trimise în zona demilitarizată dintre Coreea de Nord și de Sud.
01:06
Both of these machines are capable of automatically
19
66516
2171
Ambele pot identifica automat
01:08
identifying a human target and firing on it,
20
68687
3524
și trage în ținte umane,
01:12
the one on the left at a distance of over a kilometer.
21
72211
4324
cea din stânga până la un kilometru distanță.
01:16
Now, in both cases, there's still a human in the loop
22
76535
3589
În ambele cazuri mai avem un om în ecuație,
01:20
to make that lethal firing decision,
23
80124
2372
care ia decizia deschiderii focului,
01:22
but it's not a technological requirement. It's a choice.
24
82496
5413
dar nu e o constrângere tehnologică. E o opțiune.
01:27
And it's that choice that I want to focus on,
25
87909
3093
Despre această opțiune vreau să discut,
01:31
because as we migrate lethal decision-making
26
91002
2641
pentru că prin transferarea deciziei letale
01:33
from humans to software,
27
93643
3109
de la oameni la software,
01:36
we risk not only taking the humanity out of war,
28
96752
3476
nu riscăm doar dispariția oricărei umanități din război,
01:40
but also changing our social landscape entirely,
29
100228
3526
ci și modificarea integrală a peisajului social,
01:43
far from the battlefield.
30
103754
2224
departe de câmpul de luptă.
01:45
That's because the way humans resolve conflict
31
105978
4509
Felul în care oamenii rezolvă conflictele
01:50
shapes our social landscape.
32
110487
1733
dă formă peisajului social.
01:52
And this has always been the case, throughout history.
33
112220
2633
Așa a fost întotdeauna în istorie.
01:54
For example, these were state-of-the-art weapons systems
34
114853
2661
De ex., acestea erau sisteme de arme ultramoderne
01:57
in 1400 A.D.
35
117514
2079
în 1400 d.H.
01:59
Now they were both very expensive to build and maintain,
36
119593
3144
Construirea și întreținerea lor erau foarte scumpe,
02:02
but with these you could dominate the populace,
37
122737
3240
dar prin ele puteai domina mulțimile,
02:05
and the distribution of political power in feudal society reflected that.
38
125977
3889
și distribuirea puterii politice în societatea feudală.
02:09
Power was focused at the very top.
39
129866
2687
Puterea era concentrată la vârf.
02:12
And what changed? Technological innovation.
40
132553
3528
Ce s-a schimbat? Inovația tehnologică.
02:16
Gunpowder, cannon.
41
136081
1871
Praf de pușcă, tunuri.
02:17
And pretty soon, armor and castles were obsolete,
42
137952
3817
Armurile și castelele au devenit inutile,
02:21
and it mattered less who you brought to the battlefield
43
141769
2533
iar pe cine aduceai pe câmpul de luptă conta mai puțin
02:24
versus how many people you brought to the battlefield.
44
144302
3779
decât câți oameni aduceai.
02:28
And as armies grew in size, the nation-state arose
45
148081
3638
În timp ce armatele creșteau, a apărut statul național,
02:31
as a political and logistical requirement of defense.
46
151719
3680
ca cerință politică și logistică a apărării.
02:35
And as leaders had to rely on more of their populace,
47
155399
2376
Pentru că liderii se bazau din ce în ce mai mult pe populație,
02:37
they began to share power.
48
157775
1833
au început să împartă puterea.
02:39
Representative government began to form.
49
159608
2599
A început formarea guvernului reprezentativ.
02:42
So again, the tools we use to resolve conflict
50
162207
3288
Armele folosite în rezolvarea conflictelor
02:45
shape our social landscape.
51
165495
3304
dau formă peisajului social.
02:48
Autonomous robotic weapons are such a tool,
52
168799
4064
Armele robotice autonome sunt o astfel de unealtă,
02:52
except that, by requiring very few people to go to war,
53
172863
5168
dar, incluzând puțini oameni în război,
02:58
they risk re-centralizing power into very few hands,
54
178031
4840
prezintă riscul recentralizării puterii în mâna câtorva,
03:02
possibly reversing a five-century trend toward democracy.
55
182871
6515
punând capăt unei tendințe de cinci secole spre democrație.
03:09
Now, I think, knowing this,
56
189386
1757
Știind asta, putem lua pași decisivi
03:11
we can take decisive steps to preserve our democratic institutions,
57
191143
4352
pentru a ne păstra instituțiile democratice,
03:15
to do what humans do best, which is adapt.
58
195495
3979
prin ceea ce oamenii fac cel mai bine, adaptându-se.
03:19
But time is a factor.
59
199474
2005
Dar timpul e un factor.
03:21
Seventy nations are developing remotely-piloted
60
201479
2851
Șaptezeci de țări construiesc
03:24
combat drones of their own,
61
204330
2157
drone de război autonome,
03:26
and as you'll see, remotely-piloted combat drones
62
206487
2593
iar dronele pilotate de la distanță, veți vedea,
03:29
are the precursors to autonomous robotic weapons.
63
209080
4472
sunt precursorii armelor robotice indepedente.
03:33
That's because once you've deployed remotely-piloted drones,
64
213552
2767
Odată ce ai trimis în luptă drone pilotate de la distanță,
03:36
there are three powerful factors pushing decision-making
65
216319
3384
există trei factori ce transmit luarea de decizii
03:39
away from humans and on to the weapon platform itself.
66
219703
4600
de la oameni către platforma armată însăși.
03:44
The first of these is the deluge of video that drones produce.
67
224303
5259
Primul este mulțimea de video înregistrări colectate.
03:49
For example, in 2004, the U.S. drone fleet produced
68
229562
3853
În 2004, flota de drone a SUA a capturat pentru analiză
03:53
a grand total of 71 hours of video surveillance for analysis.
69
233415
5312
71 de ore de material video de supraveghere.
03:58
By 2011, this had gone up to 300,000 hours,
70
238727
4499
Până în 2011, ajunsese la 300,000 de ore,
04:03
outstripping human ability to review it all,
71
243226
3149
depășind capacitatea omului de a le urmări,
04:06
but even that number is about to go up drastically.
72
246375
3664
dar și acest număr e pe cale să crească alarmant.
04:10
The Pentagon's Gorgon Stare and Argus programs
73
250039
2575
Programele Gorgon Stare și Argus ale Pentagonului
04:12
will put up to 65 independently operated camera eyes
74
252614
3164
vor monta 65 de camere independente
04:15
on each drone platform,
75
255778
2038
pe fiecare platformă de drone,
04:17
and this would vastly outstrip human ability to review it.
76
257816
3303
ceea ce ar depăși cu mult capacitatea umană de a le analiza.
04:21
And that means visual intelligence software will need
77
261119
2160
Va fi nevoie, deci, de software de urmărire vizuală
04:23
to scan it for items of interest.
78
263279
4048
pentru a scana obiectele de interes.
04:27
And that means very soon
79
267327
1348
În curând,
04:28
drones will tell humans what to look at,
80
268675
2747
dronele le vor spune oamenilor ce să privească,
04:31
not the other way around.
81
271422
2497
nu invers.
04:33
But there's a second powerful incentive pushing
82
273919
2473
Mai există un motiv
04:36
decision-making away from humans and onto machines,
83
276392
3383
pentru cedarea deciziei către mașini,
04:39
and that's electromagnetic jamming,
84
279775
2872
și anume blocajul electromagnetic,
04:42
severing the connection between the drone
85
282647
2236
ce distruge legătura dintre dronă
04:44
and its operator.
86
284883
2814
și operatorul ei.
04:47
Now we saw an example of this in 2011
87
287697
2618
Avem un astfel de exemplu din 2011
04:50
when an American RQ-170 Sentinel drone
88
290315
2956
când o dronă American RQ-170 Sentinel
04:53
got a bit confused over Iran due to a GPS spoofing attack,
89
293271
4307
a fost derutată din cauza unui atac GPS în Iran,
04:57
but any remotely-piloted drone is susceptible to this type of attack,
90
297578
5114
dar orice dronă pilotată teleghidat e susceptibilă,
05:02
and that means drones
91
302692
2052
ceea ce face necesar ca dronele
05:04
will have to shoulder more decision-making.
92
304744
3620
să aibă mai multă putere de a lua decizii.
05:08
They'll know their mission objective,
93
308364
3043
Vor ști obiectivul misiunii
05:11
and they'll react to new circumstances without human guidance.
94
311407
4845
și vor reacționa la împrejurări noi fără ajutor uman.
05:16
They'll ignore external radio signals
95
316252
2581
Vor ignora semnalele radio externe
05:18
and send very few of their own.
96
318833
2330
și vor trimite puține semnale, la rândul lor.
05:21
Which brings us to, really, the third
97
321163
2006
Asta ne aduce la al treilea
05:23
and most powerful incentive pushing decision-making
98
323169
3862
și cel mai puternic motiv de transferare
05:27
away from humans and onto weapons:
99
327031
3342
a deciziei către arme:
05:30
plausible deniability.
100
330373
3293
posibilitatea de a nega plauzibil.
05:33
Now we live in a global economy.
101
333666
2887
Trăim într-o economie globală.
05:36
High-tech manufacturing is occurring on most continents.
102
336553
4334
Fabricarea de înaltă tehnologie are loc pe mai toate continentele.
05:40
Cyber espionage is spiriting away advanced designs
103
340887
2914
Spionajul cibernetic duce designuri avansate
05:43
to parts unknown,
104
343801
1886
în locuri necunoscute,
05:45
and in that environment, it is very likely
105
345687
2014
iar în acest cadru, e foarte probabil
05:47
that a successful drone design will be knocked off in contract factories,
106
347701
4734
ca un design de succes pentru o dronă să fie furat dintr-o fabrică
05:52
proliferate in the gray market.
107
352435
2170
și să fie larg folosit pe piața neagră.
05:54
And in that situation, sifting through the wreckage
108
354605
2460
Astfel, analizând rămășițele unui atac
05:57
of a suicide drone attack, it will be very difficult to say
109
357065
2960
sinucigaș cu dronă, va fi greu
06:00
who sent that weapon.
110
360025
4400
să determini cine a trimis arma.
06:04
This raises the very real possibility
111
364425
2800
Devine astfel realitate posibilitatea
06:07
of anonymous war.
112
367225
2935
războiului anonim.
06:10
This could tilt the geopolitical balance on its head,
113
370160
2614
Asta ar putea da peste cap echilibrul geopolitic,
06:12
make it very difficult for a nation to turn its firepower
114
372774
3491
ar putea crea greutăți unei națiuni în cazul unui răspuns armat
06:16
against an attacker, and that could shift the balance
115
376265
2848
împotriva unui atacator, înclinând balanța
06:19
in the 21st century away from defense and toward offense.
116
379113
3764
către ofensivă și nu defensivă în secolul XXI.
06:22
It could make military action a viable option
117
382877
3124
Ar putea transforma acțiunea militară într-o opțiune viabilă
06:26
not just for small nations,
118
386001
2288
nu doar pentru micile state,
06:28
but criminal organizations, private enterprise,
119
388289
2545
dar și pentru organizații criminale, afaceri private,
06:30
even powerful individuals.
120
390834
2479
chiar pentru indivizi puternici.
06:33
It could create a landscape of rival warlords
121
393313
3328
Ar putea crea o lume a dictatorilor militari rivali,
06:36
undermining rule of law and civil society.
122
396641
3680
subminând statul de drept și societatea civilă.
06:40
Now if responsibility and transparency
123
400321
3616
Dacă responsabilitatea și transparența
06:43
are two of the cornerstones of representative government,
124
403937
2384
sunt baza guvernului reprezentativ,
06:46
autonomous robotic weapons could undermine both.
125
406321
4320
armele robotice autonome le-ar putea submina.
06:50
Now you might be thinking that
126
410641
1546
Puteți crede
06:52
citizens of high-tech nations
127
412187
2246
că cetățenii națiunilor cu înaltă tehnologie
06:54
would have the advantage in any robotic war,
128
414433
2703
ar deține avantajul în orice război robotic,
06:57
that citizens of those nations would be less vulnerable,
129
417136
3633
că cetățenii acestor state ar fi mai puțin vulnerabili,
07:00
particularly against developing nations.
130
420769
4288
în special împotriva țărilor în curs de dezvoltare.
07:05
But I think the truth is the exact opposite.
131
425057
3524
Este exact invers, însă.
07:08
I think citizens of high-tech societies
132
428581
2251
Cred că cetățenii societăților cu înaltă tehnologie
07:10
are more vulnerable to robotic weapons,
133
430832
3729
sunt mai vulnerabili armelor robotice
07:14
and the reason can be summed up in one word: data.
134
434561
4465
pentru un singur motiv: informația.
07:19
Data powers high-tech societies.
135
439026
3481
Informația stă la baza societățlor de înaltă tehnologie.
07:22
Cell phone geolocation, telecom metadata,
136
442507
3190
Geolocația telefoanelor mobile, metadata din telecomunicații,
07:25
social media, email, text, financial transaction data,
137
445697
3472
social media, email, SMS, date ale tranzacțiilor financiare,
07:29
transportation data, it's a wealth of real-time data
138
449169
3532
date despre transport, o grămadă de informații în timp real
07:32
on the movements and social interactions of people.
139
452701
3373
despre mișcările și interacțiunile sociale ale oamenilor.
07:36
In short, we are more visible to machines
140
456074
3775
Pe scurt, suntem mai vizibili pentru mașini
07:39
than any people in history,
141
459849
2242
decât orice alți oameni din istorie,
07:42
and this perfectly suits the targeting needs of autonomous weapons.
142
462091
5616
ceea ce se potrivește perfect stabilirii țintei armelor independente.
07:47
What you're looking at here
143
467707
1738
Ceea ce vedeți
07:49
is a link analysis map of a social group.
144
469445
3246
e o hartă a legăturilor dintr-un grup social.
07:52
Lines indicate social connectedness between individuals.
145
472691
3634
Liniile reprezintă conexiunea dintre indivizi.
07:56
And these types of maps can be automatically generated
146
476325
2880
Astfel de hărți pot fi generate automat
07:59
based on the data trail modern people leave behind.
147
479205
4715
pe baza amprentelor informaționale lăsate de omul modern.
08:03
Now it's typically used to market goods and services
148
483920
2477
Se folosește, de obicei, pentru a vinde bunuri și servicii
08:06
to targeted demographics, but it's a dual-use technology,
149
486397
4416
către grupuri-țintă, dar e o tehnologie cu dublă folosință,
08:10
because targeting is used in another context.
150
490813
3360
pentru că stabilirea de ținte se face în alt context.
08:14
Notice that certain individuals are highlighted.
151
494173
2560
Observați că anumiți oameni sunt marcați.
08:16
These are the hubs of social networks.
152
496733
3280
Aceștia sunt portaluri ale rețelelor de socializare.
08:20
These are organizers, opinion-makers, leaders,
153
500013
3590
Sunt organizatori, formatori de opinie, lideri
08:23
and these people also can be automatically identified
154
503603
2682
și pot fi identificați automat
08:26
from their communication patterns.
155
506285
2382
prin modelul lor de comunicare.
08:28
Now, if you're a marketer, you might then target them
156
508667
2146
Dacă lucrezi în marketing, le-ai putea oferi mostre
08:30
with product samples, try to spread your brand
157
510813
2543
pentru a lărgi renumele firmei
08:33
through their social group.
158
513356
2829
în grupul lor social.
08:36
But if you're a repressive government
159
516185
1953
Dar, dacă ești un guvern represiv ce caută
08:38
searching for political enemies, you might instead remove them,
160
518138
4810
inamici politici, ai putea încerca să îi elimini.
08:42
eliminate them, disrupt their social group,
161
522948
2760
Elimină-i pe ei, distruge-le grupul social,
08:45
and those who remain behind lose social cohesion
162
525708
3169
iar cei ce rămân își pierd coeziunea socială
08:48
and organization.
163
528877
2621
și organizarea.
08:51
Now in a world of cheap, proliferating robotic weapons,
164
531498
3324
Într-o lume în care armele robotice ieftine se înmulțesc,
08:54
borders would offer very little protection
165
534822
2635
granițele oferă foarte puțină protecție
08:57
to critics of distant governments
166
537457
1946
criticilor guvernelor din străinătate
08:59
or trans-national criminal organizations.
167
539403
3646
sau organizațiilor criminale transnaționale.
09:03
Popular movements agitating for change
168
543049
3493
Mișcările populare pentru schimbare
09:06
could be detected early and their leaders eliminated
169
546542
3609
ar fi identificate rapide, iar liderul lor eliminat,
09:10
before their ideas achieve critical mass.
170
550151
2911
înainte ca ideile lor să devină cunoscute larg.
09:13
And ideas achieving critical mass
171
553062
2591
Iar un public larg pentru idei
09:15
is what political activism in popular government is all about.
172
555653
3936
e elementul central al activismului politic în guvernul popular.
09:19
Anonymous lethal weapons could make lethal action
173
559589
3997
Armele letale anonime ar putea face ca acțiuni letale
09:23
an easy choice for all sorts of competing interests.
174
563586
3782
să devină o alegere ușoară în orice conflict de interese.
09:27
And this would put a chill on free speech
175
567368
3734
Iar asta ar îngheța libertatea de exprimare
09:31
and popular political action, the very heart of democracy.
176
571102
5308
și acțiunea politică populară, însăși inima democrației.
09:36
And this is why we need an international treaty
177
576410
2914
De aceea e nevoie de un tratat internațional
09:39
on robotic weapons, and in particular a global ban
178
579324
3540
asupra armelor robotice și, mai ales, o interdicție globală
09:42
on the development and deployment of killer robots.
179
582864
3908
asupra dezvoltării și folosirii roboților ucigași.
09:46
Now we already have international treaties
180
586772
3254
Avem deja tratate internaționale despre
09:50
on nuclear and biological weapons, and, while imperfect,
181
590026
3386
arme nucleare și biologice care, deși imperfecte,
09:53
these have largely worked.
182
593412
2288
funcționează, în mare parte.
09:55
But robotic weapons might be every bit as dangerous,
183
595700
3768
Armele robotice pot fi la fel de periculoase,
09:59
because they will almost certainly be used,
184
599468
3288
pentru că folosirea lor e aproape certă
10:02
and they would also be corrosive to our democratic institutions.
185
602756
5027
și ar fi dăunătoare instituțiilor noastre democratice.
10:07
Now in November 2012 the U.S. Department of Defense
186
607783
3468
În noiembrie 2012, Departamentul de Apărare SUA
10:11
issued a directive requiring
187
611251
2458
a lansat o directivă care cere
10:13
a human being be present in all lethal decisions.
188
613709
4519
prezența unui om la luarea oricărei decizii letale.
10:18
This temporarily effectively banned autonomous weapons in the U.S. military,
189
618228
4776
Asta a dus la blocarea temporară a armelor autonome în armata SUA,
10:23
but that directive needs to be made permanent.
190
623004
3753
dar directiva trebuie să devină permanentă.
10:26
And it could set the stage for global action.
191
626757
4376
În plus, ar putea să dea startul unei acțiuni globale.
10:31
Because we need an international legal framework
192
631133
3845
Pentru că avem nevoie de un cadru legal internațional
10:34
for robotic weapons.
193
634978
2138
pentru arme robotice.
10:37
And we need it now, before there's a devastating attack
194
637116
2928
E nevoie de el acum, înaintea unui atac devastator
10:40
or a terrorist incident that causes nations of the world
195
640044
3152
sau a unui incident terorist care să facă întreaga lume
10:43
to rush to adopt these weapons
196
643196
1924
să adopte rapid aceste arme
10:45
before thinking through the consequences.
197
645120
3771
înainte de a se gândi la consecințe.
10:48
Autonomous robotic weapons concentrate too much power
198
648891
2981
Armele robotice autonome concentrează prea multă putere
10:51
in too few hands, and they would imperil democracy itself.
199
651872
6283
în mâinile a prea puținor oameni, periclitând democrația.
10:58
Now, don't get me wrong, I think there are tons
200
658155
2686
Nu mă înțelegeți greșit, cred că-s o groază
11:00
of great uses for unarmed civilian drones:
201
660841
2618
de utilizări minunate pentru dronele civile neînarmate:
11:03
environmental monitoring, search and rescue, logistics.
202
663459
3939
monitorizarea mediului, căutări și operațiuni de salvare, logistică.
11:07
If we have an international treaty on robotic weapons,
203
667398
2826
Cu un tratat internațional asupra armelor robotice,
11:10
how do we gain the benefits of autonomous drones
204
670224
3587
cum exploatăm beneficiile dronelor și a vehiculelor
11:13
and vehicles while still protecting ourselves
205
673811
2648
autonome, protejându-ne în același timp
11:16
against illegal robotic weapons?
206
676459
3980
de armele robotice ilegale?
11:20
I think the secret will be transparency.
207
680439
4741
Cred că secretul e transparența.
11:25
No robot should have an expectation of privacy
208
685180
3013
Niciun robot nu ar trebui să fie privat
11:28
in a public place.
209
688193
3451
într-un loc public.
11:31
(Applause)
210
691644
5048
(Aplauze)
11:36
Each robot and drone should have
211
696692
2045
Fiecare robot și fiecare dronă ar trebui să aibă
11:38
a cryptographically signed I.D. burned in at the factory
212
698737
2883
o identificare semnată criptografic încă din fabrică,
11:41
that can be used to track its movement through public spaces.
213
701620
2923
folosită pentru a-i urmări mișcările în spațiul public.
11:44
We have license plates on cars, tail numbers on aircraft.
214
704543
3381
Avem plăcuțe de înmatriculare pe mașini, pe avioane.
11:47
This is no different.
215
707924
1841
Nu e nicio diferență.
11:49
And every citizen should be able to download an app
216
709765
2012
Fiecare cetățean ar trebui să poată descărca o aplicație
11:51
that shows the population of drones and autonomous vehicles
217
711777
3125
care să îi arate populația de drone și vehicule autonome
11:54
moving through public spaces around them,
218
714902
2429
deplasându-se în spații publice în jurul lor,
11:57
both right now and historically.
219
717331
2733
acum și în viitor.
12:00
And civic leaders should deploy sensors and civic drones
220
720064
3548
Iar liderii municipali ar trebui să trimită senzori și drone civice
12:03
to detect rogue drones,
221
723612
2344
pentru detectarea dronelor ilegale,
12:05
and instead of sending killer drones of their own up to shoot them down,
222
725956
3176
dar nu să trimită drone ucigașe să le distrugă,
12:09
they should notify humans to their presence.
223
729132
2992
ci să anunțe oamenii despre prezența lor.
12:12
And in certain very high-security areas,
224
732124
2606
Iar în zone de înaltă securitate,
12:14
perhaps civic drones would snare them
225
734730
1909
poate că dronele civile le-ar prinde
12:16
and drag them off to a bomb disposal facility.
226
736639
2841
și le-ar duce către o locație de dezactivare a bombelor.
12:19
But notice, this is more an immune system
227
739480
3027
Observați, e mai mult un sistem de imunitate,
12:22
than a weapons system.
228
742507
1321
decât unul armat.
12:23
It would allow us to avail ourselves of the use
229
743828
2592
Ne-ar permite să ne folosim de
12:26
of autonomous vehicles and drones
230
746420
2032
vehiculele și dronele autonome,
12:28
while still preserving our open, civil society.
231
748452
4295
fără a ne pierde societatea civilă transparentă.
12:32
We must ban the deployment and development
232
752747
2999
Trebuie interzisă folosirea și crearea
12:35
of killer robots.
233
755746
1862
de roboți ucigași.
12:37
Let's not succumb to the temptation to automate war.
234
757608
4850
Să nu cedăm tentației de a automatiza războiul.
12:42
Autocratic governments and criminal organizations
235
762458
2718
Guvernele autocrate și organizațiile criminale
12:45
undoubtedly will, but let's not join them.
236
765176
2956
o vor face, dar noi să nu ne alăturăm.
12:48
Autonomous robotic weapons
237
768132
1891
Armele robotice autonome
12:50
would concentrate too much power
238
770023
2051
ar concentra prea multă putere
12:52
in too few unseen hands,
239
772074
2482
în mâinile a prea puțini oameni,
12:54
and that would be corrosive to representative government.
240
774556
3255
iar asta ar degrada guvernul reprezentativ.
12:57
Let's make sure, for democracies at least,
241
777811
2961
Să ne asigurăm, măcar de dragul democrației,
13:00
killer robots remain fiction.
242
780772
2604
că roboții ucigași vor rămâne ficțiune.
13:03
Thank you.
243
783376
1110
Mulțumesc.
13:04
(Applause)
244
784486
4565
(Aplauze)
13:09
Thank you. (Applause)
245
789051
4616
Mulțumesc. (Aplauze)
Despre acest site

Acest site vă va prezenta videoclipuri de pe YouTube care sunt utile pentru a învăța limba engleză. Veți vedea lecții de engleză predate de profesori de top din întreaga lume. Faceți dublu clic pe subtitrările în limba engleză afișate pe fiecare pagină video pentru a reda videoclipul de acolo. Subtitrările se derulează în sincron cu redarea videoclipului. Dacă aveți comentarii sau solicitări, vă rugăm să ne contactați folosind acest formular de contact.

https://forms.gle/WvT1wiN1qDtmnspy7