Daniel Suarez: The kill decision shouldn't belong to a robot

Дэниэл Суарес: Смертный приговор не должен выноситься роботами

76,064 views

2013-06-13 ・ TED


New videos

Daniel Suarez: The kill decision shouldn't belong to a robot

Дэниэл Суарес: Смертный приговор не должен выноситься роботами

76,064 views ・ 2013-06-13

TED


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

00:00
Translator: Joseph Geni Reviewer: Morton Bast
0
0
7000
Переводчик: Anastasia Yastrebtseva Редактор: Anastasia Johnston
00:12
I write fiction sci-fi thrillers,
1
12691
3158
Я пишу научно-фантастические триллеры,
00:15
so if I say "killer robots,"
2
15849
2193
поэтому когда я говорю о «роботах-убийцах»,
00:18
you'd probably think something like this.
3
18042
2361
вам, вероятно, представляется что-то вот в таком роде.
00:20
But I'm actually not here to talk about fiction.
4
20403
2555
Но сегодня речь пойдёт не о фантастике.
00:22
I'm here to talk about very real killer robots,
5
22958
2948
Я хочу рассказать о вполне реальных роботах-убийцах:
00:25
autonomous combat drones.
6
25906
3122
беспилотных боевых самолётах.
00:29
Now, I'm not referring to Predator and Reaper drones,
7
29028
3627
Не о дронах типа «Predator» или «Reaper»,
00:32
which have a human making targeting decisions.
8
32655
3260
где наведение на цель контролируется человеком,
00:35
I'm talking about fully autonomous robotic weapons
9
35915
3129
а о полностью автономном роботизированном оружии,
00:39
that make lethal decisions about human beings
10
39044
2654
самостоятельно принимающем смертоносные решения
00:41
all on their own.
11
41698
2417
в отношении людей.
00:44
There's actually a technical term for this: lethal autonomy.
12
44115
4000
Для этого даже есть специальный термин: смертельная автономия.
00:48
Now, lethally autonomous killer robots
13
48115
2856
Смертельно автономные роботы-убийцы
00:50
would take many forms -- flying, driving,
14
50971
3069
могут управлять самолётами, водить автомобили
00:54
or just lying in wait.
15
54040
2746
или просто сидеть в засаде.
00:56
And actually, they're very quickly becoming a reality.
16
56786
3109
Они стремительно входят в нашу действительность.
00:59
These are two automatic sniper stations
17
59895
2484
Перед вами две автоматические снайперские установки,
01:02
currently deployed in the DMZ between North and South Korea.
18
62379
4137
установленные в демилитаризованной зоне между Северной и Южной Кореей.
01:06
Both of these machines are capable of automatically
19
66516
2171
Обе эти машины способны автоматически определять
01:08
identifying a human target and firing on it,
20
68687
3524
человеческую цель и открывать по ней огонь.
01:12
the one on the left at a distance of over a kilometer.
21
72211
4324
Радиус действия левой установки составляет более километра.
01:16
Now, in both cases, there's still a human in the loop
22
76535
3589
Здесь в обоих случаях всё ещё задействован человек,
01:20
to make that lethal firing decision,
23
80124
2372
принимающий решение о стрельбе на поражение,
01:22
but it's not a technological requirement. It's a choice.
24
82496
5413
но это не часть технической спецификации. Это выбор.
01:27
And it's that choice that I want to focus on,
25
87909
3093
И я хочу сегодня поговорить об этом выборе,
01:31
because as we migrate lethal decision-making
26
91002
2641
потому что чем чаще мы передаём принятие
01:33
from humans to software,
27
93643
3109
смертоносных решений от человека к компьютерной программе,
01:36
we risk not only taking the humanity out of war,
28
96752
3476
тем больше мы рискуем не только лишить войну человеческого лица,
01:40
but also changing our social landscape entirely,
29
100228
3526
но и полностью изменить социальную картину мира.
01:43
far from the battlefield.
30
103754
2224
Того мира, что находится вдали от поля боя.
01:45
That's because the way humans resolve conflict
31
105978
4509
Потому что методы разрешения конфликтов
01:50
shapes our social landscape.
32
110487
1733
формируют социальную картину мира.
01:52
And this has always been the case, throughout history.
33
112220
2633
И так было в истории всегда.
01:54
For example, these were state-of-the-art weapons systems
34
114853
2661
Например, вот так выглядели самые совершенные
01:57
in 1400 A.D.
35
117514
2079
виды оружия в 1400 году нашей эры.
01:59
Now they were both very expensive to build and maintain,
36
119593
3144
Они были очень дорогостоящи в производстве и обслуживании,
02:02
but with these you could dominate the populace,
37
122737
3240
но с их помощью было легко управлять массами,
02:05
and the distribution of political power in feudal society reflected that.
38
125977
3889
и расклад политических сил в феодальном обществе — лучшее тому доказательство.
02:09
Power was focused at the very top.
39
129866
2687
Власть была сосредоточена у самой верхушки.
02:12
And what changed? Technological innovation.
40
132553
3528
Что же изменилось? Появились новые технологии.
02:16
Gunpowder, cannon.
41
136081
1871
Порох, пушки.
02:17
And pretty soon, armor and castles were obsolete,
42
137952
3817
Доспехи и замки быстро устарели,
02:21
and it mattered less who you brought to the battlefield
43
141769
2533
и стало уже не так важно, кто пришёл сражаться на твоей стороне,
02:24
versus how many people you brought to the battlefield.
44
144302
3779
а важно, сколько человек вышло на поле сражения.
02:28
And as armies grew in size, the nation-state arose
45
148081
3638
Численность армий росла, и возникло понятие государства-нации,
02:31
as a political and logistical requirement of defense.
46
151719
3680
как необходимой политической и тыловой оборонной составляющей.
02:35
And as leaders had to rely on more of their populace,
47
155399
2376
И поскольку главам государств всё больше приходилось
02:37
they began to share power.
48
157775
1833
полагаться на свой народ, они стали делиться властью.
02:39
Representative government began to form.
49
159608
2599
Появилось понятие представительного правления.
02:42
So again, the tools we use to resolve conflict
50
162207
3288
Таким образом, методы разрешения конфликтов
02:45
shape our social landscape.
51
165495
3304
формируют социальную картину нашего мира.
02:48
Autonomous robotic weapons are such a tool,
52
168799
4064
Автономное роботизированное оружие — один из таких методов.
02:52
except that, by requiring very few people to go to war,
53
172863
5168
Но есть одно «но». Для его использования не нужно много военных,
02:58
they risk re-centralizing power into very few hands,
54
178031
4840
а значит есть риск снова сосредоточить власть в руках немногих,
03:02
possibly reversing a five-century trend toward democracy.
55
182871
6515
повернув тем самым вспять пять веков движения к демократии.
03:09
Now, I think, knowing this,
56
189386
1757
Если мы отдадим себе в этом отчёт, мы сможем предпринять
03:11
we can take decisive steps to preserve our democratic institutions,
57
191143
4352
решительные действия по защите наших демократических ценностей
03:15
to do what humans do best, which is adapt.
58
195495
3979
и адаптироваться, что у людей всегда получалось очень хорошо.
03:19
But time is a factor.
59
199474
2005
Но у нас не так много времени.
03:21
Seventy nations are developing remotely-piloted
60
201479
2851
Сегодня 70 государств занимаются разработкой собственных
03:24
combat drones of their own,
61
204330
2157
дистанционно-пилотируемых боевых дронов.
03:26
and as you'll see, remotely-piloted combat drones
62
206487
2593
Такие дистанционно-пилотируемые боевые дроны —
03:29
are the precursors to autonomous robotic weapons.
63
209080
4472
предвестники автономного роботизированного оружия.
03:33
That's because once you've deployed remotely-piloted drones,
64
213552
2767
Как только эти дроны вступают в строй,
03:36
there are three powerful factors pushing decision-making
65
216319
3384
появляется три серьёзных основания передать принятие решений
03:39
away from humans and on to the weapon platform itself.
66
219703
4600
от человека непосредственно на оружейную платформу.
03:44
The first of these is the deluge of video that drones produce.
67
224303
5259
Во-первых, поток видеоинформации, производимой дронами.
03:49
For example, in 2004, the U.S. drone fleet produced
68
229562
3853
В 2004 году, например, весь парк американских дронов собрал
03:53
a grand total of 71 hours of video surveillance for analysis.
69
233415
5312
в общей сложности 71 час видеонаблюдений для анализа.
03:58
By 2011, this had gone up to 300,000 hours,
70
238727
4499
К 2011 году это число выросло до 300 000 часов.
04:03
outstripping human ability to review it all,
71
243226
3149
Обработать столько информации людям не под силу.
04:06
but even that number is about to go up drastically.
72
246375
3664
Но и это число кардинально вырастет в ближайшее время.
04:10
The Pentagon's Gorgon Stare and Argus programs
73
250039
2575
Такие программы Пентагона, как «Взгляд Горгоны» и «Аргус»,
04:12
will put up to 65 independently operated camera eyes
74
252614
3164
нацелены на установку на каждом дроне
04:15
on each drone platform,
75
255778
2038
до 65 независимо работающих видеокамер.
04:17
and this would vastly outstrip human ability to review it.
76
257816
3303
Людям не под силу будет обработать столько видеоданных.
04:21
And that means visual intelligence software will need
77
261119
2160
Понадобится программное обеспечение видеоразведки
04:23
to scan it for items of interest.
78
263279
4048
для отслеживания интересующей информации.
04:27
And that means very soon
79
267327
1348
А значит, что очень скоро дроны начнут
04:28
drones will tell humans what to look at,
80
268675
2747
указывать людям, на что обращать внимание,
04:31
not the other way around.
81
271422
2497
а не наоборот.
04:33
But there's a second powerful incentive pushing
82
273919
2473
Но есть и вторая серьёзная причина для передачи
04:36
decision-making away from humans and onto machines,
83
276392
3383
принятия решений от человека к машине.
04:39
and that's electromagnetic jamming,
84
279775
2872
Она связана с электромагнитными помехами,
04:42
severing the connection between the drone
85
282647
2236
которые обрывают связь между дроном
04:44
and its operator.
86
284883
2814
и его оператором.
04:47
Now we saw an example of this in 2011
87
287697
2618
Мы видели пример тому в 2011 году,
04:50
when an American RQ-170 Sentinel drone
88
290315
2956
когда американский дрон «RQ-170 Sentinel» растерялся
04:53
got a bit confused over Iran due to a GPS spoofing attack,
89
293271
4307
в иранском воздушном пространстве из-за спуфинг-атаки на GPS.
04:57
but any remotely-piloted drone is susceptible to this type of attack,
90
297578
5114
Любой дистанционно-управляемый дрон может быть подвержен
05:02
and that means drones
91
302692
2052
атакам подобного типа, а значит дроны должны будут
05:04
will have to shoulder more decision-making.
92
304744
3620
брать на себя больше работы по принятию решений.
05:08
They'll know their mission objective,
93
308364
3043
Понимая стоящую перед ними задачу, они должны будут
05:11
and they'll react to new circumstances without human guidance.
94
311407
4845
реагировать на изменившуюся ситуацию без участия человека.
05:16
They'll ignore external radio signals
95
316252
2581
Они должны будут игнорировать внешние радиосигналы
05:18
and send very few of their own.
96
318833
2330
и посылать минимальное количество собственных сигналов.
05:21
Which brings us to, really, the third
97
321163
2006
Что приводит нас к третьей, самой серьёзной причине
05:23
and most powerful incentive pushing decision-making
98
323169
3862
для передачи принятия решений
05:27
away from humans and onto weapons:
99
327031
3342
от человека к оружию:
05:30
plausible deniability.
100
330373
3293
убедительное отрицание.
05:33
Now we live in a global economy.
101
333666
2887
Мы сегодня живём в условиях мировой экономики.
05:36
High-tech manufacturing is occurring on most continents.
102
336553
4334
Производства на основе высоких технологий развиты на большинстве континентов.
05:40
Cyber espionage is spiriting away advanced designs
103
340887
2914
При помощи кибершпионажа самые новейшие разработки
05:43
to parts unknown,
104
343801
1886
исчезают в никуда,
05:45
and in that environment, it is very likely
105
345687
2014
и с таким положением дел очень может оказаться,
05:47
that a successful drone design will be knocked off in contract factories,
106
347701
4734
что украденный удачный дизайн дрона, сделанного на подпольной фабрике,
05:52
proliferate in the gray market.
107
352435
2170
заполонит серый рынок.
05:54
And in that situation, sifting through the wreckage
108
354605
2460
И в таком случае, разбирая завалы,
05:57
of a suicide drone attack, it will be very difficult to say
109
357065
2960
оставленные после атаки дрона-самоубийцы,
06:00
who sent that weapon.
110
360025
4400
трудно будет сказать, кем он был послан.
06:04
This raises the very real possibility
111
364425
2800
Тут возникает реальная угроза
06:07
of anonymous war.
112
367225
2935
анонимной войны.
06:10
This could tilt the geopolitical balance on its head,
113
370160
2614
Это может перевернуть геополитический баланс с ног на голову,
06:12
make it very difficult for a nation to turn its firepower
114
372774
3491
усложнить государствам открытие ответного огня против агрессора,
06:16
against an attacker, and that could shift the balance
115
376265
2848
и в 21-ом веке сместить баланс
06:19
in the 21st century away from defense and toward offense.
116
379113
3764
от обороны в сторону нападения.
06:22
It could make military action a viable option
117
382877
3124
Таким образом, война становится доступной
06:26
not just for small nations,
118
386001
2288
не только для небольших государств,
06:28
but criminal organizations, private enterprise,
119
388289
2545
но и для криминальных структур, частных предпринимателей,
06:30
even powerful individuals.
120
390834
2479
или для просто очень влиятельных людей.
06:33
It could create a landscape of rival warlords
121
393313
3328
Такая ситуация может открыть дорогу воинствующим боевикам,
06:36
undermining rule of law and civil society.
122
396641
3680
подрывающим устои закона и гражданского общества.
06:40
Now if responsibility and transparency
123
400321
3616
Сознание ответственности и открытость —
06:43
are two of the cornerstones of representative government,
124
403937
2384
два краеугольных камня представительного правления.
06:46
autonomous robotic weapons could undermine both.
125
406321
4320
Но оба могут быть подорваны с появлением автономного роботизированного оружия.
06:50
Now you might be thinking that
126
410641
1546
Вам может показаться, что жители стран
06:52
citizens of high-tech nations
127
412187
2246
с хорошо развитой индустрией высоких технологий
06:54
would have the advantage in any robotic war,
128
414433
2703
будут иметь преимущество в роботизированной войне,
06:57
that citizens of those nations would be less vulnerable,
129
417136
3633
что они будут менее уязвимы,
07:00
particularly against developing nations.
130
420769
4288
особенно по сравнению с развивающимися странами.
07:05
But I think the truth is the exact opposite.
131
425057
3524
Но мне кажется, что справедливо как раз обратное.
07:08
I think citizens of high-tech societies
132
428581
2251
Общества с наиболее развитыми высокими технологиями
07:10
are more vulnerable to robotic weapons,
133
430832
3729
и являются наиболее уязвимыми для роботизированного оружия.
07:14
and the reason can be summed up in one word: data.
134
434561
4465
Причину можно суммировать один словом: информация.
07:19
Data powers high-tech societies.
135
439026
3481
Информация — двигатель любого высокотехнологичного общества.
07:22
Cell phone geolocation, telecom metadata,
136
442507
3190
Мобильные службы геолокации, метаданные операторов связи,
07:25
social media, email, text, financial transaction data,
137
445697
3472
социальные сети, электронная почта, текстовые сообщения,
07:29
transportation data, it's a wealth of real-time data
138
449169
3532
данные о финансовых операциях и перевозках — изобилие информации
07:32
on the movements and social interactions of people.
139
452701
3373
о взаимодействии и перемещении людей в реальном времени.
07:36
In short, we are more visible to machines
140
456074
3775
Сегодня машины знают про нас всё.
07:39
than any people in history,
141
459849
2242
Значительно больше, чем когда-либо в истории человечества.
07:42
and this perfectly suits the targeting needs of autonomous weapons.
142
462091
5616
И это идеально отвечает прицельным нуждам автономного оружия.
07:47
What you're looking at here
143
467707
1738
Перед вами графический анализ связей
07:49
is a link analysis map of a social group.
144
469445
3246
некой социальной группы людей.
07:52
Lines indicate social connectedness between individuals.
145
472691
3634
Линии обозначают социальные связи между людьми.
07:56
And these types of maps can be automatically generated
146
476325
2880
Такие графики можно автоматически построить,
07:59
based on the data trail modern people leave behind.
147
479205
4715
используя информационный след, оставляемый современными людьми.
08:03
Now it's typically used to market goods and services
148
483920
2477
Обычно эти данные используются для продажи товаров и услуг
08:06
to targeted demographics, but it's a dual-use technology,
149
486397
4416
целевой аудитории, но это технология двойного назначения,
08:10
because targeting is used in another context.
150
490813
3360
потому что существует и другое определение цели.
08:14
Notice that certain individuals are highlighted.
151
494173
2560
Обратите внимание, что некоторые точки выделены на графике.
08:16
These are the hubs of social networks.
152
496733
3280
Эти люди — центры своих социальных сетей.
08:20
These are organizers, opinion-makers, leaders,
153
500013
3590
Эти люди — организаторы, лидеры общественного мнения.
08:23
and these people also can be automatically identified
154
503603
2682
Их можно автоматически выделить
08:26
from their communication patterns.
155
506285
2382
по их манере общения.
08:28
Now, if you're a marketer, you might then target them
156
508667
2146
Если вы маркетолог, вы будете стараться привлечь их внимание,
08:30
with product samples, try to spread your brand
157
510813
2543
давая им образцы вашей продукции и тем самым продвигая
08:33
through their social group.
158
513356
2829
ваш бренд внутри их социальной группы.
08:36
But if you're a repressive government
159
516185
1953
Но если вы — репрессивный режим, занятый поиском
08:38
searching for political enemies, you might instead remove them,
160
518138
4810
политических врагов, вы будете заинтересованы в том,
08:42
eliminate them, disrupt their social group,
161
522948
2760
чтобы убрать их, избавиться от них, нарушить их социальную группировку,
08:45
and those who remain behind lose social cohesion
162
525708
3169
таким образом, что оставшиеся члены группы
08:48
and organization.
163
528877
2621
потеряют единство и организацию.
08:51
Now in a world of cheap, proliferating robotic weapons,
164
531498
3324
В мире, где дешёвое роботизированное оружие
08:54
borders would offer very little protection
165
534822
2635
будет широко распространено, границы не смогут защитить
08:57
to critics of distant governments
166
537457
1946
критиков удалённых правительств
08:59
or trans-national criminal organizations.
167
539403
3646
или транснациональных преступных организаций.
09:03
Popular movements agitating for change
168
543049
3493
Народные движения, требующие перемен,
09:06
could be detected early and their leaders eliminated
169
546542
3609
можно будет подавить на ранних стадиях, избавиться от их лидеров,
09:10
before their ideas achieve critical mass.
170
550151
2911
прежде чем их идеи достигнут критической массы.
09:13
And ideas achieving critical mass
171
553062
2591
Достижение идеями критической массы —
09:15
is what political activism in popular government is all about.
172
555653
3936
основная цель любого политического движения в демократическом обществе.
09:19
Anonymous lethal weapons could make lethal action
173
559589
3997
Анонимное смертоносное оружие может облегчить выбор в пользу смертоносной силы
09:23
an easy choice for all sorts of competing interests.
174
563586
3782
самыми разными соперничающими группировками.
09:27
And this would put a chill on free speech
175
567368
3734
А это заморозит свободу слова и гражданскую
09:31
and popular political action, the very heart of democracy.
176
571102
5308
политическую активность — самое сердце демократии.
09:36
And this is why we need an international treaty
177
576410
2914
Именно поэтому нам необходимо международное законодательство
09:39
on robotic weapons, and in particular a global ban
178
579324
3540
о применении роботизированного оружия, а также
09:42
on the development and deployment of killer robots.
179
582864
3908
повсеместный запрет на производство и распространение роботов-убийц.
09:46
Now we already have international treaties
180
586772
3254
У нас уже есть международные договоры об использовании
09:50
on nuclear and biological weapons, and, while imperfect,
181
590026
3386
ядерного и биологического оружия. Они могут быть несовершенны,
09:53
these have largely worked.
182
593412
2288
но они в большинстве своём работают.
09:55
But robotic weapons might be every bit as dangerous,
183
595700
3768
Роботизированное оружие настолько же опасно,
09:59
because they will almost certainly be used,
184
599468
3288
потому что его будут использовать,
10:02
and they would also be corrosive to our democratic institutions.
185
602756
5027
и последствия будут разрушительны для наших демократических устоев.
10:07
Now in November 2012 the U.S. Department of Defense
186
607783
3468
В ноябре 2012 года министерство обороны США
10:11
issued a directive requiring
187
611251
2458
выпустило распоряжение, требующее
10:13
a human being be present in all lethal decisions.
188
613709
4519
обязательного присутствия человека при принятии любых смертоносных решений.
10:18
This temporarily effectively banned autonomous weapons in the U.S. military,
189
618228
4776
Этот указ ввёл временный запрет на использование автономного оружия вооружёнными силами США,
10:23
but that directive needs to be made permanent.
190
623004
3753
но запрет этот должен стать постоянным.
10:26
And it could set the stage for global action.
191
626757
4376
И он должен послужить толчком для действий на международной арене.
10:31
Because we need an international legal framework
192
631133
3845
Потому что нам необходим международный свод законов
10:34
for robotic weapons.
193
634978
2138
об использовании роботизированного оружия.
10:37
And we need it now, before there's a devastating attack
194
637116
2928
И эти законы нужны уже сейчас, не дожидаясь пока на нас нападут
10:40
or a terrorist incident that causes nations of the world
195
640044
3152
или пока очередная угроза терроризма не заставит государства во всём мире
10:43
to rush to adopt these weapons
196
643196
1924
в спешном порядке внедрять это оружие,
10:45
before thinking through the consequences.
197
645120
3771
не задумываясь о последствиях.
10:48
Autonomous robotic weapons concentrate too much power
198
648891
2981
Автономное роботизированное оружие сосредоточивает слишком большую власть
10:51
in too few hands, and they would imperil democracy itself.
199
651872
6283
в руках немногих и угрожает демократии.
10:58
Now, don't get me wrong, I think there are tons
200
658155
2686
Не поймите меня неправильно: я считаю, что есть много
11:00
of great uses for unarmed civilian drones:
201
660841
2618
замечательных примеров использования гражданских невооружённых дронов.
11:03
environmental monitoring, search and rescue, logistics.
202
663459
3939
Охрана окружающей среды, поисково-спасательные работы, транспортировка и снабжение.
11:07
If we have an international treaty on robotic weapons,
203
667398
2826
При наличии международного законодательства об использовании
11:10
how do we gain the benefits of autonomous drones
204
670224
3587
роботизированного оружия, как мы можем воспользоваться преимуществами
11:13
and vehicles while still protecting ourselves
205
673811
2648
беспилотных дронов и автомобилей, и в то же время
11:16
against illegal robotic weapons?
206
676459
3980
защитить себя от нелегального роботизированного оружия?
11:20
I think the secret will be transparency.
207
680439
4741
Я считаю, что нам поможет политика открытости.
11:25
No robot should have an expectation of privacy
208
685180
3013
У робота не может быть права на секреты
11:28
in a public place.
209
688193
3451
в общественном месте.
11:31
(Applause)
210
691644
5048
(Аплодисменты)
11:36
Each robot and drone should have
211
696692
2045
У каждого робота или дрона должна быть шифрованная маркировка,
11:38
a cryptographically signed I.D. burned in at the factory
212
698737
2883
поставленная на заводе, которую можно будет использовать
11:41
that can be used to track its movement through public spaces.
213
701620
2923
для отслеживания его передвижений в общественных местах.
11:44
We have license plates on cars, tail numbers on aircraft.
214
704543
3381
У наших машин и самолётов есть номерные знаки.
11:47
This is no different.
215
707924
1841
Здесь должно быть то же самое.
11:49
And every citizen should be able to download an app
216
709765
2012
И любой человек должен иметь доступ к приложению,
11:51
that shows the population of drones and autonomous vehicles
217
711777
3125
которое бы показывало ему все дроны и беспилотные автомобили
11:54
moving through public spaces around them,
218
714902
2429
и их местоположение и траекторию движения в общественных местах
11:57
both right now and historically.
219
717331
2733
в реальном времени или в прошлом.
12:00
And civic leaders should deploy sensors and civic drones
220
720064
3548
Общественные деятели должны установить сенсорные датчики
12:03
to detect rogue drones,
221
723612
2344
и иметь в распоряжении гражданские дроны для отслеживания неисправных машин,
12:05
and instead of sending killer drones of their own up to shoot them down,
222
725956
3176
но не посылать при этом свои дроны, чтобы их уничтожить,
12:09
they should notify humans to their presence.
223
729132
2992
а вместо этого предупреждать людей об их присутствии.
12:12
And in certain very high-security areas,
224
732124
2606
И только в зонах повышенной безопасности
12:14
perhaps civic drones would snare them
225
734730
1909
возможно гражданские дроны будут ловить такие машины
12:16
and drag them off to a bomb disposal facility.
226
736639
2841
и отвозить их на свалки оружия для захоронения.
12:19
But notice, this is more an immune system
227
739480
3027
Обратите внимание, что это больше похоже на иммунную систему,
12:22
than a weapons system.
228
742507
1321
чем на систему вооружений.
12:23
It would allow us to avail ourselves of the use
229
743828
2592
Это позволит нам извлекать выгоду из использования
12:26
of autonomous vehicles and drones
230
746420
2032
беспилотных машин и дронов,
12:28
while still preserving our open, civil society.
231
748452
4295
при этом сохраняя наше открытое гражданское общество.
12:32
We must ban the deployment and development
232
752747
2999
Мы должны запретить производство и распространение
12:35
of killer robots.
233
755746
1862
роботов-убийц.
12:37
Let's not succumb to the temptation to automate war.
234
757608
4850
Давайте не будем поддаваться соблазну автоматизировать военные действия.
12:42
Autocratic governments and criminal organizations
235
762458
2718
Вне всякого сомнения, что диктатуры и криминальные структуры
12:45
undoubtedly will, but let's not join them.
236
765176
2956
этим воспользуются, но давайте не будем им уподобляться.
12:48
Autonomous robotic weapons
237
768132
1891
Автономное роботизированное оружие
12:50
would concentrate too much power
238
770023
2051
сосредоточит слишком много власти
12:52
in too few unseen hands,
239
772074
2482
в невидимых руках немногих,
12:54
and that would be corrosive to representative government.
240
774556
3255
что будет разрушительно для представительного правления.
12:57
Let's make sure, for democracies at least,
241
777811
2961
Давайте же постараемся, чтобы по крайней мере в демократическом обществе
13:00
killer robots remain fiction.
242
780772
2604
роботы-убийцы оставались только на страницах книг.
13:03
Thank you.
243
783376
1110
Спасибо.
13:04
(Applause)
244
784486
4565
(Аплодисменты)
13:09
Thank you. (Applause)
245
789051
4616
Спасибо. (Аплодисменты)
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7