Daniel Suarez: The kill decision shouldn't belong to a robot

76,064 views ・ 2013-06-13

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

00:00
Translator: Joseph Geni Reviewer: Morton Bast
0
0
7000
المترجم: Nawar Altrk المدقّق: Ayman Mahmoud
00:12
I write fiction sci-fi thrillers,
1
12691
3158
أنا كاتب خيال علميّ،
00:15
so if I say "killer robots,"
2
15849
2193
لذا عندما أقول "روبوتات قاتلة"،
00:18
you'd probably think something like this.
3
18042
2361
ستظنون على الأرجح أنّني أتحدث عن شيء كتبته.
00:20
But I'm actually not here to talk about fiction.
4
20403
2555
ولكنني هذه المرة لا أتحدّث عن الخيال.
00:22
I'm here to talk about very real killer robots,
5
22958
2948
أنا أتحدّث عن روبوتات قاتلة حقيقية،
00:25
autonomous combat drones.
6
25906
3122
الطائرات القتالية ذات التحكم الذاتي.
00:29
Now, I'm not referring to Predator and Reaper drones,
7
29028
3627
أنا لا أشير إلى "المطارد" و الطائرات بدون طيار "الحاصد"،
00:32
which have a human making targeting decisions.
8
32655
3260
التي يقوم فيها الإنسان باتخاذ قرارات الهجوم.
00:35
I'm talking about fully autonomous robotic weapons
9
35915
3129
أنا أتحدّث عن أسلحة روبوتية ذاتية التحكم تماما
00:39
that make lethal decisions about human beings
10
39044
2654
تقوم باتّخاذ قرارات قاتلة للبشر
00:41
all on their own.
11
41698
2417
وحدها.
00:44
There's actually a technical term for this: lethal autonomy.
12
44115
4000
هناك في الواقع مصطلح تقني لهذا: التّحكم الذاتي الفتاك.
00:48
Now, lethally autonomous killer robots
13
48115
2856
إنّ الروبوتات القاتلة الذاتيّة التّحكم
00:50
would take many forms -- flying, driving,
14
50971
3069
قادرة على اتّخاذ أشكال عديدة - الطيران، و القيادة،
00:54
or just lying in wait.
15
54040
2746
و غيرها ..
00:56
And actually, they're very quickly becoming a reality.
16
56786
3109
وفي الواقع، فهي سرعان ما تصبح حقيقة واقعة.
00:59
These are two automatic sniper stations
17
59895
2484
هذه وحدتين للقنص التلقائي
01:02
currently deployed in the DMZ between North and South Korea.
18
62379
4137
الموجودة حاليا في المنطقة المجردة من السلاح بين كوريا الشمالية وكوريا الجنوبية.
01:06
Both of these machines are capable of automatically
19
66516
2171
كل من هذه الآلات القادرة على
01:08
identifying a human target and firing on it,
20
68687
3524
تحديد أهداف بشرية وإطلاق النار عليها تلقائياً،
01:12
the one on the left at a distance of over a kilometer.
21
72211
4324
الموجود على اليسار مداها أكثر من كيلومتر.
01:16
Now, in both cases, there's still a human in the loop
22
76535
3589
في كلتا الحالتين، لا يزال هناك إنسان في الوسط
01:20
to make that lethal firing decision,
23
80124
2372
لاتخاذ القرار القاتل بإطلاق النار،
01:22
but it's not a technological requirement. It's a choice.
24
82496
5413
و لكنه ليس متطلّبا تكنولوجيّا، بل خيار.
01:27
And it's that choice that I want to focus on,
25
87909
3093
و ذلك الخيار هو الذي أرغب في التركيز عليه،
01:31
because as we migrate lethal decision-making
26
91002
2641
لأنّها و خلال عمليّة نقل القرارات المميتة
01:33
from humans to software,
27
93643
3109
من البشر للبرمجيات،
01:36
we risk not only taking the humanity out of war,
28
96752
3476
فنحن نخاطر ليس فقط بإخراج البشرية من الحرب،
01:40
but also changing our social landscape entirely,
29
100228
3526
ولكن أيضا بتغير المشهد الاجتماعي لدينا تماما،
01:43
far from the battlefield.
30
103754
2224
بعيداً عن ميدان المعركة.
01:45
That's because the way humans resolve conflict
31
105978
4509
وهذا لأنّ طريقة البشر في حلّ النزاع
01:50
shapes our social landscape.
32
110487
1733
تشكّل المشهد الاجتماعي لدينا.
01:52
And this has always been the case, throughout history.
33
112220
2633
كما كان الحال دائما، على مر التاريخ.
01:54
For example, these were state-of-the-art weapons systems
34
114853
2661
على سبيل المثال،هذا ما كان يمثل احسن الأسلحة لدولة
01:57
in 1400 A.D.
35
117514
2079
في 1400 ميلادي
01:59
Now they were both very expensive to build and maintain,
36
119593
3144
وكلاهما مكلف جدا للبناء وللتصليح
02:02
but with these you could dominate the populace,
37
122737
3240
ولكن بهذه الأدوات يمكنك السيطرة على الجماهير،
02:05
and the distribution of political power in feudal society reflected that.
38
125977
3889
وتعكس توزيع السلطة السياسية في المجتمع الإقطاعي الذي.
02:09
Power was focused at the very top.
39
129866
2687
تتركز السلطة فيه بأعلى الهرم.
02:12
And what changed? Technological innovation.
40
132553
3528
وما الذي تغير؟ الابتكار التكنولوجي.
02:16
Gunpowder, cannon.
41
136081
1871
البارود، المدفع.
02:17
And pretty soon, armor and castles were obsolete,
42
137952
3817
ومن فترة قريبة الدروع والقلاع قد عفا عليها الزمن،
02:21
and it mattered less who you brought to the battlefield
43
141769
2533
وأصبحت أهمية من تحضر الى المعركة أقل
02:24
versus how many people you brought to the battlefield.
44
144302
3779
مقابل كم من الناس تحضر إلى ساحة المعركة.
02:28
And as armies grew in size, the nation-state arose
45
148081
3638
وكلما نمت الجيوش في الحجم، ترتفع أهمية الدولة
02:31
as a political and logistical requirement of defense.
46
151719
3680
كشرط سياسي ولوجستي للدفاع.
02:35
And as leaders had to rely on more of their populace,
47
155399
2376
وكان على القادة الاعتماد على المزيد من جماهيرهم،
02:37
they began to share power.
48
157775
1833
وعندها بدأت تقاسمهم السلطة.
02:39
Representative government began to form.
49
159608
2599
وبدأت حكومة النيابية بالتشكل.
02:42
So again, the tools we use to resolve conflict
50
162207
3288
لذا مرة أخرى، الأدوات التي نستخدمها لحل الصراع
02:45
shape our social landscape.
51
165495
3304
تشكل صورة مشهد مجتمعنا.
02:48
Autonomous robotic weapons are such a tool,
52
168799
4064
الأسلحة الروبوتية ذاتية التحكم أداة من هذا القبيل،
02:52
except that, by requiring very few people to go to war,
53
172863
5168
فيما عدا ذلك، بتطلب عدد قليل من الناس للذهاب إلى الحرب،
02:58
they risk re-centralizing power into very few hands,
54
178031
4840
نواجه خطر إعادة تركيز السلطة في أيادي قليلة،
03:02
possibly reversing a five-century trend toward democracy.
55
182871
6515
ربما عكس اتجاه القرن الخامس في الميل نحو الديمقراطية.
03:09
Now, I think, knowing this,
56
189386
1757
الآن، أعتقد،
03:11
we can take decisive steps to preserve our democratic institutions,
57
191143
4352
أنه يمكننا اتخاذ خطوات حاسمة للحفاظ على مؤسساتنا الديمقراطية،
03:15
to do what humans do best, which is adapt.
58
195495
3979
للقيام بأفضل ما لدى البشر، والذي هو التكييف.
03:19
But time is a factor.
59
199474
2005
ولكن الوقت هو عامل حاسم.
03:21
Seventy nations are developing remotely-piloted
60
201479
2851
سبعين دولة تقوم بتطوير طائرات بدون طيار
03:24
combat drones of their own,
61
204330
2157
طائرات قتالية خاصة بهم،
03:26
and as you'll see, remotely-piloted combat drones
62
206487
2593
وكما سترى، إن الطائرات دون طيار القتالية
03:29
are the precursors to autonomous robotic weapons.
63
209080
4472
هي بشير للأسلحة الروبوتية ذاتية الحكم.
03:33
That's because once you've deployed remotely-piloted drones,
64
213552
2767
وذلك بسبب أنه عند انتشار الطائرات دون طيار
03:36
there are three powerful factors pushing decision-making
65
216319
3384
ظهرت ثلاثة عوامل قوية لدفع عملية صنع القرار
03:39
away from humans and on to the weapon platform itself.
66
219703
4600
بعيداً عن البشر إلى منصة الأسلحة بنفسها.
03:44
The first of these is the deluge of video that drones produce.
67
224303
5259
وأولها هو الكم الكبير من الفيديو الذي تنتجه طائرات بلا طيار
03:49
For example, in 2004, the U.S. drone fleet produced
68
229562
3853
على سبيل المثال، في عام 2004، أنتج أسطول الطائرات بدون طيار في الولايات المتحدة
03:53
a grand total of 71 hours of video surveillance for analysis.
69
233415
5312
ما يبلغ 71 ساعة من فيديوهات المراقبة ولذلك لتحليلها
03:58
By 2011, this had gone up to 300,000 hours,
70
238727
4499
بحلول عام 2011، زادت إلى 300,000 ساعة
04:03
outstripping human ability to review it all,
71
243226
3149
ذلك يفوق القدرة البشرية على مراجعتها،
04:06
but even that number is about to go up drastically.
72
246375
3664
ولكن حتى هذا العدد على وشك الارتفاع بشكل كبير.
04:10
The Pentagon's Gorgon Stare and Argus programs
73
250039
2575
ببرامج جورجون للمراقبة والرصد التابعة للبنتاجون
04:12
will put up to 65 independently operated camera eyes
74
252614
3164
سيتم تركيب 65 كاميرا تعمل بشكل مستقل
04:15
on each drone platform,
75
255778
2038
على الطائرات بدون طيار،
04:17
and this would vastly outstrip human ability to review it.
76
257816
3303
وهذا سوف يفوق بحد كبير القدرة البشرية لمراجعته.
04:21
And that means visual intelligence software will need
77
261119
2160
وهذا يعني الحاجة إلى برامج ذكية للتحليل المرئي
04:23
to scan it for items of interest.
78
263279
4048
لإتمام عملية المسح للعناصر ذات الأهمية.
04:27
And that means very soon
79
267327
1348
وهذا يعني أنه قريبا جداً
04:28
drones will tell humans what to look at,
80
268675
2747
طائرات بدون طيار سوف تملي للبشر مالذي تراه مناسب
04:31
not the other way around.
81
271422
2497
لا العكس.
04:33
But there's a second powerful incentive pushing
82
273919
2473
ولكن هناك عامل ثان مؤثر للدفع
04:36
decision-making away from humans and onto machines,
83
276392
3383
بعملية صنع القرار بعيداً عن البشر وعن الآلات
04:39
and that's electromagnetic jamming,
84
279775
2872
والذي هو التشويش الكهرومغناطيسي،
04:42
severing the connection between the drone
85
282647
2236
قطع الاتصال بين الطائرات بدون طيار
04:44
and its operator.
86
284883
2814
عن مشغلاتها
04:47
Now we saw an example of this in 2011
87
287697
2618
رأينا مثال على هذا في 2011
04:50
when an American RQ-170 Sentinel drone
88
290315
2956
الطائرة بدون طيار آر كيو 170 الامريكية
04:53
got a bit confused over Iran due to a GPS spoofing attack,
89
293271
4307
أصابها تشويش بنظام تحديد المواقع فوق ايران بسبب هجوم تعرضت له
04:57
but any remotely-piloted drone is susceptible to this type of attack,
90
297578
5114
إن أي طائرة بدون طيار هي عرضه لهذا النوع من الهجوم،
05:02
and that means drones
91
302692
2052
وهذا يعني أن الطائرات بدون طيار
05:04
will have to shoulder more decision-making.
92
304744
3620
سيكون عليها تحمل المزيد من عبء اتخاذ القرار.
05:08
They'll know their mission objective,
93
308364
3043
وسيعرفون هدف مهمتهم
05:11
and they'll react to new circumstances without human guidance.
94
311407
4845
وسيتفاعلون مع الظروف الجديدة دون توجيه بشري.
05:16
They'll ignore external radio signals
95
316252
2581
وستتجاهل إشارات راديو الخارجية
05:18
and send very few of their own.
96
318833
2330
وإرسال القليل من اشاراتها.
05:21
Which brings us to, really, the third
97
321163
2006
والذي يقودنا إلى العامل الثالث
05:23
and most powerful incentive pushing decision-making
98
323169
3862
وهو أقوى عامل لدفع عملية اتخاذ القرار
05:27
away from humans and onto weapons:
99
327031
3342
بعيداً عن البشر وعن الأسلحة:
05:30
plausible deniability.
100
330373
3293
الإنكار الحقيقة
05:33
Now we live in a global economy.
101
333666
2887
نحن نعايش اقتصاد عالمي.
05:36
High-tech manufacturing is occurring on most continents.
102
336553
4334
تُصنّع التكنولوجيا العالية في عدة قارات
05:40
Cyber espionage is spiriting away advanced designs
103
340887
2914
السيبرانية التجسس يبعد التصميمات المتقدمة
05:43
to parts unknown,
104
343801
1886
إلى نواحي مجهولة،
05:45
and in that environment, it is very likely
105
345687
2014
وفي تلك البيئة، من المحتمل جداً
05:47
that a successful drone design will be knocked off in contract factories,
106
347701
4734
يسيطر تصميم الطائرة بدون طيار الناجح على المصانع،
05:52
proliferate in the gray market.
107
352435
2170
وتنتشر في السوق الرمادية.
05:54
And in that situation, sifting through the wreckage
108
354605
2460
وفي تلك الحالة، غربلة للحطام
05:57
of a suicide drone attack, it will be very difficult to say
109
357065
2960
كهجوم طائرة بدون طيار انتحاري، سيكون من الصعب جداً القول
06:00
who sent that weapon.
110
360025
4400
من أرسل تلك الطائرات.
06:04
This raises the very real possibility
111
364425
2800
هذا الأمر يرفع من إمكانية حدوث
06:07
of anonymous war.
112
367225
2935
حرب مجهولة الأطراف.
06:10
This could tilt the geopolitical balance on its head,
113
370160
2614
ويعمل على خلخلة التوازن السياسي،
06:12
make it very difficult for a nation to turn its firepower
114
372774
3491
تجعل من الصعب جداً على دولة لتوجيه نيرانها
06:16
against an attacker, and that could shift the balance
115
376265
2848
نحو المهاجم، والذي يؤدي إلى إزاحة التوازن
06:19
in the 21st century away from defense and toward offense.
116
379113
3764
في القرن الواحد والعشرين بعيداً عن الحماية باتجاه الجريمة.
06:22
It could make military action a viable option
117
382877
3124
و تجعل العمل العسكري خياراً قابلاً للتطبيق
06:26
not just for small nations,
118
386001
2288
ليس فقط للدول الصغيرة،
06:28
but criminal organizations, private enterprise,
119
388289
2545
ولكن للمنظمات الإجرامية، والمؤسسات الخاصة،
06:30
even powerful individuals.
120
390834
2479
وحتى الشخصيات الهامة
06:33
It could create a landscape of rival warlords
121
393313
3328
ويؤدي الى إنشاء مشهد من القادة الحرب المتصارعين
06:36
undermining rule of law and civil society.
122
396641
3680
ويقوض سيادة القانون والمجتمع المدني.
06:40
Now if responsibility and transparency
123
400321
3616
الآن إذا كانت المسؤولية والشفافية
06:43
are two of the cornerstones of representative government,
124
403937
2384
وهما من الركائز الأساسية لحكومة منتخبة،
06:46
autonomous robotic weapons could undermine both.
125
406321
4320
فإن الأسلحة الروبوتية تعمل على تقويضهما
06:50
Now you might be thinking that
126
410641
1546
الآن قد تفكر بالأمر
06:52
citizens of high-tech nations
127
412187
2246
بأن مواطني الدول ذات التكنولوجيا المتقدمة
06:54
would have the advantage in any robotic war,
128
414433
2703
ستكون لديهم الأفضلية في أي حرب الروبوتية،
06:57
that citizens of those nations would be less vulnerable,
129
417136
3633
إن مواطني تلك الدول سوف تكون أقل عرضة للخطر،
07:00
particularly against developing nations.
130
420769
4288
لا سيما ضد الدول النامية.
07:05
But I think the truth is the exact opposite.
131
425057
3524
ولكن أعتقد أن الحقيقة هي عكس ذلك تماما.
07:08
I think citizens of high-tech societies
132
428581
2251
وأعتقد أن مواطني المجتمعات ذات التكنولوجيا العالية
07:10
are more vulnerable to robotic weapons,
133
430832
3729
هم أكثر عرضة للأسلحة الروبوتية،
07:14
and the reason can be summed up in one word: data.
134
434561
4465
والسبب الذي يمكن تلخيصه في كلمة واحدة: البيانات.
07:19
Data powers high-tech societies.
135
439026
3481
بيانات هي قوة المجتمعات المتقدمة.
07:22
Cell phone geolocation, telecom metadata,
136
442507
3190
تحديد الموقع باستخدام الهواتف، اتصالات البيانات التبادلية،
07:25
social media, email, text, financial transaction data,
137
445697
3472
وسائل الإعلام الاجتماعية، البريد الإلكتروني، بيانات المعاملات المالية،
07:29
transportation data, it's a wealth of real-time data
138
449169
3532
نقل البيانات،جمعيها تشكل ثروة من البيانات في الوقت الحقيقي
07:32
on the movements and social interactions of people.
139
452701
3373
للتحركات والتفاعلات الاجتماعية للناس.
07:36
In short, we are more visible to machines
140
456074
3775
وباختصار، نحن أكثر وضوحاً لآلات
07:39
than any people in history,
141
459849
2242
من أي شعب في التاريخ،
07:42
and this perfectly suits the targeting needs of autonomous weapons.
142
462091
5616
وهذا يناسب تماما الاحتياجات الأسلحة الروبوتية لتحديد اهدافها.
07:47
What you're looking at here
143
467707
1738
ما تشاهده هنا هو
07:49
is a link analysis map of a social group.
144
469445
3246
عبارة عن خريطة تحليل لارتباط مجموعة اجتماعية.
07:52
Lines indicate social connectedness between individuals.
145
472691
3634
تشير الخطوط الى الترابط الاجتماعي بين الأفراد.
07:56
And these types of maps can be automatically generated
146
476325
2880
وهذا النوع من الخرائط يمكن إنشأه تلقائيا
07:59
based on the data trail modern people leave behind.
147
479205
4715
وتعتمد على البيانات التي يتركها الناس خلفهم
08:03
Now it's typically used to market goods and services
148
483920
2477
وهذا ما يتم استخدامه لتسويق السلع والخدمات
08:06
to targeted demographics, but it's a dual-use technology,
149
486397
4416
لاستهداف أنواع من الناس ،لكنها تقنية مزدوجة الاستخدام
08:10
because targeting is used in another context.
150
490813
3360
لأنه يتم استخدام الاستهداف في سياق آخر.
08:14
Notice that certain individuals are highlighted.
151
494173
2560
لاحظ بعض الأفراد المحددين.
08:16
These are the hubs of social networks.
152
496733
3280
هؤلاء هم نقاط وصل للشبكات الاجتماعية.
08:20
These are organizers, opinion-makers, leaders,
153
500013
3590
هؤلاء هم المنظمين وصانعي الرأي و القادة،
08:23
and these people also can be automatically identified
154
503603
2682
وهؤلاء يمكن التعرف عليهم تلقائيا
08:26
from their communication patterns.
155
506285
2382
من أنماط اتصالاتهم.
08:28
Now, if you're a marketer, you might then target them
156
508667
2146
الآن، إذا كنت مسوق، ستعمل على استهدافهم
08:30
with product samples, try to spread your brand
157
510813
2543
من خلال عينات منتجك، محاولا نشر علامتك التجارية
08:33
through their social group.
158
513356
2829
الى مجموعاتهم الاجتماعية.
08:36
But if you're a repressive government
159
516185
1953
لكن إذا كنت تمثل حكومة قمعية
08:38
searching for political enemies, you might instead remove them,
160
518138
4810
باحثا عن الأعداء السياسيين، يمكن بدلا من ذلك ازالتهم،
08:42
eliminate them, disrupt their social group,
161
522948
2760
أو القضاء عليهم أوتعطيل هذه مجموعاتهم الاجتماعية
08:45
and those who remain behind lose social cohesion
162
525708
3169
وهؤلاء هم السبب في فقدان التماسك الاجتماعي
08:48
and organization.
163
528877
2621
وتنظيمه.
08:51
Now in a world of cheap, proliferating robotic weapons,
164
531498
3324
الآن في عالم التكلفة الرخيصة، تنتشر الأسلحة الروبوتية،
08:54
borders would offer very little protection
165
534822
2635
الحدود لن توفر سوى حماية ضعيفة جداً
08:57
to critics of distant governments
166
537457
1946
من معادين الحكومات
08:59
or trans-national criminal organizations.
167
539403
3646
أو المنظمات الإجرامية الدولية.
09:03
Popular movements agitating for change
168
543049
3493
الحركات الشعبية الثائرة للتغيير
09:06
could be detected early and their leaders eliminated
169
546542
3609
يمكن أن تكشف مبكرا، ويتم القضاء على قادتها
09:10
before their ideas achieve critical mass.
170
550151
2911
قبل أن تحقق أفكارها المطلوبة.
09:13
And ideas achieving critical mass
171
553062
2591
وتحقيق تلك الأفكار
09:15
is what political activism in popular government is all about.
172
555653
3936
هو كل شيء للنشاط السياسي في الحكومة الشعبية
09:19
Anonymous lethal weapons could make lethal action
173
559589
3997
الأسلحة الفتاكة المجهولة يمكن أن تجعل العمل مميت
09:23
an easy choice for all sorts of competing interests.
174
563586
3782
وخيار سهل لكل من المصالح المتنافسة.
09:27
And this would put a chill on free speech
175
567368
3734
وهذا من شأنه وضع حد لحرية التعبير
09:31
and popular political action, the very heart of democracy.
176
571102
5308
والعمل السياسي الشعبي،هو جوهر الديمقراطية.
09:36
And this is why we need an international treaty
177
576410
2914
ولهذا السبب إننا بحاجة إلى معاهدة دولية
09:39
on robotic weapons, and in particular a global ban
178
579324
3540
للحد من الأسلحة الروبوتية، وفرض حظر جزئي عالمي
09:42
on the development and deployment of killer robots.
179
582864
3908
على تطوير ونشر الروبوتات القتالية.
09:46
Now we already have international treaties
180
586772
3254
الآن لدينا بالفعل معاهدات دولية
09:50
on nuclear and biological weapons, and, while imperfect,
181
590026
3386
على الأسلحة النووية والبيولوجية،
09:53
these have largely worked.
182
593412
2288
وقد عملت إلى حد كبير.
09:55
But robotic weapons might be every bit as dangerous,
183
595700
3768
ولكن قد تكون الأسلحة الروبوتية خطيرة لحد ما،
09:59
because they will almost certainly be used,
184
599468
3288
لأنه من المؤكد أنها ستستخدم
10:02
and they would also be corrosive to our democratic institutions.
185
602756
5027
وسيكون لها دور في تقويض مؤسساتنا الديمقراطية
10:07
Now in November 2012 the U.S. Department of Defense
186
607783
3468
في تشرين الثاني/نوفمبر 2012 وزارة الدفاع الأميركية
10:11
issued a directive requiring
187
611251
2458
أصدرت توجيه تتطلب
10:13
a human being be present in all lethal decisions.
188
613709
4519
وجود إنسان عند إتخاذ القرارات القاتلة
10:18
This temporarily effectively banned autonomous weapons in the U.S. military,
189
618228
4776
وهذا يمنع مؤقتا فعالية الروبوتات القتالية في الجيش الأميركي
10:23
but that directive needs to be made permanent.
190
623004
3753
ولكن هذا التوجيه يحتاج إلى إجراء دائم.
10:26
And it could set the stage for global action.
191
626757
4376
وأن يمهد لحدث عالمي.
10:31
Because we need an international legal framework
192
631133
3845
نظراً لأننا بحاجة إلى إطار عمل قانوني دولي
10:34
for robotic weapons.
193
634978
2138
للأسلحة الروبوتية.
10:37
And we need it now, before there's a devastating attack
194
637116
2928
ونحن بحاجته بالحال، قبل وقوع أي هجوم مدمر
10:40
or a terrorist incident that causes nations of the world
195
640044
3152
أو عمل إرهابي يتسبب باندفاع دول العالم
10:43
to rush to adopt these weapons
196
643196
1924
لاعتماد هذه الأسلحة
10:45
before thinking through the consequences.
197
645120
3771
قبل التفكير في العواقب.
10:48
Autonomous robotic weapons concentrate too much power
198
648891
2981
الأسلحة الروبوتية ذاتية التحكم تركز السلطة
10:51
in too few hands, and they would imperil democracy itself.
199
651872
6283
في أيدي قليلة جداً، وإنها ستهدد الديمقراطية نفسها.
10:58
Now, don't get me wrong, I think there are tons
200
658155
2686
لا تفهموني خطأ، أعتقد أن هناك الكثير
11:00
of great uses for unarmed civilian drones:
201
660841
2618
من الاستخدامات المفيدة لطائرات دون الطيار للمدنيين العزل:
11:03
environmental monitoring, search and rescue, logistics.
202
663459
3939
الرصد البيئي والبحث والإنقاذ والنقل والإمداد.
11:07
If we have an international treaty on robotic weapons,
203
667398
2826
إذا كان لدينا معاهدة دولية لحد الأسلحة الروبوتية،
11:10
how do we gain the benefits of autonomous drones
204
670224
3587
كم من الفوائد التي سنحصل عليها من الطائرات بدون طيار
11:13
and vehicles while still protecting ourselves
205
673811
2648
والمركبات والتي ما تزال توفر حماية لنا
11:16
against illegal robotic weapons?
206
676459
3980
ضد الأسلحة الروبوتية غير المشروعة؟
11:20
I think the secret will be transparency.
207
680439
4741
أعتقد أن السر ألا يخبأ.
11:25
No robot should have an expectation of privacy
208
685180
3013
لا يجب السماح للروبوتات باقتحام الخصوصية
11:28
in a public place.
209
688193
3451
في الأماكن العامة.
11:31
(Applause)
210
691644
5048
(تصفيق)
11:36
Each robot and drone should have
211
696692
2045
ينبغي أن يكون لكل روبوت وطائرة بدون طيار
11:38
a cryptographically signed I.D. burned in at the factory
212
698737
2883
ترميز مسجل للتعريف عن هويتها يعطى من قبل المصنع
11:41
that can be used to track its movement through public spaces.
213
701620
2923
الذي يستخدم لتعقب حركتها في الأماكن العامة.
11:44
We have license plates on cars, tail numbers on aircraft.
214
704543
3381
لدينا لوحات التسجيل للسيارات وأرقام التسجيل الطائرات.
11:47
This is no different.
215
707924
1841
لا يوجد اختلاف .
11:49
And every citizen should be able to download an app
216
709765
2012
وينبغي لكل مواطن القدرة على تحميل تطبيق
11:51
that shows the population of drones and autonomous vehicles
217
711777
3125
والذي يعرض تعداد الطائرات دون الطيار والمركبات الذاتية
11:54
moving through public spaces around them,
218
714902
2429
التي تتحرك بالقرب منهم.
11:57
both right now and historically.
219
717331
2733
ذلك سيكون تاريخيا.
12:00
And civic leaders should deploy sensors and civic drones
220
720064
3548
وينبغي نشر قادة مدنيين و أجهزة تحسس وطائرات دون طيار مدنية
12:03
to detect rogue drones,
221
723612
2344
للكشف عن الطائرات الشريرة
12:05
and instead of sending killer drones of their own up to shoot them down,
222
725956
3176
وبدلا من ارسال الطائرات لإطلاق النار عليهم
12:09
they should notify humans to their presence.
223
729132
2992
ينبغي أولا تنبيه البشر لوجودهم.
12:12
And in certain very high-security areas,
224
732124
2606
وفي بعض المناطق الأمنية مشددة جداً،
12:14
perhaps civic drones would snare them
225
734730
1909
وتنصب لهم الطائرات دون طيار المدنية الفخ
12:16
and drag them off to a bomb disposal facility.
226
736639
2841
واستدراجها بعيدا للتخلص منها وإبطال مفعولها
12:19
But notice, this is more an immune system
227
739480
3027
ولاحظ أن هذا النظام أكثر حصانة
12:22
than a weapons system.
228
742507
1321
من النظام المسلح.
12:23
It would allow us to avail ourselves of the use
229
743828
2592
إنها تسمح لنا من استخدام
12:26
of autonomous vehicles and drones
230
746420
2032
المركبات الذاتية والطائرات بدون طيار
12:28
while still preserving our open, civil society.
231
748452
4295
للحفاظ على مجتمعنا المدني.
12:32
We must ban the deployment and development
232
752747
2999
علينا أن نحظر من نشر والتطوير
12:35
of killer robots.
233
755746
1862
الروبوتات القاتلة.
12:37
Let's not succumb to the temptation to automate war.
234
757608
4850
دعونا لا نستسلم لإغراء أتمتة الحرب.
12:42
Autocratic governments and criminal organizations
235
762458
2718
الحكومات المستبدة والمنظمات الإجرامية
12:45
undoubtedly will, but let's not join them.
236
765176
2956
بلا شك, ولكن أن لا ننضم إليهم.
12:48
Autonomous robotic weapons
237
768132
1891
الأسلحة الروبوتية ذاتية الحكم
12:50
would concentrate too much power
238
770023
2051
ستركز الكثير من السلطة
12:52
in too few unseen hands,
239
772074
2482
في أيدي قليلة جداً ومخفية،
12:54
and that would be corrosive to representative government.
240
774556
3255
وستعمل على تقويض الحكومة المنتخبة.
12:57
Let's make sure, for democracies at least,
241
777811
2961
دعونا نتأكد، من أجل ديمقراطيات على الأقل،
13:00
killer robots remain fiction.
242
780772
2604
أن الروبوتات القتالية ستبقى من الخيال.
13:03
Thank you.
243
783376
1110
شكرا.
13:04
(Applause)
244
784486
4565
(تصفيق)
13:09
Thank you. (Applause)
245
789051
4616
شكرا. (تصفيق)
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7