Daniel Suarez: The kill decision shouldn't belong to a robot

76,013 views ・ 2013-06-13

TED


אנא לחץ פעמיים על הכתוביות באנגלית למטה כדי להפעיל את הסרטון.

00:00
Translator: Joseph Geni Reviewer: Morton Bast
0
0
7000
מתרגם: Yael BST מבקר: Ido Dekkers
00:12
I write fiction sci-fi thrillers,
1
12691
3158
אני כותב מותחנים של מדע בדיוני,
00:15
so if I say "killer robots,"
2
15849
2193
אז אם אני אומר "רובוטים רצחניים",
00:18
you'd probably think something like this.
3
18042
2361
אתם בטח חושבים על משהו כמו זה.
00:20
But I'm actually not here to talk about fiction.
4
20403
2555
אבל האמת היא שאני כאן לא בכדי לדבר על מדע בדיוני.
00:22
I'm here to talk about very real killer robots,
5
22958
2948
אני כאן בכדי לדבר על רובוטים רצחניים מאוד אמיתיים,
00:25
autonomous combat drones.
6
25906
3122
כטב"מים אוטונומיים קרביים.
00:29
Now, I'm not referring to Predator and Reaper drones,
7
29028
3627
עכשיו, אני לא מדבר על הכטב"מים "פרדטור" ו"ריפר" ,
00:32
which have a human making targeting decisions.
8
32655
3260
שבהם האדם הוא שמחליט לגבי המטרות.
00:35
I'm talking about fully autonomous robotic weapons
9
35915
3129
אני מדבר על כלי נשק רובוטיים לגמרי אוטונומיים
00:39
that make lethal decisions about human beings
10
39044
2654
שמקבלים החלטות קטלניות על בני אדם
00:41
all on their own.
11
41698
2417
לגמרי בעצמם.
00:44
There's actually a technical term for this: lethal autonomy.
12
44115
4000
יש למעשה מונח טכני לזה: אוטונומיה קטלנית.
00:48
Now, lethally autonomous killer robots
13
48115
2856
עכשיו, רובוטים קטלניים אוטונומיים
00:50
would take many forms -- flying, driving,
14
50971
3069
לובשים צורות רבות: טסים, נוהגים,
00:54
or just lying in wait.
15
54040
2746
או סתם נמצאים במארב.
00:56
And actually, they're very quickly becoming a reality.
16
56786
3109
ולמעשה, הם נהפכים למציאות מהר מאוד.
00:59
These are two automatic sniper stations
17
59895
2484
אלו שתי תחנות צליפה אוטומטית
01:02
currently deployed in the DMZ between North and South Korea.
18
62379
4137
שמוצבות כיום באזור המפורז שבין צפון קוריאה לדרום קוריאה.
01:06
Both of these machines are capable of automatically
19
66516
2171
לשתי המערכות יכולות אוטונומיות
01:08
identifying a human target and firing on it,
20
68687
3524
לזיהוי מטרה אנושית ויירוטה,
01:12
the one on the left at a distance of over a kilometer.
21
72211
4324
זו משמאל ממרחק של למעלה מקילומטר.
01:16
Now, in both cases, there's still a human in the loop
22
76535
3589
עכשיו, בשני המקרים, יש עדיין בן אדם באמצע
01:20
to make that lethal firing decision,
23
80124
2372
שמקבל את ההחלטה הקטלנית לירות,
01:22
but it's not a technological requirement. It's a choice.
24
82496
5413
אבל זו אינה דרישה טכנית. זו בחירה.
01:27
And it's that choice that I want to focus on,
25
87909
3093
ובדיוק בבחירה הזו אני רוצה להתמקד,
01:31
because as we migrate lethal decision-making
26
91002
2641
כי בזמן שאנחנו מעבירים את קבלת ההחלטות הקטלניות
01:33
from humans to software,
27
93643
3109
מבני האדם לתוכנה,
01:36
we risk not only taking the humanity out of war,
28
96752
3476
אנחנו מסתכנים לא רק בכך שנוציא את האנושיות מהמלחמה,
01:40
but also changing our social landscape entirely,
29
100228
3526
אלא גם בכך שאנחנו נשנה לחלוטין את הנוף החברתי שלנו,
01:43
far from the battlefield.
30
103754
2224
גם הרבה מעבר לשדה הקרב.
01:45
That's because the way humans resolve conflict
31
105978
4509
וזאת כי האופן שבו בני אדם פותרים סיכסוכים
01:50
shapes our social landscape.
32
110487
1733
מעצב את הנוף החברתי שלנו.
01:52
And this has always been the case, throughout history.
33
112220
2633
וכך זה היה תמיד, לאורך כל ההיסטוריה.
01:54
For example, these were state-of-the-art weapons systems
34
114853
2661
למשל, אלו היו כלי הנשק הכי מתקדמים
01:57
in 1400 A.D.
35
117514
2079
ב-1400 לספירה.
01:59
Now they were both very expensive to build and maintain,
36
119593
3144
הם היו מאוד יקרים הן לבניה והן לתחזוקה,
02:02
but with these you could dominate the populace,
37
122737
3240
אבל באמצעותם יכולת לשלוט בעם,
02:05
and the distribution of political power in feudal society reflected that.
38
125977
3889
והפיזור של הכוח הפוליטי בחברה הפיאודלית שיקף זאת.
02:09
Power was focused at the very top.
39
129866
2687
הכוח היה מרוכז ממש בקודקוד.
02:12
And what changed? Technological innovation.
40
132553
3528
ומה השתנה? חדשנות טכנולוגית.
02:16
Gunpowder, cannon.
41
136081
1871
אבק השריפה, תותחים.
02:17
And pretty soon, armor and castles were obsolete,
42
137952
3817
ומהר מאוד, השריון והטירות הפכו מיושנים,
02:21
and it mattered less who you brought to the battlefield
43
141769
2533
וכבר היה חשוב פחות את מי הבאת לשדה הקרב
02:24
versus how many people you brought to the battlefield.
44
144302
3779
לעומת כמה אנשים הבאת לשדה הקרב.
02:28
And as armies grew in size, the nation-state arose
45
148081
3638
וככל שצבאות גדלו במספרים, קמו מדינות-הלאום
02:31
as a political and logistical requirement of defense.
46
151719
3680
כצורך פוליטי ולוגיסטי של ההגנה.
02:35
And as leaders had to rely on more of their populace,
47
155399
2376
וככל שמנהיגים נאלצו לסמוך על יותר מבני העם שלהם,
02:37
they began to share power.
48
157775
1833
כך הם החלו לחלוק בכוח.
02:39
Representative government began to form.
49
159608
2599
ממשלים ייצוגיים החלו להיווצר.
02:42
So again, the tools we use to resolve conflict
50
162207
3288
אז שוב, הכלים בהם אנחנו משתמשים כדי לפתור סכסוכים
02:45
shape our social landscape.
51
165495
3304
מעצבים את הנוף החברתי שלנו.
02:48
Autonomous robotic weapons are such a tool,
52
168799
4064
כלי נשק רובוטיים אוטונומיים הם כלי כזה,
02:52
except that, by requiring very few people to go to war,
53
172863
5168
אלא שבכך שהם מצריכים מעט מאוד אנשים שיצאו למלחמה,
02:58
they risk re-centralizing power into very few hands,
54
178031
4840
הם יוצרים את הסיכון שהכוח ישוב ויתרכז בקרב מעט מאוד ידיים,
03:02
possibly reversing a five-century trend toward democracy.
55
182871
6515
ואולי אף יחזירו אחורה מגמה בת 500 שנה של התקדמות לעבר דמוקרטיה.
03:09
Now, I think, knowing this,
56
189386
1757
עכשיו, לדעתי, כשיודעים את זה,
03:11
we can take decisive steps to preserve our democratic institutions,
57
191143
4352
אפשר לנקוט בצעדים החלטיים כדי לשמר את המוסדות הדמוקרטיים שלנו,
03:15
to do what humans do best, which is adapt.
58
195495
3979
ולעשות את מה שבני האדם עושים הכי טוב, וזה להסתגל.
03:19
But time is a factor.
59
199474
2005
אבל הזמן הוא מרכיב חשוב.
03:21
Seventy nations are developing remotely-piloted
60
201479
2851
שבעים אומות מפתחות בעצמן כטב"מים
03:24
combat drones of their own,
61
204330
2157
שנשלטים מרחוק,
03:26
and as you'll see, remotely-piloted combat drones
62
206487
2593
וכפי שתראו, כטב"מים קרביים שנשלטים מרחוק
03:29
are the precursors to autonomous robotic weapons.
63
209080
4472
הם נושאי הבשורה לכלי הנשק הרובוטיים האוטונומיים.
03:33
That's because once you've deployed remotely-piloted drones,
64
213552
2767
וזה כי מרגע שפרסת כטב"מים בשליטה מרחוק,
03:36
there are three powerful factors pushing decision-making
65
216319
3384
ישנם שלושה גורמים מרכזיים שדוחקים את קבלת ההחלטות
03:39
away from humans and on to the weapon platform itself.
66
219703
4600
מידי בני האדם ואל מערכת הנשק עצמה.
03:44
The first of these is the deluge of video that drones produce.
67
224303
5259
הראשון שבהם הוא מבול הווידיאו שהכטב"מים מייצרים.
03:49
For example, in 2004, the U.S. drone fleet produced
68
229562
3853
למשל, ב-2004, צי הכטב"מים של ארה"ב הפיק
03:53
a grand total of 71 hours of video surveillance for analysis.
69
233415
5312
בסה"כ 71 שעות של צילומי מעקב לניתוח.
03:58
By 2011, this had gone up to 300,000 hours,
70
238727
4499
ב-2011, הנתון עלה ל 300,000 שעות,
04:03
outstripping human ability to review it all,
71
243226
3149
ובכך עקף את היכולת האנושית לצפייה בכל זה,
04:06
but even that number is about to go up drastically.
72
246375
3664
אבל אפילו המספר הזה עוד יעלה משמעותית.
04:10
The Pentagon's Gorgon Stare and Argus programs
73
250039
2575
התוכניות של הפנטגון "גורגון סטר" וארגוס"
04:12
will put up to 65 independently operated camera eyes
74
252614
3164
יציבו כ-65 עדשות מצלמה שמנוהלות כל אחת בנפרד
04:15
on each drone platform,
75
255778
2038
על הפלטפורמה של כל כטב"ם,
04:17
and this would vastly outstrip human ability to review it.
76
257816
3303
וזה יעלה משמעותית על היכולת האנושית לצפות בתוצרים.
04:21
And that means visual intelligence software will need
77
261119
2160
והמשמעות היא שידרשו תוכנות בינה ויזואלית
04:23
to scan it for items of interest.
78
263279
4048
על מנת לסרוק ולאתר מוקדי עניין.
04:27
And that means very soon
79
267327
1348
וזה אומר שבקרוב מאוד
04:28
drones will tell humans what to look at,
80
268675
2747
כטב"מים יגידו לבני האדם על מה להסתכל,
04:31
not the other way around.
81
271422
2497
ולא להיפך.
04:33
But there's a second powerful incentive pushing
82
273919
2473
אבל יש תמריץ חזק שני שדוחף
04:36
decision-making away from humans and onto machines,
83
276392
3383
את קבלת ההחלטות מידי בני האדם לעבר המכונות,
04:39
and that's electromagnetic jamming,
84
279775
2872
וזה השיבוש האלקטרומגנטי,
04:42
severing the connection between the drone
85
282647
2236
שמנתק את הקשר שבין הכטב"ם
04:44
and its operator.
86
284883
2814
למפעיל שלו.
04:47
Now we saw an example of this in 2011
87
287697
2618
ראינו דוגמה לזה ב- 2011
04:50
when an American RQ-170 Sentinel drone
88
290315
2956
כאשר הכטב"ם סנטינל RQ-170 האמריקאי
04:53
got a bit confused over Iran due to a GPS spoofing attack,
89
293271
4307
התבלבל קצת מעל איראן בשל מתקפת שיבוש GPS,
04:57
but any remotely-piloted drone is susceptible to this type of attack,
90
297578
5114
אבל כל כטב"ם הנשלט מרחוק חשוף לסוג כזה של מתקפה,
05:02
and that means drones
91
302692
2052
וזה אומר שכטב"מים
05:04
will have to shoulder more decision-making.
92
304744
3620
יצטרכו לקבל יותר אחריות על קבלת החלטות.
05:08
They'll know their mission objective,
93
308364
3043
הם ידענו מה מטרת המשימה,
05:11
and they'll react to new circumstances without human guidance.
94
311407
4845
והם יגיבו לנסיבות חדשות ללא קבלת הנחיות מבן אנוש.
05:16
They'll ignore external radio signals
95
316252
2581
הם יתעלמו מאותות רדיו חיצוניים
05:18
and send very few of their own.
96
318833
2330
וישלחו מעט מאוד אותות משלהם.
05:21
Which brings us to, really, the third
97
321163
2006
מה שמביא אותנו, למעשה, לתמריץ השלישי
05:23
and most powerful incentive pushing decision-making
98
323169
3862
והחזק ביותר שדוחק את קבלת ההחלטות
05:27
away from humans and onto weapons:
99
327031
3342
מידי בני האדם ולעבר כלי הנשק:
05:30
plausible deniability.
100
330373
3293
הכחשה סבירה.
05:33
Now we live in a global economy.
101
333666
2887
אנחנו חיים כיום בכלכלה גלובלית.
05:36
High-tech manufacturing is occurring on most continents.
102
336553
4334
ברוב היבשות מתקיים ייצור של טכנולוגיה מתקדמת.
05:40
Cyber espionage is spiriting away advanced designs
103
340887
2914
ריגול קיברנטי מוביל לתפוצה של תוכניות פיתוח
05:43
to parts unknown,
104
343801
1886
למקומות בלתי ידועים,
05:45
and in that environment, it is very likely
105
345687
2014
ובאווירה כזו, מאוד סביר
05:47
that a successful drone design will be knocked off in contract factories,
106
347701
4734
שתוכנית ייצור של כטב"ם מוצלח תועתק במפעלים השותפים,
05:52
proliferate in the gray market.
107
352435
2170
ותשגשג במהירות בשוק האפור.
05:54
And in that situation, sifting through the wreckage
108
354605
2460
ובמצב כזה, בחיפוש בין ההריסות
05:57
of a suicide drone attack, it will be very difficult to say
109
357065
2960
של מתקפת כטב"ם מתאבד, יהיה מאוד קשה לומר
06:00
who sent that weapon.
110
360025
4400
מי שלח את כלי הנשק הזה.
06:04
This raises the very real possibility
111
364425
2800
זה מעלה את האפשרות המאוד ממשית
06:07
of anonymous war.
112
367225
2935
של מלחמה אנונימית.
06:10
This could tilt the geopolitical balance on its head,
113
370160
2614
זה יכול להטות לחלוטין את המאזן הגיאופולטי,
06:12
make it very difficult for a nation to turn its firepower
114
372774
3491
ולהקשות מאוד על מדינה להפנות את כוחה הצבאי
06:16
against an attacker, and that could shift the balance
115
376265
2848
כנגד התוקף, וזה עשוי להטות את האיזון
06:19
in the 21st century away from defense and toward offense.
116
379113
3764
במאה ה-21 מהגנה להתקפה.
06:22
It could make military action a viable option
117
382877
3124
זה עשוי להפוך את הפעולה הצבאית לאפשרות מעשית
06:26
not just for small nations,
118
386001
2288
לא רק עבור מדינות קטנות,
06:28
but criminal organizations, private enterprise,
119
388289
2545
אלא גם עבור ארגוני פשע, תאגידים פרטיים,
06:30
even powerful individuals.
120
390834
2479
ואפילו אזרחים פרטיים בעלי כוח.
06:33
It could create a landscape of rival warlords
121
393313
3328
זה עשוי ליצור נוף של אדוני מלחמה יריבים
06:36
undermining rule of law and civil society.
122
396641
3680
שמערערים את שלטון החוק ואת החברה האזרחית.
06:40
Now if responsibility and transparency
123
400321
3616
עכשיו אם אחריות ושקיפות
06:43
are two of the cornerstones of representative government,
124
403937
2384
הן אבני הפינה של השלטון הייצוגי,
06:46
autonomous robotic weapons could undermine both.
125
406321
4320
כלי נשק רובוטיים אוטונומיים עלולים לערער את שתי אלו.
06:50
Now you might be thinking that
126
410641
1546
עכשיו אתם אולי חושבים
06:52
citizens of high-tech nations
127
412187
2246
שלאזרחים במדינות בעלות טכנולוגיה מתקדמת
06:54
would have the advantage in any robotic war,
128
414433
2703
יהיה יתרון בכל מלחמה רובוטית,
06:57
that citizens of those nations would be less vulnerable,
129
417136
3633
שאזרחים במדינות כאלו יהיו פגיעים פחות,
07:00
particularly against developing nations.
130
420769
4288
בעיקר מול מדינות מתפתחות.
07:05
But I think the truth is the exact opposite.
131
425057
3524
אבל אני חושב שהאמת היא בדיוק הפוכה.
07:08
I think citizens of high-tech societies
132
428581
2251
אני חושב שאזרחים במדינות בעלות טכנולוגיה מתקדמת
07:10
are more vulnerable to robotic weapons,
133
430832
3729
חשופים יותר לפגיעה של כלי נשק רובוטיים,
07:14
and the reason can be summed up in one word: data.
134
434561
4465
והסיבה לכך היא במילה אחת: נתונים.
07:19
Data powers high-tech societies.
135
439026
3481
נתונים הם המנוע של חברות טכנולוגיות.
07:22
Cell phone geolocation, telecom metadata,
136
442507
3190
מיקום גיאוגרפי בטלפונים ניידים, נתוני טלקומוניקציה,
07:25
social media, email, text, financial transaction data,
137
445697
3472
מדיה חברתית, דוא"ל, נתוני עסקות פיננסיות,
07:29
transportation data, it's a wealth of real-time data
138
449169
3532
נתוני שינוע, זהו עושר של נתונים בזמן אמת
07:32
on the movements and social interactions of people.
139
452701
3373
על תנועות ואינטראקציות חברתיות בין אנשים.
07:36
In short, we are more visible to machines
140
456074
3775
בקצרה, אנחנו יותר נראים למכונות
07:39
than any people in history,
141
459849
2242
בהשוואה לכל אדם בהיסטוריה,
07:42
and this perfectly suits the targeting needs of autonomous weapons.
142
462091
5616
וזה מתאים במדויק לצרכי איתור המטרה של כלי הנשק האוטונומיים.
07:47
What you're looking at here
143
467707
1738
מה שאתם רואים כאן
07:49
is a link analysis map of a social group.
144
469445
3246
זה מפת ניתוח קשרים של קבוצה חברתית.
07:52
Lines indicate social connectedness between individuals.
145
472691
3634
הקווים מעידים על קישור חברתי בין פרטים.
07:56
And these types of maps can be automatically generated
146
476325
2880
ומפות מסוג כזה אפשר לחולל אוטומטית
07:59
based on the data trail modern people leave behind.
147
479205
4715
על בסיס עקבות המידע שהאדם המודרני משאיר אחריו.
08:03
Now it's typically used to market goods and services
148
483920
2477
עכשיו בדר"כ זה משמש לשיווק סחורות ושירותים
08:06
to targeted demographics, but it's a dual-use technology,
149
486397
4416
לקבוצת אוכלוסייה ייעודית, אבל זו טכנולוגיה דו-שימושית,
08:10
because targeting is used in another context.
150
490813
3360
כי איתור מטרה משמש גם בהקשר אחר.
08:14
Notice that certain individuals are highlighted.
151
494173
2560
שימו לב שחלק מהפרטים מודגשים.
08:16
These are the hubs of social networks.
152
496733
3280
אלו הם מעין מוקדים של רשתות חברתיות.
08:20
These are organizers, opinion-makers, leaders,
153
500013
3590
אלו הם מארגנים, קובעי דעת-קהל, מנהיגים,
08:23
and these people also can be automatically identified
154
503603
2682
וגם האנשים האלו יכולים להיות מזוהים אוטומטית
08:26
from their communication patterns.
155
506285
2382
על פי דפוסי התקשורת שלהם.
08:28
Now, if you're a marketer, you might then target them
156
508667
2146
עכשיו, אם אתה משווק, אתה יכול להפוך אותם למטרה
08:30
with product samples, try to spread your brand
157
510813
2543
לדוגמיות של מוצרים, לנסות להפיץ את המותג שלך
08:33
through their social group.
158
513356
2829
דרך הקבוצה החברתית שלהם.
08:36
But if you're a repressive government
159
516185
1953
אבל אם אתה משטר דיכוי
08:38
searching for political enemies, you might instead remove them,
160
518138
4810
שמחפש אויבים פוליטיים, אתה עלול במקום זה להוריד אותם,
08:42
eliminate them, disrupt their social group,
161
522948
2760
לחסל אותם, לזעזע את הקבוצה החברתית שלהם,
08:45
and those who remain behind lose social cohesion
162
525708
3169
והנותרים מאבדים את הלכידות החברתית
08:48
and organization.
163
528877
2621
ואת הארגון.
08:51
Now in a world of cheap, proliferating robotic weapons,
164
531498
3324
עכשיו בעולם של נשק רובוטי זול ונפוץ,
08:54
borders would offer very little protection
165
534822
2635
גבולות יוכלו לספק מעט מאוד הגנה
08:57
to critics of distant governments
166
537457
1946
למבקרים של ממשלות רחוקות
08:59
or trans-national criminal organizations.
167
539403
3646
או ארגוני פשע חוצי-עולם.
09:03
Popular movements agitating for change
168
543049
3493
קבוצות עממיות שפועלות למען שינוי
09:06
could be detected early and their leaders eliminated
169
546542
3609
יהיו ניתנות לזיהוי מוקדם והמנהיגים שלהם יחוסלו
09:10
before their ideas achieve critical mass.
170
550151
2911
לפני שהרעיונות שלהם יצברו מאסה קריטית.
09:13
And ideas achieving critical mass
171
553062
2591
השגת מאסה קריטית לרעיונות
09:15
is what political activism in popular government is all about.
172
555653
3936
זו המהות של אקטיביזם פוליטי בשלטון עממי.
09:19
Anonymous lethal weapons could make lethal action
173
559589
3997
כלי נשק קטלניים אנונימיים עשויים להפוך פעולה קטלנית
09:23
an easy choice for all sorts of competing interests.
174
563586
3782
לאפשרות קלה עבור כל מני אינטרסים מתחרים.
09:27
And this would put a chill on free speech
175
567368
3734
וזה ייבש את חופש הביטוי
09:31
and popular political action, the very heart of democracy.
176
571102
5308
ופעילות פוליטית עממית, שהם לב ליבה של הדמוקרטיה.
09:36
And this is why we need an international treaty
177
576410
2914
וזו הסיבה לכך שאנחנו צריכים אמנה בינלאומית
09:39
on robotic weapons, and in particular a global ban
178
579324
3540
בנושא נשק רובוטי, ובפרט איסור גלובלי
09:42
on the development and deployment of killer robots.
179
582864
3908
על פיתוח ופריסה של רובוטים קטלניים.
09:46
Now we already have international treaties
180
586772
3254
יש לנו כבר אמנות בינלאומיות
09:50
on nuclear and biological weapons, and, while imperfect,
181
590026
3386
בנושא נשק גרעיני וביולוגי, ולמרות שהן לא מושלמות,
09:53
these have largely worked.
182
593412
2288
בגדול הן עובדות.
09:55
But robotic weapons might be every bit as dangerous,
183
595700
3768
אבל כלי נשק רובוטיים עלולים להיות מסוכנים לא פחות,
09:59
because they will almost certainly be used,
184
599468
3288
כי כמעט בוודאות ייעשה בהם שימוש,
10:02
and they would also be corrosive to our democratic institutions.
185
602756
5027
והם יהיו הרסניים גם למוסדות הדמוקרטיים שלנו.
10:07
Now in November 2012 the U.S. Department of Defense
186
607783
3468
בנובמבר 2012 מחלקת ההגנה של ארה"ב
10:11
issued a directive requiring
187
611251
2458
פירסמה הנחיה שדורשת
10:13
a human being be present in all lethal decisions.
188
613709
4519
שבן אדם יהיה נוכח בכל ההחלטות הקטלניות.
10:18
This temporarily effectively banned autonomous weapons in the U.S. military,
189
618228
4776
למעשה זה אסר באופן זמני שימוש בכלי נשק אוטונומיים בצבא ארה"ב,
10:23
but that directive needs to be made permanent.
190
623004
3753
אבל ההנחיה הזו צריכה להפוך לקבועה.
10:26
And it could set the stage for global action.
191
626757
4376
והיא יכולה לשמש כפתיח לפעולה גלובלית.
10:31
Because we need an international legal framework
192
631133
3845
כי אנחנו זקוקים למסגרת חוקית בינלאומית
10:34
for robotic weapons.
193
634978
2138
לכלי נשק רובוטיים.
10:37
And we need it now, before there's a devastating attack
194
637116
2928
ואנחנו זקוקים לה עכשיו, לפני שתהיה מתקפה הרסנית
10:40
or a terrorist incident that causes nations of the world
195
640044
3152
או אירוע טרור שיגרום לאומות העולם
10:43
to rush to adopt these weapons
196
643196
1924
למהר ולאמץ את כלי הנשק הללו
10:45
before thinking through the consequences.
197
645120
3771
לפני שהספיקו לחשוב לעומק על ההשלכות.
10:48
Autonomous robotic weapons concentrate too much power
198
648891
2981
כלי נשק רובוטיים אוטונומיים מרכזים יותר מדי כוח
10:51
in too few hands, and they would imperil democracy itself.
199
651872
6283
בקרב מעט מדי ידיים, והם מעמידים בסכנה את הדמוקרטיה עצמה.
10:58
Now, don't get me wrong, I think there are tons
200
658155
2686
עכשיו, אל תבינו אותי לא נכון, אני חושב שיש המון
11:00
of great uses for unarmed civilian drones:
201
660841
2618
שימושים נפלאים לכטב"מים אזרחיים לא חמושים:
11:03
environmental monitoring, search and rescue, logistics.
202
663459
3939
ניטור סביבתי, חיפוש והצלה, לוגיסטיקה.
11:07
If we have an international treaty on robotic weapons,
203
667398
2826
אם תהיה לנו אמנה בינלאומית בנושא כלי נשק רובוטיים,
11:10
how do we gain the benefits of autonomous drones
204
670224
3587
איך נשיג את התועלות שבכטב"מים אוטונומיים
11:13
and vehicles while still protecting ourselves
205
673811
2648
וכלי רכב תוך הגנה על עצמנו
11:16
against illegal robotic weapons?
206
676459
3980
מפני נשק רובוטי בלתי חוקי?
11:20
I think the secret will be transparency.
207
680439
4741
אני חושב שהסוד יהיה בשקיפות.
11:25
No robot should have an expectation of privacy
208
685180
3013
אסור שאף רובוט יצפה לפרטיות
11:28
in a public place.
209
688193
3451
במקום ציבורי.
11:31
(Applause)
210
691644
5048
(מחיאות כפיים)
11:36
Each robot and drone should have
211
696692
2045
לכל רובוט וכטב"ם צריך להיות
11:38
a cryptographically signed I.D. burned in at the factory
212
698737
2883
זיהוי של חתימה מוצפנת שנצרב בו במפעל
11:41
that can be used to track its movement through public spaces.
213
701620
2923
ושיכול לשמש למעקב אחר תנועתו במרחב הציבורי.
11:44
We have license plates on cars, tail numbers on aircraft.
214
704543
3381
יש לנו לוחות רישוי על רכבים, מספר זנב על כלי טיס.
11:47
This is no different.
215
707924
1841
זה לא שונה.
11:49
And every citizen should be able to download an app
216
709765
2012
ולכל אזרח צריכה להיות האפשרות להוריד אפליקציה
11:51
that shows the population of drones and autonomous vehicles
217
711777
3125
שמציגה את אוכלוסיית הכטב"מים האוטונומיים
11:54
moving through public spaces around them,
218
714902
2429
שנעים במרחב הציבורי שמסביבו,
11:57
both right now and historically.
219
717331
2733
גם עכשיו וגם בעבר.
12:00
And civic leaders should deploy sensors and civic drones
220
720064
3548
ומנהיגים אזרחיים צריכים לפרוס סנסורים וכטב"מים אזרחיים
12:03
to detect rogue drones,
221
723612
2344
שיזהו כטב"מים אסורים,
12:05
and instead of sending killer drones of their own up to shoot them down,
222
725956
3176
ובמקום לשלוח כטב"ם קטלני משלהם כדי ליירט אותם,
12:09
they should notify humans to their presence.
223
729132
2992
הם צריכים ליידע את בני האדם על נוכחותם.
12:12
And in certain very high-security areas,
224
732124
2606
ובאזורים ביטחוניים מסוימים,
12:14
perhaps civic drones would snare them
225
734730
1909
כטבמים אזרחיים אולי יציבו להם מלכודת
12:16
and drag them off to a bomb disposal facility.
226
736639
2841
וימשכו אותם לעבר מתקן מיוחד לסילוק פצצות.
12:19
But notice, this is more an immune system
227
739480
3027
אבל שימו לב, זה יותר מערכת חיסון
12:22
than a weapons system.
228
742507
1321
מאשר מערכת נשק.
12:23
It would allow us to avail ourselves of the use
229
743828
2592
היא תאפשר לנו להפיק תועלת מהשימוש
12:26
of autonomous vehicles and drones
230
746420
2032
בכלים אוטונומיים וכטב"מים
12:28
while still preserving our open, civil society.
231
748452
4295
ובו בזמן לשמר את החברה האזרחית הפתוחה שלנו.
12:32
We must ban the deployment and development
232
752747
2999
אנחנו חייבים לאסור את הפריסה והפיתוח
12:35
of killer robots.
233
755746
1862
של רובוטים קטלניים.
12:37
Let's not succumb to the temptation to automate war.
234
757608
4850
בואו לא ניכנע לפיתוי של מיכון המלחמות.
12:42
Autocratic governments and criminal organizations
235
762458
2718
ממשלות אוטוקרטיות וארגוני פשיעה
12:45
undoubtedly will, but let's not join them.
236
765176
2956
ללא ספק יעשו זאת, אבל בואו לא נצטרף אליהם.
12:48
Autonomous robotic weapons
237
768132
1891
כלי נשק רובוטיים אוטונומיים
12:50
would concentrate too much power
238
770023
2051
ירכזו יותר מדי כוח
12:52
in too few unseen hands,
239
772074
2482
בקרב מספר מועט מדי של ידיים בלתי נראות,
12:54
and that would be corrosive to representative government.
240
774556
3255
וזה יהיה הרסני לשלטון הייצוגי.
12:57
Let's make sure, for democracies at least,
241
777811
2961
בואו נוודא, לפחות לגבי דמוקרטיות,
13:00
killer robots remain fiction.
242
780772
2604
שרובוטים קטלניים יישארו בגדר מדע בדיוני.
13:03
Thank you.
243
783376
1110
תודה לכם.
13:04
(Applause)
244
784486
4565
(מחיאות כפיים)
13:09
Thank you. (Applause)
245
789051
4616
תודה לכם. (מחיאות כפיים)
על אתר זה

אתר זה יציג בפניכם סרטוני YouTube המועילים ללימוד אנגלית. תוכלו לראות שיעורי אנגלית המועברים על ידי מורים מהשורה הראשונה מרחבי העולם. לחץ פעמיים על הכתוביות באנגלית המוצגות בכל דף וידאו כדי להפעיל את הסרטון משם. הכתוביות גוללות בסנכרון עם הפעלת הווידאו. אם יש לך הערות או בקשות, אנא צור איתנו קשר באמצעות טופס יצירת קשר זה.

https://forms.gle/WvT1wiN1qDtmnspy7