Daniel Suarez: The kill decision shouldn't belong to a robot

76,013 views ・ 2013-06-13

TED


โปรดดับเบิลคลิกที่คำบรรยายภาษาอังกฤษด้านล่างเพื่อเล่นวิดีโอ

00:00
Translator: Joseph Geni Reviewer: Morton Bast
0
0
7000
Translator: Yada Sattarujawong Reviewer: Kelwalin Dhanasarnsombut
00:12
I write fiction sci-fi thrillers,
1
12691
3158
ผมเป็นนักเขียนนวนิยายวิทยาศาสตร์เขย่าขวัญ
00:15
so if I say "killer robots,"
2
15849
2193
ดังนั้นเวลาที่ผมพูดถึง "หุ่นยนต์นักฆ่า"
00:18
you'd probably think something like this.
3
18042
2361
คุณคงคิดถึงหุ่นยนต์ประมาณนี้
00:20
But I'm actually not here to talk about fiction.
4
20403
2555
แต่ผมไม่ได้มาที่นี่เพื่อพูดถึงเรื่องในนิยาย
00:22
I'm here to talk about very real killer robots,
5
22958
2948
ผมมาเพื่อพูดถึงหุ่นยนต์นักฆ่าของจริง
00:25
autonomous combat drones.
6
25906
3122
หุ่นยนต์ทหารที่ตัดสินใจได้ด้วยตนเอง
00:29
Now, I'm not referring to Predator and Reaper drones,
7
29028
3627
ผมไม่ได้พูดถึงหุ่นแบบ พรีเดเตอร์ (Predator) หรือ รีพเพอร์ (Reaper) นะครับ
00:32
which have a human making targeting decisions.
8
32655
3260
หุ่นเหล่านั้นเป็นซึ่งมีมนุษย์คอยตัดสินเป้าหมาย
00:35
I'm talking about fully autonomous robotic weapons
9
35915
3129
ผมกำลังพูดถึงหุ่นยนต์ติดอาวุธ ที่ตัดสินใจด้วยตนเองจริงๆ
00:39
that make lethal decisions about human beings
10
39044
2654
หุ่นที่สามารถตัดสินใจปลิดชีวิตคนได้
00:41
all on their own.
11
41698
2417
ด้วยตัวมันเอง
00:44
There's actually a technical term for this: lethal autonomy.
12
44115
4000
ศัพท์เฉพาะของสิ่งนี้คือ "ภาวะอิสระในการฆ่า" (lethal autonomy)
00:48
Now, lethally autonomous killer robots
13
48115
2856
หุ่นยนต์ที่ตัดสินใจฆ่าได้อย่างอิสระนั้น
00:50
would take many forms -- flying, driving,
14
50971
3069
มีได้หลายรูปแบบ ทั้งบินได้ ขับได้
00:54
or just lying in wait.
15
54040
2746
หรือตั้งอยู่นิ่งๆ อย่างนั้น
00:56
And actually, they're very quickly becoming a reality.
16
56786
3109
และมันกำลังใกล้ความเป็นจริงขึ้นทุกที
00:59
These are two automatic sniper stations
17
59895
2484
นี่คือฐานซุ่มยิงอัตโนมัติสองแห่ง
01:02
currently deployed in the DMZ between North and South Korea.
18
62379
4137
ซึ่งติดตั้งอยู่ในบริเวณเขตปลอดทหาร ระหว่างเกาหลีเหนือและเกาหลีใต้
01:06
Both of these machines are capable of automatically
19
66516
2171
เจ้าเครื่องทั้งสองนี้สามารถระบุ
01:08
identifying a human target and firing on it,
20
68687
3524
เป้าหมายที่เป็นมนุษย์ แล้วยิงได้ด้วยตัวมันเอง
01:12
the one on the left at a distance of over a kilometer.
21
72211
4324
ตัวซ้ายมือสามารถยิงได้เป็นระยะทางกว่า 1 กิโลเมตร
01:16
Now, in both cases, there's still a human in the loop
22
76535
3589
ทั้งสองกรณีนั้น ยังคงมีการควบคุมโดยมนุษย์อยู่
01:20
to make that lethal firing decision,
23
80124
2372
ก่อนที่จะมีการตัดสินใจยิง
01:22
but it's not a technological requirement. It's a choice.
24
82496
5413
แต่มันไม่ใช่ความจำเป็นทางเทคโนโลยี เราเลือกที่จะมีมันต่างหาก
01:27
And it's that choice that I want to focus on,
25
87909
3093
และนั่นคือตัวเลือกที่ผมอยากจะมุ่งประเด็นไป
01:31
because as we migrate lethal decision-making
26
91002
2641
เพราะเมื่อใดที่เราย้ายการตัดสินใจปลิดชีวิต
01:33
from humans to software,
27
93643
3109
จากมนุษย์สู่ซอฟท์แวร์แล้ว
01:36
we risk not only taking the humanity out of war,
28
96752
3476
เราไม่เพียงนำมวลมนุษยชาติออกจากสงคราม
01:40
but also changing our social landscape entirely,
29
100228
3526
แต่เราจะเปลี่ยนภูมิสังคมไปโดยสิ้นเชิง
01:43
far from the battlefield.
30
103754
2224
นอกจากในสนามรบ
01:45
That's because the way humans resolve conflict
31
105978
4509
นั่นเป็นเพราะด้วยลักษณะที่มนุษย์ใช้แก้ปัญหา
01:50
shapes our social landscape.
32
110487
1733
หล่อหลอมให้เกิดภูมิทัศน์ทางสังคมของเรา
01:52
And this has always been the case, throughout history.
33
112220
2633
และนี่เป็นสิ่งที่เกิดขึ้นมาตลอดในประวัติศาสตร์ของเรา
01:54
For example, these were state-of-the-art weapons systems
34
114853
2661
ยกตัวอย่างเช่น อาวุธใหม่ล่าสุดเหล่านี้
01:57
in 1400 A.D.
35
117514
2079
ในสมัยปีค.ศ. 1400
01:59
Now they were both very expensive to build and maintain,
36
119593
3144
พวกมันแพงมากที่จะสร้างและบำรุงรักษา
02:02
but with these you could dominate the populace,
37
122737
3240
แต่ด้วยอาวุธนี้ คุณสามารถปกครองประชากรได้
02:05
and the distribution of political power in feudal society reflected that.
38
125977
3889
และการกระจายอำนาจทางการเมือง ในระบบศักดินาก็เป็นเช่นนั้น
02:09
Power was focused at the very top.
39
129866
2687
อำนาจรวมอยู่ที่ผู้สูงสุด
02:12
And what changed? Technological innovation.
40
132553
3528
และอะไรที่เปลี่ยนไปล่ะ? นวัตกรรมทางเทคโนโลยี
02:16
Gunpowder, cannon.
41
136081
1871
ดินปืน ปืนใหญ่
02:17
And pretty soon, armor and castles were obsolete,
42
137952
3817
และไม่นานนัก ชุดเกราะและปราสาทก็หมดความสำคัญลง
02:21
and it mattered less who you brought to the battlefield
43
141769
2533
ประเด็นที่ว่าคุณเอา "ใคร" ลงในสนามรบ
02:24
versus how many people you brought to the battlefield.
44
144302
3779
จึงไม่สำคัญเท่า "จำนวนเท่าไหร่" อีกต่อไป
02:28
And as armies grew in size, the nation-state arose
45
148081
3638
ขณะที่ขนาดของกองทัพใหญ่ขึ้น รัฐประเทศก็เติบโตขึ้น
02:31
as a political and logistical requirement of defense.
46
151719
3680
ในขณะที่ภาวะด้านการเมืองและขนส่ง เพื่อการป้องกันตนเอง
02:35
And as leaders had to rely on more of their populace,
47
155399
2376
ทำให้ผู้นำต้องพึ่งพาประชากรมากยิ่งขึ้น
02:37
they began to share power.
48
157775
1833
พวกเขาก็เริ่มมีส่วนในอำนาจเหล่านั้น
02:39
Representative government began to form.
49
159608
2599
รัฐบาลที่มีผู้สมัครเป็นตัวแทนทางการเมืองก็เกิดขึ้น
02:42
So again, the tools we use to resolve conflict
50
162207
3288
และอีกครั้ง ที่เครื่องมือที่เราใช้แก้ไขความขัดแย้ง
02:45
shape our social landscape.
51
165495
3304
ทำให้ภูมิทัศน์ทางสังคมของเราเปลี่ยนไป
02:48
Autonomous robotic weapons are such a tool,
52
168799
4064
หุ่นยนต์ติดอาวุธที่ตัดสินใจอย่างอิสระ คือเครื่องมือนั้น
02:52
except that, by requiring very few people to go to war,
53
172863
5168
ยกเว้นว่า เนื่องจากมันใช้คนน้อยลงในการทำสงคราม
02:58
they risk re-centralizing power into very few hands,
54
178031
4840
มันทำให้เราเสี่ยงต่อการรวมอำนาจ ไปที่คนเพียงไม่กี่คน
03:02
possibly reversing a five-century trend toward democracy.
55
182871
6515
ซึ่งอาจทำให้เราถดถอยจากประชาธิปไตยที่ เราสร้างกันมากว่า 500 ปี
03:09
Now, I think, knowing this,
56
189386
1757
เมื่อรู้อย่างนี้แล้ว
03:11
we can take decisive steps to preserve our democratic institutions,
57
191143
4352
เราสามารถปกป้องรักษาสถาบัน ทางประชาธิปไตยของเราไว้ได้
03:15
to do what humans do best, which is adapt.
58
195495
3979
โดยทำสิ่งที่มนุษย์ทำได้ดีที่สุด นั่นคือการปรับตัว
03:19
But time is a factor.
59
199474
2005
แต่เวลานั้นเป็นปัจจัยหนึ่ง
03:21
Seventy nations are developing remotely-piloted
60
201479
2851
มี 70 ประเทศที่กำลังพัฒนา
03:24
combat drones of their own,
61
204330
2157
หุ่นยนต์ต่อสู้บังคับระยะไกลของพวกเขาเอง
03:26
and as you'll see, remotely-piloted combat drones
62
206487
2593
และดังที่คุณจะเห็น หุ่นยนต์ควบคุมระยะไกลเหล่านี้
03:29
are the precursors to autonomous robotic weapons.
63
209080
4472
จะเป็นต้นฉบับของหุ่นยนต์ที่ตัดสินใจได้ด้วยตนเอง
03:33
That's because once you've deployed remotely-piloted drones,
64
213552
2767
นั่นก็เพราะ เมื่อคุณเริ่มพัฒนาหุ่นควบคุมระยะไกล
03:36
there are three powerful factors pushing decision-making
65
216319
3384
มันมีปัจจัยสามประการ ที่ผลักดันให้การตัดสินใจเองนั้น
03:39
away from humans and on to the weapon platform itself.
66
219703
4600
ออกห่างจากการควบคุมของมนุษย์ และอยู่บนตัวอาวุธเอง
03:44
The first of these is the deluge of video that drones produce.
67
224303
5259
เหตุผลข้อแรกคือ ภาพจำนวนมหาศาลที่หุ่นเหล่านี้สร้างขึ้น
03:49
For example, in 2004, the U.S. drone fleet produced
68
229562
3853
ยกตัวอย่างเช่น ในปี 2004 กองทัพหุ่นยนต์ของ อเมริกาได้สร้างผลงาน
03:53
a grand total of 71 hours of video surveillance for analysis.
69
233415
5312
ด้วยการออกลาดตระเวณเป็นเวลา 71 ชั่วโมง และทำการบันทึกภาพเพื่อใช้ในการวิเคราะห์
03:58
By 2011, this had gone up to 300,000 hours,
70
238727
4499
ในปี 2011 จำนวนชั่วโมงการทำงานได้เพิ่มขึ้น เป็นสามแสนชั่วโมง
04:03
outstripping human ability to review it all,
71
243226
3149
ซึ่งมันเกินกว่าประสิทธิภาพของมนุษย์ ที่จะตรวจดูได้หมด
04:06
but even that number is about to go up drastically.
72
246375
3664
และตัวเลขนี้มีแต่จะเพิ่มขึ้นอย่างรวดเร็ว
04:10
The Pentagon's Gorgon Stare and Argus programs
73
250039
2575
โปรแกรมกอร์กอน สแตร์ แอนด์ อาร์กัส (Gorgon Stare and Argus programs) ของกระทรวงกลาโหมสหรัฐ
04:12
will put up to 65 independently operated camera eyes
74
252614
3164
จะติดตั้งกล้องที่สามารถเคลื่อนไหวได้อย่างอิสระ 65 ตัว
04:15
on each drone platform,
75
255778
2038
บนหุ่นยนต์แต่ละตัว
04:17
and this would vastly outstrip human ability to review it.
76
257816
3303
และนี่ก็จะยิ่งย้ำถึงความห่างไกล ของศักยภาพของมนุษย์ที่จะตรวจสอบมันเข้าไปอีก
04:21
And that means visual intelligence software will need
77
261119
2160
นั่นหมายความว่า ตัวโปรแกรมซอฟท์แวร์ ด้านการลาดตระเวน
04:23
to scan it for items of interest.
78
263279
4048
จะต้องสามารถตรวจหาสิ่งสนใจได้เอง
04:27
And that means very soon
79
267327
1348
และนั่นหมายความว่า อีกไม่นาน
04:28
drones will tell humans what to look at,
80
268675
2747
หุ่นยนต์จะเป็นตัวที่คอยบอกมนุษย์ ว่าเราควรสนใจมองอะไร
04:31
not the other way around.
81
271422
2497
แทนที่จะเป็นไปในทิศทางตรงกันข้าม
04:33
But there's a second powerful incentive pushing
82
273919
2473
แต่นอกจากนี้ก็ยังมีเหตุผลประการที่สอง ที่กระตุ้นการเปลี่ยนแปลง
04:36
decision-making away from humans and onto machines,
83
276392
3383
เรื่องการตัดสินใจ จากมือมนุษย์ สู่เครื่องจักร
04:39
and that's electromagnetic jamming,
84
279775
2872
และนั่นก็คือกิจกรรมแม่เหล็กไฟฟ้า
04:42
severing the connection between the drone
85
282647
2236
ที่เป็นตัวเชื่อมต่อหุ่นยนต์เหล่านั้น
04:44
and its operator.
86
284883
2814
กับตัวควบคุม
04:47
Now we saw an example of this in 2011
87
287697
2618
เมื่อเราได้เห็นตัวอย่างของสิ่งเหล่านี้แล้วในปี 2011
04:50
when an American RQ-170 Sentinel drone
88
290315
2956
ในตอนที่หุ่น RQ- 170 ของอเมริกา
04:53
got a bit confused over Iran due to a GPS spoofing attack,
89
293271
4307
เกิดสับสนระหว่างที่ปฏิบัติหน้าที่ในอิหร่าน เพราะสัญญาน GPS ที่ล้นเกิน
04:57
but any remotely-piloted drone is susceptible to this type of attack,
90
297578
5114
แต่กรณีเช่นนี้ก็เกิดขึ้นได้กับหุ่นควบคุมระยะไกลทุกชนิด
05:02
and that means drones
91
302692
2052
และนั่นหมายความว่าหุ่นยนต์
05:04
will have to shoulder more decision-making.
92
304744
3620
จะต้องแบบรับภาระการตัดสินใจมากยิ่งกว่าเดิม
05:08
They'll know their mission objective,
93
308364
3043
พวกมันจะต้องรับทราบถึงเป้าหมายของปฏิบัติการ
05:11
and they'll react to new circumstances without human guidance.
94
311407
4845
และจะต้องตอบสนองกับสถานการณ์แวดล้อม โดยไม่ได้รับคำแนะนำจากมนุษย์
05:16
They'll ignore external radio signals
95
316252
2581
พวกมันจะไม่สนใจสัญญานวิทยุจากภายนอก
05:18
and send very few of their own.
96
318833
2330
และส่งสัญญานของตัวเองกลับมาเองน้อยมากด้วย
05:21
Which brings us to, really, the third
97
321163
2006
ซึ่งนั่นก็จะนำเราไปสู่ปัจจัยที่สาม
05:23
and most powerful incentive pushing decision-making
98
323169
3862
ซึ่งเป็นปัจจัยที่มีอิทธิพลมากที่สุด ต่อการเปลี่ยนแปลงความรับผิดชอบเรื่องการตัดสินใจ
05:27
away from humans and onto weapons:
99
327031
3342
ที่ย้ายจากมนุษย์สู่อาวุธทั้งหลาย
05:30
plausible deniability.
100
330373
3293
นั่นคือความสามารถในการเลือกไม่กระทำ
05:33
Now we live in a global economy.
101
333666
2887
ปัจจุบันเราอาศัยอยู่ในโลกยุคที่มีเศรษฐกิจเชื่อมโยงถึงกัน
05:36
High-tech manufacturing is occurring on most continents.
102
336553
4334
การผลิตข้าวของไฮเทค เกิดขึ้นในแทบทุกทวีป
05:40
Cyber espionage is spiriting away advanced designs
103
340887
2914
โลกไซเบอร์กำลังนำเราไปสู่การออกแบบที่ล้ำหน้า
05:43
to parts unknown,
104
343801
1886
นำไปสู่สิ่งที่เราอาจยังไม่รู้จัก
05:45
and in that environment, it is very likely
105
345687
2014
และในสภาพการณ์แบบนั้น มันมีความเป็นไปได้มาก
05:47
that a successful drone design will be knocked off in contract factories,
106
347701
4734
ที่หุ่นยนต์ที่ออกแบบได้อย่างดี จะกลายเป็นต้นแบบ ของหุ่นยนต์ที่จะถูกผลิตในเชิงอุตสาหกรรม
05:52
proliferate in the gray market.
107
352435
2170
ทำให้มันสามารถเพิ่มจำนวนได้อย่างรวดเร็วในตลาดมืด
05:54
And in that situation, sifting through the wreckage
108
354605
2460
และในสถานการณ์เช่นนี้ นำไปสู่การทำลายล้าง
05:57
of a suicide drone attack, it will be very difficult to say
109
357065
2960
โดยใช้หุ่นยนต์โจมตีแบบพลีชีพ ซึ่งเป็นการยากที่จะหาที่มา
06:00
who sent that weapon.
110
360025
4400
ว่าใครเป็นคนส่งหุ่นเหล่านี้มา
06:04
This raises the very real possibility
111
364425
2800
นี่ทำให้เกิดความเป็นไปได้ที่จะทำให้เกิด
06:07
of anonymous war.
112
367225
2935
สงครามที่ไร้ผู้ก่อ
06:10
This could tilt the geopolitical balance on its head,
113
370160
2614
นี่อาจทำให้เกิดการเปลี่ยนแปลง ในสภาวะสมดุลทางการเมืองในระดับโลก
06:12
make it very difficult for a nation to turn its firepower
114
372774
3491
ทำให้เป็นการยากมากสำหรับประเทศหนึ่ง ที่จะหันปลายปืน
06:16
against an attacker, and that could shift the balance
115
376265
2848
ไปยังผู้ที่ทำการบุกรุก และนั่นอาจทำให้สมดุลนั้นเสียไป
06:19
in the 21st century away from defense and toward offense.
116
379113
3764
ในศตวรรษที่ 21 เราก้าวเดินห่างออกมาจากการป้องกัน และก้าวไปสู่การเตรียมการรุกราน
06:22
It could make military action a viable option
117
382877
3124
นั่นทำให้การใช้กำลังทางการทหาร กลายเป็นทางเลือกหนึ่งที่อยู่ยงคงกระพัน
06:26
not just for small nations,
118
386001
2288
ไม่ใช่เฉพาะกับประเทศเล็กๆเท่านั้น
06:28
but criminal organizations, private enterprise,
119
388289
2545
แต่สำหรับองค์กรก่อการร้าย หรือ บริษัทเอกชนต่างๆ
06:30
even powerful individuals.
120
390834
2479
หรือแม้แต่บุคคลที่มีอำนาจ
06:33
It could create a landscape of rival warlords
121
393313
3328
มันอาจทำให้เกิดสภาพที่เหมาะ กับการเกิดการแข่งขัน ระหว่างผู้มีอำนาจต่างๆ
06:36
undermining rule of law and civil society.
122
396641
3680
โดยบ่อนทำลายนาจของกฏหมายและขนบต่างๆของสังคม
06:40
Now if responsibility and transparency
123
400321
3616
แล้วถ้าความรับผิดชอบ และความโปร่งใส
06:43
are two of the cornerstones of representative government,
124
403937
2384
เป็นสิ่งสำคัญพื้นฐานของรัฐบาลที่เป็นตัวแทนของเรา
06:46
autonomous robotic weapons could undermine both.
125
406321
4320
อาวุธหุ่นยนต์อัตโนมัติ ก็สามารถทำลายความเชื่อทั้งสองประการนี้ได้
06:50
Now you might be thinking that
126
410641
1546
คุณอาจจะคิดว่า
06:52
citizens of high-tech nations
127
412187
2246
ประชาชนของประเทศที่มีเทคโนโลยีสูง
06:54
would have the advantage in any robotic war,
128
414433
2703
จะมีความได้เปรียบในสงครามหุ่นยนต์
06:57
that citizens of those nations would be less vulnerable,
129
417136
3633
แต่ความจริงแล้ว ประชากรของประเทศเหล่านั้นกลับตกอยู่ในความเสี่ยง
07:00
particularly against developing nations.
130
420769
4288
โดยเฉพาะเมื่อพวกเขาต้องเผชิญหน้ากับชาติกำลังพัฒนา
07:05
But I think the truth is the exact opposite.
131
425057
3524
แต่ผมคิดว่าความจริงนั้นกลับตรงกันข้าม
07:08
I think citizens of high-tech societies
132
428581
2251
ผมคิดว่าประชาชนในสังคมที่มีเทคโนโลยีสูง
07:10
are more vulnerable to robotic weapons,
133
430832
3729
จะตกเป็นเหยื่อของอาวุธหุ่นยนต์ได้ง่ายกว่า
07:14
and the reason can be summed up in one word: data.
134
434561
4465
และสาเหตุก็สรุปได้ในคำๆเดียว คือ ข้อมูล
07:19
Data powers high-tech societies.
135
439026
3481
ข้อมูลเป็นส่วนสำคัญของสังคมที่ใช้เทคโนโลยี
07:22
Cell phone geolocation, telecom metadata,
136
442507
3190
การระบุตำแหน่งบนพื้นโลกด้วยโทรศัพท์มือถือ หรือข้อมูลทางโทรคมนาคมทั้งหลาย
07:25
social media, email, text, financial transaction data,
137
445697
3472
สื่อทางสังคมต่างๆ อีเมล ข้อความ ข้อมูลธุรกรรมการเงิน
07:29
transportation data, it's a wealth of real-time data
138
449169
3532
ข้อมูลเรื่องการขนส่งมวลชน มันเป็นขุมคลังของข้อมูลที่มีการบันทึกตามจริงอยู่ตลอดเวลา
07:32
on the movements and social interactions of people.
139
452701
3373
ภายใต้ความเคลื่อนไหว และการติดต่อสื่อสารระหว่างผู้คนในสังคม
07:36
In short, we are more visible to machines
140
456074
3775
สรุปง่ายๆ คือ เรากำลังถูกจับตามองโดยเครื่องจักรเหล่านี้
07:39
than any people in history,
141
459849
2242
มากกว่าคนทุกรุ่นในประวัติศาสตร์
07:42
and this perfectly suits the targeting needs of autonomous weapons.
142
462091
5616
และสถานการณ์นี้ก็เหมาะสมอย่างยิ่ง ต่อการตกเป็นเหยื่อของอาวุธอัตโนมัติ
07:47
What you're looking at here
143
467707
1738
สิ่งที่เรากำลังเห็นอยู่ในขณะนี้
07:49
is a link analysis map of a social group.
144
469445
3246
คือ แผนที่แสดงความเชื่อมโยงระหว่างกลุ่มชนต่างๆ
07:52
Lines indicate social connectedness between individuals.
145
472691
3634
เส้นเหล่านี้แสดงความเชื่อมโยงทางสังคมระหว่างบุคคล
07:56
And these types of maps can be automatically generated
146
476325
2880
และแผนผังเหล่านี้สามารถประมวลผลออกมาได้อัตโนมัติ
07:59
based on the data trail modern people leave behind.
147
479205
4715
จากข้อมูลที่คนรุ่นใหม่ทั้งหลายใช้อยู่
08:03
Now it's typically used to market goods and services
148
483920
2477
ตอนนี้มันเป็นเรื่องปรกติที่ข้อมูลเหล่านี้ จะถูกนำไปใช้เพื่อการขายสินค้าและบริการต่างๆ
08:06
to targeted demographics, but it's a dual-use technology,
149
486397
4416
หรือใช้เพื่อการหาจำนวนประขากร ซึ่งมันก็เป็นการใช้เทคโนโลยีทั้งสองทาง
08:10
because targeting is used in another context.
150
490813
3360
เพราะการพุ่งเป้าไปที่กลุ่มเป้าหมายนั้น ในอีกนัยหนึ่ง
08:14
Notice that certain individuals are highlighted.
151
494173
2560
ก็คือการที่คนบางกลุ่ม หรือ บุคคลใดบุคคลหนึ่งนั้นถูกทำให้เด่นชัดขึ้นมา
08:16
These are the hubs of social networks.
152
496733
3280
นี่คือจุดศูนย์รวมข้อมูลของโซเชียลเน็ทเวิรก์ทั้งหลาย
08:20
These are organizers, opinion-makers, leaders,
153
500013
3590
คนที่เป็นจุดศูนย์รวมเหล่านี้ได้แก่ ผู้จัดการ คนที่แสดงความเห็นทางสังคม ผู้นำทั้งหลาย
08:23
and these people also can be automatically identified
154
503603
2682
และคนเหล่านี้ก็ยังจะถูกแยกแยะ ลักษณะการเกี่ยวข้องทางสังคมโดยอัตโนมัติ
08:26
from their communication patterns.
155
506285
2382
จากพฤติกรรมการสื่อสารของเขา
08:28
Now, if you're a marketer, you might then target them
156
508667
2146
ทีนี้ ถ้าคุณเป็นนักการตลาด คุณอาจจะพุ่งเป้าไปที่คนเหล่านี้
08:30
with product samples, try to spread your brand
157
510813
2543
ด้วยการเสนอตัวอย่างสินค้าของคุณ หรือพยายามที่จะขายแบรนด์ของคุณ
08:33
through their social group.
158
513356
2829
ผ่านกลุ่มเครือข่ายทางสังคมของพวกเขา
08:36
But if you're a repressive government
159
516185
1953
แต่ถ้าคุณเป็นตัวแทนของรัฐบาล
08:38
searching for political enemies, you might instead remove them,
160
518138
4810
และกำลังมองหาศัตรูทางการเมือง คุณก็ลบพวกเขา
08:42
eliminate them, disrupt their social group,
161
522948
2760
กำจัดคนเหล่านั้น สร้างความวุ่นวายให้กับกลุ่มทางสังคมนั้น
08:45
and those who remain behind lose social cohesion
162
525708
3169
และคนที่อยู่เบื้องหลังความเกี่ยวข้องทางสังคมเหล่านั้น
08:48
and organization.
163
528877
2621
และองค์กรเหล่านั้น
08:51
Now in a world of cheap, proliferating robotic weapons,
164
531498
3324
ในโลกของการเติบโตอย่างรวดเร็วของอาวุธหุ่นยนต์ ที่มีราคาย่อมเยา
08:54
borders would offer very little protection
165
534822
2635
เขตชายแดนระหว่างประเทศจะให้ความคุ้มครองพวกเราได้เพียงนิดเดียวเท่านั้น
08:57
to critics of distant governments
166
537457
1946
ในสายตาของรัฐบาลประเทศใดประเทศหนึ่งจากแดนไกล
08:59
or trans-national criminal organizations.
167
539403
3646
หรือองค์กรก่อการร้ายข้ามชาติ
09:03
Popular movements agitating for change
168
543049
3493
การเคลื่อนไหวที่เรียกร้องให้เกิดความเปลี่ยนแปลงนั้นกำลังได้รับความนิยม
09:06
could be detected early and their leaders eliminated
169
546542
3609
และมันอาจกลายเป็นสิ่งที่ทำให้ทราบข้อมูลเกี่ยวกับผู้นำและทำให้จัดการกับผู้นำได้อย่างรวดเร็ว
09:10
before their ideas achieve critical mass.
170
550151
2911
ก่อนที่ความคิดนี้จะสำเร็จผลในวงกว้าง
09:13
And ideas achieving critical mass
171
553062
2591
แล้วความคิดที่จะทำให้เกิดผลในวงกว้าง
09:15
is what political activism in popular government is all about.
172
555653
3936
ก็คือสิ่งที่นักเคลื่อนไหวทางการเมือง ของรัฐบาลทั้งหลายที่กำลังพยายามทำอยู่
09:19
Anonymous lethal weapons could make lethal action
173
559589
3997
การมีอาวุธทำลายล้างที่มีอานุภาพสูงอาจทำให้เกิดผลถึงแก่ชีวิตได้
09:23
an easy choice for all sorts of competing interests.
174
563586
3782
ซึ่งเป็นทางออกที่ง่ายดายเหลือเกิน สำหรับความขัดแย้งทางผลประโยชน์ต่างๆ
09:27
And this would put a chill on free speech
175
567368
3734
นี่จะทำให้การกล่าวสุนทรพจน์ เพื่อแสดงความคิดเห็นดูน่ากลัวขึ้นอีกมาก
09:31
and popular political action, the very heart of democracy.
176
571102
5308
และทำให้การแสดงออกทางการเมือง ซึ่งเป็นหัวใจของระบอบประชาธิปไตย กลายเป็นเรื่องน่าผวา
09:36
And this is why we need an international treaty
177
576410
2914
และนี่คือสาเหตุที่เราจำเป็นต้องมีสนธิสัญญาระหว่างประเทศ
09:39
on robotic weapons, and in particular a global ban
178
579324
3540
เกี่ยวกับการพัฒนาหุ่นยนต์เป็นอาวุธ ซึ่งควรเป็นสนธิสัญญานานาชาติเพื่อห้าม
09:42
on the development and deployment of killer robots.
179
582864
3908
การพัฒนา หรือการทดลองใช้หุ่นยนต์นักฆ่า
09:46
Now we already have international treaties
180
586772
3254
ในตอนนี้เราได้มีสนธิสัญญาเพื่อห้ามใช้
09:50
on nuclear and biological weapons, and, while imperfect,
181
590026
3386
อาวุธนิวเคลียร์ และอาวุธชีวภาพแล้ว และถึงแม้ว่ามันจะไม่สมบูรณ์แบบ
09:53
these have largely worked.
182
593412
2288
แต่มันก็ใช้ได้ผลดีในระดับหนึ่ง
09:55
But robotic weapons might be every bit as dangerous,
183
595700
3768
แต่อาวุธหุ่นยนต์นั้นก็น่าจะเป็นอันตราย พอๆกับอาวุธร้ายแรงทั้งสองอย่างนั้น
09:59
because they will almost certainly be used,
184
599468
3288
เพราะว่ามันค่อนข้างจะแน่นอนว่ามันจะถูกนำไปใช้
10:02
and they would also be corrosive to our democratic institutions.
185
602756
5027
และมันก็จะบ่อนทำลาย ระบอบการปกครองแบบประชาธิปไตยของเรา
10:07
Now in November 2012 the U.S. Department of Defense
186
607783
3468
ในเดือนพฤศจิกายน ปี 2012 กระทรวงกลาโหมสหรัฐ
10:11
issued a directive requiring
187
611251
2458
ได้ออกกฏซึ่งบังคับ
10:13
a human being be present in all lethal decisions.
188
613709
4519
ให้มีมนุษย์อยู่เป็นพยานในการตัดสินใจโจมตีทุกครั้ง
10:18
This temporarily effectively banned autonomous weapons in the U.S. military,
189
618228
4776
ซึ่งนี่เป็นกฏที่แสดงถึงการห้ามการใช้หุ่นยนต์ ในการปฏิบัติการโดยอัตโนมัติในกองทัพสหรัฐ
10:23
but that directive needs to be made permanent.
190
623004
3753
แต่คำสั่งนี้ควรได้รับการปรับปรุงให้มีการบังคับใช้อย่างถาวร
10:26
And it could set the stage for global action.
191
626757
4376
และมันควรจะเป็นสิ่งที่เกิดขึ้นในเวทีโลก
10:31
Because we need an international legal framework
192
631133
3845
เพราะว่าเราต้องการกรอบทางกฏหมายในระดับนานาชาติ
10:34
for robotic weapons.
193
634978
2138
เพื่อบังคับเรื่องการใช้อาวุธหุ่นยนต์
10:37
And we need it now, before there's a devastating attack
194
637116
2928
และเราต้องการมันในขณะนี้ ก่อนที่จะเกิดการโจมตีร้ายแรง
10:40
or a terrorist incident that causes nations of the world
195
640044
3152
หรือเหตุการณ์ก่อการร้ายที่ทำให้ทุกชาติในโลก
10:43
to rush to adopt these weapons
196
643196
1924
รีบนำอาวุธเหล่านั้นมาใช้
10:45
before thinking through the consequences.
197
645120
3771
โดยไม่ทันได้คำนึงถึงผลที่จะตามมา
10:48
Autonomous robotic weapons concentrate too much power
198
648891
2981
อาวุธที่เป็นหุ่นยนต์อัตโนมัติ เป็นการรวมอำนาจไว้
10:51
in too few hands, and they would imperil democracy itself.
199
651872
6283
ในกำมือคนเพียงไม่กี่คน และพวกเขาก็จะกลายเป็นภัยคุกคามต่อระบอบประชาธิปไตย
10:58
Now, don't get me wrong, I think there are tons
200
658155
2686
ทีนี้ อย่าเข้าใจผิดนะครับ ผมคิดว่ายังมีคนอีกเป็นจำนวนมาก
11:00
of great uses for unarmed civilian drones:
201
660841
2618
ที่ใช้งานหุ่นยนต์ที่ไม่ได้ติดอาวุธ เพื่อวัตถุประสงค์ในการดำรงชีวิตทั่วไป
11:03
environmental monitoring, search and rescue, logistics.
202
663459
3939
ใช้ช่วยงานด้านสิ่งแวดล้อม ใช้ค้นหาและช่วยเหลืองานด้านการขนส่งสินค้า
11:07
If we have an international treaty on robotic weapons,
203
667398
2826
ถ้าเรามีการเซ็นต์สนธิสัญญา ว่าด้วยการห้ามพัฒนาหุ่นยนต์เป็นอาวุธ
11:10
how do we gain the benefits of autonomous drones
204
670224
3587
แล้วเราจะใช้ประโยชน์จากหุ่นยนต์อัตโนมัติ
11:13
and vehicles while still protecting ourselves
205
673811
2648
และยานพาหนะต่างๆ พร้อมกับที่เราป้องกันตัวเราเอง
11:16
against illegal robotic weapons?
206
676459
3980
จากการใช้หุ่นยนต์เป็นอาวุธอย่างผิดกฏหมายได้อย่างไร ?
11:20
I think the secret will be transparency.
207
680439
4741
ผมคิดว่ามันเป็นเรื่องจำเป็น ที่ความลับเหล่านี้ต้องมีความโปร่งใส
11:25
No robot should have an expectation of privacy
208
685180
3013
และไม่ควรมีหุ่นยนต์ตัวไหนควรจะได้รับความเป็นส่วนตัว
11:28
in a public place.
209
688193
3451
ในสถานที่ชุมนุมชน
11:31
(Applause)
210
691644
5048
(เสียงปรบมือ)
11:36
Each robot and drone should have
211
696692
2045
หุ่นยนต์และหุ่นบังคับระยะไกลควรจะมี
11:38
a cryptographically signed I.D. burned in at the factory
212
698737
2883
การสลักเลขประจำตัวบนตัวถังตั้งแต่ที่โรงงาน
11:41
that can be used to track its movement through public spaces.
213
701620
2923
ซึ่งจะทำให้เราสามารถติดตามความเคลือนไหวของพวกมัน ในสถานที่สาธารณะได้
11:44
We have license plates on cars, tail numbers on aircraft.
214
704543
3381
เรามีป้ายทะเบียนสำหรับรถยนต์ มีเลขที่เครื่องบิน
11:47
This is no different.
215
707924
1841
เพราะฉะนั้น นี่ก็ไม่ต่างกัน
11:49
And every citizen should be able to download an app
216
709765
2012
และประชาชนทุกคนก็ควรจะสามารถดาวน์โหลดแอพพลิเคชั่น
11:51
that shows the population of drones and autonomous vehicles
217
711777
3125
ที่จะใช้แสดงจำนวนประชากรของหุ่นควบคุม และหุ่นยนต์โดยสารอัตโนมัติเหล่านี้ว่า
11:54
moving through public spaces around them,
218
714902
2429
พวกหุ่นกำลังเคลื่อนที่ไปมาอย่างไรในพื้นที่รอบๆตัวพวกเขา
11:57
both right now and historically.
219
717331
2733
โดยเป็นข้อมูลทั้งในแบบที่เป็นจริง และในเชิงประวัติ
12:00
And civic leaders should deploy sensors and civic drones
220
720064
3548
และผู้นำชุมชนควรจะมีเซ็นเซอร์สำหรับหุ่นที่ใช้ในครัวเรือน
12:03
to detect rogue drones,
221
723612
2344
เพื่อตรวจสอบหุ่นเถื่อน
12:05
and instead of sending killer drones of their own up to shoot them down,
222
725956
3176
แทนที่เราจะส่งหุ่นชนิดเดียวกันออกไปทำลายหุ่น
12:09
they should notify humans to their presence.
223
729132
2992
พวกมันควรแจ่งให้มนุษย์ทราบเมื่อมันจะบุกรุก
12:12
And in certain very high-security areas,
224
732124
2606
และในบางกรณี ในพื้นที่ๆต้องการการรักษาความปลอดภัย
12:14
perhaps civic drones would snare them
225
734730
1909
เราอาจจะใช้หุ่นตามบ้านในการจัดการกับหุ่นเหล่านั้น
12:16
and drag them off to a bomb disposal facility.
226
736639
2841
เพื่อลากเอาหุ่นเหล่านั้นไปทำลาย
12:19
But notice, this is more an immune system
227
739480
3027
แต่สังเกตดูนะครับว่า นี่น่าจะดูมีลักษณะคล้ายกับการเป็นระบบภูมิคุ้มกัน
12:22
than a weapons system.
228
742507
1321
มากกว่าที่จะเป็นอาวุธ
12:23
It would allow us to avail ourselves of the use
229
743828
2592
มันจะทำให้เราสามารถมีข้ออ้างในการใช้
12:26
of autonomous vehicles and drones
230
746420
2032
หุ่นยนต์และพาหนะโดยสารที่ควบคุมโดยหุ่นยนต์
12:28
while still preserving our open, civil society.
231
748452
4295
โดยที่ยังรักษาสถานภาพของสังคมเปิด และมีวัฒนธรรมของเราไว้ได้
12:32
We must ban the deployment and development
232
752747
2999
เราควรต่อต้านการพัฒนาและการใช้
12:35
of killer robots.
233
755746
1862
หุ่นยนต์นักฆ่า
12:37
Let's not succumb to the temptation to automate war.
234
757608
4850
อย่ายอมลงให้กับความเป็นไปได้ในการเกิดสงครามหุ่นยนต์
12:42
Autocratic governments and criminal organizations
235
762458
2718
องค์กรก่อการร้ายและรัฐบาลเผด็จการทั้งหลาย
12:45
undoubtedly will, but let's not join them.
236
765176
2956
น่าจะใช้ประโยชน์จากสิ่งนี้แน่ แต่พวกเราจะไม่ปล่อยให้เป็นอย่างนั้น
12:48
Autonomous robotic weapons
237
768132
1891
อาวุธอัตโนมัติที่เป็นหุ่นยนต์นั้น
12:50
would concentrate too much power
238
770023
2051
จะไม่รวบอำนาจที่มากมายเกินไป
12:52
in too few unseen hands,
239
772074
2482
เข้าไปอยู่ในมือของคนไม่กี่คน
12:54
and that would be corrosive to representative government.
240
774556
3255
มันเป็นเรืองที่ออกจะกัดกร่อนสถานะของรัฐ
12:57
Let's make sure, for democracies at least,
241
777811
2961
แต่เราควรทำให้แน่ใจว่า อย่างน้อยก็เพื่อประชาธิปไตย
13:00
killer robots remain fiction.
242
780772
2604
หุ่นยนต์นักฆ่า ก็จะยังคงเป็นเพียงจินตนาการต่อไป
13:03
Thank you.
243
783376
1110
ขอบคุณครับ
13:04
(Applause)
244
784486
4565
(เสียงปรบมือ)
13:09
Thank you. (Applause)
245
789051
4616
ขอบคุณครับ (เสียงปรบมือ)
เกี่ยวกับเว็บไซต์นี้

ไซต์นี้จะแนะนำคุณเกี่ยวกับวิดีโอ YouTube ที่เป็นประโยชน์สำหรับการเรียนรู้ภาษาอังกฤษ คุณจะได้เห็นบทเรียนภาษาอังกฤษที่สอนโดยอาจารย์ชั้นนำจากทั่วโลก ดับเบิลคลิกที่คำบรรยายภาษาอังกฤษที่แสดงในแต่ละหน้าของวิดีโอเพื่อเล่นวิดีโอจากที่นั่น คำบรรยายเลื่อนซิงค์กับการเล่นวิดีโอ หากคุณมีความคิดเห็นหรือคำขอใด ๆ โปรดติดต่อเราโดยใช้แบบฟอร์มการติดต่อนี้

https://forms.gle/WvT1wiN1qDtmnspy7