The ethical dilemma of self-driving cars - Patrick Lin

2,001,332 views ・ 2015-12-08

TED-Ed


โปรดดับเบิลคลิกที่คำบรรยายภาษาอังกฤษด้านล่างเพื่อเล่นวิดีโอ

Translator: Kelwalin Dhanasarnsombut Reviewer: Rawee Ma
00:07
This is a thought experiment.
0
7246
2042
นี่เป็นการทดลองทางความคิด
00:09
Let's say at some point in the not so distant future,
1
9288
2625
เอาเป็นว่าในอนาคตอันใกล้
00:11
you're barreling down the highway in your self-driving car,
2
11913
3583
คุณกำลังเดินทางลงไปตามทางหลวง ในรถที่ขับเคลื่อนเอง
00:15
and you find yourself boxed in on all sides by other cars.
3
15496
4292
และคุณพบว่า คุณถูกกักอยู่ท่ามกลางรถคันอื่น
00:19
Suddenly, a large, heavy object falls off the truck in front of you.
4
19788
4416
ทันใดนั้นเอง วัตถุหนักขนาดใหญ่ ตกลงมาจากรถบรรทุกตรงหน้าคุณ
00:24
Your car can't stop in time to avoid the collision,
5
24204
3167
รถของคุณไม่สามารถหยุดได้ทันเวลา เพื่อที่จะป้องกันการปะทะ
00:27
so it needs to make a decision:
6
27371
2042
ฉะนั้น มันจึงต้องทำการตัดสินใจ
00:29
go straight and hit the object,
7
29413
2250
พุ่งตรงไปและชนวัตถุ
00:31
swerve left into an SUV,
8
31663
2291
เบี่ยงซ้ายเข้าหารถอเนกประสงค์
00:33
or swerve right into a motorcycle.
9
33954
3000
หรือหักขวาเข้าหารถจักรยานยนต์
00:36
Should it prioritize your safety by hitting the motorcycle,
10
36954
3500
มันควรให้ความสำคัญ กับความปลอดภัยของคุณก่อน
00:40
minimize danger to others by not swerving,
11
40454
2792
ลดอันตรายที่จะมีต่อคนอื่นโดยไม่เปลี่ยนทิศทาง
00:43
even if it means hitting the large object and sacrificing your life,
12
43246
4083
แม้ว่านั่นหมายถึงการชนวัตถุขนาดใหญ่ และการสละชีวิตตนเอง
00:47
or take the middle ground by hitting the SUV,
13
47329
2750
หรือใช้ทางสายกลาง โดยชนรถอเนกประสงค์
00:50
which has a high passenger safety rating?
14
50079
3000
ซึ่งมีอัตราความปลอดภัยสำหรับผู้โดยสารสูง
00:53
So what should the self-driving car do?
15
53079
3208
แล้วรถที่ขับเคลื่อนเองจะทำอย่างไร
00:56
If we were driving that boxed in car in manual mode,
16
56287
3209
ถ้าเรากำลังขับรถที่ตนเองโดนกักไว้แบบทั่วไป
00:59
whichever way we'd react would be understood as just that,
17
59496
3541
ไม่ว่าจะเป็นทางใดที่เราเลือก จะถูกเข้าใจให้อย่างที่มันเป็น
01:03
a reaction,
18
63037
1292
การโต้ตอบ
01:04
not a deliberate decision.
19
64329
2250
ไม่ใช่การตัดสินใจที่เกิดจากการคิดที่รอบคอบ
01:06
It would be an instinctual panicked move with no forethought or malice.
20
66579
4292
มันอาจเป็นการกระทำอย่างตระหนกตกใจ ตามสัญชาตญาณโดยไม่มีการวางแผนหรือมุ่งร้าย
01:10
But if a programmer were to instruct the car to make the same move,
21
70871
3625
แต่ถ้าคนเขียนโปรแกรมกำกับรถ ให้ทำการเช่นเดียวกัน
01:14
given conditions it may sense in the future,
22
74496
2833
ให้สถานการณ์ที่มันอาจเจอได้ในอนาคต
01:17
well, that looks more like premeditated homicide.
23
77329
4292
นั่นดูเหมือนเป็นการฆาตกรรมโดยเจตนา
01:21
Now, to be fair,
24
81621
1000
ตอนนี้ ความจริงก็คือ
01:22
self-driving cars are predicted to dramatically reduce traffic accidents
25
82621
4083
รถที่ขับเคลื่อนเองถูกคาดว่า จะลดอุบัติเหตุและการสูญเสียบนท้องถนน
01:26
and fatalities
26
86704
1250
ได้อย่างมาก
01:27
by removing human error from the driving equation.
27
87954
3167
โดยกำจัดความผิดพลาดของคน จากสมการการขับรถ
01:31
Plus, there may be all sorts of other benefits:
28
91121
2375
รวมถึง มันอาจมีประโยชน์อย่างอื่น เช่น
01:33
eased road congestion,
29
93496
1667
ทำให้ถนนไม่คับคั่งมากนัก
01:35
decreased harmful emissions,
30
95163
1541
ลดการปลดปล่อยก๊าซอันตราย
01:36
and minimized unproductive and stressful driving time.
31
96704
4625
และลดเวลาการขับรถที่ไม่มีประสิทธิภาพ และน่าหงุดหงิด
01:41
But accidents can and will still happen,
32
101329
2167
แต่อุบัติเหตุจะยังสามารถและจะยังเกิดขึ้น
01:43
and when they do,
33
103496
1167
และเมื่อมันเกิดขึ้น
01:44
their outcomes may be determined months or years in advance
34
104663
4500
ผลที่ออกมาอาจถูกกำหนดเอาไว้แล้ว หลายเดือนหรือหลายปีล่วงหน้า
01:49
by programmers or policy makers.
35
109163
2583
โดยผู้เขียนโปรแกรม หรือผู้วางนโยบาย
01:51
And they'll have some difficult decisions to make.
36
111746
2500
และพวกเขาก็ต้องลำบากใจในการตัดสินใจ
01:54
It's tempting to offer up general decision-making principles,
37
114246
2958
ใจหนึ่งก็อยากจะให้สิทธิ ในหลักการตัดสินใจพื้นฐาน
01:57
like minimize harm,
38
117204
1875
อย่างเช่น การลดอันตรายให้น้อยที่สุด
01:59
but even that quickly leads to morally murky decisions.
39
119079
3375
แต่กระนั้น มันก็อาจนำไปสู่การตัดสินใจ ในเชิงจริยธรรมที่คลุมเครือ
02:02
For example,
40
122454
1167
ยกตัวอย่างเช่น
02:03
let's say we have the same initial set up,
41
123621
2000
สมมติว่า เรามีการตั้งค่าแต่แรกเหมือนกัน
02:05
but now there's a motorcyclist wearing a helmet to your left
42
125621
2875
แต่ตอนนี้ มีผู้ขับขี่รถจักรยานยนต์ ที่สวมหมวกกันน็อค ขับมาทางซ้ายของคุณ
02:08
and another one without a helmet to your right.
43
128496
2792
และอีกคนหนึ่งที่ไม่สวมหมวกกันน็อค ขับมาทางขวาของคุณ
02:11
Which one should your robot car crash into?
44
131288
3083
คนไหนล่ะที่รถหุ่นยนต์ของคุณควรจะชน
02:14
If you say the biker with the helmet because she's more likely to survive,
45
134371
4083
ถ้าคุณบอกว่า คนที่สวมหมวกกันน็อค เพราะว่าเธอมีโอกาสที่จะรอดชีวิตมากกว่า
02:18
then aren't you penalizing the responsible motorist?
46
138454
2917
นั่นไม่เป็นการลงโทษกับผู้ขับขี่จักรยานยนต์ ที่มีความรับผิดชอบหรอกหรือ
02:21
If, instead, you save the biker without the helmet
47
141371
2750
แต่ถ้าคุณช่วยคนที่ไม่สวมหมวกกันน็อค
02:24
because he's acting irresponsibly,
48
144121
2000
เพราะว่าเขาไม่รับผิดชอบ
02:26
then you've gone way beyond the initial design principle about minimizing harm,
49
146121
4875
นั่นก็เป็นการทำเกินไปกว่าหลักการที่ออกแบบ ไว้แต่แรกให้ลดอันตรายให้น้อยที่สุด
02:30
and the robot car is now meting out street justice.
50
150996
3875
และตอนนี้ รถหุ่นยนต์ก็ต้องแบ่งรับแบ่งสู้ กับความยุติธรรมบนท้องถนน
02:34
The ethical considerations get more complicated here.
51
154871
3542
การตัดสินทางจริยธรรมในสถานการณ์นี้ ซับซ้อนยิ่งขึ้น
02:38
In both of our scenarios,
52
158413
1375
ในทั้งสองเหตุการณ์ของเรา
02:39
the underlying design is functioning as a targeting algorithm of sorts.
53
159788
4500
การออกแบบพื้นฐานทำหน้าที่ เป็นดั่งอัลกอริทึมเป้าหมายของโจทย์
02:44
In other words,
54
164288
1000
หรืออาจกล่าวได้ว่า
02:45
it's systematically favoring or discriminating
55
165288
2500
มันคือการเลือกหรือลำเอียงอย่างเป็นระบบ
02:47
against a certain type of object to crash into.
56
167788
3500
เทียบกับวัตถุบางประเภทที่จะถูกเข้าชน
02:51
And the owners of the target vehicles
57
171288
2333
และผู้เป็นเจ้าของของพาหนะเป้าหมาย
02:53
will suffer the negative consequences of this algorithm
58
173621
3042
จะต้องได้รับผลเชิงลบจากอัลกอริทึม
02:56
through no fault of their own.
59
176663
2083
แม้ว่าตัวพวกเขาเองจะไม่มีความผิดอะไร
02:58
Our new technologies are opening up many other novel ethical dilemmas.
60
178746
4667
เทคโนโลยีใหม่ของเรากำลังเปิดทาง ให้กับความยุ่งยากใหม่ทางจริยธรรม
03:03
For instance, if you had to choose between
61
183413
2083
ยกตัวอย่างเช่น ถ้าคุณจำเป็นต้องเลือก
03:05
a car that would always save as many lives as possible in an accident,
62
185496
4042
ระหว่างรถที่จะรักษาชีวิต เอาไว้ให้ได้จำนวนมากที่สุดเสมอ
03:09
or one that would save you at any cost,
63
189538
3041
กับรถที่จะช่วยคุณไม่ว่าจะอย่างไรก็ตาม
03:12
which would you buy?
64
192579
1667
คุณจะซื้อรถแบบไหน
03:14
What happens if the cars start analyzing and factoring in
65
194246
3333
จะเกิดอะไรขึ้น ถ้ารถเริ่มที่จะวิเคราะห์ และหาค่าปัจจัย
03:17
the passengers of the cars and the particulars of their lives?
66
197579
3459
ของผู้โดยสารของรถยนต์ และรายละเอียดต่าง ๆ เกี่ยวกับชีวิต
03:21
Could it be the case that a random decision
67
201038
2166
จะเป็นไปได้ไหมว่า การตัดสินอย่างสุ่ม
03:23
is still better than a predetermined one designed to minimize harm?
68
203204
4917
ยังคงดีกว่าการกำหนดไว้ล่วงหน้า ที่ถูกออกแบบให้ลดอันตรายให้น้อยที่สุด
03:28
And who should be making all of these decisions anyhow?
69
208121
2667
แล้วว่าแต่ใครกันล่ะ ที่ควรจะเป็นผู้ทำการตัดสินใจ
03:30
Programmers? Companies? Governments?
70
210829
2709
นักเขียนโปรแกรม
บริษัท
รัฐบาล
03:34
Reality may not play out exactly like our thought experiments,
71
214121
3458
ความเป็นจริงอาจไม่ได้เป็นไป ตามการทดลองทางความคิดของเรา
03:37
but that's not the point.
72
217579
1667
แต่นั่นไม่ใช่ประเด็น
03:39
They're designed to isolate and stress test our intuitions on ethics,
73
219246
4333
พวกเราถูกออกแบบให้แยกแยะ และทดสอบ สำนึกทางจริยธรรมของเรา
03:43
just like science experiments do for the physical world.
74
223579
3000
เหมือนกับที่การทดลองทางวิทยาศาสตร์ กระทำกับโลกทางกายภาพ
03:46
Spotting these moral hairpin turns now
75
226579
3375
การที่เราตระหนักถึงจุดเปลี่ยนเล็ก ๆ ทางจริยธรรมนี้
03:49
will help us maneuver the unfamiliar road of technology ethics,
76
229954
3584
จะช่วยให้เราวางกลยุทธกับถนนที่ไม่คุ้นเคย ด้วยจริยธรรมทางเทคโนโลยีได้
03:53
and allow us to cruise confidently and conscientiously
77
233538
3750
และทำให้เราแล่นไปได้อย่างมั่นใจและมีสติ
03:57
into our brave new future.
78
237288
2375
สู่อนาคตใหม่ที่เราเชื่อมั่น
เกี่ยวกับเว็บไซต์นี้

ไซต์นี้จะแนะนำคุณเกี่ยวกับวิดีโอ YouTube ที่เป็นประโยชน์สำหรับการเรียนรู้ภาษาอังกฤษ คุณจะได้เห็นบทเรียนภาษาอังกฤษที่สอนโดยอาจารย์ชั้นนำจากทั่วโลก ดับเบิลคลิกที่คำบรรยายภาษาอังกฤษที่แสดงในแต่ละหน้าของวิดีโอเพื่อเล่นวิดีโอจากที่นั่น คำบรรยายเลื่อนซิงค์กับการเล่นวิดีโอ หากคุณมีความคิดเห็นหรือคำขอใด ๆ โปรดติดต่อเราโดยใช้แบบฟอร์มการติดต่อนี้

https://forms.gle/WvT1wiN1qDtmnspy7