The ethical dilemma of self-driving cars - Patrick Lin

2,078,144 views ・ 2015-12-08

TED-Ed


ဗီဒီယိုကိုဖွင့်ရန် အောက်ပါ အင်္ဂလိပ်စာတန်းများကို နှစ်ချက်နှိပ်ပါ။

Translator: Sanntint Tint Reviewer: Kanhaiya Verma
00:07
This is a thought experiment.
0
7246
2042
ဒါက အတွေး စမ်းသပ်မှုတစ်ခုပါ။
00:09
Let's say at some point in the not so distant future,
1
9288
2625
သိပ်မဝေးတဲ့ အနာဂတ်ထဲက တစ်ချိန်ချိန်အကြောင်း ပြောရအောင်၊
00:11
you're barreling down the highway in your self-driving car,
2
11913
3583
သင်ဟာ မောင်းသူမဲ့ ကားထဲကနေ အဝေးပြေးလမ်းမကို လှိမ့်ဝင်လာနေတယ်။
00:15
and you find yourself boxed in on all sides by other cars.
3
15496
4292
လေးဘက်လေးတန်မှာ တခြားကားတွေက ဝန်းရံထားတယ်။
00:19
Suddenly, a large, heavy object falls off the truck in front of you.
4
19788
4416
သင့်ရှေ့က ကုန်ကားပေါ်က ပစ္စည်းကြီး တစ်ခု ရုတ်တရက် ကျသွားတယ်။
00:24
Your car can't stop in time to avoid the collision,
5
24204
3167
သင့်ကားက တိုက်မိတာကို ရှောင်ဖို့ အချိန်မီ ရပ်လို့မရတာကြောင့်
00:27
so it needs to make a decision:
6
27371
2042
ဆုံးဖြတ်ချက် တစ်ခုချဖို့ လိုအပ်တယ်။
00:29
go straight and hit the object,
7
29413
2250
တည့်တည့်သွားပြီး အရာဝတ္ထုကို တိုက်၊
00:31
swerve left into an SUV,
8
31663
2291
SUV တစ်စီးဆီ ဘယ်ဘက်ကို ချိုး၊
00:33
or swerve right into a motorcycle.
9
33954
3000
ဒါမှမဟုတ် မော်တော်ဆိုင်ကယ်ဆီ ညာဘက်ကို ချိုးပါ။
00:36
Should it prioritize your safety by hitting the motorcycle,
10
36954
3500
မော်တော်ဆိုင်ကယ်ကို တိုက်ရင်း သင့်ဘေးကင်းမှုကို ဦးစားပေးရင်၊
00:40
minimize danger to others by not swerving,
11
40454
2792
အရာဝတ္ထုကြီးကို တိုက်ပြီး သင့်အသက်ကို စတေးတာဆိုရင်တောင်၊
00:43
even if it means hitting the large object and sacrificing your life,
12
43246
4083
မချိုးဘဲ၊ အခြားသူများအတွက် အန္တရာယ်ကို လျော့နည်းစေမလား၊
00:47
or take the middle ground by hitting the SUV,
13
47329
2750
ဒါမှမဟုတ် ခရီးသည် လုံခြုံမှု အဆင့်သတ်မှတ်ချက် မြင့်တဲ့
00:50
which has a high passenger safety rating?
14
50079
3000
SUV ကို တိုက်ရင်း အလယ် အနေအထားကို ယူမလား။
00:53
So what should the self-driving car do?
15
53079
3208
ဒီတော့ မောင်းသူမဲ့ ကားက ဘာလုပ်သင့်သလဲ။
00:56
If we were driving that boxed in car in manual mode,
16
56287
3209
လက်ထိုးဂီယာ ပုံစံမှာ ပိတ်မိနေတဲ့ ကားကို မောင်းနေရင်၊
00:59
whichever way we'd react would be understood as just that,
17
59496
3541
ဘယ်ပုံစံ တုံ့ပြန်တာဖြစ်ဖြစ်၊နှိုင်းချိန် လုပ်တဲ့ ဆုံးဖြတ်ချက်တစ်ခုမဟုတ်ဘဲ၊
01:03
a reaction,
18
63037
1292
တုံ့ပြန်မှုသက်သက်တစ်ခု
01:04
not a deliberate decision.
19
64329
2250
ဆိုတာကို နားလည်ကြမှာပါ။
01:06
It would be an instinctual panicked move with no forethought or malice.
20
66579
4292
ဒါက အမြော်အမြင် ဒါမှမဟုတ် မလိုတမာမဟုတ်ဘဲ၊ အလိုလို ထိတ်လန့်တဲ့ ရွေ့လျားမှုဖြစ်မှာပါ။
01:10
But if a programmer were to instruct the car to make the same move,
21
70871
3625
ဒါပေမဲ့ ပရိုဂရမ်ရေးသူက ကားကို အလားတူ ရွေ့လျားဖို့ ကားကို ညွှန်ကြားရင်၊
01:14
given conditions it may sense in the future,
22
74496
2833
အနာဂတ်တွင် သဘောပေါက်နိုင်တဲ့ အခြေအနေတွေကြောင့်
01:17
well, that looks more like premeditated homicide.
23
77329
4292
ကြိုတင်ကြံရွယ်ထားတဲ့ လူသတ်မှုနဲ့ ပိုဆင်တူနေပုံရတယ်။
01:21
Now, to be fair,
24
81621
1000
ကဲ၊ မျှမျှတတဖြစ်ဖို့၊
01:22
self-driving cars are predicted to dramatically reduce traffic accidents
25
82621
4083
မောင်းသူမဲ့ ကားတွေဟာ မောင်းနှင်မှု ညီမျှခြင်းကနေ လူ့အမှားတွေကို ဖယ်ရှားရင်း
01:26
and fatalities
26
86704
1250
ယာဉ်မတော်တဆမှုတွေနဲ့
01:27
by removing human error from the driving equation.
27
87954
3167
ထိခိုက်ရှနမှုကို သိသိသာသာ လျော့နည်းစေတယ်လို့ ခန့်မှန်းကြတယ်။
01:31
Plus, there may be all sorts of other benefits:
28
91121
2375
ဒါ့အပြင် အခြား ရှိနိုင်လောက်တဲ့ အကျိုးကျေးဇူးတွေက
01:33
eased road congestion,
29
93496
1667
လမ်းပိတ်ဆို့မှု လျော့လာတာ၊
01:35
decreased harmful emissions,
30
95163
1541
အန္တရာယ်ရှိတဲ့ ထုတ်လွှတ်မှုတွေ လျော့တာနဲ့
01:36
and minimized unproductive and stressful driving time.
31
96704
4625
အကျိုးမရှိ၊ စိတ်ဖိစီးတဲ့ ကားမောင်းချိန်ကို လျော့နည်းစေတာပါ။
01:41
But accidents can and will still happen,
32
101329
2167
ဒါပေမဲ့ မတော်တဆမှုတွေက ဖြစ်နိုင်မှာဖြစ်ပြီး
01:43
and when they do,
33
103496
1167
ဒါတွေ ဖြစ်တဲ့အခါ၊
01:44
their outcomes may be determined months or years in advance
34
104663
4500
ဒါတွေရဲ့ အကျိုးဆက်တွေကို ပရိုဂရမ်ရေးသူတွေ ဒါမဟုတ် မူဝါဒချမှတ်သူတွေက လ၊နှစ်ချီကာ
01:49
by programmers or policy makers.
35
109163
2583
ကြိုတင် ဆုံးဖြတ်နိုင်လောက်တယ်။
01:51
And they'll have some difficult decisions to make.
36
111746
2500
ဆုံးဖြတ်ဖို့ ခက်ခဲတဲ့ ဆုံးဖြတ်ချက်တချို့ ရှိမှာပါ။
01:54
It's tempting to offer up general decision-making principles,
37
114246
2958
ထိခိုက်မှု နည်းစေတာမျိုး ယေဘုယျ ဆုံးဖြတ်ချက်ချတဲ့ မူတွေကို
01:57
like minimize harm,
38
117204
1875
ကမ်းလှမ်းချင်စိတ်ပေါက်ပေမဲ့၊
01:59
but even that quickly leads to morally murky decisions.
39
119079
3375
ကျင့်ဝတ်အရ မရှင်းလင်းတဲ့ ဆုံးဖြတ်ချက်တွေဆီတောင် အမြန် ဦးတည်သွားတယ်။
02:02
For example,
40
122454
1167
ဥပမာ၊
02:03
let's say we have the same initial set up,
41
123621
2000
တူညီတဲ့ ကနဦး အစီအစဉ် ရှိတယ်လို့ ဆိုရအောင်။
02:05
but now there's a motorcyclist wearing a helmet to your left
42
125621
2875
ဒါပေမဲ့ ဘယ်ဘက်မှာ ဦးထုပ်ဆောင်းတဲ့ ဆိုင်ကယ်သမားတစ်ယောက်ရှိပြီး၊
02:08
and another one without a helmet to your right.
43
128496
2792
ညာဘက်မှာ ဦးထုပ်မပါတဲ့ နောက်တစ်ယောက်ရှိတယ်။
02:11
Which one should your robot car crash into?
44
131288
3083
သင့် စက်ရုပ်ကားက ဘယ်တစ်ခုကို ဝင်တိုက်သင့်လဲ။
02:14
If you say the biker with the helmet because she's more likely to survive,
45
134371
4083
ရှင်ကျန်ဖို့ ဖြစ်နိုင်ခြေ ပိုများတဲ့အတွက် ဦးထုပ်နဲ့ ဆိုင်ကယ်သမားလို့ ပြောရင်၊
02:18
then aren't you penalizing the responsible motorist?
46
138454
2917
တာဝန်သိတတ်တဲ့ ဆိုင်ကယ်သမားကို ပြစ်ဒဏ်ချမှတ်မနေဘူးလား။
02:21
If, instead, you save the biker without the helmet
47
141371
2750
ဒီအစား တာဝန်မဲ့တာကြောင့် ဦးထုပ်မပါတဲ့
02:24
because he's acting irresponsibly,
48
144121
2000
ဆိုင်ကယ်သမားကို ကယ်တင်ရင်၊
02:26
then you've gone way beyond the initial design principle about minimizing harm,
49
146121
4875
အန္တရာယ်ကို လျှော့ချတာနဲ့ပတ်သက်တဲ့ ကနဦး ဒီဇိုင်းမူကို ကျော်လွန်သွားပြီး
02:30
and the robot car is now meting out street justice.
50
150996
3875
စက်ရုပ်ကားက အခု လမ်း တရားဥပဒေကို စီရင်နေပါပြီ။
02:34
The ethical considerations get more complicated here.
51
154871
3542
ကျင့်ဝတ်ဆိုင်ရာ သုံးသပ်ဆင်ခြင်မှုတွေက ဒီမှာ ပိုရှုပ်ထွေးလာတယ်။
02:38
In both of our scenarios,
52
158413
1375
ဖြစ်နိုင်ခြေ နှစ်ခုစလုံးမှာ၊
02:39
the underlying design is functioning as a targeting algorithm of sorts.
53
159788
4500
အခြေခံ ဒီဇိုင်းက ပစ်မှတ်ထားတဲ့ အယ်ဂိုရီသမ် တစ်ခုလိုမျိုး လုပ်ဆောင်နေတယ်။
02:44
In other words,
54
164288
1000
တစ်နည်းပြောရရင်၊
02:45
it's systematically favoring or discriminating
55
165288
2500
ဒါက ဝင်တိုက်ဖို့ အရာဝတ္ထု တစ်မျိုးမျိုးကို စနစ်တကျ
02:47
against a certain type of object to crash into.
56
167788
3500
မျက်နှာသာပေးတာ ဒါမှမဟုတ် ခွဲခြားဆက်ဆံတာပါ။
02:51
And the owners of the target vehicles
57
171288
2333
ပစ်မှတ်ထားတဲ့ ယာဉ်တွေရဲ့ပိုင်ရှင်တွေဟာ
02:53
will suffer the negative consequences of this algorithm
58
173621
3042
သူတို့ရဲ့ အမှားမဟုတ်တာကနေ ဒီအယ်ဂိုရီသမ်ရဲ့
02:56
through no fault of their own.
59
176663
2083
ဆိုးကျိုးတွေကို ခံစားရမှာပါ။
02:58
Our new technologies are opening up many other novel ethical dilemmas.
60
178746
4667
နည်းပညာအဆန်းတွေက တခြား ကျင့်ဝတ်ဆိုင်ရာ အကျပ်ရိုက်မှူတွေ အများကြီး ဖွင့်ပေးနေတယ်။
ဥပမာ၊ မတော်တဆမှုမှာ အသက် များနိုင် သလောက်များများ အမြဲ ကယ်မယ့်
03:03
For instance, if you had to choose between
61
183413
2083
03:05
a car that would always save as many lives as possible in an accident,
62
185496
4042
ကားတစ်စီး ဒါမှမဟုတ် ဘယ်အခြေအနေဖြစ်ဖြစ် သင့်ကို ကယ်တင်ပေးမယ့် တစ်စီးကို
03:09
or one that would save you at any cost,
63
189538
3041
သင် ရွေးချယ်ရမယ်ဆိုရင်၊h
03:12
which would you buy?
64
192579
1667
ဘယ်ကားကို သင် ဝယ်မလဲ။
03:14
What happens if the cars start analyzing and factoring in
65
194246
3333
ကားတွေက ခရီးသည်တွေနဲ့ သူတို့ ဘဝတွေရဲ့ အချက်အလက်တွေကို
03:17
the passengers of the cars and the particulars of their lives?
66
197579
3459
စတင် ဆန်းစစ်၊ တွက်ချက်ရင်၊ ဘာဖြစ်သွားမလဲ။
03:21
Could it be the case that a random decision
67
201038
2166
အန္တရာယ် နည်းဖို့ ပုံစံထုတ်ထားတဲ့ ကြိုတင်သတ်မှတ်ထားတဲ့
03:23
is still better than a predetermined one designed to minimize harm?
68
203204
4917
ဆုံးဖြတ်ချက်ထက် ကျပန်း ဆုံးဖြတ်ချက်က ပိုကောင်းနေနိုင်သေးလား။
03:28
And who should be making all of these decisions anyhow?
69
208121
2667
ဘာဖြစ်ဖြစ် ဒီဆုံးဖြတ်ချက်အားလုံးကို ဘယ်သူတွေ ချသင့်သလဲ။
03:30
Programmers? Companies? Governments?
70
210829
2709
ပရိုဂရမ်မာတွေလား။ ကုမ္ပဏီတွေလား။ အစိုးရတွေလား။
03:34
Reality may not play out exactly like our thought experiments,
71
214121
3458
အမှန်တရားက အတွေး စမ်းသပ်မှုတွေလို အတိအကျ မဖြစ်လောက်ပေမဲ့
03:37
but that's not the point.
72
217579
1667
ဒါက အဓိက မဟုတ်ပါဘူး။
03:39
They're designed to isolate and stress test our intuitions on ethics,
73
219246
4333
သိပ္ပံ စမ်းသပ်မှုတွေဟာ ရုပ်လောကအတွက် လုပ်သလို၊ ကျင့်ဝတ်နဲ့ဆိုင်ရာ
03:43
just like science experiments do for the physical world.
74
223579
3000
ဗီဇစိတ်တွေကို ခွဲခြား၊ စမ်းသပ်ဖို့ ပုံစံထုတ်ထားတာပါ။
03:46
Spotting these moral hairpin turns now
75
226579
3375
ဒီကိုယ်ကျင့်ဆိုင်ရာ အလိမ်အလှည့်တွေကို သတိပြုမိတာက
03:49
will help us maneuver the unfamiliar road of technology ethics,
76
229954
3584
နည်းပညာ ကျင့်ဝတ်ရဲ့ အကျွမ်းတဝင်မရှိတဲ့ လမ်းကြောင်းကို ကိုင်တွယ်ဖို့
03:53
and allow us to cruise confidently and conscientiously
77
233538
3750
အထောက်အကူပြုပြီး အနာဂတ်သစ်ဆီ ယုံကြည်မှုရှိရှိ၊
03:57
into our brave new future.
78
237288
2375
အသိရှိရှိ ဖြတ်သန်းခွင့်ပေးမှာပါ။
ဤဝဘ်ဆိုဒ်အကြောင်း

ဤဆိုက်သည် သင့်အား အင်္ဂလိပ်စာလေ့လာရန်အတွက် အသုံးဝင်သော YouTube ဗီဒီယိုများနှင့် မိတ်ဆက်ပေးပါမည်။ ကမ္ဘာတစ်ဝှမ်းမှ ထိပ်တန်းဆရာများ သင်ကြားပေးသော အင်္ဂလိပ်စာသင်ခန်းစာများကို သင်တွေ့မြင်ရပါမည်။ ဗီဒီယိုစာမျက်နှာတစ်ခုစီတွင် ပြသထားသည့် အင်္ဂလိပ်စာတန်းထိုးများကို နှစ်ချက်နှိပ်ပါ။ စာတန်းထိုးများသည် ဗီဒီယိုပြန်ဖွင့်ခြင်းနှင့်အတူ ထပ်တူပြု၍ လှိမ့်သွားနိုင်သည်။ သင့်တွင် မှတ်ချက်များ သို့မဟုတ် တောင်းဆိုမှုများရှိပါက ဤဆက်သွယ်ရန်ပုံစံကို အသုံးပြု၍ ကျွန်ုပ်တို့ထံ ဆက်သွယ်ပါ။

https://forms.gle/WvT1wiN1qDtmnspy7