The ethical dilemma of self-driving cars - Patrick Lin

2,078,144 views ・ 2015-12-08

TED-Ed


下の英語字幕をダブルクリックすると動画を再生できます。

翻訳: Yasushi Aoki 校正: Misaki Sato
思考実験をしてみましょう
00:07
This is a thought experiment.
0
7246
2042
00:09
Let's say at some point in the not so distant future,
1
9288
2625
そう遠くない将来
00:11
you're barreling down the highway in your self-driving car,
2
11913
3583
自動運転車に乗って 幹線道路を高速で走っていると
00:15
and you find yourself boxed in on all sides by other cars.
3
15496
4292
周囲を囲まれた 状態になりました
00:19
Suddenly, a large, heavy object falls off the truck in front of you.
4
19788
4416
突然 前を走るトラックの荷台から 重い大きな荷物が崩れ落ちてきました
00:24
Your car can't stop in time to avoid the collision,
5
24204
3167
ブレーキを踏んでも 衝突を避けられません
00:27
so it needs to make a decision:
6
27371
2042
とっさに判断する 必要があります
00:29
go straight and hit the object,
7
29413
2250
まっすぐ進んで 荷物に突っ込むか
00:31
swerve left into an SUV,
8
31663
2291
左によけて SUVにぶつかるか
00:33
or swerve right into a motorcycle.
9
33954
3000
右によけて バイクにぶつかるかです
00:36
Should it prioritize your safety by hitting the motorcycle,
10
36954
3500
自分の安全を最優先して バイクにぶつけるべきか
00:40
minimize danger to others by not swerving,
11
40454
2792
たとえそれが 大きな物への衝突で 自分の命を犠牲にすることになろうと
00:43
even if it means hitting the large object and sacrificing your life,
12
43246
4083
人様の安全を優先して よけずに直進すべきか
00:47
or take the middle ground by hitting the SUV,
13
47329
2750
中間を取って
乗員の安全性が高い SUVにぶつけるべきか
00:50
which has a high passenger safety rating?
14
50079
3000
00:53
So what should the self-driving car do?
15
53079
3208
自動運転車はどれを 選択すべきでしょう?
00:56
If we were driving that boxed in car in manual mode,
16
56287
3209
このような状況下で 人が車を手動で運転していたなら
00:59
whichever way we'd react would be understood as just that,
17
59496
3541
いずれの反応をしたとしても
熟慮の上の決定ではなく
単なる反射的行動として 受け取られるでしょう
01:03
a reaction,
18
63037
1292
01:04
not a deliberate decision.
19
64329
2250
01:06
It would be an instinctual panicked move with no forethought or malice.
20
66579
4292
パニック状態での本能的行動であって 計画性や悪意はなかったと
01:10
But if a programmer were to instruct the car to make the same move,
21
70871
3625
しかし その同じ行動が もしプログラマーによって
将来起こりうる状況への反応として あらかじめ車に組み込まれていたとしたら
01:14
given conditions it may sense in the future,
22
74496
2833
01:17
well, that looks more like premeditated homicide.
23
77329
4292
それはむしろ計画的殺人のように 見えてきます
01:21
Now, to be fair,
24
81621
1000
公平を期して言うと
01:22
self-driving cars are predicted to dramatically reduce traffic accidents
25
82621
4083
自動運転車は運転から 人的なミスを取り除くことで
01:26
and fatalities
26
86704
1250
交通事故や死者の数を
01:27
by removing human error from the driving equation.
27
87954
3167
劇的に減らすと 予想されており
01:31
Plus, there may be all sorts of other benefits:
28
91121
2375
その他にも様々な 利点があります
01:33
eased road congestion,
29
93496
1667
道路の混雑を緩和し
01:35
decreased harmful emissions,
30
95163
1541
有害ガス排出量を減らし
01:36
and minimized unproductive and stressful driving time.
31
96704
4625
非生産的でストレスのある運転を 人間がする時間を最小限にできます
01:41
But accidents can and will still happen,
32
101329
2167
しかしそれでも 事故は起こり得
01:43
and when they do,
33
103496
1167
事故が起こった時 その帰結は
01:44
their outcomes may be determined months or years in advance
34
104663
4500
何ヶ月も あるいは何年も前から プログラマーや政策立案者によって
定められていたものだった かもしれないのです
01:49
by programmers or policy makers.
35
109163
2583
01:51
And they'll have some difficult decisions to make.
36
111746
2500
そして中には 難しい決断もあるはずです
01:54
It's tempting to offer up general decision-making principles,
37
114246
2958
基本的には 「被害の最小化」のような
一般原則に基づいて 決められるかもしれませんが
01:57
like minimize harm,
38
117204
1875
01:59
but even that quickly leads to morally murky decisions.
39
119079
3375
それでも倫理的に不透明な決断を 迫られる状況は出てくるでしょう
02:02
For example,
40
122454
1167
たとえば
02:03
let's say we have the same initial set up,
41
123621
2000
前と同様の状況にあったとして
02:05
but now there's a motorcyclist wearing a helmet to your left
42
125621
2875
ただし今回は左には ヘルメット着用のバイク
02:08
and another one without a helmet to your right.
43
128496
2792
右にはヘルメットを被っていない バイクがいたとします
02:11
Which one should your robot car crash into?
44
131288
3083
自動運転車はどちらに ハンドルを切るべきでしょう?
02:14
If you say the biker with the helmet because she's more likely to survive,
45
134371
4083
ヘルメット着用の方が生存率が高いからと そちらにぶつけるとしたら
02:18
then aren't you penalizing the responsible motorist?
46
138454
2917
ルールを守っている人を罰することに ならないでしょうか?
02:21
If, instead, you save the biker without the helmet
47
141371
2750
一方 ルールを守っていない
ヘルメット未着用の バイクにぶつけるとしたら
02:24
because he's acting irresponsibly,
48
144121
2000
02:26
then you've gone way beyond the initial design principle about minimizing harm,
49
146121
4875
被害の最小化という設計原則から はずれることになります
02:30
and the robot car is now meting out street justice.
50
150996
3875
そして路上において何が公正かの判断が ロボットカーに任せられることになるのです
02:34
The ethical considerations get more complicated here.
51
154871
3542
倫理的な考慮は さらに複雑なものになり得ます
02:38
In both of our scenarios,
52
158413
1375
いずれのシナリオでも
02:39
the underlying design is functioning as a targeting algorithm of sorts.
53
159788
4500
設計方針は目標選択アルゴリズムとして 機能しています
02:44
In other words,
54
164288
1000
言い換えると
02:45
it's systematically favoring or discriminating
55
165288
2500
衝突する対象物の種類として 何を選好するか
02:47
against a certain type of object to crash into.
56
167788
3500
システム的に選んでいる ということです
02:51
And the owners of the target vehicles
57
171288
2333
そして標的にされた乗り物に 乗っている人は
02:53
will suffer the negative consequences of this algorithm
58
173621
3042
自らには過誤がない にもかかわらず
アルゴリズムの選択による負の結果を 引き受けることになります
02:56
through no fault of their own.
59
176663
2083
02:58
Our new technologies are opening up many other novel ethical dilemmas.
60
178746
4667
この新技術は その他にも新たな種類の 倫理的ジレンマをたくさん生み出します
03:03
For instance, if you had to choose between
61
183413
2083
たとえば 事故において 可能な限り多くの命を救おうとする車と
03:05
a car that would always save as many lives as possible in an accident,
62
185496
4042
乗っている人の安全を 何よりも優先する車の
03:09
or one that would save you at any cost,
63
189538
3041
どちらかを選ばなければ ならないとしたら
03:12
which would you buy?
64
192579
1667
どちらを買いますか?
03:14
What happens if the cars start analyzing and factoring in
65
194246
3333
もし車が 乗っている人が誰で どのような事情があるか
03:17
the passengers of the cars and the particulars of their lives?
66
197579
3459
分析し考慮に入れるようになったとしたら どうなるでしょう?
03:21
Could it be the case that a random decision
67
201038
2166
被害を最小化すべく 前もって設計された判断より
03:23
is still better than a predetermined one designed to minimize harm?
68
203204
4917
その場におけるとっさの判断の方が 良いという場合はあるのでしょうか?
03:28
And who should be making all of these decisions anyhow?
69
208121
2667
そういった判断はそもそも誰が 下すべきなのでしょう?
03:30
Programmers? Companies? Governments?
70
210829
2709
プログラマーなのか
自動車会社なのか
政府なのか?
03:34
Reality may not play out exactly like our thought experiments,
71
214121
3458
現実がこれらの思考実験通りに 展開するとは限りませんが
03:37
but that's not the point.
72
217579
1667
それは要点ではありません
03:39
They're designed to isolate and stress test our intuitions on ethics,
73
219246
4333
これら思考実験の役割は 物理的世界における科学実験と同様で
03:43
just like science experiments do for the physical world.
74
223579
3000
我々の倫理的直感を取り出して ストレステストにかけるということです
03:46
Spotting these moral hairpin turns now
75
226579
3375
これら倫理のヘアピンカーブを 今 見極めておくことで
03:49
will help us maneuver the unfamiliar road of technology ethics,
76
229954
3584
技術倫理の未知なる道を 巧みに抜けて
03:53
and allow us to cruise confidently and conscientiously
77
233538
3750
素晴らしき未来へと 自信をもって良心的に
03:57
into our brave new future.
78
237288
2375
進んでいくことが できるようになるのです
このウェブサイトについて

このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。

https://forms.gle/WvT1wiN1qDtmnspy7