Would you sacrifice one person to save five? - Eleanor Nelsen
5人を助けるために1人を犠牲にしますか?―エレノア・ネルソン
5,271,204 views ・ 2017-01-12
下の英語字幕をダブルクリックすると動画を再生できます。
翻訳: Mio Yamaguchi
校正: Naoko Fujii
00:06
Imagine you're watching a runaway trolley
barreling down the tracks
0
6949
4572
想像してください
レール上の暴走トロッコをあなたは見ています
00:11
straight towards five workers
who can't escape.
1
11521
4440
その先には作業員が5人いるのですが
彼らは逃げることができません
00:15
You happen to be standing next to a switch
2
15961
2218
偶然にもあなたは分岐器のそばに立っており
00:18
that will divert the trolley
onto a second track.
3
18179
3501
それを使えば トロッコを
2番目のレールにそらすことができます
00:21
Here's the problem.
4
21680
1300
ところが問題なのは
00:22
That track has a worker on it, too,
but just one.
5
22980
5089
分岐先のレールにも作業員がいるのです
たった1人だけなのですが
00:28
What do you do?
6
28069
1321
あなたならどうしますか
00:29
Do you sacrifice one person to save five?
7
29390
3295
5人を救うために1人の生命を犠牲にしますか
00:32
This is the trolley problem,
8
32685
2729
これがトロッコ問題です
00:35
a version of an ethical dilemma that
philosopher Philippa Foot devised in 1967.
9
35414
6689
哲学者のフィリッパ・フットが
1967年に考えた 一種の倫理的ジレンマです
00:42
It's popular because it forces us
to think about how to choose
10
42103
3268
この問題が有名な理由は
良い選択肢が存在しない時に
00:45
when there are no good choices.
11
45371
2689
いかに選択するかを考えるよう
強いるものだからです
00:48
Do we pick the action
with the best outcome
12
48060
2140
もっとも成果がある行動を選ぶのか
00:50
or stick to a moral code that prohibits
causing someone's death?
13
50200
5200
人の死を引き起こすことを禁じる
道徳律を守り抜くのか
00:55
In one survey, about 90% of respondents
said that it's okay to flip the switch,
14
55400
5437
ある調査では約90%の人が
分岐器を操作し
01:00
letting one worker die to save five,
15
60837
3413
5人を救うために1人を犠牲にすると回答し
01:04
and other studies, including a virtual
reality simulation of the dilemma,
16
64250
4350
ジレンマの仮想現実シミュレーションなど
他の研究でも
01:08
have found similar results.
17
68600
2440
同様の結果を見出しました
01:11
These judgments are consistent with the
philosophical principle of utilitarianism
18
71040
5021
これらの判断は哲学原理である
功利主義に従っています
01:16
which argues that
the morally correct decision
19
76061
2460
最大多数の最大幸福をもたらす決定が
道徳的に正しいというものです
01:18
is the one that maximizes well-being
for the greatest number of people.
20
78521
4830
01:23
The five lives outweigh one,
21
83351
2130
たとえ1人への死の宣告を伴ってでも
01:25
even if achieving that outcome requires
condemning someone to death.
22
85481
5081
5人の生命が1人の生命より重いというのです
01:30
But people don't always take
the utilitarian view,
23
90562
2909
でも人は常に功利主義的なわけでもありません
01:33
which we can see by changing
the trolley problem a bit.
24
93471
3591
トロッコ問題に少し手を加えることで
それがわかります
01:37
This time, you're standing on a bridge
over the track
25
97062
3241
今度はレール上の橋にあなたは立っています
01:40
as the runaway trolley approaches.
26
100303
2889
暴走トロッコが近づいてくるのですが
01:43
Now there's no second track,
27
103192
1681
2番目のレールが今回はなくて
01:44
but there is a very large man
on the bridge next to you.
28
104873
3921
橋の上にいるあなたの隣に
とても大柄な男性がいます
01:48
If you push him over,
his body will stop the trolley,
29
108794
3698
あなたがその男性を突き落とせば
彼の体でトロッコを止めて
01:52
saving the five workers,
30
112492
1751
5人の生命を救うことができますが
01:54
but he'll die.
31
114243
1790
彼は死んでしまいます
01:56
To utilitarians,
the decision is exactly the same,
32
116033
3399
功利主義に基づくならば
判断は全く同じで
01:59
lose one life to save five.
33
119432
2550
5人を救うために1人の命を
犠牲にするはずです
02:01
But in this case, only about 10% of people
34
121982
2602
しかしこのケースでは
約10%の人しか
02:04
say that it's OK to throw the man
onto the tracks.
35
124584
3869
男性をレール上に突き落とすことを
良しとしません
02:08
Our instincts tell us that deliberately
causing someone's death
36
128453
3461
私達の本能は
誰かを意図的に死に至らしめることが
02:11
is different than allowing them to die
as collateral damage.
37
131914
4389
巻き添えになる人を見殺しにすることとは
違うと捉えるのです
02:16
It just feels wrong for reasons
that are hard to explain.
38
136303
4650
それを間違っているとは感じるのですが
理由を説明するのは難しいことです
02:20
This intersection between ethics
and psychology
39
140953
2520
このように 倫理と心理の交差するところが
02:23
is what's so interesting
about the trolley problem.
40
143473
3131
トロッコ問題のとても興味深いところです
02:26
The dilemma in its many variations reveal
that what we think is right or wrong
41
146604
4380
このジレンマの多様なバリエーションは
私たちの正誤判断が
02:30
depends on factors other than
a logical weighing of the pros and cons.
42
150984
5361
メリットとデメリットの論理的重みづけ以外の
要因にも拠っていることを示しています
02:36
For example, men are more likely
than women
43
156345
2490
例えば男性は女性よりも
02:38
to say it's okay to push the man
over the bridge.
44
158835
3669
橋の上の男性を突き落とすのを
良しとする傾向があります
02:42
So are people who watch a comedy clip
before doing the thought experiment.
45
162504
4490
思考実験の前に コメディ番組を見ていた人も
同様の傾向があります
02:46
And in one virtual reality study,
46
166994
2171
さらにある仮想現実の研究で
報告されているのは
02:49
people were more willing
to sacrifice men than women.
47
169165
3779
犠牲者が女性ではなく男性の方が
人々はためらわないことです
02:52
Researchers have studied
the brain activity
48
172944
2270
元のバージョンと
橋のバージョンについて考える際に
02:55
of people thinking through the classic
and bridge versions.
49
175214
4321
脳がどう活性化するのか
研究が行われてきました
02:59
Both scenarios activate areas of the brain
involved in conscious decision-making
50
179535
4519
意識的な意思決定と感情的反応に関わる部位が
両方のシナリオで活性化していました
03:04
and emotional responses.
51
184054
2460
03:06
But in the bridge version,
the emotional response is much stronger.
52
186514
4461
しかしながら橋のバージョンでは
感情的な反応の方が相当強く見られました
03:10
So is activity in an area of the brain
53
190975
2219
そして同様に
活動が活発になったのは
03:13
associated with processing
internal conflict.
54
193194
3690
内的葛藤を処理する部位でした
03:16
Why the difference?
55
196884
1261
違いは何でしょうか
03:18
One explanation is that pushing someone
to their death feels more personal,
56
198145
4767
ある説明では 誰かを突き落とすのは
より自分に関わることであるために
03:22
activating an emotional aversion
to killing another person,
57
202912
4013
他の人を殺害することへの
嫌悪感を引き起こし
03:26
but we feel conflicted because we know
it's still the logical choice.
58
206925
4499
それでもそれが論理的な選択であると
わかっているがゆえに葛藤するのです
03:31
"Trolleyology" has been criticized by some
philosophers and psychologists.
59
211424
4981
トロッコ問題は一部の哲学者と心理学者から
批判を受けています
03:36
They argue that it doesn't reveal anything
because its premise is so unrealistic
60
216405
4861
前提があまりに非現実的なために
何の証明にもならないと反論しています
03:41
that study participants
don't take it seriously.
61
221266
4159
調査対象者が真剣に受け取らないからです
03:45
But new technology is making this kind
of ethical analysis
62
225425
3131
しかし新しいテクノロジーは
このような倫理的な分析を
03:48
more important than ever.
63
228556
2142
今まで以上に重要なものとしています
03:50
For example, driver-less cars
may have to handle choices
64
230698
3338
例えば 自動運転の車が
選択をしなければならなくなるかもしれません
03:54
like causing a small accident
to prevent a larger one.
65
234036
3971
大事故を防ぐために
小さな事故を起こすことなどをです
03:58
Meanwhile, governments are researching
autonomous military drones
66
238007
3619
一方 政府は自律的軍用ドローンの
研究をしています
04:01
that could wind up making decisions of
whether they'll risk civilian casualties
67
241626
4350
一般人を負傷させる結果を
引き起こしたとしても
04:05
to attack a high-value target.
68
245976
3300
重要なターゲットを攻撃するかの判断を
ドローンが担うかもしれないのです
04:09
If we want these actions to be ethical,
69
249276
1921
これらの行為を
倫理的にしたいのならば
04:11
we have to decide in advance
how to value human life
70
251197
4200
人命を尊重し
より良い結果をもたらす判断の仕方を
04:15
and judge the greater good.
71
255397
2270
前もって決めておかねばなりません
04:17
So researchers who study
autonomous systems
72
257667
2440
そこで自律型システムの
研究をしている研究者は
04:20
are collaborating with philosophers
73
260107
2100
哲学者と協業し
04:22
to address the complex problem
of programming ethics into machines,
74
262207
5421
機械に倫理をプログラミングするという
複雑な問題を扱っています
04:27
which goes to show that
even hypothetical dilemmas
75
267628
3329
このことは 仮定のジレンマでさえも
04:30
can wind up on a collision course
with the real world.
76
270957
4101
現実世界との衝突が避けられない
場合もあることを証明しています
New videos
このウェブサイトについて
このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。