Would you sacrifice one person to save five? - Eleanor Nelsen

다섯 명을 구하려고 한 명을 희생하시겠습니까? |엘레노어 넬슨 (Eleanor Nelsen)

5,161,800 views

2017-01-12 ・ TED-Ed


New videos

Would you sacrifice one person to save five? - Eleanor Nelsen

다섯 명을 구하려고 한 명을 희생하시겠습니까? |엘레노어 넬슨 (Eleanor Nelsen)

5,161,800 views ・ 2017-01-12

TED-Ed


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: Yangha Kim 검토: Alexa Lim
00:06
Imagine you're watching a runaway trolley barreling down the tracks
0
6949
4572
통제 불능 상태의 전차가 선로를 미친 듯이 질주한다고 생각해보세요.
00:11
straight towards five workers who can't escape.
1
11521
4440
그 선로 위에는 일꾼 다섯 명이 오도 가도 못 하고 있습니다.
00:15
You happen to be standing next to a switch
2
15961
2218
당신은 우연히도 스위치 옆에 서 있는데
00:18
that will divert the trolley onto a second track.
3
18179
3501
그 스위치를 누르면 전차가 옆 선로로 빠지게 되죠.
00:21
Here's the problem.
4
21680
1300
그런데 문제가 있습니다.
00:22
That track has a worker on it, too, but just one.
5
22980
5089
옆 선로에도 일꾼이 있거든요. 비록 단 한 명뿐이지만요.
00:28
What do you do?
6
28069
1321
어떻게 하시겠어요?
00:29
Do you sacrifice one person to save five?
7
29390
3295
다섯 명을 구하자고 한 명을 희생할 건가요?
00:32
This is the trolley problem,
8
32685
2729
이게 바로 '전차 문제'입니다.
00:35
a version of an ethical dilemma that philosopher Philippa Foot devised in 1967.
9
35414
6689
1967년 철학자 필리파 풋이 고안해낸 도덕적 딜레마 관련 문제죠.
00:42
It's popular because it forces us to think about how to choose
10
42103
3268
이 문제가 유명한 이유는 선택을 고민해야 하기 때문입니다.
00:45
when there are no good choices.
11
45371
2689
선택하기 곤란한 상황에서요.
00:48
Do we pick the action with the best outcome
12
48060
2140
최선의 결과를 내려고 행동해야 할까요
00:50
or stick to a moral code that prohibits causing someone's death?
13
50200
5200
아니면 누군가 죽는 것을 막기 위해 도덕률을 지키는 게 맞을까요?
00:55
In one survey, about 90% of respondents said that it's okay to flip the switch,
14
55400
5437
한 설문조사에서는 응답자 90%가량이 스위치를 눌러도 된다고 대답했습니다.
01:00
letting one worker die to save five,
15
60837
3413
한 명을 희생해 다섯을 살리는 거죠.
01:04
and other studies, including a virtual reality simulation of the dilemma,
16
64250
4350
가상현실 실험을 비롯한 다른 연구에서도
01:08
have found similar results.
17
68600
2440
비슷한 결과가 나왔는데요.
01:11
These judgments are consistent with the philosophical principle of utilitarianism
18
71040
5021
이것은 공리주의의 철학적 원칙과 일맥상통합니다.
01:16
which argues that the morally correct decision
19
76061
2460
도덕적으로 옳은 판단을 하면
01:18
is the one that maximizes well-being for the greatest number of people.
20
78521
4830
최대 다수에게 최대 행복을 가져다줄 수 있다는 얘기죠.
01:23
The five lives outweigh one,
21
83351
2130
1명보다 5명의 목숨이 중요하니까요.
01:25
even if achieving that outcome requires condemning someone to death.
22
85481
5081
결과적으로 누군가 죽게 되더라도 말이죠.
01:30
But people don't always take the utilitarian view,
23
90562
2909
하지만 사람들이 항상 공리주의적으로 생각하진 않습니다.
01:33
which we can see by changing the trolley problem a bit.
24
93471
3591
전차 문제를 조금 바꾸면 결과가 달라지거든요.
01:37
This time, you're standing on a bridge over the track
25
97062
3241
이번에 당신은 선로 위 다리에 서 있고
01:40
as the runaway trolley approaches.
26
100303
2889
전차가 질주해 오고 있습니다.
01:43
Now there's no second track,
27
103192
1681
이번에는 선로가 한 개뿐이며
01:44
but there is a very large man on the bridge next to you.
28
104873
3921
당신 옆에는 덩치 큰 사내가 함께 서 있는데요
01:48
If you push him over, his body will stop the trolley,
29
108794
3698
그 남자를 아래로 밀면 전차를 멈추고
01:52
saving the five workers,
30
112492
1751
일꾼 5명을 구할 수 있지만
01:54
but he'll die.
31
114243
1790
남자는 죽게 됩니다.
01:56
To utilitarians, the decision is exactly the same,
32
116033
3399
이런 상황에서 공리주의자들은 여전히 같은 선택을 하죠.
01:59
lose one life to save five.
33
119432
2550
1명을 희생해 5명을 구합니다.
02:01
But in this case, only about 10% of people
34
121982
2602
하지만 실제로 응답자 10%만이
02:04
say that it's OK to throw the man onto the tracks.
35
124584
3869
덩치 큰 사내를 밀어도 된다고 대답했습니다.
02:08
Our instincts tell us that deliberately causing someone's death
36
128453
3461
우리는 본능적으로 사람을 고의로 죽이는 것과
02:11
is different than allowing them to die as collateral damage.
37
131914
4389
부수적 피해로 사람이 죽는 게 다르다고 생각하는 겁니다.
02:16
It just feels wrong for reasons that are hard to explain.
38
136303
4650
딱히 설명하긴 어렵지만 옳지 않다고 생각하는 겁니다.
02:20
This intersection between ethics and psychology
39
140953
2520
이렇게 도덕관념과 인간 심리가 묘하게 겹치기 때문에
02:23
is what's so interesting about the trolley problem.
40
143473
3131
전차 문제가 더욱 흥미로워지는 겁니다.
02:26
The dilemma in its many variations reveal that what we think is right or wrong
41
146604
4380
상황을 조금씩 바꿔도 이런 상황에서는 우리가 옳고 그름을 판단할 때
02:30
depends on factors other than a logical weighing of the pros and cons.
42
150984
5361
이해득실을 논리적으로 따지기보다 몇 가지 요인에 의존하는 경향이 있죠.
02:36
For example, men are more likely than women
43
156345
2490
가령, 남자들은 여자들보다
02:38
to say it's okay to push the man over the bridge.
44
158835
3669
덩치 큰 남자를 밀어도 된다고 응답하는 경향이 더 두드러집니다.
02:42
So are people who watch a comedy clip before doing the thought experiment.
45
162504
4490
이 문제에 답하기 전에 코미디 영상을 본 사람들도 마찬가지죠.
02:46
And in one virtual reality study,
46
166994
2171
어느 가상현실 실험에서는
02:49
people were more willing to sacrifice men than women.
47
169165
3779
사람들이 여자보다 남자를 희생시키려는 경향을 보였습니다.
02:52
Researchers have studied the brain activity
48
172944
2270
연구자들은 인간의 뇌 활동을 조사해
02:55
of people thinking through the classic and bridge versions.
49
175214
4321
문제 유형별로 인간의 사고가 어떻게 달라지는지 파악하려 했습니다.
02:59
Both scenarios activate areas of the brain involved in conscious decision-making
50
179535
4519
두 개 시나리오 모두 뇌를 자극해 의식적 의사 결정과
03:04
and emotional responses.
51
184054
2460
감정적 반응을 유도합니다.
03:06
But in the bridge version, the emotional response is much stronger.
52
186514
4461
그런데 다리가 등장하는 문제에서는 감정적인 반응이 훨씬 강하게 나타나죠.
03:10
So is activity in an area of the brain
53
190975
2219
뇌의 특정 부분이 더 활성화하면서
03:13
associated with processing internal conflict.
54
193194
3690
내적 갈등도 일어납니다.
03:16
Why the difference?
55
196884
1261
왜 이런 걸까요?
03:18
One explanation is that pushing someone to their death feels more personal,
56
198145
4767
혹자는 누군가를 밀어서 죽이는 게 더 개인적으로 와 닿아서
03:22
activating an emotional aversion to killing another person,
57
202912
4013
살인에 대한 혐오감을 불러일으키기 때문이라고 합니다.
03:26
but we feel conflicted because we know it's still the logical choice.
58
206925
4499
하지만 그게 논리적 선택이란 걸 알기에 여전히 갈등하게 된다는 거죠.
03:31
"Trolleyology" has been criticized by some philosophers and psychologists.
59
211424
4981
트롤리학을 비판하는 철학자와 심리학자들도 있는데요.
03:36
They argue that it doesn't reveal anything because its premise is so unrealistic
60
216405
4861
상황 자체가 너무 비현실적이어서 제대로 된 결과가 나올 수 없고
03:41
that study participants don't take it seriously.
61
221266
4159
응답자들도 진지하게 못 받아들인다고 생각하거든요.
03:45
But new technology is making this kind of ethical analysis
62
225425
3131
하지만 신기술이 발달하면서 이러한 윤리적 분석이
03:48
more important than ever.
63
228556
2142
점점 더 중요해지고 있습니다.
03:50
For example, driver-less cars may have to handle choices
64
230698
3338
예를 들어, 무인차량의 경우
03:54
like causing a small accident to prevent a larger one.
65
234036
3971
큰 사고를 피하려고 작은 사고는 감수해야 할 수도 있습니다.
03:58
Meanwhile, governments are researching autonomous military drones
66
238007
3619
한편, 정부에서는 군용 무인 항공기를 개발 중인데
04:01
that could wind up making decisions of whether they'll risk civilian casualties
67
241626
4350
나중에 민간인을 희생해야 할지도 모릅니다.
04:05
to attack a high-value target.
68
245976
3300
더 큰 위협을 제거하기 위해서요.
04:09
If we want these actions to be ethical,
69
249276
1921
윤리적인 행동하려면
04:11
we have to decide in advance how to value human life
70
251197
4200
어떤 식으로 생명의 가치를 존중하면서
04:15
and judge the greater good.
71
255397
2270
대의를 실현할지 미리 결정해야 합니다.
04:17
So researchers who study autonomous systems
72
257667
2440
그래서 자율 운영 시스템을 개발하는 연구자들이
04:20
are collaborating with philosophers
73
260107
2100
철학자들과 공조하는 겁니다.
04:22
to address the complex problem of programming ethics into machines,
74
262207
5421
복잡한 인간 윤리를 기계에 적용하려고요.
04:27
which goes to show that even hypothetical dilemmas
75
267628
3329
가설적인 딜레마조차도
04:30
can wind up on a collision course with the real world.
76
270957
4101
현실에서는 충돌을 유발할 수 있으니까요.
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7