Would you sacrifice one person to save five? - Eleanor Nelsen

5,161,800 views ・ 2017-01-12

TED-Ed


Dubbelklicka på de engelska undertexterna nedan för att spela upp videon.

Översättare: Anette Smedberg Granskare: Lisbeth Pekkari
00:06
Imagine you're watching a runaway trolley barreling down the tracks
0
6949
4572
Föreställ dig att du ser ett skenande tåg komma farande på spåret
00:11
straight towards five workers who can't escape.
1
11521
4440
rakt mot fem arbetare som inte kan fly.
00:15
You happen to be standing next to a switch
2
15961
2218
Du råkar stå bredvid växeln
00:18
that will divert the trolley onto a second track.
3
18179
3501
som kan leda in vagnen på ett sidospår.
00:21
Here's the problem.
4
21680
1300
Här är problemet.
00:22
That track has a worker on it, too, but just one.
5
22980
5089
På det spåret finns också arbetare, men bara en.
Vad gör du?
00:28
What do you do?
6
28069
1321
00:29
Do you sacrifice one person to save five?
7
29390
3295
Offrar du en person för att rädda fem?
00:32
This is the trolley problem,
8
32685
2729
Det här är vagnproblemet,
00:35
a version of an ethical dilemma that philosopher Philippa Foot devised in 1967.
9
35414
6689
en version av ett moraliskt dilemma som filosofen Philippa Foot formulerade 1967.
Det är populärt eftersom det tvingar oss att tänka över våra val
00:42
It's popular because it forces us to think about how to choose
10
42103
3268
00:45
when there are no good choices.
11
45371
2689
när det inte finns några bra val.
Väljer vi det som ger bäst resultat
00:48
Do we pick the action with the best outcome
12
48060
2140
00:50
or stick to a moral code that prohibits causing someone's death?
13
50200
5200
eller håller vi fast vid en moralkod som förbjuder oss att orsaka någons död?
00:55
In one survey, about 90% of respondents said that it's okay to flip the switch,
14
55400
5437
I en undersökning, svarade 90% av de tillfrågade ja till att slå om växeln,
01:00
letting one worker die to save five,
15
60837
3413
och låta en arbetare dö för att rädda fem,
01:04
and other studies, including a virtual reality simulation of the dilemma,
16
64250
4350
och andra studier, som inkluderar en simulering av dilemmat,
01:08
have found similar results.
17
68600
2440
har visat liknande resultat.
Dessa värderingar är förenliga med den filosofiska principen utilitarism
01:11
These judgments are consistent with the philosophical principle of utilitarianism
18
71040
5021
som säger att det moraliskt rätta beslutet
01:16
which argues that the morally correct decision
19
76061
2460
01:18
is the one that maximizes well-being for the greatest number of people.
20
78521
4830
är det som maximerar välbefinnandet för så många som möjligt.
01:23
The five lives outweigh one,
21
83351
2130
Fem liv övertrumfar ett,
01:25
even if achieving that outcome requires condemning someone to death.
22
85481
5081
även om det krävs att någon måste dö för att uppnå resultatet.
01:30
But people don't always take the utilitarian view,
23
90562
2909
Men människor har inte alltid ett utilitaristiskt perspektiv,
01:33
which we can see by changing the trolley problem a bit.
24
93471
3591
vilket vi ser om vi ändrar vagnproblemet en aning.
Den här gången står du på en bro över spåret
01:37
This time, you're standing on a bridge over the track
25
97062
3241
01:40
as the runaway trolley approaches.
26
100303
2889
när det skenande tåget närmar sig.
Nu finns inget sidospår,
01:43
Now there's no second track,
27
103192
1681
01:44
but there is a very large man on the bridge next to you.
28
104873
3921
men det står en storvuxen man bredvid dig på bron.
01:48
If you push him over, his body will stop the trolley,
29
108794
3698
Om du knuffar ner honom, kommer hans kropp att stoppa vagnen,
01:52
saving the five workers,
30
112492
1751
och rädda de fem arbetarna,
01:54
but he'll die.
31
114243
1790
men han kommer att dö.
För utilitaristerna, kommer beslutet att vara detsamma,
01:56
To utilitarians, the decision is exactly the same,
32
116033
3399
01:59
lose one life to save five.
33
119432
2550
förlora ett liv för att rädda fem.
02:01
But in this case, only about 10% of people
34
121982
2602
Men i det här fallet, säger bara omkring 10%
02:04
say that it's OK to throw the man onto the tracks.
35
124584
3869
att det är ok att knuffa ner mannen på spåret.
02:08
Our instincts tell us that deliberately causing someone's death
36
128453
3461
Vår instinkt säger oss att medvetet orsaka någons död
02:11
is different than allowing them to die as collateral damage.
37
131914
4389
är annorlunda än att låta någon dö oavsiktligt.
02:16
It just feels wrong for reasons that are hard to explain.
38
136303
4650
Det känns fel av orsaker som är svåra att förklara.
02:20
This intersection between ethics and psychology
39
140953
2520
Denna skärningspunkt mellan etik och psykologi
02:23
is what's so interesting about the trolley problem.
40
143473
3131
är det som gör vagnproblemet så intressant.
02:26
The dilemma in its many variations reveal that what we think is right or wrong
41
146604
4380
Dilemmats olika varianter avslöjar att det vi tycker är rätt eller fel
02:30
depends on factors other than a logical weighing of the pros and cons.
42
150984
5361
beror på andra faktorer än en logisk beräkning av för- och nackdelar.
02:36
For example, men are more likely than women
43
156345
2490
Det är till exempel troligare att män säger ja till
02:38
to say it's okay to push the man over the bridge.
44
158835
3669
att knuffa ner mannen från bron än att kvinnor säger det.
02:42
So are people who watch a comedy clip before doing the thought experiment.
45
162504
4490
Så säger också människor som sett en rolig filmsnutt innan de gör tankeexperimentet.
02:46
And in one virtual reality study,
46
166994
2171
I en simuleringsstudie,
var människor mer villiga att offra män än kvinnor.
02:49
people were more willing to sacrifice men than women.
47
169165
3779
02:52
Researchers have studied the brain activity
48
172944
2270
Forskare har studerat hjärnaktiviteten
02:55
of people thinking through the classic and bridge versions.
49
175214
4321
hos människor som funderar kring både det klassiska dilemmat och bro-versionen.
02:59
Both scenarios activate areas of the brain involved in conscious decision-making
50
179535
4519
Båda scenariorna aktiverar de delar av hjärnan som involveras vid medvetna beslut
03:04
and emotional responses.
51
184054
2460
och känslomässiga reaktioner.
03:06
But in the bridge version, the emotional response is much stronger.
52
186514
4461
Men i bro-versionen är de känslomässiga reaktionerna mycket starkare.
03:10
So is activity in an area of the brain
53
190975
2219
Även aktiviteten i en del av hjärnan
03:13
associated with processing internal conflict.
54
193194
3690
associerad med hanterandet av inre konflikter.
03:16
Why the difference?
55
196884
1261
Varför är det skillnad?
En förklaring är att medvetet orsaka någons död känns mer personligt,
03:18
One explanation is that pushing someone to their death feels more personal,
56
198145
4767
03:22
activating an emotional aversion to killing another person,
57
202912
4013
motståndet att döda en människa aktiveras,
03:26
but we feel conflicted because we know it's still the logical choice.
58
206925
4499
men vi känner oss splittrade för vi vet att det fortfarande är logiskt rätt val.
03:31
"Trolleyology" has been criticized by some philosophers and psychologists.
59
211424
4981
Vagndilemmat har kritiserats av filosofer och psykologer.
03:36
They argue that it doesn't reveal anything because its premise is so unrealistic
60
216405
4861
De hävdar att det inte avslöjar någonting eftersom premisserna är så orealistiska
03:41
that study participants don't take it seriously.
61
221266
4159
att deltagarna i studien inte tar den på allvar.
03:45
But new technology is making this kind of ethical analysis
62
225425
3131
Men ny teknik gör den här typen av moraliska analyser
03:48
more important than ever.
63
228556
2142
viktigare än någonsin.
03:50
For example, driver-less cars may have to handle choices
64
230698
3338
Till exempel kan förarlösa bilar behöva välja mellan
03:54
like causing a small accident to prevent a larger one.
65
234036
3971
att orsaka en liten olycka för att förhindra en större.
Samtidigt forskar regeringar kring militära självstyrande drönare
03:58
Meanwhile, governments are researching autonomous military drones
66
238007
3619
04:01
that could wind up making decisions of whether they'll risk civilian casualties
67
241626
4350
som kan hamna i situationer där de måste välja att riskera civila offer
04:05
to attack a high-value target.
68
245976
3300
för att attackera värdefulla mål.
04:09
If we want these actions to be ethical,
69
249276
1921
Vill vi ha etiskt riktiga attacker,
04:11
we have to decide in advance how to value human life
70
251197
4200
måste vi i förväg besluta hur vi värderar människoliv
04:15
and judge the greater good.
71
255397
2270
och visa gott omdöme i besluten.
04:17
So researchers who study autonomous systems
72
257667
2440
Forskare som studerar självstyrande system
04:20
are collaborating with philosophers
73
260107
2100
samarbetar därför med filosofer
04:22
to address the complex problem of programming ethics into machines,
74
262207
5421
för att hantera komplexa problem kring etik och programmering av maskiner,
04:27
which goes to show that even hypothetical dilemmas
75
267628
3329
vilket visar att även hypotetiska dilemman
04:30
can wind up on a collision course with the real world.
76
270957
4101
kan hamna på kollisionskurs med den verkliga världen.
Om denna webbplats

På den här webbplatsen hittar du YouTube-videor som är användbara för att lära sig engelska. Du kommer att få se engelska lektioner som ges av förstklassiga lärare från hela världen. Dubbelklicka på de engelska undertexterna som visas på varje videosida för att spela upp videon därifrån. Undertexterna rullar i takt med videouppspelningen. Om du har några kommentarer eller önskemål kan du kontakta oss via detta kontaktformulär.

https://forms.gle/WvT1wiN1qDtmnspy7