Would you sacrifice one person to save five? - Eleanor Nelsen

5,161,800 views

2017-01-12 ・ TED-Ed


New videos

Would you sacrifice one person to save five? - Eleanor Nelsen

5,161,800 views ・ 2017-01-12

TED-Ed


Proszę kliknąć dwukrotnie na poniższe angielskie napisy, aby odtworzyć film.

Tłumaczenie: Ola Królikowska Korekta: Rysia Wand
00:06
Imagine you're watching a runaway trolley barreling down the tracks
0
6949
4572
Wyobraź sobie kolejkę pędzącą po torach
00:11
straight towards five workers who can't escape.
1
11521
4440
wprost na pięciu robotników, którzy nie mają jak uciec.
00:15
You happen to be standing next to a switch
2
15961
2218
Stoisz obok dźwigni,
00:18
that will divert the trolley onto a second track.
3
18179
3501
która przekieruje kolejkę na drugi tor.
00:21
Here's the problem.
4
21680
1300
Ale jest problem.
00:22
That track has a worker on it, too, but just one.
5
22980
5089
Na drugim torze też stoi robotnik.
00:28
What do you do?
6
28069
1321
Co zrobisz?
00:29
Do you sacrifice one person to save five?
7
29390
3295
Czy uratujesz pięć osób kosztem jednej?
00:32
This is the trolley problem,
8
32685
2729
To dylemat wagonika,
00:35
a version of an ethical dilemma that philosopher Philippa Foot devised in 1967.
9
35414
6689
eksperyment etyczny stworzony przez filozof Philippę Foot w 1967 roku.
00:42
It's popular because it forces us to think about how to choose
10
42103
3268
Zyskał popularność, bo zmusza do refleksji nad tym,
co wybrać, kiedy nie ma dobrego wyjścia.
00:45
when there are no good choices.
11
45371
2689
00:48
Do we pick the action with the best outcome
12
48060
2140
Czy postąpimy zgodnie z najlepszym rezultatem,
00:50
or stick to a moral code that prohibits causing someone's death?
13
50200
5200
czy kodeksem moralnym, który zabrania zabijania?
00:55
In one survey, about 90% of respondents said that it's okay to flip the switch,
14
55400
5437
W badaniu około 90% respondentów odpowiedziało, że pociągnęłoby za dźwignię
01:00
letting one worker die to save five,
15
60837
3413
i poświęciło życie jednego robotnika, aby uratować pięciu.
01:04
and other studies, including a virtual reality simulation of the dilemma,
16
64250
4350
Podobne wyniki dały badania z wirtualną symulacją dylematu.
01:08
have found similar results.
17
68600
2440
01:11
These judgments are consistent with the philosophical principle of utilitarianism
18
71040
5021
Opinie te są zgodne z filozoficzną zasadą utylitaryzmu,
01:16
which argues that the morally correct decision
19
76061
2460
która mówi, że najwłaściwsza moralnie
01:18
is the one that maximizes well-being for the greatest number of people.
20
78521
4830
jest decyzja maksymalizująca dobro jak największej liczby osób.
01:23
The five lives outweigh one,
21
83351
2130
Pięć istnień znaczy więcej niż jedno,
01:25
even if achieving that outcome requires condemning someone to death.
22
85481
5081
nawet jeśli będzie to oznaczało skazanie kogoś na śmierć.
01:30
But people don't always take the utilitarian view,
23
90562
2909
Ale ludzie nie zawsze dokonują utylitarystycznych wyborów,
01:33
which we can see by changing the trolley problem a bit.
24
93471
3591
co można łatwo zauważyć, jeśli zmienimy zasady dylematu.
01:37
This time, you're standing on a bridge over the track
25
97062
3241
Tym razem stoisz na moście nad torami
01:40
as the runaway trolley approaches.
26
100303
2889
tuż przed przyjazdem kolejki.
01:43
Now there's no second track,
27
103192
1681
Nie ma drugiego toru,
01:44
but there is a very large man on the bridge next to you.
28
104873
3921
ale obok ciebie na moście stoi otyły człowiek.
01:48
If you push him over, his body will stop the trolley,
29
108794
3698
Jeśli go popchniesz, swoim ciałem zatrzyma kolejkę
01:52
saving the five workers,
30
112492
1751
i uratuje pięciu robotników,
01:54
but he'll die.
31
114243
1790
ale sam zginie.
01:56
To utilitarians, the decision is exactly the same,
32
116033
3399
Utylitaryści nie zmieniają decyzji.
01:59
lose one life to save five.
33
119432
2550
Poświęcą jedną osobę, żeby uratować pięć.
02:01
But in this case, only about 10% of people
34
121982
2602
Ale w tym wypadku tylko 10% badanych uważa,
02:04
say that it's OK to throw the man onto the tracks.
35
124584
3869
że można zepchnąć człowieka z mostu.
02:08
Our instincts tell us that deliberately causing someone's death
36
128453
3461
Instynkt mówi nam, że celowe spowodowanie śmierci
02:11
is different than allowing them to die as collateral damage.
37
131914
4389
to co innego, niż przyzwolenie na śmierć jako skutek uboczny.
02:16
It just feels wrong for reasons that are hard to explain.
38
136303
4650
Choć trudno to wyjaśnić, wydaje nam się to złe.
02:20
This intersection between ethics and psychology
39
140953
2520
To dzięki skrzyżowaniu etyki z psychologią
02:23
is what's so interesting about the trolley problem.
40
143473
3131
dylemat wagonika jest tak ciekawy.
02:26
The dilemma in its many variations reveal that what we think is right or wrong
41
146604
4380
Różne wersje dylematu pokazują, że postrzeganie dobra i zła
02:30
depends on factors other than a logical weighing of the pros and cons.
42
150984
5361
zależy nie tylko od logicznego bilansu zysków i strat.
02:36
For example, men are more likely than women
43
156345
2490
Mężczyźni częściej niż kobiety odpowiadali,
02:38
to say it's okay to push the man over the bridge.
44
158835
3669
że zepchnęliby człowieka z mostu.
02:42
So are people who watch a comedy clip before doing the thought experiment.
45
162504
4490
Podobnie jak uczestnicy, którym przed badaniem pokazano komedię.
02:46
And in one virtual reality study,
46
166994
2171
W badaniu z wirtualną rzeczywistością
02:49
people were more willing to sacrifice men than women.
47
169165
3779
uczestnicy woleli poświęcić mężczyznę niż kobietę.
02:52
Researchers have studied the brain activity
48
172944
2270
Naukowcy badali aktywność mózgu
02:55
of people thinking through the classic and bridge versions.
49
175214
4321
uczestników wersji klasycznej i wersji z mostem.
02:59
Both scenarios activate areas of the brain involved in conscious decision-making
50
179535
4519
Obie wersje aktywują obszary mózgu odpowiadające za świadome decyzje
03:04
and emotional responses.
51
184054
2460
i reakcje emocjonalne.
03:06
But in the bridge version, the emotional response is much stronger.
52
186514
4461
Ale w wersji z mostem reakcja emocjonalna była silniejsza.
03:10
So is activity in an area of the brain
53
190975
2219
Większa była też aktywność obszaru mózgu
03:13
associated with processing internal conflict.
54
193194
3690
odpowiadająca za rozważanie wewnętrznych konfliktów.
03:16
Why the difference?
55
196884
1261
Skąd ta różnica?
03:18
One explanation is that pushing someone to their death feels more personal,
56
198145
4767
Może zrzucanie kogoś z mostu wydaje się bardziej osobiste,
03:22
activating an emotional aversion to killing another person,
57
202912
4013
aktywując emocjonalną niechęć do zabicia drugiej osoby.
03:26
but we feel conflicted because we know it's still the logical choice.
58
206925
4499
Jednocześnie czujemy się rozdarci, bo wiemy, że to wybór logiczny.
03:31
"Trolleyology" has been criticized by some philosophers and psychologists.
59
211424
4981
Część filozofów i psychologów krytykuje dylemat wagonika.
03:36
They argue that it doesn't reveal anything because its premise is so unrealistic
60
216405
4861
Ich zdaniem nie dowodzi on niczego, bo jego założenia są tak nierealne,
03:41
that study participants don't take it seriously.
61
221266
4159
że uczestnicy nie traktują ich poważnie.
03:45
But new technology is making this kind of ethical analysis
62
225425
3131
Rozwój technologii sprawia jednak, że ten rodzaj analizy etycznej
03:48
more important than ever.
63
228556
2142
jest ważniejszy niż kiedykolwiek.
03:50
For example, driver-less cars may have to handle choices
64
230698
3338
Na przykład samochody bez kierowcy mogą być zmuszone dokonać wyborów
03:54
like causing a small accident to prevent a larger one.
65
234036
3971
takich jak spowodowanie mniejszego wypadku.
03:58
Meanwhile, governments are researching autonomous military drones
66
238007
3619
Rządy pracują nad samodzielnymi dronami wojskowymi,
04:01
that could wind up making decisions of whether they'll risk civilian casualties
67
241626
4350
które być może zdecydują, czy poświęcić życie cywilów,
04:05
to attack a high-value target.
68
245976
3300
żeby zaatakować strategiczny cel.
04:09
If we want these actions to be ethical,
69
249276
1921
Jeśli chcemy, żeby wybierały etycznie,
04:11
we have to decide in advance how to value human life
70
251197
4200
musimy zawczasu zdecydować, na ile cenimy ludzkie życie
04:15
and judge the greater good.
71
255397
2270
i czy wybieramy mniejsze zło.
04:17
So researchers who study autonomous systems
72
257667
2440
Dlatego przy tworzeniu systemów decyzyjnych
naukowcy współpracują z filozofami,
04:20
are collaborating with philosophers
73
260107
2100
04:22
to address the complex problem of programming ethics into machines,
74
262207
5421
aby rozwiązać problem etyki w działaniu maszyn.
04:27
which goes to show that even hypothetical dilemmas
75
267628
3329
To pokazuje, że nawet z hipotetycznymi dylematami
04:30
can wind up on a collision course with the real world.
76
270957
4101
możemy kiedyś zetknąć się w rzeczywistości.
O tej stronie

Na tej stronie poznasz filmy z YouTube, które są przydatne do nauki języka angielskiego. Zobaczysz lekcje angielskiego prowadzone przez najlepszych nauczycieli z całego świata. Kliknij dwukrotnie na angielskie napisy wyświetlane na stronie każdego filmu, aby odtworzyć film od tego miejsca. Napisy przewijają się synchronicznie z odtwarzaniem filmu. Jeśli masz jakieś uwagi lub prośby, skontaktuj się z nami za pomocą formularza kontaktowego.

https://forms.gle/WvT1wiN1qDtmnspy7