Would you sacrifice one person to save five? - Eleanor Nelsen

Можно ли пожертвовать одним человеком, чтобы спасти пятерых? — Элеонора Нельсен

5,161,800 views

2017-01-12 ・ TED-Ed


New videos

Would you sacrifice one person to save five? - Eleanor Nelsen

Можно ли пожертвовать одним человеком, чтобы спасти пятерых? — Элеонора Нельсен

5,161,800 views ・ 2017-01-12

TED-Ed


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

Переводчик: Ростислав Голод Редактор: Natalia Ost
00:06
Imagine you're watching a runaway trolley barreling down the tracks
0
6949
4572
Представьте, что вы видите, как тяжёлая неуправляемая вагонетка
00:11
straight towards five workers who can't escape.
1
11521
4440
несётся прямо на пятерых рабочих, которые не могут от неё увернуться.
00:15
You happen to be standing next to a switch
2
15961
2218
Вы можете переключить стрелку
00:18
that will divert the trolley onto a second track.
3
18179
3501
и пустить вагонетку по другому пути.
00:21
Here's the problem.
4
21680
1300
Но вот ведь незадача:
00:22
That track has a worker on it, too, but just one.
5
22980
5089
на втором пути также находится рабочий, но только один.
00:28
What do you do?
6
28069
1321
Как бы вы поступили?
00:29
Do you sacrifice one person to save five?
7
29390
3295
Пожертвовали бы одним человеком, чтобы спасти пятерых?
00:32
This is the trolley problem,
8
32685
2729
Это так называемая «Проблема вагонетки» —
00:35
a version of an ethical dilemma that philosopher Philippa Foot devised in 1967.
9
35414
6689
одна из мыслительных задач на этику, сформулированная Филиппой Фут в 1967 году
00:42
It's popular because it forces us to think about how to choose
10
42103
3268
и ставшая популярной, поскольку заставляет задуматься над выбором,
00:45
when there are no good choices.
11
45371
2689
где нет этически правильного ответа.
00:48
Do we pick the action with the best outcome
12
48060
2140
Поступим ли мы наиболее целесообразно
00:50
or stick to a moral code that prohibits causing someone's death?
13
50200
5200
или будем придерживаться моральных норм, которые запрещают убивать?
00:55
In one survey, about 90% of respondents said that it's okay to flip the switch,
14
55400
5437
Согласно одному исследованию, около 90% респондентов посчитали возможным
01:00
letting one worker die to save five,
15
60837
3413
переключить стрелку, чтобы погиб один человек, а не пятеро.
01:04
and other studies, including a virtual reality simulation of the dilemma,
16
64250
4350
Все последующие исследования данной дилеммы,
включая моделирование виртуальной реальности,
01:08
have found similar results.
17
68600
2440
пришли к аналогичным выводам.
01:11
These judgments are consistent with the philosophical principle of utilitarianism
18
71040
5021
Данные суждения полностью укладываются в философскую логику утилитаризма,
01:16
which argues that the morally correct decision
19
76061
2460
согласно которому более верным решением с точки зрения морали
01:18
is the one that maximizes well-being for the greatest number of people.
20
78521
4830
признаётся то, что принесёт пользу большему числу людей.
01:23
The five lives outweigh one,
21
83351
2130
Пять жизней важнее, чем одна,
01:25
even if achieving that outcome requires condemning someone to death.
22
85481
5081
даже если ради них кто-то неминуемо погибнет.
01:30
But people don't always take the utilitarian view,
23
90562
2909
Однако люди не всегда придерживаются утилитаризма.
01:33
which we can see by changing the trolley problem a bit.
24
93471
3591
В этом можно убедиться, если слегка изменить нашу задачу.
01:37
This time, you're standing on a bridge over the track
25
97062
3241
Теперь представьте: вы стои́те на мосту над железнодорожными путями,
01:40
as the runaway trolley approaches.
26
100303
2889
по которым несётся отцепившаяся вагонетка.
Её нельзя повернуть на другой путь,
01:43
Now there's no second track,
27
103192
1681
01:44
but there is a very large man on the bridge next to you.
28
104873
3921
но рядом на мосту стои́т очень толстый человек.
01:48
If you push him over, his body will stop the trolley,
29
108794
3698
Если столкнуть его с моста, то своим телом он остановит вагонетку,
01:52
saving the five workers,
30
112492
1751
жизни пятерых рабочих будут спасены,
01:54
but he'll die.
31
114243
1790
но он погибнет.
01:56
To utilitarians, the decision is exactly the same,
32
116033
3399
Для утилитаристов ответ прежний:
01:59
lose one life to save five.
33
119432
2550
пожертвовать одной жизнью, но спасти пять.
02:01
But in this case, only about 10% of people
34
121982
2602
Однако в данном случае только 10% опрошенных
02:04
say that it's OK to throw the man onto the tracks.
35
124584
3869
посчитали приемлемым бросить человека под колёса поезда.
02:08
Our instincts tell us that deliberately causing someone's death
36
128453
3461
Инстинктивно мы понимаем, что намеренное лишение кого-то жизни
02:11
is different than allowing them to die as collateral damage.
37
131914
4389
неравнозначно смерти в результате «побочного эффекта».
02:16
It just feels wrong for reasons that are hard to explain.
38
136303
4650
Этот поступок кажется аморальным, но трудно объяснить, почему.
02:20
This intersection between ethics and psychology
39
140953
2520
«Проблема вагонетки» находится на стыке этики и психологии,
02:23
is what's so interesting about the trolley problem.
40
143473
3131
и этим она особенно интересна.
02:26
The dilemma in its many variations reveal that what we think is right or wrong
41
146604
4380
Дилемма и её разные версии демонстрируют, что наши представления о добре и зле
02:30
depends on factors other than a logical weighing of the pros and cons.
42
150984
5361
зависят от различных факторов, а не логического анализа всех за и против.
02:36
For example, men are more likely than women
43
156345
2490
Например, мужчины скорее, чем женщины,
02:38
to say it's okay to push the man over the bridge.
44
158835
3669
согласятся столкнуть толстяка с моста.
02:42
So are people who watch a comedy clip before doing the thought experiment.
45
162504
4490
Согласятся и те, кто до ответа на вопрос исследования
посмотрел какой-нибудь смешной ролик.
02:46
And in one virtual reality study,
46
166994
2171
В результате моделирования виртуальной реальности выяснилось,
02:49
people were more willing to sacrifice men than women.
47
169165
3779
что испытуемые легче соглашались пожертвовать мужчинами, чем женщинами.
02:52
Researchers have studied the brain activity
48
172944
2270
Учёные также проследили за деятельностью мозга испытуемых,
02:55
of people thinking through the classic and bridge versions.
49
175214
4321
отвечавших на вопросы классической версии и версии с мостом.
02:59
Both scenarios activate areas of the brain involved in conscious decision-making
50
179535
4519
В результате обоих сценариев активизируются зоны мозга,
отвечающие за осознанное принятие решений
03:04
and emotional responses.
51
184054
2460
и эмоциональные реакции.
03:06
But in the bridge version, the emotional response is much stronger.
52
186514
4461
Но в версии с мостом эмоциональная реакция была намного ярче.
03:10
So is activity in an area of the brain
53
190975
2219
Также активнее вела себя зона мозга,
03:13
associated with processing internal conflict.
54
193194
3690
отвечающая за решение внутренних конфликтов.
03:16
Why the difference?
55
196884
1261
Так в чём же разница?
03:18
One explanation is that pushing someone to their death feels more personal,
56
198145
4767
Согласно одному объяснению, толкая кого-то на смерть,
человек более лично воспринимает этот поступок,
03:22
activating an emotional aversion to killing another person,
57
202912
4013
активируя эмоциональное отвращение к совершению убийства.
03:26
but we feel conflicted because we know it's still the logical choice.
58
206925
4499
Однако возникает внутренний конфликт, поскольку логика — на стороне убийства.
03:31
"Trolleyology" has been criticized by some philosophers and psychologists.
59
211424
4981
Философы и психологи не раз критиковали исследования «проблемы вагонетки».
03:36
They argue that it doesn't reveal anything because its premise is so unrealistic
60
216405
4861
Они утверждают,
что эксперимент ничего не доказывает, поскольку он далёк от реальности
03:41
that study participants don't take it seriously.
61
221266
4159
и испытуемые не воспринимают его всерьёз.
03:45
But new technology is making this kind of ethical analysis
62
225425
3131
Но в результате научного прогресса подобного рода этические дилеммы
03:48
more important than ever.
63
228556
2142
становятся всё более насущными.
03:50
For example, driver-less cars may have to handle choices
64
230698
3338
Например, возможно, скоро выбор будут делать беспилотные автомобили,
03:54
like causing a small accident to prevent a larger one.
65
234036
3971
запрограммированные на совершение небольшой аварии,
чтобы не попасть в крупное ДТП.
03:58
Meanwhile, governments are researching autonomous military drones
66
238007
3619
А военные всерьёз подумывают над разработкой автономных боевых дронов,
04:01
that could wind up making decisions of whether they'll risk civilian casualties
67
241626
4350
которым предстоит решать, рисковать ли жизнью гражданского населения
04:05
to attack a high-value target.
68
245976
3300
ради поражения важной стратегической цели.
04:09
If we want these actions to be ethical,
69
249276
1921
Если мы хотим оправдать их действия с точки зрения этики,
04:11
we have to decide in advance how to value human life
70
251197
4200
нам придётся решить заранее, как оценивать жизнь человека
04:15
and judge the greater good.
71
255397
2270
и как судить о том, что более ценно.
04:17
So researchers who study autonomous systems
72
257667
2440
Поэтому исследователи автономных систем тесно сотрудничают с философами
04:20
are collaborating with philosophers
73
260107
2100
04:22
to address the complex problem of programming ethics into machines,
74
262207
5421
в решении сложных проблем программирования этики машин.
04:27
which goes to show that even hypothetical dilemmas
75
267628
3329
Это лишний раз доказывает, что даже умозрительные дилеммы
04:30
can wind up on a collision course with the real world.
76
270957
4101
могут входить в коллизии с реальной жизнью.
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7