Would you sacrifice one person to save five? - Eleanor Nelsen

5,161,800 views ・ 2017-01-12

TED-Ed


אנא לחץ פעמיים על הכתוביות באנגלית למטה כדי להפעיל את הסרטון.

מתרגם: Ido Dekkers מבקר: Roni Ravia
00:06
Imagine you're watching a runaway trolley barreling down the tracks
0
6949
4572
דמיינו שאתם צופים בקרונית שדוהרת ללא שליטה במורד המסילה,
00:11
straight towards five workers who can't escape.
1
11521
4440
הישר לעבר חמישה עובדים שלא יכולים לברוח.
00:15
You happen to be standing next to a switch
2
15961
2218
אתם במקרה עומדים ליד מסוט
00:18
that will divert the trolley onto a second track.
3
18179
3501
שיכול להסיט את הקרונית למסילה שניה.
00:21
Here's the problem.
4
21680
1300
הנה הבעיה.
00:22
That track has a worker on it, too, but just one.
5
22980
5089
על המסילה הזו גם כן יש עובד, אבל רק אחד.
00:28
What do you do?
6
28069
1321
מה אתם עושים?
00:29
Do you sacrifice one person to save five?
7
29390
3295
האם אתם מקריבים אדם אחד כדי להציל חמישה?
00:32
This is the trolley problem,
8
32685
2729
זוהי בעיית הקרונית,
00:35
a version of an ethical dilemma that philosopher Philippa Foot devised in 1967.
9
35414
6689
גרסה של דילמה אתית שהפילוסופית פיליפה פוט העלתה ב 1967.
00:42
It's popular because it forces us to think about how to choose
10
42103
3268
היא פופולרית בגלל שהיא מכריחה אותנו לחשוב איך לבחור
00:45
when there are no good choices.
11
45371
2689
בהיעדר אופציות טובות.
00:48
Do we pick the action with the best outcome
12
48060
2140
האם אנחנו בוחרים בפעולה עם התוצאה הטובה ביותר
00:50
or stick to a moral code that prohibits causing someone's death?
13
50200
5200
או דובקים בקוד המורלי שאוסר גרימת מוות של אדם?
00:55
In one survey, about 90% of respondents said that it's okay to flip the switch,
14
55400
5437
בסקר אחד, כ-90% מהמשיבים אמרו שזה בסדר להסיט את המסוט,
01:00
letting one worker die to save five,
15
60837
3413
לתת לעובד אחד למות כדי להציל חמישה,
01:04
and other studies, including a virtual reality simulation of the dilemma,
16
64250
4350
ומחקרים אחרים, כולל סימולציה של מציאות מדומה של הדילמה,
01:08
have found similar results.
17
68600
2440
הראו תוצאות דומות.
01:11
These judgments are consistent with the philosophical principle of utilitarianism
18
71040
5021
שיקולי דעת אלו הם עקביים עם העקרון הפילוסופי, תועלתנות.
01:16
which argues that the morally correct decision
19
76061
2460
שטוען שההחלטה הנכונה מבחינה מורלית
01:18
is the one that maximizes well-being for the greatest number of people.
20
78521
4830
היא זו שמביאה את הטוב הרב ביותר למספר הגדול ביותר של אנשים.
01:23
The five lives outweigh one,
21
83351
2130
חייהם של חמישה שווים יותר מאלו של אדם אחד,
01:25
even if achieving that outcome requires condemning someone to death.
22
85481
5081
אפילו אם משיגים זאת ע״י הריגת אדם אחר.
01:30
But people don't always take the utilitarian view,
23
90562
2909
אבל אנשים לא תמיד לוקחים את נקודת המבט התועלתנית,
01:33
which we can see by changing the trolley problem a bit.
24
93471
3591
כפי שניתן לראות ע״י שינוי קל של בעיית הקרונית.
01:37
This time, you're standing on a bridge over the track
25
97062
3241
הפעם, אתם עומדים על גשר מעל המסילה
01:40
as the runaway trolley approaches.
26
100303
2889
כשאותה קרונית מתקרבת.
01:43
Now there's no second track,
27
103192
1681
עכשיו אין מסילה שניה,
01:44
but there is a very large man on the bridge next to you.
28
104873
3921
אבל יש איש רחב מימדים על הגשר לידכם.
01:48
If you push him over, his body will stop the trolley,
29
108794
3698
אם תדחפו אותו, הגוף שלו יעצור את הקרונית,
01:52
saving the five workers,
30
112492
1751
ויציל את חמשת העובדים,
01:54
but he'll die.
31
114243
1790
אבל הוא עצמו ימות.
01:56
To utilitarians, the decision is exactly the same,
32
116033
3399
עבור התועלתנים, ההחלטה היא זהה,
01:59
lose one life to save five.
33
119432
2550
הקרבת חיי אדם אחד כדי להציל חמישה.
02:01
But in this case, only about 10% of people
34
121982
2602
אבל במקרה הזה, רק כ-10% מהאנשים
02:04
say that it's OK to throw the man onto the tracks.
35
124584
3869
אומרים שזה בסדר לזרוק את האדם על המסילה.
02:08
Our instincts tell us that deliberately causing someone's death
36
128453
3461
האינסטינקטים שלנו אומרים לנו שגרימת מוות בכוונה תחילה
02:11
is different than allowing them to die as collateral damage.
37
131914
4389
זה לא אותו דבר כמו לתת למישהו למות כנזק משני.
02:16
It just feels wrong for reasons that are hard to explain.
38
136303
4650
זה פשוט מרגיש לא נכון מסיבות שקשה להסביר.
02:20
This intersection between ethics and psychology
39
140953
2520
החיתוך בין אתיקה ופסיכולוגיה
02:23
is what's so interesting about the trolley problem.
40
143473
3131
הוא הדבר הכ״כ מעניין בבעיית הקרונית.
02:26
The dilemma in its many variations reveal that what we think is right or wrong
41
146604
4380
הדילמה בוריאציות הרבות שלה חושפת שמה שאנחנו חושבים כנכון או לא נכון
02:30
depends on factors other than a logical weighing of the pros and cons.
42
150984
5361
תלוי גם בגורמים שהם מעבר לשיקולים לוגיים של בעד ונגד.
02:36
For example, men are more likely than women
43
156345
2490
לדוגמה, גברים נוטים יותר מנשים
02:38
to say it's okay to push the man over the bridge.
44
158835
3669
להגיד שזה בסדר לדחוף את האדם מהגשר.
02:42
So are people who watch a comedy clip before doing the thought experiment.
45
162504
4490
כך גם אנשים שצופים בקליפ קומי לפני הניסוי המחשבתי.
02:46
And in one virtual reality study,
46
166994
2171
ובמחקר מציאות מדומה אחד,
02:49
people were more willing to sacrifice men than women.
47
169165
3779
אנשים היו יותר מוכנים להקריב גברים מלהקריב נשים.
02:52
Researchers have studied the brain activity
48
172944
2270
חוקרים ערכו מחקר על פעילות המוח
02:55
of people thinking through the classic and bridge versions.
49
175214
4321
של אנשים ששוקלים את שתי הגרסאות, הגרסה הקלאסית וגרסת הגשר.
02:59
Both scenarios activate areas of the brain involved in conscious decision-making
50
179535
4519
שני המקרים מפעילים אזורים במוח שמעורבים בקבלת החלטות מודעת
03:04
and emotional responses.
51
184054
2460
ובתגובות רגשיות.
03:06
But in the bridge version, the emotional response is much stronger.
52
186514
4461
אבל במקרה הגשר, התגובה הרגשית חזקה בהרבה.
03:10
So is activity in an area of the brain
53
190975
2219
כך גם הפעילות באזור במוח
03:13
associated with processing internal conflict.
54
193194
3690
המעורב עיבוד קונפליקט פנימי.
03:16
Why the difference?
55
196884
1261
למה קיים הבדל?
03:18
One explanation is that pushing someone to their death feels more personal,
56
198145
4767
הסבר אחד הוא שמעשה דחיפת אדם למותו מרגיש יותר אישי,
03:22
activating an emotional aversion to killing another person,
57
202912
4013
ומפעיל סלידה נפשית מהריגת אדם,
03:26
but we feel conflicted because we know it's still the logical choice.
58
206925
4499
אבל הסיבה שאנחנו חצויים היא משום שאנחנו יודעים שזו עדיין הבחירה ההגיונית.
03:31
"Trolleyology" has been criticized by some philosophers and psychologists.
59
211424
4981
דילמת הקרונית ספגה ביקורת על ידי מספר פילוסופים ופסיכולוגים.
03:36
They argue that it doesn't reveal anything because its premise is so unrealistic
60
216405
4861
הם טוענים שהיא אינה חושפת דבר בגלל שהנחת היסוד שלה היא כ״כ לא ריאלית
03:41
that study participants don't take it seriously.
61
221266
4159
שמשתתפים במחקר לא לוקחים אותה ברצינות.
03:45
But new technology is making this kind of ethical analysis
62
225425
3131
אבל טכנולוגיה חדשה גורמת לסוג ניתוח אתי שכזה
03:48
more important than ever.
63
228556
2142
להיות חשוב יותר מאי פעם.
03:50
For example, driver-less cars may have to handle choices
64
230698
3338
לדוגמה, מכוניות ללא נהג אולי יצרכו לבצע בחירות
03:54
like causing a small accident to prevent a larger one.
65
234036
3971
כמו גרימת תאונה קטנה לשם מניעת תאונה גדולה יותר.
03:58
Meanwhile, governments are researching autonomous military drones
66
238007
3619
בינתיים, ממשלות עובדות על פיתוח של רחפנים צבאיים אוטונומיים
04:01
that could wind up making decisions of whether they'll risk civilian casualties
67
241626
4350
העלולים להיות מסוגלים להחליט האם להסתכן בפגיעה באזרחים
04:05
to attack a high-value target.
68
245976
3300
לשם תקיפת מטרה בעלת חשיבות.
04:09
If we want these actions to be ethical,
69
249276
1921
אם אנחנו רוצים שההחלטות האלו יהיו אתיות,
04:11
we have to decide in advance how to value human life
70
251197
4200
אנחנו חייבים להחליט מראש איך להעריך חיי אדם
04:15
and judge the greater good.
71
255397
2270
ואיך לשפוט את טובת הכלל.
04:17
So researchers who study autonomous systems
72
257667
2440
אז חוקרים שעורכים מחקר על מערכות אוטונומיות,
04:20
are collaborating with philosophers
73
260107
2100
משתפים פעולה עם פילוסופים
04:22
to address the complex problem of programming ethics into machines,
74
262207
5421
כדי לדון בבעיה המורכבת של תיכנות אתיקה לתוך מכונות,
04:27
which goes to show that even hypothetical dilemmas
75
267628
3329
דבר המראה שאפילו דילמות היפוטטיות
04:30
can wind up on a collision course with the real world.
76
270957
4101
עלולות למצוא את עצמן במסלול התנגשות עם העולם האמיתי.
על אתר זה

אתר זה יציג בפניכם סרטוני YouTube המועילים ללימוד אנגלית. תוכלו לראות שיעורי אנגלית המועברים על ידי מורים מהשורה הראשונה מרחבי העולם. לחץ פעמיים על הכתוביות באנגלית המוצגות בכל דף וידאו כדי להפעיל את הסרטון משם. הכתוביות גוללות בסנכרון עם הפעלת הווידאו. אם יש לך הערות או בקשות, אנא צור איתנו קשר באמצעות טופס יצירת קשר זה.

https://forms.gle/WvT1wiN1qDtmnspy7