The ethical dilemma of self-driving cars - Patrick Lin

2,001,332 views ・ 2015-12-08

TED-Ed


אנא לחץ פעמיים על הכתוביות באנגלית למטה כדי להפעיל את הסרטון.

מתרגם: Ido Dekkers מבקר: Tal Dekkers
00:07
This is a thought experiment.
0
7246
2042
זה ניסוי מחשבתי,
00:09
Let's say at some point in the not so distant future,
1
9288
2625
בואו נדמיין נקודה בעתיד הלא כל כך רחוק,
00:11
you're barreling down the highway in your self-driving car,
2
11913
3583
בה אתם דוהרים במורד הכביש המהיר במכונית הנוהגת בעצמה שלכם,
00:15
and you find yourself boxed in on all sides by other cars.
3
15496
4292
ואתם מוצאים את עצמכם לכודים מכל הכיוונים על ידי מכוניות אחרות.
00:19
Suddenly, a large, heavy object falls off the truck in front of you.
4
19788
4416
פתאום, עצם גדול וכבד נופל מהמשאית לפניכם.
00:24
Your car can't stop in time to avoid the collision,
5
24204
3167
המכונית שלכם לא יכולה לעצור בזמן כדי להמנע מהתנגשות,
00:27
so it needs to make a decision:
6
27371
2042
לכן היא צריכה לעשות החלטה:
00:29
go straight and hit the object,
7
29413
2250
להמשיך ישר ולפגוע בעצם,
00:31
swerve left into an SUV,
8
31663
2291
לסטות שמאלה לתוך רכב שטח,
00:33
or swerve right into a motorcycle.
9
33954
3000
או לסטות ימינה לתוך אופנוע.
00:36
Should it prioritize your safety by hitting the motorcycle,
10
36954
3500
האים היא צריכה להעדיף את הבטיחות שלכם על ידי פגיעה באופנוע,
00:40
minimize danger to others by not swerving,
11
40454
2792
להקטין את הסכנה לאחרים על ידי כך שתמשיך ישר,
00:43
even if it means hitting the large object and sacrificing your life,
12
43246
4083
אפילו אם זה אומר פגיעה בעצם גדול ולהקריב את חייכם,
00:47
or take the middle ground by hitting the SUV,
13
47329
2750
או לקחת את הדרך האמצעית ולפגוע ברכב השטח,
00:50
which has a high passenger safety rating?
14
50079
3000
שיש לו דרוג בטיחות גבוה?
00:53
So what should the self-driving car do?
15
53079
3208
אז מה מכונית הנהיגה העצמית היתה עושה?
00:56
If we were driving that boxed in car in manual mode,
16
56287
3209
אם אנחנו היינו נוהגים במכונית הלכודה הזו במצב ידני,
00:59
whichever way we'd react would be understood as just that,
17
59496
3541
בכל דרך שנגיב זה יובן בדיוק כך,
01:03
a reaction,
18
63037
1292
תגובה,
01:04
not a deliberate decision.
19
64329
2250
לא החלטה מוכוונת.
01:06
It would be an instinctual panicked move with no forethought or malice.
20
66579
4292
זו תהיה תנועה אינסטינקטיבית של פאניקה ללא חשיבה מוקדמת או כוונת זדון.
01:10
But if a programmer were to instruct the car to make the same move,
21
70871
3625
אבל אם מתכנת היה מורה למכונית לעשות את אותה פעולה,
01:14
given conditions it may sense in the future,
22
74496
2833
בהתחשב בתנאים שהיא תחוש בעתיד,
01:17
well, that looks more like premeditated homicide.
23
77329
4292
ובכן, זה נראה יותר כמו רצח בכוונה תחילה.
01:21
Now, to be fair,
24
81621
1000
עכשיו, כדי להיות הוגנים,
01:22
self-driving cars are predicted to dramatically reduce traffic accidents
25
82621
4083
מכוניות שנוהגות בעצמן צפויות להפחית באופן דרמטי את תאונות הדרכים
01:26
and fatalities
26
86704
1250
ואת הקורבנות
01:27
by removing human error from the driving equation.
27
87954
3167
על ידי הסרת טעות אנוש ממשוואת הנהיגה.
01:31
Plus, there may be all sorts of other benefits:
28
91121
2375
ועוד, אולי יהיו עוד כל מיני תועלות אחרות:
01:33
eased road congestion,
29
93496
1667
הקלה בעומס בכבישים,
01:35
decreased harmful emissions,
30
95163
1541
הפחתת פליטות מזהמות,
01:36
and minimized unproductive and stressful driving time.
31
96704
4625
והפחתה בזמן נהיגה לא פרודוקטיבי ומלחיץ.
01:41
But accidents can and will still happen,
32
101329
2167
אבל תאונות יכולות עדיין להתרחש והן יתרחשו,
01:43
and when they do,
33
103496
1167
וכשהן יתרחשו,
01:44
their outcomes may be determined months or years in advance
34
104663
4500
התוצאה שלהן אולי תקבע חודשים או שנים מראש
01:49
by programmers or policy makers.
35
109163
2583
על ידי מתכנתים או קובעי מדיניות.
01:51
And they'll have some difficult decisions to make.
36
111746
2500
ויהיו להם כמה החלטות קשות לעשות.
01:54
It's tempting to offer up general decision-making principles,
37
114246
2958
זה מפתה להציע עקרונות קבלת החלטות כלליים,
01:57
like minimize harm,
38
117204
1875
כמו להפחית פגיעה,
01:59
but even that quickly leads to morally murky decisions.
39
119079
3375
אבל אפילו זה מוביל במהירות להחלטות עכורות מוראלית.
02:02
For example,
40
122454
1167
לדוגמה,
02:03
let's say we have the same initial set up,
41
123621
2000
בואו נגיד שיש לנו את אותה נקודת התחלה,
02:05
but now there's a motorcyclist wearing a helmet to your left
42
125621
2875
אבל עכשיו יש אופנוענית שחובשת קסדה לשמאלכם
02:08
and another one without a helmet to your right.
43
128496
2792
ואחרת בלי קסדה לימינכם.
02:11
Which one should your robot car crash into?
44
131288
3083
באיזה מהם הרובוט שלכם יתנגש?
02:14
If you say the biker with the helmet because she's more likely to survive,
45
134371
4083
אם הייתם אומרים באופנוענית עם הקסדה מפני שיש לה יותר סיכוי לשרוד,
02:18
then aren't you penalizing the responsible motorist?
46
138454
2917
אז אתם לא מענישים את הרוכבת האחראית?
02:21
If, instead, you save the biker without the helmet
47
141371
2750
אם במקום, תצילו את האופנוען בלי הקסדה
02:24
because he's acting irresponsibly,
48
144121
2000
בגלל שהוא לא נוהג בחוסר אחריות,
02:26
then you've gone way beyond the initial design principle about minimizing harm,
49
146121
4875
אז עברתם הרבה מעבר לעקרונות התכנון הראשוניים בנוגע להפחתת פגיעה,
02:30
and the robot car is now meting out street justice.
50
150996
3875
והמכונית הרובוטית מבצעת עכשיו צדק רחוב.
02:34
The ethical considerations get more complicated here.
51
154871
3542
השיקולים האתיים נעשים יותר מסובכים פה.
02:38
In both of our scenarios,
52
158413
1375
בשני המקרים,
02:39
the underlying design is functioning as a targeting algorithm of sorts.
53
159788
4500
התכנון המובנה פועל כאלגוריתם כיוונון מסוג שהוא.
02:44
In other words,
54
164288
1000
במילים אחרות,
02:45
it's systematically favoring or discriminating
55
165288
2500
זו העדפה או אפליה שיטתית
02:47
against a certain type of object to crash into.
56
167788
3500
נגד סוג מסויים של עצם להתנגש בו.
02:51
And the owners of the target vehicles
57
171288
2333
והבעלים של רכב המטרה
02:53
will suffer the negative consequences of this algorithm
58
173621
3042
יסבול מהתוצאות השליליות של האלגוריתם
02:56
through no fault of their own.
59
176663
2083
לא באשמתם.
02:58
Our new technologies are opening up many other novel ethical dilemmas.
60
178746
4667
הטכנולוגיות החדשות פותחות הרבה דילמות אתיות חדשות אחרות.
03:03
For instance, if you had to choose between
61
183413
2083
לדוגמה, אם הייתם צריכים לבחור בין
03:05
a car that would always save as many lives as possible in an accident,
62
185496
4042
מכונית שתמיד תציל חיים רבים ככל האפשר בתאונה,
03:09
or one that would save you at any cost,
63
189538
3041
או אחת שתציל אתכם בכל מחיר,
03:12
which would you buy?
64
192579
1667
איזו תקנו?
03:14
What happens if the cars start analyzing and factoring in
65
194246
3333
מה קורה אם המכונית מתחילה לנתח ולשקלל
03:17
the passengers of the cars and the particulars of their lives?
66
197579
3459
את הנוסעים של מכוניות והפרטים על חייהם?
03:21
Could it be the case that a random decision
67
201038
2166
האם זה יכול להיות המקרה שהחלטה אקראית
03:23
is still better than a predetermined one designed to minimize harm?
68
203204
4917
עדיין טובה יותר מאחת קבועה מראש שמתוכננת להפחית פגיעה?
03:28
And who should be making all of these decisions anyhow?
69
208121
2667
ומי צריך לעשות את כל ההחלטות האלו בכל אופן?
03:30
Programmers? Companies? Governments?
70
210829
2709
תוכניתנים?
חברות?
ממשלות?
03:34
Reality may not play out exactly like our thought experiments,
71
214121
3458
המציאות אולי לא תתרחש בדיוק כמו הניסויים המחשבתיים שלנו,
03:37
but that's not the point.
72
217579
1667
אבל זו לא הנקודה.
03:39
They're designed to isolate and stress test our intuitions on ethics,
73
219246
4333
הן מתוכננות לבודד ולבדוק תחת לחץ את האינטואיציה שלנו והאתיקה,
03:43
just like science experiments do for the physical world.
74
223579
3000
ממש כמו ניסויים מדעיים בעולם האמיתי.
03:46
Spotting these moral hairpin turns now
75
226579
3375
לזהות את הסיבובים החדים המורליים האלו עכשיו
03:49
will help us maneuver the unfamiliar road of technology ethics,
76
229954
3584
יעזור לנו לנווט בדרך הלא מוכרת של אתיקה טכנולוגית,
03:53
and allow us to cruise confidently and conscientiously
77
233538
3750
ולאפשר לנו לשייט בבטחון ובהכרה
03:57
into our brave new future.
78
237288
2375
לעתיד האמיץ והחדש שלנו.
על אתר זה

אתר זה יציג בפניכם סרטוני YouTube המועילים ללימוד אנגלית. תוכלו לראות שיעורי אנגלית המועברים על ידי מורים מהשורה הראשונה מרחבי העולם. לחץ פעמיים על הכתוביות באנגלית המוצגות בכל דף וידאו כדי להפעיל את הסרטון משם. הכתוביות גוללות בסנכרון עם הפעלת הווידאו. אם יש לך הערות או בקשות, אנא צור איתנו קשר באמצעות טופס יצירת קשר זה.

https://forms.gle/WvT1wiN1qDtmnspy7