The ethical dilemma of self-driving cars - Patrick Lin

المعضلة الأخلاقية للسيارات ذاتية القيادة - باتريك لين

2,078,144 views

2015-12-08 ・ TED-Ed


New videos

The ethical dilemma of self-driving cars - Patrick Lin

المعضلة الأخلاقية للسيارات ذاتية القيادة - باتريك لين

2,078,144 views ・ 2015-12-08

TED-Ed


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: Abeer Darweesh المدقّق: muhammad Samir
00:07
This is a thought experiment.
0
7246
2042
هذه تجربة خيالية
00:09
Let's say at some point in the not so distant future,
1
9288
2625
لنقل أنه في مرحلة ما ليست بالبعيدة
00:11
you're barreling down the highway in your self-driving car,
2
11913
3583
أنطلقت على الطريق السريق بسيارتك ذاتية القيادة
00:15
and you find yourself boxed in on all sides by other cars.
3
15496
4292
ووجدت أن سيارك قد اُقفل عليها بالسيارات الأخرى
00:19
Suddenly, a large, heavy object falls off the truck in front of you.
4
19788
4416
وفجأة تسقط عليك مواد كبيرة وثقيلة من الشاحنة التي أمامك
00:24
Your car can't stop in time to avoid the collision,
5
24204
3167
سيارتك لايمكنها التوقف في الوقت المناسب لتجنب الأصطدام
00:27
so it needs to make a decision:
6
27371
2042
وعليها أن تتخذ القرار
00:29
go straight and hit the object,
7
29413
2250
تتجه إلى الأمام وتصطدم بمواد الشاحنة
00:31
swerve left into an SUV,
8
31663
2291
أو تنحرف يساراً بإتجاه سيارات الدفع الرباعي
00:33
or swerve right into a motorcycle.
9
33954
3000
أو تنحرف يميناً بإتجاه الدراجة النارية
00:36
Should it prioritize your safety by hitting the motorcycle,
10
36954
3500
أتكون سلامتك أولويتها وتضرب الدراجة النارية
00:40
minimize danger to others by not swerving,
11
40454
2792
أم تقليل الخطر على الأخرين بعدم الإنحراف
00:43
even if it means hitting the large object and sacrificing your life,
12
43246
4083
حتى لو كان بالإصطدام بالمواد الضخمة والتضحية بحياتك،
00:47
or take the middle ground by hitting the SUV,
13
47329
2750
أو أختيار الحل الأوسط بالإصطدام بسيارات الدفع الرباعي
00:50
which has a high passenger safety rating?
14
50079
3000
أي خيار يحمل معدل نجاة أعلى للراكبين ؟
00:53
So what should the self-driving car do?
15
53079
3208
إذاً ماذا يجب على السيارة ذاتية القيادة أن تفعل ؟
00:56
If we were driving that boxed in car in manual mode,
16
56287
3209
إذا كنا نقود في مثل هذا الزحام على الوضع اليدوي
00:59
whichever way we'd react would be understood as just that,
17
59496
3541
أياً كان تصرفك سيُفهم أنه أتُخذ هكذا ببساطة
01:03
a reaction,
18
63037
1292
ردة فعل
01:04
not a deliberate decision.
19
64329
2250
ليس قراراً مُتعمداً
01:06
It would be an instinctual panicked move with no forethought or malice.
20
66579
4292
سيكون تصرف مذعور بدون أي تفكير مسبق أو تعمد أذي
01:10
But if a programmer were to instruct the car to make the same move,
21
70871
3625
ولكن لو برمج المبرمج السيارة بإتخاذ نفس التصرف
01:14
given conditions it may sense in the future,
22
74496
2833
ظروف معينة قد تُفهم في المستقبل
01:17
well, that looks more like premeditated homicide.
23
77329
4292
حسناً, قد يبدو هذا قتل عمد مع سبق الإصرار
01:21
Now, to be fair,
24
81621
1000
والآن لنكون عادلين
01:22
self-driving cars are predicted to dramatically reduce traffic accidents
25
82621
4083
السيارات ذاتية القيادة متوقع لها أن تقلل كثيراً من حوادث السيارات
01:26
and fatalities
26
86704
1250
والوفيات
01:27
by removing human error from the driving equation.
27
87954
3167
بأستبعاد الأخطاء البشرية من معادلة القيادة
01:31
Plus, there may be all sorts of other benefits:
28
91121
2375
بالإضافة إلى كافة أنواع الفوائد الأخري
01:33
eased road congestion,
29
93496
1667
تخفيف إزدحام الطرق
01:35
decreased harmful emissions,
30
95163
1541
وتخفيض الإنبعاثات الضارة
01:36
and minimized unproductive and stressful driving time.
31
96704
4625
وتقليل من وقت القيادة المتوترة الغير منتجة
01:41
But accidents can and will still happen,
32
101329
2167
ولكن لاتزال هناك إمكانية لوقوع حوادث
01:43
and when they do,
33
103496
1167
وعندما تحدث
01:44
their outcomes may be determined months or years in advance
34
104663
4500
يمكن تحديد نتائجها أشهر أو سنين مقدماً
01:49
by programmers or policy makers.
35
109163
2583
من قبل المبرمجين أو المسؤولين
01:51
And they'll have some difficult decisions to make.
36
111746
2500
وسيكون عليهم إتخاذ بعض القرارات الصعبة
01:54
It's tempting to offer up general decision-making principles,
37
114246
2958
وإنه لمن المغري أن تقدم بعض المبادئ العامة بمسألة إتخاذ القرار
01:57
like minimize harm,
38
117204
1875
مثل تقليل الخطر
01:59
but even that quickly leads to morally murky decisions.
39
119079
3375
ولكن ذلك قد يقود إلى خيارات معتمة أكثر
02:02
For example,
40
122454
1167
على سبيل المثال
02:03
let's say we have the same initial set up,
41
123621
2000
لنتخيل أننا في نفس الموقف السابق
02:05
but now there's a motorcyclist wearing a helmet to your left
42
125621
2875
ولكن الآن يوجد هناك سائقة دراجة نارية ترتدي خوذة إلى يسارك
02:08
and another one without a helmet to your right.
43
128496
2792
وقائد دراجة أخر يقود دراجته بدون خوذة
02:11
Which one should your robot car crash into?
44
131288
3083
أي من السائقين على سيارتك المبرمجة أن تصطدم به؟
02:14
If you say the biker with the helmet because she's more likely to survive,
45
134371
4083
إذا إفترضنا السائقة صاحبة الخوذة لأن إحتمالية نجاتها أعلى
02:18
then aren't you penalizing the responsible motorist?
46
138454
2917
ألست تظلم راكبة الدراجة المهتمة بالسلامة ؟
02:21
If, instead, you save the biker without the helmet
47
141371
2750
وإذا بالمقابل تجنبت راكب الدراجة بدون الخوذة
02:24
because he's acting irresponsibly,
48
144121
2000
لأنه لم يهتم بالسلامة
02:26
then you've gone way beyond the initial design principle about minimizing harm,
49
146121
4875
تكون قد أنحرفت كثيراً عن المبدأ الأول بشأن تقليل الخطر
02:30
and the robot car is now meting out street justice.
50
150996
3875
وتكون سيارتك المبرمجة قد خالفت عدالة الشارع
02:34
The ethical considerations get more complicated here.
51
154871
3542
الأعتبارات الأخلاقية قد تكون أعقد من هذا
02:38
In both of our scenarios,
52
158413
1375
وفي كلا السيناريوهات
02:39
the underlying design is functioning as a targeting algorithm of sorts.
53
159788
4500
التصميم الأساسي يعمل وفق خوارزمية إستهدافية نوعاً ما
02:44
In other words,
54
164288
1000
بكلمات أخرى
02:45
it's systematically favoring or discriminating
55
165288
2500
إنها بشكل مبرمج تفضل أو تميز
02:47
against a certain type of object to crash into.
56
167788
3500
شخص عن أخر أو كائن للإصطدام به
02:51
And the owners of the target vehicles
57
171288
2333
ومالكي المركبات المستهدفة
02:53
will suffer the negative consequences of this algorithm
58
173621
3042
سوف يعانوا من عواقب سلبية بسبب هذه الخوارزمية
02:56
through no fault of their own.
59
176663
2083
بدون أي ذنب إرتكبوه
02:58
Our new technologies are opening up many other novel ethical dilemmas.
60
178746
4667
تقنياتنا الجديدة تفتح العديد من الروايات للمعضلات الأخلاقية
03:03
For instance, if you had to choose between
61
183413
2083
على سبيل المثال إذا كان عليك الإختيار بين
03:05
a car that would always save as many lives as possible in an accident,
62
185496
4042
السيارة المبرمجة على الحفاظ على أكبر قدر من الحيوات في حادث ما
03:09
or one that would save you at any cost,
63
189538
3041
أو تلك التي ستحافظ عليك أنت مهما كلفها
03:12
which would you buy?
64
192579
1667
أي من السيارتين ستشتري ؟
03:14
What happens if the cars start analyzing and factoring in
65
194246
3333
ماذا سيحدث إذا بدأت السيارات بتحليل وحوسبة
03:17
the passengers of the cars and the particulars of their lives?
66
197579
3459
قائدي السيارات وتفاصيل حياتهم
03:21
Could it be the case that a random decision
67
201038
2166
هل سيكون في تلك الحالة قرار إعتباطي
03:23
is still better than a predetermined one designed to minimize harm?
68
203204
4917
هل سيكون قرار أفضل من واحدة محددة سلفاً أن تقلل من الخطر
03:28
And who should be making all of these decisions anyhow?
69
208121
2667
وعلى كل حال من سيكون المسؤول عن صناعة هذه القرارات
03:30
Programmers? Companies? Governments?
70
210829
2709
المبرمجون
الشركات
الحكومات
03:34
Reality may not play out exactly like our thought experiments,
71
214121
3458
الواقع قد لايتماشى مع نتاج خبراتنا
03:37
but that's not the point.
72
217579
1667
ولكن تلك ليست نقطتنا
03:39
They're designed to isolate and stress test our intuitions on ethics,
73
219246
4333
إنها مصممة لتختبر وتجهد حدسنا الأخلاقي
03:43
just like science experiments do for the physical world.
74
223579
3000
تماماً مثل ما تصنع التجارب العلمية في العالم المادي
03:46
Spotting these moral hairpin turns now
75
226579
3375
إكتشاف مثل هذه الأخلاقيات الصعبة يبدأ الآن
03:49
will help us maneuver the unfamiliar road of technology ethics,
76
229954
3584
سيساعدنا في التعامل مع طرق غير معتادة لأخلاقيات التكنولوجيا
03:53
and allow us to cruise confidently and conscientiously
77
233538
3750
وتساعدنا في الإنسياب بثقة وضمير
03:57
into our brave new future.
78
237288
2375
نحو مستقبل جديد وشجاع
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7