The ethical dilemma of self-driving cars - Patrick Lin

2,078,144 views ・ 2015-12-08

TED-Ed


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: Farnaz Saghafi Reviewer: soheila Jafari
00:07
This is a thought experiment.
0
7246
2042
این یک آزمایش شیوه تفکر است.
00:09
Let's say at some point in the not so distant future,
1
9288
2625
چطوره بگوییم در آینده ای نه چندان دور،
00:11
you're barreling down the highway in your self-driving car,
2
11913
3583
در خودرو بدون راننده خود (راننده اتوماتیک) در اتوبان قل خورده و می روید،
00:15
and you find yourself boxed in on all sides by other cars.
3
15496
4292
و وسط خودروهای دیگر در اطرافتان گیر افتادید.
00:19
Suddenly, a large, heavy object falls off the truck in front of you.
4
19788
4416
ناگهان، یک شیء بزرگ سنگین از کامیون روبرویی جلوی شما می افتد.
00:24
Your car can't stop in time to avoid the collision,
5
24204
3167
خودرو شما نمی تواند توقفی به موقع داشته تا ازبرخورد جلوگیری کند،
00:27
so it needs to make a decision:
6
27371
2042
بنابراین باید تصمیمی بگیرد:
00:29
go straight and hit the object,
7
29413
2250
مستقیم رفته و با شیء برخورد کند،
00:31
swerve left into an SUV,
8
31663
2291
به چپ به سمت SUV (شاسی بلند) منحرف شود،
00:33
or swerve right into a motorcycle.
9
33954
3000
یا به راست به سمت موتور منحرف شود.
00:36
Should it prioritize your safety by hitting the motorcycle,
10
36954
3500
آیا جان شما را اولویت قرار داده و به موتور سوار برخورد کند،
00:40
minimize danger to others by not swerving,
11
40454
2792
با منحرف نشدن خطر را به حداقل برساند،
00:43
even if it means hitting the large object and sacrificing your life,
12
43246
4083
حتی اگر به معنی برخورد با شیء بزرگ و فدا کردن جان شما باشد،
00:47
or take the middle ground by hitting the SUV,
13
47329
2750
یا حد وسط را در نظر گرفته وبا SUV برخورد کند، ،
00:50
which has a high passenger safety rating?
14
50079
3000
که میزان ایمنی سرنشین بالاتری دارد؟
00:53
So what should the self-driving car do?
15
53079
3208
پس خودرو با رانندگی اتوماتیک چکار باید بکند؟
00:56
If we were driving that boxed in car in manual mode,
16
56287
3209
اگر ما در شرایط رانندگی معمولی در اون شرایط گیر افتاده بودیم،
00:59
whichever way we'd react would be understood as just that,
17
59496
3541
هر راهی که عکس العمل نشان می دادیم قابل درک بود،
01:03
a reaction,
18
63037
1292
یک عکس العمل،
01:04
not a deliberate decision.
19
64329
2250
نه یک تصمیم سنجیده و حساب شده.
01:06
It would be an instinctual panicked move with no forethought or malice.
20
66579
4292
اون یک حرکت غریزی از روی ترس است بدون دوراندیشی یا بدخواهی.
01:10
But if a programmer were to instruct the car to make the same move,
21
70871
3625
اما اگر یک برنامه نویس قرار باشد عکس العملهای مشابه را به خودرو تعلیم دهد،
01:14
given conditions it may sense in the future,
22
74496
2833
که به شرایط معین در آینده حساس باشد،
01:17
well, that looks more like premeditated homicide.
23
77329
4292
خُب، این یک خودکشی عمدی بنظر می آید.
01:21
Now, to be fair,
24
81621
1000
حالا، منصفانه بگوییم،
01:22
self-driving cars are predicted to dramatically reduce traffic accidents
25
82621
4083
پیش بینی می شود خودروهای با راننده اتوماتیک به میزان قابل ملاحظه ای از حوادث رانندگی
01:26
and fatalities
26
86704
1250
و جان باختن می کاهند
01:27
by removing human error from the driving equation.
27
87954
3167
اینکار با حذف اشتباهات انسانی از معادله رانندگی است.
01:31
Plus, there may be all sorts of other benefits:
28
91121
2375
بعلاوه، کلی فواید دیگر نیز ممکن است:
01:33
eased road congestion,
29
93496
1667
کاهش تراکم جاده ای،
01:35
decreased harmful emissions,
30
95163
1541
کاهش نشتی های مضر،
01:36
and minimized unproductive and stressful driving time.
31
96704
4625
و به حداقل رساندن زمان رانندگی پر استرس و بی حاصل.
01:41
But accidents can and will still happen,
32
101329
2167
اما حوادث همچنان رخ می دهند،
01:43
and when they do,
33
103496
1167
و وقتی رخ بدهند،
01:44
their outcomes may be determined months or years in advance
34
104663
4500
شاید بتوان نتایج آنها را ماهها یا سالها جلوتر محاسبه کرد
01:49
by programmers or policy makers.
35
109163
2583
توسط برنامه نویسان و سیاست گذاران.
01:51
And they'll have some difficult decisions to make.
36
111746
2500
و آنها میبایست تصمیمات سختی را بگیرند.
01:54
It's tempting to offer up general decision-making principles,
37
114246
2958
وسوسه انگیزه که اصول کلی تصمیم گیری را ارئه دهیم
01:57
like minimize harm,
38
117204
1875
مثل حداقل رساندن خسارت،
01:59
but even that quickly leads to morally murky decisions.
39
119079
3375
اما حتی آنهم بسرعت به تصمیمات مشکوک اخلاقی منجرمی شود.
02:02
For example,
40
122454
1167
بعنوان مثال،
02:03
let's say we have the same initial set up,
41
123621
2000
فرض کنیم ترکیب اولیه مشابهی داریم،
02:05
but now there's a motorcyclist wearing a helmet to your left
42
125621
2875
اما حالا موتورسوار سمت چپ شما کلاه ایمنی دارد
02:08
and another one without a helmet to your right.
43
128496
2792
و موتورسوار دیگری در سمت راست شما کلاه ایمنی ندارد.
02:11
Which one should your robot car crash into?
44
131288
3083
خودرو رباتی شما به کدام یک می بایست برخورد کند؟
02:14
If you say the biker with the helmet because she's more likely to survive,
45
134371
4083
اگر بگویید موتورسوار با کلاه ایمنی چون شانس زنده ماندن بیشتری دارد،
02:18
then aren't you penalizing the responsible motorist?
46
138454
2917
اونوقت یک موتورسوار مسئول را تنبیه میکنید؟
02:21
If, instead, you save the biker without the helmet
47
141371
2750
اگر، در عوض، موتورسوار بدون کلاه ایمنی را
02:24
because he's acting irresponsibly,
48
144121
2000
بدلیل رفتار غیرمسئولانه اش نجات دادید،
02:26
then you've gone way beyond the initial design principle about minimizing harm,
49
146121
4875
پس بسیار فراتر از اصول اولیه طرح مبنی بر حداقل رساندن خسارت رفته اید،
02:30
and the robot car is now meting out street justice.
50
150996
3875
و خودرو رباتی در حال اشاعه عدالت در خیابانهاست.
02:34
The ethical considerations get more complicated here.
51
154871
3542
ملاحظات اخلاقی در اینجا پیچیده تر می گردد.
02:38
In both of our scenarios,
52
158413
1375
در هر دو سناریوی ما،
02:39
the underlying design is functioning as a targeting algorithm of sorts.
53
159788
4500
طرح زیربنایی بعنوان الگوریتم پیش بینی شده، آنهم چه الگوریتمی، عمل می کند.
02:44
In other words,
54
164288
1000
به بیان دیگر،
02:45
it's systematically favoring or discriminating
55
165288
2500
بطور سیستماتیکی یا به نفع یا بر ضد
02:47
against a certain type of object to crash into.
56
167788
3500
یکنوع شیء خاص برای برخورد، عمل می کند.
02:51
And the owners of the target vehicles
57
171288
2333
و صاحبان وسایل نقلیه مورد هدف
02:53
will suffer the negative consequences of this algorithm
58
173621
3042
از نتایج منفی این الگوریم لطمه می خورند
02:56
through no fault of their own.
59
176663
2083
بدون اینکه مقصر باشند.
02:58
Our new technologies are opening up many other novel ethical dilemmas.
60
178746
4667
فن آوریهای جدید ما، تجلی دیگر محظوریتهای اخلاقی بدیع هستند.
03:03
For instance, if you had to choose between
61
183413
2083
بعنوان مثال، اگر قرار بود بین دو خودرو انتخاب کنید
03:05
a car that would always save as many lives as possible in an accident,
62
185496
4042
یکی که همیشه تا حد امکان جان افراد بیشتری را در سانحه نجات می دهد،
03:09
or one that would save you at any cost,
63
189538
3041
و آن یکی که به هر قیمتی که شده جان شما را نجات می دهد،
03:12
which would you buy?
64
192579
1667
کدامیک را می خریدید؟
03:14
What happens if the cars start analyzing and factoring in
65
194246
3333
چی اتفاقی می افتد اگر خودرو ها شروع به تحلیل و فاکتورسازی
03:17
the passengers of the cars and the particulars of their lives?
66
197579
3459
سرنشینان خودروها و جزئیات زندگی آنها بپردازند؟
03:21
Could it be the case that a random decision
67
201038
2166
آیا امکان این وجود دارد که یک تصمیم اتفاقی
03:23
is still better than a predetermined one designed to minimize harm?
68
203204
4917
هنوز هم بهتر از یک تصمیم از پیش تعیین شده که برای حداقل رساندن خسارت طراحی شده، باشد؟
03:28
And who should be making all of these decisions anyhow?
69
208121
2667
و بالاخره چه کسی باید تمامی این تصمیمات را انجام دهد؟
03:30
Programmers? Companies? Governments?
70
210829
2709
برنامه نویسان؟
شرکتها؟
دولتها؟
03:34
Reality may not play out exactly like our thought experiments,
71
214121
3458
ممکن است واقعیت دقیقا طبق تجربیات ذهنی ما عمل نکند،
03:37
but that's not the point.
72
217579
1667
اما نکته این نیست.
03:39
They're designed to isolate and stress test our intuitions on ethics,
73
219246
4333
آنها اینطور طراحی شدند تا بینش ما در مورد اصول اخلاقی را جدا و تست استرس کنند،
03:43
just like science experiments do for the physical world.
74
223579
3000
درست مثل آزمایشات علمی از جهان فیزیکی.
03:46
Spotting these moral hairpin turns now
75
226579
3375
یافتن چنین پیچهای تند اخلاقی در حال حاضر
03:49
will help us maneuver the unfamiliar road of technology ethics,
76
229954
3584
به ما کمک خواهد کرد تا مانوری در مسیرهای ناآشنای اصول اخلاقی تکنولوژی انجام داده،
03:53
and allow us to cruise confidently and conscientiously
77
233538
3750
و به ما اجازه خواهد داد تا با اطمینان خاطر و با وجدان
03:57
into our brave new future.
78
237288
2375
در آینده جدید بی پروای خود گشت بزنیم.
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7