The ethical dilemma of self-driving cars - Patrick Lin

2,001,332 views ・ 2015-12-08

TED-Ed


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Eren Gokce Gözden geçirme: Sancak Gülgen
00:07
This is a thought experiment.
0
7246
2042
Bu bir düşünce deneyi.
00:09
Let's say at some point in the not so distant future,
1
9288
2625
Diyelim ki gelecekte, çok da uzak olmayan bir noktada,
00:11
you're barreling down the highway in your self-driving car,
2
11913
3583
sürücüsüz arabanızla otoyolda hızla giderken
00:15
and you find yourself boxed in on all sides by other cars.
3
15496
4292
diğer arabalar sizi dört bir yandan çeviriyor.
00:19
Suddenly, a large, heavy object falls off the truck in front of you.
4
19788
4416
Birden önünüzdeki tırdan büyük, ağır bir nesne düşüyor.
00:24
Your car can't stop in time to avoid the collision,
5
24204
3167
Arabanız çarpışmadan kaçınmak için zamanında duramaz,
00:27
so it needs to make a decision:
6
27371
2042
o yüzden bir karar vermesi lazım:
00:29
go straight and hit the object,
7
29413
2250
Düz gidip nesneye çarpmak,
00:31
swerve left into an SUV,
8
31663
2291
soldaki cipin üzerine kırmak
00:33
or swerve right into a motorcycle.
9
33954
3000
veya sağdaki motosikletin üzerine kırmak.
00:36
Should it prioritize your safety by hitting the motorcycle,
10
36954
3500
Motosiklete çarparak güvenliğinize öncelik mi vermeli,
00:40
minimize danger to others by not swerving,
11
40454
2792
yandakilere doğru kırmayarak tehlikeyi mi azaltmalı,
00:43
even if it means hitting the large object and sacrificing your life,
12
43246
4083
büyük nesneye çarparak hayatınızı feda etmeniz anlamına gelse bile,
00:47
or take the middle ground by hitting the SUV,
13
47329
2750
yoksa yolcu güvenlik puanlaması yüksek olan
00:50
which has a high passenger safety rating?
14
50079
3000
cipe çarparak orta yolu mu seçmeli?
00:53
So what should the self-driving car do?
15
53079
3208
Bu durumda sürücüsüz araba ne yapmalı?
00:56
If we were driving that boxed in car in manual mode,
16
56287
3209
Eğer arabanın içinde manuel olarak biz sürüyor olsaydık,
00:59
whichever way we'd react would be understood as just that,
17
59496
3541
ne şekilde reaksiyon vereceğimiz,
01:03
a reaction,
18
63037
1292
kasıtlı bir karar
01:04
not a deliberate decision.
19
64329
2250
olarak değil, bir reaksiyon olarak görülürdü.
01:06
It would be an instinctual panicked move with no forethought or malice.
20
66579
4292
Önceden düşünce veya kasıt olmayan içgüdüsel bir panik hareketi olurdu.
01:10
But if a programmer were to instruct the car to make the same move,
21
70871
3625
Ama bir programcı arabaya gelecekte hissettiği koşulları göz önüne alarak
01:14
given conditions it may sense in the future,
22
74496
2833
aynı hareketi yapmasını emrederse,
01:17
well, that looks more like premeditated homicide.
23
77329
4292
bu önceden tasarlanmış bir cinayete benzer.
01:21
Now, to be fair,
24
81621
1000
Adil olmak gerekirse,
01:22
self-driving cars are predicted to dramatically reduce traffic accidents
25
82621
4083
sürücüsüz arabaların sürüş denkleminden insan hatasını kaldırarak
01:26
and fatalities
26
86704
1250
trafik kazalarını
01:27
by removing human error from the driving equation.
27
87954
3167
ve ölümleri dramatik olarak azaltacağı öngörülüyor.
01:31
Plus, there may be all sorts of other benefits:
28
91121
2375
Artı, belki başka yararları da var:
01:33
eased road congestion,
29
93496
1667
Rahatlayan trafik sıkışıklığı,
01:35
decreased harmful emissions,
30
95163
1541
düşen zararlı emisyonlar,
01:36
and minimized unproductive and stressful driving time.
31
96704
4625
azalan verimsiz ve stresli sürüş zamanı.
01:41
But accidents can and will still happen,
32
101329
2167
Ama kazalar olabilir ve hâlâ olacaktır;
01:43
and when they do,
33
103496
1167
olduğu zamansa,
01:44
their outcomes may be determined months or years in advance
34
104663
4500
sonuçları programcılar veya karar alıcılar tarafından
01:49
by programmers or policy makers.
35
109163
2583
aylar veya yıllar önce belirlenebilir.
01:51
And they'll have some difficult decisions to make.
36
111746
2500
Bazı zor kararlar vermeleri gerek.
01:54
It's tempting to offer up general decision-making principles,
37
114246
2958
Zararı azaltmak gibi genel karar alma prensiplerini
01:57
like minimize harm,
38
117204
1875
koymaları cazip gelmekle birlikte,
01:59
but even that quickly leads to morally murky decisions.
39
119079
3375
bu bile hemen etiksel olarak belirsiz kararlara yol açıyor.
02:02
For example,
40
122454
1167
Örneğin,
02:03
let's say we have the same initial set up,
41
123621
2000
aynı başlangıç kurulumuna sahibiz diyelim,
02:05
but now there's a motorcyclist wearing a helmet to your left
42
125621
2875
ama şimdi solunuzda kask giymiş bir motosikletçi var
02:08
and another one without a helmet to your right.
43
128496
2792
ve sağınızda ise kask giymemiş bir motosikletçi var.
02:11
Which one should your robot car crash into?
44
131288
3083
Robot arabanız hangisine çarpmalı?
02:14
If you say the biker with the helmet because she's more likely to survive,
45
134371
4083
Eğer yaşaması daha muhtemel diye kasklı motosikletçiye derseniz,
02:18
then aren't you penalizing the responsible motorist?
46
138454
2917
o zaman sorumluluk sahibi olan motosikletçiyi cezalandırmıyor musunuz?
02:21
If, instead, you save the biker without the helmet
47
141371
2750
Eğer onun yerine sorumsuzca hareket ettiği için
02:24
because he's acting irresponsibly,
48
144121
2000
kasksız motosikletçiyi kurtarırsanız,
02:26
then you've gone way beyond the initial design principle about minimizing harm,
49
146121
4875
o zaman zararı azaltma konusundaki ilk tasarım prensibinin çok ötesine geçtiniz
02:30
and the robot car is now meting out street justice.
50
150996
3875
ve robot araba artık yol adaletini pay etmiş olur.
02:34
The ethical considerations get more complicated here.
51
154871
3542
Burada etik düşünceler daha karmaşık hâle geliyor.
02:38
In both of our scenarios,
52
158413
1375
Her iki senaryomuzda da,
02:39
the underlying design is functioning as a targeting algorithm of sorts.
53
159788
4500
altta yatan tasarım sözde hedeflenen algoritma olarak işliyor.
02:44
In other words,
54
164288
1000
Diğer bir deyişle,
02:45
it's systematically favoring or discriminating
55
165288
2500
çarpmak için belli türde bir nesneyi
02:47
against a certain type of object to crash into.
56
167788
3500
sistemli olarak kayırıyor veya ayrım yapıyor.
02:51
And the owners of the target vehicles
57
171288
2333
Hedef araçların sahipleri ise
02:53
will suffer the negative consequences of this algorithm
58
173621
3042
kendi hataları olmadan bu algoritmanın olumsuz
02:56
through no fault of their own.
59
176663
2083
sonuçlarına katlanacak.
02:58
Our new technologies are opening up many other novel ethical dilemmas.
60
178746
4667
Yeni teknolojilerimiz pek çok değişik etiksel ikileme yol açıyor.
03:03
For instance, if you had to choose between
61
183413
2083
Örneğin, bir kazada hep mümkün olan
03:05
a car that would always save as many lives as possible in an accident,
62
185496
4042
en çok hayatı kurtaran ile ne olursa olsun
03:09
or one that would save you at any cost,
63
189538
3041
sizi kurtaran bir araba arasında seçim yapmak zorunda kalsanız
03:12
which would you buy?
64
192579
1667
hangisini alırdınız?
03:14
What happens if the cars start analyzing and factoring in
65
194246
3333
Eğer arabalar analiz etmeye ve arabaların yolcularını ve
03:17
the passengers of the cars and the particulars of their lives?
66
197579
3459
onların hayatlarının ayrıntılarını dâhil etmeye başlarsa ne olur?
03:21
Could it be the case that a random decision
67
201038
2166
Rastgele bir kararın, zararı azaltmak için
03:23
is still better than a predetermined one designed to minimize harm?
68
203204
4917
tasarlanmış, önceden belirlenen bir karardan daha iyi olması hâlâ mümkün mü?
03:28
And who should be making all of these decisions anyhow?
69
208121
2667
Bütün bu kararları bir şekilde kim veriyor?
03:30
Programmers? Companies? Governments?
70
210829
2709
Programcılar?
Şirketler?
Hükümetler?
03:34
Reality may not play out exactly like our thought experiments,
71
214121
3458
Gerçek tam olarak düşünce deneylerimiz gibi olup bitmeyebilir,
03:37
but that's not the point.
72
217579
1667
ama esas husus bu değil.
03:39
They're designed to isolate and stress test our intuitions on ethics,
73
219246
4333
Etik konusundaki önsezilerimizi soyutlayarak
stres testi yapmak için tasarlandılar,
03:43
just like science experiments do for the physical world.
74
223579
3000
aynı bilim deneylerinin fiziksel dünyaya yaptığı gibi.
03:46
Spotting these moral hairpin turns now
75
226579
3375
Bu ahlak virajlarını şimdi fark etmek,
03:49
will help us maneuver the unfamiliar road of technology ethics,
76
229954
3584
teknoloji etiklerinin bilinmeyen yollarında manevra yapmakta
03:53
and allow us to cruise confidently and conscientiously
77
233538
3750
bize yardımcı olur ve cesur, yeni geleceğimize güvenle
03:57
into our brave new future.
78
237288
2375
ve dikkatlice yol almamızı sağlar.
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7