The ethical dilemma of self-driving cars - Patrick Lin

1,993,681 views ・ 2015-12-08

TED-Ed


Toista video kaksoisnapsauttamalla alla olevaa englanninkielistä tekstitystä.

Kääntäjä: Marja Oilinki Oikolukija: Ulla Vainio
00:07
This is a thought experiment.
0
7246
2042
Tämä on ajatuskoe.
00:09
Let's say at some point in the not so distant future,
1
9288
2625
Kuvittele, että jossain vaiheessa lähitulevaisuudessa
00:11
you're barreling down the highway in your self-driving car,
2
11913
3583
ajat itseohjautuvalla autolla valtatietä
00:15
and you find yourself boxed in on all sides by other cars.
3
15496
4292
ja huomaat olevasi muiden autojen välissä.
00:19
Suddenly, a large, heavy object falls off the truck in front of you.
4
19788
4416
Yhtäkkiä raskas esine tipahtaa edelläsi kulkevasta rekasta eteesi.
00:24
Your car can't stop in time to avoid the collision,
5
24204
3167
Autosi ei voi pysähtyä ajoissa välttääkseen törmäystä,
00:27
so it needs to make a decision:
6
27371
2042
joten sen on tehtävä päätös:
00:29
go straight and hit the object,
7
29413
2250
mennä suoraan esinettä päin
00:31
swerve left into an SUV,
8
31663
2291
kaarrettava vasemmalla olevaan citymaasturiin
00:33
or swerve right into a motorcycle.
9
33954
3000
tai oikealle moottoriåyötää päin.
00:36
Should it prioritize your safety by hitting the motorcycle,
10
36954
3500
Pitäisikö sen priorisoida sinun etuasi törmäämällä moottoripyörään.
00:40
minimize danger to others by not swerving,
11
40454
2792
minimoida muiden vahinkoja pysymällä kaistalla,
00:43
even if it means hitting the large object and sacrificing your life,
12
43246
4083
vaikka se tarkoittaisi törmäämistä ja sinun elämäsi uhraamista,
00:47
or take the middle ground by hitting the SUV,
13
47329
2750
vai törmätä maasturiin,
00:50
which has a high passenger safety rating?
14
50079
3000
jolla on korkein luokitus matkustajaturvallisuudessa?
00:53
So what should the self-driving car do?
15
53079
3208
Mitä siis itseohjautuvan auton tulisi tehdä?
00:56
If we were driving that boxed in car in manual mode,
16
56287
3209
Jos ajaisimme autoa itse,
00:59
whichever way we'd react would be understood as just that,
17
59496
3541
reaktiomme ymmärrettäisiin juuri sellaisena,
01:03
a reaction,
18
63037
1292
eli reaktiona,
01:04
not a deliberate decision.
19
64329
2250
ei tietoisena päätöksenä.
01:06
It would be an instinctual panicked move with no forethought or malice.
20
66579
4292
Se tulkittaisiin paniikinomaisena liikkeenä ilman pahaa tarkoitusta.
01:10
But if a programmer were to instruct the car to make the same move,
21
70871
3625
Mutta jos ohjelmoija antaa autolle ohjeet samaan liikkeeseen
01:14
given conditions it may sense in the future,
22
74496
2833
määrittäen ehdot, joita se voi kohdata tulevaisuudessa,
01:17
well, that looks more like premeditated homicide.
23
77329
4292
se alkaisi näyttää enemmän harkitulta murhalta.
01:21
Now, to be fair,
24
81621
1000
Ollaksemme reiluja:
01:22
self-driving cars are predicted to dramatically reduce traffic accidents
25
82621
4083
itseohjautuvien autojen on ennustettu vähentävän onnettomuuksia dramaattisesti,
01:26
and fatalities
26
86704
1250
samoin kuolemia,
01:27
by removing human error from the driving equation.
27
87954
3167
poistamalla yhtälöstä inhimillisen erehdyksen.
01:31
Plus, there may be all sorts of other benefits:
28
91121
2375
Niistä voi olla myös muunlaista hyötyä:
01:33
eased road congestion,
29
93496
1667
sujuvampaa liikennettä,
01:35
decreased harmful emissions,
30
95163
1541
päästöjen vähentymistä.
01:36
and minimized unproductive and stressful driving time.
31
96704
4625
ja vähemmän tuottamatonta ja stressaavaa ajoaikaa.
01:41
But accidents can and will still happen,
32
101329
2167
Onnettomuuksia voi silti tapahtua, ja tapahtuu,
01:43
and when they do,
33
103496
1167
ja kun niin käy,
01:44
their outcomes may be determined months or years in advance
34
104663
4500
lopputuloksen on ehkä määritellyt kuukausia tai vuosia sitten
01:49
by programmers or policy makers.
35
109163
2583
ohjelmoija tai päättäjä.
01:51
And they'll have some difficult decisions to make.
36
111746
2500
Heillä on edessään vaikeita päätöksiä.
01:54
It's tempting to offer up general decision-making principles,
37
114246
2958
On houkuttavaa tarjota yleisiä päätöksentekoperiaatteita,
01:57
like minimize harm,
38
117204
1875
kuten haitan minimointia,
01:59
but even that quickly leads to morally murky decisions.
39
119079
3375
mutta jopa tämä johtaa pian moraalisesti hämäriin päätöksiin.
02:02
For example,
40
122454
1167
Esimerkiksi
02:03
let's say we have the same initial set up,
41
123621
2000
oletetaan lähtötilanne muuten samaksi,
02:05
but now there's a motorcyclist wearing a helmet to your left
42
125621
2875
mutta nyt vasemmalla on kypäräpäinen moottoripyöräilijä
02:08
and another one without a helmet to your right.
43
128496
2792
ja oikealla kypärätön.
02:11
Which one should your robot car crash into?
44
131288
3083
Kumpaan robottiautosi tulisi törmätä?
02:14
If you say the biker with the helmet because she's more likely to survive,
45
134371
4083
Jos valitset kypäräpäisen siksi, että hän selviytyy todennäköisemmin,
02:18
then aren't you penalizing the responsible motorist?
46
138454
2917
etkö silloin rankaise vastuullista motoristia?
02:21
If, instead, you save the biker without the helmet
47
141371
2750
Jos taas valitset kypärättä ajavan pyöräilijän,
02:24
because he's acting irresponsibly,
48
144121
2000
koska hän käyttäytyy vastuuttomasti,
02:26
then you've gone way beyond the initial design principle about minimizing harm,
49
146121
4875
olet kaukana alkuperäisestä ohjeesta vanhinkojen minimoimisesta
02:30
and the robot car is now meting out street justice.
50
150996
3875
ja robottiauto harjoittaakin nyt katuoikeutta.
02:34
The ethical considerations get more complicated here.
51
154871
3542
Eettinen pohdinta mutkistuu.
02:38
In both of our scenarios,
52
158413
1375
Molemmissa skenaarioissa
02:39
the underlying design is functioning as a targeting algorithm of sorts.
53
159788
4500
suunnitelma perustuu kohteen luokittelualgoritmiin.
02:44
In other words,
54
164288
1000
Toisin sanoen
02:45
it's systematically favoring or discriminating
55
165288
2500
se systemaattisesti suosii tai syrjii
02:47
against a certain type of object to crash into.
56
167788
3500
tiettyjä kohteita törmäystilanteessa.
02:51
And the owners of the target vehicles
57
171288
2333
Kohdeajoneuvojen kuljettajat
02:53
will suffer the negative consequences of this algorithm
58
173621
3042
kärsivät näiden algoritmien kielteiset seuraukset
02:56
through no fault of their own.
59
176663
2083
ilman omaa syytään.
02:58
Our new technologies are opening up many other novel ethical dilemmas.
60
178746
4667
Teknologiamme avaa tien uusille eettisille dilemmoille.
03:03
For instance, if you had to choose between
61
183413
2083
Esimerkiksi jos sinun on valittava
03:05
a car that would always save as many lives as possible in an accident,
62
185496
4042
auto, joka aina pelastaisi onnettomuudessa mahdollisimman monta elämä,
03:09
or one that would save you at any cost,
63
189538
3041
tai auto, joka pelastaisi aina sinut,
03:12
which would you buy?
64
192579
1667
kumman ostaisit?
03:14
What happens if the cars start analyzing and factoring in
65
194246
3333
Mitä tapahtuu, jos auto alkaa analysoida ja arvioida
03:17
the passengers of the cars and the particulars of their lives?
66
197579
3459
auton matkustajien elämien arvoa?
03:21
Could it be the case that a random decision
67
201038
2166
Voiko sattumaan perustuva päätös
03:23
is still better than a predetermined one designed to minimize harm?
68
203204
4917
ollakin parempi kuin ennalta haitan minimoimiseen perustuva päätös?
03:28
And who should be making all of these decisions anyhow?
69
208121
2667
Ja kenelle nämä päätökset kuuluvat?
03:30
Programmers? Companies? Governments?
70
210829
2709
Ohjelmoijille?
Yrityksille?
Hallituksille?
03:34
Reality may not play out exactly like our thought experiments,
71
214121
3458
Todellisuus ei aina toimi kuten ajatuskokeemme,
03:37
but that's not the point.
72
217579
1667
mutta se ei ole tärkeää.
03:39
They're designed to isolate and stress test our intuitions on ethics,
73
219246
4333
Niiden avulla voi eristää ja testata eettisiä intuitioitamme,
03:43
just like science experiments do for the physical world.
74
223579
3000
kuten tieteelliset kokeet testaavat fyysistä maailmaa.
03:46
Spotting these moral hairpin turns now
75
226579
3375
Kun huomaamme näitä moraalisia käänteitä nyt,
03:49
will help us maneuver the unfamiliar road of technology ethics,
76
229954
3584
se auttaa kulkemaan teknologian etiikan uusilla poluilla
03:53
and allow us to cruise confidently and conscientiously
77
233538
3750
ja kuljettaa meidät varmasti ja tietoisesti
03:57
into our brave new future.
78
237288
2375
kohti uljasta uutta tulevaisuutta.
Tietoja tästä verkkosivustosta

Tällä sivustolla esitellään YouTube-videoita, jotka ovat hyödyllisiä englannin oppimisessa. Näet englannin oppitunteja, joita opettavat huippuluokan opettajat ympäri maailmaa. Kaksoisnapsauta kullakin videosivulla näkyvää englanninkielistä tekstitystä, niin voit toistaa videon sieltä. Tekstitykset vierivät synkronoidusti videon toiston kanssa. Jos sinulla on kommentteja tai toiveita, ota meihin yhteyttä käyttämällä tätä yhteydenottolomaketta.

https://forms.gle/WvT1wiN1qDtmnspy7