What moral decisions should driverless cars make? | Iyad Rahwan

108,201 views ・ 2017-09-08

TED


Norėdami paleisti vaizdo įrašą, dukart spustelėkite žemiau esančius angliškus subtitrus.

Translator: Adele Mikoliunaite Reviewer: Andrius Družinis-Vitkus
00:12
Today I'm going to talk about technology and society.
0
12820
4080
Šiandien kalbėsiu apie technologiją ir visuomenę.
00:18
The Department of Transport estimated that last year
1
18860
3696
Transporto departamentas apskaičiavo, kad praėjusiais metais
00:22
35,000 people died from traffic crashes in the US alone.
2
22580
4080
vien JAV auto įvykiuose žuvo 35 tūkstančiai žmonių.
00:27
Worldwide, 1.2 million people die every year in traffic accidents.
3
27860
4800
Pasaulio mastu kasmet auto įvykiuose žūsta 1,2 milijono žmonių.
00:33
If there was a way we could eliminate 90 percent of those accidents,
4
33580
4096
Jeigu rastumėme būdą išvengti 90 procentų šių įvykių,
00:37
would you support it?
5
37700
1200
ar pritartumėte šiam sprendimui?
00:39
Of course you would.
6
39540
1296
Žinoma pritartumėte.
00:40
This is what driverless car technology promises to achieve
7
40860
3655
Būtent tai ir žada savieigių transporto priemonių technologija,
00:44
by eliminating the main source of accidents --
8
44540
2816
panaikindama esminę auto įvykių priežąstį –
00:47
human error.
9
47380
1200
žmogiškąją klaidą.
00:49
Now picture yourself in a driverless car in the year 2030,
10
49740
5416
Įsivaizduokite save savieigiame automobilyje 2030-iais metais –
00:55
sitting back and watching this vintage TEDxCambridge video.
11
55180
3456
sėdite atsipalaidavę ir žiūrite šį seną įrašą iš TED konferencijos Kembridže.
00:58
(Laughter)
12
58660
2000
(Juokas.)
01:01
All of a sudden,
13
61340
1216
Staiga,
01:02
the car experiences mechanical failure and is unable to stop.
14
62580
3280
automobilyje įvyksta mechaninė klaida ir jis negali sustoti.
01:07
If the car continues,
15
67180
1520
Jei nekeis krypties
01:09
it will crash into a bunch of pedestrians crossing the street,
16
69540
4120
automobilis rėšis į būrį per perėją einančių pėsčiųjų.
01:14
but the car may swerve,
17
74900
2135
Jis taip pat gali pasukti į šalį,
01:17
hitting one bystander,
18
77059
1857
tačiau tuomet partrenks šalikelėje stovintį žmogų,
01:18
killing them to save the pedestrians.
19
78940
2080
kad išgelbėtų penkis pėsčiuosius.
01:21
What should the car do, and who should decide?
20
81860
2600
Kaip automobilis turėtų pasielgti, ir kas turėtų tai nuspręsti?
01:25
What if instead the car could swerve into a wall,
21
85340
3536
O jei automobilis galėtų pasukti ir rėžtis į sieną
01:28
crashing and killing you, the passenger,
22
88900
3296
taip užmušdamas jus – keleivį,
01:32
in order to save those pedestrians?
23
92220
2320
kad išgelbėtų tuos penkis pėsčiuosius?
01:35
This scenario is inspired by the trolley problem,
24
95060
3080
Šį scenarijų įkvėpė vežimėlio problema,
01:38
which was invented by philosophers a few decades ago
25
98780
3776
kurią filosofai sukūrė prieš kelis dešimtmečius,
01:42
to think about ethics.
26
102580
1240
mąstydami apie etiką.
01:45
Now, the way we think about this problem matters.
27
105940
2496
Tai, kaip mes suvokiame šią problemą, yra svarbu.
01:48
We may for example not think about it at all.
28
108460
2616
Galbūt mes visai ir nesistengiame jos suvokti,
01:51
We may say this scenario is unrealistic,
29
111100
3376
sakydami, kad šis scenarijus nėra realistiškas,
01:54
incredibly unlikely, or just silly.
30
114500
2320
ypač mažai tikėtinas ar tiesiog kvailas.
01:57
But I think this criticism misses the point
31
117580
2736
Tačiau aš manau, kad tokia kritika pameta esmę,
02:00
because it takes the scenario too literally.
32
120340
2160
nes priima scenarijų pernelyg tiesiogiai.
02:03
Of course no accident is going to look like this;
33
123740
2736
Žinoma joks įvykis taip neatrodys,
02:06
no accident has two or three options
34
126500
3336
nė vienas įvykis nėra apribotas dviem ar trimis pasirinkimais
02:09
where everybody dies somehow.
35
129860
2000
kuriuose visuose kas nors žūsta.
02:13
Instead, the car is going to calculate something
36
133300
2576
Iš tiesų automobilis suskaičiuos kažką panašaus į tikimybę,
02:15
like the probability of hitting a certain group of people,
37
135900
4896
jog rėšis į tam tikrą žmonių grupę,
02:20
if you swerve one direction versus another direction,
38
140820
3336
jeigu pasuks į vieną, o ne į kitą pusę.
02:24
you might slightly increase the risk to passengers or other drivers
39
144180
3456
Taip galbūt padidindamas keleivių ar kitų vairuotojų riziką
02:27
versus pedestrians.
40
147660
1536
vietoj pėsčiųjų.
02:29
It's going to be a more complex calculation,
41
149220
2160
Tai bus kur kas sudetingesni skaičiavimai,
02:32
but it's still going to involve trade-offs,
42
152300
2520
tačiau jie vis tiek reikalaus kompromisų,
02:35
and trade-offs often require ethics.
43
155660
2880
o kompromisai dažnai reikalauja etikos.
02:39
We might say then, "Well, let's not worry about this.
44
159660
2736
Galime sakyti: „Nesijaudinkime dėl to.
02:42
Let's wait until technology is fully ready and 100 percent safe."
45
162420
4640
Geriau palaukime kol technologija bus pilnai paruošta ir 100-u procentų saugi.“
02:48
Suppose that we can indeed eliminate 90 percent of those accidents,
46
168340
3680
Tarkime, kad galime išvengti 90 procentų šių įvykių,
02:52
or even 99 percent in the next 10 years.
47
172900
2840
ar netgi 99 procentų per ateinančius 10-čia metų.
02:56
What if eliminating the last one percent of accidents
48
176740
3176
O jeigu išvengti to paskutinio procento auto įvykių
02:59
requires 50 more years of research?
49
179940
3120
pareikalaus dar 50 metų tyrimų?
03:04
Should we not adopt the technology?
50
184220
1800
Ar turėtume nesinaudoti šia technologija iki tol?
03:06
That's 60 million people dead in car accidents
51
186540
4776
Tai – 60 milijonų žmonių, žuvusių auto įvykiuose,
03:11
if we maintain the current rate.
52
191340
1760
jei nieko nekeisime.
03:14
So the point is,
53
194580
1216
Esmė tokia,
03:15
waiting for full safety is also a choice,
54
195820
3616
kad visiškai saugios technologijos laukimas taip pat yra pasirinkimas,
03:19
and it also involves trade-offs.
55
199460
2160
ir jis taip pat reikalauja kompromisų.
03:23
People online on social media have been coming up with all sorts of ways
56
203380
4336
Žmonės internete ir socialinėse medijose sugalvojo daugybę būdų,
03:27
to not think about this problem.
57
207740
2016
kaip negalvoti apie šią problemą.
03:29
One person suggested the car should just swerve somehow
58
209780
3216
Vienas žmogus pasiūlė, kad automobilis turėtų tiesiog kažkaip saugiai išlaviruoti
03:33
in between the passengers --
59
213020
2136
tarp pėsčiųjų
03:35
(Laughter)
60
215180
1016
(Juokas.)
03:36
and the bystander.
61
216220
1256
ir stovinčiųjų šalikelėse.
03:37
Of course if that's what the car can do, that's what the car should do.
62
217500
3360
Žinoma, jeigu automobilis gali tai padaryti, jis turėtų taip ir padaryti.
03:41
We're interested in scenarios in which this is not possible.
63
221740
2840
Mums labiau rūpi situacijos, kuriose tokie sprendimai nėra įmanomi.
03:45
And my personal favorite was a suggestion by a blogger
64
225100
5416
Mano mėgstamiausią sprendimą pasiūlė vienas blogeris –
03:50
to have an eject button in the car that you press --
65
230540
3016
automobilyje įdiegti katapulto mygtuką, kurį galima paspausti
03:53
(Laughter)
66
233580
1216
(Juokas.)
03:54
just before the car self-destructs.
67
234820
1667
prieš automobiliui susinaikinant.
03:56
(Laughter)
68
236511
1680
(Juokas.)
03:59
So if we acknowledge that cars will have to make trade-offs on the road,
69
239660
5200
Tad jeigu pripažįstame,
kad automobiliai keliuose privalės priimti kompromisus,
04:06
how do we think about those trade-offs,
70
246020
1880
kaip mums galvoti apie tuos kompromisus,
04:09
and how do we decide?
71
249140
1576
ir kaip nuspręsti?
04:10
Well, maybe we should run a survey to find out what society wants,
72
250740
3136
Galėtume atlikti apklausą, kad išsiaiškintume ko nori visuomenė,
04:13
because ultimately,
73
253900
1456
nes juk nuostatai ir įstatymai – visuomenės vertybių atspindys.
04:15
regulations and the law are a reflection of societal values.
74
255380
3960
04:19
So this is what we did.
75
259860
1240
Būtent tai ir padarėme.
04:21
With my collaborators,
76
261700
1616
Su bendradarbiais
04:23
Jean-François Bonnefon and Azim Shariff,
77
263340
2336
Jean-François Bonnefon ir Azim Shariff
04:25
we ran a survey
78
265700
1616
atlikome apklausą,
04:27
in which we presented people with these types of scenarios.
79
267340
2855
kurioje pateikėme tokio tipo situacijas.
04:30
We gave them two options inspired by two philosophers:
80
270219
3777
Dalyviams davėme du pasirinkimus, įkvėptus dviejų filosofų:
04:34
Jeremy Bentham and Immanuel Kant.
81
274020
2640
Jeremy Bentham ir Immanuel Kant.
04:37
Bentham says the car should follow utilitarian ethics:
82
277420
3096
Bentham teigia, kad automobiliai turėtų sekti utilitarine logika –
04:40
it should take the action that will minimize total harm --
83
280540
3416
priimti bendrai mažiausią žalą darantį sprendimą,
04:43
even if that action will kill a bystander
84
283980
2816
net jei tai užmuštų šalikelėje stovintį žmogų,
04:46
and even if that action will kill the passenger.
85
286820
2440
net jei tai užmuštų keleivį.
04:49
Immanuel Kant says the car should follow duty-bound principles,
86
289940
4976
Immanuel Kant teigia, kad automobilis turėtų sekti pareigos principu,
04:54
like "Thou shalt not kill."
87
294940
1560
tokiu kaip „Nežudyk“.
04:57
So you should not take an action that explicitly harms a human being,
88
297300
4456
Tad neturėtume rinktis sprendimo, kuris tyčia kelia žalą žmogui
05:01
and you should let the car take its course
89
301780
2456
ir automobilis turėtų važiuoti savo keliu,
05:04
even if that's going to harm more people.
90
304260
1960
net jeigu nuo to nukentės daugiau žmonių.
Ką manote jūs?
05:07
What do you think?
91
307460
1200
Bentham ar Kant?
05:09
Bentham or Kant?
92
309180
1520
05:11
Here's what we found.
93
311580
1256
Štai ką išsiaiškinome.
05:12
Most people sided with Bentham.
94
312860
1800
Dauguma žmonių sekė Bentham.
05:15
So it seems that people want cars to be utilitarian,
95
315980
3776
Panašu, kad žmonės nori utilitarinių automobilių,
05:19
minimize total harm,
96
319780
1416
mažinančių bendrą žalą,
05:21
and that's what we should all do.
97
321220
1576
ir mes visi turėtume taip daryti.
05:22
Problem solved.
98
322820
1200
Problema išspręsta.
05:25
But there is a little catch.
99
325060
1480
Bet tai dar ne viskas.
05:27
When we asked people whether they would purchase such cars,
100
327740
3736
Kai paklausėme žmonių, ar jie pirktų tokias mašinas,
05:31
they said, "Absolutely not."
101
331500
1616
jie atsakė: „Tikrų tikriausiai ne.“
05:33
(Laughter)
102
333140
2296
(Juokas.)
05:35
They would like to buy cars that protect them at all costs,
103
335460
3896
Jie nori pirkti automobilius, kurie apsaugos juos bet kokiomis priemonėmis.
05:39
but they want everybody else to buy cars that minimize harm.
104
339380
3616
Tačiau nori, kad visi kiti pirktų automobilius mažinančius bendrą žalą.
05:43
(Laughter)
105
343020
2520
(Juokas.)
05:46
We've seen this problem before.
106
346540
1856
Ši problema nėra nauja.
05:48
It's called a social dilemma.
107
348420
1560
Ji vadinama socialine dilema.
05:50
And to understand the social dilemma,
108
350980
1816
Kad suprastume socialinę dilemą,
05:52
we have to go a little bit back in history.
109
352820
2040
turime žvilgtelti į istoriją.
05:55
In the 1800s,
110
355820
2576
1800-aisiais,
05:58
English economist William Forster Lloyd published a pamphlet
111
358420
3736
anglų ekonomistas William Forster Lloyd išspausdino brošiūrą,
06:02
which describes the following scenario.
112
362180
2216
kuri apibūdino tokią situaciją.
06:04
You have a group of farmers --
113
364420
1656
Turite grupę ūkininkų,
06:06
English farmers --
114
366100
1336
anglų ūkininkų,
06:07
who are sharing a common land for their sheep to graze.
115
367460
2680
kurie dalinasi bendra žeme avims ganytis.
06:11
Now, if each farmer brings a certain number of sheep --
116
371340
2576
Jei kiekvienas ūkininkas atsives tam tikrą skaičių avių,
06:13
let's say three sheep --
117
373940
1496
sakykime tris avis,
06:15
the land will be rejuvenated,
118
375460
2096
žemė atsinaujins,
06:17
the farmers are happy,
119
377580
1216
ūkininkai bus laimingi,
06:18
the sheep are happy,
120
378820
1616
avys – laimingos,
06:20
everything is good.
121
380460
1200
viskas gerai.
06:22
Now, if one farmer brings one extra sheep,
122
382260
2520
Jei vienas ūkininkas atsives viena avimi daugiau,
06:25
that farmer will do slightly better, and no one else will be harmed.
123
385620
4720
šiam ūkininkui seksis truputį geriau ir niekas nuo to nenukentės.
06:30
But if every farmer made that individually rational decision,
124
390980
3640
Bet jei kiekvienas ūkininkas priims tokį individualų ir racionalų sprendimą –
06:35
the land will be overrun, and it will be depleted
125
395660
2720
žemė bus suniokota ir išeikvota,
06:39
to the detriment of all the farmers,
126
399180
2176
sukeldama žalą kitiems ūkininkams
06:41
and of course, to the detriment of the sheep.
127
401380
2120
ir žinoma kitoms avims.
06:44
We see this problem in many places:
128
404540
3680
Šią problemą matome daugelyje sričių:
06:48
in the difficulty of managing overfishing,
129
408900
3176
pernelyg intensyvios žvejybos valdymo sunkumuose
06:52
or in reducing carbon emissions to mitigate climate change.
130
412100
4560
ar siekiant sumažinti anglies dvideginio išmetimą klimato kaitai sušvelninti.
06:58
When it comes to the regulation of driverless cars,
131
418980
2920
Kalbant apie savieigių automobilių nuostatus,
07:02
the common land now is basically public safety --
132
422900
4336
bendra žemė čia yra visuomenės saugumas.
07:07
that's the common good --
133
427260
1240
Tai – visuotinis gėris.
07:09
and the farmers are the passengers
134
429220
1976
Ūkininkai – tai keleviai,
07:11
or the car owners who are choosing to ride in those cars.
135
431220
3600
arba automobilių savininkai, kurie pasirinko naudotis šiais automobiliais.
07:16
And by making the individually rational choice
136
436780
2616
Priimdami individualų racionalų sprendimą –
07:19
of prioritizing their own safety,
137
439420
2816
suteikti pirmenybę savo saugumui
07:22
they may collectively be diminishing the common good,
138
442260
3136
jie kartu naikina visuotinį gėrį –
07:25
which is minimizing total harm.
139
445420
2200
bendros žalos mažinimą.
07:30
It's called the tragedy of the commons,
140
450140
2136
Tai tradiciškai vadinama bendrųjų išteklių tragedija,
07:32
traditionally,
141
452300
1296
07:33
but I think in the case of driverless cars,
142
453620
3096
tačiau kalbant apie savieigius automobilius, aš manau,
07:36
the problem may be a little bit more insidious
143
456740
2856
problema yra šiek tiek klastingesnė,
07:39
because there is not necessarily an individual human being
144
459620
3496
nes nebūtinai tai bus individualūs asmenys
07:43
making those decisions.
145
463140
1696
priimantys šiuos sprendimus.
07:44
So car manufacturers may simply program cars
146
464860
3296
Automobilių gamintojai
galbūt paprasčiausiai užprogramuos automobilius taip,
07:48
that will maximize safety for their clients,
147
468180
2520
kad jie užtikrintų maksimalų saugumą jų klientams.
07:51
and those cars may learn automatically on their own
148
471900
2976
Ir automobiliai galbūt patys išmoks,
07:54
that doing so requires slightly increasing risk for pedestrians.
149
474900
3520
kad toks veiksmas reikalauja padidinti pėsčiųjų riziką.
07:59
So to use the sheep metaphor,
150
479340
1416
Grįžtant prie avių metaforos,
08:00
it's like we now have electric sheep that have a mind of their own.
151
480780
3616
įsivaizduokite, kad šios avys – elektrinės ir turi sąmonę.
08:04
(Laughter)
152
484420
1456
(Juokas.)
08:05
And they may go and graze even if the farmer doesn't know it.
153
485900
3080
Taigi jos eis ir ganysis, net jeigu jų ūkininkas ir nežino apie tai.
08:10
So this is what we may call the tragedy of the algorithmic commons,
154
490460
3976
Būtent tai vadiname algoritmine bendrumo tragedija
08:14
and if offers new types of challenges.
155
494460
2360
ir tai kelia naujus iššūkius.
08:22
Typically, traditionally,
156
502340
1896
Paprastai, tradiciškai
08:24
we solve these types of social dilemmas using regulation,
157
504260
3336
tokias socialines problemas sprendžiame nuostatų pagalba.
08:27
so either governments or communities get together,
158
507620
2736
Kai vyriausybės ar bendruomenės susiburia
08:30
and they decide collectively what kind of outcome they want
159
510380
3736
ir kartu nusprendžia, kokio rezultato siekti
08:34
and what sort of constraints on individual behavior
160
514140
2656
ir kokius individualaus elgesio apribojimus
08:36
they need to implement.
161
516820
1200
reikėtų pritaikyti.
08:39
And then using monitoring and enforcement,
162
519420
2616
Tuomet per stebėjimą ir veiksmus
08:42
they can make sure that the public good is preserved.
163
522060
2559
jie gali užtikrinti visuotinį gėrį.
08:45
So why don't we just,
164
525260
1575
Tad kodėl mums, reguliuotojams,
08:46
as regulators,
165
526859
1496
nepareikalavus,
08:48
require that all cars minimize harm?
166
528379
2897
kad automobiliai sumažintų žalą?
08:51
After all, this is what people say they want.
167
531300
2240
Juk tai yra būtent tai, ko žmonės sako, kad nori.
08:55
And more importantly,
168
535020
1416
Bet svarbiausia,
08:56
I can be sure that as an individual,
169
536460
3096
tokiu būdu aš, kaip asmuo,
08:59
if I buy a car that may sacrifice me in a very rare case,
170
539580
3856
pirkdamas automobilį, kuris paaukos mane itin retoje situacijoje,
09:03
I'm not the only sucker doing that
171
543460
1656
nebūsiu vienintelis toks nevykėlis,
09:05
while everybody else enjoys unconditional protection.
172
545140
2680
kol visi kiti mėgausis besąlygiška apsauga.
09:08
In our survey, we did ask people whether they would support regulation
173
548940
3336
Savo apklausoje,
mes klausėme žmonių, ar jie palaikytų tokias nuostatas
09:12
and here's what we found.
174
552300
1200
ir štai ką atradome.
09:14
First of all, people said no to regulation;
175
554180
3760
Visų pirma, žmonės nesutiko su tokiomis nuostatomis,
09:19
and second, they said,
176
559100
1256
ir antra, jie sakė:
09:20
"Well if you regulate cars to do this and to minimize total harm,
177
560380
3936
„Jeigu jūs reguliuosite automobilių veiksmus bendrai žalai mažinti,
09:24
I will not buy those cars."
178
564340
1480
aš nepirksiu tokių automobilių.“
09:27
So ironically,
179
567220
1376
Ironiška,
09:28
by regulating cars to minimize harm,
180
568620
3496
bet reguliuodami automobilius bendrai žalai mažinti,
09:32
we may actually end up with more harm
181
572140
1840
rezultate galbūt turėsime daugiau žalos,
09:34
because people may not opt into the safer technology
182
574860
3656
nes žmonės nesirinks saugesnės technologijos,
09:38
even if it's much safer than human drivers.
183
578540
2080
net jeigu ji ir yra kur kas saugesnė už žmones vairuotojus.
09:42
I don't have the final answer to this riddle,
184
582180
3416
Aš neturiu galutinio šios mįslės sprendimo.
09:45
but I think as a starting point,
185
585620
1576
Tačiau manau, kad pirmiausia
09:47
we need society to come together
186
587220
3296
mes, visuomenė, turime susiburti
09:50
to decide what trade-offs we are comfortable with
187
590540
2760
ir nuspręsti, kokius kompromisus esame pasirengę priimti
09:54
and to come up with ways in which we can enforce those trade-offs.
188
594180
3480
ir surasti būdus, kuriais galėtume šiuos kompromisus pritaikyti.
09:58
As a starting point, my brilliant students,
189
598340
2536
Pirmąjį žingsnį žengė mano puikūs studentai
10:00
Edmond Awad and Sohan Dsouza,
190
600900
2456
Edmond Awad ir Sohan Dsouza
10:03
built the Moral Machine website,
191
603380
1800
sukurdami Moral Machine (ang. moralinė mašina) tinklapį,
10:06
which generates random scenarios at you --
192
606020
2680
kuris generuoja atsitiktines situacijas,
10:09
basically a bunch of random dilemmas in a sequence
193
609900
2456
tiesiog daugybę atsitiktinių dilemų paeiliui.
10:12
where you have to choose what the car should do in a given scenario.
194
612380
3920
Ir jūs turite nuspręsti, kaip automobilis turėtų pasielgti duotoje situacijoje.
10:16
And we vary the ages and even the species of the different victims.
195
616860
4600
Situacijose mes keičiame aukų amžių ir netgi rūšį.
10:22
So far we've collected over five million decisions
196
622860
3696
Šiuo metu turime surinkę virš penkių milijonų sprendimų
10:26
by over one million people worldwide
197
626580
2200
iš daugiau nei milijono žmonių visame pasaulyje,
10:30
from the website.
198
630220
1200
šio tinklapio dėka.
10:32
And this is helping us form an early picture
199
632180
2416
Ši informacija padeda mums susidaryti ankstyvą įspūdį
10:34
of what trade-offs people are comfortable with
200
634620
2616
apie tai, kokius kompromisus žmonės yra pasirengę priimti,
10:37
and what matters to them --
201
637260
1896
ir kas jiems rūpi,
10:39
even across cultures.
202
639180
1440
visose kultūrose.
10:42
But more importantly,
203
642060
1496
Tačiau svarbiausia yra tai,
10:43
doing this exercise is helping people recognize
204
643580
3376
kad toks pratimas padeda žmonėms suvokti
10:46
the difficulty of making those choices
205
646980
2816
kokie sudėtingi yra šie sprendimai,
10:49
and that the regulators are tasked with impossible choices.
206
649820
3800
ir kokius neįmanomas užduotis turi atlikti reguliuotojai.
10:55
And maybe this will help us as a society understand the kinds of trade-offs
207
655180
3576
Galbūt tai padės mums, kaip visuomenei, suprasti kokie kompromisai
10:58
that will be implemented ultimately in regulation.
208
658780
3056
galiausiai bus pritaikyti realybėje.
11:01
And indeed, I was very happy to hear
209
661860
1736
Nudžiugau išgirdęs,
11:03
that the first set of regulations
210
663620
2016
kad į pirmuosius Transporto departamento išleistus nuostatus,
11:05
that came from the Department of Transport --
211
665660
2136
11:07
announced last week --
212
667820
1376
paskelbtus praėjusią savaitę,
11:09
included a 15-point checklist for all carmakers to provide,
213
669220
6576
buvo įtrauktas ir 15-os punktų kontrolinis sąrašas,
skirtas automobilių gamintojams.
11:15
and number 14 was ethical consideration --
214
675820
3256
14-as punktas jame – etikos klausimas –
11:19
how are you going to deal with that.
215
679100
1720
kaip ketinate tai spręsti.
11:23
We also have people reflect on their own decisions
216
683620
2656
Mes taip pat skatiname žmones pagalvoti apie savo pačių sprendimus
11:26
by giving them summaries of what they chose.
217
686300
3000
pateikdami jiems jų pasirinkimų santraukas.
11:30
I'll give you one example --
218
690260
1656
Duosiu jums vieną pavyzdį.
11:31
I'm just going to warn you that this is not your typical example,
219
691940
3536
Tik įspėju, tai nėra įprastas pavyzdys
11:35
your typical user.
220
695500
1376
ir tai nėra įprastas vartotojas.
11:36
This is the most sacrificed and the most saved character for this person.
221
696900
3616
Tai – šio dalyvio dažniausiai išgelbėtas ir dažniausiai užmuštas personažai.
11:40
(Laughter)
222
700540
5200
(Juokas.)
11:46
Some of you may agree with him,
223
706500
1896
Kai kurie jūsų galbūt sutiks su juo
11:48
or her, we don't know.
224
708420
1640
ar ja, mes nežinome.
11:52
But this person also seems to slightly prefer passengers over pedestrians
225
712300
6136
Tačiau šis asmuo savo pasirinkimuose
išreiškia nestiprų polinkį gelbėti keleivius vietoj pėsčiųjų
11:58
in their choices
226
718460
2096
12:00
and is very happy to punish jaywalking.
227
720580
2816
ir mėgsta bausti einančius per raudoną.
12:03
(Laughter)
228
723420
3040
(Juokas.)
12:09
So let's wrap up.
229
729140
1216
Apibendrinant,
12:10
We started with the question -- let's call it the ethical dilemma --
230
730379
3416
mes pradėjome klausimu, pavadinkime tai etikos dilema,
12:13
of what the car should do in a specific scenario:
231
733820
3056
ką tam tikroje situacijoje turėtų daryti automobilis –
12:16
swerve or stay?
232
736900
1200
keisti kryptį ar ne?
12:19
But then we realized that the problem was a different one.
233
739060
2736
Tačiau tuomet suvokėme, kad problema yra visai kita.
12:21
It was the problem of how to get society to agree on and enforce
234
741820
4536
Tikroji problema – kaip pasiekti visuomenės susitarimą
ir pritaikyti kompromisus, kuriems būtume pasirengę.
12:26
the trade-offs they're comfortable with.
235
746380
1936
12:28
It's a social dilemma.
236
748340
1256
Tai socialinė dilema.
12:29
In the 1940s, Isaac Asimov wrote his famous laws of robotics --
237
749620
5016
1940-aisiais Isaac Asimov parašė garsiąsias robotikos taisykles,
12:34
the three laws of robotics.
238
754660
1320
tris robotikos taisykles.
12:37
A robot may not harm a human being,
239
757060
2456
Robotas privalo nekenkti žmogui,
12:39
a robot may not disobey a human being,
240
759540
2536
robotas privalo paklusti žmogui
12:42
and a robot may not allow itself to come to harm --
241
762100
3256
ir robotas privalo apsaugoti save nuo žalos.
12:45
in this order of importance.
242
765380
1960
Būtent tokiu svarbos eiliškumu.
12:48
But after 40 years or so
243
768180
2136
Tačiau po 40 metų
12:50
and after so many stories pushing these laws to the limit,
244
770340
3736
ir po daugybės bandymų pastūmėti šias ribas,
12:54
Asimov introduced the zeroth law
245
774100
3696
Asimov sukūrė dar vieną, nulinį įstatymą,
12:57
which takes precedence above all,
246
777820
2256
turintį aukščiausią pirmenybę –
13:00
and it's that a robot may not harm humanity as a whole.
247
780100
3280
robotas privalo nekenkti žmonijai kaip visumai.
13:04
I don't know what this means in the context of driverless cars
248
784300
4376
Aš nežinau ką tai reiškia savieigių automobilių kontekste
13:08
or any specific situation,
249
788700
2736
ar bet kokioje specifinėje situacijoje.
13:11
and I don't know how we can implement it,
250
791460
2216
Nežinau ir kaip reikėtų tai pritaikyti.
13:13
but I think that by recognizing
251
793700
1536
Tačiau pripažindami,
13:15
that the regulation of driverless cars is not only a technological problem
252
795260
6136
jog savieigių automobilių nustatymai nėra tik technologinė problema,
13:21
but also a societal cooperation problem,
253
801420
3280
bet taip pat ir socialinės kooperacijos problema,
13:25
I hope that we can at least begin to ask the right questions.
254
805620
2880
tikiuosi, kad galėsime bent jau pradėti kelti teisingus klausimus.
13:29
Thank you.
255
809020
1216
Ačiū.
13:30
(Applause)
256
810260
2920
(Plojimai.)
Apie šią svetainę

Šioje svetainėje rasite "YouTube" vaizdo įrašų, naudingų mokantis anglų kalbos. Pamatysite anglų kalbos pamokas, kurias veda aukščiausio lygio mokytojai iš viso pasaulio. Dukart spustelėkite angliškus subtitrus, rodomus kiekvieno vaizdo įrašo puslapyje, kad iš ten paleistumėte vaizdo įrašą. Subtitrai slenka sinchroniškai su vaizdo įrašo atkūrimu. Jei turite pastabų ar pageidavimų, susisiekite su mumis naudodami šią kontaktinę formą.

https://forms.gle/WvT1wiN1qDtmnspy7