What moral decisions should driverless cars make? | Iyad Rahwan

108,849 views ・ 2017-09-08

TED


Dubbelklik op de Engelse ondertitels hieronder om de video af te spelen.

Vertaald door: Eric Cornelissen Nagekeken door: Peter van de Ven
00:12
Today I'm going to talk about technology and society.
0
12820
4080
Vandaag ga ik het hebben over technologie en maatschappij.
00:18
The Department of Transport estimated that last year
1
18860
3696
Het ministerie van transport schatte dat afgelopen jaar
00:22
35,000 people died from traffic crashes in the US alone.
2
22580
4080
35.000 mensen zijn overleden door verkeersongelukken in de VS.
00:27
Worldwide, 1.2 million people die every year in traffic accidents.
3
27860
4800
Wereldwijd overlijden er ieder jaar 1,2 miljoen mensen in verkeersongelukken.
00:33
If there was a way we could eliminate 90 percent of those accidents,
4
33580
4096
Als er een manier was om 90% van die ongelukken te voorkomen,
00:37
would you support it?
5
37700
1200
zou je er dan vóór zijn?
00:39
Of course you would.
6
39540
1296
Natuurlijk ben je daar voor.
00:40
This is what driverless car technology promises to achieve
7
40860
3655
Dit is wat zelfrijdende auto's beloven te doen
00:44
by eliminating the main source of accidents --
8
44540
2816
door de hoofdoorzaak van ongevallen, menselijke fouten, weg te nemen.
00:47
human error.
9
47380
1200
00:49
Now picture yourself in a driverless car in the year 2030,
10
49740
5416
Stel je voor dat je in een zelfrijdende auto zit, het is 2030,
00:55
sitting back and watching this vintage TEDxCambridge video.
11
55180
3456
en je kijkt naar deze vintage TEDxCambridge video.
00:58
(Laughter)
12
58660
2000
(Gelach)
01:01
All of a sudden,
13
61340
1216
Plotseling gaat er iets fout met de auto en de auto kan niet meer stoppen.
01:02
the car experiences mechanical failure and is unable to stop.
14
62580
3280
01:07
If the car continues,
15
67180
1520
Als de auto door blijft rijden,
01:09
it will crash into a bunch of pedestrians crossing the street,
16
69540
4120
rijdt deze in op een groep voetgangers die de straat aan het oversteken zijn.
01:14
but the car may swerve,
17
74900
2135
Maar de auto kan uitwijken en een omstander aanrijden,
01:17
hitting one bystander,
18
77059
1857
01:18
killing them to save the pedestrians.
19
78940
2080
wiens dood de redding van de voetgangers zou betekenen.
01:21
What should the car do, and who should decide?
20
81860
2600
Wat zou de auto moeten doen en wie moet dat besluiten?
01:25
What if instead the car could swerve into a wall,
21
85340
3536
Wat als de auto in plaats daarvan kan uitwijken naar een muur,
01:28
crashing and killing you, the passenger,
22
88900
3296
waarbij jij dan wel overlijdt,
01:32
in order to save those pedestrians?
23
92220
2320
maar de voetgangers worden gered?
01:35
This scenario is inspired by the trolley problem,
24
95060
3080
Dit scenario is gebaseerd op 'The trolley problem',
01:38
which was invented by philosophers a few decades ago
25
98780
3776
bedacht door filosofen een paar decennium geleden
01:42
to think about ethics.
26
102580
1240
om te redeneren over ethiek.
01:45
Now, the way we think about this problem matters.
27
105940
2496
Hoe we over dit probleem denken, is belangrijk.
01:48
We may for example not think about it at all.
28
108460
2616
We kunnen het bijvoorbeeld negeren.
01:51
We may say this scenario is unrealistic,
29
111100
3376
We kunnen zeggen dat dit scenario onrealistisch,
01:54
incredibly unlikely, or just silly.
30
114500
2320
onwaarschijnlijk of zelfs flauw is.
01:57
But I think this criticism misses the point
31
117580
2736
Maar ik denk dat dit soort kritiek het punt mist,
02:00
because it takes the scenario too literally.
32
120340
2160
omdat het het scenario te letterlijk neemt.
02:03
Of course no accident is going to look like this;
33
123740
2736
Natuurlijk is er geen ongeluk wat er precies zo uit ziet.
02:06
no accident has two or three options
34
126500
3336
Er zijn nooit maar twee of drie mogelijkheden,
02:09
where everybody dies somehow.
35
129860
2000
waarbij altijd iedereen overlijdt.
02:13
Instead, the car is going to calculate something
36
133300
2576
In plaats daarvan gaat de auto iets berekenen.
02:15
like the probability of hitting a certain group of people,
37
135900
4896
Bijvoorbeeld, de kans dat hij een bepaalde groep mensen gaat raken;
02:20
if you swerve one direction versus another direction,
38
140820
3336
als je naar de ene kant uitwijkt in plaats van de andere;
02:24
you might slightly increase the risk to passengers or other drivers
39
144180
3456
je kunt het risico van passagiers of andere bestuurders verhogen
02:27
versus pedestrians.
40
147660
1536
tegenover dat van voetgangers.
02:29
It's going to be a more complex calculation,
41
149220
2160
De berekening zal complexer zijn.
02:32
but it's still going to involve trade-offs,
42
152300
2520
Maar er zullen afwegingen gemaakt moeten worden.
02:35
and trade-offs often require ethics.
43
155660
2880
En afwegingen vereisen vaak ethische overwegingen.
02:39
We might say then, "Well, let's not worry about this.
44
159660
2736
We kunnen ervoor kiezen om ons er geen zorgen over te maken.
02:42
Let's wait until technology is fully ready and 100 percent safe."
45
162420
4640
Wacht gewoon tot de technologie helemaal klaar en 100% veilig is.
02:48
Suppose that we can indeed eliminate 90 percent of those accidents,
46
168340
3680
Stel dat we daadwerkelijk 90% van de ongelukken kunnen voorkomen,
02:52
or even 99 percent in the next 10 years.
47
172900
2840
of zelfs 99%, in de komende 10 jaar.
02:56
What if eliminating the last one percent of accidents
48
176740
3176
Wat als het voorkomen van die laatste 1%
02:59
requires 50 more years of research?
49
179940
3120
ons 50 jaar extra onderzoek kost?
03:04
Should we not adopt the technology?
50
184220
1800
Moeten we de technologie dan negeren?
03:06
That's 60 million people dead in car accidents
51
186540
4776
Dat betekent dat er 60 miljoen mensen overlijden in auto-ongelukken,
03:11
if we maintain the current rate.
52
191340
1760
gegeven de huidige trend.
03:14
So the point is,
53
194580
1216
Het punt is,
03:15
waiting for full safety is also a choice,
54
195820
3616
wachten op veiligheid is ook een keuze
03:19
and it also involves trade-offs.
55
199460
2160
en heeft ook ethische afwegingen.
03:23
People online on social media have been coming up with all sorts of ways
56
203380
4336
Mensen, online en op social media, hebben allerlei manieren bedacht
03:27
to not think about this problem.
57
207740
2016
om niet stil te hoeven staan bij dit probleem.
03:29
One person suggested the car should just swerve somehow
58
209780
3216
Iemand stelde voor:
"De auto moet op de een of andere manier tussen de passagiers en de voetgangers
03:33
in between the passengers --
59
213020
2136
03:35
(Laughter)
60
215180
1016
(Gelach)
03:36
and the bystander.
61
216220
1256
door rijden."
03:37
Of course if that's what the car can do, that's what the car should do.
62
217500
3360
Natuurlijk moet de auto dat doen als dat mogelijk is.
03:41
We're interested in scenarios in which this is not possible.
63
221740
2840
Onze focus ligt op de scenarios waar dit niet mogelijk is.
03:45
And my personal favorite was a suggestion by a blogger
64
225100
5416
Mijn persoonlijke favoriet was een suggestie van een blogger,
03:50
to have an eject button in the car that you press --
65
230540
3016
om een schietstoel in de auto te hebben die afgaat --
03:53
(Laughter)
66
233580
1216
(Gelach)
03:54
just before the car self-destructs.
67
234820
1667
net voor de auto botst.
03:56
(Laughter)
68
236511
1680
(Gelach)
03:59
So if we acknowledge that cars will have to make trade-offs on the road,
69
239660
5200
Als we erkennen dat auto's afwegingen moeten maken op de weg,
04:06
how do we think about those trade-offs,
70
246020
1880
hoe denken we over die overwegingen
04:09
and how do we decide?
71
249140
1576
en hoe nemen we die beslissing.
04:10
Well, maybe we should run a survey to find out what society wants,
72
250740
3136
Misschien moeten we een enquête houden om te bepalen wat men wil,
04:13
because ultimately,
73
253900
1456
want uiteindelijk zijn regels en wetten
04:15
regulations and the law are a reflection of societal values.
74
255380
3960
een afspiegeling van maatschappelijke waarden.
04:19
So this is what we did.
75
259860
1240
Dus deden we dat.
04:21
With my collaborators,
76
261700
1616
Met mijn collega's,
04:23
Jean-François Bonnefon and Azim Shariff,
77
263340
2336
Jean-François Bonnefon en Azim Shariff,
04:25
we ran a survey
78
265700
1616
hielden we een enquête
04:27
in which we presented people with these types of scenarios.
79
267340
2855
waarin we mensen dit soort scenario's voorlegden.
04:30
We gave them two options inspired by two philosophers:
80
270219
3777
We gaven mensen twee opties geïnspireerd door twee filosofen:
04:34
Jeremy Bentham and Immanuel Kant.
81
274020
2640
Jeremy Bentham en Immanuel Kant.
04:37
Bentham says the car should follow utilitarian ethics:
82
277420
3096
Bentham zegt dat de auto utilitaristisch moet handelen:
04:40
it should take the action that will minimize total harm --
83
280540
3416
de auto moet dát doen wat het minste letsel veroorzaakt.
04:43
even if that action will kill a bystander
84
283980
2816
Zelfs als dat betekent dat er een omstander overlijdt
04:46
and even if that action will kill the passenger.
85
286820
2440
en zelfs als dat betekent dat de passagier overlijdt.
04:49
Immanuel Kant says the car should follow duty-bound principles,
86
289940
4976
Immanuel Kant zegt dat de auto plichtgebonden moet handelen,
04:54
like "Thou shalt not kill."
87
294940
1560
zoals in 'gij zult niet doden'.
04:57
So you should not take an action that explicitly harms a human being,
88
297300
4456
Hij mag dus niets doen wat expliciet iemand letsel toebrengt
05:01
and you should let the car take its course
89
301780
2456
en de auto moet niet van richting veranderen,
05:04
even if that's going to harm more people.
90
304260
1960
zelfs als dat meer letsel veroorzaakt.
05:07
What do you think?
91
307460
1200
Wat denk jij?
05:09
Bentham or Kant?
92
309180
1520
Bentham of Kant?
05:11
Here's what we found.
93
311580
1256
Dit is wat wij vonden.
05:12
Most people sided with Bentham.
94
312860
1800
De meeste mensen kozen voor Bentham.
05:15
So it seems that people want cars to be utilitarian,
95
315980
3776
Het lijkt dus dat mensen utilitaire auto's willen,
05:19
minimize total harm,
96
319780
1416
letsel willen voorkomen,
05:21
and that's what we should all do.
97
321220
1576
en dat iedereen dat zo moet doen.
05:22
Problem solved.
98
322820
1200
Probleem opgelost.
05:25
But there is a little catch.
99
325060
1480
Maar er is één klein probleem.
05:27
When we asked people whether they would purchase such cars,
100
327740
3736
Toen we vroegen of mensen zo'n auto zouden kopen,
05:31
they said, "Absolutely not."
101
331500
1616
zeiden ze: "Natuurlijk niet."
05:33
(Laughter)
102
333140
2296
(Gelach)
05:35
They would like to buy cars that protect them at all costs,
103
335460
3896
Men koopt graag een auto die hen te allen tijde beschermt,
05:39
but they want everybody else to buy cars that minimize harm.
104
339380
3616
maar wil dat de rest een auto koopt die de totale schade vermindert.
05:43
(Laughter)
105
343020
2520
(Gelach)
05:46
We've seen this problem before.
106
346540
1856
Dit is een bekent probleem
05:48
It's called a social dilemma.
107
348420
1560
en het heet een sociaal dilemma.
05:50
And to understand the social dilemma,
108
350980
1816
En om dit sociale dilemma te begrijpen,
05:52
we have to go a little bit back in history.
109
352820
2040
moeten we naar het verleden kijken.
05:55
In the 1800s,
110
355820
2576
In de 18de eeuw
05:58
English economist William Forster Lloyd published a pamphlet
111
358420
3736
publiceerde de Engelse econoom William Forster Lloyd een pamflet
06:02
which describes the following scenario.
112
362180
2216
waarin het volgende scenario werd beschreven.
06:04
You have a group of farmers --
113
364420
1656
Er is een groep boeren --
06:06
English farmers --
114
366100
1336
Engelse boeren --
06:07
who are sharing a common land for their sheep to graze.
115
367460
2680
die een stuk land delen om hun schapen te laten grazen.
06:11
Now, if each farmer brings a certain number of sheep --
116
371340
2576
Als iedere boer een bepaald aantal schapen heeft --
06:13
let's say three sheep --
117
373940
1496
laten we zeggen drie --
06:15
the land will be rejuvenated,
118
375460
2096
dan blijft het land goed
06:17
the farmers are happy,
119
377580
1216
en zijn de boeren en de schapen gelukkig.
06:18
the sheep are happy,
120
378820
1616
06:20
everything is good.
121
380460
1200
Alles is goed.
06:22
Now, if one farmer brings one extra sheep,
122
382260
2520
Als een boer een extra schaap introduceert,
06:25
that farmer will do slightly better, and no one else will be harmed.
123
385620
4720
dan heeft die boer het iets beter en daar heeft niemand last van.
06:30
But if every farmer made that individually rational decision,
124
390980
3640
Maar als iedere boer die individueel rationele keuze maakt,
06:35
the land will be overrun, and it will be depleted
125
395660
2720
wordt het land overbegrazen en is het niet meer bruikbaar.
06:39
to the detriment of all the farmers,
126
399180
2176
Ten nadele van alle boeren
06:41
and of course, to the detriment of the sheep.
127
401380
2120
en natuurlijk de schapen.
06:44
We see this problem in many places:
128
404540
3680
Dit is een probleem wat veel voorkomt:
06:48
in the difficulty of managing overfishing,
129
408900
3176
bij het beleid van overbevissing,
06:52
or in reducing carbon emissions to mitigate climate change.
130
412100
4560
of CO2-uitstoot verminderen om klimaatverandering tegen te gaan.
06:58
When it comes to the regulation of driverless cars,
131
418980
2920
Als het gaat over het reguleren van autonome voertuigen
07:02
the common land now is basically public safety --
132
422900
4336
kan veiligheid worden gezien als het gedeelde land van de boeren --
07:07
that's the common good --
133
427260
1240
dat is het algemeen goed --
07:09
and the farmers are the passengers
134
429220
1976
en de boeren zijn de passagiers
07:11
or the car owners who are choosing to ride in those cars.
135
431220
3600
of de eigenaren van die auto's die ervoor kiezen er in te rijden.
07:16
And by making the individually rational choice
136
436780
2616
En door de individueel rationele keuze te maken,
07:19
of prioritizing their own safety,
137
439420
2816
het prioriteren van de eigen veiligheid,
07:22
they may collectively be diminishing the common good,
138
442260
3136
zorgt iedereen ervoor dat het algemeen goed afneemt,
07:25
which is minimizing total harm.
139
445420
2200
wat het verminderen van het totale letsel is.
07:30
It's called the tragedy of the commons,
140
450140
2136
Dit heet de tragedie van de meent,
07:32
traditionally,
141
452300
1296
van oudsher,
07:33
but I think in the case of driverless cars,
142
453620
3096
maar in de context van zelfrijdende auto's
07:36
the problem may be a little bit more insidious
143
456740
2856
is het probleem misschien wat verraderlijk,
07:39
because there is not necessarily an individual human being
144
459620
3496
want er is niet perse een menselijk individu
07:43
making those decisions.
145
463140
1696
dat de beslissingen neemt.
07:44
So car manufacturers may simply program cars
146
464860
3296
En dus kunnen autofabrikanten auto's zo programmeren
07:48
that will maximize safety for their clients,
147
468180
2520
dat ze de veiligheid van hun klanten maximaliseren,
07:51
and those cars may learn automatically on their own
148
471900
2976
en dit soort auto's leren automatisch en zelfstandig
07:54
that doing so requires slightly increasing risk for pedestrians.
149
474900
3520
dat dit vereist dat voetgangers meer risico lopen.
07:59
So to use the sheep metaphor,
150
479340
1416
Dus in het schaapmetafoor:
08:00
it's like we now have electric sheep that have a mind of their own.
151
480780
3616
we hebben nu elektrische schapen die zelf kunnen denken.
08:04
(Laughter)
152
484420
1456
(Gelach)
08:05
And they may go and graze even if the farmer doesn't know it.
153
485900
3080
En die kunnen gaan grazen zonder dat de boer het weet.
08:10
So this is what we may call the tragedy of the algorithmic commons,
154
490460
3976
Dit kunnen we 'de tragedie van de algoritmische meent' noemen.
08:14
and if offers new types of challenges.
155
494460
2360
En het brengt nieuwe uitdagingen met zich mee.
08:22
Typically, traditionally,
156
502340
1896
Normaal gesproken, traditioneel,
08:24
we solve these types of social dilemmas using regulation,
157
504260
3336
lossen we dit soort sociale dilemmas op met regulaties,
08:27
so either governments or communities get together,
158
507620
2736
dus overheden of gemeenschappen komen samen
08:30
and they decide collectively what kind of outcome they want
159
510380
3736
en beslissen samen wat voor uitkomst men wil
08:34
and what sort of constraints on individual behavior
160
514140
2656
en wat voor limitaties op individueel vlak daarvoor nodig zijn.
08:36
they need to implement.
161
516820
1200
08:39
And then using monitoring and enforcement,
162
519420
2616
En dan, door middel van monitoring en handhaving,
08:42
they can make sure that the public good is preserved.
163
522060
2559
zorgen ze ervoor dat het publieke goed beschermd wordt.
08:45
So why don't we just,
164
525260
1575
Dus waarom vragen we regelgevers niet
08:46
as regulators,
165
526859
1496
08:48
require that all cars minimize harm?
166
528379
2897
om te vereisen dat alle auto's letsel verminderen.
08:51
After all, this is what people say they want.
167
531300
2240
Uiteindelijk zegt men dat te willen.
08:55
And more importantly,
168
535020
1416
En nog belangrijker,
08:56
I can be sure that as an individual,
169
536460
3096
als individu ben ik zeker dat,
08:59
if I buy a car that may sacrifice me in a very rare case,
170
539580
3856
indien mijn auto mij opoffert in een buitengewoon scenario,
09:03
I'm not the only sucker doing that
171
543460
1656
ik niet de enige ben die dat doet en dat anderen ongelimiteerd beschermd worden.
09:05
while everybody else enjoys unconditional protection.
172
545140
2680
09:08
In our survey, we did ask people whether they would support regulation
173
548940
3336
In onze enquête vroegen we mensen of ze regulatie zouden steunen
09:12
and here's what we found.
174
552300
1200
en dit is waar we achter kwamen.
09:14
First of all, people said no to regulation;
175
554180
3760
Ten eerste, mensen zeiden nee tegen regulatie.
09:19
and second, they said,
176
559100
1256
En ten tweede zegt men:
09:20
"Well if you regulate cars to do this and to minimize total harm,
177
560380
3936
"Als je wel de auto's reguleert om letsel te verminderen,
09:24
I will not buy those cars."
178
564340
1480
dan koop ik die autos niet."
09:27
So ironically,
179
567220
1376
Ironisch:
09:28
by regulating cars to minimize harm,
180
568620
3496
door auto's te reguleren om letsel te verminderen,
09:32
we may actually end up with more harm
181
572140
1840
eindigen we misschien met meer letsel.
09:34
because people may not opt into the safer technology
182
574860
3656
Want mensen kiezen dan niet voor de veiligere technologie,
09:38
even if it's much safer than human drivers.
183
578540
2080
zelfs als die veel veiliger is dan mensen.
09:42
I don't have the final answer to this riddle,
184
582180
3416
Ik heb niet de oplossing voor dit probleem,
09:45
but I think as a starting point,
185
585620
1576
maar ik denk dat om te beginnen
09:47
we need society to come together
186
587220
3296
de maatschappij samen moet komen
09:50
to decide what trade-offs we are comfortable with
187
590540
2760
om te besluiten met welke trade-offs we comfortabel zijn,
09:54
and to come up with ways in which we can enforce those trade-offs.
188
594180
3480
en om manieren te bedenken waarop we die kunnen afdwingen.
09:58
As a starting point, my brilliant students,
189
598340
2536
Dus als een startpunt hebben mijn briljante studenten
10:00
Edmond Awad and Sohan Dsouza,
190
600900
2456
Edmond Awad en Sohan Dsouza
10:03
built the Moral Machine website,
191
603380
1800
de Morele Machine website gebouwd,
10:06
which generates random scenarios at you --
192
606020
2680
die random scenarios voor je maakt --
10:09
basically a bunch of random dilemmas in a sequence
193
609900
2456
simpelweg een hoop random dilemma's op een rij
10:12
where you have to choose what the car should do in a given scenario.
194
612380
3920
waarbij jij moet kiezen wat de auto moet doen in dat scenario.
10:16
And we vary the ages and even the species of the different victims.
195
616860
4600
Hierbij variëren de leeftijden en zelfs de diersoort van de slachtoffers.
10:22
So far we've collected over five million decisions
196
622860
3696
Tot nu toe hebben we meer dan vijf miljoen beslissingen verzameld,
10:26
by over one million people worldwide
197
626580
2200
door meer dan een miljoen mensen,
10:30
from the website.
198
630220
1200
via de website.
10:32
And this is helping us form an early picture
199
632180
2416
Dit helpt ons een beeld te schetsen
10:34
of what trade-offs people are comfortable with
200
634620
2616
van het soort trade-offs waar men comfortabel mee is
10:37
and what matters to them --
201
637260
1896
en wat voor hen belangrijk is --
10:39
even across cultures.
202
639180
1440
zelfs voor verschillende culturen.
10:42
But more importantly,
203
642060
1496
Maar nog belangrijker,
10:43
doing this exercise is helping people recognize
204
643580
3376
door dit te doen herkennen mensen
10:46
the difficulty of making those choices
205
646980
2816
hoe lastig het is om dit soort keuzes te maken
10:49
and that the regulators are tasked with impossible choices.
206
649820
3800
en dat regelgevers de taak hebben om onmogelijke keuzes te maken.
10:55
And maybe this will help us as a society understand the kinds of trade-offs
207
655180
3576
En misschien helpt dit ons om verschillende trade-offs te begrijpen
10:58
that will be implemented ultimately in regulation.
208
658780
3056
die geïmplementeerd zullen worden in regulaties.
11:01
And indeed, I was very happy to hear
209
661860
1736
En ik was dan ook blij om te horen
11:03
that the first set of regulations
210
663620
2016
dat de eerste regulaties
11:05
that came from the Department of Transport --
211
665660
2136
van het ministerie van transport --
11:07
announced last week --
212
667820
1376
vorige week aangekondigd --
11:09
included a 15-point checklist for all carmakers to provide,
213
669220
6576
een 15-punts checklist voor alle autofabrikanten bevatten,
11:15
and number 14 was ethical consideration --
214
675820
3256
en nummer 14 was ethische overwegingen --
11:19
how are you going to deal with that.
215
679100
1720
hoe ben je van plan dit te implementeren?
11:23
We also have people reflect on their own decisions
216
683620
2656
We vragen ook te reflecteren op de eigen beslissingen
11:26
by giving them summaries of what they chose.
217
686300
3000
door men een samenvatting te geven van hun keuzes.
11:30
I'll give you one example --
218
690260
1656
Ik zal een voorbeeld geven --
11:31
I'm just going to warn you that this is not your typical example,
219
691940
3536
en ik waarschuw dat dit niet een typisch voorbeeld is
11:35
your typical user.
220
695500
1376
van een typische gebruiker.
11:36
This is the most sacrificed and the most saved character for this person.
221
696900
3616
Dit zijn de figuren die het meest opgeofferd and gered zijn door de persoon.
11:40
(Laughter)
222
700540
5200
(Gelach)
11:46
Some of you may agree with him,
223
706500
1896
Misschien ben je het met hem eens,
11:48
or her, we don't know.
224
708420
1640
of haar, dat weten we niet.
11:52
But this person also seems to slightly prefer passengers over pedestrians
225
712300
6136
Maar deze persoon lijkt een voorkeur te hebben voor passagiers boven voetgangers
11:58
in their choices
226
718460
2096
in de keuzes
12:00
and is very happy to punish jaywalking.
227
720580
2816
en straft gevaarlijk oversteken af.
12:03
(Laughter)
228
723420
3040
(Gelach)
12:09
So let's wrap up.
229
729140
1216
Om af te ronden.
12:10
We started with the question -- let's call it the ethical dilemma --
230
730379
3416
We begonnen met de vraag -- noem 't het ethisch dilemma --
12:13
of what the car should do in a specific scenario:
231
733820
3056
wat moet een auto doen in een bepaald scenario:
12:16
swerve or stay?
232
736900
1200
uitwijken of doorrijden?
Toen realiseerden we ons dat het om een ander probleem ging.
12:19
But then we realized that the problem was a different one.
233
739060
2736
12:21
It was the problem of how to get society to agree on and enforce
234
741820
4536
Namelijk: de gemeenschap zal het eens moeten worden over wat ze wil
12:26
the trade-offs they're comfortable with.
235
746380
1936
en dit ook gaan afdwingen.
12:28
It's a social dilemma.
236
748340
1256
Het is een sociaal dilemma.
12:29
In the 1940s, Isaac Asimov wrote his famous laws of robotics --
237
749620
5016
In de jaren 40 schreef Isaac Asimov zijn bekende wetten van robotica,
12:34
the three laws of robotics.
238
754660
1320
de drie wetten van de robotica.
12:37
A robot may not harm a human being,
239
757060
2456
Een robot mag niet een mens letsel toebrengen;
12:39
a robot may not disobey a human being,
240
759540
2536
een robot moet mensen gehoorzamen;
12:42
and a robot may not allow itself to come to harm --
241
762100
3256
een robot mag zichzelf niet laten beschadigen.
12:45
in this order of importance.
242
765380
1960
In afnemende mate van belangrijkheid.
12:48
But after 40 years or so
243
768180
2136
Maar na ongeveer 40 jaar
12:50
and after so many stories pushing these laws to the limit,
244
770340
3736
en na zoveel verhalen die deze wetten hebben beproefd,
12:54
Asimov introduced the zeroth law
245
774100
3696
introduceerde Asimov de nulde wet,
12:57
which takes precedence above all,
246
777820
2256
die belangrijker is dan alle andere.
13:00
and it's that a robot may not harm humanity as a whole.
247
780100
3280
Deze zegt dat een robot niet de mensheid als geheel letsel mag toebrengen.
13:04
I don't know what this means in the context of driverless cars
248
784300
4376
Ik weet niet wat dit betekent in de context van zelfrijdende auto's
13:08
or any specific situation,
249
788700
2736
of welke specifieke situatie dan ook.
13:11
and I don't know how we can implement it,
250
791460
2216
En ik weet niet hoe we het kunnen implementeren,
13:13
but I think that by recognizing
251
793700
1536
maar ik hoop dat door te erkennen
13:15
that the regulation of driverless cars is not only a technological problem
252
795260
6136
dat de regulatie van zelfrijdende auto's niet alleen een technisch probleem is,
13:21
but also a societal cooperation problem,
253
801420
3280
maar ook een sociaal-economisch probleem,
13:25
I hope that we can at least begin to ask the right questions.
254
805620
2880
we op zijn minst de juiste vragen kunnen beginnen te stellen.
13:29
Thank you.
255
809020
1216
Dank u zeer.
13:30
(Applause)
256
810260
2920
(Applaus)
Over deze website

Deze site laat u kennismaken met YouTube-video's die nuttig zijn om Engels te leren. U ziet Engelse lessen gegeven door topdocenten uit de hele wereld. Dubbelklik op de Engelse ondertitels op elke videopagina om de video af te spelen. De ondertitels scrollen synchroon met het afspelen van de video. Heeft u opmerkingen of verzoeken, neem dan contact met ons op via dit contactformulier.

https://forms.gle/WvT1wiN1qDtmnspy7