The ethical dilemma of self-driving cars - Patrick Lin

2,001,332 views ・ 2015-12-08

TED-Ed


Bitte doppelklicken Sie auf die englischen Untertitel unten, um das Video abzuspielen.

Übersetzung: ifb Kempten Lektorat: Judith Waczek
00:07
This is a thought experiment.
0
7246
2042
Dies ist ein Gedankenexperiment.
00:09
Let's say at some point in the not so distant future,
1
9288
2625
Angenommen, Sie fahren in naher Zukunft
00:11
you're barreling down the highway in your self-driving car,
2
11913
3583
in Ihrem selbstfahrenden Auto auf der Autobahn
00:15
and you find yourself boxed in on all sides by other cars.
3
15496
4292
und sind von allen Seiten von anderen Fahrzeugen umgeben.
00:19
Suddenly, a large, heavy object falls off the truck in front of you.
4
19788
4416
Plötzlich fällt vom LKW vor Ihnen ein großer, schwerer Gegenstand.
00:24
Your car can't stop in time to avoid the collision,
5
24204
3167
Ihr Auto kann einen Zusammenstoß nicht vermeiden,
00:27
so it needs to make a decision:
6
27371
2042
also muss es entscheiden:
00:29
go straight and hit the object,
7
29413
2250
darauf zufahren und das Objekt rammen,
00:31
swerve left into an SUV,
8
31663
2291
nach links in einen SUV ausweichen,
00:33
or swerve right into a motorcycle.
9
33954
3000
oder nach rechts in ein Motorrad?
00:36
Should it prioritize your safety by hitting the motorcycle,
10
36954
3500
Sollte es Ihre Sicherheit priorisieren, indem es Letzteres anfährt,
00:40
minimize danger to others by not swerving,
11
40454
2792
die Gefahr für andere minimieren, indem es nicht ausweicht,
00:43
even if it means hitting the large object and sacrificing your life,
12
43246
4083
selbst wenn dies einen Zusammenstoß, und damit Ihren Tod bedeuten könnte,
00:47
or take the middle ground by hitting the SUV,
13
47329
2750
oder den Mittelweg wählen, indem es den SUV trifft,
00:50
which has a high passenger safety rating?
14
50079
3000
der die Insassen besser schützt?
00:53
So what should the self-driving car do?
15
53079
3208
Was sollte das selbstfahrende Auto tun?
00:56
If we were driving that boxed in car in manual mode,
16
56287
3209
Wenn wir das eingezwängte Auto selbst im manuellen Modus fahren,
00:59
whichever way we'd react would be understood as just that,
17
59496
3541
würde es, egal wie wir reagierten, als genau dies verstanden werden:
01:03
a reaction,
18
63037
1292
eine Reaktion,
01:04
not a deliberate decision.
19
64329
2250
keine bewusste Entscheidung.
01:06
It would be an instinctual panicked move with no forethought or malice.
20
66579
4292
Es wäre eine instinktive Panikreaktion, ohne Voraussicht oder Böswilligkeit.
01:10
But if a programmer were to instruct the car to make the same move,
21
70871
3625
Aber würde das Auto so programmiert, dass es dasselbe Manöver ausführt,
01:14
given conditions it may sense in the future,
22
74496
2833
wenn es merkt, dass bestimmte Bedingungen erfüllt sind,
01:17
well, that looks more like premeditated homicide.
23
77329
4292
dann sähe dies eher nach vorsätzlicher Tötung aus.
01:21
Now, to be fair,
24
81621
1000
Bleiben wir fair:
01:22
self-driving cars are predicted to dramatically reduce traffic accidents
25
82621
4083
Selbstfahrende Autos sollen die Anzahl der Unfälle und Verkehrstoten
01:26
and fatalities
26
86704
1250
drastisch reduzieren,
01:27
by removing human error from the driving equation.
27
87954
3167
indem menschliches Versagen beim Fahren verhindert wird.
01:31
Plus, there may be all sorts of other benefits:
28
91121
2375
Es könnte auch viele weitere Vorteile geben:
01:33
eased road congestion,
29
93496
1667
Weniger Stau,
01:35
decreased harmful emissions,
30
95163
1541
weniger schädliche Abgase
01:36
and minimized unproductive and stressful driving time.
31
96704
4625
und weniger unproduktive, stressige Fahrzeit.
01:41
But accidents can and will still happen,
32
101329
2167
Aber Unfälle können und werden passieren,
01:43
and when they do,
33
103496
1167
und wenn es so ist,
01:44
their outcomes may be determined months or years in advance
34
104663
4500
wird ihr Ausgang vielleicht Monate oder Jahre im Voraus bestimmt werden,
01:49
by programmers or policy makers.
35
109163
2583
und zwar von Programmierern oder Entscheidungsträgern,
01:51
And they'll have some difficult decisions to make.
36
111746
2500
die schwierige Entscheidungen werden treffen müssen.
01:54
It's tempting to offer up general decision-making principles,
37
114246
2958
Man mag versucht sein grundsätzliche Entscheidungsprinzipien,
01:57
like minimize harm,
38
117204
1875
wie Schadensminimierung, zu formulieren,
01:59
but even that quickly leads to morally murky decisions.
39
119079
3375
doch selbst dies kann zu moralisch fragwürdigen Entscheidungen führen.
02:02
For example,
40
122454
1167
Sagen wir mal,
02:03
let's say we have the same initial set up,
41
123621
2000
wir hätten die gleiche Ausgangssituation,
02:05
but now there's a motorcyclist wearing a helmet to your left
42
125621
2875
aber jetzt ist links eine Rollerfahrerin mit Helm
02:08
and another one without a helmet to your right.
43
128496
2792
und rechts fährt jemand ohne Helm.
02:11
Which one should your robot car crash into?
44
131288
3083
Wen soll das Roboterauto rammen?
02:14
If you say the biker with the helmet because she's more likely to survive,
45
134371
4083
Nimmt man die Fahrerin mit Helm, da sie eher überleben wird,
02:18
then aren't you penalizing the responsible motorist?
46
138454
2917
bestraft man dann nicht verantwortungsbewusste Fahrer?
02:21
If, instead, you save the biker without the helmet
47
141371
2750
Nimmt man den Fahrer ohne Helm,
02:24
because he's acting irresponsibly,
48
144121
2000
da er verantwortungslos handelt,
02:26
then you've gone way beyond the initial design principle about minimizing harm,
49
146121
4875
dann stellt man sich über das ursprüngliche Schadensminimierungsprinzip
02:30
and the robot car is now meting out street justice.
50
150996
3875
und das Roboterauto übt Selbstjustiz.
02:34
The ethical considerations get more complicated here.
51
154871
3542
Die ethischen Erwägungen werden hier komplizierter.
02:38
In both of our scenarios,
52
158413
1375
In beiden Szenarien
02:39
the underlying design is functioning as a targeting algorithm of sorts.
53
159788
4500
fungiert das zugrundeliegende Konstrukt quasi als algorithmische Zielvorrichtung.
02:44
In other words,
54
164288
1000
Anders gesagt,
02:45
it's systematically favoring or discriminating
55
165288
2500
favorisiert oder diskriminiert es systematisch
02:47
against a certain type of object to crash into.
56
167788
3500
bestimmte Objekte, die gerammt werden sollten.
02:51
And the owners of the target vehicles
57
171288
2333
Und die Besitzer der Zielfahrzeuge
02:53
will suffer the negative consequences of this algorithm
58
173621
3042
werden die negativen Konsequenzen dieses Algorithmus tragen,
02:56
through no fault of their own.
59
176663
2083
und zwar ohne eigenes Verschulden.
02:58
Our new technologies are opening up many other novel ethical dilemmas.
60
178746
4667
Unsere neuen Technologien bringen viele neuartige ethische Dilemmata mit sich.
03:03
For instance, if you had to choose between
61
183413
2083
Hättest du etwa die Wahl zwischen einem Auto,
03:05
a car that would always save as many lives as possible in an accident,
62
185496
4042
das bei einem Unfall stets so viele Leben wie möglich retten würde,
03:09
or one that would save you at any cost,
63
189538
3041
und einem Auto, das definitiv dich retten würde,
03:12
which would you buy?
64
192579
1667
welches würdest du kaufen?
03:14
What happens if the cars start analyzing and factoring in
65
194246
3333
Was passiert, wenn Autos anfangen, ihre Insassen und die Details
03:17
the passengers of the cars and the particulars of their lives?
66
197579
3459
aus deren Leben zu analysieren und zu integrieren?
03:21
Could it be the case that a random decision
67
201038
2166
Ist eine zufällige Entscheidung besser,
03:23
is still better than a predetermined one designed to minimize harm?
68
203204
4917
als eine vorgegebene mit dem Ziel der Schadensminimierung?
03:28
And who should be making all of these decisions anyhow?
69
208121
2667
Und wer sollte all diese Entscheidungen überhaupt treffen?
03:30
Programmers? Companies? Governments?
70
210829
2709
Programmierer?
Unternehmen?
Regierungen?
03:34
Reality may not play out exactly like our thought experiments,
71
214121
3458
Unsere Gedankenexperimente werden zwar nicht unbedingt Realität,
03:37
but that's not the point.
72
217579
1667
aber darum geht es nicht.
03:39
They're designed to isolate and stress test our intuitions on ethics,
73
219246
4333
Sie sollen unsere Moralvorstellungen ausloten und hinterfragen,
03:43
just like science experiments do for the physical world.
74
223579
3000
wie wissenschaftliche Experimente über die physische Welt.
03:46
Spotting these moral hairpin turns now
75
226579
3375
Wenn wir diese moralischen Haarnadelkurven jetzt entdecken,
03:49
will help us maneuver the unfamiliar road of technology ethics,
76
229954
3584
können wir die unbekannten Straßen der Technologieethik bewältigen,
03:53
and allow us to cruise confidently and conscientiously
77
233538
3750
was uns ermöglicht, souverän und gewissenhaft
03:57
into our brave new future.
78
237288
2375
in eine schöne neue Zukunft zu fahren.
Über diese Website

Auf dieser Seite finden Sie YouTube-Videos, die zum Englischlernen nützlich sind. Sie sehen Englischlektionen, die von hochkarätigen Lehrern aus der ganzen Welt unterrichtet werden. Doppelklicken Sie auf die englischen Untertitel, die auf jeder Videoseite angezeigt werden, um das Video von dort aus abzuspielen. Die Untertitel laufen synchron mit der Videowiedergabe. Wenn Sie irgendwelche Kommentare oder Wünsche haben, kontaktieren Sie uns bitte über dieses Kontaktformular.

https://forms.gle/WvT1wiN1qDtmnspy7