The ethical dilemma of self-driving cars - Patrick Lin

2,078,144 views ・ 2015-12-08

TED-Ed


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

Traducteur: Lucas P. Relecteur: Shadia Ramsahye
00:07
This is a thought experiment.
0
7246
2042
Ceci est une expérience de pensée.
00:09
Let's say at some point in the not so distant future,
1
9288
2625
Imaginons qu'un jour, dans un futur pas si lointain,
00:11
you're barreling down the highway in your self-driving car,
2
11913
3583
vous fonciez à toute allure sur l'autoroute, dans votre voiture autonome,
00:15
and you find yourself boxed in on all sides by other cars.
3
15496
4292
et vous vous trouvez enfermé de tous les côtés par d'autres voitures.
00:19
Suddenly, a large, heavy object falls off the truck in front of you.
4
19788
4416
Tout à coup, un objet lourd et volumineux tombe du camion qui roule devant vous.
00:24
Your car can't stop in time to avoid the collision,
5
24204
3167
Votre voiture ne peut s'arrêter à temps pour éviter la collision,
00:27
so it needs to make a decision:
6
27371
2042
elle doit donc prendre une décision :
00:29
go straight and hit the object,
7
29413
2250
aller tout droit et percuter l'objet,
00:31
swerve left into an SUV,
8
31663
2291
tourner à gauche et percuter un 4x4,
00:33
or swerve right into a motorcycle.
9
33954
3000
ou tourner à droite et percuter une moto.
00:36
Should it prioritize your safety by hitting the motorcycle,
10
36954
3500
Doit-elle faire passer votre sécurité en priorité en percutant la moto,
00:40
minimize danger to others by not swerving,
11
40454
2792
limiter le danger pour les autres en continuant tout droit,
00:43
even if it means hitting the large object and sacrificing your life,
12
43246
4083
même si cela implique de percuter l'objet et sacrifier votre vie,
00:47
or take the middle ground by hitting the SUV,
13
47329
2750
ou choisir une solution intermédiaire et percuter le 4x4,
00:50
which has a high passenger safety rating?
14
50079
3000
qui a une cote de sécurité du passager élevée ?
00:53
So what should the self-driving car do?
15
53079
3208
Alors, que doit faire la voiture autonome ?
00:56
If we were driving that boxed in car in manual mode,
16
56287
3209
Si cette voiture encerclée était conduite manuellement,
00:59
whichever way we'd react would be understood as just that,
17
59496
3541
n'importe quelle réaction serait considérée comme telle,
01:03
a reaction,
18
63037
1292
une réaction,
01:04
not a deliberate decision.
19
64329
2250
pas une décision délibérée.
01:06
It would be an instinctual panicked move with no forethought or malice.
20
66579
4292
Ce serait un geste instictif de panique sans préméditation ni malveillance.
01:10
But if a programmer were to instruct the car to make the same move,
21
70871
3625
Mais si un programmeur ordonnait à la voiture d'agir de la même façon,
01:14
given conditions it may sense in the future,
22
74496
2833
selon des conditions qu'elle pourrait détecter à l'avenir,
01:17
well, that looks more like premeditated homicide.
23
77329
4292
cela ressemble davantage à un homicide volontaire prémédité.
01:21
Now, to be fair,
24
81621
1000
Pour être juste,
01:22
self-driving cars are predicted to dramatically reduce traffic accidents
25
82621
4083
les voitures autonomes devraient réduire drastiquement
01:26
and fatalities
26
86704
1250
le nombre de décès et d'accidents
01:27
by removing human error from the driving equation.
27
87954
3167
en supprimant l'erreur humaine de l'équation de la conduite.
01:31
Plus, there may be all sorts of other benefits:
28
91121
2375
Il y aurait toutes sortes d'autres avantages :
01:33
eased road congestion,
29
93496
1667
des embouteillages atténués,
01:35
decreased harmful emissions,
30
95163
1541
des échappements nocifs diminués,
01:36
and minimized unproductive and stressful driving time.
31
96704
4625
et un temps de conduite stressant et improductif réduit au minimum.
01:41
But accidents can and will still happen,
32
101329
2167
Si des accidents peuvent et vont toujours arriver,
01:43
and when they do,
33
103496
1167
quand ils arrivent,
01:44
their outcomes may be determined months or years in advance
34
104663
4500
leurs bilans pourraient être déterminés des mois ou des années à l'avance
01:49
by programmers or policy makers.
35
109163
2583
par des programmeurs ou des décisionnaires.
01:51
And they'll have some difficult decisions to make.
36
111746
2500
Et ils vont avoir des décisions difficiles à prendre.
01:54
It's tempting to offer up general decision-making principles,
37
114246
2958
Il est tentant d'établir des principes décisionnels généraux,
01:57
like minimize harm,
38
117204
1875
comme de toujours limiter les dégâts,
01:59
but even that quickly leads to morally murky decisions.
39
119079
3375
mais même cela conduit vite à des décisions troubles sur le plan moral.
02:02
For example,
40
122454
1167
Par exemple,
02:03
let's say we have the same initial set up,
41
123621
2000
imaginons la même situation initiale,
02:05
but now there's a motorcyclist wearing a helmet to your left
42
125621
2875
mais cette fois avec un motard avec un casque à votre gauche,
02:08
and another one without a helmet to your right.
43
128496
2792
et un autre, sans casque, à votre droite.
02:11
Which one should your robot car crash into?
44
131288
3083
Lequel des deux votre voiture-robot doit-elle percuter ?
02:14
If you say the biker with the helmet because she's more likely to survive,
45
134371
4083
Si vous dites le motard avec un casque, parce qu'il a plus de chances de survivre,
02:18
then aren't you penalizing the responsible motorist?
46
138454
2917
alors n'êtes-vous pas en train de pénaliser le conducteur responsable ?
02:21
If, instead, you save the biker without the helmet
47
141371
2750
Si, plutôt, vous choisissez le motard sans casque
02:24
because he's acting irresponsibly,
48
144121
2000
parce qu'il agit de façon irresponsable,
02:26
then you've gone way beyond the initial design principle about minimizing harm,
49
146121
4875
alors vous avez largement dépassé le but initial, qui est de limiter les dégâts,
02:30
and the robot car is now meting out street justice.
50
150996
3875
et la voiture-robot transgresse alors le code de la route.
02:34
The ethical considerations get more complicated here.
51
154871
3542
Les considérations éthiques deviennent donc plus compliquées.
02:38
In both of our scenarios,
52
158413
1375
Dans nos deux scénarios,
02:39
the underlying design is functioning as a targeting algorithm of sorts.
53
159788
4500
le processus sous-jacent fonctionne comme un algorithme ciblant des types.
02:44
In other words,
54
164288
1000
Autrement dit,
02:45
it's systematically favoring or discriminating
55
165288
2500
il favorise ou discrimine systématiquement
02:47
against a certain type of object to crash into.
56
167788
3500
un certain type d'objet avec lequel entrer en collision.
02:51
And the owners of the target vehicles
57
171288
2333
Et les propriétaires des véhicules cibles
02:53
will suffer the negative consequences of this algorithm
58
173621
3042
souffriront les conséquences négatives de cet algorithme
02:56
through no fault of their own.
59
176663
2083
alors qu'ils n'ont pas commis d'erreur.
02:58
Our new technologies are opening up many other novel ethical dilemmas.
60
178746
4667
Nos nouvelles technologies ouvrent la voie à de nombreux autres débats éthiques.
03:03
For instance, if you had to choose between
61
183413
2083
Par exemple, si vous aviez à choisir entre
03:05
a car that would always save as many lives as possible in an accident,
62
185496
4042
une voiture qui sauve toujours autant de vies que possible lors d'un accident
03:09
or one that would save you at any cost,
63
189538
3041
ou une voiture qui vous sauve vous, et ce à n'importe quel prix,
03:12
which would you buy?
64
192579
1667
laquelle achèteriez-vous ?
03:14
What happens if the cars start analyzing and factoring in
65
194246
3333
Que se passe-t-il si la voiture se met à analyser et tenir compte
03:17
the passengers of the cars and the particulars of their lives?
66
197579
3459
des passagers dans la voiture et des particularités de leur vie ?
03:21
Could it be the case that a random decision
67
201038
2166
Se pourrait-il qu'une décision aléatoire
03:23
is still better than a predetermined one designed to minimize harm?
68
203204
4917
reste meilleure qu'une prédéterminée conçue pour limiter les dégâts ?
03:28
And who should be making all of these decisions anyhow?
69
208121
2667
Et qui doit prendre toutes ces décisions ?
03:30
Programmers? Companies? Governments?
70
210829
2709
Les programmeurs ?
Les entreprises ?
Les gouvernements ?
03:34
Reality may not play out exactly like our thought experiments,
71
214121
3458
La réalité peut ne pas se dérouler selon nos expériences de pensée,
03:37
but that's not the point.
72
217579
1667
mais là n'est pas la question.
03:39
They're designed to isolate and stress test our intuitions on ethics,
73
219246
4333
Elles sont conçues pour isoler et mettre nos intuitions éthiques à l'épreuve,
03:43
just like science experiments do for the physical world.
74
223579
3000
comme les expériences scientifiques le font pour le monde physique.
03:46
Spotting these moral hairpin turns now
75
226579
3375
Repérer aujourd'hui ces virages en épingle sur le plan moral
03:49
will help us maneuver the unfamiliar road of technology ethics,
76
229954
3584
nous aidra à manoeuvrer sur la route inconnue de l'éthique des technologies
03:53
and allow us to cruise confidently and conscientiously
77
233538
3750
et nous permettra de rouler consciencieusement et en toute confiance
03:57
into our brave new future.
78
237288
2375
vers le meilleur des avenirs.
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7