What moral decisions should driverless cars make? | Iyad Rahwan

104,079 views ・ 2017-09-08

TED


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

Traducteur: Mariana Ciric Relecteur: eric vautier
00:12
Today I'm going to talk about technology and society.
0
12820
4080
Aujourd'hui, je vais parler de technologie et de société.
00:18
The Department of Transport estimated that last year
1
18860
3696
Le Département du Transport a estimé que, l'année dernière,
00:22
35,000 people died from traffic crashes in the US alone.
2
22580
4080
le nombre de morts dû aux accidents de la circulation à 35 000, seulement aux USA.
00:27
Worldwide, 1.2 million people die every year in traffic accidents.
3
27860
4800
Au niveau mondial, c'est 1,2 million de gens qui meurent chaque année.
00:33
If there was a way we could eliminate 90 percent of those accidents,
4
33580
4096
S'il y avait une possibilité d'éliminer 90% de ces accidents,
00:37
would you support it?
5
37700
1200
la soutiendriez-vous ?
00:39
Of course you would.
6
39540
1296
Bien sûr que oui.
00:40
This is what driverless car technology promises to achieve
7
40860
3655
La technologie des voitures sans conducteur promet d'y arriver
00:44
by eliminating the main source of accidents --
8
44540
2816
en éliminant la principale source d'accidents--
00:47
human error.
9
47380
1200
l'erreur humaine.
00:49
Now picture yourself in a driverless car in the year 2030,
10
49740
5416
Imaginez vous, en 2030, dans une voiture sans conducteur,
00:55
sitting back and watching this vintage TEDxCambridge video.
11
55180
3456
regardant cette ancienne vidéo TED.
00:58
(Laughter)
12
58660
2000
(Rires)
01:01
All of a sudden,
13
61340
1216
Quand tout à coup,
01:02
the car experiences mechanical failure and is unable to stop.
14
62580
3280
une panne mécanique l'empêche de s'arrêter.
01:07
If the car continues,
15
67180
1520
Si la voiture roule toujours,
01:09
it will crash into a bunch of pedestrians crossing the street,
16
69540
4120
elle peut écraser les piétons qui sont en train de traverser;
01:14
but the car may swerve,
17
74900
2135
mais elle peut aussi faire une embardée,
01:17
hitting one bystander,
18
77059
1857
touchant un passant en le tuant
01:18
killing them to save the pedestrians.
19
78940
2080
pour sauver les piétons.
01:21
What should the car do, and who should decide?
20
81860
2600
Que devrait faire la voiture et qui devrait décider ?
01:25
What if instead the car could swerve into a wall,
21
85340
3536
Et si la voiture fonçait dans un mur,
01:28
crashing and killing you, the passenger,
22
88900
3296
vous tuant vous, le passager
01:32
in order to save those pedestrians?
23
92220
2320
pour sauver ces piétons ?
01:35
This scenario is inspired by the trolley problem,
24
95060
3080
Ce scénario est inspiré du problème venant des trolleybus,
01:38
which was invented by philosophers a few decades ago
25
98780
3776
inventé par des philosophes il y a quelques décennies
01:42
to think about ethics.
26
102580
1240
pour penser à l'éthique.
01:45
Now, the way we think about this problem matters.
27
105940
2496
Il est important de savoir ce que nous en pensons.
01:48
We may for example not think about it at all.
28
108460
2616
Peut être que nous n'y pensons pas du tout.
01:51
We may say this scenario is unrealistic,
29
111100
3376
On peut trouver ce scénario irréel,
01:54
incredibly unlikely, or just silly.
30
114500
2320
extrêmement peu probable ou juste stupide.
01:57
But I think this criticism misses the point
31
117580
2736
Je pense que cette critique manque d'un point important
02:00
because it takes the scenario too literally.
32
120340
2160
car elle suit ce scénario à la lettre.
02:03
Of course no accident is going to look like this;
33
123740
2736
Il est évident qu'aucun accident ne ressemblera à ça,
02:06
no accident has two or three options
34
126500
3336
aucun accident n'a deux ou trois options
02:09
where everybody dies somehow.
35
129860
2000
où tout le monde finit par mourir.
02:13
Instead, the car is going to calculate something
36
133300
2576
Pour contrer tout cela, la voiture pourrait calculer
02:15
like the probability of hitting a certain group of people,
37
135900
4896
la probabilité d'heurter un groupe de personnes,
02:20
if you swerve one direction versus another direction,
38
140820
3336
si on dévie d'un côté ou d'un autre,
02:24
you might slightly increase the risk to passengers or other drivers
39
144180
3456
on augmenterait le risque des passagers ou des conducteurs
02:27
versus pedestrians.
40
147660
1536
versus les piétons.
02:29
It's going to be a more complex calculation,
41
149220
2160
Il s'agit d'un calcul un peu plus complexe,
02:32
but it's still going to involve trade-offs,
42
152300
2520
mais cela impliquerait quand même des compromis,
02:35
and trade-offs often require ethics.
43
155660
2880
et les compromis demandent souvent de l'éthique.
02:39
We might say then, "Well, let's not worry about this.
44
159660
2736
On pourrait donc dire : « Ne nous en préoccupons pas.
02:42
Let's wait until technology is fully ready and 100 percent safe."
45
162420
4640
Attendons à ce que la technologie soit prête et sûre à 100%. »
02:48
Suppose that we can indeed eliminate 90 percent of those accidents,
46
168340
3680
Imaginez qu'on puisse éliminer 90% de ces accidents,
02:52
or even 99 percent in the next 10 years.
47
172900
2840
ou même 99% dans les dix prochaines années.
02:56
What if eliminating the last one percent of accidents
48
176740
3176
Et si l'élimination du dernier 1% des accidents
02:59
requires 50 more years of research?
49
179940
3120
demandait plus de 50 ans de recherches ?
03:04
Should we not adopt the technology?
50
184220
1800
Ne devrions-nous pas adopter cette technologie ?
03:06
That's 60 million people dead in car accidents
51
186540
4776
Ce sont 60 millions de morts à cause des accidents de voiture
03:11
if we maintain the current rate.
52
191340
1760
si nous maintenons les taux actuels.
03:14
So the point is,
53
194580
1216
Le fait est que,
03:15
waiting for full safety is also a choice,
54
195820
3616
attendre pour une sécurité optimale est aussi un choix
03:19
and it also involves trade-offs.
55
199460
2160
mais cela implique aussi des compromis.
03:23
People online on social media have been coming up with all sorts of ways
56
203380
4336
Les gens ont trouvé plusieurs manières, sur les réseaux sociaux,
03:27
to not think about this problem.
57
207740
2016
pour éviter de penser à ce problème.
03:29
One person suggested the car should just swerve somehow
58
209780
3216
Une personne a suggéré que la voiture devrait pouvoir dévier
03:33
in between the passengers --
59
213020
2136
entre les piétons--
03:35
(Laughter)
60
215180
1016
(Rires)
03:36
and the bystander.
61
216220
1256
et les passants.
03:37
Of course if that's what the car can do, that's what the car should do.
62
217500
3360
Si la voiture avait les capacités de le faire, elle le ferait sûrement.
03:41
We're interested in scenarios in which this is not possible.
63
221740
2840
Nous sommes intéressés par d'autres scénarios.
03:45
And my personal favorite was a suggestion by a blogger
64
225100
5416
Mon préféré est une suggestion de la part d'un blogueur,
03:50
to have an eject button in the car that you press --
65
230540
3016
qui est d'avoir un bouton pour siège éjectable--
03:53
(Laughter)
66
233580
1216
(Rires)
03:54
just before the car self-destructs.
67
234820
1667
juste avant l'autodestruction.
03:56
(Laughter)
68
236511
1680
(Rires)
03:59
So if we acknowledge that cars will have to make trade-offs on the road,
69
239660
5200
Si nous considérons que les voitures devront aussi faire des compromis,
04:06
how do we think about those trade-offs,
70
246020
1880
comment y penser,
04:09
and how do we decide?
71
249140
1576
mais surtout comment se décider ?
04:10
Well, maybe we should run a survey to find out what society wants,
72
250740
3136
Peut être devrions-nous faire un sondage auprès de la société,
04:13
because ultimately,
73
253900
1456
car finalement,
04:15
regulations and the law are a reflection of societal values.
74
255380
3960
les règlements et la loi sont les reflets des valeurs sociétales.
04:19
So this is what we did.
75
259860
1240
Nous avons donc fait ceci.
04:21
With my collaborators,
76
261700
1616
En compagnie de mes collaborateurs,
04:23
Jean-François Bonnefon and Azim Shariff,
77
263340
2336
Jean-François Bonnefon et Azim Shariff,
04:25
we ran a survey
78
265700
1616
nous avons mené une enquête
04:27
in which we presented people with these types of scenarios.
79
267340
2855
où nous avons présenté ces scénarios aux gens.
04:30
We gave them two options inspired by two philosophers:
80
270219
3777
Nous leur avons donné deux options, inspirées par deux philosophes :
04:34
Jeremy Bentham and Immanuel Kant.
81
274020
2640
Jeremy Bentham et Emmanuel Kant.
04:37
Bentham says the car should follow utilitarian ethics:
82
277420
3096
Selon Bentham, la voiture devrait suivre l'éthique utilitariste :
04:40
it should take the action that will minimize total harm --
83
280540
3416
son action devrait être celle qui réduit tous les dommages --
04:43
even if that action will kill a bystander
84
283980
2816
même si cette action finira par tuer un passant
04:46
and even if that action will kill the passenger.
85
286820
2440
ou même si elle finira par tuer le passager.
04:49
Immanuel Kant says the car should follow duty-bound principles,
86
289940
4976
Selon Kant, la voiture devrait agir selon certains commandements,
04:54
like "Thou shalt not kill."
87
294940
1560
comme  « Tu ne tueras point. »
04:57
So you should not take an action that explicitly harms a human being,
88
297300
4456
Ton action ne devrait donc pas nuire à un être humain de manière explicite,
05:01
and you should let the car take its course
89
301780
2456
et tu devrais laisser la voiture faire sa route
05:04
even if that's going to harm more people.
90
304260
1960
même si plus de gens finiront blessés.
05:07
What do you think?
91
307460
1200
Qu'en pensez-vous ?
05:09
Bentham or Kant?
92
309180
1520
Bentham ou bien Kant ?
05:11
Here's what we found.
93
311580
1256
Voici notre solution.
05:12
Most people sided with Bentham.
94
312860
1800
La plupart étaient pour Bentham.
05:15
So it seems that people want cars to be utilitarian,
95
315980
3776
Les gens veulent donc que la voiture soit utilitariste,
05:19
minimize total harm,
96
319780
1416
réduire les dommages,
05:21
and that's what we should all do.
97
321220
1576
ce que nous devrions tous faire.
05:22
Problem solved.
98
322820
1200
Problème résolu.
05:25
But there is a little catch.
99
325060
1480
Mais il y a un petit piège.
05:27
When we asked people whether they would purchase such cars,
100
327740
3736
Lorsque nous leur avons demandé s'ils achèteraient ces voitures,
05:31
they said, "Absolutely not."
101
331500
1616
ils ont répondu : « Absolument pas. »
05:33
(Laughter)
102
333140
2296
(Rires)
05:35
They would like to buy cars that protect them at all costs,
103
335460
3896
Ils aimeraient acheter des voitures qui les protègent à tout prix,
05:39
but they want everybody else to buy cars that minimize harm.
104
339380
3616
mais ils veulent que tous les autres les achètent pour réduire les dommages.
05:43
(Laughter)
105
343020
2520
(Rires)
05:46
We've seen this problem before.
106
346540
1856
Nous connaissons ce type de problème.
05:48
It's called a social dilemma.
107
348420
1560
C'est un dilemme social.
05:50
And to understand the social dilemma,
108
350980
1816
Pour comprendre ce dilemme social,
05:52
we have to go a little bit back in history.
109
352820
2040
nous devons remonter un peu dans le temps.
05:55
In the 1800s,
110
355820
2576
Dans les années 1800,
05:58
English economist William Forster Lloyd published a pamphlet
111
358420
3736
l'économiste anglais William Forster Lloyd a publié un pamphlet
06:02
which describes the following scenario.
112
362180
2216
décrivant le scénario suivant.
06:04
You have a group of farmers --
113
364420
1656
Vous avez un groupe de fermiers--
06:06
English farmers --
114
366100
1336
fermiers anglais--
06:07
who are sharing a common land for their sheep to graze.
115
367460
2680
qui se partagent des terres pour leurs moutons.
06:11
Now, if each farmer brings a certain number of sheep --
116
371340
2576
Si chaque fermier ramène un certain nombre de moutons--
06:13
let's say three sheep --
117
373940
1496
disons trois moutons--
06:15
the land will be rejuvenated,
118
375460
2096
la terre sera régénérée,
06:17
the farmers are happy,
119
377580
1216
les fermiers heureux,
06:18
the sheep are happy,
120
378820
1616
les moutons heureux,
06:20
everything is good.
121
380460
1200
tout est en ordre.
06:22
Now, if one farmer brings one extra sheep,
122
382260
2520
Maintenant si un fermier en ramène un de plus,
06:25
that farmer will do slightly better, and no one else will be harmed.
123
385620
4720
il s'en sortira un peu mieux, au détriment de personne.
06:30
But if every farmer made that individually rational decision,
124
390980
3640
Mais si chaque fermier faisait de même,
06:35
the land will be overrun, and it will be depleted
125
395660
2720
la terre serait surexploitée et appauvrie
06:39
to the detriment of all the farmers,
126
399180
2176
au détriment de tous les fermiers
06:41
and of course, to the detriment of the sheep.
127
401380
2120
et bien sûr à celui des moutons.
06:44
We see this problem in many places:
128
404540
3680
Nous rencontrons ce problème à plusieurs endroits :
06:48
in the difficulty of managing overfishing,
129
408900
3176
dans la difficulté à gérer la surpêche,
06:52
or in reducing carbon emissions to mitigate climate change.
130
412100
4560
ou à réduire les émissions de carbone pour atténuer le changement climatique.
06:58
When it comes to the regulation of driverless cars,
131
418980
2920
Quand il s'agit du règlement des voitures sans conducteur,
07:02
the common land now is basically public safety --
132
422900
4336
la terre commune représente la sécurité publique --
07:07
that's the common good --
133
427260
1240
c'est le bien commun --
07:09
and the farmers are the passengers
134
429220
1976
et les fermiers sont les passagers
07:11
or the car owners who are choosing to ride in those cars.
135
431220
3600
ou les propriétaires de ces voitures qui décident de les conduire.
07:16
And by making the individually rational choice
136
436780
2616
En faisant ce choix rationnel
07:19
of prioritizing their own safety,
137
439420
2816
de prioriser leur propre sécurité,
07:22
they may collectively be diminishing the common good,
138
442260
3136
ils sont peut être en train d'affaiblir le bien commun,
07:25
which is minimizing total harm.
139
445420
2200
de réduire donc les dommages.
07:30
It's called the tragedy of the commons,
140
450140
2136
C'est la Tragédie des biens communs,
07:32
traditionally,
141
452300
1296
typiquement,
07:33
but I think in the case of driverless cars,
142
453620
3096
mais je pense que dans le cas des voitures sans conducteur,
07:36
the problem may be a little bit more insidious
143
456740
2856
le problème est peut-être un peu plus insidieux
07:39
because there is not necessarily an individual human being
144
459620
3496
car ce n'est pas forcément un seul être humain
07:43
making those decisions.
145
463140
1696
qui prend ces décisions.
07:44
So car manufacturers may simply program cars
146
464860
3296
Les fabricants de voitures pourraient simplement les programmer
07:48
that will maximize safety for their clients,
147
468180
2520
pour maximiser la sécurité des clients,
07:51
and those cars may learn automatically on their own
148
471900
2976
et elles pourraient apprendre par elles-mêmes
07:54
that doing so requires slightly increasing risk for pedestrians.
149
474900
3520
qu'en agissant de cette manière, elles augmenteraient le risque des piétons.
07:59
So to use the sheep metaphor,
150
479340
1416
Revenons à notre métaphore,
08:00
it's like we now have electric sheep that have a mind of their own.
151
480780
3616
c'est comme si maintenant nous avions des moutons électriques conscients.
08:04
(Laughter)
152
484420
1456
(Rires)
08:05
And they may go and graze even if the farmer doesn't know it.
153
485900
3080
Ils peuvent brouter sans que le fermier le sache.
08:10
So this is what we may call the tragedy of the algorithmic commons,
154
490460
3976
C'est ce qu'on pourrait appeler la Tragédie des communs algorithmiques,
08:14
and if offers new types of challenges.
155
494460
2360
qui offre de nouveaux types de défis.
08:22
Typically, traditionally,
156
502340
1896
De manière générale, typiquement,
08:24
we solve these types of social dilemmas using regulation,
157
504260
3336
nous résolvons ces types de dilemmes sociaux grâce aux lois :
08:27
so either governments or communities get together,
158
507620
2736
soit les gouvernements soit les communautés se réunissent
08:30
and they decide collectively what kind of outcome they want
159
510380
3736
pour décider ensemble quel est le résultat voulu
08:34
and what sort of constraints on individual behavior
160
514140
2656
et quelles sortes de contraintes liées au comportement
08:36
they need to implement.
161
516820
1200
doivent être appliquées.
08:39
And then using monitoring and enforcement,
162
519420
2616
Ensuite grâce à la surveillance et au contrôle,
08:42
they can make sure that the public good is preserved.
163
522060
2559
ils peuvent s'assurer que le bien civil soit préservé.
08:45
So why don't we just,
164
525260
1575
Pourquoi ne pourrions-nous pas,
08:46
as regulators,
165
526859
1496
en tant que régulateurs,
08:48
require that all cars minimize harm?
166
528379
2897
exiger à ce que toutes les voitures réduisent les dommages ?
08:51
After all, this is what people say they want.
167
531300
2240
Après tout, c'est ce que veulent les gens.
08:55
And more importantly,
168
535020
1416
Plus important encore,
08:56
I can be sure that as an individual,
169
536460
3096
je peux être sûr qu'en tant qu'individu,
08:59
if I buy a car that may sacrifice me in a very rare case,
170
539580
3856
si j'achète une voiture pouvant me sacrifier dans un cas très rare,
09:03
I'm not the only sucker doing that
171
543460
1656
je ne vais pas être le seul pigeon
09:05
while everybody else enjoys unconditional protection.
172
545140
2680
à le faire alors que tous les autres sont protégés.
09:08
In our survey, we did ask people whether they would support regulation
173
548940
3336
Dans notre enquête, nous avons demandé s'ils valideraient un telle loi
09:12
and here's what we found.
174
552300
1200
et voici le résultat.
09:14
First of all, people said no to regulation;
175
554180
3760
Tout d'abord, les gens ont répondu non à la loi ;
09:19
and second, they said,
176
559100
1256
ensuite, ils ont dit :
09:20
"Well if you regulate cars to do this and to minimize total harm,
177
560380
3936
« Si vous légiférer pour que les voitures réduisent les dommages,
09:24
I will not buy those cars."
178
564340
1480
je ne les achèterais pas. »
09:27
So ironically,
179
567220
1376
Donc ironiquement,
09:28
by regulating cars to minimize harm,
180
568620
3496
en réglant les voitures pour réduire les dommages,
09:32
we may actually end up with more harm
181
572140
1840
ça pourrait être pire
09:34
because people may not opt into the safer technology
182
574860
3656
car les gens n'opteraient pas pour la technologie plus sécurisée
09:38
even if it's much safer than human drivers.
183
578540
2080
même si c'est plus sûr qu'un conducteur.
09:42
I don't have the final answer to this riddle,
184
582180
3416
Je n'ai pas la réponse finale de cette énigme,
09:45
but I think as a starting point,
185
585620
1576
mais pour commencer,
09:47
we need society to come together
186
587220
3296
notre société devrait s'unir
09:50
to decide what trade-offs we are comfortable with
187
590540
2760
pour décider quels compromis nous correspondent le plus
09:54
and to come up with ways in which we can enforce those trade-offs.
188
594180
3480
et trouver des moyens pour les appliquer.
09:58
As a starting point, my brilliant students,
189
598340
2536
Pour commencer, mes brillants étudiants,
10:00
Edmond Awad and Sohan Dsouza,
190
600900
2456
Edmond Awad et Sohan De Souza
10:03
built the Moral Machine website,
191
603380
1800
ont créé le site Moral Machine;
10:06
which generates random scenarios at you --
192
606020
2680
celui-ci génère des scénarios aléatoires--
10:09
basically a bunch of random dilemmas in a sequence
193
609900
2456
une série de dilemmes à la chaîne
10:12
where you have to choose what the car should do in a given scenario.
194
612380
3920
où vous devez choisir ce que ferait la voiture dans ces cas.
10:16
And we vary the ages and even the species of the different victims.
195
616860
4600
Nous varions les âges et la nature des différentes victimes.
10:22
So far we've collected over five million decisions
196
622860
3696
Jusqu'à présent, nous avons récolté plus de 5 millions de décisions
10:26
by over one million people worldwide
197
626580
2200
prises par plus d'un million de gens
10:30
from the website.
198
630220
1200
depuis le site internet.
10:32
And this is helping us form an early picture
199
632180
2416
Ceci nous aide à avoir une idée
10:34
of what trade-offs people are comfortable with
200
634620
2616
de quels compromis les gens sont prêts à accepter
10:37
and what matters to them --
201
637260
1896
et ce qui compte pour eux--
10:39
even across cultures.
202
639180
1440
même à travers les cultures.
10:42
But more importantly,
203
642060
1496
Mais surtout,
10:43
doing this exercise is helping people recognize
204
643580
3376
ces exercices aident les gens à reconnaître
10:46
the difficulty of making those choices
205
646980
2816
la difficulté que représente le fait de faire un choix
10:49
and that the regulators are tasked with impossible choices.
206
649820
3800
et que les lesgilateurs sont confrontés à des choix impossibles.
10:55
And maybe this will help us as a society understand the kinds of trade-offs
207
655180
3576
Peut-être que ceci nous aidera à comprendre, en tant que société,
10:58
that will be implemented ultimately in regulation.
208
658780
3056
quels compromis seront mis en place dans la loi.
11:01
And indeed, I was very happy to hear
209
661860
1736
En effet, j'ai été très heureux
11:03
that the first set of regulations
210
663620
2016
d'entendre que la première série
11:05
that came from the Department of Transport --
211
665660
2136
venue du Département des Transports--
11:07
announced last week --
212
667820
1376
annoncée la semaine dernière
11:09
included a 15-point checklist for all carmakers to provide,
213
669220
6576
a inclus une liste de 15 points à remplir par tous les fabricants de voitures.
11:15
and number 14 was ethical consideration --
214
675820
3256
Le numéro 14 était la consideration éthique --
11:19
how are you going to deal with that.
215
679100
1720
comment allez-vous gérer ça ?
11:23
We also have people reflect on their own decisions
216
683620
2656
Ces personnes peuvent aussi réfléchir à leurs décisions
11:26
by giving them summaries of what they chose.
217
686300
3000
en recevant des résumés à propos de leurs choix.
11:30
I'll give you one example --
218
690260
1656
Je vais vous donner un exemple --
11:31
I'm just going to warn you that this is not your typical example,
219
691940
3536
je vous avertis juste que ceci n'est pas un exemple typique,
11:35
your typical user.
220
695500
1376
ni un utilisateur typique.
11:36
This is the most sacrificed and the most saved character for this person.
221
696900
3616
Voici ce que la personne a sauvé et a tué le plus.
11:40
(Laughter)
222
700540
5200
(Rires)
11:46
Some of you may agree with him,
223
706500
1896
Certains d'entre vous allez être
11:48
or her, we don't know.
224
708420
1640
d'accord avec lui ou avec elle.
11:52
But this person also seems to slightly prefer passengers over pedestrians
225
712300
6136
Cette personne a aussi l'air de préférer les passagers aux piétons
11:58
in their choices
226
718460
2096
dans ses choix
12:00
and is very happy to punish jaywalking.
227
720580
2816
et est très heureuse de punir ceux qui traversent en dehors des clous.
12:03
(Laughter)
228
723420
3040
(Rires)
12:09
So let's wrap up.
229
729140
1216
Résumons.
12:10
We started with the question -- let's call it the ethical dilemma --
230
730379
3416
Nous avons commencé avec une question -- un dilemme éthique --
12:13
of what the car should do in a specific scenario:
231
733820
3056
de ce que devrait faire la voiture dans un scénario précis :
12:16
swerve or stay?
232
736900
1200
dévier ou rester ?
12:19
But then we realized that the problem was a different one.
233
739060
2736
Mais nous avons réalisé que le problème était autre.
12:21
It was the problem of how to get society to agree on and enforce
234
741820
4536
Le problème était de comment faire pour que la société accepte et applique
12:26
the trade-offs they're comfortable with.
235
746380
1936
les compromis qui lui conviennent.
12:28
It's a social dilemma.
236
748340
1256
C'est un dilemme social.
12:29
In the 1940s, Isaac Asimov wrote his famous laws of robotics --
237
749620
5016
Dans les années 1940, Isaac Asimov a écrit sa célèbre loi de la robotique --
12:34
the three laws of robotics.
238
754660
1320
les trois règles de la robotique.
12:37
A robot may not harm a human being,
239
757060
2456
Un robot ne nuira pas à un être humain,
12:39
a robot may not disobey a human being,
240
759540
2536
un robot ne désobéira pas
12:42
and a robot may not allow itself to come to harm --
241
762100
3256
et il ne s'autorisera pas à faire au mal --
12:45
in this order of importance.
242
765380
1960
dans cet ordre d'importance.
12:48
But after 40 years or so
243
768180
2136
Mais environ 40 ans plus tard
12:50
and after so many stories pushing these laws to the limit,
244
770340
3736
et après tellement de scénarios qui ont testé ces règles,
12:54
Asimov introduced the zeroth law
245
774100
3696
Asimov a présenté la loi Zéro
12:57
which takes precedence above all,
246
777820
2256
qui a préséance avant tout.
13:00
and it's that a robot may not harm humanity as a whole.
247
780100
3280
Un robot ne devrait pas nuire à l'Humanité.
13:04
I don't know what this means in the context of driverless cars
248
784300
4376
Je ne sais pas ce que cela représente dans le cas des voitures sans conducteur
13:08
or any specific situation,
249
788700
2736
ou dans une situation spécifique,
13:11
and I don't know how we can implement it,
250
791460
2216
et je ne sais pas comment la mettre en œuvre ;
13:13
but I think that by recognizing
251
793700
1536
mais en admettant que
13:15
that the regulation of driverless cars is not only a technological problem
252
795260
6136
la législation de ces voitures n'est pas uniquement un problème technique
13:21
but also a societal cooperation problem,
253
801420
3280
mais aussi un problème de coopération sociétale, j'espère que
13:25
I hope that we can at least begin to ask the right questions.
254
805620
2880
nous puissions au moins nous poser les bonnes questions.
13:29
Thank you.
255
809020
1216
Merci.
13:30
(Applause)
256
810260
2920
(Applaudissements)
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7