Damon Horowitz calls for a "moral operating system"

Damon Horowitz en appelle à un « système d'exploitation moral »

92,160 views

2011-06-06 ・ TED


New videos

Damon Horowitz calls for a "moral operating system"

Damon Horowitz en appelle à un « système d'exploitation moral »

92,160 views ・ 2011-06-06

TED


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

Traducteur: Hugo Wagner Relecteur: Timothée Parrique
00:15
Power.
0
15260
2000
Le pouvoir.
00:17
That is the word that comes to mind.
1
17260
2000
C'est le mot qui vient à l'esprit.
00:19
We're the new technologists.
2
19260
2000
Nous sommes les nouveaux technologues.
00:21
We have a lot of data, so we have a lot of power.
3
21260
3000
Nous avons beaucoup de données, donc nous avons beaucoup de pouvoir.
00:24
How much power do we have?
4
24260
2000
Quelle quantité de pouvoir avons-nous ?
00:26
Scene from a movie: "Apocalypse Now" -- great movie.
5
26260
3000
Une scène du film "Apocalypse Now" -- un grand film.
00:29
We've got to get our hero, Captain Willard, to the mouth of the Nung River
6
29260
3000
Nous devons amener notre héros, le capitaine Willard, à l'embouchure de la rivière Nung,
00:32
so he can go pursue Colonel Kurtz.
7
32260
2000
pour qu'il puisse poursuivre le colonel Kurtz.
00:34
The way we're going to do this is fly him in and drop him off.
8
34260
2000
Pour cela, nous allons le transporter en hélico et le déposer.
00:36
So the scene:
9
36260
2000
Dans cette scène :
00:38
the sky is filled with this fleet of helicopters carrying him in.
10
38260
3000
le ciel est rempli de cette flotte d'hélicoptères qui le transportent.
00:41
And there's this loud, thrilling music in the background,
11
41260
2000
Il y a cette musique bruyante et palpitante en fond,
00:43
this wild music.
12
43260
2000
cette musique effrénée.
00:45
♫ Dum da ta da dum ♫
13
45260
2000
♫ Dum da ta da dum ♫
00:47
♫ Dum da ta da dum ♫
14
47260
2000
♫ Dum da ta da dum ♫
00:49
♫ Da ta da da ♫
15
49260
3000
♫ Da ta da da ♫
00:52
That's a lot of power.
16
52260
2000
C'est un grand pouvoir.
00:54
That's the kind of power I feel in this room.
17
54260
2000
C'est le genre de pouvoir que je ressens dans cette pièce.
00:56
That's the kind of power we have
18
56260
2000
C'est le genre de pouvoir que nous avons
00:58
because of all of the data that we have.
19
58260
2000
grâce à toutes les données que nous possédons.
01:00
Let's take an example.
20
60260
2000
Prenons un exemple.
01:02
What can we do
21
62260
2000
Que pouvons-nous faire
01:04
with just one person's data?
22
64260
3000
avec les données d'une seule personne ?
01:07
What can we do
23
67260
2000
Que pouvons-nous faire
01:09
with that guy's data?
24
69260
2000
avec les données de ce type ?
01:11
I can look at your financial records.
25
71260
2000
Je peux regarder vos registres financiers.
01:13
I can tell if you pay your bills on time.
26
73260
2000
Je peux vous dire si vous payez vos factures à temps.
01:15
I know if you're good to give a loan to.
27
75260
2000
Je sais alors si je peux vous faire un prêt.
01:17
I can look at your medical records; I can see if your pump is still pumping --
28
77260
3000
Je peux regarder votre dossier médical, je peux voir si votre cœur fonctionne bien --
01:20
see if you're good to offer insurance to.
29
80260
3000
voir si je peux vous proposer une assurance.
01:23
I can look at your clicking patterns.
30
83260
2000
Je peux regarder où vous cliquez sur Internet.
01:25
When you come to my website, I actually know what you're going to do already
31
85260
3000
Quand vous visitez mon site, je sais déjà ce que vous allez faire,
01:28
because I've seen you visit millions of websites before.
32
88260
2000
parce que je vous ai vu visiter des millions de sites auparavant.
01:30
And I'm sorry to tell you,
33
90260
2000
Je suis désolé de vous dire,
01:32
you're like a poker player, you have a tell.
34
92260
2000
vous êtes comme un joueur de poker, vous avez des manies.
01:34
I can tell with data analysis what you're going to do
35
94260
2000
Je peux dire grâce à l'analyse de données ce que vous allez faire
01:36
before you even do it.
36
96260
2000
avant même que vous ne le fassiez.
01:38
I know what you like. I know who you are,
37
98260
3000
Je sais ce que vous aimez. Je sais qui vous êtes.
01:41
and that's even before I look at your mail
38
101260
2000
Et cela avant même que je regarde votre courrier
01:43
or your phone.
39
103260
2000
ou votre téléphone.
01:45
Those are the kinds of things we can do
40
105260
2000
Ce sont le genre de choses que nous pouvons faire
01:47
with the data that we have.
41
107260
3000
avec les données que nous avons.
01:50
But I'm not actually here to talk about what we can do.
42
110260
3000
Mais je ne suis pas là pour parler de ce que nous pouvons faire.
01:56
I'm here to talk about what we should do.
43
116260
3000
Je suis ici pour parler de ce que nous devrions faire.
02:00
What's the right thing to do?
44
120260
3000
Quelle est la bonne chose à faire ?
02:04
Now I see some puzzled looks
45
124260
2000
Je vois des regards perplexes
02:06
like, "Why are you asking us what's the right thing to do?
46
126260
3000
comme « Pourquoi nous demandez-vous quelle est la bonne chose à faire ?
02:09
We're just building this stuff. Somebody else is using it."
47
129260
3000
On ne fait que construire ce truc. Quelqu'un d'autre l'utilise. »
02:12
Fair enough.
48
132260
3000
Très bien.
02:15
But it brings me back.
49
135260
2000
Mais ça me ramène en arrière.
02:17
I think about World War II --
50
137260
2000
Je pense à la deuxième guerre mondiale --
02:19
some of our great technologists then,
51
139260
2000
certains de nos grands technologues de l'époque,
02:21
some of our great physicists,
52
141260
2000
certains de nos grands physiciens,
02:23
studying nuclear fission and fusion --
53
143260
2000
qui étudiaient la fission et la fusion nucléaires --
02:25
just nuclear stuff.
54
145260
2000
juste des trucs nucléaires.
02:27
We gather together these physicists in Los Alamos
55
147260
3000
Nous rassemblons ces physiciens ensemble à Los Alamos
02:30
to see what they'll build.
56
150260
3000
pour voir ce qu'ils vont construire.
02:33
We want the people building the technology
57
153260
3000
Nous voulons que les personnes qui construisent la technologie
02:36
thinking about what we should be doing with the technology.
58
156260
3000
pensent à ce que nous devrions faire avec la technologie.
02:41
So what should we be doing with that guy's data?
59
161260
3000
Que devrions-nous donc faire avec les données de ce type ?
02:44
Should we be collecting it, gathering it,
60
164260
3000
Devrions-nous les collecter, les rassembler,
02:47
so we can make his online experience better?
61
167260
2000
pour optimiser son surf sur Internet ?
02:49
So we can make money?
62
169260
2000
Pour faire de l'argent ?
02:51
So we can protect ourselves
63
171260
2000
Pour que nous puissions nous protéger
02:53
if he was up to no good?
64
173260
2000
s'il a de mauvaises intentions ?
02:55
Or should we respect his privacy,
65
175260
3000
Ou devrions-nous respecter son intimité,
02:58
protect his dignity and leave him alone?
66
178260
3000
protéger sa dignité et le laisser tranquille ?
03:02
Which one is it?
67
182260
3000
Que fait-on ?
03:05
How should we figure it out?
68
185260
2000
Comment décidons-nous ?
03:07
I know: crowdsource. Let's crowdsource this.
69
187260
3000
Je sais : la participation citoyenne. Faisons du crowdsourcing.
03:11
So to get people warmed up,
70
191260
3000
Pour donner de l'entrain aux gens,
03:14
let's start with an easy question --
71
194260
2000
commençons par une question facile --
03:16
something I'm sure everybody here has an opinion about:
72
196260
3000
une chose sur laquelle tout le monde ici a une idée, j'en suis sûr :
03:19
iPhone versus Android.
73
199260
2000
iPhone contre Android.
03:21
Let's do a show of hands -- iPhone.
74
201260
3000
Levez vos mains pour l'iPhone.
03:24
Uh huh.
75
204260
2000
Uh huh.
03:26
Android.
76
206260
3000
Android.
03:29
You'd think with a bunch of smart people
77
209260
2000
Je pensais qu'une assemblée de gens intelligents
03:31
we wouldn't be such suckers just for the pretty phones.
78
211260
2000
ne succomberait pas si facilement aux jolis téléphones.
03:33
(Laughter)
79
213260
2000
(Rires)
03:35
Next question,
80
215260
2000
Question suivante.
03:37
a little bit harder.
81
217260
2000
Un peu plus difficile.
03:39
Should we be collecting all of that guy's data
82
219260
2000
Devrions-nous collecter toutes les données de ce type
03:41
to make his experiences better
83
221260
2000
pour optimiser son surf sur Internet
03:43
and to protect ourselves in case he's up to no good?
84
223260
3000
et pour nous protéger au cas où il aurait de mauvaises intentions ?
03:46
Or should we leave him alone?
85
226260
2000
Ou devrions-nous le laisser tranquille ?
03:48
Collect his data.
86
228260
3000
Rassembler ses données.
03:53
Leave him alone.
87
233260
3000
Le laisser tranquille.
03:56
You're safe. It's fine.
88
236260
2000
Vous êtes hors de danger, c'est bon.
03:58
(Laughter)
89
238260
2000
(Rires)
04:00
Okay, last question --
90
240260
2000
Bien, dernière question --
04:02
harder question --
91
242260
2000
plus difficile --
04:04
when trying to evaluate
92
244260
3000
quand on essaye d'estimer
04:07
what we should do in this case,
93
247260
3000
ce que nous devrions faire dans cette situation,
04:10
should we use a Kantian deontological moral framework,
94
250260
4000
devrions-nous utiliser le système moral déontologique de Kant,
04:14
or should we use a Millian consequentialist one?
95
254260
3000
ou bien le système moral conséquentialiste de Mill ?
04:19
Kant.
96
259260
3000
Kant.
04:22
Mill.
97
262260
3000
Mill.
04:25
Not as many votes.
98
265260
2000
Pas autant de voix.
04:27
(Laughter)
99
267260
3000
(Rires)
04:30
Yeah, that's a terrifying result.
100
270260
3000
Oui, c'est un résultat terrifiant.
04:34
Terrifying, because we have stronger opinions
101
274260
4000
Terrifiant, parce que nous avons des opinions plus fortes
04:38
about our hand-held devices
102
278260
2000
sur nos appareils téléphones
04:40
than about the moral framework
103
280260
2000
que sur les systèmes moraux
04:42
we should use to guide our decisions.
104
282260
2000
que nous devrions utiliser pour orienter nos décisions.
04:44
How do we know what to do with all the power we have
105
284260
3000
Que faire de tout le pouvoir que nous avons
04:47
if we don't have a moral framework?
106
287260
3000
si nous n'avons pas de système moral ?
04:50
We know more about mobile operating systems,
107
290260
3000
Nous en savons davantage sur les systèmes d'exploitation de nos téléphones,
04:53
but what we really need is a moral operating system.
108
293260
3000
alors que ce dont nous avons vraiment besoin est d'un système d'exploitation moral.
04:58
What's a moral operating system?
109
298260
2000
Qu'est-ce qu'un système d'exploitation moral ?
05:00
We all know right and wrong, right?
110
300260
2000
Nous connaissons tous le bien et le mal.
05:02
You feel good when you do something right,
111
302260
2000
Vous vous sentez bien quand vous faites quelque chose de juste,
05:04
you feel bad when you do something wrong.
112
304260
2000
vous vous sentez mal quand vous faites le mal.
05:06
Our parents teach us that: praise with the good, scold with the bad.
113
306260
3000
Nos parents nous l'apprennent : louer le bien, réprimander le mal.
05:09
But how do we figure out what's right and wrong?
114
309260
3000
Mais comment savoir ce qui est bien et ce qui est mal ?
05:12
And from day to day, we have the techniques that we use.
115
312260
3000
De jour en jour, nous utilisons des techniques.
05:15
Maybe we just follow our gut.
116
315260
3000
Peut-être que nous suivons simplement notre instinct.
05:18
Maybe we take a vote -- we crowdsource.
117
318260
3000
Peut-être que nous procédons à un vote -- le crowdsourcing.
05:21
Or maybe we punt --
118
321260
2000
Ou peut-être que nous nous déchargeons --
05:23
ask the legal department, see what they say.
119
323260
3000
nous demandons le service juridique, voir ce qu'ils en pensent.
05:26
In other words, it's kind of random,
120
326260
2000
En d'autres mots, c'est plutôt aléatoire,
05:28
kind of ad hoc,
121
328260
2000
c'est plutôt ad hoc,
05:30
how we figure out what we should do.
122
330260
3000
la façon dont nous décidons de ce que nous devrions faire.
05:33
And maybe, if we want to be on surer footing,
123
333260
3000
Peut-être que si nous voulons adopter une position plus sûre,
05:36
what we really want is a moral framework that will help guide us there,
124
336260
3000
ce que nous voulons vraiment est un système moral qui nous aidera à nous y orienter,
05:39
that will tell us what kinds of things are right and wrong in the first place,
125
339260
3000
qui nous dira qu'est-ce qui est bien et qu'est-ce qui est mal dès le départ,
05:42
and how would we know in a given situation what to do.
126
342260
4000
et comment savoir quoi faire dans une situation donnée.
05:46
So let's get a moral framework.
127
346260
2000
Prenons donc un cadre moral.
05:48
We're numbers people, living by numbers.
128
348260
3000
Nous vivons dans un monde de chiffres.
05:51
How can we use numbers
129
351260
2000
Comment pouvons-nous utiliser les chiffres
05:53
as the basis for a moral framework?
130
353260
3000
comme base d'un système moral ?
05:56
I know a guy who did exactly that.
131
356260
3000
Je connais quelqu'un qui a fait exactement cela,
05:59
A brilliant guy --
132
359260
3000
quelqu'un de brillant --
06:02
he's been dead 2,500 years.
133
362260
3000
il est mort il y a 2 500 ans.
06:05
Plato, that's right.
134
365260
2000
Platon, c'est exact.
06:07
Remember him -- old philosopher?
135
367260
2000
Vous vous rappelez de lui -- le vieux philosophe ?
06:09
You were sleeping during that class.
136
369260
3000
Vous dormiez pendant les cours.
06:12
And Plato, he had a lot of the same concerns that we did.
137
372260
2000
Platon partageait beaucoup de nos préoccupations.
06:14
He was worried about right and wrong.
138
374260
2000
Il se préoccupait du bien et du mal.
06:16
He wanted to know what is just.
139
376260
2000
Il voulait savoir ce qui était juste.
06:18
But he was worried that all we seem to be doing
140
378260
2000
Mais il s'inquiétait que tout ce que nous semblons faire,
06:20
is trading opinions about this.
141
380260
2000
c'est échanger des opinions sur le sujet.
06:22
He says something's just. She says something else is just.
142
382260
3000
Il me dit que quelque chose est juste. Elle me dit qu'autre chose est juste.
06:25
It's kind of convincing when he talks and when she talks too.
143
385260
2000
Les deux sont plutôt convaincants quand ils parlent.
06:27
I'm just going back and forth; I'm not getting anywhere.
144
387260
2000
Je fais des allers retours ; je n'avance pas.
06:29
I don't want opinions; I want knowledge.
145
389260
3000
Je ne veux pas d'opinions, je veux de la connaissance.
06:32
I want to know the truth about justice --
146
392260
3000
Je veux connaître la vérité sur la justice --
06:35
like we have truths in math.
147
395260
3000
comme on connait les vérités mathématiques.
06:38
In math, we know the objective facts.
148
398260
3000
En maths, on connait les faits concrets.
06:41
Take a number, any number -- two.
149
401260
2000
Prenez un chiffre, n'importe lequel -- deux.
06:43
Favorite number. I love that number.
150
403260
2000
Mon chiffre préféré. J'adore ce chiffre.
06:45
There are truths about two.
151
405260
2000
Il y a des vérités sur le chiffre deux.
06:47
If you've got two of something,
152
407260
2000
Si vous avez une chose en deux exemplaires,
06:49
you add two more, you get four.
153
409260
2000
vous en ajoutez deux, vous en obtenez quatre.
06:51
That's true no matter what thing you're talking about.
154
411260
2000
C'est vrai pour n'importe quelle chose.
06:53
It's an objective truth about the form of two,
155
413260
2000
c'est une vérité objective sur la forme du chiffre deux,
06:55
the abstract form.
156
415260
2000
la forme abstraite.
06:57
When you have two of anything -- two eyes, two ears, two noses,
157
417260
2000
Quand vous avez une chose en deux exemplaires -- deux yeux, deux oreilles, deux nez,
06:59
just two protrusions --
158
419260
2000
juste deux éléments --
07:01
those all partake of the form of two.
159
421260
3000
ils participent tous à la forme du chiffre deux.
07:04
They all participate in the truths that two has.
160
424260
4000
Ils participent aux vérités intrinsèques du chiffre deux.
07:08
They all have two-ness in them.
161
428260
2000
Il y a du chiffre deux en chacun d'eux.
07:10
And therefore, it's not a matter of opinion.
162
430260
3000
Par conséquent, ça ne dépend pas de l'opinion.
07:13
What if, Plato thought,
163
433260
2000
Et si, Platon se disait,
07:15
ethics was like math?
164
435260
2000
l'étique était comme les maths ?
07:17
What if there were a pure form of justice?
165
437260
3000
Et s'il y avait une forme pure de justice ?
07:20
What if there are truths about justice,
166
440260
2000
Et s'il y avait des vérités sur la justice,
07:22
and you could just look around in this world
167
442260
2000
et que vous pouviez simplement regarder le monde
07:24
and see which things participated,
168
444260
2000
et voir les choses qui y participent,
07:26
partook of that form of justice?
169
446260
3000
qui prennent part à cette forme de justice ?
07:29
Then you would know what was really just and what wasn't.
170
449260
3000
Vous sauriez alors ce qui est vraiment juste et ce qui ne l'est pas.
07:32
It wouldn't be a matter
171
452260
2000
Ça ne dépendrait pas
07:34
of just opinion or just appearances.
172
454260
3000
d'un simple jugement ou d'un simple aspect.
07:37
That's a stunning vision.
173
457260
2000
C'est une vision stupéfiante.
07:39
I mean, think about that. How grand. How ambitious.
174
459260
3000
Je veux dire, pensez-y. C'est magnifique. C'est ambitieux.
07:42
That's as ambitious as we are.
175
462260
2000
C'est aussi ambitieux que nous.
07:44
He wants to solve ethics.
176
464260
2000
Nous voulons résoudre les problèmes d'éthique.
07:46
He wants objective truths.
177
466260
2000
Nous voulons des vérités objectives.
07:48
If you think that way,
178
468260
3000
Si vous pensez de cette façon,
07:51
you have a Platonist moral framework.
179
471260
3000
vous avez un système moral platonicien.
07:54
If you don't think that way,
180
474260
2000
Si vous ne pensez pas de cette façon,
07:56
well, you have a lot of company in the history of Western philosophy,
181
476260
2000
eh bien, vous n'êtes pas seul dans l'histoire de la philosophie occidentale,
07:58
because the tidy idea, you know, people criticized it.
182
478260
3000
parce que cette jolie idée -- vous savez, les gens l'ont critiquée.
08:01
Aristotle, in particular, he was not amused.
183
481260
3000
Aristote, en particulier, n'a pas apprécié.
08:04
He thought it was impractical.
184
484260
3000
Il pensait que c'était infaisable en pratique.
08:07
Aristotle said, "We should seek only so much precision in each subject
185
487260
4000
Aristote disait : « Nous ne devrions chercher qu'autant d'exactitude dans un sujet
08:11
as that subject allows."
186
491260
2000
que celui-ci nous le permet. »
08:13
Aristotle thought ethics wasn't a lot like math.
187
493260
3000
Aristote pensait que l'éthique n'était pas vraiment comme les maths.
08:16
He thought ethics was a matter of making decisions in the here-and-now
188
496260
3000
Il pensait que l'éthique consistait à prendre des décision ici et maintenant
08:19
using our best judgment
189
499260
2000
en utilisant notre meilleur jugement
08:21
to find the right path.
190
501260
2000
pour trouver le droit chemin.
08:23
If you think that, Plato's not your guy.
191
503260
2000
Si vous pensez cela, Platon n'est pas votre homme.
08:25
But don't give up.
192
505260
2000
Mais n'abandonnez pas.
08:27
Maybe there's another way
193
507260
2000
Peut-être y a-t-il un autre moyen
08:29
that we can use numbers as the basis of our moral framework.
194
509260
3000
pour utiliser les nombres comme base de notre système moral.
08:33
How about this:
195
513260
2000
Que diriez-vous de ceci :
08:35
What if in any situation you could just calculate,
196
515260
3000
et si dans n'importe quelle situation, vous pouviez simplement calculer,
08:38
look at the choices,
197
518260
2000
examiner les possibilités,
08:40
measure out which one's better and know what to do?
198
520260
3000
évaluer laquelle est la meilleure et savoir quoi faire ?
08:43
That sound familiar?
199
523260
2000
Cela vous dit quelque chose ?
08:45
That's a utilitarian moral framework.
200
525260
3000
C'est un système moral utilitariste.
08:48
John Stuart Mill was a great advocate of this --
201
528260
2000
John Stuart Mill en était un grand partisan --
08:50
nice guy besides --
202
530260
2000
un type bien par ailleurs --
08:52
and only been dead 200 years.
203
532260
2000
et il n'est mort que depuis 200 ans.
08:54
So basis of utilitarianism --
204
534260
2000
Donc les fondements de l'utilitarisme --
08:56
I'm sure you're familiar at least.
205
536260
2000
je suis sûr que vous les connaissez.
08:58
The three people who voted for Mill before are familiar with this.
206
538260
2000
Les trois personnes qui ont voté pour Mill tout à l'heure savent ce que c'est.
09:00
But here's the way it works.
207
540260
2000
Mais voilà comment ça fonctionne.
09:02
What if morals, what if what makes something moral
208
542260
3000
Et si la morale, si ce qui rend quelque chose moral,
09:05
is just a matter of if it maximizes pleasure
209
545260
2000
n'était qu'un calcul de plaisir maximum
09:07
and minimizes pain?
210
547260
2000
et de douleur minimum ?
09:09
It does something intrinsic to the act.
211
549260
3000
C'est intrinsèque au fait.
09:12
It's not like its relation to some abstract form.
212
552260
2000
Ça n'a pas de rapport avec sa forme abstraite.
09:14
It's just a matter of the consequences.
213
554260
2000
C'est juste fonction des conséquences.
09:16
You just look at the consequences
214
556260
2000
Vous regardez simplement les conséquences,
09:18
and see if, overall, it's for the good or for the worse.
215
558260
2000
et vous voyez si, globalement, c'est pour le meilleur ou pour le pire.
09:20
That would be simple. Then we know what to do.
216
560260
2000
Ce serait simple. Nous saurions ensuite quoi faire.
09:22
Let's take an example.
217
562260
2000
Prenons un exemple.
09:24
Suppose I go up
218
564260
2000
Imaginez que je vienne
09:26
and I say, "I'm going to take your phone."
219
566260
2000
et je dise : « Je vais vous prendre votre téléphone. »
09:28
Not just because it rang earlier,
220
568260
2000
Pas parce qu'il a sonné tout à l'heure,
09:30
but I'm going to take it because I made a little calculation.
221
570260
3000
mais parce que j'ai fait un petit calcul.
09:33
I thought, that guy looks suspicious.
222
573260
3000
Je pensais que ce type avait l'air suspect.
09:36
And what if he's been sending little messages to Bin Laden's hideout --
223
576260
3000
Et s'il était en train d'envoyer des messages à la planque de Ben Laden --
09:39
or whoever took over after Bin Laden --
224
579260
2000
ou de n'importe qui ayant pris la relève de Ben Laden --
09:41
and he's actually like a terrorist, a sleeper cell.
225
581260
3000
c'est en fait un terroriste, une cellule dormante.
09:44
I'm going to find that out, and when I find that out,
226
584260
3000
Je vais m'en rendre compte, et quand ce sera fait,
09:47
I'm going to prevent a huge amount of damage that he could cause.
227
587260
3000
je vais éviter d'énormes dégâts qu'il pourrait causer.
09:50
That has a very high utility to prevent that damage.
228
590260
3000
L'intérêt est très grand d'éviter les dégâts,
09:53
And compared to the little pain that it's going to cause --
229
593260
2000
comparé au moindre mal qu'il y aurait
09:55
because it's going to be embarrassing when I'm looking on his phone
230
595260
2000
si je le gêne en regardant dans son téléphone
09:57
and seeing that he has a Farmville problem and that whole bit --
231
597260
3000
pour découvrir qu'il ne faisait que jouer à Farmville --
10:00
that's overwhelmed
232
600260
3000
c'est écrasé
10:03
by the value of looking at the phone.
233
603260
2000
par l'utilité d'examiner son téléphone.
10:05
If you feel that way,
234
605260
2000
Si vous pensez comme cela,
10:07
that's a utilitarian choice.
235
607260
3000
c'est un choix utilitariste.
10:10
But maybe you don't feel that way either.
236
610260
3000
Mais peut-être que vous ne pensez pas non plus comme ça.
10:13
Maybe you think, it's his phone.
237
613260
2000
Peut-être que vous vous dites : c'est son téléphone.
10:15
It's wrong to take his phone
238
615260
2000
C'est mal de prendre son téléphone,
10:17
because he's a person
239
617260
2000
parce que c'est un individu
10:19
and he has rights and he has dignity,
240
619260
2000
et il a des droits et il a une dignité,
10:21
and we can't just interfere with that.
241
621260
2000
et nous ne pouvons pas interférer avec ça.
10:23
He has autonomy.
242
623260
2000
Il est autonome.
10:25
It doesn't matter what the calculations are.
243
625260
2000
Peut importe les calculs.
10:27
There are things that are intrinsically wrong --
244
627260
3000
Ces choses sont intrinsèquement mauvaises --
10:30
like lying is wrong,
245
630260
2000
comme mentir est mal,
10:32
like torturing innocent children is wrong.
246
632260
3000
de même que torturer des enfants innocents est mal.
10:35
Kant was very good on this point,
247
635260
3000
Kant était vraiment bon sur ce sujet,
10:38
and he said it a little better than I'll say it.
248
638260
2000
et il le disait un peu mieux que je vais le dire.
10:40
He said we should use our reason
249
640260
2000
Il disait que nous devrions utiliser notre raison
10:42
to figure out the rules by which we should guide our conduct,
250
642260
3000
pour décider des règles selon lesquelles nous devrions orienter notre conduite.
10:45
and then it is our duty to follow those rules.
251
645260
3000
Il est ensuite de notre devoir de suivre ces règles.
10:48
It's not a matter of calculation.
252
648260
3000
Ça n'a rien à voir avec des calculs.
10:51
So let's stop.
253
651260
2000
Arrêtons-nous.
10:53
We're right in the thick of it, this philosophical thicket.
254
653260
3000
Nous sommes au cœur de cet enchevêtrement philosophique.
10:56
And this goes on for thousands of years,
255
656260
3000
Et le débat perdure depuis des milliers d'années,
10:59
because these are hard questions,
256
659260
2000
parce que ce sont des questions difficiles,
11:01
and I've only got 15 minutes.
257
661260
2000
et je n'ai que 15 minutes.
11:03
So let's cut to the chase.
258
663260
2000
Alors allons droit au but.
11:05
How should we be making our decisions?
259
665260
4000
Comment devrions-nous prendre nos décisions ?
11:09
Is it Plato, is it Aristotle, is it Kant, is it Mill?
260
669260
3000
Selon Platon, en accord avec Aristote, ou bien Kant, ou Mill ?
11:12
What should we be doing? What's the answer?
261
672260
2000
Que devrions-nous faire ? Quelle est la réponse ?
11:14
What's the formula that we can use in any situation
262
674260
3000
Quelle est la formule que nous pouvons utiliser dans n'importe quelle situation
11:17
to determine what we should do,
263
677260
2000
pour déterminer ce que nous devrions faire ?
11:19
whether we should use that guy's data or not?
264
679260
2000
Si nous devrions utiliser les données de ce type ou pas ?
11:21
What's the formula?
265
681260
3000
Quelle est la formule ?
11:25
There's not a formula.
266
685260
2000
Il n'y a pas de formule.
11:29
There's not a simple answer.
267
689260
2000
Il n'y a pas de réponse simple.
11:31
Ethics is hard.
268
691260
3000
L'éthique, c'est difficile.
11:34
Ethics requires thinking.
269
694260
3000
L'éthique exige une réflexion.
11:38
And that's uncomfortable.
270
698260
2000
C'est inconfortable.
11:40
I know; I spent a lot of my career
271
700260
2000
Je sais ; j'ai passé une grande partie de ma carrière
11:42
in artificial intelligence,
272
702260
2000
dans l'intelligence artificielle,
11:44
trying to build machines that could do some of this thinking for us,
273
704260
3000
à essayer de construire des machines qui puissent réfléchir là-dessus pour nous,
11:47
that could give us answers.
274
707260
2000
qui puissent nous donner des réponses.
11:49
But they can't.
275
709260
2000
Mais elles ne le peuvent pas.
11:51
You can't just take human thinking
276
711260
2000
Vous ne pouvez pas simplement prendre la pensée humaine
11:53
and put it into a machine.
277
713260
2000
et la mettre dans une machine.
11:55
We're the ones who have to do it.
278
715260
3000
Nous devons le faire par nous-mêmes.
11:58
Happily, we're not machines, and we can do it.
279
718260
3000
Heureusement, nous ne sommes pas des machines, et nous pouvons le faire.
12:01
Not only can we think,
280
721260
2000
Nous pouvons non seulement penser,
12:03
we must.
281
723260
2000
mais nous le devons.
12:05
Hannah Arendt said,
282
725260
2000
Hannah Arendt disait :
12:07
"The sad truth
283
727260
2000
« La triste vérité
12:09
is that most evil done in this world
284
729260
2000
est que la plupart du mal fait en ce monde
12:11
is not done by people
285
731260
2000
n'est pas fait par des gens
12:13
who choose to be evil.
286
733260
2000
qui ont choisi de faire le mal.
12:15
It arises from not thinking."
287
735260
3000
Il surgit de l'inexistence d'une réflexion. »
12:18
That's what she called the "banality of evil."
288
738260
4000
C'est ce qu'elle appelait « la banalité du mal. »
12:22
And the response to that
289
742260
2000
La réponse à cela
12:24
is that we demand the exercise of thinking
290
744260
2000
est que nous réclamons l'exercice de pensée
12:26
from every sane person.
291
746260
3000
à toute personne sensée.
12:29
So let's do that. Let's think.
292
749260
2000
Faisons-donc cela. Pensons.
12:31
In fact, let's start right now.
293
751260
3000
En fait, commençons dès maintenant.
12:34
Every person in this room do this:
294
754260
3000
Tout le monde dans la salle :
12:37
think of the last time you had a decision to make
295
757260
3000
pensez à la dernière fois que vous avez dû prendre une décision
12:40
where you were worried to do the right thing,
296
760260
2000
où vous étiez préoccupés de faire ce qui est juste,
12:42
where you wondered, "What should I be doing?"
297
762260
2000
où vous vous êtes demandés : « Que devrais-je faire ? »
12:44
Bring that to mind,
298
764260
2000
Pensez à cela.
12:46
and now reflect on that
299
766260
2000
Réfléchissez maintenant à cela
12:48
and say, "How did I come up that decision?
300
768260
3000
et demandez-vous : « Comment ais-je pris cette décision ?
12:51
What did I do? Did I follow my gut?
301
771260
3000
Qu'est-ce que j'ai fait ? Est-ce que j'ai suivi mon instinct ?
12:54
Did I have somebody vote on it? Or did I punt to legal?"
302
774260
2000
Est-ce que j'ai fait procéder à un vote ? Ou est-ce que j'ai fait appel au service juridique ? »
12:56
Or now we have a few more choices.
303
776260
3000
Ou bien nous avons d'autres choix maintenant.
12:59
"Did I evaluate what would be the highest pleasure
304
779260
2000
« Est-ce que j'ai estimé ce qui procurerait le plus de plaisir,
13:01
like Mill would?
305
781260
2000
comme Mill l'aurait fait ?
13:03
Or like Kant, did I use reason to figure out what was intrinsically right?"
306
783260
3000
Ou comme Kant, ai-je utilisé ma raison pour décider de ce qui était intrinsèquement juste ?
13:06
Think about it. Really bring it to mind. This is important.
307
786260
3000
Pensez-y. Vraiment. C'est important.
13:09
It is so important
308
789260
2000
C'est si important
13:11
we are going to spend 30 seconds of valuable TEDTalk time
309
791260
2000
que nous allons passer 30 précieuses secondes de mon intervention à TED
13:13
doing nothing but thinking about this.
310
793260
2000
à ne rien faire d'autre que d'y penser.
13:15
Are you ready? Go.
311
795260
2000
Vous êtes prêts ? Allez-y.
13:33
Stop. Good work.
312
813260
3000
Arrêtez. Bon travail.
13:36
What you just did,
313
816260
2000
Ce que vous venez de faire,
13:38
that's the first step towards taking responsibility
314
818260
2000
c'est le premier pas vers la prise de responsabilité
13:40
for what we should do with all of our power.
315
820260
3000
concernant ce que nous devrions faire avec tout ce pouvoir.
13:45
Now the next step -- try this.
316
825260
3000
La prochaine étape : essayez ceci.
13:49
Go find a friend and explain to them
317
829260
2000
Allez trouver un ami et expliquez-lui
13:51
how you made that decision.
318
831260
2000
comment vous avez pris cette décision.
13:53
Not right now. Wait till I finish talking.
319
833260
2000
Pas tout de suite. Attendez que j'ai terminé de parler.
13:55
Do it over lunch.
320
835260
2000
Faites-le au déjeuner.
13:57
And don't just find another technologist friend;
321
837260
3000
N'allez pas simplement trouver un autre ami technologue ;
14:00
find somebody different than you.
322
840260
2000
trouvez quelqu'un de différent.
14:02
Find an artist or a writer --
323
842260
2000
Trouvez un artiste ou un écrivain --
14:04
or, heaven forbid, find a philosopher and talk to them.
324
844260
3000
ou, Dieu vous en préserve, trouvez un philosophe et parlez leur.
14:07
In fact, find somebody from the humanities.
325
847260
2000
En fait, trouvez quelqu'un dans les sciences humaines.
14:09
Why? Because they think about problems
326
849260
2000
Pourquoi ? Parce qu'ils pensent aux problèmes
14:11
differently than we do as technologists.
327
851260
2000
d'une manière différente à nous les technologues.
14:13
Just a few days ago, right across the street from here,
328
853260
3000
Il y a juste quelques jours, de l'autre côté de la rue ici,
14:16
there was hundreds of people gathered together.
329
856260
2000
il y avait un rassemblement de centaines de personnes.
14:18
It was technologists and humanists
330
858260
2000
C'était des technologues et des humanistes
14:20
at that big BiblioTech Conference.
331
860260
2000
à la grande BiblioTech Conférence.
14:22
And they gathered together
332
862260
2000
Ils étaient rassemblés
14:24
because the technologists wanted to learn
333
864260
2000
parce que les technologues voulaient apprendre
14:26
what it would be like to think from a humanities perspective.
334
866260
3000
ce que cela faisait de penser du point de vue des sciences sociales.
14:29
You have someone from Google
335
869260
2000
Vous avez quelqu'un de chez Google
14:31
talking to someone who does comparative literature.
336
871260
2000
qui parle à quelqu'un qui fait de la littérature comparée.
14:33
You're thinking about the relevance of 17th century French theater --
337
873260
3000
Vous vous demandez quel est l'intérêt du théâtre français du 17ème siècle --
14:36
how does that bear upon venture capital?
338
876260
2000
quel est le lien avec le capital-risque ?
14:38
Well that's interesting. That's a different way of thinking.
339
878260
3000
Eh bien, c'est intéressant. C'est une manière de penser différente.
14:41
And when you think in that way,
340
881260
2000
Quand vous pensez de cette façon,
14:43
you become more sensitive to the human considerations,
341
883260
3000
vous devenez plus sensible aux considérations humaines,
14:46
which are crucial to making ethical decisions.
342
886260
3000
ce qui est crucial pour prendre des décisions éthiques.
14:49
So imagine that right now
343
889260
2000
Imaginez maintenant
14:51
you went and you found your musician friend.
344
891260
2000
que vous avez trouvé votre ami musicien.
14:53
And you're telling him what we're talking about,
345
893260
3000
Vous lui racontez ce dont on parle,
14:56
about our whole data revolution and all this --
346
896260
2000
sur notre révolution des données et tout ça --
14:58
maybe even hum a few bars of our theme music.
347
898260
2000
vous fredonnez peut-être quelques notes de notre thème musical.
15:00
♫ Dum ta da da dum dum ta da da dum ♫
348
900260
3000
♫ Dum ta da da dum dum ta da da dum ♫
15:03
Well, your musician friend will stop you and say,
349
903260
2000
Votre ami musicien va vous interrompre et vous dire :
15:05
"You know, the theme music
350
905260
2000
« Tu sais, le thème musical
15:07
for your data revolution,
351
907260
2000
pour ta révolution des données,
15:09
that's an opera, that's Wagner.
352
909260
2000
c'est un opéra, c'est Wagner.
15:11
It's based on Norse legend.
353
911260
2000
C'est basé sur une légende nordique.
15:13
It's Gods and mythical creatures
354
913260
2000
Ce sont des dieux et des créatures mythologiques
15:15
fighting over magical jewelry."
355
915260
3000
qui se battent pour des bijoux magiques. »
15:19
That's interesting.
356
919260
3000
C'est intéressant.
15:22
Now it's also a beautiful opera,
357
922260
3000
C'est aussi un magnifique opéra.
15:25
and we're moved by that opera.
358
925260
3000
Nous sommes émus par cet opéra.
15:28
We're moved because it's about the battle
359
928260
2000
Nous sommes émus parce que c'est sur la bataille
15:30
between good and evil,
360
930260
2000
entre le bien et le mal,
15:32
about right and wrong.
361
932260
2000
le juste et l'injuste.
15:34
And we care about right and wrong.
362
934260
2000
Et nous nous préoccupons du juste et de l'injuste.
15:36
We care what happens in that opera.
363
936260
3000
Nous nous soucions de ce qui se passe dans cet opéra.
15:39
We care what happens in "Apocalypse Now."
364
939260
3000
Nous nous soucions de ce qui se passe dans "Apocalypse Now".
15:42
And we certainly care
365
942260
2000
Et nous nous préoccupons certainement
15:44
what happens with our technologies.
366
944260
2000
de ce qui se passe avec nos technologies.
15:46
We have so much power today,
367
946260
2000
Nous avons tant de pouvoir aujourd'hui,
15:48
it is up to us to figure out what to do,
368
948260
3000
ça ne dépend que de nous de savoir ce qu'on en fait.
15:51
and that's the good news.
369
951260
2000
C'est la bonne nouvelle.
15:53
We're the ones writing this opera.
370
953260
3000
Nous sommes ceux qui écrivent cet opéra.
15:56
This is our movie.
371
956260
2000
C'est notre film.
15:58
We figure out what will happen with this technology.
372
958260
3000
Nous décidons ce qui va arriver avec cette technologie.
16:01
We determine how this will all end.
373
961260
3000
Nous déterminons comment tout cela va finir.
16:04
Thank you.
374
964260
2000
Merci.
16:06
(Applause)
375
966260
5000
(Applaudissements)
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7