3 principles for creating safer AI | Stuart Russell

139,790 views ・ 2017-06-06

TED


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

Traducteur: Antoine Combeau Relecteur: Mathieu Marthe
00:12
This is Lee Sedol.
0
12532
1552
Voici Lee Sedol.
00:14
Lee Sedol is one of the world's greatest Go players,
1
14108
3997
Lee Sedol est l'un des meilleurs joueurs de go au monde,
00:18
and he's having what my friends in Silicon Valley call
2
18129
2885
et il vient d'avoir ce que mes amis de Silicon Valley appellent
00:21
a "Holy Cow" moment --
3
21038
1510
un moment « Mince alors... »
00:22
(Laughter)
4
22572
1073
(Rires)
00:23
a moment where we realize
5
23669
2188
Ce moment où nous réalisons
00:25
that AI is actually progressing a lot faster than we expected.
6
25881
3296
que l'intelligence artificielle progresse plus rapidement que prévu.
00:29
So humans have lost on the Go board. What about the real world?
7
29974
3047
Les hommes ont donc perdu au jeu de go. Qu'en est-il du monde réel ?
00:33
Well, the real world is much bigger,
8
33045
2100
Eh bien, le monde réel est bien plus grand,
00:35
much more complicated than the Go board.
9
35169
2249
plus compliqué d'un plateau de go.
00:37
It's a lot less visible,
10
37442
1819
C'est beaucoup moins visible
00:39
but it's still a decision problem.
11
39285
2038
mais ça reste un problème de décision.
00:42
And if we think about some of the technologies
12
42768
2321
Si nous pensons à certaines technologies
00:45
that are coming down the pike ...
13
45113
1749
qui apparaissent...
00:47
Noriko [Arai] mentioned that reading is not yet happening in machines,
14
47558
4335
Noriko [Arai] a dit que la lecture n'est pas encore au point pour les machines,
00:51
at least with understanding.
15
51917
1500
du moins avec compréhension.
00:53
But that will happen,
16
53441
1536
Mais cela se produira,
00:55
and when that happens,
17
55001
1771
et quand ça se produira,
00:56
very soon afterwards,
18
56796
1187
très peu de temps après,
00:58
machines will have read everything that the human race has ever written.
19
58007
4572
les machines liront tout ce que la race humaine a jamais écrit.
01:03
And that will enable machines,
20
63670
2030
Cela permettra aux machines,
01:05
along with the ability to look further ahead than humans can,
21
65724
2920
qui ont la capacité de voir plus loin que les hommes ne le peuvent,
01:08
as we've already seen in Go,
22
68668
1680
comme démontré avec le jeu de go,
01:10
if they also have access to more information,
23
70372
2164
si elles ont accès à plus d'informations,
01:12
they'll be able to make better decisions in the real world than we can.
24
72560
4268
de prendre de meilleures décisions dans le monde réel que nous.
01:18
So is that a good thing?
25
78612
1606
Est-ce donc une bonne chose ?
01:21
Well, I hope so.
26
81718
2232
Eh bien, je l'espère.
01:26
Our entire civilization, everything that we value,
27
86514
3255
Notre civilisation tout entière, tout ce que nous apprécions,
01:29
is based on our intelligence.
28
89793
2068
est basé sur notre intelligence.
01:31
And if we had access to a lot more intelligence,
29
91885
3694
Et si nous avions accès à une plus large intelligence,
01:35
then there's really no limit to what the human race can do.
30
95603
3302
alors il n'y aurait aucune limite à ce que la race humaine peut faire.
01:40
And I think this could be, as some people have described it,
31
100485
3325
Je pense que cela pourrait être, comme certains l'ont décrit,
01:43
the biggest event in human history.
32
103834
2016
le plus grand moment de l'histoire humaine.
01:48
So why are people saying things like this,
33
108485
2829
Alors, pourquoi les gens racontent-ils des choses comme :
01:51
that AI might spell the end of the human race?
34
111338
2876
« l'IA pourrait signifier la fin de la race humaine ? »
01:55
Is this a new thing?
35
115258
1659
Est-ce une chose nouvelle ?
01:56
Is it just Elon Musk and Bill Gates and Stephen Hawking?
36
116941
4110
Cela ne concerne-t-il qu' Elon Musk, Bill Gates et Stephen Hawking ?
02:01
Actually, no. This idea has been around for a while.
37
121773
3262
En fait, non. Cette idée existe depuis un moment.
02:05
Here's a quotation:
38
125059
1962
Voici une citation :
02:07
"Even if we could keep the machines in a subservient position,
39
127045
4350
« Même si nous pouvions garder les machines dans une position subalterne,
02:11
for instance, by turning off the power at strategic moments" --
40
131419
2984
par exemple, en coupant l'énergie à des moments stratégiques... »
02:14
and I'll come back to that "turning off the power" idea later on --
41
134427
3237
et je reviendrai sur cette idée de « couper l'énergie » plus tard...
02:17
"we should, as a species, feel greatly humbled."
42
137688
2804
« Nous devrions, en tant qu'espèce, faire preuve d'humilité. »
02:21
So who said this? This is Alan Turing in 1951.
43
141997
3448
Donc qui a dit ça ? C'est Alan Turing en 1951.
02:26
Alan Turing, as you know, is the father of computer science
44
146120
2763
Alan Turing, vous le savez, est le père de l'informatique
02:28
and in many ways, the father of AI as well.
45
148907
3048
et à bien des égards, le père de l'IA également.
02:33
So if we think about this problem,
46
153059
1882
Si nous pensons à ce problème,
02:34
the problem of creating something more intelligent than your own species,
47
154965
3787
celui de créer quelque chose de plus intelligent que notre propre espèce,
02:38
we might call this "the gorilla problem,"
48
158776
2622
appelons cela « le problème du gorille »,
02:42
because gorillas' ancestors did this a few million years ago,
49
162165
3750
parce que leurs ancêtres ont vécu cela il y a quelques millions d'années,
02:45
and now we can ask the gorillas:
50
165939
1745
nous pouvons donc leur demander :
02:48
Was this a good idea?
51
168572
1160
« Était-ce une bonne idée ? »
02:49
So here they are having a meeting to discuss whether it was a good idea,
52
169756
3530
Donc, ils ont eu une réunion pour savoir si c'était une bonne idée
02:53
and after a little while, they conclude, no,
53
173310
3346
et après un petit moment, ils conclurent que non,
02:56
this was a terrible idea.
54
176680
1345
c'était une mauvaise idée.
02:58
Our species is in dire straits.
55
178049
1782
« Notre espèce est en difficulté. »
03:00
In fact, you can see the existential sadness in their eyes.
56
180358
4263
En fait, vous pouvez voir de la tristesse existentielle dans leurs yeux.
03:04
(Laughter)
57
184645
1640
(Rires)
03:06
So this queasy feeling that making something smarter than your own species
58
186309
4840
Ce sentiment gênant d'avoir créé quelque chose de plus intelligent
que votre propre espèce alors que ce n'est peut-être pas une bonne idée...
03:11
is maybe not a good idea --
59
191173
2365
03:14
what can we do about that?
60
194308
1491
« Que pouvons-nous y faire ? »
03:15
Well, really nothing, except stop doing AI,
61
195823
4767
Eh bien, rien, sauf abandonner l'IA.
03:20
and because of all the benefits that I mentioned
62
200614
2510
Mais à cause de tous les avantages que j'ai mentionnés
03:23
and because I'm an AI researcher,
63
203148
1716
et parce que je suis chercheur en IA,
03:24
I'm not having that.
64
204888
1791
je ne peux m'y résoudre.
03:27
I actually want to be able to keep doing AI.
65
207103
2468
Je veux réellement continuer à travailler sur l'IA.
03:30
So we actually need to nail down the problem a bit more.
66
210435
2678
Nous avons besoin de définir un peu plus le problème.
03:33
What exactly is the problem?
67
213137
1371
Quel est donc le problème ?
03:34
Why is better AI possibly a catastrophe?
68
214532
3246
Pourquoi une meilleure IA pourrait être une catastrophe ?
03:39
So here's another quotation:
69
219218
1498
Voici une autre citation :
03:41
"We had better be quite sure that the purpose put into the machine
70
221755
3335
« Nous devrions être certains que l'objectif introduit dans la machine
03:45
is the purpose which we really desire."
71
225114
2298
est bien l'objectif que nous souhaitons. »
03:48
This was said by Norbert Wiener in 1960,
72
228102
3498
C'est une citation de Norbert Wienner en 1960,
03:51
shortly after he watched one of the very early learning systems
73
231624
4002
peu après qu'il a observé l'un des premiers systèmes d'apprentissage
03:55
learn to play checkers better than its creator.
74
235650
2583
apprendre à mieux jouer aux échecs que son créateur.
04:00
But this could equally have been said
75
240422
2683
Mais ça aurait aussi pu être
04:03
by King Midas.
76
243129
1167
le roi Midas, qui a dit :
04:04
King Midas said, "I want everything I touch to turn to gold,"
77
244903
3134
« Je souhaite que tout ce que je touche se transforme en or »
et qui a obtenu exactement ce qu'il avait demandé.
04:08
and he got exactly what he asked for.
78
248061
2473
04:10
That was the purpose that he put into the machine,
79
250558
2751
C'était l'objectif qu'il a introduit dans la machine,
04:13
so to speak,
80
253333
1450
pour ainsi dire.
04:14
and then his food and his drink and his relatives turned to gold
81
254807
3444
Sa nourriture, sa boisson et sa famille se sont alors changées en or.
04:18
and he died in misery and starvation.
82
258275
2281
Il est mort de faim dans la misère.
04:22
So we'll call this "the King Midas problem"
83
262264
2341
Nous appellerons ça « le problème du roi Midas »,
04:24
of stating an objective which is not, in fact,
84
264629
3305
le fait de déclarer un objectif qui n'est pas, en fait,
04:27
truly aligned with what we want.
85
267958
2413
en adéquation avec ce que nous voulons.
04:30
In modern terms, we call this "the value alignment problem."
86
270395
3253
Aujourd'hui, nous appelons cela « un problème d'alignement de valeur ».
04:36
Putting in the wrong objective is not the only part of the problem.
87
276867
3485
Établir le mauvais objectif n'est qu'une partie du problème.
04:40
There's another part.
88
280376
1152
Il en existe une autre.
04:41
If you put an objective into a machine,
89
281980
1943
Si vous introduisez un objectif dans une machine,
04:43
even something as simple as, "Fetch the coffee,"
90
283947
2448
même une chose simple comme « acheter du café »,
04:47
the machine says to itself,
91
287728
1841
la machine se dit :
04:50
"Well, how might I fail to fetch the coffee?
92
290553
2623
« Comment pourrais-je échouer à apporter du café ?
04:53
Someone might switch me off.
93
293200
1580
Quelqu'un pourrait m'éteindre.
04:55
OK, I have to take steps to prevent that.
94
295465
2387
Alors, je dois prendre des mesures pour éviter cela.
04:57
I will disable my 'off' switch.
95
297876
1906
Je vais désactiver mon interrupteur.
05:00
I will do anything to defend myself against interference
96
300354
2959
Je ferai tout pour me défendre contre les interférences
05:03
with this objective that I have been given."
97
303337
2629
contre l'objectif qu'on m'a donné. »
05:05
So this single-minded pursuit
98
305990
2012
Cette quête obsessionnelle,
avec une attitude très défensive envers un objectif qui n'est, en fait,
05:09
in a very defensive mode of an objective that is, in fact,
99
309033
2945
05:12
not aligned with the true objectives of the human race --
100
312002
2814
pas aligné sur les vrais objectifs de la race humaine...
05:15
that's the problem that we face.
101
315942
1862
C'est le problème auquel nous sommes confrontés.
05:18
And in fact, that's the high-value takeaway from this talk.
102
318827
4767
Et c'est aussi la notion importante à retenir de cette présentation.
Si vous ne devez retenir qu'une chose,
05:23
If you want to remember one thing,
103
323618
2055
05:25
it's that you can't fetch the coffee if you're dead.
104
325697
2675
c'est que vous ne pourrez pas aller chercher le café si vous êtes mort.
05:28
(Laughter)
105
328396
1061
(Rires)
05:29
It's very simple. Just remember that. Repeat it to yourself three times a day.
106
329481
3829
C'est très simple. Rappelez-vous de cela. Répétez-le-vous trois fois par jour.
05:33
(Laughter)
107
333334
1821
(Rires)
05:35
And in fact, this is exactly the plot
108
335179
2754
En fait, c'est exactement l'intrigue
05:37
of "2001: [A Space Odyssey]"
109
337957
2648
de « 2001, l'Odyssée de l'espace. »
05:41
HAL has an objective, a mission,
110
341046
2090
HAL a un objectif, une mission,
05:43
which is not aligned with the objectives of the humans,
111
343160
3732
qui n'est pas en adéquation avec les objectifs des êtres humains
05:46
and that leads to this conflict.
112
346916
1810
et cela conduit à ce conflit.
05:49
Now fortunately, HAL is not superintelligent.
113
349314
2969
Heureusement, HAL n'est pas super-intelligent.
05:52
He's pretty smart, but eventually Dave outwits him
114
352307
3587
Il est assez malin, mais finalement Dave le surpasse
05:55
and manages to switch him off.
115
355918
1849
et parvient à l'éteindre.
06:01
But we might not be so lucky.
116
361648
1619
Nous pourrions avoir moins de chance.
06:08
So what are we going to do?
117
368013
1592
Alors qu'allons-nous faire ?
06:12
I'm trying to redefine AI
118
372191
2601
J'essaie de redéfinir l'IA,
06:14
to get away from this classical notion
119
374816
2061
afin de nous éloigner de cette notion classique
06:16
of machines that intelligently pursue objectives.
120
376901
4567
de machines qui poursuivent leurs objectifs de manière intelligente.
06:22
There are three principles involved.
121
382532
1798
Cela repose sur trois principes.
06:24
The first one is a principle of altruism, if you like,
122
384354
3289
Le premier est un principe d'altruisme, si vous voulez.
06:27
that the robot's only objective
123
387667
3262
L'unique objectif du robot
06:30
is to maximize the realization of human objectives,
124
390953
4246
est de maximiser la réalisation des objectifs des êtres humains,
06:35
of human values.
125
395223
1390
des valeurs humaines.
06:36
And by values here I don't mean touchy-feely, goody-goody values.
126
396637
3330
Je ne parle pas de celles qui sont sentimentales ou sainte-nitouche.
06:39
I just mean whatever it is that the human would prefer
127
399991
3787
Je parle de la vie que les êtres humains voudraient
06:43
their life to be like.
128
403802
1343
par n'importe quels moyens.
06:47
And so this actually violates Asimov's law
129
407184
2309
Cela viole la loi d'Asimov, selon laquelle
06:49
that the robot has to protect its own existence.
130
409517
2329
le robot doit protéger sa propre existence.
06:51
It has no interest in preserving its existence whatsoever.
131
411870
3723
Il n'a aucun intérêt à préserver son existence.
06:57
The second law is a law of humility, if you like.
132
417240
3768
La deuxième loi est une loi d'humilité, si vous préférez.
07:01
And this turns out to be really important to make robots safe.
133
421794
3743
Elle s'avère très importante afin de rendre le robot inoffensif.
07:05
It says that the robot does not know
134
425561
3142
L'idée, c'est que le robot ne sait pas
07:08
what those human values are,
135
428727
2028
ce que sont les valeurs humaines.
07:10
so it has to maximize them, but it doesn't know what they are.
136
430779
3178
Il doit les maximiser, mais il ne sait pas ce qu'elles sont.
07:15
And that avoids this problem of single-minded pursuit
137
435074
2626
Pour éviter une quête obsessionnelle
07:17
of an objective.
138
437724
1212
d'un objectif,
07:18
This uncertainty turns out to be crucial.
139
438960
2172
cette incertitude s'avère cruciale.
07:21
Now, in order to be useful to us,
140
441546
1639
Mais pour nous être utiles,
07:23
it has to have some idea of what we want.
141
443209
2731
il doit avoir une idée de nos désirs.
07:27
It obtains that information primarily by observation of human choices,
142
447043
5427
Il obtient cette information surtout par l'observation des choix humains.
07:32
so our own choices reveal information
143
452494
2801
Ces choix révèlent donc des informations
07:35
about what it is that we prefer our lives to be like.
144
455319
3300
quant à ce que nous désirons pour notre vie.
07:40
So those are the three principles.
145
460452
1683
Ce sont donc les trois principes.
07:42
Let's see how that applies to this question of:
146
462159
2318
Voyons comment cela s'applique à la question
07:44
"Can you switch the machine off?" as Turing suggested.
147
464501
2789
de Turing : « Pouvez-vous éteindre la machine ? »
07:48
So here's a PR2 robot.
148
468893
2120
Voici un robot PR2.
07:51
This is one that we have in our lab,
149
471037
1821
C'est celui que nous avons au laboratoire
07:52
and it has a big red "off" switch right on the back.
150
472882
2903
Il possède un gros interrupteur rouge directement sur le dos.
07:56
The question is: Is it going to let you switch it off?
151
476361
2615
La question est : « Va-t-il nous laisser l'éteindre ? »
07:59
If we do it the classical way,
152
479000
1465
Selon la méthode classique,
08:00
we give it the objective of, "Fetch the coffee, I must fetch the coffee,
153
480489
3482
nous lui donnons pour objectif de « chercher du café,
08:03
I can't fetch the coffee if I'm dead,"
154
483995
2580
je dois aller chercher du café, je ne peux pas y aller si je suis mort. »
08:06
so obviously the PR2 has been listening to my talk,
155
486599
3341
Alors, évidemment, le PR2 a écouté ma présentation
08:09
and so it says, therefore, "I must disable my 'off' switch,
156
489964
3753
et il se dit : « Je dois désactiver mon interrupteur
08:14
and probably taser all the other people in Starbucks
157
494796
2694
et tirer sur toutes les autres personnes dans le Starbucks
08:17
who might interfere with me."
158
497514
1560
qui pourraient interférer avec moi. »
08:19
(Laughter)
159
499098
2062
(Rires)
08:21
So this seems to be inevitable, right?
160
501184
2153
Cela semble inévitable, n'est-ce pas ?
08:23
This kind of failure mode seems to be inevitable,
161
503361
2398
Ce genre d'échec semble être inévitable
08:25
and it follows from having a concrete, definite objective.
162
505783
3543
et résulte de l'objectif concret et défini.
08:30
So what happens if the machine is uncertain about the objective?
163
510632
3144
Qu'arrive-t-il si la machine ne connaît pas l'objectif ?
08:33
Well, it reasons in a different way.
164
513800
2127
Eh bien, elle raisonne différemment.
08:35
It says, "OK, the human might switch me off,
165
515951
2424
Elle se dit : « OK, l'humain pourrait m'éteindre,
08:38
but only if I'm doing something wrong.
166
518964
1866
si je fais ce qui ne va pas.
08:41
Well, I don't really know what wrong is,
167
521567
2475
Eh bien, je ne sais pas vraiment ce qui est mal,
08:44
but I know that I don't want to do it."
168
524066
2044
mais je sais que je ne veux pas le faire. »
08:46
So that's the first and second principles right there.
169
526134
3010
Voilà le premier et le deuxième principes.
08:49
"So I should let the human switch me off."
170
529168
3359
« Je devrais donc laisser l'humain m'éteindre. »
08:53
And in fact you can calculate the incentive that the robot has
171
533541
3956
En fait, vous pouvez calculer l'incitation que le robot a
08:57
to allow the human to switch it off,
172
537521
2493
à se laisser éteindre.
09:00
and it's directly tied to the degree
173
540038
1914
C'est directement lié au degré
09:01
of uncertainty about the underlying objective.
174
541976
2746
d'incertitude de l'objectif sous-jacent.
09:05
And then when the machine is switched off,
175
545797
2949
Et c'est lorsque la machine est éteinte
09:08
that third principle comes into play.
176
548770
1805
que ce troisième principe entre en jeu.
09:10
It learns something about the objectives it should be pursuing,
177
550599
3062
Elle apprend des choses sur les objectifs qu'elle doit poursuivre
09:13
because it learns that what it did wasn't right.
178
553685
2533
en constatant que ce qu'elle a fait n'était pas bien.
09:16
In fact, we can, with suitable use of Greek symbols,
179
556242
3570
En fait, avec une utilisation appropriée des symboles grecs,
09:19
as mathematicians usually do,
180
559836
2131
comme le font souvent les mathématiciens,
09:21
we can actually prove a theorem
181
561991
1984
nous pouvons prouver un théorème
09:23
that says that such a robot is provably beneficial to the human.
182
563999
3553
qui dit qu'un tel robot est manifestement bénéfique pour l'humain.
09:27
You are provably better off with a machine that's designed in this way
183
567576
3803
Vous êtes probablement mieux avec une machine conçue de cette façon
09:31
than without it.
184
571403
1246
que sans.
09:33
So this is a very simple example, but this is the first step
185
573057
2906
C'est donc un exemple très simple, mais c'est la première étape
09:35
in what we're trying to do with human-compatible AI.
186
575987
3903
dans ce que nous essayons de faire avec l'IA compatible avec les êtres humains.
09:42
Now, this third principle,
187
582477
3257
Quant au troisième principe,
je pense que vous êtes en train de vous gratter la tête à ce sujet.
09:45
I think is the one that you're probably scratching your head over.
188
585758
3112
09:48
You're probably thinking, "Well, you know, I behave badly.
189
588894
3239
Vous pensez probablement : « Eh bien, vous savez, je me comporte mal.
09:52
I don't want my robot to behave like me.
190
592157
2929
Je ne veux pas que mon robot se comporte comme moi.
09:55
I sneak down in the middle of the night and take stuff from the fridge.
191
595110
3434
Je me faufile au milieu de la nuit et je picore dans le frigo.
09:58
I do this and that."
192
598568
1168
Je fais ceci et cela. »
09:59
There's all kinds of things you don't want the robot doing.
193
599760
2797
Il y a plein de choses que vous ne voulez pas qu'un robot fasse.
10:02
But in fact, it doesn't quite work that way.
194
602581
2071
Mais cela ne fonctionne pas ainsi.
10:04
Just because you behave badly
195
604676
2155
Votre mauvais comportement
10:06
doesn't mean the robot is going to copy your behavior.
196
606855
2623
ne va pas inciter le robot à vous copier.
10:09
It's going to understand your motivations and maybe help you resist them,
197
609502
3910
Il va comprendre vos motivations et peut-être vous aider à résister,
10:13
if appropriate.
198
613436
1320
le cas échéant.
10:16
But it's still difficult.
199
616026
1464
Mais ça restera difficile.
10:18
What we're trying to do, in fact,
200
618122
2545
Ce que nous essayons de faire, en fait, c'est de permettre
10:20
is to allow machines to predict for any person and for any possible life
201
620691
5796
aux machines de se demander, pour toute personne et
pour toute vie qu'ils pourraient vivre
10:26
that they could live,
202
626511
1161
10:27
and the lives of everybody else:
203
627696
1597
et les vies de tous les autres :
10:29
Which would they prefer?
204
629317
2517
« Laquelle préfèreraient-ils ? »
10:33
And there are many, many difficulties involved in doing this;
205
633881
2954
Et cela engendre beaucoup, beaucoup de difficultés.
10:36
I don't expect that this is going to get solved very quickly.
206
636859
2932
Je ne m'attends pas à ce que nous résolvions cela très rapidement.
10:39
The real difficulties, in fact, are us.
207
639815
2643
Le vrai problème, en fait, c'est nous.
10:43
As I have already mentioned, we behave badly.
208
643969
3117
Comme je l'ai déjà mentionné, nous nous comportons mal.
10:47
In fact, some of us are downright nasty.
209
647110
2321
Certains d'entre nous sont même foncièrement méchants.
10:50
Now the robot, as I said, doesn't have to copy the behavior.
210
650251
3052
Le robot, comme je l'ai dit, n'est pas obligé de copier ce comportement.
10:53
The robot does not have any objective of its own.
211
653327
2791
Il n'a aucun objectif propre.
10:56
It's purely altruistic.
212
656142
1737
Il est purement altruiste.
10:59
And it's not designed just to satisfy the desires of one person, the user,
213
659113
5221
Il ne doit pas uniquement satisfaire les désirs d'une personne, l'utilisateur,
11:04
but in fact it has to respect the preferences of everybody.
214
664358
3138
mais, en fait, il doit respecter les préférences de tous.
11:09
So it can deal with a certain amount of nastiness,
215
669083
2570
Il peut donc faire face à une certaine négligence.
11:11
and it can even understand that your nastiness, for example,
216
671677
3701
Il peut même comprendre votre malveillance, par exemple,
11:15
you may take bribes as a passport official
217
675402
2671
si vous acceptez des pots-de-vin en tant que préposé aux passeports
11:18
because you need to feed your family and send your kids to school.
218
678097
3812
afin de nourrir votre famille et envoyer vos enfants à l'école.
11:21
It can understand that; it doesn't mean it's going to steal.
219
681933
2906
Il peut comprendre cela, ce qui ne signifie pas qu'il va se mettre à voler.
11:24
In fact, it'll just help you send your kids to school.
220
684863
2679
En fait, il vous aidera à envoyer vos enfants à l'école.
11:28
We are also computationally limited.
221
688796
3012
Nous sommes limités par la puissance de calcul.
11:31
Lee Sedol is a brilliant Go player,
222
691832
2505
Lee Sedol est un brillant joueur de go,
11:34
but he still lost.
223
694361
1325
mais il a quand même perdu.
11:35
So if we look at his actions, he took an action that lost the game.
224
695710
4239
Si on regarde ses actions, il a pris une décision qui lui a coûté le match.
11:39
That doesn't mean he wanted to lose.
225
699973
2161
Ça ne veut pas dire qu'il voulait perdre.
11:43
So to understand his behavior,
226
703160
2040
Pour comprendre son comportement,
11:45
we actually have to invert through a model of human cognition
227
705224
3644
nous devons l'observer à travers un modèle de cognition humaine
11:48
that includes our computational limitations -- a very complicated model.
228
708892
4977
qui inclut nos limites en calcul. Un modèle très compliqué.
11:53
But it's still something that we can work on understanding.
229
713893
2993
Ça demande un effort, mais nous pouvons le comprendre.
11:57
Probably the most difficult part, from my point of view as an AI researcher,
230
717696
4320
Ce qui est le plus difficile, de mon point de vue de chercheur en IA,
12:02
is the fact that there are lots of us,
231
722040
2575
c'est le fait que nous sommes si nombreux.
12:06
and so the machine has to somehow trade off, weigh up the preferences
232
726114
3581
La machine doit faire des choix, évaluer les préférences
12:09
of many different people,
233
729719
2225
d'un grand nombre de personnes différentes
12:11
and there are different ways to do that.
234
731968
1906
et il existe différentes façons de le faire.
12:13
Economists, sociologists, moral philosophers have understood that,
235
733898
3689
Les économistes, les sociologues, les philosophes l'ont bien compris
12:17
and we are actively looking for collaboration.
236
737611
2455
et nous cherchons activement leur collaboration.
12:20
Let's have a look and see what happens when you get that wrong.
237
740090
3251
Voyons ce qui se passe lorsque vous avez un problème.
12:23
So you can have a conversation, for example,
238
743365
2133
Vous pouvez discuter, par exemple,
12:25
with your intelligent personal assistant
239
745522
1944
avec votre assistant personnel intelligent
12:27
that might be available in a few years' time.
240
747490
2285
qui pourrait être disponible dans quelques années.
12:29
Think of a Siri on steroids.
241
749799
2524
Pensez à un Siri sous stéroïdes.
12:33
So Siri says, "Your wife called to remind you about dinner tonight."
242
753447
4322
Siri dit : « Votre femme a appelé pour vous rappeler le dîner de ce soir. »
12:38
And of course, you've forgotten. "What? What dinner?
243
758436
2508
Bien sûr, vous aviez oublié. « Quoi ? Quel dîner ?
12:40
What are you talking about?"
244
760968
1425
De quoi me parles-tu ? »
12:42
"Uh, your 20th anniversary at 7pm."
245
762417
3746
« Euh, votre 20ème anniversaire à 19h00. »
12:48
"I can't do that. I'm meeting with the secretary-general at 7:30.
246
768735
3719
« Je ne peux pas. J'ai une réunion avec le secrétaire général à 19h30.
12:52
How could this have happened?"
247
772478
1692
Comment cela a-t-il pu arriver ? »
12:54
"Well, I did warn you, but you overrode my recommendation."
248
774194
4660
« Eh bien, je vous ai prévenu, mais vous avez ignoré mon avertissement. »
12:59
"Well, what am I going to do? I can't just tell him I'm too busy."
249
779966
3328
« Qu'est-ce que je vais faire ? Je ne peux pas lui dire que je suis occupé. »
13:04
"Don't worry. I arranged for his plane to be delayed."
250
784310
3281
« Ne vous inquiétez pas. J'ai fait en sorte que son avion ait du retard. »
13:07
(Laughter)
251
787615
1682
(Rires)
13:10
"Some kind of computer malfunction."
252
790069
2101
« Une sorte de bug de l'ordinateur. »
13:12
(Laughter)
253
792194
1212
(Rires)
13:13
"Really? You can do that?"
254
793430
1617
« Vraiment ? Tu peux faire ça ? »
13:16
"He sends his profound apologies
255
796220
2179
« Il vous présente ses excuses
13:18
and looks forward to meeting you for lunch tomorrow."
256
798423
2555
et voudrait vous rencontrer demain pour le déjeuner. »
13:21
(Laughter)
257
801002
1299
(Rires)
13:22
So the values here -- there's a slight mistake going on.
258
802325
4403
Donc là... Il y a une légère erreur.
13:26
This is clearly following my wife's values
259
806752
3009
Ce scénario suit clairement la philosophie de ma femme.
13:29
which is "Happy wife, happy life."
260
809785
2069
qui est : « femme heureuse, vie heureuse. »
13:31
(Laughter)
261
811878
1583
(Rires)
13:33
It could go the other way.
262
813485
1444
Mais ça pourrait aussi aller autrement.
13:35
You could come home after a hard day's work,
263
815641
2201
Vous pourriez rentrer après une dure journée
13:37
and the computer says, "Long day?"
264
817866
2195
et l'ordinateur vous dit : « Dure journée ? »
13:40
"Yes, I didn't even have time for lunch."
265
820085
2288
« Oui, je n'ai même pas eu le temps de manger. »
13:42
"You must be very hungry."
266
822397
1282
« Tu dois avoir faim. »
13:43
"Starving, yeah. Could you make some dinner?"
267
823703
2646
« Oui, très faim. Tu peux me faire à dîner ? »
13:47
"There's something I need to tell you."
268
827890
2090
« Je dois te dire quelque chose. »
13:50
(Laughter)
269
830004
1155
(Rires)
13:52
"There are humans in South Sudan who are in more urgent need than you."
270
832013
4905
« Il y a des gens au Soudan du Sud qui ont bien plus besoin de nourriture que toi. »
13:56
(Laughter)
271
836942
1104
(Rires)
13:58
"So I'm leaving. Make your own dinner."
272
838070
2075
« Je te quitte. Fais-toi à dîner toi-même. »
14:00
(Laughter)
273
840169
2000
(Rires)
14:02
So we have to solve these problems,
274
842643
1739
Nous devons résoudre ces problèmes
14:04
and I'm looking forward to working on them.
275
844406
2515
et je suis impatient de travailler là-dessus.
14:06
There are reasons for optimism.
276
846945
1843
Nous avons des raisons d'être optimistes.
14:08
One reason is,
277
848812
1159
La première, c'est que
14:09
there is a massive amount of data.
278
849995
1868
nous disposons d'une masse de données.
14:11
Because remember -- I said they're going to read everything
279
851887
2794
Parce que, souvenez-vous, j'ai dit que l'IA va lire tout
14:14
the human race has ever written.
280
854705
1546
ce que l'homme a jamais écrit.
14:16
Most of what we write about is human beings doing things
281
856275
2724
La plupart du temps, nous écrivons sur ce que les humains font
14:19
and other people getting upset about it.
282
859023
1914
et sur les gens que ça contrarie.
14:20
So there's a massive amount of data to learn from.
283
860961
2398
Alors il y a une masse de données dans laquelle puiser.
14:23
There's also a very strong economic incentive
284
863383
2236
Il y a également une très forte incitation économique à cela.
14:27
to get this right.
285
867151
1186
Donc,
14:28
So imagine your domestic robot's at home.
286
868361
2001
imaginez votre robot domestique.
14:30
You're late from work again and the robot has to feed the kids,
287
870386
3067
Vous êtes en retard au travail et le robot doit nourrir les enfants,
14:33
and the kids are hungry and there's nothing in the fridge.
288
873477
2823
les enfants ont faim et il n'y a rien dans le réfrigérateur.
14:36
And the robot sees the cat.
289
876324
2605
Le robot voit le chat.
14:38
(Laughter)
290
878953
1692
(Rires)
14:40
And the robot hasn't quite learned the human value function properly,
291
880669
4190
Le robot n'a pas bien appris les valeurs humaines,
14:44
so it doesn't understand
292
884883
1251
donc il ne comprend pas
14:46
the sentimental value of the cat outweighs the nutritional value of the cat.
293
886158
4844
que la valeur sentimentale du chat l'emporte sur sa valeur nutritionnelle.
14:51
(Laughter)
294
891026
1095
(Rires)
14:52
So then what happens?
295
892145
1748
Que se passe-t-il ?
14:53
Well, it happens like this:
296
893917
3297
Eh bien, que se passe-t-il ?
14:57
"Deranged robot cooks kitty for family dinner."
297
897238
2964
« Le robot fou cuisine le chat de la famille pour le dîner. »
15:00
That one incident would be the end of the domestic robot industry.
298
900226
4523
Cet incident sonnerait la fin de l'industrie du robot domestique.
15:04
So there's a huge incentive to get this right
299
904773
3372
Il y a donc une incitation énorme à régler cela
15:08
long before we reach superintelligent machines.
300
908169
2715
bien avant que nous n'arrivions aux machines supra-intelligentes.
15:11
So to summarize:
301
911948
1535
Pour résumer.
15:13
I'm actually trying to change the definition of AI
302
913507
2881
J'essaie de modifier la définition de l'IA
15:16
so that we have provably beneficial machines.
303
916412
2993
afin que nous ayons des machines irréfutablement bénéfiques.
15:19
And the principles are:
304
919429
1222
Les principes sont :
15:20
machines that are altruistic,
305
920675
1398
des machines altruistes,
15:22
that want to achieve only our objectives,
306
922097
2804
ne cherchant qu'à atteindre nos objectifs,
15:24
but that are uncertain about what those objectives are,
307
924925
3116
mais ayant une incertitude quant à ces objectifs
15:28
and will watch all of us
308
928065
1998
et qui nous observerons
15:30
to learn more about what it is that we really want.
309
930087
3203
afin d'en savoir plus sur ce que nous voulons vraiment.
15:34
And hopefully in the process, we will learn to be better people.
310
934193
3559
J'espère que dans le processus, nous apprendrons aussi à devenir meilleurs.
15:37
Thank you very much.
311
937776
1191
Merci beaucoup.
15:38
(Applause)
312
938991
3709
(Applaudissements)
15:42
Chris Anderson: So interesting, Stuart.
313
942724
1868
Chris Anderson : Très intéressant, Stuart.
15:44
We're going to stand here a bit because I think they're setting up
314
944616
3170
Nous allons rester un peu ici, car je crois qu'ils préparent
15:47
for our next speaker.
315
947810
1151
la prochaine intervention.
15:48
A couple of questions.
316
948985
1538
Plusieurs questions.
15:50
So the idea of programming in ignorance seems intuitively really powerful.
317
950547
5453
L'idée d'une programmation limitée semble intuitivement très puissante.
15:56
As you get to superintelligence,
318
956024
1594
En se rapprochant de la supra-intelligence,
15:57
what's going to stop a robot
319
957642
2258
qu'est-ce qui empêchera un robot
15:59
reading literature and discovering this idea that knowledge
320
959924
2852
de lire la littérature et de découvrir cette notion que la connaissance
16:02
is actually better than ignorance
321
962800
1572
est en fait supérieure à l'ignorance
16:04
and still just shifting its own goals and rewriting that programming?
322
964396
4218
et de changer ses propres objectifs en réécrivant cette programmation ?
16:09
Stuart Russell: Yes, so we want it to learn more, as I said,
323
969512
6356
Stuart Russell : Oui, nous voulons qu'il en apprenne davantage, comme je l'ai dit,
16:15
about our objectives.
324
975892
1287
à propos de nos objectifs.
16:17
It'll only become more certain as it becomes more correct,
325
977203
5521
Il gagnera en confiance avec l'expérience,
16:22
so the evidence is there
326
982748
1945
la preuve est là,
16:24
and it's going to be designed to interpret it correctly.
327
984717
2724
et il sera conçu pour interpréter correctement nos objectifs.
16:27
It will understand, for example, that books are very biased
328
987465
3956
Il comprendra, par exemple, que les livres sont très biaisés
16:31
in the evidence they contain.
329
991445
1483
en fonction de leur contenu.
16:32
They only talk about kings and princes
330
992952
2397
Ils ne parlent que de rois et de princes
16:35
and elite white male people doing stuff.
331
995373
2800
et des choses que fait l'élite blanche.
16:38
So it's a complicated problem,
332
998197
2096
C'est donc un problème complexe,
16:40
but as it learns more about our objectives
333
1000317
3872
mais comme il en apprend plus sur nos objectifs,
16:44
it will become more and more useful to us.
334
1004213
2063
il nous sera de plus en plus utile.
16:46
CA: And you couldn't just boil it down to one law,
335
1006300
2526
CA : Et vous ne pourriez pas résumer cela en une seule loi,
16:48
you know, hardwired in:
336
1008850
1650
vous savez, une ligne de code :
16:50
"if any human ever tries to switch me off,
337
1010524
3293
« Si un humain essaie de me débrancher,
16:53
I comply. I comply."
338
1013841
1935
je coopère, je coopère. »
16:55
SR: Absolutely not.
339
1015800
1182
SR : Impossible.
16:57
That would be a terrible idea.
340
1017006
1499
Ce serait une mauvaise idée.
16:58
So imagine that you have a self-driving car
341
1018529
2689
Imaginez que vous ayez une voiture sans chauffeur
17:01
and you want to send your five-year-old
342
1021242
2433
et vous souhaitez envoyer votre enfant de cinq ans
17:03
off to preschool.
343
1023699
1174
à la maternelle.
17:04
Do you want your five-year-old to be able to switch off the car
344
1024897
3101
Voulez-vous que votre enfant de cinq ans puisse éteindre la voiture
17:08
while it's driving along?
345
1028022
1213
alors qu'elle roule ?
17:09
Probably not.
346
1029259
1159
Probablement pas.
17:10
So it needs to understand how rational and sensible the person is.
347
1030442
4703
Alors l'IA doit pouvoir évaluer si la personne est rationnelle et raisonnable.
17:15
The more rational the person,
348
1035169
1676
Plus la personne est rationnelle,
17:16
the more willing you are to be switched off.
349
1036869
2103
plus elle devrait avoir de contrôle.
17:18
If the person is completely random or even malicious,
350
1038996
2543
Si la personne est incohérente ou même malveillante,
17:21
then you're less willing to be switched off.
351
1041563
2512
alors elle devrait avoir un contrôle plus limité.
17:24
CA: All right. Stuart, can I just say,
352
1044099
1866
CA : Très bien. Stuart,
17:25
I really, really hope you figure this out for us.
353
1045989
2314
j'espère que vous allez régler cela pour nous.
17:28
Thank you so much for that talk. That was amazing.
354
1048327
2375
Merci beaucoup pour cette présentation. C'était incroyable.
17:30
SR: Thank you.
355
1050726
1167
17:31
(Applause)
356
1051917
1837
SR : Merci.
(Applaudissements)
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7