What happens when our computers get smarter than we are? | Nick Bostrom

2,678,201 views ・ 2015-04-27

TED


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

Traducteur: Vincent LECOANET Relecteur: Elisabeth Buffard
00:12
I work with a bunch of mathematicians, philosophers and computer scientists,
0
12570
4207
Je travaille avec des mathématiciens, philosophes et informaticiens,
00:16
and we sit around and think about the future of machine intelligence,
1
16777
5209
et nous nous réunissons pour imaginer le futur de l'intelligence artificielle,
00:21
among other things.
2
21986
2044
entre autres choses.
00:24
Some people think that some of these things are sort of science fiction-y,
3
24030
4725
Certains pensent que c'est un peu de la science-fiction,
00:28
far out there, crazy.
4
28755
3101
complètement éloigné du réel.
00:31
But I like to say,
5
31856
1470
Mais j'aime dire,
00:33
okay, let's look at the modern human condition.
6
33326
3604
d'accord, jetons un coup d'oeil à la condition humaine moderne.
00:36
(Laughter)
7
36930
1692
(Rires)
00:38
This is the normal way for things to be.
8
38622
2402
C'est la façon normale d'être des choses.
00:41
But if we think about it,
9
41024
2285
Mais si on y pense,
00:43
we are actually recently arrived guests on this planet,
10
43309
3293
nous ne sommes en fait que des invités récemment arrivés sur cette planète,
00:46
the human species.
11
46602
2082
l'espèce humaine.
00:48
Think about if Earth was created one year ago,
12
48684
4746
Imaginez si la Terre avait été créée il y a un an,
00:53
the human species, then, would be 10 minutes old.
13
53430
3548
l'espèce humaine existerait alors depuis dix minutes.
00:56
The industrial era started two seconds ago.
14
56978
3168
L'ère industrielle a débuté il y a deux secondes.
01:01
Another way to look at this is to think of world GDP over the last 10,000 years,
15
61276
5225
Une autre façon de voir est de calculer
le PIB mondial des 10 000 dernières années.
01:06
I've actually taken the trouble to plot this for you in a graph.
16
66501
3029
J'ai vraiment pris le temps de faire un graphe pour vous.
01:09
It looks like this.
17
69530
1774
Il ressemble à ça.
01:11
(Laughter)
18
71304
1363
(Rires)
01:12
It's a curious shape for a normal condition.
19
72667
2151
Drôle de courbe pour une condition normale.
01:14
I sure wouldn't want to sit on it.
20
74818
1698
Je ne voudrais pas lui tourner le dos.
01:16
(Laughter)
21
76516
2551
(Rires)
01:19
Let's ask ourselves, what is the cause of this current anomaly?
22
79067
4774
Demandons-nous, quelle est la cause de cette anomalie ?
01:23
Some people would say it's technology.
23
83841
2552
Certains diront que c'est la technologie.
01:26
Now it's true, technology has accumulated through human history,
24
86393
4668
C'est vrai, la technologie s'est accumulée au cours de l'histoire humaine,
01:31
and right now, technology advances extremely rapidly --
25
91061
4652
et aujourd'hui, la technologie progresse très rapidement --
01:35
that is the proximate cause,
26
95713
1565
c'est la cause la plus proche,
01:37
that's why we are currently so very productive.
27
97278
2565
c'est pourquoi nous sommes si productifs de nos jours.
01:40
But I like to think back further to the ultimate cause.
28
100473
3661
Mais je préfère réfléchir en remontant à la cause fondamentale.
01:45
Look at these two highly distinguished gentlemen:
29
105114
3766
Regardez ces deux messieurs très distingués :
01:48
We have Kanzi --
30
108880
1600
Nous avons Kanzi --
01:50
he's mastered 200 lexical tokens, an incredible feat.
31
110480
4643
il maîtrise 200 symboles lexicaux, un exploit incroyable.
01:55
And Ed Witten unleashed the second superstring revolution.
32
115123
3694
Et Ed Witten a déclenché la seconde révolution des supercordes.
01:58
If we look under the hood, this is what we find:
33
118817
2324
Si nous regardons sous la capuche, voici ce que l'on trouve :
02:01
basically the same thing.
34
121141
1570
en gros, la même chose.
02:02
One is a little larger,
35
122711
1813
L'un est un peu plus grand,
02:04
it maybe also has a few tricks in the exact way it's wired.
36
124524
2758
il y a peut-être aussi quelques subtilités de câblage.
02:07
These invisible differences cannot be too complicated, however,
37
127282
3812
Ces différences invisibles ne peuvent être trop compliquées quoi qu'il en soit,
02:11
because there have only been 250,000 generations
38
131094
4285
car il n'y a eu que 250 000 générations
02:15
since our last common ancestor.
39
135379
1732
depuis notre dernier ancêtre commun.
02:17
We know that complicated mechanisms take a long time to evolve.
40
137111
3849
Nous savons que les mécanismes compliqués demandent beaucoup de temps pour évoluer.
02:22
So a bunch of relatively minor changes
41
142000
2499
Donc des changements relativement mineurs
02:24
take us from Kanzi to Witten,
42
144499
3067
nous emmènent de Kanzi à Witten,
02:27
from broken-off tree branches to intercontinental ballistic missiles.
43
147566
4543
de branches arrachées aux arbres aux missiles balistiques intercontinentaux.
02:32
So this then seems pretty obvious that everything we've achieved,
44
152839
3935
Il semble alors assez évident que tout ce que nous avons réalisé,
02:36
and everything we care about,
45
156774
1378
et ce que nous chérissons,
02:38
depends crucially on some relatively minor changes that made the human mind.
46
158152
5228
dépend principalement de quelques changements mineurs
qui ont aboutit à l'esprit humain.
02:44
And the corollary, of course, is that any further changes
47
164650
3662
Le corollaire, bien sûr, est que tout changement à venir
02:48
that could significantly change the substrate of thinking
48
168312
3477
qui pourrait changer significativement le substrat de la pensée
02:51
could have potentially enormous consequences.
49
171789
3202
pourrait avoir potentiellement d'énormes conséquences.
02:56
Some of my colleagues think we're on the verge
50
176321
2905
Certains de mes collègues pensent que nous sommes sur le point
02:59
of something that could cause a profound change in that substrate,
51
179226
3908
de développer quelque chose qui pourrait causer un tel changement dans ce substrat,
03:03
and that is machine superintelligence.
52
183134
3213
et c'est la super intelligence artificielle.
03:06
Artificial intelligence used to be about putting commands in a box.
53
186347
4739
Avant, l'intelligence artificielle consistait à mettre des commandes dans une boîte.
03:11
You would have human programmers
54
191086
1665
Il y avait des programmeurs humains
03:12
that would painstakingly handcraft knowledge items.
55
192751
3135
qui fabriquaient minutieusement des objets savants.
03:15
You build up these expert systems,
56
195886
2086
On construisait ces systèmes experts,
03:17
and they were kind of useful for some purposes,
57
197972
2324
et ils étaient utiles pour certains buts,
03:20
but they were very brittle, you couldn't scale them.
58
200296
2681
mais ils étaient très fragiles, on ne pouvait pas les agrandir.
03:22
Basically, you got out only what you put in.
59
202977
3433
En gros, vous n'aviez que ce que vous aviez mis dedans.
03:26
But since then,
60
206410
997
Mais depuis,
03:27
a paradigm shift has taken place in the field of artificial intelligence.
61
207407
3467
une révolution conceptuelle s'est opérée dans le domaine de l'I.A..
03:30
Today, the action is really around machine learning.
62
210874
2770
Aujourd'hui, l'action est centré sur l'apprentissage machine.
03:34
So rather than handcrafting knowledge representations and features,
63
214394
5387
Plutôt que de coder à la main des programmes et leurs caractéristiques,
03:40
we create algorithms that learn, often from raw perceptual data.
64
220511
5554
on crée des algorithmes qui apprennent,
souvent à partir des données brutes perçues.
03:46
Basically the same thing that the human infant does.
65
226065
4998
En gros, la même chose que fait un enfant.
03:51
The result is A.I. that is not limited to one domain --
66
231063
4207
Le résultat est une I.A. qui n'est pas limitée à un domaine --
03:55
the same system can learn to translate between any pairs of languages,
67
235270
4631
le même système peut apprendre à traduire n'importe quel couple de langues,
03:59
or learn to play any computer game on the Atari console.
68
239901
5437
ou apprendre à jouer n'importe quel jeu sur la console Atari.
04:05
Now of course,
69
245338
1779
Bien sûr,
04:07
A.I. is still nowhere near having the same powerful, cross-domain
70
247117
3999
l'I.A. est toujours loin d'avoir la capacité puissante et transversale
04:11
ability to learn and plan as a human being has.
71
251116
3219
à apprendre et planifier d'un être humain.
04:14
The cortex still has some algorithmic tricks
72
254335
2126
Le cortex a encore des secrets algorithmiques
04:16
that we don't yet know how to match in machines.
73
256461
2355
que nous ne savons pas intégrer dans les machines.
04:19
So the question is,
74
259886
1899
Donc la question est,
04:21
how far are we from being able to match those tricks?
75
261785
3500
combien de temps nous faudra-t-il pour réussir à les intégrer ?
04:26
A couple of years ago,
76
266245
1083
Il y a quelques années,
04:27
we did a survey of some of the world's leading A.I. experts,
77
267328
2888
nous avons fait un sondage auprès des experts mondiaux des I.A.,
04:30
to see what they think, and one of the questions we asked was,
78
270216
3224
pour voir ce qu'ils pensaient, et une des questions posées était,
04:33
"By which year do you think there is a 50 percent probability
79
273440
3353
« En quelle année pensez-vous qu'il y aura 50% de chance
04:36
that we will have achieved human-level machine intelligence?"
80
276793
3482
qu'une I.A. atteigne le niveau d'une intelligence humaine ? »
04:40
We defined human-level here as the ability to perform
81
280785
4183
Nous définissons ici le seuil à atteindre par la capacité de l'I.A. à réaliser
04:44
almost any job at least as well as an adult human,
82
284968
2871
presque toutes les tâches au moins aussi bien qu'un adulte,
04:47
so real human-level, not just within some limited domain.
83
287839
4005
donc réellement comme un humain, pas seulement dans un domaine limité.
04:51
And the median answer was 2040 or 2050,
84
291844
3650
La réponse médiane était 2040 ou 2050,
04:55
depending on precisely which group of experts we asked.
85
295494
2806
en fonction du groupe d'experts que nous interrogions.
04:58
Now, it could happen much, much later, or sooner,
86
298300
4039
Ça pourrait se produire bien plus tard ou bien plus tôt,
05:02
the truth is nobody really knows.
87
302339
1940
la vérité est que personne ne le sait.
05:05
What we do know is that the ultimate limit to information processing
88
305259
4412
Ce que nous savons est que la limite de traitement de l'information
05:09
in a machine substrate lies far outside the limits in biological tissue.
89
309671
4871
dans une machine est bien supérieure à celle d'un tissu biologique.
05:15
This comes down to physics.
90
315241
2378
Ça s'explique par la physique.
05:17
A biological neuron fires, maybe, at 200 hertz, 200 times a second.
91
317619
4718
Un neurone biologique "décharge" environ à 200 hertz, 200 fois par seconde.
05:22
But even a present-day transistor operates at the Gigahertz.
92
322337
3594
Mais, même un transistor actuel fonctionne au gigahertz.
05:25
Neurons propagate slowly in axons, 100 meters per second, tops.
93
325931
5297
L'information se propage dans les neurones le long d'axones à 100 m/s maximum.
05:31
But in computers, signals can travel at the speed of light.
94
331228
3111
Mais dans les ordinateurs, le signal peut voyager à la vitesse de la lumière.
05:35
There are also size limitations,
95
335079
1869
Il y a aussi des limitations de taille,
05:36
like a human brain has to fit inside a cranium,
96
336948
3027
car le cerveau humain doit rentrer dans la boîte crânienne,
05:39
but a computer can be the size of a warehouse or larger.
97
339975
4761
mais un ordinateur peut être de la taille d'un entrepôt ou plus grand.
05:44
So the potential for superintelligence lies dormant in matter,
98
344736
5599
Donc le potentiel de super intelligence est en sommeil dans la matière,
05:50
much like the power of the atom lay dormant throughout human history,
99
350335
5712
tout comme la puissance de l'atome est restée en sommeil
05:56
patiently waiting there until 1945.
100
356047
4405
tout au long de l'histoire humaine, attendant patiemment jusqu'en 1945.
06:00
In this century,
101
360452
1248
Au cours de ce siècle, il se peut que les scientifiques apprennent
06:01
scientists may learn to awaken the power of artificial intelligence.
102
361700
4118
à réveiller la puissance de l'I.A..
06:05
And I think we might then see an intelligence explosion.
103
365818
4008
Je pense que nous pourrions alors assister à une explosion d'intelligence.
06:10
Now most people, when they think about what is smart and what is dumb,
104
370406
3957
La plupart des gens, quand ils pensent à ce qui est bête ou intelligent
06:14
I think have in mind a picture roughly like this.
105
374363
3023
ont une image de ce genre en tête.
06:17
So at one end we have the village idiot,
106
377386
2598
À une extrémité on a l'idiot du village,
06:19
and then far over at the other side
107
379984
2483
et à l'autre bout
06:22
we have Ed Witten, or Albert Einstein, or whoever your favorite guru is.
108
382467
4756
on a Ed Witten, ou Albert Einstein, ou votre gourou, qui qu'il soit.
06:27
But I think that from the point of view of artificial intelligence,
109
387223
3834
Mais je pense que du point de vue de l'intelligence artificielle,
06:31
the true picture is actually probably more like this:
110
391057
3681
la véritable image est plus probablement comme ceci, en réalité :
06:35
AI starts out at this point here, at zero intelligence,
111
395258
3378
l'I.A. commence à cet endroit, à zéro intelligence,
06:38
and then, after many, many years of really hard work,
112
398636
3011
et ensuite, après de nombreuses années de dur labeur,
06:41
maybe eventually we get to mouse-level artificial intelligence,
113
401647
3844
peut-être, arrivons-nous au niveau de l'intelligence d'une souris,
06:45
something that can navigate cluttered environments
114
405491
2430
quelque chose qui peut naviguer dans des environnements encombrés
06:47
as well as a mouse can.
115
407921
1987
aussi bien qu'une souris.
06:49
And then, after many, many more years of really hard work, lots of investment,
116
409908
4313
Ensuite, après encore plus d'années de dur labeur et beaucoup d'investissements,
06:54
maybe eventually we get to chimpanzee-level artificial intelligence.
117
414221
4639
peut-être, finalement, arrivons-nous au niveau d'intelligence d'un chimpanzé.
06:58
And then, after even more years of really, really hard work,
118
418860
3210
Ensuite, après toujours plus d'années de vraiment très dur labeur,
07:02
we get to village idiot artificial intelligence.
119
422070
2913
nous arrivons au niveau d'intelligence de l'idiot du village.
07:04
And a few moments later, we are beyond Ed Witten.
120
424983
3272
Et quelques mois plus tard, nous sommes après Ed Witten.
07:08
The train doesn't stop at Humanville Station.
121
428255
2970
Le train ne s'arrête pas à la station Humainville.
07:11
It's likely, rather, to swoosh right by.
122
431225
3022
Il va plutôt passer à fond devant.
07:14
Now this has profound implications,
123
434247
1984
Il y a là de profondes implications,
07:16
particularly when it comes to questions of power.
124
436231
3862
en particulier quand il est question de pouvoir.
07:20
For example, chimpanzees are strong --
125
440093
1899
Par exemple, les chimpanzés sont forts --
07:21
pound for pound, a chimpanzee is about twice as strong as a fit human male.
126
441992
5222
à poids équivalent, un chimpanzé est deux fois plus fort qu'un homme adulte.
07:27
And yet, the fate of Kanzi and his pals depends a lot more
127
447214
4614
Pourtant, le destin de Kanzi et de ses congénères dépend beaucoup plus
07:31
on what we humans do than on what the chimpanzees do themselves.
128
451828
4140
de ce que font les humains que de ce que les chimpanzés font eux-mêmes.
07:37
Once there is superintelligence,
129
457228
2314
Une fois que la super intelligence sera là,
07:39
the fate of humanity may depend on what the superintelligence does.
130
459542
3839
le destin de l'humanité pourrait dépendre des actions de cette super intelligence.
07:44
Think about it:
131
464451
1057
Pensez-y :
07:45
Machine intelligence is the last invention that humanity will ever need to make.
132
465508
5044
l'I.A. est la dernière invention que l'homme aura jamais besoin de faire.
07:50
Machines will then be better at inventing than we are,
133
470552
2973
Les machines seront alors de meilleurs inventeurs que nous le sommes,
07:53
and they'll be doing so on digital timescales.
134
473525
2540
et elles inventeront sur des échelles de temps numériques.
07:56
What this means is basically a telescoping of the future.
135
476065
4901
Ça veut dire un télescopage avec le futur.
08:00
Think of all the crazy technologies that you could have imagined
136
480966
3558
Pensez à toutes les technologies incroyables que vous avez imaginées,
08:04
maybe humans could have developed in the fullness of time:
137
484524
2798
que les hommes pourraient avoir développées avec le temps :
08:07
cures for aging, space colonization,
138
487322
3258
plus de vieillissement, colonisation de l'espace,
08:10
self-replicating nanobots or uploading of minds into computers,
139
490580
3731
nano-robots auto-répliquants,
téléchargement d'esprits humains dans des ordinateurs,
08:14
all kinds of science fiction-y stuff
140
494311
2159
plein de technologies de science-fiction
08:16
that's nevertheless consistent with the laws of physics.
141
496470
2737
qui sont néanmoins cohérentes avec les lois de la physique.
08:19
All of this superintelligence could develop, and possibly quite rapidly.
142
499207
4212
Toute cette super intelligence pourrait se développer assez rapidement.
08:24
Now, a superintelligence with such technological maturity
143
504449
3558
Bon, une super intelligence avec une telle maturité technologique
08:28
would be extremely powerful,
144
508007
2179
serait extrêmement puissante,
08:30
and at least in some scenarios, it would be able to get what it wants.
145
510186
4546
et au moins dans certains scénarios, serait capable d'obtenir ce qu'elle veut.
08:34
We would then have a future that would be shaped by the preferences of this A.I.
146
514732
5661
Nous aurions alors un futur modelé par les préférences de cette I.A.
08:41
Now a good question is, what are those preferences?
147
521855
3749
Une bonne question est, quelles sont ces préférences ?
08:46
Here it gets trickier.
148
526244
1769
C'est là que ça devient délicat.
08:48
To make any headway with this,
149
528013
1435
Pour progresser là-dessus,
08:49
we must first of all avoid anthropomorphizing.
150
529448
3276
nous devons tout d'abord éviter tout anthropomorphisme.
08:53
And this is ironic because every newspaper article
151
533934
3301
C'est ironique car dans tous les articles de journaux
08:57
about the future of A.I. has a picture of this:
152
537235
3855
qui parle de l'avenir de l'I.A. comportent une image de ceci.
09:02
So I think what we need to do is to conceive of the issue more abstractly,
153
542280
4134
Je pense que nous devons concevoir ce problème de manière plus abstraite,
09:06
not in terms of vivid Hollywood scenarios.
154
546414
2790
et non en scénario hollywoodien fertile.
09:09
We need to think of intelligence as an optimization process,
155
549204
3617
Nous devons penser à l'intelligence comme un processus d'optimisation,
09:12
a process that steers the future into a particular set of configurations.
156
552821
5649
un processus qui guide le futur dans un certain jeu de configurations.
09:18
A superintelligence is a really strong optimization process.
157
558470
3511
Une super intelligence est un processus d'optimisation très fort.
09:21
It's extremely good at using available means to achieve a state
158
561981
4117
Elle est très douée pour utiliser les moyens disponibles pour atteindre un état
09:26
in which its goal is realized.
159
566098
1909
dans lequel son but est réalisé.
09:28
This means that there is no necessary connection between
160
568447
2672
Ça signifie qu'il n'y a pas de nécessaire connexion entre
09:31
being highly intelligent in this sense,
161
571119
2734
le fait d'être très intelligent dans ce sens,
09:33
and having an objective that we humans would find worthwhile or meaningful.
162
573853
4662
et avoir un objectif que nous, humains, trouverions utile ou significatif.
09:39
Suppose we give an A.I. the goal to make humans smile.
163
579321
3794
Supposons qu'on donne comme but à une I.A. de faire sourire les humains.
Quand l'I.A. est faible, elle réalise des actions utiles ou amusantes
09:43
When the A.I. is weak, it performs useful or amusing actions
164
583115
2982
09:46
that cause its user to smile.
165
586097
2517
qui provoque le sourire de l'utilisateur.
09:48
When the A.I. becomes superintelligent,
166
588614
2417
Quand l'I.A. devient super intelligente,
09:51
it realizes that there is a more effective way to achieve this goal:
167
591031
3523
elle réalise qu'il y a un moyen plus efficace d'atteindre son objectif :
09:54
take control of the world
168
594554
1922
prendre le contrôle du monde
09:56
and stick electrodes into the facial muscles of humans
169
596476
3162
et implanter des électrodes dans les muscles faciaux des humains
09:59
to cause constant, beaming grins.
170
599638
2941
pour provoquer des sourires rayonnants et constants.
10:02
Another example,
171
602579
1035
Un autre exemple,
10:03
suppose we give A.I. the goal to solve a difficult mathematical problem.
172
603614
3383
supposons qu'on demande à une I.A. de résoudre un problème de math très dur.
10:06
When the A.I. becomes superintelligent,
173
606997
1937
Quand l'I.A. devient super intelligente,
10:08
it realizes that the most effective way to get the solution to this problem
174
608934
4171
elle réalise que le moyen le plus efficace pour résoudre ce problème
10:13
is by transforming the planet into a giant computer,
175
613105
2930
est de transformer la planète en un ordinateur géant,
10:16
so as to increase its thinking capacity.
176
616035
2246
pour augmenter sa capacité de calcul.
10:18
And notice that this gives the A.I.s an instrumental reason
177
618281
2764
Remarquez que ça donne aux I.A.s une raison pratique
de faire des choses que nous pourrions ne pas approuver.
10:21
to do things to us that we might not approve of.
178
621045
2516
10:23
Human beings in this model are threats,
179
623561
1935
Les humains sont des menaces dans ce modèle,
10:25
we could prevent the mathematical problem from being solved.
180
625496
2921
car nous pourrions empêcher la résolution du problème.
10:29
Of course, perceivably things won't go wrong in these particular ways;
181
629207
3494
Bien sûr, les choses perceptibles ne tourneront pas mal de ces façons-là ;
10:32
these are cartoon examples.
182
632701
1753
ce sont des exemples caricaturés.
10:34
But the general point here is important:
183
634454
1939
Mais l'argument général est important :
10:36
if you create a really powerful optimization process
184
636393
2873
si vous créez un processus d'optimisation très puissant
10:39
to maximize for objective x,
185
639266
2234
pour maximiser les chances d'atteindre l'objectif x,
10:41
you better make sure that your definition of x
186
641500
2276
vous devez vous assurer que votre définition de x
10:43
incorporates everything you care about.
187
643776
2469
incorpore tout ce à quoi vous tenez.
10:46
This is a lesson that's also taught in many a myth.
188
646835
4384
C'est une leçon qui est enseignée dans de nombreux mythes.
10:51
King Midas wishes that everything he touches be turned into gold.
189
651219
5298
Le roi Midas souhaitait que tout ce qu'il touche se transforme en or.
10:56
He touches his daughter, she turns into gold.
190
656517
2861
Il touche sa fille, elle se transforme en or.
10:59
He touches his food, it turns into gold.
191
659378
2553
Il touche sa nourriture, elle se transforme en or.
11:01
This could become practically relevant,
192
661931
2589
Ça pourrait devenir pertinent en pratique,
11:04
not just as a metaphor for greed,
193
664520
2070
ne pas se limiter à une métaphore de la cupidité
11:06
but as an illustration of what happens
194
666590
1895
mais illustrer ce qui arrive
11:08
if you create a powerful optimization process
195
668485
2837
si vous créez un processus d'optimisation puissant
11:11
and give it misconceived or poorly specified goals.
196
671322
4789
et lui donnez des objectifs mal conçus ou trop vagues.
11:16
Now you might say, if a computer starts sticking electrodes into people's faces,
197
676111
5189
Vous pourriez dire que si un ordinateur commence à nous implanter des électrodes,
11:21
we'd just shut it off.
198
681300
2265
nous le débrancherions.
11:24
A, this is not necessarily so easy to do if we've grown dependent on the system --
199
684555
5340
A, ce n'est pas forcément si facile à faire si nous sommes devenus dépendants,
11:29
like, where is the off switch to the Internet?
200
689895
2732
par exemple, comment arrête-t-on internet ?
11:32
B, why haven't the chimpanzees flicked the off switch to humanity,
201
692627
5120
B, pourquoi les chimpanzés ou les Neandertals
11:37
or the Neanderthals?
202
697747
1551
n'ont-ils pas empêché l'humanité ?
11:39
They certainly had reasons.
203
699298
2666
Ils avaient de bonnes raisons.
11:41
We have an off switch, for example, right here.
204
701964
2795
Nous avons un interrupteur, par exemple, juste ici.
11:44
(Choking)
205
704759
1554
(Suffocation)
11:46
The reason is that we are an intelligent adversary;
206
706313
2925
La raison est que nous sommes un adversaire intelligent ;
11:49
we can anticipate threats and plan around them.
207
709238
2728
nous pouvons anticiper les menaces et planifier des solutions.
11:51
But so could a superintelligent agent,
208
711966
2504
Mais une super intelligence pourrait le faire aussi,
11:54
and it would be much better at that than we are.
209
714470
3254
et elle le ferait bien mieux que nous.
11:57
The point is, we should not be confident that we have this under control here.
210
717724
7187
L'important est que nous ne devrions pas croire que nous avons tout sous contrôle.
12:04
And we could try to make our job a little bit easier by, say,
211
724911
3447
Nous pourrions tenter de nous faciliter la tâche, disons
12:08
putting the A.I. in a box,
212
728358
1590
en mettant l'I.A. dans une boîte,
12:09
like a secure software environment,
213
729948
1796
comme un environnement logiciel sûr,
12:11
a virtual reality simulation from which it cannot escape.
214
731744
3022
une simulation de la réalité d'où elle ne peut s'échapper.
12:14
But how confident can we be that the A.I. couldn't find a bug.
215
734766
4146
Mais à quel point sommes-nous sûrs qu'elle ne trouvera pas un bug.
12:18
Given that merely human hackers find bugs all the time,
216
738912
3169
Étant donné que de simples hackers humains trouvent toujours des bugs,
12:22
I'd say, probably not very confident.
217
742081
3036
je dirais, probablement pas très sûrs.
12:26
So we disconnect the ethernet cable to create an air gap,
218
746237
4548
Donc on déconnecte le câble Ethernet pour créer une séparation physique,
12:30
but again, like merely human hackers
219
750785
2668
mais encore une fois, comme de simples hackers humains
12:33
routinely transgress air gaps using social engineering.
220
753453
3381
transgressent les séparations physiques grâce à l'ingéniérie sociale.
12:36
Right now, as I speak,
221
756834
1259
À l'heure où je vous parle, en ce moment-même,
12:38
I'm sure there is some employee out there somewhere
222
758093
2389
je suis sûr qu'il y a un employé, quelque part
12:40
who has been talked into handing out her account details
223
760482
3346
à qui quelqu'un prétendant être du département informatique
12:43
by somebody claiming to be from the I.T. department.
224
763828
2746
a demandé de donner son identifiant et son mot de passe.
12:46
More creative scenarios are also possible,
225
766574
2127
Des scénarios plus créatifs sont aussi possibles,
12:48
like if you're the A.I.,
226
768701
1315
par exemple, si vous êtes une I.A.
12:50
you can imagine wiggling electrodes around in your internal circuitry
227
770016
3532
vous pouvez déplacer des électrodes dans vos circuits internes
12:53
to create radio waves that you can use to communicate.
228
773548
3462
pour créer des ondes radio que vous utiliserez pour communiquer.
12:57
Or maybe you could pretend to malfunction,
229
777010
2424
Ou vous pouvez prétendre dysfonctionner,
12:59
and then when the programmers open you up to see what went wrong with you,
230
779434
3497
et quand les ingénieurs vous ouvrent pour voir ce qui ne marche pas,
13:02
they look at the source code -- Bam! --
231
782931
1936
ils regardent votre code source -- Vlan ! --
13:04
the manipulation can take place.
232
784867
2447
la manipulation peut commencer.
13:07
Or it could output the blueprint to a really nifty technology,
233
787314
3430
Ou elle pourrait produire le plan d'une nouvelle technologie géniale,
13:10
and when we implement it,
234
790744
1398
et quand nous l'implementons,
13:12
it has some surreptitious side effect that the A.I. had planned.
235
792142
4397
elle a quelques effets secondaires furtifs planifiés par l'I.A.
13:16
The point here is that we should not be confident in our ability
236
796539
3463
Donc nous ne devrions pas faire confiance à notre capacité
13:20
to keep a superintelligent genie locked up in its bottle forever.
237
800002
3808
à garder un génie super intelligent prisonnier dans sa lampe éternellement.
13:23
Sooner or later, it will out.
238
803810
2254
À un moment donné, il va s'échapper.
13:27
I believe that the answer here is to figure out
239
807034
3103
Je crois que la réponse à ça est de découvrir
13:30
how to create superintelligent A.I. such that even if -- when -- it escapes,
240
810137
5024
comment créer une super intelligence telle que même si ou quand elle s'échappe,
13:35
it is still safe because it is fundamentally on our side
241
815161
3277
on est toujours en sécurité car elle est fondamentalement de notre côté
13:38
because it shares our values.
242
818438
1899
car elle partage nos valeurs.
13:40
I see no way around this difficult problem.
243
820337
3210
Je ne vois aucune solution à ce problème.
13:44
Now, I'm actually fairly optimistic that this problem can be solved.
244
824557
3834
Mais je suis plutôt optimiste quant le fait que ce problème peut être résolu.
13:48
We wouldn't have to write down a long list of everything we care about,
245
828391
3903
Nous n'aurions pas à écrire une longue liste de tout ce que nous chérissons,
13:52
or worse yet, spell it out in some computer language
246
832294
3643
ou, encore pire, devoir le coder en language informatique
13:55
like C++ or Python,
247
835937
1454
comme C++ ou Python,
13:57
that would be a task beyond hopeless.
248
837391
2767
ce qui serait une tâche sans espoir.
14:00
Instead, we would create an A.I. that uses its intelligence
249
840158
4297
Au lieu de ça, nous créerions une I.A. qui utilise son intelligence
14:04
to learn what we value,
250
844455
2771
pour apprendre nos valeurs,
14:07
and its motivation system is constructed in such a way that it is motivated
251
847226
5280
et son système de motivation est construit de telle sorte qu'elle est motivée
14:12
to pursue our values or to perform actions that it predicts we would approve of.
252
852506
5232
par la recherche de valeurs ou d'actions qu'elle prédit que nous approuverions.
14:17
We would thus leverage its intelligence as much as possible
253
857738
3414
Nous pourrions ainsi influencer son intelligence autant que possible
14:21
to solve the problem of value-loading.
254
861152
2745
à résoudre des problèmes importants.
14:24
This can happen,
255
864727
1512
Ça peut arriver,
14:26
and the outcome could be very good for humanity.
256
866239
3596
et le résultat en serait très positif pour l'humanité.
14:29
But it doesn't happen automatically.
257
869835
3957
Mais ça n'arrive pas automatiquement.
14:33
The initial conditions for the intelligence explosion
258
873792
2998
Les conditions initiales de l'explosion de l'intelligence
14:36
might need to be set up in just the right way
259
876790
2863
devront être programmées de manière précise
14:39
if we are to have a controlled detonation.
260
879653
3530
si nous voulons obtenir une détonation contrôlée.
14:43
The values that the A.I. has need to match ours,
261
883183
2618
Les valeurs de l'I.A. devront correspondre aux nôtres,
14:45
not just in the familiar context,
262
885801
1760
pas seulement dans un contexte familier,
14:47
like where we can easily check how the A.I. behaves,
263
887561
2438
où il est facile de contrôler comment l'I.A. se comporte,
14:49
but also in all novel contexts that the A.I. might encounter
264
889999
3234
mais aussi dans de nouveaux contextes que l'I.A. pourrait rencontrer
14:53
in the indefinite future.
265
893233
1557
dans un futur indéfini.
14:54
And there are also some esoteric issues that would need to be solved, sorted out:
266
894790
4737
Il y a aussi des problèmes ésotériques qui devront être résolus :
14:59
the exact details of its decision theory,
267
899527
2089
les détails exacts de sa théorie de décision,
15:01
how to deal with logical uncertainty and so forth.
268
901616
2864
comment gérer l'incertitude logique et ainsi de suite.
15:05
So the technical problems that need to be solved to make this work
269
905330
3102
Les problèmes techniques qui doivent être surmontés pour que ça marche
15:08
look quite difficult --
270
908432
1113
semblent ardus--
15:09
not as difficult as making a superintelligent A.I.,
271
909545
3380
pas autant que de faire une I.A. super intelligente,
15:12
but fairly difficult.
272
912925
2868
mais assez ardus.
15:15
Here is the worry:
273
915793
1695
Là où c'est inquiétant, c'est que
15:17
Making superintelligent A.I. is a really hard challenge.
274
917488
4684
faire une I.A. super intelligente est un défi vraiment difficile.
15:22
Making superintelligent A.I. that is safe
275
922172
2548
Faire une I.A. super intelligente qui soit sûre
15:24
involves some additional challenge on top of that.
276
924720
2416
implique quelques défis supplémentaires.
15:28
The risk is that if somebody figures out how to crack the first challenge
277
928216
3487
Le risque est que si quelqu'un trouve comment résoudre le premier défi
15:31
without also having cracked the additional challenge
278
931703
3001
sans avoir aussi résolu
15:34
of ensuring perfect safety.
279
934704
1901
l'autre défi, celui d'assurer une sécurité parfaite.
15:37
So I think that we should work out a solution
280
937375
3331
Je pense que nous devrions donc commencer à résoudre
15:40
to the control problem in advance,
281
940706
2822
le problème de contrôle d'abord,
15:43
so that we have it available by the time it is needed.
282
943528
2660
pour qu'il soit disponible quand on en aura besoin.
15:46
Now it might be that we cannot solve the entire control problem in advance
283
946768
3507
On ne pourra peut-être pas résoudre tout le problème du contrôle à l'avance
15:50
because maybe some elements can only be put in place
284
950275
3024
car certains éléments ne peuvent être mis en place
15:53
once you know the details of the architecture where it will be implemented.
285
953299
3997
qu'une fois qu'on connait les détails de l'architecture où ce sera implémenté.
15:57
But the more of the control problem that we solve in advance,
286
957296
3380
Mais plus nous résolvons ce problème de contrôle à l'avance,
16:00
the better the odds that the transition to the machine intelligence era
287
960676
4090
meilleure sera notre chance que la transition vers l'ère de l'I.A.
16:04
will go well.
288
964766
1540
se passera bien.
16:06
This to me looks like a thing that is well worth doing
289
966306
4644
Pour moi, ça semble valoir la peine
16:10
and I can imagine that if things turn out okay,
290
970950
3332
et j'imaginer que, si tout se passe bien,
16:14
that people a million years from now look back at this century
291
974282
4658
les gens, dans un million d'années, penseront peut-être
16:18
and it might well be that they say that the one thing we did that really mattered
292
978940
4002
que la chose qui a vraiment été importante dans notre siècle
16:22
was to get this thing right.
293
982942
1567
était de faire ça bien.
16:24
Thank you.
294
984509
1689
Merci.
16:26
(Applause)
295
986198
2813
(Applaudissements)
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7