Can we build AI without losing control over it? | Sam Harris

3,794,879 views ・ 2016-10-19

TED


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

Traducteur: MACQUERON CORENTIN Relecteur: Morgane Quilfen
Je vais vous parler d'une erreur de jugement
00:13
I'm going to talk about a failure of intuition
0
13000
2216
00:15
that many of us suffer from.
1
15240
1600
que beaucoup d'entre nous font.
00:17
It's really a failure to detect a certain kind of danger.
2
17480
3040
Il s'agit de l'incapacité à détecter un certain type de danger.
00:21
I'm going to describe a scenario
3
21360
1736
Je vais décrire un scénario
00:23
that I think is both terrifying
4
23120
3256
que je pense à la fois terrifiant
00:26
and likely to occur,
5
26400
1760
et pourtant susceptible d'arriver,
00:28
and that's not a good combination,
6
28840
1656
et ce genre de combinaison
00:30
as it turns out.
7
30520
1536
n'est pas une bonne chose.
00:32
And yet rather than be scared, most of you will feel
8
32080
2456
Pourtant, au lieu d'avoir peur, la plupart d'entre vous penseront
00:34
that what I'm talking about is kind of cool.
9
34560
2080
que c'est plutôt cool.
00:37
I'm going to describe how the gains we make
10
37200
2976
Je vais décrire comment les avancées que nous faisons
00:40
in artificial intelligence
11
40200
1776
dans l'intelligence artificielle
00:42
could ultimately destroy us.
12
42000
1776
pourraient finir par nous détruire.
00:43
And in fact, I think it's very difficult to see how they won't destroy us
13
43800
3456
Il semble difficile de voir comment cela pourrait ne pas nous détruire
00:47
or inspire us to destroy ourselves.
14
47280
1680
ou nous aider à nous détruire.
00:49
And yet if you're anything like me,
15
49400
1856
Pourtant, si vous me ressemblez un peu,
00:51
you'll find that it's fun to think about these things.
16
51280
2656
vous allez trouver amusant de réfléchir à ces choses-là.
00:53
And that response is part of the problem.
17
53960
3376
Et cette façon de voir les choses est une partie du problème.
00:57
OK? That response should worry you.
18
57360
1720
Ce sentiment devrait vous inquiéter.
00:59
And if I were to convince you in this talk
19
59920
2656
Et si je devais vous convaincre, avec cette présentation,
01:02
that we were likely to suffer a global famine,
20
62600
3416
que nous allons probablement souffrir d'une famine généralisée,
01:06
either because of climate change or some other catastrophe,
21
66040
3056
soit à cause du climat ou de toute autre catastrophe,
01:09
and that your grandchildren, or their grandchildren,
22
69120
3416
et que vos petits-enfants, ou leurs petits-enfants,
01:12
are very likely to live like this,
23
72560
1800
ont de grandes chances de vivre ainsi,
01:15
you wouldn't think,
24
75200
1200
vous ne penseriez pas :
01:17
"Interesting.
25
77440
1336
« Intéressant.
01:18
I like this TED Talk."
26
78800
1200
Cool, ce TED. »
01:21
Famine isn't fun.
27
81200
1520
La famine, ce n'est pas amusant.
01:23
Death by science fiction, on the other hand, is fun,
28
83800
3376
La mort en science-fiction, en revanche, est un concept amusant
01:27
and one of the things that worries me most about the development of AI at this point
29
87200
3976
et ce qui m'inquiète le plus à propos du développement de l'IA en ce moment
01:31
is that we seem unable to marshal an appropriate emotional response
30
91200
4096
est le fait que nous semblons incapables de nous faire une idée
01:35
to the dangers that lie ahead.
31
95320
1816
des dangers qui nous attendent.
01:37
I am unable to marshal this response, and I'm giving this talk.
32
97160
3200
Je n'ai pas de réponse, alors que je suis ici, à vous en parler.
01:42
It's as though we stand before two doors.
33
102120
2696
C'est comme si nous étions face à deux portes.
01:44
Behind door number one,
34
104840
1256
Derrière la porte n°1,
01:46
we stop making progress in building intelligent machines.
35
106120
3296
nous arrêtons nos progrès dans le développement de nos machines.
01:49
Our computer hardware and software just stops getting better for some reason.
36
109440
4016
Hardware et software stagnent, pour une raison ou pour une autre.
01:53
Now take a moment to consider why this might happen.
37
113480
3000
Essayez d'imaginer ce qui pourrait arrêter ce développement.
Étant donnée l'importance de l'intelligence
01:57
I mean, given how valuable intelligence and automation are,
38
117080
3656
et de l'automatisation
02:00
we will continue to improve our technology if we are at all able to.
39
120760
3520
nous allons continuer à améliorer notre technologie si nous le pouvons.
02:05
What could stop us from doing this?
40
125200
1667
Qu'est-ce qui nous en empêcherait ?
02:07
A full-scale nuclear war?
41
127800
1800
Une guerre nucléaire mondiale ?
02:11
A global pandemic?
42
131000
1560
Une pandémie globale ?
02:14
An asteroid impact?
43
134320
1320
Un impact d'astéroïde ?
02:17
Justin Bieber becoming president of the United States?
44
137640
2576
Justin Bieber président des États-Unis ?
02:20
(Laughter)
45
140240
2280
(Rires)
02:24
The point is, something would have to destroy civilization as we know it.
46
144760
3920
Il faudrait que la civilisation telle que nous la connaissons
soit détruite.
02:29
You have to imagine how bad it would have to be
47
149360
4296
Il faudrait vraiment imaginer quelque chose de terrible
02:33
to prevent us from making improvements in our technology
48
153680
3336
pour que nous arrêtions de développer notre technologie
02:37
permanently,
49
157040
1216
totalement,
02:38
generation after generation.
50
158280
2016
génération après génération.
02:40
Almost by definition, this is the worst thing
51
160320
2136
Par définition, ce serait la pire chose
02:42
that's ever happened in human history.
52
162480
2016
qui serait jamais arrivée à l'humanité.
02:44
So the only alternative,
53
164520
1296
Donc la seule alternative,
02:45
and this is what lies behind door number two,
54
165840
2336
et c'est ce qui se trouve derrière la porte n°2,
02:48
is that we continue to improve our intelligent machines
55
168200
3136
est que nous continuions d'améliorer l'intelligence de nos machines
02:51
year after year after year.
56
171360
1600
année après année.
02:53
At a certain point, we will build machines that are smarter than we are,
57
173720
3640
À un moment, nous allons construire des machines plus intelligentes que nous,
02:58
and once we have machines that are smarter than we are,
58
178080
2616
et ces machines plus intelligentes que nous
03:00
they will begin to improve themselves.
59
180720
1976
vont commencer à s'améliorer elles-mêmes.
03:02
And then we risk what the mathematician IJ Good called
60
182720
2736
Il y a le risque, théorisé par le mathématicien I.J. Good,
03:05
an "intelligence explosion,"
61
185480
1776
d'une « explosion d'intelligence »,
03:07
that the process could get away from us.
62
187280
2000
un processus qui pourrait nous échapper.
03:10
Now, this is often caricatured, as I have here,
63
190120
2816
Ce phénomène est souvent caricaturé, comme ici,
03:12
as a fear that armies of malicious robots
64
192960
3216
avec des armées de robots malveillants
03:16
will attack us.
65
196200
1256
qui nous attaqueraient.
03:17
But that isn't the most likely scenario.
66
197480
2696
Mais ce n'est pas le scénario le plus probable.
03:20
It's not that our machines will become spontaneously malevolent.
67
200200
4856
Nos machines ne vont probablement pas devenir spontanément malveillantes.
03:25
The concern is really that we will build machines
68
205080
2616
Le risque est que nous construisions des machines
03:27
that are so much more competent than we are
69
207720
2056
tellement plus compétentes que nous
03:29
that the slightest divergence between their goals and our own
70
209800
3776
que la moindre divergence d'intérêt entre elles et nous
03:33
could destroy us.
71
213600
1200
pourrait nous détruire.
03:35
Just think about how we relate to ants.
72
215960
2080
Pensez aux fourmis.
03:38
We don't hate them.
73
218600
1656
Nous ne les haïssons pas.
03:40
We don't go out of our way to harm them.
74
220280
2056
Nous ne cherchons pas à les écraser.
03:42
In fact, sometimes we take pains not to harm them.
75
222360
2376
Nous faisons même parfois l'effort de les éviter.
03:44
We step over them on the sidewalk.
76
224760
2016
Nous les enjambons.
03:46
But whenever their presence
77
226800
2136
Mais dès que leur présence
03:48
seriously conflicts with one of our goals,
78
228960
2496
nous gêne vraiment,
03:51
let's say when constructing a building like this one,
79
231480
2477
par exemple si nous voulons construire un bâtiment,
03:53
we annihilate them without a qualm.
80
233981
1960
nous les exterminons sans scrupule.
03:56
The concern is that we will one day build machines
81
236480
2936
Le risque est que nous construisions un jour des machines
03:59
that, whether they're conscious or not,
82
239440
2736
qui, conscientes ou non,
04:02
could treat us with similar disregard.
83
242200
2000
nous traiteraient avec la même indifférence.
04:05
Now, I suspect this seems far-fetched to many of you.
84
245760
2760
Cela peut vous sembler capillotracté.
04:09
I bet there are those of you who doubt that superintelligent AI is possible,
85
249360
6336
Je parie que certains d'entre vous doutent qu'une super IA soit possible,
04:15
much less inevitable.
86
255720
1656
et encore moins inévitable.
04:17
But then you must find something wrong with one of the following assumptions.
87
257400
3620
Mais dans ce cas vous devez réfuter une des hypothèses suivantes.
04:21
And there are only three of them.
88
261044
1572
Et il n'y en a que trois.
04:23
Intelligence is a matter of information processing in physical systems.
89
263800
4719
L'intelligence est le traitement de l'information dans un système physique.
04:29
Actually, this is a little bit more than an assumption.
90
269320
2615
En fait, c'est un peu plus qu'une simple hypothèse.
04:31
We have already built narrow intelligence into our machines,
91
271959
3457
Nous avons déjà construit des machines vaguement intelligentes,
04:35
and many of these machines perform
92
275440
2016
et nombre d'entre elles font déjà preuve
04:37
at a level of superhuman intelligence already.
93
277480
2640
d'une intelligence surhumaine.
04:40
And we know that mere matter
94
280840
2576
Et nous savons que la matière
04:43
can give rise to what is called "general intelligence,"
95
283440
2616
peut produire « l'intelligence générale »,
04:46
an ability to think flexibly across multiple domains,
96
286080
3656
la capacité de réfléchir de manière croisée,
04:49
because our brains have managed it. Right?
97
289760
3136
parce que nos cerveaux y sont parvenus, n'est-ce pas ?
04:52
I mean, there's just atoms in here,
98
292920
3936
Après tout, il n'y a que des atomes là-dedans,
04:56
and as long as we continue to build systems of atoms
99
296880
4496
et tant que nous continuerons à construire des systèmes d'atomes
05:01
that display more and more intelligent behavior,
100
301400
2696
qui feront montre de plus en plus d'intelligence,
05:04
we will eventually, unless we are interrupted,
101
304120
2536
nous parviendrons, à moins d'être interrompus,
05:06
we will eventually build general intelligence
102
306680
3376
nous parviendrons à implanter une « intelligence générale »
05:10
into our machines.
103
310080
1296
au cœur de nos machines.
05:11
It's crucial to realize that the rate of progress doesn't matter,
104
311400
3656
Il est crucial de comprendre que la vitesse n'est pas le problème,
05:15
because any progress is enough to get us into the end zone.
105
315080
3176
car n'importe quelle vitesse est suffisante pour aller au bout.
05:18
We don't need Moore's law to continue. We don't need exponential progress.
106
318280
3776
Nous n'avons pas besoin de la loi de Moore
ni d'un progrès exponentiel.
05:22
We just need to keep going.
107
322080
1600
Il suffit de continuer à avancer.
05:25
The second assumption is that we will keep going.
108
325480
2920
La deuxième hypothèse est que nous allons continuer.
05:29
We will continue to improve our intelligent machines.
109
329000
2760
Nous continuerons d'améliorer nos machines intelligentes.
05:33
And given the value of intelligence --
110
333000
4376
Et, vue la valeur de l'intelligence --
05:37
I mean, intelligence is either the source of everything we value
111
337400
3536
l'intelligence est la source de tout ce qui compte
05:40
or we need it to safeguard everything we value.
112
340960
2776
ou alors elle doit protéger tout ce qui compte.
05:43
It is our most valuable resource.
113
343760
2256
C'est notre plus importante ressource.
05:46
So we want to do this.
114
346040
1536
Donc nous allons continuer.
05:47
We have problems that we desperately need to solve.
115
347600
3336
Nous avons des problèmes que nous devons absolument résoudre.
05:50
We want to cure diseases like Alzheimer's and cancer.
116
350960
3200
Nous voulons vaincre les maladies comme Alzheimer ou le cancer.
05:54
We want to understand economic systems. We want to improve our climate science.
117
354960
3936
Nous voulons comprendre l'économie.
Nous voulons améliorer le climat.
05:58
So we will do this, if we can.
118
358920
2256
Donc nous allons continuer, si nous le pouvons.
06:01
The train is already out of the station, and there's no brake to pull.
119
361200
3286
Le train a déjà quitté la gare et il n'y a pas de frein.
06:05
Finally, we don't stand on a peak of intelligence,
120
365880
5456
Et enfin, l'humain ne se trouve pas au sommet de l'intelligence,
06:11
or anywhere near it, likely.
121
371360
1800
nous en sommes même très loin.
06:13
And this really is the crucial insight.
122
373640
1896
Et c'est vraiment le point crucial.
06:15
This is what makes our situation so precarious,
123
375560
2416
C'est ce qui rend notre situation si précaire
06:18
and this is what makes our intuitions about risk so unreliable.
124
378000
4040
et ce qui fait que notre compréhension des risques n'est pas fiable.
06:23
Now, just consider the smartest person who has ever lived.
125
383120
2720
Prenons l'humain le plus intelligent qui ait jamais vécu.
06:26
On almost everyone's shortlist here is John von Neumann.
126
386640
3416
Beaucoup de gens penseraient à John von Neumann.
06:30
I mean, the impression that von Neumann made on the people around him,
127
390080
3336
L'impression que von Neumann laissait aux gens,
06:33
and this included the greatest mathematicians and physicists of his time,
128
393440
4056
y compris les plus brillants mathématiciens et physiciens de son temps,
06:37
is fairly well-documented.
129
397520
1936
est plutôt bien documentée.
06:39
If only half the stories about him are half true,
130
399480
3776
Si ne serait-ce que la moitié de ce que l'on dit sur lui
est à moitié vraie,
06:43
there's no question
131
403280
1216
il n'y a aucun doute qu'il soit
06:44
he's one of the smartest people who has ever lived.
132
404520
2456
l'un des plus brillants esprits qui aient existé.
06:47
So consider the spectrum of intelligence.
133
407000
2520
Considérons le spectre de l'intelligence.
06:50
Here we have John von Neumann.
134
410320
1429
Voici John von Neumann.
06:53
And then we have you and me.
135
413560
1334
Et nous, nous sommes ici.
06:56
And then we have a chicken.
136
416120
1296
Et là nous avons un poulet.
06:57
(Laughter)
137
417440
1936
(Rires)
06:59
Sorry, a chicken.
138
419400
1216
Pardon, un poulet.
07:00
(Laughter)
139
420640
1256
(Rires)
07:01
There's no reason for me to make this talk more depressing than it needs to be.
140
421920
3736
Pas besoin de rendre cette présentation plus déprimante qu'elle ne l'est déjà.
07:05
(Laughter)
141
425680
1600
(Rires)
07:08
It seems overwhelmingly likely, however, that the spectrum of intelligence
142
428339
3477
Il semble néanmoins plus que probable que le spectre de l'intelligence
07:11
extends much further than we currently conceive,
143
431840
3120
s'étende beaucoup plus loin que nous ne pouvons le concevoir,
07:15
and if we build machines that are more intelligent than we are,
144
435880
3216
Si nous construisons des machines plus intelligentes que nous,
07:19
they will very likely explore this spectrum
145
439120
2296
elles vont très probablement explorer ce spectre,
07:21
in ways that we can't imagine,
146
441440
1856
plus que nous ne pouvons l'imaginer,
07:23
and exceed us in ways that we can't imagine.
147
443320
2520
et elles nous surpasseront, plus que nous ne pouvons l'imaginer.
07:27
And it's important to recognize that this is true by virtue of speed alone.
148
447000
4336
Il est important de noter que c'est vrai par la seule vertu de la vitesse.
07:31
Right? So imagine if we just built a superintelligent AI
149
451360
5056
Imaginez que nous construisions une IA super intelligente
07:36
that was no smarter than your average team of researchers
150
456440
3456
qui ne soit pas plus intelligente qu'une équipe moyenne de chercheurs
07:39
at Stanford or MIT.
151
459920
2296
de Stanford ou du MIT.
07:42
Well, electronic circuits function about a million times faster
152
462240
2976
L'électronique va environ un million de fois plus vite
07:45
than biochemical ones,
153
465240
1256
que la biochimie,
07:46
so this machine should think about a million times faster
154
466520
3136
de sorte que cette machine penserait un million de fois plus vite
07:49
than the minds that built it.
155
469680
1816
que les humains qui l'auraient créée.
07:51
So you set it running for a week,
156
471520
1656
En une semaine,
07:53
and it will perform 20,000 years of human-level intellectual work,
157
473200
4560
cette machine réaliserait le même travail qu'une équipe d'humains en 20 000 ans,
07:58
week after week after week.
158
478400
1960
semaine après semaine.
08:01
How could we even understand, much less constrain,
159
481640
3096
Comment pourrions-nous comprendre, et encore moins limiter,
08:04
a mind making this sort of progress?
160
484760
2280
un esprit qui irait à une telle vitesse ?
08:08
The other thing that's worrying, frankly,
161
488840
2136
L'autre chose inquiétante, franchement,
08:11
is that, imagine the best case scenario.
162
491000
4976
est la suivante : imaginez le meilleur des cas.
08:16
So imagine we hit upon a design of superintelligent AI
163
496000
4176
Imaginez que nous concevions une IA super intelligente
08:20
that has no safety concerns.
164
500200
1376
qui ne soit pas dangereuse.
08:21
We have the perfect design the first time around.
165
501600
3256
Nous trouvons la parfaite solution du premier coup.
08:24
It's as though we've been handed an oracle
166
504880
2216
Comme si nous avions un oracle à disposition
08:27
that behaves exactly as intended.
167
507120
2016
se comportant exactement comme prévu.
08:29
Well, this machine would be the perfect labor-saving device.
168
509160
3720
Cette machine nous éviterait toute forme de travail.
08:33
It can design the machine that can build the machine
169
513680
2429
Elle concevrait la machine qui ferait la machine
08:36
that can do any physical work,
170
516133
1763
qui pourrait faire n'importe quoi,
08:37
powered by sunlight,
171
517920
1456
alimentée par le soleil,
08:39
more or less for the cost of raw materials.
172
519400
2696
plus ou moins pour le seul coût des matières premières.
08:42
So we're talking about the end of human drudgery.
173
522120
3256
On parle là de la fin de la pénibilité humaine.
08:45
We're also talking about the end of most intellectual work.
174
525400
2800
Nous parlons aussi de la fin du travail intellectuel.
08:49
So what would apes like ourselves do in this circumstance?
175
529200
3056
Que feraient des singes comme nous dans une pareille situation ?
08:52
Well, we'd be free to play Frisbee and give each other massages.
176
532280
4080
Nous serions libres de jouer au frisbee et de nous faire des massages.
08:57
Add some LSD and some questionable wardrobe choices,
177
537840
2856
Avec un peu de LSD et quelques fringues douteuses,
09:00
and the whole world could be like Burning Man.
178
540720
2176
le monde entier serait comme le Burning Man.
09:02
(Laughter)
179
542920
1640
(Rires)
09:06
Now, that might sound pretty good,
180
546320
2000
Bon, tout ça peut sembler plutôt sympa,
09:09
but ask yourself what would happen
181
549280
2376
mais demandez-vous ce qui arriverait
09:11
under our current economic and political order?
182
551680
2736
avec notre système politique et économique actuel ?
09:14
It seems likely that we would witness
183
554440
2416
Nous serions les témoins
09:16
a level of wealth inequality and unemployment
184
556880
4136
d'une inégalité des richesses et d'un taux de chômage
09:21
that we have never seen before.
185
561040
1496
encore jamais vus.
09:22
Absent a willingness to immediately put this new wealth
186
562560
2616
Sans la volonté de mettre ces nouvelles richesses
09:25
to the service of all humanity,
187
565200
1480
au service de toute l'humanité,
09:27
a few trillionaires could grace the covers of our business magazines
188
567640
3616
quelques milliardaires feraient les couvertures des revues commerciales
09:31
while the rest of the world would be free to starve.
189
571280
2440
alors que le reste du monde mourrait de faim.
09:34
And what would the Russians or the Chinese do
190
574320
2296
Et que feraient les Russes ou les Chinois
09:36
if they heard that some company in Silicon Valley
191
576640
2616
s'ils apprenaient qu'une société de la Silicon Valley
09:39
was about to deploy a superintelligent AI?
192
579280
2736
était sur le point de créer une IA super intelligente ?
09:42
This machine would be capable of waging war,
193
582040
2856
Cette machine serait capable de faire la guerre,
09:44
whether terrestrial or cyber,
194
584920
2216
qu'elle soit physique ou numérique,
09:47
with unprecedented power.
195
587160
1680
avec une puissance jamais vue.
09:50
This is a winner-take-all scenario.
196
590120
1856
Le vainqueur emporterait toute la mise.
09:52
To be six months ahead of the competition here
197
592000
3136
Avoir six mois d'avance dans une telle compétition
09:55
is to be 500,000 years ahead,
198
595160
2776
revient à avoir 500 000 ans d'avance,
09:57
at a minimum.
199
597960
1496
au minimum.
09:59
So it seems that even mere rumors of this kind of breakthrough
200
599480
4736
Il est donc possible que la moindre rumeur de ce type de percée
10:04
could cause our species to go berserk.
201
604240
2376
pourrait tous nous rendre totalement dingues.
10:06
Now, one of the most frightening things,
202
606640
2896
L'une des choses les plus effrayantes,
10:09
in my view, at this moment,
203
609560
2776
de mon point de vue,
10:12
are the kinds of things that AI researchers say
204
612360
4296
sont les choses que les chercheurs en IA disent
10:16
when they want to be reassuring.
205
616680
1560
quand ils veulent nous rassurer.
10:19
And the most common reason we're told not to worry is time.
206
619000
3456
On nous dit généralement que nous avons encore le temps.
10:22
This is all a long way off, don't you know.
207
622480
2056
C'est pour plus tard, vous pensez bien.
10:24
This is probably 50 or 100 years away.
208
624560
2440
C'est probablement pour dans 50 ou 100 ans.
10:27
One researcher has said,
209
627720
1256
Un chercheur a dit :
10:29
"Worrying about AI safety
210
629000
1576
« S'inquiéter de l'IA, c'est comme s'inquiéter
10:30
is like worrying about overpopulation on Mars."
211
630600
2280
de la surpopulation sur Mars. »
10:34
This is the Silicon Valley version
212
634116
1620
La Silicon Valley sait parfois
10:35
of "don't worry your pretty little head about it."
213
635760
2376
se montrer condescendante.
10:38
(Laughter)
214
638160
1336
(Rires)
10:39
No one seems to notice
215
639520
1896
Personne ne semble se rendre compte
10:41
that referencing the time horizon
216
641440
2616
que dire qu'on a le temps
10:44
is a total non sequitur.
217
644080
2576
est totalement fallacieux dans ce contexte.
10:46
If intelligence is just a matter of information processing,
218
646680
3256
Si l'intelligence n'est que le traitement de l'information
10:49
and we continue to improve our machines,
219
649960
2656
et si l'on continue d'améliorer nos machines,
10:52
we will produce some form of superintelligence.
220
652640
2880
alors nous produirons une forme de super intelligence.
10:56
And we have no idea how long it will take us
221
656320
3656
Et nous n'avons pas la moindre idée du temps qu'il nous faudra
11:00
to create the conditions to do that safely.
222
660000
2400
pour trouver comment le faire sans risques.
11:04
Let me say that again.
223
664200
1296
Je vais me répéter.
11:05
We have no idea how long it will take us
224
665520
3816
Nous n'avons pas la moindre idée du temps qu'il nous faudra
11:09
to create the conditions to do that safely.
225
669360
2240
pour trouver comment le faire sans risques.
11:12
And if you haven't noticed, 50 years is not what it used to be.
226
672920
3456
Au cas où vous n'auriez pas remarqué, 50 ans, ce n'est pas grand chose.
11:16
This is 50 years in months.
227
676400
2456
Voici 50 ans, en mois.
11:18
This is how long we've had the iPhone.
228
678880
1840
Voici l'existence de l'iPhone.
11:21
This is how long "The Simpsons" has been on television.
229
681440
2600
Voici la durée couverte par « Les Simpsons ».
11:24
Fifty years is not that much time
230
684680
2376
Cinquante ans, cela ne laisse guère de temps
11:27
to meet one of the greatest challenges our species will ever face.
231
687080
3160
pour se préparer à l'un des plus grands défis de tous les temps.
11:31
Once again, we seem to be failing to have an appropriate emotional response
232
691640
4016
Une fois encore, nous semblons incapables de nous préparer
11:35
to what we have every reason to believe is coming.
233
695680
2696
à ce qui, selon toute probabilité, va arriver.
11:38
The computer scientist Stuart Russell has a nice analogy here.
234
698400
3976
L'informaticien Stuart Russel propose une belle analogie à ce sujet.
11:42
He said, imagine that we received a message from an alien civilization,
235
702400
4896
Il dit : « Imaginez que nous recevions un message des aliens
11:47
which read:
236
707320
1696
qui dirait :
11:49
"People of Earth,
237
709040
1536
' Habitants de la Terre,
11:50
we will arrive on your planet in 50 years.
238
710600
2360
nous arriverons chez vous dans 50 ans.
11:53
Get ready."
239
713800
1576
Soyez prêts. '
11:55
And now we're just counting down the months until the mothership lands?
240
715400
4256
Et on ne ferait que regarder le compte à rebours ?
11:59
We would feel a little more urgency than we do.
241
719680
3000
Non, nous nous sentirions un peu plus concernés que ça. »
12:04
Another reason we're told not to worry
242
724680
1856
Une autre raison de ne pas s'inquiéter
12:06
is that these machines can't help but share our values
243
726560
3016
serait que ces machines partageraient notre sens des valeurs
12:09
because they will be literally extensions of ourselves.
244
729600
2616
parce qu'elles seraient des extensions de nous-mêmes.
12:12
They'll be grafted onto our brains,
245
732240
1816
Elles seraient greffées sur nos cerveaux,
12:14
and we'll essentially become their limbic systems.
246
734080
2360
nous serions leur système limbique.
12:17
Now take a moment to consider
247
737120
1416
Réfléchissez un peu
12:18
that the safest and only prudent path forward,
248
738560
3176
que le moyen le plus sûr,
12:21
recommended,
249
741760
1336
recommandé,
12:23
is to implant this technology directly into our brains.
250
743120
2800
serait de brancher cette technologie directement sur nos cerveaux.
12:26
Now, this may in fact be the safest and only prudent path forward,
251
746600
3376
Cela peut sembler être la meilleure option,
12:30
but usually one's safety concerns about a technology
252
750000
3056
mais généralement, on essaie d'être sûr de son coup
12:33
have to be pretty much worked out before you stick it inside your head.
253
753080
3656
avant de s'enfoncer quelque chose dans le cerveau.
12:36
(Laughter)
254
756760
2016
(Rires)
12:38
The deeper problem is that building superintelligent AI on its own
255
758800
5336
Le vrai problème est que simplement concevoir
une IA super intelligente
12:44
seems likely to be easier
256
764160
1736
semble plus facile
12:45
than building superintelligent AI
257
765920
1856
que de concevoir une IA super intelligente
12:47
and having the completed neuroscience
258
767800
1776
tout en maîtrisant les neurosciences
12:49
that allows us to seamlessly integrate our minds with it.
259
769600
2680
pour connecter cette IA à nos cerveaux.
12:52
And given that the companies and governments doing this work
260
772800
3176
Si l'on tient compte du fait que les entreprises et gouvernements
12:56
are likely to perceive themselves as being in a race against all others,
261
776000
3656
se sentent probablement en concurrence,
12:59
given that to win this race is to win the world,
262
779680
3256
et, puisque remporter cette course revient à conquérir le monde,
13:02
provided you don't destroy it in the next moment,
263
782960
2456
pourvu que vous ne le détruisiez pas juste après,
13:05
then it seems likely that whatever is easier to do
264
785440
2616
il semble probable que l'on commence
13:08
will get done first.
265
788080
1200
par le plus facile.
13:10
Now, unfortunately, I don't have a solution to this problem,
266
790560
2856
Malheureusement, je n'ai pas la solution de ce problème,
13:13
apart from recommending that more of us think about it.
267
793440
2616
à part recommander que nous soyons plus nombreux à y réfléchir.
13:16
I think we need something like a Manhattan Project
268
796080
2376
Il nous faudrait une sorte de Projet Manhattan
13:18
on the topic of artificial intelligence.
269
798480
2016
à propos de l'intelligence artificielle.
13:20
Not to build it, because I think we'll inevitably do that,
270
800520
2736
Pas pour la concevoir, car nous y parviendrons,
13:23
but to understand how to avoid an arms race
271
803280
3336
mais pour réfléchir à comment éviter une course aux armements
13:26
and to build it in a way that is aligned with our interests.
272
806640
3496
et pour la concevoir d'une façon en accord avec nos intérêts.
13:30
When you're talking about superintelligent AI
273
810160
2136
Quand vous parlez d'une IA super intelligente
13:32
that can make changes to itself,
274
812320
2256
qui pourrait se modifier elle-même,
13:34
it seems that we only have one chance to get the initial conditions right,
275
814600
4616
il semblerait que nous n'ayons qu'une seule chance de faire les choses bien
13:39
and even then we will need to absorb
276
819240
2056
et encore, il nous faudra gérer
13:41
the economic and political consequences of getting them right.
277
821320
3040
les conséquences politiques et économiques.
13:45
But the moment we admit
278
825760
2056
Mais à partir du moment où nous admettons
13:47
that information processing is the source of intelligence,
279
827840
4000
que le traitement de l'information est la source de l'intelligence,
13:52
that some appropriate computational system is what the basis of intelligence is,
280
832720
4800
qu'un système de calcul est la base de l'intelligence,
13:58
and we admit that we will improve these systems continuously,
281
838360
3760
et que nous admettons que nous allons continuer d'améliorer ce type de système
14:03
and we admit that the horizon of cognition very likely far exceeds
282
843280
4456
et que nous admettons que l'horizon
de l'intelligence dépasse totalement
14:07
what we currently know,
283
847760
1200
ce que nous savons aujourd'hui,
14:10
then we have to admit
284
850120
1216
nous devons admettre
14:11
that we are in the process of building some sort of god.
285
851360
2640
que nous sommes engagés dans la conception d'un pseudo-dieu.
14:15
Now would be a good time
286
855400
1576
Il nous faut donc vérifier
14:17
to make sure it's a god we can live with.
287
857000
1953
que c'est un dieu compatible avec notre survie.
14:20
Thank you very much.
288
860120
1536
Merci beaucoup.
14:21
(Applause)
289
861680
5093
(Applaudissements)
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7