What Is an AI Anyway? | Mustafa Suleyman | TED

2,131,185 views ・ 2024-04-22

TED


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

Traducteur: Elisabeth Buffard
00:04
I want to tell you what I see coming.
0
4292
2586
Je veux vous dire ce que je vois venir.
00:07
I've been lucky enough to be working on AI for almost 15 years now.
1
7712
4463
J’ai la chance de travailler sur l’IA depuis près de 15 ans.
00:12
Back when I started, to describe it as fringe would be an understatement.
2
12676
5088
Quand j’ai commencé, la qualifier de marginale aurait été un euphémisme.
00:17
Researchers would say, “No, no, we’re only working on machine learning.”
3
17806
4045
Les chercheurs disaient : « Non,
on ne travaille que sur l’apprentissage automatique ».
00:21
Because working on AI was seen as way too out there.
4
21893
3087
Parce que travailler sur l’IA était vu comme trop extravagant.
00:25
In 2010, just the very mention of the phrase “AGI,”
5
25021
4380
En 2010, juste mentionner l’IAG,
00:29
artificial general intelligence,
6
29401
2169
l’intelligence artificielle générale,
00:31
would get you some seriously strange looks
7
31570
2877
vous valait d’être regardé bizarrement
00:34
and even a cold shoulder.
8
34489
1585
et même d’être snobé.
00:36
"You're actually building AGI?" people would say.
9
36366
3837
Les gens disaient : « Tu construis vraiment une IAG ?
00:40
"Isn't that something out of science fiction?"
10
40203
2294
C’est pas de la science-fiction ? »
00:42
People thought it was 50 years away or 100 years away,
11
42914
2544
Les gens pensaient que c’était pour dans 50 ou 100 ans, voire impossible.
00:45
if it was even possible at all.
12
45500
1919
00:47
Talk of AI was, I guess, kind of embarrassing.
13
47752
3337
Parler d’IA était, je crois, un peu embarrassant.
00:51
People generally thought we were weird.
14
51631
2211
En général, les gens nous trouvaient bizarres.
00:54
And I guess in some ways we kind of were.
15
54217
2503
Dans un sens, on l’était.
00:56
It wasn't long, though, before AI started beating humans
16
56761
2878
Mais l’IA n’a pas tardé à commencer à battre les humains
00:59
at a whole range of tasks
17
59681
1793
dans toute une série de tâches
01:01
that people previously thought were way out of reach.
18
61516
2795
que les gens pensaient auparavant hors de portée.
01:05
Understanding images,
19
65020
2127
Comprendre des images,
01:07
translating languages,
20
67147
1918
traduire des langues,
01:09
transcribing speech,
21
69065
1585
transcrire des discours,
01:10
playing Go and chess
22
70692
2127
jouer au Go et aux échecs
01:12
and even diagnosing diseases.
23
72861
1918
et même diagnostiquer des maladies.
01:15
People started waking up to the fact
24
75905
1752
Les gens ont commencé à réaliser que l’IA allait avoir un impact énorme,
01:17
that AI was going to have an enormous impact,
25
77657
3462
01:21
and they were rightly asking technologists like me
26
81119
2836
et ont posé à juste titre des questions assez difficiles
01:23
some pretty tough questions.
27
83955
1752
à des technologues comme moi.
01:25
Is it true that AI is going to solve the climate crisis?
28
85749
3044
Est-il vrai que l’IA va résoudre la crise climatique ?
01:29
Will it make personalized education available to everyone?
29
89127
3337
Est-ce que l'enseignement personnalisé sera accessible à tous ?
01:32
Does it mean we'll all get universal basic income
30
92881
2294
On bénéficiera tous d’un revenu de base universel
01:35
and we won't have to work anymore?
31
95216
2002
et on n’aura plus à travailler ?
01:37
Should I be afraid?
32
97218
1544
Dois-je avoir peur ?
01:38
What does it mean for weapons and war?
33
98762
2335
Et pour les armes et la guerre ?
01:41
And of course, will China win?
34
101598
1460
Et la Chine va-t-elle gagner ?
01:43
Are we in a race?
35
103058
1543
Sommes-nous dans une course ?
01:45
Are we headed for a mass misinformation apocalypse?
36
105518
3212
Allons-nous vers une apocalypse de la désinformation de masse ?
01:49
All good questions.
37
109147
1668
Toutes les bonnes questions.
01:51
But it was actually a simpler
38
111608
1418
Mais c'était en fait une question plus simple
01:53
and much more kind of fundamental question that left me puzzled.
39
113026
4046
et bien plus fondamentale qui m’a laissé perplexe.
01:58
One that actually gets to the very heart of my work every day.
40
118031
3962
Une question qui touche au cœur de mon travail au quotidien.
02:03
One morning over breakfast,
41
123620
2044
Un matin, au petit déjeuner,
02:05
my six-year-old nephew Caspian was playing with Pi,
42
125705
3379
mon neveu Caspian, six ans, jouait avec Pi,
02:09
the AI I created at my last company, Inflection.
43
129084
3378
l'IA que j'ai créée dans ma dernière entreprise, Inflection.
02:12
With a mouthful of scrambled eggs,
44
132504
1877
La bouche pleine d’œufs brouillés,
02:14
he looked at me plain in the face and said,
45
134381
3503
il m’a regardé en face et m’a dit :
02:17
"But Mustafa, what is an AI anyway?"
46
137926
3295
« Mais Mustafa, c’est quoi, une IA, en fait ? »
02:21
He's such a sincere and curious and optimistic little guy.
47
141930
3545
C’est un petit garçon si sincère, curieux et optimiste.
02:25
He'd been talking to Pi about how cool it would be if one day in the future,
48
145517
4254
Il avait dit à Pi comme ce serait cool si un jour dans le futur,
02:29
he could visit dinosaurs at the zoo.
49
149771
2377
il pouvait aller voir des dinosaures au zoo.
02:32
And how he could make infinite amounts of chocolate at home.
50
152190
3795
Et comment il pouvait faire des quantités infinies de chocolat à la maison.
02:35
And why Pi couldn’t yet play I Spy.
51
155985
2920
Et pourquoi Pi ne pouvait pas encore jouer à I Spy.
02:39
"Well," I said, "it's a clever piece of software
52
159823
2252
J’ai dit : « c’est un logiciel intelligent
02:42
that's read most of the text on the open internet,
53
162075
2461
a lu la plupart des textes sur internet,
02:44
and it can talk to you about anything you want."
54
164577
2419
et peut vous parler de tout ce que vous voulez. »
02:48
"Right.
55
168540
1168
« OK.
02:49
So like a person then?"
56
169749
2127
Alors, comme une personne ? »
02:54
I was stumped.
57
174254
1334
J'étais perplexe.
02:56
Genuinely left scratching my head.
58
176798
2502
Vraiment perplexe.
03:00
All my boring stock answers came rushing through my mind.
59
180301
4046
Toutes mes réponses toutes faites et ennuyeuses me sont venues à l’esprit.
03:04
"No, but AI is just another general-purpose technology,
60
184723
2585
« Non, mais l’IA n’est qu’une technologie polyvalente de plus,
03:07
like printing or steam."
61
187308
1710
comme l’imprimerie ou la vapeur. »
03:09
It will be a tool that will augment us
62
189394
2502
Ce sera un outil qui nous augmentera
03:11
and make us smarter and more productive.
63
191938
2377
et nous rendra plus intelligents et plus productifs.
03:14
And when it gets better over time,
64
194649
1960
Et quand il s’améliorera au fil du temps,
03:16
it'll be like an all-knowing oracle
65
196651
1919
ce sera comme un oracle omniscient
03:18
that will help us solve grand scientific challenges."
66
198611
3087
qui nous aidera à relever de grands défis scientifiques. »
03:22
You know, all of these responses started to feel, I guess,
67
202115
3712
Toutes ces réponses ont commencé sembler
03:25
a little bit defensive.
68
205869
1418
un peu défensives.
03:28
And actually better suited to a policy seminar
69
208246
2211
Elles convenaient plus à un séminaire stratégique
03:30
than breakfast with a no-nonsense six-year-old.
70
210457
2627
qu’à un petit-déjeuner avec un enfant pragmatique.
03:33
"Why am I hesitating?" I thought to myself.
71
213126
3086
Je me suis dit : « Pourquoi est-ce que j’hésite ? »
03:37
You know, let's be honest.
72
217839
1960
Soyons honnêtes.
03:39
My nephew was asking me a simple question
73
219799
3253
Mon neveu me posait une question simple
03:43
that those of us in AI just don't confront often enough.
74
223052
3796
qu’on ne vous pose pas assez souvent quand vous travaillez dans l’IA.
03:48
What is it that we are actually creating?
75
228099
2920
Que sommes-nous en train de créer ?
03:51
What does it mean to make something totally new,
76
231895
3753
Quel est le sens de créer quelque chose de totalement nouveau,
03:55
fundamentally different to any invention that we have known before?
77
235648
4255
radicalement différent de toute invention que nous avons connues auparavant ?
04:00
It is clear that we are at an inflection point
78
240695
2795
Il est clair que nous sommes à un tournant l'histoire de l'humanité.
04:03
in the history of humanity.
79
243490
1793
04:06
On our current trajectory,
80
246493
1918
Sur notre trajectoire actuelle,
04:08
we're headed towards the emergence of something
81
248411
2211
nous nous dirigeons vers l’émergence de quelque chose
04:10
that we are all struggling to describe,
82
250663
3170
que nous avons tous du mal à décrire,
04:13
and yet we cannot control what we don't understand.
83
253875
4630
mais nous ne pouvons pas contrôler ce que nous ne comprenons pas.
04:19
And so the metaphors,
84
259631
1585
Les métaphores,
04:21
the mental models,
85
261216
1251
les modèles mentaux,
04:22
the names, these all matter
86
262509
2585
les noms sont donc importants
04:25
if we’re to get the most out of AI whilst limiting its potential downsides.
87
265094
4088
si on veut tirer le meilleur parti de l’IA
tout en limitant ses inconvénients potentiels.
04:30
As someone who embraces the possibilities of this technology,
88
270391
3421
Je suis quelqu’un qui saisit les possibilités de cette technologie,
04:33
but who's also always cared deeply about its ethics,
89
273812
3670
mais qui a toujours été profondément attachée à son éthique,
04:37
we should, I think,
90
277524
1293
et je pense qu’on devrait
04:38
be able to easily describe what it is we are building.
91
278817
3044
pouvoir décrire facilement ce qu’on est en train de construire.
04:41
And that includes the six-year-olds.
92
281861
2002
Et cela inclut les enfants de six ans.
04:44
So it's in that spirit that I offer up today the following metaphor
93
284239
4254
C’est donc dans cet esprit que je propose aujourd’hui la métaphore suivante
04:48
for helping us to try to grapple with what this moment really is.
94
288535
3461
pour nous aider à essayer de comprendre ce qu’est réellement ce moment.
04:52
I think AI should best be understood
95
292539
2627
Je pense que l'IA doit être mieux comprise
04:55
as something like a new digital species.
96
295166
4254
comme une sorte de nouvelle espèce numérique.
05:00
Now, don't take this too literally,
97
300296
2253
Ne prenez le pas trop au pied de la lettre,
05:02
but I predict that we'll come to see them as digital companions,
98
302590
4630
mais je prédis qu’on en viendra à les considérer
comme des compagnons numériques,
05:07
new partners in the journeys of all our lives.
99
307220
3295
de nouveaux partenaires dans les voyages de notre vie.
05:10
Whether you think we’re on a 10-, 20- or 30-year path here,
100
310557
4087
Que vous pensiez que ce sera dans 10, 20 ou 30 ans,
05:14
this is, in my view, the most accurate and most fundamentally honest way
101
314686
5005
c’est, selon moi, la façon la plus précise et la plus fondamentalement honnête
05:19
of describing what's actually coming.
102
319732
2378
de décrire ce qui va réellement se passer.
05:22
And above all, it enables everybody to prepare for
103
322610
3963
Et surtout, ça permet à chacun de se préparer
05:26
and shape what comes next.
104
326614
2711
et de façonner ce qui va suivre.
05:29
Now I totally get, this is a strong claim,
105
329868
2002
Je comprends tout à fait que c’est une affirmation forte,
05:31
and I'm going to explain to everyone as best I can why I'm making it.
106
331911
3837
et je vais expliquer du mieux que je peux pourquoi je la fais.
05:36
But first, let me just try to set the context.
107
336291
2961
Mais d’abord, permettez-moi d’essayer de situer le contexte.
05:39
From the very first microscopic organisms,
108
339252
2753
Depuis les premiers organismes microscopiques,
05:42
life on Earth stretches back billions of years.
109
342046
3462
la vie sur Terre remonte à des milliards d'années.
05:45
Over that time, life evolved and diversified.
110
345508
4213
Au cours de cette période, la vie a évolué et s’est diversifiée.
05:49
Then a few million years ago, something began to shift.
111
349762
3796
Puis, il y a quelques millions d'années, quelque chose a commencé à changer.
05:54
After countless cycles of growth and adaptation,
112
354183
3629
Après d’innombrables cycles de croissance et d’adaptation,
05:57
one of life’s branches began using tools, and that branch grew into us.
113
357812
6256
l’une des branches de la vie a commencé à utiliser des outils,
et cette branche est devenue nous.
06:04
We went on to produce a mesmerizing variety of tools,
114
364777
4130
Ensuite, on a produit une variété fascinante d’outils, d’abord lentement,
06:08
at first slowly and then with astonishing speed,
115
368907
3670
puis à une vitesse incroyable,
06:12
we went from stone axes and fire
116
372577
3670
nous sommes passés des haches en pierre et du feu
06:16
to language, writing and eventually industrial technologies.
117
376247
5005
au langage, à l’écriture et finalement aux technologies industrielles.
06:21
One invention unleashed a thousand more.
118
381878
2919
Une invention en a déclenché un millier d’autres.
06:25
And in time, we became homo technologicus.
119
385173
3712
Et avec le temps, nous sommes devenus homo technologicus.
06:29
Around 80 years ago,
120
389594
1209
Il y a environ 80 ans,
06:30
another new branch of technology began.
121
390803
2545
une autre nouvelle branche technologique a vu le jour.
06:33
With the invention of computers,
122
393973
1710
Avec l'invention des ordinateurs,
06:35
we quickly jumped from the first mainframes and transistors
123
395725
3295
on est vite passé des premiers ordinateurs centraux et des transistors
06:39
to today's smartphones and virtual-reality headsets.
124
399062
3461
aux smartphones et aux casques de réalité virtuelle d’aujourd’hui.
06:42
Information, knowledge, communication, computation.
125
402565
4421
Information, connaissance, communication, calcul.
06:47
In this revolution,
126
407570
1418
Dans cette révolution,
06:49
creation has exploded like never before.
127
409030
3295
la création a explosé comme jamais auparavant.
06:53
And now a new wave is upon us.
128
413242
2503
Et maintenant, une nouvelle vague s’abat sur nous.
06:55
Artificial intelligence.
129
415787
1668
L’intelligence artificielle.
06:57
These waves of history are clearly speeding up,
130
417872
2544
Ces vagues de l’histoire s’accélèrent clairement,
07:00
as each one is amplified and accelerated by the last.
131
420458
4338
chacune étant amplifiée et accélérée par la précédente.
07:05
And if you look back,
132
425088
1167
Si on regarde en arrière,
07:06
it's clear that we are in the fastest
133
426297
2002
il est clair que nous traversons la vague la plus rapide
07:08
and most consequential wave ever.
134
428299
2586
et la plus conséquente de tous les temps.
07:11
The journeys of humanity and technology are now deeply intertwined.
135
431844
4630
Les voyages de l’humanité et de la technologie
sont désormais étroitement liés.
07:16
In just 18 months,
136
436516
1543
En 18 mois à peine,
07:18
over a billion people have used large language models.
137
438059
3170
plus d’un milliard de personnes
ont utilisé de grands modèles de langue.
07:21
We've witnessed one landmark event after another.
138
441729
3545
On a assisté à une succession d’événements marquants.
07:25
Just a few years ago, people said that AI would never be creative.
139
445650
3462
Il y a quelques années à peine,
certains disaient que l’IA ne serait jamais créative.
07:30
And yet AI now feels like an endless river of creativity,
140
450113
4045
Pourtant, l’IA ressemble aujourd’hui à un fleuve infini de créativité,
07:34
making poetry and images and music and video that stretch the imagination.
141
454200
4671
créant de la poésie et des images,
de la musique et des vidéos qui stimulent l’imagination.
07:39
People said it would never be empathetic.
142
459664
2252
On disait que ce ne serait jamais empathique.
07:42
And yet today, millions of people enjoy meaningful conversations with AIs,
143
462417
5297
Pourtant, aujourd’hui,
des millions de gens ont des conversations enrichissantes avec des IA,
07:47
talking about their hopes and dreams
144
467755
2002
pour parler de leurs espoirs et de leurs rêves
07:49
and helping them work through difficult emotional challenges.
145
469757
3087
et pour les aider à surmonter leurs difficultés émotionnelle.
07:53
AIs can now drive cars,
146
473177
2294
Les IA peuvent désormais conduire des voitures,
07:55
manage energy grids
147
475513
1543
gérer des réseaux énergétiques
07:57
and even invent new molecules.
148
477056
2252
et même inventer de nouvelles molécules.
07:59
Just a few years ago, each of these was impossible.
149
479308
3713
Il y a quelques années, tout cela était impossible.
08:03
And all of this is turbocharged by spiraling exponentials of data
150
483771
5506
Et tout cela est amplifié par la spirale exponentielle
des données et des calculs.
08:09
and computation.
151
489277
1626
08:10
Last year, Inflection 2.5, our last model,
152
490945
5297
L’année dernière, Inflection 2.5, notre dernier modèle,
08:16
used five billion times more computation
153
496242
4129
a utilisé cinq milliards de fois plus de calculs
08:20
than the DeepMind AI that beat the old-school Atari games
154
500371
3629
que l’IA DeepMind qui a battu les anciens jeux Atari
08:24
just over 10 years ago.
155
504042
1668
il y a un peu plus de 10 ans.
08:26
That's nine orders of magnitude more computation.
156
506085
3420
Ça représente neuf ordres de grandeur supplémentaires.
08:30
10x per year,
157
510089
1627
10 fois par an,
08:31
every year for almost a decade.
158
511716
3253
chaque année pendant près d'une décennie.
08:34
Over the same time, the size of these models has grown
159
514969
2544
Dans le même temps, la taille de ces modèles
08:37
from first tens of millions of parameters to then billions of parameters,
160
517555
4213
est passée de quelques dizaines de millions de paramètres
à des milliards de paramètres,
08:41
and very soon, tens of trillions of parameters.
161
521809
3504
et très bientôt à des dizaines de milliards de paramètres.
08:45
If someone did nothing but read 24 hours a day for their entire life,
162
525313
4755
Si quelqu’un ne faisait que lire 24 heures sur 24 pendant toute sa vie,
08:50
they'd consume eight billion words.
163
530109
3337
il consommerait huit milliards de mots.
08:53
And of course, that's a lot of words.
164
533488
1835
Et bien sûr, ça fait beaucoup de mots.
08:55
But today, the most advanced AIs consume more than eight trillion words
165
535364
5756
Mais aujourd'hui, les IA les plus avancées consomment plus de huit billions de mots
09:01
in a single month of training.
166
541120
2336
en un seul mois de formation.
09:03
And all of this is set to continue.
167
543873
1960
Et tout ça est appelé à se poursuivre.
09:05
The long arc of technological history is now in an extraordinary new phase.
168
545875
5797
Le long arc de l’histoire technologique
entre aujourd’hui dans une nouvelle phase extraordinaire.
09:12
So what does this mean in practice?
169
552256
2503
Qu’est-ce que ça eut dire concrètement ?
09:15
Well, just as the internet gave us the browser
170
555426
2920
Eh bien, tout comme Internet nous a donné le navigateur
09:18
and the smartphone gave us apps,
171
558346
2502
et le smartphone nous a donné des applications,
09:20
the cloud-based supercomputer is ushering in a new era
172
560890
4004
le superordinateur dans le cloud ouvre une nouvelle ère
09:24
of ubiquitous AIs.
173
564936
2502
d'IA omniprésentes.
09:27
Everything will soon be represented by a conversational interface.
174
567438
4588
Le tout sera bientôt représenté par une interface conversationnelle.
09:32
Or, to put it another way, a personal AI.
175
572026
3003
Ou, pour le dire autrement, une IA personnelle.
09:35
And these AIs will be infinitely knowledgeable,
176
575780
2336
Et ces IA seront infiniment compétentes,
09:38
and soon they'll be factually accurate and reliable.
177
578157
3879
et bientôt, elles seront exactes et fiables sur le plan factuel.
09:42
They'll have near-perfect IQ.
178
582036
1794
Elles auront un QI presque parfait.
09:44
They’ll also have exceptional EQ.
179
584914
2377
Ils auront également un QE.
09:47
They’ll be kind, supportive, empathetic.
180
587291
4129
Elles seront gentilles, solidaires et empathiques.
09:53
These elements on their own would be transformational.
181
593089
2836
Ces éléments, à eux seuls seraient transformateurs.
09:55
Just imagine if everybody had a personalized tutor in their pocket
182
595925
3795
Imaginez si tout le monde avait un tuteur personnalisé en poche
09:59
and access to low-cost medical advice.
183
599720
3003
et avait accès à des conseils médicaux peu coûteux.
10:02
A lawyer and a doctor,
184
602723
1544
Un avocat et un médecin,
10:04
a business strategist and coach --
185
604267
1960
un stratège commercial et un coach,
10:06
all in your pocket 24 hours a day.
186
606269
2252
le tout dans votre poche 24 heures sur 24.
10:08
But things really start to change when they develop what I call AQ,
187
608980
4713
Mais les choses commencent vraiment à changer
lorsqu’elle développent ce que j’appelle le QA,
10:13
their “actions quotient.”
188
613693
1668
leur « quotient d'action ».
10:15
This is their ability to actually get stuff done
189
615695
2794
Il s'agit de leur capacité à faire avancer les choses
10:18
in the digital and physical world.
190
618531
2294
dans le monde numérique et physique.
10:20
And before long, it won't just be people that have AIs.
191
620867
3420
Et d’ici peu, les gens ne seront plus les seuls à avoir des IA.
10:24
Strange as it may sound, every organization,
192
624328
2962
Aussi étrange que ça puisse paraître, chaque organisation,
des PME aux ONG, et le gouvernement national,
10:27
from small business to nonprofit to national government,
193
627290
3253
10:30
each will have their own.
194
630585
1710
aura la sienne.
10:32
Every town, building and object
195
632795
2711
Chaque ville, chaque bâtiment et chaque objet
10:35
will be represented by a unique interactive persona.
196
635506
3754
sera représenté par un personnage interactif unique.
10:39
And these won't just be mechanistic assistants.
197
639302
2544
Et ce ne seront pas que des assistants mécanistes.
10:42
They'll be companions, confidants,
198
642221
3754
Ils seront des compagnons, des confidents,
10:46
colleagues, friends and partners,
199
646017
2669
des collègues, des amis et des partenaires
10:48
as varied and unique as we all are.
200
648728
2627
aussi divers et uniques que nous le sommes tous.
10:52
At this point, AIs will convincingly imitate humans at most tasks.
201
652273
4630
À ce stade, les IA imiteront de manière convaincante les humains
dans la plupart des tâches.
10:57
And we'll feel this at the most intimate of scales.
202
657737
2794
Et nous le ressentirons à la plus intime des échelles.
11:00
An AI organizing a community get-together for an elderly neighbor.
203
660990
3587
Une IA qui organisera une réunion communautaire pour un voisin âgé.
11:04
A sympathetic expert helping you make sense of a difficult diagnosis.
204
664619
4588
Un expert sympathique qui vous aidera à comprendre un diagnostic difficile.
11:09
But we'll also feel it at the largest scales.
205
669248
2753
Mais nous le ressentirons également à plus grande échelle.
11:12
Accelerating scientific discovery,
206
672043
2586
L’accélération des découvertes scientifiques,
11:14
autonomous cars on the roads,
207
674629
2168
des voitures autonomes sur les routes,
11:16
drones in the skies.
208
676797
1627
des drones dans le ciel.
11:18
They'll both order the takeout and run the power station.
209
678966
3337
Ils commanderont les plats à emporter et géreront la centrale.
11:22
They’ll interact with us and, of course, with each other.
210
682970
3337
Ils interagiront avec nous et, bien sûr, entre eux.
11:26
They'll speak every language,
211
686349
1918
Ils parleront toutes les langues,
11:28
take in every pattern of sensor data,
212
688267
2836
capteront tous les types de données de capteurs,
11:31
sights, sounds,
213
691145
2336
de vues, de sons,
11:33
streams and streams of information,
214
693481
2377
de flux et de flux d’informations,
11:35
far surpassing what any one of us could consume in a thousand lifetimes.
215
695900
4379
dépassant de loin ce que chacun d’entre nous pourrait consommer en mille vies.
11:40
So what is this?
216
700780
1293
Alors, qu’est-ce que c’est ?
11:42
What are these AIs?
217
702990
2086
Que sont ces IA ?
11:46
If we are to prioritize safety above all else,
218
706410
4588
Si nous voulons donner la priorité à la sécurité avant tout,
11:51
to ensure that this new wave always serves and amplifies humanity,
219
711040
5088
pour garantir que cette nouvelle vague serve et amplifie toujours l’humanité,
11:56
then we need to find the right metaphors for what this might become.
220
716128
4922
nous devons trouver les bonnes métaphores pour décrire ce que ça pourrait devenir.
12:01
For years, we in the AI community, and I specifically,
221
721842
4296
Depuis des années, la communauté de l’IA, et moi en particulier,
12:06
have had a tendency to refer to this as just tools.
222
726180
3587
avons tendance à appeler ça des outils.
Mais ça ne reflète pas vraiment ce qui se passe réellement ici.
12:11
But that doesn't really capture what's actually happening here.
223
731060
3003
12:14
AIs are clearly more dynamic,
224
734730
2503
Les IA sont clairement plus dynamiques,
12:17
more ambiguous, more integrated
225
737233
2753
plus ambiguës, plus intégrées
12:19
and more emergent than mere tools,
226
739986
2627
et plus émergentes que de simples outils
12:22
which are entirely subject to human control.
227
742613
2878
entièrement soumis au contrôle humain.
12:25
So to contain this wave,
228
745533
2544
Donc, pour contenir cette vague,
12:28
to put human agency at its center
229
748119
3044
placer l’action humaine au centre
12:31
and to mitigate the inevitable unintended consequences
230
751163
2711
et atténuer les conséquences imprévues inévitables
12:33
that are likely to arise,
231
753916
1835
qui sont susceptibles de survenir,
12:35
we should start to think about them as we might a new kind of digital species.
232
755793
5005
on devrait commencer à les voir comme une nouvelle sorte d’espèce numérique.
12:41
Now it's just an analogy,
233
761132
1793
Ce n’est qu’une analogie,
12:42
it's not a literal description, and it's not perfect.
234
762925
2586
ce n’est pas une description littérale et ce n’est pas parfait.
12:46
For a start, they clearly aren't biological in any traditional sense,
235
766053
4046
D’abord, elles ne sont clairement pas biologiques au sens traditionnel du terme,
12:50
but just pause for a moment
236
770141
2377
mais prenez un moment pour vraiment réfléchir à ce qu’elles font déjà.
12:52
and really think about what they already do.
237
772560
2836
12:55
They communicate in our languages.
238
775438
2627
Elles communiquent dans nos langues.
12:58
They see what we see.
239
778107
2127
Elles voient ce que nous voyons.
13:00
They consume unimaginably large amounts of information.
240
780234
3587
Elles consomment des quantités inimaginables d’informations.
13:04
They have memory.
241
784739
1376
Elles ont de la mémoire.
13:06
They have personality.
242
786991
1752
Elles ont de la personnalité.
13:09
They have creativity.
243
789493
1710
Elles ont de la créativité.
13:12
They can even reason to some extent and formulate rudimentary plans.
244
792038
3962
Elles raisonnent même dans une certaine mesure
et formulent des plans rudimentaires.
13:16
They can act autonomously if we allow them.
245
796709
3128
Elles peuvent agir de manière autonome si on le leur permet.
13:20
And they do all this at levels of sophistication
246
800546
2294
Et elles font tout ça à un niveau de sophistication
13:22
that is far beyond anything that we've ever known from a mere tool.
247
802882
3587
qui dépasse de loin tout ce qu’on a connu avec un simple outil.
13:27
And so saying AI is mainly about the math or the code
248
807762
4296
Dire que l’IA est principalement une question de mathématiques ou de code
13:32
is like saying we humans are mainly about carbon and water.
249
812099
4838
revient à dire que nous, les humains, sommes principalement du carbone et d’eau.
13:37
It's true, but it completely misses the point.
250
817897
3795
C’est vrai, mais c’est oublier l’essentiel.
13:42
And yes, I get it, this is a super arresting thought
251
822860
3629
Et oui, je comprends, c’est une idée très saisissante,
13:46
but I honestly think this frame helps sharpen our focus on the critical issues.
252
826489
5171
mais je pense sincèrement que ce cadre
nous permet de mieux nous concentrer sur les problèmes critiques.
13:52
What are the risks?
253
832745
1585
Quels sont les risques ?
13:55
What are the boundaries that we need to impose?
254
835790
2752
Quelles sont les limites que nous devons imposer ?
13:59
What kind of AI do we want to build or allow to be built?
255
839293
4338
Quel type d'IA voulons-nous créer ou autoriser à construire ?
14:04
This is a story that's still unfolding.
256
844465
2377
Cette histoire est en cours d’écriture.
14:06
Nothing should be accepted as a given.
257
846884
2544
Rien ne doit être considéré comme acquis.
14:09
We all must choose what we create.
258
849428
2544
Nous devons tous choisir ce que nous créons.
14:12
What AIs we bring into the world, or not.
259
852681
3921
Quelles IA nous mettons au monde, ou pas.
14:18
These are the questions for all of us here today,
260
858604
2836
Voilà les questions qui se posent à nous tous ici aujourd’hui
14:21
and all of us alive at this moment.
261
861440
2586
et à tous ceux qui sont vivants en ce moment.
14:24
For me, the benefits of this technology are stunningly obvious,
262
864693
4296
Pour moi, les avantages de cette technologie
sont étonnamment évidents
14:28
and they inspire my life's work every single day.
263
868989
3546
et ils inspirent chaque jour l’œuvre de ma vie.
14:33
But quite frankly, they'll speak for themselves.
264
873661
3086
Mais franchement, ils parleront d’eux-mêmes.
14:37
Over the years, I've never shied away from highlighting risks
265
877706
2920
Au fil des ans, je n’ai jamais hésité à souligner les risques
14:40
and talking about downsides.
266
880668
1710
et à parler des inconvénients.
14:43
Thinking in this way helps us focus on the huge challenges
267
883087
3211
Penser ainsi nous aide à nous concentrer
sur les énormes défis qui nous attendent tous.
14:46
that lie ahead for all of us.
268
886298
1836
14:48
But let's be clear.
269
888843
1418
Mais soyons clairs.
14:50
There is no path to progress
270
890719
2128
On ne va pas vers le progrès
14:52
where we leave technology behind.
271
892888
2169
en laissant la technologie de côté.
14:55
The prize for all of civilization is immense.
272
895683
3795
Le bénéfice pour l’ensemble de la civilisation est immense.
15:00
We need solutions in health care and education, to our climate crisis.
273
900062
3879
Il nous faut des solutions pour la santé et l’éducation, pour la crise climatique.
15:03
And if AI delivers just a fraction of its potential,
274
903941
3921
Et si l’IA ne réalise qu’une fraction de son potentiel,
15:07
the next decade is going to be the most productive in human history.
275
907903
4421
la prochaine décennie sera la plus productive
de l’histoire de l’humanité.
15:13
Here's another way to think about it.
276
913701
2002
On peut voir ça autrement.
15:15
In the past,
277
915744
1293
Dans le passé,
15:17
unlocking economic growth often came with huge downsides.
278
917037
4088
débloquer la croissance économique
s’accompagnait souvent d’énormes inconvénients.
15:21
The economy expanded as people discovered new continents
279
921500
3712
L’économie s’est développée
à mesure que les gens découvraient de nouveaux continents
15:25
and opened up new frontiers.
280
925254
2002
et ouvraient de nouvelles frontières.
15:28
But they colonized populations at the same time.
281
928632
3045
Mais ils ont colonisé des populations en même temps.
15:32
We built factories,
282
932595
1710
Nous avons construit des usines,
15:34
but they were grim and dangerous places to work.
283
934305
3044
mais c'étaient des lieux de travail sinistres et dangereux.
15:38
We struck oil,
284
938017
1918
Nous avons découvert du pétrole,
15:39
but we polluted the planet.
285
939977
1627
mais nous avons pollué la planète.
15:42
Now because we are still designing and building AI,
286
942146
3170
Maintenant que nous continuons à concevoir et à développer l’IA,
15:45
we have the potential and opportunity to do it better,
287
945316
3795
nous avons le potentiel et l’opportunité de le faire mieux,
15:49
radically better.
288
949153
1335
radicalement mieux.
15:51
And today, we're not discovering a new continent
289
951071
2628
Aujourd’hui, on ne découvre pas un nouveau continent,
15:53
and plundering its resources.
290
953741
1918
on ne piller ses ressources.
15:56
We're building one from scratch.
291
956285
1919
On en construit un à partir de zéro.
15:58
Sometimes people say that data or chips are the 21st century’s new oil,
292
958662
5297
On dit parfois que les données ou les puces
sont le nouveau pétrole du 21e siècle,
16:03
but that's totally the wrong image.
293
963959
2002
mais cette image est totalement fausse.
16:06
AI is to the mind
294
966587
1919
L’IA est à l’esprit ce que la fusion nucléaire est à l’énergie.
16:08
what nuclear fusion is to energy.
295
968547
2753
16:12
Limitless, abundant,
296
972259
2670
Illimitée, abondante, capable de changer le monde.
16:14
world-changing.
297
974970
1544
16:17
And AI really is different,
298
977389
2962
Et l'IA est vraiment différente,
16:20
and that means we have to think about it creatively and honestly.
299
980392
4213
et ça signifie qu’il nous faut réfléchir de manière créative et honnête.
16:24
We have to push our analogies and our metaphors
300
984647
2586
Nous devons repousser les limites de nos analogies et de nos métaphores
16:27
to the very limits
301
987274
1752
pour être en mesure de comprendre ce qui va arriver.
16:29
to be able to grapple with what's coming.
302
989068
2252
16:31
Because this is not just another invention.
303
991362
2878
Parce qu’il ne s’agit pas d’une invention comme les autres.
16:34
AI is itself an infinite inventor.
304
994907
3503
L'IA est elle-même un inventeur infini.
16:38
And yes, this is exciting and promising and concerning
305
998869
3295
Et oui, c’est à la fois passionnant et prometteur, inquiétant
16:42
and intriguing all at once.
306
1002164
2044
et intrigant.
16:45
To be quite honest, it's pretty surreal.
307
1005251
2585
Pour être honnête, c’est assez surréaliste.
16:47
But step back,
308
1007836
1293
Mais prenez du recul,
16:49
see it on the long view of glacial time,
309
1009171
3462
voyez ça sous la perspective de l’ère glaciaire,
16:52
and these really are the very most appropriate metaphors that we have today.
310
1012633
4796
et ce sont vraiment les métaphores les plus appropriées que nous ayons.
16:57
Since the beginning of life on Earth,
311
1017471
3003
Depuis le début de la vie sur Terre,
17:00
we've been evolving, changing
312
1020516
2961
nous évoluons, changeons
17:03
and then creating everything around us in our human world today.
313
1023477
4171
puis créons tout ce qui nous entoure dans notre monde humain d’aujourd’hui.
17:08
And AI isn't something outside of this story.
314
1028232
3003
Et l'IA n'est pas quelque chose en dehors de cette histoire.
17:11
In fact, it's the very opposite.
315
1031569
2961
En fait, c'est tout le contraire.
17:15
It's the whole of everything that we have created,
316
1035197
3170
C’est l’ensemble de tout ce que nous avons créé,
17:18
distilled down into something that we can all interact with
317
1038367
3545
condensé en une chose avec laquelle on peut tous interagir
17:21
and benefit from.
318
1041912
1377
et dont on peut tous bénéficier.
17:23
It's a reflection of humanity across time,
319
1043872
3504
C’est le reflet de l’humanité à travers le temps et, en ce sens,
17:27
and in this sense,
320
1047418
1251
17:28
it isn't a new species at all.
321
1048711
1918
il ne s’agit pas du tout d’une nouvelle espèce.
17:31
This is where the metaphors end.
322
1051213
1960
C'est là que s'arrêtent les métaphores.
17:33
Here's what I'll tell Caspian next time he asks.
323
1053591
2502
Voici ce que je dirai à Caspian la prochaine fois qu'il me le demandera.
17:37
AI isn't separate.
324
1057219
1460
L'IA n'est pas séparée.
17:39
AI isn't even in some senses, new.
325
1059388
3295
L’IA n’est même pas nouvelle à certains égards.
17:43
AI is us.
326
1063517
1126
L'IA, c'est nous.
17:45
It's all of us.
327
1065394
1210
C'est nous tous.
17:47
And this is perhaps the most promising and vital thing of all
328
1067062
3754
Et c’est peut-être la chose la plus prometteuse et la plus vitale
17:50
that even a six-year-old can get a sense for.
329
1070858
2669
que même un enfant de six ans puisse en avoir une idée.
17:54
As we build out AI,
330
1074528
1376
Au fur et à mesure qu’on développe l’IA,
17:55
we can and must reflect all that is good,
331
1075946
3545
on peut et on doit refléter tout ce qui est bon,
17:59
all that we love,
332
1079533
1126
tout ce que nous aimons, tout ce que l’humanité a de spécial :
18:00
all that is special about humanity:
333
1080701
2753
18:03
our empathy, our kindness,
334
1083495
2169
notre empathie,
18:05
our curiosity and our creativity.
335
1085664
2169
notre gentillesse, notre curiosité et notre créativité.
18:09
This, I would argue, is the greatest challenge of the 21st century,
336
1089251
5130
Je dirais que c’est le plus grand défi du 21e siècle,
18:14
but also the most wonderful,
337
1094381
2211
mais aussi l’opportunité la plus merveilleuse,
18:16
inspiring and hopeful opportunity for all of us.
338
1096592
3336
la plus inspirante et la plus pleine d’espoir pour nous tous.
18:20
Thank you.
339
1100429
1168
Merci
18:21
(Applause)
340
1101639
4879
(Applaudissements)
18:26
Chris Anderson: Thank you Mustafa.
341
1106560
1668
Chris Anderson : Merci Mustafa.
18:28
It's an amazing vision and a super powerful metaphor.
342
1108270
3796
C’est une vision incroyable et une métaphore super puissante.
Ta position est incroyable en ce moment.
18:32
You're in an amazing position right now.
343
1112066
1960
18:34
I mean, you were connected at the hip
344
1114026
1793
Tu étais indissociable du travail incroyable en cours chez OpenAI.
18:35
to the amazing work happening at OpenAI.
345
1115819
2795
18:38
You’re going to have resources made available,
346
1118614
2169
Des ressources seront mises à disposition,
18:40
there are reports of these giant new data centers,
347
1120824
4046
des rapports font état de nouveaux centres de données géants,
18:44
100 billion dollars invested and so forth.
348
1124870
2461
de cent milliards de dollars investis, etc.
18:48
And a new species can emerge from it.
349
1128082
3837
Et une nouvelle espèce peut en émerger.
18:52
I mean, in your book,
350
1132294
1502
Dans ton livre,
18:53
you did, as well as painting an incredible optimistic vision,
351
1133837
2878
tu l’as fait, en plus de brosser une vision incroyablement optimiste,
18:56
you were super eloquent on the dangers of AI.
352
1136757
3629
vous avez été très éloquent sur les dangers de l'IA.
19:00
And I'm just curious, from the view that you have now,
353
1140427
3963
Et je suis curieux de savoir, selon ton point de vue actuel,
19:04
what is it that most keeps you up at night?
354
1144431
2336
qu’est-ce qui t’empêche le plus de dormir la nuit ?
19:06
Mustafa Suleyman: I think the great risk is that we get stuck
355
1146809
2878
Mustafa Suleyman : Pour moi, le grand risque est d’être piégé
19:09
in what I call the pessimism aversion trap.
356
1149728
2086
dans ce que j’appelle l’aversion au pessimisme.
19:11
You know, we have to have the courage to confront
357
1151855
2586
Il faut avoir le courage de faire face
19:14
the potential of dark scenarios
358
1154483
1960
à la possibilité de scénarios sombres
19:16
in order to get the most out of all the benefits that we see.
359
1156443
3128
pour tirer le meilleur parti de tous les avantages que nous voyons.
19:19
So the good news is that if you look at the last two or three years,
360
1159613
3712
Si on regarde les deux ou trois dernières années,
19:23
there have been very, very few downsides, right?
361
1163325
2961
il y a eu très, très peu d'inconvénients, n'est-ce pas ?
19:26
It’s very hard to say explicitly what harm an LLM has caused.
362
1166328
4922
Il est très difficile de dire clairement quel préjudice un LLM a causé.
19:31
But that doesn’t mean that that’s what the trajectory is going to be
363
1171291
3212
Mais ça ne veut pas dire que ce sera comme ça
pour les 10 prochaines années.
19:34
over the next 10 years.
364
1174503
1168
19:35
So I think if you pay attention to a few specific capabilities,
365
1175671
3462
Je pense donc que si vous observez quelques capacités spécifiques,
19:39
take for example, autonomy.
366
1179174
1835
par exemple l’autonomie.
19:41
Autonomy is very obviously a threshold
367
1181009
2336
L'autonomie est de toute évidence un seuil
19:43
over which we increase risk in our society.
368
1183387
2794
au-delà duquel on augmente les risques dans notre société.
19:46
And it's something that we should step towards very, very closely.
369
1186223
3128
et il nous faut l’aborder avec de grandes précautions.
19:49
The other would be something like recursive self-improvement.
370
1189393
3420
Un autre seuil serait une auto-amélioration récursive.
19:52
If you allow the model to independently self-improve,
371
1192813
3629
Si on permet au modèle de s’améliorer de manière indépendante,
19:56
update its own code,
372
1196483
1460
de mettre à jour son propre code,
19:57
explore an environment without oversight, and, you know,
373
1197985
3295
d’explorer un environnement sans supervision
20:01
without a human in control to change how it operates,
374
1201321
3295
et sans contrôle humain pour modifier son fonctionnement,
20:04
that would obviously be more dangerous.
375
1204616
1919
ce serait évidemment plus dangereux.
20:06
But I think that we're still some way away from that.
376
1206535
2544
Mais je pense que nous en sommes encore loin.
20:09
I think it's still a good five to 10 years before we have to really confront that.
377
1209079
3879
Je pense qu’il nous reste encore cinq à dix ans avant d’y être.
20:12
But it's time to start talking about it now.
378
1212958
2085
Mais il est temps de commencer à en parler.
CA : Contrairement aux espèces biologiques, une espèce numérique
20:15
CA: A digital species, unlike any biological species,
379
1215043
2545
20:17
can replicate not in nine months,
380
1217588
2002
peut se répliquer non pas en neuf mois, mais en neuf nanosecondes,
20:19
but in nine nanoseconds,
381
1219631
1669
20:21
and produce an indefinite number of copies of itself,
382
1221341
3421
et produire un nombre indéfini de copies d’elle-même,
20:24
all of which have more power than we have in many ways.
383
1224803
3796
qui ont toutes plus de pouvoir que nous à bien des égards.
20:28
I mean, the possibility for unintended consequences seems pretty immense.
384
1228599
4838
La possibilité de conséquences imprévues semble assez immense.
Et n'est-il pas vrai que si un problème survient,
20:33
And isn't it true that if a problem happens,
385
1233479
2168
20:35
it could happen in an hour?
386
1235689
1919
il peut se produire en une heure ?
20:37
MS: No.
387
1237649
1335
MS : Non.
20:38
That is really not true.
388
1238984
1752
Ce n'est vraiment pas vrai.
20:40
I think there's no evidence to suggest that.
389
1240778
2085
Je pense qu’il n’y a aucune preuve qui le suggère.
20:42
And I think that, you know,
390
1242863
1585
Et je pense que ce qu’on appelle souvent « l’explosion du renseignement ».
20:44
that’s often referred to as the “intelligence explosion.”
391
1244490
2836
20:47
And I think it is a theoretical, hypothetical maybe
392
1247367
3712
Et je pense que c'est peut-être une question théorique et hypothétique
20:51
that we're all kind of curious to explore,
393
1251079
2420
que nous sommes tous curieux d'explorer,
20:53
but there's no evidence that we're anywhere near anything like that.
394
1253540
3212
mais rien ne prouve que ce soit pour bientôt.
20:56
And I think it's very important that we choose our words super carefully.
395
1256752
3462
Et je pense très important de choisir nos mots avec le plus grand soin.
21:00
Because you're right, that's one of the weaknesses of the species framing,
396
1260255
3546
Parce que tu as raison,
c’est un des points faibles de la définition des espèces,
21:03
that we will design the capability for self-replication into it
397
1263801
4337
que nous concevrons la capacité d'autoréplication
21:08
if people choose to do that.
398
1268180
1668
si les gens choisissent de le faire.
21:09
And I would actually argue that we should not,
399
1269890
2169
Je dirais même qu’on ne devrait pas le faire,
21:12
that would be one of the dangerous capabilities
400
1272059
2210
ce serait une des capacités dangereuses
21:14
that we should step back from, right?
401
1274269
1835
que nous devrions abandonner.
21:16
So there's no chance that this will "emerge" accidentally.
402
1276104
3796
Il n’y a donc aucune chance que ça « apparaisse » accidentellement.
21:19
I really think that's a very low probability.
403
1279942
2502
Selon moi, c’est une très faible probabilité.
21:22
It will happen if engineers deliberately design those capabilities in.
404
1282486
4338
Ça se produira si les ingénieurs incorporent délibérément ces capacités .
21:26
And if they don't take enough efforts to deliberately design them out.
405
1286865
3295
Et s’ils ne font pas assez d’efforts pour les concevoir délibérément.
21:30
And so this is the point of being explicit
406
1290160
2294
C’est donc l’intérêt d’être explicite et transparent
21:32
and transparent about trying to introduce safety by design very early on.
407
1292454
5672
quant à essayer d’introduire très tôt la sécurité dès la conception.
21:39
CA: Thank you, your vision of humanity injecting into this new thing
408
1299044
5964
CA : Merci, ta vision de l’humanité qui injecte dans cette nouveauté
21:45
the best parts of ourselves,
409
1305008
1877
le meilleur de nous-mêmes,
21:46
avoiding all those weird, biological, freaky,
410
1306927
2920
en évitant toutes ces tendances étranges, biologiques, bizarres
21:49
horrible tendencies that we can have in certain circumstances,
411
1309888
2920
et horribles qu’on peut avoir dans certaines circonstances,
21:52
I mean, that is a very inspiring vision.
412
1312808
2127
c’est une vision très inspirante.
21:54
And thank you so much for coming here and sharing it at TED.
413
1314977
3336
Et merci beaucoup d'être venus ici et de l'avoir partagé à TED.
21:58
Thank you, good luck.
414
1318355
1210
Merci, bonne chance.
21:59
(Applause)
415
1319565
1876
(Applaudissements)
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7