How a Worm Could Save Humanity From Bad AI | Ramin Hasani | TED

35,993 views ・ 2024-10-22

TED


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

Traducteur: Claire Ghyselen Relecteur: eric vautier
00:04
My wildest dream is to design artificial intelligence
0
4960
3086
Mon rêve le plus fou est de concevoir une intelligence artificielle
00:08
that is our friend, you know.
1
8046
1793
qui serait notre amie.
00:10
If you have an AI system that helps us understand mathematics,
2
10382
3378
Avec une IA qui nous aide à comprendre les mathématiques,
00:13
you can solve the economy of the world.
3
13802
2085
on pourra résoudre l’économie mondiale.
00:15
If you have an AI system that can understand humanitarian sciences,
4
15887
3629
Avec une IA capable de comprendre les sciences humaines,
00:19
we can actually solve all of our conflicts.
5
19516
2169
on pourra résoudre tous nos conflits.
00:21
I want this system to, given Einstein’s and Maxwell’s equations,
6
21726
4004
Je souhaite que ces systèmes d’IA, selon les équations d’Einstein et de Maxwell,
00:25
take it and solve new physics, you know.
7
25730
2461
puissent résoudre une physique nouvelle.
00:28
If you understand physics, you can solve the energy problem.
8
28650
3629
Quand on comprend la physique, on peut résoudre le problème de l’énergie.
00:32
So you can actually design ways for humans
9
32320
4296
On peut véritablement concevoir pour les humains des façons
00:36
to be the better versions of themselves.
10
36616
3170
de devenir des meilleures versions d’eux-mêmes.
00:39
I'm Ramin Hasani.
11
39828
1209
Je m’appelle Ramin Hasani
00:41
I’m the cofounder and CEO of Liquid AI.
12
41037
2920
et je suis le co-fondateur et PDG de Liquid AI,
00:44
Liquid AI is an AI company built on top of a technology
13
44332
3796
une entreprise créée sur la technologie que j’ai inventée quand j’étais au MIT,
00:48
that I invented back at MIT.
14
48128
2210
00:50
It’s called “liquid neural networks.”
15
50380
2044
appelée « réseau de neurones liquides ».
00:52
These are a form of flexible intelligence,
16
52424
2377
C’est une forme d’intelligence flexible,
00:54
as opposed to today's AI systems that are fixed, basically.
17
54843
3420
contrairement aux systèmes d’IA actuels qui sont fondamentalement fixes.
00:58
So think about your brain.
18
58263
1835
Pensez à votre cerveau.
01:00
You can change your thoughts.
19
60849
1793
On peut changer ses pensées.
01:02
When somebody talks to you,
20
62684
1585
Quand quelqu’un nous parle,
01:04
you can completely change the way you respond.
21
64311
2711
on peut totalement modifier notre façon de réagir.
01:07
You always have a mechanism that we call feedback in your system.
22
67022
4087
Nous avons tous un mécanisme appelé retour d’information dans notre système.
01:11
So basically when you receive information from someone as an input,
23
71109
4296
C’est-à-dire, quand on reçoit une information d’autrui, un entrant,
01:15
you basically process that information, and then you reply.
24
75447
3003
on traite cette information et ensuite on répond.
01:18
For liquid neural networks,
25
78450
1418
On a simplement intégré ce mécanisme dans les réseaux de neurones liquides,
01:19
we simply got those feedback mechanisms, and we added that to the system.
26
79909
3921
et on l’a ajouté au système.
01:23
So that means it has the ability of thinking.
27
83872
2794
Cela signifie qu’il a la capacité de penser.
01:27
That property is inspired by nature.
28
87125
2461
Une propriété inspirée de la nature.
01:31
We looked into brains of animals and, in particular,
29
91796
3254
Nous avons étudié le cerveau d’animaux, et en particulier,
01:35
a very, very tiny worm called “C. elegans”
30
95050
3044
un tout petit ver appelé « C. elegans ».
01:38
The fascinating fact about the brain of the worm
31
98136
2586
Ce qui est fascinant dans le cerveau de ce ver,
01:40
is that it shares 75 percent of the genome that it has with humans.
32
100722
4421
c’est qu’il partage 75 % de son génome avec les humains.
01:45
We have the entire genome mapped.
33
105185
2043
Nous en avons cartographié la totalité.
01:47
So we understand a whole lot
34
107812
1794
Nous comprenons donc très bien les fonctions de son système nerveux.
01:49
about the functionality of its nervous system as well.
35
109648
3545
01:53
So if you understand the properties of cells in the worm,
36
113693
4421
Si on comprend les propriétés des cellules du ver,
01:58
maybe we can build intelligent systems that are as good as the worm
37
118156
5672
on pourrait construire des systèmes intelligents aussi bons que celui-ci
02:03
and then evolve them into systems that are better than even humans.
38
123870
4463
et ensuite les faire évoluer
vers des systèmes meilleurs que celui de l’Homme.
02:08
The reason why we are studying nature is the fact that we can actually,
39
128792
3545
Étudier la nature nous permet, et c’est pour cela qu’on le fait,
02:12
having a shortcut through exploring all the possible kind of algorithms
40
132379
4129
de prendre un raccourci pour explorer toutes sortes d’algorithmes possibles
02:16
that you can design.
41
136549
1168
que l’on peut concevoir.
02:17
You can look into nature,
42
137759
1293
En observant la nature, on peut trouver un raccourci
02:19
that would give you like, a shortcut
43
139052
1835
02:20
to really faster get into efficient algorithms
44
140929
2335
pour trouver très rapidement les bons algorithmes,
02:23
because nature has done a lot of search,
45
143264
1961
car la nature a fait sa part de recherche
02:25
billions of years of evolution, right?
46
145266
1877
pendant les milliards d’années de l’évolution.
02:27
So we learned so much from those principles.
47
147143
2127
On apprend beaucoup de ces principes.
02:29
I just brought a tiny principle from the worm
48
149312
3337
J’ai juste intégré un petit principe de ce ver
02:32
into artificial neural networks.
49
152691
1543
dans le réseau neural pour le rendre flexible
02:34
And now they are flexible,
50
154234
1251
02:35
and they can solve problems in an explainable way
51
155485
2336
et résoudre des problèmes de façon explicable,
02:37
that was not possible before.
52
157821
1418
ce qui était auparavant impossible.
02:39
AI is becoming very capable, right?
53
159280
2253
L’IA devient utilisable.
02:41
The reason why AI is hard to regulate
54
161574
2878
La raison pour laquelle c’est si difficile de réguler l’IA
02:44
is because we cannot understand, even the people who design the systems,
55
164494
3879
est que nous ne la comprenons pas, même ceux qui la conçoivent.
02:48
we don't understand those systems.
56
168415
1626
On ne comprend pas ces systèmes ; ce sont des boîtes noires.
02:50
They are black boxes.
57
170083
1376
02:52
With Liquid, because we are fundamentally using mathematics
58
172210
4087
Avec Liquid, comme nous nous basons sur les mathématiques,
02:56
that are understandable,
59
176339
1418
ils sont compréhensibles,
02:57
we have tools to really understand
60
177757
1627
nous avons les outils pour comprendre
02:59
and pinpoint which part of the system is responsible for what,
61
179426
4004
et discerner quelles parties du système sont responsables de quoi,
03:03
you're designing white box systems.
62
183430
2043
ces systèmes sont transparents.
03:05
So if you have systems that you can understand their behavior,
63
185473
2920
Avec des systèmes dont on comprend les comportements,
03:08
that means even if you scale them into something very, very intelligent,
64
188435
4004
on peut passer à l’échelle et en faire quelque chose de très intelligent,
03:12
you can always have a lot of control over that system
65
192480
3212
on peut continuer d’avoir le contrôle de ce système
03:15
because you understand it.
66
195692
1418
car on le comprend.
03:17
You can never let it go rogue.
67
197110
2085
On ne laissera pas devenir malveillant.
03:19
So all of the crises we are dealing with right now,
68
199195
3087
Toutes les crises auxquelles nous sommes confrontés,
03:22
you know, doomsday kind of scenarios,
69
202323
1794
tous ces scénarios apocalyptiques,
03:24
is all about scaling a technology that we don't understand.
70
204159
3503
sont liés au passage à l’échelle d’une technologie que nous ne comprenons pas.
03:27
With Liquid, our purpose is to really calm people down
71
207704
3211
Chez Liquid, notre mission est de rassurer les gens
03:30
and show people that, hey,
72
210957
1460
et leur montrer qu’on peut avoir des systèmes très puissants
03:32
you can have very powerful systems,
73
212459
2502
que l’on contrôle très bien et qui sont transparents,
03:35
that you have a lot of control and visibility
74
215003
2377
03:37
into their working mechanisms.
75
217422
2002
intégrés dans leurs mécanismes de travail.
03:39
The gift of having something [with] superintelligence is massive,
76
219466
3378
Le don d’une super-intelligence est énorme
03:42
and it can enable a lot of things for us.
77
222886
2544
et elle peut nous permettre plein de choses.
03:45
But at the same time,
78
225472
1126
Mais en même temps, nous devons pouvoir la contrôler.
03:46
we need to have control over that technology.
79
226639
2128
03:48
Because this is the first time that we’re going to have a technology
80
228767
3211
Ce sera la première fois où nous aurons une technologie
qui sera meilleure que toute l’humanité réunie.
03:52
that is going to be better than all of humanity combined.
81
232020
2711
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7