How a Worm Could Save Humanity From Bad AI | Ramin Hasani | TED

34,713 views ・ 2024-10-22

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Sebastian Betti
00:04
My wildest dream is to design artificial intelligence
0
4960
3086
Mi sueño más salvaje es diseñar inteligencia artificial
que sea nuestra amiga, ¿sabes?
00:08
that is our friend, you know.
1
8046
1793
00:10
If you have an AI system that helps us understand mathematics,
2
10382
3378
Si tienes un sistema de IA que nos ayude a entender matemáticas,
00:13
you can solve the economy of the world.
3
13802
2085
puedes resolver la economía del mundo.
00:15
If you have an AI system that can understand humanitarian sciences,
4
15887
3629
Si tienes un sistema de IA que pueda entender las ciencias humanitarias,
00:19
we can actually solve all of our conflicts.
5
19516
2169
podemos resolver todos nuestros conflictos.
00:21
I want this system to, given Einstein’s and Maxwell’s equations,
6
21726
4004
Quiero que este sistema, dadas las ecuaciones de Einstein y Maxwell,
00:25
take it and solve new physics, you know.
7
25730
2461
las tome y resuelva nueva física.
00:28
If you understand physics, you can solve the energy problem.
8
28650
3629
Si entiendes la física, puedes resolver el problema de la energía.
00:32
So you can actually design ways for humans
9
32320
4296
Así que puedes diseñar formas para que los humanos
00:36
to be the better versions of themselves.
10
36616
3170
sean mejores versiones de sí mismos.
00:39
I'm Ramin Hasani.
11
39828
1209
Soy Ramin Hasani.
00:41
I’m the cofounder and CEO of Liquid AI.
12
41037
2920
Soy el cofundador y CEO de Liquid AI.
00:44
Liquid AI is an AI company built on top of a technology
13
44332
3796
Liquid AI es una empresa de IA construida sobre una tecnología
00:48
that I invented back at MIT.
14
48128
2210
que inventé en el MIT.
00:50
It’s called “liquid neural networks.”
15
50380
2044
Se llama "redes neuronales líquidas".
00:52
These are a form of flexible intelligence,
16
52424
2377
Estas son una forma de inteligencia flexible,
00:54
as opposed to today's AI systems that are fixed, basically.
17
54843
3420
a diferencia de los sistemas de IA actuales que son básicamente fijos.
00:58
So think about your brain.
18
58263
1835
Así que piensa en tu cerebro.
01:00
You can change your thoughts.
19
60849
1793
Puedes cambiar tus pensamientos.
01:02
When somebody talks to you,
20
62684
1585
Cuando alguien te habla,
01:04
you can completely change the way you respond.
21
64311
2711
puedes cambiar completamente la forma en que respondes.
01:07
You always have a mechanism that we call feedback in your system.
22
67022
4087
Siempre tienes un mecanismo que llamamos retroalimentación en tu sistema.
01:11
So basically when you receive information from someone as an input,
23
71109
4296
Así que básicamente cuando recibes información de alguien como una entrada,
01:15
you basically process that information, and then you reply.
24
75447
3003
procesas esa información y luego respondes.
01:18
For liquid neural networks,
25
78450
1418
Para las redes neuronales líquidas,
01:19
we simply got those feedback mechanisms, and we added that to the system.
26
79909
3921
sumamos esos mecanismos de retroalimentación al sistema.
01:23
So that means it has the ability of thinking.
27
83872
2794
Eso significa que tiene la capacidad de pensar.
01:27
That property is inspired by nature.
28
87125
2461
Esa propiedad está inspirada en la naturaleza.
01:31
We looked into brains of animals and, in particular,
29
91796
3254
Miramos los cerebros de los animales y, en particular,
01:35
a very, very tiny worm called “C. elegans”
30
95050
3044
un gusano muy, muy pequeño llamado "C. elegans".
01:38
The fascinating fact about the brain of the worm
31
98136
2586
El hecho fascinante sobre el cerebro del gusano
01:40
is that it shares 75 percent of the genome that it has with humans.
32
100722
4421
es que comparte el 75 % de su genoma con los humanos.
01:45
We have the entire genome mapped.
33
105185
2043
Tenemos todo el genoma mapeado.
01:47
So we understand a whole lot
34
107812
1794
Así que entendemos mucho
01:49
about the functionality of its nervous system as well.
35
109648
3545
sobre la funcionalidad de su sistema nervioso también.
01:53
So if you understand the properties of cells in the worm,
36
113693
4421
Si entendemos las propiedades de las células en el gusano,
01:58
maybe we can build intelligent systems that are as good as the worm
37
118156
5672
quizás construyamos sistemas inteligentes tan buenos como el gusano
02:03
and then evolve them into systems that are better than even humans.
38
123870
4463
y los evolucionemos en sistemas incluso mejores que los humanos.
02:08
The reason why we are studying nature is the fact that we can actually,
39
128792
3545
Estudiamos la naturaleza porque podemos, de hecho,
02:12
having a shortcut through exploring all the possible kind of algorithms
40
132379
4129
tener un atajo al explorar los tipos posibles de algoritmos
02:16
that you can design.
41
136549
1168
que se pueden diseñar.
02:17
You can look into nature,
42
137759
1293
Puedes mirar a la naturaleza,
02:19
that would give you like, a shortcut
43
139052
1835
y ese atajo permitiría
02:20
to really faster get into efficient algorithms
44
140929
2335
llegar más rápido a algoritmos eficientes
02:23
because nature has done a lot of search,
45
143264
1961
porque la naturaleza ha explorado mucho,
02:25
billions of years of evolution, right?
46
145266
1877
miles de millones de años de evolución, ¿verdad?
02:27
So we learned so much from those principles.
47
147143
2127
Hemos aprendido mucho de esos principios.
02:29
I just brought a tiny principle from the worm
48
149312
3337
Solo he traído un pequeño principio del gusano
02:32
into artificial neural networks.
49
152691
1543
a las redes neuronales artificiales.
02:34
And now they are flexible,
50
154234
1251
Y ahora son flexibles,
02:35
and they can solve problems in an explainable way
51
155485
2336
y pueden resolver problemas de una manera explicable
02:37
that was not possible before.
52
157821
1418
que antes no era posible.
02:39
AI is becoming very capable, right?
53
159280
2253
La IA se está volviendo muy capaz, ¿sí?
02:41
The reason why AI is hard to regulate
54
161574
2878
Es difícil regular la IA
02:44
is because we cannot understand, even the people who design the systems,
55
164494
3879
porque no podemos entender, incluso las personas que diseñamos los sistemas,
02:48
we don't understand those systems.
56
168415
1626
no los entendemos.
02:50
They are black boxes.
57
170083
1376
Son cajas negras.
02:52
With Liquid, because we are fundamentally using mathematics
58
172210
4087
Con Liquid, dado que usamos fundamentalmente matemáticas
02:56
that are understandable,
59
176339
1418
comprensibles,
02:57
we have tools to really understand
60
177757
1627
tenemos herramientas para entender
02:59
and pinpoint which part of the system is responsible for what,
61
179426
4004
y señalar qué parte del sistema es responsable de qué,
03:03
you're designing white box systems.
62
183430
2043
diseñamos sistemas de caja blanca.
03:05
So if you have systems that you can understand their behavior,
63
185473
2920
Si tienes sistemas cuyos comportamientos puedes entender,
03:08
that means even if you scale them into something very, very intelligent,
64
188435
4004
incluso si los escalas a algo muy, muy inteligente,
03:12
you can always have a lot of control over that system
65
192480
3212
siempre podrás tener mucho control sobre ese sistema
03:15
because you understand it.
66
195692
1418
porque lo entiendes.
03:17
You can never let it go rogue.
67
197110
2085
Nunca puedes dejar que se descontrole.
03:19
So all of the crises we are dealing with right now,
68
199195
3087
Las crisis con las que lidiamos ahora,
03:22
you know, doomsday kind of scenarios,
69
202323
1794
escenarios apocalípticos,
03:24
is all about scaling a technology that we don't understand.
70
204159
3503
se deben a escalar una tecnología que no entendemos.
03:27
With Liquid, our purpose is to really calm people down
71
207704
3211
Con Liquid, nuestro propósito es realmente calmar a la gente
03:30
and show people that, hey,
72
210957
1460
y mostrarles que
03:32
you can have very powerful systems,
73
212459
2502
puedes tener sistemas muy poderosos,
03:35
that you have a lot of control and visibility
74
215003
2377
sobre los que tienes mucho control y visibilidad
03:37
into their working mechanisms.
75
217422
2002
en sus mecanismos de funcionamiento.
03:39
The gift of having something [with] superintelligence is massive,
76
219466
3378
El regalo de tener algo [con] superinteligencia es enorme,
03:42
and it can enable a lot of things for us.
77
222886
2544
y puede habilitar muchas cosas para nosotros.
03:45
But at the same time,
78
225472
1126
Pero al mismo tiempo,
03:46
we need to have control over that technology.
79
226639
2128
necesitamos tener control sobre esa tecnología.
03:48
Because this is the first time that we’re going to have a technology
80
228767
3211
Porque esta es la primera vez que vamos a tener una tecnología
03:52
that is going to be better than all of humanity combined.
81
232020
2711
que va a ser mejor que toda la humanidad combinada.
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7