What Is an AI Anyway? | Mustafa Suleyman | TED

1,902,222 views ・ 2024-04-22

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Sebastian Betti Revisor: Trina Oršić
00:04
I want to tell you what I see coming.
0
4292
2586
Quiero hablar sobre lo que veo venir.
00:07
I've been lucky enough to be working on AI for almost 15 years now.
1
7712
4463
He tenido la suerte de trabajar en IA durante casi 15 años.
00:12
Back when I started, to describe it as fringe would be an understatement.
2
12676
5088
Cuando empecé, describirlo como marginal, sería quedarse corto.
00:17
Researchers would say, “No, no, we’re only working on machine learning.”
3
17806
4045
Los investigadores decían:
“No, solo trabajamos en aprendizaje automático”.
00:21
Because working on AI was seen as way too out there.
4
21893
3087
Porque trabajar en IA se veía como algo muy alejado de la realidad.
00:25
In 2010, just the very mention of the phrase “AGI,”
5
25021
4380
En 2010, tan solo mencionar la frase “IAG”,
00:29
artificial general intelligence,
6
29401
2169
inteligencia artificial general,
00:31
would get you some seriously strange looks
7
31570
2877
daba lugar a miradas realmente extrañas
00:34
and even a cold shoulder.
8
34489
1585
e incluso que te ignoraran.
00:36
"You're actually building AGI?" people would say.
9
36366
3837
“¿De verdad estás creando IAG?“, decía la gente.
00:40
"Isn't that something out of science fiction?"
10
40203
2294
“¿No es algo sacado de la ciencia ficción?”
00:42
People thought it was 50 years away or 100 years away,
11
42914
2544
Se pensaba que faltaban 50 o 100 años, si es que era posible.
00:45
if it was even possible at all.
12
45500
1919
00:47
Talk of AI was, I guess, kind of embarrassing.
13
47752
3337
Supongo que era algo vergonzoso hablar sobre IA.
00:51
People generally thought we were weird.
14
51631
2211
Por lo general, nos consideraban raros.
00:54
And I guess in some ways we kind of were.
15
54217
2503
Y supongo que, en cierto modo, lo éramos.
00:56
It wasn't long, though, before AI started beating humans
16
56761
2878
Sin embargo, la IA no tardó mucho en superar a los humanos
00:59
at a whole range of tasks
17
59681
1793
en toda una serie de tareas
01:01
that people previously thought were way out of reach.
18
61516
2795
que antes la gente pensaba que estaban fuera de su alcance.
Analizar imágenes,
01:05
Understanding images,
19
65020
2127
01:07
translating languages,
20
67147
1918
traducir idiomas,
01:09
transcribing speech,
21
69065
1585
transcribir discursos,
01:10
playing Go and chess
22
70692
2127
jugar al Go y al ajedrez
01:12
and even diagnosing diseases.
23
72861
1918
e incluso diagnosticar enfermedades.
01:15
People started waking up to the fact
24
75905
1752
La gente empezó a darse cuenta de que la IA iba a tener un impacto enorme
01:17
that AI was going to have an enormous impact,
25
77657
3462
01:21
and they were rightly asking technologists like me
26
81119
2836
y, con razón, hacían preguntas bastante difíciles a tecnólogos como yo.
01:23
some pretty tough questions.
27
83955
1752
01:25
Is it true that AI is going to solve the climate crisis?
28
85749
3044
“¿Es cierto que la IA va a resolver la crisis climática?”
01:29
Will it make personalized education available to everyone?
29
89127
3337
“¿Hará que la educación personalizada esté disponible para todos?”
01:32
Does it mean we'll all get universal basic income
30
92881
2294
“¿Significa que habrá un ingreso básico universal
01:35
and we won't have to work anymore?
31
95216
2002
y no tendremos que trabajar?”
01:37
Should I be afraid?
32
97218
1544
“¿Debería tener miedo?”
01:38
What does it mean for weapons and war?
33
98762
2335
“¿Qué significa esto para las armas y la guerra?”
01:41
And of course, will China win?
34
101598
1460
Y, por supuesto: “¿Ganará China? ¿Estamos en una carrera?”
01:43
Are we in a race?
35
103058
1543
01:45
Are we headed for a mass misinformation apocalypse?
36
105518
3212
“¿Nos dirigimos a un enorme apocalipsis de desinformación?”
01:49
All good questions.
37
109147
1668
Todas buenas preguntas.
01:51
But it was actually a simpler
38
111608
1418
Pero, en realidad, una pregunta más simple y mucho más fundamental me dejó perplejo.
01:53
and much more kind of fundamental question that left me puzzled.
39
113026
4046
Una que, de hecho, llega a la base de mi trabajo diario.
01:58
One that actually gets to the very heart of my work every day.
40
118031
3962
02:03
One morning over breakfast,
41
123620
2044
Una mañana, mientras desayunaba,
02:05
my six-year-old nephew Caspian was playing with Pi,
42
125705
3379
mi sobrino Caspian, de seis años, estaba jugando con Pi,
02:09
the AI I created at my last company, Inflection.
43
129084
3378
la IA que creé en Inflection, la última empresa donde trabajé.
02:12
With a mouthful of scrambled eggs,
44
132504
1877
Con un bocado de huevos revueltos,
02:14
he looked at me plain in the face and said,
45
134381
3503
me miró fijamente a la cara y dijo:
02:17
"But Mustafa, what is an AI anyway?"
46
137926
3295
“Pero Mustafa, ¿qué es una IA?”
02:21
He's such a sincere and curious and optimistic little guy.
47
141930
3545
Es un chico muy sincero, curioso y optimista.
02:25
He'd been talking to Pi about how cool it would be if one day in the future,
48
145517
4254
Había estado hablando con Pi de lo genial que sería si en un futuro
02:29
he could visit dinosaurs at the zoo.
49
149771
2377
pudiera visitar a los dinosaurios en el zoológico.
02:32
And how he could make infinite amounts of chocolate at home.
50
152190
3795
Y cómo podía hacer cantidades infinitas de chocolate en casa.
02:35
And why Pi couldn’t yet play I Spy.
51
155985
2920
Y por qué Pi aún no podía jugar a I Spy.
02:39
"Well," I said, "it's a clever piece of software
52
159823
2252
Dije: “Bueno, es un software inteligente
que lee gran parte del texto que hay abiertamente en Internet
02:42
that's read most of the text on the open internet,
53
162075
2461
02:44
and it can talk to you about anything you want."
54
164577
2419
y puede hablar contigo de lo que quieras”.
02:48
"Right.
55
168540
1168
“Claro”.
02:49
So like a person then?"
56
169749
2127
“Entonces, ¿es como una persona?”
02:54
I was stumped.
57
174254
1334
Me quedé perplejo.
02:56
Genuinely left scratching my head.
58
176798
2502
De verdad, me fui rascándome la cabeza.
03:00
All my boring stock answers came rushing through my mind.
59
180301
4046
Pasaron por mi mente todas mis aburridas respuestas predefinidas.
03:04
"No, but AI is just another general-purpose technology,
60
184723
2585
“Pero la IA es solo otra tecnología de uso general,
03:07
like printing or steam."
61
187308
1710
como la impresión o el vapor”.
03:09
It will be a tool that will augment us
62
189394
2502
“Será una herramienta que nos potenciará, nos hará más inteligentes y productivos.
03:11
and make us smarter and more productive.
63
191938
2377
03:14
And when it gets better over time,
64
194649
1960
Y cuando mejore con el tiempo, será como un oráculo omnisciente
03:16
it'll be like an all-knowing oracle
65
196651
1919
03:18
that will help us solve grand scientific challenges."
66
198611
3087
que nos ayudará a resolver los grandes desafíos científicos”.
03:22
You know, all of these responses started to feel, I guess,
67
202115
3712
Todas estas respuestas empezaron a parecer, supongo,
03:25
a little bit defensive.
68
205869
1418
un poco defensivas.
03:28
And actually better suited to a policy seminar
69
208246
2211
Era más adecuado para un seminario político
03:30
than breakfast with a no-nonsense six-year-old.
70
210457
2627
que para desayunar con un niño sensato de seis años.
03:33
"Why am I hesitating?" I thought to myself.
71
213126
3086
“¿Por qué dudo?“, pensé.
03:37
You know, let's be honest.
72
217839
1960
Seamos honestos.
03:39
My nephew was asking me a simple question
73
219799
3253
Mi sobrino me hacía una pregunta sencilla
a la que los que trabajamos en IA
03:43
that those of us in AI just don't confront often enough.
74
223052
3796
no nos enfrentamos con la suficiente frecuencia.
¿Qué es lo que estamos creando realmente?
03:48
What is it that we are actually creating?
75
228099
2920
03:51
What does it mean to make something totally new,
76
231895
3753
¿Qué significa hacer algo totalmente nuevo,
03:55
fundamentally different to any invention that we have known before?
77
235648
4255
fundamentalmente diferente a cualquier invento que hayamos conocido antes?
04:00
It is clear that we are at an inflection point
78
240695
2795
Está claro que estamos en un punto de inflexión
04:03
in the history of humanity.
79
243490
1793
en la historia de la humanidad.
04:06
On our current trajectory,
80
246493
1918
En nuestra trayectoria actual,
04:08
we're headed towards the emergence of something
81
248411
2211
nos dirigimos hacia el surgimiento de algo que a todos nos cuesta describir.
04:10
that we are all struggling to describe,
82
250663
3170
04:13
and yet we cannot control what we don't understand.
83
253875
4630
Y, sin embargo, no podemos controlar lo que no entendemos.
04:19
And so the metaphors,
84
259631
1585
Por eso, las metáforas, los modelos mentales, los nombres...
04:21
the mental models,
85
261216
1251
04:22
the names, these all matter
86
262509
2585
Todo esto importa si queremos sacar el máximo provecho de la IA,
04:25
if we’re to get the most out of AI whilst limiting its potential downsides.
87
265094
4088
limitando sus posibles desventajas.
04:30
As someone who embraces the possibilities of this technology,
88
270391
3421
Como alguien que acepta abiertamente las posibilidades de esta tecnología,
04:33
but who's also always cared deeply about its ethics,
89
273812
3670
pero que también se ha preocupado mucho por su ética,
04:37
we should, I think,
90
277524
1293
creo que deberíamos poder describir fácilmente qué es lo que estamos creando.
04:38
be able to easily describe what it is we are building.
91
278817
3044
04:41
And that includes the six-year-olds.
92
281861
2002
Y eso incluye a los niños de seis años.
04:44
So it's in that spirit that I offer up today the following metaphor
93
284239
4254
Con esa mentalidad, les ofrezco la siguiente metáfora,
04:48
for helping us to try to grapple with what this moment really is.
94
288535
3461
para ayudarnos a tratar de entender lo que realmente es este momento.
04:52
I think AI should best be understood
95
292539
2627
Pienso que la IA debería entenderse mejor
04:55
as something like a new digital species.
96
295166
4254
como algo parecido a una nueva especie digital.
05:00
Now, don't take this too literally,
97
300296
2253
Ahora bien, no lo tomen al pie de la letra,
05:02
but I predict that we'll come to see them as digital companions,
98
302590
4630
pero predigo que acabaremos considerándolos compañeros digitales.
05:07
new partners in the journeys of all our lives.
99
307220
3295
Nuevos compañeros en los viajes de toda nuestra vida.
05:10
Whether you think we’re on a 10-, 20- or 30-year path here,
100
310557
4087
Ya sea que piensen que estamos a 10, 20 o 30 años,
05:14
this is, in my view, the most accurate and most fundamentally honest way
101
314686
5005
esta es, en mi opinión, la manera más precisa y fundamentalmente honesta
05:19
of describing what's actually coming.
102
319732
2378
de describir lo que realmente está por venir.
05:22
And above all, it enables everybody to prepare for
103
322610
3963
Y, sobre todo, permite a todos prepararse
05:26
and shape what comes next.
104
326614
2711
y dar forma a lo que viene después.
05:29
Now I totally get, this is a strong claim,
105
329868
2002
Entiendo que es una afirmación sólida
05:31
and I'm going to explain to everyone as best I can why I'm making it.
106
331911
3837
y voy a explicar, lo mejor que pueda, por qué la hago.
05:36
But first, let me just try to set the context.
107
336291
2961
Pero primero, permítanme intentar establecer el contexto.
05:39
From the very first microscopic organisms,
108
339252
2753
Desde los primeros organismos microscópicos,
la vida en la Tierra se remonta a miles de millones de años.
05:42
life on Earth stretches back billions of years.
109
342046
3462
05:45
Over that time, life evolved and diversified.
110
345508
4213
Durante ese tiempo, la vida evolucionó y se diversificó.
05:49
Then a few million years ago, something began to shift.
111
349762
3796
Luego, hace unos pocos millones de años, algo empezó a cambiar.
05:54
After countless cycles of growth and adaptation,
112
354183
3629
Tras innumerables ciclos de crecimiento y adaptación,
05:57
one of life’s branches began using tools, and that branch grew into us.
113
357812
6256
una de las ramas de la vida empezó a utilizar herramientas,
y esa rama se convirtió en nosotros.
06:04
We went on to produce a mesmerizing variety of tools,
114
364777
4130
Pasamos a producir una increíble variedad de herramientas.
06:08
at first slowly and then with astonishing speed,
115
368907
3670
Al principio lentamente y luego a una velocidad asombrosa,
06:12
we went from stone axes and fire
116
372577
3670
pasamos del hacha de piedra y el fuego
06:16
to language, writing and eventually industrial technologies.
117
376247
5005
al lenguaje, la escritura y, finalmente, a las tecnologías industriales.
06:21
One invention unleashed a thousand more.
118
381878
2919
Un invento dio origen a mil más.
06:25
And in time, we became homo technologicus.
119
385173
3712
Y con el tiempo, nos convertimos en homo technologicus.
06:29
Around 80 years ago,
120
389594
1209
Hace unos 80 años, comenzó otra nueva rama de la tecnología.
06:30
another new branch of technology began.
121
390803
2545
06:33
With the invention of computers,
122
393973
1710
Con la invención de las computadoras,
06:35
we quickly jumped from the first mainframes and transistors
123
395725
3295
rápido pasamos de las primeras unidades centrales y transistores
a los teléfonos inteligentes y auriculares de realidad virtual de hoy.
06:39
to today's smartphones and virtual-reality headsets.
124
399062
3461
06:42
Information, knowledge, communication, computation.
125
402565
4421
Información, conocimiento, comunicación, computación.
06:47
In this revolution,
126
407570
1418
En esta revolución, la creación se ha expandido como nunca antes.
06:49
creation has exploded like never before.
127
409030
3295
06:53
And now a new wave is upon us.
128
413242
2503
Y ahora se acerca una nueva ola.
06:55
Artificial intelligence.
129
415787
1668
La inteligencia artificial.
06:57
These waves of history are clearly speeding up,
130
417872
2544
Es evidente que estas olas históricas se están acelerando,
07:00
as each one is amplified and accelerated by the last.
131
420458
4338
ya que cada una se ve amplificada y acelerada por la anterior.
07:05
And if you look back,
132
425088
1167
Y si pensamos en todo,
07:06
it's clear that we are in the fastest
133
426297
2002
está claro que estamos en la ola más rápida y trascendental de la historia.
07:08
and most consequential wave ever.
134
428299
2586
07:11
The journeys of humanity and technology are now deeply intertwined.
135
431844
4630
Los viajes de la humanidad y la tecnología están ahora muy entrelazados.
07:16
In just 18 months,
136
436516
1543
En tan solo 18 meses,
07:18
over a billion people have used large language models.
137
438059
3170
más de mil millones de personas han utilizado modelos LLM.
07:21
We've witnessed one landmark event after another.
138
441729
3545
Hemos sido testigos de un acontecimiento histórico tras otro.
07:25
Just a few years ago, people said that AI would never be creative.
139
445650
3462
Hace solo unos años, la gente decía que la IA nunca sería creativa.
07:30
And yet AI now feels like an endless river of creativity,
140
450113
4045
Sin embargo, ahora Ia parece un río de creatividad sin fin,
07:34
making poetry and images and music and video that stretch the imagination.
141
454200
4671
que crea poesía, imágenes, música y vídeos que amplíen la imaginación.
07:39
People said it would never be empathetic.
142
459664
2252
Se decía que nunca sería empática.
07:42
And yet today, millions of people enjoy meaningful conversations with AIs,
143
462417
5297
Sin embargo, hoy en día, millones de personas
disfrutan de conversaciones significativas con la IA,
07:47
talking about their hopes and dreams
144
467755
2002
hablando sobre sus esperanzas y sueños
07:49
and helping them work through difficult emotional challenges.
145
469757
3087
y ayudándolas a superar difíciles desafíos emocionales.
07:53
AIs can now drive cars,
146
473177
2294
La IA ahora pueden conducir automóviles,
07:55
manage energy grids
147
475513
1543
gestionar redes de energía e incluso inventar nuevas moléculas.
07:57
and even invent new molecules.
148
477056
2252
07:59
Just a few years ago, each of these was impossible.
149
479308
3713
Hace tan solo unos años, cada una de ellas era imposible.
08:03
And all of this is turbocharged by spiraling exponentials of data
150
483771
5506
Y todo esto se ve impulsado
por grandes exponenciales de datos y cálculos.
08:09
and computation.
151
489277
1626
08:10
Last year, Inflection 2.5, our last model,
152
490945
5297
El año pasado, Inflection 2.5, nuestro último modelo,
08:16
used five billion times more computation
153
496242
4129
usó 5000 millones de veces más cálculos
08:20
than the DeepMind AI that beat the old-school Atari games
154
500371
3629
que la IA de DeepMind que superó a los juegos de Atari de la vieja escuela
hace poco más de 10 años.
08:24
just over 10 years ago.
155
504042
1668
08:26
That's nine orders of magnitude more computation.
156
506085
3420
Eso supone nueve órdenes de magnitud y más cálculos.
Diez veces al año,
08:30
10x per year,
157
510089
1627
08:31
every year for almost a decade.
158
511716
3253
todos los años durante casi una década.
08:34
Over the same time, the size of these models has grown
159
514969
2544
Al mismo tiempo, estos modelos han crecido,
08:37
from first tens of millions of parameters to then billions of parameters,
160
517555
4213
pasando de tener decenas de millones de parámetros
a miles de millones de parámetros
08:41
and very soon, tens of trillions of parameters.
161
521809
3504
y, muy pronto, a decenas de billones de parámetros.
08:45
If someone did nothing but read 24 hours a day for their entire life,
162
525313
4755
Si alguien no hiciera más que leer las 24 horas del día durante toda su vida,
08:50
they'd consume eight billion words.
163
530109
3337
consumiría 8000 millones de palabras.
08:53
And of course, that's a lot of words.
164
533488
1835
Y, por supuesto, son muchas palabras.
08:55
But today, the most advanced AIs consume more than eight trillion words
165
535364
5756
Pero hoy en día, las IA más avanzadas consumen más de 8 billones de palabras
en un solo mes de entrenamiento.
09:01
in a single month of training.
166
541120
2336
09:03
And all of this is set to continue.
167
543873
1960
Y todo esto va a continuar.
09:05
The long arc of technological history is now in an extraordinary new phase.
168
545875
5797
El largo arco de la historia tecnológica
se encuentra ahora en una nueva fase extraordinaria.
09:12
So what does this mean in practice?
169
552256
2503
¿Y qué significa esto en la práctica?
09:15
Well, just as the internet gave us the browser
170
555426
2920
Del mismo modo que Internet nos dio el navegador
09:18
and the smartphone gave us apps,
171
558346
2502
y los teléfonos inteligentes nos dieron aplicaciones,
09:20
the cloud-based supercomputer is ushering in a new era
172
560890
4004
la supercomputadora basada en la nube
está marcando el comienzo de una nueva era de IA omnipresente.
09:24
of ubiquitous AIs.
173
564936
2502
09:27
Everything will soon be represented by a conversational interface.
174
567438
4588
Pronto todo estará representado por una interfaz conversacional.
O, dicho de otro modo, una IA personal.
09:32
Or, to put it another way, a personal AI.
175
572026
3003
09:35
And these AIs will be infinitely knowledgeable,
176
575780
2336
Y estas IA tendrán un conocimiento infinito
09:38
and soon they'll be factually accurate and reliable.
177
578157
3879
y pronto serán fiables y precisas desde el punto de vista fáctico.
Tendrán un coeficiente intelectual casi perfecto.
09:42
They'll have near-perfect IQ.
178
582036
1794
09:44
They’ll also have exceptional EQ.
179
584914
2377
También tendrán un EQ excepcional.
09:47
They’ll be kind, supportive, empathetic.
180
587291
4129
Serán amables, comprensivos y empáticos.
09:53
These elements on their own would be transformational.
181
593089
2836
Estos elementos por sí solos serían transformadores.
09:55
Just imagine if everybody had a personalized tutor in their pocket
182
595925
3795
Imagínese si todo el mundo tuviera un tutor personalizado en el bolsillo
09:59
and access to low-cost medical advice.
183
599720
3003
y acceso a consejos médicos de bajo costo.
10:02
A lawyer and a doctor,
184
602723
1544
Un abogado y un médico,
10:04
a business strategist and coach --
185
604267
1960
un estratega empresarial y un entrenador:
10:06
all in your pocket 24 hours a day.
186
606269
2252
todo en su bolsillo las 24 horas del día.
10:08
But things really start to change when they develop what I call AQ,
187
608980
4713
Pero las cosas realmente comienzan a cambiar
cuando desarrollan lo que yo llamo AQ,
10:13
their “actions quotient.”
188
613693
1668
su «cociente de acciones».
10:15
This is their ability to actually get stuff done
189
615695
2794
Esta es su capacidad para hacer cosas
10:18
in the digital and physical world.
190
618531
2294
en el mundo digital y físico.
10:20
And before long, it won't just be people that have AIs.
191
620867
3420
Y en poco tiempo, no serán solo las personas las que tengan IA.
10:24
Strange as it may sound, every organization,
192
624328
2962
Por extraño que parezca,
cada organización, desde las pequeñas empresas
10:27
from small business to nonprofit to national government,
193
627290
3253
hasta las sin fines de lucro y el gobierno nacional,
10:30
each will have their own.
194
630585
1710
tendrá la suya propia.
10:32
Every town, building and object
195
632795
2711
Cada ciudad, edificio y objeto
10:35
will be represented by a unique interactive persona.
196
635506
3754
estará representado por una persona interactiva única.
10:39
And these won't just be mechanistic assistants.
197
639302
2544
Y no serán solo asistentes mecanicistas.
10:42
They'll be companions, confidants,
198
642221
3754
Serán compañeros, confidentes,
colegas, amigos y socios,
10:46
colleagues, friends and partners,
199
646017
2669
10:48
as varied and unique as we all are.
200
648728
2627
tan variados y únicos como lo somos todos nosotros.
10:52
At this point, AIs will convincingly imitate humans at most tasks.
201
652273
4630
En este punto, las IA imitarán de manera convincente a los humanos
en la mayoría de las tareas.
10:57
And we'll feel this at the most intimate of scales.
202
657737
2794
Y lo sentiremos en la escala más íntima.
11:00
An AI organizing a community get-together for an elderly neighbor.
203
660990
3587
Una IA que organiza una reunión comunitaria
para un vecino de edad avanzada.
11:04
A sympathetic expert helping you make sense of a difficult diagnosis.
204
664619
4588
Un experto comprensivo que le ayuda a entender un diagnóstico difícil.
11:09
But we'll also feel it at the largest scales.
205
669248
2753
Pero también lo sentiremos a gran escala.
Acelerar los descubrimientos científicos,
11:12
Accelerating scientific discovery,
206
672043
2586
11:14
autonomous cars on the roads,
207
674629
2168
coches autónomos en las carreteras,
11:16
drones in the skies.
208
676797
1627
drones en los cielos.
11:18
They'll both order the takeout and run the power station.
209
678966
3337
Ambos pedirán la comida para llevar y administrarán la central eléctrica.
11:22
They’ll interact with us and, of course, with each other.
210
682970
3337
Interactuarán con nosotros y, por supuesto, entre ellos.
11:26
They'll speak every language,
211
686349
1918
Hablarán todos los idiomas,
11:28
take in every pattern of sensor data,
212
688267
2836
asimilarán todos los patrones de datos de los sensores,
11:31
sights, sounds,
213
691145
2336
imágenes, sonidos,
11:33
streams and streams of information,
214
693481
2377
flujos y flujos de información, superando con creces
11:35
far surpassing what any one of us could consume in a thousand lifetimes.
215
695900
4379
lo que cualquiera de nosotros podría consumir en mil vidas.
11:40
So what is this?
216
700780
1293
Entonces, ¿qué es esto?
11:42
What are these AIs?
217
702990
2086
¿Qué son estas IA?
11:46
If we are to prioritize safety above all else,
218
706410
4588
Si queremos priorizar la seguridad por encima de todo,
para garantizar que esta nueva ola siempre sirva y amplifique a la humanidad,
11:51
to ensure that this new wave always serves and amplifies humanity,
219
711040
5088
11:56
then we need to find the right metaphors for what this might become.
220
716128
4922
necesitamos encontrar las metáforas correctas
sobre lo que podría convertirse en esto.
12:01
For years, we in the AI community, and I specifically,
221
721842
4296
Durante años, en la comunidad de IA, y yo en concreto,
12:06
have had a tendency to refer to this as just tools.
222
726180
3587
hemos tenido la tendencia a referirnos a esto
simplemente como herramientas.
Pero eso no capta realmente lo que realmente está sucediendo aquí.
12:11
But that doesn't really capture what's actually happening here.
223
731060
3003
12:14
AIs are clearly more dynamic,
224
734730
2503
Las IA son claramente más dinámicas,
12:17
more ambiguous, more integrated
225
737233
2753
más ambiguas, más integradas
12:19
and more emergent than mere tools,
226
739986
2627
y más emergentes que las simples herramientas,
12:22
which are entirely subject to human control.
227
742613
2878
que están totalmente sujetas al control humano.
12:25
So to contain this wave,
228
745533
2544
Por lo tanto, para contener esta ola,
12:28
to put human agency at its center
229
748119
3044
poner la acción humana en el centro
12:31
and to mitigate the inevitable unintended consequences
230
751163
2711
y mitigar las inevitables consecuencias no deseadas
12:33
that are likely to arise,
231
753916
1835
que probablemente surjan,
12:35
we should start to think about them as we might a new kind of digital species.
232
755793
5005
deberíamos empezar a pensar en ellas
como si fuéramos un nuevo tipo de especie digital.
12:41
Now it's just an analogy,
233
761132
1793
Ahora es solo una analogía,
12:42
it's not a literal description, and it's not perfect.
234
762925
2586
no es una descripción literal y no es perfecta.
Para empezar, está claro que no son biológicas
12:46
For a start, they clearly aren't biological in any traditional sense,
235
766053
4046
en ningún sentido tradicional,
12:50
but just pause for a moment
236
770141
2377
pero basta con hacer una pausa por un momento
12:52
and really think about what they already do.
237
772560
2836
y pensar realmente en lo que ya están haciendo.
12:55
They communicate in our languages.
238
775438
2627
Se comunican en nuestros idiomas.
12:58
They see what we see.
239
778107
2127
Ven lo que vemos nosotros.
13:00
They consume unimaginably large amounts of information.
240
780234
3587
Consumen cantidades inimaginablemente grandes de información.
13:04
They have memory.
241
784739
1376
Tienen memoria.
13:06
They have personality.
242
786991
1752
Tienen personalidad.
13:09
They have creativity.
243
789493
1710
Tienen creatividad.
Incluso pueden razonar hasta cierto punto
13:12
They can even reason to some extent and formulate rudimentary plans.
244
792038
3962
y formular planes rudimentarios.
13:16
They can act autonomously if we allow them.
245
796709
3128
Pueden actuar de forma autónoma si se lo permitimos.
13:20
And they do all this at levels of sophistication
246
800546
2294
Y hacen todo esto con un nivel de sofisticación
13:22
that is far beyond anything that we've ever known from a mere tool.
247
802882
3587
que supera con creces cualquier cosa que hayamos conocido
a partir de una simple herramienta.
13:27
And so saying AI is mainly about the math or the code
248
807762
4296
Por lo tanto, decir que la IA tiene que ver principalmente
con las matemáticas o el código
13:32
is like saying we humans are mainly about carbon and water.
249
812099
4838
es como decir que los humanos nos centramos principalmente
en el carbono y el agua.
13:37
It's true, but it completely misses the point.
250
817897
3795
Es cierto, pero no entiende por completo el punto.
13:42
And yes, I get it, this is a super arresting thought
251
822860
3629
Y sí, lo entiendo, es una idea muy llamativa,
13:46
but I honestly think this frame helps sharpen our focus on the critical issues.
252
826489
5171
pero sinceramente creo que este marco ayuda
a centrar nuestra atención en los temas críticos.
13:52
What are the risks?
253
832745
1585
¿Cuáles son los riesgos?
13:55
What are the boundaries that we need to impose?
254
835790
2752
¿Cuáles son los límites que debemos imponer?
13:59
What kind of AI do we want to build or allow to be built?
255
839293
4338
¿Qué tipo de IA queremos construir o permitir que se construya?
14:04
This is a story that's still unfolding.
256
844465
2377
Esta es una historia que aún se está desarrollando.
14:06
Nothing should be accepted as a given.
257
846884
2544
Nada debe aceptarse como un hecho.
14:09
We all must choose what we create.
258
849428
2544
Todos debemos elegir lo que creamos.
14:12
What AIs we bring into the world, or not.
259
852681
3921
Qué IA traemos al mundo o no.
14:18
These are the questions for all of us here today,
260
858604
2836
Estas son las preguntas para todos los que estamos aquí hoy,
14:21
and all of us alive at this moment.
261
861440
2586
y para todos los que estamos vivos en este momento.
14:24
For me, the benefits of this technology are stunningly obvious,
262
864693
4296
Para mí, los beneficios de esta tecnología son asombrosamente obvios
14:28
and they inspire my life's work every single day.
263
868989
3546
e inspiran el trabajo de toda mi vida todos los días.
14:33
But quite frankly, they'll speak for themselves.
264
873661
3086
Pero, francamente, hablarán por sí mismos.
14:37
Over the years, I've never shied away from highlighting risks
265
877706
2920
A lo largo de los años, nunca he rehuido destacar los riesgos
14:40
and talking about downsides.
266
880668
1710
y hablar sobre las desventajas.
14:43
Thinking in this way helps us focus on the huge challenges
267
883087
3211
Pensar de esta manera nos ayuda a concentrarnos en los enormes desafíos
14:46
that lie ahead for all of us.
268
886298
1836
que nos esperan a todos.
14:48
But let's be clear.
269
888843
1418
Pero seamos claros.
14:50
There is no path to progress
270
890719
2128
No hay camino hacia el progreso
14:52
where we leave technology behind.
271
892888
2169
si dejamos atrás la tecnología.
14:55
The prize for all of civilization is immense.
272
895683
3795
El premio para toda la civilización es inmenso.
Necesitamos soluciones en el cuidado de la salud y la educación
15:00
We need solutions in health care and education, to our climate crisis.
273
900062
3879
para nuestra crisis climática.
15:03
And if AI delivers just a fraction of its potential,
274
903941
3921
Y si la IA ofrece solo una fracción de su potencial,
15:07
the next decade is going to be the most productive in human history.
275
907903
4421
la próxima década será la más productiva
de la historia de la humanidad.
15:13
Here's another way to think about it.
276
913701
2002
He aquí otra forma de pensar en ello.
15:15
In the past,
277
915744
1293
En el pasado, impulsar
15:17
unlocking economic growth often came with huge downsides.
278
917037
4088
el crecimiento económico a menudo acarreaba enormes desventajas.
15:21
The economy expanded as people discovered new continents
279
921500
3712
La economía se expandió a medida que la gente descubrió nuevos continentes
15:25
and opened up new frontiers.
280
925254
2002
y abrió nuevas fronteras.
15:28
But they colonized populations at the same time.
281
928632
3045
Pero colonizaron poblaciones al mismo tiempo.
15:32
We built factories,
282
932595
1710
Construimos fábricas,
15:34
but they were grim and dangerous places to work.
283
934305
3044
pero eran lugares sombríos y peligrosos para trabajar.
Encontramos petróleo,
15:38
We struck oil,
284
938017
1918
15:39
but we polluted the planet.
285
939977
1627
pero contaminamos el planeta.
15:42
Now because we are still designing and building AI,
286
942146
3170
Ahora, dado que todavía estamos diseñando y creando IA,
15:45
we have the potential and opportunity to do it better,
287
945316
3795
tenemos el potencial y la oportunidad de hacerlo mejor,
15:49
radically better.
288
949153
1335
radicalmente mejor.
15:51
And today, we're not discovering a new continent
289
951071
2628
Y hoy, no estamos descubriendo un nuevo continente
15:53
and plundering its resources.
290
953741
1918
ni saqueando sus recursos.
15:56
We're building one from scratch.
291
956285
1919
Estamos construyendo uno desde cero.
15:58
Sometimes people say that data or chips are the 21st century’s new oil,
292
958662
5297
A veces la gente dice que los datos o los chips
son el nuevo petróleo del siglo XXI,
16:03
but that's totally the wrong image.
293
963959
2002
pero esa es una imagen totalmente equivocada.
16:06
AI is to the mind
294
966587
1919
La IA es para la mente
16:08
what nuclear fusion is to energy.
295
968547
2753
lo que la fusión nuclear es para la energía.
16:12
Limitless, abundant,
296
972259
2670
Ilimitado, abundante, que cambia el mundo.
16:14
world-changing.
297
974970
1544
16:17
And AI really is different,
298
977389
2962
Y la IA es realmente diferente,
16:20
and that means we have to think about it creatively and honestly.
299
980392
4213
y eso significa que tenemos que pensar en ello de forma creativa y honesta.
16:24
We have to push our analogies and our metaphors
300
984647
2586
Tenemos que llevar nuestras analogías y metáforas al límite
16:27
to the very limits
301
987274
1752
para poder hacer frente a lo que viene.
16:29
to be able to grapple with what's coming.
302
989068
2252
16:31
Because this is not just another invention.
303
991362
2878
Porque no se trata de un invento más.
16:34
AI is itself an infinite inventor.
304
994907
3503
La IA es en sí misma un inventor infinito.
16:38
And yes, this is exciting and promising and concerning
305
998869
3295
Y sí, esto es emocionante y prometedor y preocupante
16:42
and intriguing all at once.
306
1002164
2044
e intrigante a la vez.
16:45
To be quite honest, it's pretty surreal.
307
1005251
2585
Para ser honesto, es bastante surrealista.
16:47
But step back,
308
1007836
1293
Pero si damos un paso atrás,
16:49
see it on the long view of glacial time,
309
1009171
3462
considerándolo desde el punto de vista de la época glacial,
16:52
and these really are the very most appropriate metaphors that we have today.
310
1012633
4796
estas son realmente las metáforas más apropiadas que tenemos hoy en día.
16:57
Since the beginning of life on Earth,
311
1017471
3003
Desde el comienzo de la vida en la Tierra,
17:00
we've been evolving, changing
312
1020516
2961
hemos estado evolucionando, cambiando
17:03
and then creating everything around us in our human world today.
313
1023477
4171
y creando todo lo que nos rodea en nuestro mundo humano actual.
17:08
And AI isn't something outside of this story.
314
1028232
3003
Y la IA no es algo ajeno a esta historia.
17:11
In fact, it's the very opposite.
315
1031569
2961
De hecho, es todo lo contrario.
17:15
It's the whole of everything that we have created,
316
1035197
3170
Es el conjunto de todo lo que hemos creado,
17:18
distilled down into something that we can all interact with
317
1038367
3545
resumido en algo con lo que todos podemos interactuar
17:21
and benefit from.
318
1041912
1377
y beneficiarnos.
17:23
It's a reflection of humanity across time,
319
1043872
3504
Es un reflejo de la humanidad a lo largo del tiempo
17:27
and in this sense,
320
1047418
1251
y, en este sentido,
17:28
it isn't a new species at all.
321
1048711
1918
no se trata en absoluto de una especie nueva.
17:31
This is where the metaphors end.
322
1051213
1960
Aquí es donde terminan las metáforas.
17:33
Here's what I'll tell Caspian next time he asks.
323
1053591
2502
Eso le diré a Caspian la próxima vez que me pregunte.
17:37
AI isn't separate.
324
1057219
1460
La IA no está separada.
17:39
AI isn't even in some senses, new.
325
1059388
3295
La IA ni siquiera es, en algunos sentidos, nueva.
17:43
AI is us.
326
1063517
1126
La IA somos nosotros.
17:45
It's all of us.
327
1065394
1210
Somos todos nosotros.
Y esto es quizás lo más prometedor y vital de todo
17:47
And this is perhaps the most promising and vital thing of all
328
1067062
3754
17:50
that even a six-year-old can get a sense for.
329
1070858
2669
lo que incluso un niño de seis años puede entender.
17:54
As we build out AI,
330
1074528
1376
A medida que desarrollamos la IA,
17:55
we can and must reflect all that is good,
331
1075946
3545
podemos y debemos reflejar todo lo que es bueno,
17:59
all that we love,
332
1079533
1126
todo lo que nos gusta
18:00
all that is special about humanity:
333
1080701
2753
y todo lo que tiene de especial la humanidad:
18:03
our empathy, our kindness,
334
1083495
2169
nuestra empatía, nuestra amabilidad,
18:05
our curiosity and our creativity.
335
1085664
2169
nuestra curiosidad y nuestra creatividad.
18:09
This, I would argue, is the greatest challenge of the 21st century,
336
1089251
5130
Yo diría que este es el mayor desafío del siglo XXI,
18:14
but also the most wonderful,
337
1094381
2211
pero también la oportunidad más maravillosa,
18:16
inspiring and hopeful opportunity for all of us.
338
1096592
3336
inspiradora y esperanzadora para todos nosotros.
18:20
Thank you.
339
1100429
1168
Gracias.
18:21
(Applause)
340
1101639
4879
(Aplausos)
18:26
Chris Anderson: Thank you Mustafa.
341
1106560
1668
Chris Anderson: Gracias, Mustafa.
18:28
It's an amazing vision and a super powerful metaphor.
342
1108270
3796
Es una visión asombrosa y una metáfora superpoderosa.
Estás en una posición increíble ahora mismo.
18:32
You're in an amazing position right now.
343
1112066
1960
18:34
I mean, you were connected at the hip
344
1114026
1793
Es decir, estabas muy involucrado en el increíble trabajo
18:35
to the amazing work happening at OpenAI.
345
1115819
2795
que se estaba realizando en OpenAI.
18:38
You’re going to have resources made available,
346
1118614
2169
Tendrás recursos disponibles,
18:40
there are reports of these giant new data centers,
347
1120824
4046
hay informes sobre estos nuevos y gigantescos centros de datos,
18:44
100 billion dollars invested and so forth.
348
1124870
2461
se han invertido USD 100 000 millones, etc.
Y de ella puede emerger una nueva especie.
18:48
And a new species can emerge from it.
349
1128082
3837
18:52
I mean, in your book,
350
1132294
1502
En tu libro, además de pintar una visión increíblemente optimista,
18:53
you did, as well as painting an incredible optimistic vision,
351
1133837
2878
18:56
you were super eloquent on the dangers of AI.
352
1136757
3629
fuiste muy elocuente sobre los peligros de la IA.
19:00
And I'm just curious, from the view that you have now,
353
1140427
3963
Y solo por curiosidad, por la visión que tienes ahora,
19:04
what is it that most keeps you up at night?
354
1144431
2336
¿qué es lo que más te desvela por la noche?
19:06
Mustafa Suleyman: I think the great risk is that we get stuck
355
1146809
2878
Mustafa Suleyman: El gran riesgo es que quedemos atrapados
19:09
in what I call the pessimism aversion trap.
356
1149728
2086
en lo que llamo la trampa del pesimismo y la aversión.
19:11
You know, we have to have the courage to confront
357
1151855
2586
Tenemos que tener el coraje de enfrentarnos al potencial
19:14
the potential of dark scenarios
358
1154483
1960
de los escenarios oscuros
19:16
in order to get the most out of all the benefits that we see.
359
1156443
3128
para aprovechar al máximo los beneficios que vemos.
19:19
So the good news is that if you look at the last two or three years,
360
1159613
3712
La buena noticia es que, si vemos los últimos dos o tres años,
19:23
there have been very, very few downsides, right?
361
1163325
2961
ha habido muy muy pocos inconvenientes, ¿verdad?
19:26
It’s very hard to say explicitly what harm an LLM has caused.
362
1166328
4922
Es muy difícil decir explícitamente qué daño ha causado un LLM.
19:31
But that doesn’t mean that that’s what the trajectory is going to be
363
1171291
3212
Pero eso no significa que esa sea la trayectoria
que va a seguir en los próximos 10 años.
19:34
over the next 10 years.
364
1174503
1168
19:35
So I think if you pay attention to a few specific capabilities,
365
1175671
3462
Pienso que si prestamos atención a unas cuantas capacidades específicas,
19:39
take for example, autonomy.
366
1179174
1835
tomemos, por ejemplo, la autonomía.
19:41
Autonomy is very obviously a threshold
367
1181009
2336
La autonomía es, obviamente, un umbral
19:43
over which we increase risk in our society.
368
1183387
2794
por encima del cual aumentamos el riesgo en nuestra sociedad.
19:46
And it's something that we should step towards very, very closely.
369
1186223
3128
Y es algo en lo que debemos avanzar muy muy de cerca.
19:49
The other would be something like recursive self-improvement.
370
1189393
3420
La otra sería algo así como la superación personal recursiva.
19:52
If you allow the model to independently self-improve,
371
1192813
3629
Si permites que el modelo se mejore por sí mismo,
19:56
update its own code,
372
1196483
1460
actualice su propio código,
19:57
explore an environment without oversight, and, you know,
373
1197985
3295
explore un entorno sin supervisión,
sin que una persona tenga el control para cambiar su funcionamiento,
20:01
without a human in control to change how it operates,
374
1201321
3295
20:04
that would obviously be more dangerous.
375
1204616
1919
obviamente sería más peligroso.
20:06
But I think that we're still some way away from that.
376
1206535
2544
Pero creo que todavía estamos un poco lejos de eso.
Todavía faltan entre 5 y 10 años para enfrentarnos realmente a eso.
20:09
I think it's still a good five to 10 years before we have to really confront that.
377
1209079
3879
Pero es hora de empezar a hablar de ello.
20:12
But it's time to start talking about it now.
378
1212958
2085
CA: Una especie digital, a diferencia de cualquier especie biológica,
20:15
CA: A digital species, unlike any biological species,
379
1215043
2545
20:17
can replicate not in nine months,
380
1217588
2002
no puede replicarse en nueve meses,
20:19
but in nine nanoseconds,
381
1219631
1669
sino en nueve nanosegundos,
20:21
and produce an indefinite number of copies of itself,
382
1221341
3421
y producir un número indefinido de copias de sí misma,
20:24
all of which have more power than we have in many ways.
383
1224803
3796
todas las cuales tienen más potencia
que la que tenemos nosotros en muchos aspectos.
20:28
I mean, the possibility for unintended consequences seems pretty immense.
384
1228599
4838
La posibilidad de que se produzcan consecuencias imprevistas parece inmensa.
20:33
And isn't it true that if a problem happens,
385
1233479
2168
¿Y no es cierto que si ocurre un problema,
20:35
it could happen in an hour?
386
1235689
1919
podría ocurrir en una hora?
20:37
MS: No.
387
1237649
1335
MS: No.
20:38
That is really not true.
388
1238984
1752
En realidad, eso no es cierto.
20:40
I think there's no evidence to suggest that.
389
1240778
2085
Creo que no hay pruebas que lo sugieran.
20:42
And I think that, you know,
390
1242863
1585
Pienso que eso es lo que a menudo se conoce
20:44
that’s often referred to as the “intelligence explosion.”
391
1244490
2836
como la «explosión de inteligencia».
20:47
And I think it is a theoretical, hypothetical maybe
392
1247367
3712
Y creo que es algo teórico, hipotético,
que quizás todos sintamos curiosidad por explorar,
20:51
that we're all kind of curious to explore,
393
1251079
2420
20:53
but there's no evidence that we're anywhere near anything like that.
394
1253540
3212
pero no hay pruebas de que estemos cerca de algo así.
20:56
And I think it's very important that we choose our words super carefully.
395
1256752
3462
Creo que es muy importante escoger nuestras palabras con sumo cuidado.
Porque tienes razón, es una de las debilidades del encuadre por especies,
21:00
Because you're right, that's one of the weaknesses of the species framing,
396
1260255
3546
21:03
that we will design the capability for self-replication into it
397
1263801
4337
que diseñaremos la capacidad de autorreplicación
21:08
if people choose to do that.
398
1268180
1668
si la gente así lo decide.
21:09
And I would actually argue that we should not,
399
1269890
2169
Y, de hecho, yo diría que no deberíamos,
esa sería una de las capacidades peligrosas
21:12
that would be one of the dangerous capabilities
400
1272059
2210
21:14
that we should step back from, right?
401
1274269
1835
de las que deberíamos alejarnos, ¿sí?
Por lo tanto, no hay posibilidad de que esto «surja» accidentalmente.
21:16
So there's no chance that this will "emerge" accidentally.
402
1276104
3796
21:19
I really think that's a very low probability.
403
1279942
2502
Realmente creo que es una probabilidad muy baja.
21:22
It will happen if engineers deliberately design those capabilities in.
404
1282486
4338
Ocurrirá si los ingenieros diseñan deliberadamente esas capacidades.
21:26
And if they don't take enough efforts to deliberately design them out.
405
1286865
3295
Y si no se esfuerzan lo suficiente como para quitarlas deliberadamente.
21:30
And so this is the point of being explicit
406
1290160
2294
Por lo tanto, este es el punto de ser explícitos
21:32
and transparent about trying to introduce safety by design very early on.
407
1292454
5672
y transparentes a la hora de intentar introducir la seguridad
desde el diseño desde el principio.
CA: Gracias, tu visión de la humanidad inyectando en esta nueva realidad
21:39
CA: Thank you, your vision of humanity injecting into this new thing
408
1299044
5964
lo mejor de nosotros mismos,
21:45
the best parts of ourselves,
409
1305008
1877
21:46
avoiding all those weird, biological, freaky,
410
1306927
2920
evitando todas esas tendencias raras, biológicas, espeluznantes
21:49
horrible tendencies that we can have in certain circumstances,
411
1309888
2920
y horribles que podemos tener en determinadas circunstancias,
21:52
I mean, that is a very inspiring vision.
412
1312808
2127
es una visión muy inspiradora.
21:54
And thank you so much for coming here and sharing it at TED.
413
1314977
3336
Y muchas gracias por venir aquí y compartirlo en TED.
21:58
Thank you, good luck.
414
1318355
1210
Gracias, buena suerte.
21:59
(Applause)
415
1319565
1876
(Aplausos)
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7