The Inside Story of ChatGPT’s Astonishing Potential | Greg Brockman | TED

1,805,277 views ・ 2023-04-20

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Leah Levi Revisor: Sebastian Betti
00:03
We started OpenAI seven years ago
0
3875
2503
Empezamos OpenAI hace siete años
00:06
because we felt like something really interesting was happening in AI
1
6378
3712
porque sentimos que algo muy interesante estaba pasando en la IA
00:10
and we wanted to help steer it in a positive direction.
2
10131
3170
y queríamos ayudar a dirigirla en una dirección positiva.
00:15
It's honestly just really amazing to see
3
15220
2085
Sinceramente, es realmente increíble ver
00:17
how far this whole field has come since then.
4
17347
3086
lo lejos que todo este campo ha avanzado desde entonces.
00:20
And it's really gratifying to hear from people like Raymond
5
20433
3629
Y es realmente gratificante saber que gente como Raymond
00:24
who are using the technology we are building, and others,
6
24104
2836
usan la tecnología que estamos construyendo, y otros
00:26
for so many wonderful things.
7
26982
2127
para tantas cosas maravillosas.
00:29
We hear from people who are excited,
8
29150
2503
Escuchamos de personas entusiasmadas,
00:31
we hear from people who are concerned,
9
31653
1835
escuchamos de personas preocupadas,
00:33
we hear from people who feel both those emotions at once.
10
33530
2961
y oímos personas que sienten ambas emociones a la vez.
00:36
And honestly, that's how we feel.
11
36533
2252
Y sinceramente, así es como nos sentimos.
00:40
Above all, it feels like we're entering an historic period right now
12
40245
4087
Sobre todo, parece que ahora estamos entrando en un período histórico
00:44
where we as a world are going to define a technology
13
44374
4421
donde el mundo va a definir una tecnología
00:48
that will be so important for our society going forward.
14
48795
3086
que será muy importante para nuestra sociedad en el futuro.
00:52
And I believe that we can manage this for good.
15
52924
2628
Y creo que podemos gestionar esto para bien.
00:56
So today, I want to show you the current state of that technology
16
56845
4171
Así que hoy quiero mostrarles el estado actual de esa tecnología
01:01
and some of the underlying design principles that we hold dear.
17
61016
3086
y algunos de los principios de diseño que apreciamos.
01:09
So the first thing I'm going to show you
18
69983
1918
Así que lo primero que te voy a mostrar
01:11
is what it's like to build a tool for an AI
19
71943
2086
como construir una herramienta para una IA
01:14
rather than building it for a human.
20
74029
1876
en lugar de construirla para un humano.
01:17
So we have a new DALL-E model, which generates images,
21
77574
3545
Tenemos un nuevo modelo DALL-E, que genera imágenes
01:21
and we are exposing it as an app for ChatGPT to use on your behalf.
22
81161
4045
y lo estamos exponiendo como una app para que ChatGPT la use de parte tuya.
01:25
And you can do things like ask, you know,
23
85248
2461
Y puedes hacer cosas como preguntar, ya sabes,
01:27
suggest a nice post-TED meal and draw a picture of it.
24
87751
6631
sugiera una rica comida pos-TED y haz un dibujo de ella.
01:35
(Laughter)
25
95216
1419
(Risas)
01:38
Now you get all of the, sort of, ideation and creative back-and-forth
26
98303
4671
Ahora tienes, más o menos, toda la ideación y creativo de ida y vuelta
01:43
and taking care of the details for you that you get out of ChatGPT.
27
103016
4004
y cuidando de los detalles por ti que obtienes de ChatGPT.
01:47
And here we go, it's not just the idea for the meal,
28
107062
2669
Y aquí vamos, no es sólo la idea del platillo,
01:49
but a very, very detailed spread.
29
109773
3587
pero un despliegue muy, muy detallado.
01:54
So let's see what we're going to get.
30
114110
2044
Así que vamos a ver lo que obtenemos.
01:56
But ChatGPT doesn't just generate images in this case --
31
116154
3795
Pero ChatGPT no sólo genera imágenes en este caso...
01:59
sorry, it doesn't generate text, it also generates an image.
32
119991
2836
lo siento, no solo genera texto, también genera una imagen.
02:02
And that is something that really expands the power
33
122827
2419
Y eso es algo que realmente expande el poder
02:05
of what it can do on your behalf in terms of carrying out your intent.
34
125246
3504
de lo que puede hacer por ti en términos de llevar a cabo tu intención.
02:08
And I'll point out, this is all a live demo.
35
128750
2085
Y aclaro, todo esto es una muestra en vivo
02:10
This is all generated by the AI as we speak.
36
130835
2169
La IA está generando esto mientras hablamos.
02:13
So I actually don't even know what we're going to see.
37
133046
2544
Así que realmente ni sé lo que vamos a ver.
02:16
This looks wonderful.
38
136216
2294
Esto se ve maravilloso
02:18
(Applause)
39
138510
3712
(Aplausos)
02:22
I'm getting hungry just looking at it.
40
142514
1877
Me está dando hambre con solo verlo.
02:24
Now we've extended ChatGPT with other tools too,
41
144724
2753
Hemos ampliado ChatGPT con otras herramientas,
02:27
for example, memory.
42
147519
1168
por ejemplo, la memoria.
02:28
You can say "save this for later."
43
148728
2795
Puedes decir “guarda esto para más tarde”.
02:33
And the interesting thing about these tools
44
153233
2043
Y lo interesante de estas herramientas
02:35
is they're very inspectable.
45
155318
1377
se pueden inspeccionar.
02:36
So you get this little pop up here that says "use the DALL-E app."
46
156695
3128
Así que tienes esta pequeña ventana que dice “usa la app DALL-E”.
02:39
And by the way, this is coming to you, all ChatGPT users, over upcoming months.
47
159823
3712
Por cierto, todos los usuarios de ChatGPT la utilizarán en los próximos meses.
02:43
And you can look under the hood and see that what it actually did
48
163535
3086
Y puede ver abajo en la casilla y ver que lo que realmente hizo
02:46
was write a prompt just like a human could.
49
166621
2169
fue escribir un mensaje como un ser humano.
02:48
And so you sort of have this ability to inspect
50
168790
2628
Y así tienes esta habilidad de inspeccionar
02:51
how the machine is using these tools,
51
171459
2086
cómo la máquina usa estas herramientas,
02:53
which allows us to provide feedback to them.
52
173586
2086
lo que permite darles retroalimentación.
02:55
Now it's saved for later,
53
175714
1209
Se guarda para más tarde,
02:56
and let me show you what it's like to use that information
54
176965
2878
y déjenme mostrarles cómo es usar esa información
02:59
and to integrate with other applications too.
55
179884
2503
integrarla también con otras aplicaciones.
03:02
You can say,
56
182387
2210
Podrías decir,
03:04
“Now make a shopping list for the tasty thing
57
184639
5506
“Ahora hace una lista de compras para esa cosa deliciosa
03:10
I was suggesting earlier.”
58
190186
1835
que estaba sugiriendo anteriormente”.
03:12
And make it a little tricky for the AI.
59
192021
2128
Y ponérselo un poco difícil a la IA.
03:16
"And tweet it out for all the TED viewers out there."
60
196276
4337
“Y tuitéalo para todos los espectadores de TED”.
03:20
(Laughter)
61
200655
2252
(Risas)
03:22
So if you do make this wonderful, wonderful meal,
62
202949
2461
Entonces si haces este maravilloso platillo,
03:25
I definitely want to know how it tastes.
63
205410
2044
Definitivamente quiero saber cómo sabe.
03:28
But you can see that ChatGPT is selecting all these different tools
64
208496
3504
Puedes ver que ChatGPT selecciona todas estas diferentes herramientas
03:32
without me having to tell it explicitly which ones to use in any situation.
65
212000
4379
sin que yo tenga que decirle directamente cual usar en cada situación.
03:37
And this, I think, shows a new way of thinking about the user interface.
66
217088
3879
Creo que esto muestra una nueva forma de pensar en la interfaz de usuario.
03:40
Like, we are so used to thinking of, well, we have these apps,
67
220967
3796
Estamos tan acostumbrados a pensar, bueno, tenemos estas aplicaciones,
03:44
we click between them, we copy/paste between them,
68
224763
2335
damos clic y copiamos/pegamos entre ellas,
03:47
and usually it's a great experience within an app
69
227098
2294
a menudo es una gran experiencia dentro la app
03:49
as long as you kind of know the menus and know all the options.
70
229434
2961
siempre y cuando conozcas los menús y todas las opciones.
03:52
Yes, I would like you to.
71
232395
1293
Sí, me gustaría.
03:53
Yes, please.
72
233730
1126
Sí, por favor.
03:54
Always good to be polite.
73
234898
1251
Es bueno ser educado.
03:56
(Laughter)
74
236149
2628
(Risas)
04:00
And by having this unified language interface on top of tools,
75
240361
5464
Y al tener esta interfaz de lenguaje unificado sobre las herramientas,
04:05
the AI is able to sort of take away all those details from you.
76
245867
4630
la IA es capaz de quitarte todos esos detalles.
04:10
So you don't have to be the one
77
250538
1543
Así que no tienes que ser
04:12
who spells out every single sort of little piece
78
252123
2294
el que explica cada pequeña pieza
04:14
of what's supposed to happen.
79
254459
1543
de lo que debe suceder.
04:16
And as I said, this is a live demo,
80
256419
1710
Como dije, es una muestra en vivo,
04:18
so sometimes the unexpected will happen to us.
81
258129
3379
así que a veces nos sucede lo inesperado.
04:21
But let's take a look at the Instacart shopping list while we're at it.
82
261549
3420
Pero veamos la lista de compras de Instacart mientras estamos en ello.
04:25
And you can see we sent a list of ingredients to Instacart.
83
265386
3254
Y pueden ver que enviamos una lista de ingredientes a Instacart.
04:29
Here's everything you need.
84
269349
1543
Aquí está todo lo que necesitas
04:30
And the thing that's really interesting
85
270892
1877
Y eso es lo interesante
04:32
is that the traditional UI is still very valuable, right?
86
272811
2919
es que la UI tradicional sigue siendo valiosa, ¿no?
04:35
If you look at this,
87
275772
1877
Si nos fijamos en esto,
04:37
you still can click through it and sort of modify the actual quantities.
88
277690
4296
aún puedes hacer clic a través de él y ordenar o modificar la cantidad.
04:41
And that's something that I think shows
89
281986
1877
Y eso es algo que creo que muestra
04:43
that they're not going away, traditional UIs.
90
283863
3253
que no van a desaparecer, las interfaces de usuario tradicionales.
04:47
It's just we have a new, augmented way to build them.
91
287158
2795
Simplemente tenemos una nueva, y amplia forma de crearlas.
04:49
And now we have a tweet that's been drafted for our review,
92
289994
2920
Ahora tenemos un tuit que ha sido redactado para revisar,
04:52
which is also a very important thing.
93
292956
1793
el cual también es importante.
04:54
We can click “run,” and there we are, we’re the manager, we’re able to inspect,
94
294749
3712
Seleccionamos “ejecutar”, y ahí somos el gerente y podemos inspeccionar,
04:58
we're able to change the work of the AI if we want to.
95
298461
2836
podemos cambiar el trabajo de la IA si queremos.
05:02
And so after this talk, you will be able to access this yourself.
96
302924
5964
Y así, después de esta charla, podrás de acceder por ti mismo.
05:17
And there we go.
97
317647
1710
Y ahí nos vamos.
05:19
Cool.
98
319816
1126
Genial.
05:22
Thank you, everyone.
99
322485
1168
Gracias a todos.
05:23
(Applause)
100
323653
3003
(Aplausos)
05:29
So we’ll cut back to the slides.
101
329367
1627
Volvamos a las diapositivas.
05:32
Now, the important thing about how we build this,
102
332954
3587
Ahora, lo importante es cómo creamos esto,
05:36
it's not just about building these tools.
103
336583
2210
no es solo de construir estas herramientas.
05:38
It's about teaching the AI how to use them.
104
338793
2252
Es cómo enseñar a la IA cómo usarlos.
05:41
Like, what do we even want it to do
105
341087
1710
Como, ¿qué queremos que haga
05:42
when we ask these very high-level questions?
106
342839
2419
cuando hacemos estas preguntas de alto nivel?
05:45
And to do this, we use an old idea.
107
345258
2669
Y para ello, utilizamos una vieja idea.
05:48
If you go back to Alan Turing's 1950 paper on the Turing test, he says,
108
348261
3337
Si vas al artículo de Alan Turing de 1950 sobre la prueba de Turing,
05:51
you'll never program an answer to this.
109
351598
2043
nunca programarás una respuesta a esto.
05:53
Instead, you can learn it.
110
353683
1627
En cambio, puedes aprenderla.
05:55
You could build a machine, like a human child,
111
355351
2169
Podrías construir una máquina, como un niño,
05:57
and then teach it through feedback.
112
357520
2127
y enseñarle por retroalimentación.
05:59
Have a human teacher who provides rewards and punishments
113
359689
2711
Tener un maestro humano que le dé recompensas y castigos
06:02
as it tries things out and does things that are either good or bad.
114
362400
3212
a medida que prueba cosas ya sea bien o mal.
06:06
And this is exactly how we train ChatGPT.
115
366237
2002
Así es como entrenamos a ChatGPT.
06:08
It's a two-step process.
116
368239
1168
Se divide en dos fases.
06:09
First, we produce what Turing would have called a child machine
117
369449
3086
Primero, mediante lo que Turing habría llamado una máquina niño
06:12
through an unsupervised learning process.
118
372535
1960
mediante un aprendizaje no supervisado.
06:14
We just show it the whole world, the whole internet
119
374495
2461
Le mostramos todo el mundo, y todo el internet
06:16
and say, “Predict what comes next in text you’ve never seen before.”
120
376956
3212
le decimos: “Predice qué sigue en un texto que no has visto antes”.
06:20
And this process imbues it with all sorts of wonderful skills.
121
380168
3044
Este proceso la imbuye de muchas habilidades maravillosas.
06:23
For example, if you're shown a math problem,
122
383212
2086
Por ejemplo, si te dan un problema de mate,
06:25
the only way to actually complete that math problem,
123
385298
2544
la única manera de completar ese problema matemático,
06:27
to say what comes next,
124
387884
1334
para decir lo que sigue,
06:29
that green nine up there,
125
389218
1293
ese nueve verde de arriba,
06:30
is to actually solve the math problem.
126
390511
2294
es resolviendo el problema matemático.
06:34
But we actually have to do a second step, too,
127
394432
2169
Pero también tenemos que dar un segundo paso,
06:36
which is to teach the AI what to do with those skills.
128
396601
2544
y es enseñar a la IA qué hacer con esas habilidades.
06:39
And for this, we provide feedback.
129
399187
1668
Para esto, le damos sugerencias.
06:40
We have the AI try out multiple things, give us multiple suggestions,
130
400855
3253
Hacemos que la IA pruebe varias cosas, nos da varias sugerencias,
06:44
and then a human rates them, says “This one’s better than that one.”
131
404150
3212
luego un humano las evalúa, y le dice: “Esta es mejor que esa”.
06:47
And this reinforces not just the specific thing that the AI said,
132
407362
3086
Y esto reafirma no solo la cosa específica que la IA dijo,
06:50
but very importantly, the whole process that the AI used to produce that answer.
133
410448
3795
pero muy importante, todo el proceso que la IA usó para tener esa respuesta.
06:54
And this allows it to generalize.
134
414243
1585
Y esto le permite generalizar.
06:55
It allows it to teach, to sort of infer your intent
135
415828
2419
Le permite enseñar, inferir tu intención
06:58
and apply it in scenarios that it hasn't seen before,
136
418247
2503
y aplicarla en escenarios que no ha visto antes,
07:00
that it hasn't received feedback.
137
420750
1585
y que no ha recibido sugerencias.
07:02
Now, sometimes the things we have to teach the AI
138
422669
2460
A veces las cosas que tenemos que enseñar a la IA
07:05
are not what you'd expect.
139
425171
1543
no son los que uno espera.
07:06
For example, when we first showed GPT-4 to Khan Academy,
140
426756
3086
Ejemplo, cuando mostramos por primera vez GPT-4 a Khan Academy,
07:09
they said, "Wow, this is so great,
141
429884
1627
dijeron, “Guau, esto es genial,
07:11
We're going to be able to teach students wonderful things.
142
431552
2753
podremos enseñar a los estudiantes cosas maravillosas.
07:14
Only one problem, it doesn't double-check students' math.
143
434347
3462
Solo hay un problema no revisa bien la mate de los estudiantes.
07:17
If there's some bad math in there,
144
437809
1626
Si hay alguna mala mate allí,
07:19
it will happily pretend that one plus one equals three and run with it."
145
439477
3462
alegremente hará de cuenta que uno más uno igual a tres y se va con él”.
07:23
So we had to collect some feedback data.
146
443523
2294
Así que tuvimos que recopilar datos.
07:25
Sal Khan himself was very kind
147
445858
1544
El mismo Sal Khan fue muy amable
07:27
and offered 20 hours of his own time to provide feedback to the machine
148
447443
3337
y ofreció 20 horas de su tiempo para dar sugerencias a la máquina
07:30
alongside our team.
149
450780
1501
con nuestro equipo.
07:32
And over the course of a couple of months we were able to teach the AI that,
150
452323
3587
En un par de meses fuimos capaces de enseñar a la IA que,
07:35
"Hey, you really should push back on humans
151
455910
2044
Oye, deberías rechazar a los humanos
07:37
in this specific kind of scenario."
152
457954
2044
en este escenario específico”.
07:41
And we've actually made lots and lots of improvements to the models this way.
153
461416
4921
Y en realidad hemos hecho muchísimas mejoras a los modelos de esta manera.
07:46
And when you push that thumbs down in ChatGPT,
154
466379
2544
Cuando le das al pulgar hacia abajo en ChatGPT,
07:48
that actually is kind of like sending up a bat signal to our team to say,
155
468965
3462
es como enviar una especie de bati-señal a nuestro equipo para decir:
07:52
“Here’s an area of weakness where you should gather feedback.”
156
472427
2919
“Aquí hay una debilidad en la que debes obtener sugerencias”.
07:55
And so when you do that,
157
475388
1168
Y cuando haces eso,
07:56
that's one way that we really listen to our users
158
476597
2294
es una forma de escuchar a nuestros usuarios
07:58
and make sure we're building something that's more useful for everyone.
159
478933
3378
y de asegurarnos que estamos creando algo que sea más útil para todos.
08:02
Now, providing high-quality feedback is a hard thing.
160
482895
3754
Ahora, proporcionar retroalimentación de alta calidad es algo difícil.
Si piensas pedir a un niño que limpie su habitación,
08:07
If you think about asking a kid to clean their room,
161
487025
2460
08:09
if all you're doing is inspecting the floor,
162
489485
2711
si lo único que haces es inspeccionar el suelo,
08:12
you don't know if you're just teaching them to stuff all the toys in the closet.
163
492196
3796
no sabes si sólo le estás enseñando a meter todos los juguetes en el armario.
08:15
This is a nice DALL-E-generated image, by the way.
164
495992
2627
Por cierto, esta bonita imagen es generada por DALL-E.
08:19
And the same sort of reasoning applies to AI.
165
499912
4713
Y el mismo tipo de razonamiento se aplica a la IA.
08:24
As we move to harder tasks,
166
504667
1794
Al pasar a tareas más difíciles,
08:26
we will have to scale our ability to provide high-quality feedback.
167
506502
3796
tendremos que ampliar nuestra capacidad de dar sugerencias de alta calidad.
08:30
But for this, the AI itself is happy to help.
168
510882
3879
Pero para eso, la IA está encantada de ayudar.
08:34
It's happy to help us provide even better feedback
169
514761
2335
Estará feliz de ofrecer mejores sugerencias
08:37
and to scale our ability to supervise the machine as time goes on.
170
517138
3587
y de ampliar la capacidad de supervisar la máquina conforme pase el tiempo.
08:40
And let me show you what I mean.
171
520767
1543
Les mostraré a qué me refiero.
08:42
For example, you can ask GPT-4 a question like this,
172
522810
4546
Por ejemplo, puedes hacer a GPT-4 una pregunta como esta,
08:47
of how much time passed between these two foundational blogs
173
527356
3295
de cuánto tiempo ha pasado entre estos dos blogs fundacionales
08:50
on unsupervised learning
174
530693
1668
sobre aprendizaje no supervisado
08:52
and learning from human feedback.
175
532403
1794
y por la retroalimentación humana.
08:54
And the model says two months passed.
176
534197
2460
Y el modelo dice que pasaron dos meses.
08:57
But is it true?
177
537075
1167
¿Pero será cierto?
08:58
Like, these models are not 100-percent reliable,
178
538284
2252
Estos modelos no son fiables al 100 %,
09:00
although they’re getting better every time we provide some feedback.
179
540536
3921
aunque mejoran cada vez que proporcionamos información.
09:04
But we can actually use the AI to fact-check.
180
544457
3086
Pero en realidad podemos utilizar la IA para verificar datos.
09:07
And it can actually check its own work.
181
547543
1877
Y puede revisar su propio trabajo.
09:09
You can say, fact-check this for me.
182
549462
1877
Puedes decir, verifica esto por mí.
09:12
Now, in this case, I've actually given the AI a new tool.
183
552757
3670
En este caso, le he dado a la IA una nueva herramienta.
09:16
This one is a browsing tool
184
556427
1710
Es una herramienta de navegación
09:18
where the model can issue search queries and click into web pages.
185
558137
3879
donde el modelo puede hacer búsquedas y hacer clic en páginas web.
09:22
And it actually writes out its whole chain of thought as it does it.
186
562016
3253
Y de hecho escribe toda su cadena de pensamiento mientras lo hace.
09:25
It says, I’m just going to search for this and it actually does the search.
187
565269
3587
Dice, voy a buscar esto y hace la búsqueda.
09:28
It then it finds the publication date and the search results.
188
568856
3128
Encuentra la fecha de publicación y el resultado de la búsqueda.
09:32
It then is issuing another search query.
189
572026
1919
Luego, emite otra consulta de búsqueda.
09:33
It's going to click into the blog post.
190
573945
1877
Va a hacer clic en la entrada del blog.
09:35
And all of this you could do, but it’s a very tedious task.
191
575822
2877
Y todo esto lo podrías hacer, pero es una tarea muy tediosa
09:38
It's not a thing that humans really want to do.
192
578741
2211
No es algo que humanos desean hacer de verdad.
09:40
It's much more fun to be in the driver's seat,
193
580952
2169
Es más divertido ser el conductor,
09:43
to be in this manager's position where you can, if you want,
194
583162
2836
estar en la posición de gerente donde puedes, si quieres,
09:45
triple-check the work.
195
585998
1210
verificar el trabajo.
09:47
And out come citations
196
587208
1501
Y salen citas
09:48
so you can actually go
197
588709
1168
para que puedas ir
09:49
and very easily verify any piece of this whole chain of reasoning.
198
589919
3754
y fácilmente verificar cualquier parte de toda esta cadena de razonamiento.
09:53
And it actually turns out two months was wrong.
199
593673
2210
Y resulta que dos meses estaba mal.
09:55
Two months and one week,
200
595883
2169
Dos meses y una semana,
09:58
that was correct.
201
598094
1251
ese era el correcto.
10:00
(Applause)
202
600888
3837
(Aplausos)
10:07
And we'll cut back to the side.
203
607645
1502
Regresaremos a la presentación.
10:09
And so thing that's so interesting to me about this whole process
204
609147
3920
Y lo que es tan interesante para mí acerca de todo este proceso
10:13
is that it’s this many-step collaboration between a human and an AI.
205
613067
3962
es que es esta colaboración entre un ser humano y una IA.
10:17
Because a human, using this fact-checking tool
206
617029
2461
Ya que un humano, usando esta verificadora de datos
10:19
is doing it in order to produce data
207
619532
2210
lo hace con el fin de producir datos
10:21
for another AI to become more useful to a human.
208
621742
3170
para que otra IA sea más útil a un humano.
10:25
And I think this really shows the shape of something
209
625454
2545
Y creo que esto realmente muestra la imagen de algo
10:28
that we should expect to be much more common in the future,
210
628040
3087
que deberíamos esperar que sea mucho más común en el futuro,
10:31
where we have humans and machines kind of very carefully
211
631127
2711
donde tenemos humanos y máquinas cuidadosamente
10:33
and delicately designed in how they fit into a problem
212
633880
3503
y delicadamente diseñados para encajar en un problema
10:37
and how we want to solve that problem.
213
637425
1918
y cómo deseamos resolver ese problema.
10:39
We make sure that the humans are providing the management, the oversight,
214
639385
3462
Aseguramos de que los seres humanos den la gestión, la supervisión,
10:42
the feedback,
215
642847
1168
la retroalimentación,
10:44
and the machines are operating in a way that's inspectable
216
644015
2752
y que las máquinas operen de una manera inspeccionable
10:46
and trustworthy.
217
646809
1126
y fiable.
10:47
And together we're able to actually create even more trustworthy machines.
218
647977
3503
Y juntos somos capaces de crear máquinas aún más fiables.
10:51
And I think that over time, if we get this process right,
219
651522
2711
Creo que con el tiempo, si logramos el proceso correcto,
10:54
we will be able to solve impossible problems.
220
654233
2127
podremos resolver problemas imposibles.
10:56
And to give you a sense of just how impossible I'm talking,
221
656360
3963
Y para darles una idea de lo imposible que estoy hablando,
11:00
I think we're going to be able to rethink almost every aspect
222
660323
2878
creo que podremos reconsiderar casi todos los aspectos
11:03
of how we interact with computers.
223
663242
2378
la manera que interactuamos con computadoras.
11:05
For example, think about spreadsheets.
224
665620
2502
Por ejemplo, piensa en las hojas de cálculo.
11:08
They've been around in some form since, we'll say, 40 years ago with VisiCalc.
225
668122
4379
Existen de alguna forma desde, digamos, hace 40 años con VisiCalc.
11:12
I don't think they've really changed that much in that time.
226
672543
2878
No creo que realmente han cambiado mucho en ese tiempo.
11:16
And here is a specific spreadsheet of all the AI papers on the arXiv
227
676214
5922
Y aquí hay una hoja de cálculo específica de todos los artículos de IA en el arXiv
11:22
for the past 30 years.
228
682178
1168
de los últimos 30 años.
11:23
There's about 167,000 of them.
229
683346
1960
Hay alrededor de 167 000 de ellos.
11:25
And you can see there the data right here.
230
685348
2878
Y pueden ver aquí los datos.
11:28
But let me show you the ChatGPT take on how to analyze a data set like this.
231
688267
3837
Pero déjenme mostrarles la toma de ChatGPT para analizar datos como estos.
11:37
So we can give ChatGPT access to yet another tool,
232
697318
3837
Entonces podemos dar acceso a ChatGPT a otra herramienta,
11:41
this one a Python interpreter,
233
701197
1460
es un interpretador de Python,
11:42
so it’s able to run code, just like a data scientist would.
234
702657
4004
puede correr un código como la haría un científico de datos.
11:46
And so you can just literally upload a file
235
706661
2335
Y entonces puedes literalmente subir un archivo
11:48
and ask questions about it.
236
708996
1335
y hacerle preguntas de él.
11:50
And very helpfully, you know, it knows the name of the file and it's like,
237
710373
3545
Y útilmente, saben, reconoce el nombre del archivo y va,
11:53
"Oh, this is CSV," comma-separated value file,
238
713960
2419
“A, CSV”, archivo de valores separados por comas,
11:56
"I'll parse it for you."
239
716420
1335
“Lo analizaré por ti”.
11:57
The only information here is the name of the file,
240
717755
2794
La única información aquí es el nombre del archivo,
12:00
the column names like you saw and then the actual data.
241
720591
3671
los nombres de las columnas como viste y luego los datos.
12:04
And from that it's able to infer what these columns actually mean.
242
724262
4504
Y a partir de eso es capaz de inferir lo que estas columnas realmente significan.
12:08
Like, that semantic information wasn't in there.
243
728766
2294
Como, esa información semántica no estaba allí.
12:11
It has to sort of, put together its world knowledge of knowing that,
244
731102
3211
Tiene que juntar su conocimiento general para saber que,
12:14
“Oh yeah, arXiv is a site that people submit papers
245
734355
2502
“Ah, arXiv el sitio donde personas envía artículos,
12:16
and therefore that's what these things are and that these are integer values
246
736857
3587
así que eso es lo que son estas cosas y son valores enteros
12:20
and so therefore it's a number of authors in the paper,"
247
740486
2628
por lo tanto, es un número de autores en el artículo”,
12:23
like all of that, that’s work for a human to do,
248
743114
2252
todo esto, es trabajo para un humano,
12:25
and the AI is happy to help with it.
249
745408
1751
y la IA está feliz de ayudar.
12:27
Now I don't even know what I want to ask.
250
747159
2002
Ahora no sé ni lo que quiero preguntar.
12:29
So fortunately, you can ask the machine,
251
749203
3003
Afortunadamente, puedes preguntarle a la máquina,
12:32
"Can you make some exploratory graphs?"
252
752248
1877
“¿Podes hacer gráficos exploratorios?”
12:37
And once again, this is a super high-level instruction with lots of intent behind it.
253
757461
4004
Y una vez más, es una instrucción de alto nivel con mucha intención.
12:41
But I don't even know what I want.
254
761507
1668
Pero ni siquiera sé lo que quiero.
12:43
And the AI kind of has to infer what I might be interested in.
255
763175
2920
Y la IA tiene que inferir en qué podría estar interesado.
Por lo que viene con algunas buenas ideas, creo.
12:46
And so it comes up with some good ideas, I think.
256
766137
2294
12:48
So a histogram of the number of authors per paper,
257
768472
2336
Un histograma del número de autores por artículo,
12:50
time series of papers per year, word cloud of the paper titles.
258
770850
2961
serie temporal de archivos por año, nube de títulos.
12:53
All of that, I think, will be pretty interesting to see.
259
773853
2627
Creo que sería muy interesante ver todo esto.
Y lo mejor es, que realmente puede hacerlo.
12:56
And the great thing is, it can actually do it.
260
776522
2169
12:58
Here we go, a nice bell curve.
261
778691
1460
He aquí, una curva de Gauss.
Pueden ver que tres es el más común.
13:00
You see that three is kind of the most common.
262
780151
2169
Entonces va a hacer este gráfico bonito de los artículos por año.
13:02
It's going to then make this nice plot of the papers per year.
263
782320
5797
13:08
Something crazy is happening in 2023, though.
264
788117
2294
Algo extraño está pasando en 2023.
13:10
Looks like we were on an exponential and it dropped off the cliff.
265
790411
3128
Parece que estábamos en una exponencial y cayó por el precipicio.
13:13
What could be going on there?
266
793539
1460
¿Qué podría estar pasando ahí?
13:14
By the way, all this is Python code, you can inspect.
267
794999
2753
Por cierto, todo esto es código Python, puedes revisarlo.
13:17
And then we'll see word cloud.
268
797752
1459
Luego, la nube de palabras.
13:19
So you can see all these wonderful things that appear in these titles.
269
799253
3378
Puedes ver todas estas cosas maravillosas que aparecen en los títulos.
13:23
But I'm pretty unhappy about this 2023 thing.
270
803090
2127
Pero no estoy contento con esto del 2023.
13:25
It makes this year look really bad.
271
805634
1711
Hace ver a este año muy mal.
13:27
Of course, the problem is that the year is not over.
272
807345
2877
Por supuesto, el problema es que el año no ha terminado.
13:30
So I'm going to push back on the machine.
273
810222
2878
Así que voy a hacer que la máquina retroceda.
13:33
[Waitttt that's not fair!!!
274
813142
1585
[¡¡¡Esperaaaa eso no es justo!!!
13:34
2023 isn't over.
275
814727
1293
2023 aún no ha terminado.
13:38
What percentage of papers in 2022 were even posted by April 13?]
276
818481
5088
¿Qué porcentaje de los trabajos de 2022 se publicaron antes del 13 de abril?]
13:44
So April 13 was the cut-off date I believe.
277
824695
2294
Creo que el 13 de abril era la fecha de corte.
13:47
Can you use that to make a fair projection?
278
827656
4922
¿Puedes usar esto para hacer una proyección justa?
13:54
So we'll see, this is the kind of ambitious one.
279
834747
2294
Ya vemos que, esta es una ambiciosas.
13:57
(Laughter)
280
837083
1126
(Risas)
13:59
So you know,
281
839877
1251
Entonces, ya saben,
14:01
again, I feel like there was more I wanted out of the machine here.
282
841128
3921
de nuevo, siento que había algo que quería más de la máquina aquí.
14:05
I really wanted it to notice this thing,
283
845049
2502
Quería que se diera cuenta de esto,
14:07
maybe it's a little bit of an overreach for it
284
847593
3128
tal vez es un poco excesivo que
14:10
to have sort of, inferred magically that this is what I wanted.
285
850763
3378
dedujera mágicamente que esto es lo que yo quería.
14:14
But I inject my intent,
286
854183
1627
Pero inyecto mi intención,
14:15
I provide this additional piece of, you know, guidance.
287
855810
4754
le doy esta pieza adicional de, ya saben, orientación.
14:20
And under the hood,
288
860564
1168
Y abajo,
14:21
the AI is just writing code again, so if you want to inspect what it's doing,
289
861774
3629
la IA está escribiendo de nuevo el código, si deseas revisar lo que hace,
14:25
it's very possible.
290
865403
1251
es posible.
14:26
And now, it does the correct projection.
291
866654
3628
Y ahora, hace la proyección correcta.
14:30
(Applause)
292
870282
5005
(Aplausos)
14:35
If you noticed, it even updates the title.
293
875287
2169
Si se fijan, incluso actualiza el título.
14:37
I didn't ask for that, but it know what I want.
294
877498
2336
Yo no pedí eso, pero sabe lo que quiero.
14:41
Now we'll cut back to the slide again.
295
881794
2544
Ahora volveremos a la diapositiva.
14:45
This slide shows a parable of how I think we ...
296
885714
4880
Esta diapositiva muestra una parábola de cómo pienso que nosotros...
14:51
A vision of how we may end up using this technology in the future.
297
891220
3212
Una visión de cómo en el futuro podemos llegar a usar esto.
14:54
A person brought his very sick dog to the vet,
298
894849
3712
Una persona llevó a su perro muy enfermo al veterinario,
14:58
and the veterinarian made a bad call to say, “Let’s just wait and see.”
299
898561
3336
y el veterinario tomó la mala decisión de decir: “Esperemos a ver”.
15:01
And the dog would not be here today had he listened.
300
901897
2795
Y el perro no estaría hoy aquí si le hubiera hecho caso.
15:05
In the meanwhile, he provided the blood test,
301
905401
2252
Mientras tanto, le dio el análisis de sangre,
15:07
like, the full medical records, to GPT-4,
302
907653
2586
como, los registros médicos completos, a GPT-4,
15:10
which said, "I am not a vet, you need to talk to a professional,
303
910281
3170
dijo: “No soy un veterinario, debes hablar con un profesional,
15:13
here are some hypotheses."
304
913492
1710
aquí hay algunas hipótesis.”
15:15
He brought that information to a second vet
305
915786
2127
Llevó esa información a otro veterinario
15:17
who used it to save the dog's life.
306
917913
1835
que lo usó para salvar al perro.
15:21
Now, these systems, they're not perfect.
307
921292
2252
Estos sistemas no son perfectos.
15:23
You cannot overly rely on them.
308
923544
2336
No puedes confiar demasiado en ellos.
15:25
But this story, I think, shows
309
925880
3712
Pero creo que esta historia demuestra
15:29
that a human with a medical professional
310
929592
3044
que un humano junto a un profesional de la medicina
15:32
and with ChatGPT as a brainstorming partner
311
932678
2461
y con ChatGPT como “compañero de lluvia de ideas”
15:35
was able to achieve an outcome that would not have happened otherwise.
312
935181
3295
logró un resultado que no habría ocurrido de otra manera.
15:38
I think this is something we should all reflect on,
313
938476
2419
Creo que es algo que todos deberíamos reflexionar
15:40
think about as we consider how to integrate these systems
314
940895
2711
y considerar cuando pensamos cómo integrar estos sistemas
15:43
into our world.
315
943606
1167
en nuestro mundo.
15:44
And one thing I believe really deeply,
316
944815
1835
Y algo que creo profundamente
15:46
is that getting AI right is going to require participation from everyone.
317
946650
4338
es que para conseguir una IA adecuada se necesita la participación de todos.
15:50
And that's for deciding how we want it to slot in,
318
950988
2377
Y eso es para decidir cómo queremos que encaje,
15:53
that's for setting the rules of the road,
319
953365
1961
para establecer las reglas del camino,
15:55
for what an AI will and won't do.
320
955367
2044
para lo que una IA hará y no hará.
15:57
And if there's one thing to take away from this talk,
321
957453
2502
Y si hay algo que debemos llevar de esta charla,
15:59
it's that this technology just looks different.
322
959997
2211
es que esta tecnología solo se ve diferente.
16:02
Just different from anything people had anticipated.
323
962208
2502
Diferente de cualquier cosa que se había anticipado.
16:04
And so we all have to become literate.
324
964710
1835
Y así todos debemos ser instruidos.
16:06
And that's, honestly, one of the reasons we released ChatGPT.
325
966587
2961
Y esa es, realmente, una de las razones que lanzamos ChatGPT.
16:09
Together, I believe that we can achieve the OpenAI mission
326
969548
3128
Juntos, creo que podemos lograr la misión OpenAI,
16:12
of ensuring that artificial general intelligence
327
972718
2252
de velar que la inteligencia artificial general
16:14
benefits all of humanity.
328
974970
1877
beneficie a toda la humanidad.
16:16
Thank you.
329
976847
1168
Gracias.
16:18
(Applause)
330
978057
6965
(Aplausos)
16:33
(Applause ends)
331
993322
1168
(Terminan de aplaudir)
16:34
Chris Anderson: Greg.
332
994532
1334
Chris Anderson: Greg.
16:36
Wow.
333
996242
1167
Guau.
16:37
I mean ...
334
997868
1126
Digo...
16:39
I suspect that within every mind out here
335
999662
3753
Creo que en todas las mentes
16:43
there's a feeling of reeling.
336
1003457
2503
hay un sentimiento de tambaleo.
16:46
Like, I suspect that a very large number of people viewing this,
337
1006001
3379
Al igual, sospecho que un gran número de personas viendo esto,
16:49
you look at that and you think, “Oh my goodness,
338
1009421
2419
miran eso y piensan, “Oh, Dios mío,
16:51
pretty much every single thing about the way I work, I need to rethink."
339
1011882
3462
tengo que reconsiderar cada cosa sobre mi manera de trabajar”
16:55
Like, there's just new possibilities there.
340
1015386
2002
Porque, hay nuevas posibilidades allí.
16:57
Am I right?
341
1017388
1168
¿No?
16:58
Who thinks that they're having to rethink the way that we do things?
342
1018597
3337
¿Quiénes están reconsiderando su manera de hacer cosas?
17:01
Yeah, I mean, it's amazing,
343
1021976
1543
Si, digo, es asombroso.
17:03
but it's also really scary.
344
1023561
2002
pero también da mucho miedo.
17:05
So let's talk, Greg, let's talk.
345
1025604
1585
Entonces hablemos, Greg.
17:08
I mean, I guess my first question actually is just
346
1028524
2377
Pues, creo que mi primera pregunta sería
17:10
how the hell have you done this?
347
1030901
1585
¿cómo diablos has hecho esto?
17:12
(Laughter)
348
1032486
1251
(Risas)
17:13
OpenAI has a few hundred employees.
349
1033737
2962
OpenAI tiene unos cientos de empleados.
17:16
Google has thousands of employees working on artificial intelligence.
350
1036740
4755
Google tiene miles de empleados trabajando en la inteligencia artificial.
17:21
Why is it you who's come up with this technology
351
1041996
3503
¿Cómo es que tú has logrado salir con esta tecnología
17:25
that shocked the world?
352
1045541
1168
que sorprendió al mundo?
17:26
Greg Brockman: I mean, the truth is,
353
1046709
1751
Greg Brockman: Pues, realmente
17:28
we're all building on shoulders of giants, right, there's no question.
354
1048502
3295
construimos sobre hombros de gigantes, sin duda alguna.
Si miras el progreso informático,
17:31
If you look at the compute progress,
355
1051797
1752
el progreso algorítmico, y de los datos,
17:33
the algorithmic progress, the data progress,
356
1053549
2085
son de toda una industria.
17:35
all of those are really industry-wide.
357
1055634
1835
Pero creo que OpenAI,
17:37
But I think within OpenAI,
358
1057469
1252
desde el inicio hicimos muchas decisiones deliberadamente.
17:38
we made a lot of very deliberate choices from the early days.
359
1058762
2878
17:41
And the first one was just to confront reality as it lays.
360
1061640
2711
Y el primero fue afrontar la realidad tal y como es.
17:44
And that we just thought really hard about like:
361
1064393
2294
Y nos pusimos a pensar seriamente:
17:46
What is it going to take to make progress here?
362
1066687
2210
¿Qué se necesita para poder avanzar aquí?
17:48
We tried a lot of things that didn't work, so you only see the things that did.
363
1068939
3754
Intentamos muchas cosas que fallaron así que solo se ven las que sí logró.
17:52
And I think that the most important thing has been to get teams of people
364
1072693
3462
Y creo que lo más importante fue tener equipos de personas
que son muy diferentes entre sí pero trabajan en harmonía.
17:56
who are very different from each other to work together harmoniously.
365
1076196
3254
17:59
CA: Can we have the water, by the way, just brought here?
366
1079450
2711
CA: Por cierto, ¿pueden traernos el agua?
18:02
I think we're going to need it, it's a dry-mouth topic.
367
1082202
3170
Creo vamos a necesitar, es un tema que nos dejará sedientos.
18:06
But isn't there something also just about the fact
368
1086665
2795
Pero, ¿no hay algo también en el hecho
18:09
that you saw something in these language models
369
1089501
4755
de que vieras algo en estos modelos de lenguaje
18:14
that meant that if you continue to invest in them and grow them,
370
1094256
3921
que te hicieran pensar que, si sigues invirtiendo en ellos y haciéndolos crecer,
18:18
that something at some point might emerge?
371
1098218
3129
en algún momento podría surgir algo?
18:21
GB: Yes.
372
1101847
1126
GB: Sí
18:23
And I think that, I mean, honestly,
373
1103015
2836
Creo que, honestamente,
18:25
I think the story there is pretty illustrative, right?
374
1105893
2544
creo que la historia allí es muy ilustrativa, ¿no?
18:28
I think that high level, deep learning,
375
1108437
2002
Ese alto nivel, el aprendizaje profundo,
18:30
like we always knew that was what we wanted to be,
376
1110481
2335
ya sabíamos eso era lo que queríamos, ser un
18:32
was a deep learning lab, and exactly how to do it?
377
1112858
2419
laboratorio de aprendizaje profundo, ¿cómo lograrlo?
18:35
I think that in the early days, we didn't know.
378
1115277
2211
Creo que en los primeros días, no lo sabíamos.
18:37
We tried a lot of things,
379
1117529
1210
Intentamos muchas cosas,
18:38
and one person was working on training a model
380
1118739
2336
y una persona que estaba entrenando un modelo
18:41
to predict the next character in Amazon reviews,
381
1121075
2877
a predecir el próximo carácter en las reseñas de Amazon,
18:43
and he got a result where -- this is a syntactic process,
382
1123994
4755
y obtuvo un resultado en el que... esto es un proceso sintáctico,
18:48
you expect, you know, the model will predict where the commas go,
383
1128749
3086
esperas, ya sabes, que el modelo prediga dónde van las comas,
18:51
where the nouns and verbs are.
384
1131835
1627
los sustantivos y los verbos.
18:53
But he actually got a state-of-the-art sentiment analysis classifier out of it.
385
1133504
4337
En realidad obtuvo de ello un clasificador analítico de última generación.
18:57
This model could tell you if a review was positive or negative.
386
1137883
2961
Este modelo podía decir si una reseña era positiva o negativa.
19:00
I mean, today we are just like, come on, anyone can do that.
387
1140886
3378
Pues, hoy en día decimos, vamos eso cualquiera lo hace.
19:04
But this was the first time that you saw this emergence,
388
1144306
3087
Pero esa era la primera vez que se vio este surgimiento.
19:07
this sort of semantics that emerged from this underlying syntactic process.
389
1147434
5005
este tipo de semántica que salió de este proceso sintáctico subyacente.
19:12
And there we knew, you've got to scale this thing,
390
1152481
2336
Allí supimos, tienes que escalar esto.
19:14
you've got to see where it goes.
391
1154858
1544
tienes que ver a dónde llega.
19:16
CA: So I think this helps explain
392
1156402
1626
CA: Creo que esto ayuda a explicar
19:18
the riddle that baffles everyone looking at this,
393
1158028
2544
el enigma que desconcierta todo el mundo viendo esto,
19:20
because these things are described as prediction machines.
394
1160572
2753
porque los describen como máquinas de predicción.
19:23
And yet, what we're seeing out of them feels ...
395
1163367
2669
Sin embargo, lo que vemos fuera de ellos se siente...
19:26
it just feels impossible that that could come from a prediction machine.
396
1166036
3420
es que parece imposible que eso venga de una máquina de predicción.
19:29
Just the stuff you showed us just now.
397
1169456
2378
Solo con las cosas que nos mostraste ahorita.
19:31
And the key idea of emergence is that when you get more of a thing,
398
1171875
3838
Y la idea clave de la emergencia es que cuando consigues más de una cosa,
19:35
suddenly different things emerge.
399
1175754
1585
aparecen nuevas cosas.
19:37
It happens all the time, ant colonies, single ants run around,
400
1177339
3045
Suele pasar, las colonias de hormigas, las que solas corren
19:40
when you bring enough of them together,
401
1180384
1877
cuando reúnes suficientes de ellas,
19:42
you get these ant colonies that show completely emergent, different behavior.
402
1182302
3629
tienes colonias de hormigas que muestran un comportamiento diferente,
19:45
Or a city where a few houses together, it's just houses together.
403
1185973
3086
O una ciudad donde un par casas juntas, son sólo casas.
19:49
But as you grow the number of houses,
404
1189059
1794
Pero conforme aumenten las casas,
19:50
things emerge, like suburbs and cultural centers and traffic jams.
405
1190894
4588
surgen cosas, como suburbios y centros culturales y atascos de tráfico.
19:57
Give me one moment for you when you saw just something pop
406
1197276
3211
Dígame un momento en el que viste surgir
20:00
that just blew your mind
407
1200529
1668
algo que le dejó boquiabierto
20:02
that you just did not see coming.
408
1202197
1627
y que no vio venir.
20:03
GB: Yeah, well,
409
1203824
1209
GB: Sí, bueno,
20:05
so you can try this in ChatGPT, if you add 40-digit numbers --
410
1205075
3462
puedes probar esto en ChatGPT, si sumas números de 40 dígitos...
20:08
CA: 40-digit?
411
1208537
1168
CA: ¿40 dígitos?
20:09
GB: 40-digit numbers, the model will do it,
412
1209705
2169
GB: Números de 40 dígitos, el modelo lo hará,
20:11
which means it's really learned an internal circuit for how to do it.
413
1211915
3254
eso significa que aprendió un circuito interno de cómo hacerlo.
20:15
And the really interesting thing is actually,
414
1215210
2127
Y lo realmente interesante es que,
20:17
if you have it add like a 40-digit number plus a 35-digit number,
415
1217337
3212
si le pides que sume un número de 40 dígitos más uno de 35 dígitos,
20:20
it'll often get it wrong.
416
1220591
1710
a menudo lo tendrá mal.
20:22
And so you can see that it's really learning the process,
417
1222676
2795
Se puede ver que realmente está aprendiendo el proceso,
20:25
but it hasn't fully generalized, right?
418
1225471
1876
pero no está totalmente generalizado.
20:27
It's like you can't memorize the 40-digit addition table,
419
1227389
2711
Como no podes memorizar la tabla de suma de 40 dígitos,
20:30
that's more atoms than there are in the universe.
420
1230100
2294
son más átomos de los que hay en el universo.
20:32
So it had to have learned something general,
421
1232394
2086
Tuvo que haber aprendido algo general,
20:34
but that it hasn't really fully yet learned that,
422
1234480
2377
pero aún no ha aprendido del todo que,
20:36
Oh, I can sort of generalize this to adding arbitrary numbers
423
1236899
2961
A, puedo generalizar esto a la suma de números arbitrarios
20:39
of arbitrary lengths.
424
1239902
1167
a largos arbitrarios.
20:41
CA: So what's happened here
425
1241111
1335
CA: Así que lo que sucedió
20:42
is that you've allowed it to scale up
426
1242488
1793
es que le has permitido aumentar
20:44
and look at an incredible number of pieces of text.
427
1244281
2419
y mirar un increíble número de piezas de texto.
20:46
And it is learning things
428
1246742
1209
Y está aprendiendo cosas
20:47
that you didn't know that it was going to be capable of learning.
429
1247951
3379
que tú no sabías que iba a ser capaz de aprender.
20:51
GB Well, yeah, and it’s more nuanced, too.
430
1251371
2002
GB: Bueno, sí, y también es matizado.
20:53
So one science that we’re starting to really get good at
431
1253415
2878
Una ciencia en la que estamos empezando a ser buenos
20:56
is predicting some of these emergent capabilities.
432
1256335
2586
es predecir algunas de estas capacidades emergentes.
20:58
And to do that actually,
433
1258962
1335
Y para ello,
21:00
one of the things I think is very undersung in this field
434
1260339
2711
creo que es algo que se subestima mucho en este campo
21:03
is sort of engineering quality.
435
1263050
1501
es la calidad de la ingeniería.
21:04
Like, we had to rebuild our entire stack.
436
1264551
2044
Tuvimos que rehacer toda nuestra ‘stack’.
21:06
When you think about building a rocket,
437
1266637
1877
Piensa en la construcción de un cohete,
21:08
every tolerance has to be incredibly tiny.
438
1268555
2211
cada tolerancia es increíblemente pequeña.
21:10
Same is true in machine learning.
439
1270766
1626
Así es en aprendizaje automático.
21:12
You have to get every single piece of the stack engineered properly,
440
1272434
3212
Cada pieza del ‘stack’ tiene que estar diseñada correctamente,
21:15
and then you can start doing these predictions.
441
1275646
2210
y ahí puedes empezar a hacer predicciones.
21:17
There are all these incredibly smooth scaling curves.
442
1277856
2503
Hay estas curvas de escala increíblemente uniformes.
dicen algo esencial y profundo de la inteligencia.
21:20
They tell you something deeply fundamental about intelligence.
443
1280359
2919
Si ven el blog de GPT-4,
21:23
If you look at our GPT-4 blog post,
444
1283320
1710
pueden ver todas estas curvas allí.
21:25
you can see all of these curves in there.
445
1285030
1960
21:26
And now we're starting to be able to predict.
446
1286990
2127
Ahora somos capaces de predecir.
Así que pudimos predecir, ejemplo, rendimiento en problemas de codificación
21:29
So we were able to predict, for example, the performance on coding problems.
447
1289117
3713
21:32
We basically look at some models
448
1292871
1585
Básicamente nos fijamos en modelos
que son 10 000 veces o 1000 veces más pequeños.
21:34
that are 10,000 times or 1,000 times smaller.
449
1294456
2461
21:36
And so there's something about this that is actually smooth scaling,
450
1296959
3211
Hay algo en todo esto que permite escalar sin problemas
21:40
even though it's still early days.
451
1300170
2044
aunque aún es prematuro.
21:42
CA: So here is, one of the big fears then,
452
1302756
2544
CA: Entonces, uno de los grandes temores
21:45
that arises from this.
453
1305300
1252
que surge de esto.
21:46
If it’s fundamental to what’s happening here,
454
1306593
2127
Si es esencial para lo que está sucediendo,
21:48
that as you scale up,
455
1308720
1210
a medida que se escala,
21:49
things emerge that
456
1309930
2419
surgen cosas que
21:52
you can maybe predict in some level of confidence,
457
1312349
4171
tal vez se pueden predecir con cierto nivel de seguridad,
21:56
but it's capable of surprising you.
458
1316562
2544
pero que son capaces de sorprenderte.
22:00
Why isn't there just a huge risk of something truly terrible emerging?
459
1320816
4463
¿Por qué no hay un gran riesgo de que surja algo verdaderamente terrible?
22:05
GB: Well, I think all of these are questions of degree
460
1325320
2545
GB: Bueno, creo que son cuestiones de grado,
22:07
and scale and timing.
461
1327865
1209
de escala y de tiempo.
Creo también que la gente no se percata
22:09
And I think one thing people miss, too,
462
1329116
1877
22:10
is sort of the integration with the world is also this incredibly emergent,
463
1330993
3587
de que la integración con el mundo es algo increíblemente emergente,
22:14
sort of, very powerful thing too.
464
1334621
1585
y también poderoso.
Es una de las razones creemos que es importante
22:16
And so that's one of the reasons that we think it's so important
465
1336248
3045
integrarse gradualmente.
22:19
to deploy incrementally.
466
1339293
1167
Creo que lo que vemos ahorita, si nos fijamos en esta charla,
22:20
And so I think that what we kind of see right now, if you look at this talk,
467
1340502
3629
me enfoco bastante en dar retroalimentación de alta calidad.
22:24
a lot of what I focus on is providing really high-quality feedback.
468
1344131
3170
Actualmente, podemos revisar las tareas que hacemos, ¿no?
22:27
Today, the tasks that we do, you can inspect them, right?
469
1347301
2711
Es fácil ver ese problema de matemáticas y ser como, no, no, no,
22:30
It's very easy to look at that math problem and be like, no, no, no,
470
1350012
3211
máquina, la respuesta correcta era siete.
22:33
machine, seven was the correct answer.
471
1353265
1835
Incluso resumir un libro, eso es algo difícil de supervisar.
22:35
But even summarizing a book, like, that's a hard thing to supervise.
472
1355100
3212
¿Cómo sabes si el resumen de este libro es bueno?
22:38
Like, how do you know if this book summary is any good?
473
1358312
2586
Tienes que leer el libro entero.
22:40
You have to read the whole book.
474
1360939
1543
Nadie quiere hacer eso.
22:42
No one wants to do that.
475
1362482
1168
(Risas)
22:43
(Laughter)
476
1363692
1293
22:44
And so I think that the important thing will be that we take this step by step.
477
1364985
4296
Así que creo que lo importante será que tomemos esto paso a paso.
22:49
And that we say, OK, as we move on to book summaries,
478
1369323
2544
Digamos, ok, conforme avancemos con resúmenes de libros,
22:51
we have to supervise this task properly.
479
1371867
1960
tenemos que supervisar esta tarea bien.
22:53
We have to build up a track record with these machines
480
1373827
2586
Tenemos que construir un historial con estas máquinas
22:56
that they're able to actually carry out our intent.
481
1376413
2586
que son capaces de llevar a cabo nuestra intención.
22:59
And I think we're going to have to produce even better, more efficient,
482
1379041
3336
creo que vamos a tener que producir mejores, más eficientes,
23:02
more reliable ways of scaling this,
483
1382419
1710
formas más fiables de escalar esto,
23:04
sort of like making the machine be aligned with you.
484
1384129
2878
algo así como hacer que la máquina esté alineada contigo.
CA: Escucharemos más adelante en esta sesión,
23:07
CA: So we're going to hear later in this session,
485
1387049
2294
23:09
there are critics who say that,
486
1389343
1543
hay críticos que dicen que,
23:10
you know, there's no real understanding inside,
487
1390928
4587
usted sabe, no hay verdadera comprensión dentro,
23:15
the system is going to always --
488
1395557
1627
el sistema siempre va a...
23:17
we're never going to know that it's not generating errors,
489
1397225
3212
nunca vamos a saber que no está generando errores,
23:20
that it doesn't have common sense and so forth.
490
1400479
2210
que no tiene sentido común entre otras cosas.
23:22
Is it your belief, Greg, that it is true at any one moment,
491
1402689
4088
Tú crees, Greg, que en cualquier momento dado,
23:26
but that the expansion of the scale and the human feedback
492
1406818
3629
que la expansión de la escala y la retroalimentación humana
23:30
that you talked about is basically going to take it on that journey
493
1410489
4963
de la que hablaste básicamente va a llevarlo en ese viaje
23:35
of actually getting to things like truth and wisdom and so forth,
494
1415494
3837
de llegar a cosas como la verdad y la sabiduría y así sucesivamente,
23:39
with a high degree of confidence.
495
1419331
1627
con un alto grado de seguridad.
23:40
Can you be sure of that?
496
1420999
1335
¿Puedes asegurarte de eso?
23:42
GB: Yeah, well, I think that the OpenAI, I mean, the short answer is yes,
497
1422334
3462
GB: Sí, bueno, creo que OpenAI, digo que, la respuesta corta es sí,
23:45
I believe that is where we're headed.
498
1425796
1793
creo que ahí es donde nos dirigimos.
23:47
And I think that the OpenAI approach here has always been just like,
499
1427631
3211
Y creo que el enfoque de OpenAI aquí siempre ha sido como,
23:50
let reality hit you in the face, right?
500
1430842
1877
que la realidad te dé en la cara, ¿no?
23:52
It's like this field is the field of broken promises,
501
1432719
2503
Es como si este fuera el campo de promesas rotas,
23:55
of all these experts saying X is going to happen, Y is how it works.
502
1435263
3212
todos estos expertos diciendo que va a suceder X, y así funciona Y.
23:58
People have been saying neural nets aren't going to work for 70 years.
503
1438475
3337
La gente han dicho que la red neuronal no funcionarán por 70 años.
24:01
They haven't been right yet.
504
1441812
1376
Aún no han tenido razón.
24:03
They might be right maybe 70 years plus one
505
1443188
2044
Tal vez tendrán razón en 70 años más uno
24:05
or something like that is what you need.
506
1445232
1918
o algo así es lo que necesitas
24:07
But I think that our approach has always been,
507
1447192
2169
Pienso que, nuestro enfoque siempre ha sido,
24:09
you've got to push to the limits of this technology
508
1449361
2419
tienes que empujar al límite de esta tecnología
24:11
to really see it in action,
509
1451822
1293
para verla en acción,
24:13
because that tells you then, oh, here's how we can move on to a new paradigm.
510
1453115
3670
ya que te dice, ah, aquí es cómo podemos pasar a un nuevo paradigma.
24:16
And we just haven't exhausted the fruit here.
511
1456785
2127
Y aún no hemos agotado los frutos.
24:18
CA: I mean, it's quite a controversial stance you've taken,
512
1458954
2794
CA: Digo pues, es una postura controversial la que tomó,
24:21
that the right way to do this is to put it out there in public
513
1461748
2920
que la forma correcta de hacer esto es exponerlo al público
24:24
and then harness all this, you know,
514
1464710
1751
y luego utilizar todo esto, sabe,
24:26
instead of just your team giving feedback,
515
1466461
2002
de sólo tu equipo dando retroalimentación,
24:28
the world is now giving feedback.
516
1468463
2461
el mundo ahora está dando retroalimentación.
24:30
But ...
517
1470924
1168
Pero...
24:33
If, you know, bad things are going to emerge,
518
1473135
3753
Si usted sabe que van a surgir cosas malas,
24:36
it is out there.
519
1476930
1168
está ahí.
24:38
So, you know, the original story that I heard on OpenAI
520
1478140
2919
Así que, ya sabes, la historia original que escuché de OpenAI
24:41
when you were founded as a nonprofit,
521
1481101
1793
cuando se fundaron sin fines de lucro,
24:42
well you were there as the great sort of check on the big companies
522
1482894
4463
bueno, estabas allí como el gran tipo de control sobre las grandes empresas
24:47
doing their unknown, possibly evil thing with AI.
523
1487399
3837
haciendo sus cosas desconocidas, posiblemente malvadas con la IA.
24:51
And you were going to build models that sort of, you know,
524
1491278
4755
E ibas a construir modelos que, ya sabes,
24:56
somehow held them accountable
525
1496033
1418
los hicieran responsables
24:57
and was capable of slowing the field down, if need be.
526
1497492
4380
y fueran capaces de frenar el campo, si fuera necesario.
25:01
Or at least that's kind of what I heard.
527
1501872
1960
O al menos eso es lo que he oído.
25:03
And yet, what's happened, arguably, is the opposite.
528
1503832
2461
Pero se podría decir que es lo contrario.
25:06
That your release of GPT, especially ChatGPT,
529
1506334
5673
Tu lanzamiento de GPT, especialmente ChatGPT,
25:12
sent such shockwaves through the tech world
530
1512049
2002
ha conmocionado al mundo de la tecnología
25:14
that now Google and Meta and so forth are all scrambling to catch up.
531
1514051
3795
que ahora Google, Meta y el resto se apresuran a ponerse al día.
25:17
And some of their criticisms have been,
532
1517888
2085
Y algunas de sus críticas han sido,
25:20
you are forcing us to put this out here without proper guardrails or we die.
533
1520015
4963
que estás forzando a que pongan esto sin una baranda apropiada o morirán.
25:25
You know, how do you, like,
534
1525020
2794
Sabes, como te gustaría, pues,
25:27
make the case that what you have done is responsible here and not reckless.
535
1527814
3754
argumentar que lo que has hecho es responsable y no imprudente
25:31
GB: Yeah, we think about these questions all the time.
536
1531568
3128
GB: Sí, pensamos en estas preguntas todo el tiempo.
25:34
Like, seriously all the time.
537
1534738
1418
Como, en serio todo el tiempo.
25:36
And I don't think we're always going to get it right.
538
1536198
2711
Creo que no siempre vamos a tomarlo de manera correcta.
25:38
But one thing I think has been incredibly important,
539
1538909
2460
Pero algo que creo que ha sido muy importante,
25:41
from the very beginning, when we were thinking
540
1541411
2169
desde el principio, cuando estábamos pensando
25:43
about how to build artificial general intelligence,
541
1543580
2419
en cómo construir inteligencia artificial general,
25:45
actually have it benefit all of humanity,
542
1545999
2002
que realmente beneficie a la humanidad,
25:48
like, how are you supposed to do that, right?
543
1548001
2127
como se supone que vas a hacer eso, ¿no?
25:50
And that default plan of being, well, you build in secret,
544
1550170
2711
Y por defecto el plan de ser, bueno, lo armas en secreto,
25:52
you get this super powerful thing,
545
1552923
1626
obtienes esta cosa súper poderosa,
25:54
and then you figure out the safety of it and then you push “go,”
546
1554549
3003
y luego averiguas la seguridad de la misma y luego das “ya”,
25:57
and you hope you got it right.
547
1557552
1460
y esperas haberlo hecho bien.
25:59
I don't know how to execute that plan.
548
1559012
1835
No sé cómo ejecutar ese plan.
26:00
Maybe someone else does.
549
1560889
1168
Tal vez alguien más sí.
26:02
But for me, that was always terrifying, it didn't feel right.
550
1562099
2877
Pero para mí, eso siempre fue aterrador, no se sentía bien.
26:04
And so I think that this alternative approach
551
1564976
2128
Así que creo que este enfoque alternativo
26:07
is the only other path that I see,
552
1567104
2043
es el único camino que veo,
26:09
which is that you do let reality hit you in the face.
553
1569147
2503
que es dejar que la realidad te golpee en la cara.
26:11
And I think you do give people time to give input.
554
1571691
2336
Creo que debes dar a la gente tiempo para opinar.
26:14
You do have, before these machines are perfect,
555
1574027
2211
Antes de que estas máquinas sean perfectas,
26:16
before they are super powerful, that you actually have the ability
556
1576279
3128
antes de que sean súper potentes, que tengas la posibilidad
26:19
to see them in action.
557
1579407
1168
de verlas en acción.
26:20
And we've seen it from GPT-3, right?
558
1580617
1752
Y lo hemos visto desde GPT-3, ¿no?
26:22
GPT-3, we really were afraid
559
1582369
1376
GPT-3, realmente temíamos
26:23
that the number one thing people were going to do with it
560
1583745
2711
que lo primero que la gente iba a hacer era
generar desinformación, tratar de influir elecciones.
26:26
was generate misinformation, try to tip elections.
561
1586456
2336
26:28
Instead, the number one thing was generating Viagra spam.
562
1588834
2711
En lugar de eso, lo primero fue generar spam de Viagra.
26:31
(Laughter)
563
1591545
3169
(Risas)
26:36
CA: So Viagra spam is bad, but there are things that are much worse.
564
1596007
3212
CA: El spam de Viagra es malo, pero hay peores coses.
He aquí un experimento mental para usted.
26:39
Here's a thought experiment for you.
565
1599219
1752
26:40
Suppose you're sitting in a room,
566
1600971
1710
Suponga que estás sentado en un cuarto,
26:42
there's a box on the table.
567
1602681
1668
hay una caja sobre la mesa.
26:44
You believe that in that box is something that,
568
1604349
3003
Usted cree que en esa caja hay algo que,
26:47
there's a very strong chance it's something absolutely glorious
569
1607394
2961
hay una alta posibilidad que sea algo absolutamente glorioso
26:50
that's going to give beautiful gifts to your family and to everyone.
570
1610397
3920
que va a dar hermosos regalos a tu familia y a todo el mundo.
26:54
But there's actually also a one percent thing in the small print there
571
1614359
3629
Pero en realidad también hay un uno por ciento cosa en la letra pequeña allí
26:58
that says: “Pandora.”
572
1618029
1877
dice: “Pandora”.
26:59
And there's a chance
573
1619906
1669
Y hay una posibilidad
27:01
that this actually could unleash unimaginable evils on the world.
574
1621616
4088
de que esto en realidad podría desatar males inimaginables en el mundo.
27:06
Do you open that box?
575
1626538
1543
¿Abres esa caja?
27:08
GB: Well, so, absolutely not.
576
1628123
1460
GB: Bueno, absolutamente no.
27:09
I think you don't do it that way.
577
1629624
1919
Y creo que no lo haría de esa manera.
27:12
And honestly, like, I'll tell you a story that I haven't actually told before,
578
1632210
3796
Honestamente, te contaré una historia que no he contado antes,
27:16
which is that shortly after we started OpenAI,
579
1636006
2586
poco después de que empezáramos OpenAI,
27:18
I remember I was in Puerto Rico for an AI conference.
580
1638592
2711
Recuerdo, estaba en Puerto Rico en una conferencia de IA.
27:21
I'm sitting in the hotel room just looking out over this wonderful water,
581
1641344
3462
Estoy sentado en el cuarto del hotel viendo afuera la maravillosa agua,
27:24
all these people having a good time.
582
1644806
1752
todas estas personas divirtiéndose.
27:26
And you think about it for a moment,
583
1646558
1752
Y piensas en ello por un momento,
27:28
if you could choose for basically that Pandora’s box
584
1648310
4504
si pudieras elegir básicamente que la caja de Pandora
27:32
to be five years away
585
1652814
2711
estuviera a cinco años de aquí
27:35
or 500 years away,
586
1655567
1585
o a 500 años,
27:37
which would you pick, right?
587
1657194
1501
¿cuál elegirías, verdad?
27:38
On the one hand you're like, well, maybe for you personally,
588
1658737
2836
Por un lado estás como, bueno, tal vez personalmente,
27:41
it's better to have it be five years away.
589
1661573
2002
es mejor que sea dentro de cinco años.
27:43
But if it gets to be 500 years away and people get more time to get it right,
590
1663617
3628
Pero si llega a ser 500 años y la gente tiene más tiempo para hacerlo bien,
27:47
which do you pick?
591
1667287
1168
¿qué eliges?
27:48
And you know, I just really felt it in the moment.
592
1668496
2336
Y sabes, realmente lo sentí en el momento.
27:50
I was like, of course you do the 500 years.
593
1670874
2002
Pensé, por supuesto escoges a los 500 años.
27:53
My brother was in the military at the time
594
1673293
2002
Mi hermano estaba en el ejército en ese tiempo
27:55
and like, he puts his life on the line in a much more real way
595
1675295
2961
y como, él arriesga su vida de una manera mucho más real
27:58
than any of us typing things in computers
596
1678256
2628
que cualquiera de nosotros escribiendo en computadoras
28:00
and developing this technology at the time.
597
1680926
2585
y desarrollando esta tecnología en el momento.
28:03
And so, yeah, I'm really sold on the you've got to approach this right.
598
1683511
4547
Y sí, estoy convencido de que tienes que abordar esto correctamente.
28:08
But I don't think that's quite playing the field as it truly lies.
599
1688058
3628
Pero no creo que eso sea jugar en el campo como realmente es.
28:11
Like, if you look at the whole history of computing,
600
1691686
2670
Si nos fijamos en toda la historia de la informática,
28:14
I really mean it when I say that this is an industry-wide
601
1694397
4463
lo digo en serio cuando digo que se trata de una industria
28:18
or even just almost like
602
1698902
1543
o incluso sólo casi como
28:20
a human-development- of-technology-wide shift.
603
1700487
3336
un desarrollo humano de la tecnología.
28:23
And the more that you sort of, don't put together the pieces
604
1703865
4088
Y cuanto más, no juntas las piezas
28:27
that are there, right,
605
1707994
1293
que están ahí,
28:29
we're still making faster computers,
606
1709329
1752
estamos haciendo ordenadores rápidos,
28:31
we're still improving the algorithms, all of these things, they are happening.
607
1711081
3670
todavía estamos mejorando los algoritmos, todo esto está sucediendo.
28:34
And if you don't put them together, you get an overhang,
608
1714793
2627
Y si no lo juntas, obtienes un voladizo,
significa que si alguien lo hace,
28:37
which means that if someone does,
609
1717420
1627
o el momento en que alguien logra conectarse al circuito,
28:39
or the moment that someone does manage to connect to the circuit,
610
1719089
3086
entonces de repente tienes esta cosa muy poderosa,
28:42
then you suddenly have this very powerful thing,
611
1722175
2252
nadie tuvo tiempo de adaptarse,
28:44
no one's had any time to adjust,
612
1724427
1544
quién sabe qué precauciones de seguridad tienes.
28:46
who knows what kind of safety precautions you get.
613
1726012
2336
28:48
And so I think that one thing I take away
614
1728390
1918
Y creo que una cosa que llevo de esto
28:50
is like, even you think about development of other sort of technologies,
615
1730308
3837
es que si piensas en el desarrollo de otras tecnologías,
28:54
think about nuclear weapons,
616
1734187
1376
piensa en armas nucleares,
28:55
people talk about being like a zero to one,
617
1735563
2002
la gente habla de estar cero a uno,
28:57
sort of, change in what humans could do.
618
1737565
2628
del tipo de cambio que humanos pueden hacer.
29:00
But I actually think that if you look at capability,
619
1740235
2461
Pero yo pienso que si miras la capacidad,
29:02
it's been quite smooth over time.
620
1742696
1585
ha estado tranquilo.
29:04
And so the history, I think, of every technology we've developed
621
1744281
3670
Entonces en la historia, yo pienso que cada tecnología que desarrollamos
29:07
has been, you've got to do it incrementally
622
1747993
2002
ha esto, y debes hacerlo por incrementos
29:10
and you've got to figure out how to manage it
623
1750036
2127
y tienes que averiguar de cómo manejarlo
29:12
for each moment that you're increasing it.
624
1752163
2461
por cada momento que lo vayas incrementando.
29:14
CA: So what I'm hearing is that you ...
625
1754666
2252
CA: Entonces lo que estoy escuchando, usted...
29:16
the model you want us to have
626
1756918
1668
el modelo que quiere que tengamos
29:18
is that we have birthed this extraordinary child
627
1758628
2795
es que hemos dado a luz a este niño extraordinario
29:21
that may have superpowers
628
1761423
2544
que pueda tener superpoderes
29:24
that take humanity to a whole new place.
629
1764009
2544
que lleve a la humanidad a un lugar totalmente nuevo.
29:26
It is our collective responsibility to provide the guardrails
630
1766594
5005
Es nuestra responsabilidad colectiva de darle las barandas de seguridad
29:31
for this child
631
1771641
1210
a este niño
29:32
to collectively teach it to be wise and not to tear us all down.
632
1772892
5047
de que juntos le enseñemos que sea sabio y que no nos destruya.
29:37
Is that basically the model?
633
1777939
1377
¿Sería eso el modelo?
29:39
GB: I think it's true.
634
1779357
1168
GB: Pienso que es cierto.
29:40
And I think it's also important to say this may shift, right?
635
1780567
2878
Creo que algo importante que debo decir, puede cambiar, ¿no?
29:43
We've got to take each step as we encounter it.
636
1783445
3253
Debemos tomar cada paso como vamos.
29:46
And I think it's incredibly important today
637
1786740
2002
Y creo que es importantísimo que hoy
29:48
that we all do get literate in this technology,
638
1788783
2878
que todos sepamos de esta tecnología,
29:51
figure out how to provide the feedback,
639
1791661
1919
pensar en cómo darle retroalimentación,
29:53
decide what we want from it.
640
1793621
1377
decidir qué queremos de él.
29:54
And my hope is that that will continue to be the best path,
641
1794998
3128
Y espero que ese siga siendo el mejor camino
29:58
but it's so good we're honestly having this debate
642
1798168
2377
Y está bueno que tengamos este debate
30:00
because we wouldn't otherwise if it weren't out there.
643
1800545
2628
no lo tendríamos si no estuviera ahí afuera.
30:03
CA: Greg Brockman, thank you so much for coming to TED and blowing our minds.
644
1803631
3629
CA: Greg Brockman, muchas gracias por venir a TED y asombrarnos.
30:07
(Applause)
645
1807302
1626
(Aplausos)
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7