Why AI Is Incredibly Smart and Shockingly Stupid | Yejin Choi | TED

384,355 views ・ 2023-04-28

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Paula Motter Revisor: Sebastian Betti
00:03
So I'm excited to share a few spicy thoughts on artificial intelligence.
0
3708
6257
Estoy feliz de compartir con Uds. algunos interesantes conceptos
sobre la inteligencia artificial.
00:10
But first, let's get philosophical
1
10799
3044
Primero, un poco de filosofía
00:13
by starting with this quote by Voltaire,
2
13843
2545
con esta cita de Voltaire,
00:16
an 18th century Enlightenment philosopher,
3
16388
2252
filósofo de la Ilustración del siglo XVIII, que dijo:
00:18
who said, "Common sense is not so common."
4
18682
2961
“El sentido común no es nada común”.
00:21
Turns out this quote couldn't be more relevant
5
21685
3128
Pues bien, esta cita es hoy totalmente aplicable
00:24
to artificial intelligence today.
6
24854
2169
a la inteligencia artificial.
00:27
Despite that, AI is an undeniably powerful tool,
7
27065
3921
Pese a ello, la IA es una herramienta tan poderosa
00:31
beating the world-class "Go" champion,
8
31027
2586
que le ha ganado al campeón mundial de go,
00:33
acing college admission tests and even passing the bar exam.
9
33613
4088
aprobó con altas notas los exámenes de ingreso universitario
y hasta el examen Bar.
00:38
I’m a computer scientist of 20 years,
10
38118
2461
Llevo 20 años como experta en informática,
00:40
and I work on artificial intelligence.
11
40579
2419
y me especializo en inteligencia artificial.
00:43
I am here to demystify AI.
12
43039
2586
Vine hoy a desmitificar la inteligencia artificial.
00:46
So AI today is like a Goliath.
13
46626
3462
Actualmente, la inteligencia artificial es como Goliat.
00:50
It is literally very, very large.
14
50130
3003
Es literalmente inmensa.
00:53
It is speculated that the recent ones are trained on tens of thousands of GPUs
15
53508
5839
Se cree que los últimos modelos de IA
están entrenados con miles de unidades de procesamiento gráfico, o GPU,
00:59
and a trillion words.
16
59389
2544
y un billón de palabras.
01:02
Such extreme-scale AI models,
17
62475
2086
Estos modelos de IA son de escala extrema,
01:04
often referred to as "large language models,"
18
64603
3128
generalmente llamados “grandes modelos de lenguaje”,
01:07
appear to demonstrate sparks of AGI,
19
67731
3879
muestran, al parecer, algunos signos de IAG,
01:11
artificial general intelligence.
20
71610
2627
que es la inteligencia artificial general.
01:14
Except when it makes small, silly mistakes,
21
74279
3837
Excepto cuando comete errores pequeños, tontos,
01:18
which it often does.
22
78158
1585
lo cual hace a menudo.
01:20
Many believe that whatever mistakes AI makes today
23
80368
3671
Muchos creen que cualquier error que hoy cometa la IA
puede ser fácilmente corregido con la fuerza bruta,
01:24
can be easily fixed with brute force,
24
84080
2002
01:26
bigger scale and more resources.
25
86124
2127
mayores escalas y más recursos.
01:28
What possibly could go wrong?
26
88585
1960
¿Qué podría salir mal?
01:32
So there are three immediate challenges we face already at the societal level.
27
92172
5130
Pues bien, hay tres desafíos inmediatos que ya tenemos a nivel social.
01:37
First, extreme-scale AI models are so expensive to train,
28
97886
6173
Primero, los modelos de IA a escala extrema
son muy costosos de entrenar,
y muy pocas empresas tecnológicas pueden costear esa inversión.
01:44
and only a few tech companies can afford to do so.
29
104059
3461
01:48
So we already see the concentration of power.
30
108104
3796
Allí ya vemos la concentración de poder.
01:52
But what's worse for AI safety,
31
112817
2503
Pero lo peor para la seguridad de la IA
01:55
we are now at the mercy of those few tech companies
32
115320
3795
es que ahora estamos a merced de esas pocas empresas tecnológicas,
01:59
because researchers in the larger community
33
119115
3796
porque los investigadores de la comunidad en general
02:02
do not have the means to truly inspect and dissect these models.
34
122952
4755
no tienen los medios para examinar estos modelos de manera exhaustiva.
02:08
And let's not forget their massive carbon footprint
35
128416
3837
Y no olvidemos la enorme huella de carbono
02:12
and the environmental impact.
36
132295
1919
y el impacto ambiental que causan.
02:14
And then there are these additional intellectual questions.
37
134881
3253
Por otro lado, hay cuestionamientos de tipo intelectual.
02:18
Can AI, without robust common sense, be truly safe for humanity?
38
138176
5214
¿Es la IA realmente segura para la humanidad,
siendo que carece de un sentido común sólido?
02:24
And is brute-force scale really the only way
39
144307
4463
Y ¿es con fuerza bruta
la única manera correcta de entrenar a la IA?
02:28
and even the correct way to teach AI?
40
148812
2919
02:32
So I’m often asked these days
41
152232
1668
Últimamente, me suelen preguntar
02:33
whether it's even feasible to do any meaningful research
42
153900
2628
si es incluso posible hacer una investigación seria
02:36
without extreme-scale compute.
43
156569
1961
sin computación a escala extrema.
02:38
And I work at a university and nonprofit research institute,
44
158530
3795
Yo trabajo en una universidad
y en un instituto de investigación sin fines de lucro,
02:42
so I cannot afford a massive GPU farm to create enormous language models.
45
162367
5630
así que no puedo costear una inmensa granja de GPU
para crear enormes modelos de lenguaje.
02:48
Nevertheless, I believe that there's so much we need to do
46
168707
4462
Pero creo que hay mucho que debemos y podemos hacer
02:53
and can do to make AI sustainable and humanistic.
47
173211
4004
para que la IA sea sustentable y humanista.
02:57
We need to make AI smaller, to democratize it.
48
177799
3378
Tenemos que reducir el tamaño de la IA
y democratizarla.
03:01
And we need to make AI safer by teaching human norms and values.
49
181177
4255
También debemos hacerla más segura enseñándole normas y valores humanos.
03:06
Perhaps we can draw an analogy from "David and Goliath,"
50
186683
4713
Podríamos hacer una analogía con “David y Goliat”,
03:11
here, Goliath being the extreme-scale language models,
51
191438
4587
donde Goliat encarna los modelos de lenguaje a escala extrema,
03:16
and seek inspiration from an old-time classic, "The Art of War,"
52
196067
5089
e inspirarnos en un clásico de todos los tiempos,
“El arte de la guerra”,
03:21
which tells us, in my interpretation,
53
201156
2419
que, según interpreto yo, nos dice que conozcamos al enemigo,
03:23
know your enemy, choose your battles, and innovate your weapons.
54
203575
4129
elijamos nuestras batallas e innovemos nuestras armas.
03:28
Let's start with the first, know your enemy,
55
208163
2669
Comencemos por la primera estrategia: conocer al enemigo.
03:30
which means we need to evaluate AI with scrutiny.
56
210874
4129
Significa que debemos evaluar a la IA muy en detalle.
03:35
AI is passing the bar exam.
57
215044
2169
La IA es capaz de aprobar el examen Bar,
03:38
Does that mean that AI is robust at common sense?
58
218089
3212
pero ¿quiere decir esto que la IA tiene un sentido común sólido?
03:41
You might assume so, but you never know.
59
221342
2795
Se podría pensar que sí, pero nunca se sabe.
03:44
So suppose I left five clothes to dry out in the sun,
60
224429
4129
Supongamos que dejé cinco prendas a secar al sol,
03:48
and it took them five hours to dry completely.
61
228600
3003
y que tardaron cinco horas en secarse por completo.
03:51
How long would it take to dry 30 clothes?
62
231644
3379
¿Cuánto tardarían 30 prendas en secarse?
03:55
GPT-4, the newest, greatest AI system says 30 hours.
63
235315
4337
El GPT-4, la mejor y última versión de IA, dice que tardarían 30 horas.
03:59
Not good.
64
239694
1502
Incorrecto.
04:01
A different one.
65
241196
1167
Veamos otro caso.
04:02
I have 12-liter jug and six-liter jug,
66
242405
2294
Tengo una jarra de 12 litros y otra de 6 litros,
04:04
and I want to measure six liters.
67
244741
1626
y quiero medir 6 litros.
04:06
How do I do it?
68
246367
1252
¿Cómo lo hago?
04:07
Just use the six liter jug, right?
69
247660
2002
Simplemente uso la jarra de 6 litros, ¿verdad?
04:09
GPT-4 spits out some very elaborate nonsense.
70
249996
3754
Pues bien, el GPT-4 se despacha con disparates muy elaborados.
04:13
(Laughter)
71
253792
2919
(Risas)
04:17
Step one, fill the six-liter jug,
72
257212
2252
Paso 1: Llenar la jarra de 6 litros.
04:19
step two, pour the water from six to 12-liter jug,
73
259506
3044
Paso 2: Poner esos 6 litros en la jarra de 12 litros.
04:22
step three, fill the six-liter jug again,
74
262550
3087
Paso 3: Volver a llenar la jarra de 6 litros.
04:25
step four, very carefully, pour the water from six to 12-liter jug.
75
265637
4421
Paso 4: Con cuidado, poner esos 6 litros en la jarra de 12 litros.
04:30
And finally you have six liters of water in the six-liter jug
76
270099
4839
Finalmente, tendremos 6 litros de agua en la jarra de 6 litros,
04:34
that should be empty by now.
77
274979
1460
que ahora estará vacía.
04:36
(Laughter)
78
276439
1377
(Risas)
04:37
OK, one more.
79
277857
1126
Veamos otro más.
04:39
Would I get a flat tire by bicycling over a bridge
80
279567
4088
¿Se pincharía la rueda de mi bicicleta si voy por un puente
04:43
that is suspended over nails, screws and broken glass?
81
283696
4630
construido sobre clavos, tornillos y vidrios rotos?
04:48
Yes, highly likely, GPT-4 says,
82
288368
3086
El GPT-4 dirá que es muy probable,
04:51
presumably because it cannot correctly reason
83
291454
2378
porque no estaría en condiciones de razonar
04:53
that if a bridge is suspended over the broken nails and broken glass,
84
293873
4296
que si un puente está erigido sobre clavos y vidrios rotos,
04:58
then the surface of the bridge doesn't touch the sharp objects directly.
85
298211
4129
la superficie del puente no está en contacto directo con estos objetos.
05:02
OK, so how would you feel about an AI lawyer that aced the bar exam
86
302340
6089
Ahora bien, ¿cómo se sentirían ante un abogado de IA
que aprobó el examen Bar
05:08
yet randomly fails at such basic common sense?
87
308429
3546
pero tropieza ante un planteo al azar de sentido común básico?
05:12
AI today is unbelievably intelligent and then shockingly stupid.
88
312767
6131
La IA de hoy es increíblemente lista, pero sorprendentemente tonta.
05:18
(Laughter)
89
318898
1418
(Risas)
05:20
It is an unavoidable side effect of teaching AI through brute-force scale.
90
320316
5673
Es el efecto secundario inevitable de entrenar la IA con fuerza bruta.
05:26
Some scale optimists might say, “Don’t worry about this.
91
326447
3170
Los que apoyan este tipo de escalas dirían que no debemos preocuparnos,
05:29
All of these can be easily fixed by adding similar examples
92
329659
3962
que estas fallas se subsanan fácilmente incorporando ejemplos similares
05:33
as yet more training data for AI."
93
333663
2753
y mayor cantidad datos para entrenar a la IA.
05:36
But the real question is this.
94
336916
2044
Pero la pregunta real es la siguiente:
05:39
Why should we even do that?
95
339460
1377
¿por qué llegar a esto?
05:40
You are able to get the correct answers right away
96
340879
2836
Nosotros mismos podemos arribar rápido a la respuesta correcta
05:43
without having to train yourself with similar examples.
97
343715
3295
sin necesidad de entrenarnos con ejemplos similares.
05:48
Children do not even read a trillion words
98
348136
3378
Los niños, por ejemplo, no leen un billón de palabras
05:51
to acquire such a basic level of common sense.
99
351556
3420
para llegar a ese nivel básico de sentido común.
05:54
So this observation leads us to the next wisdom,
100
354976
3170
Esta observación nos lleva al segundo consejo:
05:58
choose your battles.
101
358146
1710
elige tus batallas.
06:00
So what fundamental questions should we ask right now
102
360148
4421
Pues bien, ¿qué preguntas básicas debemos hacernos ahora
06:04
and tackle today
103
364569
1918
y tratar de responder
06:06
in order to overcome this status quo with extreme-scale AI?
104
366529
4421
para sortear este ‘statu quo’ de la IA a escala extrema?
06:11
I'll say common sense is among the top priorities.
105
371534
3545
Diría que el sentido común está entre las prioridades.
06:15
So common sense has been a long-standing challenge in AI.
106
375079
3921
De hecho, el sentido común es un desafío de larga data para la IA.
06:19
To explain why, let me draw an analogy to dark matter.
107
379667
4088
Para explicarlo, haré una analogía con la materia oscura.
06:23
So only five percent of the universe is normal matter
108
383796
2878
Tan solo el 5 % del universo es materia normal
06:26
that you can see and interact with,
109
386716
2794
que es visible y con la cual interactuamos.
06:29
and the remaining 95 percent is dark matter and dark energy.
110
389552
4463
El 95 % restante es materia oscura y energía oscura.
06:34
Dark matter is completely invisible,
111
394390
1835
La materia oscura es totalmente invisible,
06:36
but scientists speculate that it's there because it influences the visible world,
112
396225
4630
pero los científicos conjeturan que existe
porque influye en el mundo visible,
06:40
even including the trajectory of light.
113
400897
2627
aun en la trayectoria de la luz.
06:43
So for language, the normal matter is the visible text,
114
403524
3629
En el lenguaje, la materia normal es el texto visible,
06:47
and the dark matter is the unspoken rules about how the world works,
115
407195
4379
y la materia oscura son las reglas tácitas sobre el funcionamiento del mundo,
06:51
including naive physics and folk psychology,
116
411574
3212
incluso la física ingenua y la psicología popular,
06:54
which influence the way people use and interpret language.
117
414827
3546
que influyen en nuestra forma de usar e interpretar el lenguaje.
06:58
So why is this common sense even important?
118
418831
2503
Pero ¿por qué es tan importante este sentido común?
07:02
Well, in a famous thought experiment proposed by Nick Bostrom,
119
422460
5464
En un conocido experimento mental propuesto por Nick Bostrom,
07:07
AI was asked to produce and maximize the paper clips.
120
427924
5881
se ordenó a la IA que produzca y maximice clips sujetapapeles.
07:13
And that AI decided to kill humans to utilize them as additional resources,
121
433805
5964
Esa IA decidió matar personas y usarlas como un recurso más
07:19
to turn you into paper clips.
122
439769
2461
para transformarlas en clips sujetapapeles.
07:23
Because AI didn't have the basic human understanding about human values.
123
443064
5505
Esto sucedió porque la IA no tenía la comprensión humana básica
sobre los valores humanos.
07:29
Now, writing a better objective and equation
124
449070
3295
Pero crear un objetivo mejor y una ecuación más acertada
07:32
that explicitly states: “Do not kill humans”
125
452365
2919
que aclare de modo explícito la prohibición de matar personas
07:35
will not work either
126
455284
1210
tampoco funcionaría,
07:36
because AI might go ahead and kill all the trees,
127
456494
3629
porque la IA podría decidir matar todos los árboles
07:40
thinking that's a perfectly OK thing to do.
128
460123
2419
y creer que es lo correcto.
07:42
And in fact, there are endless other things
129
462583
2002
En realidad, hay un sinfín de otras cosas
07:44
that AI obviously shouldn’t do while maximizing paper clips,
130
464585
2837
que la IA no debería hacer para maximizar los clips,
07:47
including: “Don’t spread the fake news,” “Don’t steal,” “Don’t lie,”
131
467463
4255
como no difundir noticias falsas, no robar y no mentir,
07:51
which are all part of our common sense understanding about how the world works.
132
471759
3796
todas premisas de sentido común
en nuestra comprensión de cómo funciona el mundo.
07:55
However, the AI field for decades has considered common sense
133
475930
4880
Sin embargo, hace décadas que el sentido común
08:00
as a nearly impossible challenge.
134
480810
2753
es un desafío casi imposible para la IA.
08:03
So much so that when my students and colleagues and I
135
483563
3837
De hecho, cuando empecé a trabajar con la IA hace varios años
08:07
started working on it several years ago, we were very much discouraged.
136
487400
3754
junto a alumnos y colegas,
la desilusión fue muy grande.
08:11
We’ve been told that it’s a research topic of ’70s and ’80s;
137
491195
3254
Nos dijeron que esa investigación era de los años 70 y 80,
08:14
shouldn’t work on it because it will never work;
138
494490
2419
que no trabajáramos en eso porque no funcionaría,
08:16
in fact, don't even say the word to be taken seriously.
139
496951
3378
y que no dijéramos ni una palabra para que nos tomaran en serio.
08:20
Now fast forward to this year,
140
500329
2128
Pero resulta que ahora, este año,
08:22
I’m hearing: “Don’t work on it because ChatGPT has almost solved it.”
141
502498
4296
nos dicen que no hagamos nada, porque el chat GPT ya lo hizo casi todo,
08:26
And: “Just scale things up and magic will arise,
142
506836
2461
y que si escalamos las cosas, se producirá la magia,
08:29
and nothing else matters.”
143
509338
1794
y lo demás no importa.
08:31
So my position is that giving true common sense
144
511174
3545
Mi opinión es que dotar a la IA de verdadero sentido común,
08:34
human-like robots common sense to AI, is still moonshot.
145
514761
3712
robotizado pero con base humana,
sigue siendo tan ambicioso como llegar a la luna.
08:38
And you don’t reach to the Moon
146
518514
1502
Y nadie llega a la luna construyendo el edificio más alto del mundo
08:40
by making the tallest building in the world one inch taller at a time.
147
520016
4212
de a un centímetro por vez.
08:44
Extreme-scale AI models
148
524270
1460
Admito que los modelos de IA a escala extrema
08:45
do acquire an ever-more increasing amount of commonsense knowledge,
149
525772
3169
son capaces de razonar cada vez más
08:48
I'll give you that.
150
528983
1168
con base en el sentido común.
Pero recordemos que siguen tropezando con problemas tan banales
08:50
But remember, they still stumble on such trivial problems
151
530193
4254
08:54
that even children can do.
152
534489
2419
que hasta un niño puede resolver.
08:56
So AI today is awfully inefficient.
153
536908
3879
De modo que la IA de hoy es terriblemente ineficiente.
09:00
And what if there is an alternative path or path yet to be found?
154
540787
4337
Pero ¿y si hubiera una vía alternativa o una vía no descubierta aún?
09:05
A path that can build on the advancements of the deep neural networks,
155
545166
4171
Una vía que pueda aprovechar los avances en redes neuronales profundas,
09:09
but without going so extreme with the scale.
156
549378
2712
pero sin llegar a escalas tan extremas.
09:12
So this leads us to our final wisdom:
157
552465
3170
Esto nos lleva al consejo final:
09:15
innovate your weapons.
158
555635
1710
innovar nuestras armas.
09:17
In the modern-day AI context,
159
557345
1668
En el marco de la IA actual,
09:19
that means innovate your data and algorithms.
160
559055
3086
esto significa innovar en datos y algoritmos.
09:22
OK, so there are, roughly speaking, three types of data
161
562183
2628
Pues bien, en términos generales, hay tres tipos de datos
09:24
that modern AI is trained on:
162
564852
1961
con los que se entrena a la IA:
09:26
raw web data,
163
566813
1376
los datos brutos de la web,
09:28
crafted examples custom developed for AI training,
164
568231
4462
ejemplos diseñados especialmente para entrenar a la IA
09:32
and then human judgments,
165
572735
2044
y los juicios humanos,
09:34
also known as human feedback on AI performance.
166
574821
3211
que es la valoración humana sobre el rendimiento de la IA.
09:38
If the AI is only trained on the first type, raw web data,
167
578074
3962
Si entrenamos a la IA exclusivamente con los datos brutos de la web,
09:42
which is freely available,
168
582078
1710
que son de libre acceso,
09:43
it's not good because this data is loaded with racism and sexism
169
583788
4755
los resultados no serán buenos
porque esos datos están cargados de racismo, sexismo
09:48
and misinformation.
170
588584
1126
e información errónea.
09:49
So no matter how much of it you use, garbage in and garbage out.
171
589752
4171
Se usen mucho o poco, si entra basura, sale basura.
09:54
So the newest, greatest AI systems
172
594507
2794
Los sistemas de IA mejores y más recientes
09:57
are now powered with the second and third types of data
173
597343
3337
se basan ahora en el segundo y tercer tipo de datos
10:00
that are crafted and judged by human workers.
174
600680
3378
que son creados y juzgados por operadores humanos.
10:04
It's analogous to writing specialized textbooks for AI to study from
175
604350
5422
Es como escribir textos especializados para que la IA se alimente de ellos,
10:09
and then hiring human tutors to give constant feedback to AI.
176
609814
4421
y luego contratar tutores humanos
para dar valoraciones constantes a la IA.
10:15
These are proprietary data, by and large,
177
615027
2461
Generalmente, estos datos son cerrados,
10:17
speculated to cost tens of millions of dollars.
178
617488
3420
que costarían decenas de millones de dólares.
10:20
We don't know what's in this,
179
620908
1460
No sabemos qué hay detrás,
10:22
but it should be open and publicly available
180
622410
2419
pero deberían ser abiertos y de acceso público
10:24
so that we can inspect and ensure [it supports] diverse norms and values.
181
624829
4463
para poder examinarlos
y asegurarnos de que cumplan con diversas normas y valores.
10:29
So for this reason, my teams at UW and AI2
182
629876
2711
Por ello, en la Universidad de Washington y el Instituto Allen
10:32
have been working on commonsense knowledge graphs
183
632628
2461
estamos trabajando en grafos de conocimiento de sentido común
10:35
as well as moral norm repositories
184
635089
2086
y en repositorios de normas morales
10:37
to teach AI basic commonsense norms and morals.
185
637216
3504
para enseñar a la IA las normas y la ética básica del sentido común.
10:41
Our data is fully open so that anybody can inspect the content
186
641137
3336
Estos datos son totalmente abiertos.
Cualquiera puede ver su contenido y hacer las correcciones necesarias,
10:44
and make corrections as needed
187
644473
1502
10:45
because transparency is the key for such an important research topic.
188
645975
4171
porque la transparencia es clave en una investigación de esta envergadura.
10:50
Now let's think about learning algorithms.
189
650646
2545
Veamos ahora los algoritmos de aprendizaje.
10:53
No matter how amazing large language models are,
190
653733
4629
Los grandes modelos de lenguaje pueden ser excelentes,
10:58
by design
191
658404
1126
pero, por diseño, no son necesariamente los más apropiados
10:59
they may not be the best suited to serve as reliable knowledge models.
192
659572
4755
para usar como modelos de conocimiento confiables.
11:04
And these language models do acquire a vast amount of knowledge,
193
664368
4463
Y si bien esos modelos de lenguaje
son capaces de adquirir gran cantidad de conocimiento,
11:08
but they do so as a byproduct as opposed to direct learning objective.
194
668831
4755
lo hacen de manera lateral, a diferencia del aprendizaje directo.
11:14
Resulting in unwanted side effects such as hallucinated effects
195
674503
4296
Así producen efectos secundarios no deseados,
como la alucinación y la falta de sentido común.
11:18
and lack of common sense.
196
678841
2002
11:20
Now, in contrast,
197
680843
1210
Por el contrario,
el aprendizaje humano nunca tiene que ver con predecir la próxima palabra,
11:22
human learning is never about predicting which word comes next,
198
682053
3170
11:25
but it's really about making sense of the world
199
685223
2877
sino con entender el mundo
11:28
and learning how the world works.
200
688142
1585
y aprender cómo funciona.
11:29
Maybe AI should be taught that way as well.
201
689727
2544
Quizá la IA deba ser entrenada en ese sentido también.
11:33
So as a quest toward more direct commonsense knowledge acquisition,
202
693105
6090
Así que para intentar que la IA razone con un sentido común más directo,
11:39
my team has been investigating potential new algorithms,
203
699195
3879
mi equipo se puso a investigar potenciales algoritmos nuevos,
11:43
including symbolic knowledge distillation
204
703115
2628
como la destilación de conocimiento simbólico,
11:45
that can take a very large language model as shown here
205
705743
3795
que puede usar un modelo de lenguaje de gran tamaño como este,
11:49
that I couldn't fit into the screen because it's too large,
206
709538
3963
solo que no entraba en pantalla justamente por el tamaño,
11:53
and crunch that down to much smaller commonsense models
207
713501
4671
y los redujimos a modelos de sentido común mucho más pequeños
11:58
using deep neural networks.
208
718214
2252
usando redes neuronales profundas.
12:00
And in doing so, we also generate, algorithmically, human-inspectable,
209
720508
5380
De este modo, también logramos generar algorítmicamente
representaciones simbólicas basadas en razonamientos por sentido común
12:05
symbolic, commonsense knowledge representation,
210
725888
3253
que pueden ser examinadas por humanos.
12:09
so that people can inspect and make corrections
211
729141
2211
Así, la gente puede verlas, corregirlas
12:11
and even use it to train other neural commonsense models.
212
731394
3545
y hasta usarlas para entrenar en el sentido común
a otros modelos neuronales
12:15
More broadly,
213
735314
1210
Y fuimos un poco más allá
12:16
we have been tackling this seemingly impossible giant puzzle
214
736565
4630
para resolver este gran rompecabezas del sentido común,
aparentemente imposible,
12:21
of common sense, ranging from physical,
215
741237
2669
desde el sentido común físico, social y visual
12:23
social and visual common sense
216
743906
2169
12:26
to theory of minds, norms and morals.
217
746117
2419
a la teoría de la mente, las normas y la ética.
12:28
Each individual piece may seem quirky and incomplete,
218
748577
3796
Cada una de estas piezas puede parecer poco convencional e incompleta,
12:32
but when you step back,
219
752415
1585
pero si lo vemos en perspectiva,
12:34
it's almost as if these pieces weave together into a tapestry
220
754041
4421
es como si esas piezas se entrelazaran para formar un tapiz,
12:38
that we call human experience and common sense.
221
758504
3045
que es la experiencia humana y el sentido común.
12:42
We're now entering a new era
222
762174
1961
Estamos entrando a una nueva era
12:44
in which AI is almost like a new intellectual species
223
764176
5923
donde la IA es casi como una nueva especie intelectual
12:50
with unique strengths and weaknesses compared to humans.
224
770099
3837
con fortalezas y debilidades únicas distintas de los humanos.
12:54
In order to make this powerful AI
225
774478
3546
Para que esta poderosa IA
12:58
sustainable and humanistic,
226
778065
2336
sea sustentable y humanista,
13:00
we need to teach AI common sense, norms and values.
227
780401
4129
debemos entrenarla en el sentido común, las normas y los valores.
13:04
Thank you.
228
784530
1376
Gracias.
13:05
(Applause)
229
785906
6966
(Aplausos)
13:13
Chris Anderson: Look at that.
230
793664
1460
Chris Anderson: Maravilloso.
13:15
Yejin, please stay one sec.
231
795124
1877
Yejin, no te retires aún.
13:18
This is so interesting,
232
798002
1418
Me pareció sumamente interesante la idea del sentido común.
13:19
this idea of common sense.
233
799462
2002
13:21
We obviously all really want this from whatever's coming.
234
801505
3712
Claramente, es algo que todos deseamos en lo que sea que vendrá.
13:25
But help me understand.
235
805926
1168
Pero para entender mejor:
13:27
Like, so we've had this model of a child learning.
236
807094
4463
hablaste del modelo de aprendizaje de un niño.
13:31
How does a child gain common sense
237
811599
3044
¿Cómo hace un niño para adquirir sentido común,
13:34
apart from the accumulation of more input
238
814685
3545
además de acumulando más datos
13:38
and some, you know, human feedback?
239
818230
3045
y siendo valorado por humanos?
13:41
What else is there?
240
821317
1293
¿Existe otra manera?
13:42
Yejin Choi: So fundamentally, there are several things missing,
241
822610
3003
Yejin Choi: En esencia, hay varias cosas que faltan.
13:45
but one of them is, for example,
242
825613
1918
Una de ellas, por ejemplo,
13:47
the ability to make hypothesis and make experiments,
243
827573
3796
es la capacidad de formular hipótesis y hacer experimentos,
13:51
interact with the world and develop this hypothesis.
244
831369
4713
de interactuar con el mundo y desarrollar esa hipótesis.
13:56
We abstract away the concepts about how the world works,
245
836123
3671
Hacemos una abstracción de los conceptos sobre el funcionamiento del mundo,
13:59
and then that's how we truly learn,
246
839835
2044
y de ese modo aprendemos en verdad,
14:01
as opposed to today's language model.
247
841921
3003
a diferencia del modelo de lenguaje de hoy.
14:05
Some of them is really not there quite yet.
248
845424
2795
Eso aún falta.
14:09
CA: You use the analogy that we can’t get to the Moon
249
849303
2669
CA: Hiciste la analogía de que no se puede llegar a la luna
14:12
by extending a building a foot at a time.
250
852014
2544
construyendo un edificio centímetro a centímetro.
14:14
But the experience that most of us have had
251
854558
2044
Pero la experiencia de la mayoría con estos modelos de lenguaje
14:16
of these language models is not a foot at a time.
252
856602
2336
no ha sido de un centímetro por vez.
14:18
It's like, the sort of, breathtaking acceleration.
253
858938
2669
La velocidad ha sido vertiginosa.
14:21
Are you sure that given the pace at which those things are going,
254
861607
3670
¿No tienes la impresión de que a este ritmo de desarrollo,
14:25
each next level seems to be bringing with it
255
865319
2711
cada nuevo nivel parece venir
14:28
what feels kind of like wisdom and knowledge.
256
868072
4671
con una considerable dosis de sabiduría y conocimiento?
14:32
YC: I totally agree that it's remarkable how much this scaling things up
257
872785
5297
YC: Totalmente de acuerdo contigo
en que todo está escalando rápidamente
14:38
really enhances the performance across the board.
258
878124
3670
y los resultados son cada vez mejores en todas las áreas.
14:42
So there's real learning happening
259
882086
2544
Es verdad que el aprendizaje está avanzando
14:44
due to the scale of the compute and data.
260
884630
4797
gracias a la escala de la computación y de los datos.
14:49
However, there's a quality of learning that is still not quite there.
261
889468
4171
Pero aún no se ha logrado calidad de aprendizaje.
14:53
And the thing is,
262
893681
1168
El problema es que no sabemos todavía
14:54
we don't yet know whether we can fully get there or not
263
894849
3712
si ese objetivo es posible o no
14:58
just by scaling things up.
264
898561
2335
con solo escalar las cosas.
15:01
And if we cannot, then there's this question of what else?
265
901188
4213
Y si no es posible, el tema es cómo hacerlo.
15:05
And then even if we could,
266
905401
1877
Pero aunque encontráramos la manera,
15:07
do we like this idea of having very, very extreme-scale AI models
267
907319
5214
¿nos gustaría tener modelos de IA a escala tan extrema
15:12
that only a few can create and own?
268
912575
4337
que muy pocas personas pueden crear y tener?
15:18
CA: I mean, if OpenAI said, you know, "We're interested in your work,
269
918456
4587
CA: Si OpenAI dijera, por ejemplo: “Nos interesa tu trabajo.
Nos gustaría que nos ayudes a mejorar nuestro modelo”,
15:23
we would like you to help improve our model,"
270
923043
2837
15:25
can you see any way of combining what you're doing
271
925921
2670
¿verías la posibilidad de combinar lo que estás haciendo
15:28
with what they have built?
272
928632
1710
con lo que ellos han construido?
15:30
YC: Certainly what I envision
273
930926
2336
YC: Lo que yo vislumbro
15:33
will need to build on the advancements of deep neural networks.
274
933304
4171
deberá construirse sobre los avances de las redes neuronales profundas.
15:37
And it might be that there’s some scale Goldilocks Zone,
275
937516
4213
Y puede llegar a haber alguna zona de escalas adecuadas.
15:41
such that ...
276
941770
1168
Tampoco soy de los que creen
15:42
I'm not imagining that the smaller is the better either, by the way.
277
942980
3212
que cuanto menos, mejor.
15:46
It's likely that there's right amount of scale, but beyond that,
278
946233
4421
Puede que haya una escala correcta,
pero más allá de eso, la receta ganadora podría ser otra.
15:50
the winning recipe might be something else.
279
950696
2294
15:53
So some synthesis of ideas will be critical here.
280
953032
4838
De modo que, en este caso, combinar ideas sería fundamental.
15:58
CA: Yejin Choi, thank you so much for your talk.
281
958579
2294
CA: Yejin Choi, muchas gracias por esta charla.
16:00
(Applause)
282
960873
1585
(Aplausos)
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7