Jeff Dean: AI isn't as smart as you think -- but it could be | TED

253,387 views ・ 2022-01-12

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Ernesto Martínez Revisor: Sebastian Betti
00:13
Hi, I'm Jeff.
0
13329
1583
Hola, soy Jeff.
00:15
I lead AI Research and Health at Google.
1
15746
2833
Dirijo AI Research and Health en Google.
00:18
I joined Google more than 20 years ago,
2
18621
1875
Me uní a Google hace más de 20 años,
00:20
when we were all wedged into a tiny office space,
3
20538
3166
cuando todos estábamos apretados en una pequeña oficina,
00:23
above what's now a T-Mobile store in downtown Palo Alto.
4
23704
2750
arriba de lo que hoy es una tienda T-Mobile en Palo Alto.
00:27
I've seen a lot of computing transformations in that time,
5
27163
2875
Vi muchas transformaciones informáticas en ese momento,
00:30
and in the last decade, we've seen AI be able to do tremendous things.
6
30079
3459
en la última década, hemos visto a la IA hacer cosas tremendas.
00:34
But we're still doing it all wrong in many ways.
7
34746
2542
Pero, nos seguimos equivocando de muchas formas.
00:37
That's what I want to talk to you about today.
8
37329
2209
Y, de eso es lo que quiero hablar hoy.
00:39
But first, let's talk about what AI can do.
9
39579
2209
Primero, hablemos de lo que la IA puede hacer.
00:41
So in the last decade, we've seen tremendous progress
10
41829
3292
En la última década, hemos visto un progreso tremendo
00:45
in how AI can help computers see, understand language,
11
45121
4333
en la forma en la que IA puede ayudar a las computadoras a entender el idioma,
00:49
understand speech better than ever before.
12
49496
2833
a entender el habla mejor que antes.
00:52
Things that we couldn't do before, now we can do.
13
52329
2583
Algo que antes no podíamos hacer, y ahora sí.
00:54
If you think about computer vision alone,
14
54954
2333
Si piensan solo en la visión artificial,
00:57
just in the last 10 years,
15
57329
1583
en los últimos 10 años,
00:58
computers have effectively developed the ability to see;
16
58912
2792
las computadoras han desarrollado la habilidad de ver;
01:01
10 years ago, they couldn't see, now they can see.
17
61746
2500
algo que hace 10 años no podían hacer, y ahora sí.
01:04
You can imagine this has had a transformative effect
18
64287
2500
pueden imaginarse el efecto transformador de esto
01:06
on what we can do with computers.
19
66787
2209
en lo que podemos hacer con las computadoras.
01:08
So let's look at a couple of the great applications
20
68996
2500
Veamos un par de grandes aplicaciones
01:11
enabled by these capabilities.
21
71496
2000
habilitadas por estas capacidades.
01:13
We can better predict flooding, keep everyone safe,
22
73537
2417
Predecir las inundaciones, salvaguardar a todos,
01:15
using machine learning.
23
75996
1500
con el aprendizaje automático.
01:17
We can translate over 100 languages so we all can communicate better,
24
77538
3250
traducir más de 100 idiomas y comunicarnos mejor,
01:20
and better predict and diagnose disease,
25
80788
2000
y diagnosticar mejor las enfermedades,
01:22
where everyone gets the treatment that they need.
26
82788
2333
para recibir el tratamiento necesario.
01:25
So let's look at two key components
27
85163
1916
Veamos dos componentes clave
01:27
that underlie the progress in AI systems today.
28
87121
2333
que sustentan el progreso de los sistemas de IA.
01:30
The first is neural networks,
29
90121
1542
Primero, las redes neuronales,
01:31
a breakthrough approach to solving some of these difficult problems
30
91704
3417
un enfoque innovador para resolver algunos de estos problemas difíciles
01:35
that has really shone in the last 15 years.
31
95121
2833
que realmente ha brillado en los últimos 15 años.
01:37
But they're not a new idea.
32
97954
1625
sin embargo, no es una idea nueva.
01:39
And the second is computational power.
33
99621
1833
Segundo, la capacidad informática.
01:41
It actually takes a lot of computational power
34
101454
2167
Se requiere mucho de esta capacidad
01:43
to make neural networks able to really sing,
35
103663
2083
para que las redes neuronales canten,
01:45
and in the last 15 years, we’ve been able to halve that,
36
105746
3375
y en los últimos 15 años, hemos podido reducir eso a la mitad,
01:49
and that's partly what's enabled all this progress.
37
109121
2458
y en parte, eso ha permitido todo este progreso.
01:51
But at the same time, I think we're doing several things wrong,
38
111954
3459
Pero al mismo tiempo, pienso que nos estamos equivocando mucho,
01:55
and that's what I want to talk to you about
39
115413
2000
y eso es de lo que quiero hablar
01:57
at the end of the talk.
40
117454
1167
al final de la charla.
01:58
First, a bit of a history lesson.
41
118663
1958
Primero, un poco de historia.
02:00
So for decades,
42
120663
1208
Por décadas,
02:01
almost since the very beginning of computing,
43
121913
2125
casi desde el inicio de la computación,
02:04
people have wanted to be able to build computers
44
124079
2250
las personas han querido construir computadoras
02:06
that could see, understand language, understand speech.
45
126329
3917
que puedan ver y entender el idioma, el habla en sí.
02:10
The earliest approaches to this, generally,
46
130579
2000
En los primeros acercamientos a esto,
02:12
people were trying to hand-code all the algorithms
47
132621
2333
se trataba de codificar a mano los algoritmos
02:14
that you need to accomplish those difficult tasks,
48
134996
2458
necesarios para cumplir tareas difíciles,
02:17
and it just turned out to not work very well.
49
137454
2375
y resultó que no función tan bien.
02:19
But in the last 15 years, a single approach
50
139829
3250
Pero en los últimos 15 años, un simple enfoque
02:23
unexpectedly advanced all these different problem spaces all at once:
51
143079
4167
inesperadamente, fue un avance a todos estos problemas:
02:27
neural networks.
52
147954
1542
las redes neuronales.
02:29
So neural networks are not a new idea.
53
149538
1833
esto no es una idea nueva.
02:31
They're kind of loosely based
54
151371
1417
Vagamente, se basan en
02:32
on some of the properties that are in real neural systems.
55
152788
3041
algunas propiedades que hay en los sistemas neuronales reales.
02:35
And many of the ideas behind neural networks
56
155829
2084
y muchas de las ideas detrás de ellas
02:37
have been around since the 1960s and 70s.
57
157954
2250
han estado ahí desde 1960 y 1970.
02:40
A neural network is what it sounds like,
58
160204
2167
Una red neuronal es como se oye,
02:42
a series of interconnected artificial neurons
59
162413
2708
una serie de neuronas artificiales interconectadas
02:45
that loosely emulate the properties of your real neurons.
60
165121
3000
que vagamente imitan las propiedades de las neuronas reales.
02:48
An individual neuron in one of these systems
61
168163
2166
Una sola neurona en uno de estos sistemas
02:50
has a set of inputs,
62
170371
1417
tiene varias entradas,
02:51
each with an associated weight,
63
171788
2041
con un peso asociado,
02:53
and the output of a neuron
64
173871
1833
y la salida de una neurona
02:55
is a function of those inputs multiplied by those weights.
65
175704
3209
es una función de las entradas multiplicada por los pesos.
02:59
So pretty simple,
66
179288
1208
Así de simple,
03:00
and lots and lots of these work together to learn complicated things.
67
180538
3666
y muchos de estos trabajan juntos para aprender cosas más complicadas.
03:04
So how do we actually learn in a neural network?
68
184496
2833
Entonces, ¿cómo se aprende en un sistema neuronal?
03:07
It turns out the learning process
69
187371
1708
El proceso de aprendizaje
03:09
consists of repeatedly making tiny little adjustments
70
189079
2792
consiste en hacer pequeños ajustes
03:11
to the weight values,
71
191913
1208
en los valores de peso,
03:13
strengthening the influence of some things,
72
193121
2042
reforzando la influencia de algunas cosas,
03:15
weakening the influence of others.
73
195204
1959
y debilitando aquella de otras.
03:17
By driving the overall system towards desired behaviors,
74
197204
3917
Al conducir el sistema general hacia los comportamientos deseados,
03:21
these systems can be trained to do really complicated things,
75
201163
2916
se puede entrenar estos sistemas para hacer cosas complicadas,
03:24
like translate from one language to another,
76
204121
2875
como traducir de un idioma a otro,
03:27
detect what kind of objects are in a photo,
77
207038
3083
detectar el tipo de objetos en una foto,
03:30
all kinds of complicated things.
78
210121
1875
todo tipo de cosas complicadas.
03:32
I first got interested in neural networks
79
212038
2000
Me interesé en todo esto por primera vez
03:34
when I took a class on them as an undergraduate in 1990.
80
214079
3042
cuando tomé una clase en 1990.
03:37
At that time,
81
217163
1125
En ese momento,
03:38
neural networks showed impressive results on tiny problems,
82
218329
3792
las redes neuronales mostraban resultados impresionantes en problemitas,
03:42
but they really couldn't scale to do real-world important tasks.
83
222121
4375
pero no podían escalar para hacer tareas importantes del mundo real.
03:46
But I was super excited.
84
226538
1500
Aún así, está súper emocionado.
03:48
(Laughter)
85
228079
2500
(risas)
03:50
I felt maybe we just needed more compute power.
86
230579
2417
Quizá necesitábamos más capacidad de cómputo.
03:52
And the University of Minnesota had a 32-processor machine.
87
232996
3625
Y la Universidad de Minnesota tenía una computadora de 32 procesadores.
03:56
I thought, "With more compute power,
88
236621
1792
Pensé: “Con más capacidad de cómputo,
03:58
boy, we could really make neural networks really sing."
89
238413
3000
¡podríamos hacer que las redes neuronales realmente canten!
04:01
So I decided to do a senior thesis on parallel training of neural networks,
90
241454
3584
Y decidí hacer una tesis sobre el entrenamiento paralelo de estas,
04:05
the idea of using processors in a computer or in a computer system
91
245079
4000
la idea de usar muchos procesadores en una computadora o en un sistema
04:09
to all work toward the same task,
92
249079
2125
para que todos trabajen en la misma tarea:
04:11
that of training neural networks.
93
251204
1584
entrenar a las redes neuronales.
04:12
32 processors, wow,
94
252829
1292
¡32 procesadores!
04:14
we’ve got to be able to do great things with this.
95
254163
2833
tenemos que ser capaces de hacer cosas geniales con esto.
04:17
But I was wrong.
96
257496
1167
Pero estaba equivocado.
04:20
Turns out we needed about a million times as much computational power
97
260038
3333
Resultó que necesitábamos millones de veces más capacidad de cómputo
04:23
as we had in 1990
98
263371
1375
de la que teníamos en 1990
04:24
before we could actually get neural networks to do impressive things.
99
264788
3333
para lograr que las redes neuronales hicieran cosas impresionantes.
04:28
But starting around 2005,
100
268121
2417
Pero, alrededor del 2005,
04:30
thanks to the computing progress of Moore's law,
101
270579
2500
gracias al progreso informático de la ley de Moore,
04:33
we actually started to have that much computing power,
102
273121
2625
empezamos a tener esa capacidad de cómputo,
04:35
and researchers in a few universities around the world started to see success
103
275746
4250
e investigadores en algunas universidades del mundo comenzaron a ver resultados
04:40
in using neural networks for a wide variety of different kinds of tasks.
104
280038
4083
al usar redes neuronales en una variedad de tareas distintas.
04:44
I and a few others at Google heard about some of these successes,
105
284121
3583
Yo y otros pocos en Google escuchamos algo sobre estos resultados,
04:47
and we decided to start a project to train very large neural networks.
106
287746
3333
y comenzamos un proyecto para entrenar redes neuronales muy grandes.
04:51
One system that we trained,
107
291079
1459
Entrenamos un sistema
04:52
we trained with 10 million randomly selected frames
108
292538
3541
con 10 millones de cuadros seleccionados al azar
04:56
from YouTube videos.
109
296079
1292
de vídeos de YouTube.
04:57
The system developed the capability
110
297371
1750
El sistema desarrolló la capacidad
04:59
to recognize all kinds of different objects.
111
299121
2583
de reconocer todo tipo de objetos distintos.
05:01
And it being YouTube, of course,
112
301746
1542
Y, siendo YouTube,
05:03
it developed the ability to recognize cats.
113
303329
2500
desarrolló la habilidad de reconocer gatos.
05:05
YouTube is full of cats.
114
305829
1292
YouTube está lleno de eso.
05:07
(Laughter)
115
307163
1416
(risas)
05:08
But what made that so remarkable
116
308621
2208
Pero lo que lo hizo tan notable fue que
05:10
is that the system was never told what a cat was.
117
310871
2417
nunca se le dijo al sistema lo que era un gato.
05:13
So using just patterns in data,
118
313704
2500
Solo con el uso de patrones en los datos,
05:16
the system honed in on the concept of a cat all on its own.
119
316204
3625
el sistema, por su cuenta, perfeccionó el concepto de un gato.
05:20
All of this occurred at the beginning of a decade-long string of successes,
120
320371
3750
Todo esto ocurrió al comienzo de una serie de éxitos de una década,
05:24
of using neural networks for a huge variety of tasks,
121
324121
2500
de uso de redes neuronales para tareas muy variadas,
05:26
at Google and elsewhere.
122
326663
1166
en Google y en otros.
05:27
Many of the things you use every day,
123
327871
2167
Muchas de estas cosas se usan a diario:
05:30
things like better speech recognition for your phone,
124
330079
2500
mejor reconocimiento de voz para el teléfono,
05:32
improved understanding of queries and documents
125
332579
2209
mejor comprensión de consultas y documentos
05:34
for better search quality,
126
334829
1459
para más calidad de búsqueda,
05:36
better understanding of geographic information to improve maps,
127
336329
3042
mejor comprensión geográfica para mejorar los mapas,
05:39
and so on.
128
339413
1166
etcétera.
05:40
Around that time,
129
340621
1167
Alrededor de ese tiempo,
05:41
we also got excited about how we could build hardware that was better tailored
130
341788
3750
también nos entusiasmó el cómo construir un hardware mejor adaptado
05:45
to the kinds of computations neural networks wanted to do.
131
345579
2792
al tipo de cálculos que las redes neuronales querían hacer.
05:48
Neural network computations have two special properties.
132
348371
2667
Y estos cálculos tienen dos propiedades especiales.
05:51
The first is they're very tolerant of reduced precision.
133
351079
2625
Primero, son muy tolerantes con la precisión reducida.
05:53
Couple of significant digits, you don't need six or seven.
134
353746
2750
Dos dígitos significativos, no se necesitan seis o siete.
05:56
And the second is that all the algorithms are generally composed
135
356496
3458
Y, en segundo, por lo general, todos los algoritmos se componen de
05:59
of different sequences of matrix and vector operations.
136
359996
3458
distintos tipos de secuencias de operaciones matriciales y vectoriales.
06:03
So if you can build a computer
137
363496
1750
Si pueden construir una computadora
06:05
that is really good at low-precision matrix and vector operations
138
365246
3792
que sea bastante buena en operaciones matriciales y vectoriales
06:09
but can't do much else,
139
369079
1709
pero que no pueda hacer más,
06:10
that's going to be great for neural-network computation,
140
370829
2625
eso va a ser grandioso para un cálculo de red neuronal,
06:13
even though you can't use it for a lot of other things.
141
373496
2667
incluso si no se puede usar para muchas otras cosas.
06:16
And if you build such things, people will find amazing uses for them.
142
376163
3291
Y si pueden construir eso, le van a encontrar una utilidad asombrosa.
06:19
This is the first one we built, TPU v1.
143
379496
2083
Esta es la primera que hicimos: el TPU v1.
06:21
"TPU" stands for Tensor Processing Unit.
144
381621
2542
“TPU” significa Unidad de Procesamiento de Tensor.
06:24
These have been used for many years behind every Google search,
145
384204
3042
Se ha usado por muchos años, en cada búsqueda en Google,
06:27
for translation,
146
387246
1167
en las traducciones,
06:28
in the DeepMind AlphaGo matches,
147
388454
1917
en las contiendas de DeepMind AlphaGo,
06:30
so Lee Sedol and Ke Jie maybe didn't realize,
148
390413
2583
Lee Sedol y Ke Jie quizá no se dieron cuenta,
06:33
but they were competing against racks of TPU cards.
149
393038
2708
pero estaban compitiendo contra estantes de tarjetas TPU.
06:35
And we've built a bunch of subsequent versions of TPUs
150
395788
2583
E hicimos un montón de versiones subsecuentes de TPUs
06:38
that are even better and more exciting.
151
398371
1875
que son mejores y más interesantes.
06:40
But despite all these successes,
152
400288
2083
Sin embargo, a pesar de todos estos logros
06:42
I think we're still doing many things wrong,
153
402371
2208
pienso que seguimos haciendo muchas cosas mal,
06:44
and I'll tell you about three key things we're doing wrong,
154
404621
2792
voy a hablar de tres cosas clave que estamos haciendo mal,
06:47
and how we'll fix them.
155
407454
1167
y su solución.
06:48
The first is that most neural networks today
156
408663
2083
Primero, muchas redes neuronales actuales
06:50
are trained to do one thing, and one thing only.
157
410746
2250
están entrenadas para hacer solo una cosa.
06:53
You train it for a particular task that you might care deeply about,
158
413038
3208
Se les entrena para una tarea en particular, la más importante,
06:56
but it's a pretty heavyweight activity.
159
416288
1916
y eso es una actividad bastante pesada.
06:58
You need to curate a data set,
160
418246
1667
Hay que curar varios datos,
06:59
you need to decide what network architecture you'll use
161
419913
3000
decidir qué arquitectura de red se usará
07:02
for this problem,
162
422954
1167
para este problema,
07:04
you need to initialize the weights with random values,
163
424121
2708
hay que inicializar los pesos con valores aleatorios,
07:06
apply lots of computation to make adjustments to the weights.
164
426871
2875
hacer muchos cálculos para ajustar los pesos.
07:09
And at the end, if you’re lucky, you end up with a model
165
429746
2750
Y al final, si se tiene suerte, se termina con un modelo
07:12
that is really good at that task you care about.
166
432538
2291
realmente bueno para la tarea más importante.
07:14
But if you do this over and over,
167
434871
1583
Si esto se hace una y otra vez,
07:16
you end up with thousands of separate models,
168
436496
2667
el resultado son miles de modelos separados,
07:19
each perhaps very capable,
169
439204
1792
quizá, cada uno muy capaz
07:21
but separate for all the different tasks you care about.
170
441038
2791
pero lejos de las distintas tareas que realmente importan.
07:23
But think about how people learn.
171
443829
1667
Piensen en cómo aprendemos.
07:25
In the last year, many of us have picked up a bunch of new skills.
172
445538
3166
En el último año, muchos han adquirido muchas habilidades nuevas.
07:28
I've been honing my gardening skills,
173
448746
1792
Estoy perfeccionando mi jardinería,
07:30
experimenting with vertical hydroponic gardening.
174
450579
2375
estoy experimentando con jardinería hidropónica.
07:32
To do that, I didn't need to relearn everything I already knew about plants.
175
452954
3792
Y para hacer eso, no tuve que reaprender todo lo que ya sabía sobre plantas.
07:36
I was able to know how to put a plant in a hole,
176
456746
3375
Ya sabía cómo poner una planta en un hoyo,
07:40
how to pour water, that plants need sun,
177
460163
2291
cómo regarla, las plantas necesitan sol,
07:42
and leverage that in learning this new skill.
178
462496
3583
y aproveché eso al aprender esta nueva habilidad.
07:46
Computers can work the same way, but they don’t today.
179
466079
3042
Las computadoras pueden trabajar igual, pero aún no lo hacen.
07:49
If you train a neural network from scratch,
180
469163
2583
Si se entrena a una red neuronal desde cero,
07:51
it's effectively like forgetting your entire education
181
471746
3542
es, efectivamente, como si se olvidara toda la educación de uno
07:55
every time you try to do something new.
182
475288
1875
cuando se intenta aprender algo nuevo.
07:57
That’s crazy, right?
183
477163
1000
Es una locura.
07:58
So instead, I think we can and should be training
184
478788
3708
En vez de eso, creo que podemos y deberíamos de entrenar
08:02
multitask models that can do thousands or millions of different tasks.
185
482538
3791
modelos multitareas, los cuales puedan realizar miles de millones de tareas.
08:06
Each part of that model would specialize in different kinds of things.
186
486329
3375
Cada parte de ese modelo se especializaría en algo distinto.
08:09
And then, if we have a model that can do a thousand things,
187
489704
2792
Y, si tenemos un modelo que pueda hacer miles de cosas,
08:12
and the thousand and first thing comes along,
188
492538
2166
y surge otra más,
08:14
we can leverage the expertise we already have
189
494746
2125
se puede aprovechar la experiencia previa
08:16
in the related kinds of things
190
496913
1541
en cosas relacionadas
08:18
so that we can more quickly be able to do this new task,
191
498496
2792
y podamos realizar esta tarea nueva más rápido,
08:21
just like you, if you're confronted with some new problem,
192
501288
2791
como ustedes, si se encuentran con un problema nuevo,
08:24
you quickly identify the 17 things you already know
193
504121
2625
rápidamente identifican lo que ya saben
08:26
that are going to be helpful in solving that problem.
194
506746
2542
que les va a ayudar a resolver el problema.
08:29
Second problem is that most of our models today
195
509329
2709
El segundo problema: muchos de nuestros modelos actuales
08:32
deal with only a single modality of data --
196
512079
2125
se ocupan solo de una sola modalidad de datos
08:34
with images, or text or speech,
197
514204
3084
ya sea, imágenes, texto o voz,
08:37
but not all of these all at once.
198
517329
1709
pero no de todos al mismo tiempo.
08:39
But think about how you go about the world.
199
519079
2042
Piensen en cómo van por el mundo.
08:41
You're continuously using all your senses
200
521121
2333
Continuamente, usan todos sus sentidos
08:43
to learn from, react to,
201
523454
3083
para aprender, reaccionar,
08:46
figure out what actions you want to take in the world.
202
526579
2667
descifrar qué acciones quieren tomar en el mundo.
08:49
Makes a lot more sense to do that,
203
529287
1667
Tiene más sentido hacer eso,
08:50
and we can build models in the same way.
204
530954
2000
y podemos hacer modelos de la misma forma.
08:52
We can build models that take in these different modalities of input data,
205
532954
4042
Podemos hacer modelos que tomen estos distintas modalidades de datos,
08:57
text, images, speech,
206
537037
1750
texto, imágenes, voz,
08:58
but then fuse them together,
207
538829
1417
y fusionarlos,
09:00
so that regardless of whether the model sees the word "leopard,"
208
540329
3833
de modo que, independientemente si el modelo ve la palabra “leopardo”,
09:04
sees a video of a leopard or hears someone say the word "leopard,"
209
544204
4083
ve un vídeo de uno o si escucha a alguien decir la palabra “leopardo”,
09:08
the same response is triggered inside the model:
210
548329
2250
se provoca la misma respuesta dentro del modelo:
09:10
the concept of a leopard
211
550621
1750
el concepto de un leopardo
09:12
can deal with different kinds of input data,
212
552412
2250
puede manejar varios tipos de datos de entrada,
09:14
even nonhuman inputs, like genetic sequences,
213
554662
3000
incluso, entradas no humanas, como secuencias genéticas,
09:17
3D clouds of points, as well as images, text and video.
214
557662
3209
nubes de puntos 3D, así como imágenes, texto y vídeo.
09:20
The third problem is that today's models are dense.
215
560912
3625
El tercer problema es que los modelos actuales son densos.
09:24
There's a single model,
216
564579
1417
Hay un solo modelo,
09:25
the model is fully activated for every task,
217
565996
2375
que se activa completamente para todas las tareas,
09:28
for every example that we want to accomplish,
218
568412
2125
para cada ejemplo que queremos lograr,
09:30
whether that's a really simple or a really complicated thing.
219
570537
2917
ya sea algo sencillo o algo realmente complicado.
09:33
This, too, is unlike how our own brains work.
220
573496
2666
Además, es distinto a cómo funciona nuestro cerebro.
09:36
Different parts of our brains are good at different things,
221
576204
3000
tenemos diferentes partes que son buenas para distintas cosas.
09:39
and we're continuously calling upon the pieces of them
222
579246
3291
y constantemente recurrimos a esas partes
09:42
that are relevant for the task at hand.
223
582579
2167
que son relevantes para la tarea en cuestión.
09:44
For example, nervously watching a garbage truck
224
584787
2334
Por ejemplo, ver nerviosamente un camión de basura
09:47
back up towards your car,
225
587162
1875
que viene en reversa hacia tu auto,
09:49
the part of your brain that thinks about Shakespearean sonnets
226
589037
2917
la parte del cerebro que piensa en los sonetos de Shakespeare
09:51
is probably inactive.
227
591996
1250
estará inactiva.
09:53
(Laughter)
228
593246
1625
(risas)
09:54
AI models can work the same way.
229
594912
1750
Los modelos de IA operan igual.
09:56
Instead of a dense model,
230
596662
1292
En vez de un modelo denso,
09:57
we can have one that is sparsely activated.
231
597954
2250
podemos tener uno que esté escasamente activo.
10:00
So for particular different tasks, we call upon different parts of the model.
232
600204
4250
Así que, para tareas particulares, recurrirnos a distintas partes del modelo.
10:04
During training, the model can also learn which parts are good at which things,
233
604496
4375
En el entrenamiento, también puede aprender las partes buenas de las cosas,
10:08
to continuously identify what parts it wants to call upon
234
608871
3791
para identificar continuamente a cuáles partes quiere recurrir
10:12
in order to accomplish a new task.
235
612662
1834
a fin de completar una nueva tarea.
10:14
The advantage of this is we can have a very high-capacity model,
236
614496
3541
La ventaja es que podemos tener un modelo de capacidad muy alta,
10:18
but it's very efficient,
237
618037
1250
que es muy eficiente,
10:19
because we're only calling upon the parts that we need
238
619329
2583
solo recurrimos a las partes que necesitamos para
10:21
for any given task.
239
621954
1208
una tarea determinada.
10:23
So fixing these three things, I think,
240
623162
2000
Solucionar estos tres problemas,
10:25
will lead to a more powerful AI system:
241
625162
2209
nos guiará a un sistema de IA más poderoso:
10:27
instead of thousands of separate models,
242
627412
2000
En vez de miles de modelos separados,
10:29
train a handful of general-purpose models
243
629412
2000
entrenar algunos de propósitos generales
10:31
that can do thousands or millions of things.
244
631454
2083
que pueden hacer miles de millones de cosas.
10:33
Instead of dealing with single modalities,
245
633579
2042
En lugar de manejar modalidades únicas,
10:35
deal with all modalities,
246
635662
1334
ocuparse de todas,
10:36
and be able to fuse them together.
247
636996
1708
y fusionarlas.
10:38
And instead of dense models, use sparse, high-capacity models,
248
638746
3458
Y, en vez de modelos densos, usar unos dispersos, de alta capacidad,
10:42
where we call upon the relevant bits as we need them.
249
642246
2958
los cuales recurran a los bits relevantes, según se necesite.
10:45
We've been building a system that enables these kinds of approaches,
250
645246
3416
Hemos estado desarrollando un sistema que permite estos enfoques,
10:48
and we’ve been calling the system “Pathways.”
251
648704
2542
y lo hemos llamado “Pathways”.
10:51
So the idea is this model will be able to do
252
651287
3084
La idea es que, este modelo sea capaz de hacer
10:54
thousands or millions of different tasks,
253
654412
2084
miles de millones de diferentes tareas,
10:56
and then, we can incrementally add new tasks,
254
656537
2250
y, paulatinamente, poder agregar nuevas tareas,
10:58
and it can deal with all modalities at once,
255
658787
2125
y que maneje todas las modalidades a la vez,
11:00
and then incrementally learn new tasks as needed
256
660954
2958
y que, paulatinamente, aprenda nuevas tareas según se necesite
11:03
and call upon the relevant bits of the model
257
663954
2083
y recurra a los bits relevantes a ese modelo
11:06
for different examples or tasks.
258
666037
1709
para diferentes ejemplos o tareas.
11:07
And we're pretty excited about this,
259
667787
1750
Estamos muy emocionados por eso,
11:09
we think this is going to be a step forward
260
669537
2042
creemos que este va a ser un paso adelante
11:11
in how we build AI systems.
261
671621
1333
al crear sistemas de IA.
11:12
But I also wanted to touch on responsible AI.
262
672954
3708
También, quería hablar sobre IA responsable.
11:16
We clearly need to make sure that this vision of powerful AI systems
263
676662
4875
Claramente, necesitamos asegurarnos que esta visión de sistemas de IA potentes
11:21
benefits everyone.
264
681579
1167
benefice a todos.
11:23
These kinds of models raise important new questions
265
683496
2458
Este tipo de modelos, plantean nuevas preguntas
11:25
about how do we build them with fairness,
266
685954
2458
acerca de cómo construirlos con justicia,
11:28
interpretability, privacy and security,
267
688454
3208
interpretabilidad, privacidad y seguridad,
11:31
for all users in mind.
268
691662
1459
para todos los usuarios.
11:33
For example, if we're going to train these models
269
693621
2291
Por ejemplo, si vamos a entrenar estos modelos
11:35
on thousands or millions of tasks,
270
695954
2125
en miles de millones de tareas,
11:38
we'll need to be able to train them on large amounts of data.
271
698079
2875
necesitaremos entrenarlos en grandes cantidades de datos.
11:40
And we need to make sure that data is thoughtfully collected
272
700996
3250
Y necesitamos asegurarnos que esos datos se recopilen cuidadosamente
11:44
and is representative of different communities and situations
273
704287
3667
y que sean representativos de distintas comunidades y situaciones
11:47
all around the world.
274
707954
1167
en todo el mundo.
11:49
And data concerns are only one aspect of responsible AI.
275
709579
4000
Y la preocupación por los datos es solo un aspecto de una IA responsable.
11:53
We have a lot of work to do here.
276
713621
1583
Tenemos mucho trabajo por hacer.
11:55
So in 2018, Google published this set of AI principles
277
715246
2666
En 2018, Google publicó estos principios de IA
11:57
by which we think about developing these kinds of technology.
278
717912
3500
con los cuales pensamos en desarrollar este tipo de tecnología.
12:01
And these have helped guide us in how we do research in this space,
279
721454
3625
Y estos nos han guiado en cómo investigamos en este espacio,
12:05
how we use AI in our products.
280
725121
1833
como usamos IA en nuestros productos.
12:06
And I think it's a really helpful and important framing
281
726996
2750
Y creo que es un marco realmente útil e importante
12:09
for how to think about these deep and complex questions
282
729746
2875
para considerar estas preguntas profundas y complejas
12:12
about how we should be using AI in society.
283
732621
2833
sobre cómo deberíamos usar la IA en la sociedad.
12:15
We continue to update these as we learn more.
284
735454
3625
Seguimos actualizándolas a medida que sabemos más.
12:19
Many of these kinds of principles are active areas of research --
285
739079
3458
Muchos de estos principios son áreas activas de investigación...
12:22
super important area.
286
742537
1542
un área muy importante.
12:24
Moving from single-purpose systems that kind of recognize patterns in data
287
744121
4125
Pasando de sistemas de un solo propósito que reconocen patrones en los datos
12:28
to these kinds of general-purpose intelligent systems
288
748246
2750
a este tipo de sistemas inteligentes de propósito general
12:31
that have a deeper understanding of the world
289
751037
2292
con un entendimiento más profundo del mundo
12:33
will really enable us to tackle
290
753329
1583
realmente nos permitirá abordar
12:34
some of the greatest problems humanity faces.
291
754954
2500
algunos grandes problemas que la humanidad enfrenta.
12:37
For example,
292
757454
1167
Por ejemplo,
12:38
we’ll be able to diagnose more disease;
293
758662
2375
seremos capaces de diagnosticar más enfermedades;
12:41
we'll be able to engineer better medicines
294
761079
2000
de diseñar mejores medicinas
12:43
by infusing these models with knowledge of chemistry and physics;
295
763079
3083
al infusionar estos modelos con la química y la física;
12:46
we'll be able to advance educational systems
296
766204
2667
podremos hacer avanzar los sistemas de educación
12:48
by providing more individualized tutoring
297
768871
2041
al proporcionar más clases particulares
12:50
to help people learn in new and better ways;
298
770912
2375
para que las personas aprendan mejor;
12:53
we’ll be able to tackle really complicated issues,
299
773287
2375
seremos capaces de afrontar asuntos complicados,
12:55
like climate change,
300
775704
1208
como el cambio climático,
12:56
and perhaps engineering of clean energy solutions.
301
776954
2792
y quizá diseñar soluciones de energía limpia.
12:59
So really, all of these kinds of systems
302
779787
2667
En realidad, todos estos tipos de sistemas
13:02
are going to be requiring the multidisciplinary expertise
303
782496
2875
van a requerir la experiencia multidisciplinaria
13:05
of people all over the world.
304
785371
1875
de personas de todo el mundo.
13:07
So connecting AI with whatever field you are in,
305
787287
3542
Conectar la IA con cualquier campo en el que estén involucrados,
13:10
in order to make progress.
306
790829
1750
a fin de progresar.
13:13
So I've seen a lot of advances in computing,
307
793579
2292
He visto muchos avances en la computación,
13:15
and how computing, over the past decades,
308
795912
2292
y cómo esta, en décadas pasadas,
13:18
has really helped millions of people better understand the world around them.
309
798204
4167
ha ayudado a millones de personas a entender mejor el mundo.
13:22
And AI today has the potential to help billions of people.
310
802412
3000
Y, actualmente, la IA tiene el potencial de ayudar a muchas más.
13:26
We truly live in exciting times.
311
806204
2125
En verdad, vivimos tiempos fascinantes.
13:28
Thank you.
312
808746
1166
Gracias.
13:29
(Applause)
313
809912
7000
(Aplausos)
13:39
Chris Anderson: Thank you so much.
314
819829
1667
Chris Anderson: Muchas gracias.
13:41
I want to follow up on a couple things.
315
821537
2375
Quiero dar seguimiento a un par de cosas.
13:44
This is what I heard.
316
824454
2792
El nivel de progreso... esto es lo que he oído.
13:47
Most people's traditional picture of AI
317
827287
4125
La imagen típica sobre la IA de la mayoría de las personas
13:51
is that computers recognize a pattern of information,
318
831412
3125
es que las computadoras reconocen un patrón de información,
13:54
and with a bit of machine learning,
319
834579
2125
y con un poco de aprendizaje automático,
13:56
they can get really good at that, better than humans.
320
836704
2625
pueden volverse muy buenas, mejores que los humanos.
13:59
What you're saying is those patterns
321
839329
1792
Lo que dices es que esos patrones
14:01
are no longer the atoms that AI is working with,
322
841121
2875
ya no son los átomos con los que la IA trabaja,
14:04
that it's much richer-layered concepts
323
844037
2542
que son conceptos con más capas
14:06
that can include all manners of types of things
324
846621
3458
que pueden incluir todas las formas de los tipos de cosas
14:10
that go to make up a leopard, for example.
325
850121
3000
que componen un leopardo, por ejemplo.
14:13
So what could that lead to?
326
853121
2916
¿A qué puede llevar esto?
14:16
Give me an example of when that AI is working,
327
856079
2750
Dame un ejemplo en donde esa IA funciona.
14:18
what do you picture happening in the world
328
858829
2042
¿Qué imaginas que sucede en el mundo
14:20
in the next five or 10 years that excites you?
329
860912
2209
en los próximos 5 o 10 años que te emociona?
14:23
Jeff Dean: I think the grand challenge in AI
330
863537
2500
Jeff Dean: Creo que el gran reto en la IA
14:26
is how do you generalize from a set of tasks
331
866079
2375
es cómo generalizar un conjunto de tareas
14:28
you already know how to do
332
868496
1416
que ya sabes cómo hacer
14:29
to new tasks,
333
869954
1208
a nuevas tareas,
14:31
as easily and effortlessly as possible.
334
871204
2542
de forma tan fácil y sin esfuerzo como sea posible.
14:33
And the current approach of training separate models for everything
335
873746
3250
Y el enfoque actual de entrenar modelos separados para todo significa
14:36
means you need lots of data about that particular problem,
336
876996
3166
que se necesitan muchos datos acerca de ese problema particular,
14:40
because you're effectively trying to learn everything
337
880162
2542
porque efectivamente se intenta aprender todo
14:42
about the world and that problem, from nothing.
338
882746
2541
del mundo y ese problema, desde cero.
14:45
But if you can build these systems
339
885287
1667
Pero si se construyen sistemas
14:46
that already are infused with how to do thousands and millions of tasks,
340
886996
4458
que ya están infusionados en cómo hacer miles de millones de tareas,
14:51
then you can effectively teach them to do a new thing
341
891496
3791
se les puede enseñar de manera efectiva a hacer una cosa nueva
14:55
with relatively few examples.
342
895329
1500
con pocos ejemplos.
14:56
So I think that's the real hope,
343
896871
2083
Pienso que esa es la esperanza real,
14:58
that you could then have a system where you just give it five examples
344
898996
4083
que se podría tener un sistema al que se le den solo cinco ejemplos
15:03
of something you care about,
345
903121
1541
de algo que importe,
15:04
and it learns to do that new task.
346
904704
1917
y que aprenda a hacer esa nueva tarea.
15:06
CA: You can do a form of self-supervised learning
347
906662
2375
CA: Coma una forma de aprendizaje auto-supervisado
15:09
that is based on remarkably little seeding.
348
909079
2542
basado en una siembra notablemente pequeña
15:11
JD: Yeah, as opposed to needing 10,000 or 100,000 examples
349
911662
2875
JD: Sí, en lugar de necesitar 10 000 o 100 000 ejemplos
15:14
to figure everything in the world out.
350
914579
1833
para averiguar todo en el mundo.
15:16
CA: Aren't there kind of terrifying unintended consequences
351
916454
2792
CA: ¿Existen consecuencias aterradoras no intencionadas
15:19
possible, from that?
352
919287
1334
que puedan resultar de eso?
15:20
JD: I think it depends on how you apply these systems.
353
920621
2625
JD: Creo que depende de cómo se apliquen estos sistemas.
15:23
It's very clear that AI can be a powerful system for good,
354
923287
4167
Es bastante claro que la IA puede ser un sistema potente para el bien,
15:27
or if you apply it in ways that are not so great,
355
927496
2333
o, si se aplica en formas que no son tan buenas,
15:29
it can be a negative consequence.
356
929871
3375
puede haber consecuencias negativas.
15:33
So I think that's why it's important to have a set of principles
357
933287
3042
Por eso creo que es importante tener un conjunto de principios
15:36
by which you look at potential uses of AI
358
936371
2250
para observar los usos potenciales de la IA
15:38
and really are careful and thoughtful about how you consider applications.
359
938662
5125
y que sean cuidadosos acerca de cómo considerar las aplicaciones.
15:43
CA: One of the things people worry most about
360
943787
2209
CA: Uno aspecto bastante preocupante
15:45
is that, if AI is so good at learning from the world as it is,
361
945996
3583
es que, la IA es muy buena en aprender del mundo como es,
15:49
it's going to carry forward into the future
362
949621
2875
que va a llevar adelante en aspectos
15:52
aspects of the world as it is that actually aren't right, right now.
363
952537
4375
futuros del mundo como es, que en realidad no son buenos ahora.
15:56
And there's obviously been a huge controversy about that
364
956954
2708
Por ende, ha habido una gran controversia acerca de eso
15:59
recently at Google.
365
959662
2417
recientemente en Google.
16:02
Some of those principles of AI development,
366
962121
3083
Algunos de esos principios del desarrollo de la IA,
16:05
you've been challenged that you're not actually holding to them.
367
965246
4708
se les ha cuestionado que no se están apegando a ellos.
16:10
Not really interested to hear about comments on a specific case,
368
970329
3250
No me interesa escuchar comentarios de un caso en específico,
16:13
but ... are you really committed?
369
973621
2708
pero... ¿realmente están comprometidos?
16:16
How do we know that you are committed to these principles?
370
976329
2750
¿Cómo saber que están comprometidos con estos principios?
16:19
Is that just PR, or is that real, at the heart of your day-to-day?
371
979079
4417
¿Se trata de relaciones públicas o, de verdad es real?
16:23
JD: No, that is absolutely real.
372
983496
1541
JD: No, absolutamente es real.
16:25
Like, we have literally hundreds of people
373
985079
2125
Literalmente, tenemos cientos de personas
16:27
working on many of these related research issues,
374
987204
2333
trabajando en estos temas de investigación,
16:29
because many of those things are research topics
375
989537
2417
muchas de estas cosas son temas de investigación
16:31
in their own right.
376
991996
1166
por derecho propio.
16:33
How do you take data from the real world,
377
993162
2250
Cómo tomar datos del mundo real,
16:35
that is the world as it is, not as we would like it to be,
378
995412
5000
del mundo como es, no del que nos gustaría como fuera,
16:40
and how do you then use that to train a machine-learning model
379
1000412
3209
y cómo usar eso para entrenar a un modelo de aprendizaje automático
16:43
and adapt the data bit of the scene
380
1003621
2500
y adaptar los datos de la escena
16:46
or augment the data with additional data
381
1006162
2500
o aumentarlos con datos adicionales
16:48
so that it can better reflect the values we want the system to have,
382
1008704
3292
para que reflejen mejor los valores que queremos que el sistema tenga,
16:51
not the values that it sees in the world?
383
1011996
2208
y no los que se ven en el mundo.
16:54
CA: But you work for Google,
384
1014204
2417
CA: Pero, tú trabajas para Google,
16:56
Google is funding the research.
385
1016662
2084
y este está financiando la investigación.
16:59
How do we know that the main values that this AI will build
386
1019371
4458
¿Cómo sabemos que los valores principales que esta IA construirá
17:03
are for the world,
387
1023871
1208
son para el mundo,
17:05
and not, for example, to maximize the profitability of an ad model?
388
1025121
4916
y no para, por ejemplo, maximizar la rentabilidad de un modelo de anuncios?
17:10
When you know everything there is to know about human attention,
389
1030037
3084
Cuando saben todo acerca de la atención humana,
17:13
you're going to know so much
390
1033121
1500
van a saber mucho
17:14
about the little wriggly, weird, dark parts of us.
391
1034621
2458
de las pequeñas partes oscuras de nosotros.
17:17
In your group, are there rules about how you hold off,
392
1037121
6167
En tu grupo, ¿hay reglas sobre cómo frenar,
17:23
church-state wall between a sort of commercial push,
393
1043329
3750
cómo separar entre una especie de impulso comercial,
17:27
"You must do it for this purpose,"
394
1047079
2292
“Debes hacerlo para este propósito”,
17:29
so that you can inspire your engineers and so forth,
395
1049413
2458
para que puedas inspirar a tus ingenieros y demás,
17:31
to do this for the world, for all of us.
396
1051913
1916
a hacer esto por el mundo, por nosotros.
17:33
JD: Yeah, our research group does collaborate
397
1053871
2125
JD: Sí, el grupo de investigación colabora
17:36
with a number of groups across Google,
398
1056038
1833
con varios grupos en Google,
17:37
including the Ads group, the Search group, the Maps group,
399
1057913
2750
el grupo de Anuncios, el de Investigación, el de Mapas,
17:40
so we do have some collaboration, but also a lot of basic research
400
1060704
3209
así que colaboramos, pero también mucho de investigación básica
17:43
that we publish openly.
401
1063954
1542
que publicamos abiertamente.
17:45
We've published more than 1,000 papers last year
402
1065538
3333
El año pasado, publicamos más de 1,000 trabajos
17:48
in different topics, including the ones you discussed,
403
1068871
2583
sobre temas diferentes, incluyendo los que comentaste:
17:51
about fairness, interpretability of the machine-learning models,
404
1071454
3042
justicia, interpretación de modelos de aprendizaje automático,
17:54
things that are super important,
405
1074538
1791
todo esto es muy importante,
17:56
and we need to advance the state of the art in this
406
1076371
2417
y tenemos que fomentar la última generación en esto
17:58
in order to continue to make progress
407
1078829
2209
para continuar progresando
18:01
to make sure these models are developed safely and responsibly.
408
1081079
3292
para que estos modelos se desarrollen de manera segura y responsable.
18:04
CA: It feels like we're at a time when people are concerned
409
1084788
3041
CA: Se siente como estar en un momento con personas preocupadas
18:07
about the power of the big tech companies,
410
1087829
2042
por el poder de las compañías tecnológicas,
18:09
and it's almost, if there was ever a moment to really show the world
411
1089871
3750
y es como si alguna vez hubo un momento para mostrarle al mundo
18:13
that this is being done to make a better future,
412
1093663
3333
que esto se hace para un mejor futuro,
18:17
that is actually key to Google's future,
413
1097038
2791
eso es clave para el futuro de Google,
18:19
as well as all of ours.
414
1099871
1750
así como para el de todos nosotros.
18:21
JD: Indeed.
415
1101663
1166
JD: Ciertamente.
18:22
CA: It's very good to hear you come and say that, Jeff.
416
1102871
2583
CA: Es muy bueno escucharlo de ti Jeff.
18:25
Thank you so much for coming here to TED.
417
1105454
2042
Muchas gracias por venir a TED.
18:27
JD: Thank you.
418
1107538
1166
JD: Gracias.
18:28
(Applause)
419
1108704
1167
(Aplausos)
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7