Is AI Progress Stuck? | Jennifer Golbeck | TED

12,734 views ・ 2024-11-19

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Sebastian Betti
00:04
We've built artificial intelligence already
0
4334
2878
Ya hemos construido inteligencia artificial
00:07
that, on specific tasks, performs better than humans.
1
7212
3837
que, en tareas específicas, rinde mejor que los humanos.
00:11
There's AI that can play chess and beat human grandmasters.
2
11049
4505
Hay IA que pueden jugar ajedrez y vencer a grandes maestros humanos.
00:15
But since the introduction of generative AI
3
15595
2336
Pero desde la introducción de la IA generativa
00:17
to the general public a couple years ago,
4
17973
2544
al público general hace un par de años,
00:20
there's been more talk about artificial general intelligence, or AGI,
5
20517
5297
ha habido más conversación sobre la inteligencia general artificial, o IGA,
00:25
and that describes the idea
6
25814
1418
y eso describe la idea
00:27
that there's AI that can perform at or above human levels
7
27232
3879
de que hay IA que puede rendir a niveles iguales o superiores a los humanos
00:31
on a wide variety of tasks, just like we humans are able to do.
8
31152
4004
en una amplia variedad de tareas, tal como nosotros los humanos podemos hacer.
00:35
And people who think about AGI are worried about what it means
9
35615
3587
Y las personas que piensan en la IAG están preocupadas por lo que significa
00:39
if we reach that level of performance in the technology.
10
39244
3754
si alcanzamos ese nivel de rendimiento en la tecnología.
00:42
Right now, there's people from the tech industry
11
42998
2252
En este momento, hay personas de la industria tecnológica
00:45
coming out and saying
12
45292
1126
que salen a decir
00:46
"The AI that we're building is so powerful and dangerous
13
46459
2962
"La IA que estamos construyendo es tan poderosa y peligrosa
00:49
that it poses a threat to civilization.”
14
49462
2711
que representa una amenaza para la civilización".
00:52
And they’re going to government and saying,
15
52173
2002
Y están yendo al gobierno y diciendo,
"Quizás necesitan regularnos".
00:54
"Maybe you need to regulate us."
16
54217
1794
Normalmente, cuando una industria crea una nueva herramienta poderosa,
00:56
Now normally when an industry makes a powerful new tool,
17
56052
2878
00:58
they don't say it poses an existential threat to humanity
18
58930
2920
no dice que representa una amenaza existencial para la humanidad
01:01
and that it needs to be limited, so why are we hearing that language?
19
61891
3963
y que necesita ser limitada, así que, ¿por qué estamos escuchando ese lenguaje?
01:05
And I think there's two main reasons.
20
65895
2128
Y creo que hay dos razones principales.
01:08
One is if your technology is so powerful
21
68064
4046
Una es que si tu tecnología es tan poderosa
01:12
that it can destroy civilization, between now and then,
22
72152
4171
que puede destruir la civilización, entre ahora y entonces,
01:16
there's an awful lot of money to be made with that.
23
76364
3003
hay mucho dinero que se puede ganar con eso.
01:19
And what better way to convince your investors
24
79409
2461
Y qué mejor manera de convencer a tus inversores
01:21
to put some money with you
25
81911
1252
de que pongan dinero contigo
01:23
than to warn that your tool is that dangerous?
26
83204
3045
que advertir que tu herramienta es tan peligrosa.
01:26
The other is that the idea of AI overtaking humanity
27
86291
3587
La otra es que la idea de que la IA supere a la humanidad
01:29
is truly a cinematic concept.
28
89878
2169
es realmente un concepto cinematográfico.
01:32
We’ve all seen those movies.
29
92088
2127
Todos hemos visto esas películas.
01:34
And it’s kind of entertaining to think about what that would mean now
30
94215
3379
Y es un poco entretenido pensar en lo que eso significaría ahora
01:37
with tools that we're actually able to put our hands on.
31
97636
3461
con herramientas que realmente podemos manipular.
01:41
In fact, it’s so entertaining that it’s a very effective distraction
32
101097
4505
De hecho, es tan entretenido que es una distracción muy efectiva
01:45
from the real problems already happening in the world because of AI.
33
105644
4879
de los problemas reales que ya están sucediendo en el mundo debido a la IA.
01:50
The more we think about these improbable futures,
34
110565
3879
Cuanto más pensamos en estos futuros improbables,
01:54
the less time we spend thinking about how do we correct deepfakes
35
114486
4004
menos tiempo pasamos pensando en cómo corregir los deepfakes
01:58
or the fact that there's AI right now being used to decide
36
118531
3462
o en el hecho de que hay IA ahora mismo que se usa para decidir
02:01
whether or not people are let out of prison,
37
121993
2086
si las personas son liberadas de prisión,
02:04
and we know it’s racially biased.
38
124079
2127
y sabemos que tiene un sesgo racial.
02:06
But are we anywhere close to actually achieving AGI?
39
126665
3503
Pero, ¿estamos cerca de lograr realmente la IAG?
02:10
Some people think so.
40
130210
1334
Algunas personas lo piensan.
02:11
Elon Musk said that we'll achieve it within a year.
41
131544
2419
Elon Musk dijo que lo lograremos dentro de un año.
02:13
I think he posted this a few weeks ago.
42
133963
2128
Creo que publicó esto hace unas semanas.
02:16
But like at the same time
43
136132
1502
Pero al mismo tiempo Google lanzó su herramienta
02:17
Google put out their eye search tool that's supposed to give you the answer
44
137676
3753
de búsqueda visual que se supone que te da la respuesta
02:21
so you don’t have to click on a link,
45
141471
1919
para que no tengas que hacer clic en un enlace,
02:23
and it's not going super well.
46
143431
2169
y no está funcionando muy bien.
02:25
["How many rocks should I eat?"]
47
145642
1543
["¿Cuántas piedras debería comer?"]
02:27
["... at least a single serving of pebbles, geodes or gravel ..."]
48
147227
3128
["... al menos una porción de guijarros, geodas o grava ..".]
02:30
Please don't eat rocks.
49
150355
1209
Por favor, no comas piedras.
02:31
(Laughter)
50
151564
1168
(Risas)
02:32
Now of course these tools are going to get better.
51
152732
3003
Ahora, por supuesto, estas herramientas van a mejorar.
02:35
But if we're going to achieve AGI
52
155777
2836
Pero si vamos a lograr la IAG
02:38
or if they're even going to fundamentally change the way we work,
53
158613
3420
o si van a cambiar fundamentalmente la forma en que trabajamos,
02:42
we need to be in a place where they are continuing
54
162075
2628
necesitamos estar en un lugar donde continúen
02:44
on a sharp upward trajectory in terms of their abilities.
55
164703
3795
en una trayectoria ascendente en términos de sus habilidades.
02:48
And that may be one path.
56
168498
1835
Y esa puede ser una posibilidad.
Pero también existe la posibilidad de que lo que estamos viendo
02:50
But there's also the possibility that what we're seeing
57
170375
2586
02:53
is that these tools have basically achieved
58
173002
2420
sea que estas herramientas han logrado básicamente
02:55
what they're capable of doing,
59
175422
1501
lo que son capaces de hacer,
02:56
and the future is incremental improvements in a plateau.
60
176923
4129
y el futuro sean mejoras incrementales en una meseta.
Así que para entender el futuro de la IA,
03:01
So to understand the AI future,
61
181052
2211
necesitamos mirar toda la exageración alrededor de esto y profundizar
03:03
we need to look at all the hype around it and get under there
62
183304
2920
03:06
and see what's technically possible.
63
186266
1751
para ver lo que es técnicamente posible.
03:08
And we also need to think about where are the areas that we need to worry
64
188017
3462
Y también necesitamos pensar qué áreas son preocupantes
y cuáles no.
03:11
and where are the areas that we don't.
65
191479
1835
03:13
So if we want to realize the hype around AI,
66
193857
3086
Así que si queremos realizar la exageración alrededor de la IA,
03:16
the one main challenge that we have to solve is reliability.
67
196985
3712
el principal desafío que debemos resolver es la fiabilidad.
03:20
These algorithms are wrong all the time, like we saw with Google.
68
200697
4421
Estos algoritmos están equivocados todo el tiempo, como vimos con Google.
Y Google de hecho salió y dijo,
03:25
And Google actually came out and said,
69
205118
2002
después de que estos malos resultados de búsqueda se popularizaran,
03:27
after these bad search results were popularized,
70
207162
3211
03:30
that they don't know how to fix this problem.
71
210415
2169
que no saben cómo solucionar este problema.
03:32
I use ChatGPT every day.
72
212625
1335
Uso ChatGPT todos los días.
03:34
I write a newsletter that summarizes discussions on far-right message boards,
73
214002
3754
Escribo un boletín que resume discusiones en foros de extrema derecha,
03:37
and so I download that data,
74
217797
1377
y así que descargo esos datos,
03:39
ChatGPT helps me write a summary.
75
219174
1918
ChatGPT me ayuda a escribir un resumen.
03:41
And it makes me much more efficient than if I had to do it by hand.
76
221134
4546
Y me hace mucho más eficiente que si tuviera que hacerlo a mano.
03:45
But I have to correct it every day
77
225722
2044
Pero tengo que corregirlo todos los días
03:47
because it misunderstands something,
78
227766
1751
porque malinterpreta algo,
03:49
it takes out the context.
79
229559
1793
saca el contexto.
03:51
And so because of that,
80
231394
1877
Y por eso,
03:53
I can't just rely on it to do the job for me.
81
233313
2752
no puedo depender para que me haga el trabajo.
03:56
And this reliability is really important.
82
236107
2878
Y esta fiabilidad es muy importante.
03:58
Now a subpart of reliability in this space is AI hallucination,
83
238985
5255
Ahora, una subparte de la fiabilidad en este ámbito es la alucinación de IA,
04:04
a great technical term for the fact that AI just makes stuff up
84
244282
3587
un gran término técnico para el hecho de que la IA simplemente inventa cosas
04:07
a lot of the time.
85
247911
1418
muchas veces.
04:09
I did this in my newsletter.
86
249370
1377
Hice esto en mi boletín.
04:10
I said, ChatGPT are there any people threatening violence?
87
250747
3128
Pregunté, ChatGPT, ¿hay personas amenazando con violencia?
04:13
If so, give me the quotes.
88
253917
1251
Si es así, dame las citas.
04:15
And it produced these three really clear threats of violence
89
255210
2919
Y produjo estas tres amenazas claras de violencia
que no sonaba en absoluto como habla la gente
04:18
that didn't sound anything like people talk
90
258171
2002
04:20
on these message boards.
91
260215
1167
en esos foros.
04:21
And I went back to the data, and nobody ever said it.
92
261424
2503
Y volví a los datos, y nadie lo dijo nunca.
04:23
It just made it up out of thin air.
93
263927
2252
Simplemente lo inventó de la nada.
Y puede que lo hayas visto si has utilizado un generador de imágenes de IA.
04:26
And you may have seen this if you've used an AI image generator.
94
266221
3044
04:29
I asked it to give me a close up of people holding hands.
95
269265
3295
Le pedí un primer plano de personas de la mano.
04:32
That's a hallucination and a disturbing one at that.
96
272602
3295
Esa es una alucinación y, además, inquietante.
04:35
(Laughter)
97
275939
1710
(Risas)
04:37
We have to solve this hallucination problem
98
277649
3086
Tenemos que resolver este problema de alucinación
04:40
if this AI is going to live up to the hype.
99
280777
3003
si esta IA va a cumplir con la exageración.
04:43
And I don't think it's a solvable problem.
100
283780
2878
Y no creo que sea un problema solucionable.
04:46
With the way this technology works, there are people who say,
101
286699
2878
Con la forma en que funciona esta tecnología, hay personas que dicen,
04:49
we're going to have it taken care of in a few months,
102
289619
2544
que lo tendrán solucionado en unos meses,
04:52
but there’s no technical reason to think that’s the case.
103
292163
2711
pero no hay razón técnica para pensar que eso sea posible.
04:54
Because generative AI always makes stuff up.
104
294874
3420
Porque la IA generativa siempre inventa cosas.
04:58
When you ask it a question,
105
298294
1418
Cuando le haces una pregunta,
04:59
it's creating that answer or creating that image from scratch
106
299754
4254
está creando esa respuesta o esa imagen desde cero
05:04
when you ask.
107
304050
1168
cuando preguntas.
05:05
It's not like a search engine that goes and finds the right answer on a page.
108
305218
3670
No es un motor de búsqueda que encuentra la respuesta correcta en una página.
05:08
And so because its job is to make things up every time,
109
308888
3879
Y así, debido a que su trabajo es inventar cosas cada vez,
05:12
I don't know that we're going to be able to get it to make up correct stuff
110
312767
3587
no sé si vamos a poder hacer que invente cosas correctas
05:16
and then not make up other stuff.
111
316354
1627
y luego no invente otras cosas.
05:17
That's not what it's trained to do,
112
317981
1710
No es para lo que está entrenado,
05:19
and we're very far from achieving that.
113
319732
2128
y estamos muy lejos de lograr eso.
05:21
And in fact, there are spaces where they're trying really hard.
114
321901
3170
Y de hecho, hay ámbitos donde están intentando con mucho esfuerzo.
05:25
One space that there's a lot of enthusiasm for AI
115
325113
2627
Un ámbito donde hay mucho entusiasmo por la IA
05:27
is in the legal area
116
327740
1335
es en el área legal
05:29
where they hope it will help write legal briefs or do research.
117
329117
3420
donde esperan que ayude a redactar escritos legales o hacer investigaciones.
05:32
Some people have found out the hard way
118
332579
2168
Algunas personas se han dado cuenta de la manera difícil
05:34
that they should not write legal briefs right now with ChatGPT
119
334789
3837
de que no deberían redactar escritos legales ahora mismo con ChatGPT
05:38
and send them to federal court,
120
338668
1501
y enviarlos a la corte federal,
05:40
because it just makes up cases that sound right.
121
340211
3379
porque simplemente inventa casos que suenan correctos.
05:43
And that's a really fast way to get a judge mad at you
122
343631
2836
Y esa es una manera muy rápida de hacer que un juez se enoje contigo
05:46
and to get your case thrown out.
123
346509
1752
y que tu caso sea desechado.
Ahora hay empresas de investigación legal en este momento
05:49
Now there are legal research companies right now
124
349012
2544
05:51
that advertise hallucination-free
125
351598
2961
que anuncian IA generativa libre de alucinaciones.
05:54
generative AI.
126
354559
1626
05:56
And I was really dubious about this.
127
356561
3003
Y yo fui escéptica sobre esto.
05:59
And researchers at Stanford actually went in and checked it,
128
359564
3628
Y los investigadores de Stanford entraron y lo comprobaron,
06:03
and they found the best-performing of these hallucination-free tools
129
363192
3754
la herramienta que mejor funcionaba de estas libres de alucinaciones
06:06
still hallucinates 17 percent of the time.
130
366946
2544
aún alucina el 17 % del tiempo.
06:10
So like on one hand,
131
370158
1626
Así que, por un lado,
06:11
it's a great scientific achievement that we have built a tool
132
371826
3629
es un gran logro científico que hemos construido una herramienta
06:15
that we can pose basically any query to,
133
375496
2920
a la que podemos plantear prácticamente cualquier consulta,
06:18
and 60 or 70 or maybe even 80 percent of the time
134
378458
3211
y el 60 o 70 o tal vez incluso el 80 % del tiempo
06:21
it gives us a reasonable answer.
135
381711
1919
nos da una respuesta razonable.
06:23
But if we're going to rely on using those tools
136
383963
2252
Pero si vamos a depender de usar esas herramientas
06:26
and they're wrong 20 or 30 percent of the time,
137
386257
2670
y están equivocadas el 20 o 30 % del tiempo,
06:28
there's no model where that's really useful.
138
388927
2961
no hay ningún modelo donde eso sea realmente útil.
Y eso nos lleva a
06:32
And that kind of leads us into
139
392472
2043
cómo hacemos que estas herramientas sean tan útiles.
06:34
how do we make these tools that useful?
140
394557
2002
06:36
Because even if you don't believe me
141
396601
1752
Porque incluso si no me crees
06:38
and think we're going to solve this hallucination problem,
142
398353
2711
y piensas que resolveremos la alucinación,
el problema de fiabilidad,
06:41
we're going to solve the reliability problem,
143
401105
2127
hay que mejorar las herramientas.
06:43
the tools still need to get better than they are now.
144
403274
2503
Y hay dos cosas que necesitan para eso.
06:45
And there's two things they need to do that.
145
405777
2085
Una es muchos más datos
06:47
One is lots more data
146
407862
1168
y la otra es que la tecnología tiene que mejorar.
06:49
and two is the technology itself has to improve.
147
409072
2294
06:51
So where are we going to get that data?
148
411783
1960
Entonces, ¿de dónde vamos a obtener esos datos?
06:53
Because they've kind of taken all the reliable stuff online already.
149
413785
3837
Porque ya han tomado todo lo confiable que hay en línea.
06:57
And if we were to find twice as much data as they've already had,
150
417622
3295
Y si encontráramos el doble de datos de los que ya tienen,
07:00
that doesn't mean they're going to be twice as smart.
151
420959
2502
eso no significa que van a ser el doble de inteligentes.
No sé si hay suficientes datos allá afuera,
07:04
I don't know if there's enough data out there,
152
424295
2169
07:06
and it's compounded by the fact
153
426506
1501
y se complica por el hecho
de que una forma en que la IA generativa ha tenido mucho éxito
07:08
that one way the generative AI has been very successful
154
428049
2920
07:10
is at producing low-quality content online.
155
430969
3211
es produciendo contenido de baja calidad en línea.
Eso incluye bots en redes sociales, desinformación,
07:14
That's bots on social media, misinformation,
156
434222
3253
07:17
and these SEO pages that don't really say anything
157
437475
2377
y estas páginas de SEO que no dicen realmente nada
07:19
but have a lot of ads and come up high in the search results.
158
439894
3212
pero tienen muchos anuncios y aparecen altas en los resultados de búsqueda.
07:23
And if the AI starts training on pages that it generated,
159
443106
4254
Y si la IA comienza a entrenarse en páginas que ella generó,
07:27
we know from decades of AI research that they just get progressively worse.
160
447360
4463
décadas de investigación en IA muestran que empeoran progresivamente.
07:31
It's like the digital version of mad cow disease.
161
451823
2794
Es como la versión digital de la enfermedad de las vacas locas.
07:34
(Laughter)
162
454951
1626
(Risas)
07:36
Let's say we solve the data problem.
163
456577
2336
Digamos que resolvemos el problema de los datos.
07:39
You still have to get the technology better.
164
459247
2169
Aún tienes que mejorar la tecnología.
07:41
And we've seen 50 billion dollars in the last couple years
165
461457
3379
Y hemos visto USD 50 000 millones en los últimos años
07:44
invested in improving generative AI.
166
464836
3128
invertidos en mejorar la IA generativa.
Y eso ha resultado en USD 3000 millones en ingresos.
07:48
And that's resulted in three billion dollars in revenue.
167
468006
3336
07:51
So that's not sustainable.
168
471342
1585
Eso no es sostenible.
07:52
But of course it's early, right?
169
472927
1543
Pero, es temprano, ¿no?
Las empresas pueden encontrar formas de comenzar a usar esta tecnología.
07:54
Companies may find ways to start using this technology.
170
474512
2586
07:57
But is it going to be valuable enough
171
477140
2752
Pero, ¿será suficientemente valiosa
07:59
to justify the tens and maybe hundreds of billions of dollars
172
479934
3170
para justificar decenas y quizás cientos de miles de millones de dólares
08:03
of hardware that needs to be bought
173
483146
2586
en el hardware necesario
08:05
to make these models get better?
174
485773
1835
para hacer que estos modelos mejoren?
No lo creo.
08:08
I don't think so.
175
488109
1126
Y podemos comenzar a mirar ejemplos prácticos para averiguarlo.
08:09
And we can kind of start looking at practical examples to figure that out.
176
489277
3545
08:12
And it leads us to think about where are the spaces we need to worry and not.
177
492864
3670
Nos hace reflexionar sobre qué espacios debemos preocuparnos.
08:16
Because one place that everybody's worried with this
178
496576
2502
Porque un lugar que a todos les preocupa con esto
es que la IA va a quitar todos nuestros trabajos.
08:19
is that AI is going to take all of our jobs.
179
499120
2085
08:21
Lots of people are telling us that’s going to happen,
180
501247
2503
Muchos dicen que eso va a suceder,
y la gente está preocupada.
08:23
and people are worried about it.
181
503750
1543
Y creo que hay un malentendido fundamental en el corazón de eso.
08:25
And I think there's a fundamental misunderstanding at the heart of that.
182
505293
3420
08:28
So imagine this scenario.
183
508713
1209
Imagina este escenario.
08:29
We have a company,
184
509922
1168
Tenemos una empresa,
y pueden permitirse emplear a dos ingenieros de software.
08:31
and they can afford to employ two software engineers.
185
511090
2628
08:33
And if we were to give those engineers some generative AI to help write code,
186
513760
4004
Y si damos IA generativa a esos ingenieros para escribir código,
08:37
which is something it's pretty good at,
187
517805
1877
que es algo en lo que es bastante buena,
08:39
let's say they're twice as efficient.
188
519682
1794
digamos que son el doble de eficientes.
08:41
That's a big overestimate, but it makes the math easy.
189
521517
3462
Eso es una gran sobreestimación, pero facilita los cálculos.
Así que en ese caso, la empresa tiene dos opciones.
08:45
So in that case, the company has two choices.
190
525021
2127
Podrían despedir a uno de esos ingenieros de software
08:47
They could fire one of those software engineers
191
527148
2336
08:49
because the other one can do the work of two people now,
192
529525
2670
porque el otro puede hacer el trabajo de dos personas,
08:52
or they already could afford two of them,
193
532195
3712
o ya podrían permitirse dos de ellos,
08:55
and now they're twice as efficient,
194
535948
1877
y ahora son el doble de eficientes,
08:57
so they're bringing in more money.
195
537867
1627
así que están generando más dinero.
08:59
So why not keep both of them and take that extra profit?
196
539535
3671
Entonces, ¿por qué no mantener a ambos y aprovechar esa ganancia extra?
La única forma en que esta matemática falla es si la IA es tan cara
09:03
The only way this math fails is if the AI is so expensive
197
543247
4338
09:07
that it's not worth it.
198
547585
1585
que no vale la pena.
Pero eso sería como si la IA costara 100 000 dólares al año
09:09
But that would be like the AI is 100,000 dollars a year
199
549212
3670
09:12
to do one person's worth of work.
200
552882
2169
para hacer el trabajo de una persona.
09:15
So that sounds really expensive.
201
555093
2293
Así que eso suena realmente caro.
09:17
And practically,
202
557428
1377
Y prácticamente,
09:18
there are already open-source versions of these tools
203
558805
2836
ya hay versiones de código abierto de estas herramientas
09:21
that are low-cost, that companies can install and run themselves.
204
561682
3295
que son de bajo costo, que las empresas pueden instalar y ejecutar por sí mismas.
09:25
Now they don’t perform as well as the flagship models,
205
565019
2878
Ahora, no rinden tan bien como los modelos principales,
09:27
but if they're half as good and really cheap,
206
567939
3044
pero si son la mitad de buenas y realmente baratas,
09:30
wouldn't you take those over the one that costs 100,000 dollars a year
207
570983
3337
¿no las elegirías sobre la que cuesta 100 000 dólares al año
para hacer el trabajo de una persona?
09:34
to do one person's work?
208
574320
1168
09:35
Of course you would.
209
575530
1167
Por supuesto que sí.
09:36
And so even if we solve reliability, we solve the data problem,
210
576697
3003
Y así, si resolvemos la fiabilidad,
resolvemos el problema de los datos,
09:39
we make the models better,
211
579700
1585
mejoramos los modelos,
09:41
the fact that there are cheap versions of this available
212
581285
3212
el hecho de que haya versiones baratas de esto disponibles
09:44
suggests that companies aren't going to be spending
213
584497
2419
sugiere que las empresas no van a gastar
09:46
hundreds of millions of dollars to replace their workforce with AI.
214
586916
3712
cientos de millones de dólares para reemplazar su fuerza laboral con IA.
09:50
There are areas that we need to worry, though.
215
590670
2169
Sin embargo, hay áreas que necesitamos preocuparnos.
09:52
Because if we look at AI now,
216
592839
1835
Porque si miramos la IA ahora,
09:54
there are lots of problems that we haven't been able to solve.
217
594715
3045
hay muchos problemas que no hemos podido resolver.
He estado construyendo inteligencia artificial durante más de 20 años,
09:58
I've been building artificial intelligence for over 20 years,
218
598094
3086
10:01
and one thing we know
219
601222
1710
y una cosa que sabemos
10:02
is that if we train AI on human data,
220
602974
2919
es que si entrenamos a la IA con datos humanos,
10:05
the AI adopts human biases,
221
605935
2711
la IA adopta sesgos humanos,
10:08
and we have not been able to fix that.
222
608688
2586
y no hemos podido solucionar eso.
10:11
We've seen those biases start showing up in generative AI,
223
611274
3545
Hemos visto que esos sesgos comienzan a aparecer en la IA generativa,
10:14
and the gut reaction is always, well,
224
614861
2085
y la reacción instintiva siempre es, bueno,
10:16
let's just put in some guardrails to stop the AI from doing the biased thing.
225
616988
4337
pongamos algunas barreras para evitar que la IA haga cosas sesgadas.
10:21
But one, that never fixes the bias because the AI finds a way around it.
226
621325
3587
Eso nunca soluciona el sesgo, ya que la IA lo elude.
10:24
And two, the guardrails themselves can cause problems.
227
624954
3253
Y dos, las barreras en sí mismas pueden causar problemas.
10:28
So Google has an AI image generator,
228
628249
2628
Así que Google tiene un generador de imágenes IA,
10:30
and they tried to put guardrails in place to stop the bias in the results.
229
630877
4087
y trataron de poner barreras para detener el sesgo en los resultados.
10:35
And it turned out it made it wrong.
230
635006
2210
Y resultó que lo hizo incorrecto.
10:37
This is a request for a picture
231
637258
1627
Esta es una solicitud de una imagen
10:38
of the signing of the Declaration of Independence.
232
638926
2336
de la firma de la Declaración de Independencia.
10:41
And it's a great picture, but it is not factually correct.
233
641304
3879
Y es una gran imagen, pero no es factualmente correcta.
10:45
And so in trying to stop the bias,
234
645183
2460
Y así, al intentar detener el sesgo,
10:47
we end up creating more reliability problems.
235
647685
4254
terminamos creando más problemas de fiabilidad.
10:51
We haven't been able to solve this problem of bias.
236
651981
3670
No hemos podido resolver este problema de sesgo.
10:55
And if we're thinking about deferring decision making,
237
655693
2794
Y si estamos pensando en delegar la toma de decisiones,
10:58
replacing human decision makers and relying on this technology
238
658529
3712
reemplazar a los tomadores de decisiones humanos y depender de esta tecnología
y no podemos resolver este problema,
11:02
and we can't solve this problem,
239
662283
1793
eso es algo de lo que deberíamos preocuparnos
11:04
that's a thing that we should worry about
240
664076
2044
11:06
and demand solutions to
241
666120
1293
y exigir soluciones
11:07
before it's just widely adopted and employed because it's sexy.
242
667455
3503
antes de que se adopte ampliamente y se utilice solo porque es atractivo.
11:11
And I think there's one final thing that's missing here,
243
671459
3003
Y creo que hay una cosa final que falta aquí,
11:14
which is our human intelligence
244
674503
1627
que es que nuestra inteligencia humana
11:16
is not defined by our productivity at work.
245
676172
3378
no se define por nuestra productividad en el trabajo.
En su núcleo, se define por nuestra capacidad de conectar con otras personas.
11:20
At its core, it's defined by our ability to connect with other people.
246
680092
4171
Nuestra capacidad para tener respuestas emocionales,
11:24
Our ability to have emotional responses,
247
684263
2670
11:26
to take our past and integrate it with new information
248
686974
2878
para tomar nuestro pasado e integrarlo con nueva información
11:29
and creatively come up with new things.
249
689894
2294
y crear cosas nuevas de forma creativa.
Y eso es algo que la inteligencia artificial no puede hacer ahora
11:32
And that’s something that artificial intelligence is not now
250
692188
2919
11:35
nor will it ever be capable of doing.
251
695107
2461
ni será capaz de hacer nunca.
11:37
It may be able to imitate it
252
697610
1501
Puede que sea capaz de imitarlo
11:39
and give us a cheap facsimile of genuine connection
253
699153
3087
y ofrecernos un facsímil barato de conexión genuina
11:42
and empathy and creativity.
254
702281
2127
y empatía y creatividad.
11:44
But it can't do those core things to our humanity.
255
704408
3671
Pero no puede hacer esas cosas fundamentales de nuestra humanidad.
11:48
And that's why I'm not really worried about AGI taking over civilization.
256
708120
5047
Y por eso no me preocupa que la IAG tome el control de la civilización.
11:53
But if you come away from this disbelieving everything I have told you,
257
713209
4504
Pero si te vas de aquí no creyendo nada de lo que te he dicho,
11:57
and right now you're worried
258
717755
1460
y ahora mismo estás preocupado
11:59
about humanity being destroyed by AI overlords,
259
719257
3003
de que la IA destruya a la humanidad,
12:02
the one thing to remember is,
260
722301
1877
lo único que debes recordar es,
12:04
despite what the movies have told you,
261
724220
2085
a pesar de lo que te han dicho las películas,
12:06
if it gets really bad,
262
726347
1460
si se pone realmente mal,
12:07
we still can always just turn it off.
263
727807
2919
siempre podemos simplemente apagarla.
12:10
(Laughter)
264
730768
1001
(Risas)
12:11
Thank you.
265
731769
1168
Gracias.
12:12
(Applause)
266
732979
3837
(Aplausos)
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7