Why AI Needs a “Nutrition Label” | Kasia Chmielinski | TED

31,845 views ・ 2024-06-14

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Sebastian Betti Revisor: Alicia Brito-Antequera
No conozco a la mayoría ni a ninguno de Uds.,
00:04
Now, I haven't met most of you or really any of you,
0
4209
3295
00:07
but I feel a really good vibe in the room.
1
7504
2085
pero siento una muy buena onda en la sala.
00:09
(Laughter)
2
9631
1209
(Risas)
00:10
And so I think I'd like to treat you all to a meal.
3
10882
2503
Me gustaría invitarlos a comer a todos.
00:13
What do you think?
4
13426
1252
¿Qué opinan?
00:14
Yes? Great, so many new friends.
5
14678
1877
¿Sí? Genial, muchos amigos nuevos.
00:17
So we're going to go to this cafe,
6
17681
1668
Vamos a ir a este café,
00:19
they serve sandwiches.
7
19349
1501
sirven sándwiches.
00:20
And the sandwiches are really delicious.
8
20850
2002
Y los sándwiches son realmente deliciosos.
00:22
But I have to tell you that sometimes they make people really, really sick.
9
22852
4422
Pero debo decirte que a veces hacen que la gente se ponga muy, muy enferma.
00:27
(Laughter)
10
27774
1335
(Risas)
00:29
And we don't know why.
11
29109
1251
Y no sabemos por qué.
00:30
Because the cafe won't tell us how they make the sandwich,
12
30402
2711
Como la cafetería no nos dice cómo hacen el sándwich,
00:33
they won't tell us about the ingredients.
13
33154
2044
tampoco nos dicen los ingredientes.
00:35
And then the authorities have no way to fix the problem.
14
35198
3128
Además, las autoridades no tienen forma de solucionar el problema.
00:38
But the offer still stands.
15
38702
1293
Pero la oferta sigue en pie.
00:39
So who wants to get a sandwich?
16
39995
1543
¿Quién quiere un sándwich?
00:41
(Laughter)
17
41538
1168
(Risas)
00:42
Some brave souls, we can talk after.
18
42747
1752
Algunas almas valientes, podemos hablar después.
00:45
But for the rest of you, I understand.
19
45000
2168
Al resto de Uds., los entiendo.
00:47
You don't have enough information
20
47210
1585
No tienen suficiente información
00:48
to make good choices about your safety
21
48795
1835
para tomar buenas decisiones sobre su seguridad
00:50
or even fix the issue.
22
50672
1835
o incluso para solucionar el problema.
00:52
Now, before I further the anxiety here, I'm not actually trying to make you sick,
23
52507
3879
Ahora, antes de continuar con la ansiedad, no estoy intentando que se enfermen,
00:56
but this is an analogy to how we're currently making algorithmic systems,
24
56428
3545
pero esto es una analogía con la forma de crear sistemas algorítmicos,
00:59
also known as artificial intelligence or AI.
25
59973
3003
también conocidos como inteligencia artificial o IA.
01:04
Now, for those who haven't thought about the relationship
26
64060
2753
Ahora, para aquellos que no hayan pensado en la relación
01:06
between AI and sandwiches, don't worry about it,
27
66813
2586
entre la IA y los sándwiches, no se preocupen por eso,
01:09
I'm here for you, I'm going to explain.
28
69441
2294
les voy a explicar.
01:11
You see, AI systems, they provide benefit to society.
29
71776
3754
Verán, los sistemas de IA brindan beneficios a la sociedad.
01:15
They feed us,
30
75530
1251
Nos alimentan,
01:16
but they're also inconsistently making us sick.
31
76823
3670
pero también nos enferman de manera inconsistente.
01:20
And we don't have access to the ingredients that go into the AI.
32
80535
4505
Y no tenemos acceso a los ingredientes que componen la IA.
01:25
And so we can't actually address the issues.
33
85040
2460
Por lo tanto, no podemos abordar los problemas.
Tampoco podemos dejar de consumir IA
01:28
We also can't stop eating AI
34
88418
1793
como podemos dejar de comer un sándwich sospechoso
01:30
like we can just stop eating a shady sandwich
35
90211
2128
porque está en todas partes
01:32
because it's everywhere,
36
92339
1209
01:33
and we often don't even know that we're encountering a system
37
93590
2878
y, a menudo, ni siquiera nos damos cuenta
01:36
that's algorithmically based.
38
96509
1794
de estar ante un sistema con algoritmos de IA.
01:38
So today, I'm going to tell you about some of the AI trends that I see.
39
98345
3878
Hablaré de algunas de las tendencias de IA que veo.
Me basaré en mi experiencia en la creación de estos sistemas
01:42
I'm going to draw on my experience building these systems
40
102223
2711
01:44
over the last two decades to tell you about the tools
41
104934
2545
en las últimas dos décadas para hablar de las herramientas
01:47
that I and others have built to look into these AI ingredients.
42
107520
3879
que otros y yo hemos creado para analizar estos ingredientes de la IA.
01:51
And finally, I'm going to leave you with three principles
43
111441
2711
Y, por último, les voy a dejar con tres principios
01:54
that I think will give us a healthier relationship
44
114152
2336
que creo que nos ayudarán
01:56
to the companies that build artificial intelligence.
45
116488
2836
a mantener una relación más sana con las empresas que desarrollan la IA.
Voy a empezar con la pregunta: ¿cómo hemos llegado hasta aquí?
02:00
I'm going to start with the question, how did we get here?
46
120241
2878
02:03
AI is not new.
47
123745
2169
La IA no es nueva.
02:06
We have been living alongside AI for two decades.
48
126665
3378
Llevamos dos décadas conviviendo con la IA.
02:10
Every time that you apply for something online,
49
130418
2294
Cada vez que solicitas algo por Internet, abres una cuenta bancaria
02:12
you open a bank account or you go through passport control,
50
132712
3420
o pasas por el control de pasaportes,
02:16
you're encountering an algorithmic system.
51
136132
2044
te encuentras con un sistema algorítmico.
02:19
We've also been living with the negative repercussions of AI for 20 years,
52
139010
4088
También llevamos 20 años viviendo con las repercusiones negativas de la IA,
02:23
and this is how it makes us sick.
53
143139
1752
y es por eso que nos enfermamos.
02:25
These systems get deployed on broad populations,
54
145266
2920
Estos sistemas se implementan en poblaciones amplias
02:28
and then certain subsets end up getting negatively disparately impacted,
55
148228
4921
y, luego, ciertos subconjuntos terminan teniendo un impacto negativo y dispar
02:33
usually on the basis of race or gender or other characteristics.
56
153191
3504
por lo general, en función de la raza, el género u otras características.
02:37
We need to be able to understand the ingredients to these systems
57
157862
3087
Tenemos que poder entender los ingredientes de estos sistemas
02:40
so that we can address the issues.
58
160990
2086
para abordar los problemas.
02:43
So what are the ingredients to an AI system?
59
163827
3086
¿Cuáles son los ingredientes de un sistema de IA?
02:46
Well, data fuels the AI.
60
166955
2294
Bueno, los datos alimentan la IA.
02:49
The AI is going to look like the data that you gave it.
61
169290
2962
La IA se parecerá a los datos que le proporcionaste.
02:52
So for example,
62
172752
1293
Por ejemplo,
02:54
if I want to make a risk-assessment system for diabetes,
63
174087
4129
si quiero crear un sistema de evaluación del riesgo de la diabetes,
02:58
my training data set might be adults in a certain region.
64
178258
4337
mi conjunto de datos de entrenamiento
podría incluir a adultos de una región determinada.
03:02
And so I'll build that system,
65
182929
1460
Así que crearé ese sistema,
03:04
it'll work really well for those adults in that region.
66
184389
2627
que funcionará muy bien para los adultos de esa región.
03:07
But it does not work for adults in other regions
67
187016
2294
Pero no funciona para los adultos de otras regiones
03:09
or maybe at all for children.
68
189310
1419
ni tampoco para los niños.
03:10
So you can imagine if we deploy this for all those populations,
69
190770
3003
Así que imaginen de aplicarlo a esas poblaciones,
03:13
there are going to be a lot of people who are harmed.
70
193815
2502
habrá muchas personas que se verán perjudicadas.
03:16
We need to be able to understand the quality of the data before we use it.
71
196317
4422
Tenemos que ser capaces de entender la calidad de los datos antes de utilizarlos.
03:22
But I'm sorry to tell you that we currently live
72
202157
2252
Pero lamento decirles que actualmente vivimos
03:24
in what I call the Wild West of data.
73
204451
2502
en lo que yo llamo el Lejano Oeste de los datos.
03:26
It's really hard to assess quality of data before you use it.
74
206995
4171
Es muy difícil evaluar la calidad de los datos antes de usarlos.
No existen estándares globales
03:31
There are no global standards for data quality assessment,
75
211166
2877
para la evaluación de la calidad de los datos,
03:34
and there are very few data regulations around how you can use data
76
214085
3295
y hay muy pocas regulaciones sobre cómo se pueden usar los datos
03:37
and what types of data you can use.
77
217422
2377
y qué tipos de datos se pueden usar.
03:40
This is kind of like in the food safety realm.
78
220967
2294
Es algo parecido a lo que ocurre en la seguridad alimentaria.
03:43
If we couldn't understand where the ingredients were sourced,
79
223303
3545
Si no podíamos entender de dónde procedían los ingredientes,
03:46
we also had no idea whether they were safe for us to consume.
80
226890
3003
tampoco sabíamos si era seguro consumirlos.
03:50
We also tend to stitch data together,
81
230643
2253
También tendemos a unir datos,
03:52
and every time we stitch this data together,
82
232937
2086
y cada vez que juntamos estos datos,
que podemos encontrar en Internet, extraerlos, generarlos,
03:55
which we might find on the internet, scrape, we might generate it,
83
235023
3128
03:58
we could source it.
84
238151
1376
obtenerlos.
03:59
We lose information about the quality of the data.
85
239527
3128
Perdemos información sobre la calidad de los datos.
Y las personas que están creando los modelos
04:03
And the folks who are building the models
86
243156
1960
04:05
are not the ones that found the data.
87
245116
1919
no son las que encontraron los datos.
04:07
So there's further information that's lost.
88
247076
2336
Por lo tanto, hay más información que se ha perdido.
04:10
Now, I've been asking myself a lot of questions
89
250497
2210
Ahora, me he estado haciendo muchas preguntas
04:12
about how can we understand the data quality before we use it.
90
252749
3754
sobre cómo podemos entender la calidad de los datos antes de usarlos.
04:16
And this emerges from two decades of building these kinds of systems.
91
256544
4672
Y esto se debe a dos décadas de construcción de este tipo de sistemas.
Me capacitaron para construir sistemas
04:21
The way I was trained to build systems is similar to how people do it today.
92
261216
3920
de manera similar a como lo hacen las personas hoy en día.
04:25
You build for the middle of the distribution.
93
265178
2210
Construyes para la mitad de la distribución.
04:27
That's your normal user.
94
267430
1919
Es tu usuario normal.
En mi opinión, muchos de mis datos de entrenamiento
04:29
So for me, a lot of my training data sets
95
269390
1961
04:31
would include information about people from the Western world who speak English,
96
271392
4213
incluirían información sobre personas del mundo occidental que hablan inglés
04:35
who have certain normative characteristics.
97
275605
2336
y que tienen ciertas características normativas.
04:37
And it took me an embarrassingly long amount of time
98
277982
2461
Y me llevó un tiempo embarazosamente largo
04:40
to realize that I was not my own user.
99
280443
2503
darme cuenta de que no era mi propio usuario.
04:43
So I identify as non-binary, as mixed race,
100
283696
2628
Así que me identifico como no binaria, como mestiza,
04:46
I wear a hearing aid
101
286324
1668
uso un audífono
04:47
and I just wasn't represented in the data sets that I was using.
102
287992
3587
y simplemente no aparecía en los datos que utilizaba.
04:51
And so I was building systems that literally didn't work for me.
103
291621
3378
Así que estaba creando sistemas que, literalmente, no me funcionaban.
04:55
And for example, I once built a system that repeatedly told me
104
295041
3462
Y, por ejemplo, una vez construí un sistema que me decía repetidamente
04:58
that I was a white Eastern-European lady.
105
298503
3670
que era una mujer blanca del este de Europa.
05:02
This did a real number on my identity.
106
302966
2043
Esto marcó un número real en mi identidad.
05:05
(Laughter)
107
305051
1919
(Risas)
05:06
But perhaps even more worrying,
108
306970
1793
Pero quizás lo más preocupante es que
05:08
this was a system to be deployed in health care,
109
308805
2961
era un sistema de atención de salud, en el que
05:11
where your background can determine things like risk scores for diseases.
110
311808
4296
los antecedentes podían determinar puntuaciones de riesgo de enfermedades.
05:17
And so I started to wonder,
111
317605
1627
Empecé a ver si podía crear herramientas
05:19
can I build tools and work with others to do this
112
319274
2794
y usar otras herramientas para hacerlo,
05:22
so that I can look inside of a dataset before I use it?
113
322068
2836
para ver los datos antes de usarlos.
05:25
In 2018, I was part of a fellowship at Harvard and MIT,
114
325655
3629
En 2018, obtuve una beca en Harvard y el MIT
05:29
and I, with some colleagues, decided to try to address this problem.
115
329284
4379
y, junto con algunos colegas, decidí intentar abordar este problema.
05:33
And so we launched the Data Nutrition Project,
116
333705
2836
Por eso lanzamos el Data Nutrition Project,
05:36
which is a research group and also a nonprofit
117
336541
2919
que es un grupo de investigación y una organización sin fines de lucro
05:39
that builds nutrition labels for datasets.
118
339502
2711
que crea etiquetas nutricionales para conjuntos de datos.
05:43
So similar to food nutrition labels,
119
343381
2628
Como en las etiquetas de información nutricional
05:46
the idea here is that you can look inside of a data set before you use it.
120
346050
3504
la idea es revisar los datos antes de usarlos.
05:49
You can understand the ingredients,
121
349554
1710
Puedes entender los ingredientes
05:51
see whether it's healthy for the things that you want to do.
122
351264
2878
y ver si son saludables para lo que quieres hacer.
05:54
Now this is a cartoonified version of the label.
123
354142
2669
Esta es una versión caricaturizada de la etiqueta.
05:56
The top part tells you about the completion of the label itself.
124
356811
4213
La parte superior informa sobre la finalización de la etiqueta en sí.
06:01
And underneath that you have information about the data,
125
361065
2628
Y debajo hay información de datos, descripción,
06:03
the description, the keywords, the tags,
126
363693
2044
palabras clave, etiquetas
06:05
and importantly, on the right hand side,
127
365778
1919
y, lo más importante, a la derecha,
06:07
how you should and should not use the data.
128
367697
2586
cómo se debe y no se debe usar los datos.
06:10
If you could scroll on this cartoon,
129
370700
1793
Si pudieran desplazarse por esta caricatura,
06:12
you would see information about risks and mitigation strategies
130
372493
3003
verían información de riesgos y estrategias de mitigación
06:15
across a number of vectors.
131
375496
1544
en varios vectores.
06:17
And we launched this with two audiences in mind.
132
377707
2836
Y lo lanzamos pensando en dos públicos.
06:20
The first audience are folks who are building AI.
133
380543
3545
La primera audiencia son personas que crean IA.
06:24
So they’re choosing datasets.
134
384130
1418
Eligen los datos.
06:25
We want to help them make a better choice.
135
385590
2294
Queremos ayudarlos a tomar una mejor decisión.
06:27
The second audience are folks who are building datasets.
136
387926
3128
La segunda audiencia son las personas que crean los datos.
06:31
And it turns out
137
391095
1168
Y resulta que
06:32
that when you tell someone they have to put a label on something,
138
392305
3086
si le dices a alguien que tiene que poner una etiqueta,
06:35
they think about the ingredients beforehand.
139
395391
2086
piensa de antemano en los ingredientes.
06:38
The analogy here might be,
140
398102
1544
La analogía podría ser que
06:39
if I want to make a sandwich and say that it’s gluten-free,
141
399687
2878
si quiero hacer un sándwich y decir que no contiene gluten,
06:42
I have to think about all the components as I make the sandwich,
142
402607
3045
tengo que pensar en todos los componentes al hacer el sándwich:
06:45
the bread and the ingredients, the sauces.
143
405652
2210
el pan y los ingredientes, las salsas.
06:47
I can't just put it on a sandwich and put it in front of you
144
407904
2836
No puedo ponerlo en un sándwich y simplemente
06:50
and tell you it's gluten-free.
145
410740
1960
decir que no contiene gluten.
06:52
We're really proud of the work that we've done.
146
412700
2253
Estamos muy orgullosos del trabajo realizado.
06:54
We launched this as a design and then a prototype
147
414994
2336
Lo lanzamos como un diseño y luego como un prototipo
06:57
and ultimately a tool for others to make their own labels.
148
417330
3920
y, en última instancia, como herramienta para crear las propias etiquetas.
07:01
And we've worked with experts at places like Microsoft Research,
149
421709
3045
Trabajamos con expertos de Microsoft Research,
07:04
the United Nations and professors globally
150
424754
3045
Naciones Unidas y profesores del mundo
07:07
to integrate the label and the methodology
151
427840
2002
para integrar la etiqueta y la metodología
07:09
into their work flows and into their curricula.
152
429884
2628
en sus flujos de trabajo y en sus planes de estudio.
Pero sabemos que solo llega hasta cierto punto.
07:13
But we know it only goes so far.
153
433096
1877
07:15
And that's because it's actually really hard to get a label
154
435014
2920
Y eso se debe a que es muy difícil colocar una etiqueta
07:17
on every single dataset.
155
437976
2293
a cada dato.
07:20
And this comes down to the question
156
440311
1710
Y esto se reduce a la pregunta
07:22
of why would you put a label on a dataset to begin with?
157
442063
3086
¿por qué pondrías una etiqueta a los datos para empezar?
07:25
Well, the first reason is not rocket science.
158
445525
2169
Bueno, la primera razón no es una ciencia espacial.
07:27
It's that you have to.
159
447735
1835
Hay que hacerlo.
07:29
And this is, quite frankly, why food nutrition labels exist.
160
449570
2878
Y esta es, francamente,
la razón por la que existen las etiquetas nutricionales de los alimentos.
07:32
It's because if they didn't put them on the boxes, it would be illegal.
161
452490
3420
Es porque si no las pusieran en las cajas, sería ilegal.
07:36
However, we don't really have AI regulation.
162
456703
2377
Sin embargo, en realidad no tenemos una regulación de la IA.
07:39
We don't have much regulation around the use of data.
163
459122
2627
No tenemos mucha regulación sobre el uso de los datos.
07:42
Now there is some on the horizon.
164
462208
1960
Pero hay algunas en el horizonte.
07:44
For example, the EU AI Act just passed this week.
165
464168
3420
Por ejemplo, la Ley de IA de la UE acaba de aprobarse esta semana.
Y aunque no hay ningún requisito
07:48
And although there are no requirements around making the training data available,
166
468381
4630
para que los datos de entrenamiento estén disponibles,
07:53
they do have provisions for creating transparency labeling
167
473052
4254
sí hay disposiciones para crear etiquetas transparentes,
como el conjunto de datos, la etiqueta nutricional,
07:57
like the dataset nutrition label, data sheets, data statements.
168
477348
3879
las hojas de datos y las declaraciones de datos.
08:01
There are many in the space.
169
481269
1376
Hay muchos en el espacio.
08:02
We think this is a really good first step.
170
482645
2044
Creemos que este es un primer paso realmente bueno.
08:05
The second reason that you might have a label on a dataset
171
485606
2753
La segunda razón para incluir etiqueta en datos
es porque es una práctica recomendada o una norma cultural.
08:08
is because it is a best practice or a cultural norm.
172
488401
3920
08:13
The example here might be how we're starting to see
173
493364
2544
Al igual que que empezamos a ver que
08:15
more and more food packaging and menus at restaurants
174
495950
3337
cada vez más los alimentos y los menús de los restaurantes
08:19
include information about whether there's gluten.
175
499328
2920
incluyen información sobre si contienen gluten.
08:22
This is not required by law,
176
502248
1794
La ley no lo exige,
08:24
although if you do say it, it had better be true.
177
504042
2627
aunque si lo dices, más vale que sea cierto.
08:27
And the reason that people are adding this to their menus
178
507211
2711
Y la razón por la que la gente lo añade a sus menús
08:29
and their food packaging
179
509922
1168
y envases de alimentos
08:31
is because there's an increased awareness of the sensitivity
180
511090
2878
es porque hay una mayor conciencia de la sensibilidad
08:33
and kind of the seriousness of that kind of an allergy or condition.
181
513968
3754
y el tipo de gravedad de ese tipo de alergia o afección.
08:39
So we're also seeing some movement in this area.
182
519057
2961
Por lo tanto, también vemos algún movimiento en esta área.
08:42
Folks who are building datasets are starting to put nutrition labels,
183
522060
3503
Las personas que crean datos empiezan a incluir etiquetas nutricionales
08:45
data sheets on their datasets.
184
525605
1793
y hojas de datos en sus datos.
08:47
And people who are using data are starting to request the information.
185
527398
3337
Y las personas que utilizan datos empiezan a solicitar la información.
08:50
This is really heartening.
186
530735
1293
Esto es alentador.
08:52
And you might say, "Kasia, why are you up here?
187
532028
2210
Y podrías decir: «Kasia, ¿por qué estás aquí?
08:54
Everything seems to be going well, seems to be getting better."
188
534280
3003
Todo parece ir bien, parece estar mejorando».
08:57
In some ways it is.
189
537700
1210
En cierto modo lo es.
08:58
But I'm also here to tell you that our relationship to data
190
538951
2795
También vine a decirles que nuestra relación con los datos
09:01
is getting worse.
191
541746
1460
está empeorando.
09:03
Now the last few years have seen a supercharged interest
192
543664
3337
En los últimos años, ha aumentado el interés por recopilar datos.
09:07
in gathering datasets.
193
547001
1919
09:09
Companies are scraping the web.
194
549504
1876
Las empresas están explorando la web.
09:11
They're transcribing millions of hours of YouTube videos into text.
195
551380
4004
Transcriben millones de horas de vídeos de YouTube a texto.
09:15
By some estimates, they'll run out of information on the internet by 2026.
196
555885
3879
Según algunas estimaciones,
se quedarán sin información en Internet en 2026.
09:20
They're even considering buying publishing houses
197
560515
2502
Incluso están pensando en comprar editoriales
09:23
so they can get access to printed text and books.
198
563017
2753
para acceder a libros y textos impresos.
09:27
So why are they gathering this information?
199
567980
2503
¿Por qué recopilan esta información?
09:30
Well, they need more and more information
200
570483
1918
Bueno, necesitan cada vez más información
09:32
to train a new technique called generative AI.
201
572443
2670
para entrenar una nueva técnica llamada IA generativa.
09:35
I want to tell you about the size of these datasets.
202
575154
2461
Quiero informarles sobre el tamaño de estos datos.
09:38
If you look at GPT-3, which is a model that launched in 2020,
203
578533
3378
Si vemos GPT-3, un modelo que se lanzó en 2020,
09:41
the training dataset included 300 billion words, or parts of words.
204
581953
5547
los datos de entrenamiento eran 300 000 millones de palabras o partes de palabras.
09:47
Now for context, the English language contains less than a million words.
205
587542
3878
En cuanto al contexto, el idioma inglés contiene menos de un millón de palabras.
09:52
Just three years later, DBRX was launched,
206
592505
3003
Solo tres años después, se lanzó el DBRX,
09:55
which was trained on eight trillion words.
207
595508
3086
entrenado con ocho billones de palabras.
09:58
So 300 billion to eight trillion in three years.
208
598636
3212
De 300 000 a ocho billones en tres años.
10:01
And the datasets are getting bigger.
209
601848
2252
Y los datos son cada vez más.
10:04
Now with each successive model launch,
210
604600
2211
Con cada lanzamiento de modelo sucesivo,
10:06
the datasets are actually less and less transparent.
211
606853
3044
los datos son cada vez menos transparentes.
10:09
And even we have access to the information,
212
609939
2169
Y aunque tengamos acceso a la información,
10:12
it's so big, it's so hard to look inside without any kind of transparency tooling.
213
612108
4838
es muy vasta y muy difícil ver su interior sin herramientas de transparencia.
10:18
And the generative AI itself is also causing some worries.
214
618865
4212
La propia IA generativa también está causando algunas preocupaciones.
10:23
And you've probably encountered this technique through ChatGPT.
215
623077
3712
Y es probable que hayas encontrado esta técnica a través de ChatGPT.
10:26
I don't need to know what you do on the internet,
216
626831
2336
No necesito saber lo que haces en Internet,
10:29
that's between you and the internet,
217
629167
1751
eso es algo entre tú e Internet,
10:30
but you probably know, just like I do,
218
630918
1835
pero probablemente sepan, como yo,
10:32
how easy it is to create information using ChatGPT
219
632795
2378
lo fácil que es crear información con ChatGPT
10:35
and other generative AI technologies
220
635214
1752
y otras tecnologías
10:36
and to put that out onto the web.
221
636966
1919
de IA generativa y publicarla en la web.
10:38
And so we're looking at a situation
222
638885
1710
Por lo tanto, estamos ante una situación
10:40
in which we're going to encounter lots of information
223
640636
2503
en la que vamos a encontrar mucha información
10:43
that's algorithmically generated but we won't know it
224
643139
2502
generada algorítmicamente, pero no la sabremos ni sabremos si es cierta.
10:45
and we won't know whether it's true.
225
645683
1752
10:47
And this increases the scale of the potential risks and harms from AI.
226
647476
3796
Y esto aumenta la magnitud de los posibles riesgos y daños derivados de la IA.
10:51
Not only that, I'm sorry,
227
651981
1460
No solo eso, lo siento,
10:53
but the models themselves are getting controlled
228
653482
2878
sino que los propios modelos están siendo controlados
por un número cada vez menor de actores privados
10:56
by a smaller and smaller number of private actors in US tech firms.
229
656360
4171
de empresas tecnológicas estadounidenses.
11:00
So this is the models that were launched last year, in 2023.
230
660531
4046
Estos son los modelos lanzados el año pasado, en 2023.
11:04
And you can see most of them are pink, meaning they came out of industry.
231
664577
3462
La mayoría son de color rosa,
o sea que salieron de la industria.
Con el tiempo, cada vez son más los que provienen de la industria
11:08
And if you look at this over time, more and more are coming out of industry
232
668080
3587
y cada vez menos los que provienen de todos los demás sectores juntos,
11:11
and fewer and fewer are coming out of all the other sectors combined,
233
671709
3253
11:14
including academia and government,
234
674962
1710
incluidos el mundo académico y el gobierno,
11:16
where technology is often launched in a way
235
676672
2044
donde la tecnología a menudo se lanza de una manera
11:18
that's more easy to be scrutinized.
236
678758
2169
más fácil de analizar.
11:20
So if we go back to our cafe analogy,
237
680927
1793
Volviendo a la analogía de los cafés,
11:22
this is like you have a small number of private actors
238
682762
2878
es como si tuviéramos un pequeño número de actores privados
11:25
who own all the ingredients,
239
685681
1877
propietarios de todos los ingredientes,
11:27
they make all the sandwiches globally,
240
687600
2961
hacen todos los sándwiches del mundo
11:30
and there's not a lot of regulation.
241
690561
1960
y no hay mucha regulación.
En este punto, probablemente estén asustados
11:33
And so at this point you're probably scared
242
693064
2002
11:35
and maybe feeling a little uncomfortable.
243
695107
1961
y tal vez se sientan un poco incómodos.
11:37
Which is ironic because a few minutes ago, I was going to get you all sandwiches
244
697109
3796
Lo cual es irónico porque hace unos minutos, iba a traerles sándwiches a todos
11:40
and you said yes.
245
700905
1168
y me dijeron que sí.
11:42
This is why you should not accept food from strangers.
246
702114
2586
Es por eso que no debes aceptar comida de desconocidos.
11:44
But I wouldn't be up here if I weren't also optimistic.
247
704742
2878
Pero no estaría aquí si no fuera también optimista.
11:47
And that's because I think we have momentum
248
707620
2044
Y eso se debe a que creo que
11:49
behind the regulation and the culture changes.
249
709705
2503
respaldamos la regulación y los cambios culturales.
11:52
Especially if we align ourselves with three basic principles
250
712833
2837
Especialmente si nos alineamos con tres principios básicos
11:55
about how corporations should engage with data.
251
715670
2544
sobre cómo las empresas deben interactuar con los datos.
11:58
The first principle is that companies that gather data should tell us
252
718547
3713
El primer principio es que las empresas que recopilan datos deben decirnos
12:02
what they're gathering.
253
722301
1418
qué están recopilando.
Esto nos permitiría hacer preguntas como:
12:04
This would allow us to ask questions like, is it copyrighted material?
254
724470
3545
¿es material protegido por derechos de autor?
12:08
Is that information private?
255
728057
1919
¿Esa información es privada?
12:09
Could you please stop?
256
729976
1543
¿Podrías parar, por favor?
12:11
It also opens up the data to scientific inquiry.
257
731560
2962
También abre los datos a la investigación científica.
12:15
The second principle is that companies that are gathering our data should tell us
258
735731
3921
El segundo principio es que las empresas que recopilan nuestros datos
12:19
what they're going to do with it before they do anything with it.
259
739694
3253
deben decirnos qué van a hacer con ellos antes de hacer cualquier cosa con ellos.
12:23
And by requiring that companies tell us their plan,
260
743572
2878
Y al exigir que las empresas nos comuniquen su plan,
12:26
this means that they have to have a plan,
261
746450
2294
es decir tienen que tener un plan,
12:28
which would be a great first step.
262
748744
1877
lo que sería un excelente primer paso.
También es probable que esto lleve a minimizar la captura de datos,
12:31
It also probably would lead to the minimization of data capture,
263
751706
3336
ya que no podrían capturar datos
12:35
because they wouldn't be able to capture data
264
755042
2169
si no supieran lo que ya van a hacer con ellos.
12:37
if they didn't know what they were already going to do with it.
265
757253
2961
Y, por último, el tercer principio:
12:40
And finally, principle three,
266
760256
1626
12:41
companies that build AI should tell us about the data
267
761882
2628
las empresas que desarrollan IA deben informarnos sobre los datos
12:44
that they use to train the AI.
268
764552
1960
que utilizan para entrenarla.
Y aquí entran en juego las etiquetas nutricionales
12:47
And this is where dataset nutrition labels
269
767179
2294
12:49
and other transparency labeling comes into play.
270
769515
2294
y otras etiquetas de transparencia.
En el caso de que los datos en sí no estén disponibles,
12:52
You know, in the case where the data itself won't be made available,
271
772893
3212
12:56
which is most of the time, probably,
272
776147
2294
que la mayoría de las veces, probablemente,
12:58
the labeling is critical for us to be able to investigate the ingredients
273
778482
3546
el etiquetado sea fundamental para que podamos investigar los ingredientes
13:02
and start to find solutions.
274
782028
1793
y empezar a encontrar soluciones.
Quiero dejarles con la buena noticia,
13:05
So I want to leave you with the good news,
275
785698
2044
y es que los proyectos de nutrición con base en datos y otros proyectos
13:07
and that is that the data nutrition projects and other projects
276
787742
3003
13:10
are just a small part of a global movement
277
790786
3337
son solo una pequeña parte de un movimiento global
13:14
towards AI accountability.
278
794165
1877
hacia la rendición de cuentas de la IA.
13:16
Dataset Nutrition Label and other projects are just a first step.
279
796792
4088
Dataset Nutrition Label y otros proyectos son solo un primer paso.
La regulación está en el horizonte,
13:21
Regulation's on the horizon,
280
801714
1752
las normas culturales están cambiando,
13:23
the cultural norms are shifting,
281
803507
1544
especialmente si nos alineamos con estos tres principios básicos:
13:25
especially if we align with these three basic principles
282
805051
2961
que las empresas deben decirnos qué recopilan,
13:28
that companies should tell us what they're gathering,
283
808012
2544
13:30
tell us what they're going to do with it before they do anything with it,
284
810598
3462
qué van a hacer con ello antes de hacer cualquier cosa con eso,
13:34
and that companies that are building AI
285
814101
1919
y que las empresas que desarrollan la IA
13:36
should explain the data that they're using to build the system.
286
816062
3336
deben explicar los datos que utilizan para crear el sistema.
Tenemos que hacer que estas organizaciones rindan cuentas
13:40
We need to hold these organizations accountable
287
820191
2210
13:42
for the AI that they're building
288
822443
2002
por la IA que están creando preguntándoles,
13:44
by asking them, just like we do with the food industry,
289
824487
2627
al igual que hacemos con la industria alimentaria,
13:47
what's inside and how did you make it?
290
827156
2294
qué hay dentro y cómo se creó.
Solo así podremos mitigar
13:50
Only then can we mitigate the issues before they occur,
291
830201
3128
los problemas antes de que ocurran, y no después.
13:53
as opposed to after they occur.
292
833371
1918
13:55
And in doing so, create an integrated algorithmic internet
293
835664
3879
Y al hacerlo, cree una Internet algorítmica integrada
13:59
that is healthier for everyone.
294
839585
2669
que sea más saludable para todos.
14:02
Thank you.
295
842546
1168
Gracias.
14:03
(Applause)
296
843714
2836
(Aplausos)
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7