Your Right to Repair AI Systems | Rumman Chowdhury | TED

44,028 views ・ 2024-06-05

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Mariana Ponce Revisor: Sebastian Betti
00:04
I want to tell you a story
0
4543
1835
Quiero contarles una historia
00:06
about artificial intelligence and farmers.
1
6419
4171
sobre la inteligencia artificial y los agricultores.
00:10
Now, what a strange combination, right?
2
10966
3044
Qué extraña combinación, ¿verdad?
00:14
Two topics could not sound more different from each other.
3
14010
4088
No existen dos temas más diferentes.
00:18
But did you know that modern farming actually involves a lot of technology?
4
18431
5047
Pero, ¿sabían que la agricultura moderna en realidad requiere mucha tecnología?
00:23
So computer vision is used to predict crop yields.
5
23478
3796
La visión artificial se usa para predecir el rendimiento de los cultivos.
00:27
And artificial intelligence is used to find,
6
27315
2836
Y la inteligencia artificial se usa para encontrar,
00:30
identify and get rid of insects.
7
30151
2878
identificar y eliminar insectos.
00:33
Predictive analytics helps figure out extreme weather conditions
8
33071
4129
El análisis predictivo ayuda a detectar
condiciones climáticas extremas,
00:37
like drought or hurricanes.
9
37242
1960
como sequías o huracanes.
00:39
But this technology is also alienating to farmers.
10
39744
4547
Sin embargo, esta tecnología también es alienante para los agricultores.
00:44
And this all came to a head in 2017
11
44291
3003
Y llegó a un punto crítico en 2017
00:47
with the tractor company John Deere when they introduced smart tractors.
12
47335
4922
cuando la empresa de tractores John Deere introdujo los tractores inteligentes.
00:52
So before then, if a farmer's tractor broke,
13
52299
2961
Antes, si el tractor de un agricultor se estropeaba,
00:55
they could just repair it themselves or take it to a mechanic.
14
55302
3920
podían repararlo ellos mismos o llevarlo a un mecánico.
00:59
Well, the company actually made it illegal
15
59222
2961
Bueno, de hecho, la empresa prohibió
01:02
for farmers to fix their own equipment.
16
62225
2586
que los agricultores arreglaran sus propios equipos.
01:04
You had to use a licensed technician
17
64811
2836
Había que recurrir a un técnico con licencia
01:07
and farmers would have to wait for weeks
18
67689
2628
y los agricultores tenían que esperar semanas
01:10
while their crops rot and pests took over.
19
70317
3044
mientras sus cultivos se pudrían
y las plagas se apoderaban de ellos.
Así que ellos tomaron el asunto en sus propias manos.
01:14
So they took matters into their own hands.
20
74279
3170
Algunos de ellos aprendieron a programar
01:17
Some of them learned to program,
21
77490
1544
01:19
and they worked with hackers to create patches to repair their own systems.
22
79075
4922
y trabajaron con hackers para crear parches
para reparar sus propios sistemas.
01:23
In 2022,
23
83997
1418
En 2022,
01:25
at one of the largest hacker conferences in the world, DEFCON,
24
85457
3712
en una de las conferencias de hackers más importantes del mundo, DEFCON,
01:29
a hacker named Sick Codes and his team
25
89210
2586
un hacker llamado Sick Codes y su equipo
01:31
showed everybody how to break into a John Deere tractor,
26
91838
3212
le enseñaron a todos cómo hackear un tractor John Deere,
01:35
showing that, first of all, the technology was vulnerable,
27
95091
3629
demostrando que, en primer lugar, la tecnología era vulnerable,
01:38
but also that you can and should own your own equipment.
28
98762
4337
pero también que puedes y deberías ser dueño de tu propio equipo.
01:43
To be clear, this is illegal,
29
103683
2836
Para que quede claro, esto es ilegal,
01:46
but there are people trying to change that.
30
106561
2795
pero hay gente que está tratando de cambiar eso.
01:49
Now that movement is called the “right to repair.”
31
109689
3796
Ese movimiento se llama “derecho a reparar.”
01:53
The right to repair goes something like this.
32
113526
2169
El derecho a reparar se ve más o menos así.
01:55
If you own a piece of technology,
33
115737
1668
Si poseen una pieza de tecnología,
01:57
it could be a tractor, a smart toothbrush,
34
117405
2544
podría ser un tractor, un cepillo de dientes inteligente
01:59
a washing machine,
35
119991
1377
o una lavadora,
02:01
you should have the right to repair it if it breaks.
36
121368
3086
deberían tener derecho a repararla si se rompe.
02:05
So why am I telling you this story?
37
125246
2253
¿Por qué les cuento esta historia?
02:08
The right to repair needs to extend to artificial intelligence.
38
128541
5214
El derecho a la reparación debe extenderse
a la inteligencia artificial.
02:14
Now it seems like every week
39
134214
2127
Ahora parece que cada semana
02:16
there is a new and mind-blowing innovation in AI.
40
136383
3336
hay una innovación nueva y sorprendente en la IA.
02:19
But did you know that public confidence is actually declining?
41
139719
4880
Pero, ¿sabían que la confianza del público está disminuyendo?
02:24
A recent Pew poll showed that more Americans are concerned
42
144599
4963
Una encuesta reciente de Pew mostró que hay más estadounidenses preocupados
02:29
than they are excited about the technology.
43
149604
2503
que entusiasmados por la tecnología.
02:32
This is echoed throughout the world.
44
152148
2211
Esto se repite en todo el mundo.
02:34
The World Risk Poll shows
45
154401
1418
Según la Encuesta Mundial de Riesgos
02:35
that respondents from Central and South America and Africa
46
155860
3462
los encuestados de América Central, América del Sur y África
02:39
all said that they felt AI would lead to more harm than good for their people.
47
159322
6090
creen que la IA traerá más dificultades que beneficios para las personas.
02:46
As a social scientist and an AI developer,
48
166287
2503
Como socióloga y desarrolladora de IA,
02:48
this frustrates me.
49
168790
1585
esto me frustra.
02:50
I'm a tech optimist
50
170417
1293
Soy una optimista de la tecnología porque realmente creo que esta tecnología
02:51
because I truly believe this technology can lead to good.
51
171751
4338
puede conducir al bien.
02:56
So what's the disconnect?
52
176464
1919
Entonces, ¿cuál es la desconexión?
02:58
Well, I've talked to hundreds of people over the last few years.
53
178758
3754
Bueno, he hablado con cientos de personas en los últimos años.
03:02
Architects and scientists, journalists and photographers,
54
182554
3670
Arquitectos y científicos, periodistas y fotógrafos,
03:06
ride-share drivers and doctors,
55
186224
1710
conductores de vehículos compartidos y médicos,
03:07
and they all say the same thing.
56
187976
2961
y todos dicen lo mismo.
03:12
People feel like an afterthought.
57
192272
3795
La gente ha pasado a segundo plano.
03:17
They all know that their data is harvested often without their permission
58
197485
4338
Todos saben que sus datos se recopilan a menudo sin su permiso
03:21
to create these sophisticated systems.
59
201823
2461
para crear estos sistemas sofisticados.
03:24
They know that these systems are determining their life opportunities.
60
204325
4171
Saben que estos sistemas están determinando
sus oportunidades de vida.
03:28
They also know that nobody ever bothered to ask them
61
208496
3545
También saben que nadie se ha molestado en preguntarles
03:32
how the system should be built,
62
212083
1502
cómo debería construirse el sistema,
03:33
and they certainly have no idea where to go if something goes wrong.
63
213585
5964
y, claramente, no tienen ni idea adónde ir si algo sale mal.
03:40
We may not own AI systems,
64
220383
2336
Puede que no seamos dueños de los sistemas de IA,
03:42
but they are slowly dominating our lives.
65
222761
2794
pero poco a poco van dominando nuestras vidas.
03:45
We need a better feedback loop
66
225597
1501
Necesitamos una mejor retroalimentación
03:47
between the people who are making these systems,
67
227140
2961
entre las personas que fabrican estos sistemas
03:50
and the people who are best determined to tell us
68
230101
3337
y las que están mejor preparadas para decirnos
03:53
how these AI systems should interact in their world.
69
233480
3628
cómo deben interactuar en su mundo estos sistemas de IA.
03:57
One step towards this is a process called red teaming.
70
237609
3837
Un paso hacia este objetivo es un proceso denominado red teaming.
04:01
Now, red teaming is a practice that was started in the military,
71
241821
3003
El red teaming es una práctica que se inició en el ejército
04:04
and it's used in cybersecurity.
72
244866
1919
y se usa en ciberseguridad.
04:06
In a traditional red-teaming exercise,
73
246826
2628
En un ejercicio tradicional de red teaming,
04:09
external experts are brought in to break into a system,
74
249454
3920
se contrata a expertos externos para hackear un sistema,
04:13
sort of like what Sick Codes did with tractors, but legal.
75
253374
4338
algo parecido a lo que hacía Sick Codes con los tractores, pero legal.
04:17
So red teaming acts as a way of testing your defenses
76
257712
3670
El red teaming es una forma de poner a prueba tus defensas
04:21
and when you can figure out where something will go wrong,
77
261424
3545
y, si puedes averiguar dónde algo va a salir mal,
04:25
you can figure out how to fix it.
78
265011
3003
puedes averiguar cómo solucionarlo.
04:28
But when AI systems go rogue,
79
268056
2377
Pero cuando los sistemas de IA se descontrolan,
04:30
it's more than just a hacker breaking in.
80
270433
2920
no sólo se trata de la irrupción de un hacker.
04:33
The model could malfunction or misrepresent reality.
81
273394
3754
El modelo podría funcionar mal o tergiversar la realidad.
04:37
So, for example, not too long ago,
82
277190
2044
Por ejemplo, no hace mucho,
04:39
we saw an AI system attempting diversity
83
279234
2627
vimos un sistema de IA que intentaba fomentar la diversidad
04:41
by showing historically inaccurate photos.
84
281903
3503
al mostrar fotos históricamente inexactas.
04:45
Anybody with a basic understanding of Western history
85
285406
2670
Cualquier persona que conozca un poco de historia occidental
04:48
could have told you that neither the Founding Fathers
86
288076
2502
podría decirles que ni los padres fundadores
04:50
nor Nazi-era soldiers would have been Black.
87
290620
2169
ni los soldados nazi habrían sido negros.
04:54
In that case, who qualifies as an expert?
88
294123
3629
En ese caso, ¿quién califica como experto?
04:58
You.
89
298670
1168
Ustedes.
05:00
I'm working with thousands of people all around the world
90
300380
2836
Trabajo con miles de personas de todo el mundo
05:03
on large and small red-teaming exercises,
91
303258
2252
en ejercicios de red teaming, grandes y pequeños,
05:05
and through them we found and fixed mistakes in AI models.
92
305552
4629
y a través de ellos hemos encontrado y corregido errores en los modelos de IA.
También colaboramos con grandes empresas tecnológicas globales
05:10
We also work with some of the biggest tech companies in the world:
93
310181
3587
05:13
OpenAI, Meta, Anthropic, Google.
94
313810
2753
OpenAI, Meta, Anthropic y Google.
05:16
And through this, we've made models work better for more people.
95
316604
4630
Gracias a esto, hemos conseguido que los modelos funcionen mejor para más personas.
05:22
Here's a bit of what we've learned.
96
322277
2168
Esto es lo que hemos aprendido.
05:24
We partnered with the Royal Society in London to do a scientific,
97
324988
3670
Nos asociamos con la Royal Society de Londres
para organizar un evento sobre la desinformación y la información falsa
05:28
mis- and disinformation event with disease scientists.
98
328658
3545
con patólogos.
Lo que descubrieron estos científicos
05:32
What these scientists found
99
332203
1335
05:33
is that AI models actually had a lot of protections
100
333580
2794
es que los modelos de IA tenían muchas protecciones
05:36
against COVID misinformation.
101
336416
2294
contra la desinformación sobre el COVID.
05:38
But for other diseases like measles, mumps and the flu,
102
338751
3546
Pero para otras enfermedades como el sarampión, las paperas y la gripe,
05:42
the same protections didn't apply.
103
342297
2460
no se aplicaban las mismas protecciones.
05:44
We reported these changes,
104
344757
1293
Hemos denunciado estos cambios,
05:46
they’re fixed and now we are all better protected
105
346050
3170
ya se han corregido
y ahora estamos mejor protegidos contra la información errónea
05:49
against scientific mis- and disinformation.
106
349220
2670
y la desinformación científica.
05:52
We did a really similar exercise with architects at Autodesk University,
107
352724
4838
Hicimos un ejercicio muy parecido
con arquitectos de la Universidad de Autodesk,
05:57
and we asked them a simple question:
108
357562
1877
y les hicimos una pregunta sencilla.
05:59
Will AI put them out of a job?
109
359439
2961
¿La IA les quitará su trabajo?
06:02
Or more specifically,
110
362442
2169
O más específicamente,
06:04
could they imagine a modern AI system
111
364611
2043
¿Podrían imaginar un sistema de IA moderno
06:06
that would be able to design the specs of a modern art museum?
112
366696
3670
que pudiera diseñar las especificaciones de un museo de arte moderno?
06:10
The answer, resoundingly, was no.
113
370408
3962
La respuesta fue rotundamente no.
06:14
Here's why, architects do more than just draw buildings.
114
374787
3629
He aquí por qué, los arquitectos hacen más que dibujar edificios.
06:18
They have to understand physics and material science.
115
378458
3336
Tienen que entender la física y la ciencia de los materiales.
06:21
They have to know building codes,
116
381836
1585
Deben conocer los códigos de construcción,
06:23
and they have to do that
117
383463
1251
y tienen que hacerlo
06:24
while making something that evokes emotion.
118
384756
2794
mientras crean algo que evoque emociones.
Lo que querían los arquitectos era un sistema de IA
06:28
What the architects wanted was an AI system
119
388426
2169
06:30
that interacted with them, that would give them feedback,
120
390595
2753
que interactuara con ellos, que les diera su opinión y, tal vez,
06:33
maybe proactively offer design recommendations.
121
393389
2753
que les ofreciera recomendaciones de diseño de forma proactiva.
06:36
And today's AI systems, not quite there yet.
122
396142
3670
Los sistemas de IA actuales aún no están a la altura.
06:39
But those are technical problems.
123
399854
1752
Pero esos son problemas técnicos.
06:41
People building AI are incredibly smart,
124
401648
2043
Las personas que crean IA son muy inteligentes,
06:43
and maybe they could solve all that in a few years.
125
403733
2753
y tal vez puedan resolver todo eso en unos pocos años.
06:46
But that wasn't their biggest concern.
126
406527
1961
Pero esa no era su mayor preocupación.
06:48
Their biggest concern was trust.
127
408529
2795
Su mayor preocupación era la confianza.
06:51
Now architects are liable if something goes wrong with their buildings.
128
411991
4546
Los arquitectos son responsables si algo sale mal en sus edificios.
06:56
They could lose their license,
129
416537
1669
Podrían perder su licencia,
06:58
they could be fined, they could even go to prison.
130
418206
3211
recibir una multa e incluso ir a la cárcel.
07:01
And failures can happen in a million different ways.
131
421459
3086
Y las fallas pueden ocurrir de un millón de maneras diferentes.
07:04
For example, exit doors that open the wrong way,
132
424545
3045
Por ejemplo, las puertas de salida podrían abrirse al revés.
07:07
leading to people being crushed in an evacuation crisis,
133
427632
4296
causando que en una crisis de evacuación las personas sean aplastadas,
07:11
or broken glass raining down onto pedestrians in the street
134
431928
4129
o pueden caer cristales rotos sobre los peatones en la calle
07:16
because the wind blows too hard and shatters windows.
135
436099
3837
debido a que el viento sopla con demasiada fuerza y rompe las ventanas.
Entonces, ¿por qué un arquitecto confiaría su trabajo,
07:20
So why would an architect trust an AI system with their job,
136
440311
3921
su libertad,
07:24
with their literal freedom,
137
444273
2670
a un sistema de IA,
07:26
if they couldn't go in and fix a mistake if they found it?
138
446943
3628
si no puede corregir un error cuando lo encuentra?
07:31
So we need to figure out these problems today, and I'll tell you why.
139
451030
4171
Necesitamos resolver estos problemas ahora mismo, y te explicaré por qué.
07:35
The next wave of artificial intelligence systems, called agentic AI,
140
455201
5047
La próxima ola de sistemas de inteligencia artificial,
denominada IA de agencia,
07:40
is a true tipping point
141
460289
1335
es un punto de inflexión
07:41
between whether or not we retain human agency,
142
461624
4213
entre si conservamos o no la autonomía humana,
07:45
or whether or not AI systems make our decisions for us.
143
465837
3795
o si los sistemas de IA toman o no nuestras decisiones.
07:50
Imagine an AI agent as kind of like a personal assistant.
144
470008
3211
Imaginen a un agente de IA como una especie de asistente personal.
07:53
So, for example, a medical agent might determine
145
473261
3712
Por ejemplo, un agente médico puede determinar
si tu familia necesita citas con el médico o no,
07:57
whether or not your family needs doctor's appointments,
146
477015
2585
07:59
it might refill prescription medications, or in case of an emergency,
147
479642
3379
puede reabastecer los medicamentos recetados
o, en caso de emergencia,
08:03
send medical records to the hospital.
148
483062
2586
enviar la historia clínica al hospital.
08:05
But AI agents can't and won't exist
149
485690
2836
Pero los agentes de IA no pueden existir ni existirán
08:08
unless we have a true right to repair.
150
488568
2210
si no tenemos un auténtico derecho a reparación.
08:10
What parent would trust their child's health to an AI system
151
490820
4922
¿Qué padre confiaría la salud de sus hijos a un sistema de IA
08:15
unless you could run some basic diagnostics?
152
495783
2795
a menos que pudiera realizar algunos diagnósticos básicos?
08:18
What professional would trust an AI system with job decisions,
153
498619
4213
¿Qué profesional confiaría en un sistema de IA para tomar decisiones laborales,
08:22
unless you could retrain it the way you might a junior employee?
154
502874
4296
a menos que pudiera capacitarlo
al igual que un empleado subalterno?
08:28
Now, a right to repair might look something like this.
155
508129
2878
El derecho a reparación podría verse así.
08:31
You could have a diagnostics board
156
511007
2210
Podrían tener un tablero de diagnósticos
08:33
where you run basic tests that you design,
157
513259
3003
en la que realizaran las pruebas básicas que diseñen,
08:36
and if something's wrong, you could report it to the company
158
516304
2836
y, si algo va mal, podrían informarlo a la empresa
y saber cuándo está arreglado.
08:39
and hear back when it's fixed.
159
519140
1585
08:40
Or you could work with third parties like ethical hackers
160
520725
3128
O podrían trabajar con terceros, como hackers éticos,
08:43
who make patches for systems like we do today.
161
523895
2586
que crean parches para sistemas.
08:46
You can download them and use them to improve your system
162
526481
2711
Podrían descargarlos y usarlos para mejorar sus sistemas
08:49
the way you want it to be improved.
163
529233
1919
de la manera que desean que mejore.
08:51
Or you could be like these intrepid farmers and learn to program
164
531194
3628
O podrían ser como estos intrépidos agricultores
08:54
and fine-tune your own systems.
165
534864
3003
y aprender a programar y ajustar sus propios sistemas.
08:58
We won't achieve the promised benefits of artificial intelligence
166
538618
4171
No lograremos los beneficios prometidos de la inteligencia artificial
09:02
unless we figure out how to bring people into the development process.
167
542789
5046
a menos que descubramos cómo incorporar a las personas al proceso de desarrollo.
09:08
I've dedicated my career to responsible AI,
168
548377
3504
He dedicado mi carrera a la IA responsable,
09:11
and in that field we ask the question,
169
551923
3253
y, en ese campo, nos preguntamos:
09:15
what can companies build to ensure that people trust AI?
170
555218
4963
¿Qué pueden crear las empresas para garantizar la confianza en la IA?
09:20
Now, through these red-teaming exercises, and by talking to you,
171
560723
3837
A través de estos ejercicios de red teaming
y al hablar con ustedes,
09:24
I've come to realize that we've been asking the wrong question all along.
172
564602
5339
me he dado cuenta
de que nos hemos estado haciendo la pregunta equivocada.
09:30
What we should have been asking is what tools can we build
173
570566
3921
Lo que deberíamos habernos preguntado
es qué herramientas podemos crear
09:34
so people can make AI beneficial for them?
174
574529
4045
para que las personas puedan hacer que la IA sea beneficiosa para ellas.
09:39
Technologists can't do it alone.
175
579117
2460
Los tecnólogos no pueden hacerlo solos.
09:41
We can only do it with you.
176
581619
2419
Solo podemos hacerlo con ustedes.
09:44
Thank you.
177
584080
1168
Gracias.
09:45
(Applause)
178
585248
2794
(Aplausos)
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7