How to Govern AI — Even If It’s Hard to Predict | Helen Toner | TED

61,506 views ・ 2024-05-01

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Daniela Pardo Revisor: Alicia Brito-Antequera
00:03
When I talk to people about artificial intelligence,
0
3583
3963
Cuando hablo con la gente sobre inteligencia artificial,
00:07
something I hear a lot from non-experts is “I don’t understand AI.”
1
7546
5255
algo que escucho mucho de personas sin experiencia es: “No entiendo la IA”.
00:13
But when I talk to experts, a funny thing happens.
2
13260
2794
Pero cuando hablo con expertos, ocurre algo curioso.
00:16
They say, “I don’t understand AI, and neither does anyone else.”
3
16096
4546
Dicen: “No entiendo la IA. Nadie la entiende”.
00:21
This is a pretty strange state of affairs.
4
21393
3503
Esta es una situación bastante extraña.
00:24
Normally, the people building a new technology
5
24896
3295
Normalmente, las personas que desarrollan una nueva tecnología
00:28
understand how it works inside and out.
6
28233
2669
entienden cómo funciona, por dentro y por fuera.
00:31
But for AI, a technology that's radically reshaping the world around us,
7
31695
4546
Pero con la IA, una tecnología que está transformando el mundo,
00:36
that's not so.
8
36283
1167
no es el caso.
00:37
Experts do know plenty about how to build and run AI systems, of course.
9
37492
4588
Los expertos saben mucho sobre cómo crear y ejecutar sistemas de IA, por supuesto.
00:42
But when it comes to how they work on the inside,
10
42455
2503
Pero cuando se trata del funcionamiento interno,
hay grandes limitaciones, en cuanto a lo que sabemos.
00:45
there are serious limits to how much we know.
11
45000
2877
00:48
And this matters because without deeply understanding AI,
12
48420
3879
Y esto es importante porque, sin una comprensión profunda de la IA,
00:52
it's really difficult for us to know what it will be able to do next,
13
52340
4255
nos resulta muy difícil saber qué será capaz de hacer a continuación,
00:56
or even what it can do now.
14
56636
2336
o incluso qué puede hacer ahora.
00:59
And the fact that we have such a hard time understanding
15
59556
3378
El hecho de que nos cueste tanto entender lo que está pasando con la tecnología
01:02
what's going on with the technology and predicting where it will go next,
16
62976
3837
y predecir hacia dónde se dirigirá,
01:06
is one of the biggest hurdles we face in figuring out how to govern AI.
17
66855
4629
es de los mayores obstáculos que tenemos a la hora de decidir cómo regular la IA.
01:12
But AI is already all around us,
18
72861
2294
Pero la IA ya está presente en todas partes,
01:15
so we can't just sit around and wait for things to become clearer.
19
75155
4254
así que no podemos quedarnos sentados, esperando a que las cosas se aclaren.
01:19
We have to forge some kind of path forward anyway.
20
79826
3170
De todos modos, tenemos que forjar algún tipo de camino hacia adelante.
Llevo unos ocho años trabajando en regulaciones y políticas de IA
01:24
I've been working on these AI policy and governance issues
21
84080
3629
01:27
for about eight years,
22
87751
1167
01:28
First in San Francisco, now in Washington, DC.
23
88918
3170
primero en San Francisco y ahora en Washington, DC.
01:32
Along the way, I've gotten an inside look
24
92922
2753
En el camino, he podido ver desde dentro
01:35
at how governments are working to manage this technology.
25
95717
3754
cómo los gobiernos regulan esta tecnología.
01:39
And inside the industry, I've seen a thing or two as well.
26
99471
4421
Y dentro de la industria, también he visto un par de cosas.
01:45
So I'm going to share a couple of ideas
27
105852
3170
Así que compartiré un par de ideas
sobre cómo podría ser el camino para regular la IA.
01:49
for what our path to governing AI could look like.
28
109022
3629
Pero primero, qué realmente hace
01:53
But first, let's talk about what actually makes AI so hard to understand
29
113026
4421
que la IA sea tan difícil de entender y predecir.
01:57
and predict.
30
117489
1251
01:59
One huge challenge in building artificial "intelligence"
31
119616
3837
Uno de los grandes desafíos al crear una “inteligencia” artificial
02:03
is that no one can agree on what it actually means
32
123495
3086
es que no podemos ponernos de acuerdo
sobre lo que realmente significa ser inteligente.
02:06
to be intelligent.
33
126623
1752
Es una situación extraña para desarrollar una nueva tecnología.
02:09
This is a strange place to be in when building a new tech.
34
129000
3170
02:12
When the Wright brothers started experimenting with planes,
35
132212
3295
Cuando los hermanos Wright empezaron a experimentar con aviones,
02:15
they didn't know how to build one,
36
135507
1668
no sabían cómo construir uno,
02:17
but everyone knew what it meant to fly.
37
137175
3128
pero todos sabían lo que significaba volar.
02:21
With AI on the other hand,
38
141596
1794
En cambio, en el caso de la IA,
02:23
different experts have completely different intuitions
39
143431
3295
distintos expertos tienen intuiciones completamente diferentes
02:26
about what lies at the heart of intelligence.
40
146726
2920
sobre lo que constituye la esencia de la inteligencia.
02:29
Is it problem solving?
41
149646
2210
¿Es la resolución de problemas?
02:31
Is it learning and adaptation,
42
151898
2711
¿Se trata del aprendizaje y la adaptación?
02:34
are emotions,
43
154651
1418
¿Son las emociones?
02:36
or having a physical body somehow involved?
44
156111
3128
¿O tener un cuerpo físico involucrado de alguna manera?
02:39
We genuinely don't know.
45
159698
1459
Realmente no lo sabemos.
02:41
But different answers lead to radically different expectations
46
161157
4338
Sin embargo, las diferentes respuestas generan expectativas muy diferentes
02:45
about where the technology is going and how fast it'll get there.
47
165537
4254
sobre el rumbo de la tecnología y la rapidez con la que llegará allí.
02:50
An example of how we're confused is how we used to talk
48
170834
2586
Un ejemplo de esa confusión
es cómo solíamos hablar de IA limitada o general.
02:53
about narrow versus general AI.
49
173461
2294
02:55
For a long time, we talked in terms of two buckets.
50
175797
3795
Durante mucho tiempo, hablamos en términos de dos grupos.
02:59
A lot of people thought we should just be dividing between narrow AI,
51
179634
4129
Mucha gente pensaba que deberíamos dividirnos entre una IA limitada,
03:03
trained for one specific task,
52
183763
1919
entrenada para una tarea específica,
03:05
like recommending the next YouTube video,
53
185724
2669
como recomendar el próximo vídeo de YouTube,
03:08
versus artificial general intelligence, or AGI,
54
188435
3795
y una inteligencia artificial general, o AGI,
03:12
that could do everything a human could do.
55
192272
2586
que podría hacer todo lo que un humano puede hacer.
03:15
We thought of this distinction, narrow versus general,
56
195859
2919
Pensamos que esta distinción, entre limitada y general,
03:18
as a core divide between what we could build in practice
57
198778
3963
era una división fundamental entre lo que podíamos crear en la práctica
03:22
and what would actually be intelligent.
58
202782
2252
y lo que realmente sería inteligente.
03:25
But then a year or two ago, along came ChatGPT.
59
205952
4963
Pero luego, hace uno o dos años, apareció ChatGPT.
03:31
If you think about it,
60
211541
1543
Si lo pensamos bien,
¿se trata de una IA limitada, entrenada para una tarea específica?
03:33
you know, is it narrow AI, trained for one specific task?
61
213126
3712
03:36
Or is it AGI and can do everything a human can do?
62
216838
3170
¿O es AGI y puede hacer todo lo que un humano puede hacer?
03:41
Clearly the answer is neither.
63
221092
1502
Es evidente que no es ninguna.
03:42
It's certainly general purpose.
64
222635
1919
Sin duda, es de uso general.
03:44
It can code, write poetry,
65
224554
2920
Puede programar, escribir poesía,
03:47
analyze business problems, help you fix your car.
66
227515
3045
analizar problemas comerciales y ayudar a reparar un auto.
03:51
But it's a far cry from being able to do everything
67
231352
2795
Pero está muy lejos de ser capaz de hacer todo tan bien como Uds. o yo podríamos.
03:54
as well as you or I could do it.
68
234189
2419
03:56
So it turns out this idea of generality
69
236608
2043
Resulta que esta idea de generalidad,
03:58
doesn't actually seem to be the right dividing line
70
238651
2711
en realidad, no parece ser la línea divisoria correcta
04:01
between intelligent and not.
71
241404
2127
entre inteligentes y no inteligentes.
Y estas cosas representan un gran desafío para todo el campo de la IA ahora.
04:04
And this kind of thing
72
244073
1335
04:05
is a huge challenge for the whole field of AI right now.
73
245450
2794
04:08
We don't have any agreement on what we're trying to build
74
248286
2836
No tenemos ningún acuerdo sobre lo que intentamos crear,
04:11
or on what the road map looks like from here.
75
251164
2419
ni sobre cómo será el camino a partir de ahora.
04:13
We don't even clearly understand the AI systems that we have today.
76
253625
3962
Ni siquiera entendemos con claridad los sistemas de IA que tenemos hoy en día.
¿Por qué?
04:18
Why is that?
77
258004
1251
04:19
Researchers sometimes describe deep neural networks,
78
259297
3003
Los investigadores a veces describen las redes neuronales profundas,
04:22
the main kind of AI being built today,
79
262300
2085
el principal tipo de IA que se está creando, como una caja negra.
04:24
as a black box.
80
264427
1460
04:26
But what they mean by that is not that it's inherently mysterious
81
266304
3670
Pero lo que quieren decir, no es que sea intrínsecamente misterioso
04:29
and we have no way of looking inside the box.
82
269974
2711
y que no tengamos forma de ver el interior de la caja.
04:33
The problem is that when we do look inside,
83
273228
2669
El problema es que cuando miramos dentro, lo que encontramos son millones,
04:35
what we find are millions,
84
275939
2335
04:38
billions or even trillions of numbers
85
278316
2878
miles de millones o incluso billones de números
04:41
that get added and multiplied together in a particular way.
86
281194
3462
que se suman y multiplican de una manera determinada.
Lo que hace que a los expertos les resulte difícil saber qué pasa
04:45
What makes it hard for experts to know what's going on
87
285031
2544
04:47
is basically just, there are too many numbers,
88
287617
3086
es que, básicamente, hay demasiados números
04:50
and we don't yet have good ways of teasing apart what they're all doing.
89
290745
3962
y todavía no tenemos una buena manera de desentrañar lo que hacen.
04:54
There's a little bit more to it than that, but not a lot.
90
294707
3003
Hay algo más que eso, pero no mucho.
04:58
So how do we govern this technology
91
298545
3003
Entonces, ¿cómo regulamos esta tecnología que nos cuesta entender y predecir?
05:01
that we struggle to understand and predict?
92
301589
2628
05:04
I'm going to share two ideas.
93
304717
1502
Voy a compartir dos ideas.
05:06
One for all of us and one for policymakers.
94
306261
3253
Una para todos nosotros y otra para los responsables políticos.
05:10
First, don't be intimidated.
95
310932
2711
En primer lugar, no hay que dejarse intimidar.
Ya sea por la misma tecnología,
05:14
Either by the technology itself
96
314102
2461
05:16
or by the people and companies building it.
97
316563
3086
o por las personas y empresas que la desarrollan.
05:20
On the technology,
98
320400
1168
En cuanto a la tecnología,
05:21
AI can be confusing, but it's not magical.
99
321568
2502
la IA puede resultar confusa, pero no es mágica.
05:24
There are some parts of AI systems we do already understand well,
100
324070
3504
Hay algunas partes de los sistemas de IA que ya entendemos bien.
05:27
and even the parts we don't understand won't be opaque forever.
101
327574
4045
Incluso las partes que no entendemos las terminaremos aclarando.
05:31
An area of research known as “AI interpretability”
102
331619
3295
Un área de investigación conocida como “interpretabilidad de la IA”
05:34
has made quite a lot of progress in the last few years
103
334956
3128
ha avanzado bastante en los últimos años
05:38
in making sense of what all those billions of numbers are doing.
104
338084
3504
en entender lo que hacen todos esos miles de millones de números.
05:42
One team of researchers, for example,
105
342463
2169
Un equipo de investigadores, por ejemplo,
05:44
found a way to identify different parts of a neural network
106
344674
3420
encontró una manera de identificar diferentes partes de una red neuronal
05:48
that they could dial up or dial down
107
348136
2335
que podían aumentar o reducir
05:50
to make the AI's answers happier or angrier,
108
350513
3754
para que las respuestas de la IA sonaran más felices, más enojadas,
05:54
more honest,
109
354309
1418
más honestas, más maquiavélicas, etc.
05:55
more Machiavellian, and so on.
110
355768
2545
05:58
If we can push forward this kind of research further,
111
358771
2503
Si podemos seguir impulsando este tipo de investigación,
06:01
then five or 10 years from now,
112
361316
2210
dentro de cinco o diez años,
06:03
we might have a much clearer understanding of what's going on
113
363526
3003
quizá comprendamos mucho mejor qué ocurre dentro de la llamada caja negra.
06:06
inside the so-called black box.
114
366571
2669
06:10
And when it comes to those building the technology,
115
370325
2669
Y cuando hablamos de los creadores de la tecnología,
si uno no está muy involucrado en aspectos técnicos,
06:13
technologists sometimes act as though
116
373036
1918
06:14
if you're not elbows deep in the technical details,
117
374996
3420
los expertos suelen actuar como si no pudiéramos opinar
06:18
then you're not entitled to an opinion on what we should do with it.
118
378458
3420
sobre lo que deberíamos hacer.
06:22
Expertise has its place, of course,
119
382337
2294
La experiencia importa, por supuesto,
06:24
but history shows us how important it is
120
384672
2169
pero hemos visto lo importante que es
06:26
that the people affected by a new technology
121
386883
3003
que las personas afectadas por una nueva tecnología
06:29
get to play a role in shaping how we use it.
122
389886
2753
puedan participar en la decisión de cómo utilizarla.
06:32
Like the factory workers in the 20th century who fought for factory safety,
123
392639
4629
Como los trabajadores de las fábricas del siglo XX,
que lucharon por la seguridad del sitio.
06:37
or the disability advocates
124
397310
2127
O los defensores de personas con discapacidad
06:39
who made sure the world wide web was accessible.
125
399437
3003
que se aseguraron de que Internet fuera accesible.
06:42
You don't have to be a scientist or engineer to have a voice.
126
402982
3963
No es necesario ser científico o ingeniero para tener voz.
06:48
(Applause)
127
408821
4547
(Aplausos)
06:53
Second, we need to focus on adaptability, not certainty.
128
413868
5464
En segundo lugar, debemos centrarnos en la adaptabilidad,
no en la certeza.
06:59
A lot of conversations about how to make policy for AI
129
419749
3128
Muchas conversaciones sobre el desarrollo de políticas para IA
07:02
get bogged down in fights between, on the one side,
130
422919
2711
se estancan en discusiones entre personas que, por un lado, dicen:
07:05
people saying, "We have to regulate AI really hard right now
131
425672
3003
“Tenemos que regular la IA con firmeza ahora porque es muy arriesgada”.
07:08
because it's so risky."
132
428716
1585
07:10
And on the other side, people saying,
133
430301
1794
Y por otro lado, gente que dice:
“Pero eso acabará con la innovación. Además, los riesgos son falsos”.
07:12
“But regulation will kill innovation, and those risks are made up anyway.”
134
432136
4129
07:16
But the way I see it,
135
436307
1168
Desde mi punto de vista,
07:17
it’s not just a choice between slamming on the brakes
136
437475
2961
no se trata solo de elegir entre pisar el freno o el acelerador.
07:20
or hitting the gas.
137
440478
1502
07:22
If you're driving down a road with unexpected twists and turns,
138
442313
3962
Si conduces por una carretera con giros y curvas inesperadas,
07:26
then two things that will help you a lot
139
446275
2503
dos cosas que te ayudarán mucho
07:28
are having a clear view out the windshield
140
448778
2794
son tener una visión nítida desde el parabrisas
07:31
and an excellent steering system.
141
451614
2419
y un excelente sistema de dirección.
Con la IA, significa tener una idea clara
07:34
In AI, this means having a clear picture of where the technology is
142
454033
5005
de dónde está la tecnología, hacia dónde va,
07:39
and where it's going,
143
459080
1627
07:40
and having plans in place for what to do in different scenarios.
144
460707
3628
y tener estrategias sobre qué hacer en distintas situaciones.
07:44
Concretely, this means things like investing in our ability to measure
145
464752
4338
Concretamente, esto significa invertir en nuestra capacidad de medir
07:49
what AI systems can do.
146
469132
1877
lo que pueden hacer los sistemas de IA.
07:51
This sounds nerdy, but it really matters.
147
471342
3212
Esto suena raro, pero realmente importa.
07:54
Right now, if we want to figure out
148
474595
2044
En este momento, si queremos averiguar si una IA puede hacer algo preocupante,
07:56
whether an AI can do something concerning,
149
476681
2002
07:58
like hack critical infrastructure
150
478725
2377
como hackear infraestructuras críticas
08:01
or persuade someone to change their political beliefs,
151
481102
4671
o persuadir a alguien para que cambie sus creencias políticas,
08:05
our methods of measuring that are rudimentary.
152
485773
2544
nuestros métodos de medición son rudimentarios.
08:08
We need better.
153
488317
1210
Necesitamos algo mejor.
08:10
We should also be requiring AI companies,
154
490319
2545
También deberíamos exigir a las empresas de IA,
08:12
especially the companies building the most advanced AI systems,
155
492905
3420
especialmente, a las que desarrollan los sistemas de IA más avanzados,
08:16
to share information about what they're building,
156
496367
3170
que compartan información sobre lo que están desarrollando,
08:19
what their systems can do
157
499537
1710
las capacidades de sus sistemas y cómo gestionan los riesgos.
08:21
and how they're managing risks.
158
501289
2127
08:23
And they should have to let in external AI auditors to scrutinize their work
159
503458
5589
Y deberían permitir que auditores externos de IA examinen su trabajo
para que las empresas no se limiten a evaluar sus propios deberes.
08:29
so that the companies aren't just grading their own homework.
160
509088
3128
08:33
(Applause)
161
513801
4213
(Aplausos)
Un último ejemplo
08:38
A final example of what this can look like
162
518014
2461
08:40
is setting up incident reporting mechanisms,
163
520475
3503
es la creación de mecanismos de notificación de incidentes,
08:44
so that when things do go wrong in the real world,
164
524020
2753
de modo que cuando las cosas vayan mal en el mundo real,
08:46
we have a way to collect data on what happened
165
526814
2962
podamos recopilar información sobre lo que ocurrió
08:49
and how we can fix it next time.
166
529817
2002
y cómo podemos solucionarlo la próxima vez.
08:51
Just like the data we collect on plane crashes and cyber attacks.
167
531819
4421
Al igual que los datos que recopilamos sobre accidentes aéreos y ciberataques.
08:57
None of these ideas are mine,
168
537158
1668
Ninguna de estas ideas son mías.
08:58
and some of them are already starting to be implemented in places like Brussels,
169
538868
4504
Algunas de ellas ya están empezando a implementarse
en lugares como Bruselas, Londres e incluso Washington.
09:03
London, even Washington.
170
543372
2128
La razón por la que hago hincapié en estas ideas,
09:06
But the reason I'm highlighting these ideas,
171
546042
2627
09:08
measurement, disclosure, incident reporting,
172
548669
4046
de medición, divulgación y la notificación de incidentes,
09:12
is that they help us navigate progress in AI
173
552757
2794
es porque nos ayudan a progresar con la IA
09:15
by giving us a clearer view out the windshield.
174
555593
3086
al ofrecernos una visión más clara desde el parabrisas.
09:18
If AI is progressing fast in dangerous directions,
175
558721
3712
Si la IA avanza con rapidez en direcciones peligrosas,
09:22
these policies will help us see that.
176
562475
2377
estas políticas nos ayudarán a darnos cuenta.
09:25
And if everything is going smoothly, they'll show us that too,
177
565436
3545
Y si todo va bien, también nos lo demostrarán
09:28
and we can respond accordingly.
178
568981
2211
y podremos responder en consecuencia.
09:33
What I want to leave you with
179
573569
1502
Lo que quiero decir, en resumen,
09:35
is that it's both true that there's a ton of uncertainty
180
575071
4629
es que es cierto que hay mucha incertidumbre
09:39
and disagreement in the field of AI.
181
579742
2961
y desacuerdo en el campo de la IA.
09:42
And that companies are already building and deploying AI
182
582745
4046
Y que, de todos modos, las empresas ya están creando e implementando la IA
09:46
all over the place anyway in ways that affect all of us.
183
586833
4462
en todas partes, de formas que nos afectan a todos.
Si se las deja a su suerte,
09:52
Left to their own devices,
184
592004
1544
09:53
it looks like AI companies might go in a similar direction
185
593548
3169
parece que las empresas de IA podrían ir en una dirección similar
09:56
to social media companies,
186
596717
1961
a la de las empresas de redes sociales,
09:58
spending most of their resources on building web apps
187
598678
2627
dedicando la mayoría de recursos a crear aplicaciones web
10:01
and for users' attention.
188
601305
1836
y captar la atención de los usuarios.
Y por defecto, parece que el enorme poder de los sistemas de IA más avanzados
10:04
And by default, it looks like the enormous power of more advanced AI systems
189
604016
4463
10:08
might stay concentrated in the hands of a small number of companies,
190
608479
4046
podrían permanecer concentrados en manos de un pequeño número de empresas,
10:12
or even a small number of individuals.
191
612567
1918
o incluso, de un pequeño número de personas.
10:15
But AI's potential goes so far beyond that.
192
615278
3253
Pero el potencial de la IA va mucho más allá.
10:18
AI already lets us leap over language barriers
193
618531
2711
La IA ya nos permite superar las barreras lingüísticas
10:21
and predict protein structures.
194
621284
2252
y predecir estructuras de las proteínas.
10:23
More advanced systems could unlock clean, limitless fusion energy
195
623536
4504
Los sistemas más avanzados podrían liberar energía de fusión limpia e ilimitada
o revolucionar la forma en que cultivamos alimentos
10:28
or revolutionize how we grow food
196
628082
2503
10:30
or 1,000 other things.
197
630626
1835
u otras mil cosas.
10:32
And we each have a voice in what happens.
198
632962
2586
Y cada uno de nosotros tiene una voz en lo que sucede.
10:35
We're not just data sources,
199
635548
2002
No somos solo fuentes de datos,
10:37
we are users,
200
637592
2043
somos usuarios,
10:39
we're workers,
201
639635
1502
somos trabajadores,
somos ciudadanos.
10:41
we're citizens.
202
641137
1209
10:43
So as tempting as it might be,
203
643514
2961
Por muy tentador que sea,
10:46
we can't wait for clarity or expert consensus
204
646475
4672
estamos ansiosos por la claridad o el consenso de los expertos
10:51
to figure out what we want to happen with AI.
205
651147
3378
para saber qué queremos que suceda con la IA.
10:54
AI is already happening to us.
206
654525
2586
La IA ya es una realidad para todos.
10:57
What we can do is put policies in place
207
657737
3211
Lo que podemos hacer es establecer políticas
11:00
to give us as clear a picture as we can get
208
660948
2670
que nos den una imagen, lo más clara posible,
11:03
of how the technology is changing,
209
663618
2460
de cómo está cambiando la tecnología,
y luego podemos ponernos manos a la obra
11:06
and then we can get in the arena and push for futures we actually want.
210
666078
5089
y buscar el futuro que realmente queremos.
11:11
Thank you.
211
671751
1126
Gracias.
11:12
(Applause)
212
672919
3378
(Aplausos)
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7