How AI and Democracy Can Fix Each Other | Divya Siddarth | TED

29,644 views ・ 2024-03-05

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Sebastian Betti Revisor: Alicia Brito-Antequera
00:04
Recently I told someone my work is on democracy and technology.
0
4334
4630
Hace poco le dije a alguien que mi trabajo
se centra en la democracia y la tecnología.
00:09
He turned to me and said,
1
9464
1210
Se volvió hacia mí y me dijo:
00:10
“Wow...
2
10674
1001
"Vaya...
00:11
I’m sorry.”
3
11925
1335
Lo siento".
00:13
(Laughter)
4
13260
1251
(Risas)
00:15
But I love my work.
5
15637
1710
Pero me encanta mi trabajo.
00:17
I know that we can build a world
6
17681
1918
Sé que podemos construir un mundo en el que
00:19
where technological marvels are directed towards people's benefit,
7
19641
4212
las maravillas tecnológicas se dirijan hacia el beneficio de las personas,
00:23
using their input.
8
23895
1460
utilizando sus aportaciones.
00:26
We have gotten so used to seeing democracy as a problem to be solved.
9
26147
4463
Nos hemos acostumbrado a ver la democracia como un problema que hay que resolver.
00:32
But I see democracy as a solution,
10
32028
2878
Pero veo la democracia como una solución,
00:34
not as a problem.
11
34906
1835
no como un problema.
00:37
Democracy was once a radical political project,
12
37909
3003
La democracia alguna vez fue un proyecto político radical,
00:40
itself a cutting-edge social technology,
13
40912
3087
en sí misma una tecnología social de vanguardia,
00:44
a new way to answer the very question we are faced with now,
14
44040
4797
una nueva forma de responder a la pregunta a la que nos enfrentamos ahora,
00:48
in the era of artificial intelligence:
15
48837
2794
en la era de la inteligencia artificial:
00:51
how do we use our capabilities to live well together?
16
51631
4755
¿cómo utilizamos nuestras capacidades para vivir bien juntos?
00:57
We are told that transformative technologies like AI are too complicated,
17
57679
5756
Se nos dice que las tecnologías transformadoras como la IA
son demasiado complicadas, demasiado arriesgadas
01:03
or too risky
18
63435
2419
01:05
or too important to be governed democratically.
19
65895
3546
o demasiado importantes para gobernarse democráticamente.
01:10
But this is precisely why they must be.
20
70650
3462
Pero esa es precisamente la razón por la que deben serlo.
01:14
If existing democracy is unequal to the task,
21
74112
2544
Si la democracia actual no está a la altura de la tarea,
01:16
our job is not to give up on it.
22
76698
2169
nuestro trabajo no es darnos por vencidos.
01:19
Our job is to evolve it.
23
79367
2544
Nuestro trabajo consiste en desarrollarla.
01:22
And to use technology as an asset to help us do so.
24
82746
3253
Y utilizar la tecnología como un activo que nos ayude a hacerlo.
01:26
Still, I understand his doubts.
25
86958
2044
Aun así, comprendo sus dudas.
01:29
I never meant to build my life around new forms of democracy.
26
89336
3670
Nunca quise basar mi vida en torno a nuevas formas de democracia.
01:33
I started out just really believing in the power of science.
27
93632
3378
Empecé creyendo realmente en el poder de la ciencia.
01:38
I was modifying DNA in my kitchen at 12,
28
98053
4504
Estaba modificando el ADN en mi cocina a los 12 años,
01:42
and when I got to Stanford as a computational biology major,
29
102557
3754
y cuando llegué a Stanford para estudiar biología computacional,
01:46
I was converted to a new belief -- technology.
30
106311
3295
me adapté a una nueva creencia: la tecnología.
01:49
I truly believed in the power of tech to change the world.
31
109939
3003
Creía en el poder de la tecnología para cambiar el mundo.
01:52
Maybe, like many of you.
32
112942
1752
Tal vez, como muchos de Uds.
01:55
But I saw that the technologies that really made a difference
33
115695
2878
Pero me di cuenta de que las tecnologías que marcaban la diferencia
01:58
were the ones that were built with and for the collective.
34
118573
3879
eran las que se construían con y para el colectivo.
02:03
Not the billions of dollars
35
123370
1418
No los miles de millones de dólares invertidos
02:04
pumped into the 19th addiction-fueling social app.
36
124829
3128
en la 19a aplicación social que fomenta las adicciones.
02:09
But the projects that combine creating something truly new
37
129167
3629
Sino los proyectos que combinan la creación de algo verdaderamente nuevo
02:12
with building in ways for people to access,
38
132796
3128
con la creación de formas que permitan a las personas acceder a él,
02:15
benefit from and direct it.
39
135924
2252
beneficiarse de él y dirigirlo.
02:18
Instead of social media, think of the internet.
40
138885
2544
En lugar de las redes sociales, piensen en Internet.
02:21
Built with public resources on open standards.
41
141429
3212
Construido con recursos públicos sobre estándares abiertos.
02:25
This is what brought me to democracy.
42
145892
2669
Esto es lo que me llevó a la democracia.
02:29
Technology expands what we are capable of.
43
149729
3087
La tecnología amplía lo que somos capaces de hacer.
02:33
Democracy is how we decide what to do with that capability.
44
153858
5089
La democracia es la forma en que decidimos qué hacer con esa capacidad.
Desde entonces, he trabajado para utilizar la democracia como solución
02:40
Since then, I've worked on using democracy as a solution
45
160115
3712
02:43
in India, the US, the UK, Taiwan.
46
163868
3295
en India, EE. UU., Reino Unido y Taiwán.
02:47
I've worked alongside incredible collaborators
47
167455
2670
He trabajado junto a increíbles colaboradores
para usar la democracia para ayudar a resolver la COVID,
02:50
to use democracy to help solve COVID,
48
170125
2711
02:52
to help solve data rights.
49
172836
1751
para ayudar a resolver los derechos de los datos.
02:54
And as I'll tell you today,
50
174629
2127
Y, como les voy a contar,
02:56
to help solve AI governance with policymakers around the world
51
176798
4171
para ayudar a resolver la gobernanza de la IA
con los responsables políticos de todo el mundo
03:01
and cutting-edge technology companies like OpenAI and Anthropic.
52
181010
4505
y con empresas de tecnología de vanguardia como OpenAI y Anthropic.
03:05
How?
53
185849
1167
¿Cómo?
03:07
By recognizing that democracy is still in its infancy.
54
187434
4546
Reconociendo que la democracia aún está en pañales.
03:12
It is an early form of collective intelligence,
55
192522
3795
Es una forma temprana de inteligencia colectiva,
03:16
a way to put together decentralized input from diverse sources
56
196359
4755
una forma de reunir información descentralizada de diversas fuentes
03:21
and produce decisions that are better than the sum of their parts.
57
201156
4170
y producir decisiones que sean mejores que la suma de sus partes.
03:26
That’s why, when my fantastic cofounder Saffron Huang and I
58
206161
3920
Por eso, cuando mi fantástica cofundadora Saffron Huang y yo
03:30
left our jobs at Google DeepMind and Microsoft
59
210123
3086
dejamos nuestros trabajos en Google DeepMind y Microsoft
03:33
to build new democratic governance models for transformative tech,
60
213209
4129
para crear nuevos modelos de gobernanza democrática
03:37
I named our nonprofit the Collective Intelligence Project,
61
217380
4088
lo hicimos con el Proyecto de Inteligencia Colectiva,
03:42
as a nod to the ever-evolving project of building collective intelligence
62
222427
6256
como guiño a la evolución del desarrollo de la inteligencia colectiva
03:48
for collective flourishing.
63
228725
2294
para el florecimiento colectivo.
03:52
Since then we've done just that,
64
232228
2253
Desde entonces, hemos hecho precisamente eso:
03:54
building new collective intelligence models to direct artificial intelligence,
65
234481
4587
crear nuevos modelos de inteligencia colectiva
para dirigir la IA y los procesos democráticos.
03:59
to run democratic processes.
66
239068
2169
04:01
And we've incorporated the voices of thousands of people into AI governance.
67
241237
3879
Y hemos incorporado las voces de miles de personas en la gobernanza de la IA.
Estas son algunas de las cosas que hemos aprendido.
04:06
Here are a few of the things we've learned.
68
246242
2044
04:08
First, people are willing and able to have difficult,
69
248995
4838
Primero, las personas están dispuestas a conversaciones difíciles y complejas
04:13
complex conversations on nuanced topics.
70
253833
2878
sobre temas matizados.
04:17
When we asked people about the risks of AI they were most concerned about,
71
257378
4380
Cuando preguntamos sobre los riesgos de la IA que más les preocupaban,
04:21
they didn't reach for easy answers.
72
261758
1918
no buscaron respuestas fáciles.
04:24
Out of more than 100 risks put forward,
73
264469
2169
De los más de 100 riesgos presentados,
04:26
the top-cited one: overreliance on systems we don't understand.
74
266679
5214
el más citado fue la dependencia excesiva de sistemas que no entendemos.
04:32
We talked to people across the country,
75
272435
1877
Hablamos con personas de todo el país,
04:34
from a veteran in the Midwest to a young teacher in the South.
76
274312
3337
desde un veterano del Medio Oeste hasta un joven profesor del Sur.
04:37
People were excited about the possibilities of this technology,
77
277649
3670
La gente estaba entusiasmada con las posibilidades de esta tecnología,
04:41
but there were specific things they wanted to understand
78
281319
2711
pero había cosas específicas que querían entender
04:44
about what models were capable of before seeing them deployed in the world.
79
284030
3837
de los modelos antes de verlos desplegados en el mundo.
04:48
A lot more reasonable than many of the policy conversations that we're in.
80
288701
4046
Es mucho más razonable que muchas de las conversaciones políticas actuales.
04:53
And importantly, we saw very little of the polarization
81
293331
3378
Y lo más importante, vimos muy poca polarización,
04:56
we're always hearing about.
82
296751
1585
de la que siempre oímos hablar.
En promedio, solo unas pocas declaraciones divisorias
04:59
On average, just a few divisive statements
83
299045
3003
por cientos de declaraciones consensuadas.
05:02
for hundreds of consensus statements.
84
302090
2544
Incluso en los temas polémicos del momento,
05:05
Even on the contentious issues of the day,
85
305385
2002
como la libertad de expresión o la raza y el género,
05:07
like free speech or race and gender,
86
307428
2169
05:09
we saw far more agreement than disagreement.
87
309639
2794
vimos muchos más acuerdos que desacuerdos.
Casi las tres cuartas partes de las personas están de acuerdo
05:13
Almost three quarters of people agree that AI should protect free speech.
88
313393
3753
en que la IA debe proteger la libertad de expresión.
05:17
Ninety percent agree that AI should not be racist or sexist.
89
317146
3546
El 90 % está de acuerdo en que la IA no debe ser racista o sexista.
05:21
Only around 50 percent think that AI should be funny though,
90
321651
2878
Sin embargo, solo un 50 % piensa que la IA debería ser divertida,
05:24
so they are still contentious issues out there.
91
324529
2294
por lo que siguen siendo temas polémicos.
05:28
These last statistics
92
328783
1585
Estas últimas estadísticas
provienen de nuestro proyecto de constitución colectiva con Anthropic,
05:30
are from our collective constitution project with Anthropic,
93
330410
3712
donde volvimos a capacitar a uno de los modelos lingüísticos
05:34
where we retrained one of the world's most powerful language models
94
334122
3378
más potentes del mundo
05:37
on principles written by 1,000 representative Americans.
95
337500
3670
sobre la base de principios escritos por 1000 estadounidenses representativos.
05:41
Not AI developers or regulators or researchers at elite universities.
96
341754
5339
No son desarrolladores de IA, reguladores
o investigadores de universidades de élite.
Empleamos una forma de entrenar a la IA
05:47
We built on a way of training AI
97
347427
2043
con base en un conjunto escrito de principios o en una constitución,
05:49
that relies on a written set of principles or a constitution,
98
349470
3421
05:52
we asked ordinary people to cowrite this constitution,
99
352932
2628
pedimos a la gente común que colaborara en la redacción de esta constitución
05:55
we compared it to a model that researchers had come up with.
100
355602
3003
y la comparamos con un modelo ideado por los investigadores.
05:59
When we started this project, I wasn't sure what to expect.
101
359230
4046
Cuando empezamos este proyecto, no estaba segura de qué esperar.
06:03
Maybe the naysayers were right.
102
363776
1794
Quizá los detractores tenían razón.
06:05
AI is complicated.
103
365987
1418
La IA es complicada.
06:08
Maybe people wouldn't understand what we were asking them.
104
368448
2836
Quizá la gente no entendería lo que les preguntamos.
06:11
Maybe we'd end up with something awful.
105
371826
2252
Quizá acabemos con algo horrible.
06:15
But the people’s model, trained on the cowritten constitution,
106
375371
3921
Pero el modelo popular, basado en la constitución coescrita,
06:19
was just as capable and more fair
107
379292
4046
era igual de competente
y más justo que el modelo ideado por los investigadores.
06:23
than the model the researchers had come up with.
108
383338
2460
A las personas con poca o ninguna experiencia en IA
06:26
People with little to no experience in AI
109
386382
2878
06:29
did better than researchers, who work on this full-time,
110
389302
3587
les fue mejor que a los investigadores, que trabajan en ello a tiempo completo,
06:32
in building a fairer chatbot.
111
392931
2544
a la hora de crear un chatbot más justo.
06:36
Maybe I shouldn't have been surprised.
112
396142
2127
Quizá no debería haberme sorprendido.
06:38
As one of our participants from another process said,
113
398311
3587
Como dijo uno de nuestros participantes de otro proceso:
06:41
"They may be experts in AI, but I have eight grandchildren.
114
401940
3712
“Puede que sean expertos en IA, pero tengo ocho nietos.
06:45
I know how to pick good values."
115
405693
2044
Sé cómo elegir buenos valores".
06:51
If technology expands what we are capable of
116
411282
2503
Si la tecnología amplía lo que somos capaces de hacer
06:53
and democracy is how we decide what to do with that capability,
117
413785
3420
y la democracia es la forma en que decidimos qué hacer con esa capacidad,
06:57
here is early evidence that democracy can do a good job deciding.
118
417246
4588
aquí tenemos las primeras pruebas
de que la democracia puede hacer un buen trabajo a la hora de decidir.
Por supuesto, estos procesos no son suficientes.
07:03
Of course, these processes aren't enough.
119
423127
1961
07:05
Collective intelligence requires a broader reimagining of technology
120
425129
3212
La inteligencia colectiva requiere
una reinvención más amplia de la tecnología y la democracia.
07:08
and democracy.
121
428383
1459
07:09
That’s why we’re also working on co-ownership models
122
429842
3045
También trabajamos en modelos de copropiedad de los datos
07:12
for the data that AI is built on -- which, after all, belongs to all of us --
123
432929
4588
en los que se basa la IA, que, al fin y al cabo, nos pertenecen a todos,
y utilizamos la propia IA para crear nuevos y mejores
07:18
and using AI itself to create new and better decision-making processes.
124
438184
4296
procesos de toma de decisiones.
07:22
Taking advantage of the things
125
442981
1459
Aprovechar las cosas que los modelos lingüísticos pueden hacer
07:24
that language models can do that humans can’t,
126
444440
2169
y que los humanos no,
07:26
like processing huge amounts of text input.
127
446609
2211
como procesar enormes cantidades de texto.
07:30
Our work in Taiwan has been an incredible test bed for all of this.
128
450154
4880
Nuestro trabajo en Taiwán ha sido un increíble banco de pruebas para todo esto.
07:36
Along with Minister Audrey Tang and the Ministry of Digital Affairs,
129
456494
4755
Junto con la ministra Audrey Tang y el Ministerio de Asuntos Digitales,
07:41
we are working on processes to ask Taiwan's millions of citizens
130
461249
3754
trabajamos en procesos para preguntar a los millones de ciudadanos de Taiwán
07:45
what they actually want to see as a future with AI.
131
465044
3879
qué es lo que realmente quieren ver como futuro con la IA.
07:49
And using that input not just to legislate,
132
469966
3045
Y utilizamos esa información no solo para legislar,
07:53
but to build.
133
473052
1126
sino también para construir.
07:54
Because one thing that has already come out of these processes
134
474762
3295
Porque uno de los resultados de estos procesos
07:58
is that people are truly excited about a public option for AI,
135
478099
3545
es que las personas están entusiasmadas con una opción pública de IA,
08:01
one that is built on shared public data that is reliably safe,
136
481644
4213
que se base en datos públicos compartidos que sean seguros y confiables,
08:05
that allows communities to access, benefit from
137
485898
3212
que permita a las comunidades acceder a ellos, beneficiarse de ellos
08:09
and adjust it to their needs.
138
489152
1751
y ajustarlos a sus necesidades.
08:12
This is what the world of technology could look like.
139
492280
3211
Así es como podría ser el mundo de la tecnología.
08:15
Steered by the many for the many.
140
495867
2586
Dirigido por muchos para muchos.
08:20
I often find that we accept unnecessary trade-offs
141
500288
3795
A menudo me doy cuenta de que aceptamos concesiones innecesarias
08:24
when it comes to transformative tech.
142
504083
2044
en tecnologías transformadoras.
08:26
We are told that we might need to sacrifice democracy
143
506961
3253
Nos dicen que es posible que tengamos que sacrificar la democracia
08:30
for the sake of technological progress.
144
510214
2586
en aras del progreso tecnológico.
08:32
We have no choice but to concentrate power to keep ourselves safe
145
512842
3587
No tenemos más opción que concentrar el poder para mantenernos a salvo
08:36
from possible risks.
146
516429
1501
de los posibles riesgos.
08:38
This is wrong.
147
518765
1626
Esto está mal.
08:40
It is impossible to have any one of these things --
148
520933
3462
Es imposible tener ninguna de estas cosas,
08:44
progress, safety or democratic participation --
149
524437
3670
progreso, seguridad o participación democrática,
08:48
without the others.
150
528149
1501
sin las demás.
08:50
If we resign ourselves to only two of the three,
151
530276
3420
Si nos resignamos a solo dos de las tres,
08:53
we will end up with either centralized control or chaos.
152
533738
3587
acabaremos con un control centralizado o con el caos.
08:57
Either a few people get to decide or no one does.
153
537825
3796
O unas pocas personas pueden decidir o nadie lo hace.
09:02
These are both terrible outcomes,
154
542497
1585
Ambos son resultados terribles,
09:04
and our work shows that there is another way.
155
544123
2836
y nuestro trabajo demuestra que hay otro camino.
09:07
Each of our projects advanced progress,
156
547710
2753
Cada uno de nuestros proyectos promovió el progreso,
09:10
safety and democratic participation
157
550505
3253
la seguridad y la participación democrática
09:13
by building cutting-edge democratic AI models,
158
553800
3295
mediante la creación de modelos de IA democráticos de vanguardia,
09:17
by using public expertise as a way to understand diffuse risks
159
557136
4713
el uso de la experiencia pública como una forma de entender los riesgos difusos
09:21
and by imagining co-ownership models for the digital commons.
160
561849
3671
y la imaginación de modelos de copropiedad de bienes comunes digitales.
09:27
We are so far from the best collective intelligence systems we could have.
161
567396
5423
Estamos muy lejos de tener los mejores sistemas de inteligencia colectiva.
09:33
If we started over on building a decision-making process for the world,
162
573486
4379
De volver a empezar a construir un proceso de toma de decisiones para el mundo,
09:37
what would we choose?
163
577865
1377
¿qué elegiríamos?
09:40
Maybe we'd be better at separating financial power from political power.
164
580284
5005
Tal vez separaríamos mejor el poder financiero del poder político.
09:46
Maybe we'd create thousands of new models of corporations
165
586290
3087
Tal vez crearíamos miles de nuevos modelos de corporaciones
09:49
or bureaucracies.
166
589418
1419
o burocracias.
09:51
Maybe we'd build in the voices of natural elements
167
591379
3670
Tal vez podríamos aprovechar las voces de los elementos naturales
09:55
or future generations.
168
595049
1585
o de las generaciones futuras.
09:57
Here's a secret.
169
597844
1293
He aquí un secreto.
09:59
In some ways, we are always starting from scratch.
170
599804
4046
En cierto modo, siempre partimos de cero.
10:04
New technologies usher in new paradigms
171
604225
3128
Las nuevas tecnologías introducen nuevos paradigmas
10:07
that can come with new collective intelligence systems.
172
607353
3253
que pueden venir acompañados de nuevos sistemas de inteligencia colectiva.
10:11
We can create new ways of living well together
173
611274
4004
Podemos crear nuevas formas de vivir bien juntos
10:15
if we use these brief openings for change.
174
615319
3337
si aprovechamos estas breves oportunidades de cambio.
10:19
The story of technology and democracy is far from over.
175
619532
3337
La historia de la tecnología y la democracia está lejos de terminar.
10:22
It doesn't have to be this way.
176
622910
1669
No tiene por qué ser así.
10:25
Things could be unimaginably better.
177
625037
2378
Las cosas podrían estar inimaginablemente mejor.
10:28
As the Indian author Arundhati Roy once said,
178
628040
3754
Como dijo una vez la autora india Arundhati Roy:
10:31
"Another world is not only possible,
179
631836
2878
"Otro mundo no solo es posible,
10:34
she is on her way.
180
634755
1627
sino que ella está en camino.
10:37
On a quiet day, I can hear her breathing."
181
637258
3337
En un día tranquilo, puedo oírla respirar".
10:41
I can hear our new world breathing.
182
641804
2628
Puedo escuchar la respiración de nuestro nuevo mundo.
10:44
One in which we shift the systems we have
183
644473
3087
Uno en el que cambiemos los sistemas que tenemos
10:47
towards using the solution of democracy to build the worlds we want to see.
184
647560
4504
para utilizar la solución de la democracia
para construir los mundos que queremos ver.
10:53
The future is up to us.
185
653107
1543
El futuro depende de nosotros.
10:55
We have a world to win.
186
655067
1669
Tenemos un mundo que ganar.
10:57
Thank you.
187
657361
1168
Gracias.
10:58
(Applause)
188
658529
2670
(Aplausos)
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7