How AI Could Hack Democracy | Lawrence Lessig | TED

8,992 views ・ 2024-11-05

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Sebastian Betti
00:03
So on January 6, 2021
0
3580
5520
El 6 de enero de 2021
mi nación sufrió un pequeño ataque al corazón de la democracia.
00:09
my nation suffered a little bit of a democracy heart attack.
1
9140
5360
00:15
Thousands of Americans had been told that the election had been stolen,
2
15820
4520
A miles de estadounidenses se les informó de un robo electoral
00:20
and tens of thousands of them showed up
3
20380
3320
y decenas de miles de ellos se presentaron
00:23
because they believed the election had been stolen.
4
23740
3920
porque creían que las elecciones habían sido robadas.
00:29
And indeed, in polling immediately after January 6,
5
29260
3960
Y de hecho, en las encuestas inmediatamente después del 6 de enero,
00:33
“The Washington Post” found 70 percent of Republicans believed
6
33220
5160
"The Washington Post" encontró que el 70 % de los republicanos creía
00:38
the election had been stolen,
7
38420
2120
que ocurrió un robo electoral,
00:40
and a majority of college-educated Republicans believed
8
40580
5080
y una mayoría de los republicanos con educación universitaria creía
00:45
the election had been stolen.
9
45700
1840
que ocurrió un robo electoral.
00:47
That was their perception.
10
47580
2240
Esa era su percepción.
00:51
And I don't know what the right way to act on that perception is.
11
51140
3560
Y no sé cuál es la forma correcta de actuar sobre esa percepción.
00:54
They thought the right way was to defend
12
54740
3120
Ellos pensaron que la forma correcta era defender
00:57
what they thought was a democracy stolen.
13
57900
3680
lo que creían que era una democracia robada.
01:03
Now, these numbers were astonishing:
14
63220
3040
Ahora, estos números son asombrosos:
01:06
30 percent or two thirds of Republicans believing the election was stolen.
15
66260
4320
El 30 % o dos tercios de los republicanos creen que hubo robo electoral.
01:10
But even more extraordinary are these numbers.
16
70580
3720
Pero aún más extraordinarios son estos números.
01:15
The fact that in the three years since that astonishing event,
17
75340
6160
El hecho de que en los tres años desde ese acontecimiento asombroso,
01:21
the numbers have not changed.
18
81500
2120
los números no han cambiado.
01:24
The same number believe today that the election was stolen
19
84340
3360
El mismo número cree hoy que hubo robo electoral
01:27
as believed it was stolen three years ago,
20
87740
2200
que creía que hubo un robo hace tres años,
01:29
despite the fact that we've had investigations
21
89980
2760
a pesar de investigaciones
01:32
and overwhelming evidence that there was no fraud
22
92780
2840
y pruebas abrumadoras de que no hubo fraude
01:35
sufficient to ever change even a single state.
23
95660
4120
suficiente para cambiar ni siquiera un solo estado.
01:39
This is something new.
24
99820
1480
Esto es algo nuevo.
01:42
When Richard Nixon went through the Watergate scandal,
25
102020
2840
Cuando Richard Nixon pasó por el escándalo de Watergate,
01:44
as the news was being reported,
26
104900
2160
mientras se informaba de las noticias,
01:47
Nixon's popularity collapsed not just among Democrats,
27
107100
3840
la popularidad de Nixon colapsó no solo entre los demócratas,
01:50
but among independents and Republicans.
28
110980
2360
sino entre independientes y republicanos.
01:53
But we're at a stage where it doesn't matter what happens.
29
113980
4240
Pero estamos en una etapa donde no importa lo que suceda.
01:58
This is Donald Trump's popularity over the course of his administration.
30
118260
4840
Esta es la popularidad de Donald Trump a lo largo de su administración.
02:03
Nothing changes.
31
123620
1520
Nada cambia.
02:05
The facts don't matter.
32
125140
2600
Los hechos no importan.
02:08
Now I think this truth should bother us a lot.
33
128540
5000
Ahora creo que esta verdad debería molestarnos mucho.
02:14
I think we need to develop a kind of paranoia
34
134620
3840
Creo que necesitamos desarrollar una especie de paranoia
02:18
about what produces this reality.
35
138460
3440
sobre lo que produce esta realidad.
02:21
A particular paranoia, the paranoia of the hunted.
36
141940
4080
Una paranoia particular, la paranoia de la persona cazada.
02:26
Think of the kids in "The Birds"
37
146340
3080
Piensa en los niños en "Los pájaros" [de Hitchcock]
02:29
first realizing that those crows were attacking them,
38
149460
2960
Al darse cuenta por primera vez del ataque de los cuervos,
02:32
or "Black Mirror's" Metalheads,
39
152460
2160
o los drones asesinos de "Black Mirror",
02:34
when you see these creatures chasing and surrounding you.
40
154660
4240
esas criaturas que te persiguen y te rodean.
02:38
The point is, we need to recognize
41
158900
1960
Necesitamos reconocer
02:40
that there is an intelligence out there to get us.
42
160900
6280
que hay una inteligencia que intenta atraparnos.
02:47
Because our perceptions,
43
167780
3640
Porque nuestras percepciones,
02:51
our collective perceptions,
44
171460
1960
nuestras percepciones colectivas,
02:53
our collective misimpressions
45
173460
3200
nuestras impresiones colectivas erróneas
02:56
are not accidental.
46
176660
1520
no son accidentales.
02:58
They are expected, they are intended,
47
178780
2160
Son esperadas, son intencionadas,
03:00
they are the product of the thing.
48
180940
4000
son el producto de “la cosa”.
03:05
(Laughter)
49
185300
1160
(Risas)
03:06
OK, I want to be careful introducing the thing.
50
186500
2680
Quiero ser cuidadoso al presentar “la cosa”.
03:10
I'm going to talk a little bit about AI, but I'm not going to slag on AI.
51
190020
3480
Hablaré un poco de IA, pero no voy a criticar a la IA.
03:13
I think AI is the most extraordinary technology
52
193540
3400
Creo que la IA es la tecnología más extraordinaria
03:16
humanity has ever even conceived of.
53
196980
2680
que la humanidad ha concebido jamás.
03:19
But I also think it has the potential to end humanity.
54
199700
5320
Pero también creo que tiene el potencial de acabar con la humanidad.
03:25
But I'm not going to slag on AI,
55
205420
1560
Pero no voy a criticar a la IA,
porque estoy bastante seguro de que nuestra entidad robótica
03:27
because I'm pretty sure that our robot overlord
56
207020
2560
03:29
is going to be listening to these TED talks someday,
57
209620
2960
estará escuchando estas charlas TED algún día,
03:32
and I don't want to be on the wrong side of the overlord.
58
212620
2760
y no quiero estar del lado equivocado de la entidad.
03:35
So AI is just fine.
59
215420
1360
Así que la IA está bien.
03:36
I'm not going to talk about this AI first.
60
216820
2000
No voy a hablar sobre esta IA primero.
03:38
I want to instead put AI in a little bit of a perspective,
61
218860
4880
En cambio, quiero poner la IA en perspectiva,
03:43
because I think that we're too obsessed with the new,
62
223740
4080
porque creo que estamos demasiado obsesionados con lo nuevo,
03:47
and we fail to recognize the significance of AI in the old.
63
227860
5280
y no reconocemos la importancia de la IA en lo antiguo.
03:53
We think about intelligence,
64
233820
1440
Pensamos en la inteligencia,
03:55
and we're distinguishing between artificial and natural intelligence.
65
235300
3640
y estamos distinguiendo entre inteligencia artificial y natural.
03:58
And we, of course, as humans,
66
238980
1400
Y nosotros, por supuesto, como humanos,
04:00
claim pride of kingdom in the world of natural intelligence.
67
240420
4360
reclamamos el orgullo del reino en el mundo de la inteligencia natural.
04:05
And then we build artificial intelligence.
68
245420
2440
Y luego construimos inteligencia artificial.
04:07
It's intelligence that we make.
69
247900
1760
Es inteligencia que nosotros creamos.
04:09
But here's the critical point.
70
249700
1600
Pero aquí está el punto crítico.
04:11
We have already, for a long time,
71
251860
4320
Ya hemos vivido, durante mucho tiempo,
04:16
lived with systems of artificial intelligence.
72
256220
2720
con sistemas de inteligencia artificial.
04:18
I don't mean digital AI,
73
258980
2560
No me refiero a la IA digital,
04:21
I mean analog AI.
74
261580
1360
me refiero a la IA analógica.
04:24
Any entity or institution that we build with a purpose
75
264340
4240
Cualquier entidad o institución que construimos con un propósito
04:28
that acts instrumentally in the world is in this sense an AI.
76
268620
5040
que actúa de manera instrumental en el mundo es en este sentido una IA.
04:34
It is an instrumentally rational entity that's mapping how it should behave,
77
274620
4680
Es una entidad racional instrumental que está mapeando cómo debe comportarse,
04:39
given the way the world evolves and responds to it.
78
279340
3000
dada la forma en que el mundo evoluciona y responde a ello.
04:42
So think about democracy as an AI.
79
282340
3560
Piensen la democracia como una IA.
04:46
It has institutions, elections, parliaments, constitutions
80
286300
4000
Tiene instituciones, elecciones, parlamentos, constituciones
04:50
for the purpose of some collective ends.
81
290300
3800
con el propósito de algunos fines colectivos.
04:54
Our Constitution says it's for the common good.
82
294100
3560
Nuestra Constitución dice que es para el bien común.
04:57
So the democracy in our Constitution is an analog artificial intelligence
83
297700
6040
Así que la democracia en nuestra Constitución es una IA analógica
05:03
devoted to the common good.
84
303780
2040
dedicada al bien común.
05:06
Or think about corporations as an AI.
85
306460
3040
Piensen las corporaciones como una IA.
05:09
They have institutions, boards, management, finance,
86
309540
3040
Tienen instituciones, juntas, gestión, finanzas,
05:12
for the purpose of making money, or at least conceived of narrowly,
87
312620
3640
para ganar dinero, o al menos concebidas de manera estrecha,
05:16
today, that’s the way it is.
88
316260
1360
hoy en día, así es como son.
05:17
There corporation is an analog intelligence devoted to maximizing
89
317660
3840
La corporación es una inteligencia analógica dedicada a maximizar
05:21
shareholder value.
90
321500
1320
el valor para los accionistas.
05:22
These are AIs.
91
322860
1840
Estas son IAs.
05:25
They have purposes and objectives sometimes complementing each other.
92
325940
4600
Tienen propósitos y objetivos que a veces se complementan entre sí.
El propósito de una empresa de autobuses escolares
05:31
So the purpose of a school bus company
93
331020
2120
05:33
complements the purpose of a school board
94
333140
2280
complementa el propósito de una junta escolar
05:35
to produce school bus transportation in a district.
95
335460
3080
para producir transporte en autobús escolar en un distrito.
05:38
That's just beautiful.
96
338580
1720
Eso es simplemente hermoso.
05:41
But sometimes they're competing.
97
341060
2000
Pero a veces están compitiendo.
05:43
The purpose of a government and having a clean environment
98
343660
2720
El propósito de un gobierno y tener un ambiente limpio
05:46
conflicts with the purpose of a coal company
99
346380
2320
entra en conflicto con el propósito de una empresa de carbón
05:48
designing to produce electricity
100
348740
2360
diseñada para producir electricidad
05:51
by spewing carbon and soot into the environment.
101
351140
3880
arrojando carbono y hollín al medioambiente.
05:55
And when they conflict, we tell ourselves this happy story.
102
355060
3520
Y cuando hay un conflicto, nos contamos esta historia feliz.
05:59
We tell ourselves the story that democracy is going to stand up
103
359180
3920
Nos contamos la historia de que la democracia va a levantarse
06:03
and discipline that evil corporation.
104
363140
3360
y disciplinar a esa malvada corporación.
06:06
To get the corporation to do the right thing,
105
366500
2120
Para hacer que la corporación haga lo correcto,
06:08
to do the thing that's in the interest of all of us.
106
368620
3000
para hacer lo que está en el interés de todos nosotros.
06:11
That's our happy story.
107
371660
1240
Esa es nuestra historia feliz.
06:12
It's also a fantasy.
108
372940
1760
También es una fantasía.
06:15
Because at least in my country,
109
375980
3520
Porque al menos en mi país,
06:19
corporations are more effective AIs than democracy.
110
379540
5160
las corporaciones son IAs más efectivas que la democracia.
Piénsenlo un poco así.
06:25
Think about it a little bit like this.
111
385140
1840
En un gráfico, pensemos la racionalidad instrumental en el eje Y,
06:27
If we think about instrumental rationality along one axis of this graph
112
387020
4120
y el tiempo en el eje X,
06:31
and time across the other,
113
391140
1520
06:32
humans, of course, are the first instrumentally rational entity
114
392660
3200
los humanos, por supuesto, somos la primera entidad racional instrumental
06:35
we care about, we're better than cows.
115
395900
2600
que nos importa, somos mejores que las vacas.
06:38
Maybe not as good as ants, but the point is,
116
398540
2400
Quizás no tan buenos como las hormigas,
06:40
we're pretty good as individuals
117
400980
3080
pero la idea es que somos bastante buenos como individuos
06:44
figuring out how to do things strategically.
118
404100
3160
para hacer las cosas estratégicamente.
06:47
And then we built democracy to do that a little bit better,
119
407900
3480
Y luego construimos la democracia para hacerlo un poco mejor,
06:51
to act collectively for all of us.
120
411380
1840
para actuar colectivamente por todos nosotros.
06:53
And that's a more instrumentally rational entity
121
413260
2680
Y esa es una entidad racional instrumentalmente
06:55
than we, individual humans, can be.
122
415940
2320
más que nosotros, los humanos individuales.
06:58
Then we created corporations.
123
418260
2120
Luego creamos corporaciones.
07:01
And it turns out, they have become, at least in corrupted political regimes —
124
421580
3760
Y resulta que se han convertido, al menos en regímenes políticos corruptos,
07:05
which, I’ll just submit, my political regime is —
125
425340
2920
que, solo lo someto, mi régimen político es...
07:08
better than democracy
126
428260
3160
mejor que la democracia
07:11
in bringing about their objective ends.
127
431460
3640
en lograr sus fines objetivos.
07:15
Now, of course, in this system,
128
435580
1640
Por supuesto, en este sistema,
07:17
each of these layers has an aspiration to control the higher layer.
129
437260
3600
cada una de estas capas tiene una aspiración de controlar la capa superior.
07:21
So humans try to control democracy through elections.
130
441300
3400
Los humanos tratamos de controlar la democracia a través de elecciones.
07:24
Democracy tries to control corporations through regulation.
131
444740
3520
La democracia trata de controlar a las corporaciones
a través de la regulación.
07:29
But the reality of control is, of course, a little bit different.
132
449020
4080
Pero la realidad del control es, por supuesto, un poco diferente.
07:33
In the United States, corporations control democracy
133
453940
2720
En EE. UU., las corporaciones controlan la democracia
07:36
through the extraordinary amount of money they pour into elections,
134
456700
3200
a través de la extraordinaria cantidad de dinero que vierten en las elecciones,
07:39
making our representatives dependent not on us, but on them.
135
459940
3480
haciendo que nuestros representantes dependan no de nosotros, sino de ellos.
07:44
And democracy then controls the humans
136
464340
4680
Y la democracia entonces controla a los humanos
07:49
by making representation,
137
469060
1200
al hacer representación,
07:50
not actually representation, corrupting representation.
138
470300
3320
no realmente representación, corrompiendo la representación.
07:54
Now, this structure, this layer of higher order intelligence
139
474380
4520
Ahora, esta estructura, esta capa de inteligencia de orden superior
07:58
or instrumental rationality might evoke,
140
478940
2760
o racionalidad instrumental puede evocar,
08:01
for those of you who think about AI,
141
481740
2560
para aquellos que piensan en IA,
08:04
a statement by the godfather of AI, Geoffrey Hinton.
142
484300
3320
una declaración del padrino de la IA, Geoffrey Hinton.
08:08
Hinton warns us,
143
488780
1360
Hinton nos advierte,
08:10
"There are a few examples of a more intelligent thing
144
490180
4480
“Hay unos pocos ejemplos de algo más inteligente
08:14
being controlled by a less intelligent thing."
145
494660
2480
controlado por algo menos inteligente”.
08:18
Or we could say,
146
498380
1240
O podríamos decir,
08:19
a more instrumentally rational thing
147
499660
2640
una cosa más racionalmente instrumental
08:22
being controlled by a less instrumentally rational thing.
148
502340
3360
siendo controlada por una cosa menos racionalmente instrumental.
08:26
And that is consistent with this picture of AIs.
149
506620
4640
Y eso es consistente con esta imagen de las IAs.
08:31
And then we add digital AI into this mix.
150
511300
3800
Y luego añadimos la IA digital a esta mezcla.
08:35
And here too, once again,
151
515100
1240
Y aquí también, una vez más,
08:36
we have corporations attempting to control their digital AI.
152
516380
5360
tenemos corporaciones intentando controlar su IA digital.
08:43
But the reality of that control is not quite perfect.
153
523020
4400
Pero la realidad de ese control no es del todo perfecta.
08:48
Facebook, in September of 2017,
154
528300
3800
Facebook, en septiembre de 2017,
08:52
was revealed to have a term in their ad system
155
532140
5800
se reveló que tenía un término en su sistema de anuncios
08:57
called "Jew Haters."
156
537980
1480
llamado “odiadores de judíos”.
08:59
You could buy ads targeting Jew haters.
157
539780
3440
Podías comprar anuncios dirigidos a odiadores de judíos.
09:03
Now, nobody in Facebook created that category.
158
543620
3720
Ahora, nadie en Facebook creó esa categoría.
09:07
There was not a human in Facebook who decided
159
547380
2360
No había un humano en Facebook que decidiera
09:09
"We're going to start targeting Jew haters."
160
549780
2160
“Vamos a empezar a dirigirnos a los odiadores de judíos”.
09:11
Its AI created that category
161
551980
3520
Su IA creó esa categoría
09:15
because its AI figured Jew haters would be a profitable category
162
555540
3240
porque determinó que los odiadores de judíos serían una categoría rentable
09:18
for them to begin to sell ads to,
163
558820
2840
para comenzar a vender anuncios,
09:21
and the company was, of course, embarrassed
164
561660
2040
y la empresa, por supuesto, se avergonzó
09:23
that it turned out they didn't actually have control
165
563740
2680
de no tener realmente control
09:26
over the machine that ran their machines that run our lives.
166
566420
4120
sobre la máquina que controla sus máquinas que dirigen nuestras vidas.
09:30
The real difference in this story, though,
167
570580
2680
La verdadera diferencia en esta historia, sin embargo,
09:33
is the extraordinary potential
168
573260
3720
es el extraordinario potencial
09:37
of this instrumentally rational entity
169
577020
3280
de esta entidad racionalmente instrumental
09:40
versus us.
170
580300
1640
versus nosotros.
09:41
This massively better instrumentally rational entity
171
581980
3920
Esta entidad racionalmente instrumental enormemente mejor
09:45
versus even corporations and certainly democracies,
172
585940
2960
versus incluso las corporaciones y ciertamente las democracias,
09:48
because it's going to be more efficient at achieving its objective than we are.
173
588940
5040
porque va a ser más eficiente para lograr su objetivo que nosotros.
09:54
And here's where we cue the paranoia I began to seed
174
594020
4120
Y aquí comenzamos la paranoia que empecé a sembrar
09:58
because our collective perceptions, our collective misperceptions
175
598180
5800
porque nuestras percepciones colectivas, nuestras percepciones erróneas colectivas
10:04
are not accidental.
176
604020
1680
no son accidentales.
10:05
They are expected, intended, the product of this AI.
177
605740
5440
Son esperadas, intencionadas, el producto de esta IA.
10:11
We could think of it as the AI perception machine.
178
611180
3680
Podríamos pensarlo como la máquina de percepción de IA.
10:14
We are its targets.
179
614900
2040
Nosotros somos sus objetivos.
10:19
Now, the first contact we had with this AI,
180
619460
2520
Ahora, el primer contacto que tuvimos con esta IA,
10:22
as Tristan Harris described it,
181
622020
1800
como lo describió Tristan Harris,
10:23
came from social media.
182
623860
2440
vino de las redes sociales.
10:26
Tristan Harris, who started the Center for Humane Technology,
183
626940
3440
Tristan Harris, quien fundó el Centro para la Tecnología Humana,
10:30
cofounded it, famous in this extraordinary documentary,
184
630420
3880
lo cofunda, famoso en este extraordinario documental,
10:34
"The Social Dilemma,"
185
634300
1200
"El dilema social",
10:35
before he was famous, he was just an engineer at Google.
186
635540
2880
antes de ser famoso, era solo un ingeniero en Google.
10:38
And at Google, he was focused on the science of attention
187
638420
3920
Y en Google, se centraba en la ciencia de la atención
10:42
using AI to engineer attention,
188
642380
2320
usando IA para diseñar atención,
10:44
to overcome resistance,
189
644740
2800
para superar la resistencia,
10:47
to increase human engagement with the platform
190
647540
3920
para aumentar la interacción humana con la plataforma
10:51
because engagement is the business model.
191
651500
3320
porque la interacción es el modelo de negocio.
10:55
Compare this to, think of it as brain hacking.
192
655660
3440
Comparen esto con, piénsenlo como, un hackeo al cerebro.
10:59
We could compare it to what we could call body hacking.
193
659100
2680
Podríamos compararlo con un hackeo corporal.
Esto es la explotación de la ciencia de la alimentación.
11:02
This is the exploiting of food science.
194
662100
2560
11:04
Scientists engineer food to exploit our evolution,
195
664700
3920
Los científicos diseñan alimentos para explotar nuestra evolución,
11:08
our mix of salt, fat and sugar,
196
668660
1960
nuestra mezcla de sal, grasa y azúcar,
11:10
to overcome the natural resistance
197
670620
1760
para superar la resistencia natural
11:12
so you can't stop eating food.
198
672420
3040
para que no puedas dejar de comer.
11:16
So that they can sell food or sell, "food" more profitably.
199
676300
4400
Para vender “alimentos” de manera más rentable.
11:20
Brain hacking is the same, but focused on attention.
200
680700
2880
El hackeo cerebral es lo mismo, pero enfocado en la atención.
11:24
It's exploiting evolution.
201
684260
1720
Está explotando la evolución.
11:26
The fact that we have an irrational response to random rewards,
202
686580
3480
El hecho de que tenemos una respuesta irracional a recompensas aleatorias,
11:30
or can't stop consuming bottomless pits of content
203
690100
4880
o no podemos dejar de consumir ingentes volúmenes de contenido
11:35
with the aim to increase engagement,
204
695020
2840
para aumentar el engagement,
11:37
to sell more ads.
205
697900
1920
para vender más anuncios.
11:40
And it just so happens, too bad for us,
206
700140
3320
Y resulta que, desafortunadamente para nosotros,
11:43
that we engage more
207
703500
2320
nos comprometemos más
11:45
the more extreme, the more polarizing,
208
705820
2600
cuanto más extremo, más polarizante,
11:48
the more hate-filled this content is.
209
708460
3880
y más lleno de odio sea ese contenido.
11:52
So that is what we're fed by these AIs.
210
712340
4920
De eso nos alimentan estas IA.
11:58
With the consequence
211
718180
2000
Con la consecuencia
12:00
that we produce a people more polarized and ignorant and angry
212
720220
5160
de que producimos un pueblo más polarizado, ignorante y enojado
12:05
than at any time in democracy's history in America
213
725420
3360
que en cualquier momento de la historia de la democracia en EE. UU.
12:08
since the Civil War
214
728820
1560
desde la Guerra Civil
12:10
and democracy is thereby weakened.
215
730420
2360
y la democracia se debilita.
12:13
They give us what we want.
216
733140
2400
Nos dan lo que queremos.
12:16
What we want makes us into this.
217
736060
4200
Lo que queremos nos convierte en esto.
12:21
OK, but recognize something really critically important.
218
741140
2720
Está bien, pero reconozcan algo realmente crítico.
12:23
This is not because AI is so strong.
219
743900
2880
Esto no es porque la IA sea muy fuerte.
12:27
It's because we are so weak.
220
747620
2720
Es porque nosotros somos muy débiles.
12:31
Here's Tristan Harris describing this.
221
751900
1880
Tristan Harris lo describe así.
12:33
(Video) "We're all looking out for the moment
222
753820
2120
(Video) "Todos estamos esperando el momento
12:35
when technology would overwhelm human strengths and intelligence.
223
755940
3480
en que la tecnología sobrepase las fortalezas e inteligencia humanas.
12:39
When is it going to cross the singularity,
224
759460
2040
¿Cuándo va a cruzar la singularidad,
12:41
replace our jobs,
225
761540
1160
reemplazar nuestros trabajos, ser más inteligente que los humanos?
12:42
be smarter than humans?
226
762740
1360
12:44
But there's this much earlier moment
227
764420
2800
Pero hay un momento mucho más temprano
12:47
when technology exceeds and overwhelms human weaknesses.
228
767260
4320
cuando la tecnología excede y abruma las debilidades humanas.
12:53
This point being crossed is at the root of addiction, polarization,
229
773900
5080
Este punto que se cruza está en la raíz de la adicción, la polarización,
12:59
radicalization, outrage-ification, vanity-ification, the entire thing.
230
779020
3840
la radicalización, la indignación, la vanidad, todo eso.
13:04
This is overpowering human nature.
231
784100
2240
Esto está dominando la naturaleza humana.
13:06
And this is checkmate on humanity."
232
786940
2800
Y esto es jaque mate para la humanidad".
13:10
Lawrence Lessig: So Tristan’s point is we’re always focused
233
790420
2840
Lawrence Lessig: La idea de Tristan es que siempre estamos enfocados
13:13
on this corner, when AGI comes,
234
793260
3800
en esta esquina, cuando llega la IGA,
13:17
when it's super intelligent,
235
797100
1720
cuando sea superinteligente,
13:18
when it's more intelligent than any of us.
236
798860
2440
cuando sea más inteligente que cualquiera de nosotros.
13:21
And that's what we now fear.
237
801300
2200
Y eso es lo que ahora tememos.
13:23
Whether we will get there in three years or 20 years,
238
803500
3120
Si llegaremos allí en tres años o 20 años,
13:26
what will happen then?
239
806620
1200
¿qué sucederá entonces?
13:27
But his point is, it's actually this place
240
807860
3960
Pero su idea es, en realidad, que es en este lugar
13:31
that we must begin to worry,
241
811820
2560
donde debemos comenzar a preocuparnos,
13:34
because at this place, it can overcome our weaknesses.
242
814420
4400
porque en este lugar, puede superar nuestras debilidades.
13:39
"The Social Dilemma"
243
819460
1160
"El dilema social"
13:40
was about the individual weaknesses we have,
244
820660
2320
se trataba de las debilidades individuales que tenemos:
13:42
not to be able to turn away from our phones,
245
822980
2760
no poder alejarnos de nuestros teléfonos,
13:45
or to convince our children to turn away from their phones.
246
825780
3640
o convencer a nuestros hijos de que se alejen de sus teléfonos.
13:49
But I want you to see that there's also a collective human weakness.
247
829460
4560
Pero quiero que vean que también hay una debilidad humana colectiva.
13:54
That this technology drives us to disable our capacity to act collectively
248
834540
5160
La tecnología deshabilita nuestra acción colectiva
13:59
in ways that any of us would want.
249
839700
2480
de maneras que cualquiera de nosotros querría.
14:02
So we are surrounded individually by these metalheads,
250
842220
4240
Estamos rodeados individualmente por estos drones asesinos,
14:06
and we are also surrounded as a people
251
846500
3680
y también estamos rodeados como pueblo
14:10
by these metalheads
252
850180
1200
por estos drones asesinos
14:11
long before AGI is anywhere on the horizon.
253
851420
4400
mucho antes de que la IAG esté en cualquier horizonte.
14:15
It overwhelms us.
254
855820
1560
Nos abruma.
14:17
AI gets us to do what it seeks,
255
857700
3680
La IA nos hace hacer lo que busca,
14:21
which is engagement,
256
861380
2840
que es engagement,
14:24
and we get democracy hacked in return.
257
864260
5320
y nosotros recibimos a cambio una democracia hackeada.
14:30
Now, if the first contact that we had gave us that,
258
870180
4520
Ahora, si el primer contacto que tuvimos nos dio eso,
14:34
if social media circa 2020 gave us that,
259
874740
4400
si las redes sociales alrededor de 2020 nos dieron eso,
14:39
what's this second contact with AI going to produce?
260
879180
4200
¿qué va a producir este segundo contacto con la IA?
14:43
When AI is capable, not just in figuring out how to target you
261
883900
3880
Cuando la IA sea capaz, no solo de averiguar cómo dirigirte
14:47
with the content it knows will elicit the most reaction
262
887820
3600
con el contenido que sabe que provocará la mayor reacción
14:51
and engagement from you,
263
891460
1520
y compromiso de tu parte,
14:53
but can create content
264
893020
2080
sino que puede crear contenido
14:55
that it knows will react or get you to engage more directly,
265
895140
3720
que sabe que reaccionará o te hará comprometerte más directamente,
14:58
whether true or false,
266
898900
2520
sea verdadero o falso,
15:01
whether slanderous or not.
267
901460
1920
sean calumnias o no".
15:03
What does that contact do?
268
903420
3760
¿Qué produce ese contacto?
15:08
I so hate the writers of "Game of Thrones"
269
908580
4840
Detesto a los guionistas de "Juego de tronos".
15:13
because their last season,
270
913460
1720
Porque en su última temporada,
15:15
they so completely ruined the whole series.
271
915180
3600
arruinaron por completo toda la serie.
15:18
(Laughter and applause)
272
918780
2280
(Risas y aplausos)
15:21
We can't use memes from "Game of Thrones" anymore.
273
921100
3040
Ya no podemos usar memes de "Juego de tronos".
15:24
But if we could, I would say winter is coming, friends,
274
924180
4000
Pero si pudiéramos, diría que se acerca el invierno, amigos,
15:28
I'm just going to say it anyway.
275
928220
1560
lo diré de todos modos.
15:29
Winter is coming, friends.
276
929780
2120
Se acerca el invierno, amigos.
15:32
And these AIs are the source that we have to worry about.
277
932660
6760
Y estas IA son la fuente de la que debemos preocuparnos.
15:39
So then, what is to be done?
278
939420
2120
Entonces, ¿qué se debe hacer?
15:44
Well, you know, if there's a flood, what you do is you turn around and run.
279
944100
4360
Bueno, si hay una inundación, das la vuelta y corres.
15:49
You move.
280
949020
1640
Te mueves.
15:50
You move to higher ground or protected ground.
281
950700
3040
Te mueves a un terreno más alto o protegido.
15:55
You find a way to insulate democracy
282
955900
3080
Encuentras una manera de aislar la democracia
15:59
or to shelter democracy from AI's force
283
959020
2800
o de proteger la democracia de la fuerza de la IA
16:01
or from AI's harmful force.
284
961860
1640
o de la fuerza dañina de la IA.
16:03
And, you know, the law does this in America with juries.
285
963540
4400
Y, la ley hace esto en EE. UU. con los jurados.
16:07
We have juries.
286
967980
1160
Tenemos jurados.
16:09
They deliberate,
287
969180
1480
Deliberan,
16:10
but they are protected in the types of information
288
970700
3360
pero están protegidos en los tipos de información
16:14
that they're allowed to hear or talk about or deliberate upon,
289
974100
3960
que se les permite escuchar o hablar o deliberar,
16:18
because we know we need to protect them
290
978060
1920
porque sabemos que necesitamos protegerlos
16:20
if they're to reach a judgment that is just.
291
980020
2320
si van a llegar a un juicio que sea justo.
16:22
And democracy reformers, especially across Europe,
292
982380
3760
Y los reformadores de la democracia, sobre todo en Europa,
están tratando de hacer esto ahora mismo.
16:26
are trying to do this right now.
293
986140
1720
16:27
Reformers building citizen assemblies,
294
987860
2920
La reformulación mediante asambleas ciudadanas,
16:30
across Europe mainly, in Japan as well.
295
990780
2760
principalmente en Europa, también en Japón.
16:33
And the citizen assemblies are these random, representative,
296
993540
4080
Las asambleas ciudadanas son estos cuerpos aleatorios, representativos,
16:37
informed and deliberative bodies
297
997660
2280
informados y deliberativos
16:39
that take on particular democratic questions
298
999940
4560
que abordan preguntas democráticas particulares
16:44
and address them in a way that could be protected
299
1004540
3720
y las tratan de una manera que podría ser protegida
16:48
from this corruption of the AI.
300
1008300
1720
de esta corrupción de la IA.
16:50
So Iceland was able to craft a constitution out of a process like this.
301
1010020
4280
Islandia pudo elaborar una constitución a partir de un proceso como este.
16:54
Ireland was able to approve gay marriage and deregulation of abortion
302
1014300
4880
Irlanda pudo aprobar el matrimonio gay y la desregulación del aborto
a través de un proceso como este.
16:59
through a process like this.
303
1019220
1400
17:00
France has addressed climate change
304
1020620
2000
Francia ha abordado el cambio climático
17:02
and also end-of-life decisions.
305
1022660
1480
y también decisiones de fin de vida.
17:04
And across Germany there are many of these entities
306
1024180
3360
Y en Alemania hay muchas de estas entidades
17:07
that are boiling up to find ways for a different democratic voice,
307
1027540
5760
que están surgiendo para encontrar maneras de dar una voz democrática diferente,
17:13
to find voice.
308
1033340
1360
para encontrar voz.
17:15
But here's the point.
309
1035620
1400
Pero este es el quid.
17:18
These are extraordinarily hopeful and exciting, no doubt.
310
1038260
3200
Estas son extraordinariamente esperanzadoras y emocionantes, sin duda.
17:21
But they are not just a good idea.
311
1041460
3840
Pero no son solo una buena idea.
17:26
They are existential for democracy.
312
1046380
4160
Son existenciales para la democracia.
17:30
They are security for democracy.
313
1050540
2800
Son una seguridad para la democracia.
17:33
They are a way to protect us from this AI hacking
314
1053380
4040
Son una forma de protegernos de este hackeo de IA
17:37
that steers against a public will.
315
1057460
3800
que se opone a la voluntad pública.
17:42
This is change not just to make democracy better,
316
1062740
3840
Este es un cambio no solo para mejorar la democracia,
17:46
a tweak to just make it a little bit more democratic.
317
1066620
3800
un ajuste para hacerla un poco más democrática.
17:50
It's a change to let democracy survive,
318
1070460
4880
Es un cambio para permitir que la democracia sobreviva,
17:55
given what we know technology will become.
319
1075380
4080
dado lo que sabemos que la tecnología se convertirá.
18:00
This is a terrifying moment.
320
1080940
1760
Este es un momento aterrador.
18:03
It's an exhilarating moment.
321
1083340
1880
Es un momento emocionante.
18:06
Long before superintelligence, long before AGI threatens us,
322
1086340
4680
Mucho antes de la superinteligencia, mucho antes de que la IAG nos amenace,
18:11
a different AI threatens us.
323
1091060
2680
una IA diferente nos amenaza.
18:14
But there is something to do while we still can do something.
324
1094340
4400
Pero hay algo que hacer mientras todavía podemos hacer algo.
18:19
We should know enough now
325
1099460
2640
Deberíamos saber lo suficiente ahora
18:22
to know we can't trust democracy just now.
326
1102100
3240
para saber que no podemos confiar en la democracia ahora.
18:25
We should see that we still have time to build something different.
327
1105820
4960
Deberíamos ver que aún tenemos tiempo para construir algo diferente.
18:30
We should act with the love that makes anything possible,
328
1110780
6840
Deberíamos actuar con el amor que hace que cualquier cosa sea posible,
18:37
not because we know we will succeed.
329
1117660
3160
no porque sepamos que tendremos éxito.
18:40
I'm pretty sure we won't.
330
1120860
2360
Estoy bastante seguro de que no lo haremos.
18:45
But because this is what love means.
331
1125860
4720
Pero porque eso es lo que significa el amor.
18:51
You do whatever you can,
332
1131860
2280
Haces lo que puedas,
18:54
whatever the odds, for your children,
333
1134180
2480
cualesquiera que sean las probabilidades, por tus hijos,
18:56
for your family, for your country, for humanity
334
1136660
5040
por tu familia, por tu país, por la humanidad
19:01
while there is still time,
335
1141740
2960
mientras aún haya tiempo,
19:04
while our robot overlord is still just a sci-fi fantasy.
336
1144700
5360
mientras la entidad suprema robótica sea solo ficción.
19:10
Thank you very much.
337
1150820
1600
Muchas gracias.
19:12
(Applause)
338
1152460
2080
(Aplausos)
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7