How algorithms shape our world | Kevin Slavin

Kevin Slavin: Cómo los algoritmos configuran nuestro mundo

484,482 views

2011-07-21 ・ TED


New videos

How algorithms shape our world | Kevin Slavin

Kevin Slavin: Cómo los algoritmos configuran nuestro mundo

484,482 views ・ 2011-07-21

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Veronica Martinez Starnes Revisor: Ana María Pérez
00:15
This is a photograph
0
15260
2000
Esta es una fotografía
00:17
by the artist Michael Najjar,
1
17260
2000
tomada por el artista Michael Najjar,
00:19
and it's real,
2
19260
2000
y es real
00:21
in the sense that he went there to Argentina
3
21260
2000
porque él fue a Argentina
00:23
to take the photo.
4
23260
2000
para tomarla.
00:25
But it's also a fiction. There's a lot of work that went into it after that.
5
25260
3000
Pero también es ficción. Hay bastante trabajo en ella después de eso.
00:28
And what he's done
6
28260
2000
Y lo que ha hecho
00:30
is he's actually reshaped, digitally,
7
30260
2000
es que prácticamente ha rediseñado, digitalmente,
00:32
all of the contours of the mountains
8
32260
2000
todos los contornos de las montañas
00:34
to follow the vicissitudes of the Dow Jones index.
9
34260
3000
para seguir las vicisitudes del índice Dow Jones.
00:37
So what you see,
10
37260
2000
Así que lo que se ve,
00:39
that precipice, that high precipice with the valley,
11
39260
2000
ese precipicio, lo alto del precipicio que se abre con el valle,
00:41
is the 2008 financial crisis.
12
41260
2000
es la crisis financiera del 2008.
00:43
The photo was made
13
43260
2000
La foto fue tomada
00:45
when we were deep in the valley over there.
14
45260
2000
cuando estábamos muy en el fondo de aquel valle.
00:47
I don't know where we are now.
15
47260
2000
No sé dónde estamos ahora.
00:49
This is the Hang Seng index
16
49260
2000
Este es el índice Hang Seng
00:51
for Hong Kong.
17
51260
2000
de la Bolsa de Hong Kong.
00:53
And similar topography.
18
53260
2000
Y la topografía es similar.
00:55
I wonder why.
19
55260
2000
Me pregunto por qué.
00:57
And this is art. This is metaphor.
20
57260
3000
Y esto es arte y también es una metáfora.
01:00
But I think the point is
21
60260
2000
Pero creo que lo importante es
01:02
that this is metaphor with teeth,
22
62260
2000
que es una metáfora con dientes.
01:04
and it's with those teeth that I want to propose today
23
64260
3000
Y es con esos dientes que hoy quiero proponer
01:07
that we rethink a little bit
24
67260
2000
que reconsideremos un poco
01:09
about the role of contemporary math --
25
69260
3000
el rol de las matemáticas contemporáneas,
01:12
not just financial math, but math in general.
26
72260
3000
no solo las financieras, sino las matemáticas en general.
01:15
That its transition
27
75260
2000
Reconsideremos que han pasado
01:17
from being something that we extract and derive from the world
28
77260
3000
de ser algo que se extrae y se deriva del mundo
01:20
to something that actually starts to shape it --
29
80260
3000
a algo que realmente empieza a darle forma,
01:23
the world around us and the world inside us.
30
83260
3000
al mundo que nos rodea y al mundo dentro de nosotros.
01:26
And it's specifically algorithms,
31
86260
2000
Y es específicamente con algoritmos,
01:28
which are basically the math
32
88260
2000
que son básicamente las matemáticas
01:30
that computers use to decide stuff.
33
90260
3000
que utilizan los computadores para tomar decisiones.
01:33
They acquire the sensibility of truth
34
93260
2000
Adquieren el sentido de la verdad,
01:35
because they repeat over and over again,
35
95260
2000
porque se repiten una y otra vez
01:37
and they ossify and calcify,
36
97260
3000
y se osifican y se calcifican
01:40
and they become real.
37
100260
2000
y se vuelven reales.
01:42
And I was thinking about this, of all places,
38
102260
3000
Y estaba pensando en esto, en un lugar improbable,
01:45
on a transatlantic flight a couple of years ago,
39
105260
3000
en un vuelo transatlántico hace un par de años,
01:48
because I happened to be seated
40
108260
2000
porque me encontraba sentado
01:50
next to a Hungarian physicist about my age
41
110260
2000
al lado de un físico húngaro como de mi edad
01:52
and we were talking
42
112260
2000
y hablábamos
01:54
about what life was like during the Cold War
43
114260
2000
de cómo era la vida de los físicos en Hungría
01:56
for physicists in Hungary.
44
116260
2000
durante la guerra fría.
01:58
And I said, "So what were you doing?"
45
118260
2000
Y le pregunté: "¿Qué hacían ustedes?"
02:00
And he said, "Well we were mostly breaking stealth."
46
120260
2000
Y dijo: "Mayormente, destruíamos escudos furtivos".
02:02
And I said, "That's a good job. That's interesting.
47
122260
2000
A lo que le dije: "Ese es un buen trabajo. Es interesante.
02:04
How does that work?"
48
124260
2000
¿Cómo funciona?"
02:06
And to understand that,
49
126260
2000
Y para entender eso,
02:08
you have to understand a little bit about how stealth works.
50
128260
3000
hay que entender primero cómo funciona la tecnología furtiva.
02:11
And so -- this is an over-simplification --
51
131260
3000
Y para esto, voy a simplificar al extremo,
02:14
but basically, it's not like
52
134260
2000
en el fondo no se trata
02:16
you can just pass a radar signal
53
136260
2000
de pasar una señal de radar
02:18
right through 156 tons of steel in the sky.
54
138260
3000
a través de 156 toneladas de acero en el cielo.
02:21
It's not just going to disappear.
55
141260
3000
Eso no va a desaparecer.
02:24
But if you can take this big, massive thing,
56
144260
3000
Pero se puede tomar esta cosa enorme
02:27
and you could turn it into
57
147260
3000
y transformarla
02:30
a million little things --
58
150260
2000
en un millón de cosas pequeñas,
02:32
something like a flock of birds --
59
152260
2000
como una bandada de pájaros, por ejemplo,
02:34
well then the radar that's looking for that
60
154260
2000
y luego el radar que la está buscando
02:36
has to be able to see
61
156260
2000
tiene que ser capaz de ver
02:38
every flock of birds in the sky.
62
158260
2000
todas las bandadas de pájaros en el cielo.
02:40
And if you're a radar, that's a really bad job.
63
160260
4000
Y si usted es un radar, ese es un trabajo muy duro.
02:44
And he said, "Yeah." He said, "But that's if you're a radar.
64
164260
3000
Y él dijo: "Sí, pero eso es solo si usted es un radar.
02:47
So we didn't use a radar;
65
167260
2000
Pero, no usábamos radares;
02:49
we built a black box that was looking for electrical signals,
66
169260
3000
construíamos una caja negra que buscaba señales eléctricas,
02:52
electronic communication.
67
172260
3000
de comunicación electrónica.
02:55
And whenever we saw a flock of birds that had electronic communication,
68
175260
3000
Y cuando veíamos una bandada de pájaros que tenía comunicación electrónica,
02:58
we thought, 'Probably has something to do with the Americans.'"
69
178260
3000
pensábamos que probablemente tenía algo que ver con los estadounidenses".
03:01
And I said, "Yeah.
70
181260
2000
Y le dije: "Sí.
03:03
That's good.
71
183260
2000
Está bien.
03:05
So you've effectively negated
72
185260
2000
Ud. ha reducido a la nada
03:07
60 years of aeronautic research.
73
187260
2000
60 años de investigación aeronáutica.
03:09
What's your act two?
74
189260
2000
Y luego, ¿qué va a hacer?
03:11
What do you do when you grow up?"
75
191260
2000
¿Qué va a hacer cuando sea mayor?"
03:13
And he said,
76
193260
2000
Y respondió:
03:15
"Well, financial services."
77
195260
2000
"Trabajar en servicios financieros".
03:17
And I said, "Oh."
78
197260
2000
Y le dije: "¡Oh!".
03:19
Because those had been in the news lately.
79
199260
3000
Porque se había hablado de ellos en las noticias últimamente.
03:22
And I said, "How does that work?"
80
202260
2000
Le pregunté: "¿Cómo funciona eso?"
03:24
And he said, "Well there's 2,000 physicists on Wall Street now,
81
204260
2000
Y dijo: "Bueno, actualmente, hay 2 000 físicos en Wall Street,
03:26
and I'm one of them."
82
206260
2000
y soy uno de ellos".
03:28
And I said, "What's the black box for Wall Street?"
83
208260
3000
Y le pregunté: "¿Cuál es la caja negra de Wall Street?"
03:31
And he said, "It's funny you ask that,
84
211260
2000
Y él dijo: "Es curioso que lo pregunte,
03:33
because it's actually called black box trading.
85
213260
3000
porque, en efecto, se llama comercio de caja negra.
03:36
And it's also sometimes called algo trading,
86
216260
2000
Y a veces también se le llama comercio algo,
03:38
algorithmic trading."
87
218260
3000
comercio algorítmico".
03:41
And algorithmic trading evolved in part
88
221260
3000
Y el comercio algorítmico se ha desarrollado en parte
03:44
because institutional traders have the same problems
89
224260
3000
porque los inversores institucionales tienen los mismos problemas
03:47
that the United States Air Force had,
90
227260
3000
que tenía la Fuerza Aérea de los Estados Unidos,
03:50
which is that they're moving these positions --
91
230260
3000
es decir, que mueven sus posiciones
03:53
whether it's Proctor & Gamble or Accenture, whatever --
92
233260
2000
–que se trate de Procter & Gamble, Accenture u otra compañía–
03:55
they're moving a million shares of something
93
235260
2000
y transfieren un millón de acciones de algo
03:57
through the market.
94
237260
2000
a través del mercado.
03:59
And if they do that all at once,
95
239260
2000
Y si lo hacen todo a la vez,
04:01
it's like playing poker and going all in right away.
96
241260
2000
es como jugar al póker y apostar todo inmediatamente.
04:03
You just tip your hand.
97
243260
2000
Están mostrando su jugada.
04:05
And so they have to find a way --
98
245260
2000
De manera que tienen que encontrar una solución
04:07
and they use algorithms to do this --
99
247260
2000
–y para eso usan algoritmos–
04:09
to break up that big thing
100
249260
2000
para dividir ese gran paquete
04:11
into a million little transactions.
101
251260
2000
en un millón de transacciones pequeñas.
04:13
And the magic and the horror of that
102
253260
2000
Y la magia y el horror de eso
04:15
is that the same math
103
255260
2000
es que las mismas matemáticas
04:17
that you use to break up the big thing
104
257260
2000
que se usan para dividir ese gran paquete
04:19
into a million little things
105
259260
2000
en un millón de pequeñas cosas
04:21
can be used to find a million little things
106
261260
2000
pueden usarse para encontrar ese millón de pequeñas cosas,
04:23
and sew them back together
107
263260
2000
unirlas nuevamente
04:25
and figure out what's actually happening in the market.
108
265260
2000
y averiguar lo que sucede realmente en el mercado.
04:27
So if you need to have some image
109
267260
2000
Así que para que tengan una idea
04:29
of what's happening in the stock market right now,
110
269260
3000
de lo que pasa en la bolsa en este momento,
04:32
what you can picture is a bunch of algorithms
111
272260
2000
pueden imaginarse un montón de algoritmos
04:34
that are basically programmed to hide,
112
274260
3000
programados básicamente para esconderse,
04:37
and a bunch of algorithms that are programmed to go find them and act.
113
277260
3000
y otro montón de algoritmos programados para ir a buscarlos y actuar.
04:40
And all of that's great, and it's fine.
114
280260
3000
Y todo eso es genial, está muy bien.
04:43
And that's 70 percent
115
283260
2000
Representa el 70 %
04:45
of the United States stock market,
116
285260
2000
de la bolsa de los Estados Unidos,
04:47
70 percent of the operating system
117
287260
2000
el 70 % del sistema operativo
04:49
formerly known as your pension,
118
289260
3000
antes conocido como nuestras pensiones
04:52
your mortgage.
119
292260
3000
e hipotecas.
04:55
And what could go wrong?
120
295260
2000
Y ¿qué podría fallar?
04:57
What could go wrong
121
297260
2000
Podría pasar algo
04:59
is that a year ago,
122
299260
2000
como lo de hace un año,
05:01
nine percent of the entire market just disappears in five minutes,
123
301260
3000
cuando el 9 % del total del mercado desapareció en 5 minutos
05:04
and they called it the Flash Crash of 2:45.
124
304260
3000
y lo llamaron el “flash crash” de las 2.45.
05:07
All of a sudden, nine percent just goes away,
125
307260
3000
De repente, 9 % simplemente desapareció,
05:10
and nobody to this day
126
310260
2000
y nadie hasta hoy
05:12
can even agree on what happened
127
312260
2000
se pone de acuerdo sobre lo que pasó,
05:14
because nobody ordered it, nobody asked for it.
128
314260
3000
porque nadie dio la orden, nadie quería eso.
05:17
Nobody had any control over what was actually happening.
129
317260
3000
Nadie tenía ningún control sobre lo que realmente pasaba.
05:20
All they had
130
320260
2000
Lo único que tenían
05:22
was just a monitor in front of them
131
322260
2000
era un monitor delante de ellos
05:24
that had the numbers on it
132
324260
2000
que tenía unos números
05:26
and just a red button
133
326260
2000
y un botón rojo
05:28
that said, "Stop."
134
328260
2000
que decía: "Pare".
05:30
And that's the thing,
135
330260
2000
Y ese es el problema,
05:32
is that we're writing things,
136
332260
2000
que estamos escribiendo cosas,
05:34
we're writing these things that we can no longer read.
137
334260
3000
que ya no podemos leer.
05:37
And we've rendered something
138
337260
2000
Hemos dejado algo
05:39
illegible,
139
339260
2000
ilegible.
05:41
and we've lost the sense
140
341260
3000
Y en este mundo que hemos fabricado,
05:44
of what's actually happening
141
344260
2000
hemos perdido el sentido
05:46
in this world that we've made.
142
346260
2000
de lo que realmente está sucediendo.
05:48
And we're starting to make our way.
143
348260
2000
Y hemos empezando a hacer nuestro camino.
05:50
There's a company in Boston called Nanex,
144
350260
3000
Hay una compañía en Boston llamada Nanex,
05:53
and they use math and magic
145
353260
2000
que usa las matemáticas y la magia
05:55
and I don't know what,
146
355260
2000
y no sé qué más,
05:57
and they reach into all the market data
147
357260
2000
que consigue todos los datos del mercado
05:59
and they find, actually sometimes, some of these algorithms.
148
359260
3000
y, a veces encuentra algunos de estos algoritmos.
06:02
And when they find them they pull them out
149
362260
3000
Y cuando los encuentra, los extrae
06:05
and they pin them to the wall like butterflies.
150
365260
3000
y los sujeta contra la pared como si fueran mariposas.
06:08
And they do what we've always done
151
368260
2000
Y hace lo que siempre hemos hecho
06:10
when confronted with huge amounts of data that we don't understand --
152
370260
3000
cuando nos enfrentamos a grandes cantidades de datos que no entendemos,
06:13
which is that they give them a name
153
373260
2000
les da un nombre
06:15
and a story.
154
375260
2000
y una historia.
06:17
So this is one that they found,
155
377260
2000
Aquí hay unos que encontró.
06:19
they called the Knife,
156
379260
4000
A este lo llamó el Cuchillo,
06:23
the Carnival,
157
383260
2000
el Carnaval,
06:25
the Boston Shuffler,
158
385260
4000
la Mezcla de Boston,
06:29
Twilight.
159
389260
2000
el Crepúsculo.
06:31
And the gag is
160
391260
2000
Y el chiste es
06:33
that, of course, these aren't just running through the market.
161
393260
3000
que, por supuesto, no se trata solo del mercado.
06:36
You can find these kinds of things wherever you look,
162
396260
3000
Podemos encontrar este tipo de cosas donde miremos,
06:39
once you learn how to look for them.
163
399260
2000
una vez que aprendemos cómo buscarlos.
06:41
You can find it here: this book about flies
164
401260
3000
Podemos encontrarlos aquí: en este libro sobre las moscas
06:44
that you may have been looking at on Amazon.
165
404260
2000
que tal vez hemos estado buscando en Amazon.
06:46
You may have noticed it
166
406260
2000
Puede que lo hayamos notado,
06:48
when its price started at 1.7 million dollars.
167
408260
2000
cuando su precio subió a 1,7 millones de dólares.
06:50
It's out of print -- still ...
168
410260
2000
Está agotado, aún...
06:52
(Laughter)
169
412260
2000
(Risas)
06:54
If you had bought it at 1.7, it would have been a bargain.
170
414260
3000
Si lo hubiésemos comprado a 1,7, habría sido una ganga.
06:57
A few hours later, it had gone up
171
417260
2000
Unas horas más tarde, subió
06:59
to 23.6 million dollars,
172
419260
2000
a 23,6 millones de dólares,
07:01
plus shipping and handling.
173
421260
2000
más gastos de envío.
07:03
And the question is:
174
423260
2000
Y la pregunta es:
07:05
Nobody was buying or selling anything; what was happening?
175
425260
2000
Nadie compraba ni vendía nada; ¿qué pasaba?
07:07
And you see this behavior on Amazon
176
427260
2000
Y esto se ve tanto en Amazon
07:09
as surely as you see it on Wall Street.
177
429260
2000
como en Wall Street.
07:11
And when you see this kind of behavior,
178
431260
2000
Y cuando uno ve este tipo de comportamiento,
07:13
what you see is the evidence
179
433260
2000
lo que ve es la evidencia
07:15
of algorithms in conflict,
180
435260
2000
de los algoritmos en conflicto,
07:17
algorithms locked in loops with each other,
181
437260
2000
trabados entre sí en bucles,
07:19
without any human oversight,
182
439260
2000
sin ninguna supervisión humana,
07:21
without any adult supervision
183
441260
3000
sin ningún tipo de supervisión de un adulto
07:24
to say, "Actually, 1.7 million is plenty."
184
444260
3000
para decir: "En realidad, 1,7 millones es bastante".
07:27
(Laughter)
185
447260
3000
(Risas)
07:30
And as with Amazon, so it is with Netflix.
186
450260
3000
A Netflix le ha sucedido lo mismo que a Amazon.
07:33
And so Netflix has gone through
187
453260
2000
Netflix ha pasado
07:35
several different algorithms over the years.
188
455260
2000
por varios algoritmos diferentes a través del tiempo.
07:37
They started with Cinematch, and they've tried a bunch of others --
189
457260
3000
Comenzó con Cinematch, y ha probado muchos otros,
07:40
there's Dinosaur Planet; there's Gravity.
190
460260
2000
pasando por Dinosaur Planet y Gravity.
07:42
They're using Pragmatic Chaos now.
191
462260
2000
Ahora está usando Pragmatic Chaos
07:44
Pragmatic Chaos is, like all of Netflix algorithms,
192
464260
2000
que, al igual que todos los algoritmos de Netflix,
07:46
trying to do the same thing.
193
466260
2000
trata de hacer lo mismo:
07:48
It's trying to get a grasp on you,
194
468260
2000
conseguir un asidero en nosotros,
07:50
on the firmware inside the human skull,
195
470260
2000
en el “firmware” dentro del cráneo humano,
07:52
so that it can recommend what movie
196
472260
2000
para que pueda recomendar qué película
07:54
you might want to watch next --
197
474260
2000
podríamos tener ganas de ver próximamente,
07:56
which is a very, very difficult problem.
198
476260
3000
lo cual es un problema muy, muy difícil.
07:59
But the difficulty of the problem
199
479260
2000
Pero la dificultad del problema
08:01
and the fact that we don't really quite have it down,
200
481260
3000
y el hecho de que en realidad no lo tengamos resuelto,
08:04
it doesn't take away
201
484260
2000
no le quita
08:06
from the effects Pragmatic Chaos has.
202
486260
2000
los efectos que el Pragmatic Chaos tiene.
08:08
Pragmatic Chaos, like all Netflix algorithms,
203
488260
3000
Este, al igual que todos los algoritmos de Netflix,
08:11
determines, in the end,
204
491260
2000
determina, en última instancia,
08:13
60 percent
205
493260
2000
el 60 %
08:15
of what movies end up being rented.
206
495260
2000
de las películas que terminan siendo alquiladas.
08:17
So one piece of code
207
497260
2000
De manera que un segmento de código
08:19
with one idea about you
208
499260
3000
con una idea acerca de nosotros
08:22
is responsible for 60 percent of those movies.
209
502260
3000
es responsable del 60 % de esas películas.
08:25
But what if you could rate those movies
210
505260
2000
¿Qué pasaría si pudiésemos evaluar esas películas
08:27
before they get made?
211
507260
2000
antes de que se hiciesen?
08:29
Wouldn't that be handy?
212
509260
2000
¿No sería útil?
08:31
Well, a few data scientists from the U.K. are in Hollywood,
213
511260
3000
Bien, hay unos especialistas de datos del Reino Unido en Hollywood
08:34
and they have "story algorithms" --
214
514260
2000
que tienen algoritmos de historias,
08:36
a company called Epagogix.
215
516260
2000
son una empresa llamada Epagogix.
08:38
And you can run your script through there,
216
518260
3000
Pueden probar un guion cinematográfico,
08:41
and they can tell you, quantifiably,
217
521260
2000
y decirnos, de manera cuantificable,
08:43
that that's a 30 million dollar movie
218
523260
2000
si será una película de 30 millones de dólares
08:45
or a 200 million dollar movie.
219
525260
2000
o una de 200 millones de dólares.
08:47
And the thing is, is that this isn't Google.
220
527260
2000
Y el caso es que esto no es Google.
08:49
This isn't information.
221
529260
2000
No es información.
08:51
These aren't financial stats; this is culture.
222
531260
2000
No se trata de estadísticas financieras; es cultura.
08:53
And what you see here,
223
533260
2000
Y lo que vemos aquí,
08:55
or what you don't really see normally,
224
535260
2000
o más bien, lo que no vemos normalmente,
08:57
is that these are the physics of culture.
225
537260
4000
es que se trata de la física de la cultura.
09:01
And if these algorithms,
226
541260
2000
Y si estos algoritmos,
09:03
like the algorithms on Wall Street,
227
543260
2000
como los de Wall Street,
09:05
just crashed one day and went awry,
228
545260
3000
acaban estrellándose un día y todo falla,
09:08
how would we know?
229
548260
2000
¿cómo podríamos saber
09:10
What would it look like?
230
550260
2000
lo que se vería?
09:12
And they're in your house. They're in your house.
231
552260
3000
Y están en nuestras casas.
09:15
These are two algorithms competing for your living room.
232
555260
2000
Hay dos algoritmos que compiten por la sala de estar.
09:17
These are two different cleaning robots
233
557260
2000
Son dos tipos diferentes de robots de limpieza
09:19
that have very different ideas about what clean means.
234
559260
3000
que tienen ideas muy distintas de lo que significa limpio.
09:22
And you can see it
235
562260
2000
Y se pueden ver
09:24
if you slow it down and attach lights to them,
236
564260
3000
si les bajamos la velocidad y les fijamos luces.
09:27
and they're sort of like secret architects in your bedroom.
237
567260
3000
Son algo así como los arquitectos secretos del dormitorio.
09:30
And the idea that architecture itself
238
570260
3000
Y la idea de que la propia arquitectura
09:33
is somehow subject to algorithmic optimization
239
573260
2000
esté sujeta de alguna manera a la optimización algorítmica
09:35
is not far-fetched.
240
575260
2000
no es descabellada.
09:37
It's super-real and it's happening around you.
241
577260
3000
Es muy real y está ocurriendo a nuestro alrededor.
09:40
You feel it most
242
580260
2000
Es más evidente
09:42
when you're in a sealed metal box,
243
582260
2000
cuando estamos en una caja metálica sellada,
09:44
a new-style elevator;
244
584260
2000
en un ascensor moderno
09:46
they're called destination-control elevators.
245
586260
2000
llamado ascensor de control de destino.
09:48
These are the ones where you have to press what floor you're going to go to
246
588260
3000
Es de aquellos en los que hay que presionar el piso al que vamos a ir
09:51
before you get in the elevator.
247
591260
2000
antes de entrar en el ascensor.
09:53
And it uses what's called a bin-packing algorithm.
248
593260
2000
Utiliza lo que se llama un algoritmo de embalaje de cajas.
09:55
So none of this mishegas
249
595260
2000
Así que nada de esas locuras
09:57
of letting everybody go into whatever car they want.
250
597260
2000
de dejar que todo el mundo suba a cualquier cabina que quiera.
09:59
Everybody who wants to go to the 10th floor goes into car two,
251
599260
2000
Todos los que quieran ir al décimo piso suben a la cabina 2,
10:01
and everybody who wants to go to the third floor goes into car five.
252
601260
3000
y los que quieran ir al tercer piso suben a la cabina 5.
10:04
And the problem with that
253
604260
2000
Y el problema con esto
10:06
is that people freak out.
254
606260
2000
es que la gente enloquezca,
10:08
People panic.
255
608260
2000
que entre en pánico.
10:10
And you see why. You see why.
256
610260
2000
Y es claro por qué.
10:12
It's because the elevator
257
612260
2000
Porque al ascensor
10:14
is missing some important instrumentation, like the buttons.
258
614260
3000
le faltan algunos instrumentos importantes, como los botones.
10:17
(Laughter)
259
617260
2000
(Risas)
10:19
Like the things that people use.
260
619260
2000
Como las cosas que la gente usa.
10:21
All it has
261
621260
2000
Lo único que tiene
10:23
is just the number that moves up or down
262
623260
3000
es el número que cambia cuando sube o baja
10:26
and that red button that says, "Stop."
263
626260
3000
y ese botón rojo que dice "Pare".
10:29
And this is what we're designing for.
264
629260
3000
Y eso es lo que estamos diseñando.
10:32
We're designing
265
632260
2000
Estamos trabajando
10:34
for this machine dialect.
266
634260
2000
en el dialecto de esa máquina.
10:36
And how far can you take that? How far can you take it?
267
636260
3000
Y ¿hasta dónde podemos ir?, ¿hasta qué punto?
10:39
You can take it really, really far.
268
639260
2000
Podemos ir muy, muy lejos.
10:41
So let me take it back to Wall Street.
269
641260
3000
Volvamos al tema de Wall Street.
10:45
Because the algorithms of Wall Street
270
645260
2000
Los algoritmos de Wall Street
10:47
are dependent on one quality above all else,
271
647260
3000
dependen de una cualidad por encima de todo,
10:50
which is speed.
272
650260
2000
la velocidad.
10:52
And they operate on milliseconds and microseconds.
273
652260
3000
Operan en milisegundos y microsegundos.
10:55
And just to give you a sense of what microseconds are,
274
655260
2000
Y para que tengan una idea de lo que es un microsegundo,
10:57
it takes you 500,000 microseconds
275
657260
2000
piensen que se necesitan 500 000 microsegundos
10:59
just to click a mouse.
276
659260
2000
solo para hacer un clic con un mouse.
11:01
But if you're a Wall Street algorithm
277
661260
2000
Pero si un algoritmo de Wall Street
11:03
and you're five microseconds behind,
278
663260
2000
tiene cinco microsegundos de tardanza,
11:05
you're a loser.
279
665260
2000
es un perdedor.
11:07
So if you were an algorithm,
280
667260
2000
Así que si fuésemos algoritmos,
11:09
you'd look for an architect like the one that I met in Frankfurt
281
669260
3000
buscaríamos un arquitecto como el que me encontré en Frankfurt
11:12
who was hollowing out a skyscraper --
282
672260
2000
que vaciaba un rascacielos,
11:14
throwing out all the furniture, all the infrastructure for human use,
283
674260
3000
tiraba todos los muebles, toda la infraestructura de uso humano,
11:17
and just running steel on the floors
284
677260
3000
y solo dejaba acero en los pisos
11:20
to get ready for the stacks of servers to go in --
285
680260
3000
para prepararse para recibir pilas de servidores,
11:23
all so an algorithm
286
683260
2000
todo para que un algoritmo
11:25
could get close to the Internet.
287
685260
3000
pueda acercarse al internet.
11:28
And you think of the Internet as this kind of distributed system.
288
688260
3000
Creemos que el internet es un tipo de sistema descentralizado.
11:31
And of course, it is, but it's distributed from places.
289
691260
3000
Y, por supuesto, lo es, pero se descentraliza desde ciertos lugares.
11:34
In New York, this is where it's distributed from:
290
694260
2000
Aquí es desde donde se descentraliza en Nueva York:
11:36
the Carrier Hotel
291
696260
2000
el hotel Carrier
11:38
located on Hudson Street.
292
698260
2000
ubicado en la calle Hudson.
11:40
And this is really where the wires come right up into the city.
293
700260
3000
Es realmente desde allí que los cables llegan hasta la ciudad.
11:43
And the reality is that the further away you are from that,
294
703260
4000
Y la realidad es que cuanto más nos alejamos de allí,
11:47
you're a few microseconds behind every time.
295
707260
2000
más nos atrasamos en microsegundos.
11:49
These guys down on Wall Street,
296
709260
2000
Estos tipos en Wall Street,
11:51
Marco Polo and Cherokee Nation,
297
711260
2000
Marco Polo y la nación Cherokee,
11:53
they're eight microseconds
298
713260
2000
están 8 microsegundos
11:55
behind all these guys
299
715260
2000
detrás de todos estos tipos
11:57
going into the empty buildings being hollowed out
300
717260
4000
que van a los edificios que se desocupan
12:01
up around the Carrier Hotel.
301
721260
2000
en los alrededores del hotel Carrier.
12:03
And that's going to keep happening.
302
723260
3000
Y esto va a seguir sucediendo.
12:06
We're going to keep hollowing them out,
303
726260
2000
Vamos a seguir vaciando edificios,
12:08
because you, inch for inch
304
728260
3000
ya que, centímetro a centímetro,
12:11
and pound for pound and dollar for dollar,
305
731260
3000
libra por libra y dólar por dólar,
12:14
none of you could squeeze revenue out of that space
306
734260
3000
ninguno de nosotros podría sacar más provecho de ese espacio
12:17
like the Boston Shuffler could.
307
737260
3000
que la Mezcla de Boston.
12:20
But if you zoom out,
308
740260
2000
Pero si nos alejamos,
12:22
if you zoom out,
309
742260
2000
si nos alejamos,
12:24
you would see an 825-mile trench
310
744260
4000
veremos una zanja de 1 300 kilómetros
12:28
between New York City and Chicago
311
748260
2000
entre Nueva York y Chicago
12:30
that's been built over the last few years
312
750260
2000
construida en los últimos años
12:32
by a company called Spread Networks.
313
752260
3000
por una compañía llamada Spread Networks.
12:35
This is a fiber optic cable
314
755260
2000
Este es un cable de fibra óptica
12:37
that was laid between those two cities
315
757260
2000
colocado entre las dos ciudades
12:39
to just be able to traffic one signal
316
759260
3000
solamente para hacer pasar una señal
12:42
37 times faster than you can click a mouse --
317
762260
3000
37 veces más rápido que el clic de un mouse,
12:45
just for these algorithms,
318
765260
3000
solo para estos algoritmos,
12:48
just for the Carnival and the Knife.
319
768260
3000
el Carnaval y el Cuchillo.
12:51
And when you think about this,
320
771260
2000
Y cuando pensamos en esto,
12:53
that we're running through the United States
321
773260
2000
que estamos atravesando los Estados Unidos
12:55
with dynamite and rock saws
322
775260
3000
con dinamita y sierras de roca
12:58
so that an algorithm can close the deal
323
778260
2000
para que un algoritmo pueda cerrar un contrato
13:00
three microseconds faster,
324
780260
3000
3 microsegundos más rápido,
13:03
all for a communications framework
325
783260
2000
todo en un marco de comunicaciones
13:05
that no human will ever know,
326
785260
4000
que ningún ser humano sabrá nunca,
13:09
that's a kind of manifest destiny;
327
789260
3000
es una especie de destino manifiesto
13:12
and we'll always look for a new frontier.
328
792260
3000
que siempre buscará una nueva frontera.
13:15
Unfortunately, we have our work cut out for us.
329
795260
3000
Pero aún tenemos mucho trabajo por hacer.
13:18
This is just theoretical.
330
798260
2000
Todo eso es solo teoría
13:20
This is some mathematicians at MIT.
331
800260
2000
de unos matemáticos del MIT.
13:22
And the truth is I don't really understand
332
802260
2000
Y la verdad es que no entiendo
13:24
a lot of what they're talking about.
333
804260
2000
mucho de lo que hablan.
13:26
It involves light cones and quantum entanglement,
334
806260
3000
Se trata de conos luminosos y conexiones cuánticas,
13:29
and I don't really understand any of that.
335
809260
2000
y realmente no entiendo nada de eso.
13:31
But I can read this map,
336
811260
2000
Pero puedo leer este mapa
13:33
and what this map says
337
813260
2000
que dice
13:35
is that, if you're trying to make money on the markets where the red dots are,
338
815260
3000
que si tratamos de hacer dinero en los mercados donde están los puntos rojos,
13:38
that's where people are, where the cities are,
339
818260
2000
que es donde está la gente, donde están las ciudades,
13:40
you're going to have to put the servers where the blue dots are
340
820260
3000
vamos a tener que poner los servidores en los puntos azules
13:43
to do that most effectively.
341
823260
2000
para tener el máximo de eficiencia.
13:45
And the thing that you might have noticed about those blue dots
342
825260
3000
Y habrán notado que los puntos azules
13:48
is that a lot of them are in the middle of the ocean.
343
828260
3000
están mayormente en medio del océano.
13:51
So that's what we'll do: we'll build bubbles or something,
344
831260
3000
Así que vamos a tener que crear burbujas
13:54
or platforms.
345
834260
2000
o plataformas.
13:56
We'll actually part the water
346
836260
2000
En realidad, vamos a compartir el agua
13:58
to pull money out of the air,
347
838260
2000
para sacar dinero del aire
14:00
because it's a bright future
348
840260
2000
porque allí hay un futuro brillante
14:02
if you're an algorithm.
349
842260
2000
si somos algoritmos.
14:04
(Laughter)
350
844260
2000
(Risas)
14:06
And it's not the money that's so interesting actually.
351
846260
3000
Y en realidad, el dinero no es lo que más nos interesa,
14:09
It's what the money motivates,
352
849260
2000
sino la motivación que trae el dinero.
14:11
that we're actually terraforming
353
851260
2000
El hecho de transformar
14:13
the Earth itself
354
853260
2000
el planeta mismo
14:15
with this kind of algorithmic efficiency.
355
855260
2000
con este tipo de eficiencia algorítmica.
14:17
And in that light,
356
857260
2000
A la luz de esto,
14:19
you go back
357
859260
2000
volvemos a ver
14:21
and you look at Michael Najjar's photographs,
358
861260
2000
las fotografías de Michael Najjar
14:23
and you realize that they're not metaphor, they're prophecy.
359
863260
3000
y nos damos cuenta de que no son metafóricas, son proféticas.
14:26
They're prophecy
360
866260
2000
Se anticipan
14:28
for the kind of seismic, terrestrial effects
361
868260
4000
a los efectos sísmicos, terrestres
14:32
of the math that we're making.
362
872260
2000
de las matemáticas que hacemos.
14:34
And the landscape was always made
363
874260
3000
Y el paisaje siempre ha estado configurado
14:37
by this sort of weird, uneasy collaboration
364
877260
3000
por este tipo de colaboración extraña y difícil
14:40
between nature and man.
365
880260
3000
entre la naturaleza y el hombre.
14:43
But now there's this third co-evolutionary force: algorithms --
366
883260
3000
Pero ahora existe esta tercera fuerza coevolutiva: los algoritmos;
14:46
the Boston Shuffler, the Carnival.
367
886260
3000
la Mezcla de Boston, el Carnaval.
14:49
And we will have to understand those as nature,
368
889260
3000
Y vamos a tener que entenderlos como parte de la naturaleza.
14:52
and in a way, they are.
369
892260
2000
Y de una manera, lo son.
14:54
Thank you.
370
894260
2000
Gracias.
14:56
(Applause)
371
896260
20000
(Aplausos)
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7