Kenneth Cukier: Big data is better data

Kenneth Cukier: Datos masivos, datos mucho mejores

530,099 views

2014-09-23 ・ TED


New videos

Kenneth Cukier: Big data is better data

Kenneth Cukier: Datos masivos, datos mucho mejores

530,099 views ・ 2014-09-23

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Lidia Cámara de la Fuente Revisor: Ciro Gomez
00:12
America's favorite pie is?
0
12787
3845
¿Pastel favorito en EEUU?
00:16
Audience: Apple. Kenneth Cukier: Apple. Of course it is.
1
16632
3506
Audiencia: El de manzana. Kenneth Cukier: De manzana. Por supuesto.
00:20
How do we know it?
2
20138
1231
¿Cómo lo sabemos?
00:21
Because of data.
3
21369
2753
Por los datos.
00:24
You look at supermarket sales.
4
24122
2066
Se miran las ventas en supermercados.
00:26
You look at supermarket sales of 30-centimeter pies
5
26188
2866
Se miran las ventas en supermercados de pasteles de 30 cm
00:29
that are frozen, and apple wins, no contest.
6
29054
4075
congelados, y los de manzana ganan, sin rival.
00:33
The majority of the sales are apple.
7
33129
5180
La mayoría de las ventas son los de manzana.
00:38
But then supermarkets started selling
8
38309
2964
Pero los supermercados comenzaron a vender
00:41
smaller, 11-centimeter pies,
9
41273
2583
pasteles más pequeños, de 11 cm,
00:43
and suddenly, apple fell to fourth or fifth place.
10
43856
4174
y de repente, el de manzana cayó al 4º o 5º lugar.
00:48
Why? What happened?
11
48030
2875
¿Por qué? ¿Qué paso?
00:50
Okay, think about it.
12
50905
2818
Bueno, piensen en ello.
00:53
When you buy a 30-centimeter pie,
13
53723
3848
Cuando compramos un pastel de 30 cm,
00:57
the whole family has to agree,
14
57571
2261
toda la familia tiene que estar de acuerdo,
00:59
and apple is everyone's second favorite.
15
59832
3791
y el de manzana es el segundo favorito de todos.
01:03
(Laughter)
16
63623
1935
(Risas)
01:05
But when you buy an individual 11-centimeter pie,
17
65558
3615
Pero si uno compra un pastel de 11 cm individual,
01:09
you can buy the one that you want.
18
69173
3745
puede comprar el que desee.
01:12
You can get your first choice.
19
72918
4015
Puede comprar su primera opción.
01:16
You have more data.
20
76933
1641
Tenemos más datos.
01:18
You can see something
21
78574
1554
Podemos ver algo
01:20
that you couldn't see
22
80128
1132
que no se podía ver
01:21
when you only had smaller amounts of it.
23
81260
3953
cuando solo había menor cantidad de datos.
01:25
Now, the point here is that more data
24
85213
2475
Ahora, el punto es que muchos más datos
01:27
doesn't just let us see more,
25
87688
2283
no solo nos permiten ver más,
01:29
more of the same thing we were looking at.
26
89971
1854
más de lo mismo que ya veíamos.
01:31
More data allows us to see new.
27
91825
3613
Más datos nos permiten ver cosas nuevas.
01:35
It allows us to see better.
28
95438
3094
Nos permiten ver mejor.
01:38
It allows us to see different.
29
98532
3656
Nos permiten ver de forma diferente.
01:42
In this case, it allows us to see
30
102188
3173
En este caso, nos permiten ver
01:45
what America's favorite pie is:
31
105361
2913
que el pastel favorito de EEUU es:
01:48
not apple.
32
108274
2542
no el de manzana.
01:50
Now, you probably all have heard the term big data.
33
110816
3614
Puede que todos hayan oído escuchado el término "Datos masivos".
01:54
In fact, you're probably sick of hearing the term
34
114430
2057
De hecho, es probable que estén hartos de escucharlo
01:56
big data.
35
116487
1630
"Datos masivos".
01:58
It is true that there is a lot of hype around the term,
36
118117
3330
Es cierto que se exagera mucho el término,
02:01
and that is very unfortunate,
37
121447
2332
y eso es muy lamentable,
02:03
because big data is an extremely important tool
38
123779
3046
porque los datos masivos son una herramienta muy importante
02:06
by which society is going to advance.
39
126825
3734
para que la sociedad avance.
02:10
In the past, we used to look at small data
40
130559
3561
En el pasado, solíamos observar pequeñas cantidades de datos
02:14
and think about what it would mean
41
134120
1704
y pensar qué significarían
02:15
to try to understand the world,
42
135824
1496
para tratar de entender el mundo.
02:17
and now we have a lot more of it,
43
137320
1991
Ahora tenemos mucho más de ello,
02:19
more than we ever could before.
44
139311
2722
más de lo que podía existir antes.
02:22
What we find is that when we have
45
142033
1877
Lo que encontramos es que cuando tenemos
02:23
a large body of data, we can fundamentally do things
46
143910
2724
una gran cantidad de datos, podemos hacer cosas
02:26
that we couldn't do when we only had smaller amounts.
47
146634
3276
que no podíamos hacer teniendo solo cantidades más pequeñas.
02:29
Big data is important, and big data is new,
48
149910
2641
Los datos masivos son importantes y es algo nuevo,
02:32
and when you think about it,
49
152551
1777
y cuando se piensa en ello,
02:34
the only way this planet is going to deal
50
154328
2216
la única forma en que este planeta afronte
02:36
with its global challenges —
51
156544
1789
sus desafíos mundiales, esto es,
02:38
to feed people, supply them with medical care,
52
158333
3537
alimentar a la gente, ofrecer atención médica,
02:41
supply them with energy, electricity,
53
161870
2810
suministrar energía, electricidad,
02:44
and to make sure they're not burnt to a crisp
54
164680
1789
y asegurarse de que no nos achicharramos
02:46
because of global warming —
55
166469
1238
debido al calentamiento global,
02:47
is because of the effective use of data.
56
167707
4195
es utilizando de forma eficaz los datos.
02:51
So what is new about big data? What is the big deal?
57
171902
3870
Entonces, ¿qué es lo nuevo de los datos masivos? ¿Cuál es la gran cosa?
02:55
Well, to answer that question, let's think about
58
175772
2517
Bueno, para responder a esto, pensaremos en
02:58
what information looked like,
59
178289
1896
cómo se veía la información,
03:00
physically looked like in the past.
60
180185
3034
físicamente en el pasado.
03:03
In 1908, on the island of Crete,
61
183219
3611
En 1908 en la isla de Creta,
03:06
archaeologists discovered a clay disc.
62
186830
4735
los arqueólogos descubrieron un disco de arcilla.
03:11
They dated it from 2000 B.C., so it's 4,000 years old.
63
191565
4059
Datan del año 2000 aC, así que tienen 4000 años de antigüedad.
03:15
Now, there's inscriptions on this disc,
64
195624
2004
Hay inscripciones en este disco,
03:17
but we actually don't know what it means.
65
197628
1327
pero, no sabemos qué significan.
03:18
It's a complete mystery, but the point is that
66
198955
2098
Es un completo misterio, pero el punto es que
03:21
this is what information used to look like
67
201053
1928
así solía verse la información
03:22
4,000 years ago.
68
202981
2089
hace 4000 años.
03:25
This is how society stored
69
205070
2548
Esta es la forma en que la sociedad almacenaba
03:27
and transmitted information.
70
207618
3524
y transmitía la información.
03:31
Now, society hasn't advanced all that much.
71
211142
4160
Ahora, la sociedad no ha avanzado tanto.
03:35
We still store information on discs,
72
215302
3474
Todavía guardamos la información en discos,
03:38
but now we can store a lot more information,
73
218776
3184
pero ahora podemos almacenar mucha más información,
03:41
more than ever before.
74
221960
1260
más que nunca.
03:43
Searching it is easier. Copying it easier.
75
223220
3093
Buscar es más fácil. Copiar es más fácil.
03:46
Sharing it is easier. Processing it is easier.
76
226313
3500
El compartir es más fácil. El procesamiento es más fácil.
03:49
And what we can do is we can reuse this information
77
229813
2766
Y podemos volver a utilizar esta información
03:52
for uses that we never even imagined
78
232579
1834
para usos que nunca nos imaginamos
03:54
when we first collected the data.
79
234413
3195
cuando se recogieron los primeros datos.
03:57
In this respect, the data has gone
80
237608
2252
A este respecto, los datos han evolucionado
03:59
from a stock to a flow,
81
239860
3532
de un almacén a un flujo,
04:03
from something that is stationary and static
82
243392
3938
de algo que es estacionario y estático
04:07
to something that is fluid and dynamic.
83
247330
3609
a algo que es fluido y dinámico.
04:10
There is, if you will, a liquidity to information.
84
250939
4023
Hay, si quieren, una liquidez de información.
04:14
The disc that was discovered off of Crete
85
254962
3474
El disco descubierto fuera de Creta
04:18
that's 4,000 years old, is heavy,
86
258436
3764
que tiene 4000 años de antigüedad, es pesado,
04:22
it doesn't store a lot of information,
87
262200
1962
no almacena gran cantidad de información,
04:24
and that information is unchangeable.
88
264162
3116
y esa información no es modificable.
04:27
By contrast, all of the files
89
267278
4011
Por el contrario, todos los archivos
04:31
that Edward Snowden took
90
271289
1861
que Edward Snowden tomó
04:33
from the National Security Agency in the United States
91
273150
2621
de la Agencia de Seguridad Nacional de EEUU
04:35
fits on a memory stick
92
275771
2419
caben en un dispositivo de memoria extraíble
04:38
the size of a fingernail,
93
278190
3010
del tamaño de una uña,
04:41
and it can be shared at the speed of light.
94
281200
4745
y pueden compartirse a la velocidad de la luz.
04:45
More data. More.
95
285945
5255
Más datos. Más.
Una razón para tener tantos datos hoy en el mundo
04:51
Now, one reason why we have so much data in the world today
96
291200
1974
04:53
is we are collecting things
97
293174
1432
es que recolectamos cosas
04:54
that we've always collected information on,
98
294606
3280
sobre las que siempre hemos recopilado información,
04:57
but another reason why is we're taking things
99
297886
2656
pero otra razón es que estamos tomando cosas
05:00
that have always been informational
100
300542
2812
que siempre han sido informacionales
05:03
but have never been rendered into a data format
101
303354
2486
pero nunca se habían convertido a un formato de datos
05:05
and we are putting it into data.
102
305840
2419
y las estamos convirtiendo en datos.
05:08
Think, for example, the question of location.
103
308259
3308
Piensen, por ejemplo, en la cuestión de la ubicación.
05:11
Take, for example, Martin Luther.
104
311567
2249
Tomemos, por ejemplo, Martín Lutero.
05:13
If we wanted to know in the 1500s
105
313816
1597
Si hubiéramos querido saber en 1500
05:15
where Martin Luther was,
106
315413
2667
donde estaba Martín Lutero,
05:18
we would have to follow him at all times,
107
318080
2092
habríamos tenido que seguirlo en todo momento,
05:20
maybe with a feathery quill and an inkwell,
108
320172
2137
quizá con pluma y tintero,
05:22
and record it,
109
322309
1676
y anotarlo.
05:23
but now think about what it looks like today.
110
323985
2183
Pero piensen cómo es hoy en día.
05:26
You know that somewhere,
111
326168
2122
Uds. saben que en algún lugar,
05:28
probably in a telecommunications carrier's database,
112
328290
2446
quizá en la base de datos de una empresa de telecomunicaciones,
05:30
there is a spreadsheet or at least a database entry
113
330736
3036
hay una hoja de cálculo o entrada de base de datos
05:33
that records your information
114
333772
2088
donde se registra su información
05:35
of where you've been at all times.
115
335860
2063
de donde han estado en todo momento.
05:37
If you have a cell phone,
116
337923
1360
Si tienen celular,
05:39
and that cell phone has GPS, but even if it doesn't have GPS,
117
339283
2847
y el teléfono tiene GPS, pero incluso si no tiene GPS,
05:42
it can record your information.
118
342130
2385
se puede registrar su información.
05:44
In this respect, location has been datafied.
119
344515
4084
En este sentido, la localización ha sido un campo de datos.
05:48
Now think, for example, of the issue of posture,
120
348599
4601
Ahora piensen, por ejemplo, en el tema de la postura,
05:53
the way that you are all sitting right now,
121
353200
1285
la forma en que están sentados ahora,
05:54
the way that you sit,
122
354485
2030
la forma en Ud. está sentado,
05:56
the way that you sit, the way that you sit.
123
356515
2771
la de Ud., la de Ud.
05:59
It's all different, and it's a function of your leg length
124
359286
2077
Todas diferentes, en función de la longitud de las piernas,
06:01
and your back and the contours of your back,
125
361363
2093
la espalda y su contorno,
06:03
and if I were to put sensors, maybe 100 sensors
126
363456
2531
y si pusiera censores, tal vez 100
06:05
into all of your chairs right now,
127
365987
1766
en todos los asientos ahora,
06:07
I could create an index that's fairly unique to you,
128
367753
3600
podría crear un índice que es único para cada uno,
06:11
sort of like a fingerprint, but it's not your finger.
129
371353
4409
algo así como una huella digital, que no es del dedo.
06:15
So what could we do with this?
130
375762
2969
Y entonces, ¿qué podemos hacer con esto?
06:18
Researchers in Tokyo are using it
131
378731
2397
Los investigadores en Tokio están utilizando
06:21
as a potential anti-theft device in cars.
132
381128
4388
como un dispositivo potencial antirobo en los autos.
06:25
The idea is that the carjacker sits behind the wheel,
133
385516
2924
La idea es que el ladrón se siente al volante,
06:28
tries to stream off, but the car recognizes
134
388440
2104
intente encenderlo, pero el auto reconoce
06:30
that a non-approved driver is behind the wheel,
135
390544
2362
que un conductor no autorizado está en el auto
06:32
and maybe the engine just stops, unless you
136
392906
2164
y, tal vez el motor se detiene, a menos que
06:35
type in a password into the dashboard
137
395070
3177
escriba una contraseña en el salpicadero
06:38
to say, "Hey, I have authorization to drive." Great.
138
398247
4658
para decir, "Tengo la autorización para conducir". Estupendo.
06:42
What if every single car in Europe
139
402905
2553
¿Qué pasaría si cada automóvil en Europa
06:45
had this technology in it?
140
405458
1457
tuviera esta tecnología?
06:46
What could we do then?
141
406915
3165
¿Qué podemos hacer entonces?
06:50
Maybe, if we aggregated the data,
142
410080
2240
Tal vez, si agregamos los datos,
06:52
maybe we could identify telltale signs
143
412320
3814
tal vez podríamos identificar signos reveladores
06:56
that best predict that a car accident
144
416134
2709
que predijeran mejor que un accidente de auto
06:58
is going to take place in the next five seconds.
145
418843
5893
tendrá lugar en los próximos cinco segundos.
07:04
And then what we will have datafied
146
424736
2557
Y entonces, la base de datos que tendremos
07:07
is driver fatigue,
147
427293
1783
es la fatiga del conductor,
07:09
and the service would be when the car senses
148
429076
2334
y el servicio se activaría cuando los sensores del automóvil
07:11
that the person slumps into that position,
149
431410
3437
detectaran que la persona reposa en esa posición,
07:14
automatically knows, hey, set an internal alarm
150
434847
3994
y automáticamente se activa una alarma interna
07:18
that would vibrate the steering wheel, honk inside
151
438841
2025
que haría vibrar el volante, sonar una alarma
07:20
to say, "Hey, wake up,
152
440866
1721
para decir, "Despierta,
07:22
pay more attention to the road."
153
442587
1904
presta más atención a la carretera".
07:24
These are the sorts of things we can do
154
444491
1853
Este es el tipo de cosas que podemos hacer
07:26
when we datafy more aspects of our lives.
155
446344
2821
cuando tomamos datos en más aspectos de nuestras vidas.
07:29
So what is the value of big data?
156
449165
3675
Entonces, ¿cuál es el valor de los datos masivos?
07:32
Well, think about it.
157
452840
2190
Bueno, piensen en ello.
07:35
You have more information.
158
455030
2412
Tienen más información.
07:37
You can do things that you couldn't do before.
159
457442
3341
Pueden hacer cosas que antes no se podían hacer.
07:40
One of the most impressive areas
160
460783
1676
Una de las zonas más impresionantes
07:42
where this concept is taking place
161
462459
1729
donde este concepto se ve aplicado
07:44
is in the area of machine learning.
162
464188
3307
es en el área del aprendizaje automático.
07:47
Machine learning is a branch of artificial intelligence,
163
467495
3077
El aprendizaje automático es una rama de la inteligencia artificial,
07:50
which itself is a branch of computer science.
164
470572
3378
que en sí es una rama de la informática.
07:53
The general idea is that instead of
165
473950
1543
La idea general es que en lugar de
07:55
instructing a computer what do do,
166
475493
2117
enseñar a un equipo algo,
07:57
we are going to simply throw data at the problem
167
477610
2620
simplemente transferiremos datos al problema
08:00
and tell the computer to figure it out for itself.
168
480230
3206
para decirle a la computadora que lo averigüe sola.
08:03
And it will help you understand it
169
483436
1777
Y nos ayude a entenderlo
08:05
by seeing its origins.
170
485213
3552
al ver sus orígenes.
08:08
In the 1950s, a computer scientist
171
488765
2388
En la década de 1950, un científico de computación
08:11
at IBM named Arthur Samuel liked to play checkers,
172
491153
3592
en IBM llamado Arthur Samuel al que le gustaba jugar a damas,
08:14
so he wrote a computer program
173
494745
1402
por eso escribió un programa
08:16
so he could play against the computer.
174
496147
2813
para poder jugar contra la computadora.
08:18
He played. He won.
175
498960
2711
Jugó. Ganó.
08:21
He played. He won.
176
501671
2103
Jugó. Ganó.
08:23
He played. He won,
177
503774
3015
Jugó. Ganó,
08:26
because the computer only knew
178
506789
1778
porque el equipo solo sabía
08:28
what a legal move was.
179
508567
2227
lo que era un movimiento legal.
08:30
Arthur Samuel knew something else.
180
510794
2087
Arthur Samuel sabía algo más.
08:32
Arthur Samuel knew strategy.
181
512881
4629
Arthur Samuel sabía estrategia.
08:37
So he wrote a small sub-program alongside it
182
517510
2396
Así que escribió un pequeño subprograma
08:39
operating in the background, and all it did
183
519906
1974
operando en el fondo. Y todo lo que hizo
08:41
was score the probability
184
521880
1817
fue anotar la probabilidad
08:43
that a given board configuration would likely lead
185
523697
2563
de que una configuración del tablero condujera
08:46
to a winning board versus a losing board
186
526260
2910
a un tablero ganador frente a un tablero perdedor
08:49
after every move.
187
529170
2508
después de cada movimiento.
08:51
He plays the computer. He wins.
188
531678
3150
Él jugó contra el equipo. Él ganó.
08:54
He plays the computer. He wins.
189
534828
2508
Él jugó contra el equipo. Él ganó.
08:57
He plays the computer. He wins.
190
537336
3731
Él jugó contra el equipo. Él ganó.
09:01
And then Arthur Samuel leaves the computer
191
541067
2277
Y luego Arthur Samuel dejó que la computadora
09:03
to play itself.
192
543344
2227
jugara sola.
09:05
It plays itself. It collects more data.
193
545571
3509
Juega sola. Y recoge más datos.
09:09
It collects more data. It increases the accuracy of its prediction.
194
549080
4309
Recoge más datos. Aumenta la precisión de su predicción.
09:13
And then Arthur Samuel goes back to the computer
195
553389
2104
Y luego Arthur Samuel vuelve al equipo
09:15
and he plays it, and he loses,
196
555493
2318
juega y pierde.
09:17
and he plays it, and he loses,
197
557811
2069
Y juega y pierde.
09:19
and he plays it, and he loses,
198
559880
2047
Y juega y pierde.
09:21
and Arthur Samuel has created a machine
199
561927
2599
Y Arthur Samuel ha creado una máquina
09:24
that surpasses his ability in a task that he taught it.
200
564526
6288
que supera su capacidad en una tarea que él enseñó.
09:30
And this idea of machine learning
201
570814
2498
Y esta idea de aprendizaje automático
09:33
is going everywhere.
202
573312
3927
irá a todas partes.
09:37
How do you think we have self-driving cars?
203
577239
3149
¿Cómo creen que tenemos autos autodirigidos?
09:40
Are we any better off as a society
204
580388
2137
¿Estamos mejor como sociedad
09:42
enshrining all the rules of the road into software?
205
582525
3285
almacenando todas las reglas de la carretera en un software?
09:45
No. Memory is cheaper. No.
206
585810
2598
No. La memoria es más barata. No.
09:48
Algorithms are faster. No. Processors are better. No.
207
588408
3994
Los algoritmos son más rápidos. No. Los procesadores son mejores. No.
09:52
All of those things matter, but that's not why.
208
592402
2772
Todas esas cosas importan, pero no es por eso.
09:55
It's because we changed the nature of the problem.
209
595174
3141
Es porque hemos cambiado la naturaleza del problema.
09:58
We changed the nature of the problem from one
210
598315
1530
Hemos cambiado el problema de uno
09:59
in which we tried to overtly and explicitly
211
599845
2245
en el que intentábamos abierta y explícitamente
10:02
explain to the computer how to drive
212
602090
2581
explicar a la computadora cómo conducir,
10:04
to one in which we say,
213
604671
1316
a uno en la que decimos,
10:05
"Here's a lot of data around the vehicle.
214
605987
1876
"Aquí hay una gran cantidad de datos del vehículo.
10:07
You figure it out.
215
607863
1533
Haz los números.
10:09
You figure it out that that is a traffic light,
216
609396
1867
Te diste cuenta de que eso es un semáforo,
10:11
that that traffic light is red and not green,
217
611263
2081
que está en rojo y no verde,
10:13
that that means that you need to stop
218
613344
2014
eso significa que tienes que detenerte
10:15
and not go forward."
219
615358
3083
y no seguir".
10:18
Machine learning is at the basis
220
618441
1518
El aprendizaje automático está en la base
10:19
of many of the things that we do online:
221
619959
1991
de muchas cosas que hacemos en línea:
10:21
search engines,
222
621950
1857
motores de búsqueda,
10:23
Amazon's personalization algorithm,
223
623807
3801
el algoritmo de personalización de Amazon,
10:27
computer translation,
224
627608
2212
la traducción automática por computadora,
10:29
voice recognition systems.
225
629820
4290
los sistemas de reconocimiento de voz.
10:34
Researchers recently have looked at
226
634110
2835
Recientemente, los investigadores han examinado
10:36
the question of biopsies,
227
636945
3195
la cuestión de biopsias,
10:40
cancerous biopsies,
228
640140
2767
biopsias de cáncer,
10:42
and they've asked the computer to identify
229
642907
2315
y han usado la computadora para identificar,
10:45
by looking at the data and survival rates
230
645222
2471
mirando los datos y las tasas de supervivencia,
10:47
to determine whether cells are actually
231
647693
4667
si las células son en realidad
10:52
cancerous or not,
232
652360
2544
cancerosas o no,
10:54
and sure enough, when you throw the data at it,
233
654904
1778
y claro, al trasferir los datos
10:56
through a machine-learning algorithm,
234
656682
2047
por un algoritmo de aprendizaje automático,
10:58
the machine was able to identify
235
658729
1877
la máquina fue capaz de identificar
11:00
the 12 telltale signs that best predict
236
660606
2262
los 12 signos reveladores que mejor predicen
11:02
that this biopsy of the breast cancer cells
237
662868
3299
si en esta biopsia de células de cáncer de mama,
11:06
are indeed cancerous.
238
666167
3218
hay, en efecto, cáncer.
11:09
The problem: The medical literature
239
669385
2498
El problema: la literatura médica
11:11
only knew nine of them.
240
671883
2789
solo sabía nueve de ellos.
11:14
Three of the traits were ones
241
674672
1800
Tres de los rasgos eran de
11:16
that people didn't need to look for,
242
676472
2975
los que las personas no buscan,
11:19
but that the machine spotted.
243
679447
5531
pero que la máquina descubrió.
11:24
Now, there are dark sides to big data as well.
244
684978
5925
También hay lados oscuros en los datos masivos.
11:30
It will improve our lives, but there are problems
245
690903
2074
Mejorará nuestras vidas, pero hay problemas
11:32
that we need to be conscious of,
246
692977
2640
de los que tenemos que ser conscientes,
11:35
and the first one is the idea
247
695617
2623
y el primero es la idea
11:38
that we may be punished for predictions,
248
698240
2686
de que podemos ser castigados por las predicciones,
11:40
that the police may use big data for their purposes,
249
700926
3870
que la policía puede utilizar datos masivos para sus fines,
11:44
a little bit like "Minority Report."
250
704796
2351
un poco como "Minority Report".
11:47
Now, it's a term called predictive policing,
251
707147
2441
Es un término conocido como policial predictiva,
11:49
or algorithmic criminology,
252
709588
2363
o criminología algorítmica,
11:51
and the idea is that if we take a lot of data,
253
711951
2036
y la idea es que, con gran cantidad de datos,
11:53
for example where past crimes have been,
254
713987
2159
por ejemplo, donde hubo crímenes antes,
11:56
we know where to send the patrols.
255
716146
2543
sabremos dónde enviar a las patrullas.
11:58
That makes sense, but the problem, of course,
256
718689
2115
Tiene sentido, pero, el problema, claro,
12:00
is that it's not simply going to stop on location data,
257
720804
4544
es que no solo se quedarán en los datos de ubicación,
12:05
it's going to go down to the level of the individual.
258
725348
2959
irán al nivel del individuo.
12:08
Why don't we use data about the person's
259
728307
2250
¿Por qué no usamos los datos de personas
12:10
high school transcript?
260
730557
2228
con un alto expediente académico?
12:12
Maybe we should use the fact that
261
732785
1561
Tal vez utilizar el hecho de que
12:14
they're unemployed or not, their credit score,
262
734346
2028
estén sin empleo, su record crediticio,
12:16
their web-surfing behavior,
263
736374
1552
su comportamiento en la web,
12:17
whether they're up late at night.
264
737926
1878
si están despiertos tarde en la noche.
12:19
Their Fitbit, when it's able to identify biochemistries,
265
739804
3161
Su controlador físico digital, cuando identifique datos bioquímicos,
12:22
will show that they have aggressive thoughts.
266
742965
4236
mostrará si tienen pensamientos agresivos.
12:27
We may have algorithms that are likely to predict
267
747201
2221
Podemos tener algoritmos que pueden predecir
12:29
what we are about to do,
268
749422
1633
lo que estamos a punto de hacer,
12:31
and we may be held accountable
269
751055
1244
y podemos ser responsables
12:32
before we've actually acted.
270
752299
2590
antes de que realmente hayamos actuado.
12:34
Privacy was the central challenge
271
754889
1732
la privacidad era el desafío principal
12:36
in a small data era.
272
756621
2880
en la era de los datos pequeños.
12:39
In the big data age,
273
759501
2149
En la era de los datos masivos,
12:41
the challenge will be safeguarding free will,
274
761650
4523
el reto será salvaguardar el libre albedrío,
12:46
moral choice, human volition,
275
766173
3779
la elección moral, la voluntad humana,
12:49
human agency.
276
769952
3068
la acción humana.
12:54
There is another problem:
277
774540
2225
Hay otro problema:
12:56
Big data is going to steal our jobs.
278
776765
3556
los datos masivos nos quitarán nuestros puestos de trabajo.
13:00
Big data and algorithms are going to challenge
279
780321
3512
Los datos masivos y algoritmos desafiarán
13:03
white collar, professional knowledge work
280
783833
3061
los conocimientos profesionales de gestión
13:06
in the 21st century
281
786894
1653
en el siglo XXI
13:08
in the same way that factory automation
282
788547
2434
de la misma manera que la automatización de las fábricas
13:10
and the assembly line
283
790981
2189
y las cadenas de montaje
13:13
challenged blue collar labor in the 20th century.
284
793170
3026
desafiaron el trabajo de los obreros en el siglo XX.
13:16
Think about a lab technician
285
796196
2092
Piensen en un técnico de laboratorio
13:18
who is looking through a microscope
286
798288
1409
que mira en un microscopio
13:19
at a cancer biopsy
287
799697
1624
una biopsia de cáncer
13:21
and determining whether it's cancerous or not.
288
801321
2637
para determinar si es cáncer o no.
13:23
The person went to university.
289
803958
1972
La persona que fue a la universidad.
13:25
The person buys property.
290
805930
1430
En el que compra propiedades.
13:27
He or she votes.
291
807360
1741
Él o ella vota.
13:29
He or she is a stakeholder in society.
292
809101
3666
Él o ella es un constituyente de la sociedad.
13:32
And that person's job,
293
812767
1394
Y el trabajo de esa persona,
13:34
as well as an entire fleet
294
814161
1609
así como toda una flota
13:35
of professionals like that person,
295
815770
1969
de profesionales como esa persona,
13:37
is going to find that their jobs are radically changed
296
817739
3150
se encontrará que sus puestos de trabajo han cambiado radicalmente
13:40
or actually completely eliminated.
297
820889
2357
o, en realidad, se han eliminado completamente.
13:43
Now, we like to think
298
823246
1284
Ahora, nos gusta pensar
13:44
that technology creates jobs over a period of time
299
824530
3187
que la tecnología crea puestos de trabajo
13:47
after a short, temporary period of dislocation,
300
827717
3465
después de un corto período de dislocación temporal,
13:51
and that is true for the frame of reference
301
831182
1941
y es cierto para el marco de referencia
13:53
with which we all live, the Industrial Revolution,
302
833123
2142
de la Revolución Industrial, que vivimos,
13:55
because that's precisely what happened.
303
835265
2328
porque eso es precisamente lo que ocurrió.
13:57
But we forget something in that analysis:
304
837593
2333
Pero nos olvidamos de algo en el análisis:
13:59
There are some categories of jobs
305
839926
1830
Hay algunas categorías de empleos
14:01
that simply get eliminated and never come back.
306
841756
3420
que simplemente se eliminan y no se crean nunca más.
14:05
The Industrial Revolution wasn't very good
307
845176
2004
La Revolución Industrial no era muy buena
14:07
if you were a horse.
308
847180
4002
si eras un caballo.
14:11
So we're going to need to be careful
309
851182
2055
Así que tendremos que tener cuidado
14:13
and take big data and adjust it for our needs,
310
853237
3514
y tomar datos masivos y ajustarlos a nuestras necesidades,
14:16
our very human needs.
311
856751
3185
a nuestras necesidades muy humanas.
14:19
We have to be the master of this technology,
312
859936
1954
Tenemos que ser los dueños de esta tecnología,
14:21
not its servant.
313
861890
1656
no sus siervos.
14:23
We are just at the outset of the big data era,
314
863546
2958
Estamos justo en el comienzo de la era de los datos masivos,
14:26
and honestly, we are not very good
315
866504
3150
y honestamente, no somos muy buenos
14:29
at handling all the data that we can now collect.
316
869654
4207
en el manejo de todos los datos que ahora podemos recoger.
14:33
It's not just a problem for the National Security Agency.
317
873861
3330
No es solo un problema para la Agencia de Seguridad Nacional.
14:37
Businesses collect lots of data, and they misuse it too,
318
877191
3038
Las empresas recogen muchos datos, y también, hacen mal uso de ellos,
14:40
and we need to get better at this, and this will take time.
319
880229
3667
y tenemos que mejorar en esto, y esto tomará tiempo.
14:43
It's a little bit like the challenge that was faced
320
883896
1822
Es un poco como el desafío que enfrentó
14:45
by primitive man and fire.
321
885718
2407
el hombre primitivo y el fuego.
14:48
This is a tool, but this is a tool that,
322
888125
1885
Es una herramienta, pero que,
14:50
unless we're careful, will burn us.
323
890010
3559
a menos que seamos cuidadosos, nos va a quemar.
14:56
Big data is going to transform how we live,
324
896008
3120
Los datos masivos transformarán la manera en que vivimos,
14:59
how we work and how we think.
325
899128
2801
cómo trabajamos y cómo pensamos.
15:01
It is going to help us manage our careers
326
901929
1889
Nos ayudarán con nuestras carreras
15:03
and lead lives of satisfaction and hope
327
903818
3634
y a llevar una vida de satisfacción y esperanza
15:07
and happiness and health,
328
907452
2992
y felicidad y salud,
15:10
but in the past, we've often looked at information technology
329
910444
3306
pero en el pasado, frecuentemente, vimos esa tecnología
15:13
and our eyes have only seen the T,
330
913750
2208
y nuestros ojos solo han visto la T
15:15
the technology, the hardware,
331
915958
1686
la tecnología, el hardware,
15:17
because that's what was physical.
332
917644
2262
porque eso es físico.
15:19
We now need to recast our gaze at the I,
333
919906
2924
Ahora tenemos que reformular nuestra mirada a la I,
15:22
the information,
334
922830
1380
la información,
15:24
which is less apparent,
335
924210
1373
que es menos tangible,
15:25
but in some ways a lot more important.
336
925583
4109
pero en algunos aspectos mucho más importante.
15:29
Humanity can finally learn from the information
337
929692
3465
La humanidad finalmente puede aprender de la información
15:33
that it can collect,
338
933157
2418
que puede recoger,
15:35
as part of our timeless quest
339
935575
2115
como parte de nuestra búsqueda eterna
15:37
to understand the world and our place in it,
340
937690
3159
para entender el mundo y nuestro lugar en él,
15:40
and that's why big data is a big deal.
341
940849
5631
y por eso los datos masivos es un gran asunto.
15:46
(Applause)
342
946480
3568
(Aplausos)
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7