The human insights missing from big data | Tricia Wang

247,414 views ・ 2017-08-02

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Gabriela Ahearn Revisor: Sebastian Betti
00:12
In ancient Greece,
0
12705
1545
En la antigua Grecia,
00:15
when anyone from slaves to soldiers, poets and politicians,
1
15256
3943
cuando alguien, desde esclavos a soldados, poetas y políticos,
00:19
needed to make a big decision on life's most important questions,
2
19223
4004
necesitaba tomar una gran decisión sobre las preguntas más importantes,
como, "¿Debería casarme?"
00:23
like, "Should I get married?"
3
23251
1391
00:24
or "Should we embark on this voyage?"
4
24666
1857
o "¿Deberíamos iniciar este viaje?"
00:26
or "Should our army advance into this territory?"
5
26547
2928
"¿Debería el ejército avanzar a este territorio?"
00:29
they all consulted the oracle.
6
29499
2579
todos consultaban el oráculo.
00:32
So this is how it worked:
7
32840
1440
Así funcionaba:
00:34
you would bring her a question and you would get on your knees,
8
34304
3112
traías una pregunta y te arrodillabas,
00:37
and then she would go into this trance.
9
37440
1871
y luego ella entraba en un trance.
Llevaba un par de días,
00:39
It would take a couple of days,
10
39335
1549
00:40
and then eventually she would come out of it,
11
40908
2163
y eventualmente salía del trance,
dando sus predicciones como respuesta.
00:43
giving you her predictions as your answer.
12
43095
2536
00:46
From the oracle bones of ancient China
13
46730
2566
Desde los oráculos de huesos de la antigua China
00:49
to ancient Greece to Mayan calendars,
14
49320
2345
a la antigua Grecia, a los calendarios mayas,
00:51
people have craved for prophecy
15
51689
2296
la gente ha buscado la profecía
00:54
in order to find out what's going to happen next.
16
54009
3137
para enterarse de qué va a suceder.
00:58
And that's because we all want to make the right decision.
17
58336
3239
Y eso se debe a que todos queremos tomar la decisión correcta.
01:01
We don't want to miss something.
18
61599
1545
No nos queremos perder de algo.
01:03
The future is scary,
19
63712
1743
El futuro da miedo,
01:05
so it's much nicer knowing that we can make a decision
20
65479
2717
es mucho mejor saber que podemos decidir
01:08
with some assurance of the outcome.
21
68220
1982
con alguna garantía del resultado.
01:10
Well, we have a new oracle,
22
70899
1611
Bueno, tenemos un nuevo oráculo,
01:12
and it's name is big data,
23
72534
2145
y su nombre es big data.
01:14
or we call it "Watson" or "deep learning" or "neural net."
24
74703
3939
o le llamamos "Watson" o "aprendizaje profundo" o "red neural".
01:19
And these are the kinds of questions we ask of our oracle now,
25
79160
4012
Y estas son las preguntas que hacemos a nuestro oráculo ahora,
01:23
like, "What's the most efficient way to ship these phones
26
83196
3922
"¿Cuál es la forma más eficiente de enviar estos teléfonos
01:27
from China to Sweden?"
27
87142
1823
de China a Suecia?"
01:28
Or, "What are the odds
28
88989
1800
O, "¿Cuál es la probabilidad
01:30
of my child being born with a genetic disorder?"
29
90813
3363
de que mi hijo nazca con un problema genético?"
01:34
Or, "What are the sales volume we can predict for this product?"
30
94772
3244
O, "¿Qué volumen de ventas podemos proyectar para este producto?"
01:39
I have a dog. Her name is Elle, and she hates the rain.
31
99928
4047
Tengo una perra. Se llama Elle, y odia la lluvia.
01:43
And I have tried everything to untrain her.
32
103999
3306
He tratado todo para re-entrenarla.
01:47
But because I have failed at this,
33
107329
2771
Pero como he fallado con esto,
01:50
I also have to consult an oracle, called Dark Sky,
34
110124
3286
le consulto a un oráculo que se llama Cielos Oscuros,
01:53
every time before we go on a walk,
35
113434
1635
cada vez que salimos a caminar,
01:55
for very accurate weather predictions in the next 10 minutes.
36
115093
3577
para tener predicciones precisas para los próximos diez minutos.
(Risas)
02:01
She's so sweet.
37
121355
1303
Ella es tan dulce.
02:03
So because of all of this, our oracle is a $122 billion industry.
38
123647
5707
Por estas razones, nuestra industria de oráculos es de USD 122 000 millones.
02:09
Now, despite the size of this industry,
39
129826
3376
A pesar del tamaño de esta industria,
02:13
the returns are surprisingly low.
40
133226
2456
los dividendos son sorprendentemente bajos.
02:16
Investing in big data is easy,
41
136162
2494
Invertir en big data es muy fácil,
02:18
but using it is hard.
42
138680
1933
pero usar macrodatos es difícil.
02:21
Over 73 percent of big data projects aren't even profitable,
43
141801
4040
Más del 73 % de los proyectos de big data no son rentables,
02:25
and I have executives coming up to me saying,
44
145865
2431
hay ejecutivos que dicen:
02:28
"We're experiencing the same thing.
45
148320
1789
"Se repite el problema.
02:30
We invested in some big data system,
46
150133
1753
Invertimos en algún sistema de big data,
02:31
and our employees aren't making better decisions.
47
151910
2968
y nuestros empleados no toman mejores decisiones.
02:34
And they're certainly not coming up with more breakthrough ideas."
48
154902
3162
Y definitivamente no generan ideas innovadoras".
02:38
So this is all really interesting to me,
49
158734
3184
Esto me parece muy interesante,
02:41
because I'm a technology ethnographer.
50
161942
2010
porque soy etnógrafa de tecnología.
02:44
I study and I advise companies
51
164450
2564
Estudio y aconsejo a empresas
02:47
on the patterns of how people use technology,
52
167038
2483
en las tendencias de uso de tecnología.
02:49
and one of my interest areas is data.
53
169545
2678
Una de las áreas que me interesan es el análisis de datos.
02:52
So why is having more data not helping us make better decisions,
54
172247
5193
¿Por qué no estamos tomando mejores decisiones,
especialmente compañías que tienen todos los recursos
02:57
especially for companies who have all these resources
55
177464
2783
para invertir en estos sistemas de big data?
03:00
to invest in these big data systems?
56
180271
1736
03:02
Why isn't it getting any easier for them?
57
182031
2398
¿Por qué no les está facilitando nuevas estrategias?
03:05
So, I've witnessed the struggle firsthand.
58
185810
2634
Soy testigo,
en 2009, empecé un puesto de investigadora en Nokia.
03:09
In 2009, I started a research position with Nokia.
59
189194
3484
03:13
And at the time,
60
193052
1158
En esa época, Nokia era
03:14
Nokia was one of the largest cell phone companies in the world,
61
194234
3158
una de las empresas más grandes del mundo,
03:17
dominating emerging markets like China, Mexico and India --
62
197416
3202
dominaba los mercados emergentes como China, México e India...
03:20
all places where I had done a lot of research
63
200642
2502
todos sitios que yo había investigado bastante
03:23
on how low-income people use technology.
64
203168
2676
la forma de uso de tecnología de perfiles de bajos ingresos.
03:25
And I spent a lot of extra time in China
65
205868
2330
Pasé mucho tiempo en China,
03:28
getting to know the informal economy.
66
208222
2592
familiarizándome con la economía informal.
03:30
So I did things like working as a street vendor
67
210838
2401
Trabajé como vendedora ambulante
03:33
selling dumplings to construction workers.
68
213263
2574
vendiendo comida a obreros.
03:35
Or I did fieldwork,
69
215861
1358
Hice trabajo de campo,
03:37
spending nights and days in internet cafés,
70
217243
2958
pasé días y noches en cibercafés,
03:40
hanging out with Chinese youth, so I could understand
71
220225
2546
parando con la juventud china, para entender
03:42
how they were using games and mobile phones
72
222795
2284
cómo estaban usando los videojuegos y móviles.
Y cómo los usaban en la migración del campo a las ciudades.
03:45
and using it between moving from the rural areas to the cities.
73
225103
3370
03:50
Through all of this qualitative evidence that I was gathering,
74
230155
3927
Con toda esta evidencia cualitativa que estaba coleccionando,
03:54
I was starting to see so clearly
75
234106
2824
noté claramente
03:56
that a big change was about to happen among low-income Chinese people.
76
236954
4472
que iba a haber un gran cambio entre los pobres de China.
04:02
Even though they were surrounded by advertisements for luxury products
77
242840
4367
A pesar de estar rodeados de publicidad para productos de lujo,
como inodoros sofisticados -- ¿quién no quiere uno? --
04:07
like fancy toilets -- who wouldn't want one? --
78
247231
3495
04:10
and apartments and cars,
79
250750
2890
y departamentos y autos,
04:13
through my conversations with them,
80
253664
1820
en nuestras conversaciones,
04:15
I found out that the ads the actually enticed them the most
81
255508
3841
me di cuenta de que los anuncios que realmente les interesaban
04:19
were the ones for iPhones,
82
259373
1996
eran los anuncios para iPhones,
04:21
promising them this entry into this high-tech life.
83
261393
3052
que les prometía acceso a esta vida de alta tecnología.
04:25
And even when I was living with them in urban slums like this one,
84
265289
3163
Incluso cuando viví con ellos en barriadas como esta,
04:28
I saw people investing over half of their monthly income
85
268476
2996
veía gente invirtiendo más de la mitad de su sueldo mensual
04:31
into buying a phone,
86
271496
1623
para comprar un celular,
04:33
and increasingly, they were "shanzhai,"
87
273143
2302
y cada vez más, eran "shanzhai",
04:35
which are affordable knock-offs of iPhones and other brands.
88
275469
3388
que son imitaciones baratas de iPhones y otras marcas.
Son bastante usables,
04:40
They're very usable.
89
280123
1625
04:42
Does the job.
90
282710
1322
funcionan.
04:44
And after years of living with migrants and working with them
91
284570
5789
Y después de años de vivir con inmigrantes y trabajar con ellos,
04:50
and just really doing everything that they were doing,
92
290383
3434
y básicamente hacer todo lo que ellos hacían,
04:53
I started piecing all these data points together --
93
293841
3597
empecé a unir los datos...
04:57
from the things that seem random, like me selling dumplings,
94
297462
3123
desde las cosas que parecen al azar como yo vendiendo comida,
05:00
to the things that were more obvious,
95
300609
1804
a las cosas más obvias,
05:02
like tracking how much they were spending on their cell phone bills.
96
302437
3232
como calcular cuánto gastan en las cuentas de móviles.
05:05
And I was able to create this much more holistic picture
97
305693
2639
Así pude ver una figura más clara, más completa,
de lo que estaba pasando.
05:08
of what was happening.
98
308356
1156
05:09
And that's when I started to realize
99
309536
1722
Ahí me di cuenta
05:11
that even the poorest in China would want a smartphone,
100
311282
3509
de que hasta los más pobres de China iban a querer un teléfono inteligente,
05:14
and that they would do almost anything to get their hands on one.
101
314815
4985
y que harían casi cualquier cosa por conseguir uno.
05:20
You have to keep in mind,
102
320893
2404
Acuérdense,
05:23
iPhones had just come out, it was 2009,
103
323321
3084
los iPhones acababan de salir, era el 2009,
05:26
so this was, like, eight years ago,
104
326429
1885
o sea, hace ocho años,
05:28
and Androids had just started looking like iPhones.
105
328338
2437
y los Androids se parecían más a los iPhones.
05:30
And a lot of very smart and realistic people said,
106
330799
2507
Y mucha gente inteligente y realista dijo:
05:33
"Those smartphones -- that's just a fad.
107
333330
2207
"Esos teléfonos inteligentes son una moda pasajera.
05:36
Who wants to carry around these heavy things
108
336063
2996
¿Quién quiere estar cargando esas cosas pesadas
05:39
where batteries drain quickly and they break every time you drop them?"
109
339083
3487
que se les gastan las baterías y que se rompen cada vez que se te caen?"
05:44
But I had a lot of data,
110
344613
1201
Pero yo tenía bastantes datos,
05:45
and I was very confident about my insights,
111
345838
2260
y confiaba en mis ideas,
05:48
so I was very excited to share them with Nokia.
112
348122
2829
así que estaba muy entusiasmada en compartirlas con Nokia.
Pero en Nokia no estaban convencidos,
05:53
But Nokia was not convinced,
113
353152
2517
05:55
because it wasn't big data.
114
355693
2335
porque no era big data.
05:58
They said, "We have millions of data points,
115
358842
2404
Dijeron: "Tenemos millones de datos,
06:01
and we don't see any indicators of anyone wanting to buy a smartphone,
116
361270
4247
no hay ninguna indicación de que alguien quiera comprar teléfonos inteligentes,
06:05
and your data set of 100, as diverse as it is, is too weak
117
365541
4388
y tu lista de 100 datos, aún siendo diversa, es muy débil
06:09
for us to even take seriously."
118
369953
1714
para tomarla en serio".
06:12
And I said, "Nokia, you're right.
119
372728
1605
Yo les dije: "Nokia, tienen razón,
06:14
Of course you wouldn't see this,
120
374357
1560
por supuesto que no ven esto,
06:15
because you're sending out surveys assuming that people don't know
121
375941
3371
porque Uds. mandan encuestas suponiendo que la gente no sabe
06:19
what a smartphone is,
122
379336
1159
qué es un teléfono inteligente,
06:20
so of course you're not going to get any data back
123
380519
2366
así que claro que no van a obtener ningún resultado
06:22
about people wanting to buy a smartphone in two years.
124
382909
2572
sobre demanda de teléfonos inteligentes.
06:25
Your surveys, your methods have been designed
125
385505
2118
Sus encuestas, sus métodos han sido diseñados
06:27
to optimize an existing business model,
126
387647
2022
para optimizar el modelo empresarial existente,
06:29
and I'm looking at these emergent human dynamics
127
389693
2608
y yo estoy mirando las dinámicas humanas emergentes,
06:32
that haven't happened yet.
128
392325
1354
que no han pasado todavía.
06:33
We're looking outside of market dynamics
129
393703
2438
Mirando fuera de las dinámicas del mercado
06:36
so that we can get ahead of it."
130
396165
1631
para poder estar en la vanguardia".
¿Saben que le pasó a Nokia?
06:39
Well, you know what happened to Nokia?
131
399193
2244
La empresa se cayó por un barranco.
06:41
Their business fell off a cliff.
132
401461
2365
06:44
This -- this is the cost of missing something.
133
404611
3727
Ese es el costo de ignorar algo.
06:48
It was unfathomable.
134
408983
1999
Fue increíble.
06:51
But Nokia's not alone.
135
411823
1651
Pero Nokia no está sola.
Veo organizaciones que desechan datos todo el tiempo
06:54
I see organizations throwing out data all the time
136
414078
2581
06:56
because it didn't come from a quant model
137
416683
2561
porque no vienen de un modelo cuantitativo
06:59
or it doesn't fit in one.
138
419268
1768
o no son compatibles con uno cuantitativo.
Pero no se debe a los grandes volúmenes de datos.
07:02
But it's not big data's fault.
139
422039
2048
07:04
It's the way we use big data; it's our responsibility.
140
424762
3907
Es la manera en que los usamos; nosotros somos los responsables.
07:09
Big data's reputation for success
141
429550
1911
La reputación exitosa de big data
07:11
comes from quantifying very specific environments,
142
431485
3759
se debe a cuantificaciones en ambientes bastante específicos,
07:15
like electricity power grids or delivery logistics or genetic code,
143
435268
4913
como redes eléctricas, logística de distribución, o códigos genéticos,
07:20
when we're quantifying in systems that are more or less contained.
144
440205
4318
cuando el análisis cuantitativo es de sistemas contenidos.
07:24
But not all systems are as neatly contained.
145
444547
2969
Pero no todos los sistemas son contenidos tan organizadamente.
07:27
When you're quantifying and systems are more dynamic,
146
447540
3258
Cuando uno cuantifica sistemas más dinámicos,
07:30
especially systems that involve human beings,
147
450822
3799
especialmente sistemas que conciernen a seres humanos,
07:34
forces are complex and unpredictable,
148
454645
2426
hay fuerzas complejas e impredecibles,
07:37
and these are things that we don't know how to model so well.
149
457095
3486
cosas que no sabemos modelar tan bien.
Y una vez que uno predice algo sobre la conducta humana,
07:41
Once you predict something about human behavior,
150
461024
2813
07:43
new factors emerge,
151
463861
1855
emergen nuevos factores,
07:45
because conditions are constantly changing.
152
465740
2365
porque las condiciones cambian constantemente.
07:48
That's why it's a never-ending cycle.
153
468129
1803
Por eso es un ciclo interminable.
07:49
You think you know something,
154
469956
1464
Uno cree que sabe algo y aparece algo nuevo.
07:51
and then something unknown enters the picture.
155
471444
2242
07:53
And that's why just relying on big data alone
156
473710
3322
Por eso es que confiar solo en big data,
incrementa la posibilidad de no ver algo,
07:57
increases the chance that we'll miss something,
157
477056
2849
07:59
while giving us this illusion that we already know everything.
158
479929
3777
y a la vez nos da la ilusión de saberlo todo.
Lo que hace difícil de ver esta contradicción,
08:04
And what makes it really hard to see this paradox
159
484226
3856
08:08
and even wrap our brains around it
160
488106
2659
y hasta de comprenderla,
08:10
is that we have this thing that I call the quantification bias,
161
490789
3691
es algo que se llama predisposición cuantitativa
08:14
which is the unconscious belief of valuing the measurable
162
494504
3922
que significa que inconscientemente valoramos más lo que podemos medir
08:18
over the immeasurable.
163
498450
1594
que lo que no es medible.
Y muy a menudo tenemos esta experiencia en el trabajo.
08:21
And we often experience this at our work.
164
501042
3284
08:24
Maybe we work alongside colleagues who are like this,
165
504350
2650
Quizás tenemos colegas que son así,
08:27
or even our whole entire company may be like this,
166
507024
2428
o quizás la empresa es así,
08:29
where people become so fixated on that number,
167
509476
2546
donde la gente tiene una fijación con un número,
08:32
that they can't see anything outside of it,
168
512046
2067
y no ve nada más,
aún si tienen las pruebas en la punta de la nariz.
08:34
even when you present them evidence right in front of their face.
169
514137
3948
08:38
And this is a very appealing message,
170
518943
3371
Y este es un mensaje muy atractivo,
08:42
because there's nothing wrong with quantifying;
171
522338
2343
porque no hay nada malo en cuantificar;
08:44
it's actually very satisfying.
172
524705
1430
realmente da mucha satisfacción.
08:46
I get a great sense of comfort from looking at an Excel spreadsheet,
173
526159
4362
Me causa bienestar ver una hoja de cálculo Excel,
08:50
even very simple ones.
174
530545
1401
hasta las más simples.
08:51
(Laughter)
175
531970
1014
(Risas)
08:53
It's just kind of like,
176
533008
1152
Es así:
08:54
"Yes! The formula worked. It's all OK. Everything is under control."
177
534184
3504
"¡Sí, la formula funciona! Todo está bien. Todo está bajo control".
08:58
But the problem is
178
538612
2390
Pero el problema es
que la cuantificación es adictiva.
09:01
that quantifying is addictive.
179
541026
2661
09:03
And when we forget that
180
543711
1382
Y cuando nos olvidamos de eso
09:05
and when we don't have something to kind of keep that in check,
181
545117
3038
y no tenemos un sistema de control,
09:08
it's very easy to just throw out data
182
548179
2118
podemos muy fácilmente desechar datos
09:10
because it can't be expressed as a numerical value.
183
550321
2718
que no se pueden expresar numéricamente.
09:13
It's very easy just to slip into silver-bullet thinking,
184
553063
2921
Es muy fácil caer en la idea milagrosa,
como si existiera una solución simple.
09:16
as if some simple solution existed.
185
556008
2579
09:19
Because this is a great moment of danger for any organization,
186
559420
4062
Este es un momento peligroso para cualquier organización,
09:23
because oftentimes, the future we need to predict --
187
563506
2634
en muchos casos, el futuro que predecimos
no está en el pajar,
09:26
it isn't in that haystack,
188
566164
2166
09:28
but it's that tornado that's bearing down on us
189
568354
2538
es un tornado que se nos viene encima
09:30
outside of the barn.
190
570916
1488
afuera del granero.
09:34
There is no greater risk
191
574780
2326
No hay peor riesgo
que no ver lo desconocido.
09:37
than being blind to the unknown.
192
577130
1666
09:38
It can cause you to make the wrong decisions.
193
578820
2149
Puede causar malas decisiones.
09:40
It can cause you to miss something big.
194
580993
1974
Puede causar que no veas algo importante.
09:43
But we don't have to go down this path.
195
583554
3101
Pero no es necesario que vayamos por ese camino.
09:47
It turns out that the oracle of ancient Greece
196
587273
3195
Resulta que el oráculo de la antigua Grecia
09:50
holds the secret key that shows us the path forward.
197
590492
3966
tiene la llave secreta para enseñarnos el camino hacia adelante.
09:55
Now, recent geological research has shown
198
595474
2595
Estudios geológicos recientes han demostrado
09:58
that the Temple of Apollo, where the most famous oracle sat,
199
598093
3564
que el Templo de Apolo, donde estaba el oráculo más famoso,
10:01
was actually built over two earthquake faults.
200
601681
3084
fue construido sobre dos fallas sísmicas;
10:04
And these faults would release these petrochemical fumes
201
604789
2886
y estas fallas emiten gases petroquímicos
10:07
from underneath the Earth's crust,
202
607699
1685
que están bajo la corteza terrestre,
10:09
and the oracle literally sat right above these faults,
203
609408
3866
y que el oráculo estaba literalmente sentado sobre estas fallas,
10:13
inhaling enormous amounts of ethylene gas, these fissures.
204
613298
3588
inhalando cantidades inmensas de gas etileno, por estas grietas.
10:16
(Laughter)
205
616910
1008
(Risas)
10:17
It's true.
206
617942
1173
Es verdad.
(Risas)
10:19
(Laughter)
207
619139
1017
Todo es verdad, eso es lo que la hacía balbucear, alucinar,
10:20
It's all true, and that's what made her babble and hallucinate
208
620180
3509
10:23
and go into this trance-like state.
209
623713
1724
y entrar en trance.
10:25
She was high as a kite!
210
625461
1770
¡Volar como una cometa!
10:27
(Laughter)
211
627255
4461
(Risas)
(Aplausos)
10:31
So how did anyone --
212
631740
2779
Entonces cómo...
¿Cómo recibió alguien buenos consejos
10:34
How did anyone get any useful advice out of her
213
634543
3030
de ella en ese estado?
10:37
in this state?
214
637597
1190
10:39
Well, you see those people surrounding the oracle?
215
639317
2381
Bueno, ¿ven la gente que rodeaba al oráculo?
10:41
You see those people holding her up,
216
641722
1879
Toda esa gente que la está sujetando
10:43
because she's, like, a little woozy?
217
643625
1717
porque está un poquito mareada.
10:45
And you see that guy on your left-hand side
218
645366
2308
Y ¿pueden ver al hombre que está a su izquierda,
10:47
holding the orange notebook?
219
647698
1598
con un cuaderno anaranjado?
10:49
Well, those were the temple guides,
220
649925
1730
Todos esos eran guías del templo,
10:51
and they worked hand in hand with the oracle.
221
651679
3016
y trabajaban mano a mano con el oráculo.
10:55
When inquisitors would come and get on their knees,
222
655904
2516
Cuando las personas entraban y se arrodillaban,
10:58
that's when the temple guides would get to work,
223
658444
2340
los guías se ponían a trabajar,
11:00
because after they asked her questions,
224
660808
1864
después que la persona preguntaba,
11:02
they would observe their emotional state,
225
662696
2001
observaban su estado emocional,
11:04
and then they would ask them follow-up questions,
226
664721
2324
le hacían más preguntas,
como: "¿Por qué quieres saber esta profecía? ¿Quién eres?
11:07
like, "Why do you want to know this prophecy? Who are you?
227
667069
2834
11:09
What are you going to do with this information?"
228
669927
2264
¿Qué vas a hacer con esta información?"
Y después los guías usaban esta información, más etnográfica,
11:12
And then the temple guides would take this more ethnographic,
229
672215
3182
11:15
this more qualitative information,
230
675421
2156
esta información más cualitativa,
11:17
and interpret the oracle's babblings.
231
677601
2075
e interpretaban los balbuceos del oráculo.
Así que el oráculo no estaba solo,
11:21
So the oracle didn't stand alone,
232
681248
2292
11:23
and neither should our big data systems.
233
683564
2148
y tampoco deberían estarlo los sistemas de big data.
11:26
Now to be clear,
234
686450
1161
Ahora, aclaremos,
11:27
I'm not saying that big data systems are huffing ethylene gas,
235
687635
3459
no estoy diciendo que los sistemas de big data estén inhalando gas
11:31
or that they're even giving invalid predictions.
236
691118
2353
o haciendo malas predicciones.
11:33
The total opposite.
237
693495
1161
Al contrario,
11:34
But what I am saying
238
694680
2068
estoy diciendo que
11:36
is that in the same way that the oracle needed her temple guides,
239
696772
3832
de la misma forma que el oráculo necesitaba los guías de templo,
11:40
our big data systems need them, too.
240
700628
2288
nuestros sistemas de big data también los necesitan.
11:42
They need people like ethnographers and user researchers
241
702940
4109
Necesitan etnógrafos e investigadores
11:47
who can gather what I call thick data.
242
707073
2506
que puedan colectar lo que yo llamo "datos densos".
11:50
This is precious data from humans,
243
710322
2991
Estos preciosos datos humanos,
11:53
like stories, emotions and interactions that cannot be quantified.
244
713337
4102
como historias, emociones, interacciones que no se pueden cuantificar.
11:57
It's the kind of data that I collected for Nokia
245
717463
2322
Es el tipo de datos que colecté para Nokia,
11:59
that comes in in the form of a very small sample size,
246
719809
2669
que se obtienen con pocas muestras,
12:02
but delivers incredible depth of meaning.
247
722502
2955
pero traen información trascendente.
12:05
And what makes it so thick and meaty
248
725481
3680
Y lo que hace esto tan denso y sustancioso,
es la experiencia de entender la narrativa humana.
12:10
is the experience of understanding the human narrative.
249
730265
4029
12:14
And that's what helps to see what's missing in our models.
250
734318
3639
Y eso es lo que ayuda a ver lo que hace falta en nuestros modelos.
12:18
Thick data grounds our business questions in human questions,
251
738671
4045
Los "datos densos" arraigan nuestras preguntas de negocios en preguntas humanas
12:22
and that's why integrating big and thick data
252
742740
3562
y por eso integrando big data y "datos densos"
12:26
forms a more complete picture.
253
746326
1689
formamos una figura más completa.
12:28
Big data is able to offer insights at scale
254
748592
2881
Los grandes volúmenes de datos nos ofrecen ideas en escala,
12:31
and leverage the best of machine intelligence,
255
751497
2647
sostienen lo mejor de la inteligencia artificial
12:34
whereas thick data can help us rescue the context loss
256
754168
3572
mientras que los "datos densos" nos ayudan a rescatar el contexto perdido
12:37
that comes from making big data usable,
257
757764
2098
que viene del uso de big data
12:39
and leverage the best of human intelligence.
258
759886
2181
y le saca provecho a lo mejor de la inteligencia humana.
12:42
And when you actually integrate the two, that's when things get really fun,
259
762091
3552
Y cuando se integra ambas cosas, la cosa se pone divertida,
12:45
because then you're no longer just working with data
260
765667
2436
porque uno ya no trabaja solo con datos
que ha recolectado.
12:48
you've already collected.
261
768127
1196
También trabaja con datos que nunca ha recolectado.
12:49
You get to also work with data that hasn't been collected.
262
769347
2737
Puede hacer preguntas como ¿por qué?
12:52
You get to ask questions about why:
263
772108
1719
12:53
Why is this happening?
264
773851
1317
¿Por qué está pasando esto?
12:55
Now, when Netflix did this,
265
775598
1379
Ahora, cuando Netflix hizo esto,
12:57
they unlocked a whole new way to transform their business.
266
777001
3035
desencadenó una nueva manera de transformar su negocio.
13:01
Netflix is known for their really great recommendation algorithm,
267
781226
3956
Netflix es conocido por su excelente algoritmo de recomendaciones,
13:05
and they had this $1 million prize for anyone who could improve it.
268
785206
4797
y tenía un premio de USD 1 millón para cualquiera que lo pudiera mejorar.
Y hubo ganadores.
13:10
And there were winners.
269
790027
1314
Pero Netflix descubrió que las mejoras eran solo graduales.
13:12
But Netflix discovered the improvements were only incremental.
270
792075
4323
Para realmente enterarse de lo que pasaba,
13:17
So to really find out what was going on,
271
797224
1964
13:19
they hired an ethnographer, Grant McCracken,
272
799212
3741
contrataron a un etnógrafo, Grant McCracken,
13:22
to gather thick data insights.
273
802977
1546
para compilar inferencias de "datos densos".
13:24
And what he discovered was something that they hadn't seen initially
274
804547
3924
Y Grant descubrió algo que no vieron inicialmente
13:28
in the quantitative data.
275
808495
1355
en los datos cuantitativos.
13:30
He discovered that people loved to binge-watch.
276
810892
2728
Descubrió que a la gente le encanta mirar de una sentada.
13:33
In fact, people didn't even feel guilty about it.
277
813644
2353
Tanto es así que las personas ni se sentían culpables.
Disfrutaban.
13:36
They enjoyed it.
278
816021
1255
(Risas)
13:37
(Laughter)
279
817300
1026
13:38
So Netflix was like, "Oh. This is a new insight."
280
818350
2356
Así que Netflix dijo: "Ah, esto es nuevo".
13:40
So they went to their data science team,
281
820730
1938
Incluyeron al equipo de análisis de datos,
13:42
and they were able to scale this big data insight
282
822692
2318
y lograron incluir estos hallazgos de los datos densos
13:45
in with their quantitative data.
283
825034
2587
con los datos cuantitativos.
13:47
And once they verified it and validated it,
284
827645
3170
Y una vez que lo verificaron y validaron,
13:50
Netflix decided to do something very simple but impactful.
285
830839
4761
Netflix decidió hacer algo muy simple pero con mucho impacto.
13:56
They said, instead of offering the same show from different genres
286
836654
6492
Dijeron: "En vez de ofrecer series de diferentes géneros
o más variedad de series a usuarios similares,
14:03
or more of the different shows from similar users,
287
843170
3888
vamos a ofrecer más de la misma serie.
14:07
we'll just offer more of the same show.
288
847082
2554
14:09
We'll make it easier for you to binge-watch.
289
849660
2105
Les vamos a facilitar ver series de una sentada.
14:11
And they didn't stop there.
290
851789
1486
Y no pararon allí.
14:13
They did all these things
291
853299
1474
Hicieron todo esto
14:14
to redesign their entire viewer experience,
292
854797
2959
para rediseñar la experiencia completa de los espectadores,
14:17
to really encourage binge-watching.
293
857780
1758
para fomentar los atracones de series.
14:20
It's why people and friends disappear for whole weekends at a time,
294
860050
3241
Por eso es que la gente y los amigos se desaparecen por fines de semanas,
14:23
catching up on shows like "Master of None."
295
863315
2343
están mirando shows como Dueño de nadie.
14:25
By integrating big data and thick data, they not only improved their business,
296
865682
4173
Al integrar big data con "datos densos", no solo mejoraron su negocio,
14:29
but they transformed how we consume media.
297
869879
2812
sino que transformaron la manera de consumo de la audiencia.
14:32
And now their stocks are projected to double in the next few years.
298
872715
4552
Ahora proyectan duplicar el valor de sus acciones en los próximos años.
Pero esto no solo se trata de cómo consumimos programación,
14:38
But this isn't just about watching more videos
299
878100
3830
14:41
or selling more smartphones.
300
881954
1620
o vendemos más teléfonos inteligentes.
14:43
For some, integrating thick data insights into the algorithm
301
883963
4050
Para algunos, la integración de ideas de "datos densos" a los algoritmos
14:48
could mean life or death,
302
888037
2263
puede significar algo de vida o muerte,
14:50
especially for the marginalized.
303
890324
2146
especialmente para los marginados.
14:53
All around the country, police departments are using big data
304
893558
3434
En todo el país, las comisarías están usando big data
14:57
for predictive policing,
305
897016
1963
para predecir dónde patrullar;
14:59
to set bond amounts and sentencing recommendations
306
899003
3084
para determinar las fianzas y las sentencias
15:02
in ways that reinforce existing biases.
307
902111
3147
en maneras que refuerzan prejuicios existentes.
El algoritmo "Skynet" de la Agencia Nacional de Seguridad
15:06
NSA's Skynet machine learning algorithm
308
906116
2423
15:08
has possibly aided in the deaths of thousands of civilians in Pakistan
309
908563
5444
quizá haya contribuido a miles de muertes de civiles
en Pakistán por malinterpretar metadatos de aparatos móviles.
15:14
from misreading cellular device metadata.
310
914031
2721
15:18
As all of our lives become more automated,
311
918951
3403
Mientras más automatizadas nuestras vidas,
desde automóviles hasta seguro médico o empleo,
15:22
from automobiles to health insurance or to employment,
312
922378
3080
15:25
it is likely that all of us
313
925482
2350
es probable que a todos
15:27
will be impacted by the quantification bias.
314
927856
2989
nos afecte la parcialidad hacia la cuantificación.
15:32
Now, the good news is that we've come a long way
315
932792
2621
Las buenas noticias son que hemos progresado mucho
15:35
from huffing ethylene gas to make predictions.
316
935437
2450
desde que aspirábamos gases para hacer predicciones.
15:37
We have better tools, so let's just use them better.
317
937911
3070
Tenemos mejores herramientas, o sea que usémoslas mejor.
Integremos big data con los "datos densos",
15:41
Let's integrate the big data with the thick data.
318
941005
2323
15:43
Let's bring our temple guides with the oracles,
319
943352
2261
Unamos a los guías del templo con los oráculos,
15:45
and whether this work happens in companies or nonprofits
320
945637
3376
y ya sea que lo hagamos en empresas u organizaciones sin fines de lucro
15:49
or government or even in the software,
321
949037
2469
en gobiernos o en el software,
15:51
all of it matters,
322
951530
1792
todo es importante,
15:53
because that means we're collectively committed
323
953346
3023
porque significa que colectivamente estamos comprometidos
15:56
to making better data,
324
956393
2191
a crear mejores datos,
15:58
better algorithms, better outputs
325
958608
1836
algoritmos, resultados,
16:00
and better decisions.
326
960468
1643
y a tomar mejores decisiones.
16:02
This is how we'll avoid missing that something.
327
962135
3558
Así evitaremos perdernos algo.
(Aplausos)
16:07
(Applause)
328
967042
3948
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7