Cada día, en tiempo real o cuando lo estime pertinente, Usted como gerente puede analizar a los clientes de su empresa, los artículos que compran y cómo pagan.
O como director financiero puede ver los clientes que tienen cuentas por pagar, el monto de sus deudas, cómo pagan y cuál es su estado.
Al final tiene una línea de datos, una cifra, la cual podría profundizar y ver al detalle. De hecho, cada vez dispone de más información de la empresa, al punto que corre el riesgo de ahogarse entre las oleadas de hojas de cálculo.
Existen, por supuesto, herramientas tecnológicas para simplificarle la vida. Pero, ¿cómo saber cuáles son los datos que realmente importan y le son útiles para tomar decisiones?
LEA MÁS: Los pequeños negocios también pueden utilizar tecnologías de Big Data y analítica
Tener a mano la información realmente relevante depende de lo que usted decida que es útil. Para definirlo hay varios modelos y metodologías a las que puede recurrir.
"Este es el mayor reto que enfrentan las organizaciones conforme el volumen de información generada, como resultado de la digitalización de sus procesos, se vuelve masiva", dijo Paul Solano, fundador de la firma SmartNow.
"Es como unir dos mundos: el de datos y el de negocios. Hacer accesible la información y que sirva a la gerencia, a la gente de ventas, de mercadeo, de cobranzas y de finanzas", destacó Hernán Rojas, socio de Buklolab.
Estos son algunos de los modelos y metodologías recomendados para descubrir la información que realmente le ayude en su negocio:
Análisis con Fast Data
En este modelo usted selecciona las variables, indicadores, información y elementos (hechos) de los procesos y de las operaciones que son relevantes e impactan los objetivos estratégicos de la empresa.
En este caso, puede apoyarse en tecnologías y prácticas de Manejo de Procesos de Negocio (BPM, por sus siglas en inglés) y en el concepto de Fast Data, que recurre a analizar el negocio, identificar los indicadores claves y generar los datos asociados conforme se van obteniendo.
Así obtiene vistas analíticas que brindan indicadores significativos de información y revelan lo no evidente.
"Tiene la ventaja que minimiza el costo de procesamiento y brinda información pertinente para la toma de decisiones en menor tiempo", dijo Solano.
El modelo utiliza tecnologías de Big Data, aprendizaje de máquina e inteligencia artificial, asociadas con herramientas como Apache Hadoop, Spark, Hive, Storm y SmartNow Plataform, entre otras.
De ahí que se requiere gran capacidad de cómputo y procesos de preparación y limpieza de datos no triviales. Los datos se visualizan en soluciones como Tableau, Qlik o SmartNow Dashboards.
Minería con CRISP-M
Oldemar Rodríguez, de Promidat, recomienda desarrollar un proyecto basado en la metodología Cross Industry Standard Process for Data Mininig o CRISP-M.
Aquí se siguen varios pasos, partiendo -como en una investigación- de la delimitación de un problema y de los objetivos. Puede usarse para identificar el riesgo crediticio o para detectar fraudes, por ejemplo.
"Para obtener el mejor resultado de la minería de datos es necesario entender de la manera más completa al problema que se desea resolver", recalcó Rodríguez.
LEA MÁS: ¿La intuición sirve para tomar decisiones? Sí, pero mejor recurra y apóyese en la minería de datos
El especialista recomendo usar la plataforma R, un lenguaje de programación para análisis estadístico.
También podría usarse Python (otro lenguaje usado desde aplicaciones para Windows hasta servidores de red y páginas web) o herramientas "más tradicionales" como SPSS (programa estadístico muy usado en ciencias sociales y aplicadas).
La minería de datos con CRISP-M sigue los siguientes pasos o fases:
- Comprenda el negocio o problema: Se deben comprender los objetivos del negocio, el problema a resolver y lo que se quiere en la empresa o institución. "Sin lograr comprender dichos objetivos, ningún algoritmo -por más sofisticado que sea- permitirá obtener resultados fiables", advirtió Rodríguez.
- Comprenda los datos: Se recomienda crear una base de datos ad-hoc pues se deberá estar consultando la información continuamente para recoger, familiarizarse y ver la calidad de los datos, así como definir las primeras hipótesis.
- Prepare de datos: Se selecciona, se depura o limpia y se integran datos de distintas fuentes, se generan variables adicionales y se realizan cambios de formato para tener lista toda la información para aplicar técnicas de visualización, de búsqueda de relaciones entre variables y de exploración de datos.
- Haga el modelado: Un modelo define cuál es la estructura lógica, cómo se almacena, cómo se organiza y cómo se utilizan los datos para que la información disponible sea pertinente al problema planteado y cumpla los requisitos y los tiempos adecuados.
- Evalúe el modelo: Se analiza si el modelo cumple con los criterios de éxito del problema, si es viable, si hay que repetir alguna fase anterior, así como la clasificación de los datos y el desempeño del algoritmo (usando las llamadas matrices de confusión).
- Implemente: Se transforma el conocimiento obtenido (las conclusiones que se encuentran con los datos) en recomendaciones de acciones, medidas o ajustes operativos.
A futuro
Para descubrir las información relevante y hacer el análisis que se requiera en las empresas, Hernán Rojas, de Buklolab, recomienda también recurrir a la minería de datos.
"El business intelligence es un análisis de muertos, de lo que pasó. La analítica aplica los algoritmos para el análisis de las tendencias, del futuro", especificó.
Aquí la tarea es quitar la basura, al reducir la cantidad de variables y de datos que se analizan. Se puede pasar de 41 a 8 variables, por ejemplo, seleccionando y jerarquizando las más relevantes para el negocio.
LEA MÁS: Las empresas usan cada vez más Big Data y analítica
De esta forma se pueden realizar análisis de clientes, de cuentas por cobrar, de compras, o del comportamiento de las sedes, entre otros, utilizando el siguiente proceso:
- Estructuración e integración de los datos: Se establece un periodo o tiempo de análisis (un mes, seis meses o un año) y se eligen, se depuran, estructuran, se relacionan y se integran los datos (por ejemplo, la tabla de clientes se relaciona con la de productos) para establecer categorías. "La máquina es la que genera los datos", recalcó Rojas.
- Definición de variables: Elija las variables más significativas o relevantes utilizando el Análisis de Componentes Principales (ACP), una técnica para reducir grandes volúmenes de datos encontrando los factores que explican la mayor cantidad de variables, seleccionarlos en forma lineal, controlada y estandarizada para poder hacer comparaciones.
- Determinar, homologar y caracterizar los clúster: Los datos se dividen en varios grupos o clúster y el algoritmo elige cuáles tienen más peso y permiten una explicación más amplia. Aquí se pueden utilizar herramientas como R, K-Means y SPSS, entre otras. "La máquina es la que genera los datos", recalcó Rojas.