Archivo de la categoría: Inteligencia de Negocio

El antes, durante y después de un proceso ETL

El antes, durante y después de un proceso ETL

Los que llevamos un tiempo en el mundo de Business Intelligence (BI), sabemos que un buen proceso ETL es algo un poco más complejo de lo que parece. Cuando incursionamos en esta aventura de conocer BI, procesos de migración de datos o poblamientos de grandes estructuras, quedamos fascinados con las herramientas y la versatilidad de éstas para facilitarnos el desarrollo de procesos ETL. Por ende, he visto como desarrolladores, arquitectos y demás especialistas de BI pueden llegar a caer en un peligroso nivel de confianza, asumiendo que las herramientas resolverán todo el entorno, manejo y control de procesos y hoy en día estoy convencida que no es así.

Acá te dejo unos simples pasos que te orientarán como especialista técnico en el mundo de los ETL’s para que los procesos que diseñes, construyas u operes tengan un tiempo de vida útil y óptimo, los mejores tiempos de ejecución y la menor frecuencia de incidencias posibles.

El Antes de un proceso ETL

  • Define tu proceso ETL, debes contemplar inicialmente si lo que vas a diseñar y construir pertenece a un proceso de simple de migración de datos, el poblamiento de una base de datos relacional, la creación de un modelo analítico, el poblamiento de un Data Warehouse, Data Marts, Data Lakes, etc. Esto es muy importante porque te permitirá dimensionar la envergadura y blindaje de tu proceso ETL. A partir de acá, ya se te abrirá la mente para saber qué tipo de orquestación, cálculos y estructuras tendrás de realizar para tener éxito.
  • No estás solo, el entorno es importante: Valida los sistemas de origen, sus ventanas de acceso y la disponibilidad de los datos al momento de extraerlos de las fuentes. Dicen los expertos que el proceso de extracción ideal es el que apenas se nota, es por ello que siempre nos van a exigir que el proceso de extracción de datos desde las diversas fuentes cause el menor impacto posible. Por ejemplo, que no suponga ningún retraso a los empleados que, diariamente, trabajan con los datos y registros, que no genere contención dentro de una fuente transaccional, etc. Una extracción de un número demasiado grande de datos de una sola vez puede llegar a ralentizar e incluso colapsar, el sistema. Por este motivo, es importante valorar muy bien las necesidades y el alcance de la operación a realizar y, si es necesario, llevar a cabo la operación de forma escalonada en bloques de menor tamaño y/o en las fechas y horas más adecuadas para lograr ese mínimo impacto.
  • Haz un levantamiento de los diversos tipos de fuentes que formarán parte del proceso de extracción: 1. Si son fuentes estructuradas: ambientes, servidores, bases de datos, tipos de acceso, propietarios (owners), esquemas, tablas, campos, meta datos. 2. Si son fuentes no estructuradas: apis, tokens, links, distintos tipos de archivos, etc. A todos éstos debes cederle un espacio formal a nivel de estaciones (stagings) o sistemas de archivo (filesystem) para luego proceder a la fase de transformación.
  • La figura de Arquitecto de Información influye mucho porque el éxito de un proceso ETL radica en que la fase de carga (Load) se ejecute de manera correcta y para ello es imprescindible que los datos que se están cargando vayan a un destino con integridad referencial al 100% si aplica, en caso que no (si se tratase de un data lake por ejemplo) pues el destino debe tener un diseño y arquitectura lo suficientemente robusto que genere estabilidad de los datos conforme a su crecimiento.
  • Recopila toda la información del punto anterior e identifica qué es variable y qué es fijo… ¡No te confíes! Más adelante sabrás por qué.
  • Levanta las reglas de negocio: muchas de ellas aplicarán en el proceso de Extracción y las restantes en el proceso de transformación, esto dependerá del diseño del proceso, lo importante es no dejar de levantarlas. Aun así, si llegase a quedar por fuera alguna regla, como ya sabes que debes hacer tu proceso escalable (como un rompecabezas) no será muy difícil incorporar dicha regla.
  • Cuando llegas a la transformación, tras la extracción de los datos y como paso previo a su carga, haz llegado al corazón del proceso. Allí debes plasmar todas las reglas negocio que le darán otra cara a los datos que se extrajeron. En esta fase, las herramientas de integración con las que trabajemos influyen mucho y nos brindan ciertas bondades para lograr este objetivo. ¿Qué se hace en esta fase? Por lo general operaciones como reformateo de datos, conversión de unidades, selección de columnas para su carga posterior, agregación (suma) de columnas, dividir una columna en varias, traducir códigos, obtener nuevos valores calculados, unir datos de varias fuentes, los llamados look ups: que es cuando se toma un dato y se lo compara con otro tipo de datos, cruzando información, lo que llaman pivoting: que es un proceso parecido a los looks pero con un grado mayor de complejidad, ya que se cruzan datos de distintas fuentes. Y para usted de contar. Lo importante es que cada operación sea óptima, puntual y finita.

El Durante de un proceso ETL

Al momento de construir un ETL considérate todo un maestro de las piezas, un arquitecto, un ingeniero de partes. Imagina que construyes una gran tubería por la que deban viajar datos y meta datos y deben llegar completos y estructurados a su destino. Toma en cuenta que la herramienta que estés utilizando tiene una gran importancia y un papel determinante en dicha construcción, pero… El protagonismo te lo llevas tú.

  • Haz tu proceso escalable y flexible. Las extracciones con extracciones, las transformaciones con transformaciones, las cargas con las cargas. No mezcles estos procesos.
  • Ajusta tu proceso a las ventanas de disponibilidad de los servicios, tanto a nivel de extracción (lectura de datos) como a nivel de carga (escritura de datos). Recuerda que muchas veces nuestra fuente y destinos no son administrados por nosotros, por lo que el proceso debe acoplarse de forma óptima a estas ventanas.
  • Diseña bloques programados que realicen notificaciones de fallo vía correo o mensajes de texto, creación y mantenimiento de logs, etc., de cada paso o estación que se pueda construir dentro del proceso.
  • Identifica todo desarrollo dentro del proceso ETL, identifica los jobs de extracción, los jobs de transformación, los jobs de carga, los Jobs de control.
  • Documenta el proceso. Lo sé, esto no suele gustar, pero… documenta, documenta ¡documenta! No te arrepentirás.
  • Parametriza todo dentro del proceso ETL, cuando te comenté en la sección del Antes del Proceso ETL que debes identificar de toda la información levantada y recopilada todo aquello que pueda ser variable o fijo es porque un buen desarrollador BI conoce un secreto: en el mundo de las Empresas, en el mundo de la informática, en el mundo actual… ¿Cuál es la única constante? El Cambio. Por tanto, es posible, probable, seguro, que en el pasar del tiempo cambien nombre de rutas, librerías, nombres de tablas, nombres de archivos, nombres de esquemas, etc. Por tanto, una excelente práctica durante la construcción de los procesos ETL es parametrizar todos los nombres y variables que sean posibles. Hoy en día, la gran mayoría (por no decir todas) de las herramientas de integración ETL permiten colocar parámetros de este tipo. Así que, no dejes de hacerlo.
  • No te olvides de incorporar dentro del proceso todos aquellos puntos de control que hagan manejable y operativo el ETL, mecanismos de selección de frecuencias de ejecución, modalidades de ejecución: por ejemplo, si deseas ejecutar todo el proceso ETL, si deseas ejecutar solo Extracción y Transformación: ET, si deseas ejecutar solo Transformación y Carga: TL o cualquier combinación posible y efectiva.

 

El Después de un proceso ETL

¡Felicidades! Haz construido un proceso ETL… ¿Y ahora?

Déjame decirte si has llegado a esta etapa apenas tienes la mitad del camino recorrido. Si construiste un proceso ETL pensando que jamás fallaría, tú y tu proceso están destinados al fracaso, pero, si tomaste en cuenta todos los pasos anteriores, inclusive los que te voy a mencionar a continuación, entonces es altamente probable que logres tu objetivo y tu proceso ETL tenga un largo tiempo de vida útil y tenga adaptabilidad a la incorporación de nuevos productos dentro de su línea de ejecución.

El Después de un proceso ETL tiene existencia o razón de ser gracias al nivel de prevención que le otorgues antes y durante la construcción del mismo, por lo que el éxito vendrá en la fase de implementación en la medida que consideres lo siguiente:

  • Creando políticas de respaldo de todos los componentes involucrados dentro del proceso ETL: Jobs, transformaciones, bases de datos intermedias (stagings), filesystem, etc., garantizas el no perder código de programación realizado durante la construcción.
  • Realiza procesos de limpieza o depuración de datos, de esto dependerá el óptimo resultado de un proceso ETL. No es posible lograr un buen resultado final, acorde a los objetos marcados, sino se realiza previamente una buena limpieza de los datos. Sin esta etapa previa no es posible disponer de una base de datos de calidad que permite la toma de decisiones acertadas a nivel estratégico o ejecutivo. Esto da una idea de la enorme necesidad de tomarse muy en serio esta etapa, realizándola acorde a unos parámetros correctos y teniendo en cuenta las recomendaciones de los expertos.
  • Minimiza fallos en cadenas de ejecución… ¿cómo? Sabemos que muchas veces los errores son inevitables, pero siempre se pueden amortiguar. Tu experticia como desarrollador e implantador de procesos ETL te ayudará a minimizar fallos, más si no eres experto, el tener una idea de qué podría fallar te alertará a prevenir estas incidencias. Existen dos tipos de incidencias que pueden afectar un proceso ETL: 1. Una falla dentro del proceso ETL: éstas debes evitarlas a toda costa porque es tu nombre o el de tu empresa el que saldrá a relucir al momento que ocurra la falla. 2. Una falla en algún componente externo que se involucre con el proceso ETL: interrupción eléctrica, fallos de funcionamiento en los discos de almacenamiento. ¡Es cierto! Acá ya no es tu responsabilidad, pero si estableciste políticas de respaldo respectivas, no tendrás problema al momento de recuperar.
  • Han pasado 11 meses y tu proceso ETL se ejecuta correctamente, pero se acerca el cierre anual. ¿Estableciste todos los parámetros necesarios para un cambio de frecuencia? Esto no siempre ocurre, depende mucho del tipo de información que estés procesando dentro del ETL, sin embargo, establecer modos de frecuencia de ejecución permite reutilizar los componentes en diferentes instancias del tiempo, solo es cuestión que lo tomes en cuenta en tu fase de construcción y pasado un tiempo de la implantación no tendrás problema.
  • ¿Tu proceso ETL es a prueba de Contingencia? En muchas empresas, sobre todo las más grandes, se realizan eventos de contingencia que pueden ser desde simulacros hasta mecanismos reales dada una situación particular. Los procesos ETL no deben estar exentos a este tipo de eventualidades, ya que muy seguramente forman parte un sistema mayor, ya sea en el proceso de extracción o carga de datos. Ahora bien, no es algo descabellado implementar contingencia a tu proceso y mientras más escalable lo hayas construido menos complicado será incorporar un bloque de contingencia que determine cómo será la ejecución durante dicho evento. La naturaleza de la Contingencia determinará en qué punto del ETL se colocará dicho bloque, que puede ser tan sencillo o complicado como consideres, es decir, desde una serie de comandos que introduzcas en la Base de Datos que leas como un archivo demonio que aparezca al momento de activar la contingencia y forcé al ETL a finalizar o tomar otro camino… la decisión es tuya.

Son muchos los caminos o vías que puedes tomar para construir un proceso ETL, pero considero que este abreboca te dará muchas ideas para que te destaques como desarrollador BI. Siempre que te apegues a un marco metodológico, a estándares de programación y dejar volar tu ingenio e imaginación.

Bibliografía:

https://blog.powerdata.es/el-valor-de-la-gestion-de-datos

BI y gobernabilidad de los datos

Matrix CPM Solutions puede apoyarle en la concepción de proyectos de BI que le permitan autogestionar sus datos y empoderarse de ellos

Hoy en día es muy importante para cualquier organización conocer sus datos y poder -en base a ellos- responder rápidamente a situaciones cotidianas que puedan potenciar su negocio.

Cuando en una organización cada unidad de negocio trabaja de forma aislada con sus datos, o sencillamente no los utiliza o analiza, no existe una visión integral y controlada de los mismos, por lo que lograr los objetivos organizacionales se convierte en un gran problema.

BI-Y-GOBERNABILIAD-DE-LOS-DATOS_BLOG-01El objetivo principal de la Gobernabilidad de Datos consiste en asegurar que exista visión integral de los datos, que haya comunicación entre negocio y TI, que las unidades de negocio están alineadas, que los datos sean lo que deben ser, sin dejar a un lado el monitoreo y protección de los mismos, al ser estos uno de los activos más importantes de las organizaciones.

Para implementar Gobernabilidad de Datos en una empresa es imprescindible establecer procesos, políticas y roles; a través de un equipo conformado por profesionales de TI y de las áreas de negocio involucradas, cuya misión sea justamente entender los datos en búsqueda de alcanzar los objetivos organizacionales.

La Gestión de los Datos subyacente a la Gobernabilidad de Datos de una empresa no es más que la Gestión del Conocimiento que se realiza con ellos.

Las ventajas que se pueden nombrar al establecer un Gobierno de Datos son:

– Mejorar la calidad de la información y la integridad de los datos

– Aumentar la eficiencia operativa a través de proyectos de BI que permitan obtener visualizaciones para establecer pronósticos de comportamiento de los productos o servicios ofrecidos

– Ser más agiles al colocar nuevos productos en el mercado

– Reducir el posible solapamiento de funciones y/o trabajos repetitivos en el análisis de los datos

– Mejorar el uso del tiempo

Con la implementación de la Gobernabilidad de Datos, las diferentes áreas de negocio involucradas podrán acceder a sus implementaciones de BI con plena confianza de que los datos obtenidos le permitirán tomar las decisiones adecuadas sin intervención del equipo de TI, quienes podrán dedicarse a realizar otro tipo de actividades más estratégicas para su línea de reporte.

El top 10 de las tendencias en Inteligencia de Negocios

Hola a todos los que nos leen por aquí.

En estos momentos les daré un abre boca de las 10 tendencias en inteligencia de negocios para el 2018. Así qué, corran, busquen un café o un té y pónganse cómodos para contarles estás grandes cosas que están por ocurrir.

Todos los años ocurren sucesos que esperamos, como el lanzamiento del nuevo Iphone o Samgsun pero, también pasan cosas inesperadas. Este tipo de eventos marcan un hito en el tiempo, un antes y un después, a veces con tanta fuerza que ni siquiera recordamos cómo era todo antes de… Pero, ¿será posible que algún día creemos algo que nos ayude a predecir tendencias? Yo creo que sí.

Hoy en día se realizan predicciones “manualmente”: estudiando las tendencias, haciendo entrevistas o aplicando el método de la observación (como hago yo). Así logramos recaudar una buena cantidad de información para armar, construir o -en nuestro caso- desarrollar nuevos productos que en algún momento llenarán un nicho de mercado que está por nacer. Pero todo esto sigue siendo muy, pero muy empírico… No estoy diciendo que sea malo, sino que hemos avanzado tanto en la tecnología que hemos creados modelos predictivos que nos ayudan en temas puntuales y deberíamos seguir avanzando en este tema.

Es por ello que una de las primeras tendencias este año es… Ta-ra-ta-tán… ¡La inteligencia artificial! Aplausos por favor.

Sé que por muchos años ha estado en desarrollo, pero también sé que muchas personas le temen a este tipo de avances, gracias al enfoque de películas como “Terminator” o “I robot”. Para resumirle a los no cinéfilos: La primera fue un clásico de los 80′ en donde la famosa inteligencia artificial “Sky Net” se vuelve contra la humanidad y decide eliminarla… Mientras que “I robot” se estrenó después del año 2000, nos muestra como V.I.K.I. (Virtual Interactive Kinetic Intelligence) quiere esclavizar a la humanidad porque es la única manera de “salvarnos”.

Así que, al parecer la inteligencia artificial (IA) se ha ganado su fama a pulso, pero veamos que dice el famoso Wikipedia sobre esto: “Coloquialmente, el término inteligencia artificial se aplica cuando una máquina imita las funciones ‘cognitivas’ que los humanos asocian con otras mentes humanas, como, por ejemplo: ‘aprender’ y ‘resolver problemas’”.

Pero, los expertos en Tableau tienen una concepción diferente del termino: “La cultura popular alimenta una concepción distópica del poder del aprendizaje automático. Sin embargo, mientras la investigación y la tecnología continúan mejorando, este se convierte rápidamente en un valioso complemento para el analista. De hecho, es el mejor asistente que cualquier analista podría tener”.

Desde cualquier perspectiva, podemos afirmar que la inteligencia artificial es la primera tendencia para este 2018 y tendremos mucha información novedosa para entretenernos este año.

El puesto n° 2 en nuestro top 10 está concedido a “El impacto humano de las humanidades en el sector del análisis

Actualmente, los expertos en el área de programación somos (ya casi éramos) los encargados de realizar informes, dashboard o historias. Pero esto quedó en el pasado, ahora son los “humanistas” los que están marcando la pauta; están siendo contratados 10% más rápido que los ingenieros ¿La razón? Las personas graduadas en las áreas humanistas tienden a poseer un índice de creatividad mayor que los que nos especializamos en carreras técnicas, desarrollan habilidades de pensamiento analítico y parecen digerir con facilidad la data. Así que vamos a darle una gran bienvenida a nuestro terreno, quizás aprendamos a contar historias de una manera más creativa.

Puesto n° 3. “La promesa del procesamiento del lenguaje natural

Recuerdo que en el 2016 cuando me llegó mi primer Nexus 5X, tenía disponible una actualización para Android Nougat con una función insertada en el sistema operativo llamada Google Assistant, un asistente al que cumplía funciones básicas por comando de voz, por ejemplo: “envía un mensaje a fulanita” o “llama a Pepe”, “abre Youtube y reproduce Hello por Adele”. Esta tecnología ha sido altamente exitosa y ha generado una sinergia entre los fundadores de Amazon Alexa, Google Home y Microsoft Cortana, quienes están alineando esfuerzos en sus productos para brindarnos más avances en procesamiento por lenguaje natural o voz. Así se materializa J.A.R.V.I.S. (Just A Rather Very Intelligent System) y cada uno de nosotros tendrá un asistente como el de Iroman, el héroe de Marvel.

En el puesto n° 4 tenemos “La multiplicidad de nubes

A pesar de la existencia de servidores y discos un Tera, cada vez más es más frecuente el uso de “la nube” para guardar o trasladar datos y aplicaciones. Según Gartner, se estima que para 2019 el 70% de las empresas tendrán sus datos en varias nubes, como Amazon Web Services y Microsoft Azure. Así que es momento para invitarlos a “ponerse a tono” con Pentaho para poder extraer la data de esas nubes e interpretarlas en Dashboard construidos en Tableau.

Para sorpresa de muchos, en el puesto n° 5 está “El surgimiento del director de desarrollo

Aunque este es un puesto que se escucha en grandes y pequeñas compañías, este cargo tiene un enfoque diferente al que ya conocemos; no es el señor que se va a poner a revisar el código de cada uno de los programadores ni nada de eso, es un perfil enfocado en el proceso de inteligencia de negocio (BI). Está persona, según el enfoque que tiene Tableau, debe “modificar los procesos empresariales, superar los obstáculos culturales y comunicar el valor del análisis en toda la organización”.

Se estima que para el 2019 el 66% de las empresas destinarán más presupuesto al área de análisis de datos y para el 2020 el 80% de las empresas tendrán un departamento dedicado exclusivamente a esta área.

En el puesto n° 6 encontramos “La gobernanza de los datos”

¿Cómo se come eso? Desde que se implementó la inteligencia de negocios ocurrió un cambio en la restricción de los datos y el contenido de la capacitación de los usuarios corporativos en todo el mundo. Dichos usuarios descubren, hoy en día, distintas maneras de trabajar con los datos gobernados y confiables para obtener la información que necesitan y, de esta manera, contribuir a la optimización de los modelos de gobernanza, que ha otorgado una fuerza colosal a las organizaciones.

Pero ¿qué es esto? “La gobernanza consiste en aplicar la sabiduría colectiva para proporcionar los datos correctos a las personas adecuadas y evitar que accedan a ellos las personas indebidas”.

Esta brecha genera nuevos retos en el área de BI porque debemos crear estrategias de análisis que incluyan el modelo de gobernanza moderno, garantizando que las fuentes de los datos sean confiables (ya que hay una tendencia dominante a que los usuarios manejen y auto gestionen sus reportes).

De ahí la necesidad de realizar reuniones con los usuarios al momento de generar una solución BI, para propiciar una mezcla entre nuestros conocimientos técnicos y los conocimientos de los usuarios finales, para crear las reglas necesarias y los procesos que maximicen el valor del análisis de los datos sin resignar la seguridad.

Puesto n° 7, un pequeño gigante que está avanzando poco a poco El aseguramiento de los datos”

¿Sabían que hay empresas que aseguran sus datos? Sí, un seguro de datos, así como una póliza contra accidente o un seguro de vida, así mismo. Pero, ¿por qué invertir en eso? Porque una brecha en la seguridad de la información -como le pasó el año pasado a Movistar, con el famoso ransomware- le puede llegar a costar a la empresa 3,62 millones de dólares ¡¡¡OMG!!!

Y el nivel de riesgo cada año va en aumento, solo el 15% de las empresas de Estados Unidos tienen sus datos asegurados contra cualquier pirata informático; todas son instituciones financieras.

La famosa frase de Bacon “la información es poder”, es absolutamente cierta ¿cuántas personas han sido extorsionadas porque les roban información confidencial? ¿a cuántos no le han hackeado su información personal y luego aparecen fotos comprometedoras o vídeos por allí? ¿cuántos se han visto en problemas porque se filtran sus estados financieros?

Así que, amigo lector, vayamos investigando cómo adquirir una de esas pólizas.

En el puesto n° 8 tenemos “La función del ingeniero de datos”

En una oportunidad Bill Gate realizó este planteamiento: “¿Qué es más importante un programador que sabe del negocio o un programador que sólo sabe programar? El programador que sabe del negocio, porque el valor intangible que le da al negocio no se consigue en ningún lado” (ojo, estoy parafraseando).

Como dice mi gran amigo Leonardo Astudillo: “como consultores debemos entender el negocio, comprender la data que se guarda en la base de datos transaccional, para así poder entregarle un producto con valor al cliente”; esa es la función de un ingeniero de datos.

Tal y como explica Tableau “el ingeniero de datos es responsable del diseño, la creación y la administración de la base de datos de análisis y operaciones de la empresa. En otras palabras, es responsable de extraer datos de los sistemas básicos de la empresa de manera que estos puedan usarse y aprovecharse para obtener información y tomar decisiones. El volumen de datos y la capacidad de almacenamiento van en aumento. Por lo tanto, cada vez es más importante contar con alguien que tenga amplios conocimientos técnicos de los distintos sistemas y arquitecturas, y que sea capaz de comprender los intereses y las necesidades de la empresa”.

Colegas, se abre una nueva área de oportunidades para especializarnos…

Puesto n° 9, “El Internet de las cosas” (IoT)

Hoy en día todos los dispositivos se encuentran en línea y es sorprendente la cantidad de información que podemos sacar de ellos. Ya que dichos dispositivos tienen la capacidad de interactuar entre ellos y recopilar datos para ofrecer una mejor experiencia de conexión.

Gartner predice que, para el año 2020, el número de dispositivos conectados con IoT disponible para consumidores será más del doble del actual. Eso quiere decir unos “20.400 millones de dispositivos en línea con IoT”.

Esto es asombroso, a pesar que las implementaciones de IoT no han tenido la trayectoria deseada porque a las empresas les preocupa la seguridad de sus datos y la mayoría de ellas no cuenta con los conocimientos organizacionales adecuados o con la infraestructura técnica interna para admitir este tipo de conexión.

Sin embargo, la tendencia es positiva, y ya se observa un uso consistente de los datos de ubicación de los dispositivos con IoT y los beneficios de ese uso. A esta subcategoría se le apodó “ubicación de las cosas” y permite detectar y comunicar su posición geográfica. Así, conociendo la ubicación de un dispositivo es posible contextualizar su uso, comprender mejor la situación y predecir lo que sucederá en un lugar en específico. Lo que aporta contenido en esta nueva era de predicciones bastante interesante.

Nuestro último puesto n° 10 está reservado para “La inversión del sector académico

Cada día es mayor la demanda de personas que tengan conocimientos en área de análisis de datos. Pero no se pierdan está joya En la Universidad Estatal de Carolina del Norte, se encuentra el primer programa de maestría en análisis científico (MSA). La MSA se lleva a cabo en el Institute of Advanced Analytics (IAA). Este centro de datos tiene la misión de formar a los mejores profesionales del análisis de todo el mundo: personas que dominen herramientas y métodos complejos para el modelado de datos a gran escala, y que sientan pasión por resolver problemas que representen retos”. La Universidad de California en San Diego también inauguró una especialidad y una asignatura secundaria de grado universitario en ciencia de datos.

Glassdoor informó que, en 2017, la “ciencia de los datos” fue una de las principales áreas de empleos por segundo año consecutivo. Además, según un estudio realizado por PwC, para el año 2021, el 69% de los empleadores exigirá que los candidatos a sus puestos de trabajo tengan conocimientos de análisis y ciencia de los datos. Lo que implica que para este 2018 ya no son optativas, sino fundamentales las técnicas y habilidades para el análisis de los datos. Lo que representa un reto para nosotros, quienes debemos seguir formándonos para satisfacer las necesidades del mercado y continuar liderando el sector de análisis y transformación de los datos.

¡Gracias por su tiempo y por llegar hasta esta línea conmigo!

Para mayor información: https://www.tableau.com/es-es/reports/business-intelligence-trends#academic

Tableau en la cadena de suministro

Tableau es una herramienta muy poderosa que ha ayudado a muchas empresas a visualizar y comprender sus datos. La dinámica de este software no está enfocada en usuarios técnicos de IT sino en los usuarios del negocio; lo que ha permitido su posicionamiento en diversas áreas de negocio, en diferentes organizaciones de una manera muy fácil y rápida.

Una cadena de suministros, por ejemplo, abarca diversos procesos: inventario, transporte, manejo de mercancía, producción, etcétera; Tableau integra todos los datos de cada proceso a la perfección, en un ambiente analítico, donde cualquier usuario del negocio puede responder preguntas acerca de sus datos.

¿Cómo encaja Tableau en las necesidades en esta área tan específica?

     Ésta herramienta de Business Intelligence goza de gran flexibilidad en diversos aspectos. El primero y más importante, es la capacidad de conectarse a muchas fuentes de datos, ya sean base de datos relacionales, archivos de texto o Excel, base de datos en la nube o cubos; lo que la convierte en la herramienta ideal para una cadena de suministros en donde están involucrados diversos departamentos de una organización, con diferentes empleados, varios proveedores y múltiples localidades.

  TABLEAU EN LA CADENA DE SUMINISTRO-01El segundo aspecto en el que hay que hacer énfasis es el repositorio donde vive la data que será fuente de la información para la toma de decisiones en la cadena de suministros, por lo cual la herramienta de BI tiene que ser lo suficientemente flexible para poder conectarse a cualquier fuente de datos, debido a que cada cliente tiene su forma de almacenar los mismos.

     El tercer aspecto importante es que Tableau rompe con el esquema tradicional de Business Intelligence, al colocar el proceso de análisis de datos en el usuario del negocio, lo que se amolda perfectamente a la necesidad de una cadena de suministros, que se caracteriza por la participación e interacción de diversos usuarios y procesos. Esta ventaja le permite al gerente de almacén, por ejemplo, responder preguntas acerca de su data de una manera fácil y continua, manteniendo la data actualizada al mismo ritmo que se moviliza el inventario de su almacén.

Otro aspecto importante, en esto último que no hay mejor persona para responder preguntas de cómo se está llevando los niveles de inventario dentro del almacén, que los propios empleados del almacén. En un mundo de BI tradicional, el departamento de reportes conformados por personas de IT, tuviesen que hacer los reportes acerca de la data de almacén junto con los reportes de transporte y logística y producción, en el cual dicho personal de IT tal vez no se conozcan el proceso ni la data que manejan y además de todo esto, los requerimientos de dichos reportes suelen cambiar en cada uno de los departamentos, causando un posible colapso dentro del departamento responsable de realizar estos reportes. Por lo cual la magia de Tableau entra, colocando el poder del análisis de datos en diferentes departamentos con las personas que saben que preguntas son pertinentes para la toma de decisiones para mejorar y optimizar su departamento que está vinculado a un proceso dentro de la cadena de suministro.

Caso de éxito: PepsiCo

     Un buen ejemplo del éxito de la aplicación de Tableau en una cadena de suministros es caso de la multinacional PepsiCo; una empresa dedicada a la producción, comercialización y distribución de alimentos que opera en más 200 países.

     Debido al alto volumen de datos que manejaba dicha empresa y a que cada cliente utilizaba sus propios estándares de datos en diferentes procesos de la cadena de suministro, se originaba un manejo “pobre” de la información para analizar la data y realizar los reportes.

     Lo que motivó a PepsiCo a contactar a Trifacta (aliada comercial de Tableau, encargada de la preparación de datos para el análisis). Optaron por Hortonwork Hadoop para almacenar y consolidar sus datos y luego entró al juego Tableau para la visualización de los mismos, otorgando profundidad analítica, dando sentido al gran volumen de datos, permitiendo identificar “cuellos de botellas” en la cadena de suministros, determinar bajos niveles de almacén, estacionalidad en algunos productos, entre otros.

     Esta decisión tecnológica permitió a PepsiCo optimizar sus esfuerzos en el análisis de datos, dedicando mucho menos tiempo en este proceso, lo que se traduce en productividad, capacidad de respuesta y dinero, minimizando la inversión en la preparación de datos, permitiéndoles enfocarse más en entender y visualizar su data.

     La versatilidad de la herramienta permite que ahora los empleados de IT de PepsiCo, dedicados a la preparación de la data, publiquen directamente los extractos desde Tableau a Tableau Server para que todos los usuarios de negocios de la organización puedan realizar las combinaciones de datos requeridas para lograr las visualizaciones que identifican tendencias y facilitan la toma de decisiones. Generando un ambiente colaborativo de trabajo dentro la organización, dándole una ventaja competitiva para mejorar sus resultados en diferentes áreas del negocio.

     Como PepsiCo hay muchos otros casos de éxito donde Tableau ha sido protagonista. Además de potenciar el análisis de datos en la cadena de suministros, dicha herramienta de Business Intelligence ha mejorado la forma de hacer las cosas para muchas organizaciones de diferentes áreas, al irrumpir de forma positiva el análisis de datos y creación de reportes, al darle poder de descubrimiento y visualización de datos a cualquier persona dentro de la organización.

     El éxito de Tableau radica en su misión y forma de hacer las cosas, no solo como software sino como compañía, al tener un objetivo claro enfocado en hacer ver y entender los datos a las personas.

Decálogo MATRIX para el desarrollo de proyectos de Inteligencia de Negocios

1. ¡Calidad, ciclo de vida y validación! Todo está en los datos

Las soluciones de Inteligencia de Negocios parten en los datos. Es imprescindible entender cómo, cuándo y dónde se generan los datos ya que provienen de distintas fuentes, gestionadas y ubicadas en diferentes aplicaciones y repositorios. Al hacer esto, por lo general aparecen inconsistencias en los datos, lo que nos obliga a recordar estas afirmaciones: “Si lees basura, sale basura” y, “Siempre hay basura”. Como consecuencia, es preciso validar, validar y validar los datos fuentes en los repositorios y en los cubos hasta asegurar resultados correctos.

2. Participación activa de los usuarios del negocio

El objetivo final de un proyecto de Inteligencia de Negocios es proveer información valiosa a los actores del negocio. Por tanto, estos deben participar activamente en la conceptualización, diseño y certificación de la solución. Cuando el usuario participa y se involucra en el desarrollo del proyecto es capaz de hacer análisis con el modelo y la herramienta igual o mejor que el desarrollador y/o consultor.

3. Entender el negocio y los procesos

Debe tenerse una visión completa del negocio y sus procesos, llegar a entenderlo como usuarios finales (terminología, cálculos, flujo de datos y procesos, indicadores clave de desempeño, etc.). Esto permitirá aclarar el panorama del proyecto y garantizará resultados óptimos.

4. Definir estándares de desarrollo

Definir los estándares de desarrollo es una actividad primordial. En este punto, el equipo deberá plantearse cómo definir:
– Nombre del modelo, de las dimensiones (en singular, por el elemento más granular) y de las medidas
– Nombre de campos, tablas, vistas, funciones y otros objetos del repositorio de datos
– Ubicación de archivos ETL, cubos, parámetros, etc.
– Procesos Extracción, Transformación y Carga (ETL)
– Estrategia de sustitución de caracteres especiales (áóñ&%$#@)

5. El Modelo de datos debe dar respuestas a las interrogantes del negocio

Se debe trabajar en un diseño que garantice cubrir las necesidades y requerimientos de los usuarios. Definir el esquema de la base de datos apropiado (estrella, copo de nieve o big table), las dimensiones y métricas, las jerarquías, los atributos, su granularidad, la frecuencia, el periodo de lectura, el uso de elementos dummy y todo aquello que permita visualizar de forma correcta los requerimientos del usuario. Es importarse preguntarse: ¿El modelo da respuestas a todas las interrogantes de los usuarios?

6. Metodología de desarrollo de ciclos cortos e incrementales

Es recomendable apegarse desde el inicio a una metodología de diseño incremental por prototipos (ej. SCRUM). A través de este tipo de metodologías, se podrán realizar entregas y vistas analíticas relevantes en períodos cortos del tiempo del proyecto. Esto permitirá acelerar la disponibilidad de la información y trabajar de forma iterativa con los usuarios, suministrando entregas funcionales concertadas. Al momento de ofertar o inclusive, de iniciar un proyecto, se recomienda definir, acotar y desarrollar una parte especifica en tiempo breve para que las partes interesadas tengan una visión clara de las características del desarrollo y de su alcance.

7. Claridad en la distribución de la información

Si la definición del modelo datos es importante para garantizar la efectividad y desempeño de la solución, no menos importante es definir la estrategia para distribuir los resultados de la información. Es vital conocer cómo se va a representar y distribuir la información y el uso de: reportes fijos, reportes dinámicos, vistas de cubos, paneles de control, mapas y portales. Cada usuario de acuerdo a su rol, debe acceder lo que necesita para cubrir sus requerimientos usando las distintas opciones antes mencionadas en la capa de visualización.

8. Pensar en el mañana y tomar en cuenta el mantenimiento después del pase a producción

Aunque los proyectos requieran siempre resultados inmediatos, se debe reflexionar sobre la adaptabilidad de la solución a futuras modificaciones. El negocio se encuentra siempre bajo un ambiente de cambios, por lo que un sistema de Inteligencia de Negocios solo se mantendrá a lo largo del tiempo si el modelo es simple y fácil de mantener.

9. Conocer las bondades de la herramienta a utilizar

Se deben conocer las prestaciones y limitantes del habilitador tecnológico a utilizar, así como también las diferentes opciones que éste ofrece para lograr el mismo resultado. Se debe dar siempre la mejor opción al usuario sobre sus requerimientos. De igual manera, es menester que el usuario final comprenda y conozca las características de la herramienta y su alcance para no crearse falsas expectativas.

10. Agregar Valor

En todo desarrollo, el cliente tiene una visión sobre qué es lo que quiere y cómo lo quiere. El consultor y su equipo intercambiarán ideas y conocimientos para agregar valor a cada elemento desarrollado. En otras palabras; suministrarle al usuario final más de lo que esperado sin incurrir en costos adicionales ni en variaciones del proyecto.

Decálogo BI MATRIX

Business Intelligence & Analytics y Marketing

Datos que pueden ser útiles cuando se trata de establecer una estrategia de marketing, siempre y cuando se logre una pertinente identificación, análisis y aplicación de los mismos para dar información que sea aplicable y pueda transformarse en acción.

Para ello una de las herramientas con las que cuentan marcas y empresas es la Business Intelligence (BI) & Analytics. Después de todo, “quien tenga acceso a todos estos datos y sepa cómo interpretarlos correctamente, tendrá una gran ventaja con respecto a la competencia.

La conjunción entre Business Intelligence y marketing permite a los profesionales que acuden a ellas.

A nivel mundial, el uso de Business Intelligence & Analytics es tal que alcanzará los 16,900 millones de dólares en 2016, lo que representa un incremento del 5.2 por ciento con respecto al año pasado.

Los Perfiles Mas Solicitados

Este reconocimiento por parte de las empresas sobre la importancia que tiene el uso de las herramientas de Business Intelligence para poder dar respuesta a la necesidad de más información sobre los clientes y usuarios que permita personalizar las campañas u ofertas, ha llevado a que los perfiles profesionales relacionados con el manejo de data, se encuentren entre los más solicitados en marketing online.

Así lo muestra un análisis llevado a cabo por Digilant tomando como base su experiencia en mercados como España, Reino Unido, México, Chile, Colombia, Italia y Perú y en el que los perfiles con mayor demanda serían los de Chief Data Officer (CDO), Chief Analytical Officer (CAO) y Data Scientist.

La productiva relación entre los profesionales de la data y el marketing “en definitiva, se trata de extraer en tiempo real y accionable a partir del Big Data para ayudar a las marcas a tomar mejores decisiones de negocio y que afecten positivamente a su ROI.”


Fuente: Merca 2.0 Por Valeria Murgich

Los datos de Tableau: ¿Data warehouse? ¿en vivo? ¿extracto? 

En nuestras actividades de preventa y presentaciones de Tableau siempre surge la pregunta:

¿Y el datawarehouse? 

La verdad, hay una concepción conservadora respecto a dónde residirán los datos que las organizaciones necesitan analizar. Tradicionalmente, los datos han sido movidos desde los sistemas transaccionales hasta bases donde los datos se estructuran para analizarlos (Data Warehouse). Este tipo de modelos persiguen tres objetivos: 1) integrar datos heterogéneos que puedan provenir de diferentes fuentes, 2) aislar los datos del manejador transaccional para no degradar su desempeño y 3) estructurar los datos de manera adecuada para su análisis. Para el transporte de los datos de una base de datos a la otra se utiliza una herramienta de extracción, transformación y carga de datos o ETL por sus siglas en inglés:

captura-de-pantalla-2016-10-23-15-00-58

Por su parte, Tableau permite la conexión directa a diferentes fuentes de datos e incluso la combinación de datos entre estas diversas fuentes a través de su funcionalidad de “data blending”, esto se puede hacerse en modalidad de conexión en vivo o, a través de un extracto, resultante de la copia de datos que hace Tableau desde las fuentes a una estructura de datos local. Este extracto ofrece la importante ventaja de ser un arreglo óptimo para la consulta y análisis (véase: formato columnar) y que cuantiosas cantidades de registros, puedan copiarse a archivos locales de extractos comprimidos que ocupan muy poco espacio:

captura-de-pantalla-2016-10-23-15-01-10

En algunas implantaciones es aún requerido el desarrollo de ETLs para poder consolidar los datos a analizar, esto debido a la complejidad de las fuentes, reglas de negocio más elaboradas o necesidades particulares de planificiación para la lectura, transformación y carga de los datos. En este caso, el data warehouse será la fuente de datos principal de Tableau y por supuesto, podemos seguir tomando ventaja del extracto que nos povee alto rendimiento y data offline:

captura-de-pantalla-2016-10-23-15-01-21

Cuando el volumen de datos que maneja la organización es muy elevado, se hace necesaria la incoporación de una base de datos columnar (analítica) en la arquitectura de la solución. Esto optimiza la estructura de datos a nivel de servidor y mejora el rendimiento de Tableau. En este caso, la conexión de Tableau será en vivo hacia la base de datos analítica porque allí ya se encuentran los datos en formato columnar, sin embargo, aun es opción el tomar el extracto de datos si se desea disponer de estos tras la desconexión de la fuente (data offline):

captura-de-pantalla-2016-10-23-15-01-35

¿Y Tableau Server? 

¡Claro!, la buena noticia es que todos estos escenarios aplican a Tableau Server. Tanto las conexiones en vivo como por extracto pueden funcionar para las diferentes visualizaciones y contenidos, con lo cual se abre una interesante gama de opciones, por cierto no necesariamente excluyentes. El negocio podría contar en algunos casos con visualizaciones Tableau conectadas en vivo porque desean ver el comportamiento de la organización en tiempo real y en otros casos con fuentes de datos ya estructuradas para el análisis que provean mejor rendimiento y mayores capacidades en término de volumen de datos manejado

El siguiente gráfico presenta cuatro escenarios que pueden ser válidos en su organización. Todo dependerá del modelo de datos que desee analizar y de consideraciones esenciales como el volumen de sus datos y el balance entre las necesidades del negocio y el desempeño óptimo de su solución de inteligencia de negocios:

captura-de-pantalla-2016-10-23-15-02-06

El siguiente flujograma presenta una guía práctica de cómo decidir cuál es el escenario óptimo para cada uno de los modelos de datos que la organización requiera analizar. Evidentemente,existirán casos que ameriten consideraciones especiales, pero en términos generales le permitirá entender sus alternativas y aprovechar las ventajas de Tableau:

captura-de-pantalla-2016-10-23-15-02-25

Recuerde, lo más importante para que pueda dar el salto al mundo de la inteligencia empresarial es aprovechar las innovadoras y poderosas ventajas de tecnologías actuales como la de Tableau y empezar ahora mismo.

Deje de pelear con sus datos y analícelos de una vez.

Novedades en Tableau 10, la herramienta de visualización analítica

Cada vez que Tableau lanza una nueva versión, aunque sea en pruebas, la gran comunidad en torno a esta herramienta de visualización de datos complejos hace retumbar el sonajero de la promoción. Tableau 10 es la última edición de una herramienta bien valorada.

No solo está bien considerada por sus usuarios, ya sean periodistas o analistas, y bien promocionada por los conocidos como Tableau Zen Master, sino que gran parte de las consultoras de medio mundo emiten informes muy positivos de Tableau en comparación con otras herramientas de inteligencia de negocio. Gartner publica anualmente un cuadrante con los líderes del sector, un informe que ellos llaman el ‘Cuadrante Mágico para las Plataformas de Inteligencia de Negocio y Analítica’, que este febrero de 2016 vuelve a colocar a Tableau entre las mejores opciones del mercado junto a las soluciones de Microsoft, Qlik o Alteryx.

Fruto de su enorme éxito es la evolución casi constante de la propia herramienta. Rara vez hace caso omiso a las peticiones de la comunidad, realmente involucrada en la mejora de la plataforma, y siempre implementa mejoras que generan valor y perpetúan el uso por parte de los usuarios, tanto de pago como la versión libre (en este caso conocida como Tableau Public).

La versión 10, que incluye algunas cuestiones interesantes para sus usuarios:

1.     Tableau responsive para dispositivos móviles Android

Si existía alguna petición de los usuarios de Tableau, esa era sin duda la adaptación sencilla de los paneles a los dispositivos móviles. Tableau se había convertido en una herramienta de cuadros de mando bastante útil para su visionado en escritorio, pero cuando esas consultas se realizaban desde teléfonos móviles la experiencia de usuario era bastante negativa.

Por ahora Tableau permite una adaptación responsive de los cuadros de mando para los dispositivos móviles que utilizan sistema operativo Android (Google). Con esta versión los usuarios pueden compartir sus visualizaciones de datos en cualquier tipo de pantalla, ya que personaliza y publica los cuadros de inteligencia de negocio optimizados tanto para escritorio, como para tabletas o teléfonos móviles.

2. Control de versiones en los libros de trabajo

Tableau 10 ha incorporado una nueva funcionalidad que puede resultar realmente útil cuando se tratan con grandes volúmenes de datos. Es algo similar a cualquier sistema de control de versiones, como que el que pueden utilizar los sistemas de gestión de contenidos (CMS). A día de hoy, cualquier usuario de Tableau 10 puede volver a una versión anterior de sus libros de trabajo a través del Tableau Server. Con la versión 10, los libros de trabajo se pueden restaurar directamente, sin necesidad de tener que descargar y publicar los datos de nuevo. Un avance que aporta facilidad.

Además, el usuario de Tableau 10 tiene la ventaja de que antes de restaurar una versión anterior de su cuadro de mandos, tiene la opción de previsualizarla para escoger la versión exacta que quiere publicar. En ese flujo de trabajo, el usuario puede incluso abrir varias versiones previas a la vez en distintas pestañas. Tableau ofrece la opción de que los usuarios puedan limitar desde la configuración del propio Tableau Server el número de revisiones por libro que se puede permitir.

3. Mejoras en la API de JavaScript

Tableau ha decidido introducir mejora en la API REST de JavaScript, un movimiento esencial si quiere extender sus tentáculos y ofrecer todo tipo de oportunidades a usuarios y desarrolladores que quieren integrar Tableau con otros servicios. Además, la propia interfaz de usuario de aplicaciones tiene mejoras en las llamadas que podemos hacer a la API para obtener datos para nuestras visualización. En concreto, una de los avances más importantes la posibilidad de filtrar y ordenar.

Para extraer un dato concreto en las versiones anteriores de Tableau era necesario hacer una petición GET a la API REST e iterar con todos y cada uno de esos datos para encontrar una aguja en un pajar. Ahora ese flujo de trabajo ha quedado atrás. Se automatiza el proceso de la búsqueda final: primero se hace una petición GET a la API REST y después se aplica un filtro para hallar el dato, sin ir uno a uno. El filtro en cuestión sería algo parecido a esto, con la idea de obtener la información de un usuario llamado, por ejemplo, juan: /users?filter=name:eq:juan.

4. Filtrar a la vez en varios conjuntos de datos

Esta característica parece una tontería, pero cuando estás haciendo visualizaciones de datos, tener la capacidad de usar un único filtro para dos gráficos distintos con dos tablas de datos diferentes puede ser una maravilla. Única condición en Tableau 10: que el campo por el que queramos filtrar en ambas visualizaciones se llame igual en las dos tablas de datos. Una condición lógica.

5. Punto extra de novedades en Tableau 10

Los cuatro puntos anteriores no resumen del todo las nuevas funcionalidades que Tableau ha decidido incorporar a su nueva versión recién estrenada. Hay más:

– Incluye una nueva tipografía especial para facilitar la compresión de las visualizaciones de datos. Su creador es el conocido Tobias Frere-Jones, un diseñador que ya tiene más de 700 tipos a su nombre.

– Tableros por tipo de dispositivos: con Tableau 10 los usuarios pueden compartir sus libro de trabajo escogiendo el tipo de pantallas según el dispositivo en el que lo quieran hacer: móviles, tabletas o escritorio.

– Creación de regiones personalizadas: ahora es posible seleccionar con el cursor una región concreta dentro de una visualización tipo mapa y después eliminar el campo geográfico original para mantener esa selección propia.


Fuente: BBVAOpen4U

Inteligencia de Negocios: El secreto está en los datos

La gran cantidad de datos a los que las empresas tienen acceso hoy en día para tomar mejores decisiones y crear nuevos servicios ha ampliado el alcance y funcionalidad de todo tipo de aplicaciones. Acceda a este recurso y maximice el rendimiento de su negocio usando toda la información a su disposición.

En una compañía, la información crece de forma constante, por eso, si lo que se busca es garantizar la competitividad de la empresa, se necesitan herramientas que integren y recopilen datos e incorporen todos los cambios corporativos al instante. Si los usuarios tienen acceso a múltiples fuentes de datos, a menudo tienen problemas para localizar la información o se sienten abrumados por el exceso de éstos. Por lo tanto, para evitar que esto ocurra, se deben usar herramientas de BI para la elaboración de informes y análisis que aporten información actualizada en un formato apropiado que apoye el proceso de toma de decisiones.

El análisis de datos es hoy una herramienta clave para, además de comprender y predecir el comportamiento de los clientes, saber cuándo será su próxima compra o qué comienza a cambiar al momento de contratar servicios o comprar productos.

Las soluciones de Business Intelligence permiten a las empresas extraer el conocimiento acumulado en sus plataformas comerciales y de operaciones, mediante la agrupación, integración y correlación de los datos que se han ido recolectando con diferentes propósitos dentro de la organización. Agrega que estas soluciones elevan el nivel de abstracción de la información y permiten utilizarla para la toma de decisiones estratégicas o tácticas, y no solo para fines operativos. “Las decisiones tomadas a partir de toda la información integrada de la empresa, si están fundadas en datos confiables que se procesan de manera oportuna, es probable que se traduzcan en un mejor desarrollo del negocio integral. Si bien estos datos son especialmente valiosos para la alta plana ejecutiva, todos los niveles jerárquicos pueden verse beneficiados con la implementación de una solución de BI, ya que cada uno, dentro de su nivel de responsabilidad, debe tomar decisiones que contribuyen al desempeño global”, explica Osiniri.

Hoy la información relevante para una organización puede provenir de diversas y múltiples fuentes. “Está la información que la misma organización produce a nivel interno a través de sus empleados; la que genera su entorno, como asociados, proveedores,  colaboradores externos y mercado en general;  y la de sus clientes, por mencionar las más importantes.  Para ser útil, esa información no solo tiene que guardarse, sino también controlarse, analizarse, procesarse y gestionarse, de acuerdo a los requerimientos y objetivos del negocio. La información por sí misma no sirve, por lo tanto, es fundamental encontrar su utilidad de la manera más eficaz posible. Y para ello es la inteligencia de negocios. La información, si es bien gestionada,  puede acarrear  importantes ventajas competitivas. Entre ellas, el mejoramiento de la eficiencia y administración o gestión corporativa, la reducción de costos operacionales y de producción, la toma de decisiones y la seguridad”.

“A pesar de disponer de sofisticadas infraestructuras informáticas, muchas empresas no localizan la información cuando la necesitan, porque carecen de una solución de Business Intelligence que ofrezca acceso a los datos, en cualquier momento y en cualquier lugar, y que a la vez permita filtrarlos, analizarlos y publicarlos. Una solución de estas características debe permitir fusionar en un único informe datos de múltiples fuentes y transformarlos en información valiosa de manera rápida. La aplicación de Business Intelligence permite identificar al instante los retos que enfrentan las empresas, accediendo a información actualizada, lo que finalmente logra que una empresa sea más competitiva al reaccionar con mayor rapidez y confianza ante los cambios”.

¿Cuáles son hoy las soluciones de Business Intelligence de mayor uso?

Los expertos señalan que hay que hacer una diferencia entre las herramientas que se usan para inteligencia de negocios y las plataformas. Las primeras se usan generalmente cuando hay muchos usuarios de diversos niveles de habilidad técnica con requerimientos de reportes y vistas que son menos analíticos, pues son estándar. Las segundas, en tanto, se utilizan en casos de análisis mucho más complejos, como la rentabilidad de un producto, o cuando es necesario desarrollar aplicaciones amigables para usuarios ocasionales.

En cuanto a las soluciones más usadas, éstas dicen relación con las que permiten  realizar reportes empresariales; cubos de análisis; vistas Ad Hoc Query y análisis, como  herramientas OLAP relacionales que son usadas para permitir a los expertos visualizar la base de datos y ver cualquier respuesta y convertirla en información transaccional de bajo nivel. También las que posibilitan el data mining y análisis estadísticos, así como la entrega de reportes y alertas.

Mientras tanto, Osiniri de SONDA, advierte que si bien en Chile, las empresas grandes y algunas medianas han venido haciendo uso de estas soluciones desde hace bastante tiempo, en términos proporcionales su uso aún no está muy extendido, y en general solo se han usado para problemas de gestión departamentales. “Todavía muchas empresas usan planillas y reportes desarrollados a la medida para resolver problemas más bien básicos, a pesar de que en el mundo cada día crece más el uso de herramientas específicas de clase mundial para la explotación de los datos y la visualización de la información procesada, como QlikView, Tableau, Business Objects, Cognos, entre otras”, dice.

El ejecutivo agrega que “debemos recordar también, que BI abarca muchas soluciones específicas de nicho como por ejemplo: Planificación estratégica, Consolidación financiera, Data MiningBroadcasting, Sistemas de gestión de cumplimiento de normativas (SOX, ISO, etc).  En Chile hay poca adopción en general de este tipo de soluciones, las cuales se encuentran principalmente en las grandes empresas, aunque algunas de ellas podrían ser aprovechadas por todo tipo de empresas”.

Son diversas las herramientas que actualmente ofrece el mercado, cada una con sus grados de complejidad y dirigidas a los distintos tipos de organizaciones. Sin embargo, toman fuerza soluciones de reportes a través de modelos multi-dimensionales, sistemas de elaboración y mediciones de KPI (Key Performance Indicator), modelos de gestión del desempeño, entre otros. Todos permiten finalmente asociar cada proceso operativo de una empresa a los objetivos estratégicos del negocio, llegando a manejar de manera diferenciada un gran volumen de datos, convirtiendo a cada herramienta por si sola y en conjunto en un requisito fundamental para operar adecuadamente y estar a la altura de un mercado cada vez más exigente.

Recomendaciones y consejos al momento de evaluar e implementar soluciones de analítica de datos

Claudio Gómez Barrenechea, gerente comercial In Motion-T1G, nos señala que cuando una organización requiere implementar un modelo de Business Intelligence lo primero que debe tener claro es su estrategia de negocios y a partir de ello incorporar tecnologías y recursos humanos con conocimiento que permitan sacar provecho al uso de BI.

En lo relacionado con la tecnología recomendamos analizar con mayor detalle el uso de Business Intelligence en la Nube, ya que el ahorro para una organización en el tiempo es considerable y las facilidades de uso son mayores. Para el proceso de evaluación de una solución en particular es recomendable asesorarse por expertos y considerar realizar un RFP (Request For Proposal), que es un documento que contiene las bases y premisas para que los proveedores preseleccionados realicen sus propuestas técnicas, funcionales, de proyecto y económicas.

La diferencia en unos años será muy grande entre quienes hayan implementado estas soluciones y quienes no, porque con ellas surge un nuevo paradigma para el desarrollo del negocio y gestión. Por eso es importante que todas las organizaciones, grandes, medianas o pequeñas, piensen de qué manera la digitación de su negocio puede potenciarlo, cambiarlo o reconvertirlo en un nuevo emprendimiento. Una vez comprendido esto, habrá un nuevo mundo delante de sus ojos.

Siguiendo con las recomendaciones, Padrao, de Infor, hace hincapié en preferir un software de primer nivel con alcance global y tecnología de punta: “Que además tenga presencia local, para poder adoptar de mejor forma las necesidades de cada cliente. Y que cuente con experiencia en otras empresas similares, de modo de tener referencias sobre su funcionamiento”.

Es decir, extraer datos a todos los procesos de negocio para impulsar una nueva forma de tomar decisiones. También implementar una plataforma completa que permita integrar datos de dentro, fuera y de todo tipo (estructurados, semi estructurados y no estructurados). Que agilice la colaboración entre áreas con una visualización integral del negocio. Y que sea abierta e híbrida (cloud y on premises). Además, trabajar proactivamente para procurar la seguridad de los datos, y entregar a los usuarios de negocio la flexibilidad que requieren, pero manteniendo un control y governance adecuado, de forma de mantener una confiabilidad en los datos y mantener una única versión de la verdad.

Los expertos enfatizan que no debe olvidarse lo más básico, que es que Business Intelligencees un concepto basado en soluciones, cuyo objetivo es mejorar el proceso de toma de decisiones. Si bien está apoyado y apalancado por herramientas tecnológicas, el foco del concepto está en aumentar el entendimiento del negocio, para mejorarlo.

Las herramientas basan sus beneficios en el uso intensivo y extensivo de los datos disponibles (internos y externos) de la organización. Por lo tanto, la calidad original de los datos es crucial al momento de lograr generar información relevante para el negocio. Si se dispone de una buena fuente de datos, entonces es más simple realizar un conjunto de actividades de procesamiento y generación de información relevante para el negocio (extracción, transformación, integración, agrupación, correlación de variables, análisis de tendencias o detección de patrones).

Así, tanto las herramientas que se seleccionen como los expertos que se contraten tendrán un impacto relevante en los resultados de todo el proceso, por lo que ésta debe ser una decisión elaborada, la que se debe tomar considerando que el ciclo de vida de estas soluciones es largo, y que la empresa que se contrate para entregar servicios de consultoría y soporte debe ser confiable, sólida y persistente en el tiempo.

La tecnología es un habilitador, por lo cual, la gran diferencia radicará en que las empresas puedan escoger de forma muy certera a los profesionales adecuados, por su conocimiento y experiencia en este tipo de temas. El profesional orientará en la elección del mejor camino a tomar y del plan de iniciativas de analítica que contribuya con los objetivos de la empresa. Lo importante, entonces, es el factor humano, el conocimiento y la metodología de implementación, más que la tecnología en sí, ya que, la tecnología es sólo un habilitador.


Fuente: TechTarget