Eres un buen desarrollador con Pentaho Data Integration? PDI, Pentaho Data Integration, Kettle

162612973_5e3eeacdbeLa plataforma de inteligencia de negocios de Pentaho es muy conocida y utilizada en toda Latinoamérica. Matrix CPM Solutions fue uno de sus primeros aliados certificados de Pentaho en la región ya hace mas de 8 años y sin duda colaboró mucho en la creación del ecosistema de aliados cuando en los primeros años se hizo un gran esfuerzo para dictar los cursos oficiales de Pentaho en las ciudades mas importantes de Centro y Sur América.

Hoy en día Pentaho sigue teniendo cientos de miles de “downloads” en todo el mundo y América Latina representa un porcentaje muy alto en la descargas y uso de la versión comunitaria, todo lo contrario al resto de las regiones donde se prioriza el uso de la versión comercial o paga del software.

Posiblemente sea Kettle (nombre que también se le da a Pentaho Data Integration) la herramienta mas usada y conocida de toda la suite. Puedo decir con conocimiento de causa que Kettle es muy popular en Venezuela, México, Colombia, Ecuador y en varios países de Centro América, en especial en Guatemala y El Salvador. La verdad es que es una herramienta de ETL fantástica. Es muy completa y poderosa, además de ser muy fácil de entender y utilizar. Esto posiblemente es a su vez su gran problema, porque la gente piensa que con utilizarla y hacerla funcionar lo están haciendo bien.

Hoy en día cualquiera persona con un conocimiento básico de bases de datos puede hacer procesos de ETL con PDI. ¿Pero los hacen bien?, y con bien entendemos que se ejecute eficientemente utilizando los recursos disponibles. La experiencia dice que NO.

Por nuestra empresa han pasado decenas de personas que han tenido varios meses o años trabajando con Kettle y al ponerlos a desarrollar una prueba técnica muy básica, no son capaces de terminarlo. También hemos visto que muchas empresas con su equipos internos o consultores ofrecen sus servicios en Kettle y cuando empieza a enfrentar retos interesantes de volúmenes de datos, disparidad en orígenes o utilización de bases de datos “modernas” como Columnares, NoSQL o Hadoop, todo se complica y le terminan echando la culpa a la herramienta. Un tema común que encontramos en estos equipos es que nadie ha recibido una formación oficial en ETL o en el uso de Kettle. Todos han aprendido por sus propios medios, teniendo a los foros como guía principal.

Ronald Rojas, socio, líder técnico de la empresa y posiblemente una de las personas con mayor experiencia en el uso de Pentaho en la región, afirma con frecuencia que todos pueden usar Kettle, pero hoy en día son muy pocos lo que han aprendido a desarrollar procesos eficientes. La verdad es que ni siquiera existe una capacitación oficial sobre “entonación” u “optimización” en PDI.
Conclusión: Si eres usuario de Kettle (Pentaho Data Integration, PDI) no pierdas la oportunidad de capacitarte y orientar tu conocimiento no solo al uso de la herramienta sino a explotar bien todo su potencial.

—————————————

Puedes revisar la disponibilidad de cursos en http://www.pentaho.com/service/training, consulta nuestra página: www.matrixcpmsolutions.com o escribe a pentaho@matrixcpmsolutions.com para consultar sobre nuestra oferta de cursos.

Decálogo MATRIX para el desarrollo de proyectos de Inteligencia de Negocios

1. ¡Calidad, ciclo de vida y validación! Todo está en los datos

Las soluciones de Inteligencia de Negocios parten en los datos. Es imprescindible entender cómo, cuándo y dónde se generan los datos ya que provienen de distintas fuentes, gestionadas y ubicadas en diferentes aplicaciones y repositorios. Al hacer esto, por lo general aparecen inconsistencias en los datos, lo que nos obliga a recordar estas afirmaciones: “Si lees basura, sale basura” y, “Siempre hay basura”. Como consecuencia, es preciso validar, validar y validar los datos fuentes en los repositorios y en los cubos hasta asegurar resultados correctos.

2. Participación activa de los usuarios del negocio

El objetivo final de un proyecto de Inteligencia de Negocios es proveer información valiosa a los actores del negocio. Por tanto, estos deben participar activamente en la conceptualización, diseño y certificación de la solución. Cuando el usuario participa y se involucra en el desarrollo del proyecto es capaz de hacer análisis con el modelo y la herramienta igual o mejor que el desarrollador y/o consultor.

3. Entender el negocio y los procesos

Debe tenerse una visión completa del negocio y sus procesos, llegar a entenderlo como usuarios finales (terminología, cálculos, flujo de datos y procesos, indicadores clave de desempeño, etc.). Esto permitirá aclarar el panorama del proyecto y garantizará resultados óptimos.

4. Definir estándares de desarrollo

Definir los estándares de desarrollo es una actividad primordial. En este punto, el equipo deberá plantearse cómo definir:
– Nombre del modelo, de las dimensiones (en singular, por el elemento más granular) y de las medidas
– Nombre de campos, tablas, vistas, funciones y otros objetos del repositorio de datos
– Ubicación de archivos ETL, cubos, parámetros, etc.
– Procesos Extracción, Transformación y Carga (ETL)
– Estrategia de sustitución de caracteres especiales (áóñ&%$#@)

5. El Modelo de datos debe dar respuestas a las interrogantes del negocio

Se debe trabajar en un diseño que garantice cubrir las necesidades y requerimientos de los usuarios. Definir el esquema de la base de datos apropiado (estrella, copo de nieve o big table), las dimensiones y métricas, las jerarquías, los atributos, su granularidad, la frecuencia, el periodo de lectura, el uso de elementos dummy y todo aquello que permita visualizar de forma correcta los requerimientos del usuario. Es importarse preguntarse: ¿El modelo da respuestas a todas las interrogantes de los usuarios?

6. Metodología de desarrollo de ciclos cortos e incrementales

Es recomendable apegarse desde el inicio a una metodología de diseño incremental por prototipos (ej. SCRUM). A través de este tipo de metodologías, se podrán realizar entregas y vistas analíticas relevantes en períodos cortos del tiempo del proyecto. Esto permitirá acelerar la disponibilidad de la información y trabajar de forma iterativa con los usuarios, suministrando entregas funcionales concertadas. Al momento de ofertar o inclusive, de iniciar un proyecto, se recomienda definir, acotar y desarrollar una parte especifica en tiempo breve para que las partes interesadas tengan una visión clara de las características del desarrollo y de su alcance.

7. Claridad en la distribución de la información

Si la definición del modelo datos es importante para garantizar la efectividad y desempeño de la solución, no menos importante es definir la estrategia para distribuir los resultados de la información. Es vital conocer cómo se va a representar y distribuir la información y el uso de: reportes fijos, reportes dinámicos, vistas de cubos, paneles de control, mapas y portales. Cada usuario de acuerdo a su rol, debe acceder lo que necesita para cubrir sus requerimientos usando las distintas opciones antes mencionadas en la capa de visualización.

8. Pensar en el mañana y tomar en cuenta el mantenimiento después del pase a producción

Aunque los proyectos requieran siempre resultados inmediatos, se debe reflexionar sobre la adaptabilidad de la solución a futuras modificaciones. El negocio se encuentra siempre bajo un ambiente de cambios, por lo que un sistema de Inteligencia de Negocios solo se mantendrá a lo largo del tiempo si el modelo es simple y fácil de mantener.

9. Conocer las bondades de la herramienta a utilizar

Se deben conocer las prestaciones y limitantes del habilitador tecnológico a utilizar, así como también las diferentes opciones que éste ofrece para lograr el mismo resultado. Se debe dar siempre la mejor opción al usuario sobre sus requerimientos. De igual manera, es menester que el usuario final comprenda y conozca las características de la herramienta y su alcance para no crearse falsas expectativas.

10. Agregar Valor

En todo desarrollo, el cliente tiene una visión sobre qué es lo que quiere y cómo lo quiere. El consultor y su equipo intercambiarán ideas y conocimientos para agregar valor a cada elemento desarrollado. En otras palabras; suministrarle al usuario final más de lo que esperado sin incurrir en costos adicionales ni en variaciones del proyecto.

Decálogo BI MATRIX

Análisis predictivo

     La razón de su uso estaría en las grandes ventajas que ofrece a las organizaciones, muchas de ellas vinculadas a las posibilidades de contribuir de forma importante a la toma de decisiones estratégicas de marketing.

¿Qué es el análisis predictivo?

Son el conjunto de algoritmos matemáticos, técnicas estadísticas, minería de datos, Big Data que nos permiten mediante el análisis de datos actuales realizar predicciones sobre eventos futuros.

Un análisis que se realiza través de la recopilación de datos estructurados como son por ejemplo la edad, el género, el estado civil, el nivel de ingresos, etc.; como los datos no estructurados que pueden ser los contenidos en redes sociales u otros tipos de textos.

Obtener información a partir de los datos, que puedan revelar tendencias futuras, así como la identificación por parte de las empresas de riesgos y oportunidades y que poner en práctica esta tecnología, es una de las prioridades para un 34% de las empresas a nivel mundial en los próximos dos años.

¿Cómo puede aplicarse en Marketing?

Las posibilidades de aplicación del análisis predictivo son enormes, desde predecir que clientes van a fugarse en una entidad financiera o predecir qué clientes pueden incrementar su cesta de productos ante una determinada oferta en un retail. O poder conocer cuánto dinero hay que invertir por soporte publicitario en una empresa de marketing u optimizar la demanda por tipo de revista y kiosco en una empresa de periódicos.

Pero además, lo primordial es entender cuál es el objetivo sobre el que se desea inferir una predicción, sin dejar de lado que este tipo de análisis tiene entre sus ventajas la posibilidad de simular escenarios “what – if”. Eventos simulados sobre los que se busca predecir los resultados bajo diferentes hipótesis, al poder cambiar datos, como por ejemplo conocer, cuantas ventas vamos a tener de un producto en función de la inversión, soporte y franja horaria que vamos a usar para un anuncio concreto.

Dentro de los análisis predictivos pueden aplicarse los propiamente predictivos, es decir, aquellos que detectan factores de riesgo y nuevas oportunidades de negocio, mediante el análisis de datos históricos y, sobretodo, actuales, en tiempo real, mientras se lleva acabo una determinada operación o proceso.

A los que se suman la posibilidad de aplicación de los modelos de descripción, para detectar relaciones entre servicios/productos y clientes (actuales o potenciales), para establecer relación de función entre ambas partes, con base en datos información sobre preferencias del consumidor.

También se puede acudir al uso de modelos orientados a la toma de decisión, mediante los cuales se usan los resultados de las operaciones de analítica predictiva para ponerlos a disposición de los responsables en la toma de decisiones corporativas.

Las operaciones que brinda la analítica predictiva son múltiples, tanto para grandes empresas como para pymes que deseen gestionar mejor sus inversiones en marketing y publicidad a través de esta herramienta, de tecnologías de la información, con la que ir más allá de las corazonadas y la experiencia.


Fuente: Merca 2.0 Por Valeria Murgich

Business Intelligence & Analytics y marketing

     Datos que pueden ser útiles cuando se trata de establecer una estrategia de marketing, siempre y cuando se logre una pertinente identificación, análisis y aplicación de los mismos para dar información que sea aplicable y pueda transformarse en acción.

     Para ello una de las herramientas con las que cuentan marcas y empresas es la Business Intelligence (BI) & Analytics. Después de todo, “quien tenga acceso a todos estos datos y sepa cómo interpretarlos correctamente, tendrá una gran ventaja con respecto a la competencia.

    La conjunción entre Business Intelligence y marketing permite a los profesionales que acuden a ellas.

A nivel mundial, el uso de Business Intelligence & Analytics es tal que alcanzará los 16,900 millones de dólares en 2016, lo que representa un incremento del 5.2 por ciento con respecto al año pasado.

Los Perfiles Mas Solicitados

      Este reconocimiento por parte de las empresas sobre la importancia que tiene el uso de las herramientas de Business Intelligence para poder dar respuesta a la necesidad de más información sobre los clientes y usuarios que permita personalizar las campañas u ofertas, ha llevado a que los perfiles profesionales relacionados con el manejo de data, se encuentren entre los más solicitados en marketing online.

    Así lo muestra un análisis llevado a cabo por Digilant tomando como base su experiencia en mercados como España, Reino Unido, México, Chile, Colombia, Italia y Perú y en el que los perfiles con mayor demanda serían los de Chief Data Officer (CDO), Chief Analytical Officer (CAO) y Data Scientist.

    La productiva relación entre los profesionales de la data y el marketing “en definitiva, se trata de extraer en tiempo real y accionable a partir del Big Data para ayudar a las marcas a tomar mejores decisiones de negocio y que afecten positivamente a su ROI.”


Fuente: Merca 2.0 Por Valeria Murgich

¿Que hace a Tableau tan exitoso?

     En Matrix CPM Solutions tenemos ya más de 2 años ofreciendo Tableau a nuestros clientes. Yo en lo personal he tenido la oportunidad de trabajar con cerca de 10 distintas herramientas de BI a lo largo de mis mas de 20 años dedicado exclusivamente a este tema, y he logrado ver y experimentar cuando una herramienta se destaca en algo por encima de la demás. En mis ultimas presentaciones he insistido que el Éxito de Tableau está en su capacidad de adopción dentro de las empresas.

Los proyectos de BI siempre han tenido un Ìndice de fracaso muy alto y aunque los factores son “multidimensionales” (no cumple con las expectativas, no se terminó, se entregó muy tarde o simplemente cambiaron las fuentes o requerimientos y se hizo imposible actualizarlo) el resultado final es que la inversión realizada en el software se pierde por completo y la empresa entra en pánico o shock al pensar de nuevo que tiene que empezar un nuevo proyecto de BI, posiblemente con otra herramienta.

Cuando hablo de adopción, es que a pesar de que cualquier de estos factores ocurran, el usuario que haya utilizado Tableau, va a intentar seguir utilizándolo, porque no depende del todo del área de TI para poder utilizarlo, sino que el mismo es capaz de hacer grandes visualizaciones con los datos que estén a su disposición. A los usuarios de Tableau, les duele dejar de utilizar Tableau.

Los Datos De Tableau: ¿Data Warehouse?, ¿En Vivo?, ¿Extracto? 

En nuestras actividades de preventa y presentaciones de Tableau siempre surge la pregunta:

¿Y el datawarehouse? 

La verdad, hay una concepción conservadora respecto a dónde residirán los datos que las organizaciones necesitan analizar. Tradicionalmente, los datos han sido movidos desde los sistemas transaccionales hasta bases donde los datos se estructuran para analizarlos (Data Warehouse). Este tipo de modelos persiguen tres objetivos: 1) integrar datos heterogéneos que puedan provenir de diferentes fuentes, 2) aislar los datos del manejador transaccional para no degradar su desempeño y 3) estructurar los datos de manera adecuada para su análisis. Para el transporte de los datos de una base de datos a la otra se utiliza una herramienta de extracción, transformación y carga de datos o ETL por sus siglas en inglés:

captura-de-pantalla-2016-10-23-15-00-58

 Por su parte, Tableau permite la conexión directa a diferentes fuentes de datos e incluso la combinación de datos entre estas diversas fuentes a través de su funcionalidad de “data blending”, esto se puede hacerse en modalidad de conexión en vivo o, a través de un extracto, resultante de la copia de datos que hace Tableau desde las fuentes a una estructura de datos local. Este extracto ofrece la importante ventaja de ser un arreglo óptimo para la consulta y análisis (véase: formato columnar) y que cuantiosas cantidades de registros, puedan copiarse a archivos locales de extractos comprimidos que ocupan muy poco espacio:

captura-de-pantalla-2016-10-23-15-01-10

En algunas implantaciones es aún requerido el desarrollo de ETLs para poder consolidar los datos a analizar, esto debido a la complejidad de las fuentes, reglas de negocio más elaboradas o necesidades particulares de planificiación para la lectura, transformación y carga de los datos. En este caso, el data warehouse será la fuente de datos principal de Tableau y por supuesto, podemos seguir tomando ventaja del extracto que nos povee alto rendimiento y data offline:

captura-de-pantalla-2016-10-23-15-01-21

Cuando el volumen de datos que maneja la organización es muy elevado, se hace necesaria la incoporación de una base de datos columnar (analítica) en la arquitectura de la solución. Esto optimiza la estructura de datos a nivel de servidor y mejora el rendimiento de Tableau. En este caso, la conexión de Tableau será en vivo hacia la base de datos analítica porque allí ya se encuentran los datos en formato columnar, sin embargo, aun es opción el tomar el extracto de datos si se desea disponer de estos tras la desconexión de la fuente (data offline):

captura-de-pantalla-2016-10-23-15-01-35

¿Y Tableau Server? 

¡Claro!, la buena noticia es que todos estos escenarios aplican a Tableau Server. Tanto las conexiones en vivo como por extracto pueden funcionar para las diferentes visualizaciones y contenidos, con lo cual se abre una interesante gama de opciones, por cierto no necesariamente excluyentes. El negocio podría contar en algunos casos con visualizaciones Tableau conectadas en vivo porque desean ver el comportamiento de la organización en tiempo real y en otros casos con fuentes de datos ya estructuradas para el análisis que provean mejor rendimiento y mayores capacidades en término de volumen de datos manejado

El siguiente gráfico presenta cuatro escenarios que pueden ser válidos en su organización. Todo dependerá del modelo de datos que desee analizar y de consideraciones esenciales como el volumen de sus datos y el balance entre las necesidades del negocio y el desempeño óptimo de su solución de inteligencia de negocios:

captura-de-pantalla-2016-10-23-15-02-06

El siguiente flujograma presenta una guía práctica de cómo decidir cuál es el escenario óptimo para cada uno de los modelos de datos que la organización requiera analizar. Evidentemente,existirán casos que ameriten consideraciones especiales, pero en términos generales le permitirá entender sus alternativas y aprovechar las ventajas de Tableau:

captura-de-pantalla-2016-10-23-15-02-25

Recuerde, lo más importante para que pueda dar el salto al mundo de la inteligencia empresarial es aprovechar las innovadoras y poderosas ventajas de tecnologías actuales como la de Tableau y empezar ahora mismo.

Deje de pelear con sus datos y analícelos de una vez.

Novedades en Tableau 10, la Herramienta de Visualización de Datos

     Cada vez que Tableau lanza una nueva versión, aunque sea en pruebas, la gran comunidad en torno a esta herramienta de visualización de datos complejos hace retumbar el sonajero de la promoción. Tableau 10 es la última edición de una herramienta bien valorada.

No solo está bien considerada por sus usuarios, ya sean periodistas o analistas, y bien promocionada por los conocidos como Tableau Zen Master, sino que gran parte de las consultoras de medio mundo emiten informes muy positivos de Tableau en comparación con otras herramientas de inteligencia de negocio. Gartner publica anualmente un cuadrante con los líderes del sector, un informe que ellos llaman el ‘Cuadrante Mágico para las Plataformas de Inteligencia de Negocio y Analítica’, que este febrero de 2016 vuelve a colocar a Tableau entre las mejores opciones del mercado junto a las soluciones de Microsoft, Qlik o Alteryx.

Fruto de su enorme éxito es la evolución casi constante de la propia herramienta. Rara vez hace caso omiso a las peticiones de la comunidad, realmente involucrada en la mejora de la plataforma, y siempre implementa mejoras que generan valor y perpetúan el uso por parte de los usuarios, tanto de pago como la versión libre (en este caso conocida como Tableau Public).

La versión 10, que incluye algunas cuestiones interesantes para sus usuarios:

1.     Tableau responsive para dispositivos móviles Android

Si existía alguna petición de los usuarios de Tableau, esa era sin duda la adaptación sencilla de los paneles a los dispositivos móviles. Tableau se había convertido en una herramienta de cuadros de mando bastante útil para su visionado en escritorio, pero cuando esas consultas se realizaban desde teléfonos móviles la experiencia de usuario era bastante negativa.

Por ahora Tableau permite una adaptación responsive de los cuadros de mando para los dispositivos móviles que utilizan sistema operativo Android (Google). Con esta versión los usuarios pueden compartir sus visualizaciones de datos en cualquier tipo de pantalla, ya que personaliza y publica los cuadros de inteligencia de negocio optimizados tanto para escritorio, como para tabletas o teléfonos móviles.

2. Control de versiones en los libros de trabajo

Tableau 10 ha incorporado una nueva funcionalidad que puede resultar realmente útil cuando se tratan con grandes volúmenes de datos. Es algo similar a cualquier sistema de control de versiones, como que el que pueden utilizar los sistemas de gestión de contenidos (CMS). A día de hoy, cualquier usuario de Tableau 10 puede volver a una versión anterior de sus libros de trabajo a través del Tableau Server. Con la versión 10, los libros de trabajo se pueden restaurar directamente, sin necesidad de tener que descargar y publicar los datos de nuevo. Un avance que aporta facilidad.

Además, el usuario de Tableau 10 tiene la ventaja de que antes de restaurar una versión anterior de su cuadro de mandos, tiene la opción de previsualizarla para escoger la versión exacta que quiere publicar. En ese flujo de trabajo, el usuario puede incluso abrir varias versiones previas a la vez en distintas pestañas. Tableau ofrece la opción de que los usuarios puedan limitar desde la configuración del propio Tableau Server el número de revisiones por libro que se puede permitir.

3. Mejoras en la API de JavaScript

Tableau ha decidido introducir mejora en la API REST de JavaScript, un movimiento esencial si quiere extender sus tentáculos y ofrecer todo tipo de oportunidades a usuarios y desarrolladores que quieren integrar Tableau con otros servicios. Además, la propia interfaz de usuario de aplicaciones tiene mejoras en las llamadas que podemos hacer a la API para obtener datos para nuestras visualización. En concreto, una de los avances más importantes la posibilidad de filtrar y ordenar.

Para extraer un dato concreto en las versiones anteriores de Tableau era necesario hacer una petición GET a la API REST e iterar con todos y cada uno de esos datos para encontrar una aguja en un pajar. Ahora ese flujo de trabajo ha quedado atrás. Se automatiza el proceso de la búsqueda final: primero se hace una petición GET a la API REST y después se aplica un filtro para hallar el dato, sin ir uno a uno. El filtro en cuestión sería algo parecido a esto, con la idea de obtener la información de un usuario llamado, por ejemplo, juan: /users?filter=name:eq:juan.

4. Filtrar a la vez en varios conjuntos de datos

Esta característica parece una tontería, pero cuando estás haciendo visualizaciones de datos, tener la capacidad de usar un único filtro para dos gráficos distintos con dos tablas de datos diferentes puede ser una maravilla. Única condición en Tableau 10: que el campo por el que queramos filtrar en ambas visualizaciones se llame igual en las dos tablas de datos. Una condición lógica.

5. Punto extra de novedades en Tableau 10

Los cuatro puntos anteriores no resumen del todo las nuevas funcionalidades que Tableau ha decidido incorporar a su nueva versión recién estrenada. Hay más:

- Incluye una nueva tipografía especial para facilitar la compresión de las visualizaciones de datos. Su creador es el conocido Tobias Frere-Jones, un diseñador que ya tiene más de 700 tipos a su nombre.

Tableros por tipo de dispositivos: con Tableau 10 los usuarios pueden compartir sus libro de trabajo escogiendo el tipo de pantallas según el dispositivo en el que lo quieran hacer: móviles, tabletas o escritorio.

Creación de regiones personalizadas: ahora es posible seleccionar con el cursor una región concreta dentro de una visualización tipo mapa y después eliminar el campo geográfico original para mantener esa selección propia.


Fuente: BBVAOpen4U

Inteligencia de Negocios: El Secreto Está en los Datos

     La gran cantidad de datos a los que las empresas tienen acceso hoy en día para tomar mejores decisiones y crear nuevos servicios ha ampliado el alcance y funcionalidad de todo tipo de aplicaciones. Acceda a este recurso y maximice el rendimiento de su negocio usando toda la información a su disposición.

En una compañía, la información crece de forma constante, por eso, si lo que se busca es garantizar la competitividad de la empresa, se necesitan herramientas que integren y recopilen datos e incorporen todos los cambios corporativos al instante. Si los usuarios tienen acceso a múltiples fuentes de datos, a menudo tienen problemas para localizar la información o se sienten abrumados por el exceso de éstos. Por lo tanto, para evitar que esto ocurra, se deben usar herramientas de BI para la elaboración de informes y análisis que aporten información actualizada en un formato apropiado que apoye el proceso de toma de decisiones.

El análisis de datos es hoy una herramienta clave para, además de comprender y predecir el comportamiento de los clientes, saber cuándo será su próxima compra o qué comienza a cambiar al momento de contratar servicios o comprar productos.

        Las soluciones de Business Intelligence permiten a las empresas extraer el conocimiento acumulado en sus plataformas comerciales y de operaciones, mediante la agrupación, integración y correlación de los datos que se han ido recolectando con diferentes propósitos dentro de la organización. Agrega que estas soluciones elevan el nivel de abstracción de la información y permiten utilizarla para la toma de decisiones estratégicas o tácticas, y no solo para fines operativos. “Las decisiones tomadas a partir de toda la información integrada de la empresa, si están fundadas en datos confiables que se procesan de manera oportuna, es probable que se traduzcan en un mejor desarrollo del negocio integral. Si bien estos datos son especialmente valiosos para la alta plana ejecutiva, todos los niveles jerárquicos pueden verse beneficiados con la implementación de una solución de BI, ya que cada uno, dentro de su nivel de responsabilidad, debe tomar decisiones que contribuyen al desempeño global”, explica Osiniri.

Hoy la información relevante para una organización puede provenir de diversas y múltiples fuentes. “Está la información que la misma organización produce a nivel interno a través de sus empleados; la que genera su entorno, como asociados, proveedores,  colaboradores externos y mercado en general;  y la de sus clientes, por mencionar las más importantes.  Para ser útil, esa información no solo tiene que guardarse, sino también controlarse, analizarse, procesarse y gestionarse, de acuerdo a los requerimientos y objetivos del negocio. La información por sí misma no sirve, por lo tanto, es fundamental encontrar su utilidad de la manera más eficaz posible. Y para ello es la inteligencia de negocios. La información, si es bien gestionada,  puede acarrear  importantes ventajas competitivas. Entre ellas, el mejoramiento de la eficiencia y administración o gestión corporativa, la reducción de costos operacionales y de producción, la toma de decisiones y la seguridad”.

“A pesar de disponer de sofisticadas infraestructuras informáticas, muchas empresas no localizan la información cuando la necesitan, porque carecen de una solución de Business Intelligence que ofrezca acceso a los datos, en cualquier momento y en cualquier lugar, y que a la vez permita filtrarlos, analizarlos y publicarlos. Una solución de estas características debe permitir fusionar en un único informe datos de múltiples fuentes y transformarlos en información valiosa de manera rápida. La aplicación de Business Intelligence permite identificar al instante los retos que enfrentan las empresas, accediendo a información actualizada, lo que finalmente logra que una empresa sea más competitiva al reaccionar con mayor rapidez y confianza ante los cambios”.

¿Cuáles son hoy las soluciones de Business Intelligence de mayor uso?

Los expertos señalan que hay que hacer una diferencia entre las herramientas que se usan para inteligencia de negocios y las plataformas. Las primeras se usan generalmente cuando hay muchos usuarios de diversos niveles de habilidad técnica con requerimientos de reportes y vistas que son menos analíticos, pues son estándar. Las segundas, en tanto, se utilizan en casos de análisis mucho más complejos, como la rentabilidad de un producto, o cuando es necesario desarrollar aplicaciones amigables para usuarios ocasionales.

En cuanto a las soluciones más usadas, éstas dicen relación con las que permiten  realizar reportes empresariales; cubos de análisis; vistas Ad Hoc Query y análisis, como  herramientas OLAP relacionales que son usadas para permitir a los expertos visualizar la base de datos y ver cualquier respuesta y convertirla en información transaccional de bajo nivel. También las que posibilitan el data mining y análisis estadísticos, así como la entrega de reportes y alertas.

Mientras tanto, Osiniri de SONDA, advierte que si bien en Chile, las empresas grandes y algunas medianas han venido haciendo uso de estas soluciones desde hace bastante tiempo, en términos proporcionales su uso aún no está muy extendido, y en general solo se han usado para problemas de gestión departamentales. “Todavía muchas empresas usan planillas y reportes desarrollados a la medida para resolver problemas más bien básicos, a pesar de que en el mundo cada día crece más el uso de herramientas específicas de clase mundial para la explotación de los datos y la visualización de la información procesada, como QlikView, Tableau, Business Objects, Cognos, entre otras”, dice.

El ejecutivo agrega que “debemos recordar también, que BI abarca muchas soluciones específicas de nicho como por ejemplo: Planificación estratégica, Consolidación financiera, Data MiningBroadcasting, Sistemas de gestión de cumplimiento de normativas (SOX, ISO, etc).  En Chile hay poca adopción en general de este tipo de soluciones, las cuales se encuentran principalmente en las grandes empresas, aunque algunas de ellas podrían ser aprovechadas por todo tipo de empresas”.

Son diversas las herramientas que actualmente ofrece el mercado, cada una con sus grados de complejidad y dirigidas a los distintos tipos de organizaciones. Sin embargo, toman fuerza soluciones de reportes a través de modelos multi-dimensionales, sistemas de elaboración y mediciones de KPI (Key Performance Indicator), modelos de gestión del desempeño, entre otros. Todos permiten finalmente asociar cada proceso operativo de una empresa a los objetivos estratégicos del negocio, llegando a manejar de manera diferenciada un gran volumen de datos, convirtiendo a cada herramienta por si sola y en conjunto en un requisito fundamental para operar adecuadamente y estar a la altura de un mercado cada vez más exigente.

Recomendaciones y consejos al momento de evaluar e implementar soluciones de analítica de datos

Claudio Gómez Barrenechea, gerente comercial In Motion-T1G, nos señala que cuando una organización requiere implementar un modelo de Business Intelligence lo primero que debe tener claro es su estrategia de negocios y a partir de ello incorporar tecnologías y recursos humanos con conocimiento que permitan sacar provecho al uso de BI.

En lo relacionado con la tecnología recomendamos analizar con mayor detalle el uso de Business Intelligence en la Nube, ya que el ahorro para una organización en el tiempo es considerable y las facilidades de uso son mayores. Para el proceso de evaluación de una solución en particular es recomendable asesorarse por expertos y considerar realizar un RFP (Request For Proposal), que es un documento que contiene las bases y premisas para que los proveedores preseleccionados realicen sus propuestas técnicas, funcionales, de proyecto y económicas.

La diferencia en unos años será muy grande entre quienes hayan implementado estas soluciones y quienes no, porque con ellas surge un nuevo paradigma para el desarrollo del negocio y gestión. Por eso es importante que todas las organizaciones, grandes, medianas o pequeñas, piensen de qué manera la digitación de su negocio puede potenciarlo, cambiarlo o reconvertirlo en un nuevo emprendimiento. Una vez comprendido esto, habrá un nuevo mundo delante de sus ojos.

Siguiendo con las recomendaciones, Padrao, de Infor, hace hincapié en preferir un software de primer nivel con alcance global y tecnología de punta: “Que además tenga presencia local, para poder adoptar de mejor forma las necesidades de cada cliente. Y que cuente con experiencia en otras empresas similares, de modo de tener referencias sobre su funcionamiento”.

Es decir, extraer datos a todos los procesos de negocio para impulsar una nueva forma de tomar decisiones. También implementar una plataforma completa que permita integrar datos de dentro, fuera y de todo tipo (estructurados, semi estructurados y no estructurados). Que agilice la colaboración entre áreas con una visualización integral del negocio. Y que sea abierta e híbrida (cloud y on premises). Además, trabajar proactivamente para procurar la seguridad de los datos, y entregar a los usuarios de negocio la flexibilidad que requieren, pero manteniendo un control y governance adecuado, de forma de mantener una confiabilidad en los datos y mantener una única versión de la verdad.

Los expertos enfatizan que no debe olvidarse lo más básico, que es que Business Intelligencees un concepto basado en soluciones, cuyo objetivo es mejorar el proceso de toma de decisiones. Si bien está apoyado y apalancado por herramientas tecnológicas, el foco del concepto está en aumentar el entendimiento del negocio, para mejorarlo.

Las herramientas basan sus beneficios en el uso intensivo y extensivo de los datos disponibles (internos y externos) de la organización. Por lo tanto, la calidad original de los datos es crucial al momento de lograr generar información relevante para el negocio. Si se dispone de una buena fuente de datos, entonces es más simple realizar un conjunto de actividades de procesamiento y generación de información relevante para el negocio (extracción, transformación, integración, agrupación, correlación de variables, análisis de tendencias o detección de patrones).

Así, tanto las herramientas que se seleccionen como los expertos que se contraten tendrán un impacto relevante en los resultados de todo el proceso, por lo que ésta debe ser una decisión elaborada, la que se debe tomar considerando que el ciclo de vida de estas soluciones es largo, y que la empresa que se contrate para entregar servicios de consultoría y soporte debe ser confiable, sólida y persistente en el tiempo.

la tecnología es un habilitador, por lo cual, la gran diferencia radicará en que las empresas puedan escoger de forma muy certera a los profesionales adecuados, por su conocimiento y experiencia en este tipo de temas. El profesional orientará en la elección del mejor camino a tomar y del plan de iniciativas de analítica que contribuya con los objetivos de la empresa. Lo importante, entonces, es el factor humano, el conocimiento y la metodología de implementación, más que la tecnología en sí, ya que, la tecnología es sólo un habilitador.


Fuente: TechTarget

¿Que Pasa Con La Integración de Datos en la Empresas?

     Hace unas semanas tuve la oportunidad de reunirme con los socios de la empresa y revisando entre números y proyectos regionales, llegamos a la conclusión que cerca del 70% de los proyectos activos, estaba relacionado con requerimientos y necesidades de integración de Datos de nuestros clientes. Entonces, porque cuando mas esfuerzo están haciendo los software de BI en mejorar sus capacidades de visualización, nos llegan tantas oportunidades en la integración y preparación de Datos?. Estas son mis suposiciones:

- A pesar de tener que manejar solamente datos estructurados, la cantidad de los mismos está sobrepasando a los manejadores tradicionales de Bases de Datos y las empresas están adoptando las Bases de Datos Columnares como repositorio para sus consultas y análisis.
– Algunas empresas están experimentado con datos no estructurados y no saben como incorporarlos a sus procesos analÌticos.
– Las soluciones en la nube que se comercializan como SaaS cada vez son más populares y se necesita integrar sus datos con las aplicaciones tradicionales de la empresa
– A pesar de los esfuerzos que se han realizado para tener todo lo que se necesita en los ERP, muchas empresas tienen una variedad alta de fuentes de datos que aún no logran integrar.
– Es posible que el uso de herramientas avanzadas de visualización estén permitiendo a las empresas entender los vacíos o necesidades que tienen en la integración de datos y esto hace que se impulsen estos requerimientos.

¿Están sus empresas dentro de estas suposiciones?

La analítica predictiva en el sector salud

La industria de la salud es uno de los sectores de mayor impacto estimado de análisis de datos y analítica predictiva, sin embargo, contrario a las predicciones el desarrollo ha sido más lento a lo esperado.

Los expertos opinan que parte de esto se debe a la dificultad de recolectar los datos en formatos de historias digitales, y cuando existen en las dificultades relacionadas con el manejo de esta información, sea por limitaciones legales o de privacidad, sea porque forman parte de esquemas propietarios y cerrados de recolección de información.

En cualquier caso, cuando existen los resultados del uso intensivo de analítica predictiva han sido muy exitosos. En la clínica CrescentCare dirigida al tratamiento de HIV y SIDA en Nueva Orleans  EEUU, el uso de la información contenida en bases de datos (SQL) les ha permitido definir indicadores de riesgo de los pacientes, que actualizados de manera diaria, permiten definir políticas de atención de pacientes y orientar de manera eficiente el uso de recursos humanos, recomendaciones de hospitalización o proyectar tratamientos especializados.

Otro ejemplo lo constituye el uso de información de atención médica, hospitalizaciones, cpm_03laboratorios y productos farmacéuticos de pacientes de una gran empresa estatal latinoamericana. El análisis de estos datos (en curso) ha permitido detectar pacientes “en riesgo” o “complejos” y diseñar estrategias adecuadas para tratar con casos crónicos de manera más efectiva, asegurando el mejoramiento en la calidad de vida de los pacientes así como un uso más eficiente de los recursos. El análisis ha permitido, por otro lado, la detección de uso fraudulento de los recursos disponibles mejorando la distribución de gastos.

Pero quizás los ejemplos más notables lo constituyen los ejemplos de aplicaciones que incluyen el manejo integrado y estandarizado de información de conglomerados de hospitales, clínicas, laboratorios lo cual implica  un esfuerzo importante de puesta en marcha de criterios unificados de tratamiento de la información. En el centro para Servicios de Información en Salud en Illinois, EEUU, que integra 12 hospitales las ventajas justifican con creces los esfuerzos: donde antes cada proyecto de análisis de datos se realizaba de manera independiente buscando datos de los registros, ahora se pueden integrar la información en una misma plataforma. Por otro lado el manejo integrado permite diseñar estrategias más adecuadas de atención a pacientes incluyendo traslados o uso de recursos compartidos.

Las posibilidades del uso de herramientas de analítica predictiva en la gestión de salud  son casi infinitas y representan un gran reto sobre todo en sistemas más precarios donde el manejo eficiente de recursos humanos, hospitalarios,  clínicos y farmacéuticos puede significar el acceso a un sistema de salud  de  primera calidad reduciendo los costos globales. Ojalá veamos este tipo de soluciones en el futuro cercano.