Archivo de la categoría: datos

Qué es un KPI y como se puede usar para mejorar el rendimiento de una organización

¿Cómo puede usarse para mejorar el rendimiento de una organización?

Con el advenimiento de las nuevas tecnologías han surgido diversas métricas para evaluar el comportamiento de las organizaciones, algunas de estas métricas son de aplicación general y otras pueden ser especificas dependiendo del tipo de organización que se trate: ya sea que esté dedicada a procesos de transformación, que preste servicios, se dedique a la agricultura, sea una empresa del sector bancario, etc.

A esta serie de métricas se les conoce como KPI’s, pero ¿qué es un KPI?

Un KPI es una medida o indicador que ayuda a una organización a entender qué tan bien está respecto con sus metas y objetivos estratégicos definidos. Es decir, un KPI muestra si una organización va en el camino correcto o no.

Los KPI’s también ayudan a reducir la complejidad del desempeño organizativo a un número pequeño y manejable de indicadores -estos indicadores ofrecen información que puede, a su vez, ayudar a la toma de decisiones y, por ende, mejorar el rendimiento de dicha organización-.

Ahora bien, ¿qué se debe tomar en cuenta para definir estos KPI’s?

Objetivo estratégico

Al definir un KPI siempre es mejor especificar claramente a qué objetivo estratégico se relaciona, de modo que todos los que miren dicho KPI de inmediato aprecien su relevancia y su aplicación dentro del entorno de la organización.

Ejemplo: Nivel de satisfacción del cliente, nivel de mermas, etc.

Audiencia y acceso

Los KPI’s no son para todos, hay que definir su audiencia principal: para quién es esta información, quién tendrá acceso a ella y a que área aplica, con esto podremos realizar tableros de indicadores (Dashboards) definidos para cierto tipo de auditorios.

Ejemplo: Directivos, personal de las áreas productivas, de áreas de RRHH o de ventas.

Preguntas clave de rendimiento

Se deben indicar las preguntas clave de rendimiento que el indicador está ayudando a responder. Esto ayuda a proporcionar un contexto sobre por qué se está introduciendo este KPI en particular y sobre qué tema específico arrojará más luz.

Ejemplo: ¿En qué medida nuestros clientes actuales están satisfechos con nuestro servicio?

Cómo se usará este indicador

Hay que especificar cómo se usará el KPI para que todos tengan claro de qué forma se piensa utilizar la información. También será necesario definir cómo no será usado dicho KPI ya que, a veces, las personas tienen miedo de informar sobre las medidas porque temen que los resultados negativos puedan usarse contra de ellos. Aquí, se puede informar que el KPI no se usará para determinar el rendimiento de las personas y no se vinculará al pago de la bonificación.

Ejemplo: El indicador se usará para evaluar e informar internamente sobre el éxito de nuestros clientes. No se usará para evaluar el desempeño de las personas o para determinar los pagos de bonos.

Nombre del indicador

Cada KPI necesita un nombre para que se pueda debatir colectivamente y tenga un significado único dentro de la organización, en la medida de lo posible se deben evitar nombres que se presten a confusión y puedan interpretar otras métricas, por lo que hay que elegir un nombre que explique claramente de qué se trata.

Ejemplo: Puntaje neto del promotor

Método de recolección de datos

Se debe identificar y describir el método de recopilación de datos que se va a utilizar para cada KPI. Los métodos de recopilación de datos pueden incluir encuestas, cuestionarios, entrevistas, recolección de datos de sensores, grupos focales, recolección automática de datos de sistemas informáticos, así como la recopilación de datos desde archivos de diversos formatos (Texto, Excel, etc).

Ejemplo: los datos se recopilarán mediante una encuesta por correo.

Criterios de evaluación / fórmula / escala

Se deben describir cómo se determinarán los niveles de rendimiento. Esto puede ser cualitativo, en cuyo caso los criterios de evaluación deben ser identificados, puede ser numérico o usar una escala, en cuyo caso se debe identificar la fórmula o escalas con categorías.

Ejemplo: Usando una escala de 0-10 (No es probable – es extremadamente probable), los participantes responderán: ¿Cuán probable es que nos recomiende un amigo?

Objetivos y umbrales de rendimiento

Es recomendable definir un objetivo o punto de referencia para cada indicador. Aquí también se pueden delinear los umbrales de rendimiento, es decir, en cuanto al rendimiento los niveles son juzgados como buenos o malos.

Ejemplo: Indicador de lealtad del cliente del 55% a fines de 2020.

Fuente de datos

Se debe especificar de dónde provienen los datos para que las personas que utilizan el KPI puedan tener la seguridad de su confiabilidad y validez.

Ejemplo: Encuesta de clientes existentes.

Frecuencia de recolección de datos

Hay que Indicar con qué frecuencia se recopilarán los datos del KPI y coordinar las fechas de recolección. Algunos KPI requieren datos que deben ser recogidos continuamente, otros especifican la recolección por hora, diaria, mensual, trimestral o anual. Asegurar que el horario lo permita y se tenga el tiempo suficiente para recopilar los datos, perseguir a las personas cuando sea necesario, analizarlas, agregarlas, resolver cualquier problema y entregar el informe sin dejar de garantizar que los datos que contiene sean lo más recientes posible.

Ejemplo: Recopilación mensual de datos de una muestra del 10% de nuestra base de datos de clientes.

Frecuencia de informes de datos

Se debe especificar cuándo y con qué frecuencia se informarán los datos para el KPI. Con que frecuencia tiene sentido coordinar la recopilación de datos y la generación de informes para garantizar que los datos que se están informando sean tan actualizados como sea posible. ¡No quiera terminar en una situación donde los datos se recopilan en enero y se informan al final del año!

Ejemplo: Informes mensuales.

Entrada de datos (persona responsable)

Es recomendable también especificar el título individual o de trabajo de la persona responsable de la recopilación de datos y las actualizaciones de los mismos. El propietario del KPI puede ser un empleado designado, una función comercial u operacional o una agencia externa.

Ejemplo: Rodrigo Gómez, Asistente de Marketing.

Vencimiento / fecha de revisión

Siempre se debe incluir una fecha de vencimiento o una fecha de revisión. Los KPI’s a veces sólo son necesarios durante un período de tiempo específico y sin una fecha de caducidad o revisión, estos KPI’s pueden continuar indefinidamente, lo que causa un trabajo innecesario. Incluso si los indicadores no son específicos del tiempo o del proyecto, se les debe asignar una fecha de revisión para garantizar que sigan siendo relevantes y útiles.

Ejemplo: En 12 meses.

¿Cuánto costará?

La medición y la recopilación de datos pueden ser costosas. Es importante estimar los costos para recolectar y monitorear un indicador y evaluar si los costos están justificados.

Ejemplo: Los costos son significativos, pero son más baratos que una encuesta tradicional de satisfacción del cliente.

¿Qué tan completo es este indicador?

Se debe evaluar brevemente qué tanto este indicador está ayudando a responder la pregunta clave de rendimiento asociada e identificar sus posibles limitaciones.

Ejemplo: Nos proporciona un buen número simple, pero los datos deberían completarse idealmente con clientes no estructurados retroalimentando sobre lo que es particularmente bueno y lo que podría mejorarse.

Posibles consecuencias no deseadas

Hay que describir brevemente cómo éste indicador podría influir en los comportamientos incorrectos o en cómo las personas pueden hacer trampa con este KPI.

Ejemplo: Las personas podrían influir en los clientes antes de realizar la encuesta o podrían seleccionar clientes que probablemente respondan de forma positiva.

Si ya se tienen KPI’s definidos en la organización hay que revisar si cumplen los puntos anteriores, si requieren ser ajustados o si es necesario adicionar algunos nuevos que sean construidos bajo dichas recomendaciones.

Hyper: Revolucione sus motores de datos

Hyper es la nueva tecnología de motor de datos en memoria de alto rendimiento de Tableau, diseñada para acelerar la ingesta de datos y el procesamiento analítico de consultas en conjuntos de datos grandes y complejos.

Hyper, la tecnología incluida en Tableau 10.5, optimiza la creación de extracciones, actualiza el rendimiento y admite conjuntos de datos aún más grandes. Esto le permitirá beneficiarse de velocidades de consultas cinco veces más rápidas y una velocidad de creación de extracciones hasta tres veces mayor. Como resultado, los clientes pueden crear las extracciones en función de las necesidades de su negocio, sin preocuparse por establecer limitaciones. Asimismo, para mantener a los clientes en el flujo de análisis, Hyper puede completar consultas sobre grandes conjuntos de datos en solo unos segundos. Gracias al rendimiento acelerado de las consultas, los dashboards complejos se abren con mayor rapidez, los filtros son más veloces y la incorporación de nuevos campos a las visualizaciones es casi instantánea. Hyper tiene sus orígenes en la Universidad Técnica de Múnich (TUM), en Alemania. Más tarde, Tableau adquirió la filial comercial e integró la tecnología al producto en menos de 18 meses.

Hyper también ayuda a los clientes a adaptar sus extracciones para un uso más amplio. Para ello, aprovecha los avances en procesadores de múltiples núcleos y la implementación de novedosas técnicas de paralelización de las cargas de trabajo. La tecnología Hyper constituye un rápido sistema en memoria diseñado para ejecutar cargas de trabajo transaccionales y analíticas sin afectar al rendimiento. Mediante el uso de técnicas de optimización de consultas innovadoras y un estado de almacenamiento en la misma columna para todas las cargas de trabajo, Hyper ayudará a acercar a los clientes a sus datos.

hyper1

Diseño exclusivo de Hyper

Durante la última década, los motores de datos en memoria y las tecnologías de análisis de bases de datos incorporaron distintas técnicas, como el muestreo y el resumen. Con ellas, lograron incrementar enormemente el rendimiento de las consultas. Sin embargo, estas mejoras de rendimiento tuvieron un costo. Muchos sistemas sacrificaron rendimiento de escritura (indispensable para la velocidad en la creación de extracciones y las actualizaciones) en pro de optimizar el rendimiento de la carga de análisis. Cuando la escritura es lenta, los datos pierden relevancia y se vuelven obsoletos. ¿Cuál fue el resultado? Se generó una desconexión entre las personas y los datos que estas deseaban analizar. La misión de Hyper es acercar los datos a las personas mediante una escritura y una carga de análisis veloces. En resumen, Hyper proporciona datos actualizados con rapidez. De ese modo, le permite analizar una vista más amplia y completa de sus datos.

Redefinición de la arquitectura de sistema: un estado para las transacciones y las consultas analíticas

Con Hyper, las transacciones y las consultas analíticas se procesan en el mismo almacén de columnas, sin necesidad de volver a procesar los datos después de su obtención e importación. Así, se reduce la cantidad de datos obsoletos y se minimiza la desconexión entre los sistemas especializados. La metodología exclusiva de Hyper admite la combinación de intensas cargas de trabajo de escritura y lectura en un mismo sistema. En consecuencia, se pueden crear extracciones con rapidez sin sacrificar el rendimiento de consulta. Se gana en todos los frentes.

hyper2

Una nueva metodología para la ejecución de consultas: generación de código dinámico

Hyper usa un novedoso modelo de ejecución de compilación JIT (Just-In-Time). Muchos otros sistemas usan modelos tradicionales de ejecución de consultas que no pueden aprovechar por completo el hardware moderno de varios núcleos. Por el contrario, Hyper optimiza y compila las consultas en código informático personalizado para hacer un uso más eficaz del hardware subyacente. Cuando Hyper recibe una consulta, crea un árbol, lo optimiza de manera lógica y, después, lo usa como modelo para generar el programa específico que se va a ejecutar. Como resultado, se optimiza el uso del hardware moderno para una ejecución de consultas más rápida.

hyper3

Mayor aprovechamiento del hardware: paralelización basada en fragmentos

Hyper fue diseñado desde cero para entornos grandes de varios núcleos. Este modelo de paralelización se basa en unidades de trabajo muy pequeñas (fragmentos). Estos fragmentos se asignan de manera eficaz a todos los núcleos disponibles y permiten a Hyper responder, con mayor precisión, ante las diferencias de velocidad de los núcleos. En consecuencia, el hardware se usa con mayor eficacia y el rendimiento es superior.

hyper4

Actualización del extracto a formato .hyper

En esta versión de Tableau (a partir de la 10.5), los nuevos extractos utilizan el formato .hyper en lugar del formato .tde.

Aunque existen muchas ventajas ya mencionadas en el uso de extractos .hyper, las ventajas principales son las siguientes:

  • Crear extracciones de mayor tamaño: las extracciones en formato .hyper pueden contener miles de millones de filas de datos. Como las extracciones .hyper admiten más datos, puede utilizar la versión de Tableau Desktop 10.5 para consolidar las extracciones .tde que anteriormente tenía que crear por separado.
  • Creación y actualización más rápida de extractos: mientras que Tableau siempre ha optimizado el rendimiento para la creación y actualización de extractos, esta versión admite la creación y actualización de extractos para conjuntos de datos aún más grandes.
  • Un mejor rendimiento al interactuar con las vistas que utilizan fuentes de datos de extracción de mayor tamaño: vistas que utilizan fuentes de datos de extracción para obtener un mejor rendimiento que el que tenían anteriormente. Aunque las extracciones más pequeñas siguen funcionando eficazmente, las de mayor tamaño tienen un rendimiento más eficiente.

Más allá del auge del Big Data

La explosión de los datos

Los datos tienen el poder de transformar de gran manera cada industria o negocio, e incluso el cómo nosotros llevamos nuestra vida diaria, los datos pueden hacer que los negocios de cualquier tamaño agreguen valor e impulsen mayor competitividad, no me refiero únicamente a las grandes compañías que integran una cantidad de datos impresionante de manera masiva, sino a cualquier negocio incluso al más pequeño que se aprovecha de los datos de las redes sociales para entender mejor a sus consumidores.

El término “Big Data” se refiere a estos enormes conjuntos de datos que estamos construyendo, así como a la interpretación, análisis y acciones que tomamos en base a los conocimientos adquiridos, derivados de ésta.

Young man pointing at Big Data concept over a tabletLos grandes monstruos online como Google, Facebook y Amazon, recaban grandes cantidades de datos de las personas y usan esta información para determinar lo que la gente quiere, así como para vender servicios de publicidad dirigida, en Latinoamérica un ejemplo es Mercado Libre y BestDay.

Cuantas veces hemos hecho búsquedas en diversos servicios de compra en línea o hemos reservado boletos para un determinado tipo de película y posteriormente cuando estamos navegando, por simplemente revisar las publicaciones de Internet, nos aparecen -sin pedirlo- notas relacionadas al producto que estábamos buscando o publicaciones del tipo de película que reservamos los boletos, es aquí en donde vemos como la información de nuestras preferencias, recolectada por estos monstruos se aplica.

Hay que considerar que el aprovechamiento de los datos no es solo para los grandes jugadores como mencionábamos en un inicio, no importa si se es grande o pequeño, los datos tienen valor para cada empresa en cualquier industria.

El Internet de las cosas (IoT)

Parte de la explosión de los datos es el Internet de las Cosas (IoT) también conocido como el Internet de Todo (IoE), referido a los diversos dispositivos existentes en el mercado que recaudan datos y los transmiten vía Internet; tales como los teléfonos inteligentes, relojes deportivos, bandas deportivas, incluso televisores, refrigeradores y otros aparatos electrónicos de uso frecuente.

Estos pequeños dispositivos están transformando nuestro mundo, nuestras casas, nuestros autos y nuestros negocios, se estima que para el año 2020 un cuarto de billón de autos estén conectados a Internet, permitiendo un amplio abanico de servicios, incluyendo el manejo automatizado.

El advenimiento de los dispositivos “wereables” (aquellos que usan las personas sobre si mismos como relojes inteligentes, medidores de rendimiento de ejercicio, etc.) ha sido un hito tecnológico crucial para el Internet de las Cosas. Una de cada seis personas usa alguno de estos dispositivos de una manera u otra y estas unidades crean una riqueza de datos que muchos negocios están considerando, extrayendo de ellos datos valiosos para provecharlos.

Estos pequeños dispositivos no sólo se conectan a Internet, sino que se comunican entre ellos y comparten información. De hecho, las conexiones máquina a máquina crecerán a 27 billones para el 2024.

Imagínense, en un futuro no muy lejano, que su refrigerador pueda detectar que la leche ya está cerca de caducar o que los huevos están cerca de agotarse y que automáticamente le envié un mensaje a su reloj inteligente para notificarle la situación, al tiempo que automáticamente hace el pedido a su tienda en línea; así, al llegar a casa usted encontrará el paquete del mercado en su puerta.

En conclusión…

Cada vez será mayor la cantidad de datos que se generaran, así que las empresas que sepan aprovechar estos enormes conjuntos de datos serán las que se mantendrán y prosperaran en el futuro, las demás desaparecerán irremediablemente.

Dentro de las empresas de tecnología, aquellas que desarrollen manejadores de bases de datos más eficientes: preparados para el procesamiento de cantidades de datos jamás imaginadas, con tiempos de respuesta a las peticiones de consulta muy cortos y con un uso eficiente de las capacidades de computo; que desarrollen nuevas tecnologías que lleven a una analítica poderosa, pero de fácil acceso y manipulable directamente por los usuarios, con una manera de comunicación de resultados muy visual y en menor tiempo, serán las triunfadoras.

¿Cuándo usar NoSQL y qué familia usar?

Hoy en día las tecnologías han avanzado a paso agigantados, lo que antes conocíamos como las mejores prácticas que daban excelentes soluciones a los problemas organizaciones, en la actualidad deben ser bien evaluadas para determinar si convienen o no al negocio.

En este post en particular versaremos sobre los datos, su almacenamiento y cuando es conveniente salirse de “lo tradicional” y aplicar una Base de Datos NoSQL.

Los gestores de Base de Datos utilizados por muchos años como los Relacionales (RDBMS) han sido los preferidos de las empresas para manipular y almacenar sus datos de forma fácil, rápida y segura. Pero, teniendo en cuenta que su modelo es relacional, los datos se representan mediante un conjunto de tablas vinculadas entre sí. Es por ello que cuando se hacen consultas por lo general implica unir estos conjuntos, lo cual es costoso a nivel de los recursos del equipo.

Sin embargo, en la actualidad ha surgido una tendencia muy importante en el mundo de las Bases de Datos: las NoSQL (Not-Only SQL). Creadas en 1998 por Carlo Strozzi, quien empleó ese término para expresar que su base de datos era open-source, ligera y que no presentaba una interfaz de SQL tradicional.

Estas bases de datos NoSQL difieren del modelo clásico de relaciones entre entidades (tablas), y no usan SQL como lenguaje de consultas. También utilizan varios modelos de datos como los documentos, gráficos, claves-valores y columnas. Las bases de datos NoSQL se distinguen por su fácil desarrollo, desempeño escalable, alta disponibilidad y adaptabilidad.

Ahora bien, la gran pregunta ¿Cuándo usar NoSQL? Todo dependerá de las necesidades del proyecto. Si se necesita escalabilidad, hay escases de recursos físicos y, sobre todo, no se necesita mantener la integridad de los datos, se podría elegir una base de datos como esta. También se debe tener en cuenta el gran volumen de los datos, cómo leerlos de manera rápida y sencilla. Ya que algunas NoSQL pueden devolver esa cantidad de registros en un archivo JSON y después son manipulados desde ahí.

Los principales proyectos donde se sugiere utilizar NoSQL son:

  • Redes sociales
  • Desarrollo Web
  • Desarrollo Móvil
  • BigData
  • Cloud (XaaS)

¿Cuáles son las ventajas y desventajas de las Bases de Datos NoSQL?

Captura de pantalla 2018-03-10 18.47.32

Dar clic para agrandar

 

En suma, existen varias opciones en cuanto al almacenamiento y manipulación de nuestros datos, sólo debemos tener en cuenta qué se quiere lograr en el proyecto, qué tipo de información estamos manejando y evaluar bien cuál formato conviene utilizar, para darle la mejor utilidad posible a la tecnología que se decida implementar.

¿Eres un buen desarrollador con Pentaho Data Integration?

La plataforma de inteligencia de negocios de Pentaho es muy conocida y utilizada en toda Latinoamérica. Matrix CPM Solutions fue uno de sus primeros aliados certificados de Pentaho en la región ya hace mas de 8 años y sin duda colaboró mucho en la creación del ecosistema de aliados cuando en los primeros años se hizo un gran esfuerzo para dictar los cursos oficiales de Pentaho en las ciudades mas importantes de Centro y Sur América.

Hoy en día Pentaho sigue teniendo cientos de miles de “downloads” en todo el mundo y América Latina representa un porcentaje muy alto en la descargas y uso de la versión comunitaria, todo lo contrario al resto de las regiones donde se prioriza el uso de la versión comercial o paga del software.

Posiblemente sea Kettle (nombre que también se le da a Pentaho Data Integration) la herramienta mas usada y conocida de toda la suite. Puedo decir con conocimiento de causa que Kettle es muy popular en Venezuela, México, Colombia, Ecuador y en varios países de Centro América, en especial en Guatemala y El Salvador. La verdad es que es una herramienta de ETL fantástica. Es muy completa y poderosa, además de ser muy fácil de entender y utilizar. Esto posiblemente es a su vez su gran problema, porque la gente piensa que con utilizarla y hacerla funcionar lo están haciendo bien.

Hoy en día cualquiera persona con un conocimiento básico de bases de datos puede hacer procesos de ETL con PDI. ¿Pero los hacen bien?, y con bien entendemos que se ejecute eficientemente utilizando los recursos disponibles. La experiencia dice que NO.

Por nuestra empresa han pasado decenas de personas que han tenido varios meses o años trabajando con Kettle y al ponerlos a desarrollar una prueba técnica muy básica, no son capaces de terminarlo. También hemos visto que muchas empresas con su equipos internos o consultores ofrecen sus servicios en Kettle y cuando empieza a enfrentar retos interesantes de volúmenes de datos, disparidad en orígenes o utilización de bases de datos “modernas” como Columnares, NoSQL o Hadoop, todo se complica y le terminan echando la culpa a la herramienta. Un tema común que encontramos en estos equipos es que nadie ha recibido una formación oficial en ETL o en el uso de Kettle. Todos han aprendido por sus propios medios, teniendo a los foros como guía principal.

Ronald Rojas, socio, líder técnico de la empresa y posiblemente una de las personas con mayor experiencia en el uso de Pentaho en la región, afirma con frecuencia que todos pueden usar Kettle, pero hoy en día son muy pocos lo que han aprendido a desarrollar procesos eficientes. La verdad es que ni siquiera existe una capacitación oficial sobre “entonación” u “optimización” en PDI.
Conclusión: Si eres usuario de Kettle (Pentaho Data Integration, PDI) no pierdas la oportunidad de capacitarte y orientar tu conocimiento no solo al uso de la herramienta sino a explotar bien todo su potencial.

logo-pentaho_ALTA-RES_light

—————————————

Puedes revisar la disponibilidad de cursos en http://www.pentaho.com/service/training, consulta nuestra página: www.matrixcpmsolutions.com o escribe a pentaho@matrixcpmsolutions.com para consultar sobre nuestra oferta de cursos.

¿Qué hace a Tableau tan exitoso?

En Matrix CPM Solutions tenemos ya más de 2 años ofreciendo Tableau a nuestros clientes. Yo en lo personal he tenido la oportunidad de trabajar con cerca de 10 distintas herramientas de BI a lo largo de mis mas de 20 años dedicado exclusivamente a este tema, y he logrado ver y experimentar cuando una herramienta se destaca en algo por encima de la demás. En mis ultimas presentaciones he insistido que el Éxito de Tableau está en su capacidad de adopción dentro de las empresas.

Los proyectos de BI siempre han tenido un Ìndice de fracaso muy alto y aunque los factores son “multidimensionales” (no cumple con las expectativas, no se terminó, se entregó muy tarde o simplemente cambiaron las fuentes o requerimientos y se hizo imposible actualizarlo) el resultado final es que la inversión realizada en el software se pierde por completo y la empresa entra en pánico o shock al pensar de nuevo que tiene que empezar un nuevo proyecto de BI, posiblemente con otra herramienta.

Cuando hablo de adopción, es que a pesar de que cualquier de estos factores ocurran, el usuario que haya utilizado Tableau, va a intentar seguir utilizándolo, porque no depende del todo del área de TI para poder utilizarlo, sino que el mismo es capaz de hacer grandes visualizaciones con los datos que estén a su disposición. A los usuarios de Tableau, les duele dejar de utilizar Tableau.

Novedades en Tableau 10, la herramienta de visualización analítica

Cada vez que Tableau lanza una nueva versión, aunque sea en pruebas, la gran comunidad en torno a esta herramienta de visualización de datos complejos hace retumbar el sonajero de la promoción. Tableau 10 es la última edición de una herramienta bien valorada.

No solo está bien considerada por sus usuarios, ya sean periodistas o analistas, y bien promocionada por los conocidos como Tableau Zen Master, sino que gran parte de las consultoras de medio mundo emiten informes muy positivos de Tableau en comparación con otras herramientas de inteligencia de negocio. Gartner publica anualmente un cuadrante con los líderes del sector, un informe que ellos llaman el ‘Cuadrante Mágico para las Plataformas de Inteligencia de Negocio y Analítica’, que este febrero de 2016 vuelve a colocar a Tableau entre las mejores opciones del mercado junto a las soluciones de Microsoft, Qlik o Alteryx.

Fruto de su enorme éxito es la evolución casi constante de la propia herramienta. Rara vez hace caso omiso a las peticiones de la comunidad, realmente involucrada en la mejora de la plataforma, y siempre implementa mejoras que generan valor y perpetúan el uso por parte de los usuarios, tanto de pago como la versión libre (en este caso conocida como Tableau Public).

La versión 10, que incluye algunas cuestiones interesantes para sus usuarios:

1.     Tableau responsive para dispositivos móviles Android

Si existía alguna petición de los usuarios de Tableau, esa era sin duda la adaptación sencilla de los paneles a los dispositivos móviles. Tableau se había convertido en una herramienta de cuadros de mando bastante útil para su visionado en escritorio, pero cuando esas consultas se realizaban desde teléfonos móviles la experiencia de usuario era bastante negativa.

Por ahora Tableau permite una adaptación responsive de los cuadros de mando para los dispositivos móviles que utilizan sistema operativo Android (Google). Con esta versión los usuarios pueden compartir sus visualizaciones de datos en cualquier tipo de pantalla, ya que personaliza y publica los cuadros de inteligencia de negocio optimizados tanto para escritorio, como para tabletas o teléfonos móviles.

2. Control de versiones en los libros de trabajo

Tableau 10 ha incorporado una nueva funcionalidad que puede resultar realmente útil cuando se tratan con grandes volúmenes de datos. Es algo similar a cualquier sistema de control de versiones, como que el que pueden utilizar los sistemas de gestión de contenidos (CMS). A día de hoy, cualquier usuario de Tableau 10 puede volver a una versión anterior de sus libros de trabajo a través del Tableau Server. Con la versión 10, los libros de trabajo se pueden restaurar directamente, sin necesidad de tener que descargar y publicar los datos de nuevo. Un avance que aporta facilidad.

Además, el usuario de Tableau 10 tiene la ventaja de que antes de restaurar una versión anterior de su cuadro de mandos, tiene la opción de previsualizarla para escoger la versión exacta que quiere publicar. En ese flujo de trabajo, el usuario puede incluso abrir varias versiones previas a la vez en distintas pestañas. Tableau ofrece la opción de que los usuarios puedan limitar desde la configuración del propio Tableau Server el número de revisiones por libro que se puede permitir.

3. Mejoras en la API de JavaScript

Tableau ha decidido introducir mejora en la API REST de JavaScript, un movimiento esencial si quiere extender sus tentáculos y ofrecer todo tipo de oportunidades a usuarios y desarrolladores que quieren integrar Tableau con otros servicios. Además, la propia interfaz de usuario de aplicaciones tiene mejoras en las llamadas que podemos hacer a la API para obtener datos para nuestras visualización. En concreto, una de los avances más importantes la posibilidad de filtrar y ordenar.

Para extraer un dato concreto en las versiones anteriores de Tableau era necesario hacer una petición GET a la API REST e iterar con todos y cada uno de esos datos para encontrar una aguja en un pajar. Ahora ese flujo de trabajo ha quedado atrás. Se automatiza el proceso de la búsqueda final: primero se hace una petición GET a la API REST y después se aplica un filtro para hallar el dato, sin ir uno a uno. El filtro en cuestión sería algo parecido a esto, con la idea de obtener la información de un usuario llamado, por ejemplo, juan: /users?filter=name:eq:juan.

4. Filtrar a la vez en varios conjuntos de datos

Esta característica parece una tontería, pero cuando estás haciendo visualizaciones de datos, tener la capacidad de usar un único filtro para dos gráficos distintos con dos tablas de datos diferentes puede ser una maravilla. Única condición en Tableau 10: que el campo por el que queramos filtrar en ambas visualizaciones se llame igual en las dos tablas de datos. Una condición lógica.

5. Punto extra de novedades en Tableau 10

Los cuatro puntos anteriores no resumen del todo las nuevas funcionalidades que Tableau ha decidido incorporar a su nueva versión recién estrenada. Hay más:

– Incluye una nueva tipografía especial para facilitar la compresión de las visualizaciones de datos. Su creador es el conocido Tobias Frere-Jones, un diseñador que ya tiene más de 700 tipos a su nombre.

– Tableros por tipo de dispositivos: con Tableau 10 los usuarios pueden compartir sus libro de trabajo escogiendo el tipo de pantallas según el dispositivo en el que lo quieran hacer: móviles, tabletas o escritorio.

– Creación de regiones personalizadas: ahora es posible seleccionar con el cursor una región concreta dentro de una visualización tipo mapa y después eliminar el campo geográfico original para mantener esa selección propia.


Fuente: BBVAOpen4U

¿Qué pasa con la integración de datos en la empresas?

Hace unas semanas tuve la oportunidad de reunirme con los socios de la empresa y revisando entre números y proyectos regionales, llegamos a la conclusión que cerca del 70% de los proyectos activos, estaba relacionado con requerimientos y necesidades de integración de Datos de nuestros clientes. Entonces, porque cuando mas esfuerzo están haciendo los software de BI en mejorar sus capacidades de visualización, nos llegan tantas oportunidades en la integración y preparación de Datos?. Estas son mis suposiciones:

– A pesar de tener que manejar solamente datos estructurados, la cantidad de los mismos está sobrepasando a los manejadores tradicionales de Bases de Datos y las empresas están adoptando las Bases de Datos Columnares como repositorio para sus consultas y análisis.
– Algunas empresas están experimentado con datos no estructurados y no saben como incorporarlos a sus procesos analÌticos.
– Las soluciones en la nube que se comercializan como SaaS cada vez son más populares y se necesita integrar sus datos con las aplicaciones tradicionales de la empresa
– A pesar de los esfuerzos que se han realizado para tener todo lo que se necesita en los ERP, muchas empresas tienen una variedad alta de fuentes de datos que aún no logran integrar.
– Es posible que el uso de herramientas avanzadas de visualización estén permitiendo a las empresas entender los vacíos o necesidades que tienen en la integración de datos y esto hace que se impulsen estos requerimientos.

¿Están sus empresas dentro de estas suposiciones?