Archivo de la etiqueta: datos

La analítica predictiva en el sector salud

La industria de la salud es uno de los sectores de mayor impacto estimado de análisis de datos y analítica predictiva, sin embargo, contrario a las predicciones el desarrollo ha sido más lento a lo esperado.

Los expertos opinan que parte de esto se debe a la dificultad de recolectar los datos en formatos de historias digitales, y cuando existen en las dificultades relacionadas con el manejo de esta información, sea por limitaciones legales o de privacidad, sea porque forman parte de esquemas propietarios y cerrados de recolección de información.

En cualquier caso, cuando existen los resultados del uso intensivo de analítica predictiva han sido muy exitosos. En la clínica CrescentCare dirigida al tratamiento de HIV y SIDA en Nueva Orleans  EEUU, el uso de la información contenida en bases de datos (SQL) les ha permitido definir indicadores de riesgo de los pacientes, que actualizados de manera diaria, permiten definir políticas de atención de pacientes y orientar de manera eficiente el uso de recursos humanos, recomendaciones de hospitalización o proyectar tratamientos especializados.

Otro ejemplo lo constituye el uso de información de atención médica, hospitalizaciones, cpm_03laboratorios y productos farmacéuticos de pacientes de una gran empresa estatal latinoamericana. El análisis de estos datos (en curso) ha permitido detectar pacientes “en riesgo” o “complejos” y diseñar estrategias adecuadas para tratar con casos crónicos de manera más efectiva, asegurando el mejoramiento en la calidad de vida de los pacientes así como un uso más eficiente de los recursos. El análisis ha permitido, por otro lado, la detección de uso fraudulento de los recursos disponibles mejorando la distribución de gastos.

Pero quizás los ejemplos más notables lo constituyen los ejemplos de aplicaciones que incluyen el manejo integrado y estandarizado de información de conglomerados de hospitales, clínicas, laboratorios lo cual implica  un esfuerzo importante de puesta en marcha de criterios unificados de tratamiento de la información. En el centro para Servicios de Información en Salud en Illinois, EEUU, que integra 12 hospitales las ventajas justifican con creces los esfuerzos: donde antes cada proyecto de análisis de datos se realizaba de manera independiente buscando datos de los registros, ahora se pueden integrar la información en una misma plataforma. Por otro lado el manejo integrado permite diseñar estrategias más adecuadas de atención a pacientes incluyendo traslados o uso de recursos compartidos.

Las posibilidades del uso de herramientas de analítica predictiva en la gestión de salud  son casi infinitas y representan un gran reto sobre todo en sistemas más precarios donde el manejo eficiente de recursos humanos, hospitalarios,  clínicos y farmacéuticos puede significar el acceso a un sistema de salud  de  primera calidad reduciendo los costos globales. Ojalá veamos este tipo de soluciones en el futuro cercano.

Una guía fácil sobre Inteligencia de Negocios

Ya sabemos que la inteligencia empresarial se trata de las decisiones correctas que toma una empresa para impulsar o mantener su negocio pero, ¿cómo se llega a eso? Esta guía del proceso explica los básicos del qué, por qué, cómo y el para qué de la inteligencia de negocios.

Cuando se implementa una estrategia de business intelligence, el proceso involucra principalmente estas cuatro etapas:

El qué → Descriptivo: se refiere a la estadística que se aplica como punto de partida para desarrollar una solución de inteligencia de negocios. Se parte por lo básico, es decir, recolectar, clasificar y ordenar los datos, así ponemos sobre la mesa qué se tiene de la empresa, qué se necesita y hacia dónde vamos.cpm_02

Cuando una empresa se acerca al business intelligence, es la primera oportunidad que tiene la organización puede ver datos dispersos en un solo sitio, ya que gran parte del esfuerzo que se hacer para lograr una solución de inteligencia de negocios se centra en recopilar e integrar datos que vienen de fuentes distintas, en sistemas diferentes y que se deben llevar a la misma escala para poderlos comparar, entre otras cosas.

El por qué → Diagnóstico: esta fase se trata de explicar por qué el negocio se comporta como se comporta, es decir, si responde o no a los datos del contexto o los datos internos, es decir, el business intelligence describe al negocio en términos reales.

El cómo → Predictivo: después de los pasos anteriores, se determinan tendencia con base en esos datos internos y eventualmente de los externos.

El para qué → Prescriptivo: como el final del proceso, se trata de saber si yo puedo, teniendo como base la inteligencia de negocios, determinar cursos de acción.

Como se observa, cada fase es más compleja que la otra y cada una completa un bloque de información y de procesos necesarios para llegar a lo que tanto anhelamos: decisiones inteligentes que nos permitan adelantarnos a la competencia, vender más, impulsar el negocio, mantenerlo o cambiarlo. De esto se trata el qué, el por qué, el cómo y el para qué del BI.

¿Qué es R y por qué usarlo?

El desglose de los datos y su análisis es parte fundamental del proceso que se lleva a cabo cuando se desarrolla una solución de inteligencia empresarial. Es por esto que conversamos sobre R, una herramienta para el trabajo con la data.

R es un entorno de programación libre que se utiliza para el procesamiento y análisis estadístico de datos implementado en el lenguaje S de GNU, aunque para algoritmos computacionalmente exigentes se emplean lenguajes como C, C++ o Fortran.cpm_01

Inicialmente, R fue desarrollado por Robert Gentleman y Ross Ihaka del Departamento de Estadística de la Universidad de Auckland, en 1993, pero actualmente R es responsabilidad del R Development Core Team.

A continuación, enumeramos 6 razones por las cuales R es una excelente opción para procesar datos:

  1. R es gratuito y tiene 6817 paquetes disponibles.
  2. Es un programa avalado por una sólida comunidad científica que provee excelente documentación.
  3. Es el software estadístico más utilizado en las universidades del mundo.
  4. Estas son algunas de las grandes compañías que se han apoyado en R: SAP HANA, Tableau, Pentaho. Oracle también está integrando R a su plataforma.
  5. Posee excelentes capacidades para procesar y analizar grandes volúmenes de datos con ayuda de herramientas como Hadoop y Spark.
  6. Es compatible con equipos Mac, Windows y Linux.

¿Necesitas más razones para usar R? Es accesible, funcional y amplio, convirtiéndola en una herramienta imprenscindible para procesar la data que, posteriormente, nos dará las soluciones inteligentes que necesitamos. 

¿Qué es y para qué sirve a las empresas el Data Warehouse?

Seguramente han escuchado muchas veces el término de Data Warehouse; podemos definirla como una base de datos corporativa donde se integra y depura información de una o varias fuentes distintas, que luego serán procesadas y analizadas desde distintos puntos de vista con afinidad de perspectivas y grandes velocidades de respuesta.

La creación del Data Warehouse representa la mayoría de las veces el primer paso, desde el punto de vista técnico, para implantar una solución completa y fiable de Business Intelligence y así aportar las mejores respuestas a los problemas de la organización. Objeto inteligente vectorial3-01 (1)

¿Qué ventajas nos aporta este proceso?

  • Nos proporciona información clave para la toma de decisiones en la empresa.
  • Mejora la calidad de las decisiones tomadas.
  • Estos datos son útiles a mediano y largo plazo.
  • Si las fuentes de los datos y los objetivos están claros, los sistemas son sencillos de instalar.
  • Es útil también para el almacenamiento de análisis y consultas históricas.
  • Permite mayor flexibilidad y rapidez en el acceso a la información.
  • Brinda una comunicación fiable entre todos los departamentos de la empresa.

También hay que destacar que, para comprender íntegramente el concepto, este proceso se construye a partir del ETL (Extracción, transformación y carga) y los sistemas operacionales de una compañía:

  • Extracción → se trata de obtener la información de las distintas fuentes, tanto internas como externas.
  • Transformación → es el filtrado, limpieza, depuración, homogeneización y agrupación de la información.
  • Carga → sobre la organización y actualización de los datos y metadatos en la base de datos.

Para que el Data Warehouse sea exitoso se necesita una limpieza continua, transformación e integración de los datos. Además, requiere sistemas, aplicaciones y almacenamiento específico. Es un trabajo constante que garantiza el éxito de los datos en el diagnóstico y las soluciones de inteligencia de negocios que serán implementadas en la compañía.

Finalmente, se puede decir que el principal beneficio del Data Warehouse para las empresas es que tiene la propiedad de eliminar los datos que interfieren con el análisis de la información y su entrega; sea cual sea el formato requerido, el Data Warehouse facilita el proceso de gestión.

¡Los datos son petróleo!

Cada vez más, las empresas ven a sus datos como su activo más preciado. Son el “nuevo petróleo” descubierto y por tanto requieren de procesos de refinamiento para convertirlos en combustible del éxito.

La refinación de datos es el proceso mediante el cual se pueden depurar datos heterogéneos dentro de un contexto común (la empresa), para hacer posible su comprensión y la obtención de información de los mismos. Esto se logra eliminando la variabilidad de los datos y su redundancia, con lo que se obtiene un recurso de datos integrados de mucho valor para la toma de decisiones.

Estudios recientes demuestran que el 90% de los datos disponibles hoy son de fuentes de Objeto inteligente vectorial3-01datos no estructuradas. La refinería de datos es la primera oferta capaz de procesar grandes cantidades de datos no estructurados provenientes de diferentes tipos de organizaciones, en todos los tipos de formatos (oraciones largas y complejas, frases cortas con errores ortográficos y gramaticales y otros tipos de datos) y provenientes de diferentes tipos de medios (páginas web, artículos de blog, mensajes y respuestas en redes sociales, quejas recogidas, etc.) de manera eficiente.

El proceso de refinación de datos es uno de los aspectos más importantes al almacenarlos porque los datos no refinados pueden causar un desastre en la producción de información de una empresa. Tradicionalmente se desarrolla un proceso de extracción, transformación, y carga de datos (ETL) con el cual se recopilan datos de varias fuentes, se transforman para cumplir con las reglas de negocio y las mejores prácticas de arquitectura de datos y finalmente se procede a la carga en un almacén de datos centralizado para efectos de análisis (el Data Warehouse).

Para automatizar el proceso de aprovisionamiento y explotación de grandes volúmenes de datos en una organización de manera eficiente, debe echarse mano de herramientas que lo permitan. Con Pentaho Data Integration y Hadoop se puede lograr un hub de información multi-fuente de alto rendimiento, donde se pueden almacenar, mezclar y luego publicar automáticamente los datos en forma de conjuntos de datos en motores de bases analíticas tales como HP Vertica, para su consumo y explotación por parte del usuario final mediante el descubrimiento de datos, informes, cuadros de mando y procesos analí­ticos avanzados.

Dé un paso adelante.