Big Data

Big Data en un byte

big-data
Escrito por Autor Invitado

La noción de ‘data science’ y la labor de los científicos de datos son claves para obtener el máximo partido de ‘Big Data’ en las organizaciones.

Cada día aparece una nueva estadística sobre cómo el, ya astronómico, volumen de datos generados a nivel mundial crece cada segundo. IBM, por ejemplo, asegura que en 2012 se generaron diariamente 2,5 exabytes, lo que supone 2,5 mil millones de gigabytes (GB). Al tiempo, otras cifras indican que en los últimos dos años la humanidad ha  acumulado un total de al menos un zettabyte de datos en formato electrónico.

Los datos crecen tan rápido que pronto necesitaremos un nuevo vocabulario para describirlo. El actual yottabyte (equivalente a un billón de terabytes) se considerará  “pequeño” en cinco años. Sin embargo, la revolución de Big Data no tiene que ver con la cantidad de datos generados, sino con el proceso de dotar de significado a esos datos para extraer valor de ellos. Los datos son buenos en la medida en que generan conocimiento y para ello se requiere de sofisticadas analíticas.

Crecimiento y estancamiento de ‘Big Data’

A pesar de su inmensa difusión, existen todavía muchas interpretaciones sobre qué significa Big Data. Sin embargo, hay pocos ejemplos de empresas que estén actualmente poniendo en marcha proyectos de Big Data y hay aún menos empresas que vean el valor de los mismos. De hecho, sólo un 8% de las empresas encuestadas en un informe de Gartner han desarrollado un proyecto de Big Data en 2014 y el 57% de ellas reconoce estar aún en las etapas de investigación y planificación.

Entonces ¿por qué parece que se ha estancado Big Data? Hay dos razones clave. Primero, dada la amplitud de datos no estructurados que existe en las organizaciones hoy en día, el tamaño de la tarea puede antojarse inabarcable. Para que Big Data se asiente, los datos han de depurarse para extraer valor de ellos. Si tenemos  en cuenta los procesos contradictorios, los grandes paquetes de datos y la falta de alguien que guíe la iniciativa, la tarea parece  imposible.

Esto ocurre principalmente porque, mientras el análisis predictivo se ha  erigido como la vía para desplegar proyectos de Big Data, las soluciones tienden a ser excesivamente complejas y requieren a menudo de habilidades específicas para hacer que funcionen. 

La aplicación de la ciencia

Para hacer frente a las carencias del análisis predictivo está surgiendo una nueva generación de capacidades alrededor de Big Data. Esta nueva generación reconoce al data science como el proceso de proponer y probar una hipótesis falible de manera que las ideas opuestas puedan ser analizadas y verificadas, permitiendo llevar el valor de los datos -y el software que usa los datos- al siguiente nivel.

En lugar de limitarse a entender por qué pasa algo, el data science permite a las organizaciones predecir qué ocurrirá y ofrece sugerencias sobre lo que se puede hacer al respecto. Cuando aplica, las soluciones hacen recomendaciones que van más allá del negocio, llegando también al sistema de ejecución. No se trata únicamente de tomar mejores decisiones, sino también de reducir la carga de trabajo necesaria para tomar tales decisiones.

Estas capacidades reconocen la complejidad inherente del análisis Big Data pero hacen que las soluciones sean accesibles a los usuarios. Lo consiguen al analizar los datos con un riguroso enfoque científico, pero proporcionan a los usuarios una explicación de por qué una decisión es más recomendable en términos que pueden ser universalmente entendidos. Es vital que la solución sea intuitiva y accesible. Si no, simplemente no se usará.

El data science debe tener en cuenta, además, que la solución final necesita evolucionar. Es decir, no solo debe tener un valor medible (y reportable) para el negocio, sino que tiene que tener también métricas internas que sirvan como fuente de información para la auto mejora. Si no, incluso la mejor solución terminará por quedarse obsoleta.

Parte del proceso

Para que el data science tenga éxito debe estar embebido en el sistema empresarial que usan las organizaciones más que ser un añadido, que suele ser más complejo y además requiere de muchos recursos.

Desde la perspectiva de un usuario, la ruta hacia el valor es aparentemente directa, con pocas entradas de datos y pasos o clics, pero, entre  bastidores, esta ruta es algo más compleja. Cuenta con un equipo de científicos (matemáticos, economistas, ingenieros, informáticos, estadísticos, físicos, químicos e investigadores) que se encargan de gestionar los complejos procesos de depuración de datos, aplicación de algoritmos, evaluación de diferentes visiones y entrega del valor.

La próxima generación de software empresarial, diseñado con capacidades data science como parte de su ADN, no se limitará a acumular, reportar y distribuir información. Hará mucho más: anticipará problemas, responderá con soluciones, identificará oportunidades y recomendará los pasos a seguir. Solo entonces veremos florecer la verdadera revolución de Big Data.

 

Juan-Miró,-Infor-(5)El autor de este artículo es Juan Miró, director de Ventas de Infor.

 

 

 

Imagen superior: Shutterstock

 

 

 

Sobre el autor de este artículo

Autor Invitado