Big Data

‘Big data’ empieza hoy

Escrito por Esther Macías

Las empresas españolas deben empezar ya a trabajar con las tecnologías de ‘big data’, según han señalado los expertos reunidos en Big Data Spain 2013, evento que reúne entre hoy y mañana en Madrid a los mayores expertos en estas tecnologías

Más de 400 personas acudirán entre hoy y mañana a Big Data Spain 2013, la segunda edición del evento organizado en Madrid por Paradigma Tecnológico y la startup Stratio con el fin de dar a conocer el alcance de big data, las tecnologías que rodean a este término (el data mining, Hadoop, MapReduce, NoSQL, Cassandra, The Stinger Initiative, BigQuery, Data Science y data visualization) y las oportunidades de negocio que surgen en torno a él.

En la inauguración de las jornadas Óscar Méndez, CEO de Paradigma Tecnológico y Stratio, destacó que aunque el concepto y las tecnologías de big data no son nuevas y, de hecho, “tienen ya 10 años en el mercado, lo cierto es que en España queda mucho camino por recorrer al respecto y aún son muy pocas las empresas de nuestro país que han empezado a desplegar proyectos de este tipo, a pesar de las ventajas competitivas que conllevan”. Méndez señaló que el problema es que “las empresas no saben qué hacer, no saben cómo abordar estas tecnologías, aunque ya casi todas tienen claro que tener una estrategia de big data es importante”. El hecho de que al evento se hayan registrado 400 personas, 200 más que el año anterior es, según el directivo, una muestra más del mayor interés que gira en torno a este concepto en el mercado nacional. “Ya nadie duda de que big data ayuda a las compañías, incluso existen múltiples indicadores al respecto. Ahora la cuestión es cómo usarlo”, apostilló Méndez.

‘Big data’, tecnologías para hacer “lo imposible”

Big data, según Méndez, es un compendio de tecnologías que “permite hacer cosas antes imposibles de llevar a cabo en las empresas”. Eso sí, el experto aseveró que no todas las compañías tienen por qué implantar big data. “Obviamente es crítico para sectores como la banca o el ámbito de los media, pero no lo es para otros sectores como la educación”. En opinión de Méndez no es necesario que las empresas experimenten las tres ‘v’ que caracterizan al big data (elevado ‘volumen’ de datos, la ‘variedad’ de éstos y necesidad de acceder a ellos a gran ‘velocidad’) para decidir implantar un proyecto de este tipo. “Muchas veces uno solo de estos tres factores, por ejemplo la variedad de datos aunque estos no sean muchos, es determinante para arrancar un proyecto de big data“, indicó.

Otra de las grandes preguntas que los responsables de las empresas se preguntan es “¿y dónde uso las tecnologías de big data?”. Para Méndez el primer lugar donde es preciso utilizarlo en el el motor de búsqueda que fue, precisamente, donde arrancó esta tecnología. “Por supuesto también en el área de BI, del mining y del social media aunque, claro, cada empresa es diferente”.

¿Y qué tecnología tengo que utilizar para abordar un proyecto de este tipo? Ésta es otra de las grandes preguntas que surgen en torno al big data, según el CEO de Paradigma. La clave para la respuesta es “optar por las tecnologías de big data 2.0, ya que al tener ya una década estas herramientas han evolucionado”. Las tecnologías de segunda generación de big data son 10.000 veces más rápidas que las anteriores, posibilitan un análisis interactivo, las herramientas NoSQL se parecen más a las SQL “como es el caso de la destacada MongoDB”, se trata de sistemas en memoria (Stratio es un ejemplo de ello), y posibilitan el streaming de datos en tiempo real.

Recomendaciones

Méndez señaló que para adoptar un proyecto de big data hay que empezar poco a poco, no a la manera del Big Bang. “Además, hay que tener en cuenta que no todos los datos que maneja una empresa son valiosos; hay que discriminar bien cuáles lo son, y debo gestionarlos con herramientas de big data, y cuáles no”. Tener cuidado con la invasión de la privacidad de los clientes o dotar de la máxima seguridad a los datos son, en opinión del CEO, otras de las recomendaciones a seguir por las empresas, además de “confiar en el equipo propio”. “Intentar automatizar al máximo la recogida y análisis de la información tampoco es bueno y quita ventajas competitivas. Además, no hay que olvidar que la inteligencia está en los profesionales de tu empresa”, añadió.

En este sentido, para Méndez, lo mejor es que las empresas enseñen a sus empleados a utilizar las herramientas de big data en lugar de contratar expertos en la materia. “Es más fácil enseñar big data a tus empleados que enseñarles cómo funciona tu empresa”, sentenció el experto.

Combinar varias tecnologías es otro de los consejos a seguir, según el directivo, aunque, en su opinión, la recomendación más valiosa  y el mayor riesgo es “no ignorar el big data. “Las empresas tienen que empezar ya a utilizar las tecnologías de big data. Y si puede ser hoy, mejor que mañana”, indicó.

Lo que es evidente es que, según las últimas predicciones de IDC e IBM, uno de los grandes jugadores en esta materia, los datos y el análisis de éstos cada vez jugarán un mayor papel en la gestión de los negocios, lo que hará incluso que emerjan nuevos modelos, productos y servicios.

Sean Owen, de Cloudera

El rol de los científicos de datos

Otro de los grandes ponentes de la edición de este año de Big Data Spain fue Sean Owen, director de Ciencia de los Datos en Cloudera, compañía que ofrece software y servicios basados en Apache Hadoop. Owen centró su charla en cómo ha cambiado la forma de recolectar y tratar los datos en las empresas con la llegada de Internet y la movilidad y, por ende, del entorno del big data. “Ahora los datos son muchos, muy diferentes y requieren un procesamiento paralelo. También ha cambiado la forma de darlos a conocer: ahora los consumen las máquinas, todo está mucho más automatizado, es online y se trata de un consumo continuo”, indicó.

Además, el director de Ciencia de los Datos de Cloudera reflexionó sobre el rol de los científicos de los datos. “Estos deben ser mejores en estadística que los ingenieros de software y mejores en ingeniería de software que cualquier estadístico, según asevera mi colega John Wills”, señaló. Para Owen el científico de datos perfecto es aquel que tiene un 80% de ingeniero y un 20% de estadístico. “Es más fácil que un ingeniero aprenda matemáticas y estadística que un estadístico aprenda software”, apostilló.

Y, como punto final, varias recomendaciones: “Que las empresas empiecen ya a construir su warehouse de base de datos, algo que no es ni caro ni difícil; que se preocupen desde ahora por los formatos de los datos y su calidad; que esperen a recoger datos potencialmente útiles; que inviertan en el desarrollo de capacidades de ciencia de los datos y en realizar pruebas de concepto en el ámbito de big data desde este momento”.

 

 

 

Sobre el autor de este artículo

Esther Macías

Periodista especializada en tecnología, innovación, economía digital y emprendimiento. Tras un largo paso por iWorld y ComputerWorld, desde 2013 estoy inmersa en la prodigiosa aventura de TICbeat como jefa de redacción.