Seguridad

Cómo asegurar la nueva era del ‘big data’

seguridad-big-data
Escrito por Autor Invitado

Asistimos a una auténtica fiebre del oro por la recogida y el análisis ‘big data’, que se ve alimentada por el creciente Internet de las Cosas, y que supone importantes retos para las redes y la seguridad de los centros de proceso de datos.

En la Era Digital, la información es la nueva moneda. Para hacerse con ella, las empresas recaban datos –gran cantidad de ellos– debido al conocimiento que estos les puedan reportar. En el mundo del comercio electrónico o de las redes sociales la cantidad de datos acumulada puede ser ingente. Pensemos en los cientos de millones de  smartphones y dispositivos con acceso a Internet. En la escala de datos de consumidores, médicos, científicos o de investigación, la cantidad de datos recogidos también es enorme, los sensores e instrumentos pueden acumular una amplia variedad de información en bruto, ya sea de una única fuente (como por ejemplo la que ofrece un motor de aviación durante el vuelo) o desde los más de 26.000 millones de dispositivos que se prevé conformarán el Internet de las Cosas.      

Asistimos a una auténtica fiebre del oro por la recogida y el análisis big data, que se ve alimentada por el creciente Internet de las Cosas, y que supone importantes retos para las redes y la seguridad de los centros de proceso de datos en tres áreas clave:

Agregación

Cada vez más, en lugar de procesar y reducir los datos en bruto en la propia fuente de datos para disponer de un volumen más manejable, los datos en bruto se transfieren y almacenan de forma centralizada –porque ahora es posible– de modo que se puedan analizar de diferentes maneras a lo largo del tiempo.

Actualmente, las empresas transfieren, diariamente, terabytes de datos a largas distancias. La enorme cantidad de datos está forzando a actualizar los centros de proceso de datos y el core de la red 100GbE switch fabric, de tal manera que ofrezca transferencias de datos individuales a 10Gbps o por encima. Esta situación también supone un reto para la seguridad perimetral, los firewalls, ya que las soluciones de muchos fabricantes no están diseñadas para gestionar sesiones y flujos de tráfico tan grandes. Por ejemplo, un firewall con 10 puertos GbE o un rendimiento de 40 Gbps podría no tener rutas de procesamiento internas capaces de gestionar un flujo individual de 10Gbps. La congestión de la LAN de una empresa podría saturar el procesador o la memoria de los dispositivos de red, generando el entorpecimiento o la suspensión de la transmisión de grandes  flujos de datos.

Procesamiento

El flujo del big data no es simétrico. El dato bruto que entra no tiene que ser necesariamente en la misma forma y volumen que el que sale. De hecho, el dato guardado en las cabinas de almacenamiento suele ser analizado por un conjunto intermedio de servidores, después es reducido y entregado –normalmente por servidores web– antes de salir del centro de proceso de datos. Esto supone un ancho de banda mayor con una proporción creciente de tráfico lateral o este-oeste, dentro del centro de datos, en lugar de un tráfico norte-sur que sale hacia Internet u otro destino.  Numerosos estudios muestran que el tráfico este-oeste supone más del 70% del tráfico del centro de proceso de datos y esta tendencia continuará incrementándose con la creciente cantidad de big data analytics.

El tráfico este-oeste necesita ser segmentado e inspeccionado, no solo para bloquear el movimiento lateral de las amenazas persistentes avanzadas y ataques internos, sino para asegurar el dato en sí mismo, algunos de los cuales pueden ser sensibles si se filtran. Las arquitecturas de seguridad de red necesitan evolucionar desde el perímetro o gateway de seguridad orientándose a una arquitectura multinivel e híbrida donde el tráfico este-oeste se encuentra virtualizado y abstraído con la adopción de la virtualización de los servicios de red, de los servidores y el cloud computing.

Acceso

Como parte del big data, el dato se está almacenando durante largos periodos de tiempo, por lo que cabe preguntarse quién está autorizado a acceder a estos datos y con qué objetivo. Normalmente no hay un único grupo de datos sino múltiples repositorios de datos que pueden ser combinados y analizados conjuntamente. Cada grupo de datos podría contener información sensible o confidencial y podría ser objeto de regulaciones específicas o de controles internos. Más allá de esto, con frecuencia no hay un único grupo de analistas o investigadores, sino múltiples miembros que buscan obtener distintos puntos de vista. Una gran compañía farmacéutica es un claro ejemplo: los esfuerzos de una investigación están abiertos no solo a empleados internos, sino a proveedores, becarios y estudiantes que visitan la instalación. Para cada uno de ellos, se requiere la creación de un sandbox analítico independiente, autorizando y auditando privilegios de acceso específicos para identificar los conjuntos de datos a los que se puede acceder.

En este contexto, las organizaciones de TI necesitan rediseñar la seguridad de sus redes en lugar de tomar medidas incrementales para satisfacer las cambiantes necesidades de los centros de proceso de datos. En muchos casos, la infraestructura del centro de proceso de datos en si misma ya  está consolidada y transformada no por necesidades del big data sino por las del cloud computing y las iniciativas Software como servicio (SaaS, Software as a Service).  Como parte de esta transformación, las TI deberían considerar una arquitectura que cumpliera con los siguientes aspectos: un alto rendimiento, de modo que fuera capaz de soportar grandes volúmenes de datos con un mayor caudal en la red y con puertos de alta velocidad (ej. 40G/100G) y alta densidad de puertos, pero también ser escalable y flexible para adecuarse al futuro crecimiento del conjunto de datos; segura, aumentando la seguridad del perímetro con la segmentación interna para asegurar el movimiento de datos este-oeste y el control de las amenazas avanzadas y de las internas; y consolidada, integrando múltiples funciones de seguridad desde el core como firewalling/VPN, antimalware y prevención de intrusiones (IPS) hacia la protección frente a las ATP, la autenticación fuerte y control de acceso.

Por último, el cliente debe considerar las oportunidades de aprovechar el big data en sí mismo para mejorar la seguridad. Con el despliegue de más puntos de control y monitorización en la red y en el centro de proceso de datos, además de las herramientas de gestión de logs y los SIEM (Security Information and Event Management)  que son capaces de agregar una mayor cantidad de  logs y datos de eventos de seguridad, incrementando las capacidades de análisis, hacen posible proteger mejor no sólo el big data sino también el centro de proceso de datos en su conjunto.

 

El autor de este artículo es José Luis Laguna, SE Manager en Fortinet Iberia

Sobre el autor de este artículo

Autor Invitado