Educación

El Big Data que mueve el coche autónomo

Escrito por Redacción TICbeat

Diego Rojo, experto en Big Data y profesor de U-tad, nos explica cómo se procesan y analizan los más de 750 Mb de información que genera cada coche autónomo al segundo.

Prácticamente a diario nos levantamos con alguna noticia relacionada con los coches autónomos, esos vehículos que no necesitan que un humano los conduzca y que prometen acabar con los accidentes de tráfico y ayudarnos a tener viajes más cómodos y placenteros. En la presente edición del MWC 17, se están presentando algunas innovaciones importantes sobre el coche conectado.

Un coche conectado generará los mismos ingresos que 10 vehículos de toda la vida

No en vano, esta innovación hace tiempo que dejó de ser el ambicioso sueño de algunos adelantados a su época para ser toda una realidad, contemporánea a nosotros, que se sustenta en los avances de la conectividad, la sensorización y, sobre todo, del Big Data.

Los problemas que el Big Data planteaba hace cinco o diez años están desapareciendo. En la actualidad las mejoras de hardware y software posibilitan que mucha información pueda procesarse en móvil o web, lo que era impensable hace algunos años. “Sin embargo, en el ámbito de coches autónomos, se genera un Gigabyte de datos por segundo, lo que nos hace afirmar que el coche autónomo es Big Data de verdad”, explica Diego Rojo, dinamizador de la comunidad de Big Data en U-tad.

Esta situación hace que profesionales técnicos bien preparados sean necesarios para asumir el nuevo escenario que se plantea.
Y es que, en el caso de los vehículos sin conductor, estamos hablando de cifras que escapan a lo que estamos acostumbrados hasta ahora. “El coche autónomo de Google/Waymo, que es seguramente el que más datos genera en la actualidad, produce cada segundo más de 750 Mb de información, la mayoría de ella de carácter no estructurada”.

Un coche autónomo presenta numerosas fuentes de datos que oscilan entre la información procedente de Internet (como mapas o información meteorológica) hasta todo tipo de radares láser, cámaras 3D, sonares, sensores de proximidad o incluso micrófonos para detectar si la carretera está mojada.

A todo ello, hemos de sumar tecnologías ya presentes en el coche conectado, como la monitorización de la velocidad, el GPS o las métricas de mantenimiento del vehículo en sí mismo.
Una vez obtenida y almacenada en local la información llega el momento de preguntarnos: ¿cómo se procesa todo este maremágnum de datos? “Los coches autónomos emplean todo tipo de técnicas de machine learning y deep learning, además de árboles de decisión y otras muchas metodologías”, explica Rojo.

Deberíamos preguntarnos qué técnicas de Big Data está utilizando Google porque, como explica Diego Rojo, “son tantos tipos de datos distintos, estructurados y no estructurados, que requieren todos los enfoques disponibles en el mercado”.

Así será la sociedad hiperconectada del Big Data en 2020

La complejidad de este sector requiere expertos de IT en Big Data y en Analítica de Datos capaces de diseñar soluciones que procesen toda esa información con un margen de error muy pequeño. “La formación no es distinta a la que se ofrece para otros retos de Big Data, pero sí que se requiere una habilidad especial para enfrentar todas esas técnicas de forma simultánea y con la precisión necesaria”, añade Diego Rojo, quien aboga por una educación avanzada en la materia como el Programa de Experto en Big Data o el Máster en Big Data & Analytics que oferta U-tad.

Diego Rojo se atreve a aventurar que no veremos la primera cantidad significativa de coches autónomos hasta alrededor de 2025 “debido a lo complicado que es solucionar la parte casi residual de errores que se producen pero que son inaceptables en un coche”.

“De algo podemos estar seguros: alguien que esté naciendo ahora no tendrá que aprender a conducir ni sabrá seguramente lo que es un volante.”, determina. Por tanto, puede afirmarse que el mundo demandará miles de profesionales de Big Data, bien formados, que deberán dar respuesta a esta nueva necesidad.

De hecho, según el experto, para 2035 se espera que 22 millones de vehículos autónomos circulen por la carretera. La seguridad de nuestros datos al volante dependerá de los profesionales del Big Data.

TICbeat para U-Tad

 

 

 

Sobre el autor de este artículo

Redacción TICbeat

Actualidad y análisis en tecnología, tendencias, aplicaciones web, seguridad, educación, social media y las TIC en la empresa.

  • Cristian Caravello

    Así las cosas, en algún momento el big data se chocará contra la pared.
    Un Giga por segundo con 22 millones de automóviles por día son unos 2*10^22 bytes diarios; solo para conducir autos.
    Soy conciente de que la capacidad de almacenamiento crece también vertiginosamente, pero debe haber un límite físico para su veloz carrera.
    Me pregunto si alguien está haciendo los cálculos para asegurarse de que una casa quepa dentro de la otra dentro de 30 años.
    Las potencialidades del big data son incalculables, pero la capacidad tecnológica de soportarlo es necesariamente finita.

  • Cristian Caravello, tan sólo un apunte, que se genere 1 GB por segundo no significa que haya que almacenar permanentemente ese GB. Lo que sí ha de tener es la capacidad para procesarlo en tiempo real.