Innovación

Google se adentra (aún más) en el aprendizaje profundo

inteligencia-artificial

Pronto los teléfonos Android podrán entender e identificar imágenes como caras y señales de la calle en tiempo real, sin necesidad de subir fotos a la Red.

No son pocas las empresas y organismos que se están introduciendo en el apasionante y, al mismo tiempo, aún incipiente terreno del aprendizaje profundo, esa capacidad que permita a las máquinas descubrir patrones y adaptar su comportamiento en función de la experiencia. Google es caballo viejo en estas lides, pero hoy ha dado un paso más en esta línea por medio de una alianza estratégica con la firma norteamericana Movidius.

Esta alianza permitirá a Google desplegar su avanzado motor de computación neuronal en la plataforma de ultrabaja potencia de Movidius, creando una nueva forma de ejecutar la inteligencia artificial de la máquina de forma local en cualquier Smartphone o tablet. Por medio de esta tecnología, los teléfonos Android podrán, en un futuro, entender e identificar imágenes como caras y señales de la calle en tiempo real, sin necesidad de subir fotos a la Red y esperar a que los algoritmos hagan su magia en la nube.

Y es que, al poder ejecutar en local los procesos de aprendizaje profundo en los que trabaja Google, se evitan los problemas de latencia y de conectividad que se producen cuando el programa depende de un acceso a Internet. Esto significa que los futuros productos del popular buscador pueden tener la capacidad de entender imágenes y audio con una velocidad y precisión increíble, ofreciendo una experiencia informática más personal y contextualizada.

Chips de última generación a los pies del aprendizaje profundo

Google utilizará, para lograr estos objetivos, el último chip insignia de Movidius, el MA2450. Se trata, como indica el fabricante, de la única solución comercial en el mercado hoy en día con el rendimiento y la eficiencia de energía necesarios para realizar complejos cálculos de redes neuronales en factores de forma ultracompactos. El MA2450 es, además, la versión más potente de la familia de procesadores de visión Myriad 2.

android

“Los avances tecnológicos que Google ha hecho en la inteligencia artificial y redes neuronales son asombrosos. El desafío de la incorporación de esta tecnología en dispositivos de consumo se reduce a la necesidad de una eficiencia energética extrema, y ​​aquí es donde debe darse una profunda síntesis entre la arquitectura del hardware subyacente y el cálculo neuronal”, explica Remi El-Ouazzane, CEO de Movidius.La misión de Movidius es aportar inteligencia visual a los dispositivos para que puedan entender el mundo de una manera más natural. Esta asociación con Google nos permitirá acelerar esa visión de una manera tangible”.

El potencial de este nuevo acuerdo de Google es extraordinario para las personas con discapacidad, quienes podrán apoyarse en sus smartphones a la hora de entender el mundo que les rodea. Por ejemplo, una persona ciega podrá moverse más fácilmente por la ciudad y recibir información contextual de personas, objetos, monumentos o parajes naturales.

Sobre el autor de este artículo

Alberto Iglesias Fraga

Periodista especializado en tecnología e innovación que ha dejado su impronta en medios como TICbeat, El Mundo, ComputerWorld, CIO España, Kelisto, Todrone, Movilonia, iPhonizate o el blog Think Big de Telefónica, entre otros. También ha sido consultor de comunicación en Indie PR. Ganador del XVI Premio Accenture de Periodismo y Finalista en los European Digital Mindset Awards 2016.