Innovación

Inteligencia artificial de Google aprende a jugar arcades desde cero

pong
Escrito por Marcos Merino

El algoritmo Deep Q-Network se enfrentó a medio centenar de juegos de Atari sin más información que los datos aparecidos en pantalla.

Recientemente, Google presentó un nuevo software de Inteligencia Artificial capaz de aprender por sí mismo a dominar los clásicos juegos arcade de Atari de los 80. El algoritmo Deep Q-Network (DQN) fue testado en medio centenar de clásicos del Atari 2600 como Space Invaders , Pac-Man , Pong , Asteroids , Centipede , Q*bert , y Breakout. DQN sólo se alimentó de los datos ofrecidos por una pantalla de 84 x 84 píxeles, sin que se le definieran previamente las reglas de los juegos que analizaba.

Según uno de sus desarrolladores, Demis Hassabis, trabajador de Google DeepMind en Londres, “este proyecto supone el primer logro a la hora de construir un único sistema de aprendizaje genérico que permite aprender a partir únicamente de la experiencia para dominar una amplia gama de desafíos -en este caso, un conjunto de juegos de Atari- obteniendo un rendimiento igual o mejor al humano“. Hassabis y sus colegas han publicado el resultado de su trabajo en la edición de esta semana de la revista Nature. Ahora, estos investigadores esperan poder aplicar el mismo a productos y servicios de Google como la búsqueda, la traducción automática, y las apps para smartphones.

El software se ejecutó en una computadora equipada con una única GPU y se entrenó durante dos semanas por cada juego, alcanzando un nivel comparable al de un humano probador profesional de juegos. La naturaleza de los juegos en los que DQN destacó fue muy variada: desde juegos de disparos con scroll lateral hasta carreras de coches pasando por juegos de boxeo. Koray Kavukcuoglu, de Google DeepMind, señala que el sistema es capaz de generalizar la toma de decisiones dentro de un proceso secuencial.

Por otra parte, los juegos en los que DQN no obtuvo un buen rendimiento reflejan las limitaciones de este software de AI. Según Vlad Mnih, “en la actualidad, el sistema aprende esencialmente pulsando teclas al azar y averiguando a posteriori si esto conduce a una alta puntuación”, pero esa estrategia no funciona en juegos que requieren de exploración o de planificación a largo plazo. Ahora, el equipo de desarrollo ha empezado a usar en las pruebas juegos desarrollados en la década de los 90, que ya incluyen juegos en 3D, lo que hace el reto mucho más complejo. Los investigadores confían en hacer que DQN afronte en breve juegos como StarCraft y Civilization.

Sobre el autor de este artículo

Marcos Merino

Marcos Merino es redactor freelance y consultor de marketing 2.0. Autodidacta, con experiencia en medios (prensa escrita y radio), y responsable de comunicación online en organizaciones sin ánimo de lucro.