Tech

Google ayuda a las computadoras a soñar para aprender mejor

"Agente de aprendizaje auxiliar y de refuerzo no supervisado" es el nombre de un nuevo sistema desarrollado por DeepMind, división de Google, con el que las computadoras pueden mejorar su aprendizaje con mecanismos similares a los de los sueños.
Bloomberg
17 noviembre 2016 18:22 Última actualización 17 noviembre 2016 20:9
Etiquetas
deep mind

(Especial)

Quizá los androides no sueñen con ovejas eléctricas, como alguna vez planteara el escritor de ciencia ficción Philip Dick. Pero el más reciente sistema de inteligencia artificial de la división DeepMind de Google sí sueña, al menos metafóricamente, con encontrar manzanas en un laberinto.

Investigadores de DeepMind escribieron en un artículo publicado en línea el jueves que habían logrado un salto en la velocidad y el desempeño de un sistema de aprendizaje automático. Esto se logró por medio de, entre otras cosas, dar a la tecnología atributos que funcionan de manera similar a como se cree que los animales sueñan.

El artículo explica cómo el nuevo sistema de DeepMind –llamado agente de aprendizaje auxiliar y de refuerzo no supervisado, o Unreal (irreal) por sus siglas en inglés- aprendió a dominar un juego de laberintos tridimensionales llamado Labyrinth 10 veces más rápido que el mejor software de inteligencia artificial existente. Ahora puede jugar el juego al 87 por ciento del desempeño de los jugadores humanos expertos, señalaron los investigadores de DeepMind.

“Nuestro agente es mucho más rápido de entrenar, y requiere de mucha menos experiencia del mundo para hacerlo, lo que le da una eficiencia de datos mucho mayor”, escribieron los investigadores de DeepMind Max Jaderberg y Volodymyr Mnih en un correo electrónico.


Señalaron que Unreal permitiría que los investigadores de DeepMind experimenten con ideas nuevas mucho más rápidamente debido al menor tiempo que les toma entrenar al sistema. DeepMind ya ha visto a sus productos de inteligencia artificial lograr resultados muy respetados enseñándose a sí mismo a jugar videojuegos, particularmente Breakout, el título retro de Atari.

LABERINTO DE MANZANAS
Labyrinth es un juego desarrollado por DeepMind, basado libremente en el estilo de diseño de la popular serie de videojuegos Quake. Gira en torno a una máquina que debe navegar rutas a través de un laberinto, marcando puntos al recolectar manzanas.

Este estilo de juegos es un área importante para la investigación de inteligencia artificial debido a que la oportunidad de anotar puntos en el juego, y por ende reforzar los comportamientos “positivos”, ocurre con menor frecuencia que en otros juegos. Además, el software sólo tiene conocimiento parcial del trazado del laberinto en cualquier momento determinado.

Una forma en que los investigadores lograron sus resultados fue haciendo que el Unreal repase sus intentos anteriores en el juego, enfocándose especialmente en situaciones en las que había obtenido puntos antes. Los investigadores compararon esto en su artículo a la manera en que “los animales sueñan con actos de recompensa positiva o negativa con mayor frecuencia”.


CAMPEONES DE LOS JUEGOS

Dominar juegos, desde el ajedrez hasta concursos de trivia como el programa estadounidense Jeopardy!, ha servido desde hace mucho tiempo para marcar hitos importantes en la investigación de inteligencia artificial. DeepMind logró lo que se consideró un avance importante en este campo previamente este año cuando su software AlphaGo derrotó a uno de los campeones mundiales en el antiguo juego de estrategia Go.

Anteriormente este mes, DeepMind anunció la creación de una interfaz que abrirá el videojuego de ciencia ficción Starcraft II, de Blizzard Entertainment Inc, al software de aprendizaje automático.

Starcraft es considerado uno de los próximos hitos a conquistar para los investigadores de inteligencia artificial porque muchos aspectos del juego se aproximan a “el desorden del mundo real”, de acuerdo con Oriol Vinyals, investigador de DeepMind. Se espera que el Unreal ayude a DeepMind a dominar la mecánica de ese juego.