El sistema es capaz de descubrir el
objetivo del juego y dominar sus controles sin contar con más
información que las imágenes que aparecen en pantalla y la puntuación.
Londres.- Científicos británicos han
diseñado una red neuronal artificial capaz de aprender a dominar
diversos videojuegos sin haber sido previamente programada para ello,
según un estudio que publica la revista "Nature".
La compañía DeepMind, adquirida por Google en enero de 2014, ha combinado técnicas de aprendizaje informático ya conocidas con mecanismos inspirados en la biología para lograr que su "agente artificial" aprenda a jugar a 49 videojuegos clásicos del computador Atari 2600.
El sistema es capaz de descubrir el objetivo del juego y dominar sus controles sin contar con más información que las imágenes que aparecen en pantalla y la puntuación.
Gracias a sus mecanismos de adaptación y aprendizaje, la máquina actúa a un nivel comparable al de un humano profesional de los videojuegos.
Los autores del sistema subrayan que la aplicación de la inteligencia artificial a los videojuegos no es más que una demostración de la potencia de su algoritmo, cuyo uso se puede generalizar a otro tipo de entornos e industrias.
Demis Hassabis, uno de los creadores, explicó a Efe que su red neuronal es un artefacto de naturaleza distinta a otras máquinas como el conocido Deep Blue, el ordenador que en 1996 derrotó por primera vez a un campeón del mundo de ajedrez -en aquel momento el ruso Gary Kaspárov-.
"La diferencia es que las habilidades de Deep Blue estaban programadas de antemano. Un equipo de ingenieros y maestros del ajedrez volcaron todo su conocimiento en un algoritmo que se ejecutaba con éxito sin aprender nada", relató Hassabis.
"Nuestra sistema, en cambio, empieza de cero, sin ninguna información. Solo cuenta con la experiencia perceptiva. Tiene que aprender él solo qué patrones seguir. La idea es que pueda adaptarse a situaciones inesperadas", detalló.
El investigador explicó que los sistemas de redes neuronales artificiales son "más humanos" que otro tipo de programas de inteligencia artificial porque asimilan el mundo que los rodea y crean un modelo que les permite tomar decisiones.
En el caso de los videojuegos, el sistema aprende qué acciones son más recomendables según la puntuación que va sumando en una partida.
Con esa estrategia, es capaz de sobresalir en videojuegos de todo tipo -juegos de plataformas, de disparos, de boxeo y de carreras de coches-, lo que demuestra que "una única arquitectura puede desarrollar tácticas óptimas para una amplia variedad de entornos", describió Hassabis.
"La idea es que el sistema se puede aplicar a cualquier toma de decisiones secuencial. No hemos programado nada específico para jugar a videojuegos de Atari, es un programa de aprendizaje general", afirmó Koray Kavukcuoglu, miembro de DeepMind.
La empresa es desde el año pasado propiedad de la estadounidense Google, que pagó cerca de 450 millones de euros por ella en una puja en la que también competían otras grandes compañías del sector tecnológico como Facebook.
La compañía DeepMind, adquirida por Google en enero de 2014, ha combinado técnicas de aprendizaje informático ya conocidas con mecanismos inspirados en la biología para lograr que su "agente artificial" aprenda a jugar a 49 videojuegos clásicos del computador Atari 2600.
El sistema es capaz de descubrir el objetivo del juego y dominar sus controles sin contar con más información que las imágenes que aparecen en pantalla y la puntuación.
Gracias a sus mecanismos de adaptación y aprendizaje, la máquina actúa a un nivel comparable al de un humano profesional de los videojuegos.
Los autores del sistema subrayan que la aplicación de la inteligencia artificial a los videojuegos no es más que una demostración de la potencia de su algoritmo, cuyo uso se puede generalizar a otro tipo de entornos e industrias.
Demis Hassabis, uno de los creadores, explicó a Efe que su red neuronal es un artefacto de naturaleza distinta a otras máquinas como el conocido Deep Blue, el ordenador que en 1996 derrotó por primera vez a un campeón del mundo de ajedrez -en aquel momento el ruso Gary Kaspárov-.
"La diferencia es que las habilidades de Deep Blue estaban programadas de antemano. Un equipo de ingenieros y maestros del ajedrez volcaron todo su conocimiento en un algoritmo que se ejecutaba con éxito sin aprender nada", relató Hassabis.
"Nuestra sistema, en cambio, empieza de cero, sin ninguna información. Solo cuenta con la experiencia perceptiva. Tiene que aprender él solo qué patrones seguir. La idea es que pueda adaptarse a situaciones inesperadas", detalló.
El investigador explicó que los sistemas de redes neuronales artificiales son "más humanos" que otro tipo de programas de inteligencia artificial porque asimilan el mundo que los rodea y crean un modelo que les permite tomar decisiones.
En el caso de los videojuegos, el sistema aprende qué acciones son más recomendables según la puntuación que va sumando en una partida.
Con esa estrategia, es capaz de sobresalir en videojuegos de todo tipo -juegos de plataformas, de disparos, de boxeo y de carreras de coches-, lo que demuestra que "una única arquitectura puede desarrollar tácticas óptimas para una amplia variedad de entornos", describió Hassabis.
"La idea es que el sistema se puede aplicar a cualquier toma de decisiones secuencial. No hemos programado nada específico para jugar a videojuegos de Atari, es un programa de aprendizaje general", afirmó Koray Kavukcuoglu, miembro de DeepMind.
La empresa es desde el año pasado propiedad de la estadounidense Google, que pagó cerca de 450 millones de euros por ella en una puja en la que también competían otras grandes compañías del sector tecnológico como Facebook.
Siguenos a traves de nuestro twitter @elparroquiano
Si deseas comunicarte con nosotros ya sea para denunciar, aportar o publicitar con nosotros, escribenos aca: eparroquiano5@gmail.com
No hay comentarios.:
Publicar un comentario