El nuevo reto de Google, jugar StarCraft II a la perfección

StarCraft II

Juegos como las damas, ajedrez, el Go o póquer han sido superado por sistemas de inteligencia artificial. Ahora el reto es mucho más ambicioso, derrotar a cualquier jugador humano en StarCraft II.

Google DeepMind creen que pueden lograrlo, es un reto bastante interesante que el de Go, porque StarCraft es un juego con información imperfecta.

En StarCraft II, la inteligencia artificial debe “predecir” donde se encuentra el enemigo.

Google DeepMind, realizará este proyecto junto a la desarrolladora del videojuego Blizzard. Además la API suministrará una gran cantidad de partidas para “entrenar” al motor de DeepMind; a través de motores de aprendizaje automático.

Por otro lado, también han iniciado un proyecto paralelo con el mismo objetivo.

Los resultados de estas iniciativas pueden ser aplicables al mundo real, que los que se lograron con AlphaGo o DeepBlue. Hace varios años ya se desarrollan bots para este juego, por medio de un plugin Open Source no oficial.

Hasta el momento estos bots son mediocres, siguen con la estrategia planteadas por sus desarrolladores. Pero no “crean” nuevas estrategias a partir de la información aprendida de anteriores partidas como sí hacía AlphaGo al jugar a Go.

Algunos afirman que se pueden tardar al menos cinco años, para lograr ese motor de inteligencia artificial capaz de derrotar a los seres humanos al StarCraft II; dado a que la complejidad de dicho proyecto es mucho mayor que la de Go.

Google ha dispuesto varias herramientas para aquellas personas que quieran sumarse a este proyecto, llamadas como PySC2, en GitHub.