Google AlphaGo
Hace un par de meses puse una entrada sobre el go, explicaba que el go, el último juego en el que los humanos batían a las máquinas, había caído ante una implementación de Google que usa Deep Learning.
Cuando escribí la entrada, esta implementación, a la que llaman AlphaGo, acababa de batir al campeón de Europa de go.
Pero en Europa no hay mucha tradición de go y los jugadores potentes están en Asia. Los jugadores asiáticos están al menos un par de niveles por encima de los de Europa. El siguiente paso de Google fué organizar un campeonato a cinco partidas contra el campeón del mundo mundial, un coreano que se llama Lee Se-dol. El premio es un millón de dólares así que el tío aceptó rápidamente.
Hoy se ha celebrado la primera partida. AlphaGo ha ganado. El coreano se ha ido rascándose la cabeza pues pensaba que iba a ganar.
Aquí hay un resumen de la partida y más información: http://www.bbc.com/news/technology-35761246
Hay algunos detalles interesantes:
El go tiene más posiciones diferentes que átomos hay en el universo, así que no se puede atacar con fuerza bruta explorando posiciones, porque su número se multiplica por 200 con cada nivel de búsqueda. El algoritmo tiene que entender la posición de una forma estratégica e "intuitiva" a partir de las configuraciones locales. El consenso era que las máquinas no ganarían a los humanos en al menos una década. Esto ha pillado de sorpresa a mucha gente.
El go tiene más posiciones diferentes que átomos hay en el universo, así que no se puede atacar con fuerza bruta explorando posiciones, porque su número se multiplica por 200 con cada nivel de búsqueda. El algoritmo tiene que entender la posición de una forma estratégica e "intuitiva" a partir de las configuraciones locales. El consenso era que las máquinas no ganarían a los humanos en al menos una década. Esto ha pillado de sorpresa a mucha gente.
La versión que batió al campeón de Europa es más débil que la que se enfrenta al campeón del mundo. Durante estos dos meses, sin cambiar la programación, ni el hardware, Google ha dejado que la máquina juegue contra sí misma (no hay ya nadie de quién aprender) y mejore su juego aprendiendo de sus propios errores. No sabemos cuánto ha aprendido durante este tiempo (ya no podemos compararla con jugadores humanos) pero sabemos que esto mejora su juego. Y dos meses son un montón de tiempo para una AI.
Otro detalle es que viendo el vídeo de la partida, había una persona poniendo las fichas en el tablero donde le decía la máquina. Aquí el "robot" teledirigido era la persona y su cerebro sólo se utilizaba para poner las piececitas en su sitio. Pensar, lo que es pensar, la que pensaba era la máquina. Esto reduce a la persona a las "tareas inferiores" y la máquina a las "superiores". Da mucho que pensar. Es fácil imaginar una empresa en la que las decisiones serias las tomen algoritmos que, por la naturaleza del deep learning no sabremos cómo funcionan, sólo que funcionan. Y la gente nada más esté encargada de ejecutarlas sin pensar.
Comentarios