Aprender a colaborar lleva su tiempo, incluso para la AI

Conseguir un equipo de alto rendimiento que colabore muy bien lleva su tiempo. Requiere de aprendizaje, esfuerzo y finalmente vale la pena 🙂

Recientemente se realizó un experimento con inteligencia artificial (AI) de donde se puede sacar un interesante paralelismo con esto. A continuación, el análisis:

Google DeepMind creó “agentes artificiales” que tenían que aprender a jugar en Quake (donde los jugadores tienen que robar la bandera del enemigo y llevarla a su base, mientras protegen la suya propia) a partir de prueba y error, sin conocer las reglas del juego. De manera muy resumida, lo que sucedió fue lo siguiente:

Tras las primeras 50.000 partidas, los agentes descubrieron que, siguiéndose unos a otros (como si fuesen hormigas) ganaban más batallas. En este punto, no se genera más que una linealidad por poner más agentes en el sistema, una suma de las partes, van juntos pero todavía no colaboran.

Necesitaron 4 veces más partidas para que cada agente desarrollase su propia manera de jugar (especialización) y empezasen a colaborar de manera efectiva, es decir, entre todos los agentes crearon un equipo multidisciplinar, a partir de lo cual empezaron a ganar muchas más partidas. Para ello, como se comenta en el siguiente artículo de Javier Salas en El País:

DeepMind los había programado para que generaran sus propias señales de recompensa: algunos se sentían más motivados a matar al enemigo (al dispararles y así devolverlos a su base), otros a capturar banderas, etc., lo que produjo un abanico amplio de jugadores con distintas habilidades y técnicas. Además, el software propicia que los agentes actúen en dos velocidades, por lo que pueden disparar con la adrenalina del enfrentamiento inmediato, pero también planificar movimientos en el largo plazo para una mejor estrategia.

Conseguir un beneficio por ir juntos es relativamente inmediato, pero conseguir resultados espectaculares necesita del desarrollo de estrategias de colaboración, y eso lleva su tiempo.

Conseguir efectos “no-lineales” (mucho más del de ser un “grupo”, aprovechando diversidad, la complementariedad y la inteligencia colectiva, pensando juntos de manera “consciente”) cuesta mucho más esfuerzo de prueba y error hasta conseguir una buena colaboración. Parece que hay aquí un paralelismo interesante con seres complejos como los humanos 🙂

Este paralelismo curiosamente se rompe en el momento en que comparamos el rendimiento de los agentes artificiales con el de seres humanos. Aquí nos encontramos con otro aspecto interesante: las máquinas son muy superiores a las personas, y sólo pierden cuando en su equipo se cambia algún agente por un humano. Y no sólo eso, los jugadores humanos puntuaron a los agentes como más cooperativos que ellos mismos. Da un poco de miedo, ¿no creéis? 🙂

Como futuro esperanzador, el artículo de El País acaba mencionando el gran aspecto en positivo detrás de todo esto:

Las máquinas pueden coordinarse con un humano para llevarlo a la victoria. Y ese es precisamente el más noble objetivo de los defensores del futuro de la inteligencia artificial: su capacidad de impulsar a los humanos más allá.

Enlace al artículo original en DeepMind.



Fuente: Proyectos ágiles (Aprender a colaborar lleva su tiempo, incluso para la AI).