La máquina que gana a los maestros del póker y por la que apuestan el Pentágono y Facebook

0
1

La inteligencia artificial y sus usos están en el centro del debate de la comunidad científica. Muchas voces del sector se han alzado para avisar de los peligros de su aplicación en el campo de batalla. Que haya científicos, ingenieros e inventores desarrollando tecnologías que sirvan para matar evoca la caja de Pandora que se destapó en el Proyecto Manhattan, cuando los mejores científicos de su generación parieron la bomba atómica. Ese episodio, el uso de la ciencia para matar a una escala inimaginable, supuso un trauma monumental entre los físicos de la época. Algunos especialistas en inteligencia artificial no quieren que les pase lo mismo tras crear máquinas de matar autónomas y lanzan iniciativas para impedirlo.

La empresa del científico tiene dos contratos de 10 millones en total con el Pentágono. Su universidad, la Carnegie Mellon, un proyecto de 72 millones

En pleno debate, la revista Sciencepublica este jueves un experimento de inteligencia artificial aplicada al póker. Pero la parte más interesante está en las últimas líneas del artículo, en el apartado de agradecimientos. El trabajo, que da a conocer un nuevo programa capaz de derrotar a cinco campeones de póker a la vez, cuenta con el apoyo de la Oficina de Investigaciones del Ejército de Estados Unidos. Y también lo financia parcialmente Facebook, la red social con más de 2.000 millones de usuarios. ¿Para qué quieren una máquina que gana al póker?

Pocas actividades humanas resumen tan bien la dificultad de gestionar la falta de información como el póker. Sin conocer las cartas de los rivales, el jugador debe tomar decisiones basándose en su propia mano y en la escasa información que los demás le suministran, deliberadamente o no. No en vano, poner cara de póker es la mejor metáfora para expresar esa capacidad de manejar el secreto sin regalarle ni una pista al resto de implicados.

Este escenario, llamado de información imperfecta, supone un reto inmenso para una máquina: cuando juega al ajedrez o a las damas contra un humano sabe lo que hay en el tablero, no decide a ciegas.  En 2017, la máquina Libratus superó este reto, pero en la versión más simple: jugando uno contra uno frente a un humano. Los juegos de suma cero, en el que la ganancia de uno es la pérdida del otro, son razonablemente sencillos de plantear para una máquina cuando compite contra un único rival. Pero si ponemos cinco humanos en la mesa, todos campeones contrastados de póker, alcanzar la victoria es mucho más complejo.

Sandholm, que desarrolló un algortimo para organizar los trasplantes en EE UU, creó una empresa para comercializar sus logros en el ámbito militar

Ese es el reto que se planteaba el equipo de investigadores que creó Libratus, que pertenece a la Universidad Carnegie Mellon y que colabora con la división de inteligencia artificial de Facebook. Y lo han logrado, según publican en la revista Science: «En este artículo describimos a Pluribus, una inteligencia artificial capaz de derrotar a los profesionales humanos de élite en el póker Texas Hold’em sin límite para seis jugadores, el formato de póker más jugado en el mundo». Pluribus aprende a ganar de cero, jugando contra cinco versiones de sí misma, sin indicaciones ni conocimiento de partidas humanas. Y desarrolla sus propias estategias ganadoras, al margen del saber acumulado por los humanos.

«La capacidad de vencer a otros cinco jugadores en un juego tan complicado abre nuevas oportunidades para utilizar la inteligencia artificial en la resolución de una amplia variedad de problemas del mundo real», asegura el autor principal de este logro, Tuomas Sandholmque en 2017 derrotó a profesionales del póker en partidas a dos con su programa Libratus. Sandholm, que lleva casi dos décadas dedicadas a conseguir que las máquinas ganen al póker, ha desarrollado algortimos con aplicaciones tan importantes como decidir cómo se organiza la donación y trasplante de órganos en EE UU.

Tras el éxito de Libratus, a finales de 2017, a Sandholm y su pupilo Noam Brown les llovieron los premios y los reconocimientos. Una máquina capaz de mejorar a los humanos gestionando escenarios en los que falta información es todo un logro. En ese momento, Sandholm creó la empresa Strategy Robot, para comercializar aplicaciones gubernamentales y de seguridad a los desarrollos tecnológicos de su laboratorio: estrategia y táctica militar, juegos de guerra, inteligencia, diplomacia, ciberseguridad, etcétera. Y con su empresa Strategic Machine comercializa las aplicaciones civiles: gestión de negociaciones, inversiones bancarias, campañas políticas, mercado eléctrico, etc.

En el póker se enfrenta a un escenario de información imperfecta: cuando juega al ajedrez o a las damas contra un humano sabe lo que hay en el tablero.

Posterioremente, Strategy Robot firmaba un contrato con el Pentágono, como adelantó Wired, por valor de casi nueve millones de euros, a través de la Unidad de Innovación para la Defensa, creada por el Pentágono para trabajar con Silicon Valley. También tiene en vigor otro contrato de casi un millón, a través de DARPA (Agencia de Proyectos de Investigación Avanzados de Defensa), para aplicar estos juegos de información imperfecta a la toma de decisiones militares. En el desarrollo de Pluribus, la nueva máquina que Sandholm y Brown presentan en la revista Science, ha colaborado la Oficina de Investigaciones del Ejército, cuyo propósito es financiar investigación en el entorno académico.

Para esta investigación, también han contado con el apoyo de Facebook. Brown está realizando su doctorado universitario en la división de inteligencia artificial de la red social. La compañía de Mark Zuckerberg pagó 50.000 euros a 15 campeones profesionales de póker, que se repartieron según sus méritos, para que jugaran 10.000 manos durante 12 días contra la máquina. También ha contado con financiación de la Fundación Nacional para la Ciencia de EE UU.

En una nota de prensa, la universidad aclara que Pluribus se basa en la tecnología desarrollada en el laboratorio de Sandholm. «También incluye un código específico de póker, escrito como una colaboración entre Carnegie Mellon y Facebook para este estudio, que no se usará en aplicaciones destinadas a defensa». Y añade: «Para cualquier otro tipo de uso, las partes han acordado que pueden usar el código como lo deseen». Esta máquina no tendrá aplicaciones militares, aseguran, pero la empresa de Sandholm desarrolla los logros de su laboratorio para el Pentágono, en este mismo campo de conocimiento.

Facebook pagó 50.000 euros a quince campeones profesionales de póker y podrá usar el programa «como lo desee»

En marzo, el Ejército de EE UU comprometía 72 millones de dólares para un proyecto de inteligencia artificial que sirva para «investigar y descubrir capacidades que mejoren significativamente la efectividad de la misión en todo el Ejército al aumentar los soldados, optimizar las operaciones, mejorar la preparación y reducir las bajas». El consorcio lo lidera Carnegie Mellon.

«Desconozco que usos concretos pueden interesarle a Facebook y el Ejército», admite la experta en inteligencia artificial Nuria Oliver, «pero entiendo que es aplicar este desarrollo a la toma de decisiones y la predicción del comportamiento humano». Oliver, doctora en este campo por el MIT y miembro de la Real Academia de Ingeniería, señala que esta tecnología puede generar problemas éticos en el campo de la autonomía humana, ya que al ser capaz de predecir comportamientos también puede inducir acciones, «lo que sería una potencial violación de la autonomía». Además, le genera dudas desde el punto de la vista de la transparencia de su uso y en el objetivo de minimizar el impacto negativo: «no ser maléfico».

Hace un mes y medio, se publicaba también en la revista Science otro logro de la inteligencia artificial contra humanos expertos. En ese caso, era en un videojuego de disparar a tu enemigo, el Quake III Arena, que combina estrategia, acción y falta de información en algunos momentos en los que no sabe qué hace el rival. Ese logro lo firmaba DeepMind, la empresa de Google dedicada a la inteligencia artificial. Pero DeepMind se ha comprometido a evitar el uso de la inteligencia artificial para desarrollar armas autónomas, como numerosos académicos y otras compañías de este campo. Sandholm cree que se exageran las preocupaciones sobre el uso militar de estas tecnologías, ya que mantendrán a EE UU a salvo. «Creo que la inteligencia artificial va a hacer del mundo un lugar mucho más seguro», decía el científico a Wired en enero. Poco antes, Google tuvo que cancelar su participación en el proyecto Maven, una colaboración con el Pentágono, por una revuelta de sus propios empleados, que se negaban en mejorar la visión de los drones del Ejército, lo que facilitaría su función mortífera. De nuevo, la ciencia y la tecnología ante sus demonios.