Impresionante juego-ai
Una lista curada pero incompleta de recursos de IA del juego en el aprendizaje de múltiples agentes .
Si desea contribuir a esta lista, no dude en enviar una solicitud de extracción. También puede comunicarse con [email protected], o [email protected].
? Noticias: ¡Consulte nuestro modelo de serie de tiempo grande (LTSM) de origen abierto!
? ¿Has oído hablar de la IA centrada en datos? ¡Consulte nuestra encuesta de IA centrada en datos y los increíbles recursos de IA centrados en datos!
¿Qué es el juego AI?
El juego AI se centra en predecir qué acciones deben tomarse, en función de las condiciones actuales. En general, la mayoría de los juegos incorporan algún tipo de IA, que generalmente son personajes o jugadores en el juego. Para algunos juegos populares como Starcraft y Dota 2, los desarrolladores han pasado años para diseñar y refinar la IA para mejorar la experiencia.
Agente único frente a múltiples agentes
Se han realizado numerosos estudios y logros en el juego AI en entornos de un solo agente, donde hay un solo jugador en los juegos. Por ejemplo, el profundo Q-learning se aplica con éxito a los juegos de Atari. Otros ejemplos incluyen Super Mario, Minecraft y Flappy Bird.
Los entornos de múltiples agentes son más desafiantes ya que cada jugador tiene que razonar sobre los movimientos de los otros jugadores. Las técnicas modernas de aprendizaje de refuerzo han aumentado la IA del juego de múltiples agentes. En 2015, Alphago, por primera vez venció a un jugador de GO de Professional Humano en un tablero de 19 × 19 de tamaño completo. En 2017, Alphazero se enseñó desde cero y aprendió a dominar los juegos de ajedrez, shogi e Go. En años más recientes, los investigadores han hecho esfuerzos para hacer juegos de póker, como Libratus, Deepstack y Doulero, logrando un rendimiento a nivel de experto en Texas Hold'em y el juego de póker chino Dou Dizhu. Ahora los investigadores siguen progresando y logran IA a nivel humano en Dota 2 y Starcraft 2 con un aprendizaje de refuerzo profundo.
Información perfecta versus información imperfecta
La información perfecta significa que cada jugador tiene acceso a la misma información del juego, por ejemplo, GO, Ajedrez y Gomoku. La información imperfecta se refiere a la situación en la que los jugadores no pueden observar el estado completo del juego. Por ejemplo, en los juegos de cartas, un jugador no puede observar las manos de los otros jugadores. Los juegos de información imperfectos generalmente se consideran más desafiantes con más posibilidades.
¿Qué está incluido?
Este repositorio reúne algunos recursos increíbles para el juego AI sobre el aprendizaje de múltiples agentes para juegos de información perfectos e imperfectos, incluidos, entre otros, proyectos de código abierto, documentos de revisión, trabajos de investigación, conferencias y competiciones. Los recursos se clasifican por juegos, y los documentos se clasifican por años.
Tabla de contenido
- Proyectos de código abierto
- Kits de herramientas unificados
- Texas Hold'em
- Dou dizhu
- Estrella
- Ir
- Gomoku
- Ajedrez
- Ajedrez chino
- Revisión y documentos generales
- Trabajos de investigación
- Juegos de apuestas
- Dou dizhu
- Dominó chino
- Puente
- Ir
- Estrella
- Conferencias y talleres
- Concursos
- Listas relacionadas
Proyectos de código abierto
Kits de herramientas unificados
- RLCARD: un conjunto de herramientas para el aprendizaje de refuerzo en juegos de cartas [papel] [código].
- OpenSpiel: Un marco para el aprendizaje de refuerzo en los juegos [documento] [código].
- Unity ML-Agents Toolkit [Paper] [Código].
- Alfa cero general [código].
Proyectos de Texas Hold'em
- DeepStack-Leduc [Paper] [Código].
- Deepholder [código].
- Operai Gym No Limit Texas Hold 'Em Entally para el aprendizaje de refuerzo [Código].
- PypokerEngine [Código].
- Deep Mind Pokerbot para PokerStars y Partypoker [Código].
Proyectos de Dou Dizhu
- PerfectDou: Doudizhu dominante con destilación de información perfecta [código].
- DOUZERO: Dominar a Doudizhu con el aprendizaje de refuerzo profundo [código].
- Doudizhu ai usando el aprendizaje de refuerzo [código].
- Dou Di Zhu con Q-Learning Combinational [Paper] [Código].
- Doudizhu [código].
- 斗地主 AI 设计与实现 [Código].
Proyectos de estrellas
- Starcraft II de entorno de aprendizaje [documento] [Código].
- Gym Starcraft [Código].
- Startcraft II Ejemplos de aprendizaje de refuerzo [Código].
- Una guía del entorno Starcraft AI de Deepmind [código].
- Una reimplementación de Alphastar basada en el motor DI con modelos entrenados [código].
Proyectos GO
- ELF: una plataforma para la investigación de juegos con reimplementación de Alphagozero/Alphazero [código] [documento].
Proyectos de Gomoku
- Alphazero-GOMOKU [Código].
- Gobang [código].
Proyectos de ajedrez
- Ajedrez-alfa-cero [código].
- Rosa profundo [código].
- Ajedro de ajedrez simple [código].
Proyectos de ajedrez chino
- Cczero (中国象棋 cero) [código].
Proyectos de Mahjong
- PMAHJONG (japonés Riichi Mahjong) [Código].
- Mortal [código].
Revisión y documentos generales
- Aprendizaje de refuerzo profundo de la autoestima en los juegos de información imperfecta, ARXIV 2016 [documento].
- Aprendizaje de refuerzo de múltiples agentes: una visión general, 2010 [documento].
- Una descripción general del aprendizaje cooperativo y competitivo multiagente, Lamas 2005 [documento].
- Aprendizaje de refuerzo de múltiples agentes: una encuesta crítica, 2003 [documento].
Trabajos de investigación
Juegos de apuestas
Los juegos de apuestas son una de las formas más populares de juegos de póker. La lista incluye Goofspiel, Kuhn Poker, Leduc Poker y Texas Hold'em.
- Replicador neural Dynamics, ARXIV 2019 [documento].
- Calculación de equilibrio aproximado en juegos de adversario secuenciales por descenso de explotabilidad, IJCAI 2019 [documento].
- Resolviendo juegos de información imperfecta a través de la minimización de arrepentimiento con descuento, AAAI 2019 [documento].
- Minimización de arrepentimiento contrafactual profundo, ICML, 2019 [documento].
- Optimización de políticas críticas del actor en entornos multiagentes parcialmente observables, Neurips 2018 [documento].
- Resolución de subjame seguros y anidados para juegos de información imperfecta, Neurips, 2018 [documento].
- DeepStack: inteligencia artificial a nivel de experto en el póker sin límite, Science 2017 [documento].
- Un enfoque teórico de juego unificado para el aprendizaje de refuerzo multiagente, Neurips 2017 [documento].
- Poker-CNN: una estrategia de aprendizaje de patrones para hacer sorteos y apuestas en juegos de póker utilizando redes convolucionales [documento].
- Aprendizaje de refuerzo profundo de la autoestima en los juegos de información imperfecta, ARXIV 2016 [documento].
- Ficticio de sí mismo en juegos extensos de forma extensa, ICML 2015 [documento].
- Resolver el límite de cabeceo Texas Hold'em, IJCAI 2015 [Paper].
- Lamento la minimización en juegos con información incompleta, Neurips 2007 [documento].
Dou dizhu
- PerfectDou: Doudizhu dominante con destilación de información perfecta, Neurips 2022 [documento] [código].
- DOUZERO: Dominar a Doudizhu con el aprendizaje de refuerzo profundo de auto juego, ICML 2021 [documento] [Código].
- Deltadou: Doudizhu ai a nivel de experto a través de la autoestima, IJCAI 2019 [documento].
- Learning Q combinacional para Dou Di Zhu, ARXIV 2019 [documento] [Código].
- Determinización e información Configuración de información Monte Carlo Búsqueda del juego de cartas Dou Di Zhu, CIG 2011 [Documento].
Dominó chino
- Guía de oráculo variacional para el aprendizaje de refuerzo, ICLR 2022 [documento]
- SUPHX: Dominar a Mahjong con un aprendizaje de refuerzo profundo, ARXIV 2020 [documento].
- Método para construir un jugador de inteligencia artificial con abstracción a los procesos de decisión de Markov en el juego multijugador de Mahjong, ARXIV 2019 [documento].
- Construyendo una computadora Mahjong Player basada en la simulación de Monte Carlo y los modelos oponentes, IEEE CIG 2017 [Paper].
Puente
- Aumentando un puente de inteligencia artificial, ICTAI 2017 [documento].
Ir
- Dominar el juego de Go sin conocimiento humano, Nature 2017 [documento].
- Dominar el juego de Go With Deep Neural Networks and Tree Search, Nature 2016 [Documento].
- Búsqueda de diferencia temporal en computadora GO, Aprendizaje automático, 2012 [documento].
- La búsqueda de árboles de Monte-Carlo y la estimación del valor de acción rápida en la computadora GO, inteligencia artificial, 2011 [documento].
- Computación de "clasificaciones Elo" de patrones de movimiento en el juego de GO, ICGA Journal, 2007 [documento].
Estrella
- Nivel de Gran Maestro en Starcraft II utilizando el aprendizaje de refuerzo de múltiples agentes, Nature 2019 [documento].
- Sobre el aprendizaje de refuerzo para el juego completo de StarCraft, AAAI 2019 [periódico].
- Estabilización de la experiencia de repetición para un profundo aprendizaje de refuerzo de múltiples agentes, ICML 2017 [documento].
- Aprendizaje de refuerzo cooperativo para múltiples unidades Combate en Starcraft, SSCI 2017 [documento].
- Aprendizaje de la macromanación en estrellas de las repeticiones utilizando el aprendizaje profundo, cig 2017 [documento].
- Aplicando el aprendizaje de refuerzo al combate a pequeña escala en el juego de estrategia en tiempo real Starcraft: Broodwar, CIG 2012 [documento].
Conferencias y talleres
- Conferencia IEEE sobre inteligencia computacional y juegos (CIG)
- Taller de AAAI sobre aprendizaje de refuerzo en juegos
- Puir la teoría de juegos y el aprendizaje profundo
- Taller de juegos de computadora IJCAI 2018
- Conferencia IEEE sobre juegos (COG)
Concursos
- Asociación Internacional de Juegos de Computación (ICGA)
- Competencia anual de póker de computadoras
Listas relacionadas
- Impresionante starcraft ai
- Aprendizaje de refuerzo profundo impresionante