Général-jeu-ai
Une liste organisée, mais incomplète, des ressources de jeu d'IA sur l'apprentissage multi-agents .
Si vous souhaitez contribuer à cette liste, n'hésitez pas à envoyer une demande de traction. Vous pouvez également contacter [email protected], ou [email protected].
? NOUVELLES: Veuillez consulter notre modèle de séries chronologiques grand open source (LTSM)!
? Avez-vous entendu parler de l'IA centrée sur les données? Veuillez consulter notre enquête sur l'IA axée sur les données et nos superbes ressources d'IA axées sur les données!
Qu'est-ce que le jeu AI?
Le jeu AI se concentre sur la prévision des actions qui doivent être prises, en fonction des conditions actuelles. Généralement, la plupart des jeux intègrent une sorte d'IA, qui sont généralement des personnages ou des joueurs du jeu. Pour certains jeux populaires tels que Starcraft et Dota 2, les développeurs ont passé des années à concevoir et à affiner l'IA pour améliorer l'expérience.
À agent unique vs multi-agents
De nombreuses études et réalisations ont été réalisées au jeu IA dans des environnements à agent unique, où il y a un seul joueur dans les jeux. Par exemple, Deep Q-Learning est appliqué avec succès aux jeux Atari. D'autres exemples incluent Super Mario, Minecraft et Flappy Bird.
Les environnements multi-agents sont plus difficiles car chaque joueur doit raisonner sur les mouvements des autres joueurs. Les techniques d'apprentissage du renforcement moderne ont augmenté l'IA de jeux multi-agents. En 2015, Alphago, a pour la première fois battu un joueur de GO professionnel humain sur un tableau 19 × 19 de grande taille. En 2017, Alphazero s'est enseigné de zéro et a appris à maîtriser les jeux d'échecs, de shogi et de Go. Au cours des dernières années, les chercheurs ont fait des efforts pour des jeux de poker, tels que Libratus, Deepstack et Douzero, réalisant des performances de niveau d'experts dans le jeu de poker de Texas Hold'em et de poker chinois Dou Dizhu. Désormais, les chercheurs continuent de progresser et d'atteindre l'IA au niveau de l'homme sur Dota 2 et Starcraft 2 avec un apprentissage en renforcement profond.
Informations parfaites par rapport aux informations imparfaites
Des informations parfaites signifient que chaque joueur a accès aux mêmes informations sur le jeu, par exemple, Go, Chess et Gomoku. Des informations imparfaites se réfèrent à la situation où les joueurs ne peuvent pas observer l'état complet du jeu. Par exemple, dans les jeux de cartes, un joueur ne peut pas observer les mains des autres joueurs. Les jeux d'information imparfaits sont généralement considérés comme plus difficiles avec plus de possibilités.
Qu'est-ce qui est inclus?
Ce référentiel rassemble des ressources impressionnantes pour le jeu AI sur l'apprentissage multi-agents pour les jeux d'information parfaits et imparfaits, y compris, mais sans s'y limiter, les projets open-source, les articles d'examen, les articles de recherche, les conférences et les compétitions. Les ressources sont classées par jeux et les papiers sont triés par des années.
Table des matières
- Projets open source
- Boîtes à outils unifiées
- Texas Hold'em
- Dou Dizhu
- Starcraft
- Aller
- Gomoku
- Échecs
- Échecs chinois
- Examen et documents généraux
- Documents de recherche
- Jeux de paris
- Dou Dizhu
- Mahjong
- Pont
- Aller
- Starcraft
- Conférences et ateliers
- Compétitions
- Listes connexes
Projets open source
Boîtes à outils unifiées
- RLCard: une boîte à outils pour l'apprentissage du renforcement dans les jeux de cartes [papier] [code].
- OpenSpiel: un cadre pour l'apprentissage du renforcement dans les jeux [papier] [Code].
- Unity ML-Agents Toolkit [Paper] [Code].
- Alpha Zero General [Code].
Projets Texas Hold'em
- Deepstack-leduc [papier] [code].
- DeepHoardem [Code].
- Openai Gym No Limit Texas Hold 'Em Environnement pour l'apprentissage par renforcement [Code].
- PypokerEngine [code].
- Deep Mind Pokerbot pour PokerStars et Partypoker [code].
Projets Dou Dizhu
- PerfectDou: Dodizhu dominant avec une distillation d'informations parfaites [code].
- Douzero: maîtriser Doudizhu avec l'apprentissage en renforcement profond de l'auto-play [code].
- Doudizhu ai Utilisation d'apprentissage par renforcement [Code].
- DOU DI ZHU AVEC LE COMMINATION Q-LEARNING [PAPER] [CODE].
- Doudizhu [code].
- 斗地主 ai 设计与实现 [code].
Projets StarCraft
- Environnement d'apprentissage Starcraft II [Papier] [Code].
- Gym starcraft [code].
- StartCraft II Exemples d'apprentissage du renforcement [Code].
- Un guide de l'environnement AI Starcraft de DeepMind [code].
- Une réimplémentation de l'alphastar basé sur le di-moteur avec des modèles formés [code].
Projets de go
- ELF: une plate-forme pour la recherche de jeu avec la réimplémentation AlphagoZero / Alphazero [Code] [Papier].
Projets de Gomoku
- Alphazero-Gomoku [code].
- gobang [code].
Projets d'échecs
- Échecs-alpha-zéro [code].
- Rose foncé [code].
- Échecs simples ai [code].
Projets d'échecs chinois
- Cczero (中国象棋 zéro) [code].
Projets de Mahjong
- pymahjong (Riichi japonais Mahjong) [code].
- Mortel [code].
Examen et documents généraux
- Apprentissage en renforcement profond de l'auto-play dans les jeux d'information imparfaits, Arxiv 2016 [papier].
- Apprentissage par renforcement multi-agents: un aperçu, 2010 [document].
- Un aperçu de l'apprentissage multi-agents coopératif et compétitif, Lamas 2005 [document].
- Apprentissage par renforcement multi-agents: une enquête critique, 2003 [document].
Documents de recherche
Jeux de paris
Les jeux de paris sont l'une des formes les plus populaires de jeux de poker. La liste comprend Goofspiel, Kuhn Poker, Leduc Poker et Texas Hold'em.
- Dynamique du réplicateur neural, Arxiv 2019 [papier].
- Computer les équilibres approximatives dans les jeux adversaires séquentiels par descente d'exploitabilité, IJCAI 2019 [Papier].
- Résolution de jeux d'information imparfaits via une minimisation de regret à prix réduit, AAAI 2019 [document].
- Minimisation des regrets contrefactuels profonds, ICML, 2019 [papier].
- L'optimisation des politiques acteurs-critiques dans des environnements multi-agents partiellement observables, Neirips 2018 [papier].
- Résolution sûre et imbriquée de sous-jeux pour les jeux d'information imparfaits, Neirips, 2018 [papier].
- Deepstack: Intelligence artificielle de niveau expert dans le poker sans limite, Science 2017 [document].
- Une approche théorique unifiée de l'apprentissage du renforcement multi-agents, Neirips 2017 [papier].
- Poker-CNN: Une stratégie d'apprentissage de modèle pour faire des tirages et des paris dans les jeux de poker utilisant des réseaux convolutionnels [papier].
- Apprentissage en renforcement profond de l'auto-play dans les jeux d'information imparfaits, Arxiv 2016 [papier].
- Fictitious auto-play dans les jeux de forme étendue, ICML 2015 [papier].
- Solving Heads-Up Limit Texas Hold'em, IJCAI 2015 [Paper].
- Minimisation du regret dans les jeux avec des informations incomplètes, Neirips 2007 [papier].
Dou Dizhu
- PerfectDou: Douminant Doudizhu avec une distillation d'informations parfaites, Neirips 2022 [papier] [Code].
- Douzero: maîtriser Doudizhu avec l'apprentissage en renforcement profond de l'auto-play, ICML 2021 [Paper] [Code].
- Deltadou: Doudizhu AI de niveau expert à travers l'auto-play, ijcai 2019 [papier].
- Le combinaison Q-Learning pour Dou Di Zhu, Arxiv 2019 [Paper] [Code].
- Déterminisation et ensemble d'informations Monte Carlo Tree Recherche du jeu de cartes Dou Di Zhu, CIG 2011 [Paper].
Mahjong
- Oracle variationnel guidant l'apprentissage du renforcement, ICLR 2022 [papier]
- SUPHX: Master Mahjong avec un apprentissage en renforcement profond, Arxiv 2020 [papier].
- Méthode pour construire un joueur d'intelligence artificielle avec abstraction aux processus de décision de Markov dans le jeu multijoueur de Mahjong, Arxiv 2019 [papier].
- Construire un joueur de Mahjong informatique basé sur les modèles de simulation de Monte Carlo et d'adversaires, IEEE CIG 2017 [papier].
Pont
- Boosting d'une intelligence artificielle de pont, ICTAI 2017 [document].
Aller
- Master le jeu de Go Without Human Knowledge, Nature 2017 [Paper].
- Master le jeu de Go avec des réseaux de neurones profonds et une recherche d'arbres, Nature 2016 [papier].
- Recherche de différence temporelle dans Computer Go, Machine Learning, 2012 [papier].
- Recherche d'arbres Monte-Carlo et estimation de la valeur d'action rapide dans l'ordinateur GO, Artificial Intelligence, 2011 [papier].
- Compuler les «cotes ELO» des modèles de déplacement dans le jeu de GO, ICGA Journal, 2007 [papier].
Starcraft
- Niveau Grandmaster dans Starcraft II en utilisant l'apprentissage en renforcement multi-agents, Nature 2019 [papier].
- Sur l'apprentissage du renforcement pour le jeu complet de Starcraft, AAAI 2019 [papier].
- REMPLACE D'EXPÉRIENCE DE STABILISATION POUR LES REMERFORCEMENTS MULTI-AGENTS DEEP, ICML 2017 [Papier].
- Apprentissage par renforcement coopératif pour plusieurs unités combattant dans Starcraft, SSCI 2017 [papier].
- Macromaniation d'apprentissage dans Starcraft à partir des rediffusions à l'aide de Deep Learning, CIG 2017 [Paper].
- Appliquer l'apprentissage du renforcement au combat à petite échelle dans le jeu de stratégie en temps réel Starcraft: Broodwar, CIG 2012 [Paper].
Conférences et ateliers
- Conférence IEEE sur l'intelligence informatique et les jeux (CIG)
- Atelier AAAI sur l'apprentissage du renforcement dans les jeux
- Brider la théorie des jeux et l'apprentissage en profondeur
- Atelier de jeux informatiques IJCAI 2018
- Conférence IEEE sur les jeux (COG)
Compétitions
- Association internationale des jeux informatiques (ICGA)
- Concours annuel de poker informatique
Listes connexes
- Génial starcraft ai
- Apprentissage du renforcement profond génial