INCRÍVEL-GODE-AI
Uma lista com curadoria, mas incompleta, de recursos de AI do jogo em aprendizado multi-agente .
Se você deseja contribuir com esta lista, sinta -se à vontade para enviar uma solicitação de tração. Além disso, você pode entrar em contato com [email protected], ou [email protected].
? Notícias: Por favor, confira nosso modelo de série temporal de origem aberta (LTSM)!
? Você já ouviu falar da IA centrada em dados? Confira nossa pesquisa de IA centrada em dados e recursos incríveis de IA centrados em dados!
O que é o jogo AI?
O jogo AI está focado em prever quais ações devem ser tomadas, com base nas condições atuais. Geralmente, a maioria dos jogos incorpora algum tipo de IA, que geralmente são personagens ou jogadores do jogo. Para alguns jogos populares, como Starcraft e Dota 2, os desenvolvedores passaram anos para projetar e refinar a IA para aprimorar a experiência.
Agente único vs. multi-agente
Inúmeros estudos e realizações foram feitos para jogar IA em ambientes de agente único, onde há um único jogador nos jogos. Por exemplo, o Q-learning profundo é aplicado com sucesso aos jogos Atari. Outros exemplos incluem Super Mario, Minecraft e Flappy Bird.
Ambientes multi-agentes são mais desafiadores, pois cada jogador precisa raciocinar sobre os movimentos dos outros jogadores. As técnicas modernas de aprendizado de reforço aumentaram a IA do jogo multi-agente. Em 2015, o AlphaGo, pela primeira vez, venceu um jogador profissional humano em uma placa de 19 × 19 em tamanho grande. Em 2017, Alphazero se ensinou do zero e aprendeu a dominar os jogos de xadrez, shogi e ir. Nos anos mais recentes, os pesquisadores fizeram esforços para jogos de poker, como Libratus, Deepstack e Douzero, alcançando o desempenho em nível de especialista no Texas Hold'em e o jogo de poker chinês Dou Dizhu. Agora, os pesquisadores continuam progredindo e alcançam a IA de nível humano no DOTA 2 e Starcraft 2 com aprendizado de reforço profundo.
Informação perfeita vs. informações imperfeitas
Informações perfeitas significa que cada jogador tem acesso às mesmas informações do jogo, por exemplo, Go, xadrez e Gomoku. Informações imperfeitas referem -se à situação em que os jogadores não podem observar todo o estado do jogo. Por exemplo, em jogos de cartas, um jogador não pode observar as mãos dos outros jogadores. Os jogos de informação imperfeitos geralmente são considerados mais desafiadores com mais possibilidades.
O que está incluído?
Esse repositório reúne alguns recursos impressionantes para o jogo IA sobre aprendizado multi-agente para jogos de informação perfeitos e imperfeitos, incluindo, entre outros, projetos de código aberto, artigos de revisão, trabalhos de pesquisa, conferências e competições. Os recursos são categorizados por jogos e os documentos são classificados por anos.
Índice
- Projetos de código aberto
- Kits de ferramentas unificados
- Texas Hold'em
- Dou Dizhu
- StarCraft
- Ir
- Gomoku
- Xadrez
- Xadrez chinês
- Revisão e documentos gerais
- Trabalhos de pesquisa
- Apostando jogos
- Dou Dizhu
- Mahjong
- Ponte
- Ir
- StarCraft
- Conferências e workshops
- Competições
- Listas relacionadas
Projetos de código aberto
Kits de ferramentas unificados
- RLCARD: Um kit de ferramentas para o aprendizado de reforço em jogos de cartas [Paper] [código].
- OpenSpiel: Uma estrutura para o aprendizado de reforço em jogos [Paper] [Código].
- Unity ML-Agents Toolkit [Paper] [Código].
- Alpha Zero General [Código].
Texas Hold'em Projects
- Deepstack-Leduc [Paper] [Código].
- DeepHoldem [código].
- Openi Gym No Limit Texas Hold 'EM Ambiente para Aprendizagem de Reforço [Código].
- PyPokerEngine [código].
- Deep Mind PokerBot para PokerStars e PartyPoker [Code].
Projetos Dou Dizhu
- PerfectDou: Dominando Doudizhu com destilação de informação perfeita [código].
- Douzero: dominar Doudizhu com o aprendizado de reforço profundo do auto-jogo [código].
- Doudizhu ai usando o aprendizado de reforço [código].
- Dou Di Zhu com q-learning combinacional [Paper] [Código].
- Doudizhu [código].
- 斗地主 ai 设计与实现 [código].
Projetos de Starcraft
- StarCraft II Ambiente de Aprendizagem [Artigo] [Código].
- Gym Starcraft [código].
- StartCraft II Exemplos de aprendizado de reforço [código].
- Um guia para o ambiente Starcraft AI do DeepMind [código].
- Uma reimplementação de alfastar com base no Di-Engine com modelos treinados [código].
Go Projects
- ELF: Uma plataforma para pesquisa de jogos com reimplementação de AlphagoZero/Alphazero [código] [Paper].
Projetos de Gomoku
- Alphazero-Gomoku [código].
- gobang [código].
Projetos de xadrez
- Xadrez-alfa-zero [código].
- Código rosa profundo [Código].
- Xadrez simples ai [código].
Projetos de xadrez chinês
- CCZERO (中国象棋 Zero) [Código].
Projetos Mahjong
- Pymahjong (Riichi Mahjong japonês) [Código].
- Mortal [código].
Revisão e documentos gerais
- Aprendizagem de reforço profundo com a auto-reprodução em jogos de informações imperfeitas, Arxiv 2016 [Artigo].
- Aprendizagem de reforço multi-agente: uma visão geral, 2010 [artigo].
- Uma visão geral da aprendizagem multiagente cooperativa e competitiva, Lamas 2005 [Paper].
- Aprendizagem de reforço multi-agente: uma pesquisa crítica, 2003 [Artigo].
Trabalhos de pesquisa
Apostando jogos
Os jogos de apostas são uma das formas mais populares de jogos de poker. A lista inclui Goofspiel, Kuhn Poker, Leduc Poker e Texas Hold'em.
- Dinâmica do Replicador Neural, ARXIV 2019 [Artigo].
- Computação de equilíbrio aproximado em jogos adversários seqüenciais por descendência de exploração, IJCAI 2019 [Paper].
- Resolvendo jogos de informações imperfeitas por meio de minimização de arrependimento com desconto, AAAI 2019 [artigo].
- Minimização de arrependimento profundo, ICML, 2019 [Artigo].
- Otimização de políticas críticas de ator em ambientes multiagentes parcialmente observáveis, Neurips 2018 [Paper].
- Solução de subgame segura e aninhada para jogos de informações imperfeitas, Neurips, 2018 [Paper].
- Deepstack: Inteligência artificial em nível de especialista no heads-up sem poker sem limite, ciência 2017 [artigo].
- Uma abordagem teórica de jogos unificada para o aprendizado de reforço multiagente, Neurips 2017 [Paper].
- Poker-CNN: Uma estratégia de aprendizado de padrões para fazer desenhos e apostas em jogos de pôquer usando redes convolucionais [Paper].
- Aprendizagem de reforço profundo com a auto-reprodução em jogos de informações imperfeitas, Arxiv 2016 [Artigo].
- Auto-jogada fictícia em jogos extensos, ICML 2015 [Paper].
- Resolvendo o limite de heads-up Texas Hold'em, ijcai 2015 [Paper].
- Lamento minimização em jogos com informações incompletas, Neurips 2007 [Paper].
Dou Dizhu
- PerfectDou: Dominando Doudizhu com destilação de informação perfeita, Neurips 2022 [Paper] [Código].
- DOUZERO: Dominando Doudizhu com Aprendizagem de Reforço Profundo do Auto-Play, ICML 2021 [Paper] [Código].
- Deltadou: Doudizhu AI de nível de especialista através do auto-jogo, IJCAI 2019 [Artigo].
- Q-learning combinacional para Dou Di Zhu, ARXIV 2019 [Paper] [Código].
- Conjunto de determinação e informação Monte Carlo Tree Pesquise o jogo de cartas Dou Di Zhu, CIG 2011 [Paper].
Mahjong
- Oracle Oracle Orienting para Aprendizagem de Reforço, ICLR 2022 [Paper]
- SUPHX: Dominando Mahjong com aprendizado de reforço profundo, ARXIV 2020 [Paper].
- Método para construir o jogador de inteligência artificial com abstração para os processos de decisão de Markov no jogo multiplayer de Mahjong, Arxiv 2019 [Paper].
- Construindo um jogador de Mahjong de computador com base na simulação de Monte Carlo e nos modelos de oponentes, IEEE CIG 2017 [Paper].
Ponte
- Aumentando uma Inteligência Artificial da Ponte, ICTAI 2017 [Artigo].
Ir
- Dominar o jogo de Go Without Human Knowledge, Nature 2017 [Artigo].
- Dominando o jogo de Go com redes neurais profundas e pesquisa de árvores, Nature 2016 [artigo].
- Pesquisa de diferenças temporais no computador Go, Machine Learning, 2012 [Paper].
- Pesquisa de árvores de Monte-Carlo e estimativa rápida de valor de ação em Computer Go, Inteligência Artificial, 2011 [Paper].
- Computando “ELO Ratings” de padrões de movimento no jogo de Go, ICGA Journal, 2007 [Paper].
StarCraft
- GRANDMASTER Nível em Starcraft II usando aprendizado de reforço multi-agente, Nature 2019 [Paper].
- Sobre o aprendizado de reforço para o jogo completo de Starcraft, AAAI 2019 [Paper].
- Estabilizar a experiência de experiência para o aprendizado de reforço multi-agente profundo, ICML 2017 [artigo].
- Aprendizagem de reforço cooperativo para várias unidades combate em Starcraft, SSCI 2017 [Paper].
- Aprendendo o MacRomanagement em Starcraft com replays usando Deep Learning, CIG 2017 [Paper].
- Aplicando o aprendizado de reforço a um combate em pequena escala no jogo de estratégia em tempo real Starcraft: Broodwar, CIG 2012 [Paper].
Conferências e workshops
- Conferência IEEE sobre Inteligência Computacional e Jogos (CIG)
- Workshop AAAI sobre aprendizado de reforço em jogos
- Bridging Game Theory e Deep Learning
- IJCAI 2018 Workshop de jogos de computador
- Conferência IEEE sobre Jogos (Cog)
Competições
- Associação Internacional de Jogos de Computadores (ICGA)
- Competição anual de poker de computadores
Listas relacionadas
- Incrível Starcraft AI
- Aprendiz de reforço profundo