很棒的游戏
策划但不完整的游戏AI资源列表。
如果您想为此列表做出贡献,请随时发送拉动请求。您也可以联系[email protected]或[email protected]。
?新闻:请查看我们开源的大型时间序列模型(LTSM)!
?您听说过以数据为中心的AI?请查看我们以数据为中心的AI调查和以数据为中心的AI资源!
什么是游戏AI?
游戏AI专注于根据当前条件预测应采取哪些操作。通常,大多数游戏都包含某种AI,通常是游戏中的角色或玩家。对于一些流行的游戏,例如星际争霸和Dota 2,开发人员花了数年时间来设计和完善AI以增强体验。
单位代理与多机构
在游戏中有单个玩家的单个环境中,已经对游戏AI进行了许多研究和成就。例如,深度Q学习成功地应用于Atari Games。其他例子包括超级马里奥,我的世界和脆弱的鸟。
多代理环境更具挑战性,因为每个玩家都必须推理其他玩家的举动。现代的强化学习技术增强了多代理游戏AI。 2015年,Alphago首次在全尺寸的19×19板上击败了人类专业的GO球员。在2017年,Alphazero从头开始教授自己,并学会了掌握国际象棋,Shogi和Go的游戏。近年来,研究人员已经努力扑克游戏,例如Libratus,Deepstack和Douzero,在德克萨斯州Hold'em和中国扑克游戏Dou Dizhu中取得了专家级别的表现。现在,研究人员继续进步并在DOTA 2和Starcraft 2上实现人级AI,并深入强化学习。
完美的信息与不完美的信息
完美的信息意味着每个玩家都可以访问游戏的相同信息,例如,GO,国际象棋和Gomoku。不完美的信息是指玩家无法观察到游戏状态的情况。例如,在纸牌游戏中,玩家无法观察其他玩家的手。不完美的信息游戏通常被认为更具挑战性,并且更多的可能性。
包括什么?
该存储库为游戏AI收集了一些令人敬畏的资源,以提供多代理学习和不完美的信息游戏,包括但不限于开源项目,审查论文,研究论文,会议和竞赛。资源按游戏进行分类,并且论文按多年进行分类。
目录
- 开源项目
- 统一工具包
- 德克萨斯州HOUST'EM
- Dou Dizhu
- 星际争霸
- 去
- gomoku
- 棋
- 中国国际象棋
- 评论和一般论文
- 研究论文
- 会议和讲习班
- 比赛
- 相关列表
开源项目
统一工具包
- RLCARD:纸牌游戏中用于加固学习的工具包[Paper] [代码]。
- OpenSpiel:游戏中增强学习的框架[纸] [代码]。
- Unity ML代理工具包[Paper] [代码]。
- Alpha Zero General [代码]。
德克萨斯州持有项目
- DeepStack-LeDuc [Paper] [代码]。
- Deepholdem [代码]。
- Openai Gym没有限制德克萨斯州的EM环境用于加强学习[代码]。
- pypokerengine [代码]。
- Deep Mind Pokerbot for Pokerstars和Partypoker [代码]。
Dou Dizhu项目
- PerfectDou:以完美的信息蒸馏来统治Doudizhu [代码]。
- Douzero:用自我播放的深度强化学习[代码]来掌握杜迪兹(Doudizhu)。
- Doudizhu AI使用加固学习[代码]。
- dou di zhu与组合Q学习[Paper] [Code]。
- doudizhu [代码]。
- 斗地主ai设计与实现[代码]。
星际争霸项目
- Starcraft II学习环境[论文] [代码]。
- 体育馆星际争霸[代码]。
- Startcraft II强化学习示例[代码]。
- DeepMind的星际争霸AI环境指南[代码]。
- 基于DI-Engine的Alphastar的重新实现,并具有训练有素的模型[代码]。
去项目
- ELF:使用Alphagozero/Alphazero重新实现[Code] [Paper]的游戏研究平台。
Gomoku项目
- alphazero-gomoku [代码]。
- Gobang [代码]。
国际象棋项目
- 国际象棋-Alpha-Zero [代码]。
- 深粉红色[代码]。
- 简单的国际象棋AI [代码]。
中国国际象棋项目
Mahjong项目
- Pymahjong(日本Riichi Mahjong)[代码]。
- 凡人[代码]。
评论和一般论文
- 在不完美的信息游戏中,从自我玩法中学习深度强化,Arxiv 2016 [Paper]。
- 多代理增强学习:概述,2010年[论文]。
- 合作和竞争性多种学习的概述,Lamas 2005 [Paper]。
- 多代理增强学习:一项批判性调查,2003年[论文]。
研究论文
博彩游戏
博彩游戏是扑克游戏中最受欢迎的形式之一。该列表包括Goofspiel,Kuhn Poker,Leduc Poker和Texas Hold'em。
- 神经复制器动力学,Arxiv 2019 [Paper]。
- 通过可利用性下降计算顺序对抗游戏中的近似平衡,IJCAI 2019 [Paper]。
- 通过打折的遗憾最小化解决不完美的信息游戏,AAAI 2019 [论文]。
- 深度反事实遗憾的最小化,ICML,2019 [Paper]。
- Actor-Critic政策优化在部分可观察到的多种环境中,Neurips 2018 [Paper]。
- 安全和嵌套的子游戏解决不完美的信息游戏,Neurips,2018 [Paper]。
- DeepStack:专家级的人工智能无限制扑克,科学2017 [论文]。
- 统一的游戏理论方法,用于多基因增强学习,Neurips 2017 [Paper]。
- Poker-CNN:一种使用卷积网络在扑克游戏中进行抽签和赌注的模式学习策略[Paper]。
- 在不完美的信息游戏中,从自我玩法中学习深度强化,Arxiv 2016 [Paper]。
- 大型游戏中的虚拟自我玩法,ICML 2015 [Paper]。
- 解决头部限制德克萨斯州Hold'em,ijcai 2015 [论文]。
- 遗憾的是最小化信息不完整的游戏,Neurips 2007 [Paper]。
Dou Dizhu
- Perfectdou:以完美的信息蒸馏来统治Doudizhu,Neurips 2022 [Paper] [Code]。
- Douzero:通过自我播放深度加强学习掌握Doudizhu,ICML 2021 [Paper] [Code]。
- Deltadou:通过自我播放,ijcai 2019 [论文]专家级Doudizhu ai。
- Dou Di Zhu的Q-Learning,Arxiv 2019 [Paper] [Code]。
- 确定和信息集蒙特卡洛树搜索纸牌游戏Dou Di Zhu,CIG 2011 [Paper]。
马翁
- 变性甲骨文指导增强学习,ICLR 2022 [纸]
- Suphx:用深度加固学习掌握Mahjong,Arxiv 2020 [Paper]。
- 用抽象来构建人工智能播放器的方法,以在Mahjong的多人游戏游戏中进行马萨诸塞州的决策过程,Arxiv 2019 [Paper]。
- 建立基于蒙特卡洛模拟和对手模型的计算机Mahjong播放器,IEEE CIG 2017 [Paper]。
桥
去
- 掌握没有人类知识的GO的游戏,自然2017 [Paper]。
- 使用深度神经网络和树木搜索,自然2016 [Paper]掌握GO的游戏。
- 计算机GO中的时间差异搜索,机器学习,2012 [Paper]。
- 蒙特卡罗树搜索和计算机GO中的快速动作价值估计,人工智能,2011 [Paper]。
- 计算GO游戏中移动模式的“ ELO评级”,ICGA Journal,2007 [Paper]。
星际争霸
- Starcraft II的大师级使用多代理增强学习,自然2019 [论文]。
- 关于《星际争霸》全长游戏的加强学习,AAAI 2019 [Paper]。
- 稳定经验重播,以进行深层强化学习,ICML 2017 [Paper]。
- 星际争霸中多个单位战斗的合作加强学习,SSCI 2017 [Paper]。
- 使用深度学习从重播中学习宏观管理,CIG 2017 [Paper]。
- 将强化学习应用于实时策略游戏《星际争霸:Broodwar》,CIG 2012 [Paper]。
会议和讲习班
- IEEE计算情报与游戏会议(CIG)
- AAAI关于游戏中强化学习的研讨会
- 桥接游戏理论和深度学习
- IJCAI 2018电脑游戏研讨会
- IEEE游戏会议(COG)
比赛
相关列表