很棒的遊戲
策劃但不完整的遊戲AI資源列表。
如果您想為此列表做出貢獻,請隨時發送拉動請求。您也可以聯繫[email protected]或[email protected]。
?新聞:請查看我們開源的大型時間序列模型(LTSM)!
?您聽說過以數據為中心的AI?請查看我們以數據為中心的AI調查和以數據為中心的AI資源!
什麼是遊戲AI?
遊戲AI專注於根據當前條件預測應採取哪些操作。通常,大多數遊戲都包含某種AI,通常是遊戲中的角色或玩家。對於一些流行的遊戲,例如星際爭霸和Dota 2,開發人員花了數年時間來設計和完善AI以增強體驗。
單位代理與多機構
在遊戲中有單個玩家的單個環境中,已經對遊戲AI進行了許多研究和成就。例如,深度Q學習成功地應用於Atari Games。其他例子包括超級馬里奧,我的世界和脆弱的鳥。
多代理環境更具挑戰性,因為每個玩家都必須推理其他玩家的舉動。現代的強化學習技術增強了多代理遊戲AI。 2015年,Alphago首次在全尺寸的19×19板上擊敗了人類專業的GO球員。在2017年,Alphazero從頭開始教授自己,並學會了掌握國際象棋,Shogi和Go的遊戲。近年來,研究人員已經努力撲克遊戲,例如Libratus,Deepstack和Douzero,在德克薩斯州Hold'em和中國撲克遊戲Dou Dizhu中取得了專家級別的表現。現在,研究人員繼續進步並在DOTA 2和Starcraft 2上實現人級AI,並深入強化學習。
完美的信息與不完美的信息
完美的信息意味著每個玩家都可以訪問遊戲的相同信息,例如,GO,國際象棋和Gomoku。不完美的信息是指玩家無法觀察到遊戲狀態的情況。例如,在紙牌遊戲中,玩家無法觀察其他玩家的手。不完美的信息遊戲通常被認為更具挑戰性,並且更多的可能性。
包括什麼?
該存儲庫為遊戲AI收集了一些令人敬畏的資源,以提供多代理學習和不完美的信息遊戲,包括但不限於開源項目,審查論文,研究論文,會議和競賽。資源按遊戲進行分類,並且論文按多年進行分類。
目錄
- 開源項目
- 統一工具包
- 德克薩斯州HOUST'EM
- Dou Dizhu
- 星際爭霸
- 去
- gomoku
- 棋
- 中國國際象棋
- 評論和一般論文
- 研究論文
- 會議和講習班
- 比賽
- 相關列表
開源項目
統一工具包
- RLCARD:紙牌遊戲中用於加固學習的工具包[Paper] [代碼]。
- OpenSpiel:遊戲中增強學習的框架[紙] [代碼]。
- Unity ML代理工具包[Paper] [代碼]。
- Alpha Zero General [代碼]。
德克薩斯州持有項目
- DeepStack-LeDuc [Paper] [代碼]。
- Deepholdem [代碼]。
- Openai Gym沒有限制德克薩斯州的EM環境用於加強學習[代碼]。
- pypokerengine [代碼]。
- Deep Mind Pokerbot for Pokerstars和Partypoker [代碼]。
Dou Dizhu項目
- PerfectDou:以完美的信息蒸餾來統治Doudizhu [代碼]。
- Douzero:用自我播放的深度強化學習[代碼]來掌握杜迪茲(Doudizhu)。
- Doudizhu AI使用加固學習[代碼]。
- dou di zhu與組合Q學習[Paper] [Code]。
- doudizhu [代碼]。
- 斗地主ai設計與實現[代碼]。
星際爭霸項目
- Starcraft II學習環境[論文] [代碼]。
- 體育館星際爭霸[代碼]。
- Startcraft II強化學習示例[代碼]。
- DeepMind的星際爭霸AI環境指南[代碼]。
- 基於DI-Engine的Alphastar的重新實現,並具有訓練有素的模型[代碼]。
去項目
- ELF:使用Alphagozero/Alphazero重新實現[Code] [Paper]的遊戲研究平台。
Gomoku項目
- alphazero-gomoku [代碼]。
- Gobang [代碼]。
國際象棋項目
- 國際象棋-Alpha-Zero [代碼]。
- 深粉紅色[代碼]。
- 簡單的國際象棋AI [代碼]。
中國國際象棋項目
Mahjong項目
- Pymahjong(日本Riichi Mahjong)[代碼]。
- 凡人[代碼]。
評論和一般論文
- 在不完美的信息遊戲中,從自我玩法中學習深度強化,Arxiv 2016 [Paper]。
- 多代理增強學習:概述,2010年[論文]。
- 合作和競爭性多種學習的概述,Lamas 2005 [Paper]。
- 多代理增強學習:一項批判性調查,2003年[論文]。
研究論文
博彩遊戲
博彩遊戲是撲克遊戲中最受歡迎的形式之一。該列表包括Goofspiel,Kuhn Poker,Leduc Poker和Texas Hold'em。
- 神經復制器動力學,Arxiv 2019 [Paper]。
- 通過可利用性下降計算順序對抗遊戲中的近似平衡,IJCAI 2019 [Paper]。
- 通過打折的遺憾最小化解決不完美的信息遊戲,AAAI 2019 [論文]。
- 深度反事實遺憾的最小化,ICML,2019 [Paper]。
- Actor-Critic政策優化在部分可觀察到的多種環境中,Neurips 2018 [Paper]。
- 安全和嵌套的子遊戲解決不完美的信息遊戲,Neurips,2018 [Paper]。
- DeepStack:專家級的人工智能無限制撲克,科學2017 [論文]。
- 統一的遊戲理論方法,用於多基因增強學習,Neurips 2017 [Paper]。
- Poker-CNN:一種使用卷積網絡在撲克遊戲中進行抽籤和賭注的模式學習策略[Paper]。
- 在不完美的信息遊戲中,從自我玩法中學習深度強化,Arxiv 2016 [Paper]。
- 大型遊戲中的虛擬自我玩法,ICML 2015 [Paper]。
- 解決頭部限制德克薩斯州Hold'em,ijcai 2015 [論文]。
- 遺憾的是最小化信息不完整的遊戲,Neurips 2007 [Paper]。
Dou Dizhu
- Perfectdou:以完美的信息蒸餾來統治Doudizhu,Neurips 2022 [Paper] [Code]。
- Douzero:通過自我播放深度加強學習掌握Doudizhu,ICML 2021 [Paper] [Code]。
- Deltadou:通過自我播放,ijcai 2019 [論文]專家級Doudizhu ai。
- Dou Di Zhu的Q-Learning,Arxiv 2019 [Paper] [Code]。
- 確定和信息集蒙特卡洛樹搜索紙牌遊戲Dou Di Zhu,CIG 2011 [Paper]。
馬翁
- 變性甲骨文指導增強學習,ICLR 2022 [紙]
- Suphx:用深度加固學習掌握Mahjong,Arxiv 2020 [Paper]。
- 用抽象來構建人工智能播放器的方法,以在Mahjong的多人遊戲遊戲中進行馬薩諸塞州的決策過程,Arxiv 2019 [Paper]。
- 建立基於蒙特卡洛模擬和對手模型的計算機Mahjong播放器,IEEE CIG 2017 [Paper]。
橋
去
- 掌握沒有人類知識的GO的遊戲,自然2017 [Paper]。
- 使用深度神經網絡和樹木搜索,自然2016 [Paper]掌握GO的遊戲。
- 計算機GO中的時間差異搜索,機器學習,2012 [Paper]。
- 蒙特卡羅樹搜索和計算機GO中的快速動作價值估計,人工智能,2011 [Paper]。
- 計算GO遊戲中移動模式的“ ELO評級”,ICGA Journal,2007 [Paper]。
星際爭霸
- Starcraft II的大師級使用多代理增強學習,自然2019 [論文]。
- 關於《星際爭霸》全長游戲的加強學習,AAAI 2019 [Paper]。
- 穩定經驗重播,以進行深層強化學習,ICML 2017 [Paper]。
- 星際爭霸中多個單位戰鬥的合作加強學習,SSCI 2017 [Paper]。
- 使用深度學習從重播中學習宏觀管理,CIG 2017 [Paper]。
- 將強化學習應用於實時策略遊戲《星際爭霸:Broodwar》,CIG 2012 [Paper]。
會議和講習班
- IEEE計算情報與遊戲會議(CIG)
- AAAI關於遊戲中強化學習的研討會
- 橋接遊戲理論和深度學習
- IJCAI 2018電腦遊戲研討會
- IEEE遊戲會議(COG)
比賽
相關列表