굉장한 게임
다중 에이전트 학습에 대한 게임 AI 리소스의 선별되었지만 불완전한 목록.
이 목록에 기여하려면 풀 요청을 보내 주시기 바랍니다. 또한 [email protected] 또는 [email protected]로 문의하십시오.
? 뉴스 : Open-Sourced Large 시계열 모델 (LTSM)을 확인하십시오!
? 데이터 중심 AI에 대해 들어 보셨습니까? 데이터 중심 AI 설문 조사와 멋진 데이터 중심 AI 리소스를 확인하십시오!
게임 AI는 무엇입니까?
게임 AI는 현재 조건에 따라 어떤 조치를 취해야하는지 예측하는 데 중점을 둡니다. 일반적으로 대부분의 게임에는 일반적으로 게임의 캐릭터 또는 플레이어 인 AI가 포함됩니다. Starcraft 및 Dota 2와 같은 인기있는 게임의 경우 개발자는 경험을 향상시키기 위해 AI를 설계하고 개선하는 데 수년을 보냈습니다.
단일 에이전트 대 다중 에이전트
게임에 싱글 플레이어가있는 단일 에이전트 환경에서 게임 AI에 대한 수많은 연구와 업적이 이루어졌습니다. 예를 들어, 깊은 Q- 러닝은 Atari 게임에 성공적으로 적용됩니다. 다른 예로는 Super Mario, Minecraft 및 Flappy Bird가 있습니다.
각 플레이어는 다른 플레이어의 움직임에 대해 추론해야하기 때문에 다중 에이전트 환경이 더 어려워집니다. 현대 강화 학습 기술은 다중 에이전트 게임 AI를 향상 시켰습니다. 2015 년 Alphago는 처음으로 풀 사이즈 19 × 19 보드에서 인간 프로 Go 플레이어를 이겼습니다. 2017 년에 Alphazero는 처음부터 스스로를 가르쳐서 체스, 쇼기 및 GO의 게임을 마스터하는 법을 배웠습니다. 최근 몇 년 동안 연구원들은 Libratus, Deepstack 및 Douzero와 같은 포커 게임을 위해 텍사스 Hold'em과 중국 포커 게임 Dou Dizhu에서 전문가 수준의 성능을 달성하기 위해 노력했습니다. 이제 연구원들은 깊은 강화 학습을 통해 DOTA 2와 Starcraft 2에서 계속 발전하고 인간 수준의 AI를 달성합니다.
완벽한 정보 대 불완전한 정보
완벽한 정보는 각 플레이어가 게임의 동일한 정보 (예 : Go, Chess 및 Gomoku에 액세스 할 수 있음을 의미합니다. 불완전한 정보는 플레이어가 게임의 전체 상태를 관찰 할 수없는 상황을 말합니다. 예를 들어, 카드 게임에서 플레이어는 다른 플레이어의 손을 관찰 할 수 없습니다. 불완전한 정보 게임은 일반적으로 더 많은 가능성으로 더 어려운 것으로 간주됩니다.
무엇이 포함되어 있습니까?
이 저장소는 오픈 소스 프로젝트, 검토 논문, 연구 논문, 회의 및 경쟁을 포함하여 완벽하고 불완전한 정보 게임을위한 다중 에이전트 학습에 대한 게임 AI에 대한 멋진 리소스를 수집합니다. 리소스는 게임으로 분류되며 논문은 몇 년 만에 정렬됩니다.
목차
- 오픈 소스 프로젝트
- 통합 툴킷
- 텍사스 홀드
- Dou Dizhu
- 스타 크래프트
- 가다
- 고모 쿠
- 체스
- 중국 체스
- 검토 및 일반 서류
- 연구 논문
- 베팅 게임
- Dou Dizhu
- 마작
- 다리
- 가다
- 스타 크래프트
- 컨퍼런스 및 워크샵
- 경쟁
- 관련 목록
오픈 소스 프로젝트
통합 툴킷
- RLCARD : 카드 게임에서 강화 학습을위한 툴킷 [종이] [코드].
- OpenSpiel : 게임에서 강화 학습을위한 프레임 워크 [종이] [코드].
- Unity ML-Agents 툴킷 [용지] [코드].
- Alpha Zero General [코드].
텍사스 홀드 프로젝트
- Deepstack-LEDUC [종이] [코드].
- Deepholdem [코드].
- Openai 체육관 없음 제한된 Texas Hold 'em 강화 학습 환경 [코드].
- PypokerEngine [코드].
- PokerStars 및 Partypoker [Code]를위한 Deep Mind Pokerbot.
Dou Dizhu 프로젝트
- PerfectDou : 완벽한 정보 증류로 Doudizhu를 지배 [코드].
- Douzero : Self-Play Deep Inforcement Learning과 함께 Doudizhu를 마스터 링 [Code].
- 강화 학습을 사용한 Doudizhu AI [코드].
- 조합 Q- 러닝 [용지] [코드]와 Dou di Zhu.
- Doudizhu [코드].
- 斗地主 ai 设计与实现 [코드].
스타 크래프트 프로젝트
- 스타 크래프트 II 학습 환경 [논문] [코드].
- 체육관 스타 크래프트 [코드].
- StartCraft II 강화 학습 예 [코드].
- Deepmind의 Starcraft AI 환경에 대한 안내서 [코드].
- 훈련 된 모델이있는 디 엔진을 기반으로 한 알파스타의 재 구현 [코드].
Go Projects
- ELF : Alphagozero/Alphazero Reimplementation의 게임 연구 플랫폼 [Code] [논문].
고모 쿠 프로젝트
- Alphazero-Gomoku [코드].
- 고방 [코드].
체스 프로젝트
- 체스-알파-제로 [코드].
- 딥 핑크 [코드].
- 간단한 체스 AI [코드].
중국 체스 프로젝트
마작 프로젝트
- Pymahjong (일본 Riichi Mahjong) [코드].
- 필사자 [코드].
검토 및 일반 서류
- 불완전한 정보 게임에서 자기 재생으로부터의 깊은 강화 학습, ARXIV 2016 [종이].
- 다중 에이전트 강화 학습 : 개요, 2010 [종이].
- 협력적이고 경쟁적인 다중 기관 학습에 대한 개요, Lamas 2005 [논문].
- 다중 에이전트 강화 학습 : 중요한 설문 조사, 2003 [논문].
연구 논문
베팅 게임
베팅 게임은 가장 인기있는 포커 게임 중 하나입니다. 이 목록에는 Goofspiel, Kuhn Poker, Leduc Poker 및 Texas Hold'em이 포함됩니다.
- 신경 복제기 역학, ARXIV 2019 [종이].
- IJCAI 2019 [논문] IJCAI 2019 [종이]에 의한 순차적 적대 게임에서 대략적인 평형을 계산합니다.
- 할인 된 후회 최소화를 통한 불완전한 정보 게임 해결, AAAI 2019 [논문].
- 심도있는 반대 후회 최소화, ICML, 2019 [종이].
- 부분적으로 관찰 가능한 다중 기관 환경에서의 액터-비판 정책 최적화, Neurips 2018 [논문].
- 불완전한 정보 게임을위한 안전하고 중첩 된 서브 게임 해결, Neurips, 2018 [종이].
- Deepstack : 헤드 업 No-Limit Poker의 전문가 수준의 인공 지능, Science 2017 [논문].
- 다중 유능한 강화 학습에 대한 통합 게임 이론적 접근, Neurips 2017 [논문].
- Poker-CNN : Convolutional Networks를 사용하여 포커 게임에서 추첨 및 베팅을하는 패턴 학습 전략 [종이].
- 불완전한 정보 게임에서 자기 재생으로부터의 깊은 강화 학습, ARXIV 2016 [종이].
- 광범위한 형식 게임에서 가상의 자체 플레이, ICML 2015 [종이].
- 헤드 업 제한 Texas Hold'em, IJCAI 2015 [종이].
- 불완전한 정보가있는 게임에서 후회 최소화, Neurips 2007 [종이].
Dou Dizhu
- PerfectDou : 완벽한 정보 증류로 Doudizhu를 지배, Neurips 2022 [종이] [코드].
- Douzero : 자체 플레이 심층 강화 학습을 통해 Doudizhu를 마스터 링, ICML 2021 [논문] [코드].
- 델타 두 : 자체 플레이를 통한 전문가 수준의 Doudizhu AI, IJCAI 2019 [종이].
- Dou di Zhu의 조합 Q- 러닝, Arxiv 2019 [논문] [코드].
- 결정 및 정보 세트 Monte Carlo Tree 카드 게임 Dou Di Zhu, CIG 2011 [종이].
마작
- 강화 학습을위한 변형 Oracle Guiding, ICLR 2022 [종이]
- Suphx : 깊은 강화 학습을 통해 Mahjong 마스터, Arxiv 2020 [종이].
- Mahjong의 멀티 플레이어 게임에서 Markov 의사 결정 프로세스에 대한 추상화로 인공 지능 플레이어를 구성하는 방법, ARXIV 2019 [논문].
- Monte Carlo 시뮬레이션 및 상대 모델을 기반으로 한 컴퓨터 Mahjong 플레이어 구축, IEEE CIG 2017 [종이].
다리
- 교량 인공 지능 강화, ICTAI 2017 [종이].
가다
- 인간 지식없이 GA 게임을 마스터하는 Nature 2017 [종이].
- 깊은 신경망과 나무 검색으로 이동 게임을 마스터하는 자연 2016 [종이].
- 컴퓨터 GO, 머신 러닝, 2012 [종이]의 시간 차이 검색.
- Monte-Carlo 트리 검색 및 컴퓨터 GO의 빠른 행동 가치 추정, 인공 지능, 2011 [논문].
- GO 게임에서 이동 패턴의 "ELO 등급"컴퓨팅, ICGA Journal, 2007 [종이].
스타 크래프트
- Multi-Agent 강화 학습을 사용한 Starcraft II의 Grandmaster 수준, Nature 2019 [종이].
- 스타 크래프트의 전장 게임에 대한 강화 학습, AAAI 2019 [종이].
- 깊은 다중 에이전트 강화 학습을위한 안정화 경험, ICML 2017 [종이].
- Starcraft, SSCI 2017의 여러 단위 전투에 대한 협력 강화 학습 [종이].
- Deep Learning, CIG 2017 [종이]를 사용한 리플레이에서 스타 크래프트에서의 거대 관리 학습.
- 실시간 전략 게임 스타 크래프트에서 소규모 전투에 강화 학습 적용 : Broodwar, CIG 2012 [종이].
컨퍼런스 및 워크샵
- 계산 지능 및 게임에 관한 IEEE 회의 (CIG)
- 게임에서 강화 학습에 관한 AAAI 워크숍
- 브리징 게임 이론과 딥 러닝
- IJCAI 2018 컴퓨터 게임 워크숍
- 게임에 관한 IEEE 회의 (COG)
경쟁
- 국제 컴퓨터 게임 협회 (ICGA)
- 연례 컴퓨터 포커 경쟁
관련 목록
- 멋진 스타 크래프트 AI
- 멋진 깊은 강화 학습