open_spiel
OpenSpiel 1.5
OpenSpiel은 게임 내 일반 강화 학습 및 검색/계획 연구를 위한 환경 및 알고리즘 모음입니다. OpenSpiel은 n-플레이어(단일 및 다중 에이전트) 제로섬, 협력 및 일반합, 일회성 및 순차, 엄격한 턴 테이킹 및 동시 이동, 완벽하고 불완전한 정보 게임은 물론 기존 다중 에이전트 환경을 지원합니다. (부분적으로 및 완전히 관찰 가능한) 그리드 세계 및 사회적 딜레마와 같은 것입니다. OpenSpiel에는 학습 역학 및 기타 일반적인 평가 지표를 분석하는 도구도 포함되어 있습니다. 게임은 자연스러운 확장이 포함된 절차적 확장형 게임으로 표현됩니다. 핵심 API와 게임은 C++로 구현되고 Python에 노출됩니다. 알고리즘과 도구는 C++와 Python으로 작성되었습니다.
Google Colaboratory에서 OpenSpiel을 사용해 보려면 open_spiel/colabs
하위 디렉터리를 참조하거나 여기에서 시작하세요.
다음 옵션 중에서 선택하세요.
알고리즘 개요 및 일부 결과를 포함하여 핵심 개념, 형식 및 용어에 대한 자세한 소개를 보려면 OpenSpiel: 게임에서 강화 학습을 위한 프레임워크를 참조하세요.
OpenSpiel 개요와 핵심 API 사용 예시를 보려면 다음 튜토리얼을 확인하세요.
연구에 OpenSpiel을 사용하는 경우 다음 BibTeX를 사용하여 논문을 인용해 주세요.
@article { LanctotEtAl2019OpenSpiel ,
title = { {OpenSpiel}: A Framework for Reinforcement Learning in Games } ,
author = { Marc Lanctot and Edward Lockhart and Jean-Baptiste Lespiau and
Vinicius Zambaldi and Satyaki Upadhyay and Julien P'{e}rolat and
Sriram Srinivasan and Finbarr Timbers and Karl Tuyls and
Shayegan Omidshafiei and Daniel Hennes and Dustin Morrill and
Paul Muller and Timo Ewalds and Ryan Faulkner and J'{a}nos Kram'{a}r
and Bart De Vylder and Brennan Saeta and James Bradbury and David Ding
and Sebastian Borgeaud and Matthew Lai and Julian Schrittwieser and
Thomas Anthony and Edward Hughes and Ivo Danihelka and Jonah Ryan-Davis } ,
year = { 2019 } ,
eprint = { 1908.09453 } ,
archivePrefix = { arXiv } ,
primaryClass = { cs.LG } ,
journal = { CoRR } ,
volume = { abs/1908.09453 } ,
url = { http://arxiv.org/abs/1908.09453 } ,
}
우리는 의미론적 버전 관리를 사용합니다.