Une collection de simulateurs de jeux parallèles accélérés par GPU pour l'apprentissage par renforcement (RL)
Note
Si vous trouvez ce projet utile, nous serions reconnaissants de votre soutien via une étoile GitHub pour nous aider à développer la communauté et à motiver un développement ultérieur !
v1
"tic_tac_toe"
v0
Chaque environnement est versionné et la version est incrémentée lorsque des modifications affectent les performances des agents ou lorsque des modifications ne sont pas rétrocompatibles avec l'API. Si vous souhaitez rechercher une reproductibilité complète, nous vous recommandons de vérifier la version de Pgx et de chaque environnement comme suit :
> >> pgx . __version__
'1.0.0'
> >> env . version
'v0'
Pgx est destiné à compléter ces environnements natifs JAX avec des combinaisons de jeux de société (classiques) :
Combiner Pgx avec ces algorithmes/implémentations natifs JAX pourrait être une direction intéressante :
Actuellement, certains environnements, notamment Go et les échecs, ne fonctionnent pas bien sur les TPU. Veuillez plutôt utiliser des GPU.
Si vous utilisez Pgx dans votre travail, veuillez citer notre article :
@inproceedings{koyamada2023pgx,
title={Pgx: Hardware-Accelerated Parallel Game Simulators for Reinforcement Learning},
author={Koyamada, Sotetsu and Okano, Shinri and Nishimori, Soichiro and Murata, Yu and Habara, Keigo and Kita, Haruka and Ishii, Shin},
booktitle={Advances in Neural Information Processing Systems},
pages={45716--45743},
volume={36},
year={2023}
}
Apache-2.0