Eine Sammlung GPU-beschleunigter paralleler Spielesimulatoren für Reinforcement Learning (RL)
Notiz
Wenn Sie dieses Projekt hilfreich finden, wären wir dankbar für Ihre Unterstützung durch einen GitHub-Star, der uns hilft, die Community zu vergrößern und die weitere Entwicklung zu motivieren!
v1
"tic_tac_toe"
v0
Jede Umgebung ist versioniert und die Version wird erhöht, wenn es Änderungen gibt, die sich auf die Leistung von Agents auswirken, oder wenn es Änderungen gibt, die nicht abwärtskompatibel mit der API sind. Wenn Sie eine vollständige Reproduzierbarkeit anstreben möchten, empfehlen wir Ihnen, die Version von Pgx und jede Umgebung wie folgt zu überprüfen:
> >> pgx . __version__
'1.0.0'
> >> env . version
'v0'
Pgx soll diese JAX-nativen Umgebungen durch (klassische) Brettspiel-Anzüge ergänzen:
Die Kombination von Pgx mit diesen JAX-nativen Algorithmen/Implementierungen könnte eine interessante Richtung sein:
Derzeit funktionieren einige Umgebungen, darunter Go und Schach, auf TPUs nicht gut. Bitte verwenden Sie stattdessen GPUs.
Wenn Sie Pgx in Ihrer Arbeit verwenden, zitieren Sie bitte unseren Artikel:
@inproceedings{koyamada2023pgx,
title={Pgx: Hardware-Accelerated Parallel Game Simulators for Reinforcement Learning},
author={Koyamada, Sotetsu and Okano, Shinri and Nishimori, Soichiro and Murata, Yu and Habara, Keigo and Kita, Haruka and Ishii, Shin},
booktitle={Advances in Neural Information Processing Systems},
pages={45716--45743},
volume={36},
year={2023}
}
Apache-2.0