GENRLは、再現可能で一般化可能なアルゴリズムの実装と強化学習のアクセシビリティの改善を中心としたPytorch Renecertion Learning Libraryです
GenRLの現在のリリースはv0.0.2です。変化の変化を期待してください
強化学習研究は、かつてないほど速く動いています。成長傾向に対応し、RLの研究が再現性を維持することを保証するために、GenRLは、次の主な機能を提供することにより、より速い紙の複製とベンチマークを支援することを目指しています。
これらの機能をGenRLに統合することにより、最終的に100行未満で新しいアルゴリズムの実装をサポートすることを目指しています。
貢献に興味がある場合は、コード、ドキュメント、テストなどのPRSをお気軽に調べてください。質問がある場合は、貢献ガイドラインをご覧ください。
GenRLはPython 3.6以降と互換性があり、 pytorch
とopenai-gym
にも依存しています。 GenRLをインストールする最も簡単な方法は、Pythonの優先パッケージインストーラーであるPIPを使用することです。
$ pip install genrl
GenRLはアクティブなプロジェクトであり、日常的に新しいリリースを公開していることに注意してください。 GenRLを最新バージョンにアップグレードするには、次のようにPIPを使用します。
$ pip install -U genrl
ライブラリの最新の未発表バージョン(IE Source)をインストールする場合は、次のことを行うことができます。
$ git clone https://github.com/SforAiDl/genrl.git
$ cd genrl
$ python setup.py install
Pendulum-v0
ジム環境で柔らかい俳優の批判的なモデルをゼロから訓練し、テンソルボードでのログ報酬を訓練する
import gym
from genrl . agents import SAC
from genrl . trainers import OffPolicyTrainer
from genrl . environments import VectorEnv
env = VectorEnv ( "Pendulum-v0" )
agent = SAC ( 'mlp' , env )
trainer = OffPolicyTrainer ( agent , env , log_mode = [ 'stdout' , 'tensorboard' ])
trainer . train ()
FrozenLake-v0
ジム環境で四角いDyna-Qモデルをゼロから訓練し、報酬をプロットするには:
import gym
from genrl . agents import QLearning
from genrl . trainers import ClassicalTrainer
env = gym . make ( "FrozenLake-v0" )
agent = QLearning ( env )
trainer = ClassicalTrainer ( agent , env , mode = "dyna" , model = "tabular" , n_episodes = 10000 )
episode_rewards = trainer . train ()
trainer . plot ( episode_rewards )