pytorch chatbot
1.0.0
これは、Formosa Speech Grand Challenge 用の pytorch seq2seq チュートリアルであり、pratical-pytorch seq2seq-translation-batched を変更したものです。
pytorch 公式 Web サイトからこのリポジトリを紹介するチュートリアル、中国語のチュートリアル。
新しいバージョンはブランチ「dev」にすでに実装されています。
git clone https://github.com/ywk991112/pytorch-chatbot
コーパス ファイルでは、入出力シーケンスのペアが隣接する行に存在する必要があります。例えば、
I'll see you next time.
Sure. Bye.
How are you?
Better than ever.
コーパス ファイルは次のようなパスの下に配置する必要があります。
pytorch-chatbot/data/
それ以外の場合、コーパス ファイルは git によって追跡されます。
双方向 rnn 層と隠しサイズ 512 を備えた movie_subtitles コーパスの事前トレーニング済みモデルは、このリンクからダウンロードできます。事前学習済みモデルファイルは次のディレクトリに配置する必要があります。
mkdir -p save/model/movie_subtitles/1-1_512
mv 50000_backup_bidir_model.tar save/model/movie_subtitles/1-1_512
このコマンドを実行してトレーニングを開始し、必要に応じて引数の値を変更します。
python main.py -tr -la 1 -hi 512 -lr 0.0001 -it 50000 -b 64 -p 500 -s 1000
保存したモデルを使用してトレーニングを続行します。
python main.py -tr -l -lr 0.0001 -it 50000 -b 64 -p 500 -s 1000
その他のオプションについては、
python main.py -h
モデルはトレーニング中にpytorch-chatbot/save/model
に保存され、これはconfig.py
で変更できます。
コーパス内の入力シーケンスを使用して保存されたモデルを評価します。
python main.py -te -c
入力シーケンスを使用してモデルを手動でテストします。
python main.py -te -c -i
サイズkのビームサーチ。
python main.py -te -c -be k [-i]