Dies ist ein Pytorch-seq2seq-Tutorial für Formosa Speech Grand Challenge, das von pratical-pytorch seq2seq-translation-batched modifiziert wurde.
Tutorial zur Einführung in dieses Repo von der offiziellen Pytorch-Website, Tutorial auf Chinesisch.
Eine neue Version ist bereits im Zweig „dev“ implementiert.
git clone https://github.com/ywk991112/pytorch-chatbot
In der Korpusdatei sollten sich die Eingabe-Ausgabe-Sequenzpaare in den angrenzenden Zeilen befinden. Zum Beispiel,
I'll see you next time.
Sure. Bye.
How are you?
Better than ever.
Die Korpusdateien sollten unter einem Pfad wie folgt abgelegt werden:
pytorch-chatbot/data/
Andernfalls wird die Korpusdatei von Git verfolgt.
Das vorab trainierte Modell auf dem Korpus movie_subtitles mit einer bidirektionalen RNN-Schicht und der versteckten Größe 512 kann unter diesem Link heruntergeladen werden. Die vorab trainierte Modelldatei sollte im folgenden Verzeichnis abgelegt werden.
mkdir -p save/model/movie_subtitles/1-1_512
mv 50000_backup_bidir_model.tar save/model/movie_subtitles/1-1_512
Führen Sie diesen Befehl aus, um mit dem Training zu beginnen, und ändern Sie die Argumentwerte nach Bedarf.
python main.py -tr -la 1 -hi 512 -lr 0.0001 -it 50000 -b 64 -p 500 -s 1000
Setzen Sie das Training mit dem gespeicherten Modell fort.
python main.py -tr -l -lr 0.0001 -it 50000 -b 64 -p 500 -s 1000
Für weitere Optionen,
python main.py -h
Modelle werden während des Trainings in pytorch-chatbot/save/model
gespeichert und dies kann in config.py
geändert werden.
Bewerten Sie das gespeicherte Modell mit Eingabesequenzen im Korpus.
python main.py -te -c
Testen Sie das Modell manuell mit der Eingabesequenz.
python main.py -te -c -i
Strahlsuche mit Größe k.
python main.py -te -c -be k [-i]