Это руководство по pytorch seq2seq для Formosa Speech Grand Challenge, которое является модификацией pratical-pytorch seq2seq-translation-batched.
Учебник, представляющий этот репозиторий с официального сайта pytorch, Учебник на китайском языке.
Новая версия уже реализована в ветке "dev".
git clone https://github.com/ywk991112/pytorch-chatbot
В корпусном файле пары последовательностей ввода-вывода должны находиться в соседних строках. Например,
I'll see you next time.
Sure. Bye.
How are you?
Better than ever.
Файлы корпуса должны располагаться по пути типа:
pytorch-chatbot/data/
В противном случае файл корпуса будет отслеживаться git.
Предварительно обученную модель на корпусе Movie_subtitles с двунаправленным слоем rnn и скрытым размером 512 можно скачать по этой ссылке. Файл предварительно обученной модели следует поместить в каталог следующим образом.
mkdir -p save/model/movie_subtitles/1-1_512
mv 50000_backup_bidir_model.tar save/model/movie_subtitles/1-1_512
Запустите эту команду, чтобы начать обучение, измените значения аргументов по своему усмотрению.
python main.py -tr -la 1 -hi 512 -lr 0.0001 -it 50000 -b 64 -p 500 -s 1000
Продолжите обучение с сохраненной моделью.
python main.py -tr -l -lr 0.0001 -it 50000 -b 64 -p 500 -s 1000
Чтобы получить дополнительные возможности,
python main.py -h
Во время обучения модели будут сохраняться в pytorch-chatbot/save/model
, и это можно изменить в config.py
.
Оцените сохраненную модель с входными последовательностями в корпусе.
python main.py -te -c
Проверьте модель с входной последовательностью вручную.
python main.py -te -c -i
Поиск луча размером k.
python main.py -te -c -be k [-i]