هذا هو البرنامج التعليمي pytorch seq2seq لتحدي Formosa Speech Grand Challenge، والذي تم تعديله من pratical-pytorch seq2seq-translation-batched.
برنامج تعليمي يقدم هذا الريبو من موقع pytorch الرسمي، البرنامج التعليمي باللغة الصينية.
تم بالفعل تنفيذ إصدار جديد في فرع "dev".
git clone https://github.com/ywk991112/pytorch-chatbot
في ملف المجموعة، يجب أن تكون أزواج تسلسل الإدخال والإخراج في الأسطر المجاورة. على سبيل المثال،
I'll see you next time.
Sure. Bye.
How are you?
Better than ever.
يجب وضع ملفات المجموعة تحت مسار مثل،
pytorch-chatbot/data/
وبخلاف ذلك، سيتم تعقب ملف المجموعة بواسطة git.
يمكن تنزيل النموذج المُدرب مسبقًا على مجموعة movie_subtitles مع طبقة RNN ثنائية الاتجاه وحجم مخفي 512 من هذا الرابط. يجب وضع ملف النموذج المُدرب مسبقًا في الدليل كما يلي.
mkdir -p save/model/movie_subtitles/1-1_512
mv 50000_backup_bidir_model.tar save/model/movie_subtitles/1-1_512
قم بتشغيل هذا الأمر لبدء التدريب، وقم بتغيير قيم الوسيطات حسب حاجتك الخاصة.
python main.py -tr -la 1 -hi 512 -lr 0.0001 -it 50000 -b 64 -p 500 -s 1000
مواصلة التدريب مع النموذج المحفوظ.
python main.py -tr -l -lr 0.0001 -it 50000 -b 64 -p 500 -s 1000
لمزيد من الخيارات،
python main.py -h
سيتم حفظ النماذج في pytorch-chatbot/save/model
أثناء التدريب، ويمكن تغيير ذلك في config.py
.
تقييم النموذج المحفوظ مع تسلسلات الإدخال في المجموعة.
python main.py -te -c
اختبر النموذج بتسلسل الإدخال يدويًا.
python main.py -te -c -i
بحث الشعاع بحجم k.
python main.py -te -c -be k [-i]