นี่คือบทช่วยสอน pytorch seq2seq สำหรับ Formosa Speech Grand Challenge ซึ่งได้รับการดัดแปลงจาก pratical-pytorch seq2seq-translation-batched
บทช่วยสอนแนะนำ repo นี้จากเว็บไซต์อย่างเป็นทางการของ pytorch บทช่วยสอนเป็นภาษาจีน
มีการใช้งานเวอร์ชันใหม่แล้วในสาขา "dev"
git clone https://github.com/ywk991112/pytorch-chatbot
ในไฟล์คลังข้อมูล คู่ลำดับอินพุต-เอาต์พุตควรอยู่ในบรรทัดที่อยู่ติดกัน ตัวอย่างเช่น,
I'll see you next time.
Sure. Bye.
How are you?
Better than ever.
ไฟล์คลังข้อมูลควรอยู่ภายใต้เส้นทางเช่น
pytorch-chatbot/data/
มิฉะนั้น ไฟล์คลังข้อมูลจะถูกติดตามโดยคอมไพล์
สามารถดาวน์โหลดโมเดลที่ได้รับการฝึกล่วงหน้าในคลังข้อมูล movie_subtitles ที่มีเลเยอร์ rnn แบบสองทิศทางและขนาดที่ซ่อนอยู่ 512 ได้ในลิงก์นี้ ควรวางไฟล์โมเดลที่ฝึกไว้ล่วงหน้าไว้ในไดเร็กทอรีดังต่อไปนี้
mkdir -p save/model/movie_subtitles/1-1_512
mv 50000_backup_bidir_model.tar save/model/movie_subtitles/1-1_512
รันคำสั่งนี้เพื่อเริ่มการฝึก เปลี่ยนค่าอาร์กิวเมนต์ตามที่คุณต้องการ
python main.py -tr -la 1 -hi 512 -lr 0.0001 -it 50000 -b 64 -p 500 -s 1000
ฝึกต่อด้วยโมเดลที่บันทึกไว้
python main.py -tr -l -lr 0.0001 -it 50000 -b 64 -p 500 -s 1000
หากต้องการตัวเลือกเพิ่มเติม
python main.py -h
โมเดลจะถูกบันทึกไว้ใน pytorch-chatbot/save/model
ขณะฝึกฝน และสามารถเปลี่ยนแปลงได้ใน config.py
ประเมินโมเดลที่บันทึกไว้ด้วยลำดับอินพุตในคลังข้อมูล
python main.py -te -c
ทดสอบโมเดลด้วยลำดับอินพุตด้วยตนเอง
python main.py -te -c -i
ค้นหาบีมด้วยขนาด k
python main.py -te -c -be k [-i]