Highway Transformer
1.0.0
repo นี้เป็นโค้ดสาธิตของ Transformer-XL โดยใช้ Self-Dependency Unit งานนี้เกี่ยวข้องอย่างใกล้ชิดกับตัวแปร Transformer ที่ปรับปรุง Gating เช่น Switch Transformers ของ Google
เยคุนชัย และ. อัล , Highway Transformer : Self-Gating Enhanced Self-Attentive Networks (ACL 2020)
bash getdata.sh
cd pytorch/xl_L6_scripts && bash < script-name > .sh train --work_dir " PATH_TO_WORK_DIR "
cd XL-L6-results && tensorboard --logdir=.
การฝึกอบรม bpc | การสูญเสียการฝึก |
---|---|
ประเมินผล bpc | การสูญเสียการประเมิน |
---|---|
สำหรับการแสดงที่มาในบริบททางวิชาการ โปรดอ้างอิงงานนี้ว่า:
@inproceedings{chai-etal-2020-highway,
title = " Highway Transformer : Self-Gating Enhanced Self-Attentive Networks",
author = "Chai, Yekun and
Jin, Shuo and
Hou, Xinwen",
booktitle = "Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics",
month = jul,
year = "2020",
publisher = "Association for Computational Linguistics",
url = "https://www.aclweb.org/anthology/2020.acl-main.616",
pages = "6887--6900"
}