Highway Transformer
1.0.0
이 저장소는 Self-Dependency Unit을 사용하는 Transformer-XL의 데모 코드입니다. 이 작업은 Google의 Switch Transformers와 같은 Gating 강화 Transformer 변형과 밀접하게 관련되어 있습니다.
채예건 외. 알. , Highway Transformer : Self-Gating Enhanced Self-Attentive Networks(ACL 2020)
bash getdata.sh
cd pytorch/xl_L6_scripts && bash < script-name > .sh train --work_dir " PATH_TO_WORK_DIR "
cd XL-L6-results && tensorboard --logdir=.
교육 bpc | 훈련 손실 |
---|---|
평가 BPC | 평가 손실 |
---|---|
학문적 맥락에서 귀속을 위해 이 연구를 다음과 같이 인용하십시오.
@inproceedings{chai-etal-2020-highway,
title = " Highway Transformer : Self-Gating Enhanced Self-Attentive Networks",
author = "Chai, Yekun and
Jin, Shuo and
Hou, Xinwen",
booktitle = "Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics",
month = jul,
year = "2020",
publisher = "Association for Computational Linguistics",
url = "https://www.aclweb.org/anthology/2020.acl-main.616",
pages = "6887--6900"
}