transformers data augmentation
1.0.0
與使用預訓練 Transformer 模型進行資料增強論文相關的程式碼
程式碼包含以下資料增強方法的實現
在論文中,我們使用以下資源中的三個資料集
執行src/utils/download_and_prepare_datasets.sh
檔案以準備所有資料集。
download_and_prepare_datasets.sh
執行下列步驟
要運行此程式碼,您需要以下依賴項
若要對給定資料集執行資料增強實驗,請執行scripts
夾中的 bash 腳本。例如,要在snips
資料集上運行資料增強,
scripts/bart_snips_lower.sh
進行 BART 實驗scripts/bert_snips_lower.sh
以獲取其餘的資料增強方法 @inproceedings{kumar-etal-2020-data,
title = "Data Augmentation using Pre-trained Transformer Models",
author = "Kumar, Varun and
Choudhary, Ashutosh and
Cho, Eunah",
booktitle = "Proceedings of the 2nd Workshop on Life-long Learning for Spoken Language Systems",
month = dec,
year = "2020",
address = "Suzhou, China",
publisher = "Association for Computational Linguistics",
url = "https://www.aclweb.org/anthology/2020.lifelongnlp-1.3",
pages = "18--26",
}
如果對此程式碼有任何疑問,請聯絡 [email protected]。
該專案根據 Creative Common Attribution Non-Commercial 4.0 授權。