transformers data augmentation
1.0.0
รหัสที่เกี่ยวข้องกับการเพิ่มข้อมูลโดยใช้กระดาษ Transformer Models ที่ได้รับการฝึกอบรมล่วงหน้า
รหัสประกอบด้วยการดำเนินการตามวิธีการเพิ่มข้อมูลต่อไปนี้
ในกระดาษ เราใช้ชุดข้อมูลสามชุดจากแหล่งข้อมูลต่อไปนี้
เรียกใช้ไฟล์ src/utils/download_and_prepare_datasets.sh
เพื่อเตรียมชุดข้อมูลทั้งหมด
download_and_prepare_datasets.sh
ดำเนินการตามขั้นตอนต่อไปนี้
หากต้องการเรียกใช้โค้ดนี้ คุณต้องมีการอ้างอิงต่อไปนี้
หากต้องการเรียกใช้การทดสอบการเพิ่มข้อมูลสำหรับชุดข้อมูลที่กำหนด ให้เรียกใช้สคริปต์ทุบตีในโฟลเดอร์ scripts
ตัวอย่างเช่น หากต้องการเรียกใช้การเพิ่มข้อมูลบนชุดข้อมูล snips
scripts/bart_snips_lower.sh
สำหรับการทดสอบ BARTscripts/bert_snips_lower.sh
สำหรับวิธีการเพิ่มข้อมูลที่เหลือ @inproceedings{kumar-etal-2020-data,
title = "Data Augmentation using Pre-trained Transformer Models",
author = "Kumar, Varun and
Choudhary, Ashutosh and
Cho, Eunah",
booktitle = "Proceedings of the 2nd Workshop on Life-long Learning for Spoken Language Systems",
month = dec,
year = "2020",
address = "Suzhou, China",
publisher = "Association for Computational Linguistics",
url = "https://www.aclweb.org/anthology/2020.lifelongnlp-1.3",
pages = "18--26",
}
โปรดติดต่อ [email protected] หากมีคำถามใดๆ ที่เกี่ยวข้องกับโค้ดนี้
โครงการนี้ได้รับอนุญาตภายใต้ใบอนุญาต Creative Common Attribution Non-Commercial 4.0