ความก้าวหน้าในการสร้างแบบไม่อัตโนมัติ
2022
[NAACL] การอ้างอิงเดียวไม่เพียงพอ: การกลั่นที่หลากหลายพร้อมการเลือกการอ้างอิงสำหรับการแปลแบบไม่ถอยหลังอัตโนมัติ
[ICML] หม้อแปลงอะไซคลิกกำกับสำหรับการแปลด้วยเครื่องแบบไม่ถอยอัตโนมัติ
[arXiv] แบบสำรวจเกี่ยวกับการสร้างแบบไม่ถอยอัตโนมัติสำหรับการแปลด้วยเครื่องประสาทและอื่น ๆ
[ACL] latent-GLAT: การดูตัวแปรแฝงสำหรับการสร้างข้อความแบบขนาน
[ACL] หลักสูตรการเรียนรู้การเลียนแบบสำหรับการแก้ไขข้อความด้วยโมเดลที่ไม่ถอยอัตโนมัติ
[ACL] การกระจายคำที่มีความถี่ต่ำ: การใช้ประโยชน์สูงสุดจากข้อมูลภาษาเดียวในการแปลแบบไม่ถอยอัตโนมัติ
[EMNLP] การแปลด้วยเครื่องนิวรัลแบบไม่ถอยอัตโนมัติ: การเรียกร้องความชัดเจน
[EMNLP] การเพิ่มประสิทธิภาพหลายรายละเอียดสำหรับการแปลแบบไม่ถอยอัตโนมัติ
2021
- [AAAI] การแปลแบบไม่ถอยอัตโนมัติพร้อมการทำนายแบบเลเยอร์และการควบคุมดูแลเชิงลึก
- [arXiv] MvSR-NAT: การปรับชุดย่อยแบบหลายมุมมองสำหรับการแปลด้วยเครื่องแบบไม่ถอยอัตโนมัติ
- [CL] การฝึกอบรมระดับลำดับสำหรับการแปลเครื่องประสาทแบบไม่ถอยอัตโนมัติ
- [EMNLP] สำรวจการถ่ายโอนรูปแบบข้อความแบบไม่ถอยอัตโนมัติ
- [EMNLP] การเรียนรู้การเขียนใหม่สำหรับการแปลเครื่องประสาทแบบไม่ถอยอัตโนมัติ
- [EMNLP] AligNART: การแปลด้วยเครื่องระบบประสาทแบบไม่ถอยอัตโนมัติโดยการเรียนรู้ร่วมกันเพื่อประมาณการจัดตำแหน่งและการแปล
- [ICML] Order-Agnostic Cross Entropy สำหรับการแปลด้วยเครื่องแบบไม่ถอยอัตโนมัติ
- [ICML] BANG: การเชื่อมโยงการสร้างการถดถอยอัตโนมัติและไม่ถดถอยด้วยการฝึกล่วงหน้าขนาดใหญ่
- [ACL] การฟื้นฟูคำที่มีความถี่ต่ำ: การใช้ข้อมูลคู่ขนานให้เกิดประโยชน์สูงสุดในการแปลแบบไม่ถอยอัตโนมัติ
- [ACL] การฝึกอบรมหลายรายละเอียดแบบก้าวหน้าสำหรับการแปลแบบไม่ถอยอัตโนมัติ
- [ACL] GLAT: Glancing Transformer สำหรับการแปลเครื่องประสาทแบบไม่ถอยอัตโนมัติ
- [ACL] การถอดรหัสแบบขนานที่จำกัดด้วย POS สำหรับการสร้างแบบไม่ถอยอัตโนมัติ
- [การค้นพบ ACL] การแปลด้วยเครื่องประสาทแบบไม่อัตโนมัติโดยสมบูรณ์: เคล็ดลับแห่งการค้า
- [ACL SRW] การใช้การเข้ารหัสตำแหน่งที่รับรู้ความยาวที่ถูกรบกวนสำหรับการแปลเครื่องประสาทแบบไม่อัตโนมัติ
- [EACL] การเพิ่มประสิทธิภาพของหม้อแปลงแบบไม่ถอยอัตโนมัติด้วยโครงสร้างวากยสัมพันธ์และความหมายสำหรับการแปลเครื่องประสาท
- [EACL] การสร้างข้อความแบบไม่ถอยหลังอัตโนมัติด้วยโมเดลภาษาที่ได้รับการฝึกอบรมล่วงหน้า
- [NAACL] การแยกวิเคราะห์ความหมายแบบไม่ถอยอัตโนมัติสำหรับกล่องโต้ตอบเชิงองค์ประกอบ
- [NAACL] การแปลแบบไม่ถอยหลังอัตโนมัติโดยการเรียนรู้รหัสหมวดหมู่เป้าหมาย
- [NAACL] การเรียนรู้แบบหลายงานด้วยตัวเข้ารหัสที่ใช้ร่วมกันสำหรับการแปลด้วยเครื่องแบบไม่ถอยอัตโนมัติ
- [ICLR] การทำความเข้าใจและปรับปรุงตัวเลือกคำศัพท์ในการแปลแบบไม่ถอยอัตโนมัติ
- [AAAI] แนวทางการถอดรหัสการแปลด้วยเครื่องประสาทแบบไม่ถอยอัตโนมัติพร้อมข้อมูลการเรียงลำดับใหม่
2020
- [arXiv] ฟังและกรอกตัวอักษรที่หายไป: ตัวแปลงแบบไม่ถอยอัตโนมัติสำหรับการรู้จำเสียง
- [arXiv] การสร้างบทสนทนาทางระบบประสาทแบบไม่ถอยอัตโนมัติ
- [arXiv] การปรับปรุงความคล่องแคล่วของการแปลด้วยเครื่องแบบไม่ถอยอัตโนมัติ
- [arXiv] การฝึกแบบกึ่งอัตโนมัติช่วยปรับปรุงการถอดรหัส Mask-Predict
- [arXiv] LAVA NAT: โมเดลการแปลแบบไม่ถอยอัตโนมัติพร้อมการถอดรหัสแบบมองไปรอบๆ และความสนใจด้านคำศัพท์
- [IJCAI] การเรียนรู้หลักสูตรระดับงานสำหรับการแปลเครื่องประสาทแบบไม่ถอยอัตโนมัติ
- [COLING] ความสนใจข้ามบริบทสำหรับการแปลแบบไม่ถอยอัตโนมัติ
- [COLING] การผสมผสานข้อมูลตามลำดับลงในโมเดลการแปลแบบมีเงื่อนไขพร้อมกลไกการตรวจสอบตนเอง
- [NeurIPS] การรวม BERT เข้ากับการถอดรหัสลำดับคู่ขนานด้วยอะแดปเตอร์
- [EMNLP] การแปลด้วยเครื่องแบบไม่ถอยอัตโนมัติพร้อมการจัดตำแหน่งแฝง
- [EMNLP] การปรับปรุงซ้ำในพื้นที่ต่อเนื่องสำหรับการแปลเครื่องประสาทแบบไม่ถอยอัตโนมัติ
- [EMNLP] SlotRefine: โมเดลที่ไม่ถอยอัตโนมัติที่รวดเร็วสำหรับการตรวจจับเจตนาร่วมและการเติมสล็อต
- [INTERSPEECH] Mask CTC: ASR จากต้นทางถึงปลายทางแบบไม่ถอยอัตโนมัติพร้อม CTC และ Mask Predict
- [INTERSPEECH] การสร้างแบบจำลองตามการแทรกสำหรับการรู้จำเสียงอัตโนมัติจากต้นทางถึงปลายทาง
- [ACL] การเรียนรู้ที่จะกู้คืนจากข้อผิดพลาดหลายรูปแบบสำหรับการแปลเครื่องประสาทแบบไม่ถอยอัตโนมัติ
- [ACL] แบบจำลองลำดับต่อลำดับที่สวมหน้ากากร่วมกันสำหรับการแปลเครื่องประสาทแบบไม่อัตโนมัติ
- [ACL] เครื่องยนต์: เครือข่ายอนุมานที่ใช้พลังงานสำหรับการแปลด้วยเครื่องแบบไม่ถอยอัตโนมัติ
- [ACL] การปรับปรุงการแปลด้วยเครื่องประสาทแบบไม่อัตโนมัติด้วยข้อมูลภาษาเดียว
- [ACL] การศึกษาแบบจำลองที่ไม่ถดถอยอัตโนมัติสำหรับการสร้างลำดับ
- [ICML] การแปลงข้อความเป็นคำพูดแบบระบบประสาทแบบไม่ถอยอัตโนมัติ
- [ICML] เอนโทรปีข้ามที่จัดแนวสำหรับการแปลด้วยเครื่องแบบไม่ถอยอัตโนมัติ
- [ICML] การแปลด้วยเครื่องแบบขนานพร้อมหม้อแปลงบริบทที่ไม่พันกัน
- [ICML] Imputer: การสร้างแบบจำลองลำดับผ่านการใส่ข้อมูลและการเขียนโปรแกรมแบบไดนามิก
- [ICML] แนวทาง EM ในการสร้างลำดับแบบมีเงื่อนไขแบบไม่ถอยอัตโนมัติ
- [ICLR] ทำความเข้าใจการกลั่นกรองความรู้ในการแปลด้วยเครื่องแบบไม่ถอยอัตโนมัติ
- [AAAI] การลดความแตกต่างของ Bag-of-Ngrams สำหรับการแปลด้วยเครื่อง Neural Machine แบบไม่ถอยอัตโนมัติ
- [AAAI] การแปลด้วยเครื่องนิวรัลแบบไม่รีเกรสซีฟแบบแปรผันแฝงพร้อมการอนุมานเชิงกำหนดโดยใช้เดลต้าด้านหลัง
- [AAAI] การปรับแต่งอย่างละเอียดโดยการเรียนรู้ตามหลักสูตรสำหรับการแปลด้วยเครื่องประสาทแบบไม่ถอยอัตโนมัติ
2019
- [arXiv] หม้อแปลงแบบไม่ถอยอัตโนมัติโดยการเรียนรู้ตำแหน่ง
- [NeurIPS] เลเวนชไทน์ ทรานส์ฟอร์มเมอร์
- [NeurIPS] การถอดรหัสที่มีโครงสร้างอย่างรวดเร็วสำหรับโมเดลลำดับ
- [NeurIPS] FastSpeech: รวดเร็ว ทนทาน และควบคุมข้อความเป็นคำพูดได้
- [EMNLP] Mask-Predict: การถอดรหัสแบบขนานของโมเดลภาษามาสก์แบบมีเงื่อนไข
- [EMNLP] FlowSeq: การสร้างลำดับแบบมีเงื่อนไขแบบไม่ถอยอัตโนมัติพร้อมโฟลว์แบบสร้าง
- [EMNLP] การฝึกอบรมตามคำแนะนำสำหรับการแปลด้วยเครื่องแบบไม่ถอยอัตโนมัติ
- [ACL] การดึงข้อมูลตามลำดับสำหรับการแปลเครื่องประสาทแบบไม่ถอยอัตโนมัติ
- [ACL] การเรียนรู้การเลียนแบบสำหรับการแปลเครื่องประสาทแบบไม่ถอยอัตโนมัติ
- [AAAI] การแปลด้วยเครื่องแบบไม่ถอยอัตโนมัติพร้อมการทำให้เป็นมาตรฐานเสริม
- [AAAI] การแปลด้วยเครื่องนิวรัลแบบไม่ถอยอัตโนมัติพร้อมอินพุตตัวถอดรหัสที่ได้รับการปรับปรุง
2018
- [ICML] การถอดรหัสอย่างรวดเร็วในโมเดลลำดับโดยใช้ตัวแปรแฝงแบบแยกส่วน
- [EMNLP] การสร้างแบบจำลองลำดับประสาทแบบไม่ถอยอัตโนมัติที่กำหนดโดยการปรับแต่งซ้ำ
- [EMNLP] การแปลด้วยเครื่อง Neural Machine แบบ End-to-End แบบไม่ถอยอัตโนมัติพร้อมการจำแนกประเภทชั่วคราวของ Connectionist
- [ICLR] การแปลด้วยเครื่องประสาทแบบไม่อัตโนมัติ
ติดต่อ
ฉางหาน หวัง ([email protected])