Nicht-autoregressiver Generierungsfortschritt
2022
[NAACL] Eine Referenz ist nicht genug: Diverse Destillation mit Referenzauswahl für nicht-autoregressive Übersetzung
[ICML] Gerichteter azyklischer Transformator für nicht-autoregressive maschinelle Übersetzung
[arXiv] Eine Umfrage zur nicht-autoregressiven Generierung für neuronale maschinelle Übersetzung und darüber hinaus
[ACL] latent-GLAT: Blick auf latente Variablen für die parallele Textgenerierung
[ACL] Ein Nachahmungslehrplan für die Textbearbeitung mit nicht autoregressiven Modellen
[ACL] Umverteilung niederfrequenter Wörter: Das Beste aus einsprachigen Daten in der nicht-autoregressiven Übersetzung machen
[EMNLP] Nicht-autoregressive neuronale maschinelle Übersetzung: Ein Aufruf zur Klarheit
[EMNLP] Multi-Granularitätsoptimierung für nicht-autoregressive Übersetzung
2021
- [AAAI] Nicht-autoregressive Übersetzung mit schichtweiser Vorhersage und tiefer Überwachung
- [arXiv] MvSR-NAT: Multi-View-Subset-Regularisierung für nicht-autoregressive maschinelle Übersetzung
- [CL] Sequenzebenentraining für nicht-autoregressive neuronale maschinelle Übersetzung
- [EMNLP] Erkundung der nicht-autoregressiven Textstilübertragung
- [EMNLP] Lernen, für nicht-autoregressive neuronale maschinelle Übersetzung neu zu schreiben
- [EMNLP] AligNART: Nicht-autoregressive neuronale maschinelle Übersetzung durch gemeinsames Lernen, die Ausrichtung zu schätzen und zu übersetzen
- [ICML] Ordnungsunabhängige Kreuzentropie für nicht-autoregressive maschinelle Übersetzung
- [ICML] BANG: Überbrückung der autoregressiven und nichtautoregressiven Generation mit groß angelegtem Vortraining
- [ACL] Verjüngung niederfrequenter Wörter: Das Beste aus parallelen Daten bei der nicht-autoregressiven Übersetzung machen
- [ACL] Progressives Multi-Granularitätstraining für nicht-autoregressive Übersetzung
- [ACL] GLAT: Glance Transformer für nicht-autoregressive neuronale maschinelle Übersetzung
- [ACL] POS-beschränkte parallele Dekodierung für nicht-autoregressive Generierung
- [ACL-Ergebnisse] Vollständig nicht-autoregressive neuronale maschinelle Übersetzung: Tricks of the Trade
- [ACL SRW] Verwendung der gestörten längenbewussten Positionskodierung für nicht-autoregressive neuronale maschinelle Übersetzung
- [EACL] Anreicherung des nicht-autoregressiven Transformators mit syntaktischen und semantischen Strukturen für die neuronale maschinelle Übersetzung
- [EACL] Nicht-autoregressive Textgenerierung mit vorab trainierten Sprachmodellen
- [NAACL] Nicht-autoregressives semantisches Parsen für kompositorisch aufgabenorientierten Dialog
- [NAACL] Nicht-autoregressive Übersetzung durch Lernen kategorialer Zielcodes
- [NAACL] Multitasking-Lernen mit Shared Encoder für nicht-autoregressive maschinelle Übersetzung
- [ICLR] Verständnis und Verbesserung der lexikalischen Auswahl bei der nicht-autoregressiven Übersetzung
- [AAAI] Anleitung zur Dekodierung nicht-autoregressiver neuronaler maschineller Übersetzung mit Neuordnungsinformationen
2020
- [arXiv] Hören Sie zu und ergänzen Sie die fehlenden Buchstaben: Nicht-autoregressiver Transformator für die Spracherkennung
- [arXiv] Nicht-autoregressive neuronale Dialoggenerierung
- [arXiv] Verbesserung der Sprachkompetenz nicht-autoregressiver maschineller Übersetzung
- [arXiv] Semi-autoregressives Training verbessert die Mask-Predict-Dekodierung
- [arXiv] LAVA NAT: Ein nicht autoregressives Übersetzungsmodell mit Look-Around-Dekodierung und Vokabelaufmerksamkeit
- [IJCAI] Lehrplanlernen auf Aufgabenebene für nicht-autoregressive neuronale maschinelle Übersetzung
- [COLING] Kontextbewusste gegenseitige Aufmerksamkeit für nicht-autoregressive Übersetzung
- [COLING] Einbringen sequentieller Informationen in ein bedingt maskiertes Übersetzungsmodell mit Selbstüberprüfungsmechanismus
- [NeurIPS] Einbindung von BERT in die parallele Sequenzdekodierung mit Adaptern
- [EMNLP] Nicht-autoregressive maschinelle Übersetzung mit latenten Ausrichtungen
- [EMNLP] Iterative Verfeinerung im kontinuierlichen Raum für nicht-autoregressive neuronale maschinelle Übersetzung
- [EMNLP] SlotRefine: Ein schnelles nicht autoregressives Modell zur Erkennung gemeinsamer Absichten und zum Füllen von Slots
- [INTERSPEECH] Mask CTC: Nicht autoregressiver End-to-End-ASR mit CTC und Mask Predict
- [INTERSPEECH] Einfügungsbasierte Modellierung für eine durchgängige automatische Spracherkennung
- [ACL] Lernen, sich von Multimodalitätsfehlern für die nicht autoregressive neuronale maschinelle Übersetzung zu erholen
- [ACL] Gemeinsam maskiertes Sequenz-zu-Sequenz-Modell für nicht-autoregressive neuronale maschinelle Übersetzung
- [ACL] ENGINE: Energiebasierte Inferenznetzwerke für nicht-autoregressive maschinelle Übersetzung
- [ACL] Verbesserung der nicht-autoregressiven neuronalen maschinellen Übersetzung mit einsprachigen Daten
- [ACL] Eine Studie eines nicht-autoregressiven Modells für die Sequenzgenerierung
- [ICML] Nicht-autoregressive neuronale Text-to-Speech
- [ICML] Ausgerichtete Kreuzentropie für nicht autoregressive maschinelle Übersetzung
- [ICML] Parallele maschinelle Übersetzung mit Disentangled Context Transformer
- [ICML] Imputer: Sequenzmodellierung durch Imputation und dynamische Programmierung
- [ICML] Ein EM-Ansatz zur nicht-autoregressiven bedingten Sequenzgenerierung
- [ICLR] Wissensdestillation in der nicht-autoregressiven maschinellen Übersetzung verstehen
- [AAAI] Minimierung des Bag-of-Ngrams-Unterschieds für nicht-autoregressive neuronale maschinelle Übersetzung
- [AAAI] Latentvariable, nicht autoregressive neuronale maschinelle Übersetzung mit deterministischer Inferenz unter Verwendung eines Delta Posterior
- [AAAI] Feinabstimmung durch Lehrplanlernen für nicht-autoregressive neuronale maschinelle Übersetzung
2019
- [arXiv] Nicht-autoregressiver Transformator durch Positionslernen
- [NeurIPS] Levenshtein-Transformator
- [NeurIPS] Schnelle strukturierte Dekodierung für Sequenzmodelle
- [NeurIPS] FastSpeech: Schneller, robuster und kontrollierbarer Text-to-Speech
- [EMNLP] Mask-Predict: Parallele Dekodierung bedingter maskierter Sprachmodelle
- [EMNLP] FlowSeq: Nicht-autoregressive bedingte Sequenzgenerierung mit generativem Fluss
- [EMNLP] Hinweisbasiertes Training für nicht-autoregressive maschinelle Übersetzung
- [ACL] Abrufen sequentieller Informationen für die nicht autoregressive neuronale maschinelle Übersetzung
- [ACL] Imitationslernen für nicht-autoregressive neuronale maschinelle Übersetzung
- [AAAI] Nicht-autoregressive maschinelle Übersetzung mit zusätzlicher Regularisierung
- [AAAI] Nicht-autoregressive neuronale maschinelle Übersetzung mit erweiterter Decoder-Eingabe
2018
- [ICML] Schnelle Dekodierung in Sequenzmodellen unter Verwendung diskreter latenter Variablen
- [EMNLP] Deterministische nicht-autoregressive neuronale Sequenzmodellierung durch iterative Verfeinerung
- [EMNLP] End-to-End-nicht-autoregressive neuronale maschinelle Übersetzung mit konnektionistischer zeitlicher Klassifizierung
- [ICLR] Nicht-autoregressive neuronale maschinelle Übersetzung
Kontakt
Changhan Wang ([email protected])