Progrès de génération non autorégressif
2022
[NAACL] Une seule référence ne suffit pas : distillation diversifiée avec sélection de référence pour une traduction non autorégressive
[ICML] Transformateur acyclique dirigé pour la traduction automatique non autorégressive
[arXiv] Une enquête sur la génération non autorégressive pour la traduction automatique neuronale et au-delà
[ACL] latent-GLAT : regard sur les variables latentes pour la génération de texte parallèle
[ACL] Un programme d'apprentissage par imitation pour l'édition de texte avec des modèles non autorégressifs
[ACL] Redistribuer les mots basse fréquence : tirer le meilleur parti des données monolingues dans la traduction non autorégressive
[EMNLP] Traduction automatique neuronale non autorégressive : un appel à la clarté
[EMNLP] Optimisation multi-granularité pour la traduction non autorégressive
2021
- [AAAI] Traduction non autorégressive avec prédiction par couche et supervision approfondie
- [arXiv] MvSR-NAT : régularisation de sous-ensembles multi-vues pour la traduction automatique non autorégressive
- [CL] Formation au niveau séquence pour la traduction automatique neuronale non autorégressive
- [EMNLP] Explorer le transfert de style de texte non autorégressif
- [EMNLP] Apprendre à réécrire pour la traduction automatique neuronale non autorégressive
- [EMNLP] AligNART : traduction automatique neuronale non autorégressive en apprenant conjointement à estimer l'alignement et à traduire
- [ICML] Entropie croisée indépendante de l'ordre pour la traduction automatique non autorégressive
- [ICML] BANG : relier la génération autorégressive et non autorégressive avec un pré-entraînement à grande échelle
- [ACL] Rajeunir les mots basse fréquence : tirer le meilleur parti des données parallèles dans la traduction non autorégressive
- [ACL] Formation progressive multi-granularité pour la traduction non autorégressive
- [ACL] GLAT : Glancing Transformer pour la traduction automatique neuronale non autorégressive
- [ACL] Décodage parallèle contraint POS pour la génération non autorégressive
- [Résultats ACL] Traduction automatique neuronale entièrement non autorégressive : les astuces du métier
- [ACL SRW] Utilisation d'un codage positionnel sensible à la longueur perturbée pour la traduction automatique neuronale non autorégressive
- [EACL] Enrichissement d'un transformateur non autorégressif avec des structures syntaxiques et sémantiques pour la traduction automatique neuronale
- [EACL] Génération de texte non autorégressive avec des modèles de langage pré-entraînés
- [NAACL] Analyse sémantique non autorégressive pour un dialogue compositionnel orienté tâches
- [NAACL] Traduction non autorégressive par apprentissage des codes catégoriels cibles
- [NAACL] Apprentissage multitâche avec encodeur partagé pour la traduction automatique non autorégressive
- [ICLR] Comprendre et améliorer le choix lexical dans la traduction non autorégressive
- [AAAI] Guider le décodage de la traduction automatique neuronale non autorégressive avec des informations de réorganisation
2020
- [arXiv] Écoutez et remplissez les lettres manquantes : transformateur non autorégressif pour la reconnaissance vocale
- [arXiv] Génération de dialogue neuronal non autorégressif
- [arXiv] Améliorer la fluidité de la traduction automatique non autorégressive
- [arXiv] L'entraînement semi-autorégressif améliore le décodage par prédiction de masque
- [arXiv] LAVA NAT : un modèle de traduction non autorégressif avec décodage d'analyse et attention au vocabulaire
- [IJCAI] Programme d'apprentissage au niveau des tâches pour la traduction automatique neuronale non autorégressive
- [COLING] Attention croisée contextuelle pour la traduction non autorégressive
- [COLING] Insérer des informations séquentielles dans un modèle de traduction masquée conditionnelle avec un mécanisme d'auto-révision
- [NeurIPS] Intégration de BERT dans le décodage de séquence parallèle avec des adaptateurs
- [EMNLP] Traduction automatique non autorégressive avec alignements latents
- [EMNLP] Raffinement itératif dans l'espace continu pour la traduction automatique neuronale non autorégressive
- [EMNLP] SlotRefine : un modèle rapide non autorégressif pour la détection d'intentions conjointes et le remplissage d'emplacements
- [INTERSPEECH] Mask CTC : ASR de bout en bout non autorégressif avec CTC et Mask Predict
- [INTERSPEECH] Modélisation basée sur l'insertion pour la reconnaissance vocale automatique de bout en bout
- [ACL] Apprendre à récupérer des erreurs multimodales pour la traduction automatique neuronale non autorégressive
- [ACL] Modèle séquence à séquence masqué conjointement pour la traduction automatique neuronale non autorégressive
- [ACL] MOTEUR : Réseaux d'inférence basés sur l'énergie pour la traduction automatique non autorégressive
- [ACL] Améliorer la traduction automatique neuronale non autorégressive avec des données monolingues
- [ACL] Une étude d'un modèle non autorégressif pour la génération de séquences
- [ICML] Synthèse vocale neuronale non autorégressive
- [ICML] Entropie croisée alignée pour la traduction automatique non autorégressive
- [ICML] Traduction automatique parallèle avec transformateur de contexte démêlé
- [ICML] Imputer : modélisation de séquences via imputation et programmation dynamique
- [ICML] Une approche EM pour la génération de séquences conditionnelles non autorégressives
- [ICLR] Comprendre la distillation des connaissances dans la traduction automatique non autorégressive
- [AAAI] Minimiser la différence entre les sacs de ngrammes pour la traduction automatique neuronale non autorégressive
- [AAAI] Traduction automatique neuronale non autorégressive à variable latente avec inférence déterministe utilisant un delta postérieur
- [AAAI] Affinement par l'apprentissage du programme pour la traduction automatique neuronale non autorégressive
2019
- [arXiv] Transformateur non autorégressif par apprentissage de position
- [NeurIPS] Transformateur Levenshtein
- [NeurIPS] Décodage structuré rapide pour les modèles de séquence
- [NeurIPS] FastSpeech : synthèse vocale rapide, robuste et contrôlable
- [EMNLP] Mask-Predict : décodage parallèle de modèles de langage masqué conditionnel
- [EMNLP] FlowSeq : génération de séquences conditionnelles non autorégressives avec flux génératif
- [EMNLP] Formation basée sur des astuces pour la traduction automatique non autorégressive
- [ACL] Récupération d'informations séquentielles pour la traduction automatique neuronale non autorégressive
- [ACL] Apprentissage par imitation pour la traduction automatique neuronale non autorégressive
- [AAAI] Traduction automatique non autorégressive avec régularisation auxiliaire
- [AAAI] Traduction automatique neuronale non autorégressive avec entrée de décodeur améliorée
2018
- [ICML] Décodage rapide dans les modèles de séquence utilisant des variables latentes discrètes
- [EMNLP] Modélisation déterministe non autorégressive de séquences neuronales par raffinement itératif
- [EMNLP] Traduction automatique neuronale non autorégressive de bout en bout avec classification temporelle connexionniste
- [ICLR] Traduction automatique neuronale non autorégressive
Contact
Changhan Wang ([email protected])