Progresso da geração não autorregressiva
2022
[NAACL] Uma referência não é suficiente: destilação diversificada com seleção de referência para tradução não autorregressiva
[ICML] Transformador acíclico dirigido para tradução automática não autorregressiva
[arXiv] Uma pesquisa sobre geração não autorregressiva para tradução automática neural e muito mais
[ACL] latent-GLAT: Olhando para variáveis latentes para geração de texto paralelo
[ACL] Um currículo de aprendizagem de imitação para edição de texto com modelos não autorregressivos
[ACL] Redistribuindo palavras de baixa frequência: aproveitando ao máximo os dados monolíngues na tradução não autorregressiva
[EMNLP] Tradução automática neural não autorregressiva: um pedido de clareza
[EMNLP] Otimização multigranulação para tradução não autorregressiva
2021
- [AAAI] Tradução não autorregressiva com previsão em camadas e supervisão profunda
- [arXiv] MvSR-NAT: Regularização de subconjunto de múltiplas visualizações para tradução automática não autorregressiva
- [CL] Treinamento em nível de sequência para tradução automática neural não autorregressiva
- [EMNLP] Explorando a transferência de estilo de texto não autorregressivo
- [EMNLP] Aprendendo a reescrever para tradução automática neural não autorregressiva
- [EMNLP] AligNART: Tradução automática neural não autorregressiva por aprendizagem conjunta para estimar alinhamento e tradução
- [ICML] Entropia cruzada independente de ordem para tradução automática não autorregressiva
- [ICML] BANG: Unindo Geração Autoregressiva e Não Autoregressiva com Pré-treinamento em Grande Escala
- [ACL] Rejuvenescendo palavras de baixa frequência: aproveitando ao máximo os dados paralelos na tradução não autorregressiva
- [ACL] Treinamento progressivo de multigranulação para tradução não autorregressiva
- [ACL] GLAT: Transformador de olhar para tradução automática neural não autorregressiva
- [ACL] Decodificação paralela restrita a POS para geração não autorregressiva
- [Descobertas da ACL] Tradução automática neural totalmente não autorregressiva: truques do comércio
- [ACL SRW] Usando codificação posicional com reconhecimento de comprimento perturbado para tradução automática neural não autorregressiva
- [EACL] Enriquecendo o transformador não autorregressivo com estruturas sintáticas e semânticas para tradução automática neural
- [EACL] Geração de texto não autorregressivo com modelos de linguagem pré-treinados
- [NAACL] Análise Semântica Não Autoregressiva para Diálogo Composicional Orientado a Tarefas
- [NAACL] Tradução não autorregressiva por aprendizagem de códigos categóricos alvo
- [NAACL] Aprendizado multitarefa com codificador compartilhado para tradução automática não autorregressiva
- [ICLR] Compreendendo e melhorando a escolha lexical na tradução não autorregressiva
- [AAAI] Orientando a decodificação de tradução automática neural não autorregressiva com informações de reordenamento
2020
- [arXiv] Ouça e preencha as letras que faltam: transformador não autorregressivo para reconhecimento de fala
- [arXiv] Geração de diálogo neural não autorregressivo
- [arXiv] Melhorando a fluência da tradução automática não autorregressiva
- [arXiv] Treinamento semiautoregressivo melhora a decodificação de previsão de máscara
- [arXiv] LAVA NAT: um modelo de tradução não autorregressivo com decodificação look-around e atenção ao vocabulário
- [IJCAI] Aprendizagem curricular em nível de tarefa para tradução automática neural não autorregressiva
- [COLING] Atenção cruzada baseada no contexto para tradução não autorregressiva
- [COLING] Infusão de informações sequenciais em modelo de tradução condicional mascarada com mecanismo de autoavaliação
- [NeurIPS] Incorporando BERT na decodificação de sequência paralela com adaptadores
- [EMNLP] Tradução automática não autorregressiva com alinhamentos latentes
- [EMNLP] Refinamento iterativo no espaço contínuo para tradução automática neural não autorregressiva
- [EMNLP] SlotRefine: um modelo rápido não autorregressivo para detecção de intenção conjunta e preenchimento de slot
- [INTERSPEECH] Mask CTC: ASR ponta a ponta não autorregressivo com CTC e previsão de máscara
- [INTERSPEECH] Modelagem baseada em inserção para reconhecimento automático de fala de ponta a ponta
- [ACL] Aprendendo a se recuperar de erros multimodalidade para tradução automática neural não autorregressiva
- [ACL] Modelo sequência a sequência mascarado conjuntamente para tradução automática neural não autorregressiva
- [ACL] MOTOR: Redes de inferência baseadas em energia para tradução automática não autorregressiva
- [ACL] Melhorando a tradução automática neural não autorregressiva com dados monolíngues
- [ACL] Um Estudo de Modelo Não Autorregressivo para Geração de Sequência
- [ICML] Conversão de texto em fala neural não autorregressiva
- [ICML] Entropia cruzada alinhada para tradução automática não autorregressiva
- [ICML] Tradução automática paralela com transformador de contexto desemaranhado
- [ICML] Imputer: Modelagem de Sequência via Imputação e Programação Dinâmica
- [ICML] Uma abordagem EM para geração de sequência condicional não autorregressiva
- [ICLR] Compreendendo a destilação de conhecimento em tradução automática não autorregressiva
- [AAAI] Minimizando a diferença de bag-of-Ngrams para tradução automática neural não autorregressiva
- [AAAI] Tradução automática neural não autorregressiva de variável latente com inferência determinística usando um delta posterior
- [AAAI] Ajuste fino por aprendizagem curricular para tradução automática neural não autorregressiva
2019
- [arXiv] Transformador não autorregressivo por aprendizagem de posição
- [NeurIPS] Transformador Levenshtein
- [NeurIPS] Decodificação estruturada rápida para modelos de sequência
- [NeurIPS] FastSpeech: conversão de texto em fala rápida, robusta e controlável
- [EMNLP] Mask-Predict: Decodificação paralela de modelos de linguagem condicional mascarada
- [EMNLP] FlowSeq: Geração de sequência condicional não autorregressiva com fluxo generativo
- [EMNLP] Treinamento baseado em dicas para tradução automática não autorregressiva
- [ACL] Recuperando informações sequenciais para tradução automática neural não autorregressiva
- [ACL] Aprendizado de imitação para tradução automática neural não autorregressiva
- [AAAI] Tradução automática não autorregressiva com regularização auxiliar
- [AAAI] Tradução automática neural não autorregressiva com entrada de decodificador aprimorada
2018
- [ICML] Decodificação rápida em modelos de sequência usando variáveis latentes discretas
- [EMNLP] Modelagem Determinística de Sequência Neural Não Autoregressiva por Refinamento Iterativo
- [EMNLP] Tradução automática neural não autorregressiva de ponta a ponta com classificação temporal conexionista
- [ICLR] Tradução automática neural não autorregressiva
Contato
Changhan Wang ([email protected])